• Non ci sono risultati.

Rango e minori di una matrice

 b1

... bn

∈ Kn. Allora l’unica soluzione del sistema `e la n-upla (y1, . . . , yn) di coordinate

yj = det(a1, · · · , aj−1, b, aj+1, · · · , an) det(A)

per ogni j = 1, . . . , n: `e un quoziente di due determinanti, a denominatore quello di A, a numeratore quello della matrice ottenuta sostituendo alla colonna j-esima di A la colonna dei termini noti.

Dimostrazione. Sia y =

 y1

... yn

 la soluzione. Allora Ay = b; ci`o equivale a y1a1+ y2a2+ · · · + ynan= b.

Perci`o det(a1, · · · , aj−1, b, aj+1, · · · , an) = det(a1, · · · , aj−1, y1a1+y2a2+· · ·+ynan, aj+1, · · · , an) = per la multilinearit`a = Pn

i=1yi det(a1, · · · , aj−1, ai, aj+1, · · · , an) = yjdet(A). Essendo det(A) 6= 0, possiamo dividere per det(A) e otteniamo la tesi.

Osserviamo che l’unica soluzione `e anche esprimibile come y = A−1b.

11.12 Rango e minori di una matrice

Definizione 11.12.1. I minori di una matrice sono i determinanti delle sue sottomatrici quadrate. Si dice che un minore ha ordine s se `e il determinante di una sottomatrice s × s.

Vale la seguente caratterizzazione del rango di una matrice.

Proposizione 11.12.2. Sia A ∈ M (m × n, K) una matrice m × n. Allora A ha rango r se e solo se A ha almeno un minore non nullo di ordine r e ogni minore di A di ordine s > r

`e nullo. Equivalentemente, il rango di A `e il massimo ordine di un minore non nullo di A.

Dimostrazione. Se A ha rango r, A contiene r righe linearmente indipendenti; possiamo supporre che siano a1, · · · , ar. Allora la sottomatrice A0 =

 a1

... ar

 formata dalle prime r

righe di A `e una matrice r × n di rango r. Quindi A0 ha r colonne linearmente indipendenti:

questo ci d`a una sottomatrice r × r invertibile di A. Dato che, per ipotesi, se s > r, s righe o colonne di A comunque prese sono linearmente dipendenti, ogni sottomatrice quadrata di ordine s ha righe e colonne linearmente dipendenti.

Viceversa, supponiamo che la sottomatrice formata dalla prime r righe e colonne di A sia invertibile; allora le prime r righe e colonne di A sono linearmente indipendenti, quindi rg A ≥ r. Ma rg A non pu`o essere > r altrimenti per la precedente implicazione potrei trovare un minore non nullo di ordine > r.

Si pu`o dimostrare il seguente teorema di Kronecker, o degli orlati, che permette di semplificare il procedimento espresso dal Teorema 11.12.2. In una matrice A, considerata una sua sottomatrice quadrata B di ordine p con determinante diverso da zero, si definiscono orlati di B tutte le sottomatrici quadrate di ordine p + 1, ottenute aggiungendo a B (parte di) una riga e una colonna di A. Il Teorema afferma che, se tutti gli orlati di B hanno determinante nullo, allora rg A = p.

Capitolo 12

Diagonalizzazione

Ci occuperemo ora del problema di trovare un rappresentante “ naturale” nella classe di similitudine di una data matrice A di M (n × n, K). La prima domanda che ci poniamo `e quando la classe di A contiene una matrice diagonale. Come vedremo la risposta dipende strettamente dal campo K su cui si lavora.

Fissiamo dunque un campo K .

12.1 Autovalori, autovettori e autospazi

Definizione 12.1.1 (Autovalori e autovettori).

1. Sia V un K-spazio vettoriale e sia f : V → V un endomorfismo di V . Uno scalare λ ∈ K `e un autovalore di f se esiste un vettore v ∈ V non nullo tale che f (v) = λv. In tal caso v `e detto autovettore di f di autovalore λ.

2. Sia A ∈ M (n × n, K) una matrice quadrata. Uno scalare λ `e un autovalore di A se esiste un vettore x ∈ Kn non nullo tale che Ax = λx. In tal caso x `e detto autovettore di A di autovalore λ.

Chiaramente dire che λ, v sono rispettivamente un autovalore e un autovettore di A equivale a dire che lo sono dell’endomorfismo L(A) : Kn→ Kn.

Notiamo che gli autovettori sono vettori non nulli, altrimenti la nozione di auto-valore sarebbe banale. Infatti, per ogni λ ∈ K, indicato con 0V il vettore nullo di V , si ha f (0V) = 0V = λ0V.

Osservazione 19. Sia V uno spazio vettoriale di dimensione finita. λ `e un autovalore di f se e solo se λ `e un autovalore della matrice M = MB(f ), per ogni base B di V . Infatti se x1, . . . , xn sono le coordinate di v rispetto a B, f (v) = λv se e solo se M X = λX, dove X =t(x1, . . . , xn).

Esempio 12.1.2. Sia A =2 0 0 0



. Allora Ax =2 0 0 0

 x1 x2



= 2x1 0



, λx = λx1 λx2

 . Dunque Ax = λx se e solo se

(2x1 = λx1 0 = λx2

, se e solo se

((2 − λ)x1 = 0

λx2 = 0 . Questo accade, con x 6= 0, se e solo se λ = 2 oppure λ = 0: λ1= 2 e λ2 = 0 sono gli autovalori di A.

Per λ1 = 2, i relativi autovettori sono tutti i vettori non nulli con x2 = 0; formano il complementare del vettore nullo nel sottospazio < (1, 0) >=< e1 >⊂ K2.

Se λ2 = 0, i relativi autovettori sono tutti i vettori non nulli con x1 = 0; formano il complementare del vettore nullo nel sottospazio < (0, 1) >=< e2 >⊂ K2.

In altre parole, la restrizione di L(A) alla retta x2= 0 `e la moltiplicazione per 2; mentre la restrizione alla retta x1= 0 `e la mappa nulla.

Definizione 12.1.3 (Autospazi). Sia f : V → V un endomorfismo, λ ∈ K. L’insieme Aut(λ) = {v ∈ V | f (v) = λv} = {0V} ∪ {autovettori di λ} `e detto autospazio di λ.

Analoga definizione nel caso di una matrice A ∈ M (n × n, K). L’autospazio di λ `e Aut(λ) = {x ∈ Kn| Ax = λx} = {0Kn} ∪ {autovettori di λ}.

Osserviamo che Aut(λ) `e un sottospazio vettoriale di V , risp. di Kn, e Aut(λ) 6= (0) se e solo se λ `e autovalore. Infatti 0 ∈ Aut(λ); inoltre se v, w ∈ Aut(λ) si ha f (v) = λv, f (w) = λw, dunque, presi due scalari a, b ∈ K, f (av+bw) = linearit`a di f = af (v)+bf (w) = aλv + bλw = λ(av + bw), perci`o av + bw ∈ Aut(λ).

Definizione 12.1.4. La molteplicit`a geometrica dello scalare λ, denotata mg(λ), `e la dimensione del relativo autospazio: mg(λ) = dim Aut(λ).

Quindi λ `e un autovalore se e solo se mg(λ) ≥ 1.

Proposizione 12.1.5. Siano λ 6= µ due autovalori distinti di f . Allora Aut(λ) ∩ Aut(µ) = (0).

Dimostrazione. Supponiamo per assurdo che v ∈ Aut(λ) ∩ Aut(µ) sia un vettore non nullo;

dunque v `e autovettore sia di λ sia di µ. Allora f (v) = λv = µv, quindi λv − µv = 0 = (λ − µ)v. Siccome v `e non nullo, ci`o implica λ − µ = 0, il che `e assurdo.

Questa osservazione si generalizza nel seguente teorema.

Teorema 12.1.6. Autovettori relativi ad autovalori distinti sono linearmente indipendenti.

Ossia, se λ1, . . . , λk sono autovalori di f , con λi 6= λj per ogni i 6= j, e se v1, . . . , vk sono autovettori relativi rispettivamente a λ1, . . . , λk, allora v1, . . . , vk sono linearmente indipendenti.

Dimostrazione. Per induzione su k. Se k = 1, il teorema `e vero perch`e ogni autovettore `e non nullo.

Sia k ≥ 2 e supponiamo che la tesi del teorema sia vera per k − 1. Consideriamo una combinazione lineare nulla di v1, . . . , vk:

µ1v1+ · · · + µkvk= 0. (12.1) Allora f (µ1v1 + · · · + µkvk) = f (0) = 0 = per la linearit`a di f = µ1f (v1) + · · · + µkf (vk)autovettori

= µ11v1)+· · ·+µkkvk) = λ11v1)+· · ·+λkkvk). Per usare l’ipotesi induttiva sostituiamo in (12.1) a µkvk l’espressione −µ1v1− · · · − µk−1vk−1 e otteniamo:

λ1µ1v1+ · · · + λk−1µk−1vk−1− λk1v1+ · · · + µk−1vk−1) = 0

da cui

1µ1− λkµ1)v1+ · · · + (λk−1µk−1− λkµk−1)vk−1 = 0.

Per ipotesi induttiva v1, . . . , vk−1 sono linearmente indipendenti, quindi otteniamo





λ1µ1− λkµ1 = (λ1− λk1= 0 . . .

k−1− λkk−1= 0

Essendo gli autovalori tutti distinti λ1− λk 6= 0, . . . , λk−1− λk 6= 0, e quindi µ1 = · · · = µk−1= 0. Allora la (12.1) diventa µkvk= 0, ma vk6= 0, e concludiamo che anche µk= 0.

Corollario 12.1.7. Se f `e un endomorfismo di V con dim V = n, f non pu`o avere pi`u di n autovalori distinti. Analogamente, una matrice n × n non pu`o avere pi`u di n autovalori distinti.

Osserviamo che 0 ∈ K pu`o essere un autovalore di f (si veda l’esempio 12.1.2); ci`o accade se e solo se esiste un vettore non nullo v tale che f (v) = 0v = 0, cio`e se e solo se f non `e iniettiva. In tal caso Aut(0) = ker(f ). Analogamente per una matrice A, 0 `e un autovalore se e solo se L(A) non `e iniettiva, ossia ker L(A) 6= 0 ossia rg(A) < n. In tal caso Aut(0) = ker L(A).

Documenti correlati