b1
... bn
∈ Kn. Allora l’unica soluzione del sistema `e la n-upla (y1, . . . , yn) di coordinate
yj = det(a1, · · · , aj−1, b, aj+1, · · · , an) det(A)
per ogni j = 1, . . . , n: `e un quoziente di due determinanti, a denominatore quello di A, a numeratore quello della matrice ottenuta sostituendo alla colonna j-esima di A la colonna dei termini noti.
Dimostrazione. Sia y =
y1
... yn
la soluzione. Allora Ay = b; ci`o equivale a y1a1+ y2a2+ · · · + ynan= b.
Perci`o det(a1, · · · , aj−1, b, aj+1, · · · , an) = det(a1, · · · , aj−1, y1a1+y2a2+· · ·+ynan, aj+1, · · · , an) = per la multilinearit`a = Pn
i=1yi det(a1, · · · , aj−1, ai, aj+1, · · · , an) = yjdet(A). Essendo det(A) 6= 0, possiamo dividere per det(A) e otteniamo la tesi.
Osserviamo che l’unica soluzione `e anche esprimibile come y = A−1b.
11.12 Rango e minori di una matrice
Definizione 11.12.1. I minori di una matrice sono i determinanti delle sue sottomatrici quadrate. Si dice che un minore ha ordine s se `e il determinante di una sottomatrice s × s.
Vale la seguente caratterizzazione del rango di una matrice.
Proposizione 11.12.2. Sia A ∈ M (m × n, K) una matrice m × n. Allora A ha rango r se e solo se A ha almeno un minore non nullo di ordine r e ogni minore di A di ordine s > r
`e nullo. Equivalentemente, il rango di A `e il massimo ordine di un minore non nullo di A.
Dimostrazione. Se A ha rango r, A contiene r righe linearmente indipendenti; possiamo supporre che siano a1, · · · , ar. Allora la sottomatrice A0 =
a1
... ar
formata dalle prime r
righe di A `e una matrice r × n di rango r. Quindi A0 ha r colonne linearmente indipendenti:
questo ci d`a una sottomatrice r × r invertibile di A. Dato che, per ipotesi, se s > r, s righe o colonne di A comunque prese sono linearmente dipendenti, ogni sottomatrice quadrata di ordine s ha righe e colonne linearmente dipendenti.
Viceversa, supponiamo che la sottomatrice formata dalla prime r righe e colonne di A sia invertibile; allora le prime r righe e colonne di A sono linearmente indipendenti, quindi rg A ≥ r. Ma rg A non pu`o essere > r altrimenti per la precedente implicazione potrei trovare un minore non nullo di ordine > r.
Si pu`o dimostrare il seguente teorema di Kronecker, o degli orlati, che permette di semplificare il procedimento espresso dal Teorema 11.12.2. In una matrice A, considerata una sua sottomatrice quadrata B di ordine p con determinante diverso da zero, si definiscono orlati di B tutte le sottomatrici quadrate di ordine p + 1, ottenute aggiungendo a B (parte di) una riga e una colonna di A. Il Teorema afferma che, se tutti gli orlati di B hanno determinante nullo, allora rg A = p.
Capitolo 12
Diagonalizzazione
Ci occuperemo ora del problema di trovare un rappresentante “ naturale” nella classe di similitudine di una data matrice A di M (n × n, K). La prima domanda che ci poniamo `e quando la classe di A contiene una matrice diagonale. Come vedremo la risposta dipende strettamente dal campo K su cui si lavora.
Fissiamo dunque un campo K .
12.1 Autovalori, autovettori e autospazi
Definizione 12.1.1 (Autovalori e autovettori).
1. Sia V un K-spazio vettoriale e sia f : V → V un endomorfismo di V . Uno scalare λ ∈ K `e un autovalore di f se esiste un vettore v ∈ V non nullo tale che f (v) = λv. In tal caso v `e detto autovettore di f di autovalore λ.
2. Sia A ∈ M (n × n, K) una matrice quadrata. Uno scalare λ `e un autovalore di A se esiste un vettore x ∈ Kn non nullo tale che Ax = λx. In tal caso x `e detto autovettore di A di autovalore λ.
Chiaramente dire che λ, v sono rispettivamente un autovalore e un autovettore di A equivale a dire che lo sono dell’endomorfismo L(A) : Kn→ Kn.
Notiamo che gli autovettori sono vettori non nulli, altrimenti la nozione di auto-valore sarebbe banale. Infatti, per ogni λ ∈ K, indicato con 0V il vettore nullo di V , si ha f (0V) = 0V = λ0V.
Osservazione 19. Sia V uno spazio vettoriale di dimensione finita. λ `e un autovalore di f se e solo se λ `e un autovalore della matrice M = MB(f ), per ogni base B di V . Infatti se x1, . . . , xn sono le coordinate di v rispetto a B, f (v) = λv se e solo se M X = λX, dove X =t(x1, . . . , xn).
Esempio 12.1.2. Sia A =2 0 0 0
. Allora Ax =2 0 0 0
x1 x2
= 2x1 0
, λx = λx1 λx2
. Dunque Ax = λx se e solo se
(2x1 = λx1 0 = λx2
, se e solo se
((2 − λ)x1 = 0
λx2 = 0 . Questo accade, con x 6= 0, se e solo se λ = 2 oppure λ = 0: λ1= 2 e λ2 = 0 sono gli autovalori di A.
Per λ1 = 2, i relativi autovettori sono tutti i vettori non nulli con x2 = 0; formano il complementare del vettore nullo nel sottospazio < (1, 0) >=< e1 >⊂ K2.
Se λ2 = 0, i relativi autovettori sono tutti i vettori non nulli con x1 = 0; formano il complementare del vettore nullo nel sottospazio < (0, 1) >=< e2 >⊂ K2.
In altre parole, la restrizione di L(A) alla retta x2= 0 `e la moltiplicazione per 2; mentre la restrizione alla retta x1= 0 `e la mappa nulla.
Definizione 12.1.3 (Autospazi). Sia f : V → V un endomorfismo, λ ∈ K. L’insieme Aut(λ) = {v ∈ V | f (v) = λv} = {0V} ∪ {autovettori di λ} `e detto autospazio di λ.
Analoga definizione nel caso di una matrice A ∈ M (n × n, K). L’autospazio di λ `e Aut(λ) = {x ∈ Kn| Ax = λx} = {0Kn} ∪ {autovettori di λ}.
Osserviamo che Aut(λ) `e un sottospazio vettoriale di V , risp. di Kn, e Aut(λ) 6= (0) se e solo se λ `e autovalore. Infatti 0 ∈ Aut(λ); inoltre se v, w ∈ Aut(λ) si ha f (v) = λv, f (w) = λw, dunque, presi due scalari a, b ∈ K, f (av+bw) = linearit`a di f = af (v)+bf (w) = aλv + bλw = λ(av + bw), perci`o av + bw ∈ Aut(λ).
Definizione 12.1.4. La molteplicit`a geometrica dello scalare λ, denotata mg(λ), `e la dimensione del relativo autospazio: mg(λ) = dim Aut(λ).
Quindi λ `e un autovalore se e solo se mg(λ) ≥ 1.
Proposizione 12.1.5. Siano λ 6= µ due autovalori distinti di f . Allora Aut(λ) ∩ Aut(µ) = (0).
Dimostrazione. Supponiamo per assurdo che v ∈ Aut(λ) ∩ Aut(µ) sia un vettore non nullo;
dunque v `e autovettore sia di λ sia di µ. Allora f (v) = λv = µv, quindi λv − µv = 0 = (λ − µ)v. Siccome v `e non nullo, ci`o implica λ − µ = 0, il che `e assurdo.
Questa osservazione si generalizza nel seguente teorema.
Teorema 12.1.6. Autovettori relativi ad autovalori distinti sono linearmente indipendenti.
Ossia, se λ1, . . . , λk sono autovalori di f , con λi 6= λj per ogni i 6= j, e se v1, . . . , vk sono autovettori relativi rispettivamente a λ1, . . . , λk, allora v1, . . . , vk sono linearmente indipendenti.
Dimostrazione. Per induzione su k. Se k = 1, il teorema `e vero perch`e ogni autovettore `e non nullo.
Sia k ≥ 2 e supponiamo che la tesi del teorema sia vera per k − 1. Consideriamo una combinazione lineare nulla di v1, . . . , vk:
µ1v1+ · · · + µkvk= 0. (12.1) Allora f (µ1v1 + · · · + µkvk) = f (0) = 0 = per la linearit`a di f = µ1f (v1) + · · · + µkf (vk)autovettori
= µ1(λ1v1)+· · ·+µk(λkvk) = λ1(µ1v1)+· · ·+λk(µkvk). Per usare l’ipotesi induttiva sostituiamo in (12.1) a µkvk l’espressione −µ1v1− · · · − µk−1vk−1 e otteniamo:
λ1µ1v1+ · · · + λk−1µk−1vk−1− λk(µ1v1+ · · · + µk−1vk−1) = 0
da cui
(λ1µ1− λkµ1)v1+ · · · + (λk−1µk−1− λkµk−1)vk−1 = 0.
Per ipotesi induttiva v1, . . . , vk−1 sono linearmente indipendenti, quindi otteniamo
λ1µ1− λkµ1 = (λ1− λk)µ1= 0 . . .
(λk−1− λk)µk−1= 0
Essendo gli autovalori tutti distinti λ1− λk 6= 0, . . . , λk−1− λk 6= 0, e quindi µ1 = · · · = µk−1= 0. Allora la (12.1) diventa µkvk= 0, ma vk6= 0, e concludiamo che anche µk= 0.
Corollario 12.1.7. Se f `e un endomorfismo di V con dim V = n, f non pu`o avere pi`u di n autovalori distinti. Analogamente, una matrice n × n non pu`o avere pi`u di n autovalori distinti.
Osserviamo che 0 ∈ K pu`o essere un autovalore di f (si veda l’esempio 12.1.2); ci`o accade se e solo se esiste un vettore non nullo v tale che f (v) = 0v = 0, cio`e se e solo se f non `e iniettiva. In tal caso Aut(0) = ker(f ). Analogamente per una matrice A, 0 `e un autovalore se e solo se L(A) non `e iniettiva, ossia ker L(A) 6= 0 ossia rg(A) < n. In tal caso Aut(0) = ker L(A).