• Non ci sono risultati.

Similitudine di matrici

Forme canoniche

2. Similitudine di matrici

Nel caso di matrici quadrate, interpretate in termini di applicazioni lineari da Vn(C) in s´e stesso, siamo interessati ad usare la stessa base nel dominio e nel codominio; quindi diamo la seguente definizione.

2.1. Definizione (similitudine di matrici.). Due matrici quadrate A, B ∈ Mn(C) si dicono simili (in C) se esiste una matrice invertibile P ∈ GL(n, C) tale che B = P−1AP . Due matrici sono simili se e solo se rappresentano la stessa applicazione lineare di Vn(C) in s`e in due basi diverse (legate dal cambiamento di base dato da P ).

La relazione di similitudine `e una relazione di equivalenza tra matrici, come si verifica subito. 2.1.1. La matrice identica e la matrice nulla sono simili solamente a s´e stesse. Quali sono le matrici che hanno questa propriet`a (la loro classe di similitudine `e ridotta ad un elemento)?

2.1.2. Due matrici diagonali non sono necessariamente simili tra di loro; caratterizzare i casi in cui lo sono, e farsi degli esempi.

2.1.3. Se due matrici sono simili, allora sono anche equivalenti, mentre il viceversa `e falso (basta pensare alla matrice identica); dunque la relazione di similitudine `e pi`u fine (o meno grossolana) della relazione di equivalenza tra matrici. In particolare, ogni classe di equivalenza `e unione disgiunta di classi di similitudine, e ogni classe di similitudine `e contenuta in una classe di equivalenza.

2.1.4. La similitudine dipende dal corpo C, nel senso che le classi di similitudine dipendono dal corpo C, ma solo perch´e estendendo il corpo le classi di similitudine possono avere pi`u elementi (e anche elementi pi`u semplici), ma non capita mai che due matrici in C possano diventare simili in C0 ⊇ C senza che lo fossero gi`a in C. Questo risultato `e per`o di difficile dimostrazione, e non verr`a qui n´e dimostrato, n´e utilizzato.

Nel caso C = R (e C0= C) si pu`o per esempio ragionare cos`ı: se A, B ∈ Mn(R) e H ∈ GL(n, C) `e tale che AH = HB, allora scrivendo H = U + iV con U, V ∈ Mn(R) si ha AU = U B e AU = U B (ma U e V non sono necessariamente invertibili); quindi il sottospazio di Mn(C) formato dalle matrici X tali che AX = XB `e non nullo, ammette una base di matrici reali, e la funzione determinante non vi `e identicamente nulla, quindi esiste una matrice reale invertibile in tale spazio.

2.2. Problema. Fare una classificazione per similitudine delle matrici significa identificare le classi di equivalenza delle matrici secondo la relazione di similitudine, e possibilmente per ogni classe identificare un rappresentante (il pi`u semplice possibile).

Dal punto di vista delle applicazioni lineari di Vn(C) in s`e, si tratta di rappresentare un morfismo tramite una matrice semplice, scegliendo opportunamente una base dello spazio.

2.3. Definizione (diagonalizzabilit`a e triangolarizzabilit`a). Una matrice A ∈ Mn(C) si dice diagonalizzabile (risp. triangolarizzabile) in C se `e simile (in C) ad una matrice diagonale (risp. triangolare), cio`e se esistono P ∈ GL(n, C) e ∆ ∈ Mn(C) diagonale tale che A = P−1∆P (risp. e T ∈ Mn(C) triangolare tale che A = P−1T P ).

Una applicazione lineare ϕ di V in s`e si dice diagonalizzabile (risp. triangolarizzabile) in C se esiste una base di V tale che la matrice di ϕ in quella base sia diagonale (risp. triangolare).

2.3.1. Motivazione per il seguito di questo capitolo: affinch´e una funzione o matrice sia trian-golarizzabile o diagonalizzabile `e necessario che vi siano vettori mandati in un multiplo di s`e stessi. Quindi andremo ad esplorare l’esistenza di vettori di questo tipo (detti autovettori della funzione).

3. Autoteoria.

3.1. Definizione (autovalori e autovettori). Sia ϕ : V → V un endomorfismo di uno spazio vettoriale V . Un vettore non nullo v ∈ V si dice un autovettore di ϕ di autovalore λ ∈ C se ϕ(v) = λv, e λ ∈ C si dice un autovalore di ϕ se esiste un vettore v ∈ V non nullo tale che ϕ(v) = λv. Sia A ∈ Mn(C) una matrice; autovalori e autovettori di A per definizione sono quelli della applicazione lineare di V = Vn(C) in s`e a cui `e associata la matrice A nella base canonica. Dunque v ∈ Vn(C) non nullo (che confonderemo con le sue coordinate in base canonica) si dice autovettore di A di autovalore λ ∈ C se Av = λv, e λ ∈ C si dice un autovalore di A se esiste un vettore v ∈ Vn(C) non nullo tale che Av = λv.

L’insieme degli autovalori di A (o di ϕ) si chiama spettro di A (o di ϕ).

Per un fissato autovalore λ, l’insieme di tutti gli autovettori di autovalore λ forma un sottospazio vettoriale di V , detto autospazio di λ e che si indica con Vλ(A) (o Vλ(ϕ)).

3.1.1. Lo spettro di una matrice diagonale `e formato dagli elementi che compaiono nella diago-nale. I vettori della base canonica di Vn(C) sono autovettori per ogni matrice diagonale.

3.1.2. Gli autovettori di autovalore 0 sono gli elementi di ker ϕ. Gli autovettori di autovalore 1 sono gli elementi mandati da ϕ in s´e stessi; dunque l’autospazio di 1 `e il pi`u grande sottospazio di V in cui ϕ si restringe all’identit`a. Gli autovettori di autovalore −1?

3.1.3. Criterio banale di diagonalizzabilit`a. E un fatto evidente che una matrice `` e diagonalizzabile se e solo se Vn(C) ammette una base fatta di autovettori per la matrice. Equivalen-temente, un endomorfismo di V `e diagonalizzabile se e solo se V ammette una base di autovettori per quell’endomorfismo.

In tali casi, una matrice diagonale simile ad A (o associata a ϕ) ha in diagonale esattamente gli autovalori di A (di ϕ).

3.2. Proposizione (intersezione di autospazi). Autospazi relativi ad autovalori distinti hanno intersezione nulla. In particolare autovettori relativi ad autovalori distinti sono linearmente indipendenti.

Pi`u in generale, autospazi relativi ad autovalori distinti sono in somma diretta (ogni autospazio ha intersezione nulla con la somma degli altri).

Dimostrazione. Sia v ∈ Vλ(ϕ) ∩ Vµ(ϕ) con λ 6= µ. Allora abbiamo λv = ϕ(v) = µv da cui (λ − µ)v = 0, e poich´e λ − µ 6= 0 abbiamo v = 0. La seconda affermazione `e allora chiara (per esempio dalla formula di Grassmann).

L’asserzione generale pu`o essere dimostrata in un modo simile (per induzione: provare), ma vi sono alcune strategie pi`u simpatiche. Una `e questa: se v1, . . . , vrsono autovettori di autovalori λ1, . . . , λr

(diversi tra loro), e abbiamo v1+· · ·+vr= 0, allora applicando ϕ, ϕ2, . . . , ϕr−1alla relazione otteniamo λi

1v1+ · · · + λi

rvr= 0 per ogni i = 0, 1, . . . , r−1, cio`e VdM(λ1, . . . , λr) v1 .. . vr ! = 0 .. . 0 !

da cui la conclusione vi= 0 per ogni i (la matrice di Vandermonde `e invertibile).

Un’altra `e la seguente: se v1, . . . , vr sono autovettori di autovalori λ1, . . . , λr(diversi tra loro), e abbiamo v1+ · · · + vr= 0, applichiamo (per ogni indice i) la composizione ◦

j6=i(ϕ − λjid) alla relazione,

e otteniamo Πj6=ii− λj)vi = 0, da cui vi= 0 (per ogni i). 

3.3. Teorema (criterio per autovalori). Uno scalare λ ∈ C `e un autovalore di A ∈ Mn(C) (risp. di ϕ ∈ End(V )) se e solo se det(A − λIn) = 0 (risp. ker(ϕ − λidV) 6= 0).

Dimostrazione. Per definizione λ ∈ C `e un autovalore di A ∈ Mn(C) se e solo se esiste v ∈ Vn(C) non nullo con Av = λv, cio`e (A − λIn)v = 0 e questo significa che il sistema omogeneo di matrice A − λIn ha una soluzione non nulla, e ci`o equivale a che la matrice abbia determinante nullo. 

3.4. Definizione-Teorema (polinomio caratteristico). Il polinomio caratteristico di A ∈ Mn(C) `e

pA(X) := det(XIn− A) = (−1)n

det(A − XIn) .

Si tratta di un polinomio monico di grado n, `e invariante per similitudine, e dunque si pu`o chiamare anche polinomio caratteristico pϕ(X) di ϕ. Uno scalare λ ∈ C `e un autovalore di A (o di ϕ) se e solo se `e zero del polinomio pA(X).

Si dice che A (o ϕ) ha tutti i suoi autovalori in C se il polinomio caratteristico pA(X) si fattorizza in fattori lineari in C[X].

Dimostrazione. Mostriamo l’invarianza per similitudine: se B = P−1AP allora pB(X) = det(XIn− B)

= det(XIn− P−1AP ) = det(P−1(XIn− A)P )

= det(P )−1det(XIn− A) det(P ) = pA(X) .

L’altra affermazione `e chiara in base al criterio precedente. 

3.4.1. In particolare, tutti i coefficienti del polinomio caratteristico di una matrice sono invarianti per similitudine; il primo e l’ultimo sono particolarmente importanti:

pA(X) = Xn− tr (A)Xn−1+ · · · + (−1)ndet(A) ove tr (A) per definizione `e la somma dei termini nella diagonale principale di A.

3.4.2. Gli altri coefficienti, con segno alternato, sono le somme dei minori diagonali dell’ordine corrispondente al complementare del grado dell’indeterminata; per esempio;

(n = 2) pA(X) = X2− tr (A)X + det(A);

(n = 3) pA(X) = X3− tr (A)X2+ d2(A)X − det(A), ove d2(A) `e la somma dei minori diagonali d’ordine 2;

(n = 4) pA(X) = X4− tr (A)X3+ d2(A)X2− d3(A)X + det(A), ove d2(A) `e la somma dei minori diagonali d’ordine 2, d3(A) `e la somma dei minori diagonali d’ordine 3.

3.4.3. Conseguenza fondamentale del teorema precedente `e che lo spettro di ogni matrice (e di ogni automorfismo) `e finito: si tratta degli zeri di un polinomio di grado n a coefficienti in C, e dunque un insieme con al pi`u n elementi.

3.4.4. Gli autovalori di una matrice triangolare sono tutti e soli i suoi elementi diagonali. Dunque una matrice triangolare ha tutti i suoi autovalori in C.

3.4.5. Traccia. Dal teorema sappiamo ancora che la traccia tr (A) di una matrice `e un invari-ante per similitudine (dunque possiamo anche parlare di traccia di una applicazione lineare), e si tratta di una applicazione lineare tr : Mn(C) → C, cio`e tr (A + B) = tr (A) + tr (B), e tr (αA) = αtr (A). Chiaramente tr (O) = 0 e tr (A) = tr (At). In generale non `e moltiplicativa, ovvero tr (AB) 6= tr (A)tr (B) (farsi degli esempi; traccia dell’inversa? e della matrice identica?). Tuttavia vale che tr (AB) = tr (BA), quindi tr (ABC) = tr (BCA) = tr (CAB), ma in generale tr (ABC) 6= tr (ACB).

Si osservi infine che l’applicazione τ : HomC(V, W ) × HomC(W, V ) −→ C definita da τ (f, g) = tr (g ◦ f ) = tr (f ◦ g) `e bilineare non degenere (dunque?).

3.4.6. Problema. Possono esistere due matrici quadrate A, B tali che AB − BA = I? `E vero che AB − BA = A implica det A = 0?

3.5. Teorema (criterio di triangolarizzabilit`a). Una matrice A ∈ Mn(C) `e simile (in C) a una matrice in forma triangolare se e solo se ha tutti i suoi autovalori in C.

Un endomorfismo `e triangolarizzabile se e solo se ha tutti i suoi autovalori in C.

Dimostrazione. Il “solo se” `e gi`a stato osservato prima. Resta da dimostrare il “se”; supponiamo dunque che A abbia tutti i suoi autovalori in C e procediamo per induzione su n.

Se n = 1 tutte le matrici sono triangolari (e anzi diagonali), e non c’`e nulla da dimostrare. Supponiamo allora n > 1, e il teorema vero per matrici di ordine n−1. Sia λ un autovalore, e

v ∈ Vn(C) un autovettore relativo a λ. Scelta una base di Vn(C) il cui primo vettore `e v, abbiamo che, posto P la matrice invertibile di cambiamento di base dalla base canonica alla nuove, risulta

P−1AP = λ b

0 B



ove B ∈ Mn−1(C). Per l’invarianza del polinomio caratteristico abbiamo pA(X) = (X − λ)pB(X), e dunque la matrice B ha tutti i suoi autovalori nel corpo C (sono esattamente quelli di A, tranne una occorrenza di λ). Dunque per ipotesi induttiva, esiste Q ∈ GLn−1(C) tale che Q−1BQ = T `e matrice triangolare superiore. Di conseguenza abbiamo:

 1 0 0 Q −1 P−1AP 1 0 0 Q  = 1 0 0 Q−1   λ b 0 B   1 0 0 Q  = λ b0 0 T 

e il risultato `e una matrice triangolare superiore. 

3.5.1. Si provi a riscrivere la dimostrazione in termini di applicazioni lineari, invece che di matrici, dimostrando per induzione l’esistenza di una base triangolarizzante. `E utile osservare che se ϕ : V → V `e endomorfismo, e W 6 V tale che ϕ(W ) ⊆ W , allora ϕ definisce la funzione ristretta ϕ|W : W → W e la funzione quoziente ϕ/W : V /W → V /W , e risulta che il polinomio caratteristico di ϕ `e il prodotto dei polinomi caratteristici di restrizione e quoziente: pϕ(X) = pϕ|W(X)pϕ/W(X).

3.5.2. In particolare quindi, se C `e un corpo algebricamente chiuso (ogni polinomio in C[X] ha tutte le sue radici nel corpo) allora ogni matrice in Mn(C) `e triangolarizzabile in C. D’altra parte, se il corpo non `e algebricamente chiuso esistono matrici che non sono triangolarizzabili su quel corpo (ma lo sono in una chiusura algebrica): farsi qualche esempio usando come corpi Q (suggerimento: studiare la matrice 0 2

1 0) e R (suggerimento: studiare la matrice 0 1 −1 0).

3.6. Definizione-Teorema (molteplicit`a e nullit`a). Ad ogni autovalore λ (di una matrice A ∈ Mn(C) o di una applicazione lineare ϕ ∈ EndC(V )) restano associati due numeri interi positivi M(λ) e N(λ) cos`ı definiti:

(1) M(λ) si dice la molteplicit`a (o molteplicit`a algebrica) di λ, ed `e la molteplicit`a di λ in quanto radice del polinomio caratteristico.

(2) N(λ) si dice la nullit`a (o molteplicit`a geometrica) di λ, ed `e la dimensione del sottospazio degli autovettori associati a λ; dunque N(λ) := dimCker(ϕ−λidV) = n−rk(A−λIn).

In generale, per ogni autovalore λ si ha M(λ) > N(λ) > 1.

Dimostrazione. Sia m = N(λ); allora possiamo trovare un sistema di m autovettori per ϕ di autovalore λ linearmente indipendenti, diciamo v1, . . . , vm. Completando ad una base v1, . . . , vn di V , vediamo che la matrice di ϕ in questa base si scrive a blocchi:

A0= λIm B

0 C



e calcolando il polinomio caratteristico si ha

pA(X) = det(XIn− A0) = det(XIm− λIm) det(XIn−m− C) = (X − λ)m

det(XIn−m− C)

da cui si vede che M(λ) > m. 

3.7. Teorema (primo criterio di diagonalizzabilit`a). Una matrice A ∈ Mn(C) (risp. un endomorfismo ϕ ∈ EndC(V ) di uno spazio vettoriale V di dimensione n su C) `e simile (in C) a una matrice in forma diagonale (risp. `e diagonalizzabile in C) se e solo se ha tutti i suoi autovalori in C e ogni autovalore ha molteplicit`a e nullit`a uguali.

Dimostrazione. Il “solo se” `e chiaro: se una matrice `e diagonalizzabile il polinomio carat-teristico `e uguale a quello di una matrice diagonale, e gli autovalori sono esattamente i termini nella diagonale. Inoltre, per ogni autovalore, l’autospazio corrispondente `e generato dai vettori della base diagonalizzante corrispondenti alle occorrenze dell’autovalore nella diagonale, quindi in numero uguale alla nullit`a dell’autovalore.

Viceversa, si scelga su V = Vn(C) l’insieme costituito giustapponendo le basi degli autospazi relativi agli autovalori dati: per l’ipotesi fatta, si tratta di esattamente n elementi, ed `e un insieme

linearmente indipendente (si ricordi che autospazi relativi ad autovalori distinti sono in somma diretta), e dunque di una base. Sia P la matrice di cambiamento di base (dalla base di autovettori a quella

iniziale); allora `e chiaro che P−1AP `e una matrice diagonale. 

3.7.1. In particolare quindi, anche se C `e un corpo algebricamente chiuso non `e detto che allora ogni matrice in Mn(C) sia diagonalizzabile in C. Farsi degli esempi usando il corpo complesso C (si consideri per esempio la matrice 0 1

0 0).

3.7.2. Si osservi che il prodotto e la somma di matrici diagonalizzabili non sono necessaria-mente diagonalizzabili: per esempio la matrice 0 1

0 0 `e prodotto (e anche somma) di due matrici diagonalizzabili.

3.8. Problema: diagonalizzazione simultanea. Due matrici A e B sono simultaneamente diagonalizzabili (i.e. esiste P ∈ GL(n, C) tale che P−1AP e P−1BP sono entrambe diagonali) se e solo se sono (separatamente) diagonalizzabili e commutano tra loro (i.e. AB = BA, nel qual caso ciascuna delle due matrici `e stabile sugli autospazi dell’altra).

Generalizzare ad un numero finito di matrici.

3.9. Problema curioso. Consideriamo A ∈ Mn(Mm(C)); cio`e A `e una matrice d’ordine n le cui entrate sono matrici Ai,j ∈ Mm(C) d’ordine m, e supponiamo che tutte queste matrici commutino tra loro (a due a due): diciamo che A `e una matrice a blocchi quadrati commutanti. Sia A ∈ Mmn(C) la matrice che si ottiene da A “dimenticando la divisione in blocchi”. Allora vale che det(det(A)) = det(A) (a sinistra, si noti che det(A) ∈ Mm(C), cio`e `e una matrice). Dedurne che det(pA(X)) = pA(X). [per questo problema pu`o essere necessario ridursi a forme canoniche tipo Jordan...]

3.10. Problema: prodotto di matrici. Se almeno una tra due matrici A e B (quadrate dello stesso ordine) `e invertibile, allora AB `e simile a BA ( dunque AB hanno BA gli stessi polinomi caratteristico e minimo). In generale (senza alcuna ipotesi) resta vero che AB e BA hanno gli stessi autovalori e stesso polinomio caratteristico: si pu`o vederlo confrontando le due matrici a blocchi

AB A

0 0 e 0 A

0 BA che risultano simili via I 0 B I.

Gli autovalori di AB e BA hanno le stesse nullit`a? Si consideri l’esempio A = 0 0

0 1 e B = 0 0 1 0. Ma per gli autovalori non nulli? Per che cosa possono differire i polinomi minimi?

3.11. Problema. Siano A e B matrici quadrate dello stesso ordine n; consideriamo l’applicazione ψA,B: Mn(C) → Mn(C) data da ψA,B(X) = AX − XB. Si verifichi che si tratta di una applicazione lineare, i cui autovalori sono le differenze tra gli autovalori di A e quelli di B. Precisamente, se v `e un autovettore di A relativo all’autovalore α e w `e un autovettore di Bt relativo all’autovalore β, allora vwt`e automatrice di ψA,B di autovalore α − β. Viceversa, se N `e automatrice di ψA,B di autovalore γ, si consideri un autovettore v di B di autovalore β con N v 6= 0, e si concluda che N v `e autovettore di A di autovalore β + γ. Se invece gli autospazi di B sono contenuti nel nucleo di N , si ripete il ragionamento trovando un vettore v non appartenente al nucleo di N e tale che Bv = βv + w con N w = 0 (vedi teoria di Jordan).