• Non ci sono risultati.

Determinanti e propriet` a fondamentali

Sistemi Lineari

1. Determinanti e propriet` a fondamentali

In tutto il capitolo, il corpo C ha caratteristica diversa da 2.

1.1. Definizione (Funzioni multilineari alternanti). Se V `e uno spazio vettoriale sul corpo C, una funzione m-lineare a valori in un altro spazio vettoriale W su C `e una applicazione

δ : V × · · · × V

| {z }

m volte

−−−→ W

che `e lineare separatamente in ogni variabile, per qualsiasi fissati valori delle altre. Inoltre si dice alternante se si annulla ogni qual volta due argomenti sono uguali.

Se W = C si parla di forme m-lineari, eventualmente alternanti. Si osservi che gli insiemi delle funzioni m-lineari e m-lineari alternanti formano in modo naturale spazi vettoriali su C.

1.1.1. La condizione di m-linearit`a della definizione si pu`o esprimere dicendo che per ogni i e per ogni scelta di vettori vj ∈ V per j 6= i, la funzione v 7→ δ(v1, . . . , v, . . . , vm) (v in posizione i-esima) `e lineare. Si osservi che non basta che tutte le composizioni δ ◦ ιj siano applicazioni lineari ove ιj: V → V × · · · × V `e la j-esima inclusione per ogni j = 1, . . . , m (chi sono queste funzioni se δ `e multilineare?). `E sufficiente limitare la condizione sopra scritta per i vettori vj di una fissata base di V (!)?

1.1.2. Proposizione (propriet`a fondamentali). Sia δ una applicazione m-lineare alter-nante. Allora:

(1) δ si annulla non appena si applichi ad un insieme di m vettori linearmente dipendenti; (2) δ cambia di segno se si scambiano di posto due qualsiasi suoi argomenti.

Dimostrazione. Possiamo supporre vm=Pm−1

i=1 aivi; allora risulta δ(v1, v2, . . . , vm) = δ(v1, v2, . . . , m−1 X i=1 aivi) = m−1 X i=1 aiδ(v1, v2, . . . , vi) = m−1 X i=1 ai0 = 0 . Per il secondo punto, possiamo supporre di scambiare di posto v1 e v2, e dal calcolo

0 = δ(v1+v2, v1+v2, v3, . . . , vm) = δ(v1, v2, v3, . . . , vm) + δ(v2, v1, v3, . . . , vm)

abbiamo il risultato voluto (tenendo conto che il corpo ha caratteristica diversa da due).  1.1.3. Problema. Indichiamo con m-LinC(V, W ) e m-LinAltC(V, W ) gli spazi vettoriali delle forme m-lineari (risp. e alternanti), e sottoindentiamo W se W = C. Che dimensioni hanno questi spazi, in funzione delle dimensioni di V e di W ?

1.2. Definizione-Teorema (determinante di applicazioni lineari). Sia V uno spazio vettoriale di dimensione n. Allora:

(1) lo spazio delle forme n-lineari alternanti ha dimensione 1 su C, e dunque ogni suo elemento non nullo ne costituisce una base; scelta una base ordinataV di V , l’applicazione n-LinAltC(V ) → C che manda D in D(V ) `e un isomorfismo di spazi vettoriali.

(2) una forma n-lineare alternante non identicamente nulla si annulla se e solo se l’insieme costituito dagli argomenti `e un insieme linearmente dipendente.

Detta D una qualunque forma n-lineare alternante non nulla, definiamo il determinante di un endo-morfismo ϕ di V come il rapporto

det ϕ =D(ϕv1, . . . , ϕvn) D(v1, . . . , vn)

ove v1, . . . , vn`e una qualsiasi base di V ; questa definizione non dipende n´e da D n´e dalla base scelta, ma solo dal morfismo ϕ (il che giustifica la notazione). In particolare si ha che det(idV) = 1.

Dimostrazione. Osserviamo innanzittutto che una applicazione n-lineare alternante D `e determinata dal valore che assume in una base qualsiasi: se infatti v1, . . . , vn `e una qualsiasi base di V , allora D( n X i1=1 αi1,1vi1, . . . , n X in=1 αin,nvin) = n X i1=1 · · · n X in=1 αi1,1· · · αin,nD(vi1, . . . , vin) = X σ∈Sn sgn(σ)ασ(1),1· · · ασ(n),nD(v1, . . . , vn)

ove Snindica l’insieme delle permutazioni sull’insieme {1, . . . , n} e sgn(σ) `e il segno della permutazione σ (uguale a 1 se σ `e composizione di un numero pari di scambi, −1 se σ `e composizione di un numero dispari di scambi). Si osservi che nel primo passaggio abbiamo usato la multilinearit`a, nel secondo abbiamo usato la propriet`a di alternanza.

Da questo deduciamo subito che se D e D0 sono due applicazioni n-lineari alternanti non nulle, allora D = kD0 ove k = D(v1, . . . , vn)/D0(v1, . . . , vn) ∈ C. Rimane da vedere che in effetti non tutte le applicazioni n-lineari alternanti sono nulle, ma questo `e immediato osservando che definendo D(v1, . . . , vn) = 1 e usando la formula precedente per definire l’applicazione D, otteniamo una appli-cazione n-lineare alternante non nulla.

D’altra parte `e chiaro che ogni forma di questo tipo si annulla su un insieme di n vettori linear-mente dipendenti; viceversa, se si annulla su una base, allora per la formula precedente dev’essere l’applicazione nulla.

Dimostriamo ora che la definizione di determinante non dipende dalla base scelta: se v10, . . . , vn0 `e un’altra base di V , abbiamo (v01, . . . , v0n) = (v1, . . . , vn)H ove H `e una matrice invertibile, di con-seguenza abbiamo D(ϕv10, . . . , ϕvn0) D(v0 1, . . . , v0 n) = D((ϕv1, . . . , ϕvn)H) D((v1, . . . , vn)H) = hD(ϕv1, . . . , ϕvn) hD(v1, . . . , vn) ove h =P

σ∈Snsgn(σ)hσ(1),1· · · hσ(n),n`e una costante non nulla. In effetti questa verifica `e inutile, se si ricorda che il rapporto che definisce det `e il rapporto tra due funzioni n-lineari alternanti non nulle

(D e una sua modificata tramite una trasformazione H invertibile). 

1.2.1. Segue subito dal risultato precedente che il determinante di una applicazione ϕ `e non nullo se e solo se ϕ `e un isomorfismo.

1.3. Definizione-Teorema (determinante di matrici). Detta D una qualunque forma

n-lineare alternante non nulla di Vn(C), definiamo il determinante di una matrice A ∈ Mn(C) come il determinante della applicazione lineare di Vn(C) in s`e che `e rappresentata dalla matrice A nella base canonica. Il determinante di A `e dunque l’elemento di C dato da

det A=|A| :=X σ∈Snsgn(σ) n Y i=1 ai,σ(i)

ove Sn indica l’insieme delle permutazioni sull’insieme {1, . . . , n}. In particolare si ha che det In= 1. Da quanto detto possiamo allora dire che det : Mn(C) → C `e l’unica funzione n-lineare alternante sulle colonne delle matrici e che vale 1 sulla matrice identica.

1.3.1. Segue subito dal risultato precedente che il determinante di una matrice A `e non nullo se e solo se A `e invertibile. In particolare n vettori formano una base di V (ovvero sono linearmente indipendenti) se e solo se il determinante della matrice che ha come colonne le loro coordinate (in una base qualsiasi) `e non nullo.

1.3.2. Si osservi che il determinante di una matrice pu`o essere visto come un polinomio omogeneo di grado (totale) n nelle entrate della matrice, ed esso `e di primo grado rispetto a ciascuna entrata.

In quanto polinomio nelle n2 variabili ai,j, il determinante `e irriducibile, cio`e non pu`o essere scritto come prodotto di due polinomi di grado strettamente minore.

1.4. Teorema (di Binet). Le applicazioni det : EndC(V ) → C e det : Mn(C) → C rispettano identit`a e prodotto, cio`e:

(1) det(idV) = 1 e det In= 1;

(2) det(ψ ◦ ϕ) = det(ψ) det(ϕ) per ogni ϕ, ψ ∈ EndC(V ) e det(AB) = det(A) det(B) per ogni A, B ∈ Mn(C).

Dimostrazione. Il primo punto si `e gi`a visto, ed `e ovvio dalla definizione. Per il secondo punto, se uno dei due determinanti `e nullo, il risultato `e chiaro. Altrimenti ϕ e ψ sono isomorfismi e possiamo calcolare, usando qualsiasi forma multilineare alternante D e qualsiasi base di V ,

det(ψ ◦ ϕ) = D(ψ ◦ ϕv1, . . . , ψ ◦ ϕvn) D(v1, . . . , vn) = D(ψ ◦ ϕv1, . . . , ψ ◦ ϕvn) D(ϕv1, . . . , ϕvn) D(ϕv1, . . . , ϕvn) D(v1, . . . , vn) = det(ψ) det(ϕ)

poich´e il calcolo del determinante non dipende dalla base scelta dello spazio. 

1.4.1. Problema. Si osservi invece che la somma di matrici non `e rispettata dal determinante, cio`e in generale det(A + B) 6= det(A) + det(B) (farsi degli esempi).

Mostrare che det(−A) = (−1)ndet(A) se A ∈ Mn(C).

Pi`u in generale, abbiamo det(αA) = αndet(A) se A ∈ Mn(C) e α ∈ C.

1.5. Teorema (determinante della trasposta). Se ϕ ∈ EndC(V ) allora abbiamo

ϕ∈ EndC(V) e risulta det(ϕ) = det ϕ. Per ogni matrice A ∈ Mn(C) si ha det(At) = det A. Dimostrazione. La prima asserzione segue dalla seconda, che `e evidente:

det At= X σ∈Sn sgn(σ) n Y i=1 aσ(i),i= X σ∈Sn sgn(σ) n Y j=1 aj,σ−1(j)= X π∈Sn sgn(π) n Y j=1 aj,π(j)= det A .  1.6. Esempi. Riepiloghiamo alcuni esempi facili di determinanti:

1.6.1. Matrici 2 × 2. Risulta det a b

c d = ad − bc (diagonale meno antidiagonale); 1.6.2. Matrici 3×3. Risulta detab11ab22 ab33

c1 c2 c3



= a1b2c3+a2b3c1+a3b1c2−a3b2c1−a2b1c3−a1b3c2 (diagonali meno antidiagonali: regola di Sarrus);

1.6.3. Matrici 4×4. Esercizio: si tratta di una somma con 24 addendi, met`a con “segno meno”; di conseguenza non possono essere solo le diagonali e le antidiagonali (che comunque compaiono: ma con che segni?) poich´e si tratterebbe solo di 8 elementi...

1.6.4. Matrici diagonali. Il determinante `e il prodotto degli elementi diagonali.

1.6.5. Matrici antidiagonali. Il determinante `e il prodotto degli elementi nella antidiagonale, a meno di un segno: quale?

1.7. Proposizione (gruppo generale lineare). Il gruppo generale lineare GL(n, C) si caratterizza come il sottinsieme di Mn(C) delle matrici di determinante non nullo. Il determinante si restringe ad un morfismo di gruppi

det : GLn(C) −−−→ C×

tra il gruppo delle matrici invertibili con l’operazione di prodotto e il gruppo degli elementi non nulli di C con l’operazione di prodotto.

Dimostrazione. Ovvio dalle definizioni e dai risultati precedenti. 

1.7.1. In particolare abbiamo det(A−1) = det(A)−1, e che det(H−1AH) = det(A).

1.7.2. L’applicazione det : GLn(C) −−−→ C× `e suriettiva; `e vero che esistono delle inverse a destra? Trovarne qualcuna la cui immagine sia contenuta nel sottogruppo delle matrici diagonali. `

E possibile trovare una inversa a destra la cui immagine sia contenuta nel sottogruppo delle matrici scalari?

1.7.3. Le matrici di determinante uguale ad 1 formano un sottogruppo normale di GLn(C) indicato con SLn(C) (gruppo Speciale Lineare). `E vero che ogni matrice invertibile si pu`o scrivere come prodotto di una matrice scalare (risp. diagonale) e di una matrice di determinante 1? Chi `e il gruppo quoziente GLn(C)/SLn(C)?