Appunti di Geometria II Anno 2007
Marco Colò - Claudio Corti - Elia Schneider
Indice
1 Dualità e teoremi di Rappresentazione 3
1.1 Duale e biduale . . . . 3
1.2 Annullatore . . . . 4
1.2.1 Proprietà dell’annullatore . . . . 5
1.3 Applicazione trasposta . . . . 6
1.4 Teoremi di rappresentazione . . . . 6
1.4.1 Spazio quoziente . . . . 7
1.4.2 Caratterizzazione dei funzionali . . . . 8
1.5 Appendice - Spazi non finitamente generati . . . . 9
2 Complementi sul teorema spettrale 12 2.1 Applicazione aggiunta . . . . 12
2.2 Teorema spettrale hermitiano completo . . . . 14
2.2.1 Prodotto hermitiano . . . . 14
2.2.2 Applicazioni Φ-normali . . . . 14
2.2.3 Teorema spettrale hermitiano completo . . . . 14
2.3 Applicazioni . . . . 16
2.4 Un ritorno al caso reale . . . . 18
2.4.1 Complessificazione . . . . 18
2.4.2 Basi reali e complessificazione in coordinate . . . . 19
2.4.3 Costruzione di basi reali . . . . 20
3 Caratterizzazione del gruppo ortogonale 22 4 La teoria di Witt 25 4.1 Piani iperbolici . . . . 25
4.2 Il teorema di completamento non degenere . . . . 26
4.3 Il teorema di estensione . . . . 28
4.4 Il teorema di cancellazione . . . . 29
4.5 Indice di Witt e decomposizione di Witt . . . . 30
5 Forme canoniche di Jordan 33 5.1 Il teorema di decomposizione primaria . . . . 33
5.2 Specializzazione al caso triangolabile e riduzione alla nilpotenza . . . . 34
5.3 Basi cicliche e blocchi di Jordan . . . . 35
5.4 Forma canonica di Jordan . . . . 37
5.5 Endomorfismi non triangolabili su R ed esplosioni . . . . 39
1
2 INDICE
6 Cenni di Geometria Affine 41
6.1 Motivazioni . . . . 41
6.1.1 Traslazioni . . . . 41
6.1.2 Sistemi lineari non omogenei . . . . 41
6.1.3 Campi di vettori (vettori applicati ) . . . . 41
6.2 Spazi e Applicazioni Affini . . . . 42
6.2.1 Nozioni di base . . . . 42
6.2.2 Rappresentazioni matriciali di applicazioni affini . . . . 44
6.2.3 Caratterizzazione geometrica delle trasformazioni affini . . . . 45
7 Quadriche 47 7.1 Classificazione affine . . . . 47
7.1.1 Caso senza centro . . . . 49
7.1.2 Caso a centro . . . . 49
7.2 Classificazione isometrica . . . . 51
7.3 Complementi . . . . 52
7.3.1 Fasci di coniche . . . . 52
7.3.2 Completamento a quadrato . . . . 53
7.3.3 Rette tangenti e assi delle coniche . . . . 53
7.3.4 Trasformazione di un’ellisse in una circonferenza . . . . 54
A Versioni 55
Capitolo 1
Dualità e teoremi di Rappresentazione
1.1 Duale e biduale
Definizione 1.1. Sia V uno spazio vettoriale su K; V ∗ = Hom(V, K) è lo spazio duale di V.
Gli elementi del duale di uno spazio vettoriale sono chiamati funzionali su V . Dalla definizione si ha che se ϕ ∈ V ∗ , allora ϕ : V → K è lineare.
Sia B = {v 1 , . . . , v n } una base di V e ϕ ∈ V ∗ ; grazie all’isomorfismo di passaggio alle coordinate mandiamo V in K n e poi applichiamo ϕ:
V [ −→ K ]
Bn M
B{1}
(ϕ)
−→ K dove M B {1} (ϕ) = (a 1 , . . . , a n )
Si può quindi definire un isomorfismo di passaggio alle coordinate pure per lo spazio duale:
V ∗ [ −→ ]
B∗1 K n
Definizione 1.2. B ∗ = {v 1 ∗ , . . . , v n ∗ } è detta base duale di V ∗ della base B se v ∗ i (v j ) = δ ij , dove δ ij è il delta di Kroneker, che vale 1 per i = j e 0 per i 6= j.
Verifichiamo che B ∗ è una base:
Proposizione 1.1. Sia V uno spazio vettoriale su K, sia B = {v 1 , . . . , v n } base di V , allora B ∗ = {v 1 ∗ , . . . , v ∗ n } è base di V ∗ e dim V = dim V ∗ .
Dimostrazione. Consideriamo la combinazione lineare α 1 v ∗ 1 + · · · + α n v n ∗ = 0 che rappresenta l’applicazione nulla: 0(v 1 ) = (α 1 v 1 ∗ + · · · + α n v ∗ n )(v 1 ) = α 1 = 0; iteriamo il procedimento su tutti i vettori di B e otteniamo α j = 0 ∀ j, cioè i v ∗ j sono linearmente indipendenti.
Consideriamo ϕ ∈ V ∗ : ϕ(v 1 ) = β 1 ; iteriamo il procedimento come sopra e otteniamo ϕ = β 1 v ∗ 1 + · · · + β n v ∗ n , cioè i v ∗ j generano V ∗ .
Definizione 1.3. Sia V uno spazio vettoriale su K; V ∗∗ = Hom(V ∗ , K) si dice biduale di V.
Definiamo due isomorfismi ϕ, ψ tali che:
V −→ V ϕ ∗ −→ V ψ ∗∗
B 7−→ B ∗ 7−→ B ∗∗
3
4 Dualità e teoremi di Rappresentazione | cap. 1
β = ψ ◦ ϕ è un isomorfismo tra V e V ∗∗ ; ψ e ϕ dipendono dalle scelta di B, mentre β è definito intrinsecamente e non dipende dalla scelta della base: si dice β è un isomorfismo canonico.
β : V −→ V ∗∗
v 7−→ β(v) : V ∗ −→ K ϕ 7−→ ϕ(v)
(1.1)
Proposizione 1.2. L’applicazione (1.1) ha le seguenti proprietà:
1. ∀ v β(v) ∈ V ∗∗
2. β è lineare 3. β è bigettiva 4. ∀ B β = ψ B ◦ ϕ B Dimostrazione.
1. Sia β(v) = α v e verifichiamo che questa applicazione è lineare:
α v (ϕ + ψ) = (ϕ + ψ)(v) = ϕ(v) + ψ(v) = α v (ϕ) + α v (ψ) α v (λϕ) = (λϕ)(v) = λϕ(v) = λα v (ϕ)
2. β(v + w) = α v+w (ϕ) = ϕ(v + w) = ϕ(v) + ϕ(w) = α v (ϕ) + α w (ϕ) β(λw) = α λw (ϕ) = ϕ(λw) = λϕ(w) = λα w (ϕ)
3. β è lineare e dim V = dim V ∗∗ , quindi basta dimostrare che β è iniettiva o surgettiva.
Dato che Ker β = 0 se e solo se β è iniettiva, supponiamo per assurdo che esista v 6= 0 ∈ Ker β.
Ker β = {v ∈ V | β(v) = 0} = {v ∈ V | ∀ ϕ ∈ V ∗ ϕ(v) = 0}; sia B = {v 1 , . . . , v n } base di V e B ∗ = {v ∗ 1 , . . . , v ∗ n } base di V ∗ , allora ∀ v 6= 0 ϕ(v) = (v 1 ∗ + · · · + v ∗ n )(v) 6= 0 e quindi Ker β = 0
4. Sia B = {v 1 , . . . , v n } una base qualsiasi di V , verifichiamo che ψ B ◦ ϕ B = β, ovvero che ∀ v i ∈ B si abbia β(v i ) = ψ B ◦ ϕ B (v i ). Infatti se consideriamo ψ B ◦ ϕ B (v i ) = ψ B (v i ∗ ) = v ∗∗ i abbiamo che
v i ∗∗ (v ∗ j ) =
1 se i = j
0 se i 6= j = v j ∗ (v i ) = β(v i )(v j ∗ )
Visto che per ogni vettore di una base si ha che le due applicazioni lineari sono equivalenti, si ha la tesi.
1.2 Annullatore
Definizione 1.4. Dato un sottospazio vettoriale W di V , si definisce annullatore di W il seguente sottospazio del duale:
Ann W = {ϕ ∈ V ∗ | W ⊆ Ker ϕ} (1.2)
Osservazione 1.1. Gli elementi dell’annullatore sono le equazioni necessarie per descrivere W , ovvero tutti i funzionali che si annullano tramite un vettore di W .
ϕ ∈ Ann W ⇔ ∀ w ∈ W ϕ(w) = 0
Proposizione 1.3. Sia W ⊆ V un sottospazio vettoriale, sia B W = {w 1 , . . . , w m } base di W e B = {w 1 , . . . , w m , w m+1 , . . . , w n } base di V ; allora B W ∗ = {w ∗ m+1 , . . . , w n ∗ } è base di Ann W
Dimostrazione. Dapprima dimostriamo che w ∗ m+1 , . . . , w ∗ n ∈ Ann W : w j (w i ) = δ ji e ∀ i < m + 1 e ∀ j > m + 1 si ha quindi che w ∗ j (w i ) = 0.
Sono linearmente indipendenti perché estratti dalla base duale, ora basta dimostrare che
§ 1.3 | Annullatore 5
generano Ann W : ϕ ∈ Ann W ⊆ V ∗ ⇔ ϕ = α 1 w ∗ 1 + · · · + α m w ∗ m + α m+1 w m+1 ∗ + · · · + α n w ∗ n ; poiché ϕ ∈ Ann W , allora ϕ(w 1 ) = 0, ma ϕ(w 1 ) = α 1 w ∗ 1 (w 1 ) = α 1 e quindi α 1 = 0. Si itera il processo e si ottiene che ∀ i ∈ [1, m] α 1 = · · · = α m = 0
Corollario. La dimensione dell’annullatore è:
dim(Ann W ) = dim V − dim W (1.3)
1.2.1 Proprietà dell’annullatore
Diamo una definizione alternativa di annullatore per un sottospazio U del duale di V .
Ann 0 (U ) = {v ∈ V | g(v) = 0 ∀ g ∈ U } (1.4) Mostriamo che a meno di un isomorfismo β tra V e V ∗∗ (1.1), le due definizioni di annullatore (1.2) e (1.4) sono equivalenti
Proposizione 1.4. Ann 0 (U ) = β −1 (Ann(U ))
Dimostrazione. Dimostriamo dapprima l’inclusione ⊃: sia v ∈ β −1 (Ann(U )) e quindi β(v) ∈ Ann(U ); se g ∈ U allora abbiamo che g(v) = β(v)(g) = 0 ⇒ v ∈ Ann 0 (U ).
Ora verifichiamo l’altra inclusione ⊂: sia v ∈ Ann 0 (U ); se g ∈ U allora abbiamo che β(v)(g) = g(v) = 0 ⇒ β(v) ∈ Ann(U ) ⇒ v ∈ β −1 (Ann(U )).
Osservazione 1.2. Notare che vale pure per (1.4) la formula delle dimensioni (1.3) e che se W è sottospazio vettoriale di V allora β −1 (Ann(Ann W )) = W
Proposizione 1.5. Siano U, W sottospazi vettoriali; allora U ⊂ W ⇔ Ann U ⊃ Ann W . Dimostrazione. g ∈ Ann W ⇔ g(w) = 0 ∀ w ∈ W e in particolare g(u) = 0 ∀ v ∈ U ⊂ W
Proposizione 1.6. Siano U, W sottospazi vettoriali; allora Ann(U + W ) = Ann U ∩ Ann W . Dimostrazione. Per la proposizione (1.5)
U ⊂ U + W ⇒ Ann U ⊃ Ann(U + W ) W ⊂ U + W ⇒ Ann W ⊃ Ann(U + W )
quindi si è dimostrata l’inclusione Ann(U + W ) ⊂ Ann U ∩ Ann W . Dimostriamo ora l’altra inclusione: g ∈ Ann U ∩ Ann W ⇒ ∀ u ∈ U, ∀ w ∈ W g(w) = 0 = g(u) ⇒ g(u + w) = 0 ⇒ g ∈ Ann(U + W )
Proposizione 1.7. Siano U, W sottospazi vettoriali; allora Ann(U ∩ W ) = Ann U + Ann W . Dimostrazione. Consideriamo l’annullatore del secondo membro e per la proposizionne 1.6 si ha
che Ann(Ann U + Ann W ) = Ann(Ann U ) ∩ Ann(Ann W ); tramite l’isomorfismo canonico β (1.1) otteniamo Ann 0 (Ann U + Ann W ) = U ∩ W .
Applichiamo un’altra volta l’annullatore e tenendo presente che Ann(Ann 0 ) = id si trova
la tesi.
6 Dualità e teoremi di Rappresentazione | cap. 1
1.3 Applicazione trasposta
Definizione 1.5. Sia f : V → W lineare, la trasposta di f è:
t f : W ∗ −→ V ∗
ϕ 7−→ ϕ ◦ f (1.5)
Proposizione 1.8. Sia B base di V e D base di W . Sia f un applicazione lineare e t f la sua trasposta. Se A = M B D (f ) e B = M D B
∗∗t f allora B = t A.
Dimostrazione. Siano B = {v 1 , . . . , v m } base di V e D = {w 1 , . . . , w n } base di W e B ∗ = {v ∗ 1 , . . . , v m
∗} e D ∗ = {w 1 ∗ , . . . , w n ∗ } le rispettive basi duali.
Le matrici associate a f e t f sono rispettivamente A = (a ij ) e B = (b ij ); se scriviamo l’immagine dei vettori di base abbiamo
f (v i ) = a 1i w 1 + · · · + a ni w n ∀ i = 1, . . . , m
t f (w ∗ j ) = b 1j v ∗ 1 + · · · + b mj v m ∗ ∀ j = 1, . . . , n
Combiniamo i funzionali e vettori per ottenere gli elementi delle due matrici associate:
t f (w ∗ j )(v i ) = (b 1j v 1 ∗ + · · · + b mj v m ∗ )(v i ) = b ij
w ∗ j f (v i ) = w j ∗ (a 1i w 1 + · · · a ni w n ) = a ji
Infine si ha che ∀ i, j t f (w ∗ j )(v i ) = w j ∗ f (v i ) ⇒ b ij = a ji ⇒ t A = B
Teorema 1.1 (rango della trasposta). Sia f un’applicazione lineare e t f la sua applicazione trasposta, si ha che:
dim Im f = dim Im t f (1.6)
Dimostrazione. Sia t f : W ∗ → V ∗ ; allora dim W = dim W ∗ = dim Ker t f + dim Im t f . Bisogna dimostrare inoltre che:
dim Ker t f = dim Ann Im f (1.7)
Infatti
ϕ ∈ Ker t f ⇔ t f (ϕ) = ϕ ◦ f = 0 ⇔ ∀ v ∈ V ϕ(f (v)) = 0 ⇔ ϕ ∈ Ann Im f Quindi utilizzando (1.7) e (1.3) si ha:
dim W = dim Im t f + dim Ann Im f = dim Im t f + dim W − dim Im f
Osservazione 1.3. Si può quindi dimostrare molto semplicemente un risultato già visto nel cor- so di Geometria I. Considerando la proposizione 4 e il teorema 1 si conclude che ∀ A ∈
m K n rnk A = rnk t A.
1.4 Teoremi di rappresentazione
Definizione 1.6. Sia V uno spazio vettoriale e V ∗ il suo duale, Φ un prodotto scalare su V . ϕ ∈ V ∗ si dice rappresentabile per mezzo di Φ se:
∃ v ∈ V tale che ∀ x ∈ V ϕ(x) = Φ(v, x) Si può allora definire l’applicazione F Φ :
F Φ : V −→ V ∗
v −→ ϕ t.c. ∀ x ∈ V ϕ(x) = Φ(v, x) (1.8)
§ 1.4 | Teoremi di rappresentazione 7
Teorema 1.2 (rappresentazione).
Φ non degenere =⇒ F Φ è un isomorfismo (1.9) Dimostrazione. Dimostriamo dapprima la linearità di F Φ
F Φ (v) = ϕ 1 ∀ x ∈ V ϕ 1 (x) = Φ(v, x) F Φ (w) = ϕ 2 ∀ x ∈ V ϕ 1 (x) = Φ(v, x)
F Φ (v + w) = ϕ ∀ x ∈ V ϕ(x) = Φ(v + w, x) = Φ(v, x) + Φ(w, x) = ϕ 1 (x) + ϕ 2 (x) Verifichiamo ora che F Φ è isomorfismo
Dato che dim V = dim V ∗ basta dimostrare che l’iniettività dell’applicazione, che equivale a Ker F Φ = {0}.
Ker F Φ = {v ∈ V | ∀ x ∈ V Φ(v, x) = 0} = Rad Φ = {0}
Osservazione 1.4. V e V ∗ sono isomorfi, ma non in modo canonico, però se munisco V di un prodotto scalare non degenere, allora F Φ è un isomorfismo privilegiato tra (V, Φ) e (V ∗ , Φ).
1.4.1 Spazio quoziente
Sia V uno spazio vettoriale e Z un sottospazio vettoriale di V e V /Z per la seguente relazione di equivalenza
∀ v, w ∈ V v ∼ w ⇔ v − w ∈ Z Notare la seguente proprietà tra classi di equivalenza
∀ v ∈ V ∀ z ∈ Z [v] = [v + z]
Definiamo pure l’applicaziona proiezione al quoziente π
π : V −→ V /Z
v −→ [v] Z = [v]
Definiamo l’operazione somma e prodotto per scalari come segue [v] + [w] = [v + w] ∀ v, w ∈ V
λ[v] = [λv] ∀ v ∈ V ∀ λ ∈ K Consideriamo l’applicazione (V, +, ·) −→ (V π /Z , +, ·), la quale è
• lineare
• surgettiva
• Ker π = Z
• dim V /Z = dim V − dim Z, per la formula delle dimensioni
Consideriamo una delle infinite decomposizioni di V in Z e un sottospazio U : V = Z ⊕ U . La restrizione π| U è un isomorfismo perché il Ker π| U = {0} quindi pure iniettiva.
Sia Φ un prodotto scalare su V e Z = Rad(Φ) e quindi abbiamo π : V −→ V / Rad(Φ) . Definiamo ora in maniera naturale un prodotto scalare su V / Rad(Φ)
Φ([v], [w]) = Φ(v, w) ˆ Lemma 1.1. ˆ Φ è non degenere
Dimostrazione.
Rad( ˆ Φ) = {[v] ∈ V / Rad(Φ) | ∀ [x] ∈ V / Rad(Φ) Φ([v], [x]) = Φ(v, x)} = π(Rad(Φ)) = {[0]} ˆ
8 Dualità e teoremi di Rappresentazione | cap. 1
1.4.2 Caratterizzazione dei funzionali
Gli elementi di ImF Φ sono i funzionali rappresentabili per mezzo di Φ ImF Φ = {ϕ rappresentabili}
Teorema 1.3 (caratterizazione).
ImF Φ = Ann(Rad Φ) (1.10)
Dimostrazione.
ϕ ∈ ImF Φ ⇒ ∀ x ∈ Rad(Φ), ϕ(x) = Φ(x, v) = 0 ⇒ ϕ ∈ Ann(Rad(Φ)) Si è così dimostrata l’inclusione ImF Φ ⊆ Ann(Rad(Φ).
Ora ci rimane da dimostrare che questi due spazi vettoriali hanno la stessa dimensione ovvero che dim(ImF Φ ) > dim(Ann(Rad(Φ)). Consideriamo la trasposta della proiezione a quoziente π
t π : V / Rad(Φ) ∗ −→ V ∗
ϕ −→ ϕ ◦ π
Per la proprietà (1.6), la formula delle dimensioni e utilizzando Rad(Φ) = Ker π si ha dim(Im t π) = dim(Imπ) = dimV − dim(Rad(Φ)) = dim(Ann(Rad(Φ))) (1.11) Mi posso dunque ridurre a dimostrare che dim(ImF Φ ) > dim(Im t π). Consideriamo la seguente mappa
V −→ F
ΦImF Φ ⊆ Ann(Rad(Φ)) ⊆ V ∗
↓ π
V / Rad(Φ) −→ F
ΦˆV / Rad(Φ) ∗
poiché ˆ Φ è non degenere, si ha che F Φ ˆ è isomorfismo, ovvero
∀ ϕ ∈ V Rad(Φ) ∗ ∃[v] ∈ V Rad(Φ) tale che ∀ [x] ∈ V Rad(Φ) ϕ([x]) = ˆ Φ([x], [v]) Applichiamo a ϕ ∈ V Rad(Φ) ∗ l’applicazione t π, si ottiene
t π(ϕ) = ϕ ◦ π : V −→ π V / Rad(Φ) −→ ϕ K
x −→ [x] −→ ϕ([x]) = Φ([v][x]) = Φ(x, v) ˆ
Si ha dunque che ∃v ∈ V tale che ∀ x ∈ V t π(ϕ)(x) = Φ(v, x), ovvero si ha che t π(ϕ) è rappresentabile quindi Im t π ⊆ ImF Φ .
Corollario.
F Φ = t π ◦ F Φ ˆ ◦ π
Dimostrazione. Nella dimostrazione è risultato che Im t π ⊆ ImF Φ , e per (1.10) e (1.11) si ha dim(Im t π) = dim(ImF Φ ) ⇒ Im t π = ImF Φ
Inoltre si ha
Ker F Φ = {v ∈ V |F Φ = ϕ v : Φ(v, x) = 0∀ x ∈ V } = Rad(Φ) = Ker π
Dato che l’applicazione F Φ ˆ è un isomorfismo e si sono ottenute le due identità precedenti
il corollario è dimostrato.
§ 1.5 | Appendice - Spazi non finitamente generati 9
Osservazione 1.5. Un’equivalenza, molto utile per verificare se un funzionale (ϕ) è rappresenta- bile per mezzo del prodotto scalare (Φ), che discende direttamente dal teorema di caratte- rizzazione è:
ϕ è rappresentabile ⇔ Rad(Φ) ⊆ Ker ϕ (1.12) Osservazione 1.6. Sia Z un sottospazio vettoriale di V , la controimmagine F Φ (Ann(Z)) equivale
a Z ⊥
F Φ (Ann(Z)) = {v ∈ V |∀ zϕ v (z) = Φ(z, v) = 0} = Z ⊥
Se consideriamo la restrizione F Φ | Z
⊥possiamo trovare la formula esatta per dim(Z ⊥ ).
Abbiamo che Im(F Φ | Z
⊥) = Ann(Z) ∩ ImF Φ e Ker(F Φ | Z
⊥) = Rad Φ ∩ Z ⊥ = Rad Φ, quindi la formula della dimensioni è:
dim(Z ⊥ ) = dim(Rad Φ) + dim(Ann(Z) ∩ ImF Φ )
Utilizzando la formula di Grassman, la formula delle dimensioni e (1.3), si ottiene:
dim(Z ⊥ ) = 2 dim(V ) − dim(Z) − dim(AnnZ + ImF Φ ) (1.13) Se Φ è non degenere si ha che ImF Φ = V ∗ quindi dim(Ann(Z) + ImF Φ ) = dim(V ) ∗ = dim(V ), quindi la (1.13) diventa
dim(Z ⊥ ) = dim(V ) − dim(Z)
Se Φ è degenere si ha che ImF Φ = Ann(Rad(Φ)) e per la proprieta (1.6) si ha che Ann(Z) + Ann(Rad(Φ)) = Ann(Z ∩ Rad(Φ)), per (1.3) la (1.13) diventa
dim(Z ⊥ ) = dim(V ) − dim(Z) + dim(Z ∩ Rad(Φ))
1.5 Appendice - Spazi non finitamente generati
Fino ad ora abbiamo sempre lasciato sottointeso, per non appesantire il testo, che gli spazi vetto- riali considerati fossero finitamente generati. Considereremo principalmente R[x] come esempio di spazio vettoriale, ovviamente, non finitamente generato.
Prima di iniziare a studiare R[x] sono necessarie alcune definizioni sulla cardinalità di un insieme Definizione 1.7.
• Due insiemi (X e Y ) hanno la stessa cardinalità (|X| = |Y |) se ∃ una bigezione tra i due insiemi
• Un insieme A si dice numerabile se ha la stessa cardinalità di N (|N| = |A|)
• Se X è insieme finito con n elementi la sua cardinalità sarà |X| = n
• Si ha |X| < |Y | se ∃ f : X → Y iniettiva ma |X| 6= |Y |
Definizione 1.8. B = {1, x, ..., x n , ...} si dice base canonica di R[x]. Dimostrare che B è composta da vettori che generano R[x] e sono linearmente indipendenti è banale. Si noti anche che B è un insieme numerabile.
Consideriamo un applicazione lineare f : R[x] −→ W allora come per una quasiasi applicazione lineare su uno spazio finitamente generato si ha
Teorema 1.4 (iniettività in spazi non finitamente generati).
1. f iniettiva ⇔ Ker(f ) = {0}
2. f iniettiva ⇔ f (1), f (x), . . . , f (x n ), ... sono linearmente indipendenti Dimostrazione.
1 ⇒ f iniettiva: f (v 1 ) = f (v 2 ) ⇒ v 1 = v 2
Dato che f è lineare si ha f (0) = 0 quindi se consideriamo v 6= 0 abbiamo f (v) 6= 0, ovvero
Ker f = {0}
10 Dualità e teoremi di Rappresentazione | cap. 1
1 ⇐ f (v 1 ) = f (v 2 ) ⇔ f (v 1 ) − f (v 2 ) = 0 ⇔ f (v 1 − v 2 ) = 0 Dato che Ker f = {0} allora v 1 = v 2 , ovvero f è iniettiva
2 ⇒ a 1 p 1 + . . . + a m p m = 0 con p i ∈ {f (1), f (x), . . . , f (x n ), ...}, si può inoltre scrivere f (a 1 q 1 + . . . + a m q m ) = 0 con q i ∈ {1, x, . . . , x n , ...},
Dato che a 1 q 1 + . . . + a m q m ∈ Ker f allora a 1 q 1 + . . . + a m q m = 0 e quindi a i = 0 ∀ i, ovvero la tesi.
2 ⇐ f (a 1 q 1 + . . . + a m q m ) = a 1 f (q 1 ) + . . . + a m f (q m ) = 0, con q i ∈ {1, x, . . . , x n , ...}, dato che f (1), f (x), . . . , f (x n ), ... sono linearmente indipendenti a i = 0 ∀ i e quindi Ker f = {0}, ovvero f è iniettiva.
Tuttavia non vale la seguente propietà per gli endomorfismi f iniettiva :
; f surgettiva
dove f ∈ End(V ) e V è uno spazio vettoriale non finitamente generato. Diamo due semplici esempi per mostrare la veridicità dell’affermazione:
; p(x) −→ xp(x) è iniettiva, ma non surgettiva; 1 / ∈ Imf : p(x) −→ dx d p(x) è surgettiva, ma non iniettiva; dx d 1 = dx d 2
Osservazione 1.7. Se consideriamo W = Span( D), con D = {x, , . . . , . . . , x n , . . . }, allora avremo che W è sottospazio vettoriale di R[x] e che W e R[x] sono isomorfi (f : p(x) −→ xp(x)).
Studiamo ora le differenze tra spazi duali finitamente genereti e non. La definizione di spazio duale non va modificata, ad esempio lo spazio duale di R[x] è R[x] ∗ = Hom(R[x], R).
Se consideriamo invece tale applicazione:
ψ 0 B : R[x] −→ R[x] ∗
B −→ B ∗ (1.14)
dove B = {v 0 , . . . , v n , . . . } è la base canonica di R[x] e B ∗ = {v ∗ 0 , . . . , v ∗ n , . . . } tale che v ∗ j (v i ) = δ ij =
1 i = j
0 i 6= j , vedremo che ψ B così definito non è un isomorfismo.
Proposizione 1.9. i vettori di B ∗ sono linearmente indipendenti Dimostrazione. Siano p 1 , . . . , p m ∈ B ∗ e q 1 , . . . , q m ∈ B tale che p i = q ∗ i
Sia a 1 p 1 + . . . + a m p m = 0, 0 è l’applicazione nulla, allora si ha (a 1 p 1 + . . . + a m p m )(q j ) = P
i (a i p i )(q j ) = a j
(a 1 p 1 + . . . + a m p m )(q j ) = 0(q j ) = 0
dunque a j = 0 ∀ j, ovvero i vettori di B ∗ sono linearmente indipendenti
Corollario.
R[x] −→ ψ
BSpan( B ∗ ) ψ −→
B∗Span( B ∗∗ )
B −→ B ∗ −→ B ∗∗
Si ha che ψ B , ψ B
∗e β = ψ B
∗◦ ψ B sono isomorfismi
Dimostrazione. Dato che i vettori di B ∗ e di B ∗ sono linearmente indipendenti allora si ha che ψ B e ψ B
∗sono iniettive (per il secondo punto dell’ultimo teorema visto). Dato che sono ovviamente surgettive sono isomorfismi, come pure la loro composizione.
Verifichiamo ora che invece che @ un isomorfismo tra R[x] e R[x] ∗ , ovvero che l’applicazione
(1.14) non è isomorfismo.
§ 1.5 | Appendice - Spazi non finitamente generati 11
Proposizione 1.10. L’applicazione (1.14), ψ B 0 non è surgettiva
Dimostrazione. Ci basta un controesempio, ovvero trovare un funzionale ϕ ∈ R[x] ∗ ma ϕ / ∈ Span( B ∗ ). Sia t ∈ R fissato allora definiamo il seguente duale
ϕ t : R[x] −→ R
x n −→ t n (1.15)
Sia a 1 p 1 + . . . + a m p m ∈ Span( B ∗ ), dove a i ∈ R e p i ∈ B ∗ .
Abbiamo che ∃ x k tale che (a 1 p 1 + . . . + a m p m )(x k ) = 0, ma se ipotizziamo t 6= 0 allora ϕ t (x k ) = t k 6= 0 ∀ k ∈ N quindi ϕ t ∈ Span( / B ∗ )
Osservazione 1.8. Si ha che Span( B ∗ ) ⊂ R ∗ , ovvero la dimensione dello spazio duale aumenta invece che rimanere costante come per gli spazi finitamente generati.
Corollario. Sia X = {ϕ t } t∈R , i suoi elementi sono linearmente indipendenti Dimostrazione. Sia t 1 , . . . , t m ∈ R tali che t i 6= t j se i 6= j
Se ho ϕ = a 1 ϕ t
1+ . . . + a m ϕ t
m= 0 dimostro, tramite un polinomio test, un coefficiente alla volta il fatto che siano nulli. Il polinomio test per a 1 è
(x − t 2 )(x − t 3 ) . . . (x − t m ) = p(x) ∈ R[x]
ϕ(p(x)) = a 1 (t 1 − t 2 ) . . . (t 1 − t m ) + a 2 (t 2 − t 2 )(t 2 − t 3 ) . . . + a m (t m − t 2 ) . . . (t m − t m ) =
= a 1 (t 1 − t 2 ) . . . (t 1 − t m ) = 0
dato che (t 1 − t 2 )(t 1 − t 3 ) . . . (t 1 − t m ) 6= 0 si ha a 1 = 0. Si ripete la stessa operazione per t 2 . . . t m e si ottiene così la tesi.
Prima di dimostrare la tesi che ci assicuri che R[x] non è isomorfo a R[x] ∗ , bisogna citare ancora un risultato sulla cardinalità degli insiemi: | R| > |N| (famoso risultato di Cantor).
Teorema 1.5. @ isomorfismo tra R[x] e R[x] ∗
Dimostrazione. Svolgiamo la dimostrazione per assurdo.
Supponiamo ∃ f : R[x] ∗ → R[x] isomorfismo, allora consideriamo l’insieme A = f (X) ⊂ R[x] i cui elementi sono linearmente indipendenti perchè X = {ϕ t } t∈R ⊂ R[x] ∗ . La cardinalità di A è: |A| = | R|.
Consideriamo R[x], abbiamo che
R ⊆ A 0
R 1 [x] \ R ⊆ A 1
R 2 [x] \ R 1 [x] ⊆ A 2
. . . . . . R n [x] \ R n−1 [x] ⊆ A n
. . . . . .
Si ha che ∀ i A i ⊆ R i [x], dim R i [x] = i+1 e gli elementi di A i sono linearmente indipendenti, quindi (dato che i vettori linearmente indipendenti in R i [x] non possono essere più di i + i)
∀ i A i è un insieme finito, inoltre si ha che A = A 0 ∩A 1 ∩. . . A n ∩. . . , dunque A è numerabile:
eccoci arrivati all’assurdo.
Capitolo 2
Complementi sul teorema spettrale
2.1 Applicazione aggiunta
Definizione 2.1.
Sia V uno spazio vettoriale, f : V → V un’applicazione lineare, Φ un prodotto scalare non degenere e F Φ l’applicazione definita in (1.8).
Allora f ∗ = F Φ −1 ◦ t f ◦ F Φ si dice endomorfismo aggiunto di f rispetto a Φ
V f
∗
−→ V
F Φ ↓ ↑ F Φ −1
V ∗
t
f
−→ V ∗ Possiamo dunque definire l’applicazione tra endomorfismi di V
End(V ) −→ End(V )
f −→ f ∗ = F Φ −1 ◦ t f ◦ F Φ
(2.1)
Cerchiamo ora una proprietà per caratterizzare l’endomorfismo aggiunto Lemma 2.1. Se f ∗ è l’endomorfismo aggiunto di f rispetto a Φ, allora
Φ(v, f (x)) = Φ(f ∗ (v), x) (2.2)
Dimostrazione. Dalla definizione (2.1) si ha
V −→ F
ΦV ∗
t
f
−→ V ∗ F
−1
→
ΦV
v → ϕ v −→ ϕ v ◦ f −→ y = f ∗ (v) Utilizzando la definizione di F Φ (1.8), otteniamo
∀ x ∈ V ϕ v (f (x)) = Φ(v, f (x))
∀ x ∈ V (ϕ ◦ f )(x) = Φ(f ∗ (v), x) Da cui si ritrova la (2.2).
12
§ 2.2 | Applicazione aggiunta 13
Per dimostrare la freccia inversa definiamo le seguenti applicazioni
End(V ) −→ b Bil(V × V ∗ , K) f ∈ End(V ) b(f ) : (x, ϕ) → ϕ(f (x)) End(V ∗ ) b
∗
−→ Bil(V × V ∗ , K) g ∈ End(v ∗ ) b ∗ (g) : (x, ϕ) → g(ϕ)(x)
(2.3) Proposizione 2.1. Le applicazioni b e b ∗ sono isomorfismi
Dimostrazione. Dato che le dimensioni degli insiemi di partenza e di arrivo sono uguali, basta dimostrare che b e b ∗ sono iniettive, dimostriamo dunque per assurdo che Ker(b) = {0} e rispettivamente Ker(b ∗ ) = {0}
Ker(b) = {f ∈ End(V )|b(f ) = 0} = {f ∈ End(V )|∀ (x, ϕ) ∈ V × V ∗ ϕ(f (x))}
Se per assurdo ∃f 6= 0 ∈ Ker(b) allora ∃x ∈ V tale che f (x) = y 6= 0. Sia B = {y, . . . , y n } una base di V e B ∗ = {(y ∗ , . . . , y n ∗ } la rispettiva base duale. Quindi y ∗ (y) = 1 ⇒ f / ∈ Ker(b).
Corollario. Sia f ∈ End(V ) allora ∃! g ∈ End(V ∗ ) tale che b(f ) = b ∗ (g).
Proposizione 2.2. Sia f ∈ End(V ) e g ∈ End(V ∗ ); allora b(f ) = b ∗ (g) ⇔ g = t f . Dimostrazione. Per il corollario 3 si ha
b(f ) = b ∗ (g) ⇔ ∀ (x, ϕ) ∈ V × V ∗ ϕ(f (x)) = (ϕ ◦ f )(x) = t f (ϕ)(x) = g(ϕ)(x) ⇔ g = t f
Corollario. Sia V uno spazio vettoriale e Φ un prodotto scalare non degenere su V . f ∗ è l’endomorfismo aggiunto di f ⇔ ∀ x, v ∈ V Φ(f (x), v) = Φ(x, f ∗ (v))
Dimostrazione. L’implicazione ⇒ è stata dimostrata nel lemma 2, dimostriamo ora l’implica- zione inversa.
Dato che Φ è non degenere per (1.9) si ha che un funzionale ϕ ∈ V ∗ è rappresentato da un vettore v ∈ V , dunque se vale la (2.2) e b(f ) = b ∗ ( t f ) si ha
b(f )(x, ϕ) = ϕ(f (x)) = Φ(f (x), v) = Φ(x, g(v)) = b ∗ ( t f )(ϕ, x) = t f (ϕ)(x) Verifichiamo ora che g = f ∗
g(v) = F Φ −1 (Φ(x, g(v))) = F Φ −1 ( t f (ϕ)(x)) = F Φ −1 ◦ t f ◦ ϕ(x) = F Φ −1 ◦ t f ◦ F Φ (v) = f ∗ (v)
Diamo ora una descrizione matriciale dell’aggiunta di un endomorfismo.
Sia V uno spazio vettoriale, B una base di V , Φ un prodotto scalare non degenere e f ∈ End(V ).
Le matrici associate a Φ e f nella base B sono: M = M B (Φ) e A = M B B (f ). Indichiamo con A ∗ la matrice associata a f ∗ .
Siano v, w ∈ V e x = [v] B , y = [w] B i rispettivi vettori coordinate. Considerando la caratteristica dell’aggiunta di f (2.2) avremo
∀ x, y ∈ K n t (Ax)M y = t xM A ∗ y Che possiamo riscrivere
∀ x, y ∈ K n t x( t AM )y = t x(M A ∗ )y Avremo dunque che la matrica associata a f ∗ è
A ∗ = M −1 t AM (2.4)
Verifichiamo che la formulazione della matrice associata a f ∗ (2.4) sia coerente con il cambio di base per endomorfismi e per prodotti scalari.
Siano B e D due basi di V e P la matrice di cambiamento di base. Avremo dunque nella base B la (2.4) e nella base D:
( t P M P ) −1 t (P −1 AP )( t P M P ) = P −1 (M −1 t AM )P = P −1 A ∗ P
A ∗ è coerente, si trasforma come gli endomorfismo di V
14 Complementi sul teorema spettrale | cap. 2
2.2 Teorema spettrale hermitiano completo
2.2.1 Prodotto hermitiano
Definizione 2.2. Sia V uno spazio vettoriale su C, Φ : V ×V → C si dice prodotto hermitiano se valgono le seguenti proprietà:
1. Φ(v 1 + v 2 , w) = Φ(v 1 , w) + Φ(v 2 , w) ∀ v 1 , . . . , w ∈ V 2. Φ(v, w 1 + w 2 ) = Φ(v, w 1 ) + Φ(v, w 2 ) ∀ v, . . . , w 2 ∈ V 3. Φ(λv, w) = λΦ(v, w) = Φ(v, ¯ λw) ∀ v, w ∈ V e ∀ λ ∈ C 4. Φ(v, w) = Φ(w, v) ∀ v, w ∈ V
Osservazione 2.1. Φ(v, v) = Φ(v, v) ⇒ Φ(v, v) ∈ R∀ v ∈ V ; dunque oltre a Rad(Φ) e spazio ortogonale si possono applicare al prodotto hermitiano pure le definizioni di segnatura e di spazio definito positivo (negativo), viste per il prodotto scalare sui reali.
Definizione 2.3. Una matrice M ∈ n K n si dice hermitiana se t M = ¯ M Se Φ è un prodotto hermitiano su V , vale la relazione
Φ(v, w) = t xM ¯ y
dove M = m B è una matrice hermitiana, [v] B = x e [w] B = y ( B è una base di V ).
Sono equivalenti pure le considerazioni tra un endomorfismi aggiunto rispetto ad un prodot- to hermitiano e rispetto ad un prodotto scalare di f . f ∗ è sempre caratterizzato dalla relazione (2.2). L’unica modifica è nella descrizione matriciale (2.4), si ha
A ∗ = t M −1 t A ¯ t M (2.5)
2.2.2 Applicazioni Φ-normali
Definizione 2.4. Sia V un spazio vettoriale, Φ un prodotto hermitiano definito positivo, un’ap- plicazione lineare f tale che f ◦ f ∗ = f ∗ ◦ f si dice Φ-normale
Osservazione 2.2.
1. f ∗ = f ⇔ f è autoaggiunta 2. f ∗ = −f ⇔ f è anti-autoaggiunta 3. f ∗ = f −1 ⇔ f è unitaria
Definizione 2.5. U (Φ) = {f ∈ End(V )|f −1 = f ∗ } è detto gruppo unitario.
Osservazione 2.3. Ecco altri modi equivalenti per definire una funzione unitaria:
• f è detta unitaria se Φ(f (v), f (w)) = Φ(v, w)∀ v, w ∈ V .
• f è detta unitaria se f ∗ ◦ f = f ◦ f ∗ = id
• f è detta unitaria se la matrice associata a f in una base ortonormale è A e si ha A ∗ A = AA ∗ = I
2.2.3 Teorema spettrale hermitiano completo
Sia V uno spazio vettoriale su C, Φ un prodotto scalare hermitiano definito positivo e f ∈ End(V ) Lemma 2.2. Siano f, g ∈ End(V ) tali che f ◦ g = g ◦ f , allora
∀ λ ∈ Spettro(f ) V λ (f ) è g-invariante (2.6) Dimostrazione.
∀ v ∈ V λ (f ) f (g(v)) = g(f (v)) = g(λv) = λg(v) ⇒ g(v) ∈ V λ (f )
§ 2.2 | Teorema spettrale hermitiano completo 15
Lemma 2.3. Sia f Φ-normale
λ ∈ Spettro(f ) ⇔ ¯ λ ∈ Spettro(f ∗ ) (2.7) Dimostrazione. Basta dimostrare che V λ (f ) ⊆ V λ ¯ (f ∗ ), l’inclusione opposta si ottiende dal fatto
che (f ∗ ) ∗ = f (al posto di f consideriamo f ∗ ).
Se v ∈ V λ (f ) per (2.6) si ha che f ∗ (v) ∈ V λ (f ) quindi f ∗ (v) − ¯ λv ∈ V λ (f ). Poiché Φ| V
λ(f ) è definito positivo per dimostrare che f ∗ (v) − ¯ λv = 0 basta dimostrare che
∀ w ∈ V λ (f ) Φ(f ∗ (v) − λv, w) = 0 Infatti
Φ(f ∗ (v) − λv, w) = Φ(f ∗ (v), w) − Φ(λ, w) = Φ(v, f (w)) − ¯ λΦ(v, w) =
= Φ(v, λw)) − ¯ λΦ(v, w) = ¯ λΦ(v, w) − ¯ λΦ(v, w) = 0
Osservazione 2.4. Sia λ ∈ Spettro(f ) e ¯ λ ∈ Spettro(f ∗ )
• se f è autoaggiunta allora λ = ¯ λ ∈ R
• se f è anti-autoaggiunta allora λ = −¯ λ ∈ C r R = iC
• se f è unitaria allora λ = e iθ |λ| = 1, perché
Φ(v, v) = Φ(f (v), f (v)) = |λ| 2 Φ(v, v) Teorema 2.1 (spettrale hermitiano completo).
∃ B ortonormale che diagonalizza f ⇔ f è Φ-normale (2.8) Dimostrazione. Dimostriamo separatamente le due freccie
⇒ Sia B una base di V , A la matrice associata ad f nella base B e M la matrice hermitiana associata al prodotto scalare Φ. Siano x, y ∈ K n i vettori delle coordinate rispettivamente di v, w ∈ V , avremo quindi
Φ(f (v), w) = t (Ax)M ¯ y = t xM A ∗ y = Φ(v, f ∗ (w))
Da cui si ricava la descrizione matriciale per l’aggiunta di f rispetto a un prodotto hermitiano (2.5). Se consideriamo una base ortonormale per Φ, D, la matrice associata a Φ sarà l’identità, M = I, e la matrice associata ad f sarà diagonale, m D D = D.
Applicando la formula (2.5), la matrice associata a f ∗ sarà D ∗ = t I −1 t DI = ¯ t D ¯
Abbiamo quindi che pure l’aggiunta è una matrice simmetrica, dato che il prodotto tra due matrici simmetriche è commutativo avremo che D ∗ D = DD ∗ , ovvero che f è Φ-normale.
⇐ La dimostrazione del teorema sarà per induzione su n = dimV Base induttiva: è ovvio che per n = 1 vale la tesi
Passo induttivo: verifichiamo che n − 1 ⇒ n
Sia v 6= 0 ∈ V λ (f ). Dato che Φ è definito positivo, dunque pure una sua restrizione, possiamo scomporre in somma diretta V = Span(v) ⊕ ⊥Span(v) = Span(v) ⊕ W . La dimensione di W è n − 1, per applicare l’ipotesi induttiva basta dunque verificare che:
Φ| W è definito positivo, W è f -invariante e f | W è Φ| W -normale.
Se Φ è definito positivo allora anche Φ| W è definito positivo. W è f -invariante se
∀ w ∈ W Φ(f (w), v) = 0. Utilizzando la caratterizzazione della funzione aggiunta (2.2) e in seguito il lemma 4 (2.7) si ottiene
Φ(f (w), v) = Φ(w, f ∗ (v)) = Φ(v, ¯ λ) = λΦ(v, w) = 0
16 Complementi sul teorema spettrale | cap. 2
dato che W = ⊥Span(v). Infine, l’aggiunta di f | W è f ∗ | W e dunque, dato che f è Φ-normale, f | W è Φ| W -normale.
Applicando l’ipotesi induttiva possiamo affermare che ∃ B = {v, . . . , v n } base orto- normale per Φ| W di W che diagonalizza f | W , ma allora B 0 = {v, . . . , . . . , v n } è base ortonormale di V che diagonalizza f .
2.3 Applicazioni
Vediamo ora una serie di applicazioni del teorema spettrale hermitiano completo, dimostrando alcune proprietà delle funzioni diagonalizzabili
Lemma 2.4. Sia V spazio vettoriale su C e f ∈ End(V )
f diagonalizzabile ⇔ ∃Φ definito positivo tale che f sia Φ-normale
Dimostrazione. L’implicazione ⇐ è ovvia considerando il teorema spettrale. L’implicazione opposta ⇒ invece si dimostra scegliendo una base B che diagonalizza f e definendo un prodotto scalare Φ tale che la sua matrice associata nella base B è m B = I, ciò implica che f è Φ-normale.
Lemma 2.5. Sia f ∈ End(V ) diagonalizzabile e W ⊆ V un sotto spazio vettoriale f -invariante, allora f | W è diagonalizzabile
Dimostrazione. Sia Φ definito positivo tale che f sia Φ-normale, allora (come già dimostrato nel teorema spettrale) Φ| W è definito positivo e f | W è Φ| W -normale. Quindi per il teorema spettrale (2.8) f | W è diagonalizzabile.
Lemma 2.6. Siano f, g ∈ End(V ) diagonalizzabili
∃ una base di V che diagonalizza ⇔ f ◦ g = g ◦ f simultaneamente f e g
Dimostrazione. Dimostriamo le due freccie separatamente
⇒ Sia v vettore della base che diagonalizza simultaneamente, allora avremo f (v) = λv f (g(v)) = f (µv) = λµv
g(v) = µv g(f (v)) = g(λv) = µλv dunque abbiamo che g ◦ f = f ◦ g.
⇐ Se g ◦ f = f ◦ g, come abbiamo visto nel lemma 3 (2.6), allora ogni V λ (f ) è g- invariante. Inoltre per la seconda applicazione, se g è diagonalizzabile allora pure g| V
λ(f ) è diagonalizzabile, dunque posso scomporre in somma diretta un autospazio di f come segue
V λ
i(f ) = V λ
i1(g| V
λi) ⊕ . . . ⊕ V λ
is(g| V
λi)
f è diagonalizzabile su V dunque possiamo scrivere la seguente somma diretta V = V λ
1(f ) ⊕ . . . ⊕ V λ
n(f )
Ora possiamo scomporre in questa maniere ogni autospazio di f e ottenere dunque tale scomposizione
V = V λ
11(g| V
λ1) ⊕ . . . ⊕ V λ
1s(g| V
λ1) ⊕ . . . ⊕ V λ
n1(g| V
λn) ⊕ . . . ⊕ V λ
nz(g| V
λn)
da cui possima estrarre degli autovettori sia per g che per f che sono una base di V
§ 2.4 | Applicazioni 17
Definizione 2.6. Sia (V, Φ) uno spazio vettoriale munito di un prodotto scalare definito positivo.
Una applicazione f autoaggiunta è detta definita positiva se ∃ψ definito positivo tale che
∀ v, w ∈ V ψ(v, w) = Φ(f (v), w)
Lemma 2.7. Sia (V, Φ) uno spazio vettoriale munito di un prodotto scalare definito positivo, f ∈ End(V ) autoaggiuanta e definita positiva,
⇒ ∃! g ∈ End(V ) autoaggiunto e definito positivo tale che g 2 = f (2.9) Dimostrazione. Per il teorema spettrale (2.8) ∃ una base ortonoramale B tale che la matricie
associata ad f è del tipo
λ 1 0
. . .
0 λ n
Con tutti gli autovalori λ i > 0 ∈ R perché f è autoaggiunta e definita positiva. Allora per il teorema di esistenza ed unicità della radice ∃! g tale che la sua matrice associata è del tipo
√ λ 1 0
. . .
0 √ λ n
dunque g 2 = f .
Osservazione 2.5. Lo stesso argomento utilizzato per dimostrare la quarta applicazione al teore- ma spettrale, vale pure per dimostrare che ∃! g tale che g k = f ∀ k = 1, 2, . . .
Lemma 2.8. Sia (V, Φ) con Φ definito positivo e f ∈ GL(V ), allora ∃! A, U ∈ End(V ) tali che
• A è autoaggiunta e definita positiva
• U è un unitaria per Φ
• f = AU
Dimostrazione. Sia f ◦ f ∗ una funzione autoaggiunta e definita positiva ∀ f ∈ GL(V ). Infatti (f ◦ f ∗ ) ∗ = f ◦ f ∗
Per la quarta applicazione (2.9), ∃! A autoggiunta e definita positiva tale che A 2 = f ◦ f ∗ . Quindi f = AU dove U = A −1 ◦ f unitario e unico (perchè unica A). Verifichiamo che U appartenga al gruppo unitario di (V, Φ), ovvero
U unitario ⇔ Φ(v, w) = Φ(U (v), U (w)) ∀ v, w ∈ V Infatti
Φ(A −1 ◦ f (v), A −1 ◦ f (w)) = Φ(A −1 ◦ f ◦ f ∗ ◦ f ∗−1 (v), A −1 ◦ f (w)) = Ricordandosi che f ◦ f ∗ = A 2 e che A è autoaggiunta, si ottiene
Φ(A ◦ f ∗−1 (v), A −1 ◦ f (w)) = Φ(v, f −1 ◦ A ∗ ◦ A −1 ◦ f (w)) = Φ(v, w)
Osservazione 2.6. Con un ragionamento simile si può anche dimostrare l’esistenza di un endo- morfismo U 0 unitario e di un endomorfismo A 0 autoaggiunto e definito positivo tali che f = U 0 A 0 . U 0 ed A 0 non sono in generale rispettivamente uguali ad U e A.
Definizione 2.7. Due endomorfismi U e A tali che U è unitario, A è autoaggiunto e definito
positivo e U A = f o AU = f si dicono una decomposizione polare di f .
18 Complementi sul teorema spettrale | cap. 2
2.4 Un ritorno al caso reale
Dopo aver approfondito le applicazioni del teorema spettrale hermitiano, attraverso la ’comples- sificazione’ studiamo le conseguenze che questo teorema ha su delle applicazioni definite su uno spazio vettoriale su R.
2.4.1 Complessificazione
Questo metodo ci permette costruirci uno spazio vettoriale su C, V C , a partire da uno spazio vettoriale su R.
V spazio vettoriale su R −→ V C = V × V spazio vettoriale su C
Le operazioni somma e prodotto per scalare definite su questo spazio vettoriale (V C , +, ·) sono
+ : V C × V C −→ V C
((v, w), . . . , w 0 )) −→ (v + v 0 , w + w 0 )
· : C × V C −→ V C
(t, (v, w)) −→ (tv, tw)
Inoltre possiamo identificare una notazione per V C con il seguente isomorfismo V × V ←→ V + iV
(v, w) ←→ v + iw
e per mezzo di tale notazione definiamo la moltipliclazione tra due vettori di V C (x + iy)(v + iw) = (xv − yw) + i(yv + xw)
Osservazione 2.7. Notare che V ⊂ V C , dato che possiamo identificare v ∈ V come segue v ↔ v + i0 ∈ V + iV
v ↔ (v, 0) ∈ V × V Definizione 2.8. è detta coniugio tale applicazione
V C ←→ − V C
(v, w) ←→ (v, −w) (2.10)
Studiamo ora una generica applicazione f C tra lo spazio complesso V C . Dapprima imponiamo tale propietà
f C (v) = f (v) ∀ v ∈ V
dove f è un applicazione tra lo spazio vettoriale reale V .Vediamo ora il concetto di linearità Definizione 2.9. Sia f C : V C −→ V C quest’applicazione è C-lineare se
f C (v + iw) = f C (v) + if C (w) = f (v) + if (w) (2.11) Infine sottolineiamo le differenze tra un prodotto hermitiano e un prodotto scalare su un spazio vettoriale complesso.Definiamo dapprima un prodotto scalare sullo spazio reale V
Φ : V × V −→ R
Se consideriamo i due vettori di V C z 1 = v 1 + iw 1 e z 2 = v 2 + iw 2 possiamo scrivere
Scalare Φ C (z 1 , z 2 ) = Φ(v 1 , v 2 )+iΦ(v 1 , w 2 ) + iΦ(w 1 , v 2 )−Φ(w 1 , w 2 )
Hermitiano Φ C (z 1 , z 2 ) = Φ(v 1 , v 2 )−iΦ(v 1 , w 2 ) + iΦ(w 1 , v 2 )+Φ(w 1 , w 2 )
§ 2.4 | Un ritorno al caso reale 19
2.4.2 Basi reali e complessificazione in coordinate
Definizione 2.10. Sia B = {v 1 , . . . , v n } dove v 1 , . . . , v n ∈ V . Se B è base sia di V che di V C è detta base reale di V C .
Lemma 2.9. Sia B = {v 1 , . . . , v n } una base di V allora B è base di V C
Dimostrazione. Dimostriamo che i vettori di B generano V C . Siano v, w ∈ V , possiamo dunque scrivere
v = a 1 v 1 + . . . a n v n con a i ∈ R ∀ i = 1, . . . , n w = b 1 w 1 + . . . b n w n con b i ∈ R ∀ i = 1, . . . , n allora per un generico vettore v + iw ∈ V C si può scrivere
v + iw = (a 1 + ib 1 )v 1 + . . . (a n + ib n )v n con a i + ib i ∈ C ∀ i = 1, . . . , n
Dimostriamo ora che v 1 , . . . , v n sono linearmente indipendenti. Consideriamo la seguente combinazione lineare
λ 1 v 1 + . . . λ n v n con λ j = a j + ib j ∈ C Possiamo riscriverla
n
X
j=1
λ j v j =
n
X
j=1
(a j + ib j )v j =
n
X
j=1
(a j )v j + i
n
X
j=1
(b j )v j = 0
Dato che a j , b j ∈ R e che B è base di V si ha che a j = b j = λ j = 0 ∀ j = 1, . . . , n
Dopo aver trovato una base furba per V C , la base reale, effettuiamo il passaggio alle coordinate.
Sia B = {v 1 , . . . , v n } la base reale di V , allora avremo le seguenti applicazioni coordinate V −→ R [ ]
Bn
V C −→ C [ ]
Bn Se consideriamo le seguenti applicazioni lineari
f : V −→ V f C : V C −→ V C le rispettive matrici associate nella base B sono
m B B (f ) = m B B (f C ) perché f C (v i ) = f (v i ) per ogni v i ∈ B
Osservazione 2.8. Diamo ora una descrizione matriciale delle funzioni Φ-normali, sia per gli spazi vettoriali su R, che quelli su C
f autoaggiunta A = t A f C autoaggiunta A = t A ¯ f anti-autoaggiunta A = − t A f C anti-autoaggiunta A = − t A ¯
f ortogonale P −1 = t P f C unitaria P −1 = t P ¯
Infine mostriamo quale è la versione matriciale del prodotto scalare e quale sono le differenze tra le due forme bilineari. Come per le applicazioni lineari se si sceglie la base reale B di V C si ottengono le seguenti matrici associate
m B (Φ) = m B (Φ C ) = m B (Φ C ) = M
La differenza tra prodotto scalare e hermitiano è nella formulazione matriciale del prodotto.
Infatti se [u] B = z e [k] B si ha
Scalare Φ C (u, k) = t zM w
Hermitiano Φ C (u, k) = t zM ¯ w
20 Complementi sul teorema spettrale | cap. 2
2.4.3 Costruzione di basi reali
Sia Φ un prodotto scalare definito positivo su V e Φ C un prodotto hermitiano definito positivo su V C . Sia f : V −→ V un applicazione Φ-normale e f C : V C −→ V C un applicazione Φ C -normale.
Dopo aver mostrato il processo di complessificazione utilizzeremo alcune sue proprietà per co- struire delle basi reali ’diagonalizzanti speciali’. Ovvero partendo da delle basi Φ C -ortonormali e di autovettori per f C troveremo delle basi reali di V C e Φ-ortonormali in cui le matrici associate saranno diagonali ’o quasi’.
Lemma 2.10. f C è Φ C -normale ⇒ ∃ B base di autovettori, ortonormale Dimostrazione. è evidente per il teorema spettrale hermitiano (2.8)
I polinomi caratteristici di f e f C sono identici. Quindi si a che
Spettro(f C ) = Spettro(f ) ∪ {λ 1 , . . . , λ k , λ 1 , . . . , λ k }
con Spettro(f ) = {µ 1 , . . . , µ } con µ i = µ i ∀ i. Dunque per il lemma 6 si scompone V C nella seguente somma diretta ortogonale
V C =
⊥
M
i
V µ
i(f C )
⊥
M
j
(V λ
j(f C ) ⊕ V ⊥ λ
j
(f C )) (2.12)
Lemma 2.11. Sia µ ∈ R autovalore per f C allora
V µ (f C ) = V µ (f ) C Dimostrazione. Sia v + iw ∈ V C allora
f C (v + iw) = µ(v + iw) = µv + iµw = f (v) + if (w) si ha che f (v) = µv e f (w) = µw quindi v + iw ∈ V µ (f ) C
Lemma 2.12. Sia λ ∈ C autovalore per f C allora
V ¯ λ (f C ) = V λ (f C )
Dimostrazione. Dimostreremo l’uguaglianza di questi due spazi tramite una catena di equiva- lenze
v + iw ∈ V ¯ λ (f C ) ⇔ f C (v + iw) = ¯ λ(v + iw) = λ(v − iw) = f C (v − iw) Dunque se applico ancora una volta il coniugio a f C (v − iw) ottengo
f C (v − iw) = λ(v − iw) ⇔ f C (v − iw) = λ(v − iw) Ovvero (v + iw) = v − iw ∈ V λ (f C )
Corollario. Se D = {z 1 , . . . , z n } base per V λ (f C ), allora D = {¯z 1 , . . . , ¯ z n } è base per V λ ¯ (f C ) Per i lemmi 5 e 7 posso costruisco una base reale, ortonormale, per ogni autospazio V µ realtivo ad un’autovalore reale µ di f C .
Invece per gli autospazi, V λ (f C ) e V b arλ(f C ), relativi ad autovalori complessi (λ 6= ¯ λ) considero le basi ortonormali D e D. Ricombinando gli elementi di queste due basi e utilizzando le relazione Re(z) = (z + ¯ z)/2 e Im(z) = (z − ¯ z)/2i costruisco la seguente base reale per V λ (f C ) ⊕ V λ ¯ (f C )
{ 1
2 (z 1 + ¯ z 1 ), . . . , 1
2 (z n + ¯ z n ), 1
2i (z 1 − ¯ z 1 ), . . . , 1
2i (z n − ¯ z n )} (2.13)
§ 2.4 | Un ritorno al caso reale 21
Ripetendo questo operazione per ogni autospazio, dato che vale (2.12) otteniamo
ζ R = {basi reali di V µ (f C )} ∪ {basi reali costruite da D e D} (2.14) base reale di V C e ortonormale a Φ
Se ora consideriamo l’applicazione f : V −→ V , dove V è uno spazio vettoriale su R, e il prodotto scalare su V Φ allora complessificando f possiamo ricavarci ζ R base Φ-ortonormale di V tale che la matrice associata ad f è della forma
m ζ ζ
RR