• Non ci sono risultati.

Appunti di Geometria II Anno 2007

N/A
N/A
Protected

Academic year: 2021

Condividi "Appunti di Geometria II Anno 2007"

Copied!
57
0
0

Testo completo

(1)

Appunti di Geometria II Anno 2007

Marco Colò - Claudio Corti - Elia Schneider

(2)
(3)

Indice

1 Dualità e teoremi di Rappresentazione 3

1.1 Duale e biduale . . . . 3

1.2 Annullatore . . . . 4

1.2.1 Proprietà dell’annullatore . . . . 5

1.3 Applicazione trasposta . . . . 6

1.4 Teoremi di rappresentazione . . . . 6

1.4.1 Spazio quoziente . . . . 7

1.4.2 Caratterizzazione dei funzionali . . . . 8

1.5 Appendice - Spazi non finitamente generati . . . . 9

2 Complementi sul teorema spettrale 12 2.1 Applicazione aggiunta . . . . 12

2.2 Teorema spettrale hermitiano completo . . . . 14

2.2.1 Prodotto hermitiano . . . . 14

2.2.2 Applicazioni Φ-normali . . . . 14

2.2.3 Teorema spettrale hermitiano completo . . . . 14

2.3 Applicazioni . . . . 16

2.4 Un ritorno al caso reale . . . . 18

2.4.1 Complessificazione . . . . 18

2.4.2 Basi reali e complessificazione in coordinate . . . . 19

2.4.3 Costruzione di basi reali . . . . 20

3 Caratterizzazione del gruppo ortogonale 22 4 La teoria di Witt 25 4.1 Piani iperbolici . . . . 25

4.2 Il teorema di completamento non degenere . . . . 26

4.3 Il teorema di estensione . . . . 28

4.4 Il teorema di cancellazione . . . . 29

4.5 Indice di Witt e decomposizione di Witt . . . . 30

5 Forme canoniche di Jordan 33 5.1 Il teorema di decomposizione primaria . . . . 33

5.2 Specializzazione al caso triangolabile e riduzione alla nilpotenza . . . . 34

5.3 Basi cicliche e blocchi di Jordan . . . . 35

5.4 Forma canonica di Jordan . . . . 37

5.5 Endomorfismi non triangolabili su R ed esplosioni . . . . 39

1

(4)

2 INDICE

6 Cenni di Geometria Affine 41

6.1 Motivazioni . . . . 41

6.1.1 Traslazioni . . . . 41

6.1.2 Sistemi lineari non omogenei . . . . 41

6.1.3 Campi di vettori (vettori applicati ) . . . . 41

6.2 Spazi e Applicazioni Affini . . . . 42

6.2.1 Nozioni di base . . . . 42

6.2.2 Rappresentazioni matriciali di applicazioni affini . . . . 44

6.2.3 Caratterizzazione geometrica delle trasformazioni affini . . . . 45

7 Quadriche 47 7.1 Classificazione affine . . . . 47

7.1.1 Caso senza centro . . . . 49

7.1.2 Caso a centro . . . . 49

7.2 Classificazione isometrica . . . . 51

7.3 Complementi . . . . 52

7.3.1 Fasci di coniche . . . . 52

7.3.2 Completamento a quadrato . . . . 53

7.3.3 Rette tangenti e assi delle coniche . . . . 53

7.3.4 Trasformazione di un’ellisse in una circonferenza . . . . 54

A Versioni 55

(5)

Capitolo 1

Dualità e teoremi di Rappresentazione

1.1 Duale e biduale

Definizione 1.1. Sia V uno spazio vettoriale su K; V = Hom(V, K) è lo spazio duale di V.

Gli elementi del duale di uno spazio vettoriale sono chiamati funzionali su V . Dalla definizione si ha che se ϕ ∈ V , allora ϕ : V → K è lineare.

Sia B = {v 1 , . . . , v n } una base di V e ϕ ∈ V ; grazie all’isomorfismo di passaggio alle coordinate mandiamo V in K n e poi applichiamo ϕ:

V [ −→ K ]

B

n M

B{1}

(ϕ)

−→ K dove M B {1} (ϕ) = (a 1 , . . . , a n )

Si può quindi definire un isomorfismo di passaggio alle coordinate pure per lo spazio duale:

V ∗ [ −→ ]

B∗

1 K n

Definizione 1.2. B = {v 1 , . . . , v n } è detta base duale di V della base B se v i (v j ) = δ ij , dove δ ij è il delta di Kroneker, che vale 1 per i = j e 0 per i 6= j.

Verifichiamo che B è una base:

Proposizione 1.1. Sia V uno spazio vettoriale su K, sia B = {v 1 , . . . , v n } base di V , allora B = {v 1 , . . . , v n } è base di V e dim V = dim V .

Dimostrazione. Consideriamo la combinazione lineare α 1 v 1 + · · · + α n v n = 0 che rappresenta l’applicazione nulla: 0(v 1 ) = (α 1 v 1 + · · · + α n v n )(v 1 ) = α 1 = 0; iteriamo il procedimento su tutti i vettori di B e otteniamo α j = 0 ∀ j, cioè i v j sono linearmente indipendenti.

Consideriamo ϕ ∈ V : ϕ(v 1 ) = β 1 ; iteriamo il procedimento come sopra e otteniamo ϕ = β 1 v 1 + · · · + β n v n , cioè i v j generano V .

Definizione 1.3. Sia V uno spazio vettoriale su K; V ∗∗ = Hom(V , K) si dice biduale di V.

Definiamo due isomorfismi ϕ, ψ tali che:

V −→ V ϕ −→ V ψ ∗∗

B 7−→ B 7−→ B ∗∗

3

(6)

4 Dualità e teoremi di Rappresentazione | cap. 1

β = ψ ◦ ϕ è un isomorfismo tra V e V ∗∗ ; ψ e ϕ dipendono dalle scelta di B, mentre β è definito intrinsecamente e non dipende dalla scelta della base: si dice β è un isomorfismo canonico.

β : V −→ V ∗∗

v 7−→ β(v) : V −→ K ϕ 7−→ ϕ(v)

(1.1)

Proposizione 1.2. L’applicazione (1.1) ha le seguenti proprietà:

1. ∀ v β(v) ∈ V ∗∗

2. β è lineare 3. β è bigettiva 4. ∀ B β = ψ B ◦ ϕ B Dimostrazione.

1. Sia β(v) = α v e verifichiamo che questa applicazione è lineare:

α v (ϕ + ψ) = (ϕ + ψ)(v) = ϕ(v) + ψ(v) = α v (ϕ) + α v (ψ) α v (λϕ) = (λϕ)(v) = λϕ(v) = λα v (ϕ)

2. β(v + w) = α v+w (ϕ) = ϕ(v + w) = ϕ(v) + ϕ(w) = α v (ϕ) + α w (ϕ) β(λw) = α λw (ϕ) = ϕ(λw) = λϕ(w) = λα w (ϕ)

3. β è lineare e dim V = dim V ∗∗ , quindi basta dimostrare che β è iniettiva o surgettiva.

Dato che Ker β = 0 se e solo se β è iniettiva, supponiamo per assurdo che esista v 6= 0 ∈ Ker β.

Ker β = {v ∈ V | β(v) = 0} = {v ∈ V | ∀ ϕ ∈ V ϕ(v) = 0}; sia B = {v 1 , . . . , v n } base di V e B = {v 1 , . . . , v n } base di V , allora ∀ v 6= 0 ϕ(v) = (v 1 + · · · + v n )(v) 6= 0 e quindi Ker β = 0

4. Sia B = {v 1 , . . . , v n } una base qualsiasi di V , verifichiamo che ψ B ◦ ϕ B = β, ovvero che ∀ v i ∈ B si abbia β(v i ) = ψ B ◦ ϕ B (v i ). Infatti se consideriamo ψ B ◦ ϕ B (v i ) = ψ B (v i ) = v ∗∗ i abbiamo che

v i ∗∗ (v j ) =

 1 se i = j

0 se i 6= j = v j (v i ) = β(v i )(v j )

Visto che per ogni vettore di una base si ha che le due applicazioni lineari sono equivalenti, si ha la tesi.

1.2 Annullatore

Definizione 1.4. Dato un sottospazio vettoriale W di V , si definisce annullatore di W il seguente sottospazio del duale:

Ann W = {ϕ ∈ V | W ⊆ Ker ϕ} (1.2)

Osservazione 1.1. Gli elementi dell’annullatore sono le equazioni necessarie per descrivere W , ovvero tutti i funzionali che si annullano tramite un vettore di W .

ϕ ∈ Ann W ⇔ ∀ w ∈ W ϕ(w) = 0

Proposizione 1.3. Sia W ⊆ V un sottospazio vettoriale, sia B W = {w 1 , . . . , w m } base di W e B = {w 1 , . . . , w m , w m+1 , . . . , w n } base di V ; allora B W = {w m+1 , . . . , w n } è base di Ann W

Dimostrazione. Dapprima dimostriamo che w m+1 , . . . , w n ∈ Ann W : w j (w i ) = δ ji e ∀ i < m + 1 e ∀ j > m + 1 si ha quindi che w j (w i ) = 0.

Sono linearmente indipendenti perché estratti dalla base duale, ora basta dimostrare che

(7)

§ 1.3 | Annullatore 5

generano Ann W : ϕ ∈ Ann W ⊆ V ⇔ ϕ = α 1 w 1 + · · · + α m w m + α m+1 w m+1 + · · · + α n w n ; poiché ϕ ∈ Ann W , allora ϕ(w 1 ) = 0, ma ϕ(w 1 ) = α 1 w 1 (w 1 ) = α 1 e quindi α 1 = 0. Si itera il processo e si ottiene che ∀ i ∈ [1, m] α 1 = · · · = α m = 0

Corollario. La dimensione dell’annullatore è:

dim(Ann W ) = dim V − dim W (1.3)

1.2.1 Proprietà dell’annullatore

Diamo una definizione alternativa di annullatore per un sottospazio U del duale di V .

Ann 0 (U ) = {v ∈ V | g(v) = 0 ∀ g ∈ U } (1.4) Mostriamo che a meno di un isomorfismo β tra V e V ∗∗ (1.1), le due definizioni di annullatore (1.2) e (1.4) sono equivalenti

Proposizione 1.4. Ann 0 (U ) = β −1 (Ann(U ))

Dimostrazione. Dimostriamo dapprima l’inclusione ⊃: sia v ∈ β −1 (Ann(U )) e quindi β(v) ∈ Ann(U ); se g ∈ U allora abbiamo che g(v) = β(v)(g) = 0 ⇒ v ∈ Ann 0 (U ).

Ora verifichiamo l’altra inclusione ⊂: sia v ∈ Ann 0 (U ); se g ∈ U allora abbiamo che β(v)(g) = g(v) = 0 ⇒ β(v) ∈ Ann(U ) ⇒ v ∈ β −1 (Ann(U )).

Osservazione 1.2. Notare che vale pure per (1.4) la formula delle dimensioni (1.3) e che se W è sottospazio vettoriale di V allora β −1 (Ann(Ann W )) = W

Proposizione 1.5. Siano U, W sottospazi vettoriali; allora U ⊂ W ⇔ Ann U ⊃ Ann W . Dimostrazione. g ∈ Ann W ⇔ g(w) = 0 ∀ w ∈ W e in particolare g(u) = 0 ∀ v ∈ U ⊂ W

Proposizione 1.6. Siano U, W sottospazi vettoriali; allora Ann(U + W ) = Ann U ∩ Ann W . Dimostrazione. Per la proposizione (1.5)

U ⊂ U + W ⇒ Ann U ⊃ Ann(U + W ) W ⊂ U + W ⇒ Ann W ⊃ Ann(U + W )

quindi si è dimostrata l’inclusione Ann(U + W ) ⊂ Ann U ∩ Ann W . Dimostriamo ora l’altra inclusione: g ∈ Ann U ∩ Ann W ⇒ ∀ u ∈ U, ∀ w ∈ W g(w) = 0 = g(u) ⇒ g(u + w) = 0 ⇒ g ∈ Ann(U + W )

Proposizione 1.7. Siano U, W sottospazi vettoriali; allora Ann(U ∩ W ) = Ann U + Ann W . Dimostrazione. Consideriamo l’annullatore del secondo membro e per la proposizionne 1.6 si ha

che Ann(Ann U + Ann W ) = Ann(Ann U ) ∩ Ann(Ann W ); tramite l’isomorfismo canonico β (1.1) otteniamo Ann 0 (Ann U + Ann W ) = U ∩ W .

Applichiamo un’altra volta l’annullatore e tenendo presente che Ann(Ann 0 ) = id si trova

la tesi.

(8)

6 Dualità e teoremi di Rappresentazione | cap. 1

1.3 Applicazione trasposta

Definizione 1.5. Sia f : V → W lineare, la trasposta di f è:

t f : W −→ V

ϕ 7−→ ϕ ◦ f (1.5)

Proposizione 1.8. Sia B base di V e D base di W . Sia f un applicazione lineare e t f la sua trasposta. Se A = M B D (f ) e B = M D B

t f  allora B = t A.

Dimostrazione. Siano B = {v 1 , . . . , v m } base di V e D = {w 1 , . . . , w n } base di W e B = {v 1 , . . . , v m

} e D = {w 1 , . . . , w n } le rispettive basi duali.

Le matrici associate a f e t f sono rispettivamente A = (a ij ) e B = (b ij ); se scriviamo l’immagine dei vettori di base abbiamo

f (v i ) = a 1i w 1 + · · · + a ni w n ∀ i = 1, . . . , m

t f (w j ) = b 1j v 1 + · · · + b mj v m ∀ j = 1, . . . , n

Combiniamo i funzionali e vettori per ottenere gli elementi delle due matrici associate:

t f (w j )(v i ) = (b 1j v 1 + · · · + b mj v m )(v i ) = b ij

w j f (v i ) = w j (a 1i w 1 + · · · a ni w n ) = a ji

Infine si ha che ∀ i, j t f (w j )(v i ) = w j f (v i ) ⇒ b ij = a ji ⇒ t A = B

Teorema 1.1 (rango della trasposta). Sia f un’applicazione lineare e t f la sua applicazione trasposta, si ha che:

dim Im f = dim Im t f (1.6)

Dimostrazione. Sia t f : W → V ; allora dim W = dim W = dim Ker t f + dim Im t f . Bisogna dimostrare inoltre che:

dim Ker t f = dim Ann Im f (1.7)

Infatti

ϕ ∈ Ker t f ⇔ t f (ϕ) = ϕ ◦ f = 0 ⇔ ∀ v ∈ V ϕ(f (v)) = 0 ⇔ ϕ ∈ Ann Im f Quindi utilizzando (1.7) e (1.3) si ha:

dim W = dim Im t f + dim Ann Im f = dim Im t f + dim W − dim Im f

Osservazione 1.3. Si può quindi dimostrare molto semplicemente un risultato già visto nel cor- so di Geometria I. Considerando la proposizione 4 e il teorema 1 si conclude che ∀ A ∈

m K n rnk A = rnk t A.

1.4 Teoremi di rappresentazione

Definizione 1.6. Sia V uno spazio vettoriale e V il suo duale, Φ un prodotto scalare su V . ϕ ∈ V si dice rappresentabile per mezzo di Φ se:

∃ v ∈ V tale che ∀ x ∈ V ϕ(x) = Φ(v, x) Si può allora definire l’applicazione F Φ :

F Φ : V −→ V

v −→ ϕ t.c. ∀ x ∈ V ϕ(x) = Φ(v, x) (1.8)

(9)

§ 1.4 | Teoremi di rappresentazione 7

Teorema 1.2 (rappresentazione).

Φ non degenere =⇒ F Φ è un isomorfismo (1.9) Dimostrazione. Dimostriamo dapprima la linearità di F Φ

F Φ (v) = ϕ 1 ∀ x ∈ V ϕ 1 (x) = Φ(v, x) F Φ (w) = ϕ 2 ∀ x ∈ V ϕ 1 (x) = Φ(v, x)

F Φ (v + w) = ϕ ∀ x ∈ V ϕ(x) = Φ(v + w, x) = Φ(v, x) + Φ(w, x) = ϕ 1 (x) + ϕ 2 (x) Verifichiamo ora che F Φ è isomorfismo

Dato che dim V = dim V basta dimostrare che l’iniettività dell’applicazione, che equivale a Ker F Φ = {0}.

Ker F Φ = {v ∈ V | ∀ x ∈ V Φ(v, x) = 0} = Rad Φ = {0}

Osservazione 1.4. V e V sono isomorfi, ma non in modo canonico, però se munisco V di un prodotto scalare non degenere, allora F Φ è un isomorfismo privilegiato tra (V, Φ) e (V , Φ).

1.4.1 Spazio quoziente

Sia V uno spazio vettoriale e Z un sottospazio vettoriale di V e V /Z per la seguente relazione di equivalenza

∀ v, w ∈ V v ∼ w ⇔ v − w ∈ Z Notare la seguente proprietà tra classi di equivalenza

∀ v ∈ V ∀ z ∈ Z [v] = [v + z]

Definiamo pure l’applicaziona proiezione al quoziente π

π : V −→ V /Z

v −→ [v] Z = [v]

Definiamo l’operazione somma e prodotto per scalari come segue [v] + [w] = [v + w] ∀ v, w ∈ V

λ[v] = [λv] ∀ v ∈ V ∀ λ ∈ K Consideriamo l’applicazione (V, +, ·) −→ (V π /Z , +, ·), la quale è

• lineare

• surgettiva

• Ker π = Z

• dim V /Z = dim V − dim Z, per la formula delle dimensioni

Consideriamo una delle infinite decomposizioni di V in Z e un sottospazio U : V = Z ⊕ U . La restrizione π| U è un isomorfismo perché il Ker π| U = {0} quindi pure iniettiva.

Sia Φ un prodotto scalare su V e Z = Rad(Φ) e quindi abbiamo π : V −→ V / Rad(Φ) . Definiamo ora in maniera naturale un prodotto scalare su V / Rad(Φ)

Φ([v], [w]) = Φ(v, w) ˆ Lemma 1.1. ˆ Φ è non degenere

Dimostrazione.

Rad( ˆ Φ) = {[v] ∈ V / Rad(Φ) | ∀ [x] ∈ V / Rad(Φ) Φ([v], [x]) = Φ(v, x)} = π(Rad(Φ)) = {[0]} ˆ

(10)

8 Dualità e teoremi di Rappresentazione | cap. 1

1.4.2 Caratterizzazione dei funzionali

Gli elementi di ImF Φ sono i funzionali rappresentabili per mezzo di Φ ImF Φ = {ϕ rappresentabili}

Teorema 1.3 (caratterizazione).

ImF Φ = Ann(Rad Φ) (1.10)

Dimostrazione.

ϕ ∈ ImF Φ ⇒ ∀ x ∈ Rad(Φ), ϕ(x) = Φ(x, v) = 0 ⇒ ϕ ∈ Ann(Rad(Φ)) Si è così dimostrata l’inclusione ImF Φ ⊆ Ann(Rad(Φ).

Ora ci rimane da dimostrare che questi due spazi vettoriali hanno la stessa dimensione ovvero che dim(ImF Φ ) > dim(Ann(Rad(Φ)). Consideriamo la trasposta della proiezione a quoziente π

t π : V / Rad(Φ) −→ V

ϕ −→ ϕ ◦ π

Per la proprietà (1.6), la formula delle dimensioni e utilizzando Rad(Φ) = Ker π si ha dim(Im t π) = dim(Imπ) = dimV − dim(Rad(Φ)) = dim(Ann(Rad(Φ))) (1.11) Mi posso dunque ridurre a dimostrare che dim(ImF Φ ) > dim(Im t π). Consideriamo la seguente mappa

V −→ F

Φ

ImF Φ ⊆ Ann(Rad(Φ)) ⊆ V

↓ π

V / Rad(Φ) −→ F

Φˆ

V / Rad(Φ)

poiché ˆ Φ è non degenere, si ha che F Φ ˆ è isomorfismo, ovvero

∀ ϕ ∈ V Rad(Φ) ∃[v] ∈ V Rad(Φ) tale che ∀ [x] ∈ V Rad(Φ) ϕ([x]) = ˆ Φ([x], [v]) Applichiamo a ϕ ∈ V Rad(Φ) l’applicazione t π, si ottiene

t π(ϕ) = ϕ ◦ π : V −→ π V / Rad(Φ) −→ ϕ K

x −→ [x] −→ ϕ([x]) = Φ([v][x]) = Φ(x, v) ˆ

Si ha dunque che ∃v ∈ V tale che ∀ x ∈ V t π(ϕ)(x) = Φ(v, x), ovvero si ha che t π(ϕ) è rappresentabile quindi Im t π ⊆ ImF Φ .

Corollario.

F Φ = t π ◦ F Φ ˆ ◦ π

Dimostrazione. Nella dimostrazione è risultato che Im t π ⊆ ImF Φ , e per (1.10) e (1.11) si ha dim(Im t π) = dim(ImF Φ ) ⇒ Im t π = ImF Φ

Inoltre si ha

Ker F Φ = {v ∈ V |F Φ = ϕ v : Φ(v, x) = 0∀ x ∈ V } = Rad(Φ) = Ker π

Dato che l’applicazione F Φ ˆ è un isomorfismo e si sono ottenute le due identità precedenti

il corollario è dimostrato.

(11)

§ 1.5 | Appendice - Spazi non finitamente generati 9

Osservazione 1.5. Un’equivalenza, molto utile per verificare se un funzionale (ϕ) è rappresenta- bile per mezzo del prodotto scalare (Φ), che discende direttamente dal teorema di caratte- rizzazione è:

ϕ è rappresentabile ⇔ Rad(Φ) ⊆ Ker ϕ (1.12) Osservazione 1.6. Sia Z un sottospazio vettoriale di V , la controimmagine F Φ (Ann(Z)) equivale

a Z

F Φ (Ann(Z)) = {v ∈ V |∀ zϕ v (z) = Φ(z, v) = 0} = Z

Se consideriamo la restrizione F Φ | Z

possiamo trovare la formula esatta per dim(Z ).

Abbiamo che Im(F Φ | Z

) = Ann(Z) ∩ ImF Φ e Ker(F Φ | Z

) = Rad Φ ∩ Z = Rad Φ, quindi la formula della dimensioni è:

dim(Z ) = dim(Rad Φ) + dim(Ann(Z) ∩ ImF Φ )

Utilizzando la formula di Grassman, la formula delle dimensioni e (1.3), si ottiene:

dim(Z ) = 2 dim(V ) − dim(Z) − dim(AnnZ + ImF Φ ) (1.13) Se Φ è non degenere si ha che ImF Φ = V quindi dim(Ann(Z) + ImF Φ ) = dim(V ) = dim(V ), quindi la (1.13) diventa

dim(Z ) = dim(V ) − dim(Z)

Se Φ è degenere si ha che ImF Φ = Ann(Rad(Φ)) e per la proprieta (1.6) si ha che Ann(Z) + Ann(Rad(Φ)) = Ann(Z ∩ Rad(Φ)), per (1.3) la (1.13) diventa

dim(Z ) = dim(V ) − dim(Z) + dim(Z ∩ Rad(Φ))

1.5 Appendice - Spazi non finitamente generati

Fino ad ora abbiamo sempre lasciato sottointeso, per non appesantire il testo, che gli spazi vetto- riali considerati fossero finitamente generati. Considereremo principalmente R[x] come esempio di spazio vettoriale, ovviamente, non finitamente generato.

Prima di iniziare a studiare R[x] sono necessarie alcune definizioni sulla cardinalità di un insieme Definizione 1.7.

• Due insiemi (X e Y ) hanno la stessa cardinalità (|X| = |Y |) se ∃ una bigezione tra i due insiemi

• Un insieme A si dice numerabile se ha la stessa cardinalità di N (|N| = |A|)

• Se X è insieme finito con n elementi la sua cardinalità sarà |X| = n

• Si ha |X| < |Y | se ∃ f : X → Y iniettiva ma |X| 6= |Y |

Definizione 1.8. B = {1, x, ..., x n , ...} si dice base canonica di R[x]. Dimostrare che B è composta da vettori che generano R[x] e sono linearmente indipendenti è banale. Si noti anche che B è un insieme numerabile.

Consideriamo un applicazione lineare f : R[x] −→ W allora come per una quasiasi applicazione lineare su uno spazio finitamente generato si ha

Teorema 1.4 (iniettività in spazi non finitamente generati).

1. f iniettiva ⇔ Ker(f ) = {0}

2. f iniettiva ⇔ f (1), f (x), . . . , f (x n ), ... sono linearmente indipendenti Dimostrazione.

1 ⇒ f iniettiva: f (v 1 ) = f (v 2 ) ⇒ v 1 = v 2

Dato che f è lineare si ha f (0) = 0 quindi se consideriamo v 6= 0 abbiamo f (v) 6= 0, ovvero

Ker f = {0}

(12)

10 Dualità e teoremi di Rappresentazione | cap. 1

1 ⇐ f (v 1 ) = f (v 2 ) ⇔ f (v 1 ) − f (v 2 ) = 0 ⇔ f (v 1 − v 2 ) = 0 Dato che Ker f = {0} allora v 1 = v 2 , ovvero f è iniettiva

2 ⇒ a 1 p 1 + . . . + a m p m = 0 con p i ∈ {f (1), f (x), . . . , f (x n ), ...}, si può inoltre scrivere f (a 1 q 1 + . . . + a m q m ) = 0 con q i ∈ {1, x, . . . , x n , ...},

Dato che a 1 q 1 + . . . + a m q m ∈ Ker f allora a 1 q 1 + . . . + a m q m = 0 e quindi a i = 0 ∀ i, ovvero la tesi.

2 ⇐ f (a 1 q 1 + . . . + a m q m ) = a 1 f (q 1 ) + . . . + a m f (q m ) = 0, con q i ∈ {1, x, . . . , x n , ...}, dato che f (1), f (x), . . . , f (x n ), ... sono linearmente indipendenti a i = 0 ∀ i e quindi Ker f = {0}, ovvero f è iniettiva.

Tuttavia non vale la seguente propietà per gli endomorfismi f iniettiva :

; f surgettiva

dove f ∈ End(V ) e V è uno spazio vettoriale non finitamente generato. Diamo due semplici esempi per mostrare la veridicità dell’affermazione:

; p(x) −→ xp(x) è iniettiva, ma non surgettiva; 1 / ∈ Imf : p(x) −→ dx d p(x) è surgettiva, ma non iniettiva; dx d 1 = dx d 2

Osservazione 1.7. Se consideriamo W = Span( D), con D = {x, , . . . , . . . , x n , . . . }, allora avremo che W è sottospazio vettoriale di R[x] e che W e R[x] sono isomorfi (f : p(x) −→ xp(x)).

Studiamo ora le differenze tra spazi duali finitamente genereti e non. La definizione di spazio duale non va modificata, ad esempio lo spazio duale di R[x] è R[x] = Hom(R[x], R).

Se consideriamo invece tale applicazione:

ψ 0 B : R[x] −→ R[x]

B −→ B (1.14)

dove B = {v 0 , . . . , v n , . . . } è la base canonica di R[x] e B = {v 0 , . . . , v n , . . . } tale che v j (v i ) = δ ij =

 1 i = j

0 i 6= j , vedremo che ψ B così definito non è un isomorfismo.

Proposizione 1.9. i vettori di B sono linearmente indipendenti Dimostrazione. Siano p 1 , . . . , p m ∈ B e q 1 , . . . , q m ∈ B tale che p i = q i

Sia a 1 p 1 + . . . + a m p m = 0, 0 è l’applicazione nulla, allora si ha (a 1 p 1 + . . . + a m p m )(q j ) = P

i (a i p i )(q j ) = a j

(a 1 p 1 + . . . + a m p m )(q j ) = 0(q j ) = 0

dunque a j = 0 ∀ j, ovvero i vettori di B sono linearmente indipendenti

Corollario.

R[x] −→ ψ

B

Span( B ) ψ −→

B∗

Span( B ∗∗ )

B −→ B −→ B ∗∗

Si ha che ψ B , ψ B

e β = ψ B

◦ ψ B sono isomorfismi

Dimostrazione. Dato che i vettori di B e di B sono linearmente indipendenti allora si ha che ψ B e ψ B

sono iniettive (per il secondo punto dell’ultimo teorema visto). Dato che sono ovviamente surgettive sono isomorfismi, come pure la loro composizione.

Verifichiamo ora che invece che @ un isomorfismo tra R[x] e R[x] , ovvero che l’applicazione

(1.14) non è isomorfismo.

(13)

§ 1.5 | Appendice - Spazi non finitamente generati 11

Proposizione 1.10. L’applicazione (1.14), ψ B 0 non è surgettiva

Dimostrazione. Ci basta un controesempio, ovvero trovare un funzionale ϕ ∈ R[x] ma ϕ / ∈ Span( B ). Sia t ∈ R fissato allora definiamo il seguente duale

ϕ t : R[x] −→ R

x n −→ t n (1.15)

Sia a 1 p 1 + . . . + a m p m ∈ Span( B ), dove a i ∈ R e p i ∈ B .

Abbiamo che ∃ x k tale che (a 1 p 1 + . . . + a m p m )(x k ) = 0, ma se ipotizziamo t 6= 0 allora ϕ t (x k ) = t k 6= 0 ∀ k ∈ N quindi ϕ t ∈ Span( / B )

Osservazione 1.8. Si ha che Span( B ) ⊂ R , ovvero la dimensione dello spazio duale aumenta invece che rimanere costante come per gli spazi finitamente generati.

Corollario. Sia X = {ϕ t } t∈R , i suoi elementi sono linearmente indipendenti Dimostrazione. Sia t 1 , . . . , t m ∈ R tali che t i 6= t j se i 6= j

Se ho ϕ = a 1 ϕ t

1

+ . . . + a m ϕ t

m

= 0 dimostro, tramite un polinomio test, un coefficiente alla volta il fatto che siano nulli. Il polinomio test per a 1 è

(x − t 2 )(x − t 3 ) . . . (x − t m ) = p(x) ∈ R[x]

ϕ(p(x)) = a 1 (t 1 − t 2 ) . . . (t 1 − t m ) + a 2 (t 2 − t 2 )(t 2 − t 3 ) . . . + a m (t m − t 2 ) . . . (t m − t m ) =

= a 1 (t 1 − t 2 ) . . . (t 1 − t m ) = 0

dato che (t 1 − t 2 )(t 1 − t 3 ) . . . (t 1 − t m ) 6= 0 si ha a 1 = 0. Si ripete la stessa operazione per t 2 . . . t m e si ottiene così la tesi.

Prima di dimostrare la tesi che ci assicuri che R[x] non è isomorfo a R[x] , bisogna citare ancora un risultato sulla cardinalità degli insiemi: | R| > |N| (famoso risultato di Cantor).

Teorema 1.5. @ isomorfismo tra R[x] e R[x]

Dimostrazione. Svolgiamo la dimostrazione per assurdo.

Supponiamo ∃ f : R[x] → R[x] isomorfismo, allora consideriamo l’insieme A = f (X) ⊂ R[x] i cui elementi sono linearmente indipendenti perchè X = {ϕ t } t∈R ⊂ R[x] . La cardinalità di A è: |A| = | R|.

Consideriamo R[x], abbiamo che

R ⊆ A 0

R 1 [x] \ R ⊆ A 1

R 2 [x] \ R 1 [x] ⊆ A 2

. . . . . . R n [x] \ R n−1 [x] ⊆ A n

. . . . . .

Si ha che ∀ i A i ⊆ R i [x], dim R i [x] = i+1 e gli elementi di A i sono linearmente indipendenti, quindi (dato che i vettori linearmente indipendenti in R i [x] non possono essere più di i + i)

∀ i A i è un insieme finito, inoltre si ha che A = A 0 ∩A 1 ∩. . . A n ∩. . . , dunque A è numerabile:

eccoci arrivati all’assurdo.

(14)

Capitolo 2

Complementi sul teorema spettrale

2.1 Applicazione aggiunta

Definizione 2.1.

Sia V uno spazio vettoriale, f : V → V un’applicazione lineare, Φ un prodotto scalare non degenere e F Φ l’applicazione definita in (1.8).

Allora f = F Φ −1t f ◦ F Φ si dice endomorfismo aggiunto di f rispetto a Φ

V f

−→ V

F Φ ↓ ↑ F Φ −1

V

t

f

−→ V Possiamo dunque definire l’applicazione tra endomorfismi di V

End(V ) −→ End(V )

f −→ f = F Φ −1t f ◦ F Φ

(2.1)

Cerchiamo ora una proprietà per caratterizzare l’endomorfismo aggiunto Lemma 2.1. Se f è l’endomorfismo aggiunto di f rispetto a Φ, allora

Φ(v, f (x)) = Φ(f (v), x) (2.2)

Dimostrazione. Dalla definizione (2.1) si ha

V −→ F

Φ

V

t

f

−→ V F

−1

Φ

V

v → ϕ v −→ ϕ v ◦ f −→ y = f (v) Utilizzando la definizione di F Φ (1.8), otteniamo

∀ x ∈ V ϕ v (f (x)) = Φ(v, f (x))

∀ x ∈ V (ϕ ◦ f )(x) = Φ(f (v), x) Da cui si ritrova la (2.2).

12

(15)

§ 2.2 | Applicazione aggiunta 13

Per dimostrare la freccia inversa definiamo le seguenti applicazioni

End(V ) −→ b Bil(V × V , K) f ∈ End(V ) b(f ) : (x, ϕ) → ϕ(f (x)) End(V ) b

−→ Bil(V × V , K) g ∈ End(v ) b (g) : (x, ϕ) → g(ϕ)(x)

(2.3) Proposizione 2.1. Le applicazioni b e b sono isomorfismi

Dimostrazione. Dato che le dimensioni degli insiemi di partenza e di arrivo sono uguali, basta dimostrare che b e b sono iniettive, dimostriamo dunque per assurdo che Ker(b) = {0} e rispettivamente Ker(b ) = {0}

Ker(b) = {f ∈ End(V )|b(f ) = 0} = {f ∈ End(V )|∀ (x, ϕ) ∈ V × V ϕ(f (x))}

Se per assurdo ∃f 6= 0 ∈ Ker(b) allora ∃x ∈ V tale che f (x) = y 6= 0. Sia B = {y, . . . , y n } una base di V e B = {(y , . . . , y n } la rispettiva base duale. Quindi y (y) = 1 ⇒ f / ∈ Ker(b).

Corollario. Sia f ∈ End(V ) allora ∃! g ∈ End(V ) tale che b(f ) = b (g).

Proposizione 2.2. Sia f ∈ End(V ) e g ∈ End(V ); allora b(f ) = b (g) ⇔ g = t f . Dimostrazione. Per il corollario 3 si ha

b(f ) = b (g) ⇔ ∀ (x, ϕ) ∈ V × V ϕ(f (x)) = (ϕ ◦ f )(x) = t f (ϕ)(x) = g(ϕ)(x) ⇔ g = t f

Corollario. Sia V uno spazio vettoriale e Φ un prodotto scalare non degenere su V . f è l’endomorfismo aggiunto di f ⇔ ∀ x, v ∈ V Φ(f (x), v) = Φ(x, f (v))

Dimostrazione. L’implicazione ⇒ è stata dimostrata nel lemma 2, dimostriamo ora l’implica- zione inversa.

Dato che Φ è non degenere per (1.9) si ha che un funzionale ϕ ∈ V è rappresentato da un vettore v ∈ V , dunque se vale la (2.2) e b(f ) = b ( t f ) si ha

b(f )(x, ϕ) = ϕ(f (x)) = Φ(f (x), v) = Φ(x, g(v)) = b ( t f )(ϕ, x) = t f (ϕ)(x) Verifichiamo ora che g = f

g(v) = F Φ −1 (Φ(x, g(v))) = F Φ −1 ( t f (ϕ)(x)) = F Φ −1t f ◦ ϕ(x) = F Φ −1t f ◦ F Φ (v) = f (v)

Diamo ora una descrizione matriciale dell’aggiunta di un endomorfismo.

Sia V uno spazio vettoriale, B una base di V , Φ un prodotto scalare non degenere e f ∈ End(V ).

Le matrici associate a Φ e f nella base B sono: M = M B (Φ) e A = M B B (f ). Indichiamo con A la matrice associata a f .

Siano v, w ∈ V e x = [v] B , y = [w] B i rispettivi vettori coordinate. Considerando la caratteristica dell’aggiunta di f (2.2) avremo

∀ x, y ∈ K n t (Ax)M y = t xM A y Che possiamo riscrivere

∀ x, y ∈ K n t x( t AM )y = t x(M A )y Avremo dunque che la matrica associata a f è

A = M −1 t AM (2.4)

Verifichiamo che la formulazione della matrice associata a f (2.4) sia coerente con il cambio di base per endomorfismi e per prodotti scalari.

Siano B e D due basi di V e P la matrice di cambiamento di base. Avremo dunque nella base B la (2.4) e nella base D:

( t P M P ) −1 t (P −1 AP )( t P M P ) = P −1 (M −1 t AM )P = P −1 A P

A è coerente, si trasforma come gli endomorfismo di V

(16)

14 Complementi sul teorema spettrale | cap. 2

2.2 Teorema spettrale hermitiano completo

2.2.1 Prodotto hermitiano

Definizione 2.2. Sia V uno spazio vettoriale su C, Φ : V ×V → C si dice prodotto hermitiano se valgono le seguenti proprietà:

1. Φ(v 1 + v 2 , w) = Φ(v 1 , w) + Φ(v 2 , w) ∀ v 1 , . . . , w ∈ V 2. Φ(v, w 1 + w 2 ) = Φ(v, w 1 ) + Φ(v, w 2 ) ∀ v, . . . , w 2 ∈ V 3. Φ(λv, w) = λΦ(v, w) = Φ(v, ¯ λw) ∀ v, w ∈ V e ∀ λ ∈ C 4. Φ(v, w) = Φ(w, v) ∀ v, w ∈ V

Osservazione 2.1. Φ(v, v) = Φ(v, v) ⇒ Φ(v, v) ∈ R∀ v ∈ V ; dunque oltre a Rad(Φ) e spazio ortogonale si possono applicare al prodotto hermitiano pure le definizioni di segnatura e di spazio definito positivo (negativo), viste per il prodotto scalare sui reali.

Definizione 2.3. Una matrice M ∈ n K n si dice hermitiana se t M = ¯ M Se Φ è un prodotto hermitiano su V , vale la relazione

Φ(v, w) = t xM ¯ y

dove M = m B è una matrice hermitiana, [v] B = x e [w] B = y ( B è una base di V ).

Sono equivalenti pure le considerazioni tra un endomorfismi aggiunto rispetto ad un prodot- to hermitiano e rispetto ad un prodotto scalare di f . f è sempre caratterizzato dalla relazione (2.2). L’unica modifica è nella descrizione matriciale (2.4), si ha

A = t M −1 t A ¯ t M (2.5)

2.2.2 Applicazioni Φ-normali

Definizione 2.4. Sia V un spazio vettoriale, Φ un prodotto hermitiano definito positivo, un’ap- plicazione lineare f tale che f ◦ f = f ◦ f si dice Φ-normale

Osservazione 2.2.

1. f = f ⇔ f è autoaggiunta 2. f = −f ⇔ f è anti-autoaggiunta 3. f = f −1 ⇔ f è unitaria

Definizione 2.5. U (Φ) = {f ∈ End(V )|f −1 = f } è detto gruppo unitario.

Osservazione 2.3. Ecco altri modi equivalenti per definire una funzione unitaria:

• f è detta unitaria se Φ(f (v), f (w)) = Φ(v, w)∀ v, w ∈ V .

• f è detta unitaria se f ◦ f = f ◦ f = id

• f è detta unitaria se la matrice associata a f in una base ortonormale è A e si ha A A = AA = I

2.2.3 Teorema spettrale hermitiano completo

Sia V uno spazio vettoriale su C, Φ un prodotto scalare hermitiano definito positivo e f ∈ End(V ) Lemma 2.2. Siano f, g ∈ End(V ) tali che f ◦ g = g ◦ f , allora

∀ λ ∈ Spettro(f ) V λ (f ) è g-invariante (2.6) Dimostrazione.

∀ v ∈ V λ (f ) f (g(v)) = g(f (v)) = g(λv) = λg(v) ⇒ g(v) ∈ V λ (f )

(17)

§ 2.2 | Teorema spettrale hermitiano completo 15

Lemma 2.3. Sia f Φ-normale

λ ∈ Spettro(f ) ⇔ ¯ λ ∈ Spettro(f ) (2.7) Dimostrazione. Basta dimostrare che V λ (f ) ⊆ V λ ¯ (f ), l’inclusione opposta si ottiende dal fatto

che (f ) = f (al posto di f consideriamo f ).

Se v ∈ V λ (f ) per (2.6) si ha che f (v) ∈ V λ (f ) quindi f (v) − ¯ λv ∈ V λ (f ). Poiché Φ| V

λ

(f ) è definito positivo per dimostrare che f (v) − ¯ λv = 0 basta dimostrare che

∀ w ∈ V λ (f ) Φ(f (v) − λv, w) = 0 Infatti

Φ(f (v) − λv, w) = Φ(f (v), w) − Φ(λ, w) = Φ(v, f (w)) − ¯ λΦ(v, w) =

= Φ(v, λw)) − ¯ λΦ(v, w) = ¯ λΦ(v, w) − ¯ λΦ(v, w) = 0

Osservazione 2.4. Sia λ ∈ Spettro(f ) e ¯ λ ∈ Spettro(f )

• se f è autoaggiunta allora λ = ¯ λ ∈ R

• se f è anti-autoaggiunta allora λ = −¯ λ ∈ C r R = iC

• se f è unitaria allora λ = e |λ| = 1, perché

Φ(v, v) = Φ(f (v), f (v)) = |λ| 2 Φ(v, v) Teorema 2.1 (spettrale hermitiano completo).

∃ B ortonormale che diagonalizza f ⇔ f è Φ-normale (2.8) Dimostrazione. Dimostriamo separatamente le due freccie

⇒ Sia B una base di V , A la matrice associata ad f nella base B e M la matrice hermitiana associata al prodotto scalare Φ. Siano x, y ∈ K n i vettori delle coordinate rispettivamente di v, w ∈ V , avremo quindi

Φ(f (v), w) = t (Ax)M ¯ y = t xM A y = Φ(v, f (w))

Da cui si ricava la descrizione matriciale per l’aggiunta di f rispetto a un prodotto hermitiano (2.5). Se consideriamo una base ortonormale per Φ, D, la matrice associata a Φ sarà l’identità, M = I, e la matrice associata ad f sarà diagonale, m D D = D.

Applicando la formula (2.5), la matrice associata a f sarà D = t I −1 t DI = ¯ t D ¯

Abbiamo quindi che pure l’aggiunta è una matrice simmetrica, dato che il prodotto tra due matrici simmetriche è commutativo avremo che D D = DD , ovvero che f è Φ-normale.

⇐ La dimostrazione del teorema sarà per induzione su n = dimV Base induttiva: è ovvio che per n = 1 vale la tesi

Passo induttivo: verifichiamo che n − 1 ⇒ n

Sia v 6= 0 ∈ V λ (f ). Dato che Φ è definito positivo, dunque pure una sua restrizione, possiamo scomporre in somma diretta V = Span(v) ⊕ ⊥Span(v) = Span(v) ⊕ W . La dimensione di W è n − 1, per applicare l’ipotesi induttiva basta dunque verificare che:

Φ| W è definito positivo, W è f -invariante e f | W è Φ| W -normale.

Se Φ è definito positivo allora anche Φ| W è definito positivo. W è f -invariante se

∀ w ∈ W Φ(f (w), v) = 0. Utilizzando la caratterizzazione della funzione aggiunta (2.2) e in seguito il lemma 4 (2.7) si ottiene

Φ(f (w), v) = Φ(w, f (v)) = Φ(v, ¯ λ) = λΦ(v, w) = 0

(18)

16 Complementi sul teorema spettrale | cap. 2

dato che W = ⊥Span(v). Infine, l’aggiunta di f | W è f | W e dunque, dato che f è Φ-normale, f | W è Φ| W -normale.

Applicando l’ipotesi induttiva possiamo affermare che ∃ B = {v, . . . , v n } base orto- normale per Φ| W di W che diagonalizza f | W , ma allora B 0 = {v, . . . , . . . , v n } è base ortonormale di V che diagonalizza f .

2.3 Applicazioni

Vediamo ora una serie di applicazioni del teorema spettrale hermitiano completo, dimostrando alcune proprietà delle funzioni diagonalizzabili

Lemma 2.4. Sia V spazio vettoriale su C e f ∈ End(V )

f diagonalizzabile ⇔ ∃Φ definito positivo tale che f sia Φ-normale

Dimostrazione. L’implicazione ⇐ è ovvia considerando il teorema spettrale. L’implicazione opposta ⇒ invece si dimostra scegliendo una base B che diagonalizza f e definendo un prodotto scalare Φ tale che la sua matrice associata nella base B è m B = I, ciò implica che f è Φ-normale.

Lemma 2.5. Sia f ∈ End(V ) diagonalizzabile e W ⊆ V un sotto spazio vettoriale f -invariante, allora f | W è diagonalizzabile

Dimostrazione. Sia Φ definito positivo tale che f sia Φ-normale, allora (come già dimostrato nel teorema spettrale) Φ| W è definito positivo e f | W è Φ| W -normale. Quindi per il teorema spettrale (2.8) f | W è diagonalizzabile.

Lemma 2.6. Siano f, g ∈ End(V ) diagonalizzabili

∃ una base di V che diagonalizza ⇔ f ◦ g = g ◦ f simultaneamente f e g

Dimostrazione. Dimostriamo le due freccie separatamente

⇒ Sia v vettore della base che diagonalizza simultaneamente, allora avremo f (v) = λv f (g(v)) = f (µv) = λµv

g(v) = µv g(f (v)) = g(λv) = µλv dunque abbiamo che g ◦ f = f ◦ g.

⇐ Se g ◦ f = f ◦ g, come abbiamo visto nel lemma 3 (2.6), allora ogni V λ (f ) è g- invariante. Inoltre per la seconda applicazione, se g è diagonalizzabile allora pure g| V

λ

(f ) è diagonalizzabile, dunque posso scomporre in somma diretta un autospazio di f come segue

V λ

i

(f ) = V λ

i1

(g| V

λi

) ⊕ . . . ⊕ V λ

is

(g| V

λi

)

f è diagonalizzabile su V dunque possiamo scrivere la seguente somma diretta V = V λ

1

(f ) ⊕ . . . ⊕ V λ

n

(f )

Ora possiamo scomporre in questa maniere ogni autospazio di f e ottenere dunque tale scomposizione

V = V λ

11

(g| V

λ1

) ⊕ . . . ⊕ V λ

1s

(g| V

λ1

) ⊕ . . . ⊕ V λ

n1

(g| V

λn

) ⊕ . . . ⊕ V λ

nz

(g| V

λn

)

da cui possima estrarre degli autovettori sia per g che per f che sono una base di V

(19)

§ 2.4 | Applicazioni 17

Definizione 2.6. Sia (V, Φ) uno spazio vettoriale munito di un prodotto scalare definito positivo.

Una applicazione f autoaggiunta è detta definita positiva se ∃ψ definito positivo tale che

∀ v, w ∈ V ψ(v, w) = Φ(f (v), w)

Lemma 2.7. Sia (V, Φ) uno spazio vettoriale munito di un prodotto scalare definito positivo, f ∈ End(V ) autoaggiuanta e definita positiva,

⇒ ∃! g ∈ End(V ) autoaggiunto e definito positivo tale che g 2 = f (2.9) Dimostrazione. Per il teorema spettrale (2.8) ∃ una base ortonoramale B tale che la matricie

associata ad f è del tipo

λ 1 0

. . .

0 λ n

Con tutti gli autovalori λ i > 0 ∈ R perché f è autoaggiunta e definita positiva. Allora per il teorema di esistenza ed unicità della radice ∃! g tale che la sua matrice associata è del tipo

√ λ 1 0

. . .

0 λ n

 dunque g 2 = f .

Osservazione 2.5. Lo stesso argomento utilizzato per dimostrare la quarta applicazione al teore- ma spettrale, vale pure per dimostrare che ∃! g tale che g k = f ∀ k = 1, 2, . . .

Lemma 2.8. Sia (V, Φ) con Φ definito positivo e f ∈ GL(V ), allora ∃! A, U ∈ End(V ) tali che

• A è autoaggiunta e definita positiva

• U è un unitaria per Φ

• f = AU

Dimostrazione. Sia f ◦ f una funzione autoaggiunta e definita positiva ∀ f ∈ GL(V ). Infatti (f ◦ f ) = f ◦ f

Per la quarta applicazione (2.9), ∃! A autoggiunta e definita positiva tale che A 2 = f ◦ f . Quindi f = AU dove U = A −1 ◦ f unitario e unico (perchè unica A). Verifichiamo che U appartenga al gruppo unitario di (V, Φ), ovvero

U unitario ⇔ Φ(v, w) = Φ(U (v), U (w)) ∀ v, w ∈ V Infatti

Φ(A −1 ◦ f (v), A −1 ◦ f (w)) = Φ(A −1 ◦ f ◦ f ◦ f ∗−1 (v), A −1 ◦ f (w)) = Ricordandosi che f ◦ f = A 2 e che A è autoaggiunta, si ottiene

Φ(A ◦ f ∗−1 (v), A −1 ◦ f (w)) = Φ(v, f −1 ◦ A ◦ A −1 ◦ f (w)) = Φ(v, w)

Osservazione 2.6. Con un ragionamento simile si può anche dimostrare l’esistenza di un endo- morfismo U 0 unitario e di un endomorfismo A 0 autoaggiunto e definito positivo tali che f = U 0 A 0 . U 0 ed A 0 non sono in generale rispettivamente uguali ad U e A.

Definizione 2.7. Due endomorfismi U e A tali che U è unitario, A è autoaggiunto e definito

positivo e U A = f o AU = f si dicono una decomposizione polare di f .

(20)

18 Complementi sul teorema spettrale | cap. 2

2.4 Un ritorno al caso reale

Dopo aver approfondito le applicazioni del teorema spettrale hermitiano, attraverso la ’comples- sificazione’ studiamo le conseguenze che questo teorema ha su delle applicazioni definite su uno spazio vettoriale su R.

2.4.1 Complessificazione

Questo metodo ci permette costruirci uno spazio vettoriale su C, V C , a partire da uno spazio vettoriale su R.

V spazio vettoriale su R −→ V C = V × V spazio vettoriale su C

Le operazioni somma e prodotto per scalare definite su questo spazio vettoriale (V C , +, ·) sono

+ : V C × V C −→ V C

((v, w), . . . , w 0 )) −→ (v + v 0 , w + w 0 )

· : C × V C −→ V C

(t, (v, w)) −→ (tv, tw)

Inoltre possiamo identificare una notazione per V C con il seguente isomorfismo V × V ←→ V + iV

(v, w) ←→ v + iw

e per mezzo di tale notazione definiamo la moltipliclazione tra due vettori di V C (x + iy)(v + iw) = (xv − yw) + i(yv + xw)

Osservazione 2.7. Notare che V ⊂ V C , dato che possiamo identificare v ∈ V come segue v ↔ v + i0 ∈ V + iV

v ↔ (v, 0) ∈ V × V Definizione 2.8. è detta coniugio tale applicazione

V C ←→ V C

(v, w) ←→ (v, −w) (2.10)

Studiamo ora una generica applicazione f C tra lo spazio complesso V C . Dapprima imponiamo tale propietà

f C (v) = f (v) ∀ v ∈ V

dove f è un applicazione tra lo spazio vettoriale reale V .Vediamo ora il concetto di linearità Definizione 2.9. Sia f C : V C −→ V C quest’applicazione è C-lineare se

f C (v + iw) = f C (v) + if C (w) = f (v) + if (w) (2.11) Infine sottolineiamo le differenze tra un prodotto hermitiano e un prodotto scalare su un spazio vettoriale complesso.Definiamo dapprima un prodotto scalare sullo spazio reale V

Φ : V × V −→ R

Se consideriamo i due vettori di V C z 1 = v 1 + iw 1 e z 2 = v 2 + iw 2 possiamo scrivere

Scalare Φ C (z 1 , z 2 ) = Φ(v 1 , v 2 )+iΦ(v 1 , w 2 ) + iΦ(w 1 , v 2 )−Φ(w 1 , w 2 )

Hermitiano Φ C (z 1 , z 2 ) = Φ(v 1 , v 2 )−iΦ(v 1 , w 2 ) + iΦ(w 1 , v 2 )+Φ(w 1 , w 2 )

(21)

§ 2.4 | Un ritorno al caso reale 19

2.4.2 Basi reali e complessificazione in coordinate

Definizione 2.10. Sia B = {v 1 , . . . , v n } dove v 1 , . . . , v n ∈ V . Se B è base sia di V che di V C è detta base reale di V C .

Lemma 2.9. Sia B = {v 1 , . . . , v n } una base di V allora B è base di V C

Dimostrazione. Dimostriamo che i vettori di B generano V C . Siano v, w ∈ V , possiamo dunque scrivere

v = a 1 v 1 + . . . a n v n con a i ∈ R ∀ i = 1, . . . , n w = b 1 w 1 + . . . b n w n con b i ∈ R ∀ i = 1, . . . , n allora per un generico vettore v + iw ∈ V C si può scrivere

v + iw = (a 1 + ib 1 )v 1 + . . . (a n + ib n )v n con a i + ib i ∈ C ∀ i = 1, . . . , n

Dimostriamo ora che v 1 , . . . , v n sono linearmente indipendenti. Consideriamo la seguente combinazione lineare

λ 1 v 1 + . . . λ n v n con λ j = a j + ib j ∈ C Possiamo riscriverla

n

X

j=1

λ j v j =

n

X

j=1

(a j + ib j )v j =

n

X

j=1

(a j )v j + i

n

X

j=1

(b j )v j = 0

Dato che a j , b j ∈ R e che B è base di V si ha che a j = b j = λ j = 0 ∀ j = 1, . . . , n

Dopo aver trovato una base furba per V C , la base reale, effettuiamo il passaggio alle coordinate.

Sia B = {v 1 , . . . , v n } la base reale di V , allora avremo le seguenti applicazioni coordinate V −→ R [ ]

B

n

V C −→ C [ ]

B

n Se consideriamo le seguenti applicazioni lineari

f : V −→ V f C : V C −→ V C le rispettive matrici associate nella base B sono

m B B (f ) = m B B (f C ) perché f C (v i ) = f (v i ) per ogni v i ∈ B

Osservazione 2.8. Diamo ora una descrizione matriciale delle funzioni Φ-normali, sia per gli spazi vettoriali su R, che quelli su C

f autoaggiunta A = t A f C autoaggiunta A = t A ¯ f anti-autoaggiunta A = − t A f C anti-autoaggiunta A = − t A ¯

f ortogonale P −1 = t P f C unitaria P −1 = t P ¯

Infine mostriamo quale è la versione matriciale del prodotto scalare e quale sono le differenze tra le due forme bilineari. Come per le applicazioni lineari se si sceglie la base reale B di V C si ottengono le seguenti matrici associate

m B (Φ) = m BC ) = m BC ) = M

La differenza tra prodotto scalare e hermitiano è nella formulazione matriciale del prodotto.

Infatti se [u] B = z e [k] B si ha

Scalare Φ C (u, k) = t zM w

Hermitiano Φ C (u, k) = t zM ¯ w

(22)

20 Complementi sul teorema spettrale | cap. 2

2.4.3 Costruzione di basi reali

Sia Φ un prodotto scalare definito positivo su V e Φ C un prodotto hermitiano definito positivo su V C . Sia f : V −→ V un applicazione Φ-normale e f C : V C −→ V C un applicazione Φ C -normale.

Dopo aver mostrato il processo di complessificazione utilizzeremo alcune sue proprietà per co- struire delle basi reali ’diagonalizzanti speciali’. Ovvero partendo da delle basi Φ C -ortonormali e di autovettori per f C troveremo delle basi reali di V C e Φ-ortonormali in cui le matrici associate saranno diagonali ’o quasi’.

Lemma 2.10. f C è Φ C -normale ⇒ ∃ B base di autovettori, ortonormale Dimostrazione. è evidente per il teorema spettrale hermitiano (2.8)

I polinomi caratteristici di f e f C sono identici. Quindi si a che

Spettro(f C ) = Spettro(f ) ∪ {λ 1 , . . . , λ k , λ 1 , . . . , λ k }

con Spettro(f ) = {µ 1 , . . . , µ } con µ i = µ i ∀ i. Dunque per il lemma 6 si scompone V C nella seguente somma diretta ortogonale

V C =

M

i

V µ

i

(f C )

M

j

(V λ

j

(f C ) ⊕ V λ

j

(f C )) (2.12)

Lemma 2.11. Sia µ ∈ R autovalore per f C allora

V µ (f C ) = V µ (f ) C Dimostrazione. Sia v + iw ∈ V C allora

f C (v + iw) = µ(v + iw) = µv + iµw = f (v) + if (w) si ha che f (v) = µv e f (w) = µw quindi v + iw ∈ V µ (f ) C

Lemma 2.12. Sia λ ∈ C autovalore per f C allora

V ¯ λ (f C ) = V λ (f C )

Dimostrazione. Dimostreremo l’uguaglianza di questi due spazi tramite una catena di equiva- lenze

v + iw ∈ V ¯ λ (f C ) ⇔ f C (v + iw) = ¯ λ(v + iw) = λ(v − iw) = f C (v − iw) Dunque se applico ancora una volta il coniugio a f C (v − iw) ottengo

f C (v − iw) = λ(v − iw) ⇔ f C (v − iw) = λ(v − iw) Ovvero (v + iw) = v − iw ∈ V λ (f C )

Corollario. Se D = {z 1 , . . . , z n } base per V λ (f C ), allora D = {¯z 1 , . . . , ¯ z n } è base per V λ ¯ (f C ) Per i lemmi 5 e 7 posso costruisco una base reale, ortonormale, per ogni autospazio V µ realtivo ad un’autovalore reale µ di f C .

Invece per gli autospazi, V λ (f C ) e V b arλ(f C ), relativi ad autovalori complessi (λ 6= ¯ λ) considero le basi ortonormali D e D. Ricombinando gli elementi di queste due basi e utilizzando le relazione Re(z) = (z + ¯ z)/2 e Im(z) = (z − ¯ z)/2i costruisco la seguente base reale per V λ (f C ) ⊕ V λ ¯ (f C )

{ 1

2 (z 1 + ¯ z 1 ), . . . , 1

2 (z n + ¯ z n ), 1

2i (z 1 − ¯ z 1 ), . . . , 1

2i (z n − ¯ z n )} (2.13)

(23)

§ 2.4 | Un ritorno al caso reale 21

Ripetendo questo operazione per ogni autospazio, dato che vale (2.12) otteniamo

ζ R = {basi reali di V µ (f C )} ∪ {basi reali costruite da D e D} (2.14) base reale di V C e ortonormale a Φ

Se ora consideriamo l’applicazione f : V −→ V , dove V è uno spazio vettoriale su R, e il prodotto scalare su V Φ allora complessificando f possiamo ricavarci ζ R base Φ-ortonormale di V tale che la matrice associata ad f è della forma

m ζ ζ

R

R

(f ) =

 µ 1

. . . 0

µ s

A 1

0 . . .

A k

(2.15)

con A i matrici 2 × 2 della forma Proposizione 2.3.

A i = |λ i |

 cos(θ i ) − sin(θ i ) sin(θ i ) cos(θ i )



con λ i = |λ i | (cos(θ i ) + i sin(θ i )) (2.16)

Dimostrazione. Sia v, w ∈ ζ R tali che v + iw ∈ V λ

i

(f C ) si ha quindi f C (v + iw) = λ i (v + iw) = f (v) + if (w) l’immagine di questi due vettori di base è

f (v) = |λ i | (v cos(θ i ) − w sin(θ i )) f (w) = |λ i | (v sin(θ i ) + w cos(θ i )) e la matrice associata a f ristretta allo Span(v, w) è come in (2.16)

Osservazione 2.9. La matrice (2.16) rappresenta una rotazione composta ad una dilatazione.

Osservazione 2.10.

• Se f autoaggiunta allora la matrice associata a f è diagonale

• Se f è anti-autoaggiunta allora si ha:

1

|

 0 −1

1 0



. . .

1

|

 0 −1

1 0



• Se f ∈ O(Φ) allora si ha:

 I

q

−I

p

R

θ1

. . . R

θn

con R θ

i

rotazione di θ i

(24)

Capitolo 3

Caratterizzazione del gruppo ortogonale

Sia (V, Φ) su R con Φ prodotto scalare non degenere.

Sia O(Φ) = {f ∈ GL(V ) | Φ(v, w) = Φ(f (v), f (w)) ∀ v, w ∈ V } il gruppo ortogonale per Φ.

Per quanto visto in precedenza possiamo decomporre lo spazio vettoriale V nella seguente somma diretta

V = V 1 (f ) ⊕ V −1 (f ) ⊕ P θ

1

⊕ . . . ⊥ ⊕ P θ

s

(3.1)

dove P θ

i

sono i sottospazi di dimensione 2 su cui f agisce come rotazione R θ

i

. Definizione 3.1. Sia P un sottospazio vettoriale di dimensione 2.

L’applicazione R P,θ : V → V tale che su P agisce come R θ e su P come identità è una rotazione sul piano P di angolo θ.

Definizione 3.2. Sia v ∈ V un vettore non isotropo; l’applicazione ρ v : V → V tale che

∀ w ∈ Span(v) ρ v (w) = −w

∀ w ∈ Span(v) ρ v (w) = w (3.2)

è detta riflessione parallela al vettore non isotropo v Osservazione 3.1. Notare che ρ v e R P,θ ∈ O(Φ).

Osservazione 3.2. Sia B = {v, . . . , . . . , w n } una base ortogonale di (V, Φ), con w 1 , . . . , w n vettori della base di Span(v) . La matrice associata a ρ v nella base B è −1 0 0 I

n

 quindi det ρ v = −1 e ρ v ◦ ρ v = id.

Vogliamo trovare dei generatori semplici di O(Φ), utilizzando la somma diretta ortogonale (3.1) possiamo scrivere che una generica f ∈ O(Φ) è composizione di

f = (id) p ◦ ρ v

1

◦ · · · ◦ ρ v

s

◦ R P

1

1

◦ · · · ◦ R P

2

Dato che una rotazione può essere scritta come composizione di due riflessioni ogni elemento di O(Φ) può essere scritto come composizione di al più n = dim V riflessioni.

Esprimiamo ora questo risultato sotto forma di teorema, in questo però sarà indebolita la condizione sul numero massimo di riflessioni (si avrà solo una stima m(n) con n = dim V ).

Teorema 3.1 (caratterizzazione del gruppo ortogonale). Ogni f ∈ O(Φ) è composizione di riflessioni, ovvero esistono ρ v

1

, . . . , ρ v

k

tali che f = ρ v

1

◦ · · · ◦ ρ v

k

ed inoltre ∃ m(n) ∈ N tale che ∀ f ∈ O(Φ) si può ottenere k 6 m(n).

22

(25)

§ 3.0 23

Dimostrazione. Faremo una dimostrazione per induzione su n = dim(V ) che darà la stima in- duttiva m(1) = 1 e m(n) = n + 1 + m(n − 1)

Passo base: V = Span(v), Φ(v, v) 6= 0. Se f ∈ O(Φ) e f (v) = λv allora λ 2 Φ(v, v) = Φ(f (v), f (v)) = Φ(v, v) ⇒ λ = ±1 Se λ = 1 allora f = id, se λ = −1 allora f = ρ v , inoltre m(1) = 1.

Passo induttivo: verifichiamo che n − 1 ⇒ n. Sia dim V = n, f ∈ O(Φ) e fissiamo v ∈ V non isotropo. Distinguiamo i casi

1. f (v) = λv

2. w = f (v) − v e w non è isotropo, e si ha che

ρ w ◦ f (v) = v dove w = f (v) − v (3.3) Considerando f (v) = 1/2(f (v) − v) + 1/2(f (v) + v) = 1/2w + 1/2z basta verificare che Φ(w, z) = 0 per dimostrare (3.3) perché in tal caso

ρ w (f (v)) = −1/2(f (v) − v) + 1/2(f (v) + v) = v Φ(w, z) = Φ(f (v) − v, f (v) + v) = Φ(f (v), f (v)) − Φ(v, v) = 0 3. w = f (v) − v e w è isotropo, e si ha che

ρw ◦ ρ v

1

◦ · · · ◦ ρ v

n

◦ f (v) = v dove w = −f (v) − v (3.4) Dapprima dobbiamo verificare che −f (v) − v non è isotropo, infatti se per assurdo lo fosse si avrebbe

0 = Φ(−f (v) − v, −f (v) − v) + Φ(f (v) − v, f (v) − v) = 4Φ(v, v) 6= 0 Applicando la relazione (3.3) otteniamo che

ρ w ◦ (−f )(v) = ρ w ◦ −id ◦ f (v) = v

Notare che se B = {v 1 , . . . , v n } è una base di V e f = −id allora l’unico punto fisso di f è l’origine e

−id = ρ v

1

◦ · · · ◦ ρ v

n

Da qui si ricava la relazione (3.4).

Lemma 3.1. Consideriamo ˆ ρ ∈ O(Φ), v ∈ V non isotropo e ˆ ρ(v) = v, allora ˆ

ρ = ˆ ρ 1 ◦ · · · ◦ ˆ ρ h con h 6 m(n − 1) (3.5) Dimostrazione. Abbiamo che V = Span(v) ⊕ W con W = Span(v) , dim W = n − 1 e

Φ| W non degenere. Inoltre

∀ w ∈ W Φ(v, ˆ ρ(w)) = Φ( ˆ ρ(v), ˆ ρ(w)) = Φ(v, w) = 0 dunque ˆ ρ è W -invariante: posso dunque applicare l’ipotesi induttiva

∃ ρ 1 , . . . , ρ h riflessioni di W tali che ρ| ˆ W = ρ 1 ◦ · · · ◦ ρ h con h 6 m(n − 1) Sia V = W ⊕ W , Φ| w non degenere e ρ v ∈ O(Φ| W ) una riflessione di W parallela a v ∈ W non isotropo. Allora ρ v = ˆ ρ v | W dove ˆ ρ v ∈ O(Φ) è la riflessione parallela a v.

Quindi avremo che ρ i = ˆ ρ i | W ∀ i = 1, . . . , h e quindi si ottiene la (3.5)

Applicando la (3.5) possiamo concludere la dimostrazione della caratterizzazione di O(Φ)

(26)

24 Caratterizzazione del gruppo ortogonale | cap. 3

• ˆ ρ = f −→ f = ˆ ρ 1 ◦ · · · ◦ ˆ ρ h con k = h 6 m(n − 1)

• ˆ ρ = ρ w ◦ f −→ f = ρ w ◦ ˆ ρ 1 ◦ · · · ◦ ˆ ρ h con k 6 1 + m(n − 1)

• ˆ ρ = ρ w ◦ρ v

1

◦· · ·◦ρ v

n

◦f −→ f = ρ w ◦ρ v

1

◦· · ·◦ρ v

n

◦ ˆ ρ 1 ◦· · ·◦ ˆ ρ h con k 6 1+n+m(n−1)

Corollario. se V è su R e Φ è definito positivo (o negativo) allora il caso 3. non capita mai e la dimostrazione produce m(n) = n

Dimostrazione.

n 6 m(n) 6 1 + m(n − 1) Per induzione

m(1) = 1 e m(n − 1) = n − 1 ⇒ m(n) = n

(27)

Capitolo 4

La teoria di Witt

La teoria di Witt è un insieme di teoremi riguardanti i prodotti scalari non degeneri. I teoremi di Witt che ora illustreremo permetteranno di arrivare a scrivere le matrici dei prodotti scalari nel modo più univoco possibile, oltre a consegnarci diversi strumenti utili per la gestione delle isometrie.

4.1 Piani iperbolici

Sia (V, ϕ) un K-spazio vettoriale su cui è definito il prodotto scalare ϕ.

Definizione 4.1. Sia P un sottospazio di V tale che

• dim P = 2

• dim Rad(ϕ| P ) = 0 (ovvero ϕ| P non degenere)

• ∃ v ∈ P, v 6= 0 tale che ϕ| P (v, v) = 0 (ovvero in P c’è un vettore isotropo non nullo) In tal caso P si dice un piano iperbolico.

Osservazione 4.1. Se V è un C-spazio vettoriale, ogni sottospazio di dimensione 2 è un piano iperbolico. Se V è un R-spazio vettoriale, un sottospazio P di dimensione 2 è un piano iperbolico se e solo se σ(ϕ| P ) = (1, 1, 0).

I piani iperbolici si riveleranno molto comodi nella decomposizione di spazi. Questo deriva da una loro particolare proprietà, ovvero

Lemma 4.1 (Forma canonica dei piani iperbolici). Sia P un sottospazio vettoriale di (V, ϕ) tale che dim P = 2. P è un piano iperbolico se e solo se esiste una base B = {v, w} di P tale che

M B (ϕ| P ) =

 0 1 1 0



Dimostrazione. La freccia ⇐ è quasi ovvia: infatti dim P = 2 per ipotesi, entrambi i vettori della base sono isotropi e non nulli e per finire

0 1 1 0

= −1 6= 0 ⇒ ϕ| P è non degenere.

Dimostriamo ora la freccia ⇒. Poiché P è per ipotesi un piano iperbolico, esisterà v 0 un vettore di P isotropo non nullo. Sia w 0 il completamento a base di v 0 e sia B 0 = {v 0 , w 0 }.

In tale base avremo in generale

M B

0

(ϕ| P ) =

 0 a a b



con a = ϕ(v 0 , w 0 ) e b = ϕ(w 0 , w 0 )

Consideriamo ora v = 1 a v 0 , w = w 02a b v 0 , B = {v, w}. Dimostriamo per prima cosa che

25

Riferimenti

Documenti correlati

Nota: In alcuni esercizi sar` a necessario scegliere opportunamente l’origine..

Per n vettori in R n e la matrice di ordine n che li ha come colonne, equivalenza fra la indipendenza lineare dei vettori e il non annullarsi del determinante della matrice..

Ora, la lunghezza di un lato di un triangolo non supera la somma delle lunghezze degli altri due... dove r e’ uno

Con le componenti cartesiane: , = 12 + 12 + &1&2 Norma: La norma o lunghezza in uno spazio vettoriale metrico è la funzione che associa al vettore vϵV il numero reale non

Ora copia le parole sottolineate nella prima colonna della tabella dell'esercizio 3 (nello stesso ordine in cui sono scritte le frasi).. Le parole devono essere scritte

E nondi- meno codesto non fu un miracolo che irruppe nel corso della storia e vi si inserì come forza trascendente e straniera; e non fu nemmeno quell’altro e metafisico

Nel tempo della possibile disassuefazione dalla cura delle persone affette da demenza, indotta dalle ripetute crisi delle speranze di scoprire farmaci in grado di prevenire o

Nel primo caso il sistema `e equivalente ad un solo vettore R applicato ad un punto dell’asse centrale, nel secondo caso il sistema `e equivalente ad una coppia di momento M O pari