Appunti per Geometria 1 - secondo modulo
Monica Id`a November 5, 2017
Contents
1 Applicazioni lineari 3
1.1 Le prime definizioni . . . 3
1.2 La dualit`a . . . 10
1.3 Applicazioni lineari e matrici . . . 13
1.4 Equazioni di un sottospazio vettoriale . . . 19
2 Autovalori ed autovettori 21 2.1 Radici di un polinomio . . . 21
2.2 Matrici simili - Endomorfimi diagonalizzabili . . . 22
2.3 Condizioni di diagonalizzabilit`a . . . 25
3 La forma di Jordan 37 3.1 Spazi quoziente . . . 37
3.2 Matrici a blocchi . . . 39
3.3 Endomorfismi nilpotenti . . . 42
3.4 La forma di Jordan . . . 48
4 Spazi vettoriali euclidei 53 4.1 Forme bilineari . . . 53
4.2 Prodotti scalari . . . 55
4.3 Esistenza di basi ortonormali . . . 58
4.4 Endomorfismi unitari . . . 62
4.5 Il teorema spettrale . . . 65
5 Spazi affini 68 5.1 La struttura di spazio affine su uno spazio vettoriale . . . 68
5.2 Affinit`a . . . 73
5.3 Equazioni di una affinit`a . . . 77
6 Spazi euclidei 80 6.1 La struttura di spazio euclideo su uno spazio vettoriale reale . . . 80
6.2 Isometrie . . . 82
6.3 Le isometrie di E2 . . . 83
Queste sono le note del secondo modulo del corso di Geometria 1, di cui il primo modulo `e stato tenuto dalla prof.M.Manaresi; quindi qui assumiamo noto tutto quanto visto in tale modulo.
Useremo le seguenti notazioni:
Se A e B sono due insiemi, A ⊆ B vuol dire che A `e contenuto in o uguale a B, mentre A ⊂ B vuol dire che A `e incluso strettamente in B.
Siano f : X → Y e g : Y → Z due funzioni; la composizione di f e g `e la funzione
g ◦ f : X → Z
x 7→ g(f (x))
Siano f : X → Y una funzione, sia A ⊆ X, e sia B ⊆ Y tale che f (A) ⊆ B; allora possiamo considerare f ristretta ad A e coristretta a B, che `e la funzione:
f|A|B : A → B x 7→ f (x)
Sia V un K-spazio vettoriale, e U, W due sottospazi di V ; se la somma U + W `e diretta, diremo che U e W formano una somma diretta; se V = U ⊕ W , diremo U `e un supplementare di W .
1 Applicazioni lineari
1.1 Le prime definizioni
Nel seguito K denota un campo fissato.
Definizione 1.1 Siano V , W due K-spazi vettoriali; una applicazione f : V → W `e detta lineare se ∀v, v0∈ V , ∀a, b ∈ K, si ha:
f (av + bv0) = af (v) + bf (v0)
Osserviamo che, in particolare, f (0) = f (0v) = 0f (v) = 0.
Nel seguito la frase: “ Sia f : V → W lineare” sottointende che V e W sono spazi vettoriali su uno stesso campo.
Osservazione 1.2 Ricordiamo che se V `e un K-spazio vettoriale, (V, +) `e un gruppo abeliano;
quindi una applicazione lineare f : V → W `e un morfismo dei gruppi additivi che soddisfi la condizione f (av) = af (v) ∀v ∈ V , ∀a ∈ K.
Esempi 1.3 Sono lineari le seguenti applicazioni:
1) f : R → R
x 7→ 3x
2) g : R2 → R2
(x, y) 7→ (x + y, 3x − y)
3) d : R[x] → R[x]
a0+ a1x + . . . + anxn 7→ a1+ 2a2x + . . . + nanxn−1 4) f : M2(R) → M2(R)
a b c d
7→
a − d b
c 0
Esempi 1.4 Non sono lineari le seguenti applicazioni:
1) g : R2 → R2
(x, y) 7→ (1 + x, y)
2) f : R → R
x 7→ x2
Infatti: in 1) g(0) 6= 0; in 2) f (1 + 2) = 9, f (1) + f (2) = 5.
Definizione 1.5 Siano V , W due K-spazi vettoriali.
Una applicazione lineare f : V → V `e detta endomorfismo di V .
Una applicazione lineare e biettiva f : V → W `e detta isomorfismo (di spazi vettoriali). Se esiste un isomorfismo f : V → W , scriviamo V ∼= W .
Un isomorfismo f : V → V `e detto automorfismo di V .
Proposizione 1.6 a) Siano V, W, U K-spazi vettoriali e f : V → W , g : W → U applicazioni lineari. Allora g ◦ f : V → U `e lineare.
b) Sia f : V → W un isomorfismo. Allora l’applicazione inversa f−1 `e lineare e quindi `e un isomorfismo.
c) Si ha: V ∼= V ; V ∼= W ⇒ W ∼= V ;
V ∼= W, W ∼= U ⇒ V ∼= U .
Dimostrazione a) ∀a, b ∈ K, ∀v, v0 ∈ V , si ha:
(g◦f )(av+bv0) = g(f (av+bv0)) = g(af (v)+bf (v0)) = ag(f (v))+b(g(f (v0)) = a(g◦f )(v)+b(g◦f )(v0).
b) La f−1 : W → V esiste perch´e f `e biettiva. Siano w, w0 ∈ W , a, b ∈ K; allora esistono, e sono unici, v, v0 ∈ V tali che f (v) = w, f (v0) = w0, e si ha
f−1(aw + bw0) = f−1(af (v) + bf (v0)) = f−1(f (av + bv0)) = av + bv0 = af−1(w) + bf−1(w0)
c) L’identit`a su V `e lineare e biettiva, quindi V ∼= V ;id V ∼= W ⇒ Wf
f−1
∼= V per il punto b);
V ∼= W, Wf
∼g
= U ⇒ V
g◦f∼= U per il punto a), tenendo conto che la composizione di due biezioni `e una biezione.
Notazione 1.7 Sia V un K-spazio vettoriale finitamente generato (d’ora in poi scriviamo f.g.), e sia B = (v1, . . . , vn) una base. Il vettore di coordinate (a1, . . . , an) rispetto alla base B verr`a denotato cos`ı:
(a1, . . . , an)B := a1v1+ . . . + anvn
Proposizione-Definizione 1.8 Sia V un K-spazio vettoriale f.g., e sia B = (v1, . . . , vn) una base.
L’applicazione:
ψB : Kn → V
(a1, . . . , an) 7→ (a1, . . . , an)B
`
e un isomorfismo di K-spazi vettoriali, detto l’isomorfismo tra V e Kndefinito dalla base B.
Dimostrazione Sappiamo che ψB `e biunivoca. Linearit`a:
ψB(a(a1, . . . , an)+b(b1, . . . , bn)) = ψB((aa1+bb1, . . . , aan+bbn)) = (aa1+bb1)v1+. . .+(aan+bbn)vn=
= a(a1v1+ . . . + anvn) + b(b1v1+ . . . bnvn) = aψB((a1, . . . , an)) + bψB((b1, . . . , bn))
Notazione 1.9 Nel seguito denotiamo sempre con φB l’isomorfismo inverso di ψB, che associa ad ogni vettore v ∈ V , v = (a1, . . . , an)B, le sue coordinate rispetto alla base B:
φB : V → Kn
v 7→ (a1, . . . , an)
Esempi 1.10 1) Se V = Kn e E = (e1, . . . , en) `e la base canonica, ∀(a1, . . . , an) ∈ Kn si ha (a1, . . . , an) = (a1, . . . , an)E, quindi ψE = idKn.
2) Siano v1 = (1, 2), v2 = (3, 1) ∈ R2; allora B = (v1, v2) `e una base per R2. Consideriamo ad esempio il vettore v = (0, 5); si ha v = 3v1− v2, quindi v = (3, −1)B e φB(v) = (3, −1).
Abbiamo quindi dimostrato il:
Teorema 1.11 Se V `e un K-spazio vettoriale di dimensione finita n > 0, allora V ∼= Kn.
Teorema 1.12 Siano V e W K-spazi vettoriali, sia V f.g. e sia B = (v1, . . . , vn) una sua base;
siano w1, . . . , wn vettori di W . Allora esiste un’unica applicazione lineare f : V → W tale che
f (vi) = wi, i = 1, . . . , n (∗)
Dimostrazione ∃): ∀v ∈ V , siano a1, . . . , an∈ K tali che v =Paivi; poniamo f (Xaivi) :=Xaiwi
La f cos`ı definita `e lineare: ∀v, v0 ∈ V , v =Paivi, v0 =Pbivi, ∀a, b ∈ K, si ha:
f (av + bv0) = f (aXaivi+ bXbivi) = f (X(aai+ bbi)vi) =
=X(aai+ bbi)wi= aXaiwi+ bXbiwi = af (v) + bf (v0)
!): Siano f, g applicazioni lineari tali che f (vi) = wi, g(vi) = wi i = 1, . . . , n; allora ∀v ∈ V , v =Paivi, si ha:
f (v) = f (Xaivi) =
|{z}
f lineare
Xaif (vi) =Xaiwi=Xaig(vi) =
|{z}
g lineare
g(Xaivi) = g(v)
Notazione 1.13 Nelle notazioni di Teorema 1.12 diciamo che l’applicazione lineare f `e ottenuta estendendo per linearit`a le (∗)
Esempio 1.14 L’applicazione definita in 1.8 `e ottenuta estendendo per linearit`a le ei7→ vi. Teorema 1.15 Sia f : V → W lineare. Allora valgono le seguenti affermazioni:
a) Se v1, . . . , vn∈ V sono l.d., allora f (v1), . . . , f (vn) sono l.d.
b) Se U `e sottospazio di V , allora f (U ) := {f (u) | u ∈ U } `e sottospazio di W . c) Se T `e sottospazio di W , allora f−1(T ) := {v ∈ V | f (v) ∈ T } `e sottospazio di V .
Dimostrazione a) Per ipotesi esistono a1, . . . , an∈ K non tutti 0 tali che: a1v1+ . . . + anvn= 0;
allora
0 = f (a1v1+ . . . + anvn) = a1f (v1) + . . . + anf (vn) b) ∀a, b ∈ K, ∀w, w0∈ f (U ), esistono u, u0 tali che w = f (u), w0 = f (u0), e quindi:
aw + bw0 = af (u) + bf (u0) = f (au + bu0
| {z }
∈U
) ∈ f (U )
c) ∀a, b ∈ K, ∀v, v0 ∈ f−1(T ), si ha f (v), f (v0) ∈ T , e quindi:
f (av + bv0) = af (v) + bf (v0) ∈ T ⇒ av + bv0 ∈ f−1(T ) d) Si ha
f (U ) = {w ∈ W | ∃u ∈ U, w = f (u)} =
= {w ∈ W | ∃a1, . . . , an∈ K, w = f (a1u1+ . . . + anun) = a1f (u1) + . . . + anf (un)} =
=< f (u1), . . . , f (un) >
Proposizione-Definizione 1.16 Sia f : V → W lineare. Il nucleo di f `e il nucleo di f come morfismo dei gruppi additivi:
Kerf := {v ∈ V, f (v) = 0}
e l’immagine di f `e l’immagine insiemistica di f :
Imf := f (V ) = {w ∈ W, ∃v ∈ V, w = f (v)}.
Si ha che Kerf `e un sottospazio di V , e Imf `e un sottospazio di W . Inoltre:
per definizione f `e suriettiva se e solo se Imf = W ; f `e iniettiva se e solo se Kerf = {0};
se (v1, . . . , vn) sono generatori per V , Imf =< f (v1), . . . , f (vn) >.
Dimostrazione Kerf = f−1(< 0 >) e Imf = f (V ) sono sottospazi rispettivamente di V e W per Teorema 1.15.
f iniettiva ⇒ Kerf = {0} `e ovvio; viceversa, sia Kerf = {0}; allora f (v) = f (v0) ⇒ f (v − v0) = 0 ⇒ v − v0∈ Kerf ⇒ v = v0.
Proposizione 1.17 Siano V e W K-spazi vettorali f.g., f : V → W un isomorfismo, v1, . . . , vn∈ V , e U ⊆ V , T ⊆ W sottospazi. Allora si ha:
a) v1, . . . , vn generatori per V ⇐⇒ f (v1), . . . , f (vn) generatori per W ; b) v1, . . . , vn l.i. ⇐⇒ f (v1), . . . , f (vn) l.i.;
c) (v1, . . . , vn) base per V ⇐⇒ (f (v1), . . . , f (vn)) base per W ; d) dimV = dimW ;
e) dimU = dimf (U ), dimT = dimf−1(T ).
Dimostrazione a) segue da Teorema 1.15 d); b) segue da Teorema 1.15 a); c) segue da a)+b); d) segue da c); e) si vede cos`ı: f (U ) e f−1(T ) sono sottospazi per Teorema 1.15, e le applicazioni:
f|U|f (U ): U → f (U )
v 7→ f (v), f−1 |f
−1(T )
|T : T → f−1(T )
w 7→ f−1(w)
sono lineari e biettive, quindi isomorfismi di spazi vettoriali, e si conclude usando d).
Proposizione-Definizione 1.18 Sia V di dimensione finita n, B base per V , e siano v1, . . . , vk∈ V , di coordinate rispetto a B:
v1 = (v11, . . . , vn1)B, . . . , vk= (v1k, . . . , vnk)B. Allora
rg(v1, . . . , vk) := dim < v1, . . . , vk >= rg
v11 . . . v1k
. . . vn1 . . . vnk
Dimostrazione Consideriamo l’isomorfismo che associa ad ogni vettore v ∈ V , v = (a1, . . . , an)B, le sue coordinate rispetto alla base B (vedi 1.9):
φB : V → Kn
v 7→ (a1, . . . , an) allora φB(vi) = (v1i, . . . , vni); per Prop. 1.17 e),
dim < v1, . . . , vk>= dim < (v11, . . . , vn1), . . . , (v1k, . . . , vnk) >= rg
v11 . . . v1k vn1 . . . vnk
.
Teorema 1.19 Sia f : V → W lineare, e sia V f.g.. Allora Kerf e Imf hanno dimensione finita e si ha:
dimV = dim Kerf + dim Imf
Dimostrazione Poich´e Kerf `e un sottospazio di V , anche Kerf `e f.g.; sia quindi (v1, . . . , vs) una sua base, e completiamola ad una base (v1, . . . , vs, vs+1, . . . , vn) di V .
Basta quindi provare dim Imf = n − s; facciamo vedere che f (vs+1), . . . , f (vn) `e una base per Imf :
f (vs+1), . . . , f (vn) sono generatori: Imf =< f (v1)
| {z }
=0
, . . . , f (vs)
| {z }
=0
, f (vs+1), . . . , f (vn) >
f (vs+1), . . . , f (vn) sono l.i.: siano as+1, . . . , an∈ K tali che:
0 = as+1f (vs+1) + . . . + anf (vn) = f (as+1vs+1+ . . . + anvn) ⇒ as+1vs+1+ . . . + anvn∈ Kerf
⇒ ∃a1, . . . , astali che as+1vs+1+ . . . + anvn= a1v1+ . . . + asvs⇒ a1v1+ . . . + asvs− as+1vs+1− . . . − anvn= 0 ⇒
|{z}
v1,...,vnl.i.
a1 = . . . = an= 0
Definizione 1.20 Sia f : V → W lineare, sia V f.g., e sia (v1, . . . , vn) una base per V ; si chiama rango di f l’intero
rg(f ) := dim Imf = rg(f (v1), . . . , f (vn))
Corollario 1.21 Siano V, W spazi vettoriali f.g. con dimV = dimW = n, e sia f : V → W lineare. Sono equivalenti:
a) Kerf =< 0 >
b) Imf = W c) f isomorfismo.
Dimostrazione c) ⇒ a) e c) ⇒ b) sono ovvi.
a) ⇒ c) : da Teorema 1.19 si ha
dimV = 0 + dim Imf ⇒ dim Imf = n ⇒ Imf = W quindi f `e 1 − 1 e su, cio´e f isomorfismo; b) ⇒ c) `e analogo.
Teorema 1.22 Due K-spazi vettoriali V e W f.g. sono isomorfi se e solo se dimV = dimW . Dimostrazione Prop. 1.17 dice che V ∼= W ⇒ dimV = dimW . Viceversa:
dimV = dimW = n ⇒
|{z}
1.11
V ∼= Kn, W ∼= Kn ⇒
|{z}
1.6
V ∼= W.
Esempio 1.23 Siano V e W K-spazi vettoriali con dimV = dimW , e siano B = (v1, . . . , vn), C = (w1, . . . , wn) basi rispettivamente per V e W . Per costruire un isomorfismo tra V e W basta considerare l’applicazione lineare (vedi 1.12):
f : V → W
v1 7→ w1 ... ... ... vn 7→ wn
che `e un isomorfismo; infatti Imf =< f (v1), . . . , f (vn) >=< w1, . . . , wn>= W . Esempio 1.24 Consideriamo l’applicazione lineare:
g : M2(R) → R4
a b c d
7→ (a, b, c, d)
Kerg =< 0 >, quindi per Cor. 1.21 `e un isomorfismo di R-spazi vettoriali; si ha dimM2(R) = dimR4 = 4.
Quindi i sottospazi di M2(R) sono tutti e soli i sottoinsiemi di M2(R) della forma {
a b c d
∈ M2(R), h1(a, b, c, d) = 0, . . . hs(a, b, c, d) = 0, hi lineare omogeneo}
Per esempio,
U := {
a b c d
∈ M2(R), a − b + 2c = 0, 3a + b = 0} = {
a −3a
−2a d
, a, d ∈R}
`
e un sottospazio di dimensione 2, perch´e rg
1 −1 2 0
3 1 0 0
= 2, quindi il sottospazio di R4 g(U ) = {(a, b, c, d) ∈R4| a − b + 2c = 0, 3a + b = 0} ha dimensione 2.
Esempio 1.25 Consideriamo l’applicazione lineare:
f : M2(R) → M2(R)
a b c d
7→
a − d b
c 0
Ci chiediamo se f `e un isomorfismo; studiamo ad esempio il nucleo di f :
Kerf = {
a b c d
∈ M2(R), a − d = 0, b = 0, c = 0} = {
a 0 0 a
, a ∈R} =< I2>6= 0 quindi f non `e un isomorfismo, e dimKerf = 1 ⇒ dimImf = 3.
Se vogliamo conoscere una base di Imf , possiamo fare ad esempio cos`ı: utilizziamo l’isomorfismo g visto nell’esempio precedente; allora
Imf = {
a − d b
c 0
∈ M2(R), a, b, c, d ∈R} ⇒ g(Imf ) = {(a − d, b, c, 0) ∈R4, a, b, c, d ∈R} e si ha
{(a − d, b, c, 0) ∈R4, a, b, c, d ∈R} = {(a − d)(1, 0, 0, 0) + b(0, 1, 0, 0) + c(0, 0, 1, 0), a, b, c, d ∈R} =
=< (1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0) >
essendo i vettori e1, e2, e3 l.i., essi formano una base per g(Imf ), quindi una base per Imf `e data da:
(
1 0 0 0
,
0 1 0 0
,
0 0 1 0
)
Osservazione 1.26 Dalle precedenti proposizioni ed esempi si capisce che la filosofia `e questa:
per ogni questione attinente all’algebra lineare si pu`o sostituire V con W se se V e W sono spazi vettoriali isomorfi.
Adesso che abbiamo definito le applicazioni lineari, passiamo a studiare gli insiemi di applicazioni lineari, che come vedremo hanno anch’essi una struttura di K-spazio vettoriale.
Definizione 1.27 Siano V, W K-spazi vettoriali; poniamo:
Hom(V, W ) := {f, f : V → W lineare}
End(V ) := Hom(V, V ) = {f, f : V → V lineare}
V∗:= Hom(V, K) = {f, f : V → K lineare}
Proposizione-Definizione 1.28 Siano V e W due K-spazi vettoriali; per ogni f, g ∈ Hom(V, W ), per ogni λ ∈ K, definiamo le applicazioni lineari f + g e λf cos`ı:
f + g : V → W
v 7→ f (v) + g(v)
λf : V → W
v 7→ λf (v) Questo d`a due operazioni somma e prodotto per scalari:
+ : Hom(V, W ) × Hom(V, W ) → Hom(V, W )
(f, g) 7→ f + g
· : K × Hom(V, W ) → Hom(V, W )
(λ, f ) 7→ λf
che rendono Hom(V, W ) un K-spazio vettoriale.
Dimostrazione Basta verificare che le operazioni sono ben definite, cio´e che f +g e λf sono lineari, e che Hom(V, W ) verifica le propriet`a richieste ad un K-spazio vettoriale (esercizio).
Notiamo che, in particolare, lo 0 di Hom(V, W ) `e l’applicazione nulla:
0 : V → W
v 7→ 0
Osservazione 1.29 In particolare quindi, End(V ) e V∗ sono K-spazi vettoriali; V∗ `e detto lo spazio duale di V .
Si osservi che GL(V ) non `e un K-spazio vettoriale con queste operazioni: per esempio, se f ∈ GL(V ), anche −f ∈ GL(V ), ma f − f = 0 /∈ GL(V ).
1.2 La dualit`a
Proposizione-Definizione 1.30 Sia V un K-spazio vettoriale di dimensione finita, e sia B = (v1, . . . , vn) una base di V . Per i = 1, . . . , n sia ηi: V → K l’applicazione lineare cos`ı definita:
ηi(vj) :=
( 0 se i 6= j 1 se i = j
Allora B∗= (η1, . . . , ηn) `e una base per V∗, detta la base duale di B.
In particolare, dimV = dimV∗ e quindi V ∼= V∗. Dimostrazione Le ηi sono ben definite (1.12).
Proviamo V∗ =< η1, . . . , ηn>:
sia f ∈ V∗; allora risulta f = f (v1)η1+. . .+f (vn)ηn, infatti queste due applicazioni lineari prendono gli stessi valori sui vettori della base B:
(f (v1)η1+ . . . + f (vn)ηn)(vi) = f (v1)η1(vi) + . . . + f (vn)ηn(vi) = f (vi)ηi(vi) = f (vi) i = 1, . . . , n Proviamo η1, . . . , ηn l.i.: se a1, . . . , an∈ K, e a1η1. . . + anηn= 0, si ha:
ai = (a1η1. . . + anηn)(vi) = 0(vi) = 0 i = 1, . . . , n
Osservazione 1.31 Nelle notazioni precedenti, per quanto visto nella dimostrazione, se f ∈ V∗ si ha:
f = (f (v1), . . . , f (vn))B∗
cio´e le coordinate di una applicazione lineare f : V → K rispetto alla base duale di B sono i suoi valori sui vettori di B.
Osservazione 1.32 Nelle notazioni precedenti, si ha ηi((x1, . . . , xn)B) = xi
infatti ηi((x1, . . . , xn)B) = ηi(x1v1+ . . . + xnvn) = x1ηi(v1) + . . . + xnηi(vn) = xi, cio´e l’applicazione lineare ηi : V → K associa ad un vettore la sua i-esima coordinata rispetto alla base B.
Quindi, se a1, . . . , an, b1, . . . , bn∈ K, si ha:
(a1η1+ . . . + anηn)(b1v1+ . . . + bnvn) = a1b1+ . . . + anbn.
Esempi 1.33 a) Sia V = R3, sia E = (e1, e2, e3) la base canonica e sia E∗ = (ε1, ε2, ε3) la base duale; allora
ε1((x, y, z)) = x, ε2((x, y, z)) = y, ε3((x, y, z)) = z Consideriamo l’applicazione lineare
f : R3 → R
(x, y, z) 7→ 2x + z
allora f (e1) = 2, f (e2) = 0, f (e3) = 1, quindi in V∗ si ha f = (2, 0, 1)E∗ = 2ε1+ ε3. b) Sia V =R3, con la base B = (1, 1, 1)
| {z }
v1
, (1, 0, 1)
| {z }
v2
, (0, 0, 2)
| {z }
v3
, e sia B∗= (η1, η2, η3) la base duale. Allora se v = (5, 2, 7), si ha v = 2v1+ 3v2+ v3, da cui per esempio
(3η1− η2+ 2η3)(v) = (3η1− η2+ 2η3)(2v1+ 3v2+ v3) = 3 · 2 + (−1) · 3 + 2 · 1 = 5
Definizione 1.34 Sia V un K-spazio vettoriale; lo spazio vettoriale (V∗)∗`e detto lo spazio biduale di V , e viene denotato con V∗∗.
Osservazione 1.35 Se V ha dimensione finita n, allora V ∼= V∗ ∼= V∗∗
e dimV = dimV∗∗ per 1.30.
Sia B = (v1, . . . , vn) una base di V , e sia B∗ = (η1, . . . , ηn); allora un possibile isomorfismo `e dato da (vedi 1.23):
φ : V → V∗ v1 7→ η1 ... ... ... vn 7→ ηn
Esempio 1.36 Sia V =R2, sia E = (e1, e2) la base canonica e sia E∗ = (ε1, ε2) la base duale; sia v2 = (1, 1) e consideriamo anche la base B = (e1, v2), e la sua duale B∗ = (η1, η2).
Osserviamo che ε1 6= η1, infatti per esempio:
ε1(e2) = 0, η1(e2) = η1(−e1+ v2) = −1.
Consideriamo i due isomorfismi
φ : V → V∗ e1 7→ ε1
e2 7→ ε2
ψ : V → V∗ e1 7→ η1
v2 7→ η2 Si ha
φ(e1) = ε1 6= η1 = ψ(e1) ⇒ φ 6= ψ.
Teorema 1.37 Sia V un K-spazio vettoriale di dimensione finita; esiste un isomorfismo canonico (nel senso che dipende solo da V , e non dalla scelta di una base di V ):
β : V →∼= V∗∗
v 7→ v∗∗
dove v∗∗: V∗ → K
f 7→ f (v)
Dimostrazione - β `e ben definita perch´e v∗∗: V∗ → K `e lineare, infatti:
v∗∗(af + bg) = (af + bg)(v) = af (v) + bg(v) = av∗∗(f ) + bv∗∗(g), ∀a, b ∈ K, ∀f, g ∈ V∗ - β `e lineare:
β(av + bw) = (av + bw)∗∗ ?= aβ(v) + bβ(w) = av∗∗+ bw∗∗ ∀a, b ∈ K, ∀v, w ∈ V Questo `e vero poich´e si ha, ∀f ∈ V∗:
(av + bw)∗∗(f ) = f (av + bw) = af (v) + bf (w) = av∗∗(f ) + bw∗∗(f ) = (av∗∗+ bw∗∗)(f ) - β `e 1 − 1 perch´e Kerβ =< 0 >, infatti:
v ∈ Kerβ ⇐⇒ v∗∗= 0 ⇐⇒ v∗∗(f ) = 0 ∀f ∈ V∗ ⇐⇒ f (v) = 0 ∀f ∈ V∗ ⇐⇒ v = 0(♥) proviamo (♥):
se v = 0 ⇒ f (v) = 0 ∀f ∈ V∗ `e banalmente vero; viceversa, supponiamo f (v) = 0 ∀f ∈ V∗ e v 6= 0, e completiamo v ad una base (v, v2, . . . , vn) di V ; allora l’applicazione lineare
f : V → K
v 7→ 1
v2 7→ 0 ... ... ... vn 7→ 0 non si annulla in v, contraddizione.
- β `e su perch´e `e una applicazione lineare 1 − 1 tra spazi vettoriali f.g. della stessa dimensione.
1.3 Applicazioni lineari e matrici
Definizione 1.38 Siano V , W due K-spazi vettoriali f.g., e siano B = (v1, . . . , vn) base per V , C = (w1, . . . , ws) base per W .
Sia f : V → W una applicazione lineare; la matrice s × n la cui i-esima colonna `e data dalle coordinate del vettore f (vi) rispetto alla base C si chiama la matrice associata ad f rispetto alle basi B nel dominio e C nel codominio, e si denota con MC,B(f ):
MC,B(f ) =
a11 . . . a1n
... ... ... as1 . . . asn
dove
f (vi) = a1iw1+ . . . + asiws= (a1i, . . . , asi)C
Proposizione 1.39 Siano V , W due K-spazi vettoriali f.g., siano B = (v1, . . . , vn) base per V , C = (w1, . . . , ws) base per W , e sia f : V → W una applicazione lineare.
Allora se v = (x1, . . . , xn)B e f (v) = (y1, . . . , ys)C, risulta:
y1
... ys
= MC,B(f )
x1
... xn
Dimostrazione Sia
MC,B(f ) =
a11 . . . a1n
... ... ... as1 . . . asn
. Allora
f (v) = f (x1v1+ . . . + xnvn) = x1f (v1) + . . . + xnf (vn) =
= x1(a11w1+. . .+as1ws)+. . .+xn(a1nw1+. . .+asnws) = (a11x1+. . .+a1nxn)w1+. . .+(as1x1+. . .+asnxn)ws
cio´e
y1= a11x1+ . . . + a1nxn ...
ys= as1x1+ . . . + asnxn
(∗)
Le (∗) si possono scrivere in forma matriciale cos`ı:
y1
... ys
=
a11 . . . a1n ... ... ... as1 . . . asn
x1
... xn
(∗∗)
Definizione 1.40 Le (∗) o equivalentemente le (∗∗) vengono dette le equazioni della f rispetto alle basi B nel dominio e C nel codominio.
Ponendo X :=
x1
... xn
, Y :=
y1
... ys
, le (∗∗) si scrivono:
Y = MC,B(f ) X Esempio 1.41 Consideriamo l’applicazione lineare:
f : R2 → R2 e1 7→ (1, 3) e2 7→ (−2, 7) quindi f agisce sul generico vettore (x, y) ∈R2 cos`ı:
f ((x, y)) = f (xe1+ ye2) = xf (e1) + yf (e2) = x(1, 3) + y(−2, 7) = (x − 2y, 3x + 7y) e si ha
ME,E(f ) =
1 −2
3 7
Siano v1= (1, 1), v2 = (2, −1); poich´e det
1 2 1 −1
6= 0, v1, v2sono l.i.; sia B = (v1, v2); cerchiamo ME,B(f ). Si ha:
f (v1) = f ((1, 1)) = (−1, 10), f (v2) = f ((2, −1)) = (4, −1) per cui
ME,B(f ) =
−1 4 10 −1
Quindi se v = (1, 3)B, si ha f (v) = (11, 7) perch´e
−1 4 10 −1
1 3
=
11 7
Definizione 1.42 Siano V , W due K-spazi vettoriali f.g. e siano B = (v1, . . . , vn) base per V , C = (w1, . . . , ws) base per W . Sia A = (aij) ∈ Ms,n(K); si dice applicazione lineare associata ad A rispetto alle basi B nel dominio e C nel codominio l’applicazione, che si verifica essere lineare,
FC,B(A) : V → W
(x1, . . . , xn)B 7→ (y1, . . . , ys)C
dove
y1
... ys
= A
x1
... xn
cio´e FC,B(A)(vi) := a1iw1+ . . . + asiws.
Proposizione 1.43 Siano V , W due K-spazi vettoriali f.g. e siano B = (v1, . . . , vn) base per V , C = (w1, . . . , ws) base per W . L’applicazione
MC,B: Hom(V, W ) → Ms,n(K) f 7→ MC,B(f )
`
e un isomorfismo di K-spazi vettoriali, con inversa
FC,B : Ms,n(K) → Hom(V, W )
A 7→ FC,B(A)
In particolare, dimHom(V, W ) = ns.
Dimostrazione - linearit`a di MC,B: bisogna provare che ∀f, g ∈ Hom(V, W ), ∀a, b ∈ K, MC,B(af + bg) = aMC,B(f ) + bMC,B(g)
questo `e vero perch´e vale (af + bg)(vi) = af (vi) + bg(vi), quindi queste uguaglianze si mantengono scrivendo i vettori in coordinate rispetto a C; basta ora ricordare la definizione di somma di due matrici e di prodotto di uno scalare per una matrice.
- biettivit`a di MC,B: risulta dalla definizione
MC,B(FC,B(A)) = A ∀A ∈ Ms,n(K),
FC,B(MC,B(f )) = f ∀f ∈ Hom(V, W ) Quindi MC,B `e biettiva con inversa FC,B.
Osservazione 1.44 Siano V , W due K-spazi vettoriali f.g., siano B = (v1, . . . , vn) base per V , C = (w1, . . . , ws) base per W , e sia f : V → W una applicazione lineare.
Da 1.39 si ha che le coordinate di f (v) rispetto a C si scrivono come polinomi lineari omogenei nelle coordinate di v rispetto a B; infatti, come visto nella dimostrazione di 1.39, se v = (x1, . . . , xn)B, f (v) = (y1, . . . , ys)C, e MC,B(f ) =
a11 . . . a1n ... ... ... as1 . . . asn
, si ha:
y1= a11x1+ . . . + a1nxn ...
ys= as1x1+ . . . + asnxn
(∗)
Viceversa, si verifica facilmente che se f : V → W `e una applicazione tale che le coordinate di f (v) rispetto a C si scrivono come polinomi lineari omogenei nelle coordinate di v rispetto a B, cio´e una applicazione della forma:
f : V → W
(x1, . . . , xn)B 7→ (b11x1+ . . . + b1nxn, . . . , bs1x1+ . . . + bsnxn)C
dove i bij ∈ K, allora f `e lineare. Infatti, posto
B :=
b11 . . . b1n ... ... ...
basta osservare che si ha
f = FC,B(B).
Siamo quindi in grado di riconoscere subito se una applicazione data mediante le coordinate sia lineare o meno, e di scrivere facilmente esempi di applicazioni lineari.
Proposizione 1.45 Siano U , V , W K-spazi vettoriali f.g. di basi rispettivamente A = (u1, . . . , ut), B = (v1, . . . , vn), C = (w1, . . . , ws). Siano g : U → V e f : V → W applicazioni lineari. Allora
MC,A(f ◦ g) = MC,B(f )MB,A(g) dove il prodotto tra matrici `e il prodotto righe per colonne.
Dimostrazione
g f
U → V → W
A B C
Siano
u = (z1, . . . , zt)A, v = g(u) = (x1, . . . , xn)B, w = f (v) = f (g(u)) = (y1, . . . , ys)C
allora
y1
... ys
= MC,B(f )
x1
... xn
= MC,B(f )
MB,A(g)
z1
... zt
= (MC,B(f )MB,A(g))
z1
... zt
Osservazione 1.46 a) Siano V , W due K-spazi vettoriali f.g., siano B = (v1, . . . , vn) base per V , C = (w1, . . . , ws) base per W , e sia f : V → W una applicazione lineare; poniamo
A := MC,B(f ) =
a11 . . . a1n
... ... ... as1 . . . asn
. Allora si ha
Kerf = {(x1, . . . , xn)B∈ V | A
x1
... xn
= 0}, Imf =< (a11. . . as1)C, . . . , (a1n. . . asn)C>
Ne segue
rg(f ) = dim Imf = rg(f (v1), . . . , f (vn)) = rg(A), e
dimKerf = n − rg(A).
b) Nelle notazioni precedenti supponiamo inoltre dimW = dimV = n. Da a) segue:
f isomorfismo ⇐⇒ MC,B(f ) ∈ GLn(K) ()
Notazione 1.47 Sia V uno spazio vettoriale f.g., sia B = (v1, . . . , vn) una base di V , sia f ∈ End(V ) e sia A ∈ Mn(K). Poniamo:
MB(f ) := MB,B(f ) (detta la matrice di f rispetto a B)
FB(A) := FB,B(A) (detto l’endomorfismo di V associato ad A rispetto a B)
Proposizione 1.48 Sia V uno spazio vettoriale f.g., sia B = (v1, . . . , vn) una base di V e sia f ∈ End(V ). Allora valgono i seguenti fatti:
f = idV ⇐⇒ MB(f ) = In; f ∈ GL(V ) ⇐⇒ MB(f ) ∈ GLn(K);
se f ∈ GL(V ) o equivalentemente se MB(f ) ∈ GLn(K), allora MB(f−1) = MB(f )−1.
Osserviamo che se B e C sono due basi, allora MC,B(idV) 6= In ⇐⇒ B 6= C.
Dimostrazione La prima affermazione segue dalla definizione di matrice associata, la seconda `e un caso particolare di 1.46 b), la terza si vede cos`ı:
f ◦ f−1 = idV ⇐⇒ MB(f ◦ f−1) = In ⇐⇒ MB(f )MB(f−1) = In. Corollario 1.49 Nelle notazioni precedenti, l’isomorfismo di K-spazi vettoriali
MB : End(V ) → Mn(K) f 7→ MB(f )
`
e anche un isomorfismo di anelli, prendendo come operazioni su End(V ) la somma usuale e la composizione di funzioni come prodotto, e su Mn(K) la somma usuale e il prodotto righe per colonne.
Dimostrazione Essendo un isomorfismo di spazi vettoriali lo `e in particolare di gruppi additivi;
poich´e per 1.45 MB(f ◦ g) = MB(f )MB(g), e MB(idV) = In, `e anche un morfismo di anelli, dunque essendo biettiva `e un isomorfismo.
Definizione 1.50 Sia V un K-spazio vettoriale f.g. e siano B = (v1, . . . , vn), C = (w1, . . . , wn) due sue basi.
La matrice MC,B(idV) `e detta la matrice del cambiamento di coordinate dalla base B alla base C, o anche la matrice del cambiamento di base da B a C; si ha
MC,B(idV) =
v11 . . . v1n ... ... ... vn1 . . . vnn
dove la colonna i-esima `e formata dalle coordinate di vi rispetto alla base C.
Risulta, se v = (x1, . . . , xn)B = (y1, . . . , yn)C:
y1
...
= MC,B(idV)
x1
...
Proposizione 1.51 Nelle notazioni di 1.50 si ha
MC,B(idV)−1= MB,C(idV) Dimostrazione
MC,B(idV)MB,C(idV) = MC,C(idV) = In, MB,C(idV)MC,B(idV) = MB,B(idV) = In.
1.4 Equazioni di un sottospazio vettoriale
Nel seguito sono fissate le seguenti notazioni: V `e un K-spazio vettoriale, dimV = n, B = (v1, .., vn)
`
e una base per V .
E facile provare le seguenti affermazioni:`
(equazioni cartesiane di un sottospazio vettoriale)
a) Siano M =
m11 . . . m1n ... ... ms1 . . . msn
∈ Ms,n(K), X =
x1
... xn
, 0 =
0... 0
. Allora
W := {(x1, .., xn)B ∈ V | M X = 0}
`
e un sottospazio vettoriale di dimensione n − r(M ).
b) Sia W un sottospazio vettoriale di dimensione t; allora esiste un sistema lineare omogeneo M X = 0 di rango n − t in n incognite tale che
W = {(x1, .., xn)B ∈ V | M X = 0}.
Si dice che M X = 0 `e un sistema di equazioni cartesiane di W rispetto alla base B.
Dunque, un sottospazio vettoriale di dimensione t pu`o venire rappresentato da n − t equazioni indipendenti, cio´e come intersezione di n − t iperpiani.
Si osservi che le equazioni cartesiane non sono univocamente determinate: tutti e soli i sistemi lineari equivalenti a M X = 0 danno equazioni cartesiane per W rispetto a B.
(equazioni parametriche di un sottospazio vettoriale) a) Date espressioni della forma:
x1 = b11λ1+ ... + b1sλs ...
xn= bn1λ1+ ... + bnsλs λ1, ..., λs∈ K,
l’insieme W := {(x1, .., xn)B ∈ V | ∃λ1, ..., λs ∈ K, xi = bi1λ1 + ... + bisλs, i = 1, .., n} `e il sottospazio vettoriale di dimensione r(bij):
W =< (b11, .., bn1)B, .., (b1s, .., bns)B > .
b) Sia W =< w1, ..., ws> un sottospazio vettoriale di V , con w1= (b11, .., bn1)B, .., ws= (b1s, .., bns)B. Allora W si pu`o descrivere come l’insieme dei vettori (x1, .., xn)B tali che esistono λ1, ..., λs ∈ K tali che:
x1 = b11λ1+ ... + b1sλs
...
xn= bn1λ1+ ... + bnsλs, λ1, ..., λs∈ K,
(∗)
x1
... xn
= λ1
b11
... bn1
+ . . . + λs
b1s
... bns
Si dice che le (∗) sono un sistema di equazioni parametriche di W rispetto ad B, e λ1, ..., λssono detti parametri; si ha dimW = r(bij).
Dunque un sottospazio vettoriale di dimensione t pu`o venire rappresentato con esattamente t parametri; basta scegliere i generatori wiin modo che siano linearmente indipendenti. Si osservi che le equazioni parametriche non sono univocamente determinate: cambiando sistema di generatori per W si hanno altre equazioni parametriche.
Osservazione a) Sia W un sottospazio vettoriale di dimensione t e di equazioni cartesiane M X = 0 rispetto a B (sar`a quindi r(M ) = n − t); per passare ad equazioni parametriche sempre rispetto a B basta scrivere la soluzione generale del sistema che dipender`a da t incognite libere, cio`e da t parametri.
b) Sia W un sottospazio vettoriale di dimensione t e di equazioni parametriche (∗) rispetto a B;
per passare ad equazioni cartesiane sempre rispetto a B basta imporre
r
x1 b11 . . . b1s ...
xn bn1 . . . bns
= t
scegliemdo un minore non nullo di ordine t della matrice (bij), ed imponendo che i suoi orlati di ordine t + 1 siano tutti nulli..
2 Autovalori ed autovettori
Iniziamo richiamando qualcosa sulle somme dirette di sottospazi:
Proposizione 2.1 Sia V un K-spazio vettoriale, siano E1, . . . , Es sottospazi di V di dimensione finita, e sia nj := dimEj > 0, j = 1, . . . , s. Sono equivalenti:
a) E1+ . . . + Es `e somma diretta;
b) Se Bj = (vj,1, . . . , vj,nj) `e base per Ej, j = 1, . . . , s, allora
B = (v1,1, . . . , v1,n1, . . . , vs,1, . . . , vs,ns)
`
e base per E1+ . . . + Es (in altre parole, gli insiemi B1, . . . , Bs sono a due a due disgiunti, e la loro unione dotata di un ordine `e una base per E1+ . . . + Es);
c) dim(E1+ . . . + Es) = dimE1+ . . . + dimEs.
Avremo anche bisogno di qualche richiamo sulle radici di un polinomio.
2.1 Radici di un polinomio
Lavoriamo con polinomi a coefficienti in un campo K; K[x] denota l’anello di tali polinomi.
Per maggiori dettagli e per le dimostrazioni si rimanda per esempio alle Note di Algebra 2:
http://www.dm.unibo.it/ ida/tutto11-12-14.pdf
Definizione 2.2 Sia f = a0+ a1x + . . . + anxn un polinomio a coefficienti in K; diciamo che un elemento u di K `e una radice, o uno zero, di f se f (u) = a0 + a1u + . . . + anun = 0 (se cio´e la funzione polinomiale associata ad f si annulla in u).
Definizione 2.3 Siano f, g ∈ K[x]; diciamo che g divide f e scriviamo g | f se esiste un polinomio h tale che f = gh.
Proposizione 2.4 Sia K campo, u ∈ K, f ∈ K[x]; allora x − u | f ⇐⇒ f (u) = 0
Definizione 2.5 Sia K campo, u ∈ K, f ∈ K[x], f 6= 0; la molteplicit`a µ(u) di u come radice di f `e l’unico intero m ∈Ntale che
f = (x − u)mg, g(u) 6= 0 Si dimostra che la definizione `e ben posta e che si ha
µ(u) = max{k ∈N, (x − u)k| f } Quindi se µ(u) = 0 allora f (u) 6= 0.
Una radice semplice, risp. multipla, di f `e una radice di molteplicit`a 1, risp. > 1.
Proposizione 2.6 Sia K campo, f ∈ K[x], f di grado n (cio´e f = a0+a1x+. . .+anxncon an6= 0);
allora se u1, . . . , uk sono le radici (a due a due distinte) di f in K, si ha µ(u1) + . . . + µ(uk) ≤ n.
Se µ(u1) + . . . + µ(uk) = n, diciamo che f ha n radici contate con molteplicit`a in K, e in tal caso f fattorizza nel prodotto di n fattori lineari:
µ(u )· . . . · (x − u µ(u )
Esempio 2.7 a) Sia f = x2− 6x − 5; se pensiamo ad f come polinomio reale, le radici inRsono 3 ±√
9 + 5 cio´e u1= 3 +√
14, u2 = 3 −√
14. Quindi x − u1| f e x − u2| f ; `e facile verificare che x2− 6x − 5 = (x − (3 +√
14))(x − (3 −√ 14))
D’altra parte f ha coefficienti interi, quindi in Q, ma le sue radici non stanno in Q, quindi come polinomio razionale f non si fattorizza in fattori lineari.
b) Sia f = 2x2− 6x − 3; se pensiamo ad f come polinomio reale, le radici in R sono 3±
√9+6 2 cio´e u1 = 3+
√ 15
2 , u2 = 3−
√ 15
2 . Quindi x − u1| f e x − u2| f ; `e facile verificare che 2x2− 6x − 3 = 2(x − 3 +√
15
2 )(x −3 −√ 15 2 ).
La differenza con il caso precedente `e che x2− 6x − 5 `e un polinomio monico, cio´e con coefficiente direttore = 1, mentre 2x2− 6x − 3 ha coefficiente direttore = 2.
2.2 Matrici simili - Endomorfimi diagonalizzabili
In questa sessione V denota sempre un K-spazio vettoriale, se di dimensione finita o no verr`a pre- cisato di volta in volta, e id denota idV, mentre I denota la matrice identit`a dell’ordine opportuno.
Proposizione 2.8 Sia dimV = n, A, B basi per V , f ∈ EndV . Si ha:
MA(f ) = MB,A(id)−1MB(f ) MB,A(id) Dimostrazione
id f id
V → V → V → V
A B B A
Dato che id ◦ f ◦ id = f , per 1.45 si ha:
MA(f ) = MA,A(id ◦ f ◦ id) = MA,B(id) MB,B(f ) MB,A(id) = MB,A(id)−1MB(f ) MB,A(id)
Corollario 2.9 Nelle notazioni di 2.8, si ha
detMA(f ) = detMB(f ) Dimostrazione Per il Teorema di Binet si ha:
detMA(f ) = detMB,A(id)−1 detMB(f ) detMB,A(id) = (det (MB,A(id)))−1 detMB(f ) detMB,A(id) Definizione 2.10 Sia V f.g., B una sua base e sia f ∈ EndV . Poniamo
detf := detMB(f ).
Si osservi che la definizione `e ben posta grazie a 2.9
Definizione 2.11 Due matrici A, B ∈ Mn(K) si dicono simili se esiste P ∈ GLn(K) tale che B = P−1AP
Osservazione 2.12 La similitudine `e una relazione di equivalenza in Mn(K). Infatti:
- A = In−1AIn
- B = P−1AP ⇒ P BP−1 = A ⇒ A = (P−1)−1BP−1
- B = P−1AP, C = Q−1BQ ⇒ C = Q−1(P−1AP )Q = (P Q)−1A(P Q) dove P, Q sono invertibili, quindi anche P−1 e P Q lo sono.
Proposizione 2.13 Sia dimV = n, e siano A, B ∈ Mn(K). Allora A e B sono simili ⇐⇒
rappresentano uno stesso endomorfismo di V rispetto a due basi diverse. Pi`u precisamente, A, B simili ⇐⇒ ∃f ∈ EndV, C, D basi di V tali che A = MC(f ), B = MD(f ) Dimostrazione ⇐) : segue da 2.8
⇒) : Sia P = (pij) ∈ GLn(K) tale che B = P−1AP . Sia C = (v1, . . . , vn) una base arbitraria e sia f = FC(A). Sia D = (w1, . . . , wn) la base di V tale che le coordinate di wi rispetto a C siano la colonna i-esima di P : wi = (p1i, . . . , pni)C. Allora P = MC,D(id), e si ha:
B = (MC,D(id))−1MC(f )MC,D(id) =
|{z}
P rop.2.8
MD(f )
Definizione 2.14 Una matrice A ∈ Mn(K) si dice diagonalizzabile (abbreviato in dz) se `e simile ad una matrice diagonale.
Diagonalizzare una matrice A ∈ Mn(K) che sia dz vuol dire trovare una P ∈ GLn(K) tale che P−1AP sia diagonale.
Sia dimV = n; un endomorfismo f ∈ EndV si dice diagonalizzabile se esiste una base B di V tale che MB(f ) sia una matrice diagonale; in tal caso, B si dice base diagonalizzante.
Per Prop. 4.35, f `e dz ⇐⇒ se C `e una qualsiasi base di V , MC(f ) `e dz.
Osservazione 2.15 Se f `e dz e B = (v1, . . . , vn) `e una base diagonalizzante, si ha
MB(f ) =
λ1 0 . . . 0 ... . .. ... ... . .. ... 0 0 . . . λn
e quindi
f (v1) = λ1v1, . . . , f (vn) = λnvn.
Viceversa, se f `e tale che esista una base B = (v1, . . . , vn) con f (v1) = λ1v1, . . . , f (vn) = λnvn, allora f `e dz e B `e base diagonalizzante.