• Non ci sono risultati.

Matrice associata ad un’applicazione lineare rispetto ad una cop- pia di basi

N/A
N/A
Protected

Academic year: 2021

Condividi "Matrice associata ad un’applicazione lineare rispetto ad una cop- pia di basi"

Copied!
8
0
0

Testo completo

(1)

Applicazioni lineari

Siano V, W due K–spazi vettoriali. Un’applicazione F : V −→ W si dice lineare o omo- morfismo o mappa lineare o operatore lineare se

1) ∀v, v0 ∈ V , F (v + v0) = F (v) + F (v0), 2) ∀v ∈ V , ∀c ∈ K, F (cv) = cF (v).

Le due condizioni precedenti sono equivalenti alla seguente:

3) ∀v, v0 ∈ V , ∀c, c0 ∈ K, F (cv + c0v0) = cF (v) + c0F (v0).

Infatti se vale la 3) allora, posto c = c0 = 1 vale la 1), mentre per c0 = 0 vale la 2).

Viceversa se valgono 1) e 2), allora F (cv + c0v0) = F (cv) + F (c0v0) = cF (v) + c0F (v0) e quindi vale la 3).

Osservazione 0.1. i) Applicando la 2) per c = 0, si ha che se F `e lineare, allora F (0) = 0.

ii) Iterando la 3), si ha che se F `e lineare, allora ∀v1, . . . , vn ∈ V , ∀c1, . . . , cn ∈ K, F (c1v1+ · · · + cnvn) = c1F (v1) + . . . cnF (vn).

Un’applicazione lineare F : V −→ V si dice endomorfismo di V , mentre un’applicazione lineare F : V −→ K si dice funzionale lineare su V .

Un’applicazione F : V −→ W si dice iniettiva se ∀v, v0 ∈ V , tali che F (v) = F (v0), allora v = v0.

Un’applicazione F : V −→ W si dice suriettiva se ∀w ∈ W , allora ∃ v ∈ V tale che F (v) = w.

Un’applicazione che `e sia iniettiva che suriettiva si dice biettiva. Un’applicazione lineare biettiva si dice isomorfismo.

Esempi 0.2. 1. L’applicazione F : V −→ W tale che F (v) = 0, ∀v ∈ V , `e un’applicazione lineare detta applicazione lineare nulla.

2. L’applicazione idV : V −→ V tale che F (v) = v, ∀v ∈ V , `e un isomorfismo detto identit`a di V .

3. Sia V un K–spazio vettoriale tale che dim(V ) = n e sia B = {e1, . . . , en} una base di V . L’applicazione FB : V −→ Kn tale che ∀v ∈ V , se v = x1e1+ . . . + xnen, allora

FB(v) = FB(x1e1+ . . . + xnen) = (x1, . . . , xn) ∈ Kn

`

e un isomorfismo.

4. L’applicazione F : Mn(K) −→ K tale che se A ∈ Mn(K), F (A) = T r(A) `e un funzionale lineare.

5. L’applicazione F : Mn(K) −→ Mn(K) tale che se A ∈ Mn(K), F (A) = A + At `e un’applicazione lineare.

6. L’applicazione F : Mn(K) −→ Mn(K) tale che se A ∈ Mn(K), F (A) = A − At `e un’applicazione lineare.

(2)

Lemma 0.3. i) Siano V, W, U K–spazi vettoriali e siano F : V −→ W , G : W −→ U applicazioni lineari, allora G ◦ F : v ∈ V 7−→ (G ◦ F )(v) = G(F (v)) ∈ U `e un’applicazione lineare.

ii) Se F : V −→ W un isomorfismo, allora F−1 : W −→ V `e un isomorfismo.

Proof. i) Mostriamo che G ◦ F `e lineare: ∀c, c0 ∈ K, ∀v, v0 ∈ V , siano v, v0 ∈ V tali che F (v) = w, F (v0) = w0, quindi F−1(w) = v, F−1(w0) = v0, si ha che

(G ◦ F )(cv + c0v0) = G(F (cv + c0v0)) = G(cF (v) + c0F (v0)) =

= cG(F (v)) + c0G(F (v0)) = c(G ◦ F )(v) + c0(G ◦ F )(v0).

ii) Mostriamo che F−1 `e lineare: ∀c, c0 ∈ K, ∀w, w0 ∈ W , siano v, v0 ∈ V tali che F (v) = w, F (v0) = w0, quindi F−1(w) = v, F−1(w0) = v0, si ha che

F−1(cw + c0w0) = F−1(cF (v) + c0F (v0)) = F−1(F (cv + c0v0)) =

= cv + c0v0 = cF−1(w) + c0F−1(w0).

Sia F : V −→ W un’applicazione lineare. Si definisce nucleo di F il seguente sottoin- sieme di V :

Ker(F ) = {v ∈ V | F (v) = 0}, mentre si definisce immagine di F il seguente sottoinsieme di W :

Im(F ) = {w ∈ W | ∃ v ∈ V con F (v) = w} = {F (v) | v ∈ V }.

Ker(F ) e Im(F ) sono sottospazi vettoriali di V e W , rispettivamente.

Infatti ∀c1, c2 ∈ K, ∀v1, v2 ∈ Ker(F ), si ha che F (c1v1+ c2v2) = c1F (v1) + c2F (v2) = c10 + c20 = 0 e quindi c1v1+ c2v2 ∈ Ker(F ).

Inoltre ∀w1, w2 ∈ Im(F ), con v1, v2 ∈ V tali che F (v1) = w1 e F (v2) = w2, allora F (c1v1+ c2v2) = c1w1+ c2w2. Pertanto c1w1+ c2w2 ∈ Im(F ).

Osservazione 0.4. Sia F : V −→ W un omomorfismo e sia {e1, . . . , en} una base di V , allora Im(F ) = hF (e1), . . . , F (en)i.

Osservazione 0.5. Sia F : V −→ W un omomorfismo. F `e suriettiva se e solo se Im(F ) = W o equivalentemente dim(Im(F )) = dim(W ).

Il prossimo risultato caratterizza le applicazioni lineari iniettive.

Teorema 0.6. Siano V, W due K–spazi vettoriali. Un’applicazione lineare F : V −→ W

`

e iniettiva se e solo se Ker(F ) = {0}.

(3)

Proof. Se F `e iniettiva, allora si supponga per assurdo che 0 6= v ∈ Ker(F ). Si ha che F (v) = 0 = F (0), ma allora v = 0, che `e un assurdo.

Viceversa, se Ker(F ) = 0, siano v, v0 ∈ V tali che F (v) = F (v0). Allora F (v − v0) = F (v) − F (v0) = 0, quindi v − v0 ∈ Ker(F ). Pertanto v − v0 = 0 e v = v0. Dunque F `e iniettiva.

Proposizione 0.7. i) Sia F : V −→ W un’applicazione lineare. Se v1, . . . , vn ∈ V sono linearmente dipendenti, allora F (v1), . . . , F (vn) ∈ W sono linearmente dipen- denti.

ii) Sia F : V −→ W un’applicazione lineare iniettiva. I vettori v1, . . . , vn ∈ V sono lin- earmente dipendenti se e solo F (v1), . . . , F (vn) ∈ W sono linearmente dipendenti.

Proof. i) Siano c1, . . . , cn∈ K scalari non tutti nulli tali che c1v1+ . . . + cnvn= 0, allora c1F (v1)+. . .+cnF (vn) `e una combinazione lineare non banale dei vettori F (v1), . . . , F (vn) che `e uguale al vettore nullo: c1F (v1) + . . . + cnF (vn) = F (c1v1+ . . . + cnvn) = F (0) = 0.

Pertanto F (v1), . . . , F (vn) sono linearmente dipendenti.

ii) Viceversa, se v1, . . . , vn ∈ V sono linearmente indipendenti, allora siano c1, . . . , cn∈ K tali che c1F (v1) + . . . + cnF (vn) = 0. Ne segue che F (c1v1+ . . . + cnvn) = 0 e quindi c1v1 + . . . cnvn ∈ Ker(F ). Ma Ker(F ) = {0}, poich`e F `e iniettiva. Quindi c1v1 + . . . + cnvn= 0 da cui segue che c1 = . . . = cn= 0, come volevasi.

Osservazione 0.8. Dalla Proposizione 0.7, i), si ha che se F (v1), . . . , F (vn) ∈ W sono linearmente indipendenti, allora v1, . . . , vn∈ V sono linearmente indipendenti.

Teorema 0.9. (Formula dimensionale per applicazioni lineari)

Siano V, W due K–spazi vettoriali e sia F : V −→ W un’applicazione lineare. Allora dim(Ker(F )) + dim(Im(F )) = dim(V ).

Proof. Sia n = dim(V ) e s = dim(Ker(F )). Poich`e Ker(F ) `e sottospazio vettoriale di V , si ha s ≤ n. Sia {n1, . . . , ns} una base di Ker(F ). Dal Teorema del completamento ad una base possiamo trovare n − s vettori vs+1, . . . , vn ∈ V tali che {n1, . . . , ns, vs+1, . . . , vn} `e

una base di V . Per completare la dimostrazione sar`a sufficiente mostrare che {F (vs+1), . . . , F (vn)}

`

e una base di Im(F ).

Mostriamo che F (vs+1), . . . , F (vn) generano Im(F ). Sia w ∈ Im(F ) e sia v = a1n1+ . . .+asns+as+1vs+1+. . .+anvn ∈ V tale che F (v) = w, allora w = F (v) = F (a1n1+. . .+

asns+ as+1vs+1+ . . . + anvn) = a1F (n1) + . . . + asF (ns) + as+1F (vs+1) + . . . + anF (vn) = as+1F (vs+1) + . . . + anF (vn). Pertanto Im(F ) = hF (vs+1), . . . , F (vn)i.

D’altro canto F (vs+1), . . . , F (vn) sono linearmente indipendenti. Infatti, siano cs+1, . . . , cn∈ K tali che cs+1F (vs+1)+. . .+cnF (vn) = 0. Allora F (cs+1vs+1+. . .+cnvn) = cs+1F (vs+1)+

. . . + cnF (vn) = 0. Pertanto cs+1vs+1+ . . . + cnvn ∈ Ker(F ). Poiche {n1, . . . , ns} `e una base di Ker(F ), esistono b1, . . . , bs∈ K tali che cs+1vs+1+ . . . + cnvn= b1n1+ · · · + bsns

e quindi b1n1+ . . . + bsns− cs+1vs+1− . . . − cnvn = 0. Ma n1, . . . , ns, vs+1, . . . , vn sono

(4)

linearmente indipendenti, allora b1 = . . . = bs = cs+1 = . . . = cn = 0. Ne segue che F (vs+1), . . . , F (vn) sono linearmente indipendenti.

Corollario 0.10. Sia F : V −→ V0 un omomorfismo, con dim(V ) = dim(V0) = n. Allora F `e iniettiva se e solo se F `e suriettiva.

Proof. F `e iniettiva se e solo se Ker(F ) = {0} se e solo se dim(Ker(F )) = 0 se e solo se dim(Im(F )) = dim(V ) = n se e solo se F `e suriettiva.

Il prossimo risultato esprime il fatto che un’applicazione lineare `e determinata dalle immagini dei vettori di una base del dominio.

Proposizione 0.11. Siano V, W due K–spazi vettoriali, sia B = {e1, . . . , en} una base di V e siano w1, . . . , wn vettori di W . Allora esiste un’ unica appliczione lineare F : V −→

W , tale che F (ei) = wi, 1 ≤ i ≤ n.

Proof. Se F esiste, allora essa `e unica. Infatti ∀ v ∈ V , siano x1, . . . , xn ∈ K tali che v = x1e1+. . .+xnen, allora poich`e F `e lineare si ha che F (v) = x1F (e1)+. . .+xnF (en) = x1w1+ . . . + xnwn.

Basta, quindi mostrare che l’applicazione F : v = x1e1+. . .+xnen∈ V 7−→ x1w1+. . .+

xnwn∈ W `e lineare. Siano c, c0 ∈ K, v = x1e1+. . .+xnen, v0 = y1e1+. . .+ynen∈ V , allora cv + c0v0 = c(x1e1+ . . . + xnen) + c0(y1e1+ . . . + ynen) = (cx1+ c0y1)e1+ . . . + (cxn+ c0yn)en e quindi F (cv + c0v0) = (cx1+ c0y1)w1+ . . . + (cxn+ c0yn)wn= c(x1w1+ . . . + xnwn) + c0(y1w1+ . . . + ynwn) = cF (v) + c0F (v0).

Due K–spazi vettoriali V, W si dicono isomorfi se esiste un isomorfismo F : V −→ W . Teorema 0.12. Due K–spazi vettoriali V, W (di dimensione finita) sono isomorfi se e solo se dim(V ) = dim(W ).

Proof. Se esiste un isomorfismo F : V −→ W , allora dalla Formula dimensionale per le applicazioni lineari, si ha che dim(V ) = dim(W ), in quanto dim(Ker(F )) = 0 e dim(Im(F )) = dim(W ).

Viceversa, se dim(V ) = dim(W ), siano {v1, . . . , vn} una base di V e {w1, . . . , wn} una base di W . Dal Teorema 0.11 esiste un’unica applicazione lineare F : V −→ W , tale che F (vi) = wi, 1 ≤ i ≤ n. Allora {w1, . . . , wn} `e una base di Im(F ) e quindi dim(Im(F )) = dim(W ) = n ed F `e suriettiva. Inoltre, dal Corollario 0.10, si ha che F `e iniettiva. Allora F `e un isomorfismo.

Matrice associata ad un’applicazione lineare rispetto ad una cop- pia di basi

Siano V, W due K–spazi vettoriali tali che dim(V ) = n, dim(W ) = m e siano B = {v1, . . . , vn}, B0 = {w1, . . . , wm} basi di V e W , rispettivamente. Sia F : V −→ W

(5)

un’applicazione lineare. La matrice m × n la cui j–esima colonna, 1 ≤ j ≤ n, `e costituita dalle coordinate del vettore F (vj) ∈ W rispetto alla base B0 si dice matrice associata ad F rispetto alle basi B, B0.

F (v1) = a11w1+ a21w2+ . . . + am1wm F (v2) = a12w1+ a22w2+ . . . + am2wm

...

F (vn) = a1nw1+ a2nw2+ . . . + amnwm La matrice associata ad F rispetto a B, B0 `e:

AB,B0 =

a11 a12 . . . a1n a21 a22 . . . a2n

... ... . .. ... am1 am2 . . . amn

Si noti che AB,B0 dipende, oltre che da F , anche dalle basi di V e W . Inoltre, fissate una base di V e W , dalla matrice `e possibile risalire all’applicazione lineare.

Proposizione 0.13. Siano V, W K–spazi vettoriali tali che dim(V ) = n, dim(W ) = m e siano B = {v1, . . . , vn}, B0 = {w1, . . . , wm} basi di V e W , rispettivamente. Sia F : V −→ W un’applicazione lineare, allora ∀v = x1v1 + . . . + xnvn ∈ V , si ha F (v) = y1w1+ . . . + ymwm, dove

 y1 y2 ... ym

= AB,B0

 x1 x2 ... xn

Proof. F (v) = F (x1v1 + . . . + xnvn) = x1F (v1) + . . . + xnF (vn) = x1(a11w1+ a21w2 + . . . + am1wm) + . . . + xn(a1nw1 + a2nw2 + . . . + amnwm) = 

Pn

j=1a1jxj

w1 + . . . +

Pn

j=1amjxj

wm = y1w1+ . . . + ymwm. Poich`e un vettore si esprime in maniera unica come combinazione lineare di una base si ha che yi = 

Pn

j=1aijxj

, 1 ≤ i ≤ m, come volevasi.

Osservazione 0.14. Tenendo conto dell’Osservazione 0.4 e dell’Esempio 0.2, 3., le colonne della matrice AB,B0 formano un insieme di generatori di Im(F ). Inoltre, si noti che dim(Im(F )) = rg(AB,B0).

Denotiamo con Hom(V, W ) l’insieme di tutte le applicazioni lineari da V in W . Hom(V, W ) = {F : V −→ W | F omomorfismo}.

Siano F1, F2 ∈ Hom(V, W ) e λ ∈ K. Definiamo

F1+ F2 : v ∈ V 7−→ (F1 + F2)(v) = F1(v) + F2(v) ∈ W,

(6)

λF1 : v ∈ V 7−→ λF1(v) ∈ W.

Si pu`o mostrare che F1+ F2 e λF1 sono applicazioni lineari da V in W . Pertanto F1 + F2, λF1 ∈ Hom(V, W ) e vale quanto segue.

Lemma 0.15. Hom(V, W ) `e un K–spazio vettoriale.

Teorema 0.16. Siano V, W due K–spazi vettoriali e siano B = {v1, . . . , vn} e B0 = {w1, . . . , wm} basi di V e W , rispettivamente. L’applicazione:

ΦB,B0 : F ∈ Hom(V, W ) 7−→ AB,B0 ∈ Mm,n(K)

`

e lineare. In particolare ΦB,B0 `e un isomorfismo di spazi vettoriali e dim(Hom(V, W )) = dim(Mm,n(K)) = mn.

Proof. Siano F, G ∈ Hom(V, W ) e siano AB,B0, BB,B0 ∈ Mm,n(K) le matrici associate ad F e G, rispettivamente, rispetto alle basi B, B0. Dalla Proposizione 0.13, se x `e il vettore colonna delle coordinate di v rispetto alla base B, allora il vettore colonna delle coordinate di F (v) rispetto alla base B0 risulta AB,B0 x, mentre il vettore colonna delle coordinate di G(v) rispetto alla base B0`e BB,B0 x. Poich`e ∀ v ∈ V , (F + G)(v) = F (v) + G(v), il vettore colonna delle coordinate di (F +G)(v) rispetto a B0`e AB,B0 x+BB,B0 x = (AB,B0+BB,B0) x.

Pertanto la matrice associata ad F +G rispetto alle basi B, B0`e AB,B0+BB,B0. Analogamente si pu`o mostrare che λAB,B0 `e la matrice associata a λF rispetto alle basi B, B0. Abbiamo allora mostrato che ΦB,B0 `e un’applicazione lineare.

Mostriamo ora che ΦB,B0 `e suriettiva. Infatti, se M ∈ Mm,n(K), sia FM : V −→ W l’applicazione definita come segue. Se v = x1v1+ . . . + xnvn∈ V , allora

FM(v) = (M(1)x)w1+ . . . + (M(m)x)wm,

dove x = (x1, . . . , xn)t. Si noti che il vettore colonna delle coordinate di FM(v) `e M x.

Inoltre FM `e lineare. Infatti se c, c0 ∈ K e v = x1v1+. . .+xnvn, v0 = y1v1+. . .+ynvn∈ V , posto x = (x1, . . . , xn)t e y = (y1, . . . , yn)t, si ha che

FM(cv + c0v0) = (M(1)(cx + c0y))w1+ . . . + (M(m)(cx + c0y))wm =

= (cM(1)x + c0M(1)y)w1+ . . . + (cM(m)x + c0M(m)y)wm =

= c (M(1)x)w1+ . . . + (M(m)x)wm + c0 (M(1)y)w1+ . . . + (M(m)y)wm =

= cFM(v) + c0FM(v0).

Poich`e la matrice associata ad FM rispetto alle basi B e B0 `e la matrice M , si ha che ΦB,B0(FM) = M .

Mostriamo, infine, che ΦB,B0 `e iniettiva. Se F : V −→ W `e un’applicazione lineare la cui matrice associata rispetto alle basi B e B0 `e la matrice nulla, allora F (v) = 0, ∀ v ∈ V . Pertanto F `e l’applicazione lineare nulla e Ker(ΦB,B0) = {0}.

(7)

Proposizione 0.17. Siano V, W, U K–spazi vettoriali, B, B0, B00 basi di V , W ed U , rispettivamente. Siano F : V −→ W , G : W −→ U applicazioni lineari. Se A `e la matrice associata ad F rispetto a B e B0 e B `e la matrice associata a G rispetto a B0 e B00, allora BA `e la matrice associata a G ◦ F rispetto alle basi B e B00.

Proof. Siano B = {v1, . . . , vn}, B0 = {w1, . . . , wm} e B00 = {u1, . . . , us}. Se v = z1v1+ . . . + znvn ∈ V,

siano

F (v) = x1w1+ . . . + xmwm e (G ◦ F )(v) = G(F (v)) = y1u1 + . . . + ysus.

Posto z = (z1, . . . , zn)t, x = (x1, . . . , xm)t e y = (y1, . . . , ys)t, dalla Proposizione 0.13, si ha che

x = Az e

y = Bx = B(Az) = (BA)z, come volevasi.

Corollario 0.18. Se F ∈ Hom(V, W ) `e un isomorfismo e AB,B0 `e la matrice associata ad F rispetto alle basi B, B0, allora A−1B,B0 `e la matrice associata ad F−1 rispetto alle basi B0, B.

Sia V un K–spazio vettoriale tale che dim(V ) = n e siano E = {e1, . . . , en}, F = {f1, . . . , fn} due basi di V . Allora esistono degli scalari aij ∈ K tali che

f1 = a11e1+ a21e2+ . . . + an1en= (Pn

i=1ai1ei) f2 = a12e1+ a22e2+ . . . + an2en= (Pn

i=1ai2ei) ...

fn = a1ne1+ a2ne2 + . . . + annen= (Pn

i=1ainei) Si consideri la matrice quadrata di ordine n

M =

a11 a12 . . . a1n a21 a22 . . . a2n ... ... . .. ... an1 an2 . . . ann

La matrice M si chiama matrice del cambiamento di base da E ad F o anche matrice di passaggio da E ad F .

Osservazione 0.19. Tenendo conto dell’Esempio 0.2, 3., le colonne della matrice M formano un insieme di vettori linearmente indipendenti di Kn. Pertanto M ∈ GLn(K).

(8)

Sia v ∈ V , allora v = x1e1+ . . . + xnen e v = y1f1+ . . . + ynfn. Si noti che la matrice M pu`o essere considerata come matrice associata all’applicazione identica (Esempio 0.2, 2.) idV : v ∈ V 7−→ v ∈ V rispetto alle basi F e E . Allora, dalla Proposizione 0.13 e dal Corollario 0.18, si ha che

 x1 x2 ... xn

= M

 y1 y2 ... yn

 da cui si ricava

 y1 y2 ... yn

= M−1

 x1 x2 ... xn

 Vale, pertanto, il seguente risultato.

Corollario 0.20. Siano E ed F due basi dello spazio vettoriale V . Se M `e la matrice di passaggio da E ad F , allora M−1 `e la matrice di passaggio da F ad E .

Riferimenti

Documenti correlati

b) Come nell’esercizio precedente si pu` o procedere in

[r]

a) Per verificare che i quattro punti sono complanari basta determinare un’equazione del piano π passante per tre di essi, per esempio A, B e C, e verificare che D appartiene a

[r]

Pertanto, in questo caso non si ha convergenza assoluta... Pertanto, in questo caso non si ha

Per ogni domanda individuare l’unica risposta corretta tra le quattro proposte: A, B, C, D... B Si intersecano in due

Un sistema lineare di 3 equazioni in 5 incognite: a non ha soluzione ; b ha sempre almeno una soluzione; c ha soluzione solo in certi casi; d ha sempre una soluzione

[r]