Insiemi di generatori, dipendenza lineare e basi
July 4, 2015
1 Insiemi di generatori
Nel seguito V `e uno spazio vettoriale sul campo K.
Definizione. Una combinazione lineare di vettori v1, v2, . . . , vk in V `e un vettore in V della forma
k
X
j=1
cjvj = c1v1+ c2v2+ . . . + ckvk
con c1, c2, . . . , ck scalari in K. La combinazione lineare si dice triviale se tutti i coefficienti c1, c2, . . . , ck sono nulli, c1= c2 = . . . = ck = 0, altrimenti, se non tutti i coefficienti sono nulli, ovvero se esiste almeno un indice j = 1, . . . , k, con cj 6= 0, la combinazione lineare si dice non triviale.
Sia S un sottoinsieme non vuoto di V (finito o infinito). Un vettore v in V si dice una com- binazione lineare di vettori di S se v `e combinazione lineare di vettori v1, v2, . . . , vk tutti ap- partenenti ad S. Il vettore nullo 0 `e combinazione lineare di vettori di un qualunque sottoinsieme non vuoto di V (0 `e la somma della combinazione lineare triviale di un qualunque insieme finito di vettori). Denoteremo con hSi l’insieme di tutte le combinazioni lineari di vettori di S. Se S = {v1, v2, . . . , vk} porremo hv1, v2, . . . , vki al posto di h{v1, v2, . . . , vk}i. Ad esempio
h0i = {0}, hvi = {cv | c ∈ K}, hv, wi = {av + bw | a, b ∈ K}.
Se v 6= 0 `e un vettore geometrico nello spazio, hvi `e l’insieme di tutti i multipli (positivi o negativi) del vettore v ed individua la retta che d`a la direzione del vettore. Se v, w sono due vettori non paralleli nello spazio, la regola del parallelogramma fa vedere che le combinazioni lineari dei due vettori individuano il piano che contiene i due vettori. (Ad esempio, se v = (1, 0, 0), w = (0, 1, 0), allora hv, wi = {(x, y, 0) | x, y ∈ R} `e il piano xy.)
Per l’insieme vuoto poniamo h∅i = {0}.
Proposizione. Sia S un sottoinsieme dello spazio vettoriale V . L’insieme hSi formato dalle combinazioni lineari di vettori di S `e un sottospazio di V . Se W `e un sottospazio di V contenente S, allora W contiene hSi.
dim. Se S = ∅, hSi = 0 che `e un sottospazio. Supponiamo S 6= ∅. Verifichiamo che hSi soddisfa le tre condizioni per essere un sottospazio.
1. 0 ∈ hSi perch´e, se S 6= ∅, esiste v ∈ S e da 0 = 0v segue che 0 `e combinazione lineare di vettori di S.
2. Se v, w sono vettori in hSi, allora v = a1v1+ . . . + apvp, w = b1w1+ . . . + bqwq con i vi, wj in S e v + w = a1v1+ . . . + apvp+ b1w1+ . . . + bqwq `e ancora una combinazione lineare di vettori di S e quindi v + w ∈ hSi .
3. Se v = a1v1+ . . . + apvp∈ hSi e c `e uno scalare, cv = c(a1v1+ . . . + apvp) = ca1v1+ . . . + capvp)
`e una combinazione lineare di vettori in S e quindi cv ∈ hSi.
Per dimostrare il secondo asserto, osserviamo che se W contiene S, ogni combinazione lineare di vettori di S `e anche una combinazione lineare di elementi di W . Ma se W `e un sottospazio di V , ogni combinazione lineare di elementi di W `e un elemento di W : se w1, . . . , wp ∈ W e c1, . . . , cp∈ K, allora c1w1, . . . , cpwpsono vettori in W (per la terza propriet`a che caratterizza un sottospazio) e quindi anche la loro somma c1w1+ . . . + cpwp `e un vettore in W (per la seconda
propriet`a: sapendo che la somma di due vettori di W `e un vettore di W si ricava che la somma di un numero qualunque di vettori di W `e un vettore di W , ad esempio se ho tre vettori x1, x2, x3, allora x1+ x2+ x3= (x1+ x2) + x3ma x1+ x2sta in W e quindi sommando x3si ottiene ancora un vettore di W ).
Definizione. Diremo che S `e un insieme di generatori per V se hSi = V , ovvero se ogni vettore in V `e combinazione lineare di vettori in S.
Esempi 1. Consideriamo V = Rn. Siano v1, v2, . . . , vk ∈ Rn (in colonna). Sia A = v1 2 · · · vk la matrice n × k che ha per colonne i vettori v1, v2, . . . , vk. Allora una combi- nazione lineare dei vettori v1, v2, . . . , vk si pu`o scrivere
c1v1+ c2v2+ . . . + ckvk = Ac, c =
c1
c2
... ck
Segue che {v1, v2, . . . , vk} `e un insieme di generatori di Rn se e solo se il sistema Ax = b ha una soluzione qualunque sia b ∈ Rn. Alla fine di questo capitolo avremo tutti gli strumenti per dare una risposta completa a questo problema. Per il momento osserviamo che se k = n e A `e una matrice invertibile, allora il sistema ha sempre la soluzione x = A−1b.
Prendiamo S = {(1, 1, 0), (1, 0, 1), (0, 1, 1)}. La matrice A =
1 1 0 1 0 1 0 1 1
`e invertibile (lo si pu`o vedere riducendo a scala per righe la matrice e vedere che ha rango 3 oppure calcolare det A e vedere che `e 6= 0). Quindi S `e un insieme di generatori di R3.
2. Consideriamo un’altra situazione. Consideriamo i polinomi x2+3x−2, 2x2+5x−3 e −x2−4x+4 in P2(R). Formano un insieme di generatori di P2(R)? Dato un qualunque polinomio ax2+ bx + c ∈ P2(R) `e possibile scriverlo come combinazione lineare dei polinomi dati?
c1(x2+ 3x − 2) + c2(2x2+ 5x − 3) + c3(−x2− 4x + 4) =
(c1+ 2c2− 3c3)x2+ (3c1+ 5c2− 4c3)x + (−2c1− 3c2+ 4c3) = ax2+ bx + c Quindi dobbiamo risolvere il seguente sistema nelle incognite c1, c2, c3
c1+ 2c2− 3c3= a 3c1+ 5c2− 4c3= b
−2c1− 3c2+ 4c3= c
per ogni assegnata terna a, b, c. La matrice dei coefficienti del sistema
1 2 −3
3 5 −4
−2 −3 4
`e invertibile e quindi trovo una soluzione qualunque sia il polinomio ax2+ bx + c. Segue che l’insieme formato con i tre polinomi genera P2(R).
3. Vediamo un esempio con le matrici in M2(R).
S =1 1 1 0
,1 1
0 1
,1 0
1 1
,0 1
1 1
Data la matricea11 a12
a21 a22
cerchiamo gli scalari c1, c2, c3, c4 tali che
c1
1 1 1 0
+ c2
1 1 0 1
+ c3
1 0 1 1
+ c4
0 1 1 1
=a11 a12
a21 a22
Questa equazione si trasforma nel sistema
c1+ c2+ c3= a11
c1+ c2+ c4= a12
c1+ c3+ c4= a12
c2+ c3+ c4= a22
la cui matrice dei coefficienti `e
1 1 1 0
1 1 0 1
1 0 1 1
0 1 1 1
ed `e invertibile. Segue come nei casi precedenti che S genera M2(R).
2 Dipendenza lineare
Definizione. Un sottoinsieme S di uno spazio vettoriale V si dice linearmente indipendente se per ogni sequenza {v1, v2, . . . , vp} di vettori distinti di S l’unica combinazione lineare nulla dei vettori v1, v2, . . . , vp`e quella triviale: se c1v1+c2v2+. . .+cpvp= 0, allora c1= c2= . . . = cp = 0.
Definizione. Un sottoinsieme S di V si dice linearmente dipendente se S non `e linearmente indipendente (che vuol dire che esistono in S sequenze di vettori distinti {v1, v2, . . . , vp} una cui combinazione lineare non triviale `e nulla: esistono scalari c1, c2, . . . , cp non tutti nulli tali che c1v1+ c2v2+ . . . + cpvp= 0). 1
Definizione. Sia S un sottoinsieme di V . Diremo che il vettore v dipende linearmente da S se v `e combinazione lineare di vettori in S, ovvero se v appartiene al sottospazio hV i.
Se S ⊂ V `e linearmente indipendente, ogni vettore v in hSi si pu`o rappresentare in un solo modo come combinazione lineare di vettori di S. Infatti, supponiamo di avere due combinazioni che rappresentano v
v =
m
X
j=1
ajvj+
p
X
h=1
chuh=
m
X
j=1
bjvj+
q
X
k=1
dkwk
dove i vj, uh e wk sono tutti vettori in S e dove si sono messi in evidenza i vettori comuni alle due combinazioni. Segue che
0 = v − v =
X
j
ajvj+X
h
chuh
−
X
j
bjvj+X
k
dkwk
=
X
j
(aj− bj)vj+X
h
chuh+X
k
(−dk)wk.
Poich´e S `e linearmente indipendente, non esistono combinazioni lineari non triviali di vettori di S e quindi aj− bj = 0, j = 1, . . . m, ch = 0, h = i, . . . , p, dk = 0, k = 1, . . . , q da cui segue appunto che aj= bj e che le due rappresentazioni devono coincidere.
Esempi 1. Se l’insieme S contiene il vettore nullo, allora S `e linearmente dipendente. Infatti, c0 = 0, per qualunque c 6= 0, `e una combinazione lineare non triviale nulla di vettori di S.
2. Se S = {v} contiene un solo vettore, S `e linearmente indipendente se e solo se v `e non nullo.
Infatti, se v = 0, allora S `e linearmente dipendente per quanto visto qui sopra, mentre se v 6= 0, da cv = 0 segue che c = 0 e quindi S `e linearmente indipendente (le combinazioni lineari di vettori in S = {v} sono le espressioni cv con c 6= 0).
3. Due vettori non nulli v, w in V si dicono proporzionali se esiste uno scalare c tale che v = cw (nel qual caso c 6= 0 e w = c−1v e quindi la relazione di proporzionalit`a `e simmetrica). Se S = {v, w} `e un insieme formato da due vettori non nulli, S `e linearmente dipendente se e solo se i vettori v e w sono proporzionali. Infatti, se v = cw, c 6= 0, v, w 6= 0, allora v − cw = 0 `e una combinazione lineare non triviale dei vettori in S e quindi S `e linearmente dipendente. Viceversa, se av + bw = 0 `e una combinazione lineare non triviale di v e w (non nulli), allora gli scalari a e b non sono entrambi nulli e quindi entrambi non nulli (se, ad esempio, fosse a 6= 0 e b = 0, allora si avrebbe av = 0 e quindi, dividendo per a, v = 0, contro l’ipotesi che v sia non nullo). Da av + bw = 0 segue allora v = −baw. Poich´e −b/a 6= 0, i vettori v e w sono proporzionali.
4. Consideriamo V = Rn. Siano v1, v2, . . . , vk ∈ Rn (in colonna). Sia A = v1 2 · · · vk
1Per dire che l’insieme S ⊂ V `e indipendente (risp. dipendente) diremo anche che i vettori di S sono linearmente indipendenti (risp. dipendenti).
la matrice n × k che ha per colonne i vettori v1, v2, . . . , vk. Allora una combinazione lineare dei vettori v1, v2, . . . , vk si pu`o scrivere
c1v1+ c2v2+ . . . + ckvk = Ac, c =
c1 c2 ... ck
Segue che S = {v1, v2, . . . , vk} `e un insieme linearmente indipendente se e solo se il sistema lineare omogeneo Ax = 0 ha la sola soluzione triviale. Dal Teorema di Rouch´e-Capelli segue che, se k > n, l’insieme S `e linearmente dipendente perch´e in tal caso il sistema ha pi`u incognite che equazioni.
Invece se k ≤ n il sistema ha un’unica soluzione e quindi S `e linearmente indipendente se e solo se rango A = k. In particolare se k = n, S `e linearmente indipendente se e solo se rango A = n, se e solo se det A 6= 0.
Il lettore avr`a osservato, confrontando con gli esempi della sezione precedente, come sia pi`u sem- plice controllare che un insieme sia linearmente dipendente o indipendente piuttosto che stabilire che sia un insieme di generatori.
5. Prendiamo V = R4 ed S = {(1, 0, 0, −1), (0, 1, 0, −1), (0, 0, 1, −1), (0, 0, 0, 1)}. La matrice for- mata dai vettori messi in colonna `e
A =
1 0 0 0
0 1 0 0
0 0 1 0
−1 −1 −1 1
che `e triangolare inferiore ed ha det A = 1. Segue che S `e linearmente indipendente.
6. Ancora V = R4, con S = {v1= (1, 3, −4, 2), v=(2, 2, −4, 0), v3= (1, −3, 2, −4), v4= (−1, 0, 1, 0)}
A =
1 2 1 −1
3 2 −3 0
−4 −4 2 1
2 0 −4 0
∼
1 2 1 −1 0 4 6 −3
0 0 0 1
0 0 0 0
.
Segue che A ha rango 3 e quindi S `e linearmente dipendente. Retro-sostiituendo si trova una soluzione (tra le infinite): x4 = 0, 2x2+ 3x3 = 0 e posso prendere x3 = 2, x2 = −3 e infine da x1+ 2x2+ x3= 0 ricavo x1= 4. Quindi trovo la combinazione lineare non triviale
4v1− 3v2+ 2v3+ 0v4= 0.
7. Ora prendiamo V = M2, S =
A1=1 −1
2 0
, A2=2 1 0 3
, A3=1 −1
2 1
. Una combi- nazione lineare nulla c1A1+c2A2+c3A3= 0 equivale al sistema lineare omogeneo sovradeterminato
c1+ 2c2+ c3= 0
−c1+ c2− c3= 0 2c1+ 2c3= 0 3c2+ c3= 0 che ha matrice dei coefficienti
1 2 1
−1 1 −1
2 0 2
0 3 1
∼
1 2 1 0 1 0 0 0 1 0 0 0
di rango tre, uguale al numero delle incognite. Segue che il sistema ha la sola soluzione triviale c1= c2= c3= 0. Segue che S `e linearmente indipendente.
8. Ora V = M2×3, S =
B1= 1 −3 2
−4 0 5
, B2=−3 7 4
6 −2 −7
, B3=−2 3 11
−1 −3 2
. Una combinazione lineare nulla a1B1+ a2B2+ a3B3 = 0 equivale al sistema lineare omogeneo
sovradeterminato
a1− 3a2− 2a3= 0
−3a1+ 7a2+ 3a3= 0 2a1+ 4a2+ 11a3= 0
−4a1+ 6a2− a3= 0
−2a2− 3a3= 0 5a1− 7a2+ 2a3= 0 che ha matrice dei coefficienti
1 −3 −2
−3 7 3
2 4 11
−4 6 −1
0 −2 −3
5 −7 2
∼
1 −3 −2
0 2 3
0 0 0
0 0 0
0 0 0
0 0 0
di rango due, minore del numero delle incognite. Segue che il sistema ha infinite soluzioni, una delle quali si calcola facilmente retro-sostituendo: a3= −2, a2 = 3, a1 = 5 che ci d`a una combinazione lineare non triviale di B1, B2, B3
5B1+ 3B2− 2B3= 0.
Segue che S `e linearmente dipendente.
9. Ora un esempio con i polinomi, V = Pn(R),
S = {pk(x) = xk+ xk+1+ . . . + xn | k = 0, 1, 2, . . . , n}.
Una combinazione lineare dei polinomi pk(x)
c0p0(x) + c1p1(x) + . . . + cnpn(x) = c0(1 + x + . . . + xn) + c1(x + x2+ . . . + xn) + . . . + cnxn= c0+ (c0+ c1)x + (c0+ c1+ c2)x2+ . . . + (c0+ c1+ . . . + cn)xn= 0
`e nulla se e solo se c0 = 0, c0+ c1 = 0, c0+ c1+ c2 = 0, . . . , c0+ c1+ c2+ . . . + cn = 0 e quindi c0= c1= . . . = cn= 0. Segue che l’insieme S `e linearmente indipendente.
10. Esiste un utile criterio, detto criterio wronskiano per stabilire se un numero finito di funzioni
`e linearmente indipendente. Sia I ⊆ R un intervallo. Siano f1, f2, . . . , fk in Ck−1(I), lo spazio vettoriale sul campo R delle funzioni derivabili k − 1 volte con derivate continue nell’intervallo I.
Il wronskiano di f1, f2, . . . , fk `e definito da
W (f1, f2, . . . , fk)(x) = det
f1(x) f2(x) · · · fk(x) f10(x) f20(x) · · · fk0(x)
... ... . .. ... f1(k−1)(x) f2(k−1(x) · · · fk(k−1)(x)
ed il criterio dice che se W (f1, f2, . . . , fk)(x0) 6= 0 per qualche x0 ∈ I, allora l’insieme S = {f1, f2, . . . , fk} ⊂ Ck−1(I) `e linearmente indipendente. La dimostrazione `e facile. Si parte da una combinazione lineare nulla c1f1+ c2f2+ . . . + ckfk = 0 delle funzioni, ove i coefficienti c1, c2, . . . , ck
sono costanti reali indeterminate. Si deriva l’espressione successivamente k − 1 volte. Poich´e (c1f1+ c2f2+ . . . + ckfk)0 = c1f10 + c2f20 + . . . + ckfk0 = 00 = 0 , (c1f10 + c2f20 + . . . + ckfk0)0 = c1f100+ c2f200+ . . . + ckfk00= 0 , . . . , c1f1(k−1)+ c2f2(k−1)+ . . . + ckfk(k−1)= 0 , per ogni x ∈ I si ottiene il sistema lineare omogeneo k × k
c1f1(x) + c2f2(x) + . . . + ckfk(x) = 0 c1f10(x) + c2f20(x) + . . . + ckfk0(x) = 0 . . . . c1f1(k−1)(x) + c2f2(k−1)(x) + . . . + ckfk(k−1)(x) = 0
la cui matrice dei coefficienti ha determinante proprio W (f1, f2, . . . , fk)(x). Se, per qualche x0∈ I,
`e W (f1, f2, . . . , fk)(x0) 6= 0, il sistema ha la sola soluzione triviale c1= c2 = . . . = ck = 0. Segue che se W (f1, f2, . . . , fk)(x) 6= 0 per qualche x0 ∈ I, allora S `e linearmente indipendente. Nulla
dice il criterio se W (f1, f2, . . . , fk)(x) = 0 per ogni x ∈ I. Vediamo qualche esempio concreto.
a) Poniamo S = {f1(x) = sin x, f2(x) = cos x} ⊂ C∞(R). `E W (f1, f2)(x) =
sin x cos x cos x − sin x
= − sin2x − cos2x = −1 e quindi S `e linearmente indipendente.
b) V = P(R) ⊂ C∞(R), S = {f1(x) = x, f2(x) = x2, f3(x) = x3}. `E
W (f1, f2, f3)(x) =
x x2 x3 1 2x 3x2
0 2 6x
= x
2x 3x2 2 6x
−
x2 x3 2 6x
= x(12x2− 6x2) − (6x3− 2x3) = 2x3
che `e diverso da zero per ogni x 6= 0. Segue che S `e linearmente indipendente. In questo caso sarebbe stato pi`u semplice scrivere la combinazione lineare c1f1(x) + c2f2(x) + c3f3(x) = c1x + c2x2+ c3x3 = 0 e osservare che il polinomio c1x + c2x2+ c3x3 `e il polinomio nullo se e solo se c1= c2= c3= 0.
c) Poniamo f1(x) = x, f2(x) = x + x2, f3(x) = 2x − x2. Il wronskiano `e uguale a
W (f1, f2, f3)(x) =
x x + x2 2x − x2 1 1 + 2x 2 − 2x
0 2 −2
= x
1 + 2x 2 − 2x
2 −2
−
x + x2 2x − 2x2
2 −2
=
x − 2(1 + 2x) − 2(2 − 2x) = 0.
In questo caso il criterio wronskiano non ci dice nulla. Calcoliamo la combinazione lineare nulla dei tre polinomi
c1x + c2(x + x2) + c3(2x − x2) = (c1+ c2+ c3)x + (c2− c3)x2= 0 che porta al sistema lineare omogeneo
(c1+ c2+ 2c3= 0 c2− c3= 0
che ha soluzioni non triviali, ad esempio c1= −3, c2= c3= 1. Segue che −3f1+ f2+ f3= 0 `e una combinazione lineare nulla dei tre polinomi che sono quindi linearmente dipendenti.
d) Prendiamo f1= x3, f2= |x|3. Le due funzioni sono derivabili in tutto R e
W (f1, f2)(x) =
x3 x3 3x2 3x2
= 0, per x ≥ 0,
x3 −x3 3x2 −3x2
= 0, per x ≤ 0.
Il criterio wronskiano non ci dice nulla. Calcoliamo la combinazione lineare c1f1+ c2f2= 0
c1f1(x) + c2f2(x) =
(c1x3+ c2x3= (c1+ c2)x3= 0, per x ≥ 0, c1x3− c2x3= (c1− c2)x3= 0, per x ≤ 0.
Segue che c1f1+ c2f2= 0 se e solo se
(c1+ c2= 0
c1− c2= 0 , se e solo se c1= c2= 0. Segue che le due funzioni sono linearmente indipendenti, considerate come funzioni in C1(R). Se le considero invece come funzioni in C1([0, +∞[) sono linearmente dipendenti: f1− f2= 0 . Lo stesso se le considero come funzioni in C1(] − ∞, 0]): f1+ f2= 0 .
3 Basi e dimensione
Definizione. Un insieme di generatori minimale dello spazio vettoriale V `e un insieme di generatori con la propriet`a che nessun suo sottoinsieme proprio 2`e un insieme di generatori.
2I sottoinsiemi propri di un insieme X sono i sottoinsiemi Y ⊂ X con Y 6= X.
Definizione. Un insieme indipendente massimale di V `e un sottoinsieme linearmente in- dipendente tale che nessun sottoinsieme che lo contiene propriamente `e linearmente indipendente.
Lemma. (1) Se v `e un vettore in S e v ∈ hS \ {v}i, allora hSi = hS \ {v}i, il vettore v `e un generatore “superfluo”.
(2) Un insieme minimale di generatori `e linearmente indipendente.
(3) Un insieme indipendente massimale `e un insieme di generatori.
dim. (1) Se v = P
jajvj con i vj in S \ {v}, allora in ogni combinazione lineare di vettori di S dove compare, si pu`o sostituire v con P
jajvj e quindi ogni elemento di hSi `e combinazione lineare di vettori di S \ {v}.
(2) Sia S un insieme minimale di generatori. SiaP
jcjvj = 0 una combinazione lineare nulla di vettori distinti di S e supponiamo che ck6= 0 per qualche indice k. Segue che vk= −c−1k P
j6=kcjvj. Da (1) segue che V = hS \ {vk}i contro l’ipotesi che S sia un insieme di generatori minimale.
(3) Sia S un insieme indipendente massimale e supponiamo che hSi 6= V . Allora esiste v ∈ V \ hSi.
Facciamo vedere che allora S ∪ {v} `e linearmente indipendente. Se cos`ı non fosse esistereb- bero v1, . . . , vm in S e scalari c, c1, . . . , cm tali che cv +P
jcjvj = 0. Se fosse c 6= 0, allora v = P
j(−c−1cj)vj ∈ hSi, assurdo. Dunque c = 0 e quindi P
jcjvj = 0. Essendo S linear- mente indipendente i cj sono tutti nulli. Segue che S ∪ {v} `e linearmente indipendente. Ma S
`e indipendente massimale e quindi non esistono insiemi linearmente indipendenti che contengono propriamente S. Segue che hSi = V .
Definizione. Sia V uno spazio vettoriale. Una base per V `e un inseme β ⊂ V che soddisfa le seguenti condizioni
• β `e un insieme di generatori di V ,
• β `e linearmente indipendente.
Diremo che lo spazio vettoriale V ha dimensione finita se V ha una base finita (ovvero contenente un numero finito di vettori). Se V non ha una base finita diremo che ha dimensione infinita.
lLo spazio vettoriale nullo , V = {0}, sar`a considerato uno spazio di dimensione finita con base ∅.
Un sottoinsieme β di V `e una base di V se e solo se ogni vettore di V ha una ed una sola rappresentazione come combinazione lineare di elementi di β.
Dal Lemma segue che sia gli insiemi di generatori minimali che gli insiemi indipendenti massimali sono basi di V .
Definizione. Uno spazio vettoriale V si dice finitamente generato se contiene un insieme finito di generatori.
Proposizione. (1) Sia V uno spazio vettoriale finitamente generato. Allora da ogni insieme finito di generatori di V si pu`o estrarre una base di V . In particolare V ha dimensione finita.
(2) Sia V uno spazio vettoriale di dimensione finita. Allora ogni insieme finito linearmente in- dipendente di V pu`o essere completato ad una base di V .
dim. (1) Sia S un insieme finito di generatori e numeriamo i suoi vettori S = {v1, v2, . . . , vN}.
Chiamiamo un vettore vh della sequenza inessenziale o superfluo se vh dipende linearmente da {v1, v2, . . . ,vh−1}, l’insieme dei vettori che lo precedono, ed essenziale altrimenti. Questa classificazione dei vettori di S chiaramente dipende dall’ordine scelto nella numerazione. Dal punto (1) del Lemma segue che un vettore inessenziale dipende linearmente dai vettori essenziali che lo precedono. Fatto questo, si rimuovono i vettori inessenziali da S. Rimangono solo i vettori essenziali. Sempre per il punto (1) del Lemma, i vettori essenziali generano V e sono linearmente indipendenti. Quindi formano una base di V .
(2) Sia {u1, u2, . . . , uk} un insieme linearmente indipendente e sia {v1, v2, . . . , vn} una base di V . Consideriamo la sequenza {w1, w2, . . . , wk+n} con wj = uj per j = 1, . . . , k e wk+h = vh per h = 1, . . . , n. La sequenza {w1, w2, . . . , wk+n} genera V perch´e contiene la base {v1, v2, . . . , vn} di V . Ora rimuoviamo i vettori inessenziali dalla sequenza. Otteniamo una base che contiene i vettori iniziali u1, . . . uk che, essendo linearmente indipendenti, sono tutti essenziali.
Segue subito da questa Proposizione che uno spazio vettoriale ha dimensione finita se e solo se
`e finitamente generato. L’argomento della dimostrazione del punto (2) della Proposizione si pu`o formalizzare nel seguente utile
Lemma. Sia S = {v1, v2, . . . , vN} una sequenza di vettori non nulli in V . Se S `e linear- mente dipendente, allora esiste un vettore vj nella sequenza che `e combinazione lineare dei vettori v1, v2, . . . , vj−1 che lo precedono.
dim. Se cos`ı non fosse, tutti i vettori della sequenza sarebbero essenziali e la sequenza sarebbe linearmente indipendente.
Esempi 1. Base standard di Kn.
Definizione: il vettore ej, j = 1, 2, . . . , n, ha tutti gli elementi uguali a zero tranne il j-esimo che `e uguale ad 1. I vettori e1, . . . , en si dicono i vettori standard di Kn. Il vettore (a1, a2, . . . , an) si rappresenta in modo unico come combinazone lineare degli ej:
(a1, a2, . . . , an) = a1e1+ a2e2+ . . . + anen=
n
X
j=1
ajej
Segue che l’insieme {e1, e2, . . . , en} `e una base di Kn, detta base standard, che ha quindi dimen- sione finita. Stessa cosa se scrivo i vettori come righe o come colonne.
2. Base standard di Mm×n(K)
Definizione: la matrice Eij ha tutti gli elementi nulli tranne quello di posto ij che `e uguale ad 1.
Le matrici Eij si dicono le matrici standard di Mm×n(K). La matrice A = (aij) si scrive in modo unico come combinazione lineare delle matrici Eij:
A = a11E11+ a12E12+ . . . + a1nE1n+ a21E21+ . . . + a2nE2n+ am1Em1+ . . . + amnEmn=X
ij
aijEij. Abbiamo scritto gli addendi seguendo l’ordine lessicografico (ordine alfabetico, le lettere sono 1, 2, . . . , max{m, n} nell’ordine naturale). Segue che {Eij | i = 1, . . . , m, j = 1, . . . , n} `e una base di Mm×n(K), detta base standard, che ha quindi dimensione finita.
3. Base standard di P(K).
Ogni polinomio si scrive in modo unico come combinazione lineare dei monomi 1, x, x2, . . . che si dicono i monomi standard di P(K). Quindi {1, x, x2, . . .} (sequenza infinita) `e una base, detta base standard di P(K). Questo `e un esempio di base infinita. Pu`o uno spazio con una base infinita avere una base finita?. La risposta `e no, come vedremo tra poco.
4. Base standard di Pn(K).
Ogni polinomio di grado ≤ n si scrive in modo unico come combinazione lineare dei monomi 1, x, x2, . . . , xn. Segue che {1, x, x2, . . . , xn} `e una base, detta base standard, di Pn(K) che quindi ha dimensione finita.
5. Sia S = {(2, −3, 5), (8, −12, 20), (1, 0, −2), (0, 2, −1), (7, 2, 0)} ⊂ R3 e sia V = hSi il sottospazio generato da W . Cerchiamo i vettori essenziali in S tenendo i vettori nell’ordine scritto. Il primo vettore (2, −3, 5) `e essenziale perch´e `e 6= 0. Il secondo vettore (8, −12, 20) `e un multiplo del primo (8, −12, 20) = 4(2, −3, 5) e dunque `e inessenziale. Il terzo vettore (1, 0, −2) non `e un multiplo del primo e quindi `e essenziale. Vediamo se il quarto vettore (0, 2, −1) `e combinazione lineare del primo e del terzo. Conviene verificare se sono linearmente dipendenti o indipendenti. Formiamo la matrice A che ha per colonne i tre vettori e (riduciamola a scala per righe o) calcoliamone il determinante
A =
2 1 0
−3 0 2
5 −2 −1
, det A = 15 6= 0
Segue che i tre vettori sono linearmente indipendenti e quindi il quarto vettore `e essenziale. L’ultimo vettore `e inessenziale perch´e posso risolvere il sistema A
x y z
=
7 2 0
. Segue che i vettori primo, terzo e quarto formano una base di V ( che quindi coincide con R3).
6. Sia S = {(1, 0, 1), (2, 1, −1)} ⊂ R3. Il secondo vettore non `e multiplo del primo e dunque S `e linearmente indipendente. Completiamo S ad una base di R3. Consideriamo la sequenza (1, 0, 1), (2, 1, −1), (1, 0, 0), (0, 1, 0), (0, 0, 1)} e togliamo i vettori inessenziali. I primi due sono es- senziali perch´e sono linearmente indipendenti. La matrice che ha per colonne i primi tre vet- tori ha det
1 2 1
0 −1 0 1 −1 0
= 1 e quindi i vettori sono linearmente indipendenti e quindi essen- ziali. E adesso facile verificare che il quarto ed il quinto vettore sono inessenziali. Segue che` {1, 0, 1), (2, 1, −1), (1, 0, 0)} `e una base di R che completa S.
Teorema. Sia V uno spazio vettoriale di dimensione finita. Se V ha una base contenente m vettori, allora ogni insieme di n vettori con n > m `e linearmente dipendente.
dim. Sia {v1, v2, . . . , vm} la base e sia {u1, u2, . . . , un} un insoeme con n > m vettori. Vogliamo dimostrare che {u1, u2, . . . , un} `e linearmente dipendente. Poich´e {v1, v2, . . . , vm} `e una base posso scrivere i vettori uj come combinazioni lineari dei vettori vi (attenzione agli indici!)
u1= a11v1+ a21v2+ . . . + am1vm
u2= a12v1+ a22v2+ . . . + am2vm . . . . un= a1nv1+ a2nv2+ . . . + amnvm
Per dimostrare che {u1, u2, . . . , un} `e linearmente dipendente bisogna far vedere che esistono scalari c1, c2, . . . , cn non tuttti nulli tali che
c1u1+ c2u2+ . . . + cnun= 0.
Sostituendo in questa equazione le espressioni degli uj troviamo
c1(a11v1+a21v2+. . .+am1vm)+c2(a12v1+a22v2+. . .+am2vm)+. . .+cn(a1nv1+a2nv2+. . .+amnvm) =
a11c1+ a12c2+ . . . + a1ncn= 0 a21c1+ a22c2+ . . . + a2ncn= 0 . . . . am1c1+ am2c2+ . . . + amncn= 0
Questo `e un sistema lineare omogeneo di m equazioni in n incognite. Poich´e n > m il sistema ha infinite soluzioni non triviali e pertanto trovo una combinazione lineare non triviale degli uj. Segue che {u1, u2, . . . , un} `e linearmente dipendente.
Corollario. Se V `e uno spazio vettoriale di dimensione finita, allora tutte le basi di V sono finite e contengono lo stesso numero di vettori.
dim. Sia β una base con m vettori. Se γ `e un’altra base che contiene pi`u di m vettori, allora contiene almeno m + 1 vettori linearmente indipendenti, e quindi troverei un insieme linearmente indipendente con m + 1 vettori, contro quanto stabilito dal Teorema. Segue che γ deve essere finita e contenere n ≤ m vettori e quindi n = m vetttori.
Definizione. La dimensione di uno spazio vettoriale di dimensione finita `e la cardinalit`a3 di una sua qualunque base. Se V = {0}, porremo dim V = 0.
Se V `e uno spazio vettoriale non nullo, allora dim V > 0. Infatti V contiene un vettore v 6= 0.
L’insieme {v} `e linearmente indipendente e si pu`o completare ad una base di V che ha quindi cardinalit`a > 0.
Corollario. Sia V uno spazio vettoriale di dimensione finita n. Un insieme di generatori per V contiene almeno n vettori
dim. Sia S un insieme di generatori. Se S contenesse meno di n vettori, allora potremmo estrarre da S una base che conterrebbe meno di n vettori.
Teorema. Sia V spazio vettoriale di dimensione n finita. Sia S un insieme di n vettori in V . Gli asserti seguenti sono equivalenti.
(1) S `e una base per V .
(2) S `e un insieme linearmente indipendente.
(3) S `e un insieme di generatori per V .
dim. Dalla definizione di base sappiamo che (1) ⇒ (2) e (3).
(2) ⇒ (1) Se S `e linearmente indipendente, allora lo si pu`o completare ad una base β per V . Segue che β contiene n elementi distinti e poich´e anche S ⊆ β contiene n elementi, deve essere S = β e quindi S `e una base per .
3La cardinalit`a di un insieme finito X `e il numero degli elementi contenuti nell’insieme. La si denota con #(X).
Ricordo che gli elementi di un insoeme sono supposti sempre distinti, non vi sono ripetizioni.
(3) ⇒ (1) Se S `e un insieme di generatori per V , allora da S si pu`o estrarre una base γ per V . Segue che γ ha lo stesso numero n di vettori di S e quindi γ = S ed S `e una base per V .
Da quanto visto a proposito delle basi standard ricaviamo
dim Kn = n, dim Mm×n(K) = mn, dim Pn(K) = 1 + n.
4 Dimensione dei sottospazi
Teorema. Sia U un sottospazio dello spazio vettoriale V . Se V ha dimensione finita anche U ha dimensione finita e dim U ≤ dim V . Se dim U = dim V , allora U = V .
dim. Supponiamo che dim V = n < ∞. Se U non avesse dimensione finita, allora, per ogni intero N ≥ 0, troveremmo insiemi linearmente indipendenti in U contenenti N vettori. Questi insiemi sarebbero linearmente indipendenti anche in V ma in V non esistono insiemi linearmente indipendenti con pi`u di n vettori. Dunque U ha dimensione finita. Se dim U = m, allora una base di U contiene m vettori linearmente indipendenti che sono linearmente indipendenti anche in V e quindi m ≤ n. Se m = n, allora una base di U `e una base di V per il Teorema precedente e quindi U = V .
Definizione. Sia U un sottospazio dello spazio vettoriale V di dimensione finita. Un sottospazio W di V si dice complementare del sottospazio U se V = U ⊕ W .
Corollario. Per ogni sottospazio U di uno spazio vettoriale V di dimensione finita esistono sot- tospazi W complementari di U .
dim. Supponiamo che dim V = n. Se U = V , W = {0}, seU = {0}, W = V . Sia dim U = m <
n, e sia {u1, . . . , um} una base di U . Completiamo la base ad una base {u1, . . . , um, w1, . . . , wn−m} di V e poniamo W = hw1, . . . , wn−mi. Segue che V = U ⊕ W .
Esempi 1. Calcoliamo una base e la dimensione del soottospazio di R3delle soluzioni dell’equazione x − 2y + z = 0.
Dal punto di vista geometrico, l’equazione rappresenta un piano nello spazio ed ha quindi dimen- sione due. Per trovare una base, osserviamo che l’equazione si pu`o scrivere x = 2y − z e pensare y e z come parametri liberi. Una base si ottiene prendendo y = 1, z = 0 e y = 0, z = 1 e quindi {(2, 1, 0), (−1, 0, 1)} `e una base.
2. Calcoliamo una base e la dimensione del sottospazio V = {A ∈ Mn(K) | A = At}. delle matrici simmetriche n × n.
Poich´e aji= aij, usando la base standard, una matrice simmetrica si scrive in modo unico come
A =
n
X
i=1
aiiEii+X
i<j
aij(Eij+ Eji)
Segue che una base di V `e data da {Eii}i∪ {Eij+ Eji}i<j. Segue che la dimensione di V `e uguale alla cardinalit`a dell’insieme delle coppie di numeri interi (i, j) tali che 1 ≤ i ≤ j ≤ n che `e
1 + 2 + . . . + n = n(n + 1) 2
3. Similmente si vede che una base per il sottospazio delle matrici antisimmetriche di ordine n `e data dall’insieme {Eij− Eji}i<j che ha cardinalit`a 1 + 2 + . . . + (n − 1) = (n−1)n2 .
4. Se I ⊆ R `e un intervallo, allora F (I, R) e tutti gli spazi vettoriali Ck(I) hanno dimensione infinita perch´e tutti contengono P(R che ha dimensione infinita.
5 Formula di Grassmann
Teorema. Sia V uno spazio vettoriale di dimensione finita e siano U e W sottospazi di V . Allora dim(U + W ) + dim(U ∩ W ) = dim U + dim W
dim. Poniamo p = dim(U ∩ W ) e sia U ∩ W = hv1, . . . , vpi. Completiamo la base di U ∩ W ad una base di U e ad una base di W , U = hv1, . . . , vp, up+1, . . . , uri, r = dim U , W = hv1, . . . , vp, wp+1, . . . , wsi, s = dim W . Se u ∈ U , u = P
jajvj+P
hbhuh. Se w ∈ W , w = P
jcjvj+P
kdkwk. Segue che u + w =X
j
ajvj+X
h
bhuh+X
j
cjvj+X
k
dkwk =X
j
(aj+ cj)vj+X
h
bhuh+X
k
dkwk
e quindi {v1, . . . , vp, , up+1, . . . , ur, wp+1, . . . , ws} `e un insieme di generatori di U + W . Facciamo vedere che questi r + s − p vettori sono linearmente indipendenti. Supponiamo che
(1) X
j
ajvj+X
h
bhuh+X
k
ckwk= 0
e facciamo vedere che tutti i coefficienti sono uguali a zero. Poniamo z =P
jajvj+P
hbhuh =
−P
kckwk. Segue che z `e un vettore in U ∩ W e quindi lo posso rappresentare come combinazione lineare dei vettori vj, z =P
jdjvj. Segue che z =P
jajvj+P
hbhuh=P
jdjvj e quindi X
j
(aj− dj)vj+X
h
bhuh= 0
Poich´e i vettori vj, uh sono linearmente indipendenti, `e aj = dj, per ogni j e bh = 0, per ogni h.
Da (1) segue allora cheP
jajvj+P
kckwk = 0 e quindi, per l’indipendenza lineare dei vettori vj, wk, aj = 0, per ogni j e ck= 0, per ogni k.
Dunque dim(U + W ) = r + s − p = dim U + dim W − dim(U ∩ W ).
6 Somma diretta generalizzata
Abbiamo definito la somma diretta di due sottospazi. Generalizziamo ora questa nozione ad un numero finito qualunque di sottospazi. Diremo che lo spazio vettoriale V `e somma diretta dei sottospazi W1, W2, ...., Wr e scriveremo
V = W1⊕ W2⊕ . . . ⊕ Wr
se ogni vettore v in V si pu`o scrivere in uno ed un solo modo come v = w1+ w2+ . . . + wr con w1 in W1, w2 in W2, ...,wr in Wr.
Teorema. Se V = W1⊕ W2⊕ . . . ⊕ Wr ed Sk `e un insieme linearmente indipendente di Wk, per ogni k = 1, 2, . . . , r, allora
(1) l’unione S = S1∪ S2∪ · · · ∪ Sr`e linearmente indipendente,
(2) se ogni Sk `e una base di Wk, allora S = S1∪ S2∪ · · · ∪ Sr `e una base di V , (3) dim V = dim W1+ dim W2+ . . . + dim Wr.
dim. (1) Supponiamo Sk = {wk1, . . . , wkrk} linearmente indipendente e mostriamo che S = S
kSk `e linearmente indipendente. Da X
k,jk
akjkwkjk = X
k
X
jk
akjkwkjk = 0 =X
k
0
segue che P
jkakjkwkjk = 0, per ogni k = 1, . . . , r, e quindi, poich´e ciascun Sk `e linearmente indipendente, akjk= 0 per ogni k ed ogni jk. Segue che S `e linearmente indipendente.
(2) Se ciascun Sk `e una base di Wk, allora S `e linearmente indipendente e inoltre S genera V = W1+ . . . Wr. Segue che S `e una base di V .
(3) `E conseguenza diretta di (2).
Teorema. Nelle notazioni del Teorema precedente, se V = W1 + W2 + . . . + Wr e dim V = dim W1+ dim W2+ . . . + dim Wr, allora V = W1⊕ W2⊕ . . . ⊕ Wr.
dim. Se Sk`e base di Wk, allora S genera V = W1+. . .+Wr. Segue che dim V = dim(W1+. . .+
Wr) ≤ dim W1+ . . . + dim Wr= dim V . Segue che S `e base di V e quindi V = W1⊕ . . . ⊕ Wr. Terminologia
Combinazione lineare di vettori. Combinazione lineare triviale e non triviale. Insieme di generatori.
Insiemi linearmente indipendenti e dipendenti. Dipendenza lineare. Vettori proporzionali. Wron- skiano e criterio wronskiano. Insieme di generatori minimale. Insieme linearmente indipendente massimale. Base per uno spazio vettoriale. Spazio vettoriale di dimensione finita. Spazio vettoriale finitamente generato. Spazio vettoriale di dimensione infinita. Vettori essenziali ed inessenziali.
Vettori standard. Matrici standard. Monomi standard. Basi standard. Ordine lessicografico.
Dimensione. Cardinalit`a. Sottospazio complementare. Formula di Grassmann. Somma diretta generalizzata.
Saper fare
• Riconoscere se un dato insieme di vettori
`
e un insieme di generatori.
• Rionoscere se un dato insieme di vet- tori `e linearmente indipendente o linear- mente dipendente.
• Saper trovare una combinazione lineare nulla per un insieme linearmente dipen- dente.
• Riconoscere se due vettori sono o non sono proporzionali.
• Saper estrarre da una sequenza di vettori un insieme linearmente indipendente.
• Usare il criterio wronskiano per ri- conoscere l’indipendenza lineare di fun- zioni.
• Riconoscere se un sottoinsieme di un dato spazio vettoriale `e una base.
• Saper costruire una base per un dato spazio vettoriale.
• Saper completare una base di un sot- tospazio ad una base dello spazio.
• Conoscere le basi standard degli spazi fondamentali: n-uple, matrici e poli- nomi.
• Saper calcolare la dimensione di uno spazio vettoriale.
• Conoscere la relazione tra le dimensioni di intersezione e somma di due sot- tospazi.
Vero o Falso?
• Uno spazio vettoriale possiede un unico minimo insieme di generatori.
• L’insieme delle colonne di una matrice 3 × 5 `e linearmente dipendente.
• L’insieme delle colonne di una matrice 5 × 3 `e linearente indipendente.
• Se un vettore di un insieme di vettori S
`
e combinazione lineare degli altri vettori di S, allora S `e linearmente dipendente.
• Se un insieme di vettori contiene un in- sieme linearmente dipendente, allora S
`
e linearmente dipendente.
• Tre vettori non nulli sono linearmente dipendenti se e solo se i vettori sono a due a due proporzionali.
• Se il wronskiano di un insieme di fun- zioni `e identicamente nullo, allora le fun- zioni sono linearmente dipendenti.
• Un insieme di generatori di uno spazio vettoriale `e una base di V .
• Uno spazio vettoriale reale ha infinite basi distinte.
• Ogni insieme di cardinalit`a m di uno spazio vettoriale V di dimensione n con m > n `e un insieme di generatori di V .
• Tre polinomi distinti in P3(R) devono es- sere linearmente indipendenti.
• Sei polinomi in P4(R) devono essere lin- earmente dipendenti.
• Se V `e uno spazio vettoriale n- dimensionale, allora ogni insieme di car- dinalit`a m < n di vettori in V si pu`o completare ad una base di V .
• Se V `e uno spazio vettoriale di dimen- sione n, allora V ha uno ed un dolo sot- tospazio di dimensione 0 ed uno ed un solo sottospazio di dimensione n.
• Se {v1, v2, . . . , vn} `e linearmente in- dipendente ed A `e una matrice invert- ibile, allora {Av1, Av2, . . . , Avn} `e lin- earmente indipendente.
• Se {v1, v2, . . . , vn} `e un insieme lin- earmente indipendente di V e v ∈/ hv1, v2, . . . , vni, allora hv + v1, v + v2, . . . , v + vni `e linearmente indipen- dente.
• Se S = {p1(x), p2(x), . . . , pk(x)} ⊂ sf P
`
e un insieme di polinomi con gradi tutti diversi uno dall’altro, allora S `e linear- mente indipendente.
• Ogni insieme di generatori di uno spazio vettoriale V di dimensione finita con- tiene una base di V .
• Se due sottospazi U e W di uno spazio vettoriale di dimensione finita hanno la stessa dimensione, allora U = W .
• Ogni sottospazio di Rn ha una base for- mata da vettori standard.
• Sia S un insieme di cardinalit`a k in Rn. Discutere quale degli asserti seguenti `e vero o falso nei casi k < n, k = n, k > n.
(1) S `e linearmente dipendente. (2) S `e linearmente indipendente. (3) S `e una base.
• Se v non `e combinazione lineare di S ⊂ V , allora v ∪ S `e linearmente indipen- dente.
• Se S = {v1, v2, . . . , vr} e S \ {vi} `e linearmente indipendente per ogni i = 1, . . . , r, allora S `e linearmente indipen- dente.
• Un sottoinsieme infinito di uno spazio vettoriale non pu`o essere linearmente in- dipendente.
• Se uno spazio vettoriale contiene un in- sieme finito linearmente dipendente, al- lora lo spazio vettoriale ha dimensione finita.
• L’insieme delle matrici 2 × 2 in cui esat- tamente due elementi sono uguali a 0 e i rimanenti due sono uguali ad 1 `e linear- mente indipendente.
• Se A una matrice n × n, n ≥ 2 tale che A3= 0 ma A26= 0, allora l’insieme {1, A, A2} `e linearmente indipendente.
Esercizi
Esercizio Determinare quale degli insiemi seguenti `e linearmente indipendente. Per gli insiemi linearmente dipendenti, scrivere uno dei vettori come combinazione lineare degli altri vettori.
1. {(−2, 4, −6), (3, −6, 9)} 2. {(1, 2, 3), (2, 1, 0), (5, 1, 9)} 3. {(1, −1, 2), (2, 1, 0)}
4. {(1, 2, 3), (0, 4, 5), (0, 0, 6), (1, 1, 1)} 5. {(1, −1, 2, 3), (2, −1, 1, −1), (−1, 1, 1, 1)}
6. {(2, −1, 0, 1), (1, 0, −1, 2), (0, 3, 1, 2)}
Esercizio Determinare tutti i valori dello scalare k per i quali l’insieme {(1, 1, k), (0, 2, k), (1, k, 6)}
`e linearmente dipendente.
Esercizio Determinare tutti i valori dello scalare k per i quali l’insieme
{(1, 0, 1, k), (−1, 0, k, 1), (2, 0, 1, 3)} `e linearmente indipendente.
Esercizio Determinare se il dato insieme di vettori in M2(R) `e linearmente indipendente.
1. A =2 −1
3 4
, B =−1 2
1 3
, 2. A =1 1 0 1
, B =2 −1
0 1
, C =3 6 0 4
. Esercizio Determinare un insieme linearmente indipendente di vettori che genera lo stesso sot- tospazio di V generato dal dato insieme di vettori.
1. V = R3, {(1, 1, 1), (1, −1, 1), (1, −3, 1), (3, 1, 2)}.
2. V = R4, {(1, 1, −1, 1), (2, −1, 3, 1), (1, −3, 1), (1, 1, 2, 1), (2, −1, 2, 1)}.
3. V = M2(R),
1 2 3 4
,−1 2
5 7
,3 2
1 1
. 4. V = P2(R), {2 + x2, 4 − 2x + 3x2, 1 + x}.
Esercizio Usare il criterio wronskiano per verificare se i seguenti insiemi di funzioni in C∞(I) sono linearmente indipendenti.
1. {sin x, cos x, tan x}, I =] −π2,π2[, 2. {1, 3x, x2− 1}, I = R, 3. {e2x, e3x, e−x}, I = R.
Esercizio Calcolare il wronskiano delle funzioni f1(x) = eax, f2(x) = ebx, f3(x) = ecxe determinare le condizioni su a, b, c affinch´e {f1, f2, f3} sia linearmente indipendente.
Esercizio Calcolare il wronskiano dell’insieme {1, x, x2, . . . , xn} ⊂ P(R).
Esercizio Sia c ∈ R e sia W = {p(x) ∈ Pn(R) | p(c) = 0}. Verificare che W `e un sottospazio di Pn(R) e calcolarne la dimensione.
Esercizio Determinare se i dati insiemi di vettori formano una base di Rn, n = 3, 4.
1. {(1, 2, 1), (3, −1, 2), (1, 1, −1)}, 2. {1, 1, 0, 2), (2, 1, 3, −1), (−1, 1, 1, −2), (2, −1, 1, 2)}.
Esercizio Determinare tutti i valori della costante k per i quali l’insieme
{(0, −1, 0, k), (1, 0, 1, 0), (0, 1, 1, 0), (k, 0, 2, 1)} `e una base per R4.
Esercizio Sapendo che i vettori v1 = (2, −3, 1), v2 = (1, 4, −2), v3 = (−8, 12, −4), v4 = (1, 37, −17), v5= (−3, −5, 8) generano R3, estrarre da {v1, v2, v3, v4, v5} una base per R3. Esercizio Sia W il sottospazio di R3formato dai vettori che soddisfano l’equazione x − 2y + z = 0.
Determinare una base per W e calcolare dim W .
Esercizio Sia W = {u, u − −2v, 3v − 5u) | u, v ∈ R}. Far vedere che W `e un sottospazio di R3, trovarne una base e calcolarne la dimensione.
Esercizio Sia W l’insieme delle matrici triangolari superiori n × n. Far vedere che W `e un sost- tospazio di Mn, trovarne una base e calcolarne la dimensione.
Esercizio Consideriamo le matrici A1=−1 1
0 1
, A2= 1 3
−1 0
, A3=1 0 1 2
, A4=0 −1
2 3
.
Far vedere che {A1, A2, A3, A4} `e una base di M2(R) ed esprimere la matrice5 6 7 8
come com- binazione lineare della base.
Esercizio Sia A =
1 1 −1 1
2 −3 5 −6
5 0 2 −3
, v1=
−2 7 5 0
,v2=
−2 7 5 0
. Far vedere che β = {v1, v2}
`e una base per N(A), lo spazio nullo di A. Utilizzando la base β, esprimere un vettore arbitrario di N(A).
Esercizio Sia
A =
1 2 2 0 5
2 4 3 1 8
3 6 1 5 5
, v =
−8 1 3 3 0
.
Verificare che v ∈ N(A) e completare {v} ad una base di N(A).
Esercizio Determinare se l’insieme T = {(2, 3, 2), (1, 1, −1)} `e o non `e una base per lo spazio generato dall’insieme S = {(1, 2, 3), (5, 8, 7), (3, 4, 1)}.
Esercizio Sia {v1, v2, v3, v4} un insieme linearmente indipendente in V . Calcolare la dimensione dei seguenti sottospazi.
1. hv1+ v2, v2+ v3, v3+ v4, v4+ v1i, 2. hv1− v2, v2− v3, v3− v1i.
Esercizio Sia V = M2(R) e U =a b
c a
∈ V
a, b, c ∈ R
, W = 0 d
−d e
∈ V
d, e ∈ R
.
Verificare che U e W sono sottospazi di V e calcolare dim U , dim W , dim(U + W ) e dim(U ∩ W ).