• Non ci sono risultati.

Dipendenza e indipendenza lineare

e un sottospazio vettoriale W di V . Certamente contiene il vettore nullo. La somma di due combinazioni lineari `e una combinazione lineare: (λ1v1+ · · · + λnvn) + (µ1v1+ · · · + µnvn) = usiamo la propriet`a associativa e commutativa della somma e la 1. degli spazi vettoria-li = (λ1+ µ1)v1+ · · · + (λn+ µn)vn, e dunque `e anche questa una combinazione lineare di v1, . . . .vn. Infine un multiplo di una combinazione lineare `e una combinazione lineare:

α(λ1v1 + · · · + λnvn) = (αλ1)v1 + · · · + (αλn)vn. Anche qui abbiamo usato gli assiomi di spazio vettoriale. Osserviamo che W contiene S, perch`e ogni elemento vi `e combinazione lineare di v1, . . . , vn. Infine, se U `e un sottospazio che contiene v1, . . . , vn, contiene anche ogni loro combinazione lineare, quindi contiene W . Perci`o W `e il pi`u piccolo sottospazio che contiene v1, . . . , vn.

Esempio 2.5.4. Il sottospazio generato da un vettore v `e hvi = {λv | λ ∈ K}, l’insieme dei multipli di v. Il sottospazio generato dal vettore nullo `e il sottospazio nullo {0}.

Con dimostrazione simile alla precedente, si ottiene che, se S `e un insieme infinito, il sottospazio generato da S, denotato < S >, `e l’insieme delle combinazioni lineari finite di elementi di S. In altre parole si considerano tutte le possibili combinazioni lineari di un numero finito di vettori appartenenti a S.

Il prossimo esempio `e fondamentale.

Esempio 2.5.5. Sia V = Kn, il K−spazio vettoriale i cui elementi sono le n-uple ordinate di elementi di K. Poniamo

e1= (1, 0, . . . , 0), e2= (0, 1, 0, . . . , 0), . . . , en= (0, 0, . . . , 0, 1).

Calcoliamo una generica combinazione lineare di e1, . . . , en: λ1e1+· · ·+λnen= λ1(1, 0, . . . , 0)+

λ2(0, 1, 0 . . .) + · · · + λn(0, 0, . . . , 0, 1) = (λ1, . . . , λn). Di conseguenza Kn =< e1, . . . , en >, perch`e ogni vettore di Knsi pu`o esprimere come una loro combinazione lineare. Si dice che e1, . . . , en generano Kn o sono un sistema di generatori di Kn.

Esempio 2.5.6. Sia V = K[t]. Consideriamo l’insieme infinito S = {1, t, t2, . . . , tn, . . .}.

Le combinazioni lineari finite di elementi di S sono tutti e soli i polinomi, quindi K[t] =< S >.

Le potenze di t sono un sistema di generatori di K[t].

2.6 Dipendenza e indipendenza lineare

Siano v1, . . . , vn ∈ V . Sono detti linearmente indipendenti se ogni loro combinazione lineare nulla `e banale. In altre parole: da λ1v1+ . . . + λnvn= 0 segue che λ1 = λ2= · · · = λn= 0. Una combinazione lineare nulla deve avere tutti i coefficienti nulli.

Altrimenti i vettori v1, . . . , vn sono detti linearmente dipendenti: esistono λ1, . . . , λn ∈ K, non tutti nulli tali che λ1v1+ . . . + λnvn= 0.

Osserviamo che un singolo vettore v `e linearmente dipendente se esiste λ 6= 0 tale che λv = 0. Per la Proposizione 2.2.2 (iii) questo si pu`o verificare solo se v = 0.

Proposizione 2.6.1. Siano v1, . . . , vn vettori di V : v1, . . . , vnsono linearmente dipendenti se e solo se almeno uno di essi `e combinazione lineare dei rimanenti.

Dimostrazione. Supponiamo che v1, . . . , vn siano linearmente dipendenti e che λ1v1+ · · · + λnvn = 0 sia una loro combinazione lineare nulla non banale. Allora esiste almeno un coefficiente λi 6= 0. Quindi esiste il suo inverso in K: λ−1i . Possiamo scrivere λivi =

−λ1v1 − · · · − λi−1vi−1− λi+1vi+1− · · · − λnvn. Moltiplichiamo ora a sinistra per λ−1i e otteniamo: λ−1iivi) = vi = −λ1λ−1i v1− · · · − λi−1λ−1i vi−1− λi+1λ−1i vi+1− · · · − λnλ−1i vn. Viceversa se v1 = α2v2+· · ·+αnvn, possiamo scrivere 1·v1−α2v2−· · ·−αnvn= 0: siccome il coefficiente di v1 `e uguale a 1, `e diverso da 0, abbiamo cos`ı ottenuto una combinazione lineare nulla ma non banale di v1, . . . , vn. Analogo ragionamento se al posto di v1 abbiamo un qualunque altro vettore vi.

Corollario 2.6.2. Due vettori v1, v2 sono linearmente dipendenti se e solo se uno `e com-binazione lineare, cio`e multiplo, dell’altro. In tal caso i due vettori si dicono proporzionali.

Osservazione 3.

1. Dato un vettore v, i vettori {v, 2v}, o {v, −v}, o {v, λv} qualunque sia λ, sono linearmente dipendenti.

2. Se sono dati vettori v1, . . . , vn, con vi = 0 per qualche indice i, allora v1, . . . , vn sono linearmente dipendenti. Infatti si ha la combinazione lineare nulla non banale 0v1+ · · · + 0vi−1+ 1vi+ 0vi+1+ · · · + 0vn= 0.

3. Supponiamo che v1, . . . , vm siano linearmente dipendenti. Se aggiungo altri vettori qualunque vm+1, . . . , vn, ottengo vettori v1, . . . , vnancora linearmente dipendenti. In-fatti basta aggiungere a una combinazione lineare nulla non banale di v1, . . . , vm la combinazione lineare di vm+1, . . . , vn con coefficienti tutti 0.

Esempio 2.6.3. Consideriamo in R3i tre vettori v1 = (1, 2, 3), v2= (1, −1, 0), v3= (0, 1, 4).

Sono linearmente dipendenti o indipendenti? Consideriamo una loro combinazione lineare nulla x1v1+ x2v2+ x3v3 = 0 e analizziamo se pu`o essere ottenuta con coefficienti non tutti nulli o meno.

x1(1, 2, 3) + x2(1, −1, 0) + x3(0, 1, 4) = (x1+ x2, 2x1− x2+ x3, 3x1+ 4x3) = (0, 0, 0) se e solo se (x1, x2, x3)) `e una soluzione del sistema di equazioni

x1+ x2 = 0 2x1− x2+ x3 = 0 3x1 + 4x3 = 0.

Si tratta di un sistema lineare omogeneo di 3 equazioni nelle 3 incognite x1, x2, x3. In questo caso per risolverlo si pu`o procedere esprimendo x2 = −x1 (dalla prima equazione), e x3 = −3/4x1 (dalla terza equazione), e poi sostituire nella seconda. Si ottiene 9/4x1 = 0 e quindi x1 = x2= x3 = 0. Si conclude che i tre vettori sono linearmente indipendenti.

Se sono dati 6 vettori in R13, per capire se sono linearmente indipendenti si scrive un sistema lineare omogeneo di 13 equazioni in 6 incognite. Un capitolo successivo sar`a interamente dedicato alla teoria dei sistemi lineari di equazioni.

Proposizione 2.6.4. Se v1, . . . , vnsono vettori linearmente indipendenti, ogni vettore v ∈<

v1, . . . , vn> si esprime in maniera unica come loro combinazione lineare.

Dimostrazione. La relazione v = λ1v1+ . . . + λnvn = µ1v1 + . . . + µnvn, si pu`o riscrivere λ1v1+ . . . + λnvn− µ1v1− . . . − µnvn = 0, o anche (λ1− µ1)v1+ . . . + (λn− µn)vn = 0:

questa `e una combinazione lineare nulla di v1, . . . , vn, che sono linearmente indipendenti, perci`o si ha λ1− µ1 = · · · = λn− µn= 0.

L’affermazione della proposizione precedente si pu`o anche rovesciare, ossia se ogni vetto-re di < v1, . . . , vn> ha un’unica espressione come combinazione lineare di v1, . . . , vn, questi sono linearmente indipendenti. Infatti se λ1v1 + · · · + λnvn = 0 = 0v1 + · · · + 0vn, per l’unicit`a si deve avere λ1 = · · · = λn= 0.

Concludiamo questo capitolo estendendo la definizione di lineare indipendenza a famiglie qualunque, non necessariamente finite, di vettori.

Definizione 2.6.5. Una famiglia di vettori {vi}i ∈ I `e linearmente indipendente, o libera, se lo `e ogni sua sottofamiglia finita. Ci`o significa che non esiste una combinazione lineare nulla non banale di alcuna sottofamiglia finita di vettori presi fra i vi.

Per esempio, in K[t] le potenze di t cosituiscono una famiglia libera, per definizione di polinomio.

Esercizi 3.

1. Dimostrare l’affermazione che l’unione di due rette distinte per l’origine in R2 non `e un sottospazio vettoriale, in quanto non `e chiusa rispetto alla somma.

2. Dimostrare che, se W, W0 sono sottospazi vettoriali di V e W ∪ W0 `e anche sottospazio vettoriale, allora o W ⊂ W0 o W0⊂ W .

Capitolo 3

Basi

3.1 Sistemi di generatori e basi

Sia V un K-spazio vettoriale fissato.

Definizione 3.1.1 (Sistema di generatori). Una famiglia S = {vi}i∈I di elementi di V `e un sistema di generatori di V se V =< S >, cio`e se ogni elemento di V pu`o essere espresso come combinazione lineare di un numero finito di elementi vi.

Definizione 3.1.2 (Spazio vettoriale finitamente generato). V `e detto finitamente gene-rato se ammette un sistema finito di genegene-ratori v1, . . . , vn.

Definizione 3.1.3 (Base). Una famiglia {vi}i∈I di elementi di V `e una base di V se `e un sistema di generatori linearmente indipendenti.

Teorema 3.1.4. Se B = (v1, . . . , vn) `e una base finita di V , ogni vettore v ∈ V si esprime come combinazione lineare di v1, . . . , vn in maniera unica.

Dimostrazione. Segue dalla Proposizione 2.6.4.

I coefficienti x1, . . . , xn dell’unica combinazione lineare v = x1v1+ · · · + xnvnsono detti coordinate di v rispetto alla base B.

Esempio 3.1.5.

1. Nello spazio euclideo R3 in cui `e fissato un sistema di riferimento cartesiano i tre versori comunemente indicati ~i,~j, ~k formano una base.

2. In Kn consideriamo gli n vettori e1, . . . , en introdotti nell’Esempio 2.5.5. Abbiamo verificato che ogni vettore di Kn `e una loro combinazione lineare: (x1, . . . , xn) = x1e1+

· · · + xnen. D’altra parte sono linearmente indipendenti perch`e se x1e1+ · · · + xnen = 0 = (0, . . . , 0), si deve chiaramente avere x1 = 0, . . . , xn= 0. Dunque (e1, . . . , en) formano una base C, detta base canonica o base standard di Kn. Si parla di base canonica soltanto in Kn, non in altri spazi vettoriali. Le coordinate del vettore (x1, . . . , xn) rispetto alla base canonica sono proprio x1, . . . , xn.

3. In M (m×n, K), spazio vettoriale delle matrici m×n a coefficienti in K, consideriamo le mn matrici Eij con i = 1, . . . , m, j = 1, . . . , n, cos`ı definite: Eij ha tutti gli elementi nulli,

tranne quello di indici ij che `e uguale a 1. Si ha che una matrice A = (aij)i=1,...,m, j=1,...,nsi pu`o scrivere A = a11E11+ a12E12+ · · · + amnEmn, e tale combinazione lineare `e unica. Dunque le matrici Eij formano una base di M (m × n, K). Le coordinate di A rispetto a questa base sono proprio gli elementi di A.

4. Gli elementi 1, i formano una base di C come R-spazio vettoriale.

5. Le potenze di t (1, t, t2, . . . , tn, . . .) formano una base infinita di K[t].

6. In R2 i vettori v1 = (2, 1) e v2 = (3, 4) formano una base. Infatti verifichiamo intanto che generano R2: consideriamo un qualunque vettore a = (a1, a2) ∈ R2, e cerchiamo se esistono x1, x2 tali che a = x1v1+ x2v2 = x1(2, 1) + x2(3, 4) = (2x1+ 3x2, x1+ 4x2). Deve valere:

 2x1+ 3x2 = a1

x1+ 4x2 = a2. (3.1)

Anche questo sistema lineare di due equazioni nelle due incognite x1, x2 si pu`o risolvere facilmente per sostituzione, e si trova che ha una e una sola soluzione per ogni scelta di a, e precisamente:

 x1 = 45a135a2

x2 = −15a1+25a2. (3.2)

Quindi R2 =< v1, v2>. Inoltre v1, v2 sono linearmente indipendenti: se una loro combina-zione lineare `e nulla, i coefficienti x1, x2 devono soddisfare il sistema (3.1) con (a1, a2) = (0, 0). Quindi l’unica soluzione si ottiene dalle (3.2) sostituendo a1 = 0, a2 = 0, ed `e la soluzione nulla.

Documenti correlati