• Non ci sono risultati.

Algebra Lineare e Geometria

N/A
N/A
Protected

Academic year: 2021

Condividi "Algebra Lineare e Geometria"

Copied!
103
0
0

Testo completo

(1)

Algebra Lineare e Geometria

Francesco Pavese

F. Pavese: Dipartimento di Meccanica Matematica e Management, Politecnico di Bari, Via Orabona 4, I-70125 Bari, Italy

e-mail: francesco.pavese@poliba.it

(2)

Indice

1 Nozioni preliminari 4

1.1 Strutture algebriche . . . 5

1.1.1 Gruppi . . . 5

1.1.2 Campi . . . 5

1.2 Matrici . . . 6

1.2.1 Somma tra matrici . . . 7

1.2.2 Prodotto righe per colonne . . . 8

2 Spazi vettoriali su un campo 10 2.1 Sottospazi vettoriali . . . 11

2.1.1 Sottospazi somma e intersezione . . . 13

2.2 Lineare dipendenza e lineare indipendenza . . . 13

2.3 Basi e dimensione di uno spazio vettoriale . . . 17

3 Spazi vettoriali euclidei 25 3.1 Prodotti scalari . . . 25

3.2 Basi ortonormali . . . 30

4 Matrici 34 4.1 Determinante di una matrice quadrata . . . 34

4.2 Matrici invertibili . . . 38

4.3 Rango di una matrice . . . 41

4.3.1 Metodo di Gauss . . . 42

4.3.2 Metodo degli orlati . . . 45

5 Sistemi di equazioni lineari 49 5.1 Metodo di eliminazione di Gauss–Jordan . . . 52

5.2 Sistemi lineari omogenei e sottospazi vettoriali di Rn . . . 55

6 Spazi affini 57 6.1 Sottospazi affini . . . 58

6.1.1 Rappresentazione parametrica di un sottospazio affine . . . 60

6.1.2 Rappresentazione cartesiana di un sottospazio affine . . . 61

7 Spazi euclidei reali 64 7.1 Il piano euclideo reale E2 . . . 65

7.1.1 Posizione reciproca di due rette in E2 . . . 67

7.2 Lo spazio euclideo reale E3 . . . 69

7.2.1 Posizione reciproca di due piani di E3 . . . 72

7.2.2 Posizione reciproca di un piano ed una retta in E3 . . . 73

7.2.3 Posizione reciproca di due rette in E3 . . . 74

(3)

7.2.4 Angoli e distanze . . . 75 7.3 Prodotto vettoriale . . . 77 7.4 Prodotto misto . . . 78

8 Applicazioni lineari 83

8.1 Nucleo e Immagine . . . 85 8.2 Matrice associata ad un’applicazione lineare rispetto ad una coppia di basi 87 8.3 Applicazioni lineari e matrici . . . 89 8.4 Cambiamento di base . . . 91 8.5 Matrici associate ad un endomorfismo . . . 92 9 Diagonalizzabilit`a di un endomorfismo e di una matrice quadrata 95 9.1 Polinomio caratteristico . . . 97 9.2 Molteplicit`a algebrica e geometrica . . . 98

(4)

1 Nozioni preliminari

Siano X, Y due insiemi non vuoti. L’insieme

X × Y = {(x, y) | x ∈ X, y ∈ Y }

si definisce prodotto cartesiano di X e Y . Pi`u in generale, se X1, X2, . . . , Xnsono n insiemi non vuoti, allora l’insieme

X1× X2× . . . × Xn = {(x1, x2, . . . , xn) | xi ∈ Xi, 1 ≤ i ≤ n}

si definisce prodotto cartesiano di X1, X2, . . . , Xn. Il simbolo Xn indica il prodotto carte- siano X × X × . . . × X.

Un’applicazione o funzione o mappa da X a Y `e una corrispondenza f : X −→ Y tale che ∀x ∈ X, ∃! y ∈ Y tale che f (x) = y. Gli insiemi X e Y si definiscono dominio e codominio di f , rispettivamente.

i) f si definisce iniettiva se ∀x1, x2 ∈ X tali che f (x1) = f (x2), allora x1 = x2. ii) f si definisce suriettiva se ∀y ∈ Y , ∃ x ∈ X tale che f (x) = y.

iii) f si definisce biettiva se `e sia iniettiva che suriettiva.

Si definisce immagine di f l’insieme

Im(f ) = {f (x) | x ∈ X} = {y ∈ Y | ∃ x ∈ X, f (x) = y}.

Se y ∈ Y , si definisce controimmagine di y l’insieme

f−1(y) = {x ∈ X | f (x) = y}.

Si ottiene facilmente il seguente risultato.

Proposizione 1.1. f `e iniettiva se e solo se ∀y ∈ Y , |f−1(y)| ≤ 1.

f `e suriettiva se e solo se Im(f ) = Y .

Si definisce funzione identit`a o applicazione identica di X la mappa idX : x ∈ X 7−→ x ∈ X.

Si noti che la funzione identit`a `e biettiva. Siano X, Y, Z insiemi non vuoti e siano f : X −→ Y e g : Y −→ Z due funzioni. Allora si definisce funzione composta e si denota con g ◦ f la funzione

g ◦ f : x ∈ X 7−→ g(f (x)) ∈ Z.

Una funzione f : X −→ Y si dice invertibile se esiste una funzione g : Y −→ X tale che f ◦ g = g ◦ f = idX.

Proposizione 1.2. Una funzione f `e invertibile se e solo se f `e biettiva.

Sia X un insieme non vuoto. Un’operazione interna su X `e un’applicazione : G × G −→ G, che associa ad ogni coppia (a, b) ∈ G × G l’elemento a b ∈ G.

(5)

1.1 Strutture algebriche

1.1.1 Gruppi

Sia G un insieme non vuoto dotato di un’operazione interna : G × G −→ G,

che associa ad ogni coppia (a, b) ∈ G × G un elemento a b ∈ G.

La coppia (G, ) si dice gruppo se valgono le seguenti propriet`a:

1) ∀a, b, c ∈ G, a (b c) = (a b) c (associativa);

2) ∃ un elemento u ∈ G tale che ∀a ∈ G, a u = u a = a (esistenza dell’elemento neutro);

3) ∀a ∈ G, ∃ a0 ∈ K tale che a a0 = u (esistenza dell’opposto o dell’inverso).

Quando l’operazione `e determinata, il gruppo (G, ) si denoter`a semplicemente con G.

Se inoltre soddisfa la seguente propriet`a:

∀a, b ∈ G, a b = b a (commutativa) il gruppo G si dice commutativo o abeliano.

Esempi 1.3. Si considerino l’insieme dei numeri naturali N, dei numeri interi Z, dei numeri razionali Q, dei numeri reali R e dei numeri complessi C dotati delle usuali ope- razioni di somma “+” e prodotto “·”. Allora (Z, +), (Q, +), (R, +), (C, +), (Q \ {0}, ·), (R\{0}, ·), (C\{0}, ·) forniscono esempi di gruppi abeliani. Mentre le coppie (N, +), (N, ·) e (Z \ {0}, ·) non sono gruppi.

1.1.2 Campi

Sia K un insieme non vuoto dotato di due operazioni interne + : K × K −→ K, · : K × K −→ K

dette somma e prodotto, rispettivamente, che associano ad ogni coppia (a, b) ∈ K × K un elemento a + b ∈ K, detto somma di a pi`u b ed un elemento a · b ∈ K, detto prodotto di a per b, rispettivamente. La terna (K, +, ·) si dice campo se valgono le seguenti propriet`a:

1) (K, +) `e un gruppo abeliano con elemento neutro 0;

2) (K \ {0}, ·) `e un gruppo abeliano con elemento neutro 1;

3) ∀a, b, c ∈ K, a · (b + c) = a · b + a · c (distributiva della somma rispetto al prodotto).

(6)

Anche in questo caso, quando non vi sia possibilit`a di equivoco sulle operazioni che sono definite, il campo (K, +, ·) si denoter`a semplicemente con la lettera K. Gli elementi di un campo K si dicono scalari.

Esempi 1.4. Con le usuali operazioni l’insieme dei numeri razionali Q, dei numeri reali R e dei numeri complessi C forniscono esempi di campi. D’altro canto l’insieme dei numeri naturali N e l’insieme dei numeri interi Z non sono campi.

Proposizione 1.5. Sia K un campo, allora ∀λ, µ ∈ K, λ · µ = 0 se e solo se λ = 0 oppure µ = 0.

Dimostrazione. Siano λ, µ ∈ K. Se µ = 0, λ · 0 = λ · (0 + 0) = λ · 0 + λ · 0. Pertanto 0 = λ · 0 − λ · 0 = (λ · 0 + λ · 0) − λ · 0 = λ · 0. Similmente se λ = 0.

Viceversa, se λ · µ = 0, con µ 6= 0, allora λ = λ · (µ · µ−1) = (λ · µ) · µ−1 = 0 · µ−1 = 0.

1.2 Matrici

Sia K un campo e siano n, m interi positivi. Una matrice m × n ad elementi in K `e una tabella rettangolare

A =

a11 a12 . . . a1n a21 a22 . . . a2n ... ... . .. ... am1 am2 . . . amn

di mn elementi di K. Scriveremo anche A = (aij). La i–esima riga di A `e la matrice 1 × n A(i) = (ai1. . . ain), 1 ≤ i ≤ m,

La j–esima colonna di A `e la matrice m × 1

A(j)=

 a1j a2j

... amj

, 1 ≤ j ≤ n.

Ogni elemento di una matrice `e contrassegnato da due indici: il primo `e l’indice riga, il secondo `e l’indice colonna. L’elemento aij `e anche detto elemento di A di posto i, j. Se m = n, la matrice A si dice quadrata di ordine n. L’insieme di tutte le matrici m × n ad elementi in K si denota con Mm,n(K), mentre l’insieme delle matrici quadrate di ordine n si denota con Mn(K).

Sia λ ∈ K, il prodotto dello scalare λ per la matrice A `e la matrice λA = (λaij) ∈ Mm,n(K).

Proposizione 1.6. i) ∀λ, µ ∈ K, ∀A ∈ Mm,n(K), (λ + µ)A = λA + µA;

ii) ∀λ, µ ∈ K, ∀A ∈ Mm,n(K), λ(µA) = (λµ)A;

(7)

iii) ∀A ∈ Mm,n(K), 1A = A.

Se A = (aij) ∈ Mn(K) `e una matrice quadrata, gli elementi a11, a22, . . . , ann costi- tuiscono la diagonale principale di A. Si definisce traccia della matrice A e si denota con T r(A) la somma degli elementi della diagonale principale della matrice A. Pertanto T r(A) =Pn

i=1aii. A si dice triangolare superiore se aij = 0 per ogni i > j, mentre si dice triangolare inferiore se aij = 0 per ogni i < j. Una matrice A = (aij) ∈ Mn(K) si dice diagonale se aij = 0 se i 6= j. Una particolare matrice diagonale `e la matrice identit`a In

In =

1 0 . . . 0 0 1 . . . 0 ... ... . .. ...

0 0 . . . 1

La trasposta di A `e la matrice n × m ottenuta scambiando tra loro le righe e le colonne di A:

At= (aji) =

a11 a21 . . . am1 a12 a22 . . . am2 ... ... . .. ... a1n a2n . . . amn

A si dice simmetrica se At = A, mentre si dice antisimmetrica se At = −A. Denoteremo con Symn(K) l’insieme delle matrici simmetriche di Mn(K), mentre denoteremo con ASymn(K) l’insieme delle matrici antisimmetriche di Mn(K).

Proposizione 1.7. i) ∀A ∈ Mm,n(K), (At)t = A;

ii) ∀λ ∈ K, ∀A ∈ Mm,n(K), (λA)t= λAt; 1.2.1 Somma tra matrici

La somma tra matrici `e l’operazione interna su Mm,n(K) che associa a due matrici A = (aij), B = (bij) ∈ Mm,n(K) la matrice A + B = C = (cij) ∈ Mm,n(K), dove cij = aij+ bij. Proposizione 1.8. (Mm,n(K), +) `e un gruppo abeliano. Infatti:

i) ∀A, B ∈ Mm,n(K), A + B = B + A;

ii) ∀A, B, C ∈ Mm,n(K), A + (B + C) = (A + B) + C;

iii) ∀A ∈ Mm,n, A + 0 = 0 + A = A;

iv) ∀A ∈ Mm,n(K), A − A = −A + A = 0;

Proposizione 1.9. ∀A, B ∈ Mm,n(K), At+ Bt= (A + B)t.

Dimostrazione. Se A = (aij) ∈ Mm,n(K) e B = (bij) ∈ Mm,n(K), allora l’elemento di posto p, s della matrice (A + B)t coincide con l’elemento di posto s, p della matrice A + B che pertanto risulta essere asp+ bsp. D’altro canto l’elemento di posto p, s della matrice At+ Bt `e asp+ bsp e pertanto (A + B)t= At+ Bt.

(8)

1.2.2 Prodotto righe per colonne

Dato un vettore riga A = (a1i) ∈ M1,n(K) ed un vettore colonna B = (bj1) ∈ Mn,1, il loro prodotto `e l’elemento di K definito come segue

(a11a12. . . a1n)

 b11 b21

... bn1

=

n

X

k=1

a1kbk1 = a11b11+ a12b21+ . . . + a1nbn1

Pi`u in generale, se A = (ail) ∈ Mm,n(K) e B = (bkj) ∈ Mn,p, il loro prodotto righe per colonne `e una matrice AB = (cij) ∈ Mm,p(K), dove cij `e il prodotto dell’i–esima riga di A per la j–esima colonna di B.

AB = (A(i)B(j)) = (cij), dove cij =

n

X

k=1

aikbkj = ai1b1j + ai2b2j + . . . + ainbnj Osservazione 1.10. Date due matrici A e B, `e possibile definire la matrice prodotto AB se il numero delle colonne di A coincide con il numero delle righe di B.

Osservazione 1.11. In generale AB 6= BA. Infatti, se A = 1 1

0 1



, B = 1 0 1 0



∈ M2(R), allora

AB =  2 0 1 0



6= 1 1 1 1



= BA

Proposizione 1.12. Se A, B ∈ Mm,n(K), C, D ∈ Mn,p(K), E ∈ Mp,s(K), k ∈ K, allora 1) (A + B)C = AC + BC,

2) A(C + D) = AC + AD, 3) A(kC) = k(AC) = (kA)C, 4) A(CE) = (AC)E,

5) AIn= A, InC = C.

Dimostrazione. 1) Sia A = (aij), B = (bij), C = (cij). L’elemento di posto i, k della matrice (A + B)C si ottiene moltiplicando la i–esima riga della matrice A + B per la k–esima colonna della matrice C. Pertanto

(A + B)(i)C(k) = (ai1+ bi1. . . ain+ bin)(c1k. . . cnk)t=

n

X

j=1

(aij+ bij)cjk =

=

n

X

j=1

aijcjk+

n

X

j=1

bijcjk = (ai1+ . . . ain)(c1k. . . cnk)t+ (bi1. . . bin)(c1k. . . cnk)t=

= A(i)C(k)+ B(i)C(k).

(9)

Si ha, dunque, che l’elemento di posto i, k della matrice (A + B)C coincide con la somma dell’elemento di posto i, k della matrice AC con l’elemento di posto i, k della matrice BC, come volevasi.

Le propriet`a 2) e 3) si dimostrano in maniera analoga alla 1).

4) Si noti che la i–esima riga di AC risulta

(AC)(i) = A(i)C(1) A(i)C(2). . . A(i)C(p) , mentre, se E = (eij), la h–esima colonna di CE `e

(CE)(h) = C(1)E(h) C(2)E(h). . . C(n)E(h)t

. Pertanto, l’elemento di posto i, h della matrice (AC)E `e

(AC)(i)E(h) = A(i)C(1) A(i)C(2). . . A(i)C(p) (e1he2h. . . eph)t=

= A(i)C(1)e1h+ A(i)C(2)e2h+ . . . + A(i)C(p)eph=

= (ai1c11+ · · · + aincn1)e1h+ (ai1c12+ . . . + aincn2)e2h+ . . . + (ai1c1p+ . . . + aincnp)eph=

= ai1(c11e1h+ . . . + c1peph) + ai2(c21e1h+ . . . + c2peph) + . . . + ain(cn1e1h+ . . . + cnpeph) =

= ai1C(1)E(h)+ ai2C(2)E(h)+ . . . + ainC(n)E(h) =

= (ai1 ai2. . . ain) C(1)E(h) C(2)E(h). . . C(n)E(h)t

= A(i)(CE)(h) e quindi coincide con l’elemento di posto i, h della matrice A(CE). Se ne deduce che A(CE) = (AC)E come volevasi.

5) L’elemento di posto i, j della matrice AIn `e

A(i)In(j) = (ai1 ai2. . . ain)(0 0 . . . 0 1 0 . . . 0)t = aij

e pertanto coincide con l’elemento di posto i, j della matrice A. Segue che AIn = A.

Analogamente si dimostra che InC = C.

Proposizione 1.13. Se A e B possono essere moltiplicate, allora At e Bt possono essere moltiplicate e (AB)t= BtAt.

Dimostrazione. Se A ∈ Mm,n(K) e B ∈ Mn,p(K), allora A ∈ Mn,m(K) e B ∈ Mp,n(K).

Pertanto `e possibile definire la matrice BtAt. Inoltre l’elemento di posto i, j della matrice BtAt`e

Bt(i)At(j) = A(j)B(i)

e dunque coincide con l’elemento di posto j, i della matrice AB. D’altro canto, si noti che l’elemento di posto j, i della matrice AB coincide con l’elemento di posto i, j della matrice (AB)t. Ne segue che (AB)t= BtAt.

(10)

2 Spazi vettoriali su un campo

Sia K un campo. Uno spazio vettoriale su K (o K–spazio vettoriale) `e un insieme non vuoto V dotato di due operazioni interne

(v, w) ∈ V × V 7−→ v + w ∈ V, (λ, v) ∈ K × V 7−→ λv ∈ V

dette somma e prodotto per uno scalare, rispettivamente, in modo che le seguenti propriet`a siano soddisfatte:

1) (V, +) `e un gruppo abeliano.

2) ∀v ∈ V , ∀λ, µ ∈ K, (λ + µ)v = λv + µv (distributivit`a rispetto alla somma di scalari)

3) ∀v, w ∈ V , ∀λ ∈ K, λ(v + w) = λv + λw (distributivit`a rispetto alla somma di vettori)

4) ∀v ∈ V , ∀λ, µ ∈ K, λ(µv) = (λµ)v 5) ∀v ∈ V , 1v = v.

Gli elementi di V si dicono vettori. Se k ∈ K, i vettori v e kv si dicono proporzionali o multipli.

Esempi 2.1. 1. Sia K un campo e sia n ≥ 1 un intero. Sia V = Kn = K × . . . × K = {(x1, x2, . . . , xn) ∈ Kn| xi ∈ K, 1 ≤ i ≤ n}. Se definiamo la somma di due elementi (x1, x2, . . . , xn), (y1, y2, . . . , yn) ∈ Kn come

(x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1+ y1, x2+ y2, . . . , xn+ yn) e il prodotto per uno scalare k ∈ K come

k(x1, x2, . . . , xn) = (kx1, kx2, . . . , kxn),

allora `e immediato verificare che, con queste operazioni, Kn`e un K–spazio vettoriale (detto anche n–spazio numerico su K).

2. Sia K un campo e sia D un insieme non vuoto. Sia V = {f : D −→ K | f applicazione}.

Se definiamo la somma di due funzioni f, g ∈ V e il prodotto per uno scalare λ ∈ K come segue:

f + g : x ∈ D 7−→ f (x) + g(x) ∈ K, λf : x ∈ D 7−→ λf (x) ∈ K,

allora `e immediato verificare che, con queste operazioni, V `e un K–spazio vettoriale.

(11)

3. L’insieme R[X] dei polinomi a coefficienti reali nell’indeterminata X `e un R–spazio vettoriale rispetto alle usuali operazioni di somma tra polinomi e prodotto di un polinomio per uno scalare.

4. Sia n ≥ 1 un intero. L’insieme dei polinomi di grado minore o uguale a n a coefficienti in K:

Kn[X] = {a0 + a1X + a2X2+ . . . + anXn| a0, a1, . . . , an ∈ K}

`e un K–spazio vettoriale rispetto alle usuali operazioni di somma tra polinomi e prodotto di un polinomio per uno scalare.

5. L’insieme Mm,n(K) delle matrici m × n ad elementi in K, dotato delle operazioni di somma e moltiplicazione per uno scalare, `e uno spazio vettoriale sul campo K. Il vettore nullo di Mm,n(K) `e la matrice nulla (che denoteremo con 0), ossia la matrice m × n i cui elementi sono tutti uguali a zero.

Esercizi 2.2. 1. Siano a, b ∈ R due numeri fissati e poniamo S = {(x, y) ∈ R2 | ax + by = 0} l’insieme delle soluzioni (x, y) ∈ R2 dell’equazione lineare omogenea ax + by = 0. Dimostrare che S `e un R–spazio vettoriale.

2. Siano a, b, c ∈ R numeri fissati, dove c 6= 0. Dimostrare che S = {(x, y) ∈ R2 | ax + by + c = 0} non `e uno spazio vettoriale.

Proposizione 2.3. Sia V un K–spazio vettoriale.

a) In V esiste un unico vettore nullo.

b) ∀v ∈ V , esiste un unico opposto.

c) ∀λ ∈ K, ∀v ∈ V , λv = 0 se e solo se λ = 0 oppure v = 0.

Dimostrazione. a) Siano 01, 02 ∈ V due vettori nulli. Allora ∀v ∈ V , 01+ v = 02+ v = v.

Pertanto 01+ 02 = 01 e 02+ 01 = 02. Quindi 01 = 01+ 02 = 02.

b) Sia v1 ∈ V tale che v + v1 = 0. Allora v1 = v1+ 0 = v1+ (v − v) = (v1+ v) − v = 0 − v = −v.

c) Se λ = 0, poich`e 0v = (0 + 0)v = 0v + 0v, si ha λv = 0v = 0v − 0v = 0.

Analogamente, se v = 0, poich`e λ0 = λ(0 + 0) = λ0 + λ0, si ha λv = λ0 = λ0 − λ0 = 0.

Viceversa, sia λv = 0, con v 6= 0. Se λ 6= 0, allora v = 0/λ = 0, contraddizione. Quindi λ = 0. Similimente, se λv = 0 e λ 6= 0, allora v = (λ−1λ)v = λ−1(λv) = λ−10 = 0.

2.1 Sottospazi vettoriali

Sia V un K–spazio vettoriale. Un sottoinsieme non vuoto W di V si dice sottospazio vettoriale di V se

1) ∀w1, w2 ∈ W , w1+ w2 ∈ W ,

(12)

2) ∀w ∈ W , ∀k ∈ K, kw ∈ W .

Le due condizioni precedenti sono equivalenti alla seguente:

3) ∀w, w0 ∈ W , ∀k, k0 ∈ K, kw + k0w0 ∈ W .

Infatti se vale la 3) allora, posto k = k0 = 1 vale la 1), mentre per k0 = 0 vale la 2).

Viceversa se valgono 1) e 2), allora kw, k0w0 ∈ W e kw + k0w0 ∈ W e quindi vale la 3).

Dalla propriet`a 2), considerati gli scalari 0 e −1, rispettivamente, si ha che ∀w ∈ W , 0 = 0w ∈ W e −w ∈ W . In particolare `e possibile verificare che W soddisfa tutti gli assiomi che definiscono uno spazio vettoriale e che quindi W `e esso stesso uno spazio vettoriale.

Osservazione 2.4. Si noti che se W `e un sottospazio vettoriale di V e U `e un sottospazio vettoriale di W , allora U `e sottospazio vettoriale di V , mentre se U e W sono sottospazi vettoriali di V e U ⊂ W , allora U `e sottospazio vettoriale di W .

Esempi 2.5. 1. V e {0} sono sottospazi vettoriali, detti banali.

2. Sia v ∈ V , l’insieme hvi = {kv | k ∈ K} costituito dai multipli di v `e un sottospazio vettoriale di V , detto sottospazio generato da v.

3. Siano a1, . . . , an ∈ K. L’insieme H = {(x1, . . . , xn) ∈ Kn| a1x1+ . . . anxn= 0} `e un sottospazio vettoriale di Kn. Infatti, ∀(x1, . . . , xn), (y1, . . . , yn) ∈ H, ∀k ∈ K, si ha a1(x1+ y1) + . . . + an(xn+ yn) = (a1x1+ . . . + anxn) + (a1y1+ . . . + anyn) = 0 + 0 = 0,

a1(kx1) + . . . + an(kxn) = k(a1x1+ . . . + anxn) = k0 = 0.

Pertanto (x1, . . . , xn) + (y1, . . . , yn) ∈ H e k(x1, . . . , xn) ∈ H, come volevasi.

Esercizi 2.6. 1. Stabilire se l’insieme S = {(x, y, z) ∈ R3 | x + z ≥ 0} `e un sottospazio di R3.

2. Dimostrare che ciascuno dei seguenti insiemi `e un sottospazio di R3:

U = {(x, y, 0) | x, y ∈ R}, W = {(x, 0, z) | x, z ∈ R}, W0 = {(x, x, x) | x ∈ R};

si determini, inoltre, U ∩ W e U ∩ W0.

3. Verificare che ciascuno dei seguenti insiemi `e un sottospazio vettoriale di Mn(K):

• l’insieme delle matrici diagonali di Mn(K);

• l’insieme delle matrici di Mn(K) aventi traccia nulla;

• Symn(K);

• ASymn(K).

(13)

2.1.1 Sottospazi somma e intersezione

Siano U e W sottospazi dello spazio vettoriale V . Si consideri l’intersezione U ∩ W = {v ∈ V | v ∈ U e v ∈ W }.

Si verifica facilmente che U ∩ W `e ancora un sottospazio di V . D’altro canto l’unione di due sottospazi U e W

U ∪ W = {v ∈ V | v ∈ U oppure v ∈ W }

non definisce un sottospazio di V . Infatti se V = R2, U = {(x, 0) ∈ V | x ∈ R} e W = {(0, y) ∈ V | y ∈ R}, allora il vettore (1, 0) ∈ U e il vettore (0, 1) ∈ W . Quindi (1, 0), (0, 1) ∈ U ∪ W , ma (1, 0) + (0, 1) = (1, 1) /∈ U ∪ W .

Consideriamo il seguente sottoinsieme di V :

U + W = {u + w ∈ V | u ∈ U, w ∈ W }.

U + W `e un sottospazio vettoriale di V . Infatti ∀u1, u2 ∈ U , ∀w1, w2 ∈ W , ∀k ∈ K, se (u1+w1), (u2+w2) ∈ U +W , allora (u1+w1)+(u2+w2) = (u1+u2)+(w1+w2) ∈ U +W e k(u1 + w1) = ku1 + kw1 ∈ U + W . U + W `e detto sottospazio somma di U e W . Se U ∩ W = {0}, allora U + W `e detto somma diretta e si denota con U ⊕ W .

Osservazione 2.7. Si noti che U ∩ W ⊂ U ∪ W ⊂ U + W . Infatti ∀u ∈ U , ∀w ∈ W , u = u + 0 ∈ U + W e w = 0 + w ∈ U + W , pertanto U ⊂ U + W e W ⊂ U + W . Proposizione 2.8. Ogni vettore di U ⊕ W si esprime in modo unico come somma di un vettore di U e di un vettore di W .

Dimostrazione. Siano u, u0 ∈ U , w, w0 ∈ W tali che u + w = u0 + w0. Allora u − u0 = w0− w ∈ U ∩ W = {0}, pertanto u − u0 = w0− w = 0 e u = u0, w = w0.

2.2 Lineare dipendenza e lineare indipendenza

Siano v1, . . . , vn ∈ V , a1, . . . , an ∈ K. Il vettore a1v1 + . . . + anvn si dice combinazione lineare dei vettori v1, . . . , vn. Gli scalari a1, . . . , ansi dicono coefficienti della combinazione lineare.

Se ai = 0, per ogni 1 ≤ i ≤ n, allora la combinazione lineare a1v1+ . . . + anvn = 0 si dice combinazione lineare banale di v1, . . . , vn. Altrimenti si dice non banale.

Osservazione 2.9. Se a ∈ K, a 6= 0, la combinazione lineare 0v + a0 = 0 `e non banale.

Le combinazioni lineari di un vettore v ∈ V sono i suoi multipli. Inoltre, dalla defi- nizione di sottospazio, se W `e sottospazio vettoriale di V e v1, . . . , vn ∈ W , allora ogni combinazione lineare di v1, . . . , vn`e un vettore appartenente a W .

(14)

Siano v1, . . . , vn ∈ V . Consideriamo il sottoinsieme di V costituito dalle combinazioni lineari di v1, . . . , vn:

hv1, . . . , vni = {a1v1+ . . . + anvn ∈ V | ai ∈ K, 1 ≤ i ≤ n}.

hv1, . . . , vni `e un sottospazio vettoriale di V . Infatti ∀a1v1+ . . . + anvn, b1v1+ . . . + bnvn∈ hv1, . . . , vni, ∀k ∈ K, allora

(a1v1+ . . . + anvn) + (b1v1+ . . . + bnvn) = (a1+ b1)v1+ . . . + (an+ bn)vn∈ hv1, . . . , vni e

k(a1v1+ . . . + anvn) = ka1v1+ . . . + kanvn ∈ hv1, . . . , vni.

hv1, . . . , vni `e detto sottospazio generato da v1, . . . , vn. Il prossimo risultato mostra che hv1, . . . , vni `e il pi`u piccolo sottospazio di V contenente i vettori v1, . . . , vn.

Proposizione 2.10. hv1, . . . , vni `e uguale all’intersezione di tutti i sottospazi di V che contengono v1, . . . , vn.

Dimostrazione. Denotiamo con W l’intersezione di tutti i sottospazi di V che conten- gono {v1, . . . , vn}. Poich`e hv1, . . . , vni `e un sottospazio di V contenente {v1, . . . , vn}, si ha W ⊆ hv1, . . . , vni. D’altro canto W , essendo un sottospazio, contiene tutte le combinazioni lineari dei suoi vettori. In particolare, poich`e v1, . . . , vn ∈ W , W con- tiene tutte le combinazioni lineari di v1, . . . , vn. Pertanto hv1, . . . , vni ⊆ W . Quindi hv1, . . . , vni = W .

Se V = hv1, . . . , vni, allora si dir`a che i vettori v1, . . . , vn generano V oppure che l’insieme {v1, . . . , vn} `e un sistema di generatori di V .

Osservazione 2.11. i) I vettori v1, . . . , vngenerano V se e solo se ∀v ∈ V , ∃ a1, . . . , an ∈ K tale che v = a1v1+ . . . + anvn.

ii) Se 1 ≤ m ≤ n, allora hv1, . . . , vmi `e sottospazio di hv1, . . . , vni.

Esercizi 2.12. 1. Stabilire se il vettore v = (2, 3, 1) di R3 appartiene allo spazio vettoriale generato dai vettori w1 = (1, 1, 2) e w2 = (5, 7, 4).

2. Siano U, W sottospazi di R3. Stabilire se la somma di U e W `e diretta e determinare un sistema di generatori per il sottospazio somma U + W .

• U = {(x, y, 0) | x, y ∈ R}, W = {(z, z, z) | z ∈ R},

• U = {(x + y, y, 0) | x, y ∈ R}, W = {(x + y, 0, y) | x, y ∈ R}.

I vettori v1, . . . , vn∈ V si definiscono linearmente dipendenti se ∃ a1, . . . , an ∈ K non tutti nulli tali che

a1v1 + . . . + anvn= 0.

(15)

Altrimenti, i vettori v1, . . . , vn si dicono linearmente indipendenti. Equivalentemente i vettori v1, . . . , vn sono linearmente indipendenti se vale la seguente propriet`a:

se ∀a1, . . . , an∈ K, tali che a1v1+ . . . + anvn= 0, allora a1 = . . . = an= 0.

In altri termini, i vettori v1, . . . vn sono linearmente indipendenti se la loro unica combi- nazione lineare che `e uguale al vettore nullo `e la combinazione lineare banale.

Esempi 2.13. 1. I vettori di R3: v = (1, 2, 1), w = (2, 0, −1) e u = (3, 2, 0) sono linearmente dipendenti, infatti si ha v + w − u = 0.

2. I vettori di R3: e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1) sono linearmente indipendenti.

Esercizi 2.14. 1. Siano v1 = (1, 0, 1, 1), v2 = (3, 2, 5, 1), v3 = (0, 4, 4, −4) vettori di R4. Dimostrare che v1, v2, v3 sono linearmente dipendenti.

Siano λ1, λ2, λ3 ∈ R tali che

λ1v1+ λ2v2+ λ3v3 = (λ1+ 3λ2, 2λ2+ 4λ3, λ1 + λ2 − 4λ3) = (0, 0, 0).

Allora

λ1+ 3λ2 = 0 2λ2+ 4λ3 = 0 λ1+ λ2− 4λ3 = 0

,

da cui si ottiene che λ1 = −3λ2, λ3 = −λ2/2. Pertanto esiste una combinazione non banale di v1, v2, v3 che `e uguale al vettore nullo, ad esempio:

−6v1+ 2v2− v3 = 0.

Quindi i vettori v1, v2, v3 sono linearmente dipendenti.

2. Siano v1 = (1, 0, 1), v2 = (2, 0, 1), w1 = (3, 0, 2), w2 = (1, 0, 0) vettori di R3. Si considerino i seguenti sottospazi vettoriali di R3:

V = hv1, v2i, W = hw1, w2i.

Dimostrare che V = W .

Si osservi che v1, v2 ∈ W e che w1, w2 ∈ V . Infatti v1 = 1

2w1− 1

2w2, v2 = 1

2w1+1 2w2, w1 = v1+ v2, w2 = v2− v1.

Si noti ora che ∀ v ∈ V , ∃ λ1, λ2 ∈ R tali che v = λ1v1+ λ2v2. Ma allora v ∈ W , poich`e v1, v2 ∈ W e quindi V ⊆ W . Analogamente ∀ w ∈ W , ∃ µ1, µ2 ∈ R tali che w = µ1w1+ µ2w2. Ma allora w ∈ V , poich`e w1, w2 ∈ V e quindi W ⊆ V . Pertanto V = W .

(16)

3. Si considerino i seguenti sottospazi vettoriali di R3:

U = h(1, 0, −1), (−1, 2, 1)i, W = {(x, y, z) ∈ R3 | x + z = y + 2z = 0}.

Determinare U ∩ W .

∀ u ∈ U, ∃ α, β ∈ R tali che u = α(1, 0, −1) + β(−1, 2, 1) = (α − β, 2β, −α + β). Il vettore u appartiene a W se e solo se

 α − β − α + β = 0 2β − 2(α − β) = 0

Pertanto α = 2β e U ∩ W = {(β, 2β, −β) | β ∈ R} = h(1, 2, −1)i.

4. Determinare due sottospazi vettoriali U, W di R4 tali che R4 = U + W senza che la somma sia diretta.

E possibile scegliere U = h(1, 0, 0, 0), (0, 1, 0, 0)i, W = h(0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)i.` In tal caso U + W = R4, ma la somma non `e diretta, poich`e U ∩ W = h(0, 1, 0, 0)i.

Esercizi 2.15. 1. Determinare se i seguenti vettori sono linearmente dipendenti o indipendenti.

• v1 = (1, 1, 1), v2 = (1, −1, 1), v3 = (2, 0, 2),

• v1 = (−1, 2, 3), v2 = (0, −1, 0), v3 = (1, 0, 1),

• v1 = (1, 2, 1, 0), v2 = (1, −1, 0, 1), v3 = (−1, 2, −1, 0), v4 = (−1, 1, 0, −1), v5 = (1, 1, 0, 1).

2. Determinare per quali valori di a ∈ R i vettori v1 = (1, 2, 0), v2 = (0, 1, a), v3 = (1, a, −1) di R3 sono linearmente indipendenti.

Osservazione 2.16. Sia V un K–spazio vettoriale e sia 0 6= v ∈ V . Allora v `e linearmente indipendente. Infatti, se αv = 0, per qualche α ∈ K, allora, dalla Proposizione 2.3, c), necessariamente α = 0.

Proposizione 2.17. I vettori v1, . . . , vn ∈ V , n ≥ 2, sono linearmente dipendenti se e solo se almeno uno di essi si pu`o esprimere come combinazione lineare dei rimanenti.

Dimostrazione. Se v1, . . . , vn sono linearmente dipendenti, allora ∃ a1, . . . , an ∈ K, non tutti nulli, tali che a1v1 + . . . + anvn = 0. Sia j, con 1 ≤ j ≤ n tale che aj 6= 0, allora ajvj = −(a1v1 + . . . + aj−1vj−1+ aj+1vj+1 + . . . + anvn). Pertanto vj `e combinazione lineare dei rimanenti:

vj = −a−1j (a1v1+ . . . + aj−1vj−1+ aj+1vj+1+ . . . + anvn) =

= −a−1j a1v1 − . . . − a−1j aj−1vj−1− a−1j aj+1vj+1− . . . − a−1j anvn.

(17)

Viceversa, se per qualche i, 1 ≤ i ≤ n, vi `e combinazione lineare dei rimanenti, allora vi = b1v1+ . . . + bi−1vi−1+ bi+1vi+1+ . . . + bnvn. Pertanto

0 = b1v1+ . . . + bi−1vi−1− vi+ bi+1vi+1+ . . . + bnvn

`

e una combinazione lineare non banale di v1, . . . , vn. Ne segue che v1, . . . , vn sono linear- mente dipendenti.

Osservazione 2.18. i) Se un insieme di vettori contiene il vettore nullo, allora esso `e un insieme di vettori linearmente dipendenti.

ii) Aggiungendo un vettore qualsiasi ad un insieme di vettori linearmente dipendenti, si ottiene ancora un insieme di vettori linearmente dipendenti.

iii) Aggiungendo un vettore qualsiasi ad un sistema di generatori, si ottiene ancora un sistema di generatori.

Osservazione 2.19. Sia V un K–spazio vettoriale e siano v1, . . . , vk ∈ V . Allora 1. hv1, v2, . . . , vki = hv2, v1, . . . , vki.

Infatti ∀ v ∈ hv1, v2, . . . , vki, v = a1v1+a2v2+. . .+akvk = a2v2+a1v1+. . .+akvk∈ hv2, v1, . . . , vki e viceversa.

2. ∀ α ∈ K, α 6= 0, hv1, v2, . . . , vki = hαv1, v2, . . . , vki.

Infatti ∀ v ∈ hv1, v2, . . . , vki, v = a1v1+ a2v2+ . . . + akvk = aα1(αv1) + a2v2+ . . . + akvk ∈ hαv1, v2, . . . , vki. Viceversa ∀ w ∈ hαv1, v2, . . . , vki, w = a1(αv1) + a2v2 + . . . + akvk= (a1α)v1+ a2v2+ . . . + akvk ∈ hv1, v2, . . . , vki.

3. ∀ α ∈ K, hv1, v2, . . . , vki = hv1+ αvj, v2, . . . , vki, dove 1 ≤ j ≤ k.

Infatti ∀ v ∈ hv1, v2, . . . , vki, v = a1v1 + . . . + ajvj + . . . + akvk = a1(v1+ αvj) + . . . + (aj − a1α)vj + . . . + akvk ∈ hv1 + αvj, v2, . . . , vki. Viceversa ∀ w ∈ hv1 + αvj, v2, . . . , vki, w = a1(v1+ αvj) + . . . + ajvj + . . . + akvk= a1v1+ . . . + (a1α + aj)vj + . . . + akvk ∈ hv1, v2, . . . , vki.

2.3 Basi e dimensione di uno spazio vettoriale

Un insieme di vettori {v1, . . . , vn} di V si dice base di V se v1, . . . , vn generano V e sono linearmente indipendenti.

Proposizione 2.20. Se {v1, . . . , vn} `e una base di V , allora ogni vettore di V si esprime in modo unico come combinazione lineare di v1, . . . , vn.

Dimostrazione. Sia v ∈ V . Poiche v1, . . . , vngenerano V , allora v `e combinazione lineare di v1, . . . , vn. Siano a1, . . . , an, b1, . . . , bn∈ K tali che v = a1v1+ . . . + anvn = b1v1+ . . . + bnvn. Poich`e 0 = a1v1+ . . . + anvn− b1v1− . . . − bnvn = (a1− b1)v1+ . . . + (an− bn)vn

e v1, . . . , vn sono linearmente indipendenti, si ha ai − bi = 0, i = 1, . . . , n.

(18)

Sia B = {v1, . . . , vn} una base del K–spazio vettoriale V , sia v un vettore di V e sia v = a1v1+ . . . + anvn l’unica espressione di v come combinazione lineare di v1, . . . , vn. Allora gli scalari a1, . . . , an si dicono coordinate o componenti di v rispetto alla base B.

Il prossimo risultato mostra che in uno spazio vettoriale V , il massimo numero di vettori linearmente indipendenti `e minore o uguale al minimo numero di vettori che generano V . Lemma 2.21. Siano {v1, . . . , vn} un sistema di generatori di V e siano w1, . . . , wm ∈ V . Se w1, . . . , wm sono linearmente indipendenti, allora m ≤ n.

Dimostrazione. Poich`e v1, . . . , vn generano V , ogni vettore di V si pu`o scrivere come combinazione lineare di v1, . . . , vn. In particolare w1 = k1v1+ . . . + knvn. Inoltre almeno uno dei coefficienti k1, . . . , kndeve essere diverso da zero, altrimenti si avrebbe w1 = 0 (e di conseguenza w1, . . . , wm sarebbero dipendenti). Non `e restrittivo supporre che sia k1 6= 0.

Allora v1 `e combinazione lineare di w1, v2, . . . , vn. In questo modo abbiamo costruito un nuovo sistema di n generatori per V = hw1, v2, . . . , vni. Ripetiamo il procedimento per w2. Poich`e w1, v2, . . . , vn generano V , si potr`a scrivere w2 = h1w1+ k2v2+ k3v3+ . . . + knvn. Almeno uno dei coefficienti k2, . . . , kn`e diverso da zero (altrimenti si avrebbe w2 = h1w1, contro l’ipotesi di indipendenza lineare di w1, . . . , wm). Al solito, non `e restrittivo supporre k2 6= 0. Ne segue che v2 `e combinazione lineare di w1, w2, v3, . . . , vn e quindi abbiamo costruito un nuovo sistema di generatori per V = hw1, w2, v3, . . . , vni. Supponiamo ora, per assurdo, che sia m > n. Se iteriamo il procedimento descritto precedentemente n volte, otteniamo un sistema di generatori di V costituito da w1, . . . , wn. Ma allora il vettore wn+1

`

e combinazione lineare di w1, . . . , wn, contro l’ipotesi di indipendenza lineare dei vettori w1, . . . , wm.

Corollario 2.22. Siano {v1, . . . , vn} e {w1, . . . , wm} due basi dello spazio vettoriale V . Allora m = n.

Dimostrazione. Poich`e v1, . . . , vngenerano V e w1, . . . , wm sono linearmente indipenden- ti, per il Lemma precedente, si ha m ≤ n. Analogamente, poich`e w1, . . . , wn generano V e v1, . . . , vm sono linearmente indipendenti, si ha n ≤ m.

Un K–spazio vettoriale V ha dimensione finita se esiste una base di V costituita da un insieme finito di vettori di V . Si noti che due basi di V hanno lo stesso numero di elementi.

La dimensione di uno spazio vettoriale di dimensione finita `e il numero di elementi di una sua qualsiasi base. La dimensione di V si denota con dim V .

Una base per lo spazio vettoriale costituito dal solo vettore nullo V = {0} `e l’insieme vuoto ∅ e la sua dimensione `e zero (dim{0} = 0).

Osservazione 2.23. Pu`o accadere che uno spazio vettoriale non abbia dimensione finita, in quanto non esista un insieme finito di vettori che lo generi. Ad esempio lo spazio vettoriale R[X] dei polinomi a coefficienti reali nell’indeterminata X non ha dimensione

(19)

finita. Infatti, sia S = {p1, . . . , pn} un qualunque insieme finito di polinomi di R[X]. Sia h il massimo dei loro gradi. Allora ogni combinazione lineare di p1, . . . , pn e quindi ogni elemento del sottospazio vettoriale generato da S ha grado minore o uguale ad h. Pertanto il sottospazio vettoriale generato da S non pu`o coincidere R[X].

Da ora in avanti considereremo soltanto spazi vettoriali di dimensione finita.

Esempi 2.24. 1. I vettori e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) di R3 formano una base di R3, detta base canonica di R3.

2. In generale, l’insieme di vettori {e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1)} `e una base di Kn. Infatti ∀(x1, . . . , xn) ∈ Kn, (x1, . . . , xn) = x1e1 + . . . + xnen e quindi e1, . . . , en generano Kn. Inoltre, se a1, . . . , an ∈ K sono tali che a1e1 + . . . + anen = 0, allora (a1, . . . , an) = 0, quindi a1 = a2 = . . . = an = 0 e e1, . . . , en sono linearmente indipendenti. Ne segue che {e1, . . . , en} `e una base di Kn (detta base canonica di Kn) e dim Kn= n.

3. Una base di Rn[X] = {a0+ a1X + a2X2+ a3X3+ . . . + anXn | a0, . . . , an ∈ R} `e costituita da B = {1, X, X2, X3, . . . , Xn}.

4. Sia Eij la matrice di Mm,n(K), 1 ≤ i ≤ m, 1 ≤ j ≤ n, definita come segue Eij = (elk), elk = 0 se (i, j) 6= (l, k)

1 se (i, j) = (l, k) ,

L’insieme delle matrici {E11, E12, . . . , E1n, E21, E22. . . , Emn} `e una base di Mm,n(K).

Infatti ∀A = (aij) ∈ Mm,n(K), A = a11E11+ . . . + amnEmne quindi E11, . . . , Emn ge- nerano Mm,n(K). Inoltre, se b11, . . . , bmn ∈ K sono tali che b11E11+. . .+bmnEmn = 0, allora (bij) = 0, quindi b11 = b12 = . . . = bmn = 0 e E11, . . . , Emn sono linearmen- te indipendenti. Ne segue che {E11, . . . , Emn} `e una base di Mm,n(K) (detta base canonica di Mm,n(K)) e dim(Mm,n(K)) = mn.

5. Sia S = {E11, E22, . . . , Enn, E12+ E21, E13+ E31, . . . , E1n+ En1, E23+ E32, . . . , E2n+ En2, . . . , En−1n+ Enn−1}. Mostreremo che le n(n + 1)/2 matrici di S formano una base di Symn(K). Sia A ∈ Mn(K) una matrice simmetrica. Allora A = At e quindi aij = aji, 1 ≤ i, j ≤ n. In altri termini, l’elemento di A di posto i, j `e uguale all’elemento di A di posto j, i. Ne segue che

A = a11E11+ a22E22+ . . . + annEnn+ a12(E12+ E21) + a13(E13+ E31) + . . . +

+ a1n(E1n+ En1) + a23(E23+ E32) + . . . + a2n(E2n+ En2) + . . . + an−1n(En−1n+ Enn−1) e le matrici E11, E22, . . . , Enn, E12+E21, E13+E31, . . . , E1n+En1, E23+E32, . . . , E2n+

En2, . . . , En−1n+ Enn−1 generano Symn(K). Inoltre, se bij ∈ K, 1 ≤ i, j ≤ n, i ≤ j, sono tali che

b11E11+ . . . + bnnEnn+ b12(E12+ E21) + . . . + b1n(E1n+ En1)+

+b23(E23+ E32) + . . . + b2n(E2n+ En2) + . . . + bn−1n(En−1n+ Enn−1) = 0,

(20)

allora bij = bji e (bij) = 0, quindi b11 = b12 = . . . = bnn = 0. Pertanto le ma- trici E11, E22, . . . , Enn, E12 + E21, E13 + E31, . . . , E1n + En1, E23 + E32, . . . , E2n + En2, . . . , En−1n+ Enn−1 sono linearmente indipendenti, S `e una base di Symn(K) e dim(Symn(K)) = n(n + 1)/2.

6. Sia A = {E12− E21, E13− E31, . . . , E1n− En1, E23− E32, . . . , E2n− En2, . . . , En−1n− Enn−1}. Mostreremo che le n(n − 1)/2 matrici di A formano una base di ASymn(K).

Sia A ∈ Mn(K) una matrice antisimmetrica. Allora At = −A e quindi aij = −aji, 1 ≤ i, j ≤ n, i 6= j, e aii = 0, 1 ≤ i ≤ n. In altri termini, l’elemento di A di posto i, j, i 6= j, `e uguale all’opposto dell’elemento di A di posto j, i, mentre gli elementi della diagonale principale di A sono nulli. Ne segue che

A = a12(E12− E21) + a13(E13− E31) + . . . + a1n(E1n− En1)+

+ a23(E23− E32) + . . . + a2n(E2n− En2) + . . . + an−1n(En−1n− Enn−1) e le matrici E12−E21, E13−E31, . . . , E1n−En1, E23−E32, . . . , E2n−En2, . . . , En−1n− Enn−1 generano Symn(K). Inoltre, se bij ∈ K, 1 ≤ i, j ≤ n, i < j, sono tali che

b12(E12− E21) + . . . + b1n(E1n− En1) + b23(E23− E32) + . . . + b2n(E2n− En2)+

+ . . . + bn−1n(En−1n− Enn−1) = 0, allora bij = −bji e (bij) = 0, quindi b11 = b12 = . . . = bnn = 0. Pertanto le matrici E12− E21, E13 − E31, . . . , E1n − En1, E23 − E32, . . . , E2n − En2, . . . , En−1n− Enn−1 sono linearmente indipendenti, A `e una base di ASymn(K) e dim(ASymn(K)) = n(n − 1)/2.

Lemma 2.25. Mn(K) = Symn(K) ⊕ ASymn(K).

Dimostrazione. Sia M = (cij) ∈ Symn(K) ∩ ASymn(K). Allora, poich`e M ∈ ASymn(K), si ha che cii= 0, 1 ≤ i ≤ n, cij = −cji, i 6= j. D’altro canto, poich`e M ∈ Symn(K), si ha che cij = cji, i 6= j. Allora necessariamente cij = 0, 1 ≤ i, j ≤ n, e M = 0. Ne segue che Mn(K) `e somma diretta di Symn(K) e ASymn(K). Si noti, infine, che ∀ A ∈ Mn(K) si ha che (A + At)/2 ∈ Symn(K), (A − At)/2 ∈ ASymn(K) e

A = A + At

2 + A − At 2 .

Esercizi 2.26. Determinare la dimensione ed una base dei seguenti sottospazi di R4: 1. W1 = {(x1, x2, x3, x4) ∈ R4 | x1− x4 = 0, x2+ x3 = 0};

2. W2 = {(x1, x2, x3, x4) ∈ R4 | x4− x2+ x3 = 0}.

Teorema 2.27. (Teorema del completamento ad una base) Sia V un K–spazio vettoriale tale che dim(V ) = n.

Riferimenti

Documenti correlati

Teorema di Rouche’

Un polinomio si dice ordinato secondo le potenze decrescenti (o crescenti) di una determinata lettera quando gli esponenti della lettera si succedono in

Calcolare la matrice di R W rispetto alla

In caso affermativo, per tali valori scrivere una relazione di dipendenza lineare ed esprimere uno dei tre come combinazione lineare dei rimanenti.. Sia V lo spazio vettoriale

Esercizio 1 Sia V := R[x] ≤3 lo spazio vettoriale dei polinomi a coefficienti reali, nell’indeterminata x, di grado al piu’ 3... Esercizio 4 Sia V := R[x] ≤4 lo spazio vettoriale

per

Viceversa, si prova che se a due polinomi corrisponde la stessa funzione polinomiale allora i due polinomi devono essere uguali; questo enunciato viene detto il principio di identit`

Un campo si dice algebricamente chiuso se ogni polinomio di di grado maggiore di 0 ha una radice