Geometria I
appunti (non rivisti dai professori) delle lezioni
Ateneo Studenti Fisica
Alessandro Principi
Indice
Strutture algebriche 2
Spazi Vettoriali . . . . 3
Sottospazi vettoriali . . . . 5
Costruire sottospazi . . . . 5
Altri sottospazi . . . . 5
Applicazioni Lineari, Sistemi Lineari 7 Nucleo e Immagine di un’applicazione lineare, Sistemi Lineari . . . . 7
Risoluzione di sistemi lineari . . . . 8
Algoritmo di Gauss . . . . 9
Prodotto di Matrici . . . . 10
Dimensione e base di uno spazio vettoriale 12 Formula di Grassman . . . . 14
Rango di un’applicazione lineare 16 Classe di Equivalenza . . . . 16
Calcolo del rango di una matrice a scalini S e di una base di ImS . . . . 18
Matrici Elementari e invertibili . . . . 18
Calcolo della matrice inversa attraverso l’algoritmo di Gauss . . . . 20
Matrice associata a un’applicazione lineare . . . . 20
Matrice del cambiamento di base . . . . 21
SD-equivalenza 23 Determinante 25 Criterio dei minori orlati . . . . 29
Coniugio e Similitudine 30 Calcolo di autovalori e autospazi per una matrice . . . . 31
Diagonalizzabilit´a . . . . 33
Triangolabilit´a . . . . 34
Forme bilineari 36 Forma quadratica . . . . 37
Congruenza, forme isometriche 38 Rango di un’applicazione bilineare . . . . 38
Prodotti Scalari 40 Prodotti scalari definiti positivi . . . . 44
Propriet´a degli spazi euclidei . . . . 45
Teorema Spettrale e prodotti Hermitiani 47 Prodotti Hermitiani . . . . 49
Strutture algebriche
Definizione: Sia X un insieme, e sia ∗ una funzione tale che: ∗ : X × X −→ X. Allora si dice che ∗ `e un’operazione su X.
Definizione: ¡ X, ∗¢
si dice gruppo se X `e un insieme e ∗ un’operazione su X che verifica 3 propriet`a:
1. Esistenza dell’elemento neutro: ∃e ∈ X t. c. a ∗ e = e ∗ a = a;
2. Esistenza dell’inverso: ∀a ∈ X ∃b ∈ X t.c. a ∗ b = b ∗ a = e;
3. Propriet`a associativa: ∀a, b, c ∈ X, (a ∗ b) ∗ c = a ∗ (b ∗ c).
Definizione: ¡ X, ∗¢
si dice gruppo commutativo (o abeliano) se `e un gruppo e vale la propriet`a com- mutativa: ∀a, b ∈ X , a ∗ b = b ∗ a.
Definizione: Sia X un insieme, + (detta somma) e · (detto prodotto) due operazioni su X. Allora si dice che¡
X, +, ·¢
`e un campo se valgono le seguenti propriet`a:
1. Esistenza dell’elemento neutro (detto 0) per la somma;
2. Esistenza dell’inverso per la somma;
3. Propriet`a associativa per la somma;
4. Propriet`a commutativa per la somma;
5. Esistenza dell’elemento neutro (detto 1) per il prodotto;
6. Propriet`a associativa per il prodotto;
7. Propriet`a distributiva: ∀a, b, c ∈ X, a·(b +c) = a·b +a·c, (a +b)·c = a·c +b·c (Conta l’ordine!);
8. Esistenza dell’inverso per il prodotto;
9. Propriet`a commutativa per il prodotto.
Definizione: ¡
X, +, ·¢
`e un anello se valgono le propriet`a 1 - 7 sopra elencate. ´E un anello commutativo se vale anche la propriet`a 9.
Definizione: ¡
X, +, ·¢
`e un corpo se valgono le propriet`a 1 - 8 sopra elencate.
Strutture algebriche
Definizione: ¡
V, +, ·, K¢
si dice spazio vettoriale se:
• V `e un insieme;
• K `e un campo;
• + `e una somma in V (+: V × V −→ V);
• ·: K × V −→ V (detto prodotto per scalare).
e valgono le seguenti propriet`a:
• (V, +) `e un gruppo commutativo;
• ∀α, β ∈ K, ∀v ∈ V, (αβ)v = α(βv);
• ∃1 ∈ K t. c. ∀v ∈ V 1 · v = v;
• ∀α, β ∈ K, ∀v ∈ V, (α + β)v = αv + βv;
• ∀α ∈ K, ∀v, w ∈ V, α(v + w) = αv + αw;
Spazi Vettoriali
Definiamo ora alcuni spazi vettoriali:
1) Sia K un campo, chiamiamo Kn= {(x1, x2, . . . , xn) | xi∈ K ∀i = 1, . . . , n}.
Definiamo + e · in questo modo:
(x1, x2, . . . , xn) + (y1, y2, . . . , yn)def= (x1+ y1, x2+ y2, . . . , xn+ yn),
∀(x1, x2, . . . , xn), (y1, y2, . . . , yn) ∈ Kn
a · (x1, x2, . . . , xn)def= (a · x1, a · x2, . . . , a · xn), ∀a ∈ K, ∀(x1, x2, . . . , xn) ∈ Kn
Notiamo innanzitutto che + e · sono ben definiti (poich`e si basano sulle propriet`a del campo K), e che, grazie a queste definizioni, otteniamo uno spazio vettoriale.
2) Sia K un campo, e sia
K[x] = {a0+ a1x + . . . + anxn | ai∈ K, ∀i = 1, . . . , n}
e siano + e · le due operazioni classiche sui polinomi (somma e prodotto tra polinomi). Si verifica che, con le definizioni date, K[x] `e un anello commutativo:
• Elemento neutro per la somma: il polinomio i cui coefficienti sono tutti uguali a zero;
• Inverso per la somma: polinomio con i coefficienti inversi;
• Elemento neutro per il prodotto: `e il polinomio 1 (tutti i coefficienti dei termini di grado superiore a zero sono zero);
• le altre propriet`a valgono perch`e i coefficienti sono in un campo;
Verifichiamo che non vale l’esistenza dell’inverso per il prodotto:
consideriamo due polinomi p(x) e q(x) entrambi diversi da zero di grado rispettivamente m e n e consi- deriamo il loro prodotto p(x) · q(x). In tal modo otteniamo un polinomio di grado m +n.
Se fosse, ad esempio, q = p−1, allora avremmo che p(x) · q(x) = 1. Ma ci`o ´e impossibile per polinomi che non siano costanti (i cui coefficienti dei termini di grado superiore a zero siano diversi da zero), in quanto essi avrebbero grado maggiore di zero (ovvero il grado di 1).
Strutture algebriche
· : K × K[x] −→ K[x]
(a, p(x)) 7−→ a · p(x) Si verifica che ´e uno spazio vettoriale.
3) Sia V spazio vettoriale su K e sia A un insieme qualsiasi. Sia F l’insieme delle applicazioni (funzioni) da A in V . (F, +, ·, K) ´e uno spazio vettoriale se definiamo + e · come segue:
∀f, g ∈ F , f + g : A −→ V ´e t. c.:
∀a ∈ A, (f + g)(a)def= f (a) + g(a)
∀f ∈ F , ∀λ ∈ K, λf : A −→ V ´e t. c.:
∀a ∈ A, (λf )(a)def= λf (a) 4) Sia K un campo. Definiamo:
M (p, q, K) = {matrici con p righe, q colonne con elementi in K}
Una Matrice ´e nella forma:
a11 · · · a1q
... . .. ...
ap1 · · · apq
dove aij ∈ K, ∀i = 1, . . . , p, ∀j = 1, . . . , q.
Sia A ∈ M (p, q, K):
Ai = i-esima riga;
Ai = i-esima colonna;
[A]ij = elemento di posto (i, j), dove i indica la riga e j la colonna;
0 ´e la matrice nulla ([0]ij = 0 ∀i, j)
A, B ∈ M (p, q, K), A = B ⇐⇒ [A]ij = [B]ij ∀i, j Definiamo + e · :
∀A, B ∈ M (p, q, K), [A + B]ij def
= [A]ij+ [B]ij ∀i, j
∀λ ∈ K, ∀A ∈ M (p, q, K), [λA]ij def
= λ[A]ij ∀i, j (M (p, q, K), +, ·, K) ´e uno spazio vettoriale:
• (M (p, q, K), +) ´e un gruppo abeliano:
1. 0 ´e l’elemento neutro;
2. esiste l’inverso: [A]ij+ (−[A]ij) = 0;
3. vale la propriet´a associativa:
[(A + B) + C]ij = [A + B]ij+ [C]ij = [A]ij+ [B]ij+ [C]ij = [A]ij+ [B + C]ij =
= [A + (B + C)]ij;
4. si verifica analogamente la commutativa;
• con metodi analoghi si verificano le altre propriet`a.
Proposizioni
Sia V uno spazio vettoriale:
1. lo 0 `e unico in V:
se ∃01, 02∈ V =⇒ 01= 01+ 02= 02 per gli assiomi;
2. ∀x ∈ V ∃! − x ∈ V
se ∃(−x)1, (−x)2∈ V inversi di x per somma =⇒ (−x)1= (−x)1+ x + (−x)2= (−x)2;
Strutture algebriche
3. ∀v ∈ V 0 · v = 0
0 · v = (0 + 0)v = 0 · v + 0 · v =⇒ 0 · v = 0;
4. se α · x = 0 =⇒ o α = 0 o x = 0 se α = 0, ok.
se α 6= 0 =⇒ ∃α−1∈ K t. c. α−1α = 1 =⇒ x = α−1αx = α−1· 0 = 0 =⇒ x = 0;
5. (−1)x = −x
x + (−1)x = (1 − 1)x = 0 · x = 0.
Sottospazi vettoriali
Definizione: V spazio vettoriale su K. W ⊂ V si dice sottospazio vettoriale di V se:
• 0 ∈ W ;
• ∀x, y ∈ W, x + y ∈ W ;
• ∀α ∈ K, ∀x ∈ W, αx ∈ W .
dove + e · in questo caso sono le restrizioni della somma e del prodotto su V a W .
Costruire sottospazi
Si pu´o fare prendendo alcuni vettori e il pi´u piccolo sottospazio che li contiene.
Sia V sp. vett. su K, v1, . . . , vn∈ V , c1, . . . , cn∈ K. Chiamiamo c1v1+ . . . + cnvn combinazione lineare di v1, . . . , vn. Chiamiamo poi:
span(v1, . . . , vn) = {c1v1+ . . . + cnvn | c1, . . . , cn∈ K}
tale insieme `e il pi´u piccolo sottospazio di V contenente v1, . . . , vn:
• contiene 0 (tutti i ci= 0);
• contiene vi ∀i = 1, . . . , n;
• (a1v1+ . . . + anvn) + (b1v1+ . . . + bnvn) = (a1+ b1)v1+ . . . + (an+ bn)vn
(la somma di due combinazioni lineari ´e ancora una combinazione lineare);
• lo stesso per il prodotto per scalare;
• ´e il pi´u piccolo per la definizione che ne abbiamo dato: in un sottospazio vettoriale ci devono stare v1, . . . , vn e le loro combinazioni lineari. Abbiamo imposto solo questo nella definizione di span(v1, . . . , vn).
Altri sottospazi
Sia V sp. vett. su K, U, W due sottospazi vettoriali di V. Allora U ∩ W `e un sottospazio vettoriale di V. Verifichiamolo:
• contiene 0 (sia U che W lo contengono);
• ∀x, y ∈ U ∩ W, x + y ∈ U ∩ W , infatti x e y appartengono sia ad U che a W . Essendo questi sottospazi, la somma de due vettori appartiene ancora ad entrambi, quindi alla loro intersezione;
• lo stesso per il prodotto per scalare.
Vogliamo costruire il pi´u piccolo sottospazio contenente U e W . Notiamo innanzitutto che U ∪ W non soddisfa la nostra ricerca, in quanto non `e chiuso per somma. Chiamiamo:
U + W = {u + w | u ∈ U, w ∈ W }
Strutture algebriche
Facciamo vedere che ´e il sottospazio che cercavamo:
• U ⊂ U + W : ∀u ∈ U, u ∈ U + W , perch´e u = u + 0 (con 0 ∈ W );
• W ⊂ U + W , per lo stesso motivo (con 0 ∈ U );
• 0 ∈ U + W : infatti 0 = 0 + 0;
• ∀u1, u2∈ U, ∀w1, w2∈ W =⇒ (u1+ w1) + (u2+ w2) = (u1+ u2) + (w1+ w2) ma (u1+ u2) ∈ U, (w1+ w2) ∈ W =⇒ (u1+ w1) + (u2+ w2) ∈ U + W ;
• ∀u ∈ U, ∀w ∈ W, ∀k ∈ K =⇒ k(u + w) = ku + kw ku ∈ U, kw ∈ W =⇒ k(u + w) ∈ U + W ;
• ´e il pi´u piccolo: se Z sottosp. vett. t. c. U ⊂ Z, W ⊂ Z=⇒ U + W ⊂ Z:?
∀ u + w ∈ U + W, u ∈ U, w ∈ W =⇒ u + w ∈ Z (poich´e ´e sottosp. vett.) =⇒ U + W ⊂ Z
Definizione: se U ∩ W = {0}, allora U + W si denota U ⊕ W e si dice che i due sottospazi sono in somma diretta tra loro.
Proposizione: in U ⊕ W ogni vettore si scrive in modo unico come: u + w, u ∈ U, w ∈ W . Dimostrazione: se ∃u1, u2∈ U, ∃w1, w2∈ W t. c. u1+ w1= u2+ w2=⇒ u1− u2= w1− w2.
Ma u1− u2∈ U, w1− w2∈ W =⇒ u1− u2∈ U ∩ W, w1− w2∈ U ∩ W .
Poich´e U ∩ W = {0}, u1− u2= 0, w1− w2= 0, e i vettori sono a due a due uguali.
Definizione: se U ´e sottospazio vett. di V , un sottospazio W di V si dice supplementare di U se U ⊕ W = V .
N.B.: Il supplementare non ´e unico.
Applicazioni Lineari, Sistemi Lineari
Siano V, W K-spazi vettoriali, e sia f : V −→ W un’applicazione. Si dice che f ´e un’applicazione lineare se soddisfa:
• ∀x, y ∈ V f (x + y) = f (x) + f (y);
• ∀α ∈ K, ∀x ∈ V f (αx) = αf (x).
Osservazione: Se f ´e lineare allora f (0) = 0.
Dimostrazione: f (0) = f (0 + 0) = f (0) + f (0) =⇒ f (0) = 0.
Definiamo la moltiplicazione tra due vettori (uno riga e uno colonna, entrambi con n elementi) e tra una matrice A ∈ M (p, n, K) e un vettore B ∈ Kn:
(a1. . . an) ·
b1
... bn
def= a1b1+ . . . + anbn= Xn i=1
aibi
a11 . . . a1n
... ... ap1 . . . apn
·
b1
... bn
def=
a11b1+ . . . + a1nbn
...
ap1b1+ . . . + apnbn
Osservazione: il vettore risultato della seconda moltiplicazione ´e un vettore C ∈ Kp Sia A ∈ M (p, n, K) e sia LA: Kn−→ Kp
X 7−→ AX
Si verifica che LA´e un’applicazione lineare. Tutte le applicazioni lineari sono infatti prodotte da un’op- portuna matrice.
Osservazione: A ∈ M (p, n, K), X ∈ Kn, A · X = x1A1+ . . . + xnAn
Proposizione: sia g : Kn −→ Kp lineare, siano e1 =
1 0 ... 0
, . . . , en =
0
... 0 1
(ossia ei ´e il vettore
formato da tutti 0, eccetto l’elemento i-esimo, uguale ad 1) e sia inoltre:
A =
g(e1) . . . g(en)
. Allora g = LA.
Dimostrazione: ∀X ∈ Kn, g(X)= L? A(X):
Sapendo che A · X = x1A1+ . . . + xnAn, X = x1e1+ . . . + xnen e che g ´e lineare, allora:
LA(X) = AX = x1A1+ . . . + xnAn= x1g(e1) + . . . + xng(en) = g(x1e1) + . . . + g(xnen) =
= g(x1e1+ . . . + xnen) = g(X).
Nucleo e Immagine di un’applicazione lineare, Sistemi Lineari
Applicazioni Lineari, Sistemi Lineari
Kerf = {x ∈ V | f (x) = 0}
Imf = {y ∈ W | ∃x ∈ V t. c. f (x) = y}
Osservazione: f ´e surgettiva ⇐⇒ Imf = W Proposizione:
1. Kerf ´e un sottospazio vett. di V ; 2. Imf ´e un sottospazio vett. di W ; 3. f ´e iniettiva ⇐⇒ Kerf = {0}
Dimostrazione: :
1. • 0 ∈ Kerf , poich´e f (0) = 0;
• ∀x, y ∈ Kerf =⇒ x + y ∈ Kerf : f (x + y) = f (x) + f (y) = 0 + 0 = 0;
• ∀x ∈ Kerf, ∀α ∈ K =⇒ αx ∈ Kerf : f (αx) = αf (x) = α · 0 = 0.
2. • 0 ∈ Imf , poich´e f (0) = 0;
• ∀z, w ∈ Imf, ∃x, y ∈ V t. c. z = f (x), w = f (y) =⇒ z + w = f (x) + f (y) =
= f (x + y) =⇒ z + w ∈ Imf ;
• ∀z ∈ Imf, ∃x ∈ V t. c. z = f (x) =⇒ ∀α ∈ K, αz = αf (x) = f (αx) =⇒ αz ∈ Imf . 3. =⇒: Sappiamo che {0} ⊂ Kerf . Facciamo vedere che Kerf ⊂ {0}.
Sia x ∈ Kerf =⇒ f (x) = 0 = f (0). Poich´e f ´e iniettiva: f (x) = f (0) ⇐⇒ x = 0
⇐=: Facciamo vedere che se f (x) = f (y) ⇐⇒ x = y
f (x) − f (y) = f (x − y) = 0 =⇒ x − y ∈ Kerf =⇒ x − y = 0, x = y Analogamente: KerLA= {X ∈ Kn | AX = 0}.
Risoluzione di sistemi lineari
Definizione: Si dice sistema lineare di p equazioni in n incognite x1, . . . , xn un sistema nella forma:
a11x1+ a12x2+ . . . + a1nxn = b1
a21x1+ a22x2+ . . . + a2nxn = b2
. . .
ap1x1+ ap2x2+ . . . + apnxn= bp
tale che aij ∈ K, bk∈ K.
Definizione: (y1, . . . , yn) ∈ Kn ´e una soluzione di un sistema lineare se ´e soluzione di tutte le equazioni che lo compongono. Risolvere un sistema lineare vuol dire trovare tutte le soluzioni.
Definizione: due sistemi lineari si dicono equivalenti fra loro se hanno le stesse soluzioni.
Dedichiamoci ora alla risoluzione dei sistemi lineari. Prima osserviamo che:
Osservazione: i sistemi a scalini sono semplici da risolvere. Essi sono nella forma:
a11x1+ a12x2+ a13x3+ . . . + a1nxn= b1
a22x2+ a23x3+ . . . + a2nxn= b2
. . .
appxp+ . . . + apnxn= bp
Chiamiamo aii6= 0 pivot.
E importante che le incognite calino scendendo nel sistema: ´e possibile, in tale situazione, risolvere l’ul-´ tima equazione ricavando xp= a−1pp(bp− ap,p+1xp+1− . . . − apnxn), sostituire la variabile ricavata nella precedente equazione e iterare il processo fino ad arrivare alla prima equazione.
Applicazioni Lineari, Sistemi Lineari
Osservazione: : Eseguendo su un sistema lineare le seguenti operazioni elementari si ottiene un sistema ad esso equivalente:
1. scambiare due equazioni (l’ordine non conta);
2. moltiplicare un’equazione per α ∈ K, α 6= 0;
3. sommare ad una equazione un multiplo di un’altra.
Possiamo vedere un sistema lineare anche nella forma:
a11 . . . a1n
... ... ap1 . . . apn
x1
... xn
=
b1
... bn
dove la matrice appartiene a M (p, n, K) ed ´e detta matrice dei coefficienti.
Osservazione: AX = B ´e risolubile ⇐⇒ ∃Y ∈ Kn t. c. AY = B ⇐⇒ B ∈ ImLA. Se LA´e surgettiva il sistema ´e sempre risolubile (esiste sempre Y t. c. AY = B).
Se LA ´e iniettiva il sistema ha un’unica soluzione (se esiste Y soluzione, ´e unica: LA(X) = LA(Y ) ⇐⇒
X = Y ).
Un sistema a scalini ´e rappresentato da una matrice a scalini.
Ci preoccupiamo ora di trasformare una matrice in una a scalini. Per far questo possiamo usare le seguenti operazioni elementari per riga (che altro non sono che le operazioni elementari sopra citate):
1. scambiare due righe;
2. moltiplicare una riga per α ∈ K, α 6= 0 (Ai → αAi);
3. sommare ad una riga un multiplo di un’altra (Ai→ Ai+ βAj).
Algoritmo di Gauss
Cominciamo con un esempio: µ
1 2 4
2 −1 3
¶
=
½ x + 2y = 4 2x − y = 3
Se la prima colonna ´e non nulla, guardo l’elemento [A]11. Se ´e 0, scambio due righe portando al primo posto una riga il cui primo elemento ´e diverso da 0. A questo punto (nel nostro esempio) A2→ A2− 2A1:
µ 1 2 4
0 −5 −5
¶
Faccio in modo che sotto al primo pivot non rimangano che 0, quindi itero il procedimento considerando il secondo pivot (l’elemento di posto [A]22) senza toccare pi´u la prima riga.
Enunciamo ora l’algoritmo di Gauss per ridurre una matrice A a scalini utilizzando le operazioni per riga:
1. sia j1il minimo intero t. c. Aj1 6= 0 (prendo la prima colonna non nulla);
2. a meno di scambiare due righe posso supporre che [A]1j16= 0;
3. ∀i > 1 sostituisco Ai → Ai− ([A]−11j1· [A]ij1) · A1;
4. itero il procedimento sulla sottomatrice ottenuta scartando la prima riga e le prime j1colonne.
Esempio:
1 2 3 0
1 2 4 −3
2 1 0 1
→
1 2 3 0
0 0 1 −3
0 −3 −6 1
→
1 2 3 0
0 −3 −6 1
0 0 1 −3
Applicazioni Lineari, Sistemi Lineari
2. Ogni sistema AX = B ´e equivalente ad un sistema a scalini (cio´e ad A1X = B1 con (A1|B1) a scalini).
Osservazione: se AX = B ´e un sistema equivalente a SX = T , dove (S | T ) ´e a scalini:
• il sistema ´e risolubile ⇐⇒ numero di pivots di S = numero di pivots di (S | T );
• se ´e risolubile, ricavo r variabili in funzione di n − r parametri.
Prodotto di Matrici
Siano f e g due applicazioni lineari tale che:
Kn −→ Kf p−→ Kg q
con f (X) = AX e g(X) = BX, dove A ∈ M (p, n, K), B ∈ M (q, p, K).
Osservazione: La composizione di due applicazioni lineari ´e lineare:
• (g ◦ f )(x + y) = g¡
f (x + y)¢
= g¡
f (x) + f (y)¢
= g¡ f (x)¢
+ g¡ f (y)¢
= (g ◦ f )(x) + (g ◦ f )(y);
• (g ◦ f )(αx) = g¡ f (αx)¢
= g¡ αf (x)¢
= αg¡ f (x)¢
= α(g ◦ f )(x).
Anche (g ◦ f ) deve essere indotta da una matrice: ∃C ∈ M (q, n) t. c. (g ◦ f )(X) = CX ∀X ∈ Kn. Per capire come la matrice C derivi dalle matrici A e B, calcoliamo l’elemento di posto j nel vettore (g ◦ f )(X) ∈ Kq. Utilizziamo la notazione [(g ◦ f )(X)]j1in quanto vediamo il vettore come una matrice con q righe e 1 colonna.
Ricordiamo inoltre che data una matrice A ∈ M (p, n, K) e un vettore X ∈ Kn:
[AX]i1= Xn k=1
¡[A]ik· [X]k1
¢
[(g◦f )(X)]j1= [B(AX)]j1= Xp h=1
[B]jh·[AX]h1= Xp h=1
[B]jh· Xn i=1
¡[A]hi·[X]i1
¢= Xn i=1
à p X
h=1
[B]jh· [A]hi
!
·[X]i1
Dunque se B · A ∈ M (q, n) allora:
[AX]ji= Xp h=1
[B]jh· [A]hi= Bj· Ai
Poich´e si moltiplica la j-esima riga di B per la i-esima colonna di A, tale prodotto viene detto: prodotto riga per colonna.
Osservazione: non sempre due matrici sono moltiplicabili: abbiamo visto che la prima deve avere un numero di colonne pari al numero di righe della seconda.
Si verifica che, nei casi in cui il prodotto ha senso:
• (AB)C = A(BC)
• (λA)B = λ(AB)
• (A + B)C = AC + BC
• A(B + C) = AB + AC
• IpA = AIq = A, ∀A ∈ M (p, q), In ∈ M (n, n) t. c. [In]ii = 1, [In]ji= 0 j 6= i
La matrice In, detta matrice identica ´e nella forma:
1 0
. ..
0 1
Applicazioni Lineari, Sistemi Lineari
Ci restingiamo ora al caso delle matrici quadrate, ossia quelle in cui il numero di righe e di colonne ´e lo stesso. Le indichiamo con M (n). Consideriamo¡
M (n), +, ·¢
, con · restrizione del prodotto fra matrici all’insieme delle matrici quadrate. Esso ´e un anello non commutativo.
Facciamo vedere con un esempio che non vale le propriet´a commutativa:
µ 1 2 3 1
¶
·
µ 2 −1
0 3
¶
=
µ 2 5 6 0
¶
µ 2 −1
0 3
¶
·
µ 1 2 3 1
¶
=
µ −1 3 9 3
¶
Dimostriamo che non esiste l’inverso per tutti gli elementi dell’anello (e dimostriamo quindi che ´e effet- tivamente un anello e non un corpo).
Consideriamo la matrice
µ 1 1 0 0
¶
6= 0 e facciamo vedere che non esiste nessuna matrice che, moltipli- candola a destra, ci dia la matrice identit´a:
µ 1 1 0 0
¶
·
µ a b c d
¶
=
µ a + b c + d
0 0
¶
=
µ 1 0 0 1
¶
Ne ricaviamo un assurdo, poich´e abbiamo 0 = 1.
Definizione: sia A un anello, a ∈ A, a 6= 0 si dice divisore di zero se ∃b ∈ A, b 6= 0 t. c. a · b = 0.
Osservazione: un campo e un corpo non contengono divisori di 0 (a causa dell’esistenza dell’inverso).
Facciamo vedere che l’anello considerato contiene divisori di 0:
µ 1 0 0 0
¶
·
µ 0 0 1 1
¶
=
µ 0 0 0 0
¶
Definizione: A ∈ M (n) si dice nilpotente se ∃m ∈ N t. c. Am= 0.
La seguente matrice ´e nilpotente:
µ 0 1 0 0
¶
·
µ 0 1 0 0
¶
=
µ 0 0 0 0
¶
Dimensione e base di uno spazio vettoriale
Definizione: V spazio vettoriale si dice finitamente generato se ∃v1, . . . , vn t. c. V = span(v1, . . . , vn), cio´e
∀v ∈ V ∃c1, . . . , cn∈ K t. c. v = Xn
i=1
civi
.
Osservazione: R[x] non ´e finitamente generato. Se p1(x), . . . , pm(x) fossero generatori, detto s = max deg¡
pi(x)¢
, ∀i = 1, . . . , m, non si potrebbero ottenere polinomi di grado maggiore ad s.
Definizione: v1, . . . , vn ∈ V si dicono linearmente indipendenti se l’unica combinazione lineare nulla dei vi ´e quella con i coefficienti tutti nulli. Ossia:
c1v1+ . . . + cnvn= 0 ⇐⇒ c1= . . . = cn= 0
Definizione: {v1, . . . , vn} si dice base di V se sono generatori di V e linearmente indipendenti.
Esempi:
{e1, . . . , en} sono una base di Kn
{1, x, . . . , xd} sono una base di Kd[x], ossia il sottospazio vettoriale di K[x] contenente i polinomi di grado minore o uguale a d.
Osservazione: v ∈ V ´e linearmente indipendente =⇒ v 6= 0.
Proposizione: se uno almeno fra v1, . . . , vk ´e nullo =⇒ v1, . . . , vk sono linearmente dipendenti;
Dimostrazione: se v1= 0 =⇒ v1+ 0 · v2+ . . . + 0 · vn= 0, ma il primo coefficiente ´e non nullo.
Proposizione: Sia k ≥ 2. v1, . . . , vk sono linearmente indipendenti ⇐⇒ almeno uno di essi ´e combina- zione lineare degli altri.
Dimostrazione:
=⇒: ∃α1, . . . , αk∈ K non tutti nulli t. c. α1v1+ . . . + αkvk = 0.
Se per esempio: α16= 0 =⇒ α1v1= −(α2v2+ . . . + αkvk) =⇒ v1= −α−11 (α2v2+ . . . + αkvk). Cio´e v1 ´e combinazione lineare degli altri vettori.
⇐=: Se v1= b2v2+ . . . + bkvk=⇒ v1− b2v2− . . . − bkvk= 0, ossia sono linearmente dipendenti.
Osservazione: v1, . . . , vk sono vettori linearmente indipendenti e m ≤ k =⇒ v1, . . . , vm sono linear- mente indipendenti.
Osservazione: se vp∈ span(v1, . . . , vp−1) =⇒ span(v1, . . . , vp) = span(v1, . . . , vp−1).
Proposizione: Se B = {v1, . . . , vm} ´e una base di V , allora ogni v ∈ V si scrive in modo unico come:
v = a1v1+ . . . + amvm. a1, . . . , am si dicono coordinate di v rispetto alla base B e si scrive [v]B. Dimostrazione:
Se v = a1v1+ . . . + amvm= b1v1+ . . . + bmvm=⇒ (a1− b1)v1+ . . . + (am− bm)vm= 0.
Essendo v1, . . . , vmlinearmente indipendenti: ai− bi= 0 ∀i = 1, . . . , m =⇒ ai= bi ∀i = 1, . . . , m.
In uno spazio Kn le componenti di un vettore coincidono con le coordinate, se si una la base canonica C = {e1, . . . , en}.
Dimensione e base di uno spazio vettoriale
Fissare B base di V significa fissare l’applicazione: [ ]B: V −→ Kn. Verifichiamo che l’applicazione [ ]B´e lineare:
• [ ]B(v + w)= [ ]? B(v) + [ ]B(w)
v = a1v1+ . . . + anvn, w = b1v1+ . . . + bnvn=⇒ v + w = (a1+ b1)v1+ . . . + (an+ bn)vn
[v + w]B=
a1+ b1
... an+ bn
=
a1
... an
+
b1
... bn
= [v]B+ [w]B;
• allo stesso modo per il multiplo.
[ ]B´e iniettiva: se v ∈ Ker[ ]B=⇒ [v]B=¡
0, . . . , 0¢
=⇒ v = 0 · v1+ . . . + 0 · vn. [ ]B´e surgettiva: ∀¡
c1, . . . , cn
¢∃v ∈ V t. c. [v]B =¡
c1, . . . , cn
¢, basta prendere v = c1v1+ . . . + cnvn.
Definizione: un’applicazione lineare inettiva e surgettiva si dice isomorfismo.
Definizione: quando tra due spazi vettoriale c’´e un isomorfismo si dicono isomorfi.
Teorema: sia {v1, . . . , vn} una base di V , e siano w1, . . . , wp p vettori di V . Se p > n =⇒ w1, . . . , wp
sono linearmente dipendenti.
Dimostrazione: Essendo {v1, . . . , vn} una base posso scrivere w1, . . . , wp come loro combinazioni li- neari:
w1= a11v1+ . . . + an1vn
w2= a12v1+ . . . + an2vn
...
wp= a1pv1+ . . . + anpvn
Cerco α1, . . . , αp non tutti nulli t. c. α1w1+ . . . + αpwp= 0:
0 = α1w1+ . . . + αpwp= α1(a11v1+ . . . + an1vn) + . . . + αp(a1pv1+ . . . + anpvn) =
= (a11α1+ . . . + a1pαp)v1+ . . . + (an1α1+ . . . + anpαp)vn
Ma v1, . . . , vn sono tutti linearmente indipendenti, quindi una loro combinazione lineare nulla si ot- tiene sono se i coefficienti sono tutti nulli, cio´e se:
a11α1+ . . . + a1pαp= 0 ...
an1α1+ . . . + anpαp= 0
Quindi (α1, . . . , αp) devono essere soluzioni del sistema lineare omogeneo (i cui termini noti sono tutti nulli) la cui matrice associata ´e:
a11 . . . a1p
... ... an1 . . . anp
∈ M (n, p)
Sappiamo che un sistema omogeneo ha sempre soluzione (almeno la soluzione nulla), ma ci interessa che ne abbia almeno un’altra non nulla. Osserviamo che il numero di pivot ´e al pi´u n, ma n < p, quindi esiste almeno un’altra soluzione (α1, . . . , αp) non nulla.
Corollario: se B = {v1, . . . , vn} e S = {w1, . . . , wp} sono due basi di V =⇒ n = p
Dimostrazione: dal teorema n ≥ p, ma anche p ≥ n, poich´e sono entrambe basi =⇒ n = p
Definizione: se V ammette una base B = {v1, . . . , vn}, si dice che V ha dimensione n e si indica dimV = n¡
per convenzione si pone dim© 0ª
= 0¢ . Proposizione: sia V 6=©
0ª
. Da ogni insieme finito di generatori ´e possibile estrarre una base di V (ogni spazio vettoriale finitamente generato ammette una base).