• Non ci sono risultati.

Geometria I appunti (non rivisti dai professori) delle lezioni

N/A
N/A
Protected

Academic year: 2021

Condividi "Geometria I appunti (non rivisti dai professori) delle lezioni"

Copied!
51
0
0

Testo completo

(1)

Geometria I

appunti (non rivisti dai professori) delle lezioni

Ateneo Studenti Fisica

Alessandro Principi

(2)

Indice

Strutture algebriche 2

Spazi Vettoriali . . . . 3

Sottospazi vettoriali . . . . 5

Costruire sottospazi . . . . 5

Altri sottospazi . . . . 5

Applicazioni Lineari, Sistemi Lineari 7 Nucleo e Immagine di un’applicazione lineare, Sistemi Lineari . . . . 7

Risoluzione di sistemi lineari . . . . 8

Algoritmo di Gauss . . . . 9

Prodotto di Matrici . . . . 10

Dimensione e base di uno spazio vettoriale 12 Formula di Grassman . . . . 14

Rango di un’applicazione lineare 16 Classe di Equivalenza . . . . 16

Calcolo del rango di una matrice a scalini S e di una base di ImS . . . . 18

Matrici Elementari e invertibili . . . . 18

Calcolo della matrice inversa attraverso l’algoritmo di Gauss . . . . 20

Matrice associata a un’applicazione lineare . . . . 20

Matrice del cambiamento di base . . . . 21

SD-equivalenza 23 Determinante 25 Criterio dei minori orlati . . . . 29

Coniugio e Similitudine 30 Calcolo di autovalori e autospazi per una matrice . . . . 31

Diagonalizzabilit´a . . . . 33

Triangolabilit´a . . . . 34

Forme bilineari 36 Forma quadratica . . . . 37

Congruenza, forme isometriche 38 Rango di un’applicazione bilineare . . . . 38

Prodotti Scalari 40 Prodotti scalari definiti positivi . . . . 44

Propriet´a degli spazi euclidei . . . . 45

Teorema Spettrale e prodotti Hermitiani 47 Prodotti Hermitiani . . . . 49

(3)

Strutture algebriche

Definizione: Sia X un insieme, e sia ∗ una funzione tale che: ∗ : X × X −→ X. Allora si dice che ∗ `e un’operazione su X.

Definizione: ¡ X, ∗¢

si dice gruppo se X `e un insieme e ∗ un’operazione su X che verifica 3 propriet`a:

1. Esistenza dell’elemento neutro: ∃e ∈ X t. c. a ∗ e = e ∗ a = a;

2. Esistenza dell’inverso: ∀a ∈ X ∃b ∈ X t.c. a ∗ b = b ∗ a = e;

3. Propriet`a associativa: ∀a, b, c ∈ X, (a ∗ b) ∗ c = a ∗ (b ∗ c).

Definizione: ¡ X, ∗¢

si dice gruppo commutativo (o abeliano) se `e un gruppo e vale la propriet`a com- mutativa: ∀a, b ∈ X , a ∗ b = b ∗ a.

Definizione: Sia X un insieme, + (detta somma) e · (detto prodotto) due operazioni su X. Allora si dice che¡

X, +, ·¢

`e un campo se valgono le seguenti propriet`a:

1. Esistenza dell’elemento neutro (detto 0) per la somma;

2. Esistenza dell’inverso per la somma;

3. Propriet`a associativa per la somma;

4. Propriet`a commutativa per la somma;

5. Esistenza dell’elemento neutro (detto 1) per il prodotto;

6. Propriet`a associativa per il prodotto;

7. Propriet`a distributiva: ∀a, b, c ∈ X, a·(b +c) = a·b +a·c, (a +b)·c = a·c +b·c (Conta l’ordine!);

8. Esistenza dell’inverso per il prodotto;

9. Propriet`a commutativa per il prodotto.

Definizione: ¡

X, +, ·¢

`e un anello se valgono le propriet`a 1 - 7 sopra elencate. ´E un anello commutativo se vale anche la propriet`a 9.

Definizione: ¡

X, +, ·¢

`e un corpo se valgono le propriet`a 1 - 8 sopra elencate.

(4)

Strutture algebriche

Definizione: ¡

V, +, ·, K¢

si dice spazio vettoriale se:

• V `e un insieme;

• K `e un campo;

• + `e una somma in V (+: V × V −→ V);

• ·: K × V −→ V (detto prodotto per scalare).

e valgono le seguenti propriet`a:

• (V, +) `e un gruppo commutativo;

• ∀α, β ∈ K, ∀v ∈ V, (αβ)v = α(βv);

• ∃1 ∈ K t. c. ∀v ∈ V 1 · v = v;

• ∀α, β ∈ K, ∀v ∈ V, (α + β)v = αv + βv;

• ∀α ∈ K, ∀v, w ∈ V, α(v + w) = αv + αw;

Spazi Vettoriali

Definiamo ora alcuni spazi vettoriali:

1) Sia K un campo, chiamiamo Kn= {(x1, x2, . . . , xn) | xi∈ K ∀i = 1, . . . , n}.

Definiamo + e · in questo modo:

(x1, x2, . . . , xn) + (y1, y2, . . . , yn)def= (x1+ y1, x2+ y2, . . . , xn+ yn),

∀(x1, x2, . . . , xn), (y1, y2, . . . , yn) ∈ Kn

a · (x1, x2, . . . , xn)def= (a · x1, a · x2, . . . , a · xn), ∀a ∈ K, ∀(x1, x2, . . . , xn) ∈ Kn

Notiamo innanzitutto che + e · sono ben definiti (poich`e si basano sulle propriet`a del campo K), e che, grazie a queste definizioni, otteniamo uno spazio vettoriale.

2) Sia K un campo, e sia

K[x] = {a0+ a1x + . . . + anxn | ai∈ K, ∀i = 1, . . . , n}

e siano + e · le due operazioni classiche sui polinomi (somma e prodotto tra polinomi). Si verifica che, con le definizioni date, K[x] `e un anello commutativo:

• Elemento neutro per la somma: il polinomio i cui coefficienti sono tutti uguali a zero;

• Inverso per la somma: polinomio con i coefficienti inversi;

• Elemento neutro per il prodotto: `e il polinomio 1 (tutti i coefficienti dei termini di grado superiore a zero sono zero);

• le altre propriet`a valgono perch`e i coefficienti sono in un campo;

Verifichiamo che non vale l’esistenza dell’inverso per il prodotto:

consideriamo due polinomi p(x) e q(x) entrambi diversi da zero di grado rispettivamente m e n e consi- deriamo il loro prodotto p(x) · q(x). In tal modo otteniamo un polinomio di grado m +n.

Se fosse, ad esempio, q = p−1, allora avremmo che p(x) · q(x) = 1. Ma ci`o ´e impossibile per polinomi che non siano costanti (i cui coefficienti dei termini di grado superiore a zero siano diversi da zero), in quanto essi avrebbero grado maggiore di zero (ovvero il grado di 1).

(5)

Strutture algebriche

· : K × K[x] −→ K[x]

(a, p(x)) 7−→ a · p(x) Si verifica che ´e uno spazio vettoriale.

3) Sia V spazio vettoriale su K e sia A un insieme qualsiasi. Sia F l’insieme delle applicazioni (funzioni) da A in V . (F, +, ·, K) ´e uno spazio vettoriale se definiamo + e · come segue:

∀f, g ∈ F , f + g : A −→ V ´e t. c.:

∀a ∈ A, (f + g)(a)def= f (a) + g(a)

∀f ∈ F , ∀λ ∈ K, λf : A −→ V ´e t. c.:

∀a ∈ A, (λf )(a)def= λf (a) 4) Sia K un campo. Definiamo:

M (p, q, K) = {matrici con p righe, q colonne con elementi in K}

Una Matrice ´e nella forma:

a11 · · · a1q

... . .. ...

ap1 · · · apq

dove aij ∈ K, ∀i = 1, . . . , p, ∀j = 1, . . . , q.

Sia A ∈ M (p, q, K):

Ai = i-esima riga;

Ai = i-esima colonna;

[A]ij = elemento di posto (i, j), dove i indica la riga e j la colonna;

0 ´e la matrice nulla ([0]ij = 0 ∀i, j)

A, B ∈ M (p, q, K), A = B ⇐⇒ [A]ij = [B]ij ∀i, j Definiamo + e · :

∀A, B ∈ M (p, q, K), [A + B]ij def

= [A]ij+ [B]ij ∀i, j

∀λ ∈ K, ∀A ∈ M (p, q, K), [λA]ij def

= λ[A]ij ∀i, j (M (p, q, K), +, ·, K) ´e uno spazio vettoriale:

• (M (p, q, K), +) ´e un gruppo abeliano:

1. 0 ´e l’elemento neutro;

2. esiste l’inverso: [A]ij+ (−[A]ij) = 0;

3. vale la propriet´a associativa:

[(A + B) + C]ij = [A + B]ij+ [C]ij = [A]ij+ [B]ij+ [C]ij = [A]ij+ [B + C]ij =

= [A + (B + C)]ij;

4. si verifica analogamente la commutativa;

• con metodi analoghi si verificano le altre propriet`a.

Proposizioni

Sia V uno spazio vettoriale:

1. lo 0 `e unico in V:

se ∃01, 02∈ V =⇒ 01= 01+ 02= 02 per gli assiomi;

2. ∀x ∈ V ∃! − x ∈ V

se ∃(−x)1, (−x)2∈ V inversi di x per somma =⇒ (−x)1= (−x)1+ x + (−x)2= (−x)2;

(6)

Strutture algebriche

3. ∀v ∈ V 0 · v = 0

0 · v = (0 + 0)v = 0 · v + 0 · v =⇒ 0 · v = 0;

4. se α · x = 0 =⇒ o α = 0 o x = 0 se α = 0, ok.

se α 6= 0 =⇒ ∃α−1∈ K t. c. α−1α = 1 =⇒ x = α−1αx = α−1· 0 = 0 =⇒ x = 0;

5. (−1)x = −x

x + (−1)x = (1 − 1)x = 0 · x = 0.

Sottospazi vettoriali

Definizione: V spazio vettoriale su K. W ⊂ V si dice sottospazio vettoriale di V se:

• 0 ∈ W ;

• ∀x, y ∈ W, x + y ∈ W ;

• ∀α ∈ K, ∀x ∈ W, αx ∈ W .

dove + e · in questo caso sono le restrizioni della somma e del prodotto su V a W .

Costruire sottospazi

Si pu´o fare prendendo alcuni vettori e il pi´u piccolo sottospazio che li contiene.

Sia V sp. vett. su K, v1, . . . , vn∈ V , c1, . . . , cn∈ K. Chiamiamo c1v1+ . . . + cnvn combinazione lineare di v1, . . . , vn. Chiamiamo poi:

span(v1, . . . , vn) = {c1v1+ . . . + cnvn | c1, . . . , cn∈ K}

tale insieme `e il pi´u piccolo sottospazio di V contenente v1, . . . , vn:

• contiene 0 (tutti i ci= 0);

• contiene vi ∀i = 1, . . . , n;

• (a1v1+ . . . + anvn) + (b1v1+ . . . + bnvn) = (a1+ b1)v1+ . . . + (an+ bn)vn

(la somma di due combinazioni lineari ´e ancora una combinazione lineare);

• lo stesso per il prodotto per scalare;

• ´e il pi´u piccolo per la definizione che ne abbiamo dato: in un sottospazio vettoriale ci devono stare v1, . . . , vn e le loro combinazioni lineari. Abbiamo imposto solo questo nella definizione di span(v1, . . . , vn).

Altri sottospazi

Sia V sp. vett. su K, U, W due sottospazi vettoriali di V. Allora U ∩ W `e un sottospazio vettoriale di V. Verifichiamolo:

• contiene 0 (sia U che W lo contengono);

• ∀x, y ∈ U ∩ W, x + y ∈ U ∩ W , infatti x e y appartengono sia ad U che a W . Essendo questi sottospazi, la somma de due vettori appartiene ancora ad entrambi, quindi alla loro intersezione;

• lo stesso per il prodotto per scalare.

Vogliamo costruire il pi´u piccolo sottospazio contenente U e W . Notiamo innanzitutto che U ∪ W non soddisfa la nostra ricerca, in quanto non `e chiuso per somma. Chiamiamo:

U + W = {u + w | u ∈ U, w ∈ W }

(7)

Strutture algebriche

Facciamo vedere che ´e il sottospazio che cercavamo:

• U ⊂ U + W : ∀u ∈ U, u ∈ U + W , perch´e u = u + 0 (con 0 ∈ W );

• W ⊂ U + W , per lo stesso motivo (con 0 ∈ U );

• 0 ∈ U + W : infatti 0 = 0 + 0;

• ∀u1, u2∈ U, ∀w1, w2∈ W =⇒ (u1+ w1) + (u2+ w2) = (u1+ u2) + (w1+ w2) ma (u1+ u2) ∈ U, (w1+ w2) ∈ W =⇒ (u1+ w1) + (u2+ w2) ∈ U + W ;

• ∀u ∈ U, ∀w ∈ W, ∀k ∈ K =⇒ k(u + w) = ku + kw ku ∈ U, kw ∈ W =⇒ k(u + w) ∈ U + W ;

• ´e il pi´u piccolo: se Z sottosp. vett. t. c. U ⊂ Z, W ⊂ Z=⇒ U + W ⊂ Z:?

∀ u + w ∈ U + W, u ∈ U, w ∈ W =⇒ u + w ∈ Z (poich´e ´e sottosp. vett.) =⇒ U + W ⊂ Z

Definizione: se U ∩ W = {0}, allora U + W si denota U ⊕ W e si dice che i due sottospazi sono in somma diretta tra loro.

Proposizione: in U ⊕ W ogni vettore si scrive in modo unico come: u + w, u ∈ U, w ∈ W . Dimostrazione: se ∃u1, u2∈ U, ∃w1, w2∈ W t. c. u1+ w1= u2+ w2=⇒ u1− u2= w1− w2.

Ma u1− u2∈ U, w1− w2∈ W =⇒ u1− u2∈ U ∩ W, w1− w2∈ U ∩ W .

Poich´e U ∩ W = {0}, u1− u2= 0, w1− w2= 0, e i vettori sono a due a due uguali.

Definizione: se U ´e sottospazio vett. di V , un sottospazio W di V si dice supplementare di U se U ⊕ W = V .

N.B.: Il supplementare non ´e unico.

(8)

Applicazioni Lineari, Sistemi Lineari

Siano V, W K-spazi vettoriali, e sia f : V −→ W un’applicazione. Si dice che f ´e un’applicazione lineare se soddisfa:

• ∀x, y ∈ V f (x + y) = f (x) + f (y);

• ∀α ∈ K, ∀x ∈ V f (αx) = αf (x).

Osservazione: Se f ´e lineare allora f (0) = 0.

Dimostrazione: f (0) = f (0 + 0) = f (0) + f (0) =⇒ f (0) = 0.

Definiamo la moltiplicazione tra due vettori (uno riga e uno colonna, entrambi con n elementi) e tra una matrice A ∈ M (p, n, K) e un vettore B ∈ Kn:

(a1. . . an) ·

b1

... bn

def= a1b1+ . . . + anbn= Xn i=1

aibi

a11 . . . a1n

... ... ap1 . . . apn

 ·

b1

... bn

def=

a11b1+ . . . + a1nbn

...

ap1b1+ . . . + apnbn

Osservazione: il vettore risultato della seconda moltiplicazione ´e un vettore C ∈ Kp Sia A ∈ M (p, n, K) e sia LA: Kn−→ Kp

X 7−→ AX

Si verifica che LA´e un’applicazione lineare. Tutte le applicazioni lineari sono infatti prodotte da un’op- portuna matrice.

Osservazione: A ∈ M (p, n, K), X ∈ Kn, A · X = x1A1+ . . . + xnAn

Proposizione: sia g : Kn −→ Kp lineare, siano e1 =

1 0 ... 0

, . . . , en =

0

... 0 1

(ossia ei ´e il vettore

formato da tutti 0, eccetto l’elemento i-esimo, uguale ad 1) e sia inoltre:

A =

 g(e1) . . . g(en)

. Allora g = LA.

Dimostrazione: ∀X ∈ Kn, g(X)= L? A(X):

Sapendo che A · X = x1A1+ . . . + xnAn, X = x1e1+ . . . + xnen e che g ´e lineare, allora:

LA(X) = AX = x1A1+ . . . + xnAn= x1g(e1) + . . . + xng(en) = g(x1e1) + . . . + g(xnen) =

= g(x1e1+ . . . + xnen) = g(X).

Nucleo e Immagine di un’applicazione lineare, Sistemi Lineari

(9)

Applicazioni Lineari, Sistemi Lineari

Kerf = {x ∈ V | f (x) = 0}

Imf = {y ∈ W | ∃x ∈ V t. c. f (x) = y}

Osservazione: f ´e surgettiva ⇐⇒ Imf = W Proposizione:

1. Kerf ´e un sottospazio vett. di V ; 2. Imf ´e un sottospazio vett. di W ; 3. f ´e iniettiva ⇐⇒ Kerf = {0}

Dimostrazione: :

1. • 0 ∈ Kerf , poich´e f (0) = 0;

• ∀x, y ∈ Kerf =⇒ x + y ∈ Kerf : f (x + y) = f (x) + f (y) = 0 + 0 = 0;

• ∀x ∈ Kerf, ∀α ∈ K =⇒ αx ∈ Kerf : f (αx) = αf (x) = α · 0 = 0.

2. • 0 ∈ Imf , poich´e f (0) = 0;

• ∀z, w ∈ Imf, ∃x, y ∈ V t. c. z = f (x), w = f (y) =⇒ z + w = f (x) + f (y) =

= f (x + y) =⇒ z + w ∈ Imf ;

• ∀z ∈ Imf, ∃x ∈ V t. c. z = f (x) =⇒ ∀α ∈ K, αz = αf (x) = f (αx) =⇒ αz ∈ Imf . 3. =⇒: Sappiamo che {0} ⊂ Kerf . Facciamo vedere che Kerf ⊂ {0}.

Sia x ∈ Kerf =⇒ f (x) = 0 = f (0). Poich´e f ´e iniettiva: f (x) = f (0) ⇐⇒ x = 0

⇐=: Facciamo vedere che se f (x) = f (y) ⇐⇒ x = y

f (x) − f (y) = f (x − y) = 0 =⇒ x − y ∈ Kerf =⇒ x − y = 0, x = y Analogamente: KerLA= {X ∈ Kn | AX = 0}.

Risoluzione di sistemi lineari

Definizione: Si dice sistema lineare di p equazioni in n incognite x1, . . . , xn un sistema nella forma:

a11x1+ a12x2+ . . . + a1nxn = b1

a21x1+ a22x2+ . . . + a2nxn = b2

. . .

ap1x1+ ap2x2+ . . . + apnxn= bp

tale che aij ∈ K, bk∈ K.

Definizione: (y1, . . . , yn) ∈ Kn ´e una soluzione di un sistema lineare se ´e soluzione di tutte le equazioni che lo compongono. Risolvere un sistema lineare vuol dire trovare tutte le soluzioni.

Definizione: due sistemi lineari si dicono equivalenti fra loro se hanno le stesse soluzioni.

Dedichiamoci ora alla risoluzione dei sistemi lineari. Prima osserviamo che:

Osservazione: i sistemi a scalini sono semplici da risolvere. Essi sono nella forma:

a11x1+ a12x2+ a13x3+ . . . + a1nxn= b1

a22x2+ a23x3+ . . . + a2nxn= b2

. . .

appxp+ . . . + apnxn= bp

Chiamiamo aii6= 0 pivot.

E importante che le incognite calino scendendo nel sistema: ´e possibile, in tale situazione, risolvere l’ul-´ tima equazione ricavando xp= a−1pp(bp− ap,p+1xp+1− . . . − apnxn), sostituire la variabile ricavata nella precedente equazione e iterare il processo fino ad arrivare alla prima equazione.

(10)

Applicazioni Lineari, Sistemi Lineari

Osservazione: : Eseguendo su un sistema lineare le seguenti operazioni elementari si ottiene un sistema ad esso equivalente:

1. scambiare due equazioni (l’ordine non conta);

2. moltiplicare un’equazione per α ∈ K, α 6= 0;

3. sommare ad una equazione un multiplo di un’altra.

Possiamo vedere un sistema lineare anche nella forma:

a11 . . . a1n

... ... ap1 . . . apn

x1

... xn

 =

b1

... bn

dove la matrice appartiene a M (p, n, K) ed ´e detta matrice dei coefficienti.

Osservazione: AX = B ´e risolubile ⇐⇒ ∃Y ∈ Kn t. c. AY = B ⇐⇒ B ∈ ImLA. Se LA´e surgettiva il sistema ´e sempre risolubile (esiste sempre Y t. c. AY = B).

Se LA ´e iniettiva il sistema ha un’unica soluzione (se esiste Y soluzione, ´e unica: LA(X) = LA(Y ) ⇐⇒

X = Y ).

Un sistema a scalini ´e rappresentato da una matrice a scalini.

Ci preoccupiamo ora di trasformare una matrice in una a scalini. Per far questo possiamo usare le seguenti operazioni elementari per riga (che altro non sono che le operazioni elementari sopra citate):

1. scambiare due righe;

2. moltiplicare una riga per α ∈ K, α 6= 0 (Ai → αAi);

3. sommare ad una riga un multiplo di un’altra (Ai→ Ai+ βAj).

Algoritmo di Gauss

Cominciamo con un esempio: µ

1 2 4

2 −1 3

=

½ x + 2y = 4 2x − y = 3

Se la prima colonna ´e non nulla, guardo l’elemento [A]11. Se ´e 0, scambio due righe portando al primo posto una riga il cui primo elemento ´e diverso da 0. A questo punto (nel nostro esempio) A2→ A2− 2A1:

µ 1 2 4

0 −5 −5

Faccio in modo che sotto al primo pivot non rimangano che 0, quindi itero il procedimento considerando il secondo pivot (l’elemento di posto [A]22) senza toccare pi´u la prima riga.

Enunciamo ora l’algoritmo di Gauss per ridurre una matrice A a scalini utilizzando le operazioni per riga:

1. sia j1il minimo intero t. c. Aj1 6= 0 (prendo la prima colonna non nulla);

2. a meno di scambiare due righe posso supporre che [A]1j16= 0;

3. ∀i > 1 sostituisco Ai → Ai− ([A]−11j1· [A]ij1) · A1;

4. itero il procedimento sulla sottomatrice ottenuta scartando la prima riga e le prime j1colonne.

Esempio:

1 2 3 0

1 2 4 −3

2 1 0 1

 →

1 2 3 0

0 0 1 −3

0 −3 −6 1

 →

1 2 3 0

0 −3 −6 1

0 0 1 −3

(11)

Applicazioni Lineari, Sistemi Lineari

2. Ogni sistema AX = B ´e equivalente ad un sistema a scalini (cio´e ad A1X = B1 con (A1|B1) a scalini).

Osservazione: se AX = B ´e un sistema equivalente a SX = T , dove (S | T ) ´e a scalini:

• il sistema ´e risolubile ⇐⇒ numero di pivots di S = numero di pivots di (S | T );

• se ´e risolubile, ricavo r variabili in funzione di n − r parametri.

Prodotto di Matrici

Siano f e g due applicazioni lineari tale che:

Kn −→ Kf p−→ Kg q

con f (X) = AX e g(X) = BX, dove A ∈ M (p, n, K), B ∈ M (q, p, K).

Osservazione: La composizione di due applicazioni lineari ´e lineare:

• (g ◦ f )(x + y) = g¡

f (x + y)¢

= g¡

f (x) + f (y)¢

= g¡ f (x)¢

+ g¡ f (y)¢

= (g ◦ f )(x) + (g ◦ f )(y);

• (g ◦ f )(αx) = g¡ f (αx)¢

= g¡ αf (x)¢

= αg¡ f (x)¢

= α(g ◦ f )(x).

Anche (g ◦ f ) deve essere indotta da una matrice: ∃C ∈ M (q, n) t. c. (g ◦ f )(X) = CX ∀X ∈ Kn. Per capire come la matrice C derivi dalle matrici A e B, calcoliamo l’elemento di posto j nel vettore (g ◦ f )(X) ∈ Kq. Utilizziamo la notazione [(g ◦ f )(X)]j1in quanto vediamo il vettore come una matrice con q righe e 1 colonna.

Ricordiamo inoltre che data una matrice A ∈ M (p, n, K) e un vettore X ∈ Kn:

[AX]i1= Xn k=1

¡[A]ik· [X]k1

¢

[(g◦f )(X)]j1= [B(AX)]j1= Xp h=1

[B]jh·[AX]h1= Xp h=1

[B]jh· Xn i=1

¡[A]hi·[X]i1

¢= Xn i=1

à p X

h=1

[B]jh· [A]hi

!

·[X]i1

Dunque se B · A ∈ M (q, n) allora:

[AX]ji= Xp h=1

[B]jh· [A]hi= Bj· Ai

Poich´e si moltiplica la j-esima riga di B per la i-esima colonna di A, tale prodotto viene detto: prodotto riga per colonna.

Osservazione: non sempre due matrici sono moltiplicabili: abbiamo visto che la prima deve avere un numero di colonne pari al numero di righe della seconda.

Si verifica che, nei casi in cui il prodotto ha senso:

• (AB)C = A(BC)

• (λA)B = λ(AB)

• (A + B)C = AC + BC

• A(B + C) = AB + AC

• IpA = AIq = A, ∀A ∈ M (p, q), In ∈ M (n, n) t. c. [In]ii = 1, [In]ji= 0 j 6= i

La matrice In, detta matrice identica ´e nella forma:

1 0

. ..

0 1

(12)

Applicazioni Lineari, Sistemi Lineari

Ci restingiamo ora al caso delle matrici quadrate, ossia quelle in cui il numero di righe e di colonne ´e lo stesso. Le indichiamo con M (n). Consideriamo¡

M (n), +, ·¢

, con · restrizione del prodotto fra matrici all’insieme delle matrici quadrate. Esso ´e un anello non commutativo.

Facciamo vedere con un esempio che non vale le propriet´a commutativa:

µ 1 2 3 1

·

µ 2 −1

0 3

=

µ 2 5 6 0

µ 2 −1

0 3

·

µ 1 2 3 1

=

µ −1 3 9 3

Dimostriamo che non esiste l’inverso per tutti gli elementi dell’anello (e dimostriamo quindi che ´e effet- tivamente un anello e non un corpo).

Consideriamo la matrice

µ 1 1 0 0

6= 0 e facciamo vedere che non esiste nessuna matrice che, moltipli- candola a destra, ci dia la matrice identit´a:

µ 1 1 0 0

·

µ a b c d

=

µ a + b c + d

0 0

=

µ 1 0 0 1

Ne ricaviamo un assurdo, poich´e abbiamo 0 = 1.

Definizione: sia A un anello, a ∈ A, a 6= 0 si dice divisore di zero se ∃b ∈ A, b 6= 0 t. c. a · b = 0.

Osservazione: un campo e un corpo non contengono divisori di 0 (a causa dell’esistenza dell’inverso).

Facciamo vedere che l’anello considerato contiene divisori di 0:

µ 1 0 0 0

·

µ 0 0 1 1

=

µ 0 0 0 0

Definizione: A ∈ M (n) si dice nilpotente se ∃m ∈ N t. c. Am= 0.

La seguente matrice ´e nilpotente:

µ 0 1 0 0

·

µ 0 1 0 0

=

µ 0 0 0 0

(13)

Dimensione e base di uno spazio vettoriale

Definizione: V spazio vettoriale si dice finitamente generato se ∃v1, . . . , vn t. c. V = span(v1, . . . , vn), cio´e

∀v ∈ V ∃c1, . . . , cn∈ K t. c. v = Xn

i=1

civi

.

Osservazione: R[x] non ´e finitamente generato. Se p1(x), . . . , pm(x) fossero generatori, detto s = max deg¡

pi(x)¢

, ∀i = 1, . . . , m, non si potrebbero ottenere polinomi di grado maggiore ad s.

Definizione: v1, . . . , vn ∈ V si dicono linearmente indipendenti se l’unica combinazione lineare nulla dei vi ´e quella con i coefficienti tutti nulli. Ossia:

c1v1+ . . . + cnvn= 0 ⇐⇒ c1= . . . = cn= 0

Definizione: {v1, . . . , vn} si dice base di V se sono generatori di V e linearmente indipendenti.

Esempi:

{e1, . . . , en} sono una base di Kn

{1, x, . . . , xd} sono una base di Kd[x], ossia il sottospazio vettoriale di K[x] contenente i polinomi di grado minore o uguale a d.

Osservazione: v ∈ V ´e linearmente indipendente =⇒ v 6= 0.

Proposizione: se uno almeno fra v1, . . . , vk ´e nullo =⇒ v1, . . . , vk sono linearmente dipendenti;

Dimostrazione: se v1= 0 =⇒ v1+ 0 · v2+ . . . + 0 · vn= 0, ma il primo coefficiente ´e non nullo.

Proposizione: Sia k ≥ 2. v1, . . . , vk sono linearmente indipendenti ⇐⇒ almeno uno di essi ´e combina- zione lineare degli altri.

Dimostrazione:

=⇒: ∃α1, . . . , αk∈ K non tutti nulli t. c. α1v1+ . . . + αkvk = 0.

Se per esempio: α16= 0 =⇒ α1v1= −(α2v2+ . . . + αkvk) =⇒ v1= −α−11 2v2+ . . . + αkvk). Cio´e v1 ´e combinazione lineare degli altri vettori.

⇐=: Se v1= b2v2+ . . . + bkvk=⇒ v1− b2v2− . . . − bkvk= 0, ossia sono linearmente dipendenti.

Osservazione: v1, . . . , vk sono vettori linearmente indipendenti e m ≤ k =⇒ v1, . . . , vm sono linear- mente indipendenti.

Osservazione: se vp∈ span(v1, . . . , vp−1) =⇒ span(v1, . . . , vp) = span(v1, . . . , vp−1).

Proposizione: Se B = {v1, . . . , vm} ´e una base di V , allora ogni v ∈ V si scrive in modo unico come:

v = a1v1+ . . . + amvm. a1, . . . , am si dicono coordinate di v rispetto alla base B e si scrive [v]B. Dimostrazione:

Se v = a1v1+ . . . + amvm= b1v1+ . . . + bmvm=⇒ (a1− b1)v1+ . . . + (am− bm)vm= 0.

Essendo v1, . . . , vmlinearmente indipendenti: ai− bi= 0 ∀i = 1, . . . , m =⇒ ai= bi ∀i = 1, . . . , m.

In uno spazio Kn le componenti di un vettore coincidono con le coordinate, se si una la base canonica C = {e1, . . . , en}.

(14)

Dimensione e base di uno spazio vettoriale

Fissare B base di V significa fissare l’applicazione: [ ]B: V −→ Kn. Verifichiamo che l’applicazione [ ]B´e lineare:

• [ ]B(v + w)= [ ]? B(v) + [ ]B(w)

v = a1v1+ . . . + anvn, w = b1v1+ . . . + bnvn=⇒ v + w = (a1+ b1)v1+ . . . + (an+ bn)vn

[v + w]B=

a1+ b1

... an+ bn

 =

a1

... an

 +

b1

... bn

 = [v]B+ [w]B;

• allo stesso modo per il multiplo.

[ ]B´e iniettiva: se v ∈ Ker[ ]B=⇒ [v]B=¡

0, . . . , 0¢

=⇒ v = 0 · v1+ . . . + 0 · vn. [ ]B´e surgettiva: ∀¡

c1, . . . , cn

¢∃v ∈ V t. c. [v]B =¡

c1, . . . , cn

¢, basta prendere v = c1v1+ . . . + cnvn.

Definizione: un’applicazione lineare inettiva e surgettiva si dice isomorfismo.

Definizione: quando tra due spazi vettoriale c’´e un isomorfismo si dicono isomorfi.

Teorema: sia {v1, . . . , vn} una base di V , e siano w1, . . . , wp p vettori di V . Se p > n =⇒ w1, . . . , wp

sono linearmente dipendenti.

Dimostrazione: Essendo {v1, . . . , vn} una base posso scrivere w1, . . . , wp come loro combinazioni li- neari:

w1= a11v1+ . . . + an1vn

w2= a12v1+ . . . + an2vn

...

wp= a1pv1+ . . . + anpvn

Cerco α1, . . . , αp non tutti nulli t. c. α1w1+ . . . + αpwp= 0:

0 = α1w1+ . . . + αpwp= α1(a11v1+ . . . + an1vn) + . . . + αp(a1pv1+ . . . + anpvn) =

= (a11α1+ . . . + a1pαp)v1+ . . . + (an1α1+ . . . + anpαp)vn

Ma v1, . . . , vn sono tutti linearmente indipendenti, quindi una loro combinazione lineare nulla si ot- tiene sono se i coefficienti sono tutti nulli, cio´e se:

a11α1+ . . . + a1pαp= 0 ...

an1α1+ . . . + anpαp= 0

Quindi (α1, . . . , αp) devono essere soluzioni del sistema lineare omogeneo (i cui termini noti sono tutti nulli) la cui matrice associata ´e:

a11 . . . a1p

... ... an1 . . . anp

 ∈ M (n, p)

Sappiamo che un sistema omogeneo ha sempre soluzione (almeno la soluzione nulla), ma ci interessa che ne abbia almeno un’altra non nulla. Osserviamo che il numero di pivot ´e al pi´u n, ma n < p, quindi esiste almeno un’altra soluzione (α1, . . . , αp) non nulla.

Corollario: se B = {v1, . . . , vn} e S = {w1, . . . , wp} sono due basi di V =⇒ n = p

Dimostrazione: dal teorema n ≥ p, ma anche p ≥ n, poich´e sono entrambe basi =⇒ n = p

Definizione: se V ammette una base B = {v1, . . . , vn}, si dice che V ha dimensione n e si indica dimV = n¡

per convenzione si pone dim© 0ª

= 0¢ . Proposizione: sia V 6=©

0ª

. Da ogni insieme finito di generatori ´e possibile estrarre una base di V (ogni spazio vettoriale finitamente generato ammette una base).

Riferimenti

Documenti correlati

Dato che per ridurre una matrice a scala occorre eseguire delle operazioni che non sono determinate a priori dalla matrice stessa, in quanto comportano una scelta di coefficienti

Data una matrice A, si chiama minore della matrice A una sotto-matrice quadrata, cio` e una matrice che si ottiene da A cancellando alcune righe (anche nessuna) ed alcune colonne

Corso di Laurea in Ingegneria Elettrica, Elettronica ed

Correzione prova intermedia di Matematica Applicata 14 novembre 2011. Compito numero

Diciamo che la coppia (a, b) ` e “destrorsa” se ` e possibile appoggiare il dorso della mano destra sul piano in modo che il pollice e l’indice siano rispettivamente sulla semiretta a

Per quali valori del parametro t il sistema ha una ed una sola soluzione?. Per tali valori, si determini

Un’analisi sofisticata mostra che, genericamente, una matrice quadrata di ordine n ad elementi reali o piu’ in generale complessi, possiede nel campo complesso n autovalori

[r]