Appunti di Matematica Discreta - dispensa 2
Giuseppe Sollazzo
Indice
1 Strutture algebriche fondamentali 4
1.1 Generalit`a . . . 4
1.1.1 Propriet`a . . . 4
1.2 Il gruppo (Kn, +) . . . . 4
1.2.1 Somma di n-ple . . . 5
1.2.2 Prodotto per scalari . . . 5
1.3 Potenza . . . 5
1.4 Il monoide (AA, ◦) . . . . 6
2 Strutture geometriche 7 2.1 La retta e le operazioni ad essa associate . . . 7
2.2 Il piano . . . 8
2.3 Spazi vettoriali . . . 8
2.3.1 Propriet`a degli spazi vettoriali . . . 8
2.4 Sottospazi . . . 9
2.4.1 Teoremi sui sottospazi . . . 10
2.5 Variet`a lineari . . . 12
2.5.1 Alcune definizioni sulle variet`a lineari . . . 12
2.6 Spazi finitamente generati . . . 13
2.6.1 Combinazione lineare . . . 13
2.6.2 Spazio delle combinazioni lineari Span . . . 13
2.7 Spazi finitamente generati . . . 13
2.7.1 Propriet`a degli spazi finitamente generati (Teorema) . . . 14
2.7.2 Dipendenza e indipendeza lineare . . . 15
2.7.3 Insiemi di generatori - Teoremi - Il metodo degli scarti successivi . . . 15
2.8 Basi e dimensione . . . 17
2.8.1 La relazione di Grassmann (teorema) . . . 18
2.8.2 Componenti rispetto a una base . . . 19
2.8.3 La base canonica . . . 19
2.8.4 Dimensione di una variet`a lineare . . . 20
2.8.5 Variet`a intersezione e congiungente . . . 21
3 Matrici 22 3.1 Matrice ridotta . . . 22
3.1.1 Ridurre una matrice . . . 22
3.1.2 Sottomatrice e orlata . . . 23
Capitolo 1
Strutture algebriche
fondamentali
1.1
Generalit`
a
Possiamo definire alcune strutture fondamentali. Ad esempio, definiamo queste due operazioni:
∗ : A × B −→ A · : A × B −→ A
Si considera strutturato il codominio: (A, ∗), (A, ·).
Si dice che A `e una struttura su B o che A `e una B-struttura.
Consideriamo un campo K dove K `e uno degli insiemi N, Z, Q, R, C, Zm. Noi
studieremo gli spazi vettoriali V, che sono dei gruppi abeliani che sono anche K-strutture.
1.1.1
Propriet`
a
Valgono le seguenti propriet`a: 1. ∀v ∈ V : 1 · v = v
2. ∀a, b ∈ K, ∀v ∈ V : a(bv) = (ab)v
3. ∀a ∈ K, ∀v1, v2∈ V : a(v1+ v2) = av1+ av2 4. ∀a, b ∈ K, ∀v ∈ V : (a + b)v = av + bv
1.2
Il gruppo (K
n, +)
Kn, per n ≥ 1 intero, `e l’insieme delle n-ple ordinate di elementi di K e quindi
un suo elemento X `e della forma (x1, x2, . . . , xi, . . . , xn) dove x1si chiama prima componente, xi`e la componente i-esima, xn la componente n-esima.
1.3. POTENZA 5
1.2.1
Somma di n-ple
La somma di n-ple viene cos`ı definita: + : Kn× Kn −→ Kn.
Quindi, date due n-ple X = (x1, x2, . . . , xi, . . . , xn) e Y = (y1, y2, . . . , yi, . . . , yn),
la n-pla somma `e la seguente:
X + Y = (x1+ y1, x2+ y2, . . . , xi+ yi, . . . , xn+ yn)
Vogliamo ora dimostrare che la struttura (Kn, + `e un gruppo abeliano.
Ver-ifichiamo dunque se valgono le propriet`a di un gruppo abeliano:
(i) (X + Y ) + Z = X + (Y + Z): la dimostrazione `e immediata perch`e la somma si effettua componente per componente ottenendo (xi+ yi) + zy =
xi+(yi+zi), dove le componenti appartengono a K, dove vale la propriet`a
associativa.
(ii) X + Y = Y + X: per lo stesso motivo, anche questa propriet`a `e verificata (iii) ∃0 = (0, 0, . . . , 0, . . . , 0), elemento neutro tale che X + 0 = X: stesso
discorso
(iv) esistenza dell’opposto: si tratta delle componenti cambiate di segno in quanto: X + (−X) = 0 (dimostrabile con lo stesso criterio)
1.2.2
Prodotto per scalari
Il prodotto per scalari `e un’operazione cos`ı definita:
· : K × Kn −→ Kn. Il prodotto si ottiene moltiplicando per un intero, tutte le
componenti della n-pla:
aX = (ax1, . . . , axi, . . . , axn). Anche in questo caso valgono le propriet`a della
moltiplicazione, e si nota che se n = 1, il prodotto in Kn equivale al prodotto
in K.
1.3
Potenza
Sia (G, ·) un semigruppo e sia a ∈ G un suo elemento, si chiama potenza n-esima di a l’elemento cos`ı definito:
∀n ∈ N − 0 an= an−1· a se n > 0 1G se n = 0 (a−1)−n se n < 0
Tutto questo in notazione moltiplicativa, invece in notazione additiva, con-siderando la struttura (G, +) abbiamo la seguente definizione:
6 CAPITOLO 1. STRUTTURE ALGEBRICHE FONDAMENTALI Valgono le seguenti propriet:
Se (G, ·) `e un gruppo (o (G, +) un gruppo commutativo), e a, b ∈ G, si ha: • (an)m= anm oppure m(na) = (nm)a
• anam= an+moppure na + ma = (n + m)a
Se (G, ·) `e un gruppo commutativo, o meglio ab = ba, allora: • ambm= (ab)m oppure ma + mb = m(a + b)
1.4
Il monoide (A
A, ◦)
Definiamo AA l’insieme di tutte le applicazioni f : A −→ A, e l’operazione di
composizione di applicazioni ◦ : AA× AA−→ AA.
La struttura (AA, ◦) `e un monoide perch`e l’operazione `e associativa ed esiste
l’elemento neutro rappresentato dall’applicazione identica, tale che iA(x) = x.
Ovviamente non vale la propriet`a commutativa. Definite le due funzioni f : A −→ A e g : A −→ A
Sapendo che A ⊂ K, consideriamo KA= {f : A −→ K}.
Consideriamo ora la struttura algebrica (KA, +) e le due funzioni f : A −→ K
e g : A −→ K.
Allora valgono le seguenti propriet`a di somma e prodotto di funzioni: • f + g : A −→ K dove ∀x ∈ A : (f + g)(x) = f (x) + g(x)
• f · g : A −→ K dove ∀x ∈ A : (f · g)(x) = f (x) · g(x)
L’anello (KA, +, ·) `e un anello commutativo con unit`a in quanto `e
Capitolo 2
Strutture geometriche
2.1
La retta e le operazioni ad essa associate
Data una retta r consideriamo l’insieme V =segmenti di r orientati aventi il primo estremo in comune.
L’addizione `e cos`ı definita: + : V × V −→ V , e si scrive OP + OQ = OR. Cio`e la somma dei segmenti OP e OQ `e data dal segmento OR cos`ı definito:
1. se P e Q stanno in una stessa semiretta rispetto al punto O, allora ||OR|| = ||OP || + ||OQ||1.
2. se P e Q stanno in semirette opposte rispetto al punto O allora
(a) ||OP || ≥ ||OQ|| allora R sta nella stessa semiretta di P e ||OR|| = ||OP || − ||OQ||.
(b) ||OQ|| ≥ ||OP || allora R sta nella stessa semiretta di Q e ||OR|| = ||OQ|| − ||OR||.
La struttura (V, +) `e un gruppo abeliano.2
Il prodotto di un numero per un segmento `e cos`ı definito: · : R × V −→ V in cui ∀a ∈ R : a · OP = OR, ||OR|| = |a| · ||OP || dove se a ≥ 0 allora R `e nella stessa semiretta di P , altrimenti `e nella semiretta opposta.
Valgono le seguenti propriet`a: 1. 1 · OP = OP
2. a(bOP ) = (ab)OP 3. (a + b)OP = aOP + bOP 4. a(OP + OA) = aOP + aOA
La retta `e uno spazio vettoriale.
1Il simbolo ||a|| indica la lunghezza del segmento a.
2La verifica delle prime tre propriet`a `e banale, mentre la verifica dell’associativit`a richiede
l’esame dei vari casi.
8 CAPITOLO 2. STRUTTURE GEOMETRICHE
2.2
Il piano
Consideriamo l’insieme di segmenti del piano invece che della retta. Allora le operazioni saranno definite in modo analogo.
L’operazione somma + : V × V −→ V associa alla coppia (OP, OQ) di segmenti di V il segmento OR = OP + OQ determinato come segue:
1. se i punti O, P, Q sono sulla stessa retta, allora OR si ottiene come nel-l’addizione in una retta
2. se i punti O, P, Q sono su rette diverse allora OR `e dato dalla regola del parallelogramma ossia OR `e la diagonale del parallelogramma di vertici consecutivi P, O, Q, R.
2.3
Spazi vettoriali
Consideriamo l’insieme V, il campo K e le operazioni somma + : VtimesV −→ V e
prodotto per scalari · : KtimesV −→ V.
v si definisce K-spazio vettoriale se valgono le seguenti affermazioni: (i) (V, +) `e un gruppo abeliano
(ii) Si hanno le seguenti propriet`a: (a) 1 · v = v, ∀v ∈ V
(b) a · (b · b) = (a · b) · v, ∀v ∈ V, ∀a, b ∈ K (c) a · (v1+ v2) = av1+ av2, ∀v1, v2∈ V, ∀a ∈ K (d) (a + b) · v = av + bv, ∀v ∈ V, ∀a, b ∈ K
2.3.1
Propriet`
a degli spazi vettoriali
Per gli spazi vettoriali valgono le seguenti propriet`a:
1. Legge di annullamento: a · X = 0Vssea = 0 ∨ X = 0V3
Dimostriamo che (i) se a = 0 allora 0·X = 0V, ∀X ∈ V e che (ii) se X = 0
allora a·0V = 0V, ∀a ∈ K. Inoltre (iii) dimostriamo l’implicazione inversa:
(i) Sviluppiamo l’uguaglianza: 0 · X = (0 + 0) · X = 0 · X + 0 · X. Ottenuto questa uguaglianza, dato che in (V, +) vale la propriet`a commutativa, possiamo aggiungere o sottrarre ad entrambi i membri una stessa quantit`a ottenendo:
0 · X − 0 · X = (0 · X + 0 · X) − 0 · X che, applicando la propriet`a associativa al secondo membro, diventa: 0 · X − 0 · X = 0 · X + (0 · X − 0 · X): abbiamo ad entrambi i membri due differenze di numeri opposti, che ci danno il risultato 0V = 0 · X + 0V4.
Per cui, 0V = 0 · X c.v.d
3Dove a `e uno scalare (cio`e un numero), X `e un vettore, 0 `e l’elemento neutro del campo
K e 0V `e l’elemento neutro dello spazio vettoriale.
2.4. SOTTOSPAZI 9 (ii) Sviluppiamo l’uguaglianza: a · 0V = a · (0V + 0V) = a · 0V + a · 0V.
Dalla teoria, sappiamo che esiste l’elemento −(a · 0V) cio`e l’opposto
dell’elemento a · 0V.
Dunque, come nel caso precedente: a·0V−a·0V = a·0V+(a·0V−a·0V)
e dunque 0V = a · 0V c.v.d.
(iii) Dimostriamo quindi che a · X = 0V ⇒ a = 0 ∨ X = 0V.
Dunque speculiamo sul valore di a. Se sappiamo che a = 0 ovviamente ci fermiamo perch`e non c’`e nulla da dimostrare. Per cui supponiamo a 6= 0. Sappiamo che per a ∈ K∃a−1∈ K.
Moltiplichiamo entrambi i membri per questo elemento, che `e l’in-verso di a: a−1 · (aX) = a−1 · 0
V che per associativit`a diventa
(a−1a)X = 0
V cio`e 1X = 0V che `e possibile se e solo se X = 0V
c.v.d.
2. (−a)X = a(−X) = −(aX) e in particolare (−1)X = −X5
Dimostriamo (i) che (−a)X + aX = 0V6e che analogamente (ii)a(−X) +
aX = 0V.
(i) per la propriet`a 4 (−a)X + aX = (−a + a)X = 0X = 0V
(ii) per la propriet`a 3 a(−X) + aX = a(−X + X) = a0V = 0V
Esempi di spazi vettoriali
Kn `e uno spazio vettoriale, come pure Km,n cio`e lo spazio delle matrici. KA
`e uno spazio vettoriale chiamato spazio delle applicazioni. Altri spazi sono la retta, il piano, e KK.
2.4
Sottospazi
Supponiamo W ⊆ V. Si dice che W `e un sottospazio di V se `e un K-spazio vettoriale rispetto alle operazioni di V.
Teorema 1 Sia V un K-spazio vettoriale e W 6= ® un sottoinsieme di V. Allora sono equivalenti le seguenti affermazioni:
1. W `e un sottospazio di V 2. Si ha: I) ∀w, w0 ∈ W ⇒ (w + w0) ∈ W II) ∀a ∈ K, ∀w ∈ W ⇒ (a · w) ∈ W III) 0V∈ W7 3. ∀a, b ∈ K, ∀w, w0∈ W ⇒ (aw + bw0) ∈ W
In ongi spazio vettoriale ci sono almeno 2 sottospazi: 0 e lo spazio stesso, che sono due sottospazi impropri.
5Quindi il segno − pu`o essere interpretato come −1. 6Perch`e (-a)X=-(aX)
10 CAPITOLO 2. STRUTTURE GEOMETRICHE Consideriamo ora A ⊆ V e B ⊆ V. Si definisce A + B l’insieme costituito da tutte le possibili somme di un elemento di A con un elemento di B: A + B = v ∈ V | ∃v1∈ A, ∃v2∈ Btalichev = v1+ v2. Se A = x0 cio`e `e un solo vettore, allora basta scrivere x0+ B.
2.4.1
Teoremi sui sottospazi
Teorema 1 Sia V un K-spazio vettoriale e siano W1, W2 due sottospazi. Si ha che:
1. W1∪ W2 non `e mai un sottospazio a meno che uno dei due non contenga l’altro.
2. W1∩W2`e sempre un sottospazio (male che vada, conterr`a il vettore nullo) ed `e il pi`u grande sottospazio contenuto in emntrambi W1, W2.
3. W1+ W2 `e sempre un sottospazio, anzi `e il pi`u piccolo sottospazio che contiene W1, W2.8
Dimostrazione della propriet`a 3.
Sfruttiamo la propriet´a 3 dei sottospazio: Sia W = W1+ W2. Dimostriamo che W `e un sottospazio (i) e che `e il pi`u piccolo.
∀a, b ∈ K, ∀w, w0 ∈ W ⇒ aw + bw0∈ W .
w ∈ W significa che ∃w1∈ W1, ∃w2∈ W2tali che w1+ w2= w w0∈ W significa che ∃w0
1∈ W1, ∃w02∈ W2 tali che w01+ w02= w0 Dimostrare che aw + bw0∈ W significa quindi dimostrare che ∃X
1∈ W1, ∃X2∈ W2 tali che X1+ X2= aw + bw0.
Quindi aw + bw0= a(w
1+ w2) + b(w01+ w20) = aw1+ bw10+ aw2+ bw02da cui i primi due termini sono X1∈ W1 mentre terzo e quarto termine sono X2∈ W2. Per cui, `e stata dimostrata l’esistenza di X1eX2 com’era richiesto.
Consideriamo ora Kn,n>1e W , l’insieme delle soluzioni dell’equazione di tipo
a1x1 + · · · + aixi + · · · + anxn = 0. Tale equazione si chiama equazione di
W . Dobbiamo dimostrare che W `e un sottospazio. Se tutte le ai sono uguali
a 0, allora si ha un’identit`a per cui tutte le n-ple sono soluzioni. Altrimenti dobbiamo dimostrare che:
∀Y = y1 .. . yi .. . yn ∈ W
8Cio`e ogni sottospazio che contiene entrambi i sottospazi, ne contiene necessariamente la
2.4. SOTTOSPAZI 11 ∀Z = z1 .. . zi .. . zn ∈ W
Ecco la n-pla ∀a, b ∈ K:
aY + bZ = ay1+ bz1 .. . ayi+ bzi .. . ayn+ bzn Quindi abbiamo : aY ∈ W ⇐⇒ a1y1+ · · · + a1y1+ · · · + anyn e
bZ ∈ W ⇐⇒ b1z1+ · · · + b1z1+ · · · + bnzn dobbiamo verificare che valga la
seguente implicazione:
aY + bZ ∈ W ⇐⇒ a1(ay1+ bz1) + · · · + ai(ayi+ bzi) + · · · an(ayn+ bzn) = 0
che, mettendo in evidenza la a e la b diventa:
a(a1y1+ · · · + aiyi+ · · · + anyn) + b(b1z1+ · · · + bizi+ · · · + bnzn) ma entrambi
i termini tra parentesi sono, per ipotesi, uguali a 0, dunque: a · 0 + b · 0 = 0 c.v.d.
Invece, se n = 1 siamo in K dunque non ci sono sottospazi propri per la propriet`a II (comunque si prendano elementi 6= 0, ci sono tutti i numeri in K).
Ovviamente possiamo avere pi`u di un sottospazio: indichiamo cos`ı W1= a11x1+ · · · .. . Wj= aj1x1+ · · · .. . Wm= am1z1+ · · ·
oppure, in forma matriciale, scrivendo AX = 0. Ogni soluzione di un sistema di equazioni lineari omogenee `e un sottospazio.
KK `e uno spazio vettoriale, mentre K[X] `e un suo sottospazio che rappre-senta l’insieme di tutti i polinomi nell’incognita X. Per indicare l’insieme dei polinomi di grado ≤ m si scrive Km[X].
Se consideriamo una retta, essa non ha sottospazi proprio, infatti se consideri-amo il sottospazio W e un punto P 6= 0, dove P ∈ W allora W contiene tutti gli altri punti della retta.
12 CAPITOLO 2. STRUTTURE GEOMETRICHE
2.5
Variet`
a lineari
Fissiamo un vettore X0 e un sottospazio W allora V = X0+ W e V si chia-ma variet`a lineare. Il sottospazio W viene invece denominato sottospazio associato alla variet`a lineare. La definizione `e equivalente se scritta cos`ı: X `e una variet`a lineare se ∃w ∈ W tale che X = X0 + W , oppure X tale che (X − X0) ∈ W .
Enunciamo alcune propriet`a che valgono per le variet`a lineari:
1. X0∈ V perch`e X0 = X0+ 0V. I vettori del sottospazio /∈ V eccetto un caso: V = X0+ W, V ≡ W ⇐⇒ X0∈ W cio`e la variet`a lineare coincide con W se X0`e un vettore di W.
2. Supponiamo di avere V = X0+ W e V0 = X1+ W . Quando due variet`a lineari hanno lo stesso sottospazio associato, allora:
(i) Coincidono se e solo se X0∈ V0∧ X1∈ V (ii) non hanno elementi in comune
2.5.1
Alcune definizioni sulle variet`
a lineari
a) Si chiama sottovariet`a di V la variet`a V0 quando V0= X
1+ W0∧ V = X0+ W e V0⊆ V.
Inoltre, V0 `e una sottovariet`a se e solo se X
1∈ V e W0 `e un sottospazio di W .
Ogni variet`a ha almeno u na sottovariet`a: quella composta dai suoi vettori. b) L’intersezioni di due variet`a si dice variet`a intersezione ed esiste a
condizione che le due variet`a abbiano almeno un punto in comune c) Due variet`a si dicono parallele se il sottospazio associato alla prima
contiene il sottospazio associato alla secondo o viceversa
d) Due variet`a si dicono sghembe se la loro intersezione `e vuota e non sono parallele
e) Si dice congiungente di due variet`a lineari la pi`u piccola variet`a lineare che le contiene entrambe
Esempi di variet`a lineari
1. Le variet`a lineari di una retta sono esclusivamente i punti e la retta stessa. Infatti ogni punto pu essere espresso come P + OV
2. Le variet`a lineari di un piano sono esclusivemente i punti, le rette e il piano stesso. Questo perch`e ogni punto pu`o essere inteso come variet`a intersezione di due rette, mentre ogni retta come variet`a congiungente due punti.
2.6. SPAZI FINITAMENTE GENERATI 13 due punti, ogni piano `e variet`a congiungente tre punti o una retta e un punto che non giace su essa o due rette complanari.
2.6
Spazi finitamente generati
2.6.1
Combinazione lineare
Sia V un K-spazio vettoriale con r vettori v1, . . . , vi, . . . , vr. Allora v ∈ V `e
combinazione lineare dei vettori se esistono r elementi a1, . . . , ai, . . . , ar tali
che v = a1v1+ · · · + aivi+ · · · + arvr.
Per esempio, in R3dati i due vettori v
1(1, 2, 4) e v2(3, 1, 6) il vettore v(5, 5, 14) `e loro combinazione lineare in quanto v = 2v1+ v2.
Il vettore nullo `e dato dalla combinazione lineare nulla ossia 0 = 0v1+ · · · + 0vi+ · · · + 0vr, in cui tutte le ai sono nulle.
2.6.2
Spazio delle combinazioni lineari Span
Consideriamo l’insieme di tutte le combinazioni lineari degli r vettori. Indichi-amo tale spazio con il simbolo Span(v1, . . . , vi, . . . , vr). Oppure, per comodit`a,
ponendo E = {v1, . . . , vi, . . . , vr} indichiamo tale spazio con Span(E).
Teorema 1 Sia V un K-spazio e sia (v1, . . . , vi, . . . , vr) una r-pla di suoi
vet-tori. Allora Span(v1, . . . , vi, . . . , vr) `e sempre un sottospazio di V .
Dimostrazione
∀v, v0 ∈ Span(E), ∀a, b ∈ K ⇒ av + bv0∈ Span(E). Per cui possiamo scrivere:
v = a1v1+ · · · + aivi+ · · · + arvre
v0= b
1v1+· · ·+bivi+· · ·+brvr. Dobbiamo quindi dimostrare che ∃c1, . . . , ci, . . . , cr
tali che: av + bv0= a
1v1+ · · · + civi+ · · · + crvr.
Ma questo si ha subito perch`e:
av = a · a1v1+ · · · + a · aivi+ · · · + a · arvre
bv0= b · b
1v1+ · · · + b · bivi+ · · · + b · brvr.
Per cui la loro somma `e av + bv0 = (aa
1+ bb1)v1) + · · · + (aai+ bbi)vi) + · · · +
(aar+ bbr)vr).
Abbiamo dunque trovato i valori che cercavamo: ci = (aai+ bbi)vi) e quindi
abbiamo dimostrato che l’insieme Span(E) `e un sottospazio.
2.7
Spazi finitamente generati
I vettori v1, . . . , vi, . . . , vrpresi singolarmente si dicono generatori dello spazio
Span, mentre l’insieme E si dice insieme generatore.
Pu`o accadere che V = Span(v1, . . . , vi, . . . , vr). Allora si dice che lo spazio
vettoriale V `e finitamente generato.9
14 CAPITOLO 2. STRUTTURE GEOMETRICHE Esempi di spazi finitamente generati
1. Il sottospazio {0} `e finitamente generato ed ha un solo generatore: 0. 2. La retta r `e finitamente generata in quanto basta prendere P 6= 0 dato
che ogni altri punto Q = aP .
3. Nel piano due punti P, Q che non sono sulla stessa retta generano tutto il piano.
Consideriamo ora lo spazio Kn, n > 1. Le n-ple:
e1= 1 0 .. . 0 .. . 0 e2= 0 1 .. . 0 .. . 0 · · · ei= 0 0 .. . 1 .. . 0 · · · en= 0 0 .. . 0 .. . 1
sono l’insieme dei generatori dello spazio Kn, dove ogni vettore X `e dato
dalla seguente relazione:
X = x1 x2 .. . xi .. . xm = x1e1+ · · · + xiei+ · · · + xnen
Esempi di spazi finitamente generati
1. Lo spazio delle applicazioni K −→ K non `e finitamente generato.
2. Lo spazio dei polinomi in un’incognita non `e finitamente generato perch`e non esiste un numero finito di vettori.
3. Lo spazio Km,ndellematriciε
ij = (ars) dove ars= 0 tranne che per aij =
1.
Gli spazi span sono importanti perch`e tutti i sottospazi di V sono generati da un certo numero di vettori
2.7.1
Propriet`
a degli spazi finitamente generati (Teorema)
Sia V un K-spazio vettoriale e sia E = (v1, . . . , vi, . . . , vj, . . . , vr) ⊆ V . Allora:
1. Lo spazio generato da E, (Span(E)), non dipende dall’ordine dei vettori. 2. Span(E) = Span(E1) dove E1 `e ottenuto da E togliendo il vettore nullo
tutte le volte che compare in E.
3. Span(E) = Span(E1) dove E1 = {b1v1, . . . , bivi, . . . , bjvj, . . . , brvr} con
2.7. SPAZI FINITAMENTE GENERATI 15 4. Span(E) = Span(E1) dove E1 = {v1, . . . , vi+ avj, . . . , vr} cio`e si lascia
inalterato ogni vettore ad eccezione di vi che viene espresso in termini di
un’altro vettore vj10.
5. Span(E) = Span(E1) dove E1= v1+ r X h=2 ahvh, v2+ r X h=1,h6=2 ahvh, . . . , vi+ r X h=1,h6=i ahvh, . . . , vr+ r−1 X h=1 ahvh dove ogni sommatoria rappresenta la combinazione lineare di tutti gli altri
vettori.
2.7.2
Dipendenza e indipendeza lineare
Sia V un K-spazio vettoriale e siano i vettori v1, . . . , vi, . . . , vr∈ V . Diremo che
i vettori sono linearmente indipendenti se l’uguaglianza
a1v1+ · · · + aivi+ · · · + arvr= 0 `e vera se e solo se a1= · · · = ai= · · · = ar= 0,
con a1, . . . , ai, . . . , ar ∈ K cio`e se il vettore nullo pu`o essere ottenuto soltanto
mediante la combinazione lineare nulla.
In caso contrario, cio`e se i coefficienti ai non tutti nulli producono comunque il
vettore nullo, i vettori si dicono linearmente dipendenti11. Osservazioni
1. La dipendenza riguarda solitamente pi`u vettori, cio`e si dice che un vettore v `e linearmente dipendente da r vettori v1, . . . , vi, . . . , vr.
Un unico vettore v `e sempre linearmente dipendente perch`e se `e nullo `e sempre linearmente dipendente, altrimenti se non lo `e esiste un coefficiente a che per la legge di annullamento restituisce il vettore nullo: av = 0 ⇐⇒ a = 0.
2. Un vettore v `e linearmente dipendente da r vettori se pu`o essere espresso come combinazione lineare di tali vettori.
2.7.3
Insiemi di generatori - Teoremi - Il metodo degli
scarti successivi
Un insieme E ⊂ V si dice libero se i suoi vettori sono linearmente indipendenti, altrimenti si dice non libero.
Teorema 1 Sia V un K-spazio vettoriale ed E = v1, . . . , vi, . . . , vj, . . . , vr⊆ V .
Allora si ha:
1. Il fatto che E sia libero o meno non dipende dall’ordine dei vettori. 2. Se r = 1, cio`e se E = {v1} allora E `e libero se e solo se v16= 0. 3. Se vi= 0 ∈ E allora E non `e libero.
10E importante perch`e se v`
i+ avj= 0, possiamo eliminarlo per la propriet`a 2.
11In altre parole, il vettore nullo si ottiene anche (e non solo) da una combinazione lineare
16 CAPITOLO 2. STRUTTURE GEOMETRICHE 4. Se ∃vj dipendente da tutti gli altri vettori, allora E non `e libero.
5. Se E non `e libero e se a1v1+ · · · + aivi+ · · · + ajvj+ arvr= 0 con aj6= 0
allora vj `e combinazione lineare degli altri, cio`e `e linearmente dipendente
dagli altri.
6. Se E `e libero allora ogni suo sottoinsieme non vuoto `e libero. Dimostrazione
1. `E ovvio dato che l’ordine non cambia il risultato nella combinazione lin-eare.
2. Se v 6= 0 risulta che av = 0 se e solo se a = 0, ossia si ha 0 solo con la combinazione lineare nulla.
3. Se vi= 0 allora se prendiamo coefficienti a tutti uguali a 0, ad esclusione di
ai= 1, otteniamo 0v1+· · ·+· · ·+0vi−1+1vi+0vi+1+· · ·+0vr= 1·vi= 0
cio`e otteniamo il vettore nullo con una combinazione lineare non nulla.12 4. Se vj `e dipendente, significa che posso scrivere vj = a1v1+ · · · + aivi+
· · · + ar= 0.
5. Dato che esiste l’inverso dell’elemento aj possiamo moltiplicare ogni
ad-dendo per tale elemento ottenendo vj = −a−1j a1v1− · · · − a−1j aivi− · · · −
a−1j arvr.
6. Prendiamo un sottoinsieme con un numero h < r di elementi. Pi`u pre-cisamente prendiamo i primi h elementi di E : E0 = {v
1, . . . , vr}. Se
tali vettori fossero dipendendi, allora potremmo ottenere il vettore nul-lo con qualche ai 6= 0, ma questo sarebbe assurdo in quanto si avrebbe
a1v1+ · · · + aivi+ · · · + ahvh+ 0vh+1+ · · · + 0vr= 0 quindi si otterrebbe
il vettore nullo da una combinazione lineare diversa da quella nulla. Ma ci`o non `e possibile in quanto E `e libero.
Il seguente teorema ci permette di dare una caratterizzazione degli insiemi liberi:
Teorema 1 Sia V un K-spazio vettoriale e sia E = {v1, . . . , vi, . . . , vr} ⊆ V .
Allora sono equivalenti: 1. E `e libero.
2. v1 `e diverso da 0 e vi non `e combinazione lineare dei precedenti cio`e
vi∈ Span(v/ 1, . . . , vi−1)∀i = 2, . . . , r.
3. Se v ∈ Span(E) allora v si ottiene in modo unico come combinazione lineare di (v1, . . . , vi, . . . , vr).
12Ad esempio, dato l’insieme E = {v
2.8. BASI E DIMENSIONE 17 Il metodo degli scarti successivi
Abbiamo l’insieme E = {v1, . . . , vi. . . , vr} tale che E genera lo spazio Span(v1, . . . , vi, . . . , vr).
Ci chiediamo se esista un insieme E0 tale che:
1. E0 `e libero
2. Span(E0) = Span(E).
Il problema ammette varie soluzioni; infatti E0 non `e unico. Ci sono anche
svariati metodi che portano alla soluzione di questo problema. Il metodo degli scarti successivi `e un metodo abbastanza semplice che ci restituisce un insieme E0⊂ E. Ecco i passi da seguire:
1. Sia E1 ottenuto da E togliendo il vettore nullo tutte le volte che vi compare.
2. Se in E0v
2risulta essere combinazione lineare di v1lo scartiamo, altrimenti lo lasciamo.
3. Se v3risulta essere combinazione lineare di v2e v1lo scartiamo, altrimenti lo lasciamo.
4. Iteriamo tale procedimento finch`e non arriviamo all’ultimo vettore. Allora: se non abbiamo scartato alcun vettore, E1 `e l’insieme E0 che cercavamo. Altrimenti se vi `e il primo vettore scartato, si ripete il procedimento a
partire dall’elemento vi+1.
Dobbiamo provare che E0 gode delle due propriet`a. Allora, siccome al passo 1
abbiamo applicato la propriet`a che dice che uno spazio non cambia se dall’in-sieme dei generatori eliminiamo il vettore nullo. Al passo 2 invece possiamo applicare l’altra propriet`a che dice che uno spazio non cambia se togliamo dallo spazio dei generatori quei vettori che sono combinazione lineare degli altri. Quin-di Span(E0) = Span(E). Otteniamo per`o uno spazio che dipende dall’ordine,
essendo ogni vettore combinazione lineare dei precedenti.
2.8
Basi e dimensione
Sia V uno spazio finitamente generato. Un sottoinsieme di vettori B = {v1, . . . , vi, . . . , vn}
si chiama base di V se: 1. B `e libero. 2. V = Span(B).
Teorema (di esistenza delle basi) 1 Sia V un K-spazio vettoriale finitamente generato. Allora esiste una base di V .
Dimostrazione
Se applichiamo il metodo degli scarti successivi ai vettori di E otteniamo un insieme libero che genera tutto lo spazio. Quindi `e una base.
Teorema (del completamento di una base) 1 Sia V un K-spazio vettori-ale finitamente generato e sia E = {v1, . . . , vi, . . . , vr} un insieme libero di
18 CAPITOLO 2. STRUTTURE GEOMETRICHE Dimostrazione
Sia F = {w1, . . . , wj, . . . , wm} un sistema di generatori. Ossia Span(F ) = V.
Allora F0 = {v
1, . . . , vi, . . . , vr, w1, . . . , wj, . . . , wm}. Allora se si applica a F0
il metodo degli scarti successivi essendo E libero i suoi vettori non vengono scartati e quindi la base che si trova contiene E.
Teorema 1 Sia V un K-spazio vettoriale finitamente generato. Allora tutte le basi di V hanno lo stesso numero di elementi. Tale numero si chiama dimensione e si indica con il simbolo (dimV ).13
Teorema 1 Sia V un K-spazio vettoriale finitamente generato e sia (dimV ) = n. Sia inoltre E = {v1, . . . , vi, . . . , vr} ⊆ V . Allora:
1. Se E `e libero allora r ≤ n. Inoltre r = n se e solo se E `e anche una base (ossia Span(E) = V ).
2. Se Span(E) = V allora r ≥ n. Inoltre r = n se e solo se E `e una base (ossia E `e libero).
3. Ogni sottospazio W di V `e finitamente generato. Se (dimW ) = r allora r ≤ n. Inoltre r = n se e solo se W = V .
Esempi di basi di spazi finitamente generati e dimensione
1. Consideriamo uno spazio Kn. Tale spazio ha dimensione n. Sappiamo
gi che l’insieme E = {e1, . . . , ei, . . . , en} con ei vettore con tutte le
com-ponenti nulle eccetto la i-esima, `e un sistema di generatori di Kn. Tale
insieme risulta essere una base, in quanto il vettore nullo viene ottenuto solo mediante la combinazione lineare nulla.
2. Nella retta una base `e costituita da un segmento diverso dal segmento di lunghezza nulla.
3. Se consideriamo lo spazio dei polinomi di grado ≤ m e indichiamo tale spazio con Km[X] notiamo che una base `e costituita dai monomi di grado
<= m cio`e xm, xm−1, . . . , x, x0= 1. Inoltre dim(K
m[X]) = m + 1.
4. Se consideriamo lo spazio delle matrici Km,n, le basi sono date da quelle
matrici denominate eij i cui elementi valgono sempre 0 ad eccezione
del-l’elemento aij = 1. )Inoltre, dim(Km,n) = mn.
2.8.1
La relazione di Grassmann (teorema)
Sia V un K-spazio vettoriale di dimensione n. Siano poi Wre Wmdue sottospazi
rispettivamente di dimensione r e m. Definiamo inoltre i due spazi somma e intersezione: Wi= Wm∩ Wr e Ws= Wm+ Wr rispettivamente di dimensione
i e s. Allora vale la seguente relazione: s = r + m − i dove s ≤ m e i ≤ min{m, r}.
2.8. BASI E DIMENSIONE 19
2.8.2
Componenti rispetto a una base
Sia V un K-spazio vettoriale e B = {v1, . . . , vi, . . . , vn} una sua base.
Allo-ra qualunque vettore x ∈ V pu`o essere scritto come combinazione lineare dei vettori della base. Gli scalari che indicano la base sono anche denominati com-ponenti del vettore relative alla base.
Quindi la scrittura x = x1v1+ . . . + xivi+ . . . + xnvn pu`o essere individuato
dalla n-pla ordinata
x1 .. . xi .. . xn
Con tale convenzione possiamo scrivere in maniera abbreviata anche la molti-plicazione di uno scalare per un vettore e la somma dei due vettori, considerando semplicemente la n-pla delle componenti del vettore. Con questa convenzione possiamo confondere lo spazio vettoriale di V di dimensione n con Kn. In
par-ticolare, poich`e `e:
v1= 1v1+ · · · + 0vi+ · · · + 0vn
· · ·
vi= 0v1+ · · · + 1vi+ · · · + 0vn
· · ·
vn= 0v1+ · · · + 0vi+ · · · + 1vn
si ha che i vettori v1, . . . , vi, . . . , vn coincidono con dei vettori con elementi tutti
nulli ma con componente i-esima uguale a 1.
2.8.3
La base canonica
Prima che si definisse Kn come K-spazio vettoriale, una scrittura del tipo
(x1, . . . , xi, . . . , xn) avva il significato di n-pla ordinata di elementi di K. Stesso
significato anche per le n-ple che abbiamo definito come (e1, . . . , ei, . . . , en cio`e,
ad esempio, la n-pla (1, 0, . . . , 0, . . . , 0). Ora, avendo definito lo spazio vettori-ale, sappiamo che le n-ple hanno il significato di componente dei vettori della base di Kn relativamente alla base che essi stessi determinano. Ovviamente il
significato di un vettore rimane inalterato, ovvero i valori delle sue componen-ti non cambiano, se consideriamo come base le n-ple (et
1, . . . , eti, . . . , etn). Ecco
perch`e tali n-ple vengono denominate base canonica di Kn.
Esempi
20 CAPITOLO 2. STRUTTURE GEOMETRICHE 2. Il vettore x = (3, 4, 5, 6) nello spazio delle matrici K2,2 che ha come base
E = {e11, e12, e21, e22} diventa la matrice µ
3 4 6 5
¶
3. Nello spazio dei polinomi R3[X] con base B = {x5, x2, x, x0} il solito vet-tore x = (3, 4, 6, 5) rappresenta il polinomio ordinato (secondo le potenze crescenti di x) 3x3+ 4x
2+ 6x + 5.
Teorema 1 Sia V un K-spazio vettoriale e B una sua base.
Sia E = {v1, . . . , vi, . . . , vr} e siano X1, . . . , Xi, . . . , Xr le r-ple associate ai
vettori di E relativamente alla base B.
Allora E `e libero se e solo se le r-ple X1, . . . , Xr sono linearmente indipendenti.
Dimostrazione. Se v1, v2sono linearmente indipendenti possiamo ottenere il vettore nullo solo con la combinazione lineare nulla. Perci`o otteniamo la n-pla nulla se e solo se sommiamo ogni elemento per lo 0.
2.8.4
Dimensione di una variet`
a lineare
Data una generica variet`a lineare V = X0+ W si definisce dimensione della variet`a lineare la dimensione del sottospazio associato. Si ha cio`e la relazione dimV = dimW .
Scriveremo dunque Vm= X0+ Wm intendendo con la lettera m al pedice, la
dimensione della variet`a e del sottospazio associato.
Ricordiamo a questo proposito che anche il sottospazio `e una variet`a lineare, e che in particolare se X0= 0V si ha che V = W . Definita allora la relazione
dimV = m abbiamo le seguenti definizioni:
1. se m = 0 allora la variet`a V0= X0+ {0} si dice punto 2. se m = 1 allora la variet`a V1= X0+ W1 si dice retta 3. se m = 2 allora la variet`a V2= X0+ W2 si dice piano 4. se m = 3 allora la variet`a V3= X0+ W3 si dice spazio14
5. se m = n − 1 allora la variet`a Vn−1= X0+ Wn−1si dice iperpiano 15
Viene spontaneo dire che le rette sono gli iperpiani del piano, i piani sono gli iperpiani dello spazio, e cos`ı via in modo tale da definire ogni sottovariet`a di dimensione m − 1 come iperpiano della variet`a di dimensione m. Ovviamente, ogni teorema che vale per gli iperpiani vale anche per le rette nei piani e per i piani nello spazio.
2.8. BASI E DIMENSIONE 21
2.8.5
Variet`
a intersezione e congiungente
Date le due variet`a Vr= X0+ Wr e Vm= X1+ Wm. Allora possiamo definire
le seguenti:
• La variet`a intersezione Vr∩ Vm∃ se e solo se Vr∩ Vm6= ®. In tal caso,
Vi= Y + Wi dove Y ∈ Vm∩ Vr e Wi∈ Wr∩ Wm per cui dimVi= i.
• La variet`a congiungente Vc`e la pi`u piccola variet`a che contiene entrambe
le variet`a congiunte.16 Allora V
c= X0+ Span(X1− X0) + Wm+ Wr.
Inoltre si dimostra che:
1. se Vr∩ Vm6= ® allora c = r + m − i
2. se Vr∩ Vm= ® allora c = r + m − i + 1
dove vale sempre la relazione i ≤ min{r, m} e c ≤ n17.
Teorema 1 Sia V un K-spazio vettoriale di dimensione n e siano Vn−1, Vn−10
due iperpiani di V .
Allora Vn−1, Vn−10 non sono sghembi ossia o sono paralleli oppure si intersecano
in una variet`a di dimensione n − 218.
Dimostrazione. Dobbiamo considerare 2 casi:
1. Se Vn−1 ∩ Vn−10 = ® allora consideriamo Vc che ha dimensione c =
r + m − i + 1 = n − 1 + n − 1 − i + 1 = 2n − i − 1.
Essendo c ≤ n dev’essere per forza i ≥ n − 1. D’altra parte avevamo sup-posto i ≤ n − 1 essendo i = min{n − 1, n − 1} per cui sar`a necessariamente i = n − 1 poich`e Wi = Wn−1∩ Wn−10 . Ci`o significa che i due sottospazi
sono lo stesso sottospazio e dunque gli iperpiani sono paralleli.
2. Se Vn−1∩ Vn−10 6= ® allora i = n − 1 + n − 1 − i = 2n − i − 2 ≤ n, cio`e
i ≥ n − 2 ma poich`e i ≤ n − 1 risulta essere i = n − 1 oppure i = n − 2 e dunque Vn−2. Allora Wi= Wn−1= Wn−10 : i duq iperpiani coincidono.
16Per esempio, la variet`a congiungente due punti `e una retta 17perch`e lo spazio vettoriale contiene sicuramente entrambe le variet`a
18Ad esempio, nello spazio 2 piani non sono mai sghembi: o sono paralleli o si intersecano;
Capitolo 3
Matrici
Definiamo A ∈ Km,n una matrice con m righe R
1, . . . , Ri, . . . , Rm ∈ Kn1 e n
colonne C1, . . . , Ci, . . . , Cn∈ Km.
Notiamo che gli spazi generati da righe e colonne sono totalmente diversi, in-fatti le righe generano sottospazi di Kn: Span(R
1, . . . , Ri, . . . , Rm) = R(A); le
colonne invece generano sottospazi di Km:Span(R
1, . . . , Ri, . . . , Rm) = R(A).
Teorema 1 Si ha che dimR(A) = dimC(A). Tale dimensione `e detta carat-teristica o rango della matrice A e si indica con ρ(A). Tale numero indica il massimo numero di righe e colonne linearmente indipendenti e risulta rispettare la seguente relazione: ρ(A) ≤ min{m, n}.
3.1
Matrice ridotta
Una matrice si dice ridotta per righe se in ogni riga Ri non nulla esiste un
elemento non nullo aiji tale che tutti gli elementi che sono sotto di esso sono
nulli (cio`e tale che tutti gli elementi aij, j + h : ∀h = 0, 1, . . . m − isononulli).
Una matrice si dice ridotta per colonne se in ogni colonna Cjnon nulla esiste
un elemento non nullo aijj tale che tutti gli elementi che sono alla sua destra sono
nulli (cio`e tale che tutti gli elementi aij, j + h : ∀h = 0, 1, . . . m − jsononulli).
Teorema 1 La caratteristica di una matrice A = (aij) ridotta per righe (o per
colonne) `e uguale al numero di righe (o di colonne) non nulle
3.1.1
Ridurre una matrice
Sorge il problema della riduzione di una matrice. Come eseguire tale operazione? Prima di tutto definiamo l’operazione: ridurre una matrice A ∈ Km,nper righe
(o per colonne) significa trovare una matrice A0 ∈ Km,n che sia ridotta per
righe (o per colonne) tale che R(A) = R(A0) (oppure C(A) = C(A0)). Possiamo
eseguire sulle matrici 3 operazioni fondamentali (su righe o su colonne): 1. scambiare tra loro 2 righe o 2 colonne: Ri←→ Rj oppure Ci←→ Cj
1Attenzione: m righe in Kn!!!
3.2. DETERMINANTI 23 2. moltiplicare tutti gli elementi di una riga o di una colonna per un valore
non nullo: Ri→ aRi, a 6= 0 oppure Ci→ aCi, a 6= 0
3. sostituire una riga (o una colonna) con una combinazione lineare ottenuta sommando alla riga (o alla colonna) un’altra riga (o colonna) moltiplicata per un valore: Ri→ Ri+ aRj, i 6= j oppure Ri→ Ci+ aCj, i 6= j
Teorema 1 Le operazioni fondamentali non cambiano R(A) se eseguite su righe e C(A) se eseguite su colonne
(Dimostrazione). Questo succede perch`e, per un vecchio teorema sugli spazi vettoriali, R(A) non cambia con l’ordine, R(A) non cambia per av1 se a 6= 0, R(A) non cambia per v1= v1+ av2.
Il teorema successivo ci permetter`a di conoscere il procedimento di riduzione di una matrice.
Teorema 1 Sia A ∈ Km,n. Allora esiste A0 ∈ Km,n ridotta per righe di A ed
esiste A00∈ Km,n ridotta per colonne di A.
Dimostrazione. La dimostrazione `e ovvia, dato l’algoritmo di riduzione di una matrice:
1. Sia Ri la prima riga non nulla di A e sia aiji 6= 0. Sia A1 la matrice
ottenuta mediante le operazioni elementari eseguendo il seguente calcolo: Rh→ Rh−aahji
iji · Ri∀h = i + 1, . . . , m − i
2. Vado al passo 1, ponendo A1 al posto di A
Ovviamente le righe nulle sono quelle linearmente indipendenti.
3.1.2
Sottomatrice e orlata
Supponiamo di avere le due matrici A ∈ Km,n, B ∈ Kp,q con p ≤ m, q ≤ n.
Allora si dice che B `e sottomatrice di A se B si pu`o pensare ottenuta da A prendendo gli elementi comuni a p righe e q colonne di A. Oppure possiamo anche dire, togliendo da A m − p righe e n − q colonne.
Sia allora B ∈ Kp,puna sottomatrice quadrata di A. Allora si chama orlata
di B ogni matrice C ∈ Kp+1,p+1 che sia sottomatrice di A e tale che B sia una
sua sottomatrice.
3.2
Determinanti
Ora, prima di occuparci del determinante, richiamiamo alcune definizioni che torneranno utili.
Scriviamo il simbolo Nn= {1, . . . , n} l’insieme dei primi n numeri naturali.
Definiamo permutazione di un insieme di questo genere un’applicazione bi-univoca p : Nn −→ Nn. Una tale permutazione viene spesso indicata con la
n-pla ordinata i1, i2, . . . , ij, . . . , in dove pj = ij cio`e ij `e il corrispondente del
24 CAPITOLO 3. MATRICI Allora data una permutazione sia r ≥ 0 il numero di coppie di elementi ij, ih
con j < h: la permutazione `e di classe pari se r `e pari; altrimenti `e dispari. Ricordiamo che:
1. Se in una permutazione si scambiano due elementi tra loro, si ottiene una permutazione di classe diversa.
2. Il numero di scambi che occorre fare in una permutazione per ottenere la permutazione principale (cio`e quella ordinata) ha sempre la stessa parit`a della permutazione originaria.
Definiamo dunque cos’`e il determinante. Data una matrice A ∈ Kn,nil
deter-minante | A | `e il numero ottenuto come segue: P(−1)ra
1j1a2j2· · · ahjh· · · anjn.
La sommma praticamente `e estesa alle n! permutazioni dei secondi indici e r indica la parit`a di questa permutazione.
Quindi il determinante `e il numero che si ottiene facendo: 1. la somma algebrica di n! addendi
2. ogni addendo ha n fattori
3. il primo fattore `e nella prima riga, il secondo nella seconda riga, ..., l’ultimo nell’ultima riga
4. in ogni addendo c’`e uno e un solo fattore di una riga e di una colonna 5. in due addendi diversi le relative permutazioni dei secondi indici sono
diverse
6. ogni addendo `e preso con il suo segno se la permutazione dei secondi indici `e pari, altrimenti con il segno cambiato se la permutazione `e dispari.
3.2.1
Propriet`
a del determinante
Enunciamo le seguenti propriet`a:
1. Se invece di procedere per righe procediamo per colonne, il determinante ottenuto `e lo stesso. Di conseguenza: a)tutte le propriet`a che valgono per le righe valgono per le colonne, b) | A |=| At|.
2. Data una matrice triangolare, il suo determinante coincide con il prodotto degli elementi della diagonale principale
3. Se ina matrice sono nulli tutti gli elementi da una stessa parte della diagonale secondaria, allora | A |= (−1)n(n−1)2 a1na2(n−1)· · · an12.
4. Se in una matrice una riga (o una colonna) `e nulla, allora | A |= 0 5. Se si scambiano due righe (o due colonne) allora il determinante della
nuova matrice cambia segno: Ri←→ Rj: |A0| = −|A|
6. Se si moltiplica una riga per un valore allora il determinate della nuo-va matrice si ottiene moltiplicando il vecchio determinante per il nuo-valore: Ri−→ aRi: |A0| = a|A|.
3.2. DETERMINANTI 25 7. Se due righe sono proporzionali, il determinante `e nullo: Ri= aRj, i 6= j :
|A| = 03.
8. Se Ri = R0i+ R00i allora |A| = |A0| + |A00|
9. Se Ri −→ Ri+ aRj allora |A0| = |A|4.
3Infati se dividiamo la riga R
j per a, il determinante risulta diviso per a. Inoltre se
scambiamo due righe otteniamo un determinante di segno opposto, e ci`o porta a concludere che |A| = −|A| e naturalmente ci`o `e possibile solo se il determinante `e nullo
4Infatti, possiamo ricondurci alla propriet`a 8 ottenendo |A
0| = |A| + 0 (determinante della