• Non ci sono risultati.

Appunti di Matematica Discreta - dispensa 2

N/A
N/A
Protected

Academic year: 2021

Condividi "Appunti di Matematica Discreta - dispensa 2"

Copied!
25
0
0

Testo completo

(1)

Appunti di Matematica Discreta - dispensa 2

Giuseppe Sollazzo

(2)

Indice

1 Strutture algebriche fondamentali 4

1.1 Generalit`a . . . 4

1.1.1 Propriet`a . . . 4

1.2 Il gruppo (Kn, +) . . . . 4

1.2.1 Somma di n-ple . . . 5

1.2.2 Prodotto per scalari . . . 5

1.3 Potenza . . . 5

1.4 Il monoide (AA, ◦) . . . . 6

2 Strutture geometriche 7 2.1 La retta e le operazioni ad essa associate . . . 7

2.2 Il piano . . . 8

2.3 Spazi vettoriali . . . 8

2.3.1 Propriet`a degli spazi vettoriali . . . 8

2.4 Sottospazi . . . 9

2.4.1 Teoremi sui sottospazi . . . 10

2.5 Variet`a lineari . . . 12

2.5.1 Alcune definizioni sulle variet`a lineari . . . 12

2.6 Spazi finitamente generati . . . 13

2.6.1 Combinazione lineare . . . 13

2.6.2 Spazio delle combinazioni lineari Span . . . 13

2.7 Spazi finitamente generati . . . 13

2.7.1 Propriet`a degli spazi finitamente generati (Teorema) . . . 14

2.7.2 Dipendenza e indipendeza lineare . . . 15

2.7.3 Insiemi di generatori - Teoremi - Il metodo degli scarti successivi . . . 15

2.8 Basi e dimensione . . . 17

2.8.1 La relazione di Grassmann (teorema) . . . 18

2.8.2 Componenti rispetto a una base . . . 19

2.8.3 La base canonica . . . 19

2.8.4 Dimensione di una variet`a lineare . . . 20

2.8.5 Variet`a intersezione e congiungente . . . 21

3 Matrici 22 3.1 Matrice ridotta . . . 22

3.1.1 Ridurre una matrice . . . 22

3.1.2 Sottomatrice e orlata . . . 23

(3)
(4)

Capitolo 1

Strutture algebriche

fondamentali

1.1

Generalit`

a

Possiamo definire alcune strutture fondamentali. Ad esempio, definiamo queste due operazioni:

∗ : A × B −→ A · : A × B −→ A

Si considera strutturato il codominio: (A, ∗), (A, ·).

Si dice che A `e una struttura su B o che A `e una B-struttura.

Consideriamo un campo K dove K `e uno degli insiemi N, Z, Q, R, C, Zm. Noi

studieremo gli spazi vettoriali V, che sono dei gruppi abeliani che sono anche K-strutture.

1.1.1

Propriet`

a

Valgono le seguenti propriet`a: 1. ∀v ∈ V : 1 · v = v

2. ∀a, b ∈ K, ∀v ∈ V : a(bv) = (ab)v

3. ∀a ∈ K, ∀v1, v2∈ V : a(v1+ v2) = av1+ av2 4. ∀a, b ∈ K, ∀v ∈ V : (a + b)v = av + bv

1.2

Il gruppo (K

n

, +)

Kn, per n ≥ 1 intero, `e l’insieme delle n-ple ordinate di elementi di K e quindi

un suo elemento X `e della forma (x1, x2, . . . , xi, . . . , xn) dove x1si chiama prima componente, xi`e la componente i-esima, xn la componente n-esima.

(5)

1.3. POTENZA 5

1.2.1

Somma di n-ple

La somma di n-ple viene cos`ı definita: + : Kn× Kn −→ Kn.

Quindi, date due n-ple X = (x1, x2, . . . , xi, . . . , xn) e Y = (y1, y2, . . . , yi, . . . , yn),

la n-pla somma `e la seguente:

X + Y = (x1+ y1, x2+ y2, . . . , xi+ yi, . . . , xn+ yn)

Vogliamo ora dimostrare che la struttura (Kn, + `e un gruppo abeliano.

Ver-ifichiamo dunque se valgono le propriet`a di un gruppo abeliano:

(i) (X + Y ) + Z = X + (Y + Z): la dimostrazione `e immediata perch`e la somma si effettua componente per componente ottenendo (xi+ yi) + zy =

xi+(yi+zi), dove le componenti appartengono a K, dove vale la propriet`a

associativa.

(ii) X + Y = Y + X: per lo stesso motivo, anche questa propriet`a `e verificata (iii) ∃0 = (0, 0, . . . , 0, . . . , 0), elemento neutro tale che X + 0 = X: stesso

discorso

(iv) esistenza dell’opposto: si tratta delle componenti cambiate di segno in quanto: X + (−X) = 0 (dimostrabile con lo stesso criterio)

1.2.2

Prodotto per scalari

Il prodotto per scalari `e un’operazione cos`ı definita:

· : K × Kn −→ Kn. Il prodotto si ottiene moltiplicando per un intero, tutte le

componenti della n-pla:

aX = (ax1, . . . , axi, . . . , axn). Anche in questo caso valgono le propriet`a della

moltiplicazione, e si nota che se n = 1, il prodotto in Kn equivale al prodotto

in K.

1.3

Potenza

Sia (G, ·) un semigruppo e sia a ∈ G un suo elemento, si chiama potenza n-esima di a l’elemento cos`ı definito:

∀n ∈ N − 0 an=    an−1· a se n > 0 1G se n = 0 (a−1)−n se n < 0

Tutto questo in notazione moltiplicativa, invece in notazione additiva, con-siderando la struttura (G, +) abbiamo la seguente definizione:

(6)

6 CAPITOLO 1. STRUTTURE ALGEBRICHE FONDAMENTALI Valgono le seguenti propriet:

Se (G, ·) `e un gruppo (o (G, +) un gruppo commutativo), e a, b ∈ G, si ha: • (an)m= anm oppure m(na) = (nm)a

• anam= an+moppure na + ma = (n + m)a

Se (G, ·) `e un gruppo commutativo, o meglio ab = ba, allora: • ambm= (ab)m oppure ma + mb = m(a + b)

1.4

Il monoide (A

A

, ◦)

Definiamo AA l’insieme di tutte le applicazioni f : A −→ A, e l’operazione di

composizione di applicazioni ◦ : AA× AA−→ AA.

La struttura (AA, ◦) `e un monoide perch`e l’operazione `e associativa ed esiste

l’elemento neutro rappresentato dall’applicazione identica, tale che iA(x) = x.

Ovviamente non vale la propriet`a commutativa. Definite le due funzioni f : A −→ A e g : A −→ A

Sapendo che A ⊂ K, consideriamo KA= {f : A −→ K}.

Consideriamo ora la struttura algebrica (KA, +) e le due funzioni f : A −→ K

e g : A −→ K.

Allora valgono le seguenti propriet`a di somma e prodotto di funzioni: • f + g : A −→ K dove ∀x ∈ A : (f + g)(x) = f (x) + g(x)

• f · g : A −→ K dove ∀x ∈ A : (f · g)(x) = f (x) · g(x)

L’anello (KA, +, ·) `e un anello commutativo con unit`a in quanto `e

(7)

Capitolo 2

Strutture geometriche

2.1

La retta e le operazioni ad essa associate

Data una retta r consideriamo l’insieme V =segmenti di r orientati aventi il primo estremo in comune.

L’addizione `e cos`ı definita: + : V × V −→ V , e si scrive OP + OQ = OR. Cio`e la somma dei segmenti OP e OQ `e data dal segmento OR cos`ı definito:

1. se P e Q stanno in una stessa semiretta rispetto al punto O, allora ||OR|| = ||OP || + ||OQ||1.

2. se P e Q stanno in semirette opposte rispetto al punto O allora

(a) ||OP || ≥ ||OQ|| allora R sta nella stessa semiretta di P e ||OR|| = ||OP || − ||OQ||.

(b) ||OQ|| ≥ ||OP || allora R sta nella stessa semiretta di Q e ||OR|| = ||OQ|| − ||OR||.

La struttura (V, +) `e un gruppo abeliano.2

Il prodotto di un numero per un segmento `e cos`ı definito: · : R × V −→ V in cui ∀a ∈ R : a · OP = OR, ||OR|| = |a| · ||OP || dove se a ≥ 0 allora R `e nella stessa semiretta di P , altrimenti `e nella semiretta opposta.

Valgono le seguenti propriet`a: 1. 1 · OP = OP

2. a(bOP ) = (ab)OP 3. (a + b)OP = aOP + bOP 4. a(OP + OA) = aOP + aOA

La retta `e uno spazio vettoriale.

1Il simbolo ||a|| indica la lunghezza del segmento a.

2La verifica delle prime tre propriet`a `e banale, mentre la verifica dell’associativit`a richiede

l’esame dei vari casi.

(8)

8 CAPITOLO 2. STRUTTURE GEOMETRICHE

2.2

Il piano

Consideriamo l’insieme di segmenti del piano invece che della retta. Allora le operazioni saranno definite in modo analogo.

L’operazione somma + : V × V −→ V associa alla coppia (OP, OQ) di segmenti di V il segmento OR = OP + OQ determinato come segue:

1. se i punti O, P, Q sono sulla stessa retta, allora OR si ottiene come nel-l’addizione in una retta

2. se i punti O, P, Q sono su rette diverse allora OR `e dato dalla regola del parallelogramma ossia OR `e la diagonale del parallelogramma di vertici consecutivi P, O, Q, R.

2.3

Spazi vettoriali

Consideriamo l’insieme V, il campo K e le operazioni somma + : VtimesV −→ V e

prodotto per scalari · : KtimesV −→ V.

v si definisce K-spazio vettoriale se valgono le seguenti affermazioni: (i) (V, +) `e un gruppo abeliano

(ii) Si hanno le seguenti propriet`a: (a) 1 · v = v, ∀v ∈ V

(b) a · (b · b) = (a · b) · v, ∀v ∈ V, ∀a, b ∈ K (c) a · (v1+ v2) = av1+ av2, ∀v1, v2∈ V, ∀a ∈ K (d) (a + b) · v = av + bv, ∀v ∈ V, ∀a, b ∈ K

2.3.1

Propriet`

a degli spazi vettoriali

Per gli spazi vettoriali valgono le seguenti propriet`a:

1. Legge di annullamento: a · X = 0Vssea = 0 ∨ X = 0V3

Dimostriamo che (i) se a = 0 allora 0·X = 0V, ∀X ∈ V e che (ii) se X = 0

allora a·0V = 0V, ∀a ∈ K. Inoltre (iii) dimostriamo l’implicazione inversa:

(i) Sviluppiamo l’uguaglianza: 0 · X = (0 + 0) · X = 0 · X + 0 · X. Ottenuto questa uguaglianza, dato che in (V, +) vale la propriet`a commutativa, possiamo aggiungere o sottrarre ad entrambi i membri una stessa quantit`a ottenendo:

0 · X − 0 · X = (0 · X + 0 · X) − 0 · X che, applicando la propriet`a associativa al secondo membro, diventa: 0 · X − 0 · X = 0 · X + (0 · X − 0 · X): abbiamo ad entrambi i membri due differenze di numeri opposti, che ci danno il risultato 0V = 0 · X + 0V4.

Per cui, 0V = 0 · X c.v.d

3Dove a `e uno scalare (cio`e un numero), X `e un vettore, 0 `e l’elemento neutro del campo

K e 0V `e l’elemento neutro dello spazio vettoriale.

(9)

2.4. SOTTOSPAZI 9 (ii) Sviluppiamo l’uguaglianza: a · 0V = a · (0V + 0V) = a · 0V + a · 0V.

Dalla teoria, sappiamo che esiste l’elemento −(a · 0V) cio`e l’opposto

dell’elemento a · 0V.

Dunque, come nel caso precedente: a·0V−a·0V = a·0V+(a·0V−a·0V)

e dunque 0V = a · 0V c.v.d.

(iii) Dimostriamo quindi che a · X = 0V ⇒ a = 0 ∨ X = 0V.

Dunque speculiamo sul valore di a. Se sappiamo che a = 0 ovviamente ci fermiamo perch`e non c’`e nulla da dimostrare. Per cui supponiamo a 6= 0. Sappiamo che per a ∈ K∃a−1∈ K.

Moltiplichiamo entrambi i membri per questo elemento, che `e l’in-verso di a: a−1 · (aX) = a−1 · 0

V che per associativit`a diventa

(a−1a)X = 0

V cio`e 1X = 0V che `e possibile se e solo se X = 0V

c.v.d.

2. (−a)X = a(−X) = −(aX) e in particolare (−1)X = −X5

Dimostriamo (i) che (−a)X + aX = 0V6e che analogamente (ii)a(−X) +

aX = 0V.

(i) per la propriet`a 4 (−a)X + aX = (−a + a)X = 0X = 0V

(ii) per la propriet`a 3 a(−X) + aX = a(−X + X) = a0V = 0V

Esempi di spazi vettoriali

Kn `e uno spazio vettoriale, come pure Km,n cio`e lo spazio delle matrici. KA

`e uno spazio vettoriale chiamato spazio delle applicazioni. Altri spazi sono la retta, il piano, e KK.

2.4

Sottospazi

Supponiamo W ⊆ V. Si dice che W `e un sottospazio di V se `e un K-spazio vettoriale rispetto alle operazioni di V.

Teorema 1 Sia V un K-spazio vettoriale e W 6= ® un sottoinsieme di V. Allora sono equivalenti le seguenti affermazioni:

1. W `e un sottospazio di V 2. Si ha: I) ∀w, w0 ∈ W ⇒ (w + w0) ∈ W II) ∀a ∈ K, ∀w ∈ W ⇒ (a · w) ∈ W III) 0V∈ W7 3. ∀a, b ∈ K, ∀w, w0∈ W ⇒ (aw + bw0) ∈ W

In ongi spazio vettoriale ci sono almeno 2 sottospazi: 0 e lo spazio stesso, che sono due sottospazi impropri.

5Quindi il segno − pu`o essere interpretato come −1. 6Perch`e (-a)X=-(aX)

(10)

10 CAPITOLO 2. STRUTTURE GEOMETRICHE Consideriamo ora A ⊆ V e B ⊆ V. Si definisce A + B l’insieme costituito da tutte le possibili somme di un elemento di A con un elemento di B: A + B = v ∈ V | ∃v1∈ A, ∃v2∈ Btalichev = v1+ v2. Se A = x0 cio`e `e un solo vettore, allora basta scrivere x0+ B.

2.4.1

Teoremi sui sottospazi

Teorema 1 Sia V un K-spazio vettoriale e siano W1, W2 due sottospazi. Si ha che:

1. W1∪ W2 non `e mai un sottospazio a meno che uno dei due non contenga l’altro.

2. W1∩W2`e sempre un sottospazio (male che vada, conterr`a il vettore nullo) ed `e il pi`u grande sottospazio contenuto in emntrambi W1, W2.

3. W1+ W2 `e sempre un sottospazio, anzi `e il pi`u piccolo sottospazio che contiene W1, W2.8

Dimostrazione della propriet`a 3.

Sfruttiamo la propriet´a 3 dei sottospazio: Sia W = W1+ W2. Dimostriamo che W `e un sottospazio (i) e che `e il pi`u piccolo.

∀a, b ∈ K, ∀w, w0 ∈ W ⇒ aw + bw0∈ W .

w ∈ W significa che ∃w1∈ W1, ∃w2∈ W2tali che w1+ w2= w w0∈ W significa che ∃w0

1∈ W1, ∃w02∈ W2 tali che w01+ w02= w0 Dimostrare che aw + bw0∈ W significa quindi dimostrare che ∃X

1∈ W1, ∃X2 W2 tali che X1+ X2= aw + bw0.

Quindi aw + bw0= a(w

1+ w2) + b(w01+ w20) = aw1+ bw10+ aw2+ bw02da cui i primi due termini sono X1∈ W1 mentre terzo e quarto termine sono X2∈ W2. Per cui, `e stata dimostrata l’esistenza di X1eX2 com’era richiesto.

Consideriamo ora Kn,n>1e W , l’insieme delle soluzioni dell’equazione di tipo

a1x1 + · · · + aixi + · · · + anxn = 0. Tale equazione si chiama equazione di

W . Dobbiamo dimostrare che W `e un sottospazio. Se tutte le ai sono uguali

a 0, allora si ha un’identit`a per cui tutte le n-ple sono soluzioni. Altrimenti dobbiamo dimostrare che:

∀Y =         y1 .. . yi .. . yn         ∈ W

8Cio`e ogni sottospazio che contiene entrambi i sottospazi, ne contiene necessariamente la

(11)

2.4. SOTTOSPAZI 11 ∀Z =         z1 .. . zi .. . zn         ∈ W

Ecco la n-pla ∀a, b ∈ K:

aY + bZ =         ay1+ bz1 .. . ayi+ bzi .. . ayn+ bzn         Quindi abbiamo : aY ∈ W ⇐⇒ a1y1+ · · · + a1y1+ · · · + anyn e

bZ ∈ W ⇐⇒ b1z1+ · · · + b1z1+ · · · + bnzn dobbiamo verificare che valga la

seguente implicazione:

aY + bZ ∈ W ⇐⇒ a1(ay1+ bz1) + · · · + ai(ayi+ bzi) + · · · an(ayn+ bzn) = 0

che, mettendo in evidenza la a e la b diventa:

a(a1y1+ · · · + aiyi+ · · · + anyn) + b(b1z1+ · · · + bizi+ · · · + bnzn) ma entrambi

i termini tra parentesi sono, per ipotesi, uguali a 0, dunque: a · 0 + b · 0 = 0 c.v.d.

Invece, se n = 1 siamo in K dunque non ci sono sottospazi propri per la propriet`a II (comunque si prendano elementi 6= 0, ci sono tutti i numeri in K).

Ovviamente possiamo avere pi`u di un sottospazio: indichiamo cos`ı                W1= a11x1+ · · · .. . Wj= aj1x1+ · · · .. . Wm= am1z1+ · · ·

oppure, in forma matriciale, scrivendo AX = 0. Ogni soluzione di un sistema di equazioni lineari omogenee `e un sottospazio.

KK `e uno spazio vettoriale, mentre K[X] `e un suo sottospazio che rappre-senta l’insieme di tutti i polinomi nell’incognita X. Per indicare l’insieme dei polinomi di grado ≤ m si scrive Km[X].

Se consideriamo una retta, essa non ha sottospazi proprio, infatti se consideri-amo il sottospazio W e un punto P 6= 0, dove P ∈ W allora W contiene tutti gli altri punti della retta.

(12)

12 CAPITOLO 2. STRUTTURE GEOMETRICHE

2.5

Variet`

a lineari

Fissiamo un vettore X0 e un sottospazio W allora V = X0+ W e V si chia-ma variet`a lineare. Il sottospazio W viene invece denominato sottospazio associato alla variet`a lineare. La definizione `e equivalente se scritta cos`ı: X `e una variet`a lineare se ∃w ∈ W tale che X = X0 + W , oppure X tale che (X − X0) ∈ W .

Enunciamo alcune propriet`a che valgono per le variet`a lineari:

1. X0∈ V perch`e X0 = X0+ 0V. I vettori del sottospazio /∈ V eccetto un caso: V = X0+ W, V ≡ W ⇐⇒ X0∈ W cio`e la variet`a lineare coincide con W se X0`e un vettore di W.

2. Supponiamo di avere V = X0+ W e V0 = X1+ W . Quando due variet`a lineari hanno lo stesso sottospazio associato, allora:

(i) Coincidono se e solo se X0∈ V0∧ X1∈ V (ii) non hanno elementi in comune

2.5.1

Alcune definizioni sulle variet`

a lineari

a) Si chiama sottovariet`a di V la variet`a V0 quando V0= X

1+ W0∧ V = X0+ W e V0⊆ V.

Inoltre, V0 `e una sottovariet`a se e solo se X

1∈ V e W0 `e un sottospazio di W .

Ogni variet`a ha almeno u na sottovariet`a: quella composta dai suoi vettori. b) L’intersezioni di due variet`a si dice variet`a intersezione ed esiste a

condizione che le due variet`a abbiano almeno un punto in comune c) Due variet`a si dicono parallele se il sottospazio associato alla prima

contiene il sottospazio associato alla secondo o viceversa

d) Due variet`a si dicono sghembe se la loro intersezione `e vuota e non sono parallele

e) Si dice congiungente di due variet`a lineari la pi`u piccola variet`a lineare che le contiene entrambe

Esempi di variet`a lineari

1. Le variet`a lineari di una retta sono esclusivamente i punti e la retta stessa. Infatti ogni punto pu essere espresso come P + OV

2. Le variet`a lineari di un piano sono esclusivemente i punti, le rette e il piano stesso. Questo perch`e ogni punto pu`o essere inteso come variet`a intersezione di due rette, mentre ogni retta come variet`a congiungente due punti.

(13)

2.6. SPAZI FINITAMENTE GENERATI 13 due punti, ogni piano `e variet`a congiungente tre punti o una retta e un punto che non giace su essa o due rette complanari.

2.6

Spazi finitamente generati

2.6.1

Combinazione lineare

Sia V un K-spazio vettoriale con r vettori v1, . . . , vi, . . . , vr. Allora v ∈ V `e

combinazione lineare dei vettori se esistono r elementi a1, . . . , ai, . . . , ar tali

che v = a1v1+ · · · + aivi+ · · · + arvr.

Per esempio, in R3dati i due vettori v

1(1, 2, 4) e v2(3, 1, 6) il vettore v(5, 5, 14) `e loro combinazione lineare in quanto v = 2v1+ v2.

Il vettore nullo `e dato dalla combinazione lineare nulla ossia 0 = 0v1+ · · · + 0vi+ · · · + 0vr, in cui tutte le ai sono nulle.

2.6.2

Spazio delle combinazioni lineari Span

Consideriamo l’insieme di tutte le combinazioni lineari degli r vettori. Indichi-amo tale spazio con il simbolo Span(v1, . . . , vi, . . . , vr). Oppure, per comodit`a,

ponendo E = {v1, . . . , vi, . . . , vr} indichiamo tale spazio con Span(E).

Teorema 1 Sia V un K-spazio e sia (v1, . . . , vi, . . . , vr) una r-pla di suoi

vet-tori. Allora Span(v1, . . . , vi, . . . , vr) `e sempre un sottospazio di V .

Dimostrazione

∀v, v0 ∈ Span(E), ∀a, b ∈ K ⇒ av + bv0∈ Span(E). Per cui possiamo scrivere:

v = a1v1+ · · · + aivi+ · · · + arvre

v0= b

1v1+· · ·+bivi+· · ·+brvr. Dobbiamo quindi dimostrare che ∃c1, . . . , ci, . . . , cr

tali che: av + bv0= a

1v1+ · · · + civi+ · · · + crvr.

Ma questo si ha subito perch`e:

av = a · a1v1+ · · · + a · aivi+ · · · + a · arvre

bv0= b · b

1v1+ · · · + b · bivi+ · · · + b · brvr.

Per cui la loro somma `e av + bv0 = (aa

1+ bb1)v1) + · · · + (aai+ bbi)vi) + · · · +

(aar+ bbr)vr).

Abbiamo dunque trovato i valori che cercavamo: ci = (aai+ bbi)vi) e quindi

abbiamo dimostrato che l’insieme Span(E) `e un sottospazio.

2.7

Spazi finitamente generati

I vettori v1, . . . , vi, . . . , vrpresi singolarmente si dicono generatori dello spazio

Span, mentre l’insieme E si dice insieme generatore.

Pu`o accadere che V = Span(v1, . . . , vi, . . . , vr). Allora si dice che lo spazio

vettoriale V `e finitamente generato.9

(14)

14 CAPITOLO 2. STRUTTURE GEOMETRICHE Esempi di spazi finitamente generati

1. Il sottospazio {0} `e finitamente generato ed ha un solo generatore: 0. 2. La retta r `e finitamente generata in quanto basta prendere P 6= 0 dato

che ogni altri punto Q = aP .

3. Nel piano due punti P, Q che non sono sulla stessa retta generano tutto il piano.

Consideriamo ora lo spazio Kn, n > 1. Le n-ple:

e1=           1 0 .. . 0 .. . 0           e2=           0 1 .. . 0 .. . 0           · · · ei=           0 0 .. . 1 .. . 0           · · · en=           0 0 .. . 0 .. . 1          

sono l’insieme dei generatori dello spazio Kn, dove ogni vettore X `e dato

dalla seguente relazione:

X =           x1 x2 .. . xi .. . xm           = x1e1+ · · · + xiei+ · · · + xnen

Esempi di spazi finitamente generati

1. Lo spazio delle applicazioni K −→ K non `e finitamente generato.

2. Lo spazio dei polinomi in un’incognita non `e finitamente generato perch`e non esiste un numero finito di vettori.

3. Lo spazio Km,ndellematriciε

ij = (ars) dove ars= 0 tranne che per aij =

1.

Gli spazi span sono importanti perch`e tutti i sottospazi di V sono generati da un certo numero di vettori

2.7.1

Propriet`

a degli spazi finitamente generati (Teorema)

Sia V un K-spazio vettoriale e sia E = (v1, . . . , vi, . . . , vj, . . . , vr) ⊆ V . Allora:

1. Lo spazio generato da E, (Span(E)), non dipende dall’ordine dei vettori. 2. Span(E) = Span(E1) dove E1 `e ottenuto da E togliendo il vettore nullo

tutte le volte che compare in E.

3. Span(E) = Span(E1) dove E1 = {b1v1, . . . , bivi, . . . , bjvj, . . . , brvr} con

(15)

2.7. SPAZI FINITAMENTE GENERATI 15 4. Span(E) = Span(E1) dove E1 = {v1, . . . , vi+ avj, . . . , vr} cio`e si lascia

inalterato ogni vettore ad eccezione di vi che viene espresso in termini di

un’altro vettore vj10.

5. Span(E) = Span(E1) dove E1=   v1+ r X h=2 ahvh, v2+ r X h=1,h6=2 ahvh, . . . , vi+ r X h=1,h6=i ahvh, . . . , vr+ r−1 X h=1 ahvh    dove ogni sommatoria rappresenta la combinazione lineare di tutti gli altri

vettori.

2.7.2

Dipendenza e indipendeza lineare

Sia V un K-spazio vettoriale e siano i vettori v1, . . . , vi, . . . , vr∈ V . Diremo che

i vettori sono linearmente indipendenti se l’uguaglianza

a1v1+ · · · + aivi+ · · · + arvr= 0 `e vera se e solo se a1= · · · = ai= · · · = ar= 0,

con a1, . . . , ai, . . . , ar ∈ K cio`e se il vettore nullo pu`o essere ottenuto soltanto

mediante la combinazione lineare nulla.

In caso contrario, cio`e se i coefficienti ai non tutti nulli producono comunque il

vettore nullo, i vettori si dicono linearmente dipendenti11. Osservazioni

1. La dipendenza riguarda solitamente pi`u vettori, cio`e si dice che un vettore v `e linearmente dipendente da r vettori v1, . . . , vi, . . . , vr.

Un unico vettore v `e sempre linearmente dipendente perch`e se `e nullo `e sempre linearmente dipendente, altrimenti se non lo `e esiste un coefficiente a che per la legge di annullamento restituisce il vettore nullo: av = 0 ⇐⇒ a = 0.

2. Un vettore v `e linearmente dipendente da r vettori se pu`o essere espresso come combinazione lineare di tali vettori.

2.7.3

Insiemi di generatori - Teoremi - Il metodo degli

scarti successivi

Un insieme E ⊂ V si dice libero se i suoi vettori sono linearmente indipendenti, altrimenti si dice non libero.

Teorema 1 Sia V un K-spazio vettoriale ed E = v1, . . . , vi, . . . , vj, . . . , vr⊆ V .

Allora si ha:

1. Il fatto che E sia libero o meno non dipende dall’ordine dei vettori. 2. Se r = 1, cio`e se E = {v1} allora E `e libero se e solo se v16= 0. 3. Se vi= 0 ∈ E allora E non `e libero.

10E importante perch`e se v`

i+ avj= 0, possiamo eliminarlo per la propriet`a 2.

11In altre parole, il vettore nullo si ottiene anche (e non solo) da una combinazione lineare

(16)

16 CAPITOLO 2. STRUTTURE GEOMETRICHE 4. Se ∃vj dipendente da tutti gli altri vettori, allora E non `e libero.

5. Se E non `e libero e se a1v1+ · · · + aivi+ · · · + ajvj+ arvr= 0 con aj6= 0

allora vj `e combinazione lineare degli altri, cio`e `e linearmente dipendente

dagli altri.

6. Se E `e libero allora ogni suo sottoinsieme non vuoto `e libero. Dimostrazione

1. `E ovvio dato che l’ordine non cambia il risultato nella combinazione lin-eare.

2. Se v 6= 0 risulta che av = 0 se e solo se a = 0, ossia si ha 0 solo con la combinazione lineare nulla.

3. Se vi= 0 allora se prendiamo coefficienti a tutti uguali a 0, ad esclusione di

ai= 1, otteniamo 0v1+· · ·+· · ·+0vi−1+1vi+0vi+1+· · ·+0vr= 1·vi= 0

cio`e otteniamo il vettore nullo con una combinazione lineare non nulla.12 4. Se vj `e dipendente, significa che posso scrivere vj = a1v1+ · · · + aivi+

· · · + ar= 0.

5. Dato che esiste l’inverso dell’elemento aj possiamo moltiplicare ogni

ad-dendo per tale elemento ottenendo vj = −a−1j a1v1− · · · − a−1j aivi− · · · −

a−1j arvr.

6. Prendiamo un sottoinsieme con un numero h < r di elementi. Pi`u pre-cisamente prendiamo i primi h elementi di E : E0 = {v

1, . . . , vr}. Se

tali vettori fossero dipendendi, allora potremmo ottenere il vettore nul-lo con qualche ai 6= 0, ma questo sarebbe assurdo in quanto si avrebbe

a1v1+ · · · + aivi+ · · · + ahvh+ 0vh+1+ · · · + 0vr= 0 quindi si otterrebbe

il vettore nullo da una combinazione lineare diversa da quella nulla. Ma ci`o non `e possibile in quanto E `e libero.

Il seguente teorema ci permette di dare una caratterizzazione degli insiemi liberi:

Teorema 1 Sia V un K-spazio vettoriale e sia E = {v1, . . . , vi, . . . , vr} ⊆ V .

Allora sono equivalenti: 1. E `e libero.

2. v1 `e diverso da 0 e vi non `e combinazione lineare dei precedenti cio`e

vi∈ Span(v/ 1, . . . , vi−1)∀i = 2, . . . , r.

3. Se v ∈ Span(E) allora v si ottiene in modo unico come combinazione lineare di (v1, . . . , vi, . . . , vr).

12Ad esempio, dato l’insieme E = {v

(17)

2.8. BASI E DIMENSIONE 17 Il metodo degli scarti successivi

Abbiamo l’insieme E = {v1, . . . , vi. . . , vr} tale che E genera lo spazio Span(v1, . . . , vi, . . . , vr).

Ci chiediamo se esista un insieme E0 tale che:

1. E0 `e libero

2. Span(E0) = Span(E).

Il problema ammette varie soluzioni; infatti E0 non `e unico. Ci sono anche

svariati metodi che portano alla soluzione di questo problema. Il metodo degli scarti successivi `e un metodo abbastanza semplice che ci restituisce un insieme E0⊂ E. Ecco i passi da seguire:

1. Sia E1 ottenuto da E togliendo il vettore nullo tutte le volte che vi compare.

2. Se in E0v

2risulta essere combinazione lineare di v1lo scartiamo, altrimenti lo lasciamo.

3. Se v3risulta essere combinazione lineare di v2e v1lo scartiamo, altrimenti lo lasciamo.

4. Iteriamo tale procedimento finch`e non arriviamo all’ultimo vettore. Allora: se non abbiamo scartato alcun vettore, E1 `e l’insieme E0 che cercavamo. Altrimenti se vi `e il primo vettore scartato, si ripete il procedimento a

partire dall’elemento vi+1.

Dobbiamo provare che E0 gode delle due propriet`a. Allora, siccome al passo 1

abbiamo applicato la propriet`a che dice che uno spazio non cambia se dall’in-sieme dei generatori eliminiamo il vettore nullo. Al passo 2 invece possiamo applicare l’altra propriet`a che dice che uno spazio non cambia se togliamo dallo spazio dei generatori quei vettori che sono combinazione lineare degli altri. Quin-di Span(E0) = Span(E). Otteniamo per`o uno spazio che dipende dall’ordine,

essendo ogni vettore combinazione lineare dei precedenti.

2.8

Basi e dimensione

Sia V uno spazio finitamente generato. Un sottoinsieme di vettori B = {v1, . . . , vi, . . . , vn}

si chiama base di V se: 1. B `e libero. 2. V = Span(B).

Teorema (di esistenza delle basi) 1 Sia V un K-spazio vettoriale finitamente generato. Allora esiste una base di V .

Dimostrazione

Se applichiamo il metodo degli scarti successivi ai vettori di E otteniamo un insieme libero che genera tutto lo spazio. Quindi `e una base.

Teorema (del completamento di una base) 1 Sia V un K-spazio vettori-ale finitamente generato e sia E = {v1, . . . , vi, . . . , vr} un insieme libero di

(18)

18 CAPITOLO 2. STRUTTURE GEOMETRICHE Dimostrazione

Sia F = {w1, . . . , wj, . . . , wm} un sistema di generatori. Ossia Span(F ) = V.

Allora F0 = {v

1, . . . , vi, . . . , vr, w1, . . . , wj, . . . , wm}. Allora se si applica a F0

il metodo degli scarti successivi essendo E libero i suoi vettori non vengono scartati e quindi la base che si trova contiene E.

Teorema 1 Sia V un K-spazio vettoriale finitamente generato. Allora tutte le basi di V hanno lo stesso numero di elementi. Tale numero si chiama dimensione e si indica con il simbolo (dimV ).13

Teorema 1 Sia V un K-spazio vettoriale finitamente generato e sia (dimV ) = n. Sia inoltre E = {v1, . . . , vi, . . . , vr} ⊆ V . Allora:

1. Se E `e libero allora r ≤ n. Inoltre r = n se e solo se E `e anche una base (ossia Span(E) = V ).

2. Se Span(E) = V allora r ≥ n. Inoltre r = n se e solo se E `e una base (ossia E `e libero).

3. Ogni sottospazio W di V `e finitamente generato. Se (dimW ) = r allora r ≤ n. Inoltre r = n se e solo se W = V .

Esempi di basi di spazi finitamente generati e dimensione

1. Consideriamo uno spazio Kn. Tale spazio ha dimensione n. Sappiamo

gi che l’insieme E = {e1, . . . , ei, . . . , en} con ei vettore con tutte le

com-ponenti nulle eccetto la i-esima, `e un sistema di generatori di Kn. Tale

insieme risulta essere una base, in quanto il vettore nullo viene ottenuto solo mediante la combinazione lineare nulla.

2. Nella retta una base `e costituita da un segmento diverso dal segmento di lunghezza nulla.

3. Se consideriamo lo spazio dei polinomi di grado ≤ m e indichiamo tale spazio con Km[X] notiamo che una base `e costituita dai monomi di grado

<= m cio`e xm, xm−1, . . . , x, x0= 1. Inoltre dim(K

m[X]) = m + 1.

4. Se consideriamo lo spazio delle matrici Km,n, le basi sono date da quelle

matrici denominate eij i cui elementi valgono sempre 0 ad eccezione

del-l’elemento aij = 1. )Inoltre, dim(Km,n) = mn.

2.8.1

La relazione di Grassmann (teorema)

Sia V un K-spazio vettoriale di dimensione n. Siano poi Wre Wmdue sottospazi

rispettivamente di dimensione r e m. Definiamo inoltre i due spazi somma e intersezione: Wi= Wm∩ Wr e Ws= Wm+ Wr rispettivamente di dimensione

i e s. Allora vale la seguente relazione: s = r + m − i dove s ≤ m e i ≤ min{m, r}.

(19)

2.8. BASI E DIMENSIONE 19

2.8.2

Componenti rispetto a una base

Sia V un K-spazio vettoriale e B = {v1, . . . , vi, . . . , vn} una sua base.

Allo-ra qualunque vettore x ∈ V pu`o essere scritto come combinazione lineare dei vettori della base. Gli scalari che indicano la base sono anche denominati com-ponenti del vettore relative alla base.

Quindi la scrittura x = x1v1+ . . . + xivi+ . . . + xnvn pu`o essere individuato

dalla n-pla ordinata

        x1 .. . xi .. . xn        

Con tale convenzione possiamo scrivere in maniera abbreviata anche la molti-plicazione di uno scalare per un vettore e la somma dei due vettori, considerando semplicemente la n-pla delle componenti del vettore. Con questa convenzione possiamo confondere lo spazio vettoriale di V di dimensione n con Kn. In

par-ticolare, poich`e `e:

v1= 1v1+ · · · + 0vi+ · · · + 0vn

· · ·

vi= 0v1+ · · · + 1vi+ · · · + 0vn

· · ·

vn= 0v1+ · · · + 0vi+ · · · + 1vn

si ha che i vettori v1, . . . , vi, . . . , vn coincidono con dei vettori con elementi tutti

nulli ma con componente i-esima uguale a 1.

2.8.3

La base canonica

Prima che si definisse Kn come K-spazio vettoriale, una scrittura del tipo

(x1, . . . , xi, . . . , xn) avva il significato di n-pla ordinata di elementi di K. Stesso

significato anche per le n-ple che abbiamo definito come (e1, . . . , ei, . . . , en cio`e,

ad esempio, la n-pla (1, 0, . . . , 0, . . . , 0). Ora, avendo definito lo spazio vettori-ale, sappiamo che le n-ple hanno il significato di componente dei vettori della base di Kn relativamente alla base che essi stessi determinano. Ovviamente il

significato di un vettore rimane inalterato, ovvero i valori delle sue componen-ti non cambiano, se consideriamo come base le n-ple (et

1, . . . , eti, . . . , etn). Ecco

perch`e tali n-ple vengono denominate base canonica di Kn.

Esempi

(20)

20 CAPITOLO 2. STRUTTURE GEOMETRICHE 2. Il vettore x = (3, 4, 5, 6) nello spazio delle matrici K2,2 che ha come base

E = {e11, e12, e21, e22} diventa la matrice µ

3 4 6 5

3. Nello spazio dei polinomi R3[X] con base B = {x5, x2, x, x0} il solito vet-tore x = (3, 4, 6, 5) rappresenta il polinomio ordinato (secondo le potenze crescenti di x) 3x3+ 4x

2+ 6x + 5.

Teorema 1 Sia V un K-spazio vettoriale e B una sua base.

Sia E = {v1, . . . , vi, . . . , vr} e siano X1, . . . , Xi, . . . , Xr le r-ple associate ai

vettori di E relativamente alla base B.

Allora E `e libero se e solo se le r-ple X1, . . . , Xr sono linearmente indipendenti.

Dimostrazione. Se v1, v2sono linearmente indipendenti possiamo ottenere il vettore nullo solo con la combinazione lineare nulla. Perci`o otteniamo la n-pla nulla se e solo se sommiamo ogni elemento per lo 0.

2.8.4

Dimensione di una variet`

a lineare

Data una generica variet`a lineare V = X0+ W si definisce dimensione della variet`a lineare la dimensione del sottospazio associato. Si ha cio`e la relazione dimV = dimW .

Scriveremo dunque Vm= X0+ Wm intendendo con la lettera m al pedice, la

dimensione della variet`a e del sottospazio associato.

Ricordiamo a questo proposito che anche il sottospazio `e una variet`a lineare, e che in particolare se X0= 0V si ha che V = W . Definita allora la relazione

dimV = m abbiamo le seguenti definizioni:

1. se m = 0 allora la variet`a V0= X0+ {0} si dice punto 2. se m = 1 allora la variet`a V1= X0+ W1 si dice retta 3. se m = 2 allora la variet`a V2= X0+ W2 si dice piano 4. se m = 3 allora la variet`a V3= X0+ W3 si dice spazio14

5. se m = n − 1 allora la variet`a Vn−1= X0+ Wn−1si dice iperpiano 15

Viene spontaneo dire che le rette sono gli iperpiani del piano, i piani sono gli iperpiani dello spazio, e cos`ı via in modo tale da definire ogni sottovariet`a di dimensione m − 1 come iperpiano della variet`a di dimensione m. Ovviamente, ogni teorema che vale per gli iperpiani vale anche per le rette nei piani e per i piani nello spazio.

(21)

2.8. BASI E DIMENSIONE 21

2.8.5

Variet`

a intersezione e congiungente

Date le due variet`a Vr= X0+ Wr e Vm= X1+ Wm. Allora possiamo definire

le seguenti:

• La variet`a intersezione Vr∩ Vm∃ se e solo se Vr∩ Vm6= ®. In tal caso,

Vi= Y + Wi dove Y ∈ Vm∩ Vr e Wi∈ Wr∩ Wm per cui dimVi= i.

• La variet`a congiungente Vc`e la pi`u piccola variet`a che contiene entrambe

le variet`a congiunte.16 Allora V

c= X0+ Span(X1− X0) + Wm+ Wr.

Inoltre si dimostra che:

1. se Vr∩ Vm6= ® allora c = r + m − i

2. se Vr∩ Vm= ® allora c = r + m − i + 1

dove vale sempre la relazione i ≤ min{r, m} e c ≤ n17.

Teorema 1 Sia V un K-spazio vettoriale di dimensione n e siano Vn−1, Vn−10

due iperpiani di V .

Allora Vn−1, Vn−10 non sono sghembi ossia o sono paralleli oppure si intersecano

in una variet`a di dimensione n − 218.

Dimostrazione. Dobbiamo considerare 2 casi:

1. Se Vn−1 ∩ Vn−10 = ® allora consideriamo Vc che ha dimensione c =

r + m − i + 1 = n − 1 + n − 1 − i + 1 = 2n − i − 1.

Essendo c ≤ n dev’essere per forza i ≥ n − 1. D’altra parte avevamo sup-posto i ≤ n − 1 essendo i = min{n − 1, n − 1} per cui sar`a necessariamente i = n − 1 poich`e Wi = Wn−1∩ Wn−10 . Ci`o significa che i due sottospazi

sono lo stesso sottospazio e dunque gli iperpiani sono paralleli.

2. Se Vn−1∩ Vn−10 6= ® allora i = n − 1 + n − 1 − i = 2n − i − 2 ≤ n, cio`e

i ≥ n − 2 ma poich`e i ≤ n − 1 risulta essere i = n − 1 oppure i = n − 2 e dunque Vn−2. Allora Wi= Wn−1= Wn−10 : i duq iperpiani coincidono.

16Per esempio, la variet`a congiungente due punti `e una retta 17perch`e lo spazio vettoriale contiene sicuramente entrambe le variet`a

18Ad esempio, nello spazio 2 piani non sono mai sghembi: o sono paralleli o si intersecano;

(22)

Capitolo 3

Matrici

Definiamo A ∈ Km,n una matrice con m righe R

1, . . . , Ri, . . . , Rm ∈ Kn1 e n

colonne C1, . . . , Ci, . . . , Cn∈ Km.

Notiamo che gli spazi generati da righe e colonne sono totalmente diversi, in-fatti le righe generano sottospazi di Kn: Span(R

1, . . . , Ri, . . . , Rm) = R(A); le

colonne invece generano sottospazi di Km:Span(R

1, . . . , Ri, . . . , Rm) = R(A).

Teorema 1 Si ha che dimR(A) = dimC(A). Tale dimensione `e detta carat-teristica o rango della matrice A e si indica con ρ(A). Tale numero indica il massimo numero di righe e colonne linearmente indipendenti e risulta rispettare la seguente relazione: ρ(A) ≤ min{m, n}.

3.1

Matrice ridotta

Una matrice si dice ridotta per righe se in ogni riga Ri non nulla esiste un

elemento non nullo aiji tale che tutti gli elementi che sono sotto di esso sono

nulli (cio`e tale che tutti gli elementi aij, j + h : ∀h = 0, 1, . . . m − isononulli).

Una matrice si dice ridotta per colonne se in ogni colonna Cjnon nulla esiste

un elemento non nullo aijj tale che tutti gli elementi che sono alla sua destra sono

nulli (cio`e tale che tutti gli elementi aij, j + h : ∀h = 0, 1, . . . m − jsononulli).

Teorema 1 La caratteristica di una matrice A = (aij) ridotta per righe (o per

colonne) `e uguale al numero di righe (o di colonne) non nulle

3.1.1

Ridurre una matrice

Sorge il problema della riduzione di una matrice. Come eseguire tale operazione? Prima di tutto definiamo l’operazione: ridurre una matrice A ∈ Km,nper righe

(o per colonne) significa trovare una matrice A0 ∈ Km,n che sia ridotta per

righe (o per colonne) tale che R(A) = R(A0) (oppure C(A) = C(A0)). Possiamo

eseguire sulle matrici 3 operazioni fondamentali (su righe o su colonne): 1. scambiare tra loro 2 righe o 2 colonne: Ri←→ Rj oppure Ci←→ Cj

1Attenzione: m righe in Kn!!!

(23)

3.2. DETERMINANTI 23 2. moltiplicare tutti gli elementi di una riga o di una colonna per un valore

non nullo: Ri→ aRi, a 6= 0 oppure Ci→ aCi, a 6= 0

3. sostituire una riga (o una colonna) con una combinazione lineare ottenuta sommando alla riga (o alla colonna) un’altra riga (o colonna) moltiplicata per un valore: Ri→ Ri+ aRj, i 6= j oppure Ri→ Ci+ aCj, i 6= j

Teorema 1 Le operazioni fondamentali non cambiano R(A) se eseguite su righe e C(A) se eseguite su colonne

(Dimostrazione). Questo succede perch`e, per un vecchio teorema sugli spazi vettoriali, R(A) non cambia con l’ordine, R(A) non cambia per av1 se a 6= 0, R(A) non cambia per v1= v1+ av2.

Il teorema successivo ci permetter`a di conoscere il procedimento di riduzione di una matrice.

Teorema 1 Sia A ∈ Km,n. Allora esiste A0 ∈ Km,n ridotta per righe di A ed

esiste A00∈ Km,n ridotta per colonne di A.

Dimostrazione. La dimostrazione `e ovvia, dato l’algoritmo di riduzione di una matrice:

1. Sia Ri la prima riga non nulla di A e sia aiji 6= 0. Sia A1 la matrice

ottenuta mediante le operazioni elementari eseguendo il seguente calcolo: Rh→ Rh−aahji

iji · Ri∀h = i + 1, . . . , m − i

2. Vado al passo 1, ponendo A1 al posto di A

Ovviamente le righe nulle sono quelle linearmente indipendenti.

3.1.2

Sottomatrice e orlata

Supponiamo di avere le due matrici A ∈ Km,n, B ∈ Kp,q con p ≤ m, q ≤ n.

Allora si dice che B `e sottomatrice di A se B si pu`o pensare ottenuta da A prendendo gli elementi comuni a p righe e q colonne di A. Oppure possiamo anche dire, togliendo da A m − p righe e n − q colonne.

Sia allora B ∈ Kp,puna sottomatrice quadrata di A. Allora si chama orlata

di B ogni matrice C ∈ Kp+1,p+1 che sia sottomatrice di A e tale che B sia una

sua sottomatrice.

3.2

Determinanti

Ora, prima di occuparci del determinante, richiamiamo alcune definizioni che torneranno utili.

Scriviamo il simbolo Nn= {1, . . . , n} l’insieme dei primi n numeri naturali.

Definiamo permutazione di un insieme di questo genere un’applicazione bi-univoca p : Nn −→ Nn. Una tale permutazione viene spesso indicata con la

n-pla ordinata i1, i2, . . . , ij, . . . , in dove pj = ij cio`e ij `e il corrispondente del

(24)

24 CAPITOLO 3. MATRICI Allora data una permutazione sia r ≥ 0 il numero di coppie di elementi ij, ih

con j < h: la permutazione `e di classe pari se r `e pari; altrimenti `e dispari. Ricordiamo che:

1. Se in una permutazione si scambiano due elementi tra loro, si ottiene una permutazione di classe diversa.

2. Il numero di scambi che occorre fare in una permutazione per ottenere la permutazione principale (cio`e quella ordinata) ha sempre la stessa parit`a della permutazione originaria.

Definiamo dunque cos’`e il determinante. Data una matrice A ∈ Kn,nil

deter-minante | A | `e il numero ottenuto come segue: P(−1)ra

1j1a2j2· · · ahjh· · · anjn.

La sommma praticamente `e estesa alle n! permutazioni dei secondi indici e r indica la parit`a di questa permutazione.

Quindi il determinante `e il numero che si ottiene facendo: 1. la somma algebrica di n! addendi

2. ogni addendo ha n fattori

3. il primo fattore `e nella prima riga, il secondo nella seconda riga, ..., l’ultimo nell’ultima riga

4. in ogni addendo c’`e uno e un solo fattore di una riga e di una colonna 5. in due addendi diversi le relative permutazioni dei secondi indici sono

diverse

6. ogni addendo `e preso con il suo segno se la permutazione dei secondi indici `e pari, altrimenti con il segno cambiato se la permutazione `e dispari.

3.2.1

Propriet`

a del determinante

Enunciamo le seguenti propriet`a:

1. Se invece di procedere per righe procediamo per colonne, il determinante ottenuto `e lo stesso. Di conseguenza: a)tutte le propriet`a che valgono per le righe valgono per le colonne, b) | A |=| At|.

2. Data una matrice triangolare, il suo determinante coincide con il prodotto degli elementi della diagonale principale

3. Se ina matrice sono nulli tutti gli elementi da una stessa parte della diagonale secondaria, allora | A |= (−1)n(n−1)2 a1na2(n−1)· · · an12.

4. Se in una matrice una riga (o una colonna) `e nulla, allora | A |= 0 5. Se si scambiano due righe (o due colonne) allora il determinante della

nuova matrice cambia segno: Ri←→ Rj: |A0| = −|A|

6. Se si moltiplica una riga per un valore allora il determinate della nuo-va matrice si ottiene moltiplicando il vecchio determinante per il nuo-valore: Ri−→ aRi: |A0| = a|A|.

(25)

3.2. DETERMINANTI 25 7. Se due righe sono proporzionali, il determinante `e nullo: Ri= aRj, i 6= j :

|A| = 03.

8. Se Ri = R0i+ R00i allora |A| = |A0| + |A00|

9. Se Ri −→ Ri+ aRj allora |A0| = |A|4.

3Infati se dividiamo la riga R

j per a, il determinante risulta diviso per a. Inoltre se

scambiamo due righe otteniamo un determinante di segno opposto, e ci`o porta a concludere che |A| = −|A| e naturalmente ci`o `e possibile solo se il determinante `e nullo

4Infatti, possiamo ricondurci alla propriet`a 8 ottenendo |A

0| = |A| + 0 (determinante della

Riferimenti

Documenti correlati

NOTA: −1 per ogni risposta errata; +1 e +1.5 risp.. per quesiti “Vero/Falso” e

Esibire il prodotto di tre matrici che diagonalizza la matrice di f nelle basi canoniche (senza calcolare il prodotto) e scrivere la matrice risultante.. Calcolare il seno

Autorizzo la pubblicazione in rete del risultato dell’esame... Esame di Geometria 1 — 5

Non avendo ancora introdotto le derivate, non possiamo ancora trarre conclusioni sulla crescenza di f , a meno di fare qualche manipolazione algebrica. Rimandiamo

Esercizi di Algebra Lineare Rette nel piano e nello spazio reale.

Determinare l’equazione del piano contenente la retta di equazioni r : (2t, 3t − 1, −2) e passante per l’origine.

Disegnare il grafico approssimativo della funzione dell’esercizio 8 nell’apposito spazio sul

Due rette parallele tagliate da una trasversale formano coppie di angoli che godono di particolari relazioni tra loro, e che assumono nomi specifici.. Una trasversale nel tagliare