• Non ci sono risultati.

HOW TO ALGEBRA. A x = b. Determinante. Matrice inversa. Rango. Nucleo. Sistema lineare. Controllo dipendenza e indipendenza lineare

N/A
N/A
Protected

Academic year: 2022

Condividi "HOW TO ALGEBRA. A x = b. Determinante. Matrice inversa. Rango. Nucleo. Sistema lineare. Controllo dipendenza e indipendenza lineare"

Copied!
17
0
0

Testo completo

(1)

HOW TO ALGEBRA

Determinante

1 MEG (però se cambio riga cambio il segno) + prodotto pivot -> se matrice quadrata

2 Teorema degli sviluppi di Laplace 3 Prodotto degli autovalori Proprietà

Matrice inversa

-> deve avere rango massimo / determinante diverso da 0 => essere non singolare 1 Algoritmo di Gauss-Jordan

2 Formula 2x2 :

3 dove i sono i complementi algebrici delle righe i e colonne j 4 Teorema di Hamilton-Cayley

= risoluzione del polinomio caratteristico con A al posto di 𝝀 + moltiplicazione per A-1 (per trovare la matrice inversa)

Rango

1 MEG + calcolo n° pivot diversi da 0 2 Teorema di Kronecker

-> si usano i minori di ordine k (il numero di minori è nk)

Nucleo

1 Soluzioni

-> esiste solo se il rango di A è minore di n

Sistema lineare

N° soluzioni

1 Teorema di Roche-Capelli Soluzioni

1

2 MEG

3

-> se esiste il KER le soluzioni dipendono da un parametro

4 Formula di Cramer :

Controllo dipendenza e indipendenza lineare

Si mettono i vettori in una matrice M e si guarda 1 Determinante

=> linearmente indipendenti => linearmente dipendenti

2 MEG su M -> le colonne/righe con i pivot sono i vettori linearmente indipendenti

3 Prodotto scalare ->

4 Vettori ortogonali sono sempre linearmente indipendenti Indipendenza lineare tra 3 vettori

Trovare un vettore linearmente indipendente

Basta sommare tutti i vettori e poi sommare uno ad una componente

d et (A) = d et (A

T

)

A

−1

= 1

d et (A) ⋅ [ d −b −c a ] A

−1

= 1

d et (A) ⋅ [C

ij

]

T

C

ij

A ⋅ x = 0

A ⋅ x = b

x = A

−1

⋅ b x = v

0

+ K ER(A)

x = x

1

. . . . . .

x

n

x

i

= d et (A

i

) d et (A)

d et (M ) ≠ 0 d et (M ) = 0

< v, w > = || v || ⋅ || w ||

u ∙ ( v × w) ≠ 0

(2)

Base

Trovare una base

Controllo l'indipendenza lineare sui vettori generatori Cambiamento di base

Trovo la matrice di passaggio dalla base B alla base B'

inversa:

-> la matrice di passaggio è invertibile

Trovare le coordinate di un vettore rispetto a una base Le soluzioni del sistema è il vettore delle coordinate

Spazio vettoriale

Controllo spazio vettoriale

- Somma e prodotto per scalare interni - 8 proprietà

Controllo sottospazio vettoriale - Somma e prodotto per scalare interni - Vettore nullo appartenente

Controllo intersezione spazi / sottospazi vettoriali

Si controlla l'appartenenza dei vettori di uno spazio vettoriale all'altro spazio

-> la soluzione è formata da vettori, il numero dei vettori è uguale alla dimensione dell'intersezione ed i vettori risultato sono una base dell'intersezione

Sottospazi vettoriali notevoli si NO

Trovare l'equazione cartesiana di un sottospazio

Si mettono in una matrice i generatori del sottospazio e si trova la base del -> i vettori della base trovata sono i coefficienti dell'equazione cartesiana del sottospazio Basi dei sottospazi

1 in equazioni cartesiane

Si risolve il sistema lineare associato all'equazione cartesiana (solitamente numero di incognite - numero di equazioni)

2

La base è formata dai vettori di una base che appartengono anche all'altra -> vengono soddisfatte le equazioni dei sottospazi messe a sistema

metodo : prendo le equazioni cartesiane dei sottospazi , le metto a sistema e risolvo il sistema omogeneo composto da quelle equazioni

2

La base è formata dai vettori della base di U che non appartengono a W uniti con quelli di W -> si trovano i vettori che soddisfano tutte le equazioni dei due sottospazi

metodo : metto a sistema le basi dei due spazi per trovare i vettori linearmente dipendenti, li tolgo, e i vettori che mi rimangono sono la base dello spazio somma

Uguaglianza di due spazi vettoriali

1 Uno spazio è contenuto nell'altro e hanno stessa dimensione 2 Uno spazio è contenuto nell'altro e viceversa

Formula di Grassman

- somma diretta

Teorema di nullità più rango

B = < v

1

, . . . , v

n

> → B′ = < b

1

, . . . , b

n

>

[ b

1

. . . b

n

] = [ v

1

. . . v

n

] ⋅ M

c

[ v

1

. . . v

n

] = [ b

1

. . . b

n

] ⋅ M

c−1

[ b

1

. . . b

n

| v]

U ∩ W, U + W, K ER(A) . . . U ∪ W

A K ER(A

T

)

U dim(U ) =

U ∩ W

U e W U + W

dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ) dim(U ⊕ W ) = dim(U ) + dim(W )

dim(K ER(A)) + R(A) = n

(3)

Spazio riga e spazio colonna

1

2

3

4

5

6

7

Trovare una base di spazio riga e spazio colonna

Una base dello spazio riga di A è formata dalle righe non nulle della matrice ridotta a scala U (guardo le righe di U) Una base dello spazio colonna di A è formata dalle colonne linearmente indipendenti di A (guardo le colonne di A)


dim(r o w(A)) = dim(col(A)) = R(A) = R(U )

r o w(A) = r o w(U ) col(A) ≠ col(U ) Im(L) = col(L) r o w(A

T

) = col(A) r o w(A) = col(A

T

) K ER(A) = K ER(U ) B

row(A)

:

B

col(A)

:

(4)

Applicazione lineare L

Controllo linearità

= controllo additività e omogeneità

Additività :

Omogeneità :

Fibra

1 = controimmagine

2

Nucleo

Teorema di nullità più rango

-> per una matrice n è Base del nucleo

Si risolve il sistema lineare omogeneo : o Controllo appartenenza al nucleo

Controllo dipendenza lineare vettore / vettore dei coefficienti rispetto alle basi del nucleo Similitudine al nucleo

Un sottospazio di qualunque può essere il nucleo di un applicazione lineare se l'applicazione lineare è in e ha la stessa dimensione del nucleo trovato tramite la matrice rappresentativa

Immagine

Teorema di nullità più rango

Base dell'immagine

Sono i vettori colonne linearmente indipendenti della matrice rappresentativa

Sono le matrici individuate dalle colonne linearmente indipendenti della matrice rappresentativa

->

= la base dell'immagine è uguale alla base dello spazio colonna della matrice rappresentativa Controllo appartenenza all'immagine (o spazio colonna)

Controllo dipendenza lineare vettore / vettore dei coefficienti rispetto alle basi dell'immagine (= di col(L)) Vettori dell'immagine

I vettori dell'immagine di L definita da A sono i vettori del tipo => sono combinazione lineare delle colonne di A Similitudine all'immagine

Un sottospazio di qualunque può essere l'immagine di un applicazione lineare se l'applicazione lineare è in e ha la stessa dimensione dell'immagine trovata tramite la matrice rappresentativa

Iniettività

1

2

3

Suriettività

1

2

3

L : V → W v → L ( v) = w v → L ( v) = A ⋅ v = w

L ( v + w) = L ( v) + L ( w) L (t ⋅ v) = t ⋅ L ( v)

L

−1

( w) = {v ∈ V : L( v) = w}

L

−1

( w) = v

0

+ K ER(L)

L

−1

(0

w

) = {v ∈ V : L( v) = 0}

dim(K ER(L)) + R(L) = n m × n

M

L

= 0 M

L

= 0

m,n

U R

n

R

n

U

Im(L) = {w ∈ W : ∃v ∈ V con L( v) = w}

dim(K ER(L)) + dim(Im(L)) = dim(V )

B

Im(L)

= B

col(ML)

v = A ⋅ x

U R

n

R

n

U

K ER(L) = 0 R(L) = n

R(L) = dim(Im(L)) = dim(V ) = n

Im(L) = W

R(col(L)) = m

R(L) = dim(W ) = m

(5)

Biettività

= esistenza dell'inversa

-> L invertibile = L iniettiva e suriettiva => L è un isomorfismo

1

2

Trovare la matrice di cambiamento di base

La matrice di passaggio è la matrice tale che

-> le componenti della matrice P sono le coordinate della base vecchia rispetto alla base nuova Cambiamento di coordinate

Trovare la matrice rappresentativa

Partendo da dati sul funzionamento dell'applicazione lineare

1. Trovo l'applicazione lineare delle basi (di ogni singolo vettore della base)

2. Trovo i coefficienti, delle applicazioni lineari dei vettori della base, come combinazione lineare dei vettori della base (i vettori di coefficienti che trovo sono i trasposti)

3. Costruisco una matrice quadrata con i vettori dei coefficienti trovati = matrice rappresentativa

Relazione matrice rappresentativa e di cambiamento di base (modo per trovare matrice rappresentativa rispetto ad un altra base)

A matrice rappresentativa L (da Bv a Bw) A' matrice rappresentativa L' (da B'v a B'w)

T cambio base da Bv a B'v e P cambio base da Bw a B'w

Partendo da due autovettori

Si trova il vettore ortogonale ad entrambi i vettori con il prodotto vettoriale

Tramite la decomposizione spettrale si ricava A (somma di autovalore per matrice proiezione ortogonale del rispettivo autospazio)

Teorema di nullità più rango

1

-> per una matrice n è 2

R(L) = m = n

R(L) = dim(V ) = dim(W )

B

v

→ B

b

[ b

1

. . . b

n

] = [ v

1

. . . v

n

] ⋅ P x = P ⋅ x

A′ = T

−1

⋅ A ⋅ P

dim(K ER(L)) + R(L) = n m × n

dim(K ER(L)) + dim(Im(L)) = dim(V )

(6)

Autovalori e Autovettori

Calcolo autovalori

- possono non esistere su R, ma solo su C

=>

Autovalori di matrice ortogonale Una matrice ortogonale reale ha

Matrici simili

Proprietà - - -

1

2 hanno stesso polinomio caratteristico, autovalori, traccia, determinante e rango Criteri similitudine

1 A diag + B non diag => A non simile a B

2 A diag + B diag (stessa molteplicità geometrica da prima) => se PA = PB (stesso polinomio caratteristico)

=> se hanno gli stessi autovalori con le stesse molteplicità algebriche e geometriche 3 A non diag + B non diag

=> se esiste S tale che

=> se hanno gli stessi autovalori con le stesse molteplicità geometriche Matrice invertibile di passaggio da B ad A (S)

e

-> la matrice di passaggio è la moltiplicazione della matrice degli autovettori (che diagonalizza) di A per l'inversa della matrice degli autovettori di B

Polinomio caratteristico

-> (per matrice quadrata)

->

Matrice 2x2

Matrice triangolare

Autovettori

v è un autovettore di L se

-

-

Trovare autovettore Indipendenza lineare

n autovettori sono linearmente indipendenti quando gli autovalori a loro relativi sono diversi -> massimo numero di vettori linearmente indipendenti =

λ tale che d et (A − λ I ) = 0 K ER(A − λ I ) ≠ {0}

λ

i

= ± 1

A ∼ A

A ∼ B ⇒ B ∼ A

A ∼ B ∧ B ∼ C ⇒ A ∼ C B = S

−1

⋅ A ⋅ S ⇒ A ∼ B A ∼ B ⇒

A ∼ B A ∼ B

A ∼ B B = S

−1

⋅ A ⋅ S

A ∼ B

T

−1

⋅ A ⋅ T = D X

−1

⋅ B ⋅ X = D

D = T

−1

⋅ A ⋅ T = X

−1

⋅ B ⋅ X ⇒ B = X T

−1

AT X

−1

⇒ S = X T

−1

P

A

= d et (A − λ I ) = (−1)

n

⋅ λ

n

+ c

1

⋅ λ

(n−1)

+ . . . + c

k

⋅ λ

(n−k)

+ . . . + c

n−1

⋅ λ + c

n

c

1

= (−1)

n−1

⋅ T r (A)

T r (A) =

n

i=1

a

ii

= ∑

n i=1

λ

i

c

n

= d et (A) =

n

i=1

λ

i

c

k

= (−1)

n−k

⋅ (somma dei minori principali di ordine k) S

min principali

= ∑

tot

i=1

d et (sottomatrice k x k con diagonale sulla diagonale principale)

i

P

A

= λ

2

− (a + d ) + a ⋅ d − b ⋅ c

P

A

= (a

11

− λ) ⋅ (a

22

− λ) . . . (a

nn

− λ)

v ≠ 0

∃λ ∈ K tale che L ( v) = A ⋅ v = λ ⋅ v A ⋅ v = λ ⋅ v

g

λ1

+ . . . + g

λn

es

Minori principali di ordine 2 di una 3x3 1 2 3

4 5 6

7 8 9 → [1 3

7 9], [1 2 4 5], [5 6

8 9]

Ci sono minori principali di ordine k in una matrice nxn

(n k)

(7)

Autovettori per matrici simili

P matrice invertibile "di passaggio" da A a B Ortogonalità tra autovettori

1 Autovettori di una matrice simmetrica reale relativi ad autovalori distinti sono ortogonali tra loro

-> se in R3 si può trovare la retta perpendicolare a due rette date (gli altri due autovettori) facendo il prodotto vettoriale tra le due -> con prodotto scalare e algoritmo di Gram-Schmidt non si trovano autovettori

Base di autovettori

Si cercano i vari autospazi per ogni autovalore e le relative basi e poi si mettono insieme

Autospazio

Spazio vettoriale che contiene tutti gli autovettori relativi ad uno specifico autovalore => nelle formule si sostituisce l'autovalore rispetto a cui si vuole trovare l'autospazio

1

2

3

4

Autospazi ortogonali

Se la matrice da diagonalizzare è reale e simmetrica gli autospazi relativi ad autovalori distinti sono ortogonali tra loro

Molteplicità geometrica

= massimo numero di vettori linearmente indipendenti relativi ad un singolo autovalore

Autovalore regolare

Massimo numero di autovettori linearmente indipendenti

Diagonalizzabilità

1 A diagonalizzabile se e solo se esistono autovalori

-

-

-> A diagonalizzabile

2 A diagonalizzabile

= se esiste una matrice di passaggio 3 Primo criterio di diagonalizzabilità

A è diagonalizzabile se ha una base formata da autovettori

->

4 Condizione sufficiente di diagonalizzabilità

A quadrata di grandezza n è diagonalizzabile se possiede n autovalori distinti (significa che ha n autovettori linearmente indipendenti)

5 Secondo criterio di diagonalizzabilità (condizione necessaria e sufficiente) A quadrata di grandezza n è diagonalizzabile se

- PA ha n radici (contate con a𝝀) - ogni 𝝀 è regolare o semplice (-> vale il viceversa)

6 Teorema spettrale

A simmetrica reale => A ortogonalmente diagonalizzabile Matrice P che diagonalizza A

P si trova facendo una matrice con gli autovettori della base della matrice A Matrice ortogonalmente diagonalizzabile

-> A ort diag da Q matrice ortogonale Decomposizione spettrale di A

A ∼ B ⇒ v → P ⋅ v

B = B

Vλ1

+ . . . + B

Vλn

V

λ

= {v ∈ V : L( v) = λ ⋅ v}

V

λ

= K ER(λ I − A) = K ER(A − λ I )

dim(V

λ

) = dim(K ER(λ I − A)) = dim(K ER(A − λ I )) V = V

λ1

+ . . . + V

λn

g

λ

= dim(V

λ

) = dim(K ER(A − λ I )) = n − R(A − λ I ) a

λ

= g

λ

N = g

λ1

+ g

λ2

+ . . . + g

λn

L ( v

k

) = λ

k

⋅ v

k

∀k = 1...n

L

A

( v

k

) = A ⋅ v

k

= λ

k

⋅ v

k

∀k = 1...n

⇒ Im( v

k

) = λ

k

⋅ v

k

∀k = 1...n P

−1

⋅ A ⋅ P = di ag(λ

1

. . . λ

n

) ⇒ A ∼ di ag(λ

1

. . . λ

n

) ⇒

A ∼ di ag(λ

1

. . . λ

n

) ⇔ B

A

formata da autovettori

P

−1

⋅ A ⋅ P = di ag(λ

1

. . . λ

n

)

Q

−1

AQ = di ag(λ

1

. . . λ

n

) = Q

T

AQ

(8)

-> : matrice della proiezione ortogonale su

->

-> (se i e j sono gli indici di due autospazi ortogonali) Decomposizione spettrale di f(A)

-> si seguono le regole dell'analisi per f (es. se un autovalore è 0 la decomposizione spettrale di non si può trovare perché verrebbe )

-> la matrice che subisce variazioni di f se esiste è ortogonalmente diagonalizzabile perché somma degli stessi autospazi di A, con A diagonalizzabile

Nucleo e immagine di autovettori

Il nucleo di autovettori è l'autospazio generato da

L'immagine di autovettori è la somma degli autospazi generati dagli autovalori diversi da 0 => la somma tra i due è una base di Kn

Teorema di Hamilton-Cayley

Ogni matrice è radice del proprio polinomio caratteristico

A =

d

j=1

λ

j

⋅ P

j

= λ

1

P

1

+ . . . + λ

n

P

n

P

j

V

λj

I = P

1

+ . . . + P

n

P

i

⋅ P

j

= 0 se i ≠ j

f (A) = f (λ

1

) ⋅ P

1

+ . . . + f (λ

n

) ⋅ P

n

A

−1

1

0

λ = 0

P

A

= (−1)

n

⋅ A

n

+ c

1

⋅ A

(n−1)

+ . . . + c

n−1

⋅ A + c

n

= 0

m,n

(9)

Geometria analitica

Retta nello spazio

retta passante per due punti

Posizione reciproca tra due rette nello spazio

Posizione reciproca tra rette nello spazio (si può usare anche per i piani con i rispettivi vettori normali) perpendicolari

parallele (coincidenti) incidenti sghembe

Posizione reciproca tra due rette nel piano

Piano nello spazio

Equazione con passaggio per un punto P e normalità rispetto a un vettore n

Equazione con passaggio per 3 punti A, B, C

1

-> risolvendo il sistema si ottiene l'equazione del piano

2

-> risolvendo l'equazione del determinante si ottiene l'equazione del piano Equazione con passaggio per un punto P e // a due vettori v1 e v2

Posizione reciproca tra due piani nello spazio

r : x = x

A

+ at

y = y

A

+ bt

z = z

A

+ ct r : x = x

A

+ (x

B

− x

A

)t y = y

A

+ (y

B

− y

A

)t z = z

A

+ (z

B

− z

A

)t a −α |x

b

− x

a

b −β |y

b

− y

a

c −γ |z

b

− z

a

R(A) = 1 ∧ R(A| b) = 2 ⇒ ∄sol ⇒ parallele R(A) = 2 ∧ R(A| b) = 3 ⇒ ∄sol ⇒ sghembe R(A) = 2 ∧ R(A| b) = 2 ⇒ ∃∞

1

sol ⇒ coincidenti R(A) = 3 ∧ R(A| b) = 3 ⇒ ∃! sol ⇒ incidenti v ∙ w = 0 ⇒

v × w = 0 ⇒

v × w ≠ 0 ∧ u ∙ ( v × w) = 0 ⇒ u ∙ ( v × w) ≠ 0 ⇒

[ a b c

1

α β c

2

]

R(A) = 1 ∧ R(A| b) = 2 ⇒ ∄sol ⇒ parallele R(A) = 2 ∧ R(A| b) = 2 ⇒ ∃! sol ⇒ incidenti R(A) = 1 ∧ R(A| b) = 2 ⇒ ∃∞

1

sol ⇒ coincidenti

a(x − x

P

) + b(y − y

p

) + c(z − z

P

) = 0 n = [a, b, c]

T

π :

a x

A

+ b y

A

+ cz

A

+ d = 0 a x

B

+ b y

B

+ cz

B

+ d = 0 a x

C

+ b y

C

+ cz

C

+ d = 0 d et x − x

A

y − y

A

z − z

A

x

B

− x

A

y

B

− y

A

z

B

− z

A

x

C

− x

A

y

C

− y

A

z

C

− z

A

= 0

π : x = x

A

+ t

1

a

1

+ t

2

a

2

y = y

A

+ t

1

b

1

+ t

2

b

2

z = z

A

+ t

1

c

1

+ t

2

c

2

∀t

1

, t

2

∈ R [ a b c |d

α β γ |δ]

R(A) = 1 ∧ R(A| b) = 2 ⇒ ∄sol ⇒ paralleli

R(A) = 2 ∧ R(A| b) = 2 ⇒ ∃∞

1

sol ⇒ incidenti

R(A) = 1 ∧ R(A| b) = 2 ⇒ ∃∞

2

sol ⇒ coincidenti

(10)

Distanze Tra due punti

Punto-piano

Punto-retta 1 Metodo lungo :

1. Trovo il versore direttore di r

2. Trovo il piano 𝜋 con versore normale n e passante per A 3. Trovo il punto in cui r passa per 𝜋

4. d(r, A) = AH

2 dove è il vettore direttore di r e (A è un punto qualsiasi di r)

Retta-retta (sghembe) r passa per P e ha direzione v s passa per Q e ha direzione u

-> se le due rette sono parallele invece si calcola la distanza tra due generici punti Equidistanza da due vettori

,

tale che

Retta parallela a due piani

Retta perpendicolare a due piani

Direttori di un piano

Sono i coefficienti davanti a x, y e z nell'equazione cartesiana del piano

Equazione del fascio di piani per r

(retta scritta in forma cartesiana)

-> per trovarne uno che passa per un determinato punto basta sostituire agli che sono scritti nell'equazione e si ottengono per cui si ha il piano passante per quel punto e la retta generatrice del fascio


A B = (x

A

− x

B

)

2

+ (y

A

− y

B

)

2

+ (z

A

− z

B

)

2

d(A, π) = |a x

P

+ b y

P

+ cz

P

+ d | a

2

+ b

2

+ c

2

dist (P, r) = || v × w || || w || = || v − v ∙ w w ∙ w ⋅ w || w v = A P d(r, s) = |PQ ∙ ( v × u)| || v × u ||

v

1

= [a, b, c]

T

v

2

= [α, β, γ]

T

v

equidistante

= [x, y, z]

T

(x − a)

2

+ (y − b)

2

+ (z − c)

2

= (x − α)

2

+ (y − β )

2

+ (z − γ)

2

= 0

r = π

1

∩ π

2

= { π

1

π

2

∃ solo se π

1

incidente a π

2

r ⊥ π

1

⇒ r ⊥ π

2

∃ solo se π

1

// π

2

r = { a x + b y + cz = d α x + β y + γ z = δ

λ(a x + b y + cz − d ) + μ(α x + β y + γ z − δ ) = 0

x

P

, y

P

e z

P

x, y e z

λ e μ

(11)

Spazi euclidei

Prodotto scalare

Prodotto scalare con coordinate

Controllo ortogonalità

Se il prodotto scalare da 0 significa che i due vettori sono ortogonali Controllo definizione prodotto scalare < , >

1 Commutativa

2 Linearità del primo fattore (=> linearità del secondo) 3 Positività (e annullamento)

-> si controlla completando il quadrato in maniera utile oppure se la matrice è definita positiva

Prodotto vettoriale

-> il determinante va fatto con Laplace usando la riga superiore, le coordinate del vettore risultante sono date dai coefficienti che moltiplicano e1 ... en

Controllo parallelismo

Se il prodotto vettoriale da solo coefficienti uguali a 0 significa che i due vettori sono paralleli Vettore ortogonale a due dati

Il prodotto vettoriale tra due vettori trova i coefficienti di un nuovo terzo vettore perpendicolare ad entrambi Controllo definizione prodotto vettoriale

1 Bilineare (= lineare per entrambi i fattori = commutativo + lineare di un fattore) 2 Antisimmetrico

3 Annullamento

Prodotto misto

Controllo vettori sghembi

Se il prodotto misto viene diverso da zero significa che i tre vettori sono sghembi Teorema di Pitagora

Teorema di Carnot

Disuguaglianza di Schwarz -> uguali se linearmente indipendenti

Angolo tra due vettori

< v, w > = v

T

⋅ w = a

1

⋅ a′

1

+ a

2

⋅ a′

2

+ . . . + a

n

⋅ a′

n

v = x

1

b

1

+ . . . + x

n

b

n

w = y

1

b

1

+ . . . + y

n

b

n

< v, w > = x

1

⋅ y

1

+ x

2

⋅ y

2

+ . . . + x

n

⋅ y

n

v = v

1

v

2

. . .

v

n

∧ w = w

1

w

2

. . . w

n

e

1

e

2

. . . e

n

v

1

v

2

. . . v

n

w

1

w

2

. . . w

n

. . . .

→ d et (matrice) = v × w

u ∙ ( v × w) = d et

a

1

b

1

c

1

a

2

b

2

c

2

a

3

b

3

c

3

v ⊥ w

|| v + w ||

2

= || v ||

2

+ || w ||

2

|| v + w ||

2

= || v ||

2

+ || w ||

2

+ 2 < v, w >

|| v − w ||

2

= || v ||

2

+ || − w ||

2

+ 2 < v, − w >

< v, w > ≤ || v || ⋅ || w ||

α = ar ccos( < v, w > || v || ⋅ || w || )

(12)

Base ortogonale

Genera vettori che hanno coordinate:

Come scrivere un vettore rispetto ad una base ortogonale

-> le coordinate sono i coefficienti di Fourier Come trovare una base ortogonale 1 Algoritmo di Gram-Schmidt

-> se ci sono vettori linearmente dipendenti tra i che prendo automaticamente l'algoritmo mi da 2 Partendo da un vettore trovo ogni volta un vettore che sia perpendicolare a tutti usando il prodotto scalare

3 Prendendo una matrice simmetrica e reale e sommando gli autospazi relativi ad autovalori distinti (le basi degli autospazi devono essere ortogonali o rese tali)

-> attenzione alla non ortogonalità tra vettori dello stesso spazio lineare Esistenza di una base ortogonale di autovettori

Una base ortogonale formata da autovettori esiste solo se la matrice è simmetrica e quindi ortogonalmente diagonalizzabile

Base ortonormale Genera vettori che hanno

1 Coordinate :

2 Norma :

Come trovare una base ortonormale

Si cerca una base ortogonale e si dividono i vettori della base trovata per le rispettive norme Controllo base ortonormale

Si mettono in una matrice i vettori della base, se allora i vettori sono ortonormali Esistenza di una base ortonormale di autovettori

Una base ortonormale formata da autovettori esiste solo se la matrice è simmetrica e quindi ortogonalmente diagonalizzabile

Matrice ortogonale 1 Le colonne sono ortonormali

2

3

4 I suoi autovalori sono

5

6

Proiezione ortogonale

1 dove è generatore dello spazio H su cui sto proiettando

2 dove è il coefficiente di Fourier di rispetto a e la base del

sottospazio H di Kn è ortogonale

3 dove P è la matrice della proiezione ortogonale Proprietà

- di minimo - unicità

=> unico

Vettore ortogonale

̂

x

i

= < v, b

i

>

|| b

i

||

2

v = ̂x

1

b

1

+ . . . + ̂x

n

b

n

= < v, b

1

>

|| b

1

||

2

b

1

+ . . . + < v, b

n

>

|| b

n

||

2

b

n

b

k

= v

k

< v

k

, b

k−1

>

|| b

k−1

||

2

⋅ b

k−1

− . . . − < v

k

, b

1

>

|| b

1

||

2

⋅ b

1

v

1

. . . v

n

0

̂

x

i

= < v, b

i

>

|| v || = x

1

̂

2

+ . . . + ̂ x

n2

U

T

⋅ U = I

U

T

⋅ U = I U

T

= U

−1

λ = ± 1

||Ux || = || x ||

d et (U ) = ± 1

v

H

= < v, b >

|| b ||

2

⋅ b b v

v

H

= ̂ x

1

b

1

+ . . . + ̂ x

d

b

d

x

i

̂ = < v, b

i

>

|| b

i

||

2

v b

i

B = < b

1

, . . . , b

d

>

v

H

= P v

v = v

H

+ v

v

= v − v

H

(13)

Distanza tra Controllo matrice di proiezione Una matrice è di proiezione se è : - idempotente :

- simmetrica :

Matrice proiezione ortogonale (su H) H sottospazio di Rn

e

Matrice proiezione ortogonale (su H con base ortonormale)

e

Proprietà

- idempotente - simmetrica

-

=>

-> la matrice della proiezione ortogonale è sempre quadrata

Complemento ortogonale

=> si trova imponendo il prodotto scalare uguale a 0 1 E' un sottospazio vettoriale di V

2

3

4

5

Trovare

1 Si trova imponendo il prodotto scalare uguale a 0

-> si impone il prodotto scalare di un generico vettore e i vettori della base di uguale a 0 e poi si risolve il sistema ottenuto (si ottiene direttamente il numero di vettori desiderati, però può essere necessaria l'ortogonalizzazione tra i vettori trovati)

2

3 dove P è la matrice proiezione ortogonale su H e è l'autospazio relativo a o il semplice 4 Una base di è lo spazio generato dai vettori con componenti i coefficienti delle rette che definiscono il piano H (se scritte in forma cartesiana)

-> le rette hanno come vettori direttori dei vettori perpendicolari a quelli del piano => definiscono Trovare lo spazio ortogonale allo spazio colonna di H

=> si cerca il nucleo di A trasposta

Spazio riga e colonna

1 --

2 --

3

4

5

veH

dist ( v, H ) = || v

||

P

n

= P P

T

= P

B

H

= < b

1

. . . b

d

> A = [ b

1

. . . b

d

] P = A(A

T

A)

−1

A

T

B

H

= < q

1

. . . q

d

> A = [q

1

. . . q

d

] P = A A

T

= q

1

q

T1

+ . . . + q

d

q

Td

P

2

= P P

T

= P

I = P

λ1

+ . . . + P

λd

H = col(P ) ∧ H

= K ER(P )

H

= {v ∈ V : v ⊥ v

i

∈ H ∀i = 1...n}

H = (H

)

V = H ⊕ H

dim(V ) = dim(H ) + dim(H

) dim(H

) = n − dim(H )

H

[x

1

. . . x

n

]

T

H

H

= r o w(A)

H

= K ER(P ) K ER(P ) λ = 0 K ER(P )

H

H

(col(A))

= K ER(A

T

)

(r o w(A))

= K ER(A) r o w(A) = (K ER(A))

(col(A))

= K ER(A

T

) col(A) = (K ER(A

T

))

K ER(A) = K ER(A

T

⋅ A)

R(A) = R(A

T

⋅ A)

col(A

T

) = col(A

T

⋅ A)

(14)

Ultima parte

Soluzione ai minimi quadrati

Se

Equazioni normali

=> se è invertibile

=> se è invertibile

= vettore dello spazio colonna di che ha distanza minima da Regressione lineare

Si risolve il sistema ai minimi quadrati e si trovano q e m della retta Regressione quadrata

Si risolve il sistema ai minimi quadrati e si trovano a, b e c della parabola

Forme quadratiche

1

2 (v autovettore di A con autovalore ) Autovalore massimo e minimo di una forma quadratica

1. Trovo la matrice rappresentativa A

2. Trovo gli autovalori di A facendo

3. Scelgo l'autovalore minimo e quello massimo Quoziente di Rayleigh

E' contenuto tra il massimo e il minimo di sulla sfera unitaria

Diagonalizzazione simultanea di forme quadratiche

con

Esiste un cambio di variabili per diagonalizzare entrambe le forme quadratiche ed è dato dalla matrice ortogonale formata dagli autoversori ortogonali relativi agli autovettori dati da

-> il più delle volte basta guardare e si interpreta subito cosa c'è da cambiare per avere la matrice identità a denominatore Massimo e minimo autovalore di una diagonalizzazione simultanea

1 Trovo di

2 Trovo il cambio di variabili per avere I a denominatore e sostituisco in A e trovo di A Autovettori relativi agli autovalori massimo e minimo di una forma quadratica

1. Trovo l'autospazio degli autovalori facendo

2. Scelgo un vettore dell'autospazio e lo rendo un versore -> si può ricontrollare facendo

A ⋅ x = b ∄sol ma R(A) = n ⇒ A ⋅ ˜x = b

H

∃!sol A

T

A ˜x = A

T

b

˜x = (A

T

A)

−1

A

T

b A

T

A

b

H

= A ⋅ ˜x = A(A

T

A)

−1

A

T

b A

T

A

b

H

A b

x

i1

x

i0

y

i1

x = [ m

q] = [ β

1

β

0

] A =

x

1

1 x

2

1 . . . .

x

n

1 b =

y

1

y

2

. . . y

n

y = m x + q x

i2

x

i1

x

i0

y

i1

x = [ a b c] A =

x

12

x

1

1 x

22

x

2

1 . . . . x

n2

x

n

1

b = y

1

y

2

. . . y

n

y = a x

2

+ bx + c

q([x

1

. . . x

n

]) = x

T

A x q(t x) = t

2

q( x)

q( v) = λ || v ||

2

λ

d et (A − λ I ) = 0

q( x) q( x)

|| x ||

2

= w

T

A w

w

T

w = w

T

A w

|| w ||

2

λ

min

≤ w

T

A w

w

T

w ≤ λ

max

⇔ λ

min

≤ w

T

A w

|| w ||

2

≤ λ

max

R( x) = x

T

A x

x

T

Bx A v

k

= λ

k

B v

k

⇒ B

−1

A v

k

= λ

k

v

k

x = PX P

d et (A − λ B) = 0

λ

min

e λ

max

B

−1

A

λ

min

e λ

max

V

λ

= K ER(A − λ I )

q( v

λ

) = λ

(15)

Punti della sfera unitaria in cui si trovano massimo e minimo di una forma quadratica

1. Trovo i versori relativi agli autovettori di massimo e minimo della forma quadratica dividendo gli autovettori per la norma

2. I punti sono e

Segno di una forma quadratica

A simmetrica è definita positiva se i minori principali di nord-ovest sono maggiori di 0

A simmetrica è semidefinita positiva se tutti i minori principali sono (almeno uno è uguale a zero)

A simmetrica è definita negativa se i minori principali di nord-ovest di indice dispari sono negativi e quelli di indice pari sono positivi (se -A è definita positiva)

A simmetrica è semidefinita negativa se tutti i minori principali sono (almeno uno è uguale a zero)

A simmetrica è indefinita se tra tutti i minori principali ce n'è uno e uno Matrici congruenti

B congruente ad A simmetrica se ortogonale tale che => B è simmetrica

Diagonalizzazione della forma quadratica

- cambio di base per diagonalizzare (S matrice ortogonale)

- esiste sempre una matrice ortogonale che diagonalizza A reale e simmetrica (teorema spettrale)

Legge di inerzia di Sylvester

A congruente a B => hanno uguale numero di autovalori positivi, negativi e nulli

=> A è sempre congruente ad una matrice diagonale con 1, -1 o 0 sulla diagonale, in base al segno degli autovalori di A


P

λmin

= (v

1

, v

2

, v

3

) P

λmax

= (w

1

, w

2

, w

3

)

λ

i

> 0 ∀i ⇔ definita positiva ⇔

λ

i

≥ 0 ∀i ∧ ∃λ

k

= 0 ⇔ semidefinita positiva ⇔ ≥ 0

λ

i

< 0 ∀i ⇔ definita negativa ⇔

λ

i

≤ 0 ∀i ∧ ∃λ

k

= 0 ⇔ semidefinita negativa ⇔ ≤ 0

λ

i

> 0 ∧ λ

j

< 0 ⇔ indefinita ⇔ < 0 > 0

∃ S B = S

T

AS

x = SX S

T

AS = D

q( x) = x

T

A x = (SX )

T

A(SX ) = X

T

S

T

ASX = X

T

DX

(16)

Equazione di una conica

Cambio di base / di sistema di riferimento

1

2 dove Q è la matrice ortogonale che diagonalizza A

=> Tramite con Q ortogonale mi riconduco a : o

Matrice di rotazione antioraria di un angolo

-> può servire per trovare una conica ruotata di rispetto agli assi x e y Riconoscere conica da un'equazione qualsiasi

Si trovano le sostituzioni tali che la conica diventa della forma

es.

oppure si guardano

Trovare grafico da equazione della conica avente solo termini di grado 2 e 0

1. Trovo la matrice A 2x2 della forma quadratica trascurando il termine di grado 0

2. Diagonalizzo A facendo

3. Trovo l'equazione della conica rispetto al vettore

4. Torno alle coordinate x e y originarie risolvendo il sistema del punto 3 e trovando gli assi u e v rispetto a x e y

q(x, y) = a

11

x

2

+ 2a

12

x y + a

22

y

2

+ 2a

13

x + 2a

23

y + 2a

33

= z

T

a z = x

T

A x + 2b

T

x + c

q(x, y) = x

T

˜A x + 2˜b

T

x + ˜c

˜A = Q

T

AQ

˜b = Q

T

(A v + b)

˜c = v

T

A v + 2b

T

v + c x = Q ⋅ X ⇔ [ x

y] = Q ⋅ [ X

x = Q X + v Y] α x

2

+ β y

2

+ γ = 0 β y

2

+ δ x = 0

θ

Q = [ cos(θ ) −sin(θ ) sin(θ ) cos(θ ) ]

θ

λ

1

X

2

+ λ

2

Y

2

= k x

2

+ 2x y + 2yz + z

2

= − 4 → X = x, Y = y + z

2 , Z = y − z

2 → 3X

2

+ Y

2

− Z

2

= 8 I

1

, I

2

e I

3

S

T

AS = D

[ u v] = S

T

x Coniche

(0, 0) 2 rette

2 rette coincidenti 2 rette parallele Ellisse

PF1 + PF2 = costante

Iperbole

|PF1− PF2| = costante

Parabola PF = d i s t (P, d )

ellisse reale :

ellisse immaginaria : x2 a2 + y2

b2 = 1 x2

a2 + y2 b2 = − 1 fuochi sull'asse x :

-> asintoti : fuochi sull'asse y :

-> asintoti : iperbole equilatera : x2

a2 − y2 b2 = 1

y = ± ba x2

a2 − y2 b2 = − 1

y = ± a a = bb y2 + 2p x = 0

x2 + y2 = 0

x2− y2= 0 → (x − y)(x + y) = 0 x2 = 0

x2 = a {a < 0 2 rette reali //

a > 0 2 rette immaginarie//

Classificazione

Forma quadratica di A indefinita

Iperbole

Forma quadratica di A definita negativa o positiva

Ellisse

Forma quadratica di A semidefinita positiva o negativa

Parabola

conica non degenere

I

3

≠ 0

I

2

> 0 2 rette immaginarie distinte

< 0 2 rette reali distinte

= 0 2 rette//

I2

< 0 iperbole equilatera se I1= 0

> 0 ellisse {reale se I1⋅ I3< 0 immaginaria se I1⋅ I3> 0

= 0 parabola

conica degenere

I

3

= 0

1

2

α x2 + β y2 + γ = 0 I1 = α + β = T r (A) I2 = α ⋅ β = d et (A) I3 = α ⋅ β ⋅ γ = d et (a)

α y2 + δ x = 0 I3 = −β

4⋅ γ

(17)

Trovare equazione canonica di una conica (e assi di simmetria e centro)

1. Trovare la matrice associata alla conica

2. mi da il centro della conica (A è solo la 2x2)

3. Sposto la conica nell'origine degli assi facendo la traslazione

4. Riscrivo l'equazione della conica sostituendo a x e y le traslazioni trovate e ottengo un'equazione con solo termini di grado 2

5. Cerco gli autovettori da A della nuova equazione e una volta trovati li normalizzo e metto in una matrice ortogonale -> gli autovettori di A sono i direttori degli assi di simmetria della conica

6. Risolvo il sistema e ottengo dei valori di x' e y' da sostituire nell'equazione in termini di grado due per poter trovare l'equazione canonica

7. Gli assi di simmetria della conica sono dati da , dove sono gli autovettori di A (che danno le direzioni degli assi)

Assi di simmetria di una conica

Le direzioni sono date dagli autovettori della matrice A della conica, poi bisogna trovare qual è il centro per capire da dove partono -> se sono gli autovettori le equazioni degli assi di simmetria sono (se il centro è 0) Curve quadriche

Trovo la forma quadrica associata all'equazione (2 autovalori devono essere positivi e uno negativo)

Se

Se

Assi di simmetria di una quadrica

Le direzioni sono date dagli autovettori della matrice A della quadrica, poi bisogna trovare qual è il centro per capire da dove partono

A x + b = 0

{ x = x′ + x

c

y = y′ + y

c

[ x′

y′] = U [ X Y]

{ a y − y

c

= bx − x

c

α y − y

c

= βx − x

c

[ a b] e [ α

β]

[ a b] e [ α

β] a x + b y = 0 e α x + β y = 0

q(x, y, z) = λ

1

X

2

+ λ

2

Y

2

+ λ

3

Z

2

= k

λ

1

> 0 ∧ λ

2

> 0 ∧ λ

3

< 0 e k > 0 iperboloide a 1 falda k = 0 cono

k < 0 iperboloide a 2 falde

λ

1

, λ

2

, λ

3

> 0 ellissoide o sfera

Riferimenti

Documenti correlati

Attenzione: il secondo “=” scaturisce dalla linearit` a di f , mentre il quarto “=” ` e frutto di uno scambio di indici noto come “doppio conteggio”: si pensi al gesto

Un vettore senza controimmagine deve formare una matrice di rango 3 insieme ai tre vettori

a se si intersecano allora sono contenute in un piano affine; b se sono contenute in un piano allora si intersecano; c se sono sghembe generano R 3 ; d se le giaciture sono

[r]

Questa definizione ` e coerente con quella data in precedenza per le matrici a scala per righe come numero delle righe non nulle... Ci poniamo il problema di determinare quali

[r]

Conoscere l’espressione analitica in R 2 della relazione di ortogonalita’ in P O ; conoscere la definizione di proiezione ortogonale di un vettore su una retta per O, e sapere

Il corso introduce alle tecniche dell’Algebra Lineare ed alle sue applicazioni alla Geometria dello spazio.. Nelle pagine web del docente si possono trovare materiali utili per