• Non ci sono risultati.

Dispense su: Prodotti scalari e Spazi vettoriali euclidei Operatori ortogonali ed autoaggiunti Teorema spettrale di operatori autoaggiunti

N/A
N/A
Protected

Academic year: 2021

Condividi "Dispense su: Prodotti scalari e Spazi vettoriali euclidei Operatori ortogonali ed autoaggiunti Teorema spettrale di operatori autoaggiunti"

Copied!
45
0
0

Testo completo

(1)

Prodotti scalari e Spazi vettoriali euclidei Operatori ortogonali ed autoaggiunti Teorema spettrale di operatori autoaggiunti

Prof. F. Flamini November 20, 2017

(2)

Prodotti scalari e spazi vettoriali euclidei

0.1 Prodotto scalare geometrico

Lo spazio vettoriale V dei vettori geometrici pu`o essere considerato come un prototipo della nozione pi`u generale di spazio vettoriale. Esattamente la stessa cosa avviene per la nozione generale di prodotto scalare, che `e storicamente preceduta dall’esempio particolare del prodotto scalare di vettori geometrici. Ricorderemo ora brevemente la definizione ed alcune proprieta’ del prodotto scalare di vettori geometrici.

Assegnati due vettori geometrici non nulli a e b indicheremo con abc

il numero reale compreso tra0 e π che misura l’angolo definito dalle semirette OA e OB , dove il puntoO e’ l’origine e OA, OB sono segmenti orientati che rappresentano rispettivamente a, b.

Non e’ difficile verificare che cab non dipende dalla scelta del puntoO. Se a oppure b e’ nullo converremo che cab= 0.

Il coseno dell’angolo compreso tra a e b `e il numero realecos ( cab).

Definizione 0.1.1. Sia V lo spazio vettoriale dei vettori geometrici e siano a e b due suoi vettori.

Il prodotto scalare geometrico di a e b `e il numero reale a•b =| a || b | cos ( cab).

ove| a | denota la lunghezza del segmento orientato OA che rappresenta a,

Come vedremo piu’ avanti, il prodotto scalare geometrico `e un esempio particolare di una pi`u generale definizione di prodotto scalare.

Poich´eaa `e l’angolo nullo, il suo coseno `ec 1 e quindi a• a =| a |2.

Il prodotto scalare geometrico ha la seguente interpretazione geometrica: sia a non nullo allora il vettore

p= a• b a• a a

iii

(3)

`e rappresentato dal segmento orientato OC, dove C `e la proiezione perpendicolare del punto B sulla rettaOA. La trigonometria ci dice infatti che

a• b

| a |

ha come valore assoluto la lunghezza del segmentoOC ed `e positivo se OC e OA hanno lo stesso verso, negativo in caso contrario. D’altra parte

a

| a |

`e un vettore di lunghezza1 che `e proporzionale ad a e ne ha lo stesso verso. Utilizzando queste due osservazioni, il lettore potra’ comprendere la precedente uguaglianza. Naturalmente p `e pro- porzionale al vettore a. `E utile osservare, in vista di alcune applicazioni successive, che

n= b − p

`e un vettore perpendicolare ad a. Ricordiamo che

Definizione 0.1.2. Due vettori geometrici u e v si dicono perpendicolari se sono non nulli e hanno direzioni perpendicolari oppure se uno di essi `e nullo.

Dacos (π2) = 0 e dalla definizione segue immediatamente che: u e v sono perpendicolari se, e solo se,

u• v = 0.

Il prodotto scalare geometrico determina ed `e determinato dalla funzione G : V × V →R,

che ad ogni coppia ordinata(a, b) ∈ V × V associa il numero reale G(a, b) =| a || b | cos (cab).

Ogni proprieta’ del prodotto scalare di vettori geometrici pu`o dunque essere descritta nei termini di una corrispondente proprieta’ della funzioneG. Esaminiamo da entrambi i punti di vista le proprieta’ che ci interessano:

Propriet`a commutativa ∀ a, b ∈ V,

a• b = b • a, ovvero

G(a, b) = G(b, a).

La propriet`a segue subito dalla definizione di prodotto scalare geometrico e dal fatto che cab= cba.

(4)

0.1. PRODOTTO SCALARE GEOMETRICO v Propriet`a distributiva rispetto alla somma di vettori geometrici ∀ a, b, c ∈ V

a• (b + c) = a • b + a • c, ovvero

G(a, b + c) = G(a, b) + G(a, c).

Si noti che, essendo valida la proprieta’ commutativa, vale ancheG(b+c, a) = G(b, a)+G(c, a).

Propriet`a di bilinearit`a ∀ a, b ∈ V e ∀ λ ∈R

(λa) • b = λ(a • b) = a • (λb), ovvero

G(λa, b) = λG(a, b) = G(a, λb).

La propriet`a segue osservando che \(λa)b = \a(λb) e che | λv |=| λ | | v |, dove | λ | `e il valore assoluto del numero realeλ.

(4) Propriet`a di positivit`a∀ a ∈ V, a 6= 0,

a• a > 0.

La propriet`a segue dall’uguaglianza a• a =| a |2.

Un modo conveniente per calcolare un prodotto scalare geometrico consiste nel fissare una base i, j, k

di V costituita da vettori di lunghezza1 e a due a due perpendicolari. Questo significa che i tre vettori della base sono rappresentati rispettivamente dai segmenti orientati OI, OJ, OK, dove i puntiO, I, J, K sono vertici di uno stesso cubo e OI, OJ, OK sono lati questo cubo. Poich´e i vettori sono a due a due perpendicolari abbiamo

i• j = i • k = j • k = 0, poich´e i vettori considerati hanno lunghezza1 avremo inoltre i• i = j • j = k • k = 1.

Siano ora a = a1i+ a2j+ a3k e b = b1i+ b2j+ b3k, per calcolare a• b possiamo calcolare esplicitamente

(a1i+ a2j+ a3k) • (b1i+ b2j+ b3k).

Applicando la propriet`a distributiva del prodotto scalare rispetto alla somma, utilizzando le prece- denti uguaglianze e svolgendo i calcoli si ottiene che

(a1i+ a2j+ a3k) • (b1i+ b2j+ b3k) = a1b1+ a2b2+ a3b3.

(5)

Definizione 0.1.3. Una base ortonormale di V `e una base di V costituita da tre vettori i, j, k che sono a due a due perpendicolari e di lungezza1.

Sulla base delle ultime osservazioni svolte possiamo concludere questa sezione con la propriet`a seguente:

Proposizione 0.1.1. Se i, j, k `e una base ortonormale di V e se a = a1i+ a2j+ a3k e b = b1i+b2j+b3k, allora il prodotto scalare geometrico a•b `e la somma dei prodotti delle coordinate dello stesso indice, i.e.

a• b = a1b1+ a2b2+ a3b3.

0.2 Prodotti scalari

La nozione di prodotto scalare su uno spazio vettoriale qualsiasi `e la seguente.

Definizione 0.2.1. Un prodotto scalare su uno spazio vettorialeV `e una funzione h , i : V × V →R

dotata delle seguenti proprieta:

(1) Propriet`a commutativa:∀ x, y ∈ V

hx, yi = hy, xi (2) Propriet`a distributiva rispetto alla somma: ∀ x, y, z ∈ V

hx, y + zi = hx, yi + hx, yi e hy + z, xi = hy, xi + hz, xi.

(3) Propriet`a di bilinearit`a : ∀ x, y ∈ V e ∀λ ∈R

hλx, yi = λhx, yi = hx, λyi (4) Positivita’: deve valerehx, xi > 0 per ogni x 6= 0 e h0, 0i = 0.

Per quanto riguarda la propriet`a distributiva si noti che la seconda parte di tale propriet`a segue dalla prima parte e dalla propriet`a commutativa. Essa poteva quindi essere anche omessa dalla definizione.

Vediamo qualche esempio di prodotto scalare.

Esempio 0.2.1. Integrale di un prodotto di polinomi

SiaR[T ] lo spazio vettoriale dei polinomi a coefficienti reali in una indeterminata T e sia h , i :R[T ] × R[T ] → R

la funzione che alla coppia di polinomi(P (T ), Q(T )) = (P, Q) ∈R[T ]×R[T ] associa l’integrale Z 1

0

P Q dT.

(6)

0.2. PRODOTTI SCALARI vii h , yi `e un esempio di prodotto scalare su R[T ]. Poich´e P Q = QP `e ovvio che la propriet`a commutativa `e soddisfatta. D’altra parte si ha

hP, Q1+ Q2i = Z 1

0

P (Q1+ Q2) dT = Z 1

0

P Q1dT + Z 1

0

P Q2dT, poich´e l’integrale commuta con la somma di funzioni. Sia poiλ ∈R, allora

Z 1 0

λG dT = λ Z 1

0

G dT per ogni funzioneG, integrabile tra 0 e 1 e quindi

hλP, Qi = λhP, Qi = hP, λQi.

Se infineP `e un polinomio non nullo, P2 `e non nullo e assume un valore≥ 0 per ogni numero reale. Inoltre P2 si annulla soltanto per un numero finito di valori reali che sono le radici diP . Usando tali osservazioni si pu`o provare che

hP, P i = Z 1

0

P2dT > 0,

∀P ∈R[T ]. Si ha dunque hP, P i ≥ 0 e hP, P i = 0 se, e solo se, P `e il polinomio nullo.

Esempio 0.2.2. Prodotto scalare standard suRn.

SuRnabbiamo la base canonicae e quindi possiamo definire il seguente prodotto scalare h , ie:Rn×RnR.

Siano x = (x1, . . . .xn) e y = (y1, . . . , yn); allora x = P

i=1,...,nxiei e y = P

i=1,...,nyiei, quindi

hx, yie= x1y1+ · · · + xnyn. Questo particolare esempio si chiama prodotto scalare standard suRn. Esempio 0.2.3. Prodotto scalare determinato da tA A.

SiaA una matrice quadrata di ordine n e di rango n; un ulteriore esempio di prodotto scalare si definisce a partire daA nel modo indicato dal seguente

Teorema 0.2.1. SiaA una matrice quadrata di ordine e di rango n e sia F :Rn×RnR

la funzione cos`ı definita: qualunque sianox = (x1, . . . , xq) e y = (y1, . . . , yq)

F (x, y) = x1, . . . , xqt AA

y1

... yq

 .

AlloraF := h, iA`e un prodotto scalare suRn.

(7)

Dimostrazione. La propriet`a distributiva e la bilinearit`a diF sono di facile verifica con un calcolo diretto, le lasciamo perci`o al lettore.

Per verificare la propriet`a commutativa si osservi che la matrice prodotto che si trova a destra nell’ultima uguaglianza `e uguale alla propria trasposta: semplicemente perch´e si tratta di una matrice1 × 1. D’altra parte la trasposta di tale matrice prodotto `e il prodotto in ordine inverso delle matrici trasposte dei fattori e cio`e

y1, . . . , yn

 t A A

x1

... xn

 .

Poich´e tale espressione `eF (y, x) ne segue che F (x, y) = F (y, x). Infine si deve verificare che F (x, x) > 0, per ogni x = (x1, . . . , xn) non nullo. Sia

(x1, . . . , xn)tA = (y1, . . . , yn),

passando da questa uguaglianza all’uguaglianza tra matrici trasposte otteniamo

A

x1

... xn

 =

y1

... yn

 .

Quindi si ha

F (x, x) = x1, . . . , xn

 t A A

x1

... xn

 = y1, . . . , yn



y1

... yn

 = y12+ · · · + y2n.

Si noti cheA ha rango n e che quindi l’unica soluzione del sistema omogeneo determinato da A `e la soluzione nulla. Poich´ex non `e nullo x non `e una soluzione del sistema e quindi almeno un yi

`e diverso da zero. Possiamo dedurre da ci`o cheF (x, x) =P

yi2> 0.

SeA = Inla costruzione riproduce esattamente il prodotto scalare standard suRndell’esempio precedente. Avremo modo di vedere che ogni prodotto scalare su uno spazio vettoriale di dimen- sione finita pu`o essere definito a partire da una matriceA come la precedente.

0.3 Prodotti scalari e matrici simmetriche

SiaV uno spazio vettoriale di dimensione n e sia u = u1, . . . , ununa sua base. Assegnato un prodotto scalare

h , i : V × V →R suV , possiamo considerare la matrice

Bu(h , i) il cui termine di postoi, j `e

bij = hui, uji.

(8)

0.3. PRODOTTI SCALARI E MATRICI SIMMETRICHE ix Definizione 0.3.1. Bu(h , i) `e la matrice del prodotto scalare h , i rispetto alla base u.

E chiaro che` Bu(h , i) `e una matrice quadrata di ordine n. Si noti inoltre che Bu(h , i) `e una matrice simmetrica. L’importanza della matriceBu(h , i) `e dovuta alla seguente proprieta’:

Proposizione 0.3.1. Datau = u1, . . . , ununa base diV , si ha

hx, yi = x1. . . xn

Bu(h , i)

y1

... yn

 ,

qualunque siano i vettori x = x1u1 + · · · + xnun ey = y1u1 + · · · + unun diV , espressi in coordinate rispetto alla baseu.

Dimostrazione. La dimostrazione consiste di applicazioni successive della propriet`a distributiva e di linearit`a. Indicheremo i passi da compiere tralasciando i dettagli. Innanzitutto si ha

hx, yi = hx, X

j=1,...,n

yjuji = X

j=1,...,n

yjhx, uji.

D’altra parte

yjhx, uji = yjh X

i=1,...,n

xiui, uji = yj

X

i=1,...,n

xihui, uji e quindi

hx, yi = X

j=1,...,n

yj

X

i=1,...,n

xihui, uji = X

i,j=1,...,n

xiyjbij.

Calcolando infine x1, . . . , xn

Bu(h , i) si ottiene

x1, . . . , xn

Bu(h , i)

y1

... yn

 = x1b11+ · · · + xnbn1 . . . x1b1n+ · · · + xnbnn



y1

... yn

 .

Per concludere basta osservare che

x1b11+ · · · + xnbn1 . . . x1b1n+ · · · + xnbnn

y1

... yn

 = X

i,j=1,...,n

xiyjbij.

Esercizi 0.3.1. (1) Siah , i il prodotto scalare standard suR2e siau = u1, u2una delle seguenti basi:

-u1 = (1, 0), u2 = (0, 1) -u1 = (1

2,1

2), u2= (1 2,−1

2) -u1 = (1, −1), u2= (1, −1)

(9)

-u1 = (1, 1), u2 = (0, 1).

Per ogni baseu si determini la matrice Bu(h , i).

(2) SianoOA, OB, OC tre segmenti orientati di lunghezza 1 che a due a due formano in O un angolo di ampiezza π3. Siano poi a, b, c i vettori geometrici rappresentati rispettivamente da OA, OB, OC. Si determini la matrice del prodotto scalare geometrico rispetto alla base a, b, c.

In definitiva, la matriceBu(h , i) permette di calcolare facilmente il prodotto scalare hx, yi una volta che siano note le coordinate dei vettorix e y rispetto alla base u.

0.4 Spazi vettoriali euclidei. Perpendicolarit`a e basi ortogonali rispetto ad un prodotto scalare

In questo paragrafo, ed in varie occasioni successive, lavoreremo su uno spazio vettorialeV sul quale converr`a avere fissato una volta per tutte un prodotto scalare

h , i : V × V →R,

scelto tra gli infiniti prodotti scalari definiti suV . Lavoreremo quindi avendo assegnato la coppia (V, h , i) e non solo lo spazio vettoriale V .

Definizione 0.4.1. Uno spazio vettoriale euclideo `e una coppia(V, h , i) dove V `e uno spazio vettoriale eh , i `e un prodotto scalare su V .

Dato(V, h , i) uno spazio vettoriale euclideo, vogliamo discutere alcune propriet`a geometriche notevoli di tale spazio. Abbiamo bisogno prima di alcuni preliminari.

Norma di un vettore

In uno spazio vettoriale euclideo si pu`o introdurre la nozione di lunghezza di vettori. Infatti abbi- amo:

Definizione 0.4.2. SiaV uno spazio vettoriale euclideo e sia v ∈ V un qualsiasi vettore. La norma (o lunghezza) div `e il numero reale non negativo

|| v ||:=p hv, vi.

Notiamo che, seV =Rnmunito di prodotto scalare standard, date(y1, . . . , yn) le coordinate di v rispetto alla base canonicae, allora

|| v ||=

q

y12+ · · · + y2n.

Versori. Versorizzazione di un vettore

Definizione 0.4.3. SiaV uno spazio vettoriale euclideo e sia v ∈ V . Il vettore v si dice versore, se

|| v ||:= 1.

(10)

0.4. SPAZI EUCLIDEI xi Notare che se invecev non e’ un versore, si puo’ sempre considerare un generatore di Span(v) che sia un versore, i.e.

f = v

|| v ||. La precedente formula si dice, versorizzazione del vettorev Disuguaglianza di Cauchy-Schwarz

Teorema 0.4.1. SiaV uno spazio vettoriale euclideo. Qualunque siano i vettori u, v ∈ V si ha hu, vi2 ≤ || u ||2|| v ||2 .

Inoltre vale l’ uguaglianza se, e solo se,u e v sono linearmente dipendenti.

Dimostrazione. Al variare dit inR consideriamo il vettore tu + v ed osserviamo che htu + v, tu + vi ≥ 0

in quantoh , i `e un prodotto scalare. D’altra parte si calcola facilmente che htu + v, tu + vi = at2+ 2bt + c

dove

a = hu, ui, b = hu, vi, c = hv, vi.

Sea = 0 allora u = 0 e la disuguaglianza diventa l’uguaglianza 0 = 0: in tal caso non c’`e altro da dimostrare. Consideriamo allora il caso rimanente e cio`ea > 0: per il polinomio di secondo gradoat2+ 2bt + c sappiamo che vale

at2+ 2bt + c ≥ 0

qualunque siat. Equivalentemente il discriminante 4(b2− ac) di tale polinomio deve essere ≤ 0.

Ma allora abbiamo

b2− ac = hu, vi2− hu, ui hv, vi ≤ 0;

utilizzando la definizione di norma, ci`o prova la prima parte del teorema.

Si noti infine che l’ultima disuguaglianza `e un’uguaglianza se, e solo se,b2− ac = 0 e cio`e se, e solo se, l’equazioneat2+ 2bt + c = 0 ha un’unica radice t0 = −ab. Ci`o avviene se, e solo se,

ht0u + v, t0u + vi = 0

ovvero se, e solo se, t0u + v = 0. Essendo u 6= 0 la condizione t0u + v = 0 equivale alla condizione cheu e v siano linearmente dipendenti.

Coseno di angoli convessi.

A partire dalla disuguaglianza di Schwarz, possiamo dare una nozione di angolo convesso fra due vettori non nulli di uno spazio vettoriale euclideoV , estendendo cos`ı quanto considerato nel caso

(11)

di vettori geometrici (cf. § 0.1). Siano u e v due vettori non nulli di V . `E immediato verificare che la diseguaglianza di Schwarz `e equivalente a:

|hu, vi| ≤ ||u|| ||v||. (1)

Da (1) segue immediatamente che

−1 ≤ hu, vi

||u|| ||v|| ≤ 1, (2)

per ogni u e v come sopra. Grazie al fatto che la funzione coseno e’ monotona strettamente decrescente (quindi invertibile) nell’intervallo reale[0, π], abbiamo:

Definizione 0.4.4. Dati due vettori non nulliu e v in uno spazio vettoriale euclideo V , definiamo l’angolo convessoθ = θ(u, v) da essi formato quell’unico numero reale θ ∈ [0, π] tale che

cos θ := hu, vi

||u|| ||v||. (3)

In altre parole, denotata con

arccos : [−1, 1] → [0, π]

la funzione inversa della funzione coseno nell’intervallo in questione, abbiamo che θ := arccos( hu, vi

||u|| · ||v||).

Vettori ortogonali.

La nozione di perpendicolarit`a tra vettori di uno spazio vettoriale euclideo pu`o essere agevolmente introdotta imitando il caso del prodotto scalare geometrico:

Definizione 0.4.5. Due vettoriu e v di uno spazio vettoriale euclideo V si dicono perpendicolari (equivalentemente, ortogonali) se

hu, vi = 0.

Osservazione 0.4.1. Come semplici conseguenze della precedente definizione, ritroviamo cheu ev sono ortogonali se, e solo se, l’angolo convesso da essi formato `e θ = π/2. Inoltre, da (3), otteniamo una semplice relazione che lega il prodotto scalare tra i due vettori, l’angolo convesso da essi formato e le loro norme:

hu, vi = ||u|| ||v|| cos θ(u, v). (4)

Riguardo alla perpendicolarita’ di vettori, pi`u in generale vale la seguente

Definizione 0.4.6. Un sistema di vettoriv = v1, . . . , vrsi dice un sistema di vettori ortogonali se i suoi elementi sono a due a due ortogonali, cio`e se

i 6= j ⇒ hvi, vji = 0, ∀ i, j ∈ {1, . . . , r}.

Una base ortogonale `e una base diV formata da un sistema di vettori ortogonali.

(12)

0.4. SPAZI EUCLIDEI xiii I sistemi di vettori ortogonali sono spesso pi`u facili da studiare e pi`u convenienti nelle applicazioni.

Si consideri ad esempio la seguente:

Proposizione 0.4.2. Sia v = v1, . . . , vr un sistema di vettori ortogonali. Se vi 6= 0 per ogni i = 1, . . . , r, allora i vettori v1, . . . , vrsono linearmente indipendenti.

Dimostrazione. Dobbiamo provare cheλ1v1+ · · · + λrvr = 0 ⇒ λ1 = · · · = λr = 0. A tale scopo osserviamo che

0 = hvi, 0i = hvi, λ1v1+ · · · + λrvri = X

j=1,...,r

λjhvi, vji.

D’altra partehvi, vji = 0 se i 6= j e quindi

0 = X

j=1,...,r

λjhvi, vji = λihvi, vii.

Infine, essendovi 6= 0, si ha hvi, vii 6= 0 e quindi λi = 0, (i = 1, . . . , r).

Procedimento di ortogonalizzazione di Gram-Schmidt

Il problema che vogliamo affrontare `e quello di costruire una base ortogonale di uno spazio vet- toriale euclideo. Il procedimento di Gram-Schmidt `e un algoritmo che permette, in particolare, di risolvere tale problema.

Lemma 0.4.3. Sia w = w1, . . . , ws un sistema ortogonale di vettori non nulli diV e sia S = Span(w1, . . . , ws, v). Allora il vettore

n = v − X

i=1,...,s

hv, wii hwi, wiiwi

`e perpendicolare ai vettoriw1, . . . , wse inoltreS = Span(w1, . . . , ws, n).

Dimostrazione. Siawjuno dei vettori diw, per i 6= j si ha hwi, wji = 0 e quindi X

i=1,...,s

hv, wii

hwi, wiihwi, wji = −hv, wji.

Ci`o implicahn, wji = hv, wji − hv, wji = 0 e pertanto n `e ortogonale ad ogni wj. Per provare la seconda parte dell’enunciato osserviamo innanzitutto che

Span(w1, . . . , ws, n) ⊆ S.

Ogni vettoreu = u1w1+· · ·+usws+us+1n di Span(n, w1, . . . , ws) `e infatti anche un vettore di S: per verificarlo basta sostituire, in quest’ultima combinazione lineare, n con la sua espressione come combinazione lineare div w1, . . . , wsdata nell’enunciato. Nello stesso modo si prova che

(13)

S ⊆ Span(w1, . . . , ws, v). Infatti v `e combinazione lineare di n, w1, . . . , ws, come si evince subito dall’enunciato. Sia allorat = t1w1 + · · · + tsws+ ts+1v ∈ S, sostituendo v con la sua espressione come combinazione lineare din w1, . . . , ws, segue che t `e combinazione lineare di n, w1, . . . , ws. Perci`ot ∈ Span(n, w1, . . . , ws) e vale la precedente inclusione.

Per rendere piu familiare la formula che appare nell’enunciato del precedente lemma, il lettore osservi che per due vettoriv, w si ha

n = v − hw, vi hw, wiw.

La formula generale che appare nell’enunciato del lemma viene utilizzata, nella dimostrazione del successivo teorema, per costruire un sistema di vettori ortogonali che generi lo stesso spazio generato da un sistema di vettori assegnato. Tale costruzione `e nota come procedimento di Gram- Schmidt.

Teorema 0.4.4. Siav = v1, . . . , vn un sistema di vettori non tutti nulli di uno spazio vettoriale euclideo e siaS = Span(v1, . . . , vn). Allora esiste una base ortogonale w = w1, . . . , wsdiS.

Dimostrazione. Procediamo per induzione sun: se n = 1 v1 `e non nullo ed `e una base diS. Una base formata da un solo vettore `e sempre ortogonale quindiv1 `e una base ortogonale diS. Sia oran > 1, consideriamo i vettori v1, . . . , vn−1 ed il sottospazioT da essi generato. Per ipotesi induttiva esiste una base ortogonale

w1, . . . , wt

del sottospazioT . Si noti che w1, . . . , wtev1, . . . , vn−1generano lo stesso spazio. Quindi anche i sistemi di vettoriw1, . . . , wtvnev1, . . . , vn−1vngenerano lo stesso spazio e percio’

S = Span(w1, . . . , wt, vn).

Per Lemma 0.4.3, il vettore

wt+1= vn X

i=1,...,s

hv, wii hwi, wiiwi

`e ortogonale a w1, . . . , wt e S = Span(w1, . . . , wt+1). Se wt+1 = 0 allora w1, . . . , wt `e una base ortogonale diS. Se wt+1 6= 0 allora i vettori w1, . . . , wt+1 sono non nulli ed a due a due perpendicolari. Per Proposizione 0.4.2, essi sono linearmente indipendenti. Quindi sono una base ortogoale diS.

La cosa importante `e applicare la dimostrazione, o il lemma che la precede, in modo concreto tutte le volte che sia assegnato un sistema di vettori

v = v1, . . . , vn.

Supporremo non tutti nulli i vettori div e, a meno di riassegnare gli indici, v1 6= 0. Indichiamo i passi da compiere:

(14)

0.4. SPAZI EUCLIDEI xv (1) Porrew1 = v1.

(2) Porrew2 = v2hwhw1,v2i

1,w1iw1. ...

(k) Porre

wk = vk X

i=1,...,k−1, wi6=0

hwi, vki hwi, wiiwi ...

(n) Dopon passi il procedimento termina avendo costruito un sistema di vettori w = w1, . . . , wn.

Si noti che, per ognik = 1, . . . , n, la costruzione `e tale che

Span(v1, . . . , vk) = Span(w1, . . . , wk).

Ci`o segue immediatamente dalla dimostrazione del precedente teorema. I vettori w1, . . . , wn generano dunque Span(v1, . . . , vn) e sono inoltre, per come sono stati costruiti, a due a due perpendicolari. Non `e escluso che alcuni dei vettori costruiti possano essere nulli, infine:

eliminando daw i vettori nulli si ottiene una base ortogonale di Span(v1, . . . , vn).

Sottospazio ortogonale

Definizione 0.4.7. SiaV uno spazio vettoriale euclideo e sia S ⊂ V un sottoinsieme non vuoto.

L’insieme

S:= {v ∈ V | hv, wi = 0, ∀ u ∈ S}

`e un sottospazio vettoriale diV detto sottospazio ortogonale a S.

In altri termini, anche se S `e solo un sottoinsieme, S ha sempre una struttura di sottospazio vettoriale di V . Se in particolare S = {u}, per qualche u ∈ V , allora scriveremo u invece di {u}; in particolare, vale

u= Span(u).

E facile verificare che, se` S ⊂ V `e anch’esso un sottospazio vettoriale, allora S ∩ S = {0}.

Inoltre, seu = u1, . . . , un `e una base perS, risulta

S= u1 ∩ · · · ∩ un.

Proposizione 0.4.5. SiaV uno spazio vettoriale euclideo di dimensione n. Sia S ⊂ V un sot- tospazio vettoriales dimensionale di V . Allora,

V = S ⊕ S. In particolare,dim S= n − s.

(15)

Dimostrazione. Siau = u1, . . . , usuna base perS. A meno di applicare Teorema 0.4.4, possiamo supporre cheu sia una base ortogonale. Dal Teorema di estensione ad una base e dal Teorema 0.4.4,u si estende ad una base ortogonale v = u1, . . . , us, us+1, . . . , un perV . Per definizione di base ortogonale,us+1, . . . , un ∈ S. Pertanto,V = S + Sed i vettorius+1, . . . , un ∈ S sono linearmente indipendenti inSperch´e lo sono inV . Da quanto osservato precedentemente, poich´e si haS ∩ S= {0}, allora V = S ⊕ Sed il sistema di vettori linearmente indipendenti w = us+1, . . . , un`e una base perS.

Definizione 0.4.8. DatoS un sottospazio vettoriale di uno spazio vettoriale euclideo V , Sviene detto il complemento (o supplemento) ortogonale diS.

0.5 Basi ortonormali e matrici ortogonali

Nel seguito useremo il simbolo di Kroneckerδijper indicare il termine di postoi, j della matrice identit`a di ordine assegnato; questo vuol dire cheδij = 0 se i 6= j e che δij = 1 se i = j.

Definizione 0.5.1. SiaV uno spazio vettoriale euclideo di dimensione n. Diremo che una base v = v1, . . . , vn `e ortonormale se

hvi, vji = δij

Si noti che una base ortonormalev = v1, . . . , vn `e certamente una base ortogonale, segue infatti dalla definizione chehvi, vji = 0 se i 6= j. La propriet`a in pi`u che caratterizza le basi ortonormali tra tutte le basi ortogonali `e che

hvi, vii = 1, i = 1, . . . , n, i.e. che ogni vettorevi e’ un versore per ognii = 1, . . . , n.

• Sia V lo spazio dei vettori geometrici e siano OI, OJ, OK tre segmenti orientati che coinci- dono con i tre lati di un cubo di vertice nel punto O. Allora le classi di equipollenza i, j, k di OI, OJ, OK sono un esempio di base ortonormale di V per il prodotto scalare geometrico.

• `E inoltre facile verificare che la base canonica di Rn `e una base ortonormale per il prodotto scalare standard diRn.

SiaV uno spazio vettoriale euclideo di dimensione n; per costruire una base ortonormale di V `e sufficiente costruire una base ortogonale

w = w1, . . . , wn

diV con il procedimento di Gram-Schmidt. Infatti, una volta costruita una base ortogonale w come sopra, e’ sufficiente versorizzare i vettori diw ponendo, per ogni i = 1, . . . , n,

ui= 1

phwi, wiiwi

(16)

0.5. BASI ORTONORMALI E MATRICI ORTOGONALI xvii ottenendo cosi’ una base ortonormale

u = u1, . . . , un dedotta daw. Abbiamo infatti gia’ osservato che

hui, uji = 1 phwi, wiiq

hwj, wji

hwi, wji = δij.

In particolare i vettoriu1, . . . , unsono non nulli, a due a due perpendicolari e tali chehui, uii = 1.

Le prime due propriet`a implicano che tali vettori sono linearmente indipendenti. Quindi, essendo in numero uguale alla dimensione diV , essi formano una base ortogonale. L’ultima propriet`a ci dice che tale base `e ortonormale.

Siav = v1, . . . , vnuna base diV e sia

Bv := Bv(h , i)

la matrice del prodotto scalareh , i rispetto alla base v. Poich´e il termine di posto i, j di Bv `e il prodotto scalarehvi, vji `e chiaro che:

Proposizione 0.5.1. v `e una base ortonormale se, e solo se, Bv `e la matrice identit`a.

Una buona propriet`a delle basi ortonormali `e la seguente: sianox, y ∈ V due vettori e sia u = u1, . . . , un

una base ortonormale di V e sia Bu := Bu(h , i) la matrice del prodotto scalare rispetto aalla baseu. Allora sappiamo che:

hx, yi = x1, . . . , xn Bu

y1

... yn

 .

Poich´eu `e per ipotesi ortonormale, si ha che Bu `e la matrice identit`aInquindi

hx, yi = x1, . . . , xn

In

y1

... yn

 = x1, . . . , xn



y1

... yn

 = X

i=1,...,n

xiyi.

La precedente propriet`a viene spesso riassunta a parole nel modo seguente:

(P1) Seu `e una base ortonormale il prodotto scalare hx, yi `e la somma dei prodotti delle coordi- nate omonime dix e y rispetto a u.

In (P1) la terminologia ”coordinate omonime” vuol dire coordinate dix e di y aventi indice uguale e cio`exi eyi,1 ≤ i ≤ n.

Una ulteriore buona propriet`a di una base ortonormale `e che le coordinate di un vettorev ∈ V sono determinate dal prodotto scalare:

(17)

Proposizione 0.5.2. Sia V uno spazio vettoriale euclideo e sia u = u1, . . . , un una sua base ortonormale. Per ogni vettorev ∈ V la componente j-esima di v rispetto alla base u `e il prodotto scalare

hv, uji.

Dimostrazione. Siav = x1u1+ · · · + xnun. Per provare la proprieta’ basta osservare che hv, uji = h X

i=1,...,n

xiui, uji = X

i=1,...,n

xihui, uji = X

i=1,...,n

xiδij = xj.

Assegnate due basi ortonormali

u = u1, . . . , un e

v = v1, . . . , vn diV , le matrici

Muv e Mvu,

rispettivamente, del cambiamento di base dau a v e da v ad u hanno un’importanza particolare.

Definizione 0.5.2. Una matrice quadrataM si dice ortogonale se

tM M = In.

Equivalentemente M `e una matrice ortogonale se, e solo se, M `e invertibile e l’inversa di M coincide la trasposta diM :

M−1 =tM.

Dal Teorema di Binet e dal fatto chetM M = In, si ottiene che, seM e’ una matrice ortogonale allora

det(M ) = ±1.

Definizione 0.5.3. Una matrice ortogonaleM si dice speciale ortogonale se det(M ) = 1,

si dice invece ortogonale non-speciale se

det(M ) = −1.

Perch´e interessarsi alle matrici ortogonali? Il fatto e’ che le matrici ortogonali sono, come vedremo tra poco, esattamente le matrici del cambiamento di base tra due basi ortonormali.

(18)

0.5. BASI ORTONORMALI E MATRICI ORTOGONALI xix Teorema 0.5.3. SiaV uno spazio vettoriale di dimensione finita e siano u e v due sue basi qual- siasi. Sia poi h , i un prodotto scalare su V e siano Bu := Bu(h , i) e Bv := Bv(h , i) rispettivamente le matrici di tale prodotto scalare rispetto alle basiu e v. Allora la relazione tra le matriciBueBvdei prodotti scalari in queste due basi `e la seguente:

Bv = tMuvBuMuv, (5)

doveMuv `e la matrice del cambiamento di base dau a v.

Dimostrazione. Sianou = u1, . . . , un, v = v1, . . . , vne siano assegnati due vettori qualsiasi x = x1v1+ · · · + xnvn e y = y1v1+ · · · + ynvn,

espressi mediante le loro coordinate rispetto alla basev. Dalla formula del cambiamento di coor- dinate, le colonne delle coordinate dix e y rispetto alla base u sono, rispettivamente,

Muv

x1

... xn

 e Muv

y1

... yn

 .

Si osservi inoltre che la trasposta del primo prodotto `e x1, . . . , xn

 t Muv.

Poich´eBu `e la matrice dih , i rispetto alla base u, ne segue che in base u si ha:

hx, yi = x1, . . . , xn t

MuvBuMuv

y1

... yn

 .

Poich´e la precedente eguaglianza vale qualunque siano i vettorix e y, possiamo dedurre che Bv = tMuvBuMuv.

Si osservi infatti che le coordinate divi(rispettivamente, divj) rispetto av sono nulle salvo quella i-esima (rispettivamente, la j-esima), che vale 1. La penultima eguaglianza implica allora

hvi, vji = 0 . . . 1i. . . 0 t

MuvBuMuv

0

... 1j

... 0

.

L’espressione a destra di quest’ultima uguaglianza `e esattamente il termine di posto i, j della matrice prodotto

tMuvBuMuv.

(19)

D’altra parteBv `e, per definizione di matrice associata ad un prodotto scalare rispetto ad una base, esattamente la matrice il cui termine di postoi, j `e hvi, vji. Per ogni i, j, tMuvBuMuveBvhanno dunque lo stesso terminei, j. Quindi sono matrici uguali.

La relazione (5) tra le matriciBueBv `e molto importante e svolger`a un ruolo fondamentale anche in altri argomenti che affronteremo in seguito (cf. e.g. Capitolo 0.9). Abbiamo infatti la seguente situazione pi`u generale:

Definizione 0.5.4. Due matriciA e B, n×n, si dicono congruenti se esiste una matrice invertibile M , n × n, tale che valga

B = tM AM. (6)

SeA `e B soddisfano la relazione (6), esse si dicono congruenti per mezzo di M .

Da Teorema 0.5.3 abbiamo quindi che, dato uno spazio vettoriale euclideoV , le matrici di un prodotto scalare rispetto a due qualsiasi basi diV sono congruenti.

Nelle stesse notazioni di Definizione 0.5.4, abbiamo inoltre:

Lemma 0.5.4. SiaM una matrice ortogonale n × n. Allora, per ogni matrice A n × n, si ha la seguente identit`a:

M−1AM = tM AM. (7)

In particolare, seM e’ ortogonale, due matici A e B sono simili (o coniugate) se e solo se sono congruenti.

Dimostrazione. Discende dal fatto immediato che, essendoM ortogonale, alloratM = M−1.

Pertanto, se su uno spazio vettoriale euclideo(V, h, i) prendiamo due basi ortonormali (rispetto ah, i) si ha:

Teorema 0.5.5. SiaV uno spazio vettoriale e siano u e v due sue basi ortonormali rispetto ad uno stesso prodotto scalareh , i su V . Allora la matrice del cambiamento di base Muv `e una matrice ortogonale.

Dimostrazione. SianoBu := Bu(h, i) e Bv := Bv(h, i) rispettivamente le matrici del prodotto scalare considerato rispetto alle basiu e v. Poich´e u e v sono ortonormali si ha che Bu = In= Bv. Applicando (5), segue allora che

In= tMuvInMuv= tMuvMuv. In altri terminiMuv−1= tMuv, quindiMuv `e una matrice ortogonale.

Proiettori ortogonali su sottospazi

Quanto osservato precedentemente, permette di dare ulteriori importanti definizioni.

Riferimenti

Documenti correlati

Con le componenti cartesiane: , = 12 + 12 + &1&2 Norma: La norma o lunghezza in uno spazio vettoriale metrico è la funzione che associa al vettore vϵV il numero reale non

Dati due sottospazi complementari di uno spazio vettoriale V , si scrivano le relazioni tra le due proiezioni e le due simmetrie che da quegli spazi sono

Si dice

Poiche’ la matrice A e’ espressa utilizzando una base ortonormale rispetto al prodotto scalare standard che esiste su R 3 , allora possiamo anche in questo modo concludere che T

Poiche’ la matrice A e’ espressa utilizzando una base ortonormale rispetto al prodotto scalare standard che esiste su R 3 , allora possiamo anche in questo modo concludere che T

Ortogonalit`a e Indipendenza Lineare Per due vettori non nulli del piano, la pro- priet`a di essere fra loro ortogonali implica la propriet`a di essere fra loro

Ogni sottospazio di R n possiede delle basi ortonormali, anche se in generale non ne ha

Spazio vettoriale Euclideo. Proiezioni ortogonali