a.a. 2010-2011 15.4.2011
PRODOTTI SCALARI
Salvo avviso contrario V denota un R-spazio spazio vettoriale (di dimensione finita).
Definizione 0.1. 1) Un prodotto scalare su V `e una forma bilineare simmetrica definita positiva su V (in breve f.b.s.d.p.).
2) Se su V `e definito un prodotto scalare, V `e uno spazio vettoriale euclideo (n.b. in questa definizione non si richiede dimRV < ℵ0).
D’ora in avanti, un prodotto scalare su V sar`a denotato h , i, dati u, v ∈ V, hu, vi si legge “u scalar v”.
Esempio 0.2. 1) Su R3 ponendo hx, yi = x1y1+ 2x2y2− x1y2− x2y1+ x3y3 si
definisce un prodotto scalare. Si verifica facilmente che matrice associata a h , i rispetto alla base canonica `e simmetrica non degenere; per verificare la positivit`a osserviamo che, essendo hx, xi = x21+ 2x22− 2x1x2+ x23= (x1− x2)2+ x22+ x23≥ 0.
2) In C0([−1, 1]) ponendo hf, gi =R1
−1f (x)g(x)dx si definisce un prodotto scalare
per le note propriet`a diR .
3) In particolare ∀ a 6= b ∈ R,RabP (x)Q(x)dx definisce un prodotto scalare in
R[X].
4) Dati V = R[X]≤3 ∪ {0}, hf, gi = R 1
−1f (x)g(x)dx∀ f, g ∈ V, U = L({1, X})
determinare U⊥.
5) Se h , i, `e un prodotto scalare, chi `e V⊥?
Proposizione 0.3. in uno spazio vettoriale euclideo V con prodotto scalare h , i vale la diseguaglianza di Schwarz hv, wi2≤ hv, vihw, wi, ∀ v, w ∈ V.
Prova. Se w = 0V entrambi i membri valgono 0. Supponiamo quindi w 6= 0V,
essendo h , i definito positivo, per ogni a, b ∈ R si ha 0 ≤ hav + bw, av + bwi = a2hv, vi + 2abhv, wi + b2hw, wi (e si ha 0 se e solo se av + bw = 0
V ossia v k w).
Scegliendo 0 6= a = hw, wi, b = −hv, wi si ottiene
0 ≤ hw, wi2hv, vi − 2hw, wihv, wi2+ hv, wi2hw, wi,
da cui la tesi dividendo per 0 6= hw, wi.
Definizione 0.4. In uno spazio vettoriale euclideo V la norma o lunghezza di v ∈ V `e:
k v k:=phv, vi.
Osservazione 0.5. Usando la norma ed estraendo la radice ad ambo i membri, la diseguaglianza di Schwarz si scrive:
| hv, wi |≤ kvk k w k,
dove al primo membro si ha il valore assoluto o modulo1del numero reale hv, wi. La norma di un vettore in uno spazio euclideo V soddisfa, per ogni v, w ∈ V : N1. kvk ≥ 0 (= ⇐⇒ v = 0V),
1
La lunghezza di un vettore dello spazio euclideo Rn `e usualmente chiamata modulo, io
preferisco la dizione norma per evitare la confusione col valore assoluto. 1
2 PRODOTTI SCALARI
N2. k λv k=| λ |k v k per ogni λ ∈ R
N3. k v + w k≤k v k + k w k (= ⇐⇒ v k w) diseguaglianza triangolare.
la diseguaglianza triangolare discende dalla diseguaglianza di Schwarz infatti: k v + w k2= hv + w, v + wi ≤k v k2+2 k v kk w k + k w k2= (k v k + k w k)2.
Definizione 0.6. 1)Un versore `e un vettore di lunghezza 1, se 0V 6= v, allorakvkv
`
e un versore di v ottenuto normalizzando v.
2) Un insieme finito {v1, . . . , vs} di vettori non nulli di V `e un insieme di vettori
ortogonali o insieme ortogonale se i suoi vettori sono ⊥ a due a due (i.e. hvi, vji =
0∀ 1 ≤ i 6= j ≤ s).
3) Un insieme ortonormale `e un insieme ortogonale di versori.
4) Una base ortogonale, in breve b.o., (risp ortonormale, in breve b.o.n.) `e un insieme ortogonale (risp. ortonormale) di s = dimRV elementi.
Osservazione 0.7. Da un insieme ortogonale di vettori {v1, . . . , vs} se ne ottiene
facilmente uno ortonormale normalizzando ciascun vettore. Da una b.o. normaliz-zando ciascun vettore si ottiene una b.o.n..
Proposizione 0.8. Ogni insieme ortogonale {v1, . . . , vs} `e libero (in particolare,
se dimRV = n ogni insieme ortogonale di n vettori `e una b.o.)
Prova. Se a1v1+· · · asvs= 0V risulta necessariamente , 0 = hvi, a1v1+· · · asvsi = s
P
j=1
ajhvi, vji = aihvi, vii ∀ 1 ≤ i ≤ s con hvi, vii > 0 si ha quindi ai= 0 ∀ 1 ≤ i ≤ s.
Osservazione 0.9. Se B = {b1, . . . , bn} `e una b.o.n. di V la matrice che
rappre-senta h, i rispetto a B `e In, pertanto, se v = n P i=n xibi, w = n P i=n yibi si ha hv, wi = n P i=1
xiyi (ossia in una b.o.n. il prodotto scalare di due vettori v, w si esprime come
il prodotto scalare standard dei vettori colonna delle loro coordinate). Definizione 0.10. 1) Una matrice A ∈ Gln(R) `e ortogonale se A−1= tA.
2) Le matrici ortogonali di Gln(R) formano un sottogruppo di Gln(R) detto
gruppo ortogonale di ordine n e denotato O(n).
Osservazione 0.11. 1) Se A, B ∈ O(n), ossia A−1 = tA, B−1 = tB, si ha necessariamente AB−1∈ O(n) in quanto
(AB−1)−1= (B−1)−1A−1= BA−1= BtA = t(AtB) = t(AB−1). 2) Essendo d(tA) = d(A), datAA = I
n, discende che per una matrice ortogonale A
si ha d(A) = ±1.
Definizione 0.12. Il sottogruppo di O(n) costituito dalle matrici ortogonali A con d(A) = 1 `e detto gruppo ortogonale speciale di ordine n ed `e denotato SO(n). Esempio 0.13. In particolare si ha:
SO(2) = cos θ − sin θ sin θ cos θ : θ ∈ R .
Proposizione 0.14. Siano F = {f1, . . . , fn}, B = {b1, . . . , bn} due basi di uno
PRODOTTI SCALARI 3
Prova. Le colonne di M := MFB sono le coordinate di f1, . . . , fn rispetto a B
ed F `e b.o.n. se e solo se hfi, fji = δij. Siccome fi pu`o essere pensata come riga di tM ci`o significatM M = I
n, ossia proprio M ∈ O(n).
Daremo un metodo per costruire insiemi ortogonali (risp. ortonormali), detto procedimento di ortogonalizzazione (risp. ortonormalizzazione) di Gram-Schmidt, a partire da un insiemae qualsiasi di vettori.
In uno spazio vettoriale euclideo V l’unico vettore isotropo `e 0V (essendo h, i
definito positivo), quindi ∀ 0V 6= v ∈ V e w ∈ V sono definiti il coefficiente di
Fourier di w rispetto a v, av(w) := hv,wihv,vi e la proiezione ortogonale di w nella
direzione di v, pr⊥v := av(w). Risulta: hw − av(w)v, vi = hv, wi − av(w)hv, vi = 0
ossia w−av(w)v ⊥ v (n.b. se v `e un versore av(w) = hv, wi e la proiezione ortogonale
di w nella direzione di v `e semplicemente hv, wiv ).
Teorema 0.15 (Gram-Schmidt). Sia {v1, v2. . .} una successione (finita o infinita)
di vettori in uno spazio euclideo V. Si ha:
(1) esiste una successione {w1, w2. . .} di vettori di V tale che ∀ r ≥ 1 sia
– L({v1, . . . , vr}) = L({w1, . . . , wr})
– wi⊥ wj per ogni 1 ≤ i 6= j ≤ r.
(2) se {u1, u2. . .} `e un’altra successione soddisfacente (1) per ogni r ≥ 1
es-istono c1, . . . , cr∈ R : ui= ciwi, ∀ 1 ≤ i ≤ r.
Prova. Costruiamo {w1, w2, . . .} per induzione su r. Se tutti i vi = 0V non c’`e
nulla da dimostrare, possiamo quindi supporre v1anisotropo (a meno di riordinare
{v1, v2. . .}) e porre w1 := v1 che soddisfa (1) per r = 1. Supponiamo inoltre di
avere costruito {w1, . . . , wt} soddisfacente (1) per r = t e poniamo
wt+1:= vt+1− 0 t X i=1 awi(vt+1)wi dove0 Pt i=1
indica la somma estesa ai soli indici tali che wi6= 0V cosicch´e sia definito
awi(vt+1), risulta cos´ı vt+1 ∈ L({w1, . . . , wt, wt+1}) e, per l’ipotesi induttiva,
∀ 1 ≤ i ≤ t, vi ∈ L({w1, . . . , wt}) cosicch´e L({v1, . . . , vt+1}) ⊆ L({w1, . . . , wt+1})
ma anche wt+1∈ L({w1, . . . , wt, vt+1}) e L({v1, . . . , vt}) = L({w1, . . . , wt}) da cui
wt+1∈ L({v1, . . . , vt, vt+1}) ossia vale anche l’altra inclusione. Per ogni 1 ≤ i ≤ t
tale che wi 6= 0V si ha hwt+1, wii = hvt+1, wii − awi(vt+1)hwi, wii = 0 poich´e per
ipotesi hwi, wji = 0 ∀ 1 ≤ i 6= j ≤ t si ha che {w1, . . . , wt+1} soddisfa (1).
Anche (2) si dimostra per induzione su r e per r = 1 la conclusione `e ovvia. Supponiamo allora t ≥ 1 e che ∃ c1, . . . , ct∈ R tali che ui = ciwi, ∀ 1 ≤ i ≤ t, per
qualche z ∈ L({w1, . . . , wt}) si ha ut+1= z + ct+1wt+1, ct+1∈ R e, poich´e sia ut+1
che wt+1sono ⊥ a z anche z = ut+1− ct+1wt+1⊥ z, ossia z = 0V2.
Osservazione 0.16. Se dimRV = n < ℵ0 e {v1, . . . , vn} `e una base di V , il
procedimento di G.S. fornisce una b.o. {w1, . . . , wn} da cui, normalizzando, si
ottiene una b.o.n..
Esempio 0.17. 1) Siano V uno spazio vettoriale euclideo con dimRV = 4 e
B = {b1, b2, b3, b4} una b.o.n di V . Sia F = {f1 = (0, 1, 0, 1), f2 = (2, 1, 0, 1), 2n.b. in (1) non si afferma che {w
1, . . . , wr} sia un insieme ortogonale perch´e pu`o accadere che
4 PRODOTTI SCALARI f3 = (−1, 0, 0, 1), f4 = (0, 0, 1, 0)}. Applicando il procedimento di G.S. ad F si ottiene: w1= f1= b2+ b4, w2= f2−hwhw1,f2i 1,w1iw1= f2− 2 2w1= (2, 0, 0, 0) = 2b1, w3= f3−hw1 ,f3i hw1,w1iw1− hw2,f3i hw2,w2iw2= f3− 1 2w1+ 2 4w2= (0, − 1 2, 0, 1 2) = − 1 2b2+ 1 2b4, w4= f4−hwhw1,f4i 1,w1iw1− hw2,f4i hw2,w2iw2− hw1,f4i hw1,w1iw1= f4−0w1+0w2−0w3= (0, 0, 1, 0) = b3. {w1, w2, w3, w4} `e b.o. di V .
2) Sia dato in R4 il prodotto scalare hx, yi = 1
2x1y1+12x2y2+x3y3+x4y4, provare
che applicando il procedimento di G.S. a v1= (1, 1, −1, −1), v2= (1, 1, 1, 1), v3=
(−1, −1, −1, 1), v4= (1, 0, 0, 1) si ottiene la b.o. {(1, 1, −1, −1), (1, 1, 1, 1), (0, 0, −1, 1),
(12, −12, 0, 0)}.
Proposizione 0.18. Se V `e uno spazio vettoriale euclideo e (0V) 6= W ⊂ V `e un
sottospazio di dimensione finita, ogni v ∈ V si scrive in modo unico v = w + w0 con w ∈ W, w0∈ W⊥.
Ossia: V = W ⊕ W⊥.
Prova. Sia B = {b1, . . . , bt} una b.o.n. di W. Se v ∈ V, poniamo
w := hv, b1ib1+ · · · + hv, btibte w0:= v − w,
chiaramente w ∈ W, inoltre, essendo B una b.o.n., per ogni 1 ≤ i ≤ t si ha hw0, b
ii = hv, bii − hw, bii = hv, bii − hv, biihbi, bii = 0
perci`o w0 ∈ L({b1, . . . , bt})⊥ = W⊥, ossia v = w + w0 `e della forma voluta. Se
v = u + u0con u ∈ W, u0 ∈ W⊥si ha 0
V = w − u + w0− u0e quindi w − u = u0− w0∈
W ∩ W⊥, in particolare hw − u, w − ui = 0 =⇒ w − u = 0V = w0− u0, ossia l’unicit`a
dichiarata.
Definizione 0.19. L’elemento w ∈ W tale che v = w + w0 con w0 ∈ W⊥`e detto
proiezione ortogonale di v sul sottospazio W. Osservazione 0.20. Esplicitando l’identit`a
kvk = hv, vi
alla luce di Proposizione 0.18 si ottiene l’identit‘a pitagorica kvk = hw + w0, w + w0i = kwk + kw0k.