Ortogonalit` a
September 12, 2015
1 Spazi vettoriali euclidei
Sia V uno spazio vettoriale su R. Un prodotto scalare `e una funzione V × V −→ R, (u, v) 7−→ u · v che soddisfa le condizioni seguenti
1. u · v = v · u, per ogni u, v in V .
2. (λu) · v = λ(u · v) = u · (λv), per ogni u, v in V ed ogni scalare λ.
3. (u + v) · w = u · w + v · w, per ogni u, v e w in V . 4. u · u > 0, per ogni u 6= 0.
Segue subito da 2. e 3. che u · 0 = 0. Infatti
u · 0 = u · (v − v) = u · v + u · (−v) = u · v + u · ((−1)v) = u · v + (−1)(u · v) = u · v − u · v = 0.
Dalla 1. e dalla 3. segue subito che vale anche l’altra propriet`a distributiva u · (v + w) = u · v + u · w.
Dalla 4 segue che
u · v = 0, per ogni v ∈ V , se e solo se u = 0.
A volte, per non confonderlo con il prodotto usuale, per il prodotto scalare si usa la notazione hu|vi. Si mette la barretta e non la virgola per non confondere il prodotto scalare dei vettori con il sottospazio generato dai vettori.
Definizione. Uno spazio vettoriale V sul campo reale dotato di un prodotto scalare si dice uno spazio vettoriale euclideo.
Esempi 1. V = Rn, x = (x1, x2, . . . , xn), y = (y1, y2, . . . , yn)
x · y = x1y1+ x2y2+ . . . + xnyn= x1 x2 · · · xn
y1
y2
... yn
Se mettiamo i vettori in colonna, allora possiamo scrivere, in notazione compatta, x · y = xty.
Verifichiamo che le condizioni 1, 2, 3, 4 sono soddisfatte.
1. x · y = xty = (xty)t= ytxtt= ytx = y · x.
2. (λx) · y = (λx)ty = λ(xty) = λ(x · y), x · (λy) = xt(λy) = λ(xty) = λ(x · y).
3. (x + y) · z = (x + y)tz = (xt+ yt)z = xtz + ytz = x · z + y · z.
4. Se x = (x1, x2, . . . , xn), allora x · x = x21+ x22+ . . . + x2n> 0 se x 6= 0, ovvero se qualche xi6= 0.
Questo prodotto scalare dice il prodotto scalare standard o anche prodotto scalare euclideo su Rn.
2. V = C0(I), lo spazio vettoriale delle funzioni continue sull’intervallo chiuso I = [a, b]. Poniamo, per f, g ∈ C0(I)
hf |gi = Z b
a
f (t)g(t) dt
Utilizzando la linearit`a dell’integrale e le propriet`a del prodotto di funzioni, le verifiche delle con- dizioni 1,2,3 sono immediate. Per la 4 osserviamo che se f 6= 0, per il Teorema di Weierstrass esiste un sottointervallo chiuso di I in cui f2(t) > 0. Segue che
hf |f i = Z b
a
f2(t) dt > 0
Stessa cosa se prendiamo V = P(R) o anche V = Pn(R). In questi casi, poich`e i polinomi sono funzioni definite su tutto R, possiamo scegliere diversi intervalli I. Cambiando l’intervallo, cambia il prodotto scalare.
3. V = Mn(R). Definiamo, per A, B ∈ Mn(R),
hA|Bi = Tr(BtA)
detto il prodotto scalare di Frobenius. Dalla linearit`a della traccia, dalle propriet`a del prodotto di matrici e della trasposizione seguono subito le condizioni 1, 2, 3. Posto A = (aij), B = (bij), calcoliamo hA|Bi. Se C = (cij) = BtA, abbiamo cij =P
hbhiahj e quindi Tr(BtA) =X
i
cii=X
i
X
h
bhiahi
=X
i,j
aijbij
da cui segue subito che hA|Ai > 0 se A 6= 0. Si osservi che se identifichiamo Mn(R) con Rn2tramite la base standard, il prodotto scalare di Frobenius diventa il prodotto scalare standard.
Definizione. Se v `e un vettore in uno spazio euclideo V , lo scalare kvk =√
v · v ≥ 0
si dice la norma o lunghezza di v in uno spazio euclideo V . Se v ha lunghezza 1, v si dice un versore o vettore unitario. Se v 6= 0, il vettore v/kvk si dice il normalizzato di v.
Se x = (x1, x2, . . . , xn) `e un vettore dello spazio euclideo standard Rn, la sua norma `e data da kxk =
q
x21+ x22+ . . . + x2n
Teorema. Sia V uno spazio vettoriale euclideo e siano u, v ∈ V e λ ∈ R˙ 1) kλvk = |λ|kvk.
2) kvk = 0 se e solo se v = 0.
3) |u · v| ≤ kuk kvk (disuguaglianza di Cauchy-Schwarz).
4) ku + vk ≤ kuk + kvk (disuguaglianza triangolare).
dim. 1) `E kλvk2= (λv) · (λv) = λ2(v · v) = λ2kvk2.
2) Se v = 0, v · · · v = 0 e quindi kvk = 0. Per v 6= 0 l’asserto segue dalla definizione di prodotto scalare.
3) Se v = 0 la disuguaglianza `e vera. Supponiamo v 6= 0. Per ogni scalare c ∈ R abbiamo 0 ≤ ku − cvk2= (u − cv) · (u − cv) = kuk2− 2c(u · v) + c2kvk2= kvk2
c2− 2cu · v
kvk2 +kuk2 kvk2
=
kvk2
"
c − u · v kvk2
2
−(u · v)2
kvk4 +kuk2 kvk2
#
da cui si ricava
c − u · v kvk2
2
−(u · v)2
kvk4 +kuk2 kvk2 per ogni c ∈ R. Prendendo c = u · v
kvk2 si ottiene (u · v)2 ≤ kuk2kvk2 da cui segue subito la disuguaglianza.
4) Abbiamo
ku + vk2= (u + v) · (u + v) = kuk + 2u · v + kvk2C−S≤ kuk2+ 2kuk kvk + kvk2= (kuk + kvk)2
2 Procedimento di Gram-Schmidt
Definizione. Sia V uno spazio vettoriale euclideo. Due vettori u e v in V si dicono ortogonali se u · v = 0. Un sottoinsieme S di V si dice ortogonale se u · v = 0 per ogni u, v ∈ V . Un sottoinsieme S di V si dice ortonormale se S `e ortogonale e se ogni vettore di S `e vettore unitario.
Normalizzando un insieme ortogonale S, ossia normalizzando ogni vettore di S, si ottiene un insieme ortonormale. Un sottoinsieme B di V si dice una base ortogonale (risp. ortonormale) se B `e una base di V ed `e un insieme ortogonale (risp. ortonormale).
Ad esempio, l’insieme S = {(1, 1, 0), (1, −1, 1), (−1, 1, 2)} `e un insieme ortogonale, il suo nor- malizzato `e l’insieme {√1
2(1, 1, 0),√1
3(1, −1, 1),√1
6(−1, 1, 2)}.
Un insieme S = {v1, v2, . . .} `e una base ortonormale se e solo se
vi· vj= δij=
(0 se i 6= j 1 se i = j
Ad esempio la base standard di Rn `e una base ortonormale per il prodotto scalare eclideo. La base standard di Mn(R) `e una base ortonormale per il prodotto scalare di Frobenius. L’insieme {(1, 2), (−2, 1)} `e un insieme ortogonale di R2e l’insieme {√1
5(1, 2),√1
5((−2, 1)} `e una base ortonor- male di R2.
Teorema. Sia V uno spazio vettoriale euclideo.
1) Un sottoinsieme ortogonale di vettori non nulli `e linearmente indipendente.
2) Se {v1, v2, . . . , vk} `e un insieme ortogonale di vettori non nulli, allora, per ogni vettore u in hv1, v2, . . . , vki,
u = u · v1
kv1k2v1+ u · v2
kv2k2v2+ . . . + u · vk
kvkk2vk. 3) Se {v1, v2, . . . , vk} `e un insieme ortogonormale di vettori, allora
u = (u · v1)v1+ (u · v2)v2+ . . . + (u · vk)vk per ogni vettore u in hv1, v2, . . . , vki.
dim. 2) Poich´e u ∈ hv1, v2, . . . , vki, esistono scalari c1, c2, . . . , ck ∈ R tali che u = c1v1+ c2v2+ . . . + ckvk. Moltiplicando per vj, j = 1, 2, . . . , k si ottiene
u · vj =
k
X
i=1
ci(vi· vj) = cj(vj· vj ⇒ cj = u · vj
kvjk2. 3) Se i vettori vj sono unitari, allora cj= u · vj.
1) Se c1v1+ c2v2+ . . . + ckvk= 0, allora da (2) segue che cj= 0 per ogni indice j.
Ad esempio se v1= √1
2(1, 1, 0), v2= √1
3(1, −1, 1), v3=√1
6(−1, 1, 2), si verifica che {v1, v2, v3} `e ortonormale. Infatti, i vettori sono a due a due ortogonali e quindi linearmente indipendenti e sono unitari. Poich´e sono tre vettori linearmente indipendenti in R3, essi formano una base ortonormale.
Se u = (2, 1, 3), u · v1=√3
2, u · v2= √4
3, v3= u · v3= √5
6, u = 3
√2v1+ 4
√3v2+ 5
√6v3.
Teorema. Sia V uno spazio vettoriale euclideo. Sia S = {w1, w2, . . . , wn} un insieme linearmente indipendente in V . Allora l’insieme S0= {v1, v2, . . . , vn} con
v1= w1, v2= w2−w2· v1
kv1k2 v1, v3= w3−w3· v1
kv1k2 v1−w3· v2
kv2k2 v2, . . . , vn = wn−
n−1
X
j=1
wn· vj
kvjk2
`e un insieme ortogonale di vettori non nulli tale che hS0i = hSi.
dim. Induzione su n. Se n = 1, si pone v1 = w1. Se n = 2, si proietta w2 su hv1i e si ottiene un vettore c1v1. Vogliamo che il vettore v2= w2− c1v1sia ortogonale a v1.
v1= w1 c1w1
w2 v2
Da (w2− c1v1) · v1= 0 segue che c1=w2· v1
kv1k2 e quindi v2= w2−w2· v1
kv1k2 v1. Abbiamo hv1i = hw1i e hv1, v2i = hw1, w2i.
Se n = 3, proiettiamo w3 sul piano hv1, v2i ottenendo un vettore c1v1+ c − 2v − 2. Vogliamo che v3= w3− c1v1− c − 2v2 sia ortogonale a v1 e a v2. Otteniamo
0 = v3· v1= w3· v1− c1kv1k2, 0 = v3· v2= w3· v2− c2kv2k2 e quindi
c1=w3· v1
kv1k2 , w3· v2
kv2k2 .
Abbiamo hv1, v2, v3i = hw1, w2, w3i. Adesso `e chiaro come si procede nel caso generale.
Quello presentato si chiama il procedimento di ortogonalizzazione di Gram-Schmidt. Volendo, alla fine si possono normalizzare i vettori e si ottiene un insieme ortonormale.
Esempio In R4 consideriamo i vettori w1= (1, 0, 1, 0), w2= (1, 1, 1, 1), w3= (0, 1, 2, 1) v1= w1= (1, 0, 1, 0),
v2= w2−w2· v1
kv1k2 = (1, 1, 1, 1) −2
2(1, 0, 1, 0) = (0, 1, 0, 1), v3= w3−w3· v1
kv1k2 −w3· v2
kv2k2 = (0, 1, 2, 1) −2
2(1, 0, 1, 0) − 2
2(0, 1, 0, 1) = (−1, 0, 1, 0) Normalizzando si ottiene un insieme {u1, u2, u3} ortonormale
u1= 1
√2(1, 0, 1, 0), u2= 1
√2(0, 1, 0, 1), u3= 1
√2(−1, 0, 1, 0).
Esempio Sia V = P2(R) con il prodotto scalare definito da hp(x)|q(x)i =
Z 1
−1
p(x)q(x) dx.
A partire dalla base standard {1, x, x2}, cerchiamo una base ortogonale per V . v1= 1, kv1k2= k1k2=
Z 1
−1
dx, h1|xi = Z 1
−1
xdx = x2 2
1
−1= 0, v2= x−hx|1i
2 v1= x−0
2 = x, hx2|1i = Z 1
−1
x2dx =x3 3
1
−1= 2
3, hx2|xi = Z 1
−1
x3dx =x4 4
1
−1 = 0, v3= x2−hx2|1i
kv1k2v1−hx2|xi
kv2k2v2= x2−1 3. La base ortogonale cercata `e {1, x, x2−1
3}. Normalizziamo i vettori v1, v2, v3 per ottenere una base ortonormale.
kv1k2= Z 1
−1
dx = 2, kv2k2= Z 1
−1
x2dx = 2
3, kv2k2= Z 1
−1
x2−1
3
dx = 8 45 Segue che la base ortonormale `e
( 1
√2, r3
2x, r5
8(3x2− 1) )
.
Naturalmente si pu`o proseguire ortogonalizzando la base standard di P(R). Si ottiene una sequenza di polinomi detti polinomi di Legendre.
Teorema. Sia V uno spazio vettoriale euclideo di dimensione finita. Esistono basi ortonormali per V .
dim. Basta partire da una base per V , ortogonalizzarla con il procedimento di Gram-Schmidt e infine normalizzare i vettori trovati.
Se {v1, v2, . . . , vn} `e una base ortonormale di V e u = x1v1+ x2v2+ . . . + xnvn, w = y1v1+ y2v2+ . . . + ynvn sono due vettori di V , allora
u·w = X
i
xivi
· X
j
yjvj
=X
ij
xiyj(vi·vj) =X
ij
xiyjδij=X
i
xiyi= x1y1+x2y2+. . .+xnyn
Segue che rispetto ad una base ortogonale, ogni prodotto scalare coincide con il prodotto scalare standard. Formalizziamo questo fatto.
Teorema. Siano V e W due spazi vettoriali della stessa dimensione finita e sia L : V → W una trasformazione. Le condizioni seguenti sono equivalenti.
1) L `e una trasformazione lineare e kL(v)k = kvk per ogni v in V . 2) L(u) · L(v) = u · v per ogni u, v in V .
Una tale trasformazione `e necessariamente biiettiva e si dice una isometria.
dim. 1) ⇒ 2). Osserviamo che
ku + vk2= kuk2+ 2(u · v) + kvk2 ⇔ u · v = 1
2(ku + vk2− kuk2− kvk2) e quindi, per la linearit`a di L
L(u) · L(v) = 1
2(kL(u + L(v)k2− kL(u)k2− kL(v)k2) = 1
2(kL(u + v)k2− kL(u)k2− kL(v)k2) =1
2(ku + vk2− kuk2− kvk2) = u · v.
2) ⇒ 1). Sia {v1, v2, . . . , vn} una base ortonormale di V . Dall’ipotesi segue allora che {L(v1), L(v2), . . . , L(vn)} `e un insieme ortonormale di W . Segue che {L(v1), L(v2), . . . , L(vn)} `e li- nearmente indipendente. Poich´e W ha la stessa dimensione di V , dim W = n e pertanto {L(v1), L(v2), . . . , L(vn)} `e una base ortonormale di W . Segue che, se v = x1v1+ x2v2+ . . . + xnvn, allora xi= v · vi e L(v) = y1L(v1) + y2L(v2) + . . . + ynL(vn) con yi= L(v) · L(vi) = v · vi= xi. Segue che
L(x1v1+ x2v2+ . . . + xnvn) = x1L(v1) + x2L(v2) + . . . + xnL(vn) da cui segue facilmente che L `e lineare.
La trasformazione L `e biiettiva perch´e non ha nucleo (se v 6= 0, kvk 6= 0; quindi kL(v)k = kvk 6= 0 e L(v) 6= 0) e gli spazi V e W hanno la stessa dimensione.
Corollario. Se V `e spazio vettoriale euclideo di dimensione n e B `e una base ortonormale per V , allora φB `e una isometria di V su Rn.
dim. Ricordo che φB(v) = [v]B. Abbiamo visto qui sopra che u · v = [u]B· [v]B e quindi φB`e isometria (attenzione, nell’ultima uguaglianza, il primo prodotto scalare `e quello di V , il secondo
`e il prodotto scalare standard di Rn).
3 Matrici ortogonali
Che propriet`a hanno le matrici di passaggio tra due basi ortonormali? Sia V uno spazio vettoriale euclideo di dimensione n. Siano B = {v1, v2, . . . , vn} e C = {w1, w2, . . . , wn} due basi ortonormali e poniamo P = PC←B. Dalla definizione di PC←B segue che [v]C = PC←B[v]B= P [v]B per ogni v in V . In particolare P [vi] = [vi]C, i = 1, 2, . . . , n. Ma [vi]B= eil’i-esimo vettore standard di Rn e poich´e P ei`e l’i-esima colonna di P , le colonne di P sono i vettori [v1]C, [v2]C, . . . , [vn]C. Sappiamo che [vi]C· [vj]C = vi· vj = δij. Quindi se poniamo ci= [vi]C, i = 1, 2, . . . , n, abbiamo cticj= δij e quindi
PtP =
ct1 ct2 ... ctn
c1 c2 · · · cn = 1n
Lemma. Sia A ∈ Mm×n(R), allora
Ax · y = x · Aty per ogni x ∈ Rn, y ∈ Rm.
(nel termine di sinistra il prodotto scalare `e quello di Rm, nel termine di destra `e il prodotto scalare di Rn)
dim. Mettiamo x e y in colonna. Segue che
Ax · y = ytAx = (ytAx)t= xtAtytt= xtAty = x · Aty
Teorema. Sia P ∈ Mn(R) una matrice n × n ad elementi reali. Le condizioni seguenti sono equivalenti.
1) P `e invertibile e l’inversa coincide con la trasposta, P−1= Pt PtP = P Pt= 1n. 2) Le colonne di P formano una base ortonormale di Rn. 3) Le righe di P formano una base ortonormale di Rn.
4) La trasformazione lineare LP: Rn→ Rn, x 7→ P x, `e una isometria.
Una tale matrice si dice una matrice ortogonale.
dim. P−1= Ptequivale a PtP = 1n. Posto P = c1 · · · cn ove c1, . . . , cn sono le colonne di P , la i-ma riga di Pt`e cti, l’elemento di posto i, j in PtP `e cticj = ci· cj:
ct1 ct2 ... ctn
c1 c2 · · · cn =
c1· c1 c1· c2 · · · c1· cn
c2· c1 c2· c2 · · · c2· cn
. . . . cn· c1 cn· c2 · · · cn· cn
= 1n=
1 0 · · · 0 0 1 · · · 0 . . . . 0 0 · · · 1
.
Segue che P `e ortogonale se e solo se ci· cj = δi,j `e = 0 quando i 6= j e ci· ci = 1 per ogni i e dunque se e solo se le colonne formano una base ortonormale. L’asserto sulle righe segue subito dal fatto che se P `e ortogonale, allora Pt`e anch’essa ortogonale: l’inversa di Pt`e P = (Pt)t. Se P `e ortogonale, anche Pt`e ortogonale. Segue che le colonne di Ptformano una base ortonormale.
Ma le colonne di Ptsono le righe di P , e pertanto le righe di P formano una base ortonormale. Il ragionamento si inverte.
Se P `e ortogonale, dal Lemma segue
LP(x) · LP(y) = (P x) · (P y) = x · Pt(P y) = x · (PtP )y = x · y per ogni x, y e quindi LP `e isometria. In particolare
kP xk = kxk.
Viceversa, se LP `e isometria, `e
LP(x) · LP(y) = (P x) · (P y) = x · y
per ogni x, y. Dal Lemma segue allora che x · PtP y = (P x) · (P y) == x · y per ogni x, y e quindi PtP = 1n e P `e ortogonale.
Teorema. Siano P, Q matrici ortogonali n × n. Allora:
(i) det P = ±1,
(ii) P Q `e una matrice ortogonale, (iii) P−1 `e una matrice ortogonale, (iv) Pt`e una matrice ortogonale.
(v) La matrice identica 1n `e ortogonale.
dim. solo di (i). Gli altri asserti sono facili e si lasciano come esercizi per il lettore. Da PtP = 1n segue det(PtP ) = 1. Utilizzando il Teorema di Binet e ricordando che det P = det(Pt), si ricava (det P )2= 1 e quindi det P = ±1. CVD
Definizione. Un sottoinsieme G di matrici invertibili in Mn(R) che soddisfa le condizioni seguenti 1) 1n∈ G,
2) se P, Q ∈ G, allora P Q ∈ G (chiuso rispetto al prodotto), 3) se P ∈ G, allora P−1 ∈ G,
si dice un gruppo di matrici.
Esempi 1. L’insieme delle matrici invertibili in Mn(R) soddisfa le condizioni: la matrice identica
`e invertibile, se P, Q sono invertibili, P Q `e invertibile (l’inversa `e Q−1P−1) e se P `e invertibile anche P−1 lo `e. Quindi l’insieme delle matrici invertibili forma un gruppo detto gruppo lineare generale e lo si denota con GLn(R). L’insieme
SLn(R) = {P ∈ Mn(R) | det P = 1}
forma un gruppo di matrici, sottogruppo di GLn(R), detto il gruppo lineare speciale.
2. Dal Teorema precedente segue che l’insieme delle matrici ortogonali di ordine n forma un gruppo di matrici, detto il gruppo ortogonale e denotato con O(n).
L’insieme delle matrici ortogonali con det = 1 forma anch’esso un gruppo di matrici che si denota con SO(n) ed `e un sottogruppo di O(n). L’insieme delle matrici ortogonali con det = −1 si denota con O−(n). Chiaramente non `e un sottogruppo di O(n), ma O−(n) = P · SO(n), ove P `e una qualunque matrice ortogonale con det P = −1, ad esempio
P =
−1 0 · · · 0 0 1 · · · 0 . . . . 0 0 · · · 1
.
4 Orientamento
Sia V uno spazio vettoriale reale di dimensione finita n.
Definizione. Due basi B e C di V si dicono equiverse se det(PC←B) > 0.
Segue che l’insieme delle basi di V `e ripartito in due classi. Ciascuna delle due classi si dice un orientamento di V . Lo spazio V si dice orientato se si sceglie uno dei due orientamenti. Quindi uno spazio `e orientato se si fissa una base campione. Le basi equiverse sono quelle che si ottengono dalla base campione tramite una matrice di cambio di base avente determinante positivo.
Ad esempio, se V = Rn, si usa prendere a campione la base standard. Segue che una base {v1, v2, . . . , vn} (vettori in colonna) `e equiversa alla base standard se e solo se
det v1 v2 . . . vn > 0.
Se P `e una matrice ortogonale, sappiamo che det P = ±1 Quindi due basi ortonormali B e C di uno spazio vettoriale euclideo sono equiverse se e solo se det(PC←B) = 1. Se si orienta Rnscegliendo la base standard, ogni base ortonormale di Rn equiversa con la base standard `e data dalle colonne di una matrice in SO(n).
5 Proiezione ortogonale
Definizione. Sia S 6= ∅ un sottoinsieme non vuoto di uno spazio vettoriale euclideo V . Il sot- tospazio
S⊥ = {v ∈ V | v · w = 0 per ogni w ∈ S}
si dice il sottospazio ortogonale di S.
Che S⊥ sia un sottospazio lo si vede facilmente.
1) 0 ∈ S⊥. Infatti 0 · w = 0 qualunque sia w w equindi anche per w ∈ S.
2) Se u, v ∈ S⊥, w ∈ S, allora (u + v) · w = u · w + v · w = 0 + 0 = 0 e quindi u + v ∈ S.
3) Se u ∈ S, λ ∈ R, w ∈ S, allora (λu) · w = λ(u · w) = λ0 = 0 e quindi λu ∈ S⊥. In particolare abbiamo {0}⊥= V e V⊥= {0}.
Lemma. 1) Se S ⊆ T , allora T⊥ ⊆ S⊥.
2) Se hSi `e il sottospazio di V generato dall’insieme S, allora hSi⊥= S⊥.
dim. 1) Se v ∈ T⊥, allora v · w = 0 per ogni w ∈ T e quindi anche per ogni w ∈ S. Segue che v ∈ S⊥.
2) Poich´e S ⊆ hSi, `e hSi⊥S⊥. Se v ∈ S⊥, allora v · w = 0 per ogni w ∈ S. Se w ∈ hSi, allora w =P
iciwi `e combinazione lineare di vettori wi ∈ S. Segue che v · (P
iciwi) =P
ici(v · wi) = P
ici0 = 0. Segue che S⊥ ⊆ hSi⊥ e infine hSi⊥= S⊥.
Teorema. Sia V uno spazio vettoriale euclideo. Sia U un sottospazio di V . 1) U ∩ U⊥= {0}.
2) Se U ha dimensione finita, allora per ogni v ∈ V esistono e sono unici u ∈ U e w ∈ U⊥ tali che
v = u + w.
Segue che V = U ⊕ U⊥. Il sottospazio U⊥ si dice il complemento ortogonale di U .
dim. 1) Sia v ∈ U ∩ U⊥, allora v · u = 0 per ogni u ∈ U . In particolare questo `e vero per u e quindi u · u = 0 e u = 0.
2) Sia {u1, . . . , ur} una base ortonormale per U . Dato v ∈ V , sia
u =
r
X
i=1
(v · ui)ui.
Segue che u `e un vetttore in U perch´e `e combinazione lineare dei vettori della base di U . Facciamo vedere che v − u `e un vettore in U⊥. Dal Lemma segue che basta far vedere che (v − u) · uj = 0 per ogni j = 1, . . . , r:
v −
r
X
i=1
(v · ui)ui
!
· uj= v · uj−
r
X
i=1
(v · ui)(ui· uj) = v · uj−
r
X
i=1
(v · ui)δij = v · uj− v · uj= 0.
Unicit`a. Supponiamo che u + w = u0+ w0 con u, u0 ∈ U e w, w0 ∈ U⊥. Segue che u − u0 = w0− w ∈ U ∩ U⊥. Da 1) segue che u − u0 = w0− w = 0 e quindi u = u0, w = w0.
Il vettore u dipende solo da v e da U , lo si denota con pU(v) e si dice la proiezione ortogonale di v su U . Il vettore v − pU(v) si dice la componente di v ortogonale ad U . Otteniamo quindi una trasformazione
pU: V −→ U, v 7−→ pU(v)
Questa trasformazione `e lineare, come si verifica facilmente: se v, v0∈ V e v = u ∗ w, v0 = u0+ w0, u, u0 ∈ U , w, w0∈ Uperp, allora u = pU(v), u0 = pU(v0) e v+v0= u+w+u0+w0= u+u0+w+w0. Poich´e u + u0 ∈ U e w + w0 ∈ U⊥, abbiamo pU(v + v0) = u + u0 = pU(v) + pU(v0). Similimente si dmostra che pU(λv) = λpU(v). Dalla dimostrazione del Teorema segue che, se {u1, u2, . . . , ur}
`e una base ortonormale per U , allora, per v ∈ V ,
pU(v) = (v · u1)u1+ (v · u2)u2+ . . . + (v · ur)ur. e {u1, u2, . . . , ur} `e solo una base ortogonale
pU(v) = v · u1
ku1k2u1+ v · u2
ku2k2u2+ . . . + v · ur
kunk2ur.
Teorema. Sia V uno spazio vettoriale euclideo di dimensione finita n. Sia S = {v1, v2, . . . , vr} un insieme ortonormale in V .
1) L’insieme S si pu`o completare ad una base ortonormale {v1, v2, . . . , vr, vr+1, . . . , vn} di V . 2) Se U = hSi, l’insieme S0= {vr+1, . . . , vn} `e una base ortonormale di U⊥.
3) Se U `e un sottospazio di V , allora dim U⊥= n − dim W .
dim. 1) Si completa l’insieme linearmente indipendente S ad una base B di V . Si usa il procedimento di Gram-Schmidt per ortogonalizzare B. I primi r elementi sono gi`a a posto e quindi coincidono con gli elementi di S. Si normalizzano i rimanenti n − r elementi e si trova una base ortonormale per V che estende S.
2) L’insieme S0 `e linearmente indipendente e S0 ⊂ W⊥. Per concludere basta dimostrare che hS0i = U⊥. Sia w ∈ U⊥. Poich´e u · vi= 0 per i = 1, 2, . . . , r, abbiamo
w =
r
X
i=1
(w · vi)vi+
n
X
j=r+1
(w · vj)vj=
n
X
j=r+1
(v · vj)vj
e quindi w ∈ U⊥.
3) `E conseguenza immediata dei due precedenti asserti.
Corollario. Siano U e W sottospazi dello spazio vettoriale euclideo di dimensione finita n.
1) U⊥⊥= U .
2) U ⊆ W se e solo se W⊥⊆ U⊥.
3) (U + W )⊥= U⊥∩ W⊥, (U ∩ W )⊥= U⊥+ W⊥.
dim. 1) Se u ∈ U , allora u · w = 0 per ogni w ∈ U⊥ e quindi U ⊆ U⊥⊥. Calcoliamo dim U⊥⊥= n − dim U⊥= n − (n − dim U ) = dim U . Segue che U⊥⊥= U .
2) Segue subito da 1).
3) Se v ∈ (U⊥∩ W⊥), allora v · U = 0 = v · W e quindi v · (U + W ) = 0. Segue che U⊥∩ W⊥ ⊆ (U + W )⊥. Se u0 ∈ U⊥, w0 ∈ W⊥, allora (u0+ w0) · (U ∩ W ) e quindi U⊥+ W⊥ ⊆ (U ∩ W )⊥. Ora applichiamo la formula di Grassmann.
dim(U + W )⊥= n − dim(U + W ) = n − dim U − dim W + dim(U ∩ W ) = (n − dim U ) + (n − dim W ) − [n − dim(U ∩ W )] = dim U⊥+ dim W⊥− dim(U ∩ W )⊥≤
dim U⊥+ dim W⊥− dim(U⊥+ W⊥) = dim(U⊥∩ W⊥).
Segue che dim(U + W )⊥= dim(U⊥∩ W⊥) e quindi (U + W )⊥= U⊥∩ W⊥. Segue che U ∩ W = (U⊥+ W⊥)⊥ e (U ∩ W )⊥= (U⊥+ W⊥)⊥⊥= U⊥+ W⊥.
Teorema. Sia A ∈ Mm×n(R) una matrice reale m × n. Sia N(A), R(A) e C(A) rispettivamente lo spazio nullo, lo spazio delle righe e lo spazio delle colonne di A. Allora
N(A) = R(A)⊥, N(At) = C(A)⊥
dim. Siano a1, a2, . . . , am le righe di A. Allora x ∈ R(A)⊥ se e solo se x · ai = 0 per ogni i = 1, . . . , n. Queste condizioni equivalgono a dire che x `e soluzione del sistema Ax = 0. Il secondo asserto segue dal primo perch´e lo spazio delle righe di At`e lo spazio delle colonne di A.
Esempio Consideriamo i seguenti vettori in R5
u1= (2, 2, −1, 0, 1), u2= (−1, −1, 2, −3, 1), u3= (1, 1, −2, 0, −1), u4= (0, 0, 1, 1, 1) Vogliamo trovare una base del complemento ortogonale del sottospazio U = hu1, u2, u3, u4i. Un procedimento pu`o essere il seguente.
1) Estrarre dall’insieme {u1, u2, u3, u4} una base di U o comunque trovare una base di U . 2) Ortogonalizzare la base trovata con il metodo di Gram-Schmidt.
3) Completare la base trovata ad una base di R5. 4) Ortogonalizzare questa base di R5.
5) La base cercata `e l’insieme complementare della base trovata nel punto 2.
Pi`u semplice `e il procedimento seguente.
Formiamo la matrice che ha per righe i vettori ui
A =
2 2 −1 0 1
−1 −1 2 −3 1
1 1 −2 0 1
0 0 1 1 1
Segue che U = R(A) Risolviamo il sistema lineare omogeneo Ax = 0. Riducendo a scala per righe A si ottiene
A ∼
1 1 −2 0 1
0 0 1 0 1
0 0 0 1 0
0 0 0 0 0
e una base per N(A) `e data dai vettori w1 = (−1, 1, 0, 0, 0), w2 = (−1, 0, −1, 0, 1). Segue che U⊥ = hw1, w2i.
6 Metodo dei minimi quadrati
In questa sezione interpretiamo la proiezione ortogonale di un vettore v in uno spazio vettoriale euclideo V su un suo sottospazio U come un’approssimazione del vettore v con un vettore u in U e si considera lo scalare kv − uk l’errore che si commette approssimando v con u. Facciamo vedere che da questo punto di vista la proiezione ortogonale pU(v) `e la migliore approssimazione.
Premettiamo il Teorema di Pitagora
Teorema. Se u, v sono vettori ortogonali nello spazio vettoriale euclideo V , allora ku + vk2= kuk2+ kvk2
dim. Poich´e u · v = 0, abbiamo
ku + vk2= (u + v) · (u + v) = u · u + 2u · v + v · v = kuk2+ kvk2.
Teorema. Sia V uno spazio vettoriale euclideo di dimensione finita e sia U un suo sottospazio.
Se pU(v) `e la proiezione ortogonale di v su U , allora kv − pU(v)k < kv − uk per ogni u ∈ U , u 6= pU(v).
dim. Sappiamo che u · (v − pU(v)) = 0 e che pU(v) − u 6= 0 per ipotesi. Applichamo il Teorema di Pitagora.
kv − uk2= kv − pU(v) + pU(v) − uk2= kv − pU(v)k2+ kpU(v) − uk2> kv − pU(v)k2
Applichiamo questo punto di vista ai sistemi lineari incompatibili Ax = b. Essendo il sistema incompatibile non possiamo trovare una vera soluzione del sistema ma possiamo cercare il “migliore sostituto” di una soluzione.
Ad esempio, consideriamo nel piano i tre punti (1, 0), (2, 1), (3, 3)
x y
•
•
•
I tre punti non sono allineati e quindi non esiste una retta y = mx + q passante per i tre punti.
Dunque il sistema lineare
m + q = 0 2m + q = 1 3m + q = 3
, Ax = b, A =
1 1 2 1 3 1
, x =m q
, b =
0 1 3
`e incompatibile. Quindi non ha senso trovare una soluzione x del sistema ma possiamo cercare un x che minimizzi la norma dell’errore kAx − bk. La retta corrispondente a questa soluzione minimizzante si dice la retta di regressione o retta dei minimi quadrati (perch´e, se poniamo ε = (ε1, ε2, ε3) = Ax − b, allora minimizzare kεk `e lo stesso che minimizzare kεk2= ε21+ ε22+ ε23).
Sia A una matrice m × n e consideriamo il sistema lineare Ax = b (tipicamente un sistema sovradeterminato, m ≥ n). Trovare, se possibile, un vettore x che minimizza kAx − bk. Sia U = C(A) lo spazio delle colonne di A. Ricordo che
C(A) = {Ax | x ∈ Rn} ⊂ Rm
e che il sistema Ax = b `e compatibile se e solo se b ∈ C(A). Il problema posto diventa: trovare x ∈ Rn in modo che Ax sia il vettore in U pi`u vicino a b. Sappiamo che il vettore in U pi`u vicino a b `e la proiezione pU(b). Quindi si tratta di risolvere il sistema
Ax = pU(b).
Il vettore x `e soluzione di questo sistema se e solo se b − Ax = b − pU(b) ∈ U⊥. Poich´e U = C(A), U⊥ = N(At), x `e soluzione se e solo se b − Ax ∈ N(At), se e solo se At(b − Ax) = 0, se e solo se x `e soluzione del sistema lineare
AtAx = Atb.
Questo sistema si dice il sistema normale associato al sistema Ax = b e le sue soluzioni si dicono soluzioni ai minimi quadrati. Il sistema normale
• `e un sitema quadrato n × n, la matrice AtA ha taglia n × n,
• `e un sistema sempre compatibile,
• pu`o avere infinite soluzioni ciascuna delle quali `e una soluzione ai minimi quadrati.
Lemma. Se A `e una matrice m × n, allora rango (AtA) = rango A. Se A ha rango n, allora AtA
`e invertibile.
dim. Facciamo vedere che N(AtA) = N(A),
AtAx = 0 ⇔ Ax = 0.
Se Ax = 0, allora At(Ax) = AtAx = 0. Viceversa, supponiamo AtAx = 0. Segue che x · AtAx = Ax · Ax = 0 e quindi Ax = 0. Quindi N(AtA) = N(A). Segue che
n − rango (AtA) = null (AtA) = null A = n − rango A e quindi rango (AtA) = rango A.
Teorema. Se A `e matrice m × n di rango n, per ogni b ∈ Rm, il sistema Ax = b ha un’unica soluzione ai minimi quadrati
x = (AtA)−1Atb Se U = C(A), allora
pU(b) = Ax = A(AtA)−1Atb
Attenzione! Il caso interessante `e quando m > n (sistema sovradeterminato incompatibile) e quindi la matrice A(AtA)−1Atnon si pu`o semplificare.
Esempio Torniamo all’esempio iniziale e calcoliamo la soluzione ai minimi quadrati.
AtA =1 2 3 1 1 1
1 1 2 1 3 1
=14 6 6 3
, Atb =1 2 3 1 1 1
0 1 3
=11 4
.
Il sistema
14 6 6 3
m q
=11 4
ha la soluzione m = 3/2, q = −5/3. Quindi la retta di regressione `e y = 3 2x − 5
3. Esempio Sia U = hu1, u2, u3i il sottospazio di R4generato dai vettori
u1= (3, 1, 0, 1), u2= (1, 2, 1, 1), u3= (−1, 0, 2, −1).
Si verifica nei modi che conosciamo che i vettori u1, u2, u3sono linearmente indipendenti. Quindi dim U = 3.
1) Calcolare pU(v) per v = (−3, −3, 8, 9).
2) Trovare [pU]S ove S `e la base standard di R4. 1) Mettiamo in colonna i vettori e formiamo la matrice
A = u1 u2 u3 =
3 1 −1
1 2 0
0 1 2
1 1 −1
che ha rango 3. La proiezione pU(v) `e la soluzione ai minimi quadrati del sistema lineare AtAx = Atv.
AtA =
u1· u1 u1· u2 u1· u3
u2· u1 u2· u2 u2· u3
u3· u1 u3· u2 u3· u3
=
11 6 −4
6 7 0
−4 0 6
,
Atv =
3 1 0 1
1 2 1 1
−1 0 2 −1
−3
−3 8 9
=
−3 8 10
Il sistema normale associato `e
11 6 −4
6 7 0
−4 0 6
x y z
=
−3 8 10
Con i metodi consueti troviamo la soluzione x = −1, y = 2, z = 1 e quindi
pU(v) = A
−1 2 1
=
−2 3 4 0
.
2) Dal Teorema precedente segue che [pU]S = A(AtA)−1At. Per calcolarla usiamo le tecniche che conosciamo: riduciamo a forma canonica per righe (AtA | At) ∼ (13| B) e poi calcoliamo AB.
11 6 −4 3 1 0 1
6 7 0 1 2 1 1
−4 0 6 −1 0 2 −1
∼
1 0 0 3167 −1567 1067 −1167 0 1 0 −1767 3267 671 1967 0 0 1 13419 −1067 2967 −13437
AB =
3 1 −1
1 2 0
0 1 2
1 1 −1
31
67 −1567 1067 −1167
−1767 3267 671 1967
19
134 −1067 2967 −13437
=
133
134 −673 672 1349
−673 4967 1267 2767
2 67
12 67
59 67 −1867
9 134
27
67 −1867 13453
Piuttosto impegnativo, da fare con il computer.
Teorema. Sia U un sottospazio di dimensione m di Rn e sia B = {u1, u2, . . . , um} (vettori in colonna) una base di U . Allora la matrice di pU rispetto alla base standard S di Rn `e
[pU]S = A(AtA)−1At, A = u1 u2 · · · um . Se B `e una base ortonormale di U , allora
[pU]S = AAt.
dim. La prima formula la conosciamo. Per la seconda basta osservare che, se B `e ortonormale, abbiamo
AtA = (ui· uj) = 1m.
7 Caratterizzazione delle proiezioni
In questa sezione supponiamo che V sia uno spazio vettoriale euclideo di dimensione finita.
Siia U un sottospazio di V . La proiezione ortogonale pU lascia uniti tutti i vettori di U : se u ∈ U , allora pU(u) = u. Segue che pU ◦ pU = p2U = pU.
Definizione. Un endomorfismo L : V → V si dice idempotente se L2= L ◦ L = L.
Segue che le proiezioni ortogonali sono endomorfismi idempotenti.
Definizione. Un endomorfismo L : V → V si dice simmetrico se L(v) · w = v · L(w)
per ogni v, w in V .
Teorema. Un endomorfismo L : V → V `e simmetrico se solo se la matrice di L rispetto ad una (e quindi ad ogni) base ortonormale di V `e una matrice simmetrica.
dim. Sia B = {v1, v2, . . . , vn} una fissata base ortonormale di V . Sappiamo che se v, w ∈ V , allora
v · w = [v]B· [w]B. Se A = [L]B, allora
[L(v)]B= A[v]B per ogni v in V . Segue che
L(v) · w = A[v]B· [w]B = [v]B· At[w]B, v · L(w) = [v]B· A[w]B. Segue che L `e simmetrica se e solo se A `e simmetrica.
Se B `e la matrice di L rispetto ad un’altra base ortonormale, allora B = PtAP con P matrice ortogonale. Quindi A `e simmetrica se e solo se B `e simmetrica.
Abbiamo visto che la matrice di una proiezione ortogonale `e simmetrica. Quindi le proiezioni ortogonali sono endomorfismi idempotenti e simmetrici. Vale anche il reciproco.
Teorema. Un endomorfismo idempotente e simmetrico di V `e una proiezione ortogonale.
dim. Sia U = im L. Facciamo vedere che – L(u) = u, per ogni u ∈ U ,
– ker L = U⊥.
La prima segue dal fatto che se u = L(v), v ∈ V , allora L(u) = L(L(v)) = L2(v) = L(v) = u.
Il vettore v appartiene a ker L se e solo se L(v) = 0, se e solo se L(v) · w = 0 per ogni w in V . Poich´e L `e simmetrica v appartiene a ker L se e solo se v · L(w) = 0, per ogni w in V . Ma U = {L(w) | w ∈ V } e dunque l’ultima condizione esprime il fatto che L(v) appartiene ad U⊥. Ci`o detto, facciamo vedere che L = pU. Sia v in V e scriviamo v = u + w con u = pU(v) e w ∈ U⊥. Segue che
L(v) = L(u + w) = L(u) + L(w) = u + 0 = u = pU(v).
8 Teorema degli assi principali
Sia A ∈ Mn(R) una matrice simmetrica. Abbiamo visto che
Teorema. Una matrice simmetrica reale di ordine n ha n autovalori reali (contati con la molteplicit`a).
In questa sezione faremo vedere che se A `e una matrice simmetrica reale esiste una base ortonor- male di autovettori per A. Facciamo intanto vedere che
Teorema. Sia A ∈ Mn(R) una matrice simmetrica. Siano v e w autovettori per A i cui autovalori corrispondenti λ e µ sono distinti. Allora v e w sono ortogonali, v · w = 0.
dim. Se Av = λv, Aw = µw con λ 6= µ , risulta
λ(v · w) = (λv) · w = Av · w = v · Atw = v · Aw = v · (µw) = µ(v · w) da cui segue (λ − µ)(v · w) = 0 e, poich´e λ − µ 6= 0, v · w = 0.
Definizione. Una matrice A si dice ortogonalmente diagonalizzabile se esiste una matrice ortog- onale P tale che P−1AP = PtAP sia una matrice diagonale
PtAP = diag (λ1, . . . , λn).
Teorema. Sia A una matrice quadrata reale di ordine n. Gli asserti seguenti sono equivalenti.
(i) A `e ortogonalmente diagonalizzabile.
(ii) esiste una base ortonormale di Rn formata da autovettori di A.
(iii) A `e una matrice simmetrica.
dim. (i) ⇔ (ii). Sia P = v1 · · · vn una matrice invertibile con colonne v1, . . . , vn. La matrice P `e ortogonale se e solo se {v1, . . . , vn} `e una base ortonormale e P−1AP `e diagonale se e solo se {v1, . . . , vn} `e una base di autovettori di A.
(ii) ⇒ (iii) Sia PtAP = D con D matrice diagonale. Segue che A = P DPt e At = (P DPt)t = PttDtPt= P DPt= A.
(iii) ⇒ (i) Induzione su n. Per n = 1 il risultato `e vero. Supponiamo n > 1. Poich´e A `e simmetrica, A ha un autovalore reale λ1. Sia v1 un corrispondente autovettore, Av1= λ1v1, che supponiamo normalizzato. Utilizzando il procedimento di Gram-Schmidt, completiamo {v1} ad una base ortonormale {v1, v2, . . . , vn} di Rn. La matrice P1: = (v1· · · vn) `e ortogonale e
P1tAP1=λ1 B 0 A1
ove 0 = 0(n−1)×1, B `e un blocco di taglia 1 × (n − 1) ed A1`e un blocco di taglia (n − 1) × (n − 1).
Poich´e A `e simmetrica, P1tAP1 `e simmetrica e quindi B = 0 = 01×(n−1) e A1 `e simmetrica. Per induzione, segue che esiste una matrice ortogonale Q di taglia (n − 1) × (n − 1) con QtA1Q = D1
diagonale. Segue che la matrice P2: =1 0
0 Q
, P2tP2=1 0 0 Qt
1 0 0 Q
=1 0
0 QtQ
=1 0
0 1n−1
= 1n
`e ortogonale e che
(P1P2)tA(P1P2) = P2tP1tAP1P2=1 0 0 Qt
λ1 0 0 A1
1 0 0 Q
=λ1 0 0 QtA1Q
=λ1 0 0 D1
`e diagonale. Inoltre P1P2, essendo prodotto di matrici ortogonali, `e ortogonale.
Segue che se λ1, . . . , λrsono gli autovalori distinti di A, m1, . . . , mrsono le rispettive molteplicit`a algebriche e Vλ1, . . . , Vλr i rispettivi autospazi, allora
• dim Vλi = mi, i = 1, . . . , r.
• V = Vλ1⊕ · · · ⊕ Vλr.
• Vλ⊥
i = Vλ1⊕ · · · ⊕ cVλi⊕ · · · ⊕ Vλr, i = 1, . . . , r.
Algoritmo per diagonalizzare ortogonalmente una data matrice simmetrica A:
1. Calcolare il polinomio caratteristico pA(t) di A.
2. Calcolare gli autovalori di A, sono le radici di pA(t).
3. Per ogni autovalore λ trovato nel paso 2 calcolare una base ortogonale del relativo autospazio Vλ.
4. Normalizzare tutti gli autovettori trovati in 3; i vettori normalizzati formano una base ortonormale di Rn.
5. Se P `e la matrice le cui colonne sono i vettori normalizzati trovati in 4, allora PtAP `e matrice diagonale i cui elementi diagonali sono gli autovalori di A.
Esempio Diagonalizziamo ortogonalmente la matrice
A =
2 2 1 2 5 2 1 2 2
Il polinomio caratteristico (calcolato direttamente come det(A − t) o con le somme dei minori principali) `e p(t) = t3− 9t2+ 15t − 7. Si pu`o provare a vedere se qualche fattore intero di 7, 1, −1, 7, −7, `e radice di p(t). Si vede che p(1) = 0. Dividendo p(t) per t − 1 si trova il polinomio t2− 8t + 7 che ha radici 1 e 7. Segue che 1 `e autovalore di molteplicit`a 2 e 7 `e autovalore di molteplicit`a 1.
λ = 1 Si trovano le soluzioni del sistema lineare omogeneo di matrice
A − 1 =
1 2 1 2 4 2 1 2 1
∼
1 2 1 0 0 0 0 0 0
che ha soluzioni x = −2u − v, y = u, z = v. Una base per V1 `e data da {w1 = (−2, 1, 0), w2 = (−1, 0, 1)}. Ortogonalizziamo questa base con il procedimento di Gram-Schmidt
v1= w1= (−2, 1, 0), v2= w2−w2· v1
kv1k v1=
−1 5, −2
5, 1
Normalizzando si ottengono i vettori u1= 1
√5(−2, 1, 0), u2= r5
6
−1 5, −2
5, 1
. λ = 7
A − 7 =
−5 2 1
2 −2 2
1 2 −5
∼
1 2 −5 0 1 −2
0 0 0
da cui si ricava v3= (1, 2, 1) che normalizzato d`a u3=√16(1, 2, 1).
La matrice ortogonale P che diagonalizza A `e (mettendo i vettori in colonna)
P = u1 u2 u3 =
−√2
5 −√1
30
√1 6
√1
5 −q
2 15
q2 3
0
q5 6
√1 6
= 1
√ 30
−2√
6 −1 √
√ 5
6 −2 2√ 5
0 5 √
5
.
Esempio Trovare una matrice ortogonale A tale che
A
√1 2
0
−√1
2
=
0 1 0
.
Soluzione. Poniamo vt = (1/√
2, 0, −1/√
2). Da Av = e2 e AtA = 13 segue che v = Ate2. Segue che v `e la seconda colonna di A. Quindi basta scegliere A in modo che Atsia una matrice ortogonale con seconda colonna uguale a v. Poich´e le colonne di una matrice ortogonale 3 × 3 formano una base ortogonale di R3, basta costruire una base ortonormale di R3 contenente v. A tal fine determiniamo una base ortonormale del sottospazio hvi⊥. I vettori di hvi⊥ soddisfano l’equazione
√1
2x − 1
√
2z = 0 ⇔ x − z = 0.
Segue che una base di hvi⊥ `e data dai vettori (1, 0, 1)t e (0, 1, 0)t. Osserviamo che i due vettori sono ortogonali e quindi per trovare una base ortonormale di hvi⊥basta normalizzare i due vettori (altrimenti avremmo dovuto usare il metodo di Gram-Schmidt). Dunque una base ortonormale di hvi⊥ `e {(1/√
2, 0, 1/√
2)t, (0, 1, 0)t}. Segue che una scelta possibile per At`e la matrice
At=
√1 2
√1
2 0
0 0 1
√1 2 −√1
2 0