• Non ci sono risultati.

forme bilineari

N/A
N/A
Protected

Academic year: 2021

Condividi "forme bilineari"

Copied!
6
0
0

Testo completo

(1)

FORME BILINEARI

Salvo avviso contrario V denota un k-spazio spazio vettoriale (di dimensione finita).

Data una base F = {f1, . . . , fn} di V =⇒ ∀ v, w ∈ V si ha v = n P i=1 xifi, w = n P i=1

yifi con xi, yi∈ k univocamente determinati .

Definizione 0.1. Un’applicazione b : V × V −→ k `e una forma bilineare (in breve f.b.) se `e lineare rispetto a ciascuno degli argomenti ossia: ∀ v, w, v0, w0 ∈ V, λ ∈ k

• b(v + v0, w) = b(v, w) + b(v0, w)

• b(v, w + w0) = b(v, w) + b(v, w0)

• b(λv, w) = λb(v, w) = b(v, λw). `

E una f.b. simmetrica se b(v, w) = b(w, v), f.b. antisimmetrica se b(v, w) = −b(w, v) 1.

Esempio 0.2. Data A ∈ Mn(k), definendo bA: kn× kn−→ k via bA(x, y) = txAy,

si ottiene una f.b. per le propriet`a del prodotto righe per colonne di matrici. Se A = In bIn(x, y) = txI ny, `e tx · y = n P i=1 xiyi `e detta f.b. standard di kn.

Definizione 0.3. Data una base F di V, se b : V × V −→ k `e una f.b., la matrice di b rispetto a F `e A = (aij) ∈ Mn(k) definita da b(fi, fj) := aij, ∀ 1 ≤ i, j ≤ n.2

Viceversa, se A = (aij ∈ Mn(k) la f.b. associata ad A rispetto a F `e

bF

A(v, w) := txAy.

Osservazione 0.4. 1) Essendo bFA(w, v) = tyAx ed essendo b(v, w) ∈ k, ossia tb(v, w) = b(v, w) per ogni f.b. b, e tbF A(v, w) = tytAx si ha bF A(v, w) = b F A(w, v)

se e solo se A `e simmetrica. Analogamente per il caso antisimmetrico.

2) Complessivamente, abbiamo visto che, fissata la base F, associando a una f.b. b la sua matrice rispetto a F si ottiene una c.b.u. (dipendente da F ) tra l’insieme Bil(V ) delle f.b. su V ed Mn(k) che associa matrici simmetriche a f.b. simmetriche

e matrici antisimmetriche a f.b. antisimmetriche.

Proposizione 0.5. Siano F = {f1, . . . , fn}, G = {g1, . . . , gn} due basi di V e b :

V × V −→ k una f.b., con A = (aij) = (b(fi, fj)) ∈ Mn(k) 3 B = (bij) = (b(gi, gj)). Se v = n P i=1 xifi= n P i=1 x0igi e w = n P i=1 yifi = n P i=1 y0igi si ha b(v, w) = txAy = tx0By0, posto M = MF G, si ha anche x = M x0, y = M y0=⇒ txAy = t(M x0)AM y0= tx0 tM AM y0=⇒ B = tM AM 1b `e antisimmetrica ⇐⇒ b(v, v) = 0

kinfatti se `e antisimmetrica risulta b(v, v) = −b(v, v) = 0k se invece b(v, v) = 0k si ha 0k = b(v + w, v + w) = b(v, v) + b(v, w) + b(w, v) + b(w, w) ossia b(v, w) = −b(w, v). 2Essendo v = Pn i=1 xifi, w = n P i=1 yifi si ha b(v, w) = n P i,j=1 xiyjb(fi, fj) = txAy. 1

(2)

e quindi A = (tM )−1BM−1.

Definizione 0.6. Due matrici A, B ∈ Mn(k) sono congruenti se esiste M ∈ Gln(k)

tale che B = tM AM .

La congruenza `e una relazione di equivalenza in Mn(k).

Due matrici A, B ∈ Mn(k) rappresentano la stessa f.b. su V se e solo se sono

congruenti.

Pertanto la caratteristica di una matrice che rappresenta una f.b. b non dipende dalla base scelta ed `e detta rango di b.

Definizione 0.7. 1) Una f.b. b di rango n = dimkV `e detta non degenere.

2) Dati una f.b.s. b su V e un vettore v ∈ V , un vettore w ∈ V `e ortogonale a v (rispetto a b) se b(v, w) = 0k.

Osservazione 0.8. Dati una f.b.s. b su V e un sottinsieme S ⊂ V (in particolare un sottospazio) Sb⊥:= {w ∈ V : b(v, w) = 0, ∀ v ∈ S} Sb⊥ `e un sottospazio di V infatti ∀ w, w0∈ S⊥ b , λ ∈ k si ha: b(v, w + w0) = b(v, w) + b(v, w0) = 0k+ 0k = 0k b(λv, w) = λb(v, w) = 0k.

Definizione 0.9. 1) S⊥ `e detto spazio ortogonale a S (rispetto a b), se S = {v} si scrive semplicemente v⊥.

2) Due sottospazi U, W ⊂ V sono ortogonali se U ⊂ W⊥ (o per simmetria W ⊂ U⊥).

3) V⊥ `e detto radicale di V .

Osservazione 0.10. 1) V⊥= (0V) se e solo se b `e non degenere.

Siano F = {f1, . . . , fn} una base di V e A ∈ Mn(k) la matrice di b rispetto a F

se ρ(A) = n e x 6= 0kn `e il vettore delle coordinate di 0V 6= v ∈ V rispetto a F

si ha txA 6= (0, . . . , 0) =⇒ ∃ y ∈ kn tale che txAy 6= 0k =⇒ il vettore w ∈ V di

coordinate y rispetto a F `e tale che b(v, w) 6= 0k; viceversa se ∀ 0kn 6= x ∃ y ∈ kn

tale chetxAy 6= 0

k necessariamente A ha rango n.

Ossia, b `e non degenere se e solo se per ogni 0V 6= v ∈ V esiste w ∈ V tale che

b(v, w) 6= 0k o, equivalentemente, se e solo se per ogni 0V 6= w ∈ V esiste v ∈ V

tale che b(v, w) 6= 0k e quindi la tesi.

Definizione 0.11. Un vettore v ∈ V `e isotropo rispetto a una f.b.s. b se v ∈ v⊥ ossia b(v, v) = 0k.

Osservazione 0.12. 1) 0V `e isotropo per ogni f.b.s.

2) Se v ∈ V `e isotropo e λ ∈ k, essendo b(λv, λv) = λ2b(v, v) = λ20k = 0k, il

sottospazio L(v) `e costituito da vettori tutti isotropi.

Definizione 0.13. Uno spazio vettoriale U con dimkU = 2, h f.b.s. non degenere e

0U 6= u ∈ U vettore isotropo `e detto piano iperbolico (e. h `e detta forma iperbolica).

Osservazione 0.14. Un piano iperbolico (U, h) possiede una base F = {f1, f2}

formata da vettori isotropi tali che h(f1, f2) = 1k. Per ipotesi esiste 0U 6= u ∈

(3)

esiste v ∈ U tale che h(f1, v) 6= 0k =⇒ {f1, v} `e libero3 ed f20 = h(f11,v)v soddisfa h(f1, f20) = 1k. Il vettore f2:= f20− h(f20,f20)f1 2 soddisfa h(f2, f2) = h(f20, f20) − h(f20,f20) 2 h(f1, f 0 2) − h(f20,f20) 2 h(f1, f 0 2) + h(f20,f20)2 4 h(f1, f1) = 0k

e quindi insieme a f1fornisce la base richiesta.

Definizione 0.15. Una base di un piano iperbolico (U, h) come in Osservazione 0.14 `e detta iperbolica e la matrice associata ad h rispetto a una base iperbolica `e 

0 1 1 0

 .

Esempio 0.16. 1)h(x, y) = x1y2+ x2y1 `e una forma iperbolica e la base canonica

`

e iperbolica.

2) k(x, y) = 12x1y1− 12x2y2 `e una forma iperbolica e la matrice associata ad k

rispetto alla base canonica `e  1

2 0

0 −1 2



. Trovare una base iperbolica per k.

Se v ∈ V `e non-isotropo (anisotropo) rispetto a una f.b.s. b, posto ∀ w ∈ V, av(w) :=

b(v, w) b(v, v) ∈ k, si ha b(v, w − av(w)v) = 0k, ossia w − av(w)v ∈ v⊥.

Inoltre, siccome w = av(w)v + (w − av(w)v) si ha V = L(v) ⊕ v⊥ (infatti poich´e v

`

e anisotropo si ha L(v) ∩ v⊥= (0V).

Definizione 0.17. 1) Il coefficiente di Fourier di w ∈ V rispetto a un dato v ∈ V4 `

e av(w).

2) Una base ortogonale (o dualizzante) per (V, b) `e una base F = {f1, . . . , fn}

costituita da vettori ⊥ a due a due.

Osservazione 0.18. F = {f1, . . . , fn} `e una base ortogonale (ossia b(fi, fj) =

0k∀ i 6= j) se e solo se la matrice A = (b(fi, fj)) `e diagonale, nel qual caso se

v = n P i=1 xifi, w = n P i=1 yifi=⇒ b(v, w) = n P i=1 aiixiyi.

n.b. se F = {f1, . . . , fn} `e b.o. per (V, b) anche F = {λ1f1, . . . , λnfn} `e tale

∀ λ1, . . . , λn∈ k, ossia se esiste b.o. essa non `e unica.

Definizione 0.19. Data una f.b.s. b : V × V −→ k, ponendo qb(v) := b(v, v)

si definisce un’applicazione qb: V −→ k detta forma quadratica associata a b.

Esempio 0.20. Se b `e la f.b.s.s. su kn, b(x, y) = n P i=1 xiyila f.q. associata, detta f.q. standard (f.q.s.), `e q(x) = n P i=1 x2i.

Proposizione 0.21. Data una f.b.s. b : V × V −→ k, la f.q. associata q soddisfa: 1) q(λv) = λ2q(v)

2) 2b(v, w) = q(v + w) − q(v) − q(w).

3Se fosse v = λf

1per qualche λ ∈ k si avrebbe h(f1, v) = λh(f1, f1) = λ0k= 0k.

(4)

Prova. Per definizione q(λv) = b(λv, λv) = λ2b(v, v) = λ2q(v); q(b + w) − q(v) − q(w) = b(v + w, v + w) − b(v, v) − b(w, w) = b(v, v) + b(v, w) + b(w, v) + b(w, w) − b(v, v) − b(w, w) = 2b(v, w) (essendo b simmetrica).

Inoltre se F = {f1, . . . , fn} `e una base di V , v = n

P

i=1

xifi e A = (aij) =

(b(fi, fj))=tA ∈ Mn(k) `e la matrice di b rispetto a F si ha q(v) =t xAx = n P i,j=1 aijxixj =⇒ q(v) = Q(x) con Q(X) = n P i,j=1

aijXiXj forma quadratica nelle

indeterminate X1, . . . , Xn e Q(X) =t XAX con A = (aij) ∈ Mn(k) matrice

sim-metrica.

Teorema 0.22. Data una f.b.s. b qualsiasi esiste una base diagonalizzanate per b (o, equivalentemente, una qualsiasi A = (aij) ∈ Mn(k) matrice simmetrica `e

congruente a una matrice diagonale).

Prova. Per induzione su n = dimkV, se n = 1 non c’`e niente da dimostrare.

Supponiamo allora n ≥ 2 e di avere dimostrato che ogni f.b.s. su uno spazio di dimensione ≤ n − 1 ammette base diagonalizzante. Se b `e la forma nulla, essendo la matrice nulla diagonale, non c’`e nulla da dimostrare. Supponiamo dunque b 6= 0 ossia che ∃ v, w ∈ V tali che b(v, w) 6= 0. Proviamo innanzi tutto che almeno uno fra v, w, v + w `e anisotropo, infatti, se v, w sono entrambi isotropi si dimostra che 0 6= b(v + w, v + w) = b(v, v) + 2b(v, w) + b(w, w).

Sia f1 ∈ V un vettore anisotropo (ossia tale che b(f1, f1) 6= 0), cosicch´e

V = L(f1) ⊕ f1⊥, in particolare dimkf1⊥ = n − 1 e vale l’ipotesi induttiva per la

f.b.s. b0 indotta da b su f1⊥ che quindi possiede base diagonalizzante {f2, . . . , fn}.

Allora F = {f1, f2, . . . , fn} `e base per V per ipotesi {f2, . . . , fn} `e libero e, essendo

f1 anisotropo, f1 ∈ L({f/ 2, . . . , fn}) = f1⊥. Vale inoltre b(fi, fj) = δij giacch´e

b(f1, fi) = 0, ∀ 2 ≤ i ≤ n essendo fi∈ f1⊥, ∀ 2 ≤ i ≤ n e anche b(fi, fj) = b0(fi, fj) =

δij, ∀ 2 ≤ i, j ≤ n, ossia F `e base diagonalizzante per b.

Teorema 0.23. Se il campo base k `e algebricamente chiuso5, data una f.b.s. b qualsiasi esiste una G tale che la matrice di b rispetto a G sia D =



Ir O0

O00 O000  con r= rango di b, O0 ∈ Mr,n−r(k), O00∈ Mn−r,r(k), O000 ∈ Mn−r(k),(o,

equivalen-temente, una qualsiasi A = (aij) ∈ Mn(k) matrice simmetrica `e congruente a una

matrice diagonale come D).

Prova. Chiaramente le due affermazioni sono equivalenti. Dal Teorema 0.22 sappiamo che esiste base F = {f1, f2, . . . , fn} diagonalizzante per b, sia essa A =

    a11 0 . . . 0 0 a22 . . . 0 . . . 0 0 . . . ann    

. Salvo riordinare F, possiamo supporre

r

Q

i=1

aii 6= 0, 1 ≤

r ≤ n e 0 = ar+1r+1 = · · · = ann. Siano α1, . . . , αr∈ k tali che α2i = aii, 1 ≤ i ≤ r

(questi esistono essendo k algebricamente chiuso), ponendo gi := α−1i fi, 1 ≤ i ≤ r

e gr+j:= fr+j, 1 ≤ j ≤ n − r, si ottiene una b.o. G per cui vale:

b(gi, gi) = b(α−1i fi, α−1i fi) = α−2i b(fi, fi) = α−2i aii= 1, ∀ 1 ≤ i ≤ r.

5

(5)

Teorema 0.24 (Sylvester). Se k = R esiste p ∈ N, p ≤ r = rango di b6e una base G = {g1, g2, . . . , gn} di V tale che la matrice di b rispetto a G sia

( ) D =     Ip 0 . . . 0 0 −Ir−p 0 . . . 0 . . . 0 0 . . . 0    

(o, equivalentemente, una qualsiasi A = (aij) ∈ Mn(R) matrice simmetrica `e

con-gruente a una matrice diagonale ( ) come sopra con r e p dipendenti solo da A). Prova. Chiaramente le due affermazioni sono equivalenti. Dal Teorema 0.22 sappiamo che esiste base F = {f1, f2, . . . , fn} tale che per ogni v =

n P i=1 xifi ∈ V risulti q(v) = n P i=1

aiix2i (n.b. il numero dei coefficienti aii 6= 0 `e uguale al rango r

di b e quindi dipende solo da b). Salvo riordinare F possiamo supporre

r

Q

i=1

aii 6= 0

e che a11, . . . , app > 0 per qualche p ≤ r e quindi ∃ α1, . . . , αr∈ R tali che

α2i = aii, ∀ 1 ≤ i ≤ p, −(αp+j)2= ap+jp+j, ∀ 1 ≤ j ≤ r − p.

Come nel Teorema 0.23 si verifica che, rispetto alla base G : gi := αfi

i, ∀ 1 ≤ i ≤

r, gr+j := fr+j∀ 1 ≤ i ≤ n − r, la matrice di b `e della forma voluta, pertanto risulta

(•) q(v) = x21+ · · · + x2p− x2 p+1+ · · · − x 2 r, ∀ v = n X i=1 xigi∈ V.

Proviamo infine che p dipende solo da b e non dalla base G, supponiamo che rispetto a un’altra base H = {h1, h2, . . . , hn} risulti

(?) q(v) = z21+ · · · + zt2− zp+12 + · · · − z 2 r, ∀ v = n X i=1 zihi∈ V.

Se t 6= p (supponiamo per esempio t < p) siano U := L({g1, . . . , gp}), W :=

L({ht+1, . . . , hn}) essendo dimRU + dimRW = p + n − t > n per il lemma di

Grassmann risulta U ∩ W 6= (0V), ossia, ∃ 0V 6= v ∈ U ∩ W per cui vale

v = p X i=1 xigi= n−t X j=1 zt+jhj.

Essendo 0V 6= v, risulterebbe quindi sia q(v) > 0 che q(v) < 0 dunque deve essere

necessariamente t = p.

Definizione 0.25. 1) La (•) ´e detta forma canonica della forma quadratica q, p `

e detto indice di positivit`a di q ed r − p `e detto indice di negativit`a di q, infine la coppia (p, r − p) `e detta segnatura di q.

2) Una f.q. definita su un R-spazio vettoriale V `e: - definita positiva se q(v) > 0 ∀ v ∈ V \ {0V},

- definita negativa se q(v) < 0 ∀ v ∈ V \ {0V},

- semidefinita positiva se q(v) ≥ 0 ∀ v ∈ V, - semidefinita negativa se q(v) ≤ 0 ∀ v ∈ V,

-indefinita se non `e n´e semidefinita positiva n´e semidefinita negativa.

(6)

Osservazione 0.26. 1) La forma canonica (risp. la segnatura) di una f.q. reale `e: - x21+ · · · + x2n (risp. (n, 0)) se q `e definita positiva,

- −x21− · · · − x2n (risp. (0, n)) se q `e definita negativa,

- x2

1+ · · · + x2r, 0 ≤ r ≤ n (risp. (r, 0)) se q `e semidefinita positiva,

- −x2

1− · · · − x2r, 0 ≤ r ≤ n (risp. (0, r)) se q `e semidefinita negativa,

- x2

1+ · · · + x2p− x2p+1− · · · − x2r, 0 ≤ r ≤ n (risp. (p, r − p)) se q `e indefinita.

Per le matrici simmetriche reali si ha un risultato analogo.

2) Il teoreme di Sylvester dice che in ogni classe di congruenza di matrici sim-metriche reali `e contenuta un’unica matrice diagonale del tipo ( ) e che le matrici di questo tipo costituiscono un insieme completo di rappresentanti delle classi di congruenza di matrici simmetriche reale di ordine dato.

Le f.b.s. definite positive sugli spazi vettoriali reali sono importanti nella geome-tria euclidea (permettono di introdurre tutte le nozioni di natura metrica).

Altri tipi di f.b.s. sono importanti in geometria e fisica.

Esempio 0.27. 1) Lo spazio euclideo n-dimensionale `e (Rn, f.q.s.).

2)In R4 la forma quadratica λ(x1, x2, x3, x4) = x12+ x22+ x23− x24`e detta forma

di Minkowski (`e non degenere, indefinita, di segnatura (3, 1)). La coppia (R4, λ) `e detta spazio di di Minkowski e interviene nella relativit`a ristretta.

Riferimenti

Documenti correlati

G48:0.01 Questo capitolo ` e dedicato alla introduzione delle forme bilineari, funzioni bivariate definite su due spazi vettoriali le quali possono vedersi come generalizzazioni

[r]

Osserviamo soltanto che e’ ovvio per le ma- trici diagonali; infatti, se A e B sono due matrici quadrate dello stesso ordine n, entrambe diagonali, con elementi

Nella lezione scorsa abbiamo visto che un modo per determinare l’eventuale inversa di una matrice quadrata A consiste nel risolvere il sistema lineare generale ad essa associato Ax =

[r]

Vedremo in seguito un metodo piu’ efficiente per stabilire se una matrice e’ invertibile o meno e, in caso affermativo, determinarne l’inversa.... Vale anche il viceversa del

Si e’ introdotta l’identificazione di sequenze ordinate con matrici colonna. Si e’ mostrato come l’operazione di prodotto di matrici sia ben collegata alle operazioni di somma

Costruzione di metodi di minimizzazione convergenti di tipo Broyden con algebre di matrici di bassa complessit` a Isabella Iori.. =⇒