• Non ci sono risultati.

Appunti su alcune classi importanti di matrici e gruppi di matrici

N/A
N/A
Protected

Academic year: 2021

Condividi "Appunti su alcune classi importanti di matrici e gruppi di matrici"

Copied!
54
0
0

Testo completo

(1)

Appunti su alcune classi importanti di matrici e gruppi di matrici

. Roberto Catenacci

Versione del 26 Luglio 2013

Argomenti scelti sulle matrici e sui gruppi di matrici complessivamente trattati nei corsi di Geometria 1A , Geometria 1B e Teoria dei Gruppi.

Testi di riferimento consigliati per questi argomenti:

M.L. Curtis, Matrix Groups, Universitext, Springer-Verlag, Berlino 1979

A. Baker, Matrix Groups, Springer Undergraduate Mathematics Series, Springer-Verlag, Berlino 2002

S.Lang, Algebra Lineare, Boringhieri, Torino 1989

Indice

1 Matrici normali 2

1.1 Matrici simmetriche e hermitiane . . . 4

2 Gruppi di Matrici 4 3 Gruppi Ortogonali e Unitari 6 3.1 Matrici ortogonali e unitarie . . . 8

3.2 Autovalori delle matrici hermitiane e unitarie . . . 9

3.3 Scomposizione polare . . . 10

3.4 Il teorema spettrale . . . 11

4 Spazio tangente all’identit`a 12 4.1 Matrici antisimmetriche e antihermitiane . . . 17

5 Esponenziale, Logaritmo e Algebre di Lie 18 5.1 Algebre di Lie reali di dimensione due . . . 27

5.2 Alcune algebre tridimensionali (so(3), su(2), sl(2, R), so(2, 1)) . . . 30

5.3 Sottogruppi ad un parametro . . . 33

6 Considerazioni topologiche 34 6.1 Connessione e suriettivit`a dell’esponenziale . . . 34

6.2 Il caso di O(n) e SO(n) . . . 38

6.3 Quaternioni e rotazioni: SU (2) → SO(3) . . . 40

6.4 Il caso di GL(n, R) e GL(n, C) . . . 44

6.5 Il caso di SL(2, R) . . . 46

6.6 Introduzione all’omotopia dei gruppi . . . 51

(2)

1 MATRICI NORMALI 2

1 Matrici normali

In questa sezione iniziamo lo studio di alcune importanti classi di matrici, usate in moltissimi campi della matematica e della fisica. Daremo per noti i pi`u semplici risultati di algebra lineare utilizzati. Indichiamo con Mn(R) e Mn(C) rispettivamente gli insiemi delle matrici n × n reali o complesse (se non importa indicare esplicitamente il campo di numeri considerato, useremo semplicemente il simbolo Mn). E’ noto che Mn(R) e Mn(C) sono spazi vettoriali reali (di dimensione n2 e 2n2 rispettivamente) e che con il prodotto righe × colonne, sono anelli non commutativi con unit`a. Ricordiamo anche che in Rn si definisce il prodotto scalare standard :

(x, y) = xty =

n

X

i=1

xiyi

Dove x =

 x1 x2 . xn

 , y =

 y1 y2 . yn

e xt denota la matrice trasposta di x. Analogamente, in Cn si

definisce il prodotto hermitiano standard :

(x, y) = xty =¯

n

X

i=1

xii

Definizione 1.1 Sia A una matrice reale o complessa, si definisce aggiunta (o coniugata hermitiana) di A, la matrice A = ¯At.

Osservazione 1.1 E’ chiaro che (A) = A. Inoltre, per le matrici reali, l’aggiunta `e semplicemente la matrice trasposta.

Lemma 1.1 In Rn e in Cn (con i prodotti standard) vale la formula: (Ax, y) = (x, Ay).

Prova. Basta ricordare le propriet`a algebriche della operazione di trasposizione e le definizioni di aggiunta di una matrice, di prodotto scalare e hermitiano:

(Ax, y) = (Ax)ty = x¯ tAty = x¯ tty = (x, Ay)

La formula del lemma 1.1 , ma con un arbitrario prodotto hermitiano, pu`o essere presa come definizione di aggiunta di una matrice:

Definizione 1.2 Si definisce aggiunta di una matrice A rispetto ad un prodotto hermitiano

<, >, l’unica matrice A tale che, ∀x, y ∈ Cn

< Ax, y >=< x, Ay > .

Se B `e la matrice del prodotto hermitiano dato, cio`e se < x, y >= xtB ¯y, si ottiene immediatamente la formula:

A = B−1AtB

(3)

Osservazione 1.2 Si noti che la matrice B `e I per il prodotto hermitiano standard, e quindi si riproduce la prima definizione data. (vedi definizione 1.1)

Definizione 1.3 Una matrice A si dice normale se commuta con la sua aggiunta: AA = AA.

Alcune propriet`a interessanti degli autovalori e degli autospazi delle matrici normali sono date dai seguenti teoremi:

Teorema 1.1 Se A `e una matrice normale, e se α `e un autovalore di A con autovettore v, allora ¯α `e autovalore di Acon lo stesso autovettore.

Prova. Occorre mostrare che:

Av = αv ⇒ Av = ¯αv Calcoliamo usando ripetutamente AA = AA e il lemma 1.1

kAv − ¯αvk2 = (Av − ¯αv, Av − ¯αv) =

= (Av, Av) − ( ¯αv, Av) − (Av, ¯αv) + ( ¯αv, ¯αv) =

= (v, AAv) − ¯α (v, Av) − α(Av, v) + α ¯α (v, v) =

= (v, AAv) − ¯α (Av, v) − α(v, Av) + α ¯α (v, v) =

= (v, Aαv) − ¯α (αv, v) − α(v, αv) + α ¯α (v, v) =

= (Av, αv) − ¯αα (v, v) − α ¯α(v, v) + α ¯α (v, v) =

= (αv, αv) − ¯αα (v, v) − α ¯α(v, v) + α ¯α (v, v) = 0 Essendo quindi kAv − ¯αvk2 = 0 abbiamo la tesi.

Teorema 1.2 Se A `e una matrice normale, e se α e β sono autovalori distinti di A allora i corrispondenti autospazi sono ortogonali tra loro.

Prova. Sia Ax = αx e Ay = βy: Si ottiene: (Ax, y) = (αx, y) = α(x, y) e (Ax, y) = (x, Ay) = (x, ¯βy) = β(x, y) ⇒ (α − β)(x, y) = 0 ⇒ (x, y) = 0 (nel calcolo abbiamo usato anche il teorema precedente).

Definizione 1.4 Una applicazione lineare si dice normale se la matrice A, ad essa associata in una base ortonormale, `e una matrice normale.

Osservazione 1.3 Questa definizione `e corretta in quanto osserveremo pi`u sotto (vedi il lemma 3.4 della sezione 3.1) che se la matrice associata `e normale in una certa base ortonormale lo `e anche in qualsiasi altra base ortonormale.

Il risultato principale relativo alle matrici normali `e il cosiddetto Teorema spettrale:

(4)

2 GRUPPI DI MATRICI 4

Teorema 1.3 Se l’applicazione lineare ϕ : Cn → Cn `e normale, allora esiste una base ortonormale di autovettori.

Prova. Per la dimostrazione rimandiamo alla sezione 3.4 Dal teorema spettrale segue immediatamente che:

Teorema 1.4 Le matrici normali sono diagonalizzabili (come matrici complesse) tramite una matrice i cui vettori colonna sono tra loro tutti ortogonali e di norma uno.

Osservazione 1.4 Tali matrici sono dette matrici unitarie (vedi sezione 3.1)

1.1 Matrici simmetriche e hermitiane

Nell’ambito delle matrici normali assumono particolare interesse le matrici simmetriche e quelle hermitiane.

Definizione 1.5 Una matrice reale A si dice simmetrica se coincide con la sua trasposta:

A = At

Definizione 1.6 Una matrice A si dice hermitiana se coincide con la sua aggiunta:A = A Analogamente alla definizione 1.4 possiamo dare le seguenti definizioni:

Definizione 1.7 Una applicazione lineare si dice simmetrica (hermitiana) se la matrice A, ad essa associata in una base ortonormale, `e una matrice simmetrica (hermitiana).

Osservazione 1.5 Questa definizione `e corretta: dimostreremo pi`u sotto (vedi il lemma 3.5 della sezione 3.1) che se la matrice associata `e simmetrica o hermitiana in una certa base ortonormale lo `e anche in qualsiasi altra base ortonormale.

2 Gruppi di Matrici

In questa sezione iniziamo lo studio dei principali gruppi di matrici (reali o complesse), come introduzione alla teoria dei gruppi di Lie; daremo per noti i principali risultati di algebra lineare utilizzati. Indichiamo ancora con Mn(R) e Mn(C) rispettivamente gli insiemi delle matrici n × n reali o complesse (se non importa indicare esplicitamente il campo di numeri considerato, useremo semplicemente il simbolo Mn). E’ noto che Mn(R) e Mn(C) sono spazi vettoriali reali di dimensione n2 e 2n2 rispettivamente; `e noto anche che su Mn(R) e Mn(C) si pu`o definire un prodotto, il cosiddetto prodotto righe × colonne: se A, B ∈ Mn con elementi Aij, Bij, allora:

(AB)ij =

k=n

X

k=1

AikBkj

La matrice prodotto C = AB `e ancora ∈ Mn. Ricordiamo anche che una matrice A ∈ Mn

`e invertibile se e solo se det(A) 6= 0 e, in questo caso, ∃ una unica matrice A−1 tale che

(5)

AA−1 = A−1A = I (dove I `e una matrice con elementi Iij = 1 se i = j e Iij = 0 se i 6= j).

Ricordando le seguenti propriet`a del determinante:

det(AB) = det A det B e det(A)−1 = (det A)−1, possiamo ora dare le seguenti definizioni:

Definizione 2.1 Il gruppo generale lineare reale, denotato con GL(n, R) `e l’insieme delle matrici invertibili ∈ Mn(R) con il prodotto righe × colonne. Il gruppo speciale lineare reale, denotato con SL(n, R) `e il sottogruppo delle matrici A ∈ GL(n, R) tali che det A = 1.

Definizione 2.2 Il gruppo generale lineare complesso, denotato con GL(n, C) `e l’insieme delle matrici invertibili ∈ Mn(C) con il prodotto righe × colonne. Il gruppo speciale lineare complesso, denotato con SL(n, C) `e il sottogruppo delle matrici A ∈ GL(n, C) tali che det A = 1.

Teorema 2.1 I gruppi speciali lineari sono sottogruppi normali dei gruppi generali lineari, inoltre: GL(n, R)/SL(n, R) = R (e analoga per C).

Prova. La dimostrazione `e identica per il caso reale e complesso. Dalle propriet`a del determinante segue che l’applicazione det : GL(n, R) → R `e un omomorfismo suriettivo di nucleo Ker(det) = SL(n, R). Dal fatto che il nucleo di un omomorfismo `e un sottogruppo normale e dal teorema di isomorfismo segue l’asserto.

Descriveremo ora alcuni casi particolari per piccoli n.

Esempio 2.1 GL(1, R) = R e GL(1, C) = C.

Esempio 2.2 GL(1, C) `e sottogruppo di GL(2, R). Infatti si pu`o definire il seguente omorfismo iniettivo:

ρ(x + iy) =x −y

y x



Notare che detx −y

y x



= x2+ y2.

Esempio 2.3 H(il gruppo moltiplicativo dei quaternioni non nulli) `e sottogruppo di GL(2, C).

Infatti si pu`o definire il seguente omorfismo iniettivo:

ρ(x + iy + jz + kt) =x + iy −z − it z − it x − iy



Notare che detx + iy −z − it z − it x − iy



= x2+ y2+ z2+ t2.

(6)

3 GRUPPI ORTOGONALI E UNITARI 6

3 Gruppi Ortogonali e Unitari

Studiamo ora i pi`u importanti sottogruppi dei gruppi generali lineari: i gruppi ortogonali e unitari.

Lemma 3.1 Una matrice A ∈ GL(n, R) tale che A−1 = At preserva il prodotto scalare:

(Ax, Ay) = (x, y) per ogni x, y ∈ Rn; viceversa, se preserva il prodotto scalare per ogni x, y allora A−1 = At. Una matrice A ∈ GL(n, C) tale che A−1 = A = ¯At preserva il prodotto hermitiano: (Ax, Ay) = (x, y) per ogni x, y ∈ Cn e viceversa.

Prova. La dimostrazione `e analoga nei due casi: osserviamo che, per il lemma 1.1 (Ax, y) = (x, Ay); si ottiene allora (Ax, Ay) = (x, AAy) = (x, y). Viceversa, se (Ax, Ay) = (x, y) allora (Ax)t(Ay) = xty e quindi, (per le propriet`¯ a note della trasposizione) xtAtAy = xty. Essendo¯ verificata per ogni x e y, deve essere AtA = I, cio`¯ e, coniugando, AA = I.

Il lemma 3.1 e le note propriet`a dell’aggiunzione:

(A) = A, (AB) = BA, (A−1) = (A)−1, det A = det A consentono di dare le seguenti definizioni:

Definizione 3.1 Il gruppo ortogonale O(n) `e il sottogruppo delle matrici di GL(n, R) che preservano il prodotto scalare: O(n) = {A ∈ GL(n, R)|A−1 = At}.

Definizione 3.2 Il gruppo unitario U (n) `e il sottogruppo delle matrici di GL(n, C) che preservano il prodotto hermitiano: U (n) = {A ∈ GL(n, C)|A−1 = A}.

Definizione 3.3 Il gruppo delle rotazioni (detto anche gruppo speciale ortogonale) SO(n)

`e dato da SO(n) = O(n) ∩ SL(n, R).

Definizione 3.4 Il gruppo speciale unitario SU (n) `e dato da U (n) ∩ SL(n, C).

Definizione 3.5 La sfera n − 1 dimensionale `e l’insieme Sn−1 = {x ∈ Rn|(x, x) = 1}

Osservazione 3.1 Dalla relazione AA = I segue che se A ∈ O(n), det A = ±1; se A ∈ U (n), det A = z con z ¯z = 1 e quindi det A ∈ S1.(Naturalmente non `e vero il viceversa).

Teorema 3.1 I gruppi speciali ortogonale e unitario sono sottogruppi normali rispettivamente dei gruppi ortogonali e unitari (con lo stesso n). Si ha inoltre:

O(n)/SO(n) = Z2 e U (n)/SU (n) = S1 In particolare, O(1) = Z2 = S0 e U (1) = S1.

Prova. Dalle propriet`a del determinante e dall’osservazione 3.1 segue che l’applicazione det : O(n) → Z2 `e un omomorfismo suriettivo di nucleo Ker(det) = SO(n). Dal fatto che il nucleo di un omomorfismo `e un sottogruppo normale e dal teorema di isomorfismo segue l’asserto. Per U (n) si procede analogamente.

(7)

Osservazione 3.2 Segue dal teorema precedente che ci sono solo due laterali di SO(n) in O(n) : il laterale SO(n) che contiene I e il laterale O(n) − SO(n) che contiene la matrice C tale che C11 = −1 e Cij = δij se i 6= 1 e j 6= 1; per tale matrice, det C = −1. Segue immediatamente che ogni matrice B ∈ O(n) − SO(n) pu`o essere scritta come B = AC con A ∈ SO(n) (A = BC−1)

Esempio 3.1 O(2), SO(2) e U (1).

Una matrice A di O(2) deve verificare:

A−1 =a b c d

−1

=

 d

det Adet Ab

det Ac det Aa



= At=a c b d



Si distinguono ora due casi:

i) det A = 1, allora A ∈ SO(2) e A = a −b b a



con a2 + b2 = 1 e quindi possiamo porre a = cos θ, b = sin θ. La matrice A rappresenta una rotazione (nel piano cartesiano x, y) in senso antiorario di un angolo θ. Prendendo l’omomorfismo ρ dell’esempio 2.2 si ottiene ρ(cos θ + i sin θ) = A; `e anche chiaro che, in questo caso, ρ `e suriettivo, e quindi si ha un isomorfismo:

SO(2) = U (1) = S1 ii) det A = −1, allora A ∈ O(2) − SO(2) e A =−a −b

−b a



con a2+ b2 = 1 e quindi possiamo porre a = cos θ, b = sin θ. Si ottiene

− cos θ − sin θ

− sin θ cos θ



=cos θ − sin θ sin θ cos θ

 −1 0 0 1



La matrice −1 0 0 1



rappresenta una riflessione (nel piano cartesiano x, y) rispetto al- l’asse delle y e la matrice cos θ − sin θ

sin θ cos θ



una rotazione di angolo θ. Segue che ogni A ∈ O(2) − SO(2) rappresenta una riflessione nel piano x, y rispetto a una retta passan- te per l’origine. Si noti che la composizione di due riflessioni risulta sempre essere una rotazione (il determinante vale 1).

Esempio 3.2 SU (2) = S3 = Sp(1) (il gruppo moltiplicativo dei quaternioni di norma 1).

Le matrici di SU (2) devono verificare la relazione:

A−1 =a b c d

−1

= d −b

−c a



= A =¯a ¯c

¯b d¯



(8)

3 GRUPPI ORTOGONALI E UNITARI 8

Segue che una matrice di SU (2) si pu`o scrivere:

A =a −b

¯b ¯a



con a¯a + b¯b = 1

Se poniamo a = x + iy e b = z + it si ottiene che (x, y, z, t) ∈ S3. La sfera S3 pu`o essere identificata col gruppo dei quaternioni di norma uno: Sp(1) = {q ∈ H | q ¯q = 1}. E’ facile verificare che l’immagine dell’omomorfismo ρ dell’esempio 2.3 `e proprio SU (2). Infatti, posto q = x + iy + jz + kt si ottiene ρ(q)(ρ(q)) = 1 0

0 1



. Per la suriettivit`a basta ricordare la rappresentazione trovata sopra delle matrici di SU (2) e osservare che ρ(x + iy + jz + kt) =

a −b

¯b ¯a



. Si conclude osservando che un omomorfismo iniettivo `e un isomorfismo sulla sua immagine.

Osservazione 3.3 S0, S1 e S3 sono le uniche sfere a cui si pu`o dare una struttura di gruppo.

3.1 Matrici ortogonali e unitarie

Studiamo ora alcune propriet`a algebriche (della massima importanza) delle matrici appartenenti ai gruppi ortogonali e unitari.

Definizione 3.6 Le matrici appartenenti rispettivamente ai gruppi ortogonali o unitari sono dette matrici ortogonali o unitarie.

Lemma 3.2 Le matrici ortogonali e le matrici unitarie sono matrici normali.

Prova. Basta ovviamente dimostrarlo nel caso unitario. Se U−1= U segue subito: U U = I = UU .

Lemma 3.3 Le colonne delle matrici ortogonali e delle matrici unitarie hanno norma unitaria e sono tra loro ortogonali.

Prova. Queste matrici infatti trasformano basi ortonormali in basi ortonormali, perch`e conservano il prodotto scalare o il prodotto hermitiano.

Lemma 3.4 Se A `e una matrice normale, lo `e anche ogni matrice simile ad A tramite una matrice unitaria.

Prova. Sia B = U−1AU simile ad A, con U unitaria. Si ottiene:

BB = UAU (UAU ) = UA (U U) AU = UAAU BB = (UAU )UAU = UA(U U) AU = UAAU Essendo A normale, segue la tesi: BB = BB.

(9)

Osservazione 3.4 Segue immediatamente da questo lemma che se una applicazione lineare `e rappresentata in una base ortonormale da una matrice normale, `e rappresentata da una matrice normale in ogni altra base ortonormale.

Lemma 3.5 Se A `e una matrice hermitiana, lo `e anche ogni matrice simile ad A tramite una matrice unitaria.

Prova. Sia B = U−1AU simile ad A, con U unitaria. Si ottiene:

B = UAU

B = (UAU ) = UAU Essendo A hermitiana, segue la tesi: B = B

Osservazione 3.5 Segue immediatamente da questo lemma che se una applicazione lineare

`e rappresentata in una base ortonormale da una matrice hermitiana, `e rappresentata da una matrice hermitiana in ogni altra base ortonormale.

3.2 Autovalori delle matrici hermitiane e unitarie

Studiamo in questa sezione le principali propriet`a degli autovalori e degli autovettori per le classi di matrici normali di nostro interesse.

Teorema 3.2 Gli autovalori di una matrice hermitiana sono numeri reali.

Prova. Sia Ax = αx. Allora: (Ax, y) = (x, Ay) = (x, Ay) ⇒ (αx, x) = (x, αx) ⇒ α(x, x) = ¯α(x, x) ⇒ α = ¯α

Segue ovviamente il seguente risultato non banale (ma difficile da ricavare guardando solo il polinomio caratteristico!):

Teorema 3.3 Gli autovalori di una matrice simmetrica sono numeri reali.

Teorema 3.4 Gli autovalori di una matrice unitaria sono numeri complessi di norma 1.

Prova. Sia U x = αx.Allora (vedi lemma 3.1) (U x, U x) = (x, x) ⇒ (αx, αx) = (x, x) ⇒ α ¯α = 1

Segue ovviamente anche il seguente risultato, anch’esso non banale:

Teorema 3.5 Gli autovalori di una matrice ortogonale possono essere solo ±1.

Riportiamo ora un importante corollario del Teorema Spettrale (per la cui dimostrazione vedi 1.3)

Teorema 3.6 :

1. Le matrici hermitiane sono diagonalizzabili mediante matrici unitarie.

(10)

3 GRUPPI ORTOGONALI E UNITARI 10

2. Le matrici simmetriche sono diagonalizzabili mediante matrici ortogonali.

3. Le matrici unitarie sono diagonalizzabili mediante matrici unitarie.

Definizione 3.7 Una matrice simmetrica (o hermitiana) si dice definita positiva se ha tutti gli autovalori strettamente maggiori di zero.

Lemma 3.6 Data A definita positiva e simmetrica, esiste una matrice B, anch’essa definita positiva e simmetrica tale che A = B2 (analogo risultato vale per le matrici hermitiane positive).

Prova. La matrice A `e diagonalizzabile tramite matrici ortogonali, e sulla diagonale ha numeri reali strettamente positivi. Sia D una sua forma diagonale, e sia E la matrice diagonale che ha sulla diagonale le radici positive degli autovalori di A:

D = C−1AC = E2 Si ottiene quindi, posto B ≡ CEC−1:

A = CDC−1 = CE2C−1 = CEC−1

CEC−1 = BB = B2. La matrice B `e simmetrica. Infatti, essendo C−1 = Ct e E diagonale, si ha:

Bt = CECtt

= CEtCt= B

Osservazione 3.6 Data A invertibile, AtA `e definita positiva. Infatti AtA `e simmetrica, ed inoltre se AtAv = λv si ottiene:

0 < (Av, Av) = v, AtAv = (v, λv) = λ(v, v) = λ kvk2

perch`e A `e invertibile e v 6= 0. Si ha quindi λ > 0. Lo stesso vale nel caso complesso: data A invertibile, AA `e hermitiana definita positiva.

3.3 Scomposizione polare

Concludiamo il paragrafo con una interessante propriet`a delle matrici invertibili:

Teorema 3.7 Ogni matrice reale invertibile A si pu`o scrivere come il prodotto di una matrice ortogonale R e una matrice simmetrica S definita positiva. Un risultato analogo vale per le matrici complesse: ogni matrice complessa invertibile si pu`o scrivere come il prodotto di una matrice unitaria U e una matrice hermitiana definita positiva H.

(11)

Prova. Dimostriamolo nel caso reale. Consideriamo la matrice AtA (simmetrica e definita positiva per l’osservazione 3.6 ); per il lemma 3.6 esiste una matrice S simmetrica e definita positiva tale che S2 = AtA; si ottiene quindi

A = At−1

S2 =

At−1

S

S ≡ RS Osserviamo ora che R = (At)−1S `e ortogonale:

R−1 =

At−1

S−1

= S−1At= S−1 S2A−1 = SA−1 Rt=



At−1

S

t

= StA−1 = SA−1 La dimostrazione nel caso complesso `e perfettamente analoga.

Osservazione 3.7 La scomposizione polare nel caso complesso, A = U H, con U unitaria e H hermitiana definita positiva, nel caso di matrici 1 × 1, invertibili, cio`e numeri complessi 6= 0, riproduce, ovviamente, la usuale rappresentazione trigonometrica z = e|z|, con e ∈ U (1), |z| > 0.

Osservazione 3.8 Se la matrice A reale ha determinante positivo, la scomposizione `e: A = RS con det R = 1.

3.4 Il teorema spettrale

In questa sezione dimostriamo il risultato principale sulle matrici normali: la loro diagonalizzabilit`a.

Partiamo dai due seguenti semplici lemmi.

Lemma 3.7 Ogni applicazione lineare f definita su un sottospazio complesso V di Cn, a valori in V stesso, ha sicuramente un autovettore.

Prova. Infatti, se V ha dimensione r, e si scrive la matrice della restrizione di f a V, si trova una matrice r × r. Questa ha almeno un autovalore complesso, e, conseguentemente, f ha almeno un autovettore appartenente a V.

Lemma 3.8 Siano A e B due matrici complesse n × n tali che AB = BA. Allora esiste un elemento non nullo di Cn che `e autovettore sia di A, sia di B.

Prova. Sia λ un autovalore di A, e sia Vλ il corrispondente autospazio. Se −→v ∈ Vλ, abbiamo:

A(B(−→v )) = B(A(−→v )) = B(λ−→v ) = λB(−→v ).

Quindi B(−→v ) ∈ Vλ. B `e un’applicazione lineare di Vλ in s`e stesso. Per il lemma precedente, questa ha almeno un autovettore −→w ∈ Vλ. Abbiamo concluso: −→w sta in Vλ, dunque `e un autovettore di A, e −→w `e anche autovettore di B.

(12)

4 SPAZIO TANGENTE ALL’IDENTIT `A 12

Teorema 3.8 Teorema spettrale. Sia hi il prodotto Hermitiano standard su Cn, e sia A una matrice normale n × n. Allora, esiste una base ortonormale di Cn costituita da autovettori di A.

Prova. Procediamo per induzione sulla dimensione n. Il teorema `e ovvio per n = 1 (A

`e una matrice 1 × 1). Dobbiamo dimostrare il teorema spettrale in dimensione n, supponendo che esso sia vero in dimensione n − 1. Poich`e A commuta con A, A e A hanno almeno un autovettore in comune per il lemma 3.8: indichiamolo con −→v1. Dividendolo per la sua norma, potremo supporre che −→v1 abbia lunghezza 1. Ora, siano V1 = span {−→v1}, e W = (V1). A manda W in s`e stesso: se −→w ∈ W ,

hA−→w ; −→v1i = h−→w ; A−→v1i = µ h−→w ; −→v1i = 0

La penultima uguaglianza si ottiene ricordando che −→v1 `e un autovettore anche per A (indicando con µ l’autovalore associato). L’ultima uguaglianza si ottiene ricordando che −→w ∈ W = (V1). Dunque, A−→w `e ortogonale a −→v1, e cio`e A−→w ∈ W . A pu`o essere vista come un’applicazione lineare di W in s`e stesso. Ma W ha dimensione n − 1, dunque si pu`o applicare l’ipotesi induttiva. Sia {−→v2; ...; −→vn} la base ortonormale di W . Allora, essendo −→v1 ortogonale ad ogni vettore di W , {−→v1; −→v2; ...; −→vn} `e la base cercata di Cn.

Osservazione 3.9 Nella base ortonormale composta da autovettori la matrice risulta diagona- le. Una matrice diagonalizzante `e una matrice le cui colonne sono costituite da autovettori e sulla diagonale abbiamo gli autovalori.

Osservazione 3.10 Abbiamo visto che tutte le matrici complesse normali possono essere diagonalizzate in C con una base ortonormale di autovettori. Tuttavia, questo non si verifica nel caso reale. Infatti, una matrice normale reale potrebbe avere autovalori complessi, e quindi non essere diagonalizzabile in campo reale (pur rimanendo ovviamente diagonalizzabile in campo complesso). Tale cosa non si verifica per le matrici reali simmetriche che risultano, quindi, tutte diagonalizzabili; il teorema 3.2, valido per le matrici hermitiane, vero in particolare anche per tutte le matrici simmetriche, afferma infatti che esse possono avere solo autovalori reali.

4 Spazio tangente all’identit` a

Iniziamo in questa sezione lo studio delle propriet`a geometriche e topologiche dei gruppi ortogonali e unitari.

Definizione 4.1 Sia V uno spazio vettoriale reale di dimensione finita, una curva in V `e una funzione differenziabile γ : (a, b) → V, dove (a, b) ⊂ R `e un intervallo aperto contenente 0.

Definizione 4.2 Sia u = γ(c) con c ∈ (a, b). Un vettore v tangente in u a V `e v = limh→0 γ(c+h)−γ(c)

h

(13)

Se (e1, e2, ..., en) `e una base di V, si ottiene subito che v = γ0(c) = (γ10(c)...γn0(c)). Come V considereremo d’ora in avanti Mn.

Definizione 4.3 Sia G un sottogruppo di GL(n, R) (o GL(n, C)). Una curva in G passante per l’identit`a `e una curva in GL(n, R) (o GL(n, C) tale che, ∀c ∈ (a, b), γ(c) ∈ G e γ(0) = I.

Definizione 4.4 Siano α e β due curve in G passanti per l’identit`a, la curva prodotto `e la curva (in G e passante per l’identit`a) η(c) = (αβ)(c) = α(c)β(c)

Osservazione 4.1 Si ottiene subito (facendo attenzione all’ordine in cui si moltiplicano gli elementi di G):

(αβ)0(c) = α(c)β0(c) + α0(c)β(c)

Definizione 4.5 Lo spazio tangente a G nell’identit`a `e l’insieme T (G) = {v ∈ Mn|v = γ0(0)}, essendo γ una curva in G passante per l’identit`a.

Lemma 4.1 T (G) `e un sottospazio vettoriale di Mn. Prova. Siano α0(0), β0(0) ∈ T (G), allora

(αβ)0(0) = α(0)β0(0) + α0(0)β(0) = α0(0) + β0(0)

e quindi, dato che (αβ)0(0) ∈ T (G) per la definizione di curva prodotto, anche α0(0) + β0(0) ∈ T (G). Sia ora α0(0) ∈ T (G) e sia u un numero reale; posto σ(t) = α(ut) si trova immediatamente che σ `e una curva in G passante per l’identit`a e che σ0(0) = uα0(0) e quindi uα0(0) ∈ T (G).

Esempio 4.1 T (GL(1, C)) = C = R2, T (GL(2, R)) = M2(R) = R4. Basta infatti osservare che i valori delle derivate in zero di funzioni reali sono arbitrari numeri reali.

Esempio 4.2 T (SO(2)) = R. Sia (vedi esempio 3.1) α(t) =cos f (t) − sin f (t) sin f (t) cos f (t)



con f (0) = 0

una curva in SO(2) passante per I. Essendo f0(0) un arbitrario numero reale, si vede subito che:

T (SO(2)) = {matrici 2 × 2 di tipo α0(0)} =0 −a a 0



, a ∈ R



E quindi T (SO(2)) `e, come spazio vettoriale reale, isomorfo a R. Il lettore farebbe bene a verificare in tutti i dettagli che 0 −a

a 0



, a ∈ R



`

e uno spazio vettoriale reale di dimensione 1.

Definizione 4.6 La dimensione di G (dim(G)) `e la dimensione di T (G) come spazio vettoriale reale.

(14)

4 SPAZIO TANGENTE ALL’IDENTIT `A 14

Definizione 4.7 Un omomorfismo differenziabile ϕ : H → G `e un omomorfismo tale che β(t) = ϕ(α(t)) = (ϕ ◦ α)(t) `e una curva in G per ogni α curva in H.

Osservazione 4.2 Si noti che se α passa per l’identit`a di H necessariamente (ϕ ◦ α) passa per l’identit`a di G in virt`u del fatto che un omomorfismo manda l’identit`a nell’identit`a. Il punto chiave della definizione `e la differenziabilit`a della funzione composta. Tutti gli omomorfismi considerati in questa sezione sono differenziabili perch`e si ottengono da prodotti e somme tra numeri reali, numeri complessi (visti come coppie di numeri reali) e quaternioni (visti come quaterne di numeri reali).

Definizione 4.8 Il differenziale dϕ di un omomorfismo differenziabile `e l’applicazione dϕ : T (H) → T (G):

dϕ(α0(0)) = β0(0) = (ϕ ◦ α)0(0)

In particolare, il differenziale dell’omomorfismo identit`a `e l’applicazione identit`a tra T (H) e T (G).

Esempio 4.3 Consideriamo il caso dell’omomorfismo ρ dell’esempio 2.2. Sia α(t) = x(t) + iy(t) una curva in GL(1, C) passante per I. Si ottiene subito che

(ρ ◦ α)(t) =x(t) −y(t) y(t) x(t)



e quindi:

(ρ ◦ α)0(0) =x0(0) −y0(0) y0(0) x0(0)



Ora x0(0) e y0(0) sono due arbitrari numeri reali, diciamo a e b; risulta quindi dalla definizione 4.8 e dall’esempio 4.1 che dρ : R2→M2(R)

dρ :a b



∈ R2 →a −b b a



∈ M2(R)

Si osservi che dρ `e una applicazione lineare iniettiva di rango 2, la sua immagine `e il sottospazio bidimensionale di M2(R) generato da 1 0

0 1



e 0 −1 1 0

 .

Esempio 4.4 Se restringiamo ρ alle matrici di U (1) cio`e ai numeri complessi di norma 1, x0(0) non pu`o pi`u essere arbitrario. Infatti, se x(t)2+ y(t)2 = 1 si ottiene

2x(t)x0(t) + 2y(t)y0(t) = 0, ma x(0) + iy(0) = 1 e quindi deve essere x0(0) = 0. Ne segue che:

dρ : b ∈ R →0 −b b 0



∈ T (SO(2)) ⊂ M2(R)

In altri termini (vedi l’esempio 4.2), dρ `e un isomorfismo di spazi vettoriali reali tra T (U (1)) e T (SO(2)). Sappiamo anche (vedi l’esempio 3.1) che ρ `e un isomorfismo di gruppi tra U (1) e SO(2). La situazione descritta in questo esempio si generalizza nel seguente lemma:

(15)

Lemma 4.2 Il differenziale dϕ di un omomorfismo differenziabile ϕ `e una applicazione lineare.

Se ϕ `e un isomorfismo di gruppi H → G, allora dϕ `e un isomorfismo di spazi vettoriali reali T (H) → T (G).

Prova. Siano α0(0), β0(0) ∈ T (H) allora (vedi lemma 4.1):

dϕ [α0(0) + β0(0)] = dϕ(αβ)0(0) = [ϕ ◦ αβ)]0(0) Dove αβ `e la curva prodotto: (αβ) (t) = α(t)β(t). Si ottiene:

(ϕ ◦ αβ) (t) = ϕ [αβ(t)] = ϕ [α(t)β(t)] = ϕ [α(t)] ϕ [β(t)] = (ϕ ◦ α) (t) (ϕ ◦ β) (t) Osserviamo ora che, dalla definizione di derivata, si ha proprio:

dϕ [α0(0) + β0(0)] = dϕ(αβ)0(0) = [ϕ ◦ αβ]0(0) = [(ϕ ◦ α) (t) (ϕ ◦ β) (t)]0t=0 =

= [ϕ ◦ α]0(0) (ϕ ◦ β) (0) + (ϕ ◦ α) (0)[ϕ ◦ β]0(0) = dϕ [α0(0)] + dϕ [β0(0)] , perch`e (ϕ ◦ β) (0) = (ϕ ◦ α) (0) = ϕ(I) = I, e quindi:

dϕ [α0(0) + β0(0)] = dϕ [α0(0)] + dϕ [β0(0)]

Sia ora a un numero reale si ha allora (vedi ancora il lemma 4.1):

dϕ [aα0(0)] = dϕ [(aα)0(0)] = [ϕ ◦ aα)]0(0) Ricordiamo ora che aα `e la curva (aα) (t) = α(at), per cui:

[ϕ ◦ aα](t) = ϕ [α(at)] = [a (ϕ ◦ α)] (t) Osserviamo ora che, dalla definizione di derivata, si ha proprio:

[ϕ ◦ aα]0(0) = [a (ϕ ◦ α) (t)]0t=0= a (ϕ ◦ α)0(0) e quindi:

dϕ [aα0(0)] = adϕ [α0(0)]

La linearit`a di dϕ `e provata.

La seconda parte segue dal fatto che la composizione di funzioni differenziabili `e differenziabile e dalla regola di Leibniz. Se ϕ e ψ sono omomorfismi differenziabili

H → Gψ → Kϕ

anche ϕ ◦ ψ lo `e e, inoltre, si verifica che d(ϕ ◦ ψ) = dϕ ◦ dψ. Infatti si ha, dalle definizioni : d(ϕ ◦ ψ) [α0(0)] = (ϕ ◦ ψ ◦ α)0(0) = dϕ(ψ ◦ α)0(0) = (dϕ ◦ dψ) [α0(0)]

Se ϕ `e un isomorfismo differenziabile, anche ϕ−1 lo `e e quindi segue che:

d(ϕ ◦ ϕ−1) = d(Id) = Id = dϕ ◦ dϕ−1. Analogamente:

d(ϕ−1◦ ϕ) = d(Id) = Id = dϕ−1◦ dϕ.

Dove abbiamo indicato con Id l’applicazione identit`a. Ne consegue che (dϕ)−1 = dϕ−1 e quindi dϕ `e una applicazione lineare invertibile e quindi un isomorfismo.

(16)

4 SPAZIO TANGENTE ALL’IDENTIT `A 16

Teorema 4.1 Due gruppi differenziabilmente isomorfi hanno la stessa dimensione.

Prova. Segue banalmente dal lemma 4.2.

Teorema 4.2

dim(SO(2)) = dim(U (1)) = dim(S1) = 1 e

dim(SU (2)) = dim(S3) = 3.

(questo enunciato suggerisce che debba esistere una definizione di dimensione (applicabile anche alle sfere che non sono gruppi) per cui dim(Sn) = n)

Prova. Abbiamo gi`a visto nell’esempio 4.4 che dim(SO(2)) = dim(U (1)) = 1. Ne vediamo ora un’altra dimostrazione: SO(2), U (1) e S1 sono differenziabilmente isomorfi (vedi l’esempio 3.1 ed il teorema 3.1) e quindi, (vedi teorema 4.1), possiamo calcolare solo dim(S1). Sia ora γ(t) = eif (t) con f (t) reale, differenziabile e tale che f (0) = 0 una curva in S1 passante per 1. Si ha T (S1) = {γ0(0) = if0(0)|}. Essendo ogni numero reale a la derivata in 0 della funzione (reale, differenziabile e passante per 0) f (t) = at segue che T (S1) `e tutto l’asse immaginario e quindi `e isomorfo, come spazio vettoriale reale, a R. Dimostriamo ora la seconda parte. SU (2), S3e Sp(1) sono differenziabilmente isomorfi (vedi esempio 3.2). Sia ora γ(t) = x(t) + y(t)i + z(t)j + w(t)k con x(t)2+ y(t)2+ z(t)2+ w(t)2 = 1 e x(0) = 1, y(0) = z(0) = w(0) = 0 una curva passante per l’identit`a in Sp(1). Si nota che in x(0) = 1 la funzione x(t) ha un massimo e quindi x0(0) = 0 (vedi anche l’esempio 4.4). Ne segue che γ0(0) = y0(0)i + z0(0)j + w0(0)k. Allora T (Sp(1)) = {γ0(0)|γ(0) = 1} ⊂ R3 (dove R3 `e visto come lo spazio vettoriale reale generato da i, j, k).

Viceversa, R3 ⊂ T (Sp(1)) = {γ0(0)|γ(0) = 1} perch`e, per ogni a, b, c reali, basta considerare la curva γ(t) (in Sp(1), perch`e si vede subito che kγ(t)k2 = 1, con dominio di definizione un piccolo intervallo attorno a 0 dipendente da a, b, c in modo che 1 − a2t2 − b2t2 − c2t2 > 0, differenziabile e passante per 1):

γ(t) =√

1 − a2t2− b2t2 − c2t2+ ati + btj + ctk e si ottiene proprio ai + bj + ck = γ0(0).

Il seguente teorema fornisce un’altra giustificazione per l’uso del termine dimensione nella definizione 4.6.

Teorema 4.3 dim GL(n, R) = n2 e dim GL(n, C) = 2n2

Prova. Siccome (come spazi vettoriali reali) dim Mn(R) = n2 e dim Mn(C) = 2n2, basta dimostrare che ogni matrice di Mn pu`o essere vista come la derivata in 0 di una curva in GL(n, R) (oppure GL(n, C)) passante per l’identit`a. Sia allora v ∈ Mn e si consideri, in un intervallo contenente lo zero, la curva σ : (a, b) → Mn definita da σ(t) = tv + I. Tale curva verifica σ(0) = I e σ0(0) = v. Il determinante `e una funzione continua (si calcola solo con somme e prodotti) e quindi prendendo l’intervallo di definizione di σ abbastanza piccolo, possiamo essere certi che det σ(t) 6= 0 in quanto det σ(0) = 1. In altre parole una matrice che

(17)

differisce di poco dall’identit`a `e invertibile. Ci si pu`o convincere di ci`o anche dimostrando la formula seguente (ad esempio nel caso semplice di M2(R)):

det(I + εA) = 1 + εtr(A) + O(ε2)

Si ricorda che tr(A) `e la traccia della matrice A cio`e la somma degli elementi presenti sulla diagonale principale.

La dimostrazione del teorema 4.2, tutta basata su calcoli e costruzioni ad hoc non `e per niente illuminante sulla struttura degli spazi tangenti, ma, a questo punto della trattazione non era forse possibile fare di meglio...

4.1 Matrici antisimmetriche e antihermitiane

Definizione 4.9 Una matrice A ∈ Mn(R) `e detta antisimmetrica se A + At = 0 (dove 0 `e la matrice con tutti gli elementi nulli).

Definizione 4.10 Una matrice A ∈ Mn(C) `e detta antihermitiana se A + A = 0.

Definizione 4.11 so(n) = {A ∈ Mn(R)|A + At = 0} (notare che risulta sempre tr(A) = 0) Definizione 4.12 u(n) = {A ∈ Mn(C)|A + A = 0}

Definizione 4.13 su(n) = {A ∈ Mn(C)|A + A = 0 e tr(A) = 0}

Lemma 4.3 so(n) `e un sottospazio vettoriale di Mn(R) di dimensione n(n−1)2 .

Prova. Se A, B ∈ so(n) segue che (A + B) + (A + B)t = (A + At) + (B + Bt) = 0. Se a ∈ R e A ∈ so(n) segue che aA + (aA)t = a(A + At) = 0. Per il calcolo della dimensione, basta osservare che ogni matrice antisimmetrica ha la diagonale tutta nulla e che gli elementi sotto la diagonale sono gli opposti di quelli sopra la diagonale (infatti A + At = 0 implica che Aij = −Aji e Aii= 0). Gli elementi indipendenti di una matrice con diagonale tutta nulla sono n2 − n, di cui n22−n stanno sopra la diagonale e n22−n sotto. L’osservazione precedente mostra per`o che in una matrice antisimmetrica gli elementi sopra la diagonale determinano anche quelli sotto la diagonale e quindi ne restano solo n22−n indipendenti.

Lemma 4.4 u(n) `e un sottospazio vettoriale reale di Mn(C) di dimensione n2 e su(n) `e un sottospazio vettoriale reale di Mn(C) di dimensione n2 − 1.

Prova. Se A, B ∈ u(n) segue che (A + B) + (A + B) = (A + A) + (B + B) = 0. Se a ∈ R e A ∈ u(n) segue che aA + (aA) = aA + ¯aA = a(A + A) = 0 (Notare che u(n) non `e uno spazio vettoriale su C, perch`e se a ∈ C − R si ha a 6= ¯a). Il caso di su(n) `e totalmente analogo essendo la traccia una operazione lineare. Per il calcolo della dimensione, basta osservare che ogni matrice antihermitiana ha la diagonale tutta puramente immaginaria e che gli elementi sotto la diagonale sono gli opposti dei coniugati di quelli sopra la diagonale (infatti A + A = 0 implica che Aij = − ¯Aji e Aii+ ¯Aii = 0). Osserviamo ora che gli n2− n numeri complessi che

(18)

5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 18

individuano gli elementi indipendenti di una matrice complessa con diagonale tutta nulla, sono determinati da 2(n2− n) numeri reali, di cui n2− n stanno sopra la diagonale e n2− n sotto.

Sappiamo per`o che in una matrice antihermitiana gli elementi sopra la diagonale determinano anche quelli sotto la diagonale; agli n2− n numeri reali rimasti indipendenti vanno per`o ancora aggiunti gli n numeri reali che individuano gli elementi puramente immaginari della diagonale.

Nel caso di su(n) la traccia `e nulla, e quindi gli elementi puramente immaginari sulla diagonale non sono tutti indipendenti, ma uno tra loro deve essere l’opposto della somma dei rimanenti, e questo fa calare di uno la dimensione reale.

Possiamo ora enunciare un risultato preliminare che per`o inizia a mostrare l’importanza degli spazi vettoriali sopra definiti che appaiono in modo naturale in molte altre situazioni.

Lemma 4.5

1. Se γ `e una curva passante per l’identit`a in O(n) oppure in SO(n) allora γ0(0) ∈ so(n), cio`e T (O(n)) ⊆ so(n) e T (SO(n)) ⊆ so(n).

2. Se γ `e una curva passante per l’identit`a in U (n) allora γ0(0) ∈ u(n), cio`e T (U (n)) ⊆ u(n).

3. In particolare, dim O(n) ≤ n22−n, dim SO(n) ≤ n22−n, dim U (n) ≤ n2,

Prova. In tutti i casi abbiamo (γγ)(t) = γ(t)γ(t) = I, per cui (γγ)0(t) = 0. Dalla osservazione 4.1 si ottiene subito:

(γγ)0(0) = γ(0)γ∗0(0) + γ0(0)γ(0) = γ∗0(0) + γ0(0) = 0 Il punto 3 segue dai punti 1 e 2 e dai lemmi 4.3 e 4.4.

Osservazione 4.3 Si noti che non abbiamo detto nulla su SU (n) (perch`e ?). Per dimostrare che le disuguaglianze del punto 3 sono, in realt`a, uguaglianze e trattare anche il caso di SU (n), avremo bisogno di altri concetti e risultati, la cui importanza va tuttavia molto oltre questo scopo.

5 Esponenziale, Logaritmo e Algebre di Lie

Ad un gruppo di matrici G abbiamo associato, nel paragrafo precedente, uno spazio vettoriale:

il suo spazio tangente T (G). In questa parte del corso studieremo gli spazi tangenti dei gruppi di matrici e ci occuperemo di un metodo per costruire un gruppo a partire da uno spazio vettoriale con particolari propriet`a.

Definizione 5.1 Sia A ∈ Mn(R) l’esponenziale della matrice A `e la serie:

eA = I + A + A2/2 + A3/3! + ...

Osservazione 5.1 La serie va interpretata nel senso che ∀i, j la matrice eA (quando esiste) ha componenti:

eA

ij = Iij + Aij + A2/2

ij + A3/3!

ij + ...

(19)

Osservazione 5.2 Fortunatamente, la matrice eA esiste sempre:

Lemma 5.1 La serie eA= I + A + A2/2 + A3/3! + ... converge ad un elemento di Mn(R).

Prova. Sia a = max{|Aij|}. Pensando di sostituire ogni elemento di A con a si ottiene:

|Aij| ≤ a,

A2/2

ij

≤ na2/2, ...,

Ak/k!

ij

≤ nk−1ak/k!.

Essendo n e a numeri fissati, il criterio del rapporto1 applicato alla successione dei maggioranti ci dice che la serie converge in modulo elemento per elemento, cio`e per ogni i e j.

Osservazione 5.3 Si pu`o definire l’esponenziale anche di matrici complesse. Ci limitiamo a ricordare che una successione di numeri complessi zn si dice convergere a z se la successione di numeri reali |zn− z| → 0. Analogamente al caso reale, una serie di numeri complessi si dice convergente se converge la successione delle somme parziali. Una condizione sufficiente perch`e una serie di numeri complessi converga `e che converga, nel senso delle serie di numeri reali, la serie dei moduli (serie assolutamente convergenti).

Teorema 5.1

1. Se AB = BA allora eA+B = eAeB. 2. eA∈ GL(n, R).

3. eBAB−1 = BeAB−1.

Prova. Per convincersi del punto 1 basta guardare i primi termini:

eA+B = I + A + B + A2

2 + AB + B2 2 +A3

6 + A2B

2 +AB2 2 +B3

6 + ...

eAeB =



I + A +A2 2 + A3

6 + ...

 

I + B +B2 2 + B3

6 + ...



= eA+B

Il punto 2 segue dal punto 1: I = e0 = eA−A= eAe−A = e−AeA, e quindi eA`e invertibile avendo un’inversa. Per il punto 3 basta ricordare che:

BAB−1n

= BAnB−1

1Sia ak una successione di termini positivi; se limk→∞ ak+1a

k < 1, allora la serieP ak converge. Nel nostro caso, ak = nk−1ak/k! e quindi il limite vale 0.

(20)

5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 20

Esempio 5.1 SO(2) = {eA con A ∈ so(2)}. Se A ∈ so(2) allora eA∈ SO(2). Cio`e:

e

0 −x

x 0

=cos x − sin x sin x cos x



Basta calcolare 0 −x

x 0

2

= −x2 0 0 −x2



, 0 −x

x 0

3

=

 0 x3

−x3 0



, 0 −x

x 0

4

=

x4 0 0 x4



, 0 −x

x 0

5

=  0 −x5 x5 0



, ... , applicare la definizione di esponenziale e ricordare gli sviluppi delle funzioni cos x e sin x :

cos x = 1 − x2 2! + x4

4! − ....

sin x = x − x3 3! +x5

5! − ....

Si osservi anche che ci`o mostra esplicitamente che tutte le matrici di SO(2) (vedi esempio 3.1) si ottengono in questo modo.

Osservazione 5.4 Notare che e0 = I, ma invece eA = I non implica A = 0. Ad esempio, e

0 −2π 2π 0

= I.

Esempio 5.2 Se A ∈ so(n) allora eA ∈ O(n). Abbiamo infatti (A e At commutano perch`e stiamo considerando matrici normali):

I = e0 = eA+At = eAeAt = eA(eA)t

E’ bene notare esplicitamente cosa l’esempio non dice; non `e vero che ogni matrice ortogonale

`e esponenziale di una matrice antisimmetrica (infatti l’esempio 5.1 mostra che 1 0 0 −1

 non si otterr`a mai per esponenziazione).

Si pu`o anche definire il logaritmo di una matrice.

Definizione 5.2 Sia A ∈ Mn(R) il logaritmo della matrice A `e la serie:

log A = (A − I) − (A − I)2/2 + (A − I)3/3 − (A − I)4/4 + ...

Lemma 5.2 Per A vicino a I, la serie converge.

Prova. Poniamo X = A − I e supponiamo che a = max{|Xij|}. Pensando di sostituire ogni elemento di X con a si ottiene:

|Xij| ≤ a,

X2/2

ij

≤ na2/2, ...,

Xk/k

ij

≤ nk−1ak/k

Essendo n e a numeri fissati, il criterio del rapporto applicato alla successione dei maggioranti ci dice che la serie converge in modulo elemento per elemento, cio`e per ogni i e j, quando a < n1. Infatti nknak−1k+1a/k+1k/k → na, e quindi `e < 1 per a < n1.

(21)

Le relazioni tra esponenziale e logaritmo sono proprio quelle che ci aspettiamo.

Teorema 5.2 Dove le formule hanno senso, elog X = X e log eA= A. Cio`e la mappa exp A = eA `e invertibile per matrici vicine alla matrice 0. Analogamente la mappa log `e invertibile per matrici vicino alla matrice I.

Prova. Siccome le serie sono assolutamente convergenti, si possono riarrangiare i termini e quindi verificare le formule, esattamente come si fa nel caso delle funzioni di variabile reale ex e log x.

Lemma 5.3 Dove le formule hanno senso, e se log A e log B commutano fra loro, si ha:

log (AB) = log A + log B.

Prova. elog(AB) = AB = elog Aelog B = elog A+log B e quindi, prendendo i logaritmi, si ha la tesi.

Osservazione 5.5 Considerata la mappa esponenziale: exp : Mn → Mn, il teorema 5.2 ci dice che l’esponenziale `e una mappa suriettiva e iniettiva da un intorno della matrice 0 a un intorno della matrice I.

Dimostremo ora alcune importanti formule relative all’esponenziale di una matrice qualsiasi, non necessariamente reale (vedi osservazione 5.3)

Teorema 5.3 Sia A(t) una curva passante per l’identit`a in un gruppo di matrici. Allora:

d

dtdet A = det A · tr(A−1dA dt)

Prova. Indichiamo con Aij gli elementi di A, e con aij i loro complementi algebrici (i determinanti moltiplicati per (−1)i+j del minore ottenuto da A eliminando la riga i e la colonna j). E’ noto che: ∀i, det A =

j=n

P

j=1

Aijaij e che (A)−1ij = det Aaji (notare lo scambio i ←→ j). Si ottiene quindi: ∂ det A∂A

ij = aij = (A)−1ji det A. Allora:

d

dt det A =

i,j=n

X

i,j=1

∂ det A

∂Aij · dAij dt =

i,j=n

X

i,j=1

det A · (A)−1ji dAij

dt = det A · tr(A−1dA(t) dt )

Lemma 5.4 Sia A ∈ Mn e t un numero reale. Allora det etA = 1 ∀t se e solo se trA = 0.

Prova. Siccome dtdetA = etAA, segue dal teorema 5.3 applicato alla curva etA: (il punto 2 del teorema 5.1 ci assicura che ci`o si pu`o fare)

d

dtdet etA = det etA· tr(e−tAdetA

dt ) = det etA· tr(e−tAetAA) = det etA· trA

Allora se trA = 0, det etA `e una costante e, essendo uguale a 1 in t = 0, `e sempre uguale a 1.

Viceversa se det etA = 1 la stessa formula fornisce trA = 0.

(22)

5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE 22

Teorema 5.4 Per ogni matrice A ∈ Mn e per ogni numero reale t si ha: det etA = et(trA). In particolare, det eA= etrA.

Prova. La formula ricavata per la dimostrazione del lemma 5.4:

d

dtdet etA= det etA· trA,

pu`o essere interpretata come una equazione differenziale: dxdt = trA · x con la condizione iniziale x(0) = 1. Integrandola si ottiene x(t) = et(trA), cio`e det etA = et(trA)

Possiamo ora concludere il calcolo dello spazio tangente ai gruppi ortogonali e unitari.

Lemma 5.5

1. Se A ∈ so(n) allora γ(t) = etA `e una curva passante per l’identit`a in SO(n) e γ0(0) = A, cio`e so(n) ⊆ T (SO(n))

2. Se A ∈ u(n) allora γ(t) = etA `e una curva passante per l’identit`a in U (n) e γ0(0) = A, cio`e u(n) ⊆ T (U (n))

3. Se A ∈ su(n) allora γ(t) = etA `e una curva passante per l’identit`a in SU (n) e γ0(0) = A, cio`e su(n) ⊆ T (SU (n))

4. In particolare, dim O(n) ≥ n22−n, dim SO(n) ≥ n22−n, dim U (n) ≥ n2, dim SU (n) ≥ n2− 1.

Prova. Chiaramente γ(0) = e0 = I e γ0(0) = limt→0etAt−I = A. Inoltre:

γ(t)γ(t) = etAetA = et(A+A) = I

E quindi γ(t) `e una curva passante per l’identit`a in un gruppo ortogonale o unitario. Ricordando inoltre (vedi teorema 5.4) che det etA = et(trA), si trova che nei casi 1 e 3, (dove trA = 0), la curva `e tutta in SO(n) e SU (n) rispettivamente.

Teorema 5.5 (Le seguenti uguaglianze rappresentano isomorfismi di spazi vettoriali reali).

1. T (O(n)) = T (SO(n)) = so(n).

2. T (U (n)) = u(n).

3. T (SU (n)) = su(n).

4. In particolare, dim SO(n) = dim O(n) = n(n−1)2 , dim U (n) = n2 e dim SU (n) = n2− 1.

Prova. I lemmi 4.5 e 5.5 forniscono immediatamente i punti 1 e 2. Per il punto 3, si deve prima di tutto osservare che se γ(t) `e una curva passante per l’identit`a in SU (n) allora γ0(0) ∈ su(n). Infatti det γ(t) = 1 per cui (vedi teorema 5.3): dtd det γ = tr(γ−1 dγdt) = 0, e quindi per t = 0 si ottiene trγ0(0) = 0, e quindi T (SU (n)) ⊂ su(n) e allora dim SU (n) ≤ n2 − 1.

Questo permette di concludere la dimostrazione, perch`e per il lemma 5.5 dim SU (n) ≥ n2− 1.

(23)

Osservazione 5.6 Si noti che dim SO(3) = dim SU (2) = 3 (so(3) e su(2) sono infatti spazi vettoriali isomorfi). Per quanto ne sappiamo fino ad ora SO(3) e SU (2) potrebbero quindi essere gruppi isomorfi. In realt`a non lo sono (hanno il centro diverso, Z(S(U 2)) il centro di SU (2) `e costituito dalle matrici I e −I, mentre il centro di SO(3) `e la sola matrice I (vedi gli esercizi pi`u sotto) e questo fatto suggerisce che si debba approfondire lo studio in varie direzioni.

Esercizio 5.1 Sia U (2) il gruppo delle matrici 2 × 2 unitarie, T = e 0

0 e



con α, β ∈ R



`e un sottogruppo di U (2) isomorfo a U (1)×U (1). T `e massimale, cio`e ogni sottogruppo abeliano che lo contiene coincide con lui.

Z(U (2)) = e 0 0 e



, α ∈ R



= U (1)

Z(SU (2)) = ±1 0 0 ±1



= Z2. Inoltre si ha: U (2)U (1) = SU (2)

Z2 .

Prova. Le matrici di T appartengono a U (2) perch`e

 e 0 0 e

−1

= e−iα 0 0 e−iβ



= e 0 0 e

t

L’isomorfismo richiesto `e:

 e 0 0 e



→ (e, e)

Se A ∈ A ⊂U (2) con A abeliano e contenente T, A deve, in particolare, commutare con ogni matrice di T. Si ottiene quindi, ∀α, β:

 a b c d

  e 0 0 e



= e 0 0 e

  a b c d



 ae be ce de



= ae be ce de



⇔ b = c = 0

Ma A ∈ U (2) e quindi deve essere anche a¯a = d ¯d = 1 e quindi A ∈ T. Per trovare il centro di U (2) si osservi che, dal calcolo precedente, Z(U (2)) ⊂ T , infatti gli elementi del centro devono commutare con tutti gli elementi di U (2) e quindi, in particolare, con gli elementi di T. Osserviamo ora che una matrice di T, per essere nel centro, deve commutare anche con

 0 1

−1 0



∈ U (2) e quindi si ha:

 0 1

−1 0

  e 0 0 e



=

 0 e

−e 0



 e 0 0 e

  0 1

−1 0



=

 0 e

−e 0



Riferimenti

Documenti correlati

Scrivere un programma che chieda quanti valori verranno introdotti dalla tastiera (max 100), li chieda tutti e li collochi in un vettore. Successivamente, il

Una matrice A ∈ M n,m si può anche vedere come un “insieme” di:. • n m-uple (una per

In virt` u di questo isomorfismo, che, come si vede, `e legato alla base {ˆc k }, tutto ci`o che `e stato detto per le matrici pu`o essere tranquillamente ripetuto per gli

Come conseguenza di quanto appena osservato, la possibilit`a garantitaci dalla Propo- sizione 5.4 di poter calcolare il determinante effettuando lo sviluppo di Laplace rispetto ad

 la dimensione deve essere una espressione costante, formata cioè solo da costanti assolute o simboliche, e indica il numero massimo di elementi che il

[r]

1.2 Matrici ortogonali e matrici

Esercizio 1.4 Dimostrare che GL(n, C) `e connesso, dimostrando prima che se X `e una matrice complessa invertibile, allora esiste una matrice Y in- vertibile tale che Y XY −1