• Non ci sono risultati.

UNIVERSIT `A DEGLI STUDI DI FERRARA FACOLT `A DI SCIENZE MATEMATICHE, FISICHE E NATURALI

N/A
N/A
Protected

Academic year: 2021

Condividi "UNIVERSIT `A DEGLI STUDI DI FERRARA FACOLT `A DI SCIENZE MATEMATICHE, FISICHE E NATURALI"

Copied!
57
0
0

Testo completo

(1)

UNIVERSIT ` A DEGLI STUDI DI FERRARA

FACOLT `A DI SCIENZE MATEMATICHE, FISICHE E NATURALI

Corso di Laurea Triennale in Matematica Indirizzo Modelli Matematici per l’Economia

RAPPRESENTAZIONI DI GRUPPI E

APPLICAZIONI IN STATISTICA

Relatore:

Chiar.mo Prof.

Josef Eschgf ¨aller

Laureanda:

Valentina Elisa Vitale

Anno Accademico 2009-2010

(2)
(3)

Indice

Introduzione 3

1. Il teorema di Maschke 5

2. Il lemma di Schur 14

3. Teoremi di ortogonalit `a per i coefficienti 17

4. Il teorema di Burnside 20

5. Tavole dei caratteri 31

6. Le rappresentazioni irriducibili di S3 35

7. Caratteri di gruppi abeliani finiti 38

8. Esempi di tavole dei caratteri 41

9. Un criterio di irriducibilit `a 43

10. Interi algebrici 44

11. Il teorema della dimensione 49

12. Applicazioni in statistica 52

Bibliografia 55

(4)
(5)

Introduzione

La tesi tratta una parte della teoria delle rappresentazioni dei grup- pi finiti accennando nell’ultimo capitolo alle possibili applicazioni alla statistica e al calcolo delle probabilit `a . `E costituita da dodici capitoli.

Nel primo vengono definiti i concetti fondamentali per il resto del- la tesi; vengono infatti date le definizioni di rappresentazioni di un gruppo finito su spazi vettoriali in C e rappresentazioni matriciali di gruppi. Inoltre, molto importante `e la definizione di rappresentazio- ne irriducibile. Alla fine viene enunciato e dimostrato il teorema di Maschke, che afferma che una rappresentazione di un gruppo su uno spazio vettoriale di dimensione finita `e completamente riducibile.

Nel secondo capitolo si dimostra il lemma di Schur riguardante le rappresentazioni irriducibili che sta alla base delle relazioni di orto- gonalit `a discusse nei capitoli successivi. Di seguito `e stato dimostrato che se G possiede una rappresentazione irriducibile iniettiva, allora Z(G) `e un gruppo ciclico e di conseguenza se G `e un gruppo abeliano non ciclico, alloraG non possiede rappresentazioni irriducibili inietti- ve.

Nel terzo capitolo viene introdotto il concetto di coefficiente di una rappresentazione matriciale e si ottengono i teoremi di ortogonalit `a tra i coefficienti. Da esso segue che esiste un solo numero finito di rap- presentazioni irriducibili non equivalenti diG. Inoltre si definisce un sistema di Burnside di G come una sequenza (R1, . . . , Rκ) di rappre- sentazioni matriciali irriducibili e unitarie non equivalenti di cui con (n1, . . . , nκ) denotiamo il vettore delle dimensioni. Viene poi dimostra- to che

Pκ α=1

n2α ≤ |G|. Tutto ci`o d `a la base per poter dimostrare, attra- verso la teoria dei caratteri che verr `a trattata nel quarto capitolo, che

Pκ α=1

n2α= |G|.

Nel capitolo4 si richiamano il concetto di traccia di una matrice e le sue propriet ´a, perch´e da quest’ultime si deduce che rappresentazioni di dimensione finita equivalenti possiedono la stessa traccia. Ci`o che si dimostrer `a in questo capitolo `e che viceversa2 rappresentazioni di dimensione finita che hanno la stessa traccia sono equivalenti. Inol- tre si definisce il concetto di carattere di un gruppo finitoG come una funzioneχ : G −→ C tale che esiste una rappresentazione irriducibile (matriciale o su uno spazio vettoriale) R tale che χ = tr R. Dunque i caratteri sono le tracce delle rappresentazioni irriducibili diG. Con l’introduzione dell’algebra di gruppo (CG, +, ∗) di G e la definizione di rappresentazione regolare L : G −→ GL(CG) `e stato possibile di- mostrare il teorema di Burside secondo il quale

Pκ α=1

n2α = |G| e che i coefficienti Ri , introdotti nel capitolo precedente, formano una base ortogonale di CG, per cui in particolare per ogni funzionef : G −→ G esiste una rappresentazionef =

Pκ α=1

nα

P

i=1 nα

P

j=1

λiRi, conλi ∈ C univo-

3

(6)

camente determinati e direttamente calcolabili.

Nel quinto capitolo si lavora sui sistemi di Burnside diG, viene de- finito il concetto di funzione delle classi. Verr `a inoltre dimostrato che ogni carattere `e una funzione delle classi. Per poi arrivare a dimostra- re un teorema che afferma cheκ coincide con il numero delle classi di G. Ci`o ha due importanti applicazioni:

(1) Siccome `e facile determinare il numero delle classi di G, si pu`o facilmente calcolare il numero delle rappresentazioni irriducibili diG.

(2) La costruzione delle tavole dei caratteri.

Nel sesto capitolo, vengono determinate le rappresentazioni irridu- cibili diS3e la tavola dei caratteri.

Nei capitoli7 e 8 vengono trattati i caratteri dei gruppi abeliani fini- ti. In particolare nel settimo capitolo si d `a la definizione di carattere di un gruppo abeliano finito, si denota con bG il gruppo dei caratteri di G. Viene dimostrato che G `e isomorfo a bG. Mentre nell’ottavo capitolo sono state compilate le tavole dei caratteri di alcuni gruppi abeliani finiti: Z/2, Z/3, Z/4, Z/5, Z/6, V4, S3.

Nel nono capitolo troveremo un criterio di irriducibilit `a attraverso un teorema che afferma che una rappresentazioneR di G di dimensio- ne finita `e irriducibile se e solo sek tr Rk2 = |G|.

Nei capitoli 10 e 11 si sviluppano alcuni richiami all’algebra sugli interi algebrici perch´e si vuole dimostrare che, se (R1, . . . , Rκ) `e un sistema di Burnside di un gruppo finitoG e (n1, . . . , nκ) il vettore delle dimensioni, alloranα divide|G|.

L’ultimo capitolo d `a l’idea dell’applicazione della teoria delle rappre- sentazioni dei gruppi finiti in statistica e calcolo delle probabilit `a . Viene fornito un esempio di un’indagine di mercato nella quale1200 persone hanno scelto, su 3 prodotti proposti, una graduatoria prefe- renziale.

4

(7)

1. Il teorema di Maschke

Situazione 1.1. Sia G un gruppo finito.

Definizione 1.2. K sia un campo.

(1) Denotiamo con Knl’insieme dei vettori colonna su K con n ele- menti e con Kml’insieme dei vettori riga su K con m elementi.

(2) Kmn sia l’insieme delle matrici su K aventi n righe e m colonne.

Identifichiamo K1ncon Kne Km1 con Km.

(3) GL(n, K) sia il gruppo delle matrici invertibili in Knn.

Denotiamo con δ l’elemento neutro di GL(n,K), cio`e la matrice identit `a n× n.

(4) Per uno spazio vettoriale V su K sia GL(V ) il gruppo delle ap- plicazioni lineari invertibili V −→ V .

Denotiamo con id l’applicazione identit `a.

Definizione 1.3.

(1) V sia uno spazio vettoriale su C.

Una rappresentazione di G in V `e un omomorfismo di gruppi R: G −→ GL(V ).

La rappresentazione si dice di dimensione finita, sedim V < ∞.

(2) Una rappresentazione matriciale di rango n di G `e un omomor- fismo di gruppi R: G −→ GL(n, C).

Anche in questo caso diremo spesso semplicemente che R `e una rappresentazione.

Osservazione 1.4. Si possono naturalmente anche definire in modo analogo rappresentazioni in spazi vettoriali o tramite matrici su un campo arbitrario; in tal caso le rappresentazioni su C introdotte in 1.3 vengono dette rappresentazioni ordinarie.

Situazione 1.5.

(1) Sia V uno spazio vettoriale di dimensione finita n su C ed R: G −→ GL(V ) una rappresentazione.

Scegliendo una base di V ad ogni g∈ G corrisponde una matrice invertibile S(g) ed `e immediato che l’applicazione

S : G −→ GL(n, C) `e una rappresentazione matriciale.

(2) Se viceversa S : G −→ GL(n, C) `e una rappresentazione ma- triciale, definendo R(g) :=

x

S(g)x : Cn −→ Cn otteniamo una rappresentazione R: G −→ GL(Cn).

Definizione 1.6.Una rappresentazione matriciale R: G −→ GL(n, C) si dice reale, se le matrici R(g) sono tutte reali.

In tal caso scriveremo anche R: G −→ GL(n, R).

Definizione 1.7. Una rappresentazione R : G −→ GL(n, C) si dice unitaria, se le matrici R(g) sono tutte unitarie.

Una rappresentazione R : G −→ GL(n, R) si dice ortogonale, se le matrici R(g) sono tutte ortogonali.

(8)

Definizione 1.8. V e W siano spazi vettoriali su C. Due rappresanta- zioni R : G −→ GL(V ) ed S : G −→ GL(W ) si dicono equivalenti, se esiste un isomorfismo ϕ: V −→ W tale che il diagramma

V R(g) //

ϕ



V

ϕ



W S(g) //W

sia commutativo per ogni g∈ G, cio`e tale che si abbia S(g) = ϕ ◦ R(g) ◦ ϕ−1per ogni g∈ G.

Definizione 1.9.Due rappresentazioni matriciali R: G −→ GL(n, C) ed S : G −→ GL(n, C) si dicono equivalenti se esiste una matrice

T ∈ GL(n, C) tale che S(g) = T R(g)T−1per ogni g∈ G.

E chiaro che ci`o accade se e solo se le rappresentazioni`

g

x

R(g)x : Cn−→ Cne

g

x

S(g)x : Cn−→ Cn sono equivalenti nel senso della definizione 1.8.

Definizione 1.10. K sia un campo e V uno spazio vettoriale su K. Per E= (e1, . . . , en) con e1, . . . , en∈ V ed x ∈ Knponiamo

Ex:= x1e1+ . . . + xnen. Se E `e una base di V , per ogni v∈ V esiste un unico x∈ Kntale che v= Ex.

Se inoltre ϕ : V −→ V `e un’applicazione lineare, allora ϕv = EAx, dove A∈ Knn `e la matrice associata a ϕ rispetto alla base E (che infatti pu`o essere definita in questo modo). Poniamo ϕE := (ϕe1, . . . , ϕen).

Osserviamo in particolare che ei= Eδie quindi ϕei = EAi per ogni i.

Per dettagli su questa notazione rimandiamo a Paset, pagg. 36-40.

Definizione 1.11.Sia V uno spazio vettoriale su C e kk un prodotto scalaresu V . E = (e1, . . . , en) sia una base di V. Allora definiamo la matrice fondamentale (o di Gram)kE, Ek ponendo

kE, Ekij := kei, ejk

La base E `e quindi ortonormale rispetto akk se e solo se kE, Ek = δ.

Definizione 1.12. V sia uno spazio vettoriale su C ekk un prodotto scalare su V . Un’applicazione lineare ϕ : V −→ V si dice unitaria rispetto akk, se kϕv, ϕwk = kv, wk per ogni v, w ∈ V .

Lemma 1.13. V sia uno spazio vettoriale su C ekk un prodotto scalare su V . ϕ: V −→ V sia un’applicazione lineare, E = (e1, . . . , en) una base di V ed A∈ Cnnla matrice associata a ϕ rispetto alla base E. Allora

kϕE, ϕEk = AtkE, EkA

Dimostrazione. Per ogni i,j abbiamo

(9)

kϕei, ϕejk = kEAi, EAjk = kX

α

Aαieα,X

β

Aβjeβk

=X

α

X

β

AαiAβjkeα, eβk =X

α

X

β

(At)iαkE, EkαβAβj

= (AtkE, EkαβA)ij

Corollario 1.14. V sia uno spazio vettoriale su C e kk un prodotto scalare su V . ϕ: V −→ V sia un’applicazione lineare.

E= (e1, . . . , en) sia una base ortonormale rispetto a kk ed A la matri- ce di ϕ rispetto ad E. Allora sono equivalenti:

(1) ϕ `e unitaria rispetto akk.

(2) La matrice A `e unitaria, cio`e AA= δ.

Dimostrazione. Per ipotesikE, Ek = δ.

Nel lemma 1.13 abbiamo quindikϕE, ϕEk = AtA. Ma ϕ `e unitaria se e solo se kϕE, ϕEk = kE, Ek = δ, e quindi se e solo se AtA = δ.

Ma ci`o a sua volta `e equivalente ad AA= δ come si vede formando il complesso coniugato.

Osservazione 1.15. R: G −→ GL(n, C) sia una rappresentazione e kk il prodotto scalare comune su Cn. Per x, y∈ Cndefiniamo

kx, ykR:= P

g∈G

kR(g)x, R(g)yk Allora:

(1) kkR `e un prodotto scalare su Cn. (2) Per ogni g∈ G l’applicazione

x

R(g)x `e unitaria rispetto a kkR. Dimostrazione. (1) `E immediato chekkR `e sesquilineare.

Per ogni x∈ C inoltre kx, xkR= P

g∈G

kR(g)x, R(g)yk ≥ 0, siccome ogni sommando `e≥ 0. Per la stessa ragione, se kx, xk = 0 necessariamente kR(g)x, R(g)xk = 0 per ogni g ∈ G e quindi x = 0, come si vede ad esempio prendendo g= 1G.

(2) Per x, y∈ Cne g∈ G kR(g)x, R(g)ykR= X

h∈G

kR(h)R(g)x, R(h)R(g)yk =

= X

h∈G

kR(hg)x, R(hg)yk = X

h∈G

kR(h)x, R(h)yk = kx, ykR

Teorema 1.16. Ogni rappresentazione R: G −→ GL(n, C) `e equivalen- te a una rappresentazione unitaria.

(10)

Dimostrazione. Il prodotto scalarekkRsia definito come nell’osserva- zione 1.15. Sia e1, . . . , en una base ortonormale di Cn rispetto a kkR e T := (e1, . . . , en) ∈ GL(n, C). Per g ∈ G sia U (g) la matrice dell’applica- zione lineare

x

R(g)x : Cn−→ Cnrispetto alla base(e1, . . . , en).

Dall’oss. 1.15 e dal cor. 1.14 segue che questa matrice `e unitaria.

D’altra parte per`o U(g) = T−1R(g)T come `e ben noto e come si vede an- che considerando x= T y, R(g)x = T U (g)y e quindi R(g)T y = T U (g)y.

Osservazione 1.17. Per ogni rappresentazione R : G −→ GL(n, R) esiste una matrice T ∈ GL(n, R) tale che T−1R(g)T ∈ O(n) per ogni g∈ G.

Dimostrazione. `E immediato che i ragionamenti che hanno portato al teorema 1.16 possono essere ripetuti per il caso reale.

Osservazione 1.18. V sia uno spazio vettoriale e W1 e W2 sottospazi vettoriali di V tali che V = W1⊕ W2. Se e1, . . . , es `e una base di W1 ed es+1, . . . , en `e una base di W2, allora e1, . . . , en `e una base di V.

Definizione 1.19. V sia uno spazio vettoriale e ϕ: V −→ V un’applica- zione lineare. Un sottospazio vettoriale W di V si dice ϕ-invariante, se ϕW ⊂ W .

Definizione 1.20. R : G −→ GL(V ) sia una rappresentazione. Un sottospazio vettoriale W di V si dice R-invariante, se R(g)W ⊂ W per ogni g∈ G.

Si noti che, se inoltredim V < ∞, questa condizione implica R(g)W = W per ogni g ∈ G.

Lemma 1.21. V sia uno spazio vettoriale di dimensione finita su un campo K e ϕ: V −→ V un’applicazione lineare.

(1) W sia un sottospazio vettoriale ϕ-invariante di V ed e1, . . . , es una base di W . Se allunghiamo questa base ad una base

E = (e1, . . . , en) di V , allora la matrice di ϕ rispetto ad E ha la forma

A X 0 B

 con A∈ Kss.

(2) Se viceversa E = (e1, . . . , en) `e una base di V , rispetto alla quale la matrice di ϕ `e della forma

A X 0 B



con A∈ Kss, allora W := SV (e1, . . . , es) `e un sottospazio vettoria- le ϕ-invariante di V condim W = s

Proposizione 1.22. R : G −→ GL(V ) sia una rappresentazione di dimensione finita.

(1) W sia un sottospazio vettoriale R-invariante di V ed e1, . . . , esuna base di W . Se allunghiamo questa base ad una base E= (e1, . . . , en) di V , allora per ogni g∈ G la matrice di R(g) rispetto ad E ha la forma

(11)

A(g) X(g) 0 B(g)



con A(g) ∈ GL(s, C).

(2) Se viceversa E = (e1, . . . , en) `e una base di V , rispetto alla quale per ogni g∈ G la matrice di R(g) `e della forma

A(g) X(g) 0 B(g)



con A∈ GL(s, C) ed s non dipende da g, allora W := SV (e1, . . . , es) `e un sottospazio vettoriale R-invariante di V condim W = s.

(3) In entrambi i casi le applicazioni A:=

g

A(g) : G −→ GL(s, C) B :=

g

B(g) : G −→ GL(n − s, C) sono rappresentazioni matriciali di G.

Lemma 1.23. V sia uno spazio vettoriale di dimensione finita su un campo K e ϕ: V −→ V un’applicazione lineare.

(1) W1e W2siano due sottospazi vettoriali ϕ-invariante di V tali che V = W1⊕ W2.

e1, . . . , es sia una base di W1 ed es+1, . . . , enuna base di W2. Per l’oss.

1.18 allora e1, . . . , en `e una base di V rispetto alla quale la matrice di ϕ `e della forma

A 0 0 B



con A∈ Ksse B ∈ Kn−sn−s.

(2) Se viceversa e1, . . . , en `e una base di V , rispetto alla quale la ma- trice di ϕ `e della forma

A 0 0 B



con A∈ Ksse B ∈ Kn−sn−s, allora gli spazi vettoriali W1:= SV (e1, . . . , es) e W2 := SV (es+1, . . . , en) generati rispettivamente da e1, . . . , ese

es+1, . . . , en sono entrambi sottospazi vettoriali ϕ-invarianti di V tali che V = W1⊕ W2.

Proposizione 1.24. R: G −→ GL(V ) sia una rappresentazione.

(1) W1e W2siano due sottospazi vettoriali R-invarianti di V tali che V = W1⊕ W2. e1, . . . , essia una base di W1 ed es+1, . . . , enuna base di W2. Allora e1, . . . , en `e una base di V e per ogni g∈ G la matrice di R(g) rispetto ad E `e della forma

A(g) 0 0 B(g)



con A(g) ∈ GL(s, C) e B(g) ∈ GL(n − s, C).

(12)

(2) Se viceversa e1, . . . , en`e una base di V , rispetto alla quale per ogni g∈ G la matrice di R(g) `e della forma

A(g) 0 0 B(g)



con A(g) ∈ GL(s, C) ed s non dipende da g, allora W1 := SV (e1, . . . , es) e W2 := SV (es+1, . . . , en) sono entrambi sottospazi vettoriali R-invarianti di V con V = W1⊕ W2.

Definizione 1.25. Una rappresentazione R : G −→ GL(V ) si dice irriducibile, se V 6= 0 e se gli unici sottospazi vettoriali R-invarianti di V sono0 e V stesso.

Definizione 1.26. R: G −→ GL(V ) sia una rappresentazione. Per H⊂ G ed Y ⊂ V sia R(H)Y := {R(h)y | h ∈ H, y ∈ Y }.

Per un vettore v∈ V l’insieme R(G)v si chiama l’orbita di v sotto R.

Questo insieme `e finito e lo spazio vettoriale SV(R(G)v) `e evidente- mente R-invariante e di dimensione finita.

Osservazione 1.27. R: G −→ GL(V ) sia una rappresentazione. Allo- ra sono equivalenti:

(1) R `e irriducibile.

(2) Per ogni v∈ V con v 6= 0 lo spazio vettoriale generato dall’orbita di v sotto R coincide con V .

Dimostrazione. (1)=⇒ (2): Ovvio, perch´e SV (R(g)v) `e invariante6= 0.

(2) =⇒ (1): Sia W un sottospazio vettoriale R-invariante 6= 0 di V . Allora esiste un w∈ W con w 6= 0. Per ipotesi SV (R(G)w) = V . Per`o W

`e R-invariante, per cui (R(G)w) ⊂ W e quindi anche SV (R(g)v) ⊂ W e ci`o implica W = V .

Proposizione 1.28. La rappresentazione R: G −→ GL(V ) sia irridu- cibile. Alloradim V < ∞.

Dimostrazione. Sia v ∈ V e v 6= 0. Per l’oss. 1.27 SV (R(G)v) = V . Ma, come gi `a osservato nella def. 1.26, l’orbita R(g)v `e finita e dunque dim V < ∞.

Definizione 1.29. R: G −→ GL(V ) sia una rappresentazione e W un sottospazio vettoriale di V .

Allora possiamo considerare l’applicazione RW : G −→ GL(W )

g7−→

w

R(g)w

Essa `e evidentemente ben definita e una rappresentazione di G.

Definizione 1.30.(1) R: G −→ GL(V ) sia una rappresentazione e W1

e W2 sottospazi vettoriali R-invarianti di V tali che V = W1⊕ W2. Allora scriviamo R= RW1⊕ RW2.

(13)

(2) Se viceversa sono date due rappresentazioni R1: G −→ GL(V1) e R2 : G −→ GL(V2), allora possiamo definire una rappresentazione

R1⊕ R2:=

g

(v1,v2)

(R1(g)v1, R2(g)v2) : G −→ GL(V1⊕ V2)

Le interpretazioni della somma diretta di due rappresentazioni conte- nute nei punti (1) e (2) sono equivalenti; le rappresentazioni matriciali corrispondenti si ottengono come nella proposizione 1.24.

(3) La somma diretta di due rappresentazioni matriciali R1 : G −→ GL(n1, C) ed R2 : G −→ GL(n2, C)

`e definita, in accordo con quanto sopra, ponendo (R1⊕ R2)(g) :=R1(g) 0

0 R2(g)



Definizione 1.31. Una rappresentazione R : G −→ GL(V ) si dice completamente irriducibile, se R pu`o essere scritta come somma diret- ta R= R1⊕ . . . ⊕ Rsin cui ogni Ri `e irriducibile.

Dalla proposizione 1.28 segue che in tal caso0 < dim V < ∞.

Definizione 1.32. V sia uno spazio vettoriale su C ekk un prodotto scalare su V . Per un sottoinsieme X di V poniamo

X:= {v ∈ V | kx, vk = 0 per ogni x ∈ X}

E chiaro che X` `e un sottospazio vettoriale di V (anche quando X stesso non `e un sottospazio vettoriale).

Nota 1.33. V sia uno spazio vettoriale di dimensione finita su C ekk un prodotto scalare su V . W sia un sottospazio vettoriale di V . Allora:

(1) W ∩ W= 0.

(2)dim V = dim V + dim V. (3)(W) = W .

(4) V = W ⊕ W.

Dimostrazione. Corsi di geometria.

Definizione 1.34. V sia uno spazio vettoriale su C ekk un prodotto scalare su V . Una rappresentazione R: G −→ GL(V ) si dice unitaria rispetto akk, se per ogni g ∈ G l’applicazione R(g) `e unitaria rispetto akk (cfr. def. 1.7).

Lemma 1.35. V sia uno spazio vettoriale su C ekk un prodotto scalare su V . R: G −→ GL(V ) sia una rappresentazione unitaria rispetto a kk e W un sottospazio vettoriale R-invariante di V . Allora:

(1) La rappresentazione RW : G −→ GL(W ) `e unitaria rispetto alla restrizione del prodotto scalarekk a W .

(2) Anche W `e un sottospazio vettoriale R-invariante di V .

(14)

(3) Ladim V < ∞, allora R = RW ⊕ RW. Dimostrazione. (1) Chiaro.

(2) Siano v∈ We g∈ G. Per ogni w ∈ W allora kR(g)v, wk = kR(g)v, R(g)R(g−1)wk = kv, R(g−1)wk = 0 perch´e per ipotesi R(g−1)w ∈ W.

(3) Ci`o segue dalla nota 1.33, tenendo conto del punto (2).

Teorema 1.36 (teorema di Maschke). R: G −→ GL(V ) sia una rap- presentazione e0 < dim V < ∞. Allora R `e completamente riducibile.

Dimostrazione. Per il teorema 1.16 possiamo assumere che su V sia dato un prodotto scalare rispetto al quale R `e unitaria. Per ipotesi V 6= 0.

(1) Assumiamo che R non sia irriducibile. Allora esiste un sotto- spazio vettoriale R-invariante W di V con0 < dim W < dim V . Per il lemma 1.35 R= RW⊕RW, mentre dal punto (2) della nota 1.33 segue che anche0 < dim W<dim V .

(2) Se le rappresentazioni RW e RW sono entrambe irriducibili, ab- biamo dimostrato l’enunciato. Altrimenti ripetiamo il ragionamento del punto (1) sia per RW che per RW, entrambe di dimensione finita minore della dimensione di partenza.

Corollario 1.37. Ogni rappresentazione1-dimensionale di G `e irridu- cibile.

Definizione 1.38. L’esponente di G `e il pi `u piccolo numero naturale m6= 0 tale che gm= 1Gper ogni g∈ G.

Ricordiamo che anche g|G| = 1Gper ogni g∈ G.

Osservazione 1.39.L’esponente di G divide l’ordine di G.

Dimostrazione. Sia H := {n ∈ Z | gn= 1G per ogni g∈ G}. Allora H

`e un sottogruppo 6= 0 di Z. Dal corso di Algebra sappiamo che

H = mZ, dove m `e il pi `u piccolo elemento > 0 di H. Perci`o m coincide con l’esponente di G. Siccome|G| ∈ H, vediamo che |G| `e un multiplo di m.

Osservazione 1.40.Una rappresentazione matriciale1-dimensionale

`e per definizione un omomorfismo di gruppi R: G −→ GL(1, C) = (C \ 0, ·)

Siano m l’esponente di G e g∈ G. Allora gm = 1G, per cui (R(g))m = R(gm) = R(1G) = 1

cosicch´e R(g) `e una m-esima radice dell’unit `a e quindi (o per la stessa ragione) anche una|G|-esima radice dell’unit `a .

In particolare|R(g)| = 1 e R(g−1) = R(g).

(15)

Osservazione 1.41. Due rappresentazioni matriciali 1-dimensionali sono equivalenti se e solo se coincidono.

Dimostrazione. Ci`o `e chiaro dalla def. 1.3, perch´e il gruppo GL(1, C)

`e commutativo.

Osservazione 1.42.Se due rappresentazioni1-dimensionali

R, S : G −→ GL(V ) nello stesso spazio vettoriale sono equivalenti, allora coincidono.

Dimostrazione. Per ipotesi esiste esiste un isomorfismo ϕ: V −→ V tale che il diagramma

V R(g)//

ϕ



V

ϕ



V S(g) //V

sia commutativo per ogni g∈ G. Siccome per`o dim V = 1, deve esistere un λ∈ C \ 0 tale che ϕv = λv per ogni v ∈ V .

Per ogni v∈ V ed ogni g ∈ G allora abbiamo S(g)v = ϕR(g)ϕ−1v= λR(g)λ−1v= R(g)v

(16)

2. Il lemma di Schur

Situazione 2.1. G sia un gruppo finito.

Nota 2.2.Siano date due rappresentazioni R: G −→ GL(V ) ed

S : G −→ GL(W ) e un’applicazione lineare ϕ : V −→ W che rende commutativo il diagramma

V R(g) //

ϕ



V

ϕ



W S(g) //W

per ogni g ∈ G. Se ϕ `e un isomorfismo, le due rappresentazioni sono (per definizione) equivalenti. Cosa si pu`o dedurre invece dalla situa- zione pi `u generale, in cui ϕ non `e un isomorfismo?

Il lemma di Schur afferma che allora, se le rappresentazioni R ed S sono entrambe irriducibili, l’applicazione ϕ `e identicamente nulla.

Osservazione 2.3.Nella definizione 2.2ker ϕ `e R-invariante, im ϕ `e S-invariante.

Dimostrazione. Sia g∈ G.

(1) Sia v ∈ ker ϕ. Allora ϕ(R(g)v) = S(g)ϕv = S(g)0 = 0, e vediamo che R(g)v ∈ ker ϕ.

(2) Sia w∈ im ϕ. Allora esiste v ∈ V tale che w = ϕv, per cui S(g)w = S(g)ϕv = ϕR(g)v ∈ im ϕ.

Teorema 2.4 (lemma di Schur). Siano date due rappresentazioni irriducibili R : G −→ GL(V ) ed S : G −→ GL(W ) e un’applicazione lineare ϕ: V −→ W che rende commutativo il diagramma

V R(g) //

ϕ



V

ϕ



W S(g) //W

per ogni g∈ G. Se ϕ 6= 0, allora ϕ `e un isomorfismo.

Dimostrazione. Usiamo l’osservazione 2.3.

(1) Siccome ϕ 6= 0, abbiamo ker ϕ 6= V e im ϕ 6= 0. ker ϕ `e un sotto- spazio R-invariante di V e quindi per ipotesi si ha ker ϕ = 0 oppure ker ϕ = V e quindi necessariamente ker ϕ = 0.

(2) im ϕ `e un sottospazio S-invariante di W e quindi per ipotesi im ϕ = 0 oppure im ϕ = W . Ci`o implica im ϕ = W .

Corollario 2.5. Le rappresentazioni matriciali R: G −→ GL(n, C) ed S : G −→ GL(n, C) siano irriducibili e T ∈ Cmn una matrice tale che T R(g) = S(g)T per ogni g∈ G.

Se T 6= 0, allora n = m e la matrice T `e invertibile.

(17)

Teorema 2.6. R: G −→ GL(V ) sia una rappresentazione. Allora sono equivalenti:

(1) R `e irriducibile.

(2)0 < dim V < ∞ e per ogni applicazione lineare ϕ : V −→ V che rende commutativo il diagramma

V R(g)//

ϕ



V

ϕ



V R(g)//V

per ogni g∈ G, esiste λ ∈ C tale che ϕ = λ id.

Dimostrazione. (1) =⇒ (2): Per ipotesi V 6= 0 e dalla proposizione 1.28 segue che dim V < ∞. Ci`o implica che esiste λ ∈ C tale che l’applicazione ϕ− λid non `e invertibile. `E chiaro che per ogni g ∈ G commuta anche il diagramma

V R(g)//

ϕ−λid



V

ϕ−λid



V R(g)//V

Il lemma di Schur implica che ϕ− λid = 0, cio`e ϕ = λid.

(2)=⇒ (1): R non sia irriducibile. Per il teorema di Maschke possia- mo scrivere V = W1⊕ W2con sottospazi R-invarianti non banali.

Sia ϕ : V −→ V , la proiezione su W1. `E chiaro che ϕ commuta con R(g) per ogni g ∈ G:

R(g)ϕ(w1+ w2) = R(g)w1

ϕR(g)(w1+ w2) = ϕR(g)w1+ ϕR(g)w2= ϕR(g)w1

per w1 ∈ W1 e w2∈ W2.

Per ipotesi esiste λ∈ C tale che ϕ = λid, e ci`o `e impossibile.

Corollario 2.7. R: G −→ GL(n, C) sia una rappresentazione matriciale. Allora sono equivalenti:

(1) R `e irriducibile.

(2) Per ogni matrice T ∈ Cnn tale che R(g)T = T R(g) per ogni g ∈ G esiste λ∈ C tale che T = λ δ.

Definizione 2.8.Il centro Z(G) di G `e definito da Z(G) := {a ∈ G | ag = ga per ogni g ∈ G }

Osservazione 2.9. Z(G) `e un sottogruppo normale di G.

Nota 2.10. R : G −→ GL(V ) sia una rappresentazione ed a ∈ Z(G).

Allora l’applicazione R(a) : V −→ V `e lineare e invertibile e rende commutativo il diagramma

(18)

V R(g)//

R(a)



V

R(a)



V R(g)//V

per ogni g ∈ G. Se R `e irriducibile, per il teorema 2.6 esiste λ ∈ C \ 0 tale che R(a) = λ id.

Proposizione 2.11. Se G `e un gruppo abeliano, ogni rappresentazione irriducibile di G `e1-dimensionale.

Dimostrazione. Per ipotesi si ha Z(G) = G. Sia data una rappresen- tazione irriducibile R: G −→ GL(V ). Per la nota 2.10 per ogni g ∈ G esiste λ ∈ C tale che R(g) = λid. Ma ci`o implica che ogni sottospazio vettoriale di V `e R-invariante e, siccome R `e irriducibile, necessaria- mentedim V = 1.

Lemma 2.12. K sia un campo ed H un sottogruppo finito di(K \ 0, ·).

Allora H `e ciclico.

Dimostrazione. Corsi di Algebra.

Proposizione 2.13. Se G possiede una rappresentazione irriducibile iniettiva, allora Z(G) `e un gruppo ciclico.

Dimostrazione. R : G −→ GL(V ) sia una rappresentazione irriduci- bile iniettiva. Per la nota 2.10 per ogni a ∈ Z(G) esiste un λa ∈ C \ 0 tale che R(a) = λaid. Per l’iniettivit `a di R il numero λa `e univocamente determinato e ci`o a sua volta implica che l’applicazione

a

λa : Z(G) −→ (C \ 0, ·) `e un omomorfismo iniettivo e quindi Z(G) `e isomorfo ad un sottogruppo (necessariamente finito) di(C\0, ·). Questo sottogruppo `e ciclico per il lemma 2.12.

Corollario 2.14. G sia un gruppo abeliano non ciclico. Allora G non possiede rappresentazioni irriducibili iniettive.

Osservazione 2.15.Il cor. 2.14 pu`o essere dedotto direttamente dalla prop. 2.11, senza utilizzare la prop. 2.13. Infatti sia R una rappre- sentazione irriducibile di G. Per la prop. 2.11 R `e un omomorfismo R : G −→ (C \ 0, ·). Se G non `e ciclico, esiste un m < |G| tale che gm = 1 per ogni g ∈ G. Perci`o R(G) `e un sottoinsieme dell’insieme {z ∈ C | zm = 1} e ci`o implica |R(G)| ≤ m. Ma allora R non pu`o essere iniettiva.

(19)

3. Teoremi di ortogonalit ` a per i coefficienti

Situazione 3.1. G sia un gruppo finito.

Definizione 3.2. R: G −→ GL(n, C) sia una rappresentazione matri- ciale. Per ogni i,j∈ {1, . . . , n} otteniamo una funzione Rij ∈ CGdefinita da Rij(g) := (R(g))ij.

Le funzioni cos`ı ottenute si dicono coefficienti di R.

In modo simile definiamo le funzioni Ri : G −→ Cned Rj : G −→ Cn tramite Ri(g) := (R(g))i e Rj(g) := (R(g))j.

Definizione 3.3. E sia un gruppo abeliano ed F : G −→ E un’appli- cazione. Allora poniamo

[F ] := P

g∈G

F(g)

Lemma 3.4. R: G −→ GL(n, C) ed S : G −→ GL(m, C) siano rappre- sentazioni matriciali ed A∈ Cnm. Sia

P := [RAS1] = P

g∈G

R(g)AS(g1) Allora R(g)P = P S(g) per ogni g ∈ G.

Dimostrazione. Sia g∈ G. Allora R(g)P = R(g)X

h∈G

R(h)AS(h1) =X

h∈G

R(gh)AS(h1) =

=X

h∈G

R(h)AS(h1g)

P S(g) = (X

h∈G

R(h)AS(h1))S(g) = X

h∈G

R(h)AS(h1g)

Corollario 3.5. R : G −→ GL(n, C) ed S : G −→ GL(m, C) siano rappresentazioni matriciali e1 ≤ j ≤ n, 1 ≤ k ≤ m. Sia

P := [Rj(S1)k] = P

g∈G

Rj(g)Sk(g1) Allora R(g)P = P S(g) per ogni g ∈ G.

Dimostrazione. Rj(S1)k = RδiδkS1, cosicch´e si tratta di un caso speciale del lemma con A= δiδk.

Teorema 3.6. R: G −→ GL(n, C) ed S : G −→ GL(m, C) siano rappre- sentazioni matriciali irriducibili e non equivalenti. Per ogni scelta di indici i,j,k,l allora

P

g∈G

Rij(g)Slk(g1) = 0

(20)

Dimostrazione. Per il cor. 3.5 R(g)[Rj(S1)k] = [Rj(S1)k]S(g) per ogni g∈ G. Il lemma di Schur implica [Rj(S1)k] = 0 (altrimenti R ed S sarebbero equivalenti) e da ci`o segue l’enunciato.

Teorema 3.7. R: G −→ GL(n, C) sia una rappresentazione matriciale irriducibile. Siano i,j,k,l∈ {1, . . . , n}. Allora:

(1) P

g∈G

Rij(g)Rij(g1) = |G|

n . (2) P

g∈G

Rij(g)Rlk(g1) = 0 se(i, j) 6= (l, k).

Dimostrazione. Per il cor. 3.5 abbiamo

R(g)[Rj(R1)k] = [Rj(R1)k]R(g) per ogni g ∈ G, cosicch´e per il cor. 2.7 esiste λkj ∈ C tale che [Rj(R1)k] = λkjδ. Adesso distinguiamo due casi:

(1) Per i6= l quindi 0 = P

g∈G

Rij(g)Rkl(g1).

(2) Per i= l otteniamo invece λkj = P

g∈G

Rij(g)Rki(g1) e sommando su i si ha

kj = Xn

i=1

X

g∈G

Rij(g)Rki(g1) =X

g∈G

Xn i=1

Rki(g1)Rij(g) =

=X

g∈G

Rkj(1G) =X

g∈G

δjk= δkj |G|

Per j6= k perci`o λkj = 0, mentre λjj = |G|

n .

Definizione 3.8.In CG denotiamo conkk il prodotto scalare comune, quindi

ku, vk = P

g∈G

u(g)v(g) = [uv]

Osservazione 3.9. R −→ GL(n, C) sia una rappresentazione matri- ciale unitaria. Per ogni g∈ G allora R(g1) = (R(g)). Per ogni coppia di indici i,j abbiamo quindi Rij(g1) = Rji(g).

Corollario 3.10. R: G −→ GL(n, C) ed S : G −→ GL(m, C) siano rap- presentazioni matriciali irriducibili e non equivalenti. La rappresenta- zione S sia unitaria. Per ogni scelta di indici i,j,k,l allorakRij, Sklk = 0.

Corollario 3.11. R : G −→ GL(n, C) sia una rappresentazione ma- triciale irruducibile e unitaria. Per ogni scelta di indici i,j,k,l allora kRji, Rlkk = δilδjk|G|

n .

Teorema 3.12. Esiste solo un numero finito di rappresentazioni irriducibili non equivalenti di G.

Dimostrazione. Per il teorema 1.16 in ogni classe di rappresentazioni irriducibili possiamo scegliere una rappresentazione unitaria R. Essa

(21)

determina una funzione R11 : G −→ C che, per il corollario 3.10, `e ortogonale ai primi coefficienti dei rappresentanti delle altre classi.

Ma in CGesistono al massimo|G| funzioni ortogonali tra di loro.

Definizione 3.13. κ sia il numero delle rappresentazioni irriducibili non equivalenti di G. Dal teorema 3.12 sappiamo che κ `e finito.

Definizione 3.14.Un sistema di Burnside di G `e una sequenza (R1, . . . , Rκ) di rappresentazioni matriciali irriducibili e unitarie non equivalenti Rα : G −→ GL(nα, C) per α = 1, . . . , κ in cui R1 :=

g

1 coincide con la rappresentazione banale. Denotiamo in questo caso i coefficienti di Rα con Ri. Il vettore (n1, . . . , nκ) si chiama il vettore delle dimensionidel sistema.

Teorema 3.15.(n1, . . . , nκ) sia il vettore delle dimensioni di un sistema di Burnside di G. Allora n21+ . . . + n2κ≤ |G|.

Dimostrazione. Per ogni α∈ {1, . . . , k} e ogni i,j ∈ {1, . . . , nα} abbia- mo un coefficiente Ri ∈ CG. Per i cor. 3.10 e 3.11 questi coefficienti sono tra di loro ortogonali. Il loro numero non pu`o quindi superare|G|.

Osservazione 3.16. Tramite la teoria dei caratteri saremo in grado di dimostrare che in questa osservazione si ha uguaglianza:

n21+ . . . + n2κ= |G|.

(22)

4. Il teorema di Burnside

Situazione 4.1.G sia un gruppo finito.

Come nella def. 3.8 siakk il prodotto scalare comune su CG.

Definizione 4.2.SiaA ∈ Cnn. Definiamo la traccia diA, denotata con tr A, come la somma degli elementi sulla diagonale principale di A, quinditr A := Pn

i=1

Aii. `E chiaro che l’applicazionetr : Cnn−→ C `e lineare.

Proposizione 4.3. SianoA ∈ Cnm,B ∈ Cmn. Alloratr AB = tr BA.

Si noti cheAB ∈ Cnn,BA ∈ Cmm. Dimostrazione.

tr AB = Xn

i=1

(AB)ii = Xn

i=1

Xm α=1

AiαBiα = Xm α=1

Xn i=1

BiαAiα=

= Xm α=1

(BA)αα= tr BA

Corollario 4.4. SianoA ∈ CnneT ∈ GL(n, C). Allora tr T−1AT = tr A.

Definizione 4.5. (1) R : G −→ GL(n, C) sia una rappresentazione matriciale diG. Allora tr R :=

g

tr R(g) : G −→ C si chiama la traccia diR.

(2)R : G −→ GL(V ) sia una rappresentazione di dimensione finita di G. Per il cor. 4.4 l’applicazione tr R :=

g

tr R(g) : G −→ C `e ben definita e si chiama la traccia diR.

Osservazione 4.6.Dal cor. 4.4 `e immediato che rappresentazioni di dimensione finita equivalenti possiedono la stessa traccia. Dimostre- remo in questo capitolo che viceversa due rappresentazioni di dimen- sione finita che hanno la stessa traccia sono equivalenti. Siccome `e molto facile calcolare la traccia, possiamo altrettanto facilmente sta- bilire se due rappresentazioni di dimensione finita sono equivalenti.

Definizione 4.7.Un carattere diG `e una funzione χ : G −→ C tale che esiste una rappresentazione irriducibile (matriciale o su uno spazio vettoriale)R tale che χ = tr R.

I caratteri diG sono quindi le tracce delle rappresentazioni irridu- cibili di G. Ricordiamo che per la prop. 1.28 ogni rappresentazione irriducibile diG `e di dimensione finita e quindi possiede una traccia.

Situazione 4.8.(R1, . . . , Rκ) sia un sistema di Burnside fissato di G ed(n1, . . . , nκ) il corrispondente vettore delle dimensioni. Per ogni α = 1, . . . , κ sia χα := tr Rα. Allora i caratteri diG sono esattamente le funzioniχ1, . . . , χκ.

(23)

Siccome per la def. 3.14 R1 =

g

1, il carattere χ1 (detto carattere banale) coincide con la funzione costante

g 1.

Osservazione 4.9.Faremo adesso vedere come le relazioni di ortogo- nalit `a per i coefficienti si traducono in relazioni di ortogonalit `a per i caratteri.

Teorema 4.10. Perα,β ∈ {1, . . . , κ} vale kχα, χβk = |G| δβα. Dimostrazione.

α, χβk = X

g∈G

χα(g)χβ(g) =X

g∈G nα

X

j=1 nβ

X

k=1

(Rα)jj(g)(Rβ)kk(g) =

=

nα

X

j=1 nβ

X

k=1

X

g∈G

(Rα)jj(g)(Rβ)kk(g−1) = |G| δαβ

Definizione 4.11.Per una rappresentazione (vettoriale o matriciale) diR di G ed m ∈ N sia mR := R ⊕ . . . ⊕ R

| {z }

m volte

.

Proposizione 4.12. Sianom1, . . . , mκ ∈ N ed R := m1R1⊕ . . . ⊕ mκRκ. Per ogniα ∈ {1, . . . , κ} allora mα= 1

|G|kχα, tr Rk.

Il numeromα `e in particolare univocamente determinato.

Dimostrazione. Siccome tr R = m1tr R1+ . . . + mκtr Rκ

dal teorema 4.10 seguekχα, tr Rk = kχα, mαχαk e ci`o implica il risul- tato.

Corollario 4.13. Ogni rappresentazione di dimensione finita di G `e equivalente a una rappresentazione della formam1R1⊕ . . . ⊕ mκRκcon m1, . . . , mκ ∈ N.

Dimostrazione. Per il teorema di Maschke R `e completamente ri- ducibile, cio`e pu`o essere scritto come R = R1 ⊕ . . . ⊕ Rκ dove gli Ri sono irriducibili. Per la rappresentazione 0-dimensionale prendiamo m1 = . . . = mκ = 0. L’unicit `a segue dalla prop. 4.12.

Teorema 4.14.R ed S siano due rappresentazioni di dimensione finita diG. Allora R ed S sono equivalenti se e solo se possiedono la stessa traccia

Dimostrazione. (1)R ed S siano equivalenti. Dall’oss. 4.6 sappiamo che le tracce diR ed S coincidono.

(2) Siatr R = tr S. Per il cor. 4.13 R `e equivalente a una rappresen- tazionem1R1⊕ . . . ⊕ mκRκ,S a una rappresentazione l1R1⊕ . . . ⊕ lκRκ

(24)

conm1, . . . , mκ,l1, . . . , lκ ∈ N. Dalla prop. 4.12 per ogni α ∈ {1, . . . , κ} si ha per`omα= 1

|G|kχα, tr Rk = 1

|G|kχα, tr Sk = lα.

Per la transitivit `a della relazione di equivalenza ci`o implica cheR `e equivalente adS.

Definizione 4.15.Sullo spazio vettoriale CG introduciamo come mol- tiplicazione la convoluzione∗ definita da

u ∗ v :=

g

P

h∈G

u(h)v(h−1g)

Si verifica facilmente che questa operazione `e associativa, mentre `e chiaro che `e bilineare.

(CG, +, ∗) `e quindi una C-algebra che si chiama l’algebra di gruppo diG. Essa viene denotata con CG.

Osservazione 4.16. Le algebre CG e CG coincidono come insiemi e come spazi vettoriali, si distinguono invece come anelli, cio`e nella mol- tiplicazione: CG= (CG, +, ·), mentre CG = (CG, +, ∗).

Definizione 4.17.Pera ∈ G sia εa∈ CG definita da εa(x) := (x = a) =

(1 sex = a 0 altrimenti E chiaro che l’applicazione` ε :=

a

εa: G −→ CG `e iniettiva.

Osservazione 4.18.ε1G `e l’elemento neutro (rispetto alla convoluzione) di CG.

Dimostrazione. Peru ∈ CG e g ∈ G abbiamo u ∗ ε1G(g) = P

h∈G

u(h)(h−1g = 1G) = u(g) ε1G(g) ∗ u = P

h∈G

(h = 1G)u(h−1g) = u(g)

Osservazione 4.19. L’applicazione ε : G −→ (CG, ∗) `e un omomor- fismo di semigruppi. Insieme all’oss. 4.18 ci`o mostra cheG pu`o in modo naturale essere considerato come sottomonoide di(CG, ∗).

Dimostrazione. Datia,b ∈ G dobbiamo dimostrare che εab = εa∗ εb. Siag ∈ G. Allora

a∗ εb)(g) = P

h∈G

(h = a)(h−1g = b) = (g = ab) = εab(g)

Osservazione 4.20.G, o pi `u precisamente l’insieme {εa| a ∈ G}, costituisce una base di CGe quindi anche di CG (che come spazio vet- toriale coincide con CG).

Peru ∈ CG si hau = P

a∈G

u(a)εa. Dimostrazione. (1) Siag ∈ G. Allora

(25)

P

a∈G

u(a)εa(g) = P

a∈G

u(a)(g = a) = u(g) Ci`o mostra cheG genera CG.

(2) Dimostriamo la lineare indipendenza.

Siaλa ∈ C per ogni a ∈ G eP λaεa= 0. Per ogni g ∈ G allora 0 = P

a∈G

λa(a = g) = λg.

Osservazione 4.21.SianoG = {a1, . . . , aN} con gli elementi a1, . . . , aN tutti distinti edu,v ∈ CG. Allora esistono α1, . . . , αN, β1, . . . , βN ∈ C univocamente determinati (ricavabili dall’oss. 4.20) tali che

u = α1εa1+ . . . + αNεaN ev = β1εa1 + . . . + βNεaN. La convoluzioneu ∗ v `e allora data da u ∗ v =

PN i=1

PN j=1

αiβjεaiaj.

Dimostrazione. Ci`o segue dall’oss. 4.19 e dalla bilinearit `a della con- voluzione.

Definizione 4.22.Perg ∈ G ed u ∈ CG sia L(g)u :=

x

u(g−1x).

E chiaro che l’applicazione` L(g) : CG −→ CG `e lineare e cheL(1G) = id.

Lemma 4.23. Perg,h ∈ G si ha che L(gh) = L(g)L(h).

Dimostrazione. Sianou ∈ CG ed x ∈ G. Allora (L(gh)u)(x) = u((gh)−1x) = u(h−1g−1x)

(L(g)L(h)u)x = (L(h)u)(g−1x) = u(h−1g−1x).

Osservazione 4.24.Per ognig ∈ G si ha L(g) ∈ GL(CG).

Dimostrazione. Abbiamo gi `a osservato cheL(g) `e lineare.

Dal lemma 4.23 segue cheL(g)L(g−1) = L(gg−1) = L(1G) = id, per cuiL(g) ∈ GL(CG).

Definizione 4.25.L’applicazione L : G −→ GL(CG) `e ben definita e una rappresentazione diG.

Essa si chiama la rappresentazione regolare diG.

Osservazione 4.26.L’algebra CG `e commutativa se e solo se G `e com- mutativo.

Dimostrazione. (1) Se CG `e commutativo, lo `e anche G, essendo iso- morfo a un sottomonoide di CG come sappiamo dall’oss. 4.19.

(2)G sia commutativo. Siano u,v ∈ G. Per l’oss. 4.21 possiamo scri- vereu e v nella forma u = α1εa1+ . . . + αNεaN,v = β1εa1+ . . . + βNεaN, dovea1, . . . , aN sono gli elementi distinti di G. A questo punto `e evi- dente che `e sufficiente dimostrare cheεa∗ εb = εb∗ εaper ognia,b ∈ G.

Ma per l’oss. 4.19εa∗ εb = εab= εba= εb∗ εa.

(26)

Osservazione 4.27.Sianoa,g ∈ G. Allora L(g)εa= εga. Dimostrazione. Infatti

L(g)εa=

x

εa(g−1x) =

x

(g−1x = a) =

x

(x = ga) = εga

Osservazione 4.28.SianoG = {a1, . . . , aN} con gli elementi a1, . . . , aN

tutti distinti. Sianoα1, . . . , αN ∈ C e g ∈ G. Dalla linearit `a di L(g) e dall’oss. 4.27 segue allora che

L(g)(α1εa1 + . . . + αNεaN) = α1εga1+ . . . + αNεgaN

Corollario 4.29. La rappresentazione regolare diG `e iniettiva.

Dimostrazione. Sianog,h ∈ G tali che L(g) = L(h)

Siaa un elemento qualsiasi di G. Per l’oss. 4.27 allora εga = εhae ci`o implicaga = ha per l’iniettivit `a di ε. Ma allora g = h.

Nota 4.30.Dall’oss. 4.27 discende un altro fatto importante.

Per ognig,a ∈ G si ha L(g)εa= εga ∈ ε(G) e ci`o mostra, insieme con l’oss. 4.29, cheL(g) induce una permutazione dell’insieme ε(G).

Se scriviamo ancoraG = {a1, . . . , aN} con gli ai tutti distinti, allora possiamo prendereεa1, . . . , εaN come base ordinata di CG e rappresen- tareL(g) mediante una matrice M (g).

Questa matrice `e una matrice di permutazione. Siccome inoltre εga = εa implica g = 1, vediamo che la matrice di M (g) ha tutti zeri nella diagonale principale tranne che perg = 1G.

Esempio 4.31.SiaG = V4= {1, a, b, c} con la tavola di moltiplicazione V4 1 a b c

1 1 a b c

a a 1 c b

b b c 1 a

c c b a 1

Allora

L(a)ε1 = εa

L(a)εa= εa2 = ε1

L(a)εb = εab = εc

L(a)εc = εac= εb

per cui la matrice diL(a) rispetto alla base ε1, εa, εb, εc `e data da



0 1 0 0 1 0 0 0 0 0 0 1 0 0 1 0



(27)

Nota 4.32. Siano di nuovoG = {a1, . . . , aN} con gli elementi ai tutti distinti edM (g) per g ∈ G la matrice di L(g) rispetto alla base ortogo- naleεa1, . . . , εaN. Allora

M (g)ij = 1 ⇐⇒ gaj = ai ⇐⇒ g = aia−1j

e quindi nella notazione abbreviata gi `a usata in precedenza abbiamo M (g)ij = (g = aia−1j )

Ci`o permette di determinare in modo molto veloce la matriceM (g):

Dalla tavola di moltiplicazione diG otteniamo in modo immediato gli inversix−1perx ∈ G. Formiamo la tabella

1G a−12 . . . a−1j . . . a−1N 1G

a2

. . .

ai aia−1j

. . . aN

Qui assumiamo, per comodit `a, chea1 = 1G.

La matriceM (g) si ottiene da questa tabella, sostituendo dapprima g con 1 e tutti gli altri elementi con 0.

Esempio 4.33.SiaG = Z/4. La tavola di moltiplicazione `e

0 1 2 3 0 0 1 2 3 1 1 2 3 0 2 2 3 0 1 3 3 0 1 2

Gli inversi sono dati da 0−1 = 0, 1−1 = 3, 2−1 = 2, 3−1 = 1, per cui la tabella nella nota 4.32 diventa

0 3 2 1 0 0 3 2 1 1 1 0 3 2 2 2 1 0 3 3 3 2 1 0

Perci`o le matriciM (x), rispetto alla base ε1, εa, εb, εc, per ognix ∈ G sono:

(28)

M (0) =



1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1



 M (1) =



0 0 0 1 1 0 0 0 0 1 0 0 0 0 1 0



M (2) =



0 0 1 0 0 0 0 1 1 0 0 0 0 1 0 0



 M (3) =



0 1 0 0 0 0 1 0 0 0 0 1 1 0 0 0



Esempio 4.34.PerG = S3 = {id, (123), (132), (12), (13), (23)}. La tavola di moltiplicazione `e

S3 id (123) (132) (12) (13) (23) id id (123) (132) (12) (13) (23) (123) (123) (132) id (13) (23) (12) (132) (132) id (123) (23) (12) (13) (12) (12) (23) (13) id (132) (123) (13) (13) (12) (23) (123) id (132) (23) (23) (13) (12) (132) (123) id

Gli inversi sono dati da id−1 = id, (123)−1 = (132), (132)−1 = (123), (12)−1= (12), (13)−1 = (13), (23)−1 = (23), per cui la tabella nella nota 4.32 diventa

S3 id (132) (123) (12) (13) (23) id id (123) (132) (12) (13) (23) (123) (123) id (132) (13) (23) (12) (132) (132) (123) id (23) (12) (13) (12) (12) (13) (23) id (132) (123) (13) (13) (23) (12) (123) id (132) (23) (23) (12) (13) (132) (123) id

Perci`o le matriciL(x), rispetto alla base ε1, εa, εb, εc, εd, εe, per ognix ∈ G sono:

M (id) =







1 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 1







M ((123)) =







0 1 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 0 0 0 1 0







M ((132)) =







0 0 1 0 0 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 1 0 0







M ((12)) =







0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 1 0 1 0 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0







(29)

M ((13)) =







0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 1 0 1 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0







M ((23)) =







0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0







Esempio 4.35.SiaG = D4 il gruppo delle simmetrie del quadrato.

D4 pu`o essere identificato con un sottogruppo diS4:

D4 = {id, (1234), (12)(34), (13)(24), (1432), (14)(23), (13), (24)}.

La tavola di moltiplicazione `e

D4 id (1234) (13)(24) (1432) (12)(34) (14)(23) (13) (24) id id (1234) (13)(24) (1432) (12)(34) (14)(23) (13) (24) (1234) (1234) (13)(24) (1432) id (13) (24) (14)(23) (12)(34) (13)(24) (13)(24) (1432) id (1234) (14)(23) (12)(34) (24) (13) (1432) (1432) id (1234) (13)(24) (24) (13) (12)(34) (14)(23) (12)(34) (12)(34) (24) (14)(23) (13) id (13)(24) (1423) (1234) (14)(23) (14)(23) (13) (12)(34) (24) (13)(24) id (1234) (1432) (13) (13) (12)(34) (24) (14)(23) (1234) (1432) id (13)(24) (24) (24) (14)(23) (13) (12)(34) (14)(32) (1234) (13)(24) id

La tabella nella nota 4.32 diventa quindi

D4 id (1432) (13)(24) (1234) (12)(34) (14)(23) (13) (24) id id (1432) (13)(24) (1234) (12)(34) (14)(23) (13) (24) (1234) (1234) id (1432) (13)(24) (13) (24) (14)(23) (12)(34) (13)(24) (13)(24) (1234) id (1432) (14)(23) (12)(34) (24) (13) (1432) (1432) (13)(24) (1234) id (24) (13) (12)(34) (14)(23) (12)(34) (12)(34) (13) (14)(23) (24) id (13)(24) (1423) (1234) (14)(23) (14)(23) (24) (12)(34) (13) (13)(24) id (1234) (1432) (13) (13) (14)(23) (24) (12)(34) (1234) (1432) id (13)(24) (24) (24) (12)(34) (13) (14)(23) (14)(32) (1234) (13)(24) id

Perci`o le matrici L(x), rispetto alla base ε1, εa, εb, εc, εd, εe, εf, εg, per ognix ∈ G sono:

M (id) =











1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1











Riferimenti

Documenti correlati

Dopo di che definireremo le somme di potenze, il discriminante e la Bezoutiante, strumenti utili che ci porteranno al Criterio di Sylvester, cuore della Tesi, il quale ci dice che

I minori di ordine k di QA sono combinazioni lineari dei minori di ordine k di A, quindi se questi ultimi sono tutti nulli, ogni minore di ordine k di QA ` e nullo.. Poich` e i

Una caratteristica importante per le strategie di terapia `e che le cellule staminali sia normali che tumorali dispongono di meccanismi di protezione pi ` u efficaci delle

L’argomento di questa tesi sono due classi di funzioni binarie aven- ti valori nell’intervallo unitario, i legami stocastici e le t-norme, nate originariamente nell’ambito della

Nel capitolo 14, invece, vengono introdotte le matrici (non negative) irriducibili e alcune propriet `a che le caratterizzano: una matrice non negativa `e irriducibile se e solo

Grazie al lemma di Farkas, si pu`o dimostrare, sotto opportune ipo- tesi, che se un punto `e soluzione di un problema di programmazione in generale non lineare, allora in tale

Ci`o segue dalla linearit `a e dalla continuit `a del prodotto scalare..

Uno spazio topologico in cui ogni punto possiede una base numerabile degli intorni `e detto soddisfare il primo assioma di numerabilit `a.. Utilizzeremo la notazione A 1 per