• Non ci sono risultati.

Le eccezioni

Nel documento Semplicit`a di alcuni gruppi classici (pagine 15-24)

Come abbiamo visto, la semplicit`a di P SLn(F ) `e provata eccetto che per i casi n = 2 e |F | ∈ {2, 3}. Proviamo ora un risultato che ci sar`a utile nel discutere tali casi, e provare che effettivamente i corrispondenti gruppi unimodulari proiettivi non sono semplici.

Proposizione 3. Sia F campo finito di ordine |F | = q = pr con p primo e r intero positivo. Allora detto d := (n, q − 1),

|Ln(F )| = (qn− 1)(qn− q)...(qn− qn−1)

|SLn(F )| = (qn− 1)...(qn− qn−2)qn−1

|P SLn(F )| = (qn− 1)(qn− q)...(qn− qn−2)qn−1/d

Dimostrazione. Sia V spazio vettoriale su F di dimensione n, e fissiamo una base di V . Consideriamo l’isomorfismo canonico dal gruppo degli automorfismi di V a Ln(F ) che manda un automorfismo nella matrice che ha come colonne le immagini della base scelta scritte nella stessa base. Ne segue che l’ordine di Ln(F ) `e dato dal numero di matrici invertibili di ordine n, ovvero dal numero di basi ordinate dello spazio vettoriale V di dimensione n su F . Per il primo vettore abbiamo qn− 1 scelte (non possiamo scegliere il vettore nullo), per il secondo qn− q (non possiamo scegliere i q multipli del primo scelto), per il terzo qn− q2 (non possiamo scegliere le q2combinazioni lineari dei primi due scelti), e avanti cos`ı, da cui otteniamo facilmente l’asserto.

Sappiamo che l’applicazione determinante Ln(F ) → F`e omomorfismo di grup-pi il cui nucleo `e SLn(F ), e che Ln(F )/SLn(F ) ∼= F, da cui |Ln(F )/SLn(F )| = q − 1. Ma per il teorema di Lagrange,

|Ln(F )/SLn(F )| = |Ln(F )|/|SLn(F )|

da cui

|SLn(F )| = |Ln(F )|/(q − 1) =

= (qn− 1)...(qn− qn−1)/(q − 1) = qn−1(qn− 1)...(qn− qn−2) Ora ricordiamo che il centro di SLn(F ) `e C = {x1 | xn= 1} e dunque

|C| = |{x ∈ F | xn = 1}|

Poich´e |F| = q − 1 abbiamo xq−1= 1 per ogni x ∈ F. Se xn= 1 allora anche xd= 1, infatti esistono a, b ∈ Z tali che d = an + b(q − 1) da cui

1 = (xn)a(xq−1)b= xan+b(q−1)= xd

D’altra parte se xd = 1 anche xn = 1 = xq−1 perch´e d divide sia n che q − 1.

Ma allora |C| = |{x ∈ F | xd = 1}|. La novit`a rispetto a prima `e che stavolta d ≤ q − 1. Sia H := {x ∈ F | xd = 1}. Poich´e F `e un gruppo ciclico esiste un suo sottogruppo di ordine d, che quindi `e contenuto in H. Ma allora poich´e

|H| ≤ d, d = |H| = |C|. Allora poich´e P SLn(F ) = SLn(F )/C, sempre dal teorema di Lagrange,

|P SLn(F )| = |SLn(F )|/d come voluto.

Ora discuteremo i due casi mancanti.

Proposizione 4. P SL2(F2) ∼= S3 e quindi non `e semplice contenendo propri-amente il sottogruppo normale A3.

Dimostrazione. Sia F = {0, 1} = F2e n = 2. Dalla proposizione 3, |P SLn(F )| = 3 · 2 = 6. Poich´e C = {1}, P SL2(F2) ∼= SL2(F2). Abbiamo un’azione fedele di questo gruppo su P1(F2) che ha cardinalit`a

|F2|2− 1

|F2| − 1 = 22− 1 2 − 1 = 3

Quindi SL2(F2) si immerge in S3 come sottogruppo di ordine 6. Ma allora SL2(F2) ∼= S3.

A3C S3 perch´e due permutazioni coniugate hanno la stessa parit`a.

Proposizione 5. P SL2(F3) ∼= A4 non `e semplice

Dimostrazione. Mostriamo innanzitutto che A4non `e semplice. Possiamo scriver-lo esplicitamente:

A4= {1, (1 2)(3 4), (1 3)(2 4), (1 4)(2 3), (1 2 3), (1 3 2), (1 2 4), (1 4 2), (1 3 4), (1 4 3), (2 3 4), (2 4 3)}

Sia

H := {1, (1 2)(3 4), (1 3)(2 4), (1 4)(2 3)} < A4

Per mostrare che H C A4 consideriamo un elemento di H, prodotto di due trasposizioni disgiunte τ1e τ2(nell’ordine, ma non ha importanza, tanto essendo disgiunte commutano), e σ ∈ S4. Allora detto 1 6= δ := στ1τ2σ−1 si ha

δ2(a) = στ1τ2τ1τ2σ−1(a) = a

per ogni a ∈ {1, 2, 3, 4}, essendo τ1τ2τ1τ2 = τ1τ1τ2τ2 = 1. Ne segue che δ ha ordine 2. Per mostrare che δ ∈ H basta quindi mostrare che non fissa nessun

elemento. Supponiamo per assurdo che per qualche a ∈ {1, 2, 3, 4} si abbia δ(a) = a. Allora

a = δ(a) = στ1τ2σ−1(a) = στiaσ−1(a)

dove τia ∈ {τ1, τ2} `e la trasposizione che sposta σ−1(a). Allora, dall’uguaglianza di cui sopra,

τia−1(a)) = σ−1(a) ovvero τia fissa σ−1(a), il che `e assurdo.

Ora, dalla proposizione 3 segue subito che |P SL2(F3)| = 12. Sappiamo che P SL2(F3) agisce fedelmente sullo spazio proiettivo P1(F3), che ha ordine

|P1(F3)| = |F3|2− 1

|F3| − 1 = 32− 1 3 − 1 = 4

Quindi P SL2(F3) si immerge in S4. Ma l’unico sottogruppo di S4 di ordine 12

`e A4, quindi

P SL2(F3) ∼= A4

Capitolo 3

Il gruppo simplettico modulo il suo centro

3.1 Le forme bilineari alternanti

Cominceremo con alcune definizioni e alcuni risultati utili poi.

Definizione 6. Sia V spazio vettoriale di dimensione n sul campo F . Una forma bilineare B su V `e una mappa

B : V × V → F (x, y) 7→ B(x, y)

tale che per ogni y ∈ V la mappa yR : x 7→ B(x, y) `e lineare e per ogni x ∈ V la mappa xL : y 7→ B(x, y) `e lineare. Tali condizioni si sintetizzano nella condizione

B(

m

X

i=1

aixi,

q

X

j=1

bjyj) =

m

X

i=1 q

X

j=1

aibjB(xi, yj)

∀xk, yh∈ V, al, bp∈ F Ora scegliamo un bij ∈ F per ogni 1 ≤ i, j ≤ n, e poniamo

B(x, y) =

n

X

i,j=1

bijaibj

dove x = P

iaiei e y = P

ibiei. Si verifica in fretta che B `e bilineare e che se B `e data, ponendo bij := B(ei, ej) si ottiene per B una forma di questo tipo. Quindi ogni forma bilineare si pu`o esprimere in questo modo, e la matrice (bij)i,j determina B. Si dice matrice di B rispetto alla base (e1, ..., en).

Se (fj)j `e un’altra base di V con fj=P

ipijei allora B(fi, fj) = B(X

k

pkiek,X

s

psjes) =X

k,s

pkiB(ek, es)psj= (ptbp)ij

ricordando che (ABC)ij =P

s(AB)isCsj=P

s

P

tAitBtsCsj.

E quindi chiaro che la matrice della forma bilineare B nella base (f` j)j`e c := ptbp

Se, date le matrici quadrate b e c, esiste una matrice invertibile p che realizza questo allora b e c si dicono congruenti.

Ora dati x, y ∈ V restano definite le applicazioni xL: V → F, y 7→ B(x, y) yR: V → F, x 7→ B(x, y)

Ovviamente sono entrambe lineari, quindi sono elementi di V. Le mappe V → V

L : x 7→ xL

R : y 7→ yR

sono anch’esse lineari.

Ora sia U ≤ V . Dette LU : V → U, x 7→ xL|U e RU : V → U, y 7→ yR|U, definiamo

UL := {v ∈ V | B(v, u) = 0 ∀u ∈ U } = ker(LU) UR := {v ∈ V | B(u, v) = 0 ∀u ∈ U } = ker(RU)

Dalla linearit`a di L e R, `e facile dedurre che sono entrambi sottospazi vettoriali di V . Inoltre

(UL)R = {v ∈ V | B(u0, v) = 0 ∀u0 ∈ UL} (UR)L = {v ∈ V | B(v, u0) = 0 ∀u0∈ UR} da cui segue immediatamente

U ⊆ (UL)R U ⊆ (UR)L

VL = ker(L) e VR = ker(R) si dicono rispettivamente radicale sinistro e radicale destro di B.

Teorema 3. Sia B forma bilineare V × V → F . Le seguenti asserzioni sono equivalenti:

(1) VR = {0}

(2) VL = {0}

(3) la matrice di B rispetto a una base qualsiasi `e invertibile.

Dimostrazione. Sia (ei)iuna base di V e sia (bij = B(ei, ej))i,j la matrice di B in tale base. Ora sia z :=Pn

j=1cjej. Per la bilinearit`a, z ∈ VR ⇔ B(ei, z) = 0 ∀i = 1, ..., n ⇔

n

X

j=1

bijcj = 0 ∀i = 1, ..., n

z ∈ VL ⇔ B(z, ei) = 0 ∀i = 1, ..., n ⇔

n

X

j=1

bjicj = 0 ∀i = 1, ..., n

ora z 6= 0 se e solo se c = (cj)j 6= 0 quindi la prima e la seconda condizione in questo caso danno una condizione necessaria e sufficiente affinch´e esista z 6= 0 nel rispettivo radicale, ovvero che

det(b) = det(bt) 6= 0

Questo, unito al fatto che nel cambiare base il determinante della matrice viene moltiplicato per un elemento non nullo di F , conclude la dimostrazione.

Definizione 7. Una forma bilineare B su V tale che la matrice b di B rispetto a una base (ei)i di V sia invertibile si dice non degenere.

Il teorema appena dimostrato dice che B `e non degenere se e solo se L (e di con-seguenza R) `e iniettiva. Ma poich´e dim(V ) = dim(V) = n, B `e non degenere se e solo se L e R sono isomorfismi lineari V → V.

Si ricava un importante risultato:

Lemma 7. Se B `e non degenere ogni α ∈ V ha la forma y 7→ B(x, y) per qualche x ∈ V , e ha la forma y07→ B(y0, x0) per qualche x0∈ V .

Proposizione 6. B sia forma bilineare non degenere sullo spazio vettoriale V . Allora le mappe

V ≥ U 7→ UL e

V ≥ U 7→ UR sono una l’inversa dell’altra.

Dimostrazione. Ricordiamo che se ϕ `e una funzione lineare da V a un altro spazio vettoriale, si ha la relazione dimensionale

dim(V ) = dim(ker(ϕ)) + dim(ϕ(V ))

Dato U ≤ V applichiamo tale relazione alla mappa lineare RU : V → U. Poich´e ker(RU) = UR si ha

n = dim(UR) + dim(W )

dove W ≤ U`e l’insieme delle forme lineari definite su U della forma y 7→ B(y, x) per qualche x ∈ V . `E chiaro che possiamo estendere una g ∈ U a una g ∈ V mandando una base di U nelle corrispondenti immagini tramite g, e i vettori che completano a una base di V in 0. Spendiamo qui l’ipotesi di non degenerazione di B: tale g ∈ V `e della forma y 7→ B(x, y) e della forma x 7→ B(x, y) (lemma 7), quindi tale `e g. Ma allora W = U, e quindi poich´e dim(U) = dim(U ), con ragionamenti analoghi su LU,

dim(UL) = n − dim(U ) = dim(UR)

il che implica che dim((UL)R) = n−dim(UL) = n−(n−dim(U )) = dim(U ) e poich´e U ⊆ (UL)R si ha, con ragionamenti analoghi,

(UR)L = U = (UL)R questo conclude la dimostrazione.

In particolare abbiamo ricavato il seguente

Lemma 8. Se B `e forma bilineare non degenere sullo spazio vettoriale V e U ≤ V allora U= L(U ) = R(U ).

Definizione 8. Data una forma bilineare B su uno spazio vettoriale V , x ∈ V si dice ortogonale a y ∈ V e si scrive x⊥y se vale B(x, y) = 0.

Definizione 9 (forme simmetriche). Una forma bilineare B : V ×V → F si dice simmetrica se vale B(x, y) = B(y, x) per ogni x, y ∈ V . Le matrici associate a B sono in tal caso tutte simmetriche.

Definizione 10 (forme alternanti). Una forma bilineare B : V × V → F si dice alternante se vale B(x, x) = 0 per ogni x ∈ V . Le matrici associate a B sono in tal caso, se χ(F ) 6= 2, tutte antisimmetriche.

Il seguente affascinante risultato rende molto interessante lo studio delle forme bilineari simmetriche o alternanti:

Teorema 4. Data una forma bilineare B sullo spazio vettoriale V , la relazione di ortogonalit`a `e simmetrica se e solo se B `e simmetrica oppure alternante.

Dimostrazione. Sufficienza. Se B `e simmetrica lo `e in particolare la relazione di ortogonalit`a, se invece B `e alternante allora dati x, y ∈ V, 0 = B(x + y, x + y) = B(x, x) + B(x, y) + B(y, x) + B(y, y) = B(x, y) + B(y, x) da cui B(x, y) =

−B(y, x) quindi `e chiaro che B(x, y) = 0 se e solo se B(y, x) = 0.

Necessit`a. Supponiamo ora che la relazione di ortogonalit`a sia simmetrica, e siano x, y, z ∈ V . Sia

w := B(x, y)z − B(x, z)y

allora vale B(x, w) = B(x, B(x, y)z−B(x, z)y) = B(x, B(x, y)z)−B(x, B(x, z)y) = B(x, y)B(x, z) − B(x, z)B(x, y) = 0 da cui per la simmetria dell’ortogonalit`a B(w, x) = 0, che si riscrive come 0 = B(B(x, y)z−B(x, z)y, x) = B(B(x, y)z, x)−

B(B(x, z)y, x) = B(x, y)B(z, x) − B(x, z)B(y, x) ovvero

B(x, y)B(z, x) = B(x, z)B(y, x) ∀x, y, z ∈ V (3.1) da cui se x = y,

B(x, x)(B(z, x) − B(x, z)) = 0 ∀x, z ∈ V (3.2) Ora supponiamo falsa la nostra tesi, cio`e supponiamo che B non sia n´e sim-metrica n´e alternante. Allora per la non-simmetria esistono u, v ∈ V tali che B(u, v) 6= B(v, u) e per la non-alternanza esiste w ∈ V tale che B(w, w) 6= 0.

Usando (3.2) con x = u, z = v e poi con x = v, z = u otteniamo

B(u, u) = B(v, v) = 0 (3.3)

Usando poi ancora (3.2) con z = u, x = w e poi con z = v, x = w otteniamo B(u, w) − B(w, u) = 0 = B(v, w) − B(w, v) (3.4) Usando poi (3.1) con x = u, y = v, z = w e poi con x = v, y = u, z = w e usando (3.4) otteniamo

B(u, w) = B(w, u) = 0 = B(v, w) = B(w, v) (3.5) Ora si ha B(u, v + w) = B(u, v) + B(u, w) = B(u, v) e B(v + w, u) = B(v, u) + B(w, u) = B(v, u) da cui poich´e B(u, v) 6= B(v, u) si ha B(u, v+w) 6= B(v+w, u) e usando (3.2) con x = v + w, z = u otteniamo B(v + w, v + w)(B(v + w, u) − B(u, v + w)) = 0 da cui per quanto appena visto B(v + w, v + w) = 0, ovvero 0 = B(v + w, v + w) = B(v, v) + B(v, w) + B(w, v) + B(w, w) = B(w, w) usando (3.3) e (3.5). Ma questo `e assurdo perch´e per ipotesi B(w, w) 6= 0. Questo conclude la dimostrazione.

D’ora in poi ogni forma bilineare sia simmetrica oppure alternante.

Per quanto visto si ha per ogni U ≤ V che UL= UR =: U

e U viene detto il complemento ortogonale di U . Il vantaggio di lavorare con forme simmetriche o alternanti `e legato al non dover distinguere tra “ortogonali destri” e “ortogonali sinistri”.

Osservazione 4. Se U ≤ V si ha U ∩ U = {0} se e solo se B|U ×U `e non degenere. In questo caso U si dice sottospazio non degenere.

Dimostrazione. Necessit`a. Se x ∈ U `e tale che B(x, y) = 0 ∀y ∈ U allora vale anche x ∈ U e quindi x = 0. Sufficienza. Se x ∈ U ∩ U allora B(x, y) = 0 per ogni y ∈ U e quindi x ∈ ker(LU) = ker(RU), che impica x = 0.

Data una base (ei)i di V , possiamo definire il discriminante di B come 0 se B

`e degenere, e come la classe

det(b)(F)2∈ F/(F)2

se B `e non degenere, dove (F)2:= {a2 | a ∈ F} `e sottogruppo moltiplicativo di F.

Concentriamoci ora sulle forme bilineari alternanti. Rivestono particolare im-portanza le cosiddette “basi simplettiche”:

Teorema 5. Sia B una forma bilineare alternante V × V → F . Allora esiste una base {u1, v1, u2, v2, ..., ur, vr, z1, ..., zn−2r} di V , detta base simplettica di V , tale che la matrice di B rispetto a tale base abbia la forma

s = diag{S, ..., S, 0, ..., 0} sono linearmente indipendenti perch´e per ogni x ∈ V e per ogni a ∈ F si ha B(x, ax) = aB(x, x) = 0. Ora supponiamo di aver trovato i vettori indipendenti

(i) (u1, v1, u2, v2, ..., uk, vk)

da cui y ∈ Vk. Poich´e

x = y +

k

X

i=1

B(x, vi)ui

k

X

i=1

B(x, ui)vi

abbiamo, usando il fatto che Vk∩ Vk = {0}, che Vk⊕ Vk = V .

Consideriamo ora la forma B ristretta a Vk. Se `e identicamente nulla possiamo scegliere una base di Vk ottenendo con la (ui, vi)i una base di V rispetto a cui la matrice di B `e del tipo voluto con r = k. Se invece B|V

k non `e identica-mente nulla possiamo scegliere uk+1, vk+1 ∈ Vk tali che B(uk+1, vk+1) = 1 =

−B(vk+1, uk+1), come abbiamo fatto all’inizio della dimostrazione per B e V , e quindi ottenere la base di Vk+1

(u1, v1, u2, v2, ..., uk, vk, uk+1, vk+1)

rispetto a cui la matrice sar`a del tipo voluto, e questo prova l’ipotesi induttiva nel caso k + 1.

Se b `e la matrice antisimmetrica associata alla forma bilineare alternante B su V su F rispetto alla base (ei)i, e p `e la matrice di cambiamento di base dalla base (ei)ialla base (uj, vj, zk) del teorema allora ptbp = s come nel teorema. Ponendo q = p−1 abbiamo b = qtsq e quindi b e s hanno lo stesso rango essendo ottenute l’una dall’altra moltiplicando a destra e a sinistra per matrici invertibili. Ma poich´e det(s) ∈ {0, 1} si ha det(b) = det(q)2det(s) ∈ {0, det(q)2} e quindi:

Corollario 1. Una matrice antisimmetrica invertibile con entrate in un campo F ha rango pari e il suo determinante `e un quadrato in F .

Corollario 2. Due matrici antisimmetriche n × n con entrate in un campo F sono congruenti se e solo se hanno lo stesso rango.

Dimostrazione. La sufficienza si vede notando che se ptbp = s = qtcq allora c = (q−1p)tb(q−1p).

Nel documento Semplicit`a di alcuni gruppi classici (pagine 15-24)

Documenti correlati