Come abbiamo visto, la semplicit`a di P SLn(F ) `e provata eccetto che per i casi n = 2 e |F | ∈ {2, 3}. Proviamo ora un risultato che ci sar`a utile nel discutere tali casi, e provare che effettivamente i corrispondenti gruppi unimodulari proiettivi non sono semplici.
Proposizione 3. Sia F campo finito di ordine |F | = q = pr con p primo e r intero positivo. Allora detto d := (n, q − 1),
|Ln(F )| = (qn− 1)(qn− q)...(qn− qn−1)
|SLn(F )| = (qn− 1)...(qn− qn−2)qn−1
|P SLn(F )| = (qn− 1)(qn− q)...(qn− qn−2)qn−1/d
Dimostrazione. Sia V spazio vettoriale su F di dimensione n, e fissiamo una base di V . Consideriamo l’isomorfismo canonico dal gruppo degli automorfismi di V a Ln(F ) che manda un automorfismo nella matrice che ha come colonne le immagini della base scelta scritte nella stessa base. Ne segue che l’ordine di Ln(F ) `e dato dal numero di matrici invertibili di ordine n, ovvero dal numero di basi ordinate dello spazio vettoriale V di dimensione n su F . Per il primo vettore abbiamo qn− 1 scelte (non possiamo scegliere il vettore nullo), per il secondo qn− q (non possiamo scegliere i q multipli del primo scelto), per il terzo qn− q2 (non possiamo scegliere le q2combinazioni lineari dei primi due scelti), e avanti cos`ı, da cui otteniamo facilmente l’asserto.
Sappiamo che l’applicazione determinante Ln(F ) → F∗`e omomorfismo di grup-pi il cui nucleo `e SLn(F ), e che Ln(F )/SLn(F ) ∼= F∗, da cui |Ln(F )/SLn(F )| = q − 1. Ma per il teorema di Lagrange,
|Ln(F )/SLn(F )| = |Ln(F )|/|SLn(F )|
da cui
|SLn(F )| = |Ln(F )|/(q − 1) =
= (qn− 1)...(qn− qn−1)/(q − 1) = qn−1(qn− 1)...(qn− qn−2) Ora ricordiamo che il centro di SLn(F ) `e C = {x1 | xn= 1} e dunque
|C| = |{x ∈ F | xn = 1}|
Poich´e |F∗| = q − 1 abbiamo xq−1= 1 per ogni x ∈ F∗. Se xn= 1 allora anche xd= 1, infatti esistono a, b ∈ Z tali che d = an + b(q − 1) da cui
1 = (xn)a(xq−1)b= xan+b(q−1)= xd
D’altra parte se xd = 1 anche xn = 1 = xq−1 perch´e d divide sia n che q − 1.
Ma allora |C| = |{x ∈ F | xd = 1}|. La novit`a rispetto a prima `e che stavolta d ≤ q − 1. Sia H := {x ∈ F | xd = 1}. Poich´e F∗ `e un gruppo ciclico esiste un suo sottogruppo di ordine d, che quindi `e contenuto in H. Ma allora poich´e
|H| ≤ d, d = |H| = |C|. Allora poich´e P SLn(F ) = SLn(F )/C, sempre dal teorema di Lagrange,
|P SLn(F )| = |SLn(F )|/d come voluto.
Ora discuteremo i due casi mancanti.
Proposizione 4. P SL2(F2) ∼= S3 e quindi non `e semplice contenendo propri-amente il sottogruppo normale A3.
Dimostrazione. Sia F = {0, 1} = F2e n = 2. Dalla proposizione 3, |P SLn(F )| = 3 · 2 = 6. Poich´e C = {1}, P SL2(F2) ∼= SL2(F2). Abbiamo un’azione fedele di questo gruppo su P1(F2) che ha cardinalit`a
|F2|2− 1
|F2| − 1 = 22− 1 2 − 1 = 3
Quindi SL2(F2) si immerge in S3 come sottogruppo di ordine 6. Ma allora SL2(F2) ∼= S3.
A3C S3 perch´e due permutazioni coniugate hanno la stessa parit`a.
Proposizione 5. P SL2(F3) ∼= A4 non `e semplice
Dimostrazione. Mostriamo innanzitutto che A4non `e semplice. Possiamo scriver-lo esplicitamente:
A4= {1, (1 2)(3 4), (1 3)(2 4), (1 4)(2 3), (1 2 3), (1 3 2), (1 2 4), (1 4 2), (1 3 4), (1 4 3), (2 3 4), (2 4 3)}
Sia
H := {1, (1 2)(3 4), (1 3)(2 4), (1 4)(2 3)} < A4
Per mostrare che H C A4 consideriamo un elemento di H, prodotto di due trasposizioni disgiunte τ1e τ2(nell’ordine, ma non ha importanza, tanto essendo disgiunte commutano), e σ ∈ S4. Allora detto 1 6= δ := στ1τ2σ−1 si ha
δ2(a) = στ1τ2τ1τ2σ−1(a) = a
per ogni a ∈ {1, 2, 3, 4}, essendo τ1τ2τ1τ2 = τ1τ1τ2τ2 = 1. Ne segue che δ ha ordine 2. Per mostrare che δ ∈ H basta quindi mostrare che non fissa nessun
elemento. Supponiamo per assurdo che per qualche a ∈ {1, 2, 3, 4} si abbia δ(a) = a. Allora
a = δ(a) = στ1τ2σ−1(a) = στiaσ−1(a)
dove τia ∈ {τ1, τ2} `e la trasposizione che sposta σ−1(a). Allora, dall’uguaglianza di cui sopra,
τia(σ−1(a)) = σ−1(a) ovvero τia fissa σ−1(a), il che `e assurdo.
Ora, dalla proposizione 3 segue subito che |P SL2(F3)| = 12. Sappiamo che P SL2(F3) agisce fedelmente sullo spazio proiettivo P1(F3), che ha ordine
|P1(F3)| = |F3|2− 1
|F3| − 1 = 32− 1 3 − 1 = 4
Quindi P SL2(F3) si immerge in S4. Ma l’unico sottogruppo di S4 di ordine 12
`e A4, quindi
P SL2(F3) ∼= A4
Capitolo 3
Il gruppo simplettico modulo il suo centro
3.1 Le forme bilineari alternanti
Cominceremo con alcune definizioni e alcuni risultati utili poi.
Definizione 6. Sia V spazio vettoriale di dimensione n sul campo F . Una forma bilineare B su V `e una mappa
B : V × V → F (x, y) 7→ B(x, y)
tale che per ogni y ∈ V la mappa yR : x 7→ B(x, y) `e lineare e per ogni x ∈ V la mappa xL : y 7→ B(x, y) `e lineare. Tali condizioni si sintetizzano nella condizione
B(
m
X
i=1
aixi,
q
X
j=1
bjyj) =
m
X
i=1 q
X
j=1
aibjB(xi, yj)
∀xk, yh∈ V, al, bp∈ F Ora scegliamo un bij ∈ F per ogni 1 ≤ i, j ≤ n, e poniamo
B(x, y) =
n
X
i,j=1
bijaibj
dove x = P
iaiei e y = P
ibiei. Si verifica in fretta che B `e bilineare e che se B `e data, ponendo bij := B(ei, ej) si ottiene per B una forma di questo tipo. Quindi ogni forma bilineare si pu`o esprimere in questo modo, e la matrice (bij)i,j determina B. Si dice matrice di B rispetto alla base (e1, ..., en).
Se (fj)j `e un’altra base di V con fj=P
ipijei allora B(fi, fj) = B(X
k
pkiek,X
s
psjes) =X
k,s
pkiB(ek, es)psj= (ptbp)ij
ricordando che (ABC)ij =P
s(AB)isCsj=P
s
P
tAitBtsCsj.
E quindi chiaro che la matrice della forma bilineare B nella base (f` j)j`e c := ptbp
Se, date le matrici quadrate b e c, esiste una matrice invertibile p che realizza questo allora b e c si dicono congruenti.
Ora dati x, y ∈ V restano definite le applicazioni xL: V → F, y 7→ B(x, y) yR: V → F, x 7→ B(x, y)
Ovviamente sono entrambe lineari, quindi sono elementi di V∗. Le mappe V → V∗
L : x 7→ xL
R : y 7→ yR
sono anch’esse lineari.
Ora sia U ≤ V . Dette LU : V → U∗, x 7→ xL|U e RU : V → U∗, y 7→ yR|U, definiamo
U⊥L := {v ∈ V | B(v, u) = 0 ∀u ∈ U } = ker(LU) U⊥R := {v ∈ V | B(u, v) = 0 ∀u ∈ U } = ker(RU)
Dalla linearit`a di L e R, `e facile dedurre che sono entrambi sottospazi vettoriali di V . Inoltre
(U⊥L)⊥R = {v ∈ V | B(u0, v) = 0 ∀u0 ∈ U⊥L} (U⊥R)⊥L = {v ∈ V | B(v, u0) = 0 ∀u0∈ U⊥R} da cui segue immediatamente
U ⊆ (U⊥L)⊥R U ⊆ (U⊥R)⊥L
V⊥L = ker(L) e V⊥R = ker(R) si dicono rispettivamente radicale sinistro e radicale destro di B.
Teorema 3. Sia B forma bilineare V × V → F . Le seguenti asserzioni sono equivalenti:
(1) V⊥R = {0}
(2) V⊥L = {0}
(3) la matrice di B rispetto a una base qualsiasi `e invertibile.
Dimostrazione. Sia (ei)iuna base di V e sia (bij = B(ei, ej))i,j la matrice di B in tale base. Ora sia z :=Pn
j=1cjej. Per la bilinearit`a, z ∈ V⊥R ⇔ B(ei, z) = 0 ∀i = 1, ..., n ⇔
n
X
j=1
bijcj = 0 ∀i = 1, ..., n
z ∈ V⊥L ⇔ B(z, ei) = 0 ∀i = 1, ..., n ⇔
n
X
j=1
bjicj = 0 ∀i = 1, ..., n
ora z 6= 0 se e solo se c = (cj)j 6= 0 quindi la prima e la seconda condizione in questo caso danno una condizione necessaria e sufficiente affinch´e esista z 6= 0 nel rispettivo radicale, ovvero che
det(b) = det(bt) 6= 0
Questo, unito al fatto che nel cambiare base il determinante della matrice viene moltiplicato per un elemento non nullo di F , conclude la dimostrazione.
Definizione 7. Una forma bilineare B su V tale che la matrice b di B rispetto a una base (ei)i di V sia invertibile si dice non degenere.
Il teorema appena dimostrato dice che B `e non degenere se e solo se L (e di con-seguenza R) `e iniettiva. Ma poich´e dim(V ) = dim(V∗) = n, B `e non degenere se e solo se L e R sono isomorfismi lineari V → V∗.
Si ricava un importante risultato:
Lemma 7. Se B `e non degenere ogni α ∈ V∗ ha la forma y 7→ B(x, y) per qualche x ∈ V , e ha la forma y07→ B(y0, x0) per qualche x0∈ V .
Proposizione 6. B sia forma bilineare non degenere sullo spazio vettoriale V . Allora le mappe
V ≥ U 7→ U⊥L e
V ≥ U 7→ U⊥R sono una l’inversa dell’altra.
Dimostrazione. Ricordiamo che se ϕ `e una funzione lineare da V a un altro spazio vettoriale, si ha la relazione dimensionale
dim(V ) = dim(ker(ϕ)) + dim(ϕ(V ))
Dato U ≤ V applichiamo tale relazione alla mappa lineare RU : V → U∗. Poich´e ker(RU) = U⊥R si ha
n = dim(U⊥R) + dim(W )
dove W ≤ U∗`e l’insieme delle forme lineari definite su U della forma y 7→ B(y, x) per qualche x ∈ V . `E chiaro che possiamo estendere una g ∈ U∗ a una g ∈ V∗ mandando una base di U nelle corrispondenti immagini tramite g, e i vettori che completano a una base di V in 0. Spendiamo qui l’ipotesi di non degenerazione di B: tale g ∈ V∗ `e della forma y 7→ B(x, y) e della forma x 7→ B(x, y) (lemma 7), quindi tale `e g. Ma allora W = U∗, e quindi poich´e dim(U∗) = dim(U ), con ragionamenti analoghi su LU,
dim(U⊥L) = n − dim(U ) = dim(U⊥R)
il che implica che dim((U⊥L)⊥R) = n−dim(U⊥L) = n−(n−dim(U )) = dim(U ) e poich´e U ⊆ (U⊥L)⊥R si ha, con ragionamenti analoghi,
(U⊥R)⊥L = U = (U⊥L)⊥R questo conclude la dimostrazione.
In particolare abbiamo ricavato il seguente
Lemma 8. Se B `e forma bilineare non degenere sullo spazio vettoriale V e U ≤ V allora U∗= L(U ) = R(U ).
Definizione 8. Data una forma bilineare B su uno spazio vettoriale V , x ∈ V si dice ortogonale a y ∈ V e si scrive x⊥y se vale B(x, y) = 0.
Definizione 9 (forme simmetriche). Una forma bilineare B : V ×V → F si dice simmetrica se vale B(x, y) = B(y, x) per ogni x, y ∈ V . Le matrici associate a B sono in tal caso tutte simmetriche.
Definizione 10 (forme alternanti). Una forma bilineare B : V × V → F si dice alternante se vale B(x, x) = 0 per ogni x ∈ V . Le matrici associate a B sono in tal caso, se χ(F ) 6= 2, tutte antisimmetriche.
Il seguente affascinante risultato rende molto interessante lo studio delle forme bilineari simmetriche o alternanti:
Teorema 4. Data una forma bilineare B sullo spazio vettoriale V , la relazione di ortogonalit`a `e simmetrica se e solo se B `e simmetrica oppure alternante.
Dimostrazione. Sufficienza. Se B `e simmetrica lo `e in particolare la relazione di ortogonalit`a, se invece B `e alternante allora dati x, y ∈ V, 0 = B(x + y, x + y) = B(x, x) + B(x, y) + B(y, x) + B(y, y) = B(x, y) + B(y, x) da cui B(x, y) =
−B(y, x) quindi `e chiaro che B(x, y) = 0 se e solo se B(y, x) = 0.
Necessit`a. Supponiamo ora che la relazione di ortogonalit`a sia simmetrica, e siano x, y, z ∈ V . Sia
w := B(x, y)z − B(x, z)y
allora vale B(x, w) = B(x, B(x, y)z−B(x, z)y) = B(x, B(x, y)z)−B(x, B(x, z)y) = B(x, y)B(x, z) − B(x, z)B(x, y) = 0 da cui per la simmetria dell’ortogonalit`a B(w, x) = 0, che si riscrive come 0 = B(B(x, y)z−B(x, z)y, x) = B(B(x, y)z, x)−
B(B(x, z)y, x) = B(x, y)B(z, x) − B(x, z)B(y, x) ovvero
B(x, y)B(z, x) = B(x, z)B(y, x) ∀x, y, z ∈ V (3.1) da cui se x = y,
B(x, x)(B(z, x) − B(x, z)) = 0 ∀x, z ∈ V (3.2) Ora supponiamo falsa la nostra tesi, cio`e supponiamo che B non sia n´e sim-metrica n´e alternante. Allora per la non-simmetria esistono u, v ∈ V tali che B(u, v) 6= B(v, u) e per la non-alternanza esiste w ∈ V tale che B(w, w) 6= 0.
Usando (3.2) con x = u, z = v e poi con x = v, z = u otteniamo
B(u, u) = B(v, v) = 0 (3.3)
Usando poi ancora (3.2) con z = u, x = w e poi con z = v, x = w otteniamo B(u, w) − B(w, u) = 0 = B(v, w) − B(w, v) (3.4) Usando poi (3.1) con x = u, y = v, z = w e poi con x = v, y = u, z = w e usando (3.4) otteniamo
B(u, w) = B(w, u) = 0 = B(v, w) = B(w, v) (3.5) Ora si ha B(u, v + w) = B(u, v) + B(u, w) = B(u, v) e B(v + w, u) = B(v, u) + B(w, u) = B(v, u) da cui poich´e B(u, v) 6= B(v, u) si ha B(u, v+w) 6= B(v+w, u) e usando (3.2) con x = v + w, z = u otteniamo B(v + w, v + w)(B(v + w, u) − B(u, v + w)) = 0 da cui per quanto appena visto B(v + w, v + w) = 0, ovvero 0 = B(v + w, v + w) = B(v, v) + B(v, w) + B(w, v) + B(w, w) = B(w, w) usando (3.3) e (3.5). Ma questo `e assurdo perch´e per ipotesi B(w, w) 6= 0. Questo conclude la dimostrazione.
D’ora in poi ogni forma bilineare sia simmetrica oppure alternante.
Per quanto visto si ha per ogni U ≤ V che U⊥L= U⊥R =: U⊥
e U⊥ viene detto il complemento ortogonale di U . Il vantaggio di lavorare con forme simmetriche o alternanti `e legato al non dover distinguere tra “ortogonali destri” e “ortogonali sinistri”.
Osservazione 4. Se U ≤ V si ha U ∩ U⊥ = {0} se e solo se B|U ×U `e non degenere. In questo caso U si dice sottospazio non degenere.
Dimostrazione. Necessit`a. Se x ∈ U `e tale che B(x, y) = 0 ∀y ∈ U allora vale anche x ∈ U⊥ e quindi x = 0. Sufficienza. Se x ∈ U ∩ U⊥ allora B(x, y) = 0 per ogni y ∈ U e quindi x ∈ ker(LU) = ker(RU), che impica x = 0.
Data una base (ei)i di V , possiamo definire il discriminante di B come 0 se B
`e degenere, e come la classe
det(b)(F∗)2∈ F∗/(F∗)2
se B `e non degenere, dove (F∗)2:= {a2 | a ∈ F∗} `e sottogruppo moltiplicativo di F∗.
Concentriamoci ora sulle forme bilineari alternanti. Rivestono particolare im-portanza le cosiddette “basi simplettiche”:
Teorema 5. Sia B una forma bilineare alternante V × V → F . Allora esiste una base {u1, v1, u2, v2, ..., ur, vr, z1, ..., zn−2r} di V , detta base simplettica di V , tale che la matrice di B rispetto a tale base abbia la forma
s = diag{S, ..., S, 0, ..., 0} sono linearmente indipendenti perch´e per ogni x ∈ V e per ogni a ∈ F si ha B(x, ax) = aB(x, x) = 0. Ora supponiamo di aver trovato i vettori indipendenti
(i) (u1, v1, u2, v2, ..., uk, vk)
da cui y ∈ Vk⊥. Poich´e
x = y +
k
X
i=1
B(x, vi)ui−
k
X
i=1
B(x, ui)vi
abbiamo, usando il fatto che Vk∩ Vk⊥ = {0}, che Vk⊕ Vk⊥ = V .
Consideriamo ora la forma B ristretta a Vk⊥. Se `e identicamente nulla possiamo scegliere una base di Vk⊥ ottenendo con la (ui, vi)i una base di V rispetto a cui la matrice di B `e del tipo voluto con r = k. Se invece B|V⊥
k non `e identica-mente nulla possiamo scegliere uk+1, vk+1 ∈ Vk⊥ tali che B(uk+1, vk+1) = 1 =
−B(vk+1, uk+1), come abbiamo fatto all’inizio della dimostrazione per B e V , e quindi ottenere la base di Vk+1
(u1, v1, u2, v2, ..., uk, vk, uk+1, vk+1)
rispetto a cui la matrice sar`a del tipo voluto, e questo prova l’ipotesi induttiva nel caso k + 1.
Se b `e la matrice antisimmetrica associata alla forma bilineare alternante B su V su F rispetto alla base (ei)i, e p `e la matrice di cambiamento di base dalla base (ei)ialla base (uj, vj, zk) del teorema allora ptbp = s come nel teorema. Ponendo q = p−1 abbiamo b = qtsq e quindi b e s hanno lo stesso rango essendo ottenute l’una dall’altra moltiplicando a destra e a sinistra per matrici invertibili. Ma poich´e det(s) ∈ {0, 1} si ha det(b) = det(q)2det(s) ∈ {0, det(q)2} e quindi:
Corollario 1. Una matrice antisimmetrica invertibile con entrate in un campo F ha rango pari e il suo determinante `e un quadrato in F .
Corollario 2. Due matrici antisimmetriche n × n con entrate in un campo F sono congruenti se e solo se hanno lo stesso rango.
Dimostrazione. La sufficienza si vede notando che se ptbp = s = qtcq allora c = (q−1p)tb(q−1p).