UNIVERSIT `A CATTOLICA DEL SACRO CUORE
Facolt`a di Scienze Matematiche, Fisiche e Naturali
ISTITUZIONI DI ALGEBRA SUPERIORE I
Una introduzione ai gruppi classici
M. Chiara Tamburini
Anno Accademico 2016/2017
Indice
I La geometria dei gruppi classici 1
1 Forme sesquilineari sui campi . . . . 1
2 Forme sesquilineari e matrici . . . . 3
3 Ortogonalit`a . . . . 5
4 Spazi simplettici . . . . 7
5 Spazi ortogonali e spazi unitari . . . . 8
6 Alcune propriet`a dei campi finiti . . . . 11
7 Spazi ortogonali e unitari sui campi finiti . . . . 12
II I gruppi classici 17 1 Il gruppo generale lineare . . . . 17
2 Il gruppo simplettico . . . . 19
3 I gruppi ortogonali in caratteristica 6= 2. . . . 19
4 I gruppi unitari. . . . . 21
5 I gruppi semplici . . . . 21
Bibliografia 23
i
Capitolo I
La geometria dei gruppi classici
1 Forme sesquilineari sui campi
In questo Capitolo σ indica un automorfismo di un campo K. Saremo interessati solo ai casi in cui σ = idK oppure σ ha periodo 2, ossia:
σ2= idK.
Ad esempio ha periodo 2 l’automorfismo coniugio σ del campo complesso C:
a + ib 7→ a − ib.
La teoria di Galois ci dice che un campo finito K ha un automorfismo σ di periodo 2 se e solo se il suo ordine `e un quadrato. In tal caso, posto |K| = q2, l’automorfismo σ `e l’applicazione:
α 7→ αq, ∀ α ∈ K.
Per ogni α ∈ K conviene porre σ(α) := ασ.
(1.1) Definizione Sia V uno spazio vettoriale su K. Una forma σ-sesquilineare su V
`
e una applicazione
( , ) : V × V → K tale che, per ogni v, v1, v2, w, w1, w2 ∈ V e per ogni λ, µ ∈ K
(1.2)
(v1+ v2, w) = (v1, w) + (v2, w) (v, w1+ w2) = (v, w1) + (v, w2)
(λv, µw) = λµσ(v, w) Una forma σ-sesquilineare su V si dice:
• bilineare se σ = idK;
1
• hermitiana se σ ha periodo 2 e (v, w) = (w, v)σ, per ogni v, w ∈ V . Diciamo inoltre che la forma `e :
• non singolare se, per ogni vettore non nullo v di V , esiste u ∈ V tale che (u, v) 6= 0K.
• bilineare simmetrica se σ = idK e, per ogni v, w ∈ V , si ha (v, w) = (w, v);
• bilineare antisimmetrica se σ = idK e, per ogni v, w ∈ V , si ha (v, w) = −(w, v).
Chiaramente, per ogni v ∈ V :
((0V, v)) = ((0K0V, v)) = 0K(0V, v) = 0K= (v, 0V) .
(1.3) Definizione Un’ isometria di una forma σ-sesquilineare ( , ) : V × V → K `e un’applicazione lineare iniettiva f : V → V tale che
(f (v), f (w)) = (v, w), ∀ v, w ∈ V.
Se W `e un qualunque sottospazio di V , ogni forma sesquilineare su V induce una forma sesquilineare su W . Basta infatti considerare la restrizione:
( , ) : W × W → K.
(1.4) Lemma (di Witt) Data una forma bilineare o hermitiana non singolare su V , siano U, U0 sottospazi di V e f : U → U0 una isometria (rispetto alle restrizioni della forma a U, U0). Allora f si estende a una isometria bf : V → V .
Per una dimostrazione si veda [1, 20, pag. 81], o anche [4, Capitolo 6, pag. 369].
(1.5) Esempi
1) Posto V = Rn, l’applicazione
(v, w) := vTw, ∀ v, w ∈ V
`
e una forma bilineare simmetrica, non singolare su V . Per n = 2 si ha:
x1 x2
,
y1 y2
:= (x1, x2)
y1 y2
= x1y1+ x2y2. Nel caso n = 3 tale forma induce la metrica usuale nello spazio R3.
2) Posto V = Kn e fissata una qualunque matrice J ∈ Matn(K), l’applicazione (v, w) := vTJ w, ∀ v, w ∈ V
`e una forma bilineare su V . Per K = R, J = I si ha l’esempio 1).
2. FORME SESQUILINEARI E MATRICI 3
2 Forme sesquilineari e matrici
Date una forma σ sequilineare ( , ) : V × V → K e fissata una base B = {v1, . . . , vn}
di V , per ogni
v =
n
X
i=1
kivi, w =
n
X
i=1
hivi, ki, hi ∈ K in virt`u degli assiomi (1.2) della definizione 1.1 si ha:
(2.1) (v, w) =
n
X
i,j=1
kihσj(vi, vj).
Introducendo la matrice
(2.2) J := ((vi, vj)) ∈ Matn(K).
e passando ai vettori coordinate vB =
k1
. . . kn
, wB =
h1
. . . hn
, la (2.1) si scrive nella forma:
(2.3) (v, w) = vBTJ wσB, ∀ v, w ∈ V.
(2.4) Lemma Fissata la forma σ-sesquilineare ( , ) : V × V → K e la base B di V , l’unica matrice di Matn(K) che soddisfa (2.3) `e J.
Dimostrazione. Se A = (aij) soddisfa (2.3), da viB = ei per 1 ≤ i ≤ n, segue:
(vi, vj) = viBTAvj B = eiTAej = aij, ∀ i, j ≤ n.
Si conclude A = J .
E cos`ı giustificata la seguente:`
(2.5) Definizione J = ((vi, vj)) si dice la matrice della forma ( , ) rispetto a B.
In virt`u di (2.3), ogni forma bilineare di Kn`e del tipo descritto nell’esempio 2). In tale esempio J `e la matrice della forma rispetto alla base canonica. Infatti, se B `e la base canonica di Kn, per ogni v ∈ Kn si ha v = vB.
(2.6) Lemma Sia J = ((vi, vj)) la matrice di una forma bilineare o hermitiana su V , rispetto a una base B = {v1, . . . , vn}.
1) La forma `e non singolare se e solo se det J 6= 0K;
2) se σ = idK, la forma `e simmetrica se e solo se JT = J ; 3) se σ = idK, la forma `e antisimmetrica se e solo se JT = −J ; 4) se σ 6= idK, la forma `e hermitiana se e solo se JT = Jσ. Dimostrazione.
1) Fissato v ∈ V , per ogni vi ∈ B si ha (vi, v) = eiTJ vσB.
Sia det J 6= 0K. Consideriamo v ∈ V non nullo. Se fosse eiTJ vσB = 0K per ogni i, si avrebbe J vBσ = 0Kn da cui, moltiplicando per J−1, la contraddizione vBσ = 0Kn. Pertanto (vi, v) 6= 0K per almeno un indice i. Concludiamo che la forma `e non degenere.
Viceversa la forma sia non degenere. Se fosse det J = 0K, esisterebbe w ∈ V non nullo tale che J wσB = 0Kn. Ne seguirebbe (v, w) = vTBJ wBσ = 0K per ogni v ∈ V , contraddizione. Si conclude det J 6= 0K.
2) e 4). Se la forma `e simmetrica o hermitiana si ha, in particolare, (vj, vi) = (vi, vj)σ, 1 ≤ i, j ≤ n
da cui JT = Jσ.
Viceversa, sia JT = Jσ. Notando che (v, w) = (v, w)T per ogni v, w ∈ V : (v, w) = vTBJ wBσ = vBTJ wσBT
= (wσB)T Jσ(vBσ)σ = wBTJ vB
σ
= (w, v)σ. Si conclude che la forma `e simmetrica se σ = idK, `e hermitiana se σ 6= idK. 3) Se la forma `e antisimmetrica, da
(vj, vi) = −(vi, vj), 1 ≤ i, j ≤ n segue JT = −J . Viceversa, se JT = −J , per ogni v, w ∈ V :
(v, w) = vBTJ wB = vBTJ wBT
= −wBTJ vB = −(w, v).
Si conclude che la forma `e antisimmetrica.
(2.7) Lemma Sia J ∈ Matn(K) la matrice di una forma sesquilineare su V , rispetto a una base B = {v1, . . . , vn}. Una matrice J0 ∈ Matn(K) `e la matrice della stessa forma rispetto una base B0 = {v10, . . . , vn0} se e solo se esiste P ∈ GLn(K) tale che:
(2.8) J0 = PTJ Pσ.
3. ORTOGONALIT `A 5
Dimostrazione.
Supponiamo che J0 sia la matrice della forma rispetto B0 e sia P := (v01)B . . . (v0n)B
la matrice di passaggio da B a B0. Per ogni v ∈ V si ha: vB= P vB0. Ne segue:
(v, w) = vTBJ wσB= vBT0PT J (PσwBσ0) = vTB0 PTJ Pσ wσB0. Pertanto PTJ Pσ soddisfa (2.3), da cui J0 = PTJ Pσ.
Viceversa, sia J0 = PTJ Pσ, con P ∈ GLn(K). Essendo P invertibile esiste una base B0 di V tale che P `e la matrice di passaggio da B a B0. Per il punto precedente J0 `e la matrice della forma rispetto B0.
(2.9) Definizione Diremo che due matrici J, J0 ∈ Matn(K) sono congruenti se esiste P ∈ GLn(K) tale che PtJ P = (J0)σ.
E facile verificare che la congruenza `´ e una relazione di equivalenza.
Per il precedente lemma, se J `e la matrice di una forma sesquilineare rispetto una data base di V , allora J0 `e congruente a J se e solo se `e la matrice della stessa forma rispetto una conveniente base B0.
3 Ortogonalit`a
In questo paragrafo consideriamo una forma ( , ) : V × V → K che sia bilineare simmet- rica o antisimmetrica, oppure hermitiana.
(3.1) Definizione Due vettori u, w ∈ V si dicono ortogonali se (u, w) = 0K. In virt`u dell’assioma (w, u) = ±(u, w)σ l’ortogonalit`a fra vettori `e simmetrica.
(3.2) Lemma Per ogni sottoinsieme W di V il sottoinsieme W⊥ dei vettori di V ortogonali a tutti i vettori di W `e un sottospazio. Pertanto
W⊥:= {v ∈ V | (v, w) = 0, ∀ w ∈ W }
`
e detto il sottospazio ortogonale a W . Dimostrazione.
• 0V ∈ W⊥ poich`e (0V, w) = 0 per ogni w ∈ W .
• Siano v1, v2 ∈ W⊥ e λ1, λ2∈ K. Ne segue
(λ1v1+ λ2v2, w) = λ1(v1, w) + λ2(v2, w) = 0K+ 0K= 0K, ∀ w ∈ W.
Si conclude che λ1v1+ λ2v2 ∈ W⊥, che `e pertanto un sottospazio.
(3.3) Definizione Siano U, W due sottospazi di V . Scriviamo V = U ⊥ W e diciamo che V `e somma ortogonale di U e W se
1) V = U ˙+W `e somma diretta di U e W ;
2) U ≤ W⊥, ossia (u, w) = 0K per ogni u ∈ U , w ∈ W . Un sottospazio W si dice totalmente isotropo se W ≤ W⊥. (3.4) Lemma Supponiamo che la forma sia non degenere.
Per ogni sottospazio W di V si ha:
dim(W⊥) = dim(V ) − dim(W ).
In particolare:
i) la dimensione di un sottospazio totalmente isotropo `e ≤ 12dim V ;
ii) se la restrizione della forma a W `e non degenere, si ha V = W ⊥ W⊥. Inoltre la restrizione della forma a W⊥ `e non degenere.
Dimostrazione. Sia {w1, . . . , wm} una base di W . Per ogni v ∈ V si ha:
(3.5) v ∈ W⊥ ⇐⇒ (wi, v) = 0K, 1 ≤ i ≤ m.
Detta B = {w1, . . . , wm, wm+1, . . . , wn} una base di V che estende quella scelta per W , sia J la matrice della forma rispetto B. Si ha allora:
(3.6) v ∈ W⊥ ⇐⇒ eiTJ vBσ = 0K, 1 ≤ i ≤ m.
Ossia i vettori v ∈ W⊥ sono quelli per cui vBσ `e soluzione del sistema
e1TJ X = 0K . . . emTJ X = 0K,
X := (x1, . . . xn)T.
Si tratta di un sistema lineare omogeneo in m equazioni e n = dim V indeterminate.
Essendo J non degenere, le sue righe (in particolare le prime m righe) sono indipendenti.
4. SPAZI SIMPLETTICI 7
Ne segue che le equazioni del sistema sono indipendenti. Quindi le sue soluzioni formano un sottospazio di dimensione n − m = dim V − dim W .
i) Sia W totalmente isotropo. Da W ≤ W⊥ segue dim W⊥≥ dim W . Quindi dim V − dim W ≥ dim W , da cui dim W ≤ 12dim V .
ii) Se la restrizione della forma a W `e non degenere, allora W ∩ W⊥= {0V}. Ne segue dim(W + W⊥) = dim W + dim W⊥ = dim V , da cui V = W ⊥ W⊥.
Infine sia u un vettore di W⊥, ortogonale a tutti i vettori di W⊥. Da V = W ⊥ W⊥ segue che u `e ortogonale a tutti i vettori di V . Quindi u = 0V perch`e la forma considerata
`
e non degenere.
(3.7) Teorema Ogni sottospazio totalmente isotropo di V `e contenuto in sottospazio totalmente isotropo massimale.
Dimostrazione. Siano U, W sottospazi totalmente isotropi di V , con W di dimensione massima fra quelle dei sottospazi totalmente isotropi. Ogni applicazione lineare iniettiva f : U → W soddisfa l’ipotesi del Lemma di Witt, e pu`o quindi essere estesa a un isometria f : V → V . Ne segue U ≤ bb f−1(W ), con bf−1(W ) totalmente isotropo massimale.
4 Spazi simplettici
(4.1) Definizione Uno spazio vettoriale V su K si dice simplettico se su di esso `e definita una forma bilineare, non degenere, tale che ogni vettore v ∈ V `e isotropo, ossia
(v, v) = 0K.
Scopo di questo paragrafo `e dimostrare che esiste essenzialmente un unico spazio sim- plettico su K per ogni n pari.
Per la bilinearit`a, un prodotto simplettico `e antisimmetrico. Infatti, per ogni v, w ∈ Kn: 0 = (v + w, v + w) = (v, v) + (v, w) + (w, v) + (w, w) = (v, w) + (w, v).
Ne segue (w, v) = −(v, w).
(4.2) Teorema Sia V uno spazio simplettico su K, di dimensione n.
1) n = 2m `e pari;
2) esiste una base B di V rispetto alla quale la forma ha matrice:
(4.3) J =
0 Im
−Im 0
.
Dimostrazione. Induzione su n.
Se fosse n = 1, per qualunque base {v} di V si avrebbe (v, v) = 0K, in contrasto con l’ipotesi che V `e non degenere. Quindi n ≥ 2.
Per la non-degenericit`a della forma, esistono v1, w ∈ V tali che λ := (v1, w) 6= 0K. In particolare v1 e w sono linearmente indipendenti. Posto w1 := λ−1w, si ha:
(v1, w1) = v1, λ−1w = λ−1(v1, w) = 1K.
Se n = 2 abbiamo l’asserto. Infatti la matrice della forma rispetto B = {v1, w1} `e J =
0 1
−1 0
.
Per n > 2, il sottospazio W := hv1, w1i `e non singolare. Ne segue V = W ⊥ W⊥.
W⊥`e non degenere, quindi `e uno spazio simplettico di dimensione n−2. Per induzione su n si ha n−2 = 2(m−1) pari. Inoltre W⊥ammette una base {v2, . . . , vm, w2, . . . , wm} rispetto alla quale la matrice della forma `e del tipo di (4.3). Scegliendo
B = {v1, . . . , vm, w1, . . . , wm} si ha la tesi.
5 Spazi ortogonali e spazi unitari
Su un campo K di caratteristica 2, le forme bilineari simmetriche sono antisimmetriche.
Per tale ragione, per studiare gli spazi ortogonali in caratteristica 2, `e necessario intro- durre e classificare le forme quadratiche. Siccome qui non le trattiamo, per gli spazi ortogonali ci limitiamo al caso di caratteristica 6= 2.
(5.1) Definizione Sia V uno spazio vettoriale su un campo K.
5. SPAZI ORTOGONALI E SPAZI UNITARI 9
• V si dice uno spazio ortogonale se K ha caratteristica 6= 2 ed `e definita una forma bilineare simmetrica, non degenere ( , ) : V × V → K.
• V si dice uno spazio unitario se K che ha un automorfismo di periodo 2 ed `e definita una forma hermitiana, non degenere ( , ) : V × V → K.
(5.2) Definizione Sia V uno spazio ortogonale o hermitiano e sia B = {v1, . . . , vn} una sua base.
• B si dice ortogonale se (vi, vj) = 0 per ogni i 6= j.
• B si dice ortonormale se `e ortogonale e (vi, vi) = 1 per ogni i.
Equivalentemente B `e una base ortogonale se la matrice della forma rispetto B `e diago- nale. B `e una base ortonormale se la matrice della forma rispetto B `e quella identica.
(5.3) Teorema Sia V uno spazio ortogonale o hermitiano su K. Nel caso in cui V `e ortogonale si supponga char K 6= 2. Allora V ha una base ortogonale.
Dimostrazione. Basta dimostrare che esiste v ∈ V tale che (v, v) 6= 0K. Infatti, in tal caso, il sottospazio hvi `e non-degenere. Ne segue
V = hvi ⊥ hvi⊥.
Poichh`e hvi⊥ha dimensione n − 1 possiamo supporre, per induzione su n, che abbia una base ortogonale B. Pertanto {v} ∪ B `e una base ortogonale di V .
Resta da dimostrare l’esistenza di v ∈ V tale che (v, v) 6= 0K.
Per la non-degenericit`a della forma, esistono u, w ∈ V tali che λ := (u, w) 6= 0K. Se (u, u) 6= 0K oppure (w, w) 6= 0K siamo a posto. Quindi possiamo supporre
(u, u) = (w, w) = 0.
Se char K 6= 2, ponendo v = λ−1u + w si ha:
(v, v) = λ−1(u, w) + λ−1σ
(w, u) = λ−1λ + (λσ)−1λσ = 21K 6= 0K.
Se char K = 2, allora V `e unitario. Poich`e l’automorfismo σ di K che definisce la forma hermitiana non `e idK, esiste α ∈ K tale che ασ6= α. Scegliendo v = λ−1αu + w si ha
(v, v) = α + ασ = α − ασ 6= 0K.
(5.4) Osservazione Se K ha caratteristica 2, una forma bilineare simmetrica pu`o non ammettere basi ortogonali. Ad esempio, per n = 2`, consideriamo la forma bilineare indotta dalla matrice 0 I`
I` 0
rispetto alla base canonica di Kn. Tale forma `e non degenere (e definisce uno spazio simplettico in caratteristica 2), ma non ammette basi ortogonali dato che tutti i vettori sono isotropi.
(5.5) Corollario
1) Uno spazio ortogonale V su C ha una base ortonormale;
2) uno spazio hermitiano V su C (rispetto all’automorfismo coniugio σ di C), tale che (v, v) > 0 per ogni v 6= 0V, ha una base ortonormale;
3) uno spazio ortogonale V su R, tale che (v, v) > 0 per ogni v 6= 0V in V , ha una base ortonormale.
Dimostrazione.
Per il Teorema 5.3 esiste una base ortogonale B = {v1, . . . , vn} di V . Poniamo (vi, vi) := λi, 1 ≤ i ≤ n.
1) Per ogni i ≤ n esiste µi∈ C tale che µ2i = λ−1i . Una base ortonormale `e quindi:
B0 =µ−11 v1, . . . , µ−1n vn .
2) e 3) Nel punto 2) notiamo che la condizione (v, v) = (v, v)σ implica (v, v) ∈ R per ogni v ∈ V . Ha quindi senso la condizione (v, v) > 0.
Per ipotesi ogni λi `e un reale positivo. Esiste quindi µi ∈ R tale che µ2i = λ−1i per ogni i ≤ n. Definendo B0 come nel caso precedente si ottiene una base ortonormale.
(5.6) Osservazione Dal Teorema 5.3 segue facilmente che uno spazio ortogonale V , di dimensione n su R, ha una base ortogonale rispetto alla quale la forma ha matrice
D = diag
1, . . . , 1
| {z }
h
, −1, . . . , −1
| {z }
n−h
per qualche h tale che 0 ≤ h ≤ n. Per il Teorema di Sylvester [5, Cap. VIII, & 6, pag 165] due matrici D e D0 di questo tipo sono congruenti solo se hanno lo stesso numero di componenti uguali a 1.
6. ALCUNE PROPRIET `A DEI CAMPI FINITI 11
Come si intuisce dai casi fin qui considerati, la classificazione delle forme bilineari sim- metriche e hermitiane dipende essenzialmente dal campo K. Nel caso dei campi finiti si riesce a dare una classificazione completa, come vedremo nell’ultimo paragrafo di questo capitolo.
6 Alcune propriet`a dei campi finiti
Per la classificazione delle forme bilineari e simmetriche sui campi finti avremo bisogno delle propriet`a espresse dal seguente Lemma.
(6.1) Lemma Siano K un campo finito e X :=α2 | α ∈ K l’insieme dei quadrati.
1) Se l’ordine di K `e pari, allora X = K;
2) se l’ordine di K `e `e dispari, allora K \ X 6= ∅. Inoltre fissato ∈ K \ X si ha:
K = X ∪ X = {0} ˙∪α2| α ∈ K∗ ˙∪α2 | α ∈ K∗ ;
3) ogni elemento di K `e somma di due quadrati;
4) Se |K| = q2`e un quadrato, per ogni λ ∈ Fq(sottocampo di K di ordine q), l’ equazione xq+1 = λ
ha q + 1 radici in K.
Dimostrazione.
1) Posto |K| = 2a, il monomorfismo di Frobenius ϕ : K → K definito ponendo ϕ(α) = α2 per ogni α ∈ K, `e una bijezione di K in s`e . Quindi X = Imϕ = K.
2) L’applicazione ϕ : K∗ → K∗, definita ponendo ϕ(α) = α2 per ogni α ∈ K∗, `e un omomorfismo di gruppi moltiplicativi. Kerϕ =α | α2 = 1 = {1, −1} ha ordine 2.
Per il Teorema degli omomorfismi fra gruppi K∗
Kerϕ ' Imϕ.
Posto |K| = q, si deduce q−12 = |Imϕ|. Notando che X = {0} ∪ Imϕ, si conclude
|X| = 1 + q − 1
2 = q + 1 2 < q.
Infine 6∈ Imϕ essendo un non-quadrato. Ne segue Imϕ ∩ (Imϕ) = ∅.
Poich`e |(Imϕ) | = |Imϕ| = q−12 si conclude
K∗ = Imϕ ˙∪ (Imϕ) =α2 | α ∈ K∗ ˙∪α2 | α ∈ K∗ .
3) Se |K| = 2a, ogni β ∈ K `e un quadrato per il punto 1). Ne segue β = α2+ 02 per un opportuno β ∈ K. Se |K| = q dispari, fissato β ∈ K, consideriamo l’applicazione
tβ : X → K tale che x 7→ β − x, ∀ x ∈ X.
Essa `e iniettiva, quindi |tβ(X)| = |X| = q+12 . Ne segue |X| + |tβ(X)| = q + 1 da cui X ∩ tβ(X) 6= ∅.
Sia ρ ∈ X ∩ tβ(X). Da ρ ∈ X segue ρ = α2 per qualche α ∈ K. Da ρ ∈ tβ(X) segue ρ = β − γ2 per qualche γ ∈ K. Si conclude β = α2+ γ2.
4) Fq2 contiene Fq. Per ogni α ∈ Fq2 si ha ααq ∈ Fq. Infatti (ααq)q = αqαq2 = ααq. Possiamo quindi considerare l’omomorfismo τ : F∗q2 → F∗q tale che
α 7→ ααq, ∀ α ∈ F∗q2.
Ker τ =α | αq+1= 1 ha ordine k ≤ q + 1. Dal teorema degli omomorfismi fra gruppi segue |Im τ | = q2k−1 ≥ q − 1. Poich`e il codominio di τ ha ordine q − 1 si conclude che Ker τ ha ordine q + 1 e che Im τ ha ordine q − 1, ossia τ `e suriettiva.
Infine, detta λ una preimmagine di λ, per ogni t ∈ Ker τ si ha (tλ)q+1 = τ (tλ) = λ.
Pertanto i q + 1 elementi tλ, t ∈ Ker τ , sono le radici di xq+1 = λ.
7 Spazi ortogonali e unitari sui campi finiti
In questo paragrafo supponiamo K = Fq finito e descriviamo la classificazione completa degli spazi ortogonali e unitari su Fq. Vedremo che, per ogni dimensione n fissata, esistono due spazi ortogonali non isometrici e un unico spazio hermitiano.
(7.1) Lemma Sia V uno spazio ortogonale di dimensione n ∈ {2, 3} su K, con |K| = q dispari, e sia un prefissato non-quadrato in K.
1) Se n = 2 e V ha un vettore isotropo non nullo, esiste una base rispetto alla quale la matrice della forma `e 0 1
1 0
;
7. SPAZI ORTOGONALI E UNITARI SUI CAMPI FINITI 13
2) se n = 2 e V non ha vettori isotropi non nulli, esiste una base rispetto alla quale la matrice della forma `e 1 0
0 −
;
3) se n = 3, per ogni λ ∈ K esiste v ∈ V , non nullo, tale che (v, v) = λ. In particolare in V ci sono vettori isotropi non nulli.
Dimostrazione.
1) Sia v1un vettore isotropo non nullo di V . Poich`e la forma `e non-degenere, esiste w ∈ V tale che (v1, w) 6= 0K. In particolare v1 e w sono linearmente indipendenti. Ponendo w1 := (v1, w)−1w si ha (v1, w1) = 1K. Sia (w1, w1) = α. Definendo v2 := −α2v1+ w1 si ottiene una base {v1, v2} di V rispetto alla quale la matrice della forma `e quella voluta.
2) Per il Teorema 5.3, esiste una base {w1, w2} di V rispetto alla quale la forma ha matrice diagonaleα 0
0 β
. Per il punto 2) del Lemma 6.1, possiamo supporre α = α21i,
−β = β12j con i, j ∈ {0, 1}. Quindi, rispetto alla base B =α−11 w1, β1−1w2 la matrice della forma `e
i 0 0 −j
, i, j ∈ {0, 1} . Se fosse i = j il vettore e1+ e2=1
1
sarebbe isotropo. Scambiando eventualmente w1
con w2 possiamo pertanto supporre i = 0, j = 1, da cui l’asserto.
3) Sia B una base di V rispetto alla quale la forma ha matrice diagonale J . Almeno due degli elementi della diagonale principale di J sono entrambi dei quadrati o entrambi dei non quadrati. Pertanto, a meno di moltiplicazioni dei vettori della base per e di un loro riordinamento, possiamo supporre J = diag(α, α, β). Siano x, y ∈ K tali che
x2+ y2= λ − β α .
Detto v il vettore di V tale che vB = (x, y, 1)T si ha v 6= 0V e (v, v) = λ.
(7.2) Teorema Sia V uno spazio ortogonale o Hermitiano di dimensione n ≥ 2 su un campo finito K di ordine q. Supponiamo inltre che sia un non-quadrato in K.
1) se q `e dispari e V `e ortogonale, allora esiste una base rispetto alla quale la forma ha una delle seguenti matrici:
(7.3) J1 = 0 Im
Im 0
, J2 =
0 Im−1
Im−1 0
1 0
0 −
, se n = 2m;
(7.4) K1 =
1
0 Im
Im 0
, K2 =
1
0 Im
Im 0
, se n = 2m + 1.
Le matrici J1 e J2 non sono congruenti. Analogamente K1 e K2 non sono congruenti.
2) Se V `e Hermitiano, esiste una base ortonormale di V . Dimostrazione.
1) Supponiamo n = 2m e ragioniamo per induzione su m.
Il caso m = 1 `e dimostrato nel Lemma 7.1. Supponiamo quindi m ≥ 2 e consideriamo una base ortogonale {v1, . . . , vn} di V . Il sottospazio hv1, v2, v3i `e non-degenere. Per il punto 3) del Lemma 7.1 ha un vettore isotropo non nullo w. Inoltre ha un vettore u tale che (w, u) 6= 0. Dal punto 1) dello stesso Lemma segue che il sottospazio non singolare W = hw, ui ammette una base {w1, w2} tale che (w1, w1) = (w2, w2) = 0, (w1, w2) = 1.
Consideriamo la decomposizione ortogonale
V = W ⊥ W⊥.
Applicando l’ipotesi induttiva a W⊥, che ha dimensione n − 2, concludiamo che esiste una base di V rispetto alla quale la forma ha matrice una delle seguenti:
0 1 1 0
0 Im−2
Im−2 0
≡ J1,
0 1 1 0
0 Im−3
Im−3 0
1 0 0 −
≡ J2.
La dimensione di un sottospazio totalmente isotropo massimale relativamente a J1 `e m. Infatti il sottospazio generato dai primi m vettori della base `e totalmente isotropo.
D’altra parte, per il punto i) del Lemma 3.4, un sottospazio totalmente isotropo non pu`o avere dimensione superiore a m = n2.
Invece la dimensione di un sottospazio totalmente isotropo massimale relativamente a J2 `e m − 1. Infatti il sottospazio W , generato dai primi m − 1 vettori della base, `e totalmente isotropo. Se non fosse massimale, per il Lemma 3.7 sarebbe contenuto in un sottospazio isotropo massimale U , necessariamente contenuto in W⊥. Ma W⊥ ha dimensione n−(m−1) = m+1 e coincide quindi con il sottospazio generato da W e dagli ultimi due vettori della base. Un calcolo diretto mostra che W `e isotropo massimale in W⊥. Si conclude che J1 non `e congruente a J2.
7. SPAZI ORTOGONALI E UNITARI SUI CAMPI FINITI 15
Supponiamo ora n = 2m + 1 e ragioniamo per induzione su n.
Se n = 1 l’asserto `e ovvio. Se n ≥ 3, esiste v ∈ V tale che (v, v) = 1. Quindi V = hvi ⊥ hvi⊥.
La restrizione della forma al sottospazio di dimensione 2m deve avere matrice (rispetto a una data base) congruente a una delle due precedenti. Pertanto vi sono, al massimo, due matrici simmetriche non congruenti in GL2m+1(K). D’altra parte K1 e K2 non sono congruenti. Infatti, se lo fossero, esisterebbe P non singolare tale che
PTK1P = K2 = K1
da cui
(det P )2det K1 = det K1. In tal caso sarebbe un quadrato, contraddizione.
2) Se K = F2q e V `e Hermitiano, sappiamo che esiste una base ortogonale {v1, . . . , vn} di V , ossia una base rispetto alla quale la forma ha matrice diagonale
diag(λ1, . . . , λn), λi= λσi = λqi, 1 ≤ i ≤ n.
Per il punto 4) del Lemma 6.1, per ogni i ≤ n esiste µi ∈ Fq2 tale che µiq+1 = λ−1i .
Ne segue che la base
B := {µ1v1, . . . , µnvn}
`
e ortonormale.
Capitolo II
I gruppi classici
Per la descrizione dei gruppi di matrici ci siamo basati sul libro di Carter [2].
1 Il gruppo generale lineare
Siano K un campo e n un numero naturale ≥ 1.
(1.1) Definizione Il gruppo delle matrici n × n, a elementi in K, con determinante 6= 0, si dice gruppo generale lineare di rango n su K, e si indica con GLn(K).
Per il Teorema di Binet, l’applicazione
δ : GLn(K) → K∗
tale che A 7→ det A, `e un epimorfismo di gruppi moltiplicativi. Il nucleo di δ `e costituito dal gruppo speciale lineare SLn(K) delle matrici di determinante 1. SLn(K) `e quindi un sottogruppo normale di GLn(K). Inoltre, dal teorema degli omomorfismi segue che
GLn(K)
SLn(K) ∼ K∗.
Indichiamo con Z il centro di GLn(K), cio`e l’insieme degli elementi che commutano con tutti gli altri. Esso risulta essere l’insieme delle matrici scalari λI con λ ∈ K∗.
(1.2) Definizione
• Si dice gruppo proiettivo generale lineare il quoziente GLn(K)
Z := PGLn(K).
• Si dice gruppo proiettivo speciale lineare il quoziente SLn(K)
Z ∩ SLn(K) := PSLn(K).
17
Se K `e finito e ha ordine q tali gruppi si indicano rispettivamente con GLn(q), SLn(q), PGLn(q), PSLn(q).
Sia data una forma bilineare o Hermitiana, rispetto un automorfismo σ di K:
(1.3) ( , ) : Kn× Kn→ K.
Ricordiamo che un’isometria di (1.3) `e un elemento g ∈ GLn(K) tale che (gv, gw) = (v, w), ∀ v, w ∈ Kn.
Sia J la matrice di (1.3) rispetto alla base canonica B di Kn. Poich`e ogni vettore v ∈ Kn coincide con il proprio vettore coordinate vB si ha:
(v, w) = vTJ wσ, ∀ v, w ∈ V.
Ne segue che un elemento g di GLn(K) `e una isometria se e solo se vTJ wσ = (gv)TJ (gw)σ = vT(gTJ gσ)wσ, ∀ v, w ∈ Kn
se e solo se (applicando la precedente condizione ai vettori della base canonica):
gTJ gσ = J.
(1.4) Lemma
1) L’insieme H delle isometrie di (1.3) `e un sottogruppo di GLn(K).
2) Per ogni matrice invertibile P , il coniugato P−1HP `e il gruppo delle isometrie del prodotto scalare la cui matrice, rispetto alla base canonica, `e
J0 = PTJ Pσ.
Dimostrazione. Per quanto sopra osservato si ha:
H :=h ∈ GLn(K) | hTJ hσ = J . 1) I ∈ H. Se x, y ∈ H, allora
(xy)TJ (xy)σ = yT(xTJ xσ)yσ = yTJ yσ = J, da cui xy ∈ H. Inoltre x−1 ∈ H. Infatti, da xTJ xσ = J segue
(xT)−1xTJ xσx−σ = (xT)−1J x−σ,
2. IL GRUPPO SIMPLETTICO 19
ossia J = (x−1)TJ x−1σ
.
2) Per ogni h ∈ H, si ha: (P−1hP )TJ0(P−hP )σ = J0 se e solo se hTJ hσ = J .
(1.5) Osservazione E importante osservare che due gruppi coniugati H e P` −1HP sono isomorfi, tramite l’isomorfismo h 7→ P−1hP . Pertanto, se B e B0 sono due basi di Kn, e J, J0 le corrispondenti matrici di una stessa forma, i relativi gruppi di isometrie sono in generale diversi, ma hanno la stessa struttura, essendo isomorfi.
2 Il gruppo simplettico
(2.1) Definizione Il gruppo delle isometrie di uno spazio simplettico si dice gruppo simplettico e si indica con Spn(K).
Per quanto visto nel capitolo precedente, uno spazio simplettico ha dimensione pari n = 2` e ammette una base rispetto alla quale il prodotto ha matrice
J =
0 I`
−I` 0
. Pertanto, a meno di coniugio, si pu`o supporre
Sp2`(K) =g ∈ GL2`(K) | gtJ g = J .
Notiamo che he1, . . . , e`i, `e un sottospazio totalmente isotropo massimale.
Si dimostra che tutti gli elementi di Sp2`(K) hanno determinante 1.
Inoltre il centro di Sp2`(K) `e il sottogruppo generato da −I.
(2.2) Definizione Si definisce gruppo proiettivo simplettico il gruppo quoziente:
Sp2`(K)
h−Ii := PSp2`(K).
Se K `e finito, di ordine q, tali gruppi si indicano rispettivamente con Sp2`(q), PSp2`(q).
3 I gruppi ortogonali in caratteristica 6= 2.
(3.1) Definizione Supponiamo che K abbia caratteristica diversa da 2. Il gruppo delle isometrie di uno spazio ortogonale su K si dice gruppo ortogonale
In generale, essendoci spazi ortogonali non isometrici, vi sono pi`u gruppi ortogonali. Nel caso in cui K `e finito, di ordine q, per quanto visto nel capitolo precedente esistono due spazi ortogonali non isometrici, definiti dalle seguenti matrici, in cui hi = K∗.
Se n = 2`:
J1 =
0 I` I` 0
, J2 =
0 I`−1 I`−1 0
1
−
.
Se n = 2` + 1:
K1 =
1
0 I` I` 0
, K2 = K1.
(3.2) Definizione Nel caso |K| = q, dispari, le notazioni per i gruppi ortogonali:
• O+2`(q) =h ∈ GL2`(q) | hTJ1g = J1 ;
• O−2`(q) =h ∈ GL2`(q) | hTJ2g = J2 ;
• O+2`+1(q) =h ∈ GL2`+1(q) | hTK1g = K1 .
Notiamo che, in dimensione dispari, nonostante vi siano due spazi ortogonali non iso- metrici, i relativi gruppi di isometrie coincidono. Infatti, essendo K2 multipla di K1, si ha:
hTK2g = K2 ⇐⇒ hTK1g = K1 ⇔ hTK1g = K1.
Tutti questi gruppi sono costituiti da matrici di determinante ±1. Le loro intersezioni con il gruppo speciale lineare si indicano rispettivamente con
• SO+2`(q);
• SO−2`(q);
• SO2`+1(q).
(3.3) Definizione Si chiama sottogruppo derivato di un gruppo G e si indica con G0 il sottogruppo generato dai commutatori, ossia:
G0:=x−1y−1xy | x, y ∈ G .
Segue da tale definizione che il sottogruppo derivato di un qualunque gruppo di matrici
`
e costituito da matrici di determinante 1, ossia che GLn(K)0 ≤ SLn(K).