Le coordinate di Pl¨
ucker per la
Grassmanniana affine
13 Marzo 2020
Tesi di Laurea Magistrale
Relatore:
Candidata:
Prof. Andrea Maffei
Martina Costa Cesari
Controrelatore:
Prof. Francesco Sala
1 Grassmanniana finita 5 1.1 Definizione . . . 5 1.2 Celle di Schubert . . . 8 1.3 Variet`a di Schubert . . . 11 1.4 Monomi standard . . . 13 1.5 Algoritmo di raddrizzamento . . . 16 2 Grassmanniana affine 19 2.1 Grassmanniana infinita . . . 19 2.1.1 Struttura di Ind-variet`a . . . 20 2.2 Grassmanniana affine . . . 21 2.3 B-orbite . . . 23 2.4 Ordine di Bruhat . . . 27 2.5 Variet`a di Schubert . . . 34 3 Coordinate di Pl¨ucker 37 3.1 Rinormalizzazione degli indici . . . 39
3.2 Rappresentazione di celle tramite matrici . . . 39
3.3 Coordinate di Pl¨ucker ammissibili . . . 42
3.4 Relazioni quadratiche . . . 45 3.5 Indipendenza lineare delle coordinate di Pl¨ucker ammissibili . 50
Bibliografia 51
Lo scopo di questa tesi `e analizzare la Grassmanniana affine e calcolarne le coordinate di Pl¨ucker. Le Grassmanniane sono oggetto di particolare inte-resse nello studio della geometria algebrica. Nel diciannovesimo secolo Julius Pl¨ucker introdusse le cosiddette coordinate di Pl¨ucker, studi`o lo spazio delle linee nello spazio proiettivo 3-dimensionale P3 e trov`o sei coordinate omoge-nee per descriverlo. In questo modo cap`ı l’esistenza di una corrispondenza tra lo spazio delle linee in P3 e i punti di una quadrica in P5. Questo lavoro venne generalizzato da Grassmann che introdusse il concetto di Grassman-niana, ovvero lo spazio dei sottospazi di dimensione k in uno spazio vettoriale n-dimensionale. Strettamente correlate alla Grassmanniana sono le variet`a di Schubert. Queste sono uno strumento importante introdotto dal matema-tico Hermann C¨asar Hannibal Schubert , utile nello studio della geometria enumerativa. Le coordinate di Pl¨ucker si possono applicare alla descrizione di alcuni anelli di coordinate di variet`a rilevanti nella teoria di Lie. Di questo ci sono anche esempi nel caso finito dimensionale, per esempio le relazioni di Pl¨ucker per la grassmanniana Gr(n, 2n) determinano facilmente le rela-zioni tra i minori di ordine qualsiasi per una matrice n × n, poich´e possiamo vedere lo spazio delle matrici come un aperto in questa grassmanniana e le coordinate di Pl¨ucker si specializzano ai minori della matrice.
La grassmanniana affine sembra poter generalizzare notevolmente le pos-sibilit`a di applicazione di strategie simili. Un esempio `e sviluppato nell’arti-colo [2], dove si usano le coordinate di Pl¨ucker per la Grassmanniana affine nel calcolo dell’anello delle coordinate delle orbite nilpotenti. Una classe di
ta di Schubert, ma a priori non si sa se la struttura della variet`a sia ridotta. La conoscenza esplicita di una base delle coordinate compatibile con quelle della variet`a di Schubert permetterebbe di verificare questa propriet`a.
La tesi si struttura in tre parti. Nella prima si studia la Grassmanniana finita. Si definiscono su questa le celle e le variet`a di Schubert, e si dimostra che la Grassmanniana si decompone in unione disgiunta di celle di Schubert. In seguito, con un approccio prevalentemente combinatorio, si studiano le relazioni tra le coordinate di Pl¨ucker e si dimostra che queste forniscono una base per l’anello delle coordinate proiettive di una variet`a di Schubert. Nella seconda parte si definiscono la Grassmanniana affine e la Grassman-niana infinita, e di queste si studia la struttura di Ind-variet`a, ottenuta prendendo come filtrazione particolari Grassmanniane finite,. Analogamen-te al caso finito, si definiscono le celle di Schubert e un ordine di Bruhat su queste, e si dimostra la decomposizione in celle della Grassmanniana affine. Si definiscono le variet`a di Schubert, che risulteranno essere la chiusura di una cella di Schubert.
Nella terza parte ci si restringe a considerare una particolare classe di variert`a di Schubert, il cui limite diretto sar`a la Grassmanniana affine. Sfruttando la struttura di Ind-variet`a della Grassmanniana infinita si definiscono le coor-dinate di Pl¨ucker per queste celle di Schubert in modo analogo a quelle del caso finito. Tra queste coordinate ci si restringe a studiare una particolare classe di queste che vengono definite “ammissibili”. Si trovano delle relazio-ni tra queste coordinate di Pl¨ucker ammissibili e si dimostra che sono una base per la parte di grado uno dell’anello delle coordinate delle variet`a di Schubert considerate.
Grassmanniana finita
In questo capitolo studieremo la Grassmanniana finita, ovvero l’insieme dei sottospazi di un C-spazio vettoriale. Daremo a questa una struttura di variet`a proiettiva e otterremo una decomposizione in celle, utilizzando le variet`a di Schubert. In seguito descriveremo l’anello delle coordinate di una variet`a di Schubert descrivendo le relazioni quadratiche tra le coordinate di Pl¨ucker.
1.1
Definizione
Sia V un C−spazio vettoriale di dimensione n, consideriamoVd(V ) per un
qualche d ≤ n. Osservazione 1.1.
(1) Dati v1, ..., vd∈ V , il vettore
v1∧ v2∧ · · · ∧ vd6= 0
se e solo se i vettori sono linearmente indipendenti. (2) Dati v1, ..., vd∈ V linearmente indipendenti e v
v ∧ v1∧ v2∧ · · · ∧ vd= 0
se e solo se v `e nel sottospazio generato dai vettori vi.
(3) Se v1, ..., vd e w1, ..., wdsono due insiemi di vettori linearmente
indipen-denti, allora
w1∧ w2∧ · · · ∧ wd= αv1∧ v2∧ · · · ∧ vd 0 6= α ∈ C
se e solo se i due insiemi generano lo stesso sottospazio d-dimensionale W di V .
Definizione 1.2. Definiamo la Grassmanniana Gr(d, V ) come l’insieme dei sottospazi di V di dimensione d.
Consideriamo e1, ..., en base canonica di V , allora ei1 ∧ · · · ∧ eid con
i1 < i2 < ... < in `e una base di VdV . Siano v1, ..., vd ∈ V linearmente
indipendenti, possiamo rappresentarli come una n × d matrice X che ha questi vettori come colonne. Osserviamo che il rango della matrice `e d in quanto i vettori sono linearmente indipendenti. Nella base ei1 ∧ · · · ∧ eid
diVdV le coordinate di v
1∧ · · · ∧ vd sono date dai minori massimali della
matrice X. Indicheremo con X[i1, ..., id] il determinante del minore di X
ottenuto considerando le righe i1, ..., id, e chiameremo questo coordinata di
Pl¨ucker. Si ha
v1∧ · · · ∧ vd=
X
1≤i1≤···≤id≤n
X[i1, ..., id]ei1∧ · · · ∧ eid
In questo modo possiamo identificare {(v1, ..., vd) ∈ Vd | v1∧ · · · ∧ vd6= 0}
con l’insieme Sn,d delle matrici n × d di rango d. Indichiamo con W (X) il
sottospazio di V generato dalle colonne di X. Il gruppo Gl(d, C) agisce per moltiplicazione a destra su Sn,d, in particolare se A ∈ Gl(d, C), X, Y ∈ Sn,d,
si ha
W (X) = W (Y ) ⇐⇒ Y = XA Y [i1, ..., id] = det(A)X[i1, ..., id]
Pertanto possiamo identificare Gr(d, V ) con l’insieme delle orbite dell’a-zione di Gl(d, C) su Sn,d.
Quindi si ha una corrispondenza tra i sottospazi d-dimensionali di V e lo spazio proiettivo P(Vd
W ←→ [W ]
w1, ..., wd ←→ [w1∧ w2∧ · · · ∧ wd]
dove w1, ..., wd`e una base di W . Osserviamo che questa mappa non dipende
dalla scelta della base di W , infatti se v1, ...., vd`e un’altra base, allora esiste
A ∈ Gld(C) che porta una base nell’altra, e per quanto osservato
precedente-mente v1∧· · ·∧vd= det(A)w1∧· · ·∧wd, quindi [v1∧· · ·∧vd] = [w1∧· · ·∧wd].
Data questa corrispondenza, vogliamo associare a Gr(d, V ) una struttura di variet`a proiettiva.
Il seguente lemma ci servir`a per dimostrare che Gr(d, V ) `e una sottovariet`a di P(Vd
V ).
Lemma 1.3. Data una mappa tra due spazi affini π : Ck → Ck+h, della
forma
π(x1, ..., xk) = (x1, ..., xk, p1, ..., ph)
dove pi sono polinomi nelle variabili x1, ..., xk, allora la sua immagine `e una
sottovariet`a chiusa di Ck+h e π `e un isomorfismo sulla sua immagine. Dimostrazione. L’immagine `e la sottovariet`a chiusa data da
xk+i− pi= 0.
Inoltre si vede facilmente che l’inversa di π `e la mappa (x1, ..., xk+h) → (x1, ..., xk).
Teorema 1.4. Gr(d, V ) `e una sottovariet`a liscia proiettiva di P(Vd V ). Dimostrazione. Consideriamo il ricoprimento affine aperto di P(Vd
V ) for-mato dagli aperti UI in cui la componente I = i1, ..., id `e diversa da zero.
Vogliamo provare che Gr(d, V ) ∩ UI `e un chiuso ed `e liscio. Per semplicit`a
consideriamo I = 1, 2, ..., d, un elemento W (X) ∈ Gr(d, V ) si trova in UI se
X[1, 2, ..., d] 6= 0, quindi la sottomatrice di X formata dalle prime d righe `e invertibile, pertanto possiamo rappresentare X nel seguente modo
X = A
T !
dove A ∈ Gld(C) e T ∈ Mn−d×n. Consideriamo le matrici della forma
X = Id
Z !
, con Z ∈ Mn−d×n, queste sono i rappresentanti dell’azione di
Gld(C) su Gr(d, V ) ∩ UI. Calcoliamo le coordinate di W (X) in P( VdV ). Osserviamo X[1, ...i − 1, d + k, i + 1, ..., d] = 1 . . . 0 0 0 . . . 0 . . . . 0 . . . 1 0 0 . . . 0 z1k . . . zi−1k zik zi+1k . . . zdk 0 . . . 0 0 1 . . . 0 . . . . 0 . . . 0 0 0 . . . 1 quindi X[1, ...i − 1, d + k, i + 1, ..., d] = zik, mentre le restanti coordinate
saranno polinomi in queste variabili. Allora ho una mappa π : (zij) −→
(zik, pj) con pj polinomi nelle zik, quindi, per il lemma precedente, π `e un
isomorfismo sull’immagine e questa `e una sottovariet`a chiusa di CN per un
certo N . Pertanto si ha che Gr(d, V ) ∩ UI `e una variet`a affine.
1.2
Celle di Schubert
Consideriamo una matrice X di rango d, la propriet`a che le righe i1, ..., id
siano linearmente indipendenti `e preservata dall’azione per moltiplicazione a destra per M ∈ Gld(C), quindi senza perdere di generalit`a
consideria-mo il sottospazio generato dalle colonne di X e lo indichiaconsideria-mo con W (X). Ora prendiamo wid l’ultimo vettore riga diverso da zero, e
induttivamen-te definiamo wik il primo vettore riga che `e linearmente indipendente con
wik+1, ..., wid. Indichiamo con s(W ) la sequenza di indici ii, ..., id ottenuta
dai vettori riga considerati.
Definizione 1.5. Definiamo cella di Schubert l’insieme Ci1,...,id = {W ∈ Gr(d, V ) | s(W ) = i1, ..., id}.
Osserviamo che Ci1,...,id `e contenuta nell’aperto di Gr(d, V ) dove le
come una matrice X ∈ Sd,n tale che la sottomatrice estratta prendendo le
righe i1, ..., id`e la matrice identit`a. Pertanto le righe i1, ..., idsono le colonne
della matrice identit`a, le righe dopo di idsono 0, e le righe tra ik+1 e ik sono
vettori con le coordinate minori di k uguali a 0.
Esempio 1.1. Consideriamo d = 4, n = 7, I = {i1= 2, i2= 4, i3 = 6, i4 = 7}, un rappresentante di CI `e a1 a2 a3 a4 1 0 0 0 0 a5 a6 a7 0 1 0 0 0 0 a8 a9 0 0 1 0 0 0 0 1
Osserviamo che da questa rappresentazione di una cella di Schubert pos-siamo concludere che questa `e un sottospazio affine chiuso di UI in quanto
`e descritto dall’annullarsi di certe coordinate. In particolare possiamo cal-colarne la dimensione che sar`a data dal numero di parametri liberi nella matrice che lo rappresenta, quindi vale il seguente risultato
Proposizione 1.6. CI `e un sottospazio chiuso dell’aperto UI della
Grass-manniana Gr(d, n) e la sua dimensione `e
dim(CI) = d−1
X
k=1
k(id+1−k− id−k− 1) + d(i1− 1).
Indichiamo con B ⊂ Gl(d, C) l’insieme delle matrici triangolari superiori. Vale il seguente risultato:
Teorema 1.7. CI `e una B-orbita, con I = (i1< .... < id).
Dimostrazione. Consideriamo X la matrice che rappresenta la cella CI, e
as-sociamo a X una n×n-matrice ˜X tale che la colonna ik`e uguale alla k-esima
colonna di X, e le altre sono le colonne della matrice identit`a. Chiaramente X = ˜XIi1,...,id
dove Ii1,...,id `e una matrice n × d la cui k-esima colonna corrisponde con la
colonna ik della matrice identit`a. Per costruzione la matrice ˜X `e triangolare
superiore, quindi CI `e una B-orbita. Vediamolo con l’esempio precedente.
X = 1 a1 0 a2 0 a3 a4 0 1 0 0 0 0 0 0 0 1 a5 0 a6 a7 0 0 0 1 0 0 0 0 0 0 0 1 a8 a9 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1
Siamo interessati a studiare le celle di Schubert per ottenere una decom-posizione in celle della Grassmanniana Gr(d, V ).
Definiamo un ordine sulle sequenze di indici crescenti
I = (i1, ..., id) ≤ J = (j1, ..., jd) ⇐⇒ i1 ≤ j1, ..., id≤ jd.
Proposizione 1.8. Sia I = (i1, ..., id), la cella di Schubert CI corrisponde
al sottoinsieme di Gr(d, V ) in cui [i1, ..., id] 6= 0 e [j1, ..., jd] = 0 per ogni
J I.
Dimostrazione.
⇒) Prendiamo W ∈ CI e sia X ∈ Sn,d tale che W (X) = W e tale che
la sottomatrice estratta dalle righe i1, ..., id sia l’identit`a. Sia J I,
possiamo distinguere due casi:
– supponiamo J > I, allora ∃ k tale che jk > ik, se considero
la sottomatrice di X formata dalle ultime n − k righe, questa avr`a al pi`u rango uguale a d − k − 1, quindi necessariamente X[j1, ..., jd] = 0.
– supponiamo ora che J e I non siano confrontabili, sicuramen-te ∃k tale che ik < jk < jk+1 < ik+1 quindi nella
sottomatri-ce X[j1, ..., jd] ho due righe linearmente dipendenti, cio`e
quel-le corrispondenti a jk e jk+1, quindi la coordinata di Pl¨ucker si
⇐) Consideriamo un punto W ∈ Gr(d, V ) e consideriamo X ∈ Sn,d la matrice che rappresenta W le cui righe i1, ..., id sono le corrispondenti
righe della matrice l’identit`a, e in modo tale che X[i1, ..., id] 6= 0 e
X[j1, ..., jd] = 0 se J I. Vogliamo provare che W ∈ CI, quindi che
s(W ) = I. Sia s(W ) = K = (k1, ..., kd), poich`e X[K] 6= 0, per il
punto precedente, K ≤ I. Se K < I allora per ipotesi avremmo che X[K] = 0, che `e assurdo, quindi K = I.
1.3
Variet`
a di Schubert
Consideriamo la bandiera standard
F1 =< e1> ⊂ F2 =< e1, e2> ⊂ · · · ⊂ Fn=< e1, ..., en> .
Dato uno spazio W ∈ CI, con I = (i1 < ... < id), consideriamo una matrice
X tale che X = W (X) e indichiamo con v1, ..., vdle sue colonne, per quanto
osservato nel paragrafo precedente X puo’ essere scelta senza perdere di generalit`a in modo che la sottomatrice estratta dalle righe corrispondenti agli indici di I sia la matrice identit`a. Consideriamo ora un generico vettore v ∈ W , v =Pd
k=1ckvk, osserviamo che la coordinata di v corrispondente a
ik `e proprio uguale a ck per 1 ≤ k ≤ d. Quindi otteniamo
W ∩ Fi = ( d X k=1 ckvk | ck= 0 se ik> i )
Quindi calcolando le dimensioni di queste intersezioni si ottiene di = dim(W ∩ Fi) = |{k | 1 ≤ k ≤ d, ik ≤ i}|.
Si ha
Proposizione 1.9.
I ≤ J ⇐⇒ dIi ≥ dJi ∀i Dimostrazione.
” ⇒ ” ik ≤ jk ≤ i ⇒ ik ≤ i, quindi |{k | ik ≤ i}| ≥ |{k | jk ≤ i}|, quindi
dIi ≥ dJ i.
” ⇐ ” Dimostriamo per induzione su k che ik ≤ jk ∀k = 1, ..., d.
Consi-deriamo k = 1, dJ1 ≤ dI
1 ≤ 1, quindi `e facile vedere che j1 ≥ i1.
Supponiamo che ih ≤ jh ∀h ≤ k, e proviamo che ik+1 ≤ jk+1. Se
per assurdo ik+1 > jk+1 allora Fik+1 =< e1, ..., ejk+1, ..., eik >, quindi
avremo che dJi k+1 > d I ik+1. Dato I = (i1, ..., id), definiamo SI= {W | dim(W ∩ Fi) ≥ di[I]}.
Osserviamo che CI = {W | dim(W ∩ Fi) = di[I]}, quindi
SI =
[
J ≤I
CJ. (1.1)
Per come abbiamo definito SI possiamo identificarlo con l’insieme dei punti
della Grassmanniana per cui le coordinate J I si annullano. Questo si vede facilmente da 1.1. Vogliamo dare una caratterizzazione geometrica di SI.
Teorema 1.10. SI `e la chiusura di Zariski di CI, ed `e chiamata variet`a di
Schubert.
Dimostrazione. Chiaramente CI ⊂ SI, inoltre SI `e un chiuso di Zariski,
infatti corrisponde con i punti in cui si annullano certe coordinate di Pl¨ucker. Quindi CI ⊂ SI. Proviamo ora che SJ ≤ICJ ⊂ CI. Consideriamo J =
(j1, ..., jd) adiacente ad I e J ≤ I, allora ∃k tale che jk= ik−1. Consideriamo
la matrice X tale che la sottomatrice estratta dalle righe i1, ..., id sia la
matrice identit`a, prendiamo poi la matrice A ∈ B tale che a11= ... = ann= 1
e ak,k+1 = ε e moltiplichiamo A con X, otteniamo una matrice in cui la
k-esima colonna `e il vettore eik + εeik−1, e le altre sono le colonne di X,
ad infinito, quello che otteniamo `e una matrice che appartiene alla cella di Schubert CJ. Vediamolo con un esempio, sia I = (2, 4, 6, 7) e J = (2, 3, 6, 7)
1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 ε 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1 = 0 0 0 0 1 0 0 0 0 ε 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1 W 0 0 0 0 1 0 0 0 0 ε 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1 = W 0 0 0 0 1 0 0 0 0 1 0 0 0 ε−1 0 0 0 0 0 0 0 0 1 0 0 0 0 1 −−−→ ε→∞ W 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1
1.4
Monomi standard
In questa sezione vogliamo descrivere le relazioni tra le coordinate di Pl¨ucker. Per farlo useremo un approccio puramente formale e combinatorio.
Sia Mn,d lo spazio delle matrici n × d con d ≤ n. Sia A = Z[xij] l’anello
delle funzioni polinomiali su Mn,da coefficienti interi. Consideriamo un
ele-mento in A come una funzione delle righe e lo denoteremo con f (x1, ..., xn).
Come nelle sezioni precedenti denotiamo con [i1, ..., id] il determinante del
minore massimale di X ∈ Mn,d estratto dalle righe i1, ..., id e chiamiamo
questa coordinata di Pl¨ucker.
Osservazione 1.11. Una coordinata di Pl¨ucker ha le seguenti propriet`a • [i1, ..., id] = 0 ⇐⇒ due indici coincidono.
• [i1, ..., id] `e multilineare come funzione dei vettori variabile.
Quello che vogliamo provare `e che le coordinate di Pl¨ucker soddisfa-no delle relazioni quadratiche. Assumiamo che n ≥ 2d e consideriamo il prodotto
f (x1, ..., xn) = [1, 2, ...., d][d + 1, ..., 2d]
Prediamo k ≤ d e consideriamo le d + 1 variabili xk, ..., xd, xd+1, ..., xd+k,
consideriamo X
σ∈Sd+1
σf (x1, ..., xk−1, xσ(k), ...., xσ(d), xσ(d+1), ..., xσ(d+k), xd+k+1, ..., x2d).
(1.2) questa `e una funzione multilineare e alternante in d + 1 variabili quindi deve essere 0 in quantoVd+1
(Zd) = 0. L’espressione 1.2 `e una relazione quadra-tica tra le coordinate di Pl¨ucker, semplifichiamo questa relazione.
La funzione [1, ..., d][d + 1, ..., 2d] `e alternante rispetto all’azione del sotto-gruppo Sd−k+1 × Sk delle permutazioni che permutano separatamente le
variabili k, ..., d e d + 1, ..., d + k. Quindi se g ∈ Sd+1, h ∈ Sd−k+1× Sk si ha
ghf (x1, ..., x2d) = hgf (x1, ..., x2d).
Siano g1, .., gN i rappresentanti dei laterali sinistri g(Sd−k+1× Sk),
chiara-mente 0 = N X i=1 gigif (x1, ..., x2d). (1.3)
Vogliamo scegliere i giin maniera opportuna. Consideriamo h elementi fuori
da xk, ..., xd e altri h diversi da xd+1, ..., xd+k e scambiamo i due insiemi
di elementi, e poi componiamo con un riordinamento degli indici in ogni coordinata di Pl¨ucker.
Questi elementi saranno i rappresentanti dei laterali sinistri g(Sd−k+1×
Sk), quindi possiamo riscrivere la relazione (1.3) con questi elementi.
Indi-chiamo con la scrittura
i1, ..., id j1, ..., jd
il prodotto tra le coordinate di Pl¨ucker [i1, ..., id] e [j1, ..., jd]. Vediamo
un esempio della relazione quadratica tra coordinate di Pl¨ucker appena descritta. Esempio 1.2. Sia d = 2, n = 4 si ha 0 = 1 4 2 3 − 1 2 4 3 − 1 3 2 4 = 1 4 2 3 + 1 2 3 4 − 1 3 2 4 .
Scegliamo ora degli indici i1, ..., id, j1, ..., jd e nella relazione (1.3)
sosti-tuiamo xh con ih per ogni e xd+h con jh per ogni 1 ≤ h ≤ d, quello che
otteniamo sar`a un espressione di questo tipo X i1, ..., ik, ..., id j1, ..., jk, ..., jd ∼ = 0 (1.4)
dove gli indici sottolineati sono quelli tra cui si effettuano gli scambi descritti precedentemente.
Quindi abbiamo descritto delle relazioni quadratiche tra le coordinate di Pl¨ucker. Ora dimostreremo che queste sono tutte e sole le relazioni che esistono.
Consideriamo l’anello dei polinomi nei simboli |i1, ..., id| come variabili
indipendenti con le condizioni
(S1) |i1, ..., id| = 0 se e solo se si ripetono due indici.
(S2) |i1, ..., id| `e antisimmetrico rispetto a una permutazione degli indici.
Possiamo pensare l’espressione (1.4) come un polinomio quadratico in Z[|i1, ..., id|].
inoltre osserviamo che se sostituiamo i simboli |i1, ..., id| con le coordinate di
Pl¨ucker [i1, ..., id] i polinomi quadratici nell’espressione 1.4 svaniscono. Sia
J l’ideale generato da questi polinomi, e consideriamo A = Z[|i1, ..., id|]/J .
Il nostro obiettivo `e dimostrare il seguente teorema Teorema 1.12. La mappa
j : A = Z[|i1, ..., id|]/J → Z[[i1, ..., id]]
Dimostreremo qualcosa di pi`u forte utilizzando la variet`a di Schubert descritta nella sezione precedente. Questo risultato ci dice che le relazioni tra le coordinate di Pl¨ucker sono tutte e sole quelle descritte precedentemente e che generano l’ideale J .
1.5
Algoritmo di raddrizzamento
Consideriamo un prodotto di coordinate di Pl¨ucker [i11, ..., i1d][i21, ..., i2d] . . . [in1, ..., ind]
e lo rappresentiamo con il seguente tableau i11 . . . i1d i21 . . . i2d . . . . . . in1 . . . ind
grazie alla propriet`a di antisimmetria, possiamo assumere che gli indici in ogni riga siano strettamente crescenti, altrimenti il prodotto `e zero oppure, a meno del segno,`e uguale al prodotto con la riga riordinata.
Definizione 1.13. Diciamo che un tableau rettangolare `e standard se le sue righe sono strettamente crescenti e le sue colonne sono non-decrescenti, e chiameremo monomio standard il corrispondente monomio.
Sar`a utile per la nostra trattazione associare a un tale tableau la parola ottenuta leggendo sequenzialmente i numeri di ogni riga, ovvero
i11, ..., i1d, i21, ..., i2d, . . . , in1, ..., ind.
e ordinare queste parole in ordine lessicografico.
Lemma 1.14. Un prodotto T di due coordinate di Pl¨ucker T = i1, ..., ik, ..., id j1, ..., jk, ..., jd
puo’ essere espresso tramite la relazione 1.4 come una combinazione lineare a coefficienti interi di tableaux standard con due righe, che sono pi`u piccoli di T nell’ordine lessicografico e che hanno gli stessi indici.
Dimostrazione. Possiamo assumere senza perdit`a di generalit`a che le righe siano strettamente crescenti. Dato che T non `e standard prendiamo il pi`u piccolo k per cui jk < ik. considero la relazione quadratica 1.2 applicata a
T , in questa somma compaiono dei tableaux in cui ho scambiato alcuni dei i1, ...., ik con j1, ..., jk, questi tableaux sono lessicograficamente pi`u piccoli
di T . Pertanto abbiamo ottenuto T come somma di tableaux lessicografica-mente pi`u piccoli, e questo `e il primo passo dell’algoritmo di raddrizzamento. Ora se i tableaux ottenuti sono standard si ha la tesi, se invece non `e cos`ı, applico lo stesso passo dell’algoritmo ai tableuax non standard della som-ma. Poich´e i tableaux con due righe di indici i1, ..., in e j1, ..., jn sono in
numero finito e totalmente ordinati lessicograficamente, questo algoritmo termina.
Teorema 1.15. Ogni tableau rettangolare con n righe `e una combinazione lineare a coefficienti interi di tableaux standard. Per arrivare alla forma standard si ripete l’algoritmo di raddrizzamento su due righe consecutive. Dimostrazione. La dimostrazione segue dal lemma precedente, perch´e appli-chiamo l’algoritmo descritto prima ad ogni coppia di righe fino ad ottenere la tesi.
Definizione 1.16. Diciamo che un monomio standard `e standard su SI se
`e il prodotto di coordinate di Pl¨ucker minori o uguali ad I.
Teorema 1.17. I monomi che sono standard su SI sono una base dell’anello
delle coordinate proiettive di SI.
Dimostrazione. I monomi che non sono standard su SI sono quelli in cui
le coordinate che li compongono non sono minori o uguali di I, quindi si annullano su SI. Ci resta da provare, allora, che i monomi standard sono
linearmente indipendenti se li restringo a SI. Supponiamo per assurdo che
esista una combinazione lineare di questi che si annulla su SI, a
X
k=1
e assumiamo che sia di grado minimo con questa propriet`a. Per ogni mono-mio Tkconsideriamo la sua coordinata minima pke quindi possiamo scrivere
Tk = pkTk0, tra le coordinate pk consideriamo pJ la pi`u piccola di tutte e
decomponiamo la somma b X k=1 ckpkTk0+ pJ( a X k=b+1 ckTk0),
dove nel primo termine ci sono tutti i monomi che cominciano con una coordinata diversa da pJ. Per ipotesi I ≥ J , se restringiamo la relazione su
SJ tutti i monomi che contengono delle coordinate non minori o uguali a J
svaniscono, quindi, poich`e pk> pJ, si ha
Pb
k=1ckpkTk0. Ma SJ`e irriducibile,
quindi il suo anello delle coordinate `e un dominio e pJ `e diverso da zero su
SJ, quindi necessariamente Pak=b+1ckTk0 = 0 su SJ. Poich`e J ≤ I si ha
SJ ⊂ SI, quindi questo `e nullo anche su SI e ha grado minore, quindi ho un
assurdo.
Pertanto abbiamo dimostrato un risultato pi`u forte del teorema 1.12, in quanto abbiamo provato che i monomi standard generano tutto l’anello delle coordinate di SI, e non solo Z[[i1, ..., in]].
Grassmanniana affine
Passiamo a definire la grassmanniana affine, in particolare troviamo un em-bedding di questa nella Grassmanniana infinita. Inoltre decomponiamo la Grassmanniana affine in celle di Schubert e definiamo un ordine di Bruhat sulle celle con cui dimostreremo che una variet`a di Schubert `e unione di celle di Schubert.
2.1
Grassmanniana infinita
In questa sezione definiamo la Grassmanniana infinita, che generalizza il concetto di grassmanniana finita visto nel capitolo precedente considerando sottospazi vettoriali di C∞.
Sia X il C-spazio vettoriale delle sequenze indicizzate dagli interi Z di numeri complessi. Indichiamo con C∞ il sottospazio di X delle sequenze aj con
aj = 0 per j << 0, indicher`o una tale successione con P∞j=Najej, quindi
C∞= ∞ X j=N ajej | N ∈ Z, aj ∈ C ,
inoltre sia k ∈ Z, definiamo
Ek = ∞ X j=k ajej | aj ∈ C 19
Definizione 2.1. Gr(∞), la Grassmanniana infinita, `e definita come l’in-sieme dei sottospazi V di C∞ tali che Em ⊂ V ⊂ E−m per un qualche
m ∈ N.
Definizione 2.2. Definiamo
vdim(V ) = dim(V /V ∩ E1) − dim(E1/V ∩ E1)
Preso j ∈ Z indichiamo Grj(∞) = {V ∈ Gr(∞) | vdim(V ) = j}
Osserviamo che preso V ∈ Gr(∞) esiste un m ∈ Z tale che Em ⊂ V
allora quozientando per Em si ottiene che V /Em `e contenuto in qualche
Grassmanniana finita. Possiamo quindi descrivere la Grassmanniana infini-ta come unione di Grassmanniane finite contenute una dentro l’altra.
2.1.1 Struttura di Ind-variet`a
Osserviamo che Gr(∞) possiede una struttura di Ind-variet`a proiettiva. Definizione 2.3. Con Ind-variet`a intendiamo un insieme X e una filtrazione X0 ⊂ X1⊂ X2 ⊂ ..., tali che
1. S
n≥0Xn= X,
2. Ogni Xn`e una variet`a di dimensione finita tale che l’inclusione Xn,→
Xn+1 `e un embedding chiuso.
Consideriamo s ∈ N e sia Vs = t−s(n−1)E1/tsE1, dove dimC(Vs) = sn2.
Consideriamo l’embedding φs: sn ^ Vs ,→ s+1 ^ Vs+1 v1∧ v2∧ ... ∧ vsn7→ v1∧ ... ∧ vsn∧ tse1∧ ... ∧ tsen, e definiamoV∞
V∞come il limite diretto lim−→(VsnVs). La mappa φsinduce
una immersione chiusa P(VsnV
s) → P( V(s+1)nV s+1), e definiamo P( V∞ V∞) = S s∈NP( Vsn
Vs), questo `e una Ind-variet`a proiettiva. Sia
Fs=nV ∈ Gr0(∞) | t−s(n−1)E1
Sia bs : Fs → Gr(sn, Vs), V 7→ V /tsE1, osserviamo che questa `e una
bige-zione, quindi possiamo identificare Fs con la sua immagine tramite bs. Sia
js l’embedding di Pl¨ucker di Gr(sn, Vs) nello spazio proiettivo P(VsnVs), si
ha il seguente diagramma commutativo Gr(sn, Vs) js // P(VsnVs) φs Gr((s + 1)n, Vs+1) j s+1 //P(V(s+1)n Vs+1). QuindiS s≥0Fs∼= S
s≥0Gr(sn, Vs), pertanto possiamo vedere
S
s≥0Fscome
una sotto-Ind-variet`a chiusa di P(V∞ V∞). Proposizione 2.4. Gr0(∞) = [ s≥0 Fs Dimostrazione. Sia V ∈ Gr(∞) tale che tsE
1 ⊂ V ⊂ t−s(n+1)E1. Si ha
V ∈ Fs se e solo se
sn = dim(V /tsE1)
= dim(V /V ∩ E1) + dim(V ∩ E1/tsE1)
= dim(V /V ∩ E1) + dim(E1/tsE1) − dim(E1/V ∩ E1)
= dim(V /V ∩ E1) + sn − dim(E1/V ∩ E1)
quindi vdim V = 0, cio`e V ∈ Gr0(∞).
Pertanto Gr0(∞) = Ss≥0Gr(sn, Vs), quindi ha una struttura di
Ind-variet`a sulla filtrazione Gr(sn, Vs) al variare di s ∈ N, dove l’inclusione di
Gr(sn, Vs) ⊂ Gr((s + 1)n, Vs+1) `e un embedding chiuso.
2.2
Grassmanniana affine
Ora definiamo la Grassmanniana affine e troviamo una corrispondenza per trattarla come un sottoinsieme della Grassmanniana infinita.
Siano F = C((t)) e A = C[[t]].
Definizione 2.5. Definiamo la grassmanniana affine come l’insieme degli A-reticoli in Fn, quindi
c
Gr(n) = {M ∈ FnA-modulo libero di ragngo n}. Possiamo identificare i C-spazi vettoriali
C∞←→ Fn (∗) ∞ X j=N ajecjn+ij ←→ ∞ X j=N ajtcjeij
dove j = cjn + ij con 1 ≤ ij ≤ n e cj ∈ Z. In questo modo otteniamo un
embedding della grassmanniana affine nella grassamanniana infinita, iden-tificando cGr(n) con l’insieme dei sottospazi t-stabili, ovvero cGr(n) = {V ∈ Gr(∞) | tV ⊂ V }, dove con t indichiamo la moltiplicazione per t su Gr(∞). In particolare osserviamo che E1 ∈ Gr(∞) `e in corrispondenza con lo spazio
L1=< e1, ..., en>A.
Definizione 2.6. Sia I ⊂ Z definiamo la cardinalit`a virtuale di I vcard = ||I||= |I \ I ∩ N| − |N \ I ∩ N|..
Chiamiamo un insieme I ⊂ Z al pi`u naturale se le cardinalit`a |I \ I ∩ N|,|N \ I ∩ N| sono finite. Abbiamo un corrispondenza tra sottoinsiemi di Z al pi`u naturali e sottospazi nella grassmanniana infinita, infatti dato I ∈ Z al pi`u naturale possiamo definire
EI= ( X i∈I aiei | ai∈ C ) ,
e osserviamo che vdim(EI) = vcard(I).
Se (ij) = (i1 < i2 < ...) `e una sequenza crescente di interi, diciamo che (ij)
`e al pi`u naturale se l’insieme {ij} lo `e, e definiamo vcard(ij) = vcard{ij}.
Osserviamo che le sequenze di interi al pi`u naturali hanno cardinalit`a virtuale uguale a c se e solo se per j >> 0 vale ij = j + c. Sia c ∈ Z, indichiamo con
Icl’insieme delle sequenze crescenti di interi che hanno cardinalit`a virtuale
pari a c.
Osserviamo che, tramite l’identificazione (∗) , possiamo ottenere una corrispondenza tra gli elementi di Zn e i sottoinsiemi di Z nel seguente modo
Zn−→ {I ∈ Z | I al piu naturale τ I ⊂ I}
λ = (λ1, ...λn) 7→ I(λ) = {1 + λ1n, 2 + λ2n, ..., n + 1 + λ1n, ...}
Tramite l’embedding della Grassmannina affine nella Grassmanniana infi-nita, possiamo dare una struttura di Ind-variet`a anche alla Grassmanniana affine. Consideriamo l’endomorfismo tssu Vsche moltiplica per t, e
prendia-mo us = 1 + ts, allora us `e un automorfismo unipotente di Vs, e denotiamo
sempre con us l’automorfismo indotto su Gr(sn, Vs). Sia
Hs= ( V ∈ cGr0(n) | tsE1 ⊂ V ⊂ t−s(n+1)E1 dimC(V /tsE1) = sn )
Usando l’identificazione (*) si ottiene
Hs ∼= {V ∈ Fs | tV ∈ V } ∼= Gr(sn, Vs)us
quindi Hs `e una sottovariet`a proiettiva di Gr(sn, Vs). Pertanto cGr0(n) =
S
s≥0Hs∼=
S
s≥0Gr(sn, Vs)us.
2.3
B-orbite
Consideriamo l’azione di GLn(F ) su cGr(n), questa azione `e transitiva e il
sottogruppo di isotropia di L1 `e GLn(A), quindi cGr(n) = GLn(F )/GLn(A).
Definiamo B = {g = (gij) ∈ GLn(A) | ord(gij) > 0 f or i > j}.
Studia-mo le B-orbite, queste hanno un ruolo importante nella descrizione della grassamanniana, infatti abbiamo una decomposizione di questa in B-orbite disgiunte, vale il seguente teorema
Teorema 2.7.
c
Gr(n) = G
λ∈Zn
dove λ = (λ1, ..., λn) ∈ Zn e tλ= tλ1 tλ2 . .. tλn .
Dimostrazione. Definiamo la bandiera F
. . . < te1, te2, ..., en>A ⊂ < te1, e2, ..., en>A ⊂ < e1, ..., en>A ⊂ = = = Λ2 Λ1 Λ0 ⊂ < e1, e2, ..., t−1en>A ⊂ < e1, e2, ..., t−1en−1, t−1en>A ⊂ . . . = = Λ−1 Λ−2
Sia M ∈ cGr(n), allora esiste N tale che tNΛ0 ⊂ M , definiamo
di= dimC M ∩ Λi tNΛ 0 − dimCM ∩ Λi+1 tNΛ 0 ,
Prendiamo cj = mini{di = 1 t.c. i ≡nj}. Si ha cj = nλj+ j per un qualche
λj ∈ Z, per come abbiamo definito cj, esiste un vettore vj ∈ M ∩ Λcj e
v /∈ M ∩ Λcj+1, quindi possiamo scrivere vj = tλj(en+ ... + ej) + tλj+1wj,
dove wj ∈ Λj+1.
Vogliamo dimostrare che M =< v1, ..., vn>A.
Chiaramente < v1, ..., vn >A⊆ M . Per l’altra inclusione consideriamo
v ∈ M , allora ∃i t.c. v ∈ Λi e v /∈ Λi+1, allora ∃ j tale che i > cj, per
costruzione dei cj, quindi v − t(i−cj)vj ∈ Λi+1. Osserviamo che esiste µ tale
che tµΛ
0 ⊂< v1, ..., vn >A, quindi iterando questo procedimento otteniamo
v ∈< v1, ..., vn>.
Quindi posso vedere M come una matrice in B per una matrice diagonale ϕ1,1 tϕ1,2 . . . tϕ1,n ϕ2,1 ϕ2,2 . . . tϕ2,n .. . ... . .. ... ϕn,1 ϕn,2 . . . ϕn,n tλ1 . .. tλn dove ϕii(0) = 1.
Mettiamo in relazione le sequenze di interi associate ad un λ ∈ Zn defi-nite precedentemente con le dimensioni delle intersezioni di spazi vettoriali definiti nella dimostrazione del teorema 2.7, per darne una caratterizzazione geometrica. Osserviamo, infatti, che vale il seguente risultato:
Proposizione 2.8. I di definiti nella dimostrazione del teorema 2.7 sono
tali che
di = 1 ⇐⇒ i + 1 ∈ I(λ)
Dimostrazione. Distinguiamo due casi: il primo in cui i ≥ 0 e il caso in cui i < 0.
• Supponiamo i ≥ 0 e i = kn + j dove 0 ≤ j < n, allora Λi =< tk+1e1, ..., tk+1ej, tkej+1, ..., tken>A e Λi+1=< tk+1e1, ..., tk+1ej, tk+1ej+1, tkej+2..., tken>A quindi di = j X h=1 − max{λh, k + 1} + n X h=j+1 − max{λh, k}− − j+1 X h=1 − max{λh, k + 1} − n X h=j+2 − max{λh, k} = = max{λj+1, k + 1} − max{λj+1, k} di = 1 ⇐⇒ λj+1≤ k.
Pertanto i + 1 = λj+1n + (j + 1) + (k − λj+1)n ∈ I(λ). Inoltre se
0 < i + 1 ∈ I(λ), allora ∃k, l ∈ N tale che i + 1 = (λk+1+ l) + k + 1,vale
di = max{λk+1, λk+1+ l + 1} − max{λk+1, λk+1+ l} = 1.
• Ora prendiamo i < 0 e scriviamo i = kn + j con −n < j ≤ 0. Ora Λi=< tke1, ..., tken+j, tk−1en+j+1, ..., tk−1en>A
e Λi+1=< tke1, ..., tken+j+1, tk−1en+j+2, ..., tk−1en>A Quindi di = n+j X h=1 − max{λh, k} + n X h=n+j+1 − max{λh, k − 1}− − n+j+1 X h=1 − max{λh, k} − n X h=n+j+2 − max{λh, k − 1} = = max{λn+j+1, k} − max{λn+j+1, k − 1} di = 1 ⇐⇒ λn+j+1≤ k − 1.
Pertanto i+1 = λn+j+1n+(j +1)+(k −λn+j+1)n ∈ I(λ). Viceversa se
0 > i+1 ∈ I(λ), ∃k ∈ Z\N e l ∈ N tali che i+1 = (λn+k+l)n+n+k =
(λn+k+1+ l + 1)n + k, allora Λi=< tλn+k+l+1e1, ..., tλn+k+l+1en+k−1, tλn+k+len+k, ..., tλn+k+len>A e Λi+1=< tλn+k+l+1e1, ..., tλn+k+l+1en+k, tλn+k+le n+k+1, ..., tλn+k+len> quindi di= max{λn+k, λn+k+ l + 1} − max{λn+k, λn+k+ l} = 1.
Ora ci restringiamo a studiare il caso di cGr0(n). Per il teorema 2.7, si
avr`a c Gr0(n) = [ λ,||λ||=0 Btλ Preso λ = (λ1, ..., λn) con ||λ|| = 0 definiamo
fiλ = dimt λ∩ Λ i tNΛ 0 ,
con N = max{λi} + 1. Se i ≥ 0 e i = kn + j con 0 ≤ j < n vale fiλ = j X h=1 − max{λh, k + 1} + n X h=j+1 − max{λh, k},
se invece i ≤ 0 e i = kn + j con −n < j ≤ 0 vale
n+j X h=1 − max{λh, k} + n X h=n+j+1 − max{λh, k − 1}.
Osservazione 2.9. Siano λ = (λ1, ..., λn) e µ = (µ1, ..., µn), con ||λ||, ||µ|| =
0, vale
fiλ ≤ fiµ ∀i ⇐⇒ I(λ) ≤ I(µ).
Dimostrazione. Chiamo I(λ) = I = (i1, i2, ...) e I(µ) = J = (j1, j2, ...)
Osserviamo che ∃M ∈ Z tale che tλ, tµ ⊂ tMΛ
0, quindi le due successioni
fiλ e fiµ coincidono fino ad un certo punto. Supponiamo che I ≤ J , allora per definizione ik ≤ jk, pertanto la successione fiλ diminuisce di 1 sempre
prima di quella di µ, poich`e all’inizio le due successioni coincidono, questo vuol dire che fiλ ≤ fiµ ∀i. Viceversa se fλ
i ≤ f µ
i ∀i, allora la prima scende
di 1 sempre prima della seconda per tanto I ≤ J .
Vogliamo definire un ordine su queste sequenze di interi e descrivere le B-orbite.
2.4
Ordine di Bruhat
Consideriamo Zn0 e studiamo l’azione del prodotto semidiretto W = Snn Zn0
su questo. Siano i < j ∈ N, e sia αi,j = ei− ej in Zn0, sia h ∈ Z definiamo
sα,h la riflessione rispetto all’iperpiano degli x ∈ Zn0 tali che < x, α >= h.
Preso un elemento λ = (λ1, ..., λn) ∈ Zn0 indichiamo l’azione della riflessione
sα,h su λ con sα,h.λ. Questa azione sostituisce λi con λj+ h e λj con λi− h.
Osservazione 2.10. Osserviamo che preso w ∈ W , esistono β e k tali che wsα,hw−1 = sβ,k.
Introduciamo gli elementi s0, ..., sn−1 ∈ W , s0 = sα1,n,1 e si = sαi,i+1,0
per i = 1, ..., n − 1, che saranno necessari per trovare gli elementi adiacenti del seguente ordine.
Definizione 2.11. Dati I = (i1 < ... < ik < ...) e J = (j1 < ... < jk < ...)
sottoinsiemi ordinati di Z, diremo
I ≤ J ⇐⇒ ih≤ jh ∀h ∈ N.
Abbiamo gi`a definito nel paragrafo precedente la cardinalit`a virtuale di tali insiemi, ora osserviamo che dato λ = (λ1, ..., λn), la sequenza I(λ) `e
un insieme al pi`u naturale con cardinalit`a virtuale uguale aPn
i=1−λi. Ci
restringiamo a considerare il caso di cGr0(n), quindi considereremo n-upla la
cui somma degli elementi `e nulla. Cerchiamo una relazione tra l’ordine sulle sequenze in I0 e le n-uple in Zn0.
Con i prossimi risultati dimostreremo che il passo pi`u piccolo nell’ordi-ne di I0 si ottiene quando cambiano solo due elementi di una n-upla, in
particolare presi λ, µ ∈ Zn0 si ha
I(λ) e I(µ) sono adiacenti ⇐⇒ esistono α e h tali che µ = sα,h.λ.
Descriviamo la sequenza I(si.λ). Questa sequenza differisce da I(λ) solo
nei posti congrui a i e a i + 1 modulo n, in particolare in I(si.λ) compare
λin + i + 1 che non `e presente in I(λ), mentre λin + i appartiene a I(λ) e
non a I(si.λ), questa `e l’unica differenza tra le due sequenze che si ripete a
distanza n fino a che non si ha λin + cn + i = λi+1n + i per un certo c ∈ N,
da questo punto in poi le due sequenze coincidono. Illustriamo graficamen-te quanto appena descritto, rappresentiamo Z come un retta orientata, su questa descriviamo una sequenza I nel seguente modo: sul punto della retta che rappresenta un intero che compare in I inseriamo
×
, invece in tutti gli altri punti.I(si.λ) . . . λkn+k+1
×
. . .×
. . . I(λ) . . .×
λkn+k . . .×
. . .Lemma 2.12. Presi α = el− em, h ∈ Z e λ ∈ Zn0, vale che I(λ) e I(sα,h.λ)
sono sempre confrontabili.
Dimostrazione. Per semplicit`a chiamiamo ˜λ = sα,h.λ. Tra I(λ) = (i1< i2 <
...) e I(˜λ) = (˜i1 < ˜i2 < ...) cambiano solo gli elementi sulle congruenze l e
m modulo n. Supponiamo λl+ h > λm e quindi λm− h < λl. Sia k tale che
ik = λmn + m e sia j tale che ˜ij = (λm− h)n + l < λln + l, ora supponiamo
che k < j, poich`e (λl+ k)n + m > λmn + m si avr`a che ˜ik = ik+ 1 > ik e
questo avviene fino a ˜ij, da j + 1 si ha ˜ij+1= ij+1, e questo si ripete dopo
n passi finch`e le sequenze non coincidono su tutti gli elementi. Quindi in questo caso si avr`a I(sα(λ)) ≥ I(λ), gli altri casi sono analoghi. Illustriamo
con uno schema quanto appena descritto
I(sα,h.λ) . . . . . . (λm−h)n+l
×
. . . . . .×
. . . I(λ) . . .×
λmn+m . . . . . .×
. . . . . .Lemma 2.13. Sia λ ∈ Zn0 e λ 6= 0, si hanno i seguenti casi
1. se esistono λk< λk+1, allora I(sk(λ)) > I(λ).
2. se λ1 > λ2> · · · > λn, allora I(s0(λ)) > I(λ).
Dimostrazione.
1. Supponiamo che in λ esistono λk < λk+1. Sia I(λ) = (i1, i2, ....) e
I(sk(λ)) = (˜i1, ˜i2, ....). Come visto precedentemente le uniche
diffe-renze nelle due sequenze compaiono sulle congruenze k e k + 1. In particolare si ha che esiste j tale che ij = λkn + k e ˜ij = λkn + k + 1 =
I(sk.λ) > I(λ). I(sα(λ)) . . . λkn+k+1
×
. . .×
. . . I((λ)) . . .×
λkn+k . . .×
. . . 2. Supponiamo λ = (λ1 > λ2 > .... > λn), consideriamo s0 ∈ W , siha s0.λ = (λn+ 1, λ2, ...., λn−1, λ1− 1). Come gi`a osservato le prime
differenze tra le sequenze sono su λnn + n che compare in I(λ) ma
non in I(s0.λ) e su (λn+ 1)n + 1 che appartiene a I(s0.λ) e non a
I(λ), poich`e (λnn + 1)n + 1 − λnn + n = 1 > 0 si avr`a, come nel caso
precedente, ˜ik= ik+ 1 > ik. Quindi I(s0.λ) > I(λ).
Lemma 2.14. Siano µ, λ ∈ Zn0 e I(µ) > I(λ), sia i ∈ {0, ..., n − 1} tale che
I(si.λ) > I(λ). Allora valgono
1. Se I(si.µ) ≥ I(µ) =⇒ I(si.µ) ≥ I(si.λ)
2. Se I(si.µ) < I(µ) =⇒ I(µ) ≥ I(si.λ) e I(si.µ) ≥ I(λ).
Dimostrazione.
(1) Supponiamo I(si(µ)) > I(µ). Siano I(µ) = (i1, i2, ...), I(si(µ)) =
(˜i1, ˜i2, ...), I(λ) = (j1, j2...) e I(si(λ)) = (˜j1, ˜j2, ...). Si ha che ˜ih e ih
al pi`u differiscono di 1, cio`e ˜ih = ih oppure ˜ih= ih+ 1, e analogamente
su jh e ˜jh. Quindi l’unica situazione a cui bisogna stare attenti `e quando
˜ih = ih e ˜jh = jh + 1, ma se siamo in questa situazione vuole dire che
jh = λkn + k + ln per un certo l ∈ N e invece ih6= µkn + k + mn, quindi
stanno in congruenze diverse per tanto sono diversi e quindi ih > jh
schema usato nei lemmi precedenti I(si(µ)) . . . µkn+k+1
×
×
. . .×
. . . I(µ) . . .×
µkn+k×
. . .×
. . . I(si(λ)) . . . λkn+k+1×
×
. . .×
. . . I(λ) . . .×
λkn+k×
. . .×
. . .(2) Supponiamo I(si(µ)) < I(µ). Allora denotiamo, come prima, I(µ) =
(i1, i2, ...), I(si(µ)) = (˜i1, ˜i2, ...), I(λ) = (j1, j2...) e I(si(λ)) = (˜j1, ˜j2, ...).
Si ha che ˜ih e ih al pi`u differiscono di 1, cio`e ˜ih = ih oppure ˜ih= ih− 1,
mentre ˜jh= jhoppure ˜jh = jh+1. Vogliamo provare che I(si(µ)) > I(λ)
e I(µ) > I(si(λ)). Vale ih≥ jh per ogni h, se la disuguaglianza `e stretta
non abbiamo problemi perche ih ≥ jh+1. Vediamo il caso in cui ih = jhe
˜
jh = jh+ 1. Proviamo che questo non pu`o succedere. Osserviamo prima
di tutto che se ˜jh = jh+ 1 vuole dire che jh+1> jh+ 1. Se fosse cos´ı si
avrebbe ih = (µk+ l)n + k per un qualche l ∈ N, ma poich`e µk> µk+1
allora ih+1= ih+ 1 = (µk+1+ l)n + k + 1 mentre jh+1> jh+ 1, quindi
si avrebbe ih+1 < jh+1 e quindi µ e λ non confrontabili che `e assurdo
per ipotesi. Analogamente si prova che I(si(µ)) ≥ I(λ).
Lemma 2.15. Siano µ, λ ∈ Zn0 e I(µ) > I(λ), sia i ∈ {0, ..., n − 1} tale che
I(si.µ) ≤ I(λ). Allora
Se I(si.µ) ≤ I(µ) =⇒ I(si.µ) ≥ I(si.λ).
Teorema 2.16. Siano µ, λ ∈ Zn0 e I(µ) > I(λ), allora ∃h e α tali che
I(µ) ≥ I(sα,h.λ) > I(λ).
Dimostrazione. Definiamo dλ = |{µ ∈ Zn0 | λ ≤ µ < 0}|, dove con 0
indichia-mo la n-upla (0, ..., 0), che `e l’elemento pi`u grande. Proviamo che dλ`e finita.
Si ha I(0) = (1, 2, 3, ...), sia I(λ) = (i1, i2, ...), esiste un k tale che per ogni
h ≥ k ih= h. Prendiamo µ ∈ Zn0 tale che λ ≤ µ < 0 e sia I(µ) = (j1, j2, ...),
allora deve valere il ≤ jl ≤ l per ogni l ∈ Z, per h ≥ k si ha h = ih = jh,
pertanto si hanno solo un numero finito di scelte per j1, ..., jk−1, quindi il
numero di µ tali che λ ≤ µ < 0 `e finito. Dimostriamo il teorema per induzione su dλ.
- Proviamo il passo base, cio`e che se dλ = 1 allora si ha la tesi. Dimostriamo
che se dλ = 1 allora λ = (1, 0, ...0, −1) con I(λ) = (0, 2, 3, ...), questo `e
equivalente a provare che se µ 6= (1, 0, ..., 0, −1) e µ 6= 0 allora dµ > 1.
Quindi prendiamo un tale µ e sia I(µ) = (j1, j2, ...), allora per come sono
definite le sequenze deve valere che ji ≤ i e in particolare poich´e µ 6= 0
vale che j1 ≤ 0, pertanto I(µ) < I((1, 0, ..., 0, −1)) < I(0), quindi dµ> 1.
Quindi sia λ tale che dλ = 1 allora λ = (1, 0, ..., 0, −1) e si ha 0 = s0.λ,
pertanto vale la tesi.
- Ora dimostriamo il passo induttivo. Prendiamo si∈ W tale che I(si.λ) >
I(λ), per il lemma 2.12 µ e si.µ sono sempre confrontabili, quindi
distin-guiamo due casi:
(1) Supponiamo I(si.µ) < I(µ), allora per la seconda parte del lemma
2.14 vale che I(µ) ≥ I(si.λ) > I(λ), pertanto I(si.λ) `e l’elemento
cercato.
I(µ)
I(si.µ) I(si.λ)
(2) Supponiamo I(si.µ) ≥ I(µ) allora per la prima parte del lemma 2.14
si ha che I(si.µ) > I(si.λ). Ora dsi.µ < dµ e dsi.λ < dλ, quindi per
ipotesi induttiva esiste sα,h tale che I(si.µ) > I(sα,h.si.λ) > I(si.λ).
Quindi si ha la seguente situazione I(si.µ)
I(µ) I(sα,h.si.λ)
I(si.λ)
I(λ)
Adesso applico si a sα,h.si.λ e a si.µ, osserviamo che si `e una
rifles-sione, quindi si.si.µ = µ. Distinguo due casi:
- Supponiamo I(si.sα,h.si.λ) > I(sα,h.si.λ), allora pocih´e I(µ) < I(si.µ),
per la seconda parte del lemma 2.14 si ha I(µ) > I(sα,h.si.λ) >
I(si.λ) > I(λ) pertanto l’elemento cercato `e I(si.λ).
I(si.µ)
I(µ) I(si.sα,h.si.λ)
I(sα,h.si.λ)
I(si.λ)
- Supponiamo, adesso, I(si.sα,h.si.λ) < I(sα,h.si.λ), allora per il
lem-ma 2.15 I(µ) > I(si.sα,h.si.λ). Osserviamo che esistono β e k
ta-li che sisα,hsi = sβ,k, quindi sβ,k.λ e λ sono sempre
confrontabi-li, in particolare vale che I(sβ,k.λ) > I(λ), infatti se fosse
mino-re applicando nuovamente si e osservando che sisi = id, per la
prima parte del lemma 2.14, si avrebbe che I(si.λ) > I(sα,h.si.λ)
che `e assurdo. Pertanto abbiamo la seguente sequenza di disugua-glianze I(µ) > I(si.sα,h.si.λ) > I(λ), pertanto l’elemento cercato `e
I(sβ,k.λ). I(si.µ) I(µ) I(sα,h.si.λ) I(sβ,k.λ) I(λ)
2.5
Variet`
a di Schubert
Definizione 2.17. Chiamiamo CI(λ)= M ∈ cGr(n) | dimM ∩ Λi tNΛ 0 = fiλ cella di Schubert. Proposizione 2.18. CI(λ)= Btλ.Dimostrazione. La bandiera definita nella dimostrazione del teorema 2.7 `e B stabile, quindi se prendo M ∈ Btλ si ha banalmente che dim M ∩ Λi/tNΛ0 =
fi, quindi M ∈ CI. Se prendo M ∈ CI, per il teorema 2.7 ∃λ tale che
M ∈ Btλ, allora dim(M ∩ Λi)/tNΛ0 = fiλ, quindi fiλ = f µ
i allora λ = µ.
Definizione 2.19. Una variet`a di Schubert `e SI(λ)= M ∈ cGr(n) | dimM ∩ Λi tNΛ 0 ≥ fi
Osserviamo che SI=SJ ≥ICJ.
Vogliamo dimostrare che SI `e la chiusura di CI.
Teorema 2.20. SI = CI.
Dimostrazione. Osserviamo che come nel primo capitolo SI `e un chiuso
quindi CI ⊂ SI.
Resta da provare che se J ≥ I allora CJ ⊂ SI. Consideriamo I e J
adiacenti, allora sia µ tale che I(µ) = J , in modo che λ e µ differiscono solo per due coefficienti, in particolare prendiamo µ tale che ∃k < h con µk< λk
e µh > λh. Osserviamo che poich`e I e J hanno cardinalit`a virtuale 0 vale
λk− µk+ λh− µh = 0. Osserviamo che µk− λh > 0, infatti, poich`e I ≤ J
si ha che λhn + h < µkn + k ⇒ 0 < (µk− λh)n + k − h < (µk− λh)n ⇒ µk− λh > 0. Consideriamo la matrice B = 1 0 0 0 0 0 0 0 . . . 0 0 . .. 0 0 0 0 0 0 . . . 0 0 0 1 0 0 0 0 0 . . . 0 0 . . . 0 ε−1 0 . . . tµk−λh 0 . . . 0 0 0 0 0 1 0 0 0 . . . 0 .. . ... ... ... ... . .. 0 0 . . . 0 0 0 0 0 0 . . . ε 0 . . . 0 .. . ... ... ... ... ... ... . .. . . . 0 0 0 0 0 0 0 0 0 . .. 0 0 0 0 0 0 0 0 0 . . . 1
che `e la matrice identit`a da cui la sottomatrice 2 × 2 estratta dalle righe k, h e dalle colonne k, h `e la matrice
ε−1 tµk−λh
0 ε
!
se agisco con B su tλ, ottengo V =< tλ1e
1, ..., v1 = ε−1tλkek, ..., v2 = tµkek+
εtλhe
h, ..., tλnen>A, ora considero la combinazione lineare
v1− ε−1tµh−λhv2= −tµheh,
quindi V =< tλ1e
1, ..., tµheh, ..., tµkek + εtλheh, ..., tλnen >A se facciamo
tendere ε a zero otteniamo tµ.
Supponiamo ora che µk > λk e µh < λh, ora scriviamo la matrice in B
tale che la matrice 2 × 2 estratta dalle righe k, h e dalle colonne k, h `e
ε 0
tµh−λk ε−1
!
se agisco con questa matrice su tλ ottengo V =< tλ1e
1, ..., v1 = εtλkek+ tµheh, ..., v2 = ε−1tλheh, ..., tλnen>A
, considero la combinazione lineare ε−1tµk−λkv
1− v2 = tµkek
quindi ottengo V =< tλ1e
1, ..., tµkek, ..., tµheh+ εtλkek, ..., tλnen>A, facendo
Coordinate di Pl¨
ucker
Definiamo le coordinate di Pl¨ucker per la Grassmanniana affine. Per farlo definiremo le coordinate di Pl¨ucker sulla Grassmanniana infinita e tramite l’embedding della Grassmanniana affine, le restringeremo su quest’ ultima. Prendiamo U = SpanC{eI = ei1∧ ei2 ∧ . . . | I = (i1, i2, ...) ∈ I0}.
Identifi-cando eij = t
ij, osserviamo che V∞V
∞∼= U , con le seguenti mappe
φs: sn
^
(Vs) −→ U
v1∧ v2∧ · · · ∧ vsn−→ v1∧ v2∧ · · · ∧ vsn∧ esn+1∧ esn+2∧ . . .
Quindi possiamo considerare {eI | I ∈ I0} come una base di
V∞ V∞.
Definizione 3.1. Sia {pI} base duale diV∞V∞∗, cio´e tale che < eI, pJ >=
δIJ, chiamiamo pI coordinate di Plucker infinite.
Vediamo che abbiamo i seguenti diagrammi
SI //Grc0(n) //Gr0(∞) //P(V∞V∞) Gr(sn, Vs)us OO //Gr(sn, Vs) OO //P(V snVs) OO 37
Passando agli anelli delle coordinate si ha C[SI]oo C[ cGr0(n)] C[Gr0(∞)] oo C[P(V∞V∞)] oo C[Gr(sn, Vs)us]oo C[Gr(sn, Vs)]oo C[P(V snVs)]
quindi, sfruttando la struttura di Ind-variet`a definita per la Grassmanniana infinita, se restringiamo le coordinate di Pl¨ucker infinite alla Grassmanniana finita, otteniamo le coordinate di Pl¨ucker del caso finito.
Passiamo ora a descrivere una particolare classe di variet`a di Schubert. Sia ωs = (−s(n − 1), s, ...., s) ∈ Zn e consideriamo la variet`a SI(ωs).
Ricor-diamo Hs= ( A − reticoli M tsΛ0 ⊂ M ⊂ t−s(n−1)Λ0 dim(M/tsΛ 0) = sn ) ∼ = Gr(sn, Vs)us,
allora vale la seguente proposizione Proposizione 3.2.
SI(ωs)= Hs.
Dimostrazione. Ci basta osservare che I(ωs) `e la pi`u piccola sequenza che
possiamo scrivere relativa a sottospazi M tali che tsΛ0 ⊂ M ⊂ t−s(n−1)Λ0.
Proposizione 3.3. cGr0(n) =Ss≥0SI(ωs)
Dimostrazione. Avevamo visto nel secondo capitolo c
Gr0(n) =
[
s≥0
Hs.
Quindi, per la proposizione precedente c
Gr0(n) =
[
s≥0
3.1
Rinormalizzazione degli indici
Vogliamo modificare gli indici in ωsin modo da evitare di avere termini
nega-tivi. Osserviamo che I(ωs) = (1−s(n−1)n, 1−s(n−1)n+n, ..., 1+sn−n, 1+
sn). Consideriamo cGr
0
0(n) = ts(n−1)Grc0(n) = {V ∈ cGr(n) | vdim(V ) = −s(n − 1)n}, e spostiamo gli indici di −s(n − 1). Quindi ora considereremo n-uple tali che la somma dei loro elementi sia s(n − 1)n. Quindi avremo
ωs= (0, sn, ...., sn)
e
I(ωs) = (1, n + 1, 2n + 1, ..., sn2+ 1, sn2+ 2, ...).
Possiamo quindi riscrivere la proposizione 3.2 nel seguente modo
SI(ω)= ( A − reticoli L ⊂ Fn tsnΛ0 ⊂ L ⊂ Λ0 dim L/tsnΛ0 = sn ) ∼ = Gr(sn, Vs)us dove Vs= Λ0/tsnΛ0.
Osservazione 3.4. Osserviamo che se considero V ∈ SI(ωs) con V = Bt
λ
con λ ∈ Zns(n−1)n, avremo che Λsn ⊂ V , quindi riprendendo i di definiti nel
capitolo precedente, si ha di = 1 ∀ i ≥ sn, pertanto quando consideriamo
I(λ) = (i1, i2, ...) possiamo limitarci a considerarne i primi sn elementi in
quanto gli elementi successivi sono tali che ij = j per ogni j > sn.
3.2
Rappresentazione di celle tramite matrici
Possiamo rappresentare un elemento V ∈ Gr(∞) tramite una matrice di dimensione Z × Z+, prendendo la matrice che ha per colonne una base di V
come C-spazio vettoriale. Quindi grazie all’embedding della Grassmanniana affine nella Grassmanniana infinita, anche un elemento di cGr(n) pu`o essere rappresentato in questo modo.
Sia s ∈ N chiamiamo ω = ωs e r = sn. Vogliamo ottenere una
rappresen-tazione matriciale della variet`a di Schubert SI(ω) che possiamo vedere come
Consideriamo Vs = SpanC{tce1, ..., tcen | 0 ≤ c ≤ r − 1} e prendiamo un
vettore v ∈ Vs, scrivendo le sue componenti rispetto alla base
e1, ..., en, te1, ..., ten, ...., tr−1e1, ..., tr−1en otteniamo v = v1 v2 .. . vr
dove ogni vi `e un vettore colonna n × 1. Moltiplicando v per t si ottiene
tv = 0 v1 v2 .. . vr−1 (3.1)
Consideriamo un generico sottospazio V nella cella di Schubert CI(ω) ∈ Gr(r, Vs)us, allora esiste un vettore v ∈ V tale che la sua componente
e1 `e uguale ad 1 e si ha V = SpanC{v, tv, t2v, ..., tr−1v}, quindi possiamo
rappresentare V con la matrice
v tv . . . tr−1v = A1 A2 .. . Ar
dove Aisono blocchi n×r. Osserviamo che per 3.1 si ha aij = 0 per i < j e la
prima colonna di A1`e uguale alla seconda colonna di A2, alla terza colonna di
A3e cos`ı via. Pertanto vale a1,1 = an+1,2= ... = a(r−1)n+1,r = 1, agendo con
operazioni di colonna possiamo ottenere che nelle righe 1, n+1, ...., 1+(r−1)n questi sono gli unici elementi diversi da zero, in questo modo abbiamo una rappresentazione unica per V ∈ CI(ωs). quindi possiamo identificare la cella
CI(ω) con la matrice M = (ai,j) ∈ M atrn×r(C) della forma: M = 1 0 0 0 . . . 0 a2,1 0 0 0 . . . 0 a3,1 0 0 0 . . . 0 .. . ... ... ... ... ... an,1 0 0 0 . . . 0 0 1 0 0 . . . 0 an+1,1 a2,1 0 0 . . . 0 an+2,1 a3,1 0 0 . . . 0 .. . ... ... ... ... ... a2n,1 an,1 0 0 . . . 0 0 0 1 0 . . . 0 a2n+2,1 an+2,1 a2,1 0 . . . 0 a2n+3,1 an+3,1 a3,1 0 . . . 0 .. . ... ... ... ... ... a3n,1 a2n,1 an,1 0 . . . 0 .. . ... ... ... ... ... 0 0 0 0 . . . 1 a(r−1)n+2,1 a(r−2)n+2,1 a(r−3)n+2,1 . . . a2,1 a(r−1)n+3,1 a(r−2)n+3,1 a(r−3)n+3,1 . . . a3,1 .. . ... ... ... ... ... arn,1 a(r−1)n,1 a(r−2)n,1, . . . an,1 (3.2)
Notiamo che le righe indicizzate dagli elementi di I(ω) sono le corrispondenti righe della matrice identit`a, denoteremo queste come “righe pivot”. Osser-viamo che, preso I = (i1, ..., ir, ...) ∈ I0, la coordinata dl Pl¨ucker pI `e il
determinante della sottomatrice estratta da M prendendo le righe i1, ..., ir.
Inoltre le coordinate pI|CI(ωs) sono diverse da zero per I = (i1 < i2...) se
e solo se
• ij ≥ (j − 1)n + 1 per j = 1, 2, ..., r.
3.3
Coordinate di Pl¨
ucker ammissibili
In questa sezione definiamo una classe di coordinate di Pl¨ucker sulla variet`a SI(ωs). Troveremo delle relazioni tra queste che permetteranno di trovare
una base dell’anello delle coordinate di SI(ωs).
Definizione 3.5. Un insieme I = (i1, i2, ...) ∈ Is(n−1)n `e ammissibile se
ij+1− ij ≤ n per j ≥ 1.
Diciamo che, preso λ ∈ Zn tale chePn
i=1−λi= −s(n − 1)n, I `e
ammis-sibile su SI(λ)se `e ammissibile e pI|SI(λ) 6= 0.
Proviamo che possiamo scrivere una coordinata di Pl¨ucker non ammis-sibile come combinazione lineare di coordinate ammissibili.
Lemma 3.6. Siano A, B ∈ M atm×m(C). Fissiamo l ≤ m. Allora la somma
di tutti i determinanti ottenuti scambiando l righe di A con le corrispondenti l righe di B `e uguale alla somma di tutti i determinanti ottenuti scambiando l colonne di A con le corrispondenti l colonne di B.
Dimostrazione. Facile applicazione della regola di Laplace.
Consideriamo I = (i1, ..., ir) con ir ≤ rn e i1 ≥ n + 1, ad I associamo
un ˜I = (i1 − n, ..., ir − n). Scegliamo un l ≤ r e definiamo uno shuffle la
somma di tutte le coordinate di Pl¨ucker ottenute scambiando l elementi di J ⊂ I con i corrispondenti l elementi ˜J ⊂ ˜I, cio`e
sh = X
J ⊂I |J|=l
pI\J ∪ ˜J
Corollario 3.7. Gli shuffle sono identicamente nulli come funzioni sulla variet`a di Schubert SI(ωs)
sh|SI(ωs) = 0
Dimostrazione. Consideriamo I e ˜I come sopra. Sia Mrn×r la matrice che
matrici r × r ottenute prendendo le righe di indici di I e rispettivamente di ˜
I. Osserviamo che per come abbiamo definiti Mrn×r si ha che le ultime r − 1
colonne di M sono uguali alle prime r −1 colonne di ˜M , e inoltre, poich`e ir−
n ≤ (r − 1)n, l’ultima colonna di ˜M `e 0. Quindi si ha che il determinante del minore ottenuto sostituendo l colonne di M con le corrispondenti l colonne di ˜M `e 0, per il lemma precedente si ha che questo vale anche scambiando le righe invece delle colonne, quindi questo `e proprio lo shuffle definito prima.
Proposizione 3.8. Sia I = (i1, ..., ir) non ammissibile tale che pI|SI 6= 0.
Allora su SI si ha che pI =
P
T ⊂ZaTpT, con aT ∈ C e pR sono ammissibili.
Dimostrazione. Sia l ≤ r − 1 il pi`u piccolo intero per cui il+1− il > n. Sia
I1 = (i1 + n, ..., il+ n, il+1, ..., ir), I2 = (i1, ...., il, il+1 − n, ..., ir− n). La
differenza tra le entrate di I1 e I2 in modulo `e n, quindi per il corollario
precedente lo shuffle `e uguale a 0 su SI(ωs). Consideriamo un elemento pJ
nella somma di sh corrispondente allo scambio di {i1 + n, ..., il + n} con
{i1, ..., il} si ha che J `e uguale ad I e ogni altro J `e pi`u grande di I secondo
l’ordine lessicografico. Osserviamo che l’elemento pi`u grande secondo quest’ ordine `e ((n − 1)r + 1, ..., (n − 1)r + 2, ..., rn) che corrisponde alla variet`a di Schubert 0-dimensionale per cui la tesi `e banalmente vera. Quindi il risultato segue per induzione.
Consideriamo gli elementi τ1, ..., τn∈ Zn−s(n−1)n la cui r-tupla associata
`e
I(τj) = (j, n + j, 2n + j, ..., (r − 1)n + j)
Vale il seguente lemma: Lemma 3.9.
• |{T ammissibile su τ1}| = nr.
• |{T ammissibile su τj}| = nr−1(n + 1 − j) per 2 ≤ j ≤ n
Dimostrazione. Sia T = (t1, ..., tr) una generica r-tupla ammissibile su τ1.
ho n modi per scegliere tr. Inoltre abbiamo n modi per la scelta di tr−1,
poich`e possiamo sceglierlo nell’insieme {tr− n, ..., tr− 1}. Possiamo
appli-care le stesse osservazioni a tutti gli altri elementi di T , quindi vale che |{T ammissibile su τ1}| = nr.
Analogamente al primo punto possiamo osservare che preso T ammissibile su τj, si hanno (n + 1 − j) scelte per tr nell’insieme {(r − 1)n + j, ..., rn}. Per
gli altri elementi invece abbiamo n scelte come nella prima parte del lemma. Pertanto |{T ammissibile su τ1}| = nr−1(n + 1 − j) per 2 ≤ j ≤ n.
Definiamo ϕi,j ∈ Zn−s(n−1)n tale che
I(ϕi,j) = ((i−1)n+1+j −i, in+1+i−j, ..., (r −1)n+1+j −i, [rn+2−i, rn])
dove [k, h] = (k, k + 1, ..., h). Lemma 3.10.
• |{T ammissibile su ϕi,1}| = nr+1−i.
• |{T ammissibile su ϕi,j}| = nr−i(n + 1 − j) per 2 ≤ j ≤ n
Dimostrazione.
• Le ultime (i − 1) entrate di ϕi,1 sono [rn + 2 − i, rn], quindi ogni
insieme ammissibile su SI(ϕi,1) deve avere le ultime (i − 1) entrate [rn+2−i, rn]. Per tr+1−iabbiamo n scelte possibili che sono comprese
tra {(r − 1)n + 2 − i, ..., rn + 1 − i}. Per tj con j = 1, ..., r − i si ha che
tj pu`o essere scelto tra {tj+1− n, ..., tj+1− 1}. Quindi si ha la tesi.
• Analogamente al caso precedente per gli elementi tr+2−i, ..., trabbiamo
esattamente una scelta. Per l’elemento tr+1−isi hanno (n+1−j) scelte
prese tra {(r − 1)n + 1 + j − i, rn + 1 − i}, poi concludiamo come sopra.
Per 1 ≤ i ≤ n, definiamo Ai = {T = (t1, ..., tr) | T ammissibile su τi}.
Denotiamo con A = A1. Sia Z = {T ∈ A | tr= (r − 1)n + 1}.
1. |Z| = nr−1.
2. Sia T ∈ A. Allora pT |SI(τ2)6= 0 ⇐⇒ T /∈ Z.
3. A = Z ˙∪A2. Dimostrazione.
(1) Come nelle dimostrazioni precedenti ho n modi per scegliere ti con 1 ≤
i ≤ r − 1, poich´e posso scegliere tra {ti+1− n, ..., ti+1− 1}
(2) I(τ2) = (2, n + 2, 2n + 2, ..., (r − 1)n + 2), quindi pT |SI(τ2) 6= 0 allora
ti≥ (i − 1)n + 2, in particolare tr≥ (r − 1)n + 2 quindi T /∈ Z. Viceversa
se T /∈ Z allora tr < (r − 1)n + 1, ma T `e in A quindi `e ammissibile su τ1 pertanto pI(τ2) 6= 0.
(3) Segue dai punti precedenti.
Sia 0 ≤ j ≤ r − 1, ora definiamo
Zj = T = (t1, ..., tr) ∈ Z ti = (i − 1)n + 1 per j < i ≤ r e tj > (j − 1)n + 1
quindi per T ∈ Zj vale che j `e il pi`u grande tale che tj non `e un pivot.
Osserviamo (1) Z = ˙S
0≤j≤r−1Zj.
(2) Z0 = {I(ωs)}.
3.4
Relazioni quadratiche
Descriviamo delle relazioni quadratiche per le coordinate di Pl¨ucker su SI(ωs). Consideriamo come nella sezione precedente, una matrice M che rappre-senta un elemento V nella cella di Schubert associata a ωs. Calcoliamo
Lemma 3.12. Vale: 1. fτ1 = 1 2. fτ2 = a r 21 3. fT2 = a21 dove T2= T2 = (2, n + 1, 2n + 1, ...., (r − 1)n + 1).
Dimostrazione. Prendendo la matrice M definita in 3.2 segue facilmente il lemma ricordando che pI`e uguale al determinante della sottomatrice estratta
da M considerando le righe indicizzate da I.
Lemma 3.13. Sia T = (t1, ..., tr) ∈ Zj. Consideriamo T0 ottenuto da T
sostituendo tj+1 con tj+1+ 1. Valgono:
1. T0 `e ammissibile, in pi`u T0 ∈ Zj+1 se j < r − 1 oppure se j = r − 1 T0 ∈ A2.
2. fT2fT = fτ1fT0.
Dimostrazione.
(1) Poich´e T ∈ Zjallora tjnon `e un pivot e tj+1lo `e, quindi T0`e ammissibile,
e chiaramente se j = r − 1 allora j + 1 = r quindi T0`e in A2, mentre se
j < r − 1 `e in Zj+1.
(2) Valutiamo fT,fT0 sulla matrice M . Si ha che fT `e il determinante di
una matrice
Mj 0j,r−j
∗ Idr−j,r−j
!
dove Mj `e la sottomatrice j × j di M estratta dalle righe di indici
t1, .., tj e colonne di indici 1, 2, ...., j , e Idr−j,r−j`e la matrice identit`a di
dimensione (r − j) × (r − j). Quindi
fT(M ) = xr−j∆,
Analogamente, fT0(M ) `e il determinante della matrice
Mj0 0j+1,r−j−1
∗ Idr−j−1,r−j−1
!
dove Mj0 `e la sottomatrice (j + 1) × (j + 1) di M estratta dalle righe di indici t1, .., tj, tj+1+ 1 e colonne di indici 1, 2, ...., j + 1 , e Idr−j−1,r−j−1`e la
matrice identit`a di dimensione (r − j − 1) × (r − j − 1). Quindi fT0(M ) = ∆
0
,
dove ∆0`e il determinante di Mj0. Le sequenze T e T0differiscono nella (j +1)-esima entrata, quindi le prime j colonne di Mj0 sono ottenute aggiungendo anj+2,1, a(n−1)j+2,1,...,an+2,1rispettivamente alle j colonne di Mj, e l’ultima
colonna di Mj0 `e tutta 0 eccetto per l’ultima entrata che `e a21. Quindi
otteniamo ∆0 = a21∆, quindi fT0(M ) = a21∆. Pertanto
fT0(M ) = a21∆ = a21fT(M ),
quindi per il lemma 3.12 vale
fT2(M )fT(M ) = a21fT(M ) = fT0(M ) = fτ1(M )fT0(M ).
Quindi la tesi.
Consideriamo 1 ≤ i ≤ r e k < n tali che
I(ϕik) = ((i−1)n+1+k−i, in+1+k−i, ..., (r−1)n+1+k−i, [rn+2−i, rn]).
Scriviamo (i − 1)n + 1 + k − i = pikn + qik, dove 1 ≤ qik ≤ n, per semplicit`a
denotiamo p = pik e q = qik e ϕik = ϕ. Quindi scriviamo
I(ϕ) = (pn + q, (p + 1)n + q, ..., (r + p − i)n + q, [rn + 2 − i, rn]). Scriviamo la matrice che rappresenta la cella CI(ϕ). La parte rilevante della matrice di un generico punto in CI(ϕ)pu`o essere pensata come una matrice
triangolare inferiore di dimensione (r − p)n × r, chiamiamo questa matrice M = (agh), composta da (r − p) blocchi Ap+1, ..., Ar di dimensione n × r,
dove le colonne di Ap+1, eccetto la prima, sono tutte zero, e la prima `e della forma 0 .. . 0 apn+q,1 .. . apn+n,1
Inoltre osserviamo che la prima colonna di Ap+1`e uguale alla seconda
colon-na di Ap+2, alle terza di Ap+3 e cos`ı via,. Analogamente la prima colonna di
Ap+2 si ripete nella seconda colonna di Ap+3 ecc. In questa matrici avremo
che le righe pivot sono quelle di indici {mn + q | p ≤ m ≤ r + p − i} insieme con quelle di entrate [rn + 2 − i, rn]. Quindi si avr`a
amn+q,m+1−p= 1, p ≤ m ≤ r + p − i
arn+s−i,r+s−i = 1, 2 ≤ s ≤ i
amn+qj = 0, j 6= m + 1 − p
Denotiamo con ϕ0= ϕik+1 e fT = pT |CI(ϕ)
Lemma 3.14. Valgono: 1. fϕ= 1;
2. fϕ0 = ar+1−i
pn+q+1,1;
3. fT2 = apn+q+1,1.
Dimostrazione. Analoga a quella del lemma 3.12. Osservazione 3.15. Sia
Z(ϕ) = {A ∈ Aϕ | tr+1−i= ϕ(r + 1 − i)},
dove con ϕ(r + 1 − i) intendiamo l’elemento di I(ϕ) al posto r + 1 − i. Allora vale
2. Sia T ∈ Aϕ. Allora pT |SI(ϕ0) `e diverso da zero se e solo se T /∈ Z(ϕ).
3. Aϕ= Z(ϕ) ˙∪Aϕ0.
Dimostrazione.
(1) I tj con j ≥ r + 1 − i sono fissati, mentre per j = 1, ..., r + 1 − i − 1 si
ha che tj+1− 1 ≤ tj ≤ tj+1− n, quindi per questi ho n scelte.
(2) Si ha ϕ0(r + 1 − i) = ϕ(r + 1 − i) + 1, quindi se pS|SI(ϕ0) 6= 0 allora
tr ≥ ϕ(r + 1 − i) + 1 pertanto tr 6= ϕ(r + 1 − i) quindi non `e in Z(ϕ),
Viceversa, se T ∈ Z(ϕ) allora tr> ϕ(r +1−i) quindi tr≥ ϕ(r +1−i)+1
quindi pT |SI(ϕ0)6= 0.
(3) Segue dalla precedenti.
Sia 0 ≤ j ≤ r − i, fissiamo Zj(ϕ) = T = (t1, ..., tr) ∈ Z(ϕ) tm= ϕ(m) per j < m ≤ r + 1 − i e tj > ϕ(j) ,
cio`e per T ∈ Zj(ϕ) j `e il pi`u grande tale che tj > ϕ(j). Osserviamo
• Z(ϕ) = ˙S0≤j≤r−iZj(ϕ).
• Z0(ϕ) = {I(ϕ)}.
Lemma 3.16. Sia T = (t1, ..., tr) ∈ Zj(ϕ). Consideriamo T0 ottenuto da T
sostituendo tj+1 con tj+1+ 1. Valgono
1. T0 `e ammissibile, in pi`u T0`e in Zj+1(ϕ) se j < r − i oppure se j = r − i
`e in Aϕ.
2. fT2fT = fϕfT0.