• Non ci sono risultati.

Le coordinate di Plucker per la grassmanniana affine

N/A
N/A
Protected

Academic year: 2021

Condividi "Le coordinate di Plucker per la grassmanniana affine"

Copied!
52
0
0

Testo completo

(1)

Le coordinate di Pl¨

ucker per la

Grassmanniana affine

13 Marzo 2020

Tesi di Laurea Magistrale

Relatore:

Candidata:

Prof. Andrea Maffei

Martina Costa Cesari

Controrelatore:

Prof. Francesco Sala

(2)

1 Grassmanniana finita 5 1.1 Definizione . . . 5 1.2 Celle di Schubert . . . 8 1.3 Variet`a di Schubert . . . 11 1.4 Monomi standard . . . 13 1.5 Algoritmo di raddrizzamento . . . 16 2 Grassmanniana affine 19 2.1 Grassmanniana infinita . . . 19 2.1.1 Struttura di Ind-variet`a . . . 20 2.2 Grassmanniana affine . . . 21 2.3 B-orbite . . . 23 2.4 Ordine di Bruhat . . . 27 2.5 Variet`a di Schubert . . . 34 3 Coordinate di Pl¨ucker 37 3.1 Rinormalizzazione degli indici . . . 39

3.2 Rappresentazione di celle tramite matrici . . . 39

3.3 Coordinate di Pl¨ucker ammissibili . . . 42

3.4 Relazioni quadratiche . . . 45 3.5 Indipendenza lineare delle coordinate di Pl¨ucker ammissibili . 50

Bibliografia 51

(3)

Lo scopo di questa tesi `e analizzare la Grassmanniana affine e calcolarne le coordinate di Pl¨ucker. Le Grassmanniane sono oggetto di particolare inte-resse nello studio della geometria algebrica. Nel diciannovesimo secolo Julius Pl¨ucker introdusse le cosiddette coordinate di Pl¨ucker, studi`o lo spazio delle linee nello spazio proiettivo 3-dimensionale P3 e trov`o sei coordinate omoge-nee per descriverlo. In questo modo cap`ı l’esistenza di una corrispondenza tra lo spazio delle linee in P3 e i punti di una quadrica in P5. Questo lavoro venne generalizzato da Grassmann che introdusse il concetto di Grassman-niana, ovvero lo spazio dei sottospazi di dimensione k in uno spazio vettoriale n-dimensionale. Strettamente correlate alla Grassmanniana sono le variet`a di Schubert. Queste sono uno strumento importante introdotto dal matema-tico Hermann C¨asar Hannibal Schubert , utile nello studio della geometria enumerativa. Le coordinate di Pl¨ucker si possono applicare alla descrizione di alcuni anelli di coordinate di variet`a rilevanti nella teoria di Lie. Di questo ci sono anche esempi nel caso finito dimensionale, per esempio le relazioni di Pl¨ucker per la grassmanniana Gr(n, 2n) determinano facilmente le rela-zioni tra i minori di ordine qualsiasi per una matrice n × n, poich´e possiamo vedere lo spazio delle matrici come un aperto in questa grassmanniana e le coordinate di Pl¨ucker si specializzano ai minori della matrice.

La grassmanniana affine sembra poter generalizzare notevolmente le pos-sibilit`a di applicazione di strategie simili. Un esempio `e sviluppato nell’arti-colo [2], dove si usano le coordinate di Pl¨ucker per la Grassmanniana affine nel calcolo dell’anello delle coordinate delle orbite nilpotenti. Una classe di

(4)

ta di Schubert, ma a priori non si sa se la struttura della variet`a sia ridotta. La conoscenza esplicita di una base delle coordinate compatibile con quelle della variet`a di Schubert permetterebbe di verificare questa propriet`a.

La tesi si struttura in tre parti. Nella prima si studia la Grassmanniana finita. Si definiscono su questa le celle e le variet`a di Schubert, e si dimostra che la Grassmanniana si decompone in unione disgiunta di celle di Schubert. In seguito, con un approccio prevalentemente combinatorio, si studiano le relazioni tra le coordinate di Pl¨ucker e si dimostra che queste forniscono una base per l’anello delle coordinate proiettive di una variet`a di Schubert. Nella seconda parte si definiscono la Grassmanniana affine e la Grassman-niana infinita, e di queste si studia la struttura di Ind-variet`a, ottenuta prendendo come filtrazione particolari Grassmanniane finite,. Analogamen-te al caso finito, si definiscono le celle di Schubert e un ordine di Bruhat su queste, e si dimostra la decomposizione in celle della Grassmanniana affine. Si definiscono le variet`a di Schubert, che risulteranno essere la chiusura di una cella di Schubert.

Nella terza parte ci si restringe a considerare una particolare classe di variert`a di Schubert, il cui limite diretto sar`a la Grassmanniana affine. Sfruttando la struttura di Ind-variet`a della Grassmanniana infinita si definiscono le coor-dinate di Pl¨ucker per queste celle di Schubert in modo analogo a quelle del caso finito. Tra queste coordinate ci si restringe a studiare una particolare classe di queste che vengono definite “ammissibili”. Si trovano delle relazio-ni tra queste coordinate di Pl¨ucker ammissibili e si dimostra che sono una base per la parte di grado uno dell’anello delle coordinate delle variet`a di Schubert considerate.

(5)

Grassmanniana finita

In questo capitolo studieremo la Grassmanniana finita, ovvero l’insieme dei sottospazi di un C-spazio vettoriale. Daremo a questa una struttura di variet`a proiettiva e otterremo una decomposizione in celle, utilizzando le variet`a di Schubert. In seguito descriveremo l’anello delle coordinate di una variet`a di Schubert descrivendo le relazioni quadratiche tra le coordinate di Pl¨ucker.

1.1

Definizione

Sia V un C−spazio vettoriale di dimensione n, consideriamoVd(V ) per un

qualche d ≤ n. Osservazione 1.1.

(1) Dati v1, ..., vd∈ V , il vettore

v1∧ v2∧ · · · ∧ vd6= 0

se e solo se i vettori sono linearmente indipendenti. (2) Dati v1, ..., vd∈ V linearmente indipendenti e v

v ∧ v1∧ v2∧ · · · ∧ vd= 0

se e solo se v `e nel sottospazio generato dai vettori vi.

(6)

(3) Se v1, ..., vd e w1, ..., wdsono due insiemi di vettori linearmente

indipen-denti, allora

w1∧ w2∧ · · · ∧ wd= αv1∧ v2∧ · · · ∧ vd 0 6= α ∈ C

se e solo se i due insiemi generano lo stesso sottospazio d-dimensionale W di V .

Definizione 1.2. Definiamo la Grassmanniana Gr(d, V ) come l’insieme dei sottospazi di V di dimensione d.

Consideriamo e1, ..., en base canonica di V , allora ei1 ∧ · · · ∧ eid con

i1 < i2 < ... < in `e una base di VdV . Siano v1, ..., vd ∈ V linearmente

indipendenti, possiamo rappresentarli come una n × d matrice X che ha questi vettori come colonne. Osserviamo che il rango della matrice `e d in quanto i vettori sono linearmente indipendenti. Nella base ei1 ∧ · · · ∧ eid

diVdV le coordinate di v

1∧ · · · ∧ vd sono date dai minori massimali della

matrice X. Indicheremo con X[i1, ..., id] il determinante del minore di X

ottenuto considerando le righe i1, ..., id, e chiameremo questo coordinata di

Pl¨ucker. Si ha

v1∧ · · · ∧ vd=

X

1≤i1≤···≤id≤n

X[i1, ..., id]ei1∧ · · · ∧ eid

In questo modo possiamo identificare {(v1, ..., vd) ∈ Vd | v1∧ · · · ∧ vd6= 0}

con l’insieme Sn,d delle matrici n × d di rango d. Indichiamo con W (X) il

sottospazio di V generato dalle colonne di X. Il gruppo Gl(d, C) agisce per moltiplicazione a destra su Sn,d, in particolare se A ∈ Gl(d, C), X, Y ∈ Sn,d,

si ha

W (X) = W (Y ) ⇐⇒ Y = XA Y [i1, ..., id] = det(A)X[i1, ..., id]

Pertanto possiamo identificare Gr(d, V ) con l’insieme delle orbite dell’a-zione di Gl(d, C) su Sn,d.

Quindi si ha una corrispondenza tra i sottospazi d-dimensionali di V e lo spazio proiettivo P(Vd

(7)

W ←→ [W ]

w1, ..., wd ←→ [w1∧ w2∧ · · · ∧ wd]

dove w1, ..., wd`e una base di W . Osserviamo che questa mappa non dipende

dalla scelta della base di W , infatti se v1, ...., vd`e un’altra base, allora esiste

A ∈ Gld(C) che porta una base nell’altra, e per quanto osservato

precedente-mente v1∧· · ·∧vd= det(A)w1∧· · ·∧wd, quindi [v1∧· · ·∧vd] = [w1∧· · ·∧wd].

Data questa corrispondenza, vogliamo associare a Gr(d, V ) una struttura di variet`a proiettiva.

Il seguente lemma ci servir`a per dimostrare che Gr(d, V ) `e una sottovariet`a di P(Vd

V ).

Lemma 1.3. Data una mappa tra due spazi affini π : Ck → Ck+h, della

forma

π(x1, ..., xk) = (x1, ..., xk, p1, ..., ph)

dove pi sono polinomi nelle variabili x1, ..., xk, allora la sua immagine `e una

sottovariet`a chiusa di Ck+h e π `e un isomorfismo sulla sua immagine. Dimostrazione. L’immagine `e la sottovariet`a chiusa data da

xk+i− pi= 0.

Inoltre si vede facilmente che l’inversa di π `e la mappa (x1, ..., xk+h) → (x1, ..., xk).

Teorema 1.4. Gr(d, V ) `e una sottovariet`a liscia proiettiva di P(Vd V ). Dimostrazione. Consideriamo il ricoprimento affine aperto di P(Vd

V ) for-mato dagli aperti UI in cui la componente I = i1, ..., id `e diversa da zero.

Vogliamo provare che Gr(d, V ) ∩ UI `e un chiuso ed `e liscio. Per semplicit`a

consideriamo I = 1, 2, ..., d, un elemento W (X) ∈ Gr(d, V ) si trova in UI se

X[1, 2, ..., d] 6= 0, quindi la sottomatrice di X formata dalle prime d righe `e invertibile, pertanto possiamo rappresentare X nel seguente modo

X = A

T !

(8)

dove A ∈ Gld(C) e T ∈ Mn−d×n. Consideriamo le matrici della forma

X = Id

Z !

, con Z ∈ Mn−d×n, queste sono i rappresentanti dell’azione di

Gld(C) su Gr(d, V ) ∩ UI. Calcoliamo le coordinate di W (X) in P( VdV ). Osserviamo X[1, ...i − 1, d + k, i + 1, ..., d] = 1 . . . 0 0 0 . . . 0 . . . . 0 . . . 1 0 0 . . . 0 z1k . . . zi−1k zik zi+1k . . . zdk 0 . . . 0 0 1 . . . 0 . . . . 0 . . . 0 0 0 . . . 1 quindi X[1, ...i − 1, d + k, i + 1, ..., d] = zik, mentre le restanti coordinate

saranno polinomi in queste variabili. Allora ho una mappa π : (zij) −→

(zik, pj) con pj polinomi nelle zik, quindi, per il lemma precedente, π `e un

isomorfismo sull’immagine e questa `e una sottovariet`a chiusa di CN per un

certo N . Pertanto si ha che Gr(d, V ) ∩ UI `e una variet`a affine.

1.2

Celle di Schubert

Consideriamo una matrice X di rango d, la propriet`a che le righe i1, ..., id

siano linearmente indipendenti `e preservata dall’azione per moltiplicazione a destra per M ∈ Gld(C), quindi senza perdere di generalit`a

consideria-mo il sottospazio generato dalle colonne di X e lo indichiaconsideria-mo con W (X). Ora prendiamo wid l’ultimo vettore riga diverso da zero, e

induttivamen-te definiamo wik il primo vettore riga che `e linearmente indipendente con

wik+1, ..., wid. Indichiamo con s(W ) la sequenza di indici ii, ..., id ottenuta

dai vettori riga considerati.

Definizione 1.5. Definiamo cella di Schubert l’insieme Ci1,...,id = {W ∈ Gr(d, V ) | s(W ) = i1, ..., id}.

Osserviamo che Ci1,...,id `e contenuta nell’aperto di Gr(d, V ) dove le

(9)

come una matrice X ∈ Sd,n tale che la sottomatrice estratta prendendo le

righe i1, ..., id`e la matrice identit`a. Pertanto le righe i1, ..., idsono le colonne

della matrice identit`a, le righe dopo di idsono 0, e le righe tra ik+1 e ik sono

vettori con le coordinate minori di k uguali a 0.

Esempio 1.1. Consideriamo d = 4, n = 7, I = {i1= 2, i2= 4, i3 = 6, i4 = 7}, un rappresentante di CI `e a1 a2 a3 a4 1 0 0 0 0 a5 a6 a7 0 1 0 0 0 0 a8 a9 0 0 1 0 0 0 0 1

Osserviamo che da questa rappresentazione di una cella di Schubert pos-siamo concludere che questa `e un sottospazio affine chiuso di UI in quanto

`e descritto dall’annullarsi di certe coordinate. In particolare possiamo cal-colarne la dimensione che sar`a data dal numero di parametri liberi nella matrice che lo rappresenta, quindi vale il seguente risultato

Proposizione 1.6. CI `e un sottospazio chiuso dell’aperto UI della

Grass-manniana Gr(d, n) e la sua dimensione `e

dim(CI) = d−1

X

k=1

k(id+1−k− id−k− 1) + d(i1− 1).

Indichiamo con B ⊂ Gl(d, C) l’insieme delle matrici triangolari superiori. Vale il seguente risultato:

Teorema 1.7. CI `e una B-orbita, con I = (i1< .... < id).

Dimostrazione. Consideriamo X la matrice che rappresenta la cella CI, e

as-sociamo a X una n×n-matrice ˜X tale che la colonna ik`e uguale alla k-esima

colonna di X, e le altre sono le colonne della matrice identit`a. Chiaramente X = ˜XIi1,...,id

(10)

dove Ii1,...,id `e una matrice n × d la cui k-esima colonna corrisponde con la

colonna ik della matrice identit`a. Per costruzione la matrice ˜X `e triangolare

superiore, quindi CI `e una B-orbita. Vediamolo con l’esempio precedente.

X =              1 a1 0 a2 0 a3 a4 0 1 0 0 0 0 0 0 0 1 a5 0 a6 a7 0 0 0 1 0 0 0 0 0 0 0 1 a8 a9 0 0 0 0 0 1 0 0 0 0 0 0 0 1                           0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1             

Siamo interessati a studiare le celle di Schubert per ottenere una decom-posizione in celle della Grassmanniana Gr(d, V ).

Definiamo un ordine sulle sequenze di indici crescenti

I = (i1, ..., id) ≤ J = (j1, ..., jd) ⇐⇒ i1 ≤ j1, ..., id≤ jd.

Proposizione 1.8. Sia I = (i1, ..., id), la cella di Schubert CI corrisponde

al sottoinsieme di Gr(d, V ) in cui [i1, ..., id] 6= 0 e [j1, ..., jd] = 0 per ogni

J  I.

Dimostrazione.

⇒) Prendiamo W ∈ CI e sia X ∈ Sn,d tale che W (X) = W e tale che

la sottomatrice estratta dalle righe i1, ..., id sia l’identit`a. Sia J  I,

possiamo distinguere due casi:

– supponiamo J > I, allora ∃ k tale che jk > ik, se considero

la sottomatrice di X formata dalle ultime n − k righe, questa avr`a al pi`u rango uguale a d − k − 1, quindi necessariamente X[j1, ..., jd] = 0.

– supponiamo ora che J e I non siano confrontabili, sicuramen-te ∃k tale che ik < jk < jk+1 < ik+1 quindi nella

sottomatri-ce X[j1, ..., jd] ho due righe linearmente dipendenti, cio`e

quel-le corrispondenti a jk e jk+1, quindi la coordinata di Pl¨ucker si

(11)

⇐) Consideriamo un punto W ∈ Gr(d, V ) e consideriamo X ∈ Sn,d la matrice che rappresenta W le cui righe i1, ..., id sono le corrispondenti

righe della matrice l’identit`a, e in modo tale che X[i1, ..., id] 6= 0 e

X[j1, ..., jd] = 0 se J  I. Vogliamo provare che W ∈ CI, quindi che

s(W ) = I. Sia s(W ) = K = (k1, ..., kd), poich`e X[K] 6= 0, per il

punto precedente, K ≤ I. Se K < I allora per ipotesi avremmo che X[K] = 0, che `e assurdo, quindi K = I.

1.3

Variet`

a di Schubert

Consideriamo la bandiera standard

F1 =< e1> ⊂ F2 =< e1, e2> ⊂ · · · ⊂ Fn=< e1, ..., en> .

Dato uno spazio W ∈ CI, con I = (i1 < ... < id), consideriamo una matrice

X tale che X = W (X) e indichiamo con v1, ..., vdle sue colonne, per quanto

osservato nel paragrafo precedente X puo’ essere scelta senza perdere di generalit`a in modo che la sottomatrice estratta dalle righe corrispondenti agli indici di I sia la matrice identit`a. Consideriamo ora un generico vettore v ∈ W , v =Pd

k=1ckvk, osserviamo che la coordinata di v corrispondente a

ik `e proprio uguale a ck per 1 ≤ k ≤ d. Quindi otteniamo

W ∩ Fi = ( d X k=1 ckvk | ck= 0 se ik> i )

Quindi calcolando le dimensioni di queste intersezioni si ottiene di = dim(W ∩ Fi) = |{k | 1 ≤ k ≤ d, ik ≤ i}|.

Si ha

Proposizione 1.9.

I ≤ J ⇐⇒ dIi ≥ dJi ∀i Dimostrazione.

(12)

” ⇒ ” ik ≤ jk ≤ i ⇒ ik ≤ i, quindi |{k | ik ≤ i}| ≥ |{k | jk ≤ i}|, quindi

dIi ≥ dJ i.

” ⇐ ” Dimostriamo per induzione su k che ik ≤ jk ∀k = 1, ..., d.

Consi-deriamo k = 1, dJ1 ≤ dI

1 ≤ 1, quindi `e facile vedere che j1 ≥ i1.

Supponiamo che ih ≤ jh ∀h ≤ k, e proviamo che ik+1 ≤ jk+1. Se

per assurdo ik+1 > jk+1 allora Fik+1 =< e1, ..., ejk+1, ..., eik >, quindi

avremo che dJi k+1 > d I ik+1. Dato I = (i1, ..., id), definiamo SI= {W | dim(W ∩ Fi) ≥ di[I]}.

Osserviamo che CI = {W | dim(W ∩ Fi) = di[I]}, quindi

SI =

[

J ≤I

CJ. (1.1)

Per come abbiamo definito SI possiamo identificarlo con l’insieme dei punti

della Grassmanniana per cui le coordinate J  I si annullano. Questo si vede facilmente da 1.1. Vogliamo dare una caratterizzazione geometrica di SI.

Teorema 1.10. SI `e la chiusura di Zariski di CI, ed `e chiamata variet`a di

Schubert.

Dimostrazione. Chiaramente CI ⊂ SI, inoltre SI `e un chiuso di Zariski,

infatti corrisponde con i punti in cui si annullano certe coordinate di Pl¨ucker. Quindi CI ⊂ SI. Proviamo ora che SJ ≤ICJ ⊂ CI. Consideriamo J =

(j1, ..., jd) adiacente ad I e J ≤ I, allora ∃k tale che jk= ik−1. Consideriamo

la matrice X tale che la sottomatrice estratta dalle righe i1, ..., id sia la

matrice identit`a, prendiamo poi la matrice A ∈ B tale che a11= ... = ann= 1

e ak,k+1 = ε e moltiplichiamo A con X, otteniamo una matrice in cui la

k-esima colonna `e il vettore eik + εeik−1, e le altre sono le colonne di X,

(13)

ad infinito, quello che otteniamo `e una matrice che appartiene alla cella di Schubert CJ. Vediamolo con un esempio, sia I = (2, 4, 6, 7) e J = (2, 3, 6, 7)

             1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 ε 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1                           0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1              =              0 0 0 0 1 0 0 0 0 ε 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1              W              0 0 0 0 1 0 0 0 0 ε 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 1              = W              0 0 0 0 1 0 0 0 0 1 0 0 0 ε−1 0 0 0 0 0 0 0 0 1 0 0 0 0 1              −−−→ ε→∞ W              0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 1             

1.4

Monomi standard

In questa sezione vogliamo descrivere le relazioni tra le coordinate di Pl¨ucker. Per farlo useremo un approccio puramente formale e combinatorio.

Sia Mn,d lo spazio delle matrici n × d con d ≤ n. Sia A = Z[xij] l’anello

delle funzioni polinomiali su Mn,da coefficienti interi. Consideriamo un

ele-mento in A come una funzione delle righe e lo denoteremo con f (x1, ..., xn).

Come nelle sezioni precedenti denotiamo con [i1, ..., id] il determinante del

minore massimale di X ∈ Mn,d estratto dalle righe i1, ..., id e chiamiamo

questa coordinata di Pl¨ucker.

Osservazione 1.11. Una coordinata di Pl¨ucker ha le seguenti propriet`a • [i1, ..., id] = 0 ⇐⇒ due indici coincidono.

(14)

• [i1, ..., id] `e multilineare come funzione dei vettori variabile.

Quello che vogliamo provare `e che le coordinate di Pl¨ucker soddisfa-no delle relazioni quadratiche. Assumiamo che n ≥ 2d e consideriamo il prodotto

f (x1, ..., xn) = [1, 2, ...., d][d + 1, ..., 2d]

Prediamo k ≤ d e consideriamo le d + 1 variabili xk, ..., xd, xd+1, ..., xd+k,

consideriamo X

σ∈Sd+1

σf (x1, ..., xk−1, xσ(k), ...., xσ(d), xσ(d+1), ..., xσ(d+k), xd+k+1, ..., x2d).

(1.2) questa `e una funzione multilineare e alternante in d + 1 variabili quindi deve essere 0 in quantoVd+1

(Zd) = 0. L’espressione 1.2 `e una relazione quadra-tica tra le coordinate di Pl¨ucker, semplifichiamo questa relazione.

La funzione [1, ..., d][d + 1, ..., 2d] `e alternante rispetto all’azione del sotto-gruppo Sd−k+1 × Sk delle permutazioni che permutano separatamente le

variabili k, ..., d e d + 1, ..., d + k. Quindi se g ∈ Sd+1, h ∈ Sd−k+1× Sk si ha

ghf (x1, ..., x2d) = hgf (x1, ..., x2d).

Siano g1, .., gN i rappresentanti dei laterali sinistri g(Sd−k+1× Sk),

chiara-mente 0 = N X i=1 gigif (x1, ..., x2d). (1.3)

Vogliamo scegliere i giin maniera opportuna. Consideriamo h elementi fuori

da xk, ..., xd e altri h diversi da xd+1, ..., xd+k e scambiamo i due insiemi

di elementi, e poi componiamo con un riordinamento degli indici in ogni coordinata di Pl¨ucker.

Questi elementi saranno i rappresentanti dei laterali sinistri g(Sd−k+1×

Sk), quindi possiamo riscrivere la relazione (1.3) con questi elementi.

Indi-chiamo con la scrittura

i1, ..., id j1, ..., jd

(15)

il prodotto tra le coordinate di Pl¨ucker [i1, ..., id] e [j1, ..., jd]. Vediamo

un esempio della relazione quadratica tra coordinate di Pl¨ucker appena descritta. Esempio 1.2. Sia d = 2, n = 4 si ha 0 = 1 4 2 3 − 1 2 4 3 − 1 3 2 4 = 1 4 2 3 + 1 2 3 4 − 1 3 2 4 .

Scegliamo ora degli indici i1, ..., id, j1, ..., jd e nella relazione (1.3)

sosti-tuiamo xh con ih per ogni e xd+h con jh per ogni 1 ≤ h ≤ d, quello che

otteniamo sar`a un espressione di questo tipo X  i1, ..., ik, ..., id j1, ..., jk, ..., jd ∼ = 0 (1.4)

dove gli indici sottolineati sono quelli tra cui si effettuano gli scambi descritti precedentemente.

Quindi abbiamo descritto delle relazioni quadratiche tra le coordinate di Pl¨ucker. Ora dimostreremo che queste sono tutte e sole le relazioni che esistono.

Consideriamo l’anello dei polinomi nei simboli |i1, ..., id| come variabili

indipendenti con le condizioni

(S1) |i1, ..., id| = 0 se e solo se si ripetono due indici.

(S2) |i1, ..., id| `e antisimmetrico rispetto a una permutazione degli indici.

Possiamo pensare l’espressione (1.4) come un polinomio quadratico in Z[|i1, ..., id|].

inoltre osserviamo che se sostituiamo i simboli |i1, ..., id| con le coordinate di

Pl¨ucker [i1, ..., id] i polinomi quadratici nell’espressione 1.4 svaniscono. Sia

J l’ideale generato da questi polinomi, e consideriamo A = Z[|i1, ..., id|]/J .

Il nostro obiettivo `e dimostrare il seguente teorema Teorema 1.12. La mappa

j : A = Z[|i1, ..., id|]/J → Z[[i1, ..., id]]

(16)

Dimostreremo qualcosa di pi`u forte utilizzando la variet`a di Schubert descritta nella sezione precedente. Questo risultato ci dice che le relazioni tra le coordinate di Pl¨ucker sono tutte e sole quelle descritte precedentemente e che generano l’ideale J .

1.5

Algoritmo di raddrizzamento

Consideriamo un prodotto di coordinate di Pl¨ucker [i11, ..., i1d][i21, ..., i2d] . . . [in1, ..., ind]

e lo rappresentiamo con il seguente tableau i11 . . . i1d i21 . . . i2d . . . . . . in1 . . . ind

grazie alla propriet`a di antisimmetria, possiamo assumere che gli indici in ogni riga siano strettamente crescenti, altrimenti il prodotto `e zero oppure, a meno del segno,`e uguale al prodotto con la riga riordinata.

Definizione 1.13. Diciamo che un tableau rettangolare `e standard se le sue righe sono strettamente crescenti e le sue colonne sono non-decrescenti, e chiameremo monomio standard il corrispondente monomio.

Sar`a utile per la nostra trattazione associare a un tale tableau la parola ottenuta leggendo sequenzialmente i numeri di ogni riga, ovvero

i11, ..., i1d, i21, ..., i2d, . . . , in1, ..., ind.

e ordinare queste parole in ordine lessicografico.

Lemma 1.14. Un prodotto T di due coordinate di Pl¨ucker T = i1, ..., ik, ..., id j1, ..., jk, ..., jd

puo’ essere espresso tramite la relazione 1.4 come una combinazione lineare a coefficienti interi di tableaux standard con due righe, che sono pi`u piccoli di T nell’ordine lessicografico e che hanno gli stessi indici.

(17)

Dimostrazione. Possiamo assumere senza perdit`a di generalit`a che le righe siano strettamente crescenti. Dato che T non `e standard prendiamo il pi`u piccolo k per cui jk < ik. considero la relazione quadratica 1.2 applicata a

T , in questa somma compaiono dei tableaux in cui ho scambiato alcuni dei i1, ...., ik con j1, ..., jk, questi tableaux sono lessicograficamente pi`u piccoli

di T . Pertanto abbiamo ottenuto T come somma di tableaux lessicografica-mente pi`u piccoli, e questo `e il primo passo dell’algoritmo di raddrizzamento. Ora se i tableaux ottenuti sono standard si ha la tesi, se invece non `e cos`ı, applico lo stesso passo dell’algoritmo ai tableuax non standard della som-ma. Poich´e i tableaux con due righe di indici i1, ..., in e j1, ..., jn sono in

numero finito e totalmente ordinati lessicograficamente, questo algoritmo termina.

Teorema 1.15. Ogni tableau rettangolare con n righe `e una combinazione lineare a coefficienti interi di tableaux standard. Per arrivare alla forma standard si ripete l’algoritmo di raddrizzamento su due righe consecutive. Dimostrazione. La dimostrazione segue dal lemma precedente, perch´e appli-chiamo l’algoritmo descritto prima ad ogni coppia di righe fino ad ottenere la tesi.

Definizione 1.16. Diciamo che un monomio standard `e standard su SI se

`e il prodotto di coordinate di Pl¨ucker minori o uguali ad I.

Teorema 1.17. I monomi che sono standard su SI sono una base dell’anello

delle coordinate proiettive di SI.

Dimostrazione. I monomi che non sono standard su SI sono quelli in cui

le coordinate che li compongono non sono minori o uguali di I, quindi si annullano su SI. Ci resta da provare, allora, che i monomi standard sono

linearmente indipendenti se li restringo a SI. Supponiamo per assurdo che

esista una combinazione lineare di questi che si annulla su SI, a

X

k=1

(18)

e assumiamo che sia di grado minimo con questa propriet`a. Per ogni mono-mio Tkconsideriamo la sua coordinata minima pke quindi possiamo scrivere

Tk = pkTk0, tra le coordinate pk consideriamo pJ la pi`u piccola di tutte e

decomponiamo la somma b X k=1 ckpkTk0+ pJ( a X k=b+1 ckTk0),

dove nel primo termine ci sono tutti i monomi che cominciano con una coordinata diversa da pJ. Per ipotesi I ≥ J , se restringiamo la relazione su

SJ tutti i monomi che contengono delle coordinate non minori o uguali a J

svaniscono, quindi, poich`e pk> pJ, si ha

Pb

k=1ckpkTk0. Ma SJ`e irriducibile,

quindi il suo anello delle coordinate `e un dominio e pJ `e diverso da zero su

SJ, quindi necessariamente Pak=b+1ckTk0 = 0 su SJ. Poich`e J ≤ I si ha

SJ ⊂ SI, quindi questo `e nullo anche su SI e ha grado minore, quindi ho un

assurdo.

Pertanto abbiamo dimostrato un risultato pi`u forte del teorema 1.12, in quanto abbiamo provato che i monomi standard generano tutto l’anello delle coordinate di SI, e non solo Z[[i1, ..., in]].

(19)

Grassmanniana affine

Passiamo a definire la grassmanniana affine, in particolare troviamo un em-bedding di questa nella Grassmanniana infinita. Inoltre decomponiamo la Grassmanniana affine in celle di Schubert e definiamo un ordine di Bruhat sulle celle con cui dimostreremo che una variet`a di Schubert `e unione di celle di Schubert.

2.1

Grassmanniana infinita

In questa sezione definiamo la Grassmanniana infinita, che generalizza il concetto di grassmanniana finita visto nel capitolo precedente considerando sottospazi vettoriali di C∞.

Sia X il C-spazio vettoriale delle sequenze indicizzate dagli interi Z di numeri complessi. Indichiamo con C∞ il sottospazio di X delle sequenze aj con

aj = 0 per j << 0, indicher`o una tale successione con P∞j=Najej, quindi

C∞=    ∞ X j=N ajej | N ∈ Z, aj ∈ C    ,

inoltre sia k ∈ Z, definiamo

Ek =    ∞ X j=k ajej | aj ∈ C    19

(20)

Definizione 2.1. Gr(∞), la Grassmanniana infinita, `e definita come l’in-sieme dei sottospazi V di C∞ tali che Em ⊂ V ⊂ E−m per un qualche

m ∈ N.

Definizione 2.2. Definiamo

vdim(V ) = dim(V /V ∩ E1) − dim(E1/V ∩ E1)

Preso j ∈ Z indichiamo Grj(∞) = {V ∈ Gr(∞) | vdim(V ) = j}

Osserviamo che preso V ∈ Gr(∞) esiste un m ∈ Z tale che Em ⊂ V

allora quozientando per Em si ottiene che V /Em `e contenuto in qualche

Grassmanniana finita. Possiamo quindi descrivere la Grassmanniana infini-ta come unione di Grassmanniane finite contenute una dentro l’altra.

2.1.1 Struttura di Ind-variet`a

Osserviamo che Gr(∞) possiede una struttura di Ind-variet`a proiettiva. Definizione 2.3. Con Ind-variet`a intendiamo un insieme X e una filtrazione X0 ⊂ X1⊂ X2 ⊂ ..., tali che

1. S

n≥0Xn= X,

2. Ogni Xn`e una variet`a di dimensione finita tale che l’inclusione Xn,→

Xn+1 `e un embedding chiuso.

Consideriamo s ∈ N e sia Vs = t−s(n−1)E1/tsE1, dove dimC(Vs) = sn2.

Consideriamo l’embedding φs: sn ^ Vs ,→ s+1 ^ Vs+1 v1∧ v2∧ ... ∧ vsn7→ v1∧ ... ∧ vsn∧ tse1∧ ... ∧ tsen, e definiamoV∞

V∞come il limite diretto lim−→(VsnVs). La mappa φsinduce

una immersione chiusa P(VsnV

s) → P( V(s+1)nV s+1), e definiamo P( V∞ V∞) = S s∈NP( Vsn

Vs), questo `e una Ind-variet`a proiettiva. Sia

Fs=nV ∈ Gr0(∞) | t−s(n−1)E1

(21)

Sia bs : Fs → Gr(sn, Vs), V 7→ V /tsE1, osserviamo che questa `e una

bige-zione, quindi possiamo identificare Fs con la sua immagine tramite bs. Sia

js l’embedding di Pl¨ucker di Gr(sn, Vs) nello spazio proiettivo P(VsnVs), si

ha il seguente diagramma commutativo Gr(sn, Vs)  js // P(VsnVs) φs  Gr((s + 1)n, Vs+1) j s+1 //P(V(s+1)n Vs+1). QuindiS s≥0Fs∼= S

s≥0Gr(sn, Vs), pertanto possiamo vedere

S

s≥0Fscome

una sotto-Ind-variet`a chiusa di P(V∞ V∞). Proposizione 2.4. Gr0(∞) = [ s≥0 Fs Dimostrazione. Sia V ∈ Gr(∞) tale che tsE

1 ⊂ V ⊂ t−s(n+1)E1. Si ha

V ∈ Fs se e solo se

sn = dim(V /tsE1)

= dim(V /V ∩ E1) + dim(V ∩ E1/tsE1)

= dim(V /V ∩ E1) + dim(E1/tsE1) − dim(E1/V ∩ E1)

= dim(V /V ∩ E1) + sn − dim(E1/V ∩ E1)

quindi vdim V = 0, cio`e V ∈ Gr0(∞).

Pertanto Gr0(∞) = Ss≥0Gr(sn, Vs), quindi ha una struttura di

Ind-variet`a sulla filtrazione Gr(sn, Vs) al variare di s ∈ N, dove l’inclusione di

Gr(sn, Vs) ⊂ Gr((s + 1)n, Vs+1) `e un embedding chiuso.

2.2

Grassmanniana affine

Ora definiamo la Grassmanniana affine e troviamo una corrispondenza per trattarla come un sottoinsieme della Grassmanniana infinita.

(22)

Siano F = C((t)) e A = C[[t]].

Definizione 2.5. Definiamo la grassmanniana affine come l’insieme degli A-reticoli in Fn, quindi

c

Gr(n) = {M ∈ FnA-modulo libero di ragngo n}. Possiamo identificare i C-spazi vettoriali

C∞←→ Fn (∗) ∞ X j=N ajecjn+ij ←→ ∞ X j=N ajtcjeij

dove j = cjn + ij con 1 ≤ ij ≤ n e cj ∈ Z. In questo modo otteniamo un

embedding della grassmanniana affine nella grassamanniana infinita, iden-tificando cGr(n) con l’insieme dei sottospazi t-stabili, ovvero cGr(n) = {V ∈ Gr(∞) | tV ⊂ V }, dove con t indichiamo la moltiplicazione per t su Gr(∞). In particolare osserviamo che E1 ∈ Gr(∞) `e in corrispondenza con lo spazio

L1=< e1, ..., en>A.

Definizione 2.6. Sia I ⊂ Z definiamo la cardinalit`a virtuale di I vcard = ||I||= |I \ I ∩ N| − |N \ I ∩ N|..

Chiamiamo un insieme I ⊂ Z al pi`u naturale se le cardinalit`a |I \ I ∩ N|,|N \ I ∩ N| sono finite. Abbiamo un corrispondenza tra sottoinsiemi di Z al pi`u naturali e sottospazi nella grassmanniana infinita, infatti dato I ∈ Z al pi`u naturale possiamo definire

EI= ( X i∈I aiei | ai∈ C ) ,

e osserviamo che vdim(EI) = vcard(I).

Se (ij) = (i1 < i2 < ...) `e una sequenza crescente di interi, diciamo che (ij)

`e al pi`u naturale se l’insieme {ij} lo `e, e definiamo vcard(ij) = vcard{ij}.

Osserviamo che le sequenze di interi al pi`u naturali hanno cardinalit`a virtuale uguale a c se e solo se per j >> 0 vale ij = j + c. Sia c ∈ Z, indichiamo con

(23)

Icl’insieme delle sequenze crescenti di interi che hanno cardinalit`a virtuale

pari a c.

Osserviamo che, tramite l’identificazione (∗) , possiamo ottenere una corrispondenza tra gli elementi di Zn e i sottoinsiemi di Z nel seguente modo

Zn−→ {I ∈ Z | I al piu naturale τ I ⊂ I}

λ = (λ1, ...λn) 7→ I(λ) = {1 + λ1n, 2 + λ2n, ..., n + 1 + λ1n, ...}

Tramite l’embedding della Grassmannina affine nella Grassmanniana infi-nita, possiamo dare una struttura di Ind-variet`a anche alla Grassmanniana affine. Consideriamo l’endomorfismo tssu Vsche moltiplica per t, e

prendia-mo us = 1 + ts, allora us `e un automorfismo unipotente di Vs, e denotiamo

sempre con us l’automorfismo indotto su Gr(sn, Vs). Sia

Hs= ( V ∈ cGr0(n) | tsE1 ⊂ V ⊂ t−s(n+1)E1 dimC(V /tsE1) = sn )

Usando l’identificazione (*) si ottiene

Hs ∼= {V ∈ Fs | tV ∈ V } ∼= Gr(sn, Vs)us

quindi Hs `e una sottovariet`a proiettiva di Gr(sn, Vs). Pertanto cGr0(n) =

S

s≥0Hs∼=

S

s≥0Gr(sn, Vs)us.

2.3

B-orbite

Consideriamo l’azione di GLn(F ) su cGr(n), questa azione `e transitiva e il

sottogruppo di isotropia di L1 `e GLn(A), quindi cGr(n) = GLn(F )/GLn(A).

Definiamo B = {g = (gij) ∈ GLn(A) | ord(gij) > 0 f or i > j}.

Studia-mo le B-orbite, queste hanno un ruolo importante nella descrizione della grassamanniana, infatti abbiamo una decomposizione di questa in B-orbite disgiunte, vale il seguente teorema

Teorema 2.7.

c

Gr(n) = G

λ∈Zn

(24)

dove λ = (λ1, ..., λn) ∈ Zn e tλ=       tλ1 tλ2 . .. tλn       .

Dimostrazione. Definiamo la bandiera F

. . . < te1, te2, ..., en>A ⊂ < te1, e2, ..., en>A ⊂ < e1, ..., en>A ⊂ = = = Λ2 Λ1 Λ0 ⊂ < e1, e2, ..., t−1en>A ⊂ < e1, e2, ..., t−1en−1, t−1en>A ⊂ . . . = = Λ−1 Λ−2

Sia M ∈ cGr(n), allora esiste N tale che tNΛ0 ⊂ M , definiamo

di= dimC M ∩ Λi tNΛ 0 − dimCM ∩ Λi+1 tNΛ 0 ,

Prendiamo cj = mini{di = 1 t.c. i ≡nj}. Si ha cj = nλj+ j per un qualche

λj ∈ Z, per come abbiamo definito cj, esiste un vettore vj ∈ M ∩ Λcj e

v /∈ M ∩ Λcj+1, quindi possiamo scrivere vj = tλj(en+ ... + ej) + tλj+1wj,

dove wj ∈ Λj+1.

Vogliamo dimostrare che M =< v1, ..., vn>A.

Chiaramente < v1, ..., vn >A⊆ M . Per l’altra inclusione consideriamo

v ∈ M , allora ∃i t.c. v ∈ Λi e v /∈ Λi+1, allora ∃ j tale che i > cj, per

costruzione dei cj, quindi v − t(i−cj)vj ∈ Λi+1. Osserviamo che esiste µ tale

che tµΛ

0 ⊂< v1, ..., vn >A, quindi iterando questo procedimento otteniamo

v ∈< v1, ..., vn>.

Quindi posso vedere M come una matrice in B per una matrice diagonale       ϕ1,1 tϕ1,2 . . . tϕ1,n ϕ2,1 ϕ2,2 . . . tϕ2,n .. . ... . .. ... ϕn,1 ϕn,2 . . . ϕn,n           tλ1 . .. tλn     dove ϕii(0) = 1.

(25)

Mettiamo in relazione le sequenze di interi associate ad un λ ∈ Zn defi-nite precedentemente con le dimensioni delle intersezioni di spazi vettoriali definiti nella dimostrazione del teorema 2.7, per darne una caratterizzazione geometrica. Osserviamo, infatti, che vale il seguente risultato:

Proposizione 2.8. I di definiti nella dimostrazione del teorema 2.7 sono

tali che

di = 1 ⇐⇒ i + 1 ∈ I(λ)

Dimostrazione. Distinguiamo due casi: il primo in cui i ≥ 0 e il caso in cui i < 0.

• Supponiamo i ≥ 0 e i = kn + j dove 0 ≤ j < n, allora Λi =< tk+1e1, ..., tk+1ej, tkej+1, ..., tken>A e Λi+1=< tk+1e1, ..., tk+1ej, tk+1ej+1, tkej+2..., tken>A quindi di = j X h=1 − max{λh, k + 1} + n X h=j+1 − max{λh, k}− − j+1 X h=1 − max{λh, k + 1} − n X h=j+2 − max{λh, k} = = max{λj+1, k + 1} − max{λj+1, k} di = 1 ⇐⇒ λj+1≤ k.

Pertanto i + 1 = λj+1n + (j + 1) + (k − λj+1)n ∈ I(λ). Inoltre se

0 < i + 1 ∈ I(λ), allora ∃k, l ∈ N tale che i + 1 = (λk+1+ l) + k + 1,vale

di = max{λk+1, λk+1+ l + 1} − max{λk+1, λk+1+ l} = 1.

• Ora prendiamo i < 0 e scriviamo i = kn + j con −n < j ≤ 0. Ora Λi=< tke1, ..., tken+j, tk−1en+j+1, ..., tk−1en>A

(26)

e Λi+1=< tke1, ..., tken+j+1, tk−1en+j+2, ..., tk−1en>A Quindi di = n+j X h=1 − max{λh, k} + n X h=n+j+1 − max{λh, k − 1}− − n+j+1 X h=1 − max{λh, k} − n X h=n+j+2 − max{λh, k − 1} = = max{λn+j+1, k} − max{λn+j+1, k − 1} di = 1 ⇐⇒ λn+j+1≤ k − 1.

Pertanto i+1 = λn+j+1n+(j +1)+(k −λn+j+1)n ∈ I(λ). Viceversa se

0 > i+1 ∈ I(λ), ∃k ∈ Z\N e l ∈ N tali che i+1 = (λn+k+l)n+n+k =

(λn+k+1+ l + 1)n + k, allora Λi=< tλn+k+l+1e1, ..., tλn+k+l+1en+k−1, tλn+k+len+k, ..., tλn+k+len>A e Λi+1=< tλn+k+l+1e1, ..., tλn+k+l+1en+k, tλn+k+le n+k+1, ..., tλn+k+len> quindi di= max{λn+k, λn+k+ l + 1} − max{λn+k, λn+k+ l} = 1.

Ora ci restringiamo a studiare il caso di cGr0(n). Per il teorema 2.7, si

avr`a c Gr0(n) = [ λ,||λ||=0 Btλ Preso λ = (λ1, ..., λn) con ||λ|| = 0 definiamo

fiλ = dimt λ∩ Λ i tNΛ 0 ,

(27)

con N = max{λi} + 1. Se i ≥ 0 e i = kn + j con 0 ≤ j < n vale fiλ = j X h=1 − max{λh, k + 1} + n X h=j+1 − max{λh, k},

se invece i ≤ 0 e i = kn + j con −n < j ≤ 0 vale

n+j X h=1 − max{λh, k} + n X h=n+j+1 − max{λh, k − 1}.

Osservazione 2.9. Siano λ = (λ1, ..., λn) e µ = (µ1, ..., µn), con ||λ||, ||µ|| =

0, vale

fiλ ≤ fiµ ∀i ⇐⇒ I(λ) ≤ I(µ).

Dimostrazione. Chiamo I(λ) = I = (i1, i2, ...) e I(µ) = J = (j1, j2, ...)

Osserviamo che ∃M ∈ Z tale che tλ, tµ ⊂ tMΛ

0, quindi le due successioni

fiλ e fiµ coincidono fino ad un certo punto. Supponiamo che I ≤ J , allora per definizione ik ≤ jk, pertanto la successione fiλ diminuisce di 1 sempre

prima di quella di µ, poich`e all’inizio le due successioni coincidono, questo vuol dire che fiλ ≤ fiµ ∀i. Viceversa se fλ

i ≤ f µ

i ∀i, allora la prima scende

di 1 sempre prima della seconda per tanto I ≤ J .

Vogliamo definire un ordine su queste sequenze di interi e descrivere le B-orbite.

2.4

Ordine di Bruhat

Consideriamo Zn0 e studiamo l’azione del prodotto semidiretto W = Snn Zn0

su questo. Siano i < j ∈ N, e sia αi,j = ei− ej in Zn0, sia h ∈ Z definiamo

sα,h la riflessione rispetto all’iperpiano degli x ∈ Zn0 tali che < x, α >= h.

Preso un elemento λ = (λ1, ..., λn) ∈ Zn0 indichiamo l’azione della riflessione

sα,h su λ con sα,h.λ. Questa azione sostituisce λi con λj+ h e λj con λi− h.

Osservazione 2.10. Osserviamo che preso w ∈ W , esistono β e k tali che wsα,hw−1 = sβ,k.

(28)

Introduciamo gli elementi s0, ..., sn−1 ∈ W , s0 = sα1,n,1 e si = sαi,i+1,0

per i = 1, ..., n − 1, che saranno necessari per trovare gli elementi adiacenti del seguente ordine.

Definizione 2.11. Dati I = (i1 < ... < ik < ...) e J = (j1 < ... < jk < ...)

sottoinsiemi ordinati di Z, diremo

I ≤ J ⇐⇒ ih≤ jh ∀h ∈ N.

Abbiamo gi`a definito nel paragrafo precedente la cardinalit`a virtuale di tali insiemi, ora osserviamo che dato λ = (λ1, ..., λn), la sequenza I(λ) `e

un insieme al pi`u naturale con cardinalit`a virtuale uguale aPn

i=1−λi. Ci

restringiamo a considerare il caso di cGr0(n), quindi considereremo n-upla la

cui somma degli elementi `e nulla. Cerchiamo una relazione tra l’ordine sulle sequenze in I0 e le n-uple in Zn0.

Con i prossimi risultati dimostreremo che il passo pi`u piccolo nell’ordi-ne di I0 si ottiene quando cambiano solo due elementi di una n-upla, in

particolare presi λ, µ ∈ Zn0 si ha

I(λ) e I(µ) sono adiacenti ⇐⇒ esistono α e h tali che µ = sα,h.λ.

Descriviamo la sequenza I(si.λ). Questa sequenza differisce da I(λ) solo

nei posti congrui a i e a i + 1 modulo n, in particolare in I(si.λ) compare

λin + i + 1 che non `e presente in I(λ), mentre λin + i appartiene a I(λ) e

non a I(si.λ), questa `e l’unica differenza tra le due sequenze che si ripete a

distanza n fino a che non si ha λin + cn + i = λi+1n + i per un certo c ∈ N,

da questo punto in poi le due sequenze coincidono. Illustriamo graficamen-te quanto appena descritto, rappresentiamo Z come un retta orientata, su questa descriviamo una sequenza I nel seguente modo: sul punto della retta che rappresenta un intero che compare in I inseriamo

×

, invece in tutti gli altri punti.

I(si.λ) . . . λkn+k+1

×

. . .

×

. . . I(λ) . . .

×

λkn+k . . .

×

. . .

(29)

Lemma 2.12. Presi α = el− em, h ∈ Z e λ ∈ Zn0, vale che I(λ) e I(sα,h.λ)

sono sempre confrontabili.

Dimostrazione. Per semplicit`a chiamiamo ˜λ = sα,h.λ. Tra I(λ) = (i1< i2 <

...) e I(˜λ) = (˜i1 < ˜i2 < ...) cambiano solo gli elementi sulle congruenze l e

m modulo n. Supponiamo λl+ h > λm e quindi λm− h < λl. Sia k tale che

ik = λmn + m e sia j tale che ˜ij = (λm− h)n + l < λln + l, ora supponiamo

che k < j, poich`e (λl+ k)n + m > λmn + m si avr`a che ˜ik = ik+ 1 > ik e

questo avviene fino a ˜ij, da j + 1 si ha ˜ij+1= ij+1, e questo si ripete dopo

n passi finch`e le sequenze non coincidono su tutti gli elementi. Quindi in questo caso si avr`a I(sα(λ)) ≥ I(λ), gli altri casi sono analoghi. Illustriamo

con uno schema quanto appena descritto

I(sα,h.λ) . . . . . . (λm−h)n+l

×

. . . . . .

×

. . . I(λ) . . .

×

λmn+m . . . . . .

×

. . . . . .

Lemma 2.13. Sia λ ∈ Zn0 e λ 6= 0, si hanno i seguenti casi

1. se esistono λk< λk+1, allora I(sk(λ)) > I(λ).

2. se λ1 > λ2> · · · > λn, allora I(s0(λ)) > I(λ).

Dimostrazione.

1. Supponiamo che in λ esistono λk < λk+1. Sia I(λ) = (i1, i2, ....) e

I(sk(λ)) = (˜i1, ˜i2, ....). Come visto precedentemente le uniche

diffe-renze nelle due sequenze compaiono sulle congruenze k e k + 1. In particolare si ha che esiste j tale che ij = λkn + k e ˜ij = λkn + k + 1 =

(30)

I(sk.λ) > I(λ). I(sα(λ)) . . . λkn+k+1

×

. . .

×

. . . I((λ)) . . .

×

λkn+k . . .

×

. . . 2. Supponiamo λ = (λ1 > λ2 > .... > λn), consideriamo s0 ∈ W , si

ha s0.λ = (λn+ 1, λ2, ...., λn−1, λ1− 1). Come gi`a osservato le prime

differenze tra le sequenze sono su λnn + n che compare in I(λ) ma

non in I(s0.λ) e su (λn+ 1)n + 1 che appartiene a I(s0.λ) e non a

I(λ), poich`e (λnn + 1)n + 1 − λnn + n = 1 > 0 si avr`a, come nel caso

precedente, ˜ik= ik+ 1 > ik. Quindi I(s0.λ) > I(λ).

Lemma 2.14. Siano µ, λ ∈ Zn0 e I(µ) > I(λ), sia i ∈ {0, ..., n − 1} tale che

I(si.λ) > I(λ). Allora valgono

1. Se I(si.µ) ≥ I(µ) =⇒ I(si.µ) ≥ I(si.λ)

2. Se I(si.µ) < I(µ) =⇒ I(µ) ≥ I(si.λ) e I(si.µ) ≥ I(λ).

Dimostrazione.

(1) Supponiamo I(si(µ)) > I(µ). Siano I(µ) = (i1, i2, ...), I(si(µ)) =

(˜i1, ˜i2, ...), I(λ) = (j1, j2...) e I(si(λ)) = (˜j1, ˜j2, ...). Si ha che ˜ih e ih

al pi`u differiscono di 1, cio`e ˜ih = ih oppure ˜ih= ih+ 1, e analogamente

su jh e ˜jh. Quindi l’unica situazione a cui bisogna stare attenti `e quando

˜ih = ih e ˜jh = jh + 1, ma se siamo in questa situazione vuole dire che

jh = λkn + k + ln per un certo l ∈ N e invece ih6= µkn + k + mn, quindi

stanno in congruenze diverse per tanto sono diversi e quindi ih > jh

(31)

schema usato nei lemmi precedenti I(si(µ)) . . . µkn+k+1

×

×

. . .

×

. . . I(µ) . . .

×

µkn+k

×

. . .

×

. . . I(si(λ)) . . . λkn+k+1

×

×

. . .

×

. . . I(λ) . . .

×

λkn+k

×

. . .

×

. . .

(2) Supponiamo I(si(µ)) < I(µ). Allora denotiamo, come prima, I(µ) =

(i1, i2, ...), I(si(µ)) = (˜i1, ˜i2, ...), I(λ) = (j1, j2...) e I(si(λ)) = (˜j1, ˜j2, ...).

Si ha che ˜ih e ih al pi`u differiscono di 1, cio`e ˜ih = ih oppure ˜ih= ih− 1,

mentre ˜jh= jhoppure ˜jh = jh+1. Vogliamo provare che I(si(µ)) > I(λ)

e I(µ) > I(si(λ)). Vale ih≥ jh per ogni h, se la disuguaglianza `e stretta

non abbiamo problemi perche ih ≥ jh+1. Vediamo il caso in cui ih = jhe

˜

jh = jh+ 1. Proviamo che questo non pu`o succedere. Osserviamo prima

di tutto che se ˜jh = jh+ 1 vuole dire che jh+1> jh+ 1. Se fosse cos´ı si

avrebbe ih = (µk+ l)n + k per un qualche l ∈ N, ma poich`e µk> µk+1

allora ih+1= ih+ 1 = (µk+1+ l)n + k + 1 mentre jh+1> jh+ 1, quindi

si avrebbe ih+1 < jh+1 e quindi µ e λ non confrontabili che `e assurdo

per ipotesi. Analogamente si prova che I(si(µ)) ≥ I(λ).

Lemma 2.15. Siano µ, λ ∈ Zn0 e I(µ) > I(λ), sia i ∈ {0, ..., n − 1} tale che

I(si.µ) ≤ I(λ). Allora

Se I(si.µ) ≤ I(µ) =⇒ I(si.µ) ≥ I(si.λ).

(32)

Teorema 2.16. Siano µ, λ ∈ Zn0 e I(µ) > I(λ), allora ∃h e α tali che

I(µ) ≥ I(sα,h.λ) > I(λ).

Dimostrazione. Definiamo dλ = |{µ ∈ Zn0 | λ ≤ µ < 0}|, dove con 0

indichia-mo la n-upla (0, ..., 0), che `e l’elemento pi`u grande. Proviamo che dλ`e finita.

Si ha I(0) = (1, 2, 3, ...), sia I(λ) = (i1, i2, ...), esiste un k tale che per ogni

h ≥ k ih= h. Prendiamo µ ∈ Zn0 tale che λ ≤ µ < 0 e sia I(µ) = (j1, j2, ...),

allora deve valere il ≤ jl ≤ l per ogni l ∈ Z, per h ≥ k si ha h = ih = jh,

pertanto si hanno solo un numero finito di scelte per j1, ..., jk−1, quindi il

numero di µ tali che λ ≤ µ < 0 `e finito. Dimostriamo il teorema per induzione su dλ.

- Proviamo il passo base, cio`e che se dλ = 1 allora si ha la tesi. Dimostriamo

che se dλ = 1 allora λ = (1, 0, ...0, −1) con I(λ) = (0, 2, 3, ...), questo `e

equivalente a provare che se µ 6= (1, 0, ..., 0, −1) e µ 6= 0 allora dµ > 1.

Quindi prendiamo un tale µ e sia I(µ) = (j1, j2, ...), allora per come sono

definite le sequenze deve valere che ji ≤ i e in particolare poich´e µ 6= 0

vale che j1 ≤ 0, pertanto I(µ) < I((1, 0, ..., 0, −1)) < I(0), quindi dµ> 1.

Quindi sia λ tale che dλ = 1 allora λ = (1, 0, ..., 0, −1) e si ha 0 = s0.λ,

pertanto vale la tesi.

- Ora dimostriamo il passo induttivo. Prendiamo si∈ W tale che I(si.λ) >

I(λ), per il lemma 2.12 µ e si.µ sono sempre confrontabili, quindi

distin-guiamo due casi:

(1) Supponiamo I(si.µ) < I(µ), allora per la seconda parte del lemma

2.14 vale che I(µ) ≥ I(si.λ) > I(λ), pertanto I(si.λ) `e l’elemento

cercato.

I(µ)

I(si.µ) I(si.λ)

(33)

(2) Supponiamo I(si.µ) ≥ I(µ) allora per la prima parte del lemma 2.14

si ha che I(si.µ) > I(si.λ). Ora dsi.µ < dµ e dsi.λ < dλ, quindi per

ipotesi induttiva esiste sα,h tale che I(si.µ) > I(sα,h.si.λ) > I(si.λ).

Quindi si ha la seguente situazione I(si.µ)

I(µ) I(sα,h.si.λ)

I(si.λ)

I(λ)

Adesso applico si a sα,h.si.λ e a si.µ, osserviamo che si `e una

rifles-sione, quindi si.si.µ = µ. Distinguo due casi:

- Supponiamo I(si.sα,h.si.λ) > I(sα,h.si.λ), allora pocih´e I(µ) < I(si.µ),

per la seconda parte del lemma 2.14 si ha I(µ) > I(sα,h.si.λ) >

I(si.λ) > I(λ) pertanto l’elemento cercato `e I(si.λ).

I(si.µ)

I(µ) I(si.sα,h.si.λ)

I(sα,h.si.λ)

I(si.λ)

(34)

- Supponiamo, adesso, I(si.sα,h.si.λ) < I(sα,h.si.λ), allora per il

lem-ma 2.15 I(µ) > I(si.sα,h.si.λ). Osserviamo che esistono β e k

ta-li che sisα,hsi = sβ,k, quindi sβ,k.λ e λ sono sempre

confrontabi-li, in particolare vale che I(sβ,k.λ) > I(λ), infatti se fosse

mino-re applicando nuovamente si e osservando che sisi = id, per la

prima parte del lemma 2.14, si avrebbe che I(si.λ) > I(sα,h.si.λ)

che `e assurdo. Pertanto abbiamo la seguente sequenza di disugua-glianze I(µ) > I(si.sα,h.si.λ) > I(λ), pertanto l’elemento cercato `e

I(sβ,k.λ). I(si.µ) I(µ) I(sα,h.si.λ) I(sβ,k.λ) I(λ)

2.5

Variet`

a di Schubert

Definizione 2.17. Chiamiamo CI(λ)=  M ∈ cGr(n) | dimM ∩ Λi tNΛ 0 = fiλ  cella di Schubert. Proposizione 2.18. CI(λ)= Btλ.

Dimostrazione. La bandiera definita nella dimostrazione del teorema 2.7 `e B stabile, quindi se prendo M ∈ Btλ si ha banalmente che dim M ∩ Λi/tNΛ0 =

(35)

fi, quindi M ∈ CI. Se prendo M ∈ CI, per il teorema 2.7 ∃λ tale che

M ∈ Btλ, allora dim(M ∩ Λi)/tNΛ0 = fiλ, quindi fiλ = f µ

i allora λ = µ.

Definizione 2.19. Una variet`a di Schubert `e SI(λ)=  M ∈ cGr(n) | dimM ∩ Λi tNΛ 0 ≥ fi 

Osserviamo che SI=SJ ≥ICJ.

Vogliamo dimostrare che SI `e la chiusura di CI.

Teorema 2.20. SI = CI.

Dimostrazione. Osserviamo che come nel primo capitolo SI `e un chiuso

quindi CI ⊂ SI.

Resta da provare che se J ≥ I allora CJ ⊂ SI. Consideriamo I e J

adiacenti, allora sia µ tale che I(µ) = J , in modo che λ e µ differiscono solo per due coefficienti, in particolare prendiamo µ tale che ∃k < h con µk< λk

e µh > λh. Osserviamo che poich`e I e J hanno cardinalit`a virtuale 0 vale

λk− µk+ λh− µh = 0. Osserviamo che µk− λh > 0, infatti, poich`e I ≤ J

si ha che λhn + h < µkn + k ⇒ 0 < (µk− λh)n + k − h < (µk− λh)n ⇒ µk− λh > 0. Consideriamo la matrice B =                        1 0 0 0 0 0 0 0 . . . 0 0 . .. 0 0 0 0 0 0 . . . 0 0 0 1 0 0 0 0 0 . . . 0 0 . . . 0 ε−1 0 . . . tµk−λh 0 . . . 0 0 0 0 0 1 0 0 0 . . . 0 .. . ... ... ... ... . .. 0 0 . . . 0 0 0 0 0 0 . . . ε 0 . . . 0 .. . ... ... ... ... ... ... . .. . . . 0 0 0 0 0 0 0 0 0 . .. 0 0 0 0 0 0 0 0 0 . . . 1                       

(36)

che `e la matrice identit`a da cui la sottomatrice 2 × 2 estratta dalle righe k, h e dalle colonne k, h `e la matrice

ε−1 tµk−λh

0 ε

!

se agisco con B su tλ, ottengo V =< tλ1e

1, ..., v1 = ε−1tλkek, ..., v2 = tµkek+

εtλhe

h, ..., tλnen>A, ora considero la combinazione lineare

v1− ε−1tµh−λhv2= −tµheh,

quindi V =< tλ1e

1, ..., tµheh, ..., tµkek + εtλheh, ..., tλnen >A se facciamo

tendere ε a zero otteniamo tµ.

Supponiamo ora che µk > λk e µh < λh, ora scriviamo la matrice in B

tale che la matrice 2 × 2 estratta dalle righe k, h e dalle colonne k, h `e

ε 0

tµh−λk ε−1

!

se agisco con questa matrice su tλ ottengo V =< tλ1e

1, ..., v1 = εtλkek+ tµheh, ..., v2 = ε−1tλheh, ..., tλnen>A

, considero la combinazione lineare ε−1tµk−λkv

1− v2 = tµkek

quindi ottengo V =< tλ1e

1, ..., tµkek, ..., tµheh+ εtλkek, ..., tλnen>A, facendo

(37)

Coordinate di Pl¨

ucker

Definiamo le coordinate di Pl¨ucker per la Grassmanniana affine. Per farlo definiremo le coordinate di Pl¨ucker sulla Grassmanniana infinita e tramite l’embedding della Grassmanniana affine, le restringeremo su quest’ ultima. Prendiamo U = SpanC{eI = ei1∧ ei2 ∧ . . . | I = (i1, i2, ...) ∈ I0}.

Identifi-cando eij = t

ij, osserviamo che V∞V

∞∼= U , con le seguenti mappe

φs: sn

^

(Vs) −→ U

v1∧ v2∧ · · · ∧ vsn−→ v1∧ v2∧ · · · ∧ vsn∧ esn+1∧ esn+2∧ . . .

Quindi possiamo considerare {eI | I ∈ I0} come una base di

V∞ V∞.

Definizione 3.1. Sia {pI} base duale diV∞V∞∗, cio´e tale che < eI, pJ >=

δIJ, chiamiamo pI coordinate di Plucker infinite.

Vediamo che abbiamo i seguenti diagrammi

SI //Grc0(n) //Gr0(∞) //P(V∞V∞) Gr(sn, Vs)us OO //Gr(sn, Vs) OO //P(V snVs) OO 37

(38)

Passando agli anelli delle coordinate si ha C[SI]oo C[ cGr0(n)]  C[Gr0(∞)] oo  C[P(V∞V∞)] oo  C[Gr(sn, Vs)us]oo C[Gr(sn, Vs)]oo C[P(V snVs)]

quindi, sfruttando la struttura di Ind-variet`a definita per la Grassmanniana infinita, se restringiamo le coordinate di Pl¨ucker infinite alla Grassmanniana finita, otteniamo le coordinate di Pl¨ucker del caso finito.

Passiamo ora a descrivere una particolare classe di variet`a di Schubert. Sia ωs = (−s(n − 1), s, ...., s) ∈ Zn e consideriamo la variet`a SI(ωs).

Ricor-diamo Hs= ( A − reticoli M tsΛ0 ⊂ M ⊂ t−s(n−1)Λ0 dim(M/tsΛ 0) = sn ) ∼ = Gr(sn, Vs)us,

allora vale la seguente proposizione Proposizione 3.2.

SI(ωs)= Hs.

Dimostrazione. Ci basta osservare che I(ωs) `e la pi`u piccola sequenza che

possiamo scrivere relativa a sottospazi M tali che tsΛ0 ⊂ M ⊂ t−s(n−1)Λ0.

Proposizione 3.3. cGr0(n) =Ss≥0SI(ωs)

Dimostrazione. Avevamo visto nel secondo capitolo c

Gr0(n) =

[

s≥0

Hs.

Quindi, per la proposizione precedente c

Gr0(n) =

[

s≥0

(39)

3.1

Rinormalizzazione degli indici

Vogliamo modificare gli indici in ωsin modo da evitare di avere termini

nega-tivi. Osserviamo che I(ωs) = (1−s(n−1)n, 1−s(n−1)n+n, ..., 1+sn−n, 1+

sn). Consideriamo cGr

0

0(n) = ts(n−1)Grc0(n) = {V ∈ cGr(n) | vdim(V ) = −s(n − 1)n}, e spostiamo gli indici di −s(n − 1). Quindi ora considereremo n-uple tali che la somma dei loro elementi sia s(n − 1)n. Quindi avremo

ωs= (0, sn, ...., sn)

e

I(ωs) = (1, n + 1, 2n + 1, ..., sn2+ 1, sn2+ 2, ...).

Possiamo quindi riscrivere la proposizione 3.2 nel seguente modo

SI(ω)= ( A − reticoli L ⊂ Fn tsnΛ0 ⊂ L ⊂ Λ0 dim L/tsnΛ0 = sn ) ∼ = Gr(sn, Vs)us dove Vs= Λ0/tsnΛ0.

Osservazione 3.4. Osserviamo che se considero V ∈ SI(ωs) con V = Bt

λ

con λ ∈ Zns(n−1)n, avremo che Λsn ⊂ V , quindi riprendendo i di definiti nel

capitolo precedente, si ha di = 1 ∀ i ≥ sn, pertanto quando consideriamo

I(λ) = (i1, i2, ...) possiamo limitarci a considerarne i primi sn elementi in

quanto gli elementi successivi sono tali che ij = j per ogni j > sn.

3.2

Rappresentazione di celle tramite matrici

Possiamo rappresentare un elemento V ∈ Gr(∞) tramite una matrice di dimensione Z × Z+, prendendo la matrice che ha per colonne una base di V

come C-spazio vettoriale. Quindi grazie all’embedding della Grassmanniana affine nella Grassmanniana infinita, anche un elemento di cGr(n) pu`o essere rappresentato in questo modo.

Sia s ∈ N chiamiamo ω = ωs e r = sn. Vogliamo ottenere una

rappresen-tazione matriciale della variet`a di Schubert SI(ω) che possiamo vedere come

(40)

Consideriamo Vs = SpanC{tce1, ..., tcen | 0 ≤ c ≤ r − 1} e prendiamo un

vettore v ∈ Vs, scrivendo le sue componenti rispetto alla base

e1, ..., en, te1, ..., ten, ...., tr−1e1, ..., tr−1en otteniamo v =       v1 v2 .. . vr      

dove ogni vi `e un vettore colonna n × 1. Moltiplicando v per t si ottiene

tv =          0 v1 v2 .. . vr−1          (3.1)

Consideriamo un generico sottospazio V nella cella di Schubert CI(ω) ∈ Gr(r, Vs)us, allora esiste un vettore v ∈ V tale che la sua componente

e1 `e uguale ad 1 e si ha V = SpanC{v, tv, t2v, ..., tr−1v}, quindi possiamo

rappresentare V con la matrice

 v tv . . . tr−1v  =       A1 A2 .. . Ar      

dove Aisono blocchi n×r. Osserviamo che per 3.1 si ha aij = 0 per i < j e la

prima colonna di A1`e uguale alla seconda colonna di A2, alla terza colonna di

A3e cos`ı via. Pertanto vale a1,1 = an+1,2= ... = a(r−1)n+1,r = 1, agendo con

operazioni di colonna possiamo ottenere che nelle righe 1, n+1, ...., 1+(r−1)n questi sono gli unici elementi diversi da zero, in questo modo abbiamo una rappresentazione unica per V ∈ CI(ωs). quindi possiamo identificare la cella

(41)

CI(ω) con la matrice M = (ai,j) ∈ M atrn×r(C) della forma: M =                                                    1 0 0 0 . . . 0 a2,1 0 0 0 . . . 0 a3,1 0 0 0 . . . 0 .. . ... ... ... ... ... an,1 0 0 0 . . . 0 0 1 0 0 . . . 0 an+1,1 a2,1 0 0 . . . 0 an+2,1 a3,1 0 0 . . . 0 .. . ... ... ... ... ... a2n,1 an,1 0 0 . . . 0 0 0 1 0 . . . 0 a2n+2,1 an+2,1 a2,1 0 . . . 0 a2n+3,1 an+3,1 a3,1 0 . . . 0 .. . ... ... ... ... ... a3n,1 a2n,1 an,1 0 . . . 0 .. . ... ... ... ... ... 0 0 0 0 . . . 1 a(r−1)n+2,1 a(r−2)n+2,1 a(r−3)n+2,1 . . . a2,1 a(r−1)n+3,1 a(r−2)n+3,1 a(r−3)n+3,1 . . . a3,1 .. . ... ... ... ... ... arn,1 a(r−1)n,1 a(r−2)n,1, . . . an,1                                                    (3.2)

Notiamo che le righe indicizzate dagli elementi di I(ω) sono le corrispondenti righe della matrice identit`a, denoteremo queste come “righe pivot”. Osser-viamo che, preso I = (i1, ..., ir, ...) ∈ I0, la coordinata dl Pl¨ucker pI `e il

determinante della sottomatrice estratta da M prendendo le righe i1, ..., ir.

Inoltre le coordinate pI|CI(ωs) sono diverse da zero per I = (i1 < i2...) se

e solo se

• ij ≥ (j − 1)n + 1 per j = 1, 2, ..., r.

(42)

3.3

Coordinate di Pl¨

ucker ammissibili

In questa sezione definiamo una classe di coordinate di Pl¨ucker sulla variet`a SI(ωs). Troveremo delle relazioni tra queste che permetteranno di trovare

una base dell’anello delle coordinate di SI(ωs).

Definizione 3.5. Un insieme I = (i1, i2, ...) ∈ Is(n−1)n `e ammissibile se

ij+1− ij ≤ n per j ≥ 1.

Diciamo che, preso λ ∈ Zn tale chePn

i=1−λi= −s(n − 1)n, I `e

ammis-sibile su SI(λ)se `e ammissibile e pI|SI(λ) 6= 0.

Proviamo che possiamo scrivere una coordinata di Pl¨ucker non ammis-sibile come combinazione lineare di coordinate ammissibili.

Lemma 3.6. Siano A, B ∈ M atm×m(C). Fissiamo l ≤ m. Allora la somma

di tutti i determinanti ottenuti scambiando l righe di A con le corrispondenti l righe di B `e uguale alla somma di tutti i determinanti ottenuti scambiando l colonne di A con le corrispondenti l colonne di B.

Dimostrazione. Facile applicazione della regola di Laplace.

Consideriamo I = (i1, ..., ir) con ir ≤ rn e i1 ≥ n + 1, ad I associamo

un ˜I = (i1 − n, ..., ir − n). Scegliamo un l ≤ r e definiamo uno shuffle la

somma di tutte le coordinate di Pl¨ucker ottenute scambiando l elementi di J ⊂ I con i corrispondenti l elementi ˜J ⊂ ˜I, cio`e

sh = X

J ⊂I |J|=l

pI\J ∪ ˜J

Corollario 3.7. Gli shuffle sono identicamente nulli come funzioni sulla variet`a di Schubert SI(ωs)

sh|SI(ωs) = 0

Dimostrazione. Consideriamo I e ˜I come sopra. Sia Mrn×r la matrice che

(43)

matrici r × r ottenute prendendo le righe di indici di I e rispettivamente di ˜

I. Osserviamo che per come abbiamo definiti Mrn×r si ha che le ultime r − 1

colonne di M sono uguali alle prime r −1 colonne di ˜M , e inoltre, poich`e ir−

n ≤ (r − 1)n, l’ultima colonna di ˜M `e 0. Quindi si ha che il determinante del minore ottenuto sostituendo l colonne di M con le corrispondenti l colonne di ˜M `e 0, per il lemma precedente si ha che questo vale anche scambiando le righe invece delle colonne, quindi questo `e proprio lo shuffle definito prima.

Proposizione 3.8. Sia I = (i1, ..., ir) non ammissibile tale che pI|SI 6= 0.

Allora su SI si ha che pI =

P

T ⊂ZaTpT, con aT ∈ C e pR sono ammissibili.

Dimostrazione. Sia l ≤ r − 1 il pi`u piccolo intero per cui il+1− il > n. Sia

I1 = (i1 + n, ..., il+ n, il+1, ..., ir), I2 = (i1, ...., il, il+1 − n, ..., ir− n). La

differenza tra le entrate di I1 e I2 in modulo `e n, quindi per il corollario

precedente lo shuffle `e uguale a 0 su SI(ωs). Consideriamo un elemento pJ

nella somma di sh corrispondente allo scambio di {i1 + n, ..., il + n} con

{i1, ..., il} si ha che J `e uguale ad I e ogni altro J `e pi`u grande di I secondo

l’ordine lessicografico. Osserviamo che l’elemento pi`u grande secondo quest’ ordine `e ((n − 1)r + 1, ..., (n − 1)r + 2, ..., rn) che corrisponde alla variet`a di Schubert 0-dimensionale per cui la tesi `e banalmente vera. Quindi il risultato segue per induzione.

Consideriamo gli elementi τ1, ..., τn∈ Zn−s(n−1)n la cui r-tupla associata

`e

I(τj) = (j, n + j, 2n + j, ..., (r − 1)n + j)

Vale il seguente lemma: Lemma 3.9.

• |{T ammissibile su τ1}| = nr.

• |{T ammissibile su τj}| = nr−1(n + 1 − j) per 2 ≤ j ≤ n

Dimostrazione. Sia T = (t1, ..., tr) una generica r-tupla ammissibile su τ1.

(44)

ho n modi per scegliere tr. Inoltre abbiamo n modi per la scelta di tr−1,

poich`e possiamo sceglierlo nell’insieme {tr− n, ..., tr− 1}. Possiamo

appli-care le stesse osservazioni a tutti gli altri elementi di T , quindi vale che |{T ammissibile su τ1}| = nr.

Analogamente al primo punto possiamo osservare che preso T ammissibile su τj, si hanno (n + 1 − j) scelte per tr nell’insieme {(r − 1)n + j, ..., rn}. Per

gli altri elementi invece abbiamo n scelte come nella prima parte del lemma. Pertanto |{T ammissibile su τ1}| = nr−1(n + 1 − j) per 2 ≤ j ≤ n.

Definiamo ϕi,j ∈ Zn−s(n−1)n tale che

I(ϕi,j) = ((i−1)n+1+j −i, in+1+i−j, ..., (r −1)n+1+j −i, [rn+2−i, rn])

dove [k, h] = (k, k + 1, ..., h). Lemma 3.10.

• |{T ammissibile su ϕi,1}| = nr+1−i.

• |{T ammissibile su ϕi,j}| = nr−i(n + 1 − j) per 2 ≤ j ≤ n

Dimostrazione.

• Le ultime (i − 1) entrate di ϕi,1 sono [rn + 2 − i, rn], quindi ogni

insieme ammissibile su SI(ϕi,1) deve avere le ultime (i − 1) entrate [rn+2−i, rn]. Per tr+1−iabbiamo n scelte possibili che sono comprese

tra {(r − 1)n + 2 − i, ..., rn + 1 − i}. Per tj con j = 1, ..., r − i si ha che

tj pu`o essere scelto tra {tj+1− n, ..., tj+1− 1}. Quindi si ha la tesi.

• Analogamente al caso precedente per gli elementi tr+2−i, ..., trabbiamo

esattamente una scelta. Per l’elemento tr+1−isi hanno (n+1−j) scelte

prese tra {(r − 1)n + 1 + j − i, rn + 1 − i}, poi concludiamo come sopra.

Per 1 ≤ i ≤ n, definiamo Ai = {T = (t1, ..., tr) | T ammissibile su τi}.

Denotiamo con A = A1. Sia Z = {T ∈ A | tr= (r − 1)n + 1}.

(45)

1. |Z| = nr−1.

2. Sia T ∈ A. Allora pT |SI(τ2)6= 0 ⇐⇒ T /∈ Z.

3. A = Z ˙∪A2. Dimostrazione.

(1) Come nelle dimostrazioni precedenti ho n modi per scegliere ti con 1 ≤

i ≤ r − 1, poich´e posso scegliere tra {ti+1− n, ..., ti+1− 1}

(2) I(τ2) = (2, n + 2, 2n + 2, ..., (r − 1)n + 2), quindi pT |SI(τ2) 6= 0 allora

ti≥ (i − 1)n + 2, in particolare tr≥ (r − 1)n + 2 quindi T /∈ Z. Viceversa

se T /∈ Z allora tr < (r − 1)n + 1, ma T `e in A quindi `e ammissibile su τ1 pertanto pI(τ2) 6= 0.

(3) Segue dai punti precedenti.

Sia 0 ≤ j ≤ r − 1, ora definiamo

Zj =      T = (t1, ..., tr) ∈ Z ti = (i − 1)n + 1 per j < i ≤ r e tj > (j − 1)n + 1     

quindi per T ∈ Zj vale che j `e il pi`u grande tale che tj non `e un pivot.

Osserviamo (1) Z = ˙S

0≤j≤r−1Zj.

(2) Z0 = {I(ωs)}.

3.4

Relazioni quadratiche

Descriviamo delle relazioni quadratiche per le coordinate di Pl¨ucker su SI(ωs). Consideriamo come nella sezione precedente, una matrice M che rappre-senta un elemento V nella cella di Schubert associata a ωs. Calcoliamo

(46)

Lemma 3.12. Vale: 1. fτ1 = 1 2. fτ2 = a r 21 3. fT2 = a21 dove T2= T2 = (2, n + 1, 2n + 1, ...., (r − 1)n + 1).

Dimostrazione. Prendendo la matrice M definita in 3.2 segue facilmente il lemma ricordando che pI`e uguale al determinante della sottomatrice estratta

da M considerando le righe indicizzate da I.

Lemma 3.13. Sia T = (t1, ..., tr) ∈ Zj. Consideriamo T0 ottenuto da T

sostituendo tj+1 con tj+1+ 1. Valgono:

1. T0 `e ammissibile, in pi`u T0 ∈ Zj+1 se j < r − 1 oppure se j = r − 1 T0 ∈ A2.

2. fT2fT = fτ1fT0.

Dimostrazione.

(1) Poich´e T ∈ Zjallora tjnon `e un pivot e tj+1lo `e, quindi T0`e ammissibile,

e chiaramente se j = r − 1 allora j + 1 = r quindi T0`e in A2, mentre se

j < r − 1 `e in Zj+1.

(2) Valutiamo fT,fT0 sulla matrice M . Si ha che fT `e il determinante di

una matrice

Mj 0j,r−j

∗ Idr−j,r−j

!

dove Mj `e la sottomatrice j × j di M estratta dalle righe di indici

t1, .., tj e colonne di indici 1, 2, ...., j , e Idr−j,r−j`e la matrice identit`a di

dimensione (r − j) × (r − j). Quindi

fT(M ) = xr−j∆,

(47)

Analogamente, fT0(M ) `e il determinante della matrice

Mj0 0j+1,r−j−1

∗ Idr−j−1,r−j−1

!

dove Mj0 `e la sottomatrice (j + 1) × (j + 1) di M estratta dalle righe di indici t1, .., tj, tj+1+ 1 e colonne di indici 1, 2, ...., j + 1 , e Idr−j−1,r−j−1`e la

matrice identit`a di dimensione (r − j − 1) × (r − j − 1). Quindi fT0(M ) = ∆

0

,

dove ∆0`e il determinante di Mj0. Le sequenze T e T0differiscono nella (j +1)-esima entrata, quindi le prime j colonne di Mj0 sono ottenute aggiungendo anj+2,1, a(n−1)j+2,1,...,an+2,1rispettivamente alle j colonne di Mj, e l’ultima

colonna di Mj0 `e tutta 0 eccetto per l’ultima entrata che `e a21. Quindi

otteniamo ∆0 = a21∆, quindi fT0(M ) = a21∆. Pertanto

fT0(M ) = a21∆ = a21fT(M ),

quindi per il lemma 3.12 vale

fT2(M )fT(M ) = a21fT(M ) = fT0(M ) = fτ1(M )fT0(M ).

Quindi la tesi.

Consideriamo 1 ≤ i ≤ r e k < n tali che

I(ϕik) = ((i−1)n+1+k−i, in+1+k−i, ..., (r−1)n+1+k−i, [rn+2−i, rn]).

Scriviamo (i − 1)n + 1 + k − i = pikn + qik, dove 1 ≤ qik ≤ n, per semplicit`a

denotiamo p = pik e q = qik e ϕik = ϕ. Quindi scriviamo

I(ϕ) = (pn + q, (p + 1)n + q, ..., (r + p − i)n + q, [rn + 2 − i, rn]). Scriviamo la matrice che rappresenta la cella CI(ϕ). La parte rilevante della matrice di un generico punto in CI(ϕ)pu`o essere pensata come una matrice

triangolare inferiore di dimensione (r − p)n × r, chiamiamo questa matrice M = (agh), composta da (r − p) blocchi Ap+1, ..., Ar di dimensione n × r,

(48)

dove le colonne di Ap+1, eccetto la prima, sono tutte zero, e la prima `e della forma             0 .. . 0 apn+q,1 .. . apn+n,1            

Inoltre osserviamo che la prima colonna di Ap+1`e uguale alla seconda

colon-na di Ap+2, alle terza di Ap+3 e cos`ı via,. Analogamente la prima colonna di

Ap+2 si ripete nella seconda colonna di Ap+3 ecc. In questa matrici avremo

che le righe pivot sono quelle di indici {mn + q | p ≤ m ≤ r + p − i} insieme con quelle di entrate [rn + 2 − i, rn]. Quindi si avr`a

amn+q,m+1−p= 1, p ≤ m ≤ r + p − i

arn+s−i,r+s−i = 1, 2 ≤ s ≤ i

amn+qj = 0, j 6= m + 1 − p

Denotiamo con ϕ0= ϕik+1 e fT = pT |CI(ϕ)

Lemma 3.14. Valgono: 1. fϕ= 1;

2. fϕ0 = ar+1−i

pn+q+1,1;

3. fT2 = apn+q+1,1.

Dimostrazione. Analoga a quella del lemma 3.12. Osservazione 3.15. Sia

Z(ϕ) = {A ∈ Aϕ | tr+1−i= ϕ(r + 1 − i)},

dove con ϕ(r + 1 − i) intendiamo l’elemento di I(ϕ) al posto r + 1 − i. Allora vale

(49)

2. Sia T ∈ Aϕ. Allora pT |SI(ϕ0) `e diverso da zero se e solo se T /∈ Z(ϕ).

3. Aϕ= Z(ϕ) ˙∪Aϕ0.

Dimostrazione.

(1) I tj con j ≥ r + 1 − i sono fissati, mentre per j = 1, ..., r + 1 − i − 1 si

ha che tj+1− 1 ≤ tj ≤ tj+1− n, quindi per questi ho n scelte.

(2) Si ha ϕ0(r + 1 − i) = ϕ(r + 1 − i) + 1, quindi se pS|SI(ϕ0) 6= 0 allora

tr ≥ ϕ(r + 1 − i) + 1 pertanto tr 6= ϕ(r + 1 − i) quindi non `e in Z(ϕ),

Viceversa, se T ∈ Z(ϕ) allora tr> ϕ(r +1−i) quindi tr≥ ϕ(r +1−i)+1

quindi pT |SI(ϕ0)6= 0.

(3) Segue dalla precedenti.

Sia 0 ≤ j ≤ r − i, fissiamo Zj(ϕ) =      T = (t1, ..., tr) ∈ Z(ϕ) tm= ϕ(m) per j < m ≤ r + 1 − i e tj > ϕ(j)      ,

cio`e per T ∈ Zj(ϕ) j `e il pi`u grande tale che tj > ϕ(j). Osserviamo

• Z(ϕ) = ˙S0≤j≤r−iZj(ϕ).

• Z0(ϕ) = {I(ϕ)}.

Lemma 3.16. Sia T = (t1, ..., tr) ∈ Zj(ϕ). Consideriamo T0 ottenuto da T

sostituendo tj+1 con tj+1+ 1. Valgono

1. T0 `e ammissibile, in pi`u T0`e in Zj+1(ϕ) se j < r − i oppure se j = r − i

`e in Aϕ.

2. fT2fT = fϕfT0.

Riferimenti

Documenti correlati

Il laureando potrà iniziare le attività inerenti la tesi di laurea non meno di 6 (per le tesi compilative) o 8 (per le tesi sperimentali) mesi prima della data della seduta.. Sarà

Il presente accordo di fornitura decorre dalla data della stipula e ha la durata di anni 1 (uno), salvo eventuale proroga da concordare per iscritto, con successivo

[r]

Ragione sociale Esito Partita Iva Nr... 17 Sca

Torrefazione Caffè Michele Battista srl AMMESSA.. Pachi

A tal fine, successivamente alla conclusione delle attività di certificazione delle suddette aziende, oggetto e obiettivo del presente Bando, la Camera di Commercio,

di aver letto, compreso e accettato tutte le disposizioni contenute nel Bando per la concessione di voucher per la certificazione Halal di prodotti e servizi, a beneficio di

Avendo, ai sensi del “Bando per la concessione di voucher per la certificazione Halal di prodotti e servizi, a beneficio di MPMI (micro, piccole e medie imprese) del territorio