• Non ci sono risultati.

3.3 Freeze-Out nelle collisioni tra ioni pesanti

3.3.2 Il modello HRG

Uno dei metodi finora piú utilizzati per fornire teoricamente i parametri relativi al freeze out adronico é il cosiddetto modello HRG.

Nel modello HRG Hadron Resonances Gas model l’assunzione principale é che il sistema ter- modinamico nell’istante del freeze-out adronico, possa essere descritto come un gas debolmente interagente a temperatura T = Tf e potenziali chimici µfB, µfS, µfQ formato da tutte le risonan- ze adroniche conosciute ad oggi. L’assunzione di particelle non interagenti viene giustificata supponendo che, detto τv il tempo di volo di una generica risonanza Ωi, ovvero il tempo che intercorre tra la sua produzione nell’urto e la sua rivelazione, e detto τi il suo tempo di vita medio, valga:

τv τi (3.27)

Se supponiamo che la risonanza Ωi decada in Ωf con differenza in massa ∆Mif, dal fatto che

per il rate di decadimento Γi→f ci aspettiamo la seguente dipendenza: Γi→f ∝ e

∆MΩif

T (3.28)

ci aspettiamo che il modello a Risonanze Adroniche possa valere soltanto per temperature suf- ficientemente basse in grado da rendere valida la (3.27).

Affrontiamo quindi il problema di scrivere la funzione di partizione di questo sistema conside- rando le risonanze adroniche formate dai 3 quark piú leggeri u,d,s. Innanzitutto in un modello a gas non interagente la funzione di partizione totale del sistema Z é fattorizzabile come prodotto tra tutte le funzioni di partizione Zi(M/B) associate all’i-esima specie mesonica M (o barionica B):

ZT, V, µfj=Y i

dove j indicizza i potenziali chimici accoppiati alle 3 cariche conservate della sezione precedente e la fugacitá zi della specie i-esima é data da: zi = exp{BiµfB+ QiµQf + SiµfS} e con Bi, Qi, Si si é indicato il numero barionico, la carica e la stranezza della risonanza considerata. La statistica seguita dalle varie specie é fissata dal valore del loro spin. Per i mesoni (spin intero) bisogna imporre la statistica di Bose-Einstein mentre per i barioni (spin semintero) la statistica di Fermi- Dirac. Se consideriamo dunque un sistema racchiuso in un volume V, la funzione di partizione per la generica specie i-esima mesonica(barionica) di massa mi, é data da :

ZiM/B(T, V, zi) = giV 2 Z ∞ 0 1 ∓ zie− √ m2 i+k2 T !(∓1) k2dk (3.30)

dove il segno meno é riferito ai mesoni, il segno piú ai barioni e gi ≡ 2si+1 indica la degenerazione di spin.

Prendendo il logaritmo di questa espressione si ottiene: ln Zi(M/B)(T, V, zi) = ∓ giV 2 Z ∞ 0 ln 1 ∓ zie− √ m2 i+k2 T ! k2dk (3.31)

e sviluppando il logaritmo attraverso ln(1 ∓ x) = −P∞

l=1 (+1)(l+1) l xl si ottiene: ln Zi(M/B)(T, V, zi) = giV 2 ∞ X l=1 (±1)(l+1)l−1zil Z ∞ 0 emilT r 1+  k mi 2 k2dk = giV T m 2 i 2 ∞ X l=1  (±1)l+1l−2zilK2 m il T  (3.32) dove K2(x) = xR0e−x1+k2

k2dk é una funzione di Bessel modificata.

Nel freeze-out adronico la temperatura Tf é sempre minore della temperatura di deconfinamento

Tdec ≈ 155M ev, pertanto per le risonanze considerate vale T  mi eccettuato il settore pio- nico. Possiamo utilizzare allora, l’andamento asintotico per la funzione di Bessel K2(x) valida per grandi valori dell’argomento K2(x) ≈q2xπ e−x. Nella somma precedente, quindi , i termini successivi a l = 1 sono esponenzialmente soppressi e possono essere in prima approssimazione trascurati. Questa assunzione di gas semiclassico é quella solitamente adottata nei calcoli ot- tenuti utilizzando il modello HRG, sebbene, in particolar modo per il settore pionico, debba essere verificata a posteriori.

A questo punto l’espressione per Zi(M/B) si riduce a: Zi(M/B)(T, V, µfj) = giV T m 2 i 2 K2( mi T )zi (3.33)

Possiamo a questo punto raggruppare le coppie particella-antiparticella sfruttando il fatto che hanno la stessa massa mi, stessa degenerazione di spin gi e i numeri quantici Bi, Qi, Si che differiscono soltanto per il segno. Definiamo dunque:

ln ¯Zi(M/B)(T, V, µfj) = X k=Ωi, ¯i

In questo modo, possiamo scrivere il logaritmo della funzione di partizione totale del sistema Z(T, V, µfj) come: ln Z(T, V, µfj) = X i ln ¯ZiM/B(T, V, µfj) = X i giV T m2i 2 K2 m i T  cosh{BiµfB+ QiµfQ+ SiµfS} (3.35) dove la somma su i é ora intesa su tutte le risonanze che non corrispondono a una coppia particella-antiparticella. Utilizzando i numeri quantici di tutti gli adroni conosciuti é possibile calcolare la funzione di partizione precedente ed inoltre calcolare le suscettivitá generalizzate definite da: χBQSijk = 1 V T3 ∂(i+j+k)ln Z ∂µi B∂µ j Q∂µkS (3.36)

I risultati ottenuti con l’utilizzo di HRG si confrontano in generale molto bene con i risultati ottenuti negli esperimenti di collisione di ioni pesanti e con i calcoli ab-initio ottenuti su reticolo, partendo dai principi primi, quantomeno per temperature non troppo vicine alla temperatura di transizione. All’aumentare della temperatura di freeze-out Tf ottenuta aumentando l’energia nel centro di massa √s degli ioni in collisione, ci si aspetta un graduale aumento dell’importanza

delle interazioni. In particolare, cominciano a diventare non-trascurabili le interazioni tra i singoli quark segnalando il fatto che il sistema sta subendo una transizione di fase. Come mostrato in [27], dove sono stati messi a confronto i risultati di HRG e le simulazioni su reticolo in QCD con Nf = 2, c’è evidenza per temperature T > 0.95Tc di una discrepanza tra i risultati ottenuti non imputabile all’approssimazione semiclassica fatta in HRG. Per questo motivo, se si é interessati alla ricerca di un eventuale punto critico, considerando collisioni per cui Tf diventa sempre piú vicina alla temperatura di deconfinamento, é necessario fornire i valori delle suscettivitá calcolati a partire dalla formulazione su reticolo della QCD. Soltanto una teoria scritta in termini dei campi dei quark puó essere in grado di prevedere la transizione di fase che vorremmo osservare. Il modello HRG rimane comunque un importante strumento che puó essere usato da una parte per lo studio della termodinamica della materia adronica a bassa temperatura, dall’altra puó servire come utile valore di confronto per i risultati ottenuti su reticolo, con lo scopo di quantificare gli errori sistematici causati dalla presenza nelle simulazioni di artefatti di vario tipo.

Nel prossimo capitolo sará affrontato il problema di stimare con metodi numerici le osservabili su reticolo scritte come integrali di cammino nello spazio euclideo, in particolare, vedremo come calcolare le suscettivitá generalizzate con l’obiettivo di fornire, partendo da principi primi, delle stime direttamente confrontabili con i risultati degli esperimenti di collisione tra ioni ad alta energia.

Capitolo 4

Metodi numerici utilizzati

In questo capitolo descriveró in dettaglio le tecniche di analisi numerica utilizzate in QCD per il calcolo delle osservabili di nostro interesse. Come gia’ visto, utilizzando il formalismo del Path-Integral e il prolungamento analitico nell’euclideo siamo arrivati a scrivere i valor medi delle quantitita’ da calcolare come:

hOi =

Z

d[φ]P [φ]O[φ] (4.1)

in cui P [φ] = exp{−SE}

Z é una quantitá positiva, normalizzata, interpretabile dunque come una distribuzione di probabilitá. Il problema é quello di trovare un algoritmo per il calcolo appros- simato di osservabili del tipo 4.1. Storicamente esistono vari metodi di integrazione numerica che si basano sulla possibilità di poter dividere l’intervallo d’integrazione in sottointervalli in cui approssimare la funzione con rettangoli, trapezi (Simpson, ...),etc. Il pregio di questi algoritmi é la loro semplicitá d’implementazione, il loro difetto piú grande é invece quello di fornire quantiá approssimate con errori sempre maggiori all’aumentare del numero di variabili d’integrazione. Ad esempio, supponendo di voler calcolare un integrale definito unidimensionale del tipo:

A =

Z b

a

f (x)dx (4.2)

utilizzando ad esempio il metodo dei rettangoli, si ha che dividendo l’intervallo di integrazione [a.b] in N sottointervalli di ampiezza δx = b−aN (con xi = a + i ∗ δx) l’integrale é stimato come:

Arett= δx ∗ N

X

i=1

f (xi) (4.3)

commettendo un errore di ordine O(δx) come si puó facilmente vedere sviluppando f(x) in serie di Taylor. Questa approssimazione é via via migliorabile interpolando nei sottointervalli con funzioni diverse, ad esempio con il metodo dei trapezi si commette un errore di ordine O(δx2) e in generale si possono trovare approssimazioni di ordine arbitrario. Le cose cambiano quando si aumenta il numero di variabili su cui si calcola l’integrale. Supponiamo ad esempio di considerare un integrale in D dimensioni e di utilizzare un metodo a griglia dividendo l’intervallo

d’integrazione 4 in N ipercubi di volume δD = 4N. Adottando la piú semplice delle tecniche di integrazione (metodo dei rettangoli), si approssima la funzione su ogni ipercubo con una costante. Come prima é facile vedere che l’errore che si commette in questo caso é pari al prodotto tra il volume di ogni ipercubo per il primo termine trascurato nello sviluppo di Taylor della funzione moltiplicato infine per il numero di ipercubi in cui abbiamo diviso il dominio d’integrazione. Il risultato é che l’errore é dell’ordine di:

δA = N δDδ ≈ ND1 (4.4)

Utilizzando metodi a griglia piú sofisticati con approssimazioni migliori per la funzione su ogni ipercubo é facile migliorare la stima in modo tale da avere errori dell’ordine di δA ≈ NNk

con k indipendente dalla dimensionalitá dell’integrale. In ogni caso peró se D é troppo grande diventa poco efficiente utilizzare metodi a griglia per la stima degli integrali. In particolar modo in QCD dove anche su reticoli modesti il numero di variabili d’integrazione supera facilmente 105 é impensabile utilizzare metodi d’integrazione di tipo geometrico. L’idea in questo caso è quella di valutare la funzione in maniera piú fitta nei punti in cui è sensibilimente diversa da 0 dal momento che sono questi i punti che contribuiscono maggiormente all’integrale. Questa tecnica prende il nome di importance sampling ed é la tecnica su cui si basano tutti i metodi Montecarlo che vedremo.

Partendo da un generico integrale del tipo:

A =

Z

p(x)f (x)dx (4.5)

con p(x) > 0 e R

p(x)dx = 1, l’idea é di generare un campione x1, x2, ...., xn distribuito come p(x) e stimare A tramite: AM C = 1 N N X i=1 f (xi) (4.6)

E’ facile a questo punto verificare che, se le estrazioni precedenti sono indipendenti e indipen- dentemente dalla dimensionalitá dell’integrale, l’errore che si commette é dato da:

δA =σ

N (4.7)

dove σ é la deviazione standard di p(x). Il problema grosso a questo punto é trovare un algo- ritmo in grado di generare il campione in modo tale che sia distribuito come p(x). In sistemi particolarmente complessi come quelli che si trovano in teoria di campo, l’idea é di generare un percorso stocastico all’interno dello spazio Ω dei possibili stati del sistema in modo tale che indipendentemente dalla scelta del punto di inizio, la traiettoria visiti (almeno asintoticamente) ciascun stato con frequenza proporzionale alla distribuzione p(x) voluta. La costruzione di simili traiettorie si basa sull’assegnare la probabilitá Pi→jk di passare dallo stato i allo stato j al k-esimo step della traiettoria. Se le probabilitá precedenti sono indipendenti da k la traiettoria generata prende il nome di Catena di Markov e sotto particolari condizioni che ora indagheremo sará

possibile raggiungere una configurazione di "equilibrio" in cui la catena visita ciascun sito con probabilitá assegnata indipendentemente dallo stato di partenza. Lavoreremo innanzitutto con una matrice di trasferimento Wj,i (i e j indicizzano gli stati di Ω) le cui entrate rappresentano la probabilitá di passare a uno stato j supponendo di essere nello stato i-esimo (la dipendenza da k é rimossa). Le entrate di Wi,j devono innanzitutto soddisfare le due seguenti proprietá:

• Wi,j < 1 dal momento che devono rappresentare una probabilitá.

• P

iWi,j = 1 perché dato uno stato j il sistema deve sempre spostarsi su un altro stato del sistema (non vogliamo che la catena si interrompa).

Definiamo inoltre la seguente proprietá che vogliamo che sia soddisfatta dalle nostre catene di Markov:

ergodicitá: una catena di Markov é detta ergodica se é possibile dato un qualunque stato j

∈ Ω passare con un numero finito di step ad qualsiasi altro stato i ∈ Ω, ovvero se presa una qualunque coppia di stati i,j ∈ Ω esiste un intero k tale che Wijk 6= 0.

Le catene ergodiche hanno dunque la proprietá di esplorare qualsiasi stato del nostro sistema. Definiamo inoltre il concetto di periodo:

periodo: é chiamato periodo dello stato i-esimo il massimo comun divisore dell’insieme dei

numeri ki tali che Wiik 6= 0. Si puó dimostrare inoltre che per una catena ergodica il periodo non dipende dallo stato i considerato, ed inoltre diremo che una catena é aperiodica se tutti gli stati hanno periodo 1. A questo punto facciamo la seguente considerazione:

Supponiamo di avere a disposizione un ensemble di catene di Markov e che i punti di partenza delle catene siano distribuiti come π0. Se facciamo evolvere ogni singola catena, si ha (come é facile verificare) che la distribuzione degli stati visitati dopo k step é data da:

πik= Wijj0 (4.8)

Volendo raggiungere una condizione di equilibrio indipendentemente dal punto di partenza della catena, é lecito chiedersi se dopo un certo numero di passi é possibile che la distribuzione πk tenda ad un valore fissato e indipendente dalla distribuzione di partenza. Il motivo per cui abbiamo definito le proprietá di ergodicitá e di aperiodicitá é dovuto al seguente teorema:

Per una catena di Markov ergodica e aperiodica esiste ed é ben definito il limite: πieq= lim

N →∞W N

ij πj0 (4.9)

dove πieq(che non dipende da π0) é chiamata distribuzione di equilibrio. Grazie a questo risultato é possibile sostituire la media di ensemble di una qualsiasi osservabile del sistema:

hf i =X i

con la media "temporale" su una singola catena di Markov: hfNi T = 1 N ¯j+N X j=¯j fj (4.11)

dove lo stato ¯j deve essere scelto sulla catena in modo tale che il sistema abbia perso memoria

della condizione iniziale, e nel limite asintotico N → ∞ l’uguaglianza delle due medie é assicu- rata dal teorema ergodico.

Dal momento peró che la catena evolve con una distribuzione di probabilitá assegnata, ci aspet- tiamo che le uscite non siano esattamente indipendenti, ma che sia presente una qualche cor- relazione tra le uscite, almeno per un certo numero di step. Questo comporterá come vedremo l’impossibilitá di applicare immediatamente la 4.7 che come visto presuppone l’esistenza di dati indipendenti tra loro. Mettendo per un attimo da parte questa problematica, che sará analizzata nella sezione sulle autocorrelazioni, possiamo ora concentrarci sul problema (in qualche modo inverso) di costruire il processo stocastico descritto da Wij in modo tale che la distribuzione di equilibrio πeq abbia un valore assegnato.

Per farlo é utile elencare la seguente proprietá dello spettro della matrice Wij nel caso in cui si riferisca ad un processo ergodico e aperiodico:

• Per gli autovalori λi di Wij vale: λi ≤ 1, ed inoltre esiste un autovalore λ0 = 1 tale che la distribuzione di equilibrio πieq risulta essere il suo unico autovettore.

Sviluppando la distribuzione di partenza π0 nella base di autovettori di W

ij, ed utilizzando la proprietá precedente, é facile vedere che, volendo assegnare la distribuzione di equilibrio πeq é sufficiente imporre il seguente vincolo sugli elementi di Wij:

πieq= Wijπeqj (4.12)

Questo rappresenta un sistema di n2 equazioni in n incognite che pur soggette agli ulteriori vincoli di ergodicitá e aperiodicitá, ammette infinite soluzioni. Utilizzando questa libertá di manovra é possibile imporre una condizione sufficiente (ma non necessaria) affinché valga la 4.12 detta principio del bilancio dettagliato:

Wijπjeq= Wjiπieq (4.13)

che stabilisce che dopo il raggiungimento dell’equilibrio, il numero di catene che transisce da uno stato i a ad uno stato j é uguale al numero di catene che transisce nella direzione opposta

j → i. La condizione 4.13 nonostante sia molto piú restrittiva della 4.12 non permette ancora

di definire univocamente le entrate della matrice di trasferimento. Considerando uno spazio Ω ad N stati abbiamo N (N −1)2 equazioni (una per ogni coppia (i,j)), N ulteriori vincoli per la normalizzazione delle colonne (dovuta al fatto che la catena non ha interruzioni) che unite

alle N2 variabili da assegnare, ci dicono che lo spazio delle soluzioni del sistema precedente ha dimensione: N (N −1)2 . Esisteranno dunque infiniti algoritmi in grado di assegnare Wij in modo tale che soddisfi il principio del bilancio dettagliato e in questa sezione analizzeró le due classi di algoritmi piú noti, che verrano poi adottati, anche se con importanti modifiche, nelle nostre simulazioni.

4.1

Algoritmo Metropolis e Heat-Bath

Nell’algoritmo Metropolis , l’aggiornamento delle variabili avviene attraverso i seguenti pas- saggi:

1. si sceglie una distribuzione di probabilitá Aij, indipendente dalla distribuzione di proba- bilitá che vogliamo riprodurre, con il vincolo che sia simmetrica Aij = Aji.

2. Si assegna la matrice di trasferimento Wij nel seguente modo: Wij = Aijxmin{1,pi

pj}

L’implementazione dell’algoritmo Metropolis per l’estrazione di un nuovo stato j é molto sem- plice : si parte da uno stato i e si sceglie uno stato di prova jt estraendolo dalla distribuzione di probabilitá Aij.

Si calcola il rapporto χ = pi

pjt: Se χ > 1 j=i

Se χ < 1 si estrae un numero random ξ → [0, 1]; se ξ < χ allora j=jt; altrimenti j=i.

E’ facile inoltre verificare che l’algoritmo Metropolis verifica il principio del bilancio detta- gliato. Presa infatti una qualunque coppia di stati i,j → Ω, possiamo assumere che pj < pi. La probabilitá di passaggio dallo stato i allo stato j della catena é data dal prodotto tra la probabilitá di scelta dello stato e la probabilitá di accettanza:

Wij = Aji

pj

pi

(4.14) mentre, essendo pj < pi si ha: Wji = Aji = Aij. Data la simmetria della matrice Aij é immediato a questo punto verificare che:

Wijpj = Wjipi (4.15)

L’algoritmo Metropolis risulta particolarmente utile dal momento che per l’aggiornamento della catena é richiesta univocamente la conoscenza dei rapporti di probabilitá degli stati pi

pj. In QCD,

dove la distrubizione di probabilitá é data da: pi = e

−S[i]

Z , questo rende non necessario il calcolo esplicito della funzione di partizione per l’aggiornamento delle variabili. Il rate di aggiornamen- to dell’algoritmo é invece dipendente, per la maggior parte, dalla forma esplicita della matrice

Aij. In generale infatti, se vogliamo che non ci siano nella catena troppe ripetizioni dello stesso stato, bisogna fare in modo che Aij sia significativamente diversa da 0 soltanto tra stati con probabilitá di uscita pi ≈ pj. Supponendo che l’azione S del sistema da simulare abbia forma locale, é lecito aspettarsi che considerando stati vicini tra loro, la probabilitá di uscita non cambi sensibilmente, pertanto, per ottenere un rate di aggiornamento accettabile é sufficiente imporre la localitá della distribuzione Aij. Il problema di un utilizzo diretto dell’algoritmo Metropolis per la simulazione della QCD in presenza di quark dinamici é dovuto al fatto che la valutazione del determinante fermionico che compare nelle pi risulta essere molto dispendioso. Come vedre- mo in appendice , dove saranno discussi gli algoritmi "ibridi", riscrivendo il determinante det M sotto forma di integrale Gaussiano su nuovi campi scalari detti "pseudofermionici" riusciremo ad evitare questa problematica.

Un’altra classe di algoritmi molto utilizzati per la generazione della matrice di trasferimen- to Wij, é quella dei cosiddetti algoritmi di tipo Heat-Bath. L’idea su cui si basano questi tipi di algoritmi é la possibilitá di poter separare le variabili q che descrivono il sistema, in due famiglie q0 e ˜q0, dove di solito q0 descrive soltanto una piccola parte del sistema e ˜q funge da

bagno termico. A questo punto, si fattorizza la distribuzione di probabilitá del sistema come: P [q] = P [q0, ˜q] = ˜P [˜q] ˙P [q0|˜q] (4.16) dove P [q0

q] é la probabilitá condizionata di avere q˜ 0 dato ˜q. L’aggiornamento della catena pro-

cede estraendo un nuovo stato del sottosistema secondo P [q0

q] avendo giá fissato le variabili che˜

descrivono il bagno termico ˜q. E’ facile in questo caso dimostrare che la matrice di trasferimen-

to soddisfa il principio del bilancio dettagliato. L’efficienza degli algoritmi Heat-Bath poggia sul fatto che la fattorizzazione e il calcolo della probabilitá condizionata sia in qualche modo agevole e in ogni caso volendo richiedere l’ergodicitá dell’algoritmo é necessario considerare una serie di processi stocastici in cui ad ogni passo si aggiorna un diverso sottoinsieme del sistema totale Ω, fino a ricoprire l’intero sistema.

In teoria di pura Gauge, dove l’azione dipende soltanto dalle variabili di link, la precedente fattorizzazione é immediata. Si puó scegliere di volta in volta un diverso link come sottosistema e fissando il valore delle restanti variabili di link utilizzare l’algoritmo Heat-Bath. Anche in questo caso i problemi derivano dall’inclusione della matrice fermionica. Al momento, infatti, non é nota una agevole fattorizzazione che permetta di applicare direttamente questi algoritmi. Per ovviare a questi problemi, in appendice, verranno discusse tutte le modifiche apportate agli algoritmi precedenti per poter simulare la QCD anche in presenza di quark dinamici.

Documenti correlati