• Non ci sono risultati.

oppure più semplicemente

VT(r) =

(

V (r) − V (rc) r ≤ rc

0 r > rc

. (3.23)

Così facendo si evitano discontinuità nei potenziali, nonostante si sot- tovalutino tutte le forze in gioco. Si deve prestare attenzione nel caso di interazioni anisotrope, dove il troncamento deve essere impostato in un punto in cui il potenziale di coppia ha un valore costante, pena non riuscire a shiftare il potenziale a zero in quel punto e avere variazioni di energia, a meno di considerare esplicitamente le forze impulsive generate dal troncamento.

Naturalmente i valori delle proprietà di sistema ottenuti sono diversi in base al metodo di troncamento scelto, ognuno con particolari caratteristiche che possono renderlo più o meno adeguato ad un determinato sistema oggetto di studio.

3.2

Forward Flux Sampling (FFS)

Il FFS è una tecnica che permette di campionare transizioni di eventi rari con dinamiche di tipo stocastico, in cui la semplice simulazione del sistema non per- metterebbe di ottenere risultati in tempi accettabili[15, mat. supplementare][4]. Se si definiscono due minimi locali di energia libera A e B, il FFS permette di calcolare il flusso delle traiettorie che vanno da A a B attraverso l’uso di una

serie di interfacce "virtuali" intermedie tra i due stati. Una definizione generale del flusso da A a B è data dalla formula

ΦAB =

NAB

τ fA (3.24)

dove NAB è il numero di volte in cui la simulazione lascia A e raggiunge B, τ è

il tempo totale di simulazione e fA è la frazione di tempo simulato in cui A è

stato visitato più di recente rispetto a B.

Definendo una singola interfaccia con il parametro λ si hanno una serie di interfacce {λ0, λ1. . . λn}, per cui lo stato A è dato da λA = λ0 e lo stato

B da λB = λn. Il processo attraverso il quale FFS campiona le traiettorie è

illustrato in figura 3.2a. Dalla simulazione iniziale che permette di raggiungere λ0 e salvarne le configurazioni, si ottiene una stima del flusso di traiettorie

che l’attraversano φ(λ0). Nelle fasi successive si hanno una serie di prove che

partono da configurazioni di λi−1 per giungere in caso di successo a λi e salvare

nuove configurazioni. Ponendo che il numero di prove per quella transizione sia Pi e il numero di successi sia Si, si può dire che la probabilità di riuscire a

raggiungere λi prima di tornare ad A sia

p(λi|λi−1) =

Si

Pi

per i ≥ 1 (3.25)

con errore calcolato come da sezione 4.1.4 e successiva. Una volta ottenute le probabilità per le transizioni tra tutte le interfacce, attraverso il loro prodotto

p(λn|λ0) = n

Y

i=1

p(λi|λi−1) (3.26)

si ottiene la probabilità totale che una traiettoria possa raggiungere B prima di tornare ad A. Di conseguenza il flusso totale delle traiettorie tra A e B viene stimato come

ΦAB = φ(λ0)p(λn|λ0) (3.27)

e il cui errore è calcolabile come da sezione 4.3.3. Il FFS produce delle traiettorie ramificate come visibile in figura 3.2b.

Questo metodo genera ogni volta nuovi percorsi di transizione da zero, perciò ha il vantaggio di generare campioni non correlati tra loro, permettendo un’e- splorazione più ampia dei percorsi. Tecniche di campionamento di questo tipo vengono dette statiche. Uno svantaggio che hanno rispetto a quelle dinamiche, in cui i nuovi percorsi di transizione vengono generati modificandone di già esistenti, è rappresentato dal campionamento ripetuto di tante traiettorie che risultano essere dei rami morti, con spreco di tempo.

Un’altra caratteristica di questo metodo è rappresentata dal fatto di far partire le simulazioni di prova dalla fine di una prova precedente, preservando

(a) (b)

Figura 3.2: (a) Schema di funzionamento del FFS. Si esegue una simulazione in

A e quando qualche fluttuazione del sistema fa raggiungere l’interfaccia iniziale λ0

viene salvata una configurazione fino a raggiungere un numero N0 scelto e ottenere

una stima del flusso per tale interfaccia. In seguito vengono eseguite delle simulazioni di prova su delle configurazioni precedenti scelte casualmente. Esse proseguono fino

a quando tornano in λ0(fallimento), con scelta di un’altra configurazione casuale da

λ0 per un’altra prova, o raggiungono λ1(successo), con conseguente salvataggio della

configurazione, fino a raggiungerne un numero scelto N1. Il processo viene ripetuto

utilizzando ogni volta le nuove configurazioni ottenute per raggiungere l’interfaccia

successiva fino al raggiungimento dello stato B con λn. Immagine da [4]. (b) Rap-

presentazione della ramificazione delle traiettorie risultante dal FFS per una sola

configurazione di partenza da λ0, rappresentata dal cerchio centrale. Ogni freccia

indica il passaggio a una configurazione dell’interfaccia successiva e le traiettorie che

non giungono a λn (rami morti) non sono rappresentate.

Figure 3.2: (a) Operating scheme for FFS. A simulation in state A is carried out

and when the initial interface λ0 is reached because of fluctuations in the system, a

configuration is saved until there is a chosen number N0 of them, with a concurrent

estimate of the flux. Next, other runs are carried out starting from one of the stored

configurations chosen at random. They continue until they return to λ0(failure),

then another trial run starts from another random configuration, or they reach

λ1(success), storing the configuration, until reaching a chosen number N1 of them.

The process is repeated every time using the new configurations to reach the next

interface until the B state is reached at λn. Image from [4]. (b) Representation of the

trajectories ramifications resulting from the FFS for only one starting configuration

at λ0, represented by the central circle. Every arrow indicates the passage to a

configuration of the successive interface and trajectories that do not reach λn (dead

branches) are not represented.

una corretta dinamica di sistema lungo il percorso di transizione. In genere come punti di inizio e fine si scelgono A e B come due stati stabili, ma niente vieta di scegliere l’interfaccia finale λn in modo arbitrario.

ma richiede di conservare molte configurazioni per ogni interfaccia ed è necessa- rio salvare la sequenza storica di connessione tra le configurazioni delle varie interfacce per poter ricavare tutti i percorsi di transizione simulati nelle varie prove. In realtà esistono diverse varianti di FFS, tra le quali quella appena descritta è definita come FFS diretto. Esistono anche le varianti a crescita ramificata e di tipo Rosenbluth[4], non approfondite perché non utilizzate in questa tesi.

interpretazioni sensate però è necessario analizzare i dati in modo adeguato. L’utilizzo di alcune nozioni di statistica permette di avere in mano un potente strumento per fare chiarezza su ciò che si ha a disposizione. In generale la precisione degli strumenti utilizzati limita l’accuratezza delle misure, oppure possono essere i processi oggetto di studio stessi ad avere natura stocastica.

Tali considerazioni portano a dover esprimere i risultati sotto forma di stime accompagnate ad intervalli di errore, necessari per valutare la precisione di un esperimento ed eventualmente poterla migliorare. L’assegnazione degli errori è importante anche perché permette di comparare le evidenze sperimentali a quanto previsto da teorie quantitative o a risultati di altri esperimenti diversi. In questo capitolo si descriveranno gli strumenti statistici che sono stati utilizzati nell’analisi dei dati ricavati dal lavoro descritto nel capitolo 5.

4.1

Stima degli errori

4.1.1

Valore medio

Nello studio di una popolazione il primo stimatore usato è la media, per cui si può dire che il valore atteso per tale popolazione, indicato con hxi, risulta in

hxi = µ (4.1)

il cui risultato µ può essere definito come media di popolazione. Occorre considerare però che nella maggior parte dei casi non è possibile conoscere la popolazione nella sua interezza e µ risulta sconosciuta.

Quel che è possibile fare è cercare di ottenere un campione abbastanza ampio della popolazione e calcolarne la media aritmetica per ricavare la media

campione x, che non coincide generalmente con µ. Questa può essere calcolata con l’equazione: x = 1 N N X i=1 xi (4.2)

dove N è la dimensione del campione e xi sono i singoli valori associati. Questa

è una variabile casuale, in quanto lo è il processo di campionamento stesso, e il suo valore atteso è pari ad hxi

hxi = 1 N N X i=1 hxii = hxi (4.3)

4.1.2

Consistenza e distorsione di uno stimatore

Per una statistica finita, in generale si può dire che il valore di uno stimatore (ˆθ) differisce da quello del parametro da ottenere (θ) a causa di fluttuazioni statistiche. Aumentando le dimensioni del campione è possibile ridurre le fluttuazioni e, come facilmente intuibile, per un campione arbitrariamente grande, se

lim

N →+∞(ˆθ) = θ (4.4)

lo stimatore si può considerare consistente.

Supponendo di conoscere θ a priori e di calcolare il valore atteso di uno stimatore da una serie di dati acquisiti, si definisce la distorsione (o bias) b come

b = hˆθi − θ (4.5)

e se questo valore è nullo, uno stimatore si definisce senza distorsione o corretto. L’equazione della media campione (4.2) per esempio è uno stimatore consistente e senza distorsione per il valore medio.

4.1.3

Varianza

Per descrivere in modo sufficiente delle quantità stocastiche è necessario un altro stimatore che indichi quanto i campioni siano sparpagliati attorno al loro valore medio. Per esempio, conoscere il reddito medio di un paese non permette di capire se tutti i suoi cittadini abbiano una data situazione economica o se ci sia un profonda divisione tra ricchi e poveri.

Definendo gli scarti come di = xi − x, si potrebbe pensare di calcolare la

media degli scarti, ottenendo un risultato che per costruzione è sempre nullo, infatti:

= hx2i − 2hxiµ + µ2

= hx2i − 2µ2+ µ2

= hx2i − µ2

(4.8) che può essere espressa anche nella seguente maniera

σ2 = hx2i − hxi2. (4.9)

Così come per la media, anche la varianza viene stimata a partire da un campione, perciò nel caso in cui la media di popolazione sia nota

σµ2 = 1 N N X i=1 (xi− µ)2 (4.10)

si ottiene uno stimatore in cui hσ2

µi = σ2, quindi senza distorsione. Il problema

è che in genere µ è sconosciuto e viene sostituito dalla media campione x, ma il calcolo di questo stimatore

σx2 = 1 N N X i=1 (xi− x)2 (4.11)

restituisce una stima distorta e tende sottostimare il valore σ2 della popolazione.

Una stima migliore e senza distorsione viene ottenuta applicando una correzione che sarà affrontata nella sezione 4.1.6.

4.1.4

Varianza di una proporzione

Se si ha a che fare con un campione di valori che siano 0 o 1, si può affermare che la sua media campione sia una proporzione. Per esempio, nei risultati ottenuti dalle interfacce del FFS spiegato in sezione 3.2 si avranno un insieme di s successi pari a 1 e N − s tentativi falliti pari a 0, perciò dalla (4.2) si ricava che x = p = s N (4.12) xi− x = ( 1 −Ns per s osservazioni 0 −Ns per N − s osservazioni (4.13)

Scorporando la sommatoria dalla (4.11) e combinando con le ultime equazioni si ha N X i=1 (xi− x)2 = s  1 − s N 2 + (N − s)0 − s N 2 = s1 − 2 s N + s2 N2  + (N − s) s 2 N2 = s − 2s 2 N + s3 N2 + s2 N − s3 N2 = s − s 2 N = N p − N p 2 = N (p − p2) (4.14)

che reinserito nell’equazione dello stimatore restituisce

σ2x = p − p2 (4.15)

4.1.5

Errore standard

Per giungere all’errore standard è necessario prima fare un paio di osservazioni. Ponendo

Var(x) = σ2 è noto che in generale, per una costante k si ha

Var(kx) = k2Var(x) = k2σ2 (4.16)

Ora si ponga di effettuare diversi campionamenti indipendenti su di una popolazione, rappresentati dalle variabili casuali xi, con 1 ≤ i ≤ n, ognuno con

varianza σ2. Essendo valori indipendenti, la varianza della loro somma

Var  n X i=1 xi  = n X i=1 Var(xi) = n X i=1 σ2 = nσ2 (4.17)

equivale alla somma delle varianze.

A questo punto usando insieme le (4.16) e (4.17) e ponendo k = 1

n si ottiene il risultato Var  Pn i=1xi n  = 1 n2Var  n X i=1 xi  = 1 n2nσ 2 = σ2 n (4.18)

che corrisponde al calcolo della varianza rispetto alla media delle medie dei vari campionamenti indipendenti effettuati. Naturalmente la varianza della popolazione non è generalmente conosciuta, perciò il valore viene sostituito da uno stimatore opportuno, come (4.11) o (4.15), inoltre non sempre è possibile

media campione rispetto alla reale media di popolazione. Il denominatore si associa anche alla consistenza (4.4), in quanto all’aumentare della dimensione del campione corrisponde una riduzione dell’errore.

4.1.6

Varianza corretta

Si era detto che per l’equazione (4.11) esiste una correzione che permette di ottenere uno stimatore corretto per la varianza. Dallo sviluppo del suo valore atteso hσ2 xi = h(x − x) 2i = h(x2− 2xx + x2)i = hx2i − hx2i

che integrata con quanto deriva dai risultati delle (4.9) e (4.18) hx2i = Var(x) + hxi2 = σ2+ hxi2

hx2i = Var(x) + hxi2 = σ 2 N + hxi 2 si ottiene hσ2 xi = σ 2 σ2 N = σ 2N − 1 N 

per cui si evidenzia che σ2

x restituisce una sottostima del valore σ2 per un fattore N −1

N . Dalla (4.5) si evidenzia anche che la distorsione per questo stimatore

corrisponde a

b = −σ

2

N

L’uso di questo fattore correttivo viene detto correzione di Bessel e per distinguere la (4.11) dalla sua variante corretta in genere si incontra un altro tipo di notazione, S2

N e SN −12 rispettivamente,dal denominatore delle due

N N − 1S 2 N = N N − 1 1 N N X i=1 (xi − x)2 = 1 N − 1 N X i=1 (xi− x)2 = SN −12 (4.20)

È bene precisare che sebbene quest’ultimo stimatore sia senza distorsione, lo stesso non si può dire per la sua radice, perciò la deviazione standard da esso calcolata risulta comunque essere non corretta.

Documenti correlati