• Non ci sono risultati.

3.3 Metodi statistici

3.3.3 Maximum Likelihood

Uno degli algoritmi statistici più usati in letteratura è la Maximum Likelihood o massima verosimiglianza. Come anticipato in precedenza, essendo un metodo statistico, calcola una serie di parametri (le coordinateX ec Y dell’interazione e l’energia dell’evento gammab

c

N , espressa come numero di fotoelettroni o segnale di ampiezza) che massimizzano la

probabilità di ottenere i dati sperimentali misurati. Più precisamente la verosimiglianza appartiene alla famiglia delle Cost-function, ovvero funzioni che esprimono la differenza esistente tra un valore reale e uno atteso, quest’ultimo dipendente da un parametro noto [37], in questo caso la posizione r.

In generale, dato un evento in posizione r = (x,y) ed N il numero di fotoni generati, la probabilità che l’i-esimo sensore riveli ni fotoni è ben approssimata dalla distribuzione

di Poisson [31]: Pi(ni) = µni i e−µi ni! (3.7)

con µi = N · LRFi(r) il valore di aspettazione del canale i-esimo. La funzione di

verosimiglianza si ricava da queste distribuzioni di Poisson:

L = ΠMi Pi(ni|µi) (3.8)

dove M è il numero di sensori della matrice di rivelazione e P (ni|µi) è la probabilità

congiunta di misurare un segnale ni dato un valore medio µi, dipendente dal parametro

r. La formula 3.8 è vera solo se le P (ni|µi) sono tra loro indipendenti. Assumendo ciò

ed essendo le P (ni|µi) esponenziali, è più semplice utilizzare Ln(L):

ln(L) = Σmi ln(P (ni|µi)) = Σmi ln(

µni

i

ni!

− µi) = Σmi niln(µi) − µi − ln(ni!) (3.9)

Il termine ln(ni!) è indipendente da r dunque lo si può trascurare. La cost-function che

viene quindi implementata è:

Capitolo 3. Algoritmi di ricostruzione

La miglior stima di N a data r viene trovata analiticamente:

c N (r) = Σ N i ni ΣN i LRFi(r) (3.11)

Sostituendo N in 3.11 la funzione di verosimiglianza dipende dunque solo da r. Ilc

passo finale è trovare la coordinatabr che massimizza Ln(L(r)).

Figura 3.19 Verosimiglianza di un evento gamma calcolata sull’intera dimensione del

cristallo. La coordinata (x,y) del massimo della funzione coincide con la posizione stimata dell’evento di scintillazione.

Nel seguito si comparano le prestazioni dell’algoritmo di massima verosimiglianza e del centroide modificato. In figura 3.20 si è ricostruito la stessa misura non collimata del sistema INSERT preclinico usando entrambi i metodi.

(a) (b)

Figura 3.20 Illuminazione uniforme non collimata del sistema di misura INSERT preclinico

ricostruita (a) con il metodo del centroide modificato e (b) con la massima verosimiglianza. In figura sono rappresentati 1 000 000 di eventi.

Capitolo 3. Algoritmi di ricostruzione

I vantaggi dell’algoritmo di massima verosimiglianza rispetto al centroide sono: • uso dell’intero campo di vista del cristallo

• aumento della linearità dell’immagine ricostruita

• incremento dell’uniformità della figura ricostruita, dovuto all’utilizzo di un modello ottico basato sul comportamento medio del cristallo.

Capitolo 4

Ottimizzazioni algoritmo di

Massima Verosimiglianza e modifica

modello ottico

Il seguente capitolo descrive i metodi di ottimizzazione sviluppati in questo lavoro di tesi necessari a rendere effettivamente applicabile l’algoritmo di Massima Verosimiglianza descritto nel precedente capitolo. questo metodo ha infatti un peso computazionale estre- mamente elevato tale per cui senza ottimizzazioni, una singola immagine richiederebbe ore o addirittura giorni di elaborazioni. Le soluzioni attuate in questo lavoro permettono di ricostruire la stessa immagine in secondi o al massimo minuti. Un secondo aspetto trattato in questo capitolo riguarda il modello ottico ottenuto usando il metodo iterativo discusso nel capitolo 3. In questo progetto si sono usate funzioni di fitting gaussiane, tuttavia in letteratura si é impiegato un altro tipo di funzioni, chiamate spline, che

possono approssimare insiemi di dati aventi una forma qualsiasi. Si é quindi cercato di stabilire quale tra le due funzioni é preferibile usare nel progetto INSERT.

Capitolo 4. Ottimizzazioni algoritmo di Massima Verosimiglianza e modifica modello ottico

4.1

Compromesso risoluzione spaziale - tempo di

calcolo

Come già anticipato, lo svantaggio principale degli algoritmi statistici è l’eccessivo peso computazionale. Essi necessitano di punti del cristallo di cui si conosce il comportamento medio di scintillazione grazie al modello ottico e tra questi viene calcolata la posizione stimata. Da qui nasce un compromesso tra risoluzione e velocità computazionale: in teoria tutte le coordinate appartenenti all’area del cristallo possono essere la fonte dell’evento, quindi si dovrebbe fornire all’algoritmo un numero infinito di punti. Poichè ciò non è possibile, si procede ad una discretizzazione delle LRF: l’area del cristallo è divisa in una matrice formata da pixel di lato ρ, rappresentante la risoluzione spaziale dell’immagine finale. L’andamento della LRF nell’elemento della griglia è assunto costante e pari al valore nel centro del pixel. Le funzioni diventano quindi delle matrici di dimensioni (Lx/ρ) x (Ly/ρ), dove Lx e Ly sono le lunghezze dei lati del cristallo. I

punti candidati sono dunque Lx·Ly

ρ2 ; essendo il loro numero finito, la coordinata reale

dell’evento potrebbe non trovarsi nell’ insieme in esame, dunque si commette un errore di ricostruzione. L’algoritmo è infatti in grado di stabilire solo quale tra i punti forniti si avvicina maggiormente alla posizione di interazione reale; non è in grado di stimare la coordinata dell’evento in un punto diverso da quelli dati. Ciò significa che tanto più la risoluzione è migliore, tanto più l’errore è minore, poichè a parità di area, si aumenta il numero di coordinate analizzate, quindi la distanza tra posizione reale e stimata si riduce. Proprio per questo però, la velocità computazionale è minore.

(a) (b)

Figura 4.1 Rappresentazione dello stesso cristallo, ma con una discretizzazione delle LRF

differente. (a) I punti analizzati sono meno rispetto a (b); l’errore di ricostruzione, ovvero la distanza esistente tra la posizione stimata (verde) e la posizione reale ( blu) è quindi maggiore nel caso a.

Capitolo 4. Ottimizzazioni algoritmo di Massima Verosimiglianza e modifica modello ottico

Si consideri ad esempio il caso INSERT: i lati del cristallo sono circa pari a 50 mm; supponendo una risoluzione di 0.2 mm, si ottengono matrici da 250x250 elementi. La verosimiglianza, per essere calcolata, richiede dunque, per ogni evento, operazioni tra matrici di decine di migliaia di valori. Usando un computer con Intel(R) Core(TM) i5 CPU (3.10 GHz, quad core) e sviluppando l’algoritmo in Matlab R2015b si ricostruiscono mediamente 20 eventi/s. Un’immagine formata da un milione di scintillazioni richiede quasi 14 ore di elaborazioni. Nel caso di un’immagine con risoluzione del pixel di 0.04 mm, la qualità dell’immagine migliora, ma le LRF risultano costituite da oltre un milione e mezzo di valori, richiedendo così più di due giorni di calcoli.

(a) (b) (c)

Figura 4.2 In figura è rappresentata una illuminazione uniforme del cristallo ricostruita

con risoluzioni differenti. nel caso (a) si usano 5x5 pixel, nel caso (b) 50x50 e nel caso (c) 250x250

Come si nota in figura 4.2, più il numero di punti usato per campionare l’insieme di LRF è basso e maggiore è la velocità computazionale, ma minore è la qualità dell’immagine finale. Risulta quindi evidente che analizzare un elevato numero di punti del cristallo è necessario per una buona immagine, tuttavia calcolare la verosimiglianza sull’intero campo di vista, richiede troppo tempo. In letteratura, una soluzione molto usata è il cosidetto metodo a griglia, che permette un grande incremento della velocità computazionale.

Documenti correlati