• Non ci sono risultati.

Il problema inverso cos`ı formulato produce un insieme di modelli che si sup- pone abbia campionato in modo adeguato le regioni dello spazio dei modelli che producono un fit accettabile rispetto ai dati. Un approccio di tipo determinis- tico al problema considera come soluzione il modello cui corrisponde il minimo del misfit; tuttavia, in un’ottica di inversione probabilistica, l’intero ensemble di modelli generati contiene informazioni utili sulla distribuzione dei parametri fisici nel sottosuolo, che possono essere estratti attraverso tecniche di inferenza Bayesiana (Sambridge [21] [22]). In un approccio bayesiano, il modello `e una variabile casuale e la soluzione del problema inverso `e la PPD, ovvero la fun- zione densit`a di probabilit`a a posteriori dei modelli, data dal Teorema di Bayes (Aster [6]):

P P D(m|dobs) =

L(dobs|m)Ppr(m)

k (2.11)

Dove P P D(m|dobs) `e la distribuzione di probabilit`a dei modelli condiziona-

ta all’osservazione del dato dobs, L(dobs|m) `e la funzione di verosimiglianza o

Likelihood, Ppr(m) `e la densit`a di probabilit`a a priori dei modelli e, infine, k `e

una costante di normalizzazione che fa si che l’integrale definito della P P D, dal limite inferiore al limite superiore del dominio , sia pari a 1. Si noti come, nel caso in cui Ppr sia uniforme nel dominio di esistenza della soluzione, la 2.11 si

riduca a:

P P D(m|dobs) =

L(dobs|m)kpr

k (2.12)

Ovvero la P P D `e pari alla Likelihood a meno di un fattore di scala.

La definizione della Likelihood richiede di formulare opportune ipotesi sulla natura del rumore che contamina il dato osservato(Menke [16], Aster [6]). Nel caso di statistica gaussiana la Likelihood prende la forma di una gaussiana M- dimensionale:

Si noti come l’argomento dell’esponenziale sia il Misfit in norma L2 pesato per

la covarianza del dato e che il massimo della PPD nell’approssimazione della 2.12 corrisponde in questo caso alla soluzione ai minimi quadrati del problema inverso.

Nel caso in cui si supponga una distribuzione del noise a coda lunga, ovvero approssimabile ad una pdf esponenziale simmetrica, si ha, nel caso di rumore incorrelato:

L(dobs|m) = k exp(−

| dobs− G(m) |

σ ) (2.14)

Il cui massimo, ancora nel caso di pdf a-priori uniforme, corrisponde alla soluzione in norma L1 del problema inverso.

I momenti della PPD di interesse per caratterizzare lo spazio dei modelli sono (Sambridge [22]):

ˆ Modello medio a posteriori per il parametro k-esimo ˆ

mk=

Z

P P D(m|dobs)mkdm (2.15)

ˆ Pdf marginali 1D: sono proiezioni della pdf a posteriori in una variabile e permettono una stima visiva della capacit`a di convergenza dell’algoritmo e dell’incertezza associata al singolo parametro

P dfm(mk) = Z .. Z P P D(m|dobs) M Y i=1 dmi∀i 6= k (2.16)

ˆ Pdf marginali 2D: sono proiezioni della pdf a posteriori nel dominio 2D definito da due parametri e consentono una stima visiva della correlazione tra coppie di parametri.

P dfm(mk1, mk2) = Z .. Z P P D(m|dobs) M Y i=1 dmi∀i 6= [k1, k2] (2.17)

ˆ Matrice di covarianza a posteriori: contiene negli elementi diagonali le varianze della stima dei parametri del modello e, negli elementi fuori- diagonale, le covarianze.

Covij =

Z

ˆ Matrice di risoluzione: `e una misura di quanto l’algoritmo riesce a stimare indipendentemente i parametri del modello; una stima perfettamente un- biased della soluzione si ha nel caso in cui la matrice di risoluzione sia la matrice identit`a (Menke [16], Tarantola [26]).

Res = I − Covprior−1 Covpost (2.19)

Il calcolo degli integrali della PPD, essendo quest’ultima una funzione multi- dimensionale, risulta per`o impraticabile per via analitica, e si fa ricorso quindi a tecniche di integrazione numerica di tipo Monte Carlo.

Consideriamo la forma generale dell’integrale della P P D:

Pg=

Z

c(m)P P D(m)m (2.20)

In cui si `e omesso di indicare la condizionalit`a della pdf e si `e indicato il generico integrando con c(m).

Un’approssimazione della 2.20 attraverso integrazione Monte Carlo `e data da: ˆ Pg= 1 Np Np X i=1 c(mi) P P D(mi) f (mi) (2.21)

Dove Np`e il numero di punti generati in modo random con densit`a di cam-

pionamento f (mi), in cui si approssima la funzione integranda. La 2.21 `e di

fatto una media dei valori di c(mi) pesata per il rapporto tra la funzione densit`a

di probabilit`a e la funzione densit`a di campionamento dell’integrazione Monte Carlo; possiamo quindi riscrivere la 2.21 come:

¯ c = 1 Np Np X i=1 c(mi)w(mi) (2.22) In cui: w(mi) = P P D(mi) f (mi) (2.23)

Nel processo di integrazione Monte Carlo l’errore `e proporzionale al reciproco della radice quadrata del numero di punti campionati ed alla quantit`a σmc =

[ ¯c2− ¯c2](1

2), in cui ¯c2 viene calcolato come:

¯ c2= 1 Np Np X i=1 c(mi) 2 w(mi) (2.24)

Si ha:

E = √1

Nσmc (2.25)

Durante l’integrazione, il valore di E viene monitorato e l’integrazione procede fino a che non si raggiunga una soglia desiderata (Sambridge [22]).

Nel caso in cui f (mi) = P P D(mi), ovvero nel caso in cui i punti random

generati abbiano una distribuzione uguale alla P P D, la 2.21 si riduce a una semplice sommatoria: ˆ Pg= 1 Np Np X i=1 c(mi) (2.26)

Si parla in questo caso di importance sampling della funzione integranda. La 2.26 rappresenta tuttavia un’approssimazione valida nel caso ideale in cui l’al- goritmo di inversione globale abbia prodotto un’ensemble di modelli con una distribuzione che sia vicina alla pdf a posteriori; nonostante l’algoritmo geneti- co campioni preferenzialmente le zone a pi`u elevata PPD, l’ensemble risultante segue invece in generale una distribuzione ignota.

2.2.1

Stima degli integrali Bayesiani

con Neighbourhood approximation della PPD

Il metodo qui utilizzato per la stima numerica degli integrali bayesiani `e quello dell’integrazione Monte Carlo con importance sampling di una PPD approssi- mata con il metodo Neighbourhood (Sambridge [22]).

L’approssimazione della PPD fa uso delle celle di Voronoi M −dimensionali per definire la regione prima vicina di ciascun modello dell’ensemble, all’interno della quale il valore di P P D `e considerato costante e pari al valore calcolato per il modello stesso. Le celle di Voronoi sono le regioni Nearest neighbour definite, per ciascun campione dell’ensemble di partenza, in termini di distanza L2tra il

modello mk e generico punto x:

k x − mk k= [(x − mk)†CM−1(x − mk)] (2.27)

In cui CM `e una matrice che ha la funzione di riscalare e rendere adimensionale

costante, si possa usare una matrice dei pesi CM pari alla matrice identita. La

cella di Voronoi intorno al generico campione mk `e data da:

V (mk) = [x |k x − mkk≤k x − mjk]∀j 6= k (2.28)

La trattazione che segue si fonda sull’assunzione che i valori di P P D calcolati per i campioni dell’ensemble di partenza siano rappresentativi della P P D nella propria regione prima-vicina ; sotto quest’ipotesi, si ha:

P P D(m) ' P P Dna(m) (2.29)

In cui P P Dna`e la Neighbourhood Approximation della P P D.

L’algoritmo genera quindi un nuovo insieme di Nr >> N punti di inte-

grazione r, la cui densit`a di campionamento frtende alla P P Dna:

fr(m) ' P P Dna(m) (2.30)

Sotto questa condizione `e possibile applicare la 2.26 modificata come segue:

ˆ Pna= 1 Nr Nr X i=1 c(ri) (2.31)

In cui r sono i modelli appartenenti all’ensemble ricampionato in accordo alla P P D approssimata. Risulta evidente che condizione necessaria affinch`e tale stima sia affidabile, `e che l’ensemble di partenza campioni in modo adeguato lo spazio dei modelli.

Si noti inoltre che il metodo non richiede il calcolo dei valori di pdf dei nuovi modelli generati e che dunque il costo computazionale si riduce a quello necessario a generare l’ensemble ricampionato; quest’ultimo `e espresso da :

tna∝ NrN M (2.32)

In cui Nr `e il numero dei nuovi punti di integrazione, N `e il numero di punti

dell’ensemble di partenza e M `e il numero di gradi di libert`a dello spazio dei modelli (Sambridge [22]).

Capitolo 3

Inversione Full Waveform

con Algoritmi genetici: test

su dataset sintetici

Documenti correlati