• Non ci sono risultati.

Metodi Monte Carlo, inferenza Bayesiana e ricampionamento

Il rinnovato interesse per le tecniche Monte Carlo per l'ottimizzazione globale e per l'esplorazione dello spazio dei modelli ha sollevato un interessante interrogativo, cioè come fare uso del campionamento prodotto per valutare trade-offs, vincoli e risoluzione nell’ambito di problemi non lineari multimodali. In altre parole, come si può utilizzare l'insieme dei modelli generati in un’inversione di tipo Monte Carlo per produrre più di una semplice stima di un set di parametri associati al modello migliore. Una interessante risposta a tale quesito, suggerita dalla seconda generazione di utenti dei metodi descritti, propone un approccio di tipo Bayesiano al problema. Tale tipo di trattazione statistica dei problemi inversi è ben noto ai geofisici attraverso l'opera di Tarantola e Valette (capitolo 2) ed è stato applicato ampiamente ai problemi linearizzati. Le tecniche Monte Carlo facilitano un'estensione della filosofia Bayesiano ai problemi non lineari.

33 In questa formulazione di un problema inverso tutte le informazioni sono rappresentate in termini probabilistici (gradi di credenza). In breve, una procedura di tale tipo combina le informazioni preliminari note del modello con i dati osservati e produce la funzione di densità di probabilità a posteriori (PPD) sullo spazio dei modelli, che rappresenta la soluzione completa del problema inverso.

Per problemi altamente non lineari la densità di probabilità a posteriori può avere una forma multimodale piuttosto irregolare, derivante dalla natura del fit dei dati (funzione di verosimiglianza) od anche dalla inclusione di informazioni a priori piuttosto complesse. In questo caso, sono necessarie tecniche di ottimizzazione globale per identificare il massimo della densità di probabilità a posteriori. Tuttavia, come la complessità della PPD aumenta, scegliere come soluzione del problema il singolo modello più probabile, se presente, è poco significativo.

Con date premesse, sono necessarie informazioni sulla forma completa della PPD per produrre le misure Bayesiane di incertezza e risoluzione. È qui che i metodi Monte Carlo presentano maggiori vantaggi rispetto metodi di linearizzazione (locali) dal momento che il campionamento prodotto può essere utilizzato per calcolare gli integrali Bayesiani. È posta quindi maggiore enfasi sul campionamento dello spazio dei parametri che sulla semplice ottimizzazione. Tale processo è noto come importance sampling.

L'essenza del presente approccio risiede nell’utilizzo delle informazioni a disposizione (la distribuzione dei modelli generati durante l’inversione) per guidare un ricampionamento dello spazio dei parametri. Questo non richiede ulteriori soluzioni del problema diretto, ma dal nuovo ensemble ricampionato siamo in grado di ottenere un insieme di informazioni che il semplice modello migliore non sarebbe in grado di fornirci.

Nell’ambito dei metodi Monte Carlo applicati al ricampionamento, si colloca il Neighbourhood Algorithm che è quello utilizzato, nella formulazione di Malcolm Sambridge [27], per il calcolo della densità di probabilità a posteriori approssimata in questo lavoro di tesi. Nel seguente paragrafo è possibile trovare una breve descrizione teorica del funzionamento dello stesso.

3.3.1 Neighbourhood Algorithm per il ricampionamento

La ricostruzione della densità di probabilità a posteriori (PPD) da un insieme finito di campioni è effettivamente un problema di interpolazione in uno spazio multidimensionale e, per spazi ad alte dimensioni, la maggior parte dei metodi possono diventare improponibili a livello computazionale. L’algoritmo proposto da

34 Sambridge (Neighbourhood Algorithm) propone un metodo di interpolazione multidimensionale basato sull’utilizzo delle celle di Voronoi []. Le celle di Voronoi costituiscono semplicemente le regioni di maggiore vicinanza ad ogni campione dello spazio dei modelli considerato. Nello specifico, la cella associata ad un generico punto P dello spazio dei modelli, è quella regione dello spazio contenente tutti i punti che distano dal punto P meno che da qualsiasi altro punto dell’insieme considerato (Figura 3.8). Tale distanza è misurata in norma L-Nvar, con Nvar uguale al numero di gradi di libertà del sistema. Esse si rivelano particolarmente utili per le proprietà geometriche di cui godono. Infatti, qualunque sia la distribuzione (regolare od irregolare) di punti e qualunque sia il numero di gradi di libertà del sistema considerato, le celle di Voronoi sono poliedri convessi univocamente definiti e space-filling, la loro dimensione e la loro forma si adattano automaticamente all’insieme dei punti considerati. L’approssimazione della PPD proposta da Sambridge, che chiameremo PNA(m), associa

ai punti all’interno di ogni cella di Voronoi le medesime caratteristiche del campione di cui sono i vicini più prossimi. Ogni cella costituisce cioè “l’area d’influenza” di ogni campione. Avremo:

PNA(m) = P(pi) (3.22)

dove pi è il campione dell’insieme di partenza più vicino al punto m.

Il metodo di ricampionamento proposto si fonda su di un’importante assunzione: essendo essa l’unica informazione in nostro possesso sulla PPD, faremo uso della PPD approssimata (PNA) al posto di quella reale (P). Avremo:

PNA(m) ~ P(m) (3.23)

Gli integrali Bayesiani possono dunque essere calcolati (tramite integrazioni di tipo Monte Carlo) generando un nuovo insieme di Nr punti dello spazio dei modelli, sk(k =

1, …, Nr), la cui distribuzione tende asintoticamente a PNA(m). Chiameremo tale set di

punti insieme ricampionato ed il procedimento prende il nome, come già accennato in precedenza, di importance sampling. Pertanto, se il campionamento è effettuato correttamente, per la densità di campionamento, hR(m), dovrebbe essere soddisfatta

la relazione

35

da cui avremo che gli integrali Bayesiani si ridurranno a semplici medie sull’insieme ricampionato:

(3.25)

Si è utilizzato il pedice NA per enfatizzare il fatto che si è utilizzata la PPD approssimata. L'insieme ricampionato può essere generato con un approccio standard conosciuto con il nome di campionamento di Gibbs [29]. Con questo metodo è possibile generare una passeggiata aleatoria (random walk) nello spazio dei modelli, la cui distribuzione tenda a qualsiasi distribuzione desiderata. Nel caso in esame, il campionamento di Gibbs è utilizzato allo scopo di generare punti distribuiti secondo la distribuzione PNA(m). La passeggiata aleatoria inizia nel punto B, che chiameremo mB. Da questo

punto la passeggiata compie, a turno, una serie di passi di ampiezza casuale nella direzione di ciascuno degli assi dello spazio dei parametri. Ad ogni passo un elemento di mB viene aggiornato (Figura 3.8).

36 In questo modo il metodo di Gibbs può essere impiegato per generare un insieme ricampionato di qualsiasi dimensione, Nr. È inoltre preferibile fare uso di diversi

random walks indipendenti a partire da altrettanti punti distinti dello spazio.

A partire dal nuovo insieme di Nr elementi è possibile inoltre derivare le distribuzioni

di densità marginali relative a ciascun grado di libertà. Queste possono significativamente migliorare il grado di conoscenza del problema considerato.

È importante, tuttavia, tenere presente che tecniche di ottimizzazione complesse come gli Algoritmi Genetici od il Simulated Annealing campionano preferenzialmente zone dello spazio dei modelli ad alta PPD, non è quindi garantito un buon accordo tra PPD approssimata e PPD reale in casi particolarmente sfavorevoli (ad esempio in caso di convergenza prematura verso minimi locali o di sottocampionamento marcato). Sicuramente sono un'utile conclusione da affiancare al risultato ottenuto.

37

Capitolo 4

Ottimizzazione funzionale tramite

Documenti correlati