• Non ci sono risultati.

FWI acustica globale-locale applicata a dati di sismica a riflessione superficiale

N/A
N/A
Protected

Academic year: 2021

Condividi "FWI acustica globale-locale applicata a dati di sismica a riflessione superficiale"

Copied!
120
0
0

Testo completo

(1)

1

sommario

La Full Waveform Inversion (FWI) acustica consiste in un metodo di inversione assolutamente innovativo, attraverso il quale, è possibile ottenere un modello di velocità molto accurato delle onde di pressione. La FWI si basa sulla minimizzazione di una funzione di misfit che quantifica la differenza fra dati predetti e osservati, in ambito geofisico però, questi processi sono spesso non lineari e quindi caratterizzati da funzioni oggetto multimodali. Nonostante ciò, un solido algoritmo di forward

modelling, la scelta di un adeguato approccio di ottimizzazione e un modello di velocità

iniziale, rappresentano gli ingredienti chiave per la FWI. Tale metodologia di inversione è caratterizzata da numerose limitazioni quali il costo computazionale e la presenza di numerose valli di minimo locali nella funzione di misfit. Inoltre, caratteristiche del dato quali il rapporto segnale-rumore, l’offset massimo registrato e il contenuto in basse frequenze, possono giocare un ruolo essenziale nell’applicabilità della FWI. Proprio per tale motivo, in letteratura, si trovano numerosi elaborati riferiti ai dati marini piuttosto che a quelli terrestri. La topografia irregolare e la grande quantità di rumore introdotta dagli effetti superficiali rendono i dati acquisiti onshore difficilmente trattabili per la FWI. Per mitigare tali problematiche, in questo lavoro di tesi, la Terra è considerata come un mezzo puramente acustico, questa approssimazione permette di ignorare gli effetti elastici descritti dalle onde superficiali (Tarantola A.,1984).

La sequenza di processing adottata è piuttosto comune ma ha consentito di estrarre due importanti informazioni a priori (oltre alla sezione stack nel dominio dei tempi):il modello di velocità intervallare iniziale, da fornire come input nelle inversioni globali, e lo spessore dello strato aerato, ottenuto tramite le correzioni statiche a rifrazione.

A differenza dei metodi di ottimizzazione locale (e.g. Gauss-Newton, gradient

(2)

multimodali, anche se la velocità di convergenza di questi ultimi è generalmente inferiore, non necessitano di un modello di velocità iniziale troppo accurato e non utilizzano calcoli matematici possibilmente instabili come approssimazioni di derivate ed inversioni di matrici. I metodi globali sono in grado di esplorare efficacemente l’intero spazio dei modelli, a prescindere dalla sua topologia, grazie a soluzioni generate randomicamente sullo spazio dei modelli stesso. Per poter ottimizzare i risultati ottenuti precedentemente e per includere le riflessioni presenti nel dato, si è deciso comunque di ricorrere a strategie di inversione locale con metodo steepest descent: sfruttando le informazioni localmente presenti in un intorno del minimo della funzione oggetto analizzata è stato possibile estrarre un modello di velocità maggiormente accurato e rappresentativo.

I dati utilizzati in questo lavoro sono stati acquisiti in prossimità del campo archeologico di Luni (SP), nella porzione più orientale della Liguria, al confine con la provincia di Massa-Carrara. La sorgente energizzante è formata da una massa battente di 10 kg alla quale è stato collegato un accelerometro piezoelettrico che funge da

trigger. Sono stati acquisiti 185 common-shots al termine dell’acquisizione, fra questi,

i primi 9 shots, risultano acquisiti con una geometria off-end. Per le operazioni di inversione è stato sufficiente selezionare 20 shots con un passo di campionamento circa equispaziato; questa scelta, oltre a ridurre il costo computazionale, permette di non trascurare i contributi dell’intera linea.

Il lavoro è articolato nei seguenti argomenti: un'analisi dettagliata dei passi di processing adottati, una descrizione approfondita della zona di studio in termini geologici/geomorfologici, l'esposizione e il commento dei risultati dei test di inversione effettuati sugli eventi rifratti e riflessi del dato.

(3)

3

[Digitare qui]

1. INTRODUZIONE

I dati utilizzati in questo lavoro sono stati acquisiti in prossimità del campo archeologico di Luni (SP), nella porzione più orientale della Liguria, al confine con la provincia di Massa-Carrara. Questa acquisizione ha avuto lo scopo di indagare le parti più superficiali del semispazio, ragion per cui nei paragrafi successivi verrà presentata una breve discussione sulle indagini sismiche, focalizzando l’attenzione sui metodi

near-surface.

Le indagini di tipo near-surface, nonostante la ridotta profondità di investigazione (da decine a centinaia di metri), presentano una vasta gamma di possibili applicazioni ed è proprio questo il motivo che mi ha spinto a intraprendere questo progetto di tesi. Si possono elencare diversi campi in cui le indagini sismiche superficiali potenzialmente restituiscono ottimi risultati:

- ingegneria civile

• per determinare la profondità del bedrock (e.g. Miller et al.,1989)

• per la costruzione e il monitoraggio di grandi strutture come ponti, tunnel, etc.

• per ottenere parametri parametri ingegneristici di interesse come il modulo di taglio e di Young, il rapporto di Poisson etc.

- idrogeologia e studi ambientali.

• per determinare il livello della falda (e.g. Pasquet et al., 2015) • per monitorare l’instabilità dei versanti (e.g. Grit and Kanli, 2016) - altri usi di interesse pubblico

• per localizzare strutture archeologiche sepolte (e.g. Metwaly et al., 2005) • per caratterizzare e identificare depositi di rifiuti e altri materiali sepolti

(4)

Anche se nell’esplorazione del gas e petrolifera i metodi sismici vengono applicati allo scopo di individuare e caratterizzare il semispazio a livelli più profondi, non si possono trascurare le indagini mirate a risolvere le porzioni più superficiali del dato. Come appena descritto infatti, queste ultime trovano ugualmente applicazione nei campi più disparati.

Fra le varie tecniche geofisiche, i metodi sismici sono ormai da tempo riconosciuti come uno degli strumenti più robusti per l’imaging della sottosuperficie. È possibile studiare il fenomeno della propagazione delle onde sismiche a qualsiasi scala: da quella centimetrica, analizzata nei test sui materiali in laboratorio, a chilometrica nella sismica volta allo studio dei terremoti.

A seconda del tipo di onde che vengono utilizzate si distinguono tre tipologie di indagini sismiche differenti. Nella sismica a riflessione, le onde vengono appunto riflesse all’interfaccia fra due strati che presentano un contrasto di impedenza differente (Fig.1.2-1, freccia gialla). Secondo Yilmaz (2001) è possibile delineare i contrasti di impedenza acustica nella sottosuperficie studiando gli eventi riflessi. Eseguendo manualmente operazioni di picking dei primi arrivi(Fig. 1.2-1, linea verde), dovuti agli arrivi diretti, rifratti e/o diving waves (Fig. 1.2-1, freccia blu), secondo i metodi empirici descritti dalla travel-time tomography, è possibile ottenere una distribuzione delle velocità delle onde P in modo da poter individuare le discontinuità maggiori (e.g Lanz et al., 1998). Infine, studiando l’ampiezza e la dispersione delle onde superficiali di Rayleigh-Love (Fig. 1.2-1, freccia rossa), vengono individuate le variazioni delle velocità delle onde di taglio Vs e il damping ratio, o tasso di smorzamento (e.g. Socco and Strobbia, 2004).

(5)

5

L’unico aspetto comune ai tre metodi convenzionali riassunti precedentemente è che solo una parte ridotta del sismogramma viene utilizzata. Chiaramente questo problema si traduce in una notevole perdita di informazioni. La FWI invece sfrutta e interpreta integralmente l’informazione contenuta nel sismogramma (ad eccezione del contributo delle onde superficiali nel caso acustico); comparando i dati sismici misurati con quelli predetti dall’algoritmo di forward modelling, viene minimizzata una funzione di misfit aggiornando iterativamente i parametri del modello in un processo chiamato inversione. Per esplorare efficacemente lo spazio dei modelli e per riuscire a giungere al minimo assoluto della funzione oggetto, sono stati utilizzati inizialmente algoritmi di ottimizzazione di tipo globale (algoritmi genetici) e successivamente si è ricorso ad inversioni locali con metodi steepest descent.

Il dataset sismico utilizzato è stato acquisito in prossimità del campo archeologico di Luni nella porzione più orientale della Liguria, al confine con la provincia di Massa-Carrara, allo scopo di analizzare le riflessioni sismiche più superficiali. La stratificazione piano-parallela osservabile nei livelli più superficiali, già confermata dagli studi geologici/geomorfologici condotti, rende l’area stessa di particolare interesse per quanto riguarda gli studi mirati al funzionamento di queste tecniche di inversione

Figure 1.2-1. (a) rappresentazione schematica del raypath di un’acquisizione sismica

superficiale. La sorgente (stella gialla) viene innescata in superficie. Le frecce indicano i possibili percorsi effettuati dalle onde all’interno del semispazio che verranno poi registrate dai ricevitori (triangoli blu). (b) Esempio di shot acquisito nel mio lavoro di Tesi in cui vengono mostrati gli eventi descritti in a). La linea verde rappresenta il picking dei primi arrivi.

(6)

all’avanguardia. A differenza dei dati acquisiti con gli esplosivi, caratterizzati da spettri più stretti e ricchi in basse frequenze, la bassa energia emessa dalla mazza sorgente permette una ridotta profondità di investigazione, con spettri caratteristici spalmati e shiftati verso le alte frequenze. Il dato si presenta dunque fortemente contaminato dal rumore (ground roll e air blast) soprattutto ad offset minori (Adamczyk et al., 2013).

La sequenza di processing adottata è piuttosto comune ma ha consentito di estrarre due importanti informazioni a priori (oltre alla sezione stack nel dominio dei tempi):il modello di velocità intervallare iniziale, da fornire come input nelle inversioni globali, e lo spessore dello strato aerato, ottenuto tramite le correzioni statiche a rifrazione.

Per le operazioni di inversione ho selezionato 20 shots in maniera circa equispaziata, questa scelta ha permesso di ridurre il costo computazionale e di mantenere il contenuto informativo dell’intera linea. La grande quantità di rumore introdotta, tipica di queste acquisizioni, ha parzialmente obliterato gli arrivi diretti nel dato che sono stati quindi trascurati in una prima fase preliminare del lavoro. Il modello estratto al termine di questa fase presenta una bassa risoluzione in quanto sono stati utilizzati gli inviluppi del dato e la frequenza massima è stata mantenuta al di sotto dei 30 Hz, questa tecnica ha permesso di evitare fenomeni di cycle-skipping.

Successivamente, ho cercato di ampliare le dimensioni della maschera in modo da utilizzare interamente gli eventi rifratti; per sopperire alla mancanza degli arrivi diretti nel dato ho pensato di vincolare la parte più superficiale del modello tramite l’inserimento dello strato aerato ottenuto dalle correzioni statiche a rifrazione riducendo così lo spazio nullo dei modelli. Utilizzando le forme d’onda reali degli eventi rifratti (con una frequenza passante che va dai 10 ai 50 Hz) ed impostando un andamento quadratico rispetto alla profondità nella griglia di inversione, è stato possibile ottenere un campo di velocità decisamente più accurato nei livelli più superficiali, accomodando allo stesso tempo la perdita di risoluzione già prevista a profondità maggiori.

I risultati ottenuti dalle inversioni globali sono stati poi ottimizzati grazie a strategie di tipo locale, cercando di includere anche gli eventi riflessi del dato stesso. Sfruttando il frequency marching è stato possibile ottenere un modello ad alta risoluzione

(7)

7

incorporando progressivamente frequenze sempre maggiori (fino ai 70 Hz). Data l’assenza di pozzetti esplorativi nella zona di studio, la verifica del campo di velocità estratto si è basata essenzialmente sull’allineamento degli eventi osservabili nei CIGs (common image gathers) ottenuti grazie alla migrazione di Kirchhoff in dominio pre-stack.

Nei prossimi paragrafi verranno illustrate le ricerche condotte nell’ultimo decennio sulle inversioni FWI, o più genericamente sulle waveform inversion, in modo da permettere una visione più ampia e chiarificativa del tema trattato in questo lavoro di tesi.

Il capitolo 2 fornisce una descrizione più accurata riguardante gli algoritmi della FWI e i metodi di ottimizzazione adottati.

Nel capitolo 3 invece viene presentata una parte di inquadramento geologico e geomorfologico dell’area di studio.

Il capitolo 4 contiene una breve descrizione dei punti focali adottati nelle sequenze di processing nel dominio dei tempi.

Infine, nel capitolo 5, verranno trattati i risultati ottenuti dalle inversioni globali e locali, focalizzandosi poi sulle operazioni di migrazione di Kirchhoff effettuate in dominio pre-stack utilizzate per verificare la bontà dei modelli di velocità ottenuti dalle inversioni.

1.1 Stato dell’arte

Recentemente diversi gruppi di ricercatori hanno riconosciuto il potenziale della FWI per le indagini di tipo near-surface; nonostante la ricerca intensiva prodotta nell’ultimo decennio siamo ancora ben lontani dal sostituire la tomografia classica con i metodi più innovativi e accurati che caratterizzano la Full Waveform Inversion.

Sheng et al. (2006) applicarono una waveform tomography utilizzando le forme d’onda presenti in un intorno piuttosto ristretto, in prossimità dei primi arrivi. Questa procedura è stata applicata a dati sismici marini e terrestri e, nonostante le ridotte dimensioni delle finestre temporali e l’approssimazione acustica fatta per il forward modelling, rappresenta uno dei primi esempi di waveform inversion applicata a dati

(8)

reali. Ugualmente, Gao et al. (2007) presentarono un’applicazione di waveform

tomography per studi ambientali. Utilizzando 45 profili 2D ricostruirono un’immagine

3D di un paleocanale ormai sepolto.

Negli esempi appena descritti è stato comunque sempre trascurato il contributo delle onde superficiali. Il lavoro di Romdhane et al. (2011) portò la FWI applicata a indagini di tipo near-surface a un nuovo livello. Furono infatti fra i primi a utilizzare codici per le inversioni elastiche applicati a dati sintetici, simulando però i problemi legati a una topografia irregolare e a strutture complesse, possibilmente risconstrabili in acquisizioni reali. Groos et al. (2014) approfondirono il ruolo dell’attenuazione nella near-surface FWI. È stato possibile riscontrare diverse analogie fra il loro elaborato e il mio lavoro di tesi, in entrambi i casi infatti si opera nel dominio dei tempi e il forward

modelling è stato implementato utilizzando il metodo delle Differenze Finite (FD).

Infine, nel lavoro di Adamczyk et al. (2014), è stato ricostruito un modello ad alta risoluzione in onde P delle porzioni più superficiali del semispazio in una regione Sud-occidentale della Svezia; utilizzando codici per le inversioni acustiche hanno poi verificato la bontà dei risultati tramite operazioni di migrazioni di Kirchhoff, in dominio pre-stack. Un'altra caratteristica di questa pubblicazione risiede nel fatto che rappresenta uno dei primi lavori di FWI condotti su dati ottenuti con una mazza sorgente.

(9)

9

2. FULL WAVEFORM INVERSION

La Full Waveform Inversion (FWI) rappresenta uno strumento di imaging sismico assolutamente innovativo. Lo scopo della FWI è quello di ottenere modelli relativi a differenti grandezze geofisiche (tipicamente Vp nel caso acustico e Vp,Vs e densità per

le inversioni elastiche), attraverso la minimizzazione di una funzione di misfit ricavata dalla differenza fra i dati sismici osservati e i dati sintetici predetti dall’algoritmo di

forward modelling. Rispetto alla tomografia classica, la quale utilizza solo i tempi di

arrivo dei segnali sismici registrati (i.e. i traveltimes degli arrivi diretti e rifratti), la FWI si avvale di informazioni aggiuntive quali ampiezza e fase dell’intero sismogramma utilizzato. Le tecniche della FWI emersero per la prima volta nei lavori di Tarantola (1984) e Mora (1987) ma non vennero mai presi in considerazione dalla comunità scientifica a causa dell’enorme costo computazionale richiesto dai problemi di inversione. Lo sviluppo delle risorse computazionali ha permesso alla FWI di diventare, ad oggi, uno strumento avanguardistico per la risoluzione di problemi di natura geofisica.

A seguito di una breve introduzione riguardante gli aspetti generali degli algoritmi FWI verrà esposta la trattazione matematica inerente al problema di inversione, affrontando le problematiche e le possibili soluzioni annesse.

L’appendice A1 contiene invece un’analisi di dettaglio sulla scelta dei parametri iniziali di forward modelling e/o di inversione.

(10)

2.1 Aspetti generali

La FWI consente di ricavare campi di velocità rappresentativi della sottosuperficie con livelli di accuratezza e risoluzione sempre maggiori. Gli ingredienti base per la FWI sono dei solidi algoritmi di forward modelling/inversione e un modello di velocità iniziale.

La FWI necessita di un modello di velocità più o meno accurato scelto a priori attraverso il quale vengono definiti i range di velocità da utilizzare nel calcolo dell’inversione di tipo globale. A seconda del metodo di ottimizzazione scelto sarà possibile minimizzare la funzione di misfit (differenza fra dati osservati e dati predetti) in modo da poter aggiornare il modello di velocità iniziale. Il nuovo modello di velocità ottenuto verrà utilizzato come input per la successiva iterazione. Aggiornando iterativamente il modello di velocità si cercherà quindi di ridurre progressivamente lo scarto fra dati predetti e osservati che, nel caso ideale, andranno a coincidere. In figura 2.1-1 viene rappresentato, in schema, quanto detto precedentemente.

(11)

11

La FWI presenta però delle forti limitazioni sia per il costo computazionale che per il problema della non univocità della soluzione stessa, essendo fortemente non lineare e quindi caratterizzata da una funzione oggetto multimodale. Per mitigare queste problematiche sono state utilizzate delle approssimazioni dell’equazione d’onda nel

forward modelling: nel primo caso la Terra viene considerata come un mezzo acustico

ignorando così gli effetti di elasticità del mezzo (FWI acustica); nel secondo caso invece la FWI elastica risolve un’equazione d’onda più complessa, in cui vengono presi in considerazione anche i parametri elastici del mezzo (tipicamente Vp, Vs e densità),

consentendo di ottenere dati predetti più vicini alla realtà rispetto al caso acustico. La scelta di applicare la FWI acustica a dati terrestri comporta difficoltà non indifferenti. Applicando un’adeguata sequenza di processing e adottando un metodo di acquisizione dei dati ottimale (Tognarelli and Stucchi, 2016), è stato possibile aumentare il rapporto segnale-rumore attenuando i disturbi dovuti dalle onde superficiali.

Il livello di risoluzione ottenibile dal modello finale è funzione del range di frequenze presenti nel dato e dell’angolo di apertura dei vari segnali, questi influiscono in maniera determinante secondo la seguente relazione:

𝑘 =

4𝜋𝑓

𝑐0

cos (

𝜃

2

) 𝑛

[1]

dove

𝑘

rappresenta il vettore dei numeri d’onda del modello ricostruito,

𝑓

è la frequenza del segnale di input, θ è l’angolo di incidenza,

𝑛

è un vettore unitario con la

stessa direzione di

𝑘

e

𝑐

0è la velocità dei raggi (da Virieux J. et al., 2014).

Da tale relazione si ricavano due importanti considerazioni: basse frequenze e ampi angoli di apertura ricostruiscono le grandi e intermedie lunghezze d’onda nel mezzo; viceversa alte frequenze e angoli di apertura pressoché nulli (incidenza normale) portano alla ricostruzione dei più alti numeri d’onda, ottenendo così la risoluzione massima.

(12)

2.2 Forward modelling

Nel forward modelling o problema diretto vengono calcolati i dati sintetici. Risolvendo numericamente l’equazione d’onda vengono simulati i fenomeni di propagazione dell’onda stessa all’interno del modello di velocità corrente. L’equazione d’onda, in approssimazione acustica, è espressa dalla formula seguente:

𝛿

2

𝑢(𝑥, 𝑦, 𝑧, 𝑡)

𝛿𝑡

2

= 𝑐

2

2

𝑢(𝑥, 𝑦, 𝑧, 𝑡) + 𝑠(𝑥, 𝑦, 𝑧, 𝑡)

Il termine sorgente è descritto da 𝑠, 𝑐 rappresenta la velocità di propagazione dell’onda ed il campo sismico è descritto da 𝑢; nel campo acustico 𝑢 rappresenta la pressione, mentre per il caso elastico rappresenta la velocità orizzontale e verticale delle particelle. Il tempo è denotato da 𝑡, insieme alle coordinate spaziali 𝑥, 𝑦, 𝑧. Il termine

2 rappresenta l’operatore laplaciano corrispondente a:

2

= (

𝛿

2

𝛿𝑥

2

,

𝛿

2

𝛿𝑦

2

,

𝛿

2

𝛿𝑧

2

, )

Tuttavia, nei problemi fisici reali, non è possibile risolvere analiticamente l’equazione 2 per cui si dovrà ricorrere ad una risoluzione numerica. Il metodo delle Differenze Finite (Finite-Difference) rappresenta sicuramente uno dei metodi maggiormente utilizzati per la simulazione del campo d’onda: le derivate dell’equazione d’onda vengono sostituite con le loro approssimazioni, spaziali e temporali, ottenute dallo sviluppo di Taylor, consentendo di valutare la funzione in esame in un numero finito di punti (Fichtner, 2011). Utilizzando quindi il formalismo delle Differenze Finite l’equazione d’onda acustica viene risolta ai nodi della griglia restituendo un valore di pressione secondo la relazione:

𝑢𝑖,𝑗𝑡+∆t=2𝑢𝑖,𝑗𝑡 + 𝐶2(𝑢 𝑖+1,𝑗 𝑡 − 2𝑢 𝑖,𝑗 𝑡 + 𝑢 𝑖−1,𝑗 𝑡 + 𝑢 𝑖,𝑗+1𝑡 − 2𝑢𝑖,𝑗𝑡 + 𝑢𝑖,𝑗−1𝑡 ) − 𝑢𝑖,𝑗𝑡−∆𝑡

dove 𝑖 e 𝑗 rappresentano i punti di nodo della griglia precedentemente definita in direzione 𝑥 e 𝑦, 𝐶 equivale a ∆𝑡

ℎ definendo così il passo di discretizzazione spaziale,

∆𝑥 = ∆𝑦 = ℎ, e temporale ∆𝑡 (Alexander, 2012).

Il metodo delle differenze finite deve soddisfare i due seguenti criteri:

[2]

(13)

13

• Criterio di dispersione numerica: La lunghezza d’onda minima deve essere campionata almeno cinque volte. Secondo questa regola empirica tale criterio matematico può essere espresso come:

∆ℎ = 𝑉𝑚𝑖𝑛 𝑛 ∗ 𝑓𝑚𝑎𝑥

conΔℎ si intende il passo di campionamento della griglia, 𝑉𝑚𝑖𝑛 rappresenta la velocità minima, 𝑛 è il numero di punti per lunghezza d’onda e 𝑓𝑚𝑎𝑥 è la frequenza massima.

• Criterio di stabilità (Criterio di Courant): Il passo di campionamento Δ𝑡 deve essere inferiore al tempo che impiegherebbe l’onda a propagarsi in due punti della griglia adiacenti:

𝑉𝑚𝑎𝑥 ∗ ∆𝑡 ∆ℎ < 𝐶

𝐶 è la costante di Courant (0,707) e 𝑉𝑚𝑎𝑥 è la velocità massima.

Infine, per attenuare le riflessioni artificiali ai bordi del modello, vengono implementate delle operazioni che rendono il perimetro della griglia “assorbente”. L’equazione al bordo utilizzata è la seguente:

𝛿𝑢 𝛿𝑥 − 1 𝑐 𝛿𝑢 𝛿𝑡 = 0

Secondo questa operazione, tenendo conto dell’inverso della velocità delle onde 𝑐 e utilizzando le derivate parziali calcolate in 𝑥 e 𝑡 del campo di onda sismico 𝑢, vengono aggiunte delle celle al bordo dell’area discreta considerata. Sul bordo superiore non vengono aggiunte celle in quanto questo è effettivamente riflettente, viceversa sul margine destro, sinistro ed in fondo alla griglia sono state aggiunte al fine di limitare l’effetto di riflessione al bordo assolutamente non compatibile con la fisica del sottosuolo (da Sajeva et al.,2016).

[4]

[5]

(14)

2.3 Problema inverso ed ottimizzazione

Una volta calcolati i dati predetti attraverso la risoluzione dell’equazione d’onda nel

forward modelling si può definire il misfit come ∆𝑑 = 𝑑𝑜𝑏𝑠− 𝑑𝑝𝑟𝑒(𝑚), dove 𝑑𝑜𝑏𝑠

rappresentano i dati osservati mentre 𝑑𝑝𝑟𝑒 i dati predetti. I parametri fisici che

caratterizzano la sottosuperficie vengono rappresentati da 𝑚 che, nel caso più semplice, rappresenta la velocità delle onde sismiche di volume, mentre nel caso elastico, può corrispondere ai ventuno moduli elastici che caratterizzano il mezzo (modulo di Young, modulo di compressibilità, rapporto di Poisson ecc.).

Lo scarto quadratico medio ∆𝑑 viene quantificato dalla funzione oggetto 𝐸(𝑚) tramite il calcolo della norma L2. Esistono potenzialmente norme di ordine infinito, minore è l’ordine, minore sarà il peso attribuito agli outliers. Uno dei criteri maggiormente utilizzati è la norma L2, la soluzione che soddisfa questo criterio viene detta soluzione ai minimi quadrati; dal punto di vista statistico questa rappresenta la soluzione più probabile se l’errore nei dati assume una distribuzione gaussiana a media nulla. Attraverso questa funzione cerco di minimizzare un determinato vettore r che rappresenta lo scarto fra i dati osservati e quelli predetti secondo la relazione:

||𝑟||2 = √∑ | 𝑟𝑖 𝑛 𝑖=1 |2 𝑚𝑖𝑛√∑(𝑑 𝑖− (𝐺𝑚)𝑖)2 𝑛 𝑖=1

dove 𝑑𝑖 rappresenta i dati osservati mentre (𝐺𝑚)𝑖 descrive i dati predetti. In

particolare, l’operatore 𝐺 lega i parametri del sottosuolo 𝑚 e i dati osservati 𝑑 che, nel caso di problema inverso lineare (valgono le leggi di superposition e scaling)

e discreto (𝑚 e 𝑑 campionati e scritti come vettori), è formato da un sistema di equazioni algebriche che in forma matriciale diventa:

(

𝑑

1

𝑑

𝑀

) = (

𝐺

11

𝐺

𝑀1

𝐺

1𝑁

𝐺

𝑀𝑁

) (

𝑚

1

𝑚

𝑁

)

con𝑀 osservazioni e 𝑁 modelli. La soluzione nel caso lineare viene trovata analiticamente; diversamente quando si tratta di problemi non lineari la relazione che

[7]

(15)

15

lega 𝑚 e 𝑑 non può essere ricondotta ad una equazione algebrica e quindi vengono utilizzati metodi di ottimizzazione differenti per giungere al minimo della funzione oggetto. Se il minimo della funzione viene cercato in prossimità del modello iniziale 𝑚0,

l’inversione assume le caratteristiche di un’ottimizzazione locale, la quale si differenzia da un’ottimizzazione di tipo globale.

• Ottimizzazione locale: Questi metodi sono computazionalmente meno esosi dei metodi globali e sono spesso preferiti per la loro elevata velocità di convergenza.

Per garantire il successo di questa classe di metodi è necessario fornire un modello iniziale sufficientemente accurato. Secondo l’approssimazione di Bohr, il modello aggiornato 𝑚, può essere descritto come la somma del modello iniziale 𝑚0 più una perturbazione ∆𝑚, tale che 𝑚 = 𝑚0+ ∆𝑚. Si può dimostrare che, se 𝐸(𝑚) è continua insieme alle sue derivate, è possibile costruire un’approssimazione in serie di Taylor intorno a una soluzione di prova 𝑚0, secondo l’approssimazione di Bohr risulta quindi:

𝐸(𝑚0+ ∆𝑚) = 𝐸(𝑚0) +𝛿𝐸 𝛿𝑚|𝑚0∆𝑚 + 1 2 𝛿2𝐸 𝛿𝑚2|𝑚0∆𝑚 2+ ⋯ + 0 𝑛(∆𝑚)

Troncando poi la serie al primo ordine si ottiene:

𝐸(𝑚0+ ∆𝑚) ≈ 𝐸(𝑚0) + ∇𝐸(𝑚0)∆𝑚

Infine, calcolando il gradiente e ponendolo uguale a zero si ricava:

∇𝐸(𝑚0) + ∇2𝐸(𝑚

0)∆𝑚 = 0

Secondo l’equazione 9, nel momento in cui la derivata si annulla, è possibile ricavare il minimo della funzione oggetto in un intorno di 𝑚0. Riordinando i

termini si ottiene il vettore di perturbazione del modello:

∆𝑚 = − [𝛿 2𝐸(𝑚 0) 𝛿𝑚2 ] −1 𝛿𝐸(𝑚0) 𝛿𝑚

[9]

[10]

(16)

Questa equazione indica il vettore di aggiornamento sui parametri del modello con cui dobbiamo perturbare il modello corrente per giungere al minimo della funzione oggetto. Bisogna tenere a mente che tale minimo è quello che si trova all’interno della valle del modello di partenza, non necessariamente questo equivale al minimo globale. Da un punto di vista geometrico, il gradiente della funzione oggetto in un punto, indica direzione e verso nei quali la funzione cresce più rapidamente. Il modello perturbato viene dunque ricercato perseguendo l’opposto di tale direzione.

La derivata seconda che appare nell’equazione 10 rappresenta l’operatore

Hessiano (𝐻), questa descrive il grado di curvatura nella funzione di misfit nel

punto 𝑚0. Il secondo termine della medesima equazione denota la derivata

della funzione di misfit rispetto ai parametri del modello. Riscrivendola in forma matriciale si ottiene:

𝛿𝐸(𝑚0)

𝛿𝑚 = −

𝛿𝑑𝑝𝑟𝑒(𝑚0)

𝛿𝑚 (𝑑𝑜𝑏𝑠 − 𝑑𝑝𝑟𝑒(𝑚0)) = −𝐽0∆𝑑0

dove 𝐽0 rappresenta la matrice Jacobiana che contiene come elementi le

derivate parziali dell’i-esimo dato predetto rispetto al j-esimo parametro del modello. Allo stesso modo, l’Hessiana diventa:

𝐻0 =𝛿 2𝐸(𝑚 0) 𝛿𝑚2 = 𝐽0𝑇𝐽0+ 𝛿𝐽0 𝛿𝑚∆𝑑0

dove 𝐽0𝑇 è la matrice Jacobiana trasposta.

Sostituendo i termini dell’equazione 12, con le matrici Hessiana e Jacobiana calcolate precedentemente, si ottiene:

∆𝑚 = − [𝐽0𝑇𝐽 0+ 𝛿𝐽0 𝛿𝑚∆𝑑0] −1 𝐽0∆𝑑0

Esistono vari metodi di ottimizzazione locale, quello che risolve interamente l’equazione 13 prende il nome di Full-Newton method. Nel caso in cui il secondo

[11]

[12]

(17)

17

termine dell’equazione venga trascurato, utilizzando quindi una matrice Hessiana semplificata, si parla di Gauss-Newton method. Il più delle volte però i valori di 𝐽0 sono troppo piccoli, questo problema genera enormi variazioni di

∆𝑚 quando si calcola l’inversa e per tale ragione è necessario inserire un termine di regolarizzazione 𝜑, in modo da innalzare i valori di 𝐽0 e rendere il

problema più stabile. Questo metodo viene denominato Gauss-Newton o

Levenberg-Marquart. Nel mio lavoro di tesi è stato utilizzato il metodo Steepest descent, questo prevede la sostituzione della matrice Hessiana con un valore

scalare chiamato step length (𝛼); una volta definito, questo parametro indicherà la frequenza di aggiornamento del parametro ∆𝑚 (Aster et al., 2013).

• Ottimizzazione globale: I metodi di inversione globale sono più adatti a risolvere problemi non lineari caratterizzati da numerosi minimi locali o discontinuità. Funzioni oggetto multimodali rendono le strategie di ottimizzazione, che dipendono dall’approssimazione di derivate o da inversioni di matrici, instabili. Le cause principali sono da ricercare nel malcondizionamento delle matrici stesse e nelle mancate condizioni di convergenza degli algoritmi. I metodi Monte Carlo sono stati i primi sistemi di ricerca globale stocastica da cui, tramite applicazione ricorsiva di operazioni sulla classe di modelli generati casualmente dall’algoritmo, è stato possibile dedurre alcuni degli algoritmi di ricerca globale attualmente in uso. Questi metodi non risentono della scelta del modello iniziale, l’inversione parte infatti da un set di soluzioni generate randomicamente nello spazio dei modelli. Nonostante la velocità di convergenza minore essi riescono a esplorare efficacemente lo spazio dei modelli, a prescindere dalla topologia della funzione oggetto. La simulazione Monte Carlo calcola una serie di realizzazioni possibili del fenomeno in esame, pesate dalla probabilità propria di tale evenienza, con l’obiettivo di esplorare il più densamente possibile tutto lo spazio dei modelli. A questo punto vengono testati i risultati calcolando il grado di fitness rispetto ai dati osservati e, successivamente, accettati o rifiutati. Il set finale sarà composto dai dati accettati e utilizzato per l’interpretazione (Sambridge M.,2002).

(18)

I metodi Monte Carlo, come già accennato, campionando direttamente lo spazio dei modelli non necessitano di una funzione di misfit priva di minimi locali e non sono caratterizzati da processi matematici instabili come l'inversione di matrici. La natura aleatoria di questi algoritmi non richiede che il problema sia lineare, ovvero che possa essere localmente linearizzato, al contrario dei metodi locali.

Una seconda ragione per la quale i metodi Monte Carlo sono favoriti, si basa sul fatto che tali metodi sono più affidabili riguardo la valutazione delle incertezze delle soluzioni ottenute.

Ancora una volta questo punto di forza è dovuto all’assenza del calcolo della derivata e dall’approssimazione numerica.

Tra le tecniche derivanti dai metodi Monte Carlo maggiormente utilizzate ritroviamo: gli Algoritmi Genetici, Simulated Annealing e Neighborhood

Algorithms. In figura 2.3-1 viene presentata una rappresentazione schematica

di alcuni algoritmi di ottimizzazione.

Un algoritmo che punta ad esplorare maggiormente lo spazio dei modelli tenderà a rimanere meno intrappolato in un minimo locale, ma sarà anche meno efficiente a convergere verso una soluzione ottimale. Diversamente, pesando maggiormente le informazioni a priori ottenute sarà in grado di raggiungere efficacemente la convergenza ma sarà anche maggiormente incline a rimanere intrappolato in un minimo locale (Sambridge et al., 2002).

Combinando i metodi locali e globali è possibile ottenere i massimi benefici da entrambi. Utilizzare congiuntamente queste due tecniche permette sia di esplorare “globalmente” lo spazio dei modelli che di utilizzare le informazioni “localmente” presenti nell’intorno del minimo analizzato in modo da poterlo studiare più approfonditamente.

(19)

19

Figura 2.3-1. Rappresentazione schematica di alcuni algoritmi di

ottimizzazione in termini di esplorazione dello spazio dei modelli e di utilizzo delle informazioni. In blu vengono rappresentati i metodi utilizzati in questo lavoro di Tesi (da Sambridge et al., 2002, modificata).

(20)

2.4 Problemi generali e possibili soluzioni

In precedenza, è già stato sottolineato il problema della forte non linearità che caratterizza le inversioni della FWI. Per problemi non lineari non valgono le seguenti proprietà:

• 𝐺(𝑚

1

+ 𝑚

2

) = 𝐺(𝑚

1

) + 𝐺(𝑚

2

)

• 𝐺(𝑎𝑚) = 𝑎𝐺(𝑚)

L’equazione 14 e 15, rispettivamente, prendono il nome di Superposition law e

Scaling law dove 𝑚 rappresenta i parametri del modello che caratterizzano il

sottosuolo, 𝐺 è un operatore matematico che relaziona i modelli e i dati (nel caso di problemi lineari può essere ricondotto a un’equazione algebrica) e 𝑎 indica un valore scalare. Nei problemi che non seguono le suddette proprietà, la funzione di misfit, che rappresenta lo scarto quadratico medio fra dati osservati e dati predetti, presenta numerose valli di minimo locali, oltre al minimo globale che dovrebbe corrispondere al modello “vero”. Questa problematica si può tradurre in un’erronea interpretazione dell’algoritmo di inversione, questo infatti, procedendo iterativamente, rischia di rimanere intrappolato in un minimo locale senza poter mai raggiugere la soluzione “esatta”. La scelta di un adeguato metodo di ottimizzazione può indubbiamente semplificare tali problematiche.

Un altro importante problema che bisogna trattare è quello del cycle skipping, secondo il quale, i dati predetti e quelli osservati differiscono di una quantità maggiore di T/2, dove T rappresenta il periodo del segnale. In questi casi, come mostrato in figura 1.2-1, la FWI aggiornerà il modello in modo tale che il ciclo n+1 dei sismogrammi predetti corrisponderà al ciclo n dei sismogrammi osservati. In questo modo però, l’inversione raggiungerà un minimo locale piuttosto che globale.

Per porre rimedio a tale problematica sono state sviluppate diverse strategie gerarchiche, sia nel dominio del tempo che in quello delle frequenze. Tali strategie processano di volta in volta sottoinsiemi del dato di partenza, in modo da introdurre frequenze sempre più elevate, ottenendo così, una risoluzione sempre maggiore.

[14]

[15]

(21)

21

In questo modo il modello finale sarà descritto da numeri d’onda sempre più piccoli. Nel dominio del tempo, vengono effettuate inversioni di sub-datasets con contenuto in frequenza sempre più alto, poiché, le frequenze più basse, sono meno soggette agli effetti del cycle skipping. A frequenze più basse i bacini di attrazione della funzione di misfit sono più ampi e quindi, data la topologia di queste funzioni, diminuisce la possibilità di rimanere intrappolati in minimi locali. Nel dominio delle frequenze invece è possibile invertire gruppi di frequenze aumentando il rapporto segnale-rumore e la robustezza della FWI, soprattutto quando il dato osservato è caratterizzato da fenomeni complessi come le onde superficiali. Tuttavia, strutture geologiche complesse, possono compromettere l’affidabilità di questi metodi e, per questo motivo, sono state studiate nuove tecniche allo scopo di limitare il problema.

Figura 2.4-1. Schematizzazione del fenomeno di cycle-skipping. Al centro, la linea nera

solida rappresenta i dati osservati con periodo T. La sinusoide superiore rappresenta invece il dato modellato con un ritardo temporale maggiore di T/2. La sinusoide inferiore rappresenta il dato modellato con un ritardo temporale inferiore a T/2. Come indicato dalle frecce, nel primo caso il ciclo n+1 del dato predetto corrisponderà al ciclo n del dato osservato, mentre, nel secondo caso, i cicli n del dato predetto ed osservato sono in fase. (da Virieux et al., 2009)

(22)

L’applicazione di una finestra temporale scelta dall’operatore, per esempio, ha trovato svariati punti di forza nella risoluzione di queste incertezze. In primis, è possibile selezionare e rimuovere i segnali indesiderati, non predetti dalla fisica dell’equazione d’onda implementata. Secondariamente, permette di selezionare gli angoli di apertura preferenziali all’interno del sismogramma. Queste due opzioni non vanno sottovalutate, in questo modo infatti, l’operatore ha il pieno controllo su quali eventi e/o zone concentrarsi per l’inversione. Selezionare solo una finestra centrata intorno ai primi arrivi è equivalente infatti a selezionare i grandi angoli di apertura del dato, cosi da riprodurre le componenti ad intermedia e grande lunghezza d'onda del modello. Alternativamente, per esempio, è possibile concentrare l'inversione e l'imaging su un determinato riflettore, selezionando ed invertendo solo le riflessioni di interesse e così via (Virieux et al., 2009).

2.5 Algoritmi Genetici

Gli Algoritmi Genetici sono una classe di algoritmi euristici di ricerca globale molto efficace nel risolvere problemi di ottimizzazione geofisica. La struttura di questi algoritmi trae spunto dal principio di selezione naturale ed evoluzione biologica teorizzati da Charles Darwin. In sintesi, a partire da una popolazione iniziale di soluzioni, applicando il principio della sopravvivenza, vengono selezionati gli individui con un grado di fitness maggiore rispetto ai dati osservati, producendo così popolazioni future sempre migliori. Attraverso questi algoritmi vengono ricreati solidi processi naturali quali selezione, ricombinazione e mutazione (Pohlheim,2006). In figura 2.5-1 viene schematizzata la struttura base degli algoritmi genetici.

(23)

23

Alla base del calcolo viene dunque creato un gruppo di individui che rappresenta la popolazione della cosiddetta generazione zero. A questo punto, viene calcolata la funzione di misfit rappresentativa di ogni individuo rispetto ai dati osservati e, successivamente, applicando iterativamente operatori evoluzionistici su ogni singolo individuo, vengono create nuove popolazioni che entreranno a far parte delle nuove generazioni.

Seguendo quanto affermato precedentemente è possibile descrivere le fasi principali che caratterizzano gli algoritmi genetici in 6 processi differenti:

• Creazione della popolazione iniziale. • Valutazione del grado di fitness. • Selezione.

• Ricombinazione. • Mutazione. • Reinserimento.

Il processo inizia dunque con la creazione di un set di individui denominato popolazione. Ciascun individuo, o cromosoma, rappresenta una possibile soluzione del

Figura 2.5-1. Flow chart riguardante il funzionamento degli Algoritmi Genetici

(24)

problema in esame (in questo lavoro di Tesi indicheranno i vari modelli di velocità Vp del sottosuolo). Ogni individuo viene a sua volta caratterizzato dai diversi parametri che lo compongono: gli alleli. In figura 2.5-2 viene riportata una rappresentazione schematica della categorizzazione appena effettuata (considerando i cromosomi raffigurati in forma vettoriale binaria).

Successivamente, viene valutata la funzione oggetto del problema in esame su ciascun cromosoma della popolazione, associando di conseguenza un valore di fitness ad ogni individuo.

A questo punto, attraverso i meccanismi della selezione, come già accennato precedentemente vengono associati differenti gradi di fitness rispetto ai valori assunti dalla funzione oggetto, in questo modo vengono selezionati stocasticamente gli individui preferendo quelli con fitness maggiore. Il fitness può anche essere descritto come la probabilità che ha un individuo di trasmettere il proprio codice genetico. Negli algoritmi utilizzati in questo lavoro viene utilizzato il criterio di selezione Stocastic

Universal sampling, in quanto garantisce una maggiore variabilità genetica della truncate selection e, secondariamente, riduce il numero di ripetizione fra gli elementi

selezionati rispetto al Roulette Wheel sampling, al costo di una ridotta velocità di convergenza. Un parametro fondamentale legato alle operazioni di selezione è la pressione evolutiva (Selective Pressure, SP). Questo è un parametro globale, non varia all’avanzare delle generazioni e determina la probabilità di selezionare gli individui migliori di ogni popolazione.

Figura 2.5-2. Esempio chiarificativo contente quattro individui in

(25)

25

I principali metodi di assegnazione sono quelli per ranking e proporzionali. L’attribuzione per ranking risulta però essere più robusta e meno soggetta a stagnazione e convergenza prematura rispetto ai metodi proporzionali e per questa ragione verrà descritta più dettagliatamente in questo lavoro di Tesi.

Di seguito vengono elencati diversi metodi di selezione per ranking (David E.

Goldberg,1991):

• Truncate Selection: vengono selezionati solo gli individui con il miglior fitness.

• Roulette wheel sampling: ogni individuo viene rappresentato come un segmento la cui lunghezza rappresenta il proprio grado di fitness. A questo punto vengono generati numeri casuali, e i segmenti che comprendono questi numeri vengono scelti. Il processo va avanti fino all'ottenimento del numero desiderato di individui.

• Stocastic Universal sampling: si estrae un gruppo di individui dalla popolazione, quindi si sceglie quello col miglior fitness. Si ripete quindi tale procedimento fino ad avere il numero di cromosomi selezionati desiderato.

Il metodo di selezione utilizzato in questo lavoro di Tesi è lo Stocastic Universal sampling.

Con la fase di ricombinazione invece, gli individui selezionati nella fase precedente vengono ibridati tra loro, determinando la nascita di un nuovo individuo (offspring). L’operatore maggiormente utilizzato in questa fase prende il nome di

crossover operator, secondo il quale vengono ricreati solidi processi naturali che hanno

origine nelle fasi di meiosi cellulare, simulando meccanismi di ricombinazione e incrocio fra cromosomi (Haupt R. L. and Haupt S. E.,1998). Gli operatori più comunemente utilizzati sono:

• Crossover ad un punto: i vettori di codifica che rappresentano gli individui adatti all’evoluzione vengono tagliati in un punto casuale o predefinito, in questo

(26)

modo vengono generate due nuove soluzioni giustapponendo e ricombinando gli intervalli di codice genetico ottenuti dai parents.

• Crossover a due o più punti: a differenza del metodo sopra descritto i vettori iniziali vengono tagliati in due o più punti, oltre ad avere quindi la ricombinazione di testa e coda dei vettori di partenza viene considerata anche la parte centrale, assicurando una maggiore variabilità genetica alle nuove soluzioni generate.

• Cycle crossover: questo metodo viene utilizzato per attenuare i problemi di permutazione con ripetizione che potenzialmente possono verificarsi con le operazioni di crossover a uno o più punti. Inizialmente vengono individuati i punti che presentano una ripetizione numerica, dopodiché, tramite operazioni cicliche, vengono scambiati i geni fra gli individui in modo da risolvere il problema e massimizzare la varietà genetica.

Nel lavoro di tesi sono state eseguite ricombinazioni tramite ricombinazione intermedia a valori reali, anche se non sono state descritte accuratamente, queste permettono di massimizzare lo spazio di generazione degli offspring. La ricombinazione intermedia permette di generare nuovi individui definendoli all’interno di un ipercubo leggermente più largo di quello definito dai parenti come presentato in figura 2.5-3.

Figura 2.5-3. Possibile area di generazione degli offspring tramite ricombinazione

(27)

27

Infine, ogni individuo viene sottoposto ad una alterazione casuale di una porzione del proprio codice genetico (allele) secondo il processo della mutazione. Queste variazioni sono del tutto casuali ma la frequenza con cui avvengono è determinata dal tasso di mutazione, che solitamente è molto basso ed è inversamente proporzionale alla dimensione dell’individuo. Incrementando il tasso di mutazione aumenta anche lo spazio di ricerca esplorato dall’algoritmo, ma allo stesso tempo lo allontana dalla convergenza ad una soluzione favorevole (Haupt R. L. and Haupt S. E.,1998). Lo scopo della mutazione è quindi quello di migliorare il valore della funzione di fitness per la soluzione in questione e per ampliare lo spazio di ricerca in modo tale da evitare di far ricadere l'evoluzione in minimi locali. Nel software utilizzato per il lavoro di Tesi, avendo utilizzato cromosomi reali, è stato usato un criterio di mutazione a valori reali.

Una volta terminate le fasi di selezione, ricombinazione e mutazione, viene calcolato nuovamente il grado di fitness della popolazione ottenuta e, nel caso non sia stata raggiunta la convergenza, viene ripetuto il ciclo.

Attraverso il reinserimento, una volta generati gli offspring con i procedimenti descritti in precedenza, sarà necessario inserirli nella vecchia popolazione, eventualmente mantenendo alcuni individui della vecchia generazione e rimpiazzandone altri. La popolazione risultante costituirà la nuova generazione su cui applicare l'iterazione successiva dell'algoritmo.

A differenza dei metodi di ottimizzazione più tradizionali, gli algoritmi genetici presentano numerose differenze e vantaggi. Innanzitutto, lavorano su un gruppo di individui e non su una singola soluzione, implementando quindi una ricerca in parallelo che diminuisce drasticamente i tempi di calcolo necessari. Non richiedono calcoli potenzialmente instabili ma fanno affidamento solo sulla funzione di misfit e quindi sul grado di fitness dei dati. Infine, la grande versatilità che caratterizza questi algoritmi permette di ottenere una grande varietà di soluzioni ma la scelta finale viene lasciata comunque all’utente.

(28)

3. INQUADRAMENTO GEOLOGICO E

GEOMORFOLOGICO

I dati utilizzati in questo lavoro sono stati acquisiti in prossimità del campo archeologico di Luni (SP), nella porzione più orientale della Liguria, al confine con la provincia di Massa-Carrara. L’area di studio, situata lungo la costa al confine fra il Mar Ligure ed il Tirreno Settentrionale, ha ospitato il porto dell’antica città di Luni. Sebbene Luni sia stata oggetto di scavi archeologici attualmente visitabili, ben poco si sa sulle strutture portuali dell’epoca Romana. Tuttavia, la caratterizzazione geologica e ambientale del territorio di Luni è stata oggetto di ricerche passate e recenti, per cui si può disporre di una base di conoscenze abbastanza ampia descritta nei paragrafi 3.1 e 3.2. In particolare, nel paragrafo 3.1 vengono descritti i grandi domini paleogeografici-strutturali che sono emersi dal progetto CARG del foglio 248 di “La Spezia” raffigurati in figura 3-1 in scala 1:50.000, mentre nel paragrafo 3.2 viene riportata un’analisi di dettaglio sull’inquadramento geomorfologico dell’area di Luni. Infine, nel paragrafo 3.3 verranno analizzati i metodi di acquisizioni adottati in questo lavoro di Tesi.

(29)

29

3.1 Foglio 248 di “La Spezia”

Dal punto di vista tettonico-strutturale, l'Appennino Settentrionale si forma come conseguenza di due fasi deformative distinte: la prima legata alla convergenza e collisione della microplacca Adria con la placca Europea, rappresentata dal massiccio Sardo-Corso (Tardo Cretaceo-Miocene Inferiore); la seconda legata alla tettonica estensionale avvenuta dal Miocene Inferiore-Medio. La prima fase ha portato essenzialmente ad una subduzione intraoceanica che ha causato la chiusura del bacino oceanico ligure-piemontese e, successivamente, alla collisione continentale che ha causato l'impilamento di unita tettoniche derivanti da domini paleogeografici differenti:

Figura 3-1. Schema geologico dell’Appennino Settentrionale, fra

Genova e Firenze. Al centro dell’immagine viene indicata anche la città di Luni (Abbate et al., 2005, modificato).

(30)

• Unità di Punta Bianca (Paleozoico inferiore-Giurassico Superiore): nell’area del foglio 248 le porzioni più profonde dell’edificio delle falde affioranti rivelano livelli metamorfici sottostanti alla Falda Toscana riconosciuti come substrato tettonico della Falda stessa. Le successioni metamorfiche di Punta Bianca presentano calcari marmorei intercalati a più livelli con calcari e scisti filladici, spesso brecciati.

• La falda toscana (Triassico Superiore-Oligocene): questa successione di tipico margine passivo si presenta come una copertura triassica-oligocenica scollata dall’avampaese africano. Alla base della successione si trovano infatti sedimenti riconducibili alla piattaforma carbonatica in via di progressivo approfondimento per poi sigillarsi con livelli torbiditici e arenacei di avanfossa. Il contatto tettonico fra la Falda Toscana e le successioni metamorfiche di Punta Bianca è segnalato da livelli di brecce carbonatiche.

• Unità di Canetolo (Paleogene): lenti discontinue e poco spesse (poche decine di metri) di marne e siltiti oligoceniche si interpongono geometricamente fra la Falda Toscana e la sovrastante Unità di Canetolo. Quest’ultima, essendo composta da terreni paleogenici a prevalente componente argillosa, risulta essere parzialmente obliterata dalle deformazioni neogeniche che quindi non ha permesso di identificare gli originali rapporti stratigrafici fra le formazioni. Le unità tettoniche sovrastanti l’Unità di Canetolo sono riconducibili al dominio Ligure che comprende, dal basso verso l’alto geometrico, unità derivanti dalla crosta continentale assottigliata più vicina al margine dell’Adria (Liguridi Esterne) ed altre unità più vicine al margine europeo (Liguridi Interne):

• Unità Ottone (Cretaceo Superiore): Nell’area del Foglio sono presenti le Liguridi Esterne con l’Unità tettonica di Ottone. Questa formazione è di tipo flysch ad

Elmintoidi (composto da roccia sedimentaria clastica di origine sin-orogenica

con tracce di icnofossili, ovvero piste fossili lasciate da organismi epibentonici non meglio identificati) unita a varie formazioni ofiolitifere.

(31)

31

• Unità Monte Gottero (Giurassico-Paleocene): Tra le Liguridi Interne l’Unità Monte Gottero occupa la parte centro-settentrionale del Foglio. In questa Unità sono riconosciute formazioni prevalentemente ofiolitiche con una copertura sedimentaria talvolta argillosa.

• Unità Monte Antola (Cretaceo Superiore): Questa Unità è posta a tetto dell’edificio a falde appenninico nell’area del Foglio ed anch’esso è appartenente alla famiglia dei flysch ad Elmintoidi.

In figura 3.1-1 vengono rappresentati i rapporti litostratigrafici fra le varie unità tettoniche sopradescritte.

Per quanto riguarda la zona indagata, affiorano principalmente depositi pliopleistocenici dei bacini fluvio-lacustri e depositi alluvionali olocenici, discordanti rispetto alle unità sottostanti deformate. Questi verranno descritti in maniera più esaustiva nel capitolo seguente.

Figura 3.1-1. Schema dei rapporti fra le unità tettoniche nel Foglio “La

(32)

3.2 Caratterizzazione Geomorfologica

L’area di Luni, trattandosi di un’area pianeggiante (figura 3.2-1), ha reso difficoltosa la delimitazione delle varie unità morfologiche, anche a causa delle recenti azioni di rimodellamento e antropizzazione che hanno mascherato le morfologie originarie, talvolta fino a obliterarle completamente.

Per la comprensione e la caratterizzazione delle varie unità presenti nell’area di studio è stato fondamentale approfondire l’evoluzione geomorfologica del fiume Magra. Le ricostruzioni paleogeografiche contenute negli studi di Raggi G. (1985) portano a ritenere che fino al Pliocene Inferiore il fiume Vara e Magra costituissero due sistemi separati. Il primo, il paleo-Vara, disposto parallelamente alla linea di costa in direzione NW-SE sfociava nell’attuale Golfo di La Spezia; il secondo, il paleo-Magra, con direzione NE-SW circa perpendicolare alla linea di costa, costituiva l’alto bacino di alimentazione del fiume Serchio.

L’intensa attività estensiva (descritta nel paragrafo 3.2) iniziata nel Miocene Inferiore che si osserva tutt’oggi, ha alterato permanente il paesaggio e le unità litostratigrafiche nell’area di studio. A partire dal Pliocene Superiore infatti, una importante depressione tettonica caratterizzata da sistemi di faglie trascorrenti in direzione NW-SE (graben di Sarzana) in corrispondenza dell’attuale tratto terminale del

Figura 3.2-1. Panoramica dell'area di studio, nella piana Lunense fra Luni e il Fiume Magra

(33)

33

fiume Magra, ha portato alla formazione di diversi bacini lacustri e costieri, alimentati da un reticolo fluviale particolarmente vivace nella zona lunigiana, oltre a far confluire il fiume Vara all’interno del fiume Magra (Raggi and Sansoni, 1993). A tal proposito, questi fenomeni di subsidenza attivi della depressione tettonica sopradescritta, unitamente al sollevamento delle Apuane, hanno confinato le migrazioni laterali del fiume Magra, in questo modo i meccanismi di erosione vengono rimpiazzati da trasporto e sedimentazione nel tratto terminale della piana.

Il rilevamento di terreno condotto da Bini M. (2006) ha permesso di identificare cinque unità geomorfologiche distinte (figura 3.2-2):

• La conoide del torrente Parmignola. • Sedimenti alluvionali del fiume Magra. • Due zone umide.

• La porzione apicale di una barra sabbiosa. • Due cordoni dunali.

Figura 3.2-2. Carta geomorfologica schematica della piana Lunense. 1) conoide

alluvionale del torrente Parmignola; 2) cordone dunale; 3) sedimenti alluvionali del fiume Magra; 4) barra sabbiosa; 5) area palustre; 6) spiaggia attuale; 7) principali corsi d’acqua; 8) asse dei principali paleoalvei; 9) tratto autostrada Genova-Rosignano(Bini et al.,2006).

(34)

Il torrente Parmignola drena le acque provenienti dal settore nordoccidentale della catena apuana, attraversando formazioni appartenenti sia alla Falda Toscana (i.e. Scaglia Toscana e Macigno), che alle unità Liguri e Sub-liguri (i.e. Unità di Canetolo, Flysch ad Elmintoidi di Ottone). Allo sbocco del torrente, nella pianura apulo-versiliese, si ha la formazione di un ampio conoide il cui limite inferiore si spinge fino al sito archeologico di Luni.

Inoltre, sono state identificate due zone umide con caratteristiche differenti. La prima, ubicata a ovest del sito archeologico di Luni, nota con il toponimo “La Seccagna”, è costituita prevalentemente da torba. La seconda area umida, si estende al di sopra dell’abitato di Marinella, rispetto alla forma pseudocircolare che caratterizza la prima area paludosa, questa si presenta più allungata, lentiforme. Date le loro ubicazioni e la loro morfologia, si può ipotizzare che si tratti di aree palustri retrodunale.

La lingua sabbiosa interposta fra il conoide del torrente Parmignola ed il cordone dunale appena descritto è stata interpretata da Delano Smith (1986) come il prolungamento della linea di costa nell’estuario del fiume Magra.

Infine, una coltre alluvionale molto potente derivante dal fiume Magra ricopre gran parte dell’area di indagine. Questo tipo di deposizione risulta estremamente estesa, tanto da rendere possibile la distinzione dei diversi tratti di paleoalvei al suo interno.

Per una visione più ampia dell’area indagata, in figura 3.2-2 viene rappresentata una sovrapposizione fra l’interpretazione geomorfologica condotta di Bini M. (2006) e un’immagine satellitare dell’area di interesse.

(35)

35

Le immagini in scala così rappresentate permettono di fare alcune considerazioni importanti: innanzitutto, lo stendimento utilizzato per la sismica a riflessione si colloca approssimativamente fra l’ampio conoide del torrente Parmignola (indicato con il numero 1 in figura 3.2-3), e la barra sabbiosa (indicata con il numero cinque in figura 3.2-3); inoltre da questa immagine si deduce che la zona indagata si presenta essenzialmente a strati piano paralleli. Le indagini geomorfologiche condotte infatti confermano, almeno nelle porzioni più superficiali, l’andamento pseudo planare delle successioni quaternarie esaminate.

Figura 3.2-3. Immagine satellitare dell’area di Luni a cui è stata sovrapposta

l’interpretazione geomorfologica effettuata da Bini M. (2006). Con la linea rossa viene indicato lo stendimento utilizzato per l’acquisizione dei dati. Seguendo la numerazione riportata: 1) Conoide del torrente Parmignola. 2) Cordone dunale. 3) Sedimenti alluvionali del fiume Magra. 4) Area palustre. 5) Barra sabbiosa.

(36)

3.3 Acquisizione Dati

Nelle acquisizioni di tipo near-surface gli offset ridotti e la bassa energia emessa dalle sorgenti si traducono in bassi rapporti S/N. Al fine di ovviare tali problematiche è stato necessario utilizzare schemi di acquisizione adeguati, mirati soprattutto ad attenuare il rumore di fondo che contamina il dato: il ground roll.

La bassa velocità di fase e la grande ampiezza che caratterizza il ground roll, la sua natura parzialmente aliasata e la sua sovrapposizione alle frequenze utili del segnale, rendono gli strumenti di processing più comuni inadatti a attenuare questo tipo di rumore, obbligando l’operatore a misure più drastiche quali eliminare interamente le porzioni del dato che lo contengono. L’abbondanza di shot registrati e la spaziatura ristretta fra sorgenti e ricevitori hanno permesso di simulare un filtraggio nel dominio dello spazio; in questo modo è stato possibile attenuare il rumore generato dalle onde superficiali. L’aspetto interessante di questa procedura consiste nell’applicazione di pesi ottimali ad ogni elemento dell’array; questi vengono calcolati secondo i criteri di

Chebyshev (Tognarelli and Stucchi, 2016).

In figura 3.3-1 viene raffigurato lo schema di acquisizione adottato in questo lavoro di tesi.

I dati sono stati registrati utilizzando una serie di geofoni verticali a 48 canali, con una frequenza propria di 10 Hz e una spaziatura di 2 metri fra gli stessi. Una mazza battente del peso di 10 kg funge da sorgente energizzante, inoltre, l’acceleratore piezoelettrico ad essa collegato, riveste la funzione di trigger del sistema, in modo da delineare il tempo t0 nella registrazione. Inizialmente vengono registrati 57 shot in

Figura 3.3-1. Schema di acquisizione. Le stelle blu rappresentano le sorgenti; quelle verdi

rappresentano l’array di sorgenti simulato attraverso i pesi ottimali di Chebyshev; la linea nera rappresenta lo stendimento dei ricevitori (Tognarelli & Stucchi, 2006).

(37)

37

geometria common-spread, partendo però 9 metri al di fuori dello stendimento, con un passo di campionamento spaziale fra le sorgenti pari a 1 m. A questo punto, lo stendimento è stato traslato linearmente per una lunghezza totale di 48 metri e l’acquisizione è avanzata fino al centro dello stesso. Questa operazione è stata ripetuta altre due volte e al termine dell’acquisizione sono stati registrati 185 shots per una lunghezza complessiva dello stendimento di circa 180 metri. L’intervallo di campionamento utilizzato è stato di 0.5 ms con un tempo di ascolto massimo di 1 s.

(38)

4. PROCESSING DEL DATO SISMICO

La sequenza di processing adottata risulta piuttosto semplice ma ha permesso di ottenere due importanti informazioni a priori(oltre a produrre una sezione stack nel dominio tempi): il modello di velocità intervallare iniziale da fornire come input alle inversioni globali, e lo spessore dello strato aerato utilizzato per vincolare l’inversione e ridurre lo “spazio nullo” dei modelli.

È possibile riassumere la sequenza di operazioni applicata nel dominio dei tempi in nove punti:

• Importazione del dato e selezione degli shot utili. • Top mute e trace killing.

• Filtraggio passabanda tempo-offset variante. • Statiche a rifrazione

• Deconvoluzione predittiva. • Deconvoluzione F-X.

• Analisi di velocità e correzione di normal move-out. • Statiche residuali

• Sezione stack in dominio tempi.

Nei prossimi paragrafi verranno descritti in dettaglio i punti dell’elenco sopra citato, in modo da consentire una visione più ampia e chiarificativa riguardo ai passi di processing effettuati.

(39)

39

4.1 Importazione del dato e selezione degli shot utili.

Il dato è stato importato in formato seg-y in ambiente ProMAX, un software di casa

Landmark. Il dato importato consiste in 185 shots contententi le informazioni relative

a ciascuno di essi: coordinate di sorgenti e ricevitori, numero dei canali e ampiezza media delle tracce sono solo alcuni esempi delle proprietà del dato contenute nelle header di nastro. Il dataset è stato organizzato in common shot, vale a dire che sono state raggruppate tutte le tracce aventi la stessa sorgente in comune.

Utilizzare l’intero dataset si tradurrebbe però in costi computazionali eccessivi al momento del calcolo delle inversioni; per questa ragione sono stati selezionati 18 shots, acquisiti con una configurazione split spread, e 2 iniziali in geometria off-end. In questa fase gli shots sono stati selezionati in maniera circa equispaziata (a circa 10 metri l’uno dall’altro) preferendo quelli con il maggior rapporto segnale-rumore e con gli offset maggiori. In tabella 4.1-1 vengono elencati gli shot scelti e corrispondenti FFID (Field File

identification number). SHOT FFID 1 1 2 9 3 20 4 30 5 40 6 50 7 58 8 68 9 77 10 88 11 98 12 106 13 115 14 125 15 136 16 145 17 155 18 164 19 175 20 185 Tabella 4.1-1. FFID utilizzati nell’inversione.

(40)

4.2 Top muting e trace killing

Per evitare la creazione di artefatti e la nascita di segnali non reali con le successive fasi di processing è stato applicato un top mute con lo scopo di azzerare il rumore presente a tempi inferiori rispetto a quello dei primi arrivi; agli offset più corti si osservano gli arrivi diretti, questi, propagandosi direttamente negli strati più superficiali del semispazio, rappresentano i primi arrivi del dato entro la crossover distance, oltre l’angolo di incidenza critico però i segnali vengono rifratti e impiegano tempi minori a causa delle alte velocita di propagazione (fig. 4.2-1).

a)

b)

)

Figura 4.2-1. a) Dromocrona delle onde rifratte. b) Rappresentazione degli eventi

(41)

41

Attraverso il modulo Trace Display è stato possibile individuare i primi segnali utili nei datasets rispetto al rumore incoerente nel dato che si vuole eliminare. Le operazioni di picking manuale rappresentate in figura 4.2-2 hanno permesso di delineare le parti più rumorose del dato che non erano di interesse ai fini dell’elaborazione.

Il picking così definito viene poi salvato all’interno di una tabella e applicata al dato attraverso il modulo Trace Muting presentato in fig. 4.2-3. Tale strumento richiede anche l’inserimento di un parametro definito Starting ramp, questo definisce la pendenza della rampa che verrà applicata ai bordi della finestra di mute.

Figura 4.2-2. Esempio di picking sui primi arrivi.

(42)

Utilizzare una rampa meno ripida previene infatti l’azzeramento brusco del segnale che si tradurrebbe nella creazione di artefatti non compatibili con la fisica del sottosuolo.

In figura 4.2-4 è raffigurato uno shot dopo l’applicazione del top mute.

In seguito all’applicazione del muting è stato necessario rimuovere le tracce più rumorose dal dato; queste vengono generate a causa di un accoppiamento errato fra i geofoni e il suolo oppure per un malfunzionamento strumentale. Attraverso il modulo Trace Kill è stato possibile rimuovere le tracce anomale, individuate tramite picking manuale o specificandone la posizione servendosi delle header del dato, come raffigurato in figura 4.2-5.

(43)

43

In figura 4.2-6 viene presentato invece un esempio delle tracce rimosse tramite picking manuale.

Figura 4.2-6. Esempio di tracce rimosse tramite il modulo Trace Kill. Figura 4.2-5. Modulo utilizzato per la rimozione delle tracce rumorose.

Riferimenti

Documenti correlati

Nel Rapporto annuale 2017 l’Istat sostiene che le classi sociali sono ormai scomparse dalla società italiana, che è venuto meno il “senso di appartenenza” a esse, e presenta una

Quello che il corso REIKI and RELAX offre ha un valore immenso, perché puoi davvero riprendere in mano le redini della tua energia.. E secondo i precetti di Mikao Usui,

5) All’interno di un ambiente chiuso, avente un volume di 1000 m 3 , si misura un elevato livello sonoro medio, pari a L p1 =80+E dB(A), causato dal funzionamento di decine

Francesco La Camera, Direttore Generale, Direzione per Lo Sviluppo Sostenibile, per Il Danno Ambientale e per I Rapporti Con L’unione Europea e gli Organismi Internazionali,

Questi parametri sono importanti poiché la loro conoscenza è necessaria per l’estrazione degli accelerogrammi naturali sismo- compatibili con le caratteristiche del

Gli scavi condotti nella Caverna delle Arene Candide tra 2003 e 2012 hanno coinvolto un gruppo sempre più numeroso di ricercatori, specialisti, studenti universitari e

Anche nel 2007 si registra nelle Costruzioni il numero più elevato di malattie professionali fra tutti i settori di attività dell’Industria e Servizi: circa 1.000 i casi ricono-

Il fenomeno sonoro è caratterizzato dalla propagazione di energia meccanica dovuta al rapido succedersi di compressioni ed espansioni di un mezzo elastico; tale