• Non ci sono risultati.

Pre Stack Depth Migration: tecniche di Migration Velocity Analysis su dati marini 2D.

N/A
N/A
Protected

Academic year: 2021

Condividi "Pre Stack Depth Migration: tecniche di Migration Velocity Analysis su dati marini 2D."

Copied!
147
0
0

Testo completo

(1)

UNIVERSITÀ DI PISA

FACOLTÀ DI SCIENZE MATEMATICHE FISICHE E NATURALI

DIPARTIMENTO DI SCIENZE DELLA TERRA

PRESTACK DEPTH MIGRATION

Tecniche di Migration Velocity Analysis su dati

marini 2D

Tesi di Laurea Magistrale in Geofisica d’Esplorazione ed

Applicata

Studente:

D

AVIDE

S

CALISE

Controrelatore: Prof.ore Andrea Caiti

Relatore:

Prof. A

LFREDO

M

AZZOTTI

Corelatore:

Dott.. A

NDREA

T

OGNARELLI

(2)
(3)

3

ACRONIMI

PSDM: Pre Stack Depth Migration; MVA: Migration Velocity Analysis; LS: Layer Stripping;

DSR: Double Square Root; RMO: Residual Move Out; GI: Group Interval;

SI: Source Interval;

CDP: Common Depth Point; CMP: Common Mid Point; CRP: Common Reflection Point; FWI: Full Waveform Inversion;

(4)

4

INTRODUZIONE

Lo scopo della sismica a riflessione è quello di ottenere a partire dal dato registrato in superficie, un’ immagine corretta delle strutture geologiche che caratterizzano un area esplorativa. Negli ultimi decenni, l’industria petrolifera, grazie al continuo sviluppo tecnologico nell’ambito dell’imaging, ha potuto espandere la ricerca di fonti di energia fossili anche in zone caratterizzate da una geologia particolarmente complessa, ad esempio in presenza di strati e strutture caratterizzate da forti inclinazioni e brusche variazioni laterali delle principali proprietà petrofisiche (densità e velocità delle onde elastiche). La migrazione pre stack in profondità (PSDM) fornisce i migliori risultati proprio in questo tipo di area esplorativa, permettendo in tal modo di ottenere una sezione sismica (in profondità) correttamente interpretabile. La differenza rispetto alle tecniche di migrazione postack è data dal fatto che, mentre queste si basano su assunzioni semplicistiche della realtà fisica del problema (modello omogeneo e isotropo a velocità costante, propagazione a zero offset ect), la PSDM tratta la propagazione del campo d’onda in una maniera più rigorosa e fisicamente attendibile e questo permette di ottenere un imaging corretto del dato sismico anche in aree che presentano le problematicità sopra elencate. Tuttavia, affinchè l’algoritmo produca un’immagine corretta e ben focalizzata, è fondamentale disporre di un modello di velocità di propagazione che sia il più vicino possibile alla realtà geologica dell’area in esame. A tal proposito, è proprio la tecnica PSDM che permette di valutare la correttezza del modello di velocità usato per la migrazione.

L’analisi di velocità eseguita sui dati migrati PSDM si basa sull’assunzione secondo la quale se una sezione common offset viene migrata pre stack con un campo di velocità corretto, le riflessioni primarie nei raggruppamenti CRP (Common Reflection Point) risultano perfettamente orizzontali. Nel caso in cui gli arrivi nei CRP non siano orizzontali, è possibile eseguire un aggiornamento del campo di

(5)

5

velocità applicando una correzione RMO tramite tecniche di analisi di velocità sul dato migrato pre stack in profondità .

In questo lavoro di tesi, sono state applicate su dati marini 2D sintetici e reali, le tecniche di correzione/aggiornamento del modello di velocità (MVA) del Layer Stripping e della Tomografia a riflessione, basate sulla migrazione del dato pre stack in profondità. In entrambi i casi, esse hanno prodotto risultati più che soddisfacenti in funzione degli obiettivi prefissati, cioè: ottenere dei modelli di velocità corretti con i quali la migrazione PSDM dei due tipi di dataset, fornisca delle riflessioni orizzontali nei raggruppamenti CRP.

La tesi si sviluppa nell’arco di tre capitoli ognuno dei quali comprensivo sia di una parte teorica che applicativa. Il primo capitolo è incentrato interamente sulla caratterizzazione del dato marino reale 2D e sulle operazioni di processing che hanno permesso non solo di verificare se esso presentasse tutti i requisiti necessari per la migrazione pre stack in profondità, ma anche di estrapolare dal dato sismico a riflessione un modello di velocità intervallare iniziale da aggiornare con le tecniche MVA descritte nel terzo capitolo.

Al fine di comprendere adeguatamente i meccanismi alla base dell’algoritmo PSDM nel secondo capitolo viene affrontata un’ ampia trattazione teorica sui principi base dell’imaging sui quali si fondano le principali tecniche di migrazione. Viene descritta in dettaglio l’implementazione della migrazione PSDM su sezioni common-offset, soffermandoci particolarmente su quegli aspetti che la rendono anche un valido strumento per l’analisi di velocità nel dominio dell’immagine.

Nel capitolo conclusivo le tecniche del Layer stripping e della tomografia a riflessione sono state testate sul dato sintetico e sul dato reale. Esse sono state descritte mettendone in evidenza le principali caratteristiche, i vantaggi e gli svantaggi, privilegiando in particolar modo l’aspetto metodologico/implementativo nell’utilizzo di tali metodi tramite i moduli del software ProMAX. Il confronto tra le sezioni stack ottenute dalle migrazioni PSDM con il modello di velocità iniziale e il modello aggiornato in output all’applicazione delle tecniche MVA e i relitivi CRP gathers, ha permesso di valutare la correttezza dei risultati, tenendo bene presente le limitazioni di entrambi i metodi.

(6)

6

Capitolo 1

PROCESSING DEL DATO MARINO 2D

In questo capitolo, vengono descritti i passi principali dell’elaborazione del dato sismico, necessari per ottenere un modello di velocità iniziale da fornire in input all’algoritmo di migrazione. Poichè il dato fornito è già stato sottoposto ad una fase preliminare di processing (filtraggio del rumore incoerente e rimozione delle multiple di fondo mare) ci si è soffermati su quelle fasi necessarie all’ottenimento del campo di velocità.

Analisi Generale

Prima di addentrarsi nella trattazione di quanto detto nell’introduzione, è utile elencare alcune caratteristiche generali del dato in esame. Si tratta di un linea 2D in formato SEG-Y estrapolata da un dataset marino 3D di area sconosciuta. A differenza dell’header di nastro quasi privo di informazioni, le headers di traccia contengono: coordinate delle sorgenti e dei ricevitori, gli offset e l’insieme di key ausiliarie che completano il quadro di informazioni utili all’elaborazione del dato sismico(profondità della sorgente, indicizzazione inline, tempo di campionamento ect).

E’ stata eseguita in via preliminare un’analisi con lo scopo di verificare la correttezza delle informazioni geometriche relative alla linea 2D in esame, che ci ha permesso di scoprire un incongruenza in base alla quale ad ogni coordinata della sorgente fossero associati common shot differenti, situazione fortemente in contrasto per un’acquisizione marina 2D. Il software di elaborazione usato (Promax) ha permesso di delineare un metodo risolutivo basato sull’analisi di grafici 2D nei quali è stato possibile visualizzare il dato secondo diversi criteri di sorting. Sortando le informazioni geometriche del dato in funzione degli indici relativi ai Common-shot e della coordinata della sorgente, è stato effettuato un plot che ha permesso di isolare un sotto insieme di shot (curva fig. 1.2) con medesima coordinata della sorgente, il

(7)

7

che viola il principio secondo il quale in un’acquisizione marina 2D, ad ogni scoppio debba essere associato un solo un solo shot gather.

Figura 1-2 Zoom del crossplot in fig 1.2 nella zona della curvatura;

E’ possibile osservare quanto detto nello zoom rappresentato in figura 1.2 in corrispondeza della curvatura di figura 1.1, nel quale si vedono chiaramente gli shot che presentano la medesima coordinata della sorgente.

(8)

8

La strategia di correzione si è basata sull’osservazione secondo la quale gli shot doppi appartenevano ad un inline adiacente alla linea 2D di interesse, per tale motivo è bastato un semplice resorting del dato secondo l’indice di inline principale per escludere gli shot superflui.

Alla fine è stato ottenuto un dataset sismico 2D consistente con la tecnica di acquisizione sismica 2D della “copertura multipla” (Multifold seismic acquisition) che ci ha permesso in seguito di effettuare correttamente le operazioni necessarie per passare dal dominio di acquisizione del dato (common-shot) al raggruppamento con il quale esso viene processato: CMP gather.

(9)

9

Controllo di qualità e Processing

Il dato corretto delle problematiche discusse in precedenza è stato in seguito importato in Promax, tramite il quale è stato possibile verificare la correttezza delle operazioni effettuate precedentemente.

Figura 1-3 Zoom del crossplot in fig 1.2 nella zona della curvatura

In figura 1.3, viene mostrato l’header di nastro relativo alla linea 2D corretta. Si osservi come la maggior parte delle informazioni siano nulle, al di fuori del numero di tracce per shot gather (159 tracce per shot), dell’intervallo di campionamento di 4 ms e del numero di campioni per traccia(1153, per un tempo di registrazione totale per traccia di 4608 secondi).

Da un controllo incrociato tra le header di traccia e il file di log in output al processo di importazione, è stato possibile ricavare altre informazioni sulla linea, quali numero totale di tracce nel dataset (Nshot x Nchans=121635) e il dominio primario con cui è sortato il dato (Shot – canali).

(10)

10

I moduli contenuti nel software permettono di effettuare l’elaborazione del dato sismico attingendo alle informazioni geometriche contenute all’interno di appositi database di archiviazione interni. Essi vengono creati dopo il processo di importazione ed strazione delle informazioni contenute nell’header.

Tramite differenti grafici 2D delle informazioni contenute nel database di sorgente ( fig 1.4), si è verificata l’efficacia delle correzioni effettuate sulla linea. Infatti nel dato corretto, per ogni coordinata sorgente corrisponderà correttamente un solo shot, ognuno dei quali (765 in tutto) con una numero costante di 159 canali (fig 1.4).

Figura 1-4 Crossplot 2D relativi al numero di Shot per coordinata sorgente (a) e relativo numero di canali attivi (b);

(11)

11 1.1.1 Costruzione delle geometrie

A questo punto, si dispone di una linea sismica 2D sulla quale effettuare il raggruppamento del dato in CMP gather. Prima di entrare nel dettaglio esecutivo di tale procedura, è utile introdurre alcuni concetti che stanno alla base della tecnica della copertura multipla. Da quanto detto precedentemente, mentre il dato sismico viene registrato in coordinate sorgente – ricevitore (s,g) gli step principali del processing (come l’analisi di velocità) vengono eseguiti nel sistema di coordinate che permette di raggruppare le tracce sismiche in funzione del punto medio tra sorgente e ricevitore (midpoint y) e la distanza tra di essi (offset h) (fig. 1.5).

Figura 1-5 Sistemi di coordinate a confronto. Coord. Sorgente-ricevitore e offset midpoint

Il passaggio da un sistema all’altro avviene applicando le relazioni di trasformazione:

𝑦 = 𝑔 + 𝑠

2

(1.1) ℎ = 𝑔 − 𝑠

(12)

12

Con la tecnica della copertura multipla ci saranno più tracce, appartenenti a coppie sorgenti-ricevitori differenti, che avranno il un punto di mezzo in comune. In seguito potranno essere raggruppate proprio in funzione di questa caratteristica comune, costituendo un CMP Gather (Common Midpoint) (fig 1-6).

Figura 1-6 CMP Gather

Le tracce appartenenti ad un CMP sono generate a partire dallo stesso punto di riflessione in profondità solo nel caso in cui la geologia della sotto superficie sia caratterizzata da riflettori piano paralleli. Solo in questo caso termini CMP o CDP gather possono essere usati senza ambiguità. In presenza di riflettori inclinati, esse descriveranno una distribuzione lineare di punti che tra l’altro è delocalizzata rispetto alla verticale del midpoint collocato in superficie. In questa situazione, le tracce sismiche saranno portatrici di un’informazione che non è proveniente dal medesimo punto in profondità ma da un insieme di punti. Esistono comunque determinate tecniche di correzione (DMO) che permettono di correggere tale effetto quando ciò si verifica.

(13)

13

Il numero di tracce appartenenti al CMP, cresce in direzione di avanzamento dell’acquisizione e il valore di copertura massimo (CDP folding) è dato dalla relazione:

N! =

n!  ∙  ∆s

2 ∙ ∆g      (1.2)

Esso dipende dai principali parametri di progettazione di acquisizione sismica 2D: numero di canali (ricevitori)

n

!  , la distanza tra gli scoppi della sorgente ∆𝑠 e quella relativa alla separazione tra i sensori di registrazione ∆𝑔. Nella parte che segue si descriveranno gli step tipici necessari per la costruzione delle famiglie CMP.

Gli step sono essenzialmente tre: 1. Costruzione dei Database; 2. Binning dei Midpoint;

3. Aggiornamento delle Header;

Il primo step è stato già effettuato subito dopo l’importazione del dato. Per il binning dei midpoint via software, è possibile assegnare in maniera semi-automatica le tracce relative a ciascun CMP. Nel nostro dato tale operazione è stata eseguita in maniera nominale. Bisogna precisare che con il termine Bin si indica quella lunghezza pari alla metà della distanza tra sorgente e ricevitore nella quale si ipotizza posssano essere avvenute le riflessioni relative a ciascuna traccia del CMP, quindi più che di un punto, in generale si può parlare di un segmento. Nell’ultimo step viene finalizzato il database generale della linea, inserendo le nuove informazioni sui CMP nelle header di traccia. In questo modo il programma saprà quale tracce appartengono ad un determinato CMP.

(14)

14

Nella figura sovrastante, viene rappresentata in maniera schematica la geometria di acquisizione della linea 2D, ponendo un enfasi particolare sulle relazioni che permettono di calcolarne l’ estensione tramite la conoscenza dei parametri principali che caratterizzano l’acquisizione sismica con la tecnica della copertura multipla: il source interval(SI), il group interval (GI), l’offset minimo e massimo, il numero di shot e infine anche dal numero dei CDP .

(15)

15

Figura 1-7 Copertura dei CMP della linea;

la figura 1.7 rappresenta la copertura ( CDP folding) dei CDP relativi alla linea in esame. Come si può notare, essa passa dal valore di 1 al valore massimo di 159 nella parte centrale, ad indicazione del fatto che i relativi CDP abbiano subito un’illuminazione ridontante. Tale ridondanza, permette di avere numerosi vantaggi pratici nel processing del dato sismico, tra i quali un miglioramento del rapporto S/N e la possibilità di effettuare l’analisi di velocità anche in presenza di geometrie non proprio piani orizzontali.

Giunti a questo punto dell’elaborazione, in linea teorica, il dato sarebbe pronto per l’applicazione dell’intera sequenza di processing sino all’ottenimento dell’ immagine sismica. Tuttavia, in funzione degli scopi prefissati in questo lavoro di tesi e del dato fornitoci, ciò non è stato necessario. Infatti, l’elaborazione si è concentata esclusivamente sugli step ausiliari per l’analisi di velocità e alla preparazione del dato alla migrazione prestack in profonità (recupero delle ampiezze deterministico).

(16)

16

La figura sottostante rappresenta in maniera schematica le operazioni di processing e controllo di qualità effettuate sul dato, sottolineandone gli scopi per le quali sono state concepite.

*CAD: Correzione delle Ampiezze Deterministica;

Schema sulle operazioni e gli obiettivi del primo

capitolo

(17)

17

Analisi offset-tempo (Common-shot) e in frequenza

La traccia sismica registrata in superficie può contenere oltre al segnale utile, rappresentato dalle riflessioni primarie, anche delle componenti aggiuntive di segnale che vengono indicate genericamente con il termine di rumore.

Esso può essere categorizzato essenzialmente in rumore di natura coerente, rappresentato dalle riflessioni multiple e quello di natura incoerente, generato a partire da fenomeni ambientali o interni al sistema di acquisizione (rumore elettronico). La maggior parte degli algoritmi di elaborazione dei segnali, risultano efficaci sono nei casi in cui il segnale, in questo caso la traccia sismica, sia privo di qualsiasi tipo di rumore; La Trasformata di Fourier permette di trasformare il segnale da tempi in frequenza, permettendoci differenziare tramite l’analisi dello spettro d’ ampiezza, le componenti utili (riflessioni) da quelle indesiderate (rumore).

Mentre le riflessioni multiple (rumore coerente) possono essere eliminate tramite tecniche di filtraggio multicanale nei domini f-k, tau-p ect, la componente incoerente del segnale, può essere rimossa tramite la definizione di un filtro monocanale che lascerà passare le sole componenti attribuibili alle riflessioni.

Durante l’acquisizione solitamente vengono effettuati dei test in bianco. Si tratta di registrazioni passive del rumore ambientale caratteristico dell’area in esame. Analizzando gli spettri di ampiezza di tali segnali è possibile discriminare il segnale dal rumore. Il filtraggio è un operazione lineare ( una convoluzione) che può essere eseguita sia sul dato Common-shot che in CMP.

Prima di analizzare il dato dal punto di vista spettrale, è utile effettuare un’analisi qualitativa sulle caratteristiche degli eventi in esso contenuti. In figura è rappresentato il primo shot gather acquisito. Si notano chiaramente gli arrivi diretti, gli arrivi rifratti e le riflessioni. Le tracce sono visualizzate con ampiezze normalizzate in modalità traccia- traccia e per quanto riguarda questo shot campione, non hanno una distribuzione energetica uniforme su tutti gli offset. Infatti si nota chiaramente lo stacco di intensità delle ampiezze di riflessione dei riflettori tra i 1200 e 1600 ms a partire dal canale 41. Non è stato possibile stabilire se ques’effetto sia dovuto ad un’operazione di processing effettuata prima della consegna del dato.

(18)

18

Figura 1-8 Shot gather numero 1;

Il dato si presenta con un rapporto segnale/rumore non ottimale lungo tutta la linea; i pochi eventi di riflessione presentano una coerenza al quanto scatterata e la stessa wavelet sembra essere soggetta a fenomeni di cambiamento della fase con l’offset. L’applicazione di un AGC, ha permesso di ottenere una maggiore regolarizzazione delle ampiezze a offset e tempi maggiori.tramite calcolo statistico della funzione guadagno lungo finestre di 160 ms. Infine il modulo: Spectral Analysis, è stata calcolata una FFT (Fast Fourier Transform) sulle singole tracce dello gather in esame, al fine di calcolarne lo spettro d’ampiezza medio .(fig

(19)

19

Figura 1-9 Shot gather e relativo spettro di ampiezza medio;

(20)

20

In figura 1.9 è rappresentato lo spettro d’ampiezza del primo shot gather prima dell’applicazione dell’AGC. Il segnale è caratterizzato da una banda dai 5– 90 Hz con frequenza di Nyquist di 125 Hz (dt=4ms), con una frequenza di picco media intorno ai 40-50 hz. Si può osservare dalla fig 1.10 come dopo il guadagno, le ampiezze in corrispondenza delle alte frequenze siano leggermente aumentate.

L’aspetto più evidente, ma anche più importante, di questa operazione e che il segnale sia stato già sottoposto ad un operazione di filtraggio. Difatti, gli spettri di ampiezza di fig 1.9-1.10, non solo presentano una forma dovuta all’applicazione di un filtro di tipo sinusoidale, ma sono definiti all’interno della banda di frequenze tipiche di un segnale sismico convenzionale (10-150 hz). Inoltre non dispondendo di test noise ambientali, si è scelto di non modificare il contenuto spettrale del dato in esame.

(21)

21

Analisi di Velocità

Dopo l’applicazione dell’AGC e dopo aver verificato che il dato non sia contaminato da rumore, esso è pronto per il processo dell’analisi di velocità. Si tratta di un metodo di elaborazione che si articola in vari step, ognuno dei quali necessari al fine di estrapolare in maniera adeguata l’informazione di velocità dal dato sismico.

La distribuzione complessiva delle velocità sismiche nel sottosuolo (𝑉!  e 𝑉!), dipendente dalle caratteristiche fisiche (𝜌, 𝐾, 𝜇  ), viene determinata a partire dai dati di riflessione contenuti nelle famiglie di CDP, che da quanto detto nei paragrafi precedenti, costituiscono un particolare raggruppamento del dato sismico. L’analisi di velocità, eseguita sui CMP, è un metodo per determinare la velocità di Stack, cioè quella velocità il cui valore, inserito nell’equazione di normal moveout (NMO), consente di modellizzare adeguatamente i travel times degli eventi di riflessione presenti nel CMP. Non si tratta della velocità sismica reale, effettiva del mezzo investigato, ma di una velocità fittizia, che dipende anche dalla geometria dei riflettori interessati.

Dal punto di vista pratico-applicativo, tale informazione viene estrapolata dal picking dei massimi di coerenza contenuti negli spettri di velocità. Alla fine del metodo si è ottenuto un modello di velocità di stacking che convertito in intervallare tramite l’equazione di Dix, ci ha permesso di ottenere una versione approssimativa delle velocità di propagazione reali dell’area in esame. Tuttavia in presenza di un dato con un basso rapporto segnale/rumore, come nel nostro caso, il picking degli spettri non è esente da errori di interpretazione e per tale motivo, la conversione del campo RMS in intervallare potrebbe introdurre strutture di velocità irrealistiche. Le tecniche MVA basate sulla PSDM, ci permetteranno di aggiornare/correggere il modello di velocità ottenuto con questa procedura, nella parte finale del seguente paragrafo.

(22)

22 1.1.2 Common shot e CMP/CDP gathers

Esistono delle importanti differenze tra Common shot e CMP gathers che fanno si che l’analisi di velocità venga effettuata sui primi rispetto ai secondi. Nel caso più semplice possibile di riflettore piano in un mezzo omogeneo di velocità costante V, dal punto di vista esclusivamente cinematico (modellizzazione del fronte d’onda sismico con la teoria dei raggi e quindi dei Travel times degli eventi di riflessione), non c’è nessuna differenza tra i due domini del dato.

Le curve che descrivono i travel time al variare dell’offset sono praticamente identiche, si tratta di iperboli di riflessione che presentano il vertice centrato sull’asse dei tempi, in corrispondenza del teorico “Offset nullo”. L’equazione dell’iperbole di riflessione è data dalla relazione:

𝑇!! =  𝑥!

𝑉!+ 𝑇!!

dove 𝑇! = 2ℎ 𝑉 ,corrispondete al travel time della riflessione ad offset nullo, praticamente al raggio che viene riflesso e registrato perpendicolarmente al riflettore da sorgente e ricevitore coincidenti spazialmente, quindi il vertice delle curva dei TT. In questo caso, la velocità di stack, corrisponde alla velocità effettiva V dello strato al di sopra del riflettore piano orizzontale, 𝑉!"#$% = 𝑉; In presenza di un riflettore inclinato, la curva dei travel times non è più uguale nei due domini. Infatti, mentre il CMP gather ha il vertice sempre lungo l’asse dei tempi, cioè centrato ad offset zero, nel caso dello Shot gather, il vertice è spostato in direzione updip rispetto all’asse dei tempi.

(23)

23

Le relazioni che descrivono entrambi le situazioni sono: (Common Shot) 𝑇!! =  𝑥! 𝑉!+ 4ℎ! 𝑉! + 4ℎ𝑥 𝑉! sin 𝛼

Quando alfa è nullo, si ritorna all’equazione per il caso di riflettore orizzontale. Mentre per il dominio CMP, l’equazione dei TT in questo caso è rappresentata da:

(CMP)

𝑇!! = 𝑥!

𝑉 cos 𝛼 !+

4ℎ!!

𝑉!

dove  ℎ!   dipende dalla posizione del midpoint rispetto al riflettore e dall’angolo di inclinazione di quest’ultimo. Nel caso del CMP, gli asintoti delle iperboli di riflessione sono meno inclinati e la geometria relativa ai tempi di riflessione è molto più semplice anche in caso di riflettori inclinati e questo comporta dei vantaggi pratici notevoli nei metodi di analisi di velocità sul dato sismico. E’ importante notare rispetto al caso precedente, come ora il coefficiente di 𝑥! non sia più la sola

velocità, ma il rapporto tra questa è il coseno dell’angolo di inclinazione, ora legato anche alla pendenza del riflettore. In questo caso, la velocità di stacking non è più coincidente con la velocità effettiva, ma dipende anche dalla geometria del riflettore.

1.1.3 Velocità sismiche

Nella sismica a riflessione, possono essere definite varie tipologie di velocità sismiche:

1. V Intervallare o d’intervallo,

che corrisponde alla velocità costante all’interno di un singolo strato, una sorta di velocità media reale detta anche velocità di migrazione;

(24)

24

2.

V media

,

calcolata a partire dalle velocità intervallari di ogni singolo strato/intervallo

;

3.

V rms

,

velocità calcolata come media quadratica pesata delle velocità d’intervallo;

4. V nmo

,

velocità di normal moveout, definita esclusivamente per le famiglie CMP il cui quadrato è uguale al reciproco della derivata prima della domocrona in un sistema di riferimento 𝑥!− 𝑡!   per x=0.

Una caratteristica importante delle famiglie CMP è data dal fatto che le riflessioni presenti sulla traccia a zero offset sono associate a raggi sismici che incidono perpendicolarmente sulla interfacce e quindi rispetto ai raggi associati alle altre tracce di quel particolare CMP gather, tale traccia corrisponde al tempo di percorso minimo. In via generale, le curve delle riflessioni delle varie interfacce presenti nella sotto superficie hanno il tempo minimo, il vertice, in corrispondenza dell’offset zero. Questa particolarità permette di definire la velocità di NMO. Si tratta della velocità misurata in prossimità del raggio ad incidenza normale, nei pressi delle riflessioni a zero offset. In un grafico 𝑥!− 𝑡!, la 𝑉

!"#! è data dal reciproco della pendenza della

domocrona a x=0:

𝑉

!"#!

=

!"!

!"!

(x→ 0)

La 𝑉!"#! assume un significato generale, non legato ad alcun particolare modello e

risulta essere dipendente da parametri fisici della propogazione quali il raggio di curvatura del fronte d’onda emergente in superficie e l’angolo di emersione del raggio normale.

Un ‘altra importante velocità di valenza più statistica è rappresentata dalla velocità di stacking. In generale rappresenta quel valore di velocità che se corretto, inserito nell’equazione di normal moveout dà luogo all’iperbole che meglio approssima l’iperbole dei travel time osservata. Essa ha più un carattere statistico, tranne quando ci si trova approssimativamente nei seguenti casi:

(25)

25

• Riflettore orizzontale: che separa due strati a velocità costanti. La curva che descrive i TT è un’iperbole perfetta. In questo caso, la velocità di stacking coincide con la velocità di nmo , la velocità rms e la velocità effettiva dello strato, quindi anche alla velocità intervallare. Vale la relazione: 𝑉! = 𝑉!"# = 𝑉!"# = 𝑉;

• N strati orizzontali(n-1 interfacce di riflessione): in questo modello della sotto superficie, è importante fare delle assunzioni sulla fisica della propagazione in mezzi multi stratificati. Inanzi tutto, bisogna trascurare il fenomeno della rifrazione. I raggi incidono sulle interfacce dopo essersi propagati su percorsi rettilinei (Non bending). Quest’assunzione indicata comunemente con l’appellativo di Small Spread Hyperbola è tanto più valida quanto più l’offset è inferiore rispetto alla profondità del riflettore. In questa situazione le variazioni della traiettoria del raggio a causa della rifrazione sono molto piccole rispetto alla traiettoria media ipotizzata rettilinea. Quindi, quest’approssimazione sarà tanto più valida per le tracce ad offset minori, rispetto a quelle ad offset maggiori e la curva dei travel time osservati sarà solo approssimabile con quella di un’iperbole esatta:

T!𝟐≈   T!𝟐+  

𝑥!

𝑉!"#!

In questo caso la velocità di stacking per gli eventi di riflessione a piccoli offset, coincide con la velocità quadratica 𝑉!"#! data dalla relazione:

𝑉!"#$%! = 𝑉!"#! =   𝑉!!

!

!!! △ 𝑡!

𝑇!

nella quale, 𝑉! e △ 𝑡! rappresentano rispettivamente, le velocità

(26)

26

strato;  𝑇! è il travel time a zero offset dato dalla somma dei traveltime negli n-strati.

In realtà, la presenza di un mezzo con interfacce dovute a strati sovrastanti, comporta che il fronte d’onda sismico e il raggio con cui viene modellizato (in un mezzo omogeneo e isotropo) subisca rifrazione e ciò comporta, soprattutto ad offset elevati , all’ allontanamento della curva dei Travel time da un’iperbole esatta. Al Chalabi, nel suo lavoro ha ricavato un’espressione che esprime la dromocrona relativa alla riflessione da una delle n interfacce, considerando anche il fenomeno della rifrazione:

𝑇!! = 𝐶

!+ 𝐶!𝑋!+ 𝐶!𝑋! + ⋯ 𝐶!𝑋!!!!

I coefficienti 𝐶! dipendono dagli spessori e dalle velocità degli n-strati, mentre più

termini vengono inclusi nella serie, maggiore sarà il fit dei travel time osservati con quelli calcolati, a qualsiasi offset. Si tratta di una curva di ordine superiore e quindi la relazione tra i travel time e l’offset non è più lineare. Però nell’approssimazione di SSH si possono trascurare i termini di grado superiore al secondo e si avrà di nuovo l’equazione di un’iperbole, nella quale la velocità al denominatore del coefficiente del secondo termine sarà la 𝑉!"#. L’inverso della 𝑉!"#! corrisponde alla pendenza

della retta tangente alla curva dei travel time osservati nel punto ad offset zero, ovvero alla 𝑉!"#, quindi per piccoli la seguente uguaglianza sarà verificata:

𝑉!"#=𝑉!"#. La troncatura della serie di Al Chalabi al termine del secondo ordine, equivale a sostituire una serie di strati a diverse velocità e spessori nei quali si ha rifrazione, con un unico strato di velocità quadratica media 𝑉!"# nel quale la invece la propagazione è esclusivamente rettilinea. La curva rappresentata dalla serie di AC , può essere approssimata ad una retta nel dominio 𝑥! − 𝑡!, il cui coefficiente

(27)

27

Nel domino x-t , tale retta corrisponde ad un’iperbole di equazione :

𝑇!! = 𝑇 !!! +

𝑥!

𝑉!!  

che rappresenta l’iperbole che meglio approssima i dati osservati. Essa viene ricavata in x2-t2 tramite il metodo dei minimi quadrati. Quindi, le relazioni 1 e 2 non sono uguali in quanto ottenute con metodi e assunzioni differenti.Infatti mentre nella relazione uno, la velocità di stacking coincide con la velocità quadratica media, poiché è velida l’assunzione di SSH, nell’ultima relazione non ci sono limitazioni sull’offset considerato; essa infatti descrive la traiettoria di un’iperbole che meglio approssima i traveltime osservati ma non è coincidente, lungo tutto il range di offset disponibili. Bisogna notare anche che il tempo a zero offset di questa iperbole (𝑇!!) potrebbe non coincidere con il tempo a zero offset del segnale osservato (𝑇!).

Figura 1-11 Curve dei travel time osservati (rosso), di best fit (viola ) e di nmo;

la velocità di stacking rappresenta la velocità di propagazione solo nel modello di singolo riflettore orizzontale. Nel caso di n riflettori il significato fisico è del tutto ambiguo. Invece, in presenza di un singolo riflettore inclinato, la velocità di stack per la massima orizzontalizzazione degli eventi è data dal rapporto

:

(28)

28

𝑉! = 𝑉

cos 𝜙

dove V è la velocità dello strato e l’angolo 𝜙 è l’inclinazione del riflettore. Quindi vale la relazione: 𝑉! = 𝑉!"# ≠ 𝑉, poiché dipende dall’inclinazione del riflettore, quindi anche dalle caratteristiche geometriche di quest’ultimo.

Dopo questa trattazione sulla cinematica della propagazione del campo d’onda riflesso e sulle velocità sismiche, viene introdotto il metodo dell’analisi di velocità, il cui obiettivo è quello di determinare la velocità (di stacking) da attribuire all’equazione 5) tale da avere la miglior correzione di NMO. Il normal move out è definito come la differenza tra i travel time della medesima riflessione registrata ad offset differenti e il travel time relativo al medesimo evento ma registrato ad offset zero. In determinate situazioni reali, i dati osservati si discostano dal caso di normal moveout , soprattutto in presenza di riflettori fortemente inclinati, di variazioni laterali di piccola dimensione spaziale (rispetto agli offset disponibili nello stendimento) e in presenza di anisotropia nel mezzo. In questi casi i metodi convenzionali per stimare la velocità di NMO non saranno precisi cosi come lo stacking delle tracce dei CDP corretti di NMO. Ciò comporta serie ripercussioni sulla Qualità della sezione stack finale. La migrazione prestack in profondità può essere una valida alternativa per effettuare l’imaging del dato sismico a riflessione, in presenza di queste caratteristiche strutturali della geologia. Tuttavia, è necessario conoscere a priori il modello di velocità “reale” della sotto superficie in esame. Come ottenere un modello di velocità per la migrazione che abbia tali caratteristiche di realisticità? Essenzialmente tramite i metodi convenzionali accennati nella parte introduttiva di questo capitolo, che purtroppo non sono esenti da errori. Le tecniche MVA sfruttano proprio tale principio in base al quale La PSDM fornisce un buon imaging del dato solo se il modello di velocità di migrazione è il più vicino possibile alla realtà geologica di interesse, per aggiornare il modello di velocità di input. Il software Promax, permette di eseguire l’analisi di velocità tramite il picking dei massimi di coerenza negli spettri di velocità relativi ai CDP che compongono la linea sismica. Il primo step è rappresentato dall’analisi CVS (Constant Velocity Stack). Si tratta di una tecnica tramite la quale è possibile definire un range di velocità entro il

(29)

29

quale effettuare lo scanning della velocità di stacking. il modulo predisposto effettua delle correzioni di normal moveut a velocità costante, campionate all’interno di un ipotetico range iniziale e fornisce in output delle sezioni stack.

In questo modo è possibili valutare direttamente dalla varie sezioni, il grado di coerenza laterale delle riflessioni ottenuta dalle correzioni NMO a velocità costante e quindi stabilire i valori di velocità di stacking ottimali per l’area in esame.

Figura 1-12 Curve dei travel time osservati (rosso), di best fit (viola ) e di nmo;

E’ stato testato l’intervallo di velocità compreso tra i 1000 e i 6000 m/s, campionato su 20 pannelli di velocità costanti. La figura 1.13 mostra le sezioni stack a velocità costante in output. Appare evidente come la sezione relativa alla velocità di 1000 m/s sia assolutamente priva di riflessioni , sintomo del fatto che la velocità di stacking di 1000 m/s non è rappresentativa della propagazione di nessun evento di riflessione nel dato in esame. Soltanto a partire dal valore di 1500 m/s comincia ad essere ben visibile, con una buona coerenza, la riflessione di fondo mare collocata a circa 350 ms. Aumentando la velocità a 1800 m/s, nella stack associata, comincia ad essere visibile il riflettore a 800 ms, che nella sezione a 1000 m/s presentava una coerenza scatterata. A velocità sempre più elevate, le correzioni di NMO permettono di ottenere un buon stacking degli eventi posti a profondità crescenti, sino a raggiungere la velocità limite di 5000 m/s nella quale le riflessioni cominciano a perdere energia e a diventare meno rilevabili. Alla luce di ciò, il range di velocità entro il quale effettuare il picking degli spettri di velocità, è stato impostato tra i 1500 e i 4000 m/s. L’analisi delle CVS ci permette inoltre di stimare qualitativamente la geometrie delle interfacce di riflessione dell’are in esame, che nel nostro caso potrebbero essere associabili ad una geologia strutturalmente semplice, caratterizzata da strati piani paralleli.

(30)

30

(31)

31 1.1.4 Formazione dei CDP Super Gather

lo step successivo dell’analisi di velocità, consiste nella formazione dei Super CMP Gathers; cioè raggruppamenti di un certo numero di CDP adiacenti, campionati ad una determinata distanza (cdp increment) lungo la linea. Si tratta di un’operazione il cui scopo primario è quello di aumentare il rapporto s/n per il calcolo degli spettri di velocità, ma anche una valenza pratica, operazionale, in quanto permette di eseguire il picking su un numero minore di CDP. Il raggruppamento dei cdp in Super gather, è tanto più giustificato, quanto più ci si trova in presenza di una campo di velocità che presumibilmente costante e omogeneo. In questo caso infatti, un campionamento della linea meno fitto, non comporterebbe una perdità di informazione indispensabile sul campo di velocità da estrapolare . Per il dato in esame, l’analisi di velocità è stata effettuata sui CDP a copertura massima e cioè i CDP dal 159 al 765.

Figura 1-14 Pannello di impostazione del modulo Super Gather Formation di Promax

I CDP Super Gather sono stati formati combinando 5 CDP a partire dal 159. Spostandosi 10 CDP tra i vari super g, si è giunti all’ultimo raggruppamento con CDP centrale 761, per un totale di 60 Super gather sui quali effettuare il calcolo degli spettri di velocità. E’ stato scelto il valore di 10 per il cdp inccrement, poiché dall’analisi CVS non è stata evidenziata la presenza di variazioni di velocità laterali. In figura 1.15 il super gather 511 , si noti la “somiglianza” tra i CDP costituenti. Prima dell’operazione di formazione dei ragruppamenti cdp, su di essi è stato applicato un AGC definito su una finestra di 200 ms. Gli eventi di riflessione più

(32)

32

evidenti si collocano in tempi nella zona tra il fondo mare e i 2.5 secondi di registrazione.

Figura 1-15 Super Gather 511.

1.1.5 Picking degli Spettri di Velocità

Dopo aver raggruppato i CDP in super gathers, l’ultimo step della sequenza relativa al processo dell’analisi di velocità, consiste nel calcolare gli spettri di velocità. Essi vengono stimati utilizzando algoritmi che misurano la coerenza delle riflessioni lungo l’offset tramite curve di riferimento (iperboli di prova). Si tratta di

(33)

33

una trasformazione dalle coordinate CMP-OFFSET alle coordinate Velocità-tempo a zero offset. Essenzialmente l’algoritmo della semblance permette di andare a testare la coerenza degli eventi di riflessione lungo delle iperboli di prova; i cui vertici si trovano all’interno di una finestra centrata attorno all’avento di riflessione e quindi di individuare la coppia velocità-tempo che fornisce la massima coerenza.Si tratta di un’operazione che richiede una grossa componente interpretativa da parte dell’operatore. Esso deve esser capace di distinguere i massimi di coerenza relativi agli eventi primari, da quelli imputabili alle multiple. E’ utile sottolineare nuovamente, l’importanza della rimozione degli eventi periodici preliminarmente all’analisi di velocità, onde evitare che vengano introdotti errori interpretativi nel campo di velocità RMS sa stimare.

Il modulo PROMAX predisposto per tale compito è il modulo: Velocity Analysis. I parametri necessari al calcolo degli spettri sono: i limiti del range di velocità entro il quale sondare la velocità di stacking (1500-4000 m/s), la lunghezza della finestra temporale per il calcolo della semblance (che influenza la risoluzione temporale degli spettri) e altre opzioni, quali per esempio, l’applicazione delle statiche residue e le correzioni a lunghi offset in caso di anisotropia. Il dato reale utilizzato in questo lavoro, non presenta un buon rapporto segnale/rumore e la maggior parte degli eventi di riflessione sono collocati entro i primi 2.5 secondi su una registrazione totale di 4.6 secondi. Quindi, oltre ad avere poche riflessioni, gli spettri di velocità si presentavano molto rumorosi e con pochi massimi di coerenza su cui eseguire il picking.

In via generale, questa situazione non si è rivelata del tutto sfavorevole, in quanto lo scopo di questo lavoro di tesi consiste proprio nell’impiego di altri metodi di analisi di velocità per aggiornare/correggere il modello ottenuto a partire da tale step dell’elaborazione.

(34)

34

Figura 1-16 Spettri di velocità relativi a CMP appartenenti a zone con differente qualità del segnale;

In figura 1.16 è possibile osservare su un altro dato, la differente qualità degli spettri di velocità relativi a CMP appartenenti a zone con un rapporto segnale/rumore differente. Si not nel CMP3, l’elevata dispersione dei blob di semblance. In figura 1.17 è possibile osservare quest’effetto direttamente su alcuni spettri di velocità relativi al dato reale. Si noti come a causa della bassa qualità del segnale, gli spettri si presentino molto dispersi, con qualche massimo di coerenza solo nei primi secondi del tempo di registrazione.

(35)

35

Figura 1-17 Spettri di velocità del dato in esame in vari punti della linea sismica. Si noti la scarsa qualità del segnale di coerenza;

(36)

36

Questa situazione comporta che nel modello di velocità RMS finale, ci siano delle componenti errate di velocità dovute ad errori interpretativi nel picking. E’ proprio per tale motivo che in questo lavoro di tesi, si utilizzeranno altri metodi di analisi di velocità, per ottenere un modello attendibile per gli scopi di ricerca prefissati, metodi che permettono inoltre di determinare con elevata sensibilità anche componenti del campo su piccola scala spaziale, a differenza delle tecniche standard come questa che permettono di risolvere variazioni laterali comparabili con la dimensione dell’offset massimo disponibile.

(37)

37

Come precedentemente accennato, l’Analisi di velocità è stata eseguita soltanto sui CDP a copertura massima dal 159 al 765, indicati in figura 1.18 con dei marker rossi. Il modello presenta una spiccata variabilità laterale soprattutto a tempi elevati, nei quali il picking si è rivelato ancor più difficoltoso. In una sequenza di processing standard con lo scopo di ottenere una sezione stack, Il campo di velocità RMS viene usato per effettuare le correzioni di NMO sulle riflessioni nei cmp. Rappresenta la velocità che meglio orizzontalizza gli eventi e che per tale motivo permette uno stacking efficiente delle traccie sismiche. In questo lavoro di tesi, come ampiamente accennato, l’obiettivo non è legato direttamente all’imaging sismico, ma più che altro nel testare metodi di analisi di velocità più accurati.

Ottenuto il modello di fig. 1.18, per inizializzare l’analisi di velocità sul dato migrato pre stack in profondità, è stato necessario effettuare, tramite l’equazione di Dix, la conversione da velocità RMS in tempi a velocità d’intervallo in profondità. Nel terzo capitolo di questo lavoro, si analizzeranno in dettaglio i metodi che hanno portato all’ottenimento di un modello di velocità “corretto” per l’area di indagine in esame.

Recupero Deterministico delle Ampiezze (Amplitude Recovery):

Il campo di velocità RMS di fig 1.18 risulta valido per recuperare le ampiezze del dato che hanno subito attenuazione durante la propagazione nel mezzo. Infatti, il campo d’onda sismico che si propaga nella sotto superficie, non è un segnale stazionario, ma il suo contenuto spettrale e le sue ampiezze subiscono delle modifiche durante la propagazione, legate alle caratteristiche fisiche del mezzo in cui essa avviene. Per quanto riguarda le ampiezze, esse subiscono una diminuzione all’aumentare del tempo di propagazione, a seguito del verificarsi di vari fenomeni:

1. Divergenza Sferica del fronte d’onda (Geometrical Spreading); 2. Perdita per Riflessione/Transmissione;

(38)

38

Ognuno di questi fenomeni ha un impatto differente sulle ampiezze del segnale sismico registrato in superficie ed è importante in determinati step del processing, che il dato sia corretto delle perdite di ampiezza lungo tutti gli offset e tempi.

Il fattore con maggiore impatto sulle ampiezze è il Geometrical Spreading o Divergenza sferica del fronte d’onda. Com’è facilmente intuibile si tratta di un fenomeno legato principalmente alla fisica della propagazione del campo d’onda sismico, che nell’approssimazione di un modello della sotto superficie omogeneo e isotropo, con velocità quasi costante, avviene tramite un fronte d’onda con geometria sferica. Man mano che il campo si propaga a partire dalla sorgente, il fronte d’onda sferico, aumenta di dimensione e in assenza di fenomeni di assorbimento elevati, per il principio di conservazione dell’energia, l’energia del segnale (legata all’ampiezza) deve distribuirsi lungo una superficie maggiore e quindi automaticamente le ampiezza sul fronte’onda devono diminuire affinchè l’energia rimanga costante. Il risultato è una segnale con intensità minore .

; Figura 1-19 Geometrical Spreading in un mezzo omogeneo e isotropo;

In figura 1-19 è raffigurato il fenomeno della divergenza sferica del fronte d’onda in un mezzo a velocità costante . Si noti la proporzionalità diretta tra i fronti S1, S2 ed S3. In realtà la sotto superficie non è omogenea ed isotropa, ma la velocità subisce una variazione all’aumentare della profondità (aumenta). Ciò, causa fa si che i raggi usati per modellizzare la direzione di propagazione del campo sismico(perpendicolari al fronte), non siano più rettilinei ma curvi e quindi il fronte d’onda non sarà più sferico e nel decadimento delle ampiezze ci sarà una componente dovuta al fenomeno rifrattivo descritto in questa situazione.

(39)

39

Figura 1-20 Geometrical Spreading in un in cui la velocità aumenta all’aumentare della profondità;

E’ possibile dimostrare che le ampiezze del dato sismico possono essere corrette per geoemtrical spreading tramite la conoscenza del campo di velocità medio della sotto superficie nella quale è avvenuta la propagazione. La differenza con il guadagno AGC è che mentre quest’ultimo si basa sulla definizione di una funzione di guadagno calcolata statisticamente all’interno di finestre temporali sul dato, la correzione di ampiezze per geometrical spreading è una correzione di tipo deterministico. Si calcolano (stimano) gli effetti di determinati fenomeni fisici sulle ampiezze del segnale.

Il modulo utilizzato da promax per il recupero delle ampiezze deterministico è: l’Offset Amplitude Recovery, il quale applica una funzione di guadagno (inversa alla funzione di decadimento delle ampiezze) tempo e offset variante per compensare della perdita delle ampiezze, in particolare a tempi e offset maggiori. L’OAR permette anche di applicare altri tipi di correzioni d’ampiezza sul dato, come ad esempio, le correzioni di Array, una correzione di ampiezza molto più precisa, al fine di analisi AVO sul dato.

(40)

40

(41)

41

Come si può notare dal confronto tra le due immagini di figura 1.21, il dato è stato corretto in ampiezza sia a tempi che offset maggiori.

A questo punto il dato in esame ha tutti i requisiti necessari per essere sottoposto alla migrazione prestack in profondità e quindi alle tecniche di analisi di velocità che si basano su di essa. Nel prossimo capitolo, verrà discusso l’apparato teorico della PSDM, concludendo la trattazione con alcuni esempi applicativi sul dato.

(42)

42

TEORIA DELL IMAGING E

MIGRAZIONE PRE STACK IN PROFONDITÀ (PSDM)

In questo capitolo verranno trattati i concetti teorici alla base delle principali tecniche di imaging del dato sismico a riflessione disponibili in campo industriale. In seguito, l’attenzione sarà rivolta in particolare sulla migrazione di Kirchhoff Pre Stack in profondità (PSDM). Si tratta di un algoritmo di migrazione molto efficace in aree caratterizzate da strutture geologiche complesse, che permette inoltre di effettuare un controllo di qualità sul modello di velocità con cui si effettua la migrazione del dato.

2.1.1 Introduzione

Il risultato finale del processo dell’imaging sismico, comprende due elementi ben distinti:

• L’immagine sismica. Si tratta di una “registrazione” dei contrasti di impedenza in corrispondenza dei riflettori, visualizzata nella banda di frequenza standard per la sismica (8-80 Hz). La larghezza spettrale di tale banda viene definita dal range di frequenza nel quale il rapporto segnale-rumore raggiunge valori superiori alla soglia di rivelazione minima( minimun detection threshold) e dalle frequenze contenute nel segnale emesso dalla sorgente sismica.

• La componente a bassa frequenza (da 0 a qualche Hz) del campo di velocità di propagazione, a cui ci si riferisce con il nome di campo di velocità di migrazione (migration velocity field) oppure come modello di velocità di background prodotto dal processo di imaging.

Le frequenze della riflettività sismica comprese tra i 4 e gli 8 hz e quelle superiori agli 80, non vengono contemplate nel processo di imaging a causa di fenomeni di carattere sia strumentale che fisico. Infatti esse possono essere sia non emesse dalla

(43)

43

sorgente, che filtrate quando vengono registrate dagli array di ricevitori che agiscono come filtri anti-alias. Inoltre dal punto di vista fisico, in un mezzo non perfettamente elastico, il segnale sismico perde le componenti ad alta frequenza durante la propagazione nella sottosuperficie.

Riassumendo i concetti sopra elencati, per i soli scopi dell’ imaging sismico, le onde elastiche si propagano all’interno di un mezzo caratterizzato da lente variazioni di velocità e vengono riflesse in corrispondenza di anomalie locali di impedenza acustica.

L’obiettivo dell’imaging sismico è quello di ottenere un’immagine di riflettività ad “alta frequenza” (banda standard), ma ciò può essere ottenuto solo tramite la conoscenza della componente a bassa frequenza della velocità, che gioca un ruolo essenziale nel processo di imaging.

2.1.2 I principi dell’Imaging

L’immagine sismica (riflettività della sotto superficie) viene determinata tramite una sequenza di operazioni che permettono di elaborare le ampiezze del dato registrato: punto per punto. Essa si basa sui concetti di punto diffrattore e quello di shot gather (o common-shot) che costituiscono i mattoni di costruzione della sismica a riflessione. La creazione dell’immagine di riflettività, cioè del contrasto di impedenza della sotto superficie, comprende 3 step principali:

1. Back Propagation dei ricevitori; 2. Propagazione della sorgente;

3. Applicazione della condizione di Imaging;

“Per l’implementazione di questi 3 step, è necessario conoscere o stimare preliminarmente la velocità di propagazione del campo d’onda sismico nel mezzo”

Proseguendo nella trattazione, il perché di questa condizione necessaria sull’informazione a priori richiesta dal metodo diverrà molto più chiaro

(44)

44 2.1.3 Primo Step: back-propagation dei ricevitori

L’operazione di back propagazione dei ricevitori ha lo scopo di determinare a partire dal dato registrato in superficie, il campo riflesso in corrispondenza del punto diffrattore D che lo ha generato (relazione 2.1):

𝐜𝐚𝐦𝐩𝐨  𝐫𝐞𝐠  𝐢𝐧  𝐬𝐮𝐩.    ∆𝒑𝒔𝒖𝒑 𝒙,𝒛 = 𝟎, 𝒘       →         ∆𝒑𝒓𝒊𝒇𝒍 𝒘       𝒄𝒂𝒎𝒑𝒐  𝒓𝒊𝒇𝒍  𝒑𝒖𝒏𝒕𝒐  𝑫

(2.1)

Essenzialmente per back propagare l’intero campo d’onda dalla superficie al punto diffrattore D si esegue nel caso di mezzo omogeneo, un’integrazione dell’equazione d’onda oppure nel caso più generale un’integrazione di tipo numerico. Quest’ ultima procedura è attuabile, ma richiede un alto costo in termini di risorse computazionali, in quanto bisogna ottenere il campo sia ad ogni istante che in ogni punto dello spazio in cui si è propagato. Per tale motivo, al solo scopo di ottenere il campo sismico in corrispondenza del punto diffrattore, è preferibile usare la tecnica dell’integrale di Kirchhoff.

Essa permette di determinare il campo d’onda direttamente nel punto D conoscendo il campo d’onda nel tempo e all’interno di una data superficie ∑. Ciò viene effettuato sommando il contributo al campo proveniente da ciascuna sorgente 𝑆!(𝑡) all’interno di ∑ nel punto M. La somma viene pesata per una funzione di Green che agisce come una funzione di trasferimento del sistema, che possiede valori differenti in funzione della coppia  𝑆!  𝑒  𝐷 in esame. Questa formulazione del problema, è valida in entrambi i sensi, sia per il calcolo del campo che is è propagato dalla sorgente al punto D che per back propagare il campo registrato in superfice dai ricevitori, sino al punto D dello spazio nel quale la propagazione ha avuto luogo in passato. Le medesime funzioni di Green vengono usate nel calcolo della somma di Kirchhoff, sia nella back che nella propagazione in avanti delle sorgenti. Quindi si individua un punto D sul quale il campo registrato in superficie verrà propagato all’indietro, permettendoci di stimare il campo riflesso ∆𝑝!"#$ 𝑤 , nel punto considerato. In questo caso, risulta particolarmente utile far uso di una variante dell’integrale di Kirchhoff basata sul teorema di Rayleigh. Si consideri la superficie ∑ con estensione orizzontale infinita (z=0). L’integrale di

(45)

45

Rayleigh ci permette di calcolare il campo d’onda propagato in aventi e indietro (in pressione o velocità) in ogni punto del semispazio considerato, conoscendo il campo d’onda all’interno di questa superficie planare infinita. (fig 2.1)

Figura 2-1 Back propagation dei ricevitori tramite integrale e somma di Rayleigh;

L’integrale di Rayleigh per la back propagation del campo d’onda dalla superficie al punto diffrattore, viene implementato come di seguito:

• Usando i valori del campo di pressione, ∆𝑝!"# 𝑥,𝑧 = 0, 𝑤 misurati in superficie,

si calcola il valore del campo di pressione ri-emesso dal punto diffrattore D (∆𝑝!"#$ 𝑤 ) tramite una somma pesata di contributi provenienti da ciascun elemento infinitesimale del campo misurato in superficie;

• Le funzioni di pesatura sono date dalle funzioni di Green stimate tra i punti in superficie e il punto D.

• Ciascun contributo al campo misurato in superficie è caratterizzato da un tempo di “posizione” t, uguale a r/V nei mezzi omogenei (relazione lineare tra tempi e spazi, non è valido per mezzi non omogenei). Esso è diverso per ogni contributo, in quanto è diverso il rapporto r/V che dipende dalla posizione in superficie considerata (dipende dal percorso r) e dal punto diffrattore nella sottosuperficie;

Berkhout (1987) ha reso applicabile l’integrale di Rayleigh (in figura 2.1 e 2.2) permettendogli di calcolare il campo d’onda nel dominio di Fourier (∆𝑝!"#$ 𝑤 ) per un

(46)

46

campo d’onda compressionale (2D), registrato in una superficie ∑( una linea di acquisizione 2D) in un mezzo omogeneo nel quale D è sufficientemente lontano dalla superficie (assunzione far-field). L’integrale è espresso analiticamente dalla relazione:

     ∆𝒑𝒓𝒊𝒇𝒍 𝝎 = 𝒋𝒘 𝟐𝝅𝑽· ∆𝒑𝒔𝒖𝒑 𝒙,𝒛 = 𝟎, 𝒕 · 𝐜𝐨𝐬 ф 𝒓 !! !! · 𝒆 𝒋𝝎𝒓𝑽· 𝒅𝒙 (2.2)

V rappresenta la velocità di propagazione assunta costante all’interno della superficie considerata, ф è l’angolo di emersione al ricevitore ( l’angolo tra la direzione di emersione del campo d’onda e la verticale sul ricevitore) e r è la distanza tra il punto D e il ricevitore collocato in corrispondenza della coordinata x. Il primo termine moltiplicativo dell’integrando rappresenta il campo d’onda misurato in maniera continua (teoricamente) lungo la porzione di estensione infinita della coordinata x identificata dalla superficie Σ. La trasformazione dal dominio tempi al dominio delle frequenze, semplifica notevolmente la notazione e l’efficienza del calcolo. Infatti le operazioni di convoluzione vengono sostituite da semplici moltiplicazioni che dal punto di vista computazionale sono molto più veloci. Il campo d’onda in funzione del tempo può essere ottenuto a partire dal campo ∆𝑝!"#$ 𝑤 in funzione delle frequenze, tramite l’applicazione della trasformata inversa di Fourier. Con l’integrale 2.2, il campo registrato in superficie viene propagato all’indietro nel tempo e nello spazio direttamente nel punto D, senza calcolare il campo in ogni punto in cui si è avvenuta la

propagazione, ma direttamente nel punto D considerato. In tal modo, l’algoritmo è

molto più veloce e immediato, a differenza delle tecniche che si basano sull’integrazione dell’equazione d’onda che calcolano il campo in maniera iterativa dalla superficie sino al punto diffrattore. Nella relazione (2.2) le funzioni di Green (i pesi da attribuire a ciascun contributo al campo) nel caso di mezzo omogeno a velocità costante, possono essere calcolate analiticamente e sono caratterizzate da diversi termini con differente significato fisico:

(47)

47

• Un termine esponenziale che rappresenta il tempo di propagazione dalla superficie sino al punto D. Si ricordi che uno shift temporale nel dominio dei tempi è espresso come un esponenziale complesso nel dominio di Fourier: ∆𝑝(𝑤) · 𝒆𝒋𝒘𝒕  ∆𝑝 𝑡 ∗  𝛿(𝑡 + 𝜏);

• Da un termine di divergenza : !!   𝑑𝑖𝑣𝑒𝑟𝑔𝑒𝑛𝑧𝑎  𝑐𝑖𝑙𝑖𝑛𝑑𝑟𝑖𝑐𝑎  𝑖𝑛  2𝐷 ; • Un termine di direttività: cos(ф) (dipolo);

• Un termine moltiplicativo legato all’integrazione e uguale a 𝑗𝑤 .

La relazione 2.2, assume che il campo d’onda registrato in superficie sia una variabile continua della coordinata x e del tempo, che i ricevitori siano collocati su una superficie orizzontale e piatta e infine che il campo sia misurato lungo una distanza infinita. Difatti, l’integrazione è eseguita su un’estensione infinita delle coordinate. Nella pratica reale dell’acquisizione del dato sismico a riflessione, gli arrays di geofoni o idrofoni permettono di ottenere solo una registrazione del campo d’onda riemesso da D, lungo un’estensione spaziale e temporale discreta e limitata. Ciò si riflette direttamente sulla relazione (2.2) che di conseguenza diventa un’approssimazione della relazione teorica, cioè una sommatoria finita sugli N ricevitori (quindi su N coordinate x discrete) distanziati di ∆𝑥 (distanza finita) l’uno dall’altro. Quindi per un mezzo a velocità costante, l’integrale di Rayleigh che esprime il campo d’onda riflesso in D, diviene una sommatoria dei contributi discreti contenuti all’interno della superficie Σ , espressa dalla relazione: ∆𝒑𝒓𝒊𝒇𝒍 𝒘 = 𝒋𝒘 𝟐𝝅𝑽· ∆𝒑𝒔𝒖𝒑 𝒙𝒊, 𝒛 = 𝟎, 𝒕 · 𝐜𝐨𝐬 ф 𝒓𝒊 𝑵 𝒊!𝟏 · 𝒆𝒋𝒘𝒓𝑽𝒊· ∆𝒙 (2.3)

∆𝒑𝒔𝒖𝒑 𝒙𝒊, 𝒛 = 𝟎, 𝒕 sono le registrazioni del campo all’i-esimo ricevitore in superficie, posizionato alla coordinata 𝒙𝒊 lungo la linea di acquisizione. Quindi la somma non viene eseguita su uno stendimento di sensori di lunghezza e distribuzione infinita e continua, ma finita e discreta. La lunghezza dello stendimento è conosciuta con il nome di apertura. Essa purtroppo costituisce una limitazione che è impossibile da eludere nella

(48)

48

pratica, poiché non è possibile disporre di un array di registrazione con estensione infinita. Il limite imposto dall’apertura influisce direttamente sulla qualità (la

risoluzione) dell’immagine finale. La relazione 2.3, mostra che per una data frequenza

w nel dominio di Fourier, è possibile trovare il campo di pressione  ∆𝑝!"#$ 𝑤 tramite una somma pesata di registrazioni ognuna delle quali identificata dal tempo di propagazione dato dal rapporto 𝑟! 𝑣. Cioè viene determinata quella componente in frequenza w del campo d’onda riflesso ottenuta sommando tutte le componenti alla medesima frequenza, registrate in N punti della superficie, ognuna moltiplicata per un peso che dipende da determinate caratteristiche della propagazione da D alla superficie (o viceversa). Essa rappresenta lo spettro di ampiezza del campo d’onda riflesso in D nella banda di frequenze di interesse. I pesi dati a ciscuna traccia, saranno rappresentati dalla corrispondente funzione di Green:

𝐺! 𝑤 = 𝑗𝑤 2𝜋𝑉· 𝐜𝐨𝐬 ф 𝒓𝒊 · 𝑒 !"!!!· ∆𝑥        (2.4) ∆𝒑𝒓𝒊𝒇𝒍 𝒘 = ∆𝒑𝒔𝒖𝒑 𝒙𝒊, 𝒛 = 𝟎, 𝒕 · 𝑵 𝒊!𝟏 𝑮𝒊 𝒘        (2.5)

∆𝒙 diventa semplicemente un fattore scalare moltiplicativo che solitamente è costante nell’acquisizione sismica (bisogna prestare molta attenzione nel caso in cui esso sia irregolare). Nel caso di acquisizione 3D, esiste una formula simile per la somma di Rayleigh, ma l’apertura in questo caso definisce una superficie e non un segmento. Il semplice concetto d’intervallo di traccia (Δ𝑥) si trasforma nel concetto più raffinato di definire una zona di influenza della traccia. Nel caso di imaging 3D, il termine di integrazione diventa semplicemente jw e il termine di divergenza cilindrico si trasforma in un termine di divergenza sferico (1/r). La relazione (2.5) rappresenta la sommatoria di Kirchhoff per il calcolo del campo d’onda riflesso nel punto D calcolato effettuando una back propagation dei ricevitori.

(49)

49 2.1.4 Secondo Step: Propagazione della Sorgente

Al fine di ottenere come risultato finale la riflettività del punto D, in questo secondo step del processo di imaging, dobbiamo conoscere invece del campo riflesso, il campo incidente in D. In maniera analoga a quanto accade per la back propagation dei ricevitori, l’effetto della sorgente s(t) può essere calcolato eseguendo una propagazione in avanti da S (punto sorgente) sino a D. Portare a compimento tale compito richiede un’operazione di modeling della propagazione e come nel caso della B-P, la conoscenza del campo di velocità tra S e D.

Nel dominio di Fourier, questo processo è rappresentato dalla relazione:

∆𝒑𝒊𝒏𝒄 𝒘 =𝑨(ф)

𝒓𝒔 · 𝑺 𝒘 · 𝒆

!𝒋𝒘·𝒓𝑽𝒔      (2.6)

A differenza della propagazione all’indietro, non abbiamo una sommatoria su N valori del campo registrati in superficie, ma ancora una volta abbiamo gli stessi termini che caratterizzano la funzione di Green del problema, cioè la stessa modellizzazione dal punto di vista fisico della propagazione nel mezzo, essi sono:

• Il tempo di propagazione dalla sorgente S al punto D, uguale a  𝜏!"#$%& =!!! in

un mezzo omogeneo;

• Il termine di divergenza cilindrica (per un mezzo omogeneo 2D);

• Il termine direzionale della sorgente, 𝐴(ф), nel caso in cui la sorgente non emetta uniformemente in tutte le direzioni. Si può dedurre facilmente quanto sia

importante conoscere con un certo grado di approssimazione il pattern di emittività della sorgente.

La relazione 2.6 non è altro che il risultato di un’operazione di filtraggio nel dominio delle frequenze, sulla wavelet sismica della sorgente , nella quale la funzione di green rappresenta la funzione di trasferimento del “terreno”. Quindi il campo d’onda incidente in D non è altro che il campo d’onda emesso dalla sorgente modificato dalla propagazione da S in D.

(50)

50

2.1.5 Ultimo step: Applicazione della condizione di Imaging

Tramite la propagazione all’indietro dei ricevitori e in avanti della sorgente, è stato ottenuto il campo riflesso e il campo incidente nel punto D.

La condizione di Imaging definita da Claerbout (1976) afferma che :

“Nella sotto superficie si ha una riflessione, nel punto in cui il primo arrivo del campo d’onda discendente (emissione) coincide temporalmente con quello del

campo ascendente (riflessione).”

L’onda ascendente rappresenta il campo riflesso ottenuto back propagando i ricevitori mentre il campo discendente è rappresentato dal campo incidente ottenuto dalla propagazione in avanti della sorgente. Si tratta semplicemente di verificare se il coefficiente di riflessione R nel punto D sia diverso da zero e nel stimare il suo valore tramite la relazione:

𝑅 𝑤 =∆𝑝!"#$(𝑤)

∆𝑝!"#(𝑤)      ∀  𝑤        (2.7)

In un mondo ideale, il coefficiente R dovrebbe avere lo stesso valore per tutte le frequenze e quindi la sua anti trasformata di Fourier darebbe in uscita una delta di Dirac (Spike) di modulo R, cioè il coefficiente di riflessione in D. Ma nella realtà fisica, ciò non accade, poichè il coefficiente di riflessione è definito su una banda limitata di frequenze e quindi non è possibile ottenere uno spike, ma una sua versione con risoluzione temporale minore. Combinando le relazioni 2.5 e 2.6 per il campo riflesso e il campo d’onda incidente in D, si ha per un mezzo omogeneo:

𝑹 = 𝑺!𝟏 𝒘 · 𝒋𝒘 𝟐𝝅· 𝒘𝒊⋅ ∆𝒑𝒔𝒖𝒑 𝒙𝒊, 𝒛 = 𝟎, 𝒕 · 𝒆𝒋𝒘 𝒓𝒊!𝒓𝒔 𝑽   𝑵 𝒊!𝟏        ∀  𝒘      (2.8)

Riferimenti

Documenti correlati

utilizzando tutti gli indici del mercato azionario. Dalle loro analisi risulta, ad esempio, che per gli Stati Uniti il mese peggiore sia stato l’Ottobre 1987, quando il rendimento

Energy diagram is a good criterion to optimize the accuracy of determining propagation velocity by a migration algorithm.. Split Step Fourier, depth migration, could solve the

A control-based time synchronization mechanism for WSNs, called FLOPSYNC-QACS, was proposed for reducing the degradation effect due to quantization of both corrective actions

Il focus dell’acquisizione via web è sui dati elementari delle indagini correnti; l’ambito della rilevazione statistica dà luogo prevalentemente alla funzione di acquisizione

Trovare la relazione che lega le magnitudini  apparenti e le distanze  di due sorgenti aventi  la stessa magnitudine assoluta  (trascurare 

radiazione  è quindi dovuta  soltanto al materiale (gas e polvere) che si interpone fra  noi e l'oggetto emittente  (stella, galassia)       .. La luce

Nello scrivere la relazione fra m e d  m=−2.5 log L2,5 log 4 5 log

La freccia indica la posizione (ipotetica) del