• Non ci sono risultati.

Elaborazione di dati sismici terrestri per il calcolo di attributi pre e post stack

N/A
N/A
Protected

Academic year: 2021

Condividi "Elaborazione di dati sismici terrestri per il calcolo di attributi pre e post stack"

Copied!
91
0
0

Testo completo

(1)

Universit`

a degli Studi di Pisa

Facolt`

a di Scienze Matematiche, Fisiche e Naturali

Corso di Laurea in Geofisica d’Esplorazione ed Applicata

Tesi di Laurea Magistrale

Elaborazione di dati sismici terrestri per

il calcolo di attributi pre e post stack

Laureando: Luca Limonta

Relatore:

prof. Alfredo Mazzotti Correlatore:

dott. Andrea Tognarelli

(2)

Ringraziamenti

Il ringraziamento pi`u grande va sicuramente ai miei genitori, che oltre ad aver finanziato i miei studi hanno sempre riposto in me molta fiducia,

lasciandomi carta bianca in tutte le scelte di vita.

Assieme a loro ringrazio tantissimo tutta la mia famiglia: mia sorella Marina, nonna Mari, cugini e zii che mi hanno sempre sostenuto; sappiate che nonostante non sia quasi mai a casa, siete sempre un punto

di riferimento nella mia vita da vagabondo.

Un grazie infinito agli amici di Pisa che in questi due anni sono stati come una seconda famiglia;

agli amici di Bergamo, da sempre al mio fianco, pronti a rendere ogni mio rientro in “patria” speciale; la lontananza a noi ci fa un baffo!!! alla mia ex-ragazza Laura che, anche se ormai ex, mi sento di dover ringraziare per aver sempre creduto in me e avermi sostenuto in scelte

difficili;

a special thanks to all the friends that I met in Australia and during my trips around the world; we shared amazing and unforgettable experiences

that gave me a new way to live my life!

Infine un ringraziamento speciale al Prof. Mazzotti e ad Andrea per gli insegnamenti dati durante i due anni di laurea magistrale.

metto uno spazio bianco metto uno spazio bianco

(3)

Introduzione

L’elaborazione di dati sismici a riflessione `e di fondamentale importanza per la realizzazione di immagini del sottosuolo che rappresentino non so-lo le geometrie dei riflettori, ma anche le propriet`a fisiche delle formazioni geologiche. Grazie all’analisi interpretativa delle sezioni sismiche `e possibile quindi individuare specifiche zone d’interesse, caratterizzate dalla presenza di idrocarburi.

Con lo scopo di potenziare/integrare l’interpretazione geologica, sono state sviluppate delle tecniche di processing che permettono di estrapolare dai dati, informazioni aggiuntive riguardo i target esplorativi della sismica a riflessione. Tali tecniche o strumenti analitici vengono convenzionalmente indicati con il nome di Attributi Sismici e possono essere calcolati sia in dominio pre-stack che post-stack.

Nel lavoro di tesi, sono state affrontate le pi`u comuni problematiche che si riscontrano nell’elaborazione del dato sismico terrestre, nel caso in cui l’obiettivo finale sia quello di dover calcolare dal dataset i principali attri-buti sismici. In aggiunta, su alcuni di essi, `e stata eseguita un’analisi sul condizionamento del dato a partire da particolari operazioni di processing e di come la scelta dei parametri influenzi l’efficienza e l’attendibilit`a dei risultati.

Per quanto riguarda il dominio post-stack, sono stati calcolati i seguenti attributi: Fase Istantanea, Frequenza Istantanea, Ampiezza di Inviluppo e altre grandezze derivabili da essi; mentre l’analisi AVO (Amplitude Versus Offset ) `e stata effettuata nel dominio pre-stack (CMP Gathers). Quest’ul-timo in particolare, affinch´e risulti fisicamente attendibile, richiede un’e-strema attenzione nel preservare le ampiezze durante il processing del dato. Infatti, basandosi sul principio fisico secondo il quale, l’ampiezza del segnale

(4)

incidente varia al variare dell’angolo d’incidenza dello stesso, `e importante mantenere intatto tale contributo, evitando operazioni di filtraggio troppo invasive e rimuovendo effetti di attenuazione dovuti all’utilizzo di array in acquisizione o fenomeni di Surface Consistent.

Nello specifico `e stato elaborato un dato terrestre 2D acquisito tramite energizzazioni di tipo esplosivo. Come detto in precedenza l’elaborazione `e stata effettuata con l’obbiettivo primario di preservare le reali ampiezze del dato; per questo sono stati utilizzati accorgimenti ad hoc quali filtraggio tempo-offset variante per la rimozione di Ground Roll, correzioni statiche residuali, deconvoluzione predittiva tempo-offset variante e Surface Consi-stence Analysis Correction (SCAC) per l’eliminazione di effetti esterni sulle ampiezze, quali disaccoppiamenti dei geofoni o energizzazioni differenti fra sorgenti.

Inoltre per compensare attenuazioni dovute all’utilizzo di array di ricevitore `

e stato sviluppato un codice MATLAB che in funzione delle caratteristiche di acquisizione stima il filtro di array e ne compensa gli effetti di attenua-zione tramite un filtraggio inverso.

La tesi `e divisa in quattro capitoli, il primo si propone di analizzare dal punto di vista teorico e applicativo, tutti gli step che caratterizzano una sequenza di processing finalizzata allo studio degli attributi. Il secondo ca-pitolo si sofferma sul problema dell’attenuazione causata dall’utilizzo degli array di ricevitore e illustra il codice sviluppato.

Negli ultimi due capitoli vengo calcolati gli attributi sismici Complessi e AVO, rispettivamente in domino post-stack e pre-stack.

Infine a conclusione della tesi saranno individuate le zone in cui gli indica-tori sismici studiati, forniscono un alto grado di confidenza sulla possibile presenza di accumuli di gas.

(5)

Indice

1 Elaborazione Dato 6

1.1 Introduzione al Dato e Parametri di Acquisizione . . . 6

1.2 Flow di Elaborazione . . . 7

1.3 Editing . . . 10

1.3.1 Filtraggio Monocanale . . . 10

1.3.2 Rimozione 50Hz . . . 10

1.3.3 Rimozione tracce molto rumorose . . . 11

1.4 Correzioni Statiche . . . 14

1.4.1 Generalize Linear Inversion (GLI) . . . 15

1.4.2 Calcolo delle correzioni statiche . . . 18

1.5 Rimozione Ground Roll . . . 20

1.5.1 Filtraggio Tempo-Offset Variante . . . 21

1.5.2 Risultati rimozione Ground Roll . . . 23

1.6 Muting . . . 25

1.7 Recupero Ampiezze . . . 25

1.8 Analisi Velocit`a . . . 27

1.9 Surface Consistent Amplitude Correction . . . 30

1.9.1 Calcolo SCAC . . . 30

1.9.2 Rimozione Tracce Rumorose . . . 35

1.10 Deconvoluzione Predittiva . . . 37

1.10.1 Analisi Autocorrelazione e scelta dei parametri di Deconvoluzione . . . 37

1.10.2 Applicazione Filtro di Deconvoluzione . . . 39

1.11 Correzioni Statiche Residuali . . . 41

1.11.1 Cenni Teorici . . . 41

(6)

2 Filtraggio Inverso di Array 46

2.1 Descrizione Array . . . 46

2.2 Filtro Inverso . . . 52

2.3 Descrizione Filtro . . . 53

2.4 Applicazione al dato reale . . . 54

2.4.1 Calcolo Angolo di Emersione . . . 54

2.4.2 Finestratura . . . 57

2.4.3 Stima Filtro Inverso . . . 57

2.4.4 Elaborazione dato . . . 60

3 Amplitude Versus Offset 62 3.1 Introduzione . . . 62 3.2 Cenni Teorici . . . 62 3.3 Calcolo AVO . . . 67 3.4 Interpretazione AVO . . . 71 3.4.1 Riflettore 1 . . . 71 3.4.2 Riflettore 2 e 3 . . . 73

3.5 Effetti del processing sugli AVO . . . 75

4 Attributi Complessi 78 4.1 Introduzione . . . 78

4.2 Cenni Teorici . . . 78

4.3 Significato degli Attributi Complessi . . . 80

4.4 Calcolo e Analisi Attributi Complessi . . . 82

(7)

Capitolo 1

Elaborazione Dato

1.1

Introduzione al Dato e Parametri di

Ac-quisizione

Il dato in esame `e stato acquisto in nord Italia a sud-est della Pianura Padana, in totale comprende una griglia di diverse linee sismiche 2D terre-stri, acquisite in campagne differenti comprese tra il 1984 e il 1993.

La campagna di esplorazione sismica ha portato alla scoperta di un re-servoir di gas, questo il principale motivo per cui si studiano gli attributi sismici.

In particolare, durante il lavoro di tesi viene presa in esame una sola linea sismica orientata NW-SE, che attraversa una formazione geologica di interesse esplorativo a causa della presenza accertata di gas. In tabella 1.1 sono visibili i parametri di acquisizione.

Dai parametri elencati possiamo calcolare la massima copertura nomi-nale (Fold) di:

F old = 1 2 ·

N · G

S = 20 (1.1)

con N numero di gruppi, G group interval, S source interval.

(8)

nomi-Tabella 1.1: Parametri di Acquisizione

Low cut filter: 10 Hz High cut filter: 125 Hz

Sample rate: 2 ms

Record length: 8000 ms Energy source: Dynamite Average Charge Size: 5 kg Average Charge depth: 35 m Number of holes per SP: 1 Number of groups: 120 Average Souce Interval: 120 m Group Interval: 40 m Tipe of Acquisition: Split Spread Geophones per group: 24

nali sono diversi da quelli reali, infatti ostacoli quali edifici e strade posso modificare distanze sorgenti e ricevitori e di conseguenza la copertura sar`a diversa da quella calcolata.

Nello specifico, grazie alla conoscenza delle coordinate di sorgenti e ricevi-tori (vedi figura 1.1) `e stato possibile ricostruire la reale copertura (figura 1.2) della linea sismica studiata. Inoltre anche la lunghezza reale differisce da quella nominale e viene misurata in 14,6 Km.

1.2

Flow di Elaborazione

L’elaborazione del dato viene eseguita con lo scopo di effettuare una anali-si AVO (Amplitude Versus Offset ), che conanali-siste nel misurare la variazione d’ampiezza del segnale all’aumentare dell’offset e quindi dell’angolo di in-cidenza del raggio sismico con il riflettore.

Le fasi di elaborazione cercheranno dunque di preservare il pi`u possibile le ampiezze originali del segnale.

(9)

Nella pagina seguente `e possibile vedere una schematizzazione di tutto il flusso di elaborazione, i cui punti princiali sono argomentati nelle pagine successive. 0 2 4 6 8 10 12 14 0 1 2 3 4 5 6 7 8 9 Geometrie di acquisizione Est [Km] Nord [Km] Ricevitori Sorgenti

Figura 1.1: Disposizione geofoni e sorgenti

(10)

Editing

Correzioni Statiche

Rimozione Ground Roll

Muting AGC

Analisi Velocit`a 1

Geometrical Spreading

Rimozione Tracce Rumorose

Surface Consistent Amplitude Analysis

Deconvoluzione Predittiva

Analisi Velocit`a 2

Normal Move Out Correction

Statiche Residuali

Filtro Inverso Array

AVO Analysis

AVO Attribute

Stack

(11)

1.3

Editing

Trattandosi di dati terrestri `e molto facile trovare tracce affette da rumore ambientale o disturbi di vario genere, `e quindi necessario un controllo pre-liminare sulla qualit`a del dato.

I disturbi pi`u comuni sono causati per esempio dalla vicinanza a strade o centri abitati, cattivo accoppiamento dei ricevitori, o problemi di tipo elettronico.

1.3.1

Filtraggio Monocanale

Come prima operazione di elaborazione si esegue un filtraggio passabanda su tutte le tracce del dato. In questa fase vogliamo eliminare tutte le fre-quenze fuori il range dinamico della strumentazione, che come si osserva nella tabella 1.1 va da 10 a 125 Hz.

Di conseguenza il filtro ha le seguenti specifiche: - Low cut ramp: 3-9 Hz

- Hight cut ramp: 125-150 Hz

1.3.2

Rimozione 50Hz

Analizzando i dati, si nota che numerose tracce presentano una componente di rumore a 50 Hz, lungo tutta la registrazione. La causa di questo disturbo `

e facilmente attribuibile alla vicinanza a linee di alta tensione, oppure a problemi di alimentazione delle schede di acquisizione.

Per l’eliminazione di questo rumore si `e scelto di utilizzare un filtro notch centrato a 50 Hz, con una larghezza arresta banda di 2 Hz.

Da segnalare che le tracce affette da questo disturbo avevano come campo di header lo stesso RIN (Receiver Index Number) quindi provenivano dagli stessi geofoni. Questo ha permesso un facile raggruppamento delle tracce da correggere.

In figura 1.3 si pu`o osservare il segnale e il relativo spettro medio di un raggruppamento di tracce provenienti tutte dallo stesso geofono (RIN 300). Si vede chiaramente che lo spettro presenta un picco di ampiezza a 50 Hz. In figura 1.4 si osserva lo stesso raggruppamento dopo il filtraggio, anche

(12)

senza guardare lo spettro risulta evidente che le tracce sono state ripulite dal disturbo.

Figura 1.3: Dati e spettro ricevitore ID con 300

Figura 1.4: Dati e spettro ricevitore ID con 300 dopo filtraggio

1.3.3

Rimozione tracce molto rumorose

Visualizzando i dati in dominio Common Shot `e parso molto evidente la presenza di tracce contaminate da forte rumore, causato probabilmente da

(13)

disturbi ambientali o geofoni danneggiati.

Un esempio lo possiamo osservare in figura 1.5 dove alcuni canali sono chia-ramente molto disturbati, inoltre osservando l’analisi spettrale nel tempo (spettro F-T ) si vede che in tali canali l’ampiezza del rumore `e uniforme-mente distribuita sia nei tempi che nelle frequenze e quindi la sua rimozione tramite filtraggio monocanale tempo variante risulta impossibile .

Per questo motivo si `e deciso di proseguire con l’eliminazione manuale di tutte le tracce visibilmente compromesse.

Il numero di tracce rimosse manualmente durante questa fase `e di 431 su 10637 totali; nelle fasi successive si vedr`a come altrettante tracce ver-ranno rimosse tramite un metodo automatico.

(14)
(15)

1.4

Correzioni Statiche

Le correzioni statiche sono una fase del processing che consiste nel traslare temporalmente le tracce di un ∆t tale da eliminare effetti dovuti a:

• Differenze di quota tra sorgente e ricevitori;

• Strato superficiale di dimensioni e velocit`a variabili.

Per raggiungere l’obiettivo si cerca di portare sorgenti e ricevitori ad una quota di riferimento comune Datum . La rappresentazione in figura 1.6 aiuta a capire meglio il concetto.

Datum Rifrattore Superficie

Vw

Vb

Figura 1.6: Tipico esempio di acquisizione terrestre in cui la sorgente e i ricevitori si trovano su di una superficie topologica complicata

Come `e facilmente intuibile per effettuare la traslazione `e necessario conoscere la velocit`a dello strato superficiale (areato) Vw, la sua profondit`a

Zw e la velocit`a del rifrattore Vb.

L’assunzione a un singolo strato non `e corretta quando ci sono affioramen-ti o strutture geologiche con bruschi cambiamenaffioramen-ti laterali di composizione [Yilmaz, 2001], ma nella maggior parte dei casi, come anche nel caso studia-to, ci si trova in situazioni pi`u favorevoli che consentono l’approssimazione.

Per eseguire le correzioni statiche si `e utilizzato un algoritmo che con-sente la stima dei parametri della struttura superficiale Vw,Zw,Vb e i relativi

valori di traslazione temporale per ogni sorgente e ricevitore tramite l’in-versione ai minimi quadrati che verr`a illustrata di seguito.

(16)

1.4.1

Generalize Linear Inversion (GLI)

In riferimento a Hampson et al. [1984] la formulazione generale del pro-blema prevede che i tre parametri citati al paragrafo precedente possano variare; tuttavia per semplificare la linearizzazione del problema si conside-ra nota la velocit`a dell’aerato, in modo da dover ricavare solamente velocit`a e profondit`a del rifrattore. La velocit`a dell’aerato `e stimabile tramite prove in sito o lo studio degli arrivi diretti.

Considerando un rifrattore poco inclinato come in figura 1.7, ricaviamo il tempo t0ij del raggio dalla sorgente Sj al ricevitore Ri come:

t0ij = SjB Vw +DE − DB − CE Vb + CRi Vw (1.2) il primo e terzo termine dell’equazione 1.2 sono associati al parametro Vw che `e noto, raggruppando in modo diverso la precedente equazione

ricaviamo [Farrell and Euwema, 1984]:

t0ij = SjB Vw − DB Vb  + CRi Vw − CE Vb  +DE Vb = zjpV 2 b − Vw2 VbVw + zipV 2 b − Vw2 VbVw + xij Vb = Tj + Ti+ sbxij (1.3) dove sb = 1/Vb .

Per comprendere meglio l’algoritmo facciamo un semplice esempio ba-sato sullo schema in figura 1.8.

(17)

Figura 1.7

Figura 1.8

Dalla 1.3 i percorsi da ogni sorgente a ogni ricevitore saranno: t01,1 = Ts1+ Tr1 + sbx1,1 t01,2 = Ts1+ Tr2 + sbx1,2 t01,3 = Ts1+ Tr3 + sbx1,3 t01,4 = Ts1+ Tr4 + sbx1,4 t02,1 = Ts2+ Tr1 + sbx2,1 .. . t02,4 = Ts2+ Tr4 + sbx2,4

(18)

quindi riscrivendo il problema in forma matriciale, abbiamo: dpre = Gm (1.4)       t01,1 t01,2 .. . t02,4       =       1 0 1 0 0 0 x1,1 1 0 0 1 0 0 x1,2 .. . 0 1 0 0 0 1 x2,4                    Ts1 Ts2 Tr1 Tr2 Tr3 Tr4 sb              (1.5)

con il vettore dpre lungo n = 8 elementi, il vettore dei parametri lungo

m = 7 elementi e la matrice G di dimensioni m × n.

Questo ci conferma che il sistema `e risolvibile, in quanto abbiamo un nu-mero di equazioni superiore alle incognite.

Ricordando che i dati osservati dosb si ottengono dal picking dei primi arrivi

delle onde rifratte, minimiziamo la norma L2 dell’errore tra dati osservati

e dati predetti:

min(||e(m)||22) = min(||dobs− dpre||22) = min(||dobs− Gm||22) (1.6)

otteniamo cos`ı i parametri del modello:

m = (GTG)−1GTdobs (1.7)

Come visto in equazione 1.3:

Ti =

zipVb2 − Vw2

VbVw

(1.8)

quindi per ogni sorgente e ricevitore possiamo ora stimare la profondit`a zi:

zi = Ti

VbVw

pV2 b − Vw2

(19)

1.4.2

Calcolo delle correzioni statiche

L’algoritmo necessita come input il picking dei primi arrivi e una tabella contenente le tracce che fanno parte del rifrattore.

Il picking dei primi arrivi `e stato eseguito tramite un metodo automatico che analizza l’ampiezza di inviluppo della traccia e la confronta con quella media di una finestra impostata; funziona particolarmente bene con sor-genti esplosive come nel nostro caso. Da sottolineare che `e stato necessario un controllo di qualit`a manuale a posteriori.

Altro parametro di input per il calcolo delle correzioni statiche `e la velocit`a dello strato superficiale Vw. Questa `e stata impostata a 1500 m/s

dalla sorgente 1 alla 48, 1400 m/s dalla sorgente 49 alla 60 e 1300 m/s per le rimanenti sorgenti. Le velocit`a sono state ricavate dall’analisi degli arrivi diretti alle varie stazioni.

Il datum in questo caso `e stato posto a 0 m questo per evitare di traslare troppo le tracce e provocare errori di disallineamento tra le riflessioni. Ponendo un datum troppo profondo infatti si rischierebbe che le incertezze sui vari parametri impostati in precedenza causino un errore elevato sulla stima dei tempi di traslazione.

Osservando i risultati in figura 1.9 si nota che le correzioni statiche sono molto lievi, questo perch`e il dato in esame `e stato acquisito in una zona pianeggiante e il dislivello massimo tra sorgenti e ricevitori `e di 10 m.

In figura 1.10 e 1.11 si visualizza rispettivamente la profondit`a e velocit`a del rifrattore. La profondit`a si aggira attorno ai 90 m mentre la velocit`a rimane pi`u o meno stabile intorno a 1715 m/s, senza presentare brusche variazioni.

(20)

Figura 1.9: Correzioni temporali applicate a sorgenti (rosso) e ricevitori (blu)

(21)

Figura 1.11: Profilo di velocit`a rifrattore

1.5

Rimozione Ground Roll

Il Ground Roll `e un disturbo che si verifica in acquisizioni di tipo terrestre; `

e causato dalle onde di Rayleigh, ovvero onde elastiche che viaggiano in superficie, generate dall’interazione tra onde P e onde S.

Questo tipo di disturbo `e tipicamente caratterizzato da basse frequenze temporali e basse velocit`a; di conseguenza in dominio F-K segue tenden-zialmente un andamento lineare con bassa pendenza.

Per attenuare questo disturbo e soprattutto per evitare aliasing spaziale, si utilizzano gli array di ricevitore o sorgente. Questi consentono di filtra-re spazialmente arrivi con forti inclinazioni; una trattazione pi`u completa dell’argomento la si pu`o trovare al capitolo 2.

Gli array solitamente non sono sufficienti a rimuovere tutto il Ground Roll, per questo motivo nelle procedure di elaborazione standard si ricorre all’uso di filtraggio 1D e 2D.

Nel caso in analisi si `e preferito non utilizzare un filtro bidimensionale in quanto agisce in modo invasivo sul segnale modificando le ampiezze, non solo del Ground Roll ma di tutti gli eventi che si mappano (in dominio F-K) in una zona limitrofa.

Si `e deciso quindi di rimuovere questo disturbo tramite un filtraggio tempo-offset variante mirato.

(22)

1.5.1

Filtraggio Tempo-Offset Variante

Prima di eseguire il filtraggio `e stato necessario studiare e comprendere al meglio la posizione e le frequenze occupate da Ground Roll; visualizzato lo spettro medio del segnale all’interno di una determinata finestra T-X. In figura 1.12 si osserva questa operazione e si nota chiaramente che la finestra selezionata in blu, quella sulla quale viene calcolato lo spettro a fianco, contiene Ground Roll che si posiziona attorno ai 10-12 Hz.

Analizzando invece una zona vicina ma non contaminata da onde superfi-ciali (in giallo in figura), si nota che la maggior parte dell’energia si colloca tra circa 15Hz e 30 Hz.

Figura 1.12: Interactive Spectral Analysis, i riquadri colorati indicano le zone in cui sono stati calcolati gli spettri a fianco

Come sappiamo le riflessioni sismiche subiscono l’attenuazione delle alte frequenze con l’aumentare della profondit`a; dunque in zone superficiali si distinguono facilmente le frequenze occupate da segnale e da Ground Roll. Al contrario scendendo in profondit`a il segnale buono tende a occupare sempre pi`u le basse frequenze andando a sovrapporsi al Ground Roll.

(23)

Colore Filtro Tipologia Rampa (Hz) Rosso Passa Alto 15-20 Arancio Passa Alto 14-18 Verde Passa Alto 13-17 Giallo Passa Alto 12-15 Blu Passa Alto 10-13 Celeste Passa Alto 8-11

Tabella 1.2: Tabelle parametri filtri per rimozione Ground Roll

Fortunatamente il disturbo si attenua abbastanza rapidamente quindi pur rimanendo a basse frequenze ha un apporto energetico sempre minore fino ad arrivare attorno ai 3000 ms in cui `e quasi inesistente.

Tenendo conto di tutti i fattori sopra elencati, sono stati disegnati 6 filtri, le cui caratteristiche e posizioni sono riportate in tabella 1.2 e figura 1.13. Come si osserva si `e cercato di essere pi`u aggressivi nelle zone super-ficiali e a offset corti. In modo graduale passando a tempi maggiori e offset pi`u lunghi i filtri si spostano sempre pi`u verso le basse frequenze.

Da segnalare il fatto che i filtri non passano in modo rigido da una finestra all’altra, ma in modo regolare.

(24)

1.5.2

Risultati rimozione Ground Roll

In figura 1.14 e 1.15 `e mostrato un confronto tra i dati appartenenti allo shot no29 prima e dopo il filtraggio.

Appare evidente che il Ground Roll `e stato in gran parte rimosso. Inoltre le riflessioni nella zona filtrata sono ora molto pi`u visibili, invece quelle pi`u esterne sono rimaste invariate.

La figura 1.16 conferma quanto detto prima, infatti lo spettro F-K esi-bisce un chiaro miglioramento del rapporto segnale-rumore nell’area in cui tipicamente si localizza il Ground Roll. Inoltre, i segnali che occupavano nello spettro F-K la stessa zona del Ground Roll sono rimasti inalterati anche dopo il filtraggio.

Se avessimo utilizzato un filtro bidimensionale avremmo dovuto sceglie-re una zona dello spettro F-K da eliminasceglie-re completamente; questa opera-zione sarebbe stata molto brutale e avrebbe compromesso le ampiezze delle riflessioni.

(25)

Figura 1.15: Shot no 29, dopo il filtraggio

Figura 1.16: Confronto spettro F-K shot 20, prima del filtraggio (sinistra) e dopo il filtraggio (destra)

(26)

1.6

Muting

L’operazione di Muting consente di rimuovere la parte di segnale che ap-partiene ad arrivi diretti e rifratti, in questo modo tutte le successive fasi di elaborazione riguarderanno solamente le riflessioni.

Il modulo utilizzato consente di azzerare il segnale che si trova a tempi minori di un determinato valore temporale. Questo valore viene letto in una tabella creata eseguendo il picking dei dati generalmente in dominio common shot.

Un altro parametro importante da impostare `e la rampa con la quale si azzera il segnale. Nel caso in analisi si `e deciso di utilizzare una ram-pa di 30ms, questa `e necessaria perch`e altrimenti sarebbe come finistrare il segnale con una finestra rettangolare, incappando in problemi di ripple dell’ondina.

1.7

Recupero Ampiezze

Il recupero delle ampiezze `e una fase del processing che consente di compen-sare l’attenuazione del fronte d’onda che si propaga nel sottosuolo. Questo permette di ottenere una maggiore stabilit`a dell’ondina, fondamentale per i successivi step di elaborazione.

Esistono varie metodologie che consentono il recupero delle ampiezze, es-se possono eses-sere di tipo statistico come l’AGC (Automatic Gain Control) oppure deterministico.

Come prima operazione `e stato eseguito il guadagno AGC utilizzando una finestra di 800ms, la dimensione `e stata scelta facendo diversi tentativi e utilizzando il parametro che manteneva pi`u visibili le riflessioni (finestra lunga), ma allo stesso tempo consentiva un guadagno sufficiente (finestra corta). Il dato cos`ı ottenuto `e stato poi utilizzato per trovare un modello di velocit`a preliminare.

La conoscenza delle velocit`a, seppure approssimate, `e necessaria per effet-tuare un recupero delle ampiezze che tenga conto dell’attenuazione di un campo d’onda che si propaga in un mezzo stratificato e che quindi subisce

(27)

OPERAZIONE INPUT OUTPUT AGC Dato1 Dato2

Analisi Velocit`a Dato2 Vel1

Recupero Ampiezza Dato1, Vel1 Dato3

Analisi Velocit`a Dato3 Vel2

Recupero Ampiezza Dato1, Vel2 Dato4

Tabella 1.3

geometrical spreading.

Dato che il fine ultimo di questa elaborazione `e quello di ricavare gli AVO e quindi preservare le ampiezze del segnale, si `e deciso di utilizzare i dati ottenuti dopo il recupero deterministico delle ampizze per ricavare un modello di velocit`a pi`u accurato e rieseguire il recupero delle ampiezze sul dato originale.

In tabella 1.3 sono schematizzate le operazioni eseguite.

In figura 1.17 viene messo a confronto lo shot no 30 prima e dopo il

processo di recupero ampiezze.

Si nota chiaramente che le riflessioni ora sono molto pi`u evidenti lungo tutti i tempi, inoltre si vede come anche il rumore (offset -1500m) viene amplificato; sar`a quindi necessaria una nuova fase di controllo delle tracce rumorose.

(28)

Figura 1.17: Immagine originale a sinistra e immagine con recupero ampiezze a destra

1.8

Analisi Velocit`

a

L’operazione di analisi velocit`a permette di ottenere un modello di velocit`a necessario per eseguire diverse operazioni di elaborazione; essa consiste nel trovare un’iperbole sintetica che in dominio CDP fitti la reale iperbole di riflessione.

In equazione 1.10 si osserva che l’iperbole `e definita dai parametri Ve-locit`a di Stack Vs e Tempo intercetto T0; il software crea svariate iperboli

sintetiche con diverse velocit`a di prova per ogni T0 e ne calcola il valore di

Semblance. Tx2 = T02+ x 2 V2 S (1.10) Cos`ı facendo per ogni CDP ad ogni T0 abbiamo un valore di coerenza

per ogni velocit`a provata. Tramite questo metodo si ottiene la mappa di coerenza visibile in figura 1.18. La velocit`a corretta sar`a quella che genera il valore di coerenza maggiore, quindi piccando i massimi di coerenza si ottiene il valore di velocit`a che meglio rappresenta le iperboli.

(29)

Figura 1.18 Da sottolineare il fatto che il

mo-dello di velocit`a che si ricava da questa operazione non corrispon-de alla reale velocit`a del sottosu-lo, ma `e semplicemente una sti-ma dei valori che permettono di raddrizzare le iperboli di riflessio-ne, quindi corrisponde alla velo-cit`a VRM S scalata di un fattore

cos θ dove θ `e l’angolo di inclina-zione del riflettore con la superfi-cie.

Solitamente per migliorare il rapporto segnale-rumore i valori di coerenza vengono ricavati su pi`u CDP uniti, questa operazione con-siste nella creazione dei Supergha-ter. Il numero di CDP da unire vie-ne deciso in funziovie-ne della pendenza delle riflessioni. Questa viene

valu-tata dopo una rapida analisi di velocit`a chiamata Constant Velocity Ana-lysis, l’operazione consiste nell’eseguire la correzione di NMO utilizzando diversi valori di velocit`a costante. In questo modo provando tante velo-cit`a diverse si riesce ad avere un’idea delle pendenze alle varie profondit`a e quindi anche il numero e il passo con cui unire i CDP.

Nel caso in analisi `e stato scelto di raggruppare 5 CDP alla volta con un passo di 7 CDP, in figura 1.19 si osserva uno schema che pu`o aiutare a chiarire il concetto.

I modelli di velocit`a ottenuti tramite questa tecnica hanno subito uno smoothing e un’interpolazione, in modo tale da avere un valore di velocit`a per ogni CDP e non solo per quelli corrispondenti al centro del superghater. L’operazione di analisi velocit`a `e stata eseguita pi`u volte successivamente

(30)

CDP Increment = 7 CDP ensemble = 5

Figura 1.19: Il pallino Nero indica il CDP centrale, quelli grigi sono i CDP che vengono uniti e associati a quello centrale, i pallini bianchi

rappresentano i CDP che non vengono presi in considerazione

alle varie fasi di processing che miglioravano la qualit`a del dato.

In figura 1.20 si osserva il modello di velocit`a finale dopo le Correzioni statiche residuali (che verranno trattate successivamente).

(31)

1.9

Surface Consistent Amplitude

Correc-tion

L’ampiezza di ogni traccia dipende dalla combinazione di numerosi fattori, pensiamo per esempio alla quantit`a di esplosivo utilizzata per ogni shot che pu`o essere differente, oppure all’accoppiamento dei singoli ricevitori con il terreno o lo strato di suolo su cui si spara e si riceve che pu`o essere parti-colarmente assorbente.

Sarebbe impossibile riuscire a separare in modo deterministico tutti questi fattori, per questo si studiano in modo statistico le caratteristiche di am-piezza che accomunano tutte le tracce provenienti per esempio dallo stesso shot e ricevitore. In questo modo si riesce a compensare le differenze fra le tracce dovute ai fattori citati prima.

L’utilizzo delle SCAC nello studio degli AVO `e fondamentale, infatti `

e necessario che le ampiezze non varino in funzione della sorgente o del ricevitore a cui appartengono, ma solo in funzione dell’offset e delle carat-teristiche fisiche dei riflettori.

1.9.1

Calcolo SCAC

Le tre operazioni principali che vengono eseguite sono:

1. Analisi Ampiezza: stima i valori di ampiezza di ogni traccia, calco-lando l’RMS di tutti i campioni diversi da zero che si trovano all’in-terno di un time gate definito. Il time gate `e visualizzabile in figura 1.21 ed `e stato scelto selezionando la zona che comprende i target, tra i 1000 e 2600ms. Il risultato di questa analisi `e visualizzabile in figura 1.22 (grafico Blu); si notano parecchi outliers dovuti alla pre-senza di tracce molto rumorose, per questo sono state eliminate con un metodo automatico illustrato nel paragrafo successivo, da ora in poi vengono considerate solo le tracce rappresentate in rosso.

2. Calcolo SCAC: in funzione dei valori di ampiezza ricavati al punto precedente, viene calcolato in modo statistico la componente che ogni

(32)

Sorgente, Ricevitore, Offset e CDP ha sulle ampiezze delle tracce. In figura 1.23 si osserva come per esempio le prime sorgenti sono pi`u energetiche delle ultime.

3. Applicazione SCAC: i risultati ottenuti al punto precedente ven-gono applicati alle tracce correggendole solo in funzione della compo-nente Sorgente e Ricevitore, infatti se modificassimo anche in funzio-ne della compofunzio-nente offset e CDP si andrebbe a corrompere proprio quelle informazioni che cerchiamo; ovvero il comportamento dell’am-piezza con l’offset.

In questa fase l’algoritmo moltiplica per la funzione guadagno Gain = 1/(SRC ∗RCV R) i campioni delle relative tracce, dove SRC e RCV R sono rispettivamente i valori di sorgenti e ricevitori ottenuti al punto due.

(33)

L’algoritmo `e stato eseguito due volte, quindi avremo in totale tre ver-sioni di analisi delle SCAC, una dei dati originali, una dei dati modificati al primo ciclo e una dei dati modificati per la seconda volta e che verranno utilizzati nelle succesive fasi di elaborazione. Nelle seguenti immagini le tre versioni verranno rappresentate rispettivamente in verde, blu e rosso. In figura 1.24 e 1.25 si osserva come il risultato finale in rosso tende a 1, questo `e molto positivo perche significa che le componenti Surface Consi-stence di sorgenti e ricevitori sono state equalizzate.

Inoltre risulta chiaro il motivo per cui `e stato eseguito due volte l’algoritmo, infatti alla prima esecuzione vengono livellati i valori, alla seconda vengono modificate le piccole variazioni in modo da ottenere il miglior risultato.

Figura 1.22: Valori di Ampiezza RMS per ogni traccia, in Blu originali, in Rosso dopo eliminazione tracce rumorose

´

E stato eseguito un controllo anche sulle componenti CDP e Offset delle SCAC, in modo da verificare che l’operazione non abbia modificato troppo queste due componenti. In figura 1.26 e 1.27 si osserva il risultato di questo ultimo controllo, il quale conferma la buona riuscita dell’operazione.

(34)

Figura 1.23: SCAC Sorgenti

Figura 1.24: SCAC Sorgenti, in verde dati originali, in blu dati dopo la prima correzione, in rosso dati dopo la seconda correzione

Figura 1.25: SCAC Ricevitori, in verde dati originali, in blu dati dopo la prima correzione, in rosso dati dopo la seconda correzione

(35)

Figura 1.26: SCAC CDP, in verde dati originali, in rosso dati dopo la seconda correzione

Figura 1.27: SCAC Offset, in verde dati originali, in rosso dati dopo la seconda correzione

(36)

1.9.2

Rimozione Tracce Rumorose

Come visto nel paragrafo 1.7, il recupero delle ampiezze ha permesso di notare con pi`u facilit`a che ancora molte tracce presentano disturbi consi-stenti. Dato che il calcolo degli AVO `e molto sensibile a minime variazioni di ampiezza, dobbiamo essere sicuri che tutto quello che viene preso in con-siderazione sia segnale utile.

Per questo motivo `e stato ideato un metodo automatico per la rimozione di tracce che presentano valori di ampiezza completamente fuori dalla pos-sibile scala di valori attendibili.

In particolare sfruttando il calcolo delle ampiezze RMS eseguito per le SCAC, si sono eliminate tutte le tracce che superavano pi`u di 2 volte e mezzo la media delle ampiezze RMS. Cos`ı facendo si sono eliminati gli ou-tliers in figura 1.22, lasciando solo le tracce in rosso.

Da segnalare che questa fase `e stata eseguita prima dell’esecuzione delle SCAC.

In figura 1.28 si mettono in comparazione due immagini stack della zona di interesse. Nella immagine pi`u in basso sono state eliminate le tracce utilizzando il metodo appena descritto. Si nota che dopo l’eliminazione non ci sono pi`u quei CDP molto disturbati a tutti i tempi.

Il numero di tracce eliminate in questa fase `e di 715, che sommandosi alle 431 eliminate manualmente fa un totale di 1146 tracce su 10637 totali ovvero il 10,77 %.

(37)

Figura 1.28: Comparazione immagine Stack prima della rimozione del rumore (in alto) e dopo (in basso)

(38)

1.10

Deconvoluzione Predittiva

La deconvoluzione predittiva `e un’operazione che consiste nel trovare un filtro numerico tale che, se convoluto con il segnale va ad eliminare una parte della autocorrelazione del segnale stesso. In questo modo riusciamo a rimuovere riverberazioni responsabili di perdita di risoluzione.

Un tipico esempio applicativo `e nel processing di dati marini per la rimo-zione delle multiple.

In applicazioni di tipo terrestre, come nel nostro caso, viene utilizzata perch`e permette di agire sul segnale in modo mirato e poco invasivo, pre-servando forma e ampiezza dell’ondina e rimuovendo segnale riverberante che va a sommarsi alle riflessione contaminandone le ampiezze.

´

E quindi facilmente intuibile l’importanza di questo step del processing per una buona analisi AVO.

1.10.1

Analisi Autocorrelazione e scelta dei

parame-tri di Deconvoluzione

In figura 1.30 sinistra, si osserva l’autocorrelazione delle tracce in dominio common-shot. Si pu`o notare che ci sono parecchie riverberazioni di breve periodo che interessano il dato ed in particolare i primi 250ms; il nostro obiettivo `e quello di rimuoverle, lasciando il picco di massima autocorrela-zione contenente le sole riflessioni primarie. Vogliamo quindi che il segnale si comporti come una traccia di riflettivit`a ideale e che presenti quindi una sequenza di riflessioni casuali simili a rumore bianco.

Per effettuare l’operazione si devono settare due parametri fondamentali, il primo `e la Lunghezza L del filtro ai minimi quadrati trovato tramite la tecnica di Winer e Leviston, questa `e la lunghezza di autocorrelazione che si vuole predirre e poi eliminare; il secondo parametro si chiama distanza di predizione α e indica la distanza dallo zero dell’autocorrelazione al punto a partire dal quale si vuole applicare la predizione.

Dato che l’ondina propagandosi nel terreno cambia forma e soprattutto perde alte frequenze, `e necessario impostare i parametri in funzione del tempo. Inoltre la differenza di tempo tra arrivi primari e multipli varia

(39)

in funzione dell’offset; di conseguenza `e necessario impostare i parametri anche in funzione dell’offset. L’operatore di deconvoluzione sar`a quindi tempo e offset variante.

Dopo l’analisi della autocorrelazione a diversi tempi si `e deciso di defi-nire i parametri in tabella 1.29, quindi con 3 finestre temporali e tre fasce di offset.

Come si osserva la distanza di predizione tende ad aumentare all’aumen-tare dei tempi, questo perch`e l’ondina perdendo alte frequenze tende ad ’ingrassare’.

Un altro parametro molto importante `e la percentuale di white noise da aggiungere prima della deconvoluzione. ´E necessario infatti aggiungere rumore bianco prima di eseguire la deconvoluzione perch`e il filtro essen-zialmente cerca di riempire zone dello spettro non occupate dal segnale, in modo da renderlo simile ad uno spike (spettro costante a tutte le frequen-ze). Se non si aggiungesse white noise e lo spettro in alcune zone tendesse a zero, il filtro numerico per compensare dovrebbe tendere ad infinito, dando errore di overf low nel calcolatore; in questo caso `e stato aggiunto il 10% di rumore bianco.

(40)

1.10.2

Applicazione Filtro di Deconvoluzione

In figura 1.30 si osserva l’autocorrelazione dello shot no17 prima e dopo il

filtraggio, si noti che le riverberazioni sono state eliminate.

Un altro esempio lo si osserva in figura 1.31, in cui `e raffigurata l’autocor-relazione della prima finestra temporale, prima e dopo la deconvoluzione. In questo caso si nota chiaramente il miglioramento ottenuto.

Successivamente alla deconvoluzione `e stato effettuato un filtraggio del-le alte frequenze tramite un filtro passa banda da 8Hz a 100Hz, que-sto per rimuovere eventuale rumore ad altra frequenza introdotto dalla deconvoluzione.

Figura 1.30: Autocorrelazione traccia intera pre-decon (sinistra), post-decon (Destra)

(41)

Figura 1.31: Autocorrelazione dei primi 3s, shot no14, pre-decon (sopra), post-decon (sotto)

(42)

1.11

Correzioni Statiche Residuali

1.11.1

Cenni Teorici

Nonostante siano state eseguite le correzioni statiche (paragrafo 1.4) acca-de che a causa di errori e approssimazioni nella stima acca-del campo di velocit`a superficiale, le tracce in dominio CMP pur seguendo una traiettoria iperbo-lica, rimangano ancora leggermente disallineate. Per migliorare la qualit`a dello stack e nel nostro caso anche per garantire una buona riuscita del calcolo AVO, si utilizzano algoritmi che consentono di correggere questi disallineamenti ’residui’.

L’operazione viene eseguita dopo la correzione di NMO, ed `e buona nor-ma effettuare una nuova analisi velocit`a dopo questo tipo di correzione, in quanto consente di avere pi`u coerenza nelle riflessioni.

L’algoritmo utilizzato `e basato sul metodo descritto da Ronen and Claerbout [1985] ed `e strutturato come un problema di ottimizzazione, dove si cerca il modello di correzioni statiche che dia il miglior risultato in temini di allineamento degli eventi.

Se avessimo le tracce pre-stack (corrette di NMO) tutte uguali eccetto che per uno shift temporale ∆t, la potenza della sezione stack sarebbe massi-ma per ∆t → 0. Dunque trovando il ∆t che massi-massimizza la potenza della sezione stack otterremmo il miglior allineamento tra le tracce.

Consideriamo ora il volume di dati pre-stack in figura 1.32, il ∆t di un particolare shot rimane costante su tutte le tracce appartenenti allo shot-plane, questo perch`e il cattivo allineamento tra tracce `e causato pre-valentemente da irregolarit`a nel modello di velocit`a che sono strettamente legate alle posizioni delle sorgenti e dei ricevitori.

Si pu`o dunque dire che la potenza dello stack `e funzione delle statiche di ogni shot e ogni ricevitore.

L’algoritmo affronta il problema creando una super-trace F data dalla somma di tutte le tracce appartenenti allo stesso shot, e una super-trace G data dalla somma delle tracce della stack meno quelle usate per la creazione di F .

(43)

Figura 1.32: Figura presa da Ronen and Claerbout [1985], cubo di dati corretti in NMO

Ricaviamo cos`ı la potenza della sezione stack:

P otenza(∆t) =X t [F (t − ∆t) + G(t)]2 (1.11) =X t [F2(t − ∆t) + G2(t)] + 2X t F (t − ∆t)G(t) (1.12) = costante + 2 × crosscorrelazione (1.13)

Trovando quindi il ritardo al quale abbiamo il massimo della crosscorrela-zione tra F e G otteniamo anche il ∆t al quale si trova la massima potenza.

Per ogni sorgente e ricevitore, l’algoritmo esegue in modo iterativo le seguenti operazioni:

1. Creazione super-tracce G e F ; 2. Crosscorrelazione fra G e F ;

(44)

3. Picking del massimo della crosscorrelazione; 4. Correzione Statica Residuale;

5. Controllo convergenza, se non raggiunta riparti dal punto 1;

1.11.2

Applicazione al dato

L’algoritmo richiede in input i dati corretti in NMO e un file contenente il picking dei riflettori pi`u evidenti sulla sezione stack. Ogni layer `e caratte-rizzato da un raggruppamento di CDP (smash ) e una finestra temporale (time gate) centrata sull’evento (questi valori determinano le dimensioni del cubo di dati visto prima).

Nel caso in esame sono stati selezionati 13 riflettori, con timegate com-prese tra 200 e 400ms e raggruppamenti smash variabili da 3 a 11 CDP in funzione della pendenza del riflettore (pendenze maggiori → raggruppa-menti minori).

Infine devono essere definiti il numero di iterazioni, il criterio di conver-genza e i massimi valori di correzioni statiche consentite per ogni iterazione; questi ultimi sono stati impostati partendo da valori molto piccoli (5ms) fino ad arrivare a valori pi`u grandi (25ms).

In figura 1.33 `e illustrata la lista completa dei parametri utilizzati.

(45)

Il risultato delle correzioni statiche residuali lo si pu`o osservare in figura 1.34, dove si nota che dopo le correzioni (fig. 1.35), le riflessioni sono pi`u evidenti e i picchi sono tutti allineati fra loro. Questo `e molto importan-te soprattutto per l’analisi AVO, dove `e fondamentale che le ampiezze in analisi rientrino in una finestra (polarity gate) centrata sulla riflessione. Se l’ampiezza della riflessione dovesse uscire dalla finestra a causa di errori di statiche residuali, questa non verrebbe considerata nel modo opportuno durante il calcolo AVO e quindi darebbe valori errati.

Il dato corretto con le statiche residuali `e stato poi utilizzato per creare un modello di velocit`a, che a sua volta permette di ricavare un nuovo dato corretto di NMO sul quale vengono calcolate le statiche residuali per una seconda volta. Questo consente di aumentare notevolmente la precisione dell’operazione.

Figura 1.34: Risultati: stack originale (alto) stack corretta (basso), in blu sono raffigurati due orizzonti selezionati, in rosso zone in cui si notano gli

(46)

Figura 1.35: Correzioni statiche residuali: sorgente(alto) ricevitori (basso), i valori sono esperessi in ms

(47)

Capitolo 2

Filtraggio Inverso di Array

Abbiamo pi`u volte sottolineato l’importanza di preservare le ampiezze del segnale durante la fase di elaborazione del dato, con l’obbiettivo di ricavare gli AVO.

Con lo stesso scopo `e necessario studiare in che modo l’utilizzo di array di ricevitori, modifichi le ampiezze del segnale e quindi vedremo come compen-sare questa attenuazione in modo da ottenere un segnale privo da questo fenomeno.

2.1

Descrizione Array

Al fine di migliorare il rapporto segnale/rumore e rimuovere aliasing spaziale, l’acquisizione sismica viene effettuata tramite l’utilizzo di array di sorgenti o ricevitori. Nel caso dell’acquisizione in analisi sono stati uti-lizzati array di ricevitori, ma la trattazione del problema rimane invariata anche con l’utilizzo di array sorgente.

Un array `e un raggruppamento di ricevitori che vengono disposti al suolo secondo schemi precisi, che possono variare in funzione dell’utilizzo. Ogni ricevitore registra una traccia, che verr`a poi sommata con quella dei ricevitori appartenenti allo stesso raggruppamento.

In questo modo la traccia risultante, quella che poi utilizzeremo per tutte le successive fasi del processing, avr`a un rapporto segnale rumore maggiore perch`e il segnale incoerente come rumore casuale si attenuer`a, invece

(48)

se-gnale coerente come quello proveniente da riflessioni si sommer`a in modo costruttivo aumentando di ampiezza. A questo effetto si aggiunge anche un effetto di filtraggio spaziale, infatti i ricevitori sono disposti sul terreno secondo un allineamneto specifico.

Il segnale risultante dalla somma sar`a formato da tracce registrate in coor-dinate spaziali differenti.

Questi segnali, saranno tutti uguali fra loro ma in funzioni di parametri che vedremo successivamente, arrivano a tempi diversi, questo equivale a dire che la traccia proveniente dal sottosuolo viene convoluta con una traccia composta da n spike ritardati di ∆t, con n uguale al numero di ricevitori appartenenti all’array.

Come sappiamo dall’analisi di Fourier, qualsiasi segnale pu`o essere rap-presentato dalla somma di infinite funzioni sinusoidali a differenti frequenze. In figura 2.1 si pu`o vedere come due sinusoidi a diverse frequenze vengo-no viste dal sistema sopra descritto, dove in blu vengovengo-no rappresentati gli spike che registrano i segnali a tempi diversi.

Osservando i valori in corrispondenza dei due spike e sommandoli tra loro, la sinusoide a 2 Hz dar`a come output un segnale pari a 2 volte l’in-gresso, la sinusoide a 5 Hz invece viene filtrata completamente, infatti il ∆t che c’`e tra i due spike `e tale che il primo spike registra sempre un va-lore opposto a quello del secondo, quindi la somma tra i due sar`a sempre nulla. Da questa introduzione qualitativa possiamo gi`a intuire che l’array di ricevitori si comporta come un filtro.

−0.1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 −1 −0.5 0 0.5 1 Time[s] Amplitude 2 Hz 5 Hz

Figura 2.1: Sinusoidi che compongono uno stesso segnale, registrate con ∆t=0.5 s.

Se avessimo una distribuzione continua di ricevitori al suolo, il ∆t sa-rebbe infinitesimo, e quindi avremmo una funzione rettangolare nei tempi,

(49)

che si convolve con il segnale originale.

Tramite la trasformata di Fourier vediamo come la funzione rettangolare f(t) si comporta nelle frequenze:

F (f ) = +∞ Z −∞ f (t)e−j2πf tdt (2.1) f (x) =    0 if |t| > T /2 1 if |t| < T /2

f(t) `e pari e definita solo da -T/2 a T/2 quindi la 2.1 si pu`o scrivere:

F (f ) = 2 T /2 Z 0 f (t)e−j2πf tdt = 2 T /2 Z 0 f (t)[cos(2πf t) − j sin(2πf t)]dt (2.2) F (f ) = 2 T /2 Z 0 cos(2πf t)dt = 2| 1 2πf sin(2πf t)| T /2 0 (2.3) F (f ) = sin(πf T ) πf (2.4)

Abbiamo cos`ı ottenuto una funzione seno cardinale.

Dato che il numero di ricevitori `e discreto, la funzione rettangolare nel continuo diventa una sequenza di n spike ritardati di ∆t.

Possiamo riscrivere la 2.4 nel seguente modo:

F (f ) = sin(πf n∆t)

sin(πf ∆t) (2.5)

Come si osserva lo spettro del filtro diretto di array dipende dal numero di ricevitori n e da ∆t.

Inoltre si nota che quando f = 1

n∆t , F(f ) si annulla e quindi si ha un notch a quella frequenza.

´

E utile dunque capire la relazione che c’`e tra ∆x e ∆t.

Aiutandoci con la rappresentazione in figura 2.2 e ricordando che 1 ∆t = f

(50)

e 1

∆x = k, con k frequenze spaziali, si ricava: ∆x ∆t = V0 sin θ dove ∆x ∆t = f k (2.6)

Figura 2.2: Onda Piana che arriva a due ricevitori dello stesso raggruppamento

con V0 velocit`a dello starto superficiale, θ angolo emersione e f frequenza

del segnale dell’onda piana.

Possiamo riscrivere l’eq. 2.5 in funzione dello spazio:

F (k) = sin(πkn∆x)

sin(πk∆x) (2.7)

e cos`ı definire la funzione di direttivit`a:

dir(θ, f ) = sin(πnf sin(θ) V0 ∆x) sin(πf sin(θ) V0 ∆x) (2.8)

Tramite gli array `e possibile progettare un filtro nei numeri d’onda k, che permette di rimuovere aliasing spaziale.

Per il teorema del campionamento le frequenze superiori a kN =

1

2d, con d pari al group interval producono aliasing. ´E dunque opportuno fare s`ı che il primo notch cadi proprio a quella frequenza, quindi:

kT = kN =

1 2d =

1

(51)

dunque per evitare aliasing la lunghezza L dell’array deve essere 2 volte il group interval d.

In figura 2.3 e 2.4 si osserva una rappresentazione utile a capire i concetti sopra espressi.

Riassumendo gli array si comportano come dei filtri, essi possono essere visti sia nel dominio delle frequenze f che dei numeri d’onda k, e la rela-zione che li lega `e la 2.6, che a sua volta dipende dalla Velocit`a dello strato superficiale e dall’angolo di emersione del fronte d’onda. Considerando che V0 rimane costante e fissando f si calcola come i numeri d’onda vengo

fil-trati al variare di θ, ottenendo cosi il diagramma polare in figura 2.5. L’array si comporta come una antenna, dove certe direzioni di arrivo sono privilegiate e altre vengono attenuate. ´E dunque facilmente intuibile l’im-portanza di uno strumento che rimuova arrivi troppo inclinati come per esempio onde superficiali.

(52)

0 0.5 1 x f(x) n∆x ∆x

Figura 2.3: Array di ricevitori distanziati di ∆x

0 0.5 1 k | F(k) | 1/∆x 1/(n∆x)

Figura 2.4: Spettro nelle frequenze spaziali

0.8 1 30 60 90 270 300 330 0.6 0.4 0.2 θ 0

Figura 2.5: Funzione di direttivit`a segnale f =40 Hz , V0 = 1400m/s,

(53)

2.2

Filtro Inverso

Come descritto nel paragrafo 2.1 gli array modificano le ampiezze del segnale al variare del’angolo di incidenza. Questo effetto `e molto apprezzato se trattiamo un dato per il quale vogliamo ricavare una immagine stack priva di rumore e che rappresenti al meglio le geometrie del sottosuolo.

Nel lavoro di tesi per`o siamo interessati a calcolare gli AVO, e per una buona riuscita dell’operazione `e necessario che le ampiezze non vengano modificate, soprattutto in funzione dell’angolo di incidenza.

Come dimostrato da Mazzotti and Ravagnan [1995] se non si adotta una procedura di processig corretta e quindi anche un recupero delle ampiezze attenuate dagli array, si rischia di ottenere un risultato ambiguo per l’in-terpretazione.

´

E quindi necessario eliminare l’effetto degli array, e per raggiungere tale scopo utilizziamo la tecnica del filtraggio inverso.

Conoscendo le relazioni matematiche che ci consentono di calcolare il filtro di array e conoscendo le geometrie di acquisizione, possiamo stimare prima un filtro diretto h(t) e poi il suo inverso f(t) tale che la loro convoluzione dia come risultato uno spike a ritardo nullo, ovvero un segnale che non modifichi l’ingresso.

x(t) ∗ h(t) = y(t) ↔ X(f )H(f ) = Y (f ) (2.10) h(t) ∗ f (t) = δ(t) con |F (f )| = |H−1(f )| (2.11) x(t) ∗ h(t) ∗ f (t) = x(t) ∗ δ(t) = x(t) (2.12) con x(t) output desiderato ovvero privo di filtraggio di array, e y(t) la traccia ottenuta dopo essere stata acquisita con gli array.

Dalle relazioni che portano alle 2.7, il filtro di array `e a fase zero, e quindi si ottiene dalla 2.10 che:

X(f ) = H(f )−1Y(f ) (2.13)

Dunque per ottenere il segnale x(t) privo da attenuazione di array, bi-sogna antitrasformare il prodotto dello spettro del filtro inverso di array

(54)

H(f )−1 con lo spettro del segnale registrato Y(f ).

2.3

Descrizione Filtro

Come visto nel paragrafo precedente, per poter rimuovere l’effetto del filtraggio di array `e necessario conoscere esattamente le caratteristiche del filtro, ed in particolare il suo spettro di ampiezza.

Nel paragrafo 2.1 viene illustrato come il filtro di array H(f ) dipende dai

parametri θ e f , che variano lungo la traccia. Per risolvere il problema si `e deciso di agire in due modi diversi.

Nel primo caso `e stata suddivisa ogni singola traccia in tante finestre temporali e per ogni finestra si `e trovata la frequenza alla quale si trova la maggior parte dell’energia del segnale. In questo modo si pu`o tener fisso il parametro della frequenza F , e calcolare tramite la eq. 2.8 la funzione di direttivit`a che varia solamente al cambiare dell’angolo θ. L’operazione cos`ı eseguit`a ci permette di ottenere un valore di attenuazione a ogni angolo di emersione.

Calcolando θ per ogni singolo campione i − esimo della traccia, si pu`o correggere la sua ampiezza, moltiplicandolo per l’inverso della funzione di direttivit`a nella finestra k − esima.

xi,k(t) = yi,k(t)

1 dir(θi, Fk)

(2.14)

Questo metodo pu`o essere impreciso in quanto tutte le frequenze lontane dalla frequenza F vengono corrette male e nella maggior parte delle ac-quisizioni, soprattutto a tempi brevi, il segnale `e distribuito nell’intorno di decine di Hz.

Nel secondo caso anzich`e tenere fissa la frequenza viene fissato l’angolo di emersione, ed in particolare viene utilizzato quello del campione centrale della finestra. Questo perch`e come vedremo dopo, la finestratura viene fatta tramite hanning.

(55)

solo dalla frequenza, quindi otteniamo proprio la risposta all’impulso del filtro di array su tutte le frequenze f a quel θk.

Xk(f ) = Yk(f )Hk(f )−1 (2.15)

con Hk(f ) = |dir(θk, f )| (2.16)

Utilizzando questo secondo metodo possiamo effettivamente calcolare per ogni finestra il filtro inverso descritto al paragrafo 2.2, ottenendo un’ac-curatezza molto maggiore principalmente per il fatto che la variazione dell’angolo θ `e bassa all’interno di una finestra.

2.4

Applicazione al dato reale

Per eseguire il filtraggio inverso di array `e stato sviluppato un codice MATLAB, che permette di elaborare e correggere il dato nei due metodi citati al paragrafo precedente. Il primo metodo, che tiene fissa la frequen-za, `e presente anche nel software PROMAX, data l’imprecisione di tale metodo si `e deciso di sviluppare anche un vero e proprio filtro inverso che si basa sostanzialmente sul fissare l’angolo θ, e calcolare il comportamento del filtro a tutte le frequenze.

L’acquisizione `e stata eseguita utilizzando gruppi di array da n=24 geofoni, con distanza tra un gruppo e l’altro d = 40m e quindi con una spaziatura tra ricevitori di ∆x = d

n − 1 ≈ 1.74m

2.4.1

Calcolo Angolo di Emersione

Per poter funzionare l’algoritmo necessita della conoscenza dell’angolo di emersione di ogni campione di ogni traccia. Infatti θ varia in funzione dell’offset e della profondit`a che `e legata al tempo e quindi ai campioni (vedi figura 2.6).

Il calcolo viene effettuato ricavando per ogni campione il valore del para-metro del raggio p, che come sappiamo dalla legge di Snell rimane costante fino in superficie e cos`ı conoscendo la velocit`a V0 dell’ultimo strato si ricava

(56)

θ0 (vedi figura 2.6). p = sin θ1 V1 = sin θ0 V0 (2.17) θ0 = arcsin(pV0) (2.18) Figura 2.6

Sappiamo che il valore di p nel punto ad offset x e tempo intercetta T0

`

e dato dalla pendenza dell’iperbole con vertice proprio in T0 e velocit`a Vs.

Dunque p = ∆T /∆x, quindi utilizzando l’equazione 2.19 si pu`o ricavare ∆T = T (x2) − T (x1) dove x1 e x2 sono offest che si trovano a +∆x/2 e

−∆x/2 dall’offest della traccia in analisi.

T (x) = s T2 0 + x2 V2 s (2.19)

(57)

Offset (x) Time ∆x T(x1) ∆T T(x2) x1 x2 p T 0 x

Figura 2.7: Parametro del raggio p = ∆T /∆x

0 1 2 3 4 5 6 7 8 0 10 20 30 40 50 60 70 80 90 100 T [ms] θ

Figura 2.8: Variazione angolo lungo traccia no 100 offset 1100m, con ∆x = 40m

(58)

2.4.2

Finestratura

Ogni traccia `e stata suddivisa in finestre di L=200ms, il segnale viene poi moltiplicato per una finestra di Hanning a coseno rialzato, questo per limitare al massimo il fenomeno di Gibbs.

La funzione di Hanning lunga N campioni `e definita da:

w(n) = 1

2(1 − cos (2π n

N)); 0 < n < N ; (2.20) Inoltre le finestre avanzano di N/2 campioni quindi i campioni tra una finestra e l’altra vengo pesati in funzione della loro vicinanza con il centro delle due finestre pi`u vicine. Questo lo si pu`o osservare in figura 2.9 dove in rosso e blu vengono rappresentate le singole finestre e in verde il risultato finale della loro iterazione.

0 50 100 150 200 250 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Hann Window Campioni Amplitude

Figura 2.9: Finestra di Hanning

2.4.3

Stima Filtro Inverso

Per ogni finestra vine fissato l’angolo θ del campione centrale e calcolata la risposta del filtro tramite l’equazione 2.8.

Il passo con il quale si discretizza l’asse delle frequenze sar`a pari a df = 1/(N − 1)dt, in modo tale che la traccia risultante nei tempi avr`a lo stesso passo di campionamento dt della traccia originale. In figura 2.10 `e visibile lo spettro H(f ) del filtro diretto di array. Da ricordare che la fase del filtro

(59)

` e zero.

Eseguendo l’operazione della trasformata inversa di fourier `e possibile ot-tenere h(t), la traccia nei tempi del filtro (vedi figura 2.11).

Ricordo che utilizzando gli array `e come se io avessi convoluto la traccia originale x(t) con quella appena trovata, ottenendo cos`ı y(t), che `e il segnale

registrato.

L’obbiettivo `e quello di ottenere la traccia senza filtraggio di array, dun-que vogliamo trovare un filtro ft tale che ht∗ ft sia uno spike e quindi con

spettro costante e fase zero.

Come dimostrato dalla equazione 2.13, F(f ) = H(f )−1, otteniamo cos`ı lo

spet-tro del filspet-tro inverso.

In figura 2.12 si osserva come il filtro inverso cerchi di riempire le zone delle spettro attenuate dagli array.

Antitrasformando lo spettro del filtro inverso si ottiene la traccia in figura 2.13 che rappresenta il segnale corrispondente al filtro nei tempi f(t).

Per il calcolo del filtro inverso `e stato aggiunto rumore bianco (White Noise) alla traccia h(t) in modo tale che il suo spettro non si avvicinasse

ad un valore prossimo allo zero, obbligando il filtro inverso a raggiungere valori molto elevati, prossimi a ∞, causando overflow.

−250 −200 −150 −100 −50 0 50 100 150 200 250 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 1.1

Risposta Filtro Array

Frequenza (Hz)

|H(f)|

(60)

−0.1 −0.08 −0.06 −0.04 −0.02 0 0.02 0.04 0.06 0.08 0.1 −0.05 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4

Risposta Filtro Array

Tempi (s)

h(t)

Figura 2.11: Risposta filtro array con White Noise=10%

0 50 100 150 200 250 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8

Risposta Filtro Array

Frequenza (Hz) Amplitude |H(f)| |F(f)| Output Figura 2.12 −0.1 −0.08 −0.06 −0.04 −0.02 0 0.02 0.04 0.06 0.08 0.1 −4 −2 0 2 4 6 8 10

Risposta Filtro Inverso

Tempi (s)

f(t)

(61)

2.4.4

Elaborazione dato

Come detto in precedenza viene stimato il filtro inverso fk(f ) per ogni

finestra k − esima che compone ogni traccia.

Il filtro trovato viene moltiplicato per lo spettro Yk(f ) ottenendo Xk(f ).

Antitrasformando si ottiene la traccia xk(t), ovvero il segnale con le

am-piezze recuperate.

In figura 2.14 si mette a confronto il segnale originale con quello filtrato, si osserva chiaramente come le ampiezze vengono recuperate, anche se `e altrettanto chiaro che sono state introdotte alte frequenze, che saranno da filtrare in una fase successiva.

L’introduzione di alta frequenza `e visibile anche negli spettri a confronto in figura 2.15. 1700 1750 1800 1850 −0.02 −0.01 0 0.01 0.02 0.03 Filtraggio Inverso Tempi (ms) Amplitude

y(t) Traccia Originale x(t) Traccia Filtrata

Figura 2.14: Confronto traccia no 100 offset 1100m tra originale e filtrata

Il software sviluppato presenta l’interfaccia grafica (vedi figura 2.16), e accetta come input i dati corretti in NMO, il modello di velocit`a stack, la lunghezza delle finestre, il tempo di inizio e fine analisi, la percentuale di white noise per il calcolo del filtro inverso e la velocit`a dello strato superficiale. Come output restituisce il dato corretto in formato Segy.

(62)

Figura 2.15: Confronto spettro traccia no 100 offset 1100m, a sinistra

originale, a destra filtrata (notare alta frequenza)

(63)

Capitolo 3

Amplitude Versus Offset

3.1

Introduzione

La tecnica ”Amplitude Versus Offset” (AVO) consiste nel misurare la variazione di ampiezza del segnale sismico in funzione dell’offset; questo consente di dare indicazioni sul tipo di litologia e sul contenuto in gas. Il calcolo degli AVO `e stato effettuato in fase pre-stack successivamente alla correzione NMO.

La teoria alla base della analisi AVO `e fondata sulle equazioni di Zoeppritz; esse definiscono il comportamento di un’onda piana che incide su di un ri-flettore e ne descrive le conversioni di moto e le relazioni di fase e ampiezza che ci sono con l’angolo di incidenza.

Ricavando gli AVO riusciamo indirettamente a studiare le conversioni di moto, che possono essere indicative di certe caratteristiche fisiche che por-tano all’identificazione di zone in cui `e probabile la presenza di idrocarburi, in particolare gas.

3.2

Cenni Teorici

Come detto in precedenza lo studio degli AVO si basa sulle equazioni di Zoeppritz, le quali definiscono il comportamento di un’onda piana che

(64)

incide su una superficie delimitata da due mezzi con caratteristiche diverse. Come si osserva in figura 3.1 l’onda piana viene scomposta in quattro onde, due trasmesse e due riflesse, dove in entrambi i casi sono una di pressione Vp e una di taglio Vs.

Figura 3.1: Onda piana di pressione che incide su superficie di riflessione e genera quattro onde, due riflesse e due trasmesse (Immagine di

Wikipedia.org )

Se θ1 = 0 avremmo una incidenza normale e quindi la formazione di

solo due onde p, una trasmessa Vp1 e una riflessa Vp2, ottenendo cos`ı un

coefficiente di riflessione R(0) pari a:

R(0) = ρ2Vp2− ρ1Vp1 ρ2Vp2+ ρ1Vp1

= Z2− Z1 Z2+ Z1

(3.1)

Quello a cui noi siamo interessati `e come varia il coefficiente di rifles-sione con l’angolo θ (quindi con l’offset), in modo tale da poter ricavare informazioni sull’iterazione tra Vp, Vs, ρ.

Le equazioni di Zoeppritz definiscono in modo poco intuitivo le relazioni tra ampiezza del segnale e le varie propriet`a fisiche delle rocce.

(65)

cambiamenti nelle propriet`a elastiche tra le due interfacce in modo tale da rendere visibili gli effetti di Vp, Vs, ρ sulle ampiezze del segnale.

Equazioni di Aki and Richards [1980]:

R(θ) = 1 2 1 + tan 2 θ ∆Vp Vp −  4V 2 s V2 p sin2θ ∆Vs Vs + (3.2) + 1 2  1 − 4V 2 s V2 p sin2θ ∆ρ ρ con: ∆Vp = Vp2− Vp1; ∆Vs = Vs2− Vs1; ∆ρ = ρ2− ρ2; Vp = Vp1+ Vp2 2 ; Vs = Vs1+ Vs2 2 ; ρ = ρ1+ ρ2 2 ; (3.3)

Attraverso l’equazione 3.2 si esprime in modo chiaro la relazione tra ampiezza del segnale e angolo di incidenza in funzione dei parametri elastici Vp, Vs e ρ. Dai dati sismici siamo a conoscenza di ampiezza e angolo di

incidenza, dunque per poter stimare i parametri `e necessario effettuare una inversione.

Shuey [1985] riorganizz`o l’equazione 3.2 in modo da raggruppare effetti che derivano da range di angoli diversi, ottenedo cosi una forma semplificata:

R(θ) = R(0) + G sin2θ + F (tan2θ − sin2θ) (3.4)

con: G = 1 2 ∆Vp Vp − 4V 2 s V2 p ∆Vs Vs − 2V 2 s V2 p ∆ρ ρ ; (3.5) F = 1 2 ∆Vp Vp ; (3.6)

(66)

Questa nuova formulazione consente di escludere l’ultimo termine dell’e-quazione 3.4, dato che arrivi con angoli cos`ı elevati sono prossimi all’angolo critico. In questo modo si ottiene:

R(θ) = R(0) + G sin2θ (3.7)

dove l’ampiezza delle onde riflesse varia linearmente con il quadrato del seno dell’angolo di incidenza.

Si possono dunque definire due attributi sismici, l’intercetta R(0) e il gra-diente G, dove G `e strettamente legato al rapporto Vp/Vs e al coefficiente

di Poisson.

Per stimare i due parametri si rappresenta su di un grafico chiamato cross plot i valori di ampiezza e sin2θ di ogni singola riflessione, in questo modo effettuando una regressione lineare ai minimi quadrati, si ottiene la ret-ta che fitret-ta meglio i punti mappati nello spazio. La pendenza di quella retta `e il gradiente G, l’intersezione con l’asse delle ordinate `e il valore del-la riflessione a offset zero, quindi il valore deldel-la intercetta I (Vedi figura 3.2).

Figura 3.2: Cross Plot Intercetta e sin2(θ) (immagine di Wikipedia.org) Tramite il metodo sopra citato si ottiene un valore di I e G per ogni riflessione ad ogni CDP. Questo ci consente di ottenere immagini stack che rappresentano i due attributi.

Il calcolo degli AVO permette di evidenziare zone ricche di gas caratte-rizzate da un basso rapporto Vp/Vs e un basso valore di impedenza acustica

(67)

Rutherford and Williams [1989] hanno classificato le anomalie AVO in tre diverse categorie (vedi fig. 3.3):

• Classe 1: Forte riflessione positiva a incidenza normale, con un ra-pido decadimento delle ampiezze all’aumentare dell’offset e possibile cambio di fase a offset lunghi;

• Classe 2: Debole riflessione a incidenza normale e rapido cambia-mento di ampiezza con offset, questo pu`o causare un cambiamento di fase ad offset anche corti;

• Classe 3: Forte riflessione negativa a incidenza normale, con rapido decadimento delle ampiezze all’aumentare dell’offset.

Le anomalie di Classe 3 sono tipiche dei Brigth Spots in cui abbiamo solitamente Shale sopra Gas-Sand, dove lo Shale ha una impedenza acusti-ca maggiore di quella del Gas-Sand, acusti-causando quindi una forte riflessione negativa che aumenta, in valore assoluto, all’aumentare dell’offset.

Figura 3.3: Schematizzazione dei tre tipi di anomalia AVO. Notare che classe 1 e classe 2 hanno una cambio di polarit`a. (immagine di

(68)

3.3

Calcolo AVO

Il calcolo degli AVO `e stato eseguito a partire dati corretti di NMO, dopo le correzioni statiche residuali e il recupero delle ampiezze attenuate dagli Array.

Come prima operazione sono state convertite le tracce dei CDP gather, in funzione degli angoli d’incidenza. L’operazione permette di limitare il range degli angoli da analizzare, escludendo riflessioni con θ > 25o. Le ri-flessioni con angoli superiori non sono state prese in considerazione perch`e il termine G (gradiente) nella approssimazione di Shuey [1985] si riferisce a riflessioni con offset corti. Inoltre, dopo vari test, il valore di θ massimo che ha dato il migliore risultato AVO `e stato di 25o.

Gli attributi di Intercetta e Gradiente sono calcolati definendo una fi-nestra temporale, chiamata Polarity Gate lungo la quale viene calcolata l’ampiezza media di tutte le tracce appartenenti al CDP in questione. L’u-tilizzo del Polarity Gate `e necessario per risolvere problemi di non perfetto allineamento degli eventi corretti in NMO.

Oltre ai precedenti possono essere derivati altri attributi qui elencati: 1. Intercetta

2. Gradiente

3. Intercetta * Gradiente

4. Intercetta * Gradiente * Coefficiente di Correlazione 5. Angolo di Crossover

6. Sign(Intercetta) * Gradiente 7. Coefficiente di Correlazione 8. Runs Statistic

(69)

Tutti e nove gli attributi ricavati sono derivati da Intercetta e Gradiente, e possono essere rappresentati come immagini bidimensionali delle stesse dimensioni dell’immagini stack.

L’attributo principale che viene utilizzato `e Intercetta * Gradiente in quanto permette di evidenziare con valori positivi anomalie di classe 3, do-ve si ha un incremento delle ampiezze con l’offset.

Una schematica rappresentazione di ci`o che l’attributo in questione rappre-senta la si pu`o osservare in figura 3.4.

Figura 3.4

Oltre al calcolo dell’ampiezza media viene definito anche il parametro Minimum correlation coefficient allowed che permette di escludere tracce troppo diverse tra loro e che quindi potrebbero non riferirsi alla riflessione ma a rumore. Dopo una attenta analisi dell’attributo Coefficiente di cor-relazione, questo parametro `e stato settato uguale a 0.4. Da evidenziare il fatto che utilizzando un coefficiente molto alto le anomalie negative di G*I vengono attenuate molto di pi`u rispetto a quelle positive. Questo fa pen-sare che le anomalie negative sono per la maggior parte causate da rumore nelle tracce.

Riferimenti

Documenti correlati

Se pensiamo alla realizzazione di una tipica struttura a telaio in calcestruzzo armato e sup- ponendo di lavorare con un software agli elementi finiti partiremo inserendo una serie di

• Ottimizzazione/rototraslazione della Nuvola di Punti sulla base dei GCP inseriti utili al fine di avere un dato me- tricamente corretto. • Analisi dei GCP inseriti durante il

An AVR program within the EU financed project “Support to Implementation of EU Readmission Agreements withthe Republic of Moldova, the Russian Federation and Ukraine: Facilitation

Un PROGRAMMA è una sequenza finita di ‘frasi’ (istruzioni) ciascuna esprimente operazioni che l’esecutore può comprendere ed eseguire Il PROGRAMMA che deve essere eseguito è

Un PROGRAMMA è una sequenza finita di ‘frasi’ (istruzioni) ciascuna esprimente operazioni che l’esecutore può comprendere ed eseguire Il PROGRAMMA che deve essere eseguito è

 Alcuni algoritmi di analisi hanno dei meccanismi per gestire dati con valori mancanti o con outliers.  essi operano però senza conoscenza del

SE RIPETIAMO PIU’ VOLTE LA MISURA DELLA LUNGHEZZA DI UN PEZZO DI FERRO USANDO SEMPRE LO STESSO STRUMENTO E’ PROBABILE CHE IL RISULTATO SIA SEMPRE UGUALE. COSA CAMBIA

They measured the diameter in centimeters, height in meters, and the dry weight of wood in kilograms for a sample of three-year-old trees so that they could determine the weight of