• Non ci sono risultati.

Utilizzo di PROMAX(R) per il trattamento di un dato Ground Penetrating Radar: una prima sequenza di elaborazione

N/A
N/A
Protected

Academic year: 2021

Condividi "Utilizzo di PROMAX(R) per il trattamento di un dato Ground Penetrating Radar: una prima sequenza di elaborazione"

Copied!
163
0
0

Testo completo

(1)

UNIVERSITÀ DI PISA

Dipartimento di Scienze della Terra

Corso di laurea magistrale in Geofisica di Esplorazione

ed Applicata

Tesi di laurea magistrale

Utilizzo di PROMAX® per il trattamento di un dato Ground

Penetrating Radar: una prima sequenza di elaborazione

Candidato

Iacopo Sagliano

Relatori

Prof. Adriano Ribolini

Correlatore

Dott. Andrea Tognarelli

Controrelatore

Prof. Eusebio Stucchi

(2)
(3)

3

INDICE

Riassunto pg 6

Introduzione pg 9

1.0 Cronistoria della Chiesa di San Giovanni di

Saluzzo e modalità di indagine GPR pg 10

1.1 Introduzione pg 10

1.2 Cronistoria dettagliata delle fasi costruttive/restaurative pg 13 1.3 L’indagine GPR: vantaggi e modalità di acquisizione dei dati pg 15

2.0 Elaborazione del dato con GPRslice® pg 17

2.1 Preprocessing pg 17

2.1.1 Introduzione pg 17

2.1.2 Dewow filter pg 18

2.1.3 Move start time pg 20

2.2 Processing di base pg 22

2.2.1 Scelta della sequenza di processing pg 22

2.2.2 Gain pg 22 2.2.3 Bandpass filter pg 25 2.2.4 Spectral deconvolution pg 27 2.2.5 Gain 2 pg 30 2.2.6 Bckground removal pg 32 2.2.7 Boxcar filter pg 33

2.2.8 Risultati ottenuti e premessa all’utilizzo di PROMAX® pg 35

3.0 Modifica del dato con l’utilizzo di MATLAB® pg 36

3.1 Modifica delle geometrie pg 36

3.2 Applicazione del Background removal pg 44

4.0 Elaborazione del dato con PROMAX® pg 45

4.1 Introduzione all’utilizzo di PROMAX® pg 45

4.1.1 Struttura del software e struttura del dato SEG-Y pg 46

4.2 Elaborazione di base pg 47

4.2.1 Input del dato e visualizzazione pg 47

4.2.2 Impostazione e verifica delle geometrie pg 49

(4)

4

4.2.4 Bandpass filter pg 52

4.2.5 Gain pg 54

4.2.6 Deconvoluzione pg 62

4.3 Migrazione pg 66

4.3.1 Principi alla base della migrazione pg 66

4.3.2 Studio dell’operatore di migrazione in PROMAX® pg 70 4.3.3 Applicazione della migrazione ai dati in esame pg 86

5.0 Interpretazione dei dati pg 113

5.1 Interpretazione delle linee LID pg 113

5.2 Interpretazione delle linee TID pg 115

6.0 Conclusioni pg 119

7.0 Bibliografia pg 121

APPENDICE

APPENDICE A Principi alla base delle metodologie utilizzate pg 124

A.1 Equazioni di Maxwell e onde elettromagnetiche pg 124

A.2 Proprietà elettromagnetiche dei materiali pg 129

A.2.1 Permittività elettrica pg 129

A.2.2 Conduttività elettrica pg 130

A.2.3 Permeabilità magnetica pg 131

A.3 Fenomeni di attenuazione dell’onda elettromagnetica pg 133 A.3.1 Attenuazione per propagazione: spreading e scattering pg 135 A.3.2 Perdita per trasmissione in mezzi multistrato pg 136

A.3.3 Perdite di natura strumentale pg140

APPENDICE B Sistema GPR, acquisizione e visualizzazione dati pg 141

B.1 Il sistema GPR pg 141

B.1.1 Componenti elettroniche del sistema GPR pg 141

B.1.2 Antenne GPR pg 141

B.1.3 Array di antenne pg 147

B.2 Acquisizione dei dati pg 148

(5)

5

B.2.2 Progettazione di un survey common offset: parametri di

acquisizione pg 149

B.3 Modalità di visualizzazione dei dati GPR pg 156

B.4 Principali tipi di riflessioni pg 158

B.4.1 Pattern iperbolici pg 158

(6)

6

RIASSUNTO

Il lavoro di questa tesi si è concentrato sulla possibilità di effettuare una nuova modalità di elaborazione di dati Ground Penetrating Radar (GPR), tramite l’utilizzo di PROMAX®, il software usato in ambito industriale per l’elaborazione di dati sismici a riflessione. PROMAX® consente infatti di disporre di una superiore e variegata quantità di algoritmi di elaborazione non contemplati nei comuni software per i dati GPR e comunemente non considerati nella loro tradizionale elaborazione. Lo scopo della tesi è stato quindi quello di definire un processing avanzato dei dati, capace di rendere le riflessioni dei target più evidenti nelle immagini finali.

In una prima fase, è stata verificata la compatibilità del dato radar con il software: unità di misura temporali in nanosecondi e distanze in centimetri risultano essere molto distanti dagli standard impiegati in ambito sismico, con la conseguenza che molto operatori sono implementati per operare entro un certo range di valori centrato sugli standard sismici. Successivamente, si è preceduto con l’utilizzo dei tool di elaborazione in ambiente PROMAX®. In particolar modo, è stata tentata la possibilità di compiere la migrazione tempi che, in PROMAX®, è implementata in modo da essere 2D o 3D e applicabile con modelli di velocità tempo e spazio variante.

Per questo scopo, è stato scelto un dato multi 2D precedentemente acquisito in una Chiesa sconsacrata localizzata in provincia di Cuneo (CN): l’acquisizione dei dati è stata effettuata con un'antenna a frequenza di 600 MHz secondo due serie di linee perpendicolari, denominate LID e TID: per entrambe, il passo di campionamento spaziale lungo la linea (passo di campionamento inline) è stato di 1 cm, mentre la distanza tra le linee (passo di campionamento xline) è stato di 25 cm.

Inizialmente è stata compiuta un’elaborazione preliminare 2D con il software GPRslice®, specifico per i dati radar. In questa prima fase della tesi è stato effettuato il preprocessing, che ha previsto l’importazione del dato e l’impostazione della sua geometria su griglia (2D), l’applicazione del filtro Dewow, la rimozione del t0, ed altri semplici passaggi di processing di base 2D svolti nel seguente ordine:

Gain AGC modificato

 Filtro passabanda

Deconvoluzione spiking

(7)

7

Successivamente, lo stesso dato è stato elaborato con PROMAX®.

La difficoltà di adattare i dati radar ad un software creato per elaborare dati sismici è stata superata tramite l’utilizzo di MATLAB®, con cui sono stati risolti i problemi legati all’importazione corretta delle informazioni (modifiche della geometria) del dato in PROMAX®. Tramite MATLAB® è stato applicato anche il filtro di background sul dato, non essendo questo previsto per i dati sismici in PROMAX®.

In PROMAX® è stato importato il dato non elaborato e su di esso, prima di operare la migrazione, è stato effettuato un nuovo processing 2D di base, comprendente i seguenti passaggi:

 Impostazione e verifica della geometria di acquisizione

 Filtro passabanda

Trace envelope gain

Deconvoluzione spiking

 Migrazione

L’ultimo passaggio è quello su cui si è soffermato maggiormente il lavoro di questa tesi. Per comprendere il funzionamento e la forma dell’operatore di migrazione e per giungere all’impostazione ottimale dei parametri, è stato prodotto inizialmente un dato sintetico della stessa dimensione del dato in esame, con valori nulli ad eccezione di alcune ondine a tempi stabiliti.

L’applicazione della Kirchoff time migration su questo file ha influenzato la scelta dei parametri da utilizzare nella stessa operazione sul dato reale:

Maximum dip to migrate

 Apertura

 Velocità

I risultati di questo esperimento hanno portato a concludere che per il dato reale, sono necessarie aperture di 2 m (avendo le iperboli un’estensione spaziale massima di 1,60 m) e un max. dip superiore a 90 (es 180), visto che questo è il valore limite al di sotto del quale non è possibile migrare correttamente la parte più superficiale del dato, che è anche quella più ricca di informazioni.

Un ulteriore esperimento su un dato composto da iperboli sintetiche a velocità di 8 cm/ns (velocità coerente con quella di molti materiali geologici e costruttivi), ha permesso di mostrare il funzionamento dell’operatore di migrazione nel collassare tutte le ampiezze verso il vertice.

(8)

8

La migrazione sul dato reale è stata compiuta con differenti velocità di prova all’interno dell’intervallo di velocità di propagazione dei dati GPR nel sottosuolo (tipicamente intorno ai 10 cm/ns), e verificando quale producesse il risultato migliore.

È stata effettuata separatamente la migrazione 2D dei file LID e TID, in quanto la relazione tra la polarizzazione del segnale elettromagnetico e l’orientazione delle strutture nel sottosuolo permette di individuare iperboli nelle linee di una delle due serie non visibili nell’ altra, e viceversa.

Inoltre sono presenti variazioni di velocità lungo la direzione inline (per le linee TID) e xline (per le linee TID): questo, unito alla variazione di lunghezza delle linee di una stessa serie e alla presenza di grossi ostacoli (principalmente le due colonne portanti della struttura), ha costretto l’ulteriore suddivisione di ognuna delle due serie di linee in sottogruppi.

Quello che ne è risultato è un campo di velocità che varia lateralmente lungo tutta l’estensione areale della Chiesa.

Dai risultati ottenuti è emerso che PROMAX® può essere considerato un eccellente strumento per l’elaborazione dei dati GPR. Vista la qualità e l'ampia gamma di algoritmi che offre per ogni passaggio di processing, può essere ritenuto più robusto rispetto ai software commerciali studiati appositamente per l’elaborazione di segnali radar (tra cui GPRslice®). Un esempio può essere il filtro passabanda, che in PROMAX® si è rivelato molto più efficace di quello utilizzato in GPRslice®, in quanto elimina in modo corretto le frequenze al di fuori della banda passante. PROMAX® è inoltre più efficiente nell’applicazione del guadagno, grazie al trace envelope gain, che permette di visualizzare i risultati per ogni traccia e non solo per il dato complessivo (come avviene in GPRslice®) e trarne risultati migliori.

Nella deconvoluzione in PROMAX® si possono impostare i parametri in modo da minimizzare le differenze esistenti tra il segnale radar e quello sismico (tra cui disparità di scala, lunghezza della finestra temporale e variazioni laterali di velocità dell’onda elettromagnetica), ed è possibile quindi modellare nella maniera migliore l’ondina per questo passaggio di processing.

L’elaborazione di dati GPR in PROMAX® richiede tempi maggiori rispetto all’elaborazione degli stessi con altri software. Questo difetto viene però compensato dalla migliore qualità dei risultati ottenuti, soprattutto in un tipo di dati come quello esaminato, dove l’attenzione era da concentrare nei numerosi target presenti in un piccolo spessore di profondità.

(9)

9

INTRODUZIONE

Il GPR (Ground Penetrating Radar) è uno strumento utilizzato nella geofisica superficiale per lo studio del sottosuolo in modo non distruttivo (Conyers e Goodman, 2007; Daniels, 2004). Gli utilizzi più comuni di questo metodo spaziano dall’ingegneria civile, all’archeologia, alle applicazioni forensi etc. Tra questi, l’archeologia è uno dei settori in cui questo strumento sta proliferando, anche grazie al miglioramento delle tecnologie che ne sono alla base. Infatti, il GPR riesce a rilevare distinzioni nel comportamento elettromagnetico (che verrà abbreviato d’ora in poi, per comodità, con la sigla em) tra materiali di diversa natura presenti nel sottosuolo.

Il GPR ha come vantaggio la sua natura non invasiva e non distruttiva. Inoltre è abile nel massimizzare l’efficienza della ricerca e, al tempo stesso, possiede la sua capacità di minimizzare i costi. Infine, il dato prodotto da un’acquisizione GPR ha un’elevata risoluzione.

Tali motivi rendono il GPR uno strumento prezioso che consente una rapida analisi della sottosuperficie indagata, definendone le caratteristiche.

Lo scopo di questa tesi è stato quello di elaborare un dato GPR 3D acquisito in una chiesa in provincia di Cuneo (Saluzzo) con un metodo diverso rispetto ai software commerciali per l’elaborazione di segnali radar. È stato infatti impiegato il software avanzato per l’elaborazione dei dati sismici, PROMAX®. Grazie a questo, è stato possibile sviluppare un’elaborazione più robusta e controllata, inserendo passaggi normalmente non utilizzati nel tipico processing dei dati GPR.

In particolare, la parte finale del lavoro compiuto si è concentrata sulla migrazione del dato: vista la differenza tra dati sismici e radar, la migrazione è stata prima sperimentata su due dati sintetici, per valutare la fattibilità sul dato radar reale con PROMAX® e trovare i parametri corretti da utilizzare.

È opportuno segnalare che alcuni problemi legati all’importazione corretta delle

informazioni di geometria all’interno di PROMAX®, dovuti alle differenze tra dati sismici e dati radar, sono stati risolti con l’ausilio di MATLAB®.

(10)

10

1.0 CRONISTORIA DELLA CHIESA DI SAN

GIOVANNI DI SALUZZO E MODALITÀ DI

INDAGINE GPR

1.1 INTRODUZIONE

La chiesa di San Giovanni si trova a Saluzzo, in provincia di Cuneo (CN), ed è un esempio di architettura gotica. Consacrata a San Giovanni Battista, fu la chiesa principale della città fino al 1501.

Fu eretta nel 1281 in sostituzione di una cappella dedicata a Santa Maria nel 1230.

Fig. 1.1 – Tavole della Chiesa di Saluzzo con annessa cronistoria sommaria.

(11)

11

Inserita nel contesto architettonico medievale del borgo antico, fu sede dei frati Domenicani dal 1320 e, nel corso dei secoli, subì numerosi rimaneggiamenti.

L'esterno presenta una facciata sobria, risalente all'epoca dell'ultimo rimaneggiamento del 1376, che ha cambiato anche l'orientamento dell'edificio, spostando l'abside da Nord ad Ovest.

L'interno della chiesa è suddiviso in tre navate con volte a crociera ed è accessibile dopo aver sceso un grande scalone in pietra, che separa il portale dalla navata centrale. L'inconsueta collocazione di questo elemento architettonico è anch'essa frutto dell'ultimo

(12)

12

rimaneggiamento del 1376 e conferisce alla chiesa una caratteristica di unicità nel suo genere.

Da notare è la tomba del marchese Ludovico II, progettata dall'architetto Antoine Morel e realizzata in marmo bianco di Paesana intorno al 1508 dallo scultore lombardo Benedetto Briosco.

La nicchia di fronte avrebbe dovuto ospitare il feretro della consorte, Margherita di Foix-Candale, marchesa di Foix, che però fu tumulata in Francia.

Gli scranni del coro ligneo provengono invece dall'Abbazia di Sant'Antonio di Ranverso e risalgono al XV secolo.

Dalla navata sinistra si accede al chiostro gotico. Voluto nel 1466 dal marchese Ludovico I, presenta capitelli con stemmi delle più note famiglie saluzzesi. Sul lato opposto si trova la cappella Cavassa, che ospita il monumento funebre del vicario generale del marchesato Galeazzo Cavassa. È dotata di portale in marmo bianco, opera dello scultore Matteo Sanmicheli e contiene affreschi risalenti al XVI secolo.

I domenicani officiarono la chiesa fino al 1802, quando fu soppressa dalle autorità napoleoniche. Nel 1820 essa venne resa al vescovo di Saluzzo, che l'affidò ai Servi di Maria, i quali provvidero ai restauri, modificandone l'aspetto come lo vediamo oggi.

Già a partire da Federico I († 1336) fu scelta come luogo di sepoltura dei marchesi e si avviò a diventare il vero e proprio pantheon della casata. Ampliata e trasformata a più riprese, approdò alla sua forma definitiva agli inizi del XVI secolo col completamento della cappella sepolcrale di Ludovico II. Le trasformazioni architettoniche subite dalla chiesa tra XIV e XVI secolo causarono più volte lo spostamento e la ricollocazione delle sepolture marchionali. Ulteriori cambiamenti subì l’edificio nel corso dell’età moderna, al punto che non è più conosciuta l’ubicazione e la consistenza dei resti mortali dei marchesi e dei loro familiari.

L’obiettivo di questa tesi è rivolto allo sviluppo di una procedura di processing robusta di questo tipo di dati GPR con PROMAX®.

(13)

13

1.2 CRONISTORIA DETTAGLIATA DELLE FASI

COSTRUTTIVE/RESTAURATIVE

 1281  Costruzione del primo edificio sacro dedicato a San Giovanni Battista.

 1325  I Frati Domenicani ottengono la gestione dell’edificio; si decide di erigere una chiesa a tre navate, con l’orientamento ovest-est e con l’accesso verso nord-ovest, in corrispondenza di quella che è la prima cappella della navata sinistra dell’edificio attuale.

 1336  Muore Federico I (1287?-1336), VI marchese di Saluzzo e primo ad essere sepolto nella chiesa. Bisogna supporre che sia stato sepolto nell’area più prestigiosa dell’edificio, ovvero nei pressi dell’altare.

(14)

14

 1370  Viene ampliata la chiesa con la costruzione di due nuove campate verso N-E ma con un nuovo orientamento: l’ultima campata diventa infatti il presbiterio, ma viene mantenuto l’antico ingresso.

 1376  Erezione del campanile nelle forme attuali.

 1396  Morte di Federico II (1332-1396), VIII marchese di Saluzzo, la cui sepoltura si può collocare in corrispondenza del nuovo altare oppure nella cripta antica (secondo D. Muletti ‘…ebbe sepoltura nella chiesa de’ padri di S. Domenico di Saluzzo nello stesso tumulo dell’avo suo Federigo I’, Memorie storico-diplomatiche appartenenti alla città ed ai marchesi di Saluzzo, Lobetti-Bodoni, 1829-1833).

 1416  Morte di Tommaso III (1356 c.-1416), IX marchese di Saluzzo, sepolto insieme alla moglie Margherita di Roussy (†1419).

 1466  Costruzione del chiostro quadrato a nord-ovest.

 1473 c.  Viene edificata una nuova campata e si sopprime il primitivo ingresso a favore di un nuovo accesso aperto a sud, corrispondente a quello attuale.

 1475  Muore Ludovico I (1406-1475), X marchese di Saluzzo, prima di poter vedere realizzata la una nuova cappella funeraria da lui voluta. Ignota è la sede della sepoltura.

 1480-1487  Ulteriore allungamento della chiesa in direzione nord-est con altre due campate.

 1492  Erezione di gran parte della Cappella del Santo Sepolcro, nuova cripta funebre marchionale.

 1504  Morte di Ludovico II (1438-1504), XI marchese di Saluzzo e viceré di Napoli, probabilmente sepolto sotto l’attuale monumento funebre del coro. Si ignora se i resti degli illustri antenati siano stati traslati nello stesso luogo (come suggerisce G. Vacchetta in “La Chiesa di San Giovanni di Saluzzo”, Torino, S. Lattes e C. Edit., 1931) o lasciati nelle precedenti sedi di sepoltura (come ipotizzato da D. Lobetti-Bodoni in “La Cappella del Santo Sepolcro”, 1898). Discordante è invece la versione di Giovanni Andrea Saluzzo-Castellar (1464-1533), testimone diretto, che nel suo “Charneto” afferma che il corpo del marchese è stato tumulato ‘…donda è la sepoltura antiqua deli marchissi’.

 1508  Completata la costruzione della Cappella del Santo Sepolcro.

(15)

15

 1656  Elevazione della cappella della Santa Casa di Loreto lungo il fianco destro della chiesa.

 1841  Parziale sopraelevazione del pavimento e sostituzione delle originali mattonelle in cotto con piastrelle.

 1926  Lavori di rifacimento dei loculi nella cripta marchionale.

1.3 L’INDAGINE GPR: VANTAGGI E MODALITÀ DI

ACQUISIZIONE DEI DATI

Il GPR, come dimostrato da diversi studi, è lo strumento più adatto in questo ambito, grazie alla sua non invasività e alla sua capacità di rilevare ampie porzioni di superficie in tempi relativamente veloci, oltre che dall'elevata risoluzione dei dati potenzialmente ottenibile. Vantaggi significativi sono stati ottenuti adottando una griglia di profili di acquisizione, in quanto questa modalità permette la visualizzazione tridimensionale della sottosuperficie. Dal volume 3D dei dati possono essere estratte delle sezioni radar parallele alla superficie tagliate a profondità variabili (time-slice) che, illustrando in pianta la geometria delle aree riflettenti del sottosuolo, facilitano l'interpretazione delle strutture geometriche come elementi murari o strutture antropiche in genere. Analogamente, sfruttando lo stesso insieme di dati, si possono visualizzare tridimensionalmente i volumi delle aree riflettenti.

Nell'ambito di questo progetto, la sottosuperficie della chiesa di San Giovanni Battista è stata esplorata tramite un'acquisizione con antenne di frequenza 600 MHz. Grazie a ciò, si può indagare la sottosuperficie fino ad una profondità di circa 1-1.5 m e ad una risoluzione inferiore al decimetro. L’acquisizione è avvenuta secondo una griglia regolare (fig. 1.5), composta da due sistemi di linee ortogonali, denominate LID (in direzione E-W rispetto al piano di riferimento) e TID (in direzione N-S rispetto allo stesso piano). Sia per le LID che per le TID, il passo di campionamento inline (lungo la linea) è di 1 cm (fig. 1.4), mentre il passo di campionamento xline (o crossline, cioè la distanza tra linee parallele) è di 25 cm. Il passo di campionamento temporale (cioè la distanza temporale tra i campioni acquisiti lungo ogni traccia) è di 0.1953125 nanosecondi.

(16)

16

Fig. 1.4 – parametri di acquisizione dei dati radar

Fig. 1.5 – Geometria di acquisizione, in cui le linee LID sono orizzontali, e le linee TID verticali.

(17)

17

2.0 ELABORAZIONE DEL DATO CON GPRslice®

2.1 PREPROCESSING

2.1.1 Introduzione

Il dato acquisito nella Chiesa di Saluzzo è stato sottoposto, oltre che a preprocessing, ad operazioni di processing base tramite il software GPRslice® che verranno di seguito illustrate. È stato necessario importare i dati riguardanti la geometria di acquisizione tramite un altro software molto comune per l’elaborazione dei dati GPR, GRED®, che ne crea in modo automatico un file di testo (il file Geometry.dat, mostrato in fig.2.1) da importare in GPRslice®. Nel dettaglio, il software di acquisizione dei dati, imposta per ogni linea la sua coordinata di inizio e quella finale, rispetto ad un piano cartesiano locale.

A questo punto l’elaborazione di base viene eseguita con GPRslice®.

Quello mostrato nella figura 2.1 è il file Geometry.dat, un semplice file di testo creato con GRED®.

Le linee denominate con il prefisso TID sono indicate con i numeri da 10001 a 10100; sono state acquisite in direzione N-S (nel sistema di riferimento scelto) e sono in media più lunghe rispetto alle LID, che invece sono state acquisite, sempre rispetto allo stesso riferimento, in direzione E-W. Queste ultime sono identificate dai numeri da 10101 a 10201.

Si ricorda che sia le linee LID che TID sono state acquisite con un passo di campionamento inline pari a 1 cm, e le linee sono distanziate le une dalle altre di

Fig.2.1 - file .txt con le informazioni di geometria di alcune linee di acquisizione.

(18)

18

25 cm (passo di campionamento xline). Inoltre, dalla figura 1.4 è possibile verificare il valore del passo di campionamento temporale, che è di 0.1953125 ns.

Dopo aver creato la geometria con GRED®, aver importato sia i dati che il file per la geometria in GPRslice® ed aver visualizzato le tracce grezze, è stato possibile compiere i primi passaggi di elaborazione.

2.1.2 Dewow filter

Il filtro di dewow è il primo passaggio del pre-processing, e ha l’obbiettivo di rimuovere l’effetto del trend a bassa frequenza (wow) presente nel dato, causato dalla saturazione del segnale registrato a seguito dei primi arrivi (air/ground wave) e/o da effetti induttivi scaturiti dall’interazione antenna trasmittente-ricevente (fig. 2.2).

Fig 2.2 – presenza del DC bias nel dato acquisito, e schema di funzionamento del filtro dewow per la sua eliminazione.

(19)

19

Il filtro calcola una media dei valori di ampiezza sulla base di una finestra di campioni definita dall’utente (wobble length) e la sottrae a tutti i campioni costituenti la traccia (Daniels, 2004).

Da un punto di vista matematico si ha che il campione processato corrisponde a:

A’n(t) = An(t) – 1 N Σ An(t) Nn

Dove:

 A'n(t), campione processato;

 𝐴n(t), campione non processato;

N, wobble length;

 n, numero campione.

L’intera traccia viene suddivisa in più finestre, per ognuna delle quali viene calcolato un valore medio che tenderà ad aumentare in profondità.

Se ad esempio si imposta una dimensione della finestra pari a due campioni, si hanno valori medi molto vicini a quelli degli i-esimi campioni posti lungo la traccia. La conseguenza, in questo caso, sarebbe l’azzeramento dei valori in seguito al filtraggio. Se N viene posto uguale al numero dei campioni della traccia, il valore medio, che deve essere sottratto ai vari campioni lungo la traccia, è costante e non rappresentativo del drift che, per sua natura, cresce all’aumentare della profondità.

Per ottenere un risultato accettabile è dunque necessario utilizzare un filtro che non sia né troppo lungo né troppo corto. Dati sperimentali indicano la regola generale per cui la lunghezza del filtro dovrebbe essere posta pari a 1/10 circa del numero totale dei campioni (tentativo effettuato nella fig.2.3 in alto a sinistra). Tale valore permetterebbe di non modificare in modo eccessivo la traccia e nel contempo di rimuovere parte del rumore a bassa frequenza.

Il dewow ha dunque lo scopo di garantire che la funzione di distribuzione di probabilità delle ampiezze sia simmetrica rispetto al valore medio, che deve risultare costante lungo l’intera traccia e pari a zero (riflessioni positive e negative si devono bilanciare) (fig. 2.3 in basso a destra).

(20)

20

Quindi, in definitiva, i tentativi effettuati hanno portato a scegliere, per i dati in esame, una lunghezza del filtro pari a 72 campioni, che garantisce una distribuzione simmetrica rispetto al valore medio (come mostrato in figura 2.3 in basso).

Per applicare nel miglior modo il Dewobble, è stato scelto di visualizzare le tracce con un leggero gain lineare ed esponenziale.

2.1.3 Move start time

È il secondo passaggio di preprocessing da compiere, e permette di contrastare gli effetti dovuti ad una variazione della distanza antenna-superficie di acquisizione durante la fase di acquisizione. Questo processo allinea di conseguenza le tracce costituenti il radargramma ed

Fig. 2.3 - correzione per effetto wobble con finestra temporale di 104 campioni (figura in alto, 1/10 della lunghezza della traccia, come da teoria). In basso, la stessa correzione ma con finestra temporale di 72 campioni (il risultato sembra migliore, è stato mantenuto questo). Per enfatizzare l’effetto Wobble è stato impostato al segnale un gain lineare ed esponenziale, che non è stato applicato in questo momento del

(21)

21

elimina totalmente o parzialmente il cammino in aria del segnale registrato dalle antenne, ponendo il tempo origine (tempo zero, T0) in corrispondenza della riflessione superficiale.

Tale operazione può essere effettuata tramite due metodi, mostrati in figura 2.4: il primo prevede la ricerca di un valore di soglia preimpostato (threshold) rispetto al primo picco del segnale, mentre il secondo ricerca direttamente la posizione del picco massimo.

In entrambi i casi il valore T0 può essere anticipato arretrando di un dato numero di campioni la precedente stima. Tale operazione viene eseguita per ogni singola A-scan; vengono in questo modo eliminati i campioni che si trovano a tempi inferiori rispetto al T0.

Dopo tale operazione, la finestra temporale di acquisizione effettiva risulta minore di quella originale ed è pari a:

effective time window [ns] = T – T0 ={[(nc – 1) dt] – [nc0 – 1) dt]} = dt [(nc – 1) – (nc0 - 1)

Dove:

 T, finestra temporale originale;

 T0, tempo zero;

 nc, numero di campioni della finestra temporale originale;

 nc0, campione alla posizione del T0;

 dt, passo di campionamento temporale.

Nel caso in esame, è stato scelto il secondo metodo, eliminando da ogni traccia i primi 35 campioni in modo tale da avere la piena espressione dell’ondina, per poterla poi utilizzare nella deconvoluzione.

(22)

22

2.2 PROCESSING DI BASE

2.2.1 Scelta della sequenza di processing

L’elaborazione è iniziata con l’applicazione ai dati di una funzione di guadagno, meglio spiegata nel paragrafo successivo. Per i passaggi successivi, sono stati effettuati diversi tentativi, con confronto delle immagini e degli spettri prima e dopo l’applicazione di un determinato passaggio.

Quindi, la sequenza finale si è così composta:

Gain Filtro bandpass  Deconvoluzione  Gain Filtro background Filtro boxcar 2.2.2 Gain

Le funzioni di guadagno sono applicate al dato per ovviare agli effetti di attenuazione del segnale causati dalle proprietà intrinseche del materiale attraversato (componente esponenziale) e alle perdite per spreading geometrico che, per la conservazione dell’energia, porta ad un decadimento dell’ampiezza con l’inverso della distanza dalla sorgente (componente lineare). Si possono utilizzare curve di guadagno lineari e/o esponenziali o, in alternativa, di Automatic Gain Control (AGC). In ogni caso, l’utente può personalizzare la curva di guadagno e di scegliere il punto di partenza a partire dal quale è possibile applicare il guadagno.

La curva di guadagno G(t) così ottenuta viene applicata ai campioni nella traccia in entrata (Tin) cosicché quella in uscita (Tout) sia abbastanza omogenea nelle ampiezze su tutti i tempi. Si può esprimere questa operazione come:

(23)

23

L’AGC è un tipo di guadagno che si basa sul rapporto tra il valore medio assoluto di ampiezza delle tracce del dato ed il valore desiderato, entrambi all’interno di una determinata finestra temporale. Il valore ottenuto viene assegnato ad ogni campione della traccia. Successivamente la finestra temporale si sposta in basso di un campione e ripete le stesse operazioni. Tale operazione tende in generale ad equalizzare le ampiezze dei segnali presenti nei dati, siano essi rumore o segnale utile.

A seguito dell’applicazione della curva di guadagno, considerando che il contenuto informativo decresce nel tempo (a causa dei fenomeni di attenuazione del segnale) parallelamente ad un aumento della componente rumorosa, si avrà un minor rapporto segnale/rumore.

Nel caso in esame, sono stati tentati due approcci:

 Il primo ha previsto l’utilizzo di una funzione di guadagno lineare-esponenziale (si è scelto di utilizzare una curva di guadagno che combini una componente lineare (con coefficiente angolare=100) ed esponenziale (con esponente=2). Il risultato è mostrato in figura 2.6.

 Il secondo tentativo ha previsto invece l’utilizzo di un filtro di tipo AGC (che ha valori preimpostati), però è stato modificato manualmente (verificandone direttamente gli effetti sulle tracce) per enfatizzare la componente del segnale alle

(24)

24

medie profondità (che con il normale AGC non sarebbero state amplificate). Il risultato è mostrato in figura 2.7.

Fig. 2.6 – primo tentativo di regain (con funzioe di guadagno combinata lineare-esponenziale).

(25)

25

Nelle figure 2.6 e 2.7 sono mostrati i radargrammi prima e dopo l’applicazione delle due funzioni di guadagno e si nota che la prima prova non modifica sostanzialmente il segnale originale, mentre la seconda permette di intravedere già qualcosa delle strutture sottosuperficiali (ancora non ben definite), anche se contemporaneamente amplifica molto il rumore.

Assiemea queste si ha la presenza di una porzione più chiara (nei primi ns) relativa ad una componente a bassa frequenza che potrebbe essere dovuta in parte a un residuo dell’operazione di dewow e in parte a rumore esterno.

2.2.3 Bandpass filter

L’operazione di filtraggio è necessaria in quanto la banda del segnale registrato risulta più ampia rispetto a quella del segnale effettivamente utile, a causa di componenti rumorose che contribuiscono a far diminuire il rapporto segnale/rumore. In figura 2.9, ad esempio, è possibile osservare una componente rumorosa sia alle basse frequenze (compresa tra 0 e circa 100 MHz) che alle alte frequenze, i cui effetti risultano visibili nel radargramma guadagnato. Ciò è ancora più facilmente visibile nella figura 2.10.

Fig. 2.8 – parametri scelti per modificare l’AGC proposto dal

(26)

26

Fig. 2.9 – in alto, spettro del secondo tentativo di regain, in cui viene mostrata la banda su cui verrà effettuato il filtro bandpass. In basso a sinistra, gli effetti del filtro su un radargramma scelto dall’utente, e a destra la modifica di una traccia.

Fig. 2.10 – in alto, spettro del segnale dopo l’applicazione del filtro bandpass. In basso a sinistra, il risultato dello stesso filtro, e a destra la modifica di una traccia.

(27)

27

Una regola empirica, spesso utilizzata nell’elaborazione dei dati GPR, prevede che la regione passante sia simmetrica rispetto al picco della frequenza del segnale ed ampia 1.5 volte esso (es. per una frequenza di 600 MHz la banda passante dovrà essere compresa tra 150-1050). Quando si valuta di applicare questa regola empirica è necessario considerare che la frequenza centrale di ritorno è inferiore rispetto a quella inviata.

Un ulteriore aspetto da tenere in considerazione quando si adopera un filtro passa-banda, è l’inclinazione delle spalle del filtro: se si utilizza un filtro con spalle troppo ripide (di forma quasi rettangolare) si verificano effetti di ringing o ripple (denominati effetti di Gibbs). Il filtro ottimale risulta dunque quello con forma trapezoidale. Il software imposta automaticamente un filtro di tipo Butterworth, in cui il trapezio che definisce la banda passante è meno “spigoloso”.

Per non introdurre distorsioni, la risposta in ampiezza del filtro deve essere costante all’interno della banda del segnale utile mentre la risposta in fase deve essere proporzionale alla frequenza (le componenti del segnale vengono ritardate tutte della medesima quantità) o a fase zero (nessun ritardo nelle componenti del segnale). Il software utilizzato non permette di conoscere tuttavia la risposta in fase del filtro che dunque si assume essere tale da non apportare distorsioni.

Nelle figure 2.9 e 2.10 sono stati messi a confronto i radargrammi prima e dopo l’applicazione del filtro passabanda. Come si può notare si ha l’eliminazione della componente a bassa frequenza.

Il filtro bandpass non ha eliminato completamente le frequenze al di fuori della banda passante, e quindi con i passaggi successivi queste frequenze influenzeranno l’andamento dello spettro. Di questo è necessario tenere conto durante i successivi passaggi di elaborazione.

2.2.4 Spectral deconvolution

Analogamente al caso sismico, il segnale GPR registrato (r) è dato dalla convoluzione tra la traccia di riflettività del mezzo indagato (g) e l’ondina sorgente emessa dall’antenna TX (i) (GPR-SLICE manual, 2016):

(28)

28

Attraverso l’operazione di deconvoluzione si può ottenere g che è rappresentativa della struttura interna del mezzo. Per fare ciò il software sfrutta la proprietà per cui una convoluzione nel dominio dei tempi corrisponde a una moltiplicazione nel dominio delle frequenze. Si ha così che:

G(ω) = R(ω) I(ω) Dove:

 G(ω), spettro della traccia di riflettività del terreno;

 R(ω), spettro del segnale registrato;

 I(ω), spettro dell’ondina sorgente.

A questo punto, applicando la trasformata inversa di Fourier si otterrà la traccia di riflettività del mezzo indagato. Per compiere una buona deconvoluzione, l’ondina sorgente deve essere nota poiché stimata statisticamente (approccio statistico) oppure perché misurata o calcolata (modello deterministico) (Mazzotti e Stucchi, 2009). Il software GPRslice® si avvale del metodo deterministico, fatto che in questo caso costituisce un problema infatti, non essendo nota all’operatore la signature della sorgente, essa deve essere ricavata dai dati a disposizione. Poiché l’operatore deconvoluzionale ha uno spettro di ampiezza che è approssimativamente l’inverso dello spettro di ampiezza del segnale in ingresso, se quest’ultimo possedesse ampiezze nulle per determinate frequenze nello spettro di ampiezza dell’operatore (per le stesse frequenze) si avrebbero frequenze infinite e dunque instabilità. Per ovviare a tale problema il software aggiunge automaticamente una quantità costante allo spettro di ampiezza tramite l’utilizzo della costante di Tickonov.

Nel caso dei segnali GPR, si ha generalmente che l’ondina sorgente emessa (cioè l’ondina sorgente) difficilmente è a fase minima (e ciò porta ad una instabilità dell’operazione di deconvoluzione) ed è soggetta inoltre a forti perdite energetiche che portano velocemente a un restringimento della banda di frequenza (e questo si traduce nella mancata stazionarietà dell’ondina sorgente). Un’ulteriore problema è legato alla forte sensibilità, da parte della deconvoluzione spettrale, all’ondina sorgente che quindi, se non determinata in maniere esatta, può portare a risultati deludenti.

In definitiva, per operare la deconvoluzione, è stata utilizzata la signature della sorgente a partire dalla riflessione superficiale (figura 2.11) rilevata dal radargramma di partenza, immediatamente dopo la rimozione del drift.

(29)

29

È stato fatto un tentativo di deconvoluzione utilizzando, al posto della riflessione superficiale, l’ondina del dato processato. Ma come ci si potrebbe aspettare, la soluzione è peggiore rispetto al primo caso (figura 2.12).

Fig. 2.11 – primo tentativo di deconvoluzione, in cui è stata utilizzata la signature della sorgente.

(30)

30

Con l’utilizzo della signature della sorgente a partire dalla riflessione superficiale, è stato ottenuto qualche piccolo miglioramento in termini di “attenuazione” delle forti ampiezze nelle vicinanze della riflessione superficiale, dove l’effetto dell’ondina sorgente è maggiore. Il problema è che, associato a questo effetto, si è verificata pure la rimozione di buona parte del segnale utile, soprattutto alle profondità maggiori, dove le strutture prima visibili sembrano andate perse. Dopo una prima analisi, è stato scelto di mantenere comunque l’applicazione della deconvoluzione, e verificare se i risultati potessero migliorare successivamente. Quindi è stato scelto di applicare effettivamente questo passaggio di processing ai dati in esame.

Tra le operazioni possibili durante l’elaborazione del dato, il software in uso permette di compiere lo whitening (utilizzato per pesare equamente tutte le componenti spettrali con la stessa intensità), che solitamente viene effettuato prima della deconvoluzione per “sbiancare” lo spettro. È stato fatto un tentativo del suo utilizzo, ma:

• Il dato risultato dalla successiva deconvoluzione non cambia con l’utilizzo precedente del whitening;

• A causa della mancata eliminazione di certe frequenze non utili al di fuori della banda passante con il filtro bandpass, queste vengono amplificate con l’applicazione del whitening, e questo rende necessario l’utilizzo di un altro filtro dopo la deconvoluzione.

Per questi motivi non è stato utilizzato nell’effettiva elaborazione del dato.

2.2.5 Gain 2

La deconvoluzione ha avuto come effetto collaterale l’attenuazione di gran parte delle informazioni visibili dalle linee di acquisizione. Per questo è stato deciso di compiere un altro guadagno, per verificare che le strutture alle basse profondità siano ancora visibili. Il gain utilizzato ha avuto come impostazioni quelle mostrate in figura 2.13: è stato impostato un gain AGC, con modificati i valori di guadagno alle medie profondità.

(31)

31

In figura 2.14 sono invece mostrati i risultati del segnale dopo l’applicazione del secondo gain, che è possibile confrontare con il segnale prima del gain (fig. 2.11) e prima della deconvoluzione (fig. 2.10). Come si può vedere, le riflessioni profonde sono riapparse.

Fig. 2.13 – parametri scelti per effettuare il nuovo gain AGC.

(32)

32 2.2.6 Background removal

Questo passaggio di processing consente di eliminare le componenti di rumore coerente (background noise) che hanno la stessa frequenza del segnale utile, e quindi vengono rimosse con difficoltà attraverso i classici filtraggi passa-banda. L’algoritmo calcola una media delle ampiezze all’interno di una finestra prestabilita, e successivamente sottrae questo valore all’intero set di dati. Il valore medio ottenuto rispecchia solo gli elementi comuni a tutte le tracce, mentre le riflessioni casuali tendono ad avere tra loro un’interferenza costruttiva e dunque non vengono rimosse. L’operazione di background removal mette dunque in evidenza eventi prima oscurati.

Da un punto di vista pratico è necessario selezionare i campioni di inizio e di fine che delimitano la porzione sulla quale si vuole far agire il filtro. È importante dare particolare attenzione alla scelta della lunghezza della finestra operativa: se questa è troppo piccola rispetto al numero di tracce, è possibile eliminare segnale utile mentre, se troppo grande, si possono eliminare riflessioni isocrone di interesse.

Matematicamente, Daniels (2004) definisce nel seguente modo il background removal:

A’n,a(t) = An,a(t) – 1 Na Σ An,a(t) Naa = 1

Dove:

 n, è il numero di campioni che va da 1 a N;

 a, è il numero di A-scan che va da 1 a Na;

 A’,a(t), A-scan processate;

(33)

33

Per il dato in esame è stato utilizzato un filtro con larghezza pari alla lunghezza del profilo GPR ed una lunghezza pari al numero totale dei campioni. Come conseguenza, assieme al rumore coerente orizzontale, la riflessione superficiale è stata completamente rimossa (fig. 2.15) e si ha una riduzione generale delle ampiezze.

2.2.7 Boxcar filter

Nel dato in esame è presente una componente rumorosa non coerente con frequenza compresa nella banda utile. Il filtro boxcar ha lo scopo di rimuovere tale effetto: questo opera attraverso una media mobile in direzione spaziale; le sue dimensioni sono definite dalla sua altezza e larghezza.

Considerando un filtro con dimensioni NxM (con N il numero di righe e M quello di colonne), l’effetto filtrante interesserà 2M+1 scan e N campioni in verticale di ogni A-scan.

Il metodo di azione dell’algoritmo consiste nella sostituzione del valore centrale della finestra con quello della media aritmetica mobile calcolata al suo interno. Il processo è iterativo, la finestra viene quindi traslata orizzontalmente traccia per traccia dalla prima all’ultima A-scan, per poi essere spostata rigidamente in verticale. La mancanza di tracce

Fig. 2.15 – risultato dell’applicazione del background

(34)

34

agli estremi della sezione viene colmata ripiegando l’intervallo che viene dunque esteso specularmente oltre gli estremi dei dati (come esempio si può considerare un radargramma costituito da 10 A-scan e un filtro di dimensioni 1x1: quando il valore del filtro raggiungerà la decima traccia allora, vista la mancanza di valori oltre gli estremi, verrà generata un’undicesima traccia fittizia tramite la replica della nona traccia oltre la decima).

L’effetto complessivo del filtro boxcar è uno smussamento del radargramma senza alterarne le informazioni utili.

Nel caso in esame, affinché il dato non subisca uno smussamento eccessivo, è stato applicato un filtro con dimensioni minime possibili (GPRslice® permette una dimensione minima della finestra 1x1) (fig. 2.16). L’utilizzo di una finestra con dimensioni maggiori smussa eccessivamente le tracce del dato, come mostrato in fig. 2.17.

Dalla figura 2.16 si nota l’enfatizzazione di quelle che potrebbero essere due strutture con concavità verso il basso, nella parte sinistra del radargramma.

Fig. 2.16 – risultato dell’applicazione del boxcar con dimensione della finestra 1x1.

(35)

35

2.2.8 RISULTATI OTTENUTI E PREMESSA ALL’UTILIZZO DI PROMAX®

L’elaborazione con GPRslice® si è fermata a questo punto; le linee non sono ancora interpretabili, in quanto sono presenti, nelle vicinanze della superficie, diverse iperboli di diffrazione che possono essere eliminate solo tramite l’operazione di migrazione.

I dati non elaborati (o meglio, su cui sono stati applicati in GPRslice® solamente il filtro dewow ed il move start time) sono stati convertiti al formato SEG-Y e trasportati in PROMAX®, dove è stata effettuata una nuova elaborazione di base, e successivamente la migrazione 3D, con il fine di definire un nuovo e più robusto metodo di processing dei dati radar.

Fig. 2.17 – risultato dell’applicazione del boxcar con dimensione della finestra 4x4.

(36)

36

3.0 MODIFICA DELLE GEOMETRIE CON

L’UTILIZZO DI MATLAB®

3.1 MODIFICA DELLE GEOMETRIE

A causa dell’impossibilità di completare l’elaborazione e di compiere la migrazione tramite GPRslice®, il dato è stato convertito nel formato SEG-Y, il formato standard che il software PROMAX® è in grado di leggere ed elaborare.

Il software di acquisizione è impostato in modo da creare un file con estensione .dt per ogni linea di acquisizione. Quindi, l’elaborazione compiuta con GPRslice® ha previsto un’unica sequenza di passaggi per tutte le tracce. Ovviamente, ogni passaggio del processing di base è stato ponderato su tutte le tracce per avere la minor perdita di informazione possibile. Per compiere in modo più veloce la modifica delle geometrie in MATLAB®, i file corrispondenti alle linee di acquisizione sono stati accorpati tramite PROMAX® in due grandi file: il file LID, che comprende tutte le linee LID (acquisite in direzione E-W rispetto agli assi di riferimento) e il file TID, che contiene tutte le linee TID (acquisite invece in direzione N-S).

Per aprire il dato in MATLAB® è stata utilizzata la funzione readHDsgy. Il dato si presenta composto in due parti:

 D, l’intero dato in una matrice, contenente tutte le tracce con il valore rispettivo di ampiezza per ogni campione temporale;

H, uno structure array, cioè un insieme di dati divisi in campi, ognuno con il proprio nome e le proprie caratteristiche (che corrispondono alle header SEG-Y).

Aprendo e visualizzando il dato, si nota la mancata presenza di valori ai campi che corrispondono alle coordinate dei punti campionati, rispettivamente, lungo gli assi x ed y del piano di acquisizione. Anche i campi di cdp, ed i valori di inline ed xline non sono presenti. Questi ultimi corrispondo ai passi di campionamento, rispettivamente, lungo gli assi x ed y del sistema di riferimento scelto durante l’acquisizione.

La mancanza di questi valori è dovuta al fatto che non sono necessari nei software standard per l’elaborazione dei dati radar. Sono necessari però per l’elaborazione dei dati sismici, e PROMAX®, essendo stato progettato a tale scopo, necessita di quei campi per poter elaborare il dato.

(37)

37

È bene ricordare che, sia per le linee LID che TID, il passo di campionamento lungo la singola linea è di 1 cm (sia per le linee LID che per le TID) mentre la distanza tra le linee è di 25 cm (sia per le linee LID che per le TID).

I passi di campionamento nelle due direzioni del sistema di riferimento scelto devono quindi essere scritti da zero: sono presenti in H alcuni campi vuoti (che contengono cioè valori nulli) che sono riempiti con i valori di inline e xline tramite MATLAB®.

La modifica delle geometrie è iniziata dal file di testo Geometry.txt, ottenuto tramite GRED®. Questo è un file all’interno del quale, per ogni linea di acquisizione (sia in direzione N-S che in direzione E-W rispetto agli assi di riferimento) sono indicate le coordinate x e y di inizio e fine acquisizione.

(38)

38

Fig. 3.2 - Una porzione del file Geometry_LID.txt, da cui si vedono le coordinate xi e yi (x e y iniziali, seconda e terza colonna), xf e yf (x e y finali, quarta e quinta colonna).

Fig. 3.3 – porzioni del workspace del dato LID originale in MATLAB®. A sinistra, struttura e composizione in campi del dato H. A destra, massimi e minimi valori delle coordinate x e y (indicate nelle variabili X e Y).

(39)

39

Fig. 3.5 - una porzione del file Geometry_TID.txt, da cui si vedono le coordinate xi e yi (x e y iniziali, seconda e terza colonna), xf e yf (x e y finali, quarta e quinta colonna). Fig. 3.4 - Geometria del file TID originale.

(40)

40

Date solamente le coordinate degli estremi delle linee, sono stati utilizzati i valori dei passi di campionamento inline e xline per scrivere le coordinate di tutti i punti campionati. L’unica informazione utile, già scritta in modo corretto nel dato iniziale, era quella del campo “lineindex”, cioè quello che contiene le linee di acquisizione (o meglio, è l’indice che assegna ad ogni traccia il numero della linea a cui appartiene). L’insieme dei “lineindex” è contenuto nella header del dato nominata “d1”. Per estrarre i valori di un campo è necessario digitare in MATLAB® la sintassi:

nome_del_campo = [H.campo];

Riassumendo, l’obiettivo è stato modificare i valori dei seguenti campi:

 sx: coordinate x dei punti campionati;

 sy: coordinate y degli stessi;

d2: valori di inline (dx per le LID, dy per le TID);

f2: valori di xline (viceversa rispetto a sopra).

Partendo dal “lineindex” si è realizzato un ciclo for secondo due indici:

i: l’indice delle linee, da 1 e arriva al valore massimo di lineindex (cioè il numero totale delle linee,101 per le LID e 100 per le TID);

I, che fornisce tutte le tracce il cui lineindex è uguale a i.

All’interno del ciclo ne è stato inserito un altro per reinserire all’interno dei campi (le header) i valori corretti calcolati.

La scrittura dei valori di CDP è stata fatta mediante un altro ciclo for, utilizzando come indice il lineindex, e i nuovi valori calcolati sono stati reinseriti dentro la header corrispondente.

Fig. 3.6 - workspace del file di geometria delle linee TID. si possono notare i valori errati delle coordinate x e y massime (dell’ordine di 10-44

(41)

41

L’ultimo passaggio ha previsto la scrittura dell’intero file modificato: ciò è stato fatto mediante un’ulteriore funzione pronta dal nome “writesegy”.

Gli input di questa funzione devono essere:

filename: nome del file da creare;

 D, il dato in una matrice (traccia temporale);

 tc: il tempo di campionamento (in microsecondi): per i dati in esame corrisponde a 0.1953125 ns;

H: le tracce delle header.

I risultati sono mostrati nelle figure seguenti (figure 3.7 e 3.8).

Fig. 3.7 – wokspace del file LID modificato: si possono notare le variabili X e Y adesso scritte nel modo corretto, con valori dell’ordine di grandezza del metro. Inoltre sono state scritti i campi inline e xline, in figura indicati dalle variabili IL e XL.

Fig. 3.8 - workspace del file TID modificato: si possono notare le variabili X e Y adesso scritte in modo corretto (confrontando con i valori presenti nel file

contenente le informazioni di geometria). Sono anche visualizzate le variabili IL e XL, che indicano i campi inline e xline.

(42)

42

Come si può notare dalle figure 3.7 e 3.8, adesso le coordinate x e y sia delle linee LID che quelle delle linee TID hanno assunto valori più ragionevoli. Tutto ciò può essere verificato visualizzando le geometrie (figura 3.9).

(43)

43

Fig. 3.9 - Geometria dei dati LID (in alto), TID dopo le modifiche e loro confronto con la geometria ottenuta tramite GPRslice®.

(44)

44

3.2 APPLICAZIONE DEL BACKGROUND REMOVAL

È stato necessario effettuare anche il background removal sul dato per eliminare parte del rumore compreso all’interno della banda utile del segnale. Questo passaggio consiste nel calcolare la traccia media, e sottrarla da ogni traccia. In questo modo è possibile eliminare il rumore di sottofondo, cioè un tipo di rumore contenuto all’interno della banda di frequenze utile.

Quindi, in questo caso, la modifica è stata compiuta sulla matrice D del dato, invece che su H. D è la matrice che contiene le ampiezze di ogni traccia. Ad esempio, per i dati LID è una matrice 921*94203: il secondo valore è quello relativo al numero di tracce del dato, il primo corrisponde invece al numero di campioni per ogni traccia.

Nell’effettuare tale operazione in MATLAB®, il modo più semplice è creare un vettore colonna, che contiene, per ogni riga, la media dei valori di ampiezza dei campioni delle tracce corrispondenti. Tutto è stato eseguito in due cicli for annidati: quello più grande controlla il numero di campioni, quello più piccolo il numero di tracce. All’interno del ciclo for più piccolo è stata creata la finestra window, che contiene tutti i valori di D della stessa riga. Dai valori della stessa riga si ottiene il valore medio con la funzione mean(filename, dim), in cui “dim” indica la dimensione su cui effettuare la media. Per questo motivo è stato impostato il valore 2 (in quanto la media va eseguita lungo la seconda dimensione). Il calcolo del valore medio è stato eseguito sulle ampiezze delle tracce di ogni linea, non sul dato intero; altrimenti è stato verificato che il background filter non sortisce l’effetto desiderato. Dopo aver calcolato il valore medio lungo la riga, la finestra window si sposta verso il basso e calcola tutti i valori medi da inserire nella traccia media (vector_media). Infine, in un altro ciclo for, viene sottratta ad ogni traccia della matrice D originale la traccia media.

(45)

45

4.0 ELABORAZIONE DEL DATO CON PROMAX®

4.1 INTRODUZIONE ALL’UTILIZZO DI PROMAX®

Il processing con l’utilizzo di GPRslice®, come si è visto, è stato fermato al filtro boxcar ed è proseguita in PROMAX®, come già affermato, per tentare di produrne un’elaborazione più robusta. Anche la migrazione è stata portata a termine con l’ausilio di PROMAX®, più efficiente per l’elaborazione di dati in forma tridimensionale.

È stato importato in PROMAX® il dato non completamente elaborato (vi erano applicati solo il dewow filter, move start time e il filtro background), percorrendo una nuova elaborazione di base, ed infine è stata applicata la migrazione 3D;

La premessa al processing di base ed avanzato dei dati in PROMAX® è stata l’impostazione della geometria di acquisizione che è stata compiuta con l’aiuto di MATLAB®.

L’ultimo passaggio ha previsto la migrazione multi 2D dei dati e la loro interpretazione, per verificare la presenza e la posizione di strutture antropiche/archeologiche al di sotto del pavimento della Chiesa. Tra le conclusioni, inoltre, è stato possibile evidenziare le differenze nell’applicazione ai dati di un’elaborazione standard (quella con GPRslice®) e di una non convenzionale (effettuata con PROMAX®).

Prima di passare all’elaborazione vera e propria, è bene fare un confronto fra il GPR ed i metodi sismici: qual è la differenza fra i due? I risultati sembrano molto simili ma vi sono alcune fondamentali cose che distinguono i due metodi:

 Nella sismica, la riflessione delle onde è causata dalla variazione di densità del materiale indagato, mentre nel GPR la riflessione è da imputare al cambio delle proprietà elettriche (principalmente la costante dielettrica);

 La sismica richiede un solido accoppiamento fra lo strumento e il terreno, mentre nel GPR l’onda generata dall’antenna trasmittente (transmitter, TX) attraversa sempre uno “strato” d’aria, che la modifica;

Il radar, avendo in sé accoppiati le antenne TX (transmitter) e RX (receiver), è già un dato stack, e non necessita l’applicazione del CMP sorting;

 Nel metodo GPR, generalmente le velocità non hanno un contrasto elevato (superiore al 50%) mentre nella sismica sono possibili (anche se rari) contrasti superiori in

(46)

46

quanto le differenze di densità e proprietà elastiche possono essere maggiori rispetto alla differenza fra le proprietà elettriche;

 Il GPR mostra maggiori dettagli rispetto alla sismica: in altre parole ha una risoluzione maggiore;

 Il segnale GPR è polarizzato: ciò permette di visualizzare in profondità le strutture la cui estensione è nella stessa direzione del piano di polarizzazione del segnale Queste differenze sui metodi, portano a sostanziali differenze anche nei risultati del processing che vi si applica: uno dei tanti esempi può essere l’utilizzo della deconvoluzione sismica standard su dati GPR (si veda il paragrafo riguardante la deconvoluzione per approfodire).

4.1.1 Struttura del software e struttura del dato SEG-Y

Il SEG-Y è il formato più diffuso per elaborare dati sismici; è stato sviluppato dalla Società di Esplorazione Geofisica (SEG) per memorizzare dati geofisici.

La sua struttura comprende due blocchi:

header di nastro, con dimensioni fisse (3600 byte) e composta di:

o header di testo (3200 byte divisi in 40 righe e 80 colonne), lette dall'utente, contenenti informazioni generali sul dato;

o header binarie (400 byte divisi in gruppi di 2 o 4 byte) lette dal software, contenenti informazioni di dettaglio (numero di tracce ausiliarie, formato di archiviazione, unità di misura...).

header di traccia, con dimensione variabile in funzione del numero di campioni e tracce registrate. Ogni header di traccia ha dimensioni di 240 byte, di cui i primi 180 sono fissi e contengono informazioni specifiche relative alla traccia (shot, numero di canali, coordinate XY, CDP, offset rispetto a sorgente...) e i rimanenti 60 byte vuoti (utilizzabili per acquisizioni 3D o utilizzabili da utente). Ogni header di traccia è seguita dalla traccia corrispondente; ogni traccia ha dimensione variabile in funzione del numero di campioni (un campione corrisponde a 4 byte).

IL SEG-Y è uno dei formati che PROMAX® è in grado di leggere: il software elabora i dati utilizzando dei cosiddetti flow, cioè dei flussi di operazioni, applicati al dato di partenza, e le modifiche possono essere salvate all’interno di un dataset, che contiene i file indice, mappa, trace data e trace header.

(47)

47

4.2 ELABORAZIONE DI BASE

Le operazioni svolte di seguito sono state applicate ai dati importati in forma non completamente elaborata da GPRslice®.

4.2.1 Input del dato e visualizzazione

Dopo aver modificato le geometrie dei file LID e TID in MATLAB®, la prima operazione effettuata è stata l’importazione e la visualizzazione dei due file SEG-Y.

Dalla figura 4.1 si nota che il dato deve essere inserito in modalità IEEE Real alla voce Input trace Format (IEEE Real è un formato 4 byte floating point non standard), che è stato inserito il corretto intervallo di campionamento di 0.1953125 ns, ed infine che è stata impostata la sovrascrittura delle header modificate tramite MATLAB®, inserendo la seguente sintassi:

Fig. 4.1 – le impostazioni più adatte per leggere correttamente il dato in esame in PROMAX®.

(48)

48

SOU_X,,4R,IEEE,73/SOU_Y,,4R,IEEE,77/FILE_NO,,4I,IEEE,181/ILINE_NO,,4I,IEEE,1 89/XLINE_NO,,4I,IEEE,193/

Le header da sovrascrivere sono indicate in PROMAX® come SOU_X e SOU_Y (corrispondono alle coordinate x e y), FILE_NO (quello che in MATLAB® era il lineindex, cioè l’indice che definisce univocamente la linea) ILINE_NO e XLINE_NO (rispettivamente, i valori di inline e xline).

Nella sintassi indicata sopra, seguono i campi:

Primo campo: il nome della header PROMAX®;

Secondo campo: la descrizione della header. Se si sovrascrive una header che già esiste in PROMAX®, questo campo può essere lasciato vuoto (come nel caso in esame);

Terzo campo: il formato dei valori della header SEG-Y, dove il numero indica la dimensione in byte, e la lettera indica se il dato è intero, reale ecc;

Quarto campo: la rappresentazione del valore reale del dato nella header SEG-Y.

Quinto campo: la posizione iniziale del byte all’interno della header SEG-Y da cui estrarre i valori da sovrascrivere. Esiste una tabella nel quale sono indicati i byte che contengono le informazioni di ogni header: i valori immessi sono stati scelti da lì. Ciò deve essere fatto, in modo identico, sia per il dato LID sia per il dato TID. Questi sono visualizzati nelle figure 4.2 e 4.3.

(49)

49

L’elaborazione di base è stata eseguita su un unico dataset invece di due diversi: quindi ai due dati è stato fatto un merging (cioè sono stati uniti), con l’inserimento, all’interno di un nuovo flow, della funzione Disk Data Insert, ed è stato creato il dato di partenza, su cui è avvenuta l’effettiva elaborazione. Questa operazione ci permette di mescolare insieme le informazioni di coordinate, inline e xline provenienti da entrambi i dataset ed effettuare così l’elaborazione 3D; il disk data insert deve avere come input uno dei due file, e deve essere preceduto con un disk data input contenente l’altro dato.

4.2.2 Impostazione e verifica delle geometrie

Il processing in PROMAX® richiede generalmente che i dati siano rapportati alla descrizione della geometria usata durante l’acquisizione. Nel caso in esame, questo passaggio viene utilizzato per verificare la correttezza delle modifiche compiute tramite MATLAB®.

Avendo già impostato le geometrie tramite MATLAB®, è necessario in questo caso applicare solo la funzione Exctract database files, che estrae in modo automatico le header delle geometrie già presenti nel file.

(50)

50

All’interno dell’exctract database files, è sufficiente indicare che il dato in esame è terrestre (e non marino), ed altre piccole informazioni come l’estrazione del CDP binning (da cui viene costruito un database CDP).

Dopo aver compiuto tutte le necessarie operazioni basilari per l’importazione del dato in PROMAX®, è stata compiuta una verifica della loro correttezza confrontando con la visualizzazione in MATLAB®: ad esempio, è stato scelto di visualizzare tutte le linee secondo ILINE_NO (cioè la header che contiene i valori di inline, corrispondenti l’asse y del sistema di riferimento scelto) e l’XLINE_NO (l’xline, cioè l’asse x del sistema di riferimento scelto) come seconda header.

La prima linea visualizzata in PROMAX® è la prima linea LID (figura 4.4), nella sua interezza (cioè visualizzata nella stessa modalità in cui è stata acquisita, in direzione E-W). Questa ha valori di inline=1 e xline che aumentano con l’aumentare del numero di traccia (la cui informazione è contenuta nella header TRACE_NO).

Come seconda linea, in PROMAX® viene visualizzato un insieme di dati contenente alcune tracce dell’acquisizione TID (fig. 4.5), e per la precisione tutte quelle che hanno valore di inline=12 (in quanto tutte le linee TID partono dal valore di coordinata x=0.11 m).

In fig. 4.6 è mostrato il dettaglio di due tracce contenute all’interno di questa linea: tra le diverse tracce si nota infatti che il valore della coordinata y rimane costante, mentre quello della coordinata x aumenta di 25 cm per tracce adiacenti (esattamente come prevede il passo di campionamento xline tra le diverse TID).

(51)

51

Fig. 4.5 – visualizzazione della seconda linea del dato intero, scegliendo inline come prima header. È una linea non acquisita realmente.

Fig. 4.6 – dettaglio della seconda linea del dato intero visualizzata secondo le inline, con le informazioni delle header di due tracce adiacenti: si nota che la coordinata x (descritta dalla header SOU_X) è 3.25 m a sinistra, e 3.5 m a destra. Questo significa che la spaziatura tra le tracce in questo caso è 25 cm.

Riferimenti

Documenti correlati

In the rest of the experiments, we adopt the consecutive events approach, using the event type frequency measure. Overall, with that method we achieved an accuracy close to

Suri, Deep learning strategy for accurate carotid intima-media thickness measurement: An ultrasound study on Japanese diabetic cohort,.. Computers in Biology and Medicine (2018),

69 National University of Science and Technology “MISIS”, Moscow, Russia, associated to 32 70 National Research Tomsk Polytechnic University, Tomsk, Russia, associated to 32.

 Tenor, cioè le scadenze (in numero di mesi) per le quali abbiamo i livelli degli zero rates. Infatti, questa matrice tridimensionale contiene i valori futuri di tutti

nerazione” indica anche «l’insieme degli individui che hanno all’incirca la stessa età o vivono nella stessa epoca»: questa è la definizione che più la avvicina al concetto

Using a standard intention-based trust game, we have explained how the return decision of the responder is simultaneously influenced by both positive and negative reciprocity.. It

Non è un caso che l’introduzione di Simona Corso dia avvio al volume sotto gli auspici della Repubblica di Platone, così come non risultano scontati i riferimenti alla

  Questo   avviene   in   particolare   quando  Giorgio  Venuti  interroga  insieme  sia  la  propria  crisi  familiare   sia  quella  della  Storia,  in  un