• Non ci sono risultati.

L’interferometria SAR è una tecnica che utilizza due o più immagini SAR per generare mappe della deformazione superficiale o modelli di elevazione del terreno. Si basa sul fatto che ad ogni passaggio i satelliti misurano precisamente la distanza (range) sensore-superficie, per cui sono anche in grado di misurarne le variazioni. I satelliti SAR a causa dei loro angoli di incidenza molto elevati sono principalmente in grado di rilevare la componente verticale del movimento.

Le immagini SAR sono composte da una griglia di numeri complessi y, chiamati fasori, che possono essere distinti in ampiezza e fase, quest’ultima di interesse maggiore quando si vuole produrre un interferogramma. Il segnale può essere descritto come 𝑦 = 𝐴𝑒−𝑗𝜑= 𝐴𝑒−𝑗4𝜋𝜆𝑅

, dove 𝑦 è il fasore, 𝐴 è l’ampiezza, 𝑗𝜑 è la fase registrata e 𝑅 è la distanza in range inclinato tra il sensore e l’oggetto (Rosen et alii, 2000; Lauknes, 2004; Simons e Rosen 2007; Hoser, 2018). La differenza di fase tra due immagini dipende quindi dal range e dalla fase di backscatter all’interno della cella di risoluzione, rappresentata da valori casuali legati ai bersagli presenti al suo interno. La posizione di un bersaglio in range inclinato può quindi essere riconosciuta da un sistema SAR a causa del valore di fase del segnale, come ci dice l’equazione della fase 𝜑 = −2𝜋𝜆 2𝑅 = −4𝜋

𝜆 𝑅, dove 𝜑 è la fase. Siccome il segnale deve

percorrere due volte la distanza sensore-oggetto il range R è raddoppiato. Differenze nella lunghezza di questo percorso determinano variazioni della fase e conseguentemente della posizione in range del bersaglio. Tipicamente i valori di spostamento negativi, derivati dal valore della fase, sono interpretati come movimenti in allontanamento dal sensore nella direzione del range (inclinato), mentre i valori positivi sono interpretati come in avvicinamento (Rosen et alii, 2000; Ferretti et alii, 2007; Hooper et alii, 2007; Simons e Rosen, 2007). Nella tecnica Interferometric Synthethic Aperture Radar (InSAR) la differenza tra i due segnali di fase viene sfruttata utilizzando due immagini SAR per costruire un interferogramma complesso Φ. Durante la formazione di un interferogramma, alla prima immagine, chiamata master, viene sottratta la seconda, chiamata slave. La sottrazione porta ad una fase interferometrica 𝜙 che rappresenta la differenza di fase tra le due immagini SAR (Rosen et alii, 2000; Ferretti et alii, 2007; Hooper, 2007; Simons e Rosen, 2007; Hoser, 2018).

31 La fase interferometrica è formata da diversi componenti:

𝜙 = 𝜙𝑇.𝑝𝑖𝑎𝑡𝑡𝑎+ 𝜙𝑡𝑜𝑝𝑜+ 𝜙𝑠𝑝𝑜𝑠𝑡+ 𝜙𝑎𝑡𝑚+ 𝜙𝑜𝑟𝑏+ 𝜙𝑟𝑢𝑚

dove 𝜙𝑇.𝑝𝑖𝑎𝑡𝑡𝑎 è la fase della terra piatta (assume che non ci sia topografia), 𝜙𝑡𝑜𝑝𝑜è la fase topografica o elevazione della superficie, 𝜙𝑑𝑖𝑠𝑝 è lo spostamento della superficie tra le due immagini, 𝜙𝑎𝑡𝑚 è il contributo dell’atmosfera al segnale di fase, 𝜙𝑜𝑟𝑏 è il contributo causato alle variazioni dell’orbita della piattaforma e 𝜙𝑟𝑢𝑚

è il rumore di fase (Hanssen, 2001; Berardino et alii, 2002; Crosetto et alii, 2016). L’obiettivo principale del Differential Interferometric SAR (DInSAR) è quello di individuare il contributo di 𝜙𝑠𝑝𝑜𝑠𝑡. Se è possibile isolare

questo componente sottraendo e minimizzando gli altri, possono essere registrate differenze di fase inferiori alla lunghezza d’onda del segnale, arrivando a individuare movimenti di pochi millimetri. I componenti principali di 𝜙 sono 𝜙𝑇.𝑝𝑖𝑎𝑡𝑡𝑎 e 𝜙𝑡𝑜𝑝𝑜 che possono essere calcolati utilizzando le posizioni relative dei sensori e un DEM preesistente (tipicamente lo Shuttle Radar Topography Mission (SRTM) con dimensione delle celle 30-90 m), in modo da sottrarli a 𝜙 (Figura 23). 𝜙𝑎𝑡𝑚 viene causato dalla stratificazione dell’atmosfera e dalla presenza di

fenomeni metereologici che la rendono “turbolenta”. Il rumore atmosferico viene rimosso tramite modelli ottenuti con altri tipi di osservazioni (e.g. GPS, palloni sonda) o aumentando il rapporto segnale-rumore durante il post-processing, tramite lo stacking o l’analisi delle serie temporali. 𝜙𝑜𝑟𝑏 è causato dalla differente posizione del satellite nelle due scene; maggiore è la baseline perpendicolare trai due satelliti (Figura 23), maggiore è la differenza fra le due geometrie di vista. Tipicamente viene rimosso tramite valutazioni statistiche. 𝜙𝑟𝑢𝑚 può essere ridotto tramite del filtraggio ma non può essere completamente rimosso.

Inizialmente la fase è nota soltanto rispetto al modulo 2π, ma la fase totale può essere data da molti multipli di 2π. Si dice quindi che la fase è impacchettata (wrapped). Determinare la fase assoluta, ossia i multipli totali di 2π, è un procedimento definito spacchettamento (unwrapping) della fase. Una variazione di fase di 2π è nota come frangia e corrisponde ad una variazione del range (inclinato) di 𝜆2, rappresentato graficamente da un ciclo di colori completo. Lo spacchettamento visivo corrisponde quindi al contare i cicli di colori nell’immagine (Figura 22).

Figura 22 - Lo spacchettamento visivo della fase consiste nel contare i cicli di colori per ricavare la deformazione (da Dzurisin, 2007)

32 Dopo aver creato un interferogramma, la fase interferometrica presente non deve essere interpretata come omogenea. Alcune parti dell’interferogramma possono avere differenti contributi alla fase rilevata da parte del rumore rispetto ad altre, con alcune che possono essere rumorose al punto da rendere non interpretabile la fase interferometrica. Questo fenomeno è detto decorrelazione ed è tipicamente dovuto a diversi fattori: decorrelazione geometrica, gradiente di fase e decorrelazione temporale. La decorrelazione geometrica è dovuta a baseline perpendicolari (Figura 23) troppo elevate e ogni satellite ha una sua baseline critica che non deve essere superata. Le baseline elevate erano un problema per le missioni più vecchie (European Remote-sensing Satellite, ERS), ma i satelliti più recenti hanno un buon controllo della loro orbita. Il gradiente di fase è il massimo tasso di deformazione che può essere misurato, pari a una frangia per pixel. Movimenti troppo rapidi del terreno, come una colata di fango, non possono quindi essere misurati. Un tempo di ritorno (intervallo di tempo tra due passaggi consecutivi) del satellite basso e un’elevata risoluzione degli interferogrammi possono mitigare la perdita di coerenza. La decorrelazione temporale è legata alla variazione delle caratteristiche dei bersagli tra due successive acquisizioni. Queste possono essere dovute alla degradazione, alla variazione del contenuto di acqua nelle aree vegetate, alle attività antropiche etc. Per sapere quali valori di fase sono affidabili e quali non devono essere considerati nelle analisi successive, viene utilizzato un valore noto come coerenza (γ). Questo viene ricavato da una correlazione complessa in un piccolo gruppo di celle vicine. Si assume che i valori di fase affidabili si trovino in aree dominate da double-bounce scatterer e non, ad esempio, in aree dominate da volume scatterer. La coerenza è un valore che varia tra 0 e 1, dove 1 è la totale assenza di rumore e 0 è rumore puro (Rosen et alii, 2000; Lauknes, 2004; Ferretti et alii, 2007).

Figura 23 - Costellazione teorica per calcolare 𝝓𝒐𝒓𝒃 e 𝝓𝑻.𝒑𝒊𝒂𝒕𝒕𝒂 usando la posizione relativa dei sensori (da Xiong et alii, 2017)

Per aumentare il rapporto segnale-rumore e minimizzare le fonti di errore è possibile utilizzare i metodi multi- interferogramma, come lo stacking (la somma di un numero n di interferogrammi successivi), l’analisi delle serie temporali (l’utilizzo di una “pila” di interferogrammi per ottenere l’evoluzione temporale della deformazione) o la

33 tecnica PSInSAR. Questi metodi permettono, inoltre, di risolvere problemi intrinseci all’utilizzo di due singole immagini per la formazione di un interferogramma. Se consideriamo un fenomeno di frana, che non è caratterizzato da un singolo evento che causa una deformazione rilevabile, ma da un movimento prima dell’evento effettivo e una rottura che potrebbe causare una deformazione estrema al punto da non essere rilevabile dal satellite, l’utilizzo di soltanto due immagini per formare un singolo interferogramma, come può essere fatto, ad esempio, per un’eruzione vulcanica o per un terremoto, causa due problemi principali: (I) il segnale di 𝜙𝑠𝑝𝑜𝑠𝑡 potrebbe non essere dominante nell’interferogramma ed essere oscurato da altri contributi di fase (Hooper et alii, 2012) o potrebbe essere troppo estremo per essere rilevato dal sensore se vengono utilizzate un’immagine precedente e una successiva all’evento, risultando in entrambi i casi in interferogrammi “scadenti” e (II) sarebbe impossibile individuare la frana prima della rottura. Utilizzare una serie temporale di interferogrammi porta a tassi di deformazione individuabili e alla possibilità di verificare la presenza di accelerazioni che identifichino un evento imminente. È quindi chiaro come un’analisi delle serie temporali sia la scelta più logica per individuare e monitorare le frane. Tuttavia, le serie temporali utilizzano un numero elevato di interferogrammi “scadenti” , quindi 𝜙𝑠𝑝𝑜𝑠𝑡 potrebbe essere debole in ogni interferogramma e 𝜙𝑟𝑢𝑚 predominante in gran parte

dell’immagine. In un interferogramma di questo tipo l’interpretazione visiva della fase impacchettata non sarebbe possibile a causa del rumore estremo. Come detto precedentemente la fase interferometrica non può semplicemente essere interpretata omogeneamente in tutto l’interferogramma; piuttosto una frazione di tutti i pixel può essere considerata coerente o avente informazioni di fase stabili che possono essere usate per lo spacchettamento. Ferretti et alii (2000) e Ferretti et alii (2001) hanno introdotto il concetto di permanent o persistent scatterer (PS). Si tratta di bersagli che sono caratterizzati da un valore di fase relativamente stabile, con bassa varianza, lungo l’intera serie temporale, tipicamente edifici, strutture metalliche o affioramenti di roccia. Trovare questi pixel in una serie temporale e utilizzarli per lo spacchettamento della fase e l’analisi della deformazione permette di utilizzare anche gli interferogrammi “scadenti” (Hooper et alii, 2007, Hoser, 2018).

Documenti correlati