• Non ci sono risultati.

Capitolo 2

N/A
N/A
Protected

Academic year: 2021

Condividi "Capitolo 2"

Copied!
50
0
0

Testo completo

(1)

Metodi di stima spettrale

Introduzione

Questo capitolo ha lo scopo di fornire gli strumenti necessari per comprendere, dal punto di vista matematico, il lavoro svolto.

Il primo argomento trattato riguarda il modello statistico utilizzato per rappresentare i dati osservati dai sensori dell’array e per generare i dati nelle simulazioni. Una volta definito il modello è possibile procedere nella descrizione matematica dei metodi di stima spettrale impiegati. Poiché l’applicazione di alcuni metodi prevede la stima della matrice di covarianza dei dati, una sezione a parte è stata dedicata alle tecniche di stima della matrice di covarianza.

Gli algoritmi di stima analizzati ed applicati sono: il Covariance Fitting [Sha02], Capon Generalizzato [Has03] e MUSIC [Lom01]. L’ultimo paragrafo infine è dedicato al calcolo del limite di Cramer-Rao (Cramer Rao Lower Bound, CRLB) [Lom03]. Il CRLB serve a valutare quanto un dato stimatore si avvicina a quello ideale, ecco perchè, nei capitoli seguenti, confronteremo le prestazioni degli stimatori analizzati con il suddetto limite.

(2)

2.1 Modello statistico dei dati

Si ricordano brevemente le caratteristiche del sistema interferometrico considerato, al fine di chiarire sia il significato dei parametri del modello dei dati assunto che i fenomeni fisici di cui esso tiene conto.

Il sistema ATI-SAR a K canali consente l’acquisizione di K immagini SAR complesse focalizzate di una stessa porzione di superficie, in identiche condizioni geometriche, ad intervalli di tempo successivi di durata τ/(K−1). Ogni pixel dell’immagine corrisponde ad una diversa cella di risoluzione. Tipicamente, nell’interferometria, si considerano N look indipendenti per ogni pixel, ottenuti ad esempio suddividendo l’apertura sintetica in N sottoaperture.L’eco ricevuta da una sorgente estesa, in moto con velocità radiale vR è caratterizzata da uno spostamento Doppler ω =4πvRRAD , che si traduce in uno sfasamento pari a

(i 1) /(K 1)

ωτ − − tra i segnali al primo e l’i-esimo sensore. La differenza di fase tra i segnali acquisiti dai sensori alle estremità dell’array è stata definita fase interferometrica della sorgente. In pratica, a causa di vari fenomeni, il segnale ricevuto da una sorgente di Bragg non ha banda nulla; la sua PSD infatti può essere assunta gaussiana e conseguentemente anche la sua funzione di autocorrelazione ha forma gaussiana con tempo di coerenza τc.

1

Si verifica che il segnale retrodiffuso da ciascuna sorgente è caratterizzato da variazioni aleatorie dell’ampiezza e della fase, causate dalla presenza in ciascuna cella di risoluzione di un numero molto elevato di diffusori. Inoltre, i segnali generati da sorgenti di Bragg distinte, appartenenti alla stessa cella di risoluzione, sono statisticamente incorrelati, in quanto associati a diffusori animati da moti differenti.

Il modello dei dati deve tener conto infine della presenza di una componente additiva, statisticamente indipendente dal segnale prodotto dalle sorgenti di Bragg, il rumore termico, comprendente il rumore degli apparati elettronici, quello atmosferico e quello dovuto alla emissione termica nella banda delle microonde.

1 Definito come il tempo necessario affinché l’ampiezza della funzione di autocorrelazione si riduca

(3)

Si definisca il vettore dei dati osservati: T K K n y n y n y n) [ ( ) ( ) ( )] ( 1 2 1 … = × y , n=1,2,…,N , (2.1)

dove y(n) è il vettore dei pixel corrispondenti ad una stessa cella di risoluzione, relativo alle K immagini complesse SAR focalizzate, corrispondente all’ n-esimo

look.

Figura 2.1. Pixel corrispondenti nelle K immagini SAR.

Immagine SAR#K Immagine SAR#2 Immagine SAR#1 ) ( 2 n y ) (n yK ) ( 1 n y

(4)

I vettori

{ }

y(n) nN=1 sono assunti indipendenti e identicamente distribuiti (IID), ciascuno di essi può essere espresso come:

= + = 2 1 ) ( ) ( ) ( ) ( m m m m n n n A x v y σ φ , n=1,2,…,N (2.2) dove: m

σ è un parametro reale e positivo, il cui quadrato rappresenta la potenza media associata alla m-esima sorgente di Bragg,

m

φ è la fase interferometrica del centroide Doppler della m-esima sorgente di Bragg,

) (φ

KxKA è la matrice diagonale di steering associata alla fase φ, definita come:

( 1) ( ) 1, j K , , j diag e φ eφ φ =   A ⋯ (2.3) ) (n m

x rappresenta rumore moltiplicativo (speckle) e tiene conto dei cambiamenti aleatori dell’ampiezza e della fase del segnale diffuso dalla m-esima sorgente. Dal punto di vista statistico è un vettore gaussiano complesso2, a media nulla e matrice di covarianza Cx =E

{

xm(n)xmH(n)

}

, con notazione sintetica xm( )nCN(0,Cx).

Dall’assunzione fatta in merito alla natura gaussiana della funzione di autocorrelazione del segnale diffuso da ciascuna sorgente, segue che il generico elemento di C valex 3:

2 l’assunzione di distribuzione gaussiana è giustificata dal teorema centrale del limite, si ricordi

infatti che il segnale associato a ciascuna sorgente è generato da un numero estremamente elevato (almeno per celle di risoluzione di qualche metro quadrato) di diffusori indipendenti.

3 Si noti che C

x ha una struttura di Toeplitz , che deriva dalla stazionarietà dei dati osservati e

(5)

                  − − − = 2 ) 1 ( exp ) , ( c x K i l l i τ τ C . (2.4)

I vettori x1(n) e x2(n), sono ipotizzati statisticamente indipendenti in quanto

associati a sorgenti distinte.

) (n

v rappresenta la componente di rumore termico additivo presente in y(n), viene modellato come gaussiano bianco a media nulla e matrice di covarianza σ2I, v n( )∈CN( ,0σ2I . Si assume inoltre che ) v(n) sia statisticamente indipendente dai vettori x1(n) e x2(n).

In definitiva yCN(0, R), con matrice di covarianza

I A C A R 2 2 1 2 ) ( ) ( m x H m v m m φ φ σ σ + =

= , (2.5)

il cui elemento di posto ( li, ) è dato da (si veda Appendice 3.A):

I R 2 2 2 1 2 ) 1 ( ) ( exp ) 1 ( exp ) , ( m v c m m K l i K i l l i φ σ τ τ σ +       − − −                   − − − =

= . (2.6)

Si noti che la matrice di covarianza R ha simmetria Hermitiana4 e struttura di

Toeplitz5 .

La prima proprietà è una conseguenza dell’ipotesi di stazionarietà del processo osservato: la correlazione dei dati dipende solo dalla loro separazione temporale. La seconda deriva oltre che dall’ipotesi di stazionarietà anche dall’ uniformità

4 H

R R=

(6)

dell’operazione di campionamento effettuata dai sensori dell’array: gli elementi di

R appartenenti alla stessa diagonale sono dati dalla correlazione tra dati separati dal medesimo intervallo temporale.

2.2 Stima della matrice di covarianza

La conoscenza della matrice di covarianza dei dati R, costituisce il punto di partenza di ogni algoritmo di stima spettrale trattato nei prossimi paragrafi. È opportuno dunque occuparsi preventivamente, delle tecniche di ricostruzione di tale matrice a partire dalla conoscenza dei dati.

Risulterà utile la seguente matrice che raccoglie in forma più compatta la collezione dei dati (2.1), detta matrice dei dati:

          = × | | | ) ( ) 2 ( ) 1 ( | | | N N K y y y Y ⋯ . (2.7)

Stima campionaria

Si supponga inizialmente di avere a disposizione un unico look di dati, cioè la (2.7) sia costituita da una sola colonna, allora il modo più immediato per stimare R è quello di calcolare il prodotto yy : H

(7)

Rˆ               = = 2 * 2 * 1 * 2 2 2 1 2 * 1 2 1 2 1 K K K K * K * H y y y y y y y y y y y y y y y ⋯ ⋮ ⋱ ⋮ ⋮ ⋯ … yy (2.8)

La matrice Rˆ è hermitiana, ma non di Toeplitz, poiché gli elementi su ciascuna diagonale sono diversi fra loro. È evidente che in generale la stima della matrice di covarianza è pessima, infatti non viene compiuta nessuna operazione di media nel calcolo delle correlazioni tra le ampiezze complesse dei pixel, ricavate dai vari elementi dell’array. Se invece si dispone dell’intera matrice dei dati Y, costituita da N vettori indipendenti (look indipendenti), ciascun elemento della matrice di covarianza può essere ottenuto come media sul numero dei look delle correlazioni tra coppie di pixel corrispondenti:

look N

= =               = = N n K K K K K N n H n y n y n y n y n y n y n y n y n y n y n y n y n y n y n y N n n N 1 2 * 2 * 1 * 2 2 2 * 1 2 * 1 * 2 1 2 1 1 ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( 1 ) ( ) ( 1 ˆ … ⋮ ⋱ ⋮ ⋮ … … y y R (2.9)

L’espressione precedente può essere scritta in modo più sintetico, utilizzando la notazione vettoriale, come prodotto della matrice dei dati per la sua Hermitiana:

                          = = ) ( ) ( ) ( ) 2 ( ) 2 ( ) 2 ( ) 1 ( ) 1 ( ) 1 ( ) ( ) 2 ( ) 1 ( ) ( ) 2 ( ) 1 ( ) ( ) 2 ( ) 1 ( 1 1 ˆ * * 2 * 1 * * 2 * 1 * * 2 * 1 2 2 2 1 1 1 N y N y N y y y y y y y N y y y N y y y N y y y N N K K K K K K H … ⋮ ⋱ ⋮ ⋮ … … … ⋮ ⋱ ⋮ ⋮ … … YY R (2.10)

(8)

Tale stima è denominata in letteratura stima campionaria [Sto97]. Essa risulta

hermitiana ma, a differenza della matrice di covarianza teorica R, non di Toeplitz. Proprio il criterio di individuare delle stime che conservino le stesse proprietà strutturali della matrice di covarianza teorica, conduce alle due tecniche che seguono: la stima di Toeplitz e a quella Forward-Backward [Sto97].

Stima di Toeplitz

La stima di Toeplitz presenta, esattamente come la matrice di covarianza teorica, una struttura di Toeplitz. Essa può essere ottenuta a partire dalla stima

campionaria.

Definito, infatti il vettore:

T K r r r ] [ 0 1 −1 = ⋯ r , (2.11)

tale che ogni elemento è ottenuto mediando gli elementi della stima campionaria appartenenti a ciascuna diagonale, come segue:

= =       = N n K i i n y K N r 1 1 2 0 ( ) 1 1 ,

= = −       − = N n K i i i n y n y K N r 1 1 * 1 1 ( ) ( ) 1 1 1 , ⋮ ⋮

= =+ −       − = N n K l i l i i l y n y n l K N r 1 1 * ) ( ) ( 1 1 , ⋮ ⋮

(9)

= − = N n K K y n y n N r 1 * 1 1 ( ) ( ) 1 ,

la matrice di covarianza stimata RˆT assume la seguente espressione:

              = − − 0 1 1 * 1 0 1 * 1 * 1 0 ˆ r r r r r r r r r K K T … ⋱ ⋱ ⋮ ⋮ ⋱ … R . (2.12)

Stima Forward-Backward

Sia Rˆ la stima campionaria della matrice di covarianza. Numerose applicazioni di stima di parametri [Sto97] dimostrano un sensibile incremento dell’accuratezza utilizzando la seguente forma modificata della matrice di covarianza stimata:

(

R R

)

R ˆ ~ 2 1 ˆ = + FB (2.13)

dove R~ ha la seguente forma:

[

( ) ( ) ( )

]

) ( ) ( ) ( 1 ) ( ~ ) ( ~ 1 ˆ ~ 1 1 1 1 * 1 * 1 * n y n y n y n y n y n y N n n N K K N n N n K K H T … ⋮ − = = −

              = = =JR J y y R . (2.14)

(10)

          = 0 1 1 0 ⋰ J (2.15)

e ~ ny( ) è il vettore di dati rovesciato che è possibile ottenere dal vettore y(n) con la trasformazione ~y(n)=Jy∗(n).

La trasformazione J(⋅)TJ è tale da soddisfare le seguenti uguaglianze:

1 , 1 1 , 1 , ( ˆ ) ( ˆ ) ) ˆ (R lm = JRJ Kl+ Km+ = JRTJ Km+ Kl+ (2.16) K m l, =1,2,…, m l T l K m K 1, 1 ( ˆ ), ) ˆ (R + + = JR J (2.17)

dove (⋅)l,m rappresenta l’elemento (l,m) della matrice considerata. Questo fa sì che l’elemento (l,m) e l’elemento (K-m,K-l) di RˆFB siano entrambi pari a:

(

, 1, 1

)

1 , 1 , (ˆ) (ˆ) 2 1 ) ˆ ( ) ˆ (RFB lm = RFB Km+ Kl+ = R lm + R Km+ Kl+ (2.18)

Le uguaglianze (2.16) e (2.17) implicano che RˆFB è invariante alla trasformazione

J J(⋅)T , cioè: FB T FBJ R R Jˆ = ˆ (2.19)

Una matrice che gode di questa proprietà viene chiamata persimmetrica o

centrosimmetrica. La ragione di questo nome, deriva dal fatto che Rˆ FB è sia

Hermitiana rispetto alla sua diagonale principale, sia simmetrica rispetto alla sua

(11)

appartengono alla stessa diagonale lm=(Km+1)−(Kl+1), e sono disposti simmetricamente rispetto alla sua antidiagonale principale. La matrice di covarianza teorica R è di Toeplitz e quindi è anche persimmetrica. Dal momento che Rˆ FB è persimmetrica come Rˆ , mentre la stima campionaria Rˆ non lo è, si può supporre ragionevolmente che Rˆ FB sia una stima della matrice di covarianza migliore di Rˆ e, di conseguenza, che gli algoritmi che utilizzano RˆFB forniscano delle stime più accurate di quelle ottenute da Rˆ [Sto97].

Si noti che il fatto che una matrice sia persimmetrica non implica che abbia una struttura di Toeplitz, quindi RˆFB, a differenza di RˆT e della stessa R, non è necessariamente di Toeplitz . Questo porterebbe a concludere che Rˆ FB fornisce una approssimazione peggiore rispetto a RˆT. Tuttavia nelle condizioni di assenza di rumore moltiplicativo, numero finito di dati, rapporto segnale-rumore infinito, l’uso di Rˆ FB o di Rˆ consente di ottenere stime di parametri più accurate di quelle fornite dalla stima di Toeplitz RˆT [Sto97]. Infatti, posto N il numero di parametri s

da stimare, quando il rapporto segnale/rumore tende all’infinito, le matrici RˆFB e

Rˆ hanno rango N , ma la stima di Toeplitz s RˆT ha rango pieno (K) in generale [Sto97].

2.3 Metodi di stima spettrale

L’obiettivo di questo lavoro di tesi è realizzare una stima multicanale, con la maggiore accuratezza possibile, delle fasi delle sorgenti di Bragg e, in seguito, delle correnti marine superficiali. Un metodo asintoticamente efficienteè lo stimatore a massima verosimiglianza (ML, Maximum Likehood).

(12)

Nel caso ideale in cui si considerino note la matrice 2

x x

σ C e la potenza di rumore termico 2

v

σ si parla di stima ML “chiaroveggente” (CML, Clairvoyant ML). Più precisamente la stima della fase φ0 si ricava risolvendo il seguente problema di minimizzazione: 1 2 2 0 1 ˆ arg min Ns H( ) ( ) H( ) ( ) x x v n n n φ φ φ σ σ − φ =   =

y A C + I A y (2.20)

con φ∈ − π

(

K−1 ,

) (

π K−1

)

intervallo non ambiguo per la fase stimata. Purtroppo però, in uno scenario realistico, i parametri τc e 2

x

σ non sono in genere noti e variano notevolmente con le diverse caratteristiche assunte dallo scenario SAR. Inoltre esiste la possibilità che anche il parametro σv2 non sia noto a priori. Risulta così necessaria una stima congiunta dei parametri contenuti nel vettore

2 2 0 , , , T x v c σ σ τ φ   = θθθθ .

Sotto l’ipotesi di gaussianità dei dati

{

y( )n

}

nN=1, lo stimatore ML di θθθθ è :

{ }

ˆ arg min log ˆ -1

ML =  +Tr 

θθθθ

θθθθ R R R , (2.21)

dove Rˆ è la stima campionaria della matrice di covarianza.

L’equazione (2.2) purtroppo richiede una minimizzazione in 4 dimensioni, che risulta essere improponibile, a causa della mole di calcoli, in applicazioni pratiche [Bes00]. Alla luce di ciò, appare necessario trovare metodi più veloci e meno laboriosi per stimare i parametri di nostro interesse. La scelta di metodi alternativi alla stima ML è ricaduta sugli stimatori che andiamo ad analizzare nelle successive sezioni di questo capitolo. Inoltre, gli algoritmi analizzati, non sono metodi che ipotizzano uno spettro a righe come invece è MUSIC.

(13)

2.3.1 Covariance Fitting

Questo algoritmo di stima si basa sull’approssimazione della matrice di covarianza attraverso l’uso di momenti centrali e non centrali della densità spettrale di potenza (PSD) della sorgente. Sulla base di questa approssimazione sarà ricavata la tecnica di covariance-fitting per stimare tali momenti. I parametri caratterizzanti la sorgente, in particolar modo la fase, vengono ricavati attraverso i momenti precedentemente stimati [Sha02].

Modello del segnale

Si assume che segnali con la stessa fase φ0 arrivino su un array di K sensori a partire da Ns sorgenti distribuite e a banda stretta. La i-esima uscita di ogni sensore

dell’array è data da:

1 ( ) ( , , ) ( ) ( ) Ns m m i i m y i s t a d v t φ θ φ ψ φ φ = ∈ =

∑ ∫

+ (2.22)

dove sm( ,φ ψm, )t è la distribuzione complessa e tempo-variante della fase della

m-esima sorgente, ai( )φ è la risposta dell’i-esimo sensore alla sorgente ad energia unitaria che emette con fase

φ

, ψm è il vettore di posizione della m-esima sorgente, ( )v t è il rumore bianco a media nulla dell’i- esimo sensore e i θ è il range di valori che può assumere la fase (questa appartenenza sarà omessa in seguito per semplicità di scrittura).

L’equazione (2.22) si può riscrivere in forma vettoriale nel seguente modo:

1 ( ) ( , , ) ( ) ( ) , Ns m m m t s φ ψ t aφ φd t = =

∑ ∫

+ y v (2.23)

(14)

dove: 1 ( ) [ ( ),... ( )]T K t = y t y t y , (2.24) 1 ( )φ =[ ( ),...a φ aK( )]φ T a , (2.25) 1 ( )t =[ ( ),...v t vK( )]t T v , (2.26)

sono, nell’ordine, il vettore delle osservazioni, il vettore delle risposte e quello del rumore dei sensori; (.) indica la trasposta. Assumiamo che le sorgenti ed il T rumore siano incorrelati, allora la matrice di covarianza può essere scritta come:

R

{

}

2 1 1 ( ) ( ) ( , ', , ) ( ) ( ') Ns Ns H mn m n v m n E t t p φ φ ψ ψ φ φ φ σd = = = y y =

∑∑ ∫ ∫

a a + I (2.27) dove 2 v

σ è la potenza di rumore (incognita), I è la matrice identità e ( )H

denota la trasposta Hermitiana. La funzione

{

*

}

( , '; , ) ( , , ) ( ', , )

mn m n m m n n

p φ φ ψ ψ =E s φ ψ t s φ ψ t (2.28)

è detta nucleo di cross-correlazione , dove (.)* sta per il complesso coniugato. Sarà considerato in questa sede il modello di sorgente ID (Incoerentemente Distribuita). Una sorgente è detta ID se le sue componenti, che arrivano da diverse direzioni, sono incorrelate. Di conseguenza, per una sorgente m, abbiamo:

2

( , ', , ) ( , ) ( ')

mn m n m m m

p φ φ ψ ψ =σ ρ φ ψ δ φ φ− (2.29)

dove δ φ φ( − ') è la delta di Dirac, σ2m è la potenza della m-esima sorgente e ( , )

m m

ρ φ ψ è la densità spettrale di potenza normalizzata. L’indice m in ρ φ ψm( , m) è usato per enfatizzare che sorgenti diverse possono avere distribuzioni di fase diverse. Si noti che

(15)

( , ) 1

m m d

ρ φ ψ φ =

(2.30)

Assumiamo ora che tutte le sorgenti siano mutuamente incorrelate, allora la (2.28) si può riscrivere come:

2

( , '; , ) ( , ) ( ')

mn m n m m m mn

p φ φ ψ ψ =σ ρ φ ψ δ φ φ δ− (2.31)

dove δmn è la delta di Kronecker. Attraverso la (2.31) si può riscrivere la (2.27) come: R 1 Ns m= =

∑∫

2 ( , ) m m m σ ρ φ ψ a( ) ( ')dφ φ φa +σ2 I (2.32)

Definiamo ora la fase della m-esima sorgente come il centro di massa della PSD della sorgente: 0 ( , ) ( , ) m m m m m d d φρ φ ψ φ φ ρ φ ψ φ =

=

( , ) m m d φ ρ φ ψ φ

(2.33)

Le fasi delle Ns sorgenti formano il vettore

0 [ 01, 02,..., 0 s] T N φ φ φ = φφφφ (2.34)

Andiamo a definire ora l’n-esimo momento non centrale della PSD della m-esima sorgente intorno a φɶ come 0m

0 0

( ) ( )n ( , )

nm m m m m

(16)

dove φɶ è una fase arbitraria. Per semplicità e per chiarezza di scrittura la 0m dipendenza di Mnm da ψm non viene espressa esplicitamente. In seguito φɶ sarà 0m

vista come una rozza inizializzazione del valore vero φ0m della fase.

Se φɶ =0m φ0m allora Mnmɶ ) diventa l’n-esimo momento centrale 0m Mnm0m) della

densità di potenza dell’m-esima sorgente. Il seguente lemma è la chiave per gli sviluppi dei prossimi calcoli.

Lemma 1: per la m-esima sorgente il valore del primo momento non

centrale intorno alla fase φɶ arbitraria determina lo scostamento di 0m φɶ rispetto 0m

alla fase vera.

Dimostrazione: utilizzando la (2.35) si ha che

1m( 0m) ( 0m) m( , m) M φɶ =

φ φ ρ φ ψ− ɶ dφ=

=

φ ρ φ ψm( , m)dφ-φɶ0m

ρ φ ψm( , m)dφ=φ0m-φɶ 0m (2.36)

dove l’ultima riga della (2.36) discende dalle equazioni (2.30) e (2.33). Dal Lemma 1 si conclude che data una stima per il primo momento non-centrale,

siamo in grado di stimare la fase della sorgente con l’equazione (2.36). In seguito

si assumerà che la distribuzione della fase di ogni sorgente è determinata dalla densità spettrale di potenza, la quale è una funzione non-negativa che dipende dalla fase stessa della sorgente. Ipotizzeremo infine di conoscere la forma della PSD, ma di non essere a conoscenza dei parametri che ne caratterizzano la forma, che infatti sono proprio quelli da stimare.

Covariance Fitting

In questa sezione verrà mostrato come, con pochi momenti non centrali della PSD, è possibile approssimare la matrice di covarianza.

(17)

Definiamo come segue una matrice C(φ)

C(φ)= ( )φ H( )φ

a a . (2.37)

Consideriamo un’approssimazione in serie di Taylor con I termini intorno a φɶ di 0m

C(φ): 0 0 ( ) ( ) ( ) , I i om im m i φ φ φ φ = ≅

− ɶ ɶ C C (2.38) dove 0 0 1 ( ) ( ) ˆ . ! i im m i m C C i φ φ φ φ φ ∂ = ∂ = ɶ ɶ (2.39)

L’approssimazione in serie di Taylor è un approccio largamente accettato per caratterizzare sorgenti estese o in movimento nell’ambito dell’array processing. Bisogna sottolineare che esiste un compromesso tra l’approssimazione della qualità della sorgente e la sensibilità alla calibrazione degli errori. Si può, quindi, approssimare più accuratamente la matrice di covarianza C(φ) incrementando il valore del parametro I, ma la sensibilità dell’array agli errori aumenterà a causa delle derivate di ordine maggiore. Nelle situazioni pratiche perciò il valore di I non sarà molto maggiore di uno. Sostituendo la (2.38) nella (2.32), si ottiene la seguente approssimazione della matrice di covarianza:

2 σ ≅ +ɶ R R I, (2.40) dove 1 2 0 0 1 0 ( ) ( ) , Ns I m rm m rm m m r M σ φ φ − = = =

∑∑

ɶ ɶ ɶ R C (2.41)

(18)

La (2.40) rappresenta un’espressione approssimata con qI+1 termini della matrice di covarianza vera (2.27). Si utilizzerà questa approssimazione per formulare l’algoritmo di stima delle fasi.

Utilizzando il criterio LS e le equazioni (2.40) e (2.41) andiamo a minimizzare la seguente funzione: 2 2 0 ˆ ( ( ), ) f m φ φφ φφ φφ φɶ ɶ0000 = R− −Rɶ σ I = 2 1 2 2 0 0 1 0 ˆ Ns I ( ) ( ) m rm m rm m m r M σ φ φ σ − = = −

∑∑

ɶ ɶ − R C I , (2.42) dove 1 1 ˆ N ( ) H( ) t t t N = =

R y y (2.43)

è la stima campionaria della matrice di covarianza ed i seguenti vettori

0 ˆ[ 01, 02,..., 0 ] T Ns φ φ φ = ɶ ɶ ɶ ɶ φφφφ , (2.44) 2 0 1 01 2 02 0 ( )ɶ =ˆ[ T(φɶ ), T(φɶ ),..., TNs(φɶNs),σ ]T m φφφφ m m m , (2.45) 2 0 1 0 2 0 ( 1) 0 ( ) ˆ [1, ( ), ( )..., ( )]T m φ mm M m φɶm M m φɶm M Im φɶm m , (2.46)

contengono i parametri del modello.

Se assumiamo un certo φφφφɶ0come valore iniziale per il vettore φφφφ0 si può ricavare una

stima dell’espressione (2.45) come segue:

0 ( )ɶ =arg m φφφφ ˆ 2 2 min m − −σ ɶ R R I =arg m min tr

{

(Rˆ−(Rɶ+σ2I))2

}

(2.47) dove tr

{}

⋅ indica l’operatore traccia.

(19)

Differenziando f( ( ), )mφ φφ φφ φφ φɶ0 ɶ0000 rispetto all’i-esimo elemento di m( )φφφφɶ0 (con

i=1,2,…NsI ) ed utilizzando le equazioni (2.41), (2.45) e (2.46) si ottiene:

' 0 0 ( ( ), ) ˆ ( ) i i f f =∂   ∂ ɶ ɶ ɶ m m 0000 φ φ φ φφ φ φ φ φφφφ

{

2 2

}

0 ˆ ( ( ( ( )) ) [ ( )]i tr

σ

∂ = − + ∂m

φφφφ

ɶ R Rɶ I

{

2

}

0 ˆ 2tr ( ( σ )) kll) = − RRɶ+ I C

{

}

{

}

{

}

1 0 0 0 ( 1) 1 1 0 0 0 1 0 2 ( ) ( ) [ ( )] ˆ 2 ( ) [ ( )] 2 ( ) Ns I rm m kl l m I r m r kl l NsI kl l tr tr tr φ φ φ φ − − + + = = + = + −

∑∑

ɶ ɶ ɶ ɶ ɶ ɶ C C m C m RC φφφφ φφφφ (2.48) dove

[ ]

i

denota l’i-esimo elemento del vettore tra parentesi. Fin qui abbiamo assunto che i= −(l 1)I + +k 1 (0≤ <k I,1≤ ≤l Ns). Differenziando f( ( ), )m φ φφ φφ φφ φɶ0 ɶ0000

rispetto al (qI+1)-esimo elemento di m( ɶ

φφφφ

0) si ottiene:

[

]

[

]

{

}

{

}

{

}

{ }

' 0 1 0 1 2 2 0 1 2 1 0 ( 1) 1 1 0 1 ( ( ), ) ˆ ( ) ˆ ( ( ( )) ) ( ) ˆ 2 ( ( )) 2 ( ) [ ( )] ˆ 2 [ ( )] 2

.

qI NsI NsI q I rm m m I r m r qI f f tr tr tr p tr σ σ φ + + + − − + + = = + ∂ = ∂ ∂ = − + ∂ = − − + = + −

∑∑

ɶ ɶ ɶ ɶ ɶ ɶ ɶ ɶ ɶ 0000 φ φ φ φ φ φ φ φ φφφφ φφφφ φφφφ φφφφ m m R R I m R R I C m m R 0 0 (2.49) Uguagliando a zero le equazioni (2.48) e (2.49) e riscrivendole sotto forma di vettore come segue:

' ' '

1 2 1

(20)

e dopo diverse manopolazioni su questa espressione si ottiene: ( ) ( )ɶ ɶ = ( )ɶ Q

φ

φ

φ

φ

0 m

φ

φ

φ

φ

0000 p

φ

φ

φ

φ

0 , (2.51) dove

{

}

1, 0 [ ( )]Q φφφφɶ0 NsI+ jtr Crm(φɶm) , (2.52)

{

0 ˆ

}

[ ( )]p

φφφφ

ɶ0 =tr Ckl(

φ

ɶl)R , (2.53) per i= −(l 1)I+ +k 1, j=(m−1)I+ +r 1, 1≤l m, ≤Ns, 0≤k r, <I e

{

0 0

}

[ ( )]Q φφφφɶ0 ijtr Ckl(φφφφɶl)Crm(φφφφɶm) , (2.54)

{

}

, 1 0 [ ( )]Q φφφφɶ0 j NsI+tr Crm(φφφφɶm) , (2.55) 1, 1 [ ( )]Q

φφφφ

ɶ0 NsI+ NsI+p , (2.56)

{ }

1 ˆ [ ( )]p

φφφφ

ɶ0 NsI+tr R

.

(2.57)

La soluzione dell’espressione (2.51) viene data da:

1

ˆ ( )ɶ = −( ) ( )ɶ ɶ

mφφφφ0 Q φ φφ φφ φφ φ0 p 0 (2.58) Bisogna porre l’accento sul fatto che la matrice Q può soffrire di problemi di malcondizionamento (si veda appendice 2.C) nel momento in cui viene invertita. In alcuni casi (K=5) si è risolto il problema attraverso l’uso del diagonal loading, mentre per un numero inferiore di sensori dell’array (K=3), nonostante l’applicazione di svariati metodi per stabilizzarla, non siamo riusciti ad ottenere risultati utili. Per correttezza, va sottolineato che nei casi per cui questo algoritmo era stato concepito (un maggior numero di sensori nell’array ed un tempo di coerenza della superficie marina, normalizzato al ritardo complessivo d’acquisizione, più alto che nei casi trattati nei sistemi ATI-SAR) le prestazioni

(21)

sono buone e non si riscontrano problemi di malcondizionamento nell’invertire la suddetta matrice.

Utilizzando l’espressione (2.58) si ricavano i momenti non centrali e, attraverso il

Lemma 1, siamo in grado di stimare le fasi delle sorgenti considerate:

0 1 0 0

ˆ ˆ ( ) ,

m M m m m

φ = φɶ +φɶ (2.59)

dove Mˆ1m è il primo momento non centrale stimato della PSD dell’m-esima sorgente. Bisogna sottolineare che φɶ è una fase arbitraria che va scelta 0m

sufficientemente vicina a φ0m. In pratica se la differenza tra φɶ e 0m φ0m è grande, l’accuratezza dell’approssimazione della matrice di covarianza (2.41) sarà scarsa, di conseguenza aumenteranno gli errori nella stima. Risulta chiara perciò l’importanza di scegliere φɶ il più vicino possibile a 0m φ0m al fine di mantere piccoli gli errori di stima.

Una volta ricavate le fasi, si possono ottenere le stime dei momenti centrali

0

ˆ ˆ ( )

nm m

M φ (con m=1,2,...Ns), risolvendo di nuovo il sistema (2.51) dove si è sostituito φɶ con il valore di stimato della fase 0m φˆ0m. Da qui l’algoritmo si evolve su due livelli. Nel primo vengono stimati i momenti non centrali, e conseguentemente le fasi, mentre nel secondo si ricavano i momenti centrali grazie alle stime di fase ottenute al passo precedente.

Va notato che la densità spettrale di potenza di ogni sorgente è caratterizzata dalla propria fase e dalla banda. I momenti centrali dipendono dalla suddetta banda. Per una sorgente Gaussiana e ID (GID) con fase φ0me larghezza di banda 2∆m l’n-mo l’n-momento centrale si può esprimere come:

0 1 3 5 ( 1) , con pari ( ) 0, con dispari n m nm m n n M n φ  ⋅ ⋅ ⋅⋅⋅ − ∆  (2.60)

(22)

Si deduce perciò che, noto uno dei momenti centrali con indice pari e la forma della densità spettrale di potenza (per esempio si può ipotizzare la sua gaussianità), possiamo stimare la banda della sorgente:

2 ˆ0

ˆ ˆ ( )

m M m φ m

∆ = (2.61)

Si deve tener presente che le stime di fase si possono raffinare con un algoritmo iterativo in cui si utilizzano nella (2.58) le stime di fase invece di φɶ . Infine si può 0m sintetizzare l’algoritmo analizzato in cinque passi:

1. Si ricava la stima campionaria della matrice di covarianza Rˆe si specifica un valore inizaile di fase φɶ , con m=1,2,...Ns. 0m

2. Si calcola m( )

φφφφ

ɶ0000 dalla (2.58) e, utilizzando la (2.45) e la (2.46), si stima

1 0

ˆ ( ) m m

M φɶ .

3. Si aggiorna il valore di fase φɶ0m=Mˆ1m(φɶ0m)+φɶ e si pone 0m φˆ0m=φɶ . 0m 4. Si ripetono i passi 2 e 3 per alcune volte. Si calcola Q( )

φφφφ

ˆ0 e p( )φφφφˆ0

rispettivamente con la (2.52) e la (2.53). Poi, attraverso la (2.58), si calcola il vettore

m

( )

φφφφ

ˆ

0000 e si ottiene Mˆ2m(φˆ0m) dagli elementi del vettore.

5. Si stima la larghezza di banda dai momenti del secondo ordine stimati al passo precedente.

2.3.2 Capon Generalizzato

Questo algoritmo è una versione generalizzata di Capon per la localizzazione di sorgenti multiple incoerentemente distribuite (ID) attraverso un array di sensori. Tale tecnica stima la fase e la banda delle sorgenti attraverso una ricerca spettrale bidimensionale. Il punto di forza di questo metodo consiste nel

(23)

fatto che non si utilizza nessuna approssimazione della matrice di covarianza [Has03].

Formulazione del problema

Assumiamo che i segnali provenienti da Ns sorgenti a banda stretta arrivino

su un array composto di K sensori. L’inviluppo complesso del segnale in uscita dall’array si può scrivere come:

1 ( ) ( ) ( ) Ns m m t t t = =

+ y s v (2.62)

dove y(t) è il vettore K x 1 degli snapshots, si(t) è il vettore K x 1 che descrive il

contributo dell’m-esimo segnale della sorgente sull’uscita dell’array e v(t) è il vettore K x 1 del rumore di sensori.

Nel modello di sorgenti puntiformi, il segnale in banda-base della m-esima sorgente è modellato come segue:

( ) ( ) ( ) m t =s tm φm

s a (2.63)

dove sm( )t è l’inviluppo complesso della i-esima sorgente, φm è la fase della stessa ed (a φm) è il corrispondente steering vector.

Nel modello a sorgenti distribuite l’energia della sorgente è supposta come estesa su un certo range di fase. Quindi si scrive come:

( ) ( , , ) ( ) m t sm m t d φ θ φ ψ φ φ ∈ =

ɶ s a (2.64)

dove sɶm( ,φ ψm, )t è la densità di fase del segnale dell’m-esima sorgente, ψm è il vettore di locazione dei parametri della suddetta sorgente e θ è il range di valori che può assumere la fase.

(24)

In questa sede saranno considerati modelli di sorgenti ID (si veda il paragrafo precedente). Per la m-esima sorgente ID avremo che:

E{sɶm( ,φ ψm, )t sɶm∗( ',φ ψm, )t }=σ ρ φ ψ δ φ φm2 ( , i) ( − ') (2.65)

dove E{⋅ } rappresenta l’aspettazione statistica, δ φ φ( − ') è la funzione Delta di Dirac, 2

m

σ è la potenza della m-esima sorgente e ( ,ρ φ ψm) è la densità spettrale di potenza normalizzata della stessa sorgente (

ρ φ ψ( , m)dφ=1, vedere paragrafo precedente).

Per ipotesi assumeremo che sorgenti diverse abbiano la stessa forma (nota) della densità spettrale di potenza, ma diversi vettori di locazione dei parametri (non noti).

Capon Convenzionale

Prima di analizzare in dettaglio il Capon generalizzato è giusto ricordare quali sono i concetti fondamentali dello stimatore Capon convenzionale.

Questo stimatore può essere considerato come un filtro spaziale attraverso il quale passa un segnale, caratterizzato da una certa fase, proveniente da un’ipotetica sorgente puntiforme. Il filtro deve reiettare al massimo le componenti dei segnali che arrivano da altre direzioni

Il vettore wopt (K x 1) dei coefficienti del filtro si ottiene come soluzione del seguente problema di ottimizzazione:

min

w

H

w Rw sotto la condizione di non distorsione: H ( ) 1φ =

w a , (2.66)

dove R=ˆ E{y(n) yH(n)} è la matrice di covarianza dell’array. La soluzione della (2.66) è data da:

(25)

1 1 ( ) ( ) ( ) opt H φ φ φ − − = R a w a R a (2.67)

Nel beamforming adattivo ci si riferisce alla (2.66) come al problema della risposta a minima varianza priva di distorsioni (MVDR).

Per qualsiasi valore della fase

φ

, lo spettro di Capon viene definito attraverso la potenza di uscita della MVDR come segue:

1 1 ( ) ˆ . ( ) ( ) H c opt opt H P φ φ − φ =w Rw = a R a (2.68)

Risulta chiaro che se l’m-esima sorgente puntiforme ha fase φ, ci aspettiamo che ( )

c

P φ abbia un picco pronunciato in corrispondenza di φ φ= m. Di conseguenza possiamo stimare le fasi delle sorgenti dagli Ns picchi con una ricerca

monodimensionale dello spettro.

Stimatore parametrico Capon Generalizzato

Per stimare i parametri di una sorgente ID il problema (2.66) può essere generalizzato come segue:

min

w

H

w R w sotto la condizione di non distorsione: w RH s( )ψ w=1, (2.69) dove ( ) ( , ) ( ) ( ) . s d φ θ ψ ρ φ ψ φ φ φ ∈ =

H R a a (2.70)

È la matrice di covarianza della sorgente ID caratterizzata dal vettore dei parametri ψ . In accordo con la (2.69), il filtro spaziale dello stimatore Capon generalizzato mantiene la risposta nello spazio ad un’ipotetica sorgente (con vettore dei parametri ψ ) priva di distorsioni e reietta al massimo gli eventuali contributi provenienti da

(26)

altre sorgenti. La risposta del filtro viene rappresentata attraverso la matrice di covarianza Rs( )ψ invece che con lo steering vector a(φ).

La soluzione alla (2.69) si ricava minimizzando la seguente funzione Lagrangiana:

( , ) (1 s( ) ),

L w λ =w R w +H λ −w RH ψ w (2.71)

dove λ è il moltiplicatore di Lagrange. Calcolando il gradiente della (2.71) ed uguagliandolo a zero, si ottiene che la soluzione della (2.69) è data dal seguente problema di autovalori generalizzati:

( ) λ ψs

R w = R w , (2.72)

dove il moltiplicatore di Lagrange λ gioca il ruolo del corrispondente autovalore generalizzato della matrix pencil {R,Rs(ψ)}. Va notato che le matrici R e Rs(ψ)

sono entrambe definite semipositive e quindi tutti gli autovalori generalizzati della suddetta matrix pencil sono numeri reali non–negativi.

Moltiplicando a destra la (2.72) per wH e sfruttando la condizione per la quale cui

( ) 1

H

s φ =

w R w , si ottiene cheλ= H

w R w . Ne consegue che il minimo valore della

funzione H

w R w coincide con il più piccolo degli autovalori generalizzati della

matrix pencil {R,Rs(ψ)}. Matematicamente questo significa che se w RH s( )ψ w=1 allora :

{

}

min H =λmin , s( )ψ

w w R w R R (2.73)

dove λmin{⋅,⋅ } indica il minimo autovalore generalizzato della matrix pencil. Si definisce come spettro di Capon generalizzato la potenza di uscita del filtro quando il filtro stesso è adattato a una sorgente ID caratterizzata dal vettore ψψψψ . Quindi, sfruttando l’equazione (2.73), lo stimatore Capon Generalizzato (GC) viene scritto come:

(27)

{

}

min ( ) ( ) , GC P ψ =λ R, Rs ψ (2.74) ( ) GC

P ψ viene detto pseudo-spettro.

Utilizzando l’equazione (2.72) si può riscrivere la (2.74) nella maniera seguente:

{

}

max 1 ( ) , ( ) GC P ψ σ ψ = s R, R (2.75)

dove σmax{⋅ } rappresenta il massimo autovalore di una matrice. Il vettore da stimare, ψˆm (m=1,2,…,Ns), si può ottenere dagli Ns principali massimi dell’equazione (2.75). Generalmente servirebbe una ricerca d-dimensionale, dove d è la lunghezza del vettore ψ . Nei casi trattati in questo lavoro di tesi la sorgente estesa è caratterizzata da due parametri: banda e fase interferometrica. Ne consegue che, per stimare i parametri della sorgente, è sufficiente una ricerca bidimensionale. Il problema consiste nel trovare un metodo efficace per estrarre i picchi dallo pseudo-spettro PGC( )ψ (un esempio è mostrato in figura 2.2).

(28)

Lo pseudo-spettro PGC( )ψ non è altro che una matrice le cui dimensioni sono le lunghezze dei vettori contenenti ripettivamente i valori che può assumere il valore

/ c

τ τ (indicato in figura 2.2 come stau) ed il range non ambiguo per quanto rigaurda i valori della fase φ (in figura phi).

Tra i valori contenuti in PGC( )ψ ci saranno ovviamente due massimi relativi (per esempio i due picchi indicati dalle frecce in figura 2.2) in corrispondenza dei valori da stimare della fase

φ

e di τ τc/ .

Si è pensato inizialmente di elaborare tale matrice con un filtro morfologico (utilizzando la funzione Matlab imregionalmax) che dà in uscita una matrice delle stesse dimensioni di PGC( )ψ , ma nella quale è presente il valore logico 1 quando nella matrice iniziale è presente un massimo relativo e 0 altrimenti. In questo modo, per rilevare le coordinate dei picchi dello pseudo-spettro, basta ricercare quei valori di fase e di tempo di coerenza normalizzato per i quali il corrispondente punto sulla matrice “filtrata” vale 1.

Si è notato però che, in alcuni casi, i valori di

φ

e di τ τc/ ottenuti non sono particolarmente accurati a causa di numerosi 1 logici intorno a quelli desiderati. In effetti, se andiamo a zoomare sulla figura 2.2, si notano tante piccole rugosità sulla superficie dello pseudo-spettro: queste altro non sono che dei lobi laterali i quali, seppur piccolissimi, danno qualche problema al momento di rilevare le coordinate dei picchi principali. Nella matrice “filtrata” perciò possono essere presenti non dei singoli 1, ma delle “nuvole” di 1 centrate in corrispondenza delle coordinate da stimare.

Alla luce di questi fatti si è cercato di raffinare ulteriormente la ricerca delle coordinate dei massimi attraverso un’altra funzione, chiamata nel linguaggio Matlab bwlabel che, attraverso un secondo filtro morfologico, etichetta gli insiemi di 1 logici presenti nella matrice precedentemente filtrata con imregionalmax. A questo punto è sufficiente ricercare all’interno di ogni insieme “etichettato” di 1 logici il punto le cui coordinate, sulla matrice iniziale PGC( )ψ , danno il valore maggiore e utilizzare tali coordinate al fine di ricavare le stime di fase e di tempo di coerenza normalizzato

(29)

2.3.3 MUSIC

MUSIC (MUltiple SIgnal Classification) assume che il segnale dato dalle ampiezze complesse dei pixel corrispondenti nelle K immagini SAR, sia stato generato in accordo ad un modello noto e quindi la stima dello spettro si riduce alla valutazione dei parametri del modello [Lom01].

Il modello assunto è quello della somma di due esponenziali complessi immersi in rumore bianco, cioè:

, 2 1 1 1 i w K i j w i e v y =

w + = − − φ α i=1,2,…, K (2.76)

con φw

[

−π

(

K −1

) (

K−1

)

)

fase interferometrica del centroide corrispondente a ciascuna sorgente di Bragg, αw ampiezza complessa di ciascuna componente. La densità spettrale di potenza (PSD) del segnale (3.37) è:

, ) ( ) 1 ( 2 ) ( 2 1 2 2

= + − − = w v w w K S φ π α δ φ φ σ (2.77)

(

) (

)

[

− −1, −1

)

∈ π K π K φ

dove δ(φ−φw) è l’impulso di Dirac (o funzione delta di Dirac) [Sto97] centrato sulla fase interferometrica φw e 2

v

σ è la potenza di rumore.

Si assume dunque che il segnale abbia uno spettro a righe i cui parametri incogniti sono le fasi interferometriche

{ }

φw 2w=1 e le ampiezze complesse

{ }

αw 2w=1.

La stima delle fasi interferometriche viene ricavata sfruttando le proprietà della

decomposizione ai valori singolari (SVD) della matrice di covarianza dei dati e, in

(30)

Si definisca il vettore di steering relativo alla generica fase interferometrica φ : . ] 1 [ ) ( 1 1 T j K j K e e φ φ φ − ⋯ × = a (2.78)

e la matrice K x K [Kri96], le cui colonne sono i vettori (2.78) relativi alle due fasi interferometriche corrispondenti alle sorgenti (righe spettrali) presenti nel segnale:

. 1 1 | ) ( | | ) ( | 2 2 1 1 1 1 2 1 2               =           = − − × φ φ φ φ φ φ j K j j K j K e e e e ⋮ ⋮ a a A (2.79)

Si noti che A è una matrice di Vandermonde6, i cui vettori colonna sono linearmente indipendenti (φ φ12). Da proprietà note dell’algebra lineare (Appendice 3.D), segue che le colonne di A generano un sottospazio di dimensione due che corrisponde al sottospazio dei segnali.

Se si applica la SVD alla matrice di covarianza dei dati R, definita in (2.6), si ottiene (Appendice 3.D):

H

U U

R= Λ (2.80)

con Umatrice unitaria7 K×K e Λ=diag

{

λ12,…,λK

}

matrice diagonale K×K di autovalori reali λ1≥λ2 ≥…≥λK.

Si può verificare che ogni vettore ortogonale ad A è un autovettore di R con autovalore σv2 (potenza di rumore termico). Questi sono K−2 vettori linearmente indipendenti. Dal momento che i rimanenti autovalori sono tutti più grandi di 2

v σ , è possibile distinguere gli autovettori di rumore, dagli autovettori dei segnali:

6 ogni elemento di una colonna è una potenza intera della prima componente con l’intero dato dal

numero di riga. 7 I UU U UH = H = .

(31)

2

2

autovalori del segnale , 1, 2 autovalori di rumore , 3,..., k v k v k k K λ σ λ σ  > =  = =  (2.81)

a cui corrispondono rispettivamente gli autovettori del segnale

{

u1, u2

}

e gli

autovettori di rumore

{

u3,…,uK

}

.

Allora è possibile riscrivere R nel seguente modo:

H n n n H s s s U U U U R= Λ + Λ , (2.82)

dove le matrici nella (2.82) sono:

      = Λ × 2 1 2 2 0 0 λ λ s , (2.83) 2 3 ) 2 ( ) 2 ( 0 0 v K K K n σ λ λ =           = Λ − × − ⋱ I, (2.84)           = × | | | | 1 2 2 u u U K s , (2.85)           = − × | | | | 3 ) 2 ( K K K n u u U ⋯ . (2.86)

Dal momento che tutti gli autovettori di rumore sono ortogonali ad A, i vettori colonna di Us devono generare lo stesso sottospazio di A e i vettori colonna di

n

U generano il suo complemento ortogonale (spazio nullo di AH). Espresso in accordo alla notazione dell’ Appendice 3.D:

(32)

( ) ( )

U R A

R s = , (2.87)

( )

( )

H

n N

R U = A . (2.88)

Dalla (3.49) deriva la seguente importante proprietà:

0 U

AH n = , (2.89)

che esplicitata diventa:

0 U

aHw) n = , w=1,2 , (2.90)

dove aw) è il vettore di steering calcolato per la fase interferometrica φw. La (2.90) mostra che la proiezione del vettore aw) sul sottospazio di rumore generato dai vettori colonna di Un è nulla, dal momento che i vettori di steering appartengono al sottospazio ortogonale di R U .

( )

n

Se si esprime la (2.90) per la generica fase φ e se ne fa la norma Euclidea, si ottiene :

(

)

( ) ( ) ( ) ) ( ) ( ) ( ) (φ U 2 a φ U U aφ a φ U U aφ a φ a φ aH n = H n nH = H s sH ⊥ = H Π⊥ , (2.91)

che calcolata in

{ }

φw 2w=1 da zero.

La (2.91) suggerisce la definizione della seguente funzione, indicata in letteratura [Sto97, The92] con il termine pseudospettro:

) ( ) ( 1 ) ( 1 ) ( 2 φ φ φ φ a a U a Π⊥ = = H n H MUSIC P . (2.92)

(33)

La (2.92) consente di stimare le fasi interferometriche

{ }

φw 2w=1. In corrispondenza di tali valori di fase infatti, il denominatore della (2.92) va a zero e il grafico di

) (φ MUSIC

P presenta dei picchi (teoricamente infiniti).

Si noti che la (2.92) non è un vero e proprio spettro dal momento che non contiene nessuna informazione sulla distribuzione di potenza dei segnali, ma serve solo a valutare loro fasi interferometriche.

Ancora una volta per stimare la (2.92) è necessario calcolare preventivamente la stima Rˆ della matrice di covarianza dagli N look di dati

{

yi(n)

}

iK=1, n=1,2,…,N, farne la SVD e ricavare la matrice Uˆ . n

Nelle simulazioni è stata utilizzata la stima Forward-Backward espressa dalla (23.13) dal momento che la stima di Toeplitz, nonostante abbia una struttura analoga alla matrice R teorica, mantiene sempre rango pieno K anche nel caso ideale di assenza di rumore moltiplicativo e SNRw→∞ ( 0

2 →

v

σ ), quando invece dovrebbe avere rango pari al numero di sorgenti.

Lo pseudospettro (2.92) espresso in funzione degli autovettori di rumore stimati assume la seguente forma:

) ( ˆ ) ( 1 ˆ ) ( 1 ) ( ˆ 2 φ φ φ φ a a U a Π⊥ = = H n H MUSIC P . (2.93)

Si descrive adesso l’algoritmo impiegato nelle simulazioni per calcolare le fasi interferometriche

{ }

Ns

w w =1

φ , comunemente indicato col nome Root-MUSIC. Si definisca il polinomio Ui(z) come:

) 1 ( 1 ] 1 [ ] 1 [ ] 0 [ ) ( = i + i − + + i − −Ki z u u z u K z U ⋯ (2.94)

dove ui[k] per k =0,1,…,K−1 , sono gli elementi dell’i-esimo autovettore i e

1 − =ejK z φ .

(34)

Il denominatore della (2.93) allora può essere riscritto come:

= = = = K i i i K i H i i H H n n H z U z U 3 * * 3 ) / 1 ( ) ( ) ( ˆ ˆ ) ( ) ( ˆ ˆ ) (φ U U aφ a φ uu aφ a (2.95)

e lo pseudospettro MUSIC diventa quindi:

1 3 * * ) / 1 ( ) ( 1 ) ( ˆ − = =

= K j e z K i i i MUSIC z U z U P φ φ . (2.96)

Dal momento che il denominatore va teoricamente a zero per = jK−1

w e z φ (w=1,2), il polinomio al denominatore:

= − = K i i i MUSIC z U z U z P 3 * * 1 ) / 1 ( ) ( ) ( ˆ (2.97)

ha teoricamente due coppie di radici sul cerchio unitario. Gli argomenti di tali radici complesse, moltiplicate per K−1, costituiscono le fasi interferometriche dei segnali

{ }

φw 2w=1.

Si noti che ogni polinomio Ui(z) è di grado pari a K−1, perciò ha K−1 radici complesse, due di queste radici corrispondono alle jK−1

w

e φ

e stanno teoricamente sul cerchio unitario. Le altre K−3 radici che teoricamente non giacciono sul cerchio unitario, chiamate radici spurie, possono trovarsi in pratica molto vicine ad esso ed essere erroneamente attribuite ai segnali. Il polinomio (2.97) usato per Root-MUSIC ha certamente radici spurie, tuttavia l’effetto di sommare i vari termini nella (2.97) è quello di allontanare queste radici dal cerchio unitario in maniera tale che le radici di PˆMUSIC1 (z)

(35)

2.3.4 LS

Come si è già accennato lo pseudospettro di MUSIC non contiene alcuna informazione sulla distribuzione di potenza dei segnali. Per questo, nel lavoro svolto, lo si è impiegato esclusivamente per stimare le fasi interferometriche delle sorgenti, mentre per valutare la potenza media associata a ciascuna sorgente, è stato utilizzato, un altro metodo parametrico, tipicamente applicato allo studio di spettri a righe: il Least Squares (LS).

Sia y(n) il vettore delle ampiezze complesse dei pixel corrispondenti in K immagini SAR, relativo all’n-esimo look :

, ] ) ( ) ( ) ( [ ) ( 0 1 1 1 T K K n y n y n y n × = ⋯ y n=1,2,…,N, (2.1)

dove K è il numero dei sensori dell’array, N è il numero di look . Sia ( )

Kxa il vettore di steering relativo alla generica fase interferometrica φ :

. ] 1 [ ) ( 1 1 T j K j K e e φ φ φ − ⋯ × = a (2.3)

Si consideri la seguente funzione:

2 1 2 1 ) ( ) ( ) ( 1 )) ( (

= = − = N n m m N n n N n y a m α Q α φ , (2.98)

dove ⋅ 2denota la norma Euclidea, φm è la fase interferometrica della m-esima sorgente di Bragg, α (n)=[α1(n) α2(n)]

è un generico vettore di ampiezze complesse.

(36)

Il vettore α (n)

rispetto al quale la (2.98) risulta minima è dato da:

) ( ) ( ) ( ˆ 1 n n AHA AHy α − = (2.99)

dove A=[a(φ1) a(φ2)] è la matrice di steering.

Se si sostituiscono nella (2.99) le fasi interferometriche con le rispettive stime φˆ1

2

ˆ

φ , valutate col metodo di MUSIC, si ottiene: ) ( ˆ ) ˆ ˆ ( ) ( ˆ 1 n n AHA AHy α − = , (2.100) dove Aˆ =[a(φˆ1) a(φˆ2)].

Il metodo LS stima la potenza media associata alla m-esima sorgente come:

2 2 1 1 ˆ ˆ ( ) N m m n n N σ = =

α . (2.101)

Nel caso particolare di due sorgenti, esplicitando la (2.101) in funzione di a(φˆ1) e ) ˆ (φ2 a , si ottiene: 2 , 1 ˆ ˆ2 = = m m H m m b Rb σ , (2.102) dove: 2 2 1 2 2 2 1 1 1 ) ˆ ( ) ˆ ( ) ( )) ˆ ( ) ˆ ( ( ) ˆ ( φ φ φ φ φ φ a a a a a a b H H H K K − − = , (2.103) 2 2 1 2 1 1 2 2 2 ) ˆ ( ) ˆ ( ) ( )) ˆ ( ) ˆ ( ( ) ˆ ( φ φ φ φ φ φ a a a a a a b H H H K K − − = , (2.104)

(37)

e Rˆ è la stima campionaria della matrice di covarianza.

Nell’implementazione della (2.101) usata nelle simulazioni, coerentemente con scelta della stima della matrice di covarianza fatta nell’applicazione del metodo di MUSIC, Rˆ è stata sostituita dalla stima Forward-Backward.

(38)

2.4 Calcolo del limite di Cramèr-Rao

Il limite di Cramer-Rao rappresenta il valore di errore quadratico medio al di sotto del quale uno stimatore non polarizzato non può scendere, questo perchè esistono dei limiti intrinseci alla precisione della stima. La conoscenza di questo limite ci è utile per valutare quanto l’accuratezza di un dato stimatore si avvicina a quella ideale [Ver96].

Per determinare i limiti di Cramer-Rao (CRLB, Cramèr-Rao Lower Bound) bisogna innanzitutto calcolare la matrice dell’informazione di Fisher (FIM) [Lom03].

Il vettore delle quantità incognite è χχχχ=[φB1 φB2 σm2 σv2 T] dove φB1 e φB2 sono le fasi delle sorgenti di Bragg, σm2 è la potenza media della m-esima sorgente,

2

v

σ è la potenza di rumore e T è il ritardo complessivo di acquisizione delle immagini SAR normalizzato al tempo di coerenza della superficie marina, ovvero:

c

T τ

τ = .

La FIM di un vettore di dati Gaussiano complesso e aleatorio, con valor medio nullo e matrice di covarianza R è una matrice simmetrica così strutturata [Kay93]:

1 1 , [ FIM i j] i j Tr χ χ − −     =   ∂ ∂     R R J R R , (2.105)

dove Tr

{}

⋅ è l’operatore traccia e χi =[ ]χχχχ i.

Il vettore dei dati y ha distribuzione gaussiana complessa con valor medio nullo e matrice di covarianza: 2 2 Ns H m m m m v m=1 =

σ +σ R A C A I , (2.5)

Figura

Figura 2.1. Pixel corrispondenti nelle K immagini SAR.
Figura 2.2 Pseudo-spettro in uno dei casi analizzati (caso 3).

Riferimenti

Documenti correlati

[r]

Dato un qualsiasi grado di libertà di un gas, la distribuzione di probabilità degli stati energetici relativi a quel grado di libertà (cioè la probabilità di trovare i componenti in

• Per il sistema contributivo non c’è l’integrazione al minimo previdenziale (abolita perché veniva garantita flessibilità ad età molto più basse). • La logica della

Il modulo “Dalla Fase 1 alla Fase 2: quale transizione per uomini e donne” è rivolto a uomini e donne occupati/e dai 18 anni in poi in forma dipendente o

- posizionamento conci C3, C9, C11, C13 e C15 su soletta indurita mediante gru agente da terra lato rilevato e loro successivo spostamento lato alveo.. - montaggio conci C3, C9,

In tal modo è possibile effettuare un riuso di frequenza sfruttando l’ortogonalità o l’isolamento tra i segnali generati, oppure utilizzare due differenti bande di frequenza

Di umanesimo e rinascimento abbiamo già detto: sono in pratica due nomi per indicare la stessa epoca, con qualche piccola differenza. In sintesi questi sono i caratteri

La formazione degli stati solido e liquido per qualsiasi sostanza suggerisce che tra le molecole o atomi di tale sostanza debbano esistere forze molecolari anche se, come nel