• Non ci sono risultati.

Siano S = (S(x1), . . . , S(xn)) e Y = (Y1, . . . , Yn) rispettivamente il segnale e

la risposta, nei punti di campionamento x1, . . . , xn, contenuti nella regione di

interesse A ⊂ Rk. Si consideri il modello stazionario gaussiano Y ∼ S + Z,

in cui S = (S(x1), . . . , S(xn)) ∼ M V N (µ, σ2R). µ è la media del processo,

σ2 la sua varianza (entrambe costanti); R è una matrice n per n con elementi

Rij = ρ(u), in cui ρ(·) è la funzione di correlazione di S e u = x−x0, con x e x0

in A; inne, Z = (Z1, . . . , Zn) ∼ M V N (0, τ2I), in cui I è la matrice identità n

per n. Si avrà quindi Y ∼ MV N(µ, σ2R + τ2

I). A seguire, verranno ricavate delle espressioni esplicite per ˆT = E[T |Y ] e Var(T |Y ), nel caso in cui T sia un funzionale lineare di S. Laddove la media µ di S sia nota, si parla di kriging semplice. Se la media µ è ignota e costante, il metodo di predizione che minimizza l'errore quadratico medio è detto kriging ordinario. Quando µ è ignota e varia in funzione di p covariate, si parla di kriging universale. Si considererà dapprima il caso in cui T = S(x) e l'obiettivo è quello di prevedere il valore del segnale S in un punto non campionato del dominio. In seguito, i risultati verranno estesi al caso della predizione dei target lineari. La previsione di target non lineari non sarà oggetto della presente tesi. Si osserva comunque che, nonostante il kriging sia attualmente il metodo pre- visivo più utilizzato in geostatistica, non permette in generale di prevedere

delle funzioni non lineari del segnale. Una valida soluzione è quella di consi- derare dei metodi MCMC basati sulla simulazione di S(·) dato Y . I vantaggi di tale approccio sono esposti da Diggle, Tawn e Moyeed (1998), i quali lo analizzano nel contesto generale dei modelli gaussiani trasformati, descritti nel paragrafo 1.7.2.

3.3.1 Il kriging semplice

Sia T = S(x). Nel fortunato caso in cui la media µ è nota, si può facil- mente ottenere un'espressione esplicita per il previsore a errore quadratico medio minimo, sfruttando il seguente risultato sulla distribuzione gaussiana multivariata.

Teorema 3. Sia X = (X1, X2) un vettore normale multivariato con media

µ = (µ1, µ2) e matrice covarianza

Σ = Σ11 Σ12 Σ21 Σ22

! ,

ovvero X ∼ MV N(µ, Σ). Allora, la distribuzione condizionale di X1|X2 è a

sua volta una normale multivariata, X1|X2 ∼ M V N (µ1|2, Σ1|2), in cui

µ1|2 = µ1+ Σ12Σ−122(X2− µ2) (3.5)

e

Σ1|2 = Σ11− Σ12Σ−122Σ21. (3.6)

Per applicare il teorema 3, si osservi che (T, Y ) è un vettore normale multi- variato con media µ1, 1 ∈ Rn+1, e matrice varianza-covarianza appartenente

a R(n+1)(n+1) σ2 σ2rT σ2r σ2V ! , in cui r è un vettore in Rn e r

i = ρ(x − xi). Dalle (3.5) e (3.6) segue allora

che

ˆ

e

Var(S|Y ) = σ2(1 − rTV−1r). (3.8) Si osserva che, nel caso gaussiano, la varianza di previsione non dipende da Y ed è quindi uguale all'errore quadratico medio, in corrispondenza di ˆT. Si noti inne che, nel caso del kriging semplice, il previsore (3.7) non è omogeneo in Y . Si può scrivere ˆ SSK(x) = 1 − n X i=1 λi(x)µ + n X i=1 λi(x)Yi, (3.9)

in cui x è il punto in cui si vuole prevedere il segnale S e λi sono detti pesi di

previsione oppure pesi di kriging. Il previsore bilancia quindi l'informazione data dalla media nota con quella ricavata a partire dai dati osservati. Nel caso in cui la correlazione ρ(·) tra x e i punti campionati xi sia prossima allo

zero, il kriging semplice dà più importanza alla media. Viceversa, per alti valori di ρ(·), le informazioni relative ai dati osservati sono più rilevanti. Si osserva inoltre che, quando l'eetto nugget è nullo, ossia τ2 = 0, il previsore

ˆ

SSK interpola i dati. Dal punto di vista dei pesi di previsione, questo signica

che, se x = xi, allora λi(x) = 1 e λj(x) = 0 ∀j 6= i. D'altra parte, al crescere

di τ2, l'eetto pepita e l'errore nei dati dominano il segnale: i pesi sono

tutti prossimi allo zero e ˆS(x) ≈ µ. Inne, si osserva che la somma dei pesi diminuisce al diminuire del range. Per un range prossimo allo zero, la correlazione spaziale è approssimativamente nulla anche a piccole distanze, il segnale e la risposta sono praticamente indipendenti e ˆS(x) ≈ µ.

3.3.2 Il kriging universale e il kriging ordinario

Nel caso più verosimile in cui la media non è nota a priori, si suole sostitui- re una sua stima, all'interno della (3.7). Considerando la stima ai minimi quadrati in (2.4), si ottiene

ˆ

Si osservi che un'analisi di questo tipo richiede delle informazioni sulle varia- bili esplicative dk(x)sia nei punti di campionamento che in quelli di predizio-

ne. In gergo geostatistico, il metodo è chiamato kriging con un trend esterno. Se la media è costante, cioè nel caso del kriging ordinario, la previsione ai minimi quadrati è data da

ˆ

µ = (1TV−11)−11TV−1Y, dunque il previsore assume la forma

ˆ

SOK =[(1 − rTV−11)1(1TV−11)−11T + rT]V−1 Y, (3.11)

che non è altro che la (3.10) in cui si è posto D = 1. Un'altra possibilità è quella di considerare il previsore banale

¯ µ = 1 n n X i=1 Yi = 1 n1 TY, riducendo la (3.10) a SOK =  1 n1 T + rTV−1  1 − 1 n1 T  Y. (3.12)

Come per il kriging semplice, i previsori in (3.11) e (3.12) possono essere scritti in funzione dei pesi di previsione λi:

ˆ SOK(x) = n X i=1 λi(x)Yi. (3.13)

In questo caso, l'espressione del previsore risulta essere omogenea e lineare nella variable risposta Y . Inoltre, se la media inserita nella (3.7) è quella ai minimi quadrati con D = 1, i pesi di previsione sommano a uno. SOK cor-

risponde invece al miglior previsore lineare e omogeneo, nel senso dell'errore quadratico medio minimo, senza alcuna restrizione sui pesi. Per concludere, si noti che all'aumentare del nugget eect τ2, così come al diminuire del ran-

media delle osservazioni.

3.3.3 Alcune considerazioni

Una prima considerazione è che la scelta dei pesi nelle (3.9) e (3.13) dipende strettamente dalla distanza tra il punto in cui si vuole prevedere il segnale e quelli campionati: osservazioni più vicine hanno infatti pesi superiori rispetto alle altre. D'altra parte, se i punti di campionamento sono troppo vicini tra loro, risultano essere sottopesati dall'algoritmo del kriging, anche nel caso in cui siano prossimi al punto di interesse per la predizione. Questo fenomeno si chiama de-clustering e si basa sull'osservazione che dati molto vicini tra loro non danno informazioni aggiuntive rispetto a una singola misurazione. In altre parole, la somma dei pesi di kriging delle osservazioni clusterizzate è circa uguale al peso di una singola osservazione posizionata al centro del cluster.

Un'altra fondamentale caratteristica del kriging è il cosiddetto eetto schermo, o masking eect, che avviene quando due o più osservazioni so- no spazialmente collineari (o quasi) con il punto da prevedre. In questo caso, a quella più vicina è assegnato un valore maggiore rispetto all'altra, che è così mascherata. Questo può portare ad assegnare diversi pesi ad osservazioni posizionate alla medesima distanza rispetto al punto di previsione. Alcuni punti potrebbero addirittura avere dei pesi negativi, implicando a volte che il previsore non assuma valori tra il massimo e il minimo osservati, arrivando al paradosso di ottenere previsioni negative per variabili con supporto stret- tamente positivo. Una possibile soluzione al problema dell'eetto schermo è quella di imporre dei vincoli ai pesi (Goovaerts, 1997).

Inne, Diggle e Riberio (1997) mostrano che i previsori del kriging ere- ditano le proprietà di regolarità della struttura di correlazione spaziale del modello. Questo sottolinea l'importanza di tale scelta non solo ai ni della stima, ma anche per la previsione.

3.3.4 I target lineari

Si consideri un target di previsione lineare, della forma

T = Z

A

w(x)S(x)dx, (3.14)

in cui A è l'area di interesse e w(x) è una data funzione di ponderazione. Per la proprietà di linearità della media, segue allora che

E[T |Y ] = Z

A

w(x)E[S(x)|Y ]dx, (3.15)

per ogni modello assegnato a Y . In altre parole,

ˆ T =

Z

A

w(x) ˆS(x)dx. (3.16)

Inoltre, sotto l'ipotesi di gaussianità, (T, Y ) è un vettore gaussiano multiva- riato e la distribuzione previsiva di T è una gaussiana univariata con media (3.15) e varianza Var(T |Y ) = Z A Z A w(x)w(x0)Cov(S(x), S(x0))dxdx0. (3.17)

Riassumendo, per prevedere un obiettivo lineare come in (3.14), occorre valu- tare il target di interesse nella supercie { ˆS(x) : x ∈ A}. Come già osservato, la previsione di obiettivi non lineari non è altrettanto immediata. Il previ- sore basato sul criterio di minimizzazione dell'errore quadratico medio non rispetta in generale la proprietà di invarianza per trasformazioni. Pertanto, la strategia di valutare i target non lineari a partire dalla previsione di S(x) può portare a risultati distorti e non verosimili.

Documenti correlati