• Non ci sono risultati.

Dispense di Istituzioni di Probabilità

N/A
N/A
Protected

Academic year: 2021

Condividi "Dispense di Istituzioni di Probabilità"

Copied!
175
0
0

Testo completo

(1)

Dispense di Istituzioni di Probabilità

Franco Flandoli

2013-14

(2)

2

(3)

Indice

1 Introduzione ai Processi Stocastici 7

1.1 Prime de…nizioni . . . . 7

1.1.1 Processi stocastici . . . . 7

1.1.2 Legge di un processo . . . . 9

1.1.3 Legge nello spazio delle funzioni continue . . . . 11

1.2 Teorema di estensione di Kolmogorov . . . . 12

1.2.1 Processi gaussiani . . . . 18

1.3 Filtrazioni e tempi d’arresto . . . . 26

1.3.1 Filtrazioni . . . . 26

1.3.2 Tempi d’arresto . . . . 29

1.3.3 La -algebra associata ad un tempo d’arresto . . . . 33

1.4 Speranza condizionale e probabilità condizionale . . . . 34

1.4.1 Speranza condizionale . . . . 34

1.4.2 Probabilità condizionale . . . . 37

1.5 Proprietà di Markov . . . . 39

2 Il moto browniano 45 2.1 De…nizione, esistenza e proprietà di Markov . . . . 45

2.1.1 Una motivazione modellistica . . . . 52

2.2 Regolarità del moto browniano . . . . 53

2.2.1 Di¢ coltà ad usare il MB come integratore . . . . 53

2.2.2 Commenti sulle funzioni a variazione limitata . . . . 54

2.2.3 Variazione quadratica del MB e variazione non limitata . . . . . 56

2.2.4 Non di¤erenziabilità . . . . 58

3 Martingale 63 3.1 De…nizioni . . . . 63

3.1.1 Esempi . . . . 65

3.1.2 Altri esempi e preliminari . . . . 67

3.2 Teoremi d’arresto e disuguaglianze . . . . 69

3.2.1 Il caso a tempo discreto . . . . 69

3.2.2 Il caso a tempo continuo . . . . 74

3

(4)

4 INDICE

3.3 Applicazioni . . . . 77

3.3.1 Disuguaglianza esponenziale per il moto browniano . . . . 77

3.3.2 Problema della rovina . . . . 78

3.4 Teorema di decomposizione di Doob per submartingale discrete . . . . 80

3.5 Teorema di convergenza per super-martingale discrete . . . . 82

3.5.1 Tentativo di euristica . . . . 82

3.5.2 Risultati rigorosi . . . . 86

3.6 Altri risultati per martingale a tempo continuo . . . . 89

3.7 Teoria della variazione quadratica . . . . 90

3.8 Martingale locali e semimartingale . . . . 97

4 L’integrale stocastico 99 4.1 Integrale di processi elementari . . . . 99

4.1.1 Estensione a integratori martingale . . . 104

4.2 Integrale di processi progressivamente misurabili, di quadrato integrabile 105 4.3 Integrale di processi progressivamente misurabili più generali . . . 110

4.4 Il caso multidimensionale . . . 116

4.4.1 Moto browniano in R

d

. . . 116

4.4.2 Integrale stocastico rispetto ad un moto browniano in R

d

. . . . 118

5 La formula di Itô 123 5.1 La “chain rule” per funzioni poco regolari . . . 123

5.1.1 Caso multidimensionale e dipendente dal tempo . . . 128

5.1.2 Integrale secondo Stratonovich . . . 133

5.2 Applicazione ai processi stocastici . . . 134

5.2.1 Variazione quadratica . . . 137

5.2.2 Integrale stocastico rispetto ad un processo di Itô . . . 140

5.3 Formula di Itô . . . 141

5.3.1 Notazione di¤erenziale . . . 144

5.3.2 Esempi . . . 145

6 Applicazioni della formula di Itô 147 6.1 Disuguaglianza di Doob per gli integrali stocastici . . . 147

6.2 Caratterizzazione del moto browniano secondo Lévy . . . 148

6.2.1 Cambio di scala temporale . . . 151

6.3 Il teorema di Girsanov . . . 152

6.3.1 Un problema da risolvere . . . 152

6.3.2 Ricerca di

t

. . . 154

6.3.3 Versione assiomatica . . . 157

6.3.4 Varianti . . . 159

6.3.5 Teorema di Girsanov . . . 160

6.3.6 Applicazione . . . 161

(5)

INDICE 5

7 Equazioni di¤erenziali stocastiche 163

7.0.7 Esempio . . . 170

7.1 Presentazione informale del legame con le PDE . . . 172

(6)

6 INDICE

(7)

Capitolo 1

Introduzione ai Processi Stocastici

1.1 Prime de…nizioni

1.1.1 Processi stocastici

Ricordiamo che uno spazio di probabilità è una terna ( ; F; P ) dove è un insieme, F è una -algebra di parti di , P è una misura di probabilità su ( ; F); la coppia ( ; F) è chiamata spazio misurabile. In uno spazio topologico E indicheremo con B (E) la -algebra dei boreliani (la più piccola -algebra che contiene gli aperti). Una variabile aleatoria Y su ( ; F) a valori in uno spazio misurabile (E; E) è una funzione Y : ! E misurabile da ( ; F) in (E; E), cioè tale che f! 2 : Y (!) 2 Bg 2 F per ogni B 2 E.

Una variabile aleatoria reale Y su ( ; F) è una variabile aleatoria su ( ; F) a valori in (R; B (R)).

Sia T un insieme non vuoto. L’insieme T sarà l’insieme dei parametri del processo stocastico. A livello interpretativo, può essere ad esempio un insieme di tempi, oppure di posizioni spaziali o di spazio-tempo. In alcuni momenti sarà necessario supporre di avere uno spazio misurabile (T; T ) ed in altri uno spazio topologico T , con T = B (T );

altrimenti T è del tutto arbitrario. Tutto ciò …no al momento in cui introdurremo le

…ltrazioni; con l’introduzione del concetto di …ltrazione, restringeremo l’attenzione al caso in sia T [0; 1), T = B (T ) ed interpreteremo T come insieme dei tempi. Tutti gli sviluppi avanzati del corso riguarderanno il caso T = [0; 1) (o T = [0; t

0

]) per cui avrebbe senso restringersi …n da ora a quel caso. Però può essere concettualmente interessante osservare che questi primi paragra… hanno carattere più generale, per cui per ora supporremo solo che T sia un insieme, non vuoto.

Siano dati, oltre a T , uno spazio di probabilità ( ; F; P ) ed uno spazio misurabile (E; E) (detto spazio degli stati). Un processo stocastico X = (X

t

)

t2T

, de…nito su ( ; F; P ) a valori in (E; E) è una funzione X de…nita su T a valori in E, tale che per ogni t 2 T la funzione ! 7 ! X

t

(!) sia misurabile da ( ; F) in (E; E). Ne segue

7

(8)

8 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI che, dati t

1

< ::: < t

n

2 T , la funzione

! 7 ! (X

t1

(!) ; :::; X

tn

(!))

è misurabile da ( ; F) in (E

n

;

n

E). Le leggi di probabilità di questi vettori (leggi immagine di P rispetto a queste applicazioni) si chiamano distribuzioni di dimensione

…nita del processo.

Le funzioni t 7 ! X

t

(!) da T in E (ad ! …ssato) si dicono realizzazioni o traiettorie del processo stocastico. Il termine traiettoria va forse riservato al caso in cui sia T [0; 1).

Due processi stocastici X = (X

t

)

t2T

e Y = (Y

t

)

t2T

si dicono equivalenti se hanno le stesse distribuzioni di dimensione …nita. Si dicono modi…cazione (o versione) uno dell’altro se per ogni t 2 T vale

P (X

t

= Y

t

) = 1:

Si dicono indistinguibili se

P (X

t

= Y

t

per ogni t 2 T ) = 1:

Due processi indistinguibili sono modi…cazione uno dell’altro. Due processi che sono modi…cazione uno dell’altro sono equivalenti. Si veda l’esercizio 1. Si noti che, a di¤erenza delle altre due, la de…nizione di processi equivalenti non richiede che essi siano de…niti sullo stesso spazio ( ; F; P ).

Supponiamo che T ed E siano spazi topologici e siano T = B (T ), E = B (E).

Un processo si dice continuo se le sue realizzazioni sono funzioni continue; si dice q.c.

continuo se ciò avviene per P -quasi ogni realizzazione.

Quando T [0; 1), le de…nizioni di continuo a destra e/o a sinistra, costante a tratti ed altre della stessa natura sono simili. Un processo si dice càdlàg (continue à droite, limite à gauche) se le sue traiettorie sono continue a destra ed hanno limite

…nito a sinistra.

Se (T; T ) è uno spazio misurabile, possiamo dare la seguente de…nizione. Un proces- so si dice misurabile se l’applicazione (t; !) 7 ! X

t

(!) è misurabile da (T ; T F) in (E; E).

Elenchiamo anche alcune nozioni che si usano soprattutto nella cosiddetta teoria della correlazione dei processi stazionari, per noi marginale ma toccata almeno nel caso dei processi gaussiani. Supponiamo che sia (E; E) = (R; B (R)). Indichiamo con E [ ] la speranza matematica su ( ; F; P ) (E [Y ] = R

Y dP , per ogni Y v.a. reale ( ; F; P ) in- tegrabile), con V ar [ ] la varianza (V ar [Y ] = E (Y E [Y ])

2

quando Y è di quadrato integrabile), con Cov ( ; ) la covarianza (Cov (Y; Z) = E [(Y E [Y ]) (Z E [Z])] se Y e Z sono v.a. di quadrato integrabile). Sia X un processo stocastico a valori in (R; B (R)), su ( ; F; P ). Se E [jX

t

j] < 1 per ogni t 2 T , chiamiamo m (t) = E [X

t

], t 2 T , funzione valor medio del processo X. Se E [X

t2

] < 1 per ogni t 2 T , chiamiamo

2

(t) = V ar [X

t

] , t 2 T , funzione varianza di X e chiamiamo C (t; s) = Cov (X

t

; X

s

),

t; s 2 T , funzione covarianza di X.

(9)

1.1. PRIME DEFINIZIONI 9 Esercizio 1 Costruire due processi equivalenti che non siano modi…cazione uno del- l’altro e due processi modi…cazione uno dell’altro che non siano indistinguibili.

1.1.2 Legge di un processo

Sia E

T

lo spazio di tutte le funzioni f : T ! E. Indichiamo con S l’insieme di tutte le n-ple ordinate = (t

1

; :::; t

n

) di elementi di T tali che t

i

6= t

j

per ogni i 6= j, i; j = 1; :::; n . Indichiamo con E

n

la -algebra prodotto di n copie di E.

Presa = (t

1

; :::; t

n

) 2 S e preso B 2 E

n

consideriamo l’insieme C ( ; B) E

T

di tutte le funzioni f : T ! E tali che

(f (t

1

) ; :::; f (t

n

)) 2 B:

Lo chiameremo insieme cilindrico (con base B e coordinate t

1

; :::; t

n

). L’esempio più intuitivo di insieme cilindrico è quello in cui B è un rettangolo: B = B

1

B

n

, che …gurativamente può essere pensato come una pista da slalom: l’insieme cilindrico è l’insieme di tutte le funzioni che passano per le porte da slalom prescritte, come in

…gura:

Sia A la famiglia di tutti gli insiemi cilindrici C ( ; B), con n 2 N, = (t

1

; :::; t

n

) 2 S e B 2 E

n

. La famiglia A è un’algebra di parti di E

T

: contiene E

T

; il com- plementare di un insieme della forma f(f (t

1

) ; :::; f (t

n

)) 2 Bg è l’insieme cilindrico f(f (t

1

) ; :::; f (t

n

)) 2 B

c

g; è chiusa per intersezione …nita. Quest’ultima proprietà è noiosa da scrivere in generale ma è ovvia se si pensa ad esempio al caso particolare dei due insiemi cilindrici ff (t

1

) 2 B

1

g, ff (t

2

) 2 B

2

g, con = (t

1

; t

2

), B

1

; B

2

2 E, la cui intersezione è l’insieme f(f (t

1

) ; f (t

2

)) 2 B

1

B

2

g che appartiene ad A.

Sia E

T

la più piccola -algebra di parti di E

T

che contiene gli insiemi cilindrici. Tra gli elementi di E

T

ci sono quindi, in particolare, quelli della forma

f 2 E

T

: f (t

i

) 2 B

i

; 8i 2 N (1.1)

(10)

10 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI dove ft

i

g è una successione di elementi di T , fB

i

g una successione di elementi di E (sono intersezioni numerabili di insiemi cilindrici).

Dato un processo stocastico X = (X

t

)

t2T

de…nito su uno spazio di probabilità ( ; F; P ) a valori in uno spazio misurabile (E; E), vale la seguente semplice propo- sizione, nel cui enunciato inseriamo il concetto di legge del processo:

Proposizione 1 L’applicazione

! 7 ! X (!) (1.2)

da ( ; F) in E

T

; E

T

è misurabile. La legge immagine di P (probabilità su ( ; F)) attraverso tale applicazione, che indichiamo con P

X

(probabilità su E

T

; E

T

) verrà detta legge del processo X. E’ caratterizzata dai suoi valori sugli insiemi cilindrici, dati da

P

X

(C ( ; B)) = P ((X

t1

; :::; X

tn

) 2 B) per ogni = (t

1

; :::; t

n

) 2 S e B 2 E

n

.

Proof. Preso un insieme cilindrico C ( ; B), = (t

1

; :::; t

n

) 2 S, B 2 E

n

, la sua controimmagine è l’insieme

f(X

t1

; :::; X

tn

) 2 Bg

che sappiamo essere misurabile, elemento di F. Rammentiamo che per veri…care la misurabilità di un’applicazione basta farlo su una famiglia generante la -algebra in arrivo (in simboli generali, se X : ( ; F) ! (E; E) soddisfa X

1

(B) 2 F per ogni B 2 G, dove G E ed E = (G), allora X è misurabile; infatti, si prenda la famiglia H P (E) degli insiemi B E tali che X

1

(B) 2 F; si veri…ca che H è una - algebra e contiene G, quindi contiene (G)). Quindi l’applicazione de…nita dalla (1.2) è misurabile tra ( ; F) ed E

T

; E

T

.

Essa de…nisce quindi una legge immagine, che indichiamo con P

X

; è una misura di probabilità su E

T

; E

T

. Come tale, per un noto teorema di Caratheodory, se A è un’algebra che genera E

T

chiusa per intersezione …nita e Q è una misura di probabilità su E

T

; E

T

che coincide con P

X

su A, allora Q = P

X

(su E

T

). In questo senso diciamo che P

X

è caratterizzata dai suoi valori su A. Nell’enunciato della proposizione, abbiamo preso come A la famiglia degli insiemi cilindrici.

Proposizione 2 Due processi X ed X

0

, de…niti rispettivamente su ( ; F; P ) e (

0

; F

0

; P

0

) a valori in (E; E), sono equivalenti se e solo se hanno la stessa legge su E

T

; E

T

. Proof. Se hanno la stessa legge allora, presi = (t

1

; :::; t

n

) 2 S e B 2 E

n

, vale

P ((X

t1

; :::; X

tn

) 2 B) = P

X

(C ( ; B)) = P

X00

(C ( ; B))

= P

0

X

t01

; :::; X

t0n

2 B

(11)

1.1. PRIME DEFINIZIONI 11 quindi hanno le stesse distribuzioni di dimensione …nita.

Viceversa, se hanno le stesse distribuzioni di dimensione …nita, vale P

X

(C ( ; B)) = P ((X

t1

; :::; X

tn

) 2 B) = P

0

X

t01

; :::; X

t0n

2 B

= P

X0 0

(C ( ; B))

quindi le misure di probabilità P

X

e P

X0 0

, misure su E

T

; E

T

, coincidono sugli insiemi cilindrici. Come nel caso della dimostrazione precedente, se ne deduce che le due misure coincidono su tutta E

T

. La dimostrazione è completa.

1.1.3 Legge nello spazio delle funzioni continue

Esaminiamo adesso un problema più delicato. Supponiamo che X sia continuo. Per capire bene il problema senza complicazioni topologiche collaterali, iniziamo discutendo il caso in cui

T = R

+

:= [0; 1); E = R

n

(1.3)

e le -algebre sono quelle dei boreliani. Indichiamo con C

0

l’insieme C (R

+

; R

n

) delle funzioni continue da R

+

in R

n

, munito della topologia della convergenza uniforme sui compatti.

L’insieme ( ) non è solo un sottoinsieme di E

R+

ma anche di C

0

. E’naturale pen- sare che de…nisca una misura immagine su (C

0

; B (C

0

)). Purtroppo si può dimostrare che C

0

2 B (E) =

R+

(omettiamo la dimostrazione) e questo non permette facilmente di

“restringere” la legge del processo, precedentemente de…nita su E

R+

; B (E)

R+

, ad una legge su (C

0

; B (C

0

)) (in realtà anche questa strada è percorribile con opportune considerazioni basate sulla misura esterna, applicabili dopo aver veri…cato che la misura esterna dell’insieme non misurabile C

0

è pari ad 1).

Per aggirare questo ostacolo basta dimostrare il risultato seguente.

Proposizione 3 Se X = (X

t

)

t 0

è un processo continuo a valori reali, allora è mis- urabile da ( ; F) in (C

0

; B (C

0

)). Possiamo quindi considerare la misura immagine di P attraverso , su (C

0

; B (C

0

)), che chiameremo legge del processo X su (C

0

; B (C

0

)).

Proof. La -algebra B (C

0

) è generata dagli insiemi della forma B (f

0

; T; R) = f 2 C

0

: max

t2[0;T ]

jf (t) f

0

(t) j R

al variare di f

0

2 C

0

, T 2 N, R > 0. Basta quindi veri…care che la controimmagine di un tale insieme attraverso l’applicazione (1.2) appartiene ad F.

Sia quindi T …ssato nel seguito e sia ft

j

g [0; T ] una successione che conta i razionali di [0; T ]. Vale

B (f

0

; T; R) = f 2 C

0

: jf (t

j

) f

0

(t

j

) j R; 8 j 2 N

= f 2 C

0

: f (t

j

) 2 [f

0

(t

j

) R; f

0

(t

j

) + R] ; 8 j 2 N :

(12)

12 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI Questo è un insieme simile a quelli della forma (1.1), ma non lo è esattamente, perché qui stiamo considerando f 2 C

0

invece che in E

T

. Quindi dobbiamo ripetere il ra- gionamento che porta a dire che la sua controimmagine, attraverso l’applicazione (1.2), appartenga ad F (altrimenti bastava applicare la Proposizione 1). Vale

B (f

0

; T; R) = \

N 2N

B (f

0

; T; R; N ) dove

B (f

0

; T; R; N ) = f 2 C

0

: jf (t

j

) f

0

(t

j

) j R; 8 j = 1; :::; N :

Se la controimmagine di B (f

0

; T; R; N ) sta in F, allora ci sta anche la controimmagine di B (f

0

; T; R) , essendo F chiusa per intersezione numerabile. Ma la controimmagine di B (f

0

; T; R; N ) è l’insieme

f! 2 : jX (!; t

j

) f

0

(t

j

) j R; 8 j = 1; :::; Ng che appartiene a F. Quindi la dimostrazione è completa.

Osservazione 1 Con ragionamenti non molto diversi si dimostra che due proces- si continui con le stesse distribuzioni di dimensione …nita, hanno la stessa legge su (C

0

; B (C

0

)).

Se un processo X è solamente q.c. continuo, de…nisce ugualmente una misura di probabilità su (C

0

; B (C

0

)) del tutto analoga al caso precedente, che continueremo a chiamare misura immagine di P attraverso su (C

0

; B (C

0

)). Infatti, esiste un insieme

0

2 F di P -misura 1 tale che (

0

) C

0

. Consideriamo lo spazio probabilizzato (

0

; F

0

; P

0

) dove F

0

= F \

0

e P

0

è la restrizione di P ad F

0

. Ora :

0

! C

0

è ben de…nita e induce una misura di probabilità su (C

0

; B (C

0

)). Si veri…ca facilmente che essa non dipende dalla scelta di

0

con le proprietà precedenti.

Le considerazioni illustrate sopra si estendono a varie situazioni più generali. Una molto simile è quella in cui T è uno spazio metrico, unione numerabile di compatti (spazio metrico -compatto) ed E è uno spazio metrico separabile.

1.2 Teorema di estensione di Kolmogorov

Abbiamo visto che, dato un processo X = (X

t

)

t2T

, questo de…nisce una misura di probabilità su E

T

; E

T

. Quando vale il viceversa, cioè per quali misure di probabilità su E

T

; E

T

esiste un processo che ha come legge? Per tutte: basta prendere il processo canonico, = E

T

, F = E

T

, X

t

(!) = ! (t). Meno banale è il problema di inversione che ora descriveremo.

Data una misura di probabilità su E

T

; E

T

, de…niamo le sue distribuzioni di

dimensione …nita nel seguente modo. Presa = (t

1

; :::; t

n

) 2 S, indichiamo con :

(13)

1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 13 E

T

! E

n

l’applicazione (f ) = (f (t

1

) ; :::; f (t

n

)) . E’misurabile, rispetto a E

T

e E

n

(preso B 2 E

n

la sua controimmagine è l’insieme cilindrico f 2 E

T

: (f (t

1

) ; :::; f (t

n

)) 2 B , che appartiene ad E

T

): La distribuzione di dimensione n di relativa a è la legge immagine di attraverso :

(B) = f 2 E

T

: (f (t

1

) ; :::; f (t

n

)) 2 B ; B 2 E

n

:

Se = P

X

, essa è la legge del vettore aleatorio (X

t1

; :::; X

tn

) e f ; 2 Sg è la famiglia delle distribuzione di dimensione …nita del processo X.

Il problema di inversione è il seguente: data una famiglia di misure di probabilità f ; 2 Sg (si sottintende che se = (t

1

; :::; t

n

) 2 S, allora è una misura di proba- bilità su (E

n

; E

n

)), esiste una misura di probabilità su E

T

; E

T

di cui f ; 2 Sg sia la famiglia delle distribuzioni di dimensione …nita? Siccome l’esistenza di un processo con legge è ovvia, il problema è equivalente a: data una famiglia di misure di prob- abilità f ; 2 Sg, esiste uno spazio probabilizzato ( ; F; P ) ed un processo X su ( ; F; P ) che abbia f ; 2 Sg come famiglia delle distribuzioni di dimensione …nita?

Osservazione 2 Alla base dei seguenti ragionamenti c’è il fatto che un insieme cilin- drico non ha una sola rappresentazione. Ad esempio, dati t

1

; :::; t

n

; t

n+1

2 T , B 2 E

n

, vale

f 2 E

T

: (f (t

1

) ; :::; f (t

n

)) 2 B = f 2 E

T

: (f (t

1

) ; :::; f (t

n

) ; f (t

n+1

)) 2 B E oppure, dati t

1

; t

2

2 T , B

1

; B

2

2 E, vale

f 2 E

T

: (f (t

1

) ; f (t

2

)) 2 B

1

B

2

= f 2 E

T

: (f (t

2

) ; f (t

1

)) 2 B

2

B

1

: Servono due ingredienti: una proprietà di compatibilità tra le ed un po’ di regolarità dello spazio (E; E). La proprietà di compatibilità tra le si intuisce facil- mente a posteriori, quando esse sono le distribuzioni di dimensione …nita di . Si tratta di due condizioni, che a parole potremmo chiamare “invarianza sotto permu- tazioni degli indici” e “invarianza sotto contrazioni degli indici”. Vediamo la prima.

Se = (t

1

; :::; t

n

) 2 S e se (i

1

; :::; i

n

) è una permutazione di (1; :::; n), indicata con P

(i1;:::;in)

: E

n

! E

n

l’applicazione che manda la generica sequenza (x

1

; :::; x

n

) nella (x

i1

; :::; x

in

), deve valere (per le distribuzioni di dimensione …nita di un processo)

(t1;:::;tn)

(B) = (

ti1;:::;tin

) P

(i1;:::;in)

(B) : (1.4) Vediamo ora la seconda. Data = (t

1

; :::; t

n

) 2 S, indichiamo con

nb

la sequen- za

nb

= (t

1

; :::; t

n 1

) (la sequenza ottenuta omettendo t

n

dalla ), le misure e

b

n

sono legate dalla proiezione

nb

: E

n

! E

n 1

che manda una generica sequenza (x

1

; :::; x

n

) 2 E

n

nella sequenza (x

1

; :::; x

n 1

) 2 E

n 1

(la sequenza ottenuta omettendo l’ultima componente di (x

1

; :::; x

n

)). Vale

b

n

=

nb

( ) (1.5)

(14)

14 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI nel senso che

nb

è la legge immagine di attraverso

nb

, ovvero esplicitamente

b

n

(B) = (

bn

2 B) per ogni B 2 E

n 1

.

Si può veri…care facilmente che è equivalente richiedere queste condizioni per insiemi B di tipo rettangolare, rispetto a cui esse si scrivono più agevolmente. Possiamo richiedere che

(t1;:::;tn)

(B

1

B

n

) = (

ti1;:::;tin

) (B

i1

B

in

)

(t1;:::;tn)

(B

1

E) =

(t1;:::;tn 1)

(B

1

B

n 1

) per ogni n 2 N, (t

1

; :::; t

n

) 2 S, B

1

; :::; B

n

2 E.

De…nizione 1 Sia f ; 2 Sg una famiglia di misure di probabilità (sempre sottin- tendendo che se = ft

1

; :::; t

n

g 2 S, sia una misura di probabilità su (E

n

; E

n

)).

Quando valgono (1.4)-(1.5) per ogni scelta di n 2 N, = (t

1

; :::; t

n

) 2 S, i = 1; :::; n, diciamo che la famiglia f ; 2 Sg è consistente.

Ricordiamo che uno spazio metrico E si dice -compatto se è unione numerabile di compatti di E. Un risultato di teoria della misura dice che su uno spazio metrico -compatto E, se è una misura di probabilità de…nita sui boreliani B (E), allora per ogni B 2 B (E) ed " > 0 esiste un compatto K B tale che (B nK) < ". Per chi volesse vedere più in dettaglio questo enunciato, la sua validità sotto opportune ipotesi più generali (per esempio per una misura non di probabilità) e le dimostrazioni, si suggerisce la consultazione di W. Rudin, Analisi Reale e Complessa, Boringhieri 1982, teoremi 2.14 e 2.18, de…nizione 2.15. Useremo questo risultato nella dimostrazione del seguente teorema.

Teorema 1 Se f ; 2 Sg è una famiglia consistente, E è uno spazio metrico - compatto, E = B (E), allora esiste una ed una sola misura di probabilità su E

T

; E

T

di cui f ; 2 Sg sia la famiglia delle distribuzioni di dimensione …nita.

Proof. Passo 1 (preparazione). L’unicità è del tutto analoga a quella della Propo- sizione 2: due misure con le stesse distribuzioni di dimensione …nita coincidono su una classe chiusa per intersezione …nita e generante la -algebra E

T

, quindi coincidono su tutta E

T

.

Per l’esistenza, ricordiamo il seguente teorema di Charateodory: dato uno spazio misurabile ( ; G) ed un’algebra A che genera G, se è una misura …nitamente addi- tiva su ( ; A), continua in ? (cioè tale che, se fA

n

g è una successione di eventi di A decrescente con intersezione vuota allora lim

n!1

(A

n

) = 0), allora si estende univocamente ad una misura numerabilmente additiva su ( ; G).

Prendiamo l’algebra A di tutti gli insiemi cilindrici C ( ; B), con n 2 N, =

ft

1

; :::; t

n

g 2 S e B 2 E

n

. L’algebra A genera E

T

. Basta de…nire una misura su

(15)

1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 15 A con le proprietà del teorema di Charateodory ed avente f ; 2 Sg come famiglia delle distribuzioni di dimensione …nita, ed il teorema è dimostrato.

Preso un insieme cilindrico C 2 A, esistono in…nite sue rappresentazioni nella forma C = C ( ; B) con = (t

1

; :::; t

n

) e B 2 E

n

. Presa una di tali rappresentazioni, possiamo calcolare (B) e porre

(C) = (B) :

Ma la de…nizione è ben data solo se non dipende dalla rappresentazione di C. Qui interviene l’ipotesi di consistenza della famiglia. Se C (

0

; B

0

) e C (

00

; B

00

) sono due rappresentazioni dello stesso insieme cilindrico C, abbiamo

0

(B

0

) =

00

(B

00

). La dimostrazione è elementare ma un po’ laboriosa da scrivere, per cui la isoliamo nel Lemma 1.

La veri…ca che , così de…nita, è …nitamente additiva su A, si esegue nel seguente modo: presi degli insiemi disgiunti C

1

; :::; C

k

2 A, c’è una sequenza = (t

1

; :::; t

n

) tale che tutti gli insiemi C

i

possono essere rappresentati tramite , cioè esistono B

1

; :::; B

k

2 E

n

, oltretutto disgiunti, tali che C

j

= C ( ; B

j

), j = 1; :::; k. Vale

[

k j=1

C

j

= C ; [

k j=1

B

j

!

per cui

[

k j=1

C

j

!

=

[

k j=1

B

j

!

= X

k

j=1

(B

j

) = X

k

j=1

(C

j

)

dove il passaggio intermedio si basa sull’additività di su E

n

. L’additività su A si riconduce cioè a quella di un’opportuna distribuzione di dimensione …nita.

Passo 2 (continuità della misura). Dobbiamo in…ne dimostrare la continuità in ?.

Sia fC

n

g è una successione di eventi di A decrescente con intersezione vuota. Dobbiamo dimostrare che lim

n!1

(C

n

) = 0.

Facciamo una piccola digressione che può aiutare a capire la dimostrazione. Ci sono alcune famiglie di successioni fC

n

g per cui la dimostrazione è facile. Gli esercizi 2 e 3 illustrano esempi in cui ci si può ricondurre ad usare una singola distribuzione di dimensione …nita, un po’come nella veri…ca fatta sopra dell’additività. In questi casi, la dimostrazione che lim

n!1

(C

n

) = 0 è facile. Se ci si potesse restringere ad insiemi cilindrici come quelli descritti agli esercizi 2 e 3, non ci sarebbe bisogno dell’ipotesi di regolarità dello spazio E.

Ma le famiglie di insiemi cilindrici descritte da tali esercizi non sono algebre. Tra le successioni di insiemi cilindrici esistono esempi, come quello dell’esercizio 4, in cui non si vede come ricondursi ad usare una singola distribuzione di dimensione …nita.

Facendo però riferimento a concetti topologici, precisamente alla compattezza, c’è

un’altra classe in cui la dimostrazione che lim

n!1

(C

n

) = 0 si riesce a completare

facilmente. Supponiamo che la successione fC

n

g di eventi di A decrescente con inter-

sezione vuota abbia la forma C

n

= C (

n

; K

n

) con K

n

insieme compatto (per inciso, se

(16)

16 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI E non è compatto, questa rappresentazione è unica, quando esiste). Allora gli insiemi K

n

non possono essere tutti diversi dal vuoto. Rimandiamo la veri…ca al Lemma 2.

Ma allora, se per un certo n

0

l’insieme K

n0

è vuoto, vale (C

n0

) = 0, da cui discende (per monotonia) (C

n

) = 0 per ogni n n

0

e quindi anche lim

n!1

(C

n

) = 0.

L’idea della dimostrazione allora è la seguente: data una rappresentazione C

n

= C (

n

; B

n

) degli insiemi cilindrici della successione, …ssato " > 0, usando la proprietà di regolarità dello spazio E si può trovare una successione di compatti fK

n

g, K

n

B

n

tali che, detto D

n

l’insieme cilindrico di base K

n

(invece che B

n

) e coordinate

n

, insieme che veri…ca D

n

C

n

, vale

(C

n

) (D

n

) = (C

n

nD

n

) ":

Se riusciamo a trovare fK

n

g in modo che fD

n

g sia anche decrescente, allora per il Lemma 2, lim

n!1

(D

n

) = 0. Questo implica che esiste n

0

0 tale che per ogni n n

0

, (C

n

) ". Per l’arbitrarietà di " si ottiene lim

n!1

(C

n

) = 0.

L’unico punto che richiede un attimo di lavoro è fare in modo che fD

n

g sia decres- cente. Sia quindi, …ssato " > 0, fK

10

g una successione di compatti, K

n0

B

n

, tali che

n

(B

n

nK

n0

) <

2"n

(essi esistono per la regolarità di E). Indichiamo con fD

0n

g la succes- sione degli insiemi cilindrici di base K

n0

e coordinate

n

; D

n0

C

n

in quanto K

n0

B

n

, ma non sappiamo se fD

n0

g è decrescente. Poniamo D

n

= D

10

\ ::: \ D

n0

. Sicuramente fD

n

g è una successione di insiemi cilindrici decrescente. Mostriamo che esistono dei compatti K

n

B

n

, tali che D

n

ha base K

n

e coordinate

n

; e (C

n

nD

n

) ".

Gli insiemi D

n

hanno la forma

D

n

= f j

1

2 K

10

; :::; f j

n

2 K

n0

:

Si immagini l’esempio D

2

= f j

(t1;t2)

2 K

10

; f j

(t2;t3)

2 K

20

. Si può descrivere nella forma

D

2

= f j

(t1;t2;t3)

2 K

10

E; f j

(t1;t2;t3)

2 E K

20

= f j

(t1;t2;t3)

2 K

10

E \ E K

20

e l’insieme (K

10

E) \ (E K

20

) è compatto. Il caso generale si scrive con fatica ma è identico. Quindi esiste K

n

B

n

, tali che D

n

ha base K

n

e coordinate

n

.

Vale poi (si osservi che D

0k

C

k

C

n

; si scriva inoltre C

n

nD

n

= C

n

\(D

01

\ ::: \ D

n0

)

c

) C

n

nD

n

= C

n

nD

01

[ C

n

nD

20

[ ::: [ C

n

nD

n0

C

1

nD

01

[ C

2

nD

02

[ ::: [ C

n

nD

0n

da cui

(C

n

nD

n

) X

n k=1

C

k

nD

k0

X

n k=1

"

2

k

":

La dimostrazione è completa.

Nella dimostrazione del seguente lemma usiamo la notazione j j per la cardinalità

di 2 S. Se = (t

1

; :::; t

n

) , vale j j = n.

(17)

1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 17 Lemma 1 Se C (

0

; B

0

) e C (

00

; B

00

) sono due rappresentazioni dello stesso insieme cilindrico C, abbiamo

0

(B

0

) =

00

(B

00

).

Proof. Se vale

0

=

00

, si può riconoscere che vale anche B

0

= B

00

. In questo caso la tesi è ovvia. Se

00

è ottenuta da

0

tramite una permutazione degli indici (i

1

; :::; i

n

), allora B

00

= P

(i1;:::;in)

(B

0

) e l’invarianza della de…nizione di è garantita dalla proprietà (1.4).

Se, cosiderando

0

e

00

come insiemi non oridinati, vale

0 00

, a meno di permu- tazione delle coordinate risulta B

00

è della forma B

0

E

j 00j j 0j

. Quando j

00

j j

0

j = 1 basta applicare la proprietà (1.5); quando j

00

j j

0

j > 1 si agisce in j

00

j j

0

j passi sempre con la proprietà (1.5).

Se

0

e

00

, cosiderate come insiemi non oridinati, non sono contenute una nell’altra, si consideri =

0

\

00

. Esiste B tale che C ( ; B) è una terza rappresentazione; B è la proiezione lungo le coordinate di B

0

o di B

00

. Per capire che è così, si pensi al caso

0

= (t

1

; t

2

),

00

= (t

2

; t

3

) (il caso generale è solo notazionalmente più faticoso): vale f 2 E

T

: (f (t

1

) ; f (t

2

)) 2 B

0

= f 2 E

T

: (f (t

2

) ; f (t

3

)) 2 B

00

ovvero

f(f (t

1

) ; f (t

2

) ; f (t

3

)) 2 B

0

E g = f(f (t

1

) ; f (t

2

) ; f (t

3

)) 2 E B

00

g :

Questo implica che gli insiemi di E

3

dati da B

0

E e E B

00

coincidono. Questo è compatibile solo con la struttura E B E.

Vale allora C (

0

; B

0

) = C ( ; B) ma

0

, quindi

0

(B

0

) = (B). Lo stesso si può dire per C (

00

; B

00

) e quindi

0

(B

0

) =

00

(B

00

). La dimostrazione è completa.

Lemma 2 Sia fC

n

g A decrescente con intersezione vuota, della forma C

n

= C (

n

; K

n

) con K

n

insieme compatto. Allora gli insiemi K

n

non possono essere tutti diversi dal vuoto.

Esercizio 2 Sia ft

n

g T una successione data e sia fC

n

g A della forma C

n

= ff (t

1

) 2 B

1;n

; :::; f (t

n

) 2 B

n;n

g

dove la famiglia a due indici interi positivi fB

k;n

g E soddisfa B

k;n+1

B

k;n

per ogni k; n 2 N. Quindi fC

n

g è decrescente. Mostrare in questo caso che, se fC

n

g ha intersezione vuota, allora lim

n!1

(C

n

) = 0.

Esercizio 3 Sia ft

n

g T una successione data e sia fC

n

g A decrescente. Supponi- amo che esista k

0

2 N tale che, per n k

0

, f

k0

C

n

g E sia una successione decres- cente con intersezione vuota. Qui

k0

: E

T

! E è la proiezione f 7 !

k0

(f ) = f (t

k0

).

Allora fC

n

g ha intersezione vuota e lim

n!1

(C

n

) = 0.

(18)

18 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI Esercizio 4 Sia ft

n

g T una successione data. Veri…care che gli insiemi

C

n

= f (t

k 1

) < f (t

k

) < f (t

k 1

) + 1

n ; k = 2; 3; :::; n

non rientrano nei casi trattati dagli esercizi precedenti ma formano una successione decrescente con intersezione vuota.

Esercizio 5 Data una misura di probabilità sui boreliani di uno spazio metrico (X; d), diciamo che essa è tight se per ogni " > 0 esiste un compatto K

"

tale che (K

"

) > 1 ". Mostrare che il teorema di costruzione dei processi di Kolmogorov continua a valere se, invece di supporre che lo spazio metrico E sia -compatto, si sup- pone che sia metrico e che ogni distribuzione di dimensione …nita , 2 S, sia tight.

[Presa 2 S e la corrispondente misura su E

n

, esiste un boreliano X

n

E

n

che è uno spazio metrico -compatto e può essere ristretta ad una misura di probabilità su X

n

. Il resto della dimostrazione del teorema di Kolmogorov è inalterata.]

Osservazione 3 Ogni misura di probabilità sui boreliani uno spazio metrico com- pleto e separabile (polacco) è tight. La proprietà di essere polacco passa al prodotto cartesiano …nito. Allora il teorema di Kolmogorov vale se, invece di supporre che lo spazio metrico E sia -compatto, si suppone che sia polacco.

1.2.1 Processi gaussiani

Vettori gaussiani

Ricordiamo che la densità gaussiana standard è la funzione f (x) =

p12

exp ( x

2

=2) e la densità gaussiana N ( ;

2

) è la funzione

f (x) = 1

p 2

2

exp (x )

2

2

2

! :

Una v.a. reale X si dice gaussiana di classe N ( ;

2

) se ha quest’ultima come densità (scriviamo X N ( ;

2

)) e si veri…ca che = E [X],

2

= V ar [X]. Se X N (0; 1), la chiamiamo v.a. gaussiana standard. Si veri…ca che, data X N ( ;

2

), esiste Z N (0; 1) tale che

X = Z +

(basta standardizzare X, cioè porre Z =

X

e veri…care che Z N (0; 1)). Questa

proprietà o¤re lo spunto per la de…nizione di vettore gaussiano. Inoltre, viene usata ad

esempio come nella seguente osservazione, utile in molti esercizi.

(19)

1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 19 Osservazione 4 Se X è gaussiana, E [jXj

p

] < 1 per ogni p 1 (vale anche E e

X

<

1 per ogni 2 R e addirittura E h e

X2

i

< 1 per ogni <

22

). Introduciamo i numeri c

p

= E [ jZj

p

]

dove Z N (0; 1). Allora, se X N ( ;

2

),

E [ jX j

p

] = c

p p

:

Tutti i “momenti centrati” sono calcolabili tramite la deviazione standard .

Un vettore aleatorio Z = (Z

1

; :::; Z

n

) si dice gaussiano standard se ha densità congiunta

f (x

1

; :::; x

n

) = Y

n i=1

p 1

2 exp x

2i

2 = (2 )

n=2

exp x

21

+ ::: + x

2n

2

(questo equivale a chiedere che le componenti Z

1

; :::; Z

n

siano gaussiane standard in- dipendenti), mentre un vettore X = (X

1

; :::; X

m

) si dice gaussiano se si può rappre- sentare nella forma

X = AZ + b

con A matrice n m, Z = (Z

1

; :::; Z

n

) vettore gaussiano standard, b 2 R

m

.

Tra le equivalenze con cui si può riscrivere questa de…nizione, ricordiamo la seguente:

un vettore X = (X

1

; :::; X

m

) è gaussiano se e solo se la v.a. P

m

i=1 i

X

i

è gaussiana per ogni scelta di (

1

; :::;

m

) 2 R

m

. Segue subito da queste de…nizioni che se X = (X

1

; :::; X

m

) è un vettore gaussiano, B è una matrice m k e c 2 R

k

, allora il vettore aleatorio BX + c è un vettore gaussiano (in R

k

).

Ricordiamo inoltre che per matrice di covarianza di un vettore X = (X

1

; :::; X

m

) si intende la matrice Q 2 R

m m

de…nita da

Q

ij

= Cov (X

i

; X

j

) ; i; j = 1; :::; m:

E’simmetrica e semi-de…nita positiva. La media (o vettore dei valori medi) è il vettore di coordinate E [X

i

], i = 1; :::; m. Un vettore gaussiano standard Z = (Z

1

; :::; Z

n

) ha media nulla e covarianza pari all’identità di R

n

. Un vettore gaussiano della forma X = AZ + b come sopra, ha media b e matrice di covarianza Q = AA

T

. Più in generale, ricordiamo la seguente proposizione (che invitiamo a dimostrare per esercizio):

Proposizione 4 Se X = (X

1

; :::; X

m

) è un vettore gaussiano di media

X

e covarianza Q

X

, B è una matrice m k e c 2 R

k

, allora il vettore aleatorio Y = BX + c è un vettore gaussiano di media

Y

= B

X

+ c e covarianza

Q

Y

= BQ

X

B

T

:

(20)

20 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI Sia X = (X

1

; :::; X

m

) un vettore gaussiano di media e covarianza Q. Quando det Q 6= 0, X ha densità di probabilità congiunta (la sua legge è assolutamente continua rispetto alla misura di Lebesgue di R

m

), data da

f (x) = 1

p (2 )

n

det Q exp hQ

1

(x ) ; (x ) i 2

dove x = (x

1

; :::; x

n

). Altrimenti, se det Q = 0, la legge di Y è singolare rispetto alla misura di Lebesgue di R

m

ed è concentrata su un sottospazio proprio (precisamente una varietà a¢ ne, di codimensione maggiore di zero, della forma b + V , dove V è il sottospazio di R

m

generato dagli autovettori di Q corrispondenti agli autovalori non nulli).

Chiameremo gaussiana ogni misura di probabilità su (R

n

; B (R

n

)) che sia legge di un vettore aleatorio gaussiano. Equivalentemente, una misura di probabilità su (R

n

; B (R

n

)) è gaussiana se la sua legge immagine su (R; B (R)) attraverso qualsiasi proiezione uni-dimensionale è una misura con densità gaussiana o una delta di Dirac.

Ricordiamo che vale il seguente risultato:

Proposizione 5 Dati un vettore b 2 R

n

ed una matrice Q 2 R

n n

simmetrica e semi- de…nita positiva, esiste una ed una sola misura gaussiana su (R

n

; B (R)

n

) che ha b come vettore delle medie e Q come matrice di covarianza.

Limitiamoci ad un’idea della dimostrazione dell’esistenza, che può essere interes- sante per altri scopi, anche pratici (es. simulativi, se si vuole generare un campione casuale a partire da una coppia (Q; b)): esiste una matrice ortogonale U ed una matrice diagonale D con elementi non negativi tale che Q = U DU

T

. Si de…nisce la matrice p D come la matrice diagonale che ha come elementi le radici di quelli di D e poi si pone p

Q := U p

DU

T

. La matrice p

Q è simmetrica, semide…nita positiva e vale p Q p

Q = Q. Preso un vettore gaussiano standard Z (esso essite facilmente), basta porre X = p

QZ + b e veri…care che la sua legge soddisfa le proprietà richieste.

Processi gaussiani

Fatte queste premesse sui vettori gaussiani, possiamo de…nire ed analizzare i processi gaussiani. Osserviamo che anche in questo paragrafo l’insieme T è qualsiasi.

De…nizione 2 Un processo a valori reali X = (X

t

)

t2T

si dice gaussiano se tutte le sue marginali di dimensione …nita (X

t1

; :::; X

tn

) sono vettori gaussiani. Analogamente, una misura di probabilità su R

T

; B (R)

T

si dice gaussiana se tutte le sue distribuzioni di dimensione …nita sono gaussiane.

Un processo reale è quindi gaussiano se e solo se la sua legge su R

T

; B (R)

T

è

gaussiana.

(21)

1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 21 Se T è un sottoinsieme di uno spazio euclideo, unione numerabile di compatti, dici- amo che una misura su (C (T; E) ; B (C (T; E))) è gaussiana se tutte le sue distribuzioni di dimensione …nita sono gaussiane.

Un processo gaussiano ha la legge caratterizzata da poche funzioni: la funzione valor medio m (t) = E [X

t

] , t 2 T e la funzione di covarianza C (t; s) = Cov (X

t

; X

s

), t; s 2 T .

Proposizione 6 Se due processi gaussiani hanno le stesse funzioni m (t) e C (t; s), allora hanno la stessa legge.

Proof. La legge è identi…cata dalle distribuzioni di dimensione …nita. Le leggi dei due processi sono misure gaussiane, con distribuzioni di dimensione …nita gaussiane.

Tali gaussiane, diciamo in R

n

, sono univocamente determinate dai loro vettori medi e dalle matrici di covarianza, che però a loro volta hanno come componenti le valutazioni delle funzioni m (t) e C (t; s) in opportuni punti, quindi coincidono (precisamente, con le notazioni delle sezioni precedenti, la distribuzione di dimensione …nita

(t1;:::;tn)

ha media (m (t

1

) ; :::; m (t

n

)) e matrice di covarianza di componenti C (t

i

; t

j

)).

Vediamo un risultato di esistenza. Vogliamo invertire il procedimento che da un processo fornisce m (t) e C (t; s). Naturalmente questi ultimi sono solo dei riassun- ti, molto riduttivi, che non esauriscono in generale le caratteristiche di un processo;

salvo nel caso gaussiano. Osserviamo preliminarmente che, dato un processo X tale che E [X

t2

] < 1 (quindi per il quale le funzioni m (t) e C (t; s) siano ben de…nite) la funzione C (t; s) è simmetrica (dalla de…nizione di covarianza) e semi-de…nita positiva, nel seguente senso: per ogni n 2 N, (t

1

; :::; t

n

) 2 T

n

, (

1

; :::;

n

) 2 R

n

, vale la disug- uaglianza (1.6). Infatti la matrice (C (t

i

; t

j

))

i;j=1;:::;n

è la matrice di covarianza di un vettore aleatorio, (X

t1

; :::; X

tn

). E’comunque interessante vedere il conto:

X

n i;j=1

C (t

i

; t

j

)

i j

= X

n i;j=1

Cov X

ti

; X

tj i j

= Cov X

n

i=1 i

X

ti

;

X

n j=1

j

X

tj

!

= V ar

"

n

X

i=1 i

X

ti

# 0

dove abbiamo usato la linearità della covarianza in entrambi gli argomenti.

Proposizione 7 Date due funzioni m (t) e C (t; s), t; s 2 T , se C (t; s) = C (s; t) e se

vale X

n

i;j=1

C (t

i

; t

j

)

i j

0 (1.6)

(22)

22 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI per ogni n 2 N, (t

1

; :::; t

n

) 2 T

n

, (

1

; :::;

n

) 2 R

n

, allora esiste un processo gaussiano che ha queste funzioni come media e covarianza; ed è unico in legge.

Proof. Applichiamo il teorema di costruzione di Kolmogorov. Lo spazio di arrivo (E; E) = (R; B (R)) soddisfa l’ipotesi topologica del teorema. Basta quindi costruire una famiglia f ; 2 Sg di distribuzioni di dimensione …nita tale che:

i) la famiglia sia consistente (questo garantisce che esista un processo X con tali distribuzioni di dimensione …nita)

ii) le siano gaussiane (questo garantisce che X sia gaussiano, per de…nizione di processo gaussiano)

iii) le funzioni media e covarianza di X siano quelle assegnate.

Presa = (t

1

; :::; t

n

) 2 S, se prendimo come la legge gaussiana di vettore medio (m (t

1

) ; :::; m (t

n

)) e matrice di covarianza di componenti C (t

i

; t

j

), la proprietà (ii) è ovviamente soddisfatta ed anche (iii), perché il processo X, una volta che esista, sarà tale che, per ogni t; s, la v.a. X

t

ha legge

t

di media m (t) ed il vettore (X

t

; X

s

) ha legge

t;s

, la cui matrice di covarianza ha come elemento fuori dalla diagonale C (t; s).

Resta quindi da veri…care (i), con la scelta appena indicata delle . Svolgiamo la veri…ca in due modi, il primo più sintetico, l’altro più algebrico. Limitiamoci alla veri…ca della proprietà

(t1;:::;tn)

(B

1

B

n 1

E) =

(t

1;:::;tn 1)

(B

1

B

n 1

)

al variare di tutti gli argomenti, con le solite notazioni. Sia Y = (Y

1

; :::; Y

n

) un vettore aleatorio di legge

(t1;:::;tn)

. Vale

(t1;:::;tn)

(B

1

E) = P (Y 2 B

1

B

n 1

E)

= P Y e 2 B

1

B

n 1

dove e Y = (Y

1

; :::; Y

n 1

). Se veri…chiamo che

(t1;:::;tn 1)

è la legge di e Y , l’ultimo ter- mine delle precedenti identità è uguale a

(t1;:::;tn 1)

(B

1

B

n 1

), come volevamo dimostrare. Il vettore e Y è trasformazione lineare di Y , quindi gaussiano. Basta quindi veri…care che la legge di Y e

(t1;:::;tn 1)

hanno lo stesso vettore di valori medi e la stes- sa matrice di covarianza. Ci limitiamo alla seconda veri…ca. La generica componente della matrice di covarianza di e Y è Cov (Y

i

; Y

j

) (con i; j = 1; :::; n 1), ovvero C (t

i

; t

j

), in quanto C (t

i

; t

j

) è la generica componente della matrice di covarianza di Y (con i; j = 1; :::; n) che ha le stesse componenti di e Y . Ma anche

(t1;:::;tn 1)

ha matrice di covarianza di componenti Cov (Y

i

; Y

j

), i; j = 1; :::; n 1. La dimostrazione è completa.

Vediamo come si può veri…care la stessa proprietà in modo algebrico. Con le no- tazioni usate in precedenza, = (t

1

; :::; t

n

) 2 S,

bn

= (t

1

; :::; t

n 1

),

bn

: E

n

! E

n 1

che manda la generica sequenza (x

1

; :::; x

n

) 2 E

n

nella sequenza (x

1

; :::; x

n 1

) 2 E

n 1

, dobbiamo dimostrare che

b

n

=

nb

( ) :

(23)

1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 23 La trasformazione

bn

è lineare e quindi i vettori delle medie m

nb

e m di

bn

e rispettivamente sono legati dalla relazione m

nb

=

nb

m , le matrici di covarianza Q

nb

e Q di

bn

e rispettivamente sono legate dalla relazione Q

bn

=

bn

Q

Tnb

(us- ando la notazione

bn

anche per la matrice associata alla trasformazione nella base canonica). Il vettore m ha componenti m (t

k

), k = 1; :::; n, quindi

bn

m è il vettore (m (t

1

) ; :::; m (t

n 1

)) 2 E

n 1

, che è proprio il vettore delle medie di

nb

.

La veri…ca della proprietà Q

bn

=

bn

Q

Tnb

è elementare ma noiosa da scrivere. Per completezza la riportiamo. La matrice

bn

ha componenti (

nb

)

j;

=

j;

, per j = 0; :::; n 1, = 1; :::; n. Quindi la matrice

Tn;i

ha componenti

Tnb ;k

= (

nb

)

k;

=

k;

, per k = 0; :::; n 1, = 1; :::; n. Quindi, dall’identità

b

n

Q

Tbn jk

= X

n

; =1

(

nb

)

j;

(Q )

; Tnb ;k

si deduce, per j; k = 0; :::; n 1,

= X

n

; =1

j;

C (t ; t )

k;

= C (t

j

; t

k

) :

Questa è la matrice Q

bn

. La dimostrazione è completa.

Processi gaussiani stazionari

Ancor più economica è la descrizione nel caso di processi stazionari. Supponiamo che sull’insieme T sia de…nita un’operazione di somma +, cioè t + s 2 T se t; s 2 T . Ad esempio si possono considerare T = R

n

o T = [0; 1) con l’usuale somma euclidea.

De…nizione 3 Un processo stocastico X = (X

t

)

t2T

a valori in (E; E) si dice stazionario in senso stretto se, per ogni = (t

1

; :::; t

n

) 2 S le leggi di (X

t1

; :::; X

tn

) e (X

t1+h

; :::; X

tn+h

) coincidono per ogni h 2 T .

De…nizione 4 Un processo reale X = (X

t

)

t2T

, con E [X

t2

] < 1 per ogni t 2 T , si dice stazionario in senso lato o debole se

m (t + h) = m (t) C (t + h; s + h) = C (t; s) per ogni h; s; t 2 T .

Nel caso di un processo reale, la stazionarietà in senso stretto implica quella in

senso lato, ma non viceversa (non possiamo risalire alle leggi dai momenti di ordine

uno e due).

(24)

24 CAPITOLO 1. INTRODUZIONE AI PROCESSI STOCASTICI Proposizione 8 Se un processo gaussiano è stazionario in senso lato allora è anche stazionario in senso stretto.

Proof. Dati = (t

1

; :::; t

n

) 2 S e h 2 T , le leggi di (X

t1

; :::; X

tn

) e (X

t1+h

; :::; X

tn+h

), essendo gaussiane, sono identi…cate dai vettori medi di componenti E [X

tk

] e E [X

tk+h

], che coincidono essendo m (t

k

+ h) = m (t

k

), k = 1; :::; n, e dalle matrici di covarianza di componenti Cov X

ti

; X

tj

e Cov X

ti+h

; X

tj+h

, che coincidono essendo C (t

i

+ h; t

j

+ h) = C (t

i

; t

j

). Quindi le leggi di (X

t1

; :::; X

tn

) e (X

t1+h

; :::; X

tn+h

) coincidono ed abbiamo la stazionarietà in senso stretto.

Supponiamo che T sia un gruppo rispetto alla somma + e sia 0 l’elemento neutro.

In questo caso la stazionarietà in senso lato permette di descrivere la legge del processo gaussiano in modo estremamente economico.

Proposizione 9 Se un processo gaussiano è stazionario in senso lato allora la sua legge è identi…cata dal numero m := E [X

t

] e dalla funzione di una variabile

C (t) := Cov (X

t

; X

0

) ; t 2 T:

Proof. Le distribuzioni di dimensione …nita sono identi…cate dalle funzioni m (t) e C (t; s) ma queste, a loro volta, per la stazionarietà in senso lato sono l’una costante, m (t) = m, l’altra identi…cata dai suoi valori nei punti (t; s) della forma (r; 0), in quanto

C (t s; 0) = C (t; s) (h = s nella de…nizione di stazionarietà).

Corollario 1 Data una costante m ed una funzione C (t) tale che C ( t) = C (t) e X

n

i;j=1

C (t

i

t

j

)

i j

0

per ogni n 2 N, (t

1

; :::; t

n

) 2 T

n

, (

1

; :::;

n

) 2 R

n

, allora esiste un processo gaussiano stazionario ad esse associato, unico in legge.

Sulla veri…ca della condizione di de…nita positività

Veri…care che una data funzione C (t; s) soddisfa la condizione (1.6) appare spesso assai di¢ cile, se non si usano opportuni trucchi. Un caso importante e sintomatico è la funzione

C (t; s) = t ^ s:

Si provi a dimostrare algebricamente la (1.6), per rendersi conto di quanto sia di¢ cile.

Ecco un trucco che spesso sempli…ca le cose, nel caso in cui sia T = [0; 1] (o un altro

intervallo dei numeri reali).

(25)

1.2. TEOREMA DI ESTENSIONE DI KOLMOGOROV 25 Invece che veri…care la condizione (1.6), esaminiamo quella integrale

Z

1 0

Z

1 0

C (t; s) f (s) f (t) dsdt 0

per ogni funzione f : [0; 1] ! R continua (o regolare quanto si vuole, a seconda di cosa serve per svolgere i calcoli). Se veri…chiamo questa condizione, non è di¢ cile rendersi conto che vale la (1.6), prendendo una famiglia di funzioni f

"

che tende, per " ! 0, alla distribuzione P

n

i=1 i ti

(abbiamo usato un linguaggio avanzato ma si tratta solamente di applicare regole note di calcolo integrale, simili al fatto che

2"1

R

ti+"

ti "

f (s) ds ! f (t

i

)).

Non scriviamo i dettagli, non di¢ cili da formalizzare.

Osserviamo inoltre che, per la simmetria di C (t; s), basta veri…care Z

1

0

Z

t 0

C (t; s) f (s) ds f (t) dt 0

oppure Z

1

0

Z

1 t

C (t; s) f (s) ds f (t) dt 0:

Esempio 1 Nel caso C (t; s) = t ^ s, posto g (t) = R

1

t

f (s) ds, vale Z

1

0

Z

1 t

C (t; s) f (s) ds f (t) dt = Z

1

0

tf (t) Z

1

t

f (s) dsdt = Z

1

0

tg

0

(t) g (t) dt

=

Z

1 0

t d

dt g

2

(t) dt = Z

1

0

g

2

(t) dt 0:

Nel caso stazionario, possiamo invece avvalerci della trasformata di Fourier. Ac- cenniamo solo all’idea. Data una funzione C (t), de…nita per t 2 R e simmetrica, supponiamo che abbia senso calcolare la sua trasformata di Fourier b C ( ) e che valga (a meno di costante, a seconda delle convenzioni)

C (t) = Z

+1

1

e

it

C ( ) d : b

Proposizione 10 Se b C ( ) 0, allora C (t) è semide…nita positiva.

Proof.

X

n i;j=1

C (t

i

t

j

)

i j

= X

n i;j=1

i j

Z

+1

1

e

i(ti tj)

C ( ) d b

=

Z

+1

1

X

n i=1

i

e

i(ti)

X

n

j=1

j

e

itj

C ( ) d b

=

Z

+1

1

X

n i=1

i

e

i(ti)

2

b

C ( ) d 0:

Riferimenti

Documenti correlati

Pertanto il concetto di variazione quadratica di un processo stocastico non dipende dalla misura, se si considerano misure equivalenti, essendo legato alla misura solo attraverso

Le probabilità di transizione si ottengono ricordando che, nel lancio di un dado, la probabilità di uscita di un numero dispari è 1/2, la probabilità di uscita del 6 è 1/6 e

Nel caso delle biglie della scatola A i casi favorevoli sono 30 (il numero delle biglie rosse), mentre i casi possibili sono dati dalla somma delle palline rosse e nere,

Volendo utilizzare il calcolo delle probabilità nello studio della realtà che ci circonda , l’uso della probabilità matematica si rivela assai limitato. Ad esempio , la

La probabilità dell’evento unione di due eventi E1 ed E2 è uguale: ● alla somma delle loro probabilità, se E1 ed E2 sono incompatibili; ● alla somma delle loro probabilità

Utilizzando i dati scelti e riportati in tabella costruire un intervallo di confidenza per la media a livello

• Eulero stabilì che un grafo composto soltanto da nodi pari, cioè ciascuno collegato a un numero pari di archi, è sempre percorribile e che si può ritornare al punto di partenza

Con un campione di n = 100 la forma della distribuzione delle medie è praticamente normale con un valore medio di 0.7502. La cosa importante è che, per campioni