• Non ci sono risultati.

1.1 Prime de…nizioni

N/A
N/A
Protected

Academic year: 2021

Condividi "1.1 Prime de…nizioni"

Copied!
156
0
0

Testo completo

(1)

Introduzione ai Processi Stocastici

1.1 Prime de…nizioni

1.1.1 Processi stocastici

Ricordiamo che uno spazio di probabilità è una terna ( ; F; P ) dove è un insieme, F è una -algebra di parti di , P è una misura di probabilità su ( ; F); la coppia ( ; F) è chiamata spazio misurabile. In uno spazio topologico E indicheremo con B (E) la -algebra dei boreliani (la più piccola -algebra che contiene gli aperti). Una variabile aleatoria Y su ( ; F) a valori in uno spazio misurabile (E; E) è una funzione Y : ! E misurabile da ( ; F) in (E; E), cioè tale che f! 2 : Y (!) 2 Bg 2 F per ogni B 2 E.

Una variabile aleatoria reale Y su ( ; F) è una variabile aleatoria su ( ; F) a valori in (R; B (R)).

Sia T un insieme non vuoto. L’insieme T sarà l’insieme dei parametri del processo stocastico. A livello interpretativo, può essere ad esempio un insieme di tempi, oppure di posizioni spaziali o di spazio-tempo. In alcuni momenti sarà necessario supporre di avere uno spazio misurabile (T; T ) ed in altri uno spazio topologico T , con T = B (T );

altrimenti T è del tutto arbitrario. Tutto ciò …no al momento in cui introdurremo le

…ltrazioni; con l’introduzione del concetto di …ltrazione, restringeremo l’attenzione al caso in sia T [0; 1), T = B (T ) ed interpreteremo T come insieme dei tempi. Tutti gli sviluppi avanzati del corso riguarderanno il caso T = [0; 1) (o T = [0; t

0

]) per cui avrebbe senso restringersi …n da ora a quel caso. Però può essere concettualmente interessante osservare che questi primi paragra… hanno carattere più generale, per cui per ora supporremo solo che T sia un insieme, non vuoto.

Siano dati, oltre a T , uno spazio di probabilità ( ; F; P ) ed uno spazio misurabile (E; E) (detto spazio degli stati). Un processo stocastico X = (X

t

)

t2T

, de…nito su ( ; F; P ) a valori in (E; E) è una funzione X de…nita su T a valori in E, tale che per ogni t 2 T la funzione ! 7 ! X

t

(!) sia misurabile da ( ; F) in (E; E). Ne segue

1

(2)

che, dati t

1

< ::: < t

n

2 T , la funzione

! 7 ! (X

t1

(!) ; :::; X

tn

(!))

è misurabile da ( ; F) in (E

n

;

n

E). Le leggi di probabilità di questi vettori (leggi immagine di P rispetto a queste applicazioni) si chiamano distribuzioni di dimensione

…nita del processo.

Le funzioni t 7 ! X

t

(!) da T in E (ad ! …ssato) si dicono realizzazioni o traiettorie del processo stocastico. Il termine traiettoria va forse riservato al caso in cui sia T [0; 1).

Due processi stocastici X = (X

t

)

t2T

e Y = (Y

t

)

t2T

si dicono equivalenti se hanno le stesse distribuzioni di dimensione …nita. Si dicono modi…cazione (o versione) uno dell’altro se per ogni t 2 T vale

P (X

t

= Y

t

) = 1:

Si dicono indistinguibili se

P (X

t

= Y

t

per ogni t 2 T ) = 1:

Due processi indistinguibili sono modi…cazione uno dell’altro. Due processi che sono modi…cazione uno dell’altro sono equivalenti. Si veda l’esercizio 1. Si noti che, a di¤erenza delle altre due, la de…nizione di processi equivalenti non richiede che essi siano de…niti sullo stesso spazio ( ; F; P ).

Supponiamo che T ed E siano spazi topologici e siano T = B (T ), E = B (E).

Un processo si dice continuo se le sue realizzazioni sono funzioni continue; si dice q.c.

continuo se ciò avviene per P -quasi ogni realizzazione.

Quando T [0; 1), le de…nizioni di continuo a destra e/o a sinistra, costante a tratti ed altre della stessa natura sono simili. Un processo si dice càdlàg (continue à droite, limite à gauche) se le sue traiettorie sono continue a destra ed hanno limite

…nito a sinistra.

Se (T; T ) è uno spazio misurabile, possiamo dare la seguente de…nizione. Un proces- so si dice misurabile se l’applicazione (t; !) 7 ! X

t

(!) è misurabile da (T ; T F) in (E; E).

Elenchiamo anche alcune nozioni che si usano soprattutto nella cosiddetta teoria della correlazione dei processi stazionari, per noi marginale ma toccata almeno nel caso dei processi gaussiani. Supponiamo che sia (E; E) = (R; B (R)). Indichiamo con E [ ] la speranza matematica su ( ; F; P ) (E [Y ] = R

Y dP , per ogni Y v.a. reale ( ; F; P ) in- tegrabile), con V ar [ ] la varianza (V ar [Y ] = E (Y E [Y ])

2

quando Y è di quadrato integrabile), con Cov ( ; ) la covarianza (Cov (Y; Z) = E [(Y E [Y ]) (Z E [Z])] se Y e Z sono v.a. di quadrato integrabile). Sia X un processo stocastico a valori in (R; B (R)), su ( ; F; P ). Se E [jX

t

j] < 1 per ogni t 2 T , chiamiamo m (t) = E [X

t

], t 2 T , funzione valor medio del processo X. Se E [X

t2

] < 1 per ogni t 2 T , chiamiamo

2

(t) = V ar [X

t

] , t 2 T , funzione varianza di X e chiamiamo C (t; s) = Cov (X

t

; X

s

),

t; s 2 T , funzione covarianza di X.

(3)

Esercizio 1 Costruire due processi equivalenti che non siano modi…cazione uno del- l’altro e due processi modi…cazione uno dell’altro che non siano indistinguibili.

1.1.2 Legge di un processo

Sia E

T

lo spazio di tutte le funzioni f : T ! E. Indichiamo con S l’insieme di tutte le n-ple ordinate = (t

1

; :::; t

n

) di elementi di T tali che t

i

6= t

j

per ogni i 6= j, i; j = 1; :::; n . Indichiamo con E

n

la -algebra prodotto di n copie di E.

Presa = (t

1

; :::; t

n

) 2 S e preso B 2 E

n

consideriamo l’insieme C ( ; B) E

T

di tutte le funzioni f : T ! E tali che

(f (t

1

) ; :::; f (t

n

)) 2 B:

Lo chiameremo insieme cilindrico (con base B e coordinate t

1

; :::; t

n

). Sia A la famiglia di tutti gli insiemi cilindrici C ( ; B), con n 2 N, = (t

1

; :::; t

n

) 2 S e B 2 E

n

. La famiglia A è un’algebra di parti di E

T

: contiene E

T

; il complementare di un insieme della forma f(f (t

1

) ; :::; f (t

n

)) 2 Bg è l’insieme cilindrico f(f (t

1

) ; :::; f (t

n

)) 2 B

c

g; è chiusa per intersezione …nita. Quest’ultima proprietà è noiosa da scrivere in gen- erale ma è ovvia se si pensa ad esempio al caso particolare dei due insiemi cilindrici ff (t

1

) 2 B

1

g, ff (t

2

) 2 B

2

g, con = (t

1

; t

2

), B

1

; B

2

2 E, la cui intersezione è l’insieme f(f (t

1

) ; f (t

2

)) 2 B

1

B

2

g che appartiene ad A.

Sia E

T

la più piccola -algebra di parti di E

T

che contiene gli insiemi cilindrici.

Dato un processo stocastico X = (X

t

)

t2T

de…nito su uno spazio di probabilità ( ; F; P ) a valori in uno spazio misurabile (E; E) consideriamo l’applicazione

! 7 ! X (!)

da ( ; F) in E

T

; E

T

. Essa è misurabile. Infatti, preso un insieme cilindrico C ( ; B),

= (t

1

; :::; t

n

) 2 S, B 2 E

n

, la sua controimmagine è l’insieme f(X

t1

; :::; X

tn

) 2 Bg

e questo insieme sappiamo essere misurabile, un elemento di F. Rammentiamo che per veri…care la misurabilità di un’applicazione basta farlo su una famiglia generante la -algebra in arrivo (in simboli generali, se X : ( ; F) ! (E; E) soddisfa X

1

(B) 2 F per ogni B 2 G, dove G E ed E = (G), allora X è misurabile; infatti, si prenda la famiglia H P (E) degli insiemi B E tali che X

1

(B) 2 F; si veri…ca che H è una

-algebra e contiene G, quindi contiene (G)).

Possiamo quindi considerare la legge dell’applicazione (misura immagine di P attraverso ). Si chiamerà legge del processo. E’una misura di probabilità su E

T

; E

T

. Indichiamola col simbolo P

X

. Vale

P

X

(C ( ; B)) = P ((X

t1

; :::; X

tn

) 2 B)

(4)

per ogni = (t

1

; :::; t

n

) 2 S e B 2 E

n

.

Proposizione 1 Due processi X ed X

0

, de…niti rispettivamente su ( ; F; P ) e (

0

; F

0

; P

0

) a valori in (E; E), sono equivalenti se e solo se hanno la stessa legge su E

T

; E

T

. Proof. Se hanno la stessa legge allora, presi = (t

1

; :::; t

n

) 2 S e B 2 E

n

, vale

P ((X

t1

; :::; X

tn

) 2 B) = P

X

(C ( ; B)) = P

X00

(C ( ; B))

= P

0

X

t0

1

; :::; X

t0n

2 B quindi hanno le stesse distribuzioni di dimensione …nita.

Viceversa, se hanno le stesse distribuzioni di dimensione …nita, vale P

X

(C ( ; B)) = P ((X

t1

; :::; X

tn

) 2 B) = P

0

X

t01

; :::; X

t0n

2 B

= P

X0 0

(C ( ; B))

quindi le misure di probabilità P

X

e P

X0 0

, misure su E

T

; E

T

, coincidono sugli insiemi cilindrici. La famiglia A di tali insiemi genera E

T

ed è chiusa per intersezione …nita e quindi, per un noto teorema di Caratheodory, le due misure coincidono su tutta E

T

. La dimostrazione è completa.

1.1.3 Legge nello spazio delle funzioni continue

Esaminiamo adesso un problema più delicato. Supponiamo che X sia continuo. Per capire bene il problema senza complicazioni topologiche collaterali, iniziamo discutendo il caso in cui

T = R

+

:= [0; 1); E = R

n

(1.1)

e le -algebre sono quelle dei boreliani. Indichiamo con C

0

l’insieme C (R

+

; R

n

) delle funzioni continue da R

+

in R

n

, munito della topologia della convergenza uniforme sui compatti.

L’insieme ( ) non è solo un sottoinsieme di E

R+

ma anche di C

0

. E’naturale pen- sare che de…nisca una misura immagine su (C

0

; B (C

0

)). Purtroppo si può dimostrare che C

0

2 B (E) =

R+

(omettiamo la dimostrazione) e questo non permette facilmente di

“restringere” la legge del processo, precedentemente de…nita su E

R+

; B (E)

R+

, ad una legge su (C

0

; B (C

0

)) (in realtà anche questa strada è percorribile con opportune considerazioni basate sulla misura esterna, applicabili dopo aver veri…cato che la misura esterna dell’insieme non misurabile C

0

è pari ad 1).

Per aggirare questo ostacolo basta dimostrare il risultato seguente.

Proposizione 2 Se X = (X

t

)

t 0

è un processo continuo a valori reali, allora è

misurabile da ( ; F) in (C

0

; B (C

0

)). Possiamo quindi considerare la misura immagine

di P attraverso , su (C

0

; B (C

0

)), che chiameremo legge del processo X su (C

0

; B (C

0

)).

(5)

Proof. La -algebra B (C

0

) è generata dagli insiemi della forma B (f

0

; n; R) = f 2 C

0

: max

t2[0;n]

jf (t) f

0

(t) j R

al variare di f

0

2 C

0

, n 2 N, R > 0. Sia ft

j

g R

+

una successione che conta i razionali non negativi. Indichiamo con n

t

(n)j

o

la sotto-successione composta dai t

j

che appartengono a [0; n]; n

t

(n)j

o

è densa in [0; n]. Vale B (f

0

; n; R) = n

f 2 C

0

: f t

(n)j

f

0

t

(n)j

R; 8 j 2 N o : Poniamo inoltre

B (f

0

; n; N; R) = n

f 2 C

0

: f t

(n)j

f

0

t

(n)j

R; 8 j N o

per ciascun N 2 N. La controimmagine di B (f

0

; n; N; R) attraverso è l’insieme n

! 2 : X

t(n) j

(!) f

0

t

(n)j

R; 8 j N o

che appartiene ad F (è anche la controimmagine di un insieme cilindrico). Vale inoltre B (f

0

; n; R) = \

N 2N

B (f

0

; n; N; R) :

La controimmagine di questo insieme è intersezione numerabile di elementi di F, quindi è elemento di F. Siccome questi insiemi, come detto sopra, generano B (C

0

), è misurabile tra le -algebre indicate. La dimostrazione è completa.

Osservazione 1 Con ragionamenti non molto diversi si dimostra che due proces- si continui con le stesse distribuzioni di dimensione …nita, hanno la stessa legge su (C

0

; B (C

0

)).

Se un processo X è solamente q.c. continuo, de…nisce ugualmente una misura di probabilità su (C

0

; B (C

0

)) del tutto analoga al caso precedente, che continueremo a chiamare misura immagine di P attraverso su (C

0

; B (C

0

)). Infatti, esiste un insieme

0

2 F di P -misura 1 tale che (

0

) C

0

. Consideriamo lo spazio probabilizzato (

0

; F

0

; P

0

) dove F

0

= F \

0

e P

0

è la restrizione di P ad F

0

. Ora :

0

! C

0

è ben de…nita e induce una misura di probabilità su (C

0

; B (C

0

)). Si veri…ca facilmente che essa non dipende dalla scelta di

0

con le proprietà precedenti.

Le considerazioni illustrate sopra si estendono a varie situazioni più generali. Una

molto simile è quella in cui T è uno spazio metrico, unione numerabile di compatti

(spazio metrico -compatto) ed E è uno spazio metrico separabile.

(6)

1.2 Teorema di estensione di Kolmogorov

Abbiamo visto che, dato un processo X = (X

t

)

t2T

, questo de…nisce una misura di probabilità su E

T

; E

T

. Quando vale il viceversa, cioè per quali misure di probabilità su E

T

; E

T

esiste un processo che ha come legge? Per tutte: basta prendere il processo canonico, = E

T

, F = E

T

, X

t

(!) = ! (t). Meno banale è il problema di inversione che ora descriveremo.

Data una misura di probabilità su E

T

; E

T

, de…niamo le sue distribuzioni di dimensione …nita nel seguente modo. Presa = (t

1

; :::; t

n

) 2 S, indichiamo con : E

T

! E

n

l’applicazione (f ) = (f (t

1

) ; :::; f (t

n

)) . E’misurabile, rispetto a E

T

e E

n

(preso B 2 E

n

la sua controimmagine è l’insieme cilindrico f 2 E

T

: (f (t

1

) ; :::; f (t

n

)) 2 B , che appartiene ad E

T

): La distribuzione di dimensione n di relativa a è la legge immagine di attraverso :

(B) = f 2 E

T

: (f (t

1

) ; :::; f (t

n

)) 2 B ; B 2 E

n

:

Se = P

X

, essa è la legge del vettore aleatorio (X

t1

; :::; X

tn

) e f ; 2 Sg è la famiglia delle distribuzione di dimensione …nita del processo X.

Il problema di inversione è il seguente: data una famiglia di misure di probabilità f ; 2 Sg (si sottintende che se = (t

1

; :::; t

n

) 2 S, allora è una misura di proba- bilità su (E

n

; E

n

)), esiste una misura di probabilità su E

T

; E

T

di cui f ; 2 Sg sia la famiglia delle distribuzioni di dimensione …nita? Siccome l’esistenza di un processo con legge è ovvia, il problema è equivalente a: data una famiglia di misure di prob- abilità f ; 2 Sg, esiste uno spazio probabilizzato ( ; F; P ) ed un processo X su ( ; F; P ) che abbia f ; 2 Sg come famiglia delle distribuzioni di dimensione …nita?

Osservazione 2 Alla base dei seguenti ragionamenti c’è il fatto che un insieme cilin- drico non ha una sola rappresentazione. Ad esempio, dati t

1

; :::; t

n

; t

n+1

2 T , B 2 E

n

, vale

f 2 E

T

: (f (t

1

) ; :::; f (t

n

)) 2 B = f 2 E

T

: (f (t

1

) ; :::; f (t

n

) ; f (t

n+1

)) 2 B E oppure, dati t

1

; t

2

2 T , B

1

; B

2

2 E, vale

f 2 E

T

: (f (t

1

) ; f (t

2

)) 2 B

1

B

2

= f 2 E

T

: (f (t

2

) ; f (t

1

)) 2 B

2

B

1

: Servono due ingredienti: una proprietà di compatibilità tra le ed un po’ di regolarità dello spazio (E; E). La proprietà di compatibilità tra le si intuisce facil- mente a posteriori, quando esse sono le distribuzioni di dimensione …nita di . Si tratta di due condizioni, che a parole potremmo chiamare “invarianza sotto permu- tazioni degli indici” e “invarianza sotto contrazioni degli indici”. Vediamo la prima.

Se = (t

1

; :::; t

n

) 2 S e se (i

1

; :::; i

n

) è una permutazione di (1; :::; n), indicata con

(7)

P

(i1;:::;in)

: E

n

! E

n

l’applicazione che manda la generica sequenza (x

1

; :::; x

n

) nella (x

i1

; :::; x

in

), deve valere (per le distribuzioni di dimensione …nita di un processo)

(t1;:::;tn)

(B) = (

ti1;:::;tin

) P

(i1;:::;in)

(B) : (1.2) Vediamo ora la seconda. Data = (t

1

; :::; t

n

) 2 S, indichiamo con

nb

la sequen- za

nb

= (t

1

; :::; t

n 1

) (la sequenza ottenuta omettendo t

n

dalla ), le misure e

b

n

sono legate dalla proiezione

nb

: E

n

! E

n 1

che manda una generica sequenza (x

1

; :::; x

n

) 2 E

n

nella sequenza (x

1

; :::; x

n 1

) 2 E

n 1

(la sequenza ottenuta omettendo l’ultima componente di (x

1

; :::; x

n

)). Vale

b

n

=

nb

( ) (1.3)

nel senso che

nb

è la legge immagine di attraverso

nb

, ovvero esplicitamente

b

n

(B) = (

bn

2 B) per ogni B 2 E

n 1

.

Si può veri…care facilmente che è equivalente richiedere queste condizioni per insiemi B di tipo rettangolare, rispetto a cui esse si scrivono più agevolmente. Possiamo richiedere che

(t1;:::;tn)

(B

1

B

n

) = (

ti1;:::;tin

) (B

i1

B

in

)

(t1;:::;tn)

(B

1

E) =

(t1;:::;tn 1)

(B

1

B

n 1

) per ogni n 2 N, (t

1

; :::; t

n

) 2 S, B

1

; :::; B

n

2 E.

De…nizione 1 Sia f ; 2 Sg una famiglia di misure di probabilità (sempre sottin- tendendo che se = ft

1

; :::; t

n

g 2 S, sia una misura di probabilità su (E

n

; E

n

)).

Quando valgono (1.2)-(1.3) per ogni scelta di n 2 N, = (t

1

; :::; t

n

) 2 S, i = 1; :::; n, diciamo che la famiglia f ; 2 Sg è consistente.

Ricordiamo che uno spazio metrico E si dice -compatto se è unione numerabile di compatti di E. Un risultato di teoria della misura dice che su uno spazio metrico E si dice -compatto, se è una misura di probabilità de…nita sui boreliani B (E), allora per ogni B 2 B (E) ed " > 0 esiste un compatto K B tale che (B nK) < ".

Useremo questo risultato nella dimostrazione del seguente teorema.

Teorema 1 Se f ; 2 Sg è una famiglia consistente, E è uno spazio metrico - compatto, E = B (E), allora esiste una ed una sola misura di probabilità su E

T

; E

T

di cui f ; 2 Sg sia la famiglia delle distribuzioni di dimensione …nita.

Proof. Passo 1 (preparazione). L’unicità è del tutto analoga a quella della Propo-

sizione 1: due misure con le stesse distribuzioni di dimensione …nita coincidono su una

classe chiusa per intersezione …nita e generante la -algebra E

T

, quindi coincidono su

tutta E

T

.

(8)

Per l’esistenza, ricordiamo il seguente teorema di Charateodory: dato uno spazio misurabile ( ; G) ed un’algebra A che genera G, se è una misura …nitamente addi- tiva su ( ; A), continua in ? (cioè tale che, se fA

n

g è una successione di eventi di A decrescente con intersezione vuota allora lim

n!1

(A

n

) = 0), allora si estende univocamente ad una misura numerabilmente additiva su ( ; G).

Prendiamo l’algebra A di tutti gli insiemi cilindrici C ( ; B), con n 2 N, = ft

1

; :::; t

n

g 2 S e B 2 E

n

. L’algebra A genera E

T

. Basta de…nire una misura su A con le proprietà del teorema di Charateodory ed avente f ; 2 Sg come famiglia delle distribuzioni di dimensione …nita, ed il teorema è dimostrato.

Preso un insieme cilindrico C 2 A, esistono in…nite sue rappresentazioni nella forma C = C ( ; B) con = (t

1

; :::; t

n

) e B 2 E

n

. Presa una di tali rappresentazioni, possiamo calcolare (B) e porre

(C) = (B) :

Ma la de…nizione è ben data solo se non dipende dalla rappresentazione di C. Qui interviene l’ipotesi di consistenza della famiglia. Se C (

0

; B

0

) e C (

00

; B

00

) sono due rappresentazioni dello stesso insieme cilindrico C, abbiamo

0

(B

0

) =

00

(B

00

). La dimostrazione è elementare ma un po’ laboriosa da scrivere, per cui la isoliamo nel Lemma 1.

La veri…ca che , così de…nita, è …nitamente additiva su A, si esegue nel seguente modo: presi degli insiemi disgiunti C

1

; :::; C

k

2 A, c’è una sequenza = (t

1

; :::; t

n

) tale che tutti gli insiemi C

i

possono essere rappresentati tramite , cioè esistono B

1

; :::; B

k

2 E

n

, oltretutto disgiunti, tali che C

j

= C ( ; B

j

), j = 1; :::; k. Vale

[

k j=1

C

j

= C ; [

k j=1

B

j

!

per cui

[

k j=1

C

j

!

=

[

k j=1

B

j

!

= X

k

j=1

(B

j

) = X

k

j=1

(C

j

)

dove il passaggio intermedio si basa sull’additività di su E

n

. L’additività su A si riconduce cioè a quella di un’opportuna distribuzione di dimensione …nita.

Passo 2 (continuità della misura). Dobbiamo in…ne dimostrare la continuità in ?.

Sia fC

n

g è una successione di eventi di A decrescente con intersezione vuota. Dobbiamo dimostrare che lim

n!1

(C

n

) = 0.

Facciamo una piccola digressione che può aiutare a capire la dimostrazione. Ci sono

alcune famiglie di successioni fC

n

g per cui la dimostrazione è facile. Gli esercizi 2 e

3 illustrano esempi in cui ci si può ricondurre ad usare una singola distribuzione di

dimensione …nita, un po’come nella veri…ca fatta sopra dell’additività. In questi casi,

la dimostrazione che lim

n!1

(C

n

) = 0 è facile. Se ci si potesse restringere ad insiemi

cilindrici come quelli descritti agli esercizi 2 e 3, non ci sarebbe bisogno dell’ipotesi di

regolarità dello spazio E.

(9)

Ma le famiglie di insiemi cilindrici descritte da tali esercizi non sono algebre. Tra le successioni di insiemi cilindrici esistono esempi, come quello dell’esercizio 4, in cui non si vede come ricondursi ad usare una singola distribuzione di dimensione …nita.

Facendo però riferimento a concetti topologici, precisamente alla compattezza, c’è un’altra classe in cui la dimostrazione che lim

n!1

(C

n

) = 0 si riesce a completare facilmente. Supponiamo che la successione fC

n

g di eventi di A decrescente con inter- sezione vuota abbia la forma C

n

= C (

n

; K

n

) con K

n

insieme compatto (per inciso, se E non è compatto, questa rappresentazione è unica, quando esiste). Allora gli insiemi K

n

non possono essere tutti diversi dal vuoto. Rimandiamo la veri…ca al Lemma 2.

Ma allora, se per un certo n

0

l’insieme K

n0

è vuoto, vale (C

n0

) = 0, da cui discende (per monotonia) (C

n

) = 0 per ogni n n

0

e quindi anche lim

n!1

(C

n

) = 0.

L’idea della dimostrazione allora è la seguente: data una rappresentazione C

n

= C (

n

; B

n

) degli insiemi cilindrici della successione, …ssato " > 0, usando la proprietà di regolarità dello spazio E si può trovare una successione di compatti fK

n

g, K

n

B

n

tali che, detto D

n

l’insieme cilindrico di base K

n

(invece che B

n

) e coordinate

n

, insieme che veri…ca D

n

C

n

, vale

(C

n

) (D

n

) = (C

n

nD

n

) ":

Se riusciamo a trovare fK

n

g in modo che fD

n

g sia anche decrescente, allora per il Lemma 2, lim

n!1

(D

n

) = 0. Questo implica che esiste n

0

0 tale che per ogni n n

0

, (C

n

) ". Per l’arbitrarietà di " si ottiene lim

n!1

(C

n

) = 0.

L’unico punto che richiede un attimo di lavoro è fare in modo che fD

n

g sia decres- cente. Sia quindi, …ssato " > 0, fK

10

g una successione di compatti, K

n0

B

n

, tali che

n

(B

n

nK

n0

) <

2"n

(essi esistono per la regolarità di E). Indichiamo con fD

0n

g la succes- sione degli insiemi cilindrici di base K

n0

e coordinate

n

; D

n0

C

n

in quanto K

n0

B

n

, ma non sappiamo se fD

n0

g è decrescente. Poniamo D

n

= D

10

\ ::: \ D

n0

. Sicuramente fD

n

g è una successione di insiemi cilindrici decrescente. Mostriamo che esistono dei compatti K

n

B

n

, tali che D

n

ha base K

n

e coordinate

n

; e (C

n

nD

n

) ".

Gli insiemi D

n

hanno la forma

D

n

= f j

1

2 K

10

; :::; f j

n

2 K

n0

:

Si immagini l’esempio D

2

= f j

(t1;t2)

2 K

10

; f j

(t2;t3)

2 K

20

. Si può descrivere nella forma

D

2

= f j

(t1;t2;t3)

2 K

10

E; f j

(t1;t2;t3)

2 E K

20

= f j

(t1;t2;t3)

2 K

10

E \ E K

20

e l’insieme (K

10

E) \ (E K

20

) è compatto. Il caso generale si scrive con fatica ma è identico. Quindi esiste K

n

B

n

, tali che D

n

ha base K

n

e coordinate

n

.

Vale poi (si osservi che D

0k

C

k

C

n

; si scriva inoltre C

n

nD

n

= C

n

\(D

01

\ ::: \ D

n0

)

c

) C

n

nD

n

= C

n

nD

01

[ C

n

nD

20

[ ::: [ C

n

nD

n0

C

1

nD

01

[ C

2

nD

02

[ ::: [ C

n

nD

0n

(10)

da cui

(C

n

nD

n

) X

n k=1

C

k

nD

k0

X

n k=1

"

2

k

":

La dimostrazione è completa.

Nella dimostrazione del seguente lemma usiamo la notazione j j per la cardinalità di 2 S. Se = (t

1

; :::; t

n

) , vale j j = n.

Lemma 1 Se C (

0

; B

0

) e C (

00

; B

00

) sono due rappresentazioni dello stesso insieme cilindrico C, abbiamo

0

(B

0

) =

00

(B

00

).

Proof. Se vale

0

=

00

, si può riconoscere che vale anche B

0

= B

00

. In questo caso la tesi è ovvia. Se

00

è ottenuta da

0

tramite una permutazione degli indici (i

1

; :::; i

n

), allora B

00

= P

(i1;:::;in)

(B

0

) e l’invarianza della de…nizione di è garantita dalla proprietà (1.2).

Se, cosiderando

0

e

00

come insiemi non oridinati, vale

0 00

, a meno di permu- tazione delle coordinate risulta B

00

è della forma B

0

E

j 00j j 0j

. Quando j

00

j j

0

j = 1 basta applicare la proprietà (1.3); quando j

00

j j

0

j > 1 si agisce in j

00

j j

0

j passi sempre con la proprietà (1.3).

Se

0

e

00

, cosiderate come insiemi non oridinati, non sono contenute una nell’altra, si consideri =

0

\

00

. Esiste B tale che C ( ; B) è una terza rappresentazione; B è la proiezione lungo le coordinate di B

0

o di B

00

. Per capire che è così, si pensi al caso

0

= (t

1

; t

2

),

00

= (t

2

; t

3

) (il caso generale è solo notazionalmente più faticoso): vale f 2 E

T

: (f (t

1

) ; f (t

2

)) 2 B

0

= f 2 E

T

: (f (t

2

) ; f (t

3

)) 2 B

00

ovvero

f(f (t

1

) ; f (t

2

) ; f (t

3

)) 2 B

0

E g = f(f (t

1

) ; f (t

2

) ; f (t

3

)) 2 E B

00

g :

Questo implica che gli insiemi di E

3

dati da B

0

E e E B

00

coincidono. Questo è compatibile solo con la struttura E B E.

Vale allora C (

0

; B

0

) = C ( ; B) ma

0

, quindi

0

(B

0

) = (B). Lo stesso si può dire per C (

00

; B

00

) e quindi

0

(B

0

) =

00

(B

00

). La dimostrazione è completa.

Lemma 2 Sia fC

n

g A decrescente con intersezione vuota, della forma C

n

= C (

n

; K

n

) con K

n

insieme compatto. Allora gli insiemi K

n

non possono essere tutti diversi dal vuoto.

Esercizio 2 Sia ft

n

g T una successione data e sia fC

n

g A della forma C

n

= ff (t

1

) 2 B

1;n

; :::; f (t

n

) 2 B

n;n

g

dove la famiglia a due indici interi positivi fB

k;n

g E soddisfa B

k;n+1

B

k;n

per ogni k; n 2 N. Quindi fC

n

g è decrescente. Mostrare in questo caso che, se

fC

n

g ha intersezione vuota, allora lim

n!1

(C

n

) = 0.

(11)

Esercizio 3 Sia ft

n

g T una successione data e sia fC

n

g A decrescente. Supponi- amo che esista k

0

2 N tale che, per n k

0

, f

k0

C

n

g E sia una successione decres- cente con intersezione vuota. Qui

k0

: E

T

! E è la proiezione f 7 !

k0

(f ) = f (t

k0

).

Allora fC

n

g ha intersezione vuota e lim

n!1

(C

n

) = 0.

Esercizio 4 Sia ft

n

g T una successione data. Veri…care che gli insiemi C

n

= f (t

k 1

) < f (t

k

) < f (t

k 1

) + 1

n ; k = 2; 3; :::; n

non rientrano nei casi trattati dagli esercizi precedenti ma formano una successione decrescente con intersezione vuota.

Esercizio 5 Data una misura di probabilità sui boreliani di uno spazio metrico (X; d), diciamo che essa è tight se per ogni " > 0 esiste un compatto K

"

tale che (K

"

) > 1 ". Mostrare che il teorema di costruzione dei processi di Kolmogorov continua a valere se, invece di supporre che lo spazio metrico E sia -compatto, si sup- pone che sia metrico e che ogni distribuzione di dimensione …nita , 2 S, sia tight.

[Presa 2 S e la corrispondente misura su E

n

, esiste un boreliano X

n

E

n

che è uno spazio metrico -compatto e può essere ristretta ad una misura di probabilità su X

n

. Il resto della dimostrazione del teorema di Kolmogorov è inalterata.]

Osservazione 3 Ogni misura di probabilità sui boreliani uno spazio metrico com- pleto e separabile (polacco) è tight. La proprietà di essere polacco passa al prodotto cartesiano …nito. Allora il teorema di Kolmogorov vale se, invece di supporre che lo spazio metrico E sia -compatto, si suppone che sia polacco.

1.2.1 Processi gaussiani

Ricordiamo che la densità gaussiana standard è la funzione f (x) =

p12

exp ( x

2

=2) e la densità gaussiana N ( ;

2

) è la funzione

f (x) = 1

p 2

2

exp (x )

2

2

2

! :

Inoltre, un vettore aleatorio Z = (Z

1

; :::; Z

n

) è gaussiano standard se ha densità congiunta

f (x

1

; :::; x

n

) = Y

n i=1

p 1

2 exp x

2i

2 = (2 )

n=2

exp x

21

+ ::: + x

2n

2

(questo equivale a chiedere che le componenti Z

1

; :::; Z

n

siano gaussiane standard in-

dipendenti), mentre un vettore Y = (Y

1

; :::; Y

m

) si dice gaussiano se si può rappre-

sentare nella forma Y = AZ + b con A matrice n m, Z vettore gaussiano standard,

(12)

b 2 R

m

. Tra le equivalenze con coi si può riscrivere questa de…nizione, ricordiamo la seguente: un vettore Y = (Y

1

; :::; Y

m

) è gaussiano se e solo se la v.a. P

m

i=1 i

Y

i

è gaussiana per ogni scelta di (

1

; :::;

m

) 2 R

m

. Segue subito da queste de…nizioni che se Y = (Y

1

; :::; Y

m

) è un vettore gaussiano, B è una matrice m k e c 2 R

k

, allora il vettore aleatorio BY + c è un vettore gaussiano (in R

k

).

Ricordiamo inoltre che per matrice di covarianza di un vettore Y = (Y

1

; :::; Y

m

) si intende la matrice Q 2 R

m m

de…nita da

Q

ij

= Cov (Y

i

; Y

j

) ; i; j = 1; :::; m:

E’simmetrica e semi-de…nita positiva. La media (o vettore dei valori medi) è il vettore di coordinate E [Y

i

], i = 1; :::; m. Un vettore gaussiano standard Z = (Z

1

; :::; Z

n

) ha media nulla e covarianza pari all’identità di R

n

. Un vettore gaussiano della forma Y = AZ + b come sopra, ha media b e matrice di covarianza Q = AA

T

. Più in generale, ricordiamo la seguente proposizione:

Proposizione 3 Se Y = (Y

1

; :::; Y

m

) è un vettore gaussiano di media

Y

e covarianza Q

Y

, B è una matrice m k e c 2 R

k

, allora il vettore aleatorio BY + c è un vettore gaussiano di media B

Y

+ c e covarianza

Q = AQ

Y

A

T

:

Sia Y = (Y

1

; :::; Y

m

) un vettore gaussiano di media e covarianza Q. Quando det Q 6= 0, Y ha densità di probabilità congiunta (la sua legge è assolutamente continua rispetto alla misura di Lebesgue di R

m

), data da

f (x) = 1

p (2 )

n

det Q exp hQ

1

(x ) ; (x ) i 2

dove x = (x

1

; :::; x

n

). Altrimenti, se det Q = 0, la legge di Y è singolare rispetto alla misura di Lebesgue di R

m

ed è concentrata su un sottospazio proprio (precisamente una varietà a¢ ne, di codimensione maggiore di zero).

Chiameremo gaussiana ogni misura di probabilità su (R

n

; B (R

n

)) che sia legge di una v.a. gaussiana. Equivalentemente, una misura di probabilità su (R

n

; B (R

n

)) è gaussiana se la sua legge immagine su (R; B (R)) attraverso qualsiasi proiezione uni- dimensionale è una misura con densità gaussiana o una delta di Dirac. Ricordiamo che vale il seguente risultato:

Proposizione 4 Dati un vettore b 2 R

n

ed una matrice Q 2 R

n n

simmetrica e semi- de…nita positiva, esiste una ed una sola misura gaussiana su (R

n

; B (R)

n

) che ha b come vettore delle medie e Q come matrice di covarianza.

Fatte queste premesse sui vettori gaussiani, possiamo de…nire ed analizzare i processi

gaussiani. Osserviamo che anche in questo paragrafo l’insieme T è qualsiasi.

(13)

De…nizione 2 Un processo a valori reali X = (X

t

)

t2T

si dice gaussiano se tutte le sue marginali di dimensione …nita (X

t1

; :::; X

tn

) sono vettori gaussiani. Analogamente, una misura di probabilità su R

T

; B (R)

T

si dice gaussiana se tutte le sue distribuzioni di dimensione …nita sono gaussiane.

Un processo reale è quindi gaussiano se e solo se la sua legge su R

T

; B (R)

T

è gaussiana.

Se T è un sottoinsieme di uno spazio euclideo, unione numerabile di compatti, dici- amo che una misura su (C (T; E) ; B (C (T; E))) è gaussiana se tutte le sue distribuzioni di dimensione …nita sono gaussiane.

Un processo gaussiano ha la legge caratterizzata da poche funzioni: la funzione valor medio m (t) = E [X

t

] , t 2 T e la funzione di covarianza C (t; s) = Cov (X

t

; X

s

), t; s 2 T .

Proposizione 5 Se due processi gaussiani hanno le stesse funzioni m (t) e C (t; s), allora hanno la stessa legge.

Proof. La legge è identi…cata dalle distribuzioni di dimensione …nita. Le leggi dei due processi sono misure gaussiane, con distribuzioni di dimensione …nita gaussiane. Tali gaussiane, diciamo in R

n

, sono univocamente determinate dai loro vettori medi e dalle matrici di covarianza, che però a loro volta hanno come componenti le valutazioni delle funzioni m (t) e C (t; s) in opportuni punti, quindi coincidono.

Ancor più economica è la descrizione nel caso di processi stazionari. Supponiamo che sull’insieme T sia de…nita un’operazione di somma +, cioè t + s 2 T se t; s 2 T . Ad esempio si possono considerare T = R

n

o T = [0; 1) con l’usuale somma euclidea.

De…nizione 3 Un processo stocastico X = (X

t

)

t2T

a valori in (E; E) si dice stazionario in senso stretto se, per ogni = (t

1

; :::; t

n

) 2 S le leggi di (X

t1

; :::; X

tn

) e (X

t1+h

; :::; X

tn+h

) coincidono per ogni h 2 T .

De…nizione 4 Un processo reale X = (X

t

)

t2T

, con E [X

t2

] < 1 per ogni t 2 T , si dice stazionario in senso lato o debole se

m (t + h) = m (t) C (t + h; s + h) = C (t; s) per ogni h; s; t 2 T .

Nel caso di un processo reale, la stazionarietà in senso stretto implica quella in

senso lato, ma non viceversa (non possiamo risalire alle leggi dai momenti di ordine

uno e due).

(14)

Proposizione 6 Se un processo gaussiano è stazionario in senso lato allora è anche stazionario in senso stretto.

Proof. Dati = (t

1

; :::; t

n

) 2 S e h 2 T , le leggi di (X

t1

; :::; X

tn

) e (X

t1+h

; :::; X

tn+h

), essendo gaussiane, sono identi…cate dai vettori medi di componenti E [X

tk

] e E [X

tk+h

], che coincidono essendo m (t

k

+ h) = m (t

k

), k = 1; :::; n, e dalle matrici di covarianza di componenti Cov X

ti

; X

tj

e Cov X

ti+h

; X

tj+h

, che coincidono essendo C (t

i

+ h; t

j

+ h) = C (t

i

; t

j

). Quindi le leggi di (X

t1

; :::; X

tn

) e (X

t1+h

; :::; X

tn+h

) coincidono ed abbiamo la stazionarietà in senso stretto.

Supponiamo che T sia un gruppo rispetto alla somma + e sia 0 l’elemento neutro.

In questo caso la stazionarietà in senso lato permette di descrivere la legge del processo gaussiano in modo estremamente economico.

Proposizione 7 Se un processo gaussiano è stazionario in senso lato allora la sua legge è identi…cata dal numero m := E [X

t

] e dalla funzione di una variabile

C (t) := Cov (X

t

; X

0

) ; t 2 T:

Proof. Le distribuzioni di dimensione …nita sono identi…cate dalle funzioni m (t) e C (t; s) ma queste, a loro volta, per la stazionarietà in senso lato sono l’una costante, m (t) = m, l’altra identi…cata dai suoi valori nei punti (t; s) della forma (r; 0), in quanto

C (t s; 0) = C (t; s) (h = s nella de…nizione di stazionarietà).

Concludiamo con un risultato di esistenza.

Proposizione 8 Date due funzioni m (t) e C (t; s), t; s 2 T , se C (t; s) = C (s; t) e

vale X

n

i;j=1

C (t

i

; t

j

)

i j

0

per ogni n 2 N, (t

1

; :::; t

n

) 2 T

n

, (

1

; :::;

n

) 2 R

n

, allora esiste un processo gaussiano che ha queste funzioni come media e covarianza.

Proof. Basta costruire una misura gaussiana su R

T

; B (R)

T

e prendere il processo

canonico. Per il teorema di costruzione di Kolmogorov ((E; E) = (R; B (R)) soddis-

fa l’ipotesi del teorema), basta costruire una famiglia consistente f ; 2 Sg di dis-

tribuzioni di dimensione …nita, che siano gaussiane (quindi la misura ed il processo

saranno gaussiani) e tali che valga la seguente proprietà: presa = (t

1

; :::; t

n

) 2 S, se

(X

t1

; :::; X

tn

) è un vettore aleatorio di legge , quindi gaussiano, valga E [X

tk

] = m (t

k

)

e Cov X

ti

; X

tj

= C (t

i

; t

j

) per ogni k; i; j = 1; :::; n.

(15)

Dato = (t

1

; :::; t

n

) 2 S, sia la misura gaussiana su R

n

avente vettore medio di componenti m (t

k

) e matrice di covarianza di componenti C (t

i

; t

j

), per ogni k; i; j = 1; :::; n. Un tale misura esiste ed è unica. Infatti la matrice di componenti C (t

i

; t

j

) è semide…nita positiva, per ipotesi, ed abbiamo ricordato sopra che un vettore ed una matrice semide…nita positiva de…niscono univocamente una misura gaussiana. La va- lidità della proprietà detta poco sopra (E [X

tk

] = m (t

k

) e Cov X

ti

; X

tj

= C (t

i

; t

j

), se (X

t1

; :::; X

tn

) ha legge ) è assicurata per de…nizione. Resta da veri…care la consis- tenza. Omettiamo, per non appesantire la trattazione, la veri…ca della proprietà (1.2) e limitiamoci alla (1.3).

Con le notazioni usate in precedenza, = (t

1

; :::; t

n

) 2 S,

nb

= (t

1

; :::; t

n 1

),

b

n

: E

n

! E

n 1

che manda la generica sequenza (x

1

; :::; x

n

) 2 E

n

nella sequenza (x

1

; :::; x

n 1

) 2 E

n 1

, dobbiamo dimostrare che

b

n

=

nb

( ) :

La trasformazione

bn

è lineare e quindi i vettori delle medie m

nb

e m di

bn

e rispettivamente sono legati dalla relazione m

nb

=

nb

m , le matrici di covarianza Q

nb

e Q di

b

n

e rispettivamente sono legate dalla relazione Q

bn

=

bn

Q

Tnb

(us- ando la notazione

bn

anche per la matrice associata alla trasformazione nella base canonica). Il vettore m ha componenti m (t

k

), k = 1; :::; n, quindi

bn

m è il vettore (m (t

1

) ; :::; m (t

n 1

)) 2 E

n 1

, che è proprio il vettore delle medie di

b n

.

La veri…ca della proprietà Q

bn

=

bn

Q

Tnb

è elementare ma noiosa da scrivere. Per completezza la riportiamo. La matrice

bn

ha componenti (

nb

)

j;

=

j;

, per j = 0; :::; n 1, = 1; :::; n. Quindi la matrice

Tn;i

ha componenti

Tnb ;k

= (

nb

)

k;

=

k;

, per k = 0; :::; n 1, = 1; :::; n. Quindi, dall’identità

b

n

Q

Tbn jk

= X

n

; =1

(

nb

)

j;

(Q )

; Tnb ;k

si deduce, per j; k = 0; :::; n 1,

= X

n

; =1

j;

C (t ; t )

k;

= C (t

j

; t

k

) :

Questa è la matrice Q

bn

. La dimostrazione è completa.

Esercizio 6 Costruire un processo X con T = [0; 1] che si annulli in t = 0 e t = 1

q.c., ed invece X

t

abbia densità di probabilità strettamente positiva per ogni t 2 (0; 1)

(un “ponte” stocastico).

(16)

1.2.2 Filtrazioni

A partire da questo paragrafo supponiamo che T sia un intervallo di R, o più precisa- mente per …ssare le idee

T = [0; 1):

Si intuisce che si possa svolgere una teoria più generale ma gli esempi che tratteremo nel corso non la motivano.

Chiamiamo …ltrazione su ( ; F; P ) una famiglia (F

t

)

t2T

di -algebre di insiemi di , F

t

F per ogni t 2 T , che sia crescente: F

s

F

t

se s < t 2 T .

Un processo X = (X

t

)

t2T

de…nito su ( ; F; P ) a valori in (E; E) si dice adattato alla

…ltrazione (F

t

)

t2T

se per ogni t 2 T la funzione X

t

è misurabile da ( ; F

t

) in (E; E).

Supponiamo T = [0; 1); se T è un intervallo che contiene 0 la de…nizione è analoga.

Il processo X si dice progressivamente misurabile se per ogni t 0 l’applicazione (s; !) 7 ! X

s

(!) da ([0; t] ; B ([0; t]) F

t

) in (E; E) è misurabile.

Se X è progressivamente misurabile, allora è misurabile ed adattato. Viceversa, vale ad esempio il seguente risultato.

Proposizione 9 Sia E uno spazio topologico, E = B (E). Se X è adattato e q.c.

continuo a destra (oppure q.c. continuo a sinistra) allora è progressivamente misurabile.

Proof. Sia G una -algebra su . Il seguente criterio di misurabilità è noto: se una funzione f : [a; b] ! E è continua a destra ed ! 7 ! f (t; !) è misura- bile da ( ; G) in (E; E) per ogni t 2 [a; b], allora (t; !) 7 ! f (t; !) è misurabile da ([a; b] ; B ([a; b]) G) in (E; E). La dimostrazione si fa ad esempio approssimando f con funzioni continue a destra e costanti a tratti in t.

Basta allora applicare questo criterio ad ogni restrizione di X ad insiemi della forma [0; t] . La dimostrazione è completa.

Un insieme N è trascurabile rispetto a ( ; F; P ) se P (N) = 0 dove P (A) = inf fP (B) ; B 2 F; A B g. Quindi N è trascurabile se inf fP (B) ; B 2 F; N B g = 0 . Indichiamo con N l’insieme degli insiemi trascurabili rispetto a ( ; F; P ). Una …l- trazione (F

t

)

t2T

è completa se ogni F

t

contiene N . E’equivalente che F

0

contenga N . [Una -algebra G si dice completa quando contiene gli insiemi trascurabili rispetto a ( ; G; P ). Quindi il chiedere che F

0

contenga N - famiglia degli insiemi trascurabili rispetto a ( ; F; P ) - o che sia completa sono a¤ermazioni di¤erenti.]

E’ comodo che tutte le -algebre di una …ltrazione contengano N . Altrimenti si creano tante piccole complicazioni un po’innaturali; ad esempio se Y è modi…cazione di un processo adattato X e la …ltrazione non è completa, non si può concludere che anche Y sia adattato. Infatti, preso B 2 E e t 2 T , l’evento fY

t

2 Bg può di¤erire da fX

t

2 Bg per un insieme di N , ma tale insieme potrebbe non appartenere a F

t

, quindi la proprietà fX

t

2 Bg 2 F

t

può non implicare fY

t

2 Bg 2 F

t

. Invece, vale:

Osservazione 4 Se (F

t

)

t2T

è completa, X è adattato ed Y è una modi…cazione di X,

allora Y è adattato.

(17)

Una …ltrazione (F

t

)

t2T

si dice continua a destra se per ogni t 2 T F

t

= \

">0

F

t+"

:

Questa condizione interviene ogni tanto nei teoremi successivi, e la completezza ancora di più, per cui spesso per uni…care gli enunciati di una teoria si assume sin dall’inizio che la …ltrazione di riferimento della teoria sia completa a continua a destra. Diremo che una …ltrazione soddisfa le condizioni abituali se è completa e continua a destra.

Si ricordi che l’intersezione (arbitraria) di -algebre è una -algebra, quindi \

">0

F

t+"

è sempre una -algebra. Invece l’unione no; indicheremo col simbolo F _G la più piccola -algebra che contiene F [ G; per cui scriveremo ad esempio _

t 0

F

t

per la più piccola -algebra che contiene ogni F

t

, denotata con F

1

.

Dato un processo stocastico X, ad esso è associata la …ltrazione generata da X de…nita da

F

t00

= fX

s

; s 2 T; s t g

A livello interpretativo, gli eventi di F

t00

sono gli eventi conoscibili al tempo t se os- serviamo il processo X. La notazione F

t00

non è universale ed è usata qui solo per distinguere questa …ltrazione dalle seguenti.

Essendo comodo che la …ltrazione di riferimento sia completa, si introduce la …l- trazione (F

t0

)

t2T

de…nita da F

t0

= fF

t00

[ N g. La …ltrazione (F

t0

)

t2T

è il completa- mento della …ltrazione (F

t00

)

t2T

(naturalmente questo procedimento si può applicare a qualsiasi …ltrazione).

Volendo richiedere che la …ltrazione sia anche continua a destra, poniamo F

t

= \

">0

F

t+"0

:

Osservazione 5 Questa …ltrazione è continua a destra: F

t

= \

">0

F

t+"

. Infatti, F

t0

F

t

(per ogni t 2 T ) per monotonia di (F

t0

)

t2T

e de…nizione di F

t

, quindi \

">0

F

t+"0

\

">0

F

t+"

, per cui F

t

\

">0

F

t+"

per de…nizione di F

t

. Viceversa, F

t+"

F

t+2"0

per ogni t 2 T ed " > 0, per de…nizione di F

t

, quindi \

">0

F

t+"

\

">0

F

t+2"0

= F

t

.

La …ltrazione così costruita è la più piccola che soddis… le condizioni abituali e

rispetto a cui il processo sia adattato.

(18)

1.3 Speranza condizionale e probabilità condizionale

1.3.1 Speranza condizionale

Teorema 2 Data una v.a. X a valori reali, integrabile su ( ; F; P ) ed una -algebra G F, esiste una v.a. G-misurabile X

0

tale che

Z

B

XdP = Z

B

X

0

dP per ogni B 2 G. Inoltre è unica a meno di P -equivalenze.

La dimostrazione dell’esistenza si basa sul teorema di Radon-Nikodym, l’unicità su un semplice argomento prendendo l’evento B = fX

0

> X

00

g, se X

0

; X

00

soddisfano le stesse condizioni.

De…nizione 5 Sia X una v.a. integrabile su ( ; F; P ) e sia G una -algebra, G F. Chiamiamo speranza condizionale di X rispetto a G ogni variabile aleatoria G- misurabile X

0

tale che Z

B

XdP = Z

B

X

0

dP

per ogni B 2 G. Chiameremo con lo stesso nome anche la classe di P -equivalenza di tali variabili. La speranza condizionale di X rispetto a G viene indicata con E [XjG].

Quando scriveremo uguaglianze tra diverse speranze condizonali o tra una speranza condizionale ed una v.a., si intenderà sempre l’uguaglianza come classi di equivalenza, o P -q.c.

L’intuizione è che, avendo a disposizione il grado di informazione fornito da G, la nostra attesa circa il valore di X è più precisa della semplice E [X] (attesa incon- dizionata), dipende da ciò che si avvera nei limiti della …nezza di G, quindi è una v.a.

G-misurabile. Inoltre, se B è un atomo di G con P (B) > 0, per cui X

0

deve essere costante su B, l’identità della de…nizione dice che

X

0

j

B

= 1 P (B)

Z

B

XdP

cioè X

0

è una sorta di media locale di X; per un B generale l’identità stabilisce una gen- eralizzazione di tale proprietà. Si risolva il seguente esercizio, per aiutare ulteriormente l’intuizione.

Esercizio 7 Sia G generata da una partizione misurabile fB

1

; :::; B

n

g. Allora E [XjG] = P

n

i=1 1 P (Bi)

R

Bi

XdP 1

Bi

. In altre parole, E [XjG] è costante su ciascun B

i

e lì vale la media di X su B

i

,

P (B1

i)

R

Bi

XdP .

(19)

Proof. La v.a. X

0

= P

n i=1

1 P (Bi)

R

Bi

XdP 1

Bi

è G-misurabile. Prendiamo Y = 1

B1

. Vale

E [XY ] = Z

B1

XdP

E [X

0

Y ] = X

n

i=1

1 P (B

i

)

Z

Bi

XdP E [1

Bi

1

B1

]

= X

n

i=1

1 P (B

i

)

Z

Bi

XdP

i1

P (B

1

) = Z

B1

XdP e quindi sono uguali.

Osservazione 6 La de…nizione data sopra equivale a chiedere che X

0

sia G-misurabile e valga

E [XY ] = E [X

0

Y ]

per ogni v.a. Y limitata G-misurabile. Un’implicazione è ovvia (prendendo Y della forma 1

B

con B 2 G). Per l’altra, dalla de…nizione, che si riscrive E [X1

B

] = E [X

0

1

B

], discende che E [XY ] = E [X

0

Y ] per Y della forma Y = P

y

i

1

Bi

, y

i

2 R, B

i

2 G. Con variabili di quel tipo possiamo approssimare dal basso puntualmente ogni Y limitata G-misurabile e passare al limite per convergenza monotona.

Proposizione 10 Siano X, Y , fX

n

g integrabili, G una sotto -algebra di F. Valgono le seguenti a¤ermazioni:

i) Se G

0

G F allora E [E [XjG] jG

0

] = E [X jG

0

]; in particolare ( G

0

= f?; g), E [E [X jG]] = E [X]

ii) Se X è G-misurabile ed XY è integrabile, allora E [XY jG] = XE [Y jG]

iii) Se X è indipendente da G allora E [XjG] = E [X]

iv) E [aX + bY + cjG] = aE [XjG] + bE [Y jG] + c

v) Se fX

n

g è una successione di v.a. monotona non decrescente, con X = lim

n!1

X

n

integrabile, allora E [X

n

jG] ! E [XjG] q.c.

La veri…ca di queste proprietà è un utile esercizio; rimandiamo comunque ai corsi di base di Probabilità. Utile tecnicamente è la seguente generalizzazione delle proprietà (ii)-(iii). Si noti che ' è G

0

-misurabile nel suo secondo argomento, X è G-misurabile, e G, G

0

sono -algebre indipendenti.

Proposizione 11 Dato uno spazio probabilizzato ( ; F; P ) ed uno spazio misurabile (E; E), siano G F e G

0

F due -algebre indipendenti. Sia ' : (E ; E G

0

) ! (R; B (R)) misurabile limitata e sia X : ( ; G) ! (E; E) misurabile. Allora

E [' (X; ) jG] = (X) dove è de…nita da

(x) := E [' (x; )] ; x 2 E:

(20)

Proof. Supponiamo ' a variabili separate, ' (x; !) = '

1

(x) '

2

(!), con '

1

: (E; E) ! (R; B (R)), '

2

: ( ; G

0

) ! (R; B (R)) misurabili limitate. Allora

E [' (X; ) jG] = E ['

1

(X) '

2

( ) jG] = '

1

(X) E ['

2

( )]

(X) = E [' (x; )]

x=X

= E ['

1

(x) '

2

( )]

x=X

= '

1

(X) E ['

2

( )]

quindi la formula è veri…cata. Per linearità, vale per combinazioni lineari di funzioni ' della forma ' (x; !) = '

1

(x) '

2

(!). Si passa al caso generale per convergenza monotona, usando la stabilità della speranza condizionale rispetto a tale convergenza.

Apparentemente potrebbe sembrare che, rimuovendo l’ipotesi che G

0

sia indipen- dente da G, ovvero prendendo una qualsiasi funzione ' : (E ; E F) ! (R; B (R)) misurabile limitata, valga l’identità

E [' (X; ) jG] = E [' (x; ) jG] j

x=X

di cui quella della proposizione è un caso particolare. Qui però si pone un problema di versioni: per ogni x la speranza condizionale E [' (x; ) jG] è de…nita a meno di insiemi di misura nulla e quindi la sostituzione E [' (x; ) jG] j

x=X

non ha un senso ovvio.

Tra i risultati rilevanti citiamo anche il seguente. Se X è di quadrato integra- bile, E [XjG] è la proiezione ortogonale di X sul sottospazio chiuso L

2

( ; G; P ) di L

2

( ; F; P ) (funzioni di quadrato integrabile misurabili rispetto a G e F rispettiva- mente).

1.3.2 Probabilità condizionale

Sia ( ; F; P ) uno spazio probabilizzato. Dati due eventi A; B 2 F con P (B) > 0, chiamiamo probabilità condizionale di A sapendo B il numero

P (A jB) := P (A \ B) P (B) :

Data una partizione misurabile fB

1

; :::; B

n

g di , possiamo de…nire in numeri P (A jB

i

) per tutti gli i = 1; :::; n tali che P (B

i

) > 0. Potremmo dire che la famiglia di numeri fP (AjB

i

) g è la probabilità di A condizionata alla partizione fB

1

; :::; B

n

g. In analogia col caso della speranza condizionale, potremmo codi…care questa informazione nella funzione

X

n i=1

P (A jB

i

) 1

Bi

(se per un certo i vale P (B

i

) = 0, la funzione 1

Bi

è equivalente a quella nulla e quindi possiamo de…nire P (AjB

i

) arbitrariamente). C’è quindi una funzione G-misurabile, P (A jG) := P

n

i=1

P (A jB

i

) 1

Bi

, che racchiude le informazioni utili circa la probabilità

(21)

condizionale di A rispetto ai vari elementi della partizione fB

1

; :::; B

n

g e quindi delle informazioni contenute nella -algebra G.

Tra l’altro, si noti che, sempre nel caso particolare di G generata da fB

1

; :::; B

n

g, vale

E [1

A

jG] = P (AjG) in quanto R

Bi

1

A

dP = P (A \ B

i

). Inoltre,

P (A) = E [P (A jG)]

o più in generale

P (A \ B) = Z

B

P (A jG) dP

per ogni B 2 G (si veri…chino queste due identità). Queste ultime formule sono una riscrittura compatta dell’utilissima formula di fattorizzazione (o delle probabilità totali)

P (A) = X

n

i=1

P (A jB

i

) P (B

i

)

e sua generalizazione a P (A \ B).

Possiamo estendere queste de…nizioni e proprietà al caso di una -algebra G F più generale, raggiungendo due livelli di generalizzazione.

Innanzi tutto, data G F qualsiasi, poniamo P (A jG) := E [1

A

jG]

detta probabilità condizionale di A rispetto alla -algebra G. Quindi P (AjG), de…nita a meno di P -equivalenza (o come classe di equivalenza), è una v.a. G-misurabile tale

che Z

B

P (A jG) dP = Z

B

1

A

dP = P (A \ B)

per ogni B 2 G. Questa identità, data ora per de…nizione, è una versione generalizzata della formula di fattorizzazione. La probabilità condizionale di A rispetto ad una - algebra G è de…nita tramite la formula di fattorizzazione; o in altre parole, è quella v.a. che fa funzionare la formula di fattorizzazione anche nel caso non …nito (cioè di una -algebra generale invece che generata da una partizione …nita). Questo è il primo livello.

C’è poi un secondo livello, più complesso. Nasce dalla seguente domanda natu-

rale. Per ogni A 2 F, P (AjG) è una classe di equivalenza, o comunque è de…nita a

meno di insiemi trascurabili. Non ha senso …ssare ! 2 e considerare la funzione

A 7 ! P (AjG) (!). Possiamo scegliere un rappresentante ^ P (A jG) da ciascuna classe

di equivalenza in modo che la funzione d’insieme A 7 ! ^ P (A jG) (!) sia una misura di

(22)

probabilità? Se prendiamo degli insiemi disgiunti A

1

; A

2

; ::: 2 F, nel senso delle classi di equivalenza (oppure quasi certamente per ogni scelta di rappresentanti) vale

P [

i

A

i

jG

!

= X

i

P (A

i

jG) :

Ma non possiamo sperare che valga per ^ P ( jG) (!), con ! …ssato, senza operare una scelta molto oculata e non banale dei rappresentanti.

De…nizione 6 Dati ( ; F; P ) e G F, chiamiamo versione regolare della probabilità condizionale rispetto a G una funzione (A; !) 7 ! P

G

(A; !), de…nita su F , con le seguenti proprietà:

i) per P -q.o. !, la funzione d’insieme A 7 ! P

G

(A; !) è una misura di probabilità su ( ; F)

ii) per ogni A 2 F, la funzione ! 7 ! P

G

(A; !) è misurabile ed appartiene alla classe di equivalenza P (AjG).

Vale il seguente teorema non banale:

Teorema 3 Se ( ; d) è uno spazio metrico completo e separabile (spazio polacco) ed F = B ( ), esiste sempre versione regolare della probabilità condizionale rispetto ad ogni G B ( ).

Per la versione regolare valgono, come sopra, P

G

(A; ) = E [1

A

jG]

Z

B

P

G

(A; ) dP = P (A \ B)

per ogni A 2 F, B 2 G. In più però, possiamo de…nire integrali del tipo Z

X (!

0

) P

G

(d!

0

; !)

con ! …ssato ed X ad esempio limitata misurabile. Si può allora dimostrare che vale Z

X (!

0

) P

G

(d!

0

; ) = E [X jG]

(nel senso che l’integrale a sinistra è un elemento della classe di equivalenza a destra).

Questo inverte il procedimento visto sopra: a livello uno si può de…nire la probabil-

ità condizionale a partire dalla speranza condizionale; a livello due si può de…nire la

speranza condizionale a partire da una versione regolare della probabilità condizionale.

Riferimenti

Documenti correlati

ha per unità la mole (mol), definita come la quantità di sostanza di un sistema che contiene tante unità elementari quanti sono gli atomi in 0.012 kg di carbonio 12 (12C),

• Un insieme di tante misure (distribuzione di misure) è stato riassunto da due soli valori: la media e la deviazione standard (oppure l’errore sulla media, che non è altro che

Altre parti fondamentali dello strumento sono i cerchi graduati (uno orizzontale o azimutale, l’altro verticale o zenitale), le livelle (una sferica e una torica) e

Come già osservato, il concetto di variazione quadratica di un processo, essendo un limite in probabilità non dipende da P a meno di misure equivalenti, quindi anche rispetto a Q

De…nizione di martingala locale, teorema relativo sugli integrali stocastici (Teorema 27; per ora dimostrata solo la proprietà di martingala locale, dando per buona la

Un corpo che ha una massa di 4 kg viene lanciato dalla base di un piano inclinato verso l'alto con una velocità iniziale di 6 m/sec.. Una bambina lancia una palla verticalmente

La misura dello sfasamento si pu`o effettuare nella stessa modalit`a: bisogna centrare i due segnali verti- calmente rispetto all’asse dei tempi; lo sfasamento potr`a essere

Un aumento del volume del sistema corrisponde ad un lavoro POSITIVO Un aumento del volume del sistema corrisponde ad un lavoro POSITIVO Una riduzione del volume del sistema