• Non ci sono risultati.

Moto browniano

Nel documento Analisi Stocastica (pagine 21-43)

Dopo aver introdotto le leggi normali (uni- e multivariate), definiamo il moto browniano e ne studiamo le principali propriet`a.

1. Leggi normali

1.1. Leggi normali univariate. Dati µ ∈ R e σ ∈ (0, ∞), la legge normale (o gaussiana) di media µ e varianza σ2, indicata con N (µ, σ2), `e la probabilit`a su R assolutamente continua con densit`a

f (x) = √1 2πσ e

(x−µ)2

2σ2 .

Si verifica che effettivamente la media e la varianza di questa legge valgono rispetti-vamente µ e σ2, mentre la funzione caratteristica vale R

Reiθxf (x) dx = eiθµ−12σ2θ2

. Una variabile aleatoria reale X `e detta normale di media µ ∈ R e varianza σ2 ≥ 0, e scriveremo X ∼ N (µ, σ2), se lo `e la sua legge, cio`e se

E(eiθX) = eiθµ−12σ2θ2

.

Per estensione, quando σ2 = 0 definiremo la legge N (µ, 0) come la misura di Dirac concentrata nel punto µ. e analogamente per una variabile aleatoria: X ∼ N (µ, 0) se P (X = µ) = 1. Si noti che media, varianza e funzione caratteristica sono consistenti con la notazione. Quando µ = 0 e σ2 = 1 parleremo di legge normale standard.

Se le variabili aleatorie X ∼ N (µx, σx2) e Y ∼ N (µy, σy2) sono indipendenti, essendo E(eiθ(X+Y )) = E(eiθX)E(eiθY) segue facilmente che X + Y ∼ N (µx+ µy, σx2+ σ2

y). Analogamente, per a, b ∈ R si ha che aX + b ∼ N (aµx+ b, a2σ2 x).

1.2. Leggi normali multivariate. Un vettore aleatorio X = (X1, . . . , Xn) a valori in Rn `e detto normale (o gaussiano) se ogni combinazione lineare hu, Xi := P

iuiXi delle sue componenti, dove u ∈ Rn, `e una variabile aleatoria reale nor-male. In particolare, ciascuna componente Xi `e in L2: indicando con µ = EX = (EX1, . . . , EXn) il vettore media di X e con Γij := Cov(Xi, Xj) la matrice delle covarianze, per θ ∈ Rn si ha necessariamente

E(eihθ,Xi) = eihθ,µi−12hθ,Γθi, (2.1)

dove Γθ indica l’ordinario prodotto matrice-vettore, cio`e (Γθ)i :=P

jΓijθj. Indiche-remo con N (µ, Γ) la legge di X su Rn, che verr`a detta normale di media µ e matrice delle covarianze Γ, e scriveremo X ∼ N (µ, Γ).

Mostriamo che, per ogni µ ∈ Rn e per ogni matrice reale Γ simmetrica e semi-definita positiva, `e effettivamente possibile costruire la legge N (µ, Γ). Consideriamo innanzitutto n variabili aleatorie

reali Z1, . . . , Znindipendenti, ciascuna normale standard. Introducendo il vettore Z = (Z1, . . . , Zn), per θ ∈ Rnsi ha E(eihθ,Zi) = Qn

i=1E(eiθiZi) = exp(−1

2hθ, θi). Abbiamo dunque costruito un vettore aleatorio di legge Z ∼ N (0, In), dove (In)ij = δij per 1 ≤ i, j ≤ n indica la matrice identit`a.

Essendo la matrice Γ simmetrica e semi-definita positiva, per il teorema spettrale esiste una base ortonormale {v1, . . . , vn}di autovettori: hvi, vji= δije Γvi = λivi, con λi≥0. Definendo l’operatore lineare Γ1/2 tramite Γ1/2vi := λivi, si verifica immediatamente che Γ1/2 = (Γ1/2)∗ (dove A∗

indica la trasposta della matrice A) e che (Γ1/2)2 = Γ1/2(Γ1/2)∗ = Γ. Ponendo X := Γ1/2Z + µ, cio`e Xi := Pn

j=1Γ1/2

ij Zj+ µj, si ha che E(eihθ,Xi) = E(ei(hΓ1/2θ,Zi+hθ,µi)) = eihθ,µi−1

2hΓ1/2θ,Γ1/2θi= eihθ,µi−1

2hθ,Γθi, in accordo con (2.1): la legge di X `e dunque N (µ, Γ).

1.3. Propriet`a delle leggi normali. Dall’equazione (2.1) `e facile determinare il comportamento dei vettori normali per trasformazioni affini: se X ∼ N (µ, Γ) `e un vettore aleatorio normale in Rn e Y = AX + b, con A matrice reale m × n e b ∈ Rm, allora Y `e un vettore aleatorio normale in Rm la cui legge `e N (Aµ + b, AΓA). In particolare:

• se X1, X2 sono variabili aleatorie reali tali che il vettore (X1, X2) ha legge nor-male (diremo che X1 e X2 sono congiuntamente normali ), X1+ X2 `e anch’essa una variabile aleatoria normale: X1+ X2 ∼ N (µ1+ µ2, Γ11+ Γ22+ 2Γ12), dove naturalmente µi = E(Xi) e Γij = Cov(Xi, Xj);

• se X = (X1, . . . , Xn) `e un vettore aleatorio normale in Rn, allora ciascuna com-ponente Xi`e una variabile aleatoria normale, pi`u precisamente Xi ∼ N (µi, Γii), con ovvie notazioni.

Una propriet`a fondamentale: date due variabili aleatorie reali X, Y congiunta-mente normali, esse sono indipendenti se e solo se sono scorrelate, cio`e se e solo se Cov(X, Y ) = 0. Infatti in questo caso la matrice di covarianza Γ del vetto-re (X, Y ) `e diagonale e dunque E(ei(θ1X+θ2Y )) = ei(θ1µX+θ2µY)e12(ΓXXθ2

1+ΓY Yθ2 2) = E(e1X)E(e2Y) e l’indipendenza segue dalle propriet`a delle funzioni caratteristiche. Una propriet`a analoga vale nel caso in cui X = (X1, . . . , Xn) e Y = (Y1, . . . , Ym) siano vettori aleatori congiuntamente normali, cio`e tali che il vettore (X, Y ) a valori in Rn+m abbia legge normale: X e Y sono indipendenti se e soltanto se le loro com-ponenti sono scorrelate, cio`e Cov(Xa, Yb) = 0 per ogni a, b. Infine, questa propriet`a si generalizza a una famiglia di pi`u vettori: dati X(1), . . . , X(k) vettori aleatori con-giuntamente normali, essi sono indipendenti se e solo se hanno componenti scorrelate, cio`e Cov(Xa(i), Xb(j)) = 0 per i 6= j e per ogni a, b (omettiamo la dimostrazione di queste generalizzazioni).

Se X ∼ N (µ, Γ) `e un vettore aleatorio normale in Rn, nel caso in cui det Γ 6= 0 il vettore X `e assolutamente continuo con densit`a

fX(x) = 1

(2π)n/2(det Γ)1/2e12hx−µ,Γ−1(x−µ)i,

come segue dalla gi`a menzionata rappresentazione X = Γ1/2Z + µ con Z ∼ N (0, Id), osservando che fZ(z) = (2π)−n/2e12hz,zi. Se invece det Γ = 0, il vettore X non `e assolutamente continuo.

Proposizione 2.1. Sia {Xn}n∈Nuna successione di vettori aleatori, definiti sullo stesso spazio di probabilit`a (Ω, F , P), tali che Xn sia normale per ogni n ∈ N. Se esiste un vettore aleatorio X ∈ L2(Ω, F , P) tale che Xn→ X in L2, X `e normale.

Dimostrazione. Scrivendo Xn= (Xn(1), . . . , Xn(k)) e X = (X(1), . . . , X(k)), per definizione si ha

kXn− Xk2 = qE(Xn(1) − X(1))2+ . . . + (Xn(k) − X(k))2 = pkXn(1) − X(1)k2+ . . . + kXn(k) − X(k)k2,

da cui segue che la convergenza di Xn → X in L2 `e equivalente alla convergenza di ciascuna componente Xn(i) → X(i) in L2, per ogni 1 ≤ i ≤ k.

Dalla disuguaglianza triangolare segue che |kXn(i)k2− kX(i)k2| ≤ kXn(i) − X(i)k2, per cui si ha che E(Xn(i)2) → E(X(i)2), per ogni 1 ≤ i ≤ k. Non `e difficile mostrare che si ha anche E(Xn(i)Xn(j)) → E(X(i)X(j)), per ogni 1 ≤ i, j ≤ k. Infatti usando le disuguaglianze triangolare e di Cauchy-Schwarz

|E(Xn(i)Xn(j)) − E(X(i)X(j))|

≤ |E[(Xn(i) − X(i))Xn(j)]| + |E[X(i)(Xn(j) − X(j)]|

≤ kXn(i) − X(i)k2kXn(j)k2+ kX(i)k2kXn(j) − X(j)k2 −→ 0 .

Dato che la convergenza in L2implica quella in L1, |E(Xn(i)) − E(X(i))| ≤ E(|Xn(i) − X(i)|) → 0, per ogni 1 ≤ i ≤ k. Abbiamo quindi mostrato che per n → ∞

µn(i) := E(Xn(i)) −→ µ(i) := E(X(i)) ,

Γn(i, j) := Cov(Xn(i), Xn(j)) −→ Γ(i, j) := Cov(X(i), X(j)) .

Dato che la convergenza in L2implica quella in legge, la funzione caratteristica di X `e il limite delle funzioni caratteristiche delle Xn, quindi per θ ∈ R possiamo scrivere

E(eiθXn) = eihθ,µni−1

2hθ,Γnθi−→ eihθ,µi−1 2hθ,Γθi,

da cui segue che X `e normale N (µ, Γ), con media e matrice delle covarianze date rispettivamente

dai limiti di media e matrice delle covarianze delle Xn. 

Sar`a talvolta utile il seguente rafforzamento della Proposizione 2.1, che non dimostriamo (si veda l’esercizio 0.16 in Baldi (2000)).

Proposizione 2.2. Sia {Xn}n∈N una successione di vettori aleatori tali che Xn sia normale, per ogni n ∈ N. Se Xn converge in legge per n → ∞ verso un vettore aleatorio X, allora X `e normale. Inoltre il vettore media e la matrice delle covarianze di Xn convergono verso le analoghe quantit`a di X.

2. Processi gaussiani e moto browniano

2.1. Processi stocastici gaussiani. Incominciamo con due definizioni basilari. Definizione 2.3. Una famiglia di variabili aleatorie {Xt}t∈I, definite sullo stesso spazio di probabilit`a (Ω, F , P) a valori nello stesso spazio misurabile (E, E ), `e detta processo stocastico (o semplicemente processo). Le leggi dei vettori (Xt1, . . . , Xtk), al variare di k ∈ N e t1, . . . , tk∈ I, sono dette leggi finito-dimensionali del processo. Nel caso in cui E = R (o E = Rn), il processo stocastico `e detto reale (o vettoriale).

Definizione 2.4. Un processo stocastico reale X = {Xt}t∈I `e detto gaussiano se, per ogni scelta di t1, . . . , tn ∈ I, il vettore aleatorio (Xt1, . . . , Xtn) `e normale, cio`e se qualunque combinazione lineare finita delle Xt `e una variabile aleatoria gaussiana.

L’insieme I `e arbitrario, ma tipicamente `e un sottoinsieme di R. Nel caso in cui I sia un insieme finito, un processo gaussiano non `e altro che un vettore aleatorio gaussiano. Si noti che un processo vettoriale X = {Xt}t∈I, con Xt = (Xt1, . . . , Xtn), pu`o essere visto come processo stocastico reale, ampliando l’insieme degli indici: X = {Xti}(i,t)∈{1,...,n}×I. Per questa ragione, i processi stocastici vettoriali gaussiani saranno visti come un caso particolare di quelli reali.

Per processi stocastici congiuntamente gaussiani, l’indipendenza equivale alla scorrelazione delle componenti, come nel caso finito-dimensionale: rimandiamo la formalizzazione di questo risultato alla Proposizione 2.17, dopo che avremo discusso pi`u in dettaglio la nozione di σ-algebra associata a un processo.

Una propriet`a fondamentale dei processi gaussiani `e che le leggi finito-dimensionali sono univocamente determinate dalle funzioni media µ(t) := E(Xt) e covarianza Γ(s, t) := Cov(Xs, Xt), come segue dalla relazione (2.1). Si noti che la funzione Γ : I × I → R `e semi-definita positiva, nel senso che per ogni scelta di t1, . . . , tn e di u ∈ Rn si ha Pn

i,j=1Γ(ti, tj)uiuj ≥ 0 (infatti {Γ(ti, tj)}1≤i,j≤n `e la matrice di co-varianza del vettore (Xt1, . . . , Xtn)). Viceversa, `e possibile mostrare (non lo faremo) che assegnate un’arbitraria funzione µ : I → R e un’arbitraria funzione semi-definita positiva Γ : I × I → R esiste sempre un processo gaussiano {Xt}t∈I che abbia µ come funzione media e Γ come funzione covarianza.

2.2. Moto browniano. Possiamo finalmente definire il moto browniano. Definizione 2.5. Un processo stocastico reale B = {Bt}t∈[0,∞) `e detto moto browniano se soddisfa le seguenti propriet`a:

(a) B0 = 0 q.c.;

(b) B ha incrementi indipendenti, cio`e dati k ≥ 2 e 0 ≤ t0 < t1 < . . . < tk < ∞, le variabili aleatorie {Bti− Bti−1}1≤i≤k sono indipendenti;

(c) B ha incrementi gaussiani: per ogni 0 ≤ s < t si ha Bt− Bs ∼ N¸ (0, t − s); (d) B ha traiettorie q.c. continue, cio`e q.c. la funzione t 7→ Bt `e continua.

Si noti che Bt = Bt(ω), dove ω ∈ Ω e (Ω, F , P) `e lo spazio di probabilit`a su cui `

e definito il processo B. La dipendenza da ω verr`a spesso omessa, ma `e importante capire che `e sempre presente ed essere in grado di esplicitarla quando serve. Per esempio, la propriet`a (d) si pu`o riformulare pi`u esplicitamente dicendo che esiste A ∈ F con P(A) = 1 tale che per ogni ω ∈ A la funzione t 7→ Bt(ω) `e continua.

†Si noti che non `e detto che l’insieme C := {ω ∈ Ω : t 7→ Bt(ω) `e continuo} sia misurabile, perch´e `e definito in termini di una famiglia pi`u che numerabile di variabili aleatorie. Di conseguenza, visto che in generale C 6∈ F, non `e strettamente corretto scrivere P(C) = 1. Quello che si richiede con la propriet`a (d) della Definizione 2.5 `e che C contenga un evento A ∈ F tale che P(A) = 1. In realt`a questa `e una sottigliezza: basta infatti considerare il completamento dello spazio di misura (Ω, F, P), come descritto nella sezione 2.2 del capitolo 1, e l’insieme C diventa misurabile (ovviamente di probabilit`a uno). Per questo motivo, talvolta scriveremo P(t 7→ Bt`e continuo) = 1.

0.0 0.2 0.4 0.6 0.8 1.0 -2 -1 0 1 xx

Figura 2.1. Tre traiettorie del moto browniano, ottenute mediante interpolazione lineare e riscalamento di 104 passi di una passeggiata aleatoria con incrementi gaussiani (le scale sui due assi sono diverse).

La continuit`a (q.c.) delle traiettorie, oltre a essere una richiesta molto naturale dal punto di vista fisico, vista l’interpretazione originale del moto browniano, `e una propriet`a di basilare importanza anche da un punto di vista strettamente matematico (ritorneremo sulla questione alla fine di questa sezione).

Nella Figura 2.1 sono mostrate tre traiettorie illustrative del moto browniano. Osservazione 2.6. Rimpiazzando la condizione (c) nella Definizione 2.5 con la condizione pi`u debole che gli incrementi siano stazionari, cio`e che Bt+h− Bs+h e Bt− Bs abbiano la stessa legge per ogni s, t, h ≥ 0, il processo risultante `e della forma {aβt+ bt}t∈[0,∞), con {βt}t∈[0,∞) moto browniano e a, b ∈ R (si tratta di un risultato non banale: si veda il Lemma 1.8 nel capitolo IX in (Asmussen, 2003)).

In altre parole, a meno di riscalamento e addizione di una funzione lineare, il moto browniano `e l’unico processo nullo al tempo zero, con incrementi indipendenti e stazionari e traiettorie q.c. continue (si noti che la legge normale non `e nemmeno menzionata in questa formulazione alternativa).

Descriviamo ora alcune propriet`a basilari del moto browniano.

Proposizione 2.7. Dato un moto browniano B = {Bt}t∈[0,∞), per ogni 0 < t1 < . . . < tk < ∞ il vettore aleatorio (Bt1, . . . , Btk) `e normale, con legge assolutamente continua la cui densit`a nel punto (x1, . . . , xk) data da (ponendo x0 := 0)

1 (2π)k/2pt1(t2− t1) · · · (tk− tk−1) exp1 2 k X i=1 (xi− xi−1)2 ti− ti−1 ! . (2.2)

Dimostrazione. Poniamo Yi := Bti − Bti−1 per i = 1, . . . , k (con t0 := 0). Il vettore Y := (Y1, . . . , Yk) ha componenti indipendenti e normali, per le propriet`a (b) e (c) della Definizione 2.5, quindi `e un vettore aleatorio normale, la cui legge `e assolutamente continua, con densit`a nel punto (y1, . . . , yk) data da (perch´e?)

1 (2π)k/2t1(t2− t1) · · · (tk− tk−1) exp1 2 k X i=1 y2 i ti− ti−1 ! .

Di conseguenza anche il vettore (Bt1, . . . , Btk), essendo una trasformazione lineare invertibile di Y (pi`u precisamente Bti = Y1+ . . . + Yi), `e normale, e il risultato segue

dalla formula di cambiamento di variabili. 

La formula (2.2) fornisce esplicitamente le distrubuzioni finito dimensionali del moto browniano. A questo proposito, `e interessante notare che le propriet`a (a), (b) e (c) della Definizione 2.5 sono propriet`a delle distribuzioni finito dimensionali. Di con-seguenza, un processo B = {Bt}t≥0 con traiettorie q.c. continue, le cui distribuzioni finito-dimensionali siano date da (2.2), `e automaticamente un moto browniano.

Forniamo ora una caratterizzazione alternativa di cruciale importanza.

Teorema 2.8. Un processo stocastico B = {Bt}t∈[0,∞) `e un moto brownia-no se e soltanto se `e un processo gaussiano reale, di media nulla e di covarianza Cov(Bs, Bt) = E(BsBt) = min{s, t}, con traiettorie q.c. continue.

Dimostrazione. Abbiamo gi`a mostrato nella Proposizione 2.7 che, per ogni 0 < t1 < . . . < tk < ∞, il vettore aleatorio (Bt1, . . . , Btk) `e normale, quindi B `e un processo stocastico gaussiano. Dalla propriet`a (c) della Definizione 2.5 segue che Bt ∼ N¸ (0, t) e dunque E(Bt) = 0 per ogni t ≥ 0. Per quanto riguarda la covarianza delle variabili Bs e Bt, assumendo senza perdita di generalit`a che s < t si ha che

E BsBt = E Bs((Bt− Bs) + Bs) = E Bs(Bt− Bs) + E B2 s

 = s , dove si `e usato che le variabili Bs e (Bt− Bs) sono indipendenti e che Bs∼ N¸ (0, s), per le propriet`a (b) e (c) della Definizione 2.5.

Viceversa, se valgono le ipotesi di questa Proposizione, mostriamo che valgono le propriet`a della Definizione 2.5. La propriet`a (a) `e immediata: dato che Var(B0) = Cov(B0, B0) = min{0, 0} = 0, si ha che B0 ∼ N¸ (0, 0) e dunque B0 = 0 q.c.. Anche la propriet`a (c) `e semplice: infatti dalle ipotesi si ricava che per s < t si ha Bt− Bs ∼ N (µ, σ2) con µ = 0 e σ2 dato da

σ2 = E((Bt− Bs)2) = E(Bt2) + E(Bs2) − 2E(BtBs) = t + s − 2s = t − s . Infine, per ipotesi, dati 0 < t1 < . . . < tk < ∞, il vettore degli incrementi (Bt1, Bt2− Bt1, . . . , Btk − Btk−1) `e normale e le sue componenti sono a due a due scorrelate: infatti per 1 ≤ i < j ≤ k si ha (ricordando che E(Bt) = 0)

E (Btj− Btj−1)(Bti − Bti−1) = E BtjBti + E Btj−1Bti−1

− E BtjBti−1 − E Btj−1Bti = ti+ ti−1− ti−1− ti = 0 . Gli incrementi sono dunque indipendenti per le propriet`a dei vettori normali, e la

Proposizione 2.9. Se B = {Bt}t∈[0,∞) `e un moto browniano, anche i seguenti processi X = {Xt}t lo sono:

(a) Xt:= −Bt [riflessione nell’origine]

(b) Xt:= Bt0+t− Bt0, per ogni t0 ≥ 0 [traslazione temporale]

(c) Xt := Bt0−t − Bt0, per ogni t0 ≥ 0, limitando l’insieme dei tempi a t ∈ [0, t0] [inversione temporale]

(d) Xt:= 1

cBct, per ogni c > 0 [invarianza di scala (scaling)] (e) Xt:= tB1/t per t > 0 e X0 := 0

Dimostrazione. Conviene utilizzare la caratterizzazione data nel Teorema 2.8. Infatti in tutti i casi `e chiaro che {Xt}t∈[0,∞)`e un processo gaussiano di media nulla, in quanto Xt`e una funzione lineare delle componenti del processo gaussiano {Bt}t∈[0,∞). Anche la condizione che Cov(Xs, Xt) = min{s, t} si verifica facilmente in tutti i casi (esercizio). Per esempio, nel caso (e) per s < t si ha

Cov(sB1/s, tBt/t) = s t Cov(B1/s, B1/t) = s t min 1 s, 1 t  = s t1 t = s . Resta da verificare la continuit`a delle traiettorie. Dato che {Bt}t∈[0,∞) ha traiet-torie q.c. continue, `e immediato verificare che lo stesso vale per {Xt}t∈[0,∞), in tutti i casi eccetto il (e), per il quale la continuit`a in t = 0 non `e evidente. Per dimo-strarla, introduciamo l’insieme A := {ω ∈ Ω : limt↓0, t∈QXt(ω) = 0}. Non `e difficile convincersi che A ∈ F , cio`e che A `e un evento. Infatti, dire che limt↓0, t∈QXt = 0 equivale a richiedere che per ogni ε > 0 esista δ > 0 tale che si abbia |Xk/n| ≤ ε per ogni k, n ∈ N con 0 ≤ k/n ≤ δ. Di conseguenza, ponendo per semplicit`a εl := 1l e δm := m1, per l, m ∈ N, possiamo scrivere

A = \ l∈N [ m∈N \ (n,k)∈N×N: 0<k n≤δm |Xk/n| ≤ εl . (2.3) Da questa formula segue anche che la probabilit`a di A pu`o essere calcolata (al-meno in linea di principio) usando esclusivamente le leggi finito-dimensionali del processo {Xt}t∈[0,∞). Ma queste coincidono con le leggi finito-dimensionali del mo-to browniano {Bt}t∈[0,∞), ricavate nella Proposizione 2.7: infatti entrambi i processi sono gaussiani e hanno le stesse media e covarianza. Di conseguenza, la probabilit`a non cambia se si sostituisce X con B nella definizione dell’evento A, da cui segue che P(A) = 1, poich´e le traiettorie di B sono q.c. continue in zero.

Definiamo infine A0 := {ω ∈ Ω : {t 7→ Xt(ω)}t∈(0,∞) `e continua}. Sappiamo gi`a che P(A0) = 1. Sia ora ω ∈ A∩A0: per definizione di A, per ogni ε > 0 esiste δ > 0 tale che |Xt(ω)| ≤ ε per ogni t ∈ Q, 0 < t ≤ δ. Preso t 6∈ Q, 0 < t ≤ δ/2, sia {tn}n una successione in Q tale che tn → t: per definizione di A0, |Xt(ω)| = limn→∞|Xtn(ω)| e dunque |Xt(ω)| ≤ ε. In definitiva, abbiamo mostrato che |Xt(ω)| ≤ ε per ogni

†In (2.3) l’intersezione in l `e decrescente e l’unione in m crescente, per cui possiamo scrivere P(A) = lim l→∞ lim m→∞ P max t∈(0,δm)∩Q|Xt| ≤ εl  = lim ε↓0 lim δ↓0 lim N →∞P max n≤N, 1≤k≤nδ|Xk/n| ≤ ε, e l’ultima probabilit`a si esprime mediante le leggi finito-dimensionali del processo X.

t ∈ (0, δ/2], quindi la funzione {Xt(ω)}t∈[0,∞) `e continua (anche) in zero, per ogni ω ∈ A ∩ A0. Essendo l’intersezione di due eventi di probabilit`a uno, anche A ∩ A0 ha probabilit`a uno, e la dimostrazione `e conclusa. 

Come semplice corollario, otteniamo un risultato interessante.

Teorema 2.10 (Legge dei grandi numeri per il moto browniano). Se {Bt}t∈[0,∞) `

e un moto browniano, Bt/t → 0 q.c. per t → ∞.

Dimostrazione. Definendo Xs := sB1/s per s > 0 e X0 := 0, sappiamo dalla Proposizione 2.9 che {Xs}s∈[0,∞) `e un moto browniano: in particolare, q.c. lims→0Xs = 0. La conclusione segue notando che si ha l’uguaglianza di eventi {limt→∞Bt/t = 0} = {lims→0Xs = 0}, ottenuta ponendo s = 1/t.  Concludiamo la sezione con alcune considerazioni sulla continuit`a delle traiettorie. Se su uno spazio di probabilit`a (Ω, F , P) `e definito un processo stocastico reale X = {Xt}t∈[0,∞), sappiamo che le funzioni (ragionevoli) definite su Ω che dipendono da una quantit`a numerabile di variabili Xt (come per es. lim supt↓0, t∈Q|Xt|) sono misurabili, sono cio`e delle variabili aleatorie.

Che dire invece di quelle funzioni che dipendono da una quantit`a pi`u che nume-rabile di variabili Xt? Per esempio, avremmo voglia di studiare quantit`a come

sup 0≤t≤1 |Xt(ω)| , Z 1 0 Xt(ω) dt , inf{t > 0 : Xt(ω) = 0} , (2.4) ma in generale non c’`e nessuna ragione per cui queste funzioni siano misurabili (o addirittura ben definite, come l’integrale). `E a questo proposito che emerge l’im-portanza che il processo X abbia traiettorie q.c. continue (o anche solo continue a destra). Infatti, per ogni ω ∈ Ω per cui t 7→ Xt(ω) `e continua, possiamo riscrivere ciascuna delle espressioni in (2.4) in funzione di una quantit`a numerabile di variabili Xt, per esempio (usando per l’integrale le somme di Riemann)

sup t∈[0,1]∩Q |Xt(ω)| , lim sup n→∞ 1 n n−1 X k=0 Xk/n(ω) , inf{t ∈ (0, ∞) ∩ Q : Xt(ω) = 0} . Si noti che queste riscritture definiscono effettivamente funzioni misurabili, che risul-tano q.c. uguali alle espressioni in (2.4).

2.3. Ancora sulla continuit`a. Ci si pu`o chiedere se la propriet`a (d) nella Definizione 2.5 di moto browniano non sia una conseguenza delle propriet`a precedenti. In altre parole, se un processo X = {Xt}t∈[0,∞) definito su (Ω, F, P) soddisfa le propriet`a (a), (b), (c), esiste necessariamente A ∈ F, con P(A) = 1, tale che per ogni ω ∈ A la traiettoria t 7→ Xt(ω) sia continua?

La risposta `e negativa. Supponiamo infatti che B = {Bt}t∈[0,1] sia un moto browniano (con insieme dei tempi ristretto, per semplicit`a), definito sullo spazio di probabilit`a Ω = [0, 1] munito della misura di Lebesgue (sullo spazio [0, 1] `e possibile definire una successione di variabili aleatorie indipendenti normali standard, per cui si pu`o definire anche un moto browniano, usando la costru-zione che presentiamo nella Secostru-zione 3). Definiamo su Ω un nuovo processo reale Y = {Yt}t∈[0,1] ponendo, per ω ∈ [0, 1], Yt(ω) := 1{t}(ω) (cio`e Yt(ω) = 1 per ω = t mentre Yt(ω) = 0 per ω 6= t). Si noti che, per ogni t ∈ [0, 1] fissato, si ha che Yt= 0 q.c., tuttavia la traiettoria t 7→ Yt(ω) non `e continua, per nessun ω ∈ Ω (pi`u precisamente, `e discontinua nel punto t = ω). Se ora poniamo

Xt(ω) := Bt(ω) + Yt(ω), `e immediato verificare che la traiettoria t 7→ Xt(ω) non `e continua per nessun ω ∈ Ω. Se per`o fissiamo t1, . . . , tk [0, 1], `e facile vedere che i vettori (Xt1, . . . , Xtk) e (Bt1, . . . , Btk) sono q.c. uguali, in particolare hanno la stessa legge. Il processo X = {Xt}t∈[0,∞)

ha dunque le stesse leggi finito-dimensionali di un moto browniano, da cui segue facilmente che X soddisfa le propriet`a (a), (b), (c) della Definizione 2.5, ma non soddisfa la propriet`a (d). La continuit`a delle traiettorie non `e dunque una propriet`a delle leggi finito dimensionali. Ritorneremo su questi problemi nel prossimo capitolo

3. Esistenza del moto browniano

Dimostriamo ora l’esistenza del moto browniano, seguendo la costruzione ori-ginale di Paul L´evy. Per semplicit`a, ci limiteremo a costruire un moto browniano {Bt}t∈[0,1] in cui l’insieme dei tempi `e ristretto all’intervallo [0, 1].

Sia (Ω, F , P) uno spazio di probabilit`a su cui `e definita una famiglia numerabile {ξk(n)}n,k∈N∪{0} di variabili aleatorie reali indipendenti normali standard. Definiremo il moto browniano su questo spazio di probabilit`a. Per n ∈ N ∪ {0}, indichiamo con I(n) l’insieme degli interi dispari tra 0 e 2n: I(0) = I(1) = {1}, I(2) = {1, 3}, ecc. Indichiamo con τn := {2kn : 0 ≤ k ≤ 2n} l’insieme dei punti razionali di [0, 1] con denominatore 2n. Si noti che τn⊇ τn−1; pi`u precisamente τnn−1 = {2kn : k ∈ I(n)}. L’insieme τ :=S

n≥0τn costituisce i razionali diadici, che sono densi in [0, 1].

L’idea `e di costruire una successione di processi B(n)= {Bt(n)}t∈[0,1] che converge per n → ∞ verso un processo limite {Bt}t∈[0,1], che sar`a il moto browniano cercato. Fissati n ∈ N ∪ {0} e ω ∈ Ω, la traiettoria {Bt(n)(ω)}t∈[0,1] sar`a lineare a tratti: pi`u precisamente, sar`a innanzitutto definita sui punti del reticolo τn e verr`a quindi prolungata su tutto [0, 1] per interpolazione lineare. Inoltre, i valori di Bt(n)per t ∈ τn estenderanno i valori di B(n−1)t : infatti porremo Bt(n)(ω) := Bt(n−1)(ω) per t ∈ τn−1 (⊆ τn), per cui rester`a solo da definire Bt(n)(ω) per t ∈ τnn−1(si veda la Figura 2.2).

Cominciamo a definire Bt(0) per t ∈ τ0 = {0, 1}, ponendo

B0(0) := 0 , B1(0) := ξ1(0) (cio`e B1(0)(ω) := ξ1(0)(ω)) , (2.5) ed estendiamo poi Bt(0) per t ∈ [0, 1] mediante interpolazione lineare.

Definiamo quindi Bt(1) per t ∈ τ1 = {0,12, 1} (lo estenderemo poi per t ∈ [0, 1] mediante interpolazione lineare). Come accennato, non modifichiamo i valori gi`a assegnati per t ∈ τ0 = {0, 1}, ossia poniamo B0(1) := B(0)0 e B1(1) := B1(0). Resta solo da definire B1/2(1), e poniamo B1/2(1) := µ + σ ξ(1)1 , dove µ := B (0) 0 + B1(0) 2 , σ := 1 2. (2.6) Per capire la ragione di questa definizione, poniamoci la seguente domanda: se B `

e un moto browniano, assegnati i valori Bs e Bt (per s < t), come sar`a distribuito B(s+t)/2? Usando la formula per la densit`a ottenuta nella Proposizione 2.7, non `e

†Per ottenere un moto browniano con insieme dei tempi [0, ∞), `e sufficiente considerare una successione indipendente di moti browniani con insieme dei tempi [0, 1] e “attaccarli uno dopo l’altro” usando la propriet`a (b) della Proposizione 2.9.

1/4

1

0 3/4

1/2

Figura 2.2. Un esempio di traiettoria di B(0) (linea puntata), B(1)

(linea tratteggiata) e B(2) (linea piena).

difficile mostrare che, condizionatamente ai valori Bs = x e Bt = z, la variabile B(s+t)/2 ha legge N (µ, σ2) con µ = (x + y)/2 e σ2 = (t − s)/4, in accordo con (2.6).

Possiamo quindi procedere in modo ricorsivo: una volta che B(n−1) `e stato co-struito, definiremo B(n) ponendo Bt(n) := Bt(n−1) per t ∈ τn−1, e rester`a da definire Bt(n) per t ∈ τn\ τn−1 = {2kn : k ∈ I(n)} (dopodich´e lo estenderemo per t ∈ [0, 1] per interpolazione lineare). Seguendo quando detto sopra, porremo dunque per k ∈ I(n)

Bk/2(n)n := µ + σ ξk(n), dove µ := B (n−1) (k−1)/2n+ B(k+1)/2(n−1) n 2 , σ := 1 2(n+1)/2. (2.7) Abbiamo dunque completato la definizione di {Bt(n)}t∈[0,1]. `E conveniente darne una rappresentazione alternativa, nel modo seguente. Definiamo H1(0)(t) := 1[0,1](t) e poniamo per n ∈ N e k ∈ I(n)

Hk(n)(t) := 2(n−1)/21[k−1 2n ,k

2n)(t) − 2(n−1)/21[k

2n,k+12n )(t) .

Le funzioni {Hk(n)(·)}n≥0,k∈I(n) sono note come funzioni di Haar (si noti che sono un set ortonormale in L2([0, 1], dt), cio`e R01Hk(n)(t) Hk(n00)(t) dt = δn,n0δk,k0, e sono anche un set completo, ma non useremo queste propriet`a). Introduciamo le primitive di queste funzioni, note come funzioni di Schauder, definite da

Sk(n)(t) := Z t

0

Hk(n)(s) ds , per n ≥ 0 , k ∈ I(n) , t ∈ [0, 1] .

Si noti che S1(0)(t) = t, mentre per n ≥ 1 il grafico della funzione Sk(n)(t) `e un triangolo isoscele di altezza 1/2(n+1)/2 e di base [k−12n ,k+12n ] (cf. Figura 2.3). In particolare, per n fissato, i grafici di Sk(n)(·) al variare di k ∈ I(n) non si sovrappongono.

Si verifica facilmente da (2.5) e (2.6) che valgono le relazioni

1/4

1 0

2

1/4 1/2

Figura 2.3. Grafico delle funzioni H3(3)(t) (linea puntata) e S3(3)(t) (linea piena). Le unit`a di misura sui due assi sono diverse.

e per induzione si mostra che per ogni n ≥ 0 e k ∈ I(n) Bt(n)(ω) = n X m=0 X k∈I(m) ξk(m)(ω) Sk(m)(t) . (2.8)

Questa `e la formula chiave. In effetti, si potrebbe introdurre Bt(n)(ω) direttamente in questo modo, senza alcun riferimento al processo di approssimazione sopra descritto. Siamo giunti al cuore della dimostrazione. Mostriamo ora che, per q.o. ω ∈ Ω, la funzione t 7→ Bt(n)(ω) converge uniformemente in [0, 1] per n → ∞.

Lemma 2.11. Esiste un evento A ∈ F con P(A) = 1 tale che, per ogni ω ∈ A, la successione di funzioni {t 7→ Bt(n)(ω)}n∈N converge uniformemente in [0, 1] per n → ∞ verso una funzione continua, che indicheremo con {t 7→ Bt(ω)}.

Dimostrazione. Osserviamo che, se Z ∼ N (0, 1), per a ≥ 1 si ha la stima P(|Z| > a) = 2 Z a e−x2/2 √ 2π dx ≤ 2 Z a x e−x2/2 √ 2π dx = 2 √ 2π e −a2/2 ≤ e−a2/2.

Ponendo Ξn(ω) := maxk∈I(n)k(n)(ω)|, si ha dunque per n ∈ N

P(Ξn> n) = P [ k∈I(n) {|ξ(n)k | > n} ! ≤ X k∈I(n) P(|ξ(n)k | > n) ≤ 2 n 2 e −n2/2, quindiP

n≥0P(Ξn> n) < ∞. Per il lemma di Borel-Cantelli, esiste un evento A ∈ F con P(A) = 1 tale che per ogni ω ∈ A si ha Ξn(ω) > n solo per un numero finito di n ∈ N, esiste cio`e n0(ω) < ∞ tale che Ξn(ω) ≤ n per ogni n ≥ n0(ω).

Indichiamo con kf k := supx∈[0,1]|f (x)| per f : [0, 1] → R. Possiamo riscrivere la relazione (2.8) come Bt(n)(ω) = n X m=0 g(m)(ω, t) , dove g(m)(ω, t) := X k∈I(n) ξ(m)k (ω) Sk(m)(t) .

Se per un fissato ω riusciamo a dimostrare che P

m=0kg(m)(ω, ·)k < ∞, segue facilmente che la successione di funzioni {t 7→ Bt(n)(ω)}n∈N `e di Cauchy rispetto a k · k, quindi converge per n → ∞ verso una funzione continua. A questo fine, prendiamo qualunque ω ∈ A, di modo che Ξm(ω) ≤ m per m ≥ n0(ω). Osservando che kP

k∈I(m)Sk(m)(·)k= 2−(n+1)/2, possiamo stimare la coda della serie delle norme:

X m=n0(ω) kg(m)(ω, ·)k = X m=n0(ω) X k∈I(m) ξk(m)(ω) Sk(m)(t) X m=n0(ω) Ξm(ω) X k∈I(m) Sk(m)(t) X m=n0(ω) m · 1 2(m+1)/2 < ∞ , quindi anche l’intera serieP

m=0kg(m)(ω, ·)k`e finita (abbiamo lasciato fuori solo un numero finito n0(ω) di termini). Possiamo dunque concludere che, per ogni ω ∈ A, la successione di funzioni {t 7→ B(n)t (ω)}n∈Nconverge uniformemente verso una funzione continua, che chiameremo {t 7→ Bt(ω)}, definita da

Bt(ω) = X m=0 X k∈I(m) ξk(m)(ω) Sk(m)(t) .

Per ω 6∈ A poniamo Bt(ω) ≡ 0, e la dimostrazione `e conclusa.  Resta infine da dimostrare che il processo ottenuto {Bt}t∈[0,1] `e un moto brow-niano. Dividiamo per comodit`a questa parte in quattro passi.

Passo 1. Dimostriamo che, restringendo l’insieme dei tempi a τ = S

n≥0τn, il processo {Bt}t∈τ `e gaussiano, mostrando che a1Bt1 + . . . + anBtn `e una variabile normale per qualunque scelta di t1, . . . , tn ∈ τ e a1, . . . , an∈ R.

Per costruzione, per ogni ω ∈ Ω e t ∈ τm, il valore di Bt(n)(ω) `e costante per n ≥ m (cf. Figura 2.2). Se fissiamo m abbastanza grande di modo che tutti i punti t1, . . . , tn ∈ τm, possiamo scrivere a1Bt1 + . . . + anBtn = a1Bt(m)1 + . . . + anBt(m)n . Que-sta variabile `e dunque normale, in quanto combinazione lineare finita delle variabili normali indipendenti ξlk per l ≤ m, come segue dalla relazione (2.8).  Passo 2. Dimostriamo che il processo ristretto {Bt}t∈τ soddisfa le propriet`a (b) e (c) della Definizione 2.5, cio`e ha incrementi indipendenti e Bt− Bs ∼ N (0, t − s) per ogni s, t ∈ τ (in particolare E(BsBt) = min{s, t}).

Dati t1, . . . , tk ∈ τ , questi punti appartengono a τn per n abbastanza grande. Di conseguenza, `e sufficiente dimostrare, per ogni n ∈ N fissato, che le propriet`a (b) e (c) valgono per il processo {Bt}t∈τn= {B(n)

t }t∈τn (abbiamo gi`a osservato che Bt= B(n)

Dimostreremo che le variabili {Yi := B(n)

i/2n− B(i−1)/2(n) n}1≤i≤2n sono indipendenti e hanno la stessa distribuzione N (0, 1/2n), il che `e sufficiente per concludere la dimostrazione: infatti, per s, t ∈ τn basta scrivere l’incremento generico Bt− Bs come somma (telescopica) delle variabili Yi e usare le propriet`a delle variabili normali.

Procediamo per induzione. Per n = 0 l’affermazione `e banalmente vera. Se n ≥ 1, per k ∈ I(n) si ha dalla (2.7) Yk := B(n) k/2n− B(k−1)/2(n) n = 1 2 B (n−1) (k+1)/2n− B(k−1)/2(n−1) n  + 1 2(n+1)/2ξ(n)k , mentre Yk+1 := B(n) (k+1)/2n− B(n)k/2n = 1 2 B (n−1) (k+1)/2n− B(n−1)(k−1)/2n  1 2(n+1)/2ξk(n). Per l’ipotesi induttiva, le variabili {B(n−1)

(k+1)/2n − B(k−1)/2(n−1) n}k∈I(n) sono indipendenti, con legge N(0, 1/2n−1) e inoltre queste variabili sono anche indipendenti dalle {ξ(n)

k }k(perch´e costruite usan-do solo le {ξ(m)

k }k per m ≤ n − 1). Usando queste propriet`a, `e facile verificare che E(Yi) = 0 e E(YiYj) = δi,j1/2n, per ogni 1 ≤ i, j ≤ 2n. Dato che le variabili {Y1, . . . , Y2n} sono congiun-tamente normali (in quanto combinazioni lineari finite delle ξ(m)

k per m ≤ n, cf. (2.8)), la tesi `e

dimostrata. 

Passo 3. Dimostriamo che E(Bt) = 0 e E(BsBt) = min{s, t}, per ogni s, t ∈ [0, 1]. Dato t ∈ [0, 1] e una successione crescente {tn}n∈N di elementi di τ tale che tn ↑ t, si verifica facilmente che la successione {Btn}n∈N `e di Cauchy in L2. Infatti kBtn−Btmk2

2 = E((Btn−Btm)2) = |tn−tm|, perch´e Btn−Btm ∼ N (0, |tn−tm|) grazie al Passo 2. Dato che tn↑ t, per ogni ε > 0 possiamo fissare n0 tale che tk∈ [t − ε, t] per k ≥ n0. Per n, m ≥ n0 si ha dunque kBtn− Btmk2

2 = |tn− tm| ≤ ε, cio`e {Btn}n∈N `

e di Cauchy e dunque ha limite in L2. Ma noi gi`a sappiamo che Btn → Bt q.c. per la continuit`a delle traiettorie, di conseguenza il limite in L2 di Btn non pu`o che essere Bt (infatti una successione convergente in L2 converge in probabilit`a e di conseguenza

Nel documento Analisi Stocastica (pagine 21-43)

Documenti correlati