• Non ci sono risultati.

Speranza condizionale e martingale

Nel documento Analisi Stocastica (pagine 53-63)

Richiamiamo le nozioni e i risultati fondamentali concernenti la speranza condi-zionale e la teoria delle martingale (per maggiori dettagli, si veda (Williams, 1991)). Introduciamo le notazioni a ∧ b := min{a, b} e a ∨ b := max{a, b}, per a, b ∈ R.

1. Speranza condizionale

1.1. Definizione. Sia (Ω, F , P) uno spazio di probabilit`a e sia G una sotto-σ-algebra di F . `E possibile mostrare che per ogni aleatoria reale X definita su Ω esiste una variabile aleatoria reale Z che sia G-misurabile (cio`e Z : (Ω, G) → R `e misurabile) e tale che per ogni evento A ∈ G valga la seguente relazione:

Z

A

X dP = Z

A

Z dP , cio`e E(X 1A) = E(Z 1A) . (4.1) Questo `e equivalente a richiedere che E(X Y ) = E(Z Y ) per ogni variabile aleatoria reale Y G-misurabile e limitata. La variabile Z non `e unica, ma quasi: infatti, se Z1, Z2 sono variabili aleatorie G-misurabili per cui vale (4.1), si ha che Z1 = Z2 q.c.. La classe di equivalenza in L1(Ω, G, P) delle variabili aleatorie Z che soddisfano la relazione (4.1), per ogni A ∈ G, `e detta speranza condizionale di X rispetto a G ed `

e indicata con E(X|G). Con abuso di notazione, chiameremo speranza condizionale ogni specifico elemento Z di E(X|G) e scriveremo Z = E(X|G) q.c..

Intuitivamente, la speranza condizionale E(X|G) `e (a meno di equivalenza q.c.) la variabile aleatoria G-misurabile che meglio approssima X. Qualche esempio basilare:

• se X `e G-misurabile si ha E(X|G) = X q.c.; • se G = {∅, Ω} si ha E(X|G) = E(X) q.c.;

• se G = {∅, A, Ac, Ω}, per un opportuno A ∈ F con 0 < P(A) < 1, si ha E(X|G) = a 1A+ b 1Ac q.c., con a = E(X|A) = P(A)1 R

AX dP e analogamente b = E(X|Ac) = P(A1c)

R

AcX dP.

1.2. Propriet`a. Elenchiamo ora alcune propriet`a della speranza condizionale. In tutte le relazioni che seguono, X, Y, {Xn}n∈Nsono variabili aleatorie reali integrabili definite su (Ω, F , P), G, H sono sotto-σ-algebre di F e α, β sono numeri reali.

Cominciamo con alcune propriet`a basilari, analoghe a quelle della speranza. • [Linearit`a] E(αX + βY |G) = α E(X|G) + β E(Y |G) q.c..

• [Positivit`a] Se X ≥ 0 q.c. allora E(X|G) ≥ 0 q.c..

• [Jensen] Se ϕ : R → R `e convessa e tale che ϕ(X) sia integrabile, allora ϕ(E(X|G)) ≤ E(ϕ(X)|G) q.c..

Elenchiamo quindi tre propriet`a fondamentali, squisitamente condizionali, di cui faremo uso frequente.

• [Raffinamento] Se H ⊆ G, allora E(E(X|G)|H) = E(X|H) q.c.. In particolare E(E(X|G)) = E(X).

• [G-misurabilit`a] Se X `e G-misurabile e XY `e integrabile, allora E(XY |G) = X E(Y |G) q.c.. In particolare E(X|G) = X q.c. se X `e G-misurabile.

• [Indipendenza] Se X `e indipendente da G, E(X|G) = E(X) q.c..

Enunciamo infine le versioni condizionali dei classici teoremi di convergenza. • [Monotona]Se Xn↑ X q.c. per n → ∞, allora E(Xn|G) ↑ E(X|G) q.c..

• [Fatou] Se Xn ≥ Y q.c. per ogni n ∈ N, con Y integrabile (in particolare se Xn ≥0 q.c.), allora E(lim infn→∞Xn|G) ≤ lim infn→∞E(Xn|G) q.c..

• [Dominata] Se |Xn| ≤ Y q.c. per ogni n ∈ N, con Y integrabile, e se Xn → X q.c. per n → ∞, allora E(Xn|G) → E(X|G) q.c..

1.3. Esempi e applicazioni. Dalla disuguaglianza di Jensen condizionale, ap-plicata alla funzione convessa ϕ(x) = |x|p con p ≥ 1, segue che |E(X|G)|p ≤ E(|X|p|G) q.c.. Dato che E(E(|X|p|G)) = E(|X|p) per la propriet`a di raffinamento, si ha

kE(X|G)kp ≤ kXkp.

Questo mostra che l’applicazione che a una variabile aleatoria reale X ∈ Lp(Ω, F , P) associa la sua speranza condizionale E(X|G) `e un operatore (lineare) continuo da Lp in s´e (`e anzi una contrazione). In particolare, se Xn → X in Lp per n → ∞ allora anche E(Xn|G) → E(X|G) in Lp.

Vediamo ora qualche esempio di calcolo di speranze condizionali relative al moto browniano. Sia {Ft}t≥0 una filtrazione, definita sullo spazio di probabilit`a (Ω, F , P), e sia B = {Bt}t≥0 un {Ft}t≥0-moto browniano reale.

Esempio 4.1. Per s ≤ t si ha E(Bt|Fs) = Bs q.c.. Infatti

E(Bt|Fs) = E((Bt− Bs) + Bs|Fs) = E(Bt− Bs|Fs) + E(Bs|Fs) = Bs q.c. , poich´e Bt− Bs `e indipendente da Fs, mentre Bs `e Fs-misurabile.

Esempio 4.2. Per s ≤ t si ha E(Bt2|Fs) = Bs2+ (t − s) q.c.. Infatti, scrivendo Bt2 = ((Bt− Bs) + Bs)2 e applicando le propriet`a della speranza condizionale si ha

E(Bt2|Fs) = E((Bt− Bs)2|Fs) + E(Bs2|Fs) + 2 E((Bt− Bs)Bs|Fs)

= E((Bt− Bs)2) + Bs2+ BsE(Bt− Bs|Fs) = (t − s) + Bs2 q.c. , dove `e stato usato il fatto che Bt− Bs∼ N (0, t − s) `e indipendente da Fs.

Esempio 4.3. Per s ≤ t e λ ∈ R (o anche λ ∈ C) si ha E(eλBt|Fs) = eλBs+λ2(t−s)/2

q.c.. Infatti, scrivendo eλBt = eλBseλ(Bt−Bs) si ha che

E(eλBt|Fs) = eλBsE(eλ(Bt−Bs)|Fs) = eλBsE(eλ(Bt−Bs)) = eλBseλ2(t−s)/2, dove si `e usato il fatto che E(eλZ) = eλ2σ2/2 se Z ∼ N (0, σ2).

2. Martingale a tempo discreto e continuo

2.1. Definizione. Per tutta la sezione supporremo che sia fissato uno spazio di probabilit`a (Ω, F , P) munito di una filtrazione {Ft}t∈T, dove l’insieme degli indici T sar`a per noi N ∪ {0} oppure [0, ∞).

Definizione 4.4. Un processo reale adattato M = {Mt}t∈T `e detto submartin-gala (risp. supermartinsubmartin-gala, martinsubmartin-gala) se Mt `e integrabile per ogni t ∈ T e vale la seguente relazione:

E(Mt|Fs) ≥ Ms (risp. ≤ Ms, = Ms) q.c. , (4.2) per ogni s, t ∈ T con s ≤ t.

La condizione (4.2) pu`o essere riespressa come E(Mt−Ms|Fs) ≥ 0 (risp. ≤ 0, = 0) q.c.. Si noti che M `e una submartingala se e soltanto se −M `e una supermartingala. Analogamente, un processo `e una martingala se e soltanto se `e allo stesso tempo una submartingala e una supermartingala.

Si definiscono (sub,super)martingale M = {Mt}t≥0anche quando sullo spazio non `

e definita una filtrazione: in questo caso si richiede che la relazione (4.2) valga rispetto alla filtrazione naturale {FtM := σ({Mu}u∈[0,t]∩T)}t∈T. Quando vorremo enfatizzare la filtrazione, scriveremo che M `e una {Ft}t∈T-(sub,super)submartingala.

Osserviamo che, se M `e una submartingala, segue da (4.2) che E(Mt) ≥ E(Ms) per t ≥ s, cio`e M `e crescente in media. Analogamente, una supermartingala `e decrescente in media, mentre una martingala `e costante in media.

Osserviamo che per dimostrare che E(Mt|Fs) ≥ Ms q.c. `e sufficiente mostrare che E(Mt1A) ≥ E(Ms1A), per ogni A ∈ Fs. Infatti, ponendo Z := E(Mt|Fs) per semplicit`a, per definizione di speranza condizionale si ha E(Z1A) ≥ E(Ms1A), ovvero E((Z − Ms)1A) ≥ 0, per ogni A ∈ Fs. Resta solo da mostrare che ci`o implica che Z − Ms ≥ 0 q.c., e avremo ottenuto la relazione desiderata E(Mt|Fs) ≥ Ms q.c..

Questo segue da un fatto generale: se Y `e una variabile aleatoria integrabile e G-misurabile, tale che E(Y 1A) ≥ 0 per ogni A ∈ G, si ha Y ≥ 0 q.c.. Infatti basta prendere A = {Y < 0} e si ottiene E(Y 1{Y <0}) ≥ 0; d’altro canto Y 1{Y <0} ≤ 0, che implica E(Y 1{Y <0}) ≤ 0, per cui in definitiva si ha E(Y 1{Y <0}) = 0. Dato che Y 1{Y <0} ≤ 0, questo `e possibile se e soltanto se Y 1{Y <0} = 0 q.c., da cui si ottiene che necessariamente P(Y < 0) = 0, cio`e Y ≥ 0 q.c..

Lemma 4.5. Se M = {Mt}t∈T `e una martingala e ϕ : R → R `e una funzione convessa tale che ϕ(Mt) sia integrabile per ogni t ∈ T, il processo {ϕ(Mt)}t∈T `e una submartingala. Se M = {Mt}t∈T `e una submartingala e ϕ `e convessa e crescente, tale che ϕ(Mt) sia integrabile per ogni t ∈ T, {ϕ(Mt)}t∈T `e una submartingala.

Dimostrazione. Se ϕ `e convessa, dalla disuguaglianza di Jensen per la speranza condizionale segue che E(ϕ(Mt)|Fs) ≥ ϕ(E(Mt|Fs)) q.c..

Se M `e una martingala, si ha E(Mt|Fs) = Ms q.c. e dunque E(ϕ(Mt)|Fs) ≥ ϕ(Ms) q.c., cio`e la tesi. Se M `e una submartingala, si ha E(Mt|Fs) ≥ Ms q.c.; quindi, se ϕ `e crescente, ϕ(E(Mt|Fs)) ≥ ϕ(Ms) q.c., da cui E(ϕ(Mt)|Fs) ≥ ϕ(Ms)

q.c.. 

In particolare, data una martingala M = {Mt}t∈T, i processi {|Mt|}t∈T e {Mt2}t∈T sono submartingale. Attenzione che ci`o non `e necessariamente vero quando M `e una submartingala, perch´e le funzioni x 7→ |x| e x 7→ x2 sono convesse ma non crescenti. Esempio 4.6. Se {Ft}t≥0 `e una filtrazione su uno spazio (Ω, F , P) e X : Ω → R `

e una variabile aleatoria integrabile, il processo Y = {Yt := E(X|Ft)}t≥0 `e una martingala. Infatti per s ≤ t si ha Fs ⊆ Ft e dunque E(E(X|Ft)|Fs) = E(X|Fs) q.c., per la propriet`a di raffinamento.

Si osservi che ogni martingala M = {Mt}0≤t≤T con insieme dei tempi limitato `e di questa forma: infatti per la propriet`a (4.2) si ha Ms = E(MT|Fs) q.c..

Esempio 4.7. Se B = {Bt}t≥0 `e un {Ft}t≥0-moto browniano reale, i seguenti processi sono martingale:

Bt

t≥0, B2

t − t

t≥0, eλBt−λ2t/2

t≥0, ∀λ ∈ R ,

come mostrano gli esempi di calcolo di speranze condizionali della scorsa sezione. In particolare, il moto browniano B = {Bt}t≥0 `e una martingala.

La teoria delle martingale `e tra i capitoli pi`u ricchi ed eleganti del calcolo delle probabilit`a. La nostra esposizione sar`a estremamente concisa: ci limiteremo a con-siderare i risultati di diretto interesse per il prosieguo del corso, concentrandoci sui tempi d’arresto (e sostanzialmente ignorando i teoremi di convergenza).

2.2. Tempo discreto. Consideriamo innanzitutto il caso in cui l’insieme dei tempi `e discreto, cio`e T = N ∪ {0}, e indichiamo con {Fn}n∈N∪{0} la filtrazione. Ricordiamo che una variabile aleatoria τ : Ω → N ∪ {0, +∞} `e un tempo d’arresto per {Fn}n≥0 se e soltanto se {τ = n} ∈ Fn, per ogni n ≥ 0. Analogamente, Fτ `e la σ-algebra composta dagli eventi A ∈ F per cui A ∩ {τ = n} ∈ Fn, per ogni n ≥ 0.

Osserviamo che la relazione (4.2) che definisce una submartingala pu`o essere semplificata per processi M = {Mn}n≥0 a tempo discreto: basta richiedere che E(Mn+1|Fn) ≥ Mn q.c. per ogni n ≥ 0. Infatti da questa relazione segue che

E(Mn+2|Fn) = E(E(Mn+2|Fn+1)|Fn) ≥ E(Mn+1|Fn) ≥ Mn q.c. ,

e per induzione si mostra facilmente che E(Mk|Fn) ≥ Mn q.c. per ogni k ≥ n. Un discorso del tutto analogo si applica alle supermartingale o martingale.

Il primo risultato che dimostriamo `e che le (sub)martingale possono essere stop-pate a un tempo d’arresto.

Lemma 4.8. Se M = {Mn}n≥0 `e una submartingala e τ `e un tempo d’arresto, il processo arrestato Mτ = {Mnτ}n≥0 definito da Mnτ := Mτ ∧n `e una submartingala. Analogamente, se M `e una martingala, anche il processo Mτ `e una martingala.

Dimostrazione. Ricordiamo che a ∧ b := min{a, b} per a, b ∈ R, cosicch´e Mnτ(ω) = Mmin{τ (ω),n}(ω). Da questo segue facilmente che per ogni n ≥ 0 si ha

Mnτ =

n

X

k=0

Mk1{τ =k} + Mn1{τ >n}.

Questa relazione mostra che, per ogni n ≥ 0, Mnτ `e integrabile, in quanto somma finita di variabili aleatorie integrabili, e anche che Mnτ `e Fn-misurabile (si noti che {τ > n} = {τ ≤ n}c∈ Fn), cio`e il processo Mτ `e adattato.

Si noti che sull’evento {τ ≤ n} si ha τ ∧ n = τ ∧ (n + 1) = τ e quindi Mnτ = Mn+1τ . In altri termini (Mn+1τ − Mτ

n)1{τ ≤n} = 0, per cui

E(Mn+1τ − Mnτ|Fn) = E (Mn+1τ − Mnτ)1{τ >n} Fn q.c. .

D’altro canto, sull’evento {τ > n} = {τ ≥ n + 1} si ha Mnτ = Mn e Mn+1τ = Mn+1. Visto che {τ > n} ∈ Fn, dalle propriet`a della speranza condizionale si ottiene

E (Mn+1τ − Mτ

n)1{τ >n} Fn

= 1{τ >n}E(Mn+1− Mn|Fn) ≥ 0 q.c. ,

perch´e M `e una submartingala. Abbiamo quindi mostrato che E(Mn+1τ |Fn) ≥ Mnτ q.c., cio`e Mτ `e una submartingala. Il caso di una martingala `e analogo.  Il seguente risultato d`a condizioni sotto le quali si pu`o estendere la propriet`a di (sub,super)martingala ai tempi d’arresto.

Teorema 4.9 (Teorema d’arresto). Siano M = {Mn}n≥0 una submartingala e τ1, τ2 tempi d’arresto tali che τ1 ≤ τ2 ≤ K q.c., per un’opportuna costante K < ∞. Allora le variabili aleatorie Mτ1, Mτ2 sono integrabili e vale che E(Mτ2|Fτ1) ≥ Mτ1 q.c.. Analogamente, se M `e una martingala si ha E(Mτ2|Fτ1) = Mτ1 q.c..

Dimostrazione. L’integrabilit`a delle variabili Mτ1, Mτ2 `e immediata: infatti per i = 1, 2 possiamo scrivere |Mτi| = |PK

l=0Ml1i=l}| ≤PK

l=0|Ml| ∈ L1.

Consideriamo innanzitutto il caso deterministici τ2 = K q.c.. Per A ∈ Fτ1 si ha che A ∩ {τ1 = j} ∈ Fj per ogni j ≤ K. Dato che E(MK|Fj) ≥ Mj q.c., si ha

E(MK1A∩{τ1=j}) ≥ E(Mj1A∩{τ1=j}) = E(Mτ11A∩{τ1=j}) ,

e sommando su j = 0, . . . , K si ottiene E(MK1A) ≥ E(Mτ11A). Per l’arbitrariet`a di A ∈ Fτ1, segue che E(MK|Fτ1) ≥ Mτ1 q.c..

Nel caso generale in cui τ2 non sia costante, applichiamo quanto appena dimo-strato alla submartingala arrestata Mτ2, ottenendo la relazione E(Mτ2

K|Fτ1) ≥ Mτ2

τ1

q.c.. Dato che per ipotesi τ1 ≤ τ2 ≤ K, si ha che Mτ2

K := Mτ2∧K = Mτ2 e Mτ2

τ1 := Mτ2∧τ1 = Mτ1, quindi la relazione ottenuta si pu`o riscrivere come E(Mτ2|Fτ1) ≥ Mτ1 q.c.. Il caso di una martingala `e del tutto analogo.  Corollario 4.10. Se M = {Mn}n≥0 `e una martingala e τ un tempo d’arresto limitato (cio`e τ ≤ K q.c., con K < ∞), la variabile Mτ `e integrabile e vale che

E(Mτ) = E(M0) .

Dimostrazione. Se τ ≤ K q.c., applicando il Teorema 4.9 ai tempi d’arresto τ1 = 0 e τ2 = τ si ha che E(Mτ|F0) = M0 q.c.. Prendendo il valore atteso di entrambi i membri si ottiene E(Mτ) = E(M0).

Se τ `e q.c. finito, possiamo applicare la prima parte al tempo d’arresto τ ∧ n, ottenendo E(Mτ ∧n) = E(M0), per ogni n ∈ N. Per n → ∞ si ha che Mτ ∧n → Mτ q.c.; se |Mτ ∧n| ≤ K, per convergenza dominata si ottiene E(Mτ) = E(M0). 

Concludiamo con una disuguaglianza di fondamentale importanza.

Teorema 4.11 (Disuguaglianza massimale). Se S = {Sn}n≥0 `e una submartin-gala, per ogni n ∈ N e λ > 0 vale che

P  max 0≤i≤nSi ≥ λ  ≤ E(S + n) λ , P  min 0≤i≤nSi ≤ −λ  ≤ E(S + n) − E(S0) λ .

Dimostrazione. Definiamo la variabile aleatoria τ ponendo τ (ω) :=

(

inf{k ≤ n : Sk(ω) ≥ λ} se max0≤i≤nSi(ω) ≥ λ

+∞ altrimenti .

Si verifica facilmente che τ `e un tempo d’arresto. Inoltre P  max 0≤i≤nSi ≥ λ  = P τ ≤ n = n X k=0 P(τ = k) ≤ 1 λ n X k=0 E(Sk1{τ =k}) , dove abbiamo usato il fatto che Sk ≥ λ sull’evento {τ = k}. Dato che {τ = k} ∈ Fk e S `e una submartingala, si ha E(Sk1{τ =k}) ≤ E(Sn1{τ =k}) e quindi

P  max 0≤i≤nSi ≥ λ  ≤ 1 λ n X k=0 E(Sn1{τ =k}) = 1 λE(Sn1{τ ≤n}) ≤ 1 λE(S + n) , perch´e Sn1{τ ≤n} ≤ S+

n. La prima disuguaglianza `e dimostrata.

Per la seconda disuguaglianza, ridefiniamo

τ (ω) := (inf{k ≤ n : Sk(ω) ≤ −λ} se min0≤i≤nSi(ω) ≤ −λ

+∞ altrimenti .

Possiamo dunque scrivere P  min 0≤i≤nSi ≤ −λ  = P τ ≤ n = n X k=0 P(τ = k) ≤ 1 λ n X k=0 E(−Sk1{τ =k}) = −E(Sτ1{τ ≤n}) = E(Sn1{τ >n}) − E(Smin{τ,n}) ,

dove nell’ultimo passaggio abbiamo scritto 1{τ ≤n} = 1 − 1{τ >n} e abbiamo usato il fatto che = Smin{τ,n} sull’evento {τ ≤ n}. Ragionando come sopra, abbiamo che E(Sn1{τ >n}) ≤ E(S+

n). Inoltre E(Smin{τ,n}) ≥ E(S0) grazie al Teorema 4.9, perch´e min{τ, n} `e un tempo d’arresto limitato.

2.3. Tempo continuo. La teoria generale delle martingale a tempo continuo `e pi`u complessa. Dal momento che `e spesso importante poter lavorare con processi con-tinui a destra, `e naturale chiedersi sotto quali condizioni una (sub,super)martingala M = {Mt}t≥0 ammette una modificazione con tale propriet`a. `E possibile mostrare che, se la filtrazione {Ft}t≥0 soddisfa le ipotesi standard, una submartigala M am-mette una modificazione continua a destra se e soltanto se la funzione t 7→ E(Mt) `e continua a destra. In particolare, una martingala ammette sempre una modificazione continua a destra (perch´e E(Mt) = E(M0) `e costante). In realt`a, avremo a che fare quasi sempre con (sub,super)martingale continue.

Elenchiamo ora le versioni a tempo continuo dei risultati dimostrati nel paragrafo precedente. Dimostreremo in dettaglio solo la disuguaglianza massimale.

Lemma 4.12. Se M = {Mt}t≥0 `e una submartingala continua a destra e τ `e un tempo d’arresto, il processo arrestato Mτ = {Mtτ}t≥0 definito da Mtτ := Mτ ∧t `e una submartingala continua a destra. Analogamente, se M `e una martingala continua a destra, anche il processo Mτ `e una martingala continua a destra.

Teorema 4.13 (Teorema d’arresto). Siano M = {Mt}t≥0 una submartingala continua a destra e τ1, τ2 tempi d’arresto tali che τ1 ≤ τ2 ≤ K q.c., per un’op-portuna costante K < ∞. Allora le variabili aleatorie Mτ1, Mτ2 sono integrabili e si ha E(Mτ2|Fτ1) ≥ Mτ1 q.c.. Analogamente, se M `e una martingala si ha che E(Mτ2|Fτ1) = Mτ1 q.c..

Corollario 4.14. Se M = {Mt}t≥0 `e una martingala e τ un tempo d’arresto limitato (cio`e τ ≤ K q.c., con K < ∞), la variabile Mτ `e integrabile e vale che

E(Mτ) = E(M0) .

La stessa relazione vale se τ `e q.c. finito e |Mτ ∧t| ≤ K per ogni t ≥ 0, con K < ∞.

Teorema 4.15 (Disuguaglianza massimale). Se S = {St}t≥0`e una submartingala continua a destra, per ogni t ∈ [0, ∞) e λ > 0 vale che

P  sup u∈[0,t] Su ≥ λ  ≤ E(S + t ) λ , P  inf u∈[0,t]Su ≤ −λ  ≤ E(S + t ) − E(S0) λ .

Dimostrazione. Dimostriamo la prima relazione (la seconda `e del tutto ana-loga). Fissiamo 0 =: t0 < t1 < . . . < tk := t e consideriamo il processo a tempo discreto {Sti}0≤i≤k, che `e una submartingala rispetto alla filtrazione {Fti}0≤i≤k. La disuguaglianza massimale a tempo discreto (Teorema 4.11) d`a

P  max u∈{t0,t1,...,tk}Su ≥ λ  ≤ E(S + t ) λ .

Scegliendo una successione di partizioni π(n) := {t(n)1 , . . . , t(n)k

n} crescenti (cio`e π(n) ⊆ π(n+1)) tali che S

n∈Nπ(n)= [0, t] ∩ Q, la continuit`a dal basso della probabilit`a d`a P  sup u∈[0,t]∩Q Su ≥ λ  = lim n→∞ P  max u∈{t(n)0 ,...,t(n)kn} Su ≥ λ  ≤ E(S + t ) λ .

La dimostrazione `e conclusa notando che supu∈[0,t]∩QSu = supu∈[0,t]Su, per la

conti-nuit`a a destra di S. 

Segue dalla disuguaglianza massimale che, se S = {St}t≥0 `e una submartingala continua a destra, per ogni t ∈ [0, ∞) e per ogni λ > 0 si ha

P  sup u∈[0,t] |Su| ≥ λ  ≤ 2 E(S + t ) − E(S0) λ ≤ 2 E(|St|) + E(|S0|) λ .

Chiudiamo il paragrafo con un’applicazione di questi risultati al moto browniano reale B = {Bt}t≥0. Definiamo τ−a,b := inf{s ≥ 0 : Bs 6∈ (−a, b)} il primo istante in cui B esce dall’intervallo (−a, b), con a, b > 0. Gi`a sappiamo che τ−a,b `e un tempo d’arresto q.c. finito, come conseguenza del principio di riflessione (infatti τ−a,b = min{τ−a, τb}). Vogliamo ora mostrare che la legge della variabile B(τ−a,b) `e data da

P B(τ−a,b) = −a = b

a + b, P B(τ−a,b) = b 

= a

a + b. (4.3) Abbiamo visto che B `e una martingala. Dato che |Bτ−a,b∧t| ≤ max{a, b} per ogni t ≥ 0, il Corollario 4.14 d`a E(B(τ−a,b)) = E(B0) = 0. Per la continuit`a delle traiettorie di B, la variabile B(τ−a,b) pu`o assumere solo i due valori −a, b, per cui

0 = E B(τ−a,b) = −a P B(τ−a,b) = −a + b P B(τ−a,b) = b .

Dato che P(B(τ−a,b) = −a)+P(B(τ−a,b) = b) = 1, si ottengono facilmente le relazioni in (4.3).

2.4. Martingale continue di quadrato integrabile. In questo paragrafo guardiamo pi`u da vicino le martingale M = {Mt}t≥0 continue di quadrato integrabi-le, per cui cio`e E(M2

t) < ∞ per ogni t ≥ 0. Cominciamo ad osservare che possiamo applicare la disuguaglianza massimale (Teorema 4.15) alla submartingala {Mt2}t≥0, ottenendo che per ogni t ∈ [0, ∞) e λ > 0 si ha

P  sup u∈[0,t] |Mu| ≥ λ  ≤ E(M 2 t) λ2 .

Abbiamo visto che il moto browniano ha traiettorie continue ma piuttosto irre-golari, in quanto di variazione infinita su ogni intervallo. Questo fenomeno, che a priori potrebbe essere visto come una strana peculiarit`a del moto browniano, `e in realt`a una conseguenza diretta del fatto che il moto browniano `e una martingala. Il punto fondamentale `e la seguente semplice relazione, valida per ogni martingala M = {Mt}t≥0 di quadrato integrabile:

E(Mt2− M2

La verifica `e facile, basta notare che E(MtMs|Fs) = MsE(Mt|Fs) = Ms2 q.c., grazie alle propriet`a della speranza condizionale e alla definizione di martingala. Prendendo il valore atteso di entrambi i membri in (4.4), segue facilmente che

E Mt2 = E n X i=1 (Mti − Mti−1)2 ! ,

per ogni partizione π = {0 =: t0 < t1 < . . . < tn := t} dell’intervallo [0, t]. Questa relazione rende plausibile che M abbia variazione quadratica finita (si noti che il membro di sinistra non dipende dalla partizione π) e dunque variazione infinita.

La variazione quadratica `e strettamente connessa con un altro aspetto importan-te. Se M = {Mt}t≥0 `e una martingala continua di quadrato integrabile, sappiamo dal Lemma 4.5 che il processo {Mt2}t≥0 `e una submartingala. `E naturale chiedersi se sia possibile compensare questa submartingala, cio`e trovare un processo crescente A = {At}t≥0 tale che M − A = {M2

t − At}t≥0 sia una martingala. La risposta `e af-fermativa: il processo A esiste e non `e altro che la variazione quadratica di M , come mostra il seguente risultato (che non dimostriamo).

Teorema 4.16. Sia M = {Mt}t≥0 `e una martingala continua di quadrato inte-grabile rispetto a una filtrazione completa {Ft}t≥0. Allora esiste un unico processo A = {At}t≥0 crescente, continuo, adattato e nullo al tempo zero tale che M2− A sia una martingala. Il processo A coincide con la variazione quadratica di M , cio`e

At = lim |π|→0 n X i=1 (Mti − Mti−1)2 in probabilit`a ,

dove indichiamo con π = {0 =: t0 < t1 < . . . < tn := t} le partizioni di [0, t].

Il processo A = {At}t≥0 `e detto variazione quadratica (o processo crescente, o compensatore) della martingala M e scriveremo A = hM i e At = hM it.

Usando questo risultato, non `e difficile dimostrare che effettivamente una mar-tingala continua di quadrato integrabile M = {Mt}t≥0 ha traiettorie a variazione infinita, oppure costanti: pi`u precisamente, sull’evento {At− As > 0} si ha che q.c. V[s,t](u 7→ Mu) = +∞, mentre sull’evento {At− As = 0} si ha che q.c. M `e costante sull’intervallo [s, t].

Per martingale a tempo discreto M = {Mn}n∈N di quadrato integrabile `e facile vedere che esiste sempre un processo A = {An}n∈N tale che L = {Ln := M2

n− An}n∈N sia una martingala. Infatti pondendo An:= Pn

i=1E((Mi− Mi−1)2|Fi−1) si ha E(Ln− Ln−1|Fn−1) = E(M2

n− Mn−12 |Fn−1) − E((Mn− Mn−1)2

|Fn−1) = 0 ,

grazie alla relazione (4.4). Inoltre si verifica che il processo A `e unico se si richiede che A0= 0 e che An sia Fn−1-misurabile.

Nel documento Analisi Stocastica (pagine 53-63)

Documenti correlati