Richiamiamo le nozioni e i risultati fondamentali concernenti la speranza condi-zionale e la teoria delle martingale (per maggiori dettagli, si veda (Williams, 1991)). Introduciamo le notazioni a ∧ b := min{a, b} e a ∨ b := max{a, b}, per a, b ∈ R.
1. Speranza condizionale
1.1. Definizione. Sia (Ω, F , P) uno spazio di probabilit`a e sia G una sotto-σ-algebra di F . `E possibile mostrare che per ogni aleatoria reale X definita su Ω esiste una variabile aleatoria reale Z che sia G-misurabile (cio`e Z : (Ω, G) → R `e misurabile) e tale che per ogni evento A ∈ G valga la seguente relazione:
Z
A
X dP = Z
A
Z dP , cio`e E(X 1A) = E(Z 1A) . (4.1) Questo `e equivalente a richiedere che E(X Y ) = E(Z Y ) per ogni variabile aleatoria reale Y G-misurabile e limitata. La variabile Z non `e unica, ma quasi: infatti, se Z1, Z2 sono variabili aleatorie G-misurabili per cui vale (4.1), si ha che Z1 = Z2 q.c.. La classe di equivalenza in L1(Ω, G, P) delle variabili aleatorie Z che soddisfano la relazione (4.1), per ogni A ∈ G, `e detta speranza condizionale di X rispetto a G ed `
e indicata con E(X|G). Con abuso di notazione, chiameremo speranza condizionale ogni specifico elemento Z di E(X|G) e scriveremo Z = E(X|G) q.c..
Intuitivamente, la speranza condizionale E(X|G) `e (a meno di equivalenza q.c.) la variabile aleatoria G-misurabile che meglio approssima X. Qualche esempio basilare:
• se X `e G-misurabile si ha E(X|G) = X q.c.; • se G = {∅, Ω} si ha E(X|G) = E(X) q.c.;
• se G = {∅, A, Ac, Ω}, per un opportuno A ∈ F con 0 < P(A) < 1, si ha E(X|G) = a 1A+ b 1Ac q.c., con a = E(X|A) = P(A)1 R
AX dP e analogamente b = E(X|Ac) = P(A1c)
R
AcX dP.
1.2. Propriet`a. Elenchiamo ora alcune propriet`a della speranza condizionale. In tutte le relazioni che seguono, X, Y, {Xn}n∈Nsono variabili aleatorie reali integrabili definite su (Ω, F , P), G, H sono sotto-σ-algebre di F e α, β sono numeri reali.
Cominciamo con alcune propriet`a basilari, analoghe a quelle della speranza. • [Linearit`a] E(αX + βY |G) = α E(X|G) + β E(Y |G) q.c..
• [Positivit`a] Se X ≥ 0 q.c. allora E(X|G) ≥ 0 q.c..
• [Jensen] Se ϕ : R → R `e convessa e tale che ϕ(X) sia integrabile, allora ϕ(E(X|G)) ≤ E(ϕ(X)|G) q.c..
Elenchiamo quindi tre propriet`a fondamentali, squisitamente condizionali, di cui faremo uso frequente.
• [Raffinamento] Se H ⊆ G, allora E(E(X|G)|H) = E(X|H) q.c.. In particolare E(E(X|G)) = E(X).
• [G-misurabilit`a] Se X `e G-misurabile e XY `e integrabile, allora E(XY |G) = X E(Y |G) q.c.. In particolare E(X|G) = X q.c. se X `e G-misurabile.
• [Indipendenza] Se X `e indipendente da G, E(X|G) = E(X) q.c..
Enunciamo infine le versioni condizionali dei classici teoremi di convergenza. • [Monotona]Se Xn↑ X q.c. per n → ∞, allora E(Xn|G) ↑ E(X|G) q.c..
• [Fatou] Se Xn ≥ Y q.c. per ogni n ∈ N, con Y integrabile (in particolare se Xn ≥0 q.c.), allora E(lim infn→∞Xn|G) ≤ lim infn→∞E(Xn|G) q.c..
• [Dominata] Se |Xn| ≤ Y q.c. per ogni n ∈ N, con Y integrabile, e se Xn → X q.c. per n → ∞, allora E(Xn|G) → E(X|G) q.c..
1.3. Esempi e applicazioni. Dalla disuguaglianza di Jensen condizionale, ap-plicata alla funzione convessa ϕ(x) = |x|p con p ≥ 1, segue che |E(X|G)|p ≤ E(|X|p|G) q.c.. Dato che E(E(|X|p|G)) = E(|X|p) per la propriet`a di raffinamento, si ha
kE(X|G)kp ≤ kXkp.
Questo mostra che l’applicazione che a una variabile aleatoria reale X ∈ Lp(Ω, F , P) associa la sua speranza condizionale E(X|G) `e un operatore (lineare) continuo da Lp in s´e (`e anzi una contrazione). In particolare, se Xn → X in Lp per n → ∞ allora anche E(Xn|G) → E(X|G) in Lp.
Vediamo ora qualche esempio di calcolo di speranze condizionali relative al moto browniano. Sia {Ft}t≥0 una filtrazione, definita sullo spazio di probabilit`a (Ω, F , P), e sia B = {Bt}t≥0 un {Ft}t≥0-moto browniano reale.
Esempio 4.1. Per s ≤ t si ha E(Bt|Fs) = Bs q.c.. Infatti
E(Bt|Fs) = E((Bt− Bs) + Bs|Fs) = E(Bt− Bs|Fs) + E(Bs|Fs) = Bs q.c. , poich´e Bt− Bs `e indipendente da Fs, mentre Bs `e Fs-misurabile.
Esempio 4.2. Per s ≤ t si ha E(Bt2|Fs) = Bs2+ (t − s) q.c.. Infatti, scrivendo Bt2 = ((Bt− Bs) + Bs)2 e applicando le propriet`a della speranza condizionale si ha
E(Bt2|Fs) = E((Bt− Bs)2|Fs) + E(Bs2|Fs) + 2 E((Bt− Bs)Bs|Fs)
= E((Bt− Bs)2) + Bs2+ BsE(Bt− Bs|Fs) = (t − s) + Bs2 q.c. , dove `e stato usato il fatto che Bt− Bs∼ N (0, t − s) `e indipendente da Fs.
Esempio 4.3. Per s ≤ t e λ ∈ R (o anche λ ∈ C) si ha E(eλBt|Fs) = eλBs+λ2(t−s)/2
q.c.. Infatti, scrivendo eλBt = eλBseλ(Bt−Bs) si ha che
E(eλBt|Fs) = eλBsE(eλ(Bt−Bs)|Fs) = eλBsE(eλ(Bt−Bs)) = eλBseλ2(t−s)/2, dove si `e usato il fatto che E(eλZ) = eλ2σ2/2 se Z ∼ N (0, σ2).
2. Martingale a tempo discreto e continuo
2.1. Definizione. Per tutta la sezione supporremo che sia fissato uno spazio di probabilit`a (Ω, F , P) munito di una filtrazione {Ft}t∈T, dove l’insieme degli indici T sar`a per noi N ∪ {0} oppure [0, ∞).
Definizione 4.4. Un processo reale adattato M = {Mt}t∈T `e detto submartin-gala (risp. supermartinsubmartin-gala, martinsubmartin-gala) se Mt `e integrabile per ogni t ∈ T e vale la seguente relazione:
E(Mt|Fs) ≥ Ms (risp. ≤ Ms, = Ms) q.c. , (4.2) per ogni s, t ∈ T con s ≤ t.
La condizione (4.2) pu`o essere riespressa come E(Mt−Ms|Fs) ≥ 0 (risp. ≤ 0, = 0) q.c.. Si noti che M `e una submartingala se e soltanto se −M `e una supermartingala. Analogamente, un processo `e una martingala se e soltanto se `e allo stesso tempo una submartingala e una supermartingala.
Si definiscono (sub,super)martingale M = {Mt}t≥0anche quando sullo spazio non `
e definita una filtrazione: in questo caso si richiede che la relazione (4.2) valga rispetto alla filtrazione naturale {FtM := σ({Mu}u∈[0,t]∩T)}t∈T. Quando vorremo enfatizzare la filtrazione, scriveremo che M `e una {Ft}t∈T-(sub,super)submartingala.
Osserviamo che, se M `e una submartingala, segue da (4.2) che E(Mt) ≥ E(Ms) per t ≥ s, cio`e M `e crescente in media. Analogamente, una supermartingala `e decrescente in media, mentre una martingala `e costante in media.
Osserviamo che per dimostrare che E(Mt|Fs) ≥ Ms q.c. `e sufficiente mostrare che E(Mt1A) ≥ E(Ms1A), per ogni A ∈ Fs. Infatti, ponendo Z := E(Mt|Fs) per semplicit`a, per definizione di speranza condizionale si ha E(Z1A) ≥ E(Ms1A), ovvero E((Z − Ms)1A) ≥ 0, per ogni A ∈ Fs. Resta solo da mostrare che ci`o implica che Z − Ms ≥ 0 q.c., e avremo ottenuto la relazione desiderata E(Mt|Fs) ≥ Ms q.c..
Questo segue da un fatto generale: se Y `e una variabile aleatoria integrabile e G-misurabile, tale che E(Y 1A) ≥ 0 per ogni A ∈ G, si ha Y ≥ 0 q.c.. Infatti basta prendere A = {Y < 0} e si ottiene E(Y 1{Y <0}) ≥ 0; d’altro canto Y 1{Y <0} ≤ 0, che implica E(Y 1{Y <0}) ≤ 0, per cui in definitiva si ha E(Y 1{Y <0}) = 0. Dato che Y 1{Y <0} ≤ 0, questo `e possibile se e soltanto se Y 1{Y <0} = 0 q.c., da cui si ottiene che necessariamente P(Y < 0) = 0, cio`e Y ≥ 0 q.c..
Lemma 4.5. Se M = {Mt}t∈T `e una martingala e ϕ : R → R `e una funzione convessa tale che ϕ(Mt) sia integrabile per ogni t ∈ T, il processo {ϕ(Mt)}t∈T `e una submartingala. Se M = {Mt}t∈T `e una submartingala e ϕ `e convessa e crescente, tale che ϕ(Mt) sia integrabile per ogni t ∈ T, {ϕ(Mt)}t∈T `e una submartingala.
Dimostrazione. Se ϕ `e convessa, dalla disuguaglianza di Jensen per la speranza condizionale segue che E(ϕ(Mt)|Fs) ≥ ϕ(E(Mt|Fs)) q.c..
Se M `e una martingala, si ha E(Mt|Fs) = Ms q.c. e dunque E(ϕ(Mt)|Fs) ≥ ϕ(Ms) q.c., cio`e la tesi. Se M `e una submartingala, si ha E(Mt|Fs) ≥ Ms q.c.; quindi, se ϕ `e crescente, ϕ(E(Mt|Fs)) ≥ ϕ(Ms) q.c., da cui E(ϕ(Mt)|Fs) ≥ ϕ(Ms)
q.c..
In particolare, data una martingala M = {Mt}t∈T, i processi {|Mt|}t∈T e {Mt2}t∈T sono submartingale. Attenzione che ci`o non `e necessariamente vero quando M `e una submartingala, perch´e le funzioni x 7→ |x| e x 7→ x2 sono convesse ma non crescenti. Esempio 4.6. Se {Ft}t≥0 `e una filtrazione su uno spazio (Ω, F , P) e X : Ω → R `
e una variabile aleatoria integrabile, il processo Y = {Yt := E(X|Ft)}t≥0 `e una martingala. Infatti per s ≤ t si ha Fs ⊆ Ft e dunque E(E(X|Ft)|Fs) = E(X|Fs) q.c., per la propriet`a di raffinamento.
Si osservi che ogni martingala M = {Mt}0≤t≤T con insieme dei tempi limitato `e di questa forma: infatti per la propriet`a (4.2) si ha Ms = E(MT|Fs) q.c..
Esempio 4.7. Se B = {Bt}t≥0 `e un {Ft}t≥0-moto browniano reale, i seguenti processi sono martingale:
Bt
t≥0, B2
t − t
t≥0, eλBt−λ2t/2
t≥0, ∀λ ∈ R ,
come mostrano gli esempi di calcolo di speranze condizionali della scorsa sezione. In particolare, il moto browniano B = {Bt}t≥0 `e una martingala.
La teoria delle martingale `e tra i capitoli pi`u ricchi ed eleganti del calcolo delle probabilit`a. La nostra esposizione sar`a estremamente concisa: ci limiteremo a con-siderare i risultati di diretto interesse per il prosieguo del corso, concentrandoci sui tempi d’arresto (e sostanzialmente ignorando i teoremi di convergenza).
2.2. Tempo discreto. Consideriamo innanzitutto il caso in cui l’insieme dei tempi `e discreto, cio`e T = N ∪ {0}, e indichiamo con {Fn}n∈N∪{0} la filtrazione. Ricordiamo che una variabile aleatoria τ : Ω → N ∪ {0, +∞} `e un tempo d’arresto per {Fn}n≥0 se e soltanto se {τ = n} ∈ Fn, per ogni n ≥ 0. Analogamente, Fτ `e la σ-algebra composta dagli eventi A ∈ F per cui A ∩ {τ = n} ∈ Fn, per ogni n ≥ 0.
Osserviamo che la relazione (4.2) che definisce una submartingala pu`o essere semplificata per processi M = {Mn}n≥0 a tempo discreto: basta richiedere che E(Mn+1|Fn) ≥ Mn q.c. per ogni n ≥ 0. Infatti da questa relazione segue che
E(Mn+2|Fn) = E(E(Mn+2|Fn+1)|Fn) ≥ E(Mn+1|Fn) ≥ Mn q.c. ,
e per induzione si mostra facilmente che E(Mk|Fn) ≥ Mn q.c. per ogni k ≥ n. Un discorso del tutto analogo si applica alle supermartingale o martingale.
Il primo risultato che dimostriamo `e che le (sub)martingale possono essere stop-pate a un tempo d’arresto.
Lemma 4.8. Se M = {Mn}n≥0 `e una submartingala e τ `e un tempo d’arresto, il processo arrestato Mτ = {Mnτ}n≥0 definito da Mnτ := Mτ ∧n `e una submartingala. Analogamente, se M `e una martingala, anche il processo Mτ `e una martingala.
Dimostrazione. Ricordiamo che a ∧ b := min{a, b} per a, b ∈ R, cosicch´e Mnτ(ω) = Mmin{τ (ω),n}(ω). Da questo segue facilmente che per ogni n ≥ 0 si ha
Mnτ =
n
X
k=0
Mk1{τ =k} + Mn1{τ >n}.
Questa relazione mostra che, per ogni n ≥ 0, Mnτ `e integrabile, in quanto somma finita di variabili aleatorie integrabili, e anche che Mnτ `e Fn-misurabile (si noti che {τ > n} = {τ ≤ n}c∈ Fn), cio`e il processo Mτ `e adattato.
Si noti che sull’evento {τ ≤ n} si ha τ ∧ n = τ ∧ (n + 1) = τ e quindi Mnτ = Mn+1τ . In altri termini (Mn+1τ − Mτ
n)1{τ ≤n} = 0, per cui
E(Mn+1τ − Mnτ|Fn) = E (Mn+1τ − Mnτ)1{τ >n}Fn q.c. .
D’altro canto, sull’evento {τ > n} = {τ ≥ n + 1} si ha Mnτ = Mn e Mn+1τ = Mn+1. Visto che {τ > n} ∈ Fn, dalle propriet`a della speranza condizionale si ottiene
E (Mn+1τ − Mτ
n)1{τ >n}Fn
= 1{τ >n}E(Mn+1− Mn|Fn) ≥ 0 q.c. ,
perch´e M `e una submartingala. Abbiamo quindi mostrato che E(Mn+1τ |Fn) ≥ Mnτ q.c., cio`e Mτ `e una submartingala. Il caso di una martingala `e analogo. Il seguente risultato d`a condizioni sotto le quali si pu`o estendere la propriet`a di (sub,super)martingala ai tempi d’arresto.
Teorema 4.9 (Teorema d’arresto). Siano M = {Mn}n≥0 una submartingala e τ1, τ2 tempi d’arresto tali che τ1 ≤ τ2 ≤ K q.c., per un’opportuna costante K < ∞. Allora le variabili aleatorie Mτ1, Mτ2 sono integrabili e vale che E(Mτ2|Fτ1) ≥ Mτ1 q.c.. Analogamente, se M `e una martingala si ha E(Mτ2|Fτ1) = Mτ1 q.c..
Dimostrazione. L’integrabilit`a delle variabili Mτ1, Mτ2 `e immediata: infatti per i = 1, 2 possiamo scrivere |Mτi| = |PK
l=0Ml1{τi=l}| ≤PK
l=0|Ml| ∈ L1.
Consideriamo innanzitutto il caso deterministici τ2 = K q.c.. Per A ∈ Fτ1 si ha che A ∩ {τ1 = j} ∈ Fj per ogni j ≤ K. Dato che E(MK|Fj) ≥ Mj q.c., si ha
E(MK1A∩{τ1=j}) ≥ E(Mj1A∩{τ1=j}) = E(Mτ11A∩{τ1=j}) ,
e sommando su j = 0, . . . , K si ottiene E(MK1A) ≥ E(Mτ11A). Per l’arbitrariet`a di A ∈ Fτ1, segue che E(MK|Fτ1) ≥ Mτ1 q.c..
Nel caso generale in cui τ2 non sia costante, applichiamo quanto appena dimo-strato alla submartingala arrestata Mτ2, ottenendo la relazione E(Mτ2
K|Fτ1) ≥ Mτ2
τ1
q.c.. Dato che per ipotesi τ1 ≤ τ2 ≤ K, si ha che Mτ2
K := Mτ2∧K = Mτ2 e Mτ2
τ1 := Mτ2∧τ1 = Mτ1, quindi la relazione ottenuta si pu`o riscrivere come E(Mτ2|Fτ1) ≥ Mτ1 q.c.. Il caso di una martingala `e del tutto analogo. Corollario 4.10. Se M = {Mn}n≥0 `e una martingala e τ un tempo d’arresto limitato (cio`e τ ≤ K q.c., con K < ∞), la variabile Mτ `e integrabile e vale che
E(Mτ) = E(M0) .
Dimostrazione. Se τ ≤ K q.c., applicando il Teorema 4.9 ai tempi d’arresto τ1 = 0 e τ2 = τ si ha che E(Mτ|F0) = M0 q.c.. Prendendo il valore atteso di entrambi i membri si ottiene E(Mτ) = E(M0).
Se τ `e q.c. finito, possiamo applicare la prima parte al tempo d’arresto τ ∧ n, ottenendo E(Mτ ∧n) = E(M0), per ogni n ∈ N. Per n → ∞ si ha che Mτ ∧n → Mτ q.c.; se |Mτ ∧n| ≤ K, per convergenza dominata si ottiene E(Mτ) = E(M0).
Concludiamo con una disuguaglianza di fondamentale importanza.
Teorema 4.11 (Disuguaglianza massimale). Se S = {Sn}n≥0 `e una submartin-gala, per ogni n ∈ N e λ > 0 vale che
P max 0≤i≤nSi ≥ λ ≤ E(S + n) λ , P min 0≤i≤nSi ≤ −λ ≤ E(S + n) − E(S0) λ .
Dimostrazione. Definiamo la variabile aleatoria τ ponendo τ (ω) :=
(
inf{k ≤ n : Sk(ω) ≥ λ} se max0≤i≤nSi(ω) ≥ λ
+∞ altrimenti .
Si verifica facilmente che τ `e un tempo d’arresto. Inoltre P max 0≤i≤nSi ≥ λ = P τ ≤ n = n X k=0 P(τ = k) ≤ 1 λ n X k=0 E(Sk1{τ =k}) , dove abbiamo usato il fatto che Sk ≥ λ sull’evento {τ = k}. Dato che {τ = k} ∈ Fk e S `e una submartingala, si ha E(Sk1{τ =k}) ≤ E(Sn1{τ =k}) e quindi
P max 0≤i≤nSi ≥ λ ≤ 1 λ n X k=0 E(Sn1{τ =k}) = 1 λE(Sn1{τ ≤n}) ≤ 1 λE(S + n) , perch´e Sn1{τ ≤n} ≤ S+
n. La prima disuguaglianza `e dimostrata.
Per la seconda disuguaglianza, ridefiniamo
τ (ω) := (inf{k ≤ n : Sk(ω) ≤ −λ} se min0≤i≤nSi(ω) ≤ −λ
+∞ altrimenti .
Possiamo dunque scrivere P min 0≤i≤nSi ≤ −λ = P τ ≤ n = n X k=0 P(τ = k) ≤ 1 λ n X k=0 E(−Sk1{τ =k}) = −E(Sτ1{τ ≤n}) = E(Sn1{τ >n}) − E(Smin{τ,n}) ,
dove nell’ultimo passaggio abbiamo scritto 1{τ ≤n} = 1 − 1{τ >n} e abbiamo usato il fatto che Sτ = Smin{τ,n} sull’evento {τ ≤ n}. Ragionando come sopra, abbiamo che E(Sn1{τ >n}) ≤ E(S+
n). Inoltre E(Smin{τ,n}) ≥ E(S0) grazie al Teorema 4.9, perch´e min{τ, n} `e un tempo d’arresto limitato.
2.3. Tempo continuo. La teoria generale delle martingale a tempo continuo `e pi`u complessa. Dal momento che `e spesso importante poter lavorare con processi con-tinui a destra, `e naturale chiedersi sotto quali condizioni una (sub,super)martingala M = {Mt}t≥0 ammette una modificazione con tale propriet`a. `E possibile mostrare che, se la filtrazione {Ft}t≥0 soddisfa le ipotesi standard, una submartigala M am-mette una modificazione continua a destra se e soltanto se la funzione t 7→ E(Mt) `e continua a destra. In particolare, una martingala ammette sempre una modificazione continua a destra (perch´e E(Mt) = E(M0) `e costante). In realt`a, avremo a che fare quasi sempre con (sub,super)martingale continue.
Elenchiamo ora le versioni a tempo continuo dei risultati dimostrati nel paragrafo precedente. Dimostreremo in dettaglio solo la disuguaglianza massimale.
Lemma 4.12. Se M = {Mt}t≥0 `e una submartingala continua a destra e τ `e un tempo d’arresto, il processo arrestato Mτ = {Mtτ}t≥0 definito da Mtτ := Mτ ∧t `e una submartingala continua a destra. Analogamente, se M `e una martingala continua a destra, anche il processo Mτ `e una martingala continua a destra.
Teorema 4.13 (Teorema d’arresto). Siano M = {Mt}t≥0 una submartingala continua a destra e τ1, τ2 tempi d’arresto tali che τ1 ≤ τ2 ≤ K q.c., per un’op-portuna costante K < ∞. Allora le variabili aleatorie Mτ1, Mτ2 sono integrabili e si ha E(Mτ2|Fτ1) ≥ Mτ1 q.c.. Analogamente, se M `e una martingala si ha che E(Mτ2|Fτ1) = Mτ1 q.c..
Corollario 4.14. Se M = {Mt}t≥0 `e una martingala e τ un tempo d’arresto limitato (cio`e τ ≤ K q.c., con K < ∞), la variabile Mτ `e integrabile e vale che
E(Mτ) = E(M0) .
La stessa relazione vale se τ `e q.c. finito e |Mτ ∧t| ≤ K per ogni t ≥ 0, con K < ∞.
Teorema 4.15 (Disuguaglianza massimale). Se S = {St}t≥0`e una submartingala continua a destra, per ogni t ∈ [0, ∞) e λ > 0 vale che
P sup u∈[0,t] Su ≥ λ ≤ E(S + t ) λ , P inf u∈[0,t]Su ≤ −λ ≤ E(S + t ) − E(S0) λ .
Dimostrazione. Dimostriamo la prima relazione (la seconda `e del tutto ana-loga). Fissiamo 0 =: t0 < t1 < . . . < tk := t e consideriamo il processo a tempo discreto {Sti}0≤i≤k, che `e una submartingala rispetto alla filtrazione {Fti}0≤i≤k. La disuguaglianza massimale a tempo discreto (Teorema 4.11) d`a
P max u∈{t0,t1,...,tk}Su ≥ λ ≤ E(S + t ) λ .
Scegliendo una successione di partizioni π(n) := {t(n)1 , . . . , t(n)k
n} crescenti (cio`e π(n) ⊆ π(n+1)) tali che S
n∈Nπ(n)= [0, t] ∩ Q, la continuit`a dal basso della probabilit`a d`a P sup u∈[0,t]∩Q Su ≥ λ = lim n→∞ P max u∈{t(n)0 ,...,t(n)kn} Su ≥ λ ≤ E(S + t ) λ .
La dimostrazione `e conclusa notando che supu∈[0,t]∩QSu = supu∈[0,t]Su, per la
conti-nuit`a a destra di S.
Segue dalla disuguaglianza massimale che, se S = {St}t≥0 `e una submartingala continua a destra, per ogni t ∈ [0, ∞) e per ogni λ > 0 si ha
P sup u∈[0,t] |Su| ≥ λ ≤ 2 E(S + t ) − E(S0) λ ≤ 2 E(|St|) + E(|S0|) λ .
Chiudiamo il paragrafo con un’applicazione di questi risultati al moto browniano reale B = {Bt}t≥0. Definiamo τ−a,b := inf{s ≥ 0 : Bs 6∈ (−a, b)} il primo istante in cui B esce dall’intervallo (−a, b), con a, b > 0. Gi`a sappiamo che τ−a,b `e un tempo d’arresto q.c. finito, come conseguenza del principio di riflessione (infatti τ−a,b = min{τ−a, τb}). Vogliamo ora mostrare che la legge della variabile B(τ−a,b) `e data da
P B(τ−a,b) = −a = b
a + b, P B(τ−a,b) = b
= a
a + b. (4.3) Abbiamo visto che B `e una martingala. Dato che |Bτ−a,b∧t| ≤ max{a, b} per ogni t ≥ 0, il Corollario 4.14 d`a E(B(τ−a,b)) = E(B0) = 0. Per la continuit`a delle traiettorie di B, la variabile B(τ−a,b) pu`o assumere solo i due valori −a, b, per cui
0 = E B(τ−a,b) = −a P B(τ−a,b) = −a + b P B(τ−a,b) = b .
Dato che P(B(τ−a,b) = −a)+P(B(τ−a,b) = b) = 1, si ottengono facilmente le relazioni in (4.3).
2.4. Martingale continue di quadrato integrabile. In questo paragrafo guardiamo pi`u da vicino le martingale M = {Mt}t≥0 continue di quadrato integrabi-le, per cui cio`e E(M2
t) < ∞ per ogni t ≥ 0. Cominciamo ad osservare che possiamo applicare la disuguaglianza massimale (Teorema 4.15) alla submartingala {Mt2}t≥0, ottenendo che per ogni t ∈ [0, ∞) e λ > 0 si ha
P sup u∈[0,t] |Mu| ≥ λ ≤ E(M 2 t) λ2 .
Abbiamo visto che il moto browniano ha traiettorie continue ma piuttosto irre-golari, in quanto di variazione infinita su ogni intervallo. Questo fenomeno, che a priori potrebbe essere visto come una strana peculiarit`a del moto browniano, `e in realt`a una conseguenza diretta del fatto che il moto browniano `e una martingala. Il punto fondamentale `e la seguente semplice relazione, valida per ogni martingala M = {Mt}t≥0 di quadrato integrabile:
E(Mt2− M2
La verifica `e facile, basta notare che E(MtMs|Fs) = MsE(Mt|Fs) = Ms2 q.c., grazie alle propriet`a della speranza condizionale e alla definizione di martingala. Prendendo il valore atteso di entrambi i membri in (4.4), segue facilmente che
E Mt2 = E n X i=1 (Mti − Mti−1)2 ! ,
per ogni partizione π = {0 =: t0 < t1 < . . . < tn := t} dell’intervallo [0, t]. Questa relazione rende plausibile che M abbia variazione quadratica finita (si noti che il membro di sinistra non dipende dalla partizione π) e dunque variazione infinita.
La variazione quadratica `e strettamente connessa con un altro aspetto importan-te. Se M = {Mt}t≥0 `e una martingala continua di quadrato integrabile, sappiamo dal Lemma 4.5 che il processo {Mt2}t≥0 `e una submartingala. `E naturale chiedersi se sia possibile compensare questa submartingala, cio`e trovare un processo crescente A = {At}t≥0 tale che M − A = {M2
t − At}t≥0 sia una martingala. La risposta `e af-fermativa: il processo A esiste e non `e altro che la variazione quadratica di M , come mostra il seguente risultato (che non dimostriamo).
Teorema 4.16. Sia M = {Mt}t≥0 `e una martingala continua di quadrato inte-grabile rispetto a una filtrazione completa {Ft}t≥0. Allora esiste un unico processo A = {At}t≥0 crescente, continuo, adattato e nullo al tempo zero tale che M2− A sia una martingala. Il processo A coincide con la variazione quadratica di M , cio`e
At = lim |π|→0 n X i=1 (Mti − Mti−1)2 in probabilit`a ,
dove indichiamo con π = {0 =: t0 < t1 < . . . < tn := t} le partizioni di [0, t].
Il processo A = {At}t≥0 `e detto variazione quadratica (o processo crescente, o compensatore) della martingala M e scriveremo A = hM i e At = hM it.
Usando questo risultato, non `e difficile dimostrare che effettivamente una mar-tingala continua di quadrato integrabile M = {Mt}t≥0 ha traiettorie a variazione infinita, oppure costanti: pi`u precisamente, sull’evento {At− As > 0} si ha che q.c. V[s,t](u 7→ Mu) = +∞, mentre sull’evento {At− As = 0} si ha che q.c. M `e costante sull’intervallo [s, t].
Per martingale a tempo discreto M = {Mn}n∈N di quadrato integrabile `e facile vedere che esiste sempre un processo A = {An}n∈N tale che L = {Ln := M2
n− An}n∈N sia una martingala. Infatti pondendo An:= Pn
i=1E((Mi− Mi−1)2|Fi−1) si ha E(Ln− Ln−1|Fn−1) = E(M2
n− Mn−12 |Fn−1) − E((Mn− Mn−1)2
|Fn−1) = 0 ,
grazie alla relazione (4.4). Inoltre si verifica che il processo A `e unico se si richiede che A0= 0 e che An sia Fn−1-misurabile.