III Appello di Processi Stocastici 2013/14 Cognome:
Laurea Magistrale in Matematica Nome:
17 settembre 2014 Email:
Quando non `e espressamente indicato il contrario, per la soluzione degli esercizi `e possibile usare tutti i risultati visti a lezione (compresi quelli di cui non `e stata fornita la dimostrazione).
Esercizio 1. Siano X, Z variabili aleatorie reali, con densit`a congiunta fX,Z(x, z) = e−z1{0≤x≤z}.
Si calcolino le speranze condizionali E[X|Z] e E[Z|X].
Soluzione 1. Determiniamo le densit`a marginali di X e Z.
fX(x) = Z
R
fX,Z(x, z) dz = (
0 se x < 0
R∞
x e−zdz = e−x se x ≥ 0 , fZ(z) =
Z
R
fX,Z(x, z) dx =
(0 se z < 0
Rz
0 e−zdx = z e−z se x ≥ 0 . In definitiva,
fX(x) = e−x1{x≥0}, fZ(z) = z e−z1{z≥0}.
Calcoliamo le densit`a condizionali. Per quanto riguarda fX|Z=z(x), ci possiamo restringere a z ≥ 0, nel qual caso
fX|Z=z(x) = fX,Z(x, z)
fZ(z) = e−z1{0≤x≤z}
z e−z = 1
z1{0≤x≤z},
ossia la distribuzione condizionale di X dato Z = z `e uniforme continua nell’intervallo [0, z]. Di conseguenza
E[X|Z] =
Z
R
x fX|Z=z(x)
z=Z
= 1 z
Z z 0
x dx
z=Z
= Z 2 . Analogamente, restringendosi a x ≥ 0, calcoliamo fZ|X=x(z):
fZ|X=x(z) = fX,Z(x, z)
fX(x) = e−z1{0≤x≤z}
e−x = e−(z−x)1{z≥x}, da cui
E[Z|X] =
Z
R
z fZ|X=x(z)
x=X
=
ex
Z ∞ x
z e−zdz
x=X
. Con un’integrazione per parti si ottiene
Z ∞ x
z e−zdz = − ze−z∞ x +
Z ∞ x
e−zdz = xe−x + e−x, da cui, infine,
E[Z|X] =
ex
Z ∞ x
z e−zdz
x=X
=
ex xe−x + e−x
x=X = X + 1 .
2
Esercizio 2. Sia Z = (Zm)m∈N0 una submartingala, definita su (Ω, A, (Fn)n∈N0, P).
(a) Si mostri che, per ogni n ∈ N0 e per ogni tempo d’arresto σ ≤ n, si ha E(Zσ) ≤ E(Zn).
[Sugg.: si esprima Zσ sommando sui diversi valori che pu`o assumere σ.]
Supponiamo d’ora in avanti che Z sia limitata in L1: C := sup
n∈N0
E[|Zn|] < ∞ .
Di conseguenza, il limite Z∞(ω) := limn→∞Zn(ω) esiste finito per q.o. ω ∈ Ω (perch´e?). Poniamo Z∞(ω) := 0 per gli ω per cui il limite non esiste, cos`ı che Z∞(ω) `e ben definita per ogni ω ∈ Ω.
Sia τ : Ω → N0∪ {∞} un tempo d’arresto arbitrario. Definiamo Zτ : Ω → R ponendo (Zτ)(ω) := Zτ (ω)(ω) ,
che `e ben definita anche se τ (ω) = ∞. Lo scopo di questo esercizio `e mostrare che E[|Zτ|] < ∞.
Ricordiamo che x+:= max{x, 0} e x−:= max{−x, 0}.
(b) Si mostri che E[Zτ ∧n+ ] ≤ E[Zn+], per ogni n ∈ N0. [Sugg.: Il processo Z+= {Zn+}n∈N0 `e una . . . ] (c) Si mostri che E[Zτ ∧n− ] ≤ E[Zτ ∧n+ ] − E[Z0].
(d) Si deduca che supn∈N0E[|Zτ ∧n|] =: C0< ∞.
(e) Si mostri che Zτ = limn→∞Zτ ∧n q.c. e si concluda che E[|Zτ|] < ∞.
Soluzione 2. (a) Dato che {σ = m} ∈ Fm, per m ≤ n si ha E[Zm1{σ=m}] ≤ E[Zn1{σ=m}] perch´e Z `e una submartingala. Di conseguenza, se σ ≤ n,
E[Zσ] =
n
X
m=0
E[Zm1{σ=m}] ≤
n
X
m=0
E[Zn1{σ=m}] = E[Zn] .
(b) Il processo Z+ `e una submartingala, in quanto funzione convessa e crescente della sub- martingala Z. Applicando il punto (a) alla submartingala Z+ e al tempo d’arresto τ ∧ n si ottiene la relazione E[Zτ ∧n+ ] ≤ E[Zn+].
(c) Applicando il teorema d’arresto alla submartingala Z e al tempo d’arresto limitato τ ∧ n, si ottiene la relazione E[Zτ ∧n] ≥ E[Z0]. Dato che E[Zτ ∧n] = E[Zτ ∧n+ ] − E[Zτ ∧n− ], si ottiene la relazione cercata E[Zτ ∧n− ] ≤ E[Zτ ∧n+ ] − E[Z0].
(d) Dato che E[|Zτ ∧n|] = E[Zτ ∧n+ ] + E[Zτ ∧n− ], applicando i punti precedenti si ottiene E[|Zτ ∧n|] ≤ 2 E[Zτ ∧n+ ] − E[Z0] ≤ 2 E[Zn+] − E[Z0] ,
e dato che E[Zn+] ≤ E[|Zn|] e − E[Z0] ≤ E[|Z0|], si ottiene sup
n∈N0
E[|Zτ ∧n|] ≤ 3 sup
n∈N0
E[|Zn|] = 3C < ∞.
(e) Se τ (ω) < ∞ allora τ (ω) ∧ n = τ (ω) per ogni n ≥ τ (ω), quindi la successione Zτ (ω)∧n(ω) definitivamente assume il valore costante Zτ (ω)(ω), da cui Zτ (ω)(ω) = limn→∞Zτ (ω)∧n(ω).
Se invece τ (ω) = ∞ allora τ (ω) ∧ n = n per ogni n ∈ N0; dato che Z∞(ω) = limn→∞Zn(ω) per q.o. ω ∈ Ω (per definizione di Z∞), possiamo riscrivere questa relazione come Zτ (ω) = limn→∞Zτ (ω)∧n(ω). In definitiva, abbiamo mostrato che Zτ = limn→∞Zτ ∧n q.c., da cui segue che |Zτ| = limn→∞|Zτ ∧n| q.c..
Applicando il lemma di Fatou, si ottiene E[|Zτ|] ≤ lim inf
n→∞ E[|Zτ ∧n|] ≤ C0 < ∞ , per il punto precedente.
3
Esercizio 3. Sia (Bt)t≥0 un moto browniano, definito su uno spazio di probabilit`a (Ω, A, P).
Definiamo il processo Z = (Zt)t∈[0,1] ponendo
Zt:= Bt− tB1.
(a) Si mostri che Z `e un processo gaussiano e se ne calcolino media e covarianza.
(b) Si mostri che il processo Z `e indipendente dalla variabile aleatoria B1.
[Sugg. Per mostrare l’indipendenza del processo Z dalla variabile aleatoria B1, `e sufficiente mostrare che ogni combinazione lineare finita di sue componenti a1Zt1+ . . . + anZtn `e indipendente da B1. `E facoltativo giustificare tale affermazione.]
(c) Si calcoli E[Bt|B1] per t ∈ [0, 1].
[Sugg. Non `e necessario fare calcoli!]
Fissiamo d’ora in avanti t ∈ [0, 1] e una funzione f : R → R misurabile e limitata. Definiamo quindi una nuova funzione ϕt,f : R → R ponendo
ϕt,f(x) := E[f (tx + Zt)] .
Si noti che ϕt,f(·) `e una funzione continua (perch´e?), quindi per ogni ε > 0 esiste δ0 > 0 tale che
|ϕt,f(x) − ϕt,f(0)| ≤ ε per ogni |x| ≤ δ0. (?) (d) Sfruttando il punto (a), si mostri che
E[f (Bt)|B1] = ϕt,f(B1) . (e) Si mostri che
limδ↓0
E[f (Bt)1{|B1|≤δ}]
P(|B1| ≤ δ) = E[f (Zt)] .
Sempre per t ∈ [0, 1] fissato, indichiamo infine con Xt(δ) una variabile aleatoria che ha la legge di Bt rispetto alla probabilit`a condizionale P( · | |B1| ≤ δ).
(f) Si deduca che per δ → 0 la variabile aleatoria Xt(δ) converge in legge verso . . .
Soluzione 3. (a) Il processo Z `e gaussiano perch´e le sue componenti sono combinazioni lineari delle componenti del moto browniano B, che `e un processo gaussiano. Si ha
E[Zt] = E[Bt] − t E[B1] = 0 ,
Cov[Zs, Zt] = Cov[Bs, Bt] − s Cov[B1, Bt] − t Cov[Bs, B1] + st Cov[B1, B1]
= s ∧ t − st − ts + st = s ∧ t − st .
(b) Detta Y := a1Zt1 + . . . + anZtn una combinazione lineare di componenti di Z, mos- triamo l’indipendenza di Y da B1. Osserviamo che Y e B1 sono congiuntamente nor- mali, ossia il vettore (Y, B1) `e normale, perch´e ogni combinazione lineare αZ + βB1 `e una combinazione lineari di componenti del moto browniano B. Di conseguenza, basta verificare che Cov[Y, Z] = 0, e ci`o segue immediatamente dal fatto che Cov[Zt, B1] = Cov[Bt, B1] − t Cov[B1, B1] = t − t = 0.
(c) Scrivendo Bt= Zt+ tB1 si ha E[Bt|B1] = E[Zt|B1] + t E[B1|B1] = E[Zt] + tB1 = tBt, per propriet`a standard della speranza condizionale, essendo Zt indipendente da B1.
(d) Scrivendo Bt = Zt+ tB1 si ha E[f (Bt)|B1] = E[f (tB1 + Zt)|B1] e applicando il lemma di congelamento si ottiene
E[f (Bt)|B1] = E[f (tx + Zt)|B1]|x=B1 = ϕt,f(x)|x=B1 = ϕt,f(B1) .
4
(e) Fissiamo ε > 0. Applicando il punto precedente e la relazione (?), per δ < δ0 si ha
E[f (Bt)1{|B1|≤δ}] = E[ϕt,f(B1)1{|B1|≤δ}] ≤ (ϕt,f(0) + ε) E[1{|B1|≤δ}] = (ϕt,f(0) + ε) P(|B1| ≤ δ) , di conseguenza
lim sup
δ→0
E[f (Bt)1{|B1|≤δ}]
P(|B1| ≤ δ) ≤ ϕt,f(0) + ε . Dato che ε > 0 `e arbitrario, abbiamo mostrato che
lim sup
δ→0
E[f (Bt)1{|B1|≤δ}]
P(|B1| ≤ δ) ≤ ϕt,f(0) . Con argomenti analoghi si mostra che
lim inf
δ→0
E[f (Bt)1{|B1|≤δ}]
P(|B1| ≤ δ) ≥ ϕt,f(0) , ed essendo ϕt,f(0) = E[f (Zt)], la conclusione segue.
(f) Se f : R → R `e una funzione continua e limitata, usando la definizione di Xt(δ) e il punto precedente si ha
E[f (Xt(δ))] = E[f (Bt)||Bt| ≤ δ] = E[f (Bt)1{|Bt|≤δ}] P(|Bt| ≤ δ) −−−→
δ→0 E[f (Zt)] . Ci`o significa, per definizione, cheXt(δ) → Ztin legge per δ → 0.