Laurea Magistrale in Matematica 2014/15 Nome:
14 Luglio 2015 Email:
Quando non `e espressamente indicato il contrario, per la soluzione degli esercizi `e possibile usare tutti i risultati visti a lezione (compresi quelli di cui non `e stata fornita la dimostrazione).
Esercizio 1. Sia (X, Y ) un vettore gaussiano in R2 con E(X) = E(Y ) = 0, E(X2) = E(Y2) = 1 e E(XY ) = % ∈ (−1, 1).
(a) Fissato il parametro z ∈ R, si determini la legge della variabile aleatoria U (z) definita da
U (z) := 1
p1 + z2+ 2%z X + zY [Sugg.: non `e necessario applicare la formula del cambio di variabili!]
Sia ora Z una variabile aleatoria reale indipendente da (X, Y ), con densit`a fZ(z) = e−z1[0,∞)(z).
Definiamo la variabile aleatoria
V := U (Z) = X + Y Z p1 + Z2+ 2%Z
(b) Si determini la legge condizionale di V data Z, mostrando che µV |Z(dv|z) = f (v) dv per un’opportuna densit`a f su R.
(c) Si dia un’espressione per E[ϕ(V, Z)], con ϕ : R2 → R misurabile e limitata, e si deduca la legge congiunta di (V, Z). Le variabili aleatorie V e Z sono indipendenti?
Soluzione 1. (a) U (z) `e normale perch´e combinazione lineare delle componenti di un vettore gaussiano. La media `e nulla mentre la varianza vale
Var[U (z)] = Cov[U (z), U (z)] = Cov[X, X] + z2Cov[Y, Y ] + 2z Cov[X, Y ]
1 + z2+ 2%z = 1 ,
quindi U (z) `e normale standard: U (z) ∼ N (0, 1).
(b) Osserviamo che V = U (Z) = f ((X, Y ), Z) con f ((x, y), z) := x + yz
p1 + z2+ 2%z.
Dato che Z `e indipendente da (X, Y ), per un risultato visto a lezione la legge condizionale µV |Z(·|z) non `e altro che la legge di f ((X, Y ), z) = U (z), ossia per il punto precedente `e la legge normale standard. In definitiva
µV |Z(dv|z) = e−12v2
√
2π dv . (c) Per caratterizzazione della legge condizionale
E[ϕ(V, Z)] = Z
R
Z
R
ϕ(v, z) µV |Z(dv|z)
µZ(dz) = Z
R2
ϕ(v, z)e−12v2
√2π e−z1[0,∞)(z) dv dz . Ci`o mostra che il vettore (V, Z) ha densit`a congiunta f(V,Z)(v, z) = e− 1√2v2
2π e−z1[0,∞)(z), che non `e altro che il prodotto della densit`a normale standard (per V ) con quella esponenziale di parametro 1 (per Z). Quindi V ∼ N (0, 1) e Z ∼ Exp(1) sono indipendenti.
Enunciamo le seguenti disuguaglianze elementari (la cui dimostrazione non `e richiesta):
eαx≤ 1
2(1 − x)e−α+1
2(1 + x)eα ∀x ∈ [−1, 1], α ≥ 0 (?) 1
2 e−α+ eα ≤ e12α2 ∀α ≥ 0. (×)
Esercizio 2. Fissiamo uno spazio di probabilit`a (Ω, A, P).
(a) Sia Z una variabile aleatoria reale integrabile, tale che P(|Z| ≤ 1) = 1, e sia G ⊆ A una σ-algebra tale che E[Z|G] = 0. Si spieghi perch´e
E[eαZ| G] ≤ e12α2, ∀α ≥ 0 .
Consideriamo ora una martingala X = (Xn)n∈Nrispetto a una filtrazione (Fn)n∈N. Osserviamo che l’insieme degli indici `e costituito dai numeri naturali N = {1, 2, 3, . . .}, e poniamo
µ := E[X1] .
(c) Si mostri che, definendo X0 := µ e F0 := {∅, Ω}, si ottengono una filtrazione (Fn)n∈N0 e una martingala X = (Xn)n∈N0 indicizzate da N0 = {0, 1, 2, . . .}.
D’ora in avanti facciamo l’ipotesi che per ogni n ∈ N esista una costante cn∈ [0, ∞) tale che
|Xn− Xn−1| ≤ cn, ossia l’incremento n-esimo della martingala `e limitato da cn.
(c) Si mostri che per ogni n ∈ N
E[eλ(Xn−Xn−1)| Fn−1] ≤ e12λ2c2n, ∀λ ≥ 0 . (d) Si mostri (ad esempio per induzione) che per ogni n ∈ N
E[eλ(Xn−µ)] ≤ eλ2
Pn i=1 c2
i
2 , ∀λ ≥ 0 . (e) Si mostri che per t ≥ 0
P[Xn− µ ≥ t] ≤ exp
−λt + λ2 Pn
i=1c2i 2
, ∀λ ≥ 0 . (f) Si deduca che vale la seguente disuguaglianza di concentrazione:
P[|Xn− E[Xn]| ≥ t] ≤ 2 exp
− t2 2Pn
i=1c2i
. [Sugg. Si scelga un opportuno valore di λ nel punto precedente.]
Soluzione 2. (a) Dato che |Z| ≤ 1 per ipotesi, possiamo applicare (?) e la linearit`a e monotonia della speranza condizionale, ottenendo:
E[eαZ| G] ≤ e−α
2 E[1 − Z | G] +eα
2 E[1 + Z | G] = e−α 2 +eα
2 ≤ e12α2, dove negli ultimi passaggi abbiamo usato E[Z|G] = 0 e (×).
(b) Le propriet`a Xn ∈ L1 e “Xn `e Fn-misurabile” valgono anche per n = 0, essendo X0 = µ una costante. Resta da mostrare che E[Xn+1|Fn] = Xn anche per n = 0, ma essendo F0 la σ-algebra banale, si ha E[ · | F0] = E[ · ] e dunque E[X1|F0] = E[X1] = µ = X0.
(c) Basta applicare il punto precedente a Z := (Xn−Xn−1)/cne G = Fn−1, notando che |Z| ≤ 1 perch´e |Xn− Xn−1| ≤ cn e E[Z|G] = E[Xn− Xn−1|Fn−1] = 0 perch´e X `e martingala.
(d) Il caso n = 1 `e esattamente il punto precedente. Assumendo la formula vera per n ∈ N, dimostriamola per n + 1. Scrivendo Xn+1= (Xn+1− Xn) + Xn si ottiene
E[eλ(Xn−µ)] = E[eλ(Xn−Xn−1)eλ(Xn−1−µ)] = E E[eλ(Xn−Xn−1)eλ(Xn−1−µ)| Fn−1] ,
avendo usato la propriet`a di “torre” della speranza condizionale. Ma eλ(Xn−1−µ) `e Fn−1- misurabile, pertanto
E[eλ(Xn−µ)] = Eeλ(Xn−1−µ)E[eλ(Xn−Xn−1)| Fn−1] , e usando il punto precedente e l’ipotesi induttiva si ottiene
E[eλ(Xn−µ)] ≤ e12λ2c2n+1Eeλ(Xn−1−µ)] ≤ e12λ2c2n+1eλ2
Pni=1 c2 i 2 = eλ2
Pn+1 i=1 c2i
2 ,
che `e quanto dovevasi dimostrare.
(e) Basta notare che Xn− µ ≥ t se e solo se eλ(Xn−µ) ≥ eλt e applicare la disuguaglianza di Markov: per il punto precedente
P[Xn− µ ≥ t] = P[eλ(Xn−µ) ≥ eλt] ≤ E[eλ(Xn−µ)] eλt ≤ eλ2
Pn i=1 c2
i 2
eλt = exp
−λt + λ2 Pn
i=1c2i 2
(f) La disuguaglianza del punto precedente vale per ogni λ ≥ 0. Il valore ¯λ ottimale `e quello
che minimizza il membro destro, o equivalentemente l’argomento dell’esponenziale, che `e un polinomio di secondo grado in λ. Derivando tale espressione e ponendola uguale a zero si ottiene
−t + ¯λ
n
X
i=1
c2i
!
= 0 , ossia λ =¯ t Pn
i=1c2i .
Sostituendo questo valore nella disuguaglianza, essendo E[Xn] = E[X1] = µ, si ottiene P[Xn− µ ≥ t] = P[Xn− E[Xn] ≥ t] ≤ exp
−¯λt + ¯λ2 Pn
i=1c2i 2
= exp
− t2 2Pn
i=1c2i
. Infine notiamo che P[|Xn− µ| ≥ t] = P[Xn− µ ≥ t] + P[Xn− µ ≤ −t]. Dato che −X `e ancora una martingala, si ha per quanto appena mostrato
P[Xn− µ ≤ −t] = P[(−Xn) − (−µ) ≥ t] ≤ exp
− t2 2Pn
i=1c2i
e sommando le due disuguaglianze si ottiene il fattore moltiplicativo 2 che compare nella relazione da dimostrare.
Esercizio 3. Sia B = (Bt)t≥0 un moto browniano definito su uno spazio di probabilit`a (Ω, A, P).
Dati 0 ≤ s < t < u, definiamo le variabili aleatorie Xs,u:= s(Bu− Bs) ,
Ys,t,u:= Xs,t+ Xt,u = s(Bt− Bs) + t(Bu− Bt) , Ds,t,u:= Ys,t,u− Xs,u.
(a) Si determini la legge di Ds,t e si mostri che
Var[Ds,t] = (t − s)2(u − t) . Introduciamo per n ∈ N la variabile aleatoria
In:=
2n−1
X
k=0
tnk Btnk+1− Btn
k , dove tnk := k 2n. (b) (*) Dopo aver notato che si pu`o scrivere
In=
2n−1
X
k=0
Xtn
k,tnk+1 =
2n−1
X
k=0
Xtn+1
2k ,tn+12k+2, ()
si mostri che
In+1− In=
2n−1
X
k=0
Γnk, avendo posto Γnk := Dtn+1
2k ,tn+12k+1,tn+12k+2. (c) Si spieghi perch´e, per n ∈ N fissato, le variabili (Γnk)0≤k≤2n−1 sono indipendenti.
(d) Si mostri che Var[In+1− In] = 22n+31 .
(e) Si deduca che (In)n∈N `e di Cauchy —e dunque converge— in L2.
Facoltativo: che cosa si pu`o dire sulla legge della variabile aleatoria limite I∞= limn→∞In?
Soluzione 3. (a) Si noti che
Ds,t,u= s(Bt− Bs) + t(Bu− Bt) − s(Bu− Bs) = (t − s)(Bu− Bt). (1) Dato che Bu − Bt ∼ N (0, u − t) per definizione di moto browniano, segue che Ds,t,u ∼ N (0, (t − s)2(u − t)). In particolare, Var[Ds,t,u] = (t − s)2(u − t).
(b) La prima uguaglianza in () vale per definizione di In e Xs,u. Notando che tnk = tn+12k e tnk+1= tn+12k+2 si ottiene la seconda uguaglianza in ().
Raggruppiamo ora a due a due i termini nell’espressione di In+1, scrivendo In+1= Xtn+1
0 ,tn+11 + Xtn+1
1 ,tn+12 + Xtn+1
2 ,tn+13 + Xtn+1
3 ,tn+14 + . . .
= Ytn+1
0 ,tn+11 ,tn+12 + Ytn+1
2 ,tn+13 ,tn+14 + . . . , avendo usato la definizione di Ys,t,u. In modo compatto:
In+1=
2n−1
X
k=0
Ytn+1
2k ,tn+12k+1,tn+12k+2
e facendo la differenza con la prima uguaglianza in () si ottiene In+1− In=
2n−1
X
k=0
Ytn+1
2k ,tn+12k+1,tn+12k+2 − Xtn+1
2k ,tn+12k+2 =
2n−1
X
k=0
Dtn+1
2k ,tn+12k+1,tn+12k+2.
(c) Applicando (1) possiamo scrivere Γnk = Dtn+1
2k ,tn+12k+1,tn+12k+2 = (tn+12k+1− tn+12k )(Btn+1
2k+2
− Btn+1
2k+1) = 1
2n+1(Btn+1
2k+2
− Btn+1 2k+1) ,
ed avendo il moto browniano incrementi indipendenti sugli intervalli disgiunti (tn+12k+1, tn+12k+2), segue l’indipendenza delle Γnk.
(d) Per i punti precedenti Var[In+1− In] =
2n−1
X
k=0
Var[Γnk] =
2n−1
X
k=0
Var[Dtn+1
2k ,tn+12k+1,tn+12k+2]
=
2n−1
X
k=0
(tn+12k+1− tn+12k )2(tn+12k+2− tn+12k+1) =
2n−1
X
k=0
1 2n+1
2
1 2n+1 =
2n−1
X
k=0
1
23n+3 = 1 22n+3. (e) Per il punto precedente, dati n0 ≤ ` ≤ m,
kIm− I`kL2 =
m−1
X
n=`
(In+1− In) L2
≤
m−1
X
n=`
kIn+1− InkL2 =
m−1
X
n=`
pVar[In+1− In]
≤
∞
X
n=n0
1
2n+32 = 1 2n0+32
∞
X
k=0
1
2k = 1 2n0+12 ,
da cui segue che (In)n∈N `e di Cauchy in L2 (per ogni ε > 0 basta scegliere n0 = n0(ε) ∈ N sufficientemente grande, cos`ı che 1
2n0+12 < ε, e si ha kIm− I`kL2 ≤ ε per m, ` ≥ n0).