• Non ci sono risultati.

1 p1 + z2+ 2%z X + zY [Sugg.: non `e necessario applicare la formula del cambio di variabili!] Sia ora Z una variabile aleatoria reale indipendente da (X, Y

N/A
N/A
Protected

Academic year: 2021

Condividi "1 p1 + z2+ 2%z X + zY [Sugg.: non `e necessario applicare la formula del cambio di variabili!] Sia ora Z una variabile aleatoria reale indipendente da (X, Y"

Copied!
5
0
0

Testo completo

(1)

Laurea Magistrale in Matematica 2014/15 Nome:

14 Luglio 2015 Email:

Quando non `e espressamente indicato il contrario, per la soluzione degli esercizi `e possibile usare tutti i risultati visti a lezione (compresi quelli di cui non `e stata fornita la dimostrazione).

Esercizio 1. Sia (X, Y ) un vettore gaussiano in R2 con E(X) = E(Y ) = 0, E(X2) = E(Y2) = 1 e E(XY ) = % ∈ (−1, 1).

(a) Fissato il parametro z ∈ R, si determini la legge della variabile aleatoria U (z) definita da

U (z) := 1

p1 + z2+ 2%z X + zY [Sugg.: non `e necessario applicare la formula del cambio di variabili!]

Sia ora Z una variabile aleatoria reale indipendente da (X, Y ), con densit`a fZ(z) = e−z1[0,∞)(z).

Definiamo la variabile aleatoria

V := U (Z) = X + Y Z p1 + Z2+ 2%Z

(b) Si determini la legge condizionale di V data Z, mostrando che µV |Z(dv|z) = f (v) dv per un’opportuna densit`a f su R.

(c) Si dia un’espressione per E[ϕ(V, Z)], con ϕ : R2 → R misurabile e limitata, e si deduca la legge congiunta di (V, Z). Le variabili aleatorie V e Z sono indipendenti?

Soluzione 1. (a) U (z) `e normale perch´e combinazione lineare delle componenti di un vettore gaussiano. La media `e nulla mentre la varianza vale

Var[U (z)] = Cov[U (z), U (z)] = Cov[X, X] + z2Cov[Y, Y ] + 2z Cov[X, Y ]

1 + z2+ 2%z = 1 ,

quindi U (z) `e normale standard: U (z) ∼ N (0, 1).

(b) Osserviamo che V = U (Z) = f ((X, Y ), Z) con f ((x, y), z) := x + yz

p1 + z2+ 2%z.

Dato che Z `e indipendente da (X, Y ), per un risultato visto a lezione la legge condizionale µV |Z(·|z) non `e altro che la legge di f ((X, Y ), z) = U (z), ossia per il punto precedente `e la legge normale standard. In definitiva

µV |Z(dv|z) = e12v2

2π dv . (c) Per caratterizzazione della legge condizionale

E[ϕ(V, Z)] = Z

R

Z

R

ϕ(v, z) µV |Z(dv|z)



µZ(dz) = Z

R2

ϕ(v, z)e12v2

√2π e−z1[0,∞)(z) dv dz . Ci`o mostra che il vettore (V, Z) ha densit`a congiunta f(V,Z)(v, z) = e− 12v2

e−z1[0,∞)(z), che non `e altro che il prodotto della densit`a normale standard (per V ) con quella esponenziale di parametro 1 (per Z). Quindi V ∼ N (0, 1) e Z ∼ Exp(1) sono indipendenti.

(2)

Enunciamo le seguenti disuguaglianze elementari (la cui dimostrazione non `e richiesta):

eαx≤ 1

2(1 − x)e−α+1

2(1 + x)eα ∀x ∈ [−1, 1], α ≥ 0 (?) 1

2 e−α+ eα ≤ e12α2 ∀α ≥ 0. (×)

Esercizio 2. Fissiamo uno spazio di probabilit`a (Ω, A, P).

(a) Sia Z una variabile aleatoria reale integrabile, tale che P(|Z| ≤ 1) = 1, e sia G ⊆ A una σ-algebra tale che E[Z|G] = 0. Si spieghi perch´e

E[eαZ| G] ≤ e12α2, ∀α ≥ 0 .

Consideriamo ora una martingala X = (Xn)n∈Nrispetto a una filtrazione (Fn)n∈N. Osserviamo che l’insieme degli indici `e costituito dai numeri naturali N = {1, 2, 3, . . .}, e poniamo

µ := E[X1] .

(c) Si mostri che, definendo X0 := µ e F0 := {∅, Ω}, si ottengono una filtrazione (Fn)n∈N0 e una martingala X = (Xn)n∈N0 indicizzate da N0 = {0, 1, 2, . . .}.

D’ora in avanti facciamo l’ipotesi che per ogni n ∈ N esista una costante cn∈ [0, ∞) tale che

|Xn− Xn−1| ≤ cn, ossia l’incremento n-esimo della martingala `e limitato da cn.

(c) Si mostri che per ogni n ∈ N

E[eλ(Xn−Xn−1)| Fn−1] ≤ e12λ2c2n, ∀λ ≥ 0 . (d) Si mostri (ad esempio per induzione) che per ogni n ∈ N

E[eλ(Xn−µ)] ≤ eλ2

Pn i=1 c2

i

2 , ∀λ ≥ 0 . (e) Si mostri che per t ≥ 0

P[Xn− µ ≥ t] ≤ exp



−λt + λ2 Pn

i=1c2i 2



, ∀λ ≥ 0 . (f) Si deduca che vale la seguente disuguaglianza di concentrazione:

P[|Xn− E[Xn]| ≥ t] ≤ 2 exp



− t2 2Pn

i=1c2i

 . [Sugg. Si scelga un opportuno valore di λ nel punto precedente.]

Soluzione 2. (a) Dato che |Z| ≤ 1 per ipotesi, possiamo applicare (?) e la linearit`a e monotonia della speranza condizionale, ottenendo:

E[eαZ| G] ≤ e−α

2 E[1 − Z | G] +eα

2 E[1 + Z | G] = e−α 2 +eα

2 ≤ e12α2, dove negli ultimi passaggi abbiamo usato E[Z|G] = 0 e (×).

(b) Le propriet`a Xn ∈ L1 e “Xn `e Fn-misurabile” valgono anche per n = 0, essendo X0 = µ una costante. Resta da mostrare che E[Xn+1|Fn] = Xn anche per n = 0, ma essendo F0 la σ-algebra banale, si ha E[ · | F0] = E[ · ] e dunque E[X1|F0] = E[X1] = µ = X0.

(c) Basta applicare il punto precedente a Z := (Xn−Xn−1)/cne G = Fn−1, notando che |Z| ≤ 1 perch´e |Xn− Xn−1| ≤ cn e E[Z|G] = E[Xn− Xn−1|Fn−1] = 0 perch´e X `e martingala.

(3)

(d) Il caso n = 1 `e esattamente il punto precedente. Assumendo la formula vera per n ∈ N, dimostriamola per n + 1. Scrivendo Xn+1= (Xn+1− Xn) + Xn si ottiene

E[eλ(Xn−µ)] = E[eλ(Xn−Xn−1)eλ(Xn−1−µ)] = E E[eλ(Xn−Xn−1)eλ(Xn−1−µ)| Fn−1] ,

avendo usato la propriet`a di “torre” della speranza condizionale. Ma eλ(Xn−1−µ) `e Fn−1- misurabile, pertanto

E[eλ(Xn−µ)] = Eeλ(Xn−1−µ)E[eλ(Xn−Xn−1)| Fn−1] , e usando il punto precedente e l’ipotesi induttiva si ottiene

E[eλ(Xn−µ)] ≤ e12λ2c2n+1Eeλ(Xn−1−µ)] ≤ e12λ2c2n+1eλ2

Pni=1 c2 i 2 = eλ2

Pn+1 i=1 c2i

2 ,

che `e quanto dovevasi dimostrare.

(e) Basta notare che Xn− µ ≥ t se e solo se eλ(Xn−µ) ≥ eλt e applicare la disuguaglianza di Markov: per il punto precedente

P[Xn− µ ≥ t] = P[eλ(Xn−µ) ≥ eλt] ≤ E[eλ(Xn−µ)] eλt ≤ eλ2

Pn i=1 c2

i 2

eλt = exp



−λt + λ2 Pn

i=1c2i 2

 (f) La disuguaglianza del punto precedente vale per ogni λ ≥ 0. Il valore ¯λ ottimale `e quello

che minimizza il membro destro, o equivalentemente l’argomento dell’esponenziale, che `e un polinomio di secondo grado in λ. Derivando tale espressione e ponendola uguale a zero si ottiene

−t + ¯λ

n

X

i=1

c2i

!

= 0 , ossia λ =¯ t Pn

i=1c2i .

Sostituendo questo valore nella disuguaglianza, essendo E[Xn] = E[X1] = µ, si ottiene P[Xn− µ ≥ t] = P[Xn− E[Xn] ≥ t] ≤ exp



−¯λt + ¯λ2 Pn

i=1c2i 2



= exp



− t2 2Pn

i=1c2i

 . Infine notiamo che P[|Xn− µ| ≥ t] = P[Xn− µ ≥ t] + P[Xn− µ ≤ −t]. Dato che −X `e ancora una martingala, si ha per quanto appena mostrato

P[Xn− µ ≤ −t] = P[(−Xn) − (−µ) ≥ t] ≤ exp



− t2 2Pn

i=1c2i



e sommando le due disuguaglianze si ottiene il fattore moltiplicativo 2 che compare nella relazione da dimostrare.

(4)

Esercizio 3. Sia B = (Bt)t≥0 un moto browniano definito su uno spazio di probabilit`a (Ω, A, P).

Dati 0 ≤ s < t < u, definiamo le variabili aleatorie Xs,u:= s(Bu− Bs) ,

Ys,t,u:= Xs,t+ Xt,u = s(Bt− Bs) + t(Bu− Bt) , Ds,t,u:= Ys,t,u− Xs,u.

(a) Si determini la legge di Ds,t e si mostri che

Var[Ds,t] = (t − s)2(u − t) . Introduciamo per n ∈ N la variabile aleatoria

In:=

2n−1

X

k=0

tnk Btnk+1− Btn

k , dove tnk := k 2n. (b) (*) Dopo aver notato che si pu`o scrivere

In=

2n−1

X

k=0

Xtn

k,tnk+1 =

2n−1

X

k=0

Xtn+1

2k ,tn+12k+2, ()

si mostri che

In+1− In=

2n−1

X

k=0

Γnk, avendo posto Γnk := Dtn+1

2k ,tn+12k+1,tn+12k+2. (c) Si spieghi perch´e, per n ∈ N fissato, le variabili (Γnk)0≤k≤2n−1 sono indipendenti.

(d) Si mostri che Var[In+1− In] = 22n+31 .

(e) Si deduca che (In)n∈N `e di Cauchy —e dunque converge— in L2.

Facoltativo: che cosa si pu`o dire sulla legge della variabile aleatoria limite I= limn→∞In?

Soluzione 3. (a) Si noti che

Ds,t,u= s(Bt− Bs) + t(Bu− Bt) − s(Bu− Bs) = (t − s)(Bu− Bt). (1) Dato che Bu − Bt ∼ N (0, u − t) per definizione di moto browniano, segue che Ds,t,u ∼ N (0, (t − s)2(u − t)). In particolare, Var[Ds,t,u] = (t − s)2(u − t).

(b) La prima uguaglianza in () vale per definizione di In e Xs,u. Notando che tnk = tn+12k e tnk+1= tn+12k+2 si ottiene la seconda uguaglianza in ().

Raggruppiamo ora a due a due i termini nell’espressione di In+1, scrivendo In+1= Xtn+1

0 ,tn+11 + Xtn+1

1 ,tn+12  + Xtn+1

2 ,tn+13 + Xtn+1

3 ,tn+14  + . . .

= Ytn+1

0 ,tn+11 ,tn+12  + Ytn+1

2 ,tn+13 ,tn+14  + . . . , avendo usato la definizione di Ys,t,u. In modo compatto:

In+1=

2n−1

X

k=0

Ytn+1

2k ,tn+12k+1,tn+12k+2

e facendo la differenza con la prima uguaglianza in () si ottiene In+1− In=

2n−1

X

k=0

Ytn+1

2k ,tn+12k+1,tn+12k+2 − Xtn+1

2k ,tn+12k+2 =

2n−1

X

k=0

Dtn+1

2k ,tn+12k+1,tn+12k+2.

(5)

(c) Applicando (1) possiamo scrivere Γnk = Dtn+1

2k ,tn+12k+1,tn+12k+2 = (tn+12k+1− tn+12k )(Btn+1

2k+2

− Btn+1

2k+1) = 1

2n+1(Btn+1

2k+2

− Btn+1 2k+1) ,

ed avendo il moto browniano incrementi indipendenti sugli intervalli disgiunti (tn+12k+1, tn+12k+2), segue l’indipendenza delle Γnk.

(d) Per i punti precedenti Var[In+1− In] =

2n−1

X

k=0

Var[Γnk] =

2n−1

X

k=0

Var[Dtn+1

2k ,tn+12k+1,tn+12k+2]

=

2n−1

X

k=0

(tn+12k+1− tn+12k )2(tn+12k+2− tn+12k+1) =

2n−1

X

k=0

 1 2n+1

2

1 2n+1 =

2n−1

X

k=0

1

23n+3 = 1 22n+3. (e) Per il punto precedente, dati n0 ≤ ` ≤ m,

kIm− I`kL2 =

m−1

X

n=`

(In+1− In) L2

m−1

X

n=`

kIn+1− InkL2 =

m−1

X

n=`

pVar[In+1− In]

X

n=n0

1

2n+32 = 1 2n0+32

X

k=0

1

2k = 1 2n0+12 ,

da cui segue che (In)n∈N `e di Cauchy in L2 (per ogni ε > 0 basta scegliere n0 = n0(ε) ∈ N sufficientemente grande, cos`ı che 1

2n0+12 < ε, e si ha kIm− I`kL2 ≤ ε per m, ` ≥ n0).

Riferimenti

Documenti correlati

[r]

[r]

Quindi la parabola ℘ cercata appartiene al fascio di coniche bitangenti alla retta per V perpendicolare all’ asse di simmetria e alla retta impropria.. Le coniche spezzate del

Calcolare il volume del solido di rotazione ottenuto ruotando attorno all’asse x l’insieme

[r]

Un sottoinsieme di uno spazio vettoriale V ´e un sottospazio vettoriale se: a Contiene lo zero; b `e diverso da zero; c non contiene lo zero; d nessuna delle

A tale scopo possiamo utilizzare le

In un piano verticale, un disco omogeneo di massa m e raggio R rotola senza strisciare su una guida orizzontale ed ha il centro C attratto verso un punto O fisso ed alla sua