• Non ci sono risultati.

Esercizi di Istituzioni di Probabilità a.a nono foglio di esercizi M. Isopi

N/A
N/A
Protected

Academic year: 2022

Condividi "Esercizi di Istituzioni di Probabilità a.a nono foglio di esercizi M. Isopi"

Copied!
21
0
0

Testo completo

(1)

Esercizi di Istituzioni di Probabilit`a a.a. 2020-2021 nono foglio di esercizi

M. Isopi

Esercizio 1. (paradosso di Borel-Kolmogorov) [BERNOULLI]

Un punto viene scelto uniformemente su una sfera di raggio unitario. Chia- miamo Θ e Φ la latitudine e la longitudine. Trovare la densit`a condizionata di Θ dato Φ e di Φ dato Θ.

Soluzione

Consideriamo sulla sfera unitaria la misura di probabilit`a uniforme, ovvero se B ⊆ ∂B1(0):

P(B) = 1 4π

Z

∂B1(0)

χB dS

Ricordiamo innanzitutto che date due variabili aleatorie reali X, Y con distribuzione congiunta

P((X, Y ) ∈ A) = Z

A

f (x, y) dxdy Allora si ha:

P(Y ∈ B | X = x) = 1 fX(x)

Z

B

f (x, y) dy dove fX(x) =R

Rf (x, y)dy.

Nel nostro caso la distribuzione congiunta di Θ e Φ `e data (tramite un cambio di variabili) da:

P((Θ, Φ) ∈ A) = 1 4π

Z

A

sin(φ)χ[0,2π]×[0,π]dθdφ Da cui:

f (θ, φ) = 1

4π sin(φ)χ[0,2π]×[0,π]

fΘ(θ) = 1 4π

Z π 0

sin(φ) dφ = 1 2π fΦ(φ) = 1

4π Z

0

sin(φ) d = sin(φ) 2 Se 0 ≤ θ ≤ 2π e 0 ≤ φ ≤ π:

P(Θ ≤ θ | Φ = φ) = 1 2π sin(φ)

Z θ

0

sin(φ) dθ = 1 2πθ

(2)

P(Φ ≤ φ | Θ = θ) = 1 2

Z φ 0

sin(τ ) dτ = 1 − cos(φ) 2

Si deduce quindi che la densit`a condizionata di Θ dato Φ `e 1 , ovvero quella uniforme. D’altra parte la densit`a di Φ dato Θ `e 12sin(φ) e quindi, individuata la longitudine di un punto, `e pi`u probabile che questo sia vicino all’equatore.

Esercizio 2. [DE FINETTI]

Trovare densit`a e attesa condizionata di Y data X quando a) f (x, y) = λ2e−λy per 0 ≤ x ≤ y < ∞;

b) f (x, y) = xe−x(y+1) per x, y ≥ 0.

Soluzione

Per prima cosa diamo la definizione di densit`a condizionata di Y data X fY |X(y | x) = f (x, y)

fX(x) per ogni x tale che fX(x) > 0.

In generale

fX(x) =

+∞

Z

−∞

f (x, y)dy .

Nel caso a) si avr`a

fX(x) =

Z

x

λ2e−λydy = λ2

Z

x

e−λydy = λe−λx .

Quindi la densit`a condizionata sar`a data da fY |X(y | x) = λ2e−λy

λe−λx = λe−λ(y−x) .

Definiamo adesso il valore atteso condizionato di Y data X come segue E(Y |X) = φ(X)

dove

φ(x) = E(Y |X = x) =

+∞

Z

−∞

yfY |X(y|x) =

(3)

sostituendo si avr`a

=

Z

x

λye−λ(y−x)dy =

= eλx

Z

x

λye−λydy =

e integrando per parti si ottiene

= eλx



xe−λx+

Z

x

e−λydy



=

= eλx



xe−λx+ 1 λe−λx



=

= x + 1 λ . Per il caso b) si procede in modo analogo

fX(x) =

Z

0

xe−x(y+1)dy =

effettuiamo un cambio di variabile ponendo z = y + 1

=

Z

1

xe−zxdz =

= x

Z

1

e−zxdz = e−x .

Quindi

fY |X(y | x) = xe−x(y+1)

e−x = xe−xy . Mentre il valore atteso sar`a dato da

φ(x) = E(Y |X = x) =

Z

0

xye−xydy =

(4)

= x

Z

0

ye−xydy =

ed integrando per parti si ottiene

x

Z

0

1

xye−xydy =

x x

Z

0

e−xydy = 1 x .

Esercizio 3. [GAUSS]

X e Y hanno densit`a congiunta f (x, y) = cx(y −x)e−y per 0 ≤ x ≤ y < ∞.

a) Trovare c.

b) Calcolare fX|Y(x | y), la densit`a condizionata di X data Y e fY |X(y | x).

c) Calcolare E(X|Y ) e E(Y |X).

Soluzione

a) Per trovare c non dobbiamo far altro che normalizzare la nostra distri- buzione di probabilit`a fX,Y(x, y), pertanto imponiamo che l’integrale su tutto lo spazio di definizione della della distribuzione eguagli 1. In calcoli:

1 = Z

0

Z y 0

cx(y − x)e−ydx dy = c Z

0

Z y 0

xye−y− x2e−ydx dy = c

Z 0

 x2 2 y −x3

3

y

0



e−ydy = c Z

0

 y2 2 y − y3

3



e−ydy = c 6

Z 0

y3e−ydy = c

6



−y3e−y

0

+ Z

0

3y2e−ydy



= c 6



−y3e−y− 3y2e−y

0

+ Z

0

6ye−ydy



= c

6



−y3e−y− 3y2e−y− 6ye−y

0

+ Z

0

6e−ydy



= c

6



−y3e−y− 3y2e−y− 6ye−y− 6e−y

0



= c 66 Quindi otteniamo c = 1

(5)

b) Tramite la formula di Bayes, si ottiene che fX|Y(x|y) = f (x,y)f

Y(y) e fY |X(y|x) =

f (x,y)

fX(x), dove ovviamente fY(y) e fX(x) sono le densit`a marginali in Y e X. Procediamo ora con il calcolo delle distribuzioni marginali:

fY(y) = Z y

0

fX,Y(x, y) dx = Z y

0

x(y−x)e−ydx = x2y 2 −x3

3

 e−y

y

0

= 1 6y3e−y Allo stesso modo calcoliamo quella di X

fX(x) = Z

x

fX,Y dy = Z

x

x(y − x)e−ydy = x Z

x

ye−y− xe−ydy =

= x(−ye−y− e−y+ xe−y)

x = xe−x

Ora possiamo passare a calcolare le densit`a condizionate:

fX|Y(x|y) = f (x, y)

fY(y) = 6x(y − x)e−y

y3e−y = 6x(y − x) y3 e

fY |X(y|x) = f (x, y)

fX(x) = x(y − x)e−y

xe−x = (y − x)ex−y c) Usando la definizione di valore atteso condizionato si ha che

E(X|Y ) = Z

X(ω) dP(d(ω)|Y ) Quindi

E(X|Y ) = Z y

0

xfX|Y(x|y) = 6 Z y

0

x2(y − x)

y3 dx = 6 y3

 x3y 3 −x4

4



y

0

= 6y3

y3

y 3 −y

4



= 2y − 3 2y = 1

2y Allo stesso modo

E(Y |X) = Z

Y (ω) dP(d(ω)|X) = Z

x

yfX|Y(y|x) = Z

x

(y2− yx)ex−ydy =

= − (y2− yx)ex−y

x +

Z x

(2y − x)ex−ydy =

= (−(y2− yx)ex−y− (2y − x)ex−y

x ) +

Z x

2ex−ydy =

= − (y2− yx)ex−y− (2y − x)ex−y− 2ex−y

x =

= (−y2e−y+ yxe−y− 2ye−y+ xe−y− 2e−y)ex

x =

= (x2e−x− x2e−x+ 2xe−x− xe−x+ 2e−x)ex = 2 + x

(6)

Esercizio 4. [DOOB]

Costruire un esempio di due variabili aleatorie X e Y in modo che E(Y ) = +∞, ma E(Y |X) < +∞ quasi certamente.

Soluzione

Consideriamo le variabili aleatorie indipendenti Z ∼ N (0, 1), normale stan- dard, e X ∼ χ2(1), chi quadro ad un grado di libert`a.

Definendo ora la variabile aleatoria Y :=√ 1Z

X = Z

X, osserviamo che que- sta `e una t di Student ad un grado di libert`a.

Per calcolare il valore atteso di Y ∼ t(1), ricordiamo che la densit`a di una t di Student ad n gradi di libert`a `e:

ft(n)= 1

√nπ

Γ(n+12 ) Γ(n2)

 1 +x2

n

n+12

1(x > 0) con Γ(·) funzione Gamma di Eulero.

Pertanto per n = 1

ft(1) = 1

√π Γ(1)

Γ(12) 1 + x2−1

1(x > 0)

Ricordando che Γ(1) = 1 e Γ(12) =√

π otteniamo ft(1)= 1

π

 1

1 + x2



1(x > 0)

E(Y ) = Z

0

1 π

 x

1 + x2



dx = ∞ Calcoliamo ora la probabilit`a condizionata

P(Y |X) = P

 Z

X = y|X = x



= P Z

√x = y



= P Z = y√ x Osserviamo che il condizionamento pu`o essere ignorato per l’indipendenza di Z e X e per la definizione della variabile t di Student.

Il valore atteso condizionato sar`a E(Y |X) =

Z

0 y · P(Y = y|X = x)dy = Z

0 y · P Z = y√

x dy =

= Z

0

y · 1

√2πe12y2xdy = − 1 x√

2π Z

0

(−xy)e12y2xdy =

= − 1 x√

2π h

e12y2x i

0 = 1

x√ 2π

(7)

Abbiamo duque trovato due variabili aleatorie per cui vale E(Y ) = +∞ e E(Y |X) < ∞.

Nota: dyde12y2x = −12x2ye12y2x = −xye12y2x

Esercizio 5. [LAPLACE]

Supponiamo che X sia una variabile aleatoria G-misurabile. Dimostrare che Var(X|G) = 0.

Soluzione

Poich´e X ´e una variabile aleatoria G-misurabile allora per unicit`a E(X|G) = X. Otteniamo quindi, per definizione di varianza condizionata

Var(X|G) = E (X − E(X|G))2|G = E (X − X)2|G = 0

Esercizio 6. [DE MOIVRE]

Dimostrare le seguenti disuguaglianze:

a) E (|X + Y |r|G) ≤ cr(E (|X|r|G) + E (|Y |r|G))

con cr= 1 quando r ≤ 1 e cr= 2r−1 quando r ≥ 1 b) (H¨older condizionale)

|E(XY |G)| ≤ E(|XY ||G) ≤ k(X|G)kp· k(Y |G)kq con 1p +1q = 1

c) (Lyapounov condizionale)

k(X|G)kr≤ k(X|G)kp per 0 < r ≤ p d) (Minkowski condizionale)

k((X + Y )|G)kp ≤ k(X|G)kp+ k(Y |G)kp per p ≥ 1 Soluzione

a) Consideriamo il caso r ∈ (0, 1]. Se z ∈ (0, 1) si ha che √r

z ≤ z quindi

 xr xr+ yr

1r

 xr xr+ yr



(8)

=⇒

 xr xr+ yr

1r +

 yr xr+ yr

r1

≤ xr+ yr xr+ yr = 1

=⇒ x + y ≤ (xr+ yr)1r =⇒ (x + y)r ≤ xr+ yr Otteniamo che

E(|X + Y |r|G) ≤ E((|X| + |Y |)r|G) ≤ E(|X|r|G) + E(|Y |r|G) Se r ≥ 1



x + y 2



≤ 1

2|x|r+1

2|y|r=⇒ |x + y|r≤ 2r−1(|x|r+ |y|r) Questo fatto `e vero perch´e f (z) = |z|r ´e convessa. Quindi per defini- zione

f (λx + (1 − λ)y) ≤ λf (x) + (1 − λ)f (y) con λ = 12.

Quindi

E(|X+Y |r|G) ≤ E(2r−1(|X|r+|Y |r)|G) = 2r−1[E(|X|r|G)+E(|Y |r|G)].

b) Per la prima disequazione usiamo la definizione di valore atteso E(Z|A) =

Z

Z(w)dP (w|A)

|E(XY |G)| = Z

(XY )(w)dP (w|G)

≤ Z

|(XY )|(w)dP (w|G) = E(|XY | |G) Per la seconda disequazione usiamo la disuguaglianza di Holder per le

funzioni f ∈ Lp(Ω) e g ∈ Lq(Ω) :

||f g||1 ≤ ||f ||p||g||q quando 1p +1q = 1. Otteniamo:

E(|XY | |G) = ||XY |G||1 = Z

|XY |(w)dP (w|G) ≤

Z

|X(w)|pdP (w|G)

1pZ

|Y (w)|qdP (w|G)

1q

= ||X|G||p||Y |G||q.

c)

||(X|G)||rr=

Z

|Xr(w)|dP (w|G)



= E(|Xr· 1| |G) ≤ ||Xr|G||p0||1|G||q0

||Xr|G||p0 =

Z

|X(w)|rp0dP (w|G)

1

p0

(9)

Avendo usato il punto b) nella prima disuguaglianza e avendo preso p0 e q0 t.c. p10 +q10 = 1. Si ha:

Z

|Xr(w)|dP (w|G)

1r

Z

|X(w)|rp0dP (w|G)

1

p0 1 r

Considero p > r e scelgo p0 = pr e q0 = r−pr . Abbiamo che

||X|G||r≤ ||X|G||p. d)

||(X + Y )|G||pp = Z

|X + Y |p(w)dP (w|G) = E(|X + Y |p|G) =

E(|X + Y |p−1|X + Y | |G) ≤ E(|X + Y |p−1|X| |G) + E(|X + Y |p−1|Y | |G) Applicando il punto b) e prendendo q tale che 1p +1q = 1 :

≤ |||X + Y |p−1|G|q||X|G||p+ |||X + Y |p−1|G||q||Y |G||p= (|||X + Y ||p−1|G||q)(||X|G||p+ ||Y |G||p)

Osserviamo che 1p +1q = 1 =⇒ q(p − 1) = p e che

|||X + Y |p−1|G||q =

Z

|X + Y |(p−1)qdP (w|G)

1q

=

Z

|X + Y |pdP (w|G)

1ppq

= ||(X + Y )|G||

p

pq

otteniamo quindi

||(X + Y )|G||pp≤ ||(X + Y )|G||

p q

p(||X|G||p+ ||Y |G||p) Dividendo per ||(X + Y )|G||

p q

p otteniamo la tesi.

Esercizio 7. [BONFERRONI]

Sia ϕ una funzione convessa e X una variabile aleatoria con E(X) < ∞ e E(ϕ(X)) < ∞.

a) Mostrare che ϕ(E(X|F )) ≤ E(ϕ(X)|F )

b) Mostrare che l’attesa condizionata `e una contrazione in Lp.

(10)

Soluzione

a) Se una funzione ψ `e convessa in (a, b), per ogni x0∈ (a, b) esiste un c > 0 tale che la seguente uguaglianza `e verificata per ogni x ∈ (a, b):

ψ(x) ≥ ψ(x0) + c(x − x0)

Nel nostro caso ϕ `e convessa in R, per cui possiamo sostituire ad x una variabile aleatoria X ed ottenere la seguente disuguaglianza di variabili aleatorie:

ϕ(X) ≥ ϕ(x0) + c(X − x0)

Calcoliamo l’attesa condizionata a F di entrambi i membri; abbiamo un’altra disuguaglianza di variabili aleatorie, che ora guardiamo localmente: per ogni ω ∈ Ω e per ogni x0 > 0 esiste c > 0 tale che

E(ϕ(X)|F )(ω) ≥ ϕ(x0) + c[E(X|F )(ω) − x0]

Concludiamo prendendo x0= E(X|F )(ω) e guardando la disuguaglianza di nuovo globalmente.

b) Un operatore lineare e continuo T tra spazi normati `e detto contrazione se la sua norma `e al pi`u 1. Nel nostro caso T (X) = E(X|F ); poich ˜A c ϕ(x) = |x|p `e convessa in R, possiamo sfruttare il punto (a):

|(E(X|F )|p ≤ E(|X|p|F )

da cui, calcolando l’attesa di entrambi i membri, abbiamo che E |(E(X|F )|p ≤ E E(|X|p|F )

Il membro di sinistra equivale a ||E(X|F )||pLp. Inoltre, calcolare l’attesa si- gnifica svolgere l’integrale su Ω, che appartiene alla σ-algebra F , dunque il membro di destra equivale a E(|X|p) = ||X||pLp per la propriet`a sulle medie che definisce l’attesa condizionata. Prendendo la radice p-esima di entrambi i membri si ha la seguente disuguaglianza:

||T (X)||Lp = ||E(X|F )||Lp ≤ ||X||Lp Ci`o `e vero per ogni variabile aleatoria X, quindi ||T || ≤ 1.

(11)

Esercizio 8. [CANTELLI]

Sia Y una variabile aleatoria integrabile. Mostrare che {E(Y |G) : G `e una sotto- σ -algebra di F }

`e uniformemente integrabile.

Soluzione

Prima di procedere alla risoluzione dell’esercizio ricordiamo alcune nozioni:

Definizione 1. Una variabile aleatoria Y si dice valore atteso condi- zionato di X data F , E[X|F] := Y , se:

1. Y `e F -misurabile.

2. Per ogni A ∈ F vale E[X 1A] = E[Y 1A]

Definizione2. Una famiglia F ⊂ L1 si dice uniformemente integrabile se:

inf

0≤g∈L1sup

f ∈F

Z

{|f |>g}

|f |dµ = 0 o equivalentemente se:

lim

µ(E)→0sup

i∈I

Z

E

|fi|dµ = 0

Definizione 3. Sia (Ω, F , P) uno spazio di probabilit`a, X una variabile aleatoria a valori reali. Se G ⊂ F sono due σ-algebre, allora vale la propriet`a della torre:

E

EX | G

F = E X G

Teorema (Disuguaglianza di Jensen) Sia (Ω, F , P) uno spazio di pro- babilit`a, X una variabile aleatoria a valori reali tale che X ∈ L1 e sia ϕ una funzione convessa tale che anche ϕ(X) abbia valore atteso. Allora:

ϕ(E[X]) ≤ E[ϕ(X)]

Procediamo alla risoluzione dell’ esercizio: nello spazio di probabilit`a (Ω, F , P) consideriamo {Gi}i∈I ⊂ F la famiglia di sotto σ-algebre di F e inoltre po- niamo {Xi:= EY |Gi}i∈I.Dalla disuguaglianza di Jensen e dalla propriet`a di torre segue che ∀i ∈ I:

E|Xi| = E| EY | Gi | ≤ E E|Y | | Gi | F = E |Y | | Gi ≤ E|Y | < +∞

quindi anche Xi∈ L1 ∀i ∈ I.

(12)

Ora dimostriamo l’uniforme integrabilit`a di {Xi}i∈I, considero δ > 0 e pongo Ai,δ := {|Xi| > δ}. Prima di tutto osservo che poich`e per definizione Xi `e Gi-misurabile allora Ai,δ ∈ Gi, inoltre sempre dalla disuguaglianza di Jensen e dalla definizione di valore atteso condizionato segue che:

E |Xi| 1Ai,δ

= E

EY | Gi 1Ai,δ

≤ E

E | Y |

Gi 1Ai,δ = E |Y | 1Ai,δ = Z

Ai,δ

|Y | dP.

Poich`e Xi`e integrabile ∀i ∈ I e l’insieme Ai,δ tende ad un insieme di misura nulla per δ → +∞, abbiamo che

δ→+∞lim sup

i∈I

Z

Ai,δ

|Xi| dP ≤ lim

δ→+∞

Z

Ai,δ

|Y | dP = 0 da cui segue la tesi.

Esercizio 9. [KOLMOGOROV]

Siano X e Y variabili aleatorie indipendenti a media nulla.

a) Mostrare che E|X| ≤ E|X + Y |.

b) Supponiamo inoltre che E|X|r< ∞ e che E|Y |r< ∞ per qualche r > 1.

Mostrare che E|X|r ≤ E|X + Y |r. Soluzione

Prima di procedere alla risoluzione dell’esercizio ricordiamo alcune nozioni:

Definizione 1. Una variabile aleatoria Y si dice valore atteso condi- zionato di X data F , E[X|F] := Y , se:

1. Y `e F -misurabile.

2. Per ogni A ∈ F vale E[X 1A] = E[Y 1A]

Definizione 2. Una famiglia F ⊂ L1 si dice uniformemente integrabile se:

inf

0≤g∈L1sup

f ∈F

Z

{|f |>g}

|f |dµ = 0 o equivalentemente se:

lim

µ(E)→0sup

i∈I

Z

E

|fi|dµ = 0

(13)

Definizione 3. Sia (Ω, F , P) uno spazio di probabilit`a, X una variabile aleatoria a valori reali. Se G ⊂ F sono due σ-algebre, allora vale la propriet`a della torre:

E

EX | G

F = E X G

Teorema (Disuguaglianza di Jensen) Sia (Ω, F , P) uno spazio di pro- babilit`a, X una variabile aleatoria a valori reali tale che X ∈ L1 e sia ϕ una funzione convessa tale che anche ϕ(X) abbia valore atteso. Allora:

ϕ(E[X]) ≤ E[ϕ(X)]

Procediamo alla risoluzione dell’ esercizio: nello spazio di probabilit`a (Ω, F , P) consideriamo {Gi}i∈I ⊂ F la famiglia di sotto σ-algebre di F e inoltre po- niamo {Xi:= EY |Gi}i∈I.Dalla disuguaglianza di Jensen e dalla propriet`a di torre segue che ∀i ∈ I:

E|Xi| = E| EY | Gi | ≤ E E|Y | | Gi | F = E |Y | | Gi ≤ E|Y | < +∞

quindi anche Xi∈ L1 ∀i ∈ I.

Ora dimostriamo l’uniforme integrabilit`a di {Xi}i∈I, considero δ > 0 e pongo Ai,δ := {|Xi| > δ}. Prima di tutto osservo che poich`e per definizione Xi `e Gi-misurabile allora Ai,δ ∈ Gi, inoltre sempre dalla disuguaglianza di Jensen e dalla definizione di valore atteso condizionato segue che:

E |Xi| 1Ai,δ

= E

EY | Gi 1Ai,δ



≤ E

E | Y |

Gi 1Ai,δ = E |Y | 1Ai,δ = Z

Ai,δ

|Y | dP.

Poich`e Xi`e integrabile ∀i ∈ I e l’insieme Ai,δ tende ad un insieme di misura nulla per δ → +∞, abbiamo che

δ→+∞lim sup

i∈I

Z

Ai,δ

|Xi| dP ≤ lim

δ→+∞

Z

Ai,δ

|Y | dP = 0 da cui segue la tesi.

(14)

Esercizio 10. [PASCAL]

Siano X e Y variabili aleatorie indipendenti e identicamente distribuite a media finita. Mostrare che

E(X|X + Y ) = X + Y 2 Soluzione

Dato che X e Y sono variabili aleatorie i.i.d. a media finita, possiamo dire per simmetria che

E(X|X + Y ) = E(Y |X + Y ) Quindi otteniamo che:

E(X|X +Y ) = 1

2(E(X|X +Y )+E(Y |X +Y )) = 1

2E(X +Y |X +Y ) = X + Y 2

Esercizio 11. [BOREL]

Supponiamo che X1, X2 siano variabili aleatorie indipendenti con distri- buzione esponenziale di parametro 1. Trovare

a) P [X1 < 3 | X1+ X2 = t];

b) E (X1| X1∧ t);

c) E (X1| X1∨ t).

Soluzione

Essendo X1, X2 variabili aleatorie indipendenti con distribuzione esponen- ziale di parametro 1, abbiamo:

fX1,X2(x1, x2) = fX1(x1)fX2(x2) fX1(x) = fX2(x) = e−xI[x>0]

con fX1(x) e fX2(x) che sono rispettivamente la densit`a di X1 e la densit`a di X2, e fX1,X2 `e la densit`a congiunta di X1 e X2.

1. Nel primo punto dobbiamo trovare P [X1 < 3 | X1+ X2 = t] ∀t ∈ R.

Calcoliamo innanzitutto fX1,X1+X2(x, z):

P [X1 ≤ x, X1+ X2≤ z] = Z x

−∞

dx1 Z z−x1

−∞

dx2fX1,X2(x1, x2) =

= Z x

−∞

dx1 Z z

−∞

dy fX1(x1)fX2(y − x1) con y = x1+ x2.

(15)

Perci`o abbiamo:

fX1,X1+X2(x, z) = ∂2

∂x∂zP [X1≤ x, X1+X2 ≤ z] = fX1(x)fX2(z −x) =

= e−zI[0<x<z]

da cui:

fX1+X2(z) = Z

dx fX1,X1+X2(x, z) = Z

dx fX1(x)fX2(z − x) =

= Z

dx e−z+xI[x<z]e−xI[x>0]=

(0 z < 0

Rz

0 dx e−z= ze−z z ≥ 0 Ha senso calcolare P [X1 < 3 | X1+ X2 = t] se e solo se fX1+X2(t) > 0, ovvero per t > 0. In tal caso, dalla teoria segue che:

P [X1< 3 | X1+ X2 = t] = Z 3

−∞

dx1fX1(x1|X1+ X2 = t) =

= Z 3

−∞

dx1

fX1,X1+X2(x1, t) fX1+X2(t) =

Z min{3,t}

0

dx1

e−t

ze−t = min{3, t}

t e dunque:

P [X1 < 3 | X1+ X2 = t] = min{3, X1+ X2} X1+ X2

2. Nel secondo punto dobbiamo calcolare E(X1| X1∧ t = s) ∀s ∈ R. A questo scopo vediamo i vari casi:

• Se s < t, X1∧ t = s se e solo se X1 = s e dunque:

E(X1| X1∧ t = s) = E(X1| X1= s) = s.

• Se s > t, X1∧ t = s ha probabilit`a nulla.

• Se s = t, X1∧ t = t se e solo se X1 ≥ t e quindi:

E(X1| X1∧ t = t) = E(X1| X1 ≥ t) = R

t dx1fx1(x1)x1 P (X1 ≥ t) =

R

0 dx1x1e−x1 R

0 dx1e−x1 = 1 t < 0

R

t dx1x1e−x1 R

t dx1x1e−x1 = te−te−t+e−t = 1 + t t ≥ 0 Perci`o, E(X1| X1∧ t) =

(1 + t X1 ≥ t X1 X1 < t

(16)

3. Infine, nel terzo punto dobbiamo calcolare E(X1| X1∨ t = s) ∀s ∈ R.

A questo scopo vediamo i vari casi:

• Se s < t, X1∨ t = s ha probabilit`a nulla.

• Se s > t, X1∨ t = s se e solo se X1 = s e dunque:

E(X1| X1∨ t = s) = E(X1| X1= s) = s.

• Se s = t, X1∨ t = t se e solo se X1 ≤ t e quindi:

E(X1| X1∨ t = t) = E(X1| X1 ≤ t).

Se t ≤ 0, l’evento X1 ≤ t ha probabilit`a nulla. Se invece t > 0, abbiamo:

E(X1| X1≤ t) = Rt

0 dx1fx1(x1)x1 P (X1≤ t) =

Rt

0dx1x1e−x1 Rt

0 dx1e−x1 =

= 1 − t et− 1 Perci`o, E(X1| X1∨ t) =

(X1 X1 > t 1 −ett−1 X1 ≤ t.

Esercizio 12. (Chebyshev condizionale) [LYAPUNOV]

Mostrare che per t > 0 si ha

P(|X| ≥ t | F ) ≤ t−2E X2 | F . Soluzione

Prendiamo t > 0 e sia 1|X|≥tla funzione indicatrice di |X|, allora banalmente t1|X|≥t≤ |X|

Elevo il primo e il secondo membro al quadrato t2(1|X|≥t)2 ≤ (|X|)2 = X2 si osserva che

(1|X|≥t)2= 1|X|≥t

Nel passo successivo si utilizzano le propriet`a di linearit`a e di monotonia del valore atteso condizionato

t2E 1|X|≥t| F ≤ E X2 | F da cui segue

P(|X| ≥ t | F ) ≤ t−2E X2 | F

(17)

Esercizio 13. [FISHER]

Supponiamo che X, Y siano variabili aleatorie con momento secondo finito tali che per qualche funzione decrescente f si ha E(X | Y ) = f (Y ). Mostrare che Cov(X, Y ) ≤ 0.

Soluzione

Se X,Y sono variabili aleatorie con momento secondo finito allora, poich´e

|XY | ≤ X2+ Y2, il loro prodotto XY avr`a momento finito.

La definizione di covarianza

Cov(X, Y ) = E (X − E(X))(Y − E(Y )) equivale quindi alla scrittura

Cov(X, Y ) = E(XY ) − E(X)E(Y ).

Il valore atteso di X pu`o essere riscritto come

E X = E E(X|Y ) = E f (Y ),

Inoltre poich´e data una sigma algebra G, per ogni variabile aleatoria Y che sia G-misurabile, vale la seguente uguaglianza

E XY |G = Y E X|G.

Allora il valore atteso di XY , avendo definito G = σ(Y ), pu`o essere riscritto come

E XY = E E XY |G = E Y E X|G = E Y E X|Y  = E Y f (Y ).

Quindi

Cov(X, Y ) = E Y f (Y )) − E YE f (Y ) = Cov Y, f (Y ).

Per concludere la dimostrazione si consideri la variabile aleatoria Y0 copia indipendente di Y .

Poich´e la funzione f `e monotona decrescente, consideriamo due diversi casi per i valori assunti da Y, Y0:

• Se Y ≥ Y0 allora f (Y ) ≤ f (Y0) e quindi (Y − Y0)(f (Y ) − f (Y0)) ≤ 0

• Viceversa se Y0 > Y allora f (Y0) ≤ f (Y ) e quindi (Y − Y0)(f (Y ) − f (Y0)) ≤ 0

(18)

Dunque `e sempre verificata la disuguaglianza (Y − Y0)(f (Y ) − f (Y0)) ≤ 0.

e quindi vale

E (Y − Y0)(f (Y ) − f (Y0)) ≤ 0.

Notiamo ora che

E (Y − Y0)(f (Y ) − f (Y0)) = E Y f (Y ) − Y0f (Y ) − Y f (Y0) + Y0f (Y0)

= E Y f (Y ) − E Y0f (Y ) − E Y f (Y0) + E Y0f (Y0) e poich´e Y, Y0 hanno la stessa distribuzione, allora

E Y ) = E Y0), E f (Y ) = E f (Y0), E Y f (Y ) = E Y0f (Y0).

Inoltre poich´e Y, Y0 sono variabili aleatorie indipendenti, allora E Y f (Y0) = E Y E f (Y0) = E Y E f (Y ), E Y0f (Y ) = E Y0E f (Y ) = E Y E f (Y ).

Quindi

0 ≥ E (Y − Y0)(f (Y ) − f (Y0)) = 2E Y f (Y ) − 2E Y E f (Y )

= 2Cov Y, f (Y ) La tesi `e dunque dimostrata, infatti

Cov X, Y = Cov Y, f (Y ) ≤ 0.

Esercizio 14. [FELLER]

Dimostrare le seguenti proposizioni:

• (convergenza monotona condizionale) Se 0 ≤ Xn ≤ Xn+1, q.c., per ogni n ∈ N and Xn→ X ∈ L1, q.c., allora

E [Xn| G] % E[X | G], q.c.

• (lemma di Fatou condizionale) Se Xn ≥ 0, q.c., per ogni n ∈ N, e lim infnXn∈ L1, allora

E h

lim inf

n X | G i

≤ lim inf

n E [Xn| G] , q.c.

(19)

• (convergenza dominata condizionale) Se esiste Z ∈ L1 tale che |Xn| ≤ Z per ogni n ∈ N e se Xn→ X, q.c., allora

E [Xn| G] → E[X | G], q.c. e in L1 Soluzione

• (convergenza monotona condizionale)

Chiamiamo Z = limn→∞E [Xn| G] = supnE [Xn| G]. Allora Z ≥ 0, inoltre Z ´e G-misurabile perch´e limite di funzioni G-misurabili. Fissia- mo un evento A ∈ G e, data la monotonia delle Xn, (E [Xn| G] 1A)

´e una successione monotona che converge a Z1A q.c, dal teorema di Beppo-Levi otteniamo che

E [Z1A] = E h

limn E [Xn| G] 1Ai

= lim

n E [E [Xn| G] 1A] ricordando che E [E [Xn| G] 1A] = E [Xn1A]

E [Z1A] = lim

n E [Xn1A] = E [X1A] da cui la tesi vista l’arbitrariet`a dell’evento A.

• (lemma di Fatou condizionale)

Sappiamo che per definizione lim infnXn= supn(infm≥nXm) poniamo Yn= infm≥nXm e Z = lim infnXn, cos´ı da poter scrivere

E [Z | G] = E

 sup

n

Yn| G



da cui applicando la convergenza monotona condizionale E [Z | G] = E

 sup

n

Yn| G



= lim

n E [Yn| G]

e poich´e Yn ≤ Xn per monotonia E [Yn| G] ≤ E [Xn| G] e quindi otteniamo la tesi

E [Z | G] = lim

n E [Yn| G] ≤ lim inf

n E [Xn| G]

• (convergenza dominata condizionale)

Per provare la convergenza quasi certa applichiamo il lemma di Fatou alle successioni (Xn+ Z) e (−Xn+ Z) che risultano entrambe positive per l’ipotesi |Xn| ≤ Z.

Dalla prima successione otteniamo lim inf

n E [Xn+ Z | G] ≥ E h

lim inf

n (Xn+ Z) | G i

(20)

lim inf

n E [Xn| G]+E [Z | G] ≥ Eh lim inf

n Xn| Gi

+E [Z | G] = E [X | G]+E [Z | G]

da cui dato E [Z | G] < ∞ lim inf

n E [Xn| G] ≥ E [X | G] (1)

Applicando il lemma alla seconda successione arriviamo alla disugua- glianza

lim inf

n −E [Xn| G] ≥ −E [X | G]

ovvero

− lim sup

n

E [Xn| G] ≥ −E [X | G]

lim sup

n

E [Xn| G] ≤ E [X | G] (2) e unendo le due formule (1) e (2)

lim sup

n

E [Xn| G] ≤ E [X | G] ≤ lim inf

n E [Xn| G]

cio´e

limn E [Xn| G] = E [X | G] q.c.

Per provare la convergenza in L1 usiamo il teorema di convergenza dominata infatti, sappiamo che per monotonia e grazie alla disugua- glianza triangolare

| E [Xn| G] |≤ E [|Xn| | G] ≤ E [Z | G] ∈ L1

e dal punto precedente che limnE [Xn| G] = E [X | G] q.c , quindi E [| E [Xn| G] − E [X | G] |] → 0.

Esercizio 15. [LEVY]

Consideriamo una successione di variabili aleatorie indipendenti {Zn} ognu- na con media finita. Siano X0 = a e Xn = a + Z1+ . . . + Zn for n ≥ 1.

Mostrare che

E (Xn+1| X0, X1, . . . , Xn) = Xn+ E (Zn+1) . Soluzione

Basta riscrivere in modo opportuno le Xn e usare la linearit`a del valore at- teso.

E(Xn+1|X0, X1, ..., Xn) = E(Xn+ Zn+1|X0, X1, ..., Xn) =

= E(Xn|X0, X1, ..., Xn) + E(Zn+1|X0, X1, ..., Xn) =

= Xn+ E(Zn+1|a, a + Z1, ..., a + Z1+ ... + Zn) =

= Xn+ E(Zn+1|a, Z1, ..., Zn) =

= Xn+ E(Zn+1).

(3)

(21)

Nell’ultima uguaglianza abbiamo usato la seguente propriet`a: data F σ- algebra e Y v.a, se σ(Y ) ed F sono indipendenti allora E(Y |F ) = E(Y ).

Nel nostro caso Y = Zn+1 ed F = σ(a, Z1, ..., Zn). Se consideriamo, infatti, σ(Zn+1) e F , queste sono indipendenti in quanto le Zi sono indipendenti ∀i.

Riferimenti

Documenti correlati

Calcolare il numero medio di minuti d’attesa e la varianza di X.. Disegnare il boxplot relativo alla

Ciascun uovo deposto si schiude con probabilità p ∈ (0, 1), indipendentemente dal numero di uova deposte e dal fatto che le altre

(b) Detto X il punteggio ottenuto in un lancio da Isacco quando è riposato, si determini la legge di X e se ne calcoli il valor medio. (c) Quando Isacco è stanco, manca il bersaglio

Sia (Ω, A, P) uno spazio di probabilità... è una σ-algebra

(h) coppia (2 carte dello stesso tipo, le altre 3 arbitrarie, ma tali da non produrre un tris né un poker né un full)?.

(h) coppia (= 2 carte di uno stesso tipo, le altre 3 arbitrarie, ma tali da non produrre un tris né un poker né un full)?.

Ciascun uovo deposto si schiude con probabilità p ∈ (0, 1), indipendentemente dal numero di uova deposte e dal fatto che le altre si schiudano.. Queste relazioni possono essere

[r]