Esercizi di Istituzioni di Probabilit`a a.a. 2020-2021 nono foglio di esercizi
M. Isopi
Esercizio 1. (paradosso di Borel-Kolmogorov) [BERNOULLI]
Un punto viene scelto uniformemente su una sfera di raggio unitario. Chia- miamo Θ e Φ la latitudine e la longitudine. Trovare la densit`a condizionata di Θ dato Φ e di Φ dato Θ.
Soluzione
Consideriamo sulla sfera unitaria la misura di probabilit`a uniforme, ovvero se B ⊆ ∂B1(0):
P(B) = 1 4π
Z
∂B1(0)
χB dS
Ricordiamo innanzitutto che date due variabili aleatorie reali X, Y con distribuzione congiunta
P((X, Y ) ∈ A) = Z
A
f (x, y) dxdy Allora si ha:
P(Y ∈ B | X = x) = 1 fX(x)
Z
B
f (x, y) dy dove fX(x) =R
Rf (x, y)dy.
Nel nostro caso la distribuzione congiunta di Θ e Φ `e data (tramite un cambio di variabili) da:
P((Θ, Φ) ∈ A) = 1 4π
Z
A
sin(φ)χ[0,2π]×[0,π]dθdφ Da cui:
f (θ, φ) = 1
4π sin(φ)χ[0,2π]×[0,π]
fΘ(θ) = 1 4π
Z π 0
sin(φ) dφ = 1 2π fΦ(φ) = 1
4π Z 2π
0
sin(φ) d = sin(φ) 2 Se 0 ≤ θ ≤ 2π e 0 ≤ φ ≤ π:
P(Θ ≤ θ | Φ = φ) = 1 2π sin(φ)
Z θ
0
sin(φ) dθ = 1 2πθ
P(Φ ≤ φ | Θ = θ) = 1 2
Z φ 0
sin(τ ) dτ = 1 − cos(φ) 2
Si deduce quindi che la densit`a condizionata di Θ dato Φ `e 2π1 , ovvero quella uniforme. D’altra parte la densit`a di Φ dato Θ `e 12sin(φ) e quindi, individuata la longitudine di un punto, `e pi`u probabile che questo sia vicino all’equatore.
Esercizio 2. [DE FINETTI]
Trovare densit`a e attesa condizionata di Y data X quando a) f (x, y) = λ2e−λy per 0 ≤ x ≤ y < ∞;
b) f (x, y) = xe−x(y+1) per x, y ≥ 0.
Soluzione
Per prima cosa diamo la definizione di densit`a condizionata di Y data X fY |X(y | x) = f (x, y)
fX(x) per ogni x tale che fX(x) > 0.
In generale
fX(x) =
+∞
Z
−∞
f (x, y)dy .
Nel caso a) si avr`a
fX(x) =
∞
Z
x
λ2e−λydy = λ2
∞
Z
x
e−λydy = λe−λx .
Quindi la densit`a condizionata sar`a data da fY |X(y | x) = λ2e−λy
λe−λx = λe−λ(y−x) .
Definiamo adesso il valore atteso condizionato di Y data X come segue E(Y |X) = φ(X)
dove
φ(x) = E(Y |X = x) =
+∞
Z
−∞
yfY |X(y|x) =
sostituendo si avr`a
=
∞
Z
x
λye−λ(y−x)dy =
= eλx
∞
Z
x
λye−λydy =
e integrando per parti si ottiene
= eλx
xe−λx+
∞
Z
x
e−λydy
=
= eλx
xe−λx+ 1 λe−λx
=
= x + 1 λ . Per il caso b) si procede in modo analogo
fX(x) =
∞
Z
0
xe−x(y+1)dy =
effettuiamo un cambio di variabile ponendo z = y + 1
=
∞
Z
1
xe−zxdz =
= x
∞
Z
1
e−zxdz = e−x .
Quindi
fY |X(y | x) = xe−x(y+1)
e−x = xe−xy . Mentre il valore atteso sar`a dato da
φ(x) = E(Y |X = x) =
∞
Z
0
xye−xydy =
= x
∞
Z
0
ye−xydy =
ed integrando per parti si ottiene
x
∞
Z
0
1
xye−xydy =
x x
∞
Z
0
e−xydy = 1 x .
Esercizio 3. [GAUSS]
X e Y hanno densit`a congiunta f (x, y) = cx(y −x)e−y per 0 ≤ x ≤ y < ∞.
a) Trovare c.
b) Calcolare fX|Y(x | y), la densit`a condizionata di X data Y e fY |X(y | x).
c) Calcolare E(X|Y ) e E(Y |X).
Soluzione
a) Per trovare c non dobbiamo far altro che normalizzare la nostra distri- buzione di probabilit`a fX,Y(x, y), pertanto imponiamo che l’integrale su tutto lo spazio di definizione della della distribuzione eguagli 1. In calcoli:
1 = Z ∞
0
Z y 0
cx(y − x)e−ydx dy = c Z ∞
0
Z y 0
xye−y− x2e−ydx dy = c
Z ∞ 0
x2 2 y −x3
3
y
0
e−ydy = c Z ∞
0
y2 2 y − y3
3
e−ydy = c 6
Z ∞ 0
y3e−ydy = c
6
−y3e−y
∞
0
+ Z ∞
0
3y2e−ydy
= c 6
−y3e−y− 3y2e−y
∞
0
+ Z ∞
0
6ye−ydy
= c
6
−y3e−y− 3y2e−y− 6ye−y
∞
0
+ Z ∞
0
6e−ydy
= c
6
−y3e−y− 3y2e−y− 6ye−y− 6e−y
∞
0
= c 66 Quindi otteniamo c = 1
b) Tramite la formula di Bayes, si ottiene che fX|Y(x|y) = f (x,y)f
Y(y) e fY |X(y|x) =
f (x,y)
fX(x), dove ovviamente fY(y) e fX(x) sono le densit`a marginali in Y e X. Procediamo ora con il calcolo delle distribuzioni marginali:
fY(y) = Z y
0
fX,Y(x, y) dx = Z y
0
x(y−x)e−ydx = x2y 2 −x3
3
e−y
y
0
= 1 6y3e−y Allo stesso modo calcoliamo quella di X
fX(x) = Z ∞
x
fX,Y dy = Z ∞
x
x(y − x)e−ydy = x Z ∞
x
ye−y− xe−ydy =
= x(−ye−y− e−y+ xe−y)
∞
x = xe−x
Ora possiamo passare a calcolare le densit`a condizionate:
fX|Y(x|y) = f (x, y)
fY(y) = 6x(y − x)e−y
y3e−y = 6x(y − x) y3 e
fY |X(y|x) = f (x, y)
fX(x) = x(y − x)e−y
xe−x = (y − x)ex−y c) Usando la definizione di valore atteso condizionato si ha che
E(X|Y ) = Z
X(ω) dP(d(ω)|Y ) Quindi
E(X|Y ) = Z y
0
xfX|Y(x|y) = 6 Z y
0
x2(y − x)
y3 dx = 6 y3
x3y 3 −x4
4
y
0
= 6y3
y3
y 3 −y
4
= 2y − 3 2y = 1
2y Allo stesso modo
E(Y |X) = Z
Y (ω) dP(d(ω)|X) = Z ∞
x
yfX|Y(y|x) = Z ∞
x
(y2− yx)ex−ydy =
= − (y2− yx)ex−y
∞ x +
Z ∞ x
(2y − x)ex−ydy =
= (−(y2− yx)ex−y− (2y − x)ex−y
∞ x ) +
Z ∞ x
2ex−ydy =
= − (y2− yx)ex−y− (2y − x)ex−y− 2ex−y
∞ x =
= (−y2e−y+ yxe−y− 2ye−y+ xe−y− 2e−y)ex
∞ x =
= (x2e−x− x2e−x+ 2xe−x− xe−x+ 2e−x)ex = 2 + x
Esercizio 4. [DOOB]
Costruire un esempio di due variabili aleatorie X e Y in modo che E(Y ) = +∞, ma E(Y |X) < +∞ quasi certamente.
Soluzione
Consideriamo le variabili aleatorie indipendenti Z ∼ N (0, 1), normale stan- dard, e X ∼ χ2(1), chi quadro ad un grado di libert`a.
Definendo ora la variabile aleatoria Y :=√ 1√Z
X = √Z
X, osserviamo che que- sta `e una t di Student ad un grado di libert`a.
Per calcolare il valore atteso di Y ∼ t(1), ricordiamo che la densit`a di una t di Student ad n gradi di libert`a `e:
ft(n)= 1
√nπ
Γ(n+12 ) Γ(n2)
1 +x2
n
−n+12
1(x > 0) con Γ(·) funzione Gamma di Eulero.
Pertanto per n = 1
ft(1) = 1
√π Γ(1)
Γ(12) 1 + x2−1
1(x > 0)
Ricordando che Γ(1) = 1 e Γ(12) =√
π otteniamo ft(1)= 1
π
1
1 + x2
1(x > 0)
E(Y ) = Z ∞
0
1 π
x
1 + x2
dx = ∞ Calcoliamo ora la probabilit`a condizionata
P(Y |X) = P
Z
√
X = y|X = x
= P Z
√x = y
= P Z = y√ x Osserviamo che il condizionamento pu`o essere ignorato per l’indipendenza di Z e X e per la definizione della variabile t di Student.
Il valore atteso condizionato sar`a E(Y |X) =
Z ∞
0 y · P(Y = y|X = x)dy = Z ∞
0 y · P Z = y√
x dy =
= Z ∞
0
y · 1
√2πe−12y2xdy = − 1 x√
2π Z ∞
0
(−xy)e−12y2xdy =
= − 1 x√
2π h
e−12y2x i∞
0 = 1
x√ 2π
Abbiamo duque trovato due variabili aleatorie per cui vale E(Y ) = +∞ e E(Y |X) < ∞.
Nota: dyde−12y2x = −12x2ye−12y2x = −xye−12y2x
Esercizio 5. [LAPLACE]
Supponiamo che X sia una variabile aleatoria G-misurabile. Dimostrare che Var(X|G) = 0.
Soluzione
Poich´e X ´e una variabile aleatoria G-misurabile allora per unicit`a E(X|G) = X. Otteniamo quindi, per definizione di varianza condizionata
Var(X|G) = E (X − E(X|G))2|G = E (X − X)2|G = 0
Esercizio 6. [DE MOIVRE]
Dimostrare le seguenti disuguaglianze:
a) E (|X + Y |r|G) ≤ cr(E (|X|r|G) + E (|Y |r|G))
con cr= 1 quando r ≤ 1 e cr= 2r−1 quando r ≥ 1 b) (H¨older condizionale)
|E(XY |G)| ≤ E(|XY ||G) ≤ k(X|G)kp· k(Y |G)kq con 1p +1q = 1
c) (Lyapounov condizionale)
k(X|G)kr≤ k(X|G)kp per 0 < r ≤ p d) (Minkowski condizionale)
k((X + Y )|G)kp ≤ k(X|G)kp+ k(Y |G)kp per p ≥ 1 Soluzione
a) Consideriamo il caso r ∈ (0, 1]. Se z ∈ (0, 1) si ha che √r
z ≤ z quindi
xr xr+ yr
1r
≤
xr xr+ yr
=⇒
xr xr+ yr
1r +
yr xr+ yr
r1
≤ xr+ yr xr+ yr = 1
=⇒ x + y ≤ (xr+ yr)1r =⇒ (x + y)r ≤ xr+ yr Otteniamo che
E(|X + Y |r|G) ≤ E((|X| + |Y |)r|G) ≤ E(|X|r|G) + E(|Y |r|G) Se r ≥ 1
x + y 2
≤ 1
2|x|r+1
2|y|r=⇒ |x + y|r≤ 2r−1(|x|r+ |y|r) Questo fatto `e vero perch´e f (z) = |z|r ´e convessa. Quindi per defini- zione
f (λx + (1 − λ)y) ≤ λf (x) + (1 − λ)f (y) con λ = 12.
Quindi
E(|X+Y |r|G) ≤ E(2r−1(|X|r+|Y |r)|G) = 2r−1[E(|X|r|G)+E(|Y |r|G)].
b) Per la prima disequazione usiamo la definizione di valore atteso E(Z|A) =
Z
Z(w)dP (w|A)
|E(XY |G)| = Z
(XY )(w)dP (w|G)
≤ Z
|(XY )|(w)dP (w|G) = E(|XY | |G) Per la seconda disequazione usiamo la disuguaglianza di Holder per le
funzioni f ∈ Lp(Ω) e g ∈ Lq(Ω) :
||f g||1 ≤ ||f ||p||g||q quando 1p +1q = 1. Otteniamo:
E(|XY | |G) = ||XY |G||1 = Z
|XY |(w)dP (w|G) ≤
Z
|X(w)|pdP (w|G)
1pZ
|Y (w)|qdP (w|G)
1q
= ||X|G||p||Y |G||q.
c)
||(X|G)||rr=
Z
|Xr(w)|dP (w|G)
= E(|Xr· 1| |G) ≤ ||Xr|G||p0||1|G||q0 ≤
||Xr|G||p0 =
Z
|X(w)|rp0dP (w|G)
1
p0
Avendo usato il punto b) nella prima disuguaglianza e avendo preso p0 e q0 t.c. p10 +q10 = 1. Si ha:
Z
|Xr(w)|dP (w|G)
1r
≤
Z
|X(w)|rp0dP (w|G)
1
p0 1 r
Considero p > r e scelgo p0 = pr e q0 = r−pr . Abbiamo che
||X|G||r≤ ||X|G||p. d)
||(X + Y )|G||pp = Z
|X + Y |p(w)dP (w|G) = E(|X + Y |p|G) =
E(|X + Y |p−1|X + Y | |G) ≤ E(|X + Y |p−1|X| |G) + E(|X + Y |p−1|Y | |G) Applicando il punto b) e prendendo q tale che 1p +1q = 1 :
≤ |||X + Y |p−1|G|q||X|G||p+ |||X + Y |p−1|G||q||Y |G||p= (|||X + Y ||p−1|G||q)(||X|G||p+ ||Y |G||p)
Osserviamo che 1p +1q = 1 =⇒ q(p − 1) = p e che
|||X + Y |p−1|G||q =
Z
|X + Y |(p−1)qdP (w|G)
1q
=
Z
|X + Y |pdP (w|G)
1ppq
= ||(X + Y )|G||
p
pq
otteniamo quindi
||(X + Y )|G||pp≤ ||(X + Y )|G||
p q
p(||X|G||p+ ||Y |G||p) Dividendo per ||(X + Y )|G||
p q
p otteniamo la tesi.
Esercizio 7. [BONFERRONI]
Sia ϕ una funzione convessa e X una variabile aleatoria con E(X) < ∞ e E(ϕ(X)) < ∞.
a) Mostrare che ϕ(E(X|F )) ≤ E(ϕ(X)|F )
b) Mostrare che l’attesa condizionata `e una contrazione in Lp.
Soluzione
a) Se una funzione ψ `e convessa in (a, b), per ogni x0∈ (a, b) esiste un c > 0 tale che la seguente uguaglianza `e verificata per ogni x ∈ (a, b):
ψ(x) ≥ ψ(x0) + c(x − x0)
Nel nostro caso ϕ `e convessa in R, per cui possiamo sostituire ad x una variabile aleatoria X ed ottenere la seguente disuguaglianza di variabili aleatorie:
ϕ(X) ≥ ϕ(x0) + c(X − x0)
Calcoliamo l’attesa condizionata a F di entrambi i membri; abbiamo un’altra disuguaglianza di variabili aleatorie, che ora guardiamo localmente: per ogni ω ∈ Ω e per ogni x0 > 0 esiste c > 0 tale che
E(ϕ(X)|F )(ω) ≥ ϕ(x0) + c[E(X|F )(ω) − x0]
Concludiamo prendendo x0= E(X|F )(ω) e guardando la disuguaglianza di nuovo globalmente.
b) Un operatore lineare e continuo T tra spazi normati `e detto contrazione se la sua norma `e al pi`u 1. Nel nostro caso T (X) = E(X|F ); poich ˜A c ϕ(x) = |x|p `e convessa in R, possiamo sfruttare il punto (a):
|(E(X|F )|p ≤ E(|X|p|F )
da cui, calcolando l’attesa di entrambi i membri, abbiamo che E |(E(X|F )|p ≤ E E(|X|p|F )
Il membro di sinistra equivale a ||E(X|F )||pLp. Inoltre, calcolare l’attesa si- gnifica svolgere l’integrale su Ω, che appartiene alla σ-algebra F , dunque il membro di destra equivale a E(|X|p) = ||X||pLp per la propriet`a sulle medie che definisce l’attesa condizionata. Prendendo la radice p-esima di entrambi i membri si ha la seguente disuguaglianza:
||T (X)||Lp = ||E(X|F )||Lp ≤ ||X||Lp Ci`o `e vero per ogni variabile aleatoria X, quindi ||T || ≤ 1.
Esercizio 8. [CANTELLI]
Sia Y una variabile aleatoria integrabile. Mostrare che {E(Y |G) : G `e una sotto- σ -algebra di F }
`e uniformemente integrabile.
Soluzione
Prima di procedere alla risoluzione dell’esercizio ricordiamo alcune nozioni:
Definizione 1. Una variabile aleatoria Y si dice valore atteso condi- zionato di X data F , E[X|F] := Y , se:
1. Y `e F -misurabile.
2. Per ogni A ∈ F vale E[X 1A] = E[Y 1A]
Definizione2. Una famiglia F ⊂ L1 si dice uniformemente integrabile se:
inf
0≤g∈L1sup
f ∈F
Z
{|f |>g}
|f |dµ = 0 o equivalentemente se:
lim
µ(E)→0sup
i∈I
Z
E
|fi|dµ = 0
Definizione 3. Sia (Ω, F , P) uno spazio di probabilit`a, X una variabile aleatoria a valori reali. Se G ⊂ F sono due σ-algebre, allora vale la propriet`a della torre:
E
EX | G
F = E X G
Teorema (Disuguaglianza di Jensen) Sia (Ω, F , P) uno spazio di pro- babilit`a, X una variabile aleatoria a valori reali tale che X ∈ L1 e sia ϕ una funzione convessa tale che anche ϕ(X) abbia valore atteso. Allora:
ϕ(E[X]) ≤ E[ϕ(X)]
Procediamo alla risoluzione dell’ esercizio: nello spazio di probabilit`a (Ω, F , P) consideriamo {Gi}i∈I ⊂ F la famiglia di sotto σ-algebre di F e inoltre po- niamo {Xi:= EY |Gi}i∈I.Dalla disuguaglianza di Jensen e dalla propriet`a di torre segue che ∀i ∈ I:
E|Xi| = E| EY | Gi | ≤ E E|Y | | Gi | F = E |Y | | Gi ≤ E|Y | < +∞
quindi anche Xi∈ L1 ∀i ∈ I.
Ora dimostriamo l’uniforme integrabilit`a di {Xi}i∈I, considero δ > 0 e pongo Ai,δ := {|Xi| > δ}. Prima di tutto osservo che poich`e per definizione Xi `e Gi-misurabile allora Ai,δ ∈ Gi, inoltre sempre dalla disuguaglianza di Jensen e dalla definizione di valore atteso condizionato segue che:
E |Xi| 1Ai,δ
= E
EY | Gi 1Ai,δ
≤ E
E | Y |
Gi 1Ai,δ = E |Y | 1Ai,δ = Z
Ai,δ
|Y | dP.
Poich`e Xi`e integrabile ∀i ∈ I e l’insieme Ai,δ tende ad un insieme di misura nulla per δ → +∞, abbiamo che
δ→+∞lim sup
i∈I
Z
Ai,δ
|Xi| dP ≤ lim
δ→+∞
Z
Ai,δ
|Y | dP = 0 da cui segue la tesi.
Esercizio 9. [KOLMOGOROV]
Siano X e Y variabili aleatorie indipendenti a media nulla.
a) Mostrare che E|X| ≤ E|X + Y |.
b) Supponiamo inoltre che E|X|r< ∞ e che E|Y |r< ∞ per qualche r > 1.
Mostrare che E|X|r ≤ E|X + Y |r. Soluzione
Prima di procedere alla risoluzione dell’esercizio ricordiamo alcune nozioni:
Definizione 1. Una variabile aleatoria Y si dice valore atteso condi- zionato di X data F , E[X|F] := Y , se:
1. Y `e F -misurabile.
2. Per ogni A ∈ F vale E[X 1A] = E[Y 1A]
Definizione 2. Una famiglia F ⊂ L1 si dice uniformemente integrabile se:
inf
0≤g∈L1sup
f ∈F
Z
{|f |>g}
|f |dµ = 0 o equivalentemente se:
lim
µ(E)→0sup
i∈I
Z
E
|fi|dµ = 0
Definizione 3. Sia (Ω, F , P) uno spazio di probabilit`a, X una variabile aleatoria a valori reali. Se G ⊂ F sono due σ-algebre, allora vale la propriet`a della torre:
E
EX | G
F = E X G
Teorema (Disuguaglianza di Jensen) Sia (Ω, F , P) uno spazio di pro- babilit`a, X una variabile aleatoria a valori reali tale che X ∈ L1 e sia ϕ una funzione convessa tale che anche ϕ(X) abbia valore atteso. Allora:
ϕ(E[X]) ≤ E[ϕ(X)]
Procediamo alla risoluzione dell’ esercizio: nello spazio di probabilit`a (Ω, F , P) consideriamo {Gi}i∈I ⊂ F la famiglia di sotto σ-algebre di F e inoltre po- niamo {Xi:= EY |Gi}i∈I.Dalla disuguaglianza di Jensen e dalla propriet`a di torre segue che ∀i ∈ I:
E|Xi| = E| EY | Gi | ≤ E E|Y | | Gi | F = E |Y | | Gi ≤ E|Y | < +∞
quindi anche Xi∈ L1 ∀i ∈ I.
Ora dimostriamo l’uniforme integrabilit`a di {Xi}i∈I, considero δ > 0 e pongo Ai,δ := {|Xi| > δ}. Prima di tutto osservo che poich`e per definizione Xi `e Gi-misurabile allora Ai,δ ∈ Gi, inoltre sempre dalla disuguaglianza di Jensen e dalla definizione di valore atteso condizionato segue che:
E |Xi| 1Ai,δ
= E
EY | Gi 1Ai,δ
≤ E
E | Y |
Gi 1Ai,δ = E |Y | 1Ai,δ = Z
Ai,δ
|Y | dP.
Poich`e Xi`e integrabile ∀i ∈ I e l’insieme Ai,δ tende ad un insieme di misura nulla per δ → +∞, abbiamo che
δ→+∞lim sup
i∈I
Z
Ai,δ
|Xi| dP ≤ lim
δ→+∞
Z
Ai,δ
|Y | dP = 0 da cui segue la tesi.
Esercizio 10. [PASCAL]
Siano X e Y variabili aleatorie indipendenti e identicamente distribuite a media finita. Mostrare che
E(X|X + Y ) = X + Y 2 Soluzione
Dato che X e Y sono variabili aleatorie i.i.d. a media finita, possiamo dire per simmetria che
E(X|X + Y ) = E(Y |X + Y ) Quindi otteniamo che:
E(X|X +Y ) = 1
2(E(X|X +Y )+E(Y |X +Y )) = 1
2E(X +Y |X +Y ) = X + Y 2
Esercizio 11. [BOREL]
Supponiamo che X1, X2 siano variabili aleatorie indipendenti con distri- buzione esponenziale di parametro 1. Trovare
a) P [X1 < 3 | X1+ X2 = t];
b) E (X1| X1∧ t);
c) E (X1| X1∨ t).
Soluzione
Essendo X1, X2 variabili aleatorie indipendenti con distribuzione esponen- ziale di parametro 1, abbiamo:
fX1,X2(x1, x2) = fX1(x1)fX2(x2) fX1(x) = fX2(x) = e−xI[x>0]
con fX1(x) e fX2(x) che sono rispettivamente la densit`a di X1 e la densit`a di X2, e fX1,X2 `e la densit`a congiunta di X1 e X2.
1. Nel primo punto dobbiamo trovare P [X1 < 3 | X1+ X2 = t] ∀t ∈ R.
Calcoliamo innanzitutto fX1,X1+X2(x, z):
P [X1 ≤ x, X1+ X2≤ z] = Z x
−∞
dx1 Z z−x1
−∞
dx2fX1,X2(x1, x2) =
= Z x
−∞
dx1 Z z
−∞
dy fX1(x1)fX2(y − x1) con y = x1+ x2.
Perci`o abbiamo:
fX1,X1+X2(x, z) = ∂2
∂x∂zP [X1≤ x, X1+X2 ≤ z] = fX1(x)fX2(z −x) =
= e−zI[0<x<z]
da cui:
fX1+X2(z) = Z
dx fX1,X1+X2(x, z) = Z
dx fX1(x)fX2(z − x) =
= Z
dx e−z+xI[x<z]e−xI[x>0]=
(0 z < 0
Rz
0 dx e−z= ze−z z ≥ 0 Ha senso calcolare P [X1 < 3 | X1+ X2 = t] se e solo se fX1+X2(t) > 0, ovvero per t > 0. In tal caso, dalla teoria segue che:
P [X1< 3 | X1+ X2 = t] = Z 3
−∞
dx1fX1(x1|X1+ X2 = t) =
= Z 3
−∞
dx1
fX1,X1+X2(x1, t) fX1+X2(t) =
Z min{3,t}
0
dx1
e−t
ze−t = min{3, t}
t e dunque:
P [X1 < 3 | X1+ X2 = t] = min{3, X1+ X2} X1+ X2
2. Nel secondo punto dobbiamo calcolare E(X1| X1∧ t = s) ∀s ∈ R. A questo scopo vediamo i vari casi:
• Se s < t, X1∧ t = s se e solo se X1 = s e dunque:
E(X1| X1∧ t = s) = E(X1| X1= s) = s.
• Se s > t, X1∧ t = s ha probabilit`a nulla.
• Se s = t, X1∧ t = t se e solo se X1 ≥ t e quindi:
E(X1| X1∧ t = t) = E(X1| X1 ≥ t) = R∞
t dx1fx1(x1)x1 P (X1 ≥ t) =
R∞
0 dx1x1e−x1 R∞
0 dx1e−x1 = 1 t < 0
R∞
t dx1x1e−x1 R∞
t dx1x1e−x1 = te−te−t+e−t = 1 + t t ≥ 0 Perci`o, E(X1| X1∧ t) =
(1 + t X1 ≥ t X1 X1 < t
3. Infine, nel terzo punto dobbiamo calcolare E(X1| X1∨ t = s) ∀s ∈ R.
A questo scopo vediamo i vari casi:
• Se s < t, X1∨ t = s ha probabilit`a nulla.
• Se s > t, X1∨ t = s se e solo se X1 = s e dunque:
E(X1| X1∨ t = s) = E(X1| X1= s) = s.
• Se s = t, X1∨ t = t se e solo se X1 ≤ t e quindi:
E(X1| X1∨ t = t) = E(X1| X1 ≤ t).
Se t ≤ 0, l’evento X1 ≤ t ha probabilit`a nulla. Se invece t > 0, abbiamo:
E(X1| X1≤ t) = Rt
0 dx1fx1(x1)x1 P (X1≤ t) =
Rt
0dx1x1e−x1 Rt
0 dx1e−x1 =
= 1 − t et− 1 Perci`o, E(X1| X1∨ t) =
(X1 X1 > t 1 −ett−1 X1 ≤ t.
Esercizio 12. (Chebyshev condizionale) [LYAPUNOV]
Mostrare che per t > 0 si ha
P(|X| ≥ t | F ) ≤ t−2E X2 | F . Soluzione
Prendiamo t > 0 e sia 1|X|≥tla funzione indicatrice di |X|, allora banalmente t1|X|≥t≤ |X|
Elevo il primo e il secondo membro al quadrato t2(1|X|≥t)2 ≤ (|X|)2 = X2 si osserva che
(1|X|≥t)2= 1|X|≥t
Nel passo successivo si utilizzano le propriet`a di linearit`a e di monotonia del valore atteso condizionato
t2E 1|X|≥t| F ≤ E X2 | F da cui segue
P(|X| ≥ t | F ) ≤ t−2E X2 | F
Esercizio 13. [FISHER]
Supponiamo che X, Y siano variabili aleatorie con momento secondo finito tali che per qualche funzione decrescente f si ha E(X | Y ) = f (Y ). Mostrare che Cov(X, Y ) ≤ 0.
Soluzione
Se X,Y sono variabili aleatorie con momento secondo finito allora, poich´e
|XY | ≤ X2+ Y2, il loro prodotto XY avr`a momento finito.
La definizione di covarianza
Cov(X, Y ) = E (X − E(X))(Y − E(Y )) equivale quindi alla scrittura
Cov(X, Y ) = E(XY ) − E(X)E(Y ).
Il valore atteso di X pu`o essere riscritto come
E X = E E(X|Y ) = E f (Y ),
Inoltre poich´e data una sigma algebra G, per ogni variabile aleatoria Y che sia G-misurabile, vale la seguente uguaglianza
E XY |G = Y E X|G.
Allora il valore atteso di XY , avendo definito G = σ(Y ), pu`o essere riscritto come
E XY = E E XY |G = E Y E X|G = E Y E X|Y = E Y f (Y ).
Quindi
Cov(X, Y ) = E Y f (Y )) − E YE f (Y ) = Cov Y, f (Y ).
Per concludere la dimostrazione si consideri la variabile aleatoria Y0 copia indipendente di Y .
Poich´e la funzione f `e monotona decrescente, consideriamo due diversi casi per i valori assunti da Y, Y0:
• Se Y ≥ Y0 allora f (Y ) ≤ f (Y0) e quindi (Y − Y0)(f (Y ) − f (Y0)) ≤ 0
• Viceversa se Y0 > Y allora f (Y0) ≤ f (Y ) e quindi (Y − Y0)(f (Y ) − f (Y0)) ≤ 0
Dunque `e sempre verificata la disuguaglianza (Y − Y0)(f (Y ) − f (Y0)) ≤ 0.
e quindi vale
E (Y − Y0)(f (Y ) − f (Y0)) ≤ 0.
Notiamo ora che
E (Y − Y0)(f (Y ) − f (Y0)) = E Y f (Y ) − Y0f (Y ) − Y f (Y0) + Y0f (Y0)
= E Y f (Y ) − E Y0f (Y ) − E Y f (Y0) + E Y0f (Y0) e poich´e Y, Y0 hanno la stessa distribuzione, allora
E Y ) = E Y0), E f (Y ) = E f (Y0), E Y f (Y ) = E Y0f (Y0).
Inoltre poich´e Y, Y0 sono variabili aleatorie indipendenti, allora E Y f (Y0) = E Y E f (Y0) = E Y E f (Y ), E Y0f (Y ) = E Y0E f (Y ) = E Y E f (Y ).
Quindi
0 ≥ E (Y − Y0)(f (Y ) − f (Y0)) = 2E Y f (Y ) − 2E Y E f (Y )
= 2Cov Y, f (Y ) La tesi `e dunque dimostrata, infatti
Cov X, Y = Cov Y, f (Y ) ≤ 0.
Esercizio 14. [FELLER]
Dimostrare le seguenti proposizioni:
• (convergenza monotona condizionale) Se 0 ≤ Xn ≤ Xn+1, q.c., per ogni n ∈ N and Xn→ X ∈ L1, q.c., allora
E [Xn| G] % E[X | G], q.c.
• (lemma di Fatou condizionale) Se Xn ≥ 0, q.c., per ogni n ∈ N, e lim infnXn∈ L1, allora
E h
lim inf
n X | G i
≤ lim inf
n E [Xn| G] , q.c.
• (convergenza dominata condizionale) Se esiste Z ∈ L1 tale che |Xn| ≤ Z per ogni n ∈ N e se Xn→ X, q.c., allora
E [Xn| G] → E[X | G], q.c. e in L1 Soluzione
• (convergenza monotona condizionale)
Chiamiamo Z = limn→∞E [Xn| G] = supnE [Xn| G]. Allora Z ≥ 0, inoltre Z ´e G-misurabile perch´e limite di funzioni G-misurabili. Fissia- mo un evento A ∈ G e, data la monotonia delle Xn, (E [Xn| G] 1A)
´e una successione monotona che converge a Z1A q.c, dal teorema di Beppo-Levi otteniamo che
E [Z1A] = E h
limn E [Xn| G] 1Ai
= lim
n E [E [Xn| G] 1A] ricordando che E [E [Xn| G] 1A] = E [Xn1A]
E [Z1A] = lim
n E [Xn1A] = E [X1A] da cui la tesi vista l’arbitrariet`a dell’evento A.
• (lemma di Fatou condizionale)
Sappiamo che per definizione lim infnXn= supn(infm≥nXm) poniamo Yn= infm≥nXm e Z = lim infnXn, cos´ı da poter scrivere
E [Z | G] = E
sup
n
Yn| G
da cui applicando la convergenza monotona condizionale E [Z | G] = E
sup
n
Yn| G
= lim
n E [Yn| G]
e poich´e Yn ≤ Xn per monotonia E [Yn| G] ≤ E [Xn| G] e quindi otteniamo la tesi
E [Z | G] = lim
n E [Yn| G] ≤ lim inf
n E [Xn| G]
• (convergenza dominata condizionale)
Per provare la convergenza quasi certa applichiamo il lemma di Fatou alle successioni (Xn+ Z) e (−Xn+ Z) che risultano entrambe positive per l’ipotesi |Xn| ≤ Z.
Dalla prima successione otteniamo lim inf
n E [Xn+ Z | G] ≥ E h
lim inf
n (Xn+ Z) | G i
lim inf
n E [Xn| G]+E [Z | G] ≥ Eh lim inf
n Xn| Gi
+E [Z | G] = E [X | G]+E [Z | G]
da cui dato E [Z | G] < ∞ lim inf
n E [Xn| G] ≥ E [X | G] (1)
Applicando il lemma alla seconda successione arriviamo alla disugua- glianza
lim inf
n −E [Xn| G] ≥ −E [X | G]
ovvero
− lim sup
n
E [Xn| G] ≥ −E [X | G]
lim sup
n
E [Xn| G] ≤ E [X | G] (2) e unendo le due formule (1) e (2)
lim sup
n
E [Xn| G] ≤ E [X | G] ≤ lim inf
n E [Xn| G]
cio´e
limn E [Xn| G] = E [X | G] q.c.
Per provare la convergenza in L1 usiamo il teorema di convergenza dominata infatti, sappiamo che per monotonia e grazie alla disugua- glianza triangolare
| E [Xn| G] |≤ E [|Xn| | G] ≤ E [Z | G] ∈ L1
e dal punto precedente che limnE [Xn| G] = E [X | G] q.c , quindi E [| E [Xn| G] − E [X | G] |] → 0.
Esercizio 15. [LEVY]
Consideriamo una successione di variabili aleatorie indipendenti {Zn} ognu- na con media finita. Siano X0 = a e Xn = a + Z1+ . . . + Zn for n ≥ 1.
Mostrare che
E (Xn+1| X0, X1, . . . , Xn) = Xn+ E (Zn+1) . Soluzione
Basta riscrivere in modo opportuno le Xn e usare la linearit`a del valore at- teso.
E(Xn+1|X0, X1, ..., Xn) = E(Xn+ Zn+1|X0, X1, ..., Xn) =
= E(Xn|X0, X1, ..., Xn) + E(Zn+1|X0, X1, ..., Xn) =
= Xn+ E(Zn+1|a, a + Z1, ..., a + Z1+ ... + Zn) =
= Xn+ E(Zn+1|a, Z1, ..., Zn) =
= Xn+ E(Zn+1).
(3)
Nell’ultima uguaglianza abbiamo usato la seguente propriet`a: data F σ- algebra e Y v.a, se σ(Y ) ed F sono indipendenti allora E(Y |F ) = E(Y ).
Nel nostro caso Y = Zn+1 ed F = σ(a, Z1, ..., Zn). Se consideriamo, infatti, σ(Zn+1) e F , queste sono indipendenti in quanto le Zi sono indipendenti ∀i.