Laurea Triennale in Matematica 2011/12 Nome:
17 luglio 2012 Email:
Quando non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile usare tutti i risultati visti a lezione (compresi quelli di cui non è stata fornita la dimostrazione).
Esercizio 1. Sia {An}n∈N una successione di eventi di uno spazio di probabilità (Ω, A, P).
Ricordiamo la definizione dell’eventolim supn∈NAn: lim sup
n∈N
An := \
k∈N
[
n≥k
An
!
(a) Si mostri che
P
lim sup
n∈N
An
= lim
k→∞P [
n≥k
An
! . (b) Si mostri che vale la seguente disuguaglianza
P [
n≥k
An
!
≥ P(Am) , ∀m ≥ k . (c) Si deduca che
P
lim sup
n∈N
An
≥ lim sup
n∈N
P(An) .
[Sugg.: si ricordi la definizione dilim sup di una successione di numeri reali.]
Soluzione 1. (a) Ponendo Bk:=S
n≥kAn, si ha che {Bk}k∈N è una successione decrescente di eventi, quindi per continuità dall’alto della probabilità si ha
P
lim sup
n∈N
An
= P \
k∈N
Bk
!
= lim
k→∞P(Bk) = lim
k→∞P [
n≥k
An
! . (b) Per definizione di unione, S
n≥kAn⊇ Am per ogni m ≥ k, da cui segue la disuguaglianza.
(c) Dato che la disuguaglianza al punto precedente vale per ogni m ≥ k, possiamo prendere l’estremo superiore su k, ottenendo
P [
n≥k
An
!
≥ sup
m≥k
P(Am) . Grazie al primo punto otteniamo dunque
P
lim sup
n∈N
An
≥ lim
k→∞sup
m≥k
P(Am) =: lim sup
k→∞
P(Ak) .
Esercizio 2. Consideriamo una famiglia di urne, indicizzate dai numeri naturali incluso lo zero, con la seguente composizione: l’urna k-esima, con k ∈ N0= {0, 1, 2, . . .}, contiene 1 pallina nera e k palline bianche. Katia pesca una pallina a caso dall’urna numero X, dove X è una variabile aleatoria con legge P o(λ) (cioè P(X = k) = e−λ λk!k per ogni k ∈ N0, con λ ∈(0, ∞) fissato).
Indichiamo con A l’evento “la pallina pescata da Katia è nera”.
(a) Si determini P(A|X = k), per ogni k ∈ N0. Si deduca cheP(A) = 1−eλ−λ. (b) Si determini q(k) := P(X = k|A) per ogni k ∈ N0.
(c) Si mostri che q(·) coincide con la densità discreta della variabile aleatoria Y := X − 1 rispetto alla probabilitàP( · |X ≥ 1).
(d) Si calcoli E(X|A), ossia il valore atteso di X rispetto alla probabilità P( · |A).
Soluzione 2. (a) Per costruzioneP(A|X = k) = k+11 , quindi per la formula delle probabilità totali
P(A) = X
k∈N0
P(A|X = k) P(X = k) =
∞
X
k=0
1 k+ 1
λk
k!e−λ = 1 λ
∞
X
m=1
λm m!e−λ
= 1
λ 1 − P(X = 0)
= 1 − e−λ
λ ,
avendo fatto il cambio di variabili k+ 1 = m.
(b) Per la formula di Bayes
q(k) = P(A|X = k) P(X = k)
P(A) =
1 k+1
λk k!e−λ
1−e−λ λ
= e−λ 1 − e−λ
λk+1 (k + 1)!. (c) Per ogni k ∈ N0
P(Y = k|X ≥ 1) = P(X = k + 1|X ≥ 1) = P(X = k + 1) P(X ≥ 1) =
λk+1 (k+1)!e−λ
1 − e−λ = q(k) . (d) Usando la formula per q(k) ricavata sopra si ha
E(X|A) = X
k∈N0
kq(k) = e−λ 1 − e−λ
∞
X
k=0
k λk+1 (k + 1)!, e scrivendo k= (k + 1) − 1 si ottiene
E(X|A) = e−λ 1 − e−λ λ
∞
X
k=0
λk k! −
∞
X
k=0
λk+1 (k + 1)!
!
= e−λ
1 − e−λ λeλ− (eλ− 1)
= λ −(1 − e−λ) 1 − e−λ .
Esercizio 3. Siano {Xn}n∈N variabili aleatorie reali i.i.d.. Per ogni t ∈ R poniamo M(t) := E[etX1]
e facciamo l’ipotesi che M(t) < ∞ per ogni t ∈ R.
(a) Sia a ∈ R fissato. Si mostri che per ogni n ∈ N e t ∈ (0, ∞) vale la seguente uguaglianza di eventi:
X1+ . . . + Xn> a
= et(X1+...+Xn)> eta . (b) Si deduca che per ogni a >0 e n ∈ N vale la disuguaglianza
P X1+ . . . + Xn> a
≤ e−taM(t)n, ∀t > 0 . D’ora in avanti facciamo l’ipotesi che
∃C ∈ (0, ∞) : M(t) ≤ e12Ct2, ∀t ∈ R .
(Questa ipotesi implica cheE(X1) = 0 e Var(X1) < ∞, ma non è richiesto di mostrarlo.) (c) Si deduca dai punti precedenti che per ogni a >0 e n ∈ N
P X1+ . . . + Xn> a
≤ e−12nCa2 . Per simmetria, segue che (non è richiesto di mostrarlo)
P |X1+ . . . + Xn| > a
≤ 2 e−12nCa2 . Definiamo ora, per η ≥0, la seguente successione di variabili aleatorie:
Sn(η) := X1+ . . . + Xn n12+η
, ∀n ∈ N . (d) Si mostri che, per ogni η >0, si ha Sn(η)→ 0 q.c. per n → ∞.
[Sugg.: si verifichi un’opportuna condizione sufficiente per la convergenza q.c..]
(e) Si mostri che per η= 0 non si può avere Sn(η)→ 0 q.c. (e nemmeno in legge).
[Sugg.: si guardi la forma assunta da Sn(η) per η= 0. . . ]
[Nel corso dell’esercizio può essere utile notare che, ∀c, γ >0, si ha e−cnγ ≤ n12 per n grande.]
Soluzione 3. (a) Dato che x 7→ etx è una funzione strettamente crescente se t >0, si ha che x > a se e solo se etx> eta. Scegliendo x= (X1+ . . . + Xn)(ω), si ha che
ω ∈X1+ . . . + Xn> a
⇐⇒ (X1+ . . . + Xn)(ω) > a ⇐⇒ et(X1+...+Xn)(ω)> eta
⇐⇒ ω ∈et(X1+...+Xn)> eta .
(b) Per la disuguaglianza di Markov, P(Y > b) ≤ E(Y )/b per ogni v.a. Y ≥ 0 e per ogni b ∈(0, ∞). Scegliendo Y = et(X1+...+Xn) e b= eta, per il punto precedente si ottiene
P X1+ . . . + Xn> a
= P et(X1+...+Xn)> eta
≤ e−taEet(X1+...+Xn)
= e−taEetX1n
= e−taM(t)n,
dove si è usato il fatto che le variabili aleatorie etX1, . . . , etXn sono indipendenti, integrabili e con la stessa legge, quindiE[etX1· · · etXn] = E[etX1] · · · E[etXn] = E[etX1]n= M (t)n.
(c) Per i punti precedenti
P X1+ . . . + Xn> a
≤ e−ta+12nCt2.
Dato che questa stima vale per ogni t >0, la si può ottimizzare scegliendo il valore di t che minimizza il membro destro, o equivalentemente l’esponente. Derivando si ottiene che
−a + nCt = 0, ossia t = nCa (che è effettivamente un punto di minimo, come si verifica facilmente). Inserendo t= nCa nella stima precedente, si ottiene
P X1+ . . . + Xn> a
≤ e−nCa a+12nC(nCa )2 = e−12nCa2 .
(d) Per un criterio visto a lezione (un’applicazione diretta del Lemma di Borel-Cantelli), basta mostrare cheP
n∈NP(|S(η)n | > ε) < ∞ per ogni ε > 0. Per i punti precedenti P(|Sn(η)| > ε) = P |X1+ . . . + Xn| > n12+ηε
≤ 2 e−12(n
12+η ε)2
nC = 2 e−2Cε2n2η. Dato che P
n∈Ne−cnγ < ∞ per ogni c, γ > 0 (perché per n grande si ha e−cnγ ≤ n12), la conclusione segue.
(e) Per il teorema limite centrale, per η= 0 si ha Sn(0) = X1+...+X√n n → N (0, 1) in legge, quindi Sn(0) non può convergere verso zero in legge, perché il limite in legge è unico.
Esercizio 4. Sia(X, Y ) un vettore aleatorio bidimensionale, ossia a valori in R2, con legge assolu- tamente continua uniforme nel sottoinsieme A ⊆[0, 1] × [0, 1] del quadrato unitario, rappresentato dalla regione grigia nella figura seguente:
x y
1
1 2
1
2 1
0
Tale insieme si può rappresentare nel modo seguente:
A:= {(x, y) ∈ R2 : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, x+ a ≤ y ≤ x + b, y ≥ x+ c} , per un’opportuna scelta dei parametri reali a, b, c.
(a) Si determinino i valori di a, b, c e si scriva il valore della densità congiunta fX,Y(x, y) del vettore(X, Y ) per ogni (x, y) ∈ R2.
(b) Si mostri che le componenti X e Y hanno entrambe legge marginale uniforme in [0, 1].
(c) Le variabili aleatorie X e Y sono indipendenti?
(d) Si calcoli P(X + Y ≤ 1).
[Sugg.: Non è necessario calcolare integrali. . . ]
Soluzione 4. (a) I valori corretti sono a= −12, b= 0, c = 12. La misura di Lebesgue dell’insieme A vale 12, come è chiaro dal disegno (o con un semplice integrale), pertanto la densità di (X, Y ) vale
fX,Y(x, y) = 2 1A(x, y) . (b) La densità di X è data da
fX(x) = Z
R
fX,Y(x, y) dy = 2 Z 1
0
1A(x, y) dy .
L’ultimo integrale è nullo se x 6∈[0, 1], mentre per ogni x ∈ [0, 1] fissato esso rappresenta la lunghezza (ossia la misura di Lebesgue unidimensionale) del sottoinsieme degli y ∈[0, 1] tali che(x, y) ∈ A. È chiaro dal disegno che tale lunghezza vale 12, qualunque sia x ∈[0, 1]. Per una verifica analitica, conviene distinguere i casi x ∈[0,12] e x ∈ (12,1]:
fX(x) = (2 R011{0≤y≤x}∪{x+12≤y≤1}dy = 2(x + (1 − (x +12))) = 1 se x ∈[0,12] 2R1
0 1{x−1
2≤y≤x}dy = 2(x − (x −12)) = 1 se x ∈(12,1] . In definitiva, abbiamo mostrato che
fX(x) = 1[0,1](x) , ∀x ∈ [0, 1] ,
dunque X ha legge uniforme in[0, 1]. Gli argomenti per Y sono del tutto analoghi.
(c) X e Y non sono indipendenti, perché se lo fossero si dovrebbe avere
fX,Y(x, y) = fX(x)fY(y) = 1[0,1]×[0,1](x, y) per Lebesgue-q.o.(x, y) ∈ R2.
Ma questo non è possibile, perché fX,Y(x, y) = 1A(x, y) è identicamente nulla (ad esempio) nell’insieme(34,1) × (34,1) che ha misura di Lebesgue positiva, mentre 1[0,1]×[0,1](x, y) vale 1 in tale insieme.
(d) Sia B:= {(x, y) ∈ R2 : x + y ≤ 1}. Dobbiamo calcolare P(X + Y ≤ 1) = P((X, Y ) ∈ B) = 1
|A|
Z
R2
1A(x, y) 1B(x, y) dx dy = |A ∩ B|
|A| ,
dove abbiamo indicato per brevità con | · | la misura di Lebesgue nel piano. Con un disegno è chiaro per ragioni di simmetria che |A ∩ B|= 12|A|, dunque P(X + Y ≤ 1) = 12.
Esercizio 5. Consideriamo un cubo con i vertici numerati come in figura:
2 3 4
8 7
6 5
1
Sia X= {Xn}n∈Nla catena di Markov a valori nell’insieme dei vertici E = {1, 2, 3, 4, 5, 6, 7, 8}, che parte dal vertice1 (ossia X0 = 1) e a ogni istante salta dal vertice in cui si trova in uno qualunque dei vertici “vicini”, ossia collegati da uno spigolo.
[In altri termini, questa catena di Markov non è altro che la passeggiata aleatoria sul grafo (non orientato) i cui vertici sono i vertici del cubo e i cui archi sono gli spigoli del cubo.]
(a) Si scriva la matrice di transizione della catena, si identifichino le classi di irriducibilità e si classifichino gli stati (transitori, ricorrenti positivi, ricorrenti nulli). La catena è aperiodica?
(b) Si determini la probabilità invariante (che è in effetti reversibile).
[Sugg.: È più facile trovare una probabilità reversibile piuttosto che una solo invariante. . . ]
Soluzione 5. (a) La matrice di transizione p= (pij)i,j∈E è data da
p=
0 13 0 13 13 0 0 0
1
3 0 13 0 0 13 0 0 0 13 0 13 0 0 13 0
1
3 0 13 0 0 0 0 13
1
3 0 0 0 0 13 0 13 0 13 0 0 13 0 13 0 0 0 13 0 0 13 0 13 0 0 0 13 13 0 13 0
.
Esiste una sola classe di irriducibilità, ossia la catena è irriducibile. Pertanto, essendo lo spazio degli stati finito, tutti gli stati sono ricorrenti positivi.
La catena non è aperiodica: partendo dallo stato 1, è possibile ritornare allo stato 1 solo in un numero pari di passi. Un modo per convincersene è il seguente: se si colorano di nero i vertici1, 3, 6, 8 e di bianco i vertici 2, 4, 5, 7, le regole di transizione mostrano che non è possibile saltare solo da un vertice in un altro con lo stesso colore; di conseguenza, partendo da un vertice nero, la catena visita necessariamente vertici neri negli istanti pari e vertici bianchi negli istanti dispari.
(b) Abbiamo visto a lezione che ogni passeggiata aleatoria su un grafo finito non orientato ammette una probabilità reversibile µ= (µi)i∈E, con µi proporzionale al numero di archi uscenti dal vertice i ∈ E. Nel nostro caso ogni vertice ha lo stesso numero di archi uscenti, pertanto µi non dipende da i, ossia µ è la probabilità uniforme su E: µi = 18 per ogni i ∈ E.
Più direttamente, l’equazione soddisfatta da una probabilità reversibile è µipij = µjpji, ∀i, j ∈ E .
Nel nostro caso è chiaro che la matrice di transizione è simmetrica: pij = pji per ogni i, j ∈ E.
Pertanto, se pij 6= 0, ossia se i →1j, si ha che µi= µj. Essendo la catena irriducibile, segue che µi = µj per ogni i, j ∈ E, dunque µi = 18 per ogni i ∈ E.