Laurea Triennale in Matematica 2014/15 Nome:
7 gennaio 2016 Email:
Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile usare tutti i risultati visti a lezione (compresi quelli di cui non è stata fornita la dimostrazione).
Esercizio 1. Marta ha due dadi regolari, un tetraedro (con le facce numerate da 1 a 4) e un cubo (con le facce numerate da 1 a 6). Al primo turno Marta lancia il tetraedro. A ogni turno successivo lancia il tetraedro se al turno precedente è uscito 1; altrimenti, se al turno precedente è uscito un numero maggiore di 1, lancia il cubo.
(a) Qual è la probabilità p1 che esca 1 al primo turno? E quella p2 che esca 1 al secondo turno?
(b) Se esce 1 al secondo turno, qual è la probabilità che sia uscito 1 anche al primo turno?
(c) Qual è la probabilità p3 che esca 1 al terzo turno?
Soluzione 1. (a) Sia An:= “esce 1 all’n-esimo lancio”. Chiaramente p1 = P(A1) = 14. Dato che P(A2|A1) = 14 mentre P(A2|Ac1) = 16, per la formula delle probabilità totali
p2 = P(A2) = P(A2|A1)P(A1) + P(A2|Ac1)P(Ac1) = 1 4p1+ 1
6(1 − p1) , pertanto
p2= 1 4p1+1
6(1 − p1) = 1 4 1 4 +1
6 3 4 = 3
16. (b) Si ha
P(A1∩ A2) = P(A1)P(A2|A1) = 1 4 1 4 = 1
16, pertanto
P(A1|A2) = P(A1∩ A2) P(A2) =
1 16
3 16
= 1 3. In alternativa, usando la formula di Bayes,
P(A1|A2) = P(A2|A1)P(A1) P(A2) =
1 4 1 4 3 16
= 1 3. (c) Essendo P(A3|A2) = 14 mentre P(A3|Ac2) = 16, si ha
p3 = P(A3) = P(A3|A2)P(A2) + P(A3|Ac2)P(Ac2) = 1 4p2+ 1
6(1 − p2) , ossia il legame tra p3 e p2 è lo stesso che c’è tra p2 e p1. Più in generale,
pn= 1
4pn−1+1
6(1 − pn−1) . Di conseguenza
p3 = 1 4p2+1
6(1 − p2) = 1 4
3 16 +1
6 13 16 = 35
192.
Esercizio 2. In un determinato ospedale, il numero X di bambini che nascono in una settimana ha distribuzione Pois(λ) con λ = 13. Le nascite in settimane distinte sono indipendenti.
(a) Qual è la probabilità che in una settimana nascano 2 o più bambini?
(b) Sia A il numero di bambini nati nella prima settimana dell’anno e sia B il numero di bambini nati nelle prime due settimane dell’anno. Si determini la densità discreta congiunta delle variabili aleatorie A e B.
Indichiamo con S il numero di bambini nati in un anno (supponiamo esattamente di 52 settimane).
(c) Si calcolino E[S] e Var[S]. Quindi, usando l’approssimazione normale fornita dal teorema limite centrale, si stimi la probabilità che in un anno nascano più di 700 bambini.
Soluzione 2. (a) Dobbiamo calcolare P(X ≥ 2) = 1 − P(X < 2) e si noti che P(X < 2) = P(X = 0) + P(X = 1) = e−λ λ0
0! +λ1 1!
= e−λ 1 + λ = 14 e−13' 3.2 · 10−5. (b) Siano X1, X2 rispettivamente i numeri di bambini nati nella prima e nella seconda settimana.
Allora A = X1 e B = X1 + X2. Dobbiamo calcolare P(A = m, B = n) e chiaramente possiamo restringerci ai valori di m, n ∈ N0 tali che m ≤ n, altrimenti la probabilià è nulla (essendo A ≤ B). Si ha dunque
P(A = m, B = n) = P(X1 = m, X1+ X2= n) = P(X1= m, X2= n − m)
= P(X1 = m)P(X2= n − m) = e−λλm
m!e−λ λn−m (n − m)!
= e−2λ λn m!(n − m)!.
(c) Siano X1, X2, . . . , X52, i numeri di bambini nati nelle settimane dell’anno. Da S := X1+ X2+ . . . + X52 e dal fatto che le Xi sono i.i.d. segue che E[S] = 52E[X1] e Var[S] = 52 Var[X1].
Ricordando che media e varianza di una Poisson coincidono col parametro, si ha E[X1] = Var[X1] = λ = 13, pertanto Var[S] = E[S] = 13 · 52 = 676.
[Essendo le Xi i.i.d. Pois(13), segue che S := X1 + X2 + . . . + X52 ha distribuzione Pois(52 · 13) = Pois(676) per un risultato mostrato a lezione.]
Per il teorema limite centrale la variabile aleatoria Z := S − 52E[X1]
pVar[X1]√
52 = S − E[S]
pVar[S]
ha distribuzione approssimativamente normale. Pertanto la probabilità richiesta vale P(S > 700) = P S − E[S]
pVar[S] > 700 − 676
√676
= P
Z > 24 26
' P(Z > 0.92) ' 1 − Φ(0.92) . Dalla tavola della distribuzione normale si ricava Φ(0.92) ' 0.82, pertanto
P(S > 700) ' 1 − 0.82 = 0.18 .
Esercizio 3. Sia (X, Z) un vettore aleatorio in R2 con densità f(X,Z)(x, z) = (z − x) e−z1{0<x<z}. (a) Si determinino le densità marginali di X e Z.
(b) Le variabili aleatorie X e Z sono indipendenti?
(c) Si mostri che la variabile aleatoria (positiva) W := 1
Z − X è in L1 ma non in L2. (d) Si determini ϕ : R2 → R tale che T := ϕ(X, Z) sia una variabile aleatoria discreta.
Soluzione 3. (a) La densità marginale di Z soddisfa fZ(z) = 0 se z ≤ 0, mentre per z > 0 fZ(z) =
Z
R
f(X,Z)(x, z) dx = Z z
0
(z − x) e−zdx = e−z −(z − x)2 2
x=z x=0
= z2 2 e−z.
Si può riconoscere che Z ha distribuzione Gamma(3, 1). La densità marginale di X è data da fX(x) = 0 per x ≤ 0, mentre per x > 0, notando che 1{0<x<z}= 1(x,∞)(z), si ottiene
fX(x) = Z
R
f(X,Z)(x, z) dz = Z ∞
x
(z − x) e−zdz e con il cambio di variabile y = z − x si ottiene
fX(x) = Z ∞
0
y e−(x+y)dy = e−x Z ∞
0
y e−ydy = e−x,
dove l’ultimo integrale è stato riconosciuto come il valore medio di una variabile aleatoria Exp(1), o equivalentemente come Γ(2) = 1! = 1 (in alternativa lo si può calcolare direttamente integrando per parti). Dunque X ∼ Exp(1).
(b) X e Z non sono indipendenti, perché ad esempio P(X ∈ (2, 3)) > 0 e P(Z ∈ (1, 2) > 0 (infatti X e Z hanno densità strettamente positive su (0, ∞)) mentre P(X ∈ (2, 3), Z ∈ (1, 2)) = 0 perché X < Z q.c., dal momento che la densità f(X,Z)(x, z) di (X, Z) si annulla per x ≥ z.
(c) Abbiamo già osservato che X < Z q.c., e chiaramente Z < ∞ q.c., pertanto 0 < Z − X < ∞ q.c. da cui 0 < W < ∞ q.c.. Calcoliamo ora E[W ] (che è ben definito, essendo W ≥ 0):
E[W ] = E
1
Z − X
= Z
R2
1
z − xf(X,Z)(x, z) dx dz = Z
R2
1
z − x(z − x) e−z1{0<x<z}dx dz
= Z ∞
0
e−z
Z z 0
dx
dz =
Z ∞ 0
z e−zdz = 1 . Questo mostra che W ∈ L1. Analogamente
E[W2] = E
1
(Z − X)2
= Z
R2
1
(z − x)2 f(X,Z)(x, z) dx dz
= Z
R2
1
(z − x)2 (z − x) e−z1{0<x<z}dx dz = Z ∞
0
Z ∞ x
1
z − xe−zdz
dx , e il cambio di variabile y = z − x nell’integrale interno conduce a
E[W2] = Z ∞
0
Z ∞ 0
1
ye−x−ydy
dx =
Z ∞ 0
e−x
Z ∞ 0
1 ye−ydy
dx
=
Z ∞ 0
1 ye−ydy
Z ∞ 0
e−xdx
= Z ∞
0
1
ye−ydy = +∞ ,
perché la funzione 1y non è integrabile in nessun intorno di y = 0. Dunque W 6∈ L2. (d) Basta scegliere ϕ ≡ 0, così che T = 0 è una variabile aleatoria discreta.
PARTE II (Esercizi 4, 5, 6)
Esercizio 4. Sullo spazio di probabilità (Ω, A, P), dove Ω = (0, 1), A è la σ-algebra dei boreliani e P è la misura di Lebesgue, sono definite le variabili aleatorie (Xn)n∈N date da
Xn(ω) = n131(0,√1
n)(ω) =
(n13 se ω < √1n 0 altrimenti .
(a) Si calcoli la funzione di ripartizione di Xn. Si deduca che che Xn→ 0 in legge e in probabilità.
[Sugg. Può essere utile calcolare innanzitutto la densità discreta di Xn.]
(b) Si calcoli E[|Xn|p]. Per quali p ∈ (0, ∞) si ha Xn→ 0 in Lp? (c) Si mostri che Xn→ 0 q.c., ossia Xn(ω) → 0 per q.o. ω ∈ Ω.
(d) (*) Quanto vale P(lim supn{Xn> ε})? Si mostri che per ogni ε ∈ (0, 1) si ha X
n∈N
P(Xn> ε) = ∞ .
Soluzione 4. (a) La variabile aleatoria Xn assume solo i valori n13 e 0. Pertanto la sua densità discreta pXn(x) = P(Xn= x) è nulla per x 6∈ {0, n13}. Per x = n13 si ha
P(Xn= n13) = P(ω < √1n) = Leb(0,√1n) = 1
√n, quindi P(Xn= 0) = 1 − P(Xn= n13) = 1 −√1n.
La funzione di ripartizione FXn(x) = P(Xn≤ x) vale dunque
FXn(x) =
0 se x < 0 1 −√1n se 0 ≤ x < n13 1 se x ≥ n13
.
Di conseguenza
n→∞lim FXn(x) = F (x) =
(0 se x < 0 1 se x ≥ 0 .
Essendo F (x) la funzione di ripartizione della variabile aleatoria costante uguale a 0, la convergenza della funzione di ripartizione implica che Xn→ 0 in legge.
Infine, per un risultato visto a lezione, la convergenza in legge verso un limite costante implica (è anzi equivalente a) la convergenza in probabilità allo stesso limite.
(b) Si ha E[|Xn|p] =X
x∈R
|x|pP(Xn= x) = 0pP(Xn= 0) + (n31)pP(X = n13) = np3 1
√n = np3−12 = n2p−36 .
Quindi Xn→ 0 in Lp, ossia E[|Xn− 0|p] = E[|Xn|p] → 0, se e solo se 2p − 3 < 0 ossia p < 32. (c) Per ogni ω ∈ Ω = (0, 1) si ha ω > 0, pertanto si ha ω ≥ √1n per n grande, o più precisamente per n ≥ n0(ω) = ω12. Quindi, per definizione di Xn, si ha Xn(ω) = 0 per ogni n ≥ n0(ω), e a maggior ragione limn→∞Xn(ω) = 0. In definitiva, limn→∞Xn(ω) = 0 per ogni ω ∈ Ω.
(d) Dato che Xn→ 0 q.c., definitivamente si ha Xn≤ ε, quindi si ha Xn> ε solo per un numero finito di indici. Questo mostra che l’evento lim supn{Xn> ε} = {Xn> ε per infiniti n ∈ N}
ha probabilità nulla, ossia P(lim supn{Xn> ε}) = 0.
Dato che Xn assume solo i valori n13 e 0, per ε ∈ (0, 1) si ha {Xn > ε} = {Xn = n13}, quindi
X
n∈N
P(Xn> ε) =X
n∈N
P(Xn= n13) =X
n∈N
√1
n = ∞ .
[Ciò non è in contraddizione con P(lim supn{Xn > ε}) = 0, perché gli eventi {Xn > ε}
non sono indipendenti e dunque non è possibile applicare la seconda parte del lemma di Borel-Cantelli.]
Esercizio 5. Siano X1, X2, . . . variabili aleatorie reali i.i.d. la cui distribuzione è assolutamente continua, con densità f : R → [0, ∞) continua e strettamente positiva (f (x) > 0 per ogni x ∈ R).
Sia g : R → [0, ∞) un’altra densità continua fissata. Poniamo M1:= g(X1)
f (X1), Mn:= g(X1) f (X1)
g(X2)
f (X2)· · · g(Xn)
f (Xn) per n ≥ 2 . (a) Si mostri che E[M1] = 1. Si deduca che E[Mn] = 1 per ogni n ∈ N.
D’ora in avanti supponiamo che E[| log M1|] < ∞ e inoltre che f 6= g.
(b) Applicando opportunamente la legge dei grandi numeri, si mostri che vale la convergenza 1
nlog Mn−−−→q.c.
n→∞ E log M1 < 0 .
[Il fatto che E[log M1] < 0 segue dalla disuguaglianza di Jensen (facoltativo: spiegare perché).]
(c) Si deduca che
Mn
−−−→q.c.
n→∞ 0 . (d) Si dica se Mn converge in probabilità, in legge, in L1.
Soluzione 5. (a) Applicando la formula di passaggio alla misura immagine E[ψ(X1)] =R
Rψ(x) f (x) dx alla funzione ψ(x) = g(x)/f (x) si ottiene
EM1 = E g(X1) f (X1)
= Z ∞
0
g(x)
f (x)f (x) dx = Z ∞
0
g(x) dx = 1 , perché g è una densità.
Essendo le variabili aleatorie f (Xg(Xn)
n) indipendenti e con la stessa distribuzione di g(Xf (X1)
1) = M1, si ottiene
E[Mn] = E g(X1) f (X1)
E g(X2) f (X2)
· · · E g(Xn) f (Xn)
= E[M1]n= 1 .
(b) [Si può applicare la disuguaglianza di Jensen perché log x è una funzione concava, pertanto
− log x è convessa. Se f 6= g, la variabile aleatoria M1 = f (Xg(X1)
1) non è q.c. costante, pertanto la disuguaglianza di Jensen è stretta, essendo il logaritmo una funzione strettamente concava.]
Le variabili aleatorie Yn:= logf (Xg(Xn)
n), che sono i.i.d. e in L1. Applicando la legge forte dei grandi numeri si ottiene dunque
1
nlog Mn= Y1+ . . . + Yn n
−−−→q.c.
n→∞ E[Y1] = E log M1 . (c) Dato che E log M1 < 0, si ha q.c.
n→∞lim log Mn= lim
n→∞n E log M1 = −∞ , da cui segue che limn→∞Mn= 0 q.c..
(d) La convergenza q.c. implica quella in probabilità, la quale a sua volta implica quella in legge, pertanto da Mn→ 0 q.c. segue che Mn→ 0 in probabilità e in legge.
Non si ha invece convergenza Mn→ 0 in L1: in caso contrario si avrebbe la convergenza dei valori medi limn→∞E[Mn] = E[0] = 0, mentre sappiamo che E[Mn] = 1 per ogni n ∈ N.
Esercizio 6. Fissiamo due parametri N ∈ N e q ∈ (0,12).
Una scala ha N + 1 gradini, numerati da 0 (quello più basso) a N (quello più alto). Enrico inizialmente parte dal gradino 0. A ogni istante lancia una q-moneta (ossia una moneta che dà testa con probabilità fissata q): se esce testa, sale di un gradino, mentre se esce croce, scende di un gradino. Fanno eccezione i gradini estremi: se si trova sul gradino 0 ed esce croce, resta sul gradino 0 (mentre se esce testa sale sul gradino 1); viceversa, se si trova sul gradino N ed esce testa, resta sul gradino N (mentre se esce croce scende sul gradino N − 1).
Descriviamo il moto di Enrico con una catena di Markov X = (Xn)n≥0 sullo spazio degli stati E = {0, 1, . . . , N }.
(a) Si scriva la matrice di transizione pij e se ne disegni schematicamente il grafo. Si dica se la catena è irriducibile e/o aperiodica e si classifichino gli stati.
(b) Si mostri che λi = ci è una misura reversibile, per un’opportuna scelta di c ∈ (0, 1).
(c) Si determini l’unica probabilità invariante πi. Per tempi grandi, quanto vale asintoticamente la probabilità che Enrico sia sul gradino più basso?
Soluzione 6. (a) Per costruzione pi,i+1 = q se 0 ≤ i ≤ N − 1 e pN,N = q; analogamente pi,i−1= 1 − q se 1 ≤ i ≤ N e p0,0 = 1 − q; mentre pi,j = 0 per gli altri valori di i, j.
La catena è irriducibile perché 0 → 1 → 2 → . . . → N e, viceversa, N → N − 1 → . . . → 0, quindi i ↔ j per ogni i, j ∈ E. Essendo irriducibile, ogni stato ha lo stesso periodo. Ma il periodo dello stato 0 è pari a 1, dato che p0,0 = 1 − q > 0. Pertanto la catena è aperiodica.
Essendoci un’unica classe di comunicazione finita (e ovviamente chiusa), la catena è ricorrente positiva (e ammette un’unica probabilità invariante).
(b) Occorre verificare che cipi,j = cjpj,i per ogni i, j ∈ E. Tale relazione è banalmente verificata se i = j, e anche se pi,j = pj,i = 0 (si noti che pi,j = 0 se e solo se pj,i = 0). Quindi basta verificarla nel caso in cui j = i + 1, ossia
cipi,i+1 = ci+1pi+1,i ⇔ ciq = ci+1(1 − q) ⇔ c = q 1 − q. Si noti che c ∈ (0, 1), dal momento che q ∈ (0,12) per ipotesi.
(c) Ricordiamo che la misura λi = ci, essendo reversibile, è invariante. Inoltre c’è un’unica misura invariante, a meno di multipli, essendo la catena irriducibile e ricorrente. Quindi l’unica probabilità invariante πi si ottiene normalizzando la misura λi, ossia πi = λi/Λ, dove
Λ :=
N
X
i=0
λi =
N
X
i=0
ci= 1 − cN +1 1 − c . In definitiva
πi = λi
Λ = 1 − c 1 − cN +1ci.
Infine, per il teorema di convergenza all’equilibrio, la probabilità che Enrico sia sul gradino più basso vale asintoticamente (per tempi grandi)
n→∞lim P(Xn= 0) = π0 = 1 − cN +1 1 − c .
Tavola della distribuzione normale La tabella seguente riporta i valori di Φ(z) :=Rz
−∞e− 1√2x2
2π dx, la funzione di ripartizione della distribuzione normale standard N (0, 1), per 0 ≤ z < 3.5.
Ricordiamo che valori di Φ(z) per z < 0 possono essere ricavati grazie alla formula Φ(z) = 1 − Φ(−z) .
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852 0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133 0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830 1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767 2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817 2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857 2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890 2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916 2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936 2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952 2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964 2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974 2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981 2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986 3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990 3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993 3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995 3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997 3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998