Laurea Triennale in Matematica 2014/15 Nome:
29 gennaio 2015 Email:
Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile usare tutti i risultati visti a lezione (compresi quelli di cui non è stata fornita la dimostrazione).
PARTE I (Esercizi 1, 2, 3)
Esercizio 1. Una scatola contiene 21 carte, di cui 9 hanno entrambe le facce rosse, 7 le hanno entrambe nere mentre 5 carte hanno una faccia rossa e l’altra nera.
(a) Disponendo casualmente tutte le carte sul tavolo, qual è la probabilità che io veda più facce nere che rosse?
Pesco ora una sola carta dalla scatola e la depongo casualmente sul tavolo.
(b) Se la faccia che vedo è rossa, qual è la probabilità che la faccia nascosta sia nera?
Soluzione 1. (a) Sia X il numero di carte “bicolori” che mostrano la faccia nera. Dato che ci sono 5 carte bicolori, e ciascuna può essere deposta sulla faccia nera o sulla faccia rossa con la stessa probabilità, si ha che X ∼ Bin(5,12). Il numero totale di facce nere vale allora 7 + X mentre il numero di facce rosse vale 9 + (5 − X). Dato che 7 + X ≥ 9 + (5 − X) equivale a X ≥ 3.5, e X può assumere solo valori interi, segue che l’evento “vedo più facce nere che rosse” coincide con {X ≥ 4}. Pertanto la probabilità richiesta vale
P(X ≥ 4) = P(X = 4) + P(X = 5) =5 4
1 25 +5
5
1 25 = 6
25 = 3 16.
(b) Introduciamo gli eventi R := “pesco una carta con entrambe le facce rosse”, D := “pesco una carta con le facce di due colori diversi” e N := “pesco una carta con entrambe le facce nere”, che costituiscono una partizione dello spazio di probabilità, e si ha
P(R) = 9 21 = 3
7, P(D) = 5
21, P(N ) = 7 21 = 1
3. Introducendo l’evento A := “la faccia che vedo è rossa”, si ha inoltre
P(A|R) = 1 , P(A|D) = 1
2, P(A|N ) = 0 , da cui, per la formula delle probabilità totali,
P(A) = P(A|R)P(R) + P(A|D)P(D) + P(A|N )P(N ) = 3 7 + 5
42 = 23 42.
Infine, introducendo l’evento B := “la faccia nascosta è nera”, dato che P(B|A) = P(D|A), per la formula di Bayes si ottiene
P(D|A) = P(A|D)P(D)
P(A) =
1 2
5 21 23 42
= 5
23 ' 22% .
Esercizio 2. Consideriamo un gruppo di n = 3650 coppie di sposi. Assumiamo che ciascuna persona, indipendentemente da ciascun altra, sia nata in un giorno casuale di un anno non bisestile.
(a) Consideriamo una coppia fissata: qual è la probabilità p che i coniugi siano nati lo stesso giorno? Qual è la probabilità q che i coniugi siano nati lo stesso mese?
[Sugg. Non è necessario semplificare le frazioni risultanti.]
È possibile esprimere le risposte alle prossime domande in termini di n, p, q. Indichiamo con X (risp. Y ) il numero di coppie in cui i coniugi sono nati lo stesso giorno (risp. lo stesso mese).
(b) Si determinino valore medio e varianza delle variabili aleatorie X e Y . (c) Le variabili aleatorie X e Y sono indipendenti?
(d) Si calcoli la varianza di Z := Y − X.
Soluzione 2. (a) Detti Z e W rispettivamente i giorni di nascita dei due coniugi, le variabili aleatorie Z e W sono i.i.d. con distribuzione uniforme (discreta) nell’insieme dei giorni dell’anno, che indichiamo con i numeri da 1 a 365. P(Z = a) = P(W = a) = 3651 , da cui p = P(Z = W ) = X
a∈{1,...,365}
P(Z = W = a) = X
a∈{1,...,365}
P(Z = a)P(W = a) = 365 3652 = 1
365. Sia ora M l’evento “i coniugi sono nati lo stesso mese”. Siano A, B, C gli eventi definiti rispettivamente da “il primo coniuge è nato in un mese di 31, 30, 28 giorni”. In un anno non bisestile ci sono 7 mesi di 31 giorni, 4 mesi di 30 giorni e 1 mese di 28 giorni, per cui
P(A) = 7 · 31
365 = 217
365, P(B) = 4 · 30 365 = 120
365, P(C) = 28 365,
Fissato un mese di 31 giorni, la probabilità che il secondo coniuge sia nato in quel mese vale
31
365; considerazioni analoghe valgono per i mesi di 30 e 28 giorni, per cui P(M |A) = 31
365, P(M |B) = 30
365, P(M |C) = 28 365.
Infine, applicando la formula delle probabilità totali, troviamo il valore richiesto di q:
q = P(M ) = P(M |A)P(A) + P(M |B)P(B) + P(M |C)P(C) = 31 365
217 365+ 30
365 120 365+ 28
365 28 365. (b) Per ciascuna coppia, la probabilità che entrambi i coniugi siano nati lo stesso giorno (risp.
lo stesso mese) vale p (risp. q), indipendentemente da ciascun altra coppia. Applicando lo schema delle prove ripetute e indipendenti, si ha X ∼ Bin(n, p) mentre Y ∼ Bin(n, q), da cui
E[X] = np , Var[X] = np(1 − p) , E[Y ] = nq , Var[Y ] = nq(1 − q) .
(c) Le variabili aleatorie X e Y non sono indipendenti. Infatti se se Y = 0 (non ci sono coppie i cui coniugi sono nati lo stesso mese) allora necessariamente anche X = 0 (non ci sono coppie i cui coniugi sono nati lo stesso giorno), da cui P(X ≥ 1, Y = 0) = 0; d’altro canto P(X ≥ 1) > 0 e P(Y = 0) > 0, dunque P(X ≥ 1, Y = 0) 6= P(X ≥ 1)P(Y = 0) e questo basta per concludere che X e Y non sono indipendenti.
(d) La probabilità che in una coppia fissata i due coniugi siano nati lo stesso mese ma non lo stesso giorno vale r := q − p. Dato che la variabile aleatoria Z = Y − X conta il numero di coppie in cui i coniugi sono nati lo stesso mese ma non lo stesso giorno, sempre per lo schema delle prove ripetute e indipendenti si ha Z ∼ Bin(n, r) e dunque Var[Z] = nr(1 − r) = n(q − p)(1 − q + p).
Esercizio 3. Siano X e Y variabili aleatorie indipendenti, entrambe con distribuzione N (0, 1).
Definiamo quindi le variabili aleatorie S := X + Y e D := X − Y . Si ricordi la definizione Φ(x) :=
Z x
−∞
e−12t2
√2π dt .
(a) Si esprimano le probabilità P(S > c) e P(D > c), con c ∈ R, in termini della funzione Φ.
(b) Si determini la densità congiunta delle variabili aleatorie S e D. Esse sono indipendenti?
(c) Posto M := max{X, Y }, si mostri che la variabile aleatoria M è assolutamente continua e si determini un’espressione per la sua densità. Per quali valori di p ∈ (0, ∞) si ha M ∈ Lp? Soluzione 3. (a) Per un risultato visto a lezione, la somma di variabili aleatorie normali
indipendenti è normale, con media e varianza uguali alla somma delle rispettive medie e varianze. In particolare, S = X + Y ∼ N (0, 2). Dato che −Y ∼ N (0, 1) (trasformazione lineare-affine di una normale), anche D = X − Y ∼ N (0, 2).
(b) La trasformazione (x, y) 7→ (s, d) = ϕ(x, y) = (x + y, x − y) è un diffeomorfismo (lineare!) di R2, con inversa (s, d) 7→ (x, y) = ϕ−1(s, d) = (s+d2 ,s−d2 ). Dato che | det J ϕ−1(s, d)| = 12 per ogni (s, d) ∈ R2, dalla formula di trasformazione della densità si ottiene
f(S,D)(s, d) = | det J ϕ−1(s, d)|f(X,Y )(ϕ−1(s, d)) = 1
2f(X,Y )(s+d2 ,s−d2 )
= 1
2fX(s+d2 )fY(s−d2 ) = 1 2
e−12(s+d2 )2
√2π
e−12(s−d2 )2
√2π = e−12s22
√4π e−12d22
√4π = fS(s) fD(d) , dove l’ultima uguaglianza segue dalla formula della densità di una variabile aleatoria N (µ, σ2).
Questo mostra che le variabili aleatorie S e D sono indipendenti.
(c) Per t ∈ R si ha
FM(t) = P(M ≤ t) = P(X ≤ t, Y ≤ t) = P(X ≤ t)P(Y ≤ t) = Φ(t)2.
Dato che la funzione Φ è di classe C1 a tratti (anzi C∞), segue che M è una variabile aleatoria assolutamente continua con densità
fM(t) = FM0 (t) = 2Φ(t)Φ0(t) = 2Φ(t)e−12t2
√ 2π . Infine, essendo Φ(t) ≤ 1,
E[|M |p] = Z
R
|t|pfM(t) dt ≤ 2 Z
R
|t|pe−12t2
√2π dt .
Resta da capire quando l’integrale è finito. Essendo la funzione integranda continua, l’integrale è finito su ogni intervallo compatto [−M, M ], pertanto basta limitarsi a controllare la “coda”
dell’integrale per |t| > M , con M > 0 arbitrario. Dato che limz→∞zp/e14z2 = 0, esiste M ∈ (0, ∞) tale che per z > M si ha zp ≤ e14z2 e dunque
Z
|t|>M
|t|pe−12t2
√2π dt ≤ Z
|t|>M
e−14t2
√2π dt < ∞ . Dunque M ∈ Lp per ogni p ∈ (0, ∞).
PARTE II (Esercizi 4, 5, 6)
Esercizio 4. Su uno spazio di probabilità (Ω, A, P) sono definite le variabili aleatorie indipendenti ((Ni)i∈N, (Xi)i∈N), con distribuzioni marginali Xi ∼ Exp(1) e Ni ∼ Geo(1i) per ogni i ∈ N.
Definiamo una nuova successione (Wk)k∈N di variabili aleatorie ponendo Wk:=
Nk
X
i=1
Xi, ossia Wk(ω) :=
Nk(ω)
X
i=1
Xi(ω) ∀ω ∈ Ω . (a) Per ogni k, n ∈ N e w ∈ (0, ∞), si mostri che
P(Wk≤ w|Nk = n) = Z w
0
tn−1e−t (n − 1)!dt . (b) Si mostri che la variabile aleatoria Wk ha distribuzione Exp(k1).
(c) La successione di variabili aleatorie (Wk)k∈N ha limite in distribuzione?
Soluzione 4. (a) Si ha
P(Wk≤ w|Nk = n) = P
n
X
i=1
Xi≤ w
Nk = n
= P
n
X
i=1
Xi ≤ w
,
dove abbiamo usato l’indipendenza di Nkdalle (Xi)i∈N nell’ultimo passaggio. Per un risultato visto a lezionePn
i=1Xi ∼ Gamma(n, 1), pertanto P(Wk≤ w|Nk= n) = P(Gamma(n, 1) ≤ w) =
Z w 0
fGamma(n,1)(t) dt = Z w
0
tn−1
(n − 1)!e−tdt . [In altri termini, la variabile aleatoria Wk rispetto alla probabilità condizionale P( · |Nk= n) ha legge Gamma(n, 1).]
(b) La funzione di ripartizione della variabile aleatoria Wk è data per w > 0 da FWk(w) = P(Wk≤ w) =
∞
X
n=1
P(Wk≤ w|Nk = n)P(Nk= n)
=
∞
X
n=1
Z w 0
tn−1
(n − 1)!e−tdt
!
1
k(1 −1k)n−1= Z w
0
∞
X
n=1
(t(1 − 1k))n−1 (n − 1)!
!
1 ke−tdt
= Z w
0
∞
X
m=0
(t(1 −1k))m m!
!
1
ke−tdt = Z w
0
et(1−1k) 1ke−tdt = Z w
0 1
ke−k1tdt ,
dove lo scambio di serie e integrale è giustificato dal fatto che le funzioni sono positive. Dato che FW(w) = 0 per w ≤ 0, abbiamo mostrato che FW è una funzione C1 a tratti, dunque la variabile aleatoria W è assolutamente continua con densità
fW(w) = FW0 (w) = k1e−1kw1(0,∞)(w) , ossia W ∼ Exp(1k).
(c) Chiaramente P(Wk≤ w) = 0 per w ≤ 0, mentre per w > 0, per il punto precedente,
k→∞lim P(Wk≤ w) = lim
k→∞
Z w 0
fWk(t) dt = lim
k→∞
Z w 0
1
ke−1ktdt = lim
k→∞ 1 − e−1kw = 0 . Da ciò segue che la successione (Wk)k∈N non ha limite in distribuzione. Supponendo infatti per assurdo che Wk→ W in distribuzione, per un’opportuna variabile aleatoria W , si avrebbe la convergenza puntuale delle funzioni di ripartizione limk→∞FWk(w) = FW(w) per ogni punto w ∈ R in cui FW è continua, e tali punti formano un sottoinsieme denso di R. Ma abbiamo appena mostrato che limk→∞FWk(w) = 0 per ogni w ∈ R, dunque si dovrebbe
avere FW(w) = 0 per ogni w in un sottoinsieme denso di R. Ciò non è possibile in quanto limw→+∞FW(w) = 1 per proprietà generali delle funzioni di ripartizione.
Esercizio 5. Sia (λi)i∈N una successione di numeri reali strettamente positivi tali che Λ :=X
i∈N
λi < ∞ .
Siano quindi (Xi)i∈N variabili aleatorie indipendenti, con Xi∼ Pois(λi), definite su uno spazio di probabilità (Ω, A, P). Per n ∈ N poniamo
Sn:=
n
X
i=1
Xi.
Definiamo infine la variabile aleatoria S : Ω → N0∪ {+∞} mediante il seguente limite:
S(ω) := lim
n→∞Sn(ω) , che è ben definito per q.o. ω ∈ Ω (perché?).
(a) Si mostri che E[S] = Λ e si deduca che S < ∞ q.c..
(b) Si mostri che limn→∞E[ϕ(Sn)] = E[ϕ(S)], per ogni funzione ϕ : R → R continua e limitata.
(c) Si mostri che per ogni k ∈ N0 fissato
n→∞lim P(Sn= k) = P(S = k) . [Sugg. Si scelga un’opportuna funzione ϕ : R → R . . . ]
(d) Si mostri che S ∼ Pois(Λ).
(e) Per quali p ∈ (0, ∞) si ha E[Sp] < ∞? Per quali p ∈ (0, ∞) si ha limn→∞Sn= S in Lp? Soluzione 5. (a) Dato che Xi ≥ 0 per ogni i ∈ N, la successione Sn è crescente e per tale
ragione il limite che definisce S è ben definito. Per il teorema di convergenza monotona si ha dunque
E[S] = Eh
n→∞lim Sni
= lim
n→∞E[Sn] = lim
n→∞
n
X
i=1
E[Xi] = lim
n→∞
n
X
i=1
λi =X
i∈N
λi= Λ . Essendo Λ < ∞ per ipotesi, si ha E[S] < ∞ e dunque S < ∞ q.c..
(b) Per definizione si ha limn→∞Sn = S q.c., ed essendo la funzione ϕk continua si ha anche limn→∞ϕk(Sn) = ϕk(S) q.c.. Dato che |ϕk| ≤ 1, per il teorema di convergenza dominata si ha limn→∞E[ϕk(Sn)] = E[ϕk(S)].
(c) Fissiamo k ∈ N0. Supponiamo che esista una funzione ϕ : R → R continua e limitata tale che E[ϕ(Sn)] = P(Sn= k) , E[ϕ(S)] = P(S = k) .
Applicando il punto precedente, si ottiene limn→∞P(Sn= k) = P(S = k).
Osserviamo che, essendo Sn e S variabili aleatorie discrete, a valori in N0, E[ϕ(Sn)] = X
i∈N0
ϕ(i) P(Sn= i) , E[ϕ(S)] = X
i∈N0
ϕ(i) P(S = i) ,
quindi dobbiamo trovare una funzione ϕ : R → R continua e limitata con la proprietà che ϕ(i) = δk,i per ogni i ∈ N0, ossia ϕ(i) = 1 se i = k, mentre ϕ(i) = 0 se i 6= k.
Ci sono infinite funzioni con tale proprietà, ad esempio si può considerare la funzione che è nulla al di fuori dell’intervallo [k −12, k +12], vale 1 nel punto centrale k di tale intervallo ed è lineare-affine in ciascun sottointervallo [k −12, k] e [k, k + 12]. In formule:
ϕ(x) :=
0 se x ∈ (−∞, k −12] 2(x − k) + 1 se x ∈ [k − 12, k]
−2(x − k) + 1 se x ∈ [k, k +12] 0 se x ∈ [k + 12, ∞)
.
(d) Poniamo Λn:=Pn
i=1λi. Dato che la somma di variabili aleatorie indipendenti di Poisson è di Poisson, si ha Sn∼ Pois(Λn), pertanto
P(Sn= k) = e−Λn(Λn)k k! .
Dato che Λn→ Λ < ∞ per n → ∞, per il punto precedente si ha P(S = k) = lim
n→∞P(Sn= k) = e−Λ(Λ)k k! , per ogni k ∈ N0 fissato. Questo mostra che S ∼ Pois(Λ).
(e) Si ha
E[|S|p] = E[Sp] = X
i∈N0
ipP(S = i) = X
i∈N0
ipe−ΛΛi i! .
Dato che limi→∞ip/2i= 0, la successione ip/2i è limitata, ossia esiste C ∈ (0, ∞) tale che ip ≤ C2i per ogni i ∈ N0, quindi
E[|S|p] ≤ C X
i∈N0
2iΛi
i! = Ce2Λ < ∞ . Ciò mostra che S ∈ Lp per ogni p ∈ (0, ∞).
Infine, essendo 0 ≤ Sn ≤ S, abbiamo mostrato che la successione Sn è dominata dalla variabile aleatoria S ∈ Lp. Dato che Sn→ S q.c., per un risultato visto a lezione segue che Sn→ S in Lp per ogni p ∈ (0, ∞).
Esercizio 6. N palline vengono ripartite in due scatole, che chiamiamo A e B. Inizialmente le palline sono tutte nella scatola B (la scatola A è vuota). In ogni istante si sceglie una pallina a caso, uniformemente tra le N , e la si sposta nell’altra scatola.
Indicando con Xnil numero di palline che si trovano nella scatola A dopo l’istante n, il processo X = (Xn)n≥0 è una catena di Markov con spazio degli stati E = {0, 1, . . . , N }.
(a) Si scriva la matrice di transizione (pij)i,j∈E della Catena di Markov, mostrando che è irriducibile e ricorrente positiva.
(b) Si mostri che πi := c Ni, per un’opportuna scelta della costante c = cN ∈ (0, ∞), definisce l’unica probabilità invariante della catena di Markov.
Soluzione 6. (a) Si ricordi che pij = P(Xn+1 = j|Xn = i). Se in un certo istante ci sono i palline nella scatola A (e dunque ce ne sono N − i nella scatola B), all’istante successivo il numero di palline nella scatola A sarà i + 1 (se viene scelta una pallina nella scatola B) oppure i − 1 (se viene scelta una pallina nella scatola A). Quindi
pij =
1 −Ni se j = i + 1
i
N se j = i − 1
0 se j 6∈ {i − 1, i + 1}
.
Si noti che pi,i+1> 0 per ogni i = 0, 1, . . . , N − 1 si ha 0 → 1 → 2 → . . . → N ; analogamente, essendo pi,i−1 > 0 per ogni i = 1, 1, . . . , N si ha N → N − 1 → N − 2 → . . . → 0. Questo mostra che i ↔ j per ogni i, j ∈ E, ossia c’è un’unica classe di comunicazione, vale a dire la catena è irriducibile. Essendo E finito, ed essendo ogni classe di comunicazione chiusa e finita ricorrente positiva, segue che la catena è ricorrente positiva.
(b) Affinché sia una probabilità occorre che PN
i=0πi= 1, da cui c = 21N (Binomio di Newton), ossia πi = Ni(12)N non è altro che la (densità discreta della) distribuzione Bin(N,12).
Mostriamo che la probabilità è reversibile: πipij = πjpji, ossia
N i
pij =N j
pji, ∀i, j ∈ E .
Se |j − i| 6= 1 si ha pij = pji= 0 e la relazione è banalmente verificata. Essendo la relazione simmetrica in i, j, possiamo dunque limitarci a considerare il caso in cui j = i + 1. Con un calcolo esplicito si ottiene:
N i
pi,i+1 =N i
1 − i N
= N !
i!(N − i)!
N − i
N = (N − 1)!
i!(N − i − 1)! =N − 1 i
, e analogamente
N i + 1
pi+1,i=
N i + i
i + 1
N = N !
(i + 1)!(N − i − 1)!
i + 1
N = (N − 1)!
i!(N − i − 1)! =N − 1 i
.