• Non ci sono risultati.

Dato che ci sono 5 carte bicolori, e ciascuna può essere deposta sulla faccia nera o sulla faccia rossa con la stessa probabilità, si ha che X ∼ Bin(5,12)

N/A
N/A
Protected

Academic year: 2021

Condividi "Dato che ci sono 5 carte bicolori, e ciascuna può essere deposta sulla faccia nera o sulla faccia rossa con la stessa probabilità, si ha che X ∼ Bin(5,12)"

Copied!
8
0
0

Testo completo

(1)

Laurea Triennale in Matematica 2014/15 Nome:

29 gennaio 2015 Email:

Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile usare tutti i risultati visti a lezione (compresi quelli di cui non è stata fornita la dimostrazione).

PARTE I (Esercizi 1, 2, 3)

Esercizio 1. Una scatola contiene 21 carte, di cui 9 hanno entrambe le facce rosse, 7 le hanno entrambe nere mentre 5 carte hanno una faccia rossa e l’altra nera.

(a) Disponendo casualmente tutte le carte sul tavolo, qual è la probabilità che io veda più facce nere che rosse?

Pesco ora una sola carta dalla scatola e la depongo casualmente sul tavolo.

(b) Se la faccia che vedo è rossa, qual è la probabilità che la faccia nascosta sia nera?

Soluzione 1. (a) Sia X il numero di carte “bicolori” che mostrano la faccia nera. Dato che ci sono 5 carte bicolori, e ciascuna può essere deposta sulla faccia nera o sulla faccia rossa con la stessa probabilità, si ha che X ∼ Bin(5,12). Il numero totale di facce nere vale allora 7 + X mentre il numero di facce rosse vale 9 + (5 − X). Dato che 7 + X ≥ 9 + (5 − X) equivale a X ≥ 3.5, e X può assumere solo valori interi, segue che l’evento “vedo più facce nere che rosse” coincide con {X ≥ 4}. Pertanto la probabilità richiesta vale

P(X ≥ 4) = P(X = 4) + P(X = 5) =5 4

 1 25 +5

5

 1 25 = 6

25 = 3 16.

(b) Introduciamo gli eventi R := “pesco una carta con entrambe le facce rosse”, D := “pesco una carta con le facce di due colori diversi” e N := “pesco una carta con entrambe le facce nere”, che costituiscono una partizione dello spazio di probabilità, e si ha

P(R) = 9 21 = 3

7, P(D) = 5

21, P(N ) = 7 21 = 1

3. Introducendo l’evento A := “la faccia che vedo è rossa”, si ha inoltre

P(A|R) = 1 , P(A|D) = 1

2, P(A|N ) = 0 , da cui, per la formula delle probabilità totali,

P(A) = P(A|R)P(R) + P(A|D)P(D) + P(A|N )P(N ) = 3 7 + 5

42 = 23 42.

Infine, introducendo l’evento B := “la faccia nascosta è nera”, dato che P(B|A) = P(D|A), per la formula di Bayes si ottiene

P(D|A) = P(A|D)P(D)

P(A) =

1 2

5 21 23 42

= 5

23 ' 22% .

(2)

Esercizio 2. Consideriamo un gruppo di n = 3650 coppie di sposi. Assumiamo che ciascuna persona, indipendentemente da ciascun altra, sia nata in un giorno casuale di un anno non bisestile.

(a) Consideriamo una coppia fissata: qual è la probabilità p che i coniugi siano nati lo stesso giorno? Qual è la probabilità q che i coniugi siano nati lo stesso mese?

[Sugg. Non è necessario semplificare le frazioni risultanti.]

È possibile esprimere le risposte alle prossime domande in termini di n, p, q. Indichiamo con X (risp. Y ) il numero di coppie in cui i coniugi sono nati lo stesso giorno (risp. lo stesso mese).

(b) Si determinino valore medio e varianza delle variabili aleatorie X e Y . (c) Le variabili aleatorie X e Y sono indipendenti?

(d) Si calcoli la varianza di Z := Y − X.

Soluzione 2. (a) Detti Z e W rispettivamente i giorni di nascita dei due coniugi, le variabili aleatorie Z e W sono i.i.d. con distribuzione uniforme (discreta) nell’insieme dei giorni dell’anno, che indichiamo con i numeri da 1 a 365. P(Z = a) = P(W = a) = 3651 , da cui p = P(Z = W ) = X

a∈{1,...,365}

P(Z = W = a) = X

a∈{1,...,365}

P(Z = a)P(W = a) = 365 3652 = 1

365. Sia ora M l’evento “i coniugi sono nati lo stesso mese”. Siano A, B, C gli eventi definiti rispettivamente da “il primo coniuge è nato in un mese di 31, 30, 28 giorni”. In un anno non bisestile ci sono 7 mesi di 31 giorni, 4 mesi di 30 giorni e 1 mese di 28 giorni, per cui

P(A) = 7 · 31

365 = 217

365, P(B) = 4 · 30 365 = 120

365, P(C) = 28 365,

Fissato un mese di 31 giorni, la probabilità che il secondo coniuge sia nato in quel mese vale

31

365; considerazioni analoghe valgono per i mesi di 30 e 28 giorni, per cui P(M |A) = 31

365, P(M |B) = 30

365, P(M |C) = 28 365.

Infine, applicando la formula delle probabilità totali, troviamo il valore richiesto di q:

q = P(M ) = P(M |A)P(A) + P(M |B)P(B) + P(M |C)P(C) = 31 365

217 365+ 30

365 120 365+ 28

365 28 365. (b) Per ciascuna coppia, la probabilità che entrambi i coniugi siano nati lo stesso giorno (risp.

lo stesso mese) vale p (risp. q), indipendentemente da ciascun altra coppia. Applicando lo schema delle prove ripetute e indipendenti, si ha X ∼ Bin(n, p) mentre Y ∼ Bin(n, q), da cui

E[X] = np , Var[X] = np(1 − p) , E[Y ] = nq , Var[Y ] = nq(1 − q) .

(c) Le variabili aleatorie X e Y non sono indipendenti. Infatti se se Y = 0 (non ci sono coppie i cui coniugi sono nati lo stesso mese) allora necessariamente anche X = 0 (non ci sono coppie i cui coniugi sono nati lo stesso giorno), da cui P(X ≥ 1, Y = 0) = 0; d’altro canto P(X ≥ 1) > 0 e P(Y = 0) > 0, dunque P(X ≥ 1, Y = 0) 6= P(X ≥ 1)P(Y = 0) e questo basta per concludere che X e Y non sono indipendenti.

(d) La probabilità che in una coppia fissata i due coniugi siano nati lo stesso mese ma non lo stesso giorno vale r := q − p. Dato che la variabile aleatoria Z = Y − X conta il numero di coppie in cui i coniugi sono nati lo stesso mese ma non lo stesso giorno, sempre per lo schema delle prove ripetute e indipendenti si ha Z ∼ Bin(n, r) e dunque Var[Z] = nr(1 − r) = n(q − p)(1 − q + p).

(3)

Esercizio 3. Siano X e Y variabili aleatorie indipendenti, entrambe con distribuzione N (0, 1).

Definiamo quindi le variabili aleatorie S := X + Y e D := X − Y . Si ricordi la definizione Φ(x) :=

Z x

−∞

e12t2

√2π dt .

(a) Si esprimano le probabilità P(S > c) e P(D > c), con c ∈ R, in termini della funzione Φ.

(b) Si determini la densità congiunta delle variabili aleatorie S e D. Esse sono indipendenti?

(c) Posto M := max{X, Y }, si mostri che la variabile aleatoria M è assolutamente continua e si determini un’espressione per la sua densità. Per quali valori di p ∈ (0, ∞) si ha M ∈ Lp? Soluzione 3. (a) Per un risultato visto a lezione, la somma di variabili aleatorie normali

indipendenti è normale, con media e varianza uguali alla somma delle rispettive medie e varianze. In particolare, S = X + Y ∼ N (0, 2). Dato che −Y ∼ N (0, 1) (trasformazione lineare-affine di una normale), anche D = X − Y ∼ N (0, 2).

(b) La trasformazione (x, y) 7→ (s, d) = ϕ(x, y) = (x + y, x − y) è un diffeomorfismo (lineare!) di R2, con inversa (s, d) 7→ (x, y) = ϕ−1(s, d) = (s+d2 ,s−d2 ). Dato che | det J ϕ−1(s, d)| = 12 per ogni (s, d) ∈ R2, dalla formula di trasformazione della densità si ottiene

f(S,D)(s, d) = | det J ϕ−1(s, d)|f(X,Y )−1(s, d)) = 1

2f(X,Y )(s+d2 ,s−d2 )

= 1

2fX(s+d2 )fY(s−d2 ) = 1 2

e12(s+d2 )2

√2π

e12(s−d2 )2

√2π = e12s22

√4π e12d22

√4π = fS(s) fD(d) , dove l’ultima uguaglianza segue dalla formula della densità di una variabile aleatoria N (µ, σ2).

Questo mostra che le variabili aleatorie S e D sono indipendenti.

(c) Per t ∈ R si ha

FM(t) = P(M ≤ t) = P(X ≤ t, Y ≤ t) = P(X ≤ t)P(Y ≤ t) = Φ(t)2.

Dato che la funzione Φ è di classe C1 a tratti (anzi C), segue che M è una variabile aleatoria assolutamente continua con densità

fM(t) = FM0 (t) = 2Φ(t)Φ0(t) = 2Φ(t)e12t2

√ 2π . Infine, essendo Φ(t) ≤ 1,

E[|M |p] = Z

R

|t|pfM(t) dt ≤ 2 Z

R

|t|pe12t2

√2π dt .

Resta da capire quando l’integrale è finito. Essendo la funzione integranda continua, l’integrale è finito su ogni intervallo compatto [−M, M ], pertanto basta limitarsi a controllare la “coda”

dell’integrale per |t| > M , con M > 0 arbitrario. Dato che limz→∞zp/e14z2 = 0, esiste M ∈ (0, ∞) tale che per z > M si ha zp ≤ e14z2 e dunque

Z

|t|>M

|t|pe12t2

√2π dt ≤ Z

|t|>M

e14t2

√2π dt < ∞ . Dunque M ∈ Lp per ogni p ∈ (0, ∞).

(4)

PARTE II (Esercizi 4, 5, 6)

Esercizio 4. Su uno spazio di probabilità (Ω, A, P) sono definite le variabili aleatorie indipendenti ((Ni)i∈N, (Xi)i∈N), con distribuzioni marginali Xi ∼ Exp(1) e Ni ∼ Geo(1i) per ogni i ∈ N.

Definiamo una nuova successione (Wk)k∈N di variabili aleatorie ponendo Wk:=

Nk

X

i=1

Xi, ossia Wk(ω) :=

Nk(ω)

X

i=1

Xi(ω) ∀ω ∈ Ω . (a) Per ogni k, n ∈ N e w ∈ (0, ∞), si mostri che

P(Wk≤ w|Nk = n) = Z w

0

tn−1e−t (n − 1)!dt . (b) Si mostri che la variabile aleatoria Wk ha distribuzione Exp(k1).

(c) La successione di variabili aleatorie (Wk)k∈N ha limite in distribuzione?

Soluzione 4. (a) Si ha

P(Wk≤ w|Nk = n) = P

 n

X

i=1

Xi≤ w

Nk = n



= P

 n

X

i=1

Xi ≤ w

 ,

dove abbiamo usato l’indipendenza di Nkdalle (Xi)i∈N nell’ultimo passaggio. Per un risultato visto a lezionePn

i=1Xi ∼ Gamma(n, 1), pertanto P(Wk≤ w|Nk= n) = P(Gamma(n, 1) ≤ w) =

Z w 0

fGamma(n,1)(t) dt = Z w

0

tn−1

(n − 1)!e−tdt . [In altri termini, la variabile aleatoria Wk rispetto alla probabilità condizionale P( · |Nk= n) ha legge Gamma(n, 1).]

(b) La funzione di ripartizione della variabile aleatoria Wk è data per w > 0 da FWk(w) = P(Wk≤ w) =

X

n=1

P(Wk≤ w|Nk = n)P(Nk= n)

=

X

n=1

Z w 0

tn−1

(n − 1)!e−tdt

!

1

k(1 −1k)n−1= Z w

0

X

n=1

(t(1 − 1k))n−1 (n − 1)!

!

1 ke−tdt

= Z w

0

X

m=0

(t(1 −1k))m m!

!

1

ke−tdt = Z w

0

et(1−1k) 1ke−tdt = Z w

0 1

kek1tdt ,

dove lo scambio di serie e integrale è giustificato dal fatto che le funzioni sono positive. Dato che FW(w) = 0 per w ≤ 0, abbiamo mostrato che FW è una funzione C1 a tratti, dunque la variabile aleatoria W è assolutamente continua con densità

fW(w) = FW0 (w) = k1e1kw1(0,∞)(w) , ossia W ∼ Exp(1k).

(c) Chiaramente P(Wk≤ w) = 0 per w ≤ 0, mentre per w > 0, per il punto precedente,

k→∞lim P(Wk≤ w) = lim

k→∞

Z w 0

fWk(t) dt = lim

k→∞

Z w 0

1

ke1ktdt = lim

k→∞ 1 − e1kw = 0 . Da ciò segue che la successione (Wk)k∈N non ha limite in distribuzione. Supponendo infatti per assurdo che Wk→ W in distribuzione, per un’opportuna variabile aleatoria W , si avrebbe la convergenza puntuale delle funzioni di ripartizione limk→∞FWk(w) = FW(w) per ogni punto w ∈ R in cui FW è continua, e tali punti formano un sottoinsieme denso di R. Ma abbiamo appena mostrato che limk→∞FWk(w) = 0 per ogni w ∈ R, dunque si dovrebbe

(5)

avere FW(w) = 0 per ogni w in un sottoinsieme denso di R. Ciò non è possibile in quanto limw→+∞FW(w) = 1 per proprietà generali delle funzioni di ripartizione.

(6)

Esercizio 5. Sia (λi)i∈N una successione di numeri reali strettamente positivi tali che Λ :=X

i∈N

λi < ∞ .

Siano quindi (Xi)i∈N variabili aleatorie indipendenti, con Xi∼ Pois(λi), definite su uno spazio di probabilità (Ω, A, P). Per n ∈ N poniamo

Sn:=

n

X

i=1

Xi.

Definiamo infine la variabile aleatoria S : Ω → N0∪ {+∞} mediante il seguente limite:

S(ω) := lim

n→∞Sn(ω) , che è ben definito per q.o. ω ∈ Ω (perché?).

(a) Si mostri che E[S] = Λ e si deduca che S < ∞ q.c..

(b) Si mostri che limn→∞E[ϕ(Sn)] = E[ϕ(S)], per ogni funzione ϕ : R → R continua e limitata.

(c) Si mostri che per ogni k ∈ N0 fissato

n→∞lim P(Sn= k) = P(S = k) . [Sugg. Si scelga un’opportuna funzione ϕ : R → R . . . ]

(d) Si mostri che S ∼ Pois(Λ).

(e) Per quali p ∈ (0, ∞) si ha E[Sp] < ∞? Per quali p ∈ (0, ∞) si ha limn→∞Sn= S in Lp? Soluzione 5. (a) Dato che Xi ≥ 0 per ogni i ∈ N, la successione Sn è crescente e per tale

ragione il limite che definisce S è ben definito. Per il teorema di convergenza monotona si ha dunque

E[S] = Eh

n→∞lim Sni

= lim

n→∞E[Sn] = lim

n→∞

n

X

i=1

E[Xi] = lim

n→∞

n

X

i=1

λi =X

i∈N

λi= Λ . Essendo Λ < ∞ per ipotesi, si ha E[S] < ∞ e dunque S < ∞ q.c..

(b) Per definizione si ha limn→∞Sn = S q.c., ed essendo la funzione ϕk continua si ha anche limn→∞ϕk(Sn) = ϕk(S) q.c.. Dato che |ϕk| ≤ 1, per il teorema di convergenza dominata si ha limn→∞E[ϕk(Sn)] = E[ϕk(S)].

(c) Fissiamo k ∈ N0. Supponiamo che esista una funzione ϕ : R → R continua e limitata tale che E[ϕ(Sn)] = P(Sn= k) , E[ϕ(S)] = P(S = k) .

Applicando il punto precedente, si ottiene limn→∞P(Sn= k) = P(S = k).

Osserviamo che, essendo Sn e S variabili aleatorie discrete, a valori in N0, E[ϕ(Sn)] = X

i∈N0

ϕ(i) P(Sn= i) , E[ϕ(S)] = X

i∈N0

ϕ(i) P(S = i) ,

quindi dobbiamo trovare una funzione ϕ : R → R continua e limitata con la proprietà che ϕ(i) = δk,i per ogni i ∈ N0, ossia ϕ(i) = 1 se i = k, mentre ϕ(i) = 0 se i 6= k.

Ci sono infinite funzioni con tale proprietà, ad esempio si può considerare la funzione che è nulla al di fuori dell’intervallo [k −12, k +12], vale 1 nel punto centrale k di tale intervallo ed è lineare-affine in ciascun sottointervallo [k −12, k] e [k, k + 12]. In formule:

ϕ(x) :=









0 se x ∈ (−∞, k −12] 2(x − k) + 1 se x ∈ [k − 12, k]

−2(x − k) + 1 se x ∈ [k, k +12] 0 se x ∈ [k + 12, ∞)

.

(7)

(d) Poniamo Λn:=Pn

i=1λi. Dato che la somma di variabili aleatorie indipendenti di Poisson è di Poisson, si ha Sn∼ Pois(Λn), pertanto

P(Sn= k) = e−Λnn)k k! .

Dato che Λn→ Λ < ∞ per n → ∞, per il punto precedente si ha P(S = k) = lim

n→∞P(Sn= k) = e−Λ(Λ)k k! , per ogni k ∈ N0 fissato. Questo mostra che S ∼ Pois(Λ).

(e) Si ha

E[|S|p] = E[Sp] = X

i∈N0

ipP(S = i) = X

i∈N0

ipe−ΛΛi i! .

Dato che limi→∞ip/2i= 0, la successione ip/2i è limitata, ossia esiste C ∈ (0, ∞) tale che ip ≤ C2i per ogni i ∈ N0, quindi

E[|S|p] ≤ C X

i∈N0

2iΛi

i! = Ce < ∞ . Ciò mostra che S ∈ Lp per ogni p ∈ (0, ∞).

Infine, essendo 0 ≤ Sn ≤ S, abbiamo mostrato che la successione Sn è dominata dalla variabile aleatoria S ∈ Lp. Dato che Sn→ S q.c., per un risultato visto a lezione segue che Sn→ S in Lp per ogni p ∈ (0, ∞).

(8)

Esercizio 6. N palline vengono ripartite in due scatole, che chiamiamo A e B. Inizialmente le palline sono tutte nella scatola B (la scatola A è vuota). In ogni istante si sceglie una pallina a caso, uniformemente tra le N , e la si sposta nell’altra scatola.

Indicando con Xnil numero di palline che si trovano nella scatola A dopo l’istante n, il processo X = (Xn)n≥0 è una catena di Markov con spazio degli stati E = {0, 1, . . . , N }.

(a) Si scriva la matrice di transizione (pij)i,j∈E della Catena di Markov, mostrando che è irriducibile e ricorrente positiva.

(b) Si mostri che πi := c Ni, per un’opportuna scelta della costante c = cN ∈ (0, ∞), definisce l’unica probabilità invariante della catena di Markov.

Soluzione 6. (a) Si ricordi che pij = P(Xn+1 = j|Xn = i). Se in un certo istante ci sono i palline nella scatola A (e dunque ce ne sono N − i nella scatola B), all’istante successivo il numero di palline nella scatola A sarà i + 1 (se viene scelta una pallina nella scatola B) oppure i − 1 (se viene scelta una pallina nella scatola A). Quindi

pij =





1 −Ni se j = i + 1

i

N se j = i − 1

0 se j 6∈ {i − 1, i + 1}

.

Si noti che pi,i+1> 0 per ogni i = 0, 1, . . . , N − 1 si ha 0 → 1 → 2 → . . . → N ; analogamente, essendo pi,i−1 > 0 per ogni i = 1, 1, . . . , N si ha N → N − 1 → N − 2 → . . . → 0. Questo mostra che i ↔ j per ogni i, j ∈ E, ossia c’è un’unica classe di comunicazione, vale a dire la catena è irriducibile. Essendo E finito, ed essendo ogni classe di comunicazione chiusa e finita ricorrente positiva, segue che la catena è ricorrente positiva.

(b) Affinché sia una probabilità occorre che PN

i=0πi= 1, da cui c = 21N (Binomio di Newton), ossia πi = Ni(12)N non è altro che la (densità discreta della) distribuzione Bin(N,12).

Mostriamo che la probabilità è reversibile: πipij = πjpji, ossia

N i



pij =N j



pji, ∀i, j ∈ E .

Se |j − i| 6= 1 si ha pij = pji= 0 e la relazione è banalmente verificata. Essendo la relazione simmetrica in i, j, possiamo dunque limitarci a considerare il caso in cui j = i + 1. Con un calcolo esplicito si ottiene:

N i



pi,i+1 =N i



1 − i N



= N !

i!(N − i)!

N − i

N = (N − 1)!

i!(N − i − 1)! =N − 1 i

 , e analogamente

 N i + 1



pi+1,i=

 N i + i

 i + 1

N = N !

(i + 1)!(N − i − 1)!

i + 1

N = (N − 1)!

i!(N − i − 1)! =N − 1 i

 .

Riferimenti

Documenti correlati

, x 16 un campione, composto da 16 osservazioni indipendenti ed identi- camente distribuite, proveniente da una distribuzione normale con varianza incognita... [5 pt] Si enunci

LA CARTA FISICA : Osserviamo insieme la carta fisica d'Italia sul libro o sull'atlante.. LE SCHEDE DIDATTICHE DELLA

A major source of strain in the trade relations between China and the other core members of the liberal world trading system is its extensive use of state-owned enterprises as an

By doing so the newly created assets will become more liquid and in the end the market will offer a continuum o f different assets useable as media of

• Dossier della consultazione redatto dalla CPDP e parere definitivo della CNDP sono completi chiari e accessibili. • Il costo della consultazione è stato di 870.000€

Due giocatori, A e B, giocano nel modo seguente: fanno un'strazione casuale, se viene una pallina rossa A riceve 2¿ da B, se esce nera B riceve 3¿ da A.. (a) calcola il guadagno medio

 Calcolare la probabilita' di avere tutte le carte dello stesso seme.  Calcolare la probabilita' di avere 4 assi e

A partire dai temi trattati gli studenti stessi costruiscono delle attività laboratoriali di scoperta della probabilità da portare – in modalità peer to peer – in alcune