• Non ci sono risultati.

Pesco una pallina, dopodiché lancio una moneta equilibrata: se esce testa reinserisco la pallina estratta nell’urna, mentre se esce croce non la reinserisco

N/A
N/A
Protected

Academic year: 2021

Condividi "Pesco una pallina, dopodiché lancio una moneta equilibrata: se esce testa reinserisco la pallina estratta nell’urna, mentre se esce croce non la reinserisco"

Copied!
9
0
0

Testo completo

(1)

Laurea Triennale in Matematica 2013/14 Nome:

20 febbraio 2014 Email:

Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile usare tutti i risultati visti a lezione (compresi quelli di cui non è stata fornita la dimostrazione).

PARTE I (Esercizi 1, 2, 3)

Esercizio 1. Siano A, B, C eventi generici, tali cheP(B ∩ A) > 0 e P(Bc∩ A) > 0.

(a) Si dimostri la seguente formula:

P(C|A) = P(C|B ∩ A)P(B|A) + P(C|Bc∩ A)P(Bc|A) .

Consideriamo ora un’urna contiene 3 palline bianche e 2 palline rosse. Pesco una pallina, dopodiché lancio una moneta equilibrata: se esce testa reinserisco la pallina estratta nell’urna, mentre se esce croce non la reinserisco. Estraggo quindi una seconda pallina dall’urna.

(b) Qual è la probabilità che le palline estratte siano entrambe rosse?

(c) Sapendo che le palline estratte sono entrambe rosse, è più probabile che la moneta abbia dato come esito testa, oppure croce?

Soluzione 1. (a) Applicando la definizione delle probabilità condizionali, la formula richiesta si riscrive come

P(C ∩ A)

P(A) = P(C ∩ B ∩ A) P(B ∩ A)

P(B ∩ A)

P(A) +P(C ∩ Bc∩ A) P(Bc∩ A)

P(Bc∩ A) P(A) , ossia

P(C ∩ A) = P((C ∩ A) ∩ B) + P((C ∩ A) ∩ Bc) , che è un caso particolare della ben nota formula di disintegrazione.

[Una dimostrazione alternativa, più istruttiva, è la seguente. Indichiamo con P0( · ) := P( · |A) la probabilità condizionale rispetto ad A, che sappiamo essere una probabilità. Applicando la formula delle probabilità totali, si ottiene

P0(C) = P0(C|B)P0(B) + P0(C|Bc)P0(Bc) , che coincide precisamente con la formula cercata, perché

P0(C|B) = P0(C ∩ B)

P0(B) = P(C ∩ B|A) P(B|A) =

P(C∩B∩A) P(A) P(B∩A)

P(A)

=P(C ∩ B ∩ A)

P(B ∩ A) = P(C|B ∩ A) e analogamenteP0(C|Bc) = P(C|Bc∩ A), mentre P0(B) = P(B|A) e P0(Bc) = P(Bc|A).]

(b) Introduciamo gli eventi A:= “la prima pallina estratta è rossa”, B := “la moneta dà come esito testa” e C:= “la seconda pallina estratta è rossa”. I dati del problema sono i seguenti:

P(A) = 2

5, P(C|A ∩ B) = 2

5, P(C|A ∩ Bc) = 1 4.

L’evento R:= “entrambe le palline estratte sono rosse” coincide con A ∩ C, per cui P(R) = P(A ∩ C) = P(A)P(C|A) = 2

5P(C|A) . Per calcolareP(C|A), applichiamo il punto precedente:

P(C|A) = P(C|B ∩ A)P(B|A) + P(C|Bc∩ A)P(Bc|A) = 2 5 1 2+1

4 1 2 = 13

40,

(2)

avendo usato il fatto cheP(B|A) = P(Bc|A) = 12. Otteniamo dunque P(R) = 2

5P(C|A) = 2 5

13 40 = 13

100.

In alternativa, si può applicare direttamente la formula delle probabilità totali P(R) = P(R|B)P(B) + P(R|Bc)P(Bc) ,

e notando cheP(R|B) = 2525 = 254, P(R|Bc) = 2514 = 101 mentreP(B) = P(Bc) = 12, si ottiene P(R) = 4

25 1 2 + 1

10 1 2 = 13

100.

(c) La probabilità che la moneta dia come esito testa, sapendo che entrambe le palline estratte sono rosse, è data da

P(B|R) = P(R|B)P(B)

P(R) = P(R|B)12

13 100

=

2 5 2 5 1 2 13 100

= 2 25

100 13 = 8

13 > 1 2,

avendo applicato la formula di Bayes. Quindi, se entrambe le palline estratte sono rosse, è più probabile che sia uscita testa. Questo risultato è abbastanza intuitivo, se si considera che la reimmissione di una pallina rossa nell’urna (che avviene se la moneta dà come esito testa) rende più probabile l’estrazione di una seconda pallina rossa.

(3)

Esercizio 2. In ogni istante n ∈ N lanciamo una moneta, che dà testa con probabilità fissata q ∈(0, 1), e indichiamo con Xn∈ {t, c} l’esito del lancio. Indichiamo quindi con τ il primo istante in cui si osserva un esito diverso dal precedente, ossia

τ := min{k ∈ N, k ≥ 2 : Xk6= Xk−1} , con la convenzione min ∅ := +∞, e indichiamo con Z l’esito in tale istante:

Z := Xτ.

Si noti che che τ è una variabile aleatoria a valori in N ∪ {+∞}, mentre Z è a valori in {t, c}.

(a) Si mostri che, per ogni n ∈ N con n ≥ 2, si ha

P(τ = n) = q(1 − q)n−1+ (1 − q)qn−1. (b) Quanto vale P(τ = +∞)?

(c) Si determini la distribuzione di Z.

[Sugg.: può essere utile determinare la distribuzione congiunta di τ, Z.]

Soluzione 2. (a) Calcoliamo per ogni n ∈ N con n ≥ 2

P(τ = n, Z = t) = P(τ = n, Xn= t) = P(X1 = c, X2 = c, . . . , Xn−1= c, Xn= t)

= P(X1 = c)P(X2= c) · · · P(Xn−1= c)P(Xn= t) = (1 − q)n−1q , e analogamente

P(τ = n, Z = c) = P(τ = n, Xn= c) = P(X1 = t, X2 = t, . . . , Xn−1= t, Xn= c)

= P(X1 = t)P(X2 = t) · · · P(Xn−1= t)P(Xn= c) = qn−1(1 − q) . Per la formula di disintegrazione,

P(τ = n) = P(τ = n, Z = t) + P(τ = n, Z = c) = q(1 − q)n−1+ (1 − q)qn−1.

(b) L’evento {τ < +∞} coincide con l’evento che tutti gli esiti dei lanci siano uguali, ossia {Xn= t ∀n ∈ N} ∪ {Xn= c ∀n ∈ N}, che sappiamo avere probabilità nulla, perché q.c. si hanno infinite teste e infinite croci (come segue, ad esempio, dal Lemma di Borel-Cantelli).

In alternativa, si può fare un calcolo diretto:

P(τ < +∞) = X

n∈N, n≥2

P(τ = n) = q X

n∈N, n≥2

(1 − q)n−1+ (1 − q) X

n∈N, n≥2

qn−1

= q(1 − q) X

m∈N0

(1 − q)m+ (1 − q)q X

m∈N0

qm

= q(1 − q) 1

1 − (1 − q) + (1 − q)q 1

1 − q = (1 − q) + q = 1 , e quindiP(τ = +∞) = 1 − P(τ < +∞) = 0.

(c) La distribuzione congiunta di τ, Z è già stata calcolata nei punti precedenti. La distribuzione marginale di Z segue facilmente:

P(Z = t) =X

n∈N

P(τ = n, Z = t) = X

n∈N, n≥2

(1 − q)n−1q= q(1 − q) X

m∈N0

(1 − q)m

= q(1 − q) 1

1 − (1 − q) = 1 − q ,

e dunque P(Z = c) = 1 − P(Z = t) = q. Si osservi che Z ha una distribuzione “invertita”

rispetto alle variabili Xn, ossia vale testa con probabilità 1 − q e croce con probabilità q.

(4)

Esercizio 3. Siano A, B variabili aleatorie indipendenti con distribuzione Gamma(2, 1), ossia assolutamente continue con densità

fA(z) = fB(z) = z e−z1(0,∞)(z) .

Indichiamo con(X, Y ) il punto nel primo quadrante del piano cartesiano in cui si intersecano la parabola di equazione y= A1x2+ B e la retta di equazione y = −x + 2A + B.

(a) Si mostri che il vettore aleatorio(X, Y ) è assolutamente continuo, con densità fX,Y(x, y) = x (y − x) e−y1{0<x<y}.

(b) Si determinino le distribuzioni marginali di X e Y . (c) Si calcoliCov(X, Y ).

Soluzione 3. (a) Sostituendo y= −x + 2A + B in y = A1x2+ B si ottiene x2+ Ax − 2A2= 0 ,

la cui soluzione positiva (visto che cerchiamo un punto nel primo quadrante) è data da x= 12(−A +√

9A2) = A. Sostituendo nell’equazione della retta, si trova y = −A + 2A + B = A+ B. In definitiva, il punto cercato è

(X, Y ) = (A, A + B) .

Il vettore aleatorio(A, B) è assolutamente continuo, perché ha componenti indipendenti e assolutamente continue, con densità congiunta

fA,B(a, b) = fA(a)fB(b) = a b e−a−b1{a>0, b>0}.

Il vettore(X, Y ) = ϕ((A, B)), essendo ottenuto mediante una trasformazione ϕ lineare con determinante+1, è anch’esso assolutamente continuo, con densità

fX,Y(x, y) = fA,B−1(x, y)) = fA,B(x, y − x) = x (y − x) e−y1{x>0, y−x>0}, che coincide con la densità cercata.

(b) Essendo X = A si ha X ∼ Gamma(2, 1). Essendo Y = A + B, per la proprietà della somma di variabili aleatorie Gamma indipendenti, si ha Y ∼Gamma(4, 1). In alternativa, con un calcolo diretto, si ha fY(y) = 0 per y ≤ 0, mentre per y > 0

fY(y) = Z

R

fX,Y(x, y) dx = e−y Z y

0

x(y − x) dx = e−y y2 2 y −y3

3



= y3 6 e−y.

(c) Innanzitutto,Cov(X, Y ) è ben definita perché X, Y ∈ L2: infatti le variabili aleatorie Gamma hanno varianza Var(Gamma(n, λ)) = λn2 finita (in particolare, Var(X) = Var(A) = 2).

Usando la bilinearità della covarianza, si ottiene facilmente

Cov(X, Y ) = Cov(A, A + B) = Cov(A, A) + Cov(A, B) = Var(A) = 2 ,

perchéCov(A, B) = 0, essendo A e B indipendenti. In alternativa, con un calcolo diretto, E(XY ) =

Z

R2

x y fX,Y(x, y) dx dy = Z

0

dy y e−y

 Z y 0

x2(y − x) dx



= Z

0

dy y e−yy4 1 3 −1

4



= 1 12

Z 0

dy y5e−y = 1

12Γ(6) = 1

125! = 10 , ed essendoE(X) = E(Gamma(2, 1)) = 2 e E(Y ) = E(Gamma(4, 1)) = 4, ritroviamo

Cov(X, Y ) = E(XY ) − E(X)E(Y ) = 10 − 8 = 2 .

(5)

PARTE II (Esercizi 4, 5, 6)

Esercizio 4. Siano(Xn)n∈N variabili aleatorie indipendenti (non necessariamente identicamente distribuite) che assumono valori reali strettamente positivi, ossia a valori in(0, ∞), definite su uno spazio di probabilità(Ω, A, P). Definiamo la variabile aleatoria Z : Ω → [0, ∞) mediante

Z(ω) := inf

n∈NXn(ω) , e poniamo

q:= P(Z = 0) .

(a) Si mostri che, per ogni ε >0 fissato, vale l’inclusione di eventi {Z = 0} ⊆ lim sup

n∈N

{Xn< ε} . Vale l’inclusione opposta?

(b) Supponiamo che esista ε >0 tale cheP

n∈NP(Xn< ε) < ∞. Si mostri che q = 0.

(c) Supponiamo ora che per ogni ε >0 si abbiaP

n∈NP(Xn< ε) = ∞. Si mostri che q = 1.

(d) Indichiamo con G la σ-algebra terminale (detta anche “di coda”) della successione(Xn)n∈N. L’evento {Z= 0} appartiene a G? La variabile aleatoria Z è G-misurabile?

Soluzione 4. (a) Se ω ∈ {Z = 0} allora Z(ω) = 0, ossia la successione positiva (Xn(ω))n∈N ha estremo inferiore zero. Di conseguenza, per ogni ε >0 fissato, ci sono infiniti elementi della successione(Xn(ω))n∈N che sono minori di ε: infatti, se fossero in numero finito, il loro minimo —che coincide con il minimo dell’intera successione— sarebbe strettamente positivo, contraddicendo il fatto che l’estremo inferiore vale zero. Dunque ω ∈lim supn∈N{Xn< ε}, che mostra l’inclusione richiesta.

L’inclusione opposta in generale è falsa. Consideriamo ad esempio variabili aleatorie uniformi Xn∼ U(12ε,23ε), tali che per ogni ω ∈ Ω si abbia Xn(ω) ∈ (12ε,23ε) per ogni n ∈ N.

Questo significa che l’evento lim supn∈N{Xn < ε} coincide con l’intero spazio Ω, mentre d’altro canto per nessun ω ∈Ω si ha Z(ω) = 0, essendo Xn(ω) ≥ ε3 per ogni n ∈ N e dunque Z(ω) ≥ ε3.

(b) Basta applicare il Lemma di Borel-Cantelli, da cui si ottiene P(lim supn∈N{Xn< ε}) = 0.

Per il punto precedente e per la monotonia della probabilità, q= P(Z = 0) = 0.

(c) Ancora per il Lemma di Borel-Cantelli, per ogni ε >0 fissato, essendo gli eventi {Xn< ε}

indipendenti, si ha che P(lim supn∈N{Xn < ε}) = 1. Ciò significa che per q.o. ω ∈ Ω esisono infiniti elementi della successione Xn(ω) minori di ε, e per tali ω si ha dunque Z(ω) := infn∈NXn(ω) ≤ ε. Abbiamo dunque mostrato che FZ(ε) := P(Z ≤ ε) = 1, per ogni ε > 0. Per la continuità da destra della funzione di ripartizione, si ha dunque P(Z ≤ 0) = FZ(0) = limε↓0FZ(ε) = 1. Ma P(Z ≥ 0) = 1, dunque q = P(Z = 0) = 1.

(d) L’evento {Z = 0} appartiene a G, perchè vale l’uguaglianza di eventi {infn∈NXn= 0} = {infn>kXn= 0}, per ogni k ∈ N fissato, e l’evento {infn>kXn= 0} appartiene alla σ-algebra Gk := σ(Xk+1, Xk+2, . . .).

Invece, in generale la variabile aleatoria Z non è G-misurabile. Ad esempio, se X1 ∼ U(0, 1) e Xn= 2 per ogni n ≥ 2, si ha Z = infn∈NXn= X1, che non può essere G-misurabile, non essendo q.c. costante.

(6)

Esercizio 5. Siano(Xn)n∈N variabili aleatorie reali i.i.d. assolutamente continue, definite su uno spazio di probabilità(Ω, A, P), con densità

f(x) = 2

π(1 + x2)1[0,∞)(x) . Si osservi che le variabili Xn assumono q.c. valori positivi (perché?).

(a) Si verifichi che f(x) è una densità e si mostri che P(Xn>1) = 1

2, P(Xn> t) ∼ C

t per t ↑ ∞ , con C ∈(0, ∞).

(b) Per quali α ∈ R si ha che n1αXn→ 0 in probabilità? Per quali α la convergenza è q.c.?

(c) Per ogni N ∈ N definiamo la variabile aleatoria NN ponendo NN :=

N

X

n=1

1{Xn>1},

ossia NN è il numero di indici n ∈ {1, . . . , N } per cui si ha Xn>1.

Si calcolino media e varianza di NN. Si mostri, possibilmente senza fare calcoli, che esistono due successioni reali aN, bN tali che (NN− aN)/bN converge in legge per N → ∞.

Soluzione 5. (a) La funzione f è misurabile e positiva e Z

R

f(x) dx = Z

0

2

π(1 + x2)dx= 2

π arctan(x)

 0

= 2 π(π

2 − 0) = 1 , quindi f è una densità. Essendo nulla per x ≤0 si ha P(Xn≤ 0) =R

(−∞,0]f(x) dx = 0, ossia Xn>0 q.c. per ogni n ∈ N. Inoltre

P(Xn>1) = Z

1

2

π(1 + x2)dx= 2

πarctan(x)

 1

= 2 π(π

2 −π 2) = 1

2, mentre

P(Xn> t) = Z

t

2

π(1 + x2)dx= 2

πarctan(x)

 t

= 2 π

 π

2− arctan(t)



= 2

π arctan 1 t



∼ 2 π

1 t , per t ↑ ∞, essendoarctan(x) ∼ x per x ↓ 0.

(b) Per ogni ε >0 si ha P



1

nαXn− 0

> ε



= P Xn> εnα = P X1> εnα ,

avendo le variabili aleatorie Xn la stessa distribuzione. Se α <0 allora εnα→ 0 e P X1 >

εnα

→ 1, dunque non si ha convergenza in probabilità. Se α = 0 allora εnα = ε e P X1 > εnα = P X1 > ε = (cost.) 6= 0, quindi non si ha convergenza in probabilità.

Infine, se α >0 allora εnα → ∞ e si può applicare il punto precedente:

P



1

nαXn− 0

> ε



= P X1 > εnα ∼ C ε

1 nα → 0 ,

quindi n1αXn → 0 in probabilità. Essendo le variabili aleatorie Xn indipendenti, il criterio necessario e sufficiente per la convergenza q.c. visto a lezione, ossia che per ogni ε >0

P



lim sup

n∈N



1

nαXn− 0

> ε



= 0 ,

(7)

è equivalente, per il Lemma di Borel-Cantelli, a X

n∈N

P



1

nαXn− 0

> ε



< ∞ .

Dato che il termine generale della serie è asintotico a Cε n1α, il criterio è verificato —ossia la serie converge, ossia si ha n1αXn→ 0 q.c.— se e solo se α > 1.

(c) Le variabili aleatorie Yn:= 1{Xn>1}sono indipendenti, perché lo sono le Xn, e sono chiaramen- te Bernoulli di parametro p= P(Xn>1) = 12. Quindi NN ∼ Bin(N,12) da cui E(NN) = N2 eVar(NN) = N4. Applicando il teorema limite centrale,

NNN2

N 2

−→ Z ∼ N (0, 1) ,d

quindi una scelta possibile è aN = N2 e bN =

N 2 .

(8)

Esercizio 6. David si trova alla base di una scalinata (infinita), in cui i gradini sono etichettati (dal basso verso l’alto) con i numeri0, 1, 2, . . .. A ogni istante, David lancia una moneta equilibrata:

se esce testa, sale di un gradino, mentre se esce croce ritorna al gradino di partenza, il numero 0.

Indicando con Xn la posizione di David nell’istante n, il processo(Xn)n≥0 è un’opportuna catena di Markov sull’insieme E= {0, 1, 2, . . .} (con X0= 0).

(a) Si scriva il valore pij della matrice di transizione della catena di Markov, per ogni i, j ∈ E.

Si disegni quindi il grafo corrispondente, completando la figura seguente con frecce e numeri.

Si mostri che la catena è irriducibile e se ne determini il periodo.

1 2

0 3 4

(b) Si determinino tutte le misure invarianti. Si mostri che esiste un’unica probabilità invariante e la si determini. Per n grande, qual è la probabilità maggiore traP(Xn= 2) e P(Xn= 3)?

Soluzione 6. (a) La matrice di transizione è data da pij = 1

2(δi i+1+ δi 0) = (1

2 se j= i + 1 oppure j = 0

0 altrimenti .

Il grafo corrispondente è

1 2

0 3 4

1 2

1 2

1 2

1 2

1

2 1

2 1 2

1 2

1 2

Chiaramente 0 → 1 → 2 → 3 → . . ., quindi 0 → i per ogni i ∈ E. D’altro canto i → 0, dunque0 ↔ i per ogni i ∈ E, da cui segue che i ↔ j per ogni i, j ∈ E. C’è dunque una sola classe di comunicazione, l’intero spazio E, ossia la catena è irriducibile. In particolare, tutti gli stati hanno lo stesso periodo e basta calcolare quello dello stato0. Dato che p(1)00 >0, si ha che il periodo vale1, ossia la catena è aperiodica.

(b) Il sistema di equazioni soddisfatto da una misura invariante (µi)i∈E è µj =X

i∈E

µipij, ∀j ∈ E .

Per j = 1 tale sistema dà µ1 = µ012, per j = 2 si ha µ2 = µ112 = µ014, e più in generale µj = µj−112 = µ021j. Infine, per j = 0 dà µ0 = P

i∈Nµi12 = 12P

i∈Eµ021i = µ0, che è banalmente soddisfatta. Ciò mostra che le misure invarianti sono della forma(µj = µ021j)j∈E, al variare di µ0 ∈ [0, ∞). In particolare, imponendoP

j∈Eµj = 1 si ottiene µ0= 12 e quindi µj = 2j+11 è l’unica probabilità invariante.

(9)

Dato che esiste una probabilità invariante, la catena è ricorrente positiva. Essendo irriducibile e aperiodica, il teorema di convergenza all’equilibrio garantisce che

n→∞lim P(Xn= j) = µj = 1 2j+1.

In particolare,P(Xn = 2) → 18 mentre P(Xn = 3) → 161, dunque P(Xn = 2) > P(Xn= 3) per n grande.

Riferimenti

Documenti correlati

Considerata una moneta truccata in modo che la faccia testa abbia una probabilità pari a 9 volte la probabilità della faccia croce, determinare

 Con il bottone Lancia iniziamo le prove: il software simula i lanci e ferma il procedimento quando i primi 9 lanci di una prova sono nelle condizioni (*).. Il numero di

1.2 Determina la probabilità che la seconda pallina estratta sia nera sapendo che la prima pallina estratta è bianca.. 1.3 Calcola la probabilità che la seconda pallina

Ad ogni istante, Marta lancia la moneta del gradino su cui si trova: se esce testa, sale di un gradino, mentre se esce croce ritorna al gradino di partenza, il numero 0. C’è dunque

A ogni istante pesco una pallina dall’urna, dopodich´ e reinserisco nell’urna la pallina appena estratta insieme a un’altra dello stesso colore.. D’altro canto, integrando il

Una pallina viene estratta a caso dall’urna e reintrodotta senza guardarla in una seconda urna etichettata con B, dove sono gi`a presenti 15 palline bianche e 10 palline

[r]

• Completa le frasi usando in modo opportuno i termini certo e impossibile.. E’………che si possa estrarre una pallina