Laurea Triennale in Matematica 2011/12 Nome:
10 settembre 2012 Email:
Quando non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile usare tutti i risultati visti a lezione (compresi quelli di cui non è stata fornita la dimostrazione).
Esercizio 1. Ho due dadi regolari: il dado α ha sei facce, su cui sono scritti i numeri interi da1 a 6, mentre il dado β ha dodici facce, su cui sono scritti i numeri interi da 1 a 12. Scelgo uno dei due dadi a caso, con la stessa probabilità, e lo lancio per n volte, dove n ∈ N è un numero fissato.
(a) Qual è la probabilità che tutti i lanci diano come risultato il numero3?
(b) Qual è la probabilità che tutti i lanci diano come risultato lo stesso numero?
(c) Se tutti i lanci danno come risultato il numero 3, qual è la probabilità che il dado scelto sia stato α? Si mostri che tale probabilità (condizionale) è sempre > 12 e se ne studi il comportamento per n → ∞.
Soluzione 1. (a) Introduciamo gli eventi A:= “il dado scelto è A” e C := “tutti i lanci danno come risultato il numero3”. Allora P(A) = 12, mentreP(C|A) = (16)n e P(C|B) = (121)n, da cui
P(C) = P(C|A) P(A) + P(C|Ac) P(Ac) = 1 6
n
1 2+ 1
12
n
1 2 = 1
2
1 6
n
+ 1 12
n . (b) Introduciamo l’ulteriore evento D:= “tutti i lanci danno come risultato lo stesso il numero
3”. Allora P(D|A) = 6(16)n mentre P(D|B) = 12(121)n, dunque P(D) = P(D|A) P(A) + P(D|Ac) P(Ac) = 1
2
1 6
n−1
+ 1 12
n−1 . (c) Per la formula di Bayes
P(A|C) = P(C|A) P(A)
P(C) = (16)n
(16)n+ (121)n = 1
1 + (12)n = 2n 2n+ 1.
Dato che 2n > 1 per ogni n ∈ N e che limn→∞(12)n = 0, segue che P(A|C) > 12 e che P(A|C) → 1 per n → ∞.
Esercizio 2. Siano ϕ, ψ: R → R due funzioni crescenti e limitate. L’obiettivo di questo esercizio è di mostrare che
Cov ϕ(X), ψ(X)
≥ 0 , per ogni variabile aleatoria reale X . (1) (PerchéCov(ϕ(X), ψ(X)) è ben definita?)
(a) Si mostri che
ϕ(x) − ϕ(y)
ψ(x) − ψ(y)
≥ 0 , ∀x, y ∈ R . (2)
[Sugg.: si distinguano i casi x > y, x= y e x < y.] Si deduca che, per ogni coppia di variabili aleatorie reali X, Y definite sullo stesso spazio di probabilità(Ω, A, P), vale la relazione
ϕ(X) − ϕ(Y )
ψ(X) − ψ(Y )
≥ 0 .
(b) Se X, Y sono variabili aleatorie reali indipendenti e con la stessa legge, si spieghi con precisione perché valgono le seguenti relazioni:
E ϕ(X)ψ(Y )
= E ϕ(X) E ψ(X) , E ϕ(Y )ψ(Y )
= E ϕ(X)ψ(X) . (c) Si dimostri la relazione (1).
Soluzione 2. (a) Dato che le funzioni ϕ e ψ sono limitate per ipotesi, le variabili aleatorie ϕ(X) e ψ(X) sono in L2, pertanto la loro covarianza è ben definita.
Se x ≥ y allora ϕ(x) ≥ ϕ(y) e ψ(x) ≥ ψ(y), perché le funzioni ϕ e ψ sono crescenti, pertanto(ϕ(x) − ϕ(y)) ≥ 0 e (ψ(x) − ψ(y)) ≥ 0, dunque anche il loro prodotto è positivo e (2) è verificata. Viceversa, se x ≤ y si ha (ϕ(x) − ϕ(y)) ≤ 0 e (ψ(x) − ψ(y)) ≤ 0, dunque il
loro prodotto è ancora positivo e (2) è verificata per ogni x, y ∈ R.
Scegliendo x = X(ω) e y = Y (ω), per un arbitrario ω ∈ Ω, segue che ϕ(X) − ϕ(Y )
ψ(X) − ψ(Y )
≥ 0, come dovevasi dimostrare.
(b) Se X e Y sono indipendenti, anche ϕ(X) e ψ(Y ) sono indipendenti per un risultato visto a lezione (funzioni di variabili indipendenti sono indipendenti). Dato che ϕ(X) ∈ L1 e ψ(Y ) ∈ L1, per una proprietà ben nota il valore atteso del prodotto si fattorizza e dunque E ϕ(X)ψ(Y )
= E ϕ(X) E ψ(X).
Se X e Y hanno la stessa legge, allora g(X) e g(Y ) hanno la stessa legge, quale che sia la funzione misurabile g, per un risultato visto a lezione (conservazione della legge). Scegliendo g(x) := ϕ(x)ψ(x) segue che ϕ(X)ψ(X) e ϕ(Y )ψ(Y ) hanno la stessa legge. Dato che il valore atteso dipende solo dalla legge (ed è ben definito per variabili aleatorie limitate), segue che E ϕ(Y )ψ(Y )
= E ϕ(X)ψ(X).
(c) Dato che ϕ(X) − ϕ(Y )
ψ(X) − ψ(Y )
≥ 0, per monotonia del valore atteso di ha che E
ϕ(X) − ϕ(Y )
ψ(X) − ψ(Y )
≥ 0 . Per linearità
Eϕ(X)ψ(X) + E ϕ(Y )ψ(Y ) − E ϕ(X)ψ(Y ) − E ψ(Y )ϕ(Y ) ≥ 0 , e ricordando i punti precedenti
2 Eϕ(X)ψ(X) − 2 E ϕ(X) E ψ(X) ≥ 0 , ossia, per definizione di covarianza,
2 Cov ϕ(X), ψ(X)
≥ 0 .
Esercizio 3. Siano X e U variabili aleatorie reali indipendenti, definite sullo stesso spazio di probabilità(Ω, A, P), entrambe a valori in N0 = {0, 1, 2, . . .}. Supponiamo che U abbia distribuzione uniforme (discreta) sull’insieme {0, . . . , n}, dove n ∈ N0 è un numero fissato.
(a) Si mostri che
P(X + U = n) = 1
n+ 1 P(X ≤ n) . [Sugg.: si noti che {X+ U = n} =Sn
m=0{X = m, U = n − m}.]
(b) Si mostri che
P(X = k | X + U = n) = P(X = k | X ≤ n) , ∀k ∈ N0. Si noti che basta verificare la relazione per k ∈ {0, . . . , n} (perché?).
(c) Si deduca che
E(X | X + U = n) = E(X | X ≤ n) ,
dove il membro sinistro indica il valore atteso della variabile aleatoria X rispetto alla probabilità condizionaleP(· | X + U = n), e analogamente per il membro destro.
(d) (*) Utilizzando la relazione (1) dell’Esercizio 2, per un’opportuna scelta delle funzioni crescenti (non necessariamente limitate) ϕ e ψ, si mostri che
E(X | X > n) ≥ E(X) . Si deduca che
E(X | X ≤ n) ≤ E(X) .
[Sugg.: si scrivaP(X > n) = E(ψ(X)) per un’opportuna funzione ψ.]
Soluzione 3. (a) Per ipotesi
P(U = m) = 1
n+ 11{0,...,n}(m) , ∀m ∈ N0, quindi
P(X + U = n) =
n
X
m=0
P(X = m, U = n − m) =
n
X
m=0
P(X = m) P(U = n − m)
= 1
n+ 1
n
X
m=0
P(X = m) = 1
n+ 1P(X ≤ n) . (b) Per definizione di probabilità condizionale, per k ∈ {0, . . . , n}
P(X = k | X + U = n) = P(X = k, X + U = n)
P(X + U = n) = P(X = k) P(U = n − k)
1
n+1P(X ≤ n) , e dato cheP(U = n − k) = n+11 ,
P(X = k | X + U = n) = P(X = k)
P(X ≤ n) = P(X = k, X ≤ n)
P(X ≤ n) = P(X = k |, X ≤ n) , dove nella seconda uguaglianza abbiamo usato il fatto che {X = k} ⊆ {X ≤ n} se k ≤ n e dunque {X = k} = {X = k} ∩ {X ≤ n}.
(c) Per ogni variabile aleatoria Y a valori in N0, definita su uno spazio di probabilità(Ω, A, Q), per le proprietà del valore atteso possiamo scriverre
EQ(Y ) = X
k∈N0
kQ(Y = k) ,
dove indichiamo conEQ il valore atteso rispetto alla probabilitàQ. Scegliendo Q = P(· | X + U = n) e Q = P(· | X ≤ n) rispettivamente, otteniamo che
E(X | X + U = n) = X
k∈N0
k P(X = k | X + U = n) , E(X | X ≤ n) = X
k∈N0
k P(X = k | X ≤ n) ,
e dato che i termini nei membri di queste relazioni sono uguali, per quanto mostrato nei punti precedenti, l’uguaglianza dei membri sinistri segue.
(d) La relazione da dimostrare può essere riscritta come
E(X 1{X>n}) ≥ E(X) P(X > n) . (3) Se introduciamo le funzioni ϕ(x) := x e ψ(x) := 1(n,+∞)(x), notando che 1{X>n}= ψ(X) e P(X > n) = E(1{X>n}) = E(ψ(X)), la relazione diventa
E(ϕ(X) ψ(X)) ≥ E(ϕ(X)) E(ψ(X)) , ossia precisamente la relazione (1) dell’Esercizio 2.
Infine, notando che 1{X>n} = 1 − 1{X≤n} e P(X > n) = 1 − P(X ≤ n), la relazione (3) può essere riscritta come
E(X (1 − 1{X≤n})) ≥ E(X) (1 − P(X ≤ n)) , ossia
E(X) − E(X 1{X≤n}) ≥ E(X) − E(X) P(X ≤ n) , cioè
E(X 1{X≤n}) ≤ E(X) P(X ≤ n) .
Esercizio 4. Sia {Xn}n∈N una successione di variabili aleatorie reali i.i.d., definite sullo stesso spazio di probabilità(Ω, A, P). Supponiamo che funzione di ripartizione di X1 sia data da
FX1(x) =
1 − 1
√x
1[1,∞)(x) .
(a) Si mostri che X1 ha legge assolutamente continua e se ne determini la densità. Per quali valori di p ∈(0, ∞) si ha che X1 ∈ Lp?
(b) Si determini la funzione di ripartizione delle variabili aleatorie Mn e Wn, definite da Mn := max{X1, . . . , Xn} , Wn := 1
n2Mn.
(c) Si mostri che per n → ∞ la successione Wn converge in legge verso una variabile Y , la cui funzione di ripartizione è data da
FY(y) = e−1/√y1(0,∞)(y) . Si deduca che
n→∞lim P(Mn> n2) = c > 0 e si determini il valore di c.
(d) Dopo aver osservato che le variabili Xi sono q.c. positive (perché?), si spieghi perché X1+ . . . + Xn ≥ Mn q.c. ,
e si deduca che
lim inf
n→∞ P X1+ . . . + Xn
n > n
≥ c > 0 . (4)
(e) Siano ora {Yn}n∈N variabili aleatorie reali i.i.d. in L1 e sia µ:= E(Y1) ∈ R. Si deduca dalla legge debole dei grandi numeri che
n→∞lim P Y1+ . . . + Yn
n > n
= 0 .
Come si spiega il contrasto con la relazione (4) ottenuta in precedenza?
Soluzione 4. (a) La funzione FX1(·) è C1 a tratti, dunque X1 è assolutamente continua con densità
fX1(x) = FX01(x) = 1
2 x3/21[1,∞)(x) . Si ha che
E(|X1|p) = Z
R
|x|pfX1(x) dx = Z ∞
1
1
2 x3/2−p dx ,
da cui segue che E(|X1|p) < ∞, e dunque X1 ∈ Lp, se e solo se 3/2 − p > 1, ossia p < 12. Notiamo in particolare che X1 non appartiene a Lp per nessun valore di p ≥1.
(b)
FMn(y) = P(max{X1, . . . , Xn} ≤ y) = FX1(y)n =
1 − 1
√y
n
1[1,∞)(y) , FWn(w) = P(Wn≤ w) = P(Mn≤ n2w) = FMn(n2w) =
1 − 1 n√
w
n
1[ 1
n2,∞)(w) . (c) Si noti che limn→∞1[1
n2,∞)(w) = 1 se w > 0 mentre limn→∞1[1
n2,∞)(w) = 0 se w ≤ 0. Di conseguenza
n→∞lim FWn(w) = e−1/
√w1(0,∞)(w) = FY(w) , come volevasi dimostrare. Scegliendo w= 1 si ottiene in particolare che
e−1 = FY(1) = lim
n→∞FWn(1) = lim
n→∞P(Wn≤ 1) = lim
n→∞P(Mn≤ n2) ,
e dunque
c := 1 − e−1 = lim
n→∞(1 − P(Mn≤ n2)) = lim
n→∞P(Mn> n2) .
(d) Le variabili Xi sono q.c. positive (anzi ≥1) perché FXi(x) = FX1(x) = 0 per x ≤ 1. Dato che per definizione Mn coincide con una delle variabili X1, . . . , Xn (quella con il valore massimo) e le altre sono positive, la somma X1+ . . . + Xn vale almeno Mn. Di conseguenza, se Mn> t allora a maggior ragione X1+ . . . + Xn> t. Più formalmente, q.c. vale l’inclusione di eventi
{Mn> t} ⊆ {X1+ . . . + Xn> t} , ∀t ∈ R . Scegliendo t= n2 e usando la monotonia della probabilità, si ha
P(X1+ . . . + Xn> n2) ≥ P(Mn> n2) .
Per il punto precedente, la successione nel membro destro converge a c > 0 per n → ∞, quindi illim inf della successione al membro sinistro vale almeno c.
(e) Per la legge debole dei grandi numeri, per ogni ε >0
n→∞lim P
Y1+ . . . + Yn
n − µ
> ε
= 0 . Per n > µ+ ε si ha
Y1+ . . . + Yn n > n
⊆
Y1+ . . . + Yn
n − µ
> ε
, dunque
n→∞lim P Y1+ . . . + Yn
n > n
= 0 .
Non c’è contraddizione con la relazione (4) ottenuta in precedenza, perché le variabili Xi non sono in L1, come mostrato in precedenza, e dunque non si può applicare la legge debole dei grandi numeri.
Esercizio 5. Sia (X, Y ) un vettore aleatorio bidimensionale, ossia a valori in R2, con legge assolutamente continua, con la seguente densità:
fX,Y(x, y) = (y − x) e−y1[0,∞)(x) 1[0,∞)(y) 1[0,∞)(y − x) = (y − x) e−y1{0≤x≤y}.
(a) Si determinino le densità marginali di X e di Y . Si identifichino quindi le distribuzioni di X e Y come leggi note: X ∼ Exp(1) mentre Y ∼ . . . .
[Sugg.: Può essere utile integrare per parti.]
(b) Le variabili aleatorie X e Y sono indipendenti?
(c) Sia ϕ : (0, ∞) → (0, 1) una funzione biunivoca, differenziabile e (strettamente) crescente.
Definiamo la variabile aleatoria W := ϕ(X). Si esprima la funzione di ripartizione di W in termini di ϕ−1(·). Si determini quindi ϕ affinché W abbia distribuzione uniforme continua sull’intervallo(0, 1).
[Sugg.: La distribuzione di X è già nota dal punto (a).]
(d) (*) Si calcoli la funzione di ripartizione della variabile Z := Y − X, mostrando che è assolutamente continua e determinandone la densità.
Soluzione 5. (a) Chiaramente fX(x) = 0 per x < 0, mentre per ogni x ≥ 0 fX(x) =
Z
R
fX,Y(x, y) dy = Z ∞
x
(y − x)e−ydy = Z ∞
x
y e−ydy − x Z ∞
x
e−ydy
= x e−x + Z ∞
x
e−ydy − x e−x = e−x,
dunque X ∼ Exp(1) = Γ(1, 1). Per quanto riguarda Y , analogamente, fY(y) = 0 per y < 0, mentre per ogni y ≥0
fY(y) = Z
R
fX,Y(x, y) dx = Z y
0
(y − x)e−ydx = y e−y Z y
0
1 dx − e−y Z y
0
x dx
= y2e−y−y2
2 e−y = y2 2 e−y, dunque Y ∼Γ(3, 1).
(b) Se le variabili aleatorie X e Y fossero indipendenti, la loro densità congiunta coinciderebbe q.o. con il prodotto delle densità marginali, ossia con la funzione
g(x, y) = fX(x) fY(y) = y2
2 e−x−y1[0,∞)(x) 1{[0,∞)}(y) .
È facile mostrare che le funzioni fX,Y(x, y) e g(x, y) non coincidono q.c.. Per esempio, sull’insieme aperto {(x, y) ∈ R2 : x > y > 0} si ha che fX,Y(x, y) = 0, mentre g(x, y) > 0.
Di conseguenza X e Y non sono indipendenti.
(c) Per costruzione W = ϕ(X) ∈ (0, 1), quindi FW(w) = 0 se w ≤ 0 e FW(w) = 1 se w ≥ 1. Per w ∈(0, 1), la controimmagine ϕ−1(w) è ben definita. Inoltre, essendo ϕ crescente, si ha che ϕ(x) ≤ w se e solo se x ≤ ϕ−1(w), per ogni x ∈ (0, ∞) e w ∈ (0, 1). Quindi, per w ∈ (0, 1) FW(w) = P(W ≤ w) = P(ϕ(X) ≤ w) = P(X ≤ ϕ−1(w)) = FX(ϕ−1(w)) = 1 − e−ϕ−1(w),
perché FX(x) = 1 − e−x per x >0, essendo X ∼ Exp(1).
Affinché W ∼ U(0, 1) si deve avere che FW(w) = w per w ∈ (0, 1), ossia 1 − e−ϕ−1(w) = w .
Ponendo w= ϕ(x) per x ∈ (0, ∞) si ha dunque
1 − e−ϕ−1(ϕ(x)) = ϕ(x) ⇐⇒ ϕ(x) = 1 − e−x.
(d) Si ha che
FZ(z) = P(Y − X ≤ z) = P((X, Y ) ∈ {(x, y) : y − x ≤ z}) = Z
R2
1{y−x≤z}fX,Y(x, y) dx dy , da cui segue che per z <0 si ha FZ(z) = 0, a causa della restrizione 1[0,∞)(y − x) nella densityà fX,Y(x, y). Per z ≥ 0, scrivendo {y − x ≤ z} = {x ≥ y − z}, le restrizioni globali su x sono:
x ≥0 , x ≤ y , x ≥(y − z) , quindi
x ∈[max{0, y − z}, y] . Di conseguenza
FZ(z) = Z ∞
0
dy
Z y
max{0,y−z}
fX,Y(x, y) dx
= Z z
0
dy
Z y 0
fX,Y(x, y) dx
+
Z +∞
z
dy
Z y y−z
fX,Y(x, y) dx
= Z z
0
dy e−y
Z y 0
(y − x) dx
+
Z +∞
z
dy e−y
Z y y−z
(y − x) dx
= Z z
0
dy e−yy2 2 +
Z +∞
z
dy e−y z2
2 = −z2 2 e−z +
Z z 0
dy e−yy + e−zz2 2
= −z e−z + Z z
0
dy e−y = 1 − (1 + z)e−z.
Dato che FZ è C1 a tratti, segue che Z è assolutamente continua con densità fZ(z) = FZ0(z) = z e−z1[0,∞)(z) ,
ossia Z ∼Γ(2, 1).
Esercizio 6 (Catene di Markov). In cortile ci sono cinque piastrelle, numerate da1 a 5. A ogni istante, Andrea salta da una piastrella all’altra, secondo le regole seguenti.
• All’istante iniziale n = 0 Andrea si trova sulla piastrella numero 3.
• Se a un certo istante si trova sulla piastrella numero 2, 3 o 4, Andrea lancia una moneta regolare: se esce testa, salta sulla piastrella col numero successivo (i → i+ 1); se esce croce, salta sulla piastrella col numero precedente (i → i −1).
• Se a un certo istante si trova sulla piastrella numero 1, Andrea lancia due monete regolari:
se escono due teste, salta sulla piastrella numero5; altrimenti, salta su quella numero 2.
• Se a un certo istante si trova sulla piastrella numero 5, Andrea lancia tre monete regolari: se escono tre teste, oppure tre croci, salta sulla piastrella numero1; altrimenti, salta su quella numero4.
Descriviamo il moto di Andrea mediante una catena di Markov {Xn}n∈N0 sull’insieme {1, 2, 3, 4, 5}, dove Xn indica la piastrella su cui si trova Andrea all’istante n ∈ N0.
(a) Si disegni il grafo che indica le transizioni della catena di Markov. Si scriva quindi la matrice di transizione, identificando le classi di irriducibilità e classificandone gli stati (transitori, ricorrenti positivi, ricorrenti nulli). La catena è aperiodica?
(b) Si determinino le probabilità invarianti della catena.
Soluzione 6. (a) Il grafo della catena di Markov è il seguente:
1 2
1
2 1
2 2
3 4
5
1 1 2
1 2
3 4
3 4
1
2 1
4 1
4
La matrice di transizione p= (pij)1≤i,j≤5 è data da
p=
0 34 0 0 14
1
2 0 12 0 0 0 12 0 12 0 0 0 12 0 12
1
4 0 0 34 0
.
Esiste una sola classe di irriducibilità, ossia la catena è irriducibile. Pertanto, essendo lo spazio degli stati finito, tutti gli stati sono ricorrenti positivi.
La catena è aperiodica: partendo dallo stato 1, è possibile ritornare allo stato 1 in due passi, mediante le transizioni1 → 2 → 1, e anche in cinque passi, mediante le transizioni 1 → 2 → 3 → 4 → 5 → 1. Dato che il M.C.D. tra 2 e 5 è 1, la catena è aperidica.
(b) Trattandosi di una catena irriducibile su uno spazio degli stati finito, esiste un’unica proba- bilità {µi}1≤i≤5 invariante. Conviene provare a vedere se tale probabilità è reversibile, ossia se soddisfa le relazioni
µipij = µjpji, ∀i, j ∈ E .
Dato che p23= p32= 12 e p34= p43= 12, segue che µ2 = µ3 = µ4 = c, con c da determinare.
Dato che p12= 34 e p21= 12, segue che µ134 = µ221, ossia µ1 = 23c. Dato che p45= 12 e p54= 34, segue che µ412 = µ53
4, ossia µ5 = 23c. Infine, dato che p15= 14 e p51= 14, l’ultima condizione da verificare è µ114 = µ51
4, ossia µ1 = µ5, che è già soddisfatta. Ricapitolando:
µ1= 2
3c , µ2 = µ3= µ4= c , µ5 = 2 3c . Imponendo cheP5
i=1µi = 1 si trova c = 133 , e dunque µ1 = 2
13, µ2= µ3 = µ4 = 3
13, µ5 = 2 13.