Corsi di Probabilit` a, Statistica e Processi stocastici per Ing. dell’Automazione, Informatica e Inf. Gest. Azienda
16/12/2011 Esercizio 1
i) In una procedura di collaudo progettata per decidere se accettare o meno un lotto composto da 50 esemplari, un collaudatore estrae a caso 5 esemplari e decide di accettare il lotto solo se in tale gruppo ci sono meno di 2 esemplari difettosi. Se in uno dei lotti esaminati ci fossero 20 esemplari difettosi, qual `e la probabilit`a che, impiegando il criterio di questo collaudatore, esso venga accettato?
ii) Il collaudatore capisce che `e meglio cambiare criterio, e decide che il lotto deve essere rifiutato anche quando in un’estrazione di due soli esemplari ce n’`e anche solo uno difettoso. Utilizzando questo criterio, qual `e il minimo numero di esemplari difettosi che devono essere presenti in un lotto di 50 esemplari se vogliamo che la probabilit`a di accettare
“erroneamente” il lotto sia inferiore al 5%?
Esercizio 2 Si consideri la funzione f (x) che vale −αx 2 + 1 per x ∈
− 1
√ α , 1
√ α
e 0 altrimenti.
i) Stabilire il valore di α per il quale f `e una densit`a di probabilit`a. Da ora in poi si ponga α uguale al valore trovato.
ii) Sia X una v. a. che ha densit`a f . Determinare φ X (t), specificandone il dominio.
iii) Determinare Var(X) col metodo ritenuto pi` u comodo.
iv) Posto Y = log X + r 1
α
!
, trovare la densit`a di Y , specificandone il supporto.
Esercizio 3 Si considerino 10 v. a. X 1 , . . . , X 10 i. i. d. e aventi media 1 e varianza 2.
i) Posto S = X 1 + · · · + X 10 , minorare P (0 < S < 20).
ii) Supponendo (oltre all’indipendenza) che X i ∼ N (1, 2) con (1 ≤ i ≤ 10), calcolare esattamente P (0 < S < 20).
Esercizio 4 Si consideri la catena di Markov sull’insieme
E = {1, 2, 3, 4, 5, 6} associata alla matrice di transizione P a fianco.
i) Disegnare il grafo, classificare gli stati e determinare le classi irriducibili.
ii) Calcolare la probabilit`a che la catena sia nello stato 2 al tempo 3, sapendo che `e nello stato 1 al tempo 0.
iii) Determinare tutte le probabilit`a invarianti della catena.
P =
0 1/3 0 1/3 0 1/3
0 2/3 0 1/3 0 0
0 0 0 0 2/3 1/3
0 1/3 0 2/3 0 0
0 0 1/3 0 0 2/3
0 0 1/3 0 2/3 0
• x = x
1+...+x n
n, S 2 = n −1 1 P n
i=1 (x i − x) 2 , d Cov = n −1 1 P n
i=1 (x i − x) (y i − y), r = S
xCov d
`ıXS
Y= P
n
i=1
(x
i−x)(y
i−y)
√ P
ni=1
(x
i−x)
2P
ni=1
(y
i−y)
2. P n
i=1 (x i − x) 2 = P n i=1 x 2 i
− nx 2 , P n
i=1 (x i − x) (y i − y) = ( P n
i=1 x i y i ) − nxy.
• n! = n · (n − 1) · · · 2 · 1, 0! = 1. n k
= k !(n−k)! n! = n ·(n−1)···(n−k+1)
k! .
• P (A|B) = P P (A∩B) (B) , P (A ∩ B) = P (A|B) P (B). A, B indipendenti: P (A ∩ B) = P (A) P (B), P (A|B) = P (A), P (B |A) = P (B). P (A) = P
k P (A |B k ) P (B k ). P (B |A) = P (A|B)P (B) P(A) .
• X discreta, valori a j , P (X = a j ) = p j , allora E [X] = P
j a j p j , E [g (X)] = P
j g (a j ) p j , E X 2
= P
j a 2 j p j . P (X ∈ A) = P
i:a
i∈A P (X = a i ) = P
i:a
i∈A p i . X ∈ N, P (X ≤ n) = P n
i=0 p i , P (X ≥ n) = P ∞
i=n p i .
• X continua, densit`a f (x), allora E [X] = R ∞
−∞ xf (x) dx, E [g (X)] = R ∞
−∞ g (x) f (x) dx, in particolare E X 2 R ∞ =
−∞ x 2 f (x) dx. P (X ∈ A) = R
A f (x) dx.
• V ar [X] = σ X 2 := E h
(X − µ X ) 2 i
dove µ X = E [X]. V ar [X] = E X 2
−µ 2 X . Cov (X, Y ) = E [(X − µ X ) (Y − µ Y )], Cov (X, Y ) = E [XY ] − µ X µ Y . ρ (X, Y ) = Cov(X,Y ) σ
X
σ
Y. −1 ≤ ρ (X, Y ) ≤ 1.
• E [aX + bY + c] = aE [X]+bE [Y ]+c. V ar [X + Y ] = V ar [X]+V ar [Y ]+2Cov (X, Y ). V ar [aX] = a 2 V ar [X].
Standardizzazione di X: X −µ σ
XX
.
• X, Y indipendenti: P (X ∈ A, Y ∈ B) = P (X ∈ A) P (Y ∈ B). Implica E [XY ] = E [X] E [Y ], Cov (X, Y ) = 0, ρ (X, Y ) = 0, V ar [X + Y ] = V ar [X] + V ar [Y ].
• F (x) = P (X ≤ x). F (t) = R t
−∞ f (x) dx. F ′ (t) = f (t). F (q α ) = α.
• ϕ (t) = E e tX
, ϕ ′ (0) = E [X], ϕ ′′ (0) = E X 2
; ϕ aX (t) = E e taX
= ϕ X (at). X, Y indipendenti implica ϕ X +Y (t) = ϕ X (t) ϕ Y (t).
• X ∼ B (n, p) : P (X = k) = n k
p k (1 − p) n −k , E [X] = np, V ar [X] = np (1 − p), σ = p
np (1 − p), ϕ (t) = q + pe t n
dove q = 1 − p. X 1 , ..., X n ∼ B (1, p) indipendenti implica S = X 1 + ... + X n ∼ B (n, p).
• X ∼ipergeometrica di parametri N, M e n : P (X = k) =
N k
M
n −k
N+M n
con k = 0, 1, · · · , n.
• X ∼ P (λ): P (X = k) = e −λ λ k!
k, E [X] = λ, V ar [X] = λ, σ = √
λ, ϕ (t) = e λ ( e
t−1 ). Se np n = λ allora lim n →∞ n
k
p k n (1 − p n ) n −k = e −λ λ k!
k.
• X ∼ N µ, σ 2
: f (x) = √ 1
2πσ
2exp
− (x−µ) 2σ
2 2. E [X] = µ, V ar [X] = σ 2 , ϕ (t) = e µt e
t2 σ22. X, Y gaussiane indipendenti, a, b, c ∈ R implica aX + bY + c gaussiana. X ∼ N µ, σ 2
si pu`o scrivere come X = σZ + µ, con Z ∼ N (0, 1). F µ,σ
2(x) = Φ x −µ σ
. Φ ( −x) = 1 − Φ (x). q α = −q 1−α . Soglie µ ± σq α .
• X ∼ Exp (λ): f (x) = λe −λx per x ≥ 0, zero per x < 0. E [X] = λ 1 , V ar [X] = λ 1
2, σ = λ 1 , ϕ (t) = λ λ −t per t < λ.
F (x) = 1 − e −λx per x ≥ 0, zero per x < 0.
• TLC: P
X
1+...+X √ nσ
n−nµ ∈ A
≈ P (Z ∈ A), con Z ∼ N (0, 1).
• X = X
1+...+X n
n∼ N µ, σ n
2. E S 2
= σ 2 . S σ
22(n − 1) ∼ χ 2 n −1 .
• µ = X ± σq √
1−n
α2; µ = X ± S ·t
(n−1) 1−α
√ n
2.
• x −µ σ
0√ n > q 1−
α2. x −µ S
0√ n > t (n−1) 1−
α2. P
|Z| > x −µ S
0√ n , P µ
X ∈ h
µ 0 − σq √
1−n
α2, µ 0 + σq √
1−n
α2i . S σ
22(n − 1) >
χ 2 α,n −1 . T = n P k i=1
( p b
i−p
i)
2p
i= P k
i=1
( X b
i−np
i)
2np
i> χ 2 α,k −1 .
• y = A + Bx, B = Cov d S
2X
= r S S
YX