Modelli di Variabili Aleatorie
µ Variabili aleatorie di Bernoulli:
Ø
X
è di Bernoulli di parametrop ∈ 0,1 ( )
seP X ( = 1 ) = p
eP X ( = 0 ) = 1− p
.Ø Proprietà:
§
E X ( ) := 1·p
X( ) 1 + 0·p
X( ) 0 = p
.§
Var X ( ) = E X ( )
2− E X ( )
2 ma siccomeX = X
2 àVar X
( )
= E X( )
− E X( )
2 = p − p2 = p 1− p( )
.Ø Notazione:
X
è di Bernoulli di parametrop
⇔
X B
e( ) p
. Ø Prove di Bernoulli:§ esperimenti casuali, indipendenti, binari (ossia che hanno solo due possibili esiti che chiamo successo e fallimento).
p = P successo ( )
.§ Faccio
n
prove di Bernoulli con probabilità di successop ∈ 0,1 ( )
.§ Sia
X
numero di successi in questen
prove.p
X( ) k = P X = k ( )
.§
X = X
1+ X
2+ ...+ X
n àX
k= 1 se k-esima prova è successo 0 se è fallimento
⎧ ⎨
⎩
.§
E X ( ) = E X (
1+ ...+ X
n) = E X ( )
1+ ...+ E X ( )
n= np
.§
Var X ( ) = Var X (
1+ ...+ X
n) = Var X ( )
1p 1− p( )
+ ...+ Var X ( )
n= np 1− p ( )
.§
P X ( = k ) = n
k
⎛
⎝⎜
⎞
⎠⎟ p
k( 1 − p )
n− k.•
X
è binomiale di parametrin, p
,(
X Bi( )
n, p)
seP X ( = k ) = ⎛ ⎝⎜ n k ⎞ ⎠⎟ p
k( 1 − p )
n− k, k ∈ 0,1,...,n { }
0 altrimenti
⎧
⎨ ⎪
⎩ ⎪
.• Ricordiamo che il coefficiente binomiale si calcola
n k
⎛
⎝⎜
⎞
⎠⎟ : = n!
k! n ( − k ) !
.§
X B
i( ) n, p , Y B
i( m, p )
indipendenti:•
X B
i( ) n, p ⇔ X = X
1+ ...+ X
n,X
k B
e( ) p
indipendenti.•
Y B
i( m, p ) ⇔ Y = Y
1+ ...+ Y
m,Y
k B
e( ) p
indipendenti.•
X + Y = X
1+ ...+ X
n+ Y
1+ ...+ Y
m=
somma din + m
.B
e( ) p
indipendenti⇒
X + Y B
i( n + m
i, p )
.Ø Utilizzo: quando
X
può assumere solo i valori 0,1 (successo o fallimento).
µ Densità di Poisson:
Ø Ci sono in media
λ
impurità per unità di lunghezza= I
k= 1 n
.Ø
X =
numero di impurità sul segmento.E X ( ) = λ
,X
k=
numero di impurità inI
k B
e( ) p
.Ø
X = X
1+ ...+ X
n,E X ( ) = E X ( )
1+ ...+ E X ( )
n= np
.X B
in, λ
n
⎛ ⎝⎜ ⎞
⎠⎟
.Ø
P X ( = k ) = n
k
⎛
⎝⎜
⎞
⎠⎟
λ n
⎛ ⎝⎜ ⎞
⎠⎟
k
1 − λ n
⎛ ⎝⎜ ⎞
⎠⎟
n− k
= n!
k! n ( − k ) ! λ
k
n
k1 − λ n
⎛ ⎝⎜ ⎞
⎠⎟
n
con n→+∞
=e−λ
1 − λ n
⎛ ⎝⎜ ⎞
⎠⎟
−k
1
=
= n n ( − 1 ) ... n ( − k + 1 )
n
k→1
1 − λ n
⎛ ⎝⎜ ⎞
⎠⎟
−k
→1
λ
kk! 1 − λ
n
⎛ ⎝⎜ ⎞
⎠⎟
n
→ λ
kk! e
−λ.Ø Definizione:
X
è una variabile aleatoria di Poisson di parametroλ
> 0 seP X ( = k ) = λ
k
k! e
−λ, k ∈ 0,1,2,... { }
0 altrimenti
⎧
⎨ ⎪
⎩⎪
.
Ø Legge del filo:
§ La variabile aleatoria di Poisson può essere utilizzata come approssimazione di una binomiale di parametri
( ) n, p
quandon 1 prove di Bernoulli
p 1 probabilità di successo
⎧ ⎨
⎩
.§
Poisson ( ) λ ≅ B
in, λ n
⎛ ⎝⎜ ⎞
⎠⎟ = B
i( ) n, p ≅ Poisson np ( )
.Ø Proprietà:
§
X Po(λ) ⇒ E X ( ) = Var X ( ) = λ
.§
X Po λ ( ) ,Y Po µ ( ) ⇒ X + Y Po λ + µ ( )
.Ø Utilizzo: è un’ottima approssimazione di una binomiale di parametri
( ) n, p
, quandon
è molto grande ep
molto piccolo ponendoλ = np
. In altri termini, il totale dei “successi” in un gran numeron
di ripetizioni indipendenti di un esperimento che ha una piccola probabilità di riuscitap
, è una variabile aleatoria con distribuzione approssimativamente di Poisson, con mediaλ = np
.
µ Variabile aleatoria Geometrica:
Ø Successione di prove di Bernoulli con
p = P successo ( )
eX =
numero di prove necessarie per vedere il primo successo.§
P X ( = k )
conk ∈ 1,2,... { }
.•
P X ( = 1 ) = P I prova = "successo" ( ) = p
.•
P X ( = 2 ) = P I prova = "insuccesso"
II prova = "succeso"
⎛
⎝⎜
⎞
⎠⎟ = p 1− p ( )
.• P X
(
= k)
= p 1− p( )
k−1 perché prima del successo dellak
-‐esima prova ci sono statik − 1
insuccessi.Ø Definizione:
X Geom p ( )
seP X ( = k ) = p 1 ( − p )
k−1k ∈ 1,2,... { }
0 altrimenti
⎧ ⎨
⎪
⎩⎪
.
Ø
1 = P X ( = k )
∑
k= p 1 ( − p )
k−1 k=1∑
+∞ , siaq := 1− p ⇔ p = 1− q
con0 < q < 1
àq
k−1k=1
∑
+∞= 1 − q 1
à
q
k=0
∑
+∞= 1 − q 1
.Ø
m
X( ) t = E e ⎡⎣ ⎤⎦ = e
tX tk( 1 − p )
k−1p
i=1
∑
+∞= e
t k( )−1( 1 − p )
kp
k=0∑
+∞= pe
t⎡⎣ e
t( 1 − p ) ⎤⎦
q k k=1
∑
+∞= e
t( 1 − p ) < 1
⇔ t < − ln 1− p ( )
Ø
pe
t⎡⎣ e
t( 1 − p ) ⎤⎦
q k k=1
∑
+∞= pe
t1 − e
t( p 1 − p ) = e
−t− 1− p ( p )
. Perché è una serie geometrica.Ø
m
X( ) 0 = 1
.Ø
m ′
X( ) t = p e ( )
−te
−t− 1− p ( )
⎡⎣ ⎤⎦
2= m
X( ) t e
−te
−t− 1− p ( ) = m
X( ) t 1
1 − e
t( 1 − p )
.§
m ′
X( ) 0 = 1
p = E X ( )
.Ø
m
X′′ ( ) t = ′ m
X( ) t ⎡⎣ 1 − e
t( 1 − p ) ⎤⎦ − −e ⎡⎣
t( 1 − p ) ⎤⎦
1 − e
t( 1 − p )
⎡⎣ ⎤⎦
2 .§
m ′′
X( ) 0 = 1
p p + 1− p
p
2= 2 − p
p
2= E X ( )
2 .§
Var X ( ) = E X ( )
2− E X ( )
2= 2 p − p
2− p 1
2= 1 − p p
2= p 1
2− 1 p
.Ø
X Geom p ( )
,P X ( > k ) = P le prime k prove sono insuccessi ( ) = 1− p ( ) ... 1 ( − p )
k volte
= 1− p ( )
k⇒ P X ≤ k
( )
= 1− 1− p( )
k.Ø Proprietà di assenza di memoria:
§
P X ( > k + h | X > h ) = P X > k ( )
.§ Dimostrazione:
•
P X ( > k + h | X > h ) = P X ( > k + h & X > h )
P X ( > h ) = P X ( > k + h )
P X ( > h ) = ( 1 − p )
k+h1 − p
( )
h=
= 1− p
( )
k = P X > k( )
.§
P a ( < X ≤ b | X > h ) = P a − h < X ≤ b − h ( )
.Ø Utilizzo: è utile quando vogliamo sapere la probabilità che la
k
-‐esima ripetizione sia il primo successo.
µ Variabile aleatoria ipergeometrica:
Ø Definizione: una variabile aleatoria
X
si dice ipergeometrica di parametri N, M en
se ha massadi probabilità
P X ( = i ) =
N i
⎛
⎝⎜
⎞
⎠⎟
M n − i
⎛
⎝⎜
⎞
⎠⎟
N + M n
⎛
⎝⎜
⎞
⎠⎟
con i= 0,1,...,n.
Ø Utilizzo: possiamo capirlo tramite un esempio. Una scatola contiene
N
batterie accettabili eM
difettose. Si estraggono senza rimessa e in maniera casualen
batterie. Denotiamo conX
il numero di batterie accettabili contenute nel campione estratto.
µ Variabili aleatoria uniforme:
Ø Se noi prendessimo un segmento lungo
1
e un intervallo che va daa
ab
ivi contenuto, sex
è scelto casuale significa che la probabilità chex ∈ a,b [ ]
dipende soltanto dalla lunghezza del segmento e non dalla sua posizione.Ø L’insieme
U
è uniforme in[ ] 0,1
se la sua densità èf
U( ) u := 1 u ∈ 0,1 [ ]
0 altrimenti
⎧ ⎨
⎪
⎩⎪
.§ P U
(
∈ u,u + du[ ] )
= du conu ∈ 0,1 [ ]
.§
P a ( < U ≤ b ) = b − a
.§
0 < a < b < 1
P a ( + h < U ≤ b + h ) = b − a
con0 < a + h < b + h < 1
.Ø Definizione generale: una variabile aleatoria continua si dice uniforme sull’intervallo
[ ] α,β
, se ha funzione di densità data daf x ( ) = β − α 1 se α ≤ x ≤ β
0 altrimenti
⎧
⎨ ⎪
⎩ ⎪
.Ø
U U 0,1 [ ]
. I passi successivi quindi sono riferiti ad un intervallo ampio1
.§
E U ( ) = ∫
−∞+∞uf u ( ) du = u du
0∫
1= u 2
2 0,1= 1 2
.§
E U ( )
2= ∫
−∞+∞u
2f u ( ) du = u ∫
01 2du = u 3
30,1
= 1
3 ⇒ Var U ( ) = 1
3 − 1
4 = 4 − 3 12 = 1
12
.§
U U 0,1 [ ]
, FU( )
u =∫
−∞+∞fU( )
x dx= 0 x 1x< 0 0≤ x < 1 x≥ 1
⎧
⎨⎪
⎩⎪ .
Ø
( b − a ) U + a = X
conb > a
.§
U = 1
à( b − a ) 1 + a = b
.§
U = 0
à( b − a ) 0 + a = a
.Ø
X ~ U a,b [ ]
,X = b − a ( ) U + a
,U ~ U 0,1 [ ]
.Ø
E X ( ) = E b − a ⎡⎣ ( ) U + a ⎤⎦ = b − a ( ) E U ( ) + a = b − a
2 + a = a + b 2
. ØVar X ( ) = Var b − a ⎡⎣ ( ) U + a ⎤⎦ = b − a ( )
2Var U ( ) = ( b − a )
212
.Ø
F
X( ) x = P X ≤ x ( ) = P b − a ( ( ) ,U + a ≤ x ) = P U ≤ ⎛ ⎝⎜ b x − a − a ⎞ ⎠⎟ = F
U⎛ ⎝⎜ b x − a − a ⎞ ⎠⎟
.Ø
F
X′ ( ) x = d
dx F
Ux − a b − a
⎛ ⎝⎜ ⎞
⎠⎟ = ′ F
Ux − a b − a
⎛ ⎝⎜ ⎞
⎠⎟
1 b − a = f
Ux − a b − a
⎛ ⎝⎜ ⎞
⎠⎟
1 b − a
.Ø
f
X( ) x = b − a 1
0
0 < x − a b − a < 1 altrimenti
⎧
⎨ ⎪
⎩ ⎪
.§
0 < x − a
b − a < 1 ⇔ 0 < x − a < b − a ⇔ a < x < b
.Ø
F
X( ) x = F
Ux − a b − a
⎛
⎝⎜ ⎞
⎠⎟ = 0
x − a b − a 1
x < a 0 < x − a
b − a < 1 ⇔ a < x < b x ≥ b
⎧
⎨
⎪ ⎪
⎩
⎪ ⎪
.
Ø Utilizzo: quando la variabile aleatoria ha le stesse probabilità di cadere vicino a un qualunque punto dell’intervallo.
µ Variabili aleatorie normali o gaussiane:
Ø Definizione:
z
è normale standard se la sua densitàf
Z( ) z : = 1 2π e
−z22 .§ −∞ fZ
( )
z dz= 1 ⇔ 2π
=∫
−∞+∞e−z22 dz∫
+∞ .§
1
2π e
−s2 2
ds
−∞
∫
z: = Φ z ( ) : = P Z ≤ z ( )
.§
Φ −z ( ) = 1− Φ z ( )
.Ø mZ
( )
t = E e⎡⎣ ⎤⎦ =tZ etZ 1 2π
e−z2 2 dz
−∞
∫
+∞ = 21π
e−21(
z2−2tz+t2)
+t2
2 dz
−∞
∫
+∞ = 12π
et2
2 e−
z−t
( )2
2 dz
−∞
∫
+∞sostituisco
u = z − t
, du= dz àm z ( ) = e
t222π 1 ∫
−∞+∞e
−u22du
=1
= e
t2
2 .
§
m
Z( ) 0 = 1
.§
m
Z′ ( ) t = te
t22= tm
Z( ) t
.•
m
Z′ ( ) 0 = 0
.§
m
Z′′ ( ) t = m
Z( ) t + t ′ m
Z( ) t
.•
m
Z′′ ( ) 0 = m
Z( ) 0 + 0 = 1 ⇒ E Z ( ) = 0
,E Z ( )
2= 1 = Var Z ( )
.Ø Definizione:
X
variabile aleatoria conE X ( ) = 0
,Var X ( ) = 1 ⇒ X
è standard.Ø Definizione:
X
variabile aleatoria è normale se:X = aZ + b
,a > 0
,b ∈
,Z
è normale standard. SeZ
è normale standard⇔
−Z
è normale standard.Ø Def:
X
è normale con mediaµ
e varianzaσ
2( X ~ N ( µ,σ
2) )
seX = σZ + µ
,Z
normale standardZ ~ N 0,1 ( )
.Ø
X ~ N ( µ,σ
2)
,Y = α X + β ∈N , ( )
cona ≠ 0
.§ Dimostrazione:
X ~ N ( µ,σ
2) ⇔ X = σZ + µ
,Z ~ N 0,1 ( )
⇒ Y = α X + β = α σZ + µ ( ) + β = ασ ( ) Z + αµ + β
.§
E Y ( ) = E ( α X + β ) = αE X ( ) + β = αµ + β
.§
Var Y ( ) = Var ( α X + β ) = α
2Var X ( )
.Ø
X ~ N ( µ,σ
2)
, calcoliamo la funzione di ripartizione e densità.§ Con
X = σZ + µ
,F
X( ) x = P X ≤ x ( ) = P ( σZ + µ ≤ x ) = P Z ≤ ⎛ ⎝⎜ x σ − µ ⎞ ⎠⎟ = Φ ⎛ ⎝⎜ x σ − µ ⎞ ⎠⎟
àF
X= Φ x − µ σ
⎛ ⎝⎜ ⎞
⎠⎟
.§
P a ( < X < b ) = F
X( ) b − F
X( ) a
per le variabili aleatorie continue.P a ( < X < b ) = Φ ⎛ ⎝⎜ b σ − µ ⎞ ⎠⎟ − Φ ⎛ ⎝⎜ a − σ µ ⎞ ⎠⎟
.§
f
X( ) x = ′ F
X( ) x = d
dx Φ x − µ σ
⎛ ⎝⎜ ⎞
⎠⎟ = ′ Φ x − µ σ
⎛ ⎝⎜ ⎞
⎠⎟
1 σ = f
Zx − µ σ
⎛ ⎝⎜ ⎞
⎠⎟
1 σ = 1
2π e
−1 2
x−µ σ
⎛⎝⎜ ⎞
⎠⎟
⎡ 2
⎣⎢
⎢
⎤
⎦⎥
⎥
1 σ =
= 1
2πσ
2e
−(x−µ)2
2σ2
⎡
⎣
⎢⎢
⎤
⎦
⎥⎥
.
Ø
X ~ N ( µ,σ
2)
,X σ − µ ~ N 0,1 ( )
.§
E X − µ
σ
⎛ ⎝⎜ ⎞
⎠⎟ = E X ( ) − µ
σ = 0
,Var X − µ
σ
⎛ ⎝⎜ ⎞
⎠⎟ = V − 1 σ X − µ
σ
⎛ ⎝⎜ ⎞
⎠⎟ = 1
σ
2Var X ( ) = 1
.Ø Teorema:
X
1, X
2,..., X
n normali indipendenti⇒ X
1+ ...+ X
n è normale.§ Dimostrazione:
X ~ N ( µ,σ
2)
.m
X( ) t = E e ( )
tX ma siccome è normale sappiamo che∃
X = σZ + µ
,Z ~ N 0,1 ( )
.m
X( ) t = E e ⎡⎣
t(σ Z + µ)⎤⎦ = E e ⎡⎣
( )tσ Ze
tµ⎤⎦ = e
tµE e
( )tσ′t
⎡
z⎣⎢ ⎤
⎦⎥ = e
tµm
Z( ) tσ = e
tµe
( )tσ2
2
= e
t2σ2 2 +tµ
⎡
⎣⎢
⎢
⎤
⎦⎥
⎥ à
m
X= e
t2σ2 2 +tµ
⎡
⎣⎢
⎢
⎤
⎦⎥
⎥.
•
m
X1+...+ Xn
= m
X1( ) t ...m
Xn( ) t = exp t
2σ
122 + t µ
1⎧ ⎨
⎩
⎫ ⎬
⎭ ...exp t
2σ
2n2 + t µ
n⎧ ⎨
⎩
⎫ ⎬
⎭ =
exp t
2σ
2k2 + tµ
k⎛
⎝⎜
⎞
⎠⎟
k=1
∑
n⎧ ⎨
⎩⎪
⎫ ⎬
⎭⎪ = exp t
22 σ
2kk=1
∑
n′
( )σ 2
+ t µ
k k=1∑
n µ '⎧
⎨ ⎪
⎩ ⎪
⎫
⎬ ⎪
⎭ ⎪ = exp t
22 ( ) σ ′
2+ t ′ µ
⎧ ⎨
⎩
⎫ ⎬
⎭
⇒ X
1+ ...+ X
n~ N µ
kk=1
∑
n, σ
2k k=1∑
n⎛
⎝⎜
⎞
⎠⎟
.Ø Utilizzo: questo tipo di variabile aleatoria è molto importante e utilizzata grazie al teorema del limite centrale che tratterremo più avanti.
µ Esponenziali:
Ø Def:
X
è esponenziale di parametroλ
> 0(
X ~ €( ) λ )
se fX( )
x =λ
e−λx x> 00 altrimenti
⎧⎨
⎩ .
Ø
F
X( ) x = ∫
−∞xf
X( ) s ds = 0 x < 0 λe
−λsds
0
∫
x= −e ⎡⎣
−λs⎤⎦
x0= 1− e
−λxx ≥ 0
⎧ ⎨
⎪
⎩⎪
.
Ø Funzione generatrice dei momenti:
m
X( ) t = E e ( )
tX= ∫
−∞+∞e
txf
X( ) x dx = ∫
0+∞e
txλe
−λxds = λ ∫
0+∞e
−(λ −tλ ')xdx
conλ
> t à= λ
λ − t
( ) ∫
0+∞( λ − t ) e
−(λ −t)xdx
=1
.§
m
X( ) t = λ − t λ
.§
m '
X( ) t = −λ −1 ( )
λ − t
( )
2= ( λ − t λ )
2 àm ′
X( ) 0 = λ 1 = E X ( )
.§
m ′′
X( ) t = −λ λ − t ( ) ( ) −1
λ − t
( )
4= ( λ − t 2λ )
3 àm ′′
X( ) 0 = 2λ λ
3= 2
λ
2= E X ( )
2 .§
Var X ( ) = λ 2
2− 1 λ
2= 1
λ
2 . Ø Assenza di memoria:§
X ~ € ( ) λ ⇒ P X > t + s | X > t ( ) = P X > s ( )
.§ Dimostrazione:
P X ( > t + s | X > t ) = P X ( > t + s & X > t )
P X ( > t ) = P X ( > t + s )
P X ( > t ) =
= 1 − F
X( t + s )
1 − F
X( ) t = e
−λ t + s( )
e
−λt= e
−λs= P X > s ( )
, ricorda cheP X ( > z ) = e
−λx⇒ F
X( ) x = 1− e
−λx.Ø
cX ~ € λ c
⎛ ⎝⎜ ⎞
⎠⎟
.µ Variabili aleatorie di tipo Γ :
Ø Definizione:
X
èΓ ( ) α,λ
se fX( )
X =λ
α
Γ
( ) α
xα −1e−λx x> 0 0 altrimenti⎧
⎨⎪
⎩⎪ .
Ø Nota:
Γ ( ) α
serve a far sì che la densità faccia uno in( −∞,+∞ )
:f
X( ) x dx
−∞
∫
+∞= 1 = Γ λ ( ) α
α 0x
α −1e
−λxdx
∫
+∞⇒ Γ ( ) α = λ
α 0x
α −1e
−λxdx
∫
+∞ facciamo il cambiamentodi variabili
y = λx
,dy = λdx
àλ
αy λ
⎛ ⎝⎜ ⎞
⎠⎟
α −1
e
− ydy λ
0
∫
+∞= λ λ
αα∫
0+∞y
α −1e
− ydy = Γ ( ) α
.Ø Γ
( ) α
:=∫
0+∞xα −1e− xdx.Ø Gamma di Eulero: Γ 1
( )
=∫
0+∞e− xdx= 1.§ Osservazione:
Γ 1, ( ) λ = € ( ) λ
.§ Per mezzo dell’integrazione per parti:
Γ
( ) α
=∫
0+∞yα −1e− ydy= −e− yyα −1 +∞0+∫
0+∞( α
− 1)
y(α −1)−1e− ydy== a − 1
( ) ∫
0+∞y(α −1)−1e− ydy=( α
− 1)
Γ( α
− 1)
àΓ ( ) α = ( α − 1 ) Γ ( α − 1 )
.§
Γ n ( ) = n − 1 ( ) Γ n − 1 ( ) = n − 1 ( ) ( n − 2 ) Γ n − 2 ( ) ....Γ 1 ( ) = n − 1 ( ) !
.Ø
X ~ Γ a, ( ) λ
. Funzione generatrice dei momenti:§ E e
( )
tX = Γλ ( ) α
α∫
0+∞xα −1e−λxetxdx= Γλ ( ) α
α∫
0+∞xα −1e−(λ −t)xdx=( λ λ
− tα)
α( λ
Γ− t( ) α )
α∫
0+∞xα −1e−(λ −t)dx=1
=
= λ
αλ − t
( )
α .§
m
X( ) t = ⎛ ⎝⎜ λ − t λ ⎞ ⎠⎟
α.•
m
X′ ( ) t = α ⎝⎜ ⎛ λ − t λ ⎞ ⎠⎟
α −1−λ −1 ( )
λ − t
( )
2⎡
⎣ ⎢
⎢
⎤
⎦ ⎥
⎥ = αλ
αλ − t
( )
α +1 àm ′
X( ) 0 = α λ
.•
m
X′′ ( ) t = − αλ
α( α + 1 ) ( λ − t )
α( ) 1
λ − t
( )
2α +2 à m′′X( )
0 =α α (
+ 1)
λ
2 .§
E X ( ) = α λ
;§ E X
( )
2 =α α ( λ
2+ 1)
;§
Var X ( ) = α α + 1 ( )
λ
2− α
2λ
2= α
λ
2 .Ø Proprietà:
X ~ Γ ( ) α,λ ,Y ~ Γ ( ) β,λ
indipendenti⇒ X + Y ~ Γ ( α + β,λ )
.§ Dimostrazione:
m
X+Y( ) t = m
X( ) t m
Y( ) t = ⎛ ⎝⎜ λ − t λ ⎞ ⎠⎟
α⎛ ⎝⎜ λ − t λ ⎠⎟ ⎞
β= ⎛ ⎝⎜ λ − t λ ⎞ ⎠⎟
α +β⇒ X + Y ~ Γ ( α + β,λ )
.§ Utilità:
• Capire
X,Y ~ € ( ) λ
indipendenti.♦
X ~ € ( ) λ = Γ 1, ( ) λ
Y ~ € ( ) λ = Γ 1, ( ) λ
àX + Y ~ Γ 2, ( ) λ
.♦ In generale:
X
1,..., X
n~ € ( ) λ
àX
1+ X
2+ ...+ X
n~ Γ n, ( ) λ
.
µ Distribuzioni Chi-‐quadro:
Ø
Z
12+ ...+ Z
n2
~ Γ n
2 , 1 2
⎛ ⎝⎜ ⎞
⎠⎟ = χ
2( ) n
chi-‐quadro conn
gradi di libertà.§
X ~ χ
2( ) n ⇔ X ~ Γ n 2 , 1
2
⎛ ⎝⎜ ⎞
⎠⎟
.§
E X [ ] =
n 2 1 2
= n
.§
Var X ( ) =
n 2 1 2
⎛ ⎝⎜ ⎞
⎠⎟
2
= 2n
.§
X ~ χ
2( ) n
,f
X( ) x = 1 2
n 2
1 Γ n
2
⎛ ⎝⎜ ⎞
⎠⎟
x
n 2−1
e
−x
2
x > 0
0 altrimenti
⎧
⎨ ⎪⎪
⎩ ⎪
⎪
.
§
X ~ χ
2( ) n ,Y ~ χ
2( ) m
indipendenti àX + Y = X
12+ ...+ X
n2+ Y
12+ ...+ Y
m2⇒ X + Y ~ χ
2( n + m )
.Ø Se
X
è una chi-‐quadro conn
gradi di libertà eα
è un reale compreso tra0
e1
, si definisce la quantitàχ
α,n2 tramite l’equazione seguente:P X ( ≥ χ
α,n2) = α
.
µ Distribuzioni t:
Ø Se
Z
eC
n sono variabili aleatorie indipendenti, la prima normale standard e la seconda chi-‐quadro con
n
gradi di libertà, allora la variabile aleatoriaT
n definita comeT
n: = Z
C
nn
si dice avere distribuzionet
conn
gradi di libertà àT
n~ t
n. Tale variabile aleatorie viene definita spessot
di Student.§
f
T( ) t = Γ
n + 1 2
⎛ ⎝⎜ ⎞
⎠⎟
Γ n 2
⎛ ⎝⎜ ⎞
⎠⎟ nπ 1+ t
2n
⎛
⎝⎜
⎞
⎠⎟
n+1 2
con
t
an
gradi di libertà.§
E T [ ]
n= 0
conn ≥ 2
.§
Var T ( )
n= n
n − 2
conn ≥ 3
.Ø Se
T
n~ t
α,n conα ∈ 0,1 ( )
àP T (
n≥ t
α,n) = α
.§
T
è simmetrica àP T (
n≥ −t
α,n) = 1− α
.
µ Teoremi e Teorie:
Ø Teoria dell’affidabilità:
§
T =
istante di rottura.T > t ⇔
all’istantet
il sistema funziona.§
P T ( > t ) = 1− F
T( ) t =
funzione di sopravvivenza.§ Def: intensità di rischio o tasso di guasto.
λ
T( ) t := f
T( ) t
1 − F
T( ) t
.§
P T ( ∈(t,t + dt] | T > t ) = P T ( ∈(t,t + dt]& T > t )
P T ( > t ) = P T ( ∈(t,t + dt] )
1 − F
T( ) t f
T( ) t dt
1 − F
T( ) t = λ
T( ) t dt
§
T > 0
λ
T( ) t ⇒ f
T( ) t
è nota.§
λ
T( ) t := f
T( ) t
1 − F
T( ) t = − dt d ln 1 ( − F
T( ) t )
integrando il tutto àλ
T( ) s ds
0
∫
t= − ∫
0tds d ln 1 ( − F
T( ) s ) ds = − ln 1− F ⎡⎣ (
T( ) t ) − ln 1− F (
T( ) 0 ) ⎤⎦
,λ
T( ) s ds
0
∫
t= ln 1− F (
T( ) 0 )
=0
− ln 1− F (
T( ) t )
⇒ 1− F
T( ) t = e
−∫
0tλT( )s ds.F
T( ) t = 1− exp − { ∫
0tλ
T( ) s ds }
. Ricorda che:f
T( ) t = − d
dt ( 1 − F
T( ) t )
.§
λ
T( ) t = λ ⇔ T ~ € λ ( )
àF
T( ) t = 1− exp − { } ∫
0tλ ds = 1− e
−λt.§
λ
T⇒ P T > t + s | T > s ( ) ≤ P T < t ( )
, (
significa non decrescente).•
P T ( > t + s | T > s ) = P T ( > t + s & T > s )
P T ( > s ) = P T ( > t + s )
P T ( > s ) = 1 − F
T( t + s )
1 − F
T( ) s =
= exp
{
−∫
0t+ sλ
T( )
u du}
exp
{
−∫
0sλ
T( )
u du}
= exp −{ ( ∫0t+ sλ
T( )
u du−∫
0sλ
T( )
u du) }
= exp −{ ( ∫st+ sλ
T( )
u du) }
•
P T ( > t ) = 1− F
T( ) t = exp − { ∫
0tλ
T( ) u du }
.• Facendo i grafici vediamo che
P T ( > t + s | T > s ) ≤ P T < t ( )
effettivamente è vera.§
T
è Weibull⇔ λ
T( ) t = αβt
β −1. Ø Teorema del limite centrale:§
X
1, X
2,...
variabili aleatorie indipendenti, tutte con la stessa formula di ripartizione,E X ( )
1= E X ( )
2= ... = µ
,Var X ( )
1= Var X ( )
2= ... = σ
2.§
1
n X
kk=1
∑
n= X
n media campionaria.•
E X ( )
n= µ
.•
Var X ( )
n= σ n
2 .•
P X (
n− µ > ε )
n→∞→ 0
(legge dei grandi numeri).•
Var X (
n− µ ) = Var X ( )
n= σ n
2 . Xn µ
± k Var X( )
n =µ
±σ
n .§ Xn −
µ
σ
n .
§ Teorema limite centrale:
X
1, X
2,..
variabili aleatorie indipendenti con la stessa formula di ripartizioneE X ( )
1= E X ( )
2= ... = µ
,Var X ( )
1= Var X ( )
2= ... = σ
2⇒ X
nσ − µ n
.nlim→+∞P Xn−
µ
σ
n ≤ z⎛
⎝⎜
⎞
⎠⎟ = Φ z
( )
= 12
π
e−u2 2 du
−∞
∫
z .§
Z
n= X
n− µ
n1
σ
n ≈ N 0,1 ( )
. Xn = Znσ
n +