Variabili Aleatorie
µ Definizioni:
Ø Una variabile aleatoria
X
è una regola (funzione) che associa un numero ad un esito casuale.Ø Per le variabili aleatorie siamo interessati a calcolare probabilità del tipo:
§
P a ( ≤ X ≤ b ) = P esiti tali che a ≤ X ≤ b ( )
. Esempio per quanto riguarda i dadi:P 2 ( ≤ X ≤ 3.7 ) = P i, j ( ( ) ∈Ω : 2 ≤ i + j ≤ 3.7 ) = P 1,1 ( { ( ) , 1, 2 ( ) , 2,1 ( ) } )
àP 2 ( ≤ X ≤ 3.7 ) = P 1,1 ( { } ( ) ) + P 1,2 ( { } ( ) ) + P 2,1 ( { } ( ) ) = 36 1 + 36 1 + 36 1 = 36 3 = 12 1
.Ø Sia
X
una variabile aleatoria (V.A.), la funzione di ripartizione (F.D.R.) diX
èF
X( ) x := P X ≤ x ( )
. Quindi
F
X( ) x
esprime la probabilità che la variabile aleatoriaX
assuma un valore minore o uguale ax
.§ Proprietà:
1.
0 ≤ F
X( ) x ≤ 1
, la dimostrazione è ovviaF
X( ) x = P X ≤ x ( ) ∈ 0,1 [ ]
.2.
P a ( < X ≤ b ) = F
X( ) b − F
X( ) a
.♦ Dimostrazione: P X
(
≤ b)
= P X ≤ a( ( )
∪ a < X ≤ b( ) )
= P X ≤ a( )
+ P a < X ≤ b( )
à
P a ( < X ≤ b ) = P X ≤ b ( ) − P X ≤ a ( )
. (N.B.: ∪ significa unione di due eventi disgiunti).3.
F
X( ) x
è non decrescente.♦ Dimostrazione: segue da 2. Se x< y à
F y ( ) − F x ( ) = P x < X ≤ y ( )
àF y ( ) = F x ( ) + P x < X ≤ y ( )
ma visto che sono tutti maggiori di0
àF y ( ) ≤ F x ( )
.4.
lim
x→+∞
F
X( ) x = lim
x→+∞P X ( ≤ x ) = P X ≤ ∞ ( ) = 1
, ossiaF
X( ) +∞ = 1
.F
X( ) −∞ = P X ≤ −∞ ( ) = 0
.5.
P X ( > x ) = 1− P X ≤ x ( ) = 1− F
X( ) x
.µ Variabili aleatorie discrete:
Ø
X
è una variabile aleatoria discreta se l’insieme dei suoi possibili valori è finito o numerabile.Ø Sia
X
una variabile discreta, la funzione di massa (densità) èp
X( ) a := P X = a ( )
.Proprietà:
1.
P X ( ∈A ) = p
X( ) a
a∈A
∑
.• Dimostrazione:
P X ( ∈A )
conA = x {
1, x
2,..., x
n}
.P X
(
∈A)
= P X ∈ x( {
1, x2,..., xn} )
= P X = x⎛⎝ 1,...O, X = xn⎞⎠ = P X = x(
1)
+ ...+ P X = x(
n)
=
= p x ( )
1+ p x ( )
2+ ...+ p x ( )
n= p
X( ) a
a∈A
∑
.2.
p
X( ) a ∈ 0,1 [ ]
.3.
F
X( ) x = p
X( ) a
a
∑
≤ X .• Dimostrazione: caso particolare della prima proprietà.
F
X( ) x = P X ≤ x ( ) = P X ∈(−∞, x] ( ) = p
X( ) a
a∈(−∞,x]
∑ = p
X( ) a
∑
a≤x .
µ Variabili aleatorie continue (assolutamente):
Ø
X
variabile aleatoria è continua se∃ f x ( ) ≥ 0 : ∀A ⊂
, P X(
∈A)
:=∫
A f x( )
dx.§
f
X( ) x
si chiama densità.Ø P a
(
< X ≤ b)
=∫
ab fX( )
x dx.Ø P x
(
< X ≤ x + ∆ x)
=∫
xx+∆ x fX( )
s ds f x( )
∆ x, se prendo∆ x → 0
. Ø Proprietà della densità (continua):1. P a
(
< X ≤ b)
= P a ≤ X ≤ b( )
= P a < X < b( )
=∫
ab fX( )
x dx.2. P X
(
= a)
= P a ≤ X ≤ a( )
=∫
aa f x( )
dx= 0. Ma nelle applicazioni non lo incontreremo quasi mai, succede solo nella matematica pura.3. FX
( )
x =∫
−∞x fX( )
s ds.• FX
( )
x = P X ≤ x( )
= P X ∈(−∞, x]( )
=∫
−∞x fX( )
s ds.4.
d
dx ∫
−∞xf
X( ) s ds = f
X( ) x
àdx d F
X( ) x = f
X( ) x
. La densità è la derivata della funzione di ripartizione.5.
∫
−∞+∞fX( )
x dx= 1. Dimostrazione:F ( ) +∞ − F −∞ ( ) = 1− 0 = 1
.
µ Coppie di variabili aleatorie:
Ø Coppia
( X,Y )
di variabili aleatorie si chiama anche vettore aleatorio.Ø Sia
( X,Y )
una coppia di variabili aleatorieF
X ,Y( ) x, y := P X ≤ x,Y ≤ y ( )
si chiama funzione di ripartizione congiunta (perché c’è siaX
cheY
). La virgola nell’argomento diP ( )
denota l’intersezione tra eventi.1.
F
X( ) x = P X ≤ x ( )
,F
Y( ) y = P Y ≤ y ( )
si chiamano funzioni di ripartizione marginali.2.
0 ≤ F
X ,Y( ) x, y ≤ 1
.3.
lim
x→+∞
F
X ,Y(x, y) = F
X ,Y( +∞, y ) = P X ≤ +∞,Y ≤ y ( ) = P Y ≤ y ( )
àF
X ,Y( +∞, y ) = F
Y( ) y
, si può ottenere la funzione di ripartizione marginale partendo da quella congiunta mandando all’infinito l’altra variabile aleatoria. Questo perchéF
X( ) ∞ = P x < ∞ ( ) = 1
eF
Y( ) ∞ = P y < ∞ ( ) = 1
.Ø Un vettore aleatorio
( X,Y )
è discreto seX
eY
lo sono.§ Funzione di massa congiunta:
p
X ,Y( ) x, y := P X = x,Y = y ( )
.•
P X,Y ( ( ) ∈A ) = p
X ,Y( ) x, y
( )x, y
∑
∈A àp
X ,Y( ) x, y
∑
x, y= 1
.• Se so chi è
p
X ,Y( ) x, y
, cosa posso dire circap
X( ) x
ep
Y( ) y
?♦
p
X( ) x = p
X ,Y( ) x, y
∑
y ,p
Y( ) y = p
X ,Y( ) x, y
∑
x .Ø Dimostrazione:
P X,Y ( ( ) ∈A ) = p
X ,Y( ) x, y
( )x, y
∑
∈A .A = X = x {
0}
.A
può essere visto come l’unione al variare diy
degli eventi{ X = x
0,Y = y }
che in formula siscrive
{ } A = { X = x
0,Y = y }
y , e siccome sono mutualmente esclusivi possiamoscrivere
P A ( ) = p
X( ) x
0= P { X = x
0,Y = y }
y⎛
⎝⎜
⎞
⎠⎟ =
= P X ( = x
0,Y = y )
∑
y= p x ( )
0, y
∑
y C.V.D.Ø Un vettore aleatorio
( X,Y )
è continuo se∃ f
X ,Y( ) x, y : ∀C ⊂
2. ØP X,Y ( ( ) ∈C ) = ∫∫
Cf x, y ( ) dx dy
.§ fX
( )
x =∫
−∞+∞FX ,Y( )
x, y dy.§ fY
( )
y =∫
−∞+∞FX ,Y( )
x, y dx.§
∫∫
∞f x, y ( ) = 1
.
µ Variabili Aleatorie Indipendenti:
Ø
X
eY
sono indipendenti se gli eventi relativi adX
sono indipendenti da quelli relativi adY
. Ø X,Y indipendenti se∀A, B ⊂
( X ∈A )
e( Y ∈B )
sono indipendenti àP X ∈A ,
&
Y ∈B
( ) = P X ∈A ( ) ·P Y ( ∈B ).
Ø Formulazioni equivalenti:
§
X
eY
sono indipendenti⇔
vale una delle seguenti condizioni.1.
F
X ,Y( ) x, y = F
X( ) x F
Y( ) y
∀x, y
.2.
p
X ,Y( ) x, y = p
X( ) x p
Y( ) y
∀x, y
caso discreto.f
X ,Y( ) x, y = f
X( ) x f
Y( ) y
∀x, y
caso continuo.§ Dimostrazione:
1.
X
eY
indipendenti.F
X ,Y( ) x, y = P X ≤ x,Y ≤ y ( )
siccome sono indipendenti scrivo il prodotto delle probabilità àF
X ,Y( ) x, y = P X ≤ x ( ) P Y ( ≤ y ) = F
X( ) x F
Y( ) y
.2. Caso discreto:
♦
X
eY
indipendenti.p
X ,Y( ) x, y = P X = x,Y = y ( ) = P X = x ( ) P Y ( = y )
.♦ P X
(
∈A,Y ∈B)
= P X ∈A( )
P Y(
∈B)
= P X,Y( ( )
∈A × B)
== pX ,Y
( )a,b
∑
∈A× B( )
a,b = pX ,Y( )
a,b b∈Ba∈A∑
= pX( )
a pY( )
ba∈Ab∈B
∑
= pX( )
aa∈A
∑
pY( )
bb∈B
∑
== P X ∈A ( ) P Y ( ∈B )
∀A, B ⊆
.• Caso n variato:
♦
( X
1, X
2,..., X
n)
conX
k variabile aleatoria.FX
1,..., Xn
(
a1,..., an)
= P X(
1 ≤ a, X2 ≤ a2,..., Xn ≤ an)
àFX1,..., Xn
(
a1,..., ak−1,+∞,ak+1,..., an)
= FX1,..., Xk−1,..., Xn(
a1,..., ak−1, ak+1,..., an)
.PX
1,..., Xn
(
a1,..., an)
= P X(
1 = a1,..., Xn = an)
cona = a (
1,..., a
n)
eX = x (
1, x
2,..., x
n)
.p
X1,..., Xn
( a
1,..., a
n)
ak
∑ = p
X1,..., Xk−1, Xk+1,..., Xn( a
1,..., a
k−1,a
k+1,..., a
n)
.fX
1,..., Xn
(
a1,..., an)
da1...dan P a(
1 < x1≤ a1+ da1,...., an < xn ≤ an + dan)
.P x ( (
1,.., x
n) ∈A ) = ... ∫ ∫ da
1...da
nf
x1,...xn( a
1,..., a
n)
n integrali in A
.
µ Valore Atteso:
Ø
X
variabile aleatoria discreta, il valore atteso diX
è il numero:a
iP X ( = a
i)
∑
i= a
ip
X( ) a
i∑
i=: E X ( )
aspettazione o media diX
.§ Note:
1. Se
a
iP X ( = a
i)
∑
i non converge àE X ( )
non esiste.2. Sia
X
una variabile aleatoria a valori in{ a
1, a
2,..., a
n}
.N
k( X
1,..., X
n) =
numero di volte che ottengo “a
k”.N
kN P X = a (
k)
àX
1+ ...+ X
nN = a
1N
1+ a
2N
2+ ...+ a
nN
nN =
= a
1N
1N + a
2N
2N + ...+ a
nN
nN a
1P X ( = a
1) + ...+ a
nP X ( = a
n) = E X ( )
.a
ip
X( ) a
i∑
ip
X( ) a
i∑
i= 1 = E X ( )
.§
E X ( ) =
prezzo equo del beneX
.§
X
variabile aleatoria continua, E X( )
:=∫
−∞+∞xfX( )
x dx.§ Proprietà del valore atteso:
•
X
variabile aleatoriag : → ⇒ Y = g X ( )
è una variabile aleatoria.•
α,β ∈, X
variabile aleatoriaE [ α X + β ] = E g X ⎡⎣ ( ) ⎤⎦ = g x ( ) p
X( ) x
∑
x= ( α X + β ) p x ( )
∑
x=
= α Xp
X( ) x
∑
x+ β p
X( ) x
∑
x= α Xp
X( ) x
∑
x E X( )+ β p
X( ) x
∑
x=1
= αE X ( ) + β
.•
E [ ] α X = α X ( )
.•
E ( ) β = β
il valore atteso di un numero è un numero stesso.•
E X [ + Y ] = E X [ ] + E Y [ ]
.♦ Dimostrazione:
( X,Y )
discreto.E X ( + Y ) = E g X,Y ( ( ) ) = ( x + y ) p
X ,Y( ) x, y
∑
x, y=
= xp
X ,Y( ) x, y
∑
x, y+ yp
X ,Y( ) x, y
∑
x, y= xp x, y ( )
∑
y∑
x+ yp x, y ( )
∑
x∑
y=
= x p x, y
( )
∑
y= pX( )y
∑
x + y p x, y( )
∑
x= pY( )x
∑
y = xpX( )
x∑
x + yPY( )
y∑
y = E X[ ]
+ E Y[ ]
.•
E X
kk=1
∑
n⎡
⎣⎢
⎤
⎦⎥ = E X [ ]
kk=1
∑
n .§ Teorema:
X
variabile aleatoria eg : →
.E g x ⎡⎣ ( ) ⎤⎦ = g x ( ) p
X( ) x
∑
xg x ( ) f
X( ) x dx
−∞
∫
+∞⎧
⎨ ⎪
⎩ ⎪
(analogia conE X
( )
=∫
−∞+∞xfX( )
x dx).§ Teorema:
X = X (
1,..., X
n)
vettore aleatoriog : →
.g X ( ) = g X (
1,..., X
n)
àE g X⎡⎣
( )
⎤⎦ = g x( )
pX( )
x =(
x1,..., xn)
pX1,..., X1(
x1,.., xn)
x1
∑
,.., xn∑
X∫
...∫
g x( )
fX( )
x dx⎧
⎨⎪
⎩⎪
.
µ Varianza:
Ø Sia
X
una variabile aleatoria con mediaµ = E X ( )
. Si definisce varianza:Var X
( )
:= E X −⎡⎣( µ )
2⎤⎦ = E X − E X⎡⎣( ( ) )
2⎤⎦. Per calcolare una varianza devo:§ Calcolare
µ = E X ( ) = xp x ( )
∑
xxf x ( ) dx
−∞
∫
+∞⎧
⎨ ⎪
⎩ ⎪
§
Var x ( ) = ( x − µ )
2p x ( )
∑
x≥ 0
x − µ
( )
2f x ( ) dx
−∞
∫
+∞≥ 0
⎧
⎨ ⎪
⎩ ⎪
§ Oss:
Var X ( ) ≥ 0
,Var X ( ) = 0 ⇔ X = µ
.Ø
Var X ( )
si chiama deviazione standard.Ø Proprietà:
§
X
variabile aleatoriaα,β ∈
,Var ( α X + β ) = E ⎡⎣ ( α X + β ) − E ( α X + β )
2⎤⎦ = E αX + β − αE X ⎡ ⎣⎢ ( ( ( ) + β ) )
2⎤ ⎦⎥ =
= E⎡⎣
( α
X−α
E X( ) )
2⎦ =⎤α
2E⎡⎣(
X− E X( ) )
2⎦ =⎤α
2Var X( )
àVar ( α X + β ) = α
2Var X ( )
.§
Var ( ) α X = α
2Var X ( )
.§
Var ( ) α X = α
2Var X ( ) ⇒ Var −X ( ) = Var X ( )
,E ( ) −X = −E X ( )
.§
Var X ( + β ) = Var X ( )
.§
Var ( ) β = 0
.§
Var X ( ) = E X ( )
2− E X ( )
2.• Dimostrazione: Var X
( )
= E X − E X⎡⎣( ( ) )
2⎤⎦ = E X⎡⎣ 2 − 2XE X( )
+ E X( )
2⎤⎦ == E X ( )
2+ E −2E X ⎡⎣ ( ) X ⎤⎦ + E E X ⎡⎣ ( )
2⎤⎦ = E X ( )
2− 2E X ( ) E X ( ) + E X ( )
2=
= E X ( )
2− 2E X ( )
2+ E X ( )
2= E X ( )
2− E X ( )
2.§ Var X
(
+ Y)
= E X + Y − E X + Y⎡⎣( ( ) )
2⎤⎦ = E X + Y − E X⎡⎣( ( )
− E Y( ) )
2⎤⎦ == E ⎣ ⎡ ( ( X − E X ( ) ) + Y − E Y ( ( ) ) )
2⎤ ⎦ =
= E X − E X⎡⎣
( ( ) )
2+ 2 X − E X( ( ) ) (
Y − E Y( ) )
+ Y − E Y( ( ) )
2⎤⎦ == E X − E X ⎡ ⎣ ( ( ) )
2⎤ ⎦
Var X( )
+ E Y − E Y ⎡ ⎣ ( ( ) )
2⎤ ⎦
Var Y( )
+ 2E X − E X ⎡⎣ ( ( ) ) ( Y − E Y ( ) ) ⎤⎦
covarianza
.
Ø X,Y v.a la covarianza di
X
conY
èCov X,Y ( ) := E X − E X ⎡⎣ ( ( ) ) ( Y − E Y ( ) ) ⎤⎦
.§
Var X ( + Y ) = Var X ( ) + Var Y ( ) + 2Cov X,Y ( )
.§
Cov X, X ( ) = Var X ( )
.§
Cov X,Y ( ) = Cov Y, X ( )
.§
Cov ( α X + β,Y ) = αCov X,Y ( )
.§
Cov ( α X,Y ) = αCov X,Y ( )
.§
Cov X ( + β,Y ) = Cov X,Y ( )
.§
Cov ( ) β,Y = 0
.§
Cov X,Y ( ) = E XY ( ) − E X ( ) E Y ( )
.§ X,Y indipendenti
⇒
Cov X,Y ( ) = 0
.• Dimostazione:
Cov X,Y ( ) = 0 ⇔ E XY ( ) = E X ( ) E Y ( )
se sono indipendenti.E XY ( ) = xyp
X ,Y( ) x, y
∑
x, y ma siccome sono indipendentip
X ,Y( ) x, y = P
X( ) x p
Y( ) y
àE XY ( ) = xp
X( ) x
∑
x⎛
⎝⎜
⎞
⎠⎟ yp
Y( ) y
∑
y⎛
⎝⎜
⎞
⎠⎟
§ Cov X
(
+ Y,Z)
= E X + Y⎡⎣( )
Z⎤⎦ − E X + Y⎡⎣( )
⎤⎦E Z[ ]
= E XZ + YZ[ ]
− E Z( )
⎡⎣E X( )
+ E Y( )
⎤⎦ == E XZ [ ] + E YZ [ ] − E Z ( ) E X ( ) − E Z ( ) E Y ( ) = Cov X,Z ( ) + Cov Y,Z ( )
. àCov X ( + Y,Z ) = Cov X,Z ( ) + Cov Y,Z ( )
.§
Cov X
i, Z
∑
i⎛
⎝⎜
⎞
⎠⎟ = Cov X (
i, Z )
∑
i .§
X
1,..., X
n variabili aleatorie.Var X
kk=1
∑
n⎛
⎝⎜
⎞
⎠⎟
,a
i∑
i⎛
⎝⎜
⎞
⎠⎟
2
= a
i∑
i⎛
⎝⎜
⎞
⎠⎟ a
j∑
j⎛
⎝⎜
⎞
⎠⎟ = a
ia
j∑
j∑
i= a
i2∑
i+ a
ia
j∑
i≠ j .Var X
k∑
k⎛
⎝⎜
⎞
⎠⎟ = Cov X
k∑
k, X
h∑
h⎛
⎝⎜
⎞
⎠⎟ = Cov X
k, X
h∑
h⎛
⎝⎜
⎞
⎠⎟ =
∑
k= Cov X (
k, X
h)
∑
h∑
k= Cov X (
k, X
k)
∑
k+ Cov X (
k, X
h)
∑
k≠h= Var X ( )
k+ Cov X (
k, X
h)
∑
k≠h∑
k .• Corollario: se
X
1,..., X
n variabili aleatorie indipendenti àVar X
k∑
k⎛
⎝⎜
⎞
⎠⎟ = Var X ( )
k∑
k .§ X,Y indipendenti
⇒
Cov X,Y ( ) = 0
.Ø X,Y sono non correlate se
Cov X,Y ( ) = 0
.§ Indipendenza
⇒
non correlazione.Ø X,Y variabili aleatorie,
X & Y
sono positivamente (negativamente) correlate seCov X,Y ( ) > 0
(
Cov X,Y ( ) < 0
).
µ Coefficiente di Correlazione:
Ø
ρ (
X,Y)
:= Cov X,Y( )
Var X
( )
Var Y( )
coefficiente di correlazione.§
ρ α X,αY ( ) = Cov ( α X,αY )
Var ( ) α X Var ( ) αY = α
2
Cov X,Y ( )
α
2Var X ( ) Var Y ( ) =
Cov X,Y ( )
Var X ( ) Var Y ( )
.§
ρ (
X,Y)
≤ 1.§
ρ (
X,Y)
= 1 ⇔ Y =α
X+β
.µ Legge dei grandi numeri:
Ø Disuguaglianza di Chebyshev:
X
variabile aleatoria,µ = E X ( )
eσ = Var X ( )
.P X ( − µ > kσ ) ≤ 1
k
2 . In altri termini, la probabilità che una variabile aleatoria differisca dalla sua media per più dik
volte la deviazione standard, non può superare il valore di1
k
2 .§ Dimostrazione: Diciamo che
X
sia discreta.σ
2= Var X ( ) = E X − ⎡⎣ ( µ )
2⎤⎦ = x − µ ( )
2p
X( ) x
∑
x=
= ( x − µ )
2p x ( )
x: x−µ >kσ
(
∑
)+ ( x − µ )
2p x ( )
x: x−µ ≤kσ
(
∑
)≥ ( x − µ )
2p x ( )
x: x−µ >kσ
(
∑
)≥
≥ kσ ( )
2p
X( ) x
x: x−µ >kσ
(
∑
)= k
2σ
2P X ( − µ > kσ ) ≤ σ
2⇒ P X − ( µ > kσ ) ≤ k 1
2 . Ø Teorema (Legge debole dei grandi numeri):X
1, X
2,...
variabili aleatorie indipendenti,E X ( )
1= E X ( )
2= ... = µ
Var X ( )
1= Var X ( )
2= ... = σ
2⎧ ⎨
⎪
⎩⎪
⇒
fissatoε > 0
,P 1
n X
kk=1
∑
n⎛
⎝⎜
⎞
⎠⎟ − µ > ε
⎛
⎝⎜
⎞
⎠⎟ → 0
conn → ∞
. Con1
n X
kk=1
∑
n= X
n media campionaria.§ Dimostrazione:
E X ( )
n= E 1 n X
kk=1
∑
n⎡
⎣⎢
⎤
⎦⎥ = 1
n E X ( )
kk=1
∑
n= 1 n µ
k=1∑
n= 1 n nµ = µ
.Var X ( )
n= Var 1 n X
kk=1
∑
n⎛
⎝⎜
⎞
⎠⎟ = 1
n
2Var X
kk=1
∑
n⎛
⎝⎜
⎞
⎠⎟ = 1
n
2Var X ( )
kk=1
∑
n= n 1
2σ
2 k=1∑
n= nσ n
22= σ n
2 .P X (
n− µ > ε ) = P X
n− E X ( )
n> σ ε
X
= kσ
X⎛
⎝
⎜ ⎜
⎜
⎞
⎠
⎟ ⎟
⎟ ≤ 1 ε σ
X⎛
⎝⎜
⎞
⎠⎟
2
Per il teorema di Chebyshev
= σ
2Xε
2= σ
2nε
2→
n→∞
0
.
µ Funzione generatrice dei momenti:
Ø
X
variabile aleatoria,t ∈
,e
tX è una variabile aleatoria.Ø La funzione generatrice dei momenti di
X
èm
X( ) t := E e ⎡⎣ ⎤⎦ =
tXe
tx
∑
xp
X( ) x se X è discreta e
txf
X( ) x dx
−∞
∫
+∞se X è continua
⎧
⎨ ⎪⎪
⎩ ⎪
⎪
Il nome adottato deriva dal fatto che tutti i momenti di cui è dotata
X
possono essere ottenuti derivando più volte nell’origine la funzionem
X( ) t
.Ø
E g X ( ( ) ) = g x ( ) p
X( ) x con X discreta
∑
xg x ( ) f
X( ) x dx
−∞
∫
+∞con X continua
⎧
⎨ ⎪
⎩ ⎪
Ø
m
X( ) 0 = E e ⎡⎣ ⎤⎦ = E e
0 x⎡⎣ ⎤⎦ = 1
0 .Ø
X
variabile aleatoria, il momento k-‐esimo diX
èE X ( )
k .Ø Proprietà:
§
m
X( )k( ) 0 = E X ⎡⎣ ⎤⎦
k .• Teorema:
X
variabile aleatoria,m
X( ) t
è derivabilen
volte int = 0
⇔
se∃
E X ( ) , E X ( )
2,..., E X ( )
n .§ X,Y hanno la stessa funzione generatrice dei momenti
⇔
F
X= F
Y àm
X= m
Y⇔ F
X= F
Y§ Se X,Y variabili aleatorie indipendenti
⇒
m
X+Y= m
Xm
Y. In altre parole, la funzione generatrice dei momenti della somma di variabili aleatorie indipendenti è il prodotto delle funzioni generatrici delle singole variabili aleatorie.• Dimostrazione: X,Y indipendenti
⇒
e
tX& e
tY sono indipendenti∀t
.♦
F
etXetY= F
etXF
etY .F
etX,etY= P e (
tX≤ a,e
tY≤ b ) = P tX ≤ lna,tY ≤ lnb ( ) = P X ≤ 1
t ln a,Y ≤ 1 t ln b
⎛ ⎝⎜ ⎞
⎠⎟ =
= P X ≤1 tln a
⎛⎝⎜ ⎞
⎠⎟P Y ≤1 tln b
⎛⎝⎜ ⎞
⎠⎟ = P tX ≤ lna
( )
P tY(
≤ lnb)
= P e(
tX ≤ a)
= FetX
P e
(
tY ≤ b)
= FetY
♦