• Non ci sono risultati.

Variabili  Aleatorie  

N/A
N/A
Protected

Academic year: 2021

Condividi "Variabili  Aleatorie  "

Copied!
8
0
0

Testo completo

(1)

Variabili  Aleatorie  

µ Definizioni:  

Ø Una  variabile  aleatoria  

X

 è  una  regola  (funzione)  che  associa  un  numero  ad  un  esito  casuale.  

Ø Per  le  variabili  aleatorie  siamo  interessati  a  calcolare  probabilità  del  tipo:  

§

P a ( ≤ X ≤ b ) = P esiti tali che a ≤ X ≤ b ( )

.  Esempio  per  quanto  riguarda  i  dadi:  

P 2 ( ≤ X ≤ 3.7 ) = P i, j ( ( ) ∈Ω : 2 ≤ i + j ≤ 3.7 ) = P 1,1 ( { ( ) , 1, 2 ( ) , 2,1 ( ) } )

 à  

P 2 ( ≤ X ≤ 3.7 ) = P 1,1 ( { } ( ) ) + P 1,2 ( { } ( ) ) + P 2,1 ( { } ( ) ) = 36 1 + 36 1 + 36 1 = 36 3 = 12 1

.  

Ø Sia  

X

 una  variabile  aleatoria  (V.A.),  la  funzione  di  ripartizione  (F.D.R.)  di  

X

 è  

F

X

( ) x := P X ≤ x ( )

.  Quindi  

F

X

( ) x

 esprime  la  probabilità  che  la  variabile  aleatoria  

X

 assuma  un  valore  minore  o   uguale  a  

x

.  

§ Proprietà:    

1.

0 ≤ F

X

( ) x ≤ 1

,  la  dimostrazione  è  ovvia  

F

X

( ) x = P X ≤ x ( ) ∈ 0,1 [ ]

.  

2.

P a ( < X ≤ b ) = F

X

( ) b − F

X

( ) a

.  

♦ Dimostrazione:  P X

(

≤ b

)

= P X ≤ a

( ( )

∪ a < X ≤ b

( ) )

= P X ≤ a

( )

+ P a < X ≤ b

( )

 

à  

P a ( < X ≤ b ) = P X ≤ b ( ) − P X ≤ a ( )

.  (N.B.:   ∪  significa  unione  di  due  eventi   disgiunti).  

3.

F

X

( ) x

 è  non  decrescente.  

♦ Dimostrazione:  segue  da  2.  Se  x< y  à  

F y ( ) − F x ( ) = P x < X ≤ y ( )

 à  

F y ( ) = F x ( ) + P x < X ≤ y ( )

 ma  visto  che  sono  tutti  maggiori  di  

0

 à  

F y ( ) ≤ F x ( )

.  

4.

lim

x→+∞

F

X

( ) x = lim

x→+∞

P X ( ≤ x ) = P X ≤ ∞ ( ) = 1

,  ossia  

F

X

( ) +∞ = 1

.  

F

X

( ) −∞ = P X ≤ −∞ ( ) = 0

.  

5.

P X ( > x ) = 1− P X ≤ x ( ) = 1− F

X

( ) x

.    

µ Variabili  aleatorie  discrete:  

Ø

X

 è  una  variabile  aleatoria  discreta  se  l’insieme  dei  suoi  possibili  valori  è  finito  o  numerabile.  

Ø Sia  

X

 una  variabile  discreta,  la  funzione  di  massa  (densità)  è  

p

X

( ) a := P X = a ( )

.  

Proprietà:  

1.

P X ( ∈A ) = p

X

( ) a

a∈A

.  

• Dimostrazione:  

P X ( ∈A )

 con  

A = x {

1

, x

2

,..., x

n

}

.  

P X

(

∈A

)

= P X ∈ x

( {

1, x2,..., xn

} )

= P X = x 1,...O, X = xn⎠ = P X = x

(

1

)

+ ...+ P X = x

(

n

)

=

 

= p x ( )

1

+ p x ( )

2

+ ...+ p x ( )

n

= p

X

( ) a

a∈A

.  

2.

p

X

( ) a ∈ 0,1 [ ]

.  

(2)

3.

F

X

( ) x = p

X

( ) a

a

≤ X .  

• Dimostrazione:  caso  particolare  della  prima  proprietà.  

F

X

( ) x = P X ≤ x ( ) = P X ∈(−∞, x] ( ) = p

X

( ) a

a∈(−∞,x]

= p

X

( ) a

a≤x .  

 

µ Variabili  aleatorie  continue  (assolutamente):  

Ø

X

 variabile  aleatoria  è  continua  se  

∃ f x ( ) ≥ 0 : ∀A ⊂ 

,  P X

(

∈A

)

:=

A f x

( )

dx.  

§

f

X

( ) x

 si  chiama  densità.  

Ø P a

(

< X ≤ b

)

=

ab fX

( )

x dx.  

Ø P x

(

< X ≤ x + ∆ x

)

=

xx+∆ x fX

( )

s ds f x

( )

∆ x,  se  prendo  

∆ x → 0

.   Ø Proprietà  della  densità  (continua):  

1. P a

(

< X ≤ b

)

= P a ≤ X ≤ b

( )

= P a < X < b

( )

=

ab fX

( )

x dx.  

2. P X

(

= a

)

= P a ≤ X ≤ a

( )

=

aa f x

( )

dx= 0.  Ma  nelle  applicazioni  non  lo  incontreremo   quasi  mai,  succede  solo  nella  matematica  pura.  

3. FX

( )

x =

−∞x fX

( )

s ds.  

FX

( )

x = P X ≤ x

( )

= P X ∈(−∞, x]

( )

=

−∞x fX

( )

s ds.  

4.

d

dx

−∞x

f

X

( ) s ds = f

X

( ) x

 à  

dx d F

X

( ) x = f

X

( ) x

.  La  densità  è  la  derivata  della  funzione  di   ripartizione.  

5.

−∞+∞fX

( )

x dx= 1.  Dimostrazione:  

F ( ) +∞ − F −∞ ( ) = 1− 0 = 1

.  

 

µ Coppie  di  variabili  aleatorie:  

Ø Coppia  

( X,Y )

 di  variabili  aleatorie  si  chiama  anche  vettore  aleatorio.  

Ø Sia  

( X,Y )

 una  coppia  di  variabili  aleatorie  

F

X ,Y

( ) x, y := P X ≤ x,Y ≤ y ( )

 si  chiama  funzione  di   ripartizione  congiunta  (perché  c’è  sia  

X

 che  

Y

).  La  virgola  nell’argomento  di  

P ( )

 denota   l’intersezione  tra  eventi.  

1.

F

X

( ) x = P X ≤ x ( )

,  

F

Y

( ) y = P Y ≤ y ( )

 si  chiamano  funzioni  di  ripartizione  marginali.  

2.

0 ≤ F

X ,Y

( ) x, y ≤ 1

.  

3.

lim

x→+∞

F

X ,Y

(x, y) = F

X ,Y

( +∞, y ) = P X ≤ +∞,Y ≤ y ( ) = P Y ≤ y ( )

 à  

F

X ,Y

( +∞, y ) = F

Y

( ) y

,  si   può  ottenere  la  funzione  di  ripartizione  marginale  partendo  da  quella  congiunta  mandando   all’infinito  l’altra  variabile  aleatoria.  Questo  perché  

F

X

( ) ∞ = P x < ∞ ( ) = 1

 e  

F

Y

( ) ∞ = P y < ∞ ( ) = 1

.  

Ø Un  vettore  aleatorio  

( X,Y )

 è  discreto  se  

X

 e  

Y

 lo  sono.  

§ Funzione  di  massa  congiunta:  

p

X ,Y

( ) x, y := P X = x,Y = y ( )

.  

(3)

P X,Y ( ( ) ∈A ) = p

X ,Y

( ) x, y

( )x, y

∈A  à  

p

X ,Y

( ) x, y

x, y

= 1

.  

• Se  so  chi  è  

p

X ,Y

( ) x, y

,  cosa  posso  dire  circa  

p

X

( ) x

 e  

p

Y

( ) y

?  

p

X

( ) x = p

X ,Y

( ) x, y

y ,  

p

Y

( ) y = p

X ,Y

( ) x, y

x .  

Ø Dimostrazione:  

P X,Y ( ( ) ∈A ) = p

X ,Y

( ) x, y

( )x, y

∈A .  

A = X = x {

0

}

.  

A

 può  essere   visto  come  l’unione  al  variare  di  

y

 degli  eventi  

{ X = x

0

,Y = y }

 che  in  formula  si  

scrive  

{ } A = { X = x

0

,Y = y }

y ,  e  siccome  sono  mutualmente  esclusivi  possiamo  

scrivere

P A ( ) = p

X

( ) x

0

= P { X = x

0

,Y = y }

y

⎝⎜

⎠⎟ =

 

= P X ( = x

0

,Y = y )

y

= p x ( )

0

, y

y  C.V.D.  

Ø Un  vettore  aleatorio  

( X,Y )

 è  continuo  se  

∃ f

X ,Y

( ) x, y : ∀C ⊂ 

2.   Ø

P X,Y ( ( ) ∈C ) = ∫∫

C

f x, y ( ) dx dy

.  

§ fX

( )

x =

−∞+∞FX ,Y

( )

x, y dy.  

§ fY

( )

y =

−∞+∞FX ,Y

( )

x, y dx.  

§

∫∫

f x, y ( ) = 1

.  

 

µ Variabili  Aleatorie  Indipendenti:  

Ø

X

 e  

Y

 sono  indipendenti  se  gli  eventi  relativi  ad  

X

 sono  indipendenti  da  quelli  relativi  ad  

Y

.   Ø X,Y  indipendenti  se  

∀A, B ⊂ 

 

( X ∈A )

 e  

( Y ∈B )

 sono  indipendenti  à  

P X ∈A ,

&

Y ∈B

( ) = P X ∈A ( ) ·P Y ( ∈B )

.  

Ø Formulazioni  equivalenti:    

§

X

 e  

Y

 sono  indipendenti  

 vale  una  delle  seguenti  condizioni.  

1.

F

X ,Y

( ) x, y = F

X

( ) x F

Y

( ) y

 

∀x, y

.  

2.

p

X ,Y

( ) x, y = p

X

( ) x p

Y

( ) y

 

∀x, y

 caso  discreto.  

f

X ,Y

( ) x, y = f

X

( ) x f

Y

( ) y

 

∀x, y

 caso   continuo.  

§ Dimostrazione:  

1.

X

 e  

Y

 indipendenti.  

F

X ,Y

( ) x, y = P X ≤ x,Y ≤ y ( )

 siccome  sono  indipendenti  scrivo  il   prodotto  delle  probabilità  à  

F

X ,Y

( ) x, y = P X ≤ x ( ) P Y ( ≤ y ) = F

X

( ) x F

Y

( ) y

.  

2. Caso  discreto:  

X

 e  

Y

 indipendenti.  

p

X ,Y

( ) x, y = P X = x,Y = y ( ) = P X = x ( ) P Y ( = y )

.  

P X

(

∈A,Y ∈B

)

= P X ∈A

( )

P Y

(

∈B

)

= P X,Y

( ( )

∈A × B

)

=

= pX ,Y

( )a,b

∈A× B

( )

a,b = pX ,Y

( )

a,b b∈Ba∈A

= pX

( )

a pY

( )

b

a∈Ab∈B

= pX

( )

a

a∈A

pY

( )

b

b∈B

=

= P X ∈A ( ) P Y ( ∈B )

 

∀A, B ⊆ 

.  

(4)

• Caso  n  variato:  

( X

1

, X

2

,..., X

n

)

 con  

X

k  variabile  aleatoria.  

FX

1,..., Xn

(

a1,..., an

)

= P X

(

1 ≤ a, X2 ≤ a2,..., Xn ≤ an

)

 à  

FX1,..., Xn

(

a1,..., ak−1,+∞,ak+1,..., an

)

= FX1,..., Xk−1,..., Xn

(

a1,..., ak−1, ak+1,..., an

)

.  

PX

1,..., Xn

(

a1,..., an

)

= P X

(

1 = a1,..., Xn = an

)

 con  

a = a (

1

,..., a

n

)

 e  

X = x (

1

, x

2

,..., x

n

)

.  

p

X

1,..., Xn

( a

1

,..., a

n

)

ak

= p

X1,..., Xk−1, Xk+1,..., Xn

( a

1

,..., a

k−1,

a

k+1

,..., a

n

)

.  

fX

1,..., Xn

(

a1,..., an

)

da1...dan  P a

(

1 < x1≤ a1+ da1,...., an < xn ≤ an + dan

)

.  

P x ( (

1

,.., x

n

) ∈A ) = ... da

1

...da

n

f

x1,...xn

( a

1

,..., a

n

)

n integrali in A

.    

µ Valore  Atteso:  

Ø

X

 variabile  aleatoria  discreta,  il  valore  atteso  di  

X

 è  il  numero:  

a

i

P X ( = a

i

)

i

= a

i

p

X

( ) a

i

i

=: E X ( )

 aspettazione  o  media  di  

X

.  

§ Note:  

1. Se  

a

i

P X ( = a

i

)

i  non  converge  à  

E X ( )

 non  esiste.  

2. Sia  

X

 una  variabile  aleatoria  a  valori  in  

{ a

1

, a

2

,..., a

n

}

.  

N

k

( X

1

,..., X

n

) =

 numero  di  volte   che  ottengo  “

a

k”.  

N

k

N  P X = a (

k

)

 à  

X

1

+ ...+ X

n

N = a

1

N

1

+ a

2

N

2

+ ...+ a

n

N

n

N =

= a

1

N

1

N + a

2

N

2

N + ...+ a

n

N

n

N  a

1

P X ( = a

1

) + ...+ a

n

P X ( = a

n

) = E X ( )

.  

a

i

p

X

( ) a

i

i

p

X

( ) a

i

i

= 1 = E X ( )

.  

§

E X ( ) =

 prezzo  equo  del  bene  

X

.  

§

X

 variabile  aleatoria  continua,  E X

( )

:=

−∞+∞xfX

( )

x dx.  

§ Proprietà  del  valore  atteso:    

X

 variabile  aleatoria  

g :  →  ⇒ Y = g X ( )

 è  una  variabile  aleatoria.  

α,β ∈, X

 variabile  aleatoria  

E [ α X + β ] = E g X ⎡⎣ ( ) ⎤⎦ = g x ( ) p

X

( ) x

x

= ( α X + β ) p x ( )

x

=

 

= α Xp

X

( ) x

x

+ β p

X

( ) x

x

= α Xp

X

( ) x

x E X( )

+ β p

X

( ) x

x

=1

= αE X ( ) + β

.  

E [ ] α X = α X ( )

.  

E ( ) β = β

 il  valore  atteso  di  un  numero  è  un  numero  stesso.  

E X [ + Y ] = E X [ ] + E Y [ ]

.  

(5)

♦ Dimostrazione:  

( X,Y )

 discreto.  

E X ( + Y ) = E g X,Y ( ( ) ) = ( x + y ) p

X ,Y

( ) x, y

x, y

=

 

= xp

X ,Y

( ) x, y

x, y

+ yp

X ,Y

( ) x, y

x, y

= xp x, y ( )

y

x

+ yp x, y ( )

x

y

=

 

= x p x, y

( )

y

= pX( )y

x + y p x, y

( )

x

= pY( )x

y = xpX

( )

x

x + yPY

( )

y

y = E X

[ ]

+ E Y

[ ]

.  

E X

k

k=1

n

⎣⎢

⎦⎥ = E X [ ]

k

k=1

n .  

§ Teorema:  

X

 variabile  aleatoria  e  

g :  → 

.  

E g x ⎡⎣ ( ) ⎤⎦ = g x ( ) p

X

( ) x

x

g x ( ) f

X

( ) x dx

−∞

+∞

⎨ ⎪

⎩ ⎪

 (analogia  con  

E X

( )

=

−∞+∞xfX

( )

x dx).  

§ Teorema:  

X = X (

1

,..., X

n

)

 vettore  aleatorio  

g :  → 

.  

g X ( ) = g X (

1

,..., X

n

)

 à  

E g X⎡⎣

( )

⎤⎦ = g x

( )

pX

( )

x =

(

x1,..., xn

)

pX1,..., X1

(

x1,.., xn

)

x1

,.., xn

X

...

g x

( )

fX

( )

x dx

⎨⎪

⎩⎪

.  

 

µ Varianza:  

Ø Sia  

X

 una  variabile  aleatoria  con  media  

µ = E X ( )

.  Si  definisce  varianza:

Var X

( )

:= E X −⎡⎣

( µ )

2⎤⎦ = E X − E X

( ( ) )

2.  Per  calcolare  una  varianza  devo:  

§ Calcolare  

µ = E X ( ) = xp x ( )

x

xf x ( ) dx

−∞

+∞

⎨ ⎪

⎩ ⎪

 

§

Var x ( ) = ( x µ )

2

p x ( )

x

≥ 0

x − µ

( )

2

f x ( ) dx

−∞

+∞

≥ 0

⎨ ⎪

⎩ ⎪

 

§ Oss:  

Var X ( ) ≥ 0

,  

Var X ( ) = 0 ⇔ X = µ

.  

Ø

Var X ( )

 si  chiama  deviazione  standard.  

Ø Proprietà:  

§

X

 variabile  aleatoria  

α,β ∈

,  

Var ( α X + β ) = E ⎡⎣ ( α X + β ) − E ( α X + β )

2

⎤⎦ = E αX + β − αE X ⎣⎢ ( ( ( ) + β ) )

2

⎦⎥ =

 

= E

( α

X

α

E X

( ) )

2⎦ =

α

2E

(

X− E X

( ) )

2⎦ =

α

2Var X

( )

 à  

Var ( α X + β ) = α

2

Var X ( )

.  

§

Var ( ) α X = α

2

Var X ( )

.  

§

Var ( ) α X = α

2

Var X ( ) ⇒ Var −X ( ) = Var X ( )

,  

E ( ) −X = −E X ( )

.  

§

Var X ( + β ) = Var X ( )

.  

§

Var ( ) β = 0

.  

§

Var X ( ) = E X ( )

2

− E X ( )

2.  

(6)

• Dimostrazione:  Var X

( )

= E X − E X

( ( ) )

2⎦ = E X⎡⎣ 2 − 2XE X

( )

+ E X

( )

2⎤⎦ =

= E X ( )

2

+ E −2E X ⎡⎣ ( ) X ⎤⎦ + E E X ⎡⎣ ( )

2

⎤⎦ = E X ( )

2

− 2E X ( ) E X ( ) + E X ( )

2

=

 

= E X ( )

2

− 2E X ( )

2

+ E X ( )

2

= E X ( )

2

− E X ( )

2.  

§ Var X

(

+ Y

)

= E X + Y − E X + Y

( ( ) )

2⎦ = E X + Y − E X

( ( )

− E Y

( ) )

2⎦ =  

= E ( ( X − E X ( ) ) + Y − E Y ( ( ) ) )

2

⎦ =

= E X − E X

( ( ) )

2+ 2 X − E X

( ( ) ) (

Y − E Y

( ) )

+ Y − E Y

( ( ) )

2⎦ =

= E X − E X ( ( ) )

2

Var X( )

+ E Y − E Y ( ( ) )

2

Var Y( )

+ 2E X − E X ⎡⎣ ( ( ) ) ( Y − E Y ( ) ) ⎤⎦

covarianza

.  

Ø X,Y  v.a  la  covarianza  di  

X

 con  

Y

 è  

Cov X,Y ( ) := E X − E X ⎡⎣ ( ( ) ) ( Y − E Y ( ) ) ⎤⎦

.  

§

Var X ( + Y ) = Var X ( ) + Var Y ( ) + 2Cov X,Y ( )

.  

§

Cov X, X ( ) = Var X ( )

.  

§

Cov X,Y ( ) = Cov Y, X ( )

.  

§

Cov ( α X + β,Y ) = αCov X,Y ( )

.  

§

Cov ( α X,Y ) = αCov X,Y ( )

.  

§

Cov X ( + β,Y ) = Cov X,Y ( )

.  

§

Cov ( ) β,Y = 0

.  

§

Cov X,Y ( ) = E XY ( ) − E X ( ) E Y ( )

.  

§ X,Y  indipendenti  

 

Cov X,Y ( ) = 0

.  

• Dimostazione:  

Cov X,Y ( ) = 0 ⇔ E XY ( ) = E X ( ) E Y ( )

 se  sono  indipendenti.  

E XY ( ) = xyp

X ,Y

( ) x, y

x, y  ma  siccome  sono  indipendenti  

p

X ,Y

( ) x, y = P

X

( ) x p

Y

( ) y

 à  

E XY ( ) = xp

X

( ) x

x

⎝⎜

⎠⎟ yp

Y

( ) y

y

⎝⎜

⎠⎟

 

§ Cov X

(

+ Y,Z

)

= E X + Y⎡⎣

( )

Z⎤⎦ − E X + Y⎡⎣

( )

⎤⎦E Z

[ ]

= E XZ + YZ

[ ]

− E Z

( )

⎡⎣E X

( )

+ E Y

( )

⎤⎦ =

= E XZ [ ] + E YZ [ ] − E Z ( ) E X ( ) − E Z ( ) E Y ( ) = Cov X,Z ( ) + Cov Y,Z ( )

.  à  

Cov X ( + Y,Z ) = Cov X,Z ( ) + Cov Y,Z ( )

.  

§

Cov X

i

, Z

i

⎝⎜

⎠⎟ = Cov X (

i

, Z )

i .  

§

X

1

,..., X

n  variabili  aleatorie.  

Var X

k

k=1

n

⎝⎜

⎠⎟

,  

a

i

i

⎝⎜

⎠⎟

2

= a

i

i

⎝⎜

⎠⎟ a

j

j

⎝⎜

⎠⎟ = a

i

a

j

j

i

= a

i2

i

+ a

i

a

j

i≠ j .  

Var X

k

k

⎝⎜

⎠⎟ = Cov X

k

k

, X

h

h

⎝⎜

⎠⎟ = Cov X

k

, X

h

h

⎝⎜

⎠⎟ =

k

= Cov X (

k

, X

h

)

h

k

= Cov X (

k

, X

k

)

k

+ Cov X (

k

, X

h

)

k≠h

= Var X ( )

k

+ Cov X (

k

, X

h

)

k≠h

k .  

(7)

• Corollario:  se  

X

1

,..., X

n  variabili  aleatorie  indipendenti  à  

Var X

k

k

⎝⎜

⎠⎟ = Var X ( )

k

k .  

§ X,Y  indipendenti  

 

Cov X,Y ( ) = 0

.  

Ø X,Y  sono  non  correlate  se  

Cov X,Y ( ) = 0

.  

§ Indipendenza  

 non  correlazione.  

Ø X,Y  variabili  aleatorie,  

X & Y

 sono  positivamente  (negativamente)  correlate  se  

Cov X,Y ( ) > 0

 

(

Cov X,Y ( ) < 0

).  

 

µ Coefficiente  di  Correlazione:  

Ø

ρ (

X,Y

)

:= Cov X,Y

( )

Var X

( )

Var Y

( )

 coefficiente  di  correlazione.  

§

ρ α X,αY ( ) = Cov ( α X,αY )

Var ( ) α X Var ( ) αY = α

2

Cov X,Y ( )

α

2

Var X ( ) Var Y ( ) =

Cov X,Y ( )

Var X ( ) Var Y ( )

.  

§

ρ (

X,Y

)

≤ 1.  

§

ρ (

X,Y

)

= 1 ⇔ Y =

α

X+

β

.    

µ Legge  dei  grandi  numeri:  

Ø Disuguaglianza  di  Chebyshev:  

X

 variabile  aleatoria,  

µ = E X ( )

 e  

σ = Var X ( )

.  

P X ( − µ > kσ ) 1

k

2 .  In  altri  termini,  la  probabilità  che  una  variabile  aleatoria  differisca  dalla  sua   media  per  più  di  

k

 volte  la  deviazione  standard,  non  può  superare  il  valore  di  

1

k

2 .  

§ Dimostrazione:  Diciamo  che  

X

 sia  discreta.  

σ

2

= Var X ( ) = E X − ⎡⎣ ( µ )

2

⎤⎦ = x − µ ( )

2

p

X

( ) x

x

=

 

= ( x − µ )

2

p x ( )

x: x−µ >kσ

(

)

+ ( x µ )

2

p x ( )

x: x−µ ≤kσ

(

)

( x µ )

2

p x ( )

x: x−µ >kσ

(

)

 

≥ kσ ( )

2

p

X

( ) x

x: x−µ >kσ

(

)

= k

2

σ

2

P X ( µ > kσ ) σ

2

⇒ P X − ( µ > kσ ) k 1

2 .   Ø Teorema  (Legge  debole  dei  grandi  numeri):  

X

1

, X

2

,...

 variabili  aleatorie  indipendenti,  

E X ( )

1

= E X ( )

2

= ... = µ

Var X ( )

1

= Var X ( )

2

= ... = σ

2

⎧ ⎨

⎩⎪

 

 fissato  

ε > 0

,  

P 1

n X

k

k=1

n

⎝⎜

⎠⎟ − µ > ε

⎝⎜

⎠⎟ → 0

 con  

n → ∞

.   Con  

1

n X

k

k=1

n

= X

n  media  campionaria.  

(8)

§ Dimostrazione:  

E X ( )

n

= E 1 n X

k

k=1

n

⎣⎢

⎦⎥ = 1

n E X ( )

k

k=1

n

= 1 n µ

k=1

n

= 1 n nµ = µ

.  

Var X ( )

n

= Var 1 n X

k

k=1

n

⎝⎜

⎠⎟ = 1

n

2

Var X

k

k=1

n

⎝⎜

⎠⎟ = 1

n

2

Var X ( )

k

k=1

n

= n 1

2

σ

2 k=1

n

= n

22

= σ n

2 .  

P X (

n

− µ > ε ) = P X

n

− E X ( )

n

> σ ε

X

= k

σ

X

⎜ ⎜

⎟ ⎟

⎟ ≤ 1 ε σ

X

⎝⎜

⎠⎟

2

Per il teorema di Chebyshev

= σ

2X

ε

2

= σ

2

2

n→∞

0

.  

 

µ Funzione  generatrice  dei  momenti:  

Ø

X

 variabile  aleatoria,  

t ∈

,  

e

tX  è  una  variabile  aleatoria.  

Ø La  funzione  generatrice  dei  momenti  di  

X

 è  

m

X

( ) t := E e ⎡⎣ ⎤⎦ =

tX

e

tx

x

p

X

( ) x se X è discreta e

tx

f

X

( ) x dx

−∞

+∞

se X è continua

⎨ ⎪⎪

⎩ ⎪

 

Il  nome  adottato  deriva  dal  fatto  che  tutti  i  momenti  di  cui  è  dotata  

X

 possono  essere  ottenuti   derivando  più  volte  nell’origine  la  funzione  

m

X

( ) t

.  

Ø

E g X ( ( ) ) = g x ( ) p

X

( ) x con X discreta

x

g x ( ) f

X

( ) x dx

−∞

+∞

con X continua

⎨ ⎪

⎩ ⎪

 

Ø

m

X

( ) 0 = E e ⎡⎣ ⎤⎦ = E e

0 x

⎡⎣ ⎤⎦ = 1

0 .  

Ø

X

 variabile  aleatoria,  il  momento  k-­‐esimo  di  

X

 è  

E X ( )

k .  

Ø Proprietà:  

§

m

X( )k

( ) 0 = E X ⎡⎣ ⎤⎦

k .  

Teorema:  

X

 variabile  aleatoria,  

m

X

( ) t

 è  derivabile  

n

 volte  in  

t = 0

 

 se  

 

E X ( ) , E X ( )

2

,..., E X ( )

n .  

§ X,Y  hanno  la  stessa  funzione  generatrice  dei  momenti  

 

F

X

= F

Y  à  

m

X

= m

Y

⇔ F

X

= F

Y  

§ Se  X,Y  variabili  aleatorie  indipendenti  

 

m

X+Y

= m

X

m

Y.  In  altre  parole,  la  funzione   generatrice  dei  momenti  della  somma  di  variabili  aleatorie  indipendenti  è  il  prodotto  delle   funzioni  generatrici  delle  singole  variabili  aleatorie.  

• Dimostrazione:  X,Y  indipendenti  

 

e

tX

& e

tY  sono  indipendenti  

∀t

.  

F

etXetY

= F

etX

F

etY .  

F

etX,etY

= P e (

tX

≤ a,e

tY

≤ b ) = P tX ≤ lna,tY ≤ lnb ( ) = P X ≤ 1

t ln a,Y ≤ 1 t ln b

⎛ ⎝⎜ ⎞

⎠⎟ =

= P X ≤1 tln a

⎛⎝⎜ ⎞

⎠⎟P Y ≤1 tln b

⎛⎝⎜ ⎞

⎠⎟ = P tX ≤ lna

( )

P tY

(

≤ lnb

)

= P e

(

tX ≤ a

)

= FetX

P e

(

tY ≤ b

)

= FetY

 

m

X+Y

( ) t = E e ⎡⎣

t X( +Y)

⎤⎦ = E e ⎡⎣

tX

e

tY

⎤⎦ = E e ⎡⎣ ⎤⎦E e

tX

⎡⎣ ⎤⎦ = m

tY X

( ) t m

Y

( ) t

.    

Riferimenti

Documenti correlati

Se X ` e una variabile aleatoria continua, la probabilit` a che X assuma un certo valore x fissato ` e in generale zero, quindi non ha senso definire una distribuzione di probabilit`

La misura di una qualunque grandezza fisica (temperatura, concentrazione di una farmaco,..) pu` o essere vista come la somma del valore esatto della grandezza e

Per calcolare il tempo di attesa medio tra una denuncia e la successiva (sempre di assicurati diversi, cioè senza considerare eventuali denunce multiple fatte da uno stesso

 Implementare il campionamento in base alla definizione di binomiale, ovvero contando il numero di successi su m esperimenti.. Task

Nei due esempi abbiamo quindi due vettori aleatori diversi con una legge congiunta diversa ma uguali leggi marginali: questo significa che, come abbiamo detto prima, non `e

[r]

Ciascuna resistenza ha una probabilit` a di essere funzionante per tutto il periodo necessario alla schiusa pari a 0.85; le resistenze funzionano l’una indipendentemente

con i significati usuali: funzione di probabilit` a nel punto x, funzione di distribuzione cumulata nel punto x, quantile a-esimo, generazione di n numeri casuali?. ATTENZIONE: