• Non ci sono risultati.

µ Variabili  aleatorie  di  Bernoulli:  

N/A
N/A
Protected

Academic year: 2021

Condividi "µ Variabili  aleatorie  di  Bernoulli:  "

Copied!
11
0
0

Testo completo

(1)

Modelli  di  Variabili  Aleatorie  

µ Variabili  aleatorie  di  Bernoulli:  

Ø

X

 è  di  Bernoulli  di  parametro  

p ∈ 0,1 ( )

 se  

P X ( = 1 ) = p

 e  

P X ( = 0 ) = 1− p

.  

Ø Proprietà:  

§

E X ( ) := 1·p

X

( ) 1 + 0·p

X

( ) 0 = p

.  

§

Var X ( ) = E X ( )

2

− E X ( )

2  ma  siccome  

X = X

2  à  

Var X

( )

= E X

( )

− E X

( )

2 = p − p2 = p 1− p

( )

.  

Ø Notazione:  

X

 è  di  Bernoulli  di  parametro  

p

 

 

X  B

e

( ) p

.   Ø Prove  di  Bernoulli:    

§ esperimenti  casuali,  indipendenti,  binari  (ossia  che  hanno  solo  due  possibili  esiti  che  chiamo   successo  e  fallimento).  

p = P successo ( )

.  

§ Faccio  

n

 prove  di  Bernoulli  con  probabilità  di  successo  

p ∈ 0,1 ( )

.  

§ Sia  

X

 numero  di  successi  in  queste  

n

 prove.  

p

X

( ) k = P X = k ( )

.  

§

X = X

1

+ X

2

+ ...+ X

n  à  

X

k

= 1 se k-esima prova è successo 0 se è fallimento

⎧ ⎨

.  

§

E X ( ) = E X (

1

+ ...+ X

n

) = E X ( )

1

+ ...+ E X ( )

n

= np

.  

§

Var X ( ) = Var X (

1

+ ...+ X

n

) = Var X ( )

1

p 1− p( )

+ ...+ Var X ( )

n

= np 1− p ( )

.  

§

P X ( = k ) = n

k

⎝⎜

⎠⎟ p

k

( 1 − p )

n− k.  

X

 è  binomiale  di  parametri  

n, p

,  

(

X  Bi

( )

n, p

)

 se  

P X ( = k ) = ⎝⎜ n k ⎠⎟ p

k

( 1 − p )

n− k

, k ∈ 0,1,...,n { }

0 altrimenti

⎨ ⎪

⎩ ⎪

.  

• Ricordiamo  che  il  coefficiente  binomiale  si  calcola  

n k

⎝⎜

⎠⎟ : = n!

k! n ( − k ) !

.  

§

X  B

i

( ) n, p , Y  B

i

( m, p )

 indipendenti:  

X  B

i

( ) n, p ⇔ X = X

1

+ ...+ X

n,  

X

k

 B

e

( ) p

 indipendenti.  

Y  B

i

( m, p ) ⇔ Y = Y

1

+ ...+ Y

m,  

Y

k

 B

e

( ) p

 indipendenti.  

X + Y = X

1

+ ...+ X

n

+ Y

1

+ ...+ Y

m

=

 somma  di  

n + m

.  

B

e

( ) p

 indipendenti  

 

X + Y  B

i

( n + m

i

, p )

.  

Ø Utilizzo:  quando  

X

 può  assumere  solo  i  valori  0,1  (successo  o  fallimento).  

 

µ Densità  di  Poisson:  

Ø Ci  sono  in  media  

λ

 impurità  per  unità  di  lunghezza  

= I

k

= 1 n

.  

Ø

X =

 numero  di  impurità  sul  segmento.  

E X ( ) = λ

,  

X

k

=

 numero  di  impurità  in  

I

k

 B

e

( ) p

.  

(2)

Ø

X = X

1

+ ...+ X

n,  

E X ( ) = E X ( )

1

+ ...+ E X ( )

n

= np

.  

X  B

i

n, λ

n

⎛ ⎝⎜ ⎞

⎠⎟

.  

Ø

P X ( = k ) = n

k

⎝⎜

⎠⎟

λ n

⎛ ⎝⎜ ⎞

⎠⎟

k

1 − λ n

⎛ ⎝⎜ ⎞

⎠⎟

n− k

= n!

k! n ( − k ) ! λ

k

n

k

1 − λ n

⎛ ⎝⎜ ⎞

⎠⎟

n

con n→+∞

=eλ

1 − λ n

⎛ ⎝⎜ ⎞

⎠⎟

−k

1

=

 

= n n ( − 1 ) ... n ( − k + 1 )

n

k

→1

1 − λ n

⎛ ⎝⎜ ⎞

⎠⎟

−k

→1

λ

k

k! 1 − λ

n

⎛ ⎝⎜ ⎞

⎠⎟

n

→ λ

k

k! e

−λ.  

Ø Definizione:  

X

 è  una  variabile  aleatoria  di  Poisson  di  parametro  

λ

> 0  se  

P X ( = k ) = λ

k

k! e

−λ

, k ∈ 0,1,2,... { }

0 altrimenti

⎨ ⎪

⎩⎪

.  

Ø Legge  del  filo:  

§ La  variabile  aleatoria  di  Poisson  può  essere  utilizzata  come  approssimazione  di  una  binomiale   di  parametri  

( ) n, p

 quando  

n  1 prove di Bernoulli

p  1 probabilità di successo

⎧ ⎨

.  

§

Poisson ( ) λ ≅ B

i

n, λ n

⎛ ⎝⎜ ⎞

⎠⎟ = B

i

( ) n, p ≅ Poisson np ( )

.  

Ø Proprietà:  

§

X  Po(λ) ⇒ E X ( ) = Var X ( ) = λ

.  

§

X  Po λ ( ) ,Y  Po µ ( ) ⇒ X + Y  Po λ + µ ( )

.  

Ø Utilizzo:  è  un’ottima  approssimazione  di  una  binomiale  di  parametri  

( ) n, p

,  quando  

n

 è  molto   grande  e  

p

 molto  piccolo  ponendo  

λ = np

.  In  altri  termini,  il  totale  dei  “successi”  in  un  gran   numero  

n

 di  ripetizioni  indipendenti  di  un  esperimento  che  ha  una  piccola  probabilità  di  riuscita  

p

,  è  una  variabile  aleatoria  con  distribuzione  approssimativamente  di  Poisson,  con  media  

λ = np

.  

 

µ Variabile  aleatoria  Geometrica:  

Ø Successione  di  prove  di  Bernoulli  con  

p = P successo ( )

 e  

X =

 numero  di  prove  necessarie  per   vedere  il  primo  successo.  

§

P X ( = k )

 con  

k ∈ 1,2,... { }

.  

P X ( = 1 ) = P I prova = "successo" ( ) = p

.  

P X ( = 2 ) = P I prova = "insuccesso"

II prova = "succeso"

⎝⎜

⎠⎟ = p 1− p ( )

.  

P X

(

= k

)

= p 1− p

( )

k−1  perché  prima  del  successo  della  

k

-­‐esima  prova  ci  sono  stati  

k − 1

 insuccessi.  

Ø Definizione:  

X  Geom p ( )

 se  

P X ( = k ) = p 1 ( − p )

k−1

k ∈ 1,2,... { }

0 altrimenti

⎧ ⎨

⎩⎪

.  

Ø

1 = P X ( = k )

k

= p 1 ( − p )

k−1 k=1

+∞ ,  sia  

q := 1− p ⇔ p = 1− q

 con  

0 < q < 1

 à  

q

k−1

k=1

+∞

= 1 − q 1

 

à  

q

k=0

+∞

= 1 − q 1

.  

(3)

Ø

m

X

( ) t = E e ⎡⎣ ⎤⎦ = e

tX tk

( 1 − p )

k−1

p

i=1

+∞

= e

t k( )−1

( 1 − p )

k

p

k=0

+∞

= pe

t

⎡⎣ e

t

( 1 − p ) ⎤⎦

q k k=1

+∞

= e

t

( 1 − p ) < 1

⇔ t < − ln 1− p ( )

 

Ø

pe

t

⎡⎣ e

t

( 1 − p ) ⎤⎦

q k k=1

+∞

= pe

t

1 − e

t

( p 1 − p ) = e

−t

− 1− p ( p )

.  Perché  è  una  serie  geometrica.  

Ø

m

X

( ) 0 = 1

.  

Ø

m

X

( ) t = p e ( )

−t

e

−t

− 1− p ( )

⎡⎣ ⎤⎦

2

= m

X

( ) t e

−t

e

−t

− 1− p ( ) = m

X

( ) t 1

1 − e

t

( 1 − p )

.  

§

m

X

( ) 0 = 1

p = E X ( )

.  

Ø

m

X

′′ ( ) t = ′ m

X

( ) t ⎡⎣ 1 − e

t

( 1 − p ) ⎤⎦ − −e ⎡⎣

t

( 1 − p ) ⎤⎦

1 − e

t

( 1 − p )

⎡⎣ ⎤⎦

2 .  

§

m ′′

X

( ) 0 = 1

p p + 1− p

p

2

= 2 − p

p

2

= E X ( )

2 .  

§

Var X ( ) = E X ( )

2

− E X ( )

2

= 2 p − p

2

p 1

2

= 1 − p p

2

= p 1

2

1 p

.  

Ø

X  Geom p ( )

,  

P X ( > k ) = P le prime k prove sono insuccessi ( ) = 1− p ( ) ... 1 ( − p )

k volte

= 1− p ( )

k  

⇒ P X ≤ k

( )

= 1− 1− p

( )

k.  

Ø Proprietà  di  assenza  di  memoria:  

§

P X ( > k + h | X > h ) = P X > k ( )

.  

§ Dimostrazione:  

P X ( > k + h | X > h ) = P X ( > k + h & X > h )

P X ( > h ) = P X ( > k + h )

P X ( > h ) = ( 1 − p )

k+h

1 − p

( )

h

=

 

= 1− p

( )

k = P X > k

( )

.  

§

P a ( < X ≤ b | X > h ) = P a − h < X ≤ b − h ( )

.  

Ø Utilizzo:  è  utile  quando  vogliamo  sapere  la  probabilità  che  la  

k

-­‐esima  ripetizione  sia  il  primo   successo.  

 

µ Variabile  aleatoria  ipergeometrica:  

Ø Definizione:  una  variabile  aleatoria  

X

 si  dice  ipergeometrica  di  parametri  N, M  e  

n

 se  ha  massa  

di  probabilità  

P X ( = i ) =

N i

⎝⎜

⎠⎟

M n − i

⎝⎜

⎠⎟

N + M n

⎝⎜

⎠⎟

 con  i= 0,1,...,n.  

Ø Utilizzo:  possiamo  capirlo  tramite  un  esempio.  Una  scatola  contiene  

N

 batterie  accettabili  e  

M

  difettose.  Si  estraggono  senza  rimessa  e  in  maniera  casuale  

n

 batterie.  Denotiamo  con  

X

 il   numero  di  batterie  accettabili  contenute  nel  campione  estratto.  

   

(4)

µ Variabili  aleatoria  uniforme:  

Ø Se  noi  prendessimo  un  segmento  lungo  

1

 e  un  intervallo  che  va  da  

a

 a  

b

 ivi  contenuto,  se  

x

 è   scelto  casuale  significa  che  la  probabilità  che  

x ∈ a,b [ ]

 dipende  soltanto  dalla  lunghezza  del   segmento  e  non  dalla  sua  posizione.  

Ø L’insieme  

U

 è  uniforme  in  

[ ] 0,1

 se  la  sua  densità  è  

f

U

( ) u := 1 u ∈ 0,1 [ ]

0 altrimenti

⎧ ⎨

⎩⎪

.  

§ P U

(

∈ u,u + du

[ ] )

= du  con  

u ∈ 0,1 [ ]

.  

§

P a ( < U ≤ b ) = b − a

.  

§

0 < a < b < 1

 

P a ( + h < U ≤ b + h ) = b − a

 con  

0 < a + h < b + h < 1

.  

Ø Definizione  generale:  una  variabile  aleatoria  continua  si  dice  uniforme  sull’intervallo  

[ ] α,β

,  se  ha   funzione  di  densità  data  da  

f x ( ) = β − α 1 se α ≤ x ≤ β

0 altrimenti

⎨ ⎪

⎩ ⎪

.  

Ø

U  U 0,1 [ ]

.  I  passi  successivi  quindi  sono  riferiti  ad  un  intervallo  ampio  

1

.  

§

E U ( ) =

−∞+∞

uf u ( ) du = u du

0

1

= u 2

2 0,1

= 1 2

.  

§

E U ( )

2

=

−∞+∞

u

2

f u ( ) du = u

01 2

du = u 3

3

0,1

= 1

3 ⇒ Var U ( ) = 1

3 − 1

4 = 4 − 3 12 = 1

12

.  

§

U  U 0,1 [ ]

,  FU

( )

u =

−∞+∞fU

( )

x dx= 0 x 1

x< 0 0≤ x < 1 x≥ 1

⎨⎪

⎩⎪ .  

Ø

( b − a ) U + a = X

 con  

b > a

.  

§

U = 1

 à  

( b − a ) 1 + a = b

.  

§

U = 0

 à  

( b − a ) 0 + a = a

.  

Ø

X ~ U a,b [ ]

,  

X = b − a ( ) U + a

,  

U ~ U 0,1 [ ]

.  

Ø

E X ( ) = E b − a ⎡⎣ ( ) U + a ⎤⎦ = b − a ( ) E U ( ) + a = b − a

2 + a = a + b 2

.   Ø

Var X ( ) = Var b − a ⎡⎣ ( ) U + a ⎤⎦ = b − a ( )

2

Var U ( ) = ( b − a )

2

12

.  

Ø

F

X

( ) x = P X ≤ x ( ) = P b − a ( ( ) ,U + a ≤ x ) = P U ≤ ⎝⎜ b x − a − a ⎠⎟ = F

U

⎝⎜ b x − a − a ⎠⎟

.  

Ø

F

X

′ ( ) x = d

dx F

U

x − a b − a

⎛ ⎝⎜ ⎞

⎠⎟ = ′ F

U

x − a b − a

⎛ ⎝⎜ ⎞

⎠⎟

1 b − a = f

U

x − a b − a

⎛ ⎝⎜ ⎞

⎠⎟

1 b − a

.  

Ø

f

X

( ) x = b − a 1

0

0 < x − a b − a < 1 altrimenti

⎨ ⎪

⎩ ⎪

.  

§

0 < x − a

b − a < 1 ⇔ 0 < x − a < b − a ⇔ a < x < b

.  

(5)

Ø

F

X

( ) x = F

U

x − a b − a

⎝⎜ ⎞

⎠⎟ = 0

x − a b − a 1

x < a 0 < x − a

b − a < 1 ⇔ a < x < b x ≥ b

⎪ ⎪

⎪ ⎪

.  

Ø Utilizzo:  quando  la  variabile  aleatoria  ha  le  stesse  probabilità  di  cadere  vicino  a  un  qualunque   punto  dell’intervallo.  

 

µ Variabili  aleatorie  normali  o  gaussiane:  

Ø Definizione:  

z

 è  normale  standard  se  la  sua  densità  

f

Z

( ) z : = 1 e

z22 .  

§ −∞ fZ

( )

z dz= 1 ⇔ 2

π

=

−∞+∞ez22 dz

+∞ .  

§

1

e

s2 2

ds

−∞

z

: = Φ z ( ) : = P Z ≤ z ( )

.  

§

Φ −z ( ) = 1− Φ z ( )

.  

Ø mZ

( )

t = E e⎡⎣ ⎤⎦ =tZ etZ 1 2

π

e

z2 2 dz

−∞

+∞ = 21

π

e21

(

z2−2tz+t2

)

+t

2

2 dz

−∞

+∞ = 12

π

et

2

2 e

z−t

( )2

2 dz

−∞

+∞

sostituisco  

u = z − t

,  du= dz  à  

m z ( ) = e

t22

1

−∞+∞

e

u22

du

=1

= e

t

2

2 .  

§

m

Z

( ) 0 = 1

.  

§

m

Z

′ ( ) t = te

t22

= tm

Z

( ) t

.  

m

Z

′ ( ) 0 = 0

.  

§

m

Z

′′ ( ) t = m

Z

( ) t + t ′ m

Z

( ) t

.  

m

Z

′′ ( ) 0 = m

Z

( ) 0 + 0 = 1 ⇒ E Z ( ) = 0

,  

E Z ( )

2

= 1 = Var Z ( )

.  

Ø Definizione:  

X

 variabile  aleatoria  con  

E X ( ) = 0

,  

Var X ( ) = 1 ⇒ X

 è  standard.  

Ø Definizione:  

X

 variabile  aleatoria  è  normale  se:  

X = aZ + b

,  

a > 0

,  

b ∈

,  

Z

 è  normale   standard.  Se  

Z

 è  normale  standard  

 

−Z

 è  normale  standard.  

Ø Def:  

X

 è  normale  con  media  

µ

 e  varianza  

σ

2  

( X ~ N ( µ,σ

2

) )

 se  

X = σZ + µ

,  

Z

 normale   standard  

Z ~ N 0,1 ( )

.  

Ø

X ~ N ( µ,σ

2

)

,  

Y = α X + β ∈N , ( )

 con  

a ≠ 0

.  

§ Dimostrazione:  

X ~ N ( µ,σ

2

) ⇔ X = σZ + µ

,  

Z ~ N 0,1 ( )

⇒ Y = α X + β = α σZ + µ ( ) + β = ασ ( ) Z + αµ + β

.  

§

E Y ( ) = E ( α X + β ) = αE X ( ) + β = αµ + β

.  

§

Var Y ( ) = Var ( α X + β ) = α

2

Var X ( )

.  

Ø

X ~ N ( µ,σ

2

)

,  calcoliamo  la  funzione  di  ripartizione  e  densità.  

(6)

§ Con  

X = σZ + µ

,  

F

X

( ) x = P X ≤ x ( ) = P ( σZ + µ ≤ x ) = P Z ≤ ⎝⎜ x σ µ ⎠⎟ = Φ ⎝⎜ x σ µ ⎠⎟

 à  

F

X

= Φ x − µ σ

⎛ ⎝⎜ ⎞

⎠⎟

.  

§

P a ( < X < b ) = F

X

( ) b − F

X

( ) a

 per  le  variabili  aleatorie  continue.  

P a ( < X < b ) = Φ ⎝⎜ b σ µ ⎠⎟ − Φ ⎝⎜ a σ µ ⎠⎟

.  

§

f

X

( ) x = ′ F

X

( ) x = d

dx Φ x − µ σ

⎛ ⎝⎜ ⎞

⎠⎟ = ′ Φ x − µ σ

⎛ ⎝⎜ ⎞

⎠⎟

1 σ = f

Z

x − µ σ

⎛ ⎝⎜ ⎞

⎠⎟

1 σ = 1

e

1 2

x−µ σ

⎝⎜

⎠⎟

2

1 σ =

= 1

2πσ

2

e

(x−µ)2

2

.  

Ø

X ~ N ( µ,σ

2

)

,  

X σ µ ~ N 0,1 ( )

.  

§

E X − µ

σ

⎛ ⎝⎜ ⎞

⎠⎟ = E X ( ) µ

σ = 0

,  

Var X − µ

σ

⎛ ⎝⎜ ⎞

⎠⎟ = V − 1 σ X − µ

σ

⎛ ⎝⎜ ⎞

⎠⎟ = 1

σ

2

Var X ( ) = 1

.  

Ø Teorema:  

X

1

, X

2

,..., X

n  normali  indipendenti  

⇒ X

1

+ ...+ X

n  è  normale.  

§ Dimostrazione:  

X ~ N ( µ,σ

2

)

.  

m

X

( ) t = E e ( )

tX  ma  siccome  è  normale  sappiamo  che  

 

X = σZ + µ

,  

Z ~ N 0,1 ( )

.  

m

X

( ) t = E e ⎡⎣

t(σ Z + µ)

⎤⎦ = E e ⎡⎣

( ) Z

e

⎤⎦ = e

E e

( )

′t

z

⎣⎢ ⎤

⎦⎥ = e

m

Z

( ) = e

e

( )2

2

= e

t2σ2 2 +tµ

 à  

m

X

= e

t2σ2 2 +tµ

.  

m

X

1+...+ Xn

= m

X1

( ) t ...m

Xn

( ) t = exp t

2

σ

12

2 + t µ

1

⎧ ⎨

⎫ ⎬

⎭ ...exp t

2

σ

2n

2 + t µ

n

⎧ ⎨

⎫ ⎬

⎭ =

exp t

2

σ

2k

2 + tµ

k

⎝⎜

⎠⎟

k=1

n

⎧ ⎨

⎩⎪

⎫ ⎬

⎭⎪ = exp t

2

2 σ

2k

k=1

n

( )σ 2

+ t µ

k k=1

n µ '

⎨ ⎪

⎩ ⎪

⎬ ⎪

⎭ ⎪ = exp t

2

2 ( ) σ ′

2

+ t ′ µ

⎧ ⎨

⎫ ⎬

⇒ X

1

+ ...+ X

n

~ N µ

k

k=1

n

, σ

2k k=1

n

⎝⎜

⎠⎟

.  

Ø Utilizzo:  questo  tipo  di  variabile  aleatoria  è  molto  importante  e  utilizzata  grazie  al  teorema  del   limite  centrale  che  tratterremo  più  avanti.  

 

µ Esponenziali:  

Ø Def:  

X

 è  esponenziale  di  parametro  

λ

> 0  

(

X ~ €

( ) λ )

 se  fX

( )

x =

λ

e−λx x> 0

0 altrimenti

⎧⎨

.  

Ø

F

X

( ) x =

−∞x

f

X

( ) s ds = 0 x < 0 λe

−λs

ds

0

x

= −e ⎡⎣

−λs

⎤⎦

x0

= 1− e

−λx

x ≥ 0

⎧ ⎨

⎩⎪

.  

(7)

Ø Funzione  generatrice  dei  momenti:  

m

X

( ) t = E e ( )

tX

=

−∞+∞

e

tx

f

X

( ) x dx =

0+∞

e

tx

λe

−λx

ds = λ

0+∞

e

(λ −tλ ')x

dx

 con  

λ

> t  à  

= λ

λ − t

( ) ∫

0+∞

( λ − t ) e

(λ −t)x

dx

  

=1

 

.  

§

m

X

( ) t = λ − t λ

.  

§

m '

X

( ) t = −λ −1 ( )

λ − t

( )

2

= ( λ − t λ )

2  à  

m

X

( ) 0 = λ 1 = E X ( )

.  

§

m ′′

X

( ) t = −λ λ − t ( ) ( ) −1

λ − t

( )

4

= ( λ − t )

3  à  

m ′′

X

( ) 0 = λ

3

= 2

λ

2

= E X ( )

2 .  

§

Var X ( ) = λ 2

2

− 1 λ

2

= 1

λ

2 .   Ø Assenza  di  memoria:  

§

X ~ € ( ) λ ⇒ P X > t + s | X > t ( ) = P X > s ( )

.  

§ Dimostrazione:  

P X ( > t + s | X > t ) = P X ( > t + s & X > t )

P X ( > t ) = P X ( > t + s )

P X ( > t ) =

= 1 − F

X

( t + s )

1 − F

X

( ) t = e

−λ t + s( )

e

−λt

= e

−λs

= P X > s ( )

,  ricorda  che  

P X ( > z ) = e

−λx

⇒ F

X

( ) x = 1− e

−λx.  

Ø

cX ~ € λ c

⎛ ⎝⎜ ⎞

⎠⎟

.    

µ Variabili  aleatorie  di  tipo   Γ :  

Ø Definizione:  

X

 è  

Γ ( ) α,λ

 se  fX

( )

X =

λ

α

Γ

( ) α

xα −1e−λx x> 0 0 altrimenti

⎨⎪

⎩⎪ .  

Ø Nota:  

Γ ( ) α

 serve  a  far  sì  che  la  densità  faccia  uno  in  

( −∞,+∞ )

:  

f

X

( ) x dx

−∞

+∞

= 1 = Γ λ ( ) α

α 0

x

α −1

e

−λx

dx

+∞

⇒ Γ ( ) α = λ

α 0

x

α −1

e

−λx

dx

+∞  facciamo  il  cambiamento  

di  variabili  

y = λx

,  

dy = λdx

 à  

λ

α

y λ

⎛ ⎝⎜ ⎞

⎠⎟

α −1

e

− y

dy λ

0

+∞

= λ λ

αα

0+∞

y

α −1

e

− y

dy = Γ ( ) α

.  

Ø Γ

( ) α

:=

0+∞xα −1e− xdx.  

Ø Gamma  di  Eulero:  Γ 1

( )

=

0+∞e− xdx= 1.  

§ Osservazione:  

Γ 1, ( ) λ = € ( ) λ

.  

§ Per  mezzo  dell’integrazione  per  parti:

Γ

( ) α

=

0+∞yα −1e− ydy= −e− yyα −1 +∞0+

0+∞

( α

− 1

)

y(α −1)−1e− ydy=

= a − 1

( ) ∫

0+∞y(α −1)−1e− ydy=

( α

− 1

)

Γ

( α

− 1

)

 à  

Γ ( ) α = ( α − 1 ) Γ ( α − 1 )

.  

§

Γ n ( ) = n − 1 ( ) Γ n − 1 ( ) = n − 1 ( ) ( n − 2 ) Γ n − 2 ( ) ....Γ 1 ( ) = n − 1 ( ) !

.  

(8)

Ø

X ~ Γ a, ( ) λ

.  Funzione  generatrice  dei  momenti:  

§ E e

( )

tX = Γ

λ ( ) α

α

0+∞xα −1e−λxetxdx= Γ

λ ( ) α

α

0+∞xα −1e(λ −t)xdx=

( λ λ

− tα

)

α

( λ

Γ− t

( ) α )

α

0+∞xα −1e(λ −t)dx

=1

=

= λ

α

λ − t

( )

α .  

§

m

X

( ) t = ⎝⎜ λ − t λ ⎠⎟

α.  

m

X

′ ( ) t = α ⎝⎜ λ − t λ ⎠⎟

α −1

−λ −1 ( )

λ − t

( )

2

⎣ ⎢

⎦ ⎥

⎥ = αλ

α

λ − t

( )

α +1  à  

m

X

( ) 0 = α λ

.  

m

X

′′ ( ) t = − αλ

α

( α + 1 ) ( λ − t )

α

( ) 1

λ − t

( )

2α +2  à  m′′X

( )

0 =

α α (

+ 1

)

λ

2 .  

§

E X ( ) = α λ

;  

§ E X

( )

2 =

α α ( λ

2+ 1

)

;  

§

Var X ( ) = α α + 1 ( )

λ

2

− α

2

λ

2

= α

λ

2 .  

Ø Proprietà:  

X ~ Γ ( ) α,λ ,Y ~ Γ ( ) β,λ

 indipendenti  

⇒ X + Y ~ Γ ( α + β,λ )

.  

§ Dimostrazione:  

m

X+Y

( ) t = m

X

( ) t m

Y

( ) t = ⎝⎜ λ − t λ ⎠⎟

α

⎝⎜ λ − t λ ⎠⎟

β

= ⎝⎜ λ − t λ ⎠⎟

α +β

⇒ X + Y ~ Γ ( α + β,λ )

.  

§ Utilità:  

• Capire  

X,Y ~ € ( ) λ

 indipendenti.  

X ~ € ( ) λ = Γ 1, ( ) λ

Y ~ € ( ) λ = Γ 1, ( ) λ

 à  

X + Y ~ Γ 2, ( ) λ

.  

♦ In  generale:  

X

1

,..., X

n

~ € ( ) λ

 à  

X

1

+ X

2

+ ...+ X

n

~ Γ n, ( ) λ

.  

 

µ Distribuzioni  Chi-­‐quadro:  

Ø

Z

12

+ ...+ Z

n

2

~ Γ n

2 , 1 2

⎛ ⎝⎜ ⎞

⎠⎟ = χ

2

( ) n

 chi-­‐quadro  con  

n

 gradi  di  libertà.  

§

X ~ χ

2

( ) n ⇔ X ~ Γ n 2 , 1

2

⎛ ⎝⎜ ⎞

⎠⎟

.  

§

E X [ ] =

n 2 1 2

= n

.  

§

Var X ( ) =

n 2 1 2

⎛ ⎝⎜ ⎞

⎠⎟

2

= 2n

.  

(9)

§

X ~ χ

2

( ) n

,  

f

X

( ) x = 1 2

n 2

1 Γ n

2

⎛ ⎝⎜ ⎞

⎠⎟

x

n 2−1

e

x

2

x > 0

0 altrimenti

⎨ ⎪⎪

⎩ ⎪

.  

§

X ~ χ

2

( ) n ,Y ~ χ

2

( ) m

 indipendenti  à  

X + Y = X

12

+ ...+ X

n2

+ Y

12

+ ...+ Y

m2

⇒ X + Y ~ χ

2

( n + m )

.  

Ø Se  

X

 è  una  chi-­‐quadro  con  

n

 gradi  di  libertà  e  

α

 è  un  reale  compreso  tra  

0

 e  

1

,  si  definisce  la   quantità  

χ

α,n2  tramite  l’equazione  seguente:  

P X ( ≥ χ

α,n2

) = α

.  

 

µ Distribuzioni  t:  

Ø Se  

Z

 e  

C

n  sono  variabili  aleatorie  indipendenti,  la  prima  normale  standard  e  la  seconda  chi-­‐

quadro  con  

n

 gradi  di  libertà,  allora  la  variabile  aleatoria  

T

n  definita  come  

T

n

: = Z

C

n

n

 si  dice   avere  distribuzione  

t

 con  

n

 gradi  di  libertà  à  

T

n

~ t

n.  Tale  variabile  aleatorie  viene  definita   spesso  

t

 di  Student.  

§

f

T

( ) t = Γ

n + 1 2

⎛ ⎝⎜ ⎞

⎠⎟

Γ n 2

⎛ ⎝⎜ ⎞

⎠⎟ nπ 1+ t

2

n

⎝⎜

⎠⎟

n+1 2

 con  

t

 a  

n

 gradi  di  libertà.  

§

E T [ ]

n

= 0

 con  

n ≥ 2

.  

§

Var T ( )

n

= n

n − 2

 con  

n ≥ 3

.  

Ø Se  

T

n

~ t

α,n  con  

α ∈ 0,1 ( )

 à  

P T (

n

≥ t

α,n

) = α

.  

§

T

 è  simmetrica  à  

P T (

n

≥ −t

α,n

) = 1− α

.  

 

µ Teoremi  e  Teorie:  

Ø Teoria  dell’affidabilità:  

§

T =

 istante  di  rottura.  

T > t ⇔

 all’istante  

t

 il  sistema  funziona.  

§

P T ( > t ) = 1− F

T

( ) t =

 funzione  di  sopravvivenza.  

§ Def:  intensità  di  rischio  o  tasso  di  guasto.  

λ

T

( ) t := f

T

( ) t

1 − F

T

( ) t

.  

§

P T ( ∈(t,t + dt] | T > t ) = P T ( ∈(t,t + dt]& T > t )

P T ( > t ) = P T ( ∈(t,t + dt] )

1 − F

T

( ) t f

T

( ) t dt

1 − F

T

( ) t = λ

T

( ) t dt

 

§

T > 0

 

λ

T

( ) t ⇒ f

T

( ) t

 è  nota.  

§

λ

T

( ) t := f

T

( ) t

1 − F

T

( ) t = − dt d ln 1 ( − F

T

( ) t )

 integrando  il  tutto  à  

λ

T

( ) s ds

0

t

= −

0t

ds d ln 1 ( − F

T

( ) s ) ds = − ln 1− F ⎡⎣ (

T

( ) t ) − ln 1− F (

T

( ) 0 ) ⎤⎦

,  

(10)

λ

T

( ) s ds

0

t

= ln 1− F (

T

( ) 0 )

   

=0

 

− ln 1− F (

T

( ) t )

 

⇒ 1− F

T

( ) t = e

0tλT( )s ds.  

F

T

( ) t = 1− exp − { ∫

0t

λ

T

( ) s ds }

.  Ricorda  che:  

f

T

( ) t = − d

dt ( 1 − F

T

( ) t )

.  

§

λ

T

( ) t = λ ⇔ T ~ € λ ( )

 à  

F

T

( ) t = 1− exp − { } ∫

0t

λ ds = 1− e

−λt.  

§

λ

T

⇒ P T > t + s | T > s ( ) ≤ P T < t ( )

,  (

 significa  non  decrescente).  

P T ( > t + s | T > s ) = P T ( > t + s & T > s )

P T ( > s ) = P T ( > t + s )

P T ( > s ) = 1 − F

T

( t + s )

1 − F

T

( ) s =

= exp

{

0t+ s

λ

T

( )

u du

}

exp

{

0s

λ

T

( )

u du

}

= exp −

{ (

0t+ s

λ

T

( )

u du

0s

λ

T

( )

u du

) }

= exp −

{ (

st+ s

λ

T

( )

u du

) }

 

P T ( > t ) = 1− F

T

( ) t = exp − { ∫

0t

λ

T

( ) u du }

.  

• Facendo  i  grafici  vediamo  che  

P T ( > t + s | T > s ) ≤ P T < t ( )

 effettivamente  è  vera.  

§

T

 è  Weibull  

⇔ λ

T

( ) t = αβt

β −1.   Ø Teorema  del  limite  centrale:  

§

X

1

, X

2

,...

 variabili  aleatorie  indipendenti,  tutte  con  la  stessa  formula  di  ripartizione,  

E X ( )

1

= E X ( )

2

= ... = µ

,  

Var X ( )

1

= Var X ( )

2

= ... = σ

2.  

§

1

n X

k

k=1

n

= X

n  media  campionaria.  

E X ( )

n

= µ

.  

Var X ( )

n

= σ n

2 .  

P X (

n

− µ > ε )

n→∞

0

 (legge  dei  grandi  numeri).  

Var X (

n

− µ ) = Var X ( )

n

= σ n

2 .  Xn

µ

± k Var X

( )

n =

µ

±

σ

n .  

§ Xn

µ

σ

n .  

§ Teorema  limite  centrale:  

X

1

, X

2

,..

 variabili  aleatorie  indipendenti  con  la  stessa  formula  di   ripartizione  

E X ( )

1

= E X ( )

2

= ... = µ

,  

Var X ( )

1

= Var X ( )

2

= ... = σ

2

X

n

σ µ n

.  

nlim→+∞P Xn

µ

σ

n ≤ z

⎝⎜

⎠⎟ = Φ z

( )

= 1

2

π

e

u2 2 du

−∞

z .  

§

Z

n

= X

n

− µ

n1

σ

n ≈ N 0,1 ( )

.  Xn = Zn

σ

n +

µ

,  

X

n

≈ N µ, σ

2

n

⎝⎜

⎠⎟

.  

Riferimenti

Documenti correlati

Per calcolare il tempo di attesa medio tra una denuncia e la successiva (sempre di assicurati diversi, cioè senza considerare eventuali denunce multiple fatte da uno stesso

 Implementare il campionamento in base alla definizione di binomiale, ovvero contando il numero di successi su m esperimenti.. Task

Ciascuna resistenza ha una probabilit` a di essere funzionante per tutto il periodo necessario alla schiusa pari a 0.85; le resistenze funzionano l’una indipendentemente

con i significati usuali: funzione di probabilit` a nel punto x, funzione di distribuzione cumulata nel punto x, quantile a-esimo, generazione di n numeri casuali?. ATTENZIONE:

Se X ` e una variabile aleatoria continua, la probabilit` a che X assuma un certo valore x fissato ` e in generale zero, quindi non ha senso definire una distribuzione di probabilit`

La misura di una qualunque grandezza fisica (temperatura, concentrazione di una farmaco,..) pu` o essere vista come la somma del valore esatto della grandezza e

Nei due esempi abbiamo quindi due vettori aleatori diversi con una legge congiunta diversa ma uguali leggi marginali: questo significa che, come abbiamo detto prima, non `e

[r]