• Non ci sono risultati.

() ()= () () () []= () () n  1 Η F X X X X , , , , … … … … =…= , , , , X X X X F n − 1 Η S E = Η = SX Η X , … ⎛⎝⎜⎞⎠⎟ , , X X , … , X 1 1 1 ⎛⎝⎜⎞⎠⎟ ⎛⎝⎜⎞⎠⎟ ⎛⎝⎜⎞⎠⎟ ⎡⎣⎤⎦ ES X X X X , , , , … … … S , , , X X X = ~ ~ ~ N N N , , , () X − EX () () ~ n − 1 S S X

N/A
N/A
Protected

Academic year: 2021

Condividi "() ()= () () () []= () () n  1 Η F X X X X , , , , … … … … =…= , , , , X X X X F n − 1 Η S E = Η = SX Η X , … ⎛⎝⎜⎞⎠⎟ , , X X , … , X 1 1 1 ⎛⎝⎜⎞⎠⎟ ⎛⎝⎜⎞⎠⎟ ⎛⎝⎜⎞⎠⎟ ⎡⎣⎤⎦ ES X X X X , , , , … … … S , , , X X X = ~ ~ ~ N N N , , , () X − EX () () ~ n − 1 S S X "

Copied!
5
0
0

Testo completo

(1)

Statistica  

µ Definizioni:  

Ø

X

1

, …, X

n  variabili  aleatorie  indipendenti  e  tali  che  

F

X

1

= … = F

Xn  si  dicono  campione.  

Ø Siano  

X

1

,…, X

n

~ N ( µ,σ

2

)

 con  

µ

 e  

σ

2  incogniti.  Per  determinare  i  parametri  incogniti  si  fa  

“inferenza  statistica”.  

Ø Siano  

X

1

,…, X

n  campioni  e  

ϑ

 parametro  incognito:  

§ Una  statistica  è  una  funzione  del  campione  

S = S X (

1

,…, X

n

)

.  

§ Uno  stimatore  di  

ϑ

 è  una  statistica  utile  per  stimare  

ϑ

.  

µ Media  Campionaria:  

Ø È  uno  stimatore  non  distorto  di  

µ

à  

X

n

= 1 n X

k

k=1

n .  

Ø Sia  

X

1

,…, X

n  campione  con  media  

µ

,  varianza  

σ

2.  

§

E X ( )

n

= µ

.  

§ Se  

X

1

, …, X

n

~ N ( µ,σ

2

)

 à  

X

n

~ ⎝⎜ µ, σ n

2

⎠⎟

.  

§ Se  

n  1

 à  

X

n

≈ N µ, σ

2

n

⎝⎜

⎠⎟

.  

Ø

X

n

~ N µ, σ

2

n

⎝⎜

⎠⎟

.  

µ Varianza  campionaria:  

Ø È  uno  stimatore  non  distorto  di  

σ

2à  

S

n2

= 1

n − 1 ( X

k

− X

n

)

2

k=1

n .  

Ø La  varianza  campionaria  si  può  calcolare  anche  così:  

S

n2

= 1

n − 1 X

2i

− nX

2

i=1

n

⎝⎜

⎠⎟

.   Ø

E S ⎡⎣ ⎤⎦ = σ

2n 2.  

Ø Teorema:  

§ Sia  

X

1

,…, X

n

~ N ( µ,σ

2

)

 campione:  

X

n

, S

2n  sono  indipendenti.  

X

n

− µ

σ n ~ N 0,1 ( )

.  

(

n− 1

)

σ

2 ~

χ

2

(

n− 1

)

.  

µ Teoria  della  stima:  

Ø Sia  

X

1

,…, X

n  campione  con  

ϑ

 parametro  incognito.  

§

Η

n

= Η X (

1

, X

2

,…, X

n

)

 stimatore  di  

ϑ

.  

Η

n  è  uno  stimatore  corretto  (non  distorto)  se  

E [ ] Η

n

= ϑ

.  

(2)

§ Nota  d’aiuto  per  esami:  Se  abbiamo  

X

 v.a.  con  

E X [ ] = µ

,  

Var X ( ) = σ

2.  Possiamo   determinare  

E X ⎡⎣ ⎤⎦

2  con  la  formula  inversa  della  varianza,  ossia  

E X ⎡⎣ ⎤⎦ = Var X

2

( ) + E X [ ]

2

= σ

2

+ µ

2.  

§ Definiamo  distorsione  

= Bias Η ( )

n

: = E Η [ ]

n

ϑ

.  

• Se  

Bias ( ) Η

n

→ 0

 con  

n → ∞

 diciamo  che  

Η

n  è  asintoticamente  corretto.  

• Se  

Bias ( ) Η

n

= 0

 à  corretto.  

Ø

Η

n  è  consistente  se  ∀

ε

> 0  à  

P ( Η

n

− ϑ > ε ) → 0

.  

Ø Errore  quadratico  medio  (Mean  Square  Error):  MSE

( )

Ηn = E Η

(

n

ϑ )

2.  

§ MSE

( )

Η = Var H

( )

+ Bias H

( )

2.  

Ø

Η

n  è  consistente  in  media  quadratica  se  

MSE ( ) Η

n

→ 0

 con  

n → ∞

.   Ø

Η

n  è  corretto  se  e  soltanto  se  

E [ ] Η

n

= ϑ

.  

Ø Confronto  tra  stimatori:  

§ MSE H

( )

1 < MSE H

( )

2 MSE H

( )

1

MSE H

( )

2 < 1  in  questo  caso  è  preferibile  adottare  

H

1  come   stimatore,  nel  caso  contrario  

H

2.  

 

µ Metodo  della  massima  verosimiglianza:  

Ø Strategia:  lo  stimatore  di  massima  verosomiglianza  

ϑ

 è  definito  come  il  valore  di  

ϑ

 che  rende   massima  

f x (

1

, x

2

, …, x

n

| ϑ )

,  che  è  la  funzione  di  massa  o  densità  congiunta,  quando  i  valori   osservati  sono  

x

1

, x

2

,…, x

n.  Nel  calcolare  il  valore  di  

ϑ

 che  massimizza  

f

 è  meglio  utilizzare  il  

log f x ⎡⎣ (

1

, x

2

,…, x

n

| ϑ ) ⎤⎦

,  sapendo  che  entrambe  le  funzioni  assumono  il  massimo  in   corrispondenza  dello  stesso  valore  di  

ϑ

.  Quindi:  si  scrive  

log f x ⎡⎣ (

1

, x

2

,…, x

n

| ϑ ) ⎤⎦

,  si  fa  la   derivata  di  tale  funzione  ed  infine  si  prende  il  valore  di  

ϑ

 in  cui  abbiamo  il  massimo.  

Ø Ricorda  che  

f x (

1

, x

2

,…, x

n

) = f

Xi

( ) x

i

i=1

n ,  siccome  sono  tutte  variabili  aleatorie  indipendenti.  

Mentre  usando  i  logaritmi  e  le  sue  proprietà  

log f x ⎡⎣ (

1

, x

2

, …, x

n

) ⎤⎦ = log f ⎡⎣

Xi

( ) x

i

⎤⎦

i=1

n  che  è  più  

semplice  da  derivare.  

 

µ Metodo  dei  momenti:  

Ø Sia  

X

1

, X

2

,…, X

n

~ f x, ( ϑ

1

, ϑ

2

,…,ϑ

k

)

.  

Ø Definiamo:  

§

m

h

:= E X ⎡⎣ ⎤⎦

h  momento  

h

-­‐esimo.  

§

m

h

:= 1

h X

ih

i=1

n  momento  campionario  

h

-­‐esimo.  Sono  tutti  termini  noti.  

(3)

Ø Strategia:  facciamo  un  sistema  eguagliando  i  momenti  

h

-­‐esimi  ai  momenti  campionari  

h

-­‐esimi.  La   soluzione  del  sistema  sarà  

ϑ = ϑ (

1

2

,…,ϑ

k

)

.  

E X [ ]

1

= m

1

( ϑ

1

2

,…,ϑ

k

) = m

1

= 1 n X

i

i=1

n

E X ⎡⎣ ⎤⎦ = m

12 2

( ϑ

1

2

,…,ϑ

k

) = m

2

= 1

n X

i2

i=1

n

E X ⎡⎣ ⎤⎦ = m

1k k

( ϑ

1

2

,…,ϑ

k

) = m

k

= 1

n X

ik

i=1

n

⎪ ⎪

⎪ ⎪

⎪ ⎪

⎪ ⎪

 

 

µ Teorema  stimatori:  

Ø Ipotesi:  Sia  

X

1

, X

2

,…, X

n

~ f x | ( ϑ )

 con  

ϑ

 incognito.  

ϑ

 = MLE

( ) ϑ

 ossia  

ϑ

 è  uno  stimatore  di   massima  verosimiglianza  di  

ϑ

 (MLE  =  Maximum  Likelyhood  Estimator).  

Ø Tesi:  

1.

Bias ( ) ϑ 

n

→ 0

 con  

n → +∞

.  

2.

MSE ( ) ϑ 

n

→ 0

 (Errore  quadratico  medio).  

3.

ϑ

 ≈ Nn

ϑ

, 1 nE

ϑ

log f x |

( ϑ )

⎛⎝⎜ ⎞

⎠⎟

2

⎣⎢ ⎤

⎦⎥

⎜⎜

⎜⎜⎜

⎟⎟

⎟⎟⎟

 con  

n  1

.  

4. Se  

ϑ

*  è  uno  stimatore  di  

ϑ

 che  soddisfa  1.  2.  3.  

 

MSE ( ) ϑ * ≥ MSE ( ) ϑ

.  

Ø Corollario:  

§ Sia  

τ = h ϑ ( )

 con  

h :  → 

,  

τ = h ϑ ( ) = MSE ( ) τ

.  

§

τ

 ≈ N h |

(

ϑ )

,

(

h ' |

ϑ )

nE

ϑ

log f x |

( ϑ )

⎛⎝⎜ ⎞

⎠⎟

2

⎣⎢ ⎤

⎦⎥

⎜⎜

⎜⎜⎜

⎟⎟

⎟⎟⎟

.  

 

µ Intervalli  di  confidenza:  

Ø Molte  volte  è  utile  sapere  quanto  la  nostra  stima  sia  esatta,  per  far  ciò  si  utilizzano  gli  intervalli  di   confidenza.  

Ipotesi  

ϑ

  Intervallo  bilaterale   Intervallo  sinistro   Intervallo  destro  

σ

2  nota  

µ

 

X ± z

α

2

σ

n

 

−∞, X + z

α

σ n

⎛ ⎝⎜ ⎞

⎠⎟

 

X − z

α

σ n , ∞

⎛ ⎝⎜ ⎞

⎠⎟

 

σ

2  non  nota  

µ

 

X ± t

α

2,n−1

S

n

 

−∞, X + t

α

2,n−1

S n

⎝⎜

⎠⎟

 

X − t

α

2,n−1

S n , ∞

⎝⎜

⎠⎟

 

(4)

µ

 non  nota  

σ

2  

n − 1

( ) S

2

χ

2α

2,n−1

, ( n − 1 ) S

2

χ

2

1− α2,n−1

⎜ ⎜

⎟ ⎟

 

0, ( n − 1 ) S

2

χ

12−α,n−1

⎝⎜

⎠⎟

 

n − 1

( ) S

2

χ

2α,n−1

,∞

⎝⎜

⎠⎟

 

µ Stime  per  la  differenza  tra  le  medie  di  due  popolazioni  normali:  

Ø Siano  

X

1

, X

2

,…, X

N  e  

Y

1

,Y

2

,…,Y

m  due  campioni  estratti  da  popolazioni  normali  differenti  con  

µ

1

12  i  parametri  della  prima  e  

µ

2

, σ

22  i  parametri  della  seconda.  

Ø

X := 1

n X

1

i=1

n  e  

Y := m 1 Y

j j=1

m  sono  gli  stimatori  di  massima  verosomiglianza  dei  

µ

1

, µ

2  

rispettivamente.  

Ø

S

12

: = 1

n − 1 ( X

i

− X )

i=1

n  e  

S

12

:= m 1 − 1 ( Y

j

− Y )

j=1

m  sono  gli  stimatori  di  

σ

12

22  rispettivamente.  

Ø Definiamo  

N := n + m − 2

 e  

S

p

:= ( n − 1 ) S

21

+ m − 1 ( ) S

22

N

 che  viene  definita  varianza   campionaria  “pooled”.  

Ø Con  

σ

1

2  note:  l’intervallo  bilaterale  è  

X − Y ± z

α

2

σ

12

n + σ

22

m

 mentre  l’intervallo  sinistro  è  

−∞, X − Y + z

α

σ

12

n + σ

22

m

⎝ ⎜ ⎞

⎠ ⎟

.  

Ø Con  

σ

1

2  NON  note  MA  uguali:  l’intervallo  bilaterale  è  

X − Y ± t

α

2, N

⋅ S

p

1 n + 1

m

 mentre   l’intervallo  sinistro  è  

−∞, X − Y + t

α,N

⋅ S

p

1

n + 1 m

⎝⎜

⎠⎟

.    

µ Intervalli  di  confidenza  approssimati  per  la  media  di  una  distribuzione   di  Bernoulli:  

Ø Poniamo  

p  := X

n

 stimatore  del  parametro  di  Bernoulli  

p

 con  

X =

 numero  di  valori  

1

 nel   campione  bernoulliano.  

Ø L’intervallo  di  confidenza  bilaterale  è  p ± zα

2

 1− pp

( )

n ,  quello  sinistro  

−∞, p + z

α

 1− p p ( )

n

⎜ ⎜

⎟ ⎟

,  quello  destro  è  

p  − z

α

 1− p p ( )

n , ∞

⎜ ⎜

⎟ ⎟

.  

 

µ Verifica  delle  ipotesi:  

Ø Un’ipotesi  statistica  è  normalmente  un’affermazione  su  uno  o  più  parametri  della  distribuzione  di   popolazione.  

Ø Facendo  un  test  (o  verifica)  di  una  data  ipotesi  

H

 (che  solitamente  viene  chiamata  ipotesi  nulla)  

(5)

§ Errore  di  seconda  specie:  quando  accettiamo  

H

0  quando  in  realtà  è  falsa.  

Ø Verifica  di  un  ipotesi  sulla  media  di  una  popolazione  normale:  

§ Con  varianza  nota:  

• Vogliamo  verificare  l’ipotesi  nulla  

H

0

: µ = µ

0.  Siccome  

X := 1 n X

i

i=1

n  è  lo  stimatore   puntuale  naturale  per  

µ

,  sembra  ragionevole  accettare  

H

0  quando  

X

 non  è  troppo   lontano  da  

µ

0.  

α

= P errore di I specie

( )

= Pµ0

(

X

µ

0 > c

)

 è  la  probabilità  di  commettere  un  errore  di   prima  specie,  ossia  rifiutiamo  l’ipotesi  (

µ = µ

0)  mentre  in  realtà  è  vera.  

• Con  opportuni  passaggi  otteniamo  che  si  rifiuta  

H

0  se  

X − µ

0

σ n > z

α

2

,  si  accetta  

H

0  se  

X − µ

0

σ n ≤ z

α

2

.  

• Spesso  non  si  fissa  in  anticipo  il  livello  di  significatività,  ma  si  osservano  i  dati  e  si  ricava  il  p-­‐

dei-­‐dati  (p-­‐value)  corrispondente  che  fa  da  spartiacque  tra  l’accettare  e  il  rifiutare.  Per   prima  cosa  si  calcola  

v = X − µ

0

σ n

,  poi  il  valore  ottenuto  lo  scriviamo  

P Z

(

> v

)

= P z > v

( )

+ P z < −v

( )

= 1− Φ v

( )

+ 1− Φ v

( )

= 2 1− Φ v

( ( ) )

.  Se  esso  risulta   molto  maggiore  di  quanto  siamo  disposti  ad  accettare  come  probabilità  di  un  errore  di   prima  specie,  accettiamo  l’ipotesi;  se  invece  la  probabilità  è  molto  piccola  possiamo   rifiutare  il  dato  senza  aver  paura  di  aver  commesso  un  errore  di  prima  specie.  

• Ora  discutiamo  la  possibilità  degli  errori  di  seconda  specie  introducendo  una  nuova   funzione  

β

 chiamata  curva  OC  (curva  operativa  caratteristica,  operating  characteristic   curve)  che  rappresenta  appunto  la  probabilità  di  accettare  

H

0  quando  la  media  reale  è  

µ

:  

β µ ( ) = P

µ

µ

0

− µ σ n − z

α

2

≤ Z ≤ µ

0

− µ σ n + z

α

2

⎝⎜

⎠⎟ = Φ µ

0

− µ σ n + z

α

2

⎝⎜

⎠⎟ − Φ µ

0

− µ σ n − z

α

2

⎝⎜

⎠⎟

.  

• Supponiamo  di  cercare  il  valore  di  

n

 con  il  quale  la  probabilità  di  accettare  

H

0

: µ = µ

0   quando  il  valore  è  

µ

1,  sia  approssimativamente  pari  ad  un  valore  

β

 fissato,  la  formula  è:  

nzα

2

+ zβ

⎝⎜

⎠⎟

σ µ

1

µ

0

⎢⎢

⎢⎢

⎥⎥

⎥⎥

2

.  

Riferimenti

Documenti correlati

137 Importo totale della retribuzione di risultato erogata a valere sul fondo dell'anno di rilevazione (euro) 177996 115 Importo totale della retribuzione di risultato non erogata

137 Importo totale della retribuzione di risultato erogata a valere sul fondo dell'anno di rilevazione (euro) 83688 115 Importo totale della retribuzione di risultato non erogata

[r]

Valore in percentuale dell'incidenza della spesa del personale in rapporto alle spese correnti 22.99 Numero di unità di personale assunte come stagionali a progetto (l.296/2006

Valore in percentuale dell'incidenza della spesa del personale in rapporto alle spese correnti 26.75 Numero di unità di personale assunte come stagionali a progetto (l.296/2006

Le Spese medie annue per ciascuna Categoria sono calcolate dividendo il totale delle spese delle qualifiche appartenenti alla categoria per le unità di riferimento (mensilità

352 (Norme sui referendum previsti dalla Costituzione e sulla iniziativa legislativa del popolo) &#34;se prima della data dello svolgimento del referendum, la legge, o l'atto

Gli intermediari non devono acquisire il consenso degli interessati per il trattamento dei dati in quanto è previsto dalla legge; mentre sono tenuti ad acquisire il