• Non ci sono risultati.

2. Linearit` a del valore atteso e sua applicazione agli stimatori

N/A
N/A
Protected

Academic year: 2021

Condividi "2. Linearit` a del valore atteso e sua applicazione agli stimatori"

Copied!
14
0
0

Testo completo

(1)

Legge Gamma e Legge Chi quadro

Sia G una variabile aleatoria di legge Gamma di parametri a e λ reali positivi, G ∼ Γ(a, λ), la cui funzione di densit`a `e:

fG(x) = λa

Γ(a) e−λx xa−1 per x ≥ 0 dove Γ(·) `e la funzione Gamma completa: Γ(a) =R+∞

0 e−x xa−1dx che ha le propriet`a:

- Γ(a) = (a − 1)Γ(a − 1) e in particolare per gli interi Γ(n) = (n − 1)!

- Γ 2n = (n−2)!!2(n−1)/2π per n dispari e Γ n2 = 2(n−2)!!(n−2)/2 per n pari.

Sia Y la variabile aleatoria definita come:

Y = ϕ(G) = λG

Si ha: Y ∼ Γ(a, 1). Infatti, per la formula di cambiamento di variabile la densit`a di Y `e:

fY(y) = fX ϕ−1(y) d ϕ−1(y)

dx = λa

Γ(a) e−λyλ y λ

a−1 1 λ = 1

Γ(a) e−y ya−1 Il parametro λ viene usualmente chiamato “parametro di scala”.

(fare attenzione che nei software statistici spesso il parametro di scala `e 1/λ).

Sia Cn una variabile aleatoria di legge Chi quadro a n gradi di libert`a Cn ∼ χ[n]. Si ha:

Cn∼ Γ n 2,1

2



Quindi se M = 12Cn, allora M ∼ Γ n2, 1

Concludendo si ha che la variabile aleatoria G pu`o essere approssimata utilizzando una variabile aleatoria di legge Chi quadro con un numero di gradi di libert`a pari all’intero pi`u vicino a 2a (si ha l’uguaglianza per a intero):

C2a = 2λG

Si possono perci`o utilizzare le tavole della legge Chi quadro per trovare i quantili della legge Gamma nel seguente modo:

α = IP (G > lα) = IP (2λ G > 2λ lα) = IP (C2a > 2λ lα) e quindi

lα = 1 2λ cα

(2)

Stimatori: approfondimenti

1. Stimatori preferibili e ammissibili

Siano U e V stimatori di un parametro θ.

1. U si dice preferibile a V se:

MSEU(θ) ≤ MSEV(θ) ∀θ

Se per almeno un θ vale la disuguaglianza stretta si dice che U `e strettamente preferibile a V .

2. Se non esistono stimatori preferibili a U allora U `e detto ammissibile.

ESEMPI

Uniforme Sia X ∼ U nif orm(0, θ) Consideriamo i due stimatori di θ:

T = max Xi R = 2X

A fianco sono riportate le due distribuzioni di T e R, nel caso in cui θ = 5.

Si ha (si veda la dimostrazione sul libro a pag. 171-3): 0 5 10

2

1

0

θ

M SET(θ) = 2 θ2

(n + 2)(n + 1) M SER(θ) = 1 3 nθ2 Quindi T `e preferibile a R; infatti:

MSET(θ) ≤ MSER(θ) ∀θ Bernoulli Sia X ∼ Bernoulli(p)

Indichiamo con Sn la v.a. P Xi. Consideriamo i due stimatori di p : P = X =ˆ Sn

n e R = Sn+ a

n + a + b

R `e uno stimatore che dipende da due parametri reali positivi a e b che permettono di utilizzare informazioni a priori sul parametro p (R `e uno stimatore bayesiano). Si ha:

M SEPˆ(p) = p(1 − p) n

M SER(p) = p2 (a + b)2− n + p(n − 2a(a + b)) + a2 (n + a + b)2

(3)

In entrambi i casi i MSE sono delle parabole con la concavit`a verso il basso. Si ha

M SER(0) = a2

(n + a + b)2 e M SER(1) = b2 (n + a + b)2 A fianco sono riportati a linea continua il grafico di M SEPˆ(p) e a linea tratteggiata quelli di M SER(p) per diverse scelte dei parametri a e b.

Entrambi gli stimatori sono ammissibili. 0.0 0.2 0.4 0.6 0.8 1. 0

0.025 0.020 0.015 0.010 0.005 0.000

2. Linearit` a del valore atteso e sua applicazione agli stimatori

Sia X una variabile aleatoria. Se a e b sono costanti reali, si ha:

E(aX + b) = aE(X) + b cio`e, se g `e una funzione lineare, si ha:

E(g(X)) = g(E(X)) . Applichiamo questo risultato agli stimatori.

Se T `e uno stimatore di una parametro θ con E(T ) = a + bθ, allora R = T − a

b `e stimatore non distorto di θ . ESEMPI

Normale Sia X ∼ N (µ, σ2) Lo stimatore T =

P

i(Xi−X)2

n `e stimatore di σ2 con E(T ) = n−1n σ2; quindi S2 = n−1n T

`

e stimatore non distorto di σ2.

Uniforme Sia X ∼ U nif orm(0, θ)

Lo stimatore T = max{Xi} `e stimatore di θ con E(T ) = n+1n θ; quindi R = n+1n T `e stimatore non distorto di θ.

3. Disuguaglianza di Jensen e sua applicazione agli stimatori

Sia X una variabile aleatoria.

1. Se g `e una funzione convessa si ha:

E(g(X)) ≥ g(E(X)) Caso notevole: E(X2) ≥ E(X)2.

2. Se g `e una funzione concava si ha:

E(g(X)) ≤ g(E(X))

(4)

Applichiamo questo risultato agli stimatori.

ESEMPI

Esponenziale. Stimatore di λ. Sia X ∼ E xp(λ) Si ha: E(X) = E(X) = λ1. T = X1 `e stimatore di λ e si ha:

E

 1 X



≥ 1

E(X)

ovvero E

 1 X



≥ λ

Possiamo dire che 1

X “sovrastima in media” λ.

Facendo i calcoli esatti si ottiene E X1 = n−1n λ, che `e - appunto - maggiore di λ.

Normale. Stimatore di σ. Sia X ∼ N (µ, σ2)

S2 `e stimatore non distorto di σ2. Consideriamo S, S =√

S2, stimatore di σ; si ha:

E(S) ≤

σ2 ovvero E(S) ≤ σ Possiamo dire che S “sottostima in media” σ.

Facendo i calcoli esatti si ottiene E(S) = (n−3)!!(n−2)!!n−1 σ, che `e - appunto - minore di σ.

3. Calcoli espliciti per i valori attesi di alcuni stimatori

ESEMPI

Esponenziale. Stimatore di λ. Sia X ∼ E xp(λ). Si ha: E(X) = 1λ. Indichiamo con Y la v.a. P Xi. Si ha: Y ∼ Γ(n, λ).

La v.a. T = ψ(Y ) = P Xn

i `e stimatore di λ. Il valore atteso di T `e:

E(T ) = Z

ψ(y)fY(y)dy = Z +∞

0

n y

λn

(n − 1)! e−λ y yn−1 dy

= n

n − 1 λ Z +∞

0

λn−1

(n − 2)! e−λ y yn−2 dy = n n − 1 λ Quindi stimatore non distorto di λ `e:

T1 = n P Xi

Normale. Stimatore di σ. Sia X ∼ N (µ, σ2) Stimatore non distorto di σ2 `e S2 =

P(Xi−X)2

n−1 . Indichiamo con Y la v.a.

P(Xi−X)2

σ2 . Si ha: Y ∼ Γ n−12 ,12.

(5)

La v.a. S, S = √

S2 `e stimatore di σ. Il valore atteso di S `e:

E(S) = E

r Y

n − 1 σ

!

= σ

√n − 1

Z +∞

0

y1/2

1 2

(n−1)/2

Γ n−12  e−y/2y(n−1)/2−1 dy

= σ

√n − 1

Z +∞

0 1 2

n/2−1/2

Γ n212 Γ n2 Γ n2 e

−y/2 yn/2−1 dy = σ

r 2

n − 1

Γ n2 Γ n−12  Stimatore non distorto di σ `e quindi:

qX

Xi − X2 Γ n−12 

√2 Γ n2

Possiamo ulteriormente sviluppare lo stimatore, utilizzando la seguente propriet`a della funzione gamma completa:

Γn 2



= (n − 2)!!

2(n−1)/2

√π per n dispari e Γn 2



= (n − 2)!!

2(n−2)/2 per n pari Per cui, a seconda se n `e pari o dispari, uno stimatore non distorto di σ `e:

q

P Xi− X2 (n−2)!!

(n−3)!!

pπ

2

per n dispari e q

P Xi− X2 (n−2)!!

(n−3)!!

q2 π

per n pari

(6)

Intervalli di confidenza: approfondimenti

1. Quantit` a pivotale

Sia X una variabile aleatoria con legge dipendente da un parametro θ (detto anche parametro naturale) su cui si vuol fare inferenza.

Una quantit`a pivotale `e una variabile aleatoria che sia funzione delle v.a. campionarie e del parametro θ e la cui legge sia nota e non dipenda dal parametro.

Nel caso di una v.a. X di legge Normale, X ∼ N (µ, σ2), quantit`a pivotali usate per gli intervalli di confidenza della media e della varianza sono:

X − µ σ/√

n

X − µ S/√

n

S2(n − 1) σ2

2. Intervalli di confidenza quando V(X) ` e funzione di E(X)

Sia X una variabile aleatoria tale che:

E(X) = φ(θ) e V(X) = h(φ(θ)) con φ funzione monotona ESEMPI

θ E(X)(= φ(θ)) V(X)(= h(φ(θ)))

Bernoulli p p p(1 − p)

Poisson λ λ λ

Geometrica p 1/p (1 − p)/p2

Esponenziale λ 1λ 1/λ2

A. Metodi approssimati.

Si basano sull’approssimazione della distribuzione di X con quella di una v.a. normale per grandi campioni :

X ∼ N



φ(θ),h(φ(θ)) n



ovvero X − φ(θ) qh(φ(θ))

n

∼ N (0, 1)

Da cui:

1 − α = P

−zα< X − φ(θ) qh(φ(θ))

n

< zα

 (1)

Si pu`o procedere in due modi: stimare la varianza di X con h(X) oppure risolvere in θ le disuguaglianze della formula (1).

A1. Stimando la varianza di X con h(X), la formula (1) diventa:

1 − α = P

−zα < X − φ(θ) qh(X)

n

< zα

= P

X − zα s

h(X)

n < φ(θ) < X + zα s

h(X) n

(7)

Se φ `e monotona crescente, l’intervallo di confidenza per θ a livello 1 − α `e:

φ−1

X − zα

s h(X)

n

, φ−1

X + zα

s h(X)

n

Se φ `e monotona decrescente, i limiti dell’intervallo di confidenza sono invertiti.

NOTA: Non si stima V(X) con lo stimatore S2 in quanto in tal modo si avrebbero due stime diverse per un solo parametro: φ−1(X) e uno funzione di S2 (ad esempio, se h fosse invertibile, φ−1(h−1(S2)).

A2. Si risolvono in θ le disuguaglianze della formula (1). Questo metodo pu`o comportare calcoli pi`u complicati ma produce intervalli pi`u precisi.

B. Metodi esatti.

Si usano quando si conosce una quantit`a pivotale che sia funzione diP Xi. ESEMPI

Esponenziale. Sia X ∼ E xp(λ)

A. Per grandi campioni, X ∼ N λ1,λ12n quindi la quantit`a pivotale `e X−1λ1 λ

n

A1. Si stima la standard deviation di X con Xn. Bisogna risolvere le disuguaglianze:

−zα < X − 1λ X/√

n < zα da cui

X



1 − zα

√n



< 1 λ < X



1 + zα

√n

 e quindi un intervallo di confidenza a livello 1 − α per λ `e:

1 X

1 1 + zαn

! , 1

X

1 1 − zαn

!!

A2. Bisogna risolvere in λ le disuguaglianze:

−zα < X − 1λ

1 λ

n

< zα

da cui

− zα

√n < λX − 1 < zα

√n

e quindi un intervallo di confidenza a livello 1 − α per λ `e:

 1 X



1 − zα

√n

 , 1

X



1 + zα

√n



Osserviamo che tale intervallo `e centrato in X1

(8)

Confrontiamo le ampiezze degli intervalli di confidenza trovati con i due metodi precedenti. Indichiamo con k la quantit`a zαn.

A1: 1

X 1

1−k1+k1  = 1

X 2k

1−k2 A2: 1

X (1 + k − 1 + k) = 1

X 2k

In entrambi i casi l’ampiezza dell’intervallo tende a 0 per n che tende all’infinito, ma con il metodo A2 l’ampiezza `e minore di quella trovata con il metodo A1.

B. Si ha: P Xi ∼ Γ(n, λ), quindi quantit`a pivotali sono:

2 λX

Xi ∼ χ2[2n] oppure 2 λ n X ∼ χ2[2n]

Tramite le tavole della distribuzione Chi quadro si possono trovare due valori c1 e c2 tali che:

1 − α = P c1 < 2 λ n X < c2 Quindi un intervallo di confidenza per λ a livello 1 − α `e:

 1 X

c1 2n, 1

X c2 2n

 .

Bernoulli. Sia X ∼ Bernoulli(p) Denotiamo come di consueto X con ˆP . A. Per grandi campioni la quantit`a pivotale `e qP −pˆ

p(1−p) n

A1. Si stima la standard deviation di ˆP con

qP (1− ˆˆ P ) n . Bisogna risolvere le disuguaglianze:

−zα < P − pˆ qP (1− ˆˆ P )

n

< zα

e quindi un intervallo di confidenza a livello 1 − α per pa `e:



P −ˆ zα

√n

qP (1 − ˆˆ P ), ˆP + zα

√n

qP (1 − ˆˆ P )



In questo caso particolare in cui P Xi e P Xi2 coincidono si potrebbe usare come stimatore di V( ˆP ) la v.a. S2ˆ

P: SP2ˆ = SX2

n = 1 n

 P Xi2

n − 1 − n n − 1 X2



= X

n − 1 − X2

n − 1 = 1 n − 1

P (1 − ˆˆ P )

L’intervallo di confidenza risulterebbe diverso dal precedente solo per la presenza di n − 1 al posto di n.

A2. Bisogna risolvere in p le disuguaglianze:

−zα< P − pˆ qp(1−p)

n

< zα

(9)

da cui

−zα

rp(1 − p)

n < ˆP − p < zα

rp(1 − p) n ovvero

 ˆP − p2

< zα2 p(1 − p) n Ponendo k = zn2α si ottiene la seguente disuguaglianza:

p2(1 + k) − p (k + 2 ˆP ) + ˆP2 < 0 Le soluzioni dell’equazione corrispondente sono:

k + 2 ˆP ± q

k2+ 4k ˆP (1 − ˆP ) 2(1 + k)

e quindi un intervallo di confidenza a livello 1 − α per p `e:

 P +ˆ z2nα2

1 +zn2α

−zα

q

zα

2n

2

+P (1− ˆˆ nP ) 1 +zn2α

,

P +ˆ z2nα2 1 +zn2α

+ zα

q

zα

2n

2

+P (1− ˆˆ nP ) 1 +zn2α

Poisson. Sia X ∼ Poisson(λ).

A. Per grandi campioni la quantit`a pivotale `e X−λ

λ n

A1. Si stima la standard deviation di X con qX

n. Un intervallo di confidenza a livello 1 − α per λ `e:

X − zα

s X

n, X + zα

s X

n

A2. Bisogna risolvere in λ le disuguaglianze:

−zα < X − λ qλ

n

< zα

da cui

λ2− λ



2X + z2α n



+ X2 < 0 Le soluzioni dell’equazione corrispondente sono:

X + zα2 2n ±

s

 zα2 2n

2

+ X zα2 n e quindi un intervallo di confidenza a livello 1 − α per p `e:

X + z2α 2n −

s

 z2α 2n

2

+ X zα2

n, X + zα2 2n +

s

 zα2 2n

2

+ X z2α n

(10)

Verifica di ipotesi: approfondimenti

1. Il p-value

Il test si pu`o effettuare:

• Determinando preventivamente le regioni di accettazione di H0e H1 per lo stimatore considerato (sulla base del livello α) e osservando a quale delle due appartiene la stima x ottenuta nel campione

• Calcolando il p-value della stima x e confrontandolo con α. Che cos’`e il p-value?

E la probabilit`` a sotto H0 di ottenere un valore campionario pi`u lontano dall’ipotesi principale e pi`u vicino all’alternativa di quello ottenuto effettivamente nel campione x

Sia la “forma” della regione di rifiuto di H0 sia il p-value dipendono dal tipo di ipotesi alternativa si considera:

unilaterale destra, unilaterale sinistra, bilaterale.

I grafici si riferiscono a diversi test sul valore atteso di X.

H0 : µ = µ0

H1 : µ > µ0 oppure H1 : µ < µ0 oppure H1 : µ 6= µ0 Il p-value deve essere confrontato con il livello di signi- ficativit`a del test. Se `e minore di α l’ipotesi principale

`

e rifiutata.

m0 p

p/2

m0 x p

m0 x m0 x

p

p/2

a

0 0

H accettata

H rifiutata1 H accettata1 H rifiutata

m0

Esempi

Consideriamo due test sul valore atteso di una variabile aleatoria X con distribuzione normale e varianza nota uguale a 4.

Si utilizza come statistica test la variabile aleatoria X.

Test unilaterale sinistro

H0 : µ = 10 H1 : µ < 10 La regione di rifiuto dell’ipotesi principale `e del tipo (−∞, c).

Sulla base di 36 osservazioni campionarie si ottiene un valore campionario x = 9.4 Il p-value `e:

p = P0 X < 9.4 = P X − 10

2/6 < 9.4 − 10 2/6



= P (Z < −1.8) = 0.03593 A livello di significativit`a del 5% si rifiuta l’ipotesi principale.

Test bilaterale

H0 : µ = 10 H1 : µ 6= 10

(11)

La regione di rifiuto dell’ipotesi principale `e del tipo (−∞, c1) ∪ (c2, ∞).

Sulla base di 36 osservazioni campionarie si ottiene un valore campionario x = 10.4.

La distanza, in valore assoluto, dall’ipotesi principale `e: δ = |10.4 − 10| = 0.4.

Il p-value `e:

p = P X − 10 < −0.4 + P X − 10 > 0.4 = P |X − 10| > 0.4

= 2 P X − 10

2/6 < −0.4 2/6



= 2 P (Z < −1.2) = 2/0.11507 = 0.23014 Alle soglie usuali di livello di significativit`a si accetta l’ipotesi principale.

2. La potenza di un test

La potenza di un test `e una funzione del parametro P (θ): `e la probabilit`a di accettare l’ipotesi alternativa H1.

Indichiamo con Θ0 l’insieme a cui appartiene il parametro quando H0 `e vera e con Θ1 l’insieme a cui appartiene il parametro quando H1 `e vera.

- Se θ ∈ Θ1, P (θ) `e la probabilit`a di effettuare la scelta corretta: P (θ) = 1−β(θ) - Se θ ∈ Θ0, P (θ) `e la probabilit`a di effettuare la scelta sbagliata: P (θ) = α(θ) Il grafico a fianco rappresenta la potenza del test:

H0 : µ ≤ 12 H1 : µ > 12

dove µ `e il valore atteso di una v.a. con legge normale di varianza nota pari a 2.

E evidenziato il valore della potenza e dell’errore di se-` conda specie in corrispondenza del valore di µ uguale a 13.5.

15 14 13 12 11 1.0

0.5

0.0

ipotesi alternativa H1 1-β(13.5) β

α 1-α

La probabilit`a di accettare l’ipotesi alternativa, quando questa `e vera, aumenta all’aumentare della numerosit`a campionaria.

Se nella popolazione `e vera l’ipotesi alternativa e se i valori del parametro sotto H1 e sotto H0 sono molto vicini, solo con grandi campioni si riesce ad avere una probabilit`a alta di effettuare la scelta corretta.

I grafici a fianco rappresentano la potenza del test:

H0 : µ ≤ 12 H1 : µ > 12 per due diverse numerosit`a campionarie.

Ad esempio, in corrispondenza di un valore atteso µ uguale a 13.5 si ha:

Pn1(13.5) ' 0.70 e Pn2(13.5) ' 0.95 con n1 < n2

15 14 13 12 11 1.0

0.5

0.0

ipotesi alternativa H1 1-β(13.5)

Confrontiamo ora la potenza di due test sul valore atteso di una v.a. con legge normale di varianza nota pari a 2, uno unilaterale e uno bilaterale.

(12)

I grafici a fianco rappresentano la potenza dei due test:

H0 : µ ≤ 12 H1 : µ > 12 a linea tratteggiata e

H0 : µ ≤ 12 H1 : µ 6= 12 a linea continua.

14 13 12 11 10 1.0 0.8 0.6 0.4 0.2 0.0

Osserviamo che il test unilaterale `e pi`u potente (ma non di molto) nell’insieme (12, +∞), mentre quello bilaterale `e molto pi`u potente nell’insieme (−∞, 12).

3. Determinazione della numerosit` a campionaria fissati α e β

Consideriamo un test sul valore atteso di una variabile con legge normale di varianza nota σ2 del tipo:

H0 : µ = µ0 H1 : µ = µ1

Vogliamo determinare la numerosit`a campionaria che assicura determinate probabilit`a di errore di prima e seconda specie. Indicando con s la soglia della regione di rifiuto di H0, se µ1 > µ0) si ha:

α = P X > s|µ = µ0 = P X − µ0 σ/√

n > s − µ0 σ/√

n



= P X − µ0 σ/√

n > zα



β = P X < s|µ = µ1 = P X − µ1 σ/√

n < s − µ1 σ/√

n



= P X − µ1 σ/√

n < −zβ



Dalle due equazioni:

s − µ0 σ/√

n = zα e s − µ1 σ/√

n = −zβ si ottiene:

n = (zα+ zβ)2 σ20− µ1)2 e questo vale anche nel caso µ1 < µ0.

Osserviamo che la numerosit`a campionaria deve essere tanto maggiore quanto pi`u:

- `e minore la distanza fra i valori attesi sotto le due ipotesi;

- `e maggiore la varianza;

- sono minori i due errori (e quindi zα e zβ maggiori).

4. Test di uguaglianza delle medie di due v.a. Normali sulla stessa popolazione

Consideriamo le variabili casuali X1 e X2 definite su una stessa popolazione con di- stribuzione normale rispettivamente N (µ1, σ1) e N (µ2, σ2). Si vuole verificare se i valori attesi delle due variabili sono uguali.

(13)

Essendo X1 e X2 definite sulla stessa popolazione, si pu`o considerare la variabile aleatoria D, differenza fra X1 e X2 su ogni elemento della popolazione:

D(ωi) = X1i) − X2i)

Tale variabile aleatoria ha distribuzione normale N (µD, σD); il valore atteso `e µ1− µ2 e la varianza `e σ12+ σ22− 2Cov(X1, X2), in genere sconosciuta.

Il test sull’uguaglianza dei valori attesi di X1 e X2 si riconduce al test sulla nullit`a del valore atteso di D, che viene effettuato tramite la quantit`a pivotale:

D − µD SD/√

n

Esempio

L’effetto di due sonniferi A e B `e stato provato nei riguardi di uno stesso gruppo di 10 persone sofferenti d’insonnia. Nella tabella sono riportate, indicandole con xA e xB le variazioni nelle ore di sonno provocate in ciascun paziente dalla sommi- nistrazione del sonnifero A e del sonnifero B. Si assume che le variazioni di ore di sonno siano modellabili con variabili alea- torie normali. Si vuole verificare l’ipotesi che i due sonniferi abbiano uguale efficacia. Nell’ultima colonna `e riportata la differenza fra xA e xB.

paz. xA xB d 1 1.9 0.7 1.2 2 0.8 -1.6 2.4 3 1.1 -0.2 1.3 4 0.1 -1.2 1.3 5 -0.1 -0.1 0.0 6 4.4 3.4 1.0 7 5.5 3.7 1.8 8 1.6 0.8 0.8 9 4.6 0.0 4.6 10 3.4 2.0 1.4 La media campionaria di D `e 1.58 e la varianza campionaria `e 1.513, quindi la realiz- zazione campionaria della quantit`a pivotale sotto l’ipotesi di uguaglianza dell’effetto dei sonniferi vale: 0.3891.58 = 4.06 per cui viene rifiutata l’ipotesi di uguaglianza dell’effetto.

5. Test di uguaglianza delle varianze di due v.a. Normali

Consideriamo le variabili casuali X1 e X2 indipendenti con distribuzione normale ri- spettivamente N (µ1, σ1) e N (µ2, σ2). Si vuole verificare, sulla base di informazioni tratte da due campioni di X1 e X2, se le varianze delle due variabili sono uguali. Pi`u precisamente le ipotesi del test sono:

H0 : σ21 = σ22 e H1 : σ12 6= σ22

Indichiamo rispettivamente con n1 e n2 le numerosit`a dei due campioni di X1 e X2. Consideriamo le variabili casuali S12 e S22, varianze campionarie di X1 e X2. Si ha:

S12(n1− 1)

σ12 ∼ χ2[n1−1] e S22(n2− 1)

σ22 ∼ χ2[n2−1]

Inoltre tali variabili sono indipendenti, essendo X1 e X2 indipendenti e cos`ı S12 e S22. Ricordiamo che il rapporto di due variabili aleatorie indipendenti, ciascuna con legge chi-quadro divise per i loro gradi di libert`a `e una variabile aleatoria con legge F di Fisher.

Consideriamo la quantit`a pivotale:

S12 S22

σ22 σ12

(14)

Se H0 `e vera, la statistica F :

F = S12 S22 ha legge F[n1−1,n2−1].

Il test `e bilaterale e la regione di rifiuto dell’ipotesi principale `e:

[0, c1] ∪ [c2, +∞) con α1 = P(F < c1) , α2 = P(F > c2) e α1+ α2 = α Per un test unilaterale del tipo:

H0 : σ21 = σ22 e H1 : σ12 > σ22 allora la regione di rifiuto dell’ipotesi principale `e:

[c, +∞) con α = P(F > c) e simmetricamente per un test unilaterale sinistro.

Determinazione dei quantili “sinistri” di una v.a. di Fisher

Le tavole della legge di Fisher tipicamente forniscono i valori dei quantili “destri”, cio`e permettono di determinare, per α fissato (al 5% e all’1%), il valore di c tale che

α = P(F > c) Se F ∼ F[n1−1,n2−1] allora:

α = P(F > c) = P 1 F < 1

c



con 1

F ∼ F[n2−1,n1−1]

quindi sulle tavole si legge il valore 1/c e si calcola c.

6. Confronto fra intervalli di confidenza e test

Consideriamo una variabile aleatoria X di valore atteso µ.

Indichiamo con:

- kB = zα σ

n semi ampiezza dell’intervallo di confidenza bilaterale - kU = zα σn

Si ha:

Tipo Intervallo di confidenza Regione di accettazione di H0 bilaterale (x − kB, x + kB) (µ0− kB, µ0+ kB) unilaterale destro (−∞, x + kU) (−∞, µ0+ kU) unilaterale sinistro (x − kU, +∞) (µ0− kU, +∞)

Osserviamo che l’intervallo di confidenza per µ dipende da x, mentre la regione di accettazione di H0 dipende da µ0.

Riferimenti

Documenti correlati

Tuttavia, questa variabile pu` o essere osservata solo se ` e positiva, poich` e se vale 0 non possiamo sapere se l’insetto studiato fosse effettivamente presente su quella foglia..

Identi…care, attorno alla retta d = 2, una banda simmetrica (identi…- care cioè due rette d = 2 , quelle indicate con UCL e LCL in …gura) con la proprietà che, se il processo

14.. sono punti di discontinuit`a eliminabile. a)La funzione f ha due punti angolosi in x = ±1, come si vede facilmente anche disegnandone il grafico... Si pu`o quindi applicare

[r]

Il carattere &#34;occhi chiari&#34; e' presente nel 10% degli animali a pelo scuro, nel 50% di quelli a pelo chiaro e in nessuno degli esemplari a pelo chiazzato.  Determinare

I fiori di una determinata specie sono divisi a seconda del colore dei petali nel modo seguente:. 30% colore azzurro 50% colore rosa 20%

Perci` o l’u- tilizzo della disuguaglianza di Chebyshev `e limitato ai casi in cui non `e nota la forma della distribuzione della variabile casuale... Sia X la variabile

Problema: Da un’urna contenente sei palline, numerate da 1 a 6, se ne estraggono due senza rimpiazzo (cioè senza reinserire ciascuna pallina estratta nell’urna, in modo che le