Legge Gamma e Legge Chi quadro
Sia G una variabile aleatoria di legge Gamma di parametri a e λ reali positivi, G ∼ Γ(a, λ), la cui funzione di densit`a `e:
fG(x) = λa
Γ(a) e−λx xa−1 per x ≥ 0 dove Γ(·) `e la funzione Gamma completa: Γ(a) =R+∞
0 e−x xa−1dx che ha le propriet`a:
- Γ(a) = (a − 1)Γ(a − 1) e in particolare per gli interi Γ(n) = (n − 1)!
- Γ 2n = (n−2)!!2(n−1)/2√π per n dispari e Γ n2 = 2(n−2)!!(n−2)/2 per n pari.
Sia Y la variabile aleatoria definita come:
Y = ϕ(G) = λG
Si ha: Y ∼ Γ(a, 1). Infatti, per la formula di cambiamento di variabile la densit`a di Y `e:
fY(y) = fX ϕ−1(y) d ϕ−1(y)
dx = λa
Γ(a) e−λyλ y λ
a−1 1 λ = 1
Γ(a) e−y ya−1 Il parametro λ viene usualmente chiamato “parametro di scala”.
(fare attenzione che nei software statistici spesso il parametro di scala `e 1/λ).
Sia Cn una variabile aleatoria di legge Chi quadro a n gradi di libert`a Cn ∼ χ[n]. Si ha:
Cn∼ Γ n 2,1
2
Quindi se M = 12Cn, allora M ∼ Γ n2, 1
Concludendo si ha che la variabile aleatoria G pu`o essere approssimata utilizzando una variabile aleatoria di legge Chi quadro con un numero di gradi di libert`a pari all’intero pi`u vicino a 2a (si ha l’uguaglianza per a intero):
C2a = 2λG
Si possono perci`o utilizzare le tavole della legge Chi quadro per trovare i quantili della legge Gamma nel seguente modo:
α = IP (G > lα) = IP (2λ G > 2λ lα) = IP (C2a > 2λ lα) e quindi
lα = 1 2λ cα
Stimatori: approfondimenti
1. Stimatori preferibili e ammissibili
Siano U e V stimatori di un parametro θ.
1. U si dice preferibile a V se:
MSEU(θ) ≤ MSEV(θ) ∀θ
Se per almeno un θ vale la disuguaglianza stretta si dice che U `e strettamente preferibile a V .
2. Se non esistono stimatori preferibili a U allora U `e detto ammissibile.
ESEMPI
Uniforme Sia X ∼ U nif orm(0, θ) Consideriamo i due stimatori di θ:
T = max Xi R = 2X
A fianco sono riportate le due distribuzioni di T e R, nel caso in cui θ = 5.
Si ha (si veda la dimostrazione sul libro a pag. 171-3): 0 5 10
2
1
0
θ
M SET(θ) = 2 θ2
(n + 2)(n + 1) M SER(θ) = 1 3 nθ2 Quindi T `e preferibile a R; infatti:
MSET(θ) ≤ MSER(θ) ∀θ Bernoulli Sia X ∼ Bernoulli(p)
Indichiamo con Sn la v.a. P Xi. Consideriamo i due stimatori di p : P = X =ˆ Sn
n e R = Sn+ a
n + a + b
R `e uno stimatore che dipende da due parametri reali positivi a e b che permettono di utilizzare informazioni a priori sul parametro p (R `e uno stimatore bayesiano). Si ha:
M SEPˆ(p) = p(1 − p) n
M SER(p) = p2 (a + b)2− n + p(n − 2a(a + b)) + a2 (n + a + b)2
In entrambi i casi i MSE sono delle parabole con la concavit`a verso il basso. Si ha
M SER(0) = a2
(n + a + b)2 e M SER(1) = b2 (n + a + b)2 A fianco sono riportati a linea continua il grafico di M SEPˆ(p) e a linea tratteggiata quelli di M SER(p) per diverse scelte dei parametri a e b.
Entrambi gli stimatori sono ammissibili. 0.0 0.2 0.4 0.6 0.8 1. 0
0.025 0.020 0.015 0.010 0.005 0.000
2. Linearit` a del valore atteso e sua applicazione agli stimatori
Sia X una variabile aleatoria. Se a e b sono costanti reali, si ha:
E(aX + b) = aE(X) + b cio`e, se g `e una funzione lineare, si ha:
E(g(X)) = g(E(X)) . Applichiamo questo risultato agli stimatori.
Se T `e uno stimatore di una parametro θ con E(T ) = a + bθ, allora R = T − a
b `e stimatore non distorto di θ . ESEMPI
Normale Sia X ∼ N (µ, σ2) Lo stimatore T =
P
i(Xi−X)2
n `e stimatore di σ2 con E(T ) = n−1n σ2; quindi S2 = n−1n T
`
e stimatore non distorto di σ2.
Uniforme Sia X ∼ U nif orm(0, θ)
Lo stimatore T = max{Xi} `e stimatore di θ con E(T ) = n+1n θ; quindi R = n+1n T `e stimatore non distorto di θ.
3. Disuguaglianza di Jensen e sua applicazione agli stimatori
Sia X una variabile aleatoria.
1. Se g `e una funzione convessa si ha:
E(g(X)) ≥ g(E(X)) Caso notevole: E(X2) ≥ E(X)2.
2. Se g `e una funzione concava si ha:
E(g(X)) ≤ g(E(X))
Applichiamo questo risultato agli stimatori.
ESEMPI
Esponenziale. Stimatore di λ. Sia X ∼ E xp(λ) Si ha: E(X) = E(X) = λ1. T = X1 `e stimatore di λ e si ha:
E
1 X
≥ 1
E(X)
ovvero E
1 X
≥ λ
Possiamo dire che 1
X “sovrastima in media” λ.
Facendo i calcoli esatti si ottiene E X1 = n−1n λ, che `e - appunto - maggiore di λ.
Normale. Stimatore di σ. Sia X ∼ N (µ, σ2)
S2 `e stimatore non distorto di σ2. Consideriamo S, S =√
S2, stimatore di σ; si ha:
E(S) ≤
√
σ2 ovvero E(S) ≤ σ Possiamo dire che S “sottostima in media” σ.
Facendo i calcoli esatti si ottiene E(S) = (n−3)!!(n−2)!!√n−1 σ, che `e - appunto - minore di σ.
3. Calcoli espliciti per i valori attesi di alcuni stimatori
ESEMPI
Esponenziale. Stimatore di λ. Sia X ∼ E xp(λ). Si ha: E(X) = 1λ. Indichiamo con Y la v.a. P Xi. Si ha: Y ∼ Γ(n, λ).
La v.a. T = ψ(Y ) = P Xn
i `e stimatore di λ. Il valore atteso di T `e:
E(T ) = Z
ψ(y)fY(y)dy = Z +∞
0
n y
λn
(n − 1)! e−λ y yn−1 dy
= n
n − 1 λ Z +∞
0
λn−1
(n − 2)! e−λ y yn−2 dy = n n − 1 λ Quindi stimatore non distorto di λ `e:
T1 = n P Xi
Normale. Stimatore di σ. Sia X ∼ N (µ, σ2) Stimatore non distorto di σ2 `e S2 =
P(Xi−X)2
n−1 . Indichiamo con Y la v.a.
P(Xi−X)2
σ2 . Si ha: Y ∼ Γ n−12 ,12.
La v.a. S, S = √
S2 `e stimatore di σ. Il valore atteso di S `e:
E(S) = E
r Y
n − 1 σ
!
= σ
√n − 1
Z +∞
0
y1/2
1 2
(n−1)/2
Γ n−12 e−y/2y(n−1)/2−1 dy
= σ
√n − 1
Z +∞
0 1 2
n/2−1/2
Γ n2 −12 Γ n2 Γ n2 e
−y/2 yn/2−1 dy = σ
r 2
n − 1
Γ n2 Γ n−12 Stimatore non distorto di σ `e quindi:
qX
Xi − X2 Γ n−12
√2 Γ n2
Possiamo ulteriormente sviluppare lo stimatore, utilizzando la seguente propriet`a della funzione gamma completa:
Γn 2
= (n − 2)!!
2(n−1)/2
√π per n dispari e Γn 2
= (n − 2)!!
2(n−2)/2 per n pari Per cui, a seconda se n `e pari o dispari, uno stimatore non distorto di σ `e:
q
P Xi− X2 (n−2)!!
(n−3)!!
pπ
2
per n dispari e q
P Xi− X2 (n−2)!!
(n−3)!!
q2 π
per n pari
Intervalli di confidenza: approfondimenti
1. Quantit` a pivotale
Sia X una variabile aleatoria con legge dipendente da un parametro θ (detto anche parametro naturale) su cui si vuol fare inferenza.
Una quantit`a pivotale `e una variabile aleatoria che sia funzione delle v.a. campionarie e del parametro θ e la cui legge sia nota e non dipenda dal parametro.
Nel caso di una v.a. X di legge Normale, X ∼ N (µ, σ2), quantit`a pivotali usate per gli intervalli di confidenza della media e della varianza sono:
X − µ σ/√
n
X − µ S/√
n
S2(n − 1) σ2
2. Intervalli di confidenza quando V(X) ` e funzione di E(X)
Sia X una variabile aleatoria tale che:
E(X) = φ(θ) e V(X) = h(φ(θ)) con φ funzione monotona ESEMPI
θ E(X)(= φ(θ)) V(X)(= h(φ(θ)))
Bernoulli p p p(1 − p)
Poisson λ λ λ
Geometrica p 1/p (1 − p)/p2
Esponenziale λ 1λ 1/λ2
A. Metodi approssimati.
Si basano sull’approssimazione della distribuzione di X con quella di una v.a. normale per grandi campioni :
X ∼ N
φ(θ),h(φ(θ)) n
ovvero X − φ(θ) qh(φ(θ))
n
∼ N (0, 1)
Da cui:
1 − α = P
−zα< X − φ(θ) qh(φ(θ))
n
< zα
(1)
Si pu`o procedere in due modi: stimare la varianza di X con h(X) oppure risolvere in θ le disuguaglianze della formula (1).
A1. Stimando la varianza di X con h(X), la formula (1) diventa:
1 − α = P
−zα < X − φ(θ) qh(X)
n
< zα
= P
X − zα s
h(X)
n < φ(θ) < X + zα s
h(X) n
Se φ `e monotona crescente, l’intervallo di confidenza per θ a livello 1 − α `e:
φ−1
X − zα
s h(X)
n
, φ−1
X + zα
s h(X)
n
Se φ `e monotona decrescente, i limiti dell’intervallo di confidenza sono invertiti.
NOTA: Non si stima V(X) con lo stimatore S2 in quanto in tal modo si avrebbero due stime diverse per un solo parametro: φ−1(X) e uno funzione di S2 (ad esempio, se h fosse invertibile, φ−1(h−1(S2)).
A2. Si risolvono in θ le disuguaglianze della formula (1). Questo metodo pu`o comportare calcoli pi`u complicati ma produce intervalli pi`u precisi.
B. Metodi esatti.
Si usano quando si conosce una quantit`a pivotale che sia funzione diP Xi. ESEMPI
Esponenziale. Sia X ∼ E xp(λ)
A. Per grandi campioni, X ∼ N λ1,λ12n quindi la quantit`a pivotale `e X−1λ1 λ√
n
A1. Si stima la standard deviation di X con √Xn. Bisogna risolvere le disuguaglianze:
−zα < X − 1λ X/√
n < zα da cui
X
1 − zα
√n
< 1 λ < X
1 + zα
√n
e quindi un intervallo di confidenza a livello 1 − α per λ `e:
1 X
1 1 + √zαn
! , 1
X
1 1 − √zαn
!!
A2. Bisogna risolvere in λ le disuguaglianze:
−zα < X − 1λ
1 λ √
n
< zα
da cui
− zα
√n < λX − 1 < zα
√n
e quindi un intervallo di confidenza a livello 1 − α per λ `e:
1 X
1 − zα
√n
, 1
X
1 + zα
√n
Osserviamo che tale intervallo `e centrato in X1
Confrontiamo le ampiezze degli intervalli di confidenza trovati con i due metodi precedenti. Indichiamo con k la quantit`a √zαn.
A1: 1
X 1
1−k− 1+k1 = 1
X 2k
1−k2 A2: 1
X (1 + k − 1 + k) = 1
X 2k
In entrambi i casi l’ampiezza dell’intervallo tende a 0 per n che tende all’infinito, ma con il metodo A2 l’ampiezza `e minore di quella trovata con il metodo A1.
B. Si ha: P Xi ∼ Γ(n, λ), quindi quantit`a pivotali sono:
2 λX
Xi ∼ χ2[2n] oppure 2 λ n X ∼ χ2[2n]
Tramite le tavole della distribuzione Chi quadro si possono trovare due valori c1 e c2 tali che:
1 − α = P c1 < 2 λ n X < c2 Quindi un intervallo di confidenza per λ a livello 1 − α `e:
1 X
c1 2n, 1
X c2 2n
.
Bernoulli. Sia X ∼ Bernoulli(p) Denotiamo come di consueto X con ˆP . A. Per grandi campioni la quantit`a pivotale `e qP −pˆ
p(1−p) n
A1. Si stima la standard deviation di ˆP con
qP (1− ˆˆ P ) n . Bisogna risolvere le disuguaglianze:
−zα < P − pˆ qP (1− ˆˆ P )
n
< zα
e quindi un intervallo di confidenza a livello 1 − α per pa `e:
P −ˆ zα
√n
qP (1 − ˆˆ P ), ˆP + zα
√n
qP (1 − ˆˆ P )
In questo caso particolare in cui P Xi e P Xi2 coincidono si potrebbe usare come stimatore di V( ˆP ) la v.a. S2ˆ
P: SP2ˆ = SX2
n = 1 n
P Xi2
n − 1 − n n − 1 X2
= X
n − 1 − X2
n − 1 = 1 n − 1
P (1 − ˆˆ P )
L’intervallo di confidenza risulterebbe diverso dal precedente solo per la presenza di n − 1 al posto di n.
A2. Bisogna risolvere in p le disuguaglianze:
−zα< P − pˆ qp(1−p)
n
< zα
da cui
−zα
rp(1 − p)
n < ˆP − p < zα
rp(1 − p) n ovvero
ˆP − p2
< zα2 p(1 − p) n Ponendo k = zn2α si ottiene la seguente disuguaglianza:
p2(1 + k) − p (k + 2 ˆP ) + ˆP2 < 0 Le soluzioni dell’equazione corrispondente sono:
k + 2 ˆP ± q
k2+ 4k ˆP (1 − ˆP ) 2(1 + k)
e quindi un intervallo di confidenza a livello 1 − α per p `e:
P +ˆ z2nα2
1 +zn2α
−zα
q
zα
2n
2
+P (1− ˆˆ nP ) 1 +zn2α
,
P +ˆ z2nα2 1 +zn2α
+ zα
q
zα
2n
2
+P (1− ˆˆ nP ) 1 +zn2α
Poisson. Sia X ∼ Poisson(λ).
A. Per grandi campioni la quantit`a pivotale `e X−λ√
λ n
A1. Si stima la standard deviation di X con qX
n. Un intervallo di confidenza a livello 1 − α per λ `e:
X − zα
s X
n, X + zα
s X
n
A2. Bisogna risolvere in λ le disuguaglianze:
−zα < X − λ qλ
n
< zα
da cui
λ2− λ
2X + z2α n
+ X2 < 0 Le soluzioni dell’equazione corrispondente sono:
X + zα2 2n ±
s
zα2 2n
2
+ X zα2 n e quindi un intervallo di confidenza a livello 1 − α per p `e:
X + z2α 2n −
s
z2α 2n
2
+ X zα2
n, X + zα2 2n +
s
zα2 2n
2
+ X z2α n
Verifica di ipotesi: approfondimenti
1. Il p-value
Il test si pu`o effettuare:
• Determinando preventivamente le regioni di accettazione di H0e H1 per lo stimatore considerato (sulla base del livello α) e osservando a quale delle due appartiene la stima x ottenuta nel campione
• Calcolando il p-value della stima x e confrontandolo con α. Che cos’`e il p-value?
E la probabilit`` a sotto H0 di ottenere un valore campionario pi`u lontano dall’ipotesi principale e pi`u vicino all’alternativa di quello ottenuto effettivamente nel campione x
Sia la “forma” della regione di rifiuto di H0 sia il p-value dipendono dal tipo di ipotesi alternativa si considera:
unilaterale destra, unilaterale sinistra, bilaterale.
I grafici si riferiscono a diversi test sul valore atteso di X.
H0 : µ = µ0
H1 : µ > µ0 oppure H1 : µ < µ0 oppure H1 : µ 6= µ0 Il p-value deve essere confrontato con il livello di signi- ficativit`a del test. Se `e minore di α l’ipotesi principale
`
e rifiutata.
m0 p
p/2
m0 x p
m0 x m0 x
p
p/2
a
0 0
H accettata
H rifiutata1 H accettata1 H rifiutata
m0
Esempi
Consideriamo due test sul valore atteso di una variabile aleatoria X con distribuzione normale e varianza nota uguale a 4.
Si utilizza come statistica test la variabile aleatoria X.
Test unilaterale sinistro
H0 : µ = 10 H1 : µ < 10 La regione di rifiuto dell’ipotesi principale `e del tipo (−∞, c).
Sulla base di 36 osservazioni campionarie si ottiene un valore campionario x = 9.4 Il p-value `e:
p = P0 X < 9.4 = P X − 10
2/6 < 9.4 − 10 2/6
= P (Z < −1.8) = 0.03593 A livello di significativit`a del 5% si rifiuta l’ipotesi principale.
Test bilaterale
H0 : µ = 10 H1 : µ 6= 10
La regione di rifiuto dell’ipotesi principale `e del tipo (−∞, c1) ∪ (c2, ∞).
Sulla base di 36 osservazioni campionarie si ottiene un valore campionario x = 10.4.
La distanza, in valore assoluto, dall’ipotesi principale `e: δ = |10.4 − 10| = 0.4.
Il p-value `e:
p = P X − 10 < −0.4 + P X − 10 > 0.4 = P |X − 10| > 0.4
= 2 P X − 10
2/6 < −0.4 2/6
= 2 P (Z < −1.2) = 2/0.11507 = 0.23014 Alle soglie usuali di livello di significativit`a si accetta l’ipotesi principale.
2. La potenza di un test
La potenza di un test `e una funzione del parametro P (θ): `e la probabilit`a di accettare l’ipotesi alternativa H1.
Indichiamo con Θ0 l’insieme a cui appartiene il parametro quando H0 `e vera e con Θ1 l’insieme a cui appartiene il parametro quando H1 `e vera.
- Se θ ∈ Θ1, P (θ) `e la probabilit`a di effettuare la scelta corretta: P (θ) = 1−β(θ) - Se θ ∈ Θ0, P (θ) `e la probabilit`a di effettuare la scelta sbagliata: P (θ) = α(θ) Il grafico a fianco rappresenta la potenza del test:
H0 : µ ≤ 12 H1 : µ > 12
dove µ `e il valore atteso di una v.a. con legge normale di varianza nota pari a 2.
E evidenziato il valore della potenza e dell’errore di se-` conda specie in corrispondenza del valore di µ uguale a 13.5.
15 14 13 12 11 1.0
0.5
0.0
ipotesi alternativa H1 1-β(13.5) β
α 1-α
La probabilit`a di accettare l’ipotesi alternativa, quando questa `e vera, aumenta all’aumentare della numerosit`a campionaria.
Se nella popolazione `e vera l’ipotesi alternativa e se i valori del parametro sotto H1 e sotto H0 sono molto vicini, solo con grandi campioni si riesce ad avere una probabilit`a alta di effettuare la scelta corretta.
I grafici a fianco rappresentano la potenza del test:
H0 : µ ≤ 12 H1 : µ > 12 per due diverse numerosit`a campionarie.
Ad esempio, in corrispondenza di un valore atteso µ uguale a 13.5 si ha:
Pn1(13.5) ' 0.70 e Pn2(13.5) ' 0.95 con n1 < n2
15 14 13 12 11 1.0
0.5
0.0
ipotesi alternativa H1 1-β(13.5)
Confrontiamo ora la potenza di due test sul valore atteso di una v.a. con legge normale di varianza nota pari a 2, uno unilaterale e uno bilaterale.
I grafici a fianco rappresentano la potenza dei due test:
H0 : µ ≤ 12 H1 : µ > 12 a linea tratteggiata e
H0 : µ ≤ 12 H1 : µ 6= 12 a linea continua.
14 13 12 11 10 1.0 0.8 0.6 0.4 0.2 0.0
Osserviamo che il test unilaterale `e pi`u potente (ma non di molto) nell’insieme (12, +∞), mentre quello bilaterale `e molto pi`u potente nell’insieme (−∞, 12).
3. Determinazione della numerosit` a campionaria fissati α e β
Consideriamo un test sul valore atteso di una variabile con legge normale di varianza nota σ2 del tipo:
H0 : µ = µ0 H1 : µ = µ1
Vogliamo determinare la numerosit`a campionaria che assicura determinate probabilit`a di errore di prima e seconda specie. Indicando con s la soglia della regione di rifiuto di H0, se µ1 > µ0) si ha:
α = P X > s|µ = µ0 = P X − µ0 σ/√
n > s − µ0 σ/√
n
= P X − µ0 σ/√
n > zα
β = P X < s|µ = µ1 = P X − µ1 σ/√
n < s − µ1 σ/√
n
= P X − µ1 σ/√
n < −zβ
Dalle due equazioni:
s − µ0 σ/√
n = zα e s − µ1 σ/√
n = −zβ si ottiene:
n = (zα+ zβ)2 σ2 (µ0− µ1)2 e questo vale anche nel caso µ1 < µ0.
Osserviamo che la numerosit`a campionaria deve essere tanto maggiore quanto pi`u:
- `e minore la distanza fra i valori attesi sotto le due ipotesi;
- `e maggiore la varianza;
- sono minori i due errori (e quindi zα e zβ maggiori).
4. Test di uguaglianza delle medie di due v.a. Normali sulla stessa popolazione
Consideriamo le variabili casuali X1 e X2 definite su una stessa popolazione con di- stribuzione normale rispettivamente N (µ1, σ1) e N (µ2, σ2). Si vuole verificare se i valori attesi delle due variabili sono uguali.
Essendo X1 e X2 definite sulla stessa popolazione, si pu`o considerare la variabile aleatoria D, differenza fra X1 e X2 su ogni elemento della popolazione:
D(ωi) = X1(ωi) − X2(ωi)
Tale variabile aleatoria ha distribuzione normale N (µD, σD); il valore atteso `e µ1− µ2 e la varianza `e σ12+ σ22− 2Cov(X1, X2), in genere sconosciuta.
Il test sull’uguaglianza dei valori attesi di X1 e X2 si riconduce al test sulla nullit`a del valore atteso di D, che viene effettuato tramite la quantit`a pivotale:
D − µD SD/√
n
Esempio
L’effetto di due sonniferi A e B `e stato provato nei riguardi di uno stesso gruppo di 10 persone sofferenti d’insonnia. Nella tabella sono riportate, indicandole con xA e xB le variazioni nelle ore di sonno provocate in ciascun paziente dalla sommi- nistrazione del sonnifero A e del sonnifero B. Si assume che le variazioni di ore di sonno siano modellabili con variabili alea- torie normali. Si vuole verificare l’ipotesi che i due sonniferi abbiano uguale efficacia. Nell’ultima colonna `e riportata la differenza fra xA e xB.
paz. xA xB d 1 1.9 0.7 1.2 2 0.8 -1.6 2.4 3 1.1 -0.2 1.3 4 0.1 -1.2 1.3 5 -0.1 -0.1 0.0 6 4.4 3.4 1.0 7 5.5 3.7 1.8 8 1.6 0.8 0.8 9 4.6 0.0 4.6 10 3.4 2.0 1.4 La media campionaria di D `e 1.58 e la varianza campionaria `e 1.513, quindi la realiz- zazione campionaria della quantit`a pivotale sotto l’ipotesi di uguaglianza dell’effetto dei sonniferi vale: 0.3891.58 = 4.06 per cui viene rifiutata l’ipotesi di uguaglianza dell’effetto.
5. Test di uguaglianza delle varianze di due v.a. Normali
Consideriamo le variabili casuali X1 e X2 indipendenti con distribuzione normale ri- spettivamente N (µ1, σ1) e N (µ2, σ2). Si vuole verificare, sulla base di informazioni tratte da due campioni di X1 e X2, se le varianze delle due variabili sono uguali. Pi`u precisamente le ipotesi del test sono:
H0 : σ21 = σ22 e H1 : σ12 6= σ22
Indichiamo rispettivamente con n1 e n2 le numerosit`a dei due campioni di X1 e X2. Consideriamo le variabili casuali S12 e S22, varianze campionarie di X1 e X2. Si ha:
S12(n1− 1)
σ12 ∼ χ2[n1−1] e S22(n2− 1)
σ22 ∼ χ2[n2−1]
Inoltre tali variabili sono indipendenti, essendo X1 e X2 indipendenti e cos`ı S12 e S22. Ricordiamo che il rapporto di due variabili aleatorie indipendenti, ciascuna con legge chi-quadro divise per i loro gradi di libert`a `e una variabile aleatoria con legge F di Fisher.
Consideriamo la quantit`a pivotale:
S12 S22
σ22 σ12
Se H0 `e vera, la statistica F :
F = S12 S22 ha legge F[n1−1,n2−1].
Il test `e bilaterale e la regione di rifiuto dell’ipotesi principale `e:
[0, c1] ∪ [c2, +∞) con α1 = P(F < c1) , α2 = P(F > c2) e α1+ α2 = α Per un test unilaterale del tipo:
H0 : σ21 = σ22 e H1 : σ12 > σ22 allora la regione di rifiuto dell’ipotesi principale `e:
[c, +∞) con α = P(F > c) e simmetricamente per un test unilaterale sinistro.
Determinazione dei quantili “sinistri” di una v.a. di Fisher
Le tavole della legge di Fisher tipicamente forniscono i valori dei quantili “destri”, cio`e permettono di determinare, per α fissato (al 5% e all’1%), il valore di c tale che
α = P(F > c) Se F ∼ F[n1−1,n2−1] allora:
α = P(F > c) = P 1 F < 1
c
con 1
F ∼ F[n2−1,n1−1]
quindi sulle tavole si legge il valore 1/c e si calcola c.
6. Confronto fra intervalli di confidenza e test
Consideriamo una variabile aleatoria X di valore atteso µ.
Indichiamo con:
- kB = zα √σ
n semi ampiezza dell’intervallo di confidenza bilaterale - kU = zα∗ √σn
Si ha:
Tipo Intervallo di confidenza Regione di accettazione di H0 bilaterale (x − kB, x + kB) (µ0− kB, µ0+ kB) unilaterale destro (−∞, x + kU) (−∞, µ0+ kU) unilaterale sinistro (x − kU, +∞) (µ0− kU, +∞)
Osserviamo che l’intervallo di confidenza per µ dipende da x, mentre la regione di accettazione di H0 dipende da µ0.