10 Campionamento
Gli statistici si basano sulle leggi fondamentali della probabilit` a e dell’inferenza statistica per giungere a conclusioni sui sistemi scientifici studiati. L’obietti- vo `e generalizzare l’esperimento singolo alla classe di tutti gli esperimenti simili, operando un’estensione dal particolare al generale, detta INFERENZA IN- DUTTIVA.
L’inferenza induttiva `e perci` o un processo d’azzardo:
non si possono fare generalizzazioni assolutamente certe, si possono fare inferenze incerte e misurare il grado di incertezza in termini di probabilit` a.
DEFINIZIONE: La totalit` a delle osservazioni a cui siamo interessati `e detta POPOLAZIONE OBIET- TIVO (il numero delle osservazioni pu` o essere finito o infinito).
Essendo poco pratico esaminare l’intera popolazio- ne, si pu` o esaminare una sua parte e fare inferenza sulla popolazione obiettivo.
DEFINIZIONE: Un sottoinsieme della popolazione
`e detta CAMPIONE.
Perch`e il campione sia rappresentativo della popola-
zione `e necessario che il campionamento sia casuale.
Nel campionamento casuale semplice ogni campione di una determinata dimensione ha la stessa probabi- lit` a di essere selezionato di qualsiasi altro campione della stessa dimensione (campionamenti indipenden- ti).
Supponiamo che la popolazione sia caratterizzata da una certa funzione di densit` a f (x). Scegliendo un campione casuale di dimensione n dalla popolazione f (x), definiamo la variabile casuale X
i, i = 1, ..., n per rappresentare la i−esima misura del campione che si osserva.
X
1, ..., X
nsono un campione casuale semplice otte- nuto da f (x) se le misure sono state ottenute ripe- tendo l’esperimento n volte in modo indipendente e alle stesse condizioni ⇒ X
1, ..., X
nsono n variabili casuali indipendenti con la stessa densit` a di proba- bilit` a f (x).
DEFINIZIONE: Siano X
1, ..., X
nn variabili casuali indipendenti con funzione di densit` a f (x). X
1, ..., X
n`e detto CAMPIONE CASUALE di dimensione n se
f
X1,...,Xn(x
1, ..., x
n) = f (x
1) . . . f (x
n)
(la funzione di densit` a congiunta `e uguale al prodotto delle funzioni di densit` a marginali).
DEFINIZIONE: Il campione casuale viene chiamato POPOLAZIONE CAMPIONATA.
La distribuzione congiunta
f
X1,...,Xn(x
1, ..., x
n) = f (x
1) . . . f (x
n)
`e detta DISTRIBUZIONE CAMPIONARIA del cam- pione X
1, ..., X
n.
Lo scopo principale nel selezionare campioni casuali
`e quello di ottenere informazioni riguardo alcuni pa- rametri sconosciuti della popolazione obiettivo. Cio`e
`e nota la forma di f (·, θ), ma f contiene un parame- tro incognito θ.
PROCEDIMENTO: Si estrae un campione casuale X
1, ..., X
ndi dimensione n dalla densit` a f (·, θ) e si stima il parametro incognito θ con il valore di una qualche funzione t(X
1, ..., X
n). Infine si determina quale tra queste funzioni sia la migliore per stimare il parametro θ.
DEFINIZIONE: Una funzione t delle variabili casua-
li X
1, ..., X
nche costituiscono il campione casuale `e
detta STATISTICA.
La statistica t(X
1, ..., X
n) `e a sua volta una variabile casuale che NON contiene alcun parametro incogni- to.
Esempi di statistiche utilizzate per misurare il centro di una serie di dati sono la media, la mediana e la moda, qui di seguito definite.
Dato un campione casuale X
1, ..., X
ndi dimensione n, si definiscono:
− MEDIA CAMPIONARIA X
n= 1
n
n
X
i=1
X
i− MEDIANA CAMPIONARIA X = ˜
X
n+12
se n `e dispari ,
1 2
X
n2
+ X
n2+1
se n `e pari ,
− MODA CAMPIONARIA
E il valore del campione che si presenta pi` ` u fre- quentemente.
Altre importanti statistiche sono le seguenti:
DEFINIZIONE: Dato X
1, ..., X
ncampione casuale
di dimensione n estratto da una popolazione con
densit` a f (·) si definisce MOMENTO CAMPIONA- RIO DI ORDINE r (ASSOLUTO) la quantit` a
M
r0= 1 n
n
X
i=1
X
irOSSERVAZIONE: Se r = 1 M
10= X
n.
DEFINIZIONE: Dato X
1, ..., X
ncampione casuale di dimensione n estratto da una popolazione con densit` a f (·) si definisce MOMENTO CAMPIONA- RIO DI ORDINE r RISPETTO A X
nla quantit` a
M
r= 1 n
n
X
i=1
(X
i− X
n)
rNota bene: se r = 1 M
1= 0.
OSSERVAZIONE: I momenti campionari assoluti ri- specchiano i momenti della popolazione, cio`e vale il seguente
Teorema 1: Dato X
1, ...X
ncampione casuale di di-
mensione n estratto da una popolazione con densit` a
f (·) si ha:
E[M
r0] = µ
0rdove µ
0rsono i momenti di ordine r della popolazio- ne.
Dimostrazione E[M
r0] = E
"
1 n
n
X
i=1
X
ir#
= 1 n E
"
nX
i=1
X
ir#
=
= 1 n
n
X
i=1
E[X
ir] =
Xihanno f.d. f
|{z}
1 n
n
X
i=1
µ
0r= 1
n · nµ
0r= µ
0rTeorema 1 bis: Dato X
1, ..., X
ncampione casuale di dimensione n estratto da una popolazione con densit` a f (·) si ha:
var[M
r0] = 1
n µ
02r− (µ
0r)
2Dimostrazione
var[M
r0] = var
"
1 n
n
X
i=1
X
ir#
=
= 1
n
2var
"
nX
i=1
X
ir#
=
Xi
|{z}
indip.nti1 n
2n
X
i=1
var[X
ir].
(1)
A questo punto notiamo che se W `e una variabile casuale
var[W ] = E[W
2] − E[W ]
2,
quindi possiamo continuare l’equazione (1) con var[M
r0] = 1
n
2n
X
i=1
n
E[X
i2r] − (E[X
ir])
2o
= 1 n
2n
nE[X
2r] − n (E[X
r])
2o
= 1
n [µ
02r− (µ
0r)
2] OSSERVAZIONE
Se r = 1 E[M
10] = E[X
n] = µ
01= µ
dove µ `e la media della popolazione. Inoltre:
var[M
10] = var[X
n] = 1
n [µ
02− (µ
01)
2] = σ
2n
dove σ
2= µ
02−(µ
01)
2`e la varianza della popolazione.
Quindi:
E[X
n] = µ, var[X
n] = σ
2n
Una misura di posizione, o tendenza centrale, in un
campione non fornisce da sola una chiara indicazio-
ne sulla natura del campione. Deve essere sempre
considerata anche una misura di variabilit` a del cam- pione. Riguardo al momento campionario di ordine r rispetto alla media campionaria si ha
se r = 2 M
2= 1 n
n
X
i=1
X
i− X
n2Anzich`e utilizzare M
2si preferisce usare la varianza campionaria che ora definiamo.
DEFINIZIONE: Dato X
1, ..., X
ncampione casuale di dimensione n estratto da una popolazione con densit` a f (·) si definisce VARIANZA CAMPIONA- RIA la quantit` a
S
2= 1 n − 1
n
X
i=1
X
i− X
n2Nota bene: se n `e molto grande non c’`e differenza tra S
2e M
2.
OSSERVAZIONE: Si usa S
2anzich`e M
2come mi- sura della variabilit` a del campione perch`e vale il se- guente
TEOREMA 2: Dato X
1, ..., X
ncampione casuale
di dimensione n estratto da una popolazione con
funzione di densit` a f (·) si ha:
E[S
2] = σ
2dove σ
2`e la varianza della popolazione.
Dimostrazione (facoltativa)
n
X
i=1
(X
i− X
n)
2=
n
X
i=1
(X
i2− 2X
iX
n+ X
2n) =
=
n
X
i=1
X
i2− 2X
nn
X
i=1
X
i| {z }
nXn
+nX
2n=
n
X
i=1
X
i2− nX
2nPerci` o S
2= 1
n − 1
n
X
i=1
X
i− X
n2= 1
n − 1
n
X
i=1
X
i2− nX
2n!
Passando al valore atteso (n − 1)E[S
2] = E
(
nX
i=1
X
i2− nX
2n)
=
= E
"
nX
i=1
X
i2#
− nE[X
2n] =
n
X
i=1
E[X
i2] − nE[X
2n]
Ma dalla definizione di varianza abbiamo che ∀ va- riabile casuale W vale
var[W ] = E[W
2] − E[W ]
2e quindi
E[W
2] = var[W ] + E[W ]
2e possiamo scrivere
(n − 1)E[S
2] =
n
X
i=1
var[X
i] + E[X
i]
2+
− n var[X
n] + E[X
n]
2=
= n var[X] + nE[X]
2− n σ
2n + µ
2dove abbiamo utilizzato il fatto che tutte le X
ihanno la stessa funzione di densit` a. Quindi
(n − 1)E[S
2] = nσ
2+
ZZZZ
nµ
2−
n
σ
2n
−
ZZZZ
nµ
2= (n − 1)σ
2da cui
E[S
2] = σ
2Calcoliamo adesso E[M
2]. Dalla definizione di M
2e
di S
2si ha:
S
2= n
n − 1 M
2Infatti
S
2= 1 n − 1
n
X
i=1
X
i− X
n2=
= n
n − 1
"
1 n
n
X
i=1
X
i− X
n2#
=
= n
n − 1 M
2=⇒ M
2= n − 1 n S
2da cui
E[M
2] = n − 1
n E[S
2] = n − 1
n σ
26= σ
2Questo `e il motivo per cui si usa la varianza campio- naria al posto del momento campionario di ordine 2 rispetto alla media campionaria come statistica per stimare la varianza della popolazione σ
2.
Riassumendo
M
r0stima µ
0r; X
nstima µ; S
2stima σ
2OSSERVAZIONE
Il Teorema 1 per r = 1 ci dice che la media cam- pionaria X
nin media `e uguale al parametro µ della popolazione (E[X
n] = µ), cio`e la distribuzione di X
n`e CENTRATA attorno a µ.
Invece var[X
n] =
σn2prova che la dispersione dei va- lori di X
nintorno a µ `e piccola se n, l’ampiezza del campione, `e grande.
LA LEGGE DEI GRANDI NUMERI IN FORMA DEBOLE
La legge debole dei grandi numeri, che si dimostra usando la disuguaglianza di Chebyshev, afferma che si possono fare inferenze attendibili per la media µ di una popolazione attraverso un numero finito di valori (campione casuale di dimensione n) di X.
E possibile determinare un intero positivo n tale che, `
se si prende un campione casuale di dimensione ≥ n
da una popolazione di densit` a f (·) con media µ, la
probabilit` a che la differenza tra la media campiona-
ria X
ne la media µ della popolazione sia minore di
una quantit` a fissata piccola a piacere, `e vicina ad 1
quanto si vuole.
In formule
∀ > 0 e 0 < δ < 1 ∃ n >
σ22δ
:
P |X
n− µ| < ≥ 1 − δ
con µ e σ
2rispettivamente media e varianza della densit` a f (·) della popolazione.
Dimostrazione
Ricordiamo la disuguaglianza di Markov:
P [g(x) ≥ r] ≤ E[g(x)]
r , ∀r > 0 e g(x) ≥ 0, ∀x ∈ R e la formulazione analoga
P [g(x) < r] ≥ 1 − E[g(x)]
r . Scelti g(x) = (x
n− µ)
2ed r =
2P |X
n− µ| < = P (X
n− µ)
2<
2≥ 1 − E (X
n− µ)
2 2ma dalla definizione di varianza
var[X] = E[(X − µ
X)
2]
poich`e E[X
n] = µ ⇒ E (X
n− µ)
2= var[X
n], quindi
P |X
n− µ| < ≥ 1 − var[X
n]
2= 1 − σ
2n
2≥ 1 − δ per δ >
nσ22oppure n >
δσ22.
Esempi
1) Data una popolazione con media µ incognita e varianza σ
2= 1, calcolare la dimensione del cam- pione casuale estratto affinch`e sia almeno del 95% la probabilit` a che la media campionaria disti meno di 0.5 dalla media della popolazione
P [|X
n−µ| < ] ≥ 1−δ ⇒ P [|X
n−µ| < 0.5] ≥ 0.95
= 0.5 δ = 0.05 ⇒
⇒ n >
δσ22=
(0.05)·(0.5)1 2= 80 Nota bene σ
2`e nota.
2) Quanto deve essere grande un campione casuale
per essere sicuri al 99% che la media campionaria
disti meno di 0.5σ dalla media µ della popolazione?
P [|X
n− µ| < ] = 0.99 ⇒ δ = 0.01
= 0.5σ σ `e incognita
n >
δσ22=
(0.01)·(0.5σσ2 2)=
(0.01)·(0.5)1 2= 400
IL TEOREMA DEL LIMITE CENTRALE
Sia X
nla media campionaria di un campione casuale di dimensione n estratto da una popolazione avente funzione di densit` a f (·) INCOGNITA, con media µ e varianza finita σ
2. Sia Z
nla variabile casuale definita da:
Z
n= X
n− E[X
n] q
var[X
n]
= X
n− µ
√σ n
Allora la distribuzione di Z
ntende alla distribuzione normale standard N (0, 1) quando n → ∞.
Z
n∼ N (0, 1) ˙ ∼ approssimativamente ˙
Problema del TLC: quanto deve essere grande il cam- pione affinch`e l’approssimazione sia valida?
Regola empirica → n ≥ 30
OSSERVAZIONE
Se la densit` a della popolazione f (·) `e NORMALE allora ogni elemento X
idi X
n`e normale e quindi Z
n∼ N (0, 1) ∼ esattamente
indipendentemente dalla numerosit` a n del campio- ne.
Le uguaglianze
E[Z
n] =
√ n
σ E[X
n− µ] =
√ n
σ (µ − µ) = 0 var[Z
n] = n
σ
2var[X
n− µ] = n
σ
2var[X
n]
= n
σ
2· σ
2n = 1 valgono sempre.
Esempio
Si considerino delle sbarre di lunghezza data, carat-
terizzate da una f (·) incognita con σ
2= 0.04m
2.
Scelto un campione casuale di dimensione n, calco-
lare n in modo che la media campionaria X
ndisti
dalla media della popolazione µ per meno di un cen-
timetro, con una probabilit` a maggiore del 97%.
1
◦metodo: LGN
1cm = 0.01m ⇒ = 0.01 σ
2= 0.04m
2⇒ σ = 0.2m.
P [|X
n− µ| < ] > 1 − δ δ > σ
2nδ
2⇒ n > σ
2δ
2δ = 0.03 ⇒ n >
(0.03)·(0.01)0.04 2= 1.3 · 10
4∼ 13.333 2
◦metodo: TLC
|X
n− µ| < 0.01 ⇔ −0.01
√σ n
< X
n− µ
√σ n
< 0.01
√σ n
⇔ |Z
n| <
√ n 20
P [|X
n−µ| < 0.01] > 0.97 ⇒ P [|Z
n| <
√n
20
| {z }
=zα
] > 0.97
P [|Z
n| < z
α] = 2 [P [Z
n< z
α] − 0.5] = 2P [Z
n< z
α]−1
Dalla tabella della N (0, 1) z
α= 2.17 ⇒
⇒
√n
20
= 2.17 ⇒ n = 1.883, 56 ⇒ n = 1.884
CAMPIONAMENTO DA DISTRIBUZIONI NORMALI
Da una popolazione con funzione di densit` a normale N (µ, σ
2) segue che la distribuzione della media cam- pionaria X
n`e ESATTAMENTE N (µ,
σn2) e quindi Z
n`e ESATTAMENTE N (0, 1).
Per ogni X
ielemento di un campione casuale di di- mensione n si ha X
i∼ N (µ, σ
2) da cui segue che Z
i=
Xiσ−µ∼ N (0, 1).
Definiamo la funzione U ˙ =
n
X
i=1
Z
i2=
n
X
i=1
X
i− µ σ
2= 1 σ
2n
X
i=1
(X
i− µ)
2(somma di quadrati di normali standard)
Si pu` o provare:
TEOREMA 3
U ∼ χ
2n CHI QUADRO con n gradi di libert`aIl “grado di libert` a” `e il numero di quadrati indi- pendenti nella sommatoria (ricordiamo che χ
2`e una funzione GAMMA con λ = 1/2 ed r = n/2).
Poich`e Z
n=
Xnσ−µn
∼ N (0, 1), in base al Teorema 3 si ha
Z
n2∼ χ
21 CHI QUADRO con n = 1 gradi di libert`aDefiniamo la funzione:
V ˙ = n − 1
σ
2S
2= 1 σ
2n
X
i=1
X
i− X
n2=
=
n
X
i=1
Z
i2− Z
n2= U
|{z}
∼χ2n
− Z
n2|{z}
∼χ21
L’uguaglianza in verde verr` a giustificata pi` u avanti.
Si pu` o provare:
TEOREMA 4
V ∼ χ
2n−1 CHI QUADRO con (n − 1) gradi di libert`aIn analogia a X
n=
n1n
P
i=1
X
i`e possibile definire Z
n= 1
n
n
X
i=1
Z
i= 1 n
n
X
i=1
X
i− µ σ
= 1
nσ (nX
n− nµ) = X
n− µ
σ ⇒
⇒
n
X
i=1
Z
i− Z
n= 0
VINCOLO che abbassa il grado della libert`a.Definiamo la funzione:
T ˙ = X
n− µ
√S n
=
Xn−µ σ/√
n S σ
= Z
nq
Vn−1
Poich`e X
ne S
2sono statistiche indipendenti `e pos- sibile dimostrare che Z
ne V sono indipendenti.
Si pu` o provare:
TEOREMA 5
T ∼ t
n−1 t di STUDENT con (n − 1) gradi di libert`aGiustifichiamo adesso l’uguaglianza in verde intro- dotta prima del Teorema 4. Abbiamo:
1 σ
2n
X
i=1
(X
i− X
n)
2= 1 σ
2n
X
i=1
(X
i− µ) − (X
n− µ)
2= 1 σ
2n
X
i=1
(X
i− µ)
2− 2
σ
2(X
n− µ)
n
X
i=1
(X
i− µ)
| {z }
n(Xn−µ)
+
+ n
σ
2(X
n− µ)
2=
n
X
i=1
X
i− µ σ
2− n
σ
2(X
n− µ)
2Ma
σn2(X
n− µ)
2=
Xn−µ σ/√
n
2, quindi 1
σ
2n
X
i=1
(X
i− X
n)
2=
n
X
i=1
Z
i2− nZ
2n=
n
X
i=1
Z
i− Z
n2TAVOLA RIASSUNTIVA
− Z
n`e la statistica in grado di fare inferenza sulla media µ della popolazione quando σ
2`e nota.
− T `e la statistica in grado di fare inferenza sulla media µ della popolazione quando σ
2`e incogni- ta.
− V `e la statistica in grado di fare inferenza sulla varianza σ
2della popolazione quando µ `e inco- gnita.
− U `e la statistica in grado di fare inferenza sulla
varianza σ
2della popolazione quando µ `e nota.
Esempio
Si vuole localizzare un oggetto nello spazio, ma il processo di misurazione porta un errore (in ognuna delle 3 dimensioni x, y, z) che si distribuisce come una variabile casuale normale N (µ = 0, σ = 2m).
Supponendo i 3 errori indipendenti, calcolare la pro- babilit` a che la distanza tra posizione misurata e po- sizione reale sia maggiore di 3 metri.
P (x, y, z) reale P (x ˜
1, y
1, z
1) misurata
x
1= x +
1y
1= y +
2z
1= z +
3 1,
2,
3errori
D = distanza tra P e P ˜ D
2= P ˜ P
2= (x − x
1)
2+ (y − y
1)
2+ (z − z
1)
2=
21+
22+
23 i∼ N (0, 2) Z ˆ
i=
i− µ
σ =
i2 ∼ N (0, 1) Y =
3
P
i=1
Z ˆ
i2= somma di quadrati di normali stan-
dard ⇒ per il Teorema 3: Y ∼ χ
2n=3P [D > 3] = P [D
2> 9] = P [
21+
22+
23> 9] =
= P [ ˆ Z
12+ ˆ Z
22+ ˆ Z
32> 9/4] = P [Y > 9/4] =
= 1 − P [Y ≤ 9/4]
| {z }
'0.4778