• Non ci sono risultati.

non si possono fare generalizzazioni assolutamente certe, si possono fare inferenze incerte e misurare il grado di incertezza in termini di probabilit` a.

N/A
N/A
Protected

Academic year: 2021

Condividi "non si possono fare generalizzazioni assolutamente certe, si possono fare inferenze incerte e misurare il grado di incertezza in termini di probabilit` a."

Copied!
23
0
0

Testo completo

(1)

10 Campionamento

Gli statistici si basano sulle leggi fondamentali della probabilit` a e dell’inferenza statistica per giungere a conclusioni sui sistemi scientifici studiati. L’obietti- vo `e generalizzare l’esperimento singolo alla classe di tutti gli esperimenti simili, operando un’estensione dal particolare al generale, detta INFERENZA IN- DUTTIVA.

L’inferenza induttiva `e perci` o un processo d’azzardo:

non si possono fare generalizzazioni assolutamente certe, si possono fare inferenze incerte e misurare il grado di incertezza in termini di probabilit` a.

DEFINIZIONE: La totalit` a delle osservazioni a cui siamo interessati `e detta POPOLAZIONE OBIET- TIVO (il numero delle osservazioni pu` o essere finito o infinito).

Essendo poco pratico esaminare l’intera popolazio- ne, si pu` o esaminare una sua parte e fare inferenza sulla popolazione obiettivo.

DEFINIZIONE: Un sottoinsieme della popolazione

`e detta CAMPIONE.

Perch`e il campione sia rappresentativo della popola-

(2)

zione `e necessario che il campionamento sia casuale.

Nel campionamento casuale semplice ogni campione di una determinata dimensione ha la stessa probabi- lit` a di essere selezionato di qualsiasi altro campione della stessa dimensione (campionamenti indipenden- ti).

Supponiamo che la popolazione sia caratterizzata da una certa funzione di densit` a f (x). Scegliendo un campione casuale di dimensione n dalla popolazione f (x), definiamo la variabile casuale X

i

, i = 1, ..., n per rappresentare la i−esima misura del campione che si osserva.

X

1

, ..., X

n

sono un campione casuale semplice otte- nuto da f (x) se le misure sono state ottenute ripe- tendo l’esperimento n volte in modo indipendente e alle stesse condizioni ⇒ X

1

, ..., X

n

sono n variabili casuali indipendenti con la stessa densit` a di proba- bilit` a f (x).

DEFINIZIONE: Siano X

1

, ..., X

n

n variabili casuali indipendenti con funzione di densit` a f (x). X

1

, ..., X

n

`e detto CAMPIONE CASUALE di dimensione n se

f

X1,...,Xn

(x

1

, ..., x

n

) = f (x

1

) . . . f (x

n

)

(3)

(la funzione di densit` a congiunta `e uguale al prodotto delle funzioni di densit` a marginali).

DEFINIZIONE: Il campione casuale viene chiamato POPOLAZIONE CAMPIONATA.

La distribuzione congiunta

f

X1,...,Xn

(x

1

, ..., x

n

) = f (x

1

) . . . f (x

n

)

`e detta DISTRIBUZIONE CAMPIONARIA del cam- pione X

1

, ..., X

n

.

Lo scopo principale nel selezionare campioni casuali

`e quello di ottenere informazioni riguardo alcuni pa- rametri sconosciuti della popolazione obiettivo. Cio`e

`e nota la forma di f (·, θ), ma f contiene un parame- tro incognito θ.

PROCEDIMENTO: Si estrae un campione casuale X

1

, ..., X

n

di dimensione n dalla densit` a f (·, θ) e si stima il parametro incognito θ con il valore di una qualche funzione t(X

1

, ..., X

n

). Infine si determina quale tra queste funzioni sia la migliore per stimare il parametro θ.

DEFINIZIONE: Una funzione t delle variabili casua-

li X

1

, ..., X

n

che costituiscono il campione casuale `e

detta STATISTICA.

(4)

La statistica t(X

1

, ..., X

n

) `e a sua volta una variabile casuale che NON contiene alcun parametro incogni- to.

Esempi di statistiche utilizzate per misurare il centro di una serie di dati sono la media, la mediana e la moda, qui di seguito definite.

Dato un campione casuale X

1

, ..., X

n

di dimensione n, si definiscono:

− MEDIA CAMPIONARIA X

n

= 1

n

n

X

i=1

X

i

− MEDIANA CAMPIONARIA X = ˜

X

n+1

2

se n `e dispari ,

1 2

 X

n

2

+ X

n

2+1



se n `e pari ,

− MODA CAMPIONARIA

E il valore del campione che si presenta pi` ` u fre- quentemente.

Altre importanti statistiche sono le seguenti:

DEFINIZIONE: Dato X

1

, ..., X

n

campione casuale

di dimensione n estratto da una popolazione con

(5)

densit` a f (·) si definisce MOMENTO CAMPIONA- RIO DI ORDINE r (ASSOLUTO) la quantit` a

M

r0

= 1 n

n

X

i=1

X

ir

OSSERVAZIONE: Se r = 1 M

10

= X

n

.

DEFINIZIONE: Dato X

1

, ..., X

n

campione casuale di dimensione n estratto da una popolazione con densit` a f (·) si definisce MOMENTO CAMPIONA- RIO DI ORDINE r RISPETTO A X

n

la quantit` a

M

r

= 1 n

n

X

i=1

(X

i

− X

n

)

r

Nota bene: se r = 1 M

1

= 0.

OSSERVAZIONE: I momenti campionari assoluti ri- specchiano i momenti della popolazione, cio`e vale il seguente

Teorema 1: Dato X

1

, ...X

n

campione casuale di di-

mensione n estratto da una popolazione con densit` a

(6)

f (·) si ha:

E[M

r0

] = µ

0r

dove µ

0r

sono i momenti di ordine r della popolazio- ne.

Dimostrazione E[M

r0

] = E

"

1 n

n

X

i=1

X

ir

#

= 1 n E

"

n

X

i=1

X

ir

#

=

= 1 n

n

X

i=1

E[X

ir

] =

Xihanno f.d. f

|{z}

1 n

n

X

i=1

µ

0r

= 1

n · nµ

0r

= µ

0r

Teorema 1 bis: Dato X

1

, ..., X

n

campione casuale di dimensione n estratto da una popolazione con densit` a f (·) si ha:

var[M

r0

] = 1

n µ

02r

− (µ

0r

)

2

 Dimostrazione

var[M

r0

] = var

"

1 n

n

X

i=1

X

ir

#

=

= 1

n

2

var

"

n

X

i=1

X

ir

#

=

Xi

|{z}

indip.nti

1 n

2

n

X

i=1

var[X

ir

].

(1)

(7)

A questo punto notiamo che se W `e una variabile casuale

var[W ] = E[W

2

] − E[W ]

2

,

quindi possiamo continuare l’equazione (1) con var[M

r0

] = 1

n

2

n

X

i=1

n

E[X

i2r

] − (E[X

ir

])

2

o

= 1 n

2

n

nE[X

2r

] − n (E[X

r

])

2

o

= 1

n [µ

02r

− (µ

0r

)

2

] OSSERVAZIONE

Se r = 1 E[M

10

] = E[X

n

] = µ

01

= µ

dove µ `e la media della popolazione. Inoltre:

var[M

10

] = var[X

n

] = 1

n [µ

02

− (µ

01

)

2

] = σ

2

n

dove σ

2

= µ

02

−(µ

01

)

2

`e la varianza della popolazione.

Quindi:

E[X

n

] = µ, var[X

n

] = σ

2

n

Una misura di posizione, o tendenza centrale, in un

campione non fornisce da sola una chiara indicazio-

ne sulla natura del campione. Deve essere sempre

(8)

considerata anche una misura di variabilit` a del cam- pione. Riguardo al momento campionario di ordine r rispetto alla media campionaria si ha

se r = 2 M

2

= 1 n

n

X

i=1

X

i

− X

n



2

Anzich`e utilizzare M

2

si preferisce usare la varianza campionaria che ora definiamo.

DEFINIZIONE: Dato X

1

, ..., X

n

campione casuale di dimensione n estratto da una popolazione con densit` a f (·) si definisce VARIANZA CAMPIONA- RIA la quantit` a

S

2

= 1 n − 1

n

X

i=1

X

i

− X

n



2

Nota bene: se n `e molto grande non c’`e differenza tra S

2

e M

2

.

OSSERVAZIONE: Si usa S

2

anzich`e M

2

come mi- sura della variabilit` a del campione perch`e vale il se- guente

TEOREMA 2: Dato X

1

, ..., X

n

campione casuale

di dimensione n estratto da una popolazione con

(9)

funzione di densit` a f (·) si ha:

E[S

2

] = σ

2

dove σ

2

`e la varianza della popolazione.

Dimostrazione (facoltativa)

n

X

i=1

(X

i

− X

n

)

2

=

n

X

i=1

(X

i2

− 2X

i

X

n

+ X

2n

) =

=

n

X

i=1

X

i2

− 2X

n

n

X

i=1

X

i

| {z }

nXn

+nX

2n

=

n

X

i=1

X

i2

− nX

2n

Perci` o S

2

= 1

n − 1

n

X

i=1

X

i

− X

n



2

= 1

n − 1

n

X

i=1

X

i2

− nX

2n

!

Passando al valore atteso (n − 1)E[S

2

] = E

(

n

X

i=1

X

i2

− nX

2n

)

=

= E

"

n

X

i=1

X

i2

#

− nE[X

2n

] =

n

X

i=1

E[X

i2

] − nE[X

2n

]

(10)

Ma dalla definizione di varianza abbiamo che ∀ va- riabile casuale W vale

var[W ] = E[W

2

] − E[W ]

2

e quindi

E[W

2

] = var[W ] + E[W ]

2

e possiamo scrivere

(n − 1)E[S

2

] =

n

X

i=1

var[X

i

] + E[X

i

]

2

+

− n var[X

n

] + E[X

n

]

2

=

= n var[X] + nE[X]

2

− n  σ

2

n + µ

2



dove abbiamo utilizzato il fatto che tutte le X

i

hanno la stessa funzione di densit` a. Quindi

(n − 1)E[S

2

] = nσ

2

+

ZZZ

Z

2



n



σ

2



n



ZZZ

Z

2

= (n − 1)σ

2

da cui

E[S

2

] = σ

2

Calcoliamo adesso E[M

2

]. Dalla definizione di M

2

e

(11)

di S

2

si ha:

S

2

= n

n − 1 M

2

Infatti

S

2

= 1 n − 1

n

X

i=1

X

i

− X

n



2

=

= n

n − 1

"

1 n

n

X

i=1

X

i

− X

n



2

#

=

= n

n − 1 M

2

=⇒ M

2

= n − 1 n S

2

da cui

E[M

2

] = n − 1

n E[S

2

] = n − 1

n σ

2

6= σ

2

Questo `e il motivo per cui si usa la varianza campio- naria al posto del momento campionario di ordine 2 rispetto alla media campionaria come statistica per stimare la varianza della popolazione σ

2

.

Riassumendo

M

r0

stima µ

0r

; X

n

stima µ; S

2

stima σ

2

(12)

OSSERVAZIONE

Il Teorema 1 per r = 1 ci dice che la media cam- pionaria X

n

in media `e uguale al parametro µ della popolazione (E[X

n

] = µ), cio`e la distribuzione di X

n

`e CENTRATA attorno a µ.

Invece var[X

n

] =

σn2

prova che la dispersione dei va- lori di X

n

intorno a µ `e piccola se n, l’ampiezza del campione, `e grande.

LA LEGGE DEI GRANDI NUMERI IN FORMA DEBOLE

La legge debole dei grandi numeri, che si dimostra usando la disuguaglianza di Chebyshev, afferma che si possono fare inferenze attendibili per la media µ di una popolazione attraverso un numero finito di valori (campione casuale di dimensione n) di X.

E possibile determinare un intero positivo n tale che, `

se si prende un campione casuale di dimensione ≥ n

da una popolazione di densit` a f (·) con media µ, la

probabilit` a che la differenza tra la media campiona-

ria X

n

e la media µ della popolazione sia minore di

una quantit` a fissata piccola a piacere, `e vicina ad 1

quanto si vuole.

(13)

In formule

∀ > 0 e 0 < δ < 1 ∃ n >

σ2

2δ

:

P |X

n

− µ| <  ≥ 1 − δ

con µ e σ

2

rispettivamente media e varianza della densit` a f (·) della popolazione.

Dimostrazione

Ricordiamo la disuguaglianza di Markov:

P [g(x) ≥ r] ≤ E[g(x)]

r , ∀r > 0 e g(x) ≥ 0, ∀x ∈ R e la formulazione analoga

P [g(x) < r] ≥ 1 − E[g(x)]

r . Scelti g(x) = (x

n

− µ)

2

ed r = 

2

P |X

n

− µ| <  = P (X

n

− µ)

2

< 

2



≥ 1 − E (X

n

− µ)

2





2

ma dalla definizione di varianza

var[X] = E[(X − µ

X

)

2

]

(14)

poich`e E[X

n

] = µ ⇒ E (X

n

− µ)

2



= var[X

n

], quindi

P |X

n

− µ| <  ≥ 1 − var[X

n

]



2

= 1 − σ

2

n

2

≥ 1 − δ per δ >

nσ22

oppure n >

δσ22

.

Esempi

1) Data una popolazione con media µ incognita e varianza σ

2

= 1, calcolare la dimensione del cam- pione casuale estratto affinch`e sia almeno del 95% la probabilit` a che la media campionaria disti meno di 0.5 dalla media della popolazione

P [|X

n

−µ| < ] ≥ 1−δ ⇒ P [|X

n

−µ| < 0.5] ≥ 0.95

 = 0.5 δ = 0.05 ⇒

⇒ n >

δσ22

=

(0.05)·(0.5)1 2

= 80 Nota bene σ

2

`e nota.

2) Quanto deve essere grande un campione casuale

per essere sicuri al 99% che la media campionaria

disti meno di 0.5σ dalla media µ della popolazione?

(15)

P [|X

n

− µ| < ] = 0.99 ⇒ δ = 0.01

 = 0.5σ σ `e incognita

n >

δσ22

=

(0.01)·(0.5σσ2 2)

=

(0.01)·(0.5)1 2

= 400

IL TEOREMA DEL LIMITE CENTRALE

Sia X

n

la media campionaria di un campione casuale di dimensione n estratto da una popolazione avente funzione di densit` a f (·) INCOGNITA, con media µ e varianza finita σ

2

. Sia Z

n

la variabile casuale definita da:

Z

n

= X

n

− E[X

n

] q

var[X

n

]

= X

n

− µ

√σ n

Allora la distribuzione di Z

n

tende alla distribuzione normale standard N (0, 1) quando n → ∞.

Z

n

∼ N (0, 1) ˙ ∼ approssimativamente ˙

Problema del TLC: quanto deve essere grande il cam- pione affinch`e l’approssimazione sia valida?

Regola empirica → n ≥ 30

(16)

OSSERVAZIONE

Se la densit` a della popolazione f (·) `e NORMALE allora ogni elemento X

i

di X

n

`e normale e quindi Z

n

∼ N (0, 1) ∼ esattamente

indipendentemente dalla numerosit` a n del campio- ne.

Le uguaglianze

 

 

 

 

 

 

E[Z

n

] =

√ n

σ E[X

n

− µ] =

√ n

σ (µ − µ) = 0 var[Z

n

] = n

σ

2

var[X

n

− µ] = n

σ

2

var[X

n

]

= n

σ

2

· σ

2

n = 1 valgono sempre.

Esempio

Si considerino delle sbarre di lunghezza data, carat-

terizzate da una f (·) incognita con σ

2

= 0.04m

2

.

Scelto un campione casuale di dimensione n, calco-

lare n in modo che la media campionaria X

n

disti

dalla media della popolazione µ per meno di un cen-

timetro, con una probabilit` a maggiore del 97%.

(17)

1

metodo: LGN

1cm = 0.01m ⇒  = 0.01 σ

2

= 0.04m

2

⇒ σ = 0.2m.

P [|X

n

− µ| < ] > 1 − δ δ > σ

2

2

⇒ n > σ

2

δ

2

δ = 0.03 ⇒ n >

(0.03)·(0.01)0.04 2

= 1.3 · 10

4

∼ 13.333 2

metodo: TLC

|X

n

− µ| < 0.01 ⇔ −0.01

√σ n

< X

n

− µ

√σ n

< 0.01

√σ n

⇔ |Z

n

| <

√ n 20

P [|X

n

−µ| < 0.01] > 0.97 ⇒ P [|Z

n

| <

√n

20

| {z }

=zα

] > 0.97

P [|Z

n

| < z

α

] = 2 [P [Z

n

< z

α

] − 0.5] = 2P [Z

n

< z

α

]−1

Dalla tabella della N (0, 1) z

α

= 2.17 ⇒

√n

20

= 2.17 ⇒ n = 1.883, 56 ⇒ n = 1.884

(18)

CAMPIONAMENTO DA DISTRIBUZIONI NORMALI

Da una popolazione con funzione di densit` a normale N (µ, σ

2

) segue che la distribuzione della media cam- pionaria X

n

`e ESATTAMENTE N (µ,

σn2

) e quindi Z

n

`e ESATTAMENTE N (0, 1).

Per ogni X

i

elemento di un campione casuale di di- mensione n si ha X

i

∼ N (µ, σ

2

) da cui segue che Z

i

=

Xiσ−µ

∼ N (0, 1).

Definiamo la funzione U ˙ =

n

X

i=1

Z

i2

=

n

X

i=1

 X

i

− µ σ



2

= 1 σ

2

n

X

i=1

(X

i

− µ)

2

(somma di quadrati di normali standard)

Si pu` o provare:

TEOREMA 3

U ∼ χ

2n CHI QUADRO con n gradi di libert`a

Il “grado di libert` a” `e il numero di quadrati indi- pendenti nella sommatoria (ricordiamo che χ

2

`e una funzione GAMMA con λ = 1/2 ed r = n/2).

Poich`e Z

n

=

Xnσ−µ

n

∼ N (0, 1), in base al Teorema 3 si ha

Z

n2

∼ χ

21 CHI QUADRO con n = 1 gradi di libert`a

(19)

Definiamo la funzione:

V ˙ = n − 1

σ

2

S

2

= 1 σ

2

n

X

i=1

X

i

− X

n



2

=

=

n

X

i=1

Z

i2

− Z

n2

= U

|{z}

∼χ2n

− Z

n2

|{z}

∼χ21

L’uguaglianza in verde verr` a giustificata pi` u avanti.

Si pu` o provare:

TEOREMA 4

V ∼ χ

2n−1 CHI QUADRO con (n − 1) gradi di libert`a

In analogia a X

n

=

n1

n

P

i=1

X

i

`e possibile definire Z

n

= 1

n

n

X

i=1

Z

i

= 1 n

n

X

i=1

 X

i

− µ σ



= 1

nσ (nX

n

− nµ) = X

n

− µ

σ ⇒

n

X

i=1

Z

i

− Z

n

 = 0

VINCOLO che abbassa il grado della libert`a.

(20)

Definiamo la funzione:

T ˙ = X

n

− µ

√S n

=

Xn−µ σ/√

n S σ

= Z

n

q

V

n−1

Poich`e X

n

e S

2

sono statistiche indipendenti `e pos- sibile dimostrare che Z

n

e V sono indipendenti.

Si pu` o provare:

TEOREMA 5

T ∼ t

n−1 t di STUDENT con (n − 1) gradi di libert`a

Giustifichiamo adesso l’uguaglianza in verde intro- dotta prima del Teorema 4. Abbiamo:

1 σ

2

n

X

i=1

(X

i

− X

n

)

2

= 1 σ

2

n

X

i=1

(X

i

− µ) − (X

n

− µ) 

2

= 1 σ

2

n

X

i=1

(X

i

− µ)

2

− 2

σ

2

(X

n

− µ)

n

X

i=1

(X

i

− µ)

| {z }

n(Xn−µ)

+

+ n

σ

2

(X

n

− µ)

2

=

n

X

i=1

 X

i

− µ σ



2

− n

σ

2

(X

n

− µ)

2

(21)

Ma

σn2

(X

n

− µ)

2

= 

Xn−µ σ/√

n



2

, quindi 1

σ

2

n

X

i=1

(X

i

− X

n

)

2

=

n

X

i=1

Z

i2

− nZ

2n

=

n

X

i=1

Z

i

− Z

n2

TAVOLA RIASSUNTIVA

− Z

n

`e la statistica in grado di fare inferenza sulla media µ della popolazione quando σ

2

`e nota.

− T `e la statistica in grado di fare inferenza sulla media µ della popolazione quando σ

2

`e incogni- ta.

− V `e la statistica in grado di fare inferenza sulla varianza σ

2

della popolazione quando µ `e inco- gnita.

− U `e la statistica in grado di fare inferenza sulla

varianza σ

2

della popolazione quando µ `e nota.

(22)

Esempio

Si vuole localizzare un oggetto nello spazio, ma il processo di misurazione porta un errore (in ognuna delle 3 dimensioni x, y, z) che si distribuisce come una variabile casuale normale N (µ = 0, σ = 2m).

Supponendo i 3 errori indipendenti, calcolare la pro- babilit` a che la distanza tra posizione misurata e po- sizione reale sia maggiore di 3 metri.

P (x, y, z) reale P (x ˜

1

, y

1

, z

1

) misurata

x

1

= x + 

1

y

1

= y + 

2

z

1

= z + 

3



1

, 

2

, 

3

errori

D = distanza tra P e P ˜ D

2

= P ˜ P

2

= (x − x

1

)

2

+ (y − y

1

)

2

+ (z − z

1

)

2

=



21

+ 

22

+ 

23



i

∼ N (0, 2) Z ˆ

i

= 

i

− µ

σ = 

i

2 ∼ N (0, 1) Y =

3

P

i=1

Z ˆ

i2

= somma di quadrati di normali stan-

(23)

dard ⇒ per il Teorema 3: Y ∼ χ

2n=3

P [D > 3] = P [D

2

> 9] = P [

21

+ 

22

+ 

23

> 9] =

= P [ ˆ Z

12

+ ˆ Z

22

+ ˆ Z

32

> 9/4] = P [Y > 9/4] =

= 1 − P [Y ≤ 9/4]

| {z }

'0.4778

' 0.5222

Se il problema della localizzazione avviene nel piano allora abbiamo la posizione reale P (x, y) e quella misurata ˜ P (x

1

, y

1

).

D

2

= 

21

+ 

22

⇒ Y ∼ χ

2n=2

Ma χ

2n=2

= Γ (λ = 1/2, r = n/2 = 1) = Γ(1/2, 1) = exp(λ = 1/2)

Quindi Y ∼ exp(λ = 1/2) cio`e:

f (y) = λe

−λy

se y ≥ 0, F (y) = 1 − e

−λy

.

Allora

P [D > 3] = P [D

2

> 9] = P [Y > 9/4] = 1 − P [Y ≤ 9/4] = 1 − F (9/4) = e

−λy

λ=2,y=9/4

=

e

−9/8

' 0.3247

Riferimenti

Documenti correlati

Nella stessa data gli studenti non ammessi possono prendere visione del

A diciotto anni si possono fare tante nuove cose, anche aiutare gli altri con un gesto semplice come donare il sangue?. Ci avevi

L’azienda segue i programmi regionali di lotta integrata (PRLFI) e i piani di concimazione (PCA), nel massimo rispetto dell’ambiente assicurando un prodotto finale in linea

per l'incarico, la denominazione di Direttore della Sede locale; egli è responsabile dell'andamento della Sede stessa nonché del funzionamento delle unità minori

Questo metodo è più pratico rispetto alla randomizzazione semplice ed assicura anche che le singole unità del campione siano distribuite uniformemente all’interno della

Solo 11/62 trial ana- lizzati descrivono i dettagli sulla stima della dimensione del campione in maniera completa e consistente sia nel protocollo, sia nel

3 Campionamento stratificato con estrazione di campio- ni casuali semplici senza ripetizione in ogni strato.. Per ogni strato, h

 L’aritmetica (= gli asserti veri sui numeri) non corrisponde alla sua “teoria logica formalizzata”.  vi sono asserti veri che non