• Non ci sono risultati.

1 - La regressione lineare semplice

N/A
N/A
Protected

Academic year: 2021

Condividi "1 - La regressione lineare semplice"

Copied!
41
0
0

Testo completo

(1)

`Statisti a per l'Analisi Organizzativa'

B. S arpa

AA 2006/07

0

Questiappuntisiriferis onoal orsoindi atosopraperladell'Università ommer iale

L.Bo oni,esonodestinatiades lusiva ir olazioneinterna. Èvietatala ir olazionedi

questomaterialealdifuoridell'ambitoindi ato. Questomaterialenon ostituis eillibro

(2)
(3)

 diagramma di dispersione

 modello di regressione lineare sempli e

 minimi quadrati

 ovarianza

 media e varianza residua; oe iente di determinazione multipla (

R

2

)

(4)

 per 118 diverse automobili abbiamo a disposizione il numero di miglia

per orse e il onsumo di benzina (in galloni).

miles gals miles gals miles gals

210.0 13.3 253.0 12.8 201.0 11.7 199.0 12.2 191.0 11.2 216.0 13.5 182.0 11.5 228.0 13.5 189.4 12.3 208.4 13.5 212.7 13.2 184.7 13.0 217.0 14.3 217.0 14.1 189.0 13.2 379.8 25.7 190.0 13.6 197.0 13.2 204.0 13.3 213.0 13.0 168.0 11.6 180.6 12.7 210.6 12.8 209.0 13.8 157.5 8.9 217.0 13.2 202.0 13.5 226.8 14.2 176.7 12.9 183.0 13.9 181.0 12.0 206.0 13.0 204.0 14.2 194.5 13.2 208.3 13.0 197.0 13.0 194.5 12.8 190.0 12.0 204.0 13.0 208.3 13.6 212.0 14.5 221.9 12.3 188.6 12.3 313.0 21.2 199.0 12.5 193.0 13.2 197.0 13.2 242.0 14.1 212.0 13.1 189.0 12.9 222.0 13.0 207.5 13.6 188.0 12.5 219.0 12.3 216.2 13.6 334.0 22.0 202.6 13.2 203.1 13.0 203.0 13.1 221.0 13.7 202.5 12.5 209.0 12.3 226.0 13.4 193.5 11.6 236.0 13.2 207.0 12.5 116.0 7.5 206.0 13.7 218.0 12.9 221.6 14.2 163.0 12.5 228.0 13.3 194.2 11.9 195.0 13.2 97.0 6.2 213.6 13.1 201.0 13.5 266.0 13.2 217.3 13.6 213.0 13.9 234.0 11.9 211.5 14.2 209.5 12.5 193.0 11.4 200.0 12.1 197.4 12.4 210.0 12.6 191.0 12.8 199.6 12.3 196.0 12.5 227.0 13.9 167.0 10.5 217.0 12.7 207.4 13.0 208.0 11.5 228.0 13.6 209.8 12.5 204.0 12.8 176.3 10.3 212.5 13.6 188.5 12.0 243.0 11.6 209.0 12.8 212.3 13.0 142.0 7.8 213.1 14.2 88.7 5.8 293.0 14.5 215.4 13.0 200.0 9.5 118.0 7.1 215.8 13.8 179.0 9.0 224.0 12.0 204.1 12.3 153.0 7.7 165.0 8.9 207.0 10.1

 si vogliono utilizzare i dati per ottenere una equazione he permetta

di prevedere il onsumo di arburante in funzione della per orrenza.

diagramma di dispersione

100

150

200

250

300

350

10

15

20

25

miles

gals

 abbiamo sempli emente disegnato i punti osservati sul piano. E'

(5)

 adottiamo per il momento l'ipotesi di una relazione lineare. Possiamo

allora pensare ad un modello del tipo

( onsumo)

= β

0

+ β

1

(per orrenza)

+

(errore)

dove l'ultima omponente esprime la parte delle os illazioni dei

on-sumi non legate alla per orrenza (o, forse più pre isamente, he una

funzione lineare della per orrenza non ries e a spiegare)

modelli di regressione lineare sempli e: aso generale e

termi-nologia

 un modello del tipo

( onsumo)

= β

0

+ β

1

(per orrenza)

+

(errore)

vieneusualmente hiamatomodellodi regressione lineare sempli e.

 nel aso generale, er hiamo di spiegare una variabile, di iamo

y

, utilizzando un'altra variabile, di iamo

x

, mediante un modello deltipo

y = β

0

+ β

1

x +

errore

.

y

viene usualmente indi ata ome la variabile risposta o la variabile

dipendente mentre

x

ome il regressore o la variabile espli ativa o la variabile indipendente.

β

0

e

β

1

sono i parametri del modello.

 per quanto riguarda il nome, regressione viene dalla storia, lineare

per hé è lineare, sempli e per hé si tenta di spiegare la risposta

(6)

 il problema è ome determinare

β

0

e

β

1

. Infatti, se rius iamo a al olare un valore ragionevole per questi due parametri, di iamo

β

^

0

e

β

^

1

, possiamo poi pensare di prevedere i onsumi utilizzando

^

β

0

+ ^

β

1

(per orrenza)

.

 sembra ragionevole er are di  al olare

^

β

0

e

^

β

1

in modo tale he

questa formula fornis a buone previsioni sull'insieme di dati

osser-vato. Al proposito, indi hiamo on

n

il numero delle osservazioni (in questo aso

n = 118

), e poniamo

y

i

=

( onsumo di arburante) e

x

i

=

(per orrenza). Quello he vorremmo è trovare dei valori per i

parametri tali he

y

1

≈ ^β

0

+ ^

β

1

x

1

y

2

≈ ^β

0

+ ^

β

1

x

2

. . .

y

n

≈ ^β

0

+ ^

β

1

x

n

 perrendereoperativo questoinsiemediequazioni, dobbiamode idere

(i) in he senso interpretiamo gli

he abbiamo s ritto e (ii) ome ombiniamo tra di loro le varie formule s ritte. La soluzione più usata

si on retizza nello s egliere i due parametri minimizzando

s

2

0

, β

1

) =

n

X

i=1

(y

i

− β

0

− β

1

x

i

)

2

ovvero s egliendo

^

β

0

e

^

β

1

in maniera tale he

s

2

(^

β

0

, ^

β

1

)

≤ s

2

0

, β

1

)

perqualsivoglia

β

0

∈ R

e

β

1

∈ R

. Inquesto aso si di e heiparametri sono stati al olati utilizzando il metodo dei minimi quadrati.

(7)

 Si osserva, in primo luogo, he per ogni pressato

β

1

, si onos ono già le soluzioni del seguente problema

inf

β

0

∈R

n

X

i=1

(y

i

− β

0

− β

1

x

i

)

2

sappiamo infatti he assegnati

n

numeri, di iamo

z

1

, . . . , z

n

, la media aritmeti a delle

z

i

minimizza rispetto ad

a

la funzione

P

(z

i

− a)

2

.

Nel problema di minimizzazione pre edente

β

0

gio a il ruolo di

a

e

(y

i

− β

1

x

i

)

(se

β

1

è noto) quello di

z

i

. Quindi, per qualsivoglia

β

1

, la

soluzione del problema la troviamo in orrispondenza di

β

0

1

) =

1

n

n

X

i=1

(y

i

− β

1

x

i

) =

y − β

1

x

dove

y

e

x

indi ano rispettivamente la media delle

y

i

e quella delle

x

i

.

 dalla denizione di

β

0

1

)

segue he, per qualsiasi

β

0

e

β

1

,

s

2

0

, β

1

)

≥ s

2

0

1

), β

1

).

 quindi,

^

β

1

può essere er ato risolvendo il problema di ottimizzazione

inf

β

1

∈R

s

2

0

1

), β

1

)

mentre

^

β

0

= β

0

(^

β

1

)

(8)

s

2

0

1

), β

1

) =

n

X

i=1

[y

i

y − β

1

(x

i

x)]

2

.

derivando rispetto a

β

1

e mettendo a zero la derivata si ottiene l'equazione (per

β

1

)

−2

n

X

i=1

(x

i

x)[(y

i

y − β

1

(x

i

x)] = 0,

he possiamo ris rivere ome

n

X

i=1

(x

i

x)(y

i

y) = β

1

n

X

i=1

(x

i

x)

2

.

 se

P

n

i=1

(x

i

x)

2

> 0

, l'equazione pre edente ammette l'uni a soluzione

β

1

=

P

n

i=1

(x

i

x)(y

i

y)

P

n

i=1

(x

i

x)

2

 las iamo allo studente il ompito di veri are he questa

soluzio-ne orrisponde ad un punto di minimo (e non, ad esempio, ad un

(9)

 la soluzione trovata on te ni hematemati he(l'idea èpresentata nelle

pagine pre edenti) può quindi essere s ritta ompattamente ome

^

β

0

=

y − ^

β

1

x

^

β

1

=

ov

(X, Y)

var

(X)

dove

y

,

x

e var

(X)

sono rispettivamente la media della variabile risposta, la media e la varianza della variabile espli ativa, mentre

ov

(X, Y) =

1

n

n

X

i=1

(x

i

x)(y

i

y)

indi a una quantità he usualmente viene hiamata ovarianza tra

X

e

Y

.

Le formule appena viste fornis ono la soluzione del problema he i si era

proposti solamente se var

(X) > 0

. Questo è molto ragionevole:

β

1

i di e ome varia la risposta al variare della espli ativa, ma se var

(X) = 0

l'espli- ativa non è variata aatto nei dati disponibili, per ui la domanda perde

(10)

 per il al olo della ovarianza è onveniente utilizzare la seguente relazione ov

(X, Y) =

1

n

n

X

i=1

x

i

y

i

x

y

ovvero  ( ovarianza)

=

media dei prodotti

!

prodotto delle medie

!

.

infatti,abbiamo

1

n

n

X

i=1

(x

i

x)(y

i

y) =

1

n

n

X

i=1

x

i

(y

i

y) −

x

n

n

X

i=1

(y

i

y)

ilse ondo addendoènullopoi hélasommadeglis artidallamediavalezero. Espandendoilprimo

addendotroviamo

1

n

n

X

i=1

x

i

(y

i

y) =

1

n

n

X

i=1

x

i

y

i

y

1

n

n

X

i=1

x

i

=

1

n

n

X

i=1

x

i

y

i

x

y.

 Eser izio: Esiste una formula analoga per la varianza. Spiegare he

onnessione esiste tra le due formule (ad esempio, una è più generale

(11)

 In questo aso

P

y

i

= 1501.1

P

x

i

= 24178.3

P

x

2

i

= 5102744

P

x

i

y

i

= 316197

per iò

y = 1501.1/118 = 12.72

x = 24178.3/118 = 204.90

var

(X) = (5102744/118) − 204.90

2

= 1259.23

ov

(X, Y) = (316197/118) − 204.90

· 12.72 = 73.05

quindi

^

β

1

= 73.05/1259.23 = 0.0580

^

β

0

= 12.72 − 0.0580

· 204.90 = 0.8341

il gra o mostra i dati osservati on la retta di regressione al olata.

La apa ità di des rivere le variazioni dei onsumi sembra buona.

100

150

200

250

300

350

10

15

20

25

miles

gals

(12)

 le dierenze tra i valori osservati della risposta ed i valori previsti dal

modello, ovvero,

r

i

= y

i

− ^

β

0

− ^

β

1

x

i

(i = 1, . . . , n)

sono usualmente hiamati residui.

 è fa ile veri are he la media dei residui è nulla. Infatti

n

X

i=1

r

i

=

n

X

i=1

y

i

− n^

β

0

− ^

β

1

n

X

i=1

x

i

= n

y − n(

y − ^

β

1

x) − n^

β

1

x = 0

 la varianza dei residui, he per quanto appena detto, oin ide on la

media deiquadrati dei residui, può essereutilizzata per avere unaidea

numeri a della bontà di adattamento del modello ai dati. Infatti, più

la varianza dei residui sarà pi ola, più la retta di regressione spiega

le variazioni della risposta.

 inoltre, può agevolmente essere al olata ome

var

(r

1

, . . . , r

n

) =

var

(Y) −

ov

2

(X, Y)/

var

(X).

infatti var

(r

1

, . . . , r

n

) =

1

n

n

X

i=1

r

2

i

=

1

n

n

X

i=1

[(y

i

y) − ^

β

1

(x

i

x)]

2

=

=

1

n

n

X

i=1

(y

i

y)

2

+

β

2

1

n

n

X

i=1

(x

i

x)

2

2^

β

1

n

n

X

i=1

(x

i

x)(y

i

y) =

=

var

(Y) + ^

β

2

1

var

(X) − 2^

β

2

1

ov

(X, Y) =

=

var

(Y) +

ov

2

(X, Y)/

var

(X) − 2

ov

2

(X, Y)/

var

(X) =

=

var

(Y) −

ov

2

(X, Y)/

var

(X)

 si osservi he la varianza dei residui è sempre non più grande della

(13)

 l'indi atore

R

2

= 1 −

var

(r

1

, . . . , r

n

)

var

(Y)

èdenito ome oe iente dideterminazione emisura, ome si suol

dire, la frazione della varianza della risposta (spesso indi ata ome

varianza totale) spiegata dal modello. Infatti

R

2

varia tra 0 e 1, vale

0 quando var

(r

1

, . . . , r

n

) =

var

(Y)

R

2

per i onsumi

 abbiamo visto prima he

y = 1501.1/118 = 12.72

var

(X) = (5102744/118) − 204.90

2

= 1259.23

ov

(X, Y) = (316197/118) − 204.90

· 12.72 = 73.05

Inoltre

X

y

2

i

= 19755.53

 Quindi var

(Y) = (19755.53/118) − 12.72

2

= 5.59

e per iò var

(r

1

, . . . , r

n

) = 5.59 − 73.05

2

/1259.23 = 1.375

 Il oe iente di determinazione vale

R

2

= 1 − 1.375/5.59 = 0.75

(14)

e se tutto fosse dovuto al aso?

 noa questo punto abbiamo guardato solo ai dati disponibili. Inrealtà

noi, in futuro, non osserveremo mai nessuna delle auto he abbiamo

utilizzato per trovare le stime, visto he non torneremo indietro nel

tempo ...Siamo quindi interessati a sapere quanto la stima eettuata

per un qual he insieme di auto osservato sia estendibile ai possibili

valori futuri he potremo osservare

 una maniera di vedere il problema onsiste nel ri onos ere he no

a questo punto abbiamo tras urato una ulteriore fonte di variabilità,

quella ampionaria. Ad esempio, almeno una parte della relazione tra

onsumo e per orrenza dipende dai valori osservati, nel senso he, se

potessimo repli are l'osservazione per altre auto o in altri per orsi on

la stessa auto, i aspettiamo di trovare risultati diversi

 la domanda è: di quanto diversi? Tanto diversi, ad esempio, da

por-tar i a on ludere hela relazione tra onsumo eper orrenza potrebbe

non esser i? o addirittura essere negativo? oppure diversi si, ma non

tanto da alterare le on lusioni suggerite dalle stime?

le stesse domande...in on reto

 le stime

^

β

0

e

^

β

1

quanto sono diverse dai veri valori a noi ignoti

β

0

e

β

1

? (ma esistono davvero dei veri valori)?

 quanto grande è, e ome è fatta quella omponente di errore he

abbiamo ipotizzato nel modello?

 sappiamo he

R

2

è ompreso tra 0 e 1, ma ome fa iamo a sapere se

il valore osservato è grande o pi olo? basta he sia maggiore di 0.5?

quando possiamo dir i soddisfatti dell'adattabili t à delnostro modello?

R

2

> 0.9

? o i a ontentiamo di

R

2

> 0.8

? o basta

R

2

> 0.5

(15)

rere passa per una migliore spe i azione della omponente he abbiamo

hiamato di errore del nostro modello

y = β

0

+ β

1

x +

errore

.

riprendiamo il nostro esempio

 un modo per guardare al nostro modello può essere il seguente:

 il onsumo di ogni auto può essere ottenuti dalla somma di due

omponenti

1. una omponentesistemati a,dettaan hepartedeterministi adel

modello di regressione, he dipende dalla per orrenza (la funzione

lineare su ui abbiamo lavorato nora)

2. una omponente didisturboaleatoria oerrati a, detta an he

par-te sto asti a del modello, sostanzialmente dovuta al aso, ioè non

prevedibile (almeno attraverso i dati a disposizione) he varia di

anno in anno in maniera sostanzialmente asuale. (la omponente

(16)

 per spe i are meglio quest'ultima parte, possiamo fare ri orso alla

teoria della probabilità, e ad esempio ipotizzare he questa parte del

modello sia ostituita da una variabile asuale, he hiameremo

ε

, he soddis ad al une proprietà.

 adesempio, visto hedeve ogliere una omponente heabbiamo detto

essere di errore nel modello, i aspettiamo he tale variabile abbia

media nulla. Cioè i aspettiamo he, più o meno, le previsioni he

risultano maggiori del vero valore, siano onfrontabili on quelle he

risultano minori.

 sembra ragionevole inoltre hiedere he non i sia al una struttura di

dipendenza tra le diverse

ε

he si presentano in ias una delle osser-vazioni, ioè, nell'esempio, he la omponente sto asti a non dipenda

dall'auto né dalla per orrenza osservata da ias una auto. Questa

ipo-tesi i permette osì di aermare he tutta la dipendenza del

on-sumo dalla per orrenza viene olta dalla omponente sistemati a, e la

omponente aleatoria misura eettivamente l'errore.

 in parti olare è utile pensare he la variabilità della

ε

non sia diversa tra le diverse auto. In prati a iò signi a he la varianza

σ

2

ε

di

ε

è ostante.

 nel aso del onsumo delle auto, è ertamente possibile ipotizzare he

il nostro modello lineare olga sostanzialmente tutta la dipendenza tra

onsumo e per orrenza: i aspettiamo quindi ragionevolmente he la

omponente di errore abbia valore atteso nullo. Pur sapendo he il

onsumo è ertamente legato alla per orrenza, i aspettiamo an he he

tale legame sia ompletamente olto dalla relazione lineare ipotizzata

(pensiamo ioè he l'aumento unitario della per orrenza porta ad un

(17)

 riassumendo si assume un modello del tipo

y = β

0

+ β

1

x + ε.

 dove

ε

è una variabile aleatoria di media nulla he non dipende da

x

.

 onsiderando he si hanno

n

osservazioni (nel nostro aso

n = 118

), se ontinuiamo a indi are on

y

i

il onsumo dell'auto

i

-esima e on

x

i

la per orrenza della stessa auto

i

-esima e hiamiamo

ε

i

la variabile

aleatoria he misura la omponente errati a an ora per l'auto

i

-esima, possiamo s rivere il nostro modello

y

1

= ^

β

0

+ ^

β

1

x

1

+ ε

1

y

2

= ^

β

0

+ ^

β

1

x

2

+ ε

2

. . .

y

n

= ^

β

0

+ ^

β

1

x

n

+ ε

n

dove le

ε

i

soddisfano alle seguenti ipotesi

1. le

ε

i

hanno tutte la stessa distribuzione

2. il valore atteso delle

ε

i

è nullo

E(ε

i

) = 0

∀i

3. per ogni

i

6= j

le

ε

i

sono indipendenti dalle

ε

j

ε

i

⊥⊥ ε

j

∀i 6= j

4. le varianze delle

ε

i

sono ostanti al variare delle osservazioni

i

(18)

 si osservi he il modello visto può essere s ritto an he in una forma

dierente. Il modello

y = β

0

+ β

1

x + ε.

è la somma di una variabile aleatoria (

ε

) e di una  ostante (rispetto alla variabile aleatoria). Dalla teoria della probabilità sappiamo he se

Z

èunavariabile aleatoria, e

a

e

b

sonodue ostanti, allora

E(aZ+b) =

aE(Z) + b

; se, quindi, poniamo

Z = ε

,

a = 1

e

b = β

0

+ β

1

x

possiamo

s rivere

E(y) = β

0

+ β

1

x + E(ε)

he sostituendo fornis e

E(y) = β

0

+ β

1

x

 analogamente si pro ede per la varianza. Dalla probabilità sappiamo

he se

Z

è una variabile aleatoria e

a

e

b

due ostanti Var

(aZ + b) =

a

2

Var

(Z)

da ui sostituendo an ora

Z = ε

,

a = 1

e

b = β

0

+ β

1

x

si ha

Var

(y) = 1

2

·

Var

(ε) =

Var

(ε) = σ

2

 possiamo quindi dire he an he

y

è una variabile aleatoria di media

β

0

+ β

1

x

e varianza

σ

(19)

 abbiamo visto ome stimare

β

0

e

β

1

usando il riterio dei minimi qua-drati; ma on questa nuova formulazione abbiamo un nuovo parametro

σ

2

da stimare, e il riterio dei minimi quadrati non i è di aiuto

 per stimare

σ

2

i vogliamo basare sulla stima he abbiamo a

disposizione per la omponente di errore del modello: i residui

 utilizzando i residui osservati ( fr. al une pagine prima)

^

ε

i

= r

i

=

y

i

− ^

y

i

= y

i

− ^

β

0

− ^

β

1

x

i

possiamo ostruireunostimatore perla varianza

della omponente di errore utilizzando la varianza dei residui, he è

fa ilmente al olabile. Infatti, omeabbiamovisto,la media deiresidui

è sempre nulla, uno stimatore per la varianza dell'errore sarà quindi

^

σ

2

=

1

n − 2

n

X

i=1

r

2

i

=

1

n − 2

n

X

i=1

(y

i

− ^

y

i

)

2

=

1

n − 2

n

X

i=1

(y

i

− ^

β

0

− ^

β

1

x

i

)

2

 Osservazione: si fa ia attenzione he lo stimatore proposto non è la

varianza ampionaria dei residui, se ondo la denizione he usiamo

quando stimiamo la varianza di una variabile asuale, ad esempio

di-stribuita omeunaNormale(perssare leidee, si fa iariferimentoallo

stimatoreusato nella veri adiipotesi sullamedia diunaNormale). In

quel aso si utilizza a denominatore il valore

n − 1

, mentre qui usiamo

n − 2

. La somma dei quadrati degli errori viene divisa per i gradi di

libertà he sono una misura di quanta informazione abbiamo a

dispo-sizione per stimare la varianza. Questa quantità ovviamente si basa

sul numero di osservazioni a disposizione (

n

), dalle quali dobbiamo però togliere il numero di altri valori he abbiamo stimato utilizzando

quegli stessi dati (nel nostro aso sono 2,

β

0

e

β

1

).

 nel nostro esempio, la stima della varianza dei residui risulta

s

2

= ^

σ

2

=

1

n − 2

X

(y

i

− ^

y

i

)

2

=

1

118 − 2

· 159.6559 = 1.376

(20)

 nora non abbiamo fatto assunzioni sull'intera distribuzione di

ε

(e di onseguenza della

y

), ma i siamo limitati a onsiderare solo il valo-re atteso e la varianza quali indi atori riassuntivi delle aratteristi he

della distribuzione

 in molti asi è utile onsiderare l'intera distribuzione della

ε

. Come abbiamo detto si tratta di una variabile he vuole ogliere l'errore non

attribuibile a omponenti sistemati he già presenti nel modello. Ci

aspettiamo (o i pia erebbe) he la distribuzione di questi errori abbia

al une aratteristi he; ad esempio pare ragionevole aspettarsi he la

distribuzione sia simmetri a intorno al valore atteso ( he è zero); i

possiamo an he aspettare he i valori più vi ini allo zero siano più

probabili di quelli lontani. Una distribuzione he onos iamo he

soddisfa a questi requisiti è, ad esempio, la distribuzione Normale.

 una usuale assunzione è quindi quella di dire he

ε ∼

N (0, σ

2

)

ioè he

(21)

 una prima domanda he i siamo posti riguardava la du ia he noi

diamo al valore stimato per

β

1

. Ci hiediamo se davvero 'è una rela-zionepositiva tra per orrenza e onsumo,ose il valore henoiabbiamo

ottenuto in realtà poteva essere attribuito all'eetto del aso. Poteva,

ioè, il aso fornir i degli altri dati he i avrebbero portato a una

stima per

β

1

pari a zero?

 più in generale i stiamo hiedendo se il nostro modello

y = β

0

+ β

1

x + ε.

ha davvero senso nel nostro problema o se potrebbe essere sostituito

dal modello

y = β

0

+ ε.

 questoproblema statisti o in realtà lo sappiamo già (quasi) risolvere.

E' un problema di veri a di ipotesi!

 l'ipotesi da veri are sarà



H

0

: β

1

= 0

H

1

: β

1

6= 0

per un modello dove

y ∼

N (β

0

+ β

1

x; σ

2

)

.

 se

β

0

fossenoto,il problema si risolverebbe on untest, he onos iamo bene, di veri a di ipotesi sulla media della distribuzione Normale on

varianza ignota ...ma

β

0

non è noto, è an h'esso un parametro da stimare. La logi a però è analoga ...

(22)

la veri a di ipotesi su

β

1

 abbiamo già ottenuto degli stimatori per

β

0

e

β

1

(attraverso i minimi quadrati) e per

σ

2

(per analogia on asi simili).

 in maniera analoga a quanto visto per la veri a d'ipotesi sempli e

sulla media, utilizziamo ome statisti a test

t

oss

1

) =

^

β

1

q

s

2

P

n

i=1

(x

i

x)

2

=

q

P

n

β

^

1

i=1

(y

i

−^

y

i

)

2

/(n−2)

P

n

i=1

(x

i

x)

2

dove

y

^

i

= ^

β

0

+ ^

β

1

x

i

è il modello stimato e

x

è la media ampionaria della variabile

x

.

 in questo aso

P

n

i=1

(x

i

x)

2

gio a il ruolo he nel aso della veri a di

ipotesi sulla media di unaNormale era assegnato a

n

. Ciò ègiusti ato dal fatto he ora il parametro he stiamo sottoponendo a veri a non

è la media della variabile, ma una sua  omponente, pre isamente

la omponente he misura quanto questa media dipende da (è legata

a, varia al variare di)

x

, la variabile espli ativa a disposizione. Per questo la variabilità della

y

viene pesata on l'inverso di una misura di variabilità della

x

.

 se H

0

(H

1

) è vera i aspettiamo he

t

oss

assuma valori intorno allo (lontani dallo) zero.

(23)

quanto deve essere lontana da zero

t

oss

per on ludere he H

0

è implausibile?

 per rispondere alla domanda avremmo bisogno di sapere qual'è la

di-stribuzione di

t

oss

quando H

0

è vera. Infatti, questa distribuzione i ra onta quali sono i valori di

t

oss

he i aspettiamo sotto l'ipotesi nulla.

 sappiamo he la distribuzione di

β

^

1

è normale (

β

^

1

=

ov

(X,Y)

var

(X)

=

P

n

i=1

(x

i

x)y

i

P

n

i=1

(x

i

x)

2

). Potremmo per iò pensare di approssimare la distribu-zione di

t

on quella di una

N (0, 1)

. Ma la sostituzione del vero

σ

on

s

non può essere indolore soprattutto nel aso di pi oli ampioni in

ui l'errore on ui

s

stima

σ

potrebbe an he essere grande.

 E' però possibile nelle nostre ipotesi (normalità delle osservazioni,

in-dipendenza, ...) determinare la distribuzione esatta di

t

oss

. Come abbiamo già visto nel aso di veri a di ipotesi sulla media di una

va-riabile aleatoria normale, questa statisti a test ha ome distribuzione

la

t

di Student.

 ome abbiamo visto nel orso di Statisti a, la

t

di Student dipende da un solo parametro, i gradi di libertà. Nel aso in esame (veri a sul

parametro

β

1

di un modello di regressione lineare sempli e), abbiamo giàin ontrato taleparametroquandoabbiamo denitolostimatore per

la varianza dell'errore, e abbiamo mostrato he in questo aso è

ragio-nevole (si può an he dimostrare un risultato più pre iso della sempli e

ragionevolezza) sia posto uguale a

n − 2

.

 il test he stiamo onsiderando ha ipotesi alternativa bilaterale per ui

la regione di a ettazione sarà:

−t

n−2;1−α/2

s

2

p

P

n

(x

i

x)

2

, t

n−2;1−α/2

s

2

p

P

n

(x

i

x)

2

!

(24)

 vogliamo sottoporre a veri a d'ipotesi nel nostro esempio la apa ità

di previsione dei onsumi da parte della per orrenza, ioè vogliamo

veri are se il parametro

β

1

è nullo. Riprendiamo le stime

β

^

1

= 0.058

e

s

2

= 1.376

. Sappiamo inoltre he

118

X

i=1

(x

i

x)

2

= 148589.7

la statisti a test sarà

t

oss

1

) =

0.058014

q

1.376

148589.7

= 19.062

 he va onfrontata on il per entile della

t

di Student on

n − 2 =

118 − 2 = 116

gradi di libertà he per

α = 0.05

risulta

t

116;0.975

= 1.9806

heèmoltoinferiore al valore osservato; tale valore risultaesserequindi

altamente signi ativo.

 se si volesse ottenere il livello di signi atività osservato (

p − value

) di

t

oss

= 19.062

si otterrà un valore molto pi olo, per la pre isione

(25)

intervallo di ondenza per

β

1

 una regione di a ettazione on livello

1 − α

per il parametro

β

1

( oef- iente di regressione) si ottiene mediante inversione della regione di

a ettazione del test per veri are l'ipotesi

H

0

: β

1

= β

10

.

 si tratta quindi di ostruire una generalizzazione della pro edura vista

in pre edenza, dove si vuole ioè veri are l'ipotesi



H

0

: β

1

= β

10

H

1

: β

1

6= β

10

 è possibile mostrare he la statisti a test in questo aso risulta

t

oss

1

) =

^

β

1

− β

10

q

s

2

P

n

i=1

(x

i

x)

2

=

q

P

n

β

^

1

− β

10

i=1

(y

i

−^

y

i

)

2

/(n−2)

P

n

i=1

(x

i

x)

2



H

0

viene dunque a ettata on livello

α

se

−t

n−2;1−α/2

s

2

p

P

n

i=1

(x

i

x)

2

≤ ^β

1

− β

10

≤ t

n−2;1−α/2

s

2

p

P

n

i=1

(x

i

x)

2

dove

t

n−2;1−α/2

è il quantile

−(1 − α/2)

della distribuzione

t

di Student on

n − 2

gradi di libertà.

 Un intervallo di ondenza on livello

1 − α

per

β

1

sarà dunque

^

β

1

− t

n−2;1−α/2

s

2

p

P

n

i=1

(x

i

x)

2

, ^

β

1

+ t

n−2;1−α/2

s

2

p

P

n

i=1

(x

i

x)

2

!

 per il nostro esempio un intervallo di ondenza per

β

1

al

95

% sarà dunque

0.058 − 1.9806

·

r

1.376

148589.7

, 0.058 + 1.9806

·

r

1.376

148589.7

!

ioè

(26)

la veri a di ipotesi su

β

0

 di molto minore interesse è veri are l'ipotesi he l'inter etta, ioè il

parametro

β

0

del nostro modello, sia nullo o un qual he valore ssato

β

00

 si riper orre la stessa logi a vista per il parametro

β

1

.

 la stima della varianza di

β

^

0

è

Var

(^

β

0

) =

P

n

i=1

x

2

i

n

P

n

i=1

(x

i

x)

2

s

2

dove

s

2

è an ora la stima della varianza di

ε

divisa per

n − 2

.

 per veri are l'ipotesi

H

0

: β

0

= β

00

ontro l'alternativa

H

1

: β

0

6= β

00

dove

β

00

è un valore ssato (ad esempio 0), la statisti a test sarà

t

oss

= (^

β

0

− β

00

)/

s

P

n

i=1

x

2

i

n

P

n

i=1

(x

i

x)

2

s

he si distribuis e ome una variabile aleatoria

t

di Student on

n − 2

gradi di libertà. Tale statisti a test porterà a riutare (non riutare)

l'ipotesi nulla on livello di signi atività

α

quando risulterà esterna (interna) all'intervallo

(−t

n−2;1−α/2

; t

n−2;1−α/2

)

.

 analogamente a quanto visto per

β

1

un intervallo di ondenza al

95

% per

β

0

sarà

^

β

0

− t

n−2;1−α/2

s

P

n

i=1

x

2

i

n

P

n

i=1

(x

i

x)

2

s; ^

β

0

+ t

n−2;1−α/2

s

P

n

i=1

x

2

i

n

P

n

i=1

(x

i

x)

2

s

!

 un problema un po' più omplesso he ora non tratteremo è quello di

(27)

 un'altradomanda he i eravamo fatti riguardava la apa ità di

adatta-mento globale del modello ai dati. Una prima risposta des rittiva

l'ab-biamo data introdu endo il oe iente di determinazione (

R

2

) he

mi-sura quanta varianza viene spiegata dal modello rispetto alla varianza

omplessiva presente tra le osservazioni della variabile risposta.

 non abbiamo però a disposizione al un riterio per apire se l'

R

2

osser-vato è grande o pi olo, e soprattutto quanto grande deve essere

per dire he i dati sono davvero spiegati dal nostro modello

 per rispondere a questo tipo di domanda è possibile impostare un

pro-blema di veri a di ipotesi globale sul modello: l'ipotesi nulla sarà

l'indipendenza lineare tra

x

e

y

, mentre l'ipotesi alternativa prevederà he la retta spieghi, almeno in parte, la relazione presente

 la statisti a test più usata per questo problema si basa sull'

R

2

. Per

essere più generali, si ponga

k

uguale al numero di parametri utilizzati nel modello, es ludendo

σ

2

(nel nostro aso

k = 2

). Useremo quindi

F

oss

=

R

2

k−1

1−R

2

n−k

=



R

2

1 − R

2

  n − k

k − 1



 si noti he la funzione

f : x → x/(1 − x)

è monotona res en-te nell'intervallo

[0, 1]

. Quindi più è grande

R

2

più è grande

F

oss

e vi eversa.

 la statisti a

F

oss

può essere an he vista ome rapporto tra la media dei quadrati degli s arti spiegati dal modello e la orrispondente media

dei quadrati degli s arti residui. Cioè

F

oss

=

media dei quadrati degli s arti spiegati

media dei quadrati degli s arti residui

=

P

n

i=1

(^

y

i

y)

2

/(k − 1)

P

n

i=1

(y

i

− ^

y

i

)

2

/(n − k)

(28)

 ovviamente, poi hé i aspettiamo

F

oss

grande quando

H

0

èfalsa, onsi-deriamo evidenza ontrol'ipotesi nulla valori elevati della statisti a. Il

problema è, al solito, quanto grande deve essere

F

oss

per far i dubitare di

H

0

?.

 La risposta è fa ilitata dal fatto he è possibile dimostrare he, nelle

ipotesi in ui i siamo messi (normalità, indipendenza, ...),

F

oss

si distribuis e ome una variabile aleatoria

F

di Snede or on

k − 1

gradi di libertà a numeratore e

n − k

al denominatore.

 Per quello he i riguarda una

F

di Snede or è una ulteriore variabile aleatoria, dipendente da due parametri, i gradi di libertà menzionati

pre edentemente. Al uni per entili, per al une ombinazioni di gradi

di libertà sono tabulati e ad esempio riportati alla ne dell'unità.

 nel aso dei onsumi,

F

oss

=

R

2

1−R

2

118−2

2−1

≈ 363.3

 Questovaloredeveessere onfrontato onilquantiledella

F

diSnede or on 1 e 116 gradi di libertà. Dalla tabella alla ne dell'unità vediamo

he il valore osservato è molto più grande del quantile 0.999 ( he è

ir a 11.40) di questa distribuzione e, quindi, he un valore uguale o

più lontano da

H

0

 di quello osservato è inferiore a un millesimo.

 in on lusione, i dati i suggeris ono he non solo nel ampione

osser-vato si presenta dipendenza lineare tra

x

e

y

ma dovrebbe essere osì an he nella popolazione di tutte le possibili osservazioni di per orrenza

(29)

 Il livello di signi atività osservato fornis e la probabilità di ottenere

una statisti a

F

maggiore o uguale a quella ottenuta dai dati a disposizione se in realtà 'è indipendenza tra

x

e

y

.

 la varietà nel pur limitato insieme di test he abbiamo presentato

do-vrebbe aver hiarito l'utilità del livello di signi atività osservato. Il

suo merito prin ipale onsiste nel nas ondere i dettagli dei vari test

e, vi eversa, nel presentare i risultati utilizzando una s ala sempre

uguale. Conos endo il livello di signi atività osservato non abbiamo

bisognodi sapere, per trarre delle on lusioni, se sotto l'ipotesi nulla la

statisti a test si distribuis e ome una normale, o ome una

t

di Stu-dent o ome ...Non abbiamo nean he bisogno di onos ere il valore

della statisti a test.

 Ri ordiamo he omunemente, se il livello di signi atività osservato

è inferiore a 0,01 i risultati sono onsiderati altamente signi ativi

ontro

H

0

mentre se risulta ompreso tra 0.01 e 0.05 si parla di risul-tati signi ativi, sempre ontro l'ipotesi nulla. Vi eversa se risulta

maggiore di 0,1 si on lude he i dati non ontengono elementi tali da

poter rutare

H

0

e quindi si parla di non signi atività. I valori he man ano, ovvero quelli ompresi tra 0,05 e 0,1 sono i più di ili da

interpretare. Siamo inunasituazione disostanziale inde isione, a volte

indi ata ome risultato ai margini della signi atività o borderline.

(30)

il nostro esempio

 unodeimotiviper uiabbiamo ostruitoil nostromodelloè ertamente

quello di eettuare previsioni o simulazioni sul futuro.

 i hiediamo ad esempioquale potrebberoessere il onsumodi un'auto

se ad esempio essa per orre di iamo 400 miglia. Oppure i potremmo

hiedere quanto i aspettiamo sia il onsumo se il la per orrenza fosse

di solo 130 miglia (si osservi he 130 è all'interno del range osservato

per la variabile

x

, mentre 400 è al di fuori di questo range).

 ome è intuitivo per prevedere il valore della

y

, avendo a disposizione la

x

è su iente, dopo aver stimato

β

^

0

e

β

^

1

, sostituire alla

x

la

x

0

(mettiamo il deponente

0

per indi are he quello è un valore ssato)

he abbiamo osservato, o he vogliamo utilizzare per fare simulazioni

o ...

 ora he abbiamo un valore per la nostra previsione i hiediamo però

quanta du ia possiamo dare a questo valore. Vorremmo ioè sapere

qual è la probabilità he il valore he prevediamo sia davvero quello

he osserveremo.

 er hiamo quindi un intervallo di ondenza di previsione da

asso iare alla previsione puntuale

^

(31)

 ome abbiamo visto in altri asi il primo passo è quello di trovare una

stima per la varianza dello stimatore he i interessa, he nel nostro

aso è

y

^

0

.

 sappiamo he il nostro modello di riferimento è

y

0

= β

0

+ β

1

x

0

+ ε

nel quale sostituendo a

β

0

e

β

1

β

^

0

=

y − ^

β

1

x

e

β

^

1

otteniamo

^

y

0

= ^

β

0

+ ^

β

1

x

0

+ ε =

y − ^

β

1

x + ^

β

1

x

0

+ ε =

y + ^

β

1

(x

0

x) + ε

la varianza di

y

^

0

sarà quindi

Var

(^

y

0

) =

Var

(

y) +

Var

(^

β

1

)(x

0

x)

2

+

Var

(ε) =

=

σ

2

n

+

σ

2

P

n

i=1

(x

i

x)

2

(x

0

x)

2

+ σ

2

= σ

2



1 +

1

n

+

(x

0

x)

2

P

n

i=1

(x

i

x)

2



 una stima di questa varianza si ottiene fa ilmente sostituendo

s

2

=

P

n

i=1

r

2

i

/(n − 2) =

P

n

i=1

(y

i

− ^

y

i

)

2

/(n − 2)

a

σ

ottenendo osì

\

Var

(^

y

0

) = s

2



1 +

1

n

+

(x

0

x)

2

P

n

i=1

(x

i

x)

2



 Si possono fa ilmente ottenere ora l'intervallo di previsione

(^

y

0

− t

n−2;1−α/2

q

\

Var

(^

y

0

) ; ^

y

0

+ t

n−2;1−α/2

q

\

Var

(^

y

0

))

ioè

^

y

0

− t

n−2;1−α/2

s

s

1 +

1

n

+

(x

0

x)

2

P

n

i=1

(x

i

x)

2

; ^

y

0

+ t

n−2;1−α/2

s

s

1 +

1

n

+

(x

0

x)

2

P

n

i=1

(x

i

x)

2

!

(32)

 seosserviamounaper orrenzadi400miglia, laprevisione peri onsumi

risulta essere di

^

y

0

= ^

β

0

+ ^

β

1

x

0

= 0.8340 + 0.0580

· 400 = 24.03967

la sua varianza di stima sarà

\

Var

(^

y

0

) = s

2



1 +

1

n

+

(x

0

x)

2

P

n

i=1

(x

i

x)

2



=

= 1, 376

1 +

1

118

+

(400 − 204.90)

2

P

118

i=1

(x

i

− 204.90)

2

!

=

= 1.376



1 +

1

118

+

38064.01

148589.8



= 1.74

 ri ordando he il per entile della

t

di Student he las ia alla sua de-stra una probabilità del 2,5% (0.025) è 1,98 si ottiene l'intervallo di

ondenza al 95%

(24, 040 − 1, 98

·

1, 74 ; 24, 040 + 1, 98

·

1, 74)

ioè

(21, 43 ; 26, 65)

 analoghi onti nel aso di per orrenza uguale a 80 miglia portano a

una previsione puntuale di 8,38 e all'intervallo

(6, 00 ; 10, 75)

Commento:

 si fa ia attenzione a fare previsioni per la

y

al di fuori dell'insieme osservato delle

x

. Tali estrapolazioni potrebbero ondurre a risultati assurdi.

(33)

le bande di ondenza ottenute al olando gli intervalli di

previ-sione in ias un punto del dominio della per orrenza. Si ottiene

100

150

200

250

300

350

5

10

15

20

25

gals

miles

(34)

 si osservi he alla base di tutti i nostri ragionamenti stanno le

ipote-si fatte all'inizio, he proprio in quanto ipotesi non sono sempre e

ne essariamente vere. E' importante, quando si aronta un problema

seguendo un appro io di questo tipo, hiedersi se queste ipotesi sono

soddisfatte: hiedersi ioè, ad esempio, se è possibile onsiderare

in-dipendenti le osservazioni al netto dell'eetto olto dal modello; se è

sensatoipotizzare hela variabilità nonvarial variare delleosservazioni

...

 è opportuno, quindi, predisporre al uni strumenti he permettano di

veri are, una volta stimato il modello, la sensatezza delle assunzioni

fatte.

 se non pare ragionevole utilizzare un modello on queste assunzioni

per il problema in esame, o i si a orge, da una veri a sui risultati,

he le ipotesi non sembrano essere soddisfatte, è ne essario

rivolge-re l'attenzione a modelli diversi he supplis ano alle man anze di

(35)

 unodegli strumenti prin ipali per veri arese ilmodello si adattabene

ai dati, è ostituito dai residui.

 abbiamo già avuto modo di utilizzarli e onos erli. Qui vogliamo solo

riprendere al une aratteristi he he possono essere utili per la veri a

di un modello

 sappiamo he se il modello è orretto, i residui, visto he sono stime

delle omponenti della variabile di errore he noi onsideriamo ome

variabile aleatoria, devonoavere media nulla e unadistribuzione molto

simile a quella della Normale. Se questo non a ade i dovrebbe venire

il dubbio he il nostro modello non sia orretto.

 Una prima sempli e analisi per veri are tali aratteristi he onsiste

nel disegnare il gra o della distribuzione dei residui osservati

(even-tualmente eettuato attraverso un istogramma). Tale gra o (se la

numerosità delle osservazioni è elevata) per hé il modello sia orretto

dovrebbe avere la tipi a forma ampanulare.

 nel aso dei onsumi e della per orrenza la forma he

i aspettiamo viene soddisfatta, an he se sembra

visibi-le una erta asimmetria, ma verosimilmente dovuta al aso.

Istogramma dei residui

frequenze

0

10

20

30

40

(36)

 unaltro gra odi grandeutilità onsiste neltra iare ilgra odei

resi-dui rispetto alla stima

y

^

di

y

ottenuta. Per l'esempio dei onsumi si ha

10

15

20

−3

−2

−1

0

1

2

3

stima del consumo

residui

 il gra o i aiuta a ogliere al uni aspetti he i aspettiamo vengano

rispettati dal nostro modello. An he questo gra o i mostra se i

resi-dui si distribuis ono intorno allo zero; i permette di apire inoltre se

l'ipotesi di varianza ostante viene rispettata; inoltre i può mostrare

se si hanno degli eetti sistemati i he il modello non ha olto; o inne

i può mostrare se il modello è inadeguato ...

 e o al uni esempi

0

20

40

60

80

100

−200

−100

0

100

200

varianza non costante

x

residui

0

20

40

60

80

100

−200

−100

0

100

200

effetto sistematico residuo

x

residui

0

20

40

60

80

100

−200

−100

0

100

200

modello inadeguato

x

residui

(37)

 un'altra possibilità è quella di tra iare il gra o dei residui rispetto

alla(e) variabile(i) espli ativa(e)

x

. An he in questo aso se si presenta una banda orizzontale di residui più o meno simmetri a intorno allo 0

èunabuona indi azione heil modello si adatta bene ai dati. Se si

pre-sentano anomalie rispetto a questa forma, potrebbe signi are an ora

una volta he qual he assunzione non è soddisfatta, ome l'ipotesi di

varianza ostante degli errori, he si sono sbagliati al uni onti, he

so-no ne essari termini aggiuntivi per ogliere la variabilità presente (ad

esempio un termine quadrati o o una trasformazione della variabile

risposta ...)

 l'analisi di questi gra i puòessere di aiutoan heper identi are

even-tuali valori anomali, detti spesso outliers. Sono queste, osservazioni

he non sono per nulla simili al resto dei dati. Per questo tali valori

devonoessere sottoposti a unparti olare e a uratoesame per apire le

ragioni di questa pe uliarità eper apire ome proseguire on le analisi

(eliminarli? ambiare il modello? ...)

 più avanti nel orso tratteremo il aso in ui si presentano residui

auto orrelati ioè non è vera l'ipotesi he le osservazioni (e quindi gli

errori) sono in orrelati (indipendenti) a due a due mentre inve e esiste

una orrelazione tra i residui al variare della variabile espli ativa.

 non tratteremo in questo orso le strade per identi are e trattare

le osservazioni he inuenzano in maniera parti olare i risultati delle

analisi. Tali punti inuenti sono dei valori osservati (alle volte sono

outliers) he da soli inuis ono molto sulla on lusione dell'analisi e se

(38)

qq-plot

 Come veri are se la distribuzione è Normale? Abbiamo visto he

l'istogramma non i fornis e risposte di fa ile interpretazione

 un'alternativa è ostruire un qq-plot. Dalla distribuzione osservata

dei residui possiamo identi are i quantili osservati. Ordiniamo, ioè,

i punti osservati. Ogni punto ora è aratterizzato dalla per entuale

di punti minori o uguali rispetto al totale di punti osservati. Questa

per entuale è una stima basata sulle osservazioni della probabilità di

di avere osservazioni minori o uguali a ogni ssato punto.

 Noi onos iamoperòla distribuzione teori adella Normale, e possiamo

al olare, attraverso la funzione di ripartizione, le probabilità he un

numero estratto a aso da una distribuzione Normale sia minore o

uguale a ias un punto osservato.

 Possiamo ora onfrontare i quantili della distribuzione teori a della

Normale (di media 0 e varianza unitaria), on i quantili della

distri-buzione osservata dei residui (standardizzati, in modo da avere media

nulla e varianza unitaria). Se per ias un punto i quantili sono ir a

uguali, allora la distribuzione dei residui può essere onsiderata

Nor-male, se inve e i punti si dis ostano di pare hio questo assunto non

(39)

 la maniera più sempli e per onfrontare gruppi di valori è attraverso la

ostruzione diungra o, il qq-plotappunto in uisull'asse delle as isse

si indi ano i quantili teori i della Normale, e sull'asse delle ordinate i

quantili osservati.

 quanto più i punti disegnati sono vi ini alla bisettri e del I

e II quadrante tanto più l'ipotesi di normalità è soddisfatta

−2

−1

0

1

2

−3

−2

−1

0

1

2

3

Quantili teorici (Normale)

Standardized residuals

Quantili teorici (Normale)

Q−Q plot Normale

(40)

 La tabella è deliberatamente limitata a quello he può essere utile per

eser iziedesami.

g1

e

g2

indi anorispettivamentei gradidi libertàdel numeratore e del denominatore,

p

la probabilità las iata a sinistra. Quindi, ad esempio,

P(F

on 2 e 10 gradi di libertà

≤ 4, 1) = 0, 95

.

g1 g2 0,5 0,75 0,90 0,95 0,99 0,999 1 9 0,49 1,51 3,36 5,12 10,56 22,86 1 10 0,49 1,49 3,29 4,96 10,04 21,04 1 15 0,48 1,43 3,07 4,54 8,68 16,59 1 20 0,47 1,4 2,97 4,35 8,1 14,82 1 30 0,47 1,38 2,88 4,17 7,56 13,29 1 50 0,46 1,35 2,81 4,03 7,17 12,22 1 50 0,46 1,35 2,81 4,03 7,17 12,22 1 51 0,46 1,35 2,81 4,03 7,16 12,19 1 116 0,46 1,34 2,75 3,92 6,86 11,40 2 9 0,75 1,62 3,01 4,26 8,02 16,39 2 10 0,74 1,6 2,92 4,1 7,56 14,91 2 15 0,73 1,52 2,7 3,68 6,36 11,34 2 20 0,72 1,49 2,59 3,49 5,85 9,95 2 30 0,71 1,45 2,49 3,32 5,39 8,77 2 50 0,7 1,43 2,41 3,18 5,06 7,96 2 50 0,7 1,43 2,41 3,18 5,06 7,96 2 51 0,7 1,42 2,41 3,18 5,05 7,93

(41)

g1 g2 0,5 0,75 0,90 0,95 0,99 0,999 3 10 0,85 1,6 2,73 3,71 6,55 12,55 3 15 0,83 1,52 2,49 3,29 5,42 9,34 3 20 0,82 1,48 2,38 3,1 4,94 8,1 3 30 0,81 1,44 2,28 2,92 4,51 7,05 3 50 0,8 1,41 2,2 2,79 4,2 6,34 3 50 0,8 1,41 2,2 2,79 4,2 6,34 3 51 0,8 1,41 2,19 2,79 4,19 6,32 4 10 0,9 1,59 2,61 3,48 5,99 11,28 4 15 0,88 1,51 2,36 3,06 4,89 8,25 4 20 0,87 1,47 2,25 2,87 4,43 7,1 4 30 0,86 1,42 2,14 2,69 4,02 6,12 4 50 0,85 1,39 2,06 2,56 3,72 5,46 4 50 0,85 1,39 2,06 2,56 3,72 5,46 4 51 0,85 1,39 2,06 2,55 3,71 5,44 5 10 0,93 1,59 2,52 3,33 5,64 10,48 5 15 0,91 1,49 2,27 2,9 4,56 7,57 5 20 0,9 1,45 2,16 2,71 4,1 6,46 5 30 0,89 1,41 2,05 2,53 3,7 5,53 5 50 0,88 1,37 1,97 2,4 3,41 4,9 5 50 0,88 1,37 1,97 2,4 3,41 4,9 5 51 0,88 1,37 1,96 2,4 3,4 4,88

Riferimenti

Documenti correlati

Per far questo, ipotizziamo che i valori di Y siano realizzazioni campionarie di una qualche variabile causale e che i residui siano l’effetto risultante di un gran numero di

sulla base delle osservazioni campionarie verificare l’ipotesi nulla di assenza di un legame lineare tra Altezza e Peso, ad un livello di significatività 

attorno al modello possono essere individuate due fasce di ampiezza

Il metodo della Regressione Lineare (o metodo di stima ai Minimi Quadrati) si occupa di individuare, all’interno di un certo ambito di funzioni, una relazione fra le

SE R² =0 SIGNIFICA CHE IL CONTRIBUTO ESPLICATIVO ALLA DEVIANZA COMPLESSIVA APPORTATO DAL MODELLO È IDENTICAMENTE NULLO; LA DEVIANZA COMPLESSIVA È SOLO SPIEGATA DALLA

Supponiamo ora di avere una differente incertezza per ciascuna misura sulle y e che non esista incertezza sulla misura dell’osservabile x. La nuova relazione non è altro che

L’algoritmo di regressione lineare da’ sempre come risultato una retta, indipendemente dal fatto che i punti si collochino o meno sulla una retta stessa.. E’ necessario

La teoria matematica ci richiede delle particolari ipotesi su tali residui, che costituiscono la componente aleatoria del modello lineare: essi devono essere dei numeri