• Non ci sono risultati.

Econometria Il modello di regressione multipla Tiziano Razzolini

N/A
N/A
Protected

Academic year: 2021

Condividi "Econometria Il modello di regressione multipla Tiziano Razzolini"

Copied!
11
0
0

Testo completo

(1)

Econometria

Il modello di regressione multipla

Tiziano Razzolini

Università di Siena

Siena, 2020

(2)

Calcolo degli stimatori OLS

Minimizziamo la somma degli errori al quadrato calcolando le derivate parziali rispetto a b1e b2e ponendole pari a zero.

Pn

i=1(yi− b1− b2xi)2

∂b1

Pn

i=1(yi− b1− b2xi)2= −2Pn

i=1(yi− b1− b2xi) =0

∂b2

Pn

i=1(yi− b1− b2xi)2= −2Pn

i=1(yi− b1− b2xi)xi =0

(3)

Regressione con un singolo regressore

Calcolo degli stimatori OLS 1) −2Pn

i=1(yi− b1− b2xi) =0 ⇔ n¯y − nb1− b2n¯x = 0 ⇔ βˆ1= ¯y − ˆβ2

2)−2Pn

i=1(yi− b1− b2xi)xi =0 ⇔ Pn

i=1xiyi− b1Pn

i=1xi− b2Pn

i=1xi2=

=Pn

i=1xiyi− (¯y − b2¯x )Pn

i=1xi− b2Pn

i=1xi2=

=Pn

i=1xiyi− n¯x ¯y + nb22− b2Pn

i=1xi2=0 Notate che:Pn

i=1(xi− ¯x ) (yi− ¯y ) =Pn

i=1xiyi− n¯x ¯y e che Pn

i=1(xi− ¯x )2=Pn

i=1xi2− n¯x2

(4)

Calcolo degli stimatori OLS

Quindi si ha:

2)−2Pn

i=1(yi− b1− b2Xi)xi =0 ⇔

=Pn

i=1xiyi− n¯x ¯y + nb22− b2Pn

i=1xi2=

=Pn

i=1(xi− ¯x ) (yi− ¯y ) − b2Pn

i=1(xi− ¯x )2=0 βˆ2=

Pn

i=1(xi−¯x )(yi−¯y ) Pn

i=1(xi−¯x )2

Se dividiamo entrambi i membri per (n − 1) si ha:

βˆ2= sxy

s2x

(5)

Regressione con un singolo regressore

Proprietà degli OLS Pn

i=1i =0. Si ha infatti: ˆei =yi− ˆyi=yi − ˆβ1− ˆβ2xi. Sostituendo ˆβ1= ¯y − ˆβ2x si ha che:¯

i =yi− ¯y + ˆβ2¯x − ˆβ2xi facendo la sommatoria si ha:

Pn

i=1i =Pn

i=1(yi− ¯y ) − ˆβ2Pn

i=1(xi− ¯x ) = 0 Entrambi i termini sono pari zero.

1 n

Pn

i=1i = ¯y si ha infatti che: yi = ˆyi+ ˆei e quindi Pn

i=1yi =Pn

i=1ˆyi+Pn

i=1i =Pn i=1i

(6)

Altra proprietà degli OLS Pn

i=1ixi =0 e sˆex =0 Vale infatti: Pn

i=1ixi =Pn

i=1ˆei(xi− ¯x ) =

=Pn

i=1ixi− ¯xPn i=1i Pn

i=1ixi =Pn

i=1(yi− ˆyi) (xi− ¯x ) =

=Pn i=1



yi− ˆβ1− ˆβ2xi

(xi− ¯x ) =

=Pn i=1



yi− ¯y + ˆβ2x − ˆ¯ β2xi



(xi− ¯x ) =

=Pn

i=1(yi− ¯y ) (xi− ¯x ) −Pn

i=1βˆ2(xi− ¯x )2=0 Dato che: ˆβ2=Pn

i=1(yi− ¯y ) (xi− ¯x ) /Pn

i=1(xi− ¯x )2

(7)

Esercizi

Modello trivariato

Considerate il modello: Yi = β1+ β2x2i + β3x3i +ei La somma dei residui al quadrato è:

Pn

i(Yi− β1− β2x2i− β3x3i)2Le derivate rispetto ai tre

coefficienti poste uguali a zero β costituiscono un sistema di 3 equazioni

b1n + b2P

ix2i +b3P

ix3i =P

iYi b1P

ix2i +b2P

ix2i2 +b3P

ix2ix3i =P

ix2iYi b1P

ix3i +b2P

ix2ix3i +b3P

ix3i2 =P

ix3iYi

(8)

Modello trivariato

Il sistema puo’ essere risolto come prima dividendo la prima equazione di ottimo per n:

b1= ¯Y − b22− b33 e sostituendo b1nelle altre due equazioni.

(9)

Esercizi

Abbiamo quindi:

b2X

i

(x2i− ¯x2)2+b3X

i

(x2i− ¯x2)(x3i− ¯x3) =X

i

(x2i− ¯x2)(Yi− ¯Y )

b2X

i

(x2i− ¯x2)(x3i− ¯x3)+b3X

i

(x3i− ¯x3)2=X

i

(x3i− ¯x3)(Yi− ¯Y ) Indichiamo con ˜x2i , ˜x3i e ˜yi le deviazioni attorno alla media:

b2=

P

i˜x2iy˜iP

i˜x3i2P

ix˜3i˜yiP

ix˜2i˜x3i P

ix˜2i2P

i˜x3i2−(P

i˜x3i˜x2i)2

b3=

P

i˜x3iy˜iP

i˜x2i2P

ix˜2i˜yiP

ix˜2i˜x3i

P

ix˜2i2P

i˜x3i2−(P

i˜x3i˜x2i)2

(10)

Modello trivariato

Ricordiamo che: byx = ssxy2

x =

P

i˜xiy˜i

P

i˜xi2 =

P

i(xi−¯x )(yi−¯y ) P

i(xi−¯x )2

Dividiamo numeratore e denominatore di b3perP

i2i2P

i3i2 Definiamo la correlazione campionaria ˜x2i e ˜x3i come:

rx22x3 =P

i(˜x3i2i)2/P

i(˜x3i2)P

i(˜x2i2)

Usando la definizione di byx3 and bx2x3 abbiamo:

byx3·x2 = byx3

1 − rx23x2 −byx2bx2x3

1 − rx23x2

dove byx3·x2 è la pendenza in una regressione di y su x3in presenza di x2.

(11)

Esercizi

Modello trivariato In maniera simile:

byx2·x3 = byx2− byx3bx3x2 1 − rx22x3

L’effetto di x2su Y deve considerare l’effetto di x2su Y e su x3. Nota che se rx22x3 =0 allora bx3x2 =0, e byx2·x3 =byx2

Theorema: Regressione Ortogonale: Se le variabili

esplicative in una regressione multipla non sono correlate (i.e.

sono ortogonali) allora i coefficienti/pendenze sono gli stessi che otterreste da regressioni semplici sulle singole variabili.

Riferimenti

Documenti correlati

WLS versus errori standard robusti a eteroschedasticit` a Se la forma funzionale della varianza di u i condizionata a X i fosse nota i WLS sono piu’ efficienti del OLS con

1) La assenza o la presenza degli effetti specifici temporali , che permettono la dicotomizzazione tra modelli di regressione one-way error component (i primi) e two-way

SE R² =0 SIGNIFICA CHE IL CONTRIBUTO ESPLICATIVO ALLA DEVIANZA COMPLESSIVA APPORTATO DAL MODELLO È IDENTICAMENTE NULLO; LA DEVIANZA COMPLESSIVA È SOLO SPIEGATA DALLA

La teoria matematica ci richiede delle particolari ipotesi su tali residui, che costituiscono la componente aleatoria del modello lineare: essi devono essere dei numeri

Per far questo, ipotizziamo che i valori di Y siano realizzazioni campionarie di una qualche variabile causale e che i residui siano l’effetto risultante di un gran numero di

Nei fogli assegnati, per ogni esercizio, si deve dare una giusti…cazione di tutte le scelte e¤ettuate (sia i “VERO” sia i “FALSO”), con un discorso globale o suddiviso punto

Nei fogli assegnati, per ogni esercizio, si deve dare una giusti…cazione di tutte le scelte e¤ettuate (sia i “VERO” sia i “FALSO”), con un discorso globale o suddiviso punto

indipendente dalle X i , signi…ca che il modello è buono, nel senso che abbiamo sfruttato nel modo migliore le informazioni contenute nelle X i , senza ritrovarci parte di