• Non ci sono risultati.

• Dati Time Series: per un dato collettivo di individui sono rilevate le diverse caratteristiche in diversi istanti 1 .

N/A
N/A
Protected

Academic year: 2021

Condividi "• Dati Time Series: per un dato collettivo di individui sono rilevate le diverse caratteristiche in diversi istanti 1 ."

Copied!
22
0
0

Testo completo

(1)

Panel Data

Giulio Palomba Agosto 2008

I dati in formato panel combinano le informazioni relative alle caratteristiche di N individui nello stesso istante temporale con quelle rilevate per gli stessi individui in T diversi periodi di tempo. Nei modelli di tipo panel i dati disponibili hanno perci` o entrambe le caratteristiche di

• Dati Cross Section: per un dato istante sono osservate le caratteristiche di pi`u individui,

• Dati Time Series: per un dato collettivo di individui sono rilevate le diverse caratteristiche in diversi istanti 1 .

La seguente matrice mostra la disposizione dei dati in formato panel relativi ad una variabile Y ; ogni colonna si riferisce ad un diverso individuo per cui la variabile ` e stata rilevata, mentre per riga sono disposte le diverse osservazioni nel tempo. Ovviamente la variabile Y ` e composta di N T osservazioni.

Y

(N ×T ) =

y 11 y 21 . . . y i1 . . . y N 1

y 12 y 22 . . . y i2 . . . y N 2

.. . .. . .. . .. . y 1t y 2t . . . y it . . . y N t

.. . .. . .. . . . . .. . y 1T y 2T . . . y iT . . . y N T

(1)

Poich´ e i dati cross section e quelli time series hanno ciascuno le proprie peculiarit` a, essi portano con s´ e tutte le complicazioni soprattutto per quanto riguarda il venir meno di alcune ipotesi classiche del modello di regressione lineare

Y = Xβ + ε. (2)

Attraverso la (2) ` e possibile introdurre la notazione. Il vettore Y di dimensione (N T × 1) ` e ottenuto applicando l’operatore vec alla matrice (1) e rappresenta la variabile dipendente, la matrice dei regressori X ha dimensione (N T × k), mentre il vettore k-dimensionale β contiene i parametri incogniti da stimare. Il termine di disturbo ε ha le stesse dimensioni della variabile dipendente.

In molti testi spesso ` e utilizzata una notazione meno compatta rispetto all’equazione (2): molto spesso i modelli per i dati panel vengono presentati nella formulazione che tiene conto della singola osservazione, quindi l’equazione del modello lineare di regressione diventa

y it = x 0 it β + ε it , (3)

dove tutte le variabili si riferiscono all’osservazione relativa all’i-esimo individuo nell’istante t-esimo di tempo; in questo contesto y it e ε it sono scalari, mentre la matrice dei regressori ` e data da un vettore riga con k componenti.

A volte pu` o capitare di imbattersi in una notazione che accorpa tutte le osservazioni relative all’i-esimo individuo per il quale vengono rilevate T osservazioni. L’equazione che ne scaturisce ` e perci` o la seguente:

y i (T ×1)

= x i (T ×k)

β

(k×1)

+ ε i (T ×1)

,

1

Talvolta i termini “cross section” e “time series” sono tradotti rispettivamente con “cross-sezionali” e “serie storiche”.

(2)

Nelle pagine che seguiranno, salvo alcune eccezioni, sar` a utilizzata la notazione compatta introdotta nell’e- quazione (2).

La matrice delle varianze e delle covarianze del termine di errore del modello panel ` e quadrata, simmetrica ed ha dimensione (N T × N T ). Essa ` e definita come

Ω = V ar(ε) = E(εε 0 )

La convenienza dell’utilizzo dei modelli di tipo panel risiede soprattutto nel guadagno di efficienza della stima perch´ e il maggior numero di osservazioni che si ha rispetto alla sola dimensione cross section o time series genera uno stimatore con variannza pi` u piccola.

1 Modelli per serie storiche pooled

Questa sezione consiste in una rassegna dei principali modelli di regressione lineare per serie storiche pooled man mano che le ipotesi classiche si fanno sempre meno stringenti.

Le serie storiche pooled consistono in una combinazione di pochi individui osservati attraverso un campione di T osservazioni ritenuto sufficientemente ampio da consentire regressioni di tipo time series per ciascun individuo.

Questo tipo di modelli permette l’ottenimento di stime pi` u efficienti rispetto al caso delle singole regressioni perch´ e utilizza un set informativo maggiore dovuto alla presenza di pi` u individui.

1.1 Modello lineare classico

Data l’equazione (2), devono essere rispettate le ipotesi classiche 1. E(ε | X) = 0,

2. La matrice X ha rango pieno pari a k, 3. E(X 0 ε) = 0,

4. Ω = V ar(ε) = E(εε 0 ) = σ 2 I N T : quest’ultima ipotesi (di omoschedasticit` a) implicitamente assume che (a) la varianza di ciascuna osservazione σ 2 it ` e costante per ∀ i e ∀ t,

(b) E(ε it ε is ) per ogni t 6= s, cio` e non c’` e correlazione tra le osservazioni relative allo stesso individuo in istanti diversi,

(c) E(ε it ε jt ) per ogni i 6= j, cio` e non c’` e correlazione istantanea tra le osservazioni relative ad individui diversi.

Sotto queste condizioni lo stimatore OLS risulta essere non distorto, consistente, BLUE.

1.2 Modello con eteroschedasticit` a pura

Rispetto al modello lineare classico di cui sopra viene rimossa l’ipotesi per la quale la varianza ` e costante lungo la diagonale principale della matrice Ω. In particolare, si assume che ciascun individuo all’interno del campione conserva l’ipotesi di omoschedasticit` a nel periodo di tempo considerato, ma pu` o presentare una varianza differente rispetto agli altri individui.

L’eteroschedasticit` a pura si configura perci` o come una situazione in cui la matrice Ω resta diagonale, ma con varianze che variano ogni T osservazioni. Analiticamente si ha

Ω =

σ 2 1 I T 0 . . . 0 . . . 0 0 σ 2 2 I T . . . 0 . . . 0

.. . .. . . . . .. .

0 0 σ i 2 I T 0

.. . .. . . . . .. .

0 0 . . . 0 . . . σ 2 N I T

. (4)

(3)

La presenza di eteroschedasticit` a pura ` e condizione necessaria affinch´ e si utilizzi lo stimatore GLS

β ˆ GLS = (X 0−1 X) −1 X 0−1 Y (5)

Ovviamente, data la forma diagonale di Ω, lo stimatore GLS in pratica ` e uno stimatore dei minimi quadrati ponderati (stimatore WLS) in quanto pu` o essere ottenuto attraverso la regressione OLS di Ω −1/2 Y su Ω −1/2 X, con Ω −1/2 matrice diagonale i cui elementi (pesi) sono dati da N sequenze di lunghezza T con valori pari a 1/σ i . Poich´ e gli N parametri σ i 2 non sono noti, occorre una loro stima consistente. La soluzione a questo problema risiede in due strade alternative e non equivalenti:

• si stima un modello OLS su tutte le N T osservazioni, si salvano i residui ˆ ε (vettore di dimensione N T ),

• si stimano N regressioni del tipo

y i (T ×1)

= x i (T ×k)

β i (k×1)

+ ε i (T ×1)

.

In entrambi i casi, per ciascuno degli N individui, si calcola la statistica ˆ

σ i = ε ˆ 0 i ε ˆ i T − k .

Naturalmente, una volta ottenuta la stima ˆ Ω, lo stimatore (5) diviene “feasible” (FGLS) con le usuali propriet` a di non distorsione e consistenza. Inoltre, per T → ∞, esso risulta asintoticamente efficiente.

1.3 Modello con eteroschedasticit` a pura e correlazione tra individui

Rispetto all’approccio precedente viene rimossa l’assunzione di incorrelazione contemporanea tra gli individui.

In pratica si ha

E(ε it ε jt ) = σ ij 2

per ogni i e j, quindi la matrice delle varianze e delle covarianze del termine di disturbo diventa

Ω = Σ ⊗ I T (6)

dove

Σ

(N ×N )

=

σ 1 2 σ 12 . . . σ 1N

σ 12 σ 2 2 . . . σ 2N

.. . .. . . . . .. . σ 1N σ 2N . . . σ N N

 .

La struttura della matrice Ω di fatto consiste nell’accostamento di N 2 matrici diagonali quadrate di dimen- sione T × T , struttura coerente con il modello “Seemingly Related Regression” (SUR) dato da

 y 1 y 2 .. . y N

=

X 1 0 . . . 0 0 X 2 . . . 0 .. . .. . . . . .. . 0 0 . . . X N

 β 1 β 2 .. . β N

 +

 ε 1 ε 2 .. . ε N

Y = ( X i (T ×k)

⊗ I N ) β

(N k×1)

+ ε,

sotto l’ipotesi che β 1 = β 2 = . . . = β N (quindi in tutto k parametri da stimare). Dato che la matrice Ω non rispetta l’ipotesi di omoschedasticit` a, anche in questo caso lo stimatore FGLS risulta essere il pi` u appropriato e le covarianze stimate ˆ σ ij possono essere ottenut attraverso i due metodi introdotto nel precedente paragrafo.

Una volta ottenuta ˆ Σ, quindi ˆ Ω = ˆ Σ ⊗ I T , lo stimatore FGLS diventa

β ˆ F GLS = (X 0 Ω ˆ −1 X) −1 X 0 Ω ˆ −1 Y (7)

con X = (X i ⊗ I N ). Lo stimatore FGLS ` e non distorto, consistente ed asintoticamente efficiente per T → ∞,

dato N .

(4)

1.4 Modello con eteroschedasticit` a e correlazioni pure

In questo caso sono le correlazioni ad essere pure e non l’eteroschedasticit` a: ci` o significa che la matrice delle varianze e delle covarianze per ciascun individuo tiene conto del fatto che c’` e autocorrelazione tra le osservazioni, mentre tra diversi individui tale autocorrelazione ` e inesistente.

• eteroschedasticit` a pura: E(ε it ε jt ) = σ 2 ij (nello stesso istante c’` e correlazione tra diversi individui),

• correlazioni pure: E(ε it ε is ) = ρ i,t−s (per lo stesso individuo c’` e correlazioni per le osservazioni in diversi istanti).

Considerando il vettore (T × 1) ε i , si ha perci` o che

E(ε i ε 0 i ) = σ 2 i Σ i (8)

con

Σ i (T ×T )

=

1 ρ i ρ 2 i . . . ρ T −1 i ρ i 1 ρ i . . . ρ T −2 i ρ 2 i ρ i 1 . . . ρ T −3 i

.. . .. . .. . . . . .. . ρ T −1 i ρ T −2 i ρ T −3 i . . . 1

 .

Gli elementi extradiagonali della matrice Σ i sono ottenuti ricorsivamente mediante un modello AR(1) calcolato sugli errori relativi all’i-esimo individuo (ε i ), cio` e

ε i,t = ρ i ε i,t−1 + u i,t

con i = 1, 2, . . . , N e t = 2, 3, . . . , T . Per il calcolo di tutte le altre autocorrelazioni si procede mediante sostituzioni ricorsive 2 . Dal punto di vista analitico la matrice diagonale di cui alla (4) diventa diagonale a blocchi in quanto le matrici identit` a I T (diagonali) vengono rimpiazzate con le matrici Σ i (piene), quindi si ha

Ω =

σ 1 2 Σ 1 0 . . . 0 . . . 0 0 σ 2 2 Σ 2 . . . 0 . . . 0

.. . .. . . . . .. .

0 0 σ i 2 Σ i 0

.. . .. . . . . .. .

0 0 . . . 0 . . . σ 2 N Σ N

. (9)

Il modello pertanto va stimato in due stadi: nel primo si effettua una regressione OLS di Y su X per ottenere i residui ˆ ε. A questo punto, per ciascun individuo, si effettua un ulteriore OLS ˆ ε i,t = ρ i ε ˆ i,t−1 + u i,t per ottenere la stima consistente del parametro ˆ ρ i .

Il secondo step consiste in una stima WLS analoga alla (5) nella quale la matrice dei pesi ` e nota come Trasformazione di Prais e Winsten definita come segue

z i,t = ˆ ρ i z i,t−1

2

In particolare, per l’autocorrelazione di ordine 2 risulta

ε

i,t

= ρ

i

ε

i,t−1

+ u

i,t

= ρ

i

i

ε

i,t−2

+ u

i,t−1

) + u

i,t

= ρ

2i

ε

i,t−2

+ ρ

i

u

i,t−1

+ u

i,t

. Generalizzando, per l’autocorrelazione di ordine s si ha

ε

i,t

= ρ

si

ε

i,t−s

+

s−1

X

r=0

ρ

ri

u

i,t−r

.

Ovviamente il coefficiente ρ

si

` e quello che va immesso all’interno della matrice Σ

i

.

(5)

dove z i,t = y i,t , x i,t . Inoltre, per evitare la perdita della prima osservazione, si moltiplica z i,1 per la quantit` a

√ 1 − ˆ ρ i .

Anche in questo caso lo stimatore ottenuto ha le usuali propriet` a della non distorsione, della consistenza e dell’efficienza asintotica per T → ∞.

1.5 Modello con eteroschedasticit` a e correlazioni pura e con correlazione tra individui

Questo modello ` e il pi` u generale di tutti quelli proposti finora in quanto

• c’` e eteroschedasticit` a dei termini di errore tra gli individui,

• c’` e correlazione istantanea tra i diversi individui,

• c’` e autocorrelazione tra le osservazioni relative ad ogni individuo.

La logica conseguenza di queste assunzioni ` e che la matrice Ω sia piena, quindi assuma la forma

Ω =

σ 1 2 Σ 11 σ 12 Σ 12 . . . σ 1i Σ 1i . . . σ 1N Σ 1N σ 21 Σ 21 σ 2 2 Σ 22 . . . σ 2i Σ 2i . . . σ 2N Σ 2N

.. . .. . . . . .. .

σ i1 Σ i1 σ i2 Σ i2 σ 2 i Σ ii σ iN Σ iN

.. . .. . . . . .. .

σ N 1 Σ N 1 σ N 2 Σ N 2 . . . σ N i Σ N i . . . σ i 2 Σ ii

. (10)

in questo caso il metodo di stima adottato sostanzialmente ricalca quello presentato nel precedente paragrafo.

2 Modelli per dati longitudinali

Quando si parla di dati longitudinali si intende una struttura come quella illustrata dalla matrice (1) nella quale generalmente la numerosit` a degli individui ` e elevata, mentre quella relativa alla dimensione temporale ` e piuttosto contenuta.

Si tenga presente che, qualora le ipotesi circa la matrice delle varianze e delle covarianze Ω e la costante (qualora ci fosse) rispettino quelle proprie dei modelli di serie storiche pooled, questi divengono automaticamente utilizzabili in questo contesto semplicemente scambiando gli indici relativi agli individui e al tempo.

2.1 Modello ad effetti fissi

Considerando l’i-esimo individuo, il modello ad effetti fissi si configura come segue

y i = α i + x i β + ε i , (11)

dove y i e ε i hanno dimensione (T × 1), x i ha dimensione (T × k) e β ` e il vettore contenente k parametri da

stimare. La peculiarit` a della (11) riguarda la costante che si configura come un vettore di T elementi costanti

pari ad α i : questa caratteristica indica innanzi tutto che per ciascun individuo occorre stimare un solo valore

della costante e che, se α i 6= α j per ogni i 6= j, tale costante misura l’effetto individuale, cio`e quell’insieme

di caratteristiche specifiche proprie di ciascun individuo che per` o restano immutate nel tempo. In pratica, nel

modello ci sono in tutto k + N parametri da stimare, k contenuti nel vettore β ed N costanti per i diversi

individui. Queste costanti rappresentano l’eterogeneit` a presente tra gli individui nel sistema, caratteristica

peculiare dei panel data.

(6)

Generalizzando la (11) riscrivendola in forma matriciale si ottiene:

 y 1

y 2

.. . y N −1

y N

=

ι T 0 . . . 0 X 1

0 ι T . . . 0 X 2

.. . .. . . . . .. . .. . 0 0 . . . 0 X N −1 0 0 . . . ι T X N

 α 1

α 2

.. . α N

β

 +

 ε 1

ε 2

.. . ε N −1

ε N

, (12)

dove ι T ` e un vettore contenente T elementi pari a 1. In forma compatta si ha perci` o Y = [ (I N ⊗ ι T ) X ]

 α β



+ ε (13)

oppure

Y

(N T ×1)

= (I N ⊗ ι T )

(N T ×N )

α

(N ×1)

+ X

(N T ×k)

β

(k×1)

+ ε

(N T ×1)

(14) Poich´ e i valori del vettore α non sono osservabili essi entrerebbero a pieno titolo all’interno dell’errore del modello ma, se cos`ı fosse, essi potrebbero essere correlati con le variabili esplicative X i e la stima risulterebbe distorta.

Le formulazione (14) permette di stimare il modello attraverso l’OLS in quanto tutte le ipotesi classiche sono rispettate. Il modello prende il nome di modello a variabili dummy poich´e occorre costruire N (nuerosit`a degli effetti individuali) variabili dummy da inserire all’interno della matrice dei regressori. Lo stimatore che si ottiene ` e non distorto, consistente e BLUE. La sua forma analitica ` e ottenibile come

 α ˆ β ˆ



=

 (I N ⊗ ι T ) 0 (I N ⊗ ι T ) (I N ⊗ ι T ) 0 X X 0 (I N ⊗ ι T ) X 0 X

 −1 

(I N ⊗ ι T ) 0 Y X 0 Y



Dato che per le propriet` a del prodotto di Kronecker vale (I N ⊗ ι T ) 0 (I N ⊗ ι T ) = I N ⊗ ι 0 T ι T = T I N , risulta

 α ˆ β ˆ



=

 T I N (I N ⊗ ι T ) 0 X X 0 (I N ⊗ ι T ) X 0 X

 −1 

(I N ⊗ ι T ) 0 Y X 0 Y

 .

Per invertire la matrice contenuta all’interno dell’espressione dello stimatore OLS si ricorre ad un noto risultato sulle matrici partizionate e, dopo alcuni calcoli 3 si arriva a

 α ˆ β ˆ



=

 1

T (I N ⊗ ι T ) 0 (Y − X ˆ β) (X 0 M X) −1 X 0 M Y

 , (15)

dove M = I N T − P `e la matrice di proiezione che, applicata ad una variabile, per ogni individuo restituisce lo scostamento dalla media aritmetica temporale. Tale matrice, per definizione, risulta essere quadrata (N T ×N T ), diagonale a blocchi, simmetrica ed idempotente 4 .

3

In particolare ci si riferisce alla seguente inversione

» A

11

A

12

A

21

A

22

−1

=

» A

−111

+ A

−111

A

12

S

2

A

21

A

−111

−A

−111

A

12

S2

−S

2

A

21

A

−111

S

2

– ,

dove S

2

= (A

22

− A

21

A

−111

A

12

)

−1

. L’Appendice A-2 contiene tutta la derivazione analitica dello stimatore del modello ad effetti fissi.

4

Definizione e propriet` a delle matrici P e M sono discusse nell’Appendice A-1.

(7)

2.2 Stimatore within

Prendendo in considerazione lo stimatore ˆ β determinato nell’equazione (15) e tenendo presente la propriet` a di idempotenza della matrice M si ha

β ˆ = (X 0 M X) −1 X 0 M Y

= ( ˙ X ˙ X) −1 X ˙ ˙ Y . (16)

Tale stimatore ` e perci` o ottenibile anche attraverso la regressione OLS di ˙ Y = M Y su ˙ X = M X; in pratica si tratta di applicare il modello lineare classico dove sia la variabile dipendente, sia la matrice dei regressori sono espressa in deviazione dalle corrispondenti medie individuali calcolate rispetto al tempo 5 .

Lo stimatore ˆ β prende perci` o il nome di Stimatore Within in quanto tiene conto degli effetti individuali grazie alla trasformazione effettuata attraverso la matrice M , ma li elimina 6 dal modello utilizzando per ciascun individuo l’informazione derivante dalle variazioni temporali (variazioni “nei gruppi”).

Lo stimatore within e lo stimatore a variabili dummy producono sempre gli stessi valori numerici.

Una volta ottenuto lo stimatore within, gli effetti individuali esclusi dal suo computo possono essere sfruttati attraverso l’equazione (14), infatti

(I N ⊗ ι T )α = Y − X ˆ β 1

T (I N ⊗ ι T ) 0 (I N ⊗ ι T )α = 1

T (I N ⊗ ι T ) 0 (Y − X ˆ β) 1

T (I N ⊗ ι 0 T )(I N ⊗ ι T )α = 1

T (I N ⊗ ι T ) 0 (Y − X ˆ β) 1

T (I N ⊗ T )α = 1

T (I N ⊗ ι T ) 0 (Y − X ˆ β) ˆ

α = 1

T (I N ⊗ ι T ) 0 (Y − X ˆ β). (17)

L’equazione (17) mostra che, per ogni singolo individuo, la costante ` e pari alla differenza tra la media individuale della variabile dipendente e le medie individuali dei regressori ponderate per lo stimatore within. Dal punto di vista dell’individuo, analiticamente si ha

ˆ

α i = ¯ y i − ¯ x i β ˆ (18)

Le costanti α i con i = 1, 2, . . . , N catturano l’effetto di quelle variabili che variano tra individuo e individuo, ma restano immutate nel tempo; lo stimatore within perci` o tiene conto solo dell’eterogeneit` a tra gli individui.

Il limite pi` u evidente di questo approccio consiste nell’impossibilit` a di includere nel modello regressori che assumano un valore costante all’interno delle osservazioni relative al singolo individuo: dal punto di vista statistico, questa impossibilit` a deriva dal fatto che una variabile esplicativa con questa caratteristica risulterebbe collineare con (I N ⊗ι T ) nell’equazione (14), mentre dal punto di vista algebrico calcolare lo scostamento di queste variabili dal loro valore medio individuale (attraverso la matrice M ) produrrebbe colonne di zeri nella matrice dei regressori che quindi non avrebbe rango pieno. In questo caso il metodo OLS non sarebbe perci` o applicabile.

Per la verifica di ipotesi relativa all’assenza di eterogeneit` a tra gli individui il test t di azzeramento delle costanti α i non ` e di alcuna utilit` a pratica. ` E invece possibile costruire un test F nel quale l’ipotesi nulla ` e H 0 : α 1 = α 2 = . . . = α N (N − 1 vincoli in tutto); la statistica test ` e

˜ ε 0 ε − ˆ ˜ ε 0 ε ˆ

ˆ

ε 0 ε ˆ · N T − N − K − 1

N − 1 ∼ F N −1,N T −N −K−1 , (19)

dove ˜ ε e ˆ ε sono i residui rispettivamente del modello vincolato e di quello libero, mentre lo stimatore corretto e consistente per la varianza ` e

ˆ

σ ε 2 = ε ˆ 0 ε ˆ

N T − N − K − 1 .

5

Si tenga presente che, per l’ipotesi classica E(ε) = 0, quindi risulta M ε = ε

6

E ovvio che il prodotto M (I `

N

⊗ ι

T

) = 0 quindi le costanti del modello sono rimosse attraverso il calcolo dello stimatore within.

(8)

Alla luce di questo risultato si ha inoltre V ar( ˆ β) = ˆ σ ε 2 (X 0 M X) −1 . Si noti infine che, sotto H 0 , di fatto lo stimatore within coincide con lo stimatore pooled.

Lo stimatore within ` e

• BLUE,

• consistente per N T → ∞,

• asintoticamente normale poich´ e

N T ( ˆ β − β) −→ N 0, σ d ε 2 Q −1  , dove Q = lim

N T →∞

 1

N T X 0 M X

 −1

.

2.3 Modello ad effetti casuali

Il modello ad effetti casuali tratta gli effetti individuali come parte del termine di errore, quindi li considera come componenti stocastiche sicuramente incorrelate con i regressori: in questo modo ` e possibile includere all’interno della matrice X variabili che cambiano tra soggetto e soggetto, pur rimenendo costanti all’interno delle T osservazioni relative al singolo individuo. Con il modello ad effetti fissi questa opportunit` a era preclusa.

Considerando l’i-esimo individuo, la forma analitica del modello ad effetti casuali ` e y i = α i + x i β + ε i

y i = α + x 0 i β + µ i + ε i (20)

dove il vettore (T × 1) relativo alla costante α i = α + µ i ` e dato dalla somma di una componente indipendente da i e da t e da un’altra che varia da individuo ad individuo. Ovviamente, dato i, α i ` e un vettore di costanti.

Affinch´ e si ottengano stime consistenti con quest’approccio, la condizione necessaria ` e l’incorrelazione tra α i e la matrice dei regressori x i per ogni i.

Rispetto al modello ad effetti fissi il termine di errore ε i ha esattamente tutte le stesse propriet` a, mentre occorre introdurre alcune ipotesi aggiuntive riguardo alla componente µ i .

1. E(µ i ) = 0,

2. V ar(µ i ) = σ 2 µ per ogni i = 1, 2, . . . , N ,

3. E(µ i , µ j ) = 0 per ogni i 6= j (incorrelazione tra gli effetti individuali), 4. E(µ i , ε j,t ) = 0 per ogni i, j, t (incorrelazione tra effetti individuali e disturbi).

Riscrivendo il modello in forma compatta si ha Y

(N T ×1)

= α

(N T ×1)

+ X

(N T ×k)

β

(k×1)

+ (µ ⊗ ι T )

(N T ×1)

+ ε

(N T ×1)

(21) dove µ di dimensione N ` e il vettore contenente gli effetti individuali. Definendo inoltre il vettore U = (µ⊗ι T )+ε si nota immediatamente che l’errore del modello ad effetti casuali ` e composto di una componente che varia tra gli individui, ma resta costante nel tempo, ed un’altra che varia stocasticamente tra gli individui e nel tempo.

Date le ipotesi aggiuntive di cui sopra, la matrice delle varianze e delle covarianze di U ricopre un ruolo determinante. Essa ` e definita come

Ω = V ar(U )

= E(U U 0 )

= E{[(µ ⊗ ι T ) + ε][(µ ⊗ ι T ) + ε] 0 }

= E[(µ ⊗ ι T )(µ ⊗ ι T ) 0 + εε 0 ]

= E(µµ 0 ⊗ ι T ι 0 T + εε 0 )

= E(µµ 0 ⊗ ι T ι 0 T ) + E(εε 0 ).

(9)

Dato che E(µµ 0 ) = σ µ 2 I N , la matrice E(µµ 0 ⊗ ι T ι 0 T ) assume una struttura diagonale a blocchi quindi, tenendo presente anche che E(εε 0 ) = σ 2 ε I N T , si ottiene

Ω = σ µ 2 (I N ⊗ ι T ι 0 T ) + σ ε 2 I N T = I N ⊗ (σ 2 µ ι T ι 0 T + σ 2 ε I T ). (22) La matrice Ω ` e anch’essa diaginale a blocchi e ciascun blocco ` e dato da

i

(T ×T )

=

σ 2 µ + σ ε 2 σ µ 2 . . . σ µ 2 σ 2 µ σ µ 2 + σ ε 2 . . . σ µ 2 .. . .. . . . . .. . σ 2 µ σ µ 2 . . . σ µ 2 + σ 2 ε

 .

La matrice Ω i mostra che l’errore composto (U ) ha autocorrelazione non nulla e costante nel tempo e soprattutto che la struttura di autocorrelazione non varia da individuo ad individuo (la matrice ` e priva degli indici i e t).

Poich´ e tale matrice delle varianze e delle covarianze ` e diagonale a blocchi, il modello ad effetti casuali deve essere stimato attraverso il metodo GLS, quindi si ha

ˆ b = (X 0−1 X) −1 X 0−1 Y (23)

dove ˆ b = [ ˆ α β ] ˆ 0 ha dimensione (k + 1).

La matrice inversa Ω −1 ` e data da

−1 = (I N ⊗ Ω i ) −1

= I N ⊗ Ω −1 i

= I N ⊗ (σ µ 2 ι T ι 0 T + σ ε 2 I T ) −1 . Aggiungendo e togliendo P ι σ 2 ε si ottiene

−1 = I N ⊗ [(T σ 2 µ + σ ε 2 )P ι + σ ε 2 (I T − P ι )] −1

= I N ⊗ [(T σ 2 µ + σ ε 2 )P ι + σ ε 2 M ι ] −1

= [(T σ µ 2 + σ ε 2 )P + σ 2 ε M ] −1 . Ponendo σ 2 = (T σ µ 2 + σ 2 ε ), per le propriet` a delle matrici P e M si ha 7

−1 = 1 σ 2 P + 1

σ ε 2 M (24)

e quindi

−1/2 = 1 σ P + 1

σ ε M. (25)

Da questa definizione emerge che lo stimatore GLS per il modello ad effetti casuali coincide con lo stimatore OLS della regressione di ˙ Y = Ω −1/2 Y su ˙ X = Ω −1/2 X. Le propriet` a di questo stimatore sono

1. se σ ε 2 e σ 2 µ sono noti, lo stimatore GLS ` e consistente per N → ∞ e T → ∞,

2. per T dato, lo stimatore GLS ` e pi` u efficiente dello stimatore within; per N → ∞ tale efficienza tende a svanire,

3. se Ω −1 ≡ M lo stimatore GLS coincide con lo stimatore within, quindi il modello ad effetti casuali coincide con quello ad effetti fissi: ci` o pu` o accadere se l’unica fonte di variabilit` a deriva dagli effetti individuali µ i . Analiticamente deve perci` o risultare che

• σ 2 ε = 0 (vettore ε costante per ogni i e t),

7

Si veda l’Appendice A-1.

(10)

• T → ∞ (per definizione ˆ σ 2 ε = 0): in questo caso gli effetti individuali diventano osservabili 8 , ,

4. se Ω −1 ≡ I N T il modello ad effetti casuali diventa un modello OLS standard e coincide con un modello di serie storiche pooled; in questo caso naturalmente σ µ 2 = 0 quindi non ci sono effetti individuali e tutta la variabilit` a dipende dal termine di disturbo ε.

2.4 Stimatore between

Considerando il modello ad effetti casuali di cui alla (21), la trasformazione Between consiste nell’esprimere le variabili attraverso le medie temporali di ciascun individuo; in pratica algebricamente si tratta di premoltiplicare l’intera equazione per la matrice P ,

P Y = P α + P Xβ + P [(µ ⊗ ι T ) + ε]

= P Xb + P u.

Lo stimatore che si allpica ` e perci` o un GLS che si configura come un modello OLS della regressione di ˙ Y = P Y su ˙ X = P X, infatti

ˆ b = (X 0 P −1 X) −1 X 0 P −1 Y

= ( ˙ X 0 X) ˙ −1 X ˙ 0 Y ˙ (26)

dove ˆ b = [ ˆ α β ] ˆ 0 ha dimensione (k + 1). Lo stimatore di cui alla (26) risulta essere non distorto e consistente per N → ∞.

Analogamente allo stimatore within, lo stimatore between determina una perdita di informazione poich´ e si basa sul calcolo delle medie temporali di ciascun individuo. Per definizione, tale trasformazione produce una perdita di efficienza.

Mentre lo stimatore within sfrutta la variazione che avviene all’interno delle osservazioni relative a ciascun individuo (deviazioni dalle medie o variazioni “nei gruppi”), lo stimatore between sfrutta quelle derivanti dalla variabilit` a delle osservazioni tra diversi individui (variazioni “tra i gruppi”), in quanto opera una regressione di N medie su un set di regressori nel quale sono state calcolate le N medie corrispondenti.

2.5 Stimatore GLS, within e between

I tre stimatori visti finora possono essere messi in relazione in quanto lo stimatore GLS ` e una media ponderata degli stimatori within e between; considerando i parametri a 1 ∈ [0, 1] e a 2 = 1 − a 1 e le due trasformazioni within e between si ha

(a 1 P + a 2 M )Y = (a 1 P + a 2 M )Xβ + a 1 P ε bet + a 2 M ε wit . Lo stimatore GLS che ne risulta ` e

β ˆ GLS = [X 0 (a 1 P + a 2 M ) 0 (a 1 P + a 2 M )X] −1 X 0 (a 1 P + a 2 M ) 0 (a 1 P + a 2 M )Y

= [X 0 (a 2 1 P + a 2 2 M )X] −1 X 0 (a 2 1 P + a 2 2 M )Y. (27) E perci` ` o possibile esprimere lo stimatore GLS semplicemente imponendo Ω −1 = (a 1 P + a 2 M ). Poich´ e dall’e- quazione (25) risulta a 1 = 1/σ e a 2 = 1/σ ε , dove σ = (T σ µ 2 + σ ε 2 ) 1/2 , si hanno i seguenti scenari:

• se σ ε 2 = 0 ⇒ a 2 → ∞ (peso infinito assegnato allo stimatore within),

• se T → ∞ ⇒ a 1 = 0 (lo stimatore GLS coincide con lo stimatore within, gli effetti individuali sono osservabili),

• se σ µ 2 = 0 ⇒ σ = σ ε , a 1 = a 2 (lo stimatore GLS in realt` a ` e uno stimatore OLS, omoschedasticit` a).

8

Considerando il modello per la singola osservazione y

it

− α − x

0it

β = µ

i

+ ε

it

, se T → ∞ significa che il valore atteso della

componente ε

it

` e davvero nullo quindi l’espressione a sinistra del segno di uguaglianza rappresenta la singola osservazione per µ

i

.

In questo caso lo stimatore GLS ` e consistente.

(11)

2.6 Stimatore FGLS

Quando σ ε 2 e σ µ 2 sono osservabili in pratica lo stimatore GLS pu` o essere applicato senza alcun problema; nella pratica questa situazione capita raramente.

Per ovviare a questo inconveniente si ricorre allo stimatore “Feasible GLS” (FGLS). Innanzi tutto si ricorre ai residui dello stimatore within ˆ ε wit per ottenere lo stimatore

ˆ

σ 2 ε = ε ˆ 0 wit M ˆ ε wit

N T − N − k , (28)

dove la correzione per i gradi di libert` a ` e data dal numero dei parametri da stimare che ammonta a N + k. 9 Successivamente si ricorre al modello ad effetti casuali e si considera il modello relativo all’i-esima media individuale rispetto al tempo y i − α − βx i = µ i + ε i ; la varianza rispetto allo scalare u i = µ i + ε i ` e data da

V ar(u i ) = V ar(µ i + ε i )

= V ar(µ i ) + V ar 1 T

T

X

t=1

ε it

!

= σ 2 µ + σ ε 2 T

= σ 2 R .

Considerando perci` o l’i-esimo individuo, uno stimatore corretto e consistente per σ R 2 ` e ˆ

σ 2 R = u ˆ 0 i ˆ u i

N − k , (29)

dove ˆ u i sono i residui del modello e k indica il numero dei regressori escludendo la costante. Data la definizione analitica di σ 2 R ` e immediato stimare indirettamente la varianza degli effetti individuali attraverso l’equazione

ˆ

σ 2 µ = ˆ σ R 2 − σ ˆ 2 ε

T (30)

Attraverso questa relazione ` e quindi possibile stimare il modello col metodo GLS (che diviene feasible).

L’unico inconveniente di questo metodo ` e determinato dal fatto che, in campioni finiti, pu` o accadere che la (30) restituisca un valore negativo.

2.7 Test statistici

Per decidere se ` e preferibile la stima di un modello ad effetti fissi o uno ad effetti casuali ` e possibile utilizzare alcune procedure di test. I pi` u famosi sono il test di Breusch e Pagan (1980) e quello di Hausman (1978).

2.7.1 Test di Breusch e Pagan

Il test di Breusch e Pagan (test BP) ` e uno dei test diagnostici pi` u popolari per valutare la presenza di eteroschedasticit` a all’interno del modello lineare di regressione Y = Xβ + ε con ε ∼ N (0, σ 2 Ω). L’ipotesi nulla del test ` e l’assenza di eteroschedasticit` a quindi, poich´ e vale l’assunzione

V ar(ε) = σ 2 f (Zγ) = σ 2 f (γ 0 + γ 1 Z 1 + . . . + γ q Z q ), essa si struttura come

H 0 : γ 1 = γ 2 = . . . = γ q = 0 (q vincoli), (31)

9

Se si considerasse lo scenario relativo a ciascun individuo si avrebbero N (T − k − 1) g.d.l. in tutto, quindi una stima in eccesso

del loro numero.

(12)

dove Z ` e una matrice dove ciascuna delle (q + 1) colonne costituisce una variabile esplicativa per la varianza del termine di errore. La statistica test, nella sua forma generale, si configura come un test LM e risulta essere

LM BP = 1

2 ˆ γ 0 2 (ˆ ε 2 − ˆ γ 0 ) 0 Z(Z 0 Z) −1 Z 0 (ˆ ε 2 − ˆ γ 0 ), (32) dove ˆ γ 0 = ε ˆ 0 ε ˆ

n ` e lo stimatore OLS non corretto della varianza, mentre n ` e il numero totale delle osservazioni.

In pratica, la statistica test (32) ` e esprimibile come 10

LM BP = nR 2

dove l’indice R 2 ` e quello relativo alla regressione di (ˆ ε 2 /ˆ γ 0 − 1) su Z. La distribuzione limite della statistica test BP ` e LM BP ∼ χ 2 q . Per il calcolo di questa statistica occorre procedere come segue:

• stima OLS del modello Y = Xβ + ε,

• calcolo dello stimatore ˆ γ 0 ,

• stima della regressione ausiliaria,

• calcolo dell’indice R 2 .

Nell’ambito dei modelli panel data ` e possibile ricorrere al test BP per sottoporre a verifica di ipotesi la significativit` a degli effetti individuali. L’ipotesi nulla impone il solo vincolo

H 0 : σ 2 µ = 0, (33)

che garantisce omoschedasticit` a, quindi la matrice Ω diagonale. Il test BP necessita solo dei residui del modello vincolato che in questo contesto ` e dato dal modello ad effetti fissi, quindi la statistica test assume la forma

LM BP = N T

2(T − 1)

 ˆ ε 0 wit (I N ⊗ ι T )(I N ⊗ ι T ) 0 ε ˆ wit − ˆ ε 0 wit ε ˆ wit

ˆ ε 0 wit ε ˆ wit

 2

(34)

= N T

2(T − 1)

 ˆ ε 0 wit (I N ⊗ ι T ι 0 T )ˆ ε wit

ˆ ε 0 wit ε ˆ wit

− 1

 2

, (35)

dove ˆ ε wit ` e il residuo del modello stimato attraverso lo stimatore within. Poich´ e in questo caso l’ipotesi nulla impone solo un vincolo, la distribuzione limite della statistica test ` e data da una χ 2 1 .

2.7.2 Test di Hausman

Un’altra procedura di test per la scelta del modello panel da adottare ` e data dal test di Hausman (1978); lo stimatore withi ` e costoso in termini di variabili da inserire nel modello e ci` o genera una perdita di g.d.l., mentre lo stimatore ad effetti casuali deve avere la prerogativa che gli effetti individuali devono essere incorrelati coi regressori altrimenti lo stimatore stesso ` e inconsistente.

Ponendo u = µ ⊗ ι T + ε, il test di Hausman si occupa perci` o di testare l’ipotesi nulla

 H 0 : E(X 0 u) = 0 H 1 : E(X 0 u) 6= 0.

Considerando gli stimatori within (OLS) e GLS si hanno i seguenti scenari:

H 0 H 1

consistente consistente β ˆ OLS inefficiente

consistente inconsistente β ˆ GLS efficiente

10

Si veda l’Appendice A-3 per la dimostrazione.

(13)

Naturalmente il test ` e basato sulla differenza ˆ q = ˆ β OLS − ˆ β GLS : se questa risulta essere statisticamente irrilevante

`

e preferibile l’utilizzo degli effetti casuali, mentre se ˆ q ` e diversa da zero lo stimatore within ` e preferibile 11 . La statistica test ` e data da

H = ˆ q 0 [V ar(ˆ q)] −1 q ˆ (36)

dove

V ar(ˆ q) = V ar( ˆ β OLS ) + V ar( ˆ β GLS ) + 2Cov( ˆ β OLS , ˆ β GLS ).

Sotto H 0 si pu` o dimostrare che la covarianza tra i due stimatori OLS e GLS ` e nulla, infatti basta considerare lo stimatore ˜ β definito dalla seguente combinazioe lineare

β = ˆ ˜ β GLS + λ ˆ β OLS ,

dove λ ` e uno scalare diverso da zero; calcolando la sua varianza si ottiene

V ar( ˜ β) = V ar( ˆ β GLS ) + λ 2 V ar( ˆ β GLS ) + 2λCov( ˆ β OLS , ˆ β GLS ) V ar( ˜ β) − V ar( ˆ β GLS ) = λ 2 V ar( ˆ β GLS ) + 2λCov( ˆ β OLS , ˆ β GLS ).

Poich´ e V ar( ˜ β) − V ar( ˆ β GLS ) ≥ 0 per definizione, occorre necessariamente che anche l’equazione di secondo grado spuria al secondo membro sia maggiore o uguale a zero, cio` e

λ[λV ar( ˆ β GLS ) + 2Cov( ˆ β OLS , ˆ β GLS )] ≥ 0.

Le soluzioni per questa disequazione sono λ ≤ 0 e λ ≥ −2 Cov( ˆ β OLS , ˆ β GLS )

V ar( ˆ β OLS ) . Ovviamente, la condizione di positivit` a V ar( ˜ β) − V ar( ˆ β GLS ) ` e garantita per ogni λ se e solo se i due stimatori OLS e GLS sono incorrelati.

Alla luce di questo risultato si ha semplicemente che ˆ q = V ar( ˆ β OLS ) + V ar( ˆ β GLS ). La distribuzione del test di Hausman ` e H ∼ χ 2 k dove k ` e il numero delle colonne di X (numero di regressori).

3 Panel dinamici

Uno sviluppo naturale e recente della letteratura sui modelli di tipo panel ` e quella relativa ai panel dinamici caratterizzati dalla presenza della variabile dipendente ritardata all’interno della matrice dei regressori. In questo modo ` e possibile modellare, quindi distinguere tra due diversi tipi di correlazione:

1. “vera”: autocorrelazione della variabile dipendente,

2. “spuria”: correlazione dovuta ad eterogeneit` a non osservata.

Prendendo come riferimanto la singola osservazione e limitando per semplicit` a la trattazione ai modelli con un solo ritardo, l’equazione generale per un panel dinamico ` e

y it = X it 0 β + φy it−1 + u it , (37)

dove u it = µ i + ε it e φ ` e il parametro relativo alla componente autoregressiva del modello.

Il problema principale di questo tipo di modelli ` e dato dal fatto che il termine di errore u it non ` e incorrelato con y it−1 e ci` o genera stime OLS e GLS inconsistenti. In particolare

E(u it y it−1 ) = E[u it (X it−1 0 β + φy it−2 + u it−1 )]

= E[(µ i + ε it )(X it−1 0 β + φy it−2 + µ i + ε it−1 )]

= E(µ 2 i )

= σ 2 µ 6= 0,

11

E pertanto possibile dimostrare che lo stimatore GLS con effetti casuali correlati coi regressori si identifica nello stimatore `

within.

(14)

quindi i valori nel tempo della variabile dipendente dipendono da µ i e non possono essere incorrlati col termine di errore. Gli stimatori applicabili nell’approccio statico sono perci` o inconsistenti 12 .

Applicando la trasformazione within all’equazione (37) implica l’ipotesi di una trattazione degli effetti in- dividuali come fissi, ma tale strategia conduce ugualmente ad uno stimatore inconsistente; anche se si ha la seguente equazione che rimuove gli effetti fissi

y it − ¯ y i = (X it − ¯ x i ) 0 β + φ(y it−1 − ¯ y i ) + (ε it − ¯ ε i ), tuttavia risulta

E[(y it−1 − ¯ y i )(ε it − ¯ ε i )] = E[y it−1 ε it − y it−1 ε ¯ i − ¯ y i ε it + ¯ y i ε ¯ i ]

= E[−¯ y i ε it ]

= E

"

− 1

T

T

X

t=1

y it

! ε it

#

= E



− 1

T (y i1 + y i2 + . . . + y it . . . + y iTit



= E



− 1 T y it ε it



= − 1 T E[ε 2 it ]

= − 1

T σ ε 2 6= 0.

Lo stimatore within ` e perci` o anch’esso inconsistente per T finito, mentre diviene consistente per T → ∞.

3.1 Stimatore di Anderson-Hsiao

Riscrivendo l’equazione (37) in termini di differenze prime si ottiene

∆y it = ∆X it 0 β + φ∆y it−1 + ∆ε it , (38)

quindi gli effetti individuali vengono eliminati in quanto ∆u it = ε it − ε it−1 ; in particolare si ha ∆ε it ∼ M A(1), dove il coefficiente associato alla componente ritardata ` e ovviamente pari a 1.

Anche in questo caso per` o il problema della correlazione tra variabile dipendente ed errore ha il suo peso, infatti

E(∆y it−1 ∆ε it ) = E[(y it−1 − y it−2 )(ε it − ε it−1 )]

= E[y it−1 ε it − y it−2 ε it − y it−1 ε it−1 + y it−2 ε it−1 ]

= E[−y it−1 ε it−1 ] 6= 0,

in quanto y it−1 dipende da ε it−1 . Tale problema pu` o essere superato ricorrendo allo stimatore a variabili strumentali (IV o 2SLS) utilizzando y it−2 come strumento per il quale vale

E(y it−2 ε it ) = 0.

Naturalmente la scelta dei ritardi della variabile dipendente da utilizzare come strumenti nella stima dipende strettamente dalla presenza di autocorrelazione negli errori. Tecnicamente, ` e perci` o possibile spingersi molto indietro nel tempo per trovare uno strumento incorrelato coi regressori, ma ci` o presenta il costo della perdita di osservazioni.

12

Sostituendo ricorsivamente nella (37) si ottiene

y

it

= φ

t

y

i0

+ 0

@

t−1

X

j=0

φ

j

X

it−j0

1 A +

t−1

X

j=0

φ

j

u

it−j

.

La variabile dipendente ` e funzione dall’errore presente e passato, quindi ` e correlata con esso. Per la definizione di u

it

emerge inoltre

che essa dipende dagli effetti individuali µ

i

. Se si considerano i ritardi di tale variabile il discorso non cambia.

(15)

3.2 Stimatore di Arellano-Bond

Lo stimatore di Arellano-Bond (1991) ` e uno stimatore a variabili strumentali che rappresenta lo strumento principe nella stima dei modelli di tipo panel dinamico.

3.2.1 Modello autoregressivo puro

Per semplicit` a, per la spiegazione del modello di Arellano-Bond si ricorre inizialmente al modello autoregressivo puro nel quale i regressori esogeni sono omessi (β = 0); si ha perci` o l’equazione

y it = φy it−1 + µ i + ε it . (39)

Le ipotesi alla base di questo metodo di stima sono:

• T ` e fisso,

• N → ∞,

• ε it ∼ i.i.d.(0, σ 2 ε ).

Si considera pertanto il modello in differenze prime

∆y it = φ∆y it−1 + ∆ε it

= φ(y it−1 − y it−2 ) + ε it − ε it−1 (40)

dove ovviamente ∆ε it ∼ M A(1), i = 1, 2, . . . , N e t = 3, 4, . . . , T . L’equazione (40) equivale ad un sistema di equazioni simultanee con (T − 2) equazioni con N osservazioni ciascuna del tipo

 

 

 

 

∆y i3 = φ∆y i2 + ∆ε i3 strumenti: ∆y i1

∆y i4 = φ∆y i3 + ∆ε i4 strumenti: ∆y i1 , ∆y i2

.. .

∆y iT = φ∆y iT −1 + ∆ε iT strumenti: ∆y i1 , ∆y i2 , . . . , ∆y iT −2 ,

(41)

dove gli strumenti sono selezionati in base alla loro propriet` a di essere incorrelati coi termini di errore. In questo modo ` e possibile ottenere una stima consistente del modello dinamico.

A queso punto ` e importante costruire la matrice delle varianze e delle covarianze di ∆ε it che risulta essere composta da

• V ar(∆ε it ) = V ar(ε it − ε it−1 ) = 2σ ε 2 ,

• Cov(∆ε it ∆ε it−1 ) = E(ε it ε it−1 − ε 2 it−1 − ε it ε it−2 + ε it−1 ε it−2 ) = −σ 2 ε

• Cov(∆ε it ∆ε it−k ) = E(ε it ε it−k − ε it−1 ε it−k − ε it ε it−k−1 + ε it−1 ε it−k−1 ) = 0 per k > 1.

Utlizzando la forma matriciale, per l’individuo i-esimo si ha perci` o una matrice quadrata e simmetrica di dimensione (T − 2) × (T − 2) cos`ı composta

V i = E(∆ε i ∆ε 0 i ) = σ ε 2

2 −1 0 0 . . . 0 0 0 0

−1 2 −1 0 . . . 0 0 0 0

0 −1 2 −1 . . . 0 0 0 0

0 0 −1 2 . . . 0 0 0 0

.. . .. . .. . .. . . . . .. . .. . .. . .. .

0 0 0 0 . . . 2 −1 0 0

0 0 0 0 . . . −1 2 −1 0

0 0 0 0 . . . 0 −1 2 −1

0 0 0 0 . . . 0 0 −1 2

. (42)

(16)

Naturalmente, considerando il modello nella forma generale la matrice delle varianze e delle covarianze 13 ` e data da

V = I N ⊗ V i . (43)

Allo stesso modo si definisce la matrice (T − 2) × C degli strumenti, dove C =

T −2

X

j=1

j

Z i =

y i1 0 0 0 0 0 . . . 0 0 . . . 0

0 y i1 y i2 0 0 0 . . . 0 0 . . . 0 0 0 0 y i1 y i2 y i3 . . . 0 0 . . . 0 .. . .. . .. . .. . .. . .. . . . . .. . .. . . . . .. . 0 0 0 0 0 0 . . . y i1 y i2 . . . y iT −2

, (44)

dove ogni riga contiene gli strumenti validi per ciascun istante nel tempo t = 3, 4, . . . , T . Considerando tutte le osservazioni del modello, tale matrice ` e definita come

Z = ι N ⊗ Z i (45)

ed ha dimensione N (T − 2) × C. Naturalmente, se gli strumenti sono validi, deve risultare E(Z 0 ∆ε) = 0.

Riscrivendo la (40) nella forma compatta si ha

∆Y t N (T −2)×1

= φ ∆Y t−1 N (T −2)×1

+ ∆ε t N (T −2)×1

, (46)

dove φ ` e un parametro scalare. Il modello (46) ` e caratterizzato dalla presenza di correlazione tra l’errore ed i regressori, nonch´ e dalla presenza di eteroschedasticit` a; Arellano e Bond (1991) risolvono il primo inconveniente strumentando l’equazione come segue

Z 0 ∆Y t C×1

= φZ 0 ∆Y t−1 C×1

+ Z 0 ∆ε t C×1

. (47)

Per quanto riguarda l’eteroschedasticit` a, la matrice delle varianze e delle covarianze dipende strettamente dalla presenza di N individui e risulta essere

Ω = V ar(Z 0 ∆ε)

= E(Z 0 ∆ε∆ε 0 Z)

= σ ε 2 Z 0 V Z

= σ ε 2 Z 0 (I N ⊗ V i )Z. (48)

Lo stimatore di Arellano-Bond ` e perci` o uno stimatore GLS del tipo φ ˆ = (∆Y t−1 0 ZΩ −1 Z 0 ∆Y t−1 ) −1 ∆Y t−1 0 ZΩ −1 Z 0 ∆Y t

= {∆Y t−1 0 Z[Z 0 (I N ⊗ V i )Z] −1 Z 0 ∆Y t−1 } −1 ∆Y t−1 0 Z[Z 0 (I N ⊗ V i )Z] −1 Z 0 ∆Y t . (49) Tale stimatore ` e noto col nome Stimatore di Arellano-Bond One step consistent. Lo stimatore Two step consistent invece ` e ottenibile sostituendo la matrice dei momenti secondi della popolazione V i = E(∆ε∆ε 0 ) con quella dei corrispondenti momenti secondi campionari data da W i = E(∆ˆ ε∆ˆ ε 0 ), dove varepsilon ` ˆ e ottenuto come residuo del modello (40) stimato attraverso lo stimatore (49). I due stimatori sono asintoticamente equivalenti per N → ∞.

13

Tale matrice ha dimensione N (T − 2) × N (T − 2).

(17)

3.2.2 Regressori esogeni

Inserendo nella trattazione anche i regressori esogeni l’equazione (39) si modifica nella seguente espressione y it = φy it−1 + X it 0 β + µ i + ε it , (50) dove X it 0 ha K − 1 colonne; in questo modo il numero totale dei parametri da stimare sia pari a K (tutte le componenti di β pi` u lo scalare φ).

Anche in questo contesto si esprime il modello utilizzando le differenze prime in modo da determinare quali siano gli strumenti validi. Analiticamente si ottiene perci` o

∆y it = φ∆y it−1 + ∆X it 0 β + ∆ε it , (51)

dove gli effetti fissi sono rimossi. A questo punto occorre distinguere due casi:

1. Regressori predeterminati ⇒ E(X it 0 ε is ) 6= 0 solo quando t > s. La matrice degli strumenti ` e analoga alla (44) con l’aggiunta di altri strumenti ottenibili dalla matrice dei regressori esogeni, infatti

Z i =

y

i1

X

i1

X

i2

0 0 0 0 0 . . . 0 0 . . . 0 0 0 . . . 0

0 0 0 y

i1

y

i2

X

i1

X

i2

X

i3

. . . 0 0 . . . 0 0 0 . . . 0

. . .

. . .

. . .

. . .

. . .

. . .

. . .

. .

. . . . . . . . .

. . . . . . . . . .

. .

. . . . . . . 0 0 0 0 0 0 0 0 . . . y

i1

y

i2

. . . y

iT −2

X

i1

X

i2

. . . X

T −1

 . (52)

2. Regressori esogeni in senso stretto ⇒ E(X it 0 ε is ) = 0 per ogni t, s = 1, 2, . . . , T − 2. In questo caso le variabili X i1 , X i2 , . . . , X iT −1 sono sempre tutti strumenti validi e vanno inseriti nelle righe della matrice Z i .

Una volta determinate le matrici degli strumenti validi la procedura illustrata nella sezione 3.2.1 resta valida anche in quest’ambito.

Appendice

A-1 Propriet` a delle matrici P e M

Matrice P

La matrice di proiezione P ` e definita come P = (I N ⊗ P ι ) con P ι = ι T (ι 0 T ι T ) −1 ι 0 T . Essa risulta essere quadrata: dato che P ι = ι T0 T ι T ) −1 ι 0 T ` e quadrata di dimensione (T × T )

P ι = 1 T

1 1 . . . 1 1 1 . . . 1 .. . .. . . . . .. . 1 1 . . . 1

 ,

il prodotto P = (I N ⊗ P ι ) ` e esso stesso una matrice quadrata di dimensione (N T × N T ).

diagonale a blocchi: in tutto ci sono N blocchi composti dalla matrice P ι

P =

P ι 0 . . . 0 0 P ι . . . 0 .. . .. . . . . .. . 0 0 . . . P ι

 .

simmetrica: poich´ e tutti i blocchi sono simmetrici, naturalmente risulta anche P = P 0 .

(18)

idempotente: dato che P ι P ι = ι T (ι 0 T ι T ) −1 ι 0 T ι T (ι 0 T ι T ) −1 ι 0 T = ι T (ι 0 T ι T ) −1 ι 0 T = P ι risulta

P P =

P ι 0 . . . 0 0 P ι . . . 0 .. . .. . . . . .. . 0 0 . . . P ι

P ι 0 . . . 0 0 P ι . . . 0 .. . .. . . . . .. . 0 0 . . . P ι

=

P ι P ι 0 . . . 0 0 P ι P ι . . . 0 .. . .. . . . . .. . 0 0 . . . P ι P ι

=

P ι 0 . . . 0 0 P ι . . . 0 .. . .. . . . . .. . 0 0 . . . P ι

= P

Quando moltiplica una matrice in formato panel X di dimensione (N T × k), P ritorna la matrice ¯ X avente le stesse dimensioni della matrice data e contenente le sue medie individuali calcolate sulle colonne.

P X = (I N ⊗ P ι )

(N T ×N T )

X

(N T ×k)

=

ι T (ι 0 T ι T ) −1 ι 0 T 0 . . . 0 0 ι T (ι 0 T ι T ) −1 ι 0 T . . . 0

.. . .. . . . . .. .

0 0 . . . ι T0 T ι T ) −1 ι 0 T

 x 1

x 2

.. . x N

=

ι T0 T ι T ) −1 ι 0 T x 1 ι T0 T ι T ) −1 ι 0 T x 2

.. . ι T (ι 0 T ι T ) −1 ι 0 T x N

Dato che (ι 0 T ι T ) −1 ι 0 T x i = 1 T

T

X

j=1

x 0 ij = ¯ x 0 i (vettore riga k-dimensionale contenente le medie aritmetiche temporali relative all’i-esimo individuo), si ottiene

P X =

 ι T x ¯ 0 1 ι T x ¯ 0 2 .. . ι T x ¯ 0 N

= ¯ X.

Dal punto di vista geometrico P si configura come la matrice delle proiezioni ortogonali sullo spazio generato da ι T di tutte le variabili individuali y i

(N ×1)

e x i (N ×k)

.

Matrice M

La matrice M ` e definita come M = (I N ⊗ M ι ) con M ι = I T − P ι = I T − ι T0 T ι T ) −1 ι 0 T . Anche la matrice M ` e

(19)

quadrata: dato che M ι = I T − P ι ` e quadrata di dimensione (T × T )

M ι =

1 0 . . . 0 0 1 . . . 0 .. . .. . . . . .. . 0 0 . . . 1

− 1 T

1 1 . . . 1 1 1 . . . 1 .. . .. . . . . .. . 1 1 . . . 1

 ,

il prodotto P = (I N ⊗ M ι ) ` e esso stesso una matrice quadrata di dimensione (N T × N T ).

diagonale a blocchi: analogamente a quanto accadeva per la matrice P , anche in questo caso ci sono in tutto N blocchi composti dalla matrice M ι

P =

M ι 0 . . . 0 0 M ι . . . 0 .. . .. . . . . .. . 0 0 . . . M ι

 .

simmetrica: poich´ e sia I t sia P ι , sono simmetriche, tutti i blocchi di M sono simmetrici, quindi M = M 0 . idempotente: dato che

M ι M ι = [I T − P ι ][I T − P ι ]

= I T − P ι − P ι − P ι P ι

= I T − P ι

= M ι , risulta

M M =

M ι 0 . . . 0 0 M ι . . . 0 .. . .. . . . . .. . 0 0 . . . M ι

M ι 0 . . . 0 0 M ι . . . 0 .. . .. . . . . .. . 0 0 . . . M ι

=

M ι M ι 0 . . . 0 0 M ι M ι . . . 0 .. . .. . . . . .. . 0 0 . . . M ι M ι

=

M ι 0 . . . 0 0 M ι . . . 0 .. . .. . . . . .. . 0 0 . . . M ι

= M

Quando moltiplica una matrice in formato panel X di dimensione (N T × k), M ritorna la matrice X − ¯ X avente

le stesse dimensioni della matrice data e, per ciascun individuo, contenente gli scarti delle colonne dalle

loro medie individuali. Questo risultato ` e facilmente dimostrabile come segue considerando la matrice X di

Riferimenti

Documenti correlati

Qual `e la dimensione di un’istanza del problema dell’al- bero di supporto di costo minimo.. 3.3 Problemi N P-completi e

Osservazione : Valgono le stesse considerazioni fatte per il teorema precedente , cioè il limite della differenza di due funzioni può condurre alla forma indeterminata + ∞

Si ` e osservato che l’azione di aggiungere un nuovo vettore a dei dati vettori lascia invariato il sottospazio generato esattamente quando il nuovo vettore ` e combinazione lineare

SONO INSERITI € 13.022 CHE RIGUARDANO SOMME RESTITUITE NELL'ANNO 2002 E INTERESSI MATURATI SUL

SONO INSERITI € 13.022 CHE RIGUARDANO SOMME RESTITUITE NELL'ANNO 2002 E INTERESSI MATURATI SUL

[r]

[r]

- Variazione delle aree per trasformazioni lineari, teorema di cambiamento di variabili negli integrali doppi, calcolo di integrali mediante coordinate polari.. -