• Non ci sono risultati.

I modelli per dati panel: un’applicazione relativa al rapporto tra sofferenze e concorrenza bancaria

N/A
N/A
Protected

Academic year: 2021

Condividi "I modelli per dati panel: un’applicazione relativa al rapporto tra sofferenze e concorrenza bancaria"

Copied!
83
0
0

Testo completo

(1)

UNIVERSITÀ DI PISA

Dipartimento di Economia e Management

Corso di Laurea Magistrale in Banca, Finanza Aziendale e Mercati Finanziari

I MODELLI PER DATI PANEL: UN’APPLICAZIONE RELATIVA

AL RAPPORTO TRA SOFFERENZE E CONCORRENZA

BANCARIA

Relatore

Prof.ssa Caterina GIANNETTI

Candidato Samuele LOMBARDI

(2)

2

“Ho lottato contro una dura concorrenza per tutta la mia vita. Non saprei come andare avanti senza di essa.”

(Walt Disney)

A tutti i miei “compagni di viaggio”, di lunga data e non: Francesca, Ilaria, Sara, Andrea (sì, anche tu), Giusy, Adele, Elisabetta. Ma, soprattutto, a Camilla, grande amica, con “corretta” fermezza e “trasparente” convinzione.

(3)

3

INDICE

INTRODUZIONE 5

CAPITOLO 1

LA LOGICA DEI METODI ECONOMETRICI PANEL DATA 1.1 – Introduzione ai dati panel 7 1.2 – Semplici metodologie: l’approccio “prima e dopo” 10 1.3 – Il modello fixed effects 14

1.3.1 – Peculiarità del processo di stima 16

1.3.2 – Inclusione di effetti temporali 19

1.3.3 – Ipotesi del modello 21

1.3.4 – L’errore standard nella regressione con effetti fissi 23

CAPITOLO 2

IL MODELLO RANDOM EFFECTS

2.1 – Principi di fondo 26

2.2 – La specificazione del modello e il problema delle assunzioni 27 2.3 – Scelta dello stimatore migliore: l’Hausman test 34

CAPITOLO 3

PRESENTAZIONE DELLA SPECIFICA ANALISI

3.1 – Breve panoramica sulla situazione “sofferenze bancarie” 37

(4)

4

3.1.2 – Le variabili che incidono sui crediti deteriorati 44

3.2 – La concorrenza nel sistema bancario 46

3.3 – Metodologia operativa 50

3.3.1 – Interpretazione dei risultati 51

3.3.2 – Costruzione del dataset e descrizione delle variabili 53

CAPITOLO 4

STIMA DELLA RELAZIONE TRA SOFFERENZE BANCARIE E CONCORRENZA

4.1 – Approccio pooled OLS 57

4.2 – Approccio fixed effects 63

4.3 – Approccio random effects 68

4.3.1 – Test di verifica 73

4.4 – Dummy temporali e analisi di robustezza 74

CONCLUSIONE 79

(5)

5

INTRODUZIONE

Il punto focale del presente lavoro è l’individuazione della presenza di una relazione tra la concorrenza sistemica e le sofferenze bancarie, definite dalla stessa Banca d’Italia come quelle esposizioni detenute da istituti creditizi nei confronti di soggetti in stato di insolvenza o in situazioni sostanzialmente equiparabili, anche se non accertate in via giudiziale. Si tratta di una tematica fortemente attuale per quanto riguarda il panorama economico europeo, come è emerso dalla recente crisi finanziaria dei mutui subprime, scoppiata negli Stati Uniti d’America nella seconda metà del 2006 e capace di scatenare pesanti ripercussioni nelle economie di tutti i paesi sviluppati del mondo occidentale negli anni a seguire. In particolar modo, nel sistema economico italiano la situazione dei crediti deteriorati costituisce una delle più tragiche a livello comunitario (si pensi che l’Italia risulta quinta nella classifica relativa alla percentuale dei crediti deteriorati sui crediti complessivi vantati dagli istituti bancari stilata dalla European Banking Authority), soprattutto alla luce del fatto che, in Italia, il prestito bancario rappresenta la principale fonte esterna di copertura del fabbisogno finanziario delle imprese.

È proprio da queste fondamenta che prende vita il presente studio, il quale si propone di analizzare l’entità dell’impatto della concorrenza bancaria e dell’andamento generale dell’economia (nello specifico, rappresentato dalla variabile PIL pro capite) sul livello delle sofferenze rilevate in ogni singola provincia italiana, il tutto partendo dalla disponibilità di informazioni, le quali si riferiscono al periodo temporale 2009-2016, contenute in un apposito dataset, costruito sulla base delle osservazioni reperite direttamente dal Bollettino Statistico di Banca d’Italia. L’analisi econometrica proposta si basa su modelli di stima dei parametri relativi a ciascuna variabile indipendente che richiedono l’utilizzo di un particolare tipo di dati, detti panel data, i cui fondamenti teorici verranno affrontati nel corso del primo e del secondo capitolo. Il primo capitolo è dedicato al modello con effetti fissi (e al confronto fra esso e l’approccio first differencing), il quale considera, all’interno della regressione lineare, l’impatto sui risultati degli effetti inosservati (unobserved factors) che variano tra le unità statistiche ma rimangono costanti nel tempo (effetti individuali), oppure che variano nel tempo rimanendo, però, costanti tra le singole unità statistiche (effetti temporali), procedendo,

(6)

6

in secondo luogo all’eliminazione degli stessi, mentre il capitolo successivo esaminerà le caratteristiche del modello con effetti casuali, che, invece, considera l’impatto degli effetti inosservati che mutano sia nel tempo che tra i singoli individui.

Nel terzo capitolo, dopo aver proceduto ad una breve panoramica sulla situazione del sistema bancario italiano, con riferimento, naturalmente, alla presenza e all’entità dei crediti deteriorati e alla loro crescente importanza nel tempo, si illustrerà, in primo luogo, il concetto di concorrenza tra istituti creditizi e il rapporto fra essa e la stabilità del sistema bancario e finanziario (con particolare riguardo alle teorie economiche prevalenti in materia). In secondo luogo, si passerà alla specificazione di elementi fondamentali per l’analisi econometrica, quali la metodologia operativa, le fonti e il contenuto delle osservazioni raccolte e la specificazione delle singole variabili in gioco. Infine, la vera e propria stima della relazione tra sofferenze bancarie e concorrenza sistemica verrà affrontata nel quarto capitolo. La trattazione si concentrerà sulla quantificazione dei parametri relativi a ciascuna variabile indipendente, calcolati secondo i diversi approcci econometrici, sul confronto dei risultati ottenuti e sull’accertamento della loro validità statistica (attraverso l’utilizzo di test di verifica) e, soprattutto, del loro significato economico; l’analisi verrà poi ripetuta modificando la specificazione della variabile espressione della concorrenza bancaria, al fine di estrapolarne nuove conclusioni statistico-economiche.

(7)

7

CAPITOLO 1 – LA LOGICA DEI METODI ECONOMETRICI

PANEL DATA

1.1 – Introduzione ai dati panel

Nell’ambito dell’econometria, la regressione multipla effettuata sulla base del modello OLS (ossia secondo il metodo dei minimi quadrati), sia essa ottenuta con l’utilizzo di dati in formato cross-section oppure in formato time-series, rappresenta senza alcun dubbio lo strumento più forte a nostra disposizione per verificare l’effetto che alcune variabili di interesse potrebbero avere su un particolare indicatore economico. Gli stimatori OLS offrono un elevato grado di immediatezza interpretativa dei risultati e, sotto le assunzioni del teorema di Gauss-Markov, godono di indiscussa consistenza ed efficienza (lo stesso teorema afferma che, nel caso in cui le assunzioni risultino verificate, rappresenterebbero gli stimatori a varianza minore). Tuttavia, qualora si ritenga che, all’interno della stessa analisi, avrebbero potuto avere un qualche rilievo anche ulteriori variabili di cui, però, non si possiede alcun dato, gli stimatori OLS dei coefficienti di regressione potrebbero essere soggetti a distorsione da variabili omesse. Esistono diversi metodi che permettono di controllare la significatività di alcune tipologie di variabili omesse senza che queste siano realmente osservate: uno di questi prevede l’utilizzo di un particolare tipo di dati, detti panel data (o dati longitudinali). A differenza degli independently pooled cross-section data, per cui la raccolta delle osservazioni avviene tramite campionamento casuale effettuato all’interno di una vasta popolazione, in diversi periodi temporali, con la possibilità che all’interno del campione vengano incluse unità statistiche differenti per ogni periodo, i panel data prevedono che la raccolta dei dati venga effettuata selezionando (sempre tramite campionamento casuale) un gruppo di unità statistiche (dimensione cross-section) e ripetendo nel tempo la richiesta delle informazioni alle medesime unità (dimensione time-series). Date le differenti modalità di costruzione dei dataset, da un punto di vista puramente statistico, dall’analisi delle due tipologie di dati emerge un’importante differenza: facendo riferimento ad un dataset composto unicamente da pooled data, questo consiste di dati

(8)

8

che sono stati raggruppati in modo indipendente, aspetto non da poco, in quanto permette di escludere l’ipotesi di un’eventuale correlazione tra i termini di errore relativi alle diverse osservazioni; mentre, per quanto riguarda i dati panel, proprio perché essi risultano collezionati, nel corso delle epoche considerate, all’interno dello stesso gruppo di individui, non è possibile assumere che le informazioni raccolte siano indipendentemente distribuite nel tempo.

Il termine panel data si riferisce a quell’insieme di informazioni che coinvolge le caratteristiche relative ad n entità diverse osservate in T periodi temporali diversi (per un totale di 𝑛 × 𝑇 osservazioni). Se i dati contengono informazioni sulle generiche variabili X e Y, il corrispondente dataset è indicato come segue:

(𝑋𝑖𝑡, 𝑌𝑖𝑡), 𝑖 = 1, … , 𝑛 e 𝑡 = 1, … , 𝑇

dove il primo pedice, i, si riferisce all’entità oggetto di osservazione, mentre il secondo pedice, t, all’istante temporale in cui è raccolta la corrispondente informazione. Un dataset costituito da dati longitudinali che contiene tutte le possibili osservazioni in merito alle variabili considerate, relativamente a ciascun’unità statistica e ciascun periodo temporale, è definito panel bilanciato; viceversa, un panel non bilanciato rappresenta un dataset composto da informazioni incomplete, in quanto sprovvisto di osservazioni riferite ad almeno un periodo o ad almeno un’unità statistica.

La scelta di effettuare analisi più o meno complesse servendosi di panel data permette, oltre allo studio delle dinamiche di variazione dei dati (che, come già annunciato, può portare ad una riduzione, o, addirittura, all’eliminazione dell’effetto di eventuali variabili non osservabili), di lavorare con una mole più elevata di informazioni rispetto a quelle contenute in dataset più semplici, includendo, dunque, più variabilità e ridimensionando le problematiche relative alla collinearità tra le variabili in gioco: per questo motivo la stima dei parametri statistici avviene in maniera non solo più precisa, ma anche più efficiente. La relativa semplicità, poi, con cui i dati panel possono essere raccolti in riferimento a città, contee, regioni, stati e paesi rende il loro utilizzo particolarmente indicato per effettuare analisi politiche.

(9)

9

Il modello più semplice a cui è possibile fare ricorso per effettuare analisi econometriche, in presenza di panel data, è rappresentato sicuramente dal modello di regressione lineare semplice costruito mediante l’approccio OLS, il quale permette di sfruttare tutte le proprietà che rendono gli stimatori dei minimi quadrati ordinari quelli in grado di fornire, sotto determinate assunzioni, i risultati più corretti e facilmente interpretabili. Nel caso di dati longitudinali, il modello in questione prende il nome di pooled OLS, in quanto procede a trattare le informazioni empiriche a disposizione come se il dataset fosse costruito mediante campionamento casuale per ciascuno dei periodi temporali considerati (ossia, banalmente, come se si fosse di fronte ad osservazioni con le caratteristiche dei pooled data). Pertanto, il modello econometrico che si propone di verificare la presenza di una relazione tra la variabile dipendente (qui indicata dalla notazione Y) e una o più variabili indipendenti (indicate tramite la dicitura X) assume la seguente forma:

𝑌𝑖𝑡 = 𝛽0+ 𝛽1𝑋1𝑖𝑡+ 𝛽2𝑋2𝑖𝑡+ ⋯ + 𝛽𝑘𝑋𝑘𝑖𝑡 + 𝑢𝑖𝑡 con 𝑖 = 1, … , 𝑛 e 𝑡 = 1, … , 𝑇

dove 𝛽0 rappresenta l’intercetta della retta di regressione, i vari 𝛽1, … , 𝛽𝑘 i coefficienti angolari (o effetti parziali) relativi a ciascuna variabile indipendente, il pedice k indica il numero dei regressori inclusi nel modello e 𝑢𝑖𝑡 il termine di errore complessivo della regressione lineare. L’approccio pooled OLS, tuttavia, può non costituire la soluzione ottimale e, anzi, si presenta spesso inappropriato, in quanto la presenza di panel data tende ad accrescere il grado di inconsistenza empirica di alcune delle assunzioni che ne reggono le fondamenta, una su tutte quella che sancisce l’esogeneità delle variabili indipendenti. Ciò sta a significare che, lavorando con dataset composti da dati longitudinali, non è sempre pacifico assumere che i termini di errore 𝑢𝑖𝑡 specifici della regressione siano totalmente incorrelati con le manifestazioni dei regressori (eventualità che si ricollega all’impossibilità di ipotizzare informazioni identicamente e indipendentemente distribuite nel tempo), con la conseguenza che gli stimatori OLS così ricavati tendono a non mantenere le loro proprietà statistiche e a condurre a stime inconsistenti o, addirittura, distorte. L’heterogeneity bias rappresenta una causa distorsiva che deriva dalla scelta di non includere nel modello econometrico elementi,

(10)

10

perché oggettivamente difficili o, in alcuni casi, impossibili da misurare (in quanto è probabile facciano riferimento ad indicatori di atteggiamento, di qualità, di abilità, etc.), che tendono ad influenzare le manifestazioni della variabile dipendente ma che si mantengono invariati nel tempo (time-invariant, Wooldridge, 2006) e che, dunque, vengono ad essere incorporati nel termine di errore specifico della regressione lineare (il quale non può più dirsi incorrelato). Nel paragrafo seguente verranno introdotti i vantaggi della scomposizione del termine di disturbo complessivo come soluzione del problema dell’heterogeneity bias per poi passare alla trattazione dei primi semplici approcci da utilizzare in presenza di panel data.

1.2 – Semplici metodologie: l’approccio “prima e dopo”

Considerando, per semplicità, un modello di regressione lineare che contenga una sola variabile indipendente e immaginando di poter risolvere il problema dell’eterogeneità del regressore mediante l’inserimento nel modello di una variabile che interiorizzi tutti gli elementi inosservabili time-invariant, la costruzione della retta di regressione porterebbe al seguente risultato:

𝑌𝑖𝑡 = 𝛽0+ 𝛽1𝑋𝑖𝑡+ 𝛽2𝑍𝑖 + 𝑢𝑖𝑡

Il modello di regressione lineare così espresso introduce all’interno dell’equazione l’elemento 𝑍𝑖, che, come detto, rappresenta tutte quelle condizioni, invariabili nel tempo ma peculiari di ciascuna unità statistica, suscettibili di avere un ruolo più o meno importante nella variabilità del regressando.

Di fronte ad un simile approccio, risulta una conclusione del tutto ragionevole immaginare che i vari termini di errore 𝑢𝑖𝑡 abbiano tutti la stessa struttura e, pertanto, racchiudano in essi due distinte componenti:

• Una componente 𝛼𝑖, capace di catturare tutta l’eterogeneità cross-section non osservabile e, per questo, definita unobserved factor o, più semplicemente, effetto fisso: è pacifico ipotizzare, per semplicità, che essa possa raccogliere non solo l’espressione delle diverse variabili 𝑍𝑖, ma anche l’intercetta verticale 𝛽0

(11)

11

della retta di regressione, senza che si modifichi la validità del ragionamento, dunque 𝛼𝑖 = 𝛽0+ 𝛽2𝑍𝑖 rappresenta la parte di errore, legata alle caratteristiche dell’unità statistica i, che riassume l’influenza che ciascuna unità statistica è in grado di avere sulle manifestazioni della variabile indipendente;

• Una componente 𝜀𝑖𝑡, denominata time-varying error o errore idiosincratico, poiché rappresenta l’elemento di disturbo che influenza la variabilità del regressando, di natura puramente casuale, e, pertanto, peculiare di ciascuna osservazione; tale elemento, così definito, si presenta molto simile al termine di errore riferito ad una semplice regressione lineare effettuata considerando un dataset di osservazioni time-series.

Alla luce di questa scomposizione, è possibile riformulare il semplice modello di regressione nel modo che segue:

𝑌𝑖𝑡 = 𝛽1𝑋𝑖𝑡+ 𝛼𝑖 + 𝜀𝑖𝑡

Anche nell’ipotesi che i due processi 𝛼𝑖 e 𝜀𝑖𝑡 siano indipendentemente distribuiti (i.i.d.) con valore atteso pari a 0 e siano tra loro incorrelati (assunzione che si presenta ragionevole in molti casi), i termini di disturbo relativi ad una stessa unità statistica ma riferiti ad istanti temporali differenti risultano correlati in ogni caso (considerando, cioè, due periodi s e t, distinti tra loro, la covarianza tra i termini di errore 𝑢𝑖𝑠 e 𝑢𝑖𝑡 risulta non nulla, si ha, infatti, che 𝐸(𝑢𝑖𝑠𝑢𝑖𝑡) = 𝐸[(𝛼𝑖 + 𝜀𝑖𝑠), (𝛼𝑖 + 𝜀𝑖𝑡)] = 𝜎𝛼2), cosicché la stima del coefficiente 𝛽1 (e, più in generale, di qualsiasi effetto riferito ad una variabile indipendente), se effettuata tramite il metodo pooled OLS, si presenterà empiricamente non accettabile o, comunque, certamente non efficiente, sia per campioni finiti che asintoticamente. Inoltre, ed è il fatto più determinante, come già detto in precedenza, la possibile correlazione tra i fattori inosservati 𝛼𝑖 e le manifestazioni dei regressori (circostanza affatto inverosimile) fa crollare l’assunzione di esogeneità delle variabili indipendenti (la quale richiede che i termini di errore della regressione nel loro complesso, cioè gli 𝑢𝑖𝑡, risultino incorrelati con le 𝑋𝑖𝑡), e, in tal caso, gli stimatori OLS perdono tutte le loro proprietà intrinseche, rendendo le stime effettuate tramite suddetto modello non solo inefficienti, ma, addirittura, inconsistenti.

(12)

12

Proprio per aggirare gli ostacoli legati alla non specificazione di fattori inosservabili, molti degli approcci econometrici riferiti all’utilizzo di dati panel tentano di procedere, tramite artifici di calcolo, all’eliminazione degli stessi, ammettendo, dunque, con estrema tranquillità, che essi possano essere correlati con ciascuna delle variabili esplicative del modello: un primo semplice metodo che si dirige in tal senso è rappresentato dal cosiddetto confronto “prima e dopo”, illustrato da Wooldridge (2006) e, successivamente, da Stock e Watson (2016), utile nel caso in cui, per ciascuna entità statistica, siano disponibili osservazioni relative a 𝑇 = 2 periodi. Mediante una simile metodologia, è possibile confrontare i valori che la variabile dipendente assume nel secondo periodo con quelli che assume nel primo periodo, ponendo, dunque, l’attenzione sulle variazioni del regressando e approfittando del fatto che gli elementi, inosservati o inosservabili, suscettibili di influenza all’interno del modello possano essere sì differenti per ciascuna unità, ma ragionevolmente costanti nel lasso di tempo considerato (ed è il caso dei sopracitati indicatori qualitativi).

Siano 𝑡 = 1 il periodo cronologicamente anteriore e 𝑡 = 2 l’istante posteriore (non necessariamente adiacenti tra loro, sia esplicitando i periodi temporali come anni sia utilizzando qualsiasi altra unità di misura), si potrebbe pensare che il metodo più immediato per procedere alla stima degli effetti delle variabili indipendenti sia unire le informazioni relative alle due distinte epoche e arrivare alla costruzione di un modello di regressione lineare con i dati così raggruppati. Tuttavia, è oramai chiaro che un processo di stima del genere può portare a risultati che sono certamente non validi da un punto di vista statistico, ma, in taluni casi, possono presentarsi anche logicamente inverosimili. Quindi, l’approccio più semplice che rimane da utilizzare è stimare due diversi modelli di regressione, ciascuno relativo ad un singolo istante temporale, seguendo una logica del tipo cross-section, ossia considerando i dati relativi ai due periodi come appartenenti a due processi di stima diversi. In tal caso, è possibile specificare le equazioni delle rette di regressione riferite ai 2 differenti gruppi di osservazioni come segue:

𝑌𝑖2 = 𝛽1𝑋𝑖2+ 𝛼𝑖 + 𝜀𝑖2 (per 𝑡 = 2) 𝑌𝑖1 = 𝛽1𝑋𝑖1+ 𝛼𝑖 + 𝜀𝑖1 (per 𝑡 = 1)

(13)

13

e, se si procede a sottrarre la seconda equazione dalla prima, si ottiene che (𝑌𝑖2− 𝑌𝑖1) = 𝛽1(𝑋𝑖2− 𝑋𝑖1) + (𝛼𝑖 − 𝛼𝑖) + (𝜀𝑖2− 𝜀𝑖1) e, con l’eliminazione dei fattori di disturbo 𝛼𝑖, ponendo la relazione in altri termini, si giunge al seguente risultato:

∆𝑌𝑖 = 𝛽1∆𝑋𝑖+ ∆𝜀𝑖

dove la dicitura ∆ denota la variazione dei singoli elementi che si verifica tra l’istante 𝑡 = 1 e l’istante 𝑡 = 2.

Un’equazione di questo tipo, in cui gli effetti inosservati sono stati agilmente “tagliati fuori”, è definita first-differenced equation e risulta di facile comprensione: si tratta di un’equazione ottenuta mediante una semplice regressione del tipo cross-section, ma considerando i valori differenziati delle variabili in gioco nel tempo. In questo modo, non risulta violata nessuna delle assunzioni previste per il modello OLS, in particolare si mantiene solida la caratteristica di esogeneità delle variabili indipendenti. È infatti ragionevole ipotizzare che i termini di errore 𝜀𝑖𝑡 siano incorrelati con le manifestazioni delle variabili esplicative riferite ad entrambi i periodi temporali, soprattutto se si considera che, in presenza di una qualche forma di correlazione tra i suddetti elementi, il problema possa essere superato includendo ulteriori fattori suscettibili di influenza all’interno del modello. Un’altra condizione cruciale, ma quantomeno intuitiva, è che le osservazioni ∆𝑋𝑖 debbano essere soggette ad una qualche forma di variazione all’interno dell’insieme delle entità i, infatti, se ciò non accadesse e le variabili esplicative non subissero variazioni temporali per ciascuna delle unità statistiche oppure subissero variazioni tutte della stessa entità, le conclusioni raggiunte sarebbero completamente fallaci. Lo stimatore OLS così ottenuto del coefficiente 𝛽1, è definito come first-differenced estimator: esso, se risultano verificate le condizioni stabilite precedentemente, si presenta consistente e capace di generare un processo di inferenza statistica esatto.

L’approccio “prima e dopo”, tuttavia, pur nella sua intuitività, nella sua facilità di comprensione e costruzione e nella sua validità complessiva, non è esente da problematiche applicative. Infatti, stimare come un determinato cambiamento nelle variabili esplicative del modello, avvenuto in uno specifico intervallo di tempo, possa

(14)

14

influenzare la variazione nelle manifestazioni della variabile dipendente intercorsa nell’arco dello stesso periodo, rappresenta sì un potentissimo metodo di tenere sotto controllo gli unobserved factors, ma di certo si tratta di un processo che non è applicabile senza sacrifici. In primo luogo, un dataset composto da dati longitudinali risulta di più difficile costruzione rispetto ad un dataset che contiene unicamente dati cross-section, soprattutto nel caso in cui le unità statistiche sono rappresentate da singoli individui (intesi, in senso lato, come persone fisiche e giuridiche). Infatti, per raccogliere informazioni di tipo panel, è necessario effettuare sondaggi e mantenersi in contatto con ciascun individuo per proporre sondaggi successivi, ciò risulta complicato non solo per le singole persone fisiche, ma anche in riferimento alle entità di più grandi dimensioni, come, ad esempio, le imprese, che, nel corso di periodi temporali anche brevi, possono fallire o andare incontro ad operazioni di scissione o di fusione con altre aziende. In seconda battuta, il processo di differenziazione delle osservazioni utilizzato per eliminare l’incidenza degli 𝛼𝑖 può portare ad una sensibile riduzione della variabilità dei regressori, e una tale situazione, in cui una stima di tipo OLS può far emergere errori standard di entità anche molto elevata, non può essere facilmente evitata, poiché ampliare l’insieme delle osservazioni cross-section non solo è difficile, ma può non essere sempre possibile. Infine, è banale da precisare, l’approccio “prima e dopo” non ha un’applicazione immediata nel caso in cui siano disponibili informazioni relative a più di 2 periodi, e, se anche l’avesse, sembrerebbe assurdo scartare dati aggiuntivi potenzialmente utili.

1.3 – Il metodo fixed effects

In merito a quanto già visto, è bene specificare che si parla di “modello con componenti degli errori” quando, procedendo alla sua costruzione, al suo interno vengono esplicitate (e indicate con diciture separate) le varie componenti in cui risulta scomposto il termine di errore della regressione statistica; nei casi precedentemente analizzati il termine 𝑢𝑖𝑡 è definito come il risultato della somma dell’elemento 𝛼𝑖, che racchiude in sé la manifestazione degli effetti inosservati suscettibili di incidenza nella relazione, e

(15)

15

dell’elemento 𝜀𝑖𝑡, che indica, invece, il termine di errore casuale, tipico di ciascuna osservazione. Un modello con componenti degli errori può essere denominato:

• “Ad effetti fissi” (fixed effects, abbreviato in FE), qualora, nella procedura di stima, il termine di errore 𝛼𝑖 (per 𝑖 = 1, … , 𝑛), indipendentemente dalla sua natura (sia essa deterministica o casuale), venga considerato come una costante non nota, in quanto difficile o impossibile da misurare;

• “Ad effetti casuali” (random effects, abbreviato in RE), qualora, invece, il termine 𝛼𝑖 sia considerato a tutti gli effetti come una variabile con manifestazioni aleatorie e, nella procedura di stima, venga trattato come tale.

Alla luce della distinzione proposta, è possibile asserire che, per un modello con componenti degli errori, essere definito “ad effetti fissi” o “ad effetti casuali” non rappresenta una vera e propria caratteristica, ma tale circostanza dipende dalla tipologia di procedura utilizzata per giungere alla sua stima. Pertanto, non si assiste ad una vera e propria separazione tra modelli distinti, bensì si è di fronte ad un unico modello di regressione, che può essere diversamente definito a seconda delle situazioni e delle circostanze in cui questo si trova a dover operare:

• Il modello sarà considerato ad effetti fissi quando 𝛼𝑖 è realmente deterministico (ossia una costante dipendente da i) oppure è una variabile casuale che risulta correlata con le manifestazioni dei regressori e, per questo, il termine di errore verrà trattato come parametro non noto e si procederà alla sua eliminazione; • Il modello sarà considerato ad effetti casuali quando la componente 𝛼𝑖,

caratteristica dell’unità statistica i, è una variabile aleatoria per cui si è di fronte alla ragionevole evidenza che questa risulti incorrelata, oltre che rispetto alle componenti casuali 𝜀𝑖𝑡, soprattutto rispetto a ciascuno dei regressori.

Posto quanto detto sopra, è intuitivo sostenere che, nei casi in cui siano utilizzabili entrambe le specificazioni del modello, le procedure di stima per modelli ad effetti casuali forniscano stime più efficienti di quelle per modelli ad effetti fissi.

(16)

16

1.3.1 – Peculiarità del processo di stima

Dopo questa opportuna introduzione, è necessario procedere all’analisi del modo in cui si presenta ed è possibile implementare una procedura di stima per modelli ad effetti fissi, arrivando a specificare quelle che sono le proprietà dello stimatore così ricavato. Il processo fixed effects, così come l’approccio first differencing, prevede l’utilizzo di una particolare trasformazione matematica dei dati, così da rimuovere del tutto l’incidenza dei fattori inosservabili nella retta di regressione in modo preventivo rispetto alla loro stima e, con loro, tutte le variabili esplicative che si mantengono costanti nel tempo. Nonostante la congruenza dei fini delle due tipologie di processo, tuttavia, si potrà chiarire, con il prosieguo della trattazione, come la stima con effetti fissi rappresenti il metodo principe in quelle analisi, supportate da dataset di osservazioni panel, in cui si tenti di eliminare qualsiasi elemento di disturbo esplicativo che sia costante nel tempo, in quanto la tipologia di trasformazione delle informazioni a cui fa riferimento permette di giungere a risultati migliori, sotto certe assunzioni.

Innanzitutto, per mantenere un filo logico coerente, è opportuno ripartire dal modello di regressione con componenti degli errori così come specificato inizialmente:

𝑌𝑖𝑡 = 𝛽1𝑋𝑖𝑡+ 𝛼𝑖 + 𝜀𝑖𝑡

dove i termini 𝛼𝑖, che, come ripetutamente accennato, rappresentano tutti gli elementi di disturbo della regressione che fanno riferimento a potenziali variabili esplicative omesse, perché inosservabili, e ritenute costanti nel tempo, possono essere trattate come intercette di una immaginaria retta di regressione tracciata per ciascuna singola unità statistica i e, poiché queste possono essere considerate come l’”effetto dell’essere” (Stock e Watson, 2016) nell’unità i, tali termini sono noti come “effetti fissi individuali”.

Il metodo tramite il quale la procedura di stima per modelli fixed effects provvede ad eliminare il termine di errore è denominato fixed effects transformation o, più frequentemente, data-demeaning: esso consiste nella sottrazione della media di gruppo (calcolata per ogni unità statistica) da ciascuna delle variabili in gioco e, successivamente, nella stima della retta di regressione (senza intercetta) mediante

(17)

17

l’approccio pooled OLS. Una volta ricavata la media di gruppo di ciascuna variabile e termine presente nel modello utilizzando la formula seguente

𝑌̅𝑖 = 1

𝑇∑ 𝑌𝑖𝑡 𝑇

𝑡=1

(con 𝑋̅𝑖𝑡 e 𝜀̅𝑖𝑡 definite in modo simile), dove T rappresenta il numero dei periodi temporali di cui si possiedono le informazioni (e, dunque, il numero di osservazioni disponibili per ciascuna unità i), e inserite queste nel modello di regressione ottenendo

𝑌̅𝑖 = 𝛽1𝑋̅𝑖+ 𝛼𝑖 + 𝜀̅𝑖

si può procedere a sottrare l’equazione così ottenuta dall’equazione del modello con componenti dell’errore come originariamente formulata. La trasformazione dei dati così effettuata porta ad un risultato di questo tipo:

(𝑌𝑖𝑡− 𝑌̅𝑖) = 𝛽1(𝑋𝑖𝑡− 𝑋̅𝑖) + (𝜀𝑖𝑡 − 𝜀̅𝑖)

Infine, indicando con 𝑌̈𝑖𝑡, 𝑋̈𝑖𝑡 e 𝜀̈𝑖𝑡, gli scostamenti dalla media specifica delle osservazioni relative alle rispettive variabili, emerge la stima del modello definitivo:

𝑌̈𝑖𝑡 = 𝛽1𝑋̈𝑖𝑡+ 𝜀̈𝑖𝑡

in cui gli elementi 𝑌̈𝑖𝑡 = 𝑌𝑖𝑡− 𝑌̅𝑖 sono definiti come osservazioni time-demeaned (Wooldridge, 2006) riferite alla variabile Y (similmente si ha per 𝑋̈𝑖𝑡 e 𝜀̈𝑖𝑡). Avendo ottenuto la rimozione dei fattori di disturbo inosservabili dall’equazione, risulta perfettamente percorribile la strada che prevede la stima pooled OLS del coefficiente 𝛽1 e lo stimatore risultante prenderà il nome di fixed effects estimator o within estimator (il termine within sta ad indicare che l’approccio pooled OLS, in questo caso, si serve delle variazioni temporali che intercorrono nelle variabili Y e X “all’interno di” ciascun gruppo di osservazioni cross-section).

È bene precisare che le conclusioni così emerse ipotizzando, per semplicità, un modello di regressione ad una sola variabile, si estendono pacificamente (così come tutte quelle effettuate nei precedenti paragrafi) anche ai casi in cui siano presenti 2 o più regressori.

(18)

18

Infatti, l’inclusione di ulteriori variabili esplicative non causa che piccole modifiche di mera natura formale all’interno dell’equazione precedentemente proposta, più precisamente, in presenza di un numero di regressori pari a k, il modello originale assume la configurazione che segue:

𝑌𝑖𝑡= 𝛽1𝑋1𝑖𝑡+ 𝛽2𝑋2𝑖𝑡+ ⋯ + 𝛽𝑘𝑋𝑘𝑖𝑡+ 𝛼𝑖+ 𝜀𝑖𝑡

Pertanto, procedendo, in esso, a sostituire le osservazioni relative alle singole variabili con quelle time-demeaned, l’equazione della retta di regressione assume la sua forma definitiva:

𝑌̈𝑖𝑡 = 𝛽1𝑋̈1𝑖𝑡+ 𝛽2𝑋̈2𝑖𝑡+ ⋯ + 𝛽𝑘𝑋̈𝑘𝑖𝑡+ 𝜀̈𝑖𝑡

Come illustrato da Stock e Watson (2015), i vari fattori inosservabili 𝛼𝑖, data la possibilità, anticipata in precedenza, che siano interpretati come intercette di un ipotetico modello di regressione cross-section costruito utilizzando i dati disponibili per ciascuna unità statistica, possono anche essere espressi utilizzando apposite variabili binarie (dummy), ciascuna indicante le singole entità, attraverso una procedura (definita, per l’appunto, dummy variable regression) del tutto analoga, per presupposti e risultati, a quella di data-demeaning. Per sviluppare un modello di regressione ad effetti fissi usando variabili binarie (che, dunque, assumono solo il valore 0 e il valore 1), è sufficiente definire una specifica dummy riferita a ciascuna delle n unità statistiche: si otterrà, in tal modo, un insieme composto da n variabili, ognuna delle quali sarà indicata da una particolare dicitura, con 𝐷1𝑖 variabile binaria che assume valore 1 quando 𝑖 = 1 (cioè quando l’osservazione è riferita all’unità 1) e valore 0 in tutti gli altri casi, 𝐷2𝑖 variabile binaria che assume valore 1 quando 𝑖 = 2 e valore 0 in tutti gli altri casi, e così via. L’ultimo passaggio del processo prevede che le variabili dummy così ricavate vadano incluse nel modello di regressione, ciascuna con il proprio coefficiente, rispettando, però, una piccola accortezza: nel caso in cui si decidesse di specificare, nell’equazione della retta di regressione, un’intercetta comune 𝛽0, non è possibile inserire al suo interno tutte le n variabili binarie, poiché tale mossa produrrebbe perfetta collinearità tra queste e l’intercetta comune (si verificherebbe la cosiddetta “trappola

(19)

19

delle variabili dummy”), di conseguenza basterà procedere all’eliminazione di una di loro. Il modello di regressione così costruito assumerà la seguente configurazione:

𝑌𝑖𝑡 = 𝛽0+ 𝛽1𝑋𝑖𝑡+ 𝛾2𝐷2𝑖 + ⋯ + 𝛾𝑛𝐷𝑛𝑖 + 𝜀𝑖𝑡

dove la dummy 𝐷1𝑖 è stata opportunamente rimossa in luogo dell’intercetta 𝛽0. Va da sé che un simile modello può essere specificato anche in presenza di un numero di variabili indipendenti superiore ad 1, con l’apporto di alcune banali modifiche:

𝑌𝑖𝑡 = 𝛽0+ 𝛽1𝑋1𝑖𝑡+ ⋯ + 𝛽𝑘𝑋𝑘𝑖𝑡+ 𝛾2𝐷2𝑖 + ⋯ + 𝛾𝑛𝐷𝑛𝑖+ 𝜀𝑖𝑡

in cui k rappresenta, ovviamente, il numero dei regressori in X inclusi nella retta. In linea di principio, la specificazione con variabili binarie del modello di regressione con effetti fissi può essere stimata con il metodo pooled OLS (con tutte le comodità e le proprietà del caso), però occorre considerare che un processo di stima del genere prevede la presenza di 𝑘 + 𝑛 regressori complessivi (le k variabili in X, le 𝑛 − 1 variabili dummy e l’intercetta comune), perciò, anche quando il numero delle unità statistiche si mantiene non troppo elevato, questo comporta l’inclusione nel modello di moltissime variabili esplicative, in molti casi troppe per poter portare avanti la regressione in maniera esplicita. Proprio per questo motivo, il metodo dummy variable non è molto pratico da utilizzare in presenza di dataset costituiti da dati longitudinali (anche se molti software econometrici presenti in circolazione utilizzano algoritmi speciali che permettono di giungere ad una stima sostanzialmente equivalente all’utilizzo dell’approccio pooled OLS sul modello completo con variabili binarie).

1.3.2 – Inclusione di effetti temporali

Le diverse conclusioni raggiunte fin qui permettono di sostenere che un modello di regressione costruito mediante l’individuazione (e la successiva eliminazione) all’interno della componente di errore di fattori inosservati o inosservabili che, però, si presumono correlati con le variabili esplicative consente di controllare per tutti quegli elementi che si presentano time-invariant, cioè sono peculiari di ciascuna unità statistica

(20)

20

(e, per questo, sono stati definiti “effetti individuali”), ma si mantengono costanti nel tempo. Allo stesso tempo, un simile approccio può essere utilizzato per monitorare, invece, la possibile incidenza nella relazione di tutte quelle variabili che sono sì libere di evolversi nel tempo, ma assumono lo stesso valore tra le diverse entità, e che, dunque, possono essere denominate “effetti temporali”: fattori di disturbo di questo tipo differiscono, rispetto a quelli incontrati finora, per distribuzione, ma non certo per natura e, come tali, possono essere inclusi e poi successivamente epurati tramite procedure di stima del tutto analoghe a quelle affrontate in precedenza. Indicando con 𝜆𝑡 i termini di disturbo legati all’incidenza nell’analisi di elementi variabili nel tempo, ma costanti tra le unità (dove il pedice t evidenzia proprio questa caratteristica), è possibile riscrivere il modello primigenio di regressione ad effetti fissi nei modi (legati, rispettivamente, alla presenza di una sola variabile esplicativa e di k variabili esplicative) che seguono:

𝑌𝑖𝑡 = 𝛽1𝑋𝑖𝑡+ 𝛼𝑖 + 𝜆𝑡 + 𝜀𝑖𝑡

𝑌𝑖𝑡 = 𝛽1𝑋1𝑖𝑡+ ⋯ + 𝛽𝑘𝑋𝑘𝑖𝑡+ 𝛼𝑖+ 𝜆𝑡+ 𝜀𝑖𝑡

Le più frequenti prassi del settore, qualora si ipotizzi l’incidenza sulle variabili in gioco nella specifica relazione di effetti temporali, tendono a preferire la procedura di stima che prevede l’inserimento all’interno del modello di un numero di indicatori binari pari al numero di periodi (T) meno 1, sempre in modo tale da prevenire problemi di perfetta collinearità con l’intercetta comune (è in questo senso che va, infatti, la maggior parte dei software econometrici), dato che, solitamente, un dataset di osservazioni panel non tende a racchiudere informazioni relative ad un numero troppo elevato di epoche. Pertanto, un modello di regressione ad effetti fissi che possa controllare per entrambe le tipologie di fattori inosservati, individuali e temporali, può risultare da una duplice procedura di stima: data-demeaning, per poter procedere alla rimozione degli effetti individuali, e time-demeaning. In questo modo, la specificazione con variabili binarie temporali può verificare l’incidenza degli effetti temporali. Il risultato sarà rappresentato da un’equazione di questo tipo:

(21)

21

in cui gli elementi 𝐵2𝑡, … , 𝐵𝑇𝑡 rappresentano le dummy indicative degli effetti temporali relativi a ciascun periodo. Al di là della procedura di stima utilizzata, tuttavia, è bene ricordare che la specificazione di un modello con componenti degli errori ad effetti fissi (siano essi individuali, temporali o di entrambe le tipologie) si presenta perciò immune dalle problematiche legate alla distorsione da variabili omesse provocate dalla presenza di elementi (costanti nel tempo o tra le unità) potenzialmente esplicativi, ma non inclusi nel modello.

1.3.3 – Ipotesi del modello

Le ipotesi alla base della regressione con effetti fissi estendono alla specifica tipologia di dataset per cui questa procedura è utilizzata (si parla, ovviamente, dei dataset in cui vengono raccolte osservazioni in formato panel) le assunzioni già previste per l’approccio OLS, formulate in riferimento a dati cross-section. Nello specifico, le assunzioni per la validità delle stime fixed effects, così come specificate da Wooldridge (2006), sono rappresentate dalle seguenti proposizioni:

• Assunzione FE.1: per ogni i, il modello è rappresentato dall’equazione 𝑌𝑖𝑡 = 𝛽1𝑋1𝑖𝑡+ 𝛽2𝑋2𝑖𝑡+ ⋯ + 𝛽𝑘𝑋𝑘𝑖𝑡+ 𝛼𝑖 + 𝜀𝑖𝑡 con 𝑡 = 1, … , 𝑇, dove gli elementi 𝛽1, … , 𝛽𝑘 indicano i parametri di interesse di cui procedere alla stima e i fattori 𝛼𝑖 gli effetti fissi;

• Assunzione FE.2: nel processo di stima si provvede ad utilizzare un campione della popolazione estratto mediante campionamento casuale semplice nella visione cross-section;

• Assunzione FE.3: per ogni t, il valore atteso della componente idiosincratica 𝜀𝑖𝑡 del termine di errore complessivo condizionato alle manifestazioni delle variabili indipendenti in tutti i periodi temporali e alle manifestazioni del fattore inosservato è nullo, 𝐸(𝜀𝑖𝑡|𝑋𝑖𝑡, 𝛼𝑖) = 0;

• Assunzione FE.4: ciascuna delle variabili esplicative modifica le proprie manifestazioni nel tempo (almeno per qualche valore di i) e non esistono relazioni lineari perfette tra i vari regressori;

(22)

22

• Assunzione FE.5: per ogni t, la varianza del termine di errore idiosincratico 𝜀𝑖𝑡 condizionata alle manifestazioni sia delle variabili indipendenti sia degli effetti fissi si mantiene costante, 𝑉𝑎𝑟(𝜀𝑖𝑡|𝑋𝑖𝑡, 𝛼𝑖) = 𝑉𝑎𝑟(𝜀𝑖𝑡) = 𝜎𝜀2;

• Assunzione FE.6: per ogni 𝑡 ≠ 𝑠, gli errori idiosincratici risultano serialmente incorrelati (condizionatamente alle 𝑋𝑖𝑡 e agli 𝛼𝑖), 𝐶𝑜𝑣(𝜀𝑖𝑡, 𝜀𝑖𝑠|𝑋𝑖𝑡, 𝛼𝑖) = 0; • Assunzione FE.7: condizionatamente alle manifestazioni delle variabili

indipendenti e dei fattori inosservati, i termini di errore idiosincratico sono indipendenti tra loro e si distribuiscono identicamente come una normale con valore atteso nullo e varianza pari a 𝜎𝜀2, 𝜀𝑖𝑡 ~ 𝑖. 𝑖. 𝑑. 𝑁(0, 𝜎𝜀2).

Particolarmente cruciali per la definizione delle proprietà (sia finite che asintotiche) dello stimatore fixed effects sono: l’assunzione di stretta esogeneità delle variabili indipendenti (opportunamente specificata dalla terza proposizione), dove il termine “stretta” sta ad indicare che ciascuno dei termini idiosincratici di disturbo 𝜀𝑖𝑡 deve risultare incorrelato con le manifestazioni delle diverse variabili indipendenti osservate in tutti i periodi temporali (si tratta dunque di un’assunzione piuttosto potente), e l’ipotesi di variabilità dei regressori (specificata dalla quarta proposizione), che, altrimenti, finirebbero per essere eliminati dal processo di data-demeaning, se risultassero costanti nel tempo. Per questi motivi, è possibile sostenere che, sotto le prime 4 assunzioni (che sono identicamente specificate anche in riferimento all’approccio first differencing), lo stimatore fixed effects 𝛽𝑗 (con 𝑗 = 1, … , 𝑘) non solo non sconta alcun tipo di distorsione e, dunque, si presenta corretto (cioè il suo valore atteso è uguale al corrispondente parametro misurato all’interno della popolazione), ma si presenta anche consistente (cioè fornisce stime sempre più puntuali all’aumentare della dimensione campionaria).

La quinta e la sesta assunzione, le quali sanciscono, rispettivamente, l’omoschedasticità dei termini di errore idiosincratico 𝜀𝑖𝑡 e l’impossibilità della presenza di correlazione seriale tra questi, rendono, invece lo stimatore fixed effects il più efficiente nella gamma degli stimatori lineari non distorti (best linear unbiased estimator, BLUE), ossia lo stimatore che permette di ottenere stime precise scontando la presenza di una varianza che è la minore ottenibile; è quest’ultima caratteristica che rende lo stimatore fixed

(23)

23

effects, in qualsiasi situazione, preferibile allo stimatore first differencing (per quanto riguarda la precedente conclusione, ruolo fondamentale gioca, soprattutto, l’assunzione di incorrelazione seriale).

La proposizione numero 7 stabilisce, invece, quella che, probabilmente, rappresenta l’assunzione più forte e restrittiva, questo perché la previsione di una distribuzione normale degli errori idiosincratici, non solo implica le assunzioni 3, 5 e 6, ma va, addirittura, a definire una forma specifica per le manifestazioni dei termini di disturbo, la quale permette di utilizzare le statistiche t e F (che presenteranno così le consuete forme distributive) per l’implementazione di test statistici che verifichino la validità empirica degli stimatori. È opportuno precisare, però, che un’assunzione di questo tipo può essere sostanzialmente scartata, senza per questo escludere la possibilità di utilizzo delle suddette statistiche test, in questo caso, però, occorrerà rifarsi alle approssimazioni asintotiche, le quali richiedono una dimensione campionaria (n) piuttosto grande e un numero di periodi temporali (T) piuttosto contenuto. Per concludere, l’assunzione di stretta esogeneità introduce una ulteriore implicazione, non così importante per la specifica analisi ma comunque interessante: dato che la correttezza dello stimatore fixed effects impone che gli errori idiosincratici non siano correlati con alcuna delle manifestazioni dei regressori (anche quelle riferite ad istanti temporali differenti), si può ritenere esclusa la possibilità che, all’interno del gruppo delle variabili indipendenti, possa essere inserito un qualche ritardo della variabile dipendente: si tratta delle cosiddette lagged variables, che rappresentano una branca anche piuttosto importante dell’analisi time-series.

1.3.4 – L’errore standard nella regressione con effetti fissi

Come affrontato nel precedente paragrafo, procedere ad una stima secondo il metodo fixed effects richiede che gli errori di regressione, cioè le componenti casuali 𝜀𝑖𝑡, presentino particolari caratteristiche, in modo che gli stimatori ricavati dal modello siano in grado di fornire stime che siano puntuali. Tuttavia, in presenza di panel data, è pacifico sostenere che qualcuna di queste imposizioni possa venire meno, poiché

(24)

24

empiricamente forzata: è il caso dell’assenza di correlazione seriale e dell’omoschedasticità dei termini di errore idiosincratico. Infatti, può tranquillamente capitare che, all’interno di uno specifico dataset costruito in un’ottica panel data, i singoli errori di regressione risultino correlati nel tempo ed è molto difficile riuscire a sostenere il contrario. Come l’eteroschedasticità, questa possibile correlazione seriale non introduce problemi di distorsione nello stimatore con effetti fissi, ma influisce pesantemente sul calcolo della varianza e, di conseguenza, degli errori standard, mettendone in dubbio l’effettiva efficienza.

La validità degli errori standard calcolati mediante tipologie di approccio classiche (ossia con i metodi utilizzati in presenza di una regressione di tipo cross-section) può essere pesantemente messa in discussione, qualora le componenti casuali del termine di errore 𝜀𝑖𝑡 presentino caratteristiche di eteroschedasticità oppure siano serialmente correlati tra loro; in presenza di potenziale eteroschedasticità e autocorrelazione, le uniche metodologie ammesse per il calcolo degli errori standard sono quelle che permettono di pervenire ad errori standard robusti all’eteroschedasticità e all’autocorrelazione (HAC, acronimo dall’inglese heteroskedasticity and autocorrelation consistent). Tra gli approcci matematici appena introdotti particolare attenzione meritano (soprattutto se nei dataset a disposizione i dati raccolti si presentano come longitudinali) i metodi che consentono di calcolare errori standard per dati raggruppati: specifica tipologia di errori HAC, si parla di “errori standard per dati raggruppati” (o clustered) perché le corrispondenti metodologie matematiche permettono agli errori di regressione di essere correlati in modo arbitrario per un dato insieme o raggruppamento (in inglese cluster), ma ipotizzano che essi siano incorrelati tra raggruppamenti diversi1. In sostanza, gli errori standard per dati raggruppati considerano la possibilità di eteroschedasticità e autocorrelazione in modo coerente con l’Assunzione FE.2, che imponeva la collezione delle osservazioni mediante campionamento casuale semplice, per ciascuna delle variabili in gioco, questa, infatti implica che le informazioni relative ad ogni variabile raccolte per una data unità statistica siano indipendentemente distribuite rispetto a quelle relative ad un’altra unità.

(25)

25

Come gli errori standard robusti all’eteroschedasticità nella regressione cross-section, gli errori standard per dati raggruppati sono validi a prescindere che vi sia eteroschedasticità, correlazione seriale o entrambe, per questa ragione, se il numero delle entità n è grande, l’inferenza statistica mediante errori per dati raggruppati può procedere utilizzando i consueti valori critici basati sulla distribuzione asintotica normale delle statistiche t e i valori critici basati sulla distribuzione asintotica 𝐹𝑞,∞ per le statistiche F che verificano q vincoli.

(26)

26

CAPITOLO 2 – IL MODELLO RANDOM EFFECTS

2.1 – Principi di fondo

Nel corso della trattazione del primo capitolo, sono state sottoposte ad analisi tutte le possibili procedure di stima di modelli di regressione all’interno dei quali risalta la distinzione interna del termine di errore complessivo (altresì detto composito) nella duplice componente intrinseca, una di natura inosservata, suscettibile di influenza nei confronti della variabili dipendente, ma di difficile specificazione, e una di natura idiosincratica, caratteristica di ciascuna osservazione in quanto del tutto casuale. L’idea di fondo di metodi simili è la seguente: se una variabile inosservata o inosservabile differisce tra le unità, ma non cambia nel tempo o, viceversa, si mantiene costante tra le unità, ma non nel tempo (e, come già abbondantemente sostenuto, si parla di “effetti fissi”, rispettivamente, “individuali” e “temporali”), allora ogni variazione nella variabile dipendente deve necessariamente essere attribuita a influenze diverse rispetto a queste caratteristiche fissate.

Gli approcci del tipo fixed effects, infatti, sfruttando le particolarità della loro procedura di stima, possono essere utilizzate per mettere un freno alle problematiche causate dalla distorsione di possibili variabili omesse. I corrispondenti stimatori possiedono svariate proprietà che, sotto le 7 assunzioni del modello, li rendono corretti, consistenti e a varianza minima. Inoltre, si presentano estremamente facili da calcolare, anche in presenza di una dimensione campionaria importante (basta, infatti, ricavare le medie rispetto al parametro t per ciascuna entità statistica), e di spiccata immediatezza interpretativa. Tuttavia, nonostante tutti questi pregi, una procedura di stima che presuppone l’incidenza di effetti individuali ed effetti temporali non è in grado (e questo proprio per le modalità di costruzione del modello) di mantenere sotto controllo la distorsione dovuta a variabili omesse, potenzialmente esplicative, le cui manifestazioni si modificano sia tra le entità sia nel tempo.

(27)

27

Nel momento in cui esiste una ragionevole certezza che, all’interno di una relazione, gli elementi inosservabili possiedano caratteristiche che più li avvicina alla natura delle variabili casuali e la realtà empirica conduce a ritenere che questi siano totalmente incorrelati con le variabili esplicative, allora un modello fixed effects risulterebbe piuttosto problematico da utilizzare. Infatti, se si è in presenza di controlli ritenuti molto validi sullo schema matematico del modello che spiega la relazione tra due o più variabili, si può arrivare a credere che ogni possibile forma di eterogeneità coinvolga solo ed unicamente i termini di errore complessivo, producendo tra loro una possibile correlazione seriale, ma non anche correlazione tra i suddetti termini di disturbo e le variabili di interesse (che si ipotizzano esogene).

È in questo filone concettuale che si inserisce la definizione di un’altra tipologia di approccio, la quale tenta di ovviare alla situazione in cui esiste un’evidenza, derivante dalle informazioni raccolte, tale per cui la presenza di fattori inosservati, ritenuti espressione di variabili aleatorie, possa dirsi completamente incapace di incidere sulla validità del modello e, dunque, attuare trasformazioni dei dati volte a rimuovere tali fattori risulterebbe nella definizione di stimatori inefficienti. Si tratta del modello di regressione ad effetti casuali (o random effects), anch’esso (come il metodo fixed) caratteristico da una relativa facilità di stima e largamente utilizzato e proposto da molti software econometrici. Nel seguente capitolo, si procederà ad analizzare le peculiarità di un processo random effects e le proprietà dei relativi stimatori, mettendoli a confronto con quelli definiti dal modello fixed (sia dal punto di vista formale che dal punto di vista sostanziale) e, soprattutto, ponendo attenzione a cosa si intende per quell’“evidenza empirica” che risulterà la discriminante nella scelta tra le due tipologie di approccio.

2.2 – La specificazione del modello e il problema delle assunzioni

Per addentrarsi nell’analisi della particolare procedura di stima che permette di pervenire ad un modello di regressione del tipo random effects, occorre partire dall’usuale equazione con componenti degli errori (specificata nella sua forma con k variabili indipendenti):

(28)

28

𝑌𝑖𝑡 = 𝛽0+ 𝛽1𝑋1𝑖𝑡+ 𝛽2𝑋2𝑖𝑡+ ⋯ + 𝛽𝑘𝑋𝑘𝑖𝑡 + 𝛼𝑖 + 𝜀𝑖𝑡

in cui viene esplicitamente inclusa l’intercetta 𝛽0 così da poter pacificamente avanzare l’ipotesi che i termini 𝛼𝑖 (fattori inosservati) rappresentino variabili con manifestazioni aleatorie e con valore atteso nullo (𝐸(𝛼𝑖) = 0), senza, per questo, perdere alcun grado di generalità; da notare, inoltre, che l’inclusione nel modello dei soli effetti fissi di tipo individuale non preclude in alcun modo l’inserimento di indicatori binari temporali nella gamma delle variabili esplicative e che la loro omissione non pregiudica in alcun modo la bontà dell’analisi sotto riportata.

Come abbondantemente sviscerato, nell’utilizzo di approcci econometrici del tipo first differencing o fixed effects l’obiettivo finale è quello di procedere all’eliminazione di effetti di cui, volenti o nolenti, non è stato possibile reperire informazioni e che si presumono possano essere in grado di spiegare la variabilità del regressando, in quanto potenzialmente correlati con una o più delle variabili indipendenti. Tuttavia, come specificato nel precedente paragrafo, se si hanno sufficienti elementi per sostenere che le manifestazioni dei fattori inosservati 𝛼𝑖 siano del tutto incorrelate con quelle di ciascuna delle variabili esplicative del modello, allora procedere alla rimozione degli stessi dall’equazione di regressione porterebbe ad una perdita informativa assolutamente non necessaria, ne risulterebbe l’ottenimento di stime estremamente meno efficienti, pur continuando a mostrarsi corrette e consistenti. Posto questo concetto come focus del ragionamento, l’equazione della retta di regressione di cui sopra si trasforma in un modello random effects quando si impone l’assunzione che gli elementi inosservati siano incorrelati con ciascuno dei regressori, cioè si ha che:

𝐶𝑜𝑣(𝑋𝑗𝑖𝑡, 𝛼𝑖) = 0 con 𝑡 = 1, … , 𝑇 e 𝑗 = 1, … , 𝑘

in questo modo, le singole variabili indipendenti incluse nell’equazione devono mostrarsi esogene non solo rispetto al termine di errore casuale 𝜀𝑖𝑡, ma anche in relazione agli effetti aleatori 𝛼𝑖. È proprio questa specificazione che rappresenta la differenza cruciale tra un processo di stima fixed effects ed un processo random effects:

(29)

29

si tratta di un’assunzione sicuramente più forte e più stringente rispetto al modello fixed (in quanto allarga l’ipotesi di indipendenza prevista, in esso, esclusivamente per la componente casuale dell’errore 𝜀𝑖𝑡 al termine di errore complessivamente considerato 𝑢𝑖𝑡) e, quindi, di più difficile riscontro. Tuttavia, questa assunzione può essere mitigata dalla possibilità di ottenere uno stimatore che presenta un grado di efficienza superiore, creando così un trade-off tra robustness ed efficiency (si verificherà, nei paragrafi successivi, l’esistenza di metodi specifici per la sua risoluzione).

Giunti a questo punto, il quesito da porsi è uno solo: considerata l’assunzione aggiuntiva che è stata avanzata, in che modo si dovrebbe procedere per raggiungere una stima finale dei coefficienti 𝛽𝑗? È fondamentale precisare che, se vi è ragione di credere che i termini inosservati inclusi nel modello si presentino incorrelati con le realizzazioni delle variabili indipendenti, allora, i singoli coefficienti esplicativi delle relazioni tra i singoli regressori e la variabile dipendente possono essere stimati in maniera consistente anche utilizzando osservazioni in formato pooled data, senza bisogno di costruire dataset di tipo panel. Tuttavia, un modello pooled OLS, pur producendo stime consistenti dei coefficienti 𝛽𝑗 sotto le assunzioni dell’approccio random, ignora una caratteristica chiave del modello. Specificando, infatti, il modello di regressione precedentemente riportato senza più distinguere la duplice componente del termine di disturbo, ma riunendole entrambe all’interno del cosiddetto “termine di errore composito” 𝑢𝑖𝑡 = 𝛼𝑖+ 𝜀𝑖𝑡, si ottiene la seguente equazione:

𝑌𝑖𝑡 = 𝛽0+ 𝛽1𝑋1𝑖𝑡+ 𝛽2𝑋2𝑖𝑡+ ⋯ + 𝛽𝑘𝑋𝑘𝑖𝑡 + 𝑢𝑖𝑡

e, dato che i termini 𝛼𝑖 si mantengono all’interno dell’errore composito per ciascun periodo temporale, i suddetti termini 𝑢𝑖𝑡 possono essere ragionevolmente ritenuti serialmente correlati nel tempo. Effettivamente, sotto le assunzioni del modello random effects, si ha che, per ogni 𝑡 ≠ 𝑠:

𝐶𝑜𝑣(𝑢𝑖𝑡, 𝑢𝑖𝑠) = 𝜎𝛼 2 (𝜎𝛼2+ 𝜎

𝜀2)

dove i termini 𝜎𝛼2 e 𝜎𝜀2 stanno ad indicare le varianze, rispettivamente, dei fattori inosservati 𝛼𝑖 e dei termini di errore casuale 𝜀𝑖𝑡. Un’autocorrelazione di questo tipo

(30)

30

(quindi necessariamente positiva) nel termine di errore composito provoca pesanti ripercussioni sulla scelta della procedura di stima da utilizzare, in quanto gli errori standard come usualmente calcolati con l’approccio pooled OLS ignorano suddetta correlazione e, dunque, risulterebbero incorretti, così come le solite statistiche test. In presenza di errori serialmente correlati, esistono procedure che permettono di raggiungere stime più efficienti rispetto al classico metodo OLS.

In questo caso, l’approccio che consente di risolvere il problema dell’autocorrelazione è rappresentato dal metodo dei minimi quadrati generalizzati (GLS, acronimo dall’inglese generalised least squares), denominato in tal modo proprio perché utilizzato in quelle situazioni, come, appunto, la presenza di correlazione seriale tra i termini di disturbo, ma anche l’individuazione di una qualche forma di eteroschedasticità nella distribuzione degli stessi, in cui si rende necessaria la formulazione di ipotesi meno restrittive, soprattutto per quanto riguarda la struttura della matrice di varianze e covarianze dei disturbi 𝑢𝑖𝑡. Posto che, affinché la procedura possa godere di proprietà valide, il dataset delle osservazioni deve essere costruito in maniera tale da possedere una numerosità campionaria piuttosto importante (n grande) e una dimensione temporale contenuta (T piccolo), è possibile derivare la trasformazione dei dati a disposizione proposta dall’approccio GLS. In particolare, indicando con

𝜃 = 1 − √ 𝜎𝜀 2 (𝜎𝜀2+ 𝑇𝜎

𝛼2)

un parametro, i cui valori sono compresi tra 0 ed 1, dipendente sia dalla varianza dei fattori inosservati 𝜎𝛼2 sia dalla varianza dei termini di errore casuale 𝜎𝜀2 (nonché dal numero di periodi temporali T), la procedura GLS prevede che a tutte le osservazioni riferite ad ognuna delle variabili in gioco venga sottratta non più la media di gruppo, calcolata per ciascuna unità in un’ottica cross-section (così come previsto dal processo di data-demeaning implementato nella costruzione del modello fixed), ma una percentuale della stessa, delineata, per l’appunto, dal termine 𝜃, e l’equazione risultante sarà la seguente:

(31)

31

𝑌𝑖𝑡− 𝜃𝑌̅𝑖 = 𝛽0(1 − 𝜃) + 𝛽1(𝑋1𝑖𝑡− 𝜃𝑋̅1𝑖) + ⋯ + 𝛽𝑘(𝑋𝑘𝑖𝑡− 𝜃𝑋̅𝑘𝑖) + (𝑢𝑖𝑡− 𝜃𝑢̅𝑖) Una simile trasformazione matematica, che, come detto, procede a sottrarre da ciascun dato una percentuale della media di gruppo (e non l’intera media), prende il nome di quasi-demeaning e le osservazioni così ottenute su ciascuna variabile prendono il nome di quasi-demeaned data. Dalle modalità di costruzione del modello è facilmente desumibile che una stima dell’equazione della retta di regressione (con k variabili indipendenti) primigenia ottenuta con la metodologia GLS è assolutamente equivalente ad una stima pooled OLS effettuata sostituendo a ciascuna osservazione disponibile la sua corrispondente quasi-demeaned. Inoltre, risulta da una semplice analisi algebrica che, per 𝜎𝜀2 che tende a 0, 𝜃 tende a 1, mentre, invece, per 𝜎𝛼2 che tende a 0, 𝜃 tende 0: ciò significa che, qualora tutta la varianza generata all’interno del modello dovesse essere attribuibile unicamente ai fattori inosservati, gli stimatori fixed effects risulterebbero ottimali (e si procederebbe alla sottrazione della media di gruppo così come è stata calcolata), mentre, nella situazione in cui gli effetti aleatori potessero essere ritenuti tranquillamente trascurabili, sarebbero gli stimatori OLS a risultare ottimali (e si utilizzerebbe il processo di quasi-demeaning).

La trasformazione dei dati presentata sopra permette di controllare anche per variabili esplicative che si mantengono costanti nel tempo: si tratta di un importante vantaggio su cui può contare il modello random effects rispetto ad altri metodi econometrici, come, ad esempio, gli approcci fixed effects e first differencing, consentito dal fatto che i fattori inosservati sono assunti incorrelati con ciascuno dei regressori, indipendentemente dalla possibilità che si presentito fissati oppure no. Dalla precedente analisi si evince che, per implementare una procedura del tipo GLS, è fondamentale il calcolo del parametro 𝜃, che, essendo sempre sconosciuto nella pratica, deve essere stimato e la cui stima, a sua volta, necessita del calcolo delle due tipologie di varianza 𝜎𝛼2 e 𝜎𝜀2, definite, rispettivamente, anche “varianza within” e “varianza between” (poiché la prima si riferisce alla variabilità che si verifica “all’interno di” ciascuna unità, mentre la seconda si riferisce alla variabilità rilevata “tra” le diverse unità). Esistono varie metodologie per stimare il parametro 𝜃: generalmente, le stime di 𝜃 sono ottenute utilizzando gli

Riferimenti

Documenti correlati

1) La assenza o la presenza degli effetti specifici temporali , che permettono la dicotomizzazione tra modelli di regressione one-way error component (i primi) e two-way

Moltiplicare o dividere un vettore per uno scalare equivale a moltiplicare o dividere il modulo del vettore, lasciando invariata la direzione ed il

ottenute dalle simulazioni con la funzione (Eq. Per angoli di incidenza superiori a 60° gradi, la funzione approssimante di tipo esponenziale non è, neanche in questo

Analogamente è stato riportato l' andamento della pressione nella politropica di espansione fino all'apertura della luce di della trasformazione pari a 1.38 che risulta

si calcola il m.c.m e si sviluppano i calcoli si ottiene un’equazione di secondo grado in si risolve l’equazione ottenendo due soluzioni si confrontano le soluzioni con

Si noti che la correlazione ` e positiva se dati sono ordinati in modo approssimativamente crescente nello scatterplot, negativa se sono ordinati in modo approssimativamente

Nel presente studio si intende valutare il grado di sicurezza garantito dall’applicazione di tale coefficiente di sovraresistenza rispetto all’effettivo rispetto del principio

Possiamo decidere di minimizzare la “vera distanza” dalla retta (e non la sua proiezione lungo l’asse y)... Catalogo RC3 (Third Reference Catalogue of bright galaxies) de