• Non ci sono risultati.

GRAN BRETAGNA

7. STIMA DEL MODELLO

7.2 STIMA DINAMICA

La stima statica appena effettuata considera, come precedentemente affermato, solo le realizzazioni contemporanee delle diverse variabili utilizzate nella regressione, in quanto suppone appunto l’esistenza di una relazione statica fra le stesse; in questo modo però non vi è la possibilità di indagare sulle relazioni esistenti fra le variabili nel lungo periodo, e ciò rappresenta un limite all’analisi che si è deciso di svolgere in questo elaborato. Pertanto è necessario ricorrere alla stima della regressione dinamica, stima nella quale fra i regressori, oltre alle realizzazioni contemporanee delle variabili esplicative, vengono inseriti anche i valori ritardati delle stesse, così come i valori ritardati della variabile dipendente, poiché si è portati a pensare che quanto verificatosi in passato possa incidere su quanto verificatosi nel presente e su ciò che si verificherà nel futuro.

Si procede quindi effettuando per tutti i paesi qui considerati la stima dinamica, inserendo quali variabili esplicative sia il tasso di crescita dei prezzi delle azioni (ciascuno con quattro ritardi), sia la variabile d’interesse ritardata, in quanto si suppone che la variabile di interesse, ossia il tasso di crescita del Pil, possa essere influenzato sia dalle osservazioni passate della variabile indipendente che dalle sue stesse osservazioni passate. Per quei paesi i cui residui della stima statica sono risultati stazionari vi è poi la possibilità di adottare il modello ECM, attraverso l’inserimento nella regressione della serie dei residui ritardata di un periodo; tale modello permette di stabilire che le variazioni nella variabile dipendente non dipendono solamente da variazioni nella variabile esplicativa x, ma anche dall’intensità del disequilibrio nel periodo precedente tra i livelli di y ed x95. Per questo motivo, per i paesi per i quali risultasse possibile adottare il modello ECM, si procederà inserendo nella regressione anche la serie dei residui ritardata di un periodo.

95

STATI UNITI

Dependent Variable: DLOG(GU) Method: Least Squares

Date: 05/03/12 Time: 09:06 Sample(adjusted): 1981:4 2009:2

Included observations: 111 after adjusting endpoints

Newey-West HAC Standard Errors & Covariance (lag truncation=4)

Variable Coefficient Std. Error t-Statistic Prob.

C -3.03E-06 5.09E-06 -0.595998 0.5525 DLOG(GU(-1)) -0.525210 0.082816 -6.341879 0.0000 DLOG(GU(-2)) -0.150387 0.101697 -1.478774 0.1423 DLOG(GU(-3)) -0.002064 0.136051 -0.015174 0.9879 DLOG(GU(-4)) 0.002716 0.098686 0.027524 0.9781 DLOG(RU) 0.023442 0.014073 1.665814 0.0988 DLOG(RU(-1)) 0.036977 0.011971 3.088848 0.0026 DLOG(RU(-2)) 0.025665 0.010728 2.392409 0.0186 DLOG(RU(-3)) 0.038790 0.011408 3.400284 0.0010 DLOG(RU(-4)) 0.025058 0.010259 2.442654 0.0163

R-squared 0.331455 Mean dependent var -2.81E-06

Adjusted R-squared 0.271882 S.D. dependent var 7.26E-05

S.E. of regression 6.20E-05 Akaike info criterion -16.45355

Sum squared resid 3.88E-07 Schwarz criterion -16.20945

Log likelihood 923.1719 F-statistic 5.563828

Durbin-Watson stat 1.997927 Prob(F-statistic) 0.000003

Il modello qui proposto, se adeguatamente specificato, dovrebbe riuscire a spiegare la maggior parte della variabilità contenuta nei dati ed i residui ottenuti dal processo di stima, ossia le differenze fra i dati osservati e i dati prodotti dal modello, dovrebbero presentare un andamento approssimativamente casuale, ossia non dovrebbero poter essere previsti per mezzo della loro storia passata96. I residui rappresentano infatti le stime degli errori compiuti nel processo di stima, ed è per tale motivo che vengono utilizzati al fine di verificarne le proprietà. Nel caso in cui l’andamento dei residui non dovesse risultare casuale, allora ciò significherebbe che il modello utilizzato non riesce a catturare tutte le componenti sistematiche che caratterizzano i dati e pertanto si renderebbe necessario procedere alla rispecificazione dello stesso, al fine di ottenerne uno in cui residui presentino un andamento puramente casuale. Inizialmente si procederà eliminando quelle variabili che, risultando essere non significative, non contribuiscono a spiegare l’andamento della variabile dipendente; in seguito si passerà all’analisi del comportamento dei residui, essendo tale loro andamento fondamentale al fine di verificare la corretta specificazione del modello, e poiché la non casualità del

96

loro andamento può manifestarsi in diversi modi, tale analisi dovrà essere condotta attraverso una molteplicità di test statistici.

Si riporta qui di seguito l’output della regressione effettuata escludendo quelle variabili che sono risultate essere progressivamente non significative

Dependent Variable: DLOG(GU) Method: Least Squares

Date: 05/03/12 Time: 09:53 Sample(adjusted): 1981:3 2009:2

Included observations: 112 after adjusting endpoints

Newey-West HAC Standard Errors & Covariance (lag truncation=4)

Variable Coefficient Std. Error t-Statistic Prob.

C -2.94E-06 5.02E-06 -0.586654 0.5587 DLOG(GU(-1)) -0.536339 0.066333 -8.085523 0.0000 DLOG(GU(-2)) -0.154063 0.098384 -1.565931 0.1204 DLOG(RU) 0.023108 0.013357 1.730047 0.0866 DLOG(RU(-1)) 0.036967 0.011688 3.162747 0.0020 DLOG(RU(-2)) 0.025504 0.010837 2.353486 0.0205 DLOG(RU(-3)) 0.038657 0.012018 3.216507 0.0017 DLOG(RU(-4)) 0.025584 0.011445 2.235304 0.0275

R-squared 0.372227 Mean dependent var -1.06E-06

Adjusted R-squared 0.329973 S.D. dependent var 7.47E-05

S.E. of regression 6.11E-05 Akaike info criterion -16.49914

Sum squared resid 3.88E-07 Schwarz criterion -16.30496

Log likelihood 931.9519 F-statistic 8.809291

Durbin-Watson stat 2.034589 Prob(F-statistic) 0.000000

Come è possibile notare confrontando i risultati ottenuti, l’R-quadro e l’R-quadro aggiustato hanno riportato un miglioramento, essendo state eliminate dalla regressione delle variabili non rilevanti; pur essendoci ancora alcune variabili non significative all’interno della regressione considerata, dopo aver verificato che ulteriori eliminazioni porterebbero ad un abbassamento del coefficiente di determinazione, si preferisce mantenere questa situazione (l’inclusione all’interno del modello di variabili irrilevanti infatti non comporta gravi problemi, cosa che invece comporterebbe l’esclusione dal modello di variabili rilevanti, in quanto si avrebbe una perdita di efficienza, ossia si assisterebbe ad un’esplosione in termini di varianza delle stime, e le stime non risulterebbero corrette).

Si procede riportando in primo luogo la rappresentazione grafica dei residui della stima effettuata, al fine di esprimere un primo giudizio sull’andamento degli stessi:

-.0002 -.0001 .0000 .0001 .0002 -.0003 -.0002 -.0001 .0000 .0001 .0002 .0003 1985 1990 1995 2000 2005

Residual Actual Fitted

Da una prima analisi è possibile notare come il modello sembra non riesca a “fittare” bene quanto effettivamente realizzatosi nel corso del periodo considerato e ciò potrebbe portare ad avere dei residui che non soddisfino i requisiti di casualità di cui precedentemente detto; per verificare la veridicità di quanto dedotto da questa prima analisi grafica si effettuano pertanto i test di normalità, omoschedasticità e autocorrelazione, in modo da riuscire a confrontare i risultati così ottenuti con quanto appena esposto.  Test di normalità 0 2 4 6 8 10 12 14 -0.0001 0.0000 0.0001 Series: Residuals Sample 1981:3 2009:2 Observations 112 Mean 9.68E-22 Median 8.05E-06 Maximum 0.000138 Minimum -0.000156 Std. Dev. 5.91E-05 Skewness -0.057201 Kurtosis 2.810692 Jarque-Bera 0.228320 Probability 0.892115

Per quanto riguarda il test di normalità, dati i valori assunti dal test di Jarque-Bera, è possibile affermare che la distribuzione di tale serie può essere considerata assimilabile a quella di una normale, essendo infatti la probabilità di accettare l’ipotesi nulla di normalità superiore ad ogni livello di significatività.

Test di omoschedasticità

Si passa ora a verificare l’omoschedasticità dei residui della stima effettuata; al fine di poter definire tali residui omoschedastici è necessario che questi abbiano varianza costante nel tempo. Nel caso in cui tale ipotesi non fosse soddisfatta si avrebbero una

serie di conseguenze, in quanto la formula convenzionale della varianza, ossia ó2

(W'W)-1, non potrebbe più essere considerata corretta; le distribuzioni dei campioni finiti per i test statistici si rivelerebbero essere non più valide in quanto derivate da assunzioni sbagliate; ed infine la proprietà di minima varianza dello stimatore OLS non sarebbe più valida.

Al fine di verificare l’ipotesi di omoschedasticità è possibile avvalersi di una serie di metodi formali basati su procedure di test di ipotesi, fra i quali il Test di White e il Test di Arch, scelti quali riferimento in questo elaborato. Nello specifico il test di White ipotizza che la varianza dei residui possa essere spiegata dalle variabili esplicative, mentre il test di Arch permette di capire se vi sia o meno la presenza di componenti ARCH, ossia di componenti di eteroschedasticità condizionale auto regressiva (nei modelli ARCH infatti si suppone che la varianza condizionale dell’errore sia variabile nel tempo e che si possa descrivere con un modello autoregressivo).

Test di White

Il test di White ha come ipotesi nulla H0: σ2i= σ2, ossia l’ipotesi di varianza costante nel

tempo, e come ipotesi alternativa l’esistenza di una generica relazione tra la variabile

esplicativa o una sua funzione e la varianza, ovvero, H1: σ2i = f(γ+δZ) con Z=X97. Ciò

significa che, al fine di attestare l’omoschedasticità dei residui, la probabilità di

97 Il test di White è così costruito:

 si considera la regressione έi2 = γ+δZi+vi

 si calcola la statistica W = TR2

dove R2 rappresenta il coefficiente di determinazione della regressione qui riportata. Sotto l’ipotesi nulla e assumendo che le altre ipotesi sul modello lineare siano soddisfatte tranne la normalità, W~ χ2 (q), dove q è la dimensione di Z. Sotto ipotesi nulla R2 dovrebbe essere molto basso, in quanto se la varianza fosse costante le variabili Z non dovrebbero essere significative nella regressione di cui al primo punto e quindi la statistica assumerebbe valori bassi, cadendo nella regione di accettazione (M.Marcellino, Econometria applicata – Un’introduzione, 2006, Egea).

accettare l’ipotesi nulla deve essere superiore ad ogni livello di significatività, o perlomeno al livello di significatività qui preso in considerazione.

White Heteroskedasticity Test (no cross term)

F-statistic 3.309106 Probability 0.000246

Obs*R-squared 36.20156 Probability 0.000973

In questo caso i risultati del test appena effettuato non permettono di accettare l’ipotesi nulla di omoschedasticità, essendo la probabilità di accettare tale ipotesi inferiore a qualsiasi livello di significatività, e pertanto la varianza di tali residui non potrà essere considerata costante.

Test di Arch

Il test di Arch verifica invece la presenza di eventuali componenti di eteroschedasticità condizionale auto regressiva, supponendo che la varianza possa essere considerata come una funzione lineare degli errori passati presi al quadrato. L’ipotesi nulla di tale test

sostiene che in assenza di componenti Arch98, la varianza possa essere considerata

costante, mentre l’ipotesi alternativa prevede la presenza di componenti Arch e quindi la variabilità nel tempo della varianza. Al fine di poter considerare i residui della stima qui

98 Per quanto riguarda il Test di Arch si considera il modello lineare Y

t = Xtβ + εt, dove εt è distribuito normalmente con

μ = 0 e σ2 = δ0 + δ1ε2t-1 + δq ε2t-q

= δ0 + Σi δi ε2t-1 dove δ0 > 0 se non ho un impatto sui residui δi > 0 per i > 0 per evitare valori negativi

per cui la varianza dipenderà dalla costante (δ0) e dalla combinazione lineare delle q varianze passate (Σi δi ε2t-1) e sarà una funzione lineare dei quadrati degli errori presi al quadrato. Per testare l’ipotesi di omoschedasticità stimo il modello, regredendo y su x con il metodo OLS e ottenendo così i residui, ossia i valori stimati et di εt, i cui quadrati verranno a loro volta regrediti e quindi si avrà et2 = δ0 + δ1e2t-1 + δq e2t-q. Affinché si possa affermare l’inesistenza di componenti Arch è necessario che tutti i coefficienti δi siano uguali a 0 (a meno di un δi imputabile a costante); nel caso in cui invece anche solo uno di questi coefficienti sia uguale a 0, allora vi sarà la presenza di eteroschedasticità fra i residui. Sotto ipotesi nulla, in un campione di dimensione T, la numerosità campionaria T, moltiplicata per il coefficiente di determinazione R2 attribuibile a tale regressione, è distribuita come una χ2 con q gradi di libertà, in simboli TR2~ χ2 (q); se R2 è elevato allora la variabile considerata, ossia la varianza, presenta una dinamica e quindi si è costretti a rifiutare H0. Pertanto, ogniqualvolta TR2 > χ2 α(q) (ossia TR2 isola alla sua destra una massa di probabilità inferiore a quella isolata dal valore critico di una χ2α con q gradi di libertà) rifiuto H0 al livello di confidenza α (M.Marcellino, Econometria applicata – Un’introduzione, 2006, Egea).

effettuata omoschedastici sarà quindi necessario riuscire ad accettare l’ipotesi nulla di tale test. ARCH TEST (q=1) F-statistic 4.594433 Probability 0.034299 Obs*R-squared 4.489499 Probability 0.034104 ARCH TEST (q=5) F-statistic 0.269491 Probability 0.928821 Obs*R-squared 1.408710 Probability 0.923358

Dai risultati del test riportati nelle tabelle qui sopra esposte si attesta la possibilità di accettare l’ipotesi nulla di omoschedasticità, nel primo caso ad un livello di significatività dell’1% e nel secondo per ogni livello di significatività preso in considerazione.

Test di autocorrelazione

L’eventuale presenza di autocorrelazione degli errori nel modello di regressione lineare può essere dovuta alla mancata considerazione di una variabile esplicativa, all’errata specificazione del modelllo o all’osservazione di variabili che contegono già un errore di osservazione (portando così ad avere oltre che un errore di osservazione anche un errore delle stime generate sulla base di quella osservazione); in ognuno di questi casi si registrerebbe una perdita di efficienza e di aderenza del modello, in quanto la presenza di autocorrelazione non permetterebbe ai residui di possedere un andamento casuale, non prevedibile per mezzo della loro storia passata, bensì comporterebbe la presenza all’interno degli stessi di una componente di auto spiegazione che dovrebbe invece fare parte del modello99.

Vi sono diversi metodi basati su procedure di test di ipotesi che è possibile adottare al fine di testare l’autocorrelazione ed in questo elaborato verranno adottati sia il

correlogramma che il test LM, detto anche di Breusch-Godfrey.

99

Correlogramma

Date: 05/03/12 Time: 09:57 Sample: 1981:3 2009:2 Included observations: 112

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

. |** | . |** | 1 0.201 0.201 4.6315 0.031 . |. | . |. | 2 0.021 -0.020 4.6843 0.096 . |. | . |. | 3 -0.001 -0.002 4.6844 0.196 . |. | . |. | 4 -0.003 -0.002 4.6854 0.321 . |* | . |* | 5 0.067 0.071 5.2154 0.390 . |* | . |. | 6 0.086 0.061 6.1068 0.411 . |. | .*|. | 7 -0.027 -0.060 6.1963 0.517 . |. | . |. | 8 -0.052 -0.036 6.5223 0.589 . |* | . |* | 9 0.095 0.121 7.6350 0.571 . |. | . |. | 10 0.057 0.013 8.0405 0.625 . |. | .*|. | 11 -0.028 -0.059 8.1374 0.701 . |. | . |. | 12 0.005 0.022 8.1412 0.774

In questo caso la presenza di autocorrelazione può essere verificata attraverso l’osservazione del correlogramma dei residui presi al quadrato; è possibile accettare l’ipotesi di non-autocorrelazione fra i residui nel caso in cui la probabilità di accettare l’ipotesi nulla sia la più alta possibile o comunque superiore al livello di significatività qui preso in considerazione.

Dal correlogramma sopra riportato è possibile notare come per quasi tutti i lag considerati sia possibile accettare l’ipotesi di assenza di autocorrelazione.

Test LM

Il test LM, detto anche di Breusch-Godfrey, sostiene quale ipotesi nulla l’assenza di correlazione e quale ipotesi alternativa la presenza di una correlazione di ordine m, il quale verrà scelto da chi sta effettuando l’analisi, testando diverse alternative. Tale test può essere utilizzato nel caso in cui tra i regressori sia presente la variabile dipendente ritardata e, nel caso in cui gli errori non siano correlati, anche le correlazioni campionarie tra i residui risulteranno basse, e ciò renderà possibile accettare l’ipotesi nulla; viceversa nel caso in cui vi sia correlazione positiva o negativa, le correlazioni campionarie fra i residui risulterebbero elevate e si giungerebbe quindi a rifiutare tale ipotesi.

Includendo 1 ritardo si ottiene

Breusch-Godfrey Serial Correlation LM Test100:

F-statistic 0.178706 Probability 0.673369

Obs*R-squared 0.193984 Probability 0.659621

Includendo 5 ritardi si ottiene

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 1.727803 Probability 0.135207

Obs*R-squared 8.989022 Probability 0.109503

Come è possibile notare dalle tabelle sopra riportate, indipendentemente dal fatto che vengano inseriti uno o cinque ritardi al fine di testare la presenza di autocorrelazione dei residui fino all’ordine m, risulta possibile accettare l’ipotesi nulla di assenza di autocorrelazione.

Essendo i risultati appena ottenuti non molto soddisfacenti, si considera l’eventuale presenza di un break strutturale, ossia la possibilità di osservare delle diversità nei valori assunti dai parametri all’interno del periodo considerato. Nel caso in cui vi fosse effettivamente la presenza di un break allora non sarebbe possibile utilizzare lo stesso insieme di parametri per stimare l’intero periodo considerato e si renderebbe necessario ricorrere alla suddivisione di tale insieme in due sottoinsiemi, in modo da rendere ciascuno di questi adeguato per stimare ciascun periodo storico. Si procede quindi

effettuando il test di Chow101, ossia il test sui cambiamenti strutturali, il quale permette

100 Il test LM ha per ipotesi nulla H

0:εt non correlato e per alternativa H1:εt correlato di ordine m; definendo T T rj = ( Σ εtεt-j ) (Σ εt2 ) -1 t=j+1 t=1

la statistica test è data da m

LM = T(Σ rj2 ) t=1

Questa, sotto ipotesi nulla di non correlazione, è distribuita asintoticamente come χ2(m), dove m è scelto da chi sta effettuando l’analisi. Il ragionamento sottostante la costruzione del test è che, nel caso in cui gli errori non siano correlati, anche le correlazioni campionarie tra i residui dovrebbero essere basse e quindi i valori di rj dovrebbero essere prossimi a zero per j=1,…m. Nel caso in cui invece vi fosse correlazione positiva o negativa la statistica assumerebbe valori molto elevati e positivi (M.Marcellino, Econometria applicata – Un’introduzione, 2006, Egea).

101Tale test, proposto da Chow nel 1960, si basa sull’idea che i valori assunti dai parametri siano significativamente diversi in due sottoperiodi contenuti nel campione rispetto al quale si intende stimare il modello. Nel caso in cui vi siano sufficienti osservazioni nei due sottoperiodi, rispettivamente T1 e T2, dove T1+T2 =T, allora sarà possibile procedere stimando due regressioni separatamente ed ottenendo così stime diverse dei parametri, stime che meglio si adatteranno ai veri valori realizzatisi a seguito del cambiamento strutturale. Verrà quindi indicata con SQR la somma dei quadrati dei residui non vincolati,

appunto di capire se i parametri (β) della regressione lineare sulla variabile di interesse di un set di variabili esplicative x sono diversi nei due sottoinsiemi analizzati; nel caso in cui tali parametri risultassero diversi sarà confermata la presenza un cambiamento strutturale. Tale test ha per ipotesi nulla l’assenza di break strutturale e quindi la possibilità di poter usare un unico insieme di parametri per testare l’intero periodo considerato, e per ipotesi alternativa la presenza di break. Al fine di verificare la presenza di un eventuale break si renderà quindi necessario rifiutare l’ipotesi nulla per ciascun livello di significatività.

Chow Breakpoint Test:1983:3

F-statistic 3.461606 Probability 0.001513

Log likelihood ratio 28.38677 Probability 0.000406

Chow Breakpoint Test:1983:4

F-statistic 2.562583 Probability 0.014093

Log likelihood ratio 21.67747 Probability 0.005550

Chow Breakpoint Test:1984:1

F-statistic 2.523378 Probability 0.015512

Log likelihood ratio 21.37554 Probability 0.006214

Chow Breakpoint Test:1999:4

F-statistic 2.997221 Probability 0.004815

Log likelihood ratio 24.97134 Probability 0.001572

Chow Breakpoint Test:2000:1

F-statistic 3.667155 Probability 0.000906

Log likelihood ratio 29.86591 Probability 0.000223

ossia la somma dei residui derivante dalle due regressioni condotte separatamente (per la quale ci si aspetta un valore non molto elevato in quanto, attraverso la stima separata dei due sottoperiodi, vi dovrebbe essere un miglior adattamento del modello ai dati); e con SQR0 la somma del quadrato dei residui vincolati, ossia i residui ottenuti imponendo lo stesso insieme di coefficienti all’intero campione (somma per la quale ci si aspetta un valore più elevato in quanto, in presenza di un break, le stime risultanti tenderanno a non essere molto corrette). Pertanto il test di Chow potrà essere scritto come [(SQR0 – SQR)/k]/[SQR/(T1+T2-k)] ~ F(k, T-k)

dove k sta ad indicare il numero di coefficienti che compaiono nel modello.

L’ipotesi nulla di tale test è che gli stessi coefficienti possano essere utilizzati per l’intero campione, mentre l’ipotesi alternativa è che ciò non sia possibile, e che si debba quindi specificare un insieme di coefficienti per ciascun sottoperiodo; per cui avremo

H0:β1= β2 H1:β1≠ β2

Al fine di testare la presenza di un break strutturale sarà quindi necessario rifiutare l’ipotesi nulla (Cappuccio N., Orsi R., Econometria, 2005, Il Mulino).

Chow Breakpoint Test:2000:2

F-statistic 3.503917 Probability 0.001361

Log likelihood ratio 28.69284 Probability 0.000359

Dai risultati del test effettuato è possibile notare la presenza di un break strutturale fra la fine del 1983 e l’inizio del 1984 e successivamente di un altro break fra la fine del 1999 e l’inizio del 2000; ciò fa si che non sia possibile utilizzare lo stesso insieme di parametri per l’intero periodo considerato e pertanto si rende necessario effettuare due diverse regressioni: la prima per il periodo compreso fra il secondo trimestre del 1984 e l’ultimo trimestre del 1999, e la seconda per il periodo compreso fra il primo trimestre del 2000 ed il secondo trimestre del 2009.

Si procede quindi riportando l’output della stima dinamica della prima regressione, eliminando le variabili non significative ed analizzando l’andamento dei rispettivi residui.

Dependent Variable: DLOG(GU) Method: Least Squares

Date: 03/31/12 Time: 13:09 Sample: 1984:2 1999:4 Included observations: 63

Newey-West HAC Standard Errors & Covariance (lag truncation=3)

Variable Coefficient Std. Error t-Statistic Prob.

C -4.13E-06 6.37E-06 -0.647269 0.5203 DLOG(GU(-1)) -0.496499 0.115993 -4.280423 0.0001 DLOG(GU(-2)) -0.284722 0.119580 -2.381028 0.0209 DLOG(GU(-3)) -0.378387 0.150451 -2.515022 0.0150 DLOG(GU(-4)) -0.059614 0.158440 -0.376253 0.7082 DLOG(RU) -0.021015 0.008762 -2.398399 0.0200 DLOG(RU(-1)) -0.002286 0.017341 -0.131846 0.8956 DLOG(RU(-2)) -0.006616 0.013405 -0.493542 0.6237 DLOG(RU(-3)) 0.016213 0.016084 1.008014 0.3180 DLOG(RU(-4)) 0.015460 0.014645 1.055682 0.2959

R-squared 0.382785 Mean dependent var -1.73E-06

Adjusted R-squared 0.277975 S.D. dependent var 5.70E-05

S.E. of regression 4.84E-05 Akaike info criterion -16.88822

Sum squared resid 1.24E-07 Schwarz criterion -16.54804

Log likelihood 541.9791 F-statistic 3.652174

Durbin-Watson stat 1.983866 Prob(F-statistic) 0.001312

Dai risultati ottenuti è possibile notare che sia l’R-quadro che l’R-quadro aggiustato hanno riportato un leggero miglioramento e ciò significa che stimando le due regressioni separatamente si ottiene un miglioramento nella capacità esplicativa del modello considerato.

Si riporta ora l’output della regressione ridotta, verificando che l’eliminazione delle variabili non significative ha contribuito a migliorare ulteriormente l’R-quadro.

Dependent Variable: DLOG(GU) Method: Least Squares

Date: 04/13/12 Time: 14:39 Sample: 1984:2 1999:4 Included observations: 63

Newey-West HAC Standard Errors & Covariance (lag truncation=3)

Variable Coefficient Std. Error t-Statistic Prob.

C -3.91E-06 6.08E-06 -0.642444 0.5232 DLOG(GU(-1)) -0.485274 0.088480 -5.484586 0.0000 DLOG(GU(-2)) -0.257714 0.109769 -2.347774 0.0224 DLOG(GU(-3)) -0.336778 0.131420 -2.562615 0.0131 DLOG(RU) -0.019997 0.006298 -3.175341 0.0024 DLOG(RU(-3)) 0.020939 0.007650 2.737249 0.0083 DLOG(RU(-4)) 0.018255 0.010131 1.801838 0.0770

R-squared 0.378649 Mean dependent var -1.73E-06

Adjusted R-squared 0.312076 S.D. dependent var 5.70E-05

S.E. of regression 4.73E-05 Akaike info criterion -16.97678

Sum squared resid 1.25E-07 Schwarz criterion -16.73866

Log likelihood 541.7687 F-statistic 5.687699

Durbin-Watson stat 2.020693 Prob(F-statistic) 0.000114

Si passa ora ad analizzare graficamente l’andamento iniziale dei residui:

-.00015 -.00010 -.00005 .00000 .00005 .00010 -.00015 -.00010 -.00005 .00000 .00005 .00010 .00015 84 86 88 90 92 94 96 98

Residual Actual Fitted

Si effettuano ora i test di normalità, omoschedasticità e autocorrelazione al fine di verificare se la stima effettuata su un sottoinsieme di osservazioni e non sull’intero campione considerato possa condurre a risultati migliori.

Test di normalità 0 2 4 6 8 10 -0.00010 -0.00005 0.00000 0.00005 0.00010 Series: Residuals Sample 1984:2 1999:4 Observations 63 Mean 2.37E-21 Median 2.94E-06 Maximum 9.80E-05 Minimum -0.000101 Std. Dev. 4.49E-05 Skewness -0.150069 Kurtosis 2.645912 Jarque-Bera 0.565585 Probability 0.753676

Dai risultati del test appena effettuato è possibile affermare che la distribuzione dei residui di tale stima può essere paragonata a quella di una normale, essendo la probabilità di accettare l’ipotesi nulla superiore ad ogni livello di significatività.

Documenti correlati