• Non ci sono risultati.

L’approccio di Box-Jenkins

CAPITOLO 3 Prevedere la volatilità

3.1 Modello ARIMAX

3.1.1 L’approccio di Box-Jenkins

Box e Jenkins hanno proposto una metodologia per l’adattamento di un modello ARIMA alla serie temporale che consiste nell’iterare il seguente schema a tre fasi: 1) identificazione del modello; 2) stima; 3) verifica.

1. IDENTIFICAZIONE DEL MODELLO.

La fase di identificazione mira innanzitutto a determinare la trasformazione della serie che induce la stazionarietà in media, varianza e covarianza, fondamentale per poter utilizzare i modelli ARIMA. La trasformazione di gran lunga più utilizzata nelle serie storiche finanziarie (impiegata anche nel presente lavoro) è quella logaritmica lo che corrisponde approssimatamene al tasso di variazione del fenomeno:

Il test più utilizzato per verificare se la stazionarietà della serie è stata raggiunta, è l’Augmented Dickey-Fuller Test (ADF test). Esso trae origine da un test più semplice e limitato, il test di Dickey-Fuller29, impiegato per verificare la stazionarietà di un processo stocastico di ordine autoregressivo

p=1.

Il test si compone di tre tipologie di statistiche di Dickey-Fuller, a seconda se il processo è puramente stocastico, se non è invariante rispetto alla presenza di un termine costante e se oltre alla costante è presente un termine deterministico.

1° CASO:

non stazionarietà. stazionarietà. La statistica test è: Dove: o ; o

è il parametro autoregressivo stimato con

il metodo della massima verosimiglianza;

o è il numero di osservazioni componenti la nostra serie.

2° CASO: non stazionarietà. stazionarietà. La statistica test è: Dove:

o è il parametro autoregressivo stimato in presenza della costante m; o è lo standard error di . 3° CASO: non stazionarietà. stazionarietà.

La statistica test è:

Dove:

o è il parametro autoregressivo stimato in presenza della costante m e del termine deterministico ;

o è lo standard error di .

Le tre statistiche test seguono tre varianti della distribuzione Dickey-Fuller ottenuta empiricamente mediante simulazioni di Montecarlo e riportate nella tabella 8.5.2 pag. 73 del libro di Fuller.

I test considerati sono eccessivamente semplificati e limitati a un grado del processo autoregressivo pari a 1. Phillips e Perron (1988) propongono di operare opportune modifiche non parametriche alle statistiche test considerate precedentemente, al fine di non alterare la loro distribuzione asintotica. La via alternativa proposta da Said e Dickey (1984) si fonda sull’idea di approssimare un processo lineare mediante un processo autoregressivo di ordine adeguato. Si giunge così all’Augmented Dickey-Fuller Test che consente di testare la stazionarietà di una serie anche con un grado autoregressivo superiore a 1. Non è nostro scopo dimostrare la costruzione di tale test, ma ci limitiamo a dire che un basso p-value del test induce a rifiutare l’ipotesi nulla di non stazionarietà.

Verificata la stazionarietà, occorre identificare il modello ARIMA che si adatta meglio alla serie. Il grado d di integrazione dovrebbe essere tale da trasformare la serie in un’ARMA stazionario. I gradi p e q dovrebbero essere identificati preliminarmente attraverso il confronto tra i correlogramma reali e quelli teorici della FAC (funzione di autocorrelazione) e della FACP (funzione di autocorrelazione parziale). La funzione di autocorrelazione parziale tra e è l’autocorrelazione esistente tra e al netto di tutti i fenomeni autoregressivi tra e :

Un processo AR(p) ha una FAC che tende a 0 all’aumentare dei ritardi h e una FACP pari a zero per ogni h>p. Viceversa un processo MA(q) ha una FAC pari a 0 per ogni h>q e una FACP che tende a 0 all’aumentare dei ritardi

h.

Quindi l’analisi della FACP ci aiuta ad individuare l’ordine p del polinomio autoregressivo, mentre l’analisi della FAC l’ordine q del polinomio a media mobile. Tuttavia i due fenomeni potrebbero combinarsi dando vita a correlogrammi poco chiari. Essi piuttosto sono utili a restringere il range dei possibili valori di p e q, dopodiché occorre approfondire lo studio mediante altri indicatori.

I più usati in tal senso sono l’AIC (Akaike Information Criterion)30

e il BIC (Bayesian Information Criteria)31:

lo lo lo Dove:

o p e q sono gli ordini rispettivamente del processo autoregressivo e a media mobile;

o è la varianza stimata del modello, ossia la parte non spiegata dalle variabili;

o è il numero di osservazioni componenti la serie.

L’ARIMA migliore è quello che minimizza i due indicatori. Entrambi privilegiano modelli che hanno molte variabili significative in quanto riducono la varianza e quindi anche il suo logaritmo molto più di quanto non aumentino il secondo addendo. L’introduzione di variabili non significative al contrario porta ad un aumento del secondo addendo superiore in termini proporzionali alla riduzione della varianza, determinando complessivamente un incremento dell’indicatore e quindi un peggioramento della bontà del modello. Esiste perciò un costo nell’introduzione di nuove variabili a fronte di una riduzione della varianza, tanto maggiore quanto

30

H. Akaike (1974), “A new look at the statistical model identification”.

minore è la loro significatività. Inoltre, come si può notare, questo costo è maggiore nel secondo indicatore (BIC), piuttosto che nel primo (AIC).

2. STIMA DEI PARAMETRI.

Nella seconda fase vengono stimati i parametri e e la varianza del modello attraverso il metodo della massima verosimiglianza (lo stesso utilizzato dal software statistico R), sotto l’ipotesi di normalità delle osservazioni. Quest’ultimo attribuisce ai parametri valori che massimizzano la cosiddetta funzione di verosimiglianza (VS), una funzione di densità congiunta che mira a rispecchiare il più fedelmente possibile la nostra serie storica, costituita da osservazioni trattate come dati estratti da determinate distribuzioni. Una semplificazione si ottiene condizionando rispetto alle prime p+q osservazioni, poiché in tal caso il problema si riconduce alla minimizzazione di una somma dei quadrati dei residui. Nel caso dei processi AR le stime condizionate sono equivalenti a quelle dei minimi quadrati ottenute dalla regressione di su p valori ritardati. In tal caso esiste una soluzione esplicita per le stime. Ad esempio, nel caso di un AR(1) senza costante:

che è la stessa equazione già spiegata nell’ADF test.

Analogamente il sistema di equazioni di Yule-Walker: , dove , fornisce stime consistenti dei parametri autoregressivi di un processo puro AR(p).

Nel caso di processi MA o misti la somma dei quadrati dei residui è non lineare nei parametri e la minimizzazione utilizza algoritmi iterativi, come il metodo quasi-Newton.

3. VERIFICA DEL MODELLO.

Si tratta di sottoporre il modello a test diagnostici e di bontà di adattamento. Occorre innanzitutto verificare la significatività dei parametri mediante il test

t di Student, di cui abbiamo già discusso.

Si tratta di sottoporli a verifica di 3 proprietà: omoschedasticità, incorrelazione e normalità.

Per la presenza di eteroschedasticità possono essere utilizzati metodi grafici o test formali. Se si sospetta che vi sia stato un cambiamento ad un tempo si può spezzare il campione in due sottoperiodi e testare l’ipotesi che sia uguale nei due sottoperiodi mediante un opportuno test F.

Per testare l’autocorrelazione dei residui, solitamente si costruisce il correlogramma globale e parziale, e si valuta la presenza di valori che fuoriescono dalle bande di confidenza al 5% . Un test formale per la verifica dell’autocorrelazione è il Ljung-Box Test32

: incorrelazione. autocorrelazione. Statistica test: Dove:

o n è il numero di osservazioni componenti la serie;

o m è il numero di ritardi fino al quale vogliamo calcolare il test;

o ;

o con m gradi di libertà.

moltiplica la sommatoria per effettuare una correzione dovuta al fatto che tende a una solo asintoticamente, ossia per campioni infiniti; per campioni finiti come i nostri, tale correzione permette di approssimare meglio la . Un basso p-value associato al test induce a rifiutare l’ipotesi nulla di incorrelazione.

Molte applicazioni statistiche, nei più svariati contesti, presuppongono che i residui dei modelli abbiano una distribuzione gaussiana o che si possa agevolmente ricondurre alla gaussiana. Tale distribuzione è evocata allorché si debbano trattare questioni di inferenza concernenti la significatività dei parametri stimati, la loro stima intervallare, gli intervalli di previsione sui valori futuri del modello, i test di adattamento. Inoltre, la gaussianità è un’ipotesi quando si intende pervenire a stimatori corretti ed a varianza minima, come nel caso del metodo della massima verosimiglianza. Il test che utilizzeremo per la verifica della normalità è il Jarque-Bera Test, già precedentemente illustrato.

Un ultimo aspetto da analizzare è la bontà di adattamento, la quale è già tuttavia misurata dagli indicatori AIC e BIC, i migliori quando abbiamo a che fare con modelli misti.

3.1.2 L’applicazione del modello ARIMAX sul Vstoxx e sul

Documenti correlati