Capitolo 2 Dagli ARMA ai modelli ARCH e GARCH
2.2 I modelli MA
La classe dei modelli ARMA comprende sia i processi AR che i processi MA: applicando
il lag operator a ππ‘ otteniamo un modello AR, se lo applichiamo al White Noise otteniamo un MA.
Un processo MA(q), dove q rappresenta lβordine del Moving Average, possiamo definirlo come una sorta di media mobile degli ππ‘:
ππ΄ (π): ππ‘ = π ( πΏ )ππ‘= ππ‘+ π1ππ‘β1π2ππ‘β2β¦ ππππ‘βπ
Essendo ππ‘ βΌ π( 0, π2), possiamo notare come il processo sia a media 0, infatti:
πΈ[ ππ‘ ] = πΈ [ β ππ π π=0 ππ‘βπ ] = β ππ π π=0 πΈ(ππ‘βπ) = 0
Inoltre, considerando che il momento primo Γ¨ pari a 0, la varianza corrisponde al
45 πΆ(0) = πππ ( ππ‘ ) = πΈ ( ππ‘2 ) = πΈ [ ( β ππ π π=0 ππ‘βπ ) 2 ] = β ππ2 π π=0 ππ‘βπ2 + β β ππππππ‘βπππ‘βπ πβ π π π=0
Dalla proprietΓ del White Noise, il valore atteso della seconda sommatoria Γ¨ 0, per cui:
πΈ ( ππ‘2 ) = πΈ [β ππ2 π π=0 ππ‘βπ2 ] = β ππ2 π π=0 πΈ( ππ‘βπ2 ) = β ππ2 π π=0 π2 = π2 β ππ2 π π=0
Per quanto riguarda lβautocovarianza, invece:
πΆ(π) = πΈ(ππ‘ππ‘βπ) = πΈ [ (β ππ π π=0 ππ‘βπ) (β ππ π π=0 ππ‘βπ+π) ]
Dal momento che, per le proprietΓ del White Noise, πΈ( ππ‘βπππ‘βπ+π ) = π2 per π = π + π mentre Γ¨ 0 negli altri casi, lβespressione dellβautocovarianza diventa:
πΆ(π) = πΈ(ππ‘ππ‘βπ) = π2 β π π πβπ π=0 ππ+π βk β€ q = 0 βk > q
Per quanto riguarda lβautocorrelazione:
π(π) = β ππ
πβπ
π=0 ππ+π
1 + βππ=1ππ2 βk β€ q = 0 βk > q
Nei processi MA(q) abbiamo delle formule chiuse, ovvero conoscendo i vari ΞΈ possiamo calcolare direttamente le autocorrelazioni, autocovarianze eccβ¦
46
Un fatto di notevole rilevanza Γ¨ che si puΓ² rappresentare qualsiasi processo con q
correlazioni diverse da 0 con un processo MA(q) e questo sta a significare che tali processi
sono molto generali e possiamo rappresentare un processo molto ampio di processi
stazionari30.
Quello che cβΓ¨ da prendere in considerazione Γ¨ che qualsiasi processo stazionario q- correlato ha una rappresentazione MA(q), ma tale rappresentazione non Γ¨ unica: in realtΓ
ve ne sono 2π possibili rappresentazioni. Tuttavia, Γ¨ possibile identificare il concetto di invertibilitΓ che ci consente di ottenere un solo modello MA(q) (cβΓ¨ infatti da considerare che, sebbene un processo MA(q) sia un processo sempre stazionario, non sempre risulta
invertibile).
Per andare a verificare tale proprietΓ prendiamo come riferimento un MA(1).
Figura 2.2
Processo MA(1) con differenti ΞΈ. Fonte: elaborazione personale
30 Il teorema di Wold afferma, infatti, che qualsiasi processo a media 0 e stazionario in covarianza puΓ²
essere rappresentato attraverso una parte deterministica (e quindi prevedibile, ππ) e una stocastica (non prevedibile, ββπ=0ππππ‘βπ ):
ππ‘= β ππππ‘βπ β π=0
47
Innanzitutto, cβΓ¨ da notare dalla tabella riportata in figura 2.2 come, allβaumentare dei ΞΈ, la varianza aumenti.
In un processo MA (1) la funzione di autocorrelazione sarΓ data dalla seguente formula:
π(1) =πΆ(1) πΆ(0)=
π 1 + π2
Figura 2.3:
Autocorrelazione di un MA(1). Fonte: elaborazione personale
Come accennato in precedenza, qualsiasi processo avente q correlazioni diverse da 0 puΓ²
essere rappresentato con 2π processi MA(q); quindi, nel caso preso in esame, ci saranno 21 processi che ci danno la stessa autocorrelazione.
Come Γ¨ possibile notare dalla figura 2.3, ad esempio per π = 0.4 vi sono due possibili ΞΈ
che ci danno la stessa autocorrelazione: π = 0.5 e π = 2.
Tra tutti i possibili MA bisogna scegliere quello che risulta invertibile; possiamo scrivere
il processo MA (1) utilizzando il lag operator:
48
Possiamo portare il lag polinomial a sinistra ottenendo un AR (β):
ππ‘( 1 + ππΏ )β1= ππ‘ Dove:
( 1 + ππΏ )β1= ( 1 β ππΏ + π2πΏ2 β π3πΏ3β¦ ) = β(βππΏ)π β
π=0
Quello che si puΓ² notare Γ¨ che si avrΓ un polinomio di ordine infinito applicato a ππ‘. Questo modello di ordine infinito dipende dai valori passati di ππ‘ ed Γ¨ quindi un modello
autoregressivo e per essere convergente (non esplodere) | π | < 1.
Infatti, prendendo sempre potenze piΓΉ grandi, se π fosse maggiore di 1 allora la serie non
convergerebbe. Visto che abbiamo preso in considerazione MA(1), in questo caso basta
escludere π = 2.
La condizione di invertibilitΓ Γ¨ molto importante per il MA in quanto consente di ricavare
gli ππ‘ che, a differenza di ππ‘ , non sono osservati.
Prendendo come riferimento π = 0.4, possiamo andare a costruire un MA(1),
rappresentandolo nella figura 2.4.
Figura 2.4
49
Come possiamo notare, lβautocorrelazione risulta nulla per ritardi superiori a 1; se avessimo preso in considerazione un MA(2), invece, avremmo avuto autocorrelazione
nulla per ritardi superiori a 2 e così via.
2.3 I modelli AR
Unβaltra classe di modelli che Γ¨ possibile costruire con il lag operator Γ¨ quella dei modelli AR (Autoregressivi).
Questi processi rappresentano la variabile ππ‘ come funzione lineare dei propri valori passati piΓΉ il White Noise e quindi introducono una dipendenza temporale nella dinamica
della variabile: quello che succederΓ domani dipende dal quello che Γ¨ successo oggi piΓΉ
un certo errore.
Il modello AR somiglia molto a un modello di regressione in cui i regressori (variabili
esplicative) non sono altro che i valori passati della variabile dipendente:
π΄π (π) β ππ‘ = π1ππ‘β1+ π2ππ‘β2+ β― ππππ‘βπ+ ππ‘
A differenza dei processi MA, nei processi AR quello che bisogna verificare Γ¨ la
stazionarietΓ .
Prendendo in esame un modello AR(1), possiamo fare esattamente come abbiamo fatto
nel caso del MA invertendo il lag polinomial e trasformando lβAR(1) in un MA ( β ):
π΄π (1) β (1 β ππΏ)ππ‘ = ππ‘ ππ΄(β) β ππ‘ = (1 β ππΏ)β1ππ‘ = β(ππΏ)π β π=0 ππ‘= β ππ β π=0 ππ‘β1
Conviene molto ricorrere a questa rappresentazione di un AR(1) come MA(β) in quanto
si hanno formule chiuse per i calcoli di media, varianza, covarianza e autocorrelazione:
in questo modo, infatti, vediamo che Γ¨ un processo a media 0 con autocovarianza pari a:
πΆ(π) = πΈ[(ππ‘β πΈ(ππ‘)][ππ‘βπβ πΈ(ππ‘βπ)] = πΈ(ππ‘ππ‘βπ) = ππ
π2 1 β π2
50
La varianza, invece, risulta pari a:
πΆ(0) = πΈ[(ππ‘β πΈ(ππ‘)][ππ‘β πΈ(ππ‘)] = πΈ(ππ‘ππ‘) =
π2 1 β π2
La funzione di autocorrelazione:
π(π) = π|π| βk
Quindi lβautocorrelazione di un AR(1) al lag 1 sarΓ π1, al lag 2 sarΓ π2; tutto ciΓ² sta a
significare che i processi AR hanno una memoria esponenziale.
La stazionarietΓ del modello AR(1) Γ¨ verificata per |π| < 1; nel caso di |π| = 1, invece,
si ha la presenza di una radice unitaria che lo rende non stazionario.
In generale, in un processo AR(p), la presenza di una radice unitaria puΓ² essere verificata
controllando se la somma dei coefficienti Ο Γ¨ uguale a 1; se la somma Γ¨ superiore a 1,
invece, il polinomio non Γ¨ invertibile.
Il fatto che il processo sia invertibile Γ¨ importante per diversi motivi: per i modelli MA, lβinvertibilitΓ del lag polinomial Γ¨ importante sia per la stima che per la previsione. Per i modelli AR, invece, il polinomio risulta invertibile solo se il processo Γ¨ stazionario.
Per essere stazionario un processo deve avere, come giΓ accennato, varianze e
autocovarianze finite. I processi MA sono sempre stazionari, in quanto non sono altro che
una somma ponderata di processi White Noise stazionari.
Dai grafici successivi possiamo notare un esempio di AR(1) stazionario e uno non
stazionario.
In particolar modo, dalla funzione di autocorrelazione della figura 2.5 si puΓ² notare come,
nei processi autoregressivi, lβautocorrelazione sia di minore utilitΓ per individuare lβordine del processo.
Quello che ci Γ¨ piΓΉ utile in questa tipologia di modelli, al fine di individuarne lβordine, Γ¨ la partial correlation che ci dice la correlazione diretta tra ππ‘ e ππ‘βπ e, quindi, senza passare per i valori intermedi. In sintesi, lβautocorrelazione dΓ informazioni sulla
51
correlazione totale, quella parziale ci dΓ solo quella diretta non tenendo conto degli effetti
intermedi.
Figura 2.5
AR(1) con Ο=0.7. Fonte: elaborazione personale.
La figura 2.6, invece, prende come riferimento π = 1; si puΓ² facilmente notare dal grafico
come il processo non sia stazionario. Dalla funzione di autocorrelazione possiamo infatti
osservare come il processo abbia una memoria pressochΓ© infinita: Γ¨ un random walk31.
31 Il Random Walk Γ¨ un processo non stazionario in cui la varianza non condizionale di π
π‘ Γ¨ infinita. Il suo valore atteso non Γ¨ altro che la sua posizione iniziale e, quindi, la migliore previsione che possiamo fare del prezzo di un titolo allβistante successivo non Γ¨ altro che il prezzo precedente. Secondo tale teoria i prezzi non seguono nessun trend e i movimenti dei prezzi passati non possono essere usati per effettuare previsioni future. Sono stati effettuati numerosi studi e ricerche tra cui quelle di William Sharpe e Eugene Fama che evidenziano come la storia dei prezzi di un titolo non costituiscano un buon indicatore per i suoi prezzi futuri (il movimento dei prezzi sarebbe, quindi, imprevedibile).
52
Figura 2.6
Modello AR con Ο=1. Fonte: elaborazione personale.
2.4 ARMA
Dalla partial autocorrelation e dalla autocorrelation siamo in grado in linea generale di farci unβidea del modello da utilizzare: un AR(p) o un MA(q).
Tuttavia, puΓ² capitare che sia utile combinare il modello Autoregressivo con il modello
Moving Average per avere piΓΉ flessibilitΓ ottenendo un modello ARMA(p,q).
π(πΏ)ππ‘= π(πΏ)ππ‘
Ad esempio, se i dati sono molto persistenti e calcolando la partial autocorrelation
notiamo che ha 15 lag diversi da 0, dovremmo utilizzare un AR(15) e stimare 15
parametri, ma ognuno di questi avrΓ un errore di stima.
Una cosa piΓΉ semplice Γ¨ quindi utilizzare solo due parametri π e π attraverso il modello
53
Essendo una combinazione tra AR e MA, il modello ARMA avrΓ due decadimenti esponenziali (figura 2.7) uno per lβautocorrelation e uno per la partial autocorrelation in quanto puΓ² essere scritto sia come un AR(β) che un MA(β).
Nella 2.7 abbiamo il caso di un modello molto semplice come lβARMA(1,1), che nonostante la semplicitΓ , risulta molto efficace poichΓ©, avendo anche meno parametri da
stimare, ha anche meno errori di stima da portare avanti.
Figura 2.7
Modello ARMA(1,1) con Ο = 0.7 e ΞΈ = 0.6
Infatti, utilizzando il lag polynomial possiamo scrivere lβARMA(1,1) come:
(1 β ππΏ)ππ‘ = (1 + ππΏ)ππ‘
Che si puΓ² riscrivere come un AR(β), una volta verificate le condizioni di stazionarietΓ : (1 + ππΏ)β1(1 β ππΏ)π
π‘= ππ‘
54
(1 + ππΏ)β1(1 β ππΏ)ππ‘= ππ‘
2.5 ARIMA e ARFIMA
Nel paragrafo 2.2 si Γ¨ fatto riferimento alle condizioni di invertibilitΓ del MA(1),
constatando che il polinomio di ritardo del primo ordine (1 β ππΏ) era invertibile per |π| <
1. CβΓ¨ inoltre da considerare che, le condizioni che garantiscono lβinvertibilitΓ di un
MA(1), sono le stesse che garantiscono la stazionarietΓ di un AR(1).
Considerando un polinomio di secondo ordine 1 β π1πΏ β π2πΏ2, in generale esistono due
valori πΌ1, πΌ2 per cui possiamo riscriverlo come:
1 β π1πΏ β π2πΏ2 = (1 β πΌ
1πΏ)(1 β πΌ2πΏ)
CiΓ² che rende invertibile il polinomio di secondo ordine, sono |πΌ1| < 1 e |πΌ2| < 1 ovvero
le condizioni che rendono i polinomi di primo ordine (1 β πΌ1πΏ) e (1 β πΌ2πΏ) invertibili. Possiamo inoltre verificare le condizioni di invertibilitΓ attraverso quella che viene definita lβequazione caratteristica:
(1 β πΌ1π§)(1 β πΌ2π§) = 0
Tale equazione ammette due soluzioni π§1 e π§2 che sono chiamate radici caratteristiche.
I requisiti |πΌ1| < 1, |πΌ2| < 1 corrispondono a |π§1| > 1, |π§2| > 1. Se anche soltanto una delle radici caratteristiche |π§π| Γ¨ β€ 1, il polinomio non Γ¨ invertibile. Se una delle soluzioni verifica lβuguaglianza, si Γ¨ in presenza di una radice unitaria.
Tuttavia, si puΓ² verificare la presenza o meno di una radice unitaria facendo riferimento
alla somma dei coefficienti del polinomio (π): se βππ=1ππ = 1, allora siamo in presenza di una radice unitaria.
Abbiamo visto nel caso dellβAR(1) che la presenza di una radice unitaria rende il modello non stazionario (fig. 2.6).
55
Infatti, per essere stazionario un processo deve avere varianze e autocovarianze finite e
indipendenti nel tempo, mentre nel caso del random walk la varianza unconditional Γ¨
infinita.
Nei casi in cui vi Γ¨ la presenza di una radice unitaria, e quindi non solo nel modello AR
ma in qualsiasi altro processo facente parte degli ARMA (tranne ovviamente il MA che
Γ¨ stazionario per definizione essendo una media ponderata di processi White Noise), Γ¨ possibile rendere un processo stazionario con lβoperatore differenza prima (ππ‘β ππ‘β1). Se, una volta applicato tale operatore, la serie risulta stazionaria, il modello viene
chiamato ARIMA (Autoregressive Integrated Moving Average) con parametri (p,1,q)
dove 1 sta a significare integrato di ordine 1. Se un processo Γ¨ integrato di ordine 1, allora
vuol dire che deve essere differenziato una volta perchΓ© risulti stazionario.
La differenza tra una serie stazionaria I(0) e una serie stazionaria in differenza prima I(1),
Γ¨ che la serie I(0) avrΓ una tendenza a convergere verso la media (il processo della mean
reversion che si era accennato nellβintroduzione di questo capitolo), mentre la serie I(1) avrΓ ampie oscillazioni. Una serie I(0), infatti, ha una varianza finita e una memoria
limitata degli shock passati, mentre la serie I(1) ha una memoria infinita.
Ovviamente tale fatto, come Γ¨ giΓ stato detto, puΓ² essere verificato dalla funzione di
autocorrelazione poichΓ©, nel caso della serie I(0) lβautocorrelazione diminuisce molto
rapidamente al crescere del ritardo mentre nella serie I(1) avrΓ un decadimento molto
lento.
In generale, un processo ARIMA(p,d,q) sta a significare che il processo Γ¨ integrato di
ordine d. Se 0 < d < 1 allora lβordine di differenziazione Γ¨ un numero frazionato e si Γ¨ a
metΓ tra una serie stazionaria e una non del tutto stazionaria e prende il nome di
56
2.6 Procedura Box-Jenkins
In linea generale non esistono ragioni economiche per privilegiare un modello rispetto ad
un altro, ma spesso sono i dati stessi che determinano il modello piΓΉ appropriato.
Tuttavia, non risulta molto semplice scegliere un modello prendendo in considerazione
soltanto la funzione di autocorrelazione e la correlazione parziale.
Quello che si utilizza solitamente Γ¨ la procedura di Box e Jenkins che consente, a partire dallβosservazione dei dati, di trovare il modello ARMA piΓΉ appropriato.
La procedura si articola in tre step step:
- Identification: si controlla che i dati siano stazionari e, se non lo sono, si rendono
stazionari con le differenze prime. Fatto ciΓ², si calcolano le funzioni di
autocorrelazione e di correlazioni parziale per avere unβidea dellβordine del
modello.
- Estimation: si stimano i parametri con il Maximum Likelihood o con il metodo
OLS (Ordinary Least Square)32.
- Diagnostic Checking: si cerca di capire se il modello Γ¨ appropriato o meno ai dati
attraverso delle misure di fit di bontΓ della stima. Queste misure dipendono dalla
varianza dei residui del modello rispetto ai dati che abbiamo a disposizione;
inoltre si aggiunge una penalizzazione per il numero di parametri che si usa.
Solitamente i criteri di selezione usati sono il Criterio di Informazione di Akaike
(AIC) e il Criterio di Informazione Bayesiano (BIC).
32 OLS (o metodo dei minimi quadrati) Γ¨ una tecnica di ottimizzazione che permette di scegliere i
parametri in modo da minimizzare la somma dei residui al quadrato. Tale strategia Γ¨ molto conveniente per i modelli AR mentre risulta piΓΉ complessa per i modelli MA e ARMA dal momento che gli Ξ΅ non sono osservati direttamente. Infatti, in questo caso dovremmo ricostruire gli Ξ΅ (prima verificando lβinvertibilitΓ del MA) in funzione delle variabili osservate ottenendo una funzione non lineare del parametro. Quindi Γ¨ bene ricorrere a un altro approccio per la stima dei parametri ovvero il Maximum Likelihood (o massima verosimiglianza) che sarΓ spiegato meglio nel paragrafo 2.11 dal momento che sarΓ utilizzato per la stima dei parametri dei modelli GARCH.
57
π΄πΌπΆ = β2(ππππΏ) + 2(ππ’πππππππππππ‘ππ)
π΅πΌπΆ = β2(ππππΏ) + ππ’πππππππππππ‘ππ β log (π)
Dove logL corrisponde alla logLikelihood e T Γ¨ il numero di osservazioni.
Per finire si controllano i residui del modello che si Γ¨ stimato e, se il modello Γ¨ buono, ci
si aspetta che i residui siano White Noise.
Se i tre step sono superati, allora si puΓ² utilizzare il modello anche per effettuare una
possibile previsione, altrimenti si ripetono le varie fasi finchΓ© non si trova un modello
appropriato.
2.7 Previsione ottimale
Una volta che si Γ¨ stimato il modello, possiamo utilizzarlo per effettuare una previsione.
Per individuare il previsore ottimale, ovvero il migliore stimatore che ci consente di avere
una miglior stima sul futuro, bisogna stabilire un criterio di ottimalitΓ da utilizzare (Loss
Function).
In genere, il criterio che si usa Γ¨ il Mean Squared Error (MSE):
πππΈ(πΜπ‘) = πΈ(ππ‘β πΜπ‘)2
Quello che si fa Γ¨ confrontare il nostro previsore πΜπ‘ con la realizzazione che si Γ¨ poi verificata; questa differenza tra la realizzazione e previsione, elevata al quadrato, ci dΓ
una misura di quanto sbagliamo in media.
Quando si usa tale criterio come Loss Function, il valore atteso condizionato Γ¨ la funzione
che minimizza il MSE. Per dimostrare la validitΓ di tale affermazione, dobbiamo andare
a ricercare la migliore funzione dei valori passati che minimizza il MSE. Per fare ciΓ², allβinterno del quadrato, sommiamo e sottraiamo il valore atteso condizionato:
πΈ(ππ‘+πβ π(π₯))2 = πΈ (ππ‘+πβ πΜπ‘+π|π‘+ πΜπ‘+π|π‘β π(π₯)) 2
58
= πΈ(ππ‘+πβ πΜπ‘+π|π‘)2 + 2πΈ [(ππ‘+πβ πΜπ‘+π|π‘) (πΜπ‘+π|π‘β π(ππ‘))] + πΈ (πΜπ‘+π|π‘β π(ππ‘))2 Il doppio prodotto Γ¨ 0, poichΓ©, per la legge delle aspettative iterate, il valore atteso del
valore atteso condizionato non Γ¨ altro che il valore atteso non condizionato (e quindi
risulterebbe (ππ‘+πβ ππ‘+π) (πΜπ‘+π|π‘β π(ππ‘)) = 0 ). Quindi: πΈ(ππ‘+πβ π(ππ‘))2 = πΈ(π π‘+πβ πΜπ‘+π|π‘) 2 + πΈ (πΜπ‘+π|π‘β π(ππ‘))2 Essendo una somma di due quantitΓ positive, lβespressione risulta minima se:
π(ππ‘) = πΜπ‘+π|π‘
Per fare un esempio, prendiamo come riferimento un modello AR(1):
ππ‘= πππ‘β1+ ππ‘ Al tempo t+1 avremo:
ππ‘+1 = πππ‘+ ππ‘+1
Considerando che il valore atteso di ππ‘+1 Γ¨ 0, il valore atteso condizionato di ππ‘+1 sarΓ : πΈπ‘(ππ‘+1) = πππ‘
Se vogliamo calcolare il valore atteso condizionato al tempo 2, dobbiamo riscriverlo in
funzione delle osservazioni passate:
ππ‘+2= πππ‘+1+ ππ‘+2 = π(πππ‘+ ππ‘+1) + ππ‘+2
= π2ππ‘+ πππ‘+1+ ππ‘+2 πΈπ‘(ππ‘+2) = π2ππ‘
Proseguendo in avanti fino al tempo π‘ + π:
59
Quindi, mentre il valore atteso non condizionato Γ¨ 0 e puΓ² essere visto semplicemente
ricorrendo a un MA(β), il valore atteso condizionato dipende da t: conoscere il punto di
partenza ci consente di effettuare una previsione migliore.
Tuttavia, poichΓ© sappiamo che |Ο| < 1, piΓΉ ci si sposta in avanti nel tempo e piΓΉ la
previsione si avvicina alla media non condizionata: per una previsione nel breve periodo
Γ¨ molto utile sapere il punto di partenza, ma se ci si sposta nel lungo periodo, sapere dove
siamo oggi ha poca utilitΓ .
Per quanto riguarda la varianza condizionata, invece:
ππππ‘(ππ‘+1) = ππππ‘(πππ‘+ ππ‘+1) = π2
ππππ‘(ππ‘+2) = ππππ‘(π2ππ‘+ πππ‘+1+ ππ‘+2 ) = π2(1 + π2)
β¦
ππππ‘(ππ‘+π) = ππππ‘(ππππ‘+ ππβ1ππ‘+1β¦ + ππ‘+π ) = π2(1 + π2+ π4β¦ + π2(πβ1))
Come possiamo notare dalle formule riportate della varianza condizionata, il processo
AR e in generale i processi ARMA, non sono in grado di descrivere la volatilitΓ dei
mercati in quanto, la varianza condizionata degli ARMA, non dipende da t ma solo da
quanto ci spostiamo in avanti per la previsione; tale risultato Γ¨ facilmente intuibile visto
che la varianza in realtΓ dipende solo dal White Noise che Γ¨ caratterizzato da
omoschedasticitΓ (la varianza del White Noise Γ¨ infatti π2 ovvero una costante).
In particolare, la varianza condizionata non dipende mai dal punto di partenza ma soltanto
da quanto ci portiamo avanti nella previsione.
Le serie storiche, invece, sono caratterizzate da quella caratteristica giΓ evidenziata nel
primo capitolo ovvero il volatility clustering secondo cui shock elevati tendono ad essere
seguiti da shock elevati mentre shock contenuti sono seguiti sa shock contenuti.
Per questo motivo si sono sviluppati altri modelli per cercare di introdurre dinamica in
60