• Non ci sono risultati.

Volatilità e modelli GARCH: applicazioni su MATLAB

N/A
N/A
Protected

Academic year: 2021

Condividi "Volatilità e modelli GARCH: applicazioni su MATLAB"

Copied!
129
0
0

Testo completo

(1)

DIPARTIMENTO DI ECONOMIA E MANAGEMENT

CORSO DI LAUREA MAGISTRALE IN

“BANCA, FINANZA AZIENDALE E MERCATI FINANZIARI”

Tesi di laurea magistrale:

Volatilità e modelli GARCH: applicazioni su MATLAB

RELATORE: CANDIDATO:

Prof. Riccardo Cambini Yuri De Rosa

(2)
(3)

“La nostra ansia non viene dal pensare al futuro,

ma dal volerlo controllare”.

Khalil Gilbran

(4)
(5)

5

INDICE

Introduzione……….7

Capitolo 1 La volatilità nei mercati finanziari………...9

1.1 Volatilità storica e fatti stilizzati……… 10

1.2 La volatilità implicita e l’indice VIX………..24

1.3 Le anomalie del calendario……… 26

1.3.1 Effetto gennaio……… 26

1.3.2 Effetto settembre………..28

1.3.3 Halloween Indicator………29

1.3.4 Effetto lunedì o effetto weekend………29

1.3.5 Effetto Holiday……….30

1.3.6 Effetto turn-of-the-month……….31

1.4 Le insidie della bassa volatilità………...31

Appendice………...36

Capitolo 2 Dagli ARMA ai modelli ARCH e GARCH……….41

2.1 White Noise e lag operator……….42

2.2 I modelli MA………..44 2.3 I modelli AR………...49 2.4 ARMA………... 52 2.5 ARIMA e ARFIMA………...54 2.6 Procedura Box-Jenkins………...56 2.7 Previsione ottimale……….57

(6)

6

2.8 ARCH………60

2.9 GARCH……….63

2.9.1 EGARCH……….65

2.9.2 APARCH o Asymmetric Power GARCH……….66

2.9.3 GJR-GARCH………...66

2.9.4 Thresold GARCH (T-GARCH) ………..67

2.9.5 IGARCH………..67

2.9.6 GARCH-M……….. 68

2.9.7 Student-t GARCH o t-GARCH………69

2.10 Maximum Likelihood……….. 69

Capitolo 3 Stima e Previsione con i modelli GARCH………..72

3.1 Ricerche recenti………. 73

3.2 Stima e previsione sul NASDAQ………...75

3.3 Function MATLAB……….113

Capitolo 4 Strategia di trading………...118

Conclusioni………...124

Bibliografia………...126

(7)

7

INTRODUZIONE

Lo scopo di questo elaborato è quello di trattare un tema molto ampio e dibattuto che è

quello della volatilità utilizzando il software MATLAB. Inizialmente si introdurrà tale

tematica in maniera strettamente teorica andando a evidenziare le caratteristiche comuni

che i differenti studi econometrici hanno evidenziato nel corso degli anni.

In particolar modo ci si concentrerà sul volatility clustering e sullo studio della funzione

di autocorrelazione che ci è molto utile nelle analisi dei vari modelli che si andranno a

implementare. Successivamente, si andranno a spiegare le varie ricerche sulle diverse

anomalie legate al calendario che evidenziano come i rendimenti assumano valori

anomali in certi periodi dell’anno. A seguire, si svolgerà una breve sintesi su un altro tipo di volatilità, ovvero la volatilità implicita, mentre nell’ultimo paragrafo si cercherà di

analizzare le possibili conseguenze della sottovalutazione, da parte degli individui, della

bassa volatilità.

Nel secondo capitolo si andrà a spiegare i modelli ARMA e le varianti ARIMA e

ARFIMA.

Successivamente, si evidenzierà come i modelli appena citati non riescano a spiegare il

volatility clustering presente nelle serie finanziarie e si andrà a trattare i modelli ARCH e GARCH, sviluppati per cogliere l’eteroschedasticità dei rendimenti.

In particolare, si descriverà il modello ARCH e i motivi che hanno spinto allo sviluppo

dei modelli successivi GARCH, EGARCH, GARCH-M…

Nel terzo capitolo, invece, si andrà ad effettuare su MATLAB uno studio sull’indice

NASDAQ in diversi intervalli temporali; si cercherà di stimare la volatilità con tre

(8)

8

a evidenziare quale, tra i tre, riesca a minimizzare la loss function presa in considerazione:

il Mean Squared Error..

Infine, nell’ultima parte del lavoro, si è voluto dimostrare l’imprevedibilità dei rendimenti, implementando sul software prima un AR(1) per prevederli “a un passo” e, successivamente, una strategia di trading per cercare di trarre profitto con tale previsione.

(9)

9

CAPITOLO 1

LA VOLATILITÀ NEI MERCATI FINANZIARI

Vi sono varie definizioni del termine volatilità, ma in generale, possiamo andarla a

definire come un indicatore che misura la variabilità del rendimento di un’attività

finanziaria. Si dà grande importanza a tale fattore in quanto ci consente di avere una visione dell’oscillazione del prezzo dello strumento e quindi un’approssimazione del rischio di incorrere in perdite1 (viene infatti utilizzata nell’ambito del risk management,

asset allocation, option pricing).

C’è una vasta letteratura su tale tematica anche perché la volatilità, a differenza dei prezzi, non si osserva direttamente ma dipende dal modello che utilizziamo per stimarla o

prevederla.

Per quanto riguarda la possibile previsione, possiamo distinguere gli studiosi in due

gruppi:

- Un primo gruppo che suppone che vi siano dei meccanismi per prevedere l’andamento dei mercati;

- Un secondo gruppo che crede fortemente nell’efficienza dei mercati (Efficient

Market Hypothesis2) e che nega che vi sia la possibilità di prevedere il loro

andamento.

1 La volatilità può essere considerata una misura di rischio in maniera approssimata in quanto vi possono

essere titoli con stessa volatilità ma con diverso rischio. Ad esempio, un titolo x che ha rendimenti tra -5% e +30% sarà meno rischioso di un titolo y che ha rendimenti compresi tra -30% e + 5% pur avendo la stessa volatilità. Quindi possiamo considerarla come una misura di rischio in quanto ci dà una visione dell’oscillazione dei prezzi, ma bisogna tener presente quanto appena detto.

2 Tale teoria sostiene che il mercato sia efficiente e che i prezzi riflettano tutta l’informazione disponibile

(vi è quindi l’impossibilità di battere il mercato). Deriva dagli studi di Eugene Fama che fa una distinzione di 3 tipologie di efficienza: in forma debole, semi-forte, forte.

(10)

10

Oltre alla prevedibilità c’è discordanza nel pensiero degli studiosi anche sulle sue

possibili cause. Per la Efficient Market Hypothesis la volatilità dipende dalle news e,

quindi, periodi di alta volatilità dovrebbero essere causati da news importanti nel mercato. Altri pensano che potrebbe essere generata dall’eterogeneità del pensiero degli investitori sui fondamentali delle azioni delle società e, in questo caso, potrebbe essere causata da errori di valutazione. Tutto ciò per sottolineare che non c’è un pensiero comune sulle motivazioni delle oscillazioni dei valori degli strumenti finanziari, ma neanche sulla sua

misurazione.

Sono stati sviluppati diversi modelli sia per quanto riguarda la previsione che per quanto

riguarda la sua stima3: i modelli più famosi sono i modelli ARCH, GARCH e i modelli a volatilità stocastica (Stochastic Volatility) mentre, con lo sfruttamento dei dati ad altra

frequenza, non si può non citare i modelli per la Volatilità Realizzata (Realized Volatility). In quest’ultimo caso, per “realizzata” si intende “osservata” in quanto con dati ad alta frequenza si rende un qualcosa che altrimenti sarebbe latente come osservato.

Un punto di partenza per l’analisi di tale tematica così largamente approfondita è senza dubbio quello di iniziare da quella che viene definita “volatilità storica”.

1.1 Volatilità storica e fatti stilizzati

Per volatilità storica si intende una stima della volatilità mediante l’osservazione delle variazioni che subiscono i prezzi (valutazione fatta ex post). Un metodo molto semplice

per stimarla è quello della deviazione standard o scarto quadratico medio; sia 𝑃𝑖 il prezzo i-esimo dell’azione, il rendimento logaritmico 𝑟𝑖 sarà ottenuto mediante la formula:

3 Data la vastissima letteratura al riguardo e, essendo questo un capitolo introduttivo e molto generale sulla

volatilità dei mercati, si è voluto citare solo i principali metodi di stima e previsione affrontati nel corso di studi, mentre quelli che saranno presi in esame nel prosieguo dell’elaborato sono i modelli ARCH e i modelli GARCH che saranno utilizzati sia per la stima che per la previsione.

(11)

11

𝑟𝑖 = ln

𝑃𝑖 𝑃𝑖−1

Per i=1, 2…, n dove n sono il numero di osservazioni4.

La deviazione standard di 𝑟𝑖: 𝜎̂ = √ 1 𝑛 − 1∑(𝑟𝑖− 𝑟̅) 2 𝑛 𝑖=1

Dove 𝑟̅ è la media dei rendimenti5.

Tale analisi si basa sull’ipotesi che il titolo preso in considerazione non paghi dividendi; in caso di pagamento di dividendi, il rendimento 𝑟𝑖 dovrà subire un aggiustamento in un intervallo di tempo che è relativo alla data di stacco6:

𝑟𝑖 = ln𝑃𝑖 + 𝐷 𝑃𝑖−1 Dove D è il dividendo.

Negli altri intervalli di tempo, il rendimento sarà pari a:

𝑟𝑖 = ln 𝑃𝑖 𝑃𝑖−1

Di solito la volatilità annua viene calcolata mediante la volatilità giornaliera:

𝑣𝑜𝑙𝑎𝑡𝑖𝑙𝑖𝑡à 𝑎𝑛𝑛𝑢𝑎 = 𝑣𝑜𝑙𝑎𝑡𝑖𝑙𝑖𝑡à 𝑔𝑖𝑜𝑟𝑛𝑎𝑙𝑖𝑒𝑟𝑎 ∗ √252

Dove 252 sono i giorni lavorativi in un anno.

4 Possiamo avere rendimenti logaritmici o rendimenti semplici; in serie storiche si lavora con i rendimenti

logaritmici in quanto consentono di “aggregare temporalmente”: se ad esempio vogliamo calcolare il rendimento settimanale ( 𝑟𝑡(𝑛)) dovremo semplicemente sommare i log rendimenti giornalieri:

𝑟𝑡(𝑛) = 𝑙𝑜𝑔 (1 + 𝑅𝑡) + 𝑙𝑜𝑔 (1 + 𝑅𝑡−1) + 𝑙𝑜𝑔 (1 + 𝑅𝑡−𝑛+1) = 𝑟𝑡+. . 𝑟𝑡−𝑛+1

Dove 𝑙𝑜𝑔(1 + 𝑅𝑡) non è altro che 𝑙𝑜𝑔𝑃𝑡− 𝑙𝑜𝑔𝑃𝑡−1 e 𝑃𝑡 è il prezzo del titolo al tempo t.

5 Si è riportato la formula per esteso, ma molto spesso si pone la media uguale a 0 dato che il valore atteso

della variazione giornaliera dei prezzi (r) risulta molto piccola se paragonata alla deviazione standard.

6 Per motivi di semplicità, nel proseguimento dell’elaborato si prenderà in considerazione la formula senza

(12)

12

Qualche volta viene usata la varianza come misura della volatilità, tuttavia si preferisce

la deviazione standard anche perché ha la stessa unità di misura della media e quindi

risulta più intuitiva (se la media è in euro, la deviazione standard sarà sempre in euro

mentre la varianza in euro al quadrato).

Considerando una serie storica dei rendimenti 𝑟𝑡 con 𝑡 = 1, … , 𝑇, la deviazione standard rappresenta quella che viene definita come unconditional volatility.

Tuttavia, come si vedrà successivamente, la volatilità non rimane costante nel tempo e,

quindi, si prenderà in considerazione la conditional volatility che ci consente di avere

maggiori informazioni (tale tematica sarà sviluppata nel capitolo 2).

Ulteriore fatto da considerare è che la stima dipende da quante informazioni abbiamo nell’intervallo temporale preso in considerazione: se quello che dobbiamo andare a calcolare è la volatilità mensile avendo a disposizione i dati giornalieri, possiamo

calcolarla con la formula della deviazione standard.

Tuttavia, se prendiamo come riferimento le serie macroeconomiche, alcuni dati sono

disponibili soltanto a intervalli di circa 30 giorni e quello che spesso si fa è usare i valori

assoluti mensili come proxy della macro volatility.

La stessa metodologia viene utilizzata per le serie storiche finanziarie quando si deve

stimare la volatilità giornaliera senza avere a disposizioni i dati ad alta frequenza

(infragiornalieri), e quindi disponendo solo di dati giornalieri.

Altro fatto da considerare è che mentre l’equazione della varianza campionaria è uno stimatore unbiased (non distorto) di 𝜎2, la radice quadrata di 𝜎̂2 (ovvero la deviazione standard) è uno stimatore biased (distorto) per σ a causa della disuguaglianza di Jensen;

infatti:

𝐸( 𝜎̂ ) = 𝐸 (√𝜎̂2) < √𝐸(𝜎̂2) = √𝜎2 = 𝜎

(13)

13

Per quanto riguarda la misurazione, Ding, Granger e Engle (1993) suggerirono di

misurare la volatilità in maniera diretta con i rendimenti assoluti. Davidian e Carroll

(1987) mostrarono come i rendimenti assoluti utilizzati come proxy della volatility

fossero più robusti7 contro l’asimmetria e la non-normalità. Nonostante ci siano molti

studi su come i rendimenti assoluti producano previsioni migliori rispetto ai rendimenti

al quadrato (Taylor 1986; Ederington e Guan 2000; McKenzie 1999) la maggioranza dei

modelli per la volatilità delle serie storiche (tra cui quelli che si prenderà in

considerazione nel secondo capitolo) sono strutturati sui rendimenti al quadrato.

Per un’analisi più approfondita, si è deciso di prendere come riferimento tre indici della borsa USA: l’indice S&P, il Dow Jones, e il Nasdaq. Quello che si andrà a fare in questo paragrafo è un confronto tra i diversi indici attraverso sia i rendimenti sia la volatilità

stimata mediante la deviazione standard, cercando di dimostrare alcuni fatti che sono comuni all’interno dei diversi mercati.

Per descrivere l’importanza dei rendimenti nell’analisi in serie storiche, prendiamo come riferimento la figura 1.1 che rappresenta i prezzi di chiusura dell’indice S&P 500.

Figura 1.1

Prezzi di chiusura giornalieri dell’indice S&P dal 2/01/1980 al 17/06/2019. Fonte: elaborazione personale

7 Uno stimatore 𝜃̂ è robusto per θ se piccoli cambiamenti nella distribuzione della popolazione provocano

lievi variazioni in quella campionaria di 𝜃̂. La ricerca di statistiche robuste in ambito parametrico è motivata dal fatto che generalmente un modello parametrico costituisce soltanto una plausibile approssimazione della distribuzione a livello di popolazione (distribuzione di probabilità). Fonte: Treccani.

(14)

14

Da tale rappresentazione si può facilmente evincere come il processo preso in esame non

sia stazionario in quanto, come si può notare, è evidenziato un certo trend dei prezzi.

In serie storiche, invece, non si lavora con i prezzi ma con i rendimenti che sono ottenuti

attraverso la differenza prima del logaritmo dei prezzi.

In linea generale, un processo stocastico è stazionario in senso stretto quando la

distribuzione di probabilità congiunta non cambia al variare del periodo temporale di

riferimento.

Questo indica che, data una serie storica di osservazioni 𝑦1, 𝑦2…𝑦𝑡 viste come realizzazioni di variabili casuali descritte da un processo stocastico, la distribuzione di 𝑦𝑡 è la stessa di quella di qualsiasi altra osservazione 𝑦𝑡. Inoltre, le covarianze tra 𝑦𝑡 e 𝑦𝑡−𝑘,

per qualsiasi k, non dipendono da t.

Un processo è, invece, stazionario in senso debole se, per ogni t:

- 𝐸[𝑦𝑡] = 𝜇 < ∞

- 𝑉𝑎𝑟(𝑦𝑡) = 𝐸[(𝑦𝑡− 𝜇)2] = 𝛶 0 < ∞

- 𝐶𝑜𝑣(𝑦𝑡, 𝑦𝑡−𝑘) = 𝐸[(𝑦𝑡− 𝜇)(𝑦𝑡−𝑘− 𝜇)] = 𝛶𝑘 𝑘 = 1,2,3 …

Quindi, per essere debolmente stazionario, il processo deve avere media e varianza finita mentre le autocovarianze devono dipendere solo dall’ampiezza dell’intervallo che separa le due osservazioni8.

Uno dei modi per identificare se la serie storica è stazionaria, consiste nell’analizzare la

funzione di autocorrelazione:

𝜌𝑘 = 𝐶𝑜𝑣(𝑦𝑡, 𝑦𝑡−𝑘) 𝑉𝑎𝑟(𝑦𝑡)

Se la serie storica è stazionaria allora la funzione di autocorrelazione tenderà a 0 piuttosto

rapidamente.

8 Nel prosieguo dell’elaborato saranno analizzati processi debolmente stazionari, ma per sinteticità si

(15)

15

Per avere un’idea più chiara di tale proprietà possiamo osservare la figura 1.2 che rappresenta i rendimenti dell’indice S&P 500 in un periodo di circa 40 anni.

Figura 1.2

Rendimenti giornalieri (logaritmici) dell’indice S&P dal 2/01/1980 al 17/06/19. Fonte: elaborazione personale.

Facendo un confronto con il grafico precedente dei prezzi (figura 1.1), possiamo già

notare la differenza: qua infatti il processo è stato “stazionarizzato” dalla differenza

prima dei rendimenti logaritmici.

Tuttavia, per andare a verificare la precedente affermazione sull’autocorrelazione,

procediamo ad analizzare il grafico 1.3.

Dal grafico dei rendimenti notiamo qualche segnale di autocorrelazione, a differenza dei

prezzi dove si ha una persistenza che non tende ad affievolirsi: questa è la dimostrazione dell’affermazione fatta poco prima sulla non-stazionarietà dei prezzi.

Per quanto riguarda i rendimenti, in letteratura uno dei cosiddetti fatti stilizzati, ossia delle proprietà comuni che sono state osservate all’interno delle serie storiche e che tendono a essere presenti nei diversi mercati, è quella dell’assenza di autocorrelazione. In generale,

però, spostandoci dalle frequenze più basse a quelle più alte (ad esempio da rendimenti

mensili a quelli giornalieri) si possono verificare casi in cui vi è la presenza di

(16)

16

dal complesso di regole (modello di mercato, tipologie di ordini ecc.) che prendono parte

al normale processo di negoziazione.

Figura 1.3

Autocorrelazioni dei prezzi e dei rendimenti dello S&P 500. Fonte: elaborazione personale.

Infatti, si può dimostrare intuitivamente l’assenza di autocorrelazione: se i rendimenti

mostrassero segnali di autocorrelazione allora tale informazione sarebbe usata per

ottenere un profitto certo (arbitraggio statistico) che poi a sua volta, per la teoria dei

mercati efficienti, ridurrebbe la correlazione ad eccezione di tempi molto brevi.

Questo è soltanto uno dei fatti stilizzati dei rendimenti che sono stati osservati.

Un altro fatto deriva dallo studio dell’indice di curtosi (kurtosis) e dall’indice di

(17)

17

Figura 1.4

Indice di asimmetria e curtosi dei rendimenti giornalieri dello S&P del 2016, 2017, 2018

L’indice di asimmetria (o skewness) è definito come: 𝛶2 = 𝑚3

𝑚23/2

Dove 𝑚3 e 𝑚2 sono rispettivamente il momento centrale di ordine 3 e di ordine 2.

Tale indice ci fornisce informazioni riguardo alla concentrazione della distribuzione

attorno alla media oppure se tende a disperdersi a sinistra o a destra di essa:

• < 0: in questo caso si avrà un’asimmetria negativa e la forma sarà caratterizzata dalla presenza di una coda più lunga a sinistra della media;

• = 0: la distribuzione è simmetrica (la distribuzione è perfettamente centrata intorno alla media);

• > 0: la distribuzione sarà caratterizzata da un’asimmetria positiva e la coda più lunga si presenterà a destra della media.

L’indice di curtosi, invece, è una misura del grado di “appiattimento” di una distribuzione ed è calcolato tramite la seguente formula:

𝛽2 = 𝑚4 𝑚22

Dove 𝑚4 e 𝑚2 sono il momento centrale di ordine 4 e di ordine 2. Il coefficiente di curtosi, invece, è calcolato come:

(18)

18

Se prendiamo in considerazione una variabile casuale normale, dal momento che 𝛽2 = 3, il coefficiente di curtosi ( 𝛶2 ) sarà pari a 0.

In generale, se il coefficiente 𝛶2 è:

• < 0: la curva si definisce platicurtica, quindi più piatta di una normale

• = 0: in questo caso la curva viene definita mesocurtica e cioè piatta come una normale.

• > 0: allora la curva viene definita leptocurtica, quindi risulta più “appuntita” di una normale;

Come è possibile notare dai dati riportati nella figura 1.4, l’indice di curtosi risulta superiore rispetto a quello di una normale (infatti in tutti e tre i casi riportati è maggiore

di 3), mentre l’indice di asimmetria negativo sta a indicare che i rendimenti negativi sono

più numerosi di quelli positivi e, inoltre, tendono a essere più probabili rispetto a una

distribuzione normale.

Numerosi studi, infatti, evidenziano come la distribuzione normale tenda a sottovalutare

la probabilità di eventi estremi (un esempio è il crollo del 1987 dove la probabilità di tale

evento era bassissima) e per questo si ritiene sia meglio ricorrere a distribuzioni

leptocurtiche con code più grasse (fat tails).

Tuttavia, nella letteratura economico-finanziaria, i maggiori studi riguardano non solo i

rendimenti, ma anche la volatilità, i volumi, il numero di transazioni, il flusso degli ordini…

Per quanto riguarda la volatilità, i rendimenti assoluti e quadrati, prima dell’arrivo dei

dati ad alta frequenza, erano spesso usati come proxy per le loro caratteristiche.

Ora, volendo constatare delle proprietà comuni nei diversi mercati, prendiamo come

(19)

19

Figura 1.5

Deviazione standard giornaliera annualizzata degli indici Dow Jones, Nasdaq e S&P 500 (dal 1987 al 2018) Fonte: elaborazione personale9.

Nella figura 1.5, la deviazione standard giornaliera annualizzata dei principali indici della

borsa statunitense dà una chiara rappresentazione della volatilità dal 1987 al 2018.

Possiamo notare come, in tutti e tre gli indici presi di riferimento, la volatilità dei

rendimenti si muova nel tempo.

Nelle figure sottostanti, invece, è possibile notare un altro fatto stilizzato che è quello del

volatility clustering descritto da Mandelbrot nel 1963 secondo cui “large changes tend to be followed by large changes, of either sign, and small changes tend to be followed by small changes10”. Oltre a ciò si può osservare anche una certa persistenza della volatilità. Dalle figure 1.6 e 1.7, infatti, è possibile notare come il volatility clustering sia presente

nei rendimenti al quadrato e nei rendimenti assoluti.

9 Nell’Appendice 1 si è voluto inserire il codice elaborato in MATLAB per il calcolo della deviazione

standard e per la sua rappresentazione grafica.

10 Mandelbrot, B.B, The Variation of Certain Speculative Prices, The Journal of Business 36, No. 4, (1963),

(20)

20

Figura 1.6

Rendimenti al quadrato degli indici Dow Jones, Nasdaq. Fonte: elaborazione personale.

Figura 1.7

(21)

21

Il processo è inoltre persistente e ciò si può facilmente osservare dalle autocorrelazioni

dei rendimenti assoluti (fig. 1.8, 1.9, 1.10).

Figura 1.8

(22)

22

Figura 1.9

Autocorrelazione dei rendimenti del Nasdaq. Fonte: elaborazione personale.

Figura 1.10:

(23)

23

Quello che possiamo intravedere dalle figure 1.8, 1.9 e 1.10 è come i rendimenti assoluti

e quelli al quadrato abbiano un’autocorrelazione che decresce nel tempo.

L’autocorrelazione dei rendimenti assoluti, inoltre, risulta più alta di quella dei rendimenti al quadrato11.

Tutto ciò si aggancia al volatility clustering: le variazioni assolute dei prezzi correlate fra

loro fanno sì che ampie variazioni siano susseguite da ampie variazioni.

Un’altra caratteristica molto importante è l’effetto leverage: una variazione negativa dei prezzi tende a generare maggiore volatilità. Questa asimmetria è stata studiata da Black

(1976), Glosten (1993) ed Engle (1993) che hanno evidenziato una relazione negativa tra

rendimenti e volatilità. In particolare, se il prezzo di un titolo scende di molto, il capitale

si riduce e gli investitori richiederanno un maggior rendimento per investire in quel titolo

più rischioso e per questo la volatilità tenderà ad aumentare: è un effetto a catena per cui il rendimento negativo fa ridurre il prezzo che fa ridurre l’equity facendo a sua volta aumentare il rischio …

In questo paragrafo si è voluto descrivere alcune delle evidenze empiriche note sotto il

nome di fatti stilizzati concentrandosi sul volatility clustering che è la dimostrazione di

come i rendimenti non siano stazionari (almeno in senso stretto).

Inoltre, quello che era opportuno evidenziare, in vista delle analisi dei capitoli successivi, è l’importanza della funzione di autocorrelazione nello studio delle analisi storiche che sarà approfondita nel capitolo 2 nello sviluppo dei modelli ARMA e sullo studio dei

modelli ARCH e GARCH.

(24)

24

1.2 La volatilità implicita e l’indice Vix

Un altro approccio, per il calcolo della volatilità, utilizza la volatilità implicita nel prezzo

delle opzioni.

In sintesi, questa diversa metodologia è utilizzata per misurare le opinioni del mercato

riguardo alla volatilità attesa di un certo strumento finanziario.

A differenza della volatilità storica che è una misura backward looking, la volatilità

implicita è una misura forward looking.

Attorno agli anni ’90 il Chicago Board Options Exchange (CBOE) ha realizzato un indice per il calcolo della volatilità implicita sulla base dello S&P 100: l’indice Vix.

Tale indice fornisce la volatilità prevista per le 30 sedute di borsa successive ed è stato

definito successivamente come “indice della paura” in quanto i rialzi del Vix si

realizzano in periodi di grande turbolenza nel mercato.

Figura 1.11

Confronto “nuovo” indice VIX e S&P 500. Fonte: elaborazione personale.

Dalla figura 1.6 possiamo notare come si è mosso il Vix dalla sua “nascita” (1990) al 5/07/19 e facendo un confronto con l’indice S&P 500: quando avviene un crollo il Vix

cresce, quando lo S&P aumenta il Vix rimane basso. Dato che tale indice rappresenta la volatilità implicita, si può notare in questo grafico l’effetto leverage già descritto in

(25)

25

precedenza: il Vix infatti è basso in caso di crescita dello S&P (e si rileva quindi bassa

volatilità) mentre è alto quando lo S&P è in ribasso (e si registra forte volatilità). Quando

nel 2000 lo S&P raggiunse il suo massimo di 1500, il Vix rimase attorno ai 20; tuttavia

quando la bolla internet scoppiò, fece scendere le quotazioni dei titoli, creando forte

volatilità con il Vix che passò a valori intorno ai 45.

Dal 2003 in poi lo S&P ricominciò a salire fino allo scoppio della bolla dei mutui

subprime in cui lo S&P crolla intorno ai 700 punti aumentando fortemente la volatilità e

facendo registrare al Vix il massimo storico di 80.

Dalla sua nascita ai giorni d’oggi il Vix è stato compreso in un range che va dai 10 agli 80 punti.

In generale valori più elevati di 40 indicano alta volatilità con rischi di tendenze ribassiste;

valori compresi tra i 20 e i 40 ci si trova in una fase “un po’ tesa” ma non propriamente

ribassista; valori inferiori a 20 indicano fiducia degli investitori nell’andamento del

mercato.

Dal 2003 è stato sviluppato un nuovo metodo per il calcolo di tale indice (nella figura

1.11 è rappresentato il “nuovo” Vix, ovvero ottenuto con questa nuova metodologia).

Il vecchio indice, ora indicato con la sigla VXO, utilizza il modello di Black & Scholes12

per il calcolo della volatilità implicita di opzioni at the money13 sull’indice S&P 100. Il

nuovo indice, invece, utilizza una media pesata dei prezzi delle opzioni out of the money14

12 Il modello di Black e Scholes è una metodologia di pricing delle opzioni che è stato elaborato agli inizi

degli anni ’70. All’inizio era stato sviluppato per la valutazione delle opzioni finanziarie di tipo europeo (che sono quelle opzioni che possono essere liquidate solo alla scadenza). Successivamente ha avuto delle modifiche grazie al contributo di Merton.

13 Il termine at the money è utilizzato per indicare opzioni il cui valore intrinseco (ovvero la differenza tra

il prezzo del sottostante e lo strike price per le call e la differenza tra strike price e prezzo del sottostante per le put) è nullo, per cui l’esercizio risulta nullo. Fonte: Borsa Italiana.

14 Il termine out of the money è utilizzato per indicare le opzioni il cui valore intrinseco risulta nullo e

l’esercizio non risulta conveniente: nel caso delle call quando lo strike price è superiore al valore corrente del sottostante; nel caso delle put quando lo strike price è inferiore al valore corrente del sottostante. Fonte: Borsa Italiana.

(26)

26

che sono emesse sull’indice S&P 500 (ciò è dovuto al fatto che lo S&P 500 è divenuto il benchmark di riferimento anche mercato dei derivati).

1.3 Le anomalie del calendario

Numerosi studi hanno evidenziato delle anomalie dei rendimenti in base al calendario che non è altro che un’altra dimostrazione dell’assenza di stazionarietà in senso stretto. Queste anomalie dei rendimenti possono anche essere definite con i termini effetti del

calendario o anche effetti stagionali e derivano da numerose ricerche effettuate sui mercati che dimostrano come, in alcuni periodi dell’anno, il mercato risulti in rialzo.

3.2.7 Effetto gennaio

Uno dei fenomeni più importanti è senza dubbio l’effetto gennaio. Da molteplici studi,

tra cui quello di Donald Keim15, è stato dimostrato come, nel mercato azionario statunitense, le small stocks nel mese di gennaio abbiano performance migliori delle large

stocks a inizio anno.

Quello che è risultato, inoltre, è come l’anomalia sia presente soprattutto nella prima parte del mese.

Nel periodo compreso tra il 1925 e il 2006 il rendimento aritmetico medio sull’indice S&P nel mese di gennaio è stato dell’1,57% mentre quello sulle small stocks del 6,07% (solo in 16 anni nel mese preso in esame le large stocks hanno battuto le small stocks ma

con differenza di poco conto).

Negli altri mesi dell’anno, invece, le large stocks presentano dei rendimenti maggiori rispetto alle small stocks; sulla base dei dati storici rilevati, converrebbe detenere le small

15 Donald Keim, Size-Related Anomalies and Stock Returns Seasonality: Further Empirical Evidence,

(27)

27

stocks solo nel mese di gennaio in quanto, secondo gli studi, presentano un rendimento superiore alle altre.

Se avessimo investito 1 dollaro sulle small stocks e 1 dollaro sulle large stocks nel 1926,

nel 2006 avremmo ottenuto 11250 dollari per le small e 2736 per le large; tuttavia,

eliminando il mese di gennaio, con le small avremmo ottenuto solo 394 dollari.

Secondo tale dimostrazione, investendo 1 dollaro nel 1925 a fine dicembre, riportando i

capitali sullo S&P alla fine di gennaio e applicando tale strategia ogni anno fino al 2006,

avremmo ottenuto 77891 dollari con un rendimento annuo del 14,9% circa.16

C’è da tenere presente che l’effetto gennaio si è verificato anche nelle peggiori fasi di ribasso della storia: dall’estate del 1929 all’estate 1932, le small stocks hanno perso circa il 90% ma hanno ottenuto dei rendimenti del 13%, 21% e 10% nel gennaio 1930, 1931,

1932 (nella Grande Depressione un investitore avrebbe potuto ottenere un profitto di circa

il 50% investendo in small stocks a fine dicembre, vendendole a fine gennaio e tenendo la liquidità per il resto dell’anno)17.

Se da un lato vi sono delle dimostrazioni sulla validità di tale anomalia a livello internazionale, dall’altro c’è da dire che gli studiosi non sono arrivati a una conclusione comune sulle sue possibili cause.

Uno dei fattori di discordanza deriva dal fatto che, mentre negli USA l’effetto poteva esser dovuto a ragioni di carattere fiscale (infatti prima dell’introduzione della tassa sul reddito di persone fisiche del 1913 tale anomalia non si presentava), in Giappone e Canada l’anomalia era già presente anche prima dell’introduzione della tassa sul capital gain (introdotta nel 1989 in Giappone e 1972 in Canada).

16-17 Siegel J.Jeremy, 2010, Rendimenti finanziari e strategie d’investimento i titoli azionari nel lungo

(28)

28

Una possibile spiegazione di tale anomalia potrebbe riguardare i redditi supplementari che gli individui ricevono alla fine dell’anno (in forma di bonus o altre forme di remunerazione). Tali soggetti ricevono entrate in più che utilizzano all’inizio del nuovo anno investendo in azioni.

Tuttavia, dagli anni Novanta tale effetto si è indebolito probabilmente a causa della

diffusione di tale teoria e della ricerca di trarne vantaggio.18

Dagli anni 2000, invece, l’effetto gennaio si è ripresentato e il rendimento delle small stocks è aumentato all’1,68% a discapito dello 0,21% delle large.

Probabilmente, l’insuccesso delle strategie volte a sfruttare tale effetto negli anni ’90 ha fatto sì che l’effetto si presentasse di nuovo.

1.3.2 Effetto settembre

Un altro effetto di notevole rilevanza è quello che viene definito effetto settembre che,

così come quello descritto precedentemente, ha valenza internazionale; infatti, settembre può essere definito il peggior mese dell’anno per tutti gli indici mondiali.

Tuttavia, questa anomalia sembra essersi rafforzata nel corso del tempo, a differenza di

quella di gennaio.

Non c’è una correlazione tra performance deludenti nel mercato dei mesi autunnali e ragioni di carattere economico, ma gli psicologi hanno evidenziato come la luce del sole

sia una componente fondamentale nel benessere di una persona. Nel NYSE le

performance sono peggiori nei giorni nuvolosi rispetto a quelli soleggiati19.

18 Per la teoria dei mercati efficienti, se gli investitori tentassero di sfruttare l’effetto gennaio, i prezzi

subirebbero degli effetti più smussati durante l’anno e alla fine tale anomalia tenderebbe a scomparire. Tuttavia, per poterlo eliminare del tutto, gli investitori dovrebbero conoscere e sfruttare l’anomalia con tranquillità (cosa assai difficile per chi agisce per conto di terzi andare a spiegare una strategia di investimento basata su tale effetto).

19 Saunders Edward M. Jr, 1993, Stock Prices and Wall Street Weather, The American Economic Review,

(29)

29

Tuttavia, quest’ultima spiegazione non regge in Australia e Nuova Zelanda dove settembre continua a essere un mese borsistico pessimo, ma corrisponde alla primavera e all’allungamento delle giornate.

Probabilmente tale anomalia deriva dalla liquidazione dei titoli per il pagamento delle

vacanze estive, anche se non ci sono sufficienti dimostrazioni al riguardo.

1.3.3 Halloween Indicator

Per ricollegarsi all’effetto settembre, un’altra anomalia è l’Halloween Indicator con il consueto “Sell in May and go away”.

Si tratta di un effetto stagionale (conosciuto in Europa fin dal 1694) in cui si osservano

rendimenti più alti nel periodo compreso tra novembre e aprile rispetto ai rendimenti nel

periodo maggio-ottobre. Nei loro studi, Bouman e Jacobsen20 trovano che in 36 dei 37

mercati studiati, il periodo estivo genera una forte stagionalità dei rendimenti.

1.3.4 Effetto lunedì o effetto weekend

Se settembre è il mese peggiore per investire, il lunedì è (o molto probabilmente era)

senza dubbio il giorno peggiore. Infatti, vi è la tendenza dei mercati di avere rendimenti

più alti il venerdì e più bassi il lunedì.

Questa è una particolare anomalia poiché i rendimenti del lunedì coprono un’ampiezza di 3 giorni (sabato, domenica e lunedì) e ci si aspetterebbe rendimenti più alti rispetto a

quelli degli altri giorni (infatti a maggior rischio dovrebbero corrispondere rendimenti

maggiori).

20 Bouman S., Jacobsen B., 2002, The Halloween Indicator, ‘Sell in May and go Away’: Another Puzzle,

(30)

30

La valenza di tale anomalia è stata analizzata a livello internazionale con prove in Canada, Regno Unito, Germania, Francia, Giappone… Se il lunedì è il giorno con assoluta più probabilità di rendimenti negativi (o comunque più bassi), nessuno dei paesi preso in

esame ha rendimenti negativi il mercoledì, il giovedì e il venerdì. Anche il martedì è un

giorno con rendimenti molto bassi, in special modo in Asia e Australia e ciò potrebbe

essere dovuto al fatto che le performance negative che si verificano sulla Borsa di New

York hanno ripercussioni sul mercato asiatico nel giorno successivo.

Dal 1990, invece, il lunedì sembra essere diventato il giorno migliore e venerdì il

peggiore. Una delle possibili spiegazioni potrebbe essere la stessa che è stata già accennata per l’effetto gennaio: le anomalie molto pubblicizzate spesso svaniscono a causa dell’arbitraggio sui mercati. In particolar modo Kamara (1997)21 attraverso uno

studio dell’indice S&P 500 ha mostrato come l’effetto lunedì sia scomparso dal 1982; Nel Regno Unito, dagli studi di Steeley (2001)22 tale effetto risulta scomparso dopo gli anni ’90.

1.3.5 Effetto Holiday

Dallo studio di Jacobs e Levy (1988)23 nel mercato statunitense, è risultato che nel periodo

tra il 1963-1982, il 35% della crescita dei prezzi delle azioni si è verificato negli otto

giorni prefestivi di ciascun anno.

21 Kamara A., 1997, New Evidence on the Monday Seasonal in Stock Returns, The journal of Business. 22 Steeley James M., 2001, A note on information seasonality and the disappearance of the weekend effect

in the UK stock market, Journal of Banking & Finance, Vol. 25, pag. 1941-1956

23 Jacobs Bruce I., Levy Kenneth N., 1988, Calendar Anomalies: Abnormal Returns at Calendar Turning

(31)

31

Barone (1990)24 ha analizzato, invece, tale effetto sul MIB constatando che nei giorni prefestivi le variazioni dei prezzi risultano nel 60% dei casi positive, a discapito del 49%

dei giorni normali; i rendimenti superiori alla normalità non possono essere considerati

come una sorta di premio per il rischio, infatti, la deviazione standard delle variazioni nei

giorni prefestivi (0,88) è inferiore a quella degli altri giorni (1,30).

1.3.6 Effetto turn-of-the-month

L’effetto cambio del mese è senza dubbio un’altra anomalia di rilievo.

Ariel (1987)25 ha analizzato il mercato statunitense evidenziando delle variazioni anomale all’inizio e alla fine del mese. In particolare, dallo studio, è stato posto in evidenza come, nell’ultimo giorno lavorativo del mese e nei tre giorni successivi, la redditività delle azioni aumenti.

Ziemba (1991)26 ha, invece, analizzato il mercato azionario giapponese dove il fenomeno si riscontra negli ultimi cinque giorni del mese e nei primi due del mese successivo.

Barone (1990) ha preso come riferimento il mercato italiano evidenziando come i prezzi

delle azioni diminuiscano nella prima parte del mese solare (nella fase di conclusione del ciclo borsistico) mentre aumentano nella seconda fase (in corrispondenza dell’inizio del nuovo mese borsistico).

3.2 Le insidie della bassa volatilità

Facendo riferimento alla figura sottostante (1.12) che racchiude in sé deviazione standard,

rendimenti assoluti e Vix, possiamo notare che tra il 2005 e il 2006 la volatilità è stata ai

24 Barone E., 1990, The Italian stock market: Efficiency and calendar anomalies, Journal of Banking &

Finance Vol. 14, pag. 483-510.

25 Ariel Robert A., 1997, A monthly effect in stock returns, Journal of Financial Economics, Vo. 18,

pag.161-174

26 Ziemba William T., 1991, Japanese security market regularities:Monthly, turn-of-the-month and year,

(32)

32

livelli più bassi di sempre. Tra le possibili spiegazioni al riguardo vi sono una continua

globalizzazione dei mercati che ha permesso una sempre più accurata diversificazione del rischio, l’attenuazione del ciclo economico e una liquidità sempre maggiore che consente di allocare il capitale in maniera istantanea per cogliere opportunità di profitto.

Tuttavia, questa situazione di bassa volatilità, ma anche di bassi tassi di interesse, conduce

i soggetti a esporsi maggiormente nel mercato azionario, utilizzando soprattutto la leva

finanziaria che incrementa il rischio di incorrere in perdite.

Figura 1.12

Deviazione standard, rendimenti assoluti, prezzi di chiusura dell’indice S&P 500 e indice Vix Fonte: elaborazione personale.

Questo meccanismo fa sì che le borse continuino la loro corsa a innalzare una specie di

(33)

33

Con riferimento al Vix, tra il 1990 e il 2016 era sceso sotto la soglia del 10% solo nove

volte, mentre nel 2017 circa cinquanta27.

In linea generale, poiché i rialzi e i ribassi fuoriescono dal singolo mercato finanziario, l’interdipendenza tra mercati favorisce una sorta di volatilità globale.

C’è inoltre da considerare che spesso il passaggio da ordine a disordine può essere repentino dopo aver osservato lunghi periodi di quiete.

In particolare, si può osservare come, alcune volte, da singole operazioni di vendita si

scatenino sell-off importanti; un fenomeno simile è quello che si può verificare quando,

in un teatro, un singolo spettatore inizia ad applaudire provocando un applauso da parte

di un gruppetto che poi si tramuta in un applauso scrosciante.

La figura 1.13 rappresenta un’operazione “popolare” tra gli Hedge Fund: il carry trade effettuato prendendo a prestito in yen (JPY) e investendo in euro (EUR) che nel periodo

compreso tra il 2000 e 2007 rimase profittevole e poco volatile con una performance

annua del 9,70% 28. Tuttavia, in seguito, tale strategia perse in poche settimane circa il 35%.

C’è inoltre da considerare come, tra i fenomeni emergenti del mercato finanziario, vi siano i cosiddetti flash crash ovvero delle brusche cadute di valori che si rilevano in tempi

molto brevi (spesso minuti o addirittura secondi) per poi essere seguite da rapidi recuperi.

27 Fonte: il Sole 24 ore.

28 Fonte: Raffaele Zenti, 2014, Volatilità, modelli decisionali e complessità dei mercati finanziari, Sistemi

(34)

34

Figura 1.13

Carry Trade “Long EUR – Short JPY”, periodo 06/10/2000 – 16/10/2009. Fonte: Volatilità, modelli decisionali e complessità dei mercati finanziari, Raffaele Zenti, 2014

Questa nuova tipologia di crash è legata alla presenza delle nuove tecnologie che

consentono l’esecuzione in maniera automatica di ordini in tempi brevissimi attraverso il

cosiddetto High Frequency Trading (HFT).

In particolare, un evento di questo tipo accadde nel maggio 2010 quando l’indice Dow Jones perse più di 1000 punti per poi ritornare “approssimativamente” ai livelli precedenti nel giro di 15 minuti. Tutto ciò fu dovuto all’ esecuzione di più di 20000 trade di circa 300 strumenti finanziari tra azioni, futures, ETF che vennero eseguiti a valori

distanti di circa il 60% rispetto ai prezzi di pochi secondi prima.

Per fare un altro esempio di questi flash crash, il 12 luglio 2011 l’azienda americana

Ennis vide le sue quotazioni passare da 69.29 a 16.64 dollari, per poi tornare a quota 70 il tutto in pochi secondi. Inoltre, come riporta Il Sole 24 Ore in un articolo del 2 giugno

2019, oramai circa il 53% dei trade vengono effettuati dai robot per cui, i flash crash,

(35)

35

In “ultima” analisi, nell’era dei cosiddetti tassi zero, il margin debt (debito contratto dai soggetti per acquistare azioni), spinto dalle politiche monetarie espansive delle Banche

Centrali, ha raggiunto, nella borsa USA, i massimi storici superando le posizioni in leva

degli anni 2000 (che avevano contribuito alla crisi del 2008 dei mutui subprime). Questa

sorta di meccanismo può essere considerato “virtuoso” in caso di rialzi, ovvero quando

le cose vanno bene, ma quando il vento cambia comporta un effetto moltiplicativo dei

ribassi.29

29 Un detto molto famoso, facendo riferimento al rialzo e al ribasso del mercato azionario, è: “si sale con

(36)

36

APPENDICE

Per il calcolo della deviazione standard giornaliera annualizzata si è costruito una function utilizzando il software MATLAB.

Per prima cosa si è provveduto a scaricare da Yahoo Finance i dati storici giornalieri degli indici Nasdaq, S&P 500 e Dow Jones.

Successivamente si è andati a costruire due subfunctions:

- La prima per permetterci di trovare la posizione dei dati della prima e ultima giornata lavorativa dell’anno;

- La seconda per il calcolo della deviazione standard. Dopodiché siamo passati a costruire una tabella di due colonne:

- Nella prima colonna gli anni di riferimento - Nella seconda colonna la deviazione standard

Successivamente si sono costruiti i grafici riportati nella figura 1.5 con il comando bar. Di seguito lo script di MATLAB utilizzato:

function StandardDeviationGrafico(T) % date che ci interessano per i calcoli

%siamo interessati alla prima e all’ultima giornata lavorativa dell’anno d1=datetime(‘1987-01-01’); d2=datetime(‘1987-12-31’); d3=datetime(‘1988-01-01’); d4=datetime(‘1988-12-31’); d5=datetime(‘1989-01-01’); d6=datetime(‘1989-12-31’); d7=datetime(‘1990-01-01’); d8=datetime(‘1990-12-31’); d9=datetime(‘1991-01-01’); d10=datetime(‘1991-12-31’); d11=datetime(‘1992-01-01’); d12=datetime(‘1992-12-31’); d13=datetime(‘1993-01-01’); d14=datetime(‘1993-12-31’); d15=datetime(‘1994-01-01’); d16=datetime(‘1994-12-31’); d17=datetime(‘1995-01-01’); d18=datetime(‘1995-12-31’); d19=datetime(‘1996-01-01’); d20=datetime(‘1996-12-31’); d21=datetime(‘1997-01-01’);

(37)

37 d22=datetime(‘1997-12-31’); d23=datetime(‘1998-01-01’); d24=datetime(‘1998-12-31’); d25=datetime(‘1999-01-01’); d26=datetime(‘1999-12-31’); d27=datetime(‘2000-01-01’); d28=datetime(‘2000-12-31’); d29=datetime(‘2001-01-01’); d30=datetime(‘2001-12-31’); d31=datetime(‘2002-01-01’); d32=datetime(‘2002-12-31’); d33=datetime(‘2003-01-01’); d34=datetime(‘2003-12-31’); d35=datetime(‘2004-01-01’); d36=datetime(‘2004-12-31’); d37=datetime(‘2005-01-01’); d38=datetime(‘2005-12-31’); d39=datetime(‘2006-01-01’); d40=datetime(‘2006-12-31’); d41=datetime(‘2007-01-01’); d42=datetime(‘2007-12-31’); d43=datetime(‘2008-01-01’); d44=datetime(‘2008-12-31’); d45=datetime(‘2009-01-01’); d46=datetime(‘2009-12-31’); d47=datetime(‘2010-01-01’); d48=datetime(‘2010-12-31’); d49=datetime(‘2011-01-01’); d50=datetime(‘2011-12-31’); d51=datetime(‘2012-01-01’); d52=datetime(‘2012-12-31’); d53=datetime(‘2013-01-01’); d54=datetime(‘2013-12-31’); d55=datetime(‘2014-01-01’); d56=datetime(‘2014-12-31’); d57=datetime(‘2015-01-01’); d58=datetime(‘2015-12-31’); d59=datetime(‘2016-01-01’); d60=datetime(‘2016-12-31’); d61=datetime(‘2017-01-01’); d62=datetime(‘2017-12-31’); d63=datetime(‘2018-01-01’); d64=datetime(‘2018-12-31’);

%troviamo la posizione della prima e dell’ultima giornata lavorativa [postart1,posend1]=TrovaRighe(d1,d2); [postart2,posend2]=TrovaRighe(d3,d4); [postart3,posend3]=TrovaRighe(d5,d6); [postart4,posend4]=TrovaRighe(d7,d8); [postart5,posend5]=TrovaRighe(d9,d10); [postart6,posend6]=TrovaRighe(d11,d12); [postart7,posend7]=TrovaRighe(d13,d14); [postart8,posend8]=TrovaRighe(d15,d16); [postart9,posend9]=TrovaRighe(d17,d18); [postart10,posend10]=TrovaRighe(d19,d20);

(38)

38 [postart11,posend11]=TrovaRighe(d21,d22); [postart12,posend12]=TrovaRighe(d23,d24); [postart13,posend13]=TrovaRighe(d25,d26); [postart14,posend14]=TrovaRighe(d27,d28); [postart15,posend15]=TrovaRighe(d29,d30); [postart16,posend16]=TrovaRighe(d31,d32); [postart17,posend17]=TrovaRighe(d33,d34); [postart18,posend18]=TrovaRighe(d35,d36); [postart19,posend19]=TrovaRighe(d37,d38); [postart20,posend20]=TrovaRighe(d39,d40); [postart21,posend21]=TrovaRighe(d41,d42); [postart22,posend22]=TrovaRighe(d43,d44); [postart23,posend23]=TrovaRighe(d45,d46); [postart24,posend24]=TrovaRighe(d47,d48); [postart25,posend25]=TrovaRighe(d49,d50); [postart26,posend26]=TrovaRighe(d51,d52); [postart27,posend27]=TrovaRighe(d53,d54); [postart28,posend28]=TrovaRighe(d55,d56); [postart29,posend29]=TrovaRighe(d57,d58); [postart30,posend30]=TrovaRighe(d59,d60); [postart31,posend31]=TrovaRighe(d61,d62); [postart32,posend32]=TrovaRighe(d63,d64);

% Calcoliamo la deviazione standard giornaliera annualizzata [sd1]=StandardDev(postart1,posend1); [sd2]=StandardDev(postart2,posend2); [sd3]=StandardDev(postart3,posend3); [sd4]=StandardDev(postart4,posend4); [sd5]=StandardDev(postart5,posend5); [sd6]=StandardDev(postart6,posend6); [sd7]=StandardDev(postart7,posend7); [sd8]=StandardDev(postart8,posend8); [sd9]=StandardDev(postart9,posend9); [sd10]=StandardDev(postart10,posend10); [sd11]=StandardDev(postart11,posend11); [sd12]=StandardDev(postart12,posend12); [sd13]=StandardDev(postart13,posend13); [sd14]=StandardDev(postart14,posend14); [sd15]=StandardDev(postart15,posend15); [sd16]=StandardDev(postart16,posend16); [sd17]=StandardDev(postart17,posend17); [sd18]=StandardDev(postart18,posend18); [sd19]=StandardDev(postart19,posend19); [sd20]=StandardDev(postart20,posend20); [sd21]=StandardDev(postart21,posend21); [sd22]=StandardDev(postart22,posend22); [sd23]=StandardDev(postart23,posend23); [sd24]=StandardDev(postart24,posend24); [sd25]=StandardDev(postart25,posend25); [sd26]=StandardDev(postart26,posend26); [sd27]=StandardDev(postart27,posend27); [sd28]=StandardDev(postart28,posend28); [sd29]=StandardDev(postart29,posend29); [sd30]=StandardDev(postart30,posend30); [sd31]=StandardDev(postart31,posend31); [sd32]=StandardDev(postart32,posend32);

(39)

39

%costruiamo una tabella che riporta su una colonna gli anni e sull’altra la %deviazione standard Anni=[1987;1988;1989;1990;1991;1992;1993;1994;1995;1996;1997;1998;1999;20 00;2001;2002;2003;2004;2005;2006;2007;2008;2009;2010;2011;2012;2013;2014; 2015;2016;2017;2018]; StaDev=[sd1;sd2;sd3;sd4;sd5;sd6;sd7;sd8;sd9;sd10;sd11;sd12;sd13;sd14;sd15 ;sd16;sd17;sd18;sd19;sd20;sd21;sd22;sd23;sd24;sd25;sd26;sd27;sd28;sd29;sd 30;sd31;sd32]; Tab=table(Anni,StaDev);

% costruzione del grafico bar(Tab.Anni,Tab.StaDev) grid on;

grid minor;

%subfunction per la deviazione standard function[sd]=StandardDev(postart,posend) date=T.Date(postart:posend); Close=T.Close(postart:posend); N=length(date); r=zeros(N,1); for h=2:N r(h)=(log(Close(h))-log(Close(h-1)))*100; end rhat=mean(r); e=zeros(N,1); for g=1:N e(g)=(r(g)-rhat)^2; end sd=(sqrt((sum(e))/(N-1)))*sqrt(252); end

%subfunction per trovare la posizione dei dati che ci interessano function[postart,posend]=TrovaRighe(dstart,dend) days=T.Date; n=length(days); for i=1:n if days(i)>=dstart postart=i; break end end if dend>=days(n)

(40)

40 posend=n; else for i=postart:n if days(i)>dend posend=i-1; break end end end end end

(41)

41

CAPITOLO 2

DAGLI ARMA AI MODELLI ARCH E GARCH

Quello che si andrà a fare in questo secondo capitolo è un’analisi approfondita dei modelli ARMA, ARCH e GARCH. C’è un’ampia letteratura su questi modelli, vista la loro importanza nello studio delle serie storiche, ma prima di analizzarne le caratteristiche

principali, quello che è utile per una più facile comprensione dei meccanismi che ne

stanno alla base, è andare a fornire delle spiegazioni su white noise e lag operator.

Successivamente saranno presi in esame i modelli AR, i modelli MA e la loro

combinazione nel modello ARMA. Alla fine, si arriverà a definire e spiegare i modelli

ARCH e GARCH analizzando alcune delle le varie tipologie sviluppate nel corso degli

anni.

Tuttavia, prima di addentrarsi nello studio dei vari processi che hanno contribuito allo

sviluppo dei modelli ARCH e GARCH, sarà opportuno una breve sintesi su un altro concetto che è quello dell’ergodicità poiché, se già nel primo capitolo si è discusso il tema della stazionarietà, i processi stocastici di cui si farà riferimento sono inoltre legati da quest’altro aspetto che si andrà a definire.

Un processo è definito ergodico se la memoria del processo è limitata e, all’aumentare dell’ampiezza di un campione preso in esame, aumentano le informazioni a nostra disposizione; questo è un fatto molto importate poiché, se un processo non fosse ergodico,

le caratteristiche di persistenza della memoria sarebbero così forti che, anche all’aumentare dell’ampiezza del campione, le informazioni non sarebbero sufficienti a fornirci caratteristiche sulla distribuzione.

C’è inoltre una relazione tra stazionarietà e ergodicità: se un processo è stazionario e soddisfa determinate proprietà di non esplosività allora tale processo è anche ergodico.

(42)

42

Per fare un esempio, un processo stocastico stazionario 𝑦𝑡 è ergodico per il momento primo se: 1 𝑁∑ 𝑦𝑡 𝑁 𝑡=1 →𝑝 𝐸[𝑦𝑡]

Ovvero se la media campionaria converge in probabilità al valore atteso di 𝑦𝑡

Ergodicità e stazionarietà sono, quindi, due condizioni fondamentali per poter fare

inferenza sui momenti di un processo.

Tutto ciò è molto importante poiché, se un processo è stazionario, la media sarà sempre

la stessa nel tempo e questo sta a significare che, se ci allontaniamo da tale valore, il

processo dovrà prima o poi ritornarci. Questo vuol dire che il processo avrà quella

caratteristica che viene definita mean reversion (ritorno alla media).

A sua volta, per ritornare alla media, il processo deve avere una memoria finita e questo

sta a significare che gli shock devono essere transienti (dopo un po’ tendono ad essere

dimenticati).

Ciò sta inoltre a significare che, dal momento che la memoria deve essere finita, la

covarianza prima o poi deve andare a 0 (ovvero che gli shock prima o poi vengono

dimenticati).

2.1 White Noise e lag operator

Il White Noise (Rumore Bianco) è un processo stocastico molto semplice con momento

primo e momento secondo costanti e senza alcun tipo di memoria.

Il White Noise può avere:

- Forma debole:

(43)

43

• 𝑉 ( 𝜀𝑡 ) = 𝜎2 ∀t

• 𝐶𝑜𝑟𝑟( 𝜀𝑡 , 𝜀𝑠 ) = 0 ∀s ≠ t

Nella forma debole, uno White Noise è composto da infinite variabili casuali con

media 0, varianza costante e senza nessun tipo di correlazione.

- Forma forte

In questo caso, oltre a richiamare la forma debole, le variabili causali sono inoltre

indipendenti e identicamente distribuite:

𝜀𝑡 ∼ 𝐼. 𝐼. 𝐷 ( 0, 𝜎2)

Se si assume che 𝜀𝑡 sia distribuito come una normale, in questo caso non c’è distinzione tra forma forte e debole perché indipendenza e assenza di correlazione coincidono:

𝜀𝑡 ∼ 𝑁. 𝐼. 𝐷 ( 0, 𝜎2)

Figura 2.1

White Noise Gaussiano con media 0 e varianza pari a 1. Fonte: elaborazione personale.

Il lag operator, invece, indicato generalmente con L, è un operatore che prende una serie

storica e la shifta di uno nel tempo.

Supponiamo di avere una serie storica 𝑌𝑡, il lag operator trasforma la sequenza 𝑌𝑡 in una

(44)

44

𝐿𝑌𝑡 = 𝑌𝑡−1 Applicando n volte il lag operator ( 𝐿𝑛 ) si ha:

𝐿𝑛𝑌𝑡 = 𝑌𝑡−𝑛

È inoltre un operatore lineare, quindi se abbiamo 2 costanti a e b:

𝐿(𝑎𝑌𝑡+ 𝑏) = 𝑎𝐿𝑌𝑡+ 𝑏 = 𝑎𝑌𝑡−1+ 𝑏

Se si utilizzano potenze negative, quello che si fa è laggare ovvero spostare in avanti nel

tempo:

𝐿−𝑛𝑌𝑡 = 𝑌𝑡+𝑛

Può inoltre essere utilizzato per definire la differenza prima:

𝛥𝑌𝑡 = 𝑌𝑡− 𝑌𝑡−1= 𝑌𝑡− 𝐿𝑌𝑡 = (1 − 𝐿)𝑌𝑡

Sia il White Noise che il lag operator sono importante per descrivere i modelli ARMA

(Autoregressive Moving Average).

2.2 I modelli MA

La classe dei modelli ARMA comprende sia i processi AR che i processi MA: applicando

il lag operator a 𝑌𝑡 otteniamo un modello AR, se lo applichiamo al White Noise otteniamo un MA.

Un processo MA(q), dove q rappresenta l’ordine del Moving Average, possiamo definirlo come una sorta di media mobile degli 𝜀𝑡:

𝑀𝐴 (𝑞): 𝑌𝑡 = 𝜃 ( 𝐿 )𝜀𝑡= 𝜀𝑡+ 𝜃1𝜀𝑡−1𝜃2𝜀𝑡−2… 𝜃𝑞𝜀𝑡−𝑞

Essendo 𝜀𝑡 ∼ 𝑁( 0, 𝜎2), possiamo notare come il processo sia a media 0, infatti:

𝐸[ 𝑌𝑡 ] = 𝐸 [ ∑ 𝜃𝑖 𝑞 𝑖=0 𝜀𝑡−𝑖 ] = ∑ 𝜃𝑖 𝑞 𝑖=0 𝐸(𝜀𝑡−𝑖) = 0

Inoltre, considerando che il momento primo è pari a 0, la varianza corrisponde al

(45)

45 𝛶(0) = 𝑉𝑎𝑟 ( 𝑌𝑡 ) = 𝐸 ( 𝑌𝑡2 ) = 𝐸 [ ( ∑ 𝜃𝑖 𝑞 𝑖=0 𝜀𝑡−𝑖 ) 2 ] = ∑ 𝜃𝑖2 𝑞 𝑖=0 𝜀𝑡−𝑖2 + ∑ ∑ 𝜃𝑖𝜃𝑗𝜀𝑡−𝑖𝜀𝑡−𝑗 𝑗≠𝑖 𝑞 𝑖=0

Dalla proprietà del White Noise, il valore atteso della seconda sommatoria è 0, per cui:

𝐸 ( 𝑌𝑡2 ) = 𝐸 [∑ 𝜃𝑖2 𝑞 𝑖=0 𝜀𝑡−𝑖2 ] = ∑ 𝜃𝑖2 𝑞 𝑖=0 𝐸( 𝜀𝑡−𝑖2 ) = ∑ 𝜃𝑖2 𝑞 𝑖=0 𝜎2 = 𝜎2 ∑ 𝜃𝑖2 𝑞 𝑖=0

Per quanto riguarda l’autocovarianza, invece:

𝛶(𝑘) = 𝐸(𝑌𝑡𝑌𝑡−𝑘) = 𝐸 [ (∑ 𝜃𝑖 𝑞 𝑖=0 𝜀𝑡−𝑖) (∑ 𝜃𝑗 𝑞 𝑗=0 𝜀𝑡−𝑗+𝑘) ]

Dal momento che, per le proprietà del White Noise, 𝐸( 𝜀𝑡−𝑖𝜀𝑡−𝑗+𝑘 ) = 𝜎2 per 𝑗 = 𝑖 + 𝑘 mentre è 0 negli altri casi, l’espressione dell’autocovarianza diventa:

𝛶(𝑘) = 𝐸(𝑌𝑡𝑌𝑡−𝑘) = 𝜎2 ∑ 𝜃 𝑗 𝑞−𝑘 𝑗=0 𝜃𝑗+𝑘 ∀k ≤ q = 0 ∀k > q

Per quanto riguarda l’autocorrelazione:

𝜌(𝑘) = ∑ 𝜃𝑗

𝑞−𝑘

𝑗=0 𝜃𝑗+𝑘

1 + ∑𝑞𝑗=1𝜃𝑗2 ∀k ≤ q = 0 ∀k > q

Nei processi MA(q) abbiamo delle formule chiuse, ovvero conoscendo i vari θ possiamo calcolare direttamente le autocorrelazioni, autocovarianze ecc…

(46)

46

Un fatto di notevole rilevanza è che si può rappresentare qualsiasi processo con q

correlazioni diverse da 0 con un processo MA(q) e questo sta a significare che tali processi

sono molto generali e possiamo rappresentare un processo molto ampio di processi

stazionari30.

Quello che c’è da prendere in considerazione è che qualsiasi processo stazionario q-correlato ha una rappresentazione MA(q), ma tale rappresentazione non è unica: in realtà

ve ne sono 2𝑞 possibili rappresentazioni. Tuttavia, è possibile identificare il concetto di invertibilità che ci consente di ottenere un solo modello MA(q) (c’è infatti da considerare che, sebbene un processo MA(q) sia un processo sempre stazionario, non sempre risulta

invertibile).

Per andare a verificare tale proprietà prendiamo come riferimento un MA(1).

Figura 2.2

Processo MA(1) con differenti θ. Fonte: elaborazione personale

30 Il teorema di Wold afferma, infatti, che qualsiasi processo a media 0 e stazionario in covarianza può

essere rappresentato attraverso una parte deterministica (e quindi prevedibile, 𝑘𝑗) e una stocastica (non prevedibile, ∑∞𝑗=0𝜃𝑗𝜀𝑡−𝑗 ):

𝑌𝑡= ∑ 𝜃𝑗𝜀𝑡−𝑗 ∞ 𝑗=0

(47)

47

Innanzitutto, c’è da notare dalla tabella riportata in figura 2.2 come, all’aumentare dei θ, la varianza aumenti.

In un processo MA (1) la funzione di autocorrelazione sarà data dalla seguente formula:

𝜌(1) =𝛶(1) 𝛶(0)=

𝜃 1 + 𝜃2

Figura 2.3:

Autocorrelazione di un MA(1). Fonte: elaborazione personale

Come accennato in precedenza, qualsiasi processo avente q correlazioni diverse da 0 può

essere rappresentato con 2𝑞 processi MA(q); quindi, nel caso preso in esame, ci saranno 21 processi che ci danno la stessa autocorrelazione.

Come è possibile notare dalla figura 2.3, ad esempio per 𝜌 = 0.4 vi sono due possibili θ

che ci danno la stessa autocorrelazione: 𝜃 = 0.5 e 𝜃 = 2.

Tra tutti i possibili MA bisogna scegliere quello che risulta invertibile; possiamo scrivere

il processo MA (1) utilizzando il lag operator:

(48)

48

Possiamo portare il lag polinomial a sinistra ottenendo un AR (∞):

𝑌𝑡( 1 + 𝜃𝐿 )−1= 𝜀𝑡 Dove:

( 1 + 𝜃𝐿 )−1= ( 1 − 𝜃𝐿 + 𝜃2𝐿2 − 𝜃3𝐿3… ) = ∑(−𝜃𝐿)𝑖 ∞

𝑖=0

Quello che si può notare è che si avrà un polinomio di ordine infinito applicato a 𝑌𝑡. Questo modello di ordine infinito dipende dai valori passati di 𝑌𝑡 ed è quindi un modello

autoregressivo e per essere convergente (non esplodere) | 𝜃 | < 1.

Infatti, prendendo sempre potenze più grandi, se 𝜃 fosse maggiore di 1 allora la serie non

convergerebbe. Visto che abbiamo preso in considerazione MA(1), in questo caso basta

escludere 𝜃 = 2.

La condizione di invertibilità è molto importante per il MA in quanto consente di ricavare

gli 𝜀𝑡 che, a differenza di 𝑌𝑡 , non sono osservati.

Prendendo come riferimento 𝜃 = 0.4, possiamo andare a costruire un MA(1),

rappresentandolo nella figura 2.4.

Figura 2.4

(49)

49

Come possiamo notare, l’autocorrelazione risulta nulla per ritardi superiori a 1; se avessimo preso in considerazione un MA(2), invece, avremmo avuto autocorrelazione

nulla per ritardi superiori a 2 e così via.

2.3 I modelli AR

Un’altra classe di modelli che è possibile costruire con il lag operator è quella dei modelli AR (Autoregressivi).

Questi processi rappresentano la variabile 𝑌𝑡 come funzione lineare dei propri valori passati più il White Noise e quindi introducono una dipendenza temporale nella dinamica

della variabile: quello che succederà domani dipende dal quello che è successo oggi più

un certo errore.

Il modello AR somiglia molto a un modello di regressione in cui i regressori (variabili

esplicative) non sono altro che i valori passati della variabile dipendente:

𝐴𝑅(𝑝) → 𝑌𝑡 = 𝜙1𝑌𝑡−1+ 𝜙2𝑌𝑡−2+ ⋯ 𝜙𝑝𝑌𝑡−𝑝+ 𝜀𝑡

A differenza dei processi MA, nei processi AR quello che bisogna verificare è la

stazionarietà.

Prendendo in esame un modello AR(1), possiamo fare esattamente come abbiamo fatto

nel caso del MA invertendo il lag polinomial e trasformando l’AR(1) in un MA ( ∞ ):

𝐴𝑅(1) → (1 − 𝜙𝐿)𝑌𝑡 = 𝜀𝑡 𝑀𝐴(∞) → 𝑌𝑡 = (1 − 𝜙𝐿)−1𝜀𝑡 = ∑(𝜙𝐿)𝑖 ∞ 𝑖=0 𝜀𝑡= ∑ 𝜙𝑖 ∞ 𝑖=0 𝜀𝑡−1

Conviene molto ricorrere a questa rappresentazione di un AR(1) come MA(∞) in quanto

si hanno formule chiuse per i calcoli di media, varianza, covarianza e autocorrelazione:

in questo modo, infatti, vediamo che è un processo a media 0 con autocovarianza pari a:

𝛶(𝑘) = 𝐸[(𝑌𝑡− 𝐸(𝑌𝑡)][𝑌𝑡−𝑘− 𝐸(𝑌𝑡−𝑘)] = 𝐸(𝑌𝑡𝑌𝑡−𝑘) = 𝜙𝑘

𝜎2 1 − 𝜙2

(50)

50

La varianza, invece, risulta pari a:

𝛶(0) = 𝐸[(𝑌𝑡− 𝐸(𝑌𝑡)][𝑌𝑡− 𝐸(𝑌𝑡)] = 𝐸(𝑌𝑡𝑌𝑡) =

𝜎2 1 − 𝜙2

La funzione di autocorrelazione:

𝜌(𝑘) = 𝜙|𝑘| ∀k

Quindi l’autocorrelazione di un AR(1) al lag 1 sarà 𝜙1, al lag 2 sarà 𝜙2; tutto ciò sta a

significare che i processi AR hanno una memoria esponenziale.

La stazionarietà del modello AR(1) è verificata per |𝜙| < 1; nel caso di |𝜙| = 1, invece,

si ha la presenza di una radice unitaria che lo rende non stazionario.

In generale, in un processo AR(p), la presenza di una radice unitaria può essere verificata

controllando se la somma dei coefficienti ϕ è uguale a 1; se la somma è superiore a 1,

invece, il polinomio non è invertibile.

Il fatto che il processo sia invertibile è importante per diversi motivi: per i modelli MA, l’invertibilità del lag polinomial è importante sia per la stima che per la previsione. Per i modelli AR, invece, il polinomio risulta invertibile solo se il processo è stazionario.

Per essere stazionario un processo deve avere, come già accennato, varianze e

autocovarianze finite. I processi MA sono sempre stazionari, in quanto non sono altro che

una somma ponderata di processi White Noise stazionari.

Dai grafici successivi possiamo notare un esempio di AR(1) stazionario e uno non

stazionario.

In particolar modo, dalla funzione di autocorrelazione della figura 2.5 si può notare come,

nei processi autoregressivi, l’autocorrelazione sia di minore utilità per individuare l’ordine del processo.

Quello che ci è più utile in questa tipologia di modelli, al fine di individuarne l’ordine, è la partial correlation che ci dice la correlazione diretta tra 𝑌𝑡 e 𝑌𝑡−𝑘 e, quindi, senza passare per i valori intermedi. In sintesi, l’autocorrelazione dà informazioni sulla

Riferimenti

Documenti correlati

Le ricerche descritte in questa tesi sono state condotte presso il Dipartimento di Patologia Sperimentale, Biotecnologie Mediche, Infettivologia ed Epidemiologia dell’Università

In base a queste analisi si può aermare che la matching prior è una buona di- stribuzione a priori alternativa per i casi di studio trattati in quanto compete molto bene

Con questo modello si vuole indagare come interviene il neolaureato nella ricerca del lavoro e associato a quali altre determinanti agisce nel trovare il primo impiego; il

• Fino agli inizi degli anni ‘80 gli studi econometrici per la stima di serie storiche si sono focalizzati alla misurazione di valori nominali, reali o medie

Our evidence provides a nuanced picture of the impacts of an increasingly observed policy, the depenalization of cannabis: (i) across crimes related to cannabis, Class-A drugs,

Quello che, tuttavia, passa in secondo piano in questi lavori sono gli elementi qui esposti, ovvero la forma di comunicazione della piccola conferenza interdisciplinare come

Il Software Reengineering è il processo di manutenzione preventiva, che ha lo scopo di migliorare la futura manuntenibilità senza stravolgere le sue funzionalità e prevede le