• Non ci sono risultati.

Misurazione del rischio di mercato: procedura di selezione e backtesting su modellistica GARCH

N/A
N/A
Protected

Academic year: 2021

Condividi "Misurazione del rischio di mercato: procedura di selezione e backtesting su modellistica GARCH"

Copied!
62
0
0

Testo completo

(1)

Universit`

a di Pisa

DIPARTIMENTO DI ECONOMIA E MANAGEMENT

Corso di Laurea Magistrale in Banca, Finanza Aziendale e Mercati Finanziari

Tesi di laurea magistrale

Misurazione del rischio di mercato:

procedura di selezione e backtesting su modellistica

GARCH

Candidato:

Matteo Lostia

Matricola 443680

Relatore:

Prof.ssa Caterina Giannetti

(2)

Introduzione 4

1 La Misurazione del Rischio 6

1.1 Tratti formali delle misure di rischio . . . 6

1.2 Value at Risk . . . 7

1.3 Expected Shortfall . . . 8

1.4 Alcune evidenze empiriche delle serie finanziarie . . . 9

1.4.1 La non normalità dei rendimenti . . . 9

1.4.2 Pressoché assenza di correlazione tra rendimenti . . . 11

1.4.3 Elevata correlazione tra trasformazioni nei rendimenti . . . . 11

1.4.4 Effetto leverage . . . 12

2 Modelli ad Eteroschedasticità Condizionata 14 2.1 Varianza Condizionata e Non Condizionata . . . 14

2.2 Modello GARCH . . . 16

2.3 Modello T-GARCH e GJR-GARCH . . . 17

2.4 Modello EGARCH . . . 19

2.5 Modello AP-ARCH . . . 21

2.6 Distribuzioni di Probabilità Utilizzate . . . 22

2.6.1 Distribuzione Normale . . . 22

2.6.2 Distribuzione t-Student’s . . . 23

2.6.3 Generalized Error Distribution . . . 24

2.6.4 Distribuzioni Asimmetriche . . . 25

2.7 Procedura di Stima dei Modelli . . . 26

3 Procedura di Backtesting e selezione 29 3.1 Proportion of Failures Test di Kupiec . . . 29

3.2 Conditional Coverage Test di Christoffersen . . . 30

3.3 Procedura backtesting di Angelidis et al. . . 32

(3)

4 Analisi empirica 36

4.1 Analisi qualitativa della serie S&P 500 . . . 36

4.2 Procedure di stima e di previsione utilizzate . . . 40

4.3 Risultati dell’esperimento . . . 42

4.4 Considerazioni conclusive . . . 48

Conclusione 51 A Tabelle dei Risultati 52 B Test di Robustezza 56 B.1 Autocorrelazione e Ljung-Box Test . . . 56

B.2 Test Engle su effetti ARCH . . . 57

B.3 Test su impatto del segno delle innovazioni . . . 58

(4)

The need of proper investment decisions and capital adeguacy led practictioners and researchers in developing different statistical model specifications in order to forecast reliable market risk measurments.

Focusing on Autoregressive Conditional Heteroskedasticity (ARCH) models as statistical tools for forecasting conditional volatility and associated risk measures, this thesis provides an application of the two-stage procedure from Angelidis et al. as a guide to risk managers in backtesting and selecting the appropriate model in forecasting Value At Risk and Expected Shortfall.

Based on closing prices of S&P 500 index from 2007 to 2019, combinations of four classical GARCH models and six different error distributions are considered in order to forecast 1500 one-step-ahead Value at Risk, with confidence levels of 1% and 5%, and Expected Shortfall. In addition, in order to asses the impact of different number of past observations in forecasting, four type of forecasting windows are also considered and compared.

(5)

Introduzione

Il carattere aleatorio dei mercati finanziari, spesso anche turbolento, ha spinto e spinge costantemente practitioners e accademici allo sviluppo di metodologie quan-titative per la misurazione del grado di incertezza associato ad un dato investimento. Incertezza, aspettative e rischio rappresentano al giorno d’oggi elementi caratteriz-zanti le decisioni di investimento, tanto da aver dato vita ad un insieme di strumenti e strategie per ridurre al minimo le possibili perdite derivanti da eventi imprevisti. Tra le diverse misure di rischio, qui inteso come la possibilità di incorrere in variazioni del valore dell’attività detenuta a causa di variazioni nei fattori di mer-cato, il Value at Risk rappresenta certamente quella più conosciuta. Definito come la massima perdita che ci si aspetta di ottenere con una certa probabilità su una certa attività finanziaria, in un dato orizzonte temporale, offre sinteticamente una misura di perdita potenziale in eventi estremi. Ripreso anche dal Comitato di Basi-lea come strumento per il calcolo dei requisiti patrimoniali per istituti bancari, nel tempo sono state proposte numerose metodologie per il suo calcolo. Pur sintetico e di relativa semplicità di calcolo, il Value at Risk rappresenta comunque una mi-sura di rischio incompleta, nulla dicendo su ciò che potrebbe accadere se la perdita dovesse essere superiore a tale soglia. Per limitare questo suo deficit, il VaR viene accompagnato da una seconda misura di rischio, sua diretta estensione, nota come Expected Shortfall. Definito come la perdita media attesa in caso di perforazione della soglia del VaR, rappresenta insieme a quest ultimo una delle misure di rischio più conosciute e utilizzate.

All’interno delle metodologie di calcolo del VaR, particolare interesse ha susci-tato la modellistica ARCH-GARCH. Introdotti da R. F. Engle 1982 ed estesi in primis da Bollerslev 1986, i modelli ad eteroschedasticità condizionata sono mo-delli parametrici che cercano di stimare la volatilità, intesa come variabilità dei rendimenti nel tempo, associata ad una attività finanziaria. Essendo la volatilità un elemento base del calcolo del Value at Risk, oltre che una misura di rischio a sé stante, ben presto tale modellistica ha trovato fortuna in ambito di misurazione del rischio, anche e soprattutto grazie agli innumerevoli contributi ed estensioni che sono stati pubblicati nel tempo.

Tuttavia, se da una parte l’interesse verso la misurazione del rischio ha dato vita ad un fiorente campo di studi, con la pubblicazione di numerosi modelli in grado

(6)

della volatilità e delle misure di rischio. In altre parole, come può il risk manager selezionare il modello che più si presta per il suo caso?

Angelidis et al. hanno proposto a riguardo una procedura di selezione a due fasi. Nella prima fase, i modelli che il risk manager pensa di utilizzare vengono sottoposti a verifica per testare la loro capacità di prevedere dei VaR adeguati e statistica-mente corretti per la serie in oggetto. Nella seconda fase, i modelli che hanno superato i test precedenti vengono ordinati in base alla loro capacità di minimizza-re la diffeminimizza-renza tra perdita attesa stimata, in caso di violazione del VaR, e valominimizza-re effettivamente osservato.

Il presente lavoro, organizzato come segue, offre una applicazione di tale pro-cedura attraverso l’utilizzo di finestre temporali per la previsione della volatilità differenti al fine di coglierne eventuali differenze.

Il primo capitolo riporta un estratto della teoria su Value at Risk ed Expected Short-fall, con alcune considerazioni riguardo alcuni fatti normalmente riscontrati nelle serie storiche finanziarie. Nel secondo capitolo viene data una descrizione della teoria sui modelli ad eteroschedasticità condizionata utilizzati nella parte empirica, mentre nel terzo la descrizione riguarderà la procedura proposta da Angelidis et al. Infine, nel capitolo quarto sono riportati i risultati ottenuti dalla applicazione della procedura sopra citata che il modello di stima delle misurazioni dovrebbe essere in grado di tenere conto.

(7)

Capitolo 1

La Misurazione del Rischio

In questo capitolo verranno brevemente riportati i tratti teorici delle misure di rischio utilizzate nel lavoro. Dopo una prima descrizione della distribuzione delle perdite, verranno affrontate le misure di rischio Value at Risk e Expected Shortfall. In conclusione, verranno analizzate alcune delle regolarità empiriche solitamente riscontrate nelle serie storiche finanziarie.

1.1

Tratti formali delle misure di rischio

Sia (Ω, F, P ) lo spazio di probabilità in cui vengono definite le variabili aleatorie di seguito analizzate. Indicando con V (t) il valore di un portafoglio generico al tempo t e con ∆ l’orizzonte temporale considerato, le perdite sul portafoglio nel periodo (t, t + ∆) vengono espressi come:

Lt,t+∆ = −(V (t + ∆) − V (t)) (1.1)

Seguendo McNeil et al. 2005, per la presentazione degli aspetti teorici delle misure di rischio qui trattate si farà riferimento alla distribuzione delle perdite più che a quella generale dei profitti e delle perdite. Il segno negativo nella 1.1 consente di trattare le perdite come quantità positive, andando pertanto a focalizzare l’attenzione sulla coda destra della distribuzione di queste ultime, ma discorso analogo può comunque farsi riguardo la distribuzione dei profitti e delle perdite (P&L). Tenendo conto che P Lt,t+∆ = V (t + ∆) − V (t) = −Lt,t+∆, per misure di rischio su posizioni lunghe ci

si concentrerà in questo caso sulla coda sinistra della distribuzione.

Il valore del portafoglio al tempo t può essere rappresentato come funzione del tempo e di un vettore di d fattori di rischio al tempo t, Zt = (Zt,1, Zt,2, . . . , Zt,d),

nel quale possono essere ricomprese variazioni nei rendimenti dei titoli, variazioni nei tassi di interesse e, in genere, ogni fattore quantificabile e potenzialmente in grado di far variare il valore del portafoglio:

(8)

con f : R+× Rd → R. Indicando inoltre come Xt+∆ = (Zt+∆− Zt) la variazione

nei fattori di rischio per l’orizzonte ∆, la funzione Lt+∆ delle perdite all’epoca

successiva può essere riscritta come:

Lt+∆ = −(f (t + ∆, Xt+∆+ Zt) − f (t, Zt))

Infine, sia lt = f : Rd → R l’operatore delle perdite, funzione delle variazioni di

rischio tale che Lt+∆= lt(Xt+∆), indicato come:

lt(x) = −(f (t + ∆, Zt+ x) − f (t, Zt)) con x ∈ Rd (1.3)

Si consideri la distribuzione delle perdite e si assuma che le variazioni nei fattori di rischio formino una serie storica {Xt}

T

1, con distribuzione stazionaria

1.

Prenden-do l’istante corrente t, l’insieme delle informazioni disponibili fino a questo istante possono essere sintetizzate nella sigma-algebra generata dalle variazioni dei fattori di rischio fino all’epoca considerata, Ft = σ{Xs : s ≤ t}. La funzione di

ripar-tizione condizionata alle informazioni disponibili in t delle variazioni dei fattori di rischio nel periodo successivo, Xt+∆, viene indicata come FXt+∆|Ft:

FXt+∆|Ft = P (lt(Xt+∆) ≤ l | Ft) = P (Lt+∆ ≤ l | Ft) (1.4)

dove l ∈ R. Nella sezione 2.1 si vedrà come la varianza della distribuzione condi-zionata delle variazioni nei fattori di rischio sia funzione dei valori ritardati di tali fattori, intesi come variazione nei prezzi del titolo, e, a seconda del modello, dei valori ritardati della varianza condizionata stessa.

1.2

Value at Risk

Si consideri un portafoglio generico al tempo t, un orizzonte temporale ∆ e la fun-zione di ripartifun-zione delle perdite indicata come FL(l) = P (L ≤ l). Considerando

che la distribuzione FL non risulta essere limitata, o che non si è in grado di

indica-re una perdita massima assoluta, il Value at Risk può esseindica-re visto come la perdita massima in cui si può incorrere con una certa probabilità nell’orizzonte temporale ∆(McNeil et al. 2005).

Dato un livello di confidenza α ∈ (0,1), il Value at Risk al livello α è definito come il minor valore l tale per cui la probabilità che una perdita sia superiore al livello l non sia più alta di α nel periodo considerato. Formalmente:

V aR(α) = inf {l ∈ R : P (L > l) ≤ 1 − α} = inf{l ∈ R : FL(l) ≥ α}

Tipicamente, il livello di confidenza α viene fissato al 99% o al 95%, mentre l’orizzonte temporale a 1 o 10 giorni.

(9)

La Misurazione del Rischio

Da un punto di vista probabilistico, il Value at Risk rappresenta il quantile α della distribuzione delle perdite. Con α ∈ (0,1) e F funzione di ripartizione, la funzione del quantile α può essere indicata come:

qα(F ) = F←(α) = inf {x ∈ R : F (x) ≥ α}

dove F←(α) indica l’inversa generalizzata della funzione di ripartizione. Se la

funzione di ripartizione F risulta essere continua e strettamente crescente, si ha qα(F ) = F−1(α), con F−1 inversa della funzione di ripartizione (McNeil et al.

2005).

Poiché nel lavoro si assumerà una diversa distribuzione sottostante i rendimenti, si consideri a titolo esemplificativo il calcolo per il VaR con soglia α e una generica distribuzione di probabilità delle perdite indicata come F , con media µ e varianza σ2. Il VaR può essere quindi ottenuto come:

V aR(α) = µ + σF−1(α) = µ + σqα(F ) (1.5)

Dalla definizione tuttavia, il VaR nulla dice su ciò che potrebbe essere la perdita oltre tale soglia o, in altri termini, nulla dice sulla distribuzione delle perdite oltre tale soglia. Non è impossibile infatti che la distribuzione delle perdite possa essere di tipo bimodale, con un accumulo di probabilità per un intervallo delle perdite alla destra del VaR, del quale quest ultimo non sarebbe in grado di tener conto (Danielsson 2011, p. 80). In questo senso, il Value at Risk risulta essere una misura incompleta.

1.3

Expected Shortfall

Per colmare la lacuna del Value at Risk, la misura di rischio conosciuta come Expec-ted Shortfall va a considerare la distribuzione delle perdite oltre la soglia del VaR. L’ES può essere vista come la perdita attesa nel (1 − α) per cento dei casi, ovvero nel caso in cui la perdita dovesse superare la soglia definita dal VaR.

Si definisce Expected Shortfall la perdita attesa condizionata alla violazione del VaR, ovvero:

ESt(α) = E[Lt|Lt> V aRt(α)]

Considerando la funzione di ripartizione delle perdite FL, la misura di Expected

Shortfall può essere quindi calcolata come: ESt(α) = 1 1 − α Z 1 α qu(FL)du (1.6)

dove qu(FL) continua ad indicare la funzione del quantile u (Danielsson 2011)

(10)

Anziché definirsi come una soglia fissa di confidenza, la misura di Expected Shortfall va a configurarsi come una media dei VaR ai livelli u > α e, pertanto, capace di tener conto della forma della distribuzione delle perdite oltre la soglia del VaR al livello α considerato.

Sebbene la misura di Expected Shortfall possa apparire come alternativa al VaR, è opportuno fare alcune considerazione a riguardo. Riprendendo Danielsson 2011, l’ES presenta due debolezze principali. La prima consiste in una misurazione del ES con un grado di incertezza maggiore rispetto il VaR. Questo è dovuto al fatto che, in questo caso, per il suo calcolo occorre anzitutto calcolare il Value at Risk stesso, avendosi la prima fonte di incertezza sulla corretta stima di quest ultimo. Secondariamente, occorre calcolare l’aspettativa condizionata delle perdite nella coda destra rispetto al VaR stesso, dipendente dalla funzione di ripartizione ipotiz-zata, rappresentando questa una seconda fonte di incertezza che va ad aumentare il margine di errore nel calcolo.

La seconda debolezza risiede nelle difficoltà di backtesting del Expected Shortfall. Al contrario del VaR, che può essere confrontato con le osservazioni nel campione, le previsioni del Expected Shortfall dovrebbero essere confrontate con stime sulla distribuzione delle perdite, non su dati certi osservati.

La procedura proposta da Angelidis et al. 2006 e analizzata nella Sezione 3.3 tiene conto di questa difficoltà di backtesting della misura di Expected Shortfall, andando ad utilizzare quest’ultima come criterio per ordinare o classificare i diversi modelli in grado di produrre previsioni del VaR adeguate, più che per filtrarli direttamente.

1.4

Alcune evidenze empiriche delle serie

finanzia-rie

Le serie finanziarie si caratterizzano per la presenza delle cosiddette regolarità em-piriche, ovvero fatti riscontrati empiricamente presenti nelle serie storiche dei ren-dimenti in tempi e mercati differenti. L’importanza dell’analisi di queste proprietà sta nel fatto che i modelli che si intendono utilizzare per stimare le misure di rischio di interesse devono essere in grado di riprodurre tali regolarità, al fine di ottenere delle stime quantomeno attendibili. Come riferimento empirico si utilizzerà la serie dei prezzi di chiusura dell’indice S&P 500 da gennaio 2010 a gennaio 2019.

1.4.1

La non normalità dei rendimenti

Le distribuzioni dei rendimenti presentano solitamente una skewness negativa ed un eccesso di curtosi, con eventi estremi che si manifestano più frequentemente rispetto ad una distribuzione normale (Gallo et al. 2002)(Cont 2001). L’istogramma della serie di supporto in Figura 1.1, nel quale è stato tracciata la densità della

(11)

La Misurazione del Rischio

distribuzione normale per confronto, mostra un allontanamento da una condizione di simmetria con una skewness negativa e un eccesso di curtosi, o leptocurtosi, che si manifesta con la presenza di code più spesse. Misure sintetiche di skewness, curtosi e risultato del test J-B, riportate in Figura 1.1, confermano le conclusioni dell’analisi grafica. Come conseguenza di questa prima evidenza empirica, la distribuzione dei rendimenti si caratterizza per una maggior frequenza di eventi estremi, soprattutto negativi, e una distribuzione asimmetrica delle osservazioni.

S&P 500 Rendimenti Density −0.04 −0.02 0.00 0.02 0.04 0 20 40 60 80

Figura 1.1: Istogramma S&P 500 S&P 500 Media 0.0001962 Mediana 0.0002991 Max 0.0484032 Min -0.0418425 Std. Dev 0.0086234 Skewness -0.4937639 Curtosi 3.9094144 Jarque-Bera 680.8344115 Probabilità 0.0000000 Tabella 1.1: Misure Sintetiche S&P 500

(12)

1.4.2

Pressoché assenza di correlazione tra rendimenti

I rendimenti mostrano un basso e trascurabile grado di autocorrelazione2. Questo

fatto troverebbe conferma nella teoria della Efficient-Market Hypothesis, per la qua-le, se il mercato fosse effettivamente efficiente, i prezzi dovrebbero rispecchiare tutta l’informazione disponibile in un dato momento e, quindi, prezzi di periodi succes-sivi non dovrebbero essere correlati con prezzi delle giornate precedenti. Seguendo Cont 2001, se anche un grado di correlazione positiva tra rendimenti fosse presente, sarebbe possibile mettere in atto strategie di arbitraggio statistico che portino ad un rendimento atteso positivo. Allo stesso tempo, tali strategie tenderebbero a ridurre tale grado di correlazione, che rimarrebbe confinato nell’intragiornaliero.

1.4.3

Elevata correlazione tra trasformazioni nei rendimenti

Sebbene la correlazione lineare tra rendimenti possa essere tendenzialmente trascu-rabile, trasformazioni dei rendimenti presentano un grado di correlazione statisti-camente significativo (Gallo et al. 2002)(Cont 2001). In particolare, analizzando valore assoluto e quadrato dei rendimenti è possibile osservare un certo grado di persistenza nella magnitudo dei rendimenti che decade più o meno lentamente nel tempo. La presenza di correlazione tra trasformazioni dei rendimenti assume no-tevole importanza da un punto di vista teorico, in quanto porterebbe a rifiutare l’ipotesi che il processo generatore dei prezzi sia un processo i.i.d., in particolare che esso sia un processo indipendente (Cont 2001). In Figura 1.2 si riportano ACF di rendimenti, valore assoluto e quadrato dei rendimenti della serie S&P 500 con soglia di significatività allo 0.05. Il fenomeno di persistenza nella magnitudo di trasformazioni dei rendimenti prende il nome di Volatility Clustering, per il quale, considerando come proxy della volatilità il valore assoluto o il quadrato dei rendi-menti, si osservano periodi di grande volatilità seguire periodi con bassa volatilità. Da un punto di vista economico, tale persistenza nel grado di volatilità impliche-rebbe che sia necessario un certo periodo di tempo affinché un particolare evento, o più in generale una informazione, perda importanza. Intesa in questo senso, la volatilità non risulta essere costante nel tempo, ma rappresenta essa stessa una variabile aleatoria che porterebbe in sé un certo grado di prevedibilità in virtù della correlazione sopra indicata. Il fenomeno per cui si osservano gruppi di variabili aleatorie con un grado di volatilità diverso dalle altre prende il nome di eterosche-dasticità e, quando questa variazione nella volatilità risulta essere in qualche modo correlata, si parla di eteroschedasticità condizionata.

Per l’importanza che la volatilità riveste nella stima delle misure di rischio, occor-re che il modello da stimaoccor-re sia in grado anzitutto di tener conto della variabilità

(13)

La Misurazione del Rischio

nel tempo nella volatilità dei rendimenti e del legame che sussiste tra volatilità in periodi differenti.

1.4.4

Effetto leverage

Ulteriore proprietà condivisa tra le serie dei rendimenti è che rendimenti positivi e negativi hanno effetti asimmetrici sulla misura di volatilità, ciò a dire che inno-vazioni negative portano la volatilità ad aumentare o diminuire in modo diverso rispetto innovazioni della stessa dimensione ma con segno positivo. All’interno del mercato azionario si registra in particolare una correlazione negativa tra rendimenti e volatilità, effetto questo conosciuto come leverage effect (Cont 2001), per il quale la volatilità tende a crescere maggiormente in presenza di rendimenti negativi più che a variazioni positive nei rendimenti della stessa magnitudo.

(14)

0 5 10 15 20 25 30 0.0 0.4 0.8 Lag A CF ACF Rendimenti

(a) ACF Rendimenti S&P500

0 5 10 15 20 25 30 0.0 0.4 0.8 Lag A CF

ACF Valore Assoluto Rendimenti

(b) ACF Valore Assoluto Rendimenti S&P500

0 5 10 15 20 25 30 0.0 0.4 0.8 Lag A CF

ACF Quadrato Rendimenti

(c) ACF Quadrato Rendimenti S&P500

(15)

Capitolo 2

Modelli ad Eteroschedasticità

Condizionata

Si è visto come la presenza di autocorrelazione significativa tra trasformazioni dei rendimenti porterebbe a ritenere che questi ultimi non siano tra loro indipendenti. Tale dipendenza potrebbe dunque essere utilizzata riprodurre e proiettare in avanti questo comportamento manifestato dalla serie.

In questo capitolo verranno brevemente descritti i modelli utilizzati nel lavoro per la stima della volatilità condizionata.

2.1

Varianza Condizionata e Non Condizionata

Sia {rt}Tt=1 la serie temporale dei rendimenti di un generico titolo e si indichi con

Ft−1 l’insieme informativo disponibile alla generica epoca t − 1, contenente tutte

le informazioni riguardo i rendimenti fino al periodo t − 1 considerato. Si assuma inoltre che la serie dei rendimenti abbia una forma del tipo

rt= µt+ t (2.1)

in cui µt= E[rt|Ft−1]rappresenta la media condizionata dei rendimenti, o

aspetta-tiva tenente conto di ciò che è successo in passato, mentre trappresenta lo shock o

innovazione, con valore atteso condizionato E[t|Ft−1] = 0. La media condizionata

può essere espressa da un processo generico di tipo ARMA(p,q): µt= φ0+ p X i=1 φirt−i2 + q X j=1 θj2t−j

Riscrivendo la 2.1 t = µt− rt, è possibile indicare la varianza condizionata come:

σt2 = V ar [rt|Ft−1]

= E(rt− E [rt|Ft−1])2|Ft−1 = E 2t|Ft−1

(16)

da cui segue:

σt2 = V ar [rt|Ft−1] = E2t|Ft−1



La varianza condizionata della serie dei rendimenti può pertanto essere espres-sa come valore atteso condizionato del quadrato delle innovazioni (Gallo et al. 2002)(Brooks 2008). A differenza della varianza non condizionata, che può esse-re definita come la varianza della distribuzione non condizionata dei esse-rendimenti e assunta costante sul periodo di osservazione della serie, la varianza condizionata viene definita per un istante di tempo, condizionatamente a tutta l’informazione disponibile fino a quel momento. Misurata in questo caso attraverso la varianza, si può pensare alla volatilità condizionata come l’aspettativa sull’incertezza futura, tenendo conto degli avvenimenti accaduti fino al presente.

Uno dei primi modelli introdotti in letteratura che cerca di replicare il fenomeno della eteroschedasticità condizionata è il modello ARCH (Autoregressive Conditio-nal Heteroskedasticity) sviluppato da Engle (R. F. Engle 1982). Nel modello ARCH la varianza al tempo t, condizionatamente alle informazioni disponibili in t − 1, vie-ne espressa come funziovie-ne livie-neare del quadrato delle innovazioni passate.

Il modello generale viene espresso come: µt = φ0+ p X i=1 φir2t−i+ q X j=1 θj2t−j (2.2a) t = ηt p σ2 t ηt|Ft−1 ∼ Dist(0,1) (2.2b) σt2 = α0+ p X i=1 αi2t−i (2.2c)

dove l’innovazione al tempo t viene definita come un processo di prodotto tra la deviazione standard condizionata, per definizione variabile aleatoria, e una variabile aleatoria iid, indicata come ηt, che segue una qualche distribuzione standardizzata.

Assumendo che le variabili σ2

t e ηt siano tra loro indipendenti, dalla definizione di

varianza e dalla loro indipendenza, si ha che la varianza delle innovazioni sarà data da V ar[t] = E[η2t]E[σt2] = E[σt2], da cui segue che le innovazioni saranno distribuite

come t ∼ Dist(0, σ2t).

Affinché la varianza condizionata assuma valori positivi occorre che siano sod-disfatti i vincoli di positività α0 > 0 e αi ≥ 0 ∀i i = 1, 2, ..., p.

Applican-do la legge dei valori attesi iterati e assumenApplican-do la stazionarietà della serie delle innovazioni (Gallo et al. 2002) (Tsay 2005), è possibile ottenere la varianza non condizionata:

σ2 = V ar[rt] = E[2t] = E[E[ 2 t|Ft−1]] = E[σt2] σ2 = α0+ σ2 p X i=1 αi = α0 1 − α1− α2− ... − αp

(17)

Modelli ad Eteroschedasticità Condizionata

per la quale, come condizione di stazionarietà del processo, dovrà valere (α1+ α2+

...+ αp) < 1.

Dall’analisi della sua struttura, il modello ARCH(p) risulta essere in grado di replicare il fenomeno della persistenza della volatilità: realizzazioni delle innova-zioni al quadrato {2

t−i} p

i=1 abbastanza grandi implicherebbero una grande varianza

condizionata σ2

t per l’innovazione t (Tsay 2005).

Pur essendo in grado di replicare alcune delle regolarità empiriche delle serie finanziarie, il modello ARCH(p) ha lo svantaggio di non essere parsimonioso nei termini da stimare. In particolare, nel momento in cui la correlazione tra trasfor-mazioni dei rendimenti riguarda intervalli molto ampi, è possibile che la procedura di stima non sempre porti al rispetto delle restrizioni imposte per i parametri del modello (Brooks 2008).

Come nota allo sviluppo del capitolo, è importante notare come i modelli qui utilizzati siano costituiti da una equazione per la media condizionata ed una per la varianza condizionata. Poiché le caratteristiche delle diverse specificazioni dei modelli qui usati si ritrovano nell’equazione della varianza, nelle sezioni successive si assumerà che l’equazione della media condizionata abbia la forma vista nella 2.1.

2.2

Modello GARCH

Il Modello GARCH (Generalized Autoregressive Conditional Etheroskedasticity) sviluppato da Bollerslev (Bollerslev 1986) rappresenta una generalizzazione del pro-cesso ARCH descritto precedentemente. Muovendosi lungo la direttrice della ge-neralizzazione dei processi AR e MA tramite processi ARMA, il modello GARCH tenta di raggiungere una maggior parsimonia nei coefficienti da stimare affiancando la componente ARCH a ritardi della varianza condizionata. La varianza condi-zionata risulta pertanto una combinazione di p ritardi degli errori al quadrato (la componente ARCH), stimati tramite il modello della media condizionata, e q ritardi della varianza condizionata (la componente GARCH).

Il modello generico della varianza condizionata nel GARCH(p,q) assume la seguente forma: t= ηt p σ2 t ηt|Ft−1∼ Dist(0,1) (2.3a) σ2t = α0+ p X i=1 αi2t−i+ q X j=1 βjσ2t−j (2.3b)

dove t mantiene la forma di processo di prodotto visto per il modello ARCH.

Assumendo che la serie degli errori sia stazionaria e applicando la legge dei valori attesi iterati (Gallo et al. 2002) (Tsay 2005), è possibile esplicitare la relazione

(18)

intercorrente tra varianza condizionata e non condizionata nel modello GARCH: σ2 = V ar[rt] = E[2t] = E[σ

2 t] σ2 = α0 1 −Pp i=1αi− Pq j=1βj

Le restrizioni per la positività della varianza condizionata e per la stazionarie-tà della serie sono date in questo caso da α0 > 0, αi ≥ 0 ∀i, βj ≥ 0 ∀j e

Pp i=1αi+ Pq j=1βj <1.

L’analisi delle singole componenti consente di evidenziare alcune caratteristiche del modello in esame. La componente ARCH del modello misura la reazione della varianza condizionata alle innovazioni del mercato. Quando i coefficienti αi sono

molto grandi, la varianza condizionata sarà maggiormente sensibile ai cambiamenti del mercato. La componente GARCH del modello misura invece il grado di per-sistenza della volatilità, ovvero la misura in cui gli effetti passati, in termini di volatilità, influiscono sulla attuale varianza condizionata. La somma dei parametri αi e βi rappresenta la misura della velocità con la quale la varianza condizionata

converge verso la varianza non condizionata, o varianza media di lungo periodo, caratteristica questa conosciuta come il ritorno alla media. In base a quest’ulti-ma, previsioni della varianza condizionata effettuate attraverso il modello saranno sì variabili, ma nel lungo periodo tenderanno verso la varianza non condizionata (Alexander 2008)(Danielsson 2011). Insieme ai parametri αi e βi, il coefficiente

costante α0 influisce sul livello della varianza non condizionata, indicata come valor

medio di lungo termine del grado di volatilità.

2.3

Modello T-GARCH e GJR-GARCH

Come anticipato nella Sezione 1.4, rendimenti positivi e negativi possono avere effetti asimmetrici sulla varianza condizionata. A ben vedere, considerando il qua-drato delle innovazioni come unico parametro nella componente ARCH, il modello GARCH standard non è in grado di cogliere questa regolarità, caratterizzandosi in-fatti come modello di tipo simmetrico. Un primo modo per introdurre l’asimmetria è quello di rendere la componente ARCH funzione del segno dei rendimenti (Francq et al. 2019) (Taylor 2011) (Gallo et al. 2002).

Si consideri un livello λ delle innovazioni, solitamente posto a zero, e si supponga che al di sotto di tale livello la misura di volatilità condizionata futura risponda diversamente rispetto al caso in cui l’innovazione ritardata ne sia al di sopra. Un modello che specifichi la volatilità in funzione di questo livello, o valore soglia, viene chiamato in letteratura Threshold GARCH.

Il modello T-GARCH, sviluppato da Zakoïan, e quello GJR-GARCH, sviluppato da Glosten et al., rientrano tra i primi modelli con soglia studiati in letteratura (Gallo et al. 2002) (Francq et al. 2019).

(19)

Modelli ad Eteroschedasticità Condizionata

Considerando il T-GARCH di Zakoïan, si definiscano le innovazioni come: +t = max(t,0) e −t = min(t,0)

con con t= +t +  − t .

Il modello T-GARCH viene formalizzato come (Francq et al. 2019):

t= ηtσt ηt|Ft−1∼ Dist(0,1) (2.4a) σt= α0+ p X i=1 α+i +t−i− α− i  − t−i + q X j=1 βjσt−j (2.4b)

con ηt variabile i.i.d. con distribuzione standardizzata.

Attraverso i coefficienti ARCH α+ i e α

i , la volatilità condizionata corrente

di-pende dal segno e dalla magnitudo delle innovazioni passate, mentre la compo-nente GARCH rimane inalterata. I vincoli di positività della deviazione standard condizionata sono dati da α0 >0, α+i ≥ 0, α

i ≥ 0 e βi >0.

Il modello GJR-GARCH, variazione del modello precedente, viene definito come: t = ηtσt ηt|Ft−1∼ Dist(0,1) (2.5a) σt2 = α0 + p X i=1 αi+ γi1{t−i>0} 2 t−i+ q X j=1 βjσt−j2 (2.5b)

dove ηt variabile i.i.d. con distribuzione standardizzata, γi parametro dell’effetto

di asimmetria e 1{t−i>0} funzione indicatrice tale che, per ogni i:

1{t−i>0}=

(

1 t−i<0

0 t−i≥ 0

Nel GJR-GARCH pertanto le innovazioni ritardate al quadrato vengono pesate in modo differente a seconda del segno dell’innovazione ritardata t−1, ovvero per

αi + γi quando l’innovazione ritardata è al di sotto della soglia, o per αi in caso

contrario. I vincoli di positività della varianza condizionata saranno α0 >0, αi ≥ 0,

αi+ α−i >0, βj >0.

Seguendo Taylor 2011 e Alexander 2008 per la derivazione della varianza non condizionata e fattore di persistenza, si assuma che le innovazioni standardizza-te indicastandardizza-te come ηt abbiano una distribuzione continua e simmetrica, tale che

E1{t−i<0} =

1

2. Assumendo inoltre che la serie η 2

t sia stazionaria, in modo che

E[σ2

t] = σ2, e che queste siano indipendenti da 1{t−i<0}, da cui E1{t−i<0}η

2 t = 1

2, il fattore di persistenza sarà dato da:

P = α0+ p X i=1 αi+ 1 2α − i  + q X j=1 βj

(20)

e la varianza non condizionata da: σ2 = α0 1 − Pp i=1 αi+ 1 2α − i  + P q j=1βj 

Seguendo Ghalanos 2014, si noti come a causa della presenza della funzione indicatrice il fattore di persistenza sia condizionato dalla asimmetria della distribu-zione delle innovazioni scelta. Più in generale, si indicherà con k = E1{t−i<0}η

2 t

 il valore atteso delle innovazioni inferiori alla soglia prescelta (zero in questo caso) che rispecchi il grado di asimmetria della distribuzione scelta. Nel caso precedente, essendosi assunta una distribuzione simmetrica, il valore atteso è pari a k = 0.5.

2.4

Modello EGARCH

Oltre che per le sue caratteristiche di simmetria, una delle limitazioni del modello GARCH standard è rappresentata dai vincoli di non negatività posti nei coefficienti αi e βi per ottenere una varianza condizionata positiva. Nel tentativo di rispettare

questi vincoli, è possibile che la stima vincolata dei parametri porti ad una errata limitazione della dinamica del processo della volatilità condizionata stessa (Nelson 1991).

Introdotto da Nelson (1993), il modello Exponential GARCH offre soluzione a queste due limitazioni del modello GARCH. Il modello originale viene espresso nella forma di un MA(∞) (He et al. 2002)(Nelson 1991):

ln σ2 t = αt ∞ X i=1 βig(ηt−i) (2.6)

mentre per la sua stima si tende ad utilizzare la sua rappresentazione ARMA (Gallo et al. 2002) (Tsay 2005) (Brooks 2008) (Francq et al. 2019):

t = ηt p σ2 t ηt|Ft−1∼ Dist(0,1) (2.7a) ln σ2 t = α0+ p X i=1 αig(ηt−i) + q X j=1 βjln σ2t−j, α1 ≡ 1 (2.7b) g(ηt−i) = θiηt−i+ γj ηt−i − E[ ηt−i ]  (2.7c) con ηt= t/ p σ2

t sequenza i.i.d. delle innovazioni standardizzate con media nulla e

varianza unitaria. La sequenza di variabili casuali data dalla funzione g(·), a media nulla E[g(·)] = 0, risulta essere funzione lineare di ηt e E  ηt



. Di conseguenza, la forma della funzione g(·) varierà a seconda della distribuzione scelta per la variabile ηt. In particolare, definendo il valore atteso nella funzione come

E ηt  = Z +∞ −∞ η f(0,1, · · · ) dη

(21)

Modelli ad Eteroschedasticità Condizionata

dove f(0,1, · · · ) rappresenta la funzione di densità standardizzata, si possono indi-care le diverse forme del valore atteso come in figura 2.1 (Ghalanos 2014) (Taylor 2011) (Tsay 2005).

Distribuzione Valore Atteso ηt∼ N (0,1) E  ηt  = q 2 π ηt∼ T Sυ(0,1) E  ηt  = 2 √ υ−2Γ((υ+1)/2) (υ−1)Γ(υ/2)√π i ηt∼ GEDr(0,1) E  ηt  = √ Γ(2/υ) Γ(1/υΓ(3/υ)

Tabella 2.1: Forme valore assoluto per Distribuzione

Dalla 2.7b si evidenzia come il modello EGARCH modelli la varianza condi-zionata in termini logaritmici, con il vantaggio che, per qualsiasi valore attribuito ai parametri, la trasformazione esponenziale assicurerà la positività della varianza condizionata, ora con dinamica moltiplicativa rappresentabile come:

σt2 = eα0 p Y i=1 eαig(ηt−i) q Y j=1 (σ2 t−j)βj

La componente autoregressiva del modello Pq

j=1βjln σ2t−i misura come di

con-sueto la dipendenza dalla volatilità ritardata sulla stima della varianza condizionata nell’istante considerato. La funzione g(·) tiene invece conto degli eventuali effetti asimmetrici, considerando l’impatto sia del modulo dell’innovazione attraverso il parametro γ, sia del loro segno attraverso il parametro θi.

Seguendo Francq e Zakoïan (2019) (Francq et al. 2019), He (2002) (He et al. 2002), Tsay (2005) (Tsay 2005), riscrivendo la 2.7b con la notazione dell’operatore ritardo: ln σ2 t = α0+ α(L) β(L)g(ηt−1) in cui α(z) = Pp i=1αizi e β(z) = 1 − P q

i=1βizi sono polinomi tali che λi = α(L) β(L) =

P∞

i=1λiLi, la varianza non condizionata del modello EGARCH è data da:

E[2 t] = E[σ 2 t] = e α0 B(1) ∞ Y i=1 Eeλig(ηi) con B(1) = Pq i=0βi.

(22)

2.5

Modello AP-ARCH

Nella sezione 1.4 si è fatto riferimento al cosiddetto Effetto Taylor, in base quale il valore assoluto delle innovazioni mostra solitamente una autocorrelazione maggiore rispetto al quadrato delle stesse. Il modello Asymmetric Power ARCH introdotto da Ding, Granger ed Engle tiene conto di questo effetto e può essere formalizzato come segue: t = ηtσt ηt|Ft−1∼ Dist(0,1) (2.8a) σtδ = α0+ p X i=1 αi |t−i| − γit−i δ + q X j=1 βjσt−jδ (2.8b)

con α0 >0costante, αi >0e βj >0 rispettivamente parametri ARCH e GARCH,

| γi| ≤ 1parametro che tiene conto degli effetti asimmetrici e δ parametro del grado

di potenza (Ding et al. 1993).

A differenza dei modelli GARCH fin qui analizzati, il modello AP-ARCH non va a modellare il quadrato o il valore assoluto delle innovazioni nell’equazione per la volatilità, bensì evita di specificare a priori il grado della potenza. Il parametro δ verrà dunque stimato sulla base dei dati, incrementando così la flessibilità del modello (Francq et al. 2019).

Il coefficiente γi consente al modello di tener conto degli effetti di asimmetria.

Senza perdita di generalità, si riscriva la componente ARCH come: |t−i| − γit−i δ = ( | t−i|δ(1 − γi)δ se t−1 >0 | t−i|δ(1 + γi)δ se t−1≤ 0

Avendo posto | γi| ≤ 1, l’impatto di una innovazione con segno negativo sarà dunque

maggiore di quello di una con segno positivo della stessa dimensione, coerentemente con il leverage effect tipico dei mercati azionari.

A seconda dei valori assunti dai parametri δ e γi, il modello APARCH incorpora

in sé altri modelli GARCH. Tra quelli visti in precedenza, in caso di δ = 2 e γi = 0

si otterrà il GARCH standard, con δ = 2 e γ /= 0 un GJR-GARCH e con δ = 1 e γ /= 0 il T-GARCH di Zakoïan.

Sostituendo nella 2.8b t= σtηte considerando che {t>0} = {ηt>0}(Francq

et al. 2019)1, dopo alcuni passaggi algebrici si ottiene il valore atteso della misura

di volatilità condizionata Eσδ come:

tδ = α0 1 −Pp

i=1αiE[f (ηt−i)] −

Pq

j=1βj

1Ciò a dire che, data la positività della deviazione standard nel processo, il segno di η t determinerà il segno dell’innovazione t

(23)

Modelli ad Eteroschedasticità Condizionata

la cui condizione di esistenza è data da:

p X i=1 αiE[f (ηt−i)] + q X j=1 βj <1

con f(ηt−i) = (| ηt−i| − γiηt−i)δ.

Il valore atteso della funzione f(·) avrà una forma differente a seconda della distribuzione ipotizzata per il processo ηt. Seguendo Ding et al. 1993 e Karanasos

et al. 2006, la forma del valore atteso per diverse distribuzioni viene riportato in tabella 2.2.

Distribuzione Valore Atteso ηt ∼ N (0,1) E[f (ηt)] = √1π h (1 − γi)δ+ (1 + γi)δ i 2(δ+12 )Γ δ 2 − 1  ηt ∼ tυ(0,1) E[f (ηt)] = (υ−2)δ2Γ(υ−δ2 )Γ(δ+12 ) Γ(υ2)2√π (1 − γt) δ+ (1 + γ t)δ  ηt ∼ GEDr(0,1) E[f (ηt)] =(1 − γt)δ+ (1 + γt)δ  Γ(δ+1υ )λ δ2(δυ −1) γ(1υ)

Tabella 2.2: Forme valore atteso per Distribuzione

2.6

Distribuzioni di Probabilità Utilizzate

Si è fatto presente come le serie dei rendimenti non si caratterizzino per l’avere una distribuzione normale, mostrando una maggior frequenza di rendimenti estremi e un grado di asimmetria variabile a seconda della serie considerata. L’ipotesi di normalità dei rendimenti potrebbe quindi portare a problemi di bontà di adatta-mento del modello al ’vero’ processo generatore dei dati e ad un basso grado di affidabilità nelle previsioni, soprattutto nel caso in cui i modelli impiegati si basano sull’assunzione a priori della distribuzione dei rendimenti. Tenendo conto di ciò e non conoscendo l’esatta forma della distribuzione empirica, sarebbe opportuno l’impiego di distribuzioni che si allontanano da quella normale. In questa sezione si analizzeranno in breve le distribuzioni utilizzate nel lavoro.

2.6.1

Distribuzione Normale

Utilizzata nei lavori originari di R. F. Engle 1982 e Bollerslev 1986, la distribuzione Normale o Gaussiana è una distribuzione di probabilità simmetrica e unimodale

(24)

completamente descritta da due parametri (µ, σ2) dati dalla media, che funge da

parametro di locazione di maggiore accumulo delle osservazioni, e la varianza, che ne misura la dispersione delle osservazioni.

La funzione di densità di probabilità di una generica variabile aleatoria x distri-buita normalmente con media µ e varianza σ2 > 0 indicata come x ∼ N(µ, σ2) è

data da:

f(x|µ, σ2) = 1

σ√2πe

−(x−µ)2

2σ2

che in caso di standardizzazione della variabile, z = x−µ σ  , diventa: f(z|0, 1) = √1 2πe −(x)22

Essendo perfettamente simmetrica, la distribuzione normale ha Skewness pari a 0 e Curtosi pari a 3, indicando perfetta simmetria e assenza di code spesse.

2.6.2

Distribuzione t-Student’s

Introdotta da Bollesrlev per la distribuzione delle innovazioni standardizzate, la t-Student’s è la prima alternativa alla distribuzione normale che tiene conto del fenomeno delle fat tails (Bollerslev 1986).

Date due variabili aleatorie A e B con distribuzioni A ∼ N (0,1) e υB2 ∼ χ2υ

si definisce (Forbes et al. 2011) distribuzione t-Student’s con υ gradi di libertà la distribuzione della variabile X = A/B, qui indicata come X ∼ tυ. Valore Atteso,

varianza e funzione di densità della t-Student’s sono date da: E[X] = 0 V ar[X] = υ υ −2 f(x|υ) = Γ [(υ + 1)/2] Γ(υ/2)√υπ(1 + x2/υ)(υ+1)/2 dove Γ(z) = R∞ 0 e

−ttz−1dt viene detta Funzione Gamma. I gradi di libertà υ

rap-presentano l’unico parametro che caratterizza completamente la distribuzione in oggetto. Essendo anche la t-Student’s unimodale simmetrica, centrata sullo zero, l’indice di asimmetria Skewness è pari a zero, mentre l’indice Curtosi K = 3(υ−2)

υ−4 ,

con υ > 4, varia in base ai gradi di libertà, caratterizzando la distribuzione con code più spesse per bassi gradi di libertà. Variando υ, la distribuzione t-Student’s avrà pertanto code più o meno spesso rispetto la normale e, in particolare, per gradi di

(25)

Modelli ad Eteroschedasticità Condizionata

libertà crescenti υ → +∞ la distribuzione tende ad approssimarsi ad una normale standardizzata.

Per la distribuzione standardizzata, si consideri ora una t-Student’s governa-ta da tre parametri di locazione µ, scala σ e forma υ, quest’ultimo indicante i gradi di libertà (Ghalanos 2014) (Jackman 2009). Con X ∼ tυ, operando una

trasformazione lineare si ottiene la variabile: Y = σX + µ da cui si ottengono i seguenti momenti:

E[Y ] = µ V ar[Y ] = σ2 υ

υ −2 υ >2 La funzione di densità della variabile Y ∼ t(µ, σ, υ) è:

f(y|µ, σ, υ) = Γ [(υ + 1)/2] Γ(υ/2)σ√υπ " 1 + 1 υ  y − µ σ 2#− υ+1 2 (2.9) e poiché per la standardizzazione si richiede V ar[Y ] = 1:

V ar[Y ] = 1 = σ2 υ

υ −2 σ2 = υ −2

υ

sostituendo per σ nella 2.9, si ottiene la t-Student’s standardizzata f(y|0, 1, υ) = Γ [(υ + 1)/2] Γ(υ/2)p(υ − 1)π  1 + y 2 υ −1 −υ+12

2.6.3

Generalized Error Distribution

La Generalized Error Distribution (GED) è una ulteriore alternativa alla Norma-le e alla t-Student’s utilizzata da Nelson per la distribuzione delNorma-le innovazioni nel modello EGARCH. Anche nota come Error Distribution o Exponential Power Di-stribution, è una distribuzione simmetrica e unimodale definita completamente da tre parametri: fattore di locazione α, fattore di scala β e parametro di forma (shape parameter) r, che ne controlla la curtosi (Nelson 1991)2. Nel lavoro, una variabile

2Il parametro di forma viene in alcuni casi indicato come r = 2/c, in altri, come Box Tiao (1973), il parametro è indicato come r= 2

1+c. Formalizzazioni della funzione di densità differenti da quella indicata sono ricondotte a questo. (Forbes et al. 2011)

(26)

x con distribuzione GED verrà indicata con x ∼ GEDr(α, β, r). La funzione di

densità (Forbes et al. 2011) (Ghalanos 2014) della GED è data da: f(x|α, β, r) = exph−1 2 |x−α | σ ri σ21/r+1Γ(1 r) (2.10) dove Γ(z) è la funzione Gamma vista per la t-Student’s. Essendo unimodale e sim-metrica, si ha che mediana, moda e media coincidono, mentre l’indice di skewness è pari a zero. La varianza e indice di Curtosi sono dati da

V ar[X] = β222/rΓ 3 r  Γ 1 r  K = Γ[5/r]Γ[1/r] [Γ(3/r)]2

con K che varia in funzione del parametro di forma r, da stimare. In particolare, per parametro r > 2 si sarà in presenza di leptocurtosi, caso tipico dei rendimenti finanziari, mentre con r < 2 la distribuzione sarà platicurtica. Per r = 2 si avrà una distribuzione Normale, mentre per r → ∞ la distribuzione tenderà verso una distribuzione uniforme. Come per la t-Student’s, ponendo V ar[X] = 1 si ricava il valore di β da sostituire nella 2.10, attraverso cui è possibile ottenere la GED standardizzata (Ghalanos 2014) (Nelson 1991):

f(y|α, β, r) = r exph−1 2 y β ri β21/r+1Γ(1 r) con λ = " Γ 1 r  22/rΓ 2 r  #12

2.6.4

Distribuzioni Asimmetriche

Per tenere conto dell’asimmetria nella distribuzione dei rendimenti, oltre le distri-buzioni viste in precedenza si utilizzerà anche una loro versione asimmetrica. Se-guendo Angelidis et al., la procedura proposta da Fernàndez e Steel per introdurre l’asimmetria nella distribuzione t-Student’s verrà utilizzata per ottenere le versio-ni asimmetriche delle tre distribuzioversio-ni viste sopra attraverso il pacchetto rugarch (Ghalanos 2014). Tale procedura consente di trasformare una distribuzione conti-nua e simmetrica intorno allo zero in una asimmetrica introducendo un parametro di scala, a valori reali, γ > 0 nella funzione di densità f(x) da trasformare della

(27)

Modelli ad Eteroschedasticità Condizionata

variabile x (Fernández et al. 1998). La nuova funzione di densità con parametro γ è data da: f(x|γ) = 2 γ+ 1 γ  f x γ  1[0,∞)(x) + f (γx)1(−∞,0)(x) 

Il parametro γ governa l’asimmetria della distribuzione, intervenendo in modo dif-ferente a seconda del segno della variabile x in virtù della funzione indicatrice. La distribuzione trasformata conserva l’unimodalità della distribuzione sottostante, ma perde la simmetria per valori γ /= 1. Per valori di γ > 1 si otterrà una distribu-zione condizionata con skewness positiva mentre con valori inferiori all’unità una distribuzione con skewness negativa (Forbes et al. 2011).

2.7

Procedura di Stima dei Modelli

Per la stima dei parametri dei modelli ARCH-GARCH nella pratica si ricorre al metodo di stima di massima verosimiglianza (MLE). Avendo presentato i diversi modelli senza assumere una particolare distribuzione dei residui standardizzati, di seguito si riporta la procedura per un processo generico di stima di massima verosimiglianza dei parametri.

Siano θ = (θ1, θ2, . . . , θn) ∈ Θ il vettore costituito dagli n parametri che si

intendono stimare, con Θ l’insieme dei possibili parametri che rispettano eventuali restrizioni poste, e {rt}Tt=1 i dati osservati sotto la forma rt = µt + , con t =

ηt

σ2. I residui standardizzati η

t = (rt− µt)/σt si assumono osservazioni i.i.d con

distribuzione standardizzata che può dipendere da uno o più parametri, indicata con Dist(0,1). Si avrà:

ηt∼ Dist(0,1) rt ∼ Dist(µt, σt)

con µt e σ2t che continuano ad indicare media e varianza condizionata, funzioni del

set informativo Ft−1. Si è visto nella Sezione 2.6 che distribuzioni diverse dalla

Normale hanno parametri aggiuntivi, come i gradi di libertà υ per la t-Student’s e il fattore di forma r per la GED. Questi parametri rientrano nel vettore θ dei parametri da stimare. Seguendo Taylor e mantenendone la notazione (Taylor 2011), scomponendo il vettore θ dei parametri in θ∗ e θ, la densità condizionata della

t-esima osservazione può essere indicata come: f(rt Ft−1, θ) = f(ηt(θ∗) θ•) pσ2 t(θ∗)

dove la parte destra dell’equazione consente di esplicitare il fatto che ηt(θ∗)e σ2t(θ ∗)

sono funzioni del sottoinsieme θ∗, contenente i possibili parametri per modelli di

(28)

standardizzate saranno determinati all’interno del rimanente sottoinsieme di θ, θ•.

La funzione di verosimiglianza come funzione dei parametri in θ, data dal prodot-to delle densità condizionate3 f(r

t

Ft−1) dei rendimenti osservati {r1, r2, . . . , rT},

viene indicata come:

L(θ) = f (rT FT −1)f (rT −1 FT −2) . . . f (r1 F0)

Dato che il metodo si basa sulla massimizzazione della funzione, l’utilizzo della tra-sformazione logaritmica non altererebbe i punti di massimo e minimo della funzione, ma ne consentirebbe una più agevole trattazione. Si avrà:

L(θ) = T Y t=2 Lt(θ) ⇒ ln(L(θ)) = T X t=2 lt(θ)

con lt(θ) elemento della funzione di verosimiglianza condizionata relativa alla

t-esima osservazione data da:

lt(θ) = ln f (rt|Ft−1, θ) = −

1 2ln σ

2

t(θ) + ln f (ηt(θ))

Per le condizioni del primo ordine si ottiene il vettore st(θ)delle derivate parziali

prime per lt(θ):

st(θi) =

δlt(θ)

δθi

, con 1 ≤ i ≤ n

3La forma della funzione di verosimiglianza viene ottenuta tramite la procedura di prediction error decomposition. Poiché l’ipotesi di rendimenti finanziari i.i.d. non viene accettata, la funzione di verosimiglianza non può essere espressa come prodotto di funzioni di densità marginali identiche per singola variabile casuale (Gallo et al. 2002). Indicando la densità di probabilità congiunta di {rt}T1 come f(r1, . . . , rT), è tuttavia possibile esprimere la funzione di probabilità congiunta come prodotto tra distribuzione marginale congiunta e una di probabilità congiunta. Con continue sostituzioni si ottiene: f(r2, . . . , rT; r1) = f (rT FT −1)f (rT −1, . . . , r2; r1) = f (rT FT −1)f (rT −1 FT −2)f (rT −2, . . . , r2; r1) . . . = T Y i=2 f(ri) Fi−1)

La produttoria parte da t = 2 in quanto in t = 1 si ha una dipendenza da σ2

1, sconosciuto. Nella pratica (Danielsson 2011) (Gallo et al. 2002), l’inizializzazione della procedura prevede la sostituzione di σ12con la varianza non condizionata della serie analizzata.

(29)

Modelli ad Eteroschedasticità Condizionata

e lo stimatore di massima verosimiglianza ˆθi viene quindi ottenuto risolvendo le n

equazioni:

T

X

t=2

st(θi) = 0, con 1 ≤ i ≤ n

Attraverso la stima di massima verosimiglianza il vettore dei parametri viene sti-mato come il vettore che massimizza la funzione di massima verosimiglianza

ˆ

θ = arg max

θ ln(L(θ))

Seguendo Angelidis , la tabella 2.3 riporta la funzione di log-verosimiglianza per innovazioni ηt con distribuzione Normale, t-Student’s e GED standardizzate

(Angelidis et al. 2004), con λ definito come in 2.6.3. Distribuzione Log-LF ηt ∼ N (0,1) lT(θ) = −12 h T ln(2π) +PT t=1η 2 t + PT t=1ln(σ 2)i ηt ∼ tυ(0,1) lT(θ) = T ln Γ υ+12  − ln Γ υ2 − 12ln [π(υ − 2)]  −1 2 PT t=1 h ln(σ2 t) + (1 + υ) ln  1 + ηt2 υ−2 i ηt ∼ GEDr(0,1) lT(θ) = PT t=1ln r λ − 1 2 ηt λ r −(1 + r−1) ln(2) − ln Γ 1 r − 1 2ln(σ 2 t) 

Tabella 2.3: Funzione Log-Verosimiglianza innovazioni per distribuzioni standardizzate

(30)

Procedura di Backtesting e selezione

In questo capitolo sarà esaminata la procedura proposta da Angelidis et al. per il backtesting dei modelli VaR e individuazione del miglior modello nella previsione dello Expected Shortfall (Angelidis et al. 2006).

Verranno dapprima enunciati i test utilizzati nella procedura, cui seguirà una descrizione della procedura stessa e, in conclusione, un confronto fra le tipologie di finestre temporali utilizzate per la previsione della volatilità condizionata nel presente lavoro.

3.1

Proportion of Failures Test di Kupiec

Il test Proportion of Failures di Kupiec rappresenta il primo test appartenente alla prima fase di selezione dei modelli secondo la procedura di Angelidis et al. Attraverso tale test, anche noto come Unconditional Coverage Test, si cerca di sottoporre a verifica l’ipotesi che il modello sia correttamente specificato in modo che il numero di violazioni del VaR giornaliero osservate siano statisticamente uguali al numero di violazioni atteso. Pubblicato da Paul Kupiec nel 1995 nell’articolo ’Techniques for verifying the accuracy of risk measurement model’, il test viene successivamente ripreso e ampliato da Christoffersen (Christoffersen 1998).

Sia {rt}T1 la successione dei rendimenti giornalieri appartenente al campione out

of sample utilizzato per il backtesting e sia {V aRt(α)}T1 la serie delle previsioni

del VaR giornaliero al livello α. La funzione indicatrice delle violazioni può essere indicata come:

It(α) =

(

1 se rt≤ V aRt(α)

0 negli altri casi (3.1) con ciascun It(α) distribuito secondo una bernoulliana. In base all’ipotesi nulla di

(31)

Procedura di Backtesting e selezione

essere pari alla soglia di confidenza α, ovvero

P r[It(α) = 1] = E[It(α)] = α

Nel test UC (o PoF), l’ipotesi nulla E[It(α)] = α viene confrontata con l’ipotesi

alternativa E[It(α)] /= α che è rappresentata dalla possibilità che il modello

sovra-stimi o sottosovra-stimi il rischio (Christoffersen 1998).

Indicando il numero delle violazioni osservate come N = PT

1 It(α)con distribuzione

binomiale N ∼ B(T, α), il test di copertura incondizionata UC si costruisce come il rapporto tra le verosimiglianze (Likelihood ratio) della ipotesi nulla e di quella alternativa rispettivamente, ovvero:

LRuc= −2 ln(1 − α)T −NαN + 2 ln (1 − π)T −NπN



che si distribuisce come una chi-quadro con un grado di libertà LRuc → χ2(1)

(Christoffersen 1998) (Angelidis et al. 2004) (Angelidis et al. 2006).

In conclusione, il Test UC di Kupiec si concentra principalmente sulla capacità del modello di ottenere un numero di violazioni statisticamente non troppo alto o troppo basso, coerente con la soglia di significatività prescelta.

Riprendendo Christoffersen, un test di questo genere sarebbe tuttavia incompleto. Secondo l’Autore, un test adeguato dovrebbe tener conto non solo del numero delle violazioni totali, ma anche della frequenza di queste violazioni nel tempo o, in altri termini, deve essere in grado di valutare che le violazioni non avvengano a grappolo, ma siano tra loro indipendenti (Christoffersen 1998).

3.2

Conditional Coverage Test di Christoffersen

Come anticipato nella sezione precedente, Christoffersen ha proposto una estensione del test di Kupiec chiamata Conditional Coverage Test, un test congiunto sulla copertura non condizionata e sulla indipendenza delle violazioni.

Partendo dal test di indipendenza, l’Autore confronta l’ipotesi nulla di indi-pendenza delle violazioni con l’ipotesi alternativa che le violazioni It seguano un

processo di Markov del primo ordine.

Sia It un processo di Markov del primo ordine e πij = P r[It = j|It−1 = i]

probabilità di transizione dallo stato i allo stato j, per i, j = 0,1.

In caso di indipendenza delle violazioni, si avrà che la probabilità di ottenere o meno una violazione in t sarà indipendente dal fatto di aver ottenuto o meno una violazione nel periodo precedente.

Indicando con ni,j numero di osservazioni del campione in cui si è manifestato

l’evento j assumendo che l’evento i si sia manifestato nella giornata precedente, si ha π0 = n01 n00+ n01 , π1 = n11 n10+ n11

(32)

che rappresentano le frequenze delle violazioni osservate condizionatamente allo stato i della giornata precedente, cui si aggiunge quella non condizionata

π = n01+ n11 n00+ n01+ n10+ n11

Testare l’indipendenza delle violazioni equivale in questo caso a testare la con-dizione:

π0 = π1 = π

L’ipotesi nulla di indipendenza delle violazioni ha (Christoffersen 1998) (Virdi 2011) funzione di verosimiglianza data da

LInd = (1 − π)n00+n10πn01+n11

mentre l’ipotesi alternativa di processo markoviano, non indipendente, avrà funzio-ne di verosimiglianza pari a

LM ar = (1 − π01)n00π01n01(1 − π11)n10π11n11

Il test di indipendenza si costruisce quindi come rapporto tra verosimiglianze LRind= −2 ln(1 − π)n00+n10πn01+n11



+ 2 ln [(1 − π01)n00π01n01(1 − π11)n10π11n11]

che si distribuisce secondo una distribuzione chi-quadro con un grado di libertà LRind→ χ2(1) (Christoffersen 1998) (Angelidis et al. 2006) (Virdi 2011).

Il test di copertura condizionata (conditional coverage o CC) viene ottenuto come test congiunto del test di indipendenza appena esposto e del test di copertura non condizionata di Kupiec visto nella Sezione 3.1. L’ipotesi nulla del test congiunto è che le violazioni siano statisticamente uguali a quelle attese e che siano tra loro non correlate, o indipendenti. Formalmente, l’ipotesi nulla da confrontare con quella alternativa, assume la seguente forma:

H0 : π0 = π1 = α

con α livello di copertura associato al VaR e

H1 : π0 = α/ e/o π1 = α/

ipotesi alternativa. Il test assume la seguente forma di rapporto tra verosimiglianze (Christoffersen 1998):

LRcc= − 2 ln(1 − α)n00+n01αn10+n11



+ 2 ln [(1 − π01)n00πn0101(1 − π11)n10π11n11]

che si distribuisce secondo una distribuzione chi-quadro con due gradi di libertà LRcc → χ2(s(s − 1)) = LRcc → χ2(2)

(33)

Procedura di Backtesting e selezione

3.3

Procedura

backtesting di Angelidis et al.

Quella proposta da Angelidis et al. (2006) rientra nelle procedure definite di back-testing, ovvero procedure tese a valutare la capacità previsionale del modello e della sua corretta specificazione. Al fine di poter effettuare una valutazione delle previsioni effettuate tramite i modelli, delle osservazioni effettivamente realizzatesi occorrono come termine di paragone. In questa sede, la procedura di backtesting fa uso delle previsioni definite out-of-sample di seguito descritte. Si supponga di avere a disposizione una serie {rt}T1 e di suddividere quest’ultima in due sottoinsiemi: il

primo da t = 1 a t = T∗ e uno da t = T

+ 1 alla scadenza t = T . Sul primo sottoinsieme, i parametri dei modelli vengono stimati e utilizzati per effettuare la prima previsione ad un passo, corrispondente a ˆrT∗+1. Ottenuta la previsione,

que-st’ultima si confronta con la realizzazione empirica corrispondente alla stessa data, rT∗+1. La procedura si sposta di un passo in avanti e si effettua la previsione per

la data t = T∗+ 2 utilizzando anche l’osservazione effettiva r

T∗+1 e così via, fino

ad ottenere tante previsioni ˆrs tante quante sono le giornate del secondo

sottoin-sieme. Al termine di tale procedura si confrontano le previsioni con le osservazioni empiriche a disposizione, eventualmente mediante l’utilizzo di test statistici.

La procedura di backtesting proposta da Angelidis et al. si compone essenzial-mente di due fasi.

Nella prima fase della procedura si generano le previsioni out of sample della volatilità condizionata attraverso i modelli scelti per tutta la lunghezza del sotto-campione. Da tali previsioni vengono calcolati i VaR alle soglie α prescelte tramite la 1.5:

[

V aRt+1|t(α) = ˆµt+1|t+ ˆσt+1|tqα(Ft) (3.2)

dove ˆµt+1|t, ˆσt+1|t sono rispettivamente le previsioni della media e la deviazione

standard condizionate, mentre qα(Ft) la funzione del quantile α calcolata

attra-verso i parametri della distribuzione F stimati in t. A questo punto, la selezione dei modelli avviene in funzione dei risultati dell’applicazione dei test di uncondi-tional coverage e conditional coverage esposti nelle Sezioni 3.1 e 3.2. Ciò consente anzitutto di tralasciare i modelli che generano previsioni del VaR con numero di violazioni statisticamente troppo grande o troppo piccolo in relazione al numero di violazioni atteso per la soglia α prescelta e, secondariamente, quei modelli che generano previsioni con violazioni tra loro non indipendenti (Angelidis et al. 2004) (Angelidis et al. 2006).

Sebbene il test di Christoffersen sia un test congiunto di copertura non con-dizionata e di indipendenza delle violazioni, risulta comunque utile applicare allo stesso tempo quello di Kupiec in via autonoma. Può accadere, infatti, che alcuni modelli che generano violazioni non in linea con quelle attese siano in grado co-munque di superare il test congiunto di CC (Ghalanos 2014). Nei risultati ottenuti dagli esperimenti, un caso di questo genere si è avuto per il modello GJR-GARCH con distribuzione GED nel caso di finestra mobile a 500 giorni e soglia α al 95%:

(34)

il modello è stato in grado di superare il test congiunto di Christoffersen, ma non quello di Kupiec.

Alla fine di questa prima fase, si sarà comunque ottenuta solo una filtrazione di modelli adeguati per la previsione del VaR, ma non si è ancora in grado di classificarli in base alle loro prestazioni.

Di conseguenza, nella seconda fase della procedura non si andrà tanto a validare i modelli, già validati nella fase precedente, quanto a classificarli in base alla loro capacità previsionale. A tal fine, attraverso i VaR alle diverse soglie per i modelli che hanno superato la prima fase, vengono calcolate le misure di Expected Shortfall attraverso la Formula 1.6:

ESt+ 1|t = E(yt+1|(yt+1≤ [V aRt+1|t(α) )) (3.3)

Vengono a questo punto costruite due funzioni di perdita per ciascun modello i con i= 1, ..., M, una per il valore assoluto degli scarti tra perdita attesa (ES) e perdita effettivamente osservata e un’altra per il quadrato di tali scarti. Considerando la serie per il backtesting {rt}T1, le funzioni di perdita vengono di seguito riportate:

Ψ(i)1,t+1= ( rt+1− ESt+1|t(i) se rt≤ V aR(i)t (α) 0 altrove (3.4) Ψ(i)2,t+1= ( rt+1− ES (i) t+1|t 2 se rt≤ V aR (i) t (α) 0 altrove (3.5)

Attraverso le funzioni di perdita, gli indici Root Mean Square Error (RMSE) e Mean Absolute Error (MAE) vengono calcolati per ciascun modello, e ordinati in funzione del minor valore di questi ultimi:

M AE(i) = PT t=1Ψ (i) 1,t T

che calcola la media aritmetica degli errori di previsione in valore assoluto; RM SE(i) = s PT t=1Ψ (i) 2,t T

che invece calcola la radice quadrata della media degli errori di previsione al qua-drato, in modo da dare maggior peso agli errori più grandi in modulo (Gallo et al. 2002).

La procedura descritta consente pertanto di:

1. Tralasciare i modelli che generano violazioni statisticamente troppo alte o troppo basse, e tra loro correlate, individuando quindi i modelli VaR adeguati. 2. Classificare i modelli VaR adeguati in funzione della loro capacità di mi-nimizzare lo scarto tra perdita attesa e perdita effettivamente osservata, individuando quali tra questi modelli sono in grado di offrire stime più precise.

(35)

Procedura di Backtesting e selezione

3.4

L’utilizzo di Finestre Temporali nelle previsioni

Parte dell’obiettivo di questo lavoro sarà quello di valutare come i risultati del-l’applicazione della procedura poc’anzi esposta possano variare in funzione di una diversa finestra temporale utilizzata per la previsione ad un passo della varianza condizionata. In questa sezione verrà riportata una breve descrizione dei due tipi di finestre temporali utilizzate e delle previsioni tramite di esse, al fine di poterne cogliere le differenze.

La prima tipologia di finestra temporale considerata è la cosiddetta moving win-dow o finestra mobile. In questo primo tipo, la dimensione della finestra rimane costante mentre cambiano le osservazioni in essa contenuta man mano che ci si spo-sta nel tempo. A titolo esemplificativo, si supponga di avere a disposizione la serie storica {xt}T1 composta da T osservazioni. Fissando la dimensione della finestra

mobile ad un punto arbitrario della serie m = t∗, si stimano i parametri del

mo-dello attraverso queste prime t∗ osservazioni. Tramite tali parametri, si genera la

previsione dell’osservazione ˆxt∗+1. Ottenuta questa nuova osservazione, la finestra

viene traslata di un passo, tralasciando l’osservazione più vecchia x1 e

inserendo-ci quella più recente ˆxt∗+1. Le osservazioni ora contenute nella seconda finestra

saranno sempre m, ma diversi saranno gli elementi che la compongono. Questo procedimento può essere ripetuto fino all’ultimo istante di interesse.

Si ha pertanto un ’ricircolo’ continuo di osservazioni e, di conseguenza, di informa-zioni. Attraverso questo tipo di finestra si è in grado pertanto di tralasciare quelle informazioni più lontane nel tempo, che potrebbero non avere più utilità nella stima del modello, e di considerare invece quelle più recenti, teoricamente portatrici di informazioni su eventuali cambiamenti intervenuti nella serie. Se la possibilità di trascurare le informazioni più lontane nel tempo, che potrebbero anche minare l’effi-cacia del modello, possa essere considerato un punto di forza, contemporaneamente si aprirebbe il problema di individuare una dimensione ottimale di tale finestra.

Il secondo tipo di finestra temporale viene invece chiamata recursive window, o finestra espansiva/ricorsiva. Al contrario del tipo precedente, la dimensione della finestra non sarà costante del tempo e fissata ad m, ma andrà ad incrementarsi ap-pena una nuova osservazione si rende disponibile. Il procedimento pertanto è simile a quello precedente, con la differenza che in questo caso si avrà solo l’ingresso della nuova osservazione, ma non l’uscita di quella più lontana nel tempo. Il problema della scelta della dimensione della finestra non si pone quindi nel secondo tipo di finestra considerata. Nella finestra di tipo espansivo non si ha una dimensione co-stante e predeterminata della finestra, con annesso tralascio di informazioni meno recenti, ma si ha una continua espansione della finestra stessa con il passare delle giornate. Ciò potrebbe comportare delle problematiche relative alla validità del modello stimato attraverso le osservazioni (tutte quelle disponibili) presenti nella finestra. Se le informazioni più lontane nel tempo non dovessero essere più utili per le attuali condizioni della serie, il modello potrebbe scontare tali informazioni

(36)
(37)

Capitolo 4

Analisi empirica

In questo capitolo sono riportati i risultati ottenuti dall’applicazione delle procedu-re teoriche fin qui esposte. Dopo una descrizione qualitativa della serie utilizzata per valutare la presenza o meno delle regolarità empiriche viste nella Sezione 1.4, verranno prima esposti i risultati dell’applicazione della procedura di Angelidis et al. , descritta nel Capitolo 3, per ciascuna finestra temporale e, infine, quelli de-rivanti dal confronto dell’output delle procedure con l’impiego di finestre mobili e ricorsive differenti.

Il software utilizzato per i calcoli è R, con l’impiego del pacchetto rugarch svilup-pato da Alexios Ghalanos (Ghalanos 2014).

4.1

Analisi qualitativa della serie S&P 500

La serie storica utilizzata è quella dei prezzi di chiusura dell’indice azionario ame-ricano S&P 500 da luglio 2007 a luglio 2019. Da tale serie sono stati calcolati i rendimenti giornalieri logaritmici attraverso l’equazione 4.1, per un totale di 3000 osservazioni. rt= log  Pt Pt−1  = log(Pt) − log(Pt−1) (4.1)

Al fine di rendere più scorrevole la lettura, nel proseguo del lavoro con rendimento si intenderà il rendimento logaritmico calcolato come sopra.

Il grafico in Figura 4.1 mostra l’andamento nell’intervallo temporale considera-to dei prezzi di chiusura della serie e dei rendimenti da essa calcolati. Dal grafico dei rendimenti è possibile notare la presenza dei fenomeni di eteroschedasticità e di volatility clustering, con un maggior grado di volatilità presente ad esempio nel-l’anno 2008 a seguito della crisi dei sub-prime rispetto alla volatilità nei rendimenti intorno al 2012.

La Tabella 4.1 riporta le principali statistiche descrittive della serie. L’ipotesi di normalità nella distribuzione dei rendimenti non può essere in questo caso accettata,

(38)

lug 16 2007 gen 04 2010 gen 02 2013 gen 04 2016 gen 02 2019

Prezzi chiusura S&P500 2007−07−16 / 2019−06−14

1000 1500 2000 2500 1000 1500 2000 2500

lug 17 2007 gen 04 2010 gen 02 2013 gen 04 2016 gen 02 2019

Rendimenti S&P 500 2007−07−17 / 2019−06−14 −0.05 0.00 0.05 0.10 −0.05 0.00 0.05 0.10

Figura 4.1: Prezzi Chiusura e Rendimenti S&P 500 dal 16/07/2007 al 14/06/2019 con una seppur lieve asimmetria negativa come indicato dalla Skewness e con un eccesso di curtosi che rende la distribuzione più ’appuntita’ di una normale. Insieme all’istogramma dei rendimenti in Figura 4.2, il test Jarque-Brera e la probabilità ad esso associata sono una ulteriore conferma di allontanamento dall’ipotesi di normalità. Statistiche Media 0.00021 Mediana 0.00059 Max 0.10957 Min -0.09470 Std. Dev 0.01255 Skewness -0.34685 Curtosi 10.54439 Jarque-Bera 13958.16701 Probabilità 0.00000

Tabella 4.1: Statistiche descrittive della serie dei rendimenti S& P 500 Come visto nella Sezione 2.1, poiché la varianza condizionata può essere espressa attraverso il valore atteso condizionato delle innovazioni al quadrato, l’analisi della ACF in Figura 4.3 delle serie dei rendimenti non trasformati, del valore assoluto e del quadrato di questi ultimi può essere utilizzata per valutare la presenza di

Riferimenti

Documenti correlati

This article tackles the prob- lem by introducing DREAM (Distributed Reg- istry by ExAMple): a publish / subscribe based solution to integrate existing, different registries, along

Se le prime due battute riproducono, in forma abbreviata, l’alterco tra Menenio e il Secondo Cittadino appena prima della favola del ventre (1.1.69-75), il

On one hand, at the national level the 47 Member States of the Council of Europe use three different approaches: 10 automatically disenfranchise all detainees, 17 allow all

•  estendendo il concetto di trasformazione di gauge: è una trasformazione congiunta del campo elettromagnetico e delle particelle cariche.. Simmetrie locali: equazione del

•  estendendo il concetto di trasformazione di gauge: è una trasformazione congiunta del campo elettromagnetico e delle particelle cariche..

It can be also seen that Cu/Nb and Cu/V systems have a very similar behavior regarding point-defect temporal evolution in copper

Il problema della collinearità sta nel fatto che i dati non contengono sufficiente informazione sugli effetti individuali delle variabili esplicative per permetterci di stimare

Public Choices and Decision-Making Processes: a Case Study on Sustainable Mobility 432 REAL CORP 2017: PANTA RHEI. • a composite evaluation based on different sources of