• Non ci sono risultati.

Analisi multivariata di un portafoglio azionario:il VaR e la simulazione Montecarlo

N/A
N/A
Protected

Academic year: 2021

Condividi "Analisi multivariata di un portafoglio azionario:il VaR e la simulazione Montecarlo"

Copied!
84
0
0

Testo completo

(1)

UNIVERSITÀ DI PISA

DIPARTIMENTO DI ECONOMIA E MANAGEMENT

Corso di Laurea Banca, Finanza aziendale e Mercati finanziari

TESI DI LAUREA

ANALISI MULTIVARIATA DI UN PORTAFOGLIO AZIONARIO:

IL VaR E LA SIMULAZIONE MONTECARLO

CANDIDATO: Matteo Meoli

RELATORE: Prof. Emanuele Vannucci

(2)
(3)

2

INDICE

INTRODUZIONE ... 5

1. I RISCHI E LE VARIABILI ALEATORIE ... 7

1.1 I rischi nel mondo finanziario e bancario ... 7

1.2 Le Variabili Aleatorie: discrete e continue ... 9

2. ORIGINI E SVILUPPO DEL VALUE AT RISK ... 13

2.1 Il primo step verso il Value at Risk ... 13

2.2 Il Value at Risk come misura del rischio di mercato ... 14

2.2.1 La crisi del 2007-2008 ... 16

2.3 Critiche al Value at Risk ... 18

3. IL VALUE AT RISK... 20

3.1 La definizione statistica... 20

3.2 Il VaR tra subadditività e non subadditività ... 21

3.3 La scelta dei parametri ... 23

3.4 Il problema della Volatilità ... 24

3.5 Metodologie di calcolo del Value at Risk ... 26

3.5.1 Approccio parametrico o varianza-covarianza ... 26

3.5.2 La simulazione storica ... 28

4. DIPENDENZA E SIMULAZIONE MONTECARLO ... 31

4.1 La simulazione Monte Carlo ... 31

4.2 Dipendenza tra variabili aleatorie ... 34

4.3 La decomposizione di Cholesky ... 35

4.4 Il backtesting ... 37

5. ANALISI EMPIRICA ... 40

(4)

3

5.2 Le obbligazioni Lehman ed il consorzio Patti Chiari ... 44

5.3 La descrizione delle azioni del Portafoglio ... 46

5.3.1 Le azioni Unicredit Bank ... 48

5.3.2 Le azioni Bank of America ... 50

5.3.3 Le azioni Lloyds Banking Group ... 53

5.3.4 Le azioni Enel S.p.A. ... 55

5.4 Costruzione del “Portafoglio Bancario” ... 58

5.5 Sviluppo della Simulazione: le matrici 𝜌𝑋𝑌𝑍, 𝐴 e 𝑍 ... 61

5.5.1 Calcolo del VaR giornaliero e settimanale ... 67

5.5.2 Monitoraggio tramite il Value at Risk medio ... 69

5.5.3 La matrice 𝜌𝑋𝑌𝑍 con valori fittizi ... 70

5.6 Entrata di Enel nel portafoglio ... 72

5.7 Conclusioni della simulazione ... 74

CONCLUSIONI ... 77

BIBLIOGRAFIA ... 81

SITOGRAFIA ... 81

(5)
(6)

5

INTRODUZIONE

Investire capitali nei mercati finanziari, senza subire perdite, non è una cosa affatto semplice, poiché i rischi, insiti al loro interno, sono molte volte difficili da identificare e, qualora la loro identità venga svelata, sono difficili da quantificare. L’ignoranza nei mercati finanziari non viene mai perdonata, per cui, chi decide di operare al loro interno, deve avere prudenza e conoscenza di quanti e quali sono gli strumenti che consentono di identificare e quantificare i rischi.

Questa trattazione punta i riflettori su uno dei possibili strumenti di misurazione del rischio: il Value at Risk. Questo ultimo è un indicatore finanziario, sintetico del rischio di una singola posizione o di un intero portafoglio, che va a misurare la perdita massima relativa che non sarà superata con una certa probabilità di accadimento, o livello di confidenza, detenendo il proprio portafoglio a posizioni inalterate per un dato periodo di tempo (holding period). Il VaR è stato utilizzato, per la prima volta, verso la fine degli anni ’80, dalle principali istituzioni finanziarie, divenendo pratica comune a partire dal 1995, quando la J. P. Morgan pubblicò le metodologie per calcolarlo. L’anno successivo fu introdotto dal Comitato di Basilea all’interno del mondo bancario, come misura del rischio di mercato.

I protagonisti della tesi, intorno ai quali orbiterà il concetto di VaR, sono quattro titoli azionari, descritti dalle serie storiche dei prezzi e, di conseguenza, dei rendimenti, nel periodo 3/01/05 − 31/12/16, con cui andremo a costruire due portafogli (entrambi con un investimento equi distribuito su tre titoli azionari):

• “Portafoglio Bancario” (P.B): si chiama così perché al suo interno sono presenti tre azioni di tre diverse banche: Unicredit Bank, Lloyds Banking Group e Bank of America; questo portafoglio sarà analizzato, una volta, utilizzando le correlazioni realmente ricavate dalle serie storiche dei rendimenti (per questo sarà chiamato “P.B. vero”) e, un’altra, utilizzando correlazioni fittizie e incrementate rispetto a quelle realmente ricavate dalle serie storiche dei rendimenti (per questo sarà chiamato “P.B. falso”);

(7)

6

• “Portafoglio Enel”: si chiama così perché al suo interno è presente il titolo azionario Enel, insieme al titolo Lloyds Banking Group e al titolo Bank of America.

La base dati della nostra analisi, per ciascun portafoglio, è costituita da 20 scenari simulati composti, ciascuno, da 2000 rendimenti logaritmici giornalieri simulati che, una volta ordinati dal più piccolo al più grande, ci permetteranno di individuare, per ciascun scenario, il Value at Risk al 99% come percentile della distribuzione. Di conseguenza, per ogni portafoglio, sarà possibile ricavare la media e l’andamento del Value at Risk simulato al 99%. Per fare questo, avremo bisogno della simulazione Monte Carlo e della matrice di decomposizione di Cholesky che ci permetteranno di ricavare la distribuzione simulata dei rendimenti logaritmici del portafoglio, tenendo in considerazione la dipendenza, misurata dall’indice di correlazione, dei titoli azionari del portafoglio, riscontrata dai dati empirici o costruita in maniera fittizia. Poiché interessa simulare la distribuzione dei rendimenti nel periodo di piena crisi finanziaria, il cui inizio, convenzionalmente, è stato fissato il 15/09/08, giorno del fallimento di Lehman Brothers, la matrice di correlazione sarà ricavata dalle serie storiche dei rendimenti logaritmici giornalieri delle singole azioni, nel periodo precedente tale giorno, ovverosia il periodo 3/01/05 − 12/09/08.

Dopo aver ricavato quanto descritto sopra, andremo a:

• mediante il VaR medio giornaliero al 99% del “Portafoglio Bancario”, ricavato dalla media dei VaR dei singoli scenari simulati, monitorare la serie storica dei rendimenti logaritmici effettivamente realizzati, contando il numero di volte che tale soglia di Border Line viene oltrepassata da questi ultimi, per ciascun periodo di analisi, e dimostrando che questo numero sarà tanto maggiore quanto più siamo vicini al giorno del fallimento di Lehman Brothers;

• mediante il confronto tra gli andamenti del Value at Risk simulato al 99% dei “tre” portafogli (Grafico 20), stilare la classifica del portafoglio maggiormente rischioso e a dimostrare che l’indice di correlazione è un elemento determinante la rischiosità di un portafoglio, in quanto maggiore è la correlazione tra i titoli maggiore sarà la rischiosità del portafoglio, e viceversa.

(8)

7

1. I RISCHI E LE VARIABILI ALEATORIE

La parola rischio, nel linguaggio comune, è spesso utilizzata come sinonimo di perdita o di pericolo/minaccia, ma in realtà il rischio è un insieme di possibili effetti positivi (opportunità) o negativi (minacce), di un evento aleatorio, sulla situazione economica, finanziaria e/o patrimoniale dell’impresa.

Esistono molte definizioni di rischio che dipendono dall’applicazione, dal contesto e dell’approccio che vai ad utilizzare; quella che a noi interessa è relativa all’approccio statistico-finanziario, che fa riferimento alla aleatorietà stocastica, cioè allo scostamento dal valore atteso per effetto di eventi di incerta manifestazione, interni o esterni ad un sistema. Il rischio, qui, non ha solo un'accezione negativa (downside risk), ma anche una accezione positiva (upside risk). La parte della distribuzione relativa alle perdite, ovverosia il downside risk, e in particolar modo la parte più estrema, la coda, è determinante per conoscere quanto, investendo in un determinato portafoglio, potrebbe essere la massima perdita che si potrebbe subire dato un certo livello di confidenza (non è altro che il Value at Risk), e per osservare cosa cambierebbe, in termini di VaR, andando ad apportare delle modifiche ad hoc alla variabile aleatoria di riferimento (il portafoglio). La normativa di Basilea, come vedremo brevemente nel capitolo successivo, è molto ferrata sul tema della rischiosità bancaria e della adeguatezza patrimoniale, tanto da obbligare la banca ad associare e accantonare, per ciascun rischio identificato, una somma di capitale di diversa qualità a seconda della natura, della frequenza e della dimensione della perdita.

1.1 I rischi nel mondo finanziario e bancario

La maggior parte delle insoddisfazioni legate agli investimenti finanziari deriva dalla mancata comprensione dei relativi rischi. La possibilità di avere un rendimento diverso da quello atteso o addirittura negativo dipende da:

• Rischio specifico: è la tipologia di rischio che si corre quando il risultato dell'investimento è legato alle sorti di pochi emittenti strumenti finanziari, per cui, concentrando gli investimenti in singoli titoli (quota significativa maggiore del

(9)

8

15/20%) ci si espone ad un tipo di rischio che non è controllabile. La diversificazione, cioè investire in un paniere di azioni che rappresenti una quota molto ampia dell'intero mercato, elimina questa tipologia di rischio;

• Rischio sistematico o rischio di mercato: è la tipologia di rischio legata alla oscillazione del mercato e non è eliminabile. Esso dipende da quanto un titolo è correlato più o meno positivamente con il mercato; più è correlato positivamente maggiori saranno le oscillazioni e maggiore sarà il rischio di subire perdite. Non è detto che un rischio sistematico più alto significhi, necessariamente, un portafoglio peggiore di uno con rischio sistematico più basso; tutto dipende dalla propria capacità di rischio finanziario, intesa come possibilità materiale di restare investiti il tempo necessario affinché l'investimento (se ben progettato e gestito) dia i rendimenti attesi, e dalla propria tolleranza al rischio finanziario, intesa come grado di tolleranza psicologica alle oscillazioni di mercato;

• Rischio di mercato: che dipende dalle oscillazioni del cambio, del prezzo della azione, del tasso di interesse;

• Rischio di liquidità: esistono due modi per liquidare un investimento: 1) aspettare, quando esiste, la naturale scadenza e farsi rimborsare dall'emittente; 2) vendere lo strumento finanziario sul mercato.

La norma è utilizzare il secondo metodo. Per vendere uno strumento finanziario sul mercato è necessario che ci siano acquirenti. Se possediamo uno strumento finanziario che non viene scambiato sul mercato molto frequentemente (o, peggio, che non viene scambiato affatto), ci si espone ad un rischio liquidità. Ciò significa che, per realizzare l'investimento, sarà necessario vendere sottocosto rispetto al valore "corretto" di mercato. Per evitare questo rischio è necessario investire esclusivamente in strumenti che presentano molti scambi giornalieri.

Dal lato dei rischi connessi all’attività delle banche, essi possono essere raggruppati in alcune categorie principali:

• Rischio economico: che attiene all’equilibrio tra costi e ricavi di gestione e si configura allorquando il risultato economico non corrisponde alle aspettative della banca. Esso può essere dovuto ad una serie di fenomeni: rischio di variazione

(10)

9

bilancio diverso da quello di mercato. Una seconda importante componente del rischio economico è data dai rischi di insolvenza totale o parziale del debitore (rischio di credito), che comporta una perdita in conto interessi ed in conto capitale per la banca. Nel rischio economico rientra anche il rischio di

portafoglio, determinato dal grado di diversificazione del portafoglio di attività

della banca;

• Rischio finanziario o di liquidità: è relativo all’equilibrio tra entrate ed uscite monetarie ed è determinato da sfasamenti nelle scadenze di attività e passività e da liquidazione di attività o trasferimenti di passività in condizioni di mercato avverse che si rendono necessarie quando la banca presenta fabbisogni urgenti ed imprevisti di fondi liquidi;

• Rischio patrimoniale: riferito alla condizione di solvibilità dell’ente e, quindi, legato alla capacità della banca di far fronte ai propri impegni nel lungo periodo; tale condizione dipende dall’equilibrio patrimoniale della banca e, quindi, dall’adeguatezza dei mezzi propri;

• Rischio operativo: è relativo a situazioni riguardanti il rischio legale, il danno reputazionale e la eventuale disfunzione dei sistemi informatici e di controllo e comprende, al suo interno, tutti i rischi che non rientrano nelle precedenti classi; • Rischio sistemico: è il rischio che la crisi di un’istituzione creditizia si propaghi

all’interno del sistema.

1.2 Le Variabili Aleatorie: discrete e continue

La variabile aleatoria (v.a.) è importantissima nel mondo statistico, in quanto è la funzione addetta alla descrizione quantitativa del rischio cui siamo sottoposti; a seconda della realtà che si vuole descrivere, la v.a. può essere:

• Variabile aleatoria discreta: costituita da un numero finito e numerabile di scenari; • Variabile aleatoria continua: può assumere tutti i valori compresi in un dato

(11)

10

La variabile aleatoria discreta, 𝑋, (es: lancio di un dado non truccato, la probabilità di avere un numero da 1 − 6 è sempre 16 ), è la funzione che associa a ciascuna realizzazione (𝑥1, 𝑥2, … , 𝑥𝑛) la sua probabilità (𝑝1, 𝑝2, … , 𝑝𝑛)

𝑃(𝑋 = 𝑥𝑖) = 𝑝𝑖

ovvero la probabilità che la variabile aleatoria 𝑋 sia uguale a 𝑥𝑖 è 𝑝𝑖; la sommatoria delle probabilità, 𝑝𝑖, dà come risultato sempre 1

∑𝑛 𝑝𝑖 = 1

𝑖=1 con 𝑝𝑖 ≥ 0

La variabile aleatoria continua, 𝑌, non può assegnare una probabilità positiva ad ogni valore possibile ma ha bisogno, per la sua definizione, di due funzioni:

• 𝑓𝑌 → funzione di densità che esprime la densità di probabilità in un intervallo

infinitesimale;

• 𝐹𝑌 = ∫ 𝑓𝑌 → funzione di ripartizione che esprime la probabilità che la v.a. 𝑌

assuma valori fino a 𝑦.

Per ipotesi di normalità della simulazione Monte Carlo, propongo come variabile aleatoria continua una distribuzione Gaussiana con media 0 e varianza 1 e con un range che va da −∞ a +∞.

Figura 1. Funzione di Ripartizione e Funzione di Densità di una Gaussiana

(Fonte Excel)

Funzione di

densità

∞-0

K

+∞

Funzione di

ripartizione

(12)

11

La probabilità che la v.a. abbia un valore minore o uguale a 𝐾 è la seguente:

𝑃(𝑌 ≤ 𝐾) = 𝐹𝑌(𝐾) = ∫ 𝑓𝐾 𝑌(𝑡)𝑑𝑡

−∞

La funzione di ripartizione 𝐹𝑌(𝐾), in 𝐾, non è altro che l’area sottostante la funzione di

densità data da ∫ 𝑓−∞𝐾 𝑌(𝑡)𝑑𝑡.

Le proprietà fondamentali delle due funzioni risultano essere:

• 𝑓𝑌(𝑡) > 0 ∀ 𝑡 → la funzione di densità è sempre al di sopra delle ascisse, altrimenti avrei probabilità negativa;

• lim

𝑘→+∞𝐹𝑌(𝐾) = 1 → l’area sottostante la curva, da −∞ a +∞, è uguale a 1, per

cui la probabilità di avere un risultato tendente a +∞ è uguale a 1; • lim

𝑘→−∞𝐹𝑌(𝐾) = 0 → ciò significa dire che la probabilità di avere un risultato

superiore a −∞ è uguale a 0.

Da queste due ultime proprietà possiamo definire quella che è la rappresentazione grafica della funzione di ripartizione, che ci sarà molto utile ai fini della spiegazione della simulazione Monte Carlo.

Figura 2. Rappresentazione grafica della Funzione di Ripartizione della Gaussiana

(Fonte Excel)

0

1

K

F(K)

+∞

-∞

(13)

12

È una funzione monotona crescente per ogni 𝑡 e lo si vede dalla caratteristica della funzione di densità che è sempre positiva; grazie alla monotonia è anche invertibile e ciò risulterà essenziale per la simulazione Monte Carlo.

Gli indicatori sintetici di una distribuzione o momenti di una v.a. sono: • Momento I → rappresentato dalla media;

• Momento II → varianza o deviazione standard, che va a misurare la variabilità della 𝑋;

• Momento III → la asimmetria (valore 0 per la normale) ci indica quanto e da che parte è spostata, rispetto alla media, la distribuzione; avremo asimmetria positiva quando la forma ha una coda allungata verso destra e asimmetria negativa quando la forma ha una coda allungata verso sinistra;

• Momento IV → la curtosi riguarda lo studio del maggiore o minore appuntimento, e, conseguentemente, del maggiore o minore peso delle code rispetto alla parte centrale della forma; considerando un valore per la normale pari a 3, quando la distribuzione ha una forma maggiormente appuntita rispetto alla normale si parla di forma leptocurtica (>3), mentre se la distribuzione è meno appuntita della normale si parla di forma platicurtica (<3).

Per una variabile aleatoria discreta il momento teorico centrato di ordine 𝑟 è:

𝜇𝑟 = ∑(𝑥𝑖− 𝜇)𝑟∙ 𝑝 𝑖 𝑛

𝑖=1

Se 𝜇 = 0, il momento teorico di ordine 𝑟 sarà 𝜇𝑟= 𝑥

1𝑟𝑝1+ ⋯ + 𝑥𝑛𝑟𝑝𝑛.

Per una variabile aleatoria continua, il momento teorico di ordine 𝑟 sarà dato da 𝑚𝑜𝑚𝑒𝑛𝑡𝑜 𝑑𝑖 𝑜𝑟𝑑𝑖𝑛𝑒 𝑟 = ∫ 𝑡𝑟𝑓

𝑌(𝑡)𝑑𝑡 +∞

(14)

13

2. ORIGINI E SVILUPPO DEL VALUE AT RISK

L’approccio Value at Risk è stato utilizzato, per la prima volta, verso la fine degli anni ’80, dalle principali istituzioni finanziarie ed è divenuto pratica comune a partire dal 1995, quando sono state pubblicate, da parte della J. P. Morgan, le metodologie per calcolarlo. Fu sviluppato per sintetizzare, in un unico numero, tutte le informazioni relative ai rischi di un portafoglio, in modo che i calcoli fossero relativamente semplici e rapidi e facilmente comunicabili e comprensibili da manager di formazione non tecnica. Così, nel 1996, tale approccio fu introdotto, all’interno del mondo bancario, dal Comitato di Basilea, al fine di determinare il capitale necessario per fronteggiare il rischio di mercato, insito nelle attività delle banche.

Andremo a vedere, brevemente, in questo capitolo gli sviluppi che il Value at Risk ha avuto nel mondo bancario e quindi all’interno dell’impianto normativo di Basilea.

2.1 Il primo step verso il Value at Risk

Il risk/return principle è il principio guida delmondo della finanza. Ogni operatore avrà il desiderio di raggiungere l’ipotetico punto in cui il beneficio è massimo ed il rischio è minimo. È proprio da questa esigenza che traggono origine le applicazioni pratiche del Value at Risk, da intendersi come un indicatore sintetico del rischio presente in un certo portafoglio. Il VaR può essere considerato come la perdita massima relativa che non sarà superata con un determinato livello di confidenza ed a posizioni inalterate per un certo periodo di tempo (holding period). Potrebbe anche essere considerato come la stima del cambiamento potenziale del valore di portafoglio. È proprio in questo cambiamento potenziale che risiede il concetto di rischio di mercato.

Il Market Risk è da intendersi come la perdita potenziale derivante da variazioni nei tassi di interesse, nei prezzi azionari, nei tassi di cambio e nei prezzi delle merci, nonché da variazioni della volatilità dei movimenti dei prezzi. Alcuni aspetti del rischio di mercato possono essere “modellizzati” con un certo grado di confidenza; ciò comporta un’altra fonte di rischio, il cosiddetto model risk, ovvero il rischio derivante da una imperfetta modellizzazione della realtà finanziaria. La capacità di misurare e gestire il

(15)

14

rischio di mercato dipende dalla bontà del modello utilizzato e dalla corretta rappresentazione delle posizioni che costituiscono il portafoglio o i portafogli oggetto di analisi.

2.2

Il Value at Risk

come misura del rischio di mercato

La banca commerciale statunitense J. P. Morgan & Reuters fu una delle prime istituzioni a sviluppare un modello VaR, sotto il nome di Risk Metrics, e la prima a renderlo pubblico. Alla fine degli anni ottanta, l’allora presidente della banca, Tennis Weatherstone, chiese di ricevere, alle 16:15 di ogni giorno, un’informazione sintetica, racchiusa in un singolo valore monetario, relativa ai rischi di mercato dell’intera banca nei diversi segmenti di mercato e nelle diverse aree geografiche. In un mondo estremamente dinamico, il bisogno di una immediata valutazione di mercato dei portafogli di negoziazione, conosciuti come marking to market, diventa così una necessità.

Nel 1993 il Basel Committee of Banking Supervision interviene con una disciplina ad hoc sui rischi di mercato l’“Emendamento di Basilea I sul requisito patrimoniale richiesto per i rischi di mercato”, prevedendo soltanto la metodologia standardizzata. Fu solo con l’aggiornamento del 1996, che Basilea “aprì le porte” al Value at Risk con l’introduzione della metodologia interna. Quest’ultima nasce dalla operatività bancaria, in quanto le banche, da un punto di vista gestionale, usavano metodologie evolute poggiate sul VaR, per cui anche la vigilanza si è dovuta adeguare per non creare problemi. L’utilizzo della metodologia interna comporta la presenza di determinati requisiti quali – quantitativi, per cui una fase di validazione in cui le Autorità di Vigilanza ne verificano la presenza. Con l’Emendamento a Basilea I, il Comitato di Basilea prescriveva che le istituzioni finanziarie dovessero detenere capitale, oltre che per il rischio di credito, anche a fronte del rischio di mercato. Il Market Risk (MR) è una componente del rischio meno tangibile rispetto al rischio di credito, per cui richiede molta attenzione. In una accezione ampia (latu sensu), che comprende tutto il bilancio di una banca, il MR riguarda qualsiasi impatto che un market risk factor ha su una qualsiasi grandezza del bilancio. Come ben sappiamo però, una stessa variabile (tasso di interesse, tasso di cambio ecc.) può impattare

(16)

15

una voce del bilancio che, per la banca, ha una sua specifica destinazione funzionale. Per tale motivazione, l’Emendamento distingueva due tipologie di portafoglio: il portafoglio bancario (Banking Book) ed il portafoglio di negoziazione (Trading Book).

Il primo è costituito dalle attività che la Banca non cederà prima della scadenza, quindi riconducibili all’intermediazione creditizia (prestiti, partecipazioni). Il secondo, che risponde ad esigenze di tesoreria ed esigenze economiche (lucrare sulla differenza tra prezzo di acquisto e di vendita), invece, è costituito dalle posizioni in strumenti finanziari e su merci detenute ai fini di negoziazione o di copertura del rischio e rivalutato ogni giorno.

I requisiti patrimoniali a fronte del rischio di credito, previsti da Basilea I, continuavano a valere, ma, ad essi, dovevano essere sommati i requisiti patrimoniali a fronte del rischio di mercato, per tutte le voci del Trading Book. Per quantificare il patrimonio, a fronte del rischio di mercato, l’Emendamento definisce due metodi: il metodo standardizzato (standardized model) e il metodo basato sui modelli interni (internal VaR-based model). Le banche maggiormente sofisticate utilizzano il metodo basato su modelli interni, perché permette di beneficiare della diversificazione del portafoglio, possibilità non prevista nel metodo standard, che considera, al contrario, tutte le esposizioni separatamente.

Per le banche che applicano il metodo interno (𝐼𝑀), il requisito patrimoniale (𝐶𝑅) per il rischio di mercato (𝑀𝑅) è dato dal maggiore tra:

𝐶𝑅𝐼𝑀𝑡 (𝑀𝑅) = 𝑚𝑎𝑥 {𝑉𝑎𝑅 0,99𝑡,10, 𝑘 60∑ 𝑉𝑎𝑅0,99𝑡−𝑖+1 60 𝑖=1 }

dove 𝑉𝑎𝑅0,99𝑡,10, rappresenta il Valore a Rischio del Trading Book calcolato nel giorno 𝑡, considerando un orizzonte temporale di 10 giorni ed un livello di confidenza del 99%; 𝑡, rappresenta il momento in cui vengono effettuate le valutazioni; 60𝑘 ∑60𝑖=1𝑉𝑎𝑅0,99𝑡−𝑖+1, rappresenta la media del VaR dei 60 giorni precedenti 𝑡, moltiplicato per lo stress factor 𝑘, che può variare da 3 a 4 a seconda dei risultati che il modello ottiene nella procedura di backtesting. Quest’ultima consente di verificare la qualità globale del modello interno della banca, sulla base degli scostamenti tra le variazioni giornaliere stimate dal modello

(17)

16

e i risultati effettivi. Se il valore degli scostamenti dovesse essere superiore a 4, viene aggiunto un addendo, compreso tra 0 e 1, al valore base di 3 del fattore moltiplicativo. Dalla seguente tabella possiamo individuare i diversi valori aggiuntivi, che aumentano man mano che il numero di scostamenti supera 4.

2.2.1 La crisi del 2007-2008

La crisi finanziaria del 2007 ha avuto origine nel segmento dei mutui statunitensi ad alto rischio e dei prodotti strutturati, contagiando, successivamente, tutto il sistema finanziario. La severità della crisi finanziaria è imputabile, in larga misura, al fatto che, in molti paesi, la capitalizzazione bancaria fosse incapace di assorbire le perdite derivanti dall’assunzione di rischi sempre più grandi. Le poste fuori bilancio non avevano una ponderazione sufficiente, poiché non veniva preso in considerazione il rischio di “reintermediazione”, ossia il rischio che queste operazioni si trasformassero in attivi per cassa di bassa qualità, in situazioni di stress dei mercati. Non fu considerata la relazione che il rischio di mercato ebbe con il rischio di default e rischio di liquidità. Fu sottovalutato il cosiddetto risk-management herding, rilevante soprattutto nei periodi di crisi, in cui gli investitori istituzionali, utilizzando modelli di rischio simili, forse basati sul VaR, furono portati a mettere in atto strategie analoghe. In questo modo, le azioni individuali possono rinforzarsi, negativamente, le une con le altre.

Numero di scostamenti Valore Aggiuntivo Meno di 5 0.00 5 0.40 6 0.50 7 0.65 8 0.75 9 0.85 10 o più 1.00

(18)

17

La miopia e l’ingenuità del regulator è stata quella di mantenere l’impianto del 93/96 in Basilea II; la crisi ha posto in evidenza la necessità di rafforzare la regolamentazione finanziaria e l’azione di supervisione. Una prima risposta del Comitato di Basilea si è concretizzata nella “Revisions to the Basel II market risk framework” (Basilea II.5), del luglio 2009, rivisto nel febbraio 2011, che ha previsto delle aggiunte specifiche al rischio di mercato del Trading Book, per ridurre la prociclicità, e fronteggiare la carenza di capitale. Nell’Emendamento a Basilea II vengono messi sotto accusa i modelli interni, in quanto accrescono la debolezza degli RWA.

Per quanto riguarda la copertura del rischio di mercato, Basilea III (concordato dai membri del Comitato di Basilea nel 2010 − 2011, programmato per essere introdotto a partire dal 2013 fino al 2015 e prorogato al 1 aprile 2013 fino al 31 marzo 2018) riprende quanto affermato in Basilea II.5, aggiungendo solo un aumento dei requisiti patrimoniali per il rischio di controparte nel portafoglio di negoziazione.

Gli obiettivi principali sono quelli di rimuovere l’incentivo alle operazioni di arbitraggio regolamentare fra Banking Book e Trading Book, cioè il passaggio dal primo al secondo portafoglio senza delle regole precise, in quanto il Trading Book comportava un assorbimento minore di capitale (l’intermediazione finanziaria consumava meno capitale), e di imporre alle banche un requisito patrimoniale nel Trading Book, che tenga in adeguata considerazione il rischio di liquidità delle posizioni (market liquidity risk), in particolar modo, quelle con profili di rischio creditizio.

Le principali proposte diBasel IIIsono due:

• introduzione dell’Incremental Risk Charge (IRC): applicato solo alle banche che adottano il modello interno, va ad incrementare il requisito patrimoniale minimo per il Trading Book, poiché rappresenta un requisito aggiuntivo per il rischio specifico delle posizioni del portafoglio sul Trading Book (nasce dalla variazione dei prezzi dei titoli a causa di fattori riferibili o all’andamento del mercato o del soggetto emittente). L’IRC è inteso come la massima perdita potenziale del TB dovuta ad un default dell’emittente o una sua oscillazione, e calcolata sulla base di un orizzonte temporale di un anno e un livello di confidenza del 99,9%, prendendo, adeguatamente, in considerazione la liquidità delle singole posizioni;

(19)

18

• introduzione dello Stressed Value at Risk (sVaR): si richiede alla banca di calcolarlo almeno settimanalmente sul portafoglio corrente, con parametri immessi nel modello del VaR e calibrato per un periodo continuato di 12 mesi di notevole stress finanziario. Ciò sicuramente determina un aggravio in termini di requisiti patrimoniali; così il requisito patrimoniale a fronte del market risk sarà dato da:

𝐶𝑅𝑀𝑅 = 𝑀𝑎𝑥{𝑉𝑎𝑅𝑡−1; 𝑘 ∙ 𝑉𝑎𝑅𝑎𝑣𝑔60} + 𝑀𝑎𝑥{𝑠𝑉𝑎𝑅𝑡−1; 𝑘 ∙ 𝑠𝑉𝑎𝑅𝑎𝑣𝑔60} dove 𝑘 rappresenta lo stress factor, che varia da 3 a 4 a seconda della bontà del modello.

Seppur queste due misure siano state introdotte per eliminare i fattori che più degli altri hanno enfatizzato le perdite sui portafogli, il problema è che certe decisioni possono andare a penalizzare quella che è l’evoluzione del risk management.

2.3 Critiche al Value at Risk

Basilea II e i documenti successivi ad essa mettono sotto accusa il VaR, mostrandone la sua debolezza e fragilità, ai fini della definizione del rischio. Sono modelli che non rappresentano il rischio nella sua completezza, in quanto si caratterizzano per serie storiche brevi e distribuzioni di probabilità incapaci di cogliere gli eventi estremi. Quanto detto sopra non basta ad attribuire al VaR la causa delle perdite subite dai portafogli di Trading durante la crisi. Come qualsiasi strumento presenta dei limiti e, di certo, non puoi partire dal presupposto che vada a fare scelte vincenti da solo, ma deve essere inserito all’interno di un processo che crea valore aggiunto. Quello che cercheremo di capire dall’analisi è quanto questi modelli hanno mancato di segnalare l’aumento improvviso del rischio e quanto il management si è semplicemente limitato ad attribuire, all’aumento delle misure di rischio, una natura congiunturale e temporanea cui dare scarso rilievo nelle politiche di corretta gestione delle posizioni.

(20)

19 Andiamo a considerare le critiche relative al VaR:

• Gli eventi eccezionali sono trascurati: sicuramente è vero ma abbiamo già detto che il VaR nasce dalla operatività bancaria dove, chiaramente, non sono considerati gli eventi improbabili ma soltanto l’ordinaria gestione; in un contesto di vigilanza la situazione cambia;

• Instabilità dei mercati amplificata: il c.d. risk-management herding, cioè il fenomeno secondo cui quando il mercato subisce una turbolenza questa viene amplificata dal fatto che tutti si muovono nello stesso modo (standardizzazione del modello); gli operatori dovrebbero costruire il modello in funzione delle proprie operatività;

• Nessuna capacità prospettica: non è di sua competenza, in quanto il VaR misura quotidianamente il rischio.

Due invece sono i limiti oggettivi del VaR:

• Non coglie una certa classe di perdite: non si riesce a coprire la probabilità che la perdita sia superiore al VaR stesso, ovverosia il modello non fornisce informazioni sulle perdite eccedenti il VaR;

• Violazione della subadditività: il rischio di un portafoglio composto da posizioni diverse, in linea generale, deve essere inferiore alla somma dei rischi delle singole posizioni, in virtù delle scelte di diversificazione; lo analizzeremo successivamente in un apposito paragrafo.

(21)

20

3. IL VALUE AT RISK

Dopo aver analizzato e discusso come nacque il Value at Risk, come si sviluppò nel mondo finanziario e visto quali furono le critiche mosse ad esso, è giunto il momento di analizzare questo indicatore in maniera chiara ed esaustiva, dandone una definizione precisa.

“Il mondo del VaR” è anche il mondo delle metodologie di calcolo, le quali possono essere suddivise in due gruppi: il metodo parametrico e i metodi simulativi. Ai fini della nostra trattazione sarà importante conoscere la simulazione Monte Carlo (dedicato un capitolo ad hoc), perché è la metodologia di calcolo del VaR con cui sarà svolta l’analisi empirica, cuore della tesi; mentre le altre metodologie (approccio varianza – covarianza e simulazione storica) le vedremo solo sommariamente.

3.1 La definizione statistica

Il Value at Risk è un indicatore sintetico del rischio di una singola posizione o di un intero portafoglio, espresso in forma monetaria, che va a misurare la perdita massima relativa che non sarà superata con una certa probabilità di accadimento, o livello di confidenza, detenendo il proprio portafoglio a posizioni inalterate per un dato periodo di tempo (holding period).

Figura 3. Rappresentazione grafica del VaR ad un livello di confidenza del 99%

(Fonte Excel)

VaR al 99%

1%

(22)

21

Definizione 1.1. (Il Value at Risk). Dato un certo livello di confidenza 𝛼 ∈ [0,1], il Value

at Risk del portafoglio, al livello di confidenza α, è il quantile 𝑞1−𝛼, tale per cui la probabilità che la v.a. 𝑋 assuma un valore minore di 𝑞1−𝛼 sia 1 − 𝛼.

𝑉𝑎𝑅(𝛼) = 𝑞1−𝛼 ∶ 𝑃(𝑋 ≤ 𝑞1−𝛼) = 1 − 𝛼

Dove 𝑞1−𝛼, ovverosia il VaR al livello di confidenza del 99%, è quel valore che si lascia alla sinistra l’1% della distribuzione e può assumere diversi valori tra cui i principali sono 0.1%, 0.5%, 1%, 5%.

Il VaR, al livello di confidenza 𝛼, non ci dà alcuna informazione circa la gravità delle perdite che si verificano con una probabilità inferiore ad (1 − 𝛼). Questo aspetto diventa rilevante quando i ritorni non hanno una distribuzione ellittica, di cui la distribuzione normale è un caso particolare. Nel caso del rischio di credito, del rischio di mercato e, soprattutto, del rischio operativo, a causa del fenomeno delle code pesanti, la distribuzione dei ritorni non è ellittica, quindi la conoscenza di ciò che accade oltre il VaR risulta essere di fondamentale importanza.

3.2 Il VaR tra subadditività e non subadditività

Il Value at Risk è una misura subadditiva o non subadditiva? Per rispondere a questa domanda sarà, in primis, opportuno fare riferimento alla nozione di misura di rischio coerente, introdotta da P. Artzner, F. Delbaen, S. Eber & D. Heath, in “Coherent Measure of Risk”. Gli autori hanno individuato alcuni requisiti fondamentali, i quattro assiomi della coerenza, i quali, a loro giudizio, dovrebbero essere soddisfatti da ogni ragionevole misura di rischio.

Definizione 1.2 (misura di rischio coerente). Una misura di rischio, 𝜌, è coerente se e

soltanto se soddisfa i seguenti assiomi:

1. Monotonia ⟹ maggiore è la rischiosità di un portafoglio minore sarà la sua preferenza; Se 𝚇 ≤ 𝚈 allora 𝜌(𝚈) ≤ 𝜌(𝚇);

(23)

22

2. Invarianza per traslazione ⟹ se si aggiunge un risultato certo ai potenziali risultati aleatori, la nuova misura di rischio, sarà la stessa meno l’importo certo; 𝜌(𝚇 + 𝐾) = 𝜌(𝚇) − 𝐾;

3. Omogeneità positiva ⟹ se la composizione percentuale del portafoglio è la stessa, la misura di rischio è proporzionale al valore iniziale del portafoglio; 𝜌(𝜆𝚇) = 𝜆𝜌(𝚇);

4. Subadditività ⟹ se sommiamo le rischiosità di due portafogli, la nuova misura di rischio dovrà essere sempre minore o al massimo uguale alla somma delle due misure di rischio; 𝜌(𝚇 + 𝚈) ≤ 𝜌(𝚇) + 𝜌(𝚈). Infine per l’assioma della subadditività, deve essere analizzata la dichiarazione di P. Arztner “a merger does not create extra risk” (“la fusione non crea rischi aggiuntivi”), ovverosia il rischio relativo ad un portafoglio non deve mai essere più elevato della somma degli indici calcolati sulle singole variabili aleatorie che compongono il portafoglio stesso.

Tale proprietà dichiara formalmente che la diversificazione degli investimenti deve ridurre il rischio del portafoglio: aggiungendo dei titoli a un portafoglio, l’indice di rischio dell’intero portafoglio non può aumentare più della somma degli indici di rischiosità dei nuovi titoli inseriti.

Analizzati i quattro assiomi della coerenza, è necessario capire se il VaR sia o meno una misura di rischio coerente, elencando prima le sue proprietà:

1. Proprietà della monotonicità: se 𝑋 ≥ 𝑌, allora 𝑉𝑎𝑅𝛼(𝑋) ≤ 𝑉𝑎𝑅𝛼(𝑌);

2. Proprietà dell’omogeneità positiva: se 𝜆 ≥ 0, allora 𝑉𝑎𝑅𝛼(𝜆𝑋) = 𝜆𝑉𝑎𝑅𝛼(𝑋);

3. Proprietà dell’invarianza per traslazione: se 𝑘 è una costante, allora 𝑉𝑎𝑅𝛼(𝑋 + 𝑘) = 𝑉𝑎𝑅𝛼(𝑋) − 𝑘; dalla invarianza per traslazione è facile

dimostrare che 𝑉𝑎𝑅𝛼(𝑋 + 𝑉𝑎𝑅𝛼(𝑋)) = 0.

Dalla rappresentazione delle proprietà del VaR, vediamo che soddisfa l’omogeneità positiva, l’invarianza per traslazione e la monotonia, ma non la subadditività. Questa proprietà è però, per quanto detto sopra,molto importante e in alcuni casi applicativi del VaR risulta essere soddisfatta.

(24)

23

Proposizione 1.1. Il VaR è subadditivo se ci restringiamo a una famiglia di variabili casuali Gaussiane

Dimostrazione. Poiché la somma di due variabili casuali 𝑋, 𝑌, appartenenti ad una famiglia Gaussiana, è anch’essa una Gaussiana, con 𝜇 = 𝜇𝑋+ 𝜇𝑌 e 𝜎 = √𝜎𝑋2+ 𝜎

𝑌2+ 2𝜌𝜎𝑋𝜎𝑌, allora, per definizione 𝑉𝑎𝑅𝛼(𝑋 + 𝑌) = −(𝜇 + 𝜎𝑧𝛼), dove 𝑧𝛼

indica l’alpha-quantile della distribuzione standardizzata Gaussiana.

Adesso è possibile sostituire al posto di 𝜎, 𝜎 ≤ 𝜎𝑋+ 𝜎𝑌, e considerare ragionevoli 𝛼 < 50%, che comportano 𝑧𝛼 < 0, in modo tale da avere:

𝑉𝑎𝑅𝛼(𝑋 + 𝑌) = −𝜇

𝑋− 𝜇𝑌 + 𝜎(𝑧𝛼) ≤ −𝜇𝑋− 𝜇𝑌 + (𝜎𝑋+ 𝜎𝑌)(−𝑧𝛼) =

= −(𝜇𝑋 + 𝜎𝑋𝑧𝛼) − (𝜇𝑌 + 𝜎𝑌𝑧𝛼)

Abbiamo dimostrato ciò che volevamo, poiché 𝑉𝑎𝑅𝛼(𝑋 + 𝑌) risulta essere proprio minore o uguale alla somma dei due VaR, 𝑉𝑎𝑅𝛼(𝑋) e 𝑉𝑎𝑅𝛼(𝑌).

3.3 La scelta dei parametri

Cerchiamo di capire se è possibile stabilire delle regole che possono guidare in una scelta appropriata dei parametri del VaR: l’orizzonte temporale ℎ e il livello di confidenza 𝛼. Non esistono valori ottimali, ma è possibile fare delle considerazioni che possono influenzarne la scelta.

L’orizzonte temporale ℎ dovrebbe riflettere il periodo di tempo nel quale l’istituzione finanziaria si è impegnata a detenere il portafoglio rischioso.

L’holding period è influenzato dai vincoli contrattuali e legali, ma, soprattutto, dalla liquidità dei mercati, poiché, anche in assenza di vincoli contrattuali, una istituzione finanziaria potrebbe essere costretta a detenere una o più posizioni in perdita, se il mercato, per quelle determinate posizioni, non è molto liquido. In questi casi, un orizzonte relativamente lungo potrebbe essere appropriato. Scatta subito un trade-off, poiché esistono aspetti pratici rilevanti che portano verso un mondo in cui l’orizzonte temporale più appropriato dovrebbe essere sempre più piccolo. Ciò per due motivi: la composizione

(25)

24

del portafoglio rimane immutata soltanto se 𝛥 è molto piccolo; i test statistici sono più fattibili. Per esempio, l’orizzonte temporale regolamentare è pari a 10 giorni, poiché si considera una certa difficoltà di smobilizzo. Nel caso di portafogli soggetti al rischio di credito o in contesti di reinvestimento del portafoglio, l’orizzonte temporale utilizzato è 1 anno.

Sulla scelta del livello di confidenza 𝛼 è ancora più difficile dare indicazioni, in quanto valori differenti di 𝛼 sono appropriati per differenti scopi. Fortunatamente, una volta ottenuta una stima della distribuzione dei rendimenti, è facile calcolare simultaneamente i quantili ai diversi livelli di confidenza. Ai fini di adeguatezza patrimoniale, un alto livello di confidenza è certamente richiamato allo scopo di avere un sufficiente margine di sicurezza.

Il livello di confidenza regolamentare è quello del 99% che, in un’ipotesi di distribuzione normale dei rendimenti, corrisponde a 2,33𝜎; incrementando il percentile, si creerebbero valori di VaR più elevati a discapito di una misura maggiormente instabile e di difficile utilizzo per farne backtesting.

3.4 Il problema della Volatilità

È importante, prima di andare a definire la volatilità, fare una piccola premessa in merito alla omoschedasticità e alla eteroschedasticità. In generale, in tutti i modelli VaR, si assume che un certo fattore 𝑋 determini il valore di 𝑌 con il concorso di altri fattori minori, detti error term o termini di errore. Le influenze di questi ultimi potranno essere positive o negative e saranno normalmente distribuite. Se si assume che i diversi error term siano fra loro indipendenti, allora ipotizziamo una varianza costante (constant variance hypotesis). Detto in altre parole, tali fattori hanno una certa influenza, ma l’errore è costante. Si parla, quindi, di omoschedasticità. Se invece lo spread degli error term non è costante ma varia, si parla di eteroschedasticità e ipotizziamo una volatilità variabile (in questa trattazione tralasciamo questa ipotesi).

La volatilità è una misura di incertezza del prezzo futuro di uno strumento finanziario. In generale, anche se esistono tre tipi di volatilità (storica, implicita e realizzata), porrò

(26)

25

particolare attenzione alla volatilità storica, ovverosia la volatilità che si è sperimentata in un certo periodo storico, poiché è quella che verrà utilizzata nella analisi empirica. Il metodo di stima della volatilità, basato sulla volatilità storica, può assumere che:

• la volatilità sia un parametro costante e che, dunque, le sue manifestazioni passate possano descrivere le dinamiche future (Equally Weighted e Exponentially Weighted Moving Average);

• la volatilità è un processo che varia nel tempo (tecniche econometriche per la sua modellizzazione).

La prima di queste alternative, ovverosia quella che verrà usata nella nostra analisi, parte dal calcolo della deviazione standard annualizzata dei rendimenti in capitalizzazione continua (Equally Weighted) del bene oggetto di analisi.

𝜎𝑇= √

1

𝑇∑(𝑟𝑇−𝑖− 𝑅̅)2

𝑇−1

𝑖=0

La volatilità annualizzata è semplicemente calcolata moltiplicando la precedente formula per la radice quadrata del numero di osservazioni in un anno (se le osservazioni sono giornaliere, si moltiplica per la radice quadrata di 250; se le osservazioni sono settimanali, per la radice quadrata di 52, e così via). In formula:

𝜎𝑎𝑛𝑛𝑢𝑎 = 𝜎𝑇∙ √ℎ

Una variante consiste nell’utilizzare un modello basato sulle medie mobili esponenziali (Exponentially Weighted Moving Average), al fine di attribuire maggior peso alle osservazioni di volatilità più recenti. Tale metodo richiede la definizione di un tasso di persistenza (𝜆) e, per differenza, di un fattore di decadimento (dacay factor) pari a 1 − 𝜆. In sostanza, ciascuna osservazione verrà moltiplicata per il fattore di persistenza, il quale può assumere un valore compreso tra 0 e 1, elevato a potenze crescenti. La formula dell’Exponentially Weighted Moving Average è:

𝜎𝑇 = √(1 − 𝜆) ∑ 𝜆𝑖(𝑅𝑇−𝑖− 𝑅̅)2 𝑇−1

(27)

26

L’EWMA può essere vista come media pesata delle osservazioni, in cui 1 − 𝜆 rappresenta il peso attribuito all’ultima osservazione disponibile. L’equazione precedente può essere così riscritta:

𝜎𝑇= √(1 − 𝜆)(𝑅𝑇−𝑖− 𝑅̅)2+ 𝜆𝜎 𝑇−12

Tipicamente il valore attribuito al dacay factor è 0.94; ciò significa che l’ultimo rendimento al quadrato ha un peso del 6%, indipendentemente dalla lunghezza del campione e diversamente da quanto accade nel calcolo della tradizionale deviazione standard.

3.5 Metodologie di calcolo del Value at Risk

Il Value at Risk può essere calcolato seguendo, principalmente, due diverse metodologie: 1. Metodi simulativi: si distinguono in simulazione storica e simulazione Monte

Carlo (questa metodologia è alla base della nostra analisi empirica, per cui è

dedicato un capitolo ad hoc per la sua descrizione). Ciò che avviene nei due metodi simulativi è la simulazione di 𝑄 possibili valori di una determinata v.a. (come può essere il rendimento di una singola posizione o di un portafoglio) seguendo, però, due logiche differenti (sottoparagrafo 3.5.2 e capitolo 4). 2. Metodo parametrico o approccio varianza/covarianza: che vedremo nel

sottoparagrafo 3.5.1.

3.5.1 Approccio parametrico o varianza-covarianza

L’approccio parametrico varianza/covarianza, diffuso attraverso l’applicazione Risk Metrics proposta dalla J. P. Morgan e utilizzato principalmente in presenza di portafogli lineari, cioè composti, ad esempio, da obbligazioni o depositi, presuppone, come assunto iniziale, la distribuzione normale dei rendimenti (logaritmici, semplici o composti) del portafoglio.

(28)

27 Il Value at Risk tramite questo approccio è dato da:

𝑉𝑎𝑅𝑡,ℎ,𝛼 = 𝑉𝑡∙ 𝑞𝑍𝛼 ∙ 𝜎 𝑡√ℎ

dove 𝑉𝑡 è il valore della posizione in 𝑡; 𝑞𝑍𝛼 è il numero di volte per cui si intende moltiplicare la volatilità per ottenere un determinato intervallo di confidenza; 𝜎𝑡 è la volatilità in 𝑡 e ℎ è l’orizzonte di riferimento.

Estendendo questo ragionamento ad un portafoglio, si ha una modifica del valore della volatilità, che dovrà tenere conto dei pesi dei singoli asset, sul totale del portafoglio, e le possibili correlazioni: 𝜎𝑡𝑉 = √∑ ∑ 𝑤 𝑡𝑖𝑤𝑡𝑗𝜎𝑡𝑖𝜎𝑡𝑗𝜌𝑡𝑖𝑗 𝑛 𝑗=1 𝑛 𝑖=1

dove 𝜌𝑡𝑖𝑗 rappresenta la correlazione fra i fattori di rischio 𝑖-esimo e 𝑗-esimo, 𝑤𝑡𝑖 è il peso

dell’i-esimo asset e 𝑤𝑡𝑗 è il peso del j-esimo asset. Il Value at Risk sarà dato da:

𝑉𝑎𝑅𝑡,ℎ,𝛼 = 𝑞𝑧𝛼∙ √∑ ∑ 𝑤 𝑡𝑖𝑤𝑡𝑗𝜎𝑡𝑖𝜎𝑡𝑗𝜌𝑡𝑖𝑗 𝑛 𝑗=1 𝑛 𝑖=1 ∙ √ℎ ∙ 𝑉𝑡

Portiamo tutto all’interno della radice

𝑉𝑎𝑅𝑡,ℎ,𝛼 = √∑ ∑(𝑉𝑡∙ 𝑞𝑧𝛼∙ 𝑤𝑡𝑖∙ 𝜎𝑡𝑖√ℎ)(𝑉𝑡∙ 𝑞𝑧𝛼∙ 𝑤𝑡𝑗 ∙ 𝜎𝑡𝑗√ℎ)𝜌𝑡𝑖𝑗 𝑛

𝑗=1 𝑛

𝑖=1

(29)

28 𝑉𝑎𝑅𝑡,ℎ,𝛼 = √∑ ∑ 𝑤𝑡𝑖𝑤 𝑡𝑗(𝑉𝑎𝑅𝑡,ℎ,𝛼𝑖 )(𝑉𝑎𝑅𝑡,ℎ,𝛼 𝑗 )𝜌 𝑡𝑖𝑗 𝑛 𝑗=1 𝑛 𝑖=1

Adesso è semplice capire come cambia il VaR totale, a seconda della correlazione tra i fattori di rischio.

Per semplicità di calcolo prendiamo in considerazione i titoli 1 e 2, per cui il Value at Risk del portafoglio sarà dato da:

𝑉𝑎𝑅𝑡,ℎ,𝛼 = √(𝑤𝑡1𝑉𝑎𝑅 𝑡,ℎ,𝛼 1 )2+ (𝑤 𝑡2𝑉𝑎𝑅𝑡,ℎ,𝛼2 ) 2 + 2𝜌𝑡12𝑤 𝑡1𝑤𝑡2(𝑉𝑎𝑅𝑡,ℎ,𝛼1 )(𝑉𝑎𝑅𝑡,ℎ,𝛼2 )

È facile comprendere come si modifica in funzione della correlazione:

• se 𝜌 = 1, per ogni coppia 𝑖-𝑗, il VaR totale è la somma dei singoli VaR pesati; • se 𝜌 = −1, per ogni coppia 𝑖-𝑗, il VaR totale è la differenza dei singoli VaR pesati; • se 𝜌 < 1, per ogni coppia 𝑖-𝑗, il VaR complessivo cattura il beneficio della

diversificazione.

3.5.2 La simulazione storica

In che modo avviene la creazione delle 𝑄 possibili realizzazioni della somma pesata dei rendimenti che andranno a comporre il portafoglio?

Il calcolo del VaR, con il metodo della simulazione storica, viene svolto effettuando una rivalutazione complessiva delle posizioni in portafoglio, in funzione non di valori simulati, come avviene nel metodo Monte Carlo, ma in funzione di valori storici registrati nel passato.

In questo caso l’input di partenza è rappresentato dalle serie storiche dei rendimenti dei fattori di rischio, senza necessità di effettuare ipotesi sulla forma della loro distribuzione. L’aspetto critico di tale metodo è, tuttavia, la scelta della profondità delle serie storiche; mentre una serie troppo ampia includerebbe valori non esplicativi delle condizioni attuali

(30)

29

di mercato, un campione eccessivamente ristretto non descriverebbe abbastanza bene il comportamento del fattore di mercato nelle code della distribuzione, in cui avvengono le perdite più rilevanti.

La scelta delle 𝑄 possibili realizzazioni avviene scegliendo 𝑄 volte un numero compreso tra 1,2, … , 𝑛, (il totale delle osservazioni delle nostre serie storiche), e associando a tale scelta la relativa realizzazione della variabile.

Per esempio se scelgo la 𝑗-esima osservazione avrò, supponendo un portafoglio composto da due titoli che pesano 1:

𝑍(𝑗) = 𝑋(𝑗) + 𝑌(𝑗)

La dipendenza tra le variabili la vado a rispettare sulla base della scelta delle realizzazioni delle diverse variabili aleatorie nella medesima osservazione, ricavata dalla scelta casuale tra 1,2, … , 𝑛 (dai dati empirici).

All’interno del metodo di simulazione storica, esistono due misure di VaR: il VaR parametrico e il VaR non parametrico.

Sia per il VaR parametrico che per quello non parametrico, esistono alcuni passaggi che devono essere eseguiti. Una volta scelto il periodo di detenzione (o holding period), si deve procedere al calcolo statistico, utilizzando una base storica formata da n profitti passati, delle variazioni di valore intervenute nell’holding period. Ad esempio, se il periodo di detenzione è 1 giorno, si calcoleranno le variazioni di valore che il portafoglio ha subito tra ciascun giorno e il giorno successivo. Una volta calcolate le variazioni storiche di valore, si procede con la loro applicazione al valore corrente del portafoglio, ottenendo così n ipotetici cambiamenti di valori. Al fine poi del calcolo del VaR, si dovrà effettuare la scelta del livello di confidenza.

Di seguito è illustrato il passaggio specifico, tipico del VaR parametrico. Una volta ottenute le variazioni storiche di valore del portafoglio, viene applicata la seguente formula:

(31)

30

dove 𝜇 è la media delle variazioni storiche di valore del portafoglio, 𝜎 è la deviazione standard e 𝑞𝑧𝛼 è il numero che moltiplica la deviazione standard, al fine di ottenere l’intervallo di confidenza prescelto (ad esempio, nel caso di intervallo di confidenza del 95%, toglieremo dalla media 1,65 deviazioni standard).

Per prima cosa, si deve calcolare le variazioni effettive del valore di portafoglio; tali percentuali vengono poi applicate al valore corrente del portafoglio, ottenendo così la colonna delle variazioni ipotetiche. Successivamente, si calcola la media e la deviazione standard, utilizzando la formula precedentemente vista. Per calcolare il VaR si sottrae tale risultato al valore corrente.

Passando ad analizzare il VaR non parametrico, è obbligo evidenziare gli specifici passaggi che lo contraddistinguono. In particolare, si necessita di ordinare le variazioni di portafoglio ipotetiche, precedentemente calcolate, dal risultato migliore al risultato peggiore e, successivamente, calcolare la massima perdita potenziale. Il VaR è, dunque, pari alla differenza tra il valore di portafoglio così trovato e il valore iniziale del portafoglio.

(32)

31

4. DIPENDENZA E SIMULAZIONE MONTECARLO

Nella realtà, conoscere e capire la dipendenza tra le variabili interessate nella analisi risulta essere importante in quanto, molte volte, si devono utilizzare distribuzioni multivariate. Nella analisi empirica andremo a creare “tre” portafogli, costituiti da tre titoli azionari, che hanno un certo grado di dipendenza. Nel caso in cui la struttura di dipendenza possa essere ristretta a quella derivante dalla ipotesi di distribuzione normale multivariata o più generalmente di distribuzioni di tipo ellittico (con curve di isodensità ellissoidale), qualora si considerino variabili aleatorie con momenti finiti almeno fino al secondo ordine, è ancora appropriato l’utilizzo di indici di correlazione lineare per misurare la dipendenza tra due variabili. Per simulare un vettore aleatorio con questo tipo di dipendenza, si dispone di metodologie efficaci basate sulla decomposizione di Cholesky della matrice delle varianze-covarianze o, nel caso canonico (media nulla e varianza unitaria), della matrice dei coefficienti di correlazione lineare.

4.1 La simulazione Monte Carlo

La simulazione Monte Carlo è la terza metodologia di calcolo, che si basa sul concetto del lancio di una moneta. Diversamente dal modello varianza/covarianza, che non riesce a catturare gli effetti non lineari, la simulazione Monte Carlo, invece, è in grado di farlo ed è preferita in caso di portafogli caratterizzati da dipendenze non-lineari, cioè composti, ad esempio, da opzioni. Partendo dalle serie storiche dei rendimenti, è necessario fare delle assunzioni per la simulazione:

1. le distribuzioni delle v.a. siano normali per i rendimenti e siano caratterizzate dai parametri 𝜇 e 𝜎;

2. livello di dipendenza tra le variabili aleatorie che, come abbiamo visto sopra, è usualmente la correlazione lineare.

(33)

32

Andiamo ad analizzare i diversi passaggi che la simulazione Monte Carlo richiede e che, nella nostra analisi empirica, andremo ad affrontare, partendo dal caso uni variato, per poi passare a quello multivariato.

Osservando le serie storiche, quindi data la 𝐺𝑋, distribuzione della 𝑋 con parametri 𝜇𝑋 e 𝜎𝑋, data la 𝐺𝑌 distribuzione della 𝑌 con parametri 𝜇𝑌 e 𝜎𝑌, data la 𝐺𝑍, distribuzione della 𝑍 con parametri 𝜇𝑍 e 𝜎𝑍 e data anche la matrice di correlazione 𝜌𝑋𝑌𝑍, dovremo creare un algoritmo che vada a generare le realizzazioni delle variabili 𝑋, 𝑌 e 𝑍 con prefissati livelli di correlazione.

La prima cosa da fare è la creazione di tre distribuzioni indipendenti, 𝑧1, 𝑧2 e 𝑧3 (vedremo questo passaggio per una sola distribuzione indipendente, in quanto, anche per le altre, è il medesimo); per fare questo abbiamo bisogno di scegliere casualmente e per diverse volte, in funzione della dimensione della simulazione, un numero compreso tra 0 e 1.

Figura 4. Rappresentazione della Funzione di Ripartizione (Fonte Excel)

Come facciamo a trovare 𝑧1 partendo dalla scelta del numero casuale tra 0 e 1, definito 𝑈1? Semplicemente, andiamo a vedere quanto vale la funzione in 𝑈1 e troveremo,

conseguentemente 𝑧1; 𝐹𝑋(𝑧1) = 𝑈1

0

1

Z

1

U

1

+∞

-∞

(34)

33

Osservazione 1. 𝑧1 non lo conosciamo, per cui abbiamo bisogno della funzione inversa di 𝐹𝑋 che, come abbiamo visto nel capitolo 1.2, è una funzione monotona crescente per cui invertibile, che riesca a generare come risultato 𝑧1, partendo da 𝑈1;

𝑧1 = 𝐹−1(𝑈 1)

Figura 5. Suddivisione in intervalli di una Gaussiana (Fonte Excel)

Prendendo intervalli della stessa ampiezza sulla densità normale, selezionare in modo congruente con questa distribuzione vuol dire che la proporzione che abbiamo tra le due aree, 𝐴 = [𝑡0+ ∆𝑡] e 𝐵 = [𝑡1+ ∆𝑡], la dobbiamo trovare in termini di proporzione tra le volte che selezioniamo un numero che risiede all’interno di 𝐴 e le volte che selezioniamo un numero che risiede all’interno di 𝐵.

Ci aspettiamo che, dati 100 numeri a caso, troveremo: 𝐴 ∙ 100 ∈ [𝑡0+ ∆𝑡] 𝐵 ∙ 100 ∈ [𝑡1+ ∆𝑡]

Se le aree sono congruenti e se il numero di estrazioni è sufficientemente grande, ci aspettiamo di leggere che il numero di volte che selezioniamo un dato in 𝐴 e un dato in

B

∞-t

1

t

+∞

A

(35)

34

𝐵 sia nel rapporto 𝐴𝐵. Più aumentiamo il numero di estrazioni e più ci aspettiamo che la proporzione si avvicini al rapporto tra le aree.

Una volta individuato come selezionare i numeri casuali tra 0 e 1 e ricavate le tre realizzazioni indipendenti, è il momento di andare a generare le realizzazioni delle v.a., 𝑋, 𝑌 e 𝑍, con i prefissati livelli di correlazione lineare, moltiplicando la matrice colonna delle realizzazioni indipendenti con la matrice di decomposizione di Cholesky (a cui abbiamo dedicato il paragrafo 4.3).

In questo modo creeremo, per 𝑄 volte, le tre realizzazioni, 𝑋𝑖, 𝑌𝑖 e 𝑍𝑖, che, nella analisi empirica, identificheranno i rendimenti logaritmici simulati dei titoli azionari, appartenenti al portafoglio.

4.2 Dipendenza tra variabili aleatorie

Lo strumento che viene utilizzato, più frequentemente, per misurare la dipendenza tra variabili aleatorie è il coefficiente di correlazione lineare:

𝜌(𝑋, 𝑌) =𝐶𝑜𝑣(𝑋, 𝑌) 𝜎𝑋𝜎𝑌 𝐶𝑜𝑣(𝑋, 𝑌) = ∑(𝑋𝑖 − 𝜇𝑋) ∙ (𝑌𝑖− 𝜇𝑌) 𝑛 𝑖=1 Il coefficiente di correlazione 𝜌(𝑋, 𝑌) ∈ [−1,1] e:

• se 𝜌(𝑋, 𝑌) > 0 → le variabili sono dipendenti positivamente; • se 𝜌(𝑋, 𝑌) < 0 → le variabili sono dipendenti negativamente; • se 𝜌(𝑋, 𝑌) = 0 → le variabili sono indipendenti.

Il numero di coefficienti di correlazione, che avremo in funzione del numero di variabili aleatorie prese in considerazione, è:

𝑛 ∙ (𝑛 − 1) 2

(36)

35

L’indice di correlazione necessita che le variabili ammettano momento secondo ed è invariante per trasformazioni lineari delle due variabili, se le pendenze delle due funzioni lineari, impiegate per la trasformazione, sono concordi di segno. Si considerino, per esempio, due variabili aleatorie 𝑋 = 𝑁(0, 𝜎) e 𝑌 = 𝑋2. Sebbene le due variabili aleatorie

siano tra loro dipendenti, risulta che 𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸[𝑋3] = 0, cioè che le due variabili aleatorie non sono correlate.

Per descrivere la struttura di dipendenza di distribuzioni multivariate di tipo ellittico, a cui appartiene la normale 𝑛-dimensionale, qualora si considerino le distribuzioni marginali con momenti finiti almeno fino al secondo ordine, è ancora appropriato l’indice di correlazione lineare. Nel caso di distribuzioni di tipo non ellittico è invece opportuno fare ricorso a indici di concordanza, tra cui il più utilizzato è il 𝜏 di Kendall.

Per misurare la dipendenza tra le variabili aleatorie, nella analisi empirica abbiamo utilizzato il coefficiente di correlazione; individuati i tre indici e creata la matrice di correlazione, tramite la decomposizione di Cholesky siamo andati a simulare i rendimenti delle variabili aleatorie di riferimento e, conseguentemente, i rendimenti del portafoglio.

4.3 La decomposizione di Cholesky

La decomposizione di Cholesky della matrice dei coefficienti di correlazione lineare, si determina calcolando l’unica matrice triangolare inferiore 𝐴, tale che 𝐴𝐴𝑇 = 𝜌; dove la

matrice 𝐴𝑇 è la trasposta di 𝐴. Adesso vediamo come si determina la matrice triangolare

inferiore 𝐴, sapendo che, nella nostra analisi, andremo ad utilizzare tre variabili aleatorie. Data la matrice di correlazione

𝜌𝑋𝑌𝑍 = [

1 𝜌𝑋𝑌 𝜌𝑋𝑍 𝜌𝑋𝑌 1 𝜌𝑌𝑍

𝜌𝑋𝑍 𝜌𝑌𝑍 1

]

𝐴 è una matrice triangolare inferiore 3𝑥3

𝐴 = [

𝑎11 0 0

𝑎21 𝑎22 0 𝑎31 𝑎32 𝑎33]

(37)

36

𝐴𝑇 è la trasposta di 𝐴, per cui è sempre una matrice 3𝑥3

𝐴𝑇 = [

𝑎11 𝑎21 𝑎31 0 𝑎22 𝑎32 0 0 𝑎33]

Moltiplichiamo le due matrici 𝐴 e 𝐴𝑇 e avremo come risultato la matrice di correlazione,

sopra definita 𝐴𝐴𝑇 = [ 𝑎112 𝑎 11 ∙ 𝑎21 𝑎11∙ 𝑎31 𝑎21∙ 𝑎11 𝑎212 + 𝑎 22 2 𝑎 21∙ 𝑎31 + 𝑎22∙ 𝑎32 𝑎31∙ 𝑎11 𝑎31∙ 𝑎21+ 𝑎32∙ 𝑎22 𝑎312 + 𝑎322 + 𝑎332 ] = 𝜌𝑋𝑌𝑍

Costruiamo il sistema uguagliando ogni singolo elemento della matrice 𝐴𝐴𝑇 con la matrice 𝜌𝑋𝑌𝑍 { 𝑎112 = 1 𝑎212 + 𝑎 22 2 = 1 𝑎312 + 𝑎 322 + 𝑎332 = 1 𝑎21∙ 𝑎11 = 𝜌𝑋𝑌 𝑎31∙ 𝑎11 = 𝜌𝑋𝑍 𝑎31 ∙ 𝑎21+ 𝑎32 ∙ 𝑎22 = 𝜌𝑌𝑍

Andiamo, infine, ad inserire i risultati ricavati dal sistema all’interno della matrice triangolare inferiore 𝐴, che rappresenta la matrice di decomposizione di Cholesky. Tale matrice ci servirà per andare a simulare i rendimenti delle variabili aleatorie, tenendo conto della dipendenza che esiste tra di esse, calcolata sulla base delle serie storiche dei rendimenti. 𝐴 = [ 1 0 0 𝜌𝑋𝑌 √1 − 𝜌𝑋𝑌2 0 𝜌𝑋𝑍 (𝜌𝑌𝑍− 𝜌𝑋𝑍 ∙ 𝜌𝑋𝑌) √1 − 𝜌𝑋𝑌2 √1 − 𝜌𝑌𝑍 2 (𝜌𝑌𝑍− 𝜌𝑋𝑍 ∙ 𝜌𝑋𝑌) √1 − 𝜌𝑋𝑌2 ]

(38)

37

4.4 Il backtesting

Essendo presente una vastissima quantità di metodologie e di modelli di stima del VaR, c’è necessità di sottoporre i risultati delle procedure a test di verifica. Inoltre, come già detto, lo scopo del Value at Risk è effettuare una previsione circa il possibile intervallo entro cui cadranno le performance future. In tal senso, deve esistere una relazione stabile fra il VaR e le performance.

Il backtesting è un test statistico utilizzato per verificare l’affidabilità dell’approccio VaR, cioè la correttezza del modello matematico utilizzato per calcolarlo ed è richiesto anche dal Comitato di Basilea. Per testare l’affidabilità dell’approccio VaR, cioè la correttezza del modello matematico utilizzato per calcolarlo, bisogna confrontare le stime probabilistiche con la performance derivante dalla pura detenzione delle posizioni in portafoglio per un certo intervallo di tempo. Una performance di tal genere, detta anche buy and hold, è rappresentata dall’utile o dalla perdita che, ipoteticamente, si realizzerebbero entro due giorni lavorativi consecutivi, assumendo una inalterata posizione di portafoglio. Il test, quindi, vuole verificare l’ipotesi che la stima del VaR ad un determinato livello di confidenza, effettuata dal modello, sia corretta.

In particolare, il Value at Risk è volto a porre una barriera inferiore alle performance. Una perdita eccedente tale barriera è detta downside outlier. Un modo per valutare la tenuta di questa barriera è calcolare un indicatore, detto fattore di scala o rescaling factor. Quest’ultimo è una prima indicazione sintetica del grado di sopra/sottovalutazione del rischio. In una situazione ideale, il rescaling factor dovrebbe assumere valori prossimi ad 1. Ad esempio, se si utilizza un intervallo di confidenza del 99% e si considera 200 giorni lavorativi nella analisi di backtesting, è lecito aspettarsi un numero di outlier pari al teorico (100% − 99%) ∙ 200 = 2. Lo scostamento degli outlier teorici da quelli effettivamente riscontrati viene sintetizzato dal rescaling factor. Se, ad esempio, confrontando i dati di performance e VaR, si ottiene un coefficiente di 1.45, significa che si deve moltiplicare il VaR per 1,45, al fine di ottenere un numero di outlier pari al teorico 2. Quindi il rescaling factor è il numero per il quale dobbiamo moltiplicare il VaR, al fine di ottenere una previsione ottimale delle performance negative.

Riferimenti

Documenti correlati

La Regione Toscana ha da sempre cercato di superare l’approccio statico del “vincolo” come strumento di conservazione e di creare un nesso inscindibile tra

We investigated patients’ choice of a public outpatient clinic for non-emergency cardiologi- cal visits considering travel time (often used as a proxy of distance) and waiting

Per stilare un modello in Aspen Hysys  R preliminare del reattore Bunsen è stato necessario riferirsi ai risultati ottenuti nell’ar- ticolo precedentemente citato; in modo

verifica della rappresentatività del modello rispetto ad un insieme di dati (iniziali) provenienti dal sistema.

Il corso, organizzato dal Dottorato di Ricerca in Agricultural, Food and Environmental Science in collaborazione con il Centro Studi di Economia applicata

[11] www.unitec.it/ita/tesi/tesicaforio/cap6.3.html , Motivazioni allo sviluppo di un modello di datawarehouse per i distretti industriali; il vendor rating.. [12]

• Regulation and supervision should aim at balancing the risks and benefits of banking, taking into account all externalities involved.. The correct solution is not one in which

L’esperienza pratica e diretta presso il Servizio di Socioterapia dell’OSC sperimentata dapprima all’interno del Modulo del Prof. Pezzoli e poi susseguita