• Non ci sono risultati.

Dal Value at Risk all'Expected Shortfall: due misure a confronto

N/A
N/A
Protected

Academic year: 2021

Condividi "Dal Value at Risk all'Expected Shortfall: due misure a confronto"

Copied!
133
0
0

Testo completo

(1)

INTRODUZIONE

Negli ultimi venti anni si è assistito ad un processo di innovazione finanziaria che ha cambiato le condizioni dell’intero sistema bancario, generando un aumento della volatilità e dell’incertezza delle variabili finanziarie, data la crescente integrazione internazionale e complessità dei mercati stessi. Non rare sono state, quindi, le situazioni in cui gli intermediari si sono rilevati incapaci di misurare e gestire correttamente il rischio, generando, in tal modo, delle situazioni di crisi o, in alcuni casi, di insolvenza. Gli intermediari finanziari devono esaminare anche le performance più pessimistiche, al fine di non rimanere spiazzati da possibili eventi avversi che colpiscano i mercati. Per questo motivo, in epoca recente, l’attenzione dell’industria bancaria, si è spostata sulla ricerca di nuovi modelli di risk management, per la misurazione e controllo dei rischi a cui le stesse banche sono soggette.

Il presente lavoro ha lo scopo di evidenziare, attraverso una successiva analisi simulativa finale, le caratteristiche di VaR e Expected Shortfall. Misure di rischio che nascono nell’ambito delle tecniche di asset allocation, di supporto al risk management per una ottimale allocazione delle risorse finanziarie.

Il primo capitolo approfondisce il concetto del Value at Risk (VaR), dalle sue origini e quindi dalla difficoltà di trovare una misura unitaria e complessiva del rischio, al suo sviluppo e successiva evoluzione come misura di riferimento in ambito di vigilanza.

Nel secondo capitolo sono esaminati i tre diversi approcci di calcolo del Value at Risk, specificandone per ognuno di essi pregi e difetti. Nel proseguo è stato fatto un confronto tra i vari approcci che presentano caratteristiche diverse sia dal punto di vista teorico che da quello empirico.

Si conclude questa parte parlando delle problematiche che affliggono il VaR, misura di rischio caratterizzata da pregi ma anche da molti difetti. In realtà molti limiti sono dei ‘falsi difetti’, cioè degli elementi di criticità che sono imputati al VaR in maniera erronea e che riguardano piuttosto un impiego e una implementazione scorretta di tale misura di rischio.

(2)

Il terzo capitolo approfondisce l’excursus normativo in materia di vigilanza bancaria che inizia con il “Primo Accordo” e giunge fino all’introduzione dell’attuale quadro di vigilanza: Basilea III. Si esaminano le ragioni che hanno spinto le autorità di Vigilanza ai diversi cambiamenti regolamentari, soffermandosi in particolar modo, sul rischio di mercato. La crisi finanziaria del 2007, ha messo in luce alcuni limiti dei quadri regolamentari precedenti, determinando la necessità di avviare un intenso processo di revisione. La crisi finanziaria, propagatasi negli Stati Uniti prima e all’intero sistema finanziario dopo, ha dimostrato quanto le banche a livello internazionale non fossero in realtà capaci di gestire efficacemente le diverse tipologie di rischio e di reagire prontamente a situazioni di criticità. L’attuale quadro di vigilanza si arricchisce di importanti novità e dirige la propria azione revisoria a correggere alcuni fra i principali difetti delle regolamentazioni precedenti, dotando le Autorità di Vigilanza di poteri più incisivi per il controllo sulle banche. Basilea III ha sicuramente soddisfatto le diverse esigenze relative alla copertura delle lacune emerse dai quadri normativi precedenti, tuttavia fin dalla sua istituzione ha manifestato una serie di punti di debolezza, da qui la volontà del Comitato di Basilea di produrre una serie di documenti di consultazione e di discussione che indicano un significativo riesame del quadro di Basilea III.

La rapida successione temporale degli interventi normativi effettuati dal comitato di Basilea, evidenzia come la regolamentazione bancaria in materia di valutazione dei rischi di mercato necessitasse di un aggiornamento metodologico integrale che potesse consentire maggiore congruità nella misurazione del rischio complessivo. Il Fundamental Review of the Trading Book (FRTB) del maggio 2012 e i successivi documenti di consultazione hanno presentato delle proposte che riflettono l’obiettivo generale del Comitato di progettare un nuovo framework normativo che affronti le carenze nella misurazione dei rischi di mercato attraverso modelli interni o approccio standard.

In principio la nuova riforma sul Market Risk prevedeva un’implementazione della stessa nelle normative nazionali entro gennaio 2019 per poi avere il via da dicembre dello stesso anno ma è stata approvata un'estensione della data di attuazione al 1°gennaio 2022.

(3)

Nel quarto capitolo, nodo centrale per questo lavoro, si analizza una misura alternativa al VaR, ossia l’Expected Shortfall mettendone in rilievo le caratteristiche, le finalità e le principali differenze rispetto al VaR. Se le caratteristiche dell’ES potrebbero non essere sorprendenti da una prospettiva matematica, portano ad anomalie inattese se interpretate da una prospettiva finanziaria. Il modo in cui l’ES tiene conto del comportamento della coda è la causa principale di tutte queste anomalie che non riducono i meriti dell’ES come misura di rischio ma forniscono un’argomentazione contro il suo uso indiscriminato.

Quindi, valutando l’adeguatezza patrimoniale con l’ES emergono nuovi fenomeni contrastanti che non sono immediatamente riconoscibili dalla stessa ES e che potrebbero eventualmente indebolire una regolamentazione efficace.

Sebbene l’ES risulti essere una misura di rischio concettualmente superiore al VaR, la stabilità della stima e la scelta di metodi efficienti di backtesting devono ancora essere stabiliti. Pertanto, si presume che il VaR verrà utilizzato come misura standard nel settore finanziario. Si approfondisce il concetto con alcune note di cautela quando si utilizza il VaR per la gestione dei rischi. Si conclude il capitolo con una tabella che riassume i punti di forza e debolezza delle due misure di rischio.

Il quinto capitolo riporta un’analisi numerica di calcolo del VaR e dell’ES su un determinato portafoglio azionario. Esso è composto da dieci titoli, che appartengono al FTSE MIB, il principale indice azionario italiano.


Il set di dati usati contiene dati storici per l’indice FTSE MIB che attraversa periodi variabili che dipendono dal titolo preso in considerazione, ossia le serie storiche dei prezzi, estratti da yahoo finance, si riferiscono all’intervallo massimo di ogni singolo titolo dalla data di inizio fino al 18 luglio 2018.

Importante sottolineare che verrà utilizzato un livello di confidenza del VaR pari a 97.5%, cosi come richiesto dal Fundamental Review of the Trading Book (FRTB). Tramite l’uso di Matlab, andremo a lavorare sui titoli mostrando empiricamente i cambiamenti tra l’approccio parametrico e quello storico se viene usato come misura del rischio il VaR oppure l’ES. Si conclude facendo poi un Backtesting (validazione ex-post) del lavoro svolto.

(4)

CAPITOLO I

IL VALUE AT RISK (VaR)

1. Premessa

Le banche, come ogni altra tipologia di impresa, durante lo svolgimento della propria attività sono soggette ad un certo margine di rischio. Con il termine rischio generalmente si intende la possibilità di subire un danno, una perdita, come eventualità generica o per il fatto di esporsi a un pericolo. In ambito economico, invece, tale espressione contiene una sfumatura di significato differente, infatti si evince che il rischio è la condizione in cui si trova un soggetto economico quando a ogni sua scelta sono associabili diverse conseguenze, ognuna con un determinato grado di probabilità; dunque il rischio è legato alla possibilità che si verifichi o meno l'evento più favorevole per il soggetto. L'evoluzione storica di questa locuzione è stata molto travagliata e la letteratura ritiene che essa abbia origine, o meglio, che inizi ad acquistare una certa rilevanza, durante il periodo rinascimentale e che, nei secoli successivi, si sia modificata grazie anche a numerosi interventi di illustri economisti. Fra i più importanti si deve ricordare Frank H. Knight che fu il primo a scindere il concetto di rischio da quello di incertezza, sostenendo che il rischio è qualcosa che si può misurare e interpretare in termini di aleatorietà (a quantity susceptible of measurement) mentre l'incertezza appartiene ad una categoria più vasta e complessa di fenomeni. L'incertezza, che include al suo interno il rischio, non si riduce mai unicamente ad esso ma, anzi, si differenzia da quest'ultimo proprio perché non è possibile determinarla numericamente, poiché riferita a situazioni non quantificabili.1

Un ulteriore ed essenziale apporto al tema è stato fornito da Kahneman e Tversky2,

i quali hanno fatto emergere la natura soggettiva del rischio, che dipende dalla percezione di ogni singolo individuo: infatti, a parità di profilo di rischio, ogni soggetto reagisce in modo diverso, seguendo la propria funzione di utilità, ossia,

1 KNIGHT, F. H. Risk, Uncertainty and Profit, A. M. Kelley, New York, 1964, pag 18-20

2 KAHNEMAN, D., TVERSKY, A. Prospect Theory: an analysis of decision under risk, in

(5)

in relazione al proprio specifico grado di propensione o avversione al rischio. Da ciò discende, appunto, che il rischio ha caratteristiche intrinsecamente soggettive perché dipende dalla funzione di utilità di ogni individuo3.

Da questa breve escursione storica emerge sia la natura soggettiva del rischio, che la sua duplice dimensione: difatti, esso viene definito come un fenomeno aleatorio dal quale possono emergere risultati positivi o negativi, cioè, da esso può intravedersi sia una possibilità di perdita, sia, allo stesso tempo, un potenziale guadagno, casistiche che sono legate tra loro in modo inscindibile e caratterizzate dalla circostanza che l'una non può esistere senza l'altra.

In ultima istanza, il rischio può essere anche visto come l'importo monetario delle probabili perdite che si potrebbero subire nel caso si mantenesse immutata la propria esposizione, per un dato periodo di tempo.

Sulla base di questi assunti emerse nel tempo la necessità di passare dalla semplice misurazione del rischio ad un processo di gestione del rischio (c.d. Risk Management) inteso come l'insieme di processi attraverso cui un'azienda identifica, analizza, quantifica, elimina e monitora i rischi legati ad un determinato processo produttivo4.

Il Risk Management è costituito da una serie di fasi consequenziali: • Identificazione dei rischi;

• Misurazione del rischio; • Gestione del rischio; • Controllo del rischio.

In questa sede non si analizzerà tutto il complesso processo di Risk Management, ma ci si soffermerà unicamente su una specifica fase, ovvero la misurazione del rischio, e più precisamente, si andrà ad analizzare l'indicatore principalmente utilizzato in tale settore, ossia, il Value at Risk, che ebbe storicamente un impatto

3 Per ulteriori approfondimenti sull'evoluzione del concetto di rischio si veda GANDINI, G.,

GENNARI, F. Il rischio nel sistema d'azienda, in PRANDI, P. (a cura di), Il risk management: teoria e

pratica nel rispetto della normativa, Franco Angeli, Milano, 2010.

4 Per approfondimenti vedi SAITA, F. Il risk management in banca: performance corrette per il rischio

(6)

rivoluzionario nel mondo della misurazione dei rischi.

2. L’origine del Value at Risk

La storia della nascita del Value at Risk è molto particolare. Si deve partire innanzitutto evidenziando il contesto di riferimento dove è nata questa tecnica di misurazione del rischio. Dopo aver preso coscienza che il rischio aveva una natura ben più complessa della semplice definizione data in origine, tra la fine degli anni '50 e la fine degli anni '80 si svilupparono un numero crescente di metodologie per la gestione dei rischi finanziari. Inizialmente vi fu una particolare focalizzazione dell'attività del Risk Management proprio sul processo di misurazione del rischio. Vennero definite negli anni numerose tecniche per la quantificazione dei rischi finanziari, andando a creare, in questo modo, un labirinto intricato di indicatori tra loro eterogenei che però erano accomunati dallo stesso scopo: misurare, per ogni tipologia di strumento, il relativo rischio finanziario specifico.
 Per la misurazione del rischio del tasso di interesse, per esempio, si utilizzava principalmente la duration, ovvero la durata media finanziaria: essa permette di quantificare, con un dato livello di precisione, la variazione del prezzo di un'obbligazione in relazione all'aumento o alla diminuzione del tasso di interesse. La duration era, in sostanza, un indicatore che esprimeva la misura della reattività del prezzo di un'obbligazione a minime variazioni positive o negative del tasso.


Relativamente ai titoli azionari, invece, si utilizzava fondamentalmente il coefficiente beta (β), il quale esprime la sensitività di un determinato titolo in relazione ai movimenti di un indice di mercato. Tale indicatore (β) si trova espresso specialmente all'interno del modello del Capital Asset Pricing Model (c.d. CAPM), che definisce il prezzo di un titolo azionario tenendo conto dei rischi e del rendimento atteso dello stesso.


Per quanto concerne le opzioni, gli operatori finanziari usufruiscono comunemente di un insieme di derivate parziali, chiamate greche5, che misurano la rischiosità di

ogni singolo fattore che impatta sul modello di pricing di Black e Scholes, ovvero

5 Per ulteriori informazioni sulle greche, si veda HULL, J.C. Opzioni, future e altri derivati, edizione

(7)

determinano la reattività di un'opzione in seguito a piccole variazioni dei principali fattori o variabili indipendenti che influenzano i movimenti del prezzo.
 In ultima analisi, per misurare il rischio di credito si adoperavano essenzialmente i rating, ovvero giudizi sintetici, formulati in lettere da alcune agenzie specializzate in base al grado di solvibilità e al merito creditizio delle società oggetto di valutazione.
 Come si è evidenziato, venne sviluppato un elevato numero di indicatori diversi e specifici per ogni tipologia di rischio che però, presi insieme, possedevano un'evidente limite: erano misure assolutamente non comparabili (come si poteva associare un rating, ovvero un giudizio in lettere, con una greca, cioè una derivata parziale?). Il rischio veniva sì misurato attraverso molteplici metodologie, ma di fatto tutte a sé stanti, perché non confrontabili tra di loro, così da impedire qualsiasi quantificazione complessiva del rischio. Si possedevano tante grandezze relative a specifici rischi, ma non si riusciva mai ad ottenere la percezione completa del rischio che affliggeva un portafoglio o un'attività complessa, composta cioè da più tipologie di rischi specifici: mancava una visione unitaria e complessiva del rischio. Tali misure, per di più, si contraddistinguevano per la mancanza di un'indicazione circa un'eventuale perdita inattesa, che poteva sorgere in caso di una variazione anomala dei fattori che le caratterizzavano e per l'assenza, al loro interno, di informazioni relative all'evoluzione corrente del mercato.

Questi limiti emersero in modo sempre più evidente sul finire degli anni '80: in quegli anni infatti emerse la necessità di definire un patrimonio di vigilanza a livello internazionale e questo bisogno sfociò proprio nella sottoscrizione del Primo Accordo di Basilea (1988), che richiedeva un certo livello di adeguatezza patrimoniale delle banche, ossia venne introdotto un requisito minimo di capitale di cui le banche dovevano obbligatoriamente dotarsi al fine di fronteggiare eventuali perdite inattese derivanti dai rischi prodotti dalla stessa attività bancaria. Si decise così, di porre l'accento sui rischi che una banca deve affrontare e quindi sul patrimonio minimo di cui essa deve dotarsi per evitare che tali rischi la mettano in crisi. Ovviamente, per poter gestire il rischio in modo adeguato bisogna innanzitutto saperlo misurare, e come evidenziato, le tecniche di misurazione abbondavano, ma non riuscivano a quantificare in modo univoco il rischio che un

(8)

istituto complesso come una banca affronta quotidianamente.

Nello stesso periodo in cui venne introdotta Basilea 1, Dennis Weatherstone, che al tempo era l'amministratore delegato della società finanziaria J.P. Morgan (ora leader nei servizi finanziari globali), durante una riunione chiese ai propri direttori a quale rischio era soggetta la società e ognuno di essi fornì al Presidente (c.d. Chairman) una diversa misura di rischio: il direttore dell'area credito, ad esempio, espose il rischio del suo settore tramite la comunicazione di una serie di rating, il direttore dell'area finanza riferì il rischio degli investimenti in obbligazioni tramite la duration dei portafogli delle stesse e così per ogni area della società. Il presidente Weatherstone però, voleva conoscere il rischio complessivo della società e non i rischi specifici di ogni singolo segmento della J.P. Morgan, così incaricò i suoi migliori analisti, esperti in finanza e statistica, di trovare una misura di rischio che esprimesse in modo intuitivo e immediato il rischio complessivo cui era soggetta la società. A seguito di questa richiesta, gli analisti si misero all'opera e definirono una nuova tecnica di misurazione del rischio: nacque il Value at Risk (c.d. VaR). Ogni giorno veniva elaborato all'interno della banca d'affari J.P. Morgan un documento che doveva essere poi consegnato al Chairman Weatherstone entro le quattro e un quarto del pomeriggio (c.d. 4.15' p.m. report ) in cui veniva riportato l'ammontare monetario dei dollari che la società rischiava di perdere in relazione a tutte le attività correnti che possedeva, limitatamente ad un determinato periodo di tempo (solitamente un giorno oppure dieci giorni) e con uno specifico grado di probabilità (per esempio 95% o 99%).

Questo documento, in sostanza, racchiudeva il Value at Risk, che si dimostrò come l'idea più semplice ma rivoluzionaria nell'ambito delle tecniche di misurazione del rischio: in un unico numero, viene riassunto l'importo nella moneta di riferimento che definisce la potenziale perdita inattesa, determinata con una certa probabilità, a cui qualsiasi banca o società finanziaria può incorrere. Si deve tener conto, oltretutto, che tale numero include la quantificazione del rischio complessivo delle diverse attività o posizioni e dei differenti elementi di rischio, andando così a raggruppare in un unico indicatore tutte le diverse tipologie di rischio che sono tipiche di un portafoglio (ad esempio il rischio di tasso, il rischio di cambio, ecc.). Questa straordinaria tecnica di misurazione era stata prodotta internamente da J.P.

(9)

Morgan che nel 1994 decise di renderla nota al mondo attraverso la pubblicazione del RiskMetrics6, un documento di carattere tecnico in cui veniva esposta questa

innovativa metodologia di misurazione che rispondeva al nome di Value at Risk7.

La sua pubblicazione beneficiò di una tempistica eccellente: negli ultimi anni i giornali avevano pubblicato numerosi articoli riguardanti eclatanti perdite finanziarie8che avevano scosso tutto il mondo. Da quel momento iniziò un periodo che si caratterizzò per l'espansione e il miglioramento dei modelli e delle metodologie per la misurazione dei rischi.

3. Definizione del Value at Risk

Come si è detto, negli anni '90 la banca d'affari J.P. Morgan rese pubblico un documento (il RiskMetrics®) che illustrava una nuova tecnica di misurazione del rischio, ovvero il Value at Risk, conosciuto più comunemente con l'abbreviazione VaR. Il Value at Risk è definito generalmente come la massima perdita potenziale derivante dalla detenzione di una particolare attività, in relazione ad un certo intervallo di confidenza e ad un determinato orizzonte temporale futuro: è una tecnica di misurazione del rischio fondamentale, che si caratterizza dal fatto che, diversamente da altri modelli, questa è una misura sostanzialmente omogenea di rischio, con il pregio di poter essere utilizzata per compiere un raffronto fra diverse tipologie di rischio. Come precedentemente illustrato, le misure che venivano utilizzate inizialmente, come la duration, il beta (β) o le greche, erano tutte metodologie che difettavano, da un lato per l'impossibilità di adoperarle con lo scopo di attuare un confronto fra diverse posizioni, in modo da conoscere quale fosse più rischiosa per i detentori di tali strumenti, dall'altro per l'incapacità delle stesse di fornire una misura del rischio complessivo, cioè risultante dalla combinazione di diverse posizioni. Per risolvere queste problematiche, si necessita

6 Per ulteriori informazioni si veda il documento tecnico J.P. MORGAN, RiskMetrics TM -Technical

Document, New York, quarta edizione, 17 dicembre 1996.

7 Per ulteriori informazioni sull'evoluzione storica si veda l'articolo TEDESCHI, R. Storia quasi breve del

risk management nelle banche, Il Sole 24ore, 04/11/2016.

8 Si fa riferimento, ad esempio, alla perdita di un ammontare di circa 1,050MM dollari registrata nel 1993

dalla compagnia petrolifera Showa Shell Sekiyu a causa di una speculazione sui tassi di cambio. Per ulteriori informazioni si consulti il libro HOLTON, G. A., (2014) Value-at-Risk: Theory and Practice, paragrafo 1.9.6.

(10)

di un'unità di misura generale del rischio, tenendo conto che il rischio associato ad ogni strumento è legato al livello di variazione del valore dello strumento in un determinato momento del futuro. Tale unità di misura generale è impersonata dalla perdita che una banca può potenzialmente subire in relazione allo strumento posseduto. A questo punto è necessario, per effettuare una valutazione idonea, definire due elementi: un orizzonte temporale di riferimento e un livello di confidenza appropriato.


Con riguardo al primo elemento, ovvero l'orizzonte temporale di riferimento, è necessario che esso venga definito a priori, per un semplice motivo: la perdita che si incorre relativamente alla detenzione di uno strumento (ad esempio un'obbligazione o un'azione) per un giorno, è diversa dalla perdita che si potrebbe incorrere nel caso tale strumento fosse mantenuto per 10 giorni o per 30 giorni, o perfino un anno. È chiaro perciò che, la misura di rischio prescelta, deve essere usufruita in relazione ad un preciso e predefinito orizzonte temporale.


Relativamente al secondo elemento, ossia il livello di confidenza, la sua definizione è legata al concetto di massima perdita potenziale. La misura di rischio, infatti, non può essere assimilata alla massima perdita assoluta, bensì a quella potenziale. La ragione è palese: se si dovesse utilizzare una misura di rischio assoluta e non più potenziale, nel caso si detenesse uno o più strumenti e si volesse quantificare la loro massima perdita assoluta, risulta evidente che questa coinciderebbe esattamente con l'esposizione complessiva, ovvero, l'ammontare di capitale impiegato in tali strumenti. Tale concetto verrà illustrato di seguito con un esempio: se una banca possedesse un portafoglio contenente 100 obbligazioni dal valore di 10€ per singola obbligazione, il capitale complessivo nel portafoglio risulterebbe pari a 1000€, e la perdita massima assoluta di tale portafoglio andrebbe proprio a coincidere con l'importo del capitale complessivo, ovvero i 1000€.

Allo stesso modo, se la banca possedesse 100 azioni dal valore di 10€ per azione, il capitale complessivo risulterebbe sempre pari a 1000€ e la perdita massima assoluta rimarrebbe invariata alla cifra di 1000€. Ovviamente, in questo modo, detenere 100 azioni o detenere 100 obbligazioni in portafoglio, comporterebbe lo

(11)

stesso livello di rischio, in altri termini, una perdita massima assoluta di 1000€, ma è comunemente noto che il rischio associato alle azioni è più elevato di quello associato alle obbligazioni, perciò l'utilizzo di una tipologia di misurazione basata sulla perdita assoluta non sarebbe idonea proprio perché si incorrerebbe in un'evidente contraddizione.

Date le circostanze è preferibile adottare una misura di rischio basata sulla massima perdita potenziale, la quale avrà luogo solo in un determinato set di casistiche possibili: si dovrà, di conseguenza, delineare un insieme ampio di situazioni sfavorevoli per un intermediario che, però, non vada mai a coincidere con la totalità delle situazioni possibili (altrimenti si determinerebbe la perdita assoluta e non quella potenziale). La percentuale delle situazioni sfavorevoli prese in considerazione potrebbe essere pari, ad esempio, al 99% di tutti gli scenari possibili, così da non coincidere con la totalità delle situazioni avverse, ma, allo stesso tempo, comprenderne un numero sufficientemente elevato: infatti, solo nel remoto caso in cui si verificasse il rimanente 1% di scenari sfavorevoli, la perdita che si registrerebbe sarebbe superiore a quella stimata dalla misura di rischio. In altri termini, definire una perdita massima potenziale relativa al 99% del totale degli scenari possibili, implica la determinazione, sulla distribuzione dei rendimenti della posizione assunta, di un valore z, tale che la probabilità di ottenere un valore più piccolo di z sia uguale all'1% dei rimanenti casi.

Si può spiegare tale meccanismo attraverso un esempio: se poniamo che il valore di un'attività sia pari a 1000€ e che, con una probabilità dell'1%, il valore di tale attività dopo un giorno scenda a 785€, ciò significa che la cifra di 785€ è il valore più basso che quell'attività, nell'arco di un giorno, può pervenire nel 99% dei casi: tale cifra è esattamente il valore dell'attività relativo ad un livello di confidenza del 99%, cioè nel 99% dei casi avversi.

A questo punto si può quantificare la massima perdita potenziale, relativamente ad un orizzonte temporale pari ad un giorno e ad un intervallo di confidenza del 99%, come la differenza tra il valore iniziale dell'attività (1000€) e il valore dell'attività nel 99% degli scenari sfavorevoli (785€) che risulta essere pari a 215€.

Questo valore è definito come Value at Risk: la massima perdita potenziale derivante dalla detenzione di una particolare attività, in relazione ad un certo

(12)

intervallo di confidenza e ad un determinato orizzonte temporale futuro.


In altri termini, il Value at Risk può essere considerato come una tecnica che esprime, attraverso valori monetari, la misura di rischio a cui un particolare individuo, detentore di un capitale o di un'attività, è soggetto.

Si deve tener presente che più ampio e complesso è il portafoglio di attività di cui si vuole calcolare il rischio, più elaborato sarà il calcolo del VaR, poiché, in quest'ultimo caso, bisognerà tener conto anche delle correlazioni tra le diverse attività presenti nel medesimo portafoglio e il livello di diversificazione delle stesse.

Figura 1.1: Rappresentazione del Value at Risk calcolato, a titolo esemplificativo, su un'attività dal valore di 1000€, con un intervallo di confidenza del 99% e in un arco temporale di 1 giorno.

Fonte: Elaborazione personale.

Ricordiamoci che questa misura di rischio dipende principalmente da due elementi: l'orizzonte temporale deciso e il livello di confidenza scelto. All'aumentare di uno dei due elementi o all'incremento di entrambi, sussegue l'ampliamento del valore del Value at Risk.

Per quanto riguarda il livello di confidenza, solitamente esso varia dal 95% al 99,9%, in relazione alle esigenze specifiche dell'istituto che usufruisce di questa misura o agli obblighi normativi imposti dalle Autorità competenti. Relativamente all'orizzonte temporale scelto invece, esso generalmente corrisponde ad 1 giorno o a 10 giorni, in attinenza con la tipologia di attività cui si riferisce (più l'attività è

(13)

liquida, più rapido sarà il suo eventuale smobilizzo e quindi più breve sarà l'arco temporale di riferimento).


Modificando il punto di vista originario, il VaR può essere inteso anche come la perdita minima (non più massima) che un'attività può registrare, sempre in un prestabilito periodo temporale, nel caso venga superato l'intervallo di confidenza precedentemente utilizzato (quindi nel rimanente 1% dei casi, ad esempio). Il Value at Risk è una tecnica semplice, ma di immediata e universale comprensione, che ha il pregio di poter essere applicata ad un numero elevato di rischi (con eventuali e opportune modifiche) e di conseguenza, di riuscire a definire una misura del rischio complessivo sopportato da una banca.

Il VaR inoltre, è una misura di rischio statistica di tipo probabilistico caratterizzata dal fatto che l'ammontare monetario che viene determinato dipende, in primo luogo (ed essenzialmente) dal livello di confidenza scelto: difatti, generalmente all'aumentare della percentuale di probabilità assunta si registrerà un conseguente aumento dell'importo determinato da tale misura.

Se definiamo con Loss la perdita e con Liv.Conf. il livello di confidenza, si potrebbe scrivere tale relazione nel modo seguente:

Prob (Loss ≥ VaR) = 1−Liv.Conf. equivalentemente Prob (Loss < VaR) = Liv.Conf. Quindi, riprendendo l'esempio precedente, si potrebbero riscrivere tali formule così:

Prob (Loss ≥ 1000€) = 1% equivalentemente Prob (Loss < 1000€) = 99%

In secondo luogo essa dipende dal periodo temporale stabilito, e anche in questo caso, con l'ampliamento dell'arco temporale deciso, si verificherà un incremento dell'ammontare di Value at Risk.

Rimane comunque evidente la sua forte comunicabilità: il Value at Risk fu creato proprio con lo scopo di ottenere un unico valore che riassumesse al suo interno tutte le informazioni riguardanti i rischi dell'attività o del portafoglio di attività cui era riferito, attraverso dei calcoli sostanzialmente semplici e veloci, che fornissero un dato facilmente comprensibile anche da operatori che non possedevano competenze professionali e tecniche.

(14)

mediante l'utilizzo di un semplice backtesting, ovvero tramite un confronto tra l'intervallo di valori stimati dal modello e l'esito realmente conseguito successivamente. In questo modo è possibile controllare la bontà della misura e se necessario, porvi alcune modifiche per allineare i risultati alla realtà.

4. Ambiti di applicazione del Value at Risk

4.1 Le implicazioni operative-strategiche

La maggior diffusione del metodo del VaR si ebbe a partire dal 1994 per due motivi fondamentali: sia perché JP Morgan rese pubblico il modello RiskMetrics®, dando ai suoi clienti la possibilità di accedere ai database che non erano in grado di produrre da soli, sia per gli enormi vantaggi che questo metodo di valutazione del rischio di mercato possedeva e che sono stati in seguito sottolineati da Linsmeier e Pearson:

“Value at risk is a single, summary, statistical measure of possible portfolio losses. Specifically, value at risk is a measure of losses due to ‘normal’ market movements. Losses greater than the value at risk are suffered only with a specified small probability. Subject to the simplifying assumptions used in its calculation, value at risk aggregates all of the risks in a portfolio into a single number suitable for use in the boardroom, reporting to regulators, or disclosure in an annual report. Once one crosses the hurdle of using a statistical measure, the concept of value at risk is straightforward to understand. It is simply a way to describe the magnitude of the likely losses on the portfolio.9

I due autori evidenziavano come caratteristiche principali sia la possibilità di poter racchiudere tutti i diversi tipi di rischio cui un’istituzione finanziaria era esposta sia la facilità di comprensione dell’indicatore a chiunque avesse delle basiche conoscenze statistiche. Questi aspetti, uniti all’adattabilità del VaR quale misura di rischio completa, aggregabile, desiderabile ed efficiente, portò all’utilizzo della

9 LINSMEIER T.J., PEARSON N.D., Risk Measurement: An Introduction to Value at Risk, working paper,

(15)

stessa quale misura di rischio mercato utilizzata in modo sistematico.

Il modello VaR così come descritto da RiskMetrics® si fondava molto sulla

Portfolio Theory10 e aveva con esso molti punti in comune, come l’utilizzo delle

stime della deviazione standard e delle correlazioni tra i rendimenti dei diversi strumenti finanziari negoziati. Tuttavia, con la crescente diffusione ed evoluzione del metodo in esame, si è arrivati a una tale generalizzazione del metodo VaR, che la Portfolio Theory (e il sistema iniziale previsto da RiskMetrics®) ne rappresenta solo un caso specifico. In particolare, le differenze principali tra il modello VaR e il modello di selezione del portafoglio basato sulla Portfolio Theory possono essere sintetizzate in quattro punti:

la Portfolio Theory interpreta il rischio in termini di deviazione standard, dove il VaR lo interpreta in termini di massima perdita attesa: il rischio calcolato attraverso il VaR è dunque di più facile comprensione;

la Portfolio Theory presuppone che i rendimenti si distribuiscano normalmente mentre l’approccio VaR permette ai rendimenti di potersi distribuire in qualsiasi modo: il VaR è dunque più generale;

mentre la Portfolio Theory può essere applicata solo per calcolare il rischio di mercato, il VaR può essere applicato a un più vasto numero di rischi: oltre al rischio di mercato, sono sorti modelli di gestione del rischio di liquidità e di credito che hanno alla base proprio il metodo VaR (come per esempio il modello CreditMetrics® per la misurazione del rischio di credito o il modello Liquity at Risk per la misurazione del rischio di liquidità);

• solo uno dei modelli appartenenti alla famiglia dei modelli VaR si basa sulla Portfolio Theory (l’approccio parametrico di RiskMetrics®) mentre gli altri due approcci no (l’approccio delle simulazioni storiche e l’approccio delle simulazioni

10 La Portfolio Theory è un modello secondo il quale l’investitore compie le proprie scelte d’investimento

sulla base dei rendimenti attesi e delle deviazioni standard dei portafogli disponibili dove la deviazione standard è utilizzata come misura di rischio del portafoglio. Un passaggio chiave della portfolio theory è che il rischio di ciascun asset non è la deviazione standard dei suoi rendimenti, quanto piuttosto la misura in cui l’asset contribuisce al rischio totale del portafoglio. Tale misura dipende dalla correlazione o dalla covarianza del rendimento dell’i-esimo asset che compone il portafoglio con quella dei rendimenti degli altri titoli che compongono il portafoglio (il cosiddetto beta).

(16)

Monte Carlo).

Come visto, l’ampia diffusione dei modelli di Value at Risk è stata accompagnata, nel tempo, da uno sviluppo del modello inizialmente ideato da JP Morgan con il fine di limare i limiti che questo modello “grezzo” portava con sé. Per questo motivo, oggigiorno, quando si parla di modelli VaR, s’intende una famiglia di modelli che, seppure si differenzino tra di loro per alcune ipotesi fondamentali, perseguono gli stessi obiettivi: 


• definire i fattori di rischio, che potrebbero avere effetti sul portafoglio di negoziazione della banca e rappresentarne la possibile evoluzione futura;

• costruire la distribuzione di probabilità dei possibili valori futuri del portafoglio di negoziazione della banca relativa ai valori simulati dei fattori di rischio;

• sintetizzare la distribuzione di probabilità dei possibili valori futuri del portafoglio dell’ente finanziario in una misura di rischio comprensibile e semplice.

I modelli VaR si distinguono, nella loro versione più semplice, tra:

• approccio varianze-covarianze (o approccio parametrico), inizialmente previsto da RiskMetrics® il quale:

1. ipotizza che i rendimenti dei fattori di mercato o degli attivi in portafoglio si distribuiscano come una normale, tenendo presente che, in successivi lavori, tale ipotesi sarà modificata nel tentativo di rendere più simile la distribuzione ipotizzata alla vera distribuzione dei rendimenti empiricamente osservata; 2. l’informazione sui valori futuri dei rendimenti degli attivi e dei fattori di mercato e sulle loro correlazioni sono contenute nelle matrici varianze-covarianze (da qui il nome dell’approccio);

3. il VaR viene ricavato come multipli della deviazione standard delle perdite future

(17)

• approccio delle simulazioni, il quale:


1. non esplicita alcuna ipotesi di normalità dei rendimenti futuri delle attività in portafoglio o delle variazioni dei fattori di mercato permettendo l’utilizzo di distribuzioni diverse basandosi sulla distribuzione dei rendimenti osservate empiricamente in un dato intervallo di tempo;

2. si ricorre alla logica della full-valuation, in altre parole si calcola l’eventuale impatto dei valori futuri dei rendimenti di mercato o dei rendimenti delle attività in portafoglio sulle perdite dell’istituzione finanziaria ricalcolando il valore delle attività/passività in funzione delle nuove condizioni di mercato; 3. il VaR è individuato analizzando l’intera distribuzione delle perdite future e determinandone il valore massimo dopo aver escluso una percentuale pari a 1-c.

All’interno dell’approccio delle simulazioni è presente una successiva distinzione tra:

ü metodo delle simulazioni storiche, nel quale s’ipotizza che la distribuzione storica dei rendimenti degli attivi in portafoglio siano costanti nel tempo stabilendo, dunque, che le variazioni passate dei fattori di mercato e i rendimenti passati delle attività in portafoglio ben descrivano le rispettive variazioni future; ü metodo delle simulazioni Monte Carlo, nel quale si parte da una distribuzione nota (e scelta a priori) ed in base ad essa si simulano una serie di scenari riguardanti le variazioni dei fattori di mercato e i rendimenti delle attività in portafoglio, simulando cosi le possibili perdite e i possibili profitti dell’intermediario finanziario.

Ciascun metodo di quelli elencati possiede pregi e difetti che saranno analizzati successivamente. Per ora ci siamo limitati ad una descrizione rapida dei vari metodi e in seguito si dimostreranno empiricamente, utilizzando alcune serie storiche dell’indice di mercato italiano, il FTSEMIB.

(18)

4.2 Gli effetti della vigilanza

Sappiamo che Basilea 1 ebbe un impatto fondamentale sulla vigilanza, perché introdusse un principio cardine che sarebbe poi stato mantenuto dai successivi Accordi: l'adeguatezza patrimoniale delle banche11. In sostanza venne introdotto

un requisito minimo di capitale di cui le banche dovevano obbligatoriamente dotarsi al fine di fronteggiare eventuali perdite inattese derivanti dai rischi prodotti dalla stessa attività bancaria, con il conseguente rafforzamento del livello di patrimonializzazione delle banche.

Questo Primo Accordo però, presentava dei limiti, il principale dei quali riguardava l'eccessiva ed esclusiva attenzione al rischio di credito. Quest'ultimo, era l'unica tipologia di rischio presa in considerazione per la ponderazione delle attività degli enti creditizi.

L’accordo di conseguenza ha subito negli anni successivi una serie di critiche, tra le quali la più importante per questo lavoro, è quella di non contemplare i rischi di mercato, che avevano assunto negli anni successivi alla pubblicazione un’importanza sempre più rilevante all’interno del sistema bancario, tale da spingere molti istituti, specialmente statunitensi, a studiare modelli specifici per il calcolo di tali rischi.

La crescente attenzione ai rischi di mercato non ha riguardato soltanto gli intermediari finanziari e il mondo accademico ma si è estesa anche alle autorità di vigilanza.

Nell’aprile del 1993 il Comitato di Basilea per la Vigilanza Bancaria ha infatti presentato, a fini di consultazione12, una proposta per estendere l’applicazione dei

requisiti patrimoniali anche ai rischi di mercato.

Nel 1994 si è riunito un comitato di studio che ha effettuato un test empirico affidando ad una serie di banche il calcolo del VaR di un identico portafoglio di prova secondo i loro modelli interni. Questo lavoro è servito al comitato per analizzare le principali caratteristiche dei modelli, dei dati e dei metodi di verifica

11 ACCETTELLA, F. L'Accordo di Basilea III: contenuti e processo di recepimento all'interno del diritto

dell'UE, in “Banca, borsa, titoli di credito”, vol. LXVI, luglio-agosto 2013.

(19)

dei risultati, che sono stati commentati e pubblicati nel 1995 insieme alla proposta ufficiale13 di emendamento all’accordo del 1988 per incorporare i rischi di mercato.

Il rischio di mercato fu introdotto all'interno della normativa di Basilea 1 solo nel 1996, in seguito alla pubblicazione del report tecnico RiskMetrics di J.P. Morgan, che, data la complessità e la sostanziale novità dell’approccio basato sul VaR per il calcolo del rischio di mercato, soprattutto in ambito europeo e per le banche di medie e piccole dimensioni, conteneva 2 metodologie diverse per il calcolo del patrimonio di vigilanza a fronte dei rischi di mercato:

• Metodo standard: le posizioni ponderate per il rischio di mercato vengono divise tra le posizioni in merci e su cambi e le posizioni in strumenti finanziari, e rispetto a questi si utilizzano ponderazioni specifiche in base ai rischi cui sono soggetti, ossia al rischio di posizione, al rischio di regolamento e al rischio di concentrazione. 


• Metodo interno: la misura del rischio di mercato viene calcolata attraverso dei modelli interni, quale, ad esempio, il Value at Risk (VaR). 


Successivamente, con il passaggio a Basilea 2, avvenuto attraverso l'emanazione a livello europeo della Direttiva 2006/48/CE e della Direttiva 2006/49/CE e mediante il recepimento delle stesse nell'ordinamento italiano tramite la Circolare n. 26314 di Banca d'Italia, il Risk Management, ma soprattutto il processo di

misurazione del rischio, subirono un cambiamento radicale.

Come è noto, Basilea 2 si caratterizza per i 3 pilastri su cui poggia e da cui si ricava una visione più ampia e critica dei rischi che possono affliggere una banca, portando, di conseguenza, a comprendere come il trattamento del rischio non sia un'attività unicamente regolamentare, bensì come essa debba rientrare pienamente nell'operatività e nella 
gestione della banca. Consapevoli di ciò, vi fu un ampliamento del numero di rischi presi in considerazione: oltre al rischio di credito e di mercato, si aggiunse il rischio operativo.

13 Comitato di Basilea per la Vigilanza Bancaria (1995a, 1995b, 1995c).

14 Banca Italia. Circolare n°263 “Nuove disposizioni di vigilanza prudenziale per le banche” del 27

(20)

Con il passaggio al Nuovo Accordo di Basilea, contrariamente al rischio di credito, non si è registrata alcuna ragguardevole modifica per quanto riguarda i rischi di mercato (con i quali si intendono i rischi di posizione e concentrazione, per quanto attiene il portafoglio di negoziazione ai fini di vigilanza; rischi di cambio, regolamento e posizione su merci, per quanto concerne l'intero bilancio). Le banche, infatti, continuano a scegliere tra: 


• Metodo standard: rimane invariato il metodo di misurazione mediante ponderazioni specifiche in base ai rischi associati, solo che le classi di ponderazione si ampliano;

• Metodi interni: resta la possibilità di usufruire di metodi fondati sul controllo quotidiano dell'esposizione a rischio, calcolati mediante un approccio statistico come quello del Value at Risk (VaR).

Ma le cose sarebbero poi velocemente cambiate.

Nel 2007, negli Stati Uniti d'America prende avvio una crisi finanziaria che registra il suo culmine nel settembre 2008 con il fallimento di Lehman Brothers. In questo periodo le norme di Basilea 1 sono ancora in vigore, mentre quelle definite da Basilea 2 sono ancora in fase di sperimentazione15. Questa crisi ha fatto

emergere la consapevolezza che il rispetto di pesanti vincoli, imposti soprattutto da Basilea 2, non siano adeguati e sufficienti al fine di evitare delle crisi bancarie, poiché in situazioni patologiche (come appunto quella vissuta nel 2007) questi regolamenti non solo non riducono le eventuali perdite che potrebbero generarsi, bensì possono creare dei meccanismi che concorrono ad aggravare tali situazioni patologiche16.

Si osservò infatti, che alcune tipologie di rischio (principalmente il rischio di mercato e il rischio di controparte) erano state sottostimate sia dal Primo Accordo,

15 In alcuni paesi come gli Stati Uniti d'America, le norme di Basilea 2 sarebbero dovute entrare in vigore

nel 2010.

16 Per eventuali approfondimenti in tema di vigilanza si veda: SARCINELLI, M. La vigilanza sul sistema

finanziario: obiettivi, assetti e approcci, in Moneta e Credito, vol.62, nn. 245-248, 2009. In tema di crisi

bancarie, invece, si veda: CARPINELLI, L. Effetti reali delle crisi bancarie: una rassegna della letteratura, Questioni di Economia e Finanza (Occasional papers), Banca d’Italia, n. 55, settembre 2009.

(21)

che dal Secondo Accordo e questa ulteriore consapevolezza indusse il Comitato di Basilea a ridiscutere e rivedere alcuni elementi di Basilea 2, per ridefinire e conformare la stima di alcune tipologie di rischio al loro effettivo impatto sul patrimonio delle banche, cercando di contrastare in questo modo l'insorgere di quelle turbolenze finanziarie che avevano caratterizzato la crisi del 2007: così nacque Basilea 3.

Essa è costituita da 2 documenti pubblicati nel dicembre 201017 che vennero

recepiti nell'ordinamento europeo tramite l'emanazione di una direttiva18 (CRD IV)

e da un regolamento (CRR)19.

Questi due documenti disciplinano temi differenti, infatti la direttiva ha ad oggetto le condizioni per l’accesso all’attività bancaria, la libertà di stabilimento e la libera prestazione del servizio, il secondo pilastro e le riserve patrimoniali addizionali (buffer anticiclici). Essa è entrata in vigore in virtù del recepimento da parte degli ordinamenti nazionali.

Il regolamento è la parte importante di Basilea 3, disciplina tutto il primo pilastro e le regole del terzo pilastro. Da notare che ha avuto diretta efficacia negli stati membri.

Perché questa strutturazione? Beh, ci troviamo in ambito europeo e c’è la volontà di creare un contesto fortemente armonizzato in termini di vigilanza.

Più avanti faremo un approfondimento sugli argomenti sopra citati; andremo ad analizzare nel terzo capitolo quelli che sono stati i cambiamenti nel tempo delle disposizioni regolamentari focalizzandoci in particolare sul rischio di mercato.

17 Per ulteriori informazioni si veda i documenti della Bank for International Settlement, Comitato di

Basilea per la vigilanza bancaria, “Basilea 3-Schema di regolamentazione internazionale per il

rafforzamento delle banche e dei sistemi bancari”, dicembre 2010 (aggiornamento al giugno 2011) e “Basilea 3-Schema internazionale per la misurazione, la regolamentazione e il monitoraggio del rischio di liquidità”, dicembre 2010.

18 Direttiva 2013/36/UE del Parlamento europeo e del Consiglio, del 26 giugno 2013, sull'accesso

all'attività degli enti creditizi e sulla vigilanza prudenziale sugli enti creditizi e sulle imprese di investimento.

19 Regolamento (UE) n. 575/2013 del Parlamento europeo e del Consiglio, del 26 giugno 2013, relativo ai

(22)

CAPITOLO II

MODELLI DI MISURAZIONE DEI RISCHI BASATI SUL

VALUE AT RISK

1. I modelli parametrici (approccio varianza-covarianza)

L’approccio parametrico20 rappresenta il metodo più diffuso per il calcolo dei rischi per due principali ragioni: rappresenta la versione più semplice dei metodi VaR; è la versione originaria dei modelli VaR cosi come formulata da JP Morgan e, quindi, si fonda sulla banca dati RiskMetrics® che, come visto, fu resa pubblica a partire dal 1994.

Questo approccio si fonda principalmente sull'idea di poter quantificare la perdita massima potenziale attraverso l'utilizzo di un determinato numero di parametri, indicativi delle variabili aleatorie originarie. Per fare ciò, si deve partire dall'ipotesi che le variazioni dei parametri devono assumere una certa distribuzione di probabilità, in questo caso, una distribuzione normale.

Quest'ultima, infatti, si contraddistingue per il fatto che può essere determinata attraverso due soli parametri: la media, a cui viene attribuito il significato di valore atteso dei rendimenti futuri, e la deviazione standard (c.d. volatilità), interpretata come range di valori entro cui tali rendimenti rientreranno. Pertanto, utilizzando una distribuzione normale, la deviazione standard viene anche definita come parametro statistico che esprime il livello di incertezza. Chiarito ciò, diventa evidente che la media e la varianza della distribuzione dei rendimenti di un'attività o di un portafoglio possono essere definiti sulla base della media e della varianza dei valori dello scenario di mercato o di credito sottesi.

20 “This approach is called parametric because it involves estimation of parameters, such as the standard

deviation, instead of just reading the quantile of the empirical distribution”. Vedi JORION P., “Value at

(23)

Figura 2.1: Principali classi di osservazioni definite per una distribuzione normale.

Fonte: Elaborazione personale.

Essendo in presenza di una distribuzione normale, ossia di una distribuzione simmetrica, come si desume dalla teoria della statistica, è possibile constatare che una data percentuale di osservazioni ricade sempre all'interno dell'intervallo dato dalla media (µ) meno un dato valore (n) moltiplicato per la deviazione standard (σ) e la media (µ) più lo stesso valore (n) moltiplicato sempre per la deviazione standard (σ), ovvero:

%osservazioni = µ ± n × σ Comunemente sono note queste classi di osservazioni:

68%osservazioni = µ ± 1 × σ 95%osservazioni = µ ± 1, 65 × σ 99%osservazioni = µ ± 2, 33 × σ

Il valore n per cui si moltiplica la deviazione standard è, in sostanza, il numero di volte per il quale deve essere moltiplicata la volatilità al fine di conseguire il livello di confidenza desiderato (es. 95% o 99%).


Tale caratteristica della distribuzione normale, cioè la possibilità di poter estrapolare dalla distribuzione un numero racchiuso in un range incentrato sulla media e di ampiezza pari ad un multiplo della volatilità, è estremamente importante, poiché tale numero dipenderà unicamente dal multiplo scelto e non

(24)

dalla media o volatilità della variabile sottesa.

Prima di procedere con la determinazione del VaR, è necessario illustrare sia i due elementi fondamentali per tale stima, sia le ipotesi di partenza su cui poggiano tali calcoli.

I due elementi essenziali che rientrano nell'elaborazione del VaR sono il mercato e il portafoglio: attraverso il primo si comprende, e successivamente si stima, il comportamento che i vari parametri di mercato adottano in un determinato arco temporale, mentre il secondo richiede la conoscenza e la determinazione della variazione che incorre lo stesso portafoglio, nel momento in cui i parametri citati precedentemente si modificano.


Per quanto concerne le ipotesi di partenza21, di seguito verranno elencati i punti principali che devono necessariamente essere assunti per effettuare una corretta computazione:

• I profitti e le perdite si distribuiscono secondo una normale;

• L'orizzonte temporale e il livello di confidenza scelti devono essere noti; 
 • Le deviazioni standard e le eventuali correlazioni dei rendimenti devono essere calcolati in riferimento ad un intervallo storico predefinito; 


• La media della distribuzione dei profitti e delle perdite deve essere nulla (zero drift hypotesis)22.

Sulla base di queste notazioni è possibile ricavare il Value at Risk: si ricordi che esso è una misura statistica che, in un orizzonte temporale definito e con un certo livello di 
confidenza, definisce la massima perdita potenziale che un'attività o un portafoglio di attività può subire. Di seguito verranno riportate le formule per la

21 SAITA, F. Value at Risk and Bank Capital Management: Risk Adjusted Performances, Capital

Management and Capital Allocation Decision Making, Academic Press Advanced Finance - Elsevier Inc.,

United State of America, 2007.

22 L'ipotesi di rendimento nullo (zero drift hypotesis) è accettabile su un orizzonte temporale giornaliero

perché, in primo luogo, delinea la scelta più lungimirante; in secondo luogo, accettare tale ipotesi implica che il rendimento atteso della relativa attività sia nullo e che la misurazione del rischio non sia, di conseguenza, dipendente da tale valore atteso; in terzo luogo, è un’ipotesi ragionevole per gli operatori che trattano con strumenti derivati o con cambi, i quali assumono posizioni corte e lunghe su specifici fattori finanziari. La difficoltà di tale assunzione emerge nel momento in cui vengono prese in considerazione posizioni lunghe, le quali difficilmente in equilibrio sono soggette ad un rendimento pari a zero. A questo problema si è trovata una soluzione attraverso il calcolo di un rendimento di lungo periodo per le attività prese in esame, oppure, mediante l’adozione del rendimento di un'attività priva di rischio (c.d. free risk). 


(25)

misurazione del VaR23, inizialmente, in relazione ad una singola attività e, successivamente, in relazione ad un portafoglio di attività.

Value at Risk di una singola attività


Il Value at Risk per una singola attività può essere calcolato attraverso la seguente formula:

VaR= C × n × σgg × 𝑔𝑔

dove con C si intende l'ammontare dell'esposizione, con n il numero di volte per il quale deve essere moltiplicata la volatilità al fine di conseguire il livello di confidenza desiderato, σgg la volatilità giornaliera dell'attività in questione24e gg sono i giorni scelti per la valutazione. Se, per esempio, si volesse calcolare il VaR di un'attività, nell'arco di un giorno, con un intervallo di confidenza pari al 99%, il cui capitale ammonta a 1000€ e la sua volatilità giornaliera a 0,545%:

VaR=C × n × σgg × gg = 1000 × 2,33 × 0,00545 × 1 = 12,6985 = 12,70€
 Il valore ottenuto (12,70€) esprime il Value at Risk, cioè la perdita massima potenziale che, con probabilità pari al 99%, non verrà oltrepassata nell'arco di tempo di un giorno.

Value at Risk di un portafoglio di attività


Il Value at Risk per un portafoglio di attività può essere calcolato attraverso la seguente formula:

VaRp = Cp × n × σp × 𝑔𝑔

dove con Cp si intende l'ammontare dell'esposizione del portafoglio e con σp la

23 Per approfondimenti vedi SAITA, F. Il risk management in banca: performance corrette per il rischio e

allocazione del capitale, Egea, Milano, 2000.

24 Nella circostanza in cui non si possieda la volatilità giornaliera, ma unicamente la volatilità annuale, essa

può essere ricavata applicando semplicemente la seguente formula: σgg = $%&&'%()*+*

(26)

volatilità dello stesso (sempre su base giornaliera).


A questo punto, se il portafoglio è formato da due sole attività, che rientrano nello stesso con uno specifico peso (peso attività A = pA, peso attività B = pB = 1−pA)25,

la volatilità generale del portafoglio può essere esplicitata nel modo seguente: σp = 𝑝- ×𝜎-*+ 𝑝2 × 𝜎2*+ 2𝑝-𝑝2 × 𝜎-,2

dove σA2 indica la varianza dell'attività A, σB2 la varianza dell'attività B e σA,B la covarianza tra l'attività A e l'attività B. Allo stesso tempo la covarianza (σA,B) può essere espressa anche attraverso la correlazione delle medesime attività (ρA,B):

𝜎-,2 = 𝜎- × 𝜎2 × 𝜌-,2

Conseguentemente, la deviazione standard del portafoglio può essere riscritta come:

σp = 𝑝- ×𝜎-*+ 𝑝2 × 𝜎2*+ 2𝑝-𝑝2 × 𝜎- × 𝜎2 × 𝜌-,2

Ritornando alla quantificazione del VaR, esso inizialmente era espresso come: VaRp = Cp × n × σp × 𝑔𝑔

Tenendo conto che

VaRA = CA × n × σA × 𝑔𝑔 e VaRB = CB × n × σB × 𝑔𝑔

CA= pA × Cp e CB = pB × Cp

25 Il peso che viene attribuito alle specifiche attività solitamente non è casuale. Il risk manager, dopo aver

definito la frontiera efficiente in relazione alla varianza minima, sceglierà il portafoglio e quindi i pesi ottimi, in relazione al rendimento che desidera ottenere.


Il procedimento richiede il calcolo della derivata prima della varianza del portafoglio in questione in riferimento al peso di una delle due attività (ad esempio A):

789: 7;< = 2pA ×σA 2 −2(1−p A)×σB 2 −4p AσA,B da cui si ricava: 𝑝-= 𝜎2*− 𝜎-,2 𝜎-*+ 𝜎 2*− 2𝜎-,2 𝑝2= 1 − 𝑝

(27)

- 27 Il VaR del portafoglio può essere riscritto come segue:

VaRp = Cp × n × σp × 𝑔𝑔 = Cp × n × 𝑔𝑔 × 𝑝- ×𝜎-*+ 𝑝 2 × 𝜎2*+ 2𝑝-𝑝2 × 𝜎- × 𝜎2 × 𝜌-,2 = [(𝐶𝑝×𝑝-)× 𝑛× 𝑔𝑔 ×𝜎-]*+ [(𝐶𝑝×𝑝2)× 𝑛× 𝑔𝑔 ×𝜎2]*+ 2 𝐶𝑝×𝑝- × 𝑛× 𝑔𝑔 ×𝜎-× 𝐶𝑝×𝑝2 × 𝑛× 𝑔𝑔 ×𝜎2 ×𝜌-,2

=

𝑉𝑎𝑅-*+ 𝑉𝑎𝑅 2 * + 2𝑉𝑎𝑅 - × 𝑉𝑎𝑅2 × 𝜌-,2

Questa è la formula finale del Value at Risk nel caso si debba quantificare la perdita massima potenziale di un portafoglio contenente due attività26.

La formulazione diviene più complicata nel caso in cui il numero delle attività del portafoglio cresca ad un numero superiore a due. In questa circostanza si ritiene più agevole proseguire la trattazione mediante l'utilizzo di vettori e matrici, ossia dell'algebra matriciale, anche se il metodo rimane sostanzialmente identico27

.

Con il termine VAR indichiamo il vettore dei differenti VaR delle attività comprese nel portafoglio in questione, con VART , il medesimo vettore trasposto e con CORR, la matrice delle diverse correlazioni:

VAR= 𝑉𝑎𝑅G 𝑉𝑎𝑅* … … … 𝑉𝑎𝑅I 𝑉𝐴𝑅K= [𝑉𝑎𝑅 G 𝑉𝑎𝑅* … … … 𝑉𝑎𝑅I] CORR= 1 𝜌G,* ⋯ 𝜌G,I 𝜌*,G 1 ⋯ 𝜌*,I ⋮ ⋮ ⋱ ⋮ 𝜌I,G 𝜌I,* ⋯ 1

26 Vedi RESTI A., SIRONI A., Rischio e valore nelle banche. Misura, regolamentazione, gestione, Milano,

Egea, 2008, pag. 169-171.

27 SAITA, F. Il risk management in banca: performance corrette per il rischio e allocazione del capitale,

(28)

Attraverso queste espressioni, è possibile riscrivere il VaR di un portafoglio con n attività semplicemente come:

VaRp = 𝑉𝐴𝑅 × 𝐶𝑂𝑅𝑅 ×𝑉𝐴𝑅K

La stima delle correlazioni tra le diverse attività presenti in portafoglio, se quest'ultime sono di un numero assai elevato, può risultare molto difficile perciò si può ricorrere ad un processo di semplificazione noto come risk mapping, il quale riconduce il numero iniziale di fattori ad un numero inferiore da utilizzare nella quantificazione. È un processo che, generalmente, considera il valore storico medio del mercato di borsa, ad esempio, all'interno del quale si trovano un determinato numero di titoli, anziché considerare tutti questi titoli singolarmente nella computazione28.

In conclusione, l'approccio varianza-covarianza è un approccio relativamente semplice da utilizzare e solitamente viene impiegato quando l'attività o il portafoglio di attività sono lineari, quindi costituiti, per esempio, da obbligazioni o depositi. Il suo limite principale, però, è dato proprio dall'ipotesi di normalità, su cui si basa, poiché tale assunto raramente rispecchia la situazione reale.

1.1 Limiti e pregi dei modelli parametrici

Fra i diversi modelli di misurazione dei rischi l'approccio varianze-covarianze è senza dubbio il modello più usato e conosciuto presso le istituzioni finanziarie29.

La diffusione di questo modello deriva principalmente dai seguenti fattori30: • rappresentare la versione originale dei modelli VaR, di cui è pioniere RiskMetrics© promosso da J.P Morgan, la quale ha reso pubblici e disponibili gratuitamente, dal 1994, i dati e le caratteristiche tecniche principali necessari per la sua implementazione;


28 Per ulteriori approfondimenti sull'attività di risk mapping, si veda Il processo di mapping delle posizioni

di rischio in SAITA, F. Il risk management in banca: performance corrette per il rischio e allocazione del capitale, Egea, Milano, 2000, pag. 55-61.

29 SIRONI A., MARSELLA M., La misurazione e la gestione dei rischi di mercato, Bologna, Il Mulino,

1997.

30 RESTI A., SIRONI A., Rischio e valore nelle banche. Misura, regolamentazione, gestione, Milano, Egea,

(29)

• presentare un vantaggio fondamentale: la semplicità, riferita non solo al profilo concettuale ma anche quel che concerne l’onerosità dei calcoli e quindi dei sistemi informativi a supporto; 


• essere stato sostanzialmente il primo approccio utilizzato dalle banche che hanno intrapreso metodologie interne di gestione del rischio e quindi risulta il più testato in ambito operativo; 


Nonostante questi vantaggi, l'approccio varianze-covarianze presenta alcuni svantaggi, legati principalmente a due ipotesi di natura teorica che stanno alla base dell'intera metodologia. Tali ipotesi fanno riferimento a due aspetti:

• la distribuzione dei rendimenti dei fattori di mercato;


• il grado di sensibilità/linearità delle posizioni in portafoglio al variare dei fattori di mercato.


Ipotizzare una distribuzione normale dei rendimenti significa andare ad ipotizzare una fattispecie che non corrisponde necessariamente alla realtà. Le distribuzioni empiriche, infatti, mostrano generalmente code più spesse (fat tails) di una distribuzione normale. La probabilità che si verifichino variazioni di prezzo lontane dal valore medio è dunque più elevata di quella implicita in una distribuzione normale. Tale caratteristica prende il nome di leptocurtosi. Dunque, la probabilità di conseguire perdite superiori al VaR parametrico calcolato, per esempio, con un livello di confidenza del 99% è in realtà superiore all’1%.

Per questo motivo sono stati introdotti alcuni accorgimenti metodologici come la

distribuzione t di Student31, caratterizzata da code più spesse rispetto alla

distribuzione normale e dunque capace di riflettere in maniera più adeguata la probabilità associata a movimenti estremi dei fattori di mercato. Tale distribuzione conduce spesso ad una migliore approssimazione dei movimenti di mercato.
 Un altro limite fondamentale di questo tipo di approccio è quello della linearità dei payoff. Il presupposto della linearità esclude di poter applicare il modello a quei

31 La distribuzione t di Student presenta un andamento leptocurtico. Si veda a tale proposito BLATTBERG

R.C., GONEDES N.J., A Comparison of the Stable and Student Distributions as Statistical Models for

(30)

prodotti (come alcuni derivati-opzioni) per i quali il legame tra andamento del prezzo e quello del fattore di mercato può non essere stabile nel tempo ma risultare sottoposto a frequenti ed elevate oscillazioni. Se io ragiono in un'ottica di portafoglio, maggiore è l'incidenza di certi prodotti sul portafoglio, maggiore è l'incapacità del modello di fornire un'adeguata misura di rischio.

A fronte di questi limiti, l'approccio varianze-covarianze presenta, rispetto agli approcci alternativi che illustreremo in seguito, alcuni importanti pregi32. Il primo riguarda l'efficienza computazionale: esso consente infatti (grazie all'utilizzo dei coefficienti di sensibilità lineare e all'ipotesi di distribuzione normale) di stimare il VaR dell'intero portafoglio di una banca in un tempo limitato. In secondo luogo, non essendo basato sulla rivalutazione piena delle posizioni (full valuation) ma sull'utilizzo di semplici coefficienti di sensibilità, non richiede di esplicitare i modelli di pricing relativi ad ogni singolo strumento in portafoglio. Infine, grazie al teorema del limite centrale33, la metodologia sottostante l'approccio varianze-covarianze può essere applicata anche se i fattori di rischio non sono distribuiti normalmente, a condizione che essi siano sufficientemente numerosi e relativamente indipendenti tra loro.

2. I modelli non parametrici (di simulazione)

Come si è visto nel paragrafo precedente, la stima del VaR attraverso gli approcci di natura parametrica richiede l'adozione di alcune ipotesi che in alcuni casi non sembrano adattarsi al reale comportamento delle variabili finanziarie analizzate. A fronte di queste limitazioni, i modelli parametrici sono stati integrati e sostituiti con i modelli non parametrici, detti anche modelli di simulazione, in grado di rappresentare una maggiore gamma di scenari e di fornire una misura di rischio più attendibile.

Sono definiti non parametrici proprio perché, anziché limitarsi a derivare il VaR

32 RESTI A., SIRONI A., Rischio e valore nelle banche. Misura, regolamentazione, gestione, Milano, Egea,

2008, pag. 196.

33 Il teorema del limite centrale afferma che la somma (o la media) di un grande numero di variabili aleatorie

indipendenti e dotate della stessa distribuzione è approssimativamente normale, indipendentemente dalla distribuzione delle singole variabili.

(31)

partendo da pochi parametri sintetici (le varianze e le covarianze) della distribuzione dei fattori di rischio, si procede simulando un gran numero di possibili scenari riguardanti la possibile evoluzione futura dei mercati (rialzo dei tassi, svalutazione del cambio, crollo dell’indice azionario ecc).

La loro essenza è quella di lasciare che i dati parlino da soli per quanto possibile e di utilizzare una distribuzione empirica e non teorica.

I modelli di simulazione possono essere ricondotti a due categorie principali: i modelli di simulazione storica34 e i modelli di simulazione Monte Carlo.


Sebbene le differenze tra queste due metodologie siano consistenti, è possibile stilare un elenco di caratteristiche comuni.

Una prima caratteristica distintiva è che tutti i modelli di simulazione sono di norma a rivalutazione piena (full valuation), ciò significa che, date le variazioni dei fattori di mercato, le variazioni del portafoglio analizzato sono determinate calcolando il nuovo valore di tutti gli strumenti che lo compongono. Quindi, l’approccio della simulazione richiede di conoscere un’opportuna formula di pricing per ciascuno degli strumenti finanziari inseriti nel portafoglio di cui vogliamo conoscere il VaR. Se sono esatte le formule di pricing usate, questi modelli restituiscono variazioni del valore del portafoglio corrette e non approssimate. Si considera quindi questi modelli più accurati per il calcolo del VaR relativo a portafogli contenenti un elevato ammontare di opzioni, o altri strumenti finanziari con payoff “non lineare”. Questa ipotesi permette di superare il problema della non linearità fra valore dello strumento e il relativo fattore di mercato riscontrato invece nei modelli parametrici.

Un secondo elemento distintivo delle tecniche di simulazione riguarda le modalità di calcolo del VaR. Mentre nei modelli parametrici questo viene determinato analiticamente grazie all'ipotesi di normalità delle variazioni dei fattori di mercato, nei modelli di simulazione il VaR è calcolato tagliando la distribuzione empirica di probabilità delle variazioni di valore del portafoglio al percentile di confidenza

34 L’approccio della simulazione è chiamato anche approccio “non parametrico” poiché, non formulando

alcuna ipotesi relativa alla forma funzionale della distribuzione dei rendimenti dei fattori di mercato, non richiede di stimare i parametri di tale distribuzione. La definizione non è certamente adatta alle simulazioni Monte Carlo.

Riferimenti

Documenti correlati

Per fortuna l’informatore decide di aiutare ancora l’ispettore fornendogli indizi proprio attraverso il computer. Il numero

Finalmente arrivano informazioni sul complice della Signora Violet, l’abilissima ladra arrestata da Numerik.. Gli indizi sono contenuti in una busta chiusa: l’ispettore Numerik la

[r]

Supponiamo di essere arrivati a un certo passo della costruzione e di saper costruire tutti i punti del piano che hanno coordinate appartenenti a un certo campo di numeri F..

Ingresso libero fino ad esaurimento posti. Per

[r]

2 E che, a sua volta, costituisce il cuore pulsante di una concezione (che Brigaglia chiama) pragmatica del potere, che si ritroverebbe, appunto, solo nelle opere anni ’80:

Personalmente credo che, oggi, occorra lavorare perché cresca la