• Non ci sono risultati.

Capitolo 1 Rischio di mercato e di controparte nell’attività bancaria: considerazioni generali

N/A
N/A
Protected

Academic year: 2021

Condividi "Capitolo 1 Rischio di mercato e di controparte nell’attività bancaria: considerazioni generali"

Copied!
44
0
0

Testo completo

(1)

1

Capitolo 1

Rischio di mercato e di controparte nell’attività bancaria:

considerazioni generali

1.1 La misurazione dei rischi di mercato in banca

Con il termine rischi di mercato si intende la possibilità che variazioni inattese dei fatto-ri di mercato (tassi di interesse, tassi di cambio, prezzi azionafatto-ri, ecc.) determinino una variazione al rialzo o al ribasso del valore di una posizione o di un portafoglio finanzia-rio.

Generalmente, i rischi di mercato vengono identificati con i rischi inerenti il solo porta-foglio di negoziazione (trading book), in cui le posizioni sono assunte per un periodo temporale breve, al fine di beneficiare delle variazioni dei prezzi di mercato. In realtà, i rischi di mercato riguardano tutte le attività e le passività detenute da una banca e, quin-di, anche quelle comprese nel banking book, che sono destinate a rimanere in bilancio per un lungo arco di tempo.

Il processo di securitization, la crescente complessità degli strumenti finanziari negozia-ti dalle banche e l’aumento della volanegozia-tilità dei mercanegozia-ti hanno fatto sì che i rischi di mer-cato venissero ad assumere una rilevanza crescente a partire dai primi anni ’80.

Il problema di una corretta misurazione dei rischi di mercato è, quindi, un problema centrale nella gestione di un intermediario finanziario.

Inizialmente, al fine di misurare correttamente i rischi di mercato, gli intermediari ban-cari si erano orientati verso un approccio tradizionale, generalmente basato sui valori nominali delle posizioni, che considerava l’esposizione al rischio direttamente propor-zionale al valore nominale degli strumenti finanziari detenuti. Si trattava di un approc-cio molto semplice e poco costoso, che non necessitava di informazioni ed aggiorna-menti (visto che il valore nominale di un’attività resta costante). Tuttavia, esso

presen-tava dei limiti:1

 il valore nominale di una posizione non rispecchia il suo valore di mercato (per esempio, una posizione rappresentata da 100 azioni della società A con valore unitario pari a 10 euro viene considerata equivalente a una posizione

(2)

2

tata da 10 azioni della società B con valore nominale unitario pari a 100 euro, sebbene le due posizioni possono avere un valore di mercato diverso);

 il valore nominale non può cogliere il diverso grado di sensibilità di titoli diffe-renti rispetto alle variazioni dei fattori di mercato (per esempio, una posizione in BOT a tre mesi è più sensibile alle variazioni dei tassi di interesse di mercato rispetto ad una posizione in BTP decennali di identico valore nominale);

 il valore nominale non tiene conto delle condizioni di volatilità e di correlazioni dei prezzi/tassi di mercato.

L’inadeguatezza dell’approccio tradizionale ha portato le istituzioni finanziarie ad uti-lizzare misure di rischio specifiche per le diverse tipologie di posizioni: la duration e il basis point value per i titoli obbligazionari, il beta per i titoli azionari, i coefficienti del-ta, gamma, vega e rho per le opzioni.

Tuttavia, come osserva Saita, “misure come la duration di un titolo obbligazionario o il beta di un’azione possono essere considerate più misure di sensitività (cioè di sensibili-tà, di reattività del valore di mercato di una posizione al mutare del contesto di merca-to) che non misure di rischio propriamente dette”2.

Infatti, tali misure presentano ancora diversi limiti:

 posizioni di natura diversa vengono quantificate con misure diverse: ciò impedi-sce di confrontare ed aggregare tra loro i rischi assunti in diverse aree dell’attività di negoziazione (azioni, opzioni, obbligazioni);

 anche all’interno della medesima categoria di posizioni, le misure di sensibilità non sono fra loro additive e dunque aggregabili: così, ad esempio, il delta di un’opzione non può essere sommato al gamma della stessa opzione;

 non viene risolto il terzo limite del metodo dei valori nominali: la mancata con-siderazione del diverso grado di volatilità e di correlazione dei fattori di ri-schio.

1.1.1 I modelli VaR

Al fine di superare i limiti del metodo basato sui valori nominali e delle misure di sensi-bilità, gli istituti bancari hanno cominciato a sviluppare dei modelli che consentissero di quantificare, confrontare ed aggregare il rischio connesso a posizioni e portafogli diffe-renti. Tali modelli, introdotti nella prima metà degli anni Ottanta, sono generalmente

2 F. Saita, “Il risk management in banca. Performance corrette per il rischio e allocazione del capitale”,

(3)

3

denominati modelli del “valore a rischio” (VaR)3

. Una delle prime istituzioni a svilup-pare e rendere pubblico un modello VaR è stata la banca commerciale statunitense J. P.

Morgan, autrice del modello RiskMetrics4.

Ma cos’è il VaR?

Il VaR può essere definito come una misura della massima perdita potenziale che una posizione o un portafoglio di posizioni può subire, dato un certo livello di confidenza, entro un determinato orizzonte temporale. In altri termini, il VaR risponde alla doman-da: qual è la perdita massima che potrebbe essere subita entro un determinato orizzonte temporale, tale che vi sia una probabilità molto bassa, per esempio pari all’1 per cento, che la perdita effettiva risulti superiore a tale importo?

Dunque, sono tre gli elementi che caratterizzano i modelli VaR:

 la massima perdita potenziale che una posizione o un portafoglio può subire;

 il livello di confidenza (inferiore al 100 per cento);

 un determinato orizzonte temporale.

Poiché il VaR può essere calcolato per strumenti finanziari e portafogli differenti fra lo-ro, rendendo confrontabili i relativi rischi, esso viene utilizzato per tre esigenze fonda-mentali: confrontare le diverse alternative di impiego del capitale di rischio di un’istituzione finanziaria, valutare la redditività del capitale allocato e, infine, prezzare in modo corretto le singole operazioni sulla base del relativo grado di rischio.

In generale, esistono tre metodi per il calcolo del valore a rischio:

 l’approccio varianze-covarianze;

 la simulazione storica;

 la simulazione Monte Carlo.

1.1.1.1 L’approccio varianze - covarianze

Tra i diversi possibili approcci alla misurazione dei rischi di mercato, l’approccio va-rianze – covava-rianze, anche detto approccio parametrico o analitico, è indubbiamente

3

I modelli VaR sono stati introdotti da diverse banche statunitensi (Citibank, J. P. Morgan, Chase Man-hattan e Bankers Trust) ognuna delle quali denominava tali modelli in maniera differente: Capital at Risk (CaR), Value at Risk (VaR), Daily Earnings at Risk (DEaR), Dollars at Risk (DaR) e Money at Risk (MaR). Ne-gli anni, il termine che si è diffuso maggiormente è stato quello di valore a rischio (VaR).

4

Nel 1998 il gruppo dei ricercatori autori del modello ha creato una società indipendente, in parte con-trollata dalla stessa J. P. Morgan, la quale ha assunto la denominazione del modello (RiskMetrics Group). RiskMetrics è un marchio registrato.

(4)

4

quello più diffuso presso le istituzioni finanziarie. Secondo la letteratura in materia 5,

al-la base di tale diffusione ci sono motivi diversi e fra loro collegati:

 innanzitutto, esso presenta, rispetto agli altri approcci di misurazione, un

vantag-gio fondamentale che è quello della semplicità;

 tale approccio rappresenta la versione originale dei modelli VaR, ossia quella

che si è sviluppata e diffusa per prima presso le maggiori banche internazionali;

 la scelta di tale approccio risulta favorita dalla presenza di una banca dati

(Ri-skMetrics, originariamente sviluppata dalla banca statunitense J. P. Morgan), che si basa sull’approccio in esame.

L’ipotesi che sta alla base dell’approccio varianze – covarianze è che i profitti e le per-dite (i rendimenti) della posizione si distribuiscano secondo una distribuzione di proba-bilità normale (Fig. 1.1), caratterizzata da due soli parametri: la media (μ) e la deviazio-ne standard (σ), facilmente desumibili dai parametri di mercato sottostanti. Inoltre, si as-sume la linearità del valore del portafoglio o della posizione rispetto ai sottostanti fattori di mercato (tassi di interesse, tassi di cambio, prezzi azionari, ecc.).

Figura 1.1: Distribuzione normale dei rendimenti nell’approccio varianze-covarianze.

L’ipotesi di normalità dei rendimenti agevola il calcolo del VaR, il cui valore viene a dipendere, oltre che dall’intervallo di confidenza prescelto, da un solo parametro rap-presentato dalla deviazione standard della distribuzione di probabilità del rendimento.

5 A. Resti, A. Sironi, “Rischio e valore nelle banche”, Egea, Milano, 2008; P. Jorion “Value at Risk: the new

benchmark for managing financial risk”, McGraw.Hill, 2007;F. Saita, “Il risk management in banca.

Per-formance corrette per il rischio e allocazione del capitale”, Egea, Milano, 2000; A. Sironi, M. Marsella, “La misurazione e la gestione dei rischi di mercato”, Il Mulino, Bologna, 1997.

(5)

5

Ciò spiega la denominazione di metodo parametrico spesso attribuito in letteratura a tale

approccio6.

Quindi, con il termine “approccio varianze – covarianze” si intende indicare un metodo di calcolo della deviazione standard della posizione ed il VaR non è altro se non

l’n–esimo percentile della distribuzione di probabilità.

Sulla base di ciò, l’approccio varianze – covarianze prevede di misurare il valore a ri-schio di una posizione come prodotto di tre elementi: il valore di mercato della stessa posizione (VM), un fattore scalare Ƶ, che consente, data l’ipotesi di normalità dei rendi-menti del fattore di mercato, di ottenere una misura di rischio corrispondente al livello di confidenza desiderato (per esempio: Ƶ = 2 per un livello di confidenza del 97,7%) e la volatilità stimata dei rendimenti del fattore di mercato considerato (cioè la deviazione standard σ):

VaR = VM * Ƶ * σ (1.1)

Quando dalla singola posizione si intende passare a considerare il rischio di un portafo-glio composto da più posizioni, è necessario tener conto non solo della volatilità dei singoli rendimenti, ma anche delle covarianze. Dunque, il calcolo del VaR di un porta-foglio P di posizioni sensibili a N diversi fattori di mercato richiede un input addiziona-le rappresentato dai coefficienti di correlazione fra i rendimenti dei fattori di mercato. Nel caso più semplice in cui vi siano solamente due posizioni (A e B), il VaR del porta-foglio può essere espresso come:

VaRP = √ VaRA2 + VaRB2 + 2 VaRA ∙ VaRB ∙ ρA,B (1.2)

dove ρA,B rappresenta il coefficiente di correlazione fra il rendimento del fattore di

mer-cato A ed il rendimento del fattore di mermer-cato B.

Nel caso in cui vi siano più di due posizioni, il VaR complessivo del portafoglio può es-sere espresso in modo agevole ricorrendo all’algebra matriciale. Si consideri a questo proposito un portafoglio composto da N posizioni, rispettivamente caratterizzate da

va-lore a rischio pari a VaR1, VaR2, …, VaRN. I valori a rischio relativi alle singole

posi-zioni possono essere espressi in forma vettoriale come:

6

“This approach is called parametric because it involves estimation of parameters, such as the standard deviation, instead of just reading the quantile of the empirical distribution” P. Jorion “Value at Risk: the

(6)

6 VaR1 V = VaR2 (1.3) ... VaRN

Inoltre, indicando con C la matrice delle correlazioni fra i rendimenti:

1 ρ1,2 ρ1,N

C = ρ1,2 1 ρ2,N (1.4) … … ...

ρ1,N ρ2,N 1

è possibile esprimere il VaR complessivo del portafoglio come:

VaRP = √ VT ∙ C (1.5)

dove VT è la matrice trasposta di V7.

Nonostante sia di facile implementazione, il modello presenta alcuni limiti8. In

partico-lare risulta rilevante la critica che il mondo accademico ha fatto all’ipotesi di normalità della distribuzione dei rendimenti dei fattori di mercato. Infatti, le distribuzioni empiri-che dei rendimenti delle attività finanziarie presentano generalmente delle code più spesse (fat tails) di quelle proprie di una distribuzione normale. Tale fenomeno, che prende il nome di leptocurtosi, sta ad indicare che perdite particolarmente elevate si ve-rificano più frequentemente di quanto implicito in una distribuzione normale. Dunque, la probabilità di conseguire perdite superiori al VaR parametrico calcolato, per esempio, con un livello di confidenza del 99% è in realtà superiore all’1%.

Tale problema ha spinto accademici ed operatori a sviluppare metodi per la stima delle volatilità e delle correlazioni dei rendimenti dei fattori di mercato, che vengono utilizza-ti per il calcolo del VaR nell’approccio varianze – covarianze. I metodi uutilizza-tilizzabili a tale scopo sono raggruppabili in due categorie.

7

VT = [ VaR1 VaR2 … VaRN ]

8 Per maggiori approfondimenti si veda A. Resti, A. Sironi, “Rischio e valore nelle banche”, Egea, Milano,

(7)

7

La prima categoria è rappresentata dai metodi che fanno perno sulle medie mobili9 che,

basandosi su dati di volatilità e correlazioni storiche, utilizzano tali stime come previ-sione di volatilità e correlazioni future. A tal proposito è bene distinguere il metodo del-le medie mobili semplici (detto anche equally-weighted moving avarage, EQMA) , in cui, al trascorrere del tempo, il dato più lontano viene sostituito da quello più recente la-sciando immutata la dimensione del campione, e quello delle medie mobili esponenziali (detto anche exponentially–weighted moving average, EWMA), che utilizza un numero relativamente elevato di osservazioni passate attribuendo una ponderazione maggiore a quelle più recenti attraverso l’applicazione di un decay factor (λ), che indica il “grado di

persistenza” delle osservazioni campionarie passate10

.

La seconda categoria è rappresentata dai modelli della famiglia GARCH11 (Generalized

Autoregressive Conditional Heteroskedasticity), i quali consentono a volatilità e corre-lazioni di variare sistematicamente nel tempo e tentano, in diversi modi, di modellare tale processo di variazione. In questo caso, le stime di volatilità e correlazioni passate vengono utilizzate per costruire le previsioni ma non coincidono con esse.

1.1.1.2 La simulazione storica

La simulazione storica rappresenta una tecnica di calcolo del VaR non parametrica, dato che non assume ex-ante nessuna specifica forma funzionale della distribuzione delle va-riazioni dei fattori di mercato e, quindi, non richiede di stimarne i parametri della stessa. Nel modello di simulazione storica si ipotizza che le potenziali variazioni dei fattori di mercato siano ben rappresentate dalla loro distribuzione empirica storica, cioè dalle va-riazioni registrate in un periodo passato. In altre parole, si ipotizza che la distribuzione delle variazioni dei fattori di rischio sia stabile nel tempo, così che il loro comportamen-to passacomportamen-to rappresenti una guida affidabile per prevedere i loro possibili movimenti fu-turi.

9

Una media mobile non è altro se non una media relativa a un numero fisso di dati che “slittano” nel tempo. Per ulteriori approfondimenti sulle medie mobili utilizzate per il calcolo del VaR si veda:

C. Alexander “Volatility and correlation: measurement, models and applications”, working paper, 1998; C. Books, G. Persand, “The pitfalls of VaR estimates”, working paper, Risk, 2003; A. Sironi, M. Marsella, “La misurazione e la gestione dei rischi di mercato”, Il Mulino, Bologna, 1997.

10

Maggiore è la costante λ, maggiore è la ponderazione attribuita alle osservazioni passate e, di conse-guenza, meno rapidamente la media si adegua alle condizioni più recenti.

11

Per ulteriori approfondimenti sui modelli GARCH si veda: C. Alexander “Volatility and correlation:

measurement, models and applications”, working paper, 1998; E. Sheedy “Why VaR models fail and what can be done”, working paper, 2008; C. Brooks and G. Persand “Volatility forecasting risk manage-ment”.

(8)

8

Ai fini della determinazione del VaR, le variazioni dei fattori di rischio registrate in pas-sato vengono trasformate in un possibile valore futuro del portafoglio della banca trami-te l’applicazione della logica di “valutazione piena” (full valuation), in base alla quale il valore di mercato del portafoglio viene completamente ricalcolato, mediante opportune formule di pricing, sulla base di nuovi valori (stimati) dei fattori di rischio. Una volta calcolate le variazioni di valore del portafoglio corrispondenti a ciascuna delle variazio-ni storiche dei fattori di mercato, queste vengono ordinate dalla minore alla maggiore (dalla massima perdita al massimo profitto). Così facendo, si ottiene una distribuzione empirica di probabilità delle variazioni di valore del portafoglio.

Il VaR viene determinato seguendo la logica del “taglio del percentile”, ossia tagliando la distribuzione empirica storica in corrispondenza del percentile associato al livello di confidenza prescelto. Il cambiamento di valore del portafoglio (la differenza tra tale percentile e il valore corrente del portafoglio) rappresenta il VaR.

Ad esempio, date 500 osservazioni dei fattori di mercato che generano 500 variazioni del valore del portafoglio, il VaR corrispondente ad un livello di confidenza pari al 99%

è calcolato prendendo la sesta peggiore osservazione12. Poiché il campione in esame è

composto da 500 osservazioni, ciò significa che solo in 5 delle 500 variazioni osservate, ossia solo nell’1% dei casi, la perdita subita risulterebbe maggiore di quella identificata. Allo stesso modo, il Var corrispondente ad un livello di confidenza pari al 98% è calco-lato prendendo l’undicesima peggiore osservazione.

Il metodo della simulazione storica si caratterizza per tre grandi pregi. In primo luogo, esso non richiede di esplicitare alcuna ipotesi particolare circa la forma funzionale della distribuzione dei rendimenti dei fattori di mercato (in tale metodo si ipotizza che la di-stribuzione dei rendimenti futuri sia correttamente approssimata dalla didi-stribuzione sto-rica). Un secondo vantaggio delle simulazioni storiche è legato al fatto che esse non ri-chiedono di stimare la matrice varianze-covarianze dei fattori di mercato che possono influenzare il valore del portafoglio considerato. Da ultimo, la logica sottostante la si-mulazione storica risulta facilmente comprensibile e comunicabile anche ai membri del top management che avessero meno familiarità con le metodologie di risk management più complesse.

12

Analiticamente: 500 * 0.99 = 495, che non è altro se non il percentile che corrisponde alla sesta peg-giore osservazione, dato che le osservazioni vengono ordinate dalla massima perdita al massimo guada-gno.

(9)

9

A fronte di tali vantaggi, le simulazioni storiche soffrono di tre principali limiti. Anzi-tutto, le simulazioni storiche ipotizzano implicitamente la stabilità temporale (staziona-rietà) della distribuzione di probabilità delle variazioni dei fattori di mercato. In altri termini, la simulazione storica assume implicitamente che la distribuzione futura sia u-guale a quella passata, ossia che i rendimenti storici provengano da distribuzioni di pro-babilità indipendenti ed identicamente distribuite. Un secondo problema derivante dall’utilizzo dei metodi di simulazione storica è l’onerosità dei calcoli necessari per ri-valutare l’intero portafoglio di un’istituzione finanziaria alle condizioni di mercato pas-sate. Chiaramente l’intensità di calcolo richiesta sarà tanto maggiore quanto più nume-rosi e complessi sono gli strumenti in portafoglio e quanto più elevato è il numero dei fattori di mercato cui il portafoglio risulta sensibile. Un ultimo limite del metodo delle simulazioni storiche, probabilmente il più serio dal punto di vista applicativo, è quello relativo alla limitatezza delle serie storiche disponibili. Il numero limitato di osserva-zioni storiche disponibili si traduce in una scarsa definizione delle code della distribu-zione di probabilità utilizzata nel modello, giungendo ad una forte sovra o sottostima degli eventi estremi. Inoltre, incrementare il più possibile la lunghezza della serie stori-ca di riferimento può portare a violare l’ipotesi di stabilità della distribuzione: infatti, allontanandosi troppo nel tempo si rischia di fondare la stima della distribuzione futura dei rendimenti su dati estratti da una distribuzione ormai obsoleta. Esiste quindi una re-lazione di trade-off riguardo alla lunghezza ottimale della serie storica di riferimento: l’esigenza di stabilità della distribuzione consiglia l’uso di una serie breve, mentre l’esigenza di un’adeguata rappresentazione degli eventi estremi esigerebbe, invece, di

utilizzare una serie storica più lunga13.

Al fine di alleviare questo trade-off esistente tra la stabilità della distribuzione e la

lun-ghezza ottimale della serie storica di riferimento, Boudoukh, Richardson e Whitelaw14

hanno proposto l’adozione di un approccio ibrido (hybrid approach), che combina i due modelli illustrati finora: varianze-covarianze e simulazioni storiche. In particolare, l’approccio ibrido si propone di combinare il vantaggio connesso all’utilizzo delle me-die mobili esponenziali con il vantaggio proprio delle simulazioni storiche di non for-mulare alcuna ipotesi relativa alla forma funzionale della distribuzione dei rendimenti dei fattori di mercato. L’idea è dunque quella di utilizzare una serie storica di

13

F. Orsi “Misurazione del rischio di mercato”, Plus (collana Manuali), Pisa, 2009.

14 J. Boudoukh, M. Richardson, R. F. Whitelaw, “The best of both worlds: a Hybrid Approach to

(10)

10

to relativamente lunga ed al contempo di attribuire un peso più elevato alle osservazio-ni, estratte dalla distribuzione storica, che risultano più vicine nel tempo.

Tuttavia, Pritsker15 mostra come sia l’approccio ibrido che la simulazione storica

reagi-scano lentamente ed in maniera asimmetrica a variazioni del grado di rischio,

quest’ultimo riflesso nella volatilità dei fattori di mercato16

.

Una proposta alternativa è stata avanzata da Hull and White17, i quali suggeriscono di

aggiustare i dati storici sulla base delle condizioni attuali, o previste, della volatilità dei fattori di rischio. Tale approccio, detto volatility weighted, consente di incorporare la volatilità“aggiornata” nella simulazione storica, ottenendo stime del VaR maggiormente sensibili alle condizioni correnti del mercato.

Infine, è di fondamentale importanza fare un cenno anche all’approccio delle

simulazio-ni storiche filtrate” (filtered historical simulation) di Barone-Adesi e Giannopoulos18

. In tale approccio si assume che la volatilità dei rendimenti dei fattori di rischio segua un modello GARCH, al fine di filtrare i dati e rendere i dati residui indipendenti e identi-camente distribuiti. Più semplicemente, i rendimenti storici vengono divisi per la volati-lità (stimata dal modello GARCH) relativa al periodo corrispondente, ottenendo così rendimenti standardizzati (“filtrati”), che rappresentano il campione di partenza. Estra-endo casualmente dal campione un elevato numero N di valori e moltiplicando tali valo-ri per la stima della volatilità relativa al pevalo-riodo t + 1, per cui si desidera calcolare il VaR, si ottiene un’intera distribuzione dei rendimenti del fattore di rischio, coerente con la storia passata ma anche con la volatilità corrente. Tagliando tale distribuzione in cor-rispondenza del percentile desiderato, e calcolando la differenza tra tale percentile e il valore di mercato del portafoglio, si ottiene il VaR.

1.1.1.3 La simulazione Monte Carlo

La simulazione Monte Carlo19, molto nota in finanza perché utilizzata come strumento

per il pricing di prodotti complessi, come le opzioni, risulta nella sua modalità

15

M. Pritsker “The hidden dangers of historical simulation”, working paper, 2001.

16

In particolare Pritsker mostra che la stima del rischio aumenta quando il portafoglio subisce grosse perdite ma non quando va incontro a grandi guadagni.

17

J. Hull and A White, “Incorporating volatility updating into the historical simulation method for Value

at Risk”, working paper, Journal of Risk, 1998.

18

G. Barone-Adesi e K. Giannopoulos “Non parametric VaR techniques. Myths and realities”, working paper, 2001

19

L’origine del termine Monte Carlo risale agli anni ’40, quando con tale locuzione venne designato un piano di simulazioni sviluppato durante la sperimentazione della prima bomba atomica, a cui partecipa-rono i più eminenti fisici e matematici del ’900, tra cui Von Neumann, Ulam e Fermi. Il ricorso alle

(11)

simu-11

tiva simile, per molti aspetti, alla simulazione storica. Infatti, anche in questo caso, alla base del modello vengono applicate la logica della full valuation e quella del taglio del percentile.

Tuttavia, mentre le simulazioni storiche generano gli scenari relativi ai fattori di rischio a partire dalla distribuzione empirica derivante dalla serie storica delle variazioni passa-te dei fattori di mercato, le simulazioni Monpassa-te Carlo richiedono, invece, che venga defi-nita una precisa distribuzione teorica dei rendimenti sulla base della quale generare le simulazioni.

In tal caso, il VaR di una posizione, il cui valore è sensibile ai rendimenti di un unico

fattore di mercato, può essere ottenuto seguendo cinque passaggi logici20:

1. scegliere la distribuzione di probabilità f (r) che meglio approssima la distribu-zione dei rendimenti del fattore di mercato in esame;

2. stimare i parametri (media, deviazione standard, ecc.) della distribuzione f; 3. simulare N scenari per il fattore di mercato, partendo dalla distribuzione f;

4. calcolare la variazione del valore di mercato della posizione in corrispondenza di ognuno degli scenari simulati;

5. tagliare la distribuzione di probabilità così ottenuta in corrispondenza del per-centile relativo al livello di confidenza desiderato.

E’ bene notare che le fasi 4 e 5 sono simili alla simulazione storica, mentre le fasi 1-3 rappresentano il tratto peculiare della simulazione Monte Carlo.

La fase 1 è probabilmente la più critica in quanto, se la distribuzione scelta non rappre-senta correttamente le possibili evoluzioni future del fattore di rischio, anche gli scenari generati per tale fattore e per la posizione risulteranno irrealistici e così pure il valore del VaR. La distribuzione può essere scelta liberamente ma, per essere di utilizzo prati-co, deve rispettare due requisiti fondamentali: rispecchiare nel modo migliore possibile le caratteristiche empiriche delle distribuzioni delle variazioni dei fattori di mercato e prestarsi alla generazione di simulazioni casuali. Per questo secondo motivo, in pratica, viene spesso utilizzata proprio la distribuzione normale che consente di generare rapi-damente un elevato numero di scenari.

Secondo Saita21, l’utilizzo di una distribuzione teorica consente di cogliere le effettive

caratteristiche della distribuzione dei rendimenti osservata, quali ad esempio i fenomeni

lazioni si rese necessario perché i problemi affrontati dai fisici avevano raggiunto un livello di sostanziale intrattabilità analitica.

(12)

12

di asimmetria (skewnwss) o di code spesse (fat tails), superando la staticità tipica delle simulazioni storiche, che ipotizzano che tutte le caratteristiche della distribuzione siano destinate a restare costanti nel tempo (perdendo quindi in parte la possibilità di reagire più rapidamente a periodi di mutata volatilità).

Tuttavia, sul piano pratico, risulta particolarmente impegnativa anche la fase 3, che ri-chiede il ricorso ad un generatore di numeri casuali con cui estrarre N valori dalla

distri-buzione di probabilità del fattore di rischio. Il metodo22 più frequentemente utilizzato è

quello di estrarre un valore p da una distribuzione uniforme con valori compresi nell’intervallo [0,1] e calcolare il valore del rendimento (r) utilizzando l’inversa della

funzione di ripartizione associata ad f, che indichiamo con F-1(p)23,

in modo che:

r = F-1 (p) (1.6)

Ripetendo il procedimento simulativo un numero sufficientemente grande di volte, si ottiene la distribuzione dei rendimenti della posizione che, opportunamente riordinata in ordine crescente, fornisce la successione di valori sulla quale viene determinato il valore del VaR.

Quando da una singola posizione sensibile ad un singolo fattore di mercato si passa ad un portafoglio sensibile a più fattori di mercato, la stima del VaR richiede di tenere in considerazione la struttura delle correlazioni fra i rendimenti di tali fattori. Il metodo Monte Carlo, infatti, diversamente dalle simulazioni storiche (che ipotizzano, implici-tamente, una certa struttura di varianze-covarianze basata sui dati verificatisi in passa-to), non è in grado di catturare “automaticamente” tali correlazioni. Al fine di tener con-to della struttura delle correlazioni, è necessario seguire un procedimencon-to simulativo

ar-ticolato nelle seguenti fasi24:

1. inizialmente viene scelta la distribuzione di probabilità congiunta, che meglio approssima le variazioni contemporanee di tutti i fattori di mercato e si procede

21

F. Saita, “Il risk management in banca. Performance corrette per il rischio e allocazione del capitale”, Egea, Milano, 2000.

22

Per ulteriori approfondimenti e per un’ applicazione pratica del metodo in esame consultare A. Resti, A. Sironi, “Rischio e valore nelle banche”, Egea, Milano, 2008, pag. 261-264.

23 L’inversa della funzione di ripartizione,indicata con F-1(p), esprime il valore r tale che la funzione di

ri-partizione associata vale p, cioè quel valore r tale che la probabilità che si verifichino valori inferiori o pari a r è esattamente p.

(13)

13

alla stima della matrice C delle varianze-covarianze dei rendimenti dei fattori di mercato;

2. nella seconda fase si applica alla matrice C un procedimento noto come “scom-posizione di Cholesky” attraverso il quale C viene scomposta in modo che risulti C = A∙AT, che sono due matrici triangolari una la trasposta dell’altra;

3. nella terza fase vengono generati gli scenari, relativi alle possibili variazioni dei

fattori di mercato,che vengono ottenuti moltiplicando la matrice AT, che riflette

le correlazioni storiche fra i rendimenti delle diverse variabili, per un vettore di

numeri casuali estratti dalla distribuzione di probabilità prescelta25;

4. per ciascuno scenario simulato viene calcolato il valore del portafoglio corri-spondente;

5. ripetendo il procedimento simulativo un numero sufficientemente grande di vol-te, si ottiene la distribuzione dei rendimenti futuri del portafoglio, alla quale vie-ne applicata la logica del “taglio del percentile” al fivie-ne di determinare il VaR re-lativo al livello di confidenza prescelto.

I vantaggi connessi all’utilizzo delle simulazioni Monte Carlo sono numerosi. Innanzi-tutto, simulando l’evoluzione dei fattori di mercato e ricalcolando il valore di mercato delle posizioni che compongono l’intero portafoglio (full valuation), viene superato il problema della non linearità dei playoff delle posizioni. Secondariamente, nelle simula-zioni Monte Carlo il tempo necessario per effettuare le simulasimula-zioni richieste cresce line-armente, e non esponenzialmente come avviene con altre procedure, al crescere del nu-mero di variabili considerate. Un terzo pregio consiste nel fatto che il metodo in esame si presta ad essere utilizzato con qualunque distribuzione di probabilità dei rendimenti dei fattori di mercato.

A fronte di tali vantaggi, la simulazione Monte Carlo soffre di due principali svantaggi. Il primo è che, nel simulare l’evoluzione congiunta di più variabili di mercato, il metodo necessita di una stima della matrice delle varianze-covarianze dei fattori di mercato, che deve essere mantenuta continuamente aggiornata. Il secondo svantaggio è rappresentato

25

Per un’applicazione pratica del procedimento in esame si veda A. Resti, A. Sironi, “Rischio e valore

nel-le banche”, Egea, Milano, 2008, pag. 267-270.

25

L’inversa della funzione di ripartizione,indicata con F-1(p), esprime il valore r tale che la funzione di

ri-partizione associata vale p, cioè quel valore r tale che la probabilità che si verifichino valori inferiori o pari a r è esattamente p.

25

F. Orsi “Misurazione del rischio di mercato”, Plus (collana Manuali), Pisa, 2009.

25 Per un’applicazione pratica del procedimento in esame si veda A. Resti, A. Sironi, “Rischio e valore

(14)

14

dal fatto che la simulazione Monte Carlo, pur essendo più efficiente di altre procedure, risulta comunque più onerosa, in termini di tempo e di risorse informatiche, più com-plessa e meno trasparente per il top management.

In definitiva,quindi, le simulazioni Monte Carlo rappresentano un metodo molto potente per il calcolo del VaR, ma presentano una complessità metodologica non giustificabile quando le posizioni da valutare sono relativamente semplici. L’approccio della simula-zione Monte Carlo si rileva, invece, particolarmente utile per posizioni più complesse, quali quelle in opzioni, nei confronti dei quali gli altri metodi si rivelano non applicabili o insufficientemente accurati.

1.1.2 La valutazione dei modelli VaR

La diffusione dei modelli VaR, quali strumenti fondamentali per la misurazione dei

ri-schi di mercato, ha portato allo sviluppo di tecniche di valutazione della qualità degli stessi modelli.

Nella seconda metà del ‘900, numerosi test statistici, più comunemente denominati ba-cktesting, sono stati proposti dal mondo accademico al fine di confrontare i risultati prodotti dal modello VaR e i risultati dell’attività di negoziazione della banca. In altri

termini, l’obiettivo di tali test retrospettivi è quello di rispondere a due domande26

:  qual’ è la percentuale massima di eccezioni coerente con il livello di confidenza

del modello?

 qual’ è la percentuale minima di eccezioni oltre la quale si deve concludere che il modello non è valido?

I test statistici proposti in letteratura, per valutare la bontà dei modelli VaR, possono es-sere suddivisi in tre principali categorie:

1. i test basati sulla frequenza delle eccezioni, (che verranno discussi nel paragrafo 1.2.2.1 e 1.2.2.2);

2. i test basati su una funzione di perdita (discussi nel paragrafo 1.2.2.3);

3. i test basati sull’intera distribuzione di profitti e perdite (discussi nel paragrafo 1.2.2.4).

La prima tipologia di test confronta il numero di giorni in cui la perdita ha superato il VaR e il relativo livello di confidenza; la seconda tipologia considera, oltre alla fre-quenza, anche la dimensione delle perdite; la terza tipologia non si limita a considerare i

(15)

15

soli valori di perdita eccedenti il VaR, ma opera un confronto tra l’intera distribuzione delle variazioni di valore previste dal modello VaR e quelle dei profitti e delle perdite effettivamente realizzati.

In tutti e tre i casi, l’ipotesi oggetto di test (chiamata dagli statistici “ipotesi nulla” o H0)

è che il modello VaR della banca sia corretto. Quindi, se l’ipotesi nulla viene rigettata, ciò significa che le perdite effettive subite dalla banca inducono a considerare il modello VaR non accurato; se l’ipotesi nulla non viene rifiutata, ciò vuol dire che il modello è accettabilmente accurato.

Come avviene in qualsiasi test d’ipotesi, anche questi sono esposti a due tipi di errori: del primo tipo (rigettare l’ipotesi nulla quando è corretta) e del secondo tipo (accettare l’ipotesi nulla quando è falsa). Quando si sceglie un test per finalità di risk management si è fortemente interessati alla sua capacità di rigettare l’ipotesi nulla quando questa è scorretta, cioè di minimizzare l’errore del secondo tipo (“potenza” del test) al fine di e-vitare di classificare un modello non accurato come accettabilmente accurato.

1.1.2.1 Il test dell’unconditional coverage di Kupiec

Uno dei primi a proporre test statistici per analizzare la qualità di un modello VaR è

sta-to Kupiec27 nel 1995, il cui test si basa sull’analisi della frequenza con cui le perdite del

portafoglio superano il VaR (proportion of failures test).

Nel test di Kupiec, quindi, l’ipotesi nulla da sottoporre a verifica empirica è che la fre-quenza delle eccezioni rilevate durante il backtesting (π) sia coerente con quella teorica desiderata (α), cioè che π sia “coperto” da α. Tale verifica non è condizionata ad ulterio-ri ipotesi (per esempio, relative alla sequenza con cui gli erroulterio-ri si manifestano nel tem-po) e pertanto si parla di “copertura non condizionata” (unconditional coverage). Secondo Kupiec i profitti e le perdite giornaliere possono determinare due eventi:

 la perdita subita dalla banca è minore di quella stimata ex ante (successo);  la perdita subita dalla banca eccede quella stimata ex ante (fallimento).

Dunque, se l’ipotesi nulla è corretta (la probabilità di osservare un’eccezione è effetti-vamente α) allora la probabilità di osservare x eccezioni (numero di giorni in cui la per-dita supera il VaR) in un campione di N osservazioni può essere rappresentata da una distribuzione binomiale con media αN e pari a:

27 P. H. Kupiec, “Techniques for verifying the accuracy of risk measurement models”, working paper, The

(16)

16

Pr (x|α, N) =

αx ( N-x (1.7)

dove =

Considerando, per esempio, un campione di 250 osservazioni giornaliere relative ad un modello VaR con livello di confidenza pari al 99%, la probabilità di ottenere 4 eccezio-ni è data da:

Pr (4|1%, 250)

∙0,014 ∙0,99250-4 = 13,4%

mentre la probabilità di ottenere 2 eccezioni è pari a :

Pr (2|1%, 250) = ∙0,012 ∙0,99250-2 = 25,7%

Dunque, con la (1.7) è possibile calcolare la probabilità associata a qualsiasi numero di eccezioni (la tabella 1.1 riporta tali probabilità).

Tabella 1.1: Probabilità associate alle eccezioni ed errori del primo tipo.

Fonte: A. Resti, A. Sironi, “Rischio e valore nelle banche”, Egea, Milano, 2008.

Se l’ipotesi nulla è vera (il modello VaR è corretto), come si evince dalla tabella 1.1., la probabilità che si verifichi un numero di eccezioni pari o inferiore a 4 è pari all’89,2%, mentre la probabilità di avere più di 4 eccezioni è pari al 10,8%.

(17)

17

Se, dunque, ci si desse come regola quella di rifiutare l’ipotesi nulla (cioè di considerare scorretto il modello) ogni volta che si verificano più di quattro eccezioni, si andrebbe incontro ad un errore del primo tipo (rifiutare un modello corretto) nel 10,8% dei casi. Se, invece, ci si desse come regola quella di rifiutare l’ipotesi nulla solo se le eccezioni sono più di 6, il rischio di rifiutare un modello corretto sarebbe quasi nullo perché pari all’1,4% dei casi.

Poiché, come è stato già detto, l’errore che più preoccupa nell’ottica del risk management non è tanto rifiutare un modello corretto quanto fidarsi di un modello sba-gliato (errore del secondo tipo), e poiché tra i due tipi di errore esiste un trade-off (al ca-lare dell’uno cresce l’altro), allora è preferibile la prima regola, che espone la banca ad un errore del primo tipo non trascurabile.

Tuttavia, Kupiec valuta la rispondenza tra il tasso di eccezioni effettivamente registrato durante il backtesting (π ≡ x|N) ed il tasso di eccezioni atteso se il modello è corretto (α) facendo ricorso ad un classico test di tipo likelihood ratio, che si basa sul rapporto di due funzioni di verosimiglianza.

La prima di queste è di tipo non vincolato ed in essa la probabilità di osservare un de-terminato fenomeno (nel nostro caso, di ottenere un errore) è posta pari alla probabilità osservata nel campione:

L (x|π) = πx (1 – π)N-x (1.8)

La seconda funzione di verosimiglianza è invece vincolata al rispetto dell’ipotesi nulla (probabilità che si verifichi un errore = α):

L (x|α) = αx (1 – α)N-x (1.9)

Una volta definite le due funzioni di verosimiglianza, in base al likelihood ratio test si ottiene la seguente statistica basata sul logaritmo del loro quoziente:

(1.10)

(18)

18

Se π è significativamente diverso da α, allora la (1.10) assumerà valori positivi ed

eleva-ti, se invece sono simili la statistica tenderà a zero28.

Riprendiamo l’esempio di prima, di un modello VaR con livello di confidenza del 99% (α = 1%) sottoposto a backtesting per N = 250 giorni, ed ipotizziamo che il numero del-le eccezioni ridel-levate sia 4 (così che π ≡ x/N = 4/250 = 1,6%). In questo caso la (1.10) as-sumerà un valore maggiore di zero, pari a:

Per capire se sulla base di questo valore (0,77) il modello VaR è accettabile o meno, è bene sapere che, se l’ipotesi nulla è corretta (cioè se il margine d’errore del modello

ve-ramente α), la statistica LRuc si distribuisce secondo una chi quadro con 1 grado di

li-bertà. Sulla base di ciò è dunque possibile:

 stabilire un valore soglia che comporti un errore del primo tipo sufficientemente elevato; ad esempio, si potrebbe scegliere come soglia un valore di 2,7055, visto che una chi quadro con 1 grado di libertà può generare valori superiori a 2,7055 solo nel 10% dei casi (Figura 1.2);

 respingere l’ipotesi nulla, dichiarando inadeguato il modello, solo se LRuc si

col-loca al di sopra della soglia.

Figura 1.2: Interpretazione del valore di LRuc.

Fonte: A. Resti, A. Sironi, “Rischio e valore nelle banche”, Egea, Milano, 2008.

28 La statistica LR

(19)

19

Nel nostro esempio, poiché 0,77 non supera 2,7055, saremo sottoposti a non rigettare l’ipotesi nulla e,quindi, a considerare accettabile il modello VaR sottoposto a backte-sting.

Il punto cruciale del backtesting è dunque rappresentato dalla scelta del valore-soglia, ovvero del livello di significatività statistica del test.

Tale scelta dipende fondamentalmente dal costo associato ai due tipi di errori che si possono commettere in sede di valutazione della qualità di un modello VaR. Poiché gli errori del secondo tipo sono più costosi, nel risk management si utilizzano livelli di si-gnificatività elevati, non inferiori al 10%.

Tuttavia, la potenza statistica del test di Kupiec è piuttosto bassa e quindi c’è un’alta probabilità di accettare l’ipotesi nulla quando essa è falsa. Come lo stesso Kupiec af-ferma, tale probabilità è tanto maggiore quanto maggiore è il livello di confidenza del modello e quanto più piccola è la dimensione del campione. Si ritiene che, affinché il test di Kupiec possa produrre risultati affidabili, il campione sia composto da almeno 10 anni di dati giornalieri.

1.1.2.2 Il test della conditional coverage di Christoffersen

Il test di Kupiec presenta il limite di focalizzasi unicamente sul numero di eccezioni generate da un modello VaR, senza considerare la distribuzione temporale di tali ecce-zioni. Quindi, il test di Kupiec è “non condizionato”, nel senso che la qualità del model-lo è valutata indipendentemente dalla capacità delmodel-lo stesso di reagire prontamente a nuove informazioni di mercato.

Un test volto a valutare la “conditional coverage” di un modello VaR è stato proposto

da Christoffersen29 (1998), che estende la statistica LRuc per verificare che le eccezioni

siano serialmente indipendenti. Infatti, se un modello è in grado di reagire correttamente alle nuove informazioni di mercato, la probabilità che si verifichi un’eccezione nel gior-no t dovrebbe essere indipendente dal fatto che il giorgior-no precedente t -1 si sia o megior-no verificata un’eccezione.

Christoffersen parte dalla considerazione che le stime VaR possono essere viste come

stime d’intervallo30

e, dunque, costruisce una variabile così definita:

29 P. F. Christoffersen, “Evaluating interval forecasts”, working paper, International Economic Review,

1998.

30Al contrario, il test dell’unconditional coverage descritto nel paragrafo precedente è basato su una

(20)

20

dove:

 yt rappresenta l’osservazione al tempo t del campione sul quale si sta

effettuan-do l’analisi (essa corrisponde al profitto/perdita registrato il giorno t);

 [Lt|t-1(p), Ut|t-1(p)] è la stima per intervallo elaborata al tempo t – 1 e riferita al

tempo t, con Lt|t-1 estremo inferiore (lower) e Ut|t-1 estremo superiore (upper)

dell’intervallo.

In pratica, la variabile It assume valore nullo nel caso in cui non si sia verificata

un’eccezione ed un valore unitario in caso contrario.

Per verificare la corretta “copertura non condizionale” è necessario testare l’ipotesi E[It]=α per ogni t, ossia verificare che, indipendentemente dalla sequenza, il valore

at-teso delle eccezioni sia pari a quello “teorico” desiderato. Invece, per verificare la

cor-retta “copertura condizionale” occorre testare E[It|Ψt-1]=α per ogni t, dove Ψt-1 indica

l’insieme delle informazioni disponibili al tempo t-1. Tali informazioni sono peraltro

rappresentate dai valori assunti dallo stesso indicatore I nei giorni precedenti Ψt-1=(I1,

I2,…, It-1). Si tratta dunque di costruire un test statistico che consenta di determinare se i

valori dell’indicatore I sono fra loro serialmente indipendenti.

Defi-nendo con αi,j=Pr(It-1=i|It=j) la probabilità che l’indicatore assuma un valore j il giorno

t condizionatamente al fatto che il giorno precedente abbia assunto un valore i, è possi-bile definire con:

α1,1 la probabilità che un’eccezione in t-1 sia seguita da un’altra eccezione in t;

α1,0 la probabilità che un’eccezione in t-1 sia seguita da una non eccezione in t;

α0,1 la probabilità che in t si verifichi un’eccezione senza che questa si sia

verifi-cata il giorno precedente;

α0,0 la probabilità che non vi siano eccezioni né in t-1 né in t.

Sottoporre a verifica l’indipendenza seriale delle eccezioni significa di fatto testare le condizioni:

α1,1 = α0,1 = α (1.11)

(21)

21

Entrambe le equazioni indicano che la probabilità di avere o meno un’eccezione in t è indipendente dal fatto che in t – 1 si sia o meno verificata un’eccezione.

Si supponga a questo punto di considerare un campione di N osservazioni e di indicare con:

x1,1 il numero di eccezioni che sono state precedute da un’altra eccezione;

x0,1 il numero di eccezioni che non sono state precedute da un’altra eccezione (si

noti che, per definizione, x0,1 + x1,1 = x);

x1,0 il numero di eccezioni che non sono state seguite da un’altra eccezione;

x0,0 il numero di mancate eccezioni precedute da altre mancate eccezioni (si noti

che, per definizione, x1,0 + x0,0 = N-x).

Sulla base di tali valori, è possibile stimare le probabilità condizionate attraverso le rela-tive frequenze campionarie nel seguente modo:

x0,1 π0,1 = x0,0 + x0,1 (1.13) x1,1 π1,1 = x1,0 + x1,1 (1.14) x0,0 π0,0 = x0,0 + x1,0 (1.15) x1,0 π1,0 = x1,0 + x0,0 (1.16)

Se utilizziamo tali stime delle probabilità condizionate ottenute dalle frequenze campio-narie, la funzione di verosimiglianza non vincolata delle N osservazioni del campione sarà pari a:

L(x|π0,0, π1,0, π0,1, π1,1) = π0,0 ∙ π0,1 ∙ π1,0 ∙ π1,1 (1.17)

Se ipotizziamo che vi sia indipendenza seriale, la funzione di verosimiglianza vincolata sarà data da:

(22)

22

dove π

=

Il rapporto di verosimiglianza, necessario per testare l’indipendenza seriale delle ecce-zioni, può essere costruito con il seguente likelihood ratio:

LRind= -2Log L(x|π)

L(x|π0,0, π1,0, π0,1, π1,1) (1.19)

dove il termine al numeratore rappresenta la probabilità (verosimiglianza) di ottenere x eccezioni sotto l’ipotesi che le stesse siano serialmente indipendenti, mentre il termine al denominatore indica la probabilità massima (non vincolata) per il campione di dati osservati.

E’ di fondamentale importanza notare che con la (1.19) è possibile testare unicamente l’indipendenza delle eccezioni, ma non la correttezza del modello nel suo complesso (cioè che π = α).

Per ottenere un test completo di copertura condizionale occorre dunque combinare fra loro i due test di unconditional coverage e di indipendenza; in altri termini viene sotto-posto a verifica sia l’ipotesi che il numero medio delle eccezioni sia corretto sia che le stesse siano indipendenti fra loro. Il test della conditional coverage è dunque dato da:

LRcc= -2Log L(x|π = α)

L(x|π0,0, π1,0, π0,1, π1,1) (1.20)

Quindi, la statistica corrispondente al test di conditional coverage è dato dalla somma dei due likelihood ratio:

LRcc = LRuc + LRind (1.21)

La metodologia di backtesting proposta da Christoffersen risulta più completa ed effi-ciente di quella di Kupiec. Più completa perché tiene conto del problema dell’indipendenza fra le eccezioni; più efficiente perché scomponendo il test di

(23)

copertu-23

ra condizionale nelle sue due componenti di indipendenza e di copertura non condizio-nale consente di evidenziare con maggiore chiarezza le cause che possono condurre al rifiuto di un particolare modello VaR.

1.1.2.3 Il test di Lopez basato su una funzione di perdita

I modelli di backtesting basati sul numero di eccezioni, descritti nei paragrafi preceden-ti, presentano fondamentalmente due problemi legati alla loro bassa potenza statistica ed al fatto che trascurano completamente la dimensione delle perdite.

Un’alternativa alla valutazione di un modello VaR tramite test statistici è stata proposta

da Lopez31 (1999). Tale alternativa si basa sulla minimizzazione di una funzione di

per-dita costruita in modo da tenere in considerazione gli interessi del risk management o dell’organo di vigilanza. In termini generali, la funzione di perdita può essere costruita nel seguente modo:

(1.22)

dove:

Cmt+1 rappresenta la perdita (costo) associata al giorno t + 1;

Ԑt+1 rappresenta il rendimento del portafoglio (profitto o perdita percentuale)

ef-fettivamente osservato in t + 1;

VaRmt indica la stima del VaR, espressa in termini percentuali, elaborata

all’istante t e riferita al periodo t + 1.

Una volta ottenuti i valori di Cmt+1 per gli N giorni che compongono il campione di

ba-cktesting, è possibile calcolare la perdita totale come:

(1.23)

Lopez propone di utilizzare questa perdita totale per confrontare modelli di istituzioni diverse o per la stessa istituzione in periodi diversi. Inoltre, è possibile costruire un ben-chmark di riferimento, definito C*, con cui giudicare la qualità di un modello

31 J. A Lopez, “Methods for Evaluating Value at Risk Estimates”, working paper, FRBSF Economic Review,

(24)

24

candolo inadeguato ogni volta che CM ≥ C*). A tal fine Lopez propone di utilizzare, per

generare C*, un modello VaR “ottimo”, ossia costruito ipotizzando di conoscere il vero processo stocastico che guida i rendimenti dei fattori di mercato.

Lopez descrive due funzioni di perdita: una funzione binaria, che assume valore 1 quando si verifica un’eccezione e 0 in caso contrario, e una funzione di perdita crescen-te rispetto all’errore (differenza fra perdita osservata e VaR). Nel primo caso l’indicatore che si ottiene è il seguente:

(1.24)

Nel secondo caso, l’approccio della funzione di perdita diviene particolarmente interes-sante perché a ciascuna eccezione viene assegnato un costo crescente al crescere dell’errore. In tal caso, l’indicatore che si ottiene è il seguente:

(1.25)

E’ chiaro che tale funzione assegna punteggi maggiori alle eccezioni di maggior dimen-sione, inoltre, il fatto di elevare al quadrato gli errori rende la funzione di perdita parti-colarmente sensibile agli scostamenti di grandi dimensioni.

L’approccio della funzione di perdita proposto da Lopez è basato non sulla verifica dell’ipotesi nulla (come avviene nei test statistici proposti da Kupiec e Christoffersen), ma sull’assegnazione alle stime VaR di un punteggio numerico (score), che sia in grado di riflettere specifici problemi di regolamentazione. Sebbene questo metodo rinuncia ai benefici della statistica inferenziale, esso fornisce una misura di performance relativa che può essere usata per confrontare le stime VaR fra diversi periodi temporali o fra di-verse istituzioni.

1.1.2.4 I test basati sull’intera distribuzione

I metodi di backtesting analizzati finora si basano sulle eccezioni, ossia sui casi in cui le perdite risultano superiori al VaR , focalizzando dunque l’attenzione unicamente su una

(25)

25

coda della distribuzione dei profitti e delle perdite e non sull’intera distribuzione. Ciò fa sì che tali procedure si basino su eventi (excess losses) che sono rari e che rappresentano solo una piccola parte del campione disponibile.

Per questo motivo un approccio diverso, denominato distribution forecast method, è sta-to propossta-to nel 1998 da Diebold, Gunther e Tay e successivamente ripreso da Berko-witz nel 2001. Esso parte dalla considerazione che il risk management cerca implicita-mente di prevedere l’intera distribuzione di probabilità di profitti e perdite e valuta, dunque, la qualità delle sue previsioni basandosi sull’intera distribuzione invece che so-lo su una coda.

L’approccio proposto da questi autori prevede di considerare, per ogni giornata compre-sa all’interno del periodo di backtesting, la distribuzione di probabilità utilizzata la sera del giorno t per calcolare il VaR e di trovare, all’interno di tale distribuzione, il

percen-tile pt corrispondente al rendimento Ԑt+1 effettivamente osservato il giorno dopo. L’idea

è che, se le distribuzioni osservate per derivare il VaR e la distribuzione empirica dei

rendimenti sono fra loro coerenti, i valori di pt derivati per gli N giorni del periodo di

backtesting dovrebbero seguire una distribuzione uniforme (ipotesi nulla).

Diebold, Gunther e Tay32 sottolineano come i test inferenziali, pur risultando

formal-mente eleganti, siano spesso di scarsa utilità pratica perché possono condurre al rifiuto dell’ipotesi nulla senza, tuttavia, dare indicazioni su quale sia la corretta distribuzione dei dati. Per questo motivo, essi utilizzano un’analisi grafica della distribuzione dei per-centili associati ai rendimenti osservati, basata su istogrammi. Se gli istogrammi assu-mono tutti un’altezza grosso modo identica, allora la distribuzione dei percentili è uni-forme ed il modello può essere giudicato accurato. Se così non è, la forma degli isto-grammi aiuta il risk management a comprendere da dove nasca l’inaccuratezza del mo-dello.

Berkowitz33, invece, introduce un’innovazione basata su una trasformazione dei dati

ta-le da ottenere una nuova variabita-le casuata-le distribuita normalmente, alla quata-le è possibita-le applicare i classici test statistici.

32 F. X. Diebold, T. A. Gunther, A. S. Tay, “Evaluating density forecasts with applications to financial risk

management”, working paper, International Economic Review, 1998.

33 J. Berkowitz, “Testing density forecasts, with applications to risk management”, working paper,

(26)

26

1.2 Il rischio di controparte nell’attività bancaria

A seguito della recente crisi che ha visto il default di alcune fra le più importanti e pre-stigiose istituzioni finanziarie, ritenute baluardi in tema di merito creditizio, il rischio di controparte ha iniziato ad assumere un ruolo sempre più importante tanto da essere con-siderato da parte di molti attori del mercato “the key financial risk”.

Una definizione formale di tale rischio viene fornita da Banca d’Italia34

nella Circolare n. 285 del 17 dicembre 2013, nella quale viene disciplinato il requisito patrimoniale per il rischio di controparte sulla linea di quanto suggerito dal Comitato di Basilea per la vi-gilanza bancaria, di cui si tratterà nel Capitolo 3. Il rischio di controparte viene definito come: “il rischio che la controparte di una transazione finanziaria avente ad oggetto determinati strumenti finanziari risulti inadempiente prima del regolamento definitivo dei flussi finanziari della transazione stessa”.

Le transazioni, a cui la definizione si riferisce, presentano le seguenti caratteristiche:

 generano un’esposizione pari al loro fair value positivo;

 hanno un valore di mercato futuro che evolve in funzione delle variabili di

mer-cato sottostanti;

 generano uno scambio di contante oppure lo scambio di strumenti finanziari o

merci contro contante.

Il rischio di controparte è considerato un caso particolare di rischio di credito: la causa della perdita è di fatto legata per entrambi i rischi all’inadempienza di una delle parti del contratto. Tuttavia, a differenza del rischio di credito (generato ad esempio da un finan-ziamento per cassa), dove la probabilità di sopportare una perdita è unilaterale in quanto in capo alla sola banca erogante, il rischio di controparte è per sua natura di tipo bilate-rale. Infatti, il valore di mercato della transazione può assumere valore positivo o nega-tivo per ciascuno dei contraenti. Altro elemento differenziante consiste nella valutazione dell’esposizione al momento del default: nel rischio di controparte, l’esposizione non è sempre determinabile con ragionevole certezza ex ante, dato che essa può variare nel tempo in funzione dell’andamento dei fattori di mercato sottostanti.

Tipicamente, il rischio di controparte è sotteso nelle transazioni aventi ad oggetto due ampie classi di prodotti finanziari:

34 Banca d’Italia, “ Recepimento della nuova regolamentazione prudenziale internazionale. Requisiti

pa-trimoniali sul rischio di controparte”, Documento per la consultazione ottobre 2006, recepito nelle

nuo-ve disposizioni di vigilanza prudenziale per le banche (Circolare n. 263 dicembre 2006, Titolo II, Capitolo 3).

(27)

27

1) Derivati OTC (Over The Counter), di cui ben conosciuti sono interest rate swap, FX forwards e credit default swap;

2) Security Financial Transaction (SFT), per esempio repos, securities borrowing and lending.

L’attenzione sarà rivolta in particolare verso i derivati OTC, che rappresentano il rag-gruppamento più consistente per la taglia di mercato e la diversità di strumenti trattati. Essi, come d’altra parte anche le operazioni SFT, sono caratterizzati da transazioni che generano un’esposizione corrente avente un connesso valore futuro di mercato stocasti-co dipendente da variabili di mercato. Danno inoltre luogo allo scambio di pagamenti o allo scambio di strumenti finanziari contro un pagamento e sono stipulati con una con-troparte identificata, nei cui riguardi si può determinare una specifica probabilità di ina-dempienza.

Quando si tratta di transazioni finanziarie e più precisamente contratti derivati OTC, è necessario chiarire cosa si intende per: valore nozionale, Mark to Market ed esposizio-ne.

 Valore Nozionale. Si tratta del valore dell’attività finanziaria a cui il contratto derivato si riferisce (per esempio, per contratti swap su tassi di interesse, il valo-re nozionale è il capitale su cui sono calcolati gli intevalo-ressi scambiati dalle con-troparti).

 Mark to Market (MtM). E’ l’espressione utilizzata per qualificare il metodo di valutazione in base al quale il valore di uno strumento o di un contratto finanzia-rio è sistematicamente aggiustato in funzione dei prezzi correnti di mercato. In pratica, rappresenta il costo di sostituzione, cioè il costo che l’istituzione sarebbe pronta a sostenere per sostituire il contratto in questione in caso di default della controparte, senza però tenere in considerazione i costi di trading.

 Esposizione. Indicata anche con EAD (Exposure at Default), è una stima del va-lore effettivo del credito che una parte vanta verso la controparte della transa-zione finanziaria al verificarsi dello stato di insolvenza di quest’ultima. In altre parole, è la possibile perdita in caso di default della controparte.

Interessante è la relazione che intercorre tra MtM ed esposizione. E’ noto che, in caso di default della controparte, l’istituzione ad essa legata dovrà terminare la posizione con tale controparte. Per determinare la perdita derivante dal default della controparte si as-sume allora che l’istituzione stipuli un contratto simile a quello terminato con un’altra controparte, al fine di mantenere la sua posizione di mercato. Dal momento che la

(28)

posi-28

zione di mercato della banca risulta immutata dopo la sostituzione del contratto, la per-dita sarà determinata dal costo di sostituzione (MtM) del contratto al momento del de-fault. Si avrà dunque che, se al momento del default il valore MtM è negativo per la banca, quest’ultima:

 chiude la posizione pagando alla controparte inadempiente il valore di mercato

del contratto;

 entra in un simile contratto con un’altra controparte e riceve il valore di mercato

del contratto.

Se al contrario il MtM del contratto è positivo, la banca:

 termina la posizione non ricevendo nulla dalla controparte inadempiente;

 entra in un contratto simile con un’altra controparte pagando il valore di

mercato del contratto.

Dunque, mentre nel primo caso la banca avrà perdita netta pari a zero, nel secondo caso avrà una perdita netta pari al valore di mercato (MtM) del contratto stesso. Di

conse-guenza, l’esposizione di una banca, che ha un unico contratto derivato i con una contro-parte al tempo t, sarà dunque il massimo fra il valore di mercato del contratto i in t, ov-vero il suo MtM, e zero:

(1.26) E’ evidente come l’esposizione sia strettamente legata alla variabile temporale, dal mo-mento che una controparte può fallire in ogni istante futuro. Quindi, misurare l’esposizione al credito significa saper dire qual è l’esposizione attuale, e di conseguen-za la massima perdita in caso di default della controparte oggi, e qual è quella futura. Nel valutare l’esposizione, le componenti di rischio da considerare sono connesse alla qualità del merito creditizio della controparte e, dunque, risulta fondamentale l’uso di un’accurata stima della probabilità di default (PD) o della possibilità di downgrade del merito creditizio della controparte.

Alla luce di quanto detto, il rischio di controparte risulta essere caratterizzato da asim-metria: se una controparte va in default, l’istituzione in posizione con essa perde se ha un MtM positivo, ma non guadagna se il MtM è negativo. Inoltre, poiché il valore del contratto cambia nel tempo in modo imprevedibile, solo l’esposizione corrente è cono-sciuta con certezza mentre l’esposizione futura è incerta. Sarà quindi di particolare

(29)

im-29

portanza la valutazione del MtM in un generico istante futuro e ciò implicherà la carat-terizzazione di una distribuzione di probabilità e la scelta della metrica più adatta per la sua rappresentazione. A tal proposito si presentano le metriche più comuni utilizzate per quantificare l’esposizione.

1.2.1 Metriche per l’esposizione al rischio di controparte

Nell’ambito della gestione del rischio finanziario, la metrica più utilizzata è senza dub-bio il Value at Risk (VaR). Tuttavia, tale misura di rischio non si adatta al meglio

nell’ambito del rischio di controparte per diverse ragioni35

:

 l’esposizione al credito deve essere definita su più orizzonti temporali per

capire appieno l’effetto del trascorrere del tempo e quello dell’andamento dei fattori sottostanti;

 il rischio di controparte, dovendo essere valutato sia dal punto di vista del

pricing che da quello di gestione del rischio stesso, necessita di più metriche;

 nella valutazione del rischio di controparte a livello di portafoglio, ovvero

considerando più controparti, è importante capire l’esposizione effettiva rispetto ad ogni singola controparte.

Le banche utilizzano principalmente due misure per quantificare l’esposizione36

: la Po-tential Future Exposure, che è alla base della definizione dei limiti operativi stabiliti dagli organi aziendali nelle politiche di gestione del rischio creditizio verso una deter-minata controparte, e l’Expected Exposure (da cui derivano altre misure come l’EPE,

EEeff e EPEeff), che invece viene utilizzata per prezzare e calcolare i requisiti

patrimo-niali a fronte del rischio di controparte.

1.2.1.1 Potential Future Exposure (PFE

)

La Potential Future Exposure (PFE) è la massima esposizione attesa in un determinato intervallo di tempo, considerando un elevato grado di confidenza statistica. Per esem-pio, la misura di PFE associata ad un grado di confidenza del 95% è il livello di esposi-zione potenziale che può essere superato con una probabilità pari al 5%.

35 J. Gregory, “Counterparty credit risk and credit value adjustment. A continuing challenge for global

financial markets”, Wiley Finance, United Kingdom, 2012.

36 D. Brigo, M. Morini, A. Pallavicini, “Counterparty credit risk, collateral and funding”, Wiley Finance,

(30)

30

Essendo noto che i valori di MtM futuri non sono conosciuti con certezza in un generico istante futuro, la PFE potrà dunque essere descritta attraverso una qualche distribuzione di probabilità.

L’analisi con la PFE interessa un elevato livello di confidenza allo stesso modo di quan-to viene condotquan-to per il VaR. Tuttavia, le due misure si differenziano per il fatquan-to che la

PFE rappresenta esposizioni piuttosto che perdite37.

1.2.1.2 Expected exposure (EE)

Dal momento che il rischio di controparte è, come visto, un rischio asimmetrico, che si manifesta solamente quando il MtM dello strumento finanziario è positivo, le istituzioni finanziarie, a livello di gestione del rischio, si preoccupano di fatto solamente di queste posizioni. L’Expected Exposure (EE) è una misura di rischio dell’esposizione che con-sidera solo i MtM in un orizzonte temporale t ed è definita come la media aritmetica della distribuzione delle esposizioni per una determinata data futura. Dunque, l’EE al tempo t, relativa agli scambi i-esimi appartenenti al cluster di derivati i = 1,…, m preso in considerazione, viene calcolata semplicemente come:

(1.27)

L’Expected Exposure, rappresentando la media aritmetica della distribuzione delle e-sposizioni, si colloca sopra la PFE, così come rappresentato in figura 1. 3.

37 J. Gregory, “Counterparty credit risk and credit value adjustment. A continuing challenge for global

Riferimenti

Documenti correlati

- Il livello di probabilità (α): Rappresenta la fiducia che riponiamo nel fatto che potremmo incorrere in una perdita che al massimo sarà pari al valore del VaR. In generale

Lean enterprise Lean start up Lean thinking Lean production Lean office.

 Meno che proporzionale: Quando una tecnologia richiede dei costi fissi elevati, la curva del costo diminuisce al crescere della quantità di produzione.  Fattori esterni della

Our results also confirm data from Sheikh [ 21 ], who studied adolescent African American athletes and found a higher prevalence of early repolarization (91% vs 56%), left

La comprensione della duplice natura di questo concetto, e di quelli più propriamente afferenti alla filosofia lean che ne derivano (ad esempio quelli di valore, risorse

Il Valore di mercato Borsino Immobiliare Roma dell'immobile, classificato come Posto auto scoperto sito in ROMA (RM) - CAPANNELLE, Via LUCREZIA ROMANA, s.n.c., avviene mediante

2.2.1 Brevi note sul funzionamento del software di modellazione Cybernet

Il Progetto Interreg “TOP-Value Il valore aggiunto del Prodotto di montagna”, della durata di 3 anni, da gennaio 2017 a dicembre 2019, nasce dalla collaborazione tra la