• Non ci sono risultati.

Confronto Mondiale Mercati nei Derivat

1) Il Value at Risk

La valutazione e il controllo del rischio di mercato, sia da parte degli Istituti bancari, sia da parte delle Autorità di vigilanza, hanno assunto negli anni un’importanza sempre crescente, causa anche i casi di perdite clamorose realizzate da importanti società finanziarie e bancarie e imputabili a carenze dei sistemi di controllo dei rischi delle posizioni.

La ricerca di uno strumento che potesse dare risultati più efficienti nella valutazione del rischio di mercato ha portato la comunità scientifica e finanziaria ad incentrarsi sul modello del Value at Risk (VaR).

Tale strumento, nella sua versione standard, ha tra i suoi pregi la facilità di comprensione, anche per i non specialisti, che probabilmente ne ha decretato da subito il successo all’interno del sistema finanziario (Filagrana, 2002).

In tema di Value at risk si è diffusa una letteratura davvero vasta, il cui sviluppo risale a tempi antecedenti l'adozione di tale metodologia da parte del Comitato di Basilea nel 1996. È da attribuire alla banca J.P. Morgan una versione della modellistica che ha favorito l'ampia diffusione del VAR presso la comunità accademica e finanziaria. Il Var, quindi, nasce come strumento operativo in quanto la sua invenzione, come abbiamo già accennato, è generalmente attribuita a Dennis

Weatherstone, un funzionario della banca d’affari J.P. Morgan. Esso era alla ricerca di una misura sintetica, semplice e intuitiva per comunicare al senior management l’esposizione al rischio del portafoglio di trading della banca. Ebbe quindi l’idea di abbandonare complicate misure contabili, per calcolare sulla base di semplici ipotesi una misura della massima perdita sostenibile in un certo intervallo di tempo (Il cosiddetto Report delle 4:15 p.m).

Il VAR rappresenta un numero di sintesi che esprime il rischio cui è esposto un ovvero un portafoglio di attività finanziarie. Con il calcolo del VAR, infatti, l'intermediario confida di non perdere più di ‘X’, con una probabilità pari a ‘K%’, entro un periodo temporale pari a ‘t’ giorni (Hull, 1998).

La variabile ‘X’ è il VAR di portafoglio, ‘K%’ è l'intervallo di confidenza, mentre ‘t’ è l'orizzonte temporale di riferimento (holding period).

Il calcolo del VAR deve essere effettuato su base giornaliera e deve prevedere un intervallo di confidenza unilaterale del 99 per cento e un periodo di detenzione pari a 10 giorni.

Nell'utilizzo del modello, le banche sono tenute a condurre quotidianamente dei test retrospettivi, al fine di verificare che le misure di rischio prodotte dal modello risultino superiori effettivamente al 99% dei risultati di negoziazione (tanto per le perdite che per gli utili espressi in valore assoluto). Tale condizione si ritiene raggiunta da un modello che, su un campione di 250 giorni lavorativi, produce al massimo quattro casi in cui i risultati effettivi di negoziazione non sono coperti dalla misura del rischio (cosiddetti "scostamenti" spiegati nel capitolo precedente).

(Resti, Sironi, 2008).

Esistono diversi metodi per il calcolo del VaR, caratterizzati da diverse ipotesi sottostanti e da diverse procedure; si puo’ comunque individuare uno schema di base, comune a tutti i metodi, che prevede:

1. l'individuazione dei fattori di rischio rilevanti, cioè dei fattori di mercato che influiscono sul valore del portafoglio;

2. stima della distribuzione di probabilità dei rendimenti dei fattori di rischio;

3. determinazione della distribuzione di probabilità dei rendimenti del portafoglio in termini di profitti e perdite sulla base delle stime al punto ‘2’;

4. l’ammontare di massima perdita probabile.

L’obiettivo comune a tutti i metodi e quello di ottenere una stima della distribuzione futura del rendimento di portafoglio o meglio della variazione del valore del portafoglio.

Poiché il Var può essere calcolato per strumenti finanziari e portafogli differenti fra loro, rendendo confrontabili i relativi rischi, esso viene utilizzato per tre esigenze fondamentali: confrontare le diverse alternative di impiego del capitale di rischio di un’istituzione finanziaria, valutare la redditività del capitale allocato e, infine, prezzare in modo corretto le singole operazioni sulla base del relativo grado di rischio.

In particolare, si possono distinguere due principali categorie di modelli, a loro volta caratterizzati da ulteriori sotto-categorie.

La prima categoria e quella dell'approccio varianze-covarianze, anche noto come metodo analitico o parametrico. Tale approccio si basa su quattro ipotesi fondamentali:

– ipotizza che le possibili variazioni di tutti i fattori di mercato (o dei rendimenti degli strumenti in portafoglio) seguano una distribuzione normale;

– l'informazione sui possibili valori futuri dei fattori di mercato e sulle loro correlazioni e riassunta in una matrice di varianze e covarianze;

– linearità dei profili di rischio degli strumenti e dei portafogli di strumenti negoziati;

- indipendenza seriale dei rendimenti dei fattori di mercato.

L'approccio varianze-covarianze è indubbiamente il più diffuso nell'ambito dei sistemi di risk management ed è quello attualmente utilizzato dalla banca J.P.

Morgan attraverso la metodologia RiskMetrics26, considerata generalmente la

capostipite della generazione dei modelli di tipo analitico o parametrico (McGraw- Hill, 2001).

La seconda categoria di modelli per la misurazione dei rischi di mercato si riferisce all'approccio delle simulazioni. Quest'ultimo si distingue dall'approccio varianze - covarianze per alcuni aspetti fondamentali:

26 Nell’ambito della metodologia RiskMetrics è necessario, per calcolare il VaR, ricondurre gli strumenti finanziari

appartenenti al portafoglio ai fattori di rischio, e successivamente applicare l’algoritmo di calcolo utilizzando la volatilità dei fattori e la correlazione forniti direttamente da JP Morgan.

– le possibili variazioni di valore dei fattori di mercato non si distribuiscono necessariamente secondo una normale;

– l'impatto dei possibili valori futuri dei fattori di mercato sulle possibili perdite della banca è quantificato attraverso la full-valuation. Quest'ultima consiste nella rivalutazione piena di tutte le posizioni al variare dei fattori di mercato, dove la dinamica dei prezzi dei fattori di mercato è generata da appropriati modelli di pricing basati o su dati storici (tecniche di simulazione storica) o sulla generazione di scenari ad hoc (tecniche Monte Carlo). Si tratta di un approccio più preciso ma che richiede anche un ammontare di calcoli maggiormente oneroso;

– infine, il VaR non può essere calcolato semplicemente come multiplo della deviazione standard, ma va ricercato analizzando l'intera distribuzione delle perdite future e individuandone il valore massimo dopo aver escluso una percentuale di casi pari a 1-c, partendo da quelli peggiori.

In generale gli approcci di simulazione possono essere tutti ricondotti a tre metodologie principali: la simulazione storica, la simulazione Montecarlo e le prove di stress.

1.1) L’approccio parametrico (varianza-covarianza)

Tra i diversi possibili approcci alla misurazione dei rischi di mercato, l’approccio varianze–covarianze, anche detto approccio parametrico o analitico, è indubbiamente quello più diffuso presso le istituzioni finanziarie.

Alla base di tale diffusione ci sono motivi diversi e fra loro collegati:

• innanzitutto, esso presenta, rispetto agli altri approcci di misurazione, un vantaggio fondamentale che è quello della semplicità;

• tale approccio rappresenta la versione originale dei modelli Var, ossia quella che si è sviluppata e diffusa per prima presso le maggiori banche internazionali;

• la scelta di tale approccio risulta favorita dalla presenza di una banca dati (RiskMetrics), che si basa sull’approccio in esame.

Nell'ambito dell'approccio parametrico, la misurazione del rischio di mercato è ottenuta applicando specifiche metodologie statistiche per descrivere il modo con cui si realizzano i movimenti delle variabili finanziarie utilizzate. In particolare attraverso la stima di una matrice delle varianze e delle covarianze si cerca di sintetizzare i singoli movimenti (varianze) dei fattori di rischio ed i loro movimenti congiunti (covarianze). Successivamente, ponderando le singole varianze e covarianze dei fattori di rischio per opportuni parametri di sensibilità, si giunge ad una stima dell'impatto sul valore delle singole posizioni. In tal modo si ottiene una valutazione della distribuzione dei profitti e delle perdite (giornaliere, settimanali, mensili) del portafoglio che può essere utilizzata per formulare ipotesi

probabilistiche sulla verosimiglianza che le perdite previste possano eccedere un determinato livello (Lusignani, 1996).

L’ipotesi che sta alla base dell’approccio varianze – covarianze è che i profitti e le perdite della posizione si distribuiscano secondo una distribuzione di probabilità normale (Fig. 1), caratterizzata da due soli parametri: la media (μ) e la deviazione standard (σ), facilmente desumibili dai parametri di mercato sottostanti.

Figura 1: Distribuzione normale dei rendimenti. Fonte: McGraw-Hill 2007

L’ipotesi di normalità dei rendimenti agevola il calcolo del VaR, il cui valore viene a dipendere, oltre che dall’intervallo di confidenza prescelto, da un solo parametro rappresentato dalla deviazione standard della distribuzione di probabilità del rendimento. In termini generali l'approccio varianze-covarianze intende misurare il VaR di una singola posizione attraverso il prodotto di tre elementi:

• un coefficiente (δ) rappresentativo della sensibilità della posizione a variazioni del fattore di mercato nei confronti del quale la posizione è esposta;

• la volatilità stimata dei rendimenti di tale fattore di mercato (σ). Analiticamente otteniamo la seguente formula:

VaRi = VMi ⋅ δi ⋅ k ⋅ σi

dove VaRi rappresenta il valore a rischio connesso alla i-esima posizione e k è la

costante che determina l'intervallo di confidenza desiderato.

Quando dalla singola posizione si intende passare a considerare il rischio di un portafoglio composto da più posizioni, è necessario tener conto non solo della volatilità dei singoli rendimenti, ma anche delle covarianze. Dunque, il calcolo del VaR di un portafoglio P di posizioni sensibili a N diversi fattori di mercato richiede un input addizionale rappresentato dai coefficienti di correlazione fra i rendimenti dei fattori di mercato.

Nel caso più semplice in cui vi siano solamente due posizioni (A e B), il VaR del portafoglio può essere espresso come:

VaRP =√VaR2A+ VARB2 + 2 ∗ VaR A ∙ 𝑉𝑎𝑅𝐵 ∙ ρ A,B

dove ρA,B rappresenta il coefficiente di correlazione fra il rendimento del fattore di mercato A ed il rendimento del fattore di mercato B.

Nonostante sia di facile implementazione, il modello presenta alcuni limiti. In particolare risulta rilevante la critica che il mondo accademico ha fatto all’ipotesi di

normalità della distribuzione dei rendimenti dei fattori di mercato. Infatti, le distribuzioni empiriche dei rendimenti delle attività finanziarie presentano generalmente delle code più spesse (fat tails) di quelle proprie di una distribuzione normale. Tale fenomeno, che prende il nome di leptocurtosi, sta ad indicare che perdite particolarmente elevate si verificano più frequentemente di quanto implicito in una distribuzione normale. Dunque, la probabilità di conseguire perdite superiori al Var parametrico calcolato, per esempio, con un livello di confidenza del 99% è in realtà superiore all’1%.

1.2) La simulazione storica

A fronte delle limitazioni del modello varianza-covarianza, i modelli parametrici sono stati integrati e sostituiti con i modelli di simulazione, detti anche modelli non parametrici, in grado di rappresentare una maggiore gamma di scenari e di fornire una misura di rischio più attendibile.

Fra i modelli di simulazione, le simulazioni storiche rappresentano indubbiamente la soluzione più semplice ed intuitiva. È l'esempio più caratteristico di tecnica Var non parametrica, dato che non viene assunta ex-ante nessuna specifica forma della distribuzione delle variazioni dei fattori di mercato.

In un modello di simulazione storica si ipotizza che le potenziali variazioni dei fattori di mercato siano ben rappresentate dalla loro distribuzione empirica storica, cioè dalle variazioni registrate in un periodo passato. Il portafoglio in esame è rivalutato sulla

base delle variazioni registrate in un determinato periodo storico (orizzonte di riferimento) dagli stessi fattori di rischio. La rivalutazione piena di tutti gli strumenti di portafoglio conduce alla costruzione di una serie dei rendimenti di portafoglio, che, opportunamente ordinata, dalla massima perdita al massimo guadagno, permette l’estrazione del VAR al percentile desiderato.

Più precisamente, le simulazioni storiche prevedono che il VaR giornaliero di una posizione o di un portafoglio venga stimato mediane un processo articolato in cinque passaggi (Linsmeier, Pearson, 1996):

1. identificare i fattori di rischio e ricavare una formula che esprima il valore di mercato del portafoglio in funzione di tali valori;

2. costruire la serie storica dei rendimenti dei diversi risk factor negli ultimi n periodi; 3. applicare in sequenza al portafoglio attuale ognuno degli n shock passati, e rivalutare il portafoglio in corrispondenza del nuovo livello delle variabili di mercato; 4. ordinare tutti i possibili valori finali del portafoglio dal minore al maggiore;

5. identificare il valore corrispondente al percentile desiderato e calcolare il Var come differenza tra il valore corrente del portafoglio e il percentile considerato.

Il metodo della simulazione storica si caratterizza per alcuni grandi pregi.

In primo luogo, si tratta di un modello estremamente semplice, sia da un punto di vista logico che applicativo, tale da consentire una chiara ed immediata comprensione dei risultati prodotti anche ai membri del top management che avessero meno familiarità con le metodologie di risk management più complesse.

Un secondo vantaggio delle simulazioni storiche riguarda il fatto che esse non richiedono nessuna ipotesi circa la forma della distribuzione dei rendimenti dei fattori di mercato. L'unica ipotesi implicita è che la distribuzione dei rendimenti futura sia approssimata in maniera corretta attraverso la distribuzione storica. Se i rendimenti dei fattori di mercato non sono distribuiti normalmente ma hanno un comportamento stabile nel tempo, il modello delle simulazioni storiche fornisce indicazioni più precise rispetto ai modelli parametrici (Orsi, 2009).

Da ultimo, le simulazioni storiche consentono di mantenere del tutto intatta anche la struttura delle correlazioni fra i rendimenti, ovvero non richiedono di stimare la matrice varianze-covarianze dei numerosi fattori di mercato che possono influenzare il valore del portafoglio considerato. Il rischio connesso a portafogli composti da più variabili di mercato è infatti calcolato sulla base delle variazioni congiunte di tali variabili verificatesi nel corso del periodo storico considerato.

A fronte di tali pregi, tuttavia, anche le simulazioni storiche non sono esenti da limiti e problemi applicativi. Anzitutto, i calcoli necessari per rivalutare l'intero portafoglio di un'istituzione finanziaria alle condizioni di mercato passate sono estremamente onerosi e richiedono dunque un tempo relativamente elevato. In generale, l'intensità di calcolo richiesta risulta tanto maggiore quanto più complessi e numerosi sono gli strumenti in portafoglio e quanto più elevato è il numero dei fattori di mercato cui il portafoglio risulta sensibile.

Secondariamente, le simulazioni storiche ipotizzano implicitamente la stabilità temporale (stazionarietà) della distribuzione storica dei fattori di mercato. Se la

distribuzione sottostante dei rendimenti non è costante nel tempo, non è possibile considerare la distribuzione empirica come una sua rappresentazione.

Un terzo e ultimo limite delle simulazioni storiche, probabilmente il più serio dal punto di vista applicativo, riguarda la limitatezza delle serie storiche disponibili, soprattutto se l'orizzonte temporale prescelto per il calcolo del Var è superiore ad un giorno. Il numero limitato di osservazioni storiche disponibili si traduce tipicamente in una scarsa definizione delle code della distribuzione empirica di probabilità. D'altra parte, incrementare il più possibile la lunghezza della serie storica di riferimento può essere controproducente perché aumenta la probabilità che sia violata l'ipotesi di stabilità della distribuzione ovvero si rischia di estrarre dei dati da una distribuzione ormai “obsoleta”.

1.3) La simulazione Montecarlo

Le simulazioni Monte Carlo sono un'altra forma di simulazione in cui vengono generati in modo casuale i sentieri evolutivi dei prezzi degli strumenti in portafoglio. Si tratta di simulare un numero elevato di volte l'evoluzione di una variabile di mercato e ricalcolare il valore di mercato della singola posizione di rischio in corrispondenza di ognuno degli scenari così costruiti. Una volta ottenuta la distribuzione di probabilità delle variazioni del valore di mercato della posizione in

esame, il Var può essere stimato seguendo la logica già illustrata con riferimento alle simulazioni storiche.

In tal caso, il Var di una posizione, il cui valore è sensibile ai rendimenti di un unico fattore di mercato, può essere ottenuto seguendo cinque passaggi logici:

1. scegliere la distribuzione di probabilità f(r) che meglio approssima la distribuzione dei rendimenti del fattore di mercato in esame;

2. stimare i parametri (media, deviazione standard, ecc.) della distribuzione f; 3. simulare n scenari per il fattore di mercato, partendo dalla distribuzione f;

4. calcolare la variazione del valore di mercato della posizione in corrispondenza di ognuno degli scenari simulati;

5. tagliare la distribuzione di probabilità così ottenuta in corrispondenza del per-centile relativo al livello di confidenza desiderato.

E’ bene notare che le fasi 4 e 5 sono simili alla simulazione storica, mentre le fasi 1-3 rappresentano il tratto peculiare della simulazione Monte Carlo.

I vantaggi connessi all’utilizzo delle simulazioni Monte Carlo sono numerosi. Innanzitutto, simulando l’evoluzione dei fattori di mercato e ricalcolando il valore di mercato delle posizioni che compongono l’intero portafoglio (full valuation), viene superato il problema della non linearità dei playoff delle posizioni. Secondariamente, nelle simulazioni Monte Carlo il tempo necessario per effettuare le simulazioni richieste cresce linearmente, e non esponenzialmente come avviene con altre procedure, al crescere del numero di variabili considerate. Un terzo pregio consiste nel

fatto che il metodo in esame si presta ad essere utilizzato con qualunque distribuzione di probabilità dei rendimenti dei fattori di mercato.

A fronte di tali vantaggi, la simulazione Monte Carlo soffre di due principali svantaggi. Il primo è che, nel simulare l’evoluzione congiunta di più variabili di mercato, il metodo necessita di una stima della matrice delle varianze-covarianze dei fattori di mercato, che deve essere mantenuta continuamente aggiornata. Il secondo svantaggio è rappresentato dal fatto che la simulazione Monte Carlo, pur essendo più efficiente di altre procedure, risulta comunque più onerosa, in termini di tempo e di risorse informatiche, più complessa e meno trasparente per il top management (Resti, Sironi, 2008).

1.4) Le prove di stress

Le prove di stress costituiscono una metodologia complementare rispetto a quelle descritte nei paragrafi precedenti. L’obiettivo è di misurare la perdita attesa di una posizione o di un portafoglio a fronte di variazioni estreme dei fattori di rischio. Il loro utilizzo, come già accennato, è complementare rispetto a quello dei tradizionali modelli VAR poiché, spesso, le misure di perdita attesa generate sia dagli approcci parametrici che da quelli a valutazione piena, non riguardano variazioni dei fattori di mercato eccezionali. In altri termini, il problema specifico riguarda i limiti metodologici che questi metodi presentano, come, ad esempio, l'instabilità delle correlazioni, l'ipotesi di distribuzione normale dei rendimenti, empiricamente

confutata dalla presenza di code più spesse (fat tails) e da fenomeni di leptocurtosi e asimmetria negativa.

In considerazione di ciò, il Comitato di Basilea ha raccomandato l'utilizzo continuo di prove di stress, da implementare mediante il ricorso a tecniche di simulazione basate sulla costruzione di scenari pessimistici di evoluzione dei mercati. La definizione di tali scenari avviene tipicamente mediante due modalità. La prima si basa sull'utilizzo dei dati derivati da alcuni shock storicamente molto rilevanti del mercato (quali ad esempio il 2007 per i mercati azionari). La seconda modalità consiste invece nel considerare multipli elevati della volatilità storica oppure un aumento degli spread o della curva dei rendimenti.

Le motivazioni che spingono ad integrare le stime Var con i risultati delle prove di stress sono numerose. Anzitutto, per la loro stessa natura, gli stress events sono improbabili, e i dati usati per le stime Var non incorporano molte informazioni riguardo questi potenziali eventi, i quali risultano spesso “fuori del campione” (outliers); il loro impatto sul valore del portafoglio, infatti, giace frequentemente oltre il 99° percentile tipicamente usato nelle stime Var. In questa direzione, le prove di stress potrebbero dare una misura della perdita che ci si può attendere nel rimanente 1% dei casi. Inoltre, le situazioni di "stress" dei mercati si evolvono tipicamente su periodi più lunghi di quello giornaliero che è la tipica distribuzione usata per le stime Var.

I modelli Var quindi necessitano, nelle previsioni degli organi di Vigilanza, di uno strumento di integrazione affinché possano essere utilizzati nella determinazione di un

patrimonio adeguato a fronteggiare le perdite inattese e a garantire la sopravvivenza dell'istituzione finanziaria. Lo strumento di integrazione previsto si sostanzia nelle prove di stress fin qui descritte che, tentando di cogliere il rischio connesso agli eventi remoti presenti nelle code delle distribuzioni dei rendimenti dei fattori di mercato, integrano, l'analisi statistica alla base del Var, con un forte elemento di soggettività nella definizione degli scenari worst case, ossia proprio dove i rischi sono più grandi e