• Non ci sono risultati.

2.10 Le metodologie complementari al Value at Risk

2.10.2 L'Extreme Value Theory

L'extreme Value Theory (ETV) è una metodologia che permette di stimare le eventuali perdite originate da eventi estremi, i quali però, per loro natura, hanno un impatto note- vole.

Questo approccio, basato appunto sulla teoria statistica dei valori estremali, emerse du- rante gli anni `90 grazie al lavoro di importanti autori13 e, già nei primi anni 2000, ottenne

una importante diusione e implementazione in molti modelli.

Anche in sede di misurazione del rischio tale metodologia ha ottenuto un'importante ri- conoscimento, poiché è fondamentale per l'analisi di quegli eventi caratterizzati da una bassa frequenza, ma un elevato impatto in termine di perdite, ossia gli eventi estremali, quelli che deniscono le code della distribuzione di perdita di un fenomeno. Tali code non possiedono una distribuzione nota in anticipo, ma a questo problema viene data soluzione grazie all'ETV che sostiene che la distribuzione delle code converge, solitamente in situa- zioni dove sono presenti campioni di notevole grandezza, ad una particolare ma semplice distribuzione, denita come distribuzione di Pareto generalizzata. Noto ciò, è possibile applicare tale risultato al calcolo del Value at Risk per un dato intervallo di condenza. L'unica peculiarità che si deve tener presente e su cui si deve fare un'ulteriore precisazione è la circostanza che la metodologia ETV parte dal presupposto che i rendimenti relativi ai fattori di rischio possiedano una particolare caratteristica, ovvero, siano indipendenti e identicamente distribuiti (c.d. i.i.d.). Tale presupposto non è solitamente vericato in orizzonti temporali brevi, poiché contraddistinti da una volatilità altalenante. Per ovviare a questa dicoltà, in questa fattispecie, non vengono solitamente presi in considerazione i valori grezzi dei rendimenti rt, ma piuttosto i connessi rendimenti standardizzati et, che si

ottengono tramite la seguente relazione:

et=

rt

σt

∼ i.i.d.

dove con σt si intende la stima della volatilità degli stessi rendimenti grezzi.

A questo punto, una volta applicata la teoria dei valori estremi ai rendimenti appena trovati et, si può ricavare la stima del Value at Risk attraverso l'impiego della metodologia

ETV associata ai modelli connessi alla denizione della varianza di uno strumento o di un portafoglio.

Per quanto concerne l'applicazione dell'Extreme Value Theory, al ne di derivare la stima delle distribuzioni dei valori sulle code, vi sono due diversi approcci:

• l'approccio Peaks Over Threshold (c.d. POT);

• l'approccio Block Maxima (c.d. BM).

Nel prosieguo verranno brevemente esposti questi due approcci.

L'approccio Peaks Over Threshold, o POT, canalizza l'attenzione unicamente sui valori presenti sulla coda della distribuzione al di sopra di una predeterminata soglia (denita in questo esempio con il termine s).

Figura 2.5: Approccio Peaks Over Threshold.

Come si nota dal graco sopra, la parte considerata da tale approccio è quella parte di coda evidenziata che sta, appunto, al di sopra della soglia s.

Per determinare la probabilità di ottenere un valore dei rendimenti standardizzati e che si possa osservare all'interno di un intervallo denito tra la soglia s e un dato livello s + x, si utilizza la funzione di densità di probabilità cumulata, ossia:

Fs(x) = prob{e ≤ s + x|e > s}

che può essere anche scritta come:

Fu(x) =

F (x + s) − F (s) 1 − F (s)

É evidente che la funzione di densità di probabilità cumulata Fs(x) è fortemente condi-

zionata al valore scelto della soglia s. L'Extreme Value Theory, a tal proposito, sostiene che all'aumentare del valore s, nella quasi totalità dei casi con distribuzioni conosciute, la

funzione di densità cumulata Fu(x) converge ad una particolare distribuzione, ovvero, la

distribuzione generalizzata di Pareto, indicata con l'abbreviazione GPD:

GP D(x; ξ; β) =    1 − (1 + ξx/β) se ξ 6= 0 1 − e−x/β se ξ = 0    x ≥ s se ξ ≥ 0 s ≤ x ≤ s − β/ξ se ξ < 0

tenendo presente che β > 0 e ξ rappresenta la coda della distribuzione ed è positivo nel caso la distribuzione considerata sia caratterizzata da una coda spessa.

Attraverso l'impiego della distribuzione generalizzata di Pareto (GPD), con il metodo POT è possibile ottenere, mediante calcoli piuttosto semplici, la stima della funzione di densità di probabilità cumulata dei rendimenti estremi, sia positivi che negativi (cioè dei valori eccedenti la soglia predenita s, sia a destra che a sinistra).

Nonostante questo pregio, l'approccio Peaks Over Threshold presenta un limite connesso alla soglia s, ossia, la scelta che porta a denire il livello di s deve tener conto del rapporto tra la fondatezza della metodologia EVT e la varianza delle stime ottenute. Il problema, infatti, si cela dietro al fatto che, anché la teoria dell'EVT sia valida, ovvero che esista una convergenza tra la distribuzione della coda e la distribuzione generalizzata di Pareto, la soglia s deve essere sucientemente alta, ma allo stesso tempo, non può esserlo esage- ratamente, altrimenti la parte di coda analizzata conterrebbe un numero insuciente di osservazioni per decretare valida la stima del fattore ξ. È necessario, in sostanza, denire una soglia s che tenga in considerazione ambo le criticità del modello.

L'approccio Block Maxima, o dei massimi a blocchi, richiede di dividere in un numero M di blocchi la serie storia dei rendimenti standardizzati. Questi blocchi devono contenere al loro interno, però, un numero sucientemente ampio di dati, da cui, successivamente, si deve ricavare il valore massimo m (ecco spiegato il nome di questo approccio, ossia, massimi a blocchi, che deriva proprio dal fatto che il campione viene diviso in blocchi e per ogni blocco viene identicato il valore massimo).

A questo punto, l'insieme di tutti gli m valori segue una distribuzione di probabilità denita come Generalised Extreme Value, più comunemente conosciuta con l'abbreviazione GEV:

GEV (m; ξ; µ; σ) =    e−[1−ξm−µσ ] − 1 ξ se ξ 6= 0 e−e− m−µ σ se ξ = 0

dove µ indica la posizione assunta dalla distribuzione, σ il livello di dispersione della stessa, mentre ξ rappresenta la coda della distribuzione.

Per ottenere la stima dei parametri µ, σ, e ξ si può utilizzare un semplice algoritmo di massima verosimiglianza. Ovviamente, per eettuare tale calcolo è necessario possedere un numero suciente non solo di blocchi M, ma anche di osservazioni N che costituiscono ogni singolo blocco, di conseguenza, si dovrebbe avere a disposizione un ammontare di rendimenti pari a M × N. Risulta evidente, perciò, che tale approccio in alcuni casi si dimostra dicilmente attuabile.

Come si è brevemente illustrato, la Teoria dei Valori Estremi EVT focalizza l'attenzione unicamente sulle code di una distribuzione, ovvero sugli eventi estremali più rari.

Si può notare, inoltre, che tale metodologia permette di esaminare le code della distribu- zione in modo separato, e non contemporaneamente, evitando perciò di assumere l'ipotesi di simmetria, qui, evidentemente non necessaria e inadatta in un contesto nanziario.

I modelli di misurazione del rischio

Dopo aver illustrato, nei primi due capitoli, il quadro normativo di riferimento e la misura di rischio del Value at Risk con i rispettivi approcci applicativi, le diverse varianti di misurazione e i metodi alternativi ma complementari della misura stessa, nel presente capitolo si desidera mostrare, per ognuno dei rischi appartenenti al Primo Pilastro di Basilea, l'applicazione pratica della tecnica del Value at Risk per la stima del rischio. Nei paragra successivi perciò, si illustreranno i passi pratici per applicare il Value at Risk al ne di stimare rispettivamente, la misura del rischio di mercato, del rischio di credito e inne del rischio operativo.

3.1 Rischio di mercato

Nel presente paragrafo verranno presentate le fasi per la stima del Value at Risk in relazione a diverse tipologie di rischio, ovvero, il rischio di cambio, il rischio di tasso di interesse e inne il rischio di prezzo azionario, che sono gli elementi caratteristici del rischio di mercato. L'approccio che sarà utilizzato per la valutazione del VaR è quello parametri- co, ossia, varianza-covarianza.

Si ritiene doveroso iniziare con la valutazione del Value at Risk a livello di rischio di mer- cato perché è proprio nell'ambito di quest'ultimo che hanno avuto origine e sviluppo le tecniche di misurazione del rischio fondate sul concetto cardine di massima perdita poten- ziale. Storicamente, infatti, il rischio di mercato fu la prima tipologia di rischio che venne misurata attraverso il Value at Risk, grazie alla pubblicazione del report RiskMetrics di J.P. Morgan. Solo in seguito questa tecnica venne applicata ad altre tipologie di rischio, come il rischio di credito.

Il rischio di mercato viene comunemente denito come il rischio generato dall'operatività sui mercati, riguardante gli strumenti nanziari, le valute e le merci, nonché i titoli del portafoglio trading. Da questa denizione si comprende come tale rischio ricomprenda al suo interno tutti i rischi che sono legati ai risultati economici ottenuti da una banca in

relazione alle variazioni non previste del cambio, dei tassi di interesse, dei prezzi azionari, delle merci e anche della volatilità attesa (quest'ultima, infatti, agisce sul valore delle op- zioni).

Da ciò si evince che, per una banca, un'accurata misurazione del rischio di mercato è un processo essenziale per la corretta gestione della stessa.