• Non ci sono risultati.

Gestione di portafogli finanziari: analisi empirica sul Value at Risk attraverso la simulazione storica

N/A
N/A
Protected

Academic year: 2021

Condividi "Gestione di portafogli finanziari: analisi empirica sul Value at Risk attraverso la simulazione storica"

Copied!
117
0
0

Testo completo

(1)

UNIVERSITÀ DI PISA

DIPARTIMENTO DI ECONOMIA E MANAGEMENT

Corso di Laurea in Banca, Finanza Aziendale e Mercati Finanziari

TESI DI LAUREA

Gestione di portafogli finanziari:

analisi empirica sul Value at Risk attraverso la simulazione storica

Candidata: Relatore:

Chiara Parrini Prof. Emanuele Vannucci

(2)
(3)

INDICE

INTRODUZIONE 1

CAPITOLO 1 – La GESTIONE DEI RISCHI FINANZIARI 3

1.1. I rischi nei mercati finanziari 3

1.2. Le variabili aleatorie 9

1.2.1. Le variabili aleatorie discrete 9

1.2.2. Le variabili aleatorie continue 11

1.2.3. La funzione di ripartizione 13

CAPITOLO 2 - VALUE AT RISK 15

2.1. Definizione e origini 15

2.2. Definizione statistica 17

2.2.1. Variabili aleatorie continue 17

2.2.2. Variabili aleatorie discrete 18

2.2.3. Interpretazione economico-finanziaria 19

2.3. Modelli di calcolo del VaR 19

2.3.1. Approccio Parametrico 20

2.3.2. Simulazione Storica 22

2.3.3. Simulazione di Monte Carlo 23

2.3.4. Metodologie a confronto: vantaggi e svantaggi 24

2.4. Criticità del VaR 25

2.5. Value at Risk ed Expected Shortfall 27

2.6. Il Backtesting 29

CAPITOLO 3 - TEORIA DI PORTAFOGLIO 32

3.1. Introduzione 32

3.2. Rendimento e Rischio 33

3.3. Scelta del portafoglio che minimizza in assoluto il rischio 36

3.4. La Frontiera dei portafogli 41

3.4.1. Interpretazione grafica: economia con due soli titoli 42 3.4.2. Interpretazione grafica: economia con più di due titoli 45

(4)

CAPITOLO 4 – ANALISI EMPIRICA 51

4.1. Introduzione 51

4.2. Reperimento dati 51

4.3. L scelta delle azioni da inserire nei portafogli 56

4.3.1. Le azioni BPE 56 4.3.2. Le azioni ISP 58 4.3.3. Le azioni UBI 60 4.3.4. Le azioni A2A 62 4.3.5. Le azioni ENEL 63 4.3.6. Le azioni TRN 65 4.3.7. Le azioni FCA 67 4.3.8. Le azioni LUX 69 4.3.9. Le azioni REC 71

4.4. Costruzione dei portafogli 73

4.5. Calcolo del VaR Soglia 75

4.5.1. Il “Portafoglio Bancario” 75

4.5.2. Il “Portafoglio Energetico” 78

4.5.3. Il “Portafoglio Energetico Diversificato” 79

4.5.4. Il “Portafoglio Completamente Diversificato” 80

4.6. Considerazioni sui valori ottenuti 81

4.7. Monitoraggio portafogli periodo gennaio 2015 – marzo 2017 82

4.8. Inserimento delle opzioni nei portafogli 85

CONCLUSIONI 90

APPENDICE 93

Lista delle Figure 106

Lista dei Grafici 108

Lista delle Tabelle 109

BIBLIOGRAFIA 110

SITOGRAFIA 112

(5)
(6)

1

INTRODUZIONE

Dagli anni novanta il Risk Management ha iniziato a riscuotere un forte interesse da parte delle istituzioni finanziare, banche e compagnie di assicurazione, fino a diventare l’area più importante e maggiormente sviluppata all’interno di esse. Ciò ha comportato la continua e crescente ricerca di nuove tecniche di gestione del rischio nei successivi anni. In generale con il termine “Risk Management” si fa riferimento a tutti quei processi mediante i quali, in primo luogo, viene effettuata una stima o una misurazione del rischio e successivamente vengono sviluppate adeguate strategie da attuare al fine di poterlo governare. Al centro del Risk Management ci sono quindi tutti quei rischi finanziari, che vengono tradotti in perdite monetarie, presenti nelle attività che le istituzioni finanziarie, le banche e le compagnie assicuratrici (ma anche i soggetti privati) svolgono abitualmente. La funzione del Risk Management dunque non è quella di eliminare la possibilità di incombere in perdite impreviste, bensì quella di controllarne la frequenza, l’estensione e la grandezza, al fine di non incombere in situazioni inaspettate ed elaborare strategie per fronteggiare le possibili perdite. Obiettivo del Risk Management è dunque quello di consentire una chiara comprensione dei rischi a cui il soggetto è esposto. Il grande successo riscosso negli ultimi anni dal Risk Management, seguito da continue ricerche nel campo, è dovuto a una molteplicità di fattori. Negli ultimi anni la crescente espansione e “globalizzazione” dei mercati finanziari ha comportato, oltre all’introduzione di nuovi prodotti finanziari e “universi investibili”, nuovi rischi. Inoltre l’espansione dei mercati finanziari ha portato dei repentini cambiamenti all’interno delle istituzioni finanziarie che sono sfociati in un aumento dei rischi. Basti pensare alle conseguenze derivanti dalla riduzione nella distinzione fra attività bancaria e non bancaria o alla distinzione fra commercial banks e investment banks che negli anni è andata quasi a scomparire. Tutti questi cambiamenti hanno comportato un aumento dei rischi sia per dimensione che per quantità. Il rischio è una componente insita nelle attività finanziarie e quindi non può essere in alcun modo eliminato, ma tuttavia può essere controllato. Per tutti questi motivi e vista anche la velocità crescente con cui si muovono i mercati finanziari una risposta pronta in termini di gestione del rischio è l’unico modo per stare al “passo” e cercare di limitare il più possibile i danni. Quindi una continua ricerca in

(7)

2

questi termini è l’unica soluzione per far fronte ai rischi che sono da sempre insiti nelle attività finanziarie.

La ricerca nell’ambito della gestione del rischio ha quindi portato alla luce nuovi e numerosi strumenti di risk management. Il Value at Risk è una delle numerose tecniche utilizzate per la gestione del rischio e proprio su di esso si basa questo elaborato.

L’obiettivo principale di questo lavoro è quello di analizzare il Value at Risk nell’ambito della gestione di portafogli finanziari e trarne delle evidenze empiriche. Nello specifico l’analisi si compone di due fasi. La prima fase consiste nella stima del Value at Risk mediante la metodologia della simulazione storica per quattro differenti portafogli finanziari caratterizzati da livelli di correlazione dei rendimenti dei titoli decrescenti. Nello specifico i portafogli analizzati sono: il “Portafoglio Bancario”, il “Portafoglio Energetico”, il “Portafoglio Energetico Diversificato” e il “Portafoglio Completamente Diversificato”. Lo scopo principale di questa fase è quello di verificare come il Value at Risk si comporta a seconda dei diversi livelli di correlazione. La seconda fase invece riguarda una verifica di bontà del valore del Value at Risk precedentemente stimato attraverso un procedimento di backtesting.

Questo elaborato si articola in quattro capitoli. Nel primo capitolo viene fornita la definizione di rischio sia a livello economico-finanziario che a livello matematico-probabilistico ed inoltre vengono analizzati i principali rischi finanziari con un rapido sguardo agli strumenti per la loro gestione. Nel secondo capitolo viene trattato l’elemento principe di questo lavoro: il Value at Risk. Partendo dalle sue origini, si passa a darne la sua definizione sia a livello economico-finanziario che a livello statistico. In seguito vengono descritte le diverse metodologie di calcolo ed esposte le sue principali criticità. Infine viene presentato il modello teorico di backtesting. Nel terzo capitolo invece sono riportate le nozioni base e gli aspetti principali della teoria di portafoglio. Infine, nel quarto ed ultimo capitolo vengono riportati in maniera dettagliata tutti i procedimenti ed i calcoli effettuati durante l’analisi empirica con le relative considerazioni.

(8)

3

CAPITOLO 1 – LA GESTIONE DEI RISCHI FINANZIARI

1.1. I rischi nei mercati finanziari

Il rischio non ha un’accezione univoca, sono molteplici i campi dove il concetto di rischio è elemento principe. Tuttavia solo la sua accezione economico-finanziaria, per ovvi motivi, verrà trattata. A livello economico-finanziario il rischio è caratterizzato da risultati economici incerti. Interessante è domandarsi dove è insita questa incertezza, poiché come vedremo in seguito ciò comporta la divisione dei rischi in diverse categorie. L’incertezza può risiedere nel se “quel pagamento verrà effettuato?”, nel quanto “l’azione che abbiamo acquistato oggi, fra un anno quanto varrà?” e nel quando “quel debitore quando salderà il suo debito?”.1 Le istituzioni finanziarie, banche e compagnie assicuratrici, e le aziende ogni giorno sono soggette a diversi rischi che sono insiti nelle attività che svolgono abitualmente. Ma non solo questi soggetti, che svolgono delle specifiche attività, hanno a che fare con il rischio, chiunque entra nel mondo della finanza, si pensi anche a tutti i soggetti privati, deve in ogni modo fare i conti con l’incertezza che è insita nell’investimento, i risultati del quale sono resi noti solo in futuro, a investimento finito. L’incertezza è onnipresente quando viene intrapreso un qualsiasi investimento, una qualsiasi transazione o più in generale una qualsiasi azione dove l’andamento futuro (dei tassi, dei prezzi, delle performance di un’impresa…) è incerto. Questa incertezza è strettamente legata al rendimento di un investimento: più l’investitore è interessato a elevati guadagni più è soggetto a elevati rischi di incombere in perdite (trade-off). La disciplina europea, in particolare attraverso gli accordi di Basilea, regolamenta le macro-categorie di rischio che le istituzioni finanziarie devono affrontare. Di seguito sono riportati i principali rischi a cui un soggetto è sottoposto durante la sua attività:

1) Rischio di mercato (market risk):

il rischio di mercato deriva dalle oscillazioni di prezzo di un bene derivanti dalla modifica nella domanda e nell’offerta di quel bene.

Oltre alle oscillazioni di prezzo il rischio di mercato fa riferimento anche a tutti i movimenti “indesiderati” che subiscono i tassi di interesse, tassi di cambio e la

1 È interessante vedere come il quanto e il quando sono insiti nel se nel caso in cui, ad esempio, quel determinato pagamento non verrà saldato. Poiché se il pagamento non verrà effettuato si avrà che la somma che sarà ricevuta sarà pari a zero (quanto) e non verrà mai incassata (quando).

(9)

4

volatilità all’interno delle opzioni. I rischi di mercato specifici variano in base al tipo di attività in esame, di conseguenza potremo suddividerli in:

• Rischio di cambio (currency risk): rischio legato a una variazione del rapporto di cambio tra due valute, che incide sul valore di un bene espresso in una valuta estera. Questo rischio si presenta qualora i flussi di cassa coinvolti in una data transazione vengono convertiti in una valuta straniera. Strumenti derivati su valute quali currency futures, currency option e currency swap sono degli ottimi strumenti di copertura contro indesiderate variazioni nei tassi di cambio.

• Rischio di tasso di interesse (interest rate risk): è dovuto a variazioni del valore degli asset interest-sensitive, ossia attività sensibili alle variazioni nei tassi d’interesse, o a una modifica della struttura per scadenza dei tassi d’interesse. Questo rischio ha conseguenze soprattutto in riferimento ai debiti/crediti che sono stati contratti. Basti pensare che un aumento del tasso di interesse per il debitore risulta essere una perdita, quando il contratto prevede tassi di interessi variabili, poiché sarà costretto a pagare una somma maggiore rispetto a quella stabilita inizialmente. Mentre il creditore ne gioverà. Se invece il contratto prevede tassi di interesse fissi, il debitore gioverà da una variazione positiva dei tassi, mentre il creditore ne subirà una perdita.

Il rischio di tasso di interesse è strettamente legato alla vita dello strumento finanziario. Tanto più è lunga la vita del titolo (obbligazione a lunga scadenza) tanto più esso sarà soggetto a variazioni inattese dei tassi di interesse. Mentre se la vita del titolo è breve esso sarà meno soggetto a variazioni improvvise e inaspettate dei tassi di interesse.

Per la copertura di tale rischio, ovvero contro indesiderate variazioni nei tassi di interesse, gli strumenti derivati sui tassi di interesse, quali interest rate future, interest rate option e interest rate swap sono ottimi rimedi.

• Rischio azionario (equity risk): colpisce chiunque abbia un portafoglio azionario, il cui valore aumenterà o diminuirà a seconda delle oscillazioni di prezzo di ogni singola azione che compone il portafoglio e del mercato azionario. Questa è la tipologia di rischio che viene presa in considerazione nell’analisi da me condotta.

(10)

5

In riferimento agli strumenti azionari è interessante soffermarsi su come il rischio di mercato si contrappone al rischio specifico. Infatti detto ciò è possibile dividere il rischio di un’azione in: a) rischio sistematico e b) rischio non sistematico o specifico. Il rischio sistematico dipende sia dalla situazione economica che dall’andamento dei mercati finanziari e viene misurato dal coefficiente 𝛽. Mentre il rischio specifico dipende esclusivamente dalle caratteristiche della società emittente che viene considerata.2

Anche in questo caso i derivati sono degli ottimi strumenti di copertura di un portafoglio, composto da titoli azionari, che è soggetto alla variazione dei prezzi di mercato. Infatti l’utilizzo di strumenti derivati consente di “neutralizzare” l’andamento avverso del mercato bilanciando le perdite/guadagni ottenuti dall’attività sottostante con i guadagni/perdite conseguiti sul mercato dei derivati. Un esempio di strumenti derivati, utili in questo contesto, possono essere gli stock index future che coprono l’investimento da variazioni degli indici di borsa. Altro esempio possono essere le opzioni put e call che sono agganciate ad un sottostante che può essere rappresentato da un titolo che compone il portafoglio.3

• Altri rischi di mercato: in questa categoria rientrano il rischio di volatilità (volatility risk) e il rischio di base (basis risk). Il primo colpisce i detentori di opzioni e si basa sulla volatilità del valore del sottostante. Infatti, a seconda della tipologia di opzione, una variazione del prezzo del bene sottostante comporta una diminuzione o un aumento del valore dell’opzione stessa.4 Il secondo invece ha un impatto più ampio e può

2 Tramite un’adeguata diversificazione (aumentando il numero di titoli inseriti in portafoglio, investendo il patrimonio in fondo comune di investimento…) è possibile ridurre il rischio specifico fino, in casi eccezionali, ad eliminarlo. Al contrario il rischio sistematico non può essere eliminato in alcun modo. 3 Supponendo di acquistare un’opzione put, con strike price 𝑘, avente come sottostante un determinato titolo contenuto nel portafoglio. La diminuzione del valore del portafoglio, derivante dalla diminuzione di prezzo di quel determinato titolo, potrà essere bilanciata esercitando l’opzione (se il prezzo di mercato è minore del prezzo strike). In questo modo il ricavato derivante dalla vendita del sottostante “neutralizza” parte delle perdite derivanti dall’investimento di portafoglio.

4 Se l’investitore acquista un’opzione put, con un determinato strike price, mano a mano che il prezzo del sottostante aumenta, avvicinandosi al prezzo strike, il valore dell’opzione tende a diminuire fino ad azzerarsi quando il prezzo del sottostante arriva ad essere maggiore o uguale del prezzo strike. Mentre per un’opzione call si avrà l’effetto opposto: mano a mano che il prezzo del sottostante diminuisce il valore dell’opzione diminuisce di seguito, fino ad azzerarsi quando il prezzo del sottostante arriva ad essere minore o uguale al prezzo strike.

(11)

6

essere associato a una strategia di copertura imperfetta. Tale rischio può manifestarsi o a causa della differenza tra il prezzo dell’attività da coprire e il prezzo dell’attività che funge da copertura (gli andamenti dei due strumenti, sebbene non identici, sono simili), o a causa dalla mancata corrispondenza fra le date di scadenza delle due attività.

2) Rischio di credito (credit risk):

il rischio di credito fa riferimento all’incapacità potenziale di una controparte di soddisfare i propri impegni contrattuali, non riuscendo così ad adempiere ai suoi obblighi di pagamento degli interessi e al rimborso del capitale. È possibile dare due definizioni di rischio di credito: a) il rischio di credito in senso stretto e b) il rischio di credito in senso lato. La definizione data inizialmente è relativa all’interpretazione del rischio di credito in senso stretto, ovvero la mancata riscossione dei pagamenti contrattuali a seguito di default sia diretti (default risk) che indiretti (Country risk). Il rischio in senso stretto può essere distinto nelle sue due principali manifestazioni: il rischio di controparte (counterparty credit risk) e il rischio paese (Country risk).5 Mentre in senso lato il rischio di credito si riferisce ai diversi impatti sul conto economico o sul bilancio derivanti dalla qualità del debito delle controparti.

Il rischio di credito risulta essere il principale fattore di rischio per le banche. Infatti tale rischio è una componente presente in tutte le attività di prestito che influenza le scelte e le condizioni di investimento delle banche, degli intermediari finanziari e degli investitori privati. Generalmente si può osservare che tanto più è elevato il rischio di credito, tanto più elevato sarà il tasso di interesse richiesto all’acquirente del titolo di credito. Un elevato tasso di interesse dovrebbe bilanciare la maggior esposizione al rischio. Il rischio di credito oltre ad essere legato alle condizioni del debitore, dipende anche dal ciclo economico. Infatti in periodi di recessione esso aumenta, mentre nei periodi di espansione tende a diminuire. Inoltre questo rischio è legato all’attività delle società di rating. Infatti qualora fosse una società emittente a cadere in default, le società di rating provvederebbero al down-grading di essa. Il rating di una società viene utilizzato per la valutazione del rischio di credito. A livelli bassi di rating corrisponde un

5 Il rischio paese a sua volta può essere distinto in due sottocategorie: il rischio di trasferimento (che a sua volta si divide in rischio di fallimento sovranazionale e rischio di imposizione) e il rischio da evento di credito.

(12)

7

alto livello di rischio di credito e quindi un elevato tasso di interesse. Mentre relativamente ai prestiti bancari la valutazione di rischio di credito si basa sulla classe di merito che viene assegnata dalla banca al soggetto che richiede il prestito e sul motivo della richiesta del prestito stesso. Diverse sono le misure cautelari di questa tipologia di rischio a seconda di chi deve proteggersi da esso. Le banche si proteggono tramite una precisa valutazione della solvibilità e dell’affidabilità del soggetto richiedente e, se ne reputano necessario, attraverso il rilascio di prestiti assistiti da garanzie, fideiussioni o tramite la costituzione di fondi di recupero crediti. Mentre gli investitori privati devono optare per la diversificane del proprio portafoglio, investendo sia in titoli privi di rischio (generalmente rappresentati dai titoli di stato) che in titoli rischiosi. Mentre l’uso di strumenti derivati, nello specifico i credit derivatives, possono essere strumenti utili per proteggersi dal rischio di credito, sia per banche che per investitori privari.

3) Rischio di liquidità (liquidity risk):

il rischio di liquidità fa riferimento a quelle situazioni in cui il possessore di uno strumento finanziario incontra delle difficoltà a vendere tale strumento a un prezzo conveniente, o quantomeno equo, con bassi costi di transazione e in breve tempo. Il grado di liquidità di un titolo è strettamente collegato al suo tasso di interesse. Poiché i titoli, a parità di tutte le altre condizioni, che risultano essere particolarmente illiquidi incorporano un tasso di interesse più elevato rispetto agli altri. Questo è dovuto al premio per il rischio di illiquidità che gli investitori chiedono in supplemento al tasso di interesse. Quindi titoli con un basso rischio di liquidità presenteranno un tasso di interesse complessivamente più basso rispetto ai titoli considerati poco liquidi. Inoltre un premio per il rischio di liquidità è previsto per gli investimenti in titoli a lungo termine. Ciò non è difficile da spiegare, in quanto è elementare che un investimento di lungo periodo sia più soggetto a variazioni inaspettate dei prezzi e dei tassi di interesse, rispetto a un investimento di breve periodo. Infatti la teoria del premio per la liquidità afferma che gli investitori saranno disposti ad effettuare investimenti di lungo periodo solo se appositamente appagati da un maggiore premio per la liquidità. Quindi il tasso di interesse di un investimento, a parità di tutte le altre condizioni, risulterà tanto più elevato quanto più distante sarà la scadenza di tale investimento, poiché l’investitore deve essere “incoraggiato” ad acquistare titoli a lungo termine che

(13)

8

sono maggiormente soggetti al rischio di perdita in conto capitale e più sensibili alle oscillazioni dei tassi di interesse.

4) Rischio operativo (operational risk):

il rischio operativo è dovuto a fallimenti o inadeguatezze dei processi interni, delle risorse umane e dei sistemi tecnologici oppure da eventi esterni. Deriva da qualsiasi operazione impropria di elaborazione o gestione dei sistemi che si traduce in perdite monetarie. È una nuova tipologia di rischio che Basilea II (2006) ha inserito, insieme al rischio di mercato e rischio di credito (già stati individuati nel primo accordo di Basilea), nel calcolo dei requisiti patrimoniali delle banche. Tale rischio nonostante si discosti dalle variazioni insite nel mercato e dai comportamenti delle controparti ha una rilevanza elevata, poiché danni causati da operazioni inadeguate possono sfociare in elevate perdite monetarie, quindi non è da sottovalutare. I principali rischi che rientrano in questa categoria sono l’IT-risk, l’attacco di hacker e il rischio umano. Generalmente un’azione con un elevato rischio operativo presenta anche un elevato rischio di credito, poiché la probabilità di fallimento sarà maggiore in presenza di sistemi operativi inadeguati.

5) Rischio di regolamento (settlement risk):

il rischio di regolamento è dovuto al mancato funzionamento dei sistemi di pagamento. Esso è visto come un rischio misto poiché duplici possono essere le cause del mancato funzionamento dei sistemi di pagamento. Infatti l’origine del mancato pagamento può derivare da incapacità della controparte di far fronte ai propri obblighi contrattuali (rischio di credito), oppure da incapacità tecniche (rischio operativo).

Dalla descrizione dettagliata dei rischi è possibile dedurre che le istituzioni finanziarie, le aziende ed gli investitori privati sono soggetti a una moltitudine di rischi che sono fra di loro strettamente correlati. Inoltre l’integrazione dei mercati finanziari ha contribuito alla “globalizzazione” dei rischi sottostanti. Ciò non è difficile da verificare. Infatti basta pensare a un prestito a tasso fisso concesso da una banca inglese a un’azienda italiana. Tale prestito incorpora al suo interno (almeno) tre tipologie di rischio: il rischio di tasso di cambio, il rischio di tasso di interesse e il rischio di liquidità. A seconda del rischio da cui le controparti vorranno coprirsi utilizzeranno uno strumento di copertura specifico, partendo dagli strumenti di copertura classici (swap di cambio, interest rate swap, credit swap) fino ad arrivare alle nuove forme di copertura che il mercato e l’ingegneria finanziaria hanno sviluppato (futures, contratti forward, veicoli strutturati, opzioni…).

(14)

9

Quindi l’integrazione finanziarie e il continuo sviluppo dei mercati finanziari rende necessaria una gestione integrata dei rischi. Sebbene la gestione di tutti i rischi di mercato sia ben definita, stessa cosa non si può dire sull’integrazione del rischio di mercato con gli altri rischi. Una spinta verso l’integrazione nella gestione dei rischi può quindi essere vista come una chiave di successo e di stabilità. Da qui lo sviluppo di nuove e sempre più accurate tecniche di Risk Management ha preso piede negli ultimi anni.

1.2. Le variabili aleatorie

Definito il concetto economico-finanziario di rischio ed elencato le più comuni tipologie di rischi presenti nei mercati finanziari, in questa sezione viene riportato il concetto di rischio secondo una visione matematico-probabilistica. Ho ritenuto opportuno trattare il concetto anche a livello matematico in quanto credo che ciò renda di più semplice comprensione la successiva parte sul calcolo del Value at Risk.

Ciò che meglio esprime il concetto di rischio a livello matematico è la variabile aleatoria. Infatti una variabile aleatoria (detta anche variabile casuale o variabile stocastica) è una variabile che assume valori diversi in dipendenza da qualche fenomeno aleatorio. Quindi il valore che una variabile aleatoria può assumere è incerto, ovvero non deterministico. Infatti l’attributo “casuale” rimanda al fatto che la variabile è generata da un esperimento (meccanismo o fenomeno naturale) di cui non è possibile conoscere l’esito con certezza. Gli esempi più comuni con cui viene definita una variabile aleatoria sono il lancio di una moneta e il lancio di un dado bilanciato a sei facce. Nel caso del lancio di una moneta l’esperimento può essere matematicamente modellato coma una variabile aleatoria che può assumere uno dei due possibili valori, Testa o Croce, con rispettive probabilità di un mezzo.

1.2.1. Le variabili aleatorie discrete

Una variabile aleatoria si definisce discreta se assume un insieme finito (discreto o numerabile) di realizzazioni diverse, o più precisamente di numeri reali. Gli esempi del lancio della moneta e del dado rientrano nella categoria di variabili casuali discrete. Nel presente lavoro la variabile aleatoria è rappresentata dal prezzo futuro di ogni titolo e quindi dall’andamento futuro dell’investimento effettuato.

(15)

10 𝑋𝑇 = { 𝑥1 𝑝1 𝑥2. .. 𝑝2... 𝑥𝑖. .. 𝑝𝑖... 𝑥𝑛 𝑝𝑛

Dove 𝑥𝑖, con 𝑖 = 1,2, … 𝑛, sono tutti i possibili risultati che la v.a. può assumere e 𝑝𝑖 le relative probabilità con cui essi possono verificarsi.

Occorre assumere che:

• Tutti gli 𝑥𝑖 abbiano la stessa unità di misura e quindi siano ordinabili; • 𝑥𝑖−1 < 𝑥𝑖 < 𝑥𝑖+1 ∀ 𝑖;

• Ad ogni evento 𝑥𝑖 sia attribuita una probabilità 𝑝𝑖. Avremo dunque che 𝑃(𝑋 = 𝑥𝑖) = 𝑝𝑖. Ovvero la probabilità che 𝑋 assuma il valore 𝑥𝑖 è uguale a 𝑝𝑖. Le probabilità associate ai possibili risultati devono inoltre soddisfare le seguenti proprietà:

• 𝑃(𝑋 = 𝑥𝑖) > 0 ∀𝑖;

• 𝑃(𝑋 = 𝑥) = 0 per 𝑥 ≠ 𝑥𝑖; • ∑𝑛𝑖=1𝑝𝑖 = 1.

La terza proprietà è la più importante, verrà quindi denominata come “proprietà essenziale”. Tale proprietà comporta la realizzazione di un unico e solo evento. Ciò significa che ogni realizzazione esclude l’altra, quindi occorre che gli eventi siamo mutualmente esaustivi ed esclusivi. Graficamente una v.a. discreta può essere rappresentata da un istogramma. La Figura 1 ne mostra un esempio.

Figura 1 – Rappresentazione grafica v.a. discrete

Come è possibile vedere dalla figura sopra ad ogni evento è associata una determinata probabilità e l’altezza dell’istogramma rappresenta la maggiore o minore probabilità che quel determinato evento si verifichi.

(16)

11

1.2.2. Le variabili aleatorie continue

Una v.a. 𝑌 si definisce continua se assume un insieme infinito (non numerabile) di realizzazioni appartenenti a un intervallo continuo.

Per le v.a. continue non è possibile assegnare una probabilità diversa da zero in ogni suo punto, quindi occorre fare riferimento a intervalli di valori. Per essere rappresentata la v.a. continua necessita di una funzione, tale funzione è chiamata funzione di densità e indicata con 𝑓𝑌. La funzione di densità esprime il modo di distribuirsi della probabilità totale sull’insieme dei valori che la v.a. 𝑌 può assumere. Prendendo come riferimento una distribuzione normale Gaussiana, la Figura 2 ne fornisce una rappresentazione grafica.

Figura 2 – Rappresentazione grafica v.a. continue

Come si può vedere dalla figura sopra la v.a. può assumere valori su tutto l’asse [−∞; +∞]. Per calcolare la probabilità che la v.a. assuma determinati valori occorre procedere per integrazione. Prima di procedere alla formulazione, un esempio grafico può essere utile. Guardando la figura sopra e fissato un unico punto 𝑘 otteniamo che la probabilità che la v.a. assuma quel determinato valore è pari a zero, 𝑃(𝑌 = 𝑘) = 0. Mentre considerato un intervallo [𝑘; 𝑘 + 𝜀] otteniamo che la probabilità che la v.a. assuma un valore appartenente a quel intervallo è uguale all’area colorata in celeste. Formalmente avremo:

𝑃(𝑘 ≤ 𝑌 ≤ 𝑘 + 𝜀) = ∫ 𝑓𝑌(𝑡)𝑑𝑡 𝑘+𝜀

𝑘 𝑓𝑌(𝑡)

(17)

12

La funzione di densità deve soddisfare il vincolo di positività, ovvero deve essere positiva per ogni valore 𝑓𝑌(𝑡) ≥ 0 ∀𝑡. Inoltre anche per la v.a. continue la “proprietà essenziale” è verificata: la probabilità totale deve essere pari a uno. Scritto formalmente si avrà che:

∫ 𝑓𝑦(𝑡)𝑑𝑡 = 1 +∞

−∞

Il valore sopra ottenuto non è altro che il valore dell’area sottostante la curva della normale.

La “proprietà essenziale” permette il passaggio da v.a. continue a v.a. discrete. Interessante è vedere graficamente come è possibile passare da un a v.a. continua a una v.a. discreta sfruttando modelli teorici di approssimazione. Le Figura 3 mostra un esempio.

Figura 3 – Approssimazione fra v.a. continua e v.a. discreta

Prendendo in considerazione 𝑥𝑖 e un intervallo intorno a 𝑥𝑖: [𝑥𝑖−𝜀; 𝑥𝑖+𝜀]. È possibile approssimare la probabilità di realizzazione intorno a quell’intervallo a:

∫𝑥𝑖+𝜀𝑓𝑌(𝑡)𝑑𝑡 = 𝑝𝑖

𝑥𝑖−𝜀 .

Ovvero è possibile approssimare la probabilità di realizzazione della v.a. continua ∫𝑥𝑖+𝜀𝑓𝑌(𝑡)𝑑𝑡

𝑥𝑖−𝜀 alla probabilità di realizzazione della v.a. discreta 𝑝𝑖. Questo è possibile perché riportando il rettangolo (che rappresenta la probabilità di realizzazione della v.a. discreta) all’interno dell’area soprastante l’intervallo prescelto, vediamo che tale approssimazione fa perdere l’area segnata con il meno, ma aggiunge l’area segnata con il più. La differenza fra le due aree (quella segnata con il più e quella segnata con il meno)

(18)

13

genererà un errore di approssimazione. Ma tanto più piccolo è 𝜀 tanto più piccolo sarà l’errore derivante da tale approssimazione.

1.2.3. La funzione di ripartizione

In alcune situazioni, fra queste il calcolo del Value at Risk, non è interessante conoscere con che probabilità la v.a. assume uno specifico valore, bensì è molto più interessante conoscere con che probabilità la v.a. assume un valore minore o uguale ad un dato valore 𝑘. In tal caso dobbiamo considerare delle probabilità cumulate. La funzione di ripartizione (o funzione cumulativa) è quindi quello che dobbiamo utilizzare. La funzione di ripartizione è una funzione di variabile reale che racchiude le informazioni su un fenomeno riguardanti la sua distribuzione prima o dopo un determinato valore. Quindi data una variabile casuale 𝑋, la funzione di ripartizione 𝐹𝑋 è quella funzione che fa corrispondere ai valori di 𝑘 le probabilità cumulate 𝑃(𝑋 ≤ 𝑘). Formalmente è così definita:

𝐹𝑋: 𝑅 → [0; 1] 𝐹𝑋(𝑘) ≔ 𝑃(𝑋 ≤ 𝑘)

La funzione di ripartizione viene definita sia per v.a. discrete che continue.

Affinché una funzione sia una funzione di ripartizione deve soddisfare le seguenti proprietà:

1) lim

𝑥→−∞𝐹𝑋(𝑥) = 0; 2) lim

𝑥→+∞𝐹𝑋(𝑥) = 1;

3) 𝐹𝑋 è monotona non decrescente, ossia: se 𝑥2 > 𝑥1 ⇒ 𝐹𝑋(𝑥2) > 𝐹𝑋(𝑥1). Quindi per v.a. discrete la funzione di ripartizione sarà così definita:

𝐹𝑋(𝑥𝑗) = 𝑃(𝑋 ≤ 𝑥𝑗) = ∑ 𝑃(𝑋 = 𝑥𝑖) 𝑗

𝑖=1

Mentre per v.a. la funzione di ripartizione sarà così calcolata:

𝐹𝑌(𝑘) = 𝑃(𝑌 ≤ 𝑘) = ∫ 𝐹𝑌(𝑡)𝑑𝑡 𝑘

−∞

Definita la funzione di ripartizione per entrambe la v.a. ed elencate le proprietà di essa, attraverso le Figure 4 e 5 è possibile osservarne la rappresentazione grafica.

Relativamente a v.a. discrete dalla Figura 4 si può vedere che per valori minori di 𝑥1 la funzione di ripartizione ha valore zero. Quando la variabile assume valori pari a 𝑥1 c’è un “salto” pari a 𝑝1. Quindi per valori minori di 𝑥2 la funzione di ripartizione assume un

(19)

14

valore pari a 𝑝1. Passando al valore 𝑥2 c’è un ulteriore “salto” pari a 𝑝2. Quindi per valori minori di 𝑥3 la funzione di ripartizione avrà valore pari a 𝑝1+ 𝑝2. Per i successivi valori si procede allo stesso modo fino ad arrivare all’ultimo valore che può raggiungere la v.a., in questo caso 𝑥4. In questo specifico caso avremo che per valori minori di 𝑥4 la funzione di ripartizione vale 𝑝1+ 𝑝2+ 𝑝3, mentre per valori uguali a 𝑥4 la funzione di ripartizione non crescerà più e assumerà un valore pari a 1.

Mentre dalla Figura 5 si può notare che la funzione di ripartizione di una v.a. continua presenta due asintoti orizzontali, uno in 0 e uno in 1. Quindi per valori che tendono a −∞ la funzione di ripartizione assume valori che tendono allo zero, per valori che tendono a +∞ essa assume valori tendenti a 1 e per valori intermedi essa assume valori compresi fra 0 e 1.

Figura 4 – Funzione di ripartizione v.a. discreta

(20)

15

CAPITOLO 2 – VALUE AT RISK

2.1. Definizione e origini

Il termine “Value at Risk” non entra nel lessico finanziario fino ai primi anni novanta, tuttavia le origini delle misurazioni di valore di rischio risalgono già agli anni venti, con quelli che erano i requisiti patrimoniali per le società finanziarie statunitensi. Un primo tentativo in questo ambito può essere fatto risalire ad un test informale sul capitale del New York Stock Exchange (NYSE) che originariamente richiedeva alle aziende di detenere capitale in una percentuale uguale al 10% degli assets (comprese posizioni proprietarie e crediti verso clienti).6

Con il passare degli anni l’attenzione verso i requisiti patrimoniali delle aziende e delle istituzioni finanziarie si è fatta sempre più forte portando all’emanazione di normative ad

hoc con i Comitati di Basilea (1996). Queste iniziative di regolamentazione e

l’introduzione di strumenti finanziari sempre più complessi hanno contribuito a motivare lo sviluppo di misure di valore di rischio che non si soffermano alla sola individuazione dei requisiti patrimoniali.

Il concetto e l’uso del Value at Risk nella concezione di oggi risale agli anni ottanta, quando le principali aziende finanziarie iniziarono ad utilizzarlo per misurare i rischi dei loro portafogli di trading. La prima metodologia di calcolo formale è stata sviluppata alla fine degli anni ’80 dalla J.P. Morgan attraverso lo sviluppo del sistema “RiskMetricsTM” e resa nota successivamente nel 1994. Questo sistema combinava molteplici fattori chiave, una matrice di covarianza aggiornata con i dati storici ogni tre mesi e un reporting giornaliero delle unità di trading. Questi dati venivano aggregati per esprimere il valore di portafoglio come funzione dei fattori di rischio, da cui veniva ricavata la deviazione standard del portafoglio. Venivano utilizzati diversi metodi di valutazione del rischio, tra questi c’era anche il 1-day 95% USD VaR che era calcolato assumendo che il valore del portafoglio fosse distribuito normalmente. Da allora l’uso del VaR si è affermato sempre di più fino ad arrivare ad essere oggi una delle principali misure di rischio.

(21)

16

Il Value at Risk è una misura di rischio di mercato applicata agli strumenti finanziari. È un indicatore sintetico del rischio presente in una singola attività finanziaria o in un intero portafoglio in un certo periodo di riferimento.

Esso fornisce la risposta alla domanda: “Durante il periodo di detenzione di una determinata attività finanziaria, qual è la perdita massima a cui l’investitore può andare incontro?”. Rappresenta, su un dato orizzonte temporale e con un dato livello di confidenza statistica, la perdita massima ipotizzabile derivante dalla detenzione dell’attività finanziaria oggetto di valutazione. Quindi, una volta effettuato un investimento, attraverso il VaR è possibile stimare in forma monetaria il livello di rischio a cui l’investitore è soggetto.

Per poter definire meglio il concetto è doveroso andare a illustrare i parametri che compongono il Value at Risk:

• L’Holding Period ossia la lunghezza temporale di detenzione di una data attività finanziaria;

• Il Significal Level (𝛼) oppure in alternativa il Confidence Level (1 − 𝛼).

Quindi fissato un intervallo di confidenza pari al 99%, un orizzonte temporale giornaliero e supposto un investimento iniziale di 1000 €, ottenere un VaR pari a 100 € significa che nei peggiori casi si avrà una perdita massima giornaliera di tale importo e che perdite maggiori si possono verificare solo per il restante un 1% dei casi. Quindi la probabilità di perdere giornalmente più di 100 € sarà limitata all’1%.

Definiti i parametri che compongo il VaR sorge spontaneo interrogarsi se esista o meno una regola che indica come fissarli e che ci possa fornire una guida per una scelta appropriata di essi.

Per entrambi i parametri non esistono dei valori ottimali, ma al fine di effettuare una scelta appropriata alcune considerazioni possono essere utili. L’orizzonte temporale dovrebbe riflettere il periodo di tempo nel quale un soggetto intende detenere l’attività finanziaria. Oltre alla volontà del soggetto, la maggior o minore liquidità presente nel mercato è un elemento che influenza notevolmente l’Holding Period, in quanto esso deve anche riflettere il tempo minimo necessario a smobilizzare l’investimento in caso di perdita. Infatti se il mercato, per quelle determinate posizioni, non è molto liquido il soggetto avrà delle difficoltà nel liquidare le posizioni assunte. Quindi in presenza di una bassa liquidità un orizzonte temporale relativamente lungo potrebbe essere preferito. Tuttavia vi sono degli aspetti che portano a preferire un orizzonte temporale breve: la composizione del portafoglio rimane immutata soltanto se esso viene detenuto per un periodo relativamente

(22)

17

breve e i test statistici risultano essere più fattibili. Indicativamente nella prassi viene fissato un orizzonte temporale di 1 giorno quando i mercati sono molto liquidi e di 10 giorni quando si ipotizza un maggior tempo necessario allo smobilizzo.

Sulla scelta del livello di confidenza (1 − 𝛼) è ancora più difficile trovare una regola da seguire, poiché è opportuno scegliere differenti intervalli di confidenza a seconda degli scopi che intendiamo raggiungere e alla quantità di dati che abbiamo a disposizione. Tuttavia una volta in possesso dei dati necessari per il calcolo del VaR è facile e veloce condurre l’analisi per diversi livelli di significatività. I livelli di confidenza maggiormente utilizzati sono quelli del 99% e del 95%.

2.2. Definizione Statistica

A livello statistico, il Value at Risk della variabile 𝑥 con un livello di significatività 𝛼, o con un livello di confidenza (1 − 𝛼), è definito come il quantile della distribuzione della variabile aleatoria 𝑥, 𝑘𝛼, tale che 𝑃(𝑥 ≤ 𝑘𝛼) = 𝛼.

2.2.1. Variabili aleatorie continue

Definita con 𝑓𝑥 la funzione densità della variabile aleatoria 𝑥, 𝑘𝛼, viene così calcolato:

∫ 𝑓𝑥(𝑡)𝑑𝑡 = 𝛼 𝑘𝛼

−∞

Se siamo di fronte a variabili rappresentate da prezzi, l’estremo inferiore dell’integrale è pari a zero e non a −∞, in quanto un prezzo non può assumere valori [−∞; 0]. Quindi si avrà che:

∫ 𝑓𝑥(𝑡)𝑑𝑡 = 𝛼 𝑘𝛼

0

La Figura 6 da una rappresentazione grafica. Come si può vedere il livello 𝑘𝛼 rappresenta il VaR, l’area in celeste la probabilità per cui si possono presentare l’𝛼% dei peggiori casi, mentre l’area a destra di 𝑘𝛼 la probabilità in cui si verificano gli altri casi. Quindi se supponiamo un livello di significatività pari all’1% a sinistra del VaR si troveranno tutti i risultati che si potranno verificare con tale probabilità, mentre a destra i valori che potranno essere conseguiti con il 99% di probabilità.

(23)

18

Figura 6 – Interpretazione grafica VaR per v.a. continue

2.2.2. Variabili aleatorie discrete

Sia 𝑦 una variabile aleatoria discreta così definita:

𝑦 = { 𝑦1 𝑝1 𝑦2. .. 𝑝2... 𝑦𝑖. .. 𝑝𝑖... 𝑦𝑛 𝑝𝑛 𝑐𝑜𝑛 𝑦𝑖 > 𝑦𝑖−1 ∀ 𝑖 𝑐𝑜𝑛 𝑖 = 1, … , 𝑛 𝑒 ∑𝑛𝑖=1𝑝𝑖 = 1

E sia 𝐹(𝑦) la relativa funzione di ripartizione, per calcolare il VaR occorre distinguere due casi:

1° caso: 𝐹(𝑦𝑖−1) < 𝛼 < 𝐹(𝑦𝑖)

Fissato il livello di significatività 𝛼 si ha che: 𝑉𝑎𝑅(𝛼%) = 𝑦𝑖 = 𝑘𝛼

2° caso: 𝛼 = 𝐹(𝑦𝑖−1)

Quindi in questo caso il Var con livello di significatività 𝛼 sarà dato da: 𝑉𝑎𝑅(𝛼%) = 𝑦𝑖 = 𝑘𝛼

Possiamo così fornire la definizione in termini probabilistici del VaR:

“𝑘𝛼 è il VaR della variabile aleatoria discreta 𝑦 se valgono simultaneamente queste due disuguaglianze 𝑃(𝑦 < 𝑘𝛼) ≤ 𝛼 e 𝑃(𝑦 ≤ 𝑘𝛼) > 𝛼.”

Detto ciò è possibile riportare un esempio per entrambi i casi sopra analizzati. Guardando la Figura 7, si ha che:

(24)

19

• se 𝑝1+ 𝑝2 < 𝛼 < 𝑝1 il VaR al livello 𝛼 è 𝑥2 (primo caso); • se 𝛼 = 𝑝1 il VaR al livello 𝛼 è 𝑥2 (secondo caso).

Figura 7 – Funzione di ripartizione

2.2.3. Interpretazione economico-finanziaria

Dopo aver definito accuratamente a livello statistico il Value at Risk vediamo come può essere interpretato a livello economico-finanziario. È possibile attribuire al VaR due differenti interpretazioni a livello economico. Per procedere a dare tali definizioni è opportuno andare a definire due variabili:

𝑥0 = 𝑣𝑎𝑙𝑜𝑟𝑒 𝑖𝑛𝑖𝑧𝑖𝑎𝑙𝑒 𝑑𝑒𝑙𝑙𝑎 𝑟𝑖𝑐𝑐ℎ𝑒𝑧𝑧𝑎 (𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑖𝑠𝑡𝑖𝑐𝑜)

𝑥𝑡 = 𝑣𝑎𝑙𝑜𝑟𝑒 𝑓𝑢𝑡𝑢𝑟𝑜 𝑑𝑒𝑙𝑙𝑎 𝑟𝑖𝑐𝑐ℎ𝑒𝑧𝑧𝑎 𝑎 𝑢𝑛𝑎 𝑐𝑒𝑟𝑡𝑎 𝑑𝑎𝑡𝑎 (𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑜) Quindi il VaR può essere visto come:

• il massimo valore della ricchezza 𝑥𝑡 che si registra nei peggiori 𝛼% dei casi che si possono presentare;

• la minima perdita possibile, (𝑥𝑜− 𝑘𝛼), che si può registrare nei peggiori 𝛼% dei casi che si possono presentare.

2.3. Modelli di calcolo del VaR

Esistono svariati modelli di calcolo del VaR, ma le metodologie più diffuse sono: • Approccio Parametrico;

• Simulazione Storica;

(25)

20

2.3.1. Approccio Parametrico

L’approccio parametrico è conosciuto anche come il metodo della matrice varianza-covarianza. Tale modello può essere applicato solamente a portafogli lineari. In caso di portafogli non-lineari (contenenti ad esempio opzioni) è necessario utilizzare altre metodologie, fra cui la simulazione di Monte Carlo. Il VaR tramite tale approccio viene calcolato come un multiplo delle deviazioni dei profitti o delle perdite del portafoglio. Proprio per tale motivo è la metodologia che più si avvicina alle definizioni e ai concetti derivanti dalla moderna teoria del portafoglio. Tale teoria viene trattata in un apposito capitolo, ma è doveroso evidenziare la stretta connessione che vi è con questa metodologia di calcolo. La teoria di portafoglio afferma che la deviazione standard (o alternativamente la varianza) è una misura che ben approssima la rischiosità di un determinato portafoglio. Tuttavia l’approccio della deviazione standard non ha avuto un grande successo come misura di rischio, poiché l’investitore è molto più interessato a inquadrare i propri rischi in termini di perdite monetarie, piuttosto che in termini di deviazione sopra o sotto i profitti attesi.

L’approccio parametrico si fonda sull’assunzione di base che i parametri di mercato sottostanti al modello seguano tutti una distribuzione normale. Ciò è il principale punto di debolezza di questo approccio che ne limita l’applicazione. Tale assunzione afferma che i rendimenti del portafoglio sono iid (indipendenti e identicamente distribuiti) con una distribuzione normale. Assunta l’ipotesi di normalità vediamo come viene utilizzata nel modello. La statistica afferma che se una variabile si distribuisce normalmente, il 68% delle osservazioni cadrà in un intervallo compreso tra la media (𝜇) meno la deviazione standard (𝜎) e la media più la deviazione standard, mentre il 95% delle volte cadrà all’interno dell’intervallo [𝜇 − 1.65𝜎 ; 𝜇 + 1.65𝜎] e il 99% delle volte all’interno dell’intervallo [𝜇 − 2.33𝜎 ; 𝜇 + 2.33𝜎]. La Figura 8 riporta un’esemplificazione grafica.

(26)

21

Figura 8 – Livelli di confidenza

Matematicamente la formula del VaR, per un singolo asset, con tale metodo viene così calcolata:

𝑉𝑎𝑅 = 𝑉 ∙ 𝑛 ∙ 𝜎√𝑡

Dove 𝑉 è il valore del bene, 𝜎√𝑡 è la misura della volatilità e 𝑛 è il numero di volte per cui si intende moltiplicare quest’ultima per ottenere un determinato intervallo di confidenza. Quindi se vogliamo calcolare un VaR al 95% si avrà che 𝑛 = 1.65, mentre se il livello di confidenza prescelto è del 99% 𝑛 = 2.33. In quest’ultimo caso, si ottiene che:

𝑉𝑎𝑅 = 𝑉 ∙ 2.33 ∙ 𝜎√𝑡

Il numero che si ottiene rappresenta quindi la massima ricchezza probabile che si può registrare nei peggiori dei casi. Per vederlo sotto forma della massima perdita, che non verrà superata con il 99% delle probabilità nei prossimi 𝑡 giorni, il valore ottenuto deve essere sottratto all’investimento iniziale.

Se invece di un singolo asset dovessimo analizzare un portafoglio, occorre correggere la formula. Dovrà essere modificata la deviazione standard che adesso dovrà tener conto dei pesi attribuiti ai singoli titoli e delle correlazioni che intercorrono fra essi. La volatilità sarà così calcolata:

(27)

22 𝜎 = √∑ ∑ 𝑎𝑖𝑎𝑗𝜎𝑖𝜎𝑗𝜌𝑖𝑗 𝑛 𝑗=1 𝑛 𝑖=1

Quindi il VaR sarà dato da:

𝑉𝑎𝑅 = 𝑉 ∙ 𝑛 ∙ √∑ ∑ 𝑎𝑖𝑎𝑗𝜎𝑖𝜎𝑗𝜌𝑖𝑗 𝑛 𝑗=1 𝑛 𝑖=1 ∙ √𝑡 2.3.2. Simulazione Storica

La metodologia di calcolo della simulazione storica è molto più immediata della metodologia varianza-covarianza. Non richiede nessuna assunzione per quanto riguarda la distribuzione dei profitti e delle perdite e non richiede nessun mapping dei cash-flow per ridurre la dimensione dei dati. L’unica assunzione che viene fatta è che la distribuzione dei rendimenti futuri, quindi dei profitti e delle perdite, sia uguale alla distribuzione storica degli stessi. Volendo andare nello specifico questa metodologia prevede due approcci per il calcolo del VaR: parametrico e non parametrico. In entrambi i casi il punto di partenza rimane lo stesso. La prima cosa da fare è individuare un periodo detto Look-back Period dove vengono esaminati tutti i rendimenti, calcolando così le perdite/profitti del portafoglio che vogliamo esaminare.

Il Look-back Period deve contenere un gran numero di osservazioni, pena la sua significatività statistica. Per quanto riguarda il numero necessario di osservazioni ci sono diversi filoni di pensiero, ma un periodo di almeno due anni può essere ritenuto sufficiente.7

Gli steps per il calcolo del VaR sono così articolati: 1. Scelta del periodo di detenzione;

2. Calcolo statistico delle variazioni di valore che si sono osservate durante l’Holding Period (ad esempio se calcoliamo un VaR giornaliero verranno calcolate le variazioni di valore che il portafoglio ho subito fra un giorno e l’altro; se il VaR è a dieci giorni le variazioni saranno concernenti alla detenzione del portafoglio per l’arco di 10 giorni e così via);

7 Il Comitato di Basilea raccomanda un periodo di 3-5 anni per i dati giornalieri, tuttavia nessun modello del VaR prescrive una regola per quanto riguarda la lunghezza del Look-Back Period.

(28)

23

3. L’applicazione delle variazioni storiche, ottenute nel punto sopra, al valore corrente del portafoglio;

4. Scelta del livello di confidenza che vogliamo utilizzare (per esempio 95%); Queste prime quattro fasi devono essere necessariamente condotte sia se vogliamo stimare un VaR tramite l’approccio parametrico che non parametrico.

Se optiamo per l’approccio parametrico gli steps sopraelencati sono seguiti dai passaggi rimanenti riportati sotto:

5a. Calcolo della media e della deviazione standard delle variazioni storiche che hanno colpito il portafoglio;

6a. Sottrarre dalla media la deviazione standard ottenuta moltiplicata per il numero necessario per ottenere l‘intervallo di confidenza prescelto.8 Se ipotizziamo di calcolare un valore a rischio con un livello di confidenza pari a 95%, si avrà:

𝑉𝑎𝑅 (95%) = 𝜇 − 1,65𝜎

7a. Infine occorre sottrarre il risultato ottenuto sopra al valore iniziale dell’investimento. Ciò che si ottiene rappresenterà la massima perdita in cui si potrà incorrere con il 95% delle probabilità.

Mentre se usiamo l’approccio non parametrico seguiranno i seguenti passaggi: 5b. Le variazioni di portafoglio vengono ordinate in ordine decrescente;

6b. Viene individuata la variazione corrispondente al percentile di interesse. Quindi se ipotizziamo 100 osservazioni e un intervallo di confidenza del 95% la variazione da prendere sarà quella corrispondente al 5 risultato peggiore. 7b. Infine viene stimata la massima perdita potenziale (ossia il quinto risultato

peggiore in termini di perdite date 100 osservazioni e 𝛼 = 5%) sottraendo la variazione ottenuta sopra all’investimento iniziale

2.3.3. Simulazione di Monte Carlo

Quest’ultimo approccio considera anche tutti gli impatti non lineari, quindi è consigliato quando viene monitorizzato un portafoglio contenente delle opzioni. Inoltre va a colmare la lacuna della simulazione storica associata a problematiche dovute alla carenza di dati storici a disposizione. Come l’approccio storico anche questo è una simulazione, ma

8 Se prendiamo in considerazione un livello di confidenza del 99% la deviazione standard dovrà essere moltiplicata per 2,33, mentre se il livello di confidenza è pari a 95% la deviazione standard sarà moltiplicata per 1,65.

(29)

24

invece di eseguire la simulazione usando le variazioni osservate nei fattori di mercato negli ultimi 𝑁 periodi per generare ipotetici profitti/perdite, sceglie una distribuzione statistica ritenuta sufficiente a catturare le possibili variazioni dei fattori di mercato. La metodologia si basa sul concetto del “lancio della moneta”. È un approccio totalmente non parametrico che trae le sue valutazioni da simulazioni sulle reazioni del portafoglio a un elevato numero di scenari possibili, quindi consiste nel simulare numerose volte il valore degli assets che costituiscono il portafoglio.

Le fasi da seguire per il calcolo del Value at Risk sono riportate di seguito:

1. Simulazione delle variazioni di tutti i parametri di mercato rilevanti quali tassi prezzi e volatilità;

2. Calcolo delle variazioni del valore di portafoglio per ciascuno degli scenari simulati;

3. Ripetizione dei passaggi sopra per uno svariato numero di volte al fine di ottenere una distribuzione delle variazioni del valore di portafoglio;

4. Ordinamento di tutti i risultati ottenuti attraverso le simulazioni dal valore peggiore a quello migliore. In questo caso l’n-esimo percentile rappresenterà il VaR in termini di variazioni.

5. Infine la perdita massima ipotizzabile, con il livello di confidenza prescelto, sarà data dalla differenza fra l’investimento iniziale e il valore ottenuto sopra.

2.3.4. Metodologie a confronto: vantaggi e svantaggi

Dopo una breve esposizione delle metodologie di calcolo più utilizzate, una domanda sorge spontanea: “Qual è la migliore?”. Sfortunatamente tale domanda non può ricevere una risposta semplice e immediata, in quanto tutti gli approcci presentano sia pregi che difetti. Una più opportuna e semplice domanda può essere: “Quando utilizzare una metodologia e quando un’altra?”. A quest’ultima domanda si può dare una risposta più concreta e affidabile. Tutto dipende da che tipo di rischio uno vuole catturare, se viene prediletta la facilità di implementazione all’affidabilità dei risultati o la flessibilità delle modifiche nelle ipotesi. Infatti queste tre metodologie differiscono principalmente in tre aspetti: nella capacità di catturare gli impatti non-lineari di opzioni e strumenti derivati, nella facilità di implementazione e nella affidabilità dei risultati. Quindi la metodologia da prediligere sarà quella che meglio cattura gli aspetti che uno considera più importanti.

(30)

25

Partendo dai due metodi di simulazione possiamo affermare che questi funzionano molto bene sia in presenza di portafogli lineari che non-lineari. Al contrario la metodologia varianza-covarianza non riesce a catturare bene gli impatti non-lineari, quindi la sua affidabilità diminuisce se il portafoglio esaminato è costituto in gran parte da opzioni o strumenti derivati. Possiamo dunque affermare che le metodologie di simulazione devono essere preferite quando nel mirino della nostra analisi abbiamo portafogli costituiti in prevalenza da opzioni o strumenti derivati.

Per quanto riguarda la facilità di implementazione senza dubbio la simulazione storica è la metodologia da prediligere grazie alla semplicità concettuale che la contraddistingue. La principale difficoltà associata a tale metodologia è il reperimento dei dati; poiché affinché la stima sia statisticamente significativa occorre essere in possesso di un gran numero di serie storiche di dati.

Le altre due metodologie sono anch’esse di facile implementazione, ma presentano altri tipi di difficoltà più difficili da superare. La simulazione di Monte Carlo ha come principale difetto la necessità di ricalcolare il valore del portafoglio numerose volte, risultando così dispendiosa in termini di tempi e risorse, tuttavia non presenta problemi di reperimento dati. Al contrario, la metodologia varianza-covarianza richiede comunque un numero di dati sufficientemente elevato per il calcolo di correlazioni e deviazioni standard, ma la procedura di stima del VaR è relativamente veloce.

Per quanto riguarda l’affidabilità dei risultati, la simulazione di Monte Carlo è da preferire alle altre metodologie poiché non è vincolata da costrizioni di natura storica e da particolari assunzioni circa la distribuzione dei fattori che stanno alla base del mercato. Infatti in presenza di periodi di shock finanziario la simulazione storica non consente un’affidabilità del calcolo del VaR se tali shock sono soltanto momentanei e non perdurano nel tempo. Mentre l’affidabilità della metodologia varianza-covarianza decresce quando le distribuzioni dei rendimenti si allontanano dall’ipotesi di normalità.

2.4. Criticità del VaR

Prima di elencare quelle che sono le criticità del Value at Risk mi sembra opportuno andare a definire quella che è una misura di rischio coerente. Tale nozione è stata introdotta da P. Artzner, F. Delbaen, S. Eber e D. Heath, in Coherent Measure of Risk nel 1998. Essi hanno individuato delle proprietà che una misura di rischio deve soddisfare affinché possa essere ritenuta coerente.

(31)

26

Definizione: Una misura di rischio, 𝜌, è coerente se e solo se soddisfa i seguenti assiomi:

1) Monotonia:

dati due portafogli 𝑋 e 𝑌, se Y≥ 𝑋 , allora 𝜌(𝑋) ≥ 𝜌(𝑌).

Questo significa che se il portafoglio 𝑌 è preferito al portafoglio 𝑋, allora il portafoglio 𝑌 sarà anche quello meno rischioso.

2) Invarianza per traslazione:

sia 𝑘 un ammontare deterministico da aggiungere alla variabile aleatoria 𝑋, si ha che: 𝜌(𝑋 + 𝑘) = 𝜌(𝑋) − 𝑘.

Aggiunto un importo certo un investimento, la misura di rischio diminuisce per lo stesso ammontare.

3) Omogeneità positiva:

considerando un moltiplicatore λ si ha che: 𝜌(𝑋 ∙ 𝜆) = 𝜆 ∙ 𝜌(𝑋).

Se la componente percentuale dell’investimento 𝑋 è la stessa, la misura di rischio è proporzionale al valore iniziale dell’investimento.

4) Sub-Additività:

dati i portafogli finanziari 𝑋 e 𝑌 si ha che: 𝜌(𝑥) + 𝜌(𝑦) ≥ 𝜌(𝑥 + 𝑦).

Questo assioma afferma che applicando una diversificazione di portafoglio il rischio diminuisce, ovvero aggiungendo dei titoli a un portafoglio l’indice di rischio del portafoglio non può essere maggiore della somma degli indici di rischiosità dei singoli titoli.

Sorge spontaneo chiedersi: “Il Value at Risk è una misura di rischio coerente?”. Per poter dare una risposta a questa domanda occorre riportare le proprietà del VaR:

1. Proprietà della monotonicità: se 𝑋 ≥ 𝑌, allora 𝑉𝑎𝑅𝛼(𝑋) ≤ 𝑉𝑎𝑅𝛼(𝑌);

2. Proprietà dell’omogeneità positiva: se 𝜆 ≥ 0, allora 𝑉𝑎𝑅𝛼(𝜆𝑋) = 𝜆𝑉𝑎𝑅𝛼(𝑋); 3. Proprietà dell’invarianza per traslazione: se 𝑘 è una costante, allora

𝑉𝑎𝑅𝛼(𝑋 + 𝑘) = 𝑉𝑎𝑅𝛼(𝑋) − 𝑘;

Da ciò vediamo che il VaR soddisfa tutti gli assiomi della misura di rischio coerente tranne l’assioma della sub-additività. Tuttavia in alcuni casi applicativi tale proprietà risulta essere soddisfatta. Infatti il VaR risulta incorporare l’assioma della sub-additività quando siamo di fronte a variabili aleatorie Gaussiane.

La critica più grande che viene fatta al VaR è quella di non prendere in considerazione la coda sinistra della distribuzione. Quindi non dice niente riguardo a quello che può succedere negli 𝛼% peggiori dei casi. Tuttavia questa lacuna non crea grandi problemi se

(32)

27

vengono monitorizzate delle variabili aleatorie che si distribuiscono in modo normale. Infatti come è stato riportato sopra in questi casi il VaR risulta essere una misura di rischio coerente. Il problema e il limite del VaR sorge quindi quando nell’analisi vengono comparate delle distribuzioni che non hanno entrambe una distribuzione normale.

Figura 9 – Criticità del VaR

Come possiamo vedere dalla Figura 9 sopra, le due distribuzioni hanno stesso VaR, tuttavia non possiamo affermare che abbiano lo stesso livello di rischio. La distribuzione disegnata in arancione mostra delle alte probabilità di avere delle perdite peggiori (ovvero che eccedono il VaR), mentre quella in blu associa basse probabilità a perdite elevate. Possiamo affermare che il VaR, non tenendo conto del comportamento della distribuzione nella coda sinistra, non può essere considerato una misura di rischio coerente in questi casi.

2.5. Value at Risk ed Expected Shortfall

Come abbiamo visto il VaR definisce un livello di perdita che ha delle piccole probabilità di essere superato, ma non dice niente sulle perdite a cui un investitore va incontro nei casi in cui il VaR viene oltrepassato. Quindi se vogliamo rispondere alla domanda: “Qual è la perdita massima a cui posso andare in contro nei peggiori 𝛼% dei casi?”, il VaR non riesce a fornire una risposta adeguata. Dobbiamo dunque prendere in considerazione una

(33)

28

nuova misura di rischio: il Conditional VaR (C-VaR) che si divide in Expected Tail Loss (ETL) e Expected Shortfall (ES). Di queste due misure di rischio approfondirò solo la seconda.

Oltre a rispondere alla domanda sopra, il C-VaR permette di colmare la principale criticità del VaR: non risultare una misura di rischio coerente di fronte a distribuzioni non-normali. A differenza del VaR l’ES risulta coerente anche in presenza di distribuzioni non-normali della variabile aleatoria, poiché consente di capire cosa accade nella coda sinistra. L’ES infatti stima quello che è il valore atteso della ricchezza qualora si verifichino gli 𝛼% dei peggiori casi.

Definito il concetto dell’ES vediamo come viene calcolato. Occorre effettuare una distinzione fra variabili aleatorie continue e discrete.

Nel caso di v.a. continue, l’ES al livello 𝛼 della v.a. 𝑥 è definito come:

𝐸𝑆 = 𝐸[𝑥 𝑥⁄ ≤ 𝑘𝛼] = 1

𝛼∫ 𝑡 𝑓𝑥 𝐾𝛼 −∞

(𝑡) 𝑑𝑡

Quindi l’ES è il valore atteso della v.a. 𝑥 “condizionato” ai casi in cui 𝑥 ≤ 𝑘𝛼. Mentre nel caso di v.a. discrete si avrà che, data un v.a. 𝑥 così definita:

𝑥 = { 𝑥1 𝑝1 𝑥2. .. 𝑝2... 𝑥𝑖. .. 𝑝𝑖... 𝑥𝑛 𝑝𝑛 con 𝑥𝑖 > 𝑥𝑖−1 ∀𝑖 𝑒 ∑𝑛𝑖=1𝑝𝑖 = 1

e sia 𝑥𝑖 = 𝑉𝑎𝑅(𝛼) della variabile 𝑥. Occorre distinguere 2 casi:

Primo caso: 𝐹(𝑥𝑖−1) < 𝛼 < 𝐹(𝑥𝑖) Trasformando la variabile 𝑥 in:

𝑥′ = { 𝑥1. .. 𝑝1... 𝑥𝑖−1 .. . 𝑝𝑖−1 .. . 𝑥𝑖 𝛼 − (𝑝1+ ⋯ + 𝑝𝑖−1)

Si ottiene che l’ES al livello 𝛼 della variabile 𝑥 sarà pari a:

𝐸𝑆(𝛼) = 𝐸[𝑥′] ∙1 𝛼

(34)

29

Secondo caso: 𝐹(𝑥𝑖−1) = 𝛼 Trasformando la variabile 𝑥 in:

𝑥′′ = { 𝑥1. .. .. . , 𝑝1. .. .. . 𝑥𝑖, 𝑝𝑖−1

Si ottiene che l’ES al livello 𝛼 della variabile 𝑥 sarà pari a:

𝐸𝑆(𝛼) = 𝐸[𝑥′′] ∙1 𝛼

Vista la definizione statistica dell’ES vediamo come può essere interpretato a livello economico-finanziario. Come per il VaR è possibile attribuire all’ES più interpretazioni a livello economico, in particolare tre:

• Valore atteso della ricchezza aleatoria negli 𝛼% peggiori dei casi; • Perdita attesa, così calcolata: 𝑥0− 1

𝛼∫ 𝑡 𝑓𝑥 𝑘𝛼

−∞ (𝑡) 𝑑𝑡 (con 𝑥0 il valore iniziale della ricchezza);

• Perdita aggiuntiva da aggiungere al VaR così calcolata: 1

𝛼∫ (𝑘𝛼 − 𝑡) 𝑓𝑥 𝑘𝛼

−∞ (𝑡) 𝑑𝑡.

2.6. Il Backtesting

Definito il Value at Risk, viste le sue metodologie di calcolo e le sue criticità vediamo di capire a cosa serve. “Scopo del Value at Risk è effettuare una previsione circa il possibile intervallo entro cui cadranno le performance future. Di conseguenza deve esistere una relazione stabile tra VaR e performance”.9

Quindi per vedere se il VaR calcolato, con una determinata metodologia, sia affidabile e accurato occorre vedere come si comportano le performance future. O meglio dobbiamo vedere come i profitti e le perdite si comportano rispetto ad esso, quante volte lo superano e quante invece gli stanno sopra. Il Backtesting è una metodologia utilizzata per verificare come le performance future si comportano rispetto al VaR, l’affidabilità di esso e indirettamente anche la correttezza del modello matematico utilizzato per il calcolo. Il Backtesting va a confrontare le stime probabilistiche con quelle che sono le performance derivanti dalla detenzione del portafoglio per un certo intervallo di tempo. Le performance di questo tipo sono dette anche buy and hold: sono rappresentate dell’utile

(35)

30

o dalla perdita che si realizzano entro due giorni lavorativi consecutivi mantenendo le posizioni in portafoglio inalterate. Questa metodologia di verifica è stata illustrata per la prima volta, anche se in una sua versione approssimata, nella terza edizione de “RiskMetrics Technical Document” della JP Morgan.10 Le metodologie di Backtesting pubblicate rientrano in tre categorie:

1) I test di copertura: vanno a valutare se la frequenza di superamenti rispetto alla soglia è coerente con il quantile di perdita che una misura di VaR dovrebbe riflettere;

2) I test di distribuzione: prove di bontà applicabili alle distribuzioni totali di perdite previste da misure complete di VaR;

3) I test di indipendenza: valutano l’indipendenza dei risultati da periodo all'altro. Di queste diverse metodologie di verifica mi soffermerò sulla prima, poiché è quella che ho utilizzato nella mia valutazione empirica.

Il Value at Risk viene calcolato per porre una sorta di “barriera” inferiore a quelle che dovrebbero essere le possibili perdite. Una perdita che eccede tale soglia di riferimento viene chiamata downside outlier. Per vedere l’accuratezza del nostro VaR è opportuno andare a testare la “tenuta” di questa barriera, vedere quante volte questa non viene rispettata. Un modo per verificare la bontà del VaR è calcolare un indicatore, detto

rescaling factor, che fornisce una prima indicazione sintetica del grado di sopra/sotto

valutazione del rischio. Se la stima effettuata è coerente con quelle che sono le situazioni che si sono effettivamente realizzate, il rescaling factor deve assumere valore prossimi a 1. Per esempio, se utilizziamo un intervallo di confidenza del 95% e nell’analisi di Backtesting consideriamo un orizzonte temporale di 200 giorni, il numero di outlier (perdite che eccedono il VaR) che è ragionevole aspettarsi, ovvero che sia uguale a quello teorico, è pari a (100% − 95%) ∙ 200 = 10. Lo scostamento che vi è fra gli outlier teorici e quelli che si sono effettivamente realizzati viene sintetizzato dal rescaling factor. Se il numero delle perdite che eccedono la soglia è uguale a quello teorico, si avrà un rescaling factor pari a 1. Mentre se gli outlier effettivi sono maggiori di quelli teorici vuol dire che la nostra stima ha condotto a una sottovalutazione del Value at Risk e che il rescaling factor assumerà valori maggiori di 1. Per ottenere un numero di outlier pari al teorico è quindi necessario moltiplicare il rescaling factor per il VaR precedentemente stimato. Viceversa se il numero dei valori che eccedono la soglia è minore del numero

(36)

31

teorico, il VaR è stato sopravalutato ed occorrerà moltiplicarlo per il rescaling factor, che questa volta assumerà valori minori di 1. Quindi possiamo affermare che il rescaling factor non è altro che il numero per il quale il VaR deve essere moltiplicato affinché si ottenga una previsione ottimale delle performance.

Vediamo adesso come questo indicatore, che definisco con 𝜏, viene calcolato. Data una serie storica delle performance 𝑃(𝑡) e una del VaR 𝑉(𝑡) , l’obiettivo è quello di trovare quel fattore che deve essere moltiplicato per 𝑉(𝑡) al fine di soddisfare la definizione del 𝑘-esimo percentile. Per prima cosa occorre calcolare il numero degli oulier, ovvero il numero di volte il cui il VaR non è stato in grado di prevedere la massima perdita ipotizzabile. Tale numero viene definito con 𝑁𝛼 e calcolato come segue:

𝑁𝛼 = ∑ {1,0, 𝑠𝑒 𝑃(𝑡) < 𝑉(𝑡)𝑛𝑒𝑔𝑙𝑖 𝑎𝑙𝑡𝑟𝑖 𝑐𝑎𝑠𝑖 𝑛

𝑡=1

Il numero degli outlier teorici invece viene definito con 𝑁𝛼+. Il rescaling factor è quel numero che, moltiplicato per la serie storica 𝑉(𝑡), rende 𝑁𝛼 uguale a 𝑁𝛼+. Ossia:

𝜏 ∙ 𝑉(𝑡) tale che 𝑁𝛼 = 𝑁𝛼+ Dove 𝜏 è pari a:

𝜏 =𝑁𝛼 𝑁𝛼+

Riferimenti

Documenti correlati

1. Visto che Sophia Antipolis attira molti giovani talenti che arricchiscono la materia grigia del parco attraverso una crescita eccezionale di intelligenza,

Abbreviations of lithostratigraphic units: TIT, Tithonian limestones; GRA, Cime de la Graye Limestone; CLA, Clarissia Formation; GV, Grès Verts (GVa, lower interval; GVb,

Niccolò Scaffai, Giancarlo Alfano, Valentino Baldi e Luca Marangolo si sono misurati generosamente e seriamente con il nostro progetto: il nostro intento è stato

‘Oggetti’ reali, dunque, talvolta assenti o deficitari, che si ri- configurano come protagonisti di una storia ‘privata’, che non può non riconoscersi in una

La maggioranza degli adolescenti a cui è stato dato il questionario da compilare, frequentava le superiori e lo scopo dello studio era quello di analizzare

attività muscolare più simile tra i due lati. Pre-test 1) elevazione della spalla destra. 2) tra le scapole: movimento asincrono, disomogeneo; la scapola destra si eleva e

Riallacciandomi all’approccio motivazionale, la persona giunge al consultorio in una fase di precontemplazione in cui non pensa ancora concretamente alla sua situazione