• Non ci sono risultati.

Valutazione del rischio di portafoglio: un approfondimento sulle strutture di dipendenza

N/A
N/A
Protected

Academic year: 2021

Condividi "Valutazione del rischio di portafoglio: un approfondimento sulle strutture di dipendenza"

Copied!
115
0
0

Testo completo

(1)

UNIVERSITÀ DI PISA

DIPARTIMENTO DI ECONOMIA E MANAGEMENT

Corso di Laurea in Banca, Finanza Aziendale e Mercati Finanziari

TESI DI LAUREA

Valutazione del rischio di portafoglio:

un approfondimento sulle strutture di dipendenza

Candidato: Relatore:

Niccolò Lanza Prof. Emanuele Vannucci

(2)
(3)

INDICE

Introduzione ... 1

CAPITOLO 1- MISURE DI RISCHIO E FUNZIONI DI DISTRIBUZIONE DI PROBABILITÀ ... 4

1.1. Misure di rischio coerenti... 4

1.2.VaR: Value at Risk ... 6

1.2.1 Modello parametrico ... 9

1.2.2. Modello della simulazione storica... 10

1.2.3. Simulazione Montecarlo ... 11

1.3. Expected Shortfall ... 12

1.4. Funzioni di distribuzione di probabilità ... 13

1.4.1. La distribuzione Normale ... 14

1.4.2. La distribuzione empirica ... 17

1.4.3. La distribuzione t di Student ... 19

1.5. La struttura di dipendenza ... 21

1.5.1. L’indice di correlazione lineare... 21

1.5.2. L’Indice di concordanza di Kendall ... 23

CAPITOLO 2 - LE DISTRIBUZIONI MULTIVARIATE: LA FUNZIONE COPULA ... 25

2.1. Introduzione alle copule ... 25

2.2 La funzione di distribuzione multivariata ... 26

2.3. La funzione copula ... 26 2.3.1 Definizione ... 27 2.3.2 Il teorema di Sklar ... 28 2.3.3 I limiti di Fréchet–Hoeffding ... 29 2.3.4 Proprietà di invarianza ... 30 2.3.5. La copula Gaussiana ... 31

2.3.6. Copule Archimedee bivariate ... 33

2.3.7. La copula Archimedea multivariata ... 40

2.3.8. L’algoritmo simulativo con copule Archimedee ... 43

CAPITOLO 3 – APPLICAZIONE EMPIRICA DEL MODELLO ... 45

3.1 Introduzione all’applicazione del metodo ... 45

3.1. I dati utilizzati ... 47

3.1.1. I parametri per il calcolo del Value at Risk ... 47

3.1.2 I rendimenti logaritmici ... 48

3.1.3 I titoli utilizzati e i relativi parametri ... 50

3.2. Le distribuzioni utilizzate ... 57

3.2.1. La distribuzione Normale ... 57

(4)

3.2.3. La distribuzione t di student ... 59

3.3. Le strutture di dipendenza: approfondimento ... 60

3.3.1. Le matrici di correlazione lineare... 60

3.3.2. Le matrici dei coefficienti di concordanza ... 66

3.4 Gli algoritmi simulativi ... 75

3.4.1 L’algoritmo per la dipendenza di tipo gaussiano ... 75

3.4.2. L’algoritmo per la dipendenza descritta da copula ... 78

3.5. I risultati della simulazione ... 80

3.5.1. 2007-2010 ... 81

3.5.2. 2008 ... 87

3.5.3 2013-2016 ... 92

CONCLUSIONI ... 97

Appendice ... 100

A.1. I codici in MATLAB ... 100

A.1.1. Rendimenti logaritmici settimanali ... 100

A.1.2. Correlazione lineare e decomposizione di Cholesky ... 101

A.1.3. Tau di Kendall ... 101

A.1.4. Tau di Kendall: parziale scambiabilità ... 103

A.1.5. Funzione di ripartizione empirica... 104

A.1.6. Algoritmo simulativo con dipendenza Gaussiana: passaggio 2, 3, 4 ... 104

A.1.7. Algoritmo simulativo con dipendenza Gaussiana: passaggio 5 ... 104

A.1.8. Algoritmo simulativo con dipendenza descritta da copula: passaggio 2, 3, 4, 5 ... 106

A.1.9 Algoritmo simulativo con dipendenza descritta da copula: passaggio 7 ... 107

Bibliografia ... 109

(5)
(6)

1

Introduzione

Tra le misure di rischio finanziario più conosciute troviamo il Value at Risk e l’Expected Shortfall. Lo scopo di entrambe è, in parole povere, quello di individuare le possibili perdite di valore di un portafoglio in caso di eventi negativi poco probabili. Esistono vari modelli utilizzabili per ottenere una stima di queste misure, ciascuno con i suoi pregi e difetti. In questo lavoro, è stata presa in considerazione la metodologia basata sulla simulazione Monte Carlo, la quale tenta di replicare un gran numero di possibili valori futuri dei fattori di rischio di nostro interesse il più possibile attendibili; a tal proposito, un ruolo di grande importanza è assegnato ai fenomeni di dipendenza ovvero la presenza di correlazioni negli andamenti dei fattori analizzati. Proprio attorno a questo argomento ruota principalmente la presente trattazione. Verranno messe a confronto due diverse ipotesi circa la struttura di dipendenza: una basata sull’indice di correlazione lineare di Pearson, l’altra sul coefficiente di concordanza di Kendall. Per l’implementazione delle strutture di dipendenza nel modello ci serviremo di un particolare tipo di funzione per la computazione di distribuzioni multivariate di variabili aleatorie: la copula; entrando più nello specifico, analizzeremo in maniera più approfondita una tipologia peculiare, le cosiddette copule archimedee. Lo strumento in questione ci servirà per costruire funzioni di distribuzione multivariate con struttura di dipendenza descritta dagli indici di concordanza; a proposito della struttura di dipendenza caratterizzata da questo tipo di coefficienti, verrà introdotta un’ipotesi che semplificherà l’implementazione degli algoritmi simulativi: la parziale scambiabilità delle variabili aleatorie; questo concetto avrà una grande importanza nello svolgimento dell’analisi empirica e risulterà essere uno dei principali argomenti di comparazione tra i vari risultati ottenuti.

L’analisi empirica effettuata si basa sulla misurazione di Value at Risk ed Expected Shortfall di alcuni portafogli composti da titoli azionari; avrà lo scopo di effettuare un confronto tra le diverse strutture di dipendenza e i cambiamenti che avvengono variando alcuni aspetti base della valutazione; tali aspetti riguarderanno gli intervalli temporali analizzati, i livelli di correlazione tra i vari titoli e numerosità dei titoli di cui sono composti i singoli portafogli, che, come vedremo, risulterà essere una variabile cruciale nella simulazione. Da questo raffronto cercheremo di trarre delle conclusioni circa l’individuazione dei vantaggi e delle criticità dei vari modelli presi in considerazione.

(7)

2

La tesi è strutturata in tre capitoli. Il primo inizia con la presentazione delle misure di rischio; verranno introdotti Value at Risk ed Expected Shortfall e le diverse metodologie di calcolo ad essi associate; tra queste troviamo la simulazione Monte Carlo che sarà utilizzata nella simulazione empirica. Il capitolo continua con una descrizione delle funzioni di distribuzione di probabilità: esse svolgeranno un ruolo importante nell’applicazione empirica, ossia quello di delineare l’andamento futuro dei rendimenti dei vari titoli coerentemente con quanto avvenuto in passato. La sezione si chiude con un accenno alle strutture di dipendenza; l’indice di concordanza verrà inoltre approfondito successivamente.

Il secondo capitolo riguarda, essenzialmente, la funzione copula; dopo una breve introduzione circa la sua utilità, vedremo in maniera dettagliata i teoremi fondamentali e le proprietà di questo strumento. Saranno descritte le tipologie di funzioni utilizzate nella simulazione empirica, con particolare attenzione alle copule archimedee; verrà analizzato il caso bivariato per poi estendersi a copule n-dimensionali. Parleremo, a questo proposito, dell’ipotesi fondamentale di parziale scambiabilità delle variabili aleatorie; l’importanza di questo concetto apparirà chiaro quando verranno esposti i risultati della simulazione, poiché creerà una discrepanza tra le risultanze attese e quelle effettivamente verificatesi. Vedremo inoltre la relazione che sussiste tra le copule di tipo archimedeo e il coefficiente di concordanza di Kendall. Il capitolo si concluderà con l’introduzione degli algoritmi simulativi utilizzati in fase di applicazione del modello, i quali verranno più dettagliatamente analizzati nel corso del terzo capitolo.

L’ultima sezione sarà dedicata ai risultati empirici. Si inizierà con la presentazione dei singoli titoli e dei diversi parametri ad essi associati. Passeremo poi ad una descrizione più dettagliata delle funzioni di distribuzione, specificando, in particolare, la metodologia di costruzione della distribuzione empirica. Proseguiremo con l’esposizione dettagliata dei due algoritmi simulativi, descrivendo ogni passaggio. Per ultimo, i risultati ottenuti, divisi a seconda delle varie ipotesi fatte, con particolare interesse riguardo le diverse strutture di dipendenza.

Quello che ci aspettiamo, circa l’analisi empirica, è una maggior prudenzialità data dall’applicazione della copula archimedea rispetto a metodologie basate su ipotesi più semplicistiche come l’utilizzo della decomposizione di Cholesky. Tuttavia, l’ipotesi fatta per l’esecuzione dell’algoritmo con la funzione copula, ovvero la parziale scambiabilità già accennata, avrà un impatto maggiore di quello atteso; nei risultati l’effetto sarà quello di verificare le attese al cambiare di una delle variabili prese in considerazione, ovvero la numerosità di titoli inseriti nel portafoglio.

(8)
(9)

4

CAPITOLO 1- MISURE DI RISCHIO E FUNZIONI

DI

DISTRIBUZIONE DI PROBABILITÀ

1.1. Misure di rischio coerenti

Il rischio ricopre un ruolo di fondamentale importanza nell’ambito dei mercati finanziari. In questo campo, il rischio viene individuato nell’aleatorietà dei risultati economici futuri; aleatorietà data dai diversi cambiamenti che possono avvenire in seguito alle contrattazioni e che possono in qualche modo avere effetti sull’andamento positivo o negativo degli scambi.

L’obiettivo comune di qualsiasi soggetto che investa in strumenti finanziari, è quello di ottenere il maggior rendimento dall’investimento dei propri fondi, possibilmente senza subire perdite; nella realtà, questa visione, è impensabile: ad un maggiore retribuzione è legata un maggior probabilità di rendimenti negativi, quindi maggiore è il rendimento sperato, maggiore il rischio.

È possibile individuare diverse categorie di rischio a seconda della natura dello stesso: • Rischio di credito: riguarda la possibilità che un debitore non riesca ad assolvere,

anche solo in parte, ai propri obblighi contrattuali quali il rimborso del capitale o il pagamento degli interessi.

• Rischio di mercato: È relativo agli effetti imprevisti sul valore di mercato degli strumenti finanziari dovuti alle oscillazioni di prezzi o altre variabili che caratterizzano il normale andamento dei mercati. È possibile suddividere il rischio di mercato in ulteriori sottocategorie:

o Rischio di tasso di interesse, che influisce soprattutto su contrattazioni sensibili alle variazioni dei tassi di mercato;

o Rischio di cambio, il quale interessa soprattutto il mercato valutario; o Rischio azionario, dovuto alla volatilità dei prezzi degli strumenti di equity

e che riguarda qualsiasi portafoglio con strumenti propri del mercato azionario. Esso può essere ulteriormente suddiviso in rischio specifico e rischio generico (o sistematico); il primo dipende dalle caratteristiche peculiari dell’emittente, quindi è caratteristico per ciascun titolo, e può essere diminuito tramite un opportuno processo di diversificazione del portafoglio; Il rischio sistematico invece rappresenta quella parte di variabilità del prezzo che dipende dalle fluttuazioni del mercato in

(10)

5

generale. Nella trattazione di questa tesi verrà analizzato il rischio azionario utilizzando come metodo di misura il Value at Risk (VaR) e l’Expected Shortfall (ES).

o Commodity risk, legato a variazioni dei prezzi delle materie prime. • Rischio Liquidità, riguarda l’eventualità che un non possa essere venduto ad un

prezzo ritenuto equo con bassi costi ed in breve tempo; si presenta, quindi, quando la vendita di un titolo sul mercato in tempi brevi risulta difficoltosa o svantaggiosa per il venditore. L’illiquidità di uno strumento finanziario è solitamente bilanciata da rendimenti maggiori, quindi, ad un grado di liquidità elevato, corrisponde un tasso di rendimento inferiore rispetto a titoli meno liquidi.

• Rischio operativo, si riferisce alle possibili perdite derivanti da processi, personale e sistemi interni inadeguati o carenti, oppure dovute ad eventi esogeni; quindi legati alla normale operatività di un qualsiasi ente operante nei mercati finanziari. Rientrano in questa tipologia anche i rischi legali o di frode.

Chiaramente, esistono altre tipologie di rischi, sono stati elencati solo i più rilevanti. In ogni transazione finanziaria è presente uno o più elementi di rischiosità, che devono essere continuamente presi in considerazione ed opportunamente gestiti, in particolar modo dai maggiori operatori del mercato; i controlli e i processi di gestione dei rischi hanno acquistato un’importanza sempre maggiore e ricoprono, attualmente, un ruolo fondamentale per le istituzioni finanziarie.

Nello svolgimento di questa tesi, verranno presi in considerazione due metodi di misurazione del rischio finanziario relativi alla volatilità del valore di un portafoglio composto da titoli azionari: Value at Risk ed Expected Shortfall.

Prima di tutto, ci sarà d’aiuto introdurre il concetto di misura di rischio finanziario (mrf). La nozione di misura di rischio trae origine dalla necessità di esprimere quale sia il grado di rischiosità dei numeri aleatori appartenenti ad un dato insieme, ciascuno dei quali rappresenta il valore che può essere assunto da una certa posizione (rischio) in un istante futuro t = T

Utilizzando la definizione data da P. Artzner, F. Delbaen, S. Eber e D. Heath, in “Coherent

Measure of Risk”, la misura di rischio 𝜌 relativa alla posizione 𝑋 (quindi 𝜌(𝑋)), è data dalla minima somma certa che, impiegata prudentemente, occorre aggiungere ad X per rendere accettabile il portafoglio 𝑋 + 𝜌(𝑋). Formalmente:

(11)

6

dove G rappresenta un insieme di portafogli ritenuto accettabile da un soggetto economico, il quale può essere sia il soggetto che effettua la valutazione sia un soggetto esterno.

Data questa definizione, risulta utile esporre sotto quali condizioni una misura di rischio possa essere ritenuta valida o, più precisamente coerente.

Una misura ρ viene definita misura coerente di rischi se e solo se soddisfa i seguenti assiomi:

• Invarianza per traslazione: dato un ammontare certo 𝛼 allora 𝜌(𝑋 + 𝛼) = 𝜌(𝑋) – 𝛼; se si aggiunge una componente certa alla posizione X, l’indice di rischiosità si riduce esattamente di un’entità pari alla componente certa.

• Monotonia: Dati due portafogli X e Y, se 𝑋 ≤ 𝑌, allora 𝜌(𝑌) ≤ 𝜌(𝑋); se il portafoglio Y è preferibile rispetto al portafoglio X, allora il portafoglio Y sarà anche il meno rischioso.

• Omogeneità positiva: data una quantità 𝜆 ≥ 0, allora 𝜌(𝜆 ∗ 𝑋) = 𝜆 ∗ 𝜌(𝑋); • Subadditività: Dati due portafogli X e Y, una mrf si dice subadditiva se soddisfa

la seguente condizione: 𝜌(𝑋 + 𝑌) ≤ 𝜌(𝑋) + 𝜌(𝑌). Tale assioma afferma che il rischio associato ad un portafoglio deve essere minore o uguale alla somma degli indici di rischiosità dei titoli che fanno parte del portafoglio considerati singolarmente; In pratica, tale assioma appoggia l’idea per cui la diversificazione di portafoglio debba ridurre il rischio del portafoglio.

Per essere considerata coerente, una misura di rischio, deve soddisfare tutti gli assiomi descritti sopra. Nel prossimo paragrafo verrà esaminata in dettaglio una delle misure di rischio più note, il Value at Risk (VaR), e vedremo quali sono le condizioni che rendono questo indice una mrf coerente. Verranno successivamente esposte le proprietà e i procedimenti di calcolo dell’Expected Shortfall (ES), un’altra misura di rischio strettamente legata al VaR.

1.2.VaR: Value at Risk

Il Value at Risk è definibile come la massima perdita potenziale di valore di un titolo o di un portafoglio in un determinato orizzonte temporale dato un intervallo di confidenza considerato accettabile. In sostanza, tramite il VaR, un soggetto finanziario intende conoscere di quanto diminuirà il valore del proprio investimento nel caso in cui si verifichi un evento negativo, solitamente caratterizzato da una bassa probabilità di accadimento.

(12)

7

La diffusione del VaR come misura di rischio è, quindi, legata alla necessità di conoscere l’esposizione di un determinato investimento alla possibilità di perdite future.

Dalla definizione, vediamo che i fattori fondamentali per una corretta valutazione del valore a rischio sono essenzialmente due:

• Orizzonte Temporale (Holding Period): quantità di giorni borsistici in base alla quale vogliamo calcolare il VaR.

• Livello di Significatività (Significance Level): indicato dal simbolo α. Per comodità è possibile usare, in alternativa, la notazione 1 − 𝛼 (livello di confidenza). Questo valore indica qual è la probabilità che l’evento negativo, di cui vogliamo conoscere l’entità, si verifichi.

Quando parliamo di Holding Period, quindi, ci riferiamo alla base temporale in riferimento alla quale effettueremo le nostre valutazioni. L’entità di questo fattore può essere imposta da enti esterni, come può essere la regolamentazione derivante dagli accordi di Basilea. In assenza di limitazioni imposte esternamente, l’orizzonte di rischio viene individuato nel periodo di tempo durante il quale ci aspettiamo di essere esposti alle potenziali perdite; un elemento da tenere in considerazione, esaminando la componente temporale, è, inoltre, la liquidità dell’investimento soggetto al rischio; se il livello di liquidità è sufficientemente alto, potremo considerare un intervallo ridotto, mentre, in caso di strumenti poco liquidi, dovremo basarci su un lasso di tempo più ampio nella nostra valutazione.

Per quanto riguarda il secondo fattore, il livello di significatività, esso viene espresso in termini percentuali. Anche in questo caso, enti esterni possono richiedere che il calcolo del livello di rischio delle attività detenute venga effettuato sulla base di fissati valori di confidenza. La motivazione sottostante le limitazioni imposte da enti regolatori è legata alla necessità di garantire la solvibilità di operatori quali banche o comunque istituzioni che svolgono attività in ambito finanziario, inducendoli a dotarsi di coperture patrimoniali adeguate a fronte delle posizioni soggette a rischio. Se non vigono regolamentazioni restringenti, il livello di confidenza scelto dipende in maniera diretta dall’avversione al rischio dell’investitore; più un individuo è avverso all’eventualità di perdite, più alto sarà il livello di confidenza utilizzato.

I livelli di confidenza impiegati in maggior misura sono compresi nell’intervallo di valori [99.5%, 95%], quindi con 𝛼 compreso tra [0.5%, 5%]

Per capire meglio cosa significa il VaR, prendiamo un esempio pratico. Abbiamo un portafoglio titoli del valore di € 10.000. Consideriamo un orizzonte temporale di un giorno e un livello di significatività del 5% (livello di confidenza= 1-0,05=95%). Se il VaR che

(13)

8

otteniamo è pari a € 800 significa che nel 5% peggiore dei casi potremo attenderci una perdita giornaliera dell’8% (€ 800); una perdita maggiore si avrà con probabilità inferiore al 5%.

Introdotti i concetti principali del VaR, è lecito chiedersi se esso sia o meno una misura di rischio coerente prendendo in considerazione le proprietà descritte nel precedente paragrafo. Il Value at Risk rispetta i primi tre assiomi di coerenza quindi:

• monotonicità: se ho due portafogli, X e Y, tali che 𝑌 ≥ 𝑋, allora 𝑉𝑎𝑅𝛼(𝑋) ≥

≥ 𝑉𝑎𝑅𝛼(𝑌);

• Invarianza per traslazione: dato un ammontare certo 𝑞 allora 𝑉𝑎𝑅𝛼(𝑋 + 𝑞) = 𝑉𝑎𝑅𝛼(𝑋)– 𝑞;

• Omogeneità positiva: dato 𝜆 ≥ 0, allora 𝑉𝑎𝑅𝛼(𝜆 ∗ 𝑋) = 𝜆 ∗ 𝑉𝑎𝑅𝛼(𝑋);

Quindi il VaR rispetta, per qualsiasi variabile casuale presa in considerazione, tre degli assiomi di coerenza. Affinché esso rispetti il quarto assioma, la subadditività, va aggiunta un’ulteriore ipotesi riguardo la distribuzione delle variabili casuali oggetto della valutazione: esse devono essere indipendenti e distribuite normalmente (cosa si intenda per distribuzione di probabilità normale verrà spiegato in seguito). Quindi, sotto determinate condizioni il Value at Risk può essere considerato una misura di rischio coerente.

Per quanto riguarda modelli di stima del VaR, i più utilizzati sono sostanzialmente aggregabili in tre categorie:

• modello Parametrico: richiede che la distribuzione dei rendimenti segua una distribuzione caratterizzata da determinati parametri (solitamente distribuzione normale gaussiana). In base a questi ultimi verrà calcolato il percentile, relativo al livello di significatività scelto, per determinare le perdite potenziali.

• modello della Simulazione Storica: non richiede assunzioni particolari riguardo la distribuzione dei rendimenti; si basa un’ampia quantità di dati storici e il percentile relativo al VaR verrà estratto dalla serie storica.

• modello della Simulazione di Montecarlo: anche in questo caso devono essere fatte ipotesi riguardo la distribuzione di profitti e perdite. Questo metodo richiede che vengano simulati un’ampia serie di possibili scenari, in base sempre alla distribuzione sottostante, e che da questi ultimi venga estratto il percentile relativo al livello di significatività.

Nei prossimi paragrafi verranno esposte le principali caratteristiche di ciascuno, con particolare attenzione riguardo al metodo Montecarlo, il quale verrà utilizzato nelle valutazioni empiriche effettuate in questo elaborato.

(14)

9

1.2.1 Modello parametrico

Il metodo parametrico, anche detto “varianza-covarianza”, come già anticipato, richiede che la distribuzione della variabile oggetto di calcolo sia lineare; la forma più semplice di questo approccio prende in considerazione una distribuzione normale gaussiana (questo paragrafo analizzerà questa situazione). La larga diffusione dell’approccio parametrico è dovuta sostanzialmente alla sua semplicità e all’esiguo numero di variabili da stimare. Il ruolo di principale fattore di rischio viene assunto in questo modello dalla varianza del portafoglio; il valore della posizione è linearmente legato ad essa. Per la costruzione di una distribuzione normale servirà inoltre la media dei rendimenti.

La normalità dei parametri costituisce una criticità di questo metodo; la varianza di un portafoglio dovrà essere ricavata dalla volatilità di ciascun titolo; dobbiamo considerare qual è il peso del singolo titolo all’interno del portafoglio ed inoltre il livello di correlazione che intercorre tra i diversi titoli dato dall’indice di correlazione lineare (verrà analizzato in seguito). Indichiamo con 𝜌𝑖𝑗 la correlazione relativa ai titoli i e j, con 𝑎𝑖, 𝑎𝑗 la quota dell’asset 𝑖, 𝑗 nel portafoglio e con 𝜎𝑖, 𝜎𝑗 la deviazione standard (ricavabile come radice quadrata della varianza) del titolo 𝑖, 𝑗, la varianza sarà data da:

𝜎

𝑃

= ∑ ∑ 𝑎

𝑖 𝑗 𝑖

𝑎

𝑗

𝜎

𝑖

𝜎

𝑗

𝜌

𝑖𝑗

(2) Il rendimento atteso del portafoglio sarà dato semplicemente dalla sommatoria dei rendimenti attesi dei titoli, ciascuno dei quali dovrà essere moltiplicato per il peso relativo. Noti i parametri vediamo come ricavare il VaR; data l’ipotesi di normalità della distribuzione è possibile ottenere il valore relativo ad un dato percentile poiché prendendo in esame i livelli di confidenza più noti, la statistica ci viene in aiuto. In una distribuzione normale, abbiamo che la variabile si colloca, nel 95% dei casi, in un intervallo compreso tra [𝜇 − 1.65𝜎; 𝜇 + 1.65𝜎], dove 𝜇 indica la media, che si trova esattamente sull’asse di simmetria della distribuzione, mentre 𝜎 indica la deviazione standard, ricavabile dalla formula (2) esposta in precedenza; nel 99% dei casi, invece, la variabile assumerà un valore interno alla distanza tra [𝜇 − 2.33𝜎; 𝜇 + 2.33𝜎]. Questo significa che con il 5% di probabilità avremo rendimenti inferiori a 𝜇−1.65𝜎, mentre solo nell’1% dei casi i rendimenti saranno più bassi di 𝜇−2.33𝜎.

Il calcolo del VaR, a questo punto, è abbastanza semplice da dedurre:

(15)

10

Dove 𝑃 indica il valore iniziale del portafoglio, 𝑛 il fattore di moltiplicazione della deviazione standard per un dato percentile (negli esempi sopra n=1,65 e n=2,33), mentre 𝜎 ∗ √𝑡 è la deviazione standard moltiplicata per la radice quadrata dell’orizzonte temporale di interesse. Per ottenere il VaR in termini di perdita attesa, l’ammontare individuato dovrà essere sottratto dal valore iniziale del portafoglio.

1.2.2. Modello della simulazione storica

Tale metodo parte dal presupposto che tutte le possibili variazioni di valore future si siano già verificate nel passato, e che la distribuzione storica sia identica a quella dei rendimenti futuri per il termine temporale di rischio di nostro interesse. In pratica, partendo da una serie di dati storici, data dai rendimenti precedenti alla data di osservazione, dovremmo riuscire a prevedere quale sarà la probabilità di avere risultati negativi, supponendo che i prezzi seguano lo stesso andamento osservato in precedenza.

La metodologia della simulazione storica, come d’altronde la simulazione di Montecarlo, viene considerata non parametrica, poiché il VaR non viene ricavato direttamente dai parametri del portafoglio, ma ipotizzando distribuzioni future dei rendimenti e creando scenari simulativi delle possibili variazioni del valore del portafoglio.

Il punto di partenza consiste, quindi, nella scelta di un periodo di osservazione dei dati storici del titolo o dei titoli di cui ci interessa conoscere i parametri di nostro interesse; l’ampiezza di questo intervallo dovrà essere abbastanza rilevante, affinché venga mantenuta una certa significatività statistica; tale ampiezza non è fissata, sta al valutatore scegliere quella secondo lui sia più adeguata, tuttavia un periodo di almeno 2 anni può essere ritenuto accettabile. Questo passo deve essere effettuato qualunque sia il modello di calcolo del VaR applicato al portafoglio, sia esso parametrico o non parametrico. I rendimenti passati verranno calcolati sulla base dell’Holding Period, ad esempio se vogliamo trovare il VaR ad una settimana ci interesseranno i rendimenti settimanali, calcolati su 5 giorni borsistici.

A questo punto, applicando il metodo della simulazione storica, dovremo riordinare i dati storici riguardanti i rendimenti del portafoglio in ordine crescente; poiché ipotizziamo che i rendimenti futuri si distribuiscano in maniera identica a quelli passati, il Value at Risk sarà dato dalla variazione relativa al quantile di interesse; se, ad esempio, abbiamo un campione di 1000 osservazioni, l’ammontare associato ad un VaR con livello di confidenza del 99%, sarà il decimo valore più basso tra i dati storici ordinati. Se poi ci

(16)

11

interessa la minima perdita attesa nell’1% dei casi, tale cifra andrà sottratta dal valore di partenza del portafoglio.

1.2.3. Simulazione Montecarlo

Il metodo della simulazione di Montecarlo prevede la generazione di un elevato numero di scenari riguardo il possibile andamento futuro del valore degli assets. In questo particolare tipo di approccio, vengono fatte delle assunzioni circa la distribuzione dei fattori di rischio: sarà compito del valutatore decidere quale sia la distribuzione che meglio si adatti all’andamento dei rendimenti passati; in effetti anche questa metodologia prevede l’analisi di dati storici, al fine di ricavare elementi utili per la costruzione della funzione di densità di probabilità.

Data questa funzione, la simulazione avviene estraendo da essa, in maniera casuale, valori che potrebbero essere assunti dal fattore analizzato; il procedimento viene ripetuto per un elevato numero di volte, al fine di ottenere un buon numero di situazioni. L’idea alla base di questo tipo di approccio risulta, quindi, estremamente semplice: si tratta di un’estrazione casuale ripetuta l’ammontare di volte ritenuto soddisfacente. Una formulazione piuttosto semplice può prevedere che la variabile aleatoria sia distribuita normalmente.

Le cose si complicano nel caso in cui abbiamo più di una variabile aleatoria; è necessario, infatti, tenere conto della possibilità che esista una struttura di dipendenza tra di esse. In questi casi dovremo usare opportuni indici e trasformazioni per ottenere risultati accettabili. Nel caso di distribuzioni multivariate di tipo ellittico (come la normale) è appropriato utilizzare indici di correlazione lineare, applicando metodologie basate sulla decomposizione di Cholesky; se si considerano strutture di dipendenza più generali, un metodo alternativo può essere individuato nell’applicazione di una copula, ovvero un particolare distribuzione multivariata con distribuzioni marginali uniformi sull’intervallo [0,1]; questo ”strumento”, prevede l’utilizzo di un indice di concordanza per definire la struttura di dipendenza di ciascun vettore aleatorio. Entrambi questi metodi verranno analizzati più dettagliatamente in seguito.

Il calcolo del VaR tramite la simulazione di Montecarlo è schematizzabile nei seguenti passaggi:

• scelta dell’holding period e dell’intervallo di confidenza di interesse

(17)

12

• estrazione casuale di un elevato numero di realizzazioni dalle distribuzioni di cui sopra

• applicazione della struttura di dipendenza tra i vari titoli

• generazione di numerose realizzazioni del portafoglio, coerenti con la struttura di dipendenza

• rilevazione del VaR con intervallo di confidenza scelto, individuato come l’α-esimo percentile delle realizzazioni del portafoglio ordinate dalla più piccola alla più grande

Per l’estrazione di valori casuali dalla distribuzione del singolo titolo, applicherò il metodo della funzione inversa. Il punto di partenza per tale procedimento è la generazione di una variabile casuale distribuita uniformemente sull’intervallo [0,1]; data questa variabile, che chiameremo 𝑢, la applicheremo alla funzione di ripartizione 𝐹𝑖 del rendimento del titolo preso in considerazione, calcolando la funzione inversa 𝐹𝑖−1(𝑢), generando così un valore relativo alla funzione di probabilità sottostante. Ripetendo l’operazione il numero di volte ritenuto opportuno, otterremo un ingente quantità di possibili rendimenti del titolo corrispondente. Ripetendo per tutti titoli, saremo in grado di creare i valori del portafoglio che costituiranno la base per il calcolo del VaR.

Le strutture di dipendenza e il loro ruolo nella generazione di portafogli coerenti verranno opportunamente analizzate nel prosieguo del lavoro.

1.3. Expected Shortfall

Abbiamo visto che il VaR ci dà una misura della massima perdita attesa data una certa probabilità di accadimento; ci indica, quindi, una soglia massima di variazione del valore del nostro portafoglio in caso di eventi negativi. Un limite legato al VaR è che non ci dice cosa accade quando tali situazioni si verificano effettivamente, quindi quale sarà la perdita attesa quando si supera la soglia, nell’𝛼% peggiore dei casi; risulta inoltre una misura di rischio non coerente quando le distribuzioni dei fattori di rischio non seguono una distribuzione normale, poiché non viene rispettato l’assioma di sub-additività. Per superare le limitazioni del VaR, diverse misure di rischio sono state implementate; una di queste è proprio l’Expected Shortfall (ES).

L’obiettivo dell’ES è quello di stimare quale sarà la perdita attesa nell’ 𝛼% peggiore dei casi; si cerca, quindi, di capire cosa accade nei valori più estremi delle distribuzioni dei fattori di rischio; un altro punto a favore dell’Expected Shortfall è che risulta coerente

(18)

13

rispetto a qualsiasi tipo di distribuzione, non solo quella normale. Generalmente i valori dell’ES sono più alti rispetto a quelli del VaR.

Sostanzialmente, l’ES, è definibile come la perdita media del valore del portafoglio quando la soglia data dal livello di significatività 𝛼 viene superata. Possiamo esprimerlo nel seguente modo

𝐸𝑆𝛼(𝑋) = 𝐸[𝑋|𝑋 < 𝑉𝑎𝑟𝛼] (4) In termini di probabilità associata ai singoli valori inferiori al VaR, possiamo intenderlo in termini di sommatoria

𝐸𝑆𝛼(𝑋) = 1

𝛼∑𝑥𝑖<𝑉𝑎𝑟𝛼𝑥𝑖∗ 𝑝𝑖 (5) Dove 𝑝𝑖 indica la probabilità di verificarsi associata a ciascun 𝑥𝑖 che oltrepassi il VaR. Nello svolgimento della tesi ci concentreremo principalmente sul valore a rischio, ma, essendo l’ES strettamente legato ad esso, cercheremo di fare dei confronti tra le due misure.

1.4. Funzioni di distribuzione di probabilità

Come già precedentemente esposto, le funzioni di distribuzione di probabilità, hanno una rilevanza notevole nel calcolo del VaR, sia per quanto riguarda il modello parametrico sia per la simulazione Montecarlo. L’importanza del loro ruolo sta nella necessità di creare realizzazioni simili a quelle che si sono verificate in passato, in modo da rendere le previsioni future il più attendibile possibile.

Le funzioni di densità di probabilità descrivono il comportamento di variabili aleatorie (o casuali). Come suggerisce il nome, una variabile casuale è una variabile numerica il cui valore osservato può cambiare nella ripetizione di un esperimento; quindi il valore che essa assume non è deterministico ma legato alla probabilità; la funzione distribuzione esprime esattamente la probabilità che una variabile aleatoria assuma un certo valore o meno. Un esempio classico di variabile aleatoria è dato dal lancio di un dado, in cui ciascuna faccia ha una probabilità pari a 1

6 di manifestarsi; non possiamo sapere con certezza quale delle facce uscirà ma possiamo sapere quante possibilità ci sono che esca uno dei valori possibili.

Un breve accenno alla distinzione tra variabili aleatorie discrete e continue. Le variabili aleatorie discrete sono caratterizzate da un numero finito di valori che esse possono assumere; il lancio di un dado rientra in questo insieme di variabili. Ciascuno dei valori è inoltre contraddistinto da una propria probabilità di manifestazione; due quindi sono le

(19)

14

caratteristiche principali di questo tipo di variabili: numero finito di valori e probabilità esatte relative a ciascuno di essi.

Le variabili aleatorie continue sono, invece, caratterizzate da un insieme infinito di valori possibili su un intervallo continuo; la probabilità che la variabile aleatoria continua assuma un particolare valore è pari a zero; non è quindi associabile a ciascuna realizzazione una probabilità esatta, dovremo fare riferimento ad un intervallo di valori. La probabilità è rappresentata da un’espressione matematica adatta alla descrizione del fenomeno continuo, che permetta di calcolare l’eventualità che la variabile aleatoria assuma valori compresi in intervalli.

Vedremo in maniera più chiara cosa si intende per l’una e per l’altra dalla descrizione delle funzioni di probabilità che verranno esposte nei prossimi paragrafi.

1.4.1. La distribuzione Normale

Descrive l’andamento di una variabile continua, quindi su un intervallo infinito di valori compreso tra [−∞; +∞]. La variabile nella nostra trattazione sarà data dai rendimenti dei vari titoli.

Data una variabile aleatoria continua 𝑥 la probabilità che essa assuma un valore definito è pari a 0.

𝑃(𝑋 = 𝑥) = 0 (6) Come già detto, quindi, la probabilità sarà definita su intervalli di valori della variabile; per ricavarla, dovremo, dunque, procedere per integrazione.

Data la funzione di probabilità 𝑓𝑥, la probabilità che la variabile assuma valori compresi nell’intervallo [𝑐; 𝑐 + 𝜀], è data da:

𝑃(𝑐 ≤ 𝑥 ≤ 𝑐 + 𝜀) = ∫

𝑐𝑐+𝜀

𝑓

𝑥

(𝑡)𝑑𝑡

(7) Da questa definizione, si intuisce che 𝑃(𝑐 ≤ 𝑥 ≤ 𝑐 + 𝜀) corrisponde all’area sottostante la funzione di densità compresa tra [𝑐; 𝑐 + 𝜀]. La funzione 𝑓𝑥 deve essere non negativa per qualsiasi valore della variabile. Deve inoltre valere che:

+∞

𝑓

𝑥

(𝑡)𝑑𝑡 = 1

−∞

(8)

L’area sottostante la funzione di densità dovrà essere esattamente uguale ad uno.

Dalle definizioni date sopra si ricava un’altra funzione di grande importanza, strettamente legata alla densità di probabilità: la funzione di ripartizione, o cumulativa. Essa associa a ciascun valore di 𝑥 la probabilità di accadimento del seguente evento: “la variabile casuale 𝑋 assume valori minori o uguali ad 𝑥”. Possiamo definire 𝐹(𝑥) come:

(20)

15

𝐹(𝑥) = 𝑃(𝑋 ≤ 𝑥)

(9) Affinché 𝐹(𝑥) sia una funzione di ripartizione devono valere le seguenti proprietà:

• 𝐹(𝑥) ≥ 0 ∀𝑥 • lim

𝑥→+∞𝐹(𝑥) = 1 • lim

𝑥→−∞𝐹(𝑥) = 0

Se x è una variabile aleatoria continua possiamo scrivere la 𝐹(𝑥) in termini di integrale:

𝐹(𝑥) = ∫

−∞𝑥

𝑓

𝑥

(𝑡) 𝑑𝑡

(10) Non è altro, dunque, che l’integrale della funzione di densità tra −∞ ed un valore definito di x. La funzione di ripartizione gioca un ruolo fondamentale nell’individuazione del VaR con la metodologia della simulazione Montecarlo, specialmente se consideriamo la sua inversa 𝐹−1(𝑥); tramite l’inversa possiamo individuare, data una variabile casuale uniforme u compresa tra 0 e 1, il valore di x che corrisponde a tale variabile:

𝐹

−1

(𝑢) = 𝑋

(11) Riusciamo così ad esprimere il modo di distribuirsi della probabilità totale sull’insieme dei valori assumibili da 𝑥.

Una delle più note distribuzioni di densità di probabilità continue è la normale (o Gaussiana); viene spesso usata come prima approssimazione per descrivere variabili casuali a valori reali che tendono a concentrarsi attorno a un singolo valor medio. La rappresentazione grafica di tale distribuzione è visibile nella figura 1 a pagina prossima; essa ha forma campanulare ed è simmetrica rispetto al valore medio; le “code della distribuzione tendono a 0, sia a sinistra che a destra. È particolarmente importante sia perché risulta utile in numerose applicazioni pratiche, sia perché può sovente essere utilizzata come distribuzione limite in quanto è una distribuzione alla quale tendono altre distribuzioni sotto condizioni abbastanza generali.

Una variabile aleatoria continua 𝑥 con media 𝜇 e deviazione standard 𝜎 ha distribuzione normale 𝑋~𝑁(𝜇, 𝜎) se la sua funzione di densità è data da:

𝑓(𝑥) =

1

𝜎∗√2𝜋

∗ 𝑒

−(𝑥−𝜇)2

2𝜎2

(12) I parametri definitori sono dati dalla media 𝜇 e dalla deviazione standard 𝜎. Se siamo a conoscenza di questi dati, siamo in grado di ricostruire la curva di densità normale. Queste 2 misure influiscono sulla forma della distribuzione in maniera diversa:

• al variare di 𝜇 la curva trasla orizzontalmente. • al crescere di 𝜎 la curva si appiattisce e si allarga.

(21)

16

figura 1 Distribuzione normale

La figura 1 mostra un esempio di funzione di distribuzione normale con 𝜇 = 0 e deviazione standard 𝜎 = 1.

Per quanto riguarda la funzione di ripartizione, essa sarà data da

𝐹(𝑥) = ∫

𝑓

(

𝑥

)

𝑑𝑥 =

𝜎∗12𝜋

∗ 𝑒

− (𝑥−𝜇)2 2𝜎2

𝑑𝑥

𝑥 −∞ 𝑥 −∞ (13) ed avrà la forma mostrata nel grafico rappresentato nella figura 2

figura 2 Funzione di ripartizione normale

Come si può vedere, la curva risulta continua ed ha come limiti per x che tende a +∞ e −∞ rispettivamente 1 e 0. Ciascun valore delle ordinate rappresenta la probabilità che la variabile aleatoria assuma valori inferiori rispetto alla x corrispondente.

0 0,05 0,1 0,15 0,2 0,25 0,3 0,35 0,4 0,45 -3 -2 -1 0 1 2 3 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 -3 -2 -1 0 1 2 3

(22)

17 1.4.1.1. La distribuzione Normale Standard

La distribuzione normale standardizzata rappresenta un caso particolare della distribuzione normale. La peculiarità sta nel fatto che la media 𝜇 è uguale a 0 e la varianza 𝜎2 è uguale ad 1. Le figure mostrate nel paragrafo precedente sono relative a questo caso. Il nome “standard” deriva dal fatto che qualunque funzione di distribuzione normale possa essere ricondotta alla funzione normale standardizzata con una semplice trasformazione della variabile aleatoria. In particolare, se 𝑋~𝑁(𝜇, 𝜎) possiamo definire una variabile Z in questo modo:

Z =

X−𝜇

𝜎 (14)

La variabile così proposta risulta distribuita esattamente come una normale ma con media e varianza a valori predefiniti 𝑍~𝑁(0,1). Per quanto riguarda la funzione distribuzione espressa in termini matematici, essa risulterà identica a quella precedentemente introdotta ma dipenderà da un'unica variabile z

𝑓(𝑧) =

1 𝜎∗√2𝜋

∗ 𝑒

−1 2𝑧 2

(15)

La comodità nell’usare questo tipo di funzione sta nella facilità con cui è possibile ricavare i diversi valori della z data la funzione di ripartizione. In effetti in questo caso è facilmente reperibile una tabulazione contenente molti dei valori di z corrispondenti a diverse “altezze” della funzione di ripartizione. Data la conoscenza della variabile standardizzata è poi facile, utilizzando la trasformazione vista prima, ricondursi ad un valore di x cercato.

1.4.2. La distribuzione empirica

Un’altra delle distribuzioni che verranno usate nella simulazione finale è la funzione di densità di probabilità empirica, la quale è rappresentabile con un grafico ad istogrammi; ciascuno di questi rappresenta la probabilità che un certo valore della variabile aleatoria si manifesti.

In questo caso la variabile casuale non sarà più costituita da un numero infinito di valori ma da un insieme numerabile. Siamo, quindi, di fronte ad una variabile aleatoria discreta. Come già accennato in precedenza, è possibile associare a ciascuna delle possibili realizzazioni della variabile casuale discreta una probabilità esatta che essa si manifesti. Quindi a ciascuno dei valori 𝑥𝑖 con 𝑖 = 1,2 … , 𝑛 può essere associata una 𝑝𝑖 che rappresenti la probabilità

(23)

18

L’insieme delle variabili aleatorie x è esprimibile in questo modo

𝑥 =

{

𝑥

1

𝑝

1

𝑥

2

𝑝

2

.

.

𝑥

𝑖

𝑝

𝑖

.

𝑥

𝑛

𝑝

𝑛

dove ∑

𝑛𝑖=1

𝑝

𝑖

= 1

e ∀𝑥

𝑖

𝑃(𝑋 = 𝑥

𝑖

) = 𝑝

𝑖

Data questa definizione, la funzione di densità di probabilità è raffigurabile come un istogramma, dove ciascuna barra, come già detto, rappresenta la probabilità che si verifichi 𝑥𝑖. La 𝑝𝑖 sarà data dal valore di ciascuna barra 𝑛𝑖 diviso per il numero totale degli

elementi del campione N.

𝑝

𝑖

=

𝑛𝑖

𝑁

figura 3 Distribuzione empirica (variabile aleatoria discreta)

Vediamo adesso come ricavare l’espressione analitica della funzione di ripartizione. Nel caso discreto, abbiamo la possibilità, come abbiamo visto, di associare a ciascun valore della variabile una probabilità esatta. Possiamo quindi scrivere la formula della funzione cumulativa in forma di sommatoria:

𝐹𝑥(𝑘) = 𝑃(𝑋 ≤ 𝑥𝑘) = ∑𝑖≤𝑘𝑝𝑖 (16) La funzione di ripartizione, per quanto riguarda le variabili aleatorie discrete, mostra una forma particolare; infatti, poiché abbiamo un insieme finito e numerabile, la forma della curva sarà “a gradini”, come è possibile vedere dalla figura seguente.

(24)

19

figura 4 Funzione di ripartizione empirica

Il grafico è quindi rappresentato da una serie di tratti orizzontali a valore crescente. L’altezza di ciascun tratto indica esattamente la probabilità che si manifestino valori di x inferiori alla relativa variabile. Quindi per valori inferiori ad 𝑥1 la funzione di ripartizione avrà valore 0. Per valori inferiori ad 𝑥2 avremo sull’asse delle ordinate un valore dato da 𝑝1, ed un tratto orizzontale che va da 𝑥1 a 𝑥2. Continuando, per valori compresi tra 𝑥2 e 𝑥3 avremo un altro tratto parallelo alle ascisse con altezza 𝑝1 + 𝑝2, la quale rappresenta la probabilità che la variabile discreta assuma valori inferiori rispetto ad 𝑥3. La caratteristica grafica di questa funzione di ripartizione è data dai “salti” tra un tratto e l’altro, la cui ampiezza è pari esattamente a 𝑝𝑖.

In questo caso la funzione risulta non invertibile e questo rappresenta una difficoltà per l’applicazione della simulazione Montecarlo, poiché le realizzazioni aleatori sono ottenute proprio tramite la funzione inversa della cumulativa 𝐹−1(𝑢) = 𝑥. Basti pensare al caso in cui alla u posta sull’asse delle ordinate non corrisponda nessun valore della variabile aleatoria, ci si trovi quindi in uno degli spazi vuoti creati dai “salti”. Il problema è stato affrontato considerando un’interpolazione lineare; maggiori dettagli verranno esposti nell’ultimo capitolo di questa tesi.

1.4.3. La distribuzione t di Student

La funzione di distribuzione t descrive l’andamento di una variabile aleatoria continua ed è graficamente simile alla distribuzione normale standard, dunque simmetrica e campanulare, ma la sua forma dipende dal parametro 𝜈, che indica i gradi di libertà della

p1 p1+p2

p1+p2+p3

F(x)

(25)

20

distribuzione. La distribuzione t si avvicina sempre di più alla forma della normale standard all’aumentare dei gradi di libertà. Se una variabile T ha una distribuzione t di student, la notazione è 𝑇~𝑡𝜈e l’espressione matematica della funzione è:

𝑓

𝜈

(𝑡) = (𝜈𝜋)

−1

Γ (

𝜈 2

)

−1

Γ(

𝜈+1 2

)(1 + 𝜈

−1

𝑡

2

)

−(𝑣+1 2 )

(17) Dove Γ denota la funzione gamma che non verrà analizzata in questo lavoro. L’elemento interessante di questa funzione è dato dalle differenze di forma date dal parametro 𝜈; per capire meglio cosa si intende, vediamo in figura cosa accade al variare di 𝜈

figura 5 Distribuzione t di student con diversi gradi di libertà

Come possiamo vedere, al diminuire dei gradi di libertà, la distribuzione si appiattisce e si allarga; al contrario, aumentando il parametro, la curva avrà una forma più “appuntita”, con una maggior concentrazione di valori intorno al valor medio, che, nel caso della t di student, è sempre pari a 0. Per 𝜈 → ∞ la forma assunta dalla distribuzione sarà identica a quella della normale standard. Per quanto riguarda la funzione di ripartizione, essa avrà una forma simile a quella della distribuzione normale, ma dipenderà comunque dal parametro 𝜈; la logica sottostante il significato della funzione di ripartizione è la stessa degli altri tipi di distribuzione.

(26)

21

Per operare sui rendimenti dei titoli sarà necessario procedere con una trasformazione, per rendere la distribuzione t adattabile ai nostri scopi. In particolare, se X indica il rendimento di un determinato titolo caratterizzato da deviazione standard σ e media µ, e

T indica la variabile distribuita secondo una t di student, considereremo la trasformazione 𝑋 = 𝜇 + 𝜎𝑇.

Come vengono ricavati i valori dall’inversa da questa specifica funzione di ripartizione verrà esposto nell’ultimo capitolo.

1.5. La struttura di dipendenza

L’analisi dell’andamento di più variabili aleatorie richiede un approfondimento sulla dipendenza tra le stesse. Nell’andamento dei prezzi degli strumenti del mercato è lecito aspettarsi che diversi titoli subiscano variazioni simili in un orizzonte temporale definito; se prendendo come riferimento due azioni notiamo che subiscono variazioni di entità e segno similari, possiamo ipotizzare che tra i due titoli ci sia una certa dipendenza, quindi all’aumentare o al diminuire dell’uno, anche l’altro aumenti o diminuisca di un’entità più o meno corrispondente. Nell’identificazione del VaR, il modo in cui interagiscono i rendimenti dei vari titoli di un portafoglio, gioca un ruolo importante, soprattutto nei metodi che richiedono la costruzione di funzioni di distribuzione sottostanti; difficilmente, infatti, le variabili aleatorie derivanti da movimenti finanziari potranno essere ritenute indipendenti tra loro.

La difficoltà sta nell’individuare una struttura di dipendenza adatta alla descrizione del fenomeno sopra esposto per avere risultati il più possibile attendibili. Nella trattazione di questa tesi, le dipendenze presenti tra i rendimenti verranno definite attraverso due indici: l’indice di correlazione lineare di Pearson e l’indice di concordanza di Kendall. Il primo si adatta maggiormente all’utilizzo nel caso di strutture di dipendenza derivanti dall’ipotesi di distribuzioni multivariate di tipo ellitico (come la normale multivariata). Il secondo si dimostra particolarmente adatto nell’adattamento delle copule ai dati empirici.

1.5.1. L’indice di correlazione lineare

In statistica, l’indice di correlazione di Pearson tra due variabili esprime un’eventuale relazione di linearità tra esse. Questo indice è uno dei più popolari per la facilità del calcolo. La formula analitica è la seguente:

(27)

22

𝜌

𝑋𝑌

=

𝜎𝑋𝑌

𝜎𝑋𝜎𝑌

(18) Dove 𝜎𝑋𝑌 indica la covarianza tra X e Y data da 𝜎𝑋𝑌 = 𝐸[(𝑋𝑌)] − 𝐸[𝑋]𝐸[𝑌], mentre al denominatore troviamo il prodotto tra le deviazioni standard di X e Y. Il coefficiente 𝜌𝑋𝑌 ha come valore minimo -1 e come valore massimo 1, quindi −1 ≤ 𝜌𝑋𝑌 ≤ 1. Il caso 𝜌𝑋𝑌 = 1 rappresenta la perfetta correlazione lineare positiva tra le variabili, mentre il caso 𝜌𝑋𝑌 = −1 indica una correlazione lineare perfettamente negativa; se 𝜌𝑋𝑌 = 0 non vi è alcuna correlazione lineare tra le variabili; va precisato che la mancanza di correlazione non è sinonimo di indipendenza. L’informazione data dall’indice di Pearson è estremamente parziale e poco indicativa in alcuni casi. La correlazione lineare rappresenta solo una delle diverse misure di dipendenza tra variabili aleatorie esistenti e può risultare inadatta in talune situazioni.

L’utilizzo rimane tuttavia valido nel caso in cui si intenda ricavare una struttura di dipendenza tra variabili con distribuzioni congiunte di tipo ellittico. Risulta tuttavia un’ipotesi abbastanza restrittiva dato che in molti casi le variabili aleatorie non seguono questo tipo di distribuzione multivariata e usare l’indice di correlazione lineare può portare a risultati errati o poco attendibili.

Nell’ambito della simulazione Montecarlo verrà utilizzata la matrice dei coefficienti di correlazione che riporta gli indici di correlazione lineare tra i rendimenti di tutti i titoli presenti nel portafoglio. Dato il vettore aleatorio (𝑋1, 𝑋2, … , 𝑋𝑛), la matrice si presenterà in questo modo: R= [ 1 𝜌(𝑋1, 𝑋2) … 𝜌(𝑋1, 𝑋𝑖) 𝜌(𝑋1, 𝑋𝑖+1) … … 𝜌(𝑋1, 𝑋2) 1 … … … … … … … … … 𝜌(𝑋1, 𝑋𝑖) … … 1 𝜌(𝑋𝑖, 𝑋𝑖+1) … 𝜌(𝑋𝑖, 𝑋𝑛) 𝜌(𝑋1, 𝑋𝑖+1) … … 𝜌(𝑋𝑖, 𝑋𝑖+1) 1 … 𝜌(𝑋𝑖+1, 𝑋𝑛) … … … … 𝜌(𝑋1, 𝑋𝑛) … … 𝜌(𝑋𝑖, 𝑋𝑛) 𝜌(𝑋𝑖+1, 𝑋𝑛) … 1 ]

Ai fini della simulazione sarà, inoltre, necessario ricorrere alla decomposizione di Cholesky, trovando l’unica matrice triangolare inferiore A tale che 𝐴𝐴𝑇 = 𝑅. Le matrici 𝐴 𝑒 𝐴𝑇 avranno quindi al seguente formulazione

(28)

23 𝐴 = [ 𝑎11 0 0 … 0 𝑎21 𝑎22 0 … 0 … … … 0 … … … … … 0 𝑎𝑛1 𝑎𝑛2 … … 𝑎𝑛𝑛] 𝐴𝑇 = [ 𝑎11 𝑎21 … … 𝑎𝑛1 0 𝑎22 … … 𝑎𝑛2 0 0 … … … … … 0 … … 0 0 … 0 𝑎𝑛𝑛]

Ponendo 𝐴𝐴𝑇 = 𝑅, troveremo quindi la matrice triangolare inferiore cercata; non espliciterò l’algoritmo utilizzato per trovare ciascun elemento di A, ma nella sezione dedicata all’applicazione della simulazione verranno mostrate le matrici risultanti dai dati empirici.

1.5.2. L’Indice di concordanza di Kendall

Il Tau di Kendall (coefficiente di correlazione di rango di Kendall), indicato con 𝜏, è una misura di dipendenza non lineare tra due variabili aleatorie. Dato un vettore aleatorio (𝑋, 𝑌), siano (𝑥1, 𝑦1) e (𝑥2, 𝑦2) realizzazioni indipendenti estratte da tale vettore; il Tau di Kendall sarà dato da:

𝜏(𝑋, 𝑌) = 𝑃((𝑋1− 𝑋2) ∗ (𝑌1− 𝑌2) > 0) − 𝑃((𝑋1− 𝑋2) ∗ (𝑌1− 𝑌2) < 0) (19) Come si può vedere dalla definizione sopra, il 𝜏 dipende solo dal rango, non importa sapere quale sia l’entità della variazione tra 𝑋1 e 𝑋2, ma solo il segno della stessa. Questa peculiarità rende l’indice di concordanza invariante a qualsiasi trasformazione strettamente crescente (o decrescente) delle due variabili analizzate. Questo sarà particolarmente utile nella metodologia di simulazione tramite copula non gaussiana che verrà utilizzata in seguito.

Avendo un campione di numerosità n estratto dal vettore aleatorio (𝑋, 𝑌), quindi osservazioni (𝑥𝑖, 𝑦𝑖) con 𝑖 = 1,2, … , 𝑛, possiamo ottenere uno stimatore non distorto di 𝜏(𝑋, 𝑌) utilizzando la seguente formula:

𝜏(𝑋, 𝑌) =

𝑐−𝑑

𝑐+𝑑

(20) dove c rappresenta il numero di coppie (𝑥𝑖, 𝑦𝑖) e (𝑥𝑗, 𝑦𝑗), con 𝑖 < 𝑗, concordanti, cioè che rispettano la relazione (𝑥𝑖 − 𝑥𝑗) ∗ (𝑦𝑖 − 𝑦𝑗) > 0; d rappresenta il numero di coppie discordanti, quindi che moltiplicate tra loro diano (𝑥𝑖 − 𝑥𝑗) ∗ (𝑦𝑖 − 𝑦𝑗) < 0. Lo stimatore del Tau quindi non è altro che la differenza tra coppie concordanti e discordanti diviso per il numero totale di coppie tali che (𝑥𝑖− 𝑥𝑗) ∗ (𝑦𝑖 − 𝑦𝑗) ≠ 0. Nella simulazione effettuata, il procedimento tramite il quale è stata ricavata la stima del Tau segue sostanzialmente questa logica e verrà esposto nel capitolo dedicato ai risultati.

(29)

24

Anche per l’indice di concordanza dovremo fare riferimento ad una matrice sostanzialmente identica a quella presentata per l’indice di correlazione, dove, quindi, ciascun elemento corrisponde al valore della dipendenza di rango tra due titoli; la matrice di rango sarà quindi:

𝜏 =

[

1

𝜏

2,1

𝜏

1,𝑖

𝜏

1,𝑛

𝜏

2,1

1

𝜏

2,𝑖

𝜏

𝑛−1,1

1

𝜏

𝑛−1,𝑛

𝜏

𝑛,1

… 𝜏

𝑛,𝑖

𝜏

𝑛,𝑛−1

1 ]

Come già accennato, l’indice di concordanza giocherà un ruolo fondamentale nell’esplicitazione della simulazione multivariata tramite copula; va tuttavia precisato che la matrice esposta sopra non è esattamente quella utilizzata nell’ analisi empirica; verrà infatti applicata una trasformazione allo scopo di approssimare le dipendenze tra titoli a relazioni del tipo parzialmente scambiabile; inoltre è necessario comprendere la relazione che intercorre tra il Tau e il parametro che caratterizza la particolare distribuzione multivariata che andremo a vedere. Sia quest’ultimo argomento sia la parziale scambiabilità verranno dettagliatamente spiegati nel prossimo capitolo dedicato alle copule.

(30)

25

CAPITOLO 2 - LE DISTRIBUZIONI MULTIVARIATE: LA

FUNZIONE COPULA

2.1. Introduzione alle copule

La necessità di comprendere la dipendenza tra le varie componenti di un portafoglio conduce all’interesse riguardo l’analisi multivariata di dati finanziari. In questo ambito, la funzione di distribuzione normale multivariata ha da sempre giocato un ruolo chiave. Nonostante possa risultare un modello conveniente nello studio di casi standard, ipotizzando distribuzioni caratterizzate da un andamento normale, si dimostra poco efficace nel catturare le dipendenze tra variabili in caso di distribuzioni differenti; le difficoltà sono perlopiù legate alla presenza di code pesanti nelle distribuzioni o non linearità della struttura di dipendenza, quindi non esprimibile tramite l’indice di correlazione lineare esposto nel capitolo precedente. L’interesse nei confronti delle copule nasce proprio dal bisogno di catturare la non-linearità della dipendenza tra le variabili.

In statistica una copula è definibile come una funzione utilizzata per caratterizzare una distribuzione multivariata, che descriva i vari tipi di dipendenza tra le variabili aleatorie; inoltre le funzioni copula sono libere dalle limitazioni circa la forma delle singole distribuzioni delle variabili aleatorie che costituiscono la distribuzione congiunta, cosa che invece accade nella normale multivariata. L'approccio alla formulazione di una distribuzione multivariata utilizzando una copula si basa sull'idea che una semplice trasformazione possa essere composta da singole variabili aleatorie e che ogni variabile abbia una propria distribuzione. La struttura di dipendenza può essere poi espressa come una distribuzione multivariata ottenuta sulla base delle distribuzioni delle singole variabili. Tramite la copula è possibile studiare le funzioni di distribuzione congiunte analizzando separatamente la struttura di dipendenza e le distribuzioni marginali dei dati. L’applicazione delle copule per descrivere i fenomeni di dipendenza può portare a risultati più attendibili. L’obiettivo del VaR è quello di calcolare il rischio complessivo di portafoglio tenendo conto delle dipendenze esistenti tra i diversi fattori di rischio. È qui che le copule hanno un ruolo chiave, in quanto essendo distribuzioni che legano tra loro singole funzioni di distribuzione marginali, mantenendo la struttura di dipendenza, permettono di determinare la rischiosità del portafoglio.

(31)

26

In questo capitolo verranno introdotti i teoremi fondamentali per capire cosa sia una funzione copula; in seguito verrà analizzata la famiglia di funzioni utilizzata nella simulazione; quindi verrà ripreso il concetto di Tau per vedere la relazione esistente con il parametro caratterizzante la copula e per introdurre la parziale scambiabilità, la quale sarà, come vedremo, un argomento di rilievo nei risultati ottenuti.

2.2 La funzione di distribuzione multivariata

Prima di introdurre la definizione di copula, è necessario comprendere cosa si intenda per funzione di ripartizione multivariata (o congiunta).

Si consideri un vettore aleatorio 𝑋 = (𝑋1, 𝑋2, … , 𝑋𝑛). La funzione di ripartizione congiunta di tale vettore è definita come:

𝐹(𝑥) = 𝑃(𝑋

1

≤ 𝑥

1

, 𝑋

2

≤ 𝑥

2

, … , 𝑋

𝑛

≤ 𝑋

𝑛

)

(21) La definizione riporta al concetto già espresso per la distribuzione di probabilità univariata, quindi la probabilità che si verifichi l’evento (𝑋1 ≤ 𝑥1, 𝑋2 ≤ 𝑥2, … , 𝑋𝑛 ≤ 𝑋𝑛). Si può distinguere il caso continuo da quello discreto. Nel caso continuo avremo la seguente definizione:

𝐹

𝑋

(𝑋

1

, … , 𝑋

𝑛

) = ∫

−∞𝑥1

… . ∫

−∞𝑥𝑛

𝑓(𝑡

1

, 𝑡

2

, … , 𝑡

𝑛

)

𝑑𝑡

1

𝑑𝑡

2

… 𝑑𝑡

𝑛

(22) Con f(.) funzione di densità di distribuzione congiunta. Nel caso discreto avremo invece:

𝐹

𝑋

(𝑋

1

, … , 𝑋

𝑛

) = ∑

{(𝑋

𝑝(𝑋

1

, 𝑋

2

, … 𝑋

𝑛

)

1,𝑋2,…,𝑋𝑛):𝑋𝑖=𝑥𝑖}

(23) Il concetto introdotto è esprimibile tramite questa semplice definizione:

𝐹

𝑋

(𝑋

1

, … , 𝑋

𝑛

)

indica la probabilità che l’i-esima variabile casuale 𝑋𝑖, con 𝑖 = 1,2, … , 𝑛, assuma valori inferiori inferiori o uguali a 𝑥𝑖.

L’utilità della funzione di ripartizione congiunta deriva dalla necessità di conoscere la probabilità che ciascuna delle variabili considerate cada in un particolare intervallo specifico per quella variabile.

2.3. La funzione copula

Le funzioni copula vennero introdotte per la prima volta da Sklar nel 1959 nel suo articolo “Fonctions de repartition à n dimensions et leurs marges”. Come già brevemente spiegato nell’introduzione del capitolo, le copule sono funzioni che mostrano la relazione esistente tra funzioni di distribuzioni multivariate e le funzioni di distribuzione delle singole variabili; la particolarità sta nel fatto che la famiglia di appartenenza delle

(32)

27

marginali non ha particolare importanza, infatti, la struttura di dipendenza tra le variabili viene mantenuta nella distribuzione congiunta.

2.3.1 Definizione

La prima definizione che esporrò riguarda le copule bivariate, riferita a vettori aleatori a due dimensioni.

Una copula bidimensionale è una funzione di distribuzione C: [0,1]2 → [0,1]

distribuzioni marginali uniformi in (0,1) tale che soddisfi le seguenti proprietà: I. Per ogni [𝑢, 𝑣] ∈ [0,1] , 𝐶(𝑢, 0) = 𝐶(1, 𝑣) = 0

II. Per ogni [𝑢, 𝑣] ∈ [0,1], 𝐶(𝑢, 1) = 𝑢 𝑒 𝐶(1, 𝑣) = 𝑣

III. Per ogni 𝑢1, 𝑢2, 𝑣1, 𝑣2 ∈ [0,1], con 𝑢1 ≤ 𝑣2 e 𝑣1 ≤ 𝑢2 si abbia

𝐶(𝑣1, 𝑣2) − 𝐶(𝑢1, 𝑣2) − 𝐶(𝑣1, 𝑢2) + 𝐶(𝑢1, 𝑢2) ≥ 0

La definizione di copula n-dimensionale non presenta particolari differenze per quanto riguarda le prime 2 proprietà, mentre per quanto riguarda la terza è necessaria una spiegazione più dettagliata; le precisazioni da fare sono:

I. Se dato 𝑢 = (𝑢1, 𝑢2, … , 𝑢𝑛) esiste almeno un 𝑖 = 1,2, … , 𝑛 tale che 𝑢𝑖 = 0 allora 𝐶(𝑢) = 0.

II. Se dato 𝑢 = (𝑢1, 𝑢2, … , 𝑢𝑛) con tutti elementi uguali ad 1 tranne 𝑢𝑖 ≠ 1 allora 𝐶(𝑢) = 𝑢𝑖.

III. Ad ogni 𝑢, 𝑣 ⊂ [0,1]𝑛, con 𝑢

𝑖 ≤ 𝑣𝑖 per 𝑖 = 1,2, … , 𝑛, si fa corrispondere

l’iperparallelepipedo [𝑢, 𝑣] ⊂ [0,1]𝑛 ad esso C associa un valore non negativo 𝑃𝑐[(𝑢, 𝑣)] col metodo delle somme alternate. In sostanza, si considerano i 2𝑛 addendi che si possono ottenere considerando ogni 𝑢𝑖, 𝑣𝑖 e ogni addendo sarà preceduto dal segno + o – a seconda che il numero di componenti 𝑢𝑖 sia pari o dispari.

Queste proprietà sono comuni a qualsiasi tipo di copula, e descrivono i principali motivi per cui esse sono definibili come distribuzioni di probabilità congiunte con marginali in

[0.1]. Vediamo ora uno dei teoremi fondamentali per la teoria delle copule, il teorema di

(33)

28 2.3.2 Il teorema di Sklar

Il teorema di Sklar risulta essere fondamentale per mettere in relazione la funzione di ripartizione di una distribuzione multivariata alle funzioni di ripartizione delle distribuzioni univariate delle singole variabili aleatorie.

Teorema. Siano 𝑋1, 𝑋2, … , 𝑋𝑛 variabili aleatorie con funzioni di ripartizione 𝐹1, 𝐹2, … , 𝐹𝑛

e funzione di ripartizione congiunta 𝐹. Allora esiste una copula unica 𝐶 tale che ∀𝑥 = (𝑥1, 𝑥2, … , 𝑥𝑛) ∈ ℝ𝑛:

𝐹(𝑥

1

, 𝑥

2

, … , 𝑥

𝑛

) = 𝐶(𝐹

1

(𝑥

1

), 𝐹

2

(𝑥

2

), … , 𝐹

𝑛

(𝑥

𝑛

))

(24)

Se le funzioni di ripartizione marginali sono continue, inoltre, la copula è unica. Il teorema

assicura che, date delle variabili aleatorie continue, le marginali univariate e la struttura di dipendenza possano essere separate e che la copula descriva completamente la struttura di dipendenza esistente. Utilizzando la formula (24) possiamo ora costruire una funzione congiunta a nostra scelta partendo dalle marginali 𝐹1, 𝐹2, … , 𝐹𝑛 , 𝐹 e applicando una copula tra quelle conosciute: il primo passo fissa le distribuzioni marginali univariate e il secondo permette l’associazione delle marginali con un predeterminato livello di dipendenza grazie alla copula C; vedremo in seguito quale utilizzeremo nella simulazione.

Il teorema può essere inoltre presentato partendo da una funzione di ripartizione congiunta e funzioni inverse delle singole funzioni di ripartizione, quindi in relazione ai quantili.

Var. Teorema 1. Dati 𝐹1, 𝐹2, … , 𝐹𝑛 , 𝐹𝑒 𝐶 definiti come nel teorema precedente. Dato il

vettore aleatorio 𝑢 = (𝑢1, 𝑢2, … , 𝑢𝑛) ∈ [0,1]𝑛 con marginali uniformi in [0,1], allora:

𝐶(𝑢) = 𝐹(𝐹

1−1

(𝑢

1

), 𝐹

2−1

(𝑢

2

), … , 𝐹

𝑛−1

(𝑢

𝑛

))

(25) 𝐹𝑖−1indica l’inversa della funzione 𝐹𝑖, ed è proprio in questa definizione che la continuità delle funzioni di ripartizione univariate diviene indispensabile. La copula del vettore aleatorio X sarà quella data dall’equazione sopra. La formula (25) permette la costruzione della copula da qualsiasi distribuzione congiunta con marginali 𝐹1, 𝐹2, … , 𝐹𝑛 , 𝐹.

Dal teorema di Sklar, quindi, si ottiene un risultato fondamentale: con la combinazione di una copula e distribuzioni marginali univariate ricaviamo una distribuzione multivariata; inoltre, anche disponendo di distribuzioni univariate, la possibilità di scegliere tra diverse strutture di dipendenza, consente un’ampia gamma di possibili risultanti; come vedremo, infatti, la funzione copula, almeno per quanto riguarda il caso particolare che analizzaremo, dipende da un certo parametro, il quale indica la relazione tra le diverse variabili, e porta a funzioni di ripartizione congiunte differenti.

Per giungere alla modellizzazione multivariata, dunque, avremo bisogno di identificare le distribuzioni marginali univariate, che abbiamo introdotto nel primo capitolo, e di una

Riferimenti

Documenti correlati

In caso positivo esprimere tale combinazione lineare (nella forma pi` u generale

5 Opinione di esperti senza valutazione critica esplicita o basata su fisiologia, ricerca comparata o principi di fisiopatologia. Opinione di esperti senza valutazione

• assume al massimo il valore 1 in caso di massima correlazione lineare positiva, che si ha quando i punti dello scatterplot sono tutti esattamente disposti su una retta

Nei due mesi successivi il riscontro di frequenti ipoglicemie, insorgenti durante il corso di tutta la giornata, ci spingeva dapprima alla sospensione della somministrazione

L’obiettivo del nostro studio è di studiare la possibile associazione della neuropatia diabetica con l’obesità, in partico- lare addominale, valutata mediante la misura

Tali interventi ebbero però un successo solo parziale: come apprendiamo da una serie di lettere diramate da Genova il 10 febbraio 1459, la corte inglese accettò infine di

La situazione limite di perfetta dipendenza in media della Y dalla X si ha quando le k varianze condizionate s 2 y|c j sono nulle, perché in questo caso la

A tale scopo sono state prese in esame 57 cagne presentatesi alla visita clinica per problematiche indipendenti dalle valutazioni del nostro studio.. Di queste, 27