• Non ci sono risultati.

2.4 Le misure di rischio entropiche

2.4.3 Entropic Value-at-Risk

Partendo da concetti strettamente legati alla fisica e alle scienze naturali si è così assistito negli ultimi anni ad un mutamento del panorama finanziario. Il

concetto di entropia, dunque, seppur concepito nel mondo della fisica, è stato esteso alla teoria dell’informazione (Shannon, 1948) dove misura l’ammontare medio di informazione prodotta stocasticamente da una determinata fonte.

A tal proposito, sono state introdotte ulteriori estensioni e generalizzazioni di questa nozione di entropia e la più nota va sotto il nome di entropia di Rényi

(Rényi, 1961). Essa quantifica la diversità, l’incertezza e l’imprevedibilità di un sistema. Rényi definì inoltre una gamma di misure che generalizzano la

divergenza di Kullback-Leibler, chiamata anche entropia relativa, che misura la distanza che vi è tra due distribuzioni di probabilità. In altri termini descrive la perdita di informazione quando si considera erroneamente una distribuzione g

mentre la distribuzione corretta da considerare è la f.

35 È stato un fisico, matematico e filosofo austriaco del XIX secolo. È stato uno dei più

grandi fisici teorici di tutti i tempi. La sua fama è dovuta alle ricerche in termodinamica e meccanica statistica (l'equazione fondamentale della teoria cinetica dei gas e il secondo principio della termodinamica).

36 In meccanica statistica l’entropia serve ad ottenere informazioni macroscopiche su

determinate grandezze, come pressione e temperatura, a partire dalle configurazioni microscopiche. Si immagina che a una certa condizione macroscopica di equilibrio del sistema (macrostato o stato termodinamico del sistema) corrispondano diverse configurazioni microscopiche (stati dinamici o microstati, definiti solo se si conoscono posizione e velocità di tutte le molecole del sistema). Tali configurazioni microscopiche occupano un volume nello spazio delle fasi indicato con la lettera 𝑊. Allora possiamo definire l’entropia (𝑆) secondo il principio di Boltzmann come: 𝑆 = 𝑘 ln 𝑊, dove 𝑘 è la costante di Boltzmann e 𝑊 può essere meglio definita come la misura dell'insieme di tutte le possibili disposizioni (o probabilità a livello macroscopico) dei livelli molecolari e quindi il numero di stati totali accessibili al sistema ad una certa temperatura.

80

L’entropia relativa risulta quindi essere una nozione fondamentale ai fini del presente lavoro, in quanto la misura di rischio che si illustrerà di seguito è

strettamente legata ai concetti che si sono descritti in questo paragrafo.

Si è già visto come l’Expected Shortfall, chiamato anche CVaR, sia una misura di rischio coerente che ha guadagnato negli ultimi anni molta popolarità,

superando i più significativi difetti del Value-at-Risk. Un grande limite del CVaR, però, è la sua mancata efficienza computazionale: la grandezza e la

complessità del problema di ottimizzazione è strettamente dipendente dalla grandezza del campione di dati a disposizione, in quanto un grande campione comporta un gran dispendio di tempo computazionale. Il bisogno di una

misura di rischio coerente ed efficiente dal punto di vista computazionale è ancora più marcato quando tale misura è incorporata in un problema di

programmazione stocastica che necessita di essere risolto frequentemente.

Una misura di rischio innovativa, entropica e coerente che presenta notevoli vantaggi computazionali è stata introdotta da Amir Ahmadi-Javid (2012) e va sotto il nome di Entropic Value-at-Risk (EVaR). Dal nome si può già intuire il

legame che questa misura ha con il VaR e con l’entropia relativa.

Prima di illustrare la relativa formalizzazione, è opportuno soffermarci sulla

notazione che verrà usata di seguito. Innanzitutto va specificato che generalmente le misure entropiche dipendono dall’avversione al rischio dello

specifico individuo e noi indicheremo il grado di avversione con il parametro 𝑧 che per definizione è una quantità sempre positiva. Si può così ben

comprendere l’importanza di tale parametro in quanto queste misure, ceteris paribus, forniscono risultati diversi a seconda dell’attitudine al rischio del singolo individuo.

81

Si indicherà poi con 𝑳𝑀+ l’insieme di tutte le funzioni misurabili boreliane37

𝑋: Ω38→ ℝ, la cui funzione generatrice dei momenti39 𝑀

𝑋(𝑧) = 𝔼(𝑒𝑧𝑋) esiste per

ogni 𝑧 ≥ 0.

L’EVaR risulta essere il minor limite superiore ottenuto dalla disuguaglianza di Chernoff per il VaR e per il CVaR agli stessi livelli di confidenza, con 𝑋 ∈ 𝑳𝑀+ e

per ogni 𝛼 ∈ (0; 1]. Tale disuguaglianza è cruciale ai fini della costruzione di questa misura di rischio e verrà illustrata successivamente. Vale perciò la seguente relazione:

𝑉𝑎𝑅1−𝛼(𝑋) ≤ 𝐶𝑉𝑎𝑅1−𝛼(𝑋) ≤ 𝐸𝑉𝑎𝑅1−𝛼(𝑋).

Si può così intuire come l’EVaR sia una misura più cauta rispetto al CVaR allo

stesso livello di confidenza, poiché fornisce dei valori più elevati e quindi più prudenti. Ciò fa ben comprendere come un’istituzione finanziaria che adotti

l’EVaR all’interno del sistema di risk management debba allocare più risorse e quindi più capitale per proteggersi del rischio. Questo è per di più un aspetto che deve essere tenuto in considerazione dalla singola impresa: infatti l’EVaR

può essere giudicato meno attraente da imprese che vogliono allocare un ammontare di risorse quanto più contenuto possibile.

37 La σ-algebra di Borel è la più piccola σ-algebra su un insieme dotato di struttura

topologica che sia compatibile con la topologia stessa, ovvero che contenga tutti gli aperti della topologia. Lo spazio misurabile così definito prende il nome di spazio boreliano, gli insiemi contenuti nella σ-algebra di Borel sono detti insiemi boreliani e una misura definita su una σ-algebra di Borel è detta misura di Borel. La σ-algebra su un certo insieme invece è una famiglia di sottoinsiemi con proprietà di chiusura rispetto ad alcune operazioni insiemistiche.

38 Ω è l’insieme di tutti gli eventi elementari.

39 La funzione generatrice dei momenti viene usata in statistica per caratterizzare in

modo astratto le variabili casuali permettendo da un lato di estrarne agevolmente alcuni parametri (come il valore atteso e la varianza) e dall'altro di confrontare due diverse variabili casuali e vedere il loro comportamento in condizioni limite.

82

Per ciascuna costante 𝑎 e con 𝑋 ∈ 𝑳𝑀+ la disuguaglianza di Chernoff è la seguente:

Pr(𝑋 ≥ 𝑎) = Pr(𝑒𝑧𝑋 ≥ 𝑒𝑧𝑎) ≤ 𝑒−𝑧𝑎 𝑀𝑋(𝑧), ∀𝑧 > 0.

Nella teoria della probabilità la disuguaglianza di Chernoff fornisce il limite

superiore ed inferiore nella distribuzione di probabilità cumulata della somma di variabili casuali indipendenti. Questa disuguaglianza può assumere diverse

formulazioni, a seconda delle ipotesi distributive poste alla base del modello e nel nostro caso si assume il caso più generale che prescinde dalla forma distributiva. La formulazione in questione viene ricavata analiticamente dalla

disuguaglianza di Markov, che fornisce il limite superiore della probabilità che una variabile casuale sia maggiore o uguale ad una costante positiva, e in

termini analitici è la seguente:

Pr(𝑋 ≥ 𝑎) ≤𝔼(𝑋)

𝑎 , ∀𝑎 > 0.

Markov riuscì così a legare il concetto di probabilità con quello di valore atteso

e a fornire un limite superiore nella funzione di distribuzione di probabilità cumulata di una generica variabile casuale.

Si osservi ora che il termine Pr(𝑋 ≥ 𝑎) può essere scritto in maniera equivalente come Pr(𝑒𝑧𝑋 ≥ 𝑒𝑧𝑎) e applicando a quest’ultimo la relazione di Markov si

ottiene la seguente disuguaglianza:

Pr(𝑋 ≥ 𝑎) = Pr(𝑒𝑧𝑋 ≥ 𝑒𝑧𝑎) ≤ 𝔼(𝑒

𝑧𝑋)

𝑒𝑧𝑎 .

Si noti che il termine a destra della disuguaglianza coincide con 𝑒−𝑧𝑎 𝑀𝑋(𝑧), in

quanto per definizione al numeratore compare la funzione generatrice dei momenti ed il termine al denominatore può essere portato al numeratore dopo

83

che si è invertito il segno dell’esponente. Con questi semplici passaggi matematici siamo così giunti alla formulazione della disuguaglianza di

Chernoff partendo dalla disuguaglianza di Markov.

La relazione proposta da Chernoff è cruciale per la presenza al suo interno della

funzione generatrice dei momenti di cui è parlato poco sopra. È proprio grazie a questa funzione che all’interno della formulazione vi sono racchiuse tutte le

informazioni relative ai singoli momenti della distribuzione di probabilità. Questo risulta estremamente utile in quanto i momenti contengono importanti

informazioni sulla distribuzione stessa.

Risolvendo l’equazione 𝑒−𝑧𝑎 𝑀𝑋(𝑧) = 𝛼 rispetto ad 𝑎 con 𝛼 ∈ (0; 1], si ottiene:

𝑎𝑋(𝛼, 𝑧) = 𝑧−1ln (

𝑀𝑋(𝑧) 𝛼 ).

Possiamo ora riscrivere la disuguaglianza di Chernoff come:

Pr(𝑋 ≥ 𝑎𝑋(𝛼, 𝑧)) ≤ 𝛼.

Si noti così che per ogni 𝑧 > 0, 𝑎𝑋(𝛼, 𝑧) è un limite superiore per 𝑉𝑎𝑅1−𝛼(𝑋).

Consideriamo ora il minor limite superiore di questo tipo come nuova misura di rischio che vincoli il 𝑉𝑎𝑅1−𝛼(𝑋) servendosi della funzione generatrice dei

momenti40. A questo punto, effettuate queste premesse, possiamo definire formalmente l’Entropic Value-at-Risk.

40 Risulta utile evidenziare la differenza tra la funzione generatrice dei momenti, di cui

si è parlato precedentemente, e i momenti semplici, che possono essere derivati dalla funzione generatrice. Nel caso di distribuzioni discrete il momento semplice di origine

84

L’EVaR di una variabile casuale 𝑋 ∈ 𝑳𝑀+ con un livello di confidenza (1 − 𝛼) è definito come: 𝐸𝑉𝑎𝑅1−𝛼(𝑋) ≝ inf 𝑧>0{𝑎𝑋(𝛼, 𝑧)} = inf𝑧>0{𝑧 −1ln (𝑀𝑋(𝑧) 𝛼 )} = inf𝑧>0{𝑧 −1ln (𝔼(𝑒 𝑧𝑋) 𝛼 )} .

Il coefficiente di avversione al rischio 𝑧 rende questa misura di rischio adattabile

a tutte le tipologie di individui, a seconda della loro predisposizione al rischio. Si noti, ad esempio, che più basso è il valore di 𝑧 più l’EVaR fornisce dei valori bassi, poiché nel caso in esame gli individui sono più disposti a rischiare e

quindi percepiscono un rischio più contenuto. Il contrario avviene, invece, se viene posto un valore sufficientemente elevato di 𝑧, in quanto in questo caso la

percezione soggettiva del rischio da parte degli individui è maggiore e quindi minore è la loro predisposizione a rischiare.

L’EVaR può essere anche descritto mediante la cosiddetta rappresentazione duale41 o robusta, che mette in luce la relazione tra questa misura e l’entropia relativa nella forma della divergenza di Kullback-Leibler. La rappresentazione duale dell’EVaR è la seguente:

𝐸𝑉𝑎𝑅1−𝛼(𝑋) = sup

𝑄𝜖ℑ

𝐸𝑄(𝑋),

dove 𝑋 ∈ 𝑳𝑀42 e ℑ è l’insieme delle misure di probabilità e in termini formali è

pari a:

ℑ = {𝑄 ≪ 𝑃: 𝐷𝐾𝐿(𝑄||𝑃) ≤ − ln 𝑎}.

𝐷𝐾𝐿(𝑄||𝑃) è l’entropia relativa di 𝑄 rispetto a 𝑃, ossia la divergenza di Kullback- Leibler. La rappresentazione duale dell’EVaR mette in luce, dunque, il legame

41 Per approfondimenti sulla rappresentazione duale si rimanda a quanto scritto in

Ahmadi-Javid (2012).

42 Con 𝑳𝑀 si intende l’insieme di tutte le funzioni misurabili boreliane 𝑋: Ω → ℝ, la cui

85

di questa misura di rischio con la mancanza di informazione misurata dall’entropia relativa.

Va sottolineato poi che tale misura di rischio presenta notevoli vantaggi rispetto

alle misure illustrate precedentemente. Innanzitutto, come è già stato accennato, un’ottimizzazione di portafoglio basata sull’approccio dell’EVaR presenta

maggiori vantaggi computazionali rispetto ad un approccio basato sul CVaR, in particolare se si aumenta la numerosità campionaria.

L’EVaR è inoltre una misura coerente per ogni 𝛼 ∈ (0; 1] e, a differenza del VaR

e del CVaR, è una funzione strettamente monotona in tutto il suo dominio, rispetto all’insieme delle variabili casuali continue che la costituiscono. La

ragione per cui il CVaR non gode della proprietà di forte monotonicità è che tale misura di rischio considera solo le perdite superiori alla soglia data dal VaR e non tiene minimamente in considerazione quelle minori. L’EVaR invece tiene

conto simultaneamente sia delle perdite inferiori che di quelle superiori, focalizzandosi sull’intera distribuzione di probabilità dei rendimenti. Questo è

il motivo per cui l’EVaR è sempre maggiore del CVaR allo stesso livello di confidenza.

È stato dimostrato, inoltre, che se due distribuzioni di probabilità hanno lo stesso EVaR a tutti i livelli di confidenza, allora sono perfettamente identiche

dato che hanno la stessa funzione generatrice dei momenti. Questo è un ulteriore vantaggio che rende l’EVaR una misura di rischio sicuramente più “completa” ed affidabile rispetto ad altre misure come ad esempio il Value-at-

Risk43.

L’EVaR è infine cruciale ai fini della risoluzione di problemi di

programmazione stocastica dove le variabili casuali seguono distribuzioni indipendenti ed arbitrarie oppure quando seguono un modello multifattoriale

43 Uno dei problemi del Value-at-Risk è che si può avere lo stesso VaR a tutti i livelli di

86

lineare generalizzato44: in questi casi infatti il problema risulta estremamente complesso e non può essere risolto efficacemente ed efficientemente con le altre

misure di rischio viste in precedenza.

44 I modelli lineari generalizzati (GLM) sono una generalizzazione del modello lineare

nell'ambito della regressione lineare. Mentre nel modello lineare classico si ipotizza che la variabile dipendente (endogena) sia distribuita in modo normale, nell'ambito dei modelli lineari generalizzati la variabile endogena può essere distribuita come una qualsiasi variabile casuale della famiglia esponenziale come ad esempio la normale, la binomiale, la poissoniana, la gamma e la normale inversa. Se un modello presenta due o più variabili esplicative (esogene) allora prende il nome di modello multifattoriale.

87

CAPITOLO 3

UN MODELLO DI SELEZIONE DI

PORTAFOGLIO

Documenti correlati