• Non ci sono risultati.

Attese non lineari e calcolo stocastico sotto incertezza

N/A
N/A
Protected

Academic year: 2021

Condividi "Attese non lineari e calcolo stocastico sotto incertezza"

Copied!
84
0
0

Testo completo

(1)

POLITECNICO DI MILANO

Facolt`

a di Ingegneria dei Sistemi

Corso di Studi in INGEGNERIA

MATEMATICA

TESI DI SECONDO LIVELLO

Attese non lineari e calcolo stocastico

sotto incertezza

Nicola Raimondi 740023

(2)
(3)

Indice

0.1 Introduzione . . . 4

0.2 Ringraziamenti . . . 7

1 Cap. introduttivo 9 1.1 Convergenza di leggi di probabilit`a e di variabili aleatorie . . . . 9

1.2 Teorema di Hahn-Banach . . . 10

1.3 Teorema di Daniell-Stone . . . 11

1.4 Definizione di soluzioni viscose . . . 12

1.5 Stima di regolarit`a di Krylov su EDP paraboliche. . . 14

2 Attesa Sublineare 17 2.1 Attesa sublineare e spazi di attesa sublineare . . . 17

2.2 Rappresentazione di attesa sublineare . . . 21

2.3 Distribuzione, indipendenza e spazi prodotto . . . 24

3 Misure di rischio coerenti 29 3.1 Definizione di rischio e di misura coerente . . . 29

3.2 Il VaR: Value at Risk . . . 35

4 LGN e TCL 39 4.1 Distribuzione massimale e distribuzione G-Normale . . . . 39

4.2 Esistenza di Variabili casuali G-distribuite . . . 47

4.3 Legge dei Grandi Numeri e Teorema Centrale del Limite . . . 51

5 Moto G-Browniano e Int. Itˆo 1-dim 59 5.1 Moto G-Browniano 1-dimensionale . . . . 59

5.2 Esistenza del Moto G-Browniano . . . . 62

5.3 Spazi completi di attese sublineari . . . 66

5.4 Moto G-Browniano e Int. Itˆo 1-dim . . . 67

5.5 Integrale di Itˆo di un Moto G-Browniano. . . . 69

5.6 La distribuzione del processo hBit . . . 75

5.7 Formula di Itˆo per un G-Moto Browniano . . . 79

Riferimenti Bibliografici 83

(4)

0.1

Introduzione

In questa tesi abbiamo approfondito i recenti sviluppi dei modelli di probabilit`a sotto incertezza basati sulla nozione di attesa nonlineare e in particolare di attesa sublineare, studiata da Peng negli ultimi dieci anni (si veda [18], [19] e [20]).

Un’attesa nonlineare E `e un funzionale monotono che preserva le costanti definito su uno spazio lineare di variabili aleatorie. Ci siamo occupati essen-zialmente delle attese sublineari ossia dei funzionali E tali che E[X + Y ] ≤ E[X] + E[Y ] per tutte le variabili aleatorie X e Y e E[λX] = λE[X] per λ ≥ 0. In statistica ed economia questo tipo di funzionali sono stati studiati in modo approfondito da Williams e Huber ed in seguito esplorati in modo sistematico da Walley in termini di probabilit`a indeterminate, estremi superiori di attese e previsioni coerenti.

Un’attesa sublineare E pu`o essere rappresentata come estremo superiore di un sottoinsieme di attese lineari {Eθ: θ ∈ Θ}. In molti casi questo sottoinsieme

`e spesso trattato come un modello di incertezza di probabilit`a {Pθ: θ ∈ Θ} e la

nozione di attesa sublineare fornisce uno strumento robusto, elegante e flessiblie, per misurare il rischio di perdita X.

Una parte importante della tesi `e dedicata alla presentazione della legge dei grandi numeri (LGN) e del teorema del limite centrale (TCL) valido sotto attese sublineari. La legge dei grandi numeri (LGN) e il teorema centrale del limite (TCL) classici sono ampiamente usati in teoria della probabilit`a, in statistica, analisi dei dati come pure in molte situazoni pratiche nell’ambito della finan-za, come il pricing di opzioni ed il risk management. Tali teoremi spiegano in modo forte e convincente perch`e in pratica le distribuzioni normali sono cos`ı fre-quentemente utilizzate. Spesso per`o la condizione che le variabili aleatorie siano indipendenti e identicamente distribuite (i.i.d), non `e soddisfatta. In pratica per processi a tempo reale e dati per cui i classici campionamenti risultano im-possibili, l’incertezza delle probabilit`a e delle distribuzioni non possono essere trascurate.

Il teorema centrale del limite proposto non necessita di questa ipotesi forte di indipendenza e uguale distribuzione. Invece di fissare una misura di probabilit`a

P , si introduce un sottoinsieme di incertezza di misure di probabilit`a {Pθ: θ ∈

Θ} e si considera la corrispondente attesa sublineare E[X] = sup

θ∈Θ

Eθ[X]. Le

principali ipotesi diventano pertanto:

1. La distribuzione di Xi sta in un insieme di distribuzioni {Fθ: θ ∈ Θ} con

¯

µ = E[Xi] ≥ −E[−Xi] = µ;

2. Ogni possibile realizzazione di X1, · · · , Xn non cambia l’incertezza della

distribuzione di Xn+1.

Sotto l’attesa E, X1, X2, · · · , Xn sono identicamente distribuite se `e

sod-disfatta la (1), mentre Xn+1 `e indipendente da X1, · · · , Xn se `e valida la

con-dizione (2); sotto queste ipotesi -che possiamo dire di indipendenza e identica distribuzione `‘deboli”- si dimostra che per ogni funzione continua a crescita lineare ϕ, vale la seguente LGN:

(5)

0.1. INTRODUZIONE 5

lim

n→+∞E[ϕ(

Sn

n )] = supµ≤v≤¯µϕ(v).

In altre parole il sottoinsieme di incertezza della distribuzione di Sn

n si pu`o

approssimare a un sottoinsieme di una misura di Dirac {δv : µ ≤ v ≤ ¯µ}. In

particolare, se µ = ¯µ = 0, allora Sn

n converge in legge a 0. In questo caso, se

assumiamo, inoltre, che ¯σ2= E[X2

i] e σ2 = −E[−Xi2], i = 1, 2, · · · , allora si ha

la seguente generalizzazione del TCL: lim

n→+∞E[ϕ(

Sn

n)] = E[ϕ(X)].

Si dice allora che la variabile aleatoria X ha distribuzione G-Normale e viene denotata come N ({0}×[σ2, ¯σ2]). Il valore E[ϕ(X)] pu`o esser calcolato definendo

u(t, x) := E[ϕ(x +√tX)]. La funzione u risulta essere soluzione dell’equazione

alle derivate parziali (EDP) ∂tu = G(uxx) con G(a) := 12σ2a+− σ2a−). I

risultati ottenuti mostrano una profonda ed essenziale relazione tra la teoria della probabilit`a e della statistica matematica sotto incertezza e le equazioni Hamilton-Jacobi-Bellman paraboliche del secondo ordine fully nonlinear. Si hanno anche due interessanti situazioni: quando ϕ `e convessa, allora

E[ϕ(X)] = 1 2π¯σ2 Z +∞ −∞ ϕ(x) exp(− x2 2¯σ2)dx.

Nel caso in cui ϕ sia concava, ¯σ2verr`a sostituita da σ2. Se ¯σ = σ = σ, allora

N ({0} × [σ2, ¯σ2]) = N (0, σ2), che rappresenta la classica distribuzione normale.

Grazie a questi risultati molti traders e operatori in mercati finanzaiari pos-sono utilizzare distribuzioni normali senza effettuare una vera analisi dei dati. In molte sitauzioni tipiche, infatti, E(ϕ(X) pu`o essere calcolata usando una distribuzione normale con un’opportuna scelta di parametri.

Le distribuzioni G-normali sono state introdotte inizialmente da Peng ([15], [16], [17]) per un nuovo tipo di moto Browniano e il relativo calcolo dell’integrale di Itˆo. La teoria dell’incertezza in statistica, le misure di rischio e il superhedging in finanza (si vedano [1], [8]) sono solo i principali ambiti di applicazione di questo nuovo tipo di attese sublineari.

La teoria delle EDP fully non linear di tipo parabolico gioca un ruolo es-senziale nella dimostrazione dei nuovi risultati della LGN e del TCL. Nel caso classico l’EDP corrispondente diventa un’equazione del calore.

`

E interessante notare che la dimostrazione del TCL sotto attese sublineare permette di provare in modo alternativo e originale il TCL della toria classica. Una volta introdotta la nozione di distribuzione G-normale ci siamo occu-pati di definire e studiare il Moto G-Browniano (Bt)t≥0 che essenzialmente `e

un processo continuo con incrementi indipendenti e stazionari sotto una data attesa sublineare E. Il Moto G-Browniano ha una struttura molto ricca ed in-teressante; non risulta, infatti, essere una banale generalizzazione di quella del Moto Browiano classico. Ci siamo infine occupati del calcolo stocastico sotto incertezza con particolare attenzione al G-integrale di Ito e al relativo processo di variazione quadratica hBi. Quest’ultimo `e anch’esso un processo continuo con incrementi stazionari ed indipendenti e pu`o essere cos`ı visto come un Moto Browniano. Infine abbiamo studiato la G-formula di Ito.

(6)

La tesi si basa su un’attenta e approfondita lettura dell’articolo di Peng [19] ed `e organizzata nel modo seguente.

Nel Capitolo 1 sono introdotti concetti standard e risultati di base di teo-ria della probabilit`a e di analisi funzionale, che verrano utilizzati nei capitoli seguenti. Nell’ultima parte del capitolo richiamiamo la nozione di soluzione vis-cosa per equazioni alle derivate parziali di tipo parabolico. Sono riportati anche alcuni risultati di regolarit`a per EDP fully nonlinear di tipo parabolico.

Nel Capitolo 2 sono introdotte le attese sublineari. Sono esposte le nozioni di base, le propriet`a fondamentali, il teorema di rappresentazione di attesa sublin-eare (Teorema 2.2.1) nonch`e i concetti di funzione di distribuzione di variabili aleatorie e di indipendenza sotto attese sublineari.

Un’applicazione interessante dell’ attesa sublineare `e sviluppata nel Capitolo 3 dedicato alle misure di rischio coerenti. Seguendo l’idee sviluppate da Artzner e Delbaen in [1], [7], sono illustrati alcuni requisiti fondamentali caratterizzanti tali misure. Inoltre `e mostrato che possono essere definite a partire dalle attese sublineari.

Si `e analizzato inoltre il problema di quantificare il rischio di una posizione finanziaria; dopo aver ricordato le caratteristiche e propriet`a pi`u importanti, viene introdotta la principale applicazione di misura di rischio utilizzata in fi-nanza, il VaR (si veda la [3]), ovvero, una misura della perdita potenziale di un portafoglio in un certo intervallo di tempo. Il VaR rappresenta, quindi, l’obiet-tivo di racchiudere in un solo numero, il rischio complessivo di un portafoglio di attivit`a finanziarie. Si `e arrivati a concludere che non `e una misura di ris-chio coerente, in quanto non risulta essere subadditivo, che `e una condizione necessaria (si veda la [21]).

Nel Capitolo 4 `e definita una nuova nozione di distribuzione normale sotto attesa sublineare e sono presentati gli importanti risultati della Legge dei Grandi Numeri e del Teorema Centrale del Limite sotto attese sublineari.

La relativa nozione di Moto Browniano sotto attesa sublineare `e definita nel Capitolo 5. Limitandoci al caso 1-dimensionale si sono studiate le pi`u importanti propriet`a di questo processo. Sono, inoltre, introdotti i primi fondamentali elementi di calcolo stocastico sotto incertezza: l’integrale stocastico e la formula di Ito.

(7)

0.2. RINGRAZIAMENTI 7

0.2

Ringraziamenti

Il primo ringraziamento per questo elaborato non pu`o che essere diretto alla professoressa Fulvia Confortola che, nonostante sia stato il suo primo studente da seguire, la distanza oceanica che ci ha separato per un certo periodo e il lavoro che ultimamente occupava la maggior parte del mio tempo, mi ha assistito pazientemente mettendo a mia disposizione tutte le sue conoscenze e tutta la sua passione . La ringrazier`o sempre perch`e mi ha spronato a credere nel mio lavoro e nelle mie capacit`a anche nei momenti pi`u difficili.

Non potrei che ringraziare tutti i miei colleghi del corso di Ing. Mtm, com-pagni di questo viaggio che `e giunto al termine, in particolar modo Enrico e Davide con i quali sono sicuro la nostra amicizia continuer`a anche in futuro. Se per Enrico questi anni sono stati la continuazione e il rafforzamento dei quattro anni passati insieme al liceo, in Davide ho trovato una persona valida, sincera e solidale, con la quale potevo discutere ogni mattina di cosa avveniva la notte precedente. Entrambi sono stati sempre dei veri punti di riferimento, senza i quali non so come sarebbe andata questa avventura.

Un grazie particolare va ai miei genitori e i miei nonni per tutti i sacrifici che hanno fatto in questi anni con il solo desiderio di aiutarmi e rendermi la vita pi`u agevole. Sono sicuro che di averli ripagati e di renderli felici e orgogliosi per tutto quello che ho fatto.

Un ultimo grazie non pu`o che andare ai miei amici, sia quelli dello Chalet, che quelli di Piacenza, che in tutti questi anni mi sono stati sempre vicino e hanno sempre trovato il modo di farmi sorridere anche nei momenti pi`u delicati.

(8)
(9)

Capitolo

1

Capitolo Introduttivo

Nell’elaborazione di questa tesi sono stati utilizzati vari teoremi e definizioni ap-partenenti a vari campi dell’analisi matematica e, per facilitare la comprensione al lettore vengono raccolti in questo capitolo introduttivo.

1.1

Convergenza di leggi di probabilit`

a e di

vari-abili aleatorie

Nel Capitolo 2 vengono utilizzate le principali convergenze di leggi di prob-abilit`a e di variabili aleatorie, che verranno enunciate in breve, facendo riferi-mento a [25] e [2].

In questa sezione (E, β(E)) indica uno spazio misurabile costituito da uno spazio topologico E con la σ-algebra β(E) dei boreliani di E. Vi sono vari modi di definire la convergenza di v.a.

• Sia (µn)n una successione di misure finite su (E, β(E)). Si dice che essa

converge a µ debolmente se per ogni funzione f continua e limitata su E si ha lim n→∞ Z f dµn = Z f dµ

Siano Xn, n ∈ N e X v.a. su (Ω, F, P) a valori in (E, β(E)).

• Si dice che (Xn)nconverge a X quasi certamente (q.c.) e si indica Xnq.c.→ X

se esiste N ∈ F trascurabile (cio`e P(N ) = 0) tale che lim n→∞Xn(ω) = X(ω) ∀ω /∈ N. • Se E = Rmsi dice che (X n)n converge a X in Lp e si scrive Xn L p → X se X ∈ Lp e lim n→∞E(|Xn− X| p) = 0.

Se p > q la convergenza in Lpimplica quella in Lq.

• Se la successione (Xn)n`e a valori in uno spazio metrico E diremo che essa

converge a X in probabilit`a e si indica con Xn→ X se per ogni δ > 0,P

(10)

lim

n→∞P(d(Xn, X) > δ) = 0.

• Si dice che (Xn)n converge in legge e si scrive Xn → X se µL n → µ

debolmente dove µn, µ sono rispettivamente le leggi di Xn e X.

1.2

Teorema di Hahn-Banach

Il Teorema di Hahn-Banach, che enunceremo qui in seguito, `e uno dei prin-cipali risultati dell’analisi funzionale ed `e fondamentale nel Teorema 2.2.1 di rappresentazione di attesa sublineare. Vengono proposte le sue estensioni in spazi lineari reali e normati. Per una definizione pi`u approfondita, con la dimostrazione basata sul Lemma di Zorn si veda la [14].

Definizione 1.2.1. Siano T1 e T2 due operatori lineari con domini D(T1)

e D(T2) etrambi contenuti in uno spazio lineare H e con rango R(T1) e R(T2)

entrambi contenuti in uno spazio lineare M. Allora T1= T2se e solo se D(T1) =

D(T2) e T1x = T2x per ogni x ∈ D(T1). Se D(T1) ⊆ D(T2) e T1x = T2x per

ogni x ∈ D(T1), allora T2`e chiamata estensione di T1, o T1si dice restrizione

di T2.

Teorema 1.2.2 (estensione del teorema di Hahn-Banach in spazi lineari reali). Sia H uno spazio lineare reale e p(x) una funzione a valori reali definita su H che soddisfa le seguenti condizioni:

p(x + y) ≤ p(x) + p(y) (subadditivita) p(αx) = αp(x) per α ≤ 0 (omogeneit`a positiva)

Sia L un sottospazio lineare di H e f0un funzionale lineare a valori reali definito

su L:

f0(αx + βy) = αf0(x) + βf0(y) per x, y ∈ L e α, β ∈ R.

Dato f0 che soddisfa f0(x) ≤ p(x) su L, allora esiste un funzionale lineare a

valori reali F definito su H tale che,

1. F `e un’ estensione di f0, ovvero F (x) = f0(x) per ogni x ∈ L.

2. F (x) ≤ p(x) per x ∈ H.

Teorema 1.2.3 (estensione del teorema di Hahn-Banach in spazi lineari normati). Siano H uno spazio lineare normato sotto la norma k · k, L un sottospazio lineare di H e f1un funzionale lineare continuo definito su L. Allora

esiste un funzionale lineare continuo f definito su H, tale che 1. f `e un’estensione di f1.

(11)

1.3. TEOREMA DI DANIELL-STONE 11

1.3

Teorema di Daniell-Stone

Nell’Osservazione 2.2.2 viene applicato il Teorema di Daniell-Stone per trovare una certa misura di probabilit`a σ-additiva; prima di approfondire questo teorema `e fondamentale dare la definizione di reticolo [13].

Definizione 1.3.1 (Reticolo). Si consideri un insieme R in cui siano definite due leggi di composizione, dette rispettivamente, intersezione e unione (cias-cuna delle quali associa ad ogni coppia a, b di elementi di R, uno e uno solo elemento di R). Indichiamo con a ∩ b, l’intersezione di a, b e con a ∪ b la loro unione. Diciamo che R `e un reticolo, rispetto alle suddette leggi di compo-sizione se, comunque, si scelgano gli elementi di a, b, c ∈ R, sono soddisfatte le seguenti condizioni: 1. Leggi commutative: a ∩ b = b ∩ a, a ∪ b = b ∪ a; 2. Leggi associative: (a ∩ b) ∩ c = a ∩ (b ∩ c), (a ∪ b) ∪ c = a ∪ (b ∪ c); 3. Leggi di assorbimento: a ∪ (a ∩ b) = a, a ∩ (a ∪ b) = a.

Dato (Ω, F, µ) uno spazio di misura sul quale possiamo definire un’inte-grazione. Una propriet`a essenziale dell’integrazione `e la sua linearit`a, tale che possa esser visto come funzionale lineare su L1(Ω, F, µ). Questa idea ci guida

ad un ulteriore approccio per definire l’integrale di Daniell.

Definizione 1.3.2. Dato Ω un insieme astratto e H uno spazio lineare formato da una famiglia di funzioni a valori reali . H `e chiamato reticolo vettoriale se

f ∈ H ⇒ |f | ∈ H, f ∧ 1 ∈ H.

Definizione 1.3.3. Supponiamo che H sia un reticolo vettoriale su Ω e I `e un funzionale positivo lineare su H,

f, g, ∈ H, α, β ∈ R ⇒ I(αf + βg) = αI(f ) + βI(g); f ∈ H, f ≥ 0 ⇒ I(f ) ≥ 0.

Se I soddisfa la seguente condizione:

fn ∈ H, fn↓ 0 ⇒ I(fn) → 0,

o equivalentemente,

fn∈ H, fn↑ f ∈ H ⇒ I(f ) = limn→∞I(fn),

cos`ı I `e chiamato integrale di Daniell su H.

Teorema 1.3.4 (di Daniell-Stone). Supponiamo che H sia un reticolo vet-toriale su Ω e I `e un integrale di Daniell su H. Allora esiste una misura µ ∈ F, dove F := σ(f : f ∈ H), tale che H ⊂ L1(Ω, F, µ) e I(f ) = µ(f ), ∀f ∈ H.

Inoltre, se 1 ∈ H∗

+, dove H+ := {f : ∃fn ≥ 0, fn ∈ H tale che fn ↑ f }, allora

(12)

1.4

Definizione di soluzioni viscose

La nozione di soluzione viscosa per equazioni Hamilton-Jacobi del primo or-dine fu introdotta inizialmente da Crandall e Lions, [4] e [5] con in quest’ultimo annessa la dimostrazione di unicit`a. La dimostrazione per le equazioni del sec-ondo ordine di Hamilton-Jacobi-Bellman fu sviluppata da sempre da Lions nella [11], utilizzando il controllo stocastico. Un’importante svolta fu realizzata nella teoria delle EDP del secondo ordine da Jensen (si veda la [9]). Altri impor-tanti contributi allo sviluppo di questa teoria si possono trovare nell’articolo di Crandall, Lions e Ishii [6].

Prima di effettuare un’analisi di soluzioni viscose, diamo la definizione pre-liminare di funzioni superiormente e inferiormente semicontinue, fondamentali per la comprensione dell’argomento, facendo riferimento alla [24].

Definizione 1.4.1 (Funzioni semicontinue). Consideriamo un insieme lo-calmente compatto Ω ⊂ Rn. Una funzione u : Ω → R si dice inferiormente

semicontinua (i.s.c.) in x0∈ Ω se u > −∞ e

u(x0) ≤ lim infx→x

0

u(x),

Se u `e i.s.c. in ogni punto di Ω diremo che `e i.s.c. in Ω. Analogamente, u : Ω → R si dice superiormente semicontinua (s.s.c.) in x0∈ Ω se u < +∞ e

u(x0) ≤ lim sup x→x0

u(x).

Se u `e s.s.c. in ogni punto di Ω diremo che `e s.s.c. in Ω. Indichiamo con

• s.s.c.(Ω) la classe delle funzioni superiormente semicontinue in Ω. • i.s.c.(Ω) la classe delle funzioni inferiormente semicontinue in Ω.

Una funzione u ∈ i.s.c.(Ω) `e caratterizzata dalla seguente propriet`a: per ogni

a ∈ R,

u−1(a, +∞) `e un aperto in Ω

Una funzione u ∈ s.s.c.(Ω) `e caratterizzata dalla seguente propriet`a: per ogni

a ∈ R,

u−1(−∞, a) `e un aperto in Ω

Passiamo ora quindi, all’analisi di soluzioni viscose; sia T > 0 e O ⊂ [0, T ] × RN. Definiamo

SSC(O) = { funzioni superiormente semicontinue u : O → R },

ISC(O) = { funzioni inferiormente semicontinue u : O → R },

Consideriamo la seguente EDP parabolica (edp): ½

(E) ∂tu − G(t, x, u, Du, D2u) = 0 su (0, T ) × Rn

(IC) u(0, x) = ϕ(x) per x ∈ Rn,

dove G : [0, T ] × RN × RN× RN× S(N ) → R, ϕ ∈ C(RN). Supponiamo che

(13)

1.4. DEFINIZIONE DI SOLUZIONI VISCOSE 13

G(t, x, r, p, X) ≥ G(t, x, r, p, Y ) se X ≥ Y.

Sia u : (0, T ) × Rn → R e (t, x) ∈ (0, T ) × RN. Denotiamo con P2,+u(t, x)

(il supergetto parabolico di u in (t, x) ) l’insieme delle triple (a, p, X) ∈ R × RN× S(N ) tale che

u(s, y) ≤u(t, x) + a(s − t) + hp, y − xi

+1 2hX(y − x), y − xi + o(|s − t| + |y − x| 2). Definiamo ¯ P2,+u(t, x) := {(a, p, X) ∈ R × RN× S(N ) : ∃(t n, xn, an, pn, Xn)

tale che (an, pn, Xn) ∈ ¯P2,+u(tn, xn) e

(tn, xn, u(tn, xn), an, pn, Xn) → (t, x, u(t, x), a, p, X)}.

Allo stesso modo definiamo P2,−u(t, x) (il sottogetto parabolico di u in

(t, x) )come P2,−u(t, x) := −P2,+(−u)(t, x) e ¯P2,−u(t, x) come ¯P2,−u(t, x) :=

−¯P2,+(−u)(t, x).

Definizione 1.4.2. Una sottosoluzione viscosa della (4.6) su (0, T ) × RN `e una

funzione u ∈ SSC((0, T ) × Rn) tale che per ogni (t, x) ∈ (0, T ) × RN,

a − G(t, x, u(t, x), p, X) ≤ 0 per (a, p, X) ∈ P2,+u(t, x)

Allo stesso modo, Una soprasoluzione viscosa della (4.6) su (0, T ) × RN `e una

funzione v ∈ ISC((0, T ) × Rn) tale che per ogni (t, x) ∈ (0, T ) × RN,

a − G(t, x, u(t, x), p, X) ≥ 0 per (a, p, X) ∈ P2,−v(t, x)

e una soluzione viscosa della (4.6) su (0, T ) × RN `e una funzione che `e sia una

sottosoluzione che una soprasoluzione della (4.6) su (0, T ) × RN. Una funzione

u ∈ U SC([0, T )×RN) `e chiamata sottosoluzione viscosa della (4.6) su [0, T )×RN

se u `e una sottosoluzione viscosa della (4.6) su (0, T ) × RN e u(0, x) ≤ ϕ(x) per

x ∈ RN.

Diamo anche la seguente definizione equivalente

Definizione 1.4.3. Una sottosoluzione viscosa della (4.6), o G-sottosoluzione, su (0, T ) × RN `e una funzione u ∈ U SC((0, T ) × Rn) tale che per ogni (t, x) ∈

(0, T ) × RN, φ ∈ C2((0, T ) × RN) e tale che u(t, x) = φ(t, x) e u < φ su

(0, T ) × RN\(t, x), allora abbiamo

∂tφ(t, x) − G(t, x, φ(t, x), Dφ(t, x), D2φ(t, x)) ≤ 0;

cos`ı come una soprasoluzione viscosa della (4.6), o G-soprasoluzione, su (0, T ) × RN `e una funzione v ∈ LSC((0, T ) × Rn) tale che per ogni (t, x) ∈ (0, T ) × RN,

φ ∈ C2((0, T ) × RN) e tale che v(t, x) = φ(t, x) e v > φ su (0, T ) × RN\(t, x),

allora abbiamo

∂tφ(t, x) − G(t, x, φ(t, x), Dφ(t, x), D2φ(t, x)) ≥ 0;

e una soluzione viscosa della (4.6) su (0, T ) × RN `e una funzione che `e

simul-taneamente una sottosoluzione e una soprasoluzione della (4.6) su (0, T ) × RN.

La definizione di soluzione viscosa della (edp) su [0, T ) × RN `e la stessa della

(14)

1.5

Stima di regolarit`

a di Krylov su EDP paraboliche.

La dimostrazione del Teorema 4.3.6 che vedremo, `e basata sulla stima di re-golarit`a C1+α

2,2+α per EDP paraboliche non lineari ottenute da Krylov [10].

Consideriamo la seguente EDP

∂tu + G(D2u, Du, u) = 0, u(T, x) = ϕ(x), (1.1)

dove G : S(d) × Rd× R → R `e una funzione data e ϕ ∈ C

b(Rd). Fissiamo le

costanti K ≥ ² > 0, T > 0 e poniamo Q = (0, T ) × Rd. Diamo ora la definizione

di G(², K, Q) e ¯G(², K, Q).

Definizione 1.5.1. Sia G : S(d)×Rd×R → R e lo denotiamo come G(u

ij, ui, u),

i, j = 1, · · · , d. Denotiamo G ∈ G(², K, Q) se G `e sia derivabile in modo continuo

rispetto a (uij, ui, u), e per ogni valore reale uij = uji, ˜uij = ˜uji, ui, ˜ui, u, ˜u e

λi sono valide le seguenti disuguaglianze:

²|λ|2X i,j λiλj uijG ≤ K|λ| 2, |G −X i,j uij∂uijG| ≤ M G 1 (u)(1 + X i |ui|2), |∂uG| + (1 + X i |ui|) X i |∂uiG| ≤ M G 1 (u)(1 + X i |ui|2+ X i,j |uij|), |MG 2 (u, uk)|−1G(η)(η)≤ X i,j |˜uij|[ X i |˜ui| + (1 + X i,j |uij|)|˜u|] +X i |˜ui|2(1 + X i,j |uij|) + (1 + X i,j |uij|3)|˜u|2,

dove gli argomenti (uij, ui, u) di G e le loro derivate sono omesse, η = (˜uij, ˜ui, ˜u),

e G(η)(η):= X i,j,r,s ˜ uiju˜rs∂u2ijursG + 2 X i,j,r ˜ uij˜ur∂2uijurG + 2 X i,j ˜ uiju∂˜ u2ijuG +X i,j ˜ uiu˜j∂2uiujG + 2 X i ˜ uiu∂˜ u2iuG + |˜u| 22 uuG, (1.2) MG

1(u) e M1G(u, uk) sono funzioni continue che crescono con |u| e con ukuk e

MG 2 ≥ 1.

Osservazione 1.5.2. Sia ²I ≤ A = (aij) ≤ KI. Si pu`o notare che

G(uij, ui, u) = X i,j aijuij+ X i biui+ cu appartiene a G(², K, Q)

La seguente definizione `e la Definizione 6.1.1 in [10].

Definizione 1.5.3. Sia una funzione G = G(uij, ui, u) : S(d) × Rd× R →

R. Denotiamo con G ∈ ¯G(², K, Q) se esiste una sequenza Gn ∈ G(², K, Q)

(15)

1.5. STIMA DI REGOLARIT `A DI KRYLOV SU EDP PARABOLICHE. 15

1. MG1

i = MiG2= · · · =: MiG, i = 1, 2;

2. per ogni n = 1, 2, · · · la funzione Gn `e infinitamente derivabile rispetto a

(uij, ui, u);

3. esistono due costanti δ0=: δ0G> 0 e M0=: M0G> 0

Gn(uij, 0, −M0) ≤ δ0, Gn(−uij, 0, M0) ≤ −δ0

per ogni n ≤ 1 e matrici simmetriche non negative (uij).

Il seguente teorema `e il Teorema 6.4.3 del [10], e gioca un ruolo importante nella dimostrazione del Teorema Centrale del Limite.

Teorema 1.5.4. Supponiamo che G ∈ ¯G(², K, Q) e ϕ ∈ Cb(Rd) con sup x∈Rd

|ϕ(x)| ≤ MG

0 . Allora la EDP (1.1) ha una soluzione u che possiede le seguenti propriet`a:

• u ∈ C([0, T ] × Rd), |u| ≤ MG 0 su Q;

• esiste una costante α ∈ (0, 1) dipendente solo da d, K, ² tale che per ogni κ > 0

kukC1+ α2,2+α([0,T −κ]×Rd)< ∞. (1.3)

Consideriamo ora la G-equazione. Sia G : Rd × S(d) → R una funzione

continua sublineare e monotona in A ∈ S(d). Allora esiste un sottoinsieme chiuso, limitato e convesso Σ ⊂ Rd× S

+(d) tale che

G(p, A) = sup

(q,B)∈Σ

[1

2tr[AB] + hp, qi] per (p, A) ∈ R

d× S(d) (1.4) La G-equazione `e ∂tu + G(Du, D2u) = 0, u(T, x) = ϕ(x). (1.5) Poniamo ˜ u(t, x) = et−Tu(t, x). (1.6) `

E facile notare che ˜u soddisfa la seguente EDP:

∂t˜u + G(D˜u, D2u) − ˜˜ u = 0, u(T, x) = ϕ(x).˜ (1.7)

Supponiamo che esista una costante ² > 0 tale che per ogni A, ¯A ∈ S(d) con A ≥ ¯A, abbiamo

G(0, A) − G(0, ¯A) ≥ ²tr[A − ¯A]. (1.8) Poich`e G `e continua, `e facile dimostrare che esiste una costante K > 0 tale che per ogni A, ¯A ∈ S(d) con A ≥ ¯A, abbiamo

G(0, A) − G(0, ¯A) ≤ ²K[A − ¯A]. (1.9) Cos`ı, per ogni (q, B) ∈ Σ abbiamo

(16)

2²I ≤ B ≤ 2KI.

Dall’Osservazione 1.5.2 `e facile dimostrare che ˜G(uij, ui, u) := G(uij, ui, u)−

u ∈ ¯G(², K, Q) e δG

0 = M0Gpu`o essere una costante positiva. Dal Teorema 1.5.4

e dalla (1.6) abbiamo la seguente stima di regolarit`a per la G-equazione (1.5). Teorema 1.5.5. Sia G che soddisfi la (1.4) e la (1.8), ϕ ∈ Cb(Rd) e sia u

una soluzione della G-equazione (1.5). Allora esiste una costante α ∈ (0, 1) dipendente solamente da d, G, ² tale che per ogni κ > 0,

(17)

Capitolo

2

Attesa sublineare

L’attesa sublineare viene utilizzata nelle situazioni in cui i modelli di probabilit`a hanno incertezza. In questo capitolo verranno presentati alcuni cenni relativi a questo tipo di previsione, le condizioni che deve soddisfare e alcune propriet`a derivanti da esse, tra cui l’autodominazione e la convessit`a. Verranno presentati anche i rispettivi spazi di attesa sublineare. Viene dimostrato inoltre il Teorema di rappresentazione di attesa sublineare (Teorema 2.2.1), sfruttando il Teore-ma di Hahn-Banach (1.2.2) e le nozioni base di distribuzioni di variabili casuali e indipendenza di vettori sotto attese sublineari.

2.1

Attesa sublineare e spazi di attesa

sublin-eare

Siano Ω un insieme e H uno spazio lineare di funzioni a valori reali definite su Ω. Assumiamo che tutte le costanti c ∈ R stiano in H e che se X ∈ H allora

|X| ∈ H.

Definizione 2.1.1. Un funzionale E : H → R `e definito attesa sublineare se soddisfa le seguenti condizioni:

1. Monotonia:

E[X] ≥ E[Y ] se X ≥ Y con X, Y ∈ H. 2. Conservazione delle costanti:

E[c] = c per c ∈ R.

3. Subadditivit`a: Per ogni X, Y ∈ H E[X + Y ] ≤ E[X] + E[Y ].

4. Omogeneit`a positiva: E[λX] = λE[X] per λ ≥ 0.

La terna (Ω, H, E) `e detta spazio di attesa sublineare. Se sono soddisfatte le condizioni (1) e (2), E `e chiamata attesa non lineare e la terna (Ω, H, E) `e

(18)

chiamata spazio di attesa non lineare.

Definizione 2.1.2. Siano E1e E2due attese non lineari definite su (Ω, H); si

dice che E1`e dominato da E2 se

E1[X] − E1[Y ] ≤ E2[X − Y ] per X, Y ∈ H. (2.1)

Osservazione 2.1.3. Per la condizione (3) un’attesa sublineare `e dominata da se stessa. Questa propriet`a `e chiamata di autodominazione. Se nella condizione (3) vale l’uguaglianza, allora E `e un’attesa lineare, cio`e E `e un funzionale lineare che soddisfa (1) e (2)

Osservazione 2.1.4. Le condizioni (3) e (4) sono chiamate condizioni di sub-linearit`a. Tale sublinearit`a implica la

(5) Convessit`a

E[αX + (1 − α)Y ] ≤ αE[X] + (1 − α)E[Y ] per α ∈ [0, 1] (2.2) Se l’attesa non lineare E soddisfa la convessit`a, `e chiamata attesa convessa. Le propriet`a (2) e (3) implicano invece la

(6) Cash translatability

E[X + c] = E[X] + c per c ∈ R Infatti abbiamo

E[X] + c = E[X] − E[−c] ≤ E[X + c] ≤ E[X] + E[c] = E[X] + c La condizione (4) `e equivalente a

E[λX] = λ+E[X] + λE[−X] per λ ∈ R

Osservazione 2.1.5. `E facile verificare che E[X] ≥ −E[−X].

Dim. Sapendo che E[0] = 0, abbiamo dalla propriet`a di Subadditivit`a

E[0] = E[X − X] = E[X + (−X)]

≤ E[X] + E[−X]

Quindi E[X] + E[−X] ≥ 0, da cui segue che E[X] ≥ −E[−X]. ¤

Nei prossimi capitoli vengono sistematicamente studiati spazi di attese sub-lineari (Ω, H, E) nei prossimi capitoli. Consideriamo i seguenti spazi di at-tese sublineari: se X1, · · · , Xn ∈ H allora ϕ(X1, · · · , Xn) ∈ H per ogni ϕ ∈

Cl,Lip(Rn), dove Cl,Lip(Rn) denota lo spazio di funzioni lineari ϕ soddisfacenti

|ϕ(x) − ϕ(y)| ≤ C(1 + |x|m+ |y|m)|x − y| perx, y ∈ Rn

per qualche C > 0 , m ∈ N dipendente da ϕ.

In questo caso X = (X1, · · · , Xn) `e detto vettore casuale n-dimensionale,

(19)

2.1. ATTESA SUBLINEARE E SPAZI DI ATTESA SUBLINEARE 19 Osservazione 2.1.6. E chiaro che se X ∈ H allora |X|, X` m ∈ H. Pi`u in

generale, ϕ(X)ψ(Y ) ∈ H se X, Y ∈ H e ϕ, ψ ∈ Cl.Lip(R). In particolare, se

X ∈ H allora E[|X|n] < ∞ per ogni n ∈ N.

Usiamo Cl.Lip(Rn) solo per convenienza. Infatti, la nostra richiesta essenziale

`e che H contenga tutte le costanti ed inoltre, X ∈ H implichi |X| ∈ H. In generale Cl.Lip(Rn) pu`o esser sostituito da uno qualsiasi dei seguenti spazi di

funzioni definiti su Rn.

• L∞(Rn) : lo spazio delle funzioni Borel misurabili limitate;

• Cb(Rn) : lo spazio delle funzioni limitate e continue;

• Ck

b(Rn) : lo spazio delle funzioni derivabili e continue k volte con le derivate

di ordine minore o uguali a k limitate.

• Cunif(Rn): lo spazio delle funzioni limitate e uniformemente continue.

• Cb.Lip(Rn): lo spazio delle funzioni limitate e Lipschitziane.

• L0(Rn): lo spazio delle funzioni Borel misurabili.

Diamo ora due esempi di attese sublineari.

Esempio 2.1.7. In un gioco bisogna scegliere una pallina da un’urna conte-nente W palline bianche, B nere e Y gialle. Il proprietario dell’urna, che `e anche l’arbitro del gioco, non dice l’esatto numero di palline per ogni colore, ma ci dice solamente che il numero di palline totali `e 100 e W = B ∈ [20, 25]. Sia ξ una variabile casuale definita da

ξ =    1 se la pallina `e bianca 0 se la pallina `e gialla −1 se la pallina `e nera

Problema: come misurare la perdita X = ϕ(ξ) per una data funzione ϕ su R. Sappiamo che la distribuzione di ξ `e

½ −1 0 1 p 2 1 − p p 2 ¾

con incertezza p ∈ [µ, ¯µ] = [0.4, 0.5]. Allora l’attesa robusta di X = ϕ(ξ) `e

E[ϕ(ξ)] := sup P ∈P EP[ϕ(ξ)] = sup p∈[µ,µ] [p 2(ϕ(1) + ϕ(−1)) + (1 − p)ϕ(0)].

ξ ha quindi distribuzione incerta.

Esempio 2.1.8. Una situazione pi`u generale si ha quando l’arbitro del gioco pu`o scegliere tra un’insieme di distribuzioni {F (θ, A)}A∈B(R),θ∈Θ di una

vari-abile casuale ξ. In questa situazione l’attesa robusta di una posizione di rischio

ϕ(ξ) per qualche ϕ ∈ Cl.Lip(R) `e

E[ϕ(ξ)] := sup

θ∈Θ

Z

R

(20)

Esercizio 2.1.9. Dimostrare che un funzionale E soddisfa la sublinearit`a se e solo se soddisfa la convessit`a e la omogeneit`a positiva.

(=⇒) Sia E un funzionale sublineare, allora `e subadditivo e omogeneo positivo. Presi X, Y ∈ H, α ∈ [0, 1],

E[αX + (1 − α)Y ] ≤ E[αX] + E[(1 − α)Y ] = αE[X] + (1 − α)E[Y ] dove la disuguaglianza `e dovuta alla subadditivit`a, e l’uguaglianza all’omogenea positivit`a. Quindi E `e convesso.

(⇐=) Sia E un funzionale convesso. Allora dalla propriet`a (2) con α = 0.5 si ha,

E[0.5X + 0.5Y ] ≤ 0.5E[X] + 0.5E[Y ] = 0.5[E[X] + E[Y ]] (2.3) D’altra parte dato che il funzionale `e positivamente omogeneo

E[0.5X + 0.5Y ] = E[0.5(X + Y )] = 0.5E[X + Y ] (2.4) Dalla (2.3) e dalla (2.4), segue

E[X + Y ] ≤ E[X] + E[Y ]

Quindi E `e subadditivo, e dato che soddisfa anche la omogeneit`a positiva `e sublineare.

Esercizio 2.1.10. Supponiamo che tutti gli elementi in H siano limitati. Dimostrare che l’attesa sublineare pi`u forte su H `e:

E[X] := X= sup ω∈Ω

X(ω)

Mostrare, cio`e, che tutte le altre attese sublineari sono dominate da E[·].

Dimostriamo che E[X] `e un’attesa sublineare:

1. Monotonia: Per ogni X, Y ∈ H, se X ≥ Y E[X] = sup

ω∈Ω

X(ω) ≥ sup

ω∈Ω

Y (ω) = E∞[Y ]

2. Conservazione delle costanti: Per ogni c ∈ R E[c] = sup

ω∈Ω

c = c

in quanto c `e indipendente da ω. 3. Subadditivit`a: Per ogni X, Y ∈ H

E[X + Y ] := sup ω∈Ω[X + Y ](ω) ≤ supω∈ΩX(ω) + supω∈ΩY (ω) = E [X] + E[Y ] 4. Omogeneit`a positiva: Se λ ≥ 0 allora E∞[λX] = sup ω∈ΩλX(ω) = λsupω∈ΩX(ω) = λE [X]

(21)

2.2. RAPPRESENTAZIONE DI ATTESA SUBLINEARE 21 Dimostriamo ora, che presa una qualsiasi altra attesa sublineare E, essa `e dom-inata da E. Presi X, Y ∈ H, ed E[·] un funzionale sublineare qualsiasi su Ω

abbiamo,

E[X] = E[X − Y + Y ] ≤ E[X − Y ] + E[Y ]

≤ E sup ω∈Ω[X − Y ](ω) + E[Y ] ≤ sup ω∈Ω [X − Y ](ω) + E[Y ] = E∞[X − Y ] + E[Y ]

dove la prima disuguaglianza segue dalla subadditivit`a, la seconda dalla mono-tonia, la terza dalla propriet`a di conservazione delle costanti. Quindi,

E[X] − E[Y ] ≤ E∞[X − Y ]

cio`e E`e la pi`u forte attesa sublineare su H.

2.2

Rappresentazione di attesa sublineare

Un’attesa sublineare pu`o essere espressa come estremo superiore di attese lineari. Teorema 2.2.1. Sia E un funzionale definito su uno spazio lineare H subad-ditivo e positivamente omogeneo. Allora esiste una famiglia di funzionali lineari

{Eθ : θ ∈ Θ} definita su H t.c.

E[X] = sup

θ∈Θ

Eθ[X] per X ∈ H

e per ogni X ∈ H, esiste θX∈ Θ t.c. E[X] = EθX[X]. Inoltre se E `e un’attesa

sublineare, il corrispondente EθX `e un’attesa lineare.

Dim. Sia Q = {Eθ: θ ∈ Θ} la famiglia di tutti i funzionali lineari dominati

da E, cio`e Eθ[X] ≤ E[X] ,∀X ∈ H , Eθ ∈ Q. Q `e non vuoto. Infatti per un

dato X ∈ H, poniamo L = {aX : a ∈ R} un sottospazio di H. Definiamo il funzionale I : L → R nel seguente modo: I[aX] = aE[X], ∀a ∈ R . I[·] `e un funzionale lineare su L e I ≤ E su L. I `e un funzionale lineare su L in quanto, considerando α, β ∈ R

I(αaX + βbX) = I[(αa + βb)X] = (αa + βb)E[X] = αaE[X] + βbE[X] = αI(aX) + βI(bX)

Dimostriamo che I ≤ E su L.

Se a > 0, I(aX) = aE[X] = E[aX] poich`e E `e positivamente omogeneo. Se

a < 0, grazie all’Osservazione 2.1.5 abbiamo

E[X] + E[−X] ≥ 0

a−E[X] + aE[−X] ≥ 0

− a−E[X] − aE[−X] ≤ 0

(22)

e, dall’Osservazione 2.1.4 E[aX] = a−E[−X], quindi

I[aX] = aE[X] = −(−a)E[X] = −a−E[X] ≤ aE[−X] = E[aX]. (2.5)

Dato che E `e subadditivo e positivamente omogeneo, per il teorema di Hahn-Banach, esiste un funzionale lineare E su H tale che E = I su L e E ≤ E su H. Allora E `e un funzionale dominato da E t.c. E[X] = E[X]. Definiamo ora

[X] := sup

θ∈ΘEθ[X] per X ∈ H

`

E chiaro che EΘ= E.

Inoltre, se E `e un’attesa sublineare, allora per ogni elemento non negativo di

X ∈ H, si ha E[X] = −E[−X] ≥ −E[−X] ≥ 0 perch`e vale E ≤ E. Per ogni c ∈ R − E[c] = E[−c] ≤ E[−c] = −c e E[c] ≤ E[c] = c; quindi abbiamo E[c] = c.

Quindi E `e un’attesa lineare. ¤

Osservazione 2.2.2. E importante osservare che l’attesa lineare E` θ `e solo

finitamente additiva. Una condizione sufficiente per la σ-additivit`a di Eθ`e quella

di assumere che E[Xi] → 0 per ogni sequenza {Xi}∞i=1 di H t.c. Xi(ω) ↓ 0 per

ogni ω. In questo caso, `e chiaro che Eθ[Xi] → 0. Allora possiamo applicare il

teorema di Daniell-Stone (1.3.4) per trovare una misura di probabilit`a σ-additiva

Pθsu (Ω, σ(H)) t.c.

Eθ[X] =

Z

X(ω)dPθ, X ∈ H.

Il corrispondente modello di probabilit`a `e il sottoinsieme {Pθ : θ ∈ Θ}, e la

corrispondente distribuzione di incertezza per un vettore casuale n-dimensionale

X in H `e {FX(θ, A) := Pθ(X ∈ A) : A ∈ B(Rn)}

Diamo ora un’altra versione del teorema precedente.

Sia Pfla collezione di tutte le misure finitamente additive su (Ω, F), L∞0 (Ω, F)

la collezione delle posizioni di rischio con valori finiti X della forma

X(ω) = N X i=1 xiIAi(ω), xi∈ R, Ai∈ F, i = 1, · · · , N `

E facile verificare che sotto la norma k · k∞, L0 (Ω, F) `e denso in L∞(Ω, F). Per

una fissata misura Q ∈ Pf e X ∈ L∞0 (Ω, F), definiamo

EQ[X] = EQ[ N X i=1 xiIAi(ω)] := N X i=1 xiQ(Ai) = Z Ω X(ω)Q(dω).

EQ : L0 (Ω, F) → R `e un funzionale lineare. Si pu`o provare che EQ soddisfa la

propriet`a di monotonia e preserva le costanti ed `e inoltre continua sotto kXk∞.

|EQ[X]| ≤ sup

ω∈Ω|X(ω)| = kXk∞.

Possiamo estendere EQ da L0 a un funzionale lineare continuo su L∞(Ω, F),

dato che L

(23)

2.2. RAPPRESENTAZIONE DI ATTESA SUBLINEARE 23 Proposizione 2.2.3. Il funzionale lineare EQ[·] : L∞(Ω, F) → R soddisfa 1.

e 2. Viceversa ogni funzionale lineare η(·) : L∞(Ω, F) → R, che soddisfa 1. e

2., induce una misura di probabilit`a finitamente additiva definita da Qη(A) :=

η(IA) , A ∈ F. La corrispondente attesa `e η stessa,

η(X) =

Z

X(ω)Qη(dω) (2.6)

Teorema 2.2.4. Un’attesa sublineare E ha la seguente rappresentazione: esiste un sottoinsieme Q ⊂ Pf t.c.

E[X] = sup

Q∈QEQ[X] per X ∈ H.

Dim. Segue dal Teorema 2.2.1 che E[X] = sup

θ∈ΘEθ[X] per X ∈ H ,

dove Eθ `e un’attesa lineare su H per un fissato θ ∈ Θ. Possiamo definire una

nuova attesa sublineare su L(Ω, σ(H)) come

e

Eθ[X] := inf{Eθ[Y ]; Y ≥ X, Y ∈ H}

Non `e difficile verificare che eEθ[X] `e un’attesa sublineare su L∞(Ω, σ(H)), dove

σ(H) `e la pi`u piccola σ−algebra generata da H. Abbiamo anche che Eθ≤ eEθ

su H ∩ L∞(Ω, σ(H)). Grazie al teorema di Hahn-Banach E

θ pu`o essere estesa

da H ∩ L∞(Ω, σ(H)) a L(Ω, σ(H)). Dalla Proposizione (2.2.3) esiste Q ∈ P f t.c. Eθ[X] = EQ[X] per X ∈ H. Esiste quindi Q ⊂ Pf, t.c. E[X] = sup Q∈QEQ[X] per X ∈ H.

Esercizio 2.2.5. Dimostrare che eEθ`e un’attesa sublineare.

1. Monotonia:

e

Eθ[X] ≥ eEθ[Z] se X ≥ Z

inf{Eθ[Y ]; Y ≥ X, Y ∈ H} ≥ inf{Eθ[Y ]; Y ≥ Z, Y ∈ H}

sfruttando le propriet`a dell’ inf.

2. Constant preserving: Dato che c ∈ H ed E `e un’attesa lineare quindi preserva le costanti

e

(24)

3. Subadditivit`a: e

Eθ[X + Z] = inf{Eθ[Y ]; Y ≥ X + Z} ≤ eEθ[X] + eEθ[Z]

Siano due v.a. Y1, Y2∈ H, t.c. Y1≥ X, Y2≥ Z

inf{Eθ[Y ]; Y ≥ X + Z} ≤ inf{Eθ[Y ]; Y = Y1+ Y2} =

= inf{Eθ[Y ]; Y ≥ X} + inf{Eθ[Y ]; Y ≥ Z} =

= eEθ[X] + eEθ[Z]

4. Omogeneit`a positiva: Sia λ > 0; se Y ∈ H allora Y λ ∈ H e Eθ[λX] = inf{Eθ[Y ]; Y ≥ λX, Y ∈ H} = inf{λEθ[Y λ]; Y λ ≥ X,Yλ ∈ H} Posto U = Y λ,

inf{λEθ[U ]; U ≥ X, U ∈ H} = λ inf{Eθ[U ]; U ≥ X, U ∈ H} = λeEθ[X]

Se λ = 0 allora e

Eθ[λX] = eEθ[0 · X] = eEθ[0] = 0 = 0 · eEθ[X]

2.3

Distribuzione, indipendenza e spazi

prodot-to

Diamo ora la nozione di distribuzione di variabili casuali sotto attese sublineari. Dato X = (X1, · · · , Xn) un vettore casuale sullo spazio di attesa non lineare

(Ω, H, E), definiamo un funzionale su Cl.Lip(Rn) nel modo seguente,

FX[ϕ] := E[ϕ(X)] : ϕ ∈ Cl.Lip(Rn) → R

La terna (Rn, C

l.Lip(Rn), FX) forma uno spazio di attesa non lineare e FX `e

chiamata distribuzione di X sotto E.

Dall’ Osservazione 2.2.2 possiamo provare che esiste una famiglia di misure di probabilit`a {Fθ

X(·)}θ∈Θ definita su (Rn, B(Rn)) tale che

FX[ϕ] = sup θ∈Θ Z Rn ϕ(x)Fθ X(dx), ∀ϕ ∈ Cb.Lip(Rn)

Cos`ı F[·] caratterizza l’incertezza delle distribuzioni di X.

Definizione 2.3.1. Dati X1 e X2 due vettori n-dimensionali definiti

rispetti-vamente sugli spazi di attesa non lineare (Ω1, H1, E1) e (Ω2, H2, E2), essi sono

detti identicamente distribuiti, i.e. X1= Xd 2, se

E1[ϕ(X1)] = E2[ϕ(X2)], ∀ϕ ∈ Cl.Lip(Rn)

Quindi X1 = Xd 2 se e solo se le loro distribuzioni coincidono, e la distribuzione

di X1 si definisce pi`u forte di quella di X2 se E1[ϕ(X1)] ≥ E2[ϕ(X2)] per ogni

(25)

2.3. DISTRIBUZIONE, INDIPENDENZA E SPAZI PRODOTTO 25

Osservazione 2.3.2. Nel caso di attese sublineari, X1 = Xd 2 implica che

i sottoinsiemi di incertezza delle distribuzioni di X1 e X2 sono gli stessi nel

contesto dell’Osservazione 2.2.2, i.e

{FX11, ·) : θ1∈ Θ1} = {FX22, ·) : θ2∈ Θ2}

Analogamente, se la distribuzione di X1`e pi`u forte di quella di X2, allora

{FX11, ·) : θ1∈ Θ1} ⊃ {FX22, ·) : θ2∈ Θ2}

La distribuzione di X ∈ H `e caratterizzata dai seguenti 4 parametri

µ := E[X], µ := −E[−X], σ2:= E[X2], σ2:= −E[−X2]

Gli intervalli [µ, ¯µ] e [σ2, ¯σ2] caratterizzano rispettivamente l’media-incertezza

e la varianza-incerta di X. Una domanda che sorge spontanea `e: possiamo trovare una famiglia di distribuzioni di misure che rappresentano la distribuzione sublineare di X? La risposta `e affermativa:

Lemma 2.3.3. Preso (Ω, H, E) uno spazio di attesa sublineare. Dato X ∈ Hd,

allora per ogni sequenza {ϕn}∞n=1⊂ Cl.Lip(Rd) soddisfacente ϕn ↓ 0, abbiamo

E[ϕn(X)] ↓ 0.

Dim. Per ogni fissato N > 0,

ϕn(x) ≤ knN+ ϕ1(x)I[|x|>N ]≤ knN + ϕ1(x)|x| N per ogni x ∈ R d×m , dove kN n = max |x|≤Nϕn(x). Abbiamo allora, E[ϕn(X)] ≤ kNn + 1 NδE[ϕ1(X)|X| δ].

Segue che, da ϕn ↓ 0 allora knN ↓ 0. Cos`ı abbiamo limn→∞E[ϕn(X)] ≤ C

NE[ϕ1(X)|X|]. Siccome N pu`o esser arbitrariamente grande, abbiamo E[ϕn(X)] ↓

0. ¤

Lemma 2.3.4. Siano (Ω, H, E) uno spazio di attesa sublineare e FX[ϕ] :=

E[ϕ(X)] la distribuzione sublineare di X ∈ Hd. Allora esiste una famiglia di

misure di probabilit`a {Fθ}θ∈Θ definita su (Rd, B(Rd)) tale che

FX[ϕ] = sup θ∈Θ

Z

Rd

ϕ(x)Fθ(dx), ϕ ∈ Cl.Lip(Rd). (2.7)

Dim. Dal teorema di rappresentazione, per l’attesa sublineare FX[ϕ]

defini-ta su (Rd, C

l.Lip(Rn)), esiste una famiglia di attese lineari {fθ}θ∈Θsu (Rd, Cl.Lip(Rn))

t.c.

FX[ϕ] = sup θ∈Θ

fθ[ϕ], ϕ ∈ Cl.Lip(Rn).

Dal lemma precedente, per ogni sequenza {ϕn}∞n=1 in Cb.Lip t.c. ϕn ↓ 0

su Rd, F

X[ϕn] ↓ 0, allora fθ[ϕn] ↓ 0 per ogni θ ∈ Θ. Segue dal Teorema di

Daniell-Stone che, per ogni θ ∈ Θ, esiste un’unica misura di probabilit`a Fθ(·)

su (Rd, σ(C

b.Lip(Rd))) = (Rd, B(Rd)) tale che fθ[ϕ] =

R

Rdϕ(x)Fθ(dx). Cos`ı

(26)

Osservazione 2.3.5. Il lemma precedente ci dice che la distribuzione sub-lineare FX di X caratterizza l’incertezza della distribuzione di X, che `e un

sottoinsieme di distribuzioni {Fθ}θ∈Θ.

La seguente proposizione `e molto utilizzata nella teoria delle attese sublin-eari.

Proposizione 2.3.6. Sia (Ω, H, E) uno spazio di attesa sublineare e X, Y due variabili aleatorie t.c. E[Y ] = −E[−Y ], allora abbiamo

E[X + αY ] = E[X] + αE[Y ] per α ∈ R In particolare, se E[Y ] = E[−Y ] = 0, allora E[X + αY ] = E[X].

Dim. Abbiamo

E[αY ] = α+E[Y ] + α−E[−Y ] = α+E[Y ] − α−E[Y ] = αE[Y ] per α ∈ R. Cos`ı

E[X + αY ] ≤ E[X] + E[αY ] = E[X] + αE[Y ] = E[X] − E[−αY ] ≤ E[X + αY ] dove la prima disuguaglianza `e dovuta alla propriet`a di subadditivit`a e la prima uguaglianza all’omogeneit`a positiva. ¤

Proposizione 2.3.7. Assumiamo le stesse condizioni della precedente propo-sizione. Sia eE un’attesa non lineare su (Ω, H) dominata dall’attesa sublineare E nel senso della (2.1). Se E[Y ] = E[−Y ], allora abbiamo

e

E[αY ] = αeE[Y ] = αE[Y ], α ∈ R. (2.8) e

e

E[X + αY ] = eE[X] + αeE[Y ] X ∈ H, α ∈ R. (2.9) In particolare,

e

E[X + c] = eE[X] + c, per c ∈ R Dim. Abbiamo

−eE[Y ] = eE[0] − eE[Y ] ≤ E[−Y ] = −E[Y ] ≤ −eE[Y ] e

E[Y ] = −E[−Y ] ≤ −eE[−Y ] (2.10)

= eE[0] − eE[−Y ] ≤ E[Y ]

Dalla precedente relazione, abbiamo eE[Y ] = E[Y ] = −eE[−Y ] e cos`ı otteni-amo la (2.8). Ancora dalla propriet`a di dominazione,

e

E[X + αY ] − eE[X] ≤ E[αY ], (2.11)

e

E[X] − eE[X + αY ] ≤ E[−αY ] = −E[αY ]. (2.12) E cos`ı otteniamo la (2.9).

(27)

2.3. DISTRIBUZIONE, INDIPENDENZA E SPAZI PRODOTTO 27 Definizione 2.3.8. Una sequenza di vettori casuali n-dimensionali {ηi}∞i=1,

definita su uno spazio di attesa sublineare (Ω, H, E) converge in distribuzione (o in legge) sotto E se ∀ϕ ∈ Cb.Lip(Rn), la sequenza {E[ϕ(ηi)]}∞i=1 converge.

`

E facile quindi dimostrare la seguente proposizione.

Proposizione 2.3.9. Sia {ηi}∞i=1 una serie di vettori aleatori convergente in

legge. Allora la mappa F[·] : Cb.Lip(Rn) → R definita da

F[ϕ] := lim

i→∞E[ϕ(ηi)] per ϕ ∈ Cb.Lip(R n)

`e un’attesa sublineare definita su (Rn, C

b.Lip(R)n).

Un ruolo chiave nella teoria delle attese sublineari `e rappresentato dalla seguente nozione d’indipendenza.

Definizione 2.3.10. In uno spazio di attesa non lineare (Ω, H, E), un vettore casuale Y ∈ Hn `e detto indipendente da un altro vettore casuale X ∈ Hmsotto

E[·] se per ogni funzione ϕ ∈ Cl.Lip(Rm+n) si ha

E[ϕ(X, Y )] = E[E[ϕ(x, Y )]x=X]

Osservazione 2.3.11. Per spazi di attese sublineari (Ω, H, E), Y `e indipen-dente da X significa che l’incertezza delle distribuzioni {FY(θ, ·) : θ ∈ Θ} di Y

non muta dopo la realizzazione di X = x. In altre parole l’ attesa sublineare

condizionata di Y rispetto a X `e E[ϕ(x, Y )]x=X. Nel caso di attesa lineare, la

nozione di indipendenza corrisponde a quella classica.

Osservazione 2.3.12. `E importante sottolineare che sotto le attese sublineari la condizione Y `e indipendente da X non implica automaticamente che X `e

indipendente da Y.

Esempio 2.3.13. Consideriamo il caso in cui E `e un’attesa sublineare e X, Y ∈ H sono identicamente distribuiti con E[X] = E[−X] = 0 e ¯σ2 = E[X2] >

σ2 = −E[−X2]. Assumiamo anche che E[|X|] = E[X++ X] > 0, quindi

E[X+] = 1

2E[|X| + X] = 12E[|X|] > 0. Nel caso in cui Y `e indipendente da X,

abbiamo

E[XY2] = E[Xσ2− X−σ2] = (¯σ2− σ2)E[X+] > 0. Ma se X `e indipendente da Y , abbiamo

E[XY2] = 0.

La propriet`a di indipendenza di due vettori casuali X, Y coinvolge solo la

distribuzione congiunta di (X, Y ). Il seguente risultato ci dice come costruire

vettori casuali con distribuzioni marginali assegnate e con una specifica direzione di indipendenza.

Definizione 2.3.14. Dati (Ωi, Hi, Ei), i = 1, 2 due spazi di attesa sublineare.

Denotiamo

H1⊗ H2:= {Z(ω1, ω2) = ϕ(X(ω1), Y (ω2)) : (ω1, ω2) ∈ Ω1× Ω2,

(28)

e, per ogni variabile casuale della forma Z(ω1, ω2) = ϕ(X(ω1), Y (ω2)),

(E1⊗ E2)[Z] := E1[ϕ(X)], dove ¯ϕ(x) := E2[ϕ(x, Y )], x ∈ Rm.

`

E facile verificare che la terna (Ω1× Ω2, H1⊗ H2, E1⊗ E2) forma uno spazio

di attesa sublineare che chiameremo spazio prodotto degli spazi di attese non lineari e sublineari (Ω1, H1, E1) e (Ω2, H2, E2). Possiamo cos`ı definire lo spazio

prodotto ( n Y i=1i, n O i=1 Hi, n O i=1 Ei)

degli spazi di attesa sublineare (Ωi, Hi, Ei), i = 1, 2, · · · , n. In particolare

quando (Ωi, Hi, Ei) = (Ω1, H1, E1) abbiamo lo spazio prodotto della forma

(Ωn

1, H⊗n1 , E⊗n1 ).

Siano X, ¯X due vettori casuali n-dimensionali definiti sullo spazio di attesa

sublineare (Ω, H, E). ¯X `e detta una copia indipendente di X se ¯X = X e ¯d X `e

indipendente da X.

Proposizione 2.3.15. Sia Xiun vettore casuale ni-dimensionale definito

sul-lo spazio di attesa sublineare (Ωi, Hi, Ei) per i = 1, · · · , n rispettivamente.

Denotiamo

Yi(ω1, · · · , ωn) := Xi(ωi), i = 1, · · · , n.

Allora Yi, i = 1, · · · , n, sono vettori casuali su (

Qn

i=1i, ⊗ni=1Hi, ⊗ni=1Ei).

In-oltre abbiamo Yi= Xd ie Yi+1`e indipendente da (Y1, · · · , Yi) per ogni i.

Inoltre se (Ωi, Hi, Ei) = (Ω1, H1, E1) e Xi = Xd 1, per ogni i, allora abbiamo

Yi = Yd 1. In questo caso si dice che Yi `e una copia indipendente di Y1 per

i = 1, · · · , n.

Osservazione 2.3.16. Nella precedente proposizione il numero intero n pu`o esser anche infinito. In questo caso la variabile casuale X ∈ ⊗∞

i=1H appartitene

a (Qki=1i, ⊗i=1k Hi, ⊗ki=1Ei) per k < +∞ intero positivo e O i=1 Ei[X] := k O i=1 Ei[X]

Osservazione 2.3.17. La situazione Y `e indipendente da X avviene spesso quando Y si verifica dopo X.

Esempio 2.3.18. Consideriamo una situazione dove due variabili casuali X, Y in H sono identicamente distribuite e la loro distribuzione comune `e

FX[ϕ] = FY[ϕ] = sup θ∈Θ

Z

R

ϕ(y)F (θ, dy) per ϕ ∈ Cl.Lip(R),

dove, per ogni θ ∈ Θ, {F (θ, A)}A∈B(R)`e una misura di probabilit`a su (R, B(R)).

In questo caso, Y `e indipendente da X significa che la distribuzione congiunta di X e Y `e FX,Y[ψ] = sup θ1∈Θ Z R [ sup θ2∈Θ Z R

(29)

Capitolo

3

Misure di rischio coerenti

Nell’ambito della finanza matematica ha assunto grande rilievo la nozione di misura di rischio coerente, introdotta in [1], [7]; dopo una breve introduzione economica vengono riprese le condizioni necessarie e sufficienti a definire questa misura e come pu`o essere collegata direttamente al concetto di attesa sublineare, sviluppato nel Capitolo 2. Una propriet`a interessante `e la relazione tra misura coerente di rischio e attesa sublineare: se E `e un’attesa sublineare, definendo

ρ(X) := E[−X], allora ρ `e una misura coerente di rischio, e viceversa, se ρ `e una

misura coerente di rischio, definendo E[X] := ρ(−X), allora E `e un’attesa sub-lineare. Nell’ultima parte di questo capitolo vengono fornite le nozioni principali relative al VaR, la misura di rischio pi`u utilizzata nei mercati finanziari.

3.1

Definizione di rischio e di misura coerente

Il rischio `e definito come la variazione di valore tra due istanti temporali, dato che `e connesso alla variabilit`a del valore futuro di una posizione, dovuta ai cambiamenti del mercato o all’incertezza degli eventi. La nozione di misura di rischio ha origine dalla necessit`a di esprimere quale sia il grado di rischiosit`a dei numeri aleatori appartenenti ad un insieme H, ognuno dei quali rappresenta il valore che una certa posizione assumer`a in un istante futuro t = T . La valutazione del rischio viene effettuata da un supervisore del rischio che, pur non gestendo direttamente le posizioni, deve decidere se questa posizione pu`o essere assunta o meno e comunicare a traders, security companies o banche, quali tipi di posizioni di rischio sono inaccettabili e qual `e il minimo ammontare di capitale di rischio che dovrebbe esser depositato per rendere le posizioni accettabili. Quest’ ultima valutazione viene effettuata tramite strumenti di riferimento in possesso del supervisore. Esistono due tipi di supervisori del rischio: un regulator che prende in esame i casi sfavorevoli permettendo una posizione di rischio che dovrebbe delineare la situazione futura, e un exchange’s

clearing firm, il quale deve aver la fortuna che le promesse fatte da tutte le parti,

agenti in un accordo, vengano portate a termine.

Gli assiomi che forniremo non saranno in grado di farci scegliere una specifica misura di rischio, in quanto nella scelta finale sono determinanti anche consider-azioni economiche. Per un rischio inaccettabile, una via d’uscita dovrebbe essere

(30)

quella di modificare la posizione o di cercare qualche strumento che, adattato alla posizione attuale, fa diventare accettabile la posizione al supervisore.

Consideriamo un periodo di tempo (0, T ); le diverse valute sono numerate con i, 1 ≤ i ≤ I e per ognuna di queste sono dati gli strumenti di riferimento presenti sul mercato, i quali ci portano da una unit`a alla data 0 della moneta i a ri unit`a alla data T .

Il periodo (0, T ) pu`o esser considerato come il periodo tra l’hedging e il rehedging, dove il primo `e una strategia d’investimento disegnata per ridurre il rischio di un investimento tramite l’utilizzo di strumenti derivati. Prendiamo in considerazione l’attivit`a di un investitore soggetto a una certa regolamentazione nel paese i = 1; Denotiamo con eiil numero di unit`a della moneta della nazione

i = 1 comprate al tempo t = 0; un portafoglio di un investitore inizialmente `e

formato da posizioni Ai, 1 ≤ i ≤ I, le quali ci danno Ai(T ) unit`a di moneta i

al tempo T . Chiameremo come rischio il possibile futuro guadagnoP1≤i≤Iei·

Ai(T ).

Consideriamo la coppia (Ω, H), dove H `e la collezione di tutte le possi-bili posizioni di rischio nel mercato finanziario, Ω `e l’insieme finito di tutti i possibili scenari futuri e lo consideriamo come l’insieme delle possibili uscite dell’esperimento. Possiamo calcolare il risultato finale di una posizione di ris-chio, denotata con X per ogni elemento di Ω. La sua parte negativa `e denotata da max(−X, 0) = X−; se X ∈ H, allora per ogni costante c ∈ R, X ∨ c e X ∧ c

appartengono ad H. Un esempio tipico in finanza `e quando X rappresenta il prezzo futuro di uno stock. In questo caso anche ogni opzione Call o Put europea con strike price K della forma (S − K)+, (K − S)+ appartiene ad H.

La collezione delle posizioni accettabili `e definita da

A = {X ∈ H : X `e accettabile} (3.1) Definizione 3.1.1. Un insieme A `e detto coerentemente accettabile se soddisfa

1. Monotonia X ∈ A, Y ≥ X implica Y ∈ A. 2. 0 ∈ A ma − 1 /∈ A. 3. Positiva omogeneit`a X ∈ A implica λX ∈ A for λ ≥ 0. 4. Convessit`a

X, Y ∈ A implica αX + (1 − α)Y ∈ A per α ∈ [0, 1].

Osservazione 3.1.2. : Le ultime due condizioni, se verificate, implicano la Sublinearit`a,

5.

X, Y ∈ A ⇒ µX + νY ∈ A per µ, ν ≥ 0

Osservazione 3.1.3. : Se sono verificate le condizioni (1), (2) e (4), allora A `e un insieme convesso accettabile e un cono positivamente omogeneo.

(31)

3.1. DEFINIZIONE DI RISCHIO E DI MISURA COERENTE 31 In questa sezione studiamo principalmente il caso di rischio coerente. Gli insiemi dei valori accettabili futuri sono i primi dati da prendere in esame per sapere se rifiutare o meno una posizione di rischio.

Definizione 3.1.4. Una misura di rischio `e una mappa da A in R.

Definizione 3.1.5. : Dato un insieme coerentemente accettabile A il fun-zionale ρ(·) definito da

ρ(X) = ρA(X) := inf{m ∈ R : m + X ∈ A}, X ∈ H

`e chiamato misura di rischio coerente relativa ad A. Nel caso ρ(X) > 0, questa misura di rischio rappresenta il minimo ammontare che `e necessario aggiungere alla posizione X, in t = 0, ed investire in tale strumento, per rendere questa posizione accettabile al supervisore. Analogamente, se ρ(X) < 0, −ρ(X) assume il significato del massimo ammontare che `e possibile togliere ad X e mantenere la posizione accettabile.

`

E facile notare che

ρ(X + ρ(X)) = 0

Dim. Scriviamo

ρ(X + ρ(X)) = inf {m ∈ R : m + X + ρ(X) ∈ A}

Per definizione X + ρ(X) ∈ A e quindi anche m + X + ρ(X) ∈ A nel caso in cui m ≥ 0. Facendo l’inf tra tutti i possibili m otteniamo m = 0 e quindi

ρ(X + ρ(X)) = 0. ¤

Proposizione 3.1.6. ρ(·) `e una misura di rischio coerente soddisfacente le seguenti quattro propriet`a:

1. Monotonia

Se il valore di un portafoglio `e minore o uguale a quello di un altro portafoglio, allora la sua misura di rischio deve essere maggiore di quella dell’ altro portafoglio.

se X ≥ Y allora ρ(X) ≤ ρ(Y ).

2. Conservazione delle costanti:

(32)

3. Subadditivit`a: La misura di rischio di un portafoglio risultante dalla fusione di altri due, non deve mai essere maggiore della somma delle misure di rischio relative ai due portafogli originari.

∀X, Y ∈ H, ρ(X + Y ) ≤ ρ(X) + ρ(Y ).

4. Omogeneit`a positiva: Se aumentiamo la dimensione di un portafoglio in base a un fattore moltiplicativo λ, lasciandone invariata la composizione, la sua misura di rischio deve moltiplicarsi per λ.

ρ(λX) = λρ(X) per λ ≥ 0 .

Dim.

1. Monotonia:

Presi X, Y ∈ A e X ≥ Y abbiamo che

ρ(X) = inf {m ∈ R : m + X ∈ A} ≤ inf {m ∈ R : m + Y ∈ A} = ρ(Y )

dove la disuguaglianza `e ottenuta sfruttando le propriet`a dell’inf. 2. Conservazione delle costanti:

ρ(1) = inf{m ∈ R : m + 1 ∈ A} = −1 poich`e 0 ∈ A. 3. Subadditivit`a: ρ(X + Y ) = inf{m ∈ R : m + (X + Y ) ∈ A} = inf{m + n : m, n ∈ R, (m + X) + (n + Y ) ∈ A} ≤ inf{m ∈ R, (m + X) ∈ A} + inf{n ∈ R, (n + Y ) ∈ A} = ρ(X) + ρ(Y ) 4. Omogeneit`a positiva:

Per λ = 0 `e ovvio; quando λ > 0,

ρ(λX) = inf{m ∈ R : m + λX ∈ A}

= λ inf{n ∈ R : n + X ∈ A} = λρ(X)

dove n = m λ. ¤

Osservazione 3.1.7. Affermiamo che la propriet`a di subadditivit`a, che nel caso di misure di rischio `e vista come una specie di fusione che non crei ul-teriori rischi, `e un requisito naturale; poich`e se esistessero due rischi X ed Y per i quali tale condizione non fosse soddisfatta, un’azienda o un profilo che volessero prendersi il rischio X + Y troverebbero maggiore convenienza nel-l’assumere separatamente i due rischi stessi, ad esempio attraverso due conti distinti, rispettando comunque gli obblighi imposti dal supervisore.

(33)

3.1. DEFINIZIONE DI RISCHIO E DI MISURA COERENTE 33 Osservazione 3.1.8. Se aggiungiamo un capitale c a un portafoglio, la sua misura di rischio deve diminuire di un importo pari a c. Per ogni X ∈ A e per ogni c ∈ R abbiamo ρ(X + c) = ρ(X) − c Dim. ρ(X + c) = inf{m ∈ R : m + c + X ∈ A} = inf{m ∈ R : m + X ∈ A} − c = ρ(X) − c

Osservazione 3.1.9. Per ogni X ∈ A con X ≤ 0, abbiamo ρ(X) > 0

Esempio 3.1.10. Consideriamo il peggior caso di misura di rischio ρmax

definito da

ρmax(X) = − inf

ω∈ΩX(ω) per ogni X ∈ A

Il valore ρmax(X) `e l’estremo superiore della potenziale perdita che pu`o avvenire

in ogni possibile scenario. ρmax `e quindi una misura di rischio coerente; `e la

misura di rischio pi`u conservativa, ovvero che ogni misura monetaria di rischio

ρ su A soddisfa

ρ(X) ≤ ρ( inf

ω∈ΩX(ω)) = ρmax

Si nota che ρmax pu`o essere rappresentata nella forma

ρmax(X) = sup Q∈Q

EQ[−X]

dove Q `e di classe di tutte le misure di probabilit`a su (Ω, F).

Se E `e un’attesa sublineare, definendo ρ(X) := E[−X], allora ρ `e una misura coerente di rischio.

1. Monotonia Presi X, Y ∈ A e X ≥ Y allora E[X] ≥ E[Y ]. Quindi

ρ(X) = E[−X] ≤ E[−Y ] = ρ(Y )

2. Conservazione delle costanti Preso c ∈ R abbiamo

ρ(c) = E[−c] = −c

3. Subadditivit`a Presi X, Y ∈ A abbiamo

ρ(X + Y ) = E[−X − Y ] = E[−X + (−Y )] ≤ ≤ E[−X] + E[−Y ]

= ρ(X) + ρ(Y )

4. Omogeneit`a positiva Sia λ ≥ 0, quindi abbiamo

(34)

Vicevera, se ρ `e una misura coerente di rischio, definendo E[X] := ρ(−X), allora E `e un’attesa sublineare.

1. Monotonia

Siano X, Y ∈ H e X ≥ Y

E[X] = ρ(−X) ≥ ρ(−Y ) = E[Y ]

dove la disuguaglianza segue dal fatto che −Y ≥ −X e dalla propriet`a di monotonia delle misure coerenti di rischio.

2. Conservazione delle costanti Dato c ∈ R, abbiamo E[c] = ρ(−c) = c

3. Subadditivit`a Per ogni X, Y ∈ H abbiamo,

E[X + Y ] = ρ(−X − Y ) = ρ(−X + (−Y )) ≤

≤ ρ(−X) + ρ(−Y ) =

= E[X] + E[Y ] 4. Omogeneit`a positiva Sia λ ≥ 0,

E[λX] = ρ(−λX) = λρ(−X) = λE[X]

Esercizio 3.1.11. Data ρ(·) una misura di rischio coerente. Allora possiamo

definire

Aρ= {X ∈ H : ρ(X) ≤ 0}

Mostrare che Aρ `e un insieme coerentemente accettabile.

Dim.

1. Monotonia

X ∈ Aρ, Y ≥ X implica Y ∈ Aρ

Segue dalla propriet`a di monotonia della Proposizione 3.1.6 che se X ∈ Aρ, allora ρ(X) ≤ 0 e che se Y ≥ X allora ρ(Y ) ≤ ρ(X). Quindi ρ(Y ) ≤

ρ(X) ≤ 0.

2. 0 ∈ H per definizione e ρ(0) = inf {m ∈ R : m + 0 ∈ A} = 0 e di conseguenza ρ(0) ≤ 0 cio`e 0 ∈ Aρ. Dal (2) della proposizione sopra

vediamo che ρ(−1) = 1 > 0 e quindi −1 /∈ Aρ.

3. Positiva omogeneit`a Dato X ∈ A , allora preso λ = 0 abbiamo

ρ(λX) = ρ(0 × X) = ρ(0) = 0 ≤ 0,

mentre preso λ > 0 abbiamo

ρ(λX) = λρ(X) ≤ 0.

Riferimenti

Documenti correlati

Il secondo limite segnalato toccava la struttura globale della relazione, intitolata volutamente: Il protagonismo giovanile 78. La relatrice si spiegò sulla natura

Come in altri grandi centri urbani di Catalogna, il fomento dell’industrializzazione ha avuto origine nella metà del secolo scorso con la costruzione della prima

La vita dei giovani lavoratori è molto più ricca di quanto io non sia riuscito ad esprimere attraverso il condensato della mia

« criteri » a partire dai quali « Don Bosco cercherebbe oggi di dare una risposta alle attese dei giovani: 1) L 'impegno totale per la realizzazione della

vo di Dio Don Filippo Rinaldi e facciamo oggetto preferenziale della nostra azione apostolica i destinatari a cui Don Bosco fu inviato ». Da tutto questo si

Offrire questa risposta costituisce il senso fondamentale della nostra vita, cioè la nostra vocazione di Cooperatori Salesiani: essa ci spinge e ci mantiene in

I nostri giovani sono pure stati molto sensibili ai segni che può dare la comunità salesiana della scuola alla quale

Nonostante molti dei risultati che presenteremo si applichino agli interi relativi ¢ , per gli scopi della fattorizzazione trascureremo gli interi negativi e quindi, parlando