Dipartimento di Matematica
Corso di Laurea magistrale in Matematica
DUE APPLICAZIONI DEL CALCOLO DI
MALLIAVIN AI METODI MONTE-CARLO
IN FINANZA: GRECHE E SPERANZA
CONDIZIONALE
Tesi di Laurea di: Sabrina Forgione
Relatore: Prof. Maurizio Pratelli
Ai miei nonni, le stelle pi`u belle del cielo. Per tutte quelle volte che guardando in alto mi sono sentita meno sola.
Indice
Introduzione 7
1 Calcolo di Malliavin 11
1.1 Introduzione al problema . . . 11
1.2 Regolarit`a delle leggi di probabilit`a e operatore di Malliavin su spazi Gaussiani finito-dimensionali . . . 13
1.3 Derivata di Malliavin sullo spazio di Wiener . . . 19
1.4 L’integrale di Skorohod . . . 22
1.5 Derivabilit`a secondo Malliavin per soluzioni di EDS . . . 25
2 Una Prima Applicazione: Le Greche 29 2.1 Nozioni Finanziarie . . . 29
2.2 Introduzione al problema . . . 36
2.3 Variazione del coefficiente b . . . 39
2.4 Variazione del dato iniziale . . . 42
2.5 Variazione del coefficiente σ . . . 45
2.6 Calcolo delle greche nel modello Black-Sholes . . . 47
3 Altre Applicazioni Finanziarie 55 3.1 Peso ottimale . . . 56
3.2 Riduzione della varianza . . . 61
4 Sperimentazione Numerica 77 4.1 Esperimenti sul secondo capitolo . . . 77 4.2 Esperimenti sul terzo capitolo . . . 82
Introduzione
Il calcolo di Malliavin, conosciuto anche come calcolo delle variazioni stoca-stico, `e una sorta di calcolo differenziale infinito dimensionale sullo spazio di Wiener. Esso venne introdotto nel 1974, quando fu usato da Paul Mallia-vin per dare una dimostrazione probabilistica ad un teorema di H¨ormander che caratterizza gli operatori ipoellittici. Pi`u tardi divenne di particolare importanza in ambito applicativo; in particolare, nel 1999, venne utilizzato nel campo della matematica finanziaria. Fu infatti scoperto che il calcolo di Malliavin, o pi`u precisamente la formula di integrazione per parti derivante dalla definizione di integrale di Skorohod (estensione del concetto di integrale stocastico per processi non adattati, chiamati processi anticipanti ) era utile al fine di calcolare oggetti finanziari quali il prezzo di non arbitraggio per una opzione e la sua sensibilit`a rispetto ai parametri che lo compongono; spieghiamo pi`u nel dettaglio di cosa si tratta.
Una opzione `e una tipologia di contratto che d`a al possessore il diritto, ma non l’obbligo (da qui il termine opzione) di comprare o vendere un deter-minato titolo, chiamato sottostante ad un prezzo prefissato, chiamato prezzo strike. In finanza matematica, il sottostante (o attivo) viene espresso tramite un processo stocastico (Xt)t∈[0,T ] soluzione di una EDS della forma
dXt = b(Xt)dt + σ(Xt)dWt X0 = x (1)
dove b e σ sono due funzioni tali da garantire l’esistenza di una soluzione di (1).
Data un’opzione, ci si pone il problema di stabilirne il giusto prezzo, chiamato prezzo di non arbitraggio; l’arbitraggio infatti `e una condizione per la quale un investitore pu`o ottenere profitto senza di fatto correre alcun rischio e di conseguenza rappresenta, dal punto di vista finanziario, una condizione indesiderata. Si pu`o dimostrare che, dato un attivo aleatorio X = (Xt)t∈[0,T ],
il prezzo di non arbitraggio (per una opzione Europea) `e dato dal seguente oggetto
Ex[φ(XT)] (2)
dove φ `e una funzione, detta payoff, caratteristica per ogni tipo di opzione; la x al pedice della speranza indica invece il punto da cui parte il processo X a tempo t = 0. `E importante, inoltre, capire come cambia il prezzo al variare dei parametri b, σ ed x; tali oggetti prendono il nome di greche, perch´e esprimibili tramite lettere greche. Tuttavia, tranne per modelli semplici ma molto poco realistici, non esistono formule che consentono di calcolare questi oggetti in maniera esatta; per questo motivo, si ricorre ad approssimazione numerica tramite il metodo Monte Carlo. A questo punto per`o il problema si sposta sull’efficienza dell’approssimazione; infatti, il metodo Monte Carlo funziona male nel caso in cui il payoff φ risulta essere discontinuo, soprattutto nell’approssimazione delle greche, dove intervengono i metodi alle differenze finite (in quanto si tratta di derivate). In [5] `e stato mostrato come, tramite l’ultilizzo della formula di integrazione per parti, le greche possono essere espresse nella seguente forma:
Ex[φ(XT) · π] , (3)
dove π `e una variabile aleatoria, chiamata peso. Si capisce immediatamente che dal punto di vista dell’approssimazione ci`o `e molto vantaggioso: questa espressione per le greche consente infatti di eliminare l’ultilizzo dei metodi
alle differenze finite.
Successivamente, in [6] sono stati affrontati ulteriori aspetti della questione. In primo luogo, il peso π derivante dall’utilizzo della formula di integrazione per parti non `e unico, ed `e naturale quindi porsi il problema di ottimizzar-lo, in termini di minimizzazzione della varianza, in quanto la grandezza di quest’ultima risulta essere inversamente proporzionale alla velocit`a di conver-genza del metodo approssimante (ci`o `e una diretta conseguenza del teorema del limite centrale). In secondo luogo, bisogna considerare il fatto che non `e sempre conveniente utilizzare l’espressione (3) in quanto spesso il peso fa aumentare (anche di molto) la varianza; per questo motivo, `e nata l’idea della formula di Malliavin ‘localizzata’, che consiste appunto nel localizzare la formula di integrazione per parti ovvero utilizzarla solo nei punti in cui il payoff risulta essere discontinuo. Infine, si ha quella che viene conside-rata l’applicazione pi`u interessante: il calcolo della speranza condizionale. Bisogna infatti specificare che il prezzo di non arbitraggio per una qualsiasi opzione, al tempo t, `e in realt`a dato da
E [φ(XT)|Xt= z] ; (4)
se per`o le opzioni Europee hanno la caratteristica di poter essere esercitate solo al tempo finale T , dunque vale la propriet`a di Markov e ci si riduce alla formula (2), per altre opzioni pi`u complesse (tipo quelle Americane, che possono essere esercitate in qualsiasi momento) non vale la stessa propriet`a, dunque si `e costretti a ricorrere alla formula (4). Come ci si pu`o immaginare, per un oggetto di questo tipo non `e possibile nemmeno pensare ad un metodo di approssimazione. In [6] viene mostrato come, sotto particolari condizioni, (4) pu`o essere espressa tramite un quoziente tra due valori attesi, rendendola di fatto facilmente approssimabile.
L’obiettivo che ci siamo posti nella stesura di questo elaborato `e presenta-re dettagliatamente tutti questi risultati e di verificarne l’effettiva efficienza sperimentalmente, utilizzando Matlab. L’elaborato `e strutturato come segue:
• nel Capitolo 1 `e stato introdotto il calcolo di Malliavin sullo spazio di Wiener e mostrato come questo si applica nell’ambito delle equazioni differenziali stocastiche;
• nel Capitolo 2 sono stati descritti con precisione gli oggetti finanziari coinvolti nella discussione, il metodo Monte Carlo, e i risultati relativi al calcolo delle greche;
• nel Capitolo 3 sono state discusse l’ottimalit`a del peso, la tecnica di riduzione della varianza tramite localizzazione e il calcolo della speranza condizionale;
• nel Capitolo 4 vengono presentati i grafici relativi ai nostri esperimenti numerici, con rispettivi codici Matlab utilizzati.
Capitolo 1
Calcolo di Malliavin
In questo capitolo ci occuperemo di introdurre il calcolo di Malliavin ed espor-ne i risultati principali. Per quasi ognuno di essi verr`a riportato solamente l’enunciato: per le rispettive dimostrazioni e per maggiori approfondimenti, si rimanda il lettore a [10].
1.1
Introduzione al problema
Sia (Ω, F , P) uno spazio di probabilit`a, e sia F : Ω → R una variabile aleatoria definita su di esso. Vorremmo definire, in qualche senso, la sua derivata DF .
Iniziamo con alcune definizioni note. Siano X, Y due spazi di Banach e sia f : X → Y una funzione.
Definizione 1.1 (Derivata di Gateaux). Diciamo che f `e derivabile se-condo Gateaux in x ∈ X nella direzione h ∈ X se esiste un vettore g ∈ Y tale che
lim
→0
1
kf (x + h) − f (x) − gkY = 0.
Definizione 1.2 (Derivata di Fr´echet). Diciamo che f `e derivabile secondo Fr´echet in x ∈ X se esiste un operatore lineare A : X → Y tale che
lim
h→0
kf (x + h) − f (x) − AhkY
khkX = 0.
In questo caso, chiamiamo A derivata di Fr´echet di f .
Queste due nozioni di derivata sono decisamente troppo forti per i nostri scopi. Entrambe le definizioni, infatti, dipendono implicitamente dalla con-tinuit`a della funzione rispetto ad una qualche topologia; ma come sappiamo, quando si ha a che fare con spazi infinito-dimensionali sorgono molte ano-malie che non si presentano invece quando si lavora con gli spazi finiti. Per fissare le idee, facciamo un esempio.
Sullo spazio Rd `e semplice definire una funzione f che sia differenzabile
al-l’infinito, che prenda il valore f (x0) = 1 per x0 ∈ Rd e che abbia supporto
compatto; non si pu`o dire lo stesso in dimensione infinita. Ricordiamo che la palla unitaria su uno spazio di Banach a dimensione infinita X non `e compatta per la topologia indotta dalla norma, dunque un insieme compatto in X possiede necessariamente un interno vuoto. Consideriamo adesso una funzione f : X → R che non sia la funzione identicamente nulla; se f avesse supporto compatto, allora non potrebbe essere continua. Infatti, supponiamo che f (x0) = 1 per qualche x0 ∈ X; se f fosse continua allora esisterebbe una
palla B0 contenente x0 tale che f (x) > 0 per ogni x ∈ B0: contraddizione,
perch´e B0 non `e compatta.
Facciamo ora un altro esempio, pi`u concreto e pi`u affine al nostro scopo. Consideriamo lo spazio di Wiener, ovvero lo spazio (Ω, F , P) dove Ω = C0[0, T ] e P `e la misura di Wiener. Sappiamo che, su di esso, il processo
formato dalle proiezioni canoniche Wt(w) = w(t) definisce un processo di
Wiener (Wt)t∈[0,T ]. Osserviamo che, con la norma del sup, C0[0, T ] risulta
essere uno spazio di Banach, ed ha il seguente sottospazio denso: H01 := h∗(t) = Z t 0 h(s)ds : h ∈ L2[0, T ]
che, munito della norma L2, risulta essere uno spazio di Banach. Tale sotto-spazio viene chiamato sotto-spazio di Cameron-Martin.
Lo spazio di Cameron-Martin, dunque, `e lo spazio delle funzioni derivabili (in senso debole) con derivata L2 e nulle in 0; non `e complicato verificare che esso `e trascurabile per P.
Sia ora h ∈ H1
0, e sia f (w) =
RT
0 h(t)dw(t). Tale funzione non `e definita per
ogni w ∈ Ω, poich´e molti elementi di Ω non sono a variazione limitata. No-nostante ci`o, dal momento che f pu`o essere identificata tramite un elemento del duale H0∗, essa `e ben definita P-quasi certamente: `e l’integrale di Wiener RT
0 h(t)dWt.
Quando si passa a spazi infinito-dimensionali, dunque, si ha a che fare con funzioni non necessariamente continue o non necessariamente definite ovun-que. Abbiamo quindi bisogno di introdurre un concetto di derivata che non dipenda in nessun modo dalla struttura topologica di Ω, ovvero di una deriva-ta definideriva-ta in senso debole. Nel seguito definiremo la derivaderiva-ta di Malliavin; tale derivata `e, in un certo senso, una derivata di Gateaux fatta per`o solo nelle direzioni dello spazio di Cameron-Martin.
1.2
Regolarit`
a delle leggi di probabilit`
a e
ope-ratore di Malliavin su spazi Gaussiani
finito-dimensionali
Sia (Ω, F , P) uno spazio di probabilit`a, e sia F = (F1, . . . , Fm) una variabile
aleatoria m-dimensionale definita su di esso. Ci poniamo il problema di studiare la regolarit`a della legge di probabilit`a di F; ci`o `e possibile grazie all’introduzione di una formula, chiamata formula di integrazione per parti, che definiamo di seguito.
e sia |α| = α1+ · · · + αm; indichiamo con ∂α l’operatore di derivazione ∂α = ∂|α| ∂α1 x1 · · · ∂xαmm .
Consideriamo una variabile aleatoria G definita su (Ω, F , P), a valori reali e integrabile.
Definizione 1.3. Si dice che vale la formula di integrazione per parti di grado α se esiste una variabile aleatoria integrabile Hα(F, G) tale che, per
ogni funzione test ϕ ∈ Cb∞(Rm) si abbia
E [(∂αϕ)(F)G] = E [ϕ(F)Hα(F, G)] .
Vale il seguente risultato, che si riferisce al caso in cui m = 1, dunque F : Ω → R e α `e un indice.
Teorema 1.1. Supponiamo che esista H1(F ) = H1(F, 1). Allora, la legge di
probabilit`a ha densit`a data da
f (x) = E1(F ≥x)H1(F ) .
Supponiamo che esistano Hi(F ) per i = 1, . . . , k; allora, la densit`a di F `e
derivabile k − 1 volte e si ha
f(k−1)(x) = (−1)k−1E1(F ≥x)Hk(F ) .
Consideriamo adesso il caso vettoriale, con m > 1. Si ha il seguente Teorema 1.2. Supponiamo che valga
E ∂mϕ ∂x1· · · ∂xm (F) = Eϕ(F)H(1,...,1)(F) .
Allora, la legge di F ha una densit`a continua e limitata data da
f (x) = E " m Y i=1 1(Fi≥xi)H(1,...,1)(F) # .
Per il caso vettoriale si ha anche un altro criterio dovuto a Malliavin, che enunciamo di seguito:
Teorema 1.3. Supponiamo che per ogni i = 1, . . . , m esista una costante Ci
tale che, per ogni ϕ ∈ Cc∞(Rm), si abbia
E ∂ϕ ∂xi (F) ≤ Cikϕk∞.
Allora, la legge di F ha densit`a appartenente a Lm−1m .
Supponiamo che per ogni multiindice α e per ogni ϕ ∈ Cb∞(Rm) valga la
seguente disuguaglianza
|E [∂αϕ(F)]| ≤ Cαkϕk∞,
dove Cα `e una costante indipendente da ϕ; allora, la legge di F ammette una
densit`a C∞.
Osserviamo che nel caso unidimensionale i due teoremi sono sostanzial-mente la stessa cosa, mentre per m > 1 non sono confrontabili: il secondo teorema ha delle ipotesi pi`u deboli ma si ottiene meno rispetto al primo teorema.
Sia ora γnla misura gaussiana standard su Rn, avente quindi densit`a (2π)−
n 2e−
kxk2 2
rispetto alla misura di Lebesgue su Rn. Indichiamo con Lp(γn) lo spazio
Lp(Rn, B(Rn), γn). Osserviamo che i polinomi appartengono ad Lp(γn) per
ogni 1 ≤ p < +∞; per il caso p = 2 vale un risultato pi`u forte: Proposizione 1.1. I polinomi sono densi in L2(γ
n).
Indichiamo con P l’insieme delle funzioni f appartenenti a C∞e a crescita al pi`u polinomiale.
Definizione 1.4 (Operatore derivata). Si chiama derivata (o anche gra-diente) l’operatore D : P ⊆ L2(Rn, γn) → Pn ⊆ L2(Rn, Rn, γn), Df = ∂f ∂x1 , . . . , ∂f ∂xn . L’operatore aggiunto di D, chiamato divergenza, `e l’operatore
D∗: Pn→ L2(γ n) definito da D∗(g1, . . . , gn) = − n X i=1 ∂gi ∂xi + n X i=1 xi.gi = −div(g) + x.g. Si ha infatti Z ∂f ∂xi gie− kxk2 2 dx = − Z f ∂ ∂xi gie− kxk2 2 dx = Z f −∂gi ∂xi + xi.gi e−kxk22 dx.
L’operatore L = D∗D `e chiamato operatore di Malliavin; si ha
(Lf )(x) = − n X i=1 ∂2f ∂x2 i (x) + n X i=1 xi. ∂f ∂xi = −∆f (x) + x.∇f (x). Osserviamo che valgono le seguenti identit`a:
D∗(f Dg) = − hDf, Dgi + f Lg, (1.1)
DD∗ = D∗D + I. (1.2)
Consideriamo un vettore a ∈ Rne indichiamo con D
if la componente i-esima
di Df , ovvero Dif = ∂x∂f
i; definiamo Daf =
Pn
i=1aiDif . Vale La seguente
Proposizione 1.2 (Formula di integrazione per parti). Siano g, f ∈ P. Vale la seguente formula:
Z Rn (Daf )gdγn = Z Rn (−f Dag + f gx.a) dγn.
Osserviamo che l’operatore D (rispettivamente l’operatore D∗) pu`o es-sere esteso da P (rispettivamente Pn) ad uno spazio pi`u ampio di funzioni:
ad esempio, lo spazio naturale su cui `e definito D in modo tale che DF appartenga ad L2(γ
n) `e
D1,2 =f ∈ Wloc1,2(R
n) : f ∈ L2(γ
Vedremo adesso come, utilizzando i risultati sulla densit`a visti e le regole di derivata e divergenza, si pu`o provare l’esistenza della densit`a per la legge di probabilit`a di un vettore aleatorio.
Sia F = (F1, . . . , Fm) un vettore aleatorio m-dimensionale definito su Rn e
supponiamo che, per ogni i, Fi ∈ D2,p per un opportuno p da determinare.
Definizione 1.5 (Matrice di Malliavin). Si chiama matrice di Malliavin la seguente matrice: Aij(x) = hDFi, DFji (x) = n X k=1 DkFi(x)DkFj(x), i, j = 1, . . . , m
dove x `e un qualsiasi vettore di Rn.
Per costruzione, A(x) = (Aij)mi,j=1(x) `e simmetrica e semidefinita positiva;
poich´e per il proseguo abbiamo bisogno dell’invertibilit`a, supponiamo che sia ovunque definita positiva, ovvero A(x) > 0 per ogni x ∈ Rn.
Sia ϕ ∈ Cc∞(Rm); notiamo che si ha
Dϕ(F) = m X i=1 ∂ϕ ∂xi (F)DFi, dunque preso 1 ≤ l ≤ m hDϕ(F), DFli = m X i=1 ∂ϕ ∂xi (F) hDFi, DFli = (A(∇ϕ)(F))l. (1.3)
Osservazione 1. `E bene fare distinzione tra Dϕ(F), ovvero la derivata di Malliavin della variabile aleatoria x 7−→ ϕ(F(x)) (che `e un vettore di Rn) e
(∇ϕ)(F), ovvero il gradiente della funzione ϕ calcolato il F (che `e un vettore di Rm).
L’equazione (1.3) si pu`o riscrivere in termini vettoriali: A(∇ϕ)(F) = hDϕ(F), DFi ,
e poich´e A `e invertibile si ottiene
(∇ϕ)(F) = A−1hDϕ(F), DFi =Dϕ(F), A−1
DF ovvero, per ogni 1 ≤ i ≤ n
∂ϕ ∂xi (F) = m X j=1 Dϕ(F), A−1 ij DF ,
dunque, ricordando che l’operatore aggiunto `e caratterizzato dall’identit`a hDf, gi = hf, D∗gi: E ∂ϕ ∂xi (F) = m X j=1 Eϕ(F)D∗(A−1ij DFj)
quindi, dalla formula (1.1)
E ∂ϕ ∂xi (F) = E " ϕ(F) − m X j=1 DA−1 ij , DFj + m X j=1 A−1ij LFj !# .
Si pu`o quindi pensare di applicare il Teorema 1.3, a patto che le variabili alea-torie −Pm
j=1DA −1
ij , DFj + Pmj=1A−1ij LFj
siano integrabili. Enunciamo dunque il seguente
Teorema 1.4. Sia F = (F1, . . . , Fm) un vettore aleatorio m-dimensionale
definito su Rn. Supponiamo che: 1. per ogni 1 ≤ i ≤ m, Fi ∈ D1,2;
2. la matrice di Malliavin A(·) = (Aij(·))mi,j=1 sia definita positiva per ogni
x ∈ Rn;
3. A−1ij e D(A−1ij ) siano a quadrato integrabile.
Allora, la legge di F ammette densit`a appartente a Lm−1m (γ
1.3
Derivata di Malliavin sullo spazio di
Wie-ner
Fissiamo alcune notazioni: indicheremo con H lo spazio L2([0, T ]) e con L2(Ω) lo spazio L2(Ω, F , P) dove (Ω, F, P) `e lo spazio di Wiener. (W
t)t∈[0,T ]
sar`a il processo di Wiener formato dalle proiezioni canoniche e (Ft)t∈[0,T ] il
completamento della filtrazione generata da esso. Infine, indicheremo con W (h) l’integrale di WienerR0T h(s)dWs
(w), dove h ∈ H.
Definizione 1.6. Si chiamano funzioni lisce i funzionali F : Ω → R della forma
F = ϕ(W (h1), . . . , W (hn))
dove h1, . . . , hn ∈ H e ϕ ∈ C∞(Rn) `e tale che tutte le sue derivate sono a
crescita al pi`u esponenziale.
Indichiamo con L l’insieme delle funzioni lisce. Osserviamo che, poich´e la legge di W (h1), . . . , W (hn) `e gaussiana n-dimensionale, le funzioni lisce
ap-partengono ad L2(Ω) e sono dense in tale spazio. Indichiamo poi con L b
l’in-sieme delle funzioni lisce limitate le cui derivate sono limitate, e osserviamo che Lb `e denso in L.
Definizione 1.7 (Derivata di Malliavin). Definiamo l’operatore derivata D : L ⊂ L2(Ω) → L2(Ω, L2[0, T ]) ∼= L2(Ω × [0, T ]) nel modo seguente: se
F = ϕ(W (h1), . . . , W (hn)), si pone DtF (w) = n X i=1 ∂ϕ ∂xi (W (h1), . . . , W (hn))(w).hi(t).
Dunque D `e un operatore che associa ad F liscia il processo (DtF )t∈[0,T ].
Laddove non ci sar`a ambiguit`a, indicheremo la derivata di Malliavin con DF , omettendo t.
Abbiamo quindi definito la derivata di Malliavin per una funzione liscia; vorremmo estendere questa definizione ad un oggetto qualsiasi F tramite un argomento limite. A tale scopo, ricordiamo la seguente
Definizione 1.8. Siano X, Y due spazi di Banach. Un operatore lineare A : D(A) ⊂ X → Y `e detto chiuso se vale la seguente propriet`a:
se xn ∈ D(A), xn → x e yn= Axn → y, allora x ∈ D(A) e Ax = y.
A `e detto chiudibile se vale la seguente propriet`a:
se xn ∈ D(A), xn→ 0 e yn= Axn→ y, allora y = 0.
Vorremmo dunque dimostrare che l’operatore D `e chiudibile. Osserviamo che valgono i seguenti risultati:
Lemma 1.1. Se F, G ∈ L e h ∈ H, allora Dh(F G) = GDhF + F DhG.
Lemma 1.2. Se F ∈ L e h ∈ H, allora E [DhF ] = E [F.W (h)] .
I due lemmi precedenti servono per dimostrare la seguente Proposizione 1.3. Siano F, G ∈ L e h ∈ H. Allora
E [DhF.G] = E [−F DhG + F G.W (h)] .
Dimostrazione. Applichiamo il Lemma 1.1 ad (F G); si ha Dh(F G) = (DhF )G + F DhG, dunque E [Dh(F G)] = E [(DhF )G + F DhG] . Ma per il Lemma 1.2, E [Dh(F G)] = E [F G.W (h)] , dunque si ottiene E [F G.W (h)] = E [(DhF )G + F DhG] , da cui la tesi.
Adesso possiamo dimostrare che vale la seguente Proposizione 1.4. L’operatore D `e chiudibile.
Dimostrazione. Poich´e L `e denso in L2(Ω),`e sufficiente provare che se una successione di funzioni lisce (Fn)n≥1 converge a 0 in L2(Ω), e DFn converge
a Z in L2(Ω × [0, T ]), allora Z = 0 nel senso di L2(Ω × [0, T ]) ovvero per
ogni Y ∈ L2(Ω × [0, T ]) si ha R RΩ×[0,T ]Z(w, s)Y (w, s)dP(w)ds = 0, e basta verificarlo per Y (s, w) = G(w)h(s) con G ∈ Lb (cio`e liscia, limitata e con
derivate limitate) ed h ∈ H. Si ha Z Z Ω×[0,T ] Z(w, s)Y (w, s)dP(w)ds = lim n→∞ Z Z Ω×[0,T ] DsFn(w)h(s)G(w)dsdP(w) = lim n→∞E [(DhFn)G] = limn→∞(−E [FnDhG] + E [FnGW (h)]) = 0.
L’ultima uguaglianza segue dal fatto che Fn converge a 0 in L2(Ω) e che sia
G che DG sono limitate. Poich´e la scelta di G `e arbitraria in Lb ed Lb `e
denso, segue che Z = 0.
D’ora in poi, dunque, considereremo la chiusura dell’operatore D, che indicheremo sempre nello stesso modo, e con D1,2 il suo dominio: D1,2 `e la
chiusura di L rispetto alla seguente norma kF k1,2 = Z Ω F2dP + Z Ω Z [0,T ] (DsF )2ds 12 . Di conseguenza F ∈ D1,2 se esiste una successione (F
n)n≥1 di elementi di L
tale che Fn → F in L2(Ω) e (DFn)n≥1 `e di Cauchy in L2(Ω × [0, T ]): si ha
DF = limn→∞DFn.
Vediamo di seguito alcune propriet`a di cui gode l’operatore D.
Proposizione 1.5 (Regola della catena). Siano F1, . . . , Fn elementi di
D1,2 e sia ϕ ∈ C1(Rn) con derivate prime limitate. Allora ϕ(F1, . . . , Fn) ∈
D1,2 e si ha Dsϕ(F1, . . . , Fn) = n X i=1 ∂ϕ ∂xi (F1, . . . , Fn)DsFi.
Proposizione 1.6. Sia (Fn)n≥1 una successione di elementi di D1,2 e
sup-poniamo che Fn → F in L2(Ω) e che la successione (DFn)n≥1 sia limitata in
L2(Ω × [0, T ]): allora F ∈ D1,2.
Proposizione 1.7. Siano F ∈ D1,2 e g lipschitziana con constante di Lip-schitz C. Allora g ◦ F ∈ D1,2 ed esiste Z con |Z(w)| ≤ C q.c. tale che si
abbia
Dt(g ◦ F )(w) = Z(w).DtF (w).
Proposizione 1.8. Supponiamo che F ∈ D1,2 sia Ft-misurabile. Allora DsF
`e Ft-misurabile e DsF = 0 per s > t.
1.4
L’integrale di Skorohod
Nel paragrafo precedente abbiamo definito la derivata di Malliavin come un operatore D : D1,2 ⊆ L2(Ω) → L2(Ω × [0, T ]); poich´e il dominio di D `e
denso, `e ben definito il suo operatore aggiunto.
Definizione 1.9 (Integrale di Skorohod). Denotiamo l’operatore aggiun-to di D con D∗; dunque D∗ `e un operatore non limitato su L2(Ω × [0, T ]) a
valori in L2(Ω), tale che:
1. il dominio di D∗, che indichiamo con D∗ `e l’insieme dei processi Z ∈ L2(Ω × [0, T ]) tali che E Z T 0 DtF Ztdt ≤ C. kF kL2(Ω)
per ogni F ∈ D1,2 e C costante indipendente da Z; 2. se Z ∈ D∗, allora D∗(Z) ∈ L2(Ω) e soddisfa hDF, ZiL2(Ω×[0,T ])= E Z T 0 DtF Ztdt = E [F D∗(Z)] = hF, D∗(Z)iL2(Ω). (1.4)
D∗(Z) `e detto divergenza di Z o integrale di Skorohod ; per esso vengono usate altre due notazioni: δ(Z) e R0T ZsδWs.
La formula (1.4) viene chiamata relazione di integrazione per parti, e rappresenta la chiave di moltissime applicazioni del calcolo di Malliavin.
L’integrale di Skorohod pu`o essere interpretato come una generalizzazione dell’integrale stocastico; vale infatti il seguente risultato:
Teorema 1.5. Sia H ∈ M2 (ovvero H `e progressivamente misurabile e
E h RT 0 H 2 sds i < +∞). Allora H ∈ D∗ e si ha Z T 0 HsδWs = Z T 0 HsdWs.
In effetti, l’integrale di Skorohod era stato definito proprio come estensio-ne dell’integrale stocastico ai processi non adattati, e pi`u tardi ci si `e accorti che questo coincideva con l’operatore aggiunto dell’operatore derivata di Mal-liavin.
Vale il seguente
Teorema 1.6. Siano dati F ∈ D1,2 e Z ∈ D∗; supponiamo che
E " F2 Z T 0 ZsδWs 2 + Z T 0 DsF Zsds 2# < +∞. Allora (F Zs) ∈ D∗ e si ha Z T 0 (F Zs)δWs = F Z T 0 ZsδWs− Z T 0 DsF Zsds.
In particolare, se Z `e progressivamente misurabile la formula diventa Z T 0 (F Zs)δWs= F Z T 0 ZsdWs− Z T 0 DsF Zsds.
Descriviamo ora una importante conseguenza della definizione 1.9. Sappiamo che un elemento F ∈ L2(Ω) si pu`o rappresentare come integrale
di Ito, ovvero nella seguente forma: F = E [F ] +
Z T
0
HsdWs
dove H ∈ M2. La formula che segue permette di dare una rappresentazione
esplicita del processo H.
Teorema 1.7 (Formula di Clark-Ocone-Karatzas). Sia F ∈ D1,2;
al-lora F = E [F ] +RT
0 HsdWs dove H `e la proiezione ortogonale di DF sul
sottospazio chiuso M2. In particolare, per quasi ogni s, si ha
Hs = E [DsF |Fs]
quasi certamente.
Questa formula ha tre importanti applicazioni:
• Disuguaglianza di Poincar`e gaussiana. Se X ∈ D1,2, allora
V ar(X) ≤ E Z T 0 |DsX| 2 ds .
• Concentrazione della misura. Se X ∈ D1,2 ed esiste L ≥ 0 tale che
|DsX(w)| ≤ L per quasi ogni w ∈ Ω e per quasi ogni s ∈ [0, T ], allora
P(|X − E[X]| > λ) ≤ 2exp − λ 2 T L2 ∀λ > 0.
• Teorema di rappresentazione delle martingale Browniane. Sia (Bt)t∈[0,T ] un moto Browniano k-dimensionale (k ≥ 1). Se (Mt)t∈[0,T ] `e
una martingala rispetto alla filtrazione generata da (Bt)t∈[0,T ], e E [MT2] <
+∞, allora Mt= M0+ Z t 0 HsdBs ∀t ∈ [0, T ], dove H ∈ M2.
1.5
Derivabilit`
a secondo Malliavin per
solu-zioni di EDS
Sia (Ω, F , P) uno spazio di probabilit`a, su cui definiamo un moto Browniano (Wt)t∈[0,T ] rispetto ad una filtrazione (Ft)t∈[0,T ]. Consideriamo la seguente
equazione differenziale stocastica dXt= a(t, Xt)dt + b(t, Xt)dWt X0 = V (1.5)
la cui soluzione `e un processo di Ito Xt= V +
Rt
0 a(s, Xs)ds +
Rt
0 b(s, Xs)dWs,
dove V `e una variabile aleatoria F0-misurabile, a : [0, T ] × R → R,
b : [0, T ] × R → R.
Bisogna innanzitutto discutere l’esistenza e l’unicit`a di una soluzione per una tale equazione; enunciamo dunque il seguente
Teorema 1.8. Supponiamo che a(t, Xt), b(t, Xt) siano continue; supponiamo
inoltre che esistano due costanti K e C tali che:
|a(t, x) − a(t, y)| ≤ K |x − y| |a(t, x)| ≤ C(1 + |x|) |b(t, x) − b(t, y)| ≤ K |x − y| |b(t, x)| ≤ C(1 + |x|)
e supponiamo che V sia a quadrato integrabile. Allora esiste ed `e unica la soluzione dell’equazione (1.5).
D’ora in poi supporremo che siano sempre soddisfatte le ipotesi del Teore-ma 1.8; supponiamo inoltre che le funzioni a(t, Xt), b(t, Xt) siano C1 rispetto
ad x con derivate ax(t, Xt) e bx(t, Xt) uniformemente limitate. Indichiamo
con Xtx la soluzione dell’equazione (1.5) con dato iniziale X0 = x; deriviamo
formalmente rispetto ad x e, indicando con Yx t = ∂Xx t ∂x , si ottiene dYtx = ax(t, Xt)Ytxdt + bx(t, Xt)YtxdWt Yx 0 = 1 (1.6)
Definizione 1.10 (Prima Variazione). Si definisce processo di prima va-riazione dell’equazione (1.5) il processo Yx
t soluzione dell’equazione (1.6).
Tale soluzione pu`o essere scritta in forma esplicita nella seguente forma: Ytx = exp Z t 0 ax(s, Xsx) − bx(s, Xsx)2 2 ds + Z t 0 bx(s, Xs)dWs . Per dimostrarlo, basta applicare la formula di Ito a Zx
t =log(Ytx).
Vedremo adesso che la variabile aleatoria Xtx si pu`o derivare secondo Mal-liavin e che tale derivata pu`o essere espressa in funzione del processo prima variazione.
Enunciamo innanzitutto il seguente risultato, di passaggio di derivata sotto il segno di integrale:
Teorema 1.9. Sia (Xt)t∈[0,T ] un processo stocastico. Supponiamo che, per
ogni t, Xt∈ D1,2, che esista una versione di DsXt misurabile su
Ω × [0, T ] × [0, T ] e che si abbia Z T 0 kXtk 2 1,2dt < +∞. Allora R0TXtdt ∈ D1,2 e si ha Ds Z T 0 Xtdt = Z T 0 (DsXt) dt.
Ultilizzando quest’ultimo risultato ed altre propriet`a viste, si pu`o dimo-strare il seguente Teorema 1.10. La soluzione Xx t dell’equazione (1.5) appartiene a D1,2 e si ha, per s < t DsXtx = b(s, X x s) + Z t s ax(u, Xux)DsXuxdu + Z t s bx(u, Xux)DsXuxdWu.
Osserviamo che tale derivata si pu`o scrivere nel modo seguente: DsXtx = b(s, X x s)exp Z t s ax(u, Xux) − bx(u, Xux)2 2 du + Z t s bx(u, Xux)dWu
che, tramite alcuni semplici passaggi, si trasforma in DsXtx = b(s, X x s)Y x t (Y x s ) −1 dove Yx
Capitolo 2
Una Prima Applicazione: Le
Greche
In questo capitolo verr`a illustrata un’applicazione del calcolo di Malliavin nel contesto finanziario. Per questo motivo, la prima sezione verr`a dedicata ad una breve descrizione di tale contesto insieme a tutti gli oggetti pi`u impor-tanti che ne fanno parte; chiaramente, ci`o vale anche per le applicazioni che verranno affrontate nel capitolo successivo.
Durante tutto il corso della trattazione daremo per buoni i risultati sui flussi di equazioni differenziali stocastiche, facendo riferimento alle pagine 245-255 di [11].
2.1
Nozioni Finanziarie
In questo paragrafo ci occuperemo di descrivere un modello finanziario ed enunciare i risultati fondamentali per la valutazione delle opzioni. Ricordia-mo che una opzione `e un contratto che d`a a chi lo possiede il diritto (ma non l’obbligo) di acquistare o vendere ad un determinato tempo il titolo sul quale l’opzione stessa `e iscritta (chiamato attivo o sottostante) ad un prez-zo prefissato K (chiamato prezprez-zo strike). Ogni opzione `e definita dal suo
payoff, ovvero una funzione che descrive una ricezione o un pagamento, e che dipende solamente dalle dinamiche dell’attivo. Il payoff dunque definisce una formula contrattuale in condizioni di incertezza, con la quale ci si assicu-ra contro un evento negativo o si scommette in favore di un evento positivo. Considereremo due tipi di opzioni:
• opzione call, in cui il possessore ha il diritto di acquistare il sottostante; • opzione put, in cui il possessore ha il diritto di vendere il sottostante. Di seguito alcuni esempi di opzioni con relativo payoff.
1. Opzioni Europee. Questo tipo di opzioni hanno la caratteristica di essere esercitate solamente alla fine, ovvero al tempo T che viene chiamato tempo di maturit`a. Supponiamo che il prezzo del contratto al tempo T sia uguale a ST; poich´e ST non `e noto al tempo t = 0, esso
d`a una condizione di incertezza al modello. Il prezzo strike K invece `e noto, dunque si hanno due possibilit`a: ST > K, e in questo caso
φ(ST) = ST − K, o ST < K, e in questo caso φ(ST) = 0 in quanto
non `e chiaramente conveniente esercitare l’opzione. Dunque, per una opzione call si ha φ(ST) = (ST − K)+, mentre per una opzione put
(simmetrica rispetto alla call) si ha φ(ST) = (K − ST)+.
2. Opzioni Americane. Questo tipo di opzioni differiscono dalle pre-cedenti per il fatto che possono essere esercitate in qualsiasi momento della durata del contratto. `E facile quindi intuire che i payoff sono φ(St) = (St− K)+ nel caso di una call e φ(St) = (K − St)+ nel caso di
una put.
3. Opzioni Asiatiche. Queste opzioni, a differenza delle precedenti, non dipendono solamente dalla condizione presente in cui si trova il sotto-stante, ma anche da tutto il suo trascorso. Per questo motivo il payoff `e definito come segue: φ = φR0T Stdt
call si ha φR0T Stdt
= R0T Stdt − K
+
, mentre per una put si ha φ (Stdt) =
K −R0T Stdt
+ .
4. Opzioni Digitali. Queste opzioni vengono anche chiamate opzioni binarie; esse danno la possibilit`a di pagare un prezzo prefissato nel caso in cui il prezzo del sottostante superi il limite dato dal prezzo strike. Non esistono quindi opzioni put ed opzioni call, ma un solo payoff definito da φ(ST) = 1(ST>K).
Partiamo da tempi discreti, dunque supponiamo di avere un modello nel quale l’insieme dei tempi `e dato da τ = (0, 1, . . . , N ), su uno spazio di probabilit`a (Ω, F , P) sul quale `e assegnata una filtrazione (Ft)Nt=0. Nel mercato `e presente
un attivo senza rischio S0
n = (1 + r)n (dove r `e il tasso di interesse) e da
d attivi con rischio (Sni)Nn=0, dove per ogni i = 1, . . . , d (Sni) `e un processo stocastico adattato.
Definizione 2.1 (Strategia). Si chiama strategia di portafoglio una coppia (H0
n, Hn)Nn=1 dove (Hn0)n≥1 `e prevedibile a valori reali, (Hn)n≥1 `e prevedibile
a valori in Rd.
Il valore del portafoglio `e dato da Vn = Hn0Sn0+Hn·Sn, dove Sn = (Sn1, . . . , Snd).
Definizione 2.2. Il portafoglio `e detto autofinanziato se per ogni n si ha H0
nSn0+ Hn· Sn = Hn+10 Sn0+ Hn+1· Sn, ovvero se ad ogni istante n il capitale
viene spostato da un attivo all’altro senza immettere o togliere nuovo capitale. Introduciamo l’attualizzazione: gli attivi attualizzati sono definiti da ˜ Si n= Si n S0 n = S i n(1 + r) −n.
Definizione 2.3 (Arbitraggio). Si chiama arbitraggio un portafoglio auto-finanziato con V0 = 0, VN ≥ 0 e P(VN > 0) > 0.
La presenza di arbitraggio si traduce nel fatto che un investitore pu`o ottenere profitto senza correre alcun rischio; dal punto di vista finanziario, dunque, `e una condizione indesiderata. L’obiettivo allora `e quello di fare in modo che non esistano arbitraggi; il seguente teorema `e noto come primo teorema fondamentale della valutazione degli attivi.
Teorema 2.1 (Dalang-Morton-Willinger). Sono equivalenti: 1. non esistono arbitraggi;
2. esiste una probabilit`a Q equivalente a P tale che ( ˜Si
n)nn=0per i = 1, . . . , N
sia una martingala; inoltre, si pu`o scegliere Q con dQ
dP ∈ L ∞.
Si ha dunque una condizione necessaria e sufficiente affinch´e non si abbia-no arbitraggi: la presenza di una probabilit`a martingala equivalente, chia-mata anche misura neutrale di rischio.
Passiamo adesso ai tempi continui, descrivendo un modello introdotto da Samuelson e in seguito sviluppato da Black e Scholes. Consideriamo dunque uno spazio di probabilit`a (Ω, F , P) sul quale `e definito un moto Browniano (Wt)t∈[0,T ]e sia (Ft)t∈[0,T ]una filtrazione rispetto alla quale il moto Browniano
risulta adattato. Nel modello `e presente un attivo senza rischio St0 = ert (ovvero la somma 1 rivalutata al tasso di interesse differenziale continuamente composto r) ed un attivo con rischio St, soluzione della seguente equazione
differenziale stocastica:
dSt= St(µdt + σdWt);
`e facile constatare che, se x `e la condizione iniziale, allora St= xexp Z t 0 (µ − σ 2 2 )dt + Z t 0 σdWt ,
che diventa banalmente St = xexp
(µ − σ22)t + σWt
: questo processo di chiama Moto Browniano Geometrico e la costante σ si chiama volatilit`a. Definizione 2.4. Si chiama strategia di portafoglio una coppia (H0
t, Ht) di
processi stocastici progressivamente misurabili; il valore del portafoglio al tempo t `e dato da Vt= Ht0St0+ HtSt.
Definizione 2.5. Il portafoglio `e detto autofinanziato se si ha Vt= V0+ Z t 0 Hs0dSs0+ Z t 0 HsdSs.
Consideriamo adesso l’attivo attualizzato ˜St = SS0t t = e −rtS t; esso soddisfa la seguente equazione d ˜St= ˜St((µ − r)dt + σdWt) = ˜Stσd(Wt+ Z t 0 (µ − r σ )ds). Se chiamiamo Wt∗ = Wt+ Rt 0( µ−r σ )ds, l’equazione diventa d ˜St = ˜StσdW ∗ t.
Osservazione 2. Le filtrazioni generate dai processi St, Wt, Wt∗ coincidono.
Vale il seguente risultato:
Teorema 2.2. Sia P∗ la probabilit`a definita da dP∗ dP = exp − µ − r σ WT − 1 2 µ − r σ 2 T ! .
Si ha che, sotto P∗, il processo ( ˜St)t∈[0,T ] `e una martingala.
Si ha dunque la presenza di una probabilit`a martingala equivalente, da cui segue l’assenza di arbitraggio (il viceversa vale solo a tempi finiti, come visto nel Teorema 2.1). `E facile vedere che sotto questa nuova probabilit`a il processo St soddisfa la seguente equazione
D’ora in poi, poch´e non ci saranno ambiguit`a, indicheremo il moto Browniano con Wt.
Ci poniamo ora il problema di calcolare il prezzo di una opzione affinch´e non ci siano arbitraggi. Concentrandoci sul caso delle opzioni call e put, per questo particolare modello si hanno delle formule esplicite, che enunciamo di seguito.
Teorema 2.3. Il valore al tempo t delle opzioni call e put, con prezzo strike K, `e dato da Ct= C(t, St) e Pt= P (t, St) secondo le seguenti formule:
C(t, x) = xΦ(d1) − Ke−r(T −t)Φ(d2), P (t, x) = Ke−r(T −t)Φ(−d2) − xΦ(−d1) dove d1,2 = log Kx + r ± σ22 (T − t) σ√T − t
e Φ `e la funzione di ripartizione della variabile N(0,1).
Le applicazioni finanziarie richiedono inoltre di valutare la sensibilit`a del prezzo dell’opzione (in questo caso dunque C e P ) rispetto ai differenti para-metri, quali x (la condizione iniziale), r e σ; tali coefficienti di sensibilit`a ven-gono chiamati greche, perch´e vengono rappresentati tramite lettere greche. Di seguito le definizioni: • ∆ = ∂x (Delta); • ρ = ∂r (Rho); • V = ∂σ (Vega); • Γ = ∂2 x (Gamma).
In questo caso `e molto semplice (a meno di calcoli tediosi) trovare le formule esplicite delle greche, basta infatti partire dalle formule dei prezzi ed
effettuare le derivate.
Come visto nelle formule di Black e Scholes, il termine µ non `e rilevante (in quanto diventa r passando alla probabilit`a martingala equivalente) quindi di fatto l’unica incognita `e data dalla volatilit`a, che vorremmo stimare. Esistono essenzialmente due metodi: il metodo della volatilit`a storica, in cui si fa una stima partendo dai dati osservati sul mercato nel passato, e la volatilit`a implicita, in cui si parte dalle valutazioni delle opzioni quotate nel mercato e si invertono le formule per trovare σ. Tuttavia, questi due metodi portano a stime diverse, inoltre il secondo metodo fornisce valori diversi al variare del prezzo strike; ci`o mostra che questo modello, dal punto di vista realistico, non `e adeguato. Si ha dunque l’esigenza di passare a modelli pi`u realistici. Consideriamo un processo X = (Xt)t∈[0,T ] soluzione della seguente equazione
differenziale stocastica
dXt= b(Xt)dt + σ(Xt)dWt,
con X0 = x, dove b e σ sono due funzioni definite in modo da garantire una
soluzione di tale equazione; il processo X rappresenta, nella sua generalit`a, un attivo aleatorio. Osserviamo che vale il seguente
Teorema 2.4. Sia X un attivo aleatorio al tempo T, di quadrato integrabile rispetto a P∗: si ha Vt = E∗ X er(T −t) Ft ,
ed in particolare il prezzo di non arbitraggio V0 `e dato da E∗[ ˜X].
Questo risultato, indipendente dal modello considerato, fornisce l’espres-sione del prezzo di non arbitraggio di una opzione; tuttavia, per questa quan-tit`a non esistono formule esplicite analoghe a quelle viste precedentemente, che ci consentirebbero di ricavare in maniera esplicita anche le greche: si `e dunque costretti a ricorrere ad approssimazioni numeriche. Nel prossimo paragrafo verr`a approfondito quest’ultimo concetto.
2.2
Introduzione al problema
Consideriamo il processo stocastico (Xtx)t∈[0,T ] a valori in Rn definito su
(Ω, F , P) soluzione della seguente equazione differenziale stocastica dXt= b(Xt)dt + σ(Xt)dWt X0 = x, (2.1)
dove b : Rn → Rn, σ : Rn → Rn×n sono definite in modo da soddisfare le
ipotesi del Teorema 1.8.
Dati 0 < t1 ≤ . . . ≤ tm = T , consideriamo la seguente funzione
u(x) = Eφ(Xtx1, . . . , X
x
tm) . (2.2)
Come detto nella sezione precedente, u(x) rappresenta il giusto prezzo per una opzione affinch´e non si abbiano arbitraggi. Il nostro interesse, ora, `e di valutare la sua sensibilit`a rispetto al cambiamento dei paramentri x, b e σ, ovvero le greche.
Come ci si pu`o aspettare, non capita quasi mai che la funzione u(x) sia espressa esplicitamente in funzione di tali paramentri, dunque bisogna ricor-rere ad approssimazioni. Il metodo numerico che si utilizza in questo caso `e il metodo Monte Carlo, che descriveremo brevemente. Per semplificare la discussione, concentriamoci nel caso della Delta.
Chiamiamo Xx = (Xx
t1, . . . , X
x
tm), e sia N un intero positivo; dopo aver
ge-nerato N ‘simulazioni’ indipendenti di Xx, che chiameremo Xx,i per i = 1, . . . , N (dunque Xx,i `e il valore che Xx prende alla i-esima simulazione), si
approssima I = E [φ(Xx)] calcolando ˆ IN = 1 N N X i=1 φ(Xx,i)
che, ricordando la legge forte dei grandi numeri, converge a I per N → ∞. Questa legge per`o non dice nulla sulla velocit`a di convergenza, ovvero non
abbiamo nessun controllo sulla quantit`a P ˆ IN − I > .
Per avere maggiore precisione sulla stima avremmo bisogno di informazio-ni aggiuntive, come ad esempio il valore V = E [φ(Xx)2] − I2, se φ `e a
quadrato integrabile; infatti, in questo caso V ar ˆIN
= NV, dunque per la disuguaglianza di Chebyshev P ˆ IN − I > N −1 2 < V 2
e quindi l’errore `e al pi`u dell’ordine di N−12. Per approssimare ∆ si utilizzano
i metodi alle differenze finite; considerando ad esempio la differenza in avanti, si ha: ∆ ≈ 1 N N X i=1 φ(Xx,i+) − φ(Xx,i) .
Il problema maggiore si presenta proprio nel calcolo di quest’ultima appros-simazione: una convergenza lenta implica che, anche scegliendo abbastanza piccolo, si ha un errore troppo grande. Tale argomentazione vale, in maniera analoga, per le altre greche.
Abbiamo quindi mostrato che, a meno che φ non ammetta certe condizioni di regolarit`a, il metodo Monte Carlo funziona male e restituisce delle approssi-mazioni delle greche non valide. Il Calcolo di Malliavin entra in gioco proprio in questo senso: dimostreremo infatti che le greche possono essere espresse nella seguente forma
E [φ(Xx)π]
dove π `e una variabile aleatoria la cui espressione pu`o essere determinata esplicitamente. Si richiede dunque di approssimare non una derivata, ma un valore atteso, commettendo un errore meno rilevante.
Supponiamo che b e σ, oltre a soddisfare le ipotesi del Teorema 1.8, siano di classe C2 e con derivate limitate. Si pu`o provare (Teorema 39 di [11], pag.
250) che esiste una versione di Xx
t(w) che sia derivabile rispetto ad x per
quasi ogni (w, t) fissati. Denotiamo con Yx = (Yx
t )t∈[0,T ] il processo di prima variazione associato a
(Xx
t)t∈[0,T ] definito dalla seguente equazione differenziale
dYx t = b 0(Xx t)Ytxdt + Pn i=1σ 0 i(Xtx)YtxdWti Yx 0 = In
dove In indica la matrice identit`a di Rn. Facciamo inoltre la seguente
assun-zione (di ellitticit`a uniforme):
∃ > 0 t.c. ξTσT(x)σ(x)ξ ≥ |ξ|2 per ogni ξ, x ∈ Rn. (2.3) e spieghiamone il motivo. Osserviamo che vale il seguente risultato (Teorema 2.9 di [8], pag. 289):
Teorema 2.5. Si consideri l’equazione (2.1); supponiamo che b e σ soddi-sfino le seguenti condizioni:
kb(x) − b(y)k + kσ(x) − σ(y)k ≤ K kx − yk , kb(x)k2+ kσ(x)k2 ≤ K2(1 + kxk2),
per ogni x, y ∈ Rn, dove K `e una costante positiva. Sia ξ una variabile aleatoria su (Ω, F , P) a valori in Rn indipendente da W e con momento
secondo finito. Allora esiste un processo Xx = (Xx
t)t∈[0,T ] continuo e adattato
rispetto a Ft soluzione forte di (2.1), con condizione iniziale ξ. Inoltre, il
processo `e a quadrato integrabile: per ogni T > 0 esiste una costante C, dipendente solo da K e T , tale che
EkXtxk 2
Grazie alle ipotesi fatte su b0 e σ0, dal Teorema 2.5 segue che Yx ∈ L2(Ω ×
[0, T ]) e dunque, per (2.3), il processo (σ−1(Xx
t)Ytx) sta in L2(Ω × [0, T ]).
Inoltre, per ogni funzione limitata γ, si ha σ−1γ(Xx
t) ∈ L2(Ω × [0, T ]) e σ −1γ
`e una funzione limitata.
2.3
Variazione del coefficiente b
Supponiamo che il payoff sia una mappa φ : C[0, T ] → R che abbia momento secondo finito. Consideriamo il processo perturbato (Xtx,)t∈[0,T ] soluzione
della seguente EDS
dXtx, = [b(Xtx,) + γ(Xtx,)] + σ(Xtx,)dWt, (2.4)
dove 0 < < 1 e γ : [0, T ] × Rn→ Rn`e una funzione limitata; consideriamo
quindi
u(x) = E [φ(Xx,)] .
Prima di andare avanti, facciamo una breve regressione. Sia (Ht)t∈[0,T ] un processo adattato; consideriamo
Mt = exp Z t 0 HsdWs− 1 2 Z t 0 Hs2ds .
Si pu`o verificare facilmente che Mt `e soluzione della seguente EDS
dMt= HtMtdWt M0 = 1
(basta applicare la formula di Ito al processo At= log(Mt)), dunque
Mt= 1 +
Z t
0
Se vale la seguente condizione E exp 1 2 Z t 0 Hs2ds < +∞ (2.6)
allora Mt`e una martingala. Mtviene chiamata martingala esponenziale,
mentre (2.6) viene chiamata condizione di Novikov. Vale il seguente Teorema 2.6 (di Girsanov). Sia Mtcome sopra, e supponiamo che soddisfi
(2.6). Allora, detta Q = MT · P, si ha che sotto Q il processo (Wt−
Rt 0 Hsds)
`e un moto Browniano. Inoltre, le probabilit`a equivalenti a P sono tutte e sole quelle di questo tipo.
Possiamo ora dimostrare il teorema che d`a l’espressione della derivata di u(x) rispetto a in = 0.
Teorema 2.7. La funzione 7→ u(x) `e derivabile in = 0 per ogni x ∈ Rn,
e si ha ∂ ∂u (x)|=0 = E φ(Xx) Z T 0 σ−1 γ(Xtx), dWt . Dimostrazione. Consideriamo la seguente variabile aleatoria
ZT = exp − Z T 0 σ−1 γ(Xtx), dWt − 2 2 Z T 0 σ−1γ(Xtx) 2 dt . Poich´e σ−1γ `e limitata, (2.6) `e banalmente soddisfatta e dunque E [ZT] = 1 per ogni > 0. Ne segue che la misura di probabilit`a Q definita dalla
derivata di Radon-Nikodym dQ dP = Z T `e equivalente a P, inoltre u(x) = EQh ˜ZTφ(Xx,) i dove ˜ ZT = exp − Z T 0 σ−1 γ(Xtx,), dWt − 2 2 Z T 0 σ−1γ(Xtx,) 2 dt
e (Wt)t∈[0,T ] definito da Wt = Wt+
Rt
0σ
−1γ(Xx,
t )dt `e un moto Browniano
sotto Q, per il teorema di Girsanov. Considerando le equazioni (2.1) e (2.4),
si osserva che la distribuzione congiunta di (Xx,, W) sotto Q coincide con
la distribuzione congiunta di (Xx, W ) sotto P; dunque, si ottiene u(x) = E [ZTφ(Xx)] .
Osserviamo che, per (2.5), vale 1 (Z T − 1) = Z T 0 Ztσ−1γ(Xtx), dWt , dunque 1 (Z T − 1) L2 → Z T 0 σ−1 γ(Xtx), dWt ,
per isometria di Ito. Poich´e φ ha momento secondo finito, si ha 1 (u (x) − u(x)) − E φ(Xx) Z T 0 σ−1 γ(Xtx), dWt = 1 (E [Z Tφ(X x )] − E [φ(Xx)]) − E φ(Xx) Z T 0 σ−1 γ(Xtx), dWt = E φ(Xx) 1 (Z T − 1) − Z T 0 σ−1 γ(Xtx), dWt ≤ E |φ(Xx)| 1 (Z T − 1) − Z T 0 σ−1γ(Xx t), dWt ≤ KE 1 (Z T − 1) − Z T 0 σ−1 γ(Xtx), dWt ,
per una qualche costante K indipendente da , dove `e stata usata, nella prima disuguaglianza, la disuguaglianza di Cauchy-Schwarz. Poich´e per → 0 l’ultima espressione tende a zero, si ottiene
∂ ∂u (x)| =0 = lim →0 1 (u (x) − u(x)) = E φ(Xx) Z T 0 σ−1 γ(Xtx), dWt .
2.4
Variazione del dato iniziale
Per questo caso, supponiamo che il payoff sia una mappa da ((Rn)m) a valori in R che associa a (Xx t1, . . . , X x tm) il valore φ(X x t1, . . . , X x
tm), e che sia a
qua-drato integrabile. In altre parole, φ dipende solo dal prezzo dell’attivo su un numero finito di punti nel tempo. La funzione u(x) si esprime dunque nella seguente forma:
u(x) = Eφ(Xx
t1, . . . , X
x tm) .
Denotiamo con ∂i la derivata parziale rispetto all’i-esima componente, e con
∇ =Pm
i=1∂i. Consideriamo l’insieme seguente
Γm = a ∈ L2([0, T ]) : Z ti 0 a(t)dt = 1, ∀i = 1, . . . , m .
Il teorema che segue mostra l’espressione della sensibilit`a di u rispetto al dato iniziale x.
Teorema 2.8. Supponiamo che σ soddisfi (2.3). Allora, per ogni x ∈ Rn ed a ∈ Γm, si ha ∇u(x) = E φ(Xtx1, . . . , Xtxm) Z T 0 a(t) σ−1(Xtx)Ytx∗dWt . Dimostrazione. Dividiamo la dimostrazione in due casi.
Primo caso: φ `e differenziabile con continuit`a con gradiente limitato. Grazie a questa ipotesi, si ha che la funzione ψh definita da
ψh = 1 khk(φ(X x t1, . . . , X x tm)−φ(X x+h t1 , . . . , X x+h tm ))− 1 khk * m X i=1 ∂i∗φ(Xtx 1, . . . , X x tm)Y x ti, h +
converge a 0 quasi certamente per h → 0. Poich´e φ ha gradiente limitato, il secondo termine di ψh `e uniformemente integrabile in h. Possiamo inoltre
maggiorare il primo termine di ψh come segue
1 khk(φ(X x t1, . . . , X x tm) − φ(X x+h t1 , . . . , X x+h tm )) ≤ M m X j=1 X x tj − X x+h tj khk ,
dove M `e una limitazione uniforme delle derivate parziali di φ. Poich´e Xx `e soluzione di una equazione i cui coefficienti sono lipschitziani, il secondo membro dell’ultima espressione `e uniformemente integrabile (vedere Teorema 37 di [11], pag. 246). Si pu`o dunque applicare il teorema di convergenza dominata e portare il segno di derivata all’interno del valore atteso:
∇∗u(x) = E " m X i=1 ∂i∗φ(Xtx1, . . . , Xtxm)Ytx i # . (2.7)
Poich´e b e σ hanno derivate limitate e continue, dai risultati visti nel Capitolo 1 sulla derivabilit`a secondo Malliavin per soluzioni di EDS, segue che Xx ∈ D1,2 e che DtXtxi = Y x ti(Y x t ) −1σ(Xx t)1(t≤ti) per ogni i = 1, . . . , m e t ∈ [0, T ].
Da questa espressione otteniamo Yx
ti = DtX
x tiσ
−1(Xx
t)Ytx dunque, per ogni
a ∈ Γm, Ytxi = Z T 0 DtXtxia(t)σ −1 (Xtx)Ytxdt.
Sostituiamo questa espressione nell’equazione (2.7) e otteniamo
∇∗u(x) = E " Z T 0 m X i=1 ∂i∗φ(Xtx1, . . . , Xtxm)DtXtxia(t)σ −1 (Xtx)Ytxdt # , e applicando la Proposizione 1.5 ∇∗ u(x) = E Z T 0 Dtφ(Xtx1, . . . , X x tm)a(t)σ −1(Xx t)Y x t dt . Infine, poich´e il processo a(t)σ−1(Xx
t)Ytx `e adattato rispetto ad Ft e
appar-tiene ad L2(Ω × [0, T ]), possiamo applicare (1.4) e ottenere
∇u(x) = Eφ(Xx t1, . . . , X x tm)δ(a(t)(σ −1 (Xtx)Ytx)∗) = E φ(Xtx 1, . . . , X x tm) Z T 0 a(t)(σ−1(Xtx)Ytx)∗dWt ;
l’uguaglianza `e giustificata dal fatto che, per le ipotesi sul processo a(t)σ−1(Xt)Yt,
l’integrale di Skorohod coincide con l’integrale di Ito. Secondo caso: φ ∈ L2.
Osserviamo che l’insieme Cc∞ delle funzioni differenziabili all’infinito e a sup-porto compatto `e denso in L2; dunque esiste una successione φ
n ∈ Cc∞ convergente a φ in L2. Siano u n(x) = Eφn(Xtx1, . . . , X x tm) e n(x) = r E h φn(Xtx1, . . . , X x tm) − φ(X x t1, . . . , X x tm) 2i . ` E chiaro che
un(x) → u(x) per ogni x ∈ Rn, (2.8)
perch´e la convergenza L2 implica la convergenza L1. Verifichiamo che tale convergenza `e uniforme. Osserviamo innanzitutto che si pu`o applicare il primo caso a φn, dunque
∇un(x) = E φn(Xtx1, . . . , X x tm) Z T 0 a(t)(σ−1(Xtx)Ytx)∗dWt ; sia inoltre g(x) = E φ(Xtx1, . . . , Xtxm) Z T 0 a(t)(σ−1(Xtx)Ytx)∗dWt . Usando la disuguaglianza di Cauchy-Schwartz si ottiene
|∇un(x) − g(x)| ≤ E (φn(Xtx1, . . . , X x tm) − φ(X x t1, . . . , X x tm)) Z T 0 a(t)(σ−1(Xtx)Ytx)∗dWt ≤ n(x) v u u tE " Z T 0 a(t)(σ−1(Xx t)Ytx)∗dWt 2# = n(x)ϕ(x),
dove abbiamo semplicemente posto ϕ(x) = s E RT 0 a(t)(σ −1(Xx t)Ytx)∗dWt 2 . Chiaramente n(x) tende a 0 per n → ∞; Per la continuit`a del valore atteso
si ha
sup
x∈K
|∇un(x) − g(x)| ≤ n(˜x)ϕ(˜x), per qualche ˜x ∈ K,
dove K `e un sottoinsieme compatto di Rn. Ci`o significa che
uniformemente su un sottoinsieme compatto di Rn. Concludiamo ricordando che se una successione un converge ad una funzione u e la successione delle
sue derivate ∇un converge ad una funzione g uniformemente su un compatto
di Rn, la funzione limite u `e di classe C1 e la sua derivata `e uguale al limite della successione derivata ∇un. Dunque, da (2.8) e (2.9) otteniamo che u `e
di classe C1 e ∇u = g.
2.5
Variazione del coefficiente σ
Come nella sezione precedente, supponiamo che il payoff abbia la forma φ = φ(Xtx1, . . . , Xtxm) e che abbia momento secondo finito. Sia
ˆ Γm = a ∈ L2([0, T ]) : Z ti ti−1 a(t)dt = 1, ∀i = 1, . . . , m
e sia ˆσ : Rn → Rn×n una funzione continua e differenziabile con derivate
limitate. In modo simile a come si `e fatto per il coefficiente b, introduciamo il processo perturbato Xx,= (Xtx,)t∈[0,T ] definito da
dXtx, = b(Xtx,)dt + (σ(Xtx,) + ˆσ(Xtx,))dWt X0x, = x.
Assumiamo che la matrice di covarianza (σ + ˆσ)(x) soddisfi la condizione di ellitticit`a uniforme:
∀ > 0 ∃η > 0 tale che ξ∗(σ+ˆσ)∗(x)(σ+ˆσ)(x) ≥ η |ξ|2
, per ogni ξ, η ∈ Rn. (2.10) Introduciamo il processo di prima variazione (a valori in Rn) di Xx, definito
dalla seguente EDS: dZtx, = b0(Xtx,)Ztx,dt + ˆσ(Xtx,)dWt+ Pn i=1(σ 0 i+ ˆσi0)(X x, t )Z x, t dWti Z0x, = 0n
dove 0n indica il vettore colonna nullo di Rn. Come prima, indichiamo con Xx t, Ytx e Ztx i processi X x,0 t , Y x,0 t e Z x,0 t .
Consideriamo adesso il seguente processo βt= Ztx(Y x t ) −1 , 0 ≤ t ≤ T quasi certamente. Vale il seguente
Lemma 2.1. Il processo (βt)t∈[0,T ] appartiene a D1,2.
Non riportiamo la dimostrazione, che si trova a pag. 402 di [5]. Teorema 2.9. Se vale (2.10), allora per ogni a ∈ ˆΓm si ha
∂ ∂u (x)| =0 = E h φ(Xtx 1, . . . , X x tm)δ(σ −1 (Xtx)Ytxβˆa(T )) i , dove ˆ βa(t) = m X i=1
a(t)(βti− βti−1)1(ti−1≤t≤ti)
.
Dimostrazione. Consideriamo solamente il caso in cui φ `e differenziabile con continuit`a con derivate limitate; il caso generale si affronta in maniera analoga a quanto visto nel teorema precedente. Valgono le stesse argomentazioni viste nel caso precedente anche per il trasporto del segno di derivazione sotto il valore atteso. Dunque, si ha
∂ ∂u (x)| =0 = E " m X i=1 ∂i∗φ(Xtx 1, . . . , X x tm)Z x ti # . Ancora una volta si ha DtXtxi = Y
x ti(Y x t ) −1σ(Xx t)1(t≤ti) per ogni i = 1, . . . , m e t ∈ [0, T ]. Allora: Z T 0 DtXtxiσ −1 (Xtx)Ytxβˆa(T )dt = Z ti 0 Ytx i ˆ βa(T )dt = Ytx i i X k=1 Z tk tk−1 a(t)(βtk− βtk−1)dt ! = Ytx iβti = Ztx i.
Sostituendo otteniamo ∂ ∂u (x)| =0 = E " Z T 0 m X i=1 ∂i∗φ(Xtx 1, . . . , X x tm)DtX x tiσ −1 (Xtx)Ytxβˆa(T )dt # = E Z T 0 Dtφ(Xtx1, . . . , X x tm)σ −1 (Xtx)Ytxβˆa(T )dt = Ehφ(Xtx1, . . . , Xtxm)δ(σ−1(Xtx)Ytxβˆa(T )) i .
Resta solamente da giustificare l’ultima uguaglianza. Osserviamo che il pro-cesso σ−1(Xt)Yt sta in L2(Ω × [0, T ]) ed `e adattato rispetto a Ft; sappiamo
inoltre che ˆβa(T ) ∈ D1,2 ed `e FT-misurabile. Dunque, per la Proposizione
1.6, il prodotto dei due processi appartiene a D∗. Pi`u precisamente, si ha
δ(σ−1(Xtx)Ytxβˆa(T )) = ˆβa(T ) Z T 0 (σ−1(Xtx)Ytx)∗dWt− Z T 0 Dtβˆa(T )σ−1(Xtx)Ytxdt.
Questo conclude la dimostrazione.
2.6
Calcolo delle greche nel modello
Black-Sholes
In questa sezione viene riportato il calcolo esplicito delle greche nel caso particolare del modello Black-Sholes.
Il modello Black-Sholes `e un modello di mercato molto semplice e che si presta bene alla verifica applicativa di risultati teorici. Esso `e caratterizzato da un attivo senza rischio e da un attivo con rischio. L’attivo senza rischio S0 t `e dato da dSt0 = rSt0dt S0 0 = 1
dove il tasso di interesse `e costante; dunque St0 = ert per ogni t ≥ 0. L’attivo con rischio `e invece dato da
dSt = rdt + σdWt S0 = x
con x ∈ R. `E facile verificare che St= xexp (r − σ 2 2 )t + σWt .
Prendiamo in esame le opzioni Europee, quindi con payoff dato da φ = φ(ST);
il prezzo dell’opzione si esprime allora nel seguente modo V = e−rTE [φ(ST)] .
Passiamo adesso al calcolo delle greche; vista la semplicit`a del modello ricor-reremo a calcoli espliciti, ma `e facile vedere come i risultati sono gli stessi che si otterrebbero utilizzando i teoremi visti nel corso del capitolo. Innan-zittutto, facciamo una semplice osservazione che servir`a in tutti i casi che affronteremo. Si ha DtST = Dt xexp r − σ 2 2 T exp (σWT) = xexp r − σ 2 2 σDsWTexp (σWT) = σxexp r − σ 2 2 T + σWT 1(t≤T ) = σST1(t≤T ),
e integrando entrambi i membri: Z T 0 DtSTdt = Z T 0 σST1(t≤T )dt = σT ST. Dunque, ST = 1 σT Z T 0 DtSTdt.
• Calcolo della Delta. ∂V ∂x = e −rT E φ0(ST) ST x = e−rTE φ0(ST) 1 T σx Z T 0 DtSTdt = e−rtE 1 T σxφ(ST)δ(1) = e−rTE φ(ST) WT T σx .
Abbiamo dunque ottenuto
∆ = e−rTE φ(ST) WT T σx .
Facciamo vedere che il risultato `e lo stesso che si ottiene applicando il Teorema 2.8. La tesi dice che
∆ = e−rTE [φ(ST)π] , con π = Z T 0 a(t) Yt σSt dt, dove Yt= ∂ ∂xSt= exp r − σ 2 2 t + σWt = St x. Scegliamo banalmente a(t) = T1; allora
π = 1 T Z T 0 1 σ St xSt dWt= WT T σx. Dunque ∂V ∂x = e −rT E φ(ST) WT T σx .
• Calcolo della Vega. Si ha ∂V ∂σ = e −rT E φ0(ST) ∂ST ∂σ = e−rTE [φ0(ST)ST(WT − T σ)] = e−rTE 1 σT Z T 0 φ0(ST)DtST(WT − T σ)dt = e−rTE 1 T σ Z T 0 Dtφ(ST)(WT − T σ)dt = e−rTE 1 T σφ(ST)δ(WT − T σ) .
Resta da calcolare δ(WT−T σ) = δ(WT)−T σδ(1). Per calcolare δ(WT),
usiamo il Teorema 1.6 scegliendo F = WT e G = 1:
δ(WT) = WT Z T 0 dWt− Z T 0 DtWTdt = WT2 − T, con δ(1) =R0T dWt= WT. Allora δ(WT − T σ) = WT2− T − T σWT. Dunque V = e−rTE φ(ST) W2 T T σ − 1 σ − WT . • Calcolo della rho. Si ha:
∂ST ∂r = T x exp r − σ 2 2 T + σWT = T ST, dunque ∂V ∂r = −T e −rT E [φ(ST)] + e−rTE [φ0(ST)T ST] = −T e−rTE [φ(ST)] + T e−rTE φ0(ST) 1 T σ Z T 0 DtSTdt = −T e−rTE [φ(ST)] + T e−rTE φ(ST) 1 T σWT = T e−rtE φ(ST) WT T σ − 1 .
Dunque ρ = e−rTE φ(ST) WT σ − T .
Concludiamo osservando che i risultati visti nel corso di questo capitolo pos-sono essere estesi ad altri tipi di opzioni. In particolare, si ha un’espressione esplicita della ∆ quando il prezzo u(x) assume la seguente forma (opzione Asiatica) u(x) = E φ Z T 0 Xtxdt .
Nel risultato che segue si assume che la funzione φ sia differenziabile con continuit`a all’infinito, ma pu`o essere esteso al caso di una funzione a quadrato integrabile.
Proposizione 2.1. Sia u come sopra, e sia φ ∈ C∞. Allora
u0(x) = E " φ Z T 0 Xtxdt δ 2(Y x t )2 σ(Xx t) Z T 0 Ytxdt −1!# .
Dimostrazione. Supponiamo che esista un processo at tale che
Z T
0
Si pu`o applicare il teorema di convergenza dominata: si ha u0(x) = ∂ ∂xE φ Z T 0 Xtxdt = E φ0 Z T 0 Ytxdt = E φ0 Z T 0 Xtxdt Z T 0 Z T 0 Ytx(Ysx)−1σ(Xsx)1(s<t)asdsdt = E Z T 0 φ0 Z T 0 Xtxdt Z T 0 DsXtxasdt ds = E Z T 0 φ0 Z T 0 Xtxdt Z T 0 DsXtxdt asds = E Z T 0 Ds φ Z T 0 Xtxdt asds = E φ Z T 0 Xtxdt δ(as) .
Infine, `e semplice verificare che
2(Yx t )2 σ(Xx t) Z T 0 Ysxds −1
Come esempio di applicazione di questa formula, consideriamo sempre il modello Black-Scholes. Si ha:
δ 2Y 2 t σ(St) 1 RT 0 Ytdt ! = δ 2 σx Yt RT 0 Ytdt ! = 2 σx RT 0 YtdWt RT 0 Ytdt + 2 σx Z T 0 Yt RT 0 DsYtdt RT 0 Ytdt 2 dt = 2 σx RT 0 YtdWt RT 0 Ytdt + 2 σx Z T 0 St RT 0 YtY −1 s σSsdt RT 0 Stdt 2 dt = 2 σx RT 0 YtdWt RT 0 Ytdt + 1 x Z T 0 2St Rt 0Stdt RT 0 Stdt 2dt = 2 σx RT 0 YtdWt RT 0 Ytdt + 1 x RT 0 d RT 0 Stdt 2 RT 0 Stdt 2 = 2 σx RT 0 YtdWt RT 0 Ytdt + 1 x RT 0 Stdt 2 RT 0 Stdt 2 = 2 σx RT 0 YtdWt RT 0 Ytdt + 1 x. Abbiamo dunque ottenuto
∆ = E " e−rTφ Z T 0 Stdt 2 σx RT 0 YtdWt RT 0 Ytdt + 1 x !# .
Capitolo 3
Altre Applicazioni Finanziarie
In questo capitolo verranno discusse tre importanti applicazioni finanziarie. Nella prima sezione discuteremo l’ottimalit`a del peso generato dalla formula di integrazione per parti, dove il termine ‘ottimo’ deve essere inteso in termi-ni di mitermi-nimizzazione della varianza; in effetti, il lato negativo della formula sta proprio nel fatto che il peso generato fa aumentare anche di molto la varianza: nella seconda sezione verr`a introdotto il metodo di localizzazione, che consiste nell’utilizzare la formula di integrazione per parti solo nei punti di singolarit`a del payoff, in modo tale da ridurre al pi`u possibile l’aumento della varianza. Infine, nella terza ed ultima sezione verr`a discussa quella che si considera la pi`u importante delle applicazioni finanziarie, ovvero il calcolo della speranza condizionale; tramite il calcolo di Malliavin, infatti, si pu`o tro-vare una formula che consente di calcolare (tramite il metodo Monte Carlo) questo oggetto in maniera abbastanza semplice.
Durante tutto il corso della trattazione verr`a considerato un moto Brownia-no (Wt)t∈[0,T ] n-dimensionale definito su uno spazio di probabilit`a
comple-to (Ω, F , P), e indicheremo con (Ft)t∈[0,T ] il completamento della filtrazione
3.1
Peso ottimale
Nel capitolo precedente abbiamo dato una formula di rappresentazione per le greche, che pu`o essere riassunta come segue. Sia F una variabile aleatoria F -misurabile a valori in Rm (con m ≥ 1); supponiamo che F dipenda da
un parametro reale λ 6= 0 e che λ−1(F (λ) − F (0)) → G per λ L
1(Ω) −→ 0. Consideriamo ∂ ∂λE [φ(F )] λ=0 = E [φ 0 (F ).G] , dove φ `e una funzione regolare su Rm.
Osservazione 3. Sottointendiamo il fatto che ci siano tutte le ipotesi affinch´e si possa applicare il teorema di convergenza dominata.
Abbiamo mostrato che
E [φ0(F ).G] = E [φ(F )π] (3.1)
dove π `e una variabile aleatoria, chiamata peso, che pu`o essere calcolata esplicitamente in vari casi. Se F `e regolare, ovvero possiede una legge che ammette una densit`a fλ regolare e positiva su Rm, allora il calcolo `e ovvio:
∂ ∂λE [φ(F (λ))] = ∂ ∂λ Z Rm φ(z)fλ(z)dz = Z Rm φ(z) ∂ ∂λlog(fλ) (z)fλ(z)dz = E [φ(F (λ))π0] ,
dove π0 = ∂λ∂ log(fλ). `E importante specificare che il peso π0 dato da tale
costruzione `e misurabile rispetto alla σ-algebra generata da F .
Questo calcolo `e chiaramente solo teorico, dal momento che, in generale, la densit`a di F non `e nota. Osserviamo per`o che il peso corrispondente alla formula (3.1) non `e unico; indichiamo con W l’insieme di tali pesi. Vale la seguente
Proposizione 3.1. W = {π : E[π|σ(F )] = π0} .
Dimostrazione. Se π ∈ W, allora E [φ(F )π] = E [φ(F )π0], da cui
E [φ(F )(π − π0)] = 0
⇒E [E [φ(F )(π − π0)|σ(F )]] = 0
⇒E [φ(F )E [π − π0|σ(F )]] = 0,
che deve valere per ogni funzione φ. Dunque E [π − π0|σ(F )] = 0
⇒E [π|σ(F )] − π0 = 0
⇒E [π|σ(F )] = π0,
dove abbiamo usato che π0 `e misurabile rispetto a σ(F ).
Viceversa, se π `e tale che E [π|σ(F )] = π0, allora
E [φ(F )π] = E [E [φ(F )π|σ(F )]] = E [φ(F )E [π|σ(F )]] = E [φ(F )π0] .
Dal momento che non c’`e unicit`a, siamo interessati a trovare il peso ot-timale, nel senso di minimizzazione della varianza di φ(F )π. Per capirne il motivo, richiamiamo il seguente risultato
Teorema 3.1 (del Limite Centrale). Sia X1, X2, . . . una successione di
variabili aleatorie indipendenti ed equidistribuite con media µ e varianza σ2 (non nulla). Posto Sn= X1+ · · · + Xn, la successione
Sn− nµ √ nσ = √ n ¯ Xn− µ σ
Chiaramente, la velocit`a di convergenza dipende da√n e da σ; in parti-colare, pi`u σ `e piccola e pi`u la convergenza sar`a veloce.
Supponiamo ora che F appartenga a D1,2, e sia u
t∈ D1,2 un processo a valori
in Rn, adattato, a quadrato integrabile e tale che
E Z T 0 DtF.utdt σ(F ) = E [G|σ(F )] . (3.2)
Vale il seguente risultato:
Proposizione 3.2. W ∩ D1,2 = {π = δ(ut) : ut soddisfa (3.2)} .
Dimostrazione. Sia ut∈ D1,2 tale che soddisfi (3.2). Si ha
E [φ(F )π] = ∂ ∂λE [φ(F )] = E [φ0(F )E [G|σ(F )]] = E φ0(F )E Z T 0 DtF.utdt σ(F ) = E φ0(F ) Z T 0 Dt.F utdt = E Z T 0 Dt(φ(F )).utdt = E [φ(F )δ(ut)] ,
dove l’ultima uguaglianza segue dalla formula (1.4).
Viceversa, sia π ∈ W ∩D1,2. Da (3.1), scegliendo φ ≡ 1, notiamo che E [π] = 0
dunque, per il Teorema 1.7, si ha
π = Z T
0