• Non ci sono risultati.

La formula di integrazione per parti sullo spazio di Poisson e sue applicazioni a problemi della matematica finanziaria e attuariale

N/A
N/A
Protected

Academic year: 2021

Condividi "La formula di integrazione per parti sullo spazio di Poisson e sue applicazioni a problemi della matematica finanziaria e attuariale"

Copied!
98
0
0

Testo completo

(1)

UNIVERSITÀ DI PISA

Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Magistrale in Matematica

Tesi di Laurea

LA FORMULA DI INTEGRAZIONE PER PARTI

SULLO SPAZIO DI POISSON

E SUE APPLICAZIONI A PROBLEMI DELLA

MATEMATICA FINANZIARIA E ATTUARIALE

Relatore: Candidato:

Prof. Maurizio Pratelli Jessica Bono

Controrelatore: Prof. Maurizia Rossi

(2)
(3)

"Non abbiate timori per il vostro avvenire... ...guardate alto e lontano. Impegnatevi."

(4)
(5)

Indice

Introduzione vii

1 Preliminari 1

1.1 Il processo di Poisson: definizioni e proprietà

fondamentali . . . 1

1.2 Semimartingale e integrazione stocastica . . . 5

1.2.1 Definizione dell’integrale stocastico per processi in L . . . . 7

1.2.2 Integrazione stocastica per processi prevedibili . . . 12

2 Il calcolo di Malliavin 19 2.1 Calcolo di Malliavin sullo spazio di Wiener . . . 19

2.2 Calcolo di Malliavin sullo spazio di Poisson . . . 23

2.2.1 Operatori di derivazione su Ω . . . 26

3 Applicazioni del calcolo di Malliavin 37 3.1 esempio 1: il processo di riserva di rischio . . . 37

3.1.1 Il metodo . . . 38

3.1.2 I risultati . . . 43

3.2 Esempio 2: le greche di una opzione Asiatica . . . 45

3.2.1 Il metodo . . . 48

3.2.2 I risultati . . . 54

4 Simulazioni numeriche 59 4.1 Simulazioni . . . 62

A Risultati e definizioni basilari 71 A.1 Richiami di Analisi Funzionale e Geometria Differenziale . . . 71

B Codici delle simulazioni 75 B.1 stima della densità . . . 75

B.2 sensibilità rispetto alla riserva iniziale . . . 79

B.3 sensibilità rispetto al tasso di interesse . . . 83

Bibliografia 87

(6)
(7)

Introduzione

Lo scopo del calcolo delle variazioni stocastico, o anche noto come calcolo di Malliavin, è di introdurre una opportuna struttura differenziale su opportuni spazi di funzioni, che so-no gli spazi di probabilità naturali sui quali soso-no definiti i processi stocastici. Gli elementi base di questa teoria sono l’operatore di derivata secondo Malliavin, il suo operatore ag-giunto (l’integrale di Skorohod) e la formula di integrazione per parti, ma naturalmente la teoria non si esaurisce qui.

Anziché presentare questi argomenti sull’usuale spazio di Wiener (è infatti doveroso ri-conoscere che la letteratura in questo campo è ormai vasta), in questa tesi, guidati dai recenti lavori di N. Privault,Y. El Khatib e X. Wei ([4],[5]), tenteremo di estendere il cal-colo differenziale stocastico sullo spazio di Poisson. Questo richiede una trattazione più delicata soprattutto per il fatto che al momento non esiste una teoria unificata a riguardo. Ci focalizzeremo dunque sulla formula di integrazione per parti, la quale, oltre ad avere una grande importanza teorica, costituisce il cuore della gran parte delle applicazioni del calcolo di Malliavin. In particolare verranno esaminate, attraverso degli esempi tratti dal contesto finanziario e assicurativo, due sue importanti conseguenze, l’analisi della sensibilità e il calcolo della densità.

In molte applicazioni si considerano, infatti, quantità della forma Ef Fξ in cui Fξ

è una famiglia di variabili aleatorie indicizzate su un parametro ξ e f è una opportuna funzione. Per studiare la sensibilità di questa quantità rispetto al parametro ξ, si do-vrebbe dimostrare che ξ 7→ Ef Fξ è differenziabile e valutarne la derivata. Un primo

approccio è quello di supporre che ξ 7→ Fξ(ω) sia differenziabile per quasi ogni ω e che anche f sia differenziabile. In tal caso avremmo

∂ ∂ξE [f ( F ξ)] = Ehf0(Fξ)∂ ξFξ i .

Ma tale approccio fallisce non appena f non è differenziabile, come avviene, ad esempio, nel caso in cui f sia una funzione indicatrice. Alternativamente si può approssimare il valore della derivata con il metodo alle differenze finite come

1 2E

h

f (Fξ+) − f (Fξ−) i

ma tale approssimazione produce risultati di convergenza non soddisfacenti quando è combinata al metodo Monte Carlo.

(8)

Tramite la formula di integrazione per parti si può ottenere, invece, una formula del tipo ∂ ∂ξE h f (Fξ)i= Ehf (Fξ)Wξ i

la quale non richiede alcuna ipotesi di differenziabilità su f . La variabile aleatoria Wξche compare nella formula è detta peso. Possiede l’enorme vantaggio di non dipendere dalla funzione f e sotto opportune ipotesi (che nelle applicazioni saranno sempre verificate) è esplicitamente calcolabile.

Allo stesso modo, è possibile ottenere una formula per la stima della densità della legge di un funzionale aleatorio F rispetto alla misura di Lebesgue del tipo

φF(y) =

∂yP(F ≤ y) = EWy1{F ≤y} 

ottenuta dalla formula precedente considerando una opportuna funzione e una oppor-tuna famiglia di funzionali, nello specifico, ciò corrisponde alla scelta di f = 1(−∞,0) e Fy = F − y. In questo caso il peso Wy è indipendente anche da y.

Diventa dunque naturale chiedersi se il metodo ottenuto tramite il calcolo di Malliavin possa essere considerato una valida alternativa al metodo delle differenze finite.

Nel dettaglio, il lavoro è organizzato come segue.

• Il primo capitolo costituisce una rassegna a carattere teorico, volta a fornire una adeguata conoscenza di tutti gli strumenti e proprietà che torneranno utili nel pro-seguo del lavoro: in particolare nella prima parte viene ripresa la definizione di Processo di Poisson e sue generalizzazioni, e nella seconda, invece, viene sviluppa-ta la teoria dell’integrazione stocastica per processi continui con salti, attraverso l’introduzione del concetto di Semimartingala.

• Nel secondo capitolo forniremo le basi del calcolo di Malliavin partendo dal noto caso dello spazio di Wiener, al fine di rendere un po’ più familiari i concetti chiave della teoria, che verranno esposti successivamente per il particolare caso dello spazio di Poisson. In questo caso, come precedentemente accennato, si può procedere seguendo diversi approcci. Noi preferiremo seguire un approccio che conduca alla definizione di operatori di derivazione che siano maneggevoli nei conti, motivati dalle applicazioni che andremo a trattare nel capitolo successivo. Ne verranno analizzati alcuni esempi e dimostreremo alcune loro proprietà che ci serviranno nel prosieguo del nostro lavoro.

• Nel terzo capitolo ci focalizzeremo su due esempi:

– il calcolo della densità di probabilità del processo di riserva di rischio di una compagnia assicurativa e l’analisi della sensibilità della probabilità di rovina ad una data fissata.

– il calcolo delle greche di un’opzione Asiatica in un modello di mercato con salti.

(9)

ix Facendo uso degli operatori di derivazione analizzati nel precedente capitolo e della relativa formula di integrazione per parti, calcoleremo in modo esplicito i pesi. • Infine, nel quarto capitolo, utilizzeremo l’esempio del processo di riserva per mettere

a confronto la formula ottenuta tramite il calcolo di Malliavin e il metodo alle differenze finite, al fine di trarre le dovute conclusioni.

(10)
(11)

Capitolo 1

Preliminari

1.1

Il processo di Poisson: definizioni e proprietà

fondamentali

Sia fissato uno spazio di probabilità (Ω,F , P).

Definizione 1.1. Si chiama processo di Poisson di intensità λ un processo stocastico N = (Nt)t∈R+ definito dalle seguenti proprietà:

• N0 = 0 P-q.c.;

• presi 0 ≤ s < t, la variabile aleatoria Nt − Ns ha distribuzione di Poisson di parametro λ(t − s).

• presi 0 < t1< · · · < tn, le variabili aleatorie (Nt1, Nt2− Nt1, . . . , Ntn− Ntn−1) sono

indipendenti, cioè il processo è ad incrementi indipendenti ;

• è un processo càdlàg (acronimo dal francese continue à droite, limitée à gauche), cioè le traiettorie sono continue a destra con limite sinistro finito, in formule: per quasi ogni ω ∈ Ω si ha

– lim

s→t+Ns(ω) = Nt(w) per ogni t

– lim

s→t−Ns(ω) esiste per ogni t.

Dalla definizione appare subito evidente che, per ogni t, Ntè una variabile aleatoria di Poisson di parametro λt, N è un processo a incrementi stazionari (cioè per ogni 0 ≤ s < t, la variabile aleatoria Nt− Nsha la stessa distribuzione di Nt−s) e le traiettorie

sono a valori interi non negativi, crescenti, costanti a tratti e con salti di ampiezza 1 q.c.. Inoltre vi sono solo un numero finito di salti in ogni intervallo di tempo finito (si veda [6], p. 32, Proposizione 5.2).

Notazione. Se (Xt)t∈R è un processo càdlàg, definiamo Xt−= lim

s→t,s<tXs

(12)

il limite sinistro al tempo t, e indichiamo con X−:= (Xt−)t≥0. Definiamo poi

∆Xt= Xt− Xt−

l’ampiezza del salto al tempo t e indichiamo con ∆X := (∆Xt)t≥0.

Ricordiamo che una possibile costruzione può essere fatta nel seguente modo: consi-deriamo una successione (Ti)i≥1 di variabili aleatorie reali indipendenti con distribuzione

esponenziale di parametro λ > 0, cioè ogni Ti ha densità uguale a 1{x>0}λe−λx. Dunque

E[f (T1, . . . , Tn)] = λn Z ∞ 0 · · · Z ∞ 0 e−λ(s1+···+sn)f (s 1, . . . , sn)ds1. . . dsn. (•)

Ogni Ti denota l’intervallo di tempo che intercorre tra l’i−esimo e l’(i − 1)−esimo salto e per tal ragione sono detti intertempi d’arrivo. Per ogni n ≥ 1 poniamo τ0= 0 e

τn= n

X

i=1

Ti.

Ogni τn rappresenta quindi il tempo in cui si verifica l’n−esimo salto ed è detto tempo

d’arrivo dell’n-esimo salto. Per ogni n ≥ 1 si ha che E[τn− τn−1] = E[Tn] =

1 λ

in quanto Tnha distribuzione esponenziale di parametro λ e ciò ci dice che λ1 è la distanza

media tra due salti successivi o equivalentemente che ci aspettiamo λ salti in un intervallo di tempo unitario e per tale ragione λ è detto parametro di intensità. Ricordiamo che Lemma 1.2. Per ogni n, la variabile τn, somma di n v.a. indipendenti che seguono una distribuzione esponenziale di parametro λ, ha densità di probabilità

fτn(x) = 1{x>0}λe

−λx(λx)n−1

(n − 1)!, cioè segue una distribuzione Gamma di parametri n e λ.

La relazione (•) può essere riscritta come E[f (τ1, . . . , τn)] = λn Z ∞ 0 · · · Z ∞ 0 e−λtnf (t 1, . . . , tn)1{t1<···<tn}dt1. . . dtn. (••)

Definiamo il processo (Nt)t∈R+ nel seguente modo

Nt= X n≥1 1{τn≤t} = X n≥1 n1{τn≤t<τn+1} dove 1{τn≤t} = ( 1 se τn(ω) ≤ t 0 altrimenti

Nt conta il numero di salti che avvengono fino all’istante t (è un processo di

conteg-gio), è quindi a valori in N ed ha perciò una distribuzione discreta per ogni t ≥ 0, più precisamente

(13)

1.1. IL PROCESSO DI POISSON: DEFINIZIONI E PROPRIETÀFONDAMENTALI3 Proposizione 1.3. Per ogni t ≥ 0, la variabile aleatoria Nt ha distribuzione di Poisson

di parametro λt cioè

P(Nt= n) = e−λt

(λt)n n! . In particolare si ha che:

E[Nt] = λt, V ar(Nt) = E[Nt2] − (E[Nt])2= λt.

Dimostrazione. La dimostrazione si basa sul fatto che per ogni n ≥ 1 vale l’identità {τn≤ t} = {Nt≥ n}. Dunque: P(Nt= n) = P(Nt≥ n) − P(Nt≥ n + 1) = P(τn≤ t) − P(τn+1≤ t) = Z t 0 λe−λx(λx) n−1 (n − 1)!dx − Z t 0 λe−λx(λx) n n! dx = Z t 0  e−λx(λx) n n! 0 dx = (λt) n n! e −λt.

Si dimostra che il processo (Nt)t∈R+, così costruito, è un processo di Poisson di

intensità λ.

Figura 1.1: Grafico di una generica traiettoria di un Processo di Poisson di intensità λ = 0.5.

Osservazione 1.4. L’indipendenza degli incrementi è conseguenza della proprietà di assenza di memoria della distribuzione esponenziale, cioè una variabile aleatoria T con

(14)

distribuzione esponenziale soddisfa la seguente relazione P(T ≥ t + s|T ≥ t) = P(T ≥ s) infatti, banalmente si ha P(T ≥ t + s|T ≥ t) = P(T ≥ t + s) P(T ≥ t) = e−λ(t+s) e−λt = e −λs = P(T ≥ s).

Osservazione 1.5. Se Ft = σ(Ns : s ≥ t) è la filtrazione generata da (Nt)t∈R, allora i

tempi d’arrivo τnsono tempi d’arresto rispetto aFt infatti ∀t ≥ 0 {τn≤ t} = {Nt≥ n} ∈ Ft.

Vediamo adesso alcune generalizzazioni a cui potremmo essere interessati, come ad esem-pio considerare processi con salti che possano avere ampiezze casuali. Introduciamo allora la seguente definizione:

Definizione 1.6. Un processo di Poisson composto (Xt)t∈R+ è un processo stocastico definito da Xt= D1+ D2+ · · · + DNt = Nt X i=1 Di

e X0 = 0, dove (Nt)t∈R+ è un processo di Poisson di parametro λ e (Di)i≥1 è una

successione di variabili aleatorie indipendenti e tutte con la stessa distribuzione (che supporremo uguale ad una certa v.a. D), indipendenti anche dal processo di Poisson (Nt)t∈R+.

Figura 1.2.: Grafico di una generica traiettoria di un Processo di Poisson Composto di intensità λ = 0.5 assumendo che la variabile aleatoria D abbia distribuzione

Normale N (0, 1).

Lo stesso processo di Poisson può essere visto come un processo di Poisson composto prendendo Di = 1. Il processo di Poisson composto è anch’esso un processo càdlàg, e in

(15)

1.2. SEMIMARTINGALE E INTEGRAZIONE STOCASTICA 5 questo caso si ha che

∆Xt= Xt− Xt− = DNt∆Nt t ∈ R+

dove

∆Nt= Nt− Nt−∈ {0, 1}

Osservazione 1.7. Il valore atteso di Xt per t fissato è dato da E[Xt] = E[Nt]E[D] = λtE[D]

mentre la sua varianza è uguale a

V ar(Xt) = E[Nt]E[|D|2]

Infine, il processo di Poisson composto mantiene la proprietà degli incrementi indipen-denti.

Sia, come prima, (Ft) la filtrazione generata dal processo di Poisson (Nt)t∈R+. Per

ogni t > s ≥ 0, per le proprietà del valore atteso condizionato e ricordando l’indipendenza degli incrementi del processo di Poisson, si ha

E[Nt|Fs] = E[Nt− Ns+ Ns|Fs]

= E[Nt− Ns|Fs] + E[Ns|Fs]

= E[Nt− Ns] + Ns= λ(t − s) + Ns

e allora

E[Nt− λt|Fs] = λ(t − s) + Ns− λt = Ns− λs

cioè il processo Mt:= Nt−λt è una martingala rispetto alla filtrazione (Ft). Tale processo

viene chiamato processo di Poisson compensato.

Allo stesso modo possiamo definire il processo di Poisson composto compensato Xt− λtE[D]

e dimostrare che si tratta ancora di una martingala.

1.2

Semimartingale e integrazione stocastica

Questa sezione sarà dedicata al calcolo stocastico per processi continui con salti attraver-so l’introduzione del concetto di semimartingala. La classe delle semimartingale è il più grande insieme di processi rispetto a cui è possibile definire l’integrale stocastico "alla Itô" e comprende parecchi processi come ad esempio il processo di Poisson. Per il resto del capitolo seguiremo [2], a cui rimandiamo per ulteriori approfondimenti.

Supponiamo dato uno spazio di probabilità completo (Ω,F , P) e una filtrazione (Ft)t∈R+

(16)

• F0 contiene tutti gli insiemi P-nulli di F , cioè F0 è satura;

• Ft=Tu>tFu per ogni 0 ≤ t < ∞, cioè la filtrazione è continua a destra.

Notazione. Ricordiamo che, dato un tempo d’arresto T , è definita la σ-algebra FT

associata al tempo d’arresto T come

FT := {A ∈F : A ∩ {T ≤ t} ∈ Ft ∀t ≥ 0}.

e che dato un processo X e un tempo aleatorio T , XT denota il processo XT := Xt∧T := Xt1{t<T }+ XT1{t≥T }

detto processo arrestato al tempo T. Osservare che se X è adattato e càdlàg e T è un tempo d’arresto, allora XT è anch’esso adattato.

Definizione 1.8. Chiamiamo processo prevedibile elementare un processo stocastico H della forma Ht= H01{0}(t) + n X i=1 Hi1(Ti,Ti+1](t)

dove 0 = T1 ≤ · · · ≤ Tn+1 < ∞ è una successione finita di tempi di arresto , Hi ∈ FTi

e |Hi| < ∞ q.c. per i = 0, . . . , n. Denotiamo con S l’insieme dei processi prevedibili elementari e con Su l’insieme S quando è dotato della topologia indotta dalla convergenza

uniforme in (t, ω) e denotiamo

||H||u := sup

(t,ω)

|H(t, ω)|.

Notazione. Indichiamo con L0 = L0(Ω,F , P) lo spazio delle variabili aleatorie dotato

della topologia della convergenza in probabilità.

Definizione 1.9. Dato X un arbitrario processo stocastico, definiamo integrale stocastico di H rispetto ad X l’operatore lineare IX : S → L0 tale che

IX(H) := H0X0+ n

X

i=1

Hi(XTi+1− XTi)

dove H ∈ S ha la sua canonica rappresentazione.

Osserviamo che questa definizione è indipendente dalla scelta della rappresentazione del processo elementare H.

Per ottenere una teoria ragionevole ed avere la possibilità di estendere la nozione di integrale ad una classe più vasta di processi, è necessario porre alcune restrizioni sull’integratore X. Diamo allora la seguente definizione:

(17)

1.2. SEMIMARTINGALE E INTEGRAZIONE STOCASTICA 7 Definizione 1.10. Un processo X è una semimartingala totale se è càdlàg, adattato e se IX : Su → L0 è continuo, nel senso che: se (Hn)n∈N è una successione di processi

elementari prevedibili, che converge uniformemente ad H, allora (IX(Hn))n∈N converge in probabilità a IX(H).

Definizione 1.11. Un processo X è una semimartingala se, per ogni t ≥ 0, Xt è una semimartinagala totale.

Osservazione 1.12. Combinazioni lineari di semimartingale sono semimartingale, quin-di l’insieme delle semimartingale è uno spazio vettoriale.

Osservazione 1.13. Abbiamo dunque definito le semimartingale come "buoni integra-tori " sulla classe dei processi prevedibili elementari. Tradizionalmente, un processo X è detto semimartingala classica (per distinguerla dalla precedente definizione) se è adat-tato, càdlàg, e se esistono M e A processi con M0 = A0 = 0, tali che X può essere

decomposto come

Xt= X0+ Mt+ At

dove M è una martingala locale e A un processo adattato, càdlàg e a variazione finita. Il seguente teorema conferma che le due definizioni sono equivalenti.

Teorema 1.14 (Bichteler-Dellacherie). Sia X un processo adattato e càdlàg. Allora sono equivalenti:

• X è una semimartingala

• X è una semimartingala classica

Dimostrazione. Si veda [2], p. 144, Teorema 43.

1.2.1 Definizione dell’integrale stocastico per processi in L

Vorremmo adesso ampliare la classe dei processi che possano essere considerati come integrandi.

Notazione. Denotiamo con D lo spazio dei processi adattati e càdlàg e con L lo spazio dei processi adattati e càglàd (cioè le traiettorie sono continue a sinistra con limite destro finito). Se C è una collezione di processi, allora bC è la collezione dei processi di C limitati.

É necessario introdurre un nuovo tipo di convergenza.

Definizione 1.15. Diremo che una successione di processi (Yn)n≥1 converge ad un

processo Y uniformemente sui compatti in probabilità (denoteremo tale convergenza più semplicemente con la sigla u.c.p.) se

lim n→∞P  sup 0≤s≤t |Ysn− Ys| >   = 0

(18)

per ogni  > 0 e t ≥ 0. Equivalentemente, denotando con X∗ il processo definito come Xt∗ := sup 0≤s≤t |Xs|, se (Yn− Y )∗t → 0 in probabilità per ogni t ≥ 0.

Notazione. Denotiamo con Ducp, Lucp e Sucp, gli insiemi D, L e S dotati della topologia

indotta dalla convergenza u.c.p..

Osservazione 1.16. Se definiamo la metrica d(X, Y ) := ∞ X n=1 1 2nE[min(1, (X − Y ) ∗ n)]

allora la nozione di convergenza indotta da d equivale a quella definita in Definizione 1.15.. Inoltre è importante osservare che Ducp e Lucp sono spazi metrici completi.

Osservazione 1.17. Si può inoltre osservare che la topologia indotta dalla convergenza u.c.p. è più debole della topologia indotta dalla convergenza uniforme.

Teorema 1.18. Lo spazio S è denso in Lucp.

Dimostrazione. Dividiamo la dimostrazione in due passi:

Passo 1 Sia Y ∈ L, definiamo Rn:= inf{t > 0 : |Yt| > n}. Rn è un tempo d’arresto.

Allora se poniamo Yn:= YRn1

{Rn>0} per ogni n, si ha che Y

n∈ bL (è limitato da

n perché Y è continuo a sinistra) e Yn→ Y u.c.p..

Quindi bL è denso in Lucp. Basta dunque mostrare che S è denso in bLucp.

Passo 2 Sia allora Y ∈ bL, definiamo Zt := limu→t,u>tYu per ogni t ≥ 0 (il limite destro,

che esiste perché Y ∈ bL ). Allora Z ∈ D. Per ogni  > 0 definiamo T0:= 0 e

Tn+1 := inf{t > Tn : |Zt− ZT n| > }.

Poiché Z è càdlàg, gli Tn sono tempi di arresto e Tn ↑ ∞ q.c. per n → ∞. Sia Z :=X

n

ZT

n1[Tn,Tn+1 ) per ogni  > 0.

Allora gli Z sono limitati e Z → Z uniformemente per  → 0. Sia U := Y01{0}+ X n ZT n1(Tn,Tn+1 ]. Allora U ∈ bL e U → Y

01{0}+ Z− = Y uniformemente sui compatti per  → 0.

Allora se definiamo Yn,:= Y01{0}+ n X k≥1 ZT k1(Tk∧n,Tk+1 ∧n]

(19)

1.2. SEMIMARTINGALE E INTEGRAZIONE STOCASTICA 9

Definizione 1.19. Sia H ∈ S e X un processo càdlàg. Definiamo la mappa lineare JX : S → D come segue JX(H) := H0X0+ n X i=1 Hi(XTi+1− XTi)

dove H ha la rappresentazione canonica. Se, inoltre, X è adattato chiamiamo JX(H)

processo integrale stocastico di H rispetto a X.

Notazione. Useremo indifferentemente le seguenti tre notazioni per indicare l’integrale stocastico

Z

HsdXs:= H · X := JX(H).

Osservare che JX(H)t= IXt(H), e per H ∈ S, IX(H) =R∞

0 HsdXs.

Teorema 1.20. Se X è una semimartingala allora JX : Sucp→ Ducp è continuo. Dimostrazione. Osserviamo che senza perdita di generalità possiamo supporre X sia una semimartingala totale. Iniziamo provando qualcosa di più debole: JX : Su → Ducp è

continuo.

Supponiamo che Hk ∈ S tenda uniformemente a 0 e sia uniformemente limitato. Sia δ > 0 e definiamo la successione di tempi d’arresto Tk come segue

Tk := inf{t : |(Hk· X)t| ≥ δ}.

Allora Hk1[0,Tk]∈ S e Hk1[0,Tk]→ 0 uniformemente per k → ∞. Quindi per ogni fissato

t,

P((Hk· X)∗t > δ) ≤ P(|Hk· Xt∧Tk| ≥ δ)

= P(|(Hk1[0,Tk]· X)t| ≥ δ)

= P(IX(Hk1[0,Tk∧t])| ≥ δ) → 0

poiché X è una semimartingala totale. Perciò JX(Hk) → 0 u.c.p..

Supponiamo adesso che Hk → 0 u.c.p.. Siano  > 0, t > 0 e δ > 0 fissati. Per quanto visto, se esiste η tale che ||H||u ≤ η allora P(JX(H)∗t > δ) < 2.

Sia Rk := inf{s : |Hsk| > η} e poniamo ˜Hk := Hk1[0,Rk]1{Rk>0}. Allora ˜Hk ∈ S e

|| ˜Hk||u ≤ η per continuità a sinistra. Poiché Rk ≥ t implica ( ˜Hk· X)

t = (Hk· X)∗t, abbiamo che P((Hk· X)∗t > δ) = P((Hk· X)∗t ≥ δ; Rk< t) + P((Hk· X)∗t ≥ δ; Rk ≥ t) ≤ P(Rk < t) + P(( ˜Hk· X)∗t > δ) ≤  2 + P((H k)∗ t > η) < 

(20)

Se H ∈ L e (Hn)n≥1 ⊂ S sono tali che Hn → H u.c.p. (una tale successione esiste

per il Teorema 1.18), allora (Hn)n≥1 ha la proprietà di Cauchy per la metrica u.c.p. e

poiché JX è continuo (Teorema 1.20), anche (JX(Hn))n≥1 ha la proprietà di Cauchy.

Poiché Ducp è completo, esiste JX(H) ∈ D tale che JX(Hn) → JX(H) u.c.p.. Dunque:

Definizione 1.21. Data X semimartingala, la mappa lineare e continua JX : Lucp → Ducp

ottenuta come estensione di JX : S → D è detta integrale stocastico.

Vediamo le principali proprietà dell’integrale stocastico, di cui, per la maggiore, non forniremo dimostrazioni (lo scopo è di dare una visione completa dell’argomento pur mantenendo contenuta la trattazione).

Teorema 1.22. Sia X una semimartingala, H ∈ L e T un tempo d’arresto, allora (H · X)T = H · (XT).

Teorema 1.23 (Associatività). Sia H ∈ L e X una semimartingala. Allora Y := H · X è essa stessa una semimartingala e vale

G · Y = G · (H · X) = (GH) · X ∀ G ∈ L.

Dimostrazione. Supponiamo di sapere già che Y = H · X è una semimartingala. Allora G · Y = JY(G). Se G, H ∈ S allora è chiaro che vale JY(G) = JX(GH). L’associatività

si estende poi ad L per continuità.

Rimane allora da mostrare che Y = H · X sia una semimartingala. Sia (Hn)n ⊂ S tale

che Hn→ H u.c.p.. Quindi esiste una sotto-successione (nk)k tale che Hnk· X converge

q.c. a H · X.

Sia G ∈ S e poniamo Ynk = Hnk · X. Allora Ynk sono semimartingale che convergono

puntualmente al processo Y . Per G ∈ S, JY(G) è definito per ogni processo Y , così si ha

che JY(G) = G · Y = lim nk→∞ G · Ynk = lim nk→∞ G · (Hnk · X) = lim nk→∞ (G · Hnk) · X = lim nk→∞ JX(GHnk) = JX(GH)

poiché X è una semimartingala. Quindi JY(G) = JX(GH) per ogni G ∈ S.

Supponiamo allora che Gn converge a G in Su. Allora GnH converge a GH in Lucp e

poiché X è una semimartingala lim n→∞JY(G n) = lim n→∞JX(G nH) = J X(GH) = JY(G).

Questo implica che Ytè una semimartingala totale e quindi Y è una semimartingala. Osservazione 1.24. Tale teorema ci dice dunque che la proprietà di essere una semi-martingala è preservata dall’integrazione stocastica.

(21)

1.2. SEMIMARTINGALE E INTEGRAZIONE STOCASTICA 11 Teorema 1.25. Se X è un processo a variazione finita, allora la definizione di integrale stocastico coincide con l’integrale di Lebesgue-Stieltjes ed inoltre possiamo concludere che l’integrale stocastico H ·X con H ∈ L è esso stesso un processo a variazione finita, cioè la proprietà di essere un processo a variazione finita è preservata dall’integrazione stocastica per integrandi in L.

Teorema 1.26. Se X è una martingala locale di quadrato integrabile e H ∈ L, allora H · X è anch’esso una martingala locale di quadrato integrabile, cioè la proprietà di essere una martingala locale di quadrato integrabile è preservata dall’integrazione stocastica per integrandi in L.

Introduciamo la seguente definizione, la quale, seppur semplice, ricopre un ruolo fondamentale nella teoria del calcolo stocastico.

Definizione 1.27. Siano X e Y semimartingale. La covariazione quadratica di X e Y è il processo [X, Y ] = ([X, Y ]t)t≥0 definito da [X, Y ] := XY − Z X−dY − Z Y−dX.

Indichiamo con [X] := [X, X] = X2− 2R X−dX il processo di variazione quadratica.

Osservazione 1.28. La mappa (X, Y ) → [X, Y ] è bilineare e simmetrica.

La covariazione quadratica può quindi essere scritta in termini di variazione quadra-tica attraverso l’identità di polarizzazione

[X, Y ] = 1

2([X + Y ] − [X] − [Y ]).

Osservazione 1.29. [X, Y ] è una semimartingala. Infatti per l’identità di polarizzazione [X,Y] è differenza di due processi crescenti, quindi ha variazione finita, inoltre è un processo càdlàg e adattato, quindi è una semimartingala.

Da queste osservazioni e dalla definizione di covariazione quadratica ricaviamo la formula di integrazione per parti : se X e Y sono due semimartingale, allora XY è una semimartingala e si ha XY = Z X−dY + Z Y−dX + [X, Y ].

Dunque l’insieme delle semimartingale forma un’algebra.

Osservazione 1.30. Se X è una semimartingala, possiamo decomporre [X] in una parte continua e in una parte di puri salti

[X]t= [X]ct+ X02+

X

0<s≤t

(∆Xs)2.

Chiameremo [X]cparte continua della variazione quadratica e diremo che X è una semi-martingala quadratica di puro salto se [X]c= 0. Analogamente [X, Y ]c denota la parte continua della covariazione quadratica.

(22)

Esempio 1.31. Se N è un processo di Poisson allora [N ]t = P0<s≤t(∆Ns)2 = Nt,

quindi N è una semimartingala quadratica di puro salto.

Teorema 1.32. Siano X, Y due semimartingale e H, K ∈ L. Allora [H · X, K · Y ]t= Z t 0 HsKsd[X, Y ]s e in particolare [H · X]t= Z t 0 Hs2d[X]s.

Notazione. Per escludere lo 0 dagli estremi di integrazione, scriviamo Z (0,t] HsdXs:= Z t 0+ HsdXs

Enunciamo adesso la nota formula di It ˆo valida anche nel caso in cui il processo sia una semimartingala.

Teorema 1.33 (Formula di It ˆo). Se X è una semimartingala e f ∈ C2(R), allora

(f (Xt))t≥0 è una semimartingala e vale la seguente formula

f (Xt)−f (X0) = Z t 0+ f0(Xs−)dXs+ 1 2 Z t 0+ f00(Xs−)d[X]cs+ X 0<s≤t (f (Xs)−f (Xs−)−f0(Xs−)∆Xs). Dimostrazione. Si veda [2], p.78.

Tale formula può essere estesa anche al caso multi-dimensionale.

Teorema 1.34. Sia X = (X1, . . . , Xn) una n-upla di semimartingale e sia f : Rn→ R con derivate parziali del secondo ordine continue. Allora f (X) è una semimartingala e vale la seguente formula

f (Xt) − f (X0) = n X i=1 Z t 0+ ∂f ∂xi (Xs−)dXsi+ 1 2 X 1≤i,j≤n Z t 0+ ∂2f ∂xi∂xj (Xs−)d[Xi, Xj]cs + X 0<s≤t f (Xs) − f (Xs−) − n X i=1 ∂f ∂xi (Xs−)∆Xsi ! .

1.2.2 Integrazione stocastica per processi prevedibili

Vediamo infine come estendere ulteriormente la definizione di integrale stocastico alla classe dei processi prevedibili. Nello specifico definiremo prima l’integrazione stocastica per processi prevedibili e limitati rispetto ad una sottoclasse delle semimartingale, detta H2 e successivamente estenderemo tale definizione a processi prevedibili e localmente

(23)

1.2. SEMIMARTINGALE E INTEGRAZIONE STOCASTICA 13 Supponiamo d’ora in poi che X sia una semimartingala tale che X0 = 0. Questa

nuova assunzione non ci farà perdere di generalità poiché una volta definito l’integrale stocastico per le semimartingale nulle in 0, possiamo semplicemente definire

Z t 0 HsdYs:= Z t 0 Hsd ˆYs+ H0Y0

dove Y è una semimartingala e ˆYt= Yt− Y0. Introduciamo alcune definizioni.

Definizione 1.35. Chiameremo σ-algebra prevedibile P su R+× Ω la più piccola

σ-algebra che rende misurabili i processi in L, cioè P = σ{H : H ∈ L}.

Notazione. Denotiamo sempre con P (rispettivamente con bP ) la classe dei processi (rispettivamente dei processi limitati) che sonoP -misurabili.

Ricordiamo che se X è una semimartingala allora può essere decomposta in Xt =

X0 + Mt + At dove M0 = A0 = 0, M è una martingala locale e A è un processo a

variazione finita. Tuttavia tale decomposizione non è unica: se N è un processo di Poisson definito sullo spazio di probabilità (Ω,F , P), allora

Xt= X0+ (Mt+ Nt− t) + (At− Nt+ t)

è un’altra decomposizione di X.

Definizione 1.36. Sia X una semimartingala. Se X ammette una decomposizione del tipo Xt= X0+ Mt+ Atdove M0 = A0 = 0, M è una martingala locale e A è un processo

a variazione finita e prevedibile, allora X è detta semimartingala speciale.

Per le semimartingale speciali si può dimostrare che la decomposizione è unica (si veda [2], p.129, Teorema 30) ed è detta decomposizione canonica.

Proposizione 1.37 (Criterio). Chiaramente una semimartingala speciale è una semi-martingala. Viceversa, una semimartingala è una semimartingala speciale se e solo se Xt∗ = sups≤t|Xs| è localmente integrabile.

Notazione. Sia A un processo a variazione finita, denotiamo con |A| = (|A|t)t≥0 il

processo di variazione totale che ricordiamo essere definito da

|A|t:= sup n≥1 2n X k=1 Atk 2n − At(k−1) 2n .

Scriveremo indifferentemente |A|∞ e R0∞|dAs|. Se F è un processo tale che

Rt

0 FsdAs

esiste finito per ogni t > 0 q.c. allora scriviamo F · A per denotare il processo (F · A)t=

Rt

0FsdAs e F · |A| per denotare il processo (F · |A|)t=

Rt

(24)

Definizione 1.38. Sia X = M + A una semimartingala speciale con la decomposizione canonica. Definiamo la H2-norma di X come segue

||H||H2 := ||[M ]1/2 ||L2+ Z ∞ 0 |dAs| L2

Denotiamo conH2lo spazio delle semimartingale speciali conH2-norma finita, in formule

H2 := {X : X è una semimartingala speciale con ||X||H2 < ∞}.

Osservazione 1.39. Lo spazio (H2, || · ||H2) è di Banach.

Osservazione 1.40. Se H ∈ bL e X ∈ H2, allora l’integrale stocastico H · X ∈ H2.

Inoltre se X = M + A è la decomposizione canonica di X allora H · M + H · A è la decomposizione canonica di H · X (è conseguenza di un lemma tecnico che si può trovare in [2], p.155) e inoltre ||H · X||H2 = Z ∞ 0 Hs2d[M ]s 1/2 L2 + Z ∞ 0 |Hs||dAs| L2 .

Definizione 1.41. Sia X = M + A ∈ H2 con la decomposizione canonica e siano H, J ∈ bP . Definiamo dX(H, J ) := Z ∞ 0 (Hs− Js)2d[M ]s 1/2 L2 + Z ∞ 0 |Hs− Js||dAs| L2 .

Osservazione 1.42. dX non è una metrica, ma è una pseudo-metrica. Teorema 1.43. Se X ∈H2 allora

(i) Lo spazio bL è denso in (bP , dX).

Dimostrazione. La dimostrazione è una applicazione del Teorema della Classe Mo-notona.

(ii) Se (Hn)n≥1 ⊂ bL è di Cauchy in (bP , dX), allora (Hn · X)n≥1 è di Cauchy in

(H2, || · ||H2).

Dimostrazione. Poiché ||Hn· X − Hm· X||

H2 = dX(Hn, Hm), la dimostrazione è

immediata.

(iii) Se dX(Hn, H) → 0 e dX(Jn, H) → 0 per n → ∞ con (Hn)n≥1, (Jn)n≥1 ⊂ bL e

(25)

1.2. SEMIMARTINGALE E INTEGRAZIONE STOCASTICA 15 Dimostrazione. Sia Y = limn→∞Hn e Z = limn→∞Jn inH2. Allora per  > 0 ed

n sufficientemente grande si ha

||Y − Z||H2 ≤ ||Y − Hn· X||H2 + ||Hn· X − Jn· X||H2 + ||Jn· X − Z||H2

≤ 2 + ||Hn· X − Jn· X||H2

≤ 2 + dX(Hn, Jn)

≤ 2 + dX(Hn, H) + dX(H, Jn) ≤ 4.

Osservazione 1.44. I punti (i) e (ii) del Teorema 1.43 possono essere sintetizzati di-cendo che la mappa (bL, dX) → (H2, || · ||H2) che manda H → H · X è una isometria e

può essere estesa a (bP , dX).

Siamo adesso in grado di definire l’integrale stocastico per H ∈ bP e X ∈ H2.

Definizione 1.45. Sia X ∈ H2 e H ∈ bP . Supponiamo che (Hn)n≥1 ⊂ bL sia tale

che dX(Hn, H) → 0 per n → ∞ (una tale successione esiste per il Teorema 1.43 (i)). Definiamo l’integrale stocastico di H rispetto ad X come l’unica semimartingala Y ∈H2

tale che

Y := H · X := lim

n→∞(H

n· X) in H2.

Tale limite esiste per il Teorema 1.43 (ii) e H · X è ben definito (cioè non dipende dalla scelta della successione) per il Teorema 1.43 (iii).

L’integrale stocastico così definito ha le seguenti proprietà, molte delle quali sono già familiari perché viste nella sezione precedente:

Proposizione 1.46 (Proprietà dell’integrale stocastico). Siano X, Y ∈H2 e H, K ∈ bP . 1) (H + K) · X = H · X + K · X.

2) H · (X + Y ) = H · X + H · Y .

3) Sia T un tempo d’arresto, allora H · (XT) = (H · X)T. 4) Sia T un tempo d’arresto, allora H · (XT −) = (H · X)T −.

5) Se X è un processo a variazione finita, allora H · X coincide con l’integrale di Lebesgue-Stieltjes.

6) K · X ∈H2 e H · (K · X) = (HK) · X (Associatività).

7) Se X è una (L2)-martingala allora H · X è una L2-martingala. 8) [H · X, K · Y ]t= Z t 0 HsKsd[X, Y ]s e in particolare [H · X]t= Z t 0 Hs2d[X]s

(26)

Restringere la classe degli integrandi a bP e considerare semimartingale in H2è

mate-maticamente conveniente ma non necessario. Un metodo standard per rilassare le ipotesi è di considerare il caso in cui determinate proprietà valgano localmente o, come faremo inizialmente, prelocalmente.

Definizione 1.47. Una proprietà (P) vale prelocalmente per un processo X con X0= 0

se esiste una successione (Tn)n≥1 di tempi di arresto con Tn → ∞ crescendo q.c. e tale

che (P) valga per XTn−= X

t1[0,Tn)+ XTn−1[Tn,∞) per ogni n ≥ 1.

Il seguente teorema mostra che considerare semimartingale inH2 non è in realtà una

restrizione.

Teorema 1.48. Sia X una semimartingala con X0 = 0. Allora X è prelocalmente un

elemento diH2, cioè esiste una successione non decrescente di tempi di arresto (Tn)n≥1

con limn→∞Tn= ∞ q.c. e tale che XTn−∈ H2 per ogni n.

Dimostrazione. Si veda [2], p.162, Teorema 13.

Se X ∈H2, per definire l’integrale stocastico per processi prevedibili H, i quali non

siano necessariamente limitati (quindi H ∈P ), basta approssimare H con Hn∈ bP . Definizione 1.49. Sia X = M + A ∈H2 con la decomposizione canonica. Diciamo che H ∈P è (H2, X)-integrabile se E Z ∞ 0 Hs2d[M ]s  + E " Z ∞ 0 |Hs||dAs| 2# < ∞.

Teorema 1.50. Sia X ∈H2, H ∈ P e (H2, X)-integrabile. Sia poi Hn= H1{|H|≤n} ∈

bP , per n ≥ 1. Allora (Hn· X)

n≥1 è una successione di Cauchy inH2.

Dimostrazione. Chiaramente Hn· X è ben definito per ogni n, poiché Hn∈ bP , per ogni

n. Osserviamo inoltre che limn→∞Hn= H e che |Hn| ≤ |H|, per ogni n. Allora

||Hn· X − Hm· X||H2 = dX(Hn, Hm) = Z ∞ 0 (Hsn− Hsm)2d[M ]s 1/2 L2 + Z ∞ 0 |Hsn− Hsm||dAs| L2 . → 0 per il Teorema di Convergenza Dominata

Definizione 1.51. Se X ∈H2 e H ∈P è (H2, X)-integrabile allora definiamo H · X nel

seguente modo

H · X := lim

n→∞H

n· X in H2.

(27)

1.2. SEMIMARTINGALE E INTEGRAZIONE STOCASTICA 17 Definizione 1.52. Sia X una semimartingala arbitraria e H ∈ P . Diaciamo che l’in-tegrale stocastico H · X esiste se esiste una successione di tempi di arresto (Tn)n≥1

che tende crescendo ad ∞ q.c., tale che XTn− ∈ H2 per ogni n ≥ 1 e tale che H è

(H2, XTn−)-integrabile per ogni n. In questo caso diciamo che H è X-integrabile e

scri-viamo H ∈ L(X).

Definiamo allora l’integrale stocastico come

H · X = H · (XTn−) su [0, T

n)

per ogni n.

Osservazione 1.53. L’integrale stocastico H · X è ben definito per H ∈ L(X) perché Hk· (XTn−)Tm−= Hk·X(Tm∧Tn)−= Hk· (XTm−)

per n > m e Hk = H1{|H|≤k} per la proprietà 4) della Proposizione 1.46. Dunque

passando al limite si ha

H · (XTn−)Tm−= H · (XTm−).

Inoltre sempre per la proprietà 4), se (Rl)l≥1 è un’altra successione di tempi di arresto

tale che XRl−∈ H2 e tale che H è (H2, XRl−)-integrabile per ogni l allora

H · (XRl−) = H · (XTm−) su [0, R

l∧ Tm]

per ogni l ≥ 1 e m ≥ 1. Quindi l’integrale stocastico H · X non dipende dalla particolare scelta della successione di tempi d’arresto.

Proposizione 1.54 (Proprietà dell’integrale stocastico). Siano X, Y semimartingale e H, J ∈ L(X) e K ∈ L(Y ).

1) H · X è una semimartingala.

2) αH + βJ ∈ L(X) cioè L(X) è uno spazio vettoriale e (αH + βJ ) · X = αH · X + βJ · X. 3) Se H ∈ L(Y ), allora H ∈ L(X + Y ) e

H · (X + Y ) = H · X + H · Y. 4) H ∈ L(J · X) se e solo se HJ ∈ L(X) e in tal caso

H · (J · X) = (HJ ) · X (associatività). 5) [H · X, K · Y ]t=

Rt

0HsKsd[X, Y ]s (t ≥ 0).

6) Se X ha variazione finita e R0t|Hs||dXs| esiste q.c. per ogni t ≥ 0 allora H · X

(28)

7) Se T è un tempo d’arresto (H · X)T = H · (XT) ed inoltre (H · X)T −= H · (XT −) Osservazione 1.55. Se H ∈ bP allora H ∈ L(X) per ogni semimartingala X, poiché ogni semimartingala è prelocalmente in H2 per il Teorema 1.48.

Definizione 1.56. Un processo H è detto localmente limitato se esiste una successione di tempi di arresto (Sm)m≥1 che tende crescendo ad ∞ q.c. e tale che per ogni m ≥ 1,

(Ht∧Sm1{Sm>0})t≥0 è limitato.

Osservazione 1.57. Ogni processo il L è localmente limitato.

Teorema 1.58. Sia X una semimartingala e H ∈ P localmente limitato. Allora H ∈ L(X), cioè H · X esiste.

Idea. Si considerano due successioni di tempi di arresto (Sm)m≥1 e (Tn)n≥1 che

conver-gono crescendo a ∞ q.c. e tali che HSm1

{Sm>0} è limitata per ogni m e X

Tn− ∈ H2 per

ogni n. Si definisce poi Rn = min(Sn, Tn). Rn tende crescendo ad ∞ q.c. e si verifica

(29)

Capitolo 2

Il calcolo di Malliavin

Dallo spazio di Wiener allo spazio di Poisson

Il calcolo di Malliavin, conosciuto anche come calcolo delle variazioni stocastico, è una teoria che studia il calcolo differenziale infinito-dimensionale sullo spazio di Wiener. In-trodotta per la prima volta da Paul Malliavin negli anni ’70 con l’obiettivo iniziale di dare una dimostrazione probabilistica del teorema di Hörmander sulla caratterizzazione degli operatori ipoellittici, questa teoria fu poi ulteriormente sviluppata divenendo di centrale importanza anche in campo applicativo. I più recenti sviluppi riguardano il tentativo di definire un calcolo differenziale stocastico non solo sull’usuale spazio di Wiener ma più in generale per processi con salti, come il processo di Poisson. Esistono ulteriori generalizza-zioni che riguardano i processi di Levy, ossia processi che in qualsiasi intervallo di tempo possono avere un numero infinito di salti. Ma poiché la classe dei processi di Poisson è qualitativamente sufficiente per le esigenze della Finanza Matematica, ci limiteremo a quest’ultimo caso, in modo da evitare le difficoltà tecniche inerenti alla teoria generale dei processi di Levy (per chi fosse interessato può comunque consultare [9], ad esempio).

2.1

Calcolo di Malliavin sullo spazio di Wiener

In questa sezione esponiamo sinteticamente le idee essenziali del “calcolo di Malliavin” sullo spazio di Wiener, introducendo la definizione di derivata secondo Malliavin e del suo operatore aggiunto (l’integrale di Skorohod ), e la relativa formula di integrazione per parti, al fine di prendere maggiore confidenza con gli elementi base di questa teoria. Le dimostrazioni dei risultati esposti non saranno fornite poiché già trattate durante il corso di Equazioni Differenziali Stocastiche ed Applicazioni (si possono comunque reperire in [10] e per una teoria giù generale in [11]).

Iniziamo con la costruzione dello spazio canonico di Wiener. Sia Ω = C0([0, T ]) lo spazio di Banach delle funzioni continue a valori reali, definite su [0, T ] e nulle in 0 (con la norma della convergenza uniforme), sia F = B(C0([0, T ])) la σ-algebra di Borel

generata dalla famiglia degli insiemi aperti di C0([0, T ]). Wiener dimostrò che su questo 19

(30)

spazio vi è una misura ben definita P, nota come misura di Wiener. Si verifica che, sullo spazio (Ω,F , P) (detto spazio di Wiener ), il processo stocastico formato dalle proiezioni canoniche Wt(ω) = ω(t) è un processo di Wiener (detto quindi canonico). Indichiamo con (Ft)0≤t≤T la filtrazione generata dal processo di Wiener canonico (Wt)0≤t≤T (cioè

Ft= σ(Ws: s ≤ t)) modificata in modo da soddisfare le condizioni abituali.

Notazione. Denoteremo con

L2(Ω) := L2(Ω,F , P),

L2([0, T ]) := L2([0, T ],B([0, T ]), Leb),

L2(Ω × [0, T ]) := L2(Ω × [0, T ],F × B([0, T ]), P × Leb). Per h ∈ L2([0, T ]) definiamo l’integrale di Wiener

W (h) = Z T

0

h(s)dWs.

Osservazione 2.1. Per la linearità dell’integrale stocastico si ha che • h 7→ W (h) è una mappa lineare;

• W (h) è una variabile aleatoria gaussiana di media 0 e varianza ||h||2

L2([0,T ])per ogni

h ∈ L2([0, T ]);

• E[W (g)W (h)] = (g, h)L2([0,T ]) per ogni g, h ∈ L2([0, T ])

per l’isometria di Itô.

Definizione 2.2. Chiamiamo funzionali lisci le variabili aleatorie F : Ω → R della forma F = φ(W (h1), . . . , W (hn)),

dove h1, . . . , hn sono elementi di L2([0, T ]) e φ ∈Cp∞(Rn) (cioè l’insieme delle funzioni

f : Rn→ R infinitamente differenziabili con continuità tali che f e tutte le sue derivate sono a crescita al più polinomiale). Denotiamo conS lo spazio dei funzionali lisci.

Notiamo che, poiché φ è a crescita polinomiale e W (h) ha momento di qualsiasi ordine, essendo una variabile aleatoria gaussiana, i funzionali lisci F appartengono a L2(Ω) e dunque S ⊂ L2(Ω). Inoltre S è denso in L2(Ω). Infatti, ad esempio, gli esponenziali

di Wiener (h) = expW (h) − ||h||22e le loro combinazioni lineari, chiamate polinomi esponenziali, sono funzionali lisci e formano un insieme completo in L2(Ω).

Definizione 2.3. Sia F = φ(W (h1), . . . , W (hn)) ∈S. Definiamo l’operatore derivata di

Malliavin

D :S ⊂ L2(Ω) → L2(Ω × [0, T ]) F 7→ DF

nel seguente modo

DtF (ω) = n X i=1 ∂φ ∂xi (W (h1), . . . , W (hn))(ω)hi(t)

(31)

2.1. CALCOLO DI MALLIAVIN SULLO SPAZIO DI WIENER 21 Si noti che questa è una buona definizione poiché non dipende dalla rappresentazione della variabile aleatoria F . Inoltre D è lineare.

Allo scopo di interpretare D come una derivata direzionale, osserviamo che per ogni h ∈ L2([0, T ]) si ha (DF, h)L2([0,T ]) = lim →0 1 [φ(W (h1) + (h1, h)L2([0,T ]), . . . , W (hn) + (hn, h)L2([0,T ])) − φ(W (h1), . . . , W (hn))].

e posto H(s) =R0sh(u)du si ha che (DF, h)L2([0,T ])= lim →0 1  h φ Z T 0 h1(s)d[W (s) + H(s)], . . . , Z T 0 hn(s)d[W (s) + H(s)]  − φ Z T 0 h1(s)dW (s), . . . , Z T 0 hn(s)dW (s)  i = d dφ Z T 0 h1(s)d[W (s) + H(s)], . . . , Z T 0 hn(s)d[W (s) + H(s)]  =0

Dunque la derivata di Malliavin è in un certo senso una derivata direzionale lungo le direzioni dello spazio di Cameron-Martin che ricordiamo essere

H =  h∗ : [0, T ] → R : ∃h ∈ L2([0, T ]) : h∗(t) = Z t 0 h(s)ds, ∀t ∈ [0, T ] 

Osservazione 2.4 (Regola del prodotto). Per definizione dell’operatore D, per ogni F, G ∈S vale

D(F G) = F DG + GDF.

Per estendere la definizione ad una classe più ampia di variabili aleatorie possiamo considerare per F ∈S la seguente norma

||F ||1,2 =  E[F2] + E h ||DF ||2L2([0,T ]) i12 = Z Ω F2dP + Z Ω dP Z T 0 (DsF )2ds 12 .

Proposizione 2.5. L’operatore D : S ⊂ L2(Ω) → L2(Ω × [0, T ]) è chiudibile rispetto alla norma || · ||1,2.

Questo risultato è una conseguenza della seguente formula di integrazione per parti (di Gaveaux–Trauber) per i funzionali lisci:

Teorema 2.6. Siano F ∈S e h ∈ L2([0, T ]). Allora si ha E(DF, h)L2([0,T ]) = E[F W (h)].

Applicando il precedente risultato al prodotto F G, otteniamo la seguente formula per F, G ∈S e h ∈ L2([0, T ])

(32)

Indichiamo con D1,2 il dominio della chiusura di D, che per semplicità denoteremo ancora con D, cioè D1,2 è la chiusura diS rispetto alla norma || · ||1,2. Si verifica che D1,2

è uno spazio di Hilbert con prodotto scalare

(F, G)1,2= E[F G] + E(DF, DG)L2([0,T ]) .

Definizione 2.7. Se F ∈ D1,2 allora esiste (Fn)n ⊂ S tale che Fn → F in L2(Ω) e

DFn→ G in L2(Ω × T ). Definiamo allora

DF := lim

n→∞DFn= G

derivata di Malliavin della variabile aleatoria F .

La precedente è una buona definizione perché non dipende dalla successione appros-simante (Fn)n. Quindi D : D1,2 ⊂ L2(Ω) → L2(Ω × [0, T ]) è un operatore lineare con

dominio denso D1,2.

L’operatore D gode di numerevoli ed interessanti proprietà come ad esempio la seguen-te, la quale fornisce una regola di derivazione che si rifà a quella classica e costituisce un’estensione della relazione nell’Osservazione 2.4:

Proposizione 2.8 (Regola della catena). Se φ : Rm → R è una funzione differenziabile con continuità e con derivate parziali limitate (cioè φ ∈ Cb1(Rm)) e F = (F1, . . . , Fm) è un vettore aleatorio le cui componenti appartengono allo spazio D1,2, allora φ(F ) ∈ D1,2 e vale D(φ(F )) = m X i=1 ∂φ ∂xi (F )DFi.

Una volta definita la derivata di Malliavin è possibile passare al concetto di operatore divergenza o integrale di Skorohod denotato con δ, che altro non è che l’operatore aggiunto dell’operatore D (in quanto D è un operatore lineare densamente definito).

Definizione 2.9. Definiamo l’operatore divergenza δ : L2(Ω × [0, T ]) → L2(Ω) come

l’operatore lineare tale che

• il dominio di δ, denotato con Dom(δ), è l’insieme dei processi u ∈ L2(Ω × [0, T ])

che soddisfano E(DF, u)L2([0,T ])  = E Z T 0 DtF u(t)dt  ≤ C(u)||F ||L2(Ω),

per ogni F ∈ D1,2, dove C(u) è una costante che dipende solo da u;

• se u appartiene a Dom(δ), allora δ(u) è un elemento di L2(Ω) caratterizzato dalla

relazione di dualità

E[F δ(u)] = E(DF, u)L2([0,T ])



(33)

2.2. CALCOLO DI MALLIAVIN SULLO SPAZIO DI POISSON 23 Quest’ultima relazione è detta formula di integrazione per parti. Si può verificare che δ è un operatore chiuso in quanto aggiunto di un operatore densamente definito.

Osservazione 2.10. • Prendendo F = 1, dalla relazione di dualità si ottiene E[δ(u)] = 0.

• Se u =Pn

i=1Fihi con hi ∈ L2([0, T ]) e Fi∈ S, allora dalla formula di integrazione

per parti del Teorema 2.6. deduciamo che u è un elemento di Dom(δ) ed inoltre otteniamo δ(u) = n X i=1 FiW (hi) − n X i=1 (DFi, hi)L2([0,T ]).

Questa seconda osservazione può essere generalizzata come segue

Proposizione 2.11. Siano F ∈ D1,2 e u ∈ Dom(δ) tali che F u ∈ L2(Ω × [0, T ]). Allora F u ∈ Dom(δ) e la seguente uguaglianza è vera

δ(F u) = F δ(u) − (DF, u)L2([0,T ])

a patto che Eh F δ(u) − (DF, u)L2([0,T ])

2i < ∞.

Un altro risultato importante che peraltro giustifica il termine "integrale" consiste nel fatto che l’integrale di Skorohod è una estensione dell’integrale di Itô. Ricordia-mo che M2 denota l’insieme dei processi progressivamente misurabili (H

t)t∈[0,T ] tali che E h RT 0 H 2 tdt i

< ∞ e cheM2 è un sottospazio chiuso di L2(Ω × [0, T ]). Proposizione 2.12. Se H ∈M2, allora H ∈ Dom(δ) e si ha

δ(H) = Z T

0

HsdWs.

2.2

Calcolo di Malliavin sullo spazio di Poisson

Per procedere in modo analogo al caso Wiener, iniziamo accennando brevemente la co-struzione formale dello spazio di Poisson. Sia X uno spazio metrico compatto e sia σ una misura di Radon non atomica su X. Sia

ΩX = ( ω = n X k=0 δxk : (xk) n k=0⊂ X, n ∈ N ∪ {∞} )

lo spazio delle configurazioni su X, dove δx denota la massa di Dirac nel punto x ∈ X. SiaFX la σ-algebra su Ω generata dai funzionali di Poisson della forma

F (ω) = f01{ω(X)=0}+ ∞

X

n=1

(34)

dove fn ∈ L1(Xn, σ⊗n) (cioè lo spazio delle funzioni integrabili) è simmetrica in n

va-riabili, n ≥ 1, cioè tale che per ogni permutazione s su {1, . . . , n} si ha fn(t1, . . . , tn) =

fn(ts(1), . . . , ts(n)). Caratterizziamo la misura di Poisson con intensità σ, denotata con

PXσ su (ΩX,FX) tramite la formula E[F ] = e−σ(X)f0+ e−σ(X) ∞ X n=1 1 n! Z X · · · Z X fn(x1, . . . , xn)σ(dx1) . . . σ(dxn)

per tutte le F non negative della forma (∗). Tale costruzione è poi estesa al caso in cui X sia σ-compatto (ossia costituito da un’unione numerabile di insiemi compatti cioè X = ∪n∈NXn, Xn compatti) nel qual caso poniamo

ΩX = ∞ Y n=0 ΩXn, FX =OFXn, PXσ = O PXσn.

Quindi nel particolare caso dello spazio di Poisson

Ω = ( ω = n X i=1 δti, 0 < t1< · · · < tn, n ∈ N ∪ {∞} )

su X = R+e con σ(dx) = λdx con λ > 0, si ha che il Processo di Poisson (Nt)t∈R+ della

Definizione 1.1. può essere costruito ponendo

Nt(ω) = ω([0, t]), t ∈ R+.

Denoteremo più semplicemente con (Ω,F , P) lo spazio di Poisson su cui è definito un processo di Poisson (Nt)t∈R+ e rimandiamo al Capitolo 6 di [8] per maggiori dettagli.

L’obiettivo che adesso ci poniamo è di estendere il calcolo di Malliavin sullo spazio di Poisson. In questo caso la letteratura propone parecchi approcci che conducono alla definizione di diversi operatori gradiente con diverse proprietà. Quindi non esiste per il momento una teoria unificata in questo campo. Sostanzialmente siamo riusciti ad individuare due approcci principali:

• il primo, si basa sulla definizione degli integrali stocastici multipli, i quali possono essere espressi attraverso i polinomi di Charlier, e sulla decomposizione in caos dello spazio L2(Ω). Sebbene, a partire da questo approccio, possa essere costruita una teoria concettualmente bella e completa come quella sullo spazio di Wiener, ciò conduce alla definizione di un operatore gradiente alle differenze finite ˜D, il quale non soddisfa le proprietà di derivazione: in questo caso, per l’operatore ˜D vale

˜

D(F G) = F ˜DG + G ˜DF + ˜DF ˜DG.

Dunque rispetto alla classica regola del prodotto vi è il termine ˜DF ˜DG in più e di conseguenza, generalmente, per f abbastanza regolare avremo ˜Df (F ) 6= f0(F ) ˜DF .

(35)

2.2. CALCOLO DI MALLIAVIN SULLO SPAZIO DI POISSON 25 Osservazione 2.13. Nel caso dello spazio di Wiener la teoria originariamente sviluppata da Malliavin sfruttava proprio la decomposizione in caos dello spazio (venivano usati i polinomi di Hermite per rappresentare gli integrali multipli di Wiener), ma in questo caso l’operatore risultante coincideva con la derivata di Malliavin definita nella sezione precedente.

Poiché le proprietà di derivazione sono largamente usate nelle applicazioni (in modo particolare la regola della catena ha importanti conseguenze per l’analisi della sensibilità), noi preferiremo seguire il secondo approccio, il quale

• si basa sulla definizione di operatori differenziali L su X, dove, nel caso più generale, X è una varietà Riemanniana, i quali vengono sollevati ad operatori differenziali

ˆ

DL su ΩX

e permette di definire una derivata che possiede proprietà maneggevoli nei calcoli. De-scriviamo brevemente questo secondo approccio.

Notazione. Denotiamo con Ck

c (rispettivamente Cbk), k ≥ 1, lo spazio delle funzioni

differenziabili k volte con continuità con supporto compatto (rispettivamente con derivate limitate).

Sia X una varietà Riemanniana con forma di volume σ, denotiamo con TxX lo spazio

tangente in x ∈ X e con T X = tx∈XTxX il fibrato tangente ad X.

Assumiamo dato un operatore differenziale L definito su Cc1(X) con aggiunto L∗ con il quale soddisfa la relazione di dualità

(Lu, V )L2(X,σ;T X)= (u, L∗V )L2(X,σ), per u ∈Cc1(X) e V ∈Cc1(X, T X).

Lavoriamo sullo spazio di Poisson su X, (ΩX,FX, PX

σ ). Dato Λ sottoinsieme compatto

di X, denotiamo conS l’insieme dei funzionali F della forma F (ω) = f01{ω(Λ)=0}+ ∞ X n=1 1{ω(Λ)=n}fn(x1. . . , xn) dove fn∈ C1

c(Λn) è simmetrica in n variabili, n ≥ 1. Si definisce per F ∈S il gradiente

intrinseco ˆDL come ˆ DLxF (ω) = ∞ X n=1 1{ω(Λ)=n} n X i=1 Lxifn(x1, . . . , xn)1{xi}(x), dω − q.c.

per x ∈ X e ω ∈ ΩX. Si può osservare che se I denota la speciale classe dei funzionali lisci della forma

F = f Z X ϕ1dω, . . . , Z X ϕndω  con ϕ1, . . . , ϕn∈ Cc∞(X), f ∈Cb∞(Rn), n ∈ N, allora si ha ˆ DxLF (ω) = n X i=1 ∂if Z X ϕ1dω, . . . , Z X ϕndω  Lxϕi(x).

(36)

Si può verificare che gli operatori così ottenuti soddisfano la formula di integrazione per parti E[(DˆLF, V )L2(X,dω;T X)] = E  F Z X L∗V dω 

per F ∈I e V ∈ Cc1(X; T X) e le proprietà di derivazione come la regola della catena.

2.2.1 Operatori di derivazione su Ω

Chiaramente si potrebbe continuare a sviluppare la teoria in questo contesto più generale ma le applicazioni che tratteremo in seguito non la motivano. Dunque supponiamo che X sia la semiretta R+ e che L sia l’operatore gradiente ∇X su X. Per un’analisi più

profonda si può consultare [14].

Ricordiamo che gli istanti di salto del processo di Poisson (Nt)t∈R+ di intensità λ > 0

sono denotati con (τk)k≥1 e τ0= 0.

Definizione 2.14. Denotiamo conS l’insieme dei funzionali aleatori lisci F della forma F = f (τ1, . . . , τd), f ∈Cb1(Rd+) e d ≥ 1.

Osserviamo che S è denso in L2(Ω).

Definizione 2.15 (Gradiente intrinseco). Per F ∈S definiamo l’operatore ˆ DtF = d X k=1 1{τk}(t)∂kf (τ1, . . . , τd) dNt− q.c.

dove ∂kf denota la derivata parziale di f rispetto alla k-esima variabile. Osserviamo che ˆ

D è un operatore lineare e soddisfa le proprietà di derivazione (per la presenza dell’usuale operatore di derivata su Rd).

Lemma 2.16. Per F ∈ S e h ∈ Cb1(R+) con h(0) = 0, vale la seguente formula di

integrazione per parti E h ( ˆDF, h)L2(R +,dNt) i = −E  F Z ∞ 0 h0(t)d(Nt− λt)  .

Dimostrazione. La formula è ottenuta usando la relazione (••) del Capitolo 1 e la classica integrazione per parti sullo spazio Rd. Per vedere i dettagli della dimostrazione si può consultare [8], Lemma 7.1.9 e Corollario 7.1.10.

Sia ˆ U = ( n X i=1 Gihi : G1, . . . , Gn∈ S, h1, . . . , hn∈ Cc1(R+), n ≥ 1 ) .

Per linearità si può definire l’operatore divergenza intrinseca ˆδ sui processi u ∈ ˆU tramite la relazione ˆ δ(hG) = −G Z ∞ 0 h0(t)d(Nt− λt) − ( ˆDG, h)L2(R +,dNt)

(37)

2.2. CALCOLO DI MALLIAVIN SULLO SPAZIO DI POISSON 27 per G ∈S e h ∈ C1

c(R+). Il Lemma 2.16 implica subito la seguente relazione di dualità

tra ˆD e ˆδ, per cui l’operatore ˆδ è proprio l’aggiunto dell’operatore ˆD. Proposizione 2.17. Per F, G ∈S e h ∈ Cc1(R+) si ha E[(DF, hG)ˆ L2(R +,dNt)] = E[F ˆδ(hG)]. Dimostrazione. E h ( ˆDF, hG)L2(R +,dNt) i = Eh( ˆD(F G), h)L2(R +,dNt)− F ( ˆDG, h)L2(R+,dNt) i = −E  F  G Z ∞ 0 h0(t)d(Nt− λt) + ( ˆDG, h)L2(R +,dNt)  = E h F ˆδ(hG) i .

A partire dall’operatore ˆD possiamo costruire altri esempi di operatori che continuano a mantenere le "buone proprietà". Metteremo via via in evidenzia risultati e proprietà differenti per i vari operatori basandoci in primo luogo sulle applicazioni del Capitolo successivo.

Denotiamo con ˙U l’insieme dei processi del tipo

n

X

i=1

Fiui u1, . . . , un∈ Cc(R+), F1, . . . , Fn∈ S, n ≥ 1.

Osserviamo che ˙U è denso in L2(Ω × R +).

Definizione 2.18 (Gradiente smorzato sulla semiretta). Per F ∈S, definiamo l’opera-tore ˙D nel seguente modo

˙ DtF = − d X k=1 1[0,τk](t)∂kf (τ1, . . . , τd).

L’operatore ˙D è lineare ed ha le proprietà di derivazione cioè, per ogni t ∈ R+ ˙

Dt(F G) = F ˙DtG + G ˙DtF F, G ∈S

˙

Dtf (F ) = f0(F ) ˙DtF F ∈S, f ∈ Cb1(R).

Osservazione 2.19. Osserviamo che, posto r(t, s) = −(s ∨ t) per s, t ∈ R+ si ha

r(1)(t, s) = ∂r∂t(t, s) = −1]−∞,t](s) e dunque ˙ DsF = d X k=1 r(1)(τk, s)∂kf (τ1, . . . , τd) = Z ∞ 0 r(1)(t, s) ˆDtF dNt.

(38)

Proposizione 2.20. Per F ∈S e u ∈ Cc(R+) vale la formula di integrazione per parti E[(DF, u)˙ L2(R +,dt)] = E  F Z ∞ 0 u(t)d(Nt− λt)  . Dimostrazione. Per l’Osservazione 2.19 si ha

E[(DF, u)˙ L2(R +,dt)] = E Z ∞ 0 Z ∞ 0 r(1)(s, t) ˆDsF u(t)dNsdt  = −E  ( ˆD·F, Z · 0 u(t)dt)L2(R +,dNt)  = E  F Z ∞ 0 u(t)d(Nt− λt) 

dove quest’ultimo passaggio deriva dal Lemma 2.16.

Definizione 2.21. Definiamo l’operatore ˙δ su ˙U per linearità tramite la relazione ˙δ(hG) := G Z ∞ 0 h(t)d(Nt− λt) − ( ˙DG, h)L2(R +,dt) per h ∈Cc(R+) e G ∈S. Proposizione 2.22. L’operatore ˙δ : L2 (Ω × R+) → L2(Ω)

definito su ˙U è l’aggiunto dell’operatore ˙

D : L2(Ω) → L2(Ω × R+)

definito suS cioè si ha che

E[(DF, u)˙ L2(R

+,dt)] = E[F ˙δ(u)] F ∈ S, u ∈ U.

Dimostrazione. La Proposizione 2.20 implica, per F, G ∈S E[(DF, hG)˙ L2(R +,dt)] = E[( ˙D(F G), h)L2(R+,dt)− F ( ˙DG, h)L2(R+,dt)] = E[F (G Z ∞ 0 h(t)d(Nt− λt) − ( ˙DG, h)L2(R +,dt))].

Proposizione 2.23. La relazione di dualità della Proposizione 2.22 implica che ˙D e ˙δ sono operatori chiudibili.

(39)

2.2. CALCOLO DI MALLIAVIN SULLO SPAZIO DI POISSON 29 Dimostrazione. Se (Fn)n∈N converge a 0 in L2(Ω) e ( ˙DFn)n∈Nconverge ad U in L2(Ω ×

R+), la relazione E[(DF˙ n, u)L2(R +)] = E[Fn˙δ(u)] u ∈ U implica (U, u)L2(Ω×R +) = E(U, u)L2(R +)  ≤ E h ( ˙DFn, u)L2(R +) i − E(U, u)L2(R +)  + E h ( ˙DFn, u)L2(R +) i = E h ( ˙DFn− U, u)L2(R +) i + E h Fn˙δ(u) i ≤ || ˙DFn− U ||L2(Ω×R +) | {z } →0 ||u||L2(Ω×R +)+ ||Fn||L2(Ω) | {z } →0 || ˙δ(u)||L2(Ω).

Quindi per n → ∞ si ha E(U, u)L2(R

+) = 0 per ogni u ∈ U cioè U = 0 poiché ˙U è denso

in L2(Ω × R+). La dimostrazione della chiudibilità di ˙δ è simile: se (un)n∈N converge a

0 in L2(Ω × R+) e ( ˙δ(un))n∈N converge ad F in L2(Ω), allora per ogni G ∈S si ha

|E[F G]| ≤ E h ( ˙DG, un)L2(R +) i − E[F G] + E h ( ˙DG, un)L2(R +) i = E h G( ˙δ(un) − F ) i + E h ( ˙DG, un)L2(Ω×R +) i ≤ || ˙δ(un) − F ||L2(Ω) | {z } →0 ||G||L2(Ω)+ ||un||L2(Ω×R +) | {z } →0 || ˙DG||L2(Ω×R +)

quindi E[F G] = 0, per ogni G ∈ S, cioè F = 0 poiché S è denso in L2(Ω).

Dunque ne consegue che questi operatori ammettono una minima estensione chiusa che per semplicità denotiamo ancora con ˙D e ˙δ ed indichiamo con Dom( ˙D) e Dom( ˙δ) i rispettivi domini.

Proposizione 2.24. Per ogni processo u ∈ L2(Ω × R+) adattato si ha che u ∈ Dom( ˙δ) e

˙δ(u) =Z ∞

0

u(t)d(Nt− λt).

Dimostrazione. L’idea è di verificarlo dapprima per il caso v processo della forma v = F 1(t,T ](·) dove F ∈S è Ft-misurabile, per il quale vale ˙DsF = 0 per ogni s ≥ t. Infatti:

se F = f (τ1, . . . , τd), allora non dipende dall’istante del k-esimo salto τk se τk > t cioè

∂if (τ1, . . . , τd) = 0 per τk> t, 1 ≤ k ≤ i ≤ d.

Questo implica che

∂if (τ1, . . . , τd)1[0,τi](s) = 0 s ≥ t i = 1, . . . , d e ˙ DsF = − d X i=1 ∂if (τ1, . . . , τd)1[0,τi](s) = 0, s ≥ t.

(40)

Da cui ˙DsF = 0 per s ≥ t. Quindi dalla definizione 2.21. si ha ˙δ(v) = F Z ∞ 0 1(t,T ](s)d(Ns− λs) = Z ∞ 0 vsd(Ns− λs).

Si usa poi il fatto che ˙D è lineare per estendere tale proprietà alle combinazioni lineari di processi elementari prevedibili del tipo di v, ed infine per densità si estende a tutti i processi adattati di quadrato integrabile.

Gli operatori che stiamo per analizzare saranno poi utilizzati nelle applicazioni del capitolo successivo e meritano dunque maggiore attenzione.

Sia H lo spazio di Cameron-Martin che ricordiamo essere l’insieme delle funzioni f : R+→ R assolutamente continue, con f(0) = 0 e con derivata prima in L2(R+)

H = Z · 0 ˙ w(t)dt : ˙w ∈ L2(R+) 

su cui è definito il prodotto scalare (v, w)H =

Z ∞

0

˙v(s) ˙w(s)ds v, w ∈ H. Con questo prodotto scalare H è uno spazio di Hilbert.

Definizione 2.25. Per F ∈S definiamo l’operatore gradiente nel seguente modo

DtF :=

Z t

0

˙ DsF ds.

Più in generale, per w ∈ H si ha (DF, w)H = Z ∞ 0 ˙ w(t) ˙DtF dt = − d X k=1 Z Tk 0 ˙ w(t)dt∂kf (τ1, . . . , τd) = − d X k=1 w(τk)∂kf (τ1, . . . , τd). Ponendo U = {Pn

i=1Giui : G1, . . . , Gn∈ S, u1, . . . , un∈ H}, se u ∈ U, per linearità, si

ha DuF = n X i=1 GiDuiF.

(41)

2.2. CALCOLO DI MALLIAVIN SULLO SPAZIO DI POISSON 31 Notazione. Sia L2(Ω; H) lo spazio dei processi v = (v(t))t∈R+ della forma

v(t) = Z t 0 ˙v(s)ds t ∈ R+ tali che E||v||2H = E Z ∞ 0 | ˙v(s)|2ds  < ∞.

Proposizione 2.26. L’operatore D è chiudibile e ammette un aggiunto, anch’esso chiu-dibile, δ : L2(Ω; H) → L2(Ω), con cui soddisfa la relazione di dualità

E[(DF, u)H] = E[F δ(u)] u ∈U, F ∈ S.

Inoltre, per F ∈ Dom(D) e u ∈ Dom(δ) tali che uF ∈ Dom(δ) si ha δ(uF ) = F Z ∞ 0 ˙ u(t)d(Nt− λt) − (DF, u)H. Ed infine si ha che δ(u) = Z ∞ 0 ˙ u(t)d(Nt− λt)

per ogni processo u ∈ L2(Ω; H) adattato.

Dimostrazione. Consideriamo dapprima w ∈Cc1(R+), si ha E[(DF, w)H] = E Z ∞ 0 ˙ w(t) ˙DtF dt  = Eh( ˙DF, ˙w)L2(R +,dt) i = E  F Z ∞ 0 ˙ w(t)d(Nt− λt) 

dove quest’ultima uguaglianza deriva dalla Proposizione 2.20. Tale risultato si estende poi per densità a tutto lo spazio di Cameron-Martin H.

Definiamo poi, per G ∈S e w ∈ H δ(Gw) = G

Z ∞

0

˙

w(t)d(Nt− λt) − (DG, w)H.

Dunque, per ogni G ∈S si ha

E[G(DF, w)H] = E[(D(F G), w)H − F (DF, w)H] = E  F (G Z ∞ 0 ˙ w(t)d(Nt− λt) − (DG, w)H)  = E[F δ(Gw)].

(42)

Dunque E[(DF, u)H] = E[F δ(u)] per F ∈ S e u ∈ U.

La chiudibilità di D segue dalla formula di integrazione per parti appena dimostrata: se (Fn)n∈N ⊂ S converge a 0 in L2(Ω) e (DFn)n∈N converge ad U in L2(Ω; H), allora

|E[(U, Gw)H]| ≤ |E[Fnδ(Gw)] − E[(U, Gw)H]| + |E[Fnδ(Gw)]|

= |E[(DFn− U, Gw)H]| + |E[Fnδ(Gw)]|

≤ ||(DFn− U, w)H||L2(Ω)||G||L2(Ω)+ ||Fn||L2(Ω)||δ(Gw)||L2(Ω).

Quindi E[(U, Gw)H] = 0 per ogni G ∈S e w ∈ H cioè U = 0. La dimostrazione della

chiudibilità di δ è simile. Dunque, come prima, per semplicità, denotiamo con D e δ le rispettive minime estensioni chiuse e con Dom(D) e Dom(δ) i rispettivi domini.

Per mostrare l’ultimo punto della proposizione si procede in modo simile a quanto fatto nella Proposizione 2.24.

Infine fissiamo T > 0, e lavoriamo sull’intervallo compatto [0, T ].

Definizione 2.27. Denotiamo conST l’insieme dei funzionali di Poisson lisci della forma F = f01{NT=0}+

m

X

n=1

1{NT=n}fn(τ1, . . . , τn)

dove f0 ∈ R e per ogni 1 ≤ n ≤ m e m ≥ 1, fn∈ C1([0, T ]n) simmetrica in n variabili su

[0, T ]n. Lo spazioS

T è denso in L2(Ω).

Osservazione 2.28. Sia Sn = {(t1, . . . , tn) ⊂ [0, T ]n : 0 < t1 < · · · < tn < T } il

simplesso n-dimensionale. Presa f come nella Definizione 2.27, allora vale Z [0,T ]n f (t1, . . . , tn)dt1. . . dtn= n! Z Sn f (t1, . . . , tn)dt1. . . dtn.

Osservazione 2.29. Sotto la probabilità P, per ogni F ∈ ST si ha che il valore atteso di

F è uguale a E[F ] = E " f01{NT=0}+ m X n=1 1{NT=n}fn(τ1, . . . , τn) # = Ef01{NT=0} + m X n=1 E1{NT=n}fn(τ1, . . . , τn)  = e−λTf0+ e−λT m X n=1 λn n! Z T 0 · · · Z T 0 fn(t1, . . . , tn)dt1. . . dtn.

Per l’Osservazione 2.28 basta mostrare che E1{NT=n}fn(τ1, . . . , τn) = e

−λTλn

Z

Sn

(43)

2.2. CALCOLO DI MALLIAVIN SULLO SPAZIO DI POISSON 33 Dimostriamolo per n = 1, poi il caso con n qualsiasi si dimostra generalizzando il ragio-namento fatto. Osserviamo che {NT = 1} = {τ1 ≤ T, τ2 > T } = {X ≤ T, X + Y > T }

ponendo X = τ1 e Y = τ2− τ1. Quindi E1{NT=1}f1(τ1) = Z T 0 f1(x)λe−λx Z ∞ T −x

λe−λydydx =

Z T

0

f1(x)λe−λx[−e−λy]

∞ T −xdx = Z T 0 f1(x)λe−λxe−λ(T −x)dx = λe−λT Z T 0 f1(x)dx

ricordando che X e Y seguono entrambi una distribuzione esponenziale di parametro λ. Osservazione 2.30. Gli elementi di S possono essere scritti come

F = f01{NT=0}+

m

X

n=1

1{NT=n}fn(τ1, . . . , τn)

dove f0 ∈ R e per ogni 1 ≤ n ≤ m e m ≥ 1, fn∈ C1([0, T ]n) simmetrica in n variabili su

[0, T ]ne con la condizione di continuità

fn(τ1, . . . , τn) = fn+1(τ1, . . . , τn, T ).

Notazione. Denotiamo conC0([0, T ]) eC01([0, T ]) rispettivamente lo spazio delle funzioni

w continue e differenziabili con continuità su [0, T ] tali che w(0) = w(T ) = 0.

Definizione 2.31 (Gradiente smorzato su un intervallo compatto). Per F ∈ST definiamo l’operatore ¯ DtF = − m X n=1 1{NT=n} n X k=1 1[0,τk]∂kfn(τ1, . . . , τn)

dove come prima ∂kfn denota la derivata parziale di fn rispetto alla k-esima variabile.

Osservazione 2.32. Se F ∈S si ha che ¯ DtF = − n X k=1 1[0,τk](t)∂kfn(τ1, . . . , τn)

Riferimenti

Documenti correlati

Questo teorema permette di calcolare limiti di quozienti di funzioni nelle forme. indeterminate 0/0

• Nel problema isoperimetrico ci si chiede quale figura piana o spaziale renda massima l’area o il volume, a seconda della dimensione, a parità di perimetro o di area della

Ingegneria Aerospaziale - canale L-Z - Prova scritta

Ingegneria Aerospaziale - canale L-Z - Prova scritta

[r]

Ingegneria Aerospaziale - canale L-Z - Prova scritta

Ingegneria Aerospaziale - canale L-Z - Prova scritta

Ingegneria Aerospaziale - canale L-Z - Prova scritta