• Non ci sono risultati.

Riduzione della varianza in metodi Montecarlo: alcune applicazioni del calcolo di Malliavin.

N/A
N/A
Protected

Academic year: 2021

Condividi "Riduzione della varianza in metodi Montecarlo: alcune applicazioni del calcolo di Malliavin."

Copied!
83
0
0

Testo completo

(1)

UNIVERSITÀ DI PISA

Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Magistrale in Matematica

Tesi di Laurea

RIDUZIONE DELLA VARIANZA

IN METODI MONTECARLO:

ALCUNE APPLICAZIONI

DEL

CALCOLO DI MALLIAVIN

Relatore: Candidato:

Prof. Maurizio Pratelli Alberto Querci

(2)

A mia madre, mio padre, e mio fratello.

(3)

Introduzione

I metodi Montecarlo sono un’ampia classe di metodi numerici che usa tec-niche probabilistiche per la risoluzione di problemi di varia natura, sono largamente usati nelle applicazioni quando c’è bisogno, ad esempio, di sti-mare E[X] dove X è una variabile aleatoria integrabile: in questo caso il metodo propone di considerare X1, . . . , Xn, variabili aleatorie indipendenti con stessa legge di X, e di prendere come stimatore della speranza la variabile

Sn:= 1 n n X i=1 Xi,

questo è supportato dalla legge dei grandi numeri

Teorema 0.0.1. (Legge Forte dei grandi numeri) Supponiamo che le varia-bili X1, . . . , Xn siano indipendenti e tali che P∞n=1Var(Xn2n) < ∞ allora si

ha

Sn−E[Sn] −→ 0 quasi certamente.

Come applicazione diretta della disuguaglianza di Chebychev si ha, preso ε > 0, che P  |Sn−E[X]| > √ε n  ≤ Var(X) ε2 , quindi Sn converge in probabilità a E[X] con ordine 1/

n: la convergenza risulta abbastanza lenta. Il teorema limite centrale inoltre cattura bene alcune proprietà statistiche dell’errore del metodo Montecarlo

Teorema 0.0.2. (Teorema limite centrale di Paul Lèvy) Sia (Xn)n≥1 una successione di variabili aleatorie indipendenti identicamente distribuite dota-te di momento secondo, e siano µ =E[Xi] e σ2= Var(Xi) > 0: allora

Zn=

X1+ · · · + Xn− nµ

σ√n −→ Z, in legge

(4)

informalmente allora per n abbastanza grande si ha

Sn−E[X] ≈

r

Var(X)

n N (0, 1).

Questa stima, nonostante non fornisca una limitazione superiore all’errore di approssimazione, dice come si comporta e suggerisce un metodo per acce-lerare la convergenza: la riduzione della varianza. Infatti poichè la quantità da stimare è E[X], può essere conveniente considerare una nuova variabile

aleatoria Y con stessa media, ma con varianza sperabilmente più bassa, ed usare il metodo Montecarlo su quest’ultima; su questa idea si fondano le tec-niche di riduzione della varianza per i metodi Montecarlo: noi analizzeremo in questa tesi alcune di queste tecniche, applicazione diretta di certe idee del calcolo di Malliavin. L’elaborato è organizzato in questo modo

• Nel primo capitolo introdurremo alcune nozioni riguardanti il cal-colo di Malliavin: per prima cosa definiremo l’operatore derivata di Malliavin e l’operatore divergenza, suo aggiunto, poi ci concentrere-mo sulle formule d’integrazione per parti, formule che hanno trovato grande applicazione in alcuni procedimenti numerici, tra cui alcune applicazioni a problemi di finanza.

• Nel secondo capitolo svilupperemo una formula d’integrazione per parti utile per i nostri scopi di riduzione della varianza. Affronteremo poi il caso in cui si voglia stimare numericamente una quantità del tipo

E[T (X)] dove la variabile X sia di difficile simulazione: in questo caso

ci verranno in aiuto alcuni risultati di approssimazione per funzionali sullo spazio di Wiener. Questo ci permetterà, nel caso in cui T = δx delta di Dirac nel punto x, di implementare un metodo Montecarlo con riduzione della varianza per la stima della densità del valore finale di un processo di diffusione.

• Nel terzo capitolo, dopo aver ricordato alcune nozioni finanziarie, introdurremo una generalizzazione della greca vega nota come indice locale vega: la possibilità di esprimere alcune quantità di interesse legate a questo indice come media di specifiche variabili aleatorie ne permetterà la stima numerica tramite procedura Montecarlo e offrirà la possibilità di testare le nostre tecniche di riduzione della varianza. Nella parte finale della tesi, in appendice, vengono proposti i codici delle sperimentazioni numeriche e vengono sviluppati alcuni argomenti collaterali, utili per la comprensione e la completezza dell’elaborato.

(5)

Indice

Introduzione 2

1 Calcolo di Malliavin 5

1.1 L’operatore derivata di Malliavin . . . 5

1.2 Derivate successive . . . 11

1.3 L’operatore divergenza . . . 14

1.4 Lo spazioD∞ ed alcuni risultati avanzati . . . 18

1.5 Formule d’integrazione per parti . . . 19

2 Metodi di riduzione della varianza 22 2.1 Un caso concreto . . . 22

2.2 Approssimazione di funzionali sullo spazio di Wiener . . . 29

2.3 Equazioni differenziali stocastiche . . . 37

2.4 Caso dei processi di diffusione . . . 39

2.5 Una prima applicazione numerica . . . 42

3 Un’applicazione finanziaria 47 3.1 Alcune nozioni finanziarie . . . 47

3.2 Indice Locale Vega . . . 54

3.3 Il caso Black-Scholes . . . 57

3.4 Approccio numerico . . . 60

A Alcune proprietà della speranza condizionale 68

B Flussi di equazioni differenziali stocastiche 72

C Codici Matlab 74

(6)

Capitolo 1

Calcolo di Malliavin

In questo capitolo vogliamo introdurre i primi risultati sul calcolo di Mallia-vin. Questo strumento ci permetterà di derivare, in un senso che va specifi-cato, variabili aleatorie sullo spazio di Wiener. Il Calcolo di Malliavin è uno strumento utile in tanti problemi: studio della densità di variabili aleatorie, formule di integrazione per parti. In particolare queste ultime hanno trovato grande applicazione in alcuni procedimenti numerici, tra cui alcune applica-zioni a problemi di finanza e saranno il punto di partenza per i metodi di simulazione Montecarlo che affronteremo nei capitoli successivi.

1.1

L’operatore derivata di Malliavin

Consideriamo (Ω, F , P) uno spazio di probabilità completo e sia H uno spa-zio di Hilbert reale separabile con prodotto scalare h· , ·iH. In molti te-sti si considera uno spazio specifico detto spazio di Wiener canonico, dove Ω = C0(0, T ) è lo spazio di Banach delle funzioni continue da [0, T ] in R

con valore iniziale 0 dotato della convergenza uniforme, F è la σ-algebra di Borel e P è la misura di Wiener. Nei casi di nostro interesse inoltre si sup-porrà sempre H = L2(T, B, µ) dove µ è una misura σ-finita priva di atomi su (T, B). Per adesso cerchiamo di affrontare la teoria nel modo più generale possibile.

Definizione 1.1.1. Diciamo che {W (h), h ∈ H} è un processo isonorma-le gaussiano definito sullo spazio (Ω, F , P) se W è una famiglia gaussiana centrata di variabili aleatorie e se vale per ogni h, g ∈ H

E[W (h)W (g)] = hh , giH.

Osservazione 1.1.2. • Ricordiamo che una famiglia di variabili aleatorie (Xλ)λ∈Λ è una famiglia gaussiana se preso un qualunque I ⊆ Λ tale che |I| < ∞ il vettore (Xλ)λ∈I è gaussiano. Ricordiamo anche, per

(7)

completezza, che (Xλ)λ∈I è gaussiano se preso un qualunque vettore u ∈R|I| si ha che la variabile

X

λ∈I uλXλ

è una variabile aleatoria gaussiana. Per convenzione consideriamo gaussiane anche le variabili aleatorie costanti.

• È facile verificare che sotto le condizioni della definizione precedente la mappa h 7−→ W (h) è lineare. Infatti

E[(W (µh + g) − µW (h) − W (g))2] = kµh + gk2H+ µ 2khk2 H + kgk 2 H− − 2µ hµh + g , hiH − 2 hµh + g , giH + 2µ hh , giH = 0,

quindi nella definizione possiamo sostituire la richiesta che W sia una famiglia gaussiana centrata con la richiesta che ogni variabile aleatoria W (h), h ∈ H sia gaussiana centrata.

Esempio 1.1.3. Il caso concreto che interessa a noi è il seguente: prendia-mo (Ω, F , P) uno spazio completo su cui sia definito un prendia-moto browniano (Wt)t∈[0,T ], poniamo H = L2([0, T ];R) dotato della misura di Lebesgue e come W consideriamo per h ∈ H

W (h) = Z T

0

htdWt,

l’integrale di Wiener del processo h. Sappiamo che la variabile aleatoria W (h) cosi definita è gaussiana centrata e per isometria si ha che presa g ∈ H

E[W (h)W (g)] =

Z T

0

htgtdt = hh , giL2,

come volevasi. Se sullo spazio è definito un moto browniano 2-dimensionale (Wt, ˜Wt)t∈[0,T ] prendiamo H = L2([0, T ];R) × L2([0, T ];R) e detto ˜h = (h1, h2) consideriamo W (˜h) = Z T 0 h1tdWt+ Z T 0 h2td ˜Wt,

che è gaussiana centrata e preso ˜k ∈ H per isometria di Ito vale

E[W (˜h)W (˜k)] = 2 X i=1 Z T 0 hitkitdt =D˜h , ˜kE L2×L2.

In maniera analoga si può estendere al caso in cui sullo spazio sia definito un moto browniano d-dimensionale (Wt1, . . . , Wtd)t∈[0,T ].

(8)

Indichiamo con G la σ-algebra generata da W , ovvero la più piccola σ-algebra tale che tutte le variabili aleatorie W (h) con h ∈ H siano misurabili, vale il seguente lemma

Lemma 1.1.4. Le variabili aleatorie {eW (h) , h ∈ H} formano un insieme totale in L2(Ω, G, P).

D’ora in avanti supponiamo che sullo spazio (Ω, F , P) sia presente un pro-cesso isonormale gaussiano W e che F sia generata da W . Denotiamo con Cp∞(Rn;R) l’insieme di tutte le funzioni lisce con crescita al più

polinomia-le e tali che tutte polinomia-le derivate parziali abbiano crescita al più polinomiapolinomia-le, quindi per essere più precisi presa f ∈ Cp∞(Rn;R), esiste ν ∈ N tale che

|f (x)| ≤ C(1 + |x|ν) per una qualche C costante e cosi anche per le sue derivate parziali (non necessariamente con lo stesso ν).

Definizione 1.1.5. Una variabile aleatoria reale F : (Ω, F ) →Rviene detta

liscia se

F = f (W (h1), . . . , W (hn))

per un certo n ∈ N\ {0}, h1, . . . , hn ∈ H ed f ∈ Cp∞(Rn;R). L’insieme di queste variabili aleatorie verrà indicato con S.

La classe delle variabili lisce rivestirà un ruolo molto importante per la defini-zione della derivata di Malliavin. In questo contesto talvolta si usa chiamare gli elementi di S funzionali lisci.

Osservazione 1.1.6. Cambiando la natura della funzione f nella definizione 1.1.5 si ottengono altre classi di funzionali importanti, ad esempio se f è liscia a supporto compatto, f ∈ C0∞, si ha la classe S0, se f è liscia limitata con derivate limitate, f ∈ Cb∞, otteniamo la classe Sb, se f è un polinomio otteniamo la classe P. Notiamo che valgono le relazioni

S0 ⊂ Sb ⊂ S, P ⊂ S. Notiamo inoltre che S ⊆T

p≥1Lp(Ω), questo è un fatto di facile verifica: se F = f (W (h1), . . . , W (hn)) si sfrutta la crescita polinomiale di f ed il fatto che le variabili W (hi) essendo gaussiane ammettono tutti i momenti. Definiamo la derivata di malliavin per i funzionali lisci

Definizione 1.1.7. Sia F ∈ S, F = f (W (h1), . . . , W (hn)) per n ≥ 1, h1, . . . , hn∈ H, f ∈ Cp∞, la derivata di Malliavin di F è la variabile aleatoria a valori in H data da DF = n X i=1 ∂if (W (h1), . . . , W (hn))hi.

(9)

Il seguente lemma fornisce un risultato di importanza fondamentale Lemma 1.1.8. Sia F ∈ S, h ∈ H allora vale

E[hDF , hiH] =E[F W (h)]. (1.1.1)

Dimostrazione. Notiamo prima di tutto che nell’equazione 1.1.1 si può sup-porre senza perdita di generalità khkH = 1, infatti se h = 0 l’uguaglianza è banalmente vera. Allo stesso modo possiamo supporre che

F = f (W (e1), . . . , W (en)),

per un certo n ≥ 1 dove e1, . . . , en sono vettori ortonormali di H e e1 = h. Infatti se F = f (W (h1), . . . , W (hm)) si ha che

F = ˜f (W (h), W (h1), . . . , W (hm)),

dove ˜f (x0, x1, . . . , xm) = f (x1, . . . , xm), a questo punto basta considerare V = Span(h, h1, . . . , hm) e costruire, partendo da h, una base ortonormale per V , e1, . . . , en ( che avrà dimensione n ≤ m). Ciascun hi si scriverà come hi =Pnj=1aijej e si sfrutta la linearità di h 7−→ W (h). Calcoliamo il prodotto scalare tra DF e h, per ortonormalità si ha

hDF , hiH = n X

i=1

∂if (W (e1), . . . , W (en)) hei, hiH = ∂1f (W (e1), . . . , W (en)),

ora il vettore (W (e1), . . . , W (en)) è un vettore gaussiano le cui componenti sono a due a due indipendenti in quanto scorrelate per costruzione e di legge normale standard, quindi il vettore ammette densità

ϕn(x) = (2π)− n 2 exp  − Pn i=1x2i 2 

dove x= (x1, . . . , xn). Con un facile calcolo si ottiene

E[hDF , hiH] = Z Rn ∂1f (x1, . . . , xn)ϕn(x)dx = = Z Rn x1f (x)ϕn(x)dx =E[W (h)F ], ricordando che h = e1.

Corollario 1.1.9. Siano F, G ∈ S, h ∈ H allora

(10)

Dimostrazione. L’unica cosa non banale da dimostrare è che vale D(F G) = F DG + DF G,

ma questa è una conseguenza della regola di derivazione di un prodotto di funzioni su Rn. Si può assumere senza perdità di generalità

F = f (W (h1), . . . , W (hn)), G = g(W (h1), . . . , W (hn)), per n ≥ 1, f, g ∈ Cp∞, notiamo allora che

F G = (f g)(W (h1), . . . , W (hn)), è un elemento di S e quindi D(F G) = n X i=1 ∂i(f g)(W (h1), . . . , W (hn))hi.

A questo punto svolgendo i calcoli si ottiene la regola per la derivata di Mal-liavin del prodotto di due funzionali lisci ed applicando il lemma precedente a F G si ottiene la tesi.

Osservazione 1.1.10. Ampliando l’osservazione 1.1.6 sulle proprietà di S è utile notare che le classi P, S0 sono dense in L2(Ω). Ad esempio, sia X ∈ L2(Ω) tale che X è ortogonale a P, allora in particolare

E[X p(W (h))] = 0

per ogni polinomio p e per ogni h ∈ H, da cui poichè eW (h)=P∞

i=0W (h)i/(i!) al limite si ha

E[XeW (h)] = 0

per ogni h ∈ H. Per il lemma 1.1.4 si ha allora X = 0, P-q.c. da cui la densità di P in L2(Ω).

Vogliamo estendere la derivata di malliavin ad una classe più ampia di variabili aleatorie. Prima di fare ciò ricordiamo che un operatore lineare A : Dom(A) ⊂ X → Y fra spazi di Banach è detto chiuso se il suo grafico è chiuso, ovvero se vale la proprietà

se xn∈ Dom(A), xn→ x, yn= Axn→ y, allora x ∈ Dom(A) e Ax = y; un operatore è detto chiudibile se ammette un prolungamento chiuso, ed è facile verificare che un operatore è chiudibile se vale la seguente proprietà

se xn∈ Dom(A), xn→ 0, yn= Axn→ y, allora y = 0.

Quando A è chiudibile chiameremo chiusura di A la minima estensione chiu-sa, ovvero quella il cui grafico coincide con la chiusura del grafico di A. I funzionali lisci, come abbiamo visto, hanno buone proprietà e grazie al corollario 1.1.9 possiamo dimostrare la seguente proposizione

(11)

Proposizione 1.1.11. L’operatore D : S 3 F 7−→ DF , che associa ad un funzionale liscio la sua derivata, è chiudibile da Lp(Ω) in Lp(Ω; H) per p ≥ 1. Ricordiamo dall’osservazione 1.1.6 che S ⊆ ∩p≥1Lp(Ω). Ricordiamo anche che Lp(Ω; H), p ≥ 1 è uno spazio di Banach con la norma kXk =E[kXkpH]1/p. Dimostrazione. Sia p ≥ 1 e sia (FN)N ≥1 una successione di funzionali lisci tali che FN → 0 in Lp(Ω) e DFN → η in Lp(Ω; H), prendiamo h ∈ H ed F ∈ Sb tale che la variabile F W (h) sia limitata, ad esempio possiamo prendere F = Ge−εW (h)2 con G ∈ Sb e ε > 0. Si ha

E[hη , hiHF ] = limN →∞E[hDFN, hiHF ] = = lim

N →∞E[−FNhDF , hiH+ FNF W (h)] = 0

dove nell’ultimo passaggio si è sfruttato la convergenza a zero in Lp di (FN)N ≥1 e la limitatezza di F W (h) e hDF , hiH. Esplicitando F abbiamo ottenuto che

E

h

hη , hiHGe−εW (h)2i= 0

per ogni G ∈ Sb da cui grazie all’osservazione 1.1.10 per densità di Sb in L2 si ha che hη , hiH = 0 quasi certamente. Questo ci dice che η = 0, P-q.c. come volevasi.

D’ora in poi considereremo la chiusura dell’operatore D che denoteremo ancora con D

D : Dom (D) ⊆ Lp(Ω) → Lp(Ω; H)

dove Dom (D) = Sk·k1,p, è la chiusura di S rispetto alla norma k·k1,p data da kF k1,p= E[|F |p] +E[kDF kpH]

1 p.

Per p ≥ 1 indicheremo con D1,p il dominio della derivata di Malliavin in Lp(Ω), che è uno spazio di Banach con la norma k·k1,p. Notiamo che nel caso p = 2,D1,2 è uno spazio di Hilbert con prodotto scalare dato da

hF , Gi1,2=E[F G] +E[hDF , DGiH].

Ora che abbiamo la nostra derivata ci sono molte proprietà che potremo dimostrare, ma ci riserviamo di analizzare alcune di queste più avanti in un caso concreto di nostro interesse. Conviene, però, enunciare in generale questo risultato che è la regola della catena per la derivata di Malliavin. Si ha

(12)

Lemma 1.1.12. Sia ϕ :Rm → R differenziabile con derivate limitate e sia p ≥ 1. Sia F = (F1, . . . , Fm) un vettore aleatorio tale che Fi ∈ D1,p, ∀i

allora vale ϕ(F ) ∈D1,p e D(ϕ(F )) = m X i=1 ∂iϕ(F )DFi.

La dimostrazione è una semplice verifica nel caso in cui Fi∈ S e ϕ ∈ C∞, il caso generale si ottiene per passaggio al limite e si riduce ad un esercizio di analisi.

1.2

Derivate successive

In questa sezione vogliamo definire le derivate di Malliavin successive. La costruzione può essere fatta in maniera analoga al caso della derivata prima, possiamo definire un operatore Dk, k > 1 sui funzionali lisci e poi provare ad estendere su spazi più ampi di variabili aleatorie. Chiaramente vorremo anche che l’operatore Dk sia tale che Dk = DjDl = DlDj per ogni j, l ≥ 1 tali che j + l = k, bisogna allora dare qualche dettaglio in più. Facciamo un esempio nel caso k = 2, la derivata seconda

Esempio 1.2.1. Sia F ∈ S vogliamo definire D2F . Sappiamo che F = f (W (h1), . . . , W (hn))

per h1, . . . , hn∈ H, f ∈ Cp∞, allora vorremo

D2(f (W (h1), . . . , W (hn))) = D(Df (W (h1), . . . , W (hn))) = D n X i=1 ∂if hi ! .

Per linearità la derivata passa dentro la somma e quindi rimane da calcolare D(∂if hi) e poichè hi è deterministico si avrà D(∂if hi) = D(∂if )hi. C’è però un problema, la derivata di Malliavin è una variabile aleatoria a valori in H e quindi bisogna chiarire bene cosa si intende nell’ultima uguaglianza. Il modo giusto per definire D2 è allora

D2F = n X i=1 n X j=1 ∂j∂if hj⊗ hi,

e la derivata seconda è in maniera naturale una variabile a valori nel prodotto tensore di spazi di Hilbert H ⊗ H.

Nel caso k > 1 qualsiasi, se F ∈ S, DkF è una variabile aleatoria a valori nello spazio H⊗k e la definizione sui funzionali lisci ricalca il caso k = 2

(13)

con notazioni più pesanti. Per p ≥ 1, k ≥ 1 introduciamo su S le seguenti seminorme ( norme se vediamo S come sottospazio di Lp)

kF kk,p=  E[|F |p] + k X j=1 E h DjF p H⊗j i   1/p ,

valgono le seguenti proprietà

1. Monotonia: kF kk,p ≤ c kF kj,q per ogni F ∈ S , p ≤ q, k ≤ j, per una qualche costante c.

Dimostrazione. Se p = q non c’è niente da dimostrare. Se p < q utilizzando la disuguaglianza di Holder

E[|F |p] + k X i=1 E h DiF p H⊗i i !1p ≤ E[|F |q]p/q+ k X i=1 E h DiF q H⊗i ip/q !1p ≤ E[|F |q]1/q+ j X i=1 E h DiF q H⊗i i1/q ! ≤ c kF kj,q

da cui la proprietà di monotonia.

2. Chiudibilità: L’operatore Dk è chiudibile da S in Lp(Ω; H⊗k) per ogni p ≥ 1,

Dimostrazione. La dimostrazione è analoga al caso k = 1, l’unica dif-ficoltà, per lo più notazionale, risiede nel ricavarsi formule tipo 1.1.1 per Dk.

3. Compatibilità: Siano p, q ≥ 1 e k, j ∈N\ {0}. Sia (Fn)n≥1 ⊂ S tale che kFnkk,p → 0 per n → ∞ ed kFn− Fmkj,q → 0 per n, m → ∞ allora

kFnkj,q → 0, per n → ∞.

Dimostrazione. L’ipotesi kFn− Fmkj,q → 0 al tendere di n, m all’infi-nito ci dice che la successione (DiFn)n≥1 è di Cauchy in Lq(Ω; H⊗i) per ogni i ≤ j e quindi esiste ηi tale che DiFn→ ηi. Allo stesso modo anche (Fn)n≥1 è di Cauchy in Lq(Ω) e sia η0 il suo limite. Sappiamo che (Fn)n≥1 converge a 0 in Lp per ipotesi e, a meno di sottosucces-sioni, ci converge quasi certamente e quindi η0 = 0. A questo punto si conclude utilizzando la proprietà di chiudibilità degli operatori Di in Lq.

(14)

Indicheremo con Dk,p = Sk·kk,p per p ≥ 1, k ≥ 0 dove per convenzione

D0,p = Lp(Ω) e k·k0,p = k·kp. Notiamo che la proprietà di monotonia ci garantisce Dk+1,q ⊆ Dk,p per ogni p ≤ q,k ≥ 0. È utile definire anche

l’operatore Dh cosi fatto: sia h ∈ H fissato, per F ∈ S si pone DhF = hDF , hiH.

Grazie al corollario 1.1.9 l’operatore Dhè chiudibile da Lp(Ω) in Lp(Ω), p ≥ 1 ed, emulando quanto fatto per l’operatore D, consideriamo la sua chiusura

Dh: Dom(Dh) ⊂ Lp(Ω) → Lp(Ω). Denoteremo con Dh,p il suo dominio in Lp.

Osservazione 1.2.2. È facile verificare che D1,p ⊆ Dh,p, ovvero se F ∈

D1,p

allora F ∈Dh,p e vale DhF = hDF , hiH. Infatti se F ∈D1,p, per definizione esiste (Fn)n≥1 ⊂ S tale Fn → F in Lp ed DFn → DF in Lp(Ω; H), allora è facile mostrare che (DhFn)n≥1 è di Cauchy in Lp e quindi per chiusura di Dh si ottiene che F ∈ Dh,p e vale la formula cercata. Possiamo dire allora che se F ∈Dh,p ammette derivata lungo la direzione h.

Prima di continuare è bene notare che tutta la teoria vista finora può essere estesa al caso di variabili aleatorie a valori in uno spazio di Hilbert. Diamo giusto qualche idea: sia V uno spazio di hilbert reale separabile possiamo considerare la famiglia SV dei funzionali cosi fatti

F = n X j=1 Fjvj, Fj ∈ S, vj ∈ V. Definiamo DkF =Pn

j=1DkFj ⊗ vj per k ≥ 1. Introduciamo le seminorme su SV kF kk,p,V = E[kF kpV] + k X i=1 E h DiF p H⊗i⊗V i !1/p ,

anche per queste e per l’operatore Dk valgono le proprietà di monotonia, chiudibilità e compatibilità. Denoteremo con Dk,p(V ) il completamento di SV rispetto alla norma k·kk,p,V per p ≥ 1, k ≥ 1. Fissato h ∈ H l’operatore derivata direzionale Dh si definisce su SV come

DhF = Dh   n X j=1 Fjvj  = n X j=1 DhFjvj,

e si può verificare che è chiudibile da Lp(Ω; V ) in Lp(Ω; V ) per p ≥ 1. Se F ∈ SV, h ∈ H, v ∈ V si ha inoltre la relazione hDF , h ⊗ viH⊗V = D DhF , v E V che può essere estesa al caso in cui F ∈D1,p(V ).

(15)

1.3

L’operatore divergenza

Fra le varie proprietà che abbiamo mostrato nelle sezioni precedenti abbiamo visto che la classe dei funzionali S è densa in L2(Ω), quindi la derivata di Malliavin ha dominio denso in L2 e questo ci permette di considerare l’operatore aggiunto.

Definizione 1.3.1. Denotiamo con δ l’operatore aggiunto di D, ovvero δ è quell’operatore non limitato su L2(Ω; H) a valori il L2(Ω) per cui

1. Il dominio di δ, che indichiamo Dom (δ), è l’insieme delle variabili aleatorie a valori in H, u ∈ L2(Ω; H) tali che

|E[hDF , uiH]| ≤ c kF k2,

per ogni F ∈D1,2, dove c è una costante dipendente da u.

2. Se u ∈ Dom(δ) allora δ(u) è quell’elemento di L2(Ω) caratterizzato da

E[hDF , uiH] =E[δ(u)F ], per ogni F ∈D1,2.

L’operatore δ è detto operatore divergenza ed è un operatore lineare chiuso, in quanto aggiunto di un operatore non limitato con dominio denso. Iniziamo a vedere qualche proprietà di questo operatore, ad esempio interessiamoci di capire come è fatto il suo dominio. Ricordiamo la classe di variabili a valori in H, SH dove u = n X j=1 Fjhj, Fj ∈ S, hj ∈ H. Lemma 1.3.2. SH ⊆ Dom(δ). Dimostrazione. Sia u ∈ SH, u = Pn

j=1Fjhj e sia F ∈ S allora, usando il corollario 1.1.9 E[hDF , uiH] = n X j=1 E[FjhDF , hjiH] = n X j=1 E[FjF W (hj)−F hDFj, hjiH] e se definiamo G :=Pn j=1FjW (hj) − hDFj, hjiH si ha E[hDF , uiH] ≤ kGk2kF k2.

Da questo si deduce che u ∈ Dom(δ), per densità di S in L2(Ω), ed inoltre δ(u) = G =

n X

j=1

(16)

In realtà vogliamo arrivare a dimostrare che tutto lo spazio D1,2(H) è con-tenuto nel dominio della divergenza. Prima di fare ciò premettiamo un’os-servazione

Osservazione 1.3.3. Sia u ∈ SH con la solita rappresentazione e consideria-mo, usando le notazioni della sezione precedente, l’operatore Dh definito su L2(Ω), fissato h ∈ H. Facciamo il seguente calcolo

Dh(δ(u)) = Dh   n X j=1 FjW (hj) − hDFj, hjiH  = = n X j=1 hD(FjW (hj)) , hiH −D(hDFj, hjiH) , h H = = n X j=1 W (hj) hDFj, hiH + n X j=1 Fjhhj, hiH − n X j=1 D(hDFj, hiH) , hj H = = n X j=1 Fjhhj, hiH + n X j=1  DhFjW (hj) − D D(DhFj) , hj E H 

dove abbiamo usato la regola di derivazione di un prodotto di funzionali lisci e la relazione D(hDFj, hjiH) , h H =D(hDFj, hiH) , hj H,

che è facilmente verificabile sapendo che Fj ∈ S. A questo punto osservando l’ultima espressione a cui siamo giunti e ricordando la formula 1.3.1 si ha la relazione Dh(δ(u)) = hu , hiH + δ(Dhu) (1.3.2) dove Dhu = n X j=1 DhFjhj è un elemento di L2(Ω; H).

Ricordiamo che, preso h ∈ H ⊗ H, della forma h = h1⊗ h2, si può consi-derare la mappa ϕ : h 7−→ ˜h con ˜h = h2⊗ h1. Questa mappa può essere estesa linearmente sull’insieme Span{h1⊗ h2, h1, h2 ∈ H} ed è chiaramente un’isometria, quindi si estende per densità a H ⊗ H.

Proposizione 1.3.4. D1,2(H) ⊆ Dom(δ), inoltre se u, v ∈D1,2(H) si ha

E[δ(u)δ(v)] =E[hu , viH] +E  D Du , ˜Dv E H⊗H  .

(17)

Dimostrazione. Prendiamo u, v ∈ SH e sia (ei)i≥1 un sistema ortonormale completo per H si ha E[δ(u)δ(v)] =E[hv , D(δ(u))iH] =E " X i=1 hv , eiiHDei(δ(u)) # .

Usando la formula 1.3.2 possiamo sviluppare l’ultimo termine come

E " X i=1 hv , eiiH(hu , eiiH + δ(Deiu)) # =E[hu , viH]+E " X i=1 hv , eiiHδ(Deiu) # ,

osserviamo che, per dualità

E[hv , eiiHδ(Deiu)] =E[hD(hv , eiiH) , DeiuiH] ed il prodotto scalare nel segno di speranza lo possiamo scrivere

hD(hv , eiiH) , DeiuiH = ∞ X j=1 hD(hv , eiiH) , ejiHhDeiu , ejiH = = ∞ X j=1 Dejhv , e iiHDeihu , ejiH = ∞ X j=1 hDv , ej⊗ eiiH⊗HhDu , ei⊗ ejiH⊗H.

Nell’ultima catena di uguaglianze, a parte le proprietà delle basi hilbertiane, abbiamo usato tutte relazioni che coinvolgono i funzionali u, v e i vari ope-ratori di derivazione che possono essere facilmente verificate fissando delle rappresentazioni per u, v. Mettendo tutto assieme si ha

E[δ(u)δ(v)] =E[hu , viH] +E  D Du , ˜DvE H⊗H  , (1.3.3)

usando il fatto che (ei⊗ ej)i,j è un sistema ortonormale completo per H ⊗ H. Notiamo che se v = u si ottiene la stima

E[δ(u)2] ≤E[kuk2H] +E[kDuk 2

H⊗H] = kuk 2 1,2,H.

Sia u ∈ D1,2(H), per definizione esiste (un)n≥1 ∈ SH tale che un → u in L2(Ω; H) e Dun → Du in L2(Ω; H ⊗ H) allora grazie alla stima precedente (δ(un))n≥1 è una successione di Cauchy in L2(Ω) e quindi, per la chiusura di δ, u ∈ Dom(δ) e δ(un) → δ(u). Questo mi dice che D1,2(H) ⊆ Dom(δ) e

la formula 1.3.3 si può estendere per densità.

Notiamo che la formula 1.3.2 vale anche più in generale nel caso in cui u ∈

D1,2(H) e Dhu ∈ Dom(δ). Prima di vedere questo risultato premettiamo un

(18)

Lemma 1.3.5. Sia G ∈ L2(Ω). Supponiamo che esista Y ∈ L2(Ω) tale per cui

E[Gδ(hF )] =E[Y F ],

per ogni F ∈D1,2. Allora G ∈Dh,2 e DhG = Y .

Proposizione 1.3.6. Sia u ∈D1,2(H) e Dhu ∈ Dom(δ). Si ha δ(u) ∈Dh,2

e vale la formula 1.3.2

Dimostrazione. Sia F ∈D1,2 usando la dualità e la formula 1.3.3 si ha

E[δ(u)δ(hF )] =E[hu , hiHF ] +E hD Dhu , DF E H i = =E[(hu , hiH+ δ(D hu))F ]

da cui la tesi ricordando il lemma precedente.

Un’altra proposizione che ci sarà molto utile è la seguente, che ci permette di portare fuori dalla divergenza una variabile aleatoria "scalare".

Proposizione 1.3.7. Sia F ∈ D1,2 e sia u ∈ Dom(δ) tale che F u ∈

L2(Ω; H): allora F u ∈ Dom(δ) e vale

δ(F u) = F δ(u) − hDF , uiH,

ammesso che il termine a destra dell’uguaglianza sia di quadrato integrabile.

Dimostrazione. Supponiamo, per ora, F ∈ S. Per densità di S in D1,2 ci basta testare la formula per G ∈ S

E[hDG , F uiH] =E[hu , D(F G) − GDF iH] =E[(δ(u)F − hu , DF iH)G]. Se F ∈D1,2, per definizione, esiste (Fn)n≥1⊂ S che lo approssima e possiamo passare al limite nella formula, da cui la tesi.

Nel caso in cui u sia deterministico otteniamo

Corollario 1.3.8. Sia h ∈ H, F ∈Dh,2 allora F h ∈ Dom(δ) e vale δ(F h) = F W (h) − DhF.

Dimostrazione. Supponiamo F ∈ S allora è chiaro che valga l’enunciato ed inoltre si ha

E[δ(F h)2] =E[F2khk2H] +E[(D hF )2],

grazie alla formula 1.3.3. Se F ∈ Dh,2 esiste una successione (Fn)n≥1 ⊂ S tale che Fn → F in L2 e DhF

n → DhF in L2, a questo punto usando l’uguaglianza precedentemente dimostrata si ha che (δ(Fnh))n≥1è di Cauchy in L2e per la chiusura dell’operatore δ si ha F h ∈ Dom(δ) e δ(Fnh) → δ(F h) come volevasi.

(19)

1.4

Lo spazio

D

ed alcuni risultati avanzati

In questa sezione vogliamo introdurre lo spazio D∞ e vogliamo discutere alcuni risultati avanzati a cui spesso faremo riferimento. Sia V uno spazio di Hilbert reale separabile denotiamo

D∞(V ) = \ p≥1 \ k≥1 Dk,p(V ),

lo spazio dei funzionali F , a valori in V , che ammettono derivata k-esima di Malliavin p-integrabile per ogni k ≥ 1, p ≥ 1. Quando V = R scriveremo semplicemente D∞. Questo spazio ha delle proprietà molto interessanti:

chiaramente è uno spazio vettoriale ed è anche metrico completo con metrica dV data da dV(F, G) = X k,p≥1 1 2kp kF − Gkk,p,V 1 + kF − Gkk,p,V.

Per come abbiamo definito la derivata di Malliavin è facile verificare che

D : Dk,p → Dk−1,p(H) è un operatore lineare continuo, di conseguenza per

definizione D è lineare continuo traD∞e D∞(H). È una semplice verifica il fatto che se F, G ∈D∞ allora hDF , DGiHD∞. Vale inoltre

Proposizione 1.4.1. Sia F = (F1, . . . , Fm) un vettore aleatorio con com-ponenti inD∞ e sia ϕ ∈ Cp∞(Rm). Allora ϕ(F ) ∈D∞ e vale

D(ϕ(F )) = m X

i=1

∂iϕ(F )DFi.

Questo ci dice fra le altre cose, prendendo ϕ(x, y) = xy, cheD∞è un’algebra, cosa non vera in generale per gli spazi Dk,p. Facciamo alcune osservazioni riguardo l’operatore divergenza. In precedenza abbiamo usato il fatto che la classe S fosse densa in L2(Ω) svariate volte, in realtà vale di più

Lemma 1.4.2. S è denso in Lp(Ω), per ogni p > 1.

Fra le tante conseguenze di questo lemma c’è sicuramente la possibilità di definire l’operatore divergenza partendo da Lp(Ω; H) per p > 1 qualsiasi. Infatti

Osservazione 1.4.3. Per definire l’operatore D con dominio in Lp partiamo sempre dai funzionali lisci

D : S ⊂ Lp(Ω) → Lp(Ω; H),

e per densità di S in Lp(Ω) è ben definito l’operatore aggiunto, che conti-nuiamo a chiamare divergenza

(20)

dove abbiamo sfruttato che (Lp(Ω; H))∗ ∼= Lq(Ω; H), p > 1 e q è tale che 1/p + 1/q = 1. Preso u ∈ Lq(Ω; H), δ(u) è quell’elemento di Lq(Ω) caratterizzato da

E[δ(u)F ] =E[hDF , uiH]

per ogni F ∈D1,p, sfruttando il classico accoppiamento in dualità fra spazi Lp, p > 1.

Questa osservazione ci permette di enunciare il seguente risultato di conti-nuità molto importante

Teorema 1.4.4. L’operatore δ è limitato da Dk,p(H) in Dk−1,p per ogni

k ≥ 1 e p > 1. In particolare, esiste c > 0 tale che per ogni u ∈Dk,p(H)

kδ(u)kk−1,p≤ c kukk,p,H. Inoltre δ è un operatore continuo daD∞(H) a D∞.

Osserviamo che se p ≥ 2, per monotonia,Dk,p(H) ⊂D1,2(H) e questo spazio,

come dimostrato, è contenuto nel dominio della divergenza. Questo teorema è una conseguenza delle famose disuguaglianze di Meyer che coinvolgono gli operatori Dne Cn, dove C = −√δD. La trattazione di queste disuguaglianze va al di là dei nostri scopi ma questa loro applicazione sarà molto utile nei capitoli successivi. Un altro risultato di sicura utilità è dato dalla seguente proposizione che fornisce disuguaglianze tipo Holder per gli spaziDk,p. Proposizione 1.4.5. Siano F, G due variabili aleatorie tali che F ∈ Dk,p, G ∈Dk,q con p, q ∈ (1, +∞) tali che 1p +1q = 1r. Allora F G ∈Dk,r e vale

kF Gkk,r ≤ cp,q,kkF kk,pkGkk,q.

Il teorema 1.4.4 e le disuguaglianze di Holder sono valide con qualche modi-fica anche nel caso di variabili aleatorie a valori in uno spazio di Hilbert se-parabile V , questi enunciati nella loro piena generalità possono essere trovati sul testo [6].

1.5

Formule d’integrazione per parti

Introduciamo uno dei risultati del calcolo di Malliavin che più utilizzeremo nei capitoli successivi: le formule di integrazione per parti. Queste sono una conseguenza quasi diretta della dualità fra l’operatore D e l’operatore δ. Un primo risultato è il seguente

Teorema 1.5.1. Siano F, G due variabili aleatorie tali che F ∈ D1,2. Sia

(21)

quasi certamente e supponiamo che Gu(DuF )−1∈ Dom(δ). Si ha che, presa f ∈ C1(R) con derivate limitate vale

E[f

0

(F ) G] =E[f (F ) Hu(F, G)],

dove Hu(F, G) = δ(Gu(DuF )−1).

Dimostrazione. Sia f ∈ C1 con derivate limitate e F ∈ D1,2, per la regola della catena vale

D(f (F )) = f0(F )DF, che moltiplicato per u ci da

hD(f (F )) , uiH = f0(F )DuF. Sfruttando le ipotesi e la dualità otteniamo

E[f 0 (F ) G] =E[hD(f (F )) , uiH(D uF )−1G] = E[f (F ) δ(Gu(DuF )−1)], come volevasi.

Osservazione 1.5.2. • Se u è deterministica allora affinchè Gu(DuF )−1 Dom(δ) è sufficiente che G(DuF )−1 ∈D1,2,

• Se u = DF allora Hu(F, G) = δ GDF kDF k2H



ed in questo caso scriveremo semplicemente H(F, G).

La variabile aleatoria Hu(F, G) viene anche detta peso della formula d’inte-grazione. Notiamo che si può adattare il risultato precedente al caso in cui f (y) = 1{y>x} con x ∈ R. Questo ci fornisce una rappresentazione per la

densità della variabile aleatoria F

Teorema 1.5.3. Sia F ∈ D1,2. Sia u una variabile aleatoria a valori in H tale che DuF 6= 0 quasi certamente e supponiamo u(DuF )−1 ∈ Dom(δ). Allora la legge di F ammette una densità continua e limitata data da

p(x) =E  1{F >x}δ  u hu , DF iH  . (1.5.1)

Dimostrazione. Sia ψ(x) ∈ C0∞ e definiamo ϕ(y) = Ry

−∞ψ(z) dz, sappiamo che ϕ(F ) ∈D1,2 e vale

D(ϕ(F )) = ψ(F )DF. Dall’ipotesi hu , DF iu

H

∈ Dom(δ) e con passaggi analoghi a quelli del teorema precedente si ottiene E[ψ(F )] =E  ϕ(F )δ  u hu , DF iH  .

(22)

Si può estendere la formula precedente, tramite un argomento di approssi-mazione, alla funzione ψ(x) = 1[a,b](x), a questo punto, applicando Fubini-Tonelli si ha P{a ≤ F ≤ b} = Z b a E  1{F >z}δ  u hu , DF iH  dz da cui la tesi.

Osserviamo che usando le notazioni dell’osservazione precedente possiamo anche scrivere

p(x) =E[1{F >x}Hu(F, 1)]. In maniera del tutto formale possiamo scrivere

p(x) = Z R δx(y)p(y) dy ≈ Z Ω δx(F ) dPF ≈E[δx(F )], dove δx è la delta di dirac valutata in x, o in maniera equivalente

p(x) =E[δ0(F − x)],

quindi la formula ottenuta nel teorema precedente si può esprimere come

E[δx(F )] =E[1{F >x}H(F, 1)].

In realtà questa scrittura non è solo formale e c’è un’ampia letteratura che prova a darle senso ma questo va al di là dei nostri scopi; come vedremo più avanti la generalizzazione del teorema 1.5.1 si può spingere oltre arrivando a dare senso anche ad espressioni del tipo

E[δx(F ) G].

A conclusione vogliamo specificare che molti fra gli enunciati discussi in questo capitolo possono essere reperiti, tranne dove diversamente specificato, sul testo [12].

(23)

Capitolo 2

Metodi di riduzione della

varianza

In questo capitolo getteremo le basi per lo studio teorico di alcuni metodi Montecarlo con riduzione della varianza. Nella prima sezione riformuleremo alcuni teoremi del capitolo uno in un caso concreto e tratteremo una formula d’integrazione per parti di sicuro interesse applicativo. Successivamente svi-lupperemo una stima dell’errore nel caso in cui la variabile F , di cui vogliamo calcolare numericamente quantità del tipoE[f (F )], sia di difficile simulazio-ne e venga approssimata da alcusimulazio-ne variabili aleatorie Fn. Mostremo infine come approssimazioni di questo tipo siano applicabili e molto utili nel caso dei processi (Xt)t∈[0,T ], soluzione di alcune particolari equazioni differenziali stocastiche.

2.1

Un caso concreto

Riformuliamo brevemente alcuni risultati del capitolo due in un caso concreto di nostro interesse ovvero il caso in cui (Ω, F , P) sia uno spazio completo su cui è definito un moto browniano (Wt, FtW)t∈[0,T ] con F = FTW, lo spazio di Hilbert sia H = L2([0, T ];R) dotato della misura di Lebesgue e il processo

{W (h) : h ∈ H} sia dato dall’integrale di Wiener

W (h) = Z T

0

htdWt.

Osservazione 2.1.1. In quanto segue sfrutteremo l’isometria L2([0, T ])⊗k ∼= L2([0, T ]k) e talvolta anche L2(Ω; L2(0, T )k) ∼= L2(Ω × [0, T ]k; P ⊗ λk) dove λk è la misura di Lebesgue su [0, T ]k.

(24)

Se F ∈ D1,p allora DF ∈ Lp(Ω; L2(0, T )) e scriveremo DF = (DtF )t∈[0,T ]; la norma suD1,p è data da kF k1,p = E[|F |p] +E " Z T 0 |DtF |2dt p#!1/p . Se F ∈ Dk,p analogamente si ha DkF = (Dkt1,...,tkF ) = (Dt1. . . DtkF ) e la norma suDk,p diventa kF kk,p =  E[|F |p] + k X j=1 E " Z T 0 . . . Z T 0 |Dtj 1,...,tjF | 2dt 1. . . dtj p#   1/p .

Grazie alle isometrie ricordate sopra, nel caso in cui p = 2, DkF può essere visto come un processo stocastico in L2(Ω × [0, T ]k), in particolare definito P⊗λkquasi certamente. Vediamo per prima cosa un criterio di appartenenza aD1,2

Lemma 2.1.2. Sia (Fn)n≥1 una successione di elementi in D1,2 e sia F ∈

L2(Ω) tale che Fn→ F in L2(Ω). Se la successione (DFn)n≥1 è limitata in L2(Ω × [0, T ]) allora F ∈D1,2.

Dimostrazione. PoichèD1,2è uno spazio di Hilbert sappiamo che ogni succes-sione limitata è debolmente relativamente compatta quindi esiste una sotto-successione (Fnk)k≥1 ed un elemento G ∈D1,2 tale che Fnk → G debolmente

inD1,2. Ora, dato che per ipotesi, Fn → F in L2(Ω) allora si ha F = G e F ∈D1,2.

Una conseguenza diretta di questo lemma è l’estensione della regola della catena alle funzioni lipschitziane

Proposizione 2.1.3. Sia F ∈ D1,2, ϕ lipschitziana di costante K: allora ϕ(F ) ∈D1,2 ed esiste G variabile aleatoria, |G| ≤ K, tale che

Dt(ϕ(F )) = GDtF.

Dimostrazione. Notiamo che se ϕ ∈ Cb∞(R) la tesi è banalmente vera. Sia

allora ϕ lipschitziana di costante K, possiamo regolarizzare ϕ tramite con-voluzione ottenendo una successione (ϕn)n≥1 ⊂ C0∞(R) che converge unifor-memente a ϕ e tale per cui |ϕ0n| ≤ K. Per ogni n si ha che

Dt(ϕn(F )) = ϕ

0

n(F )DtF.

Si ha chiaramente che ϕn(F ) → ϕ(F ) in L2(Ω) ed inoltre poichè |ϕ

0

n| ≤ K la successione (Dϕn(F ))n≥1è limitata in L2(Ω × [0, T ]), da cui grazie al lemma

(25)

precedente ϕ(F ) ∈D1,2 e D(ϕn(F )) converge a debolmente in L2(Ω × [0, T ]). Consideriamo la successione (ϕ0n(F ))n≥1, per limitatezza posso trovare una sottosuccessione ϕ0n

k(F ) che converge ad un certo G ∈ L

(Ω) rispetto alla topologia σ(L∞, L1), quindi |G| ≤ K. È immediato allora verificare che ϕ0nk(F )DF converge debolmente a GDF in L2(Ω×[0, T ]) e quindi Dtϕ(F ) = GDtF come volevasi.

Una proprietà molto importante della derivata di Malliavin, che emerge in questo contesto, è la seguente

Teorema 2.1.4. Sia F ∈ D1,2 ed indichiamo con Ft = FtW. Si ha che

E[F | Ft] ∈D1,2 e vale

DsE[F | Ft] =E[DsF | Ft]1[0,t](s), P ⊗ λ quasi certamente.

Questo teorema ci dice come la derivata si comporta rispetto alla speranza condizionale, in particolare se F è una variabile aleatoria Ft-misurabile l’e-nunciato ci dice che DsF è Ft-misurabile e DsF = 0 se s > t. Il teorema che segue permette di derivare secondo Malliavin sotto il segno di integrale, prima però c’è bisogno di un’ulteriore caratterizzazione della derivata Proposizione 2.1.5. F ∈ D1,2 e DF = Z se e soltanto se F ∈ L2(Ω) ed esiste Z ∈ L2(Ω × [0, T ]) tali che, presi comunque G ∈ S ed h ∈ L2(0, T ) valga la formula E Z T 0 Zshsds  G  =E[−F DhG + F GW (h)].

Teorema 2.1.6. Sia (Xt)t∈[0,T ] un processo stocastico e supponiamo che, per ogni t, Xt ∈ D1,2, e che esista una versione misurabile di DsXt su Ω × [0, T ] × [0, T ] con E Z T 0 |Xt|2dt + Z T 0 Z T 0 |DsXt|2dsdt  < ∞, allora (R0TXtdt) ∈D1,2 e vale Ds Z T 0 Xtdt  = Z T 0 DsXtdt.

Dimostrazione. La dimostrazione è una semplice conseguenza della caratte-rizzazione precedente, sia G ∈ S e h ∈ L2(0, T ), fissato t si ha

E Z T 0 DsXthsds  G  =E[−XtDhG + XtGW (h)]

(26)

e, integrando rispetto a t, per Fubini-Tonelli si ottiene E  G Z T 0 Z T 0 DsXtdt  hsds  =E  − Z T 0 Xtdt  DhG + Z T 0 Xtdt  GW (h) 

e questo è il risultato cercato.

Passiamo ora all’operatore divergenza: il suo dominio è contenuto in L2(Ω × [0, T ]) e quindi δ prende in entrata processi stocastici (ut)t∈[0,T ] di quadrato integrabile rispetto a P ⊗ λ. In questo caso l’operatore prende il nome di integrale di Skorohod e viene indicato con

δ(u) = Z T

0

utδWt.

Se u ∈ Dom(δ) si dirà che è integrabile secondo Skorohod, capiremo meglio più avanti perchè si usa questa terminologia. Abbiamo visto che una classe di funzionali contenuta nel dominio della divergenza è data da D1,2(L2(0, T )), questa coincide con la classe dei processi u ∈ L2(Ω × [0, T ]) tali che ut∈D1,2

per q.o. t ed esiste una versione misurabile del processo (Dsut)s,t tale che

E Z T 0 Z T 0 (Dsut)2dsdt  < ∞.

Se u, v ∈D1,2(L2(0, T )) la formula 1.3.3 si può riscrivere come

E[δ(u)δ(v)] =E Z T 0 utvtdt + Z T 0 Z T 0 DsutDtvsdtds  ,

Notiamo che se i processi u, v sono adattati si ha Dsut = 0 se s > t per teorema 2.1.4, e analogamente Dtvs = 0 se t > s da cui l’uguaglianza si riduce a E[δ(u)δ(v)] =E Z T 0 utvtdt  .

Allo stesso modo possiamo notare che la regola di commutazione tra Dh e δ vista nella sezione precedente può essere riformulata come

Proposizione 2.1.7. Sia u ∈D1,2(L2(0, T )) supponiamo che, per q.o. t, il processo {Dtus, s ∈ [0, T ]} sia Skorohod integrabile e che esista una versione di {RT

0 DtusδWs, t ∈ (0, T )} in L2(Ω × [0, T ]). Allora δ(u) ∈D1,2 e vale

Dt(δ(u)) = ut+ Z T

0

DtusδWs.

L’integrale di Skorohod, seppure non si comporti come un vero e proprio in-tegrale, è noto con questa terminologia perchè fornisce un’estensione dell’in-tegrale di Ito ai processi non adattati. Premettiamo la seguente osservazione

(27)

Osservazione 2.1.8. Sia F ∈ L2(Ω), Ft-misurabile, allora F 1[s,T ]∈ Dom(δ) per s ≥ t e vale

δ(F 1[s,T ]) = F (WT − Ws).

Infatti se F ∈ S questo è banale perchè basta usare la formula della propo-sizione 1.3.7, che porta fuori dalla divergenza una variabile scalare

δ(F 1[s,T ]) = F (WT − Ws) +D·F , 1[s,T ]

L2

e l’ultimo termine è zero perchè DrF = 0 se r > t. Se F ∈ L2(Ω) basta approssimare, per densità, con dei funzionali lisci e poi sfruttare la chiusura di δ.

Indichiamo con L2a(Ω × [0, T ]) l’insieme dei processi adattati di quadrato integrabile, si può verificare facilmente che questo è un sottospazio chiuso di L2(Ω × [0, T ]). Vale

Proposizione 2.1.9. L2a ⊂ Dom(δ) e l’operatore δ coincide con l’integrale di Ito

δ(u) = Z T

0

utdWt,

Dimostrazione. Consideriamo un processo elementare adattato di quadrato integrabile, ovvero u = n X j=1 Fj1[tj,tj+1),

dove Fj è una variabile aleatoria Ftj-misurabile di quadrato integrabile e

0 ≤ t1 < · · · < tn ≤ 1 è una partizione di [0, T ]. Grazie all’osservazione precedente abbiamo che u ∈ Dom(δ) e

δ(u) = n X

j=1

Fj(Wtj+1− Wtj).

Sappiamo, dalla teoria dell’integrale stocastico, che ogni processo u ∈ L2a può essere approssimato in L2(Ω × [0, T ]) da una successione (un)n di pro-cessi elementari adattati come sopra. Questo ci dice che δ(un), che coinci-de con l’integrale di Ito di un per relazione precedente, converge in L2(Ω) all’integrale di Ito di u allora per chiusura di δ, u ∈ Dom(δ) e

δ(u) = Z T

0

utdWt coincide con l’integrale di Ito.

Con qualche sforzo computazionale in più, questa discussione può essere adattata al caso in cui (Wt)t∈[0,T ] sia un moto browniano d-dimensionale. A conclusione di questa sezione dimostriamo una formula di rappresentazione

(28)

per la densità di una variabile F ∈ D1,2 molto efficace dal punto di vista applicativo. Questo, come vedremo, sarà lo strumento che ci permetterà nei nostri metodi Montecarlo di diminuire effettivamente la varianza; per fare ciò si introduce una funzione c (metodo del controllo variato), ma più importante è l’introduzione di una funzione di localizzazione ϕ.

Teorema 2.1.10. Siano F ∈D1,2, h ∈ L2(Ω × [0, T ]), c ∈ L2(R) e sia ϕ una

funzione suR con le seguenti caratteristiche ϕ,dxdϕ ∈ L2(R), ϕ(0) = 1. Sia

r > 0 e supponiamo che ˜hϕ((F − x)/r) sia Skorohod integrabile, dove ˜h = h/ hh , DF i, allora la densità di F , che chiameremo p, esiste ed è continua e può essere rappresentata come p(x) =E[ξc,r(x)] dove

ξc,r(x) = (1{F >x}− c(x))Hh  F, ϕ F − x r  . Inoltre Hh  F, ϕ F − x r  = ϕ F − x r  Hh(F, 1) −1 rϕ 0 F − x r  .

Dimostrazione. Per prima cosa notiamo che, dalla dualità fra gli operatori D e δ, discende E  Hh  F, ϕ F − x r  = 0.

ricordando che Hh(F, G) = δ(˜h·G). Supponiamo, per adesso, che ϕ ∈ C0∞ e dimostriamo l’esistenza della densità, si ha

Z b a E  (1{F >x}− c(x))Hh  F, ϕ F − x r  dx = = Z b a E  1{F >x}Hh  F, ϕ F − x r  dx = = Z b a E  1{F >x}  ϕ F − x r  Z T 0 ˜ htδWt − − Z T 0 ˜ htDtϕ  F − x r  dt  dx =

(29)

=E Z F −∞ 1[a,b](x)ϕ  F − x r  dx Z T 0 ˜ htδWt  − − Z b a E Z T 0 1{F >x}˜htDtϕ  F − x r  dt  dx = =E Z T 0 Dt Z F −∞ 1[a,b](x)ϕ  F − x r  dx˜htdt  − − Z b a E Z T 0 1{F >x}˜htDtϕ  F − x r  dt  dx = =E Z T 0 1[a,b](F )ϕ(0)˜htDtF dt  =E[1[a,b](F )],

dove abbiamo usato le proposizioni 1.3.7 e 2.1.3, questo ci da l’assoluta con-tinuità della legge di F rispetto alla misura di Lebesgue ed una rappresen-tazione per la densità p. Ricordando la proposizione 1.3.7 abbiamo inoltre che Hh  F, ϕ F − x r  = ϕ F − x r  Hh(F, 1) −1 rϕ 0 F − x r  . (2.1.1)

Sfruttando la continuità a destra dell’indicatrice 1{F >x}si verifica in maniera diretta la continuità a destra di p, a questo punto possiamo scrivere 1{F ≥x}al posto di 1{F >x}e si ha la continuità a sinistra della densità. Notiamo inoltre che, poichè ϕ ∈ C0∞ e la funzione indicatrice è limitata, è facile verificare che p è limitata. Vediamo il caso generale: sia ϕ ∈ W1,2(R), ϕ(0) = 1, per

densità possiamo trovare (ϕn)n≥1 ⊂ C0∞(R) tale che ϕn → ϕ, ϕ

0

n → ϕ

0

in L2(R) e possiamo richiedere ϕn(0) = 1. A questo punto vale la formula

p(x) =E  1{F >x}Hh  F, ϕn  F − x r 

per ogni n ∈ N e ricordando 2.1.1, poichè p non dipende da n, si passa facilmente al limite.

Osservazione 2.1.11. Come vedremo sarà molto importante saper controllare la varianza di ξc,r(x). L’aggiunta della funzione c serve proprio a questo: se x ∈ R è tale che p(x) > 0 allora E

h

Hh F, ϕ F −xr 2i

> 0 e, per ϕ ed r fissati la varianza è minimizzata se scegliamo

c(x) =E " 1{F >x}Hh  F, ϕ F − x r 2# E " Hh  F, ϕ F − x r 2# .

(30)

2.2

Approssimazione di funzionali sullo spazio di

Wiener

Come già discusso nel capitolo introduttivo, lo scopo dei metodi Montecarlo è quello di calcolare quantità tipoE[f (X)] dove X è una variabile aleatoria e f è una funzione misurabile con certe proprietà. Talvolta la variabile X risulta difficilmente simulabile se non ne conosciamo la legge. In questa sezione ci occuperemo di risultati di approssimazione della variabile X tramite variabili (Xn)n≥1 che siano di facile simulazione. Adottiamo come notazioni dWs1 = δWs e dWs0 = ds e supponiamo tutti i processi definiti su [0, 1]. Facciamo le seguenti assunzioni

Condizione 2.2.1. 1. Siano (Fn)n≥1 e F in D∞ e supponiamo che

soddi-sfino F − Fn= 1 X i,j=0 Z Z Ai,jn ui,jn (s1, s2) dWsi1dW j s2, (2.2.1)

dove Ai,jn è un sottoinsieme di [0, 1]2con la proprietà cheP1i,j=0|Ai,jn |/4 ≤ an ed an→ 0 per n → ∞. Inoltre si suppone che

sup n sup s1,s2 1 X i,j=0 ui,jn (s1, s2) k,p< ∞ per ogni k ∈Z+, p > 1.

2. Per α ∈ [0, 1] esiste una successione di processi hn≡ hn,αinD∞(L2[0, 1]), uniformemente limitati in n, ed un processo h ∈D∞(L2[0, 1]), tale che

E " Z 1 0 hsDsF ds −p# < ∞, per ogni p > 1,

e tale cheE[khn− hkpL2] ≤ en,α(p) per una successione en= en,α(p) →

0, per n → ∞.

3. Per α ∈ [0, 1] esistono delle variabili aleatorie positive (dn)n, una costante c, ed una successione limitata di costanti (bn)n tali che

bn+ Z 1 0 hsDsF ds > c Z 1 0 hsDsF ds e bn+ Z 1 0 hn(s)(αDsFn+ (1 − α)DsF ) ds ≥ dn, dove per ogni p > 1 esiste k(p) ≡ k(p, α) ∈Z+ tale che

sup n

sup α∈[0,1]

(31)

Presi i, j = 1 la notazione dell’equazione 2.2.1 sta ad indicare semplicemente Z Z A1,1n u1,1n (s1, s2) δWs1δWs2 = δ(δ(1A1,1n u 1,1 n (s1, s2))),

ed è implicita la richiesta che la divergenza abbia senso. Ad esempio se (u1,1n (s1, s2))s1,s2 ∈ D

(L2([0, 1]2)) l’integrale è ben definito e sta in

D∞.

Senza perdita di generalità possiamo sempre assumere che an, bn, en, dnsiano più piccole di 1. Il risultato che dimostreremo è il seguente

Teorema 2.2.2. Assumiamo le condizioni 2.2.1: allora per una qualsiasi distribuzione T , si ha

|E[T (F ) − T (Fn+ Yn)]| ≤ c(an+ bn),

dove c è una qualche costante, Ynsono variabili aleatorie gaussiane indipen-denti con media zero e varianza bn. Se inoltre vale anche

sup n≥1 sup α∈[0,1]E " Z 1 0 hn(s)(αDsFn+ (1 − α)DsF ) ds −p# < ∞ (2.2.2)

per ogni p > 1, allora

|E[T (F ) − T (Fn)]| ≤ can.

Per semplicità dimostriamo questo teorema nel caso della delta di Dirac, T = δ0. Prima di procedere con la dimostrazione servono però alcuni lemmi tecnici. Nei calcoli che seguiranno, per convenzione, denoteremo sempre con c le costanti prodotte anche se differenti da riga a riga.

Lemma 2.2.3. Assumiamo la condizione 2.2.1(1). Allora vale

E[kD(Fn− F )kpL2] ≤ ca

p/4

n ,

per ogni p > 4.

Dimostrazione. Dalla condizione 2.2.1(1), abbiamo che

F − Fn= 1 X i,j=0 Z Z Ai,jn ui,jn (s1, s2) dWsi1dW j s2,

prendiamo allora uno di questi quattro termini e svolgiamo i calcoli, gli altri termini si trattano in modo analogo. Prendiamo, ad esempio il caso

(32)

i = j = 1, usando la proposizione 1.4.4 e la disuguaglianza di Holder si ottiene E D Z Z A1,1n u1,1n (s1, s2) δWs1δWs2 p L2 ≤ c Z Z A1,1n u1,1n (s1, s2) δWs1δWs2 p 1,p ≤ ≤ c 1A1,1n u 1,1 n p 3,p = c  E  1A1,1n u 1,1 n p L2([0,1]2)  + + 3 X j=1 E " Z 1 0 . . . Z 1 0 1A1,1n D j s1,...,sju 1,1 n 2 L2([0,1]2) ds1. . . dsj p/2#  ≤ ≤ c  E  1A1,1n u 1,1 n p L2([0,1]2)  + 3 X j=1 E  1A1,1n p/4 L2([0,1]2) × Z Z [0,1]2 Z 1 0 . . . Z 1 0 (Djs1,...,sju1,1n (t1, t2))2ds1. . . dsj p/2 dt1dt2 #! ≤ ≤ c 1A1,1n p/4 L2([0,1]2)   Z Z [0,1]2E [|un(t1, t2)|p] + 3 X j=1 E h Djun(t1, t2) p L2([0,1]j) i dt1dt2  ≤ ≤ c ap/4n sup (t1,t2)∈[0,1]2 u1,1n (t1, t2) p 3,p ≤ c a p/4 n , da cui la tesi.

Lemma 2.2.4. Assumiamo le condizioni 2.2.1. Vale sup n≥1 sup α∈[0,1] E " bn+ Z 1 0 hn(s)(αDsFn+ (1 − α)DsF ) ds −p# < ∞ per ogni p > 1.

Dimostrazione. Definiamo l’insieme A =  Z 1 0 hn(s)DsFn− h(s)DsF ds ∨ Z 1 0 (hn(s) − h(s))DsF ds ∨ ∨ bn< 1 4 Z 1 0 h(s)DsF ds  .

Dalla definizione si ottiene, con semplici calcoli, che vale la disuguaglianza bn+ Z 1 0 hn(s)(αDsFn+ (1 − α)DsF ) ds ≥ 1 4 Z 1 0 h(s)DsF ds sull’evento A e dunque, preso p > 1

E " bn+ Z 1 0 hn(s)(αDsFn+ (1 − α)DsF ) ds −p 1A # ≤ ≤ 4pE " Z 1 0 h(s)DsF ds −p# .

(33)

Notiamo che il termine a destra della diseguaglianza non dipende da n allora questa stima unita alla condizione 2.2.1(2) ci permette di concludere che

sup n sup α∈[0,1] E " bn+ Z 1 0 hn(s)(αDsFn+ (1 − α)DsF ) ds −p 1A # < ∞. Vediamo adesso di ottenere una stima analoga sul complementare di A. Per la condizione 2.2.1(3) si ha che esiste una successione di variabili aleatorie positive (dn)n≥1 tali che

bn+ Z 1 0 hn(s)(αDsFn+ (1 − α)DsF ) ds ≥ dn, ed usando Cauchy-Schwartz, per p > 1, si ottiene

E " bn+ Z 1 0 hn(s)(αDsFn+ (1 − α)DsF ) ds −p 1Ac # ≤E[d−2pn ]12P(Ac) 1 2. (2.2.3) Stimiamo la probabilità di Ac, chiaramente si ha

P(Ac) ≤P  Z 1 0 (hn(s)DsFn− h(s)DsF ) ds > 1 4 Z 1 0 h(s)DsF ds  + + P  Z 1 0 (hn(s) − h(s))DsF ds > 1 4 Z 1 0 h(s)DsF ds  + + P  bn> 1 4 Z 1 0 h(s)DsF ds  ,

ed applicando la diseguaglianza di Chebychev per k ∈Z+e Cauchy-Schwartz si ottiene P(Ac) ≤ 42kpE " Z 1 0 h(s)DsF ds −2kp (khnDFn− hDF k2kpL1 + k(hn− h)DF k2kpL1 + b 2kp n ) # ≤ 42kp E " Z 1 0 h(s)DsF ds −2kp# b2kpn + 42kpE " Z 1 0 h(s)DsF ds −2kp × ×2 khn− hk2kpL2 kDF k 2kp L2 + khnk2kpL2 kDFn− DF k2kpL2 i ≤ ≤ ck,pE " Z 1 0 h(s)DsF ds −2kp# b2kpn + ck,p E " Z 1 0 h(s)DsF ds −8kp#!1 4 × ×   E[kD(Fn− F )k4kpL2 ] 1 2  E[khnk8kpL2 ] 1 4 +  E[khn− hk4kpL2 ] 1 2 E[kDF k8kpL2 ] 1 4  . Per il lemma precedente e la condizione 2.2.1(2) vale

(34)

che unito all’equazione 2.2.3 ed usando la condizione 2.2.1(3) mi dice che posso trovare k ∈Z+ per cui

sup n sup α∈[0,1] E " bn+ Z 1 0 hn(s)(αDsFn+ (1 − α)DsF ds −p 1Ac # ≤ ≤ ck,psup n sup α∈[0,1] E[d−2pn ]1/2(apk/2n + en(4kp)1/2+ b2kpn )1/2 < ∞. da cui la tesi.

Ricordiamo la notazione introdotta nelle formule d’integrazione, per i cosid-detti pesi Hh(F, G) = Z 1 0 ˜ htG δWt, dove ˜ht = ht/  R1 0 hsDsF ds 

. Ci siamo sempre limitati a richiedere che ˜

hG ∈ Dom(δ) affinchè Hh(F, G) fosse ben definito. Con le condizioni 2.2.1 si può dimostrare di più

Lemma 2.2.5. Sia F ∈D∞e sia h ∈D∞(L2[0, 1]) tale cheE

h |R1

0 hsDsF ds| −pi< ∞ per ogni p > 1. Se G ∈Dallora si ha Hh(F, G) ∈

D∞.

Dimostrazione. Riscriviamo

Hh(F, G) = δ(h(hh , DF iL2)−1G)

e notiamo che poichè h ∈D∞(L2(0, 1)) e G ∈D∞ si ha hG ∈D∞(L2(0, 1)).

Questa è una proprietà facile da verificare se prendiamo h ∈ SL2e G ∈ S e poi

si estende per densità inDk,r(L2) per k ≥ 1, r > 1. Allo stesso modo si può

verificare che se h, k ∈D∞(L2(0, 1)) allora hh , kiL2 ∈D∞. Se hh , DF i−1L2 ∈

D∞ dalle considerazioni precedenti e grazie al teorema 1.4.4 si avrebbe che

Hh(F, G) ∈

D∞. Rimane quindi da dimostrare che (hDF , hiL2)

−1

D∞.

Possiamo supporre senza perdità di generalità che 

R1

0 hsDsF ds 

> 0 quasi certamente, preso n ∈N consideriamo la successione

 1 n+ Z 1 0 hsDsF ds −1 .

Per la proposizione 1.4.1 è contenuta in D∞ e sfruttando il fatto che la variabile (hh , DF iL2)−1 ammette tutti i momenti è facile verificare che è

una successione di Cauchy inDk,r per ogni k ≥ 1,r > 1.

Osservazione 2.2.6. Nella dimostrazione del lemma abbiamo supposto, senza perdità di generalità, che R1

0 hsDsF ds 

> 0. In generale infatti si ha che se F ∈D1,2 è una variabile aleatoria tale che E[|F |−2] < ∞, vale P{F > 0} è uguale a zero oppure uno.

(35)

Il lemma precedente ci permette di definire ricorsivamente i pesi H(n)(F, G) = Hh(F, H(n−1)(F, G)) per n ≥ 1,

ponendo H(0)(F, G) = G, e poichè H(n−1)(F, G) ∈ D∞ allora H(n)(F, G) ∈ D∞. Preso m ∈Z+ e p > 1 si può dimostrare la seguente disuguaglianza

H (m)(F, G) p ≤ c kGkm+1,p0(kF k α1 m+1,p0+khk α2 m,p2,L2) Z 1 0 h(s)DsF ds −1 α3 p3 (2.2.4) per una certa costante c e per gli indici α1, α2, α3, p0, . . . , p3 dipendenti da m, p. Non approfondiamo la dimostrazione di questo fatto, che può essere trovata su [11], ne vedremo a breve una analoga. Supponiamo ora che sullo spazio (Ω, F , P) sia presente un ulteriore moto browniano ˜W indipendente da W . La coppia (W, ˜W ) forma, come sappiamo, un moto browniano 2-dimensionale. Abbiamo già visto nell’esempio 1.1.3 del capitolo due come sono fatti i funzionali lisci in questo caso e quindi l’estensione del calcolo di Malliavin è facilmente ripercorribile dati i risultati del capitolo due. Deno-tiamo Yn :=

bnW˜1. Scriveremo G ∈ D1,2(W) per indicare un funzionale

in D1,2 rispetto a (W, ˜W ), in contrapposizione a D1,2(W ) (o

semplicemen-te D1,2) che indica lo spazio generato solo dal processo di dimensione uno

(Wt)t∈[0,1]. Premettiamo un’osservazione Osservazione 2.2.7. Si ha Yn+F ∈D1,2, prendiamo (h, √ bn) con h ∈ L2(0, 1) vale D(h, √ bn)(Y n+ F ) = hDF , hiL2 + D DYn, p bn E L2 = hDF , hiL2+ bn

e questo è diverso da zero quasi certamente per le condizioni 2.2.1. Con ragionamenti analoghi ai precedenti si può mostrare che se F ∈ D∞, G ∈ D∞(W), h ∈D∞(L2) allora G(hDF , hiL2 + bn)−1(h,

bn) ∈ D∞(H × H).

Se g ∈ C1(R) con derivate limitate grazie al teorema 1.5.1 si ha E[g

0

(Yn+ F )G] =E[g(Yn+ F ) ¯H(F, G)]

dove ¯H(F, G) = δ(G¯h) ed ¯h = (h,√bn)(bn + hDF , hi)−1. Testando la formula di dualità sui funzionali lisci possiamo anche verificare

¯ H(F, G) = Z 1 0 Gh(t) R1 0 h(s)DsF ds + bn δWt+ Z 1 0 G√bn R1 0 h(s)DsF ds + bn δ ˜Wt.

Per essere precisi ¯H(F, G) = H(h, √

bn)(Y

n+ F, G) ed è un elemento diD∞.

Ricorsivamente possiamo definire i pesi ¯

H(m)(F, G) = ¯H(F, ¯H(m−1)(F, G)), con ¯H(0)(F, G) = G come in precedenza. Vale

(36)

Lemma 2.2.8. Sia F ∈D∞(W ) e G ∈D∞(W). Per ogni m ∈Z+ e p > 1, si ha ¯ H(m)(F, G) p≤c kGkm+1,p0(kF k α1 m+1,p1+ khk α2 m,p2,L2 + b α3 n ) × Z 1 0 h(s)DsF ds + bn −1 α4 p4

per una costante c e per indici p0, p1, p2, p4, α1, . . . , α4 dipendenti da m, p. Dimostrazione. Sia m ∈Z+, per k = 1, . . . , m si ha grazie al teorema 1.4.4 ed alle diseguaglianze di Holder per le norme kkk,p

H¯ (k) m−k,p ≤ c H¯ (k−1) m−k+1,αp(khkm−k+1,βp,L2+ p bn)× Z 1 0 hsDsF ds + bn −1 m−k+1,γp ,

dove α−1+ β−1+ γ−1= 1. Usando la disuguaglianza di Cauchy-Schwarz nel calcolo dei termini della formaR[0,1]i(Dt1,...,ti(

R1

0 h(s)DsF ds+bn) −1)2dt

1. . . dti con passaggi banali ma tediosi si può verificare che

Z 1 0 hsDsF ds + bn −1 m+1,γp ≤ c (kF kβ1 m+1,q1+ khk β2 m,q2 + b β3 n ) Z 1 0 hsDsF ds + bn −1 β4 q4 , con indici q1, q2, q4, β1, . . . , β4dipendenti da m, p. A questo punto il risultato segue per induzione.

Talvolta useremo, nella definizione dei pesi ¯H, hnal posto di h ( come forniti dalle condizioni 2.2.1), in tal caso aggiungeremo il pedice ¯Hnalla notazione. Siamo finalmente pronti per dimostrare il nostro teorema di approssimazione. Dimostrazione del teorema 2.2.2. Sia fn(x) = φ√bn(x) = exp (−x2/2bn)/

√ 2πbn e Gn =R1

0 f

0

n(Yn+ αFn+ (1 − α)F ) dα. Per il teorema del valor medio ed usando la dualità tra l’integrale di Skorohod e l’operatore derivata si ottiene

E[fn(F + Yn) − fn(Fn+ Yn)] = =E[Gn(F − Fn)] = 1 X i,j=0 E  Gn Z Z Ai,jn ui,jn (s1, s2) δWsi1δW j s2  = = Z Z A0,0n E[Gnu0,0n (s1, s2)] ds1ds2+ Z Z A0,1n E[Ds2(Gn)u 0,1 n (s1, s2)] ds1ds2+ + Z Z A1,0n E[Ds1(Gn)u 1,0 n (s1, s2)] ds1ds2+ Z Z A1,1n E[D2s1,s2(Gn)u 1,1 n (s1, s2)] ds1ds2.

(37)

Calcoliamo uno di questi termini, gli altri si fanno in maniera analoga. Usan-do tre volte la formula d’integrazione il termine |E[Ds2(Gn)u

0,1 n (s1, s2)]| è uguale a Z 1 0 E[f 00 n(Yn+ αFn+ (1 − α)F )(αDs2Fn+ (1 − α)Ds2F )u 0,1 n (s1, s2)] dα = = Z 1 0 E[Φn(Yn+ αFn+ (1 − α)F ) ¯Hn(3)(αFn+ (1 − α)F, (αDs2Fn+ (1 − α)Ds2F )u 0,1 n (s1, s2))] dα ≤ ≤ Z 1 0 E[ ¯Hn(3)(αDs2Fn+(1−α)Ds2F, (αDs2Fn+(1−α)Ds2F )u 0,1 n (s1, s2))] dα, dove Φn è la funzione di ripartizione associata a fn. Grazie al lemma 2.2.8 si ha che sup n sup s1,s2 sup α∈[0,1] E h | ¯Hn(3)(αFn+ (1 − α)F, (αDs2Fn+ (1 − α)Ds2F )u 0,1 n (s1, s2))| i ≤ c sup n sup s1,s2 sup α∈[0,1] (αDs2Fn+ (1 − α)Ds2F )u 0,1 n (s1, s2) 4,p0× × (kαFn+ (1 − α)F kα4,p11 + khnkα3,p22 + bαn3)× ×  bn+ Z 1 0 hn(s)(αDsFn+ (1 − α)DsF ) ds −1 α4 p4 ,

che è finito per le condizioni 2.2.1(1),(2) ed il lemma 2.2.4. Ragionamenti analoghi sugli altri termini della sommatoria portano a concludere che

|E[fn(F + Yn) − fn(Fn+ Yn)]| ≤ c an. Consideriamo oraE[δ0(F ) − fn(F + Yn)]], osserviamo che

E[fn(F + Yn)] = Z R E[fn(F + y)]fn(y) dy =E[φ√2bn(F )], possiamo scrivere E[φ√2bn(F )] = Z R φ√ 2bn(y)p(y) dy = ˜p(0),

dove per convoluzione ˜p è la densità della variabile F +√2Ynche è continua e limitata. Usando le proprietà della convoluzione e la continuità della densità della variabile F si ha E[φ√2bm(F )] = limm→∞(˜p ∗ φ √ bn)(0) = = lim m→∞ Z R

fm(y)˜p(y) dy = lim

m→∞E[fm(F +

√ 2Yn],

(38)

ed allo stesso modo E[δ0(F )] = limm→∞E[fm(F )], quindi possiamo ridurci a stimareE[fm(F ) − fm(F +

2Yn)]. Espandendo con Taylor fm intorno ad F si ha E[fm(F )−fm(F + √ 2Yn)] = √ 2E[f 0 m(F )Yn]+2E Z 1 0 fm00(F + α√2Yn)(1 − α)Yn2dα  , ed osserviamo cheE[fm0 (F )Yn] = 0 per indipendenza di F e Yn. Dal teorema

1.5.1 e dalla condizione 2.2.1(2) si ottiene |E[fm00(F + α√2Yn)Yn2]| = = Z R E[f 00 m(F + α √ 2y)]y2fn(y) dy = = Z R E[Φm(F + α √

2y)H3(F, 1)]y2fn(y) dy ≤ ≤ Z R E[|H(3)(F, 1)|]y2fn(y) dy ≤ ≤ c (kF kα1 4,p1 + khk α2 3,p2) Z 1 0 h(s)DsF ds −1 α3 p3 E[Yn2] ≤ c bn.

Da cui |E[δ0(F ) − fn(F + Yn)]| ≤ c bn. In maniera del tutto analoga si ha |E[δ0(Fn+ Yn) − fn(Fn+ Yn)]| ≤ ≤ 2 lim m→∞ Z 1 0 Z R E[f 00 m(α √ 2y + Fn+ Yn)y2fn(y) dy (1 − α) dα = = 2 lim m→∞ E [Φm(α √ 2y + Fn+ Yn) ¯Hn(3)(Fn, 1)]y2fn(y) dy (1 − α) dα ≤ ≤ c (kFnkα4,p21 + khnk α2 3,p2 + b α3 n ) Z 1 0 DsFnds + bn −1 α4 p4 E[Yn2] ≤ cbn

Unendo queste tre stime otteniamo che

|E[δ0(F ) − δ0(Fn+ Yn)]| ≤ c (an+ bn),

come volevasi. Se vale la condizione 2.2.2 ogni peso usato per applicare le formule d’integrazione per parti risulta ben definito anche senza l’aggiunta di una costante positiva bn e quindi tutte le stime precedenti possono essere svolte ponendo Yn= 0.

2.3

Equazioni differenziali stocastiche

Vogliamo vedere come si applicano i risultati di approssimazione di funzio-nali al caso di processi (Xt)t∈[0,T ] soluzione di alcune equazioni differenziali

(39)

stocastiche, che a volte chiameremo processi di diffusione. Prima di fare ciò discutiamo alcune generalità delle equazioni stocastiche e i rapporti che intercorrono col calcolo di Malliavin. Mettiamoci nel setup delle sezioni precedenti e svolgiamo tutta la discussione nel caso di un moto brownia-no (Wt)t∈[0,T ] unidimensionale, osservando che l’estensione a più dimensioni non comporta grosse problematiche. Consideriamo la seguente equazione differenziale stocastica Xt= x0+ Z T 0 A(s, Xs) dWs+ Z T 0 B(s, Xs) ds, (2.3.1)

x0 ∈R e supponiamo che A, B : [0, T ] ×R→R siano funzioni misurabili che

soddisfano le seguenti condizioni

Condizione 2.3.1. • |A(t, x) − A(t, y)| + |B(t, x) − B(t, y)| ≤ K |x − y| per ogni x, y ∈R, t ∈ [0, T ],

• Esiste C > 0 tale per cui |A(t, x)| + |B(t, x)| ≤ C(1 + |x|),∀x.

Queste sono le condizioni classiche di crescita al più lineare all’infinito e di lipschitzianità globale dei coefficienti. Ricordiamo anzitutto il teorema di esistenza ed unicità delle soluzioni di una tale equazione

Teorema 2.3.2. Sotto le condizioni precedenti per A, B, esiste un’unico processo (Xt)t∈[0,T ] con traiettorie continue che risolve l’equazione 2.3.1. Inoltre E " sup t∈[0,T ] |Xt|p # ≤ C

per ogni p ≥ 2, dove C è una costante dipendente da p, T, K ed x0.

Una delle prime considerazioni che si possono fare è sulla derivabilità secondo Malliavin della soluzione di una tale equazione: ci sono vari teoremi in questo senso e sono risultati abbastanza tecnici ma di enorme utilità, a noi sarà utile in seguito il seguente enunciato

Teorema 2.3.3. Sia (Xt)t∈[0,T ] la soluzione dell’equazione 2.3.1. Supponia-mo che i coefficienti A, B siano infinitamente differenziabili in x con derivate di ogni ordine limitate e che le applicazioni t 7−→ A(t, 0),t 7−→ B(t, 0) siano limitate in [0, T ]. Allora, per ogni t, XtD.

Come visto in precedenza, data una variabile aleatoria F ∈D1,2, sotto certe condizioni possiamo dimostrare che la sua legge ammette densità rispetto alla misura di Lebesgue. Vorremmo capire sotto quali condizioni questo sia possibile per un processo di diffusione (Xt)t∈[0,T ]. Supponiamo ora che i coefficienti A, B dell’equazione 2.3.1 non dipendano dalla variabile temporale t, scriviamo per distinguere

Xt= x0+ Z t 0 a(Xs) dWs+ Z t 0 b(Xs) ds, (2.3.2)

Riferimenti

Documenti correlati

Con riferimento a quest’ultimo caso è sintomatico sottolineare come gli errori di stima associati alle stime ottimali delle presenze nelle strutture complementari

[r]

In the first case, that of European environmental policy (Flynn, 1997), soft law is deemed to be part of a new regulatory trend within the European Union, one which

La pratica è ormai diffusa tra le maggiori imprese, in quanto sono più esposte alle pressioni esterne; ma è da ritenere sempre più importante anche il coinvolgimento delle piccole

L’utilizzo di questo teorema è spesso vantaggioso, perché il calcolo di un flusso in alcuni casi può risultare piuttosto oneroso, mentre il calcolo di un integrale di volume di

• proiezione ortogonale di un vettore sullo spazio generato dalle colonne di una matrice,?. • distanza di un vettore da

Fu proprio nel clima di dialogo che si era instaurato sull’onda della crisi ce- coslovacca che il ministro degli Esteri tedesco von Ribbentrop presentò ai polacchi la proposta di

F Attorno al corpo si forma uno strato di fluido, detto strato limite strato limite, nel quale la componente della velocità parallela alla.. parete passerà dal valore di