• Non ci sono risultati.

Diario delle Lezioni di Equazioni Differenziali Stocastiche

N/A
N/A
Protected

Academic year: 2021

Condividi "Diario delle Lezioni di Equazioni Differenziali Stocastiche"

Copied!
60
0
0

Testo completo

(1)

Diario delle Lezioni di Equazioni Differenziali Stocastiche

Prof. Luciano Tubaro 5 luglio 2017

Indice

1 Equazioni Differenziali Ordinarie. 3

2 Equazioni risolvibili "con le mani" 4

2.1 Ornstein - Uhlenbeck (1930) . . . . 4 2.2 Brownian Bridge . . . . 7 2.2.1 Generalizzazione del Brownian Bridge . . . . 9

3 Integrale stocastico 11

3.1 Definizione 6.1 Baldi . . . 11 3.2 Integrale Stocastico . . . 12

4 La formula di Itô 15

4.1 La "ricetta" . . . 15 4.2 Formula Generale di Itô 1-dimensionale . . . 35

5 Introduzione alle equazioni differenziali stocastiche (SDE) 36

5.1 Esempi di particolari ODE . . . 37

6 Equazioni differenziali stocastiche: caso n -dimensionale 38

7 Formula di Itô n -dimensionale 40

8 Esempi e applicazioni 41

9 Proprietà delle soluzioni delle SDE 44

1

(2)

10 Esistenza e unicità delle soluzioni per SDE 45

11 Introduzione ai semigruppi di operatori lineari 48

11.1 Relazione con le equazioni differenziali . . . 49 11.2 Relazione con le SDE . . . 49

12 Alcune applicazione 58

12.1 Il filtro di Kalman-Bucy . . . 58 12.2 La formula di Black-Scholes . . . 59

2

(3)

Lezione 1: 22/02/2017 3

Stochastic Differential Equations a.a. 2016-17

Lezione del 22/02/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

1 Equazioni Differenziali Ordinarie.

Primo Ordine Consideriamo l’equazione

( x = b(x(t)) ˙ b : R → R x(0) = x

0

(1.0.1)

Se b(x(t)) = c(t)x(t), con c : R → R è continua, è facile vedere che x(t) = x

0

e

C(t)

, ove C è una primitiva di c , è soluzione di (1).

In generale esistenza e unicità della soluzione sono garantite ad esempio nel caso b sia Lipschitziana i.e. esiste una costante C tale che |b(x) − b(y)| ≤ C|x − y|, cfr [Wal98]; nel caso b sia continua si veda il teorema di Peano.

Secondo Ordine.

( x = P (x, y) ˙

˙

y = Q(x, y) Si consideri ad esempio

 

 

¨

x = −ω

2

x

˙

x(0) = ˙ x

0

x(0) = x

0

(1.0.2)

Due modi per risolvere 1.0.2

(i) cercare una soluzione particolare del tipo e

λt

, derivando

dtd22

(e

λt

) = λ

2

e

λt

, λ

2

e

λt

= −ω

2

e

λt

da cui otteniamo x(t) = A

1

cos(ωt) + A

2

sin(ωt) .

(ii) Trasformare l’equazione di secondo grado in un sistema di equazioni ( x = y ˙

˙

y = −ω

2

x

Riscrivendo in forma matriciale, poniamo z = (x, y)

t

, A =

0 1

−ω

2

0

 in modo che

˙z = Az (1.0.3)

(4)

4 Lezione 1: 22/02/2017

In questo caso dobbiamo prendere l’esponenziale di matrice così definito

e

A

:= Id + A + A

2

2 + A

3

6 + · · · =

X

n=0

A

n

n!

e allo stesso modo e

At

, che può essere derivato d

dt e

At

= Id + tA + t

2

A

2

2 + t

3

A

3

6 + · · · =

X

n=0

t

n

A

n

n!

Allora z(t) = z

0

e

tA

è soluzione di (1.0.3).

1

Quanto visto può essere generalizzato per sistemi di n equazioni.

Equazioni Differenziali Stocastiche

dX = b(X)dt + σ(X)dW

ove X = X

t

è un processo stocastico e W = W

t

è un processo di Wiener, continuiamo ad usare la notazione del calcolo differenziale, nonostante quanto scritto non abbia senso, poiché dW non è un vero differenziale in quanto W

t

non è derivabile.

2 Equazioni risolvibili "con le mani"

Come nei casi appena visti nell’ambito delle equazioni differenziali ordinarie, anche tra quelle stocastiche vi sono esempi di equazioni a cui soluzione può essere trovata direttamente, senza bisogno di teoremi di esistenza. Di seguito vedremo alcuni esempi, già introdotti nel corso di Processi Stocastici, cfr [FPTT08]

([CT12] - en).

2.1 Ornstein - Uhlenbeck (1930)

X(t) = X

0

+ λ Z

t

0

X(s)ds + σW

t

(2.1.1)

ove W

t

è un processo di Wiener, X ∈ L

1

(0, t) , da cui segue che X(t) − σW

t

è derivabile. Ora poniamo

y(t) := X(t) − σW

t

= X

0

+ λ Z

t

0

X(s)ds (2.1.2)

˙

y(t) = λX(t) = λX(t) + λσW

t

per cui possiamo scrivere

 y(t) = λy(t) + λσW ˙

t

(2.1.3a)

y(0) = X

0

(2.1.3b)

1Prima pagina di esercizi sul sito http://www.science.unitn.it/~tubaro/corso5/lez1.pdf.

(5)

Dopodiché (2.1.3a) diventa

˙

y(t) − λy(t) = λσW

t

e

−λt

( ˙ y(t) − λy(t)) = e

−λt

(λσW

t

) y(t)e

−λt



0

= e

−λt

(λσW

t

) y(t)e

−λt

− X

0

= λσ

Z

t 0

e

−λs

W

s

ds y(t) = e

λt

X

0

+ λσ

Z

t 0

e

(t−s)λ

W

s

ds (2.1.4)

Abbiamo con questo dimostrato l’unicità della soluzione, se questa esiste. L’esistenza si ottiene mostrando che (2.1.4) soddisfa (2.1.3a - 2.1.3b). Ricordando (2.1.2) possiamo scrivere la soluzione di 2.1.1

X(t) = X

0

e

λt

+ λσ Z

t

0

e

(t−s)λ

W

s

ds + σW

t

. (2.1.5)

5

(6)

Stochastic Differential Equations a.a. 2016-17

Lezione del 24/02/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

Ornstein - Uhlenbeck - Continuazione La soluzione dell’equazione di Ornstein Uhlenbeck può essere scritta anche come

X(t) = X

0

e

λt

+ σ

 λ

Z

t 0

e

(t−s)λ

W

s

ds + (W

t

− W

0

)



= X

0

e

λt

+ σ Z

t

0

e

(t−s)λ

dW

s

(2.1.6)

Ora, W

t

= W

t

(ω) e anche X

0

= X

0

(ω) sono processi stocastici. Anche (2.1.6) è aleatoria, poiché Z

t

0

e

(t−s)λ

dW

s

è limite di somme finite di variabili casuali

n−1

X

i=0

e

λ(t−si)

(W

si+1

(ω) − W

si

(ω)), inoltre essendo W

t

un processo di Wiener abbiamo

σ Z

t

0

e

(t−s)λ

dW

s

(ω) ∼ N



0, σ

2

e

2λt

− 1 2λ



(2.1.7)

Assumendo X

0

indipendente dal processo di Wiener e X

0

∼ N (m, γ

2

) si ha che X(t) è un processo Gaussiano di media me

λt

e varianza e

2λt

γ

2

+ σ

2 e2λt−1

.

Invece di lavorare con λ < 0 si preferisce λ > 0, di conseguenza

dX

t

= −λX

t

dt + σW

t

(2.1.8)

con equazione integrale associata

X(t) = X

0

− λ Z

t

0

X(s)ds + σW

t

(2.1.9)

e soluzione

X(t) = X

0

e

−λt

+ σ Z

t

0

e

−(t−s)λ

dW

s

(2.1.10)

che risulta essere distribuita come una N 

0,

σ2

 per t → +∞. 

6

(7)

Lezione 3: 01/03/2017 7

Stochastic Differential Equations a.a. 2016-17

Lezione del 01/03/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

2.2 Brownian Bridge

Un altro esempio di equazione la cui soluzione si può trovare direttamente è il Browniano Bridge

dX(t) = − X(t) − b

T − t dt + W

t

(2.2.1a)

X(0) = a (2.2.1b)

La sua equazione integrale assocaita è

X(t) = a − Z

t

0

X(s) − b

T − s ds + W

t

. (2.2.2)

Ponendo y(t) = X(t) − W

t

si ha

y(t) = − Z

t

0

y(s) + W

s

− b T − s ds

= − Z

t

0

y(s) − b T − s ds −

Z

t 0

W

s

T − s ds Derivando

˙

y(t) = − y(t) − b T − t − W

t

T − t

˙

y(t) + y(t) − b

T − t = − W

t

T − t 1

T − t y + ˙ y(t) − b

(T − t)

2

= − W

t

(T − t)

2

con t ∈ [0, T ] e e T < T e , per evitare la singolarità in t = T .

Con passaggi simili a quelli già visti

y(t) = b + (a − b)(T − t)

T − (T − t) Z

t

0

W

s

(T − s)

2

ds e

X(t) = b + (a − b)(T − t)

T + W

t

− (T − t) Z

t

0

W

s

(T − s)

2

ds (2.2.3)

per t ∈ [0, t).

Se t → T , allora b +

a−bT

(T − t) → b , W

t

→ W

T

e, usando de l’Hôpital

Rt 0

Ws (T −s)2ds

1 T −t

→ W

T

, da cui lim

t→T

X(t) = b.



(8)

Misurabilità. Sia π una partizione 0 = s

0

≤ s

1

≤ · · · ≤ s

n

= t dell’intervallo [0, t]. Con π → ∞ si intende che il numero di punti s

0

, . . . s

n

va all’infinito producendo partizione via via più fini, i.e. |π| = max

i∈{0,n−1}

|t

i+1

− t

i

| → 0 . Sia inoltre f ∈ C

1

Z

t 0

f (s)dW

s

= lim

π→∞

n−1

X

i=0

f (t

i

)(W

ti+1

− W

ti

)

(1)

= f (t)W

t

− lim

π→∞

n−1

X

i=0

W

ti+1

(f (t

i+1

− f (t

i

)))

(2)

= f (t)W

t

− Z

t

0

W

s

f

0

(s)ds

ove in (1) abbiamo integrato per parti e in (2), per l’ipotesi su f, il limite esiste ed è proprio l’integrale di Riemann-Stieltjes.

Possiamo arrivare alla soluzione anche seguendo l’Oksendal, [Oks13, pag.22], infatti, per un qualsiasi processo W

t

nullo in 0 W

t

= R

t

0

f (s)dW

s

con f(s) = 1 e Z

t

0

f (s)dW

s

8

(9)

Stochastic Differential Equations a.a. 2016-17

Lezione del 03/03/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

2.2.1 Generalizzazione del Brownian Bridge

dX

t

= b(X

t

)dt + σ(t)W

t

(2.2.4)

X(0) = X

0

(2.2.5)

con b : R → R, che può non essere lineare; ma anche b : [0, T ]R → R. Idem per σ.

L’equazione integrale associata è

X(t) = X

0

+ Z

t

0

b(X(s))ds + Z

t

0

σ(X(s))dW

s

(2.2.6)

in cui l’ultimo termine a destra dell’uguale è un processo stocastico che definiremo in seguito.

Vediamo un caso particolare nel seguente esempio

Esempio 2.1. Sia W

t

un processo di Wiener, ma anche un qualsiasi processo tale che W

0

= 0 . Allora Z

t

0

W

s

dW

s

= 1

2 W

t2

− 1

2 t (2.2.7)

Sia π : 0 = s

0

< · · · < s

n

= t una partizione dell’intervallo [0, t] e consideriamo le somme

s

π

=

n−1

X

i=0

W

si

(W

si+1

− W

si

)

S

π

=

n−1

X

i=0

W

si+1

(W

si+1

− W

si

) dopodichè ne prendiamo la differenza e la somma

S

π

− s

π

=

n−1

X

i=0

(W

si+1

− W

si

)

2

s

π

+ s

π

= W

t2

.

Per t = lim

π→∞

P

n−1

i=0

(W

si+1

− W

si

)

2

, in L

2

(cfr. Exercise 2.17 [Oks13]). Da cui S

π

= 1

2 (S

π

+ s

π

+ S

π

− s

π

) → W

t2

+ t 2 s

π

= 1

2 (S

π

+ s

π

− (S

π

− s

π

)) → W

t2

− t

2

9

(10)

10 Lezione 4: 03/03/2017

Osservazione 2.1. Nel considerare R

0t

W

s

(ω)dW

s

(ω) come limite delle somme P

n−1i=0

W

si

(ω)(W

si+1

− W

si

)(ω) con s

i

∈ [s

i

, s

i+1

] fa differenza dove il punto s

i

è preso; dato α ∈ [0, 1]

s

α

= (1 − α)s

i

+ αs

i+1

.

Itô sceglie α = 0 e, di conseguenza s

π

che, tra le due, è una martingala.

(11)

Stochastic Differential Equations a.a. 2016-17

Lezione del 08/03/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

In questa lezione vedremo la definizione 6.1 del [Bal00], riportata in (3.1).

3 Integrale stocastico

3.1 Definizione 6.1 Baldi

Sia B = (Ω, F, (F

t

)

t

, (B

t

)

t

, P) un moto browniano fissato.

Definizione 3.1 (6.1 Baldi). Indichiamo con Λ

pB

([α, β]) lo spazio delle classi di equivalenza di processi reali X = (Ω, F , (F

t

)

α≤t≤β

, (X

t

)

α≤t≤β

, P) , progressivamente misurabili e tali che

(i) P  R

β

α

|X

s

|

p

ds < +∞ 

= 1.

Con M

Bp

([α, β]) indichiamo invece lo spazio delle classi d’equivalenza di processi progressivamente misurabili tali che

(i’) E  R

β

α

|X

s

|

p

ds 

< +∞.

Si noti che la filtrazione (F

t

)

t

è quella del processo di Wiener. Di conseguenza X

t

risulta adattato a W

t

(F

tX

⊆ F

t

).

Poiché in queste definizioni il processo di Wiener B

t

(da noi indicato con W

t

) è fissato, ometteremo il pedice nella notazione. Inoltre nella pratica p = 2, mentre l’intervallo di tempi da noi considerato è [0, T ] per cui utilizzeremo la notazioni Λ

2

([0, T ]) e M

2

([0, T ]) o, in breve Λ

2

, M

2

.

Ricordiamo inoltre che un processo X è detto misurabile se l’applicazione (t, ω) → X

t

(ω) è misurabile su ([0, T ] × Ω, B

T

⊗ F ) , mentre si dice progressivamente misurabile se per ogni t ∈ [0, T ] l’applicazione (t, ω) → X

t

(ω) è misurabile su ([0, t] × Ω, B

t

⊗ F ) .

Abbiamo già visto che per una classe di processi X

t

∈ C

1

∩ M

2

l’integrale Z

T

0

X

s

dW

s

è definibile traiettoria per traiettoria, ossia

ω → Z

T

0

X(s, ω)dW (s, ω) = X

T

W

T

− X

0

W

0

− Z

T

0

W

s

X

s0

ds è l’integrale per parti.

11

(12)

12 Lezione 6: 10/03/2017

Stochastic Differential Equations a.a. 2016-17

Lezione del 10/03/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

3.2 Integrale Stocastico

Sia (Ω, F, P) uno spazio di probabilità e sia X

t

una successione di variabili casuali C

1

. Sia inoltre W

t

un processo di Wiener

n−1

X

i=0

X

ti

W

ti+1

− W

ti

 −−−−→

π→∞

Z

T 0

X

t

dW

t

:= X

T

W

T

− Z

T

0

W

t

X

0

(t)dt (3.2.1)

Finora il fatto che W

t

sia di Wiener non è stato utilizzato, sarebbe bastato qualsiasi processo nullo nell’origine;

ma prendiamo ad esempio X

t

(ω) = X(ω)ϕ(t) con ϕ BV, allora l’integrale Z

T

0

X

s

dW

s

= X Z

T

0

ϕ(s)dW

s

= XY (3.2.2)

con Y = R

0T

ϕ(s)dW

s

è una variabile casuale.

Ora, per poter calcolare il valore d’aspettazione E(XY ) dobbiamo fare delle ipotesi sulla relazione tra X e Y , i.e. tra X e W . Partiamo dalle somme di Riemann e vediamo due diverse ipotesi

Ipotesi 1). Supponiamo che X

ti

siano indipendenti dagli incrementi W

ti+1

− W

ti

, allora

E

"

n−1

X

i=0

X

ti

W

ti+1

− W

ti



#

=

n−1

X

i=0

E(X

ti

)E(W

ti+1

− W

ti

) = 0 poichè gli incrementi di un processo di Wiener hanno media nulla.

E

n−1

X

i=0

X

ti

W

ti+1

− W

ti



!

2

 =

n−1

X

i=0

E (X

t2i

)(W

ti+1

− W

ti

)

2

 + (3.2.3) X

i6=j

E X

ti

(W

ti+1

− W

ti

)X

tj

(W

tj+1

− W

tj

) 

(3.2.4)

facciamo un’ipotesi aggiuntiva

Ipotesi 2). X

t

adattato alla filtrazione del processo di Wiener, i.e. sia F

tW

:= σ {W

s

: s ≤ t}

la filtrazione di W

t

allora F

tX

⊂ F

tW

e quindi X

t

(ω) è misurabile rispetto a F

tW

. Essendo F

tW

indipendente

dagli incrementi W

ti+1

− W

ti

si ha che l’Ipotesi 1) implica Ipotesi 2). Abbiamo così capito perché nella

(13)

Def. (3.1) si richieda X

t

adattato alla filtrazione di W

t

. A questo punto supponendo i < j in (3.2.4) X

ti

(W

ti+1

− W

ti

)X

tj

è misurabile rispetto a F

tWj

ed è indipendente da W

tj+1

− W

tj

, di conseguenza abbiamo il prodotto dei valori attesi e, di conseguenza (3.2.4) è uguale a zero.

E

n−1

X

i=0

X

ti

W

ti+1

− W

ti



!

2

 =

n−1

X

i=0

E (X

t2i

)(W

ti+1

− W

ti

)

2



(3.2.5)

=

n−1

X

i=0

E (X

t2i

) E (W

ti+1

− W

ti

)

2



(3.2.6)

=

n−1

X

i=0

E (X

t2i

) (t

i+1

− t

i

). (3.2.7)

Resta da vedere che

E

n−1

X

i=0

X

ti

W

ti+1

− W

ti



!

2

→ E

 Z

T

0

X

s

dW

s

!

2

 (3.2.8)

n−1

X

i=0

E (X

t2i

) (t

i+1

− t

i

) → E

"

Z

T 0

X

s2

ds

#

= Z

T

0

E X

s2

 ds. (3.2.9)

13

(14)

Stochastic Differential Equations a.a. 2016-17

Lezione del 15/03/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

Considerazioni sulla definizione 6.1 del [Bal00].

Definizione 3.2 (Processo di Wiener). Definiamo un processo di Wiener come una 5-upla W = (Ω, F , (F

t

)

t≥0

, (W

t

)

t≥0

, P)

ove (F

t

)

t≥0

, filtrazione associata al processo, è non anticipante

2

e F

tW

⊂ F

t

, mentre la successione di variabili (W

t

)

t≥0

, P devono soddisfare le seguenti condizioni:

i. W

0

= 0 q.c.

ii. gli incrementi sono indipendenti, i.e. ∀ 0 ≤ s < t W

t

− W

s

⊥ ⊥ F

s

iii. W

t

− W

s

∼ N (0, t − s) Osservazione 3.1.

• Nel caso in cui si scelga la filtrazione naturale F

t

= F

tW

allora la si può omettere nella definizione.

• Non vi è la continuità delle traiettorie

• la ii. può anche essere scritta come E(W

t

− W

s

|F

s

) = E(W

t

− W

s

) = 0 da cui E(W

t

|F

s

) = W

s

, ossia W

t

è una martingala.

Considerazioni su M

Wp

([0, T ]) X

t

è (progressivamente) misurabile nella coppia (t, ω), per abbiamo la σ− algebra B(0, T ) N F

T

e la misura prodotto

3

λ N P .

E Z

T

0

|X

s

|

p

ds

!

< +∞

Z

[0,T ]×Ω

|X

s

|

p

(ds, dP) < +∞

dunque M

Wp

([0, T ]) ⊂ L

p

([0, T ] × Ω) .

Considerazioni su λ

pW

([0, T ]) Abbiamo Z

T

0

|X

s

|

p

ds < +∞

quasi certamente, per cui M

Wp

([0, T ]) ⊂ λ

pW

([0, T ]) .

2Un processo adattato ad una filtrazione non anticipante è spesso detto non anticipante a sua volta.

3λ, misura di Lebesgue

14

(15)

Lezione 8: 17/03/2017 15

Stochastic Differential Equations a.a. 2016-17

Lezione del 17/03/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

4 La formula di Itô

4.1 La "ricetta "

Come nel caso ordinario di integrali di Riemann, in cui non si usa la definizione per svolgere i calcoli, bensì il teorema fondamentale del calcolo e la chain rule, così anche nel caso stocastico esiste una versione di Itô della chain rule, chiamata formula di Itô.

In questa lezione vediamo l’operatività della formula, come fosse una "ricetta" senza enunciare il teorema in maniera rigorosa.

Sia W

t

un processo di Wiener e sia f : R → R, f ∈ C

2

. Allora f(W

t

) è un nuovo processo e, data una partizione 0 = t

0

< t

1

< · · · < t

n

= t

f (W

t

) − f (W

0

)

(∗)

=

n−1

X

i=0

f (W

ti+1

) − f (W

ti

) 

(∗∗)

=

n−1

X

i=0

f

0

(W

ti

) W

ti+1

− W

ti

 + 1 2

n−1

X

i=0

f

00

(W

ti

) W

ti+1

− W

ti



2

+ errore

ove (*) segue dal fatto che il termine di destra è una serie telescopica, mentre (**) è lo sviluppo in serie di Taylor.

Inoltre abbiamo

n−1

X

i=0

f

0

(W

ti

) W

ti+1

− W

ti

 −−→

L2

Z

t 0

f

0

(W

s

)dW

s

1

2

n−1

X

i=0

f

00

(W

ti

) W

ti+1

− W

ti



2

− →

P

1 2

Z

t 0

f

00

(W

s

)ds

Ne segue una prima formula di Itô

f (W

t

) − f (W

0

) = Z

t

0

f

0

(W

s

)dW

s

+ 1 2

Z

t 0

f

00

(W

s

)ds. (4.1.1)

Esempio 4.1. Prendendo f(x) = x

2

, da cui f

0

(x) = 2x e f

00

(x) = 2 W

t2

=

Z

t 0

2W

s

dW s + 1 2

Z

t 0

2ds

= 2 Z

t

0

W

s

dW s + t

(16)

o, in con la notazione differenziale

d(W

t2

) = 2W

t

dW

t

+ dt Integrando su [0, T ]

Z

T 0

d(W

t2

) = W

T2

− W

02

= 2 Z

T

0

W

s

dW s + T da cui

Z

T 0

W

t

d(W

t

) = W

T2

− T

2 . (4.1.2)



Sia ora Y

t

= Y

0

+ R

t

0

A

s

ds + R

t

0

Z

s

dW

s

con Y

0

= Y (0) , A

t

, Z

t

processi dati. Il primo integrale è alla Stiljies mentre il secondo è un integrale di Itô. Allora la (4.1.1), in forma differenziale, diventa

df (Y

t

) = f

0

(Y

t

)dY

t

+ 1

2 f

00

(Y

t

)(dY

t

)

2

(4.1.3)

ove (dY

t

)

2

è calcolato in accordo alle regole

ordine 2

z }| { dt · dt =

ordine32

z }| { dt · dW

t

=

ordine32

z }| {

dW

t

· dt = 0 (4.1.4a)

dW

t

· dW

t

= dt. (4.1.4b)

Con la notazione integrale

f (Y

t

) − f (Y

0

) = Z

t

0

f

0

(Y

s

)A(s)ds + Z

t

0

f

0

(s)Z

s

dW

s

+ 1 2

Z

t 0

f

00

(Y

s

)Z

s2

ds. (4.1.5) Vedremo più avanti di formalizzare questa formula.

16

(17)

Lezione 9: 22/03/2017 17

Stochastic Differential Equations a.a. 2016-17

Lezione del 22/03/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

Vediamo un esercizio

X

t

= f (t, W

t

) = e

 b−σ22

t+σWt

(4.1.6)

evidentemente X

0

= 1 . Applichiamo la formula di Itô df

dt = ∂f

∂t dt + ∂f

∂x dx +

 1     2

2

f

∂t

2

(dt)

2

+ 1 2

2

f

∂x

2

(dx)

2

+

 1    2

2

f

∂t∂x (dx)(dt) df

dt = ∂f

∂t dt + ∂f

∂x dx + 1 2

2

f

∂x

2

dt df (t, x)

dt =

 b − σ

2

2

 e

b−σ22  t+σWt

dt + σe

b−σ22  t+σWt

dx + 1 2 σ

2

e

b−σ22 t+σWt

dt

= be

 b−σ22

t+σWt

dt + σe

 b−σ22 

t+σWt

dx da cui

dX

t

= bX

t

dt + σX

t

dW

t

(4.1.7)

in forma integrale

X

T

− X

0

= b Z

T

0

X

t

dt + σ Z

T

0

X

t

dW

t

Possiamo anche vederlo in un altro modo: Y

t

=  b −

σ22



t + σW

t

, dY

t

= 

b −

σ22



dt + σdW

t

e X

t

= F (Y

t

) = e

Yt

. Allora,

dX

t

= F

0

(Y

t

)dY

t

+ 1

2 F

00

(Y

t

)(dY

t

)

2

= X

t

dY

t

+ 1

2 X

t

(dY

t

)

2

= bX

t

dt + σX

t

dW

t

giungendo alla stessa soluzione.

Abbiamo finora dimostrato l’esistenza di una soluzione di (4.1.7). Per l’unicità della soluzione procediamo così

Consideriamo una soluzione di (4.1.7) che chiameremo ancora X

t

e generalizziamo a X(0) = X

0

. Riscriviamo (4.1.7)

X

t

= X

0

e

b−σ22  t+σWt

e−σW

t

X

t

= X

0

e

 b−σ22 

t

(18)

prendiamo la (eventuale) soluzione X

t

e, dopo averla moltiplicata per e

−σWt

, ne consideriamo il differenziale ricordando che si tratta di un prodotto di processi stocastici

d X

t

e

−σWt

 = dX

t

e

−σWt

+ + X

t

de

−σWt

+ + dX

t

de

−σWt

d X

t

e

−σWt

 = bX

t

e

−σWt

dt +

(( (( (( ( σX

t

e

−σWt

dW

t

+ (( (( (( ( (

−σX

t

e

−σWt

dW

t

+ 1

2 σ

2

X

t

e

−σWt

dt+

− σ

2

X

t

e

−σWt

dt d X

t

e

−σWt

 =

 b − σ

2

2



e

−σWt

dt.

Chiamando Y

t

= X

t

e

−σWt

dY

t

=

 b − σ

2

2

 Y

t

dt da cui, risolvendo, otteniamo l’unicità

Y

t

= e

 b−σ22

t

Y

0

X

t

e

−σWt

= e

 b−σ22

t

X

0

.

 Osservazione 4.1.

• (4.1.7) è detto moto browniano geometrico e σ volatilità.

• Nella realtà σ non è costante.

• Dato X

0

> 0 tutte le traiettorie sono positive.

18

(19)

Stochastic Differential Equations a.a. 2016-17

Lezione del 24/03/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

Calcoliamo media e varianza di R

0T

X

t

dW

t

con W

t

processo di Wiener e X

t

∈ M

2

([0, T ]) ∩ C

1

([0, T ])

E

"

Z

T 0

X

t

dW

t

#

= 0 (4.1.8)

E

 Z

T

0

X

t

dW

t

!

2

= E

"

Z

T 0

X

t2

dt

#

(4.1.9)

L’esercizio svolto si trova sul pagina del corso http://www.science.unitn.it/~tubaro/corso5/lez3.pdf.

Osservazione 4.2.

• La (4.1.9) ci permetterà di dimostrare che M

2

∩ C

1

([0, T ]) è denso in M

2

.

• Niente assicura la continuità delle traiettorie ω →  R

T

0

X

t

dW

t



(ω) per cui avremo necessità di un rappresentante continuo (se esiste) nella classe di equivalenza. Si sfrutterà la proprietà di martingala, dimostrata nella prossima lezione.

19

(20)

20 Lezione 11: 29/03/2017

Stochastic Differential Equations a.a. 2016-17

Lezione del 29/03/2017

Prof: Luciano Tubaro

Scritto da: xxx

In questa lezione dimostreremo che l’integrale di Itô è una martingala.

Proposizione 1. Sia X

t

∈ M

2

∩ C

1

allora valgono:

i.

E

Z

t 0

X

r

dW

r

F

s



= Z

s

0

X

r

dW

r

(4.1.10)

ii.

E

"

Z

t 0

X

r

dW

r



2

F

s

#

= E

Z

s 0

X

r2

d

r

F

s



(4.1.11)

Dimostrazione.

E

Z

t 0

X

r

dW

r

F

s



= E

Z

s 0

X

r

dW

r

+ Z

t

s

X

r

dW

r

F

s



= E

Z

s 0

X

r

dW

r

F

s

 + E

Z

t s

X

r

dW

r

F

s



Ora,

E

Z

s 0

X

r

dW

r

F

s



= Z

s

0

X

r

dW

r

Z

t s

X

r

dW

r

= X

t

W

t

− X

s

W

s

− Z

t

s

W

r

X

r0

dr

= X

t

W

t

− X

s

W

s

± X

s

W

t

− Z

t

s

W

r

X

r0

dr

= X

s

(W

t

− W

s

) + (X

t

− X

s

)W

t

− Z

t

s

W

r

X

r0

dr

= X

s

(W

t

− W

s

) +

Z

t s

X

r0

dr

 W

t

Z

t s

W

r

X

r0

dr

= X

s

(W

t

− W

s

) + Z

t

s

(W

t

− W

r

)X

r0

dr

E

Z

t s

X

r

dW

r

F

s



= E



X

s

(W

t

− W

s

) + Z

t

s

(W

t

− W

r

)X

r0

dr F

s



= E h

X

s

(W

t

− W

s

) F

s

i + E

Z

t s

(W

t

− W

r

)X

r0

dr F

s



= X

s

E h

(W

t

− W

s

) F

s

i

+ Z

t

s

E h

(W

t

− W

r

)X

r0

F

s

i

dr

(21)

Lezione 11: 29/03/2017 21

E h

(W

t

− W

s

) F

s

i

= E [(W

t

− W

s

)] = 0

Z

t s

E h

(W

t

− W

r

)X

r0

F

s

i

dr = Z

t

s

E

E h

(W

t

− W

r

)X

r0

F

r

i

| {z }

X0rE(Wt−Wr)=0

F

s

 dr

= 0 La (i.) è quindi verificata

E

Z

t 0

X

r

dW

r

F

s



= Z

s

0

X

r

dW

r

(4.1.12)

Per quanto riguarda la dimostrazione di (ii.) è data per esercizio

4

. Esercizio 4.1.

E

" Z

t 0

X

r

dW

r



2

− Z

t

0

X

r2

d

r

F

s

#

=

Z

s 0

X

r

dW

r



2

− Z

s

0

X

r2

d

r

(4.1.13)

cioè E   R

t

0

X

r

dW

r



2

− R

t 0

X

r2

d

r

F

s



è ancora una martingala. 

Ricordiamo il seguente

Teorema 2 (Teorema di Meyer). Se M

t

è una martingala allora esiste un processo A

t

adattato, crescente tale per cui

M

t2

− A

t

è una martingala. Nel caso in di martingale continue il processo A

t

viene indicato con hM i

t

e chiamato Crochèt di Meyer.

Vediamo ora come è possibile estendere l’integrale di Itô al tempo t

I(X)

t

= Z

t

0

X

r

dW

r

(4.1.14)

a {X

t

} ∈ M

2

.

Proposizione 3. È possibile approssimare ogni processo X

t

∈ M

2

con una successione di processi in M

2

∩C

1

, in altre parole M

2

∩ C

1

è denso in M

2

.

Dimostrazione. Sia X

t

∈ M

2

∩ C

1

Di I(X)

t

sappiamo i. che è un processo di media 0

ii. calcolarne la varianza e questa sarà la chiave della dimostrazione

iii. che è una martingala e conosciamo il processo crescente A

t

associato a I

2

(X)

t

: A

t

= R

t 0

X

r2

dr

4Si trova svolto sul sito del Prof. http://www.science.unitn.it/~tubaro/corso5/lez3.pdf.

(22)

Prendiamo perciò una successione n X

t(n)

o

n

in M

2

∩C

1

tale che X

t(n)

→ X

t

∈ M

2

nella norma di L

2

([0, T ]×Ω) . Ogni successione convergente è di Cauchy, segue X

t(n)

− X

t(m)

→ 0 da un certo m in poi, sempre nella stessa norma, i.e.

E

Z

t 0



X

r(n)

− X

r(m)



2

dr



→ 0

Ora,

Z

t 0

X

r(n)

dW

r

− Z

t

0

X

r(m)

dW

r

= Z

t

0



X

r(n)

− X

r(m)

 dW r

E

" Z

t 0

X

r(n)

dW

r

− Z

t

0

X

r(m)

dW

r



2

#

(∗)

= E

" Z

t 0



X

r(n)

− X

r(m)

 dW r



2

#

= E

Z

t 0

 X

r(n)

− X

r(m)



2

dr



→ 0

ove in (*) abbiamo usato la chiave.

Quindi R

0t

X

r(n)

dW

r

è una successione di Cauchy, L

2

(Ω) è uno spazio completo per cui otteniamo che esiste il limite per n → ∞ di R

0t

X

r(n)

dW

r

.

Anche per il limite valgono le proprietà viste finora per l’integrale di Itô.

22

(23)

Lezione 12: 31/03/2017 23

Stochastic Differential Equations a.a. 2016-17

Lezione del 31/03/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

Relazione tra processi stocastici ed equazioni alle derivate parziali.

Cerchiamo una soluzione u(x) al seguente problema

( ∆u = 0 x ∈ Θ, aperto

u = f x ∈ ∂Θ (4.1.15)

x

Figura 4.1

Fissiamo un punto x da cui facciamo partire un moto Browniano bidimensionale x + W

t

con W

t

∈ R

2

. Per ogni traiettoria esiste t ∈ [0, +∞) in cui la traiettoria toccherà la frontiera ∂Θ per la prima volta, indichiamo questo tempo con τ

x

(ω) . Di conseguenza il punto "toccato" sarà x + W

τx

.

Sia f (x + W

τx

) una funzione del punto aleatorio sulla frontiera, è una variabile casuale e possiamo perciò calcolarne il valore d’aspettazione; allora (come vedremo in seguito) esiste un teorema che afferma

u(x) = E [f (x + W

τx

)] (4.1.16)

Il problema si può generalizzare a

( Lu = 0 x ∈ Θ, aperto

u = f x ∈ ∂Θ (4.1.17)

con L operatore ellittico del secondo ordine

Lv(x) = 1 2

n

X

i,j=1

a

ij

2

v

∂x

i

∂x

j

+

n

X

i=1

b

i

(x) ∂v

∂x

i

(4.1.18)

(24)

ove A = {a

ij

}

i,j

funzioni date e b = (b

1

, . . . , b

n

) . Inoltre A è semidefinita positiva, i.e. hAξ, ξi ≥ 0 per ogni ξ e hAξ, ξi ≥ λ|ξ|

2

, λ > 0 (operatore ellittico).

Poniamo σ = √ A

( dX

t

= b(X

t

)dt + σ(X

t

)dW

t

X

0

= x ∈ Θ

X

t

= x + Z

t

0

b(X

r

)dr + Z

t

0

σ(X

r

)dW

r

(4.1.19)

(4.1.19) è un processo di diffusione che dipende da A e b. Come prima, vale (4.1.16).

Curiosità: nel caso di equazioni sstocastiche, poichè si considera σ = √

A , si può parlare di soluzioni anche nel caso ipo-ellittico in cui A è solamente semidefinita positiva, senza ulteriori vincoli (generalizzazione Bonaccorsi, Mazzucchi).

24

(25)

Stochastic Differential Equations a.a. 2016-17

Lezione del 5/04/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

Alcune definizioni Definizione 4.1.

i. Convoluzione. Siano f, g ∈ L

1

(R) definiamo la convoluzione di f e g:

(f ∗ g)(x) = Z

R

f (x − y)g(y)dy

ii. Supporto compatto. Una funzione è a supporto compatto, i.e. f ∈ C

C

se al di fuori di un compatto K è nulla e C

(K) .

Esempio 4.2. Esempio di una funzione in C

C

(R) ρ(x) =

( ce

1−x21

x ∈ [−1, 1]

0 altrimenti (4.1.20)

con costante c tale che R

−∞+∞

ρ(x)dx = 1 . Sia f ∈ L

p

allora

(f ∗ g)(x) = Z

+∞

−∞

ρ(x − y)f (y)dy.

Introduciamo , per  > 0

ρ



(x) = 1

 ρ  x



 (4.1.21)

Z

+∞

−∞

ρ



(x)dx = 1 il supporto di ρ



(x) è

x

≤ 1 e per  → 0 sia ha che ρ



→ δ di Dirac.

Si osservi che f ∗ ρ

 in Lp

−−−→ f , dunque abbiamo una successione di funzioni C

+∞

che approssimano f. Inoltre

se f ha supporto compatto, anche f ∗ ρ



lo ha. 

Sia X

t

∈ Λ

2

e facciamo la convoluzione con la ρ



definita in (4.1.21) in modo da regolarizzare il processo traiettoria per traiettoria ed ottenere così un processo continuo (si veda la dimostrazione [Bal00, Lemma 6.2]).

Usiamo un piccolo accorgimento:

(J



X)(t) :=

Z

+∞

−∞

ρ



(t − s − )X

s

(ω)ds (4.1.22)

l’aggiunta dell’ implica che t − 2 ≤ s ≤ t ossia fa in modo che s non viaggi fino a t +  e conserviamo quindi per X

s

l’essere adattato alla filtrazione. Abbiamo inoltre che (J



X)(·) → X(·) , ossia

Z

T 0

[(J



X)(t) − X

t

(ω)]

2

dt −−→ 0

q.c.

 → 0. (4.1.23)

25

(26)

Stochastic Differential Equations a.a. 2016-17

Lezione del 7/04/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

Rispetto a M

2

, Λ

2

rilassa la condizione E  R

β

α

|X

s

|

p

ds 

< +∞ a P  R

β

α

|X

s

|

p

ds < +∞ 

= 1 e abbiamo che la prima implica la seconda, dunque M

2

⊂ Λ

2

.

L’estensione della definizione dell’integrale di Itô a Λ

2

∩ C

1

è perciò naturale, poichè l’insieme (

ω ∈ Ω : Z

T

0

|X

s

(ω)|

2

= +∞

)

ha misura nulla.

Dimostriamo ora che

Proposizione 4. Λ

2

∩ C

1

è denso in Λ

2

.

Dimostrazione. La chiave in questo caso sarà la seguente disuguaglianza

P

Z

T 0

X

s

dW

s

> 

!

≤ P Z

T

0

X

s2

ds > ρ

! + ρ



2

(4.1.24)

che verrà dimostrata in seguito.

Dando momentaneamente per buono il fatto che la chiave usata nella precedente dimostrazione sia valida per processi in Λ

2

∩ C

1

, vediamo la seguente

Proposizione 5. La disuguaglianza

P

Z

T 0

X

s

dW

s

> 

!

≤ P Z

T

0

X

s2

ds > ρ

! + ρ



2

(4.1.25)

è verificata per ogni X ∈ Λ

2

. Dimostrazione.

26

(27)

Lezione 15: 12/04/2017 27

Stochastic Differential Equations a.a. 2016-17

Lezione del 12/04/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

Dimostriamo ora la disuguaglianza ampiamente utilizzata finora

P

Z

T 0

X

s

dW

s

> 

!

≤ P Z

T

0

X

s2

ds > ρ

! + ρ



2

(4.1.26)

per ogni processo X

t

∈ Λ

2

∩ C

1

e ∀, ρ > 0.

Dimostrazione. Per ogni t ∈ [0, T ] definiamo il processo Y

ρ

(t) come

Y

ρ

(t) =

( X

t

se R

0T

X

r2

dr ≤ ρ

0 altrimenti (4.1.27)

Y

ρ

(t) ∈ M

2

per cui valgono le proprietà

i. E  R

T

0

Y

ρ

(r)dW

r



= 0

ii. Var  R

T

0

Y

ρ

(r)dW

r



= E

  R

T

0

Y

ρ

(r)dW

r



2



= E h R

T

0

Y

ρ

(r)

2

dr i.

Poniamo inoltre A

ρ

= n ω : R

T

0

X

r2

dr ≤ ρ o.

P

Z

T 0

X

s

dW

s

> 

!

= P

Z

T 0

X

s

dW

s

>  ∩ A

ρ

! + P

Z

T 0

X

s

dW

s

>  ∩ A

Cρ

!

≤ P

Z

T 0

X

s

dW

s

>  ∩ A

ρ

!

+ P A

Cρ



= P

Z

T 0

Y

ρ

(s)dW

s

>  ∩ A

ρ

!

+ P A

Cρ



≤ P

Z

T 0

Y

ρ

(s)dW

s

> 

!

+ P A

Cρ



Ora,

P A

Cρ

 = P Z

T

0

X

s2

ds > ρ

!

(4.1.28)

(28)

costituisce il primo termine della disequazione 4.1.25. Usando la disuguaglianza di Chebyshev

P

Z

T 0

Y

ρ

(s)dW

s

> 

!

≤ 1



2

E

 Z

T

0

Y

ρ

(s)dW

s

!

2

= 1



2

E

"

Z

T 0

Y

ρ

(r)

2

dr

#

Ricordando la definizione di Y

ρ

(r) vediamo che

Y

ρ2

(t)(ω) =

( X

t2

(ω) su n ω : R

T

0

X

r2

(ω)dr ≤ ρ o 0 altrimenti

per cui

Z

T 0

Y

ρ

(r)

2

dr ≤ ρ. (4.1.29)

E abbiamo la tesi.

Si veda http://www.science.unitn.it/~tubaro/corso5/tub.pdf, per chiarimenti sulla dimostrazione data dal Baldi [Bal00, Thm. 6.8].

28

(29)

Lezione 16: 19/04/2017 29

Stochastic Differential Equations a.a. 2016-17

Lezione del 19/04/2017

Prof: Luciano Tubaro

Scritto da: Giulia Bertagnolli

Di seguito indicheremo con M = M

2

([0, T ]) : da Def (3.1), X ∈ M è un processo progressivamente misurabile rispetto alla filtrazione del processo di Wiener (F

t

) . Finora abbiamo visto che per un tale X ∈ M valgono:

(i)

t → Z

t

0

X

s

dW

s

(4.1.30)

è una martingala rispetto a (F

t

) e posso sceglierla (all’interno della classe di equivalenza) continua.

(ii)

t →

Z

t 0

X

s

dW

s



2

− Z

t

0

X

s2

ds (4.1.31)

è una martingala rispetto a (F

t

) . Se X ∈ Λ = Λ

2

([0, T ]) perdiamo qualcosa

(iii)

t → Z

t

0

X

s

dW

s

(4.1.32)

è una martingala locale

5

. (iv) ∀ρ,  > 0 vale

P



Z

t 0

X

s

dW

s

> 



≤ P

Z

t 0

X

s2

d

s

> ρ

 + ρ



2

(4.1.33)

(F

t

) filtrazione non anticipante per W

t

, allora

E(W

t

− W

s

|F

s

) = E(W

t

− W

s

) = 0

E(W

t

− W

s

|F

s

) = E(W

t

|F

s

) − E(W

s

|F

s

) = 0 E(W

t

|F

s

) = W

s

e abbiamo la proprietà di martingala del processo di Wiener.

Da processo di Wiener a Martingala. Sia ora M

t

una martingala rispetto a una filtrazione (F

t

) a traiettorie continue. Sia inoltre X ∈ C

1

∩ M

M2

. Sostituiamo il processo di Wiener con M

t

e consideriamo l’integrale di Itô

Z

T 0

X

s

dM

s

(4.1.34)

5i.e. ho una successione crescente di tempi di arresto (τn)n tali che il processo stoppato ad ogni tempo (Mt∧τn)t è una (Ft)t-martingala, Def (6.23) del [Bal00].

(30)

30 Lezione 16: 19/04/2017

come limite delle somme

n−1

X

i=0

X

si

(M

si+1

− M

si

) =X

T

M

T

− X

0

M

0

n−1

X

i=0

M

si+1

(X

si+1

− X

si

) (4.1.35)

→ X

T

M

T

− X

0

M

0

− Z

T

0

X ˙

s

M

s

ds (4.1.36)

Denotiamo con A

t

la variazione quadratica di M

t

, per ”π” → +∞

n−1

X

i=0

(M

ti+1

− M

ti

)

2

− →

P

A

t

(4.1.37)

A

t

è un processo a traiettorie positive, crescenti, continue, che spesso è indicato anche con hMi

t

(il crochet di P.A. Meyer ). Si ha che

M

t2

− A

t

è una martingala (4.1.38)

E((M

t

− M

s

)

2

| F

s

) = A

t

− A

s

(4.1.39) Teorema 6.

E Z

T

0

X

s

dM

s

!

= 0 (4.1.40)

E

 Z

T

0

X

s

dM

s

!

2

= E Z

T

0

X

s2

dA

s

!

(4.1.41)

E

Z

t 0

X

r

dM

r

| F

s



= Z

s

0

X

r

dM

r

(4.1.42)

E

"

Z

t s

X

r

dM

r



2

| F

s

#

= E

Z

t s

X

r2

dA

r

| F

s



(4.1.43)

La dimostrazione delle uguaglianze (4.1.41) - (4.1.43 è riportata di seguito (credit: Prof. Tubaro).

Dimostrazione. La (4.1.40) è facile.

Per la (4.1.41) consideriamo



X

0

(M

t

− M

0

) + Z

t

0

(M

t

− M

r

) ˙ X

r

dr 

2

= X

02

(M

t

− M

0

)

2

+ 2X

0

(M

t

− M

0

)

Z

t 0

(M

t

− M

r

) ˙ X

r

dr + Z

t

0

Z

t 0

(M

t

− M

r

) ˙ X

r

(M

t

− M

ρ

) ˙ X

ρ

dr dρ dove il secondo addendo è conveniente riscriverlo come

X

0

(M

t

− M

0

) Z

t

0

(M

t

− M

r

) ˙ X

r

dr = X

0

 Z

t

0

(M

t

− M

r

)

2

X ˙

r

dr + Z

t

0

(M

r

− M

0

) (M

t

− M

r

) ˙ X

r

dr  il cui valore di aspettazione risulta

EX0

Z

t 0

(A

t

− A

r

) ˙ X

r

dr = E − A

t

X

02

+ X

0

Z

t 0

X

r

dA

r



Riferimenti

Documenti correlati

[r]

[r]

Ad esempio per il punto (−1, −2) si riesce addirittura ad “indovinare” una soluzione esplicita: seguendo la direzione iniziale le direzioni successive sono tutte allineate e quindi

quale valore iniziale del metodo di punto fisso si sceglie il valore fornito da Eulero esplicito... Si calcolino (o plottino in

La soluzione di una equazione differenziale ordinaria lineare di ordine n si pu` o sempre ricondurre alla soluzione di un sistema lineare di n equazioni differenziali ordinarie

La soluzione generale pu` o dover soddisfare determinate condizioni

I per le equazioni lineari con condizioni al contorno lineari vale il principio di sovrapposizione : la soluzione di un problema avente dati (cio` e l’insieme di condizioni al

A questo punto lo schema di soluzione per un potenziale generico monodimensionale che sia rapresentabile da una serie di segmenti orizzontali e verticali, con pareti infinite, vale