Diario delle Lezioni di Equazioni Differenziali Stocastiche
Prof. Luciano Tubaro 5 luglio 2017
Indice
1 Equazioni Differenziali Ordinarie. 3
2 Equazioni risolvibili "con le mani" 4
2.1 Ornstein - Uhlenbeck (1930) . . . . 4 2.2 Brownian Bridge . . . . 7 2.2.1 Generalizzazione del Brownian Bridge . . . . 9
3 Integrale stocastico 11
3.1 Definizione 6.1 Baldi . . . 11 3.2 Integrale Stocastico . . . 12
4 La formula di Itô 15
4.1 La "ricetta" . . . 15 4.2 Formula Generale di Itô 1-dimensionale . . . 35
5 Introduzione alle equazioni differenziali stocastiche (SDE) 36
5.1 Esempi di particolari ODE . . . 37
6 Equazioni differenziali stocastiche: caso n -dimensionale 38
7 Formula di Itô n -dimensionale 40
8 Esempi e applicazioni 41
9 Proprietà delle soluzioni delle SDE 44
1
10 Esistenza e unicità delle soluzioni per SDE 45
11 Introduzione ai semigruppi di operatori lineari 48
11.1 Relazione con le equazioni differenziali . . . 49 11.2 Relazione con le SDE . . . 49
12 Alcune applicazione 58
12.1 Il filtro di Kalman-Bucy . . . 58 12.2 La formula di Black-Scholes . . . 59
2
Lezione 1: 22/02/2017 3
Stochastic Differential Equations a.a. 2016-17
Lezione del 22/02/2017
Prof: Luciano Tubaro
Scritto da: Giulia Bertagnolli1 Equazioni Differenziali Ordinarie.
Primo Ordine Consideriamo l’equazione
( x = b(x(t)) ˙ b : R → R x(0) = x
0(1.0.1)
Se b(x(t)) = c(t)x(t), con c : R → R è continua, è facile vedere che x(t) = x
0e
C(t), ove C è una primitiva di c , è soluzione di (1).
In generale esistenza e unicità della soluzione sono garantite ad esempio nel caso b sia Lipschitziana i.e. esiste una costante C tale che |b(x) − b(y)| ≤ C|x − y|, cfr [Wal98]; nel caso b sia continua si veda il teorema di Peano.
Secondo Ordine.
( x = P (x, y) ˙
˙
y = Q(x, y) Si consideri ad esempio
¨
x = −ω
2x
˙
x(0) = ˙ x
0x(0) = x
0(1.0.2)
Due modi per risolvere 1.0.2
(i) cercare una soluzione particolare del tipo e
λt, derivando
dtd22(e
λt) = λ
2e
λt, λ
2e
λt= −ω
2e
λtda cui otteniamo x(t) = A
1cos(ωt) + A
2sin(ωt) .
(ii) Trasformare l’equazione di secondo grado in un sistema di equazioni ( x = y ˙
˙
y = −ω
2x
Riscrivendo in forma matriciale, poniamo z = (x, y)
t, A =
0 1
−ω
20
in modo che
˙z = Az (1.0.3)
4 Lezione 1: 22/02/2017
In questo caso dobbiamo prendere l’esponenziale di matrice così definito
e
A:= Id + A + A
22 + A
36 + · · · =
∞
X
n=0
A
nn!
e allo stesso modo e
At, che può essere derivato d
dt e
At= Id + tA + t
2A
22 + t
3A
36 + · · · =
∞
X
n=0
t
nA
nn!
Allora z(t) = z
0e
tAè soluzione di (1.0.3).
1Quanto visto può essere generalizzato per sistemi di n equazioni.
Equazioni Differenziali Stocastiche
dX = b(X)dt + σ(X)dW
ove X = X
tè un processo stocastico e W = W
tè un processo di Wiener, continuiamo ad usare la notazione del calcolo differenziale, nonostante quanto scritto non abbia senso, poiché dW non è un vero differenziale in quanto W
tnon è derivabile.
2 Equazioni risolvibili "con le mani"
Come nei casi appena visti nell’ambito delle equazioni differenziali ordinarie, anche tra quelle stocastiche vi sono esempi di equazioni a cui soluzione può essere trovata direttamente, senza bisogno di teoremi di esistenza. Di seguito vedremo alcuni esempi, già introdotti nel corso di Processi Stocastici, cfr [FPTT08]
([CT12] - en).
2.1 Ornstein - Uhlenbeck (1930)
X(t) = X
0+ λ Z
t0
X(s)ds + σW
t(2.1.1)
ove W
tè un processo di Wiener, X ∈ L
1(0, t) , da cui segue che X(t) − σW
tè derivabile. Ora poniamo
y(t) := X(t) − σW
t= X
0+ λ Z
t0
X(s)ds (2.1.2)
˙
y(t) = λX(t) = λX(t) + λσW
tper cui possiamo scrivere
y(t) = λy(t) + λσW ˙
t(2.1.3a)
y(0) = X
0(2.1.3b)
1Prima pagina di esercizi sul sito http://www.science.unitn.it/~tubaro/corso5/lez1.pdf.
Dopodiché (2.1.3a) diventa
˙
y(t) − λy(t) = λσW
te
−λt( ˙ y(t) − λy(t)) = e
−λt(λσW
t) y(t)e
−λt0= e
−λt(λσW
t) y(t)e
−λt− X
0= λσ
Z
t 0e
−λsW
sds y(t) = e
λtX
0+ λσ
Z
t 0e
(t−s)λW
sds (2.1.4)
Abbiamo con questo dimostrato l’unicità della soluzione, se questa esiste. L’esistenza si ottiene mostrando che (2.1.4) soddisfa (2.1.3a - 2.1.3b). Ricordando (2.1.2) possiamo scrivere la soluzione di 2.1.1
X(t) = X
0e
λt+ λσ Z
t0
e
(t−s)λW
sds + σW
t. (2.1.5)
5
Stochastic Differential Equations a.a. 2016-17
Lezione del 24/02/2017
Prof: Luciano Tubaro
Scritto da: Giulia BertagnolliOrnstein - Uhlenbeck - Continuazione La soluzione dell’equazione di Ornstein Uhlenbeck può essere scritta anche come
X(t) = X
0e
λt+ σ
λ
Z
t 0e
(t−s)λW
sds + (W
t− W
0)
= X
0e
λt+ σ Z
t0
e
(t−s)λdW
s(2.1.6)
Ora, W
t= W
t(ω) e anche X
0= X
0(ω) sono processi stocastici. Anche (2.1.6) è aleatoria, poiché Z
t0
e
(t−s)λdW
sè limite di somme finite di variabili casuali
n−1
X
i=0
e
λ(t−si)(W
si+1(ω) − W
si(ω)), inoltre essendo W
tun processo di Wiener abbiamo
σ Z
t0
e
(t−s)λdW
s(ω) ∼ N
0, σ
2e
2λt− 1 2λ
(2.1.7)
Assumendo X
0indipendente dal processo di Wiener e X
0∼ N (m, γ
2) si ha che X(t) è un processo Gaussiano di media me
λte varianza e
2λtγ
2+ σ
2 e2λt2λ−1.
Invece di lavorare con λ < 0 si preferisce λ > 0, di conseguenza
dX
t= −λX
tdt + σW
t(2.1.8)
con equazione integrale associata
X(t) = X
0− λ Z
t0
X(s)ds + σW
t(2.1.9)
e soluzione
X(t) = X
0e
−λt+ σ Z
t0
e
−(t−s)λdW
s(2.1.10)
che risulta essere distribuita come una N
0,
σ2λ2per t → +∞.
6
Lezione 3: 01/03/2017 7
Stochastic Differential Equations a.a. 2016-17
Lezione del 01/03/2017
Prof: Luciano Tubaro
Scritto da: Giulia Bertagnolli2.2 Brownian Bridge
Un altro esempio di equazione la cui soluzione si può trovare direttamente è il Browniano Bridge
dX(t) = − X(t) − b
T − t dt + W
t(2.2.1a)
X(0) = a (2.2.1b)
La sua equazione integrale assocaita è
X(t) = a − Z
t0
X(s) − b
T − s ds + W
t. (2.2.2)
Ponendo y(t) = X(t) − W
tsi ha
y(t) = − Z
t0
y(s) + W
s− b T − s ds
= − Z
t0
y(s) − b T − s ds −
Z
t 0W
sT − s ds Derivando
˙
y(t) = − y(t) − b T − t − W
tT − t
˙
y(t) + y(t) − b
T − t = − W
tT − t 1
T − t y + ˙ y(t) − b
(T − t)
2= − W
t(T − t)
2con t ∈ [0, T ] e e T < T e , per evitare la singolarità in t = T .
Con passaggi simili a quelli già visti
y(t) = b + (a − b)(T − t)
T − (T − t) Z
t0
W
s(T − s)
2ds e
X(t) = b + (a − b)(T − t)
T + W
t− (T − t) Z
t0
W
s(T − s)
2ds (2.2.3)
per t ∈ [0, t).
Se t → T , allora b +
a−bT(T − t) → b , W
t→ W
Te, usando de l’Hôpital
Rt 0
Ws (T −s)2ds
1 T −t
→ W
T, da cui lim
t→T
X(t) = b.
Misurabilità. Sia π una partizione 0 = s
0≤ s
1≤ · · · ≤ s
n= t dell’intervallo [0, t]. Con π → ∞ si intende che il numero di punti s
0, . . . s
nva all’infinito producendo partizione via via più fini, i.e. |π| = max
i∈{0,n−1}|t
i+1− t
i| → 0 . Sia inoltre f ∈ C
1Z
t 0f (s)dW
s= lim
π→∞
n−1
X
i=0
f (t
i)(W
ti+1− W
ti)
(1)
= f (t)W
t− lim
π→∞
n−1
X
i=0
W
ti+1(f (t
i+1− f (t
i)))
(2)
= f (t)W
t− Z
t0
W
sf
0(s)ds
ove in (1) abbiamo integrato per parti e in (2), per l’ipotesi su f, il limite esiste ed è proprio l’integrale di Riemann-Stieltjes.
Possiamo arrivare alla soluzione anche seguendo l’Oksendal, [Oks13, pag.22], infatti, per un qualsiasi processo W
tnullo in 0 W
t= R
t0
f (s)dW
scon f(s) = 1 e Z
t0
f (s)dW
s8
Stochastic Differential Equations a.a. 2016-17
Lezione del 03/03/2017
Prof: Luciano Tubaro
Scritto da: Giulia Bertagnolli2.2.1 Generalizzazione del Brownian Bridge
dX
t= b(X
t)dt + σ(t)W
t(2.2.4)
X(0) = X
0(2.2.5)
con b : R → R, che può non essere lineare; ma anche b : [0, T ]R → R. Idem per σ.
L’equazione integrale associata è
X(t) = X
0+ Z
t0
b(X(s))ds + Z
t0
σ(X(s))dW
s(2.2.6)
in cui l’ultimo termine a destra dell’uguale è un processo stocastico che definiremo in seguito.
Vediamo un caso particolare nel seguente esempio
Esempio 2.1. Sia W
tun processo di Wiener, ma anche un qualsiasi processo tale che W
0= 0 . Allora Z
t0
W
sdW
s= 1
2 W
t2− 1
2 t (2.2.7)
Sia π : 0 = s
0< · · · < s
n= t una partizione dell’intervallo [0, t] e consideriamo le somme
s
π=
n−1
X
i=0
W
si(W
si+1− W
si)
S
π=
n−1
X
i=0
W
si+1(W
si+1− W
si) dopodichè ne prendiamo la differenza e la somma
S
π− s
π=
n−1
X
i=0
(W
si+1− W
si)
2s
π+ s
π= W
t2.
Per t = lim
π→∞P
n−1i=0
(W
si+1− W
si)
2, in L
2(cfr. Exercise 2.17 [Oks13]). Da cui S
π= 1
2 (S
π+ s
π+ S
π− s
π) → W
t2+ t 2 s
π= 1
2 (S
π+ s
π− (S
π− s
π)) → W
t2− t
2
9
10 Lezione 4: 03/03/2017
Osservazione 2.1. Nel considerare R
0tW
s(ω)dW
s(ω) come limite delle somme P
n−1i=0W
s∗i(ω)(W
si+1− W
si)(ω) con s
∗i∈ [s
i, s
i+1] fa differenza dove il punto s
∗iè preso; dato α ∈ [0, 1]
s
α= (1 − α)s
i+ αs
i+1.
Itô sceglie α = 0 e, di conseguenza s
πche, tra le due, è una martingala.
Stochastic Differential Equations a.a. 2016-17
Lezione del 08/03/2017
Prof: Luciano Tubaro
Scritto da: Giulia BertagnolliIn questa lezione vedremo la definizione 6.1 del [Bal00], riportata in (3.1).
3 Integrale stocastico
3.1 Definizione 6.1 Baldi
Sia B = (Ω, F, (F
t)
t, (B
t)
t, P) un moto browniano fissato.
Definizione 3.1 (6.1 Baldi). Indichiamo con Λ
pB([α, β]) lo spazio delle classi di equivalenza di processi reali X = (Ω, F , (F
t)
α≤t≤β, (X
t)
α≤t≤β, P) , progressivamente misurabili e tali che
(i) P R
βα
|X
s|
pds < +∞
= 1.
Con M
Bp([α, β]) indichiamo invece lo spazio delle classi d’equivalenza di processi progressivamente misurabili tali che
(i’) E R
βα
|X
s|
pds
< +∞.
Si noti che la filtrazione (F
t)
tè quella del processo di Wiener. Di conseguenza X
trisulta adattato a W
t(F
tX⊆ F
t).
Poiché in queste definizioni il processo di Wiener B
t(da noi indicato con W
t) è fissato, ometteremo il pedice nella notazione. Inoltre nella pratica p = 2, mentre l’intervallo di tempi da noi considerato è [0, T ] per cui utilizzeremo la notazioni Λ
2([0, T ]) e M
2([0, T ]) o, in breve Λ
2, M
2.
Ricordiamo inoltre che un processo X è detto misurabile se l’applicazione (t, ω) → X
t(ω) è misurabile su ([0, T ] × Ω, B
T⊗ F ) , mentre si dice progressivamente misurabile se per ogni t ∈ [0, T ] l’applicazione (t, ω) → X
t(ω) è misurabile su ([0, t] × Ω, B
t⊗ F ) .
Abbiamo già visto che per una classe di processi X
t∈ C
1∩ M
2l’integrale Z
T0
X
sdW
sè definibile traiettoria per traiettoria, ossia
ω → Z
T0
X(s, ω)dW (s, ω) = X
TW
T− X
0W
0− Z
T0
W
sX
s0ds è l’integrale per parti.
11
12 Lezione 6: 10/03/2017
Stochastic Differential Equations a.a. 2016-17
Lezione del 10/03/2017
Prof: Luciano Tubaro
Scritto da: Giulia Bertagnolli3.2 Integrale Stocastico
Sia (Ω, F, P) uno spazio di probabilità e sia X
tuna successione di variabili casuali C
1. Sia inoltre W
tun processo di Wiener
n−1
X
i=0
X
tiW
ti+1− W
ti−−−−→
π→∞
Z
T 0X
tdW
t:= X
TW
T− Z
T0
W
tX
0(t)dt (3.2.1)
Finora il fatto che W
tsia di Wiener non è stato utilizzato, sarebbe bastato qualsiasi processo nullo nell’origine;
ma prendiamo ad esempio X
t(ω) = X(ω)ϕ(t) con ϕ BV, allora l’integrale Z
T0
X
sdW
s= X Z
T0
ϕ(s)dW
s= XY (3.2.2)
con Y = R
0Tϕ(s)dW
sè una variabile casuale.
Ora, per poter calcolare il valore d’aspettazione E(XY ) dobbiamo fare delle ipotesi sulla relazione tra X e Y , i.e. tra X e W . Partiamo dalle somme di Riemann e vediamo due diverse ipotesi
Ipotesi 1). Supponiamo che X
tisiano indipendenti dagli incrementi W
ti+1− W
ti, allora
E
"
n−1X
i=0
X
tiW
ti+1− W
ti#
=
n−1
X
i=0
E(X
ti)E(W
ti+1− W
ti) = 0 poichè gli incrementi di un processo di Wiener hanno media nulla.
E
n−1
X
i=0
X
tiW
ti+1− W
ti!
2
=
n−1
X
i=0
E (X
t2i)(W
ti+1− W
ti)
2+ (3.2.3) X
i6=j
E X
ti(W
ti+1− W
ti)X
tj(W
tj+1− W
tj)
(3.2.4)
facciamo un’ipotesi aggiuntiva
Ipotesi 2). X
tadattato alla filtrazione del processo di Wiener, i.e. sia F
tW:= σ {W
s: s ≤ t}
la filtrazione di W
tallora F
tX⊂ F
tWe quindi X
t(ω) è misurabile rispetto a F
tW. Essendo F
tWindipendente
dagli incrementi W
ti+1− W
tisi ha che l’Ipotesi 1) implica Ipotesi 2). Abbiamo così capito perché nella
Def. (3.1) si richieda X
tadattato alla filtrazione di W
t. A questo punto supponendo i < j in (3.2.4) X
ti(W
ti+1− W
ti)X
tjè misurabile rispetto a F
tWjed è indipendente da W
tj+1− W
tj, di conseguenza abbiamo il prodotto dei valori attesi e, di conseguenza (3.2.4) è uguale a zero.
E
n−1
X
i=0
X
tiW
ti+1− W
ti!
2
=
n−1
X
i=0
E (X
t2i)(W
ti+1− W
ti)
2(3.2.5)
=
n−1
X
i=0
E (X
t2i) E (W
ti+1− W
ti)
2(3.2.6)
=
n−1
X
i=0
E (X
t2i) (t
i+1− t
i). (3.2.7)
Resta da vedere che
E
n−1
X
i=0
X
tiW
ti+1− W
ti!
2
→ E
Z
T0
X
sdW
s!
2
(3.2.8)
n−1
X
i=0
E (X
t2i) (t
i+1− t
i) → E
"
Z
T 0X
s2ds
#
= Z
T0
E X
s2ds. (3.2.9)
13
Stochastic Differential Equations a.a. 2016-17
Lezione del 15/03/2017
Prof: Luciano Tubaro
Scritto da: Giulia BertagnolliConsiderazioni sulla definizione 6.1 del [Bal00].
Definizione 3.2 (Processo di Wiener). Definiamo un processo di Wiener come una 5-upla W = (Ω, F , (F
t)
t≥0, (W
t)
t≥0, P)
ove (F
t)
t≥0, filtrazione associata al processo, è non anticipante
2e F
tW⊂ F
t, mentre la successione di variabili (W
t)
t≥0, P devono soddisfare le seguenti condizioni:
i. W
0= 0 q.c.
ii. gli incrementi sono indipendenti, i.e. ∀ 0 ≤ s < t W
t− W
s⊥ ⊥ F
siii. W
t− W
s∼ N (0, t − s) Osservazione 3.1.
• Nel caso in cui si scelga la filtrazione naturale F
t= F
tWallora la si può omettere nella definizione.
• Non vi è la continuità delle traiettorie
• la ii. può anche essere scritta come E(W
t− W
s|F
s) = E(W
t− W
s) = 0 da cui E(W
t|F
s) = W
s, ossia W
tè una martingala.
Considerazioni su M
Wp([0, T ]) X
tè (progressivamente) misurabile nella coppia (t, ω), per abbiamo la σ− algebra B(0, T ) N F
Te la misura prodotto
3λ N P .
E Z
T0
|X
s|
pds
!
< +∞
Z
[0,T ]×Ω
|X
s|
p(ds, dP) < +∞
dunque M
Wp([0, T ]) ⊂ L
p([0, T ] × Ω) .
Considerazioni su λ
pW([0, T ]) Abbiamo Z
T0
|X
s|
pds < +∞
quasi certamente, per cui M
Wp([0, T ]) ⊂ λ
pW([0, T ]) .
2Un processo adattato ad una filtrazione non anticipante è spesso detto non anticipante a sua volta.
3λ, misura di Lebesgue
14
Lezione 8: 17/03/2017 15
Stochastic Differential Equations a.a. 2016-17
Lezione del 17/03/2017
Prof: Luciano Tubaro
Scritto da: Giulia Bertagnolli4 La formula di Itô
4.1 La "ricetta "
Come nel caso ordinario di integrali di Riemann, in cui non si usa la definizione per svolgere i calcoli, bensì il teorema fondamentale del calcolo e la chain rule, così anche nel caso stocastico esiste una versione di Itô della chain rule, chiamata formula di Itô.
In questa lezione vediamo l’operatività della formula, come fosse una "ricetta" senza enunciare il teorema in maniera rigorosa.
Sia W
tun processo di Wiener e sia f : R → R, f ∈ C
2. Allora f(W
t) è un nuovo processo e, data una partizione 0 = t
0< t
1< · · · < t
n= t
f (W
t) − f (W
0)
(∗)=
n−1
X
i=0
f (W
ti+1) − f (W
ti)
(∗∗)
=
n−1
X
i=0
f
0(W
ti) W
ti+1− W
ti+ 1 2
n−1
X
i=0
f
00(W
ti) W
ti+1− W
ti 2+ errore
ove (*) segue dal fatto che il termine di destra è una serie telescopica, mentre (**) è lo sviluppo in serie di Taylor.
Inoltre abbiamo
n−1
X
i=0
f
0(W
ti) W
ti+1− W
ti−−→
L2
Z
t 0f
0(W
s)dW
s1
2
n−1
X
i=0
f
00(W
ti) W
ti+1− W
ti2− →
P
1 2
Z
t 0f
00(W
s)ds
Ne segue una prima formula di Itô
f (W
t) − f (W
0) = Z
t0
f
0(W
s)dW
s+ 1 2
Z
t 0f
00(W
s)ds. (4.1.1)
Esempio 4.1. Prendendo f(x) = x
2, da cui f
0(x) = 2x e f
00(x) = 2 W
t2=
Z
t 02W
sdW s + 1 2
Z
t 02ds
= 2 Z
t0
W
sdW s + t
o, in con la notazione differenziale
d(W
t2) = 2W
tdW
t+ dt Integrando su [0, T ]
Z
T 0d(W
t2) = W
T2− W
02= 2 Z
T0
W
sdW s + T da cui
Z
T 0W
td(W
t) = W
T2− T
2 . (4.1.2)
Sia ora Y
t= Y
0+ R
t0
A
sds + R
t0
Z
sdW
scon Y
0= Y (0) , A
t, Z
tprocessi dati. Il primo integrale è alla Stiljies mentre il secondo è un integrale di Itô. Allora la (4.1.1), in forma differenziale, diventa
df (Y
t) = f
0(Y
t)dY
t+ 1
2 f
00(Y
t)(dY
t)
2(4.1.3)
ove (dY
t)
2è calcolato in accordo alle regole
ordine 2
z }| { dt · dt =
ordine32
z }| { dt · dW
t=
ordine32
z }| {
dW
t· dt = 0 (4.1.4a)
dW
t· dW
t= dt. (4.1.4b)
Con la notazione integrale
f (Y
t) − f (Y
0) = Z
t0
f
0(Y
s)A(s)ds + Z
t0
f
0(s)Z
sdW
s+ 1 2
Z
t 0f
00(Y
s)Z
s2ds. (4.1.5) Vedremo più avanti di formalizzare questa formula.
16
Lezione 9: 22/03/2017 17
Stochastic Differential Equations a.a. 2016-17
Lezione del 22/03/2017
Prof: Luciano Tubaro
Scritto da: Giulia BertagnolliVediamo un esercizio
X
t= f (t, W
t) = e
b−σ22
t+σWt
(4.1.6)
evidentemente X
0= 1 . Applichiamo la formula di Itô df
dt = ∂f
∂t dt + ∂f
∂x dx +
1 2
∂
2f
∂t
2(dt)
2+ 1 2
∂
2f
∂x
2(dx)
2+
1 2
∂
2f
∂t∂x (dx)(dt) df
dt = ∂f
∂t dt + ∂f
∂x dx + 1 2
∂
2f
∂x
2dt df (t, x)
dt =
b − σ
22
e
b−σ22 t+σWt
dt + σe
b−σ22 t+σWt
dx + 1 2 σ
2e
b−σ22 t+σWt
dt
= be
b−σ22
t+σWt
dt + σe
b−σ22
t+σWt
dx da cui
dX
t= bX
tdt + σX
tdW
t(4.1.7)
in forma integrale
X
T− X
0= b Z
T0
X
tdt + σ Z
T0
X
tdW
tPossiamo anche vederlo in un altro modo: Y
t= b −
σ22t + σW
t, dY
t=
b −
σ22dt + σdW
te X
t= F (Y
t) = e
Yt. Allora,
dX
t= F
0(Y
t)dY
t+ 1
2 F
00(Y
t)(dY
t)
2= X
tdY
t+ 1
2 X
t(dY
t)
2= bX
tdt + σX
tdW
tgiungendo alla stessa soluzione.
Abbiamo finora dimostrato l’esistenza di una soluzione di (4.1.7). Per l’unicità della soluzione procediamo così
Consideriamo una soluzione di (4.1.7) che chiameremo ancora X
te generalizziamo a X(0) = X
0. Riscriviamo (4.1.7)
X
t= X
0e
b−σ22 t+σWt
e−σW
tX
t= X
0e
b−σ22
t
prendiamo la (eventuale) soluzione X
te, dopo averla moltiplicata per e
−σWt, ne consideriamo il differenziale ricordando che si tratta di un prodotto di processi stocastici
d X
te
−σWt= dX
te
−σWt+ + X
tde
−σWt+ + dX
tde
−σWtd X
te
−σWt= bX
te
−σWtdt +
(( (( (( ( σX
te
−σWtdW
t+ (( (( (( ( (
−σX
te
−σWtdW
t+ 1
2 σ
2X
te
−σWtdt+
− σ
2X
te
−σWtdt d X
te
−σWt=
b − σ
22
e
−σWtdt.
Chiamando Y
t= X
te
−σWtdY
t=
b − σ
22
Y
tdt da cui, risolvendo, otteniamo l’unicità
Y
t= e
b−σ22
t
Y
0X
te
−σWt= e
b−σ22
t
X
0.
Osservazione 4.1.
• (4.1.7) è detto moto browniano geometrico e σ volatilità.
• Nella realtà σ non è costante.
• Dato X
0> 0 tutte le traiettorie sono positive.
18
Stochastic Differential Equations a.a. 2016-17
Lezione del 24/03/2017
Prof: Luciano Tubaro
Scritto da: Giulia BertagnolliCalcoliamo media e varianza di R
0TX
tdW
tcon W
tprocesso di Wiener e X
t∈ M
2([0, T ]) ∩ C
1([0, T ])
E
"
Z
T 0X
tdW
t#
= 0 (4.1.8)
E
Z
T0
X
tdW
t!
2
= E
"
Z
T 0X
t2dt
#
(4.1.9)
L’esercizio svolto si trova sul pagina del corso http://www.science.unitn.it/~tubaro/corso5/lez3.pdf.
Osservazione 4.2.
• La (4.1.9) ci permetterà di dimostrare che M
2∩ C
1([0, T ]) è denso in M
2.
• Niente assicura la continuità delle traiettorie ω → R
T0
X
tdW
t(ω) per cui avremo necessità di un rappresentante continuo (se esiste) nella classe di equivalenza. Si sfrutterà la proprietà di martingala, dimostrata nella prossima lezione.
19
20 Lezione 11: 29/03/2017
Stochastic Differential Equations a.a. 2016-17
Lezione del 29/03/2017
Prof: Luciano Tubaro
Scritto da: xxxIn questa lezione dimostreremo che l’integrale di Itô è una martingala.
Proposizione 1. Sia X
t∈ M
2∩ C
1allora valgono:
i.
E
Z
t 0X
rdW
rF
s= Z
s0
X
rdW
r(4.1.10)
ii.
E
"
Z
t 0X
rdW
r 2F
s#
= E
Z
s 0X
r2d
rF
s(4.1.11)
Dimostrazione.
E
Z
t 0X
rdW
rF
s= E
Z
s 0X
rdW
r+ Z
ts
X
rdW
rF
s= E
Z
s 0X
rdW
rF
s+ E
Z
t sX
rdW
rF
sOra,
E
Z
s 0X
rdW
rF
s= Z
s0
X
rdW
rZ
t sX
rdW
r= X
tW
t− X
sW
s− Z
ts
W
rX
r0dr
= X
tW
t− X
sW
s± X
sW
t− Z
ts
W
rX
r0dr
= X
s(W
t− W
s) + (X
t− X
s)W
t− Z
ts
W
rX
r0dr
= X
s(W
t− W
s) +
Z
t sX
r0dr
W
t−
Z
t sW
rX
r0dr
= X
s(W
t− W
s) + Z
ts
(W
t− W
r)X
r0dr
E
Z
t sX
rdW
rF
s= E
X
s(W
t− W
s) + Z
ts
(W
t− W
r)X
r0dr F
s= E h
X
s(W
t− W
s) F
si + E
Z
t s(W
t− W
r)X
r0dr F
s= X
sE h
(W
t− W
s) F
si
+ Z
ts
E h
(W
t− W
r)X
r0F
si
dr
Lezione 11: 29/03/2017 21
E h
(W
t− W
s) F
si
= E [(W
t− W
s)] = 0
Z
t sE h
(W
t− W
r)X
r0F
si
dr = Z
ts
E
E h
(W
t− W
r)X
r0F
ri
| {z }
X0rE(Wt−Wr)=0
F
s
dr
= 0 La (i.) è quindi verificata
E
Z
t 0X
rdW
rF
s= Z
s0
X
rdW
r(4.1.12)
Per quanto riguarda la dimostrazione di (ii.) è data per esercizio
4. Esercizio 4.1.
E
" Z
t 0X
rdW
r 2− Z
t0
X
r2d
rF
s#
=
Z
s 0X
rdW
r 2− Z
s0
X
r2d
r(4.1.13)
cioè E R
t0
X
rdW
r 2− R
t 0X
r2d
rF
sè ancora una martingala.
Ricordiamo il seguente
Teorema 2 (Teorema di Meyer). Se M
tè una martingala allora esiste un processo A
tadattato, crescente tale per cui
M
t2− A
tè una martingala. Nel caso in di martingale continue il processo A
tviene indicato con hM i
te chiamato Crochèt di Meyer.
Vediamo ora come è possibile estendere l’integrale di Itô al tempo t
I(X)
t= Z
t0
X
rdW
r(4.1.14)
a {X
t} ∈ M
2.
Proposizione 3. È possibile approssimare ogni processo X
t∈ M
2con una successione di processi in M
2∩C
1, in altre parole M
2∩ C
1è denso in M
2.
Dimostrazione. Sia X
t∈ M
2∩ C
1Di I(X)
tsappiamo i. che è un processo di media 0
ii. calcolarne la varianza e questa sarà la chiave della dimostrazione
iii. che è una martingala e conosciamo il processo crescente A
tassociato a I
2(X)
t: A
t= R
t 0X
r2dr
4Si trova svolto sul sito del Prof. http://www.science.unitn.it/~tubaro/corso5/lez3.pdf.
Prendiamo perciò una successione n X
t(n)o
n
in M
2∩C
1tale che X
t(n)→ X
t∈ M
2nella norma di L
2([0, T ]×Ω) . Ogni successione convergente è di Cauchy, segue X
t(n)− X
t(m)→ 0 da un certo m in poi, sempre nella stessa norma, i.e.
E
Z
t 0X
r(n)− X
r(m)2dr
→ 0
Ora,
Z
t 0X
r(n)dW
r− Z
t0
X
r(m)dW
r= Z
t0
X
r(n)− X
r(m)dW r
E
" Z
t 0X
r(n)dW
r− Z
t0
X
r(m)dW
r 2#
(∗)
= E
" Z
t 0X
r(n)− X
r(m)dW r
2#
= E
Z
t 0X
r(n)− X
r(m)2dr
→ 0
ove in (*) abbiamo usato la chiave.
Quindi R
0tX
r(n)dW
rè una successione di Cauchy, L
2(Ω) è uno spazio completo per cui otteniamo che esiste il limite per n → ∞ di R
0tX
r(n)dW
r.
Anche per il limite valgono le proprietà viste finora per l’integrale di Itô.
22
Lezione 12: 31/03/2017 23
Stochastic Differential Equations a.a. 2016-17
Lezione del 31/03/2017
Prof: Luciano Tubaro
Scritto da: Giulia BertagnolliRelazione tra processi stocastici ed equazioni alle derivate parziali.
Cerchiamo una soluzione u(x) al seguente problema
( ∆u = 0 x ∈ Θ, aperto
u = f x ∈ ∂Θ (4.1.15)
x
Figura 4.1
Fissiamo un punto x da cui facciamo partire un moto Browniano bidimensionale x + W
tcon W
t∈ R
2. Per ogni traiettoria esiste t ∈ [0, +∞) in cui la traiettoria toccherà la frontiera ∂Θ per la prima volta, indichiamo questo tempo con τ
x(ω) . Di conseguenza il punto "toccato" sarà x + W
τx.
Sia f (x + W
τx) una funzione del punto aleatorio sulla frontiera, è una variabile casuale e possiamo perciò calcolarne il valore d’aspettazione; allora (come vedremo in seguito) esiste un teorema che afferma
u(x) = E [f (x + W
τx)] (4.1.16)
Il problema si può generalizzare a
( Lu = 0 x ∈ Θ, aperto
u = f x ∈ ∂Θ (4.1.17)
con L operatore ellittico del secondo ordine
Lv(x) = 1 2
n
X
i,j=1
a
ij∂
2v
∂x
i∂x
j+
n
X
i=1
b
i(x) ∂v
∂x
i(4.1.18)
ove A = {a
ij}
i,jfunzioni date e b = (b
1, . . . , b
n) . Inoltre A è semidefinita positiva, i.e. hAξ, ξi ≥ 0 per ogni ξ e hAξ, ξi ≥ λ|ξ|
2, λ > 0 (operatore ellittico).
Poniamo σ = √ A
( dX
t= b(X
t)dt + σ(X
t)dW
tX
0= x ∈ Θ
X
t= x + Z
t0
b(X
r)dr + Z
t0
σ(X
r)dW
r(4.1.19)
(4.1.19) è un processo di diffusione che dipende da A e b. Come prima, vale (4.1.16).
Curiosità: nel caso di equazioni sstocastiche, poichè si considera σ = √
A , si può parlare di soluzioni anche nel caso ipo-ellittico in cui A è solamente semidefinita positiva, senza ulteriori vincoli (generalizzazione Bonaccorsi, Mazzucchi).
24
Stochastic Differential Equations a.a. 2016-17
Lezione del 5/04/2017
Prof: Luciano Tubaro
Scritto da: Giulia BertagnolliAlcune definizioni Definizione 4.1.
i. Convoluzione. Siano f, g ∈ L
1(R) definiamo la convoluzione di f e g:
(f ∗ g)(x) = Z
R
f (x − y)g(y)dy
ii. Supporto compatto. Una funzione è a supporto compatto, i.e. f ∈ C
C∞se al di fuori di un compatto K è nulla e C
∞(K) .
Esempio 4.2. Esempio di una funzione in C
C∞(R) ρ(x) =
( ce
−1−x21x ∈ [−1, 1]
0 altrimenti (4.1.20)
con costante c tale che R
−∞+∞ρ(x)dx = 1 . Sia f ∈ L
pallora
(f ∗ g)(x) = Z
+∞−∞
ρ(x − y)f (y)dy.
Introduciamo , per > 0
ρ
(x) = 1
ρ x
(4.1.21)
Z
+∞−∞
ρ
(x)dx = 1 il supporto di ρ
(x) è
x≤ 1 e per → 0 sia ha che ρ
→ δ di Dirac.
Si osservi che f ∗ ρ
in Lp−−−→ f , dunque abbiamo una successione di funzioni C
+∞che approssimano f. Inoltre
se f ha supporto compatto, anche f ∗ ρ
lo ha.
Sia X
t∈ Λ
2e facciamo la convoluzione con la ρ
definita in (4.1.21) in modo da regolarizzare il processo traiettoria per traiettoria ed ottenere così un processo continuo (si veda la dimostrazione [Bal00, Lemma 6.2]).
Usiamo un piccolo accorgimento:
(J
X)(t) :=
Z
+∞−∞
ρ
(t − s − )X
s(ω)ds (4.1.22)
l’aggiunta dell’ implica che t − 2 ≤ s ≤ t ossia fa in modo che s non viaggi fino a t + e conserviamo quindi per X
sl’essere adattato alla filtrazione. Abbiamo inoltre che (J
X)(·) → X(·) , ossia
Z
T 0[(J
X)(t) − X
t(ω)]
2dt −−→ 0
q.c.→ 0. (4.1.23)
25
Stochastic Differential Equations a.a. 2016-17
Lezione del 7/04/2017
Prof: Luciano Tubaro
Scritto da: Giulia BertagnolliRispetto a M
2, Λ
2rilassa la condizione E R
βα
|X
s|
pds
< +∞ a P R
βα
|X
s|
pds < +∞
= 1 e abbiamo che la prima implica la seconda, dunque M
2⊂ Λ
2.
L’estensione della definizione dell’integrale di Itô a Λ
2∩ C
1è perciò naturale, poichè l’insieme (
ω ∈ Ω : Z
T0
|X
s(ω)|
2= +∞
)
ha misura nulla.
Dimostriamo ora che
Proposizione 4. Λ
2∩ C
1è denso in Λ
2.
Dimostrazione. La chiave in questo caso sarà la seguente disuguaglianza
P
Z
T 0X
sdW
s>
!
≤ P Z
T0
X
s2ds > ρ
! + ρ
2(4.1.24)
che verrà dimostrata in seguito.
Dando momentaneamente per buono il fatto che la chiave usata nella precedente dimostrazione sia valida per processi in Λ
2∩ C
1, vediamo la seguente
Proposizione 5. La disuguaglianza
P
Z
T 0X
sdW
s>
!
≤ P Z
T0
X
s2ds > ρ
! + ρ
2(4.1.25)
è verificata per ogni X ∈ Λ
2. Dimostrazione.
26
Lezione 15: 12/04/2017 27
Stochastic Differential Equations a.a. 2016-17
Lezione del 12/04/2017
Prof: Luciano Tubaro
Scritto da: Giulia BertagnolliDimostriamo ora la disuguaglianza ampiamente utilizzata finora
P
Z
T 0X
sdW
s>
!
≤ P Z
T0
X
s2ds > ρ
! + ρ
2(4.1.26)
per ogni processo X
t∈ Λ
2∩ C
1e ∀, ρ > 0.
Dimostrazione. Per ogni t ∈ [0, T ] definiamo il processo Y
ρ(t) come
Y
ρ(t) =
( X
tse R
0TX
r2dr ≤ ρ
0 altrimenti (4.1.27)
Y
ρ(t) ∈ M
2per cui valgono le proprietà
i. E R
T0
Y
ρ(r)dW
r= 0
ii. Var R
T0
Y
ρ(r)dW
r= E
R
T0
Y
ρ(r)dW
r2= E h R
T0
Y
ρ(r)
2dr i.
Poniamo inoltre A
ρ= n ω : R
T0
X
r2dr ≤ ρ o.
P
Z
T 0X
sdW
s>
!
= P
Z
T 0X
sdW
s> ∩ A
ρ! + P
Z
T 0X
sdW
s> ∩ A
Cρ!
≤ P
Z
T 0X
sdW
s> ∩ A
ρ!
+ P A
Cρ= P
Z
T 0Y
ρ(s)dW
s> ∩ A
ρ!
+ P A
Cρ≤ P
Z
T 0Y
ρ(s)dW
s>
!
+ P A
CρOra,
P A
Cρ= P Z
T0
X
s2ds > ρ
!
(4.1.28)
costituisce il primo termine della disequazione 4.1.25. Usando la disuguaglianza di Chebyshev
P
Z
T 0Y
ρ(s)dW
s>
!
≤ 1
2E
Z
T0
Y
ρ(s)dW
s!
2
= 1
2E
"
Z
T 0Y
ρ(r)
2dr
#
Ricordando la definizione di Y
ρ(r) vediamo che
Y
ρ2(t)(ω) =
( X
t2(ω) su n ω : R
T0
X
r2(ω)dr ≤ ρ o 0 altrimenti
per cui
Z
T 0Y
ρ(r)
2dr ≤ ρ. (4.1.29)
E abbiamo la tesi.
Si veda http://www.science.unitn.it/~tubaro/corso5/tub.pdf, per chiarimenti sulla dimostrazione data dal Baldi [Bal00, Thm. 6.8].
28
Lezione 16: 19/04/2017 29
Stochastic Differential Equations a.a. 2016-17
Lezione del 19/04/2017
Prof: Luciano Tubaro
Scritto da: Giulia BertagnolliDi seguito indicheremo con M = M
2([0, T ]) : da Def (3.1), X ∈ M è un processo progressivamente misurabile rispetto alla filtrazione del processo di Wiener (F
t) . Finora abbiamo visto che per un tale X ∈ M valgono:
(i)
t → Z
t0
X
sdW
s(4.1.30)
è una martingala rispetto a (F
t) e posso sceglierla (all’interno della classe di equivalenza) continua.
(ii)
t →
Z
t 0X
sdW
s 2− Z
t0
X
s2ds (4.1.31)
è una martingala rispetto a (F
t) . Se X ∈ Λ = Λ
2([0, T ]) perdiamo qualcosa
(iii)
t → Z
t0
X
sdW
s(4.1.32)
è una martingala locale
5. (iv) ∀ρ, > 0 vale
P
Z
t 0X
sdW
s>
≤ P
Z
t 0X
s2d
s> ρ
+ ρ
2(4.1.33)
(F
t) filtrazione non anticipante per W
t, allora
E(W
t− W
s|F
s) = E(W
t− W
s) = 0
E(W
t− W
s|F
s) = E(W
t|F
s) − E(W
s|F
s) = 0 E(W
t|F
s) = W
se abbiamo la proprietà di martingala del processo di Wiener.
Da processo di Wiener a Martingala. Sia ora M
tuna martingala rispetto a una filtrazione (F
t) a traiettorie continue. Sia inoltre X ∈ C
1∩ M
M2. Sostituiamo il processo di Wiener con M
te consideriamo l’integrale di Itô
Z
T 0X
sdM
s(4.1.34)
5i.e. ho una successione crescente di tempi di arresto (τn)n tali che il processo stoppato ad ogni tempo (Mt∧τn)t è una (Ft)t-martingala, Def (6.23) del [Bal00].
30 Lezione 16: 19/04/2017
come limite delle somme
n−1
X
i=0
X
si(M
si+1− M
si) =X
TM
T− X
0M
0−
n−1
X
i=0
M
si+1(X
si+1− X
si) (4.1.35)
→ X
TM
T− X
0M
0− Z
T0
X ˙
sM
sds (4.1.36)
Denotiamo con A
tla variazione quadratica di M
t, per ”π” → +∞
n−1
X
i=0
(M
ti+1− M
ti)
2− →
P
A
t(4.1.37)
A
tè un processo a traiettorie positive, crescenti, continue, che spesso è indicato anche con hMi
t(il crochet di P.A. Meyer ). Si ha che
M
t2− A
tè una martingala (4.1.38)
E((M
t− M
s)
2| F
s) = A
t− A
s(4.1.39) Teorema 6.
E Z
T0
X
sdM
s!
= 0 (4.1.40)
E
Z
T0
X
sdM
s!
2
= E Z
T0
X
s2dA
s!
(4.1.41)
E
Z
t 0X
rdM
r| F
s= Z
s0
X
rdM
r(4.1.42)
E
"
Z
t sX
rdM
r 2| F
s#
= E
Z
t sX
r2dA
r| F
s(4.1.43)
La dimostrazione delle uguaglianze (4.1.41) - (4.1.43 è riportata di seguito (credit: Prof. Tubaro).
Dimostrazione. La (4.1.40) è facile.
Per la (4.1.41) consideriamo
X
0(M
t− M
0) + Z
t0
(M
t− M
r) ˙ X
rdr
2= X
02(M
t− M
0)
2+ 2X
0(M
t− M
0)
Z
t 0(M
t− M
r) ˙ X
rdr + Z
t0
Z
t 0(M
t− M
r) ˙ X
r(M
t− M
ρ) ˙ X
ρdr dρ dove il secondo addendo è conveniente riscriverlo come
X
0(M
t− M
0) Z
t0
(M
t− M
r) ˙ X
rdr = X
0Z
t0
(M
t− M
r)
2X ˙
rdr + Z
t0
(M
r− M
0) (M
t− M
r) ˙ X
rdr il cui valore di aspettazione risulta
EX0