Indice
A Probabilit` a 3
A.1 Introduzione . . . . 3
A.2 Probabilit`a . . . . 4
A.2.1 Assiomi di probabilit`a . . . . 4
A.2.2 Probabilit`a congiunta e probabilit`a condizionata . . . . 5
A.2.3 La funzione caratteristica . . . . 8
B Processi di Markov 11 B.1 Processi stocastici . . . . 11
B.1.1 Processi aleatori ad incrementi indipendenti . . . . 12
B.2 Random walk . . . . 14
B.3 Processi di Markov . . . . 17
B.4 L’equazione di Chapman-Kolmogorov . . . . 18
B.5 L’equazione di Fokker-Planck . . . . 19
B.5.1 Il processo di Wiener . . . . 21
B.5.2 Il processo di Ornstein-Uhlenbeck . . . . 23
C La formula di Feynman-Kaˇ c 27 C.1 Rappresentazione estesa di Feynman-Kaˆc . . . . 29
1
D L’integrale di Ito e i processi stocastici 31 D.1 Generalit`a sui processi diffusivi . . . . 31
D.2 La formula di Ito . . . . 33 D.3 Relazione tra l’equazione di Fokker-Plank e le SDE . . . . 36 E Approssimazione di Milstein per gli integrali stocastici 37 E.1 Approssimazione discreta: lo schema forte di Ito-Taylor 1.5 . . . . 38
F Il metodo della massima verosimiglianza 43
Bibliografia 46
Appendice A Probabilit` a
A.1 Introduzione
Per una migliore comprensione degli argomenti trattati, oltre che per motivi di completezza espositiva, pu`o essere utile accennare brevemente alla teoria classica delle probabilit`a. E’
bene precisare che l’utilit`a di simili concetti in questa sede `e di carattere fondamentalmente teorico. Questo perch`e l’interpretazione frequentistica di probabilit`a `e del tutto inefficace nel trattare variabili di tipo economico; come ripetutamente ricordato, non `e possibile ripe- tere pi`u volte la misura di un tasso di interesse. Inoltre dobbiamo distinguere nettamente la nozione di fenomeno aleatorio da quella di modello fisico-matematico di quel fenomeno;
sarebbe dunque pi`u appropriato parlare di aspettativa di un operatore, e di probabilit`a legata al modello prescelto. Una volta concordati lo spazio ambiente e la sigma-algebra, le aspettative di generici agenti possono essere ben lontane tra loro e differire notevolmente nella scelta della misura di probabilit`a.
Pertanto l’interpretazione pi`u utile per i fini pratici `e quella di associare all’idea di proba- bilit`a quella della miglior previsione che un individuo razionale pu`o assumere di fronte a situazioni di incertezza.
3
A.2 Probabilit` a
La teoria della probabilit`a non `e altro che il buonsenso ridotto a calcolo
Simon Laplace.
Nelle questioni di probabilit`a si deve sempre assegnare un insieme ambiente Ω, ed un insieme di sottoinsiemi di Ω, i quali sono detti set di eventi.
Per motivi di trattabilit`a abbiamo bisogno che i nostri set di eventi formino un sistema chiuso z per le operazioni di unione e intersezione, detto σ−algebra. La coppia hΩ, zi rappresenta un po’ le regole del gioco, cio`e quello su cui tutti gli agenti devono concordare, indipendentemente dalle loro aspettative.
A.2.1 Assiomi di probabilit` a
Il passo successivo `e quello di introdurre una probabilit`a P, ovvero una misura positiva associata ad ogni set di eventi A
i.
Una terna hΩ, z, P i costituisce uno spazio probabilizzato. Ogni misura P deve comunque soddisfare i seguenti assiomi di probabilit`a:
(i) P(A
i)≥ 0 per tutti gli A
i∈ z, (ii) P(Ω)=1 (probabilit`a normalizzata)
(iii) se A
i(i=1,2,3,..) `e un insieme numerabile (ma anche infinito) di eventi che non si sovrappongono, tali cio`e che
A
i∩ A
j= ∅ per tutti i 6= j,
allora
A.2. PROBABILIT ` A 5
P (∪
iA) = X
i
P (A
i).
Come conseguenza dei precedenti abbiamo comunque che:
(iv) se ¯ A `e il complementare di A, cio`e il set di tutti gli eventi non contenuti in A, allora:
P ( ¯ A) = 1 − P (A)
(v) P(∅)=0
Ogni idea intuitiva di probabilit`a d`a origine a probabilit`a non negative, e la probabilit`a che un arbitrario evento sia contenuto nel set di tutti gli eventi deve essere uno, indi- pendentemente dalla definizione; dunque i primi due assiomi non necessitano di ulteriore commento.
Occupiamoci del terzo: supponiamo di avere solo due set A e B, tali che A ∩ B=∅. Ci`o vuol dire che la probabilit`a che ω ∈ A ∪ B equivale alla probabilit`a che ω ∈ A o ω ∈ B. Si dimostra, come conseguenza degli assiomi, che la probabilit`a `e la somma delle probabilit`a individuali, cio`e:
P (A ∪ B) = P {(ω ∈ A) o (ω ∈ B)} = P (A) + P (B)
L’estensione ad ogni numero finito di set risulta ovvia.
A.2.2 Probabilit` a congiunta e probabilit` a condizionata
Supponiamo adesso di aver a che fare con due set A e B, tali che A ∩ B 6= ∅.La probabilit`a:
P (A ∩ B) = P {(ω ∈ A) e (ω ∈ B)}
`e detta probabilit`a congiunta, ovvero la probabilit`a che accadano entrambi gli eventi ω ∈ A e ω ∈ B.
Si possono poi specificare delle condizioni su determinati eventi, cio`e la probabilit`a che ω ∈ A una volta che sia noto che ω ∈ B.
In questo caso si parla di probabilit`a condizionata, e si definisce cos`ı:
P (A | B) = P (A ∩ B)/P (B)
Relazione tra probabilit` a congiunte di ordine diverso Supponiamo di avere un certo numero di set B
itali che
B
i∩ B
j= ∅
∪
iB
i= Ω
in modo tale che i set dividano lo spazio Ω in sottoinsiemi non intersecanti. Allora:
∪
i(A ∩ B
i) = A ∩ (∪
iB
i) = A ∩ Ω = A
Applicando l’assioma (iii) a A ∩ B
iotteniamo:
X
i
P (A ∩ B
i) = P [∪
i(A ∩ B
i)] = P (A)
A.2. PROBABILIT ` A 7 e quindi
X
i
P (A | B
i)P (B
i) = P (A) (A.1)
Possiamo quindi concludere che la somma su tutte le possibilit`a mutuamente esclusive di B nella probabilit`a congiunta elimina la variabile.
Indipendenza
Cosa si intende per eventi indipendenti? Cerchiamo di rispondere da un punto di vista probabilistico.
Supponendo di avere due set di eventi A e B, essi rappresenteranno set di eventi indipendenti se il fatto che un evento appartenga a B non influenza la probabilit`a che esso appartenga anche ad A.
Dunque la probabilit`a condizionata P (A | B) deve risultare indipendente da B, e quindi:
P (A ∩ B) = P (A)P (B)
Nel caso di pi`u eventi appartenenti allo stesso set, `e necessario richiedere per l’indipendenza, la fattorizzazione di tutti i sotto-set interessati; nello specifico gli eventi (ω ∈ A
i)(i = 1, 2, ..., n) si considereranno indipendenti se per ogni sotto-set (i
1, i
2, ..., i
k) del set (1,2...,n) si ha:
P (A
i1∩ A
i2... ∩ A
ik) = P (A
i1)P (A
i2)...P (A
ik).
Variabili casuali X
1, X
2, X
3, ...si diranno indipendenti se per ogni set del tipo A
i= (x t.c.
a
i≤ x ≤ b
i) gli eventi X
1∈ A
1, X
2∈ A
2etc...sono eventi indipendenti, ovvero i valori di
ogni X
irisultano indipendenti da quelli dei rimanenti.
A.2.3 La funzione caratteristica
Prendiamo un vettore s=(s
1,s
2,...,s
n) ed un vettore X=(X
1,X
2,...,X
n) di variabili casuali;
allora la funzione caratteristica, o funzione generatrice dei momenti, `e definita in questo modo:
φ(s) = E
P[exp(isX)] = Z
dxp(x) exp(isx).
dove p(x) `e la funzione densit`a di probabilit`a, e E
P`e l’operatore di aspettazione; la lettera P sottoscritta serve a sottolineare che il valore indicato dall’operatore E dipende dalla misura di probabilit`a prescelta, e non `e quindi unico.
Tale funzione ha le seguenti propriet`a:
i) φ(0) = 1 ii) φ |(s)| ≤ 1
iii) φ(s) `e una funzione uniformemente continua dei suoi argomenti per tutti gli s finiti e reali.
iv) Se il momento E
P[ Q
i
X
imi] esiste, allora:
E
P"
Y
i
X
imi#
=
"
Y
i
µ
−i ∂
∂s
t¶
miφ(s)
#
s=0
v) Una successione di densit`a di probabilit`a converge alla densit`a di probabilit`a limite se e solo se la corrispondente funzione caratteristica converge alla corrispondente funzione caratteristica limite delle densit`a di probabilit`a.
vi) Vale la formula di inversione di Fourier
A.2. PROBABILIT ` A 9
p(x) = (2π)
−nZ
dsφ(s) exp(−ixs)
Grazie a questa propriet`a, φ(s) determina p(x) con probabilit`a 1; pertanto la funzione caratteristica caratterizza effettivamente la densit`a di probabilit`a.
vii) Variabili casuali indipendenti: dalla definizione di variabili casuali indipendenti data in precedenza segue che X
1,X
2,X
3...sono indipendenti se:
p(x
1, x
2, ..., x
n) = p
1(x
1)p
2(x
2)...p
n(x
n) nel qual caso,
φ(s
1, s
2, ..., s
n) = φ
1(s
1)φ
2(s
2)...φ
n(s
n)
viii) Somma di variabili casuali indipendenti: se X
1, X
2, ...sono variabili casuali indipen- denti e se
Y = X
ni=1
X
ie la funzione caratteristica di Y `e
φ
y(s) = E
P[exp(isY )], allora
φ
y(s) = Y
n i=1φ
i(s).
Appendice B
Processi di Markov
B.1 Processi stocastici
Definiamo sistemi stocastici tutti quei sistemi in cui esiste una variabile casuale X(T) che evolve nel tempo.
Possiamo misurare i valori x
1, x
2, ...etc di X(T) al tempo t
1, t
2... e assumere che esista un set di probabilit`a congiunte
P (x
1, t
1; x
2, t
2| y
1, τ
1; y
2, τ
2; ...) = P (x
1, t
1; x
2, t
2; ...; y
1, τ
1; y
2, τ
2; ...)/(P (y
1, τ
1; y
2, τ
2; ...)
Dove le precedenti definizioni sono valide indipendentemente dall’ordinamento temporale, ma di solito si prendono tempi che decrescono da sinistra verso destra, cio`e:
t
1≥ t
2≥ t
3≥ τ
1≥ τ
2≥ ... (B.1)
L’idea di una evoluzione temporale ci porta a considerare le probabilit`a condizionate come una predizione dei futuri valori di X(T ), cio`e x
1, x
2, .. ai tempi t
1,t
2, ... data la conoscenza del passato (valori di y
1, y
2, ...ai tempi τ
1, τ
2, ...).
11
Il pi`u semplice processo stocastico `e quello di completa indipendenza:
P (x
1, t
1; x
2, t
2; ...) = Y
i
P (x
i, t
i)
che indica che il valore di X al tempo t `e completamente indipendente da quello assunto nel passato. Pu`o capitare inoltre che p(x
i, t
i) sia indipendente da t
i, cosicch`e la legge di probabilit`a che governa il processo sia la stessa a tutti i tempi; ci`o equivale a dire che tutte le variabili aleatorie x
nsono identicamente distribuite.
B.1.1 Processi aleatori ad incrementi indipendenti
Fissata una unit`a di tempo ε, ed una di lunghezza D, definiamo un reticolo bidimensio- nale, prodotto cartesiano di un asse temporale e di un asse spaziale, rappresentato da un sottoinsieme L¸ ⊆ N × Z.
Sul reticolo L¸ consideriamo il moto erratico di una particella soggetta ad urti aleatori ai tempi regolari t
k= k · ε, con k ∈ N
+.
Indicando con X
nla posizione della particella (in unit`a di ∆) al tempo t
n, e detta X
0∈ Z la posizione iniziale, la dinamica del moto erratico pu`o essere rappresentata dall’equazione stocastica del moto, detta equazione di Langevin, che per n > 1 `e data da:
X
n= X
n−1+ ξ
n(B.2)
dove ξ
nrappresenta l’incremento aleatorio, a valori interi +1 o -1, conseguente all’urto n-esimo.
Sia Ξ il processo stocastico degli incrementi:
Ξ =
ξ
n∈ Z | n ∈ N
+®
= hξ
1, ξ
2, ...i
B.1. PROCESSI STOCASTICI 13
Assegnata la posizione iniziale X
0, per ogni realizzazione di Ξ la soluzione dell’equazione di Langevin B.2 `e semplice:
X
n= X
0+ X
n k=1ξ
kper ogni n ≥ 1
Quindi X
n− X
0`e la somma cumulativa degli incrementi fino al tempo n-esimo compreso, e la traiettoria della particella `e data dall’insieme dei punti:
{hn, X
ni | n ∈ N, X
n∈ Z} ⊆ L¸
Un caso semplice di passeggiata sugli interi si ha se ci mettiamo nella condizione in cui gli incrementi siano indipendenti, cio`e quando, per ogni = ⊆ N
+, `e vero che
P Ã [
i∈=
{ξ
i= z
i}
!
= Y
i∈=
P {ξ
i= z
i}
Osserviamo che se gli incrementi sono indipendenti, allora per la funzione caratteristica vale:
φ
Xn(ω) = e
iωX0E
P¡
e
iω(ξ1+...+ξn)¢
= e
iωX0Y
n k=1E
P(e
iωξk)
cio`e la funzione caratteristica di X
n`e data da:
φ
Xn(ω) = e
iωX0Y
n k=1φ
ξk(ω) dove
φ
ξk(ω) = E
P(e
iωξk)
Un caso ancora pi`u semplice si ha quando gli incrementi aleatori sono indipendenti ed identicamente distribuiti (o iid).
In questo caso:
P Ã [
i∈=
{ξ
i= z
i}
!
= Y
i∈=
p(z
i) dove
p(z
i) = P {ξ
i= z
i}
Allora se gli incrementi sono iid, vale la seguente propriet`a
φ
Xn(ω) = E
P(e
iωXn) = E
P(e
iωX0)E
P(e
iω(ξ1+...+ξn)) = e
iωX0(φ
ξ(ω))
ncio`e la funzione caratteristica della posizione al tempo (o urto) n-esimo `e uguale al prodotto delle funzioni caratteristiche degli incrementi che determinano la posizione al tempo t
n.
B.2 Random walk
Il modello probabilistico pi`u semplice di processo stocastico ad incrementi indipententi ed identicamente distribuiti `e la passeggiata dell’ubriaco, o random-walk di una particella la cui posizione `e data da:
X
n= X
0+ X
n k=1ξ
kdove
ξ
k∈ {−1, +1} k = 1, 2, ...
B.2. RANDOM WALK 15 e
p(ξ
k= +1} = p p(ξ
k= −1} = q
con
p + q = 1
p − q = µ ∈ [0, 1]
cio`e
p = 1 + µ 2 q = 1 − µ
2
Il numero µ `e detto drift. Se µ = 0 il random walk `e detto simmetrico, altrimenti asimmetrico.
Poniamo per semplicit`a X
0= 0; la somma cumulativa degli incrementi, in unit`a di ∆ fino all’urto n-esimo compreso `e il numero aleatorio intero:
X
n= X
n k=1ξ
kI primi momenti di X
nsono dati da
1:
E
P(X
n) = X
n k=1E
P(ξ
k) = nµ E
P(X
n2) = n + n(n − 1)µ
2La funzione caratteristica della posizione `e il prodotto cumulativo delle funzioni caratteri- stiche degli incrementi:
ϕ
Xn(ω) = E
P(e
iωXn) = E
P(e
iω(ξ1+...+ξn)) = (pe
iω+ qe
−iω)
no
ϕ
Xn(ω) = (cos ω + iµ sin ω)
nLa funzione densit`a di probabilit`a di X
n`e data da:
P {X
n= k} = 1 + (−1)
n+k2 B
µ
n, n + k 2
¶
p
(n+k)/2q
(n−k)/21
Per il calcolo di E(X
n2) si sfrutta il fatto, che si pu`o dimostrare facilmente, che gli incrementi aleatori hanno momenti dati da:
E(ξ
k2s+1) = µ momenti dispari E(ξ
k2s+1) = 1 momenti pari
e con:
E(ξ
kξm) = δ(k − m) + µ
2(1 − δ(k − m))
B.3. PROCESSI DI MARKOV 17 in quanto
P {X
n= k} = E
P(δ(ξ
1+ ... + ξ
n− k))
= 1 2π
Z
+π−π
dωE
P(e
iω(ξ1+...+ξn−k)) = 1 2π
Z
+π−π
dωe
−iωkE
P(e
iω(ξ1+...+ξn))
= 1 2π
Z
+π−π
dωe
−iωk(pe
iω+ qe
−iω)
n= 1 2π
Z
+π−π
dωe
−iωkX
n r=0B(n, r)p
rq
n−re
−iω(2r−n)= X
nr=0
B(n, r)p
rq
n−rδ(2r − n − k)
dove il coefficiente binomiale B(n,m) `e cos`ı definito:
B(n, m) = n!
m!(n − m)! se 0 ≤ m ≤ n
0 altrimenti
B.3 Processi di Markov
I processi di Markov si caratterizzano tramite una assunzione sulle probabilit`a condizionate.
Si richiede che se il processo soddisfa l’ordinamento B.1, la probabilit`a condizionata sia interamente determinata dalla conoscenza della sola condizione pi`u recente, cio`e:
p(x
1, t
1; x
2, t
2; ... | y
1, τ
1; y
2, τ
2; ...) = p(x
1, t
1; x
2, t
2; ... | y
1, τ
1)
Nonostante la semplicit`a, le implicazioni di questa richiesta sono notevoli. Infatti ci`o implica che tutte le nostre probabilit`a possano essere definite in termini di probabilit`a condizionate semplici, del tipo cio`e p(x
1, t
1| y
1, τ
1).
Ad esempio, sfruttando la definizione di probabilit`a condizionata:
p(x
1, t
1; x
2, t
2| y
1, τ
1) = P (x
1, t
1| x
2, t
2; y
1, τ
1)P (x
2, t
2| y
1, τ
1)
ed usando la definizione di processo di Markov:
p(x
1, t
1; x
2, t
2; y
1, τ
1) = P (x
1, t
1| x
2, t
2)(p(x
2, t
2| y
1, τ
1)P (y
1, τ
1)
In generale dunque una qualsiasi probabilit`a congiunta pu`o essere espressa come prodotto di probabilit`a congiunte semplici.
B.4 L’equazione di Chapman-Kolmogorov
Per la A.1 abbiamo visto che la somma su tutti gli eventi mutuamente esclusivi di un tipo in una probabilit`a congiunta elimina la variabile, cio`e:
X
B
P (A ∩ B ∩ C...) = P (A ∩ C...)
e se applichiamo questa regola ad un processo stocastico otteniamo due importanti rela- zioni:
p(x
1, t
1) = Z
dx
2p(x
1, t
1; x
2, t
2) (B.3)
p(x
1, t
1| x
3, t
3) = Z
dx
2p(x
1, t
1; x
2, t
2| x
3, t
3) (B.4)
= Z
dx
2p(x
1, t
1| x
2, t
2; x
3, t
3)p(x
2, t
2| x
3, t
3)
B.5. L’EQUAZIONE DI FOKKER-PLANCK 19 Introducendo ancora una volta l’assunzione di Markov, otteniamo:
p(x
1, t
1| x
3, t
3) = Z
dx
2p(x
1, t
1| x
2, t
2)p(x
2, t
2| x
3, t
3) (B.5)
che `e l’equazione di Chapman-Kolmogorov.
Dalla precedente `e possibile ricavare la forma differenziale di questa equazione. Tralascian- do i calcoli ne riportiamo l’espressione (per la derivazione esplicita si veda C.W. Gardiner (1985) [17]):
∂
tp(z, t | y, t
0) = − X
i
∂
∂z
i[A
i(z, t)p(z, t | y, t
0)] (B.6)
+ X
i,j
1 2
∂
2∂z
i∂z
j[B
ij(z, t)p(z, t | y, t
0)]
+ Z
dx[W (z | x, t)p(xt | y, t
0) − W (x | z, t)p(z, t | y, t
0)]
B.5 L’equazione di Fokker-Planck
Nel caso in cui la quantit`a W(z|x,t) di B.6 sia zero, l’equazione differenziale di Chapman- Kolmogorov si riduce a quella di Fokker-Planck:
∂p(z, t | y, t
0)
∂t = − X
i
∂
∂z
i[A
i(z, t)p(z, t | y, t
0)] (B.7) + 1
2 X
i,j
∂
2∂z
i∂z
j[B
ij(z, t)p(z, t | y, t
0)]
Il corrispondente processo stocastico `e noto in matematica come processo di diffusione;
il vettore A
i`e detto vettore di drift e la matrice B
ijmatrice di diffusione. Inoltre l’equazione di Fokker-Planck descrive un processo in cui X(t) ammette cammini continui
2. In una dimensione B.7 assume la forma pi`u semplice:
∂f (x, t)
∂t = − ∂
∂x [A(x, t)f (x, t)] + 1 2
∂
2∂x
2[B(x, t)f (x, t)]
con
f (x, t) = p(x, t | x
0, t
0)
per ogni x
0, t
0e con la condizione iniziale
p(x, t
0| x
0, t
0) = δ(x − x
0)
Come sar`a mostrato pi`u in dettaglio nella successiva sezione relativa ai processi diffusivi osserviamo infine che il processo stocastico descritto da una probabilit`a condizionata che soddisfa l’equazione di Fokker-Plank `e equivalente al seguente differenziale stocastico di Ito:
dx(t) = A[x(t), t]dt + p
B[x(t), t]dW (t)
2
Si pu`o dimostrare che un processo di Markov ammette delle funzioni continue di t come traiettorie se per ogni ε > 0 si ha:
∆t→0
lim 1
∆t Z
|x−z|ε
dxp(x, t + ∆t | z, t) = 0
uniformemente in z, t e ∆t.Ovvero se la probabilit`a che la posizione x sia definitivamente diversa da z va a zero pi` u velocemente di ∆t, quando ∆t va a zero.
E’ abbastanza semplice osservare come l’equazione di Chapman-Kolmogorov, nel caso in cui W(x|z,t)
sia zero, rispetti questa condizione.
B.5. L’EQUAZIONE DI FOKKER-PLANCK 21 Questi due aspetti rappresentano descrizioni complementari del problema.
B.5.1 Il processo di Wiener
Questo processo, che deriva il suo nome da N. Wiener che lo studi`o intensivamente, si ottiene come caso particolare dell’equazione di Fokker-Planck, quando si ponga uguale a zero il coefficiente di drift, e ad uno quello di diffusione.
Otteniamo pertanto:
∂
∂t p(w, t | w
0, t
0) = 1 2
∂
2∂w
2p(w, t | w
0, t
0) (B.8)
Possiamo risolvere questa equazione utilizzando la trasformata di Fourier, ovvero tramite la funzione caratteristica.
Prendiamo come condizione iniziale
p(w, t | w
0, t
0) = δ(w − w
0) (B.9)
ed utilizziamo come appena detto la funzione caratteristica
φ(s, t) = Z
dwp(w, t | w, t) exp(isw)
Sfruttando le propriet`a della trasformata di Fourier, ci si riduce a dover risolvere:
∂ϕ
∂t = − 1 2 s
2φ che ha come soluzione
φ(s, t) = exp
·
− 1
2 s
2(t − t
0)φ(s, t
0)
¸
Dalla B.9, la condizione iniziale risulta
φ(s, t
0) = exp(isw
0)
cosicch`e otteniamo infine
φ(s, t) = exp
·
isw
0− 1
2 s
2(t − t
0)
¸
Ora non resta che eseguire l’inversione della trasformata di Fourier di questa gaussiana,che come `e noto rimane una gaussiana, ed otteniamo la soluzione della B.8:
p(w, t | w
0, t
0) = [2π(t − t
0)]
−1/2exp £
− (w − w
0)
2/2 (t − t
0) ¤
Dalla funzione caratteristica, per la propriet`a (iv), otteniamo facilmente la media e la varianza del nostro processo:
hW (t)i = w
0 [W (t) − w
0]
2®
= t − t
0Pertanto l’evoluzione temporale si limiter`a a modificare la varianza, comportando un progressivo allargamento della nostra campana.
Il processo di Wiener con una sola variabile viene comunemente chiamato moto browniano,
in quanto questo processo corrisponde esattamente all’equazione di diffusione studiata da
Einstein e da Langevin.
B.5. L’EQUAZIONE DI FOKKER-PLANCK 23
Figura B.1: Processo di Wiener: allargamento della probabilit`a di transizione
B.5.2 Il processo di Ornstein-Uhlenbeck
Aggiungendo un termine lineare di drift al processo di Wiener, otteniamo una equazione di Fokker-Plank della forma:
∂
tp = ∂
x(kxp) + 1 2 D∂
x2p
dove con p si intende p(x, t | x
0, 0). Questo `e il processo di Ornstein-Uhlenbeck, da cui deriva il famoso modello previsionale di Vasicek di cui ci siamo occupati.
L’equazione per la funzione caratteristica
φ(s) = Z
∞−∞
e
isxp(x, t | x
0, 0)dx
assume la forma:
∂
tφ + ks∂
sφ = − 1 2 Ds
2φ
Tale equazione differenziabile pu`o esser risolta tramite il metodo delle caratteristiche.
Se
u(s, t, φ) = a e v(s, t, φ) = b
sono due integrali dell’equazione sussidiaria (con a e b costanti arbitrarie):
dt 1 = ds
ks = − dφ
1 2
Ds
2φ
allora una soluzione generale `e data da:
f (u, v) = 0
Le soluzioni particolari sono trovate integrando l’equazione che coinvolge dt e ds, e quella per ds e dφ, trovando:
u(s, t, φ) = s exp(−kt) v(s, t, φ) = φ exp(Ds
2/4k)
e la soluzione generale pu`o esser messa nella forma v=g(u) con g(u) funzione arbitraria di u. Dunque la soluzione `e:
φ(s, t) = exp(−Ds
2/4k)g[s exp(−kt)]
La condizione al bordo
p(x, 0 | x
0, 0) = δ(x − x
0)
richiede chiaramente che:
B.5. L’EQUAZIONE DI FOKKER-PLANCK 25
φ(s, 0) = exp(ix
0s)
e ci restituisce:
g(s) = exp(Ds
2/4k) + ix
0s), e quindi
φ(s, t) = exp
·
− Ds
24k (1 − e
−2kt) + isx
0e
−kt¸
che corrisponde ad una gaussiana con:
hX(t)i = x
0exp(−kt) V ar{X(t)} = D
2k [1 − exp(−2kt)]
Appendice C
La formula di Feynman-Kaˇ c
Richard Feynman e Mark Kaˆc hanno mostrato come utilizzare il moto Browniano per risolvere alcune classi di equazioni differenziali. Un esempio importante `e costituito dalla soluzione stocastica dell’equazione deterministica del tipo di quella di Fokker-Planck:
· ∂
∂t + D(x, t) ∂
2∂x
2+ µ(x, t) ∂
∂x
¸
F (x, t) = 0 t ∈ [0, T ]
con la condizione al tempo finale
F (x, T ) = ϕ(x)
Essi hanno mostrato che la soluzione della precedente pu`o essere scritta nella forma:
F (x, t) = E(ϕ(X(T ) | X(t) = x)
27
dove X(t) `e un processo stocastico la cui dinamica `e data dal differenziale
dX(t) = µ(X(T ), t)dt + p
2D(X(t), t)dW (t)
Verifichiamo la correttezza di tale soluzione; iniziamo col riscrivere F(x,t) nella forma:
F (x, t) = E(ϕ(X(T ) | X(t) = x) = Z
dyϕ(y)P (y, T | x, t)
con P (x
00, t | x
0, t) = δ(x
00− x
0) e
− ∂
∂t
00P (x
00, t
00| x
0, t
0) = H(x
00, ∂
00, t
00)P (x
00, t
00| x
0, t
0) + ∂
∂t
0P (x
00, t
00| x
0, t
0) = H
+(x
0, ∂
0, t
0)P (x
00, t
00| x
0, t
0) dove
H(x, ∂, t) = − ∂
2∂x
2D(x, t) + ∂
∂x µ(x, t) H
+(x, ∂, t) = −D(x, t) ∂
2∂x
2− µ(x, t) ∂
∂x Allora si ha:
· ∂
∂t − H
+(x, ∂, t)
¸
F (x, t) = Z
dyϕ(y)
· ∂
∂t − H
+(x, ∂, t)
¸
P (y, T | x, t) = 0
C.1. RAPPRESENTAZIONE ESTESA DI FEYNMAN-KA ˆ C 29
C.1 Rappresentazione estesa di Feynman-Kaˆ c
Assegnati gli operatori
H(x, ∂, t) = − ∂
2∂x
2D(x, t) + ∂
∂x µ(x, t) H
+(x, ∂, t) = −D(x, t) ∂
2∂x
2− µ(x, t) ∂
∂x consideriamo l’equazione differenziale deterministica:
· ∂
∂t − H
+(x, ∂, t)
¸
F (x, t) = −ρ(x, t) con la condizione
F (x, T ) = ϕ(x) Allora
F (x, T ) = E µ
ϕX(T )) + Z
dsρ(X(s), s) | X(t) = x
¶
dove
dX(t) = µ(X(t), t)dt + p
2D(X(t), t)dW (t) Dimostrazione. Basta osservare che:
F (x, T ) = Z
dy
·
ϕ(y)P (y, T | x, t) + Z
Tt
dsρ(y, s)P (y, s | x, t)
¸
oppure pi`u direttamente
· ∂
∂t − H
+(x, ∂, t)
¸ E
µ
ϕ(X(T )) − Z
Tt
dsρ(X(s), s) | X(t) = x
¶
= −E µ ∂
∂t Z
Tt
dsρ(X(s), s) | X(t) = x
¶
= E(ρ(X(s), s) | X(t) = x) = ρ(x, t)
Appendice D
L’integrale di Ito e i processi stocastici
D.1 Generalit` a sui processi diffusivi
Una variabile aleatoria X(t) obbedisce ad una equazione differenziale stocastica (SDE) di Ito del tipo:
dX(t) = a[X(t), t]dt + b[X(t), t]dW (t) (D.1)
se per ogni t e t
0X(t) = X(t
0) + Z
tt0
dt
0a[X(t
0), t
0] + Z
tt0
dW (t
0)b[X(t
0), t
0]. (D.2)
Tralasciando la complessit`a delle condizioni rigorose a cui devono soddisfare i coefficienti della D.2, ci piacerebbe fornire un’idea intuitiva di cosa si intende per soluzione di una equazione di quel tipo e cosa significhi unicit`a della soluzione in questo contesto.
31
A tal fine consideriamo una versione discretizzata della D.1, ottenuta fissando un intervallo temporale ed un set di punti t
itali che
t
1< t
2< ... < t
n= t
e scrivendo l’equazione come:
X
i+1= X
i+ a(X
i, t
i)∆t
i+ b(X
i, t
i)∆W
i(D.3)
dove chiaramente nella D.3 si intende:
X
i= X(t
i)
∆t
i= t
i+1− t
i∆W
i= W (t
i+1) − W (t
i)
La D.3 rappresenta quindi una procedura per risolvere tali equazioni, calcolando X
i+1a
partire dalla conoscenza di X
ied aggiungendo un termine deterministico a(X
i, t
i)∆t
ied
uno stocastico b(X
i, t
i)∆W
i. La soluzione vera e propria si ottiene formalmente mandando
a zero l’intervallo temporale ∆t; affermare l’esistenza della soluzione equivale a dire che
D.2. LA FORMULA DI ITO 33
tale soluzione esiste con probabilit`a uno per ogni scelta della funzione campione ˜ W(t) di W(t). Dire poi che tale soluzione `e unica significa affermare che per ogni realizzazione, o funzione campione ˜ W(t) del processo di Wiener W(t), la soluzione del particolare processo che ne deriva `e unica.
Aggiungiamo inoltre che X(t), soluzione della D.2, `e un processo di Markov.
D.2 La formula di Ito
Supponiamo che, noto il differenziale del numero aleatorio X(t) (di cui per favorire la leggibilit`a d’ora in poi sottoscriveremo la dipendenza dal tempo),
dX
t= µ(X
t, t)dt + σ(X
t, t)dW
t(D.4)
si voglia determinare il differenziale stocastico di un nuovo numero aleatorio Y
tdefinito da
Y
t= ψ(X
t, t)
Iniziamo con l’osservare che
d
dt E(e
iωψ(Xt,t)) = E(iωψ
t(X
t, t)e
iωψ(Xt,t)+ µ(X
t, t)iωψ
t(X
t, t)e
iωψ(Xt,t)) +E( σ
2(X
t, t)
2 [iωψ
xx(X
t, t) − ω
2ψ
x(X
t, t)ψ
x(X
t, t)]e
iωψ(Xt,t))
= iωE([ψ
t(X
t, t) + µ(X
t, t)ψ
x(X
t, t) + σ
2(X
t, t)
2 ψ
xx(X
t, t)]e
iωψ(Xt,t))
−ω
2E( σ
2(X
t, t)
2 ψ
x(X
t, t)ψ
x(X
t, t)e
iωψ(Xt,t))
ed usando le definizioni
µ
Y(Y
t, t) = ψ
t(X
t, t) + µ(X
t, t)ψ
x(X
t, t) + σ
2(X
t, t)
2 ψ
xx(X
t, t) σ
Y(Y
t, t) = σ(X
t, t)ψ
x(X
t, t)
otteniamo
d
dt E(e
iωYt) = iωE(µ
Y(Y
t, t)e
iωYt) − ω
22 E(σ
Y2(Y
t, t)e
iωYt) Dal confronto con
d
dt E(e
iωXt) = iωE(µ
Y(X
t, t)e
iωXt) − ω
22 E(σ
Y2(X
t, t)e
iωXt)
e
dX
t= µ(X
t, t)dt + σ(X
t, t)dW
tsegue che possiamo scrivere il differenziale stocastico di ψ nella forma
dψ = [ψ
t+ µψ
x+ σ
22 ψ
xx]dt + σψ
xdW o direttamente come formula di Ito
dψ(X
t, t) =
·
ψ
t(X
t, t) + σ
2(X
t, t)
2 ψ
xx(X
t, t)
¸
dt + ψ
xdX
t(D.5)
D.2. LA FORMULA DI ITO 35
Ecco un metodo alternativo per ricavare tale formula.
Si pu`o dimostrare che valgono le seguenti relazioni tra i differenziali di t e di W, moto browniano standard:
(dt)
2→ 0 dtdW (t) → 0 [dW (t)]
2= dt
dove la freccina indica il limite quadratico medio
1.
Sia sempre X il generico processo stocastico D.4, allora il differenziale di una qualsiasi funzione f(X(t),t) si pu`o ottenere sviluppando in serie di Taylor secondo le usuali regole la funzione f, e tenendo presenti le precedenti relazioni.
Si noter`a subito che `e sufficente sviluppare soltanto fino al secondo ordine perch`e tutti i termini di ordine superiore si annullano, ottenendo:
1
Un modo per indicare il limite di una successione di variabili casuali `e il limite quadratico medio o ms-lim (mean-square limit).
Quindi:
X
n→ X
`e equivalente a:
ms − lim
n→∞X
n= X
e significa:
lim
n→∞Z
dωp(ω)[X
n(ω) − X(ω)]
2≡ lim
n→∞< (X
n− X)
2>= 0
df = (f
t+ µf
x+ 1
2 σ
2f
xx)dt + σf
xdW che `e esattamente equivalente alla D.5.
D.3 Relazione tra l’equazione di Fokker-Plank e le SDE
Consideriamo l’evoluzione temporale di una arbitraria funzione f(x(t)). Usando la formula di Ito:
E [df [x(t)]] /dt = E
· df [x(t)]
dt
¸
= d
dt E [f [x(t)]] = E
·
a[x(t), t]∂
xf + 1
2 b[x(t), t]
2∂
x2f
¸
Ad ogni modo ad x(t) `e associata una distribuzione di probabilit`a p(x, t | x
0, t
0) e dunque:
d
dt E [f [x(t)]] = Z
dxf (x)∂
tp(x, t | x
0, t
0) = Z
dx[a(x(t), t)∂
xf + 1
2 b(x(t), t)
2∂
x2f ]p(x, t | x
0, t
0) Integrando per parti e scartando i termini di superficie (per maggiori dettagli si veda GARDINER $4.3.4 p96 e seg.) si ottiene:
Z
dxf (x)∂
tp = Z
dxf (x){−∂
x[a(x(t), t)p] + 1
2 ∂
x2[b(x, t)
2p]}, e poich`e f (x) `e arbitraria:
∂
tp(x, t | x
0, t
0) = −∂
x[a(x(t), t)p(x, t | x
0, t
0)] + 1
2 ∂
x2[b(x, t)
2p(x, t | x
0, t
0)].
Abbiamo quindi una completa equivalenza con un processio di diffusione definito da un
coefficiente di drift a(x,t) e un coefficiente di diffusione b(x,t)
2.
Appendice E
Approssimazione di Milstein per gli integrali stocastici
Limitiamoci per semplicit`a al caso unidimensionale e consideriamo x(t), processo diffusivo soluzione di una equazione differenziale stocastica con (t-v) intervallo di integrazione:
x(t) = x(v) + Z
tv
α(x(s))ds + Z
tv
σ(x(s))dw(s) (E.1)
Sia ora f(x) una funzione reale con derivate parziali continue; indicando x(s) con x
s, α(x
s) con α
s, etc..usiamo la formula di Ito nella sua forma integrale, ottenendo:
f (x
t) = f (x
v) + Z
tv
·
f
0(x
s)α
s+ 1
2 f
00(x
s)σ
s2¸ ds +
Z
tv
f
0(x
s)σ
sdw
s≡ I
t,x(f
v) (E.2) Ovviamente per f(x)=x, E.2 si riduce a E.1. Per f(x)=α(x) e f(x)=σ(x), otteniamo due espressioni per il drift e la diffusione:
α
s= α
v+ Z
sv
·
α
0uα
u+ 1 2 α
00uσ
u2¸ du +
Z
sv
α
0uσ
udw
s≡ I
s,x(α
v) σ
s= σ
v+
Z
sv
·
σ
u0α
u+ 1 2 σ
00uσ
2u¸ du +
Z
sv
σ
0uσ
udw
u≡ I
s,x(σ
v)
37
Sostituendo queste espressioni in E.1 otteniamo:
x
t= x
v+ α
vZ
tv
ds + Z
tv
Z
sv
·
α
0uα
u+ 1 2 α
u00σ
2u¸
duds + Z
tv
Z
sv
α
0uσ
udw
uds + (E.3) σ
vZ
tv
dw
s+ Z
tv
Z
sv
·
σ
0uα
u+ 1 2 σ
00uσ
u2¸
dudw
s+ Z
tv
Z
sv
Z
sv
σ
u0σ
udw
udw
sQuesta `e la forma pi`u semplice di formula di Taylor stocastica, e possiamo indicarla nel seguente e pi`u leggibile modo :
x(t) = x(v) + α
vZ
tv
ds + σ
vZ
tv
dw
s+ R
1dove R
1e la parte rimanente. `
Approssimazioni pi`u raffinate possono essere ottenute sostituendo ancora le funzioni inte- grande di E.3 con la loro espansione alla Ito:
x
t= x
v+ α
vZ
tv
ds + σ
vZ
tv
dw
s+ σ
v0σ
vZ
tv
Z
svu
dw
udw
s+
·
α
0vα
v+ 1 2 α
v00σ
v2¸ Z
tv
Z
sv
duds + α
0vσ
vZ
tv
Z
sv
dw
sds +
·
σ
v0α
v+ 1 2 σ
v00σ
v2¸ Z
tv
Z
sv
dudW
s+ R
2E.1 Approssimazione discreta: lo schema forte di Ito- Taylor 1.5
Per una simulazione del processo CIR:
dX
t= (a + bX
t)dt + σ p
|X
t|dW
t, X
0= x
0E.1. APPROSSIMAZIONE DISCRETA: LO SCHEMA FORTE DI ITO-TAYLOR 1.539 ho utilizzato l’approssimazione discreta alla Milstein di cui si `e parlato poco sopra:
X
(n+1)∆= X
n∆ + ∆(a + bX
n∆) + σ p
X
n∆∆W + σ
24 ((∆W )
2− ∆) + bσ p
X
n∆∆Z + 1
2 ∆
2b(a + bX
n∆) + σ 2 √
X
n∆ (a + bX
n∆− σ
24 )(∆W ∆ − ∆Z) dove ∆W = √
∆U
1, ∆Z = ∆
3/2(U
1+ U
2/ √
3)/2 ed U
1e U
2sono variabili casuali indipen- denti distribuite normalmente, con media zero e varianza unitaria; ∆ invece rappresenta il passo del reticolo temporale, e il suo inverso `e il numero di misurazioni effettuate per unit`a di tempo.
Per ulteriori dettagli si veda Kloeden-Platen ([21].
Per la realizzazione della simulazione ho scritto con Matlab un piccolo codice : function Y=MilsteinCIR(a,b,s,y0)
input (’lunghezza vettore? ’) y=zeros(1,ans);
n=length(y);
D=1/250 for i=1:n-1
w=D^(1/2)*randn(1);
z=D^(3/2)*(w+randn(1)/(3^(1/2)))*(1/2);
y(1)=y0;
y(i+1)=y(i)+D*(a+b*y(i))+s*(y(i)^(1/2))*w+(s^2/4)*(w^2-D)+b*s*(y(i)^(1/2))*z+
+(1/2)*D^2*b*(a+b*y(i))+(s/(2*(y(i)^(1/2))))*(a+b*y(i)-(s^2/4))*(w*D-z);
end
y;
%l=length(y);
x=[1:n];
plot(x,y,’-’)
Al variare dei parametri a,b e σ si possono notare andamenti di tipo completamente differente, che comunque rispecchiano le previsioni teoriche effettuate sul modello esatto.
Se a > 0 e b < 0 si determiner`a un processo caratterizzato dalla ”mean reversion”, ovvero un andamento oscillante intorno al valore -
ab;supponendo che il processo descriva l’anda- mento del tasso d’interesse a breve (questa fu infatti l’idea di Cox Ingersoll e Ross) tale termine rappresenter`a il tasso medio di lungo periodo.
Tale caratteristica si perde qualora sia anche b > 0. σ = 1 determina invece la possibilit`a per il processo di assumere anche il valore 0.
Si riporta una simulazione per ogni terna di parametri:
0 50 100 150 200 250 300 350 400
0 1 2 3 4 5 6
t
Y(t)
Simulazione CIR
y0=2.5 a=1 b=−0.5 s=1
Figura E.1: Simulazione CIR (1)
E.1. APPROSSIMAZIONE DISCRETA: LO SCHEMA FORTE DI ITO-TAYLOR 1.541
0 50 100 150 200 250 300 350 400
−0.5 0 0.5 1 1.5 2 2.5 3
t
Y(t)
Simulazione CIR
a=1 b= −0.5 s=2 y0=2.5
Figura E.2: Simulazione CIR (2)
0 50 100 150 200 250 300 350 400
0 100 200 300 400 500 600 700 800
t
Y(t)
Simulazione CIR
a=1 b=0.5 s=2 y0=2.5
Figura E.3: Simulazione CIR (3)
0 50 100 150 200 250 300 350 400
0 50 100 150 200 250 300 350
t
Y(t)
Simulazione CIR
a=1 b=0.5 s=1 y0=2.5