• Non ci sono risultati.

A.2.1 Assiomi di probabilit`a . . . . 4

N/A
N/A
Protected

Academic year: 2021

Condividi "A.2.1 Assiomi di probabilit`a . . . . 4"

Copied!
50
0
0

Testo completo

(1)

Indice

A Probabilit` a 3

A.1 Introduzione . . . . 3

A.2 Probabilit`a . . . . 4

A.2.1 Assiomi di probabilit`a . . . . 4

A.2.2 Probabilit`a congiunta e probabilit`a condizionata . . . . 5

A.2.3 La funzione caratteristica . . . . 8

B Processi di Markov 11 B.1 Processi stocastici . . . . 11

B.1.1 Processi aleatori ad incrementi indipendenti . . . . 12

B.2 Random walk . . . . 14

B.3 Processi di Markov . . . . 17

B.4 L’equazione di Chapman-Kolmogorov . . . . 18

B.5 L’equazione di Fokker-Planck . . . . 19

B.5.1 Il processo di Wiener . . . . 21

B.5.2 Il processo di Ornstein-Uhlenbeck . . . . 23

C La formula di Feynman-Kaˇ c 27 C.1 Rappresentazione estesa di Feynman-Kaˆc . . . . 29

1

(2)

D L’integrale di Ito e i processi stocastici 31 D.1 Generalit`a sui processi diffusivi . . . . 31

D.2 La formula di Ito . . . . 33 D.3 Relazione tra l’equazione di Fokker-Plank e le SDE . . . . 36 E Approssimazione di Milstein per gli integrali stocastici 37 E.1 Approssimazione discreta: lo schema forte di Ito-Taylor 1.5 . . . . 38

F Il metodo della massima verosimiglianza 43

Bibliografia 46

(3)

Appendice A Probabilit` a

A.1 Introduzione

Per una migliore comprensione degli argomenti trattati, oltre che per motivi di completezza espositiva, pu`o essere utile accennare brevemente alla teoria classica delle probabilit`a. E’

bene precisare che l’utilit`a di simili concetti in questa sede `e di carattere fondamentalmente teorico. Questo perch`e l’interpretazione frequentistica di probabilit`a `e del tutto inefficace nel trattare variabili di tipo economico; come ripetutamente ricordato, non `e possibile ripe- tere pi`u volte la misura di un tasso di interesse. Inoltre dobbiamo distinguere nettamente la nozione di fenomeno aleatorio da quella di modello fisico-matematico di quel fenomeno;

sarebbe dunque pi`u appropriato parlare di aspettativa di un operatore, e di probabilit`a legata al modello prescelto. Una volta concordati lo spazio ambiente e la sigma-algebra, le aspettative di generici agenti possono essere ben lontane tra loro e differire notevolmente nella scelta della misura di probabilit`a.

Pertanto l’interpretazione pi`u utile per i fini pratici `e quella di associare all’idea di proba- bilit`a quella della miglior previsione che un individuo razionale pu`o assumere di fronte a situazioni di incertezza.

3

(4)

A.2 Probabilit` a

La teoria della probabilit`a non `e altro che il buonsenso ridotto a calcolo

Simon Laplace.

Nelle questioni di probabilit`a si deve sempre assegnare un insieme ambiente Ω, ed un insieme di sottoinsiemi di Ω, i quali sono detti set di eventi.

Per motivi di trattabilit`a abbiamo bisogno che i nostri set di eventi formino un sistema chiuso z per le operazioni di unione e intersezione, detto σ−algebra. La coppia hΩ, zi rappresenta un po’ le regole del gioco, cio`e quello su cui tutti gli agenti devono concordare, indipendentemente dalle loro aspettative.

A.2.1 Assiomi di probabilit` a

Il passo successivo `e quello di introdurre una probabilit`a P, ovvero una misura positiva associata ad ogni set di eventi A

i

.

Una terna hΩ, z, P i costituisce uno spazio probabilizzato. Ogni misura P deve comunque soddisfare i seguenti assiomi di probabilit`a:

(i) P(A

i

)≥ 0 per tutti gli A

i

∈ z, (ii) P(Ω)=1 (probabilit`a normalizzata)

(iii) se A

i

(i=1,2,3,..) `e un insieme numerabile (ma anche infinito) di eventi che non si sovrappongono, tali cio`e che

A

i

∩ A

j

= ∅ per tutti i 6= j,

allora

(5)

A.2. PROBABILIT ` A 5

P (∪

i

A) = X

i

P (A

i

).

Come conseguenza dei precedenti abbiamo comunque che:

(iv) se ¯ A `e il complementare di A, cio`e il set di tutti gli eventi non contenuti in A, allora:

P ( ¯ A) = 1 − P (A)

(v) P(∅)=0

Ogni idea intuitiva di probabilit`a d`a origine a probabilit`a non negative, e la probabilit`a che un arbitrario evento sia contenuto nel set di tutti gli eventi deve essere uno, indi- pendentemente dalla definizione; dunque i primi due assiomi non necessitano di ulteriore commento.

Occupiamoci del terzo: supponiamo di avere solo due set A e B, tali che A ∩ B=∅. Ci`o vuol dire che la probabilit`a che ω ∈ A ∪ B equivale alla probabilit`a che ω ∈ A o ω ∈ B. Si dimostra, come conseguenza degli assiomi, che la probabilit`a `e la somma delle probabilit`a individuali, cio`e:

P (A ∪ B) = P {(ω ∈ A) o (ω ∈ B)} = P (A) + P (B)

L’estensione ad ogni numero finito di set risulta ovvia.

A.2.2 Probabilit` a congiunta e probabilit` a condizionata

Supponiamo adesso di aver a che fare con due set A e B, tali che A ∩ B 6= ∅.La probabilit`a:

(6)

P (A ∩ B) = P {(ω ∈ A) e (ω ∈ B)}

`e detta probabilit`a congiunta, ovvero la probabilit`a che accadano entrambi gli eventi ω ∈ A e ω ∈ B.

Si possono poi specificare delle condizioni su determinati eventi, cio`e la probabilit`a che ω ∈ A una volta che sia noto che ω ∈ B.

In questo caso si parla di probabilit`a condizionata, e si definisce cos`ı:

P (A | B) = P (A ∩ B)/P (B)

Relazione tra probabilit` a congiunte di ordine diverso Supponiamo di avere un certo numero di set B

i

tali che

B

i

∩ B

j

= ∅

i

B

i

= Ω

in modo tale che i set dividano lo spazio Ω in sottoinsiemi non intersecanti. Allora:

i

(A ∩ B

i

) = A ∩ (∪

i

B

i

) = A ∩ Ω = A

Applicando l’assioma (iii) a A ∩ B

i

otteniamo:

X

i

P (A ∩ B

i

) = P [∪

i

(A ∩ B

i

)] = P (A)

(7)

A.2. PROBABILIT ` A 7 e quindi

X

i

P (A | B

i

)P (B

i

) = P (A) (A.1)

Possiamo quindi concludere che la somma su tutte le possibilit`a mutuamente esclusive di B nella probabilit`a congiunta elimina la variabile.

Indipendenza

Cosa si intende per eventi indipendenti? Cerchiamo di rispondere da un punto di vista probabilistico.

Supponendo di avere due set di eventi A e B, essi rappresenteranno set di eventi indipendenti se il fatto che un evento appartenga a B non influenza la probabilit`a che esso appartenga anche ad A.

Dunque la probabilit`a condizionata P (A | B) deve risultare indipendente da B, e quindi:

P (A ∩ B) = P (A)P (B)

Nel caso di pi`u eventi appartenenti allo stesso set, `e necessario richiedere per l’indipendenza, la fattorizzazione di tutti i sotto-set interessati; nello specifico gli eventi (ω ∈ A

i

)(i = 1, 2, ..., n) si considereranno indipendenti se per ogni sotto-set (i

1

, i

2

, ..., i

k

) del set (1,2...,n) si ha:

P (A

i1

∩ A

i2

... ∩ A

ik

) = P (A

i1

)P (A

i2

)...P (A

ik

).

Variabili casuali X

1

, X

2

, X

3

, ...si diranno indipendenti se per ogni set del tipo A

i

= (x t.c.

a

i

≤ x ≤ b

i

) gli eventi X

1

∈ A

1

, X

2

∈ A

2

etc...sono eventi indipendenti, ovvero i valori di

ogni X

i

risultano indipendenti da quelli dei rimanenti.

(8)

A.2.3 La funzione caratteristica

Prendiamo un vettore s=(s

1

,s

2

,...,s

n

) ed un vettore X=(X

1

,X

2

,...,X

n

) di variabili casuali;

allora la funzione caratteristica, o funzione generatrice dei momenti, `e definita in questo modo:

φ(s) = E

P

[exp(isX)] = Z

dxp(x) exp(isx).

dove p(x) `e la funzione densit`a di probabilit`a, e E

P

`e l’operatore di aspettazione; la lettera P sottoscritta serve a sottolineare che il valore indicato dall’operatore E dipende dalla misura di probabilit`a prescelta, e non `e quindi unico.

Tale funzione ha le seguenti propriet`a:

i) φ(0) = 1 ii) φ |(s)| ≤ 1

iii) φ(s) `e una funzione uniformemente continua dei suoi argomenti per tutti gli s finiti e reali.

iv) Se il momento E

P

[ Q

i

X

imi

] esiste, allora:

E

P

"

Y

i

X

imi

#

=

"

Y

i

µ

−i

∂s

t

mi

φ(s)

#

s=0

v) Una successione di densit`a di probabilit`a converge alla densit`a di probabilit`a limite se e solo se la corrispondente funzione caratteristica converge alla corrispondente funzione caratteristica limite delle densit`a di probabilit`a.

vi) Vale la formula di inversione di Fourier

(9)

A.2. PROBABILIT ` A 9

p(x) = (2π)

−n

Z

dsφ(s) exp(−ixs)

Grazie a questa propriet`a, φ(s) determina p(x) con probabilit`a 1; pertanto la funzione caratteristica caratterizza effettivamente la densit`a di probabilit`a.

vii) Variabili casuali indipendenti: dalla definizione di variabili casuali indipendenti data in precedenza segue che X

1

,X

2

,X

3

...sono indipendenti se:

p(x

1

, x

2

, ..., x

n

) = p

1

(x

1

)p

2

(x

2

)...p

n

(x

n

) nel qual caso,

φ(s

1

, s

2

, ..., s

n

) = φ

1

(s

1

2

(s

2

)...φ

n

(s

n

)

viii) Somma di variabili casuali indipendenti: se X

1

, X

2

, ...sono variabili casuali indipen- denti e se

Y = X

n

i=1

X

i

e la funzione caratteristica di Y `e

φ

y

(s) = E

P

[exp(isY )], allora

φ

y

(s) = Y

n i=1

φ

i

(s).

(10)
(11)

Appendice B

Processi di Markov

B.1 Processi stocastici

Definiamo sistemi stocastici tutti quei sistemi in cui esiste una variabile casuale X(T) che evolve nel tempo.

Possiamo misurare i valori x

1

, x

2

, ...etc di X(T) al tempo t

1

, t

2

... e assumere che esista un set di probabilit`a congiunte

P (x

1

, t

1

; x

2

, t

2

| y

1

, τ

1

; y

2

, τ

2

; ...) = P (x

1

, t

1

; x

2

, t

2

; ...; y

1

, τ

1

; y

2

, τ

2

; ...)/(P (y

1

, τ

1

; y

2

, τ

2

; ...)

Dove le precedenti definizioni sono valide indipendentemente dall’ordinamento temporale, ma di solito si prendono tempi che decrescono da sinistra verso destra, cio`e:

t

1

≥ t

2

≥ t

3

≥ τ

1

≥ τ

2

≥ ... (B.1)

L’idea di una evoluzione temporale ci porta a considerare le probabilit`a condizionate come una predizione dei futuri valori di X(T ), cio`e x

1

, x

2

, .. ai tempi t

1

,t

2

, ... data la conoscenza del passato (valori di y

1

, y

2

, ...ai tempi τ

1

, τ

2

, ...).

11

(12)

Il pi`u semplice processo stocastico `e quello di completa indipendenza:

P (x

1

, t

1

; x

2

, t

2

; ...) = Y

i

P (x

i

, t

i

)

che indica che il valore di X al tempo t `e completamente indipendente da quello assunto nel passato. Pu`o capitare inoltre che p(x

i

, t

i

) sia indipendente da t

i

, cosicch`e la legge di probabilit`a che governa il processo sia la stessa a tutti i tempi; ci`o equivale a dire che tutte le variabili aleatorie x

n

sono identicamente distribuite.

B.1.1 Processi aleatori ad incrementi indipendenti

Fissata una unit`a di tempo ε, ed una di lunghezza D, definiamo un reticolo bidimensio- nale, prodotto cartesiano di un asse temporale e di un asse spaziale, rappresentato da un sottoinsieme L¸ ⊆ N × Z.

Sul reticolo L¸ consideriamo il moto erratico di una particella soggetta ad urti aleatori ai tempi regolari t

k

= k · ε, con k ∈ N

+

.

Indicando con X

n

la posizione della particella (in unit`a di ∆) al tempo t

n

, e detta X

0

∈ Z la posizione iniziale, la dinamica del moto erratico pu`o essere rappresentata dall’equazione stocastica del moto, detta equazione di Langevin, che per n > 1 `e data da:

X

n

= X

n−1

+ ξ

n

(B.2)

dove ξ

n

rappresenta l’incremento aleatorio, a valori interi +1 o -1, conseguente all’urto n-esimo.

Sia Ξ il processo stocastico degli incrementi:

Ξ = ­

ξ

n

∈ Z | n ∈ N

+

®

= hξ

1

, ξ

2

, ...i

(13)

B.1. PROCESSI STOCASTICI 13

Assegnata la posizione iniziale X

0

, per ogni realizzazione di Ξ la soluzione dell’equazione di Langevin B.2 `e semplice:

X

n

= X

0

+ X

n k=1

ξ

k

per ogni n ≥ 1

Quindi X

n

− X

0

`e la somma cumulativa degli incrementi fino al tempo n-esimo compreso, e la traiettoria della particella `e data dall’insieme dei punti:

{hn, X

n

i | n ∈ N, X

n

∈ Z} ⊆ L¸

Un caso semplice di passeggiata sugli interi si ha se ci mettiamo nella condizione in cui gli incrementi siano indipendenti, cio`e quando, per ogni = ⊆ N

+

, `e vero che

P Ã [

i∈=

i

= z

i

}

!

= Y

i∈=

P {ξ

i

= z

i

}

Osserviamo che se gli incrementi sono indipendenti, allora per la funzione caratteristica vale:

φ

Xn

(ω) = e

iωX0

E

P

¡

e

iω(ξ1+...+ξn)

¢

= e

iωX0

Y

n k=1

E

P

(e

iωξk

)

cio`e la funzione caratteristica di X

n

`e data da:

φ

Xn

(ω) = e

iωX0

Y

n k=1

φ

ξk

(ω) dove

φ

ξk

(ω) = E

P

(e

iωξk

)

(14)

Un caso ancora pi`u semplice si ha quando gli incrementi aleatori sono indipendenti ed identicamente distribuiti (o iid).

In questo caso:

P Ã [

i∈=

i

= z

i

}

!

= Y

i∈=

p(z

i

) dove

p(z

i

) = P {ξ

i

= z

i

}

Allora se gli incrementi sono iid, vale la seguente propriet`a

φ

Xn

(ω) = E

P

(e

iωXn

) = E

P

(e

iωX0

)E

P

(e

iω(ξ1+...+ξn)

) = e

iωX0

ξ

(ω))

n

cio`e la funzione caratteristica della posizione al tempo (o urto) n-esimo `e uguale al prodotto delle funzioni caratteristiche degli incrementi che determinano la posizione al tempo t

n

.

B.2 Random walk

Il modello probabilistico pi`u semplice di processo stocastico ad incrementi indipententi ed identicamente distribuiti `e la passeggiata dell’ubriaco, o random-walk di una particella la cui posizione `e data da:

X

n

= X

0

+ X

n k=1

ξ

k

dove

ξ

k

∈ {−1, +1} k = 1, 2, ...

(15)

B.2. RANDOM WALK 15 e

p(ξ

k

= +1} = p p(ξ

k

= −1} = q

con

p + q = 1

p − q = µ ∈ [0, 1]

cio`e

p = 1 + µ 2 q = 1 − µ

2

Il numero µ `e detto drift. Se µ = 0 il random walk `e detto simmetrico, altrimenti asimmetrico.

Poniamo per semplicit`a X

0

= 0; la somma cumulativa degli incrementi, in unit`a di ∆ fino all’urto n-esimo compreso `e il numero aleatorio intero:

X

n

= X

n k=1

ξ

k

(16)

I primi momenti di X

n

sono dati da

1

:

E

P

(X

n

) = X

n k=1

E

P

k

) = nµ E

P

(X

n2

) = n + n(n − 1)µ

2

La funzione caratteristica della posizione `e il prodotto cumulativo delle funzioni caratteri- stiche degli incrementi:

ϕ

Xn

(ω) = E

P

(e

iωXn

) = E

P

(e

iω(ξ1+...+ξn)

) = (pe

+ qe

−iω

)

n

o

ϕ

Xn

(ω) = (cos ω + iµ sin ω)

n

La funzione densit`a di probabilit`a di X

n

`e data da:

P {X

n

= k} = 1 + (−1)

n+k

2 B

µ

n, n + k 2

p

(n+k)/2

q

(n−k)/2

1

Per il calcolo di E(X

n2

) si sfrutta il fatto, che si pu`o dimostrare facilmente, che gli incrementi aleatori hanno momenti dati da:

E(ξ

k2s+1

) = µ momenti dispari E(ξ

k2s+1

) = 1 momenti pari

e con:

E(ξ

k

ξm) = δ(k − m) + µ

2

(1 − δ(k − m))

(17)

B.3. PROCESSI DI MARKOV 17 in quanto

P {X

n

= k} = E

P

(δ(ξ

1

+ ... + ξ

n

− k))

= 1

Z

−π

dωE

P

(e

iω(ξ1+...+ξn−k)

) = 1

Z

−π

dωe

−iωk

E

P

(e

iω(ξ1+...+ξn)

)

= 1

Z

−π

dωe

−iωk

(pe

+ qe

−iω

)

n

= 1

Z

−π

dωe

−iωk

X

n r=0

B(n, r)p

r

q

n−r

e

−iω(2r−n)

= X

n

r=0

B(n, r)p

r

q

n−r

δ(2r − n − k)

dove il coefficiente binomiale B(n,m) `e cos`ı definito:

B(n, m) = n!

m!(n − m)! se 0 ≤ m ≤ n

0 altrimenti

B.3 Processi di Markov

I processi di Markov si caratterizzano tramite una assunzione sulle probabilit`a condizionate.

Si richiede che se il processo soddisfa l’ordinamento B.1, la probabilit`a condizionata sia interamente determinata dalla conoscenza della sola condizione pi`u recente, cio`e:

p(x

1

, t

1

; x

2

, t

2

; ... | y

1

, τ

1

; y

2

, τ

2

; ...) = p(x

1

, t

1

; x

2

, t

2

; ... | y

1

, τ

1

)

Nonostante la semplicit`a, le implicazioni di questa richiesta sono notevoli. Infatti ci`o implica che tutte le nostre probabilit`a possano essere definite in termini di probabilit`a condizionate semplici, del tipo cio`e p(x

1

, t

1

| y

1

, τ

1

).

Ad esempio, sfruttando la definizione di probabilit`a condizionata:

(18)

p(x

1

, t

1

; x

2

, t

2

| y

1

, τ

1

) = P (x

1

, t

1

| x

2

, t

2

; y

1

, τ

1

)P (x

2

, t

2

| y

1

, τ

1

)

ed usando la definizione di processo di Markov:

p(x

1

, t

1

; x

2

, t

2

; y

1

, τ

1

) = P (x

1

, t

1

| x

2

, t

2

)(p(x

2

, t

2

| y

1

, τ

1

)P (y

1

, τ

1

)

In generale dunque una qualsiasi probabilit`a congiunta pu`o essere espressa come prodotto di probabilit`a congiunte semplici.

B.4 L’equazione di Chapman-Kolmogorov

Per la A.1 abbiamo visto che la somma su tutti gli eventi mutuamente esclusivi di un tipo in una probabilit`a congiunta elimina la variabile, cio`e:

X

B

P (A ∩ B ∩ C...) = P (A ∩ C...)

e se applichiamo questa regola ad un processo stocastico otteniamo due importanti rela- zioni:

p(x

1

, t

1

) = Z

dx

2

p(x

1

, t

1

; x

2

, t

2

) (B.3)

p(x

1

, t

1

| x

3

, t

3

) = Z

dx

2

p(x

1

, t

1

; x

2

, t

2

| x

3

, t

3

) (B.4)

= Z

dx

2

p(x

1

, t

1

| x

2

, t

2

; x

3

, t

3

)p(x

2

, t

2

| x

3

, t

3

)

(19)

B.5. L’EQUAZIONE DI FOKKER-PLANCK 19 Introducendo ancora una volta l’assunzione di Markov, otteniamo:

p(x

1

, t

1

| x

3

, t

3

) = Z

dx

2

p(x

1

, t

1

| x

2

, t

2

)p(x

2

, t

2

| x

3

, t

3

) (B.5)

che `e l’equazione di Chapman-Kolmogorov.

Dalla precedente `e possibile ricavare la forma differenziale di questa equazione. Tralascian- do i calcoli ne riportiamo l’espressione (per la derivazione esplicita si veda C.W. Gardiner (1985) [17]):

t

p(z, t | y, t

0

) = − X

i

∂z

i

[A

i

(z, t)p(z, t | y, t

0

)] (B.6)

+ X

i,j

1 2

2

∂z

i

∂z

j

[B

ij

(z, t)p(z, t | y, t

0

)]

+ Z

dx[W (z | x, t)p(xt | y, t

0

) − W (x | z, t)p(z, t | y, t

0

)]

B.5 L’equazione di Fokker-Planck

Nel caso in cui la quantit`a W(z|x,t) di B.6 sia zero, l’equazione differenziale di Chapman- Kolmogorov si riduce a quella di Fokker-Planck:

∂p(z, t | y, t

0

)

∂t = − X

i

∂z

i

[A

i

(z, t)p(z, t | y, t

0

)] (B.7) + 1

2 X

i,j

2

∂z

i

∂z

j

[B

ij

(z, t)p(z, t | y, t

0

)]

Il corrispondente processo stocastico `e noto in matematica come processo di diffusione;

(20)

il vettore A

i

`e detto vettore di drift e la matrice B

ij

matrice di diffusione. Inoltre l’equazione di Fokker-Planck descrive un processo in cui X(t) ammette cammini continui

2

. In una dimensione B.7 assume la forma pi`u semplice:

∂f (x, t)

∂t = −

∂x [A(x, t)f (x, t)] + 1 2

2

∂x

2

[B(x, t)f (x, t)]

con

f (x, t) = p(x, t | x

0

, t

0

)

per ogni x

0

, t

0

e con la condizione iniziale

p(x, t

0

| x

0

, t

0

) = δ(x − x

0

)

Come sar`a mostrato pi`u in dettaglio nella successiva sezione relativa ai processi diffusivi osserviamo infine che il processo stocastico descritto da una probabilit`a condizionata che soddisfa l’equazione di Fokker-Plank `e equivalente al seguente differenziale stocastico di Ito:

dx(t) = A[x(t), t]dt + p

B[x(t), t]dW (t)

2

Si pu`o dimostrare che un processo di Markov ammette delle funzioni continue di t come traiettorie se per ogni ε > 0 si ha:

∆t→0

lim 1

∆t Z

|x−z|ε

dxp(x, t + ∆t | z, t) = 0

uniformemente in z, t e ∆t.Ovvero se la probabilit`a che la posizione x sia definitivamente diversa da z va a zero pi` u velocemente di ∆t, quando ∆t va a zero.

E’ abbastanza semplice osservare come l’equazione di Chapman-Kolmogorov, nel caso in cui W(x|z,t)

sia zero, rispetti questa condizione.

(21)

B.5. L’EQUAZIONE DI FOKKER-PLANCK 21 Questi due aspetti rappresentano descrizioni complementari del problema.

B.5.1 Il processo di Wiener

Questo processo, che deriva il suo nome da N. Wiener che lo studi`o intensivamente, si ottiene come caso particolare dell’equazione di Fokker-Planck, quando si ponga uguale a zero il coefficiente di drift, e ad uno quello di diffusione.

Otteniamo pertanto:

∂t p(w, t | w

0

, t

0

) = 1 2

2

∂w

2

p(w, t | w

0

, t

0

) (B.8)

Possiamo risolvere questa equazione utilizzando la trasformata di Fourier, ovvero tramite la funzione caratteristica.

Prendiamo come condizione iniziale

p(w, t | w

0

, t

0

) = δ(w − w

0

) (B.9)

ed utilizziamo come appena detto la funzione caratteristica

φ(s, t) = Z

dwp(w, t | w, t) exp(isw)

Sfruttando le propriet`a della trasformata di Fourier, ci si riduce a dover risolvere:

∂ϕ

∂t = − 1 2 s

2

φ che ha come soluzione

φ(s, t) = exp

·

1

2 s

2

(t − t

0

)φ(s, t

0

)

¸

(22)

Dalla B.9, la condizione iniziale risulta

φ(s, t

0

) = exp(isw

0

)

cosicch`e otteniamo infine

φ(s, t) = exp

·

isw

0

1

2 s

2

(t − t

0

)

¸

Ora non resta che eseguire l’inversione della trasformata di Fourier di questa gaussiana,che come `e noto rimane una gaussiana, ed otteniamo la soluzione della B.8:

p(w, t | w

0

, t

0

) = [2π(t − t

0

)]

−1/2

exp £

− (w − w

0

)

2

/2 (t − t

0

) ¤

Dalla funzione caratteristica, per la propriet`a (iv), otteniamo facilmente la media e la varianza del nostro processo:

hW (t)i = w

0

­ [W (t) − w

0

]

2

®

= t − t

0

Pertanto l’evoluzione temporale si limiter`a a modificare la varianza, comportando un progressivo allargamento della nostra campana.

Il processo di Wiener con una sola variabile viene comunemente chiamato moto browniano,

in quanto questo processo corrisponde esattamente all’equazione di diffusione studiata da

Einstein e da Langevin.

(23)

B.5. L’EQUAZIONE DI FOKKER-PLANCK 23

Figura B.1: Processo di Wiener: allargamento della probabilit`a di transizione

B.5.2 Il processo di Ornstein-Uhlenbeck

Aggiungendo un termine lineare di drift al processo di Wiener, otteniamo una equazione di Fokker-Plank della forma:

t

p = ∂

x

(kxp) + 1 2 D∂

x2

p

dove con p si intende p(x, t | x

0

, 0). Questo `e il processo di Ornstein-Uhlenbeck, da cui deriva il famoso modello previsionale di Vasicek di cui ci siamo occupati.

L’equazione per la funzione caratteristica

φ(s) = Z

−∞

e

isx

p(x, t | x

0

, 0)dx

assume la forma:

t

φ + ks∂

s

φ = − 1 2 Ds

2

φ

Tale equazione differenziabile pu`o esser risolta tramite il metodo delle caratteristiche.

(24)

Se

u(s, t, φ) = a e v(s, t, φ) = b

sono due integrali dell’equazione sussidiaria (con a e b costanti arbitrarie):

dt 1 = ds

ks = −

1 2

Ds

2

φ

allora una soluzione generale `e data da:

f (u, v) = 0

Le soluzioni particolari sono trovate integrando l’equazione che coinvolge dt e ds, e quella per ds e dφ, trovando:

u(s, t, φ) = s exp(−kt) v(s, t, φ) = φ exp(Ds

2

/4k)

e la soluzione generale pu`o esser messa nella forma v=g(u) con g(u) funzione arbitraria di u. Dunque la soluzione `e:

φ(s, t) = exp(−Ds

2

/4k)g[s exp(−kt)]

La condizione al bordo

p(x, 0 | x

0

, 0) = δ(x − x

0

)

richiede chiaramente che:

(25)

B.5. L’EQUAZIONE DI FOKKER-PLANCK 25

φ(s, 0) = exp(ix

0

s)

e ci restituisce:

g(s) = exp(Ds

2

/4k) + ix

0

s), e quindi

φ(s, t) = exp

·

Ds

2

4k (1 − e

−2kt

) + isx

0

e

−kt

¸

che corrisponde ad una gaussiana con:

hX(t)i = x

0

exp(−kt) V ar{X(t)} = D

2k [1 − exp(−2kt)]

(26)
(27)

Appendice C

La formula di Feynman-Kaˇ c

Richard Feynman e Mark Kaˆc hanno mostrato come utilizzare il moto Browniano per risolvere alcune classi di equazioni differenziali. Un esempio importante `e costituito dalla soluzione stocastica dell’equazione deterministica del tipo di quella di Fokker-Planck:

·

∂t + D(x, t)

2

∂x

2

+ µ(x, t)

∂x

¸

F (x, t) = 0 t ∈ [0, T ]

con la condizione al tempo finale

F (x, T ) = ϕ(x)

Essi hanno mostrato che la soluzione della precedente pu`o essere scritta nella forma:

F (x, t) = E(ϕ(X(T ) | X(t) = x)

27

(28)

dove X(t) `e un processo stocastico la cui dinamica `e data dal differenziale

dX(t) = µ(X(T ), t)dt + p

2D(X(t), t)dW (t)

Verifichiamo la correttezza di tale soluzione; iniziamo col riscrivere F(x,t) nella forma:

F (x, t) = E(ϕ(X(T ) | X(t) = x) = Z

dyϕ(y)P (y, T | x, t)

con P (x

00

, t | x

0

, t) = δ(x

00

− x

0

) e

∂t

00

P (x

00

, t

00

| x

0

, t

0

) = H(x

00

, ∂

00

, t

00

)P (x

00

, t

00

| x

0

, t

0

) +

∂t

0

P (x

00

, t

00

| x

0

, t

0

) = H

+

(x

0

, ∂

0

, t

0

)P (x

00

, t

00

| x

0

, t

0

) dove

H(x, ∂, t) = −

2

∂x

2

D(x, t) +

∂x µ(x, t) H

+

(x, ∂, t) = −D(x, t)

2

∂x

2

− µ(x, t)

∂x Allora si ha:

·

∂t − H

+

(x, ∂, t)

¸

F (x, t) = Z

dyϕ(y)

·

∂t − H

+

(x, ∂, t)

¸

P (y, T | x, t) = 0

(29)

C.1. RAPPRESENTAZIONE ESTESA DI FEYNMAN-KA ˆ C 29

C.1 Rappresentazione estesa di Feynman-Kaˆ c

Assegnati gli operatori

H(x, ∂, t) = −

2

∂x

2

D(x, t) +

∂x µ(x, t) H

+

(x, ∂, t) = −D(x, t)

2

∂x

2

− µ(x, t)

∂x consideriamo l’equazione differenziale deterministica:

·

∂t − H

+

(x, ∂, t)

¸

F (x, t) = −ρ(x, t) con la condizione

F (x, T ) = ϕ(x) Allora

F (x, T ) = E µ

ϕX(T )) + Z

dsρ(X(s), s) | X(t) = x

dove

dX(t) = µ(X(t), t)dt + p

2D(X(t), t)dW (t) Dimostrazione. Basta osservare che:

F (x, T ) = Z

dy

·

ϕ(y)P (y, T | x, t) + Z

T

t

dsρ(y, s)P (y, s | x, t)

¸

oppure pi`u direttamente

(30)

·

∂t − H

+

(x, ∂, t)

¸ E

µ

ϕ(X(T )) − Z

T

t

dsρ(X(s), s) | X(t) = x

= −E µ

∂t Z

T

t

dsρ(X(s), s) | X(t) = x

= E(ρ(X(s), s) | X(t) = x) = ρ(x, t)

(31)

Appendice D

L’integrale di Ito e i processi stocastici

D.1 Generalit` a sui processi diffusivi

Una variabile aleatoria X(t) obbedisce ad una equazione differenziale stocastica (SDE) di Ito del tipo:

dX(t) = a[X(t), t]dt + b[X(t), t]dW (t) (D.1)

se per ogni t e t

0

X(t) = X(t

0

) + Z

t

t0

dt

0

a[X(t

0

), t

0

] + Z

t

t0

dW (t

0

)b[X(t

0

), t

0

]. (D.2)

Tralasciando la complessit`a delle condizioni rigorose a cui devono soddisfare i coefficienti della D.2, ci piacerebbe fornire un’idea intuitiva di cosa si intende per soluzione di una equazione di quel tipo e cosa significhi unicit`a della soluzione in questo contesto.

31

(32)

A tal fine consideriamo una versione discretizzata della D.1, ottenuta fissando un intervallo temporale ed un set di punti t

i

tali che

t

1

< t

2

< ... < t

n

= t

e scrivendo l’equazione come:

X

i+1

= X

i

+ a(X

i

, t

i

)∆t

i

+ b(X

i

, t

i

)∆W

i

(D.3)

dove chiaramente nella D.3 si intende:

X

i

= X(t

i

)

∆t

i

= t

i+1

− t

i

∆W

i

= W (t

i+1

) − W (t

i

)

La D.3 rappresenta quindi una procedura per risolvere tali equazioni, calcolando X

i+1

a

partire dalla conoscenza di X

i

ed aggiungendo un termine deterministico a(X

i

, t

i

)∆t

i

ed

uno stocastico b(X

i

, t

i

)∆W

i

. La soluzione vera e propria si ottiene formalmente mandando

a zero l’intervallo temporale ∆t; affermare l’esistenza della soluzione equivale a dire che

(33)

D.2. LA FORMULA DI ITO 33

tale soluzione esiste con probabilit`a uno per ogni scelta della funzione campione ˜ W(t) di W(t). Dire poi che tale soluzione `e unica significa affermare che per ogni realizzazione, o funzione campione ˜ W(t) del processo di Wiener W(t), la soluzione del particolare processo che ne deriva `e unica.

Aggiungiamo inoltre che X(t), soluzione della D.2, `e un processo di Markov.

D.2 La formula di Ito

Supponiamo che, noto il differenziale del numero aleatorio X(t) (di cui per favorire la leggibilit`a d’ora in poi sottoscriveremo la dipendenza dal tempo),

dX

t

= µ(X

t

, t)dt + σ(X

t

, t)dW

t

(D.4)

si voglia determinare il differenziale stocastico di un nuovo numero aleatorio Y

t

definito da

Y

t

= ψ(X

t

, t)

Iniziamo con l’osservare che

d

dt E(e

iωψ(Xt,t)

) = E(iωψ

t

(X

t

, t)e

iωψ(Xt,t)

+ µ(X

t

, t)iωψ

t

(X

t

, t)e

iωψ(Xt,t)

) +E( σ

2

(X

t

, t)

2 [iωψ

xx

(X

t

, t) − ω

2

ψ

x

(X

t

, t)ψ

x

(X

t

, t)]e

iωψ(Xt,t)

)

= iωE([ψ

t

(X

t

, t) + µ(X

t

, t)ψ

x

(X

t

, t) + σ

2

(X

t

, t)

2 ψ

xx

(X

t

, t)]e

iωψ(Xt,t)

)

−ω

2

E( σ

2

(X

t

, t)

2 ψ

x

(X

t

, t)ψ

x

(X

t

, t)e

iωψ(Xt,t)

)

ed usando le definizioni

(34)

µ

Y

(Y

t

, t) = ψ

t

(X

t

, t) + µ(X

t

, t)ψ

x

(X

t

, t) + σ

2

(X

t

, t)

2 ψ

xx

(X

t

, t) σ

Y

(Y

t

, t) = σ(X

t

, t)ψ

x

(X

t

, t)

otteniamo

d

dt E(e

iωYt

) = iωE(µ

Y

(Y

t

, t)e

iωYt

) − ω

2

2 E(σ

Y2

(Y

t

, t)e

iωYt

) Dal confronto con

d

dt E(e

iωXt

) = iωE(µ

Y

(X

t

, t)e

iωXt

) − ω

2

2 E(σ

Y2

(X

t

, t)e

iωXt

)

e

dX

t

= µ(X

t

, t)dt + σ(X

t

, t)dW

t

segue che possiamo scrivere il differenziale stocastico di ψ nella forma

dψ = [ψ

t

+ µψ

x

+ σ

2

2 ψ

xx

]dt + σψ

x

dW o direttamente come formula di Ito

dψ(X

t

, t) =

·

ψ

t

(X

t

, t) + σ

2

(X

t

, t)

2 ψ

xx

(X

t

, t)

¸

dt + ψ

x

dX

t

(D.5)

(35)

D.2. LA FORMULA DI ITO 35

Ecco un metodo alternativo per ricavare tale formula.

Si pu`o dimostrare che valgono le seguenti relazioni tra i differenziali di t e di W, moto browniano standard:

(dt)

2

→ 0 dtdW (t) → 0 [dW (t)]

2

= dt

dove la freccina indica il limite quadratico medio

1

.

Sia sempre X il generico processo stocastico D.4, allora il differenziale di una qualsiasi funzione f(X(t),t) si pu`o ottenere sviluppando in serie di Taylor secondo le usuali regole la funzione f, e tenendo presenti le precedenti relazioni.

Si noter`a subito che `e sufficente sviluppare soltanto fino al secondo ordine perch`e tutti i termini di ordine superiore si annullano, ottenendo:

1

Un modo per indicare il limite di una successione di variabili casuali `e il limite quadratico medio o ms-lim (mean-square limit).

Quindi:

X

n

→ X

`e equivalente a:

ms − lim

n→∞

X

n

= X

e significa:

lim

n→∞

Z

dωp(ω)[X

n

(ω) − X(ω)]

2

≡ lim

n→∞

< (X

n

− X)

2

>= 0

(36)

df = (f

t

+ µf

x

+ 1

2 σ

2

f

xx

)dt + σf

x

dW che `e esattamente equivalente alla D.5.

D.3 Relazione tra l’equazione di Fokker-Plank e le SDE

Consideriamo l’evoluzione temporale di una arbitraria funzione f(x(t)). Usando la formula di Ito:

E [df [x(t)]] /dt = E

· df [x(t)]

dt

¸

= d

dt E [f [x(t)]] = E

·

a[x(t), t]∂

x

f + 1

2 b[x(t), t]

2

x2

f

¸

Ad ogni modo ad x(t) `e associata una distribuzione di probabilit`a p(x, t | x

0

, t

0

) e dunque:

d

dt E [f [x(t)]] = Z

dxf (x)∂

t

p(x, t | x

0

, t

0

) = Z

dx[a(x(t), t)∂

x

f + 1

2 b(x(t), t)

2

x2

f ]p(x, t | x

0

, t

0

) Integrando per parti e scartando i termini di superficie (per maggiori dettagli si veda GARDINER $4.3.4 p96 e seg.) si ottiene:

Z

dxf (x)∂

t

p = Z

dxf (x){−∂

x

[a(x(t), t)p] + 1

2

x2

[b(x, t)

2

p]}, e poich`e f (x) `e arbitraria:

t

p(x, t | x

0

, t

0

) = −∂

x

[a(x(t), t)p(x, t | x

0

, t

0

)] + 1

2

x2

[b(x, t)

2

p(x, t | x

0

, t

0

)].

Abbiamo quindi una completa equivalenza con un processio di diffusione definito da un

coefficiente di drift a(x,t) e un coefficiente di diffusione b(x,t)

2

.

(37)

Appendice E

Approssimazione di Milstein per gli integrali stocastici

Limitiamoci per semplicit`a al caso unidimensionale e consideriamo x(t), processo diffusivo soluzione di una equazione differenziale stocastica con (t-v) intervallo di integrazione:

x(t) = x(v) + Z

t

v

α(x(s))ds + Z

t

v

σ(x(s))dw(s) (E.1)

Sia ora f(x) una funzione reale con derivate parziali continue; indicando x(s) con x

s

, α(x

s

) con α

s

, etc..usiamo la formula di Ito nella sua forma integrale, ottenendo:

f (x

t

) = f (x

v

) + Z

t

v

·

f

0

(x

s

s

+ 1

2 f

00

(x

s

s2

¸ ds +

Z

t

v

f

0

(x

s

s

dw

s

≡ I

t,x

(f

v

) (E.2) Ovviamente per f(x)=x, E.2 si riduce a E.1. Per f(x)=α(x) e f(x)=σ(x), otteniamo due espressioni per il drift e la diffusione:

α

s

= α

v

+ Z

s

v

·

α

0u

α

u

+ 1 2 α

00u

σ

u2

¸ du +

Z

s

v

α

0u

σ

u

dw

s

≡ I

s,x

v

) σ

s

= σ

v

+

Z

s

v

·

σ

u0

α

u

+ 1 2 σ

00u

σ

2u

¸ du +

Z

s

v

σ

0u

σ

u

dw

u

≡ I

s,x

v

)

37

(38)

Sostituendo queste espressioni in E.1 otteniamo:

x

t

= x

v

+ α

v

Z

t

v

ds + Z

t

v

Z

s

v

·

α

0u

α

u

+ 1 2 α

u00

σ

2u

¸

duds + Z

t

v

Z

s

v

α

0u

σ

u

dw

u

ds + (E.3) σ

v

Z

t

v

dw

s

+ Z

t

v

Z

s

v

·

σ

0u

α

u

+ 1 2 σ

00u

σ

u2

¸

dudw

s

+ Z

t

v

Z

s

v

Z

s

v

σ

u0

σ

u

dw

u

dw

s

Questa `e la forma pi`u semplice di formula di Taylor stocastica, e possiamo indicarla nel seguente e pi`u leggibile modo :

x(t) = x(v) + α

v

Z

t

v

ds + σ

v

Z

t

v

dw

s

+ R

1

dove R

1

e la parte rimanente. `

Approssimazioni pi`u raffinate possono essere ottenute sostituendo ancora le funzioni inte- grande di E.3 con la loro espansione alla Ito:

x

t

= x

v

+ α

v

Z

t

v

ds + σ

v

Z

t

v

dw

s

+ σ

v0

σ

v

Z

t

v

Z

s

vu

dw

u

dw

s

+

·

α

0v

α

v

+ 1 2 α

v00

σ

v2

¸ Z

t

v

Z

s

v

duds + α

0v

σ

v

Z

t

v

Z

s

v

dw

s

ds +

·

σ

v0

α

v

+ 1 2 σ

v00

σ

v2

¸ Z

t

v

Z

s

v

dudW

s

+ R

2

E.1 Approssimazione discreta: lo schema forte di Ito- Taylor 1.5

Per una simulazione del processo CIR:

dX

t

= (a + bX

t

)dt + σ p

|X

t

|dW

t

, X

0

= x

0

(39)

E.1. APPROSSIMAZIONE DISCRETA: LO SCHEMA FORTE DI ITO-TAYLOR 1.539 ho utilizzato l’approssimazione discreta alla Milstein di cui si `e parlato poco sopra:

X

(n+1)∆

= X

n

∆ + ∆(a + bX

n∆

) + σ p

X

n

∆∆W + σ

2

4 ((∆W )

2

− ∆) + bσ p

X

n

∆∆Z + 1

2 ∆

2

b(a + bX

n∆

) + σ 2

X

n

(a + bX

n∆

σ

2

4 )(∆W ∆ − ∆Z) dove ∆W =

∆U

1

, ∆Z = ∆

3/2

(U

1

+ U

2

/

3)/2 ed U

1

e U

2

sono variabili casuali indipen- denti distribuite normalmente, con media zero e varianza unitaria; ∆ invece rappresenta il passo del reticolo temporale, e il suo inverso `e il numero di misurazioni effettuate per unit`a di tempo.

Per ulteriori dettagli si veda Kloeden-Platen ([21].

Per la realizzazione della simulazione ho scritto con Matlab un piccolo codice : function Y=MilsteinCIR(a,b,s,y0)

input (’lunghezza vettore? ’) y=zeros(1,ans);

n=length(y);

D=1/250 for i=1:n-1

w=D^(1/2)*randn(1);

z=D^(3/2)*(w+randn(1)/(3^(1/2)))*(1/2);

y(1)=y0;

y(i+1)=y(i)+D*(a+b*y(i))+s*(y(i)^(1/2))*w+(s^2/4)*(w^2-D)+b*s*(y(i)^(1/2))*z+

+(1/2)*D^2*b*(a+b*y(i))+(s/(2*(y(i)^(1/2))))*(a+b*y(i)-(s^2/4))*(w*D-z);

end

(40)

y;

%l=length(y);

x=[1:n];

plot(x,y,’-’)

Al variare dei parametri a,b e σ si possono notare andamenti di tipo completamente differente, che comunque rispecchiano le previsioni teoriche effettuate sul modello esatto.

Se a > 0 e b < 0 si determiner`a un processo caratterizzato dalla ”mean reversion”, ovvero un andamento oscillante intorno al valore -

ab

;supponendo che il processo descriva l’anda- mento del tasso d’interesse a breve (questa fu infatti l’idea di Cox Ingersoll e Ross) tale termine rappresenter`a il tasso medio di lungo periodo.

Tale caratteristica si perde qualora sia anche b > 0. σ = 1 determina invece la possibilit`a per il processo di assumere anche il valore 0.

Si riporta una simulazione per ogni terna di parametri:

0 50 100 150 200 250 300 350 400

0 1 2 3 4 5 6

t

Y(t)

Simulazione CIR

y0=2.5 a=1 b=−0.5 s=1

Figura E.1: Simulazione CIR (1)

(41)

E.1. APPROSSIMAZIONE DISCRETA: LO SCHEMA FORTE DI ITO-TAYLOR 1.541

0 50 100 150 200 250 300 350 400

−0.5 0 0.5 1 1.5 2 2.5 3

t

Y(t)

Simulazione CIR

a=1 b= −0.5 s=2 y0=2.5

Figura E.2: Simulazione CIR (2)

0 50 100 150 200 250 300 350 400

0 100 200 300 400 500 600 700 800

t

Y(t)

Simulazione CIR

a=1 b=0.5 s=2 y0=2.5

Figura E.3: Simulazione CIR (3)

0 50 100 150 200 250 300 350 400

0 50 100 150 200 250 300 350

t

Y(t)

Simulazione CIR

a=1 b=0.5 s=1 y0=2.5

Figura E.4: Simulazione CIR (4)

(42)
(43)

Appendice F

Il metodo della massima verosimiglianza

Supponiamo di avere un set di N dati sperimentali (x

i

, y

i

), ed un modello con un certo nu- mero di parametri del tipo y(x) = y(x; a

1

, a

2

, a

3

, ..., a

M

) il cui valore pu`o essere determinato al fine di ottenere il miglior accordo tra dati e modello.

Abbiamo l’intuitiva sensazione che alcuni set di parametri potranno risultare pi`u adatti di altri, ma come quantificare questa sensazione? Potremmo chiderci cio`e quale sia la proba- bilit`a che un particolare set sia corretto. Infatti possiamo da un punto di vista puramente teorico ritenere che per quanto complicato, esista un solo modello, quello corretto appunto, ed un universo statistico di dati derivanti da esso.

Il modo di agire in pratica allora sar`a quello di domandarci, dato un particolare set di parametri, quale sia la probabilit`a di ottenerlo a seguito di una misura. Naturalmente nel caso la y(x) assuma valori nel continuo, tale probabilit`a sar`a zero a meno che non si contraddistingua ogni punto sperimentale con una certa incertezza. Identificheremo quindi la probabilit` a che siano capitati quei dati, noti i parametri, come la verosimiglianza dei parametri, noti i dati. A questo punto il passo successivo sar`a quello di decidere il fit dei parametri imponendo che sia massima la verosimiglianza definita

43

Riferimenti

Documenti correlati

poligono con tutti i lati uguali nessuna delle due poligono con tutti i lati uguali nessuna delle due..

madrelingua inglese ottimo altre richieste massimo 25. anni bella presenza automunita

Lampadario, fungaia, cartoleria, stalliere, alimentari, macelleria, furbata, gelato, colpaccio, fratellastro, sorellina, vicinato, angolino, stanchezza, postaccio,

2 Completa le frasi in modo da ottenere periodi contenenti una subordinata soggettiva9. che non tutti

Nel prestampato riporta soltanto le soluzioni, le tabelle delle disequazioni e le discussioni.. Due punti per ogni esercizio, punteggio

SELECT L_Chiamante.citta, mese, SUM(incasso)/count(distinct data) as incasso_medio, SUM(num_chiamate) as n_chiamate, SUM(incasso) as IncassoTOT, SUM(SUM(num_chiamate)) over

Sì, l’algoritmo utilizzato permette di ottenere un cammimo minimo da A a E con al più 5 archi, trattandosi dell’algoritmo di Bellman­Ford che fornisce, al completamento

Sì, l’algoritmo utilizzato permette di ottenere un cammimo minimo da A a E con al più 5 archi, trattandosi dell’algoritmo di Bellman-Ford che fornisce, al completamento