• Non ci sono risultati.

Appunti del corso Processi stocastici

N/A
N/A
Protected

Academic year: 2021

Condividi "Appunti del corso Processi stocastici"

Copied!
16
0
0

Testo completo

(1)

Appunti del corso Processi stocastici

Marco Frego, Marco Pizzato,

Luca Tasin,

Luciano Tubaro

(2)
(3)

Indice

1 Introduzione ai Processi Stocastici 5

1 . . . 5

2 . . . 5

3 . . . 5

4 . . . 5

5 . . . 5

2 Processi Stocastici 7 1 Processi Gaussiani . . . 7

2 Processi di Markov . . . 8

3 Relazione di Chapman-Kolmogorov per Processi di Markov . . . 9

4 Processo di Wiener . . . 9

5 Brownian Bridge . . . 9

6 Martingale . . . 9

3 Equazioni Differeziali Stocastiche 11 1 . . . 11

2 . . . 11

3 . . . 11

4 Semigruppo e Integrale 13 1 . . . 13

2 . . . 13

3 . . . 13

4 . . . 13

(4)
(5)

Capitolo 1

Introduzione ai Processi Stocastici

1

2

3

4

5

(6)
(7)

Capitolo 2

Processi Stocastici

1 Processi Gaussiani

I Processi Stocastici Gaussiani sono caratterizzati dalla propriet`a che tutte le misure finito dimensionali µ ∈M sono distribuzioni normali, in cui `e tradizione indicare la media con la funzione m(t) := E(Xt) e la funzione di covarianza con ϕ(s, t) := E((Xt− m(t))(Xs− m(s))). Dunque secondo questa definizione, l’n-esima misura finito dimensionale si scrive cos`ı:

µt1,...,tn(B) :=

Z

B

 1

√2π

n

1

pdet(A)e12hA−1(x−mt1,...,tn),x−mt1,...,tnidx dove x ∈ Rn, mt1,...,tn = (m(t1), . . . , m(tn)), A = aij = ϕ(ti, tj) ∀i, j = 1 . . . n.

La matrice di covarianza A deve avere rango massimo in questa notazione, altrimenti non risulterebbe invertibile. Per evitare questo problema si preferisce usare la funzione caratteristica

φt1,...,tn(z) = Z

Rn

ei hz,xi µt1,...,tndx = ei hmt1,...,tn,zi−12hAz,zi

In questa maniera non si ha pi`u la dipendenza da A−1 e non serve dunque richiedere che sia non degenere.

Esempio 1. Calcolare E((Xt− Xs)2).

Soluzione. Risulta

E((Xt− Xs)2) = ϕ(t, t) − 2ϕ(s, t) + (m(t) − m(s))2. Infatti

(Xt− Xs)2 = (Xt− m(t) + m(t) − (Xs− m(s)) − m(s))2 chiamando Yt = Xt− m(t), Ys= Xs− m(s) e sostituendo si ricava

(Yt− Ys+ m(t) − m(s))2 = (Yt− Ys)2+ 2(m(t) − m(s))(Yt− Ys) + (m(t) − m(s))2 Ora, poich`e

E(Yt− Ys) = E(Yt) − E(Ys) = m(t) − m(t) − m(s) + m(s) = 0

(8)

rimane solamente

E((Xt− Xs)2) = E((Yt− Ys)2) + 0 + (m(t) − m(s))2 =

E(Yt2− 2YtYs+ Xs2) + (m(t) − m(s))2 = ϕ(t, t) − 2ϕ(s, t) + (m(t) − m(s))2.

2 Processi di Markov

Definizione 2.1. Un processo di Markov `e un processo stocastico (Xt) e una famiglia di probabilit`a di transizione p(s, x; t, I) tali che siano verificate le seguenti condizioni:

1. (s, x, t) → p(s, x; t, I) sia una funzione misurabile, 2. I → p(s, x; t, I) sia una misura di probabilit`a, 3. valga la seguente relazione di Chapman-Kolmogorov

p(s, x; t, I) = Z

R

p(s, x; r, dz) p(r, z; t, I),

4. p(s, x; s, I) = δx(I)

5. E (1I(Xt)|Fs) = p(s, Xs; t, I) (= E (1I(Xt)|Xs)), ove Ft= σ{Xu : u ≤ t}.

img07.pdf

Figura 2.1: Propriet`a di transizione

L’ultima propriet`a della definizione `e sostanzialmente equivalente alla nota condizione P(Xt ∈ I|Xs = x, Xs1 = x1, . . . , Xsn = xn) = P(Xt ∈ I|Xs = x) che il lettore trover`a pi`u consueta.

5. E (1I(Xt)|Fs) = P (Xt ∈ I)|Fs) = P (Xt∈ I)|Xs) = p(s, Xs; t, I) = E (1I(Xt)|Xs)

Si pu`o inoltre notare come nella definizione di processo di Markov non sia considerata la famigliaM di misure finito-dimensionali, che caratterizza (per il primo teorema di Kol- mogorov) il processo stocastico. Vediamo quindi, a titolo esplicativo, come sia possibile sfruttare la conoscenza delle probabilit`a di transizione per ricavare M .

µt1,t2,...,tn(I1× · · · × In) =

(9)

Processi stocastici 9

= P ((Xt1, . . . , Xtn) ∈ I1× · · · × In)

= P (Xt1, . . . , Xtn−1) ∈ I1× · · · × In−1, Xtn ∈ In

=

Z

I1×···×In−1

P(Xtn ∈ In|Xtn−1 = xn−1, . . . , Xt1 = x1)P(Xt1 ∈ dx1, . . . , Xtn−1 ∈ dxn−1)

=

Z

I1×···×In−1

p(tn−1, xn−1; tn, In)P(Xt1 ∈ dx1, . . . , Xtn−1 ∈ dxn−1)

= Z

I1×···×In−1

p(tn−1, xn−1; tn, In)p(tn−2, xn−2; tn−1, dxn−1)P(Xt1 ∈ dx1, . . . , Xtn−2 ∈ dxn−2)

Reiterando lo stesso procedimento otteniamo alla fine la seguente espressione:

µt1,t2,...,tn(I1× · · · × In) =

= Z

R

Z

I

P(X0 ∈ dx0)p(0, x0; t1, dx1)p(t1, x1; t2, dx2) . . . p(tn−1, xn−1; tn, In)

= Z

R

Z

I×In

P(X0 ∈ dx0)p(0, x0; t1, dx1)p(t1, x1; t2, dx2) . . . p(tn−1, xn−1; tn, dxn) ove I = I1× · · · × In−1 e P(X0 ∈ dx0) `e la distribuzione iniziale.

3 Relazione di Chapman-Kolmogorov per Processi di Markov

4 Processo di Wiener

5 Brownian Bridge

(10)
(11)

Capitolo 3

Equazioni Differeziali Stocastiche

1

2

3

(12)
(13)

Capitolo 4

Semigruppo e Integrale

1

2

3

4

(14)
(15)

Bibliografia

[1] P. Baldi, Equazioni differenziali stocastiche e applicazioni, Pitagora Editrice

[2] I. Karatzas, S.E. Shreve, Brownian Motion and Stochastic Calculus, Springer Verlag

[3] W. Feller, Introduction to probability theory and its applications, vol.1, Wiley

[4] W. Feller, Introduction to probability theory and its applications, vol.2, Wiley

(16)

funzione di covarianza, 7 processo stocastico

di Markov, 8 gaussiano, 7

relazione di Chapman - Kolmogorov, 8

16

Riferimenti

Documenti correlati

The final state of the diboson analyses is characterized by two vector bosons that could decay hadronically, so jets reconstruction is a main feature of these kinds of analyses.. As

Amniotic membrane transplantation for recontruction of corneal epithelial surface in cases of partial limbal stem cell deficiency. Sorsby A,

Dite se le seguenti affermazioni sono senz’altro vere (VERO), senz’altro false (FALSO) o impos- sibili da classificare nel modo in cui sono espresse (INCERTO).. Scrivete le

` e in realt` a un po’ ambigua, perch´ e l’integrale di una variabile stocastica pu` o essere definito in vari modi; in uno di questi vale la regola di Leibnitz per le derivate e

L’intersezione di ta- li σ−algebre si chiama σ−algebra generata da F... L’intersezione di ta- li σ−algebre si chiama σ−algebra generata

Data una tabella ( si veda l’esempio nella scheda di esercitazione ) le righe vengono interpretate come punti di uno spazio R n il metodo PCA calcola la matrice di covarianza empirica

Per quali valori del parametro t il sistema ha una ed una sola soluzione?. Per tali valori, si determini

Questa lezione fa riferimento sostanzialmente al paragrafo 10.4 ”Rango di una matrice”, in particolare alla proprieta’ 10.2 (teorema di Rouche’-Capelli) che da’ una