II Appello di Processi Stocastici 2012/13 Cognome:
Laurea Magistrale in Matematica Nome:
16 luglio 2013 Email:
Quando non `e espressamente indicato il contrario, per la soluzione degli esercizi `e possibile usare tutti i risultati visti a lezione (compresi quelli di cui non `e stata fornita la dimostrazione).
Esercizio 1. Su uno spazio di probabilit`a (Ω, A, P) `e definita una successione di variabili aleatorie reali i.i.d. Y = (Yn)n∈N={1,2,...} con distribuzioni marginali Yn∼ N (0, 1).
(a) Si mostri che Eex(Y1−12) = e12x(x−1) per ogni x ∈ R.
Diremo che una successione reale (xn)n∈N `e ammissibile se vale che xn∈ {0, 1} per ogni n ∈ N.
Fissata un’arbitraria successione ammissibile (xn)n∈N, definiamo Wi := xi Yi−12 , ∀i ∈ N , Z0 := 0 , Zn:= ePni=1Wi, ∀n ∈ N .
Sia infine F0 := {∅, Ω}, Fn:= σ(Y1, . . . , Yn) la filtrazione naturale della successione Y .
(b) Per quali successioni ammissibili (xn)n∈N le variabili aleatorie (Wi)i≥1 sono indipendenti?
E identicamente distribuite?
(c) Si mostri che Z = (Zn)n≥0 `e una martingala, per ogni successione ammissibile (xn)n∈N. (d) Si mostri che Z∞ := limn→∞Zn esiste q.c. e che si ha Z∞ ≥ 0 e E(Z∞) ≤ 1, per ogni
successione ammissibile (xn)n∈N.
(e) Si dia un esempio di successione ammissibile (xn)n∈N tale che E(Z∞) = 1.
(f) Si dia un esempio di successione ammissibile (xn)n∈N tale che E(Z∞) = 0.
[Sugg. Si ricordi la legge forte dei grandi numeri.]
Soluzione 1. (a) Basta ricordare la funzione generatrice dei momenti della distribuzione nor- male standard: E[exY1] = e12x2, da cui E[ex(Y1−12) = e−12xE[exY1] = e12x(x−1).
(b) Le variabili aleatorie Wi sono indipendenti, qualunque sia la successione (xn)n∈N, perch´e esse sono funzioni (misurabili) delle variabili aleatorie indipendenti Yi. Dato che Wi ∼ N (−12xi, x2i) per le propriet`a delle leggi normali, esse sono identicamente distribuite se e solo se xi = xjper ogni i, j ∈ N, ossia se e solo se la successione (xn)n∈N`e costante. In defini- tiva, le uniche successioni ammissibili per cui le variabili aleatorie Wi sono identicamente distribuite sono le successioni (0, 0, 0, . . .) e (1, 1, 1, . . .).
(c) Qualunque sia la successione (xn)n∈N, le variabili aleatorie Wi sono indipendenti e inoltre E[eWi] = 1, per il punto (a). Pertanto Zn=Qn
i=1eWi `e una martingala, per quanto visto a lezione (o per facile verifica diretta).
(d) Basta applicare il teorema di convergenza per martingale positive (e dunque limitate in L1) e il lemma di Fatou.
(e) Se xn= 0 per ogni n ∈ N si ha chiaramente Wi = 0 per ogni i ∈ N e dunque Zn = 1 per ogni n ∈ N0, da cui Z∞ = 1 e dunque E(Z∞) = 1. (Con un argomento analogo, si mostra che E(Z∞) = 1 se xn= 0 definitivamente.)
(f) Se xn= 1 per ogni n ∈ N le variabili aleatorie Wi sono i.i.d. con E(Wi) = −12, quindi per la legge forte dei grandi numeri n1Pn
i=1Wi → −12 q.c., da cui segue chePn
i=1Wi→ −∞ q.c.
e dunque Z∞= limn→∞Zn= 0 q.c.; in particolare, E(Z∞) = 0.
2
Esercizio 2. Sia (Bt)t≥0 un moto browniano e si ponga, per una certo λ > 0, Xt:= e−λtBe2λt.
(a) Si mostri che X = (Xt)t≥0`e un processo gaussiano.
(b) Il processo X ha traiettorie continue?
(c) Il processo X ha incrementi scorrelati e/o indipendenti?
(d) Si mostri che il processo X `e stazionario: ci`o significa che la legge di (Xt1+h, ..., Xtn+h) `e uguale alla legge di (Xt1, ..., Xtn), per ogni scelta di n ∈ N, 0 ≤ t1 < t2 < .... < tn e h ≥ 0.
In particolare, la legge di Xt non dipende da t (perch´e?).
[Sugg. Si ricordi che X `e un processo gaussiano.]
(e) Il processo X `e un un moto browniano?
Soluzione 2. (a) Ogni combinazione lineare finita di componenti di X pu`o essere riscritta come combinazione lineare finita di componenti di B e dunque essa `e una variabile aleatoria normale, perch´e B `e un processo gaussiano. Di conseguenza, X `e un processo gaussiano (b) Per q.o. ω ∈ Ω si ha che s 7→ Bs(ω) `e una funzione continua. Di conseguenza, t 7→ Xt(ω) =
e−λtBe2λt(ω) `e una funzione continua perch´e composizione e prodotto di funzioni continue.
(c) Per ogni s < t ≤ u < v, usando la bilinearit`a della covarianza e il fatto che Cov(Ba, Bb) = min{a, b}, si ottiene
Cov(Xt− Xs, Xv− Xu) = Cov(Xt, Xv) − Cov(Xs, Xv) − Cov(Xt, Xu) + Cov(Xs, Xu)
= e−λ(t+v)e2λt− e−λ(s+v)e2λs− e−λ(t+u)e2λt+ e−λ(s+u)e2λs
= eλ(t−v)− eλ(s−v)− eλ(t−u)+ eλ(s−u)
= eλt(e−λv − e−λu) − eλs(e−λv− e−λu) = (eλt− eλs)(e−λv− e−λu) Non essendo scorrelati, gli incrementi non sono indipendenti. In particolare, X non `e un moto browniano.
(d) Si ha per s ≤ t
Cov(Xs, Xt) = e−λ(s+t)e2λs= e−λ(t−s).
Da ci`o segue che i vettori (Xt1+h, ..., Xtn+h) e (Xt1, ..., Xtn) hanno la stessa matrice di covarianza, poich´e essa dipende solo dalle differenze dei tempi. Trattandosi di vettori aleatori gaussiani, essi hanno la stessa legge, cio`e il processo X `e stazionario.
(e) Dato che il moto browniano non `e un processo stazionario (la legge di Bt∼ N (0, t) `e diversa dalla legge di Bs∼ N (0, s) per t 6= s), X non `e un moto browniano.