• Non ci sono risultati.

Analisi Stocastica

N/A
N/A
Protected

Academic year: 2021

Condividi "Analisi Stocastica"

Copied!
117
0
0

Testo completo

(1)

Note del corso 2008/09

Francesco Caravenna

francesco.caravenna@math.unipd.it

Dipartimento di Matematica Pura e Applicata Universit`a degli Studi di Padova

via Trieste 63, 35121 Padova, Italy

(2)

Ultima modifica: 29 luglio 2009.

Sommario. Queste note riflettono il contenuto del corso di Analisi Stocastica, tenuto nell’anno accademico 2008/09 per il Corso di Laurea Magistrale in Mate- matica presso l’Universit`a degli Studi di Padova. Le principali fonti di ispirazione sono stati (in ordine grossomodo decrescente) i testi di Comets e Meyre (2006), Baldi (2000), Karatzas e Shreve (1998), M¨orters e Peres (2009) e Le Gall (2008).

Le parti del testo non svolte a lezione (o soltanto accennate) sono in corpo minore.

Le segnalazioni di errori contenuti nel testo (e, pi`u in generale, osservazioni, sug- gerimenti e critiche di qualunque tipo) sono molto gradite.

In copertina `e riprodotto un segmento di traiettoria del moto browniano nel piano, ottenuta mediante interpolazione lineare di una passeggiata aleatoria con incrementi normali (5 · 104passi).

(3)

Capitolo 0. Preludio 5 Capitolo 1. Richiami di calcolo delle probabilit`a 7

1. Spazi misurabili 7

2. Probabilit`a e variabili aleatorie 8

3. Legge di una variabile aleatoria 12

4. Indipendenza e misura prodotto 13

5. Risultati di convergenza 16

6. Funzioni caratteristiche 17

7. Roba tecnica 17

Capitolo 2. Moto browniano 21

1. Leggi normali 21

2. Processi gaussiani e moto browniano 23

3. Esistenza del moto browniano 29

4. (Ir)regolarit`a delle traiettorie 34

5. La filtrazione del moto browniano 38

6. Indipendenza di processi stocastici 40

7. Moto browniano multidimensionale 40

Capitolo 3. Processi stocastici 43

1. Processi stocastici 43

2. La misura di Wiener 46

3. Moto browniano rispetto a una filtrazione 46

4. Tempi d’arresto 49

5. La propriet`a di Markov forte 50

Capitolo 4. Speranza condizionale e martingale 53

1. Speranza condizionale 53

2. Martingale a tempo discreto e continuo 55

Capitolo 5. Integrale stocastico 63

1. Prolungamento di isometrie lineari 63

2. L’integrale stocastico in M2 64

3. L’integrale stocastico come martingala continua 70

4. L’integrale stocastico in M2loc 76

Capitolo 6. Calcolo stocastico e applicazioni 81

1. Formula di Itˆo per il moto browniano 81

3

(4)

2. Processi di Itˆo e applicazioni 85

3. Integrale e formula di Itˆo in Rd 88

4. Moto browniano e laplaciano 91

5. Il teorema di Girsanov 95

Capitolo 7. Equazioni differenziali stocastiche 103

1. Definizioni 103

2. Esistenza e unicit`a di soluzioni 104

3. La formula di Feynman-Kac 110

Capitolo 8. Rimorsi 113

1. Le diffusioni come processi di Markov 113

2. L’integrale di Stratonovich 115

3. Teoremi di rappresentazione per martingale 115

Bibliografia 117

(5)

Preludio

Sia t 7→ x(t) ∈ R la posizione di una particella in una dimensione all’istante t ∈ [0, ∞) e sia F : R+× R → R un campo di forze, cio`e F (t, x) `e l’intensit`a della forza che agisce all’istante t ≥ 0 nel punto x ∈ R. Se la funzione x(·) `e derivabile, il lavoro della forza sulla particella nell’intervallo di tempo [0, T ] `e dato dall’integrale

Z T 0

F (t, x(t)) dx(t) :=

Z T 0

F (t, x(t)) ˙x(t) dt , (0.1) dove ˙x(t) := dx(t)dt indica la derivata prima. Un’interpretazione alternativa: se x(t) indica il valore di un titolo azionario e F (t, x) rappresenta la quantit`a di azioni che possiedo all’istante t se il titolo vale x, la variazione del valore delle mie azioni tra gli istanti 0 e T `e data dallo stesso integrale.

E possibile dare senso a questo integrale nel caso in cui x(t) non sia derivabile?` Consideriamo per semplicit`a il caso in cui F (t, x) = F (t) non dipende esplicitamente da x e la funzione t 7→ x(t) `e continua a destra. Se F (·) `e continua, si pu`o sperare di definireR F (t) dx(t) come limite di somme di Riemann:

Z T 0

F (t) dx(t) := lim

N →∞

bN T c−1

X

i=0

F Ni 

x i+1N  − x Ni  . (0.2) E possibile mostrare che questo limite esiste per ogni F (·) continua se e soltanto se` la funzione x(t) `e a variazione finita, cio`e

sup

N ∈N

bN T c−1

X

i=0

x i+1N  − x Ni

< ∞ .

In questo caso, usando la teoria dell’integrazione astratta, la definizione dell’integrale si pu`o estendere a funzioni F (t, x) boreliane (non come limite delle somme in (0.2)).

Il problema `e che, per descrivere l’andamento di un titolo finanziario o il moto di una particella sottoposta a urti casuali con altre particelle, si usano spesso modelli (aleatori) in cui x(t) `e una funzione a variazione infinita. Un risultato importante di Itˆo (1944) afferma che anche in questo caso `e possibile dare senso all’integrale (0.1) per una classe importante di processi stocastici x(t) = x(t, ω) a variazione infinita, a patto di restringere la classe degli integrandi F (t, x) ammessi (ai processi adattati, definiti nel seguito).

La definizione di questo nuovo integrale, detto integrale stocastico, `e intrinseca- mente probabilistica: non `e definita puntualmente per ogni ω, cio`e per ogni traiettoria di x(t), ma solo come limite in probabilit`a (delle somme di Riemann in (0.2), se F

5

(6)

`

e continua). Inoltre questo integrale stocastico ha propriet`a peculiari, diverse dal- l’integrale ordinario. Per esempio, se nella somma di Riemann in (0.2) si calcola F nell’estremo destro dell’intervallo, cio`e si sostituisce F (Ni ) con F (i+1N ), il valore del- l’integrale risulta in generale diverso! Occorre dunque decidere quale definizione usa- re. Noi ci concentreremo sull’integrale di Itˆo, in cui si usa l’estremo sinistro, proprio come in (0.2): questo integrale `e quello pi`u naturale in finanza e ha inoltre fondamen- tali legami con la teoria delle equazioni differenziali alle derivate parziali del secondo ordine. Altre definizioni risultano pi`u convenienti in contesti diversi: segnaliamo in particolare l’integrale di Stratonovich, in cui F (Ni ) `e sostituito da 12(F (Ni ) + F (i+1N )), che `e pi`u usato nelle applicazioni fisiche e nella geometria stocastica.

Ritorniamo all’integrale di Itˆo. Nel caso in cui x(t) sia un moto browniano (l’e- sempio pi`u importante dei processo stocastico a tempo continuo, al cui studio dedi- cheremo una buona parte del corso), data una funzione G : R → R di classe C2, cio`e derivabile con continuit`a due volte, e indicate con G0 e G00 le derivate, si ha che

G(X(T )) − G(X(0)) = Z T

0

G0(x(t)) dx(t) + 1 2

Z T 0

G00(x(t)) dt , che pu`o essere riscritta in forma differenziale come:

dG(x(t)) = G0(x(t)) dx(t) + 1

2G00(x(t)) dt .

Questa `e la celebre formula di Itˆo, che costituisce il cuore del calcolo stocastico.

(7)

Richiami di calcolo delle probabilit` a

Forniamo un compendio delle nozioni basilari di calcolo delle probabilit`a che ci saranno utili. Per maggiori dettagli si possono consultare i testi (Billingsley, 1995), (Williams, 1991).

1. Spazi misurabili

1.1. σ-algebre. Una σ-algebra E su un insieme non vuoto E `e una famiglia di parti (sottoinsiemi) di E che contiene E e che sia chiusa per unioni numerabili e passaggio al complementare. I due casi estremi sono la σ-algebra banale E = {∅, E}

e quella discreta E = P(E). La coppia (E, E ) `e detta spazio misurabile.

Data una famiglia non vuota I ⊆ P(E) di parti di E, si indica con σ(I) la pi`u piccola σ-algebra che contenga I, cio`e l’intersezione di tutte le σ-algebre che contengono I. La famiglia I `e detta un generatore di σ(I). Se inoltre I `e chiusa per intersezioni finite, I `e detta una base di σ(I).

Se (E, τ ) `e uno spazio topologico, si dice boreliana la σ-algebra su E generata da- gli insiemi aperti (equivalentemente, dagli insiemi chiusi). L’esempio pi`u importante

`e dato da E = R, la cui σ-algebra boreliana, indicata con B(R), `e generata dagli in- tervalli aperti, che ne costituiscono una base. Altri esempi sono R := R∪{−∞, +∞}

e Rn, che intenderemo sempre muniti della σ-algebra boreliana.

Sottolineiamo che in generale non `e possibile dare una descrizione esplicita de- gli elementi della σ-algebra σ(I) generata da una famiglia I. Per questa ragione, `e necessario lavorare con generatori e basi (si veda la sezione 7.1).

1.2. Applicazioni misurabili. Una applicazione X : E → F tra due spazi misurabili (E, E ) e (F, F ) (scriveremo sinteticamente X : (E, E ) → (F, F )) `e detta misurabile se X−1(F ) ⊆ E , cio`e se X−1(B) ∈ E per ogni B ∈ F . Se J `e un generatore di F , cio`e se F = σ(J ), `e sufficiente richiedere che X−1(J ) ⊆ E .

Qualunque sia la σ-algebra F , X−1(F ) `e sempre una σ-algebra su E, detta la σ-algebra generata da X e indicata con σ(X): si tratta della pi`u piccola σ-algebra su E che renda X misurabile. In effetti σ(X) rende misurabile qualunque funzione di X, cio`e per ogni g : (F, F ) → (G, G) misurabile si ha che la composizione g ◦ X (indicata anche con g(X)) `e misurabile rispetto alla σ-algebra σ(X), cio`e l’applicazione g(X) : (E, σ(X)) → (G, G) `e misurabile. Vale un parziale viceversa: se Y : E → Rn `e σ(X)-misurabile, allora esiste g : (F, F ) → Rn misurabile tale che Y = g(X) (questo risultato `e noto come Lemma di Doob; si veda la sezione 7.2).

Si noti che l’intersezione di una famiglia arbitraria di σ-algebre `e ancora una σ-algebra, mentre in generale l’unione di σ-algebre non `e una σ-algebra.

7

(8)

Se X : (E, E ) → (F, F ) e Y : (F, F ) → (G, G) sono applicazioni misurabili, lo `e la loro composizione Y ◦ X : (E, E ) → (G, G). Se E, F sono spazi topologici e E , F le rispettive σ-algebre boreliane, ogni applicazione X : E → F continua `e anche misurabile. Segue che se X, Y : (E, E ) → R sono applicazioni misurabili, lo sono anche X + Y , X · Y , |X|, X+ := max(X, 0), ecc. Inoltre sono misurabili le applicazioni (a valori in R)

sup

n∈N

Xn, inf

n∈NXn, lim sup

n∈N

Xn, lim inf

n∈N Xn,

purch´e Xn : (E, E ) → R sia misurabile per ogni n ∈ N. Sottolineiamo che `e fondamentale che la famiglia {Xn}n sia (al pi`u) numerabile.

1.3. Spazi prodotto. Dati due spazi misurabili (F, F ), (G, G), sullo spazio pro- dotto F × G si definisce la σ-algebra prodotto F ⊗ G := σ(F × G), cio`e la σ-algebra generata dalla famiglia F × G := {A × B : A ∈ F , B ∈ G} (si noti che F × G non `e una σ-algebra). Un’applicazione X : (E, E ) → (F × G, F ⊗ G) si pu`o sempre scrivere come X = (X1, X2), con X1, X2 a valori in F , G rispettivamente, ed `e misurabile se e solo se lo sono le sue componenti X1 e X2. Analoghe propriet`a valgono per il prodotto di un numero finito di spazi misurabili.

Questi risultati si possono estendere anche al caso di una famiglia arbitraria di spazi misurabili {(Fi, Fi)}i∈I: il loro prodotto Qi∈IFi `e munito della σ-algebra ⊗i∈IFi := σ({Fi}i∈I) e un’appli- cazione X = {Xi}i∈I : (E, E) → (Qi∈IFi, ⊗i∈IFi) `e misurabile se e solo se lo sono le singole componenti Xi.

2. Probabilit`a e variabili aleatorie

2.1. Misure e probabilit`a. Dato uno spazio misurabile (E, E ), una misura µ `e una funzione µ : E → [0, +∞] tale che µ(∅) = 0 e σ-additiva, tale cio`e che µ(S

n∈NAn) = P

n∈Nµ(An) per ogni successione {An}n∈N di elementi di E a due a due disgiunti (An∩ Am = ∅ per m 6= n). La terna (E, E , µ) `e detta spazio di misura.

La misura µ `e detta finita se µ(E) < ∞ e σ-finita se si pu`o scrivere E = S

n∈NAn con µ(An) < ∞ per ogni n ∈ N. L’esempio pi`u importante di misura σ-finita `e dato dalla misura di Lebsegue su (R, B(R)).

Una misura P su uno spazio misurabile (Ω, F ) tale che P (Ω) = 1 `e detta proba- bilit`a (o misura di probabilit`a o anche legge). La terna (Ω, F , P) `e detta spazio di probabilit`a e gli elementi di F sono detti eventi.

Tra le propriet`a principali di una probabilit`a (o pi`u in generale di una misura finita) ricordiamo la continuit`a dall’alto e dal basso: per ogni successione crescente (risp. decrescente) di eventi {An}n∈N, indicando l’evento limite con A = limnAn = S

nAn (risp. A = limnAn = T

nAn), si ha che P(An) → P(A). Un’altra propriet`a che useremo spesso `e la seguente: se {An}n∈N `e una famiglia di eventi quasi certi, cio`e P(An) = 1 per ogni n ∈ N, anche T

n∈NAn ha probabilit`a uno, come si verifica facilmente. Inoltre, se {Bn}n∈N `e q.c. una partizione dello spazio di probabilit`a, cio`e se P(S

n∈NBn) = 1 e Bn∩ Bm = ∅ per m 6= n, allora per ogni A ∈ F vale la formula di disintegrazione P(A) =P

n∈NP(A ∩ Bn).

(9)

Osserviamo infine che se I `e una base di F (cio`e F = σ(I) e I `e chiusa per intersezioni finite), due probabilt`a P, P0 su (Ω, F ) che coincidono su I sono neces- sariamente uguali, cio`e P(A) = P0(A) per ogni A ∈ F , come segue dal Lemma di Dynkin (vedi Sezione 7).

2.2. Spazi di misura completi. Uno spazio di misura (E, E , µ) `e detto com- pleto se, per ogni C ∈ E tale che µ(C) = 0, si ha che ogni sottoinsieme N ⊆ C `e misurabile, cio`e N ∈ E (e di conseguenza µ(N ) = 0).

Se (E, E , µ) non `e completo, `e sempre possibile completarlo, cio`e costruire uno spazio di misura completo (E, E0, µ0) tale che E0 ⊇ E e µ0 coincida con µ su E , nel modo seguente. Si definisce innanzitutto la famiglia degli insiemi trascurabili

N := N ⊆ E : ∃C ∈ E tale che N ⊆ C e µ(C) = 0

e si estende la σ-algebra E ponendo E0 := σ(E , N ). Si verifica che A ∈ E0 se e soltanto se esiste A0 ∈ E tale che N := A 4 A0 ∈ N , dove A 4 A0 := (A \ A0) ∪ (A0\ A) indica la differenza simmetrica. Si pone dunque µ0(A) := µ(A0) e si verifica che tale definizione

`

e ben posta, che definisce una misura (che ovviamente estende µ) e che (E, E0, µ0)

`

e effettivamente completo. Gli insiemi di E0 di misura µ0 nulla sono esattamente gli elementi di N .

Un fatto importante `e il seguente: una applicazione X : (E, E0) → (F, F ) `e misurabile se e solo se esiste X0 : (E, E ) → (F, F ) misurabile tale che X = X0 µ0-q.c., cio`e {x ∈ E : X(x) 6= X(x0)} ∈ N .

2.3. Variabili aleatorie. Una applicazione misurabile X : Ω → E, dove (Ω, F , P)

`

e uno spazio di probabilit`a e (E, E ) `e uno spazio misurabile, `e detta variabile alea- toria (scriveremo sinteticamente X : (Ω, F , P) → (E, E )). Nel caso in cui lo spazio di arrivo E coincida con R o con Rn, si parla rispettivamente di variabile aleatoria reale (scalare) o di vettore aleatorio.

Data una variabile aleatoria X : (Ω, F , P) → (E, E ) e un insieme A ∈ E , `e consuetudine indicare con {X ∈ A} l’evento “X prende valori in A”, cio`e

{X ∈ A} := X−1(A) = {ω ∈ Ω : X(ω) ∈ A} .

Analogamente, per una variabile aleatoria reale X si pone {X ≥ a} := {X ∈ [a, ∞)} = X−1([a, ∞)), ecc. Si noti che la σ-algebra σ(X) generata da X consiste esattamente degli eventi della forma {X ∈ A} al variare di A ∈ E .

La funzione indicatrice 1B di un insieme B `e definita da 1B(x) = 1 se x ∈ B mentre 1B(x) = 0 se x 6∈ B. In particolare, per A ∈ E si ha che 1{X∈A} = 1A◦ X (si noti che 1{X∈A} `e una funzione definita su Ω mentre 1A`e definita su E).

2.4. Integrale e valore atteso. Dato uno spazio di misura (E, E , µ) e una funzione misurabile non negativa g : E → R+, `e definito l’integrale R g dµ =

Si definisce innanzitutto R 1Adµ := µ(A) per A ∈ E e si estende la definizione per linearit`a alle funzioni semplici Pni=1ci1Ai, per Ai∈ F e ci∈ R+. Per una funzione misurabile non negativa arbitraria, si definisce il valore atteso come il limite dei valori attesi di una (qualunque) successione crescente di funzioni semplici che converge alla variabilie aleatoria.

(10)

R g(x) µ(dx) ∈ [0, +∞]. Un’arbitraria funzione misurabile reale g `e detta integra- bile se R |g| dµ < ∞ e in questo caso si definisce R g dµ := R g+dµ + R gdµ, dove si `e posto g±(x) := max{±g(x), 0}, da cui g = g+− g. Si ha che |R g dµ| ≤ R |g| dµ e (importante) R |g| dµ = 0 se e soltanto se g(x) = 0 per q.o. x ∈ E, cio`e se µ(g 6= 0) = 0.

Per una variabile aleatoria reale positiva Y : (Ω, F , P) → R+ `e definito il valore atteso EY := R Y (ω)P(dω) ∈ [0, +∞] Un’arbitraria variabile aleatoria reale X `e detta integrabile se E|X| < ∞ e in questo caso si definisce EX := EX+− EX, dove si `e posto X± := max{±X, 0}, da cui X = X+− X. Si ha che |EX| ≤ E|X| e (importante) E|X| = 0 se e soltanto se P (X = 0) = 1. Ricordiamo inoltre la formula E(Y ) =R

0 P (Y > t) dt, valida per ogni variabile aleatoria reale non-negativa Y . 2.5. Spazi Lp. Per ogni variabile aleatoria reale X definita su (Ω, F , P) si de- finisce kXkp := (E(|X|p))1/p ∈ [0, +∞], per p ≥ 1, e si indica con Lp = Lp(Ω, P) l’insieme delle variabili aleatorie reali X tali che kXkp < ∞. Vale la disuguaglianza triangolare kX + Y kp ≤ kXkp + kY kp, da cui segue che Lp `e uno spazio vettoriale su R e k · kp `e una seminorma su Lp. Infatti kXkp = 0 non implica che X = 0 ma soltanto che P (X = 0) = 1. Introducendo su Lp la relazione di equivalenza X ∼ Y se P (X = Y ) = 1, k · kp diventa una vera norma sull’insieme delle classi di equivalenza, che sar`a indicato sempre con Lp. In effetti si ha che (Lp, k · kp) `e uno spazio di Banach, cio`e come spazio metrico `e completo: tutte le successioni di Cauchy hanno limite. Dalla disuguaglianza di Jensen, richiamata pi`u in basso, segue che, per ogni variabile aleatoria X, si ha kXkq ≤ kXkp se p ≥ q, da cui segue che Lp ⊆ Lq e che la convergenza in Lp implica quella in Lq (queste propriet`a non sono vere nel caso in cui la misura non sia finita). Dalla disuguaglianza triangolare si ha che |kXnkp− kXkp| ≤ kXn− Xkp, da cui si ricava che la convergenza in Lp implica quella dei momenti: se Xn → X in Lp allora E(|Xn|p) → E(|X|p).

Lo spazio pi`u importante `e certamente L2, che `e in effetti uno spazio di Hilbert, poich´e la norma k · k2 `e indotta dal prodotto scalare hX, Y i := E(XY ). Per X ∈ L2 la quantit`a E[(X − EX)2] = E(X2) − (EX)2 ∈ [0, ∞) `e detta varianza di X e indicata con Var(X), e si noti che Var(X) = 0 se e soltanto se esiste c ∈ R tale che P (X = c) = 1. La covarianza di X, Y ∈ L2 `e l’operatore bilineare definito da Cov(X, Y ) := E[(X − EX)(Y − EY )] = E(XY ) − E(X)E(Y ) ∈ R. Si verifica facilmente che Var(X +Y ) = Var(X)+Var(Y )+2 Cov(X, Y ). Si noti che Var(X) = Cov(X, X).

Un vettore aleatorio X = (X1, . . . , Xn) a valori in Rn `e per definizione in Lp se e solo se lo sono tutte le sue componenti. Ponendo kXkp = (E(|X|p))1/p, dove | · | indica la norma euclidea su Rn, si ha che X ∈ Lp se e solo se kXkp < ∞. Inoltre kXkq ≤ kXkp se p ≥ q, quindi Lp ⊆ Lq anche nel caso vettoriale.

Se X ∈ L1 `e ben definito il vettore media EX := (EX1, . . . , EXn) ∈ Rn, mentre se X ∈ L2 si definisce la matrice delle covarianze Γij := Cov(Xi, Xj) per 1 ≤ i, j ≤ n. Notiamo che Γ `e una matrice reale simmetrica e semi-definita positiva, cio`e per ogni u ∈ Rn si ha che hu, Γui ≥ 0, poich´e hu, Γui = P

i,jCov(Xi, Xj)uiuj = P

i,jCov(uiXi, ujXj) = Cov(hu, Xi, hu, Xi) = Var(hu, Xi).

(11)

2.6. Teoremi di convergenza. Ricordiamo di seguito i principali risultati di convergenza. Questo sono validi in realt`a anche nell’ipotesi che P sia una misura non di probabilit`a.

Teorema 1.1 (Convergenza monotona). Sia {Xn}n∈N una successione q.c. cre- scente di variabili aleatorie reali positive, definite sullo stesso spazio di probabilit`a (Ω, F , P), che converge q.c. verso la variabile aleatoria X; supponiamo cio`e che 0 ≤ Xn(ω) ↑ X(ω) per q.o. ω ∈ Ω. Allora EXn ↑ EX.

Lemma 1.2 (Fatou). Sia {Xn}n∈N una successione di variabili aleatorie reali, definite sullo stesso spazio di probabilit`a (Ω, F , P), tali che Xn(ω) ≥ 0 per q.o. ω ∈ Ω (o pi`u in generale Xn(ω) ≥ Y (ω), con Y variabile aleatoria reale integrabile). Allora E(lim infnXn) ≤ lim infn(EXn).

Teorema 1.3 (Convergenza dominata). Siano {Xn}n∈N, X variabili aleatorie reali, definite sullo stesso spazio di probabilit`a (Ω, F , P), tali che Xn(ω) → X(ω) per q.o. ω ∈ Ω. Supponiamo che esista una variabile aleatoria positiva Y integrabile, tale cio`e che EY < ∞, che soddisfi |Xn(ω)| ≤ Y (ω) per ogni n ∈ N e per q.o. ω ∈ Ω.

Allora E|Xn− X| → 0, cio`e Xn→ X in L1; in particolare EXn → EX.

2.7. Disuguaglianze. Ricordiamo la disuguaglianza di Markov : per ogni varia- bile aleatoria positiva X e per ogni δ > 0 si ha che

P(X ≥ δ) ≤ EX

δ , (1.1)

da cui segue la disuguaglianza di Chebychev : per ogni variabile aleatoria X ∈ L2 e per ogni δ > 0 si ha che

P(|X − EX| > δ) ≤ Var(X)

δ2 . (1.2)

La disuguaglianza di Jensen afferma che per ogni variabile aleatoria reale integrabile X e per ogni funzione convessa ϕ : R → R ∪ {+∞} tale che E(ϕ(X)) < ∞ si ha

ϕ(EX) ≤ E(ϕ(X)) . (1.3)

Date due variabili aleatorie X ∈ Lp e Y ∈ Lq, con 1p + 1q = 1, la disuguaglianza di H¨older afferma che XY ∈ L1 e inoltre

kXY k1 ≤ kXkpkY kq. (1.4)

Nel caso speciale p = q = 12 si ha la disuguaglianza di Cauchy-Schwarz. La disugua- glianza di H¨older si pu`o anche esprimere nel modo seguente: dati due numeri reali α, β ≥ 0 tali che α + β = 1 e due variabili aleatorie X, Y positive e integrabili, la variabile aleatoria XαYβ `e integrabile e vale che E(XαYβ) ≤ (EX)α(EY )β.

(12)

3. Legge di una variabile aleatoria

3.1. Legge di una variabile aleatoria. Una variabile aleatoria X : (Ω, F , P) → (E, E ), induce su (E, E ) una probabilit`a µX, detta legge o misura immagine, defini- ta da µX(A) := P(X−1(A)) = P(X ∈ A). La legge µX descrive la probabilit`a con cui i possibili valori di X vengono assunti ed `e talvolta indicata con P ◦ X−1 o con X(P ), dove X indica l’operatore che a una misura ν su (Ω, F ) associa la misura X(ν) := ν ◦ X−1 su (E, E ). Una rappresentazione schematica dell’azione di X `e:

Ω −−−−→X E

F ←−−−−X−1 E M1(Ω) −−−−→ MX 1(E)

dove M1(Ω) = M1(Ω, F ) indica l’insieme delle misure di probabilit`a su (Ω, F ), e analogamente per E.

Si noti che, data una misura di probabilit`a µ sullo spazio misurabile (E, E ), la funzione identit`a id : (E, E , µ) → (E, E ) `e una variabile aleatoria di legge µ. Questo `e il procedimento canonico per costruire una variabile aleatoria di legge assegnata. In particolare, data una variabile aleatoria X : (Ω, F , P) → (E, E ), la funzione identit`a id : (E, E , µX) → (E, E ) `e una variabile aleatoria che ha la stessa legge di X.

Se X : (Ω, F , P) → (E, E ) `e una variabile aleatoria e Y : (E, E ) → (G, G) `e un’applicazione misurabile, si verifica facilmente che la legge di Y (X) : (Ω, F , P) → (G, G) coincide con la legge della variabile aleatoria Y : (E, E , µX) → R. In altre parole, si ha che (Y (X))(P ) = Y(X(P )).

Se le variabili aleatorie X, Y : (Ω, F , P) → (E, E ) sono quasi certamente uguali, cio`e P(X = Y ) = 1, allora hanno la stessa legge: infatti 1{X∈A} = 1{Y ∈A} q.c. e dunque µX(A) := E(1{X∈A}) = E(1{Y ∈A}) =: µY(A), per ogni A ∈ E .

Fondamentale `e il seguente teorema di passaggio alla misura immagine.

Teorema 1.4. Sia X : (Ω, F , P) → (E, E ) una variabile aleatoria e f : (E, E ) → R un’applicazione misurabile. Allora la variabile aleatoria f (X) : (Ω, F , P) → R `e integrabile se e soltanto se lo `e la variabile aleatoria f : (E, E , µX) → R, nel qual caso si ha

Ef (X) =  Z

f (X(ω)) P(dω) = Z

E

f (x) µX(dx) .

3.2. Leggi su Rn. Date due misure µ, ν sullo stesso spazio misurabile (E, E ), si dice che µ `e assolutamente continua rispetto a ν, e si indica con µ  ν, se esiste una funzione misurabile f : (E, E ) → [0, ∞) tale che µ(A) =R

Ef (x) 1A(x) ν(dx) per ogni A ∈ E . Notazioni alternative equivalenti sono µ = f · ν, dµ = f · dν, = f . Chiaramente se µ  ν allora per ogni A tale che ν(A) = 0 si ha µ(A) = 0. Il teorema di Radon-Nikodym afferma che anche il viceversa `e vero.

Il caso pi`u importante `e dato dalle leggi su Rn che sono assolutamente continue rispetto alla misura di Lebsegue, dette leggi assolutamente continue tout court. Per una tale legge µ esiste cio`e una funzione misurabile f : Rn → [0, ∞), detta densit`a,

(13)

tale che µ(A) = R

Rnf (x) 1A(x) dx per ogni A ∈ B(R), dove dx indica la misura di Lebsegue su Rn (`e sufficiente che la precedente relazione valga per ogni A in una base di B(R), per esempio per ogni multirettangolo ×ni=1(ai, bi)). Segue che per ogni funzione misurabile g : Rn→ R si ha R g dµ = R

Rng(x) f (x) dx. Un vettore aleatorio X a valori in Rn `e detto assolutamente continuo se la sua legge µX lo `e. Indicando con fX la sua densit`a, usando il teorema di passaggio alla misura immagine si ha che E(g(X)) =R

Rng(x) fX(x) dx, per ogni funzione misurabile g : Rn→ R.

Se X `e un vettore aleatorio n-dimensionale con densit`a fX, A `e una matrice n × n invertibile e b ∈ Rn, il vettore aleatorio Y := AX +b `e ancora assolutamente continuo, con densit`a fY(y) := | det A|−1fX(A−1(y − b)). Questa formula si pu`o generalizzare al caso in cui la trasformazione affine x 7→ Ax + b sia sostituita da un diffeomorfismo, ma non ne avremo bisogno.

Una legge µ su Rn`e detta discreta discreta se la sua legge `e una sovrapposizione di misure di Dirac, cio`e se esistono {xi}i∈N, {pi}i∈N, con xi ∈ R e pi ∈ (0, 1], tali che µ = P

i∈Npiδxi. Un vettore aleatorio X a valori in Rn `e detto discreto se lo `e la sua legge, nel qual caso si ha che E(g(X)) =R

Rng(x) µX(dx) = P

i∈Npig(xi). La funzione pX : R → [0, 1] definita da pX(x) :=P

i∈Npi1{xi}(x) `e detta densit`a discreta (o funzione di massa).

Ricordiamo infine che le misure di probabilit`a µ su R sono in corrispondenza biunivoca con le funzioni F : R → [0, 1] non decrescenti, continue a destra e tali che F (−∞) = 0 e F (+∞) = 1: la corrispondenza `e semplicemente quella che associa a una probabilit`a µ la sua funzione di ripartizione F (x) := µ((−∞, x]).

4. Indipendenza e misura prodotto

4.1. Indipendenza. La nozione basilare di indipendenza riguarda σ-algebre, variabili aleatorie, eventi di uno spazio di probabilit`a (Ω, F , P).

• Data le σ-algebre F1, . . . , Fn contenute in F , esse si dicono indipendenti se per ogni scelta di eventi A1 ∈ F1, . . . , An∈ Fn, si ha che

P(A1∩ · · · ∩ An) =

n

Y

j=1

P(Aj) . (1.5)

• Date le variabili aleatorie X1, . . . , Xn, definite su Ω a valori rispettivamente negli spazi (E1, E1), . . . , (En, En), esse si dicono indipendenti se lo sono le σ- algebre da esse generate σ(X1), . . . , σ(Xn), cio`e se per ogni scelta di eventi B1 ∈ E1, . . . , Bn ∈ En si ha che

P(X1 ∈ B1, . . . , Xn∈ Bn) =

n

Y

j=1

P(Xj ∈ Bj) .

• Dati gli eventi A1, . . . , Andi F , essi si dicono indipendenti se lo sono le σ-algebre σ({A1}), . . . , σ({An}) da essi generate. Dato che σ({A}) = {∅, A, Ac, Ω}, per

(14)

ogni A ⊆ Ω, questo equivale a richiedere che per ogni σ = (σ1, . . . , σn) ∈ {1, c}n P(Aσ11 ∩ · · · ∩ Aσnn) =

n

Y

j=1

P(Aσjj) ,

dove poniamo A1i := Ai. Si pu`o mostrare che questa corrisponde alla definizione classica di indipendenza, cio`e che per ogni sottoinsieme J ⊆ {1, . . . , n} si abbia

P \

j∈J

Aj

!

= Y

j∈J

P(Aj) .

Sono ovviamente possibili enunciati misti: per esempio, una variabile aleatoria X si dice indipendente dalla σ-algebra G se le σ-algebre {σ(X), G} sono indipendenti, ecc.

Abbiamo definito l’indipendenza per un numero finito di di σ-algebre F1, . . . , Fn. L’estensione a una famiglia infinita {Fi}i∈I, con I insieme arbitrario, `e immediata:

per definizione, diremo che tali σ-algebre sono indipendenti se ogni sottofamiglia finita `e indipendente, cio`e se Fi1, . . . , Fin sono indipendenti per ogni n ∈ N e per ogni scelta di i1, . . . , in ∈ I. In modo analogo si definisce l’indipendenza di famiglie arbitrarie di variabili aleatorie {Xi}i∈I ed eventi {Ai}i∈I.

Un’osservazione molto utile in pratica `e la seguente: siano date le σ-algebre F1, . . . , Fn, e sia Ji una base di Fi, per 1 ≤ i ≤ n; tali σ-algebre sono indipendenti se e solo se lo sono J1, . . . , Jn, cio`e se vale la relazione (1.5) per A1 ∈ J1, . . . , An ∈ Jn (questo segue dal Lemma di Dynkin; si veda la sezione 7.1).

4.2. Indipendenza e scorrelazione. Un risultato importante `e che se X e Y sono variabili aleatorie reali integrabili indipendenti, allora il prodotto XY `e inte- grabile e si ha E(XY ) = E(X)E(Y ) e dunque Cov(X, Y ) = 0, cio`e le variabili sono scorrelate (in particolare, se X, Y ∈ L2 si ha che Var(X + Y ) = Var(X) + Var(Y )).

Il viceversa `e falso in generale. Sottolineiamo che se X e Y sono variabili aleatorie reali integrabili non indipendenti, non `e detto che XY sia integrabile.

Notiamo anche che se X e Y sono variabili aleatorie indipendenti, lo sono anche ϕ(X) e ψ(Y ), qualunque siano le applicazioni (misurabili) ϕ, ψ. In particolare, se ϕ, ψ sono funzioni reali limitate, si ha E(ϕ(X)ψ(Y )) = E(ϕ(X))E(ψ(Y )).

4.3. Convoluzione. Date due probabilit`a µ, ν su Rne due variabili aleatorie X e Y indipendenti, le cui leggi siano rispettivamente µ e ν, la convoluzione di µ e ν, indicata con µ ∗ ν, `e per definizione la legge della variabile aleatoria X + Y . Per ogni insieme A boreliano di Rn si ha µ ∗ ν(A) = R

Rµ(A − y)ν(dy) = R

Rν(A − y)µ(dy), che mostra tra l’altro come µ ∗ ν dipenda solo da µ e ν e non dalle variabili X e Y . Il caso pi`u importante `e quello in cui le leggi µ e ν siano assolutamente continue, con densit`a rispettivamente f e g. In questo caso la legge di µ ∗ ν `e anch’essa assolu- tamente continua, con densit`a h(x) =R

Rf (x − y)g(y)dy =R

Rg(x − y)f (y)dy, detta convoluzione di f e g e indicata con h = f ∗ g.

(15)

4.4. Lemma di Borel-Cantelli. Data una successione di eventi {An}n∈N di uno spazio di probabilit`a (Ω, F , P), si definisce

lim sup

n

An := \

k

[

n≥k

An = {ω ∈ Ω : ω ∈ An per infiniti n} =

 X

n

1An = ∞

 .

Si ha allora l’utilissimo

Lemma 1.5 (Borel-Cantelli). Sia {An}n∈Nuna successione di eventi di uno spazio di probabilit`a (Ω, F , P).

• Se P

nP(An) < ∞, allora P(lim supnAn) = 0.

• SeP

nP(An) = ∞ e inoltre se Ai e Aj sono indipendenti per ogni i 6= j, allora P(lim supnAn) = 1.

Esempio 1.6. Se {Xn}n∈N sono variabili aleatorie i.i.d. con Xn∼ Exp(λ), allora q.c. si ha limn→∞(max1≤k≤nXk)/ log n = λ−1.

4.5. Misura prodotto. Dati due spazi di misura finiti (o σ-finiti) (E1, E1, µ1), (E2, E2, µ2), il celebre teorema di Fubini assicura l’esistenza di una misura µ = µ1⊗µ2 sullo spazio (E1× E2, E1⊗ E2), detta misura prodotto, con la propriet`a µ(A × B) = µ1(A)µ2(B) e per ogni A ∈ E1 e B ∈ E2. Tale misura `e chiaramente unica, perch`e gli insiemi della forma A × B, al variare di A ∈ E1 e B ∈ E2, costituiscono una base di E1⊗ E2. Nel caso in cui E1 = E2 = R e le misure µ1, µ2 siano assolutamente continue con densit`a rispettive f1, f2, la misura prodotto `e anch’essa assolutamente continua, con densit`a f (x1, x2) := f1(x1) · f2(x2). Questi risultati si estendono senza difficolt`a al prodotto di un numero finito di spazi.

Ricordiamo il celebre Teorema di Fubini. Poniamo per semplicit`a µ := µ1⊗ µ2. Se f : (E1× E2, E1⊗ E2) → R `e misurabile e µ-integrabile, cio`e R

E1×E2|f | dµ < ∞, oppure se f ≥ 0, vale che

Z

E1×E2

f dµ = Z

E1

 Z

E2

f (x1, x2) µ2(dx2)



µ1(dx1)

= Z

E2

 Z

E1

f (x1, x2) µ1(dx1)



µ2(dx2) .

Date due variabili aleatorie X1, X2 definite su (Ω, F , P) a valori rispettivamente in (E1, E1), (E2, E2), indichiamo le loro leggi con µX1, µX2. La coppia X = (X1, X2)

`

e una variabile aleatoria a valori in (E1× E2, E1 ⊗ E2), la cui legge indichiamo con µX. `E facile vedere che X1 e X2 sono indipendenti se e soltanto se µX = µX1 ⊗ µX2. Lo stesso vale per un numero finito di variabili aleatorie X1, . . . , Xn a valori negli spazi (Ei, Ei): le variabili sono indipendenti se e soltanto se la loro legge congiunta su (Qn

i=1Ei, ⊗ni=1Ei) `e data dal prodotto delle leggi marginali.

(16)

4.6. Successioni indipendenti. `E noto che, assegnata un’arbitraria successio- ne di probabilit`a {µn}n∈N su R, `e possibile costruire una successione {Xn}n∈N di variabili aleatorie reali indipendenti, definite su un’opportuno spazio di probabilit`a (Ω, F , P), tali che la legge di Xn sia µn. Una costruzione tipica `e richiamata nella sezione 7.3.

Guardando X := {Xn}n∈N come una variabile aleatoria definita su (Ω, F, P) a valori nello spazio X := (RN, B(R)⊗N) (si noti che X `e misurabile perch´e le sue componenti lo sono), la legge µX `e talvolta detta prodotto (infinito) delle leggi {µn}n∈N, ed `e indicata con µX = ⊗i∈Nµi. In effetti, µX `e l’unica misura su X tale che, per ogni n ∈ N e per ogni A1, . . . , An ∈ B(R), si abbia µ(A1× · · · × An× RN) = µ1(A1) · · · µn(An).

5. Risultati di convergenza

5.1. Convergenza di misure. Sia (E, E ) uno spazio metrico, con distanza d(·, ·), munito della σ-algebra boreliana . Il caso tipico `e dato da Rn, con la di- stanza indotta dalla norma euclidea: d(x, y) = |x − y| =pPn

i=1(xi− yi)2. Data una successione di probabilit`a {µn}n∈N su E, si dice che essa converge debolmente alla probabilit`a µ su E se per ogni funzione f : (E, E ) → R continua e limitata si ha che R f dµn → R f dµ. Sebbene esistano altre nozioni di convergenza per successioni di misure, questa `e la pi`u importante e sar`a l’unica che considereremo.

5.2. Convergenza di variabili aleatorie. Consideriamo una famiglia di va- riabili aleatorie Xn : (Ωn, Fn, Pn) → (E, E ), per n ∈ N, e X : (Ω, F, P) → (E, E), definite non necessariamente sullo stesso spazio di probabilit`a ma tutte a valori in E. Diremo che la successione {Xn}n∈N converge in legge (o in distribuzione) verso X se la successione delle leggi di Xn converge debolmente verso la legge di X, cio`e (usando il teorema di passaggio alla misura immagine) se En(f (Xn)) → E(f (X)) per ogni funzione f : E → R continua e limitata.

Supponiamo ora che le variabili aleatorie {Xn}n∈N, X siano tutte definite sullo stesso spazio (Ω, F , P) e prendano valori in (E, E ).

• Diremo che la successione {Xn}n∈N converge in probabilit`a verso X se per ogni ε > 0 si ha che P(d(Xn, X) > ε) → 0.

• Diremo che la successione {Xn}n∈N converge quasi certamente (q.c.) verso X se esiste A ∈ F con P(A) = 1 tale che per ogni ω ∈ A si ha Xn(ω) → X(ω).

Consideriamo infine il caso speciale in cui E = Rn: supponiamo che le variabili aleatorie {Xn}n∈N, X siano definite sullo stesso spazio (Ω, F , P) e prendano valori in Rn. Diremo che la successione {Xn}n∈N converge verso X in Lp se E(|Xn− X|p) → 0, dove | · | indica la norma euclidea su Rn. Si noti che, essendo kXn− Xkq ≤ kXn− Xkp se p ≥ q, la convergenza di Xn verso X in Lp implica quella in Lq, per p ≥ q.

Le relazioni tra le diverse nozioni di convergenza sopra enunciate sono le seguenti:

• se Xn → X q.c., allora Xn → X in probabilit`a;

• se Xn → X in Lp, allora Xn→ X in probabilit`a;

• se Xn → X in probabilit`a, allora Xn→ X in legge;

(17)

• se Xn → X in probabilit`a, allora esiste una sottosuccessione {nk}k∈N tale che Xnk → X q.c.

5.3. Ulteriori osservazioni. Se Xn→ X in legge, allora `e possibile definire su un opportuno spazio di probabilit`a (Ω, F, P) variabili {Xen}{n∈N} eX, con la stessa legge rispettivamente di Xe n

e X, tali cheXen → X q.c. (teorema di Skorokod).

Date leggi µn, µ su R le cui funzioni di ripartizione siano rispettivamente Fn(·), F (·), la con- vergenza debole di µn verso µ `e equivalente alla convergenza di Fn(x) verso F (x) per ogni x ∈ R in cui F (·) `e continua.

Ricordiamo infine l’enunciato del Teorema Limite Centrale: se {Xn}n∈N`e una successione i.i.d.

di variabili aleatorie reali con E(Xn) = 0, E(Xn2) = 1, allora P(X1+ . . . + Xn≤ x

n) → Φ(x) per ogni x ∈ R, dove Φ(·) indica la funzione di ripartizione della legge normale standard (si noti che Φ(·) `e continua in ogni x ∈ R). Possiamo dunque riformulare il Teorema Limite Centrale nel modo seguente: la legge della variabile aleatoria (X1+ . . . + Xn)/

n converge debolmente verso la legge normale standard.

6. Funzioni caratteristiche

Data una vettore aleatorio X in Rne detta µ la sua legge, la funzione caratteristica (o trasformata di Fourier) di µ (o, per estensione, di X) `e la funzione ˆµ : Rn → C definita da

ˆ

µ(θ) := E(eihθ,Xi) = Z

Rn

eihθ,xiµ(dx) , dove ha, bi :=Pn

i=1aibi indica il prodotto scalare standard su Rn. `E facile verificare che ˆµ(·) `e una funzione uniformemente continua su Rn e che |ˆµ(·)| ≤ 1.

Le propriet`a fondamentali delle funzioni caratteristiche sono le seguenti:

• La funzione caratteristica identifica la legge, cio`e se due leggi µ, ν su Rn sono tali che ˆµ(θ) = ˆν(θ) per ogni θ ∈ Rn, allora µ = ν.

• Siano X1, . . . , Xn variabili casuali reali con legge rispettivamente µ1, . . . , µn e indichiamo con µ la legge del vettore aleatorio (X1, . . . , Xn) su Rn. Allora le variabili X1, . . . , Xn sono indipendenti (equivalentemente µ = µ1⊗ · · · ⊗ µn) se e solo se per ogni θ = (θ1, . . . , θn) ∈ Rn si ha che ˆµ(θ) = ˆµ11) · · · ˆµnn).

• Se una successione {µn}n∈N di leggi su Rn converge debolmente verso la legge µ, si ha ovviamente ˆµn(θ) → ˆµ(θ) per ogni θ ∈ Rn; viceversa, se ˆµn(θ) → ψ(θ) per ogni θ ∈ Rn e se la funzione ψ(·) `e continua in zero, allora ψ(·) `e la funzione caratteristica di una probabilit`a µ su Rn e µn → µ debolmente.

7. Roba tecnica

7.1. Classi di Dynkin. A differenza di quanto accade con la topologia, la σ-algebra E = σ(I) generata da una famiglia I non ammette una descrizione esplicita. Si potrebbe pensare di considerare la famiglia I(1) contenente gli elementi di I, i loro complementari e le loro unioni numerabili, ma in generale I(1) non `e una σ-algebra. Aggiungendo agli elementi di I(1) i loro complementari e le loro unioni numerabili, si ottiene una famiglia pi`u ampia I(2), e iterando la procedura si definisce I(n)per n ∈ N. Chiaramente I(1) ⊆ I(2)⊆ . . . e uno potrebbe sperare che σ(I) = I(n) per qualche n ∈ N, o per lo meno che σ(I) = S

n∈NI(n). Purtroppo questo `e falso in generale: per esempio,

(18)

quando E = R e I `e la famiglia degli intervalli aperti, σ(I) `e strettamente pi`u grande di Sn∈NI(n) (cf. la fine della sezione 2 nel capitolo 1 in (Billingsley, 1995), pagg. 30 e seguenti).

Non essendo disponibile una descrizione esplicita degli elementi di E = σ(I), si rendono neces- sarie tecniche per dimostrare che una certa propriet`a `e verificata per ogni elemento di E. Dato un insieme E, una famiglia D ⊆ P(E) di parti di E `e detta una classe di Dynkin se contiene E e se `e chiusa per unioni numerabili disgiunte e per passaggio al complementare:

A ∈ D =⇒ Ac∈ D , An∈ D, Ai∩ Aj= ∅ se i 6= j =⇒ [

n∈N

An ∈ D .

Una definizione alternativa equivalente `e che, oltre a contenere E, la classe D sia chiusa per differenze proprie e per unioni numerabili crescenti, cio`e

A, B ∈ D, A ⊆ B =⇒ B \ A ∈ D , An∈ D, An ⊆ An+1 =⇒ [

n∈N

An∈ D . Si ha allora il seguente

Lemma 1.7 (Dynkin). Sia D una classe di Dynkin su un insieme E e sia I ⊆ P(E) una famiglia chiusa per intersezioni finite. Se D contiene I, allora D contiene σ(I).

Per dimostrare che una certa propriet`a `e soddisfatta da tutti gli elementi di una σ-algebra E, si dimostra innanzitutto che gli insiemi che hanno questa propriet`a formano una classe di Dynkin, quindi si dimostra che questa propriet`a `e soddisfatta dagli elementi di una base I di E. Dal lemma di Dynkin segue dunque che godono di questa propriet`a tutti gli elementi di E. Nello stesso spirito, si ha il seguente risultato per funzioni misurabili.

Lemma 1.8 (Classe Monotona). Sia H una famiglia di funzioni reali limitate, definite su un insiemeE, e sia I ⊆ P(E) una famiglia di parti di E chiusa per intersezioni finite. Siano inoltre soddisfatte le seguenti condizioni:

• H `e uno spazio vettoriale che contiene le funzioni costanti;

• se {fn}n∈N `e una successione di funzioni di H tale che0 ≤ fn(x) ↑ f(x) per ogni x ∈ E, con f limitata, si ha che f ∈ H;

• H contiene 1A per ogni A ∈ I.

Allora H contiene tutte le funzioni reali limitate e misurabili rispetto a σ(I).

7.2. Lemma di misurabilit`a di Doob. Un risultato utile per l’intuizione `e il seguente:

Lemma 1.9 (Doob). Siano X : (E, E ) → (F, F ) e Y : (E, E ) → Rn applicazioni misurabili e sia σ(X) la σ-algebra su E generata da X. L’applicazione Y `e misurabile rispetto a σ(X) se e soltanto se esiste un’applicazione misurabileg : (F, F) → Rn tale che Y = g(X).

7.3. Costruzione di successioni indipendenti. Mostriamo che `e sempre possibile costruire una successione di variabili aleatorie reali indipendenti con leggi assegnate {µk}k∈N. Utilizzeremo come spazio di probabilit`a ([0, 1), B[0, 1), dx), dove dx indica la misura di Lebesgue. Per ω ∈ [0, 1), indichiamo con Yn(ω) l’n-esima cifra nello sviluppo in base due, cio`e ω = 0.Y1(ω)Y2(ω)Y3(ω) . . . con Yn(ω) ∈ {0, 1} (nei casi ambigui, per es. 0.01 = 0.1, scegliamo lo sviluppo finito). In altri termini, poniamo per ω ∈ [0, 1)

Yn(ω) :=

2n−1−1

X

k=0

1[2n2k,2k+12n )(ω) .

`E facile verificare che la successione di variabili aleatorie {Yn}n∈N `e i.i.d., cio`e le variabili sono indipendenti e hanno la stessa legge: pi`u precisamente P(Yn = 0) = P(Yn = 1) = 12. Essendo Yn

l’n-esima cifra nello sviluppo in base due, si ha che per ogni ω ∈ [0, 1)

X

n=1

Yn(ω)

2n = ω , cio`e

X

n=1

Yn

2n = id ,

(19)

dove id indica l’identit`a su [0, 1). In particolare, la variabile aleatoria Z := Pn∈NY2nn `e uniforme- mente distribuita su [0, 1), cio`e ha come legge la misura di Lebesgue su [0, 1).

Indicando con {pi}i∈N la successione dei numeri primi, poniamo per k ∈ N Xk :=

X

n=1

Y(pk)n

2n .

Per k fissato, la successione {Y(pk)n}n∈N `e i.i.d. con legge marginale P(Y(pk)n = 0) = P(Y(pk)n = 1) = 12, esattamente come la successione originale {Yn}n∈N. Di conseguenza, la variabile Xk ha la stessa legge della variabile Z, cio`e `e uniformemente distribuita sull’intervallo [0, 1). (Si noti che non `e vero che Pn=1Y(pk)2nn = id.) Dato che, per p, p0 primi distinti, le successioni {pn}n e {(p0)n}n sono disgiunte, segue che per k1, . . . , kn distinti le variabili {Xk1, . . . , Xkn} sono indipen- denti (intuitivamente, sono costruite a partire da famiglie disgiunte di variabili Yi). Di conseguenza abbiamo costruito una successione {Xk}k∈N di variabili aleatorie reali indipendenti, ciascuna con legge uniforme sull’intervallo [0, 1).

Infine, basta osservare che una variabile aleatoria reale con legge assegnata µ si pu`o sempre ottenere come immagine di una variabile aleatoria uniforme su [0, 1). Pi`u precisamente, se Z `e una variabile aleatoria uniforme su [0, 1) e se F (x) = µ((−∞, x]) `e la funzione di ripartizione di µ, indicando con G(y) := inf{x : F (x) ≥ y} la pseudo-inversa di F (·), definita per y ∈ [0, 1), si verifica facilmente che G(Z) `e una variabile aleatoria con funzione di ripartizione F (·), cio`e con legge µ. Se indichiamo con Fk(·) la funzione di ripartizione di µk e con Gk(·) la corrispondente pseudo-inversa, abbiamo che {Wk:= Gk(Yk)}k∈N`e una successione di variabili aleatorie reali indipendenti con leggi marginali {µk}k∈N.

(20)
(21)

Moto browniano

Dopo aver introdotto le leggi normali (uni- e multivariate), definiamo il moto browniano e ne studiamo le principali propriet`a.

1. Leggi normali

1.1. Leggi normali univariate. Dati µ ∈ R e σ ∈ (0, ∞), la legge normale (o gaussiana) di media µ e varianza σ2, indicata con N (µ, σ2), `e la probabilit`a su R assolutamente continua con densit`a

f (x) = 1

√2πσ e(x−µ)22σ2 .

Si verifica che effettivamente la media e la varianza di questa legge valgono rispetti- vamente µ e σ2, mentre la funzione caratteristica vale R

Reiθxf (x) dx = eiθµ−12σ2θ2. Una variabile aleatoria reale X `e detta normale di media µ ∈ R e varianza σ2 ≥ 0, e scriveremo X ∼ N (µ, σ2), se lo `e la sua legge, cio`e se

E(eiθX) = eiθµ−12σ2θ2.

Per estensione, quando σ2 = 0 definiremo la legge N (µ, 0) come la misura di Dirac concentrata nel punto µ. e analogamente per una variabile aleatoria: X ∼ N (µ, 0) se P (X = µ) = 1. Si noti che media, varianza e funzione caratteristica sono consistenti con la notazione. Quando µ = 0 e σ2 = 1 parleremo di legge normale standard.

Se le variabili aleatorie X ∼ N (µx, σx2) e Y ∼ N (µy, σy2) sono indipendenti, essendo E(eiθ(X+Y )) = E(eiθX)E(eiθY) segue facilmente che X + Y ∼ N (µx+ µy, σx2+ σy2). Analogamente, per a, b ∈ R si ha che aX + b ∼ N (aµx+ b, a2σx2).

1.2. Leggi normali multivariate. Un vettore aleatorio X = (X1, . . . , Xn) a valori in Rn `e detto normale (o gaussiano) se ogni combinazione lineare hu, Xi :=

P

iuiXi delle sue componenti, dove u ∈ Rn, `e una variabile aleatoria reale nor- male. In particolare, ciascuna componente Xi `e in L2: indicando con µ = EX = (EX1, . . . , EXn) il vettore media di X e con Γij := Cov(Xi, Xj) la matrice delle covarianze, per θ ∈ Rn si ha necessariamente

E(eihθ,Xi) = eihθ,µi−12hθ,Γθi, (2.1)

dove Γθ indica l’ordinario prodotto matrice-vettore, cio`e (Γθ)i :=P

jΓijθj. Indiche- remo con N (µ, Γ) la legge di X su Rn, che verr`a detta normale di media µ e matrice delle covarianze Γ, e scriveremo X ∼ N (µ, Γ).

Mostriamo che, per ogni µ ∈ Rn e per ogni matrice reale Γ simmetrica e semi-definita positiva,

`e effettivamente possibile costruire la legge N (µ, Γ). Consideriamo innanzitutto n variabili aleatorie 21

Riferimenti

Documenti correlati

[r]

• se il secondo argomento sulla linea di comando ` e -p (province), allora ci dovr`a essere un terzo argomento corrispondente al nome di una regione: in questo caso dovranno

A differenza dei metodi di- retti (come ad esempio il metodo LU), in genere un metodo iterativo stazionario convergente calcola usualmente solo un approssimazione della soluzione x

Se ogni singolo cliente acquista il libro con probabilit` a 0.1, quanti clienti deve visitare il venditore affinch´ e la probabilit` a di vendere tutti e dieci i libri sia almeno

Se dobbiamo predire la probabilit`a che servano pi`u di 60 giorni a vendere un immobile, che valore possiamo dare.. Nel problema precedente, stimare il tempo medio di vendita

I Appello di Analisi Stocastica 2009/10 Cognome:.. Laurea Magistrale in

Nella risoluzione degli esercizi ` e possibile utilizzare tutti i risultati enunciati a lezione, anche quelli non dimostrati.

Questo esempio mostra anche che la continuità delle traiettorie di un processo non è una proprietà delle leggi finito-dimensionali: esistono cioè processi X, X � che hanno le