• Non ci sono risultati.

UNIVERSIT `A DEGLI STUDI DI FERRARA FACOLT `A DI SCIENZE MATEMATICHE, FISICHE E NATURALI

N/A
N/A
Protected

Academic year: 2021

Condividi "UNIVERSIT `A DEGLI STUDI DI FERRARA FACOLT `A DI SCIENZE MATEMATICHE, FISICHE E NATURALI"

Copied!
97
0
0

Testo completo

(1)

UNIVERSIT ` A DEGLI STUDI DI FERRARA

FACOLT `A DI SCIENZE MATEMATICHE, FISICHE E NATURALI

Corso di Laurea Triennale in Matematica Indirizzo Matematica Applicata

CATENE DI MARKOV FINITE E TEORIA DI PERRON-FROBENIUS

Relatore:

Chiar.mo Prof.

Josef Eschgf ¨aller

Laureanda:

Elena Testoni

Anno Accademico 2008-2009

(2)
(3)

Indice

Introduzione 1

I. CATENE DI MARKOV FINITE

1. Variabili aleatorie elementari 5

2. Il teorema di Radon-Nikod´ym discreto 14

3. Regole per probabilit `a composte 19

4. Sequenze di Markov 20

5. Catene di Markov finite 25

6. La matrice di transizione 29

7. Esempi di catene di Markov 31

8. Un programma di simulazione 38

9. Una formula per le potenze 40

10. Il teorema ergodico matriciale 45

II. MATRICI NON NEGATIVE

11. Sistemi dinamici stocastici finiti 59

12. Una stima per il raggio spettrale 63

13. Il teorema di Perron 67

14. Matrici irriducibili 73

15. Il teorema di Frobenius 77

16. Il teorema di Wielandt 79

17. Matrici primitive 82

18. Un modello demografico 91

Bibliografia 92

(4)
(5)

Introduzione

La tesi `e suddivisa in due parti: la prima dedicata alla teoria ergodica delle catene di Markov finite, la seconda allo studio delle matrici non negative.

Nei primi tre capitoli vengono forniti alcuni richiami alla teoria del- la probabilit `a, con la definizione di σ-algebra, variabile aleatoria ele- mentare e alcune propriet `a che le caratterizzano. Viene anche enun- ciato e dimostrato il teorema di Radon-Nikod´ym discreto per la media condizionata di una variabile aleatoria elementare.

Il quarto capitolo introduce le sequenze di Markov, un concetto ausi- liario per rendere pi `u trasparenti i ragionamenti probabilistici usati nei capitoli seguenti.

Nel quinto capitolo vengono introdotte le catene di Markov finite, ossia processi stocastici finiti per i quali l’applicazione

n,i

(Xn= i)

`e una sequenza di Markov.

Nel capitolo 6 vengono approfondite alcune propriet `a della matrice di transizioneT con cui pu`o essere descritta una catena di Markov fi- nita. Per il teorema di Kolmogorov (di cui una dimostrazione si trova nella monografia di Woess) per ogni matrice stocasticaT ed ogni vetto- re stocasticop0 esiste una catena di Markov

n

Xn finita ed omogenea tale che la matrice di transizione associata siaT e tale che l’elemento i-esimo di p0equivale alla probabilit `a cheX0 assuma tale valorei.

Alcuni esempi di catene di Markov e un programma di simulazione sono contenuti nei capitoli 7 e 8.

Il capitolo 9 contiene una formula che ci permette di calcolare la po- tenza n-esima di una matrice qualunque utilizzando il polinomio di interpolazione di Hermite calcolato mediante lo schema alle differen- ze. Questa formula, numericamente instabile e complicata, `e pi `u di interesse teorico, e in pratica per le matrici stocastiche e non negative si useranno invece le formule al limite che deriveremo nel seguito.

Nel capitolo 10, attraverso diversi risultati dell’algebra lineare nu- merica, si studiano le propriet `a di una matrice stocasticaT .

1 `e autovalore di T e coincide con il raggio spettrale. Il teorema ergodi- co matriciale (teorema 10.9) afferma che lim

N−→∞

1 N

N−1X

n=0

Tn= P , dove P

`e la proiezione su Fix T , nella decomposizione Rq= Fix T ⊕ Im(T − δ).

In generale la successione

n

Tn stessa non converge, ma soltanto nel caso in cui 1 sia l’unico autovalore di modulo massimo (teorema 10.34). In questo caso si ha allora che lim

n→∞Tn = P (corollario 10.44).

Alla fine del capitolo la teoria viene illustrata con alcuni esempi calco- lati con Sage.

(6)

La seconda parte inizia con il capitolo 11 nel quale vengono defini- ti sistemi dinamici stocastici finiti ad ognuno dei quali viene associata in modo naturale una matrice stocastica, quindi una catena di Markov finita. Tali sistemi possono essere utilizzati per simulare il comporta- mento di un insieme di cellule in un tessuto che potrebbero passare da uno stato ad un altro. Facciamo vedere come da questo modello si arrivi in modo intuitivo al concetto di matrice non negativa.

Nel capitolo 12 lo studio delle propriet `a delle matrici non negative inizia con alcune importanti stime del raggio spettrale. Esso `e ad es- empio compreso tra il minimo e il massimo delle somme di riga e tra il minimo e il massimo delle somme di colonna.

Nei capitoli successivi viene esposta la teoria di Perron-Frobenius.

Questa teoria inizia con il teorema di Perron. Si dimostra che se A

`e una matrice positiva, allora ρ(A) `e un autovalore di A di moltepli- cit `a algebrica uguale a 1 e ad esso corrisponde un autovettore positivo (vettore di Perron) e che tale autovettore `e unico se chiediamo che sia stocastico. Un altro risultato importante `e il teorema 13.21 che per- mette di calcolare il lim

n→∞(ρ(A)1 An).

Nel capitolo 14, invece, vengono introdotte le matrici (non negative) irriducibili e alcune propriet `a che le caratterizzano: una matrice non negativa `e irriducibile se e solo se esistem ∈ N tale che (A + δ)m sia positiva.

Il capitolo 15 contiene il teorema di Frobenius per matrici non ne- gative ed irriducibili. Si dimostra che seA `e una tale matrice, il suo raggio spettrale ρ(A) `e autovalore positivo di A, con molteplicit `a al- gebrica uguale a 1 ed esiste inoltre un autovettore positivo rispetto all’autovaloreρ(A) (teorema 15.4).

Il teorema di Wielandt nel capitolo 16 stabilisce che seA `e una ma- trice non negativa ed irriducibile, l’insieme degli autovalori di modulo massimo `e dato da M(A) = {e2πih jρ(A) | j = 0, . . . , h − 1}, dove h `e la cardinalit `a diM(A). Esso stabilisce inoltre che ogni elemento di M(A) ha molteplicit `a algebrica1 come autovalore di A.

Il capitolo 17 introduce le matrici primitive, che costituiscono un’ul- teriore sottoclasse delle matrici non negative ed irriducibili, e vengono esposte le propriet `a che le caratterizzano. Esse sono molto importanti poich´e alle matrici primitive si generalizza in modo soddisfacente il teorema di Perron per le matrici positive, come mostrato nel teorema 17.5. Vengono introdotte anche le matrici di incidenza e, attraverso al- cuni semplici programmi in Sage, elencate tutte le matrici di incidenza 2× 2 e 3 × 3 primitive e quelle primitive minimali.

Il capitolo 18 mostra in un semplice e popolare modello (noto come modello di Leslie) come si pu`o applicare la teoria in demografia. In esso si considera una popolazione suddivisa in fasce d’et `a, che per`o possono anche essere interpretate come compartimenti funzionali delle cellule di un tessuto. A questa situazione possono essere applicati i teoremi di convergenza ottenuti nei capitoli precedenti.

(7)

La teoria di Perron-Frobenius `e stata originata da Perron nell’ambito della teoria ergodica delle frazioni continue (cfr. Iosifescu/Kraaikamp).

Si `e per`o rivelata, come mostra il contenuto di questa tesi, utile in molti altri campi. Negli anni ’60 `e stata generalizzata a operatori e semigruppi di operatori positivi su reticoli di Banach; si vedano ad es- empio i lavori citati di Lotz, Greiner e Keicher/Nagel, il libro di Nagel e coll. (Springer LN 1184) e l’ultimo capitolo di Engel/Nagel. Queste ge- neralizzazioni richiedono tecniche e concetti molto avanzati dell’ana- lisi funzionale.

A livello pi `u elementare, ma piuttosto interessanti, si presentano le applicazioni della teoria delle matrici non negative in dinamica simbo- lica e combinatoria delle parole. SianoS := {1, ..., q} ed S il monoide libero delle parole formate con lettere da S. Per w ∈ S e j ∈ S sia f (j, w) il numero delle volte che j appare in w.

Per ogni endomorfismo ϕ : S −→ S possiamo allora formare la matrice

T :=



f (1, ϕ(1)) . . . f (1, ϕ(q))

... ...

f (q, ϕ(1)) . . . f (q, ϕ(q))



Se con U w :=



f (1, w) ... f (q, w)

 denotiamo il vettore di Parikh di w, otte-

niamo un diagramma commutativo

S S

Nq Nq

ϕ

U

T

U

per cuiU ϕn(j) = TnU j = (Tn)(j)per ognin∈ N ed ogni j ∈ S, essendo evidentementeU j = δj. Cfr. Brin/Stuck, pagg. 64-66, Queff´elec, pagg.

87-95, Lind/Marcus, pagg. 106-135, per le interpretazioni nell’ambito della dinamica simbolica e Lothaire per le applicazioni in combinato- ria delle parole.

La tesi contiene, come gi `a osservato, nel capitolo 11 alcune idee per la modellazione di sistemi biologici (rappresentati ad esempio tramite reti di Petri) mediante matrici non negative. Tali modelli sono molto versatili e dovrebbero avere molte applicazioni.

(8)
(9)

I. CATENE DI MARKOV FINITE 1. Variabili aleatorie elementari

Definizione 1.1. SiaΩ un insieme. Un sistema di insiemiA ⊂ P(Ω) si chiama unaσ-algebra su Ω, se sono verificate le seguenti condizioni:

(1)Ω∈ A.

(2) SeA∈ A, allora Ω \ A ∈ A.

(3) SeA1, A2, . . .∈ A, allora S

n=1

An∈ A.

Osservazione 1.2. SiaΩ un insieme eA una σ-algebra su Ω. Allora:

(1)∅ ∈ A.

(2) SeA1, A2, . . .∈ A, allora T

n=1

An∈ A.

(3) SeA1, . . . , Ak∈ A, allora Sk

n=1

An∈ A e Tk

n=1

An∈ A.

(4) SeA, B∈ A, allora A \ B ∈ A.

Dimostrazione.

(1)∅ = Ω \ Ω ∈ A.

(2) T

n=1

An= Ω\ (Ω \ T

n=1

An)∈ A.

(3) PonendoAn=∅ per k > n abbiamo: Sk

n=1

An= S

n=1

An∈ A.

PonendoAn = Ω per k > n abbiamo:

Tk n=1

An = T

n=1

An∈ A.

(4)A\ B = A ∩ (Ω \ B) ∈ A.

Definizione 1.3. Uno spazio misurabile `e una coppia(Ω,A), dove Ω `e un insieme eA una σ-algebra su Ω.

Definizione 1.4. Sia(Ω,A) uno spazio misurabile. Una misura su A

`e un’applicazione µ :A −→ [0, ∞] con le seguenti propriet`a:

(1)µ(∅) = 0.

(2) SeA1, A2, . . .∈ A sono disgiunti, allora µ(S

n=1

An) = P

n=1

µ(An).

L’addizione in[0,∞] `e definita in modo che a + ∞ = ∞ per ogni a.

E chiaro che in questo modo sono anche definite le somme infinite.` Osservazione 1.5. Siano(Ω,A) uno spazio misurabile e µ una misura suA. Se A1, . . . , Ak∈ A sono disgiunti, allora µ(Sk

n=1

An) = Pk

n=1

µ(An).

(10)

Dimostrazione. Siccomeµ(∅) = 0 `e sufficiente porre An=∅ per n > k.

Definizione 1.6. Sia(Ω,A) uno spazio misurabile. Una misura di pro- babilit `asuA `e una misura p su A tale che p(Ω) = 1.

E chiaro che allora` p(Ω\ A) = 1 − p(A) per ogni A ∈ A.

Osservazione 1.7. (Ω,A) sia uno spazio misurabile e µ una misura suA. Allora:

(1) SeA, B∈ A e A ⊂ B, allora µ(A) ≤ µ(B).

(2) Se µ `e una misura di probabilit `a, allora 0 ≤ p(A) ≤ 1 per ogni A∈ A.

Dimostrazione.

(1) AbbiamoB = A ˙∪(B \ A) con B \ A ∈ A.

Perci`oµ(B) = µ(A) + µ(B\ A) ≥ µ(A).

(2) Immediato dal punto (1) perch´eA⊂ Ω e p(Ω) = 1 per ipotesi.

Definizione 1.8. Uno spazio di misura `e una tripla (Ω,A, µ), dove (Ω,A) `e uno spazio misurabile con Ω 6= ∅ e µ `e una misura su A.

Uno spazio di probabilit `a `e una tripla (Ω,A, p), dove (Ω, A) `e uno spazio misurabile e p una misura di probabilit `a. Gli elementi di A sono spesso detti eventi.

Osservazione 1.9.Ω sia un insieme e ρ un insieme di σ-algebre su Ω.

Allora T

A∈ρA `e una σ-algebra su Ω.

Dimostrazione. Immediata.

Definizione 1.10. SianoΩ un insieme,S ⊂ P(Ω) e ρ l’insieme di tutte leσ-algebreA su Ω con S ⊂ A. Allora

σ-algebra(S) := T

A∈ρA

`e per l’oss. 1.9 una σ-algebra su Ω che evidentemente `e la pi `u piccola σ-algebra su Ω che contieneS.

Definizione 1.11. SiaX uno spazio topologico. Gli elementi di borel(X)=σ-algebra(aperti(X)) = σ− algebra(chiusi(X))

sono detti insiemi di Borel diX, borel(X) si chiama l’algebra di Borel diX.

Definizione 1.12. Sia(Ω,A, µ) uno spazio di misura. Poniamo (µ = 0) :={A ∈ A | µ(A) = 0}

Gli elementi di(µ = 0) sono detti insiemi di misura nulla; essi sono, per definizione, automaticamente misurabili.

(11)

Definiamo inoltre

(µ = 0)={N ⊂ Ω | esiste A ∈ (µ = 0) con N ⊂ A}

Definizione 1.13. Uno spazio di misura(Ω,A, µ) si dice completo, se

`e soddisfatta una delle seguenti condizioni equivalenti:

(1)A∈ (µ = 0) ed N ⊂ A =⇒ N ∈ A.

(2)(µ = 0) ⊂ A.

(3)(µ = 0) = (µ = 0).

In uno spazio di misura completo perci`o ogni sottoinsieme di un insie- me di misura nulla (automaticamente misurabile) `e ancora misurabile e di misura nulla.

Dimostrazione. Dobbiamo dimostrare che le tre condizioni sono equi- valenti.

(1)⇐⇒ (2): Chiaro.

(2)=⇒ (3): `E chiaro che (µ = 0) ⊂ (µ = 0).

SiaN ∈ (µ = 0). Ci`o significa che esisteA∈ (µ = 0) tale che N ⊂ A.

Abbiamo supposto che(µ = 0) ⊂ A, perci`o N ∈ A. Dall’oss. 1.7 segue µ(N )≤ µ(A) = 0 e quindi µ(N) = 0, cosicch´e N ∈ (µ = 0).

(3)=⇒ (2): Chiaro, perch´e (µ = 0) ⊂ A.

Nota 1.14. In borel(Rm) si pu`o definire in modo naturale una misu- ra che per ogni intervallo m-dimensionale coincide con il volume di quell’intervallo. Lo spazio di misura che cos`ı si ottiene per`o non `e com- pleto. Si pu`o dimostrare che esiste un completamento(Rm, leb(Rm, µleb)).

Gli elementi di (leb(Rm)) si chiamano insiemi misurabili nel senso di Lebesgueleb `e detta misura di Lebesgue.

Per costruzione borel(Rm) ⊂ leb(Rm); in particolare ogni aperto e ogni chiuso di Rm `e misurabile nel senso di Lebesgue.

Definizione 1.15.X sia uno spazio topologico ed E∈ X.

E si dice un Gδ, se esistono apertiA1, A2, . . . di X tali che E = T

n=1

An. E si dice un Fσ, se esistono chiusiF1, F2, . . . di X tali che E = S

n=1

Fn. E chiaro che ogni` Gδe ogniFσ appartiene aborel(X).

Osservazione 1.16. OgniGδ oFσ di Rm appartiene aleb(Rm).

Teorema 1.17. PerA⊂ Rmsono equivalenti:

(1) A∈ leb(Rm).

(2) Per ogniε > 0 esistono un chiuso C ed un aperto U con C⊂ A ⊂ U tali che µleb(U \ C) < ε.

(3) Esistono unFσ F e un GδG con F ⊂ A ⊂ G tali che µleb(G\ F ) = 0.

(12)

Dimostrazione. Elstrodt, pag. 67.

Definizione 1.18. Siano(Ω,A) e (Ω,A) due spazi misurabili.

Un’applicazione f : Ω −→ Ω si dice misurabile (pi `u precisamente A-A-misurabile) sef−1(A)∈ A per ogni A ∈ A.

Definizione 1.19. (Ω,A) sia uno spazio misurabile. Un’applicazione X : Ω−→ R si dice misurabile, se `e A-borel(R)-misurabile.

Definizione 1.20. SianoΩ un insieme ed f, g due applicazioni.

Poniamo allora:

(f = g) :={ω ∈ Ω | f(ω) = g(ω)}

(f ≤ g) := {ω ∈ Ω | f(ω) ≤ g(ω)}

PerU ⊂ R ed a ∈ R siano inoltre:

(f ∈ U) := {ω ∈ Ω | f(ω) ∈ U} = f−1(U ) (f = a) :={ω ∈ Ω | f(ω) = a} = f−1({a}) (f < a) :={ω ∈ Ω | f(ω) < a} = f−1((−∞, a)) (f ≤ a) := {ω ∈ Ω | f(ω) ≤ a} = f−1((−∞, a]) ecc.

Definizione 1.21. SiaΩ un insieme. Date applicazioni f1, . . . , fm : Ω−→ R e insiemi U1, . . . , Um⊂ R definiamo (f1∈ U1, . . . , fm ∈ Um) := (f1∈ U1)∩ . . . ∩ (fm ∈ Um)

Proposizione 1.22.(Ω,A) sia uno spazio misurabile. Per una funzio- neX : Ω−→ R sono equivalenti:

(1)X `e misurabile.

(2)(X ∈ U) ∈ A per ogni aperto U di R.

(3)(X ∈ V ) ∈ A per ogni chiuso V di R.

(4)(X < a)∈ A per ogni a ∈ R.

(5)(X ≤ a) ∈ A per ogni a ∈ R.

(6)(X > a)∈ A per ogni a ∈ R.

(7)(X ≥ a) ∈ A per ogni a ∈ R.

Dimostrazione. Verifica tecnica.

Definizione 1.23. . Una variabile aleatoria (o casuale) reale `e un’applicazione misurabileX : Ω−→ R, dove (Ω, A) `e uno spazio misurabile che spesso

rimane sottinteso e non viene specificato in dettaglio.

Quando necessario diciamo anche cheX `e definita su (Ω,A).

Definizione 1.24. Sia (Ω,A) uno spazio misurabile. Una variabile aleatoria reale X : Ω −→ R si dice elementare, se assume solo un numero finito di valori, cio`e se l’immagineV := X(Ω) `e finita.

In tal caso(X = a) =∅ per ogni a ∈ R \ V .

(13)

Quando necessario diciamo anche cheX `eA-elementare.

Lemma 1.25. Siano(Ω,A) uno spazio misurabile ed X : Ω −→ R un’applicazione che assume solo un numero finito di valori. Allora sono equivalenti:

(1)X `e misurabile.

(2)(X = a)∈ A per ogni a ∈ R.

(3)X `eA-P(R)-misurabile.

Dimostrazione.

(1)=⇒ (2): Chiaro, perch´e (X = a) = X−1({a}) ed {a} ∈ borel(R).

(2) =⇒ (3): Sia B ⊂ R. Allora (X ∈ B) = S

b∈B

(X = b). Siccome X assume solo un numero finito di valori, (X = b) 6= ∅ solo per un numero finito di b ∈ B. Siccome per ipotesi ogni (X = b) ∈ A, anche (X∈ B) ∈ A.

(3)=⇒ (1): Chiaro.

Definizione 1.26. Ω sia un insieme ed A⊂ Ω. La funzione caratteri- sticaχA: Ω−→ R associa il valore 1 a tutti gli elementi di A e il valore 0 agli elementi diΩ\ A.

Essa assume quindi al massimo due valori.

Osservazione 1.27.(Ω,A) sia uno spazio misurabile ed A ⊂ Ω. Allora sono equivalenti:

(1)χA `e misurabile.

(2)A∈ A.

(3)χA `e elementare.

Dimostrazione.

(1)=⇒ (2): χAsia misurabile. Allora:A = (χA= 1)∈ A.

(2)=⇒ (1): Possiamo usare il lemma 1.25. Per`o (χA= 1) = A∈ A e (χA= 0) = Ω\ A ∈ A.

(2)⇐⇒ (3): Chiaro. Infatti χAassume solo i valori 0 e 1.

Lemma 1.28. Ω sia un insieme ed X, Y : Ω −→ R due applicazioni.

Sianoa, α∈ R. Allora:

(1) (X + Y = a) = ˙S

b∈R

(X = b, Y = a− b).

(2) (XY = a) = S˙

b∈R\0

(X = b, Y = ab) se a6= 0.

(XY = 0) = (X = 0)∪ (Y = 0).

(3) (αX = a) = (X = αa) per α6= 0.

(0X = a) =



Ω per a = 0

∅ per a 6= 0

(14)

(4) (|X| = a) = (X = a) ˙∪(X = −a).

Dimostrazione. Chiaro.

Proposizione 1.29.(Ω,A) sia uno spazio misurabile ed X, Y : Ω −→ R due variabili aleatorie elementari. Siaα∈ R. Allora X + Y , XY , αX e

|X| sono ancora variabili aleatorie elementari.

Dimostrazione. (1) Dimostriamo prima che queste funzioni assumo- no solo un numero finito di valori. Ma gli insiemi

(X + Y )(Ω)⊂ {a + b | a ∈ X(Ω), b ∈ Y (Ω)}

(XY )(Ω)⊂ {ab | a ∈ X(Ω), b ∈ Y (Ω)}

αX(Ω) ={αa | a ∈ X(Ω)}

|X|(Ω) = {|a| | a ∈ X(Ω)}

sono finiti.

(2) Possiamo perci`o applicare il lemma 1.25. L’enunciato segue ades- so dal lemma 1.28 in cui le unioni contengono solo un numero finito di termini6= ∅. Infatti

S

b∈R

(X = b, Y = a− b) = S

b∈R

(X = b)∩ (Y = a − b) S

b∈R\0

(X = b, Y = a

b) = [

b∈R\0

(X = b)∩ (Y = a b)

Definizione 1.30. Siano(Ω,A, p) uno spazio di probabilit`a ed X : Ω−→ R una variabile aleatoria elementare. Allora

M X := P

a∈R

ap(X = a) si chiama la media di X.

Osserviamo che questa somma contiene solo un numero finito di sommandi diverso da zero, perch´e l’insieme{a ∈ R | (X = a) 6= ∅} `e finito per ipotesi quindi anche l’insieme{a ∈ R | p(X = a) 6= 0} `e finito.

Lemma 1.31. Siano(Ω,A, p) uno spazio di probabilit `a e

X : Ω−→ R una variabile aleatoria elementare. Sia A ∈ A. Allora P

a∈R

p(A, X = a) = p(A).

Dimostrazione. InfattiA = ˙S

a∈R

(A∩ (X = a)).

Teorema 1.32.(Ω,A, p) sia uno spazio di probabilit `a ed X, Y : Ω −→ R due variabili aleatorie elementari. Siaα∈ R. Allora:

M (αX) = αM X M (X + Y ) = M X + M Y

(15)

Dimostrazione. Scrivimo dappertuttoP

a

invece di P

a∈R

. Si noti che in tutte le somme appare solo un numero finito di sommandi non nullo.

(1) L’enunciato `e ovvio perα = 0 Siaα 6= 0. Allora

M (αX) =X

a

ap(αX = a) =X

a

ap(X = a/α)

= αX

a

a

αp(X = a/α) = αX

a

ap(X = a) = αM (X) (2) Utilizzando il lemma 1.28 abbiamo

M (X + Y ) =X

a

ap(X + Y = a)

=X

a

X

b

ap(X = b, Y = a− b) =X

b

X

a

ap(X = b, Y = a− b)

=X

b

X

a

(a + b)p(X = b, Y = a)

=X

b

X

a

ap(X = b, Y = a) +X

b

X

a

bp(X = b, Y = a)

=X

a

aX

b

p(X = b, Y = a) +X

b

bX

a

p(X = b, Y = a)

1.31= X

a

ap(X = a) +X

b

bp(Y = b) = M X + M Y

Osservazione 1.33.(Ω,A, p) sia uno spazio di probabilit`a ed X, Y : Ω−→ R due variabili aleatorie elementari. Allora:

(1)X≥ 0 =⇒ MX ≥ 0.

(2)X≤ Y =⇒ MX ≤ MY .

Dimostrazione. (1) SeX≥ 0, allora M X = P

a∈R

ap(X = a) = P

a∈[0,∞)

ap(X = a)≥ 0.

(2) L’ipotesi implicaY − X ≥ 0, per cui MY − MX = M(Y − X) ≥ 0.

Osservazione 1.34. Siano(Ω,A), (Ω,A), (Ω′′,A′′) tre spazi misura- bili. Siano inoltreX : Ω−→ Ω A-A-misurabile ef : Ω −→ Ω′′A-A′′- misurabile. Alloraf (X) := f◦ X : Ω −→ Ω′′ `eA-A′′-misurabile.

Dimostrazione. SiaA′′ ∈ A′′. Allora f ◦ X)−1(A′′) = X−1(f−1(A′′)).

Per ipotesif−1(A′′)∈ Ae quindiX−1(f−1(A′′))∈ A.

Corollario 1.35. Siano (Ω,A) uno spazio misurabile ed X : Ω −→ R una variabile aleatoria reale. La funzione f : R −→ R sia borel(R)- borel(R)-misurabile, ad esempio una funzione continua. Allora

(16)

f (X) : Ω −→ R `e una variabile aleatoria reale. Se X `e elementare, anchef (X) `e elementare.

Dimostrazione. La prima parte segue dall’oss. 1.34.

SeX `e elementare, allora X(Ω) `e finito per cui `e finito anche l’insieme f (X)(Ω) = f (X(Ω)).

Teorema 1.36.(Ω,A, p) sia uno spazio di probabilit `a ed X : Ω−→ R una variabile aleatoria elementare. Sia f : R −→ R borel(R)-borel(R)-misurabile. Allora

M f (X) = P

a∈R

f (a)p(X = a)

Dimostrazione.Γ sia il grafico di f, cio`e

Γ ={(a, t) ∈ R × R | f(a) = t} = {(a, f(a)) | a ∈ R}

Per ognit∈ R abbiamo (f(X) = t) = S˙

a∈f−1(t)

(X = a), per cui

M f (X) =X

t

tp(f (X) = t) =X

t

t X

a∈f−1(t)

p(X = a)

= X

(a,t)∈Γ

tp(X = a) =X

a

f (a)p(X = a)

Esempio 1.37. Nella situazione del teorema 1.36 siano X(Ω) ={0, 1, 2, 3, 4} ed A = P(Ω).

La funzionef su X(Ω) sia data dalla tabella

0 17 1 30 2 30 3 17 4 30

La funzionef (X) assume solo i valori 17 e 30 per cui

M f (X) = 17p(f (X) = 17) + 30p(f (X) = 30).

Inoltre

(f (X) = 17) = (X = 0) ˙∪(X = 3)

(f (X) = 30) = (X = 1) ˙∪(X = 2) ˙∪(X = 4) per cui

M f (X) = 17[p(X = 0) + p(X = 3)] + 30[p(X = 1) + p(X = 2) + p(X = 4)]

= f (0)p(X = 0) + f (3)p(X = 3) + f (1)p(X = 1) + f (2)p(X = 2) + f (4)p(X = 4)

(17)

in accordo con l’enunciato del teorema 1.36.

Osservazione 1.38.(Ω,A, p) sia uno spazio di probabilit`a ed A ∈ A.

AlloraχA `e una variabile aleatoria elementare (per l’oss. 1.27) e si ha M χA= p(A).

Dimostrazione.χAassume solo i valori 0 e 1, perci`o M χA=P

a∈R

ap(χA= a) = p(χA= 1) = p(A)

Definizione 1.39.(Ω,A, p) sia uno spazio di probabilit`a, X : Ω −→ R una variabile aleatoria elementare edE ∈ A. Poniamo allora

R

E

Xp := M (XχE)

In particolare quindiM X =R

Xp.

Osservazione 1.40. Nella situazione della def. 1.39 si ha R

E

Xp = P

a∈R

ap((X = a)∩ E).

Dimostrazione. `E sufficiente dimostrare che R

E

Xp = P

a∈R\0

ap((X = a)∩ E) Per definizione per`o

R

E

Xp = P

a∈R

ap(XχE = a) = P

a∈R\0

ap(XχE = a) Pera6= 0 ed ω ∈ Ω si ha per`o

ω ∈ (XχE = a) ⇐⇒ ω ∈ E e X(ω) = a ⇐⇒ ω ∈ (X = a) ∩ E.

(18)

2. Il teorema di Radon-Nikod ´ym discreto

Situazione 2.1.(Ω,A, p) sia uno spazio di probabilit`a.

Definizione 2.2. PerA, E ∈ A definiamo la probabilit `a condizionata p(A|E) ponendo

p(A|E) :=







0 se p(E) = 0 p(A∩ E)

p(E) sep(E) > 0

Si noti chep(A|E) = 0 anche quando solo p(A ∩ E) = 0.

Osservazione 2.3. SianoA, E∈ A. Allora p(A|E)p(E) = p(A ∩ E).

Dimostrazione. Ci`o `e chiaro perp(E) > 0.

Se invecep(E) = 0, allora anche p(A∩E) = 0 e l’uguaglianza rimane valida.

Lemma 2.4 (formula della probabilit `a totale). Sia E1, E2, . . . una successione finita o infinita di elementi disgiunti diA tali che

S

n

En= Ω. Allora per ogni A∈ A vale p(A) =P

n

p(A|En)p(En)

Dimostrazione. L’ipotesi implicaA = ˙S

n

(A∩ En), per cui p(A) =P

n

p(A∩ En) =P

n

p(A|En)p(En)

Proposizione 2.5 (formula di Bayes). SiaE1, E2, . . . una successio- ne finita o infinita di elementi disgiunti diA tali cheS

n

En= Ω. Allora per ogniA∈ A con p(A) > 0 ed ogni k vale

p(Ek|A) = p(A|Ek)p(Ek) P

n

p(A|En)p(En)

Dimostrazione. Per il lemma 2.4P

n

p(A|En)p(En) = p(A) > 0, per cui

p(Ek|A) = p(Ek∩ A) p(A)

2.4= p(A|Ek)p(Ek) P

n

p(A|En)p(En)

Definizione 2.6.X : Ω−→ R sia una variabile aleatoria elementare.

PerE ∈ A definiamo M (X|E) := P

a∈R

ap(X = a|E)

M (X|E) si chiama la media di X su E (cfr. oss. 2.7) oppure la media condizionata di X rispetto ad E.

(19)

Osservazione 2.7.X : Ω−→ R sia una variabile aleatoria elementare edE∈ A. Allora

R

E

Xp = M (X|E)p(E)

Perp(E) > 0 si ha quindi M (X|E) = 1 p(E)

Z

E

Xp.

Dimostrazione. Abbiamo R

E

Xp1.40= P

a∈R

ap((X = a)∩ E) = P

a∈R

ap(X = a|E)p(E) = p(E)M(X|E) Osservazione 2.8.X : Ω−→ R sia una variabile aleatoria elementare edE∈ A con p(E) = 0. Allora M(X|E) = 0.

Dimostrazione. Siccomep(E) = 0, ogni sommando in M (X|E) = P

a∈R

ap(X = a|E) si annulla.

Corollario 2.9. SianoA, E∈ A. Allora p(A|E) = M(χA|E).

Dimostrazione. SiccomeχAassume solo i valori0 e 1, abbiamo M (χA|E) = P

a∈R

ap(χA= a|E) = 1 · p(χA= 1|E) = p(A|E)

Osservazione 2.10. Siano E1, . . . , En ⊂ Ω tali che Ω = E1˙∪ . . . ˙∪En. Allora

σ-algebra({E1, . . . , En})={ S

k∈K

Ek| K ⊂ {1, . . . , n}} =: F.

Se gliEiappartengono tutti adA, allora F `e una sotto-σ-algebra finita diA.

Dimostrazione. `E chiaro che{E1, . . . , EN} ⊂ F ⊂ σ-algebra({E1, . . . , En}), per cui `e sufficiente dimostrare cheF `e una σ-algebra.

(1)Ω∈ F perch´e Ω = E1∪ . . . ∪ En.

(2) `E chiaro che l’unione finita di un numero finito di elementi diF appartiene ancora adF. Siccome l’insieme F `e finito, ogni unione di un numero numerabile di elementi diF `e in verit`a un’unione finita.

(3) `E a questo punto sufficiente dimostrare che il complemento di un elemento diF appartiene ancora ad F. Sia K ⊂ {1, . . . , n} e

P := S

k∈K

Ek. Siccome gliEj sono disgiunti, abbiamo semplicemente Ω\ P = S

j∈{1,...,n}\K

Ej ∈ F.

Definizione 2.11. F sia una σ-algebra su Ω. Un elemento E ∈ F si dice minimale (inF), se E `e minimale tra gli elementi non vuoti di F.

Denotiamo conMinF l’insieme degli elementi minimali di F.

Osservazione 2.12. F sia una σ-algebra finita su Ω. Allora ogni ele- mento non vuoto diF contiene un elemento minimale di F.

(20)

Lemma 2.13.F sia una σ-algebra finita su Ω.

(1) SianoA∈ F ed E ∈ Min F. Allora E ⊂ A oppure E ∩ A = ∅.

(2) SianoE, F ∈ Min F ed E 6= F . Allora E ∩ F = ∅.

Dimostrazione.

(1) InfattiE∩A ∈ F `e contenuto in E. Se E∩A 6= ∅, per la minimalit`a diE si deve avere E∩ A = E, cio`e E ⊂ A.

(2) Segue immediatamente da (1).

Osservazione 2.14. F sia una σ-algebra finita su Ω. In questo caso ancheMinF `e un insieme finito, ad esempio Min F = {E1, . . . , En} con gliEj tutti distinti. AlloraΩ = E1˙∪ . . . ˙∪En.

Ogni σ-algebra finita su Ω `e quindi della forma indicata nell’oss.

2.10.

Dimostrazione. Dal lemma 2.13 sappiamo che Ei∩ Ej =∅ per ogni i6= j. Dobbiamo perci`o solo dimostrare che E1∪ . . . ∪ En= Ω.

SiaB := Ω\ (E1∪ . . . ∪ En)6= ∅. Allora B ∈ F e per l’oss. 2.12 esiste unj tale che Ej ⊂ B. Ma B ⊂ Ω \ Ej, per cui si arriva adEj ⊂ Ω \ Ej, cio`eEj = Ej∩ Ej =∅, una contraddizione.

Definizione 2.15.X : Ω−→ R sia una variabile aleatoria elementare edE1, . . . , En ∈ A tali che Ω = E1˙∪ . . . ˙∪En. SiaF:=σ-algebra({E1, . . . , En}).

Perω∈ Ω definiamo allora:

M (X|F)(ω) := M(X|Ei)

seω ∈ Ei. Otteniamo cos`ı un’applicazioneM (X|F) : Ω −→ R che pos- siamo scrivere nella forma M (X|F) =

Pn k=1

M (X|EkEk. Questa rap- presentazione mostra che M (X|F) `e F-borel(R)-misurabile e quindi ancheA-borel(R)-misurabile.

M (X|F) assume solo i valori M(X|E1), . . . , M (X|En) ed `e quindiF- elementare eA-elementare.

Osservazione 2.16.Y : Ω−→ R sia una variabile aleatoria elementa- re edE ∈ A. Y sia costante su E, ad esempio Y (ω) = c per ogni ω ∈ E per qualchec∈ R. AlloraR

E

Y p = c· p(E).

Dimostrazione. Per l’oss. 1.40 abbiamoR

E

Y p = P

a∈R

a· p((Y = a) ∩ E).

Per ipotesi per`o(Y = a)∩ E = ∅ per a 6= c, mentre (Y = c) ∩ E = E, cosicch´eR

E

Y p = c· p((Y = c) ∩ E) = c · p(E).

Teorema 2.17. Nella situazione della def. 2.15 per ognik = 1, . . . , n si ha

R

Ek

M (X|F)p = R

Ek

Xp

(21)

oppure, equivalentemente, M (M (X|F)|Ek) = M (X|Ek)

Questa `e la versione discreta del teorema di Radon-Nikod´ym.

Dimostrazione. SiccomeM (X|F) `e costante su Eked uguale aM (X|Ek) dall’oss. 2.16 segue

R

Ek

M (X|F)p = M(X|Ek)p(Ek)2.7= R

Ek

Xp

Esempio 2.18. SianoΩ = {1, . . . , 12}, A = P(Ω) e p(ω) = 121 per ogni ω ∈ Ω. La variabile aleatoria elementare X sia definita tramite la tabella

ω X(ω)

E1 1 2

2 1

3 2

4 3

E2 5 7

6 1

7 1

E3 8 5

9 3

10 5

11 5

12 2

Abbiamo allora

M (X|E1) = 1· p(X = 1|E1) + 2· p(X = 2|E1) + 3· p(X = 3|E1)

= 1/12 + 2· 2/12 + 3/12

4/12 = 8

4 = 2

M (X|E2) = 1· p(X = 1|E2) + 7· p(X = 7|E2)

= 2/12 + 7· 1/12

3/12 = 9

3 = 3

M (X|E3) = 2· p(X = 2|E3) + 3· p(X = 3|E3) + 5· p(X = 5|E3)

= 2· 1/12 + 3 · 1/12 + 5 · 3/12

5/12 = 20

5 = 4 ConF:=σ-algebra({E1, E2, E3}) si ha

M (X|F)(ω) =







2 per ω ∈ E1

3 per ω ∈ E2

4 per ω ∈ E3

(22)

Definizione 2.19.Y : Ω−→ R sia una variabile aleatoria elementare edY (Ω) ={t1, . . . , tn} con t1, . . . , tntutti distinti. Poniamo

σ-algebra(Y ) := σ-algebra({(Y = t1), . . . , (Y = tn)}) Per una variabile aleatoria elementareX : Ω−→ R sia

M (X|Y ) := M(X|σ- algebra(Y )) = Pn

k=1

M (X|Y = tk(Y =tk)

(23)

3. Regole per probabilit `a composte

Situazione 3.1.(Ω,A, p) sia uno spazio di probabilit`a.

Lemma 3.2. SianoA, B, C∈ A. Allora p(A∩ B|C) = p(A|B ∩ C)p(B|C)

Dimostrazione. Sep(B∩ C) = 0, allora anche p(A ∩ B ∩ C) = 0, per cui le espressioni sia a sinistra che a destra sono uguali a zero.

Sia quindip(B∩ C) 6= 0. Allora anche p(C) 6= 0, cosicch´e p(A|B ∩ C)p(B|C) = p(A∩ B ∩ C)

p(B∩ C)

p(B∩ C)

p(C) = p(A∩ B ∩ C)

p(C) =

= p(A∩ B|C)

Lemma 3.3. Sianon∈ N + 1 ed A0, A1, . . . , An∈ A. Allora:

p(An∩ . . . ∩ A1|A0)

= p(An|An−1∩ . . . ∩ A0)p(An−1|An−2∩ . . . ∩ A0) . . . p(A1|A0) p(An∩ . . . ∩ A0)

= p(An|An−1∩ . . . ∩ A0)p(An−1|An−2∩ . . . ∩ A0) . . . p(A1|A0)p(A0) Dimostrazione. (1) Dimostriamo la prima equazione per induzione su n.

n = 1: Lemma 3.2.

n−→ n + 1:

p(An+1∩ . . . ∩ A1|A0) = p(An+1∩ (An∩ . . . ∩ A1)|A0)

3.2= p(An+1|An∩ . . . ∩ A0)p(An∩ . . . ∩ A1|A0)

ind.= p(An+1|An∩ . . . ∩ A0)p(An|An−1∩ . . . ∩ A0) . . . p(A1|A0) (2) Moltiplicando la prima equazione con p(A0) e utilizzando l’oss.

2.2 si ottiene la seconda.

Corollario 3.4. Sianon, k∈ N con k < n ed A0, . . . , An∈ A. Allora:

p(An∩ . . . ∩ A1|A0)

= p(An∩ . . . ∩ Ak+1|Ak∩ . . . ∩ A0)p(Ak|Ak−1∩ . . . ∩ A0) . . . p(A1|A0) p(An∩ . . . ∩ Ao)

= p(An∩. . .∩Ak+1|Ak∩. . .∩A0)p(Ak|Ak−1∩. . .∩A0) . . . p(A1|A0)p(A0) Dimostrazione. Segue direttamente dal lemma 3.3.

(24)

4. Sequenze di Markov

Situazione 4.1. Siano (Ω,A, p) uno spazio di probabilit`a, q ∈ N + 1 fissato edS :={1, . . . , q}. Scriviamo spesso

n invece di

n∈N

.

Il concetto di sequenza di Markov `e puramente notazionale (in virt `u del teorema di Kolmogorov) allo scopo di rendere trasparenti le dimo- strazioni.

Definizione 4.2.

n,i

Eni : N× S −→ A sia un’applicazione tale che per ogni n ∈ N si abbia Ω = En1˙∪ . . . ˙∪Enq. Diciamo allora che

n,i

Ei `e una sequenza diS-partizioniA-misurabili.

Una successione

n An : N −→ A si chiama una realizzazione della sequenza, se per ognin∈ N esiste i ∈ S tale che An= Eni.

Definizione 4.3. Una sequenza di Markov `e una sequenza

n,i

Eni di S-partizioni A-misurabili tali che per ogni realizzazione

n

An della sequenza ed oqnin∈ N per cui p(An∩ . . . ∩ A0) > 0 si abbia

p(An+1|An∩ . . . ∩ A0) = p(An+1|An)

Evidentemente `e sufficiente chiedere questa condizione solo per n∈ N + 1.

Osservazione 4.4.

n,i

Eni sia una sequenza diS-partizioniA-misurabili.

Allora sono equivalenti:

(1)

n,i

Eni `e una sequenza di Markov.

(2) Per ogni sua realizzazione

n Ane per ognin∈ N + 1 vale p(An+1∩ . . . ∩ A0) = p(An+1∩ An)· p(An−1∩ . . . ∩ A0|An).

Dimostrazione.

n

Ansia una realizzazione della sequenza data.

Fissaton∈ N + 1 poniamo E := An−1∩ . . . ∩ A0. (1)=⇒ (2): Dobbiamo dimostrare che

p(An+1∩ An∩ E) = p(An+1∩ An)· p(E|An)

Sep(E∩ An) = 0, entrambi i lati dell’equazione si annullano.

Sia quindip(E∩ An)6= 0. L’ipotesi (1) implica allora che p(An+1|An∩ E) = p(An+1|An), per cui

p(An+1∩ An∩ E) = p(An+1|An∩ E) · p(An∩ E) = p(An+1|An)· p(An∩ E)

= p(An+1∩ An)

p(An) · p(An∩ E) = p(An+1∩ An)· p(E|An) (2)=⇒ (1): Sia p(An∩ E) > 0. Dobbiamo dimostrare che

(25)

p(An+1|An∩ E) = p(An+1|An). Per ipotesi abbiamo per`o p(An+1∩ An∩ E) = p(An+1∩ An)(E|An), quindi

p(An+1|An∩ E) = p(An+1∩ An∩ E)

p(An∩ E) = p(An+1∩ An)· p(E|An) p(An∩ E)

= p(An+1∩ An)· p(E ∩ An)

p(E∩ An)· p(An) = p(An+1|An)

Lemma 4.5.

n,i

Eni sia una sequenza di Markov e

n

Anuna sua realiz- zazione. Sianon, m∈ N con 0 ≤ m ≤ n tali che

p(An∩ . . . ∩ Am)6= 0. Allora

p(An+1|An∩ . . . ∩ Am) = p(An+1|An)

Dimostrazione. (1) Perm = 0 ci`o `e quanto richiesto dalla def. 4.3.

(2) Sia quindim > 0. Per α = (im−1, . . . , i0)∈ Smponiamo

Eα := Em−1im−1∩ . . . ∩ E0i0. Inoltre sia S(m):= {α ∈ Sm | p(An∩ . . . ∩ Am∩ Eα)6= 0}

Allora

p(An+1∩ . . . ∩ Am) = X

α∈Sm

p(An+1∩ . . . ∩ Am∩ Eα)

= X

α∈S(m)

p(An+1∩ . . . ∩ Am∩ Eα)

= X

α∈S(m)

p(An+1|An∩ . . . ∩ Am∩ Eα)· p(An∩ . . . ∩ Am∩ Eα)

M arkov

= X

α∈S(m)

p(An+1|An)· p(An∩ . . . ∩ Am∩ Eα)

= p(An+1|An) X

α∈S(m)

p(An∩ . . . ∩ Am∩ Eα)

= p(An+1|An)p(An∩ . . . ∩ Am) per cui

p(An+1|An) = p(An+1∩ . . . ∩ Am)

p(An∩ . . . ∩ Am) = p(An+1|An∩ . . . ∩ Am) Proposizione 4.6.

n,i

Eni sia una sequenza di Markov e

n

Anuna sua realizzazione. Sianon∈ N, r ∈ N + 1, m ∈ N con 0 ≤ m ≤ n tali che p(An∩ . . . ∩ Am)6= 0. Allora

p(An+r∩ . . . ∩ An+1|An∩ . . . ∩ Am) = p(An+r∩ . . . ∩ An+1|An)

Dimostrazione. Possiamo assumere che p(An+r−1 ∩ . . . ∩ An) 6= 0, perch´e altrimenti entrambi i lati dell’equazione si annullano. Allora

(26)

p(An+r∩ . . . ∩ An+1|An∩ . . . ∩ Am)

3.4= p(An+r∩ . . . ∩ Am+1|Am) p(An|An−1∩ . . . ∩ Am)· · · p(Am+1|Am)

4.5= p(An+r∩ . . . ∩ Am+1|Am)

p(An|An−1)· p(An−1|An−2)· · · p(Am+1|Am)

3.3= p(An+r|An+r−1∩ . . . ∩ Am)· p(An+r−1|An+r−2∩ . . . ∩ Am)· · · p(Am+1|Am) p(An|An−1)· p(An−1|An−2)· · · p(Am+1|Am)

4.5= p(An+r|An+r−1)· p(An+r−1|An+r−2)· · · p(Am+1|Am) p(An|An−1)· p(An−1|An−2)· · · p(Am+1|Am)

= p(An+r|An+r−1)· p(An+r−1|An+r−2)· · · p(An+1|An)

4.5= p(An+r|An+r−1∩. . .∩An)·p(An+r−1|An+r−2∩. . .∩An)· · · p(An+1|An)

3.3= p(An+r∩ . . . ∩ An+1|An) Definizione 4.7.

n,i

Eni sia una sequenza di Markov. Per t ∈ N + 1, n1, . . . , nt∈ N e K ⊂ St, poniamoEnK1,...,nt := S

(k1,...,kt)∈K

Ekn11∩ . . . ∩ Enktt.

Teorema 4.8.

n,i

Ein sia una sequenza di Markov. Siano n ∈ N + 1, i∈ S, J ∈ Sr,K ⊂ Sntali chep(Eni ∩ En−1,...,0K )6= 0. Allora

p(En+r,...,n+1J |Eni ∩ EKn−1,...,0) = p(En+r,...,n+1J |Eni) Dimostrazione. p(En+r,...,n+1J ∩ Ein∩ En−1,...,0K )

= P

(jr,...,j1)∈J

P

(kn−1,...,k0)∈K

p(Ejn+rr ∩. . .∩En+1j1 ∩Eni∩Ekn−1n−1∩. . .∩Ek00)

= P

(jr,...,j1)∈J

P

(kn−1,...,k0)∈K

p(Ejn+rr ∩ . . . ∩ En+1j1 |Eni ∩ En−1kn−1∩ . . . ∩ Ek00)

· p(Eni ∩ En−1kn−1∩ . . . ∩ E0k0)

M arkov

= P

(jr,...,j1)∈J

P

(kn−1,...,k0)∈K

p(En+rjr ∩ . . . ∩ En+1j1 |Eni)

· p(Eni ∩ En−1kn−1∩ . . . ∩ E0k0)

= P

(jr,...,j1)∈J

p(En+rjr ∩ . . . ∩ En+1j1 |Eni)

· P

(kn−1,...,k0)∈K

p(Eni ∩ En−1kn−1∩ . . . ∩ E0k0)

= P

(jr,...,j1)∈J

p(En+rjr ∩ . . . ∩ En+1j1 |Eni)· p(Eni ∩ En−1,...,0K )

= p(En+r,...,n+1J |Eni)· p(Eni ∩ En−1,...,0K ) e ci`o implica l’enunciato.

(27)

Corollario 4.9.

n,i

Eni sia una sequenza di Markov e

n

An una sua realizzazione. Sianos, t∈ N con s < t ed n0, . . . , nt∈ N con n0 < . . . < nt

tali chep(Ans∩ . . . ∩ Ans+1)6= 0. Allora

p(Ant∩ . . . ∩ Ans+1|Ans∩ . . . ∩ An0) = p(Ant∩ . . . ∩ Ans+1|Ans) Corollario 4.10.

n,i

Eni sia una sequenza di Markov e

n An una sua realizzazione. Sianot ∈ N + 1 ed n0, . . . , nt ∈ N con n0 < . . . < nt tali chep(Ant−1 ∩ . . . ∩ An0)6= 0. Allora

p(Ant∩ . . . ∩ An1|An0) = p(Ant|Ant−1)· · · p(An1|An0) p(Ant∩ . . . ∩ An0) = p(Ant|Ant−1)· · · p(An1|An0)· p(An0)

Dimostrazione. In virt `u del lemma 3.3 `e sufficiente dimostrare la prima uguaglianza. Abbiamo

p(Ant ∩ . . . ∩ An1|An0)3.3= p(Ant|Ant−1 ∩ . . . ∩ An0)· · · p(An1|An0)

4.9= p(Ant|Ant−1)· · · p(An1|An0)

Proposizione 4.11.

n,i

Eni sia una sequenza di Markov e

n

Anuna sua realizzazione. Sianos, t∈ N con s < t ed n0, . . . , nt∈ N con

n0< . . . < nttali chep(Ans∩ . . . ∩ An0)6= 0. Allora p(Ant∩ . . . ∩ An1|An0)

= p(Ant∩ . . . ∩ Ans+1|Ans)· p(Ans|Ans−1)· · · p(An1|An0) Dimostrazione. Infatti

p(Ant∩ . . . ∩ An1|An0)

3.4= p(Ant∩. . .∩Ans+1|Ans∩. . .∩An0)·p(Ans|Ans−1∩. . .∩An0)· · · p(An1|An0)

4.9= p(Ant∩ . . . ∩ Ans+1|Ans)· p(Ans|Ans−1)· · · p(An1|An0) Proposizione 4.12.

n,i

Eni sia una sequenza diS-partizioniA-misurabili.

Allora sono equivalenti:

(1)

n,i

Eni `e una sequenza di Markov.

(2) Per ogni realizzazione

n Andi

n,i

Eni ed ognin∈ N tali che p(An∩ . . . ∩ A0)6= 0 vale

p(An+1∩ . . . ∩ A1|A0) = p(An+1|An)· · · p(A1|A0).

Dimostrazione.

(1) =⇒ (2): Corollario 4.10.

(28)

(2) =⇒ (1):

p(An+1|An∩ . . . ∩ A0) = p(An+1∩ . . . ∩ A0) p(An∩ . . . ∩ A0)

= p(An+1|An)· p(An|An−1)· · · p(A1|A0) p(An|An−1)· · · p(A1|A0)

= p(An+1|An)

Definizione 4.13. Una successione

n An di elementi di A si chiama indipendentese per ognin1, . . . , nt∈ N con n1 < . . . < ntsi ha

p(An1∩ . . . ∩ Ant) = p(An1)· · · p(Ant)

(29)

5. Catene di Markov finite

Situazione 5.1. Siano (Ω,A, p) uno spazio di probabilit`a, q ∈ N + 1 fissato edS :={1, . . . , q}.

Definizione 5.2. Un processo stocastico finito (con spazio degli stati S ed a tempo discreto) `e una successione

n Xn di variabili aleato- rie elementari tali cheXn(Ω) ⊂ S per ogni n ∈ N. Gli elementi di S si chiamano stati del processo. Si noti che le nostre ipotesi implicano

P

i∈S

p(Xn= i) = 1 per ogni n.

Riformuliamo adesso i risultati del capitolo precedente nel linguag- gio dei processi stocastici.

Definizione 5.3. Nel seguito, in analogia con la def. 1.21, usiamo la notazione

p(E1, . . . , Em|F1, . . . , Fl) := p(E1∩ . . . ∩ Em|F1∩ . . . ∩ Fl)

perE1, . . . , Em, F1, . . . , Fl ∈ A, soprattutto per eventi della forma (Xn= k) per un processo stocastico

n

Xn. Osservazione 5.4.

n Xnsia una processo stocastico finito.

Pern∈ N ed i ∈ S poniamo Ein:= (Xn= i). Allora

n,i

Eni `e una sequen- za diS-partizioniA-misurabili. Per ogni successione

n

in : N−→ S la successione

n

(Xn= in) `e una realizzazione della sequenza.

Definizione 5.5. Una catena di Markov finita (con spazio degli stati S ed a tempo discreto) `e un processo stocastico finito

n

Xnper il quale l’applicazione

n,i

(Xn = i) : N× S −→ A `e una sequenza di Markov.

Chiediamo in altre parole che pern∈ N ed in+1, . . . , i0 ∈ S con p(Xn= in, . . . , X0 = i0)6= 0 si abbia sempre

p(Xn+1 = in+1|Xn= in, . . . , X0 = i0) = p(Xn+1 = in+1|Xn= in) Osservazione 5.6.

n Xnsia un processo stocastico finito. Allora sono equivalenti:

(1)

n Xn `e una catena di Markov.

(2) Pern∈ N ed in+1, . . . , i0 ∈ S vale p(Xn+1 = in+1, . . . , X0 = i0)

= p(Xn+1 = in+1, Xn= in)· p(Xn−1 = in−1, . . . , X0 = i0|Xn= in).

Dimostrazione. Oss. 4.4.

Lemma 5.7.

n

Xnsia una catena di Markov finita.

Riferimenti

Documenti correlati

Dopo di che definireremo le somme di potenze, il discriminante e la Bezoutiante, strumenti utili che ci porteranno al Criterio di Sylvester, cuore della Tesi, il quale ci dice che

I minori di ordine k di QA sono combinazioni lineari dei minori di ordine k di A, quindi se questi ultimi sono tutti nulli, ogni minore di ordine k di QA ` e nullo.. Poich` e i

Una caratteristica importante per le strategie di terapia `e che le cellule staminali sia normali che tumorali dispongono di meccanismi di protezione pi ` u efficaci delle

L’argomento di questa tesi sono due classi di funzioni binarie aven- ti valori nell’intervallo unitario, i legami stocastici e le t-norme, nate originariamente nell’ambito della

Grazie al lemma di Farkas, si pu`o dimostrare, sotto opportune ipo- tesi, che se un punto `e soluzione di un problema di programmazione in generale non lineare, allora in tale

Ci`o segue dalla linearit `a e dalla continuit `a del prodotto scalare..

Uno spazio topologico in cui ogni punto possiede una base numerabile degli intorni `e detto soddisfare il primo assioma di numerabilit `a.. Utilizzeremo la notazione A 1 per

Ci`o che si dimostrer `a in questo capitolo `e che viceversa 2 rappresentazioni di dimensione finita che hanno la stessa traccia sono equivalenti.. Dunque i caratteri sono le