• Non ci sono risultati.

Catene di Markov nel corso dell OS FAM Parte II: catene di Markov assorbenti

N/A
N/A
Protected

Academic year: 2022

Condividi "Catene di Markov nel corso dell OS FAM Parte II: catene di Markov assorbenti"

Copied!
41
0
0

Testo completo

(1)

Arno Gropengiesser

Liceo cantonale di Lugano 1, ETH f¨ur die Schule

25 gennaio 2019

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 1 / 42

(2)

1 Sommario

2 Classificazione

3 Catene di Markov assorbenti

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 2 / 42

(3)

1 2 3 4

5 6 7

8 1

3

2 3

1 1 2

2

1 5 4

5

1 1

2

1 2

1 1

1 2

1 2

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 3 / 42

(4)

Ci sono quattro classi:

C1= {1, 5} i suoi stati comunicano tra loro ma non con gli altri stati.

C2= {2, 3} i suoi stati comunicano tra loro ma non con gli altri stati.

C3= {4} lo stato comunica con nessun altro stato.

C4= {6, 7, 8} i suoi stati comunicano con nessun altro stato.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 4 / 42

(5)

1 3 4 5

2 6 7

8 1

3

2 3

1 1 2

2

1 5 4

5

1 1

2

1 2

1 1

1 2

1 2

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 5 / 42

(6)

Rinumeriamo gli stati, in modo che quelli che appartengono alla stessa classe abbiano numerazione adiacente e consecutiva:

1= {1, 2} i suoi stati comunicano tra loro ma non con gli altri stati.

2= {3, 4} i suoi stati comunicano tra loro ma non con gli altri stati.

3= {5} lo stato comunica con nessun altro stato.

4= {6, 7, 8} i suoi stati comunicano con nessun altro stato.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 6 / 42

(7)

La matrice di transizione diventa a blocchi:

⎜⎜

⎜⎜

⎜⎜

⎜⎜

⎜⎜

⎜⎜

0 1/2 0 0 0 0 0 0

1/3 1/2 0 0 0 0 0 0

2/3 0 0 4/5 0 0 0 0 0 0 1/2 0 0 0 0 0 0 0 0 1/5 0 0 0 0 0 0 0 0 1 0 1/2 1

0 0 0 0 0 1 0 0

0 0 1/2 0 0 0 1/2 0

⎟⎟

⎟⎟

⎟⎟

⎟⎟

⎟⎟

⎟⎟

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 7 / 42

(8)

1 3 4 5

2 6 7

8 1

3

2 3

1 1 2

2

1 5 4

5

1 1

2

1 2

1 1

1 2

1 2

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 8 / 42

(9)

La probabilit`a totale di ritorno per lo stato 1:

p1,1=1 −2 3⋅1 = 1

3 La probabilit`a totale di ritorno per lo stato 8:

p8,8=1 − lim

n→∞( 1 2⋅1)

n

− lim

n→∞( 1 2⋅12)

n

=1 − 0 − 0 = 1

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 9 / 42

(10)

Definizione

Un sottoinsieme S0⊂S dell’insieme degli stati S di una catena di Markov

`

e detto chiuso, se p(i , j ) = pj ,i =0 per ogni i ∈ S0 e j /∈ S0. In altre parole: una volta in S0 non si pu`o pi`u uscire.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 10 / 42

(11)

Distinguiamo dunque tra:

Stati ricorrenti, se p(i , j ) = pj ,i =1, ossia `e (quasi) certo che ci si torni.

Stati transienti, se p(i , j ) = pj ,i <1, ossia quando non `e ricorrente.

Catene di Markov irriducibili: composte da stati tutti ricorrenti, altrimenti riducibili. Tutti gli stati ricorrenti significa che comunicano tutti tra loro.

Le catene di Markov sono classificabili in: assorbenti, periodiche e regolari

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 11 / 42

(12)

Definizioni e osservazioni

Una catena di Markov con matrice di transizione A = (ai ,j) ∈M (m, m) `e detta strettamente positiva o regolare (e si scrive A > 0) se, e solo se, ai ,j >0, ∀i , j . Ci`o significa che da ogni stato si pu`o passare ad ogni altro stato.

Uno stato j `e accessibile da uno stato i se esiste k tale che ai ,j(k)>0, (a(k)i ,j ) =Ak.

Due stati sono comunicanti se esistono k1, k2 tali che a(ki ,j1)>0 e a(kj ,i2)>0.

Il concetto di comunicazione `e una relazione di equivalenza (valgono le propriet`a riflessiva, simmetrica e transitiva): ci`o permette di definire delle classi di stati comunicanti.

Una catena di Markov `e irriducibile se esiste una sola classe di stati comunicanti (ad esempio una catena descritta da una matrice strettamente positiva `e irriducibile).

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 12 / 42

(13)

Definizioni e osservazioni

Una catena di Markov `e riducibile se esistono almeno due classi di stati comunicanti ed una non `e accessibile dall’altra.

Uno stato si dice assorbente se per ogni k ≥ 0 si ha a(k)i ,i =1.

Un insieme di stati si dice chiuso quando nel momento in cui si entra in uno stato dell’insieme, si rimane all’interno di esso.

Il periodo di uno stato i `e dato da: π (i ) = mcd (k ∣ai ,i(k)>0 ).

Se π (i ) = 1 lo stato si dice a-periodico; una catena con stati a-periodici `e detta a-periodica.

Uno stato i si definisce stato transiente se esiste uno stato j raggiungibile da i, ma i non `e raggiungibile da j.

Uno stato che non `e transiente viene definito stato ricorrente.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 13 / 42

(14)

Definizioni e osservazioni

La ricorrenza `e una propriet`a di classe: se lo stato i `e ricorrente e lo stato j comunica con i allora lo stato j `e ricorrente.

Anche essere transiente `e una propriet`a di classe.

Tutti gli stati di una catena di Markov finita irriducibile sono ricorrenti.

Se tutti gli stati in una catena sono ricorrenti, aperiodici e comunicano l’uno con l’altro, la catena si definisce ergodica o regolare (a seconda della bibliografia di riferimento). In questo caso la matrice sar`a

riconoscibile dal fatto che ad un certo punto la matrice di transizione sar`a strettamente positiva (regolare, appunto).

Se si traspongono queste considerazioni alle matrici stocastiche, s’impongono le seguenti definizioni.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 14 / 42

(15)

Definizioni e osservazioni

Sia S = {1, ⋯ , m} l’insieme degli stati di una catena di Markov.

Una matrice stocastica A = (ai ,j) ∈M (m, m) `e detta irriducibile se, e solo se, per qualsiasi coppia di x, y di S esiste una k ∈ N tale che

p(k)(x , y ) > 0.

Una matrice stocastica A = (ai ,j) ∈M (m, m) `e detta aperiodica se, e solo se, per ogni x ∈ S = {1, ⋯ , m} l’insieme {n ∈ N(n) (x , x ) > 0} possiede come massimo comun divisore 1, ossia non esiste un numero naturale n ≥ 0 che divide tutti gli elementi dell’insieme.

Una matrice stocastica A = (ai ,j) ∈M (m, m) `e detta regolare se, e solo se, tutte le sue componenti sono strettamente positive, ossia

ai ,j >0, ∀i , j ∈ {1; m}.

Una catena di Markov con matrice stocastica A = (ai ,j) ∈M (m, m) `e detta regolare se, e solo se, esiste n ∈ N, tale che la sua ennesima potenza An= (˜ai ,j) ∈M (m, m) `e una matrice stocastica regolare, ossia

˜

ai ,j >0, ∀i , j ∈ {1; m}.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 15 / 42

(16)

Definizioni e osservazioni

1 La definizione di irriducibilit`a significa che si pu`o passare in un numero finito di passi da uno stato qualsiasi in un qualsiasi altro stato.

2 Si pu`o dimostrare che A = (ai ,j) ∈M (m, m) `e regolare se, e solo se, `e irriducibile e aperiodica.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 16 / 42

(17)

Il carbonio `e un elemento fondamentale, presente in tutte le sostanze organiche. Sulla Terra vi sono tre isotopi: 12C e 13C che sono stabili e

14C che `e radioattivo. Quest’ultimo si trasforma per decadimento beta in azoto (14N), di conseguenza a lungo andare scomparirebbe, se non venisse continuamente reintegrato. Infatti negli strati alti della troposfera e nella stratosfera, per la cattura di neutroni termici (componenti secondari dei raggi cosmici) da parte degli atomi di azoto avviene una produzione di nuovo 14C . S’instaura cos`ı un equilibrio dinamico che mantiene pi`u o meno costante la concentrazione dell’isotopo radioattivo nell’atmosfera, dove `e presente principalmente in forma di anidride carbonica. Tutti gli organismi viventi sottostanno al ciclo del carbonio e scambiano

continuamente carbonio con l’atmosfera attraverso la respirazione e la fotosintesi, oppure la nutrizione.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 17 / 42

(18)

Le piante scambiano il 14C con l’atmosfera attraverso diversi tipi di fotosintesi clorofilliana; i tipi maggioritari sono il ciclo C3 usato dal 90%

delle piante e il ciclo C4 usato dal 10% delle piante. Questi cicli assorbono in concentrazioni differenti l’isotopo radioattivo e di conseguenza dopo la loro morte vi `e una presenza diversa (si parla di frazionamento isotopico).

Si propone qui un modello semplificato composto di 5 stati.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 18 / 42

(19)

Stato 1: 14C nell’atmosfera;

Stati 2, 3: due tipi di vegetali, con differente tasso di assorbimento dell’isotopo;

Stati 4, 5: vegetali morti.

A =

⎜⎜

⎜⎜

0, 9 0, 3 0, 5 0 0 0, 01 0, 3 0 0 0 0, 09 0 0, 2 0 0

0 0, 4 0 1 0

0 0 0, 3 0 1

⎟⎟

⎟⎟

4 2 1 3 5

0, 9

0, 09

0, 01

0, 2

0, 3 0, 5

0, 3

0, 4

0, 3

1 1

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 19 / 42

(20)

Si supponga che lo stato 1 rappresenti un singolo isotopo 14C presente nell’atmosfera (numero di molecole) e che si distribuisca sui due tipi di piante (stati 2 e 3). Al momento della morte dei vegetali non vi `e pi`u scambio, ma il frazionamento costringe a considerare separatamente il materiale organico delle piante morte: stato 4 oppure 5. Questo modello semplificato `e espresso dalla matrice A che descrive le probabilit`a di transizione per unit`a di tempo t (in anni).

Un singolo atomo di azoto N che si `e trasformato in 14C con quale probabilit`a si ritrover`a sul lungo periodo in un campione di materiale organico (delle piante morte) di tipo C3 e di tipo C4?

Quale `e il corrispettivo tempo medio di assorbimento?

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 20 / 42

(21)

medio di assorbimento

La probabilit`a totale di assorbimento: 1a regola della media Con quale probabilit`a sar`o assorbito dallo stato assorbente 4?

4 2 1 3 5

0, 9

0, 09

0, 01 p1

0, 2

0, 3 0, 5

p3

0, 3

0, 4

0, 3 p2

1 1

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 21 / 42

(22)

medio di assorbimento

La probabilit`a totale di assorbimento: 1a regola della media

4 2 1 3 5

0, 9

0, 09

0, 01 p1

0, 2

0, 3 0, 5

p3 0, 3

0, 4

0, 3 p2

1 1

⎧⎪

⎪⎪

⎪⎪

⎪⎪

p1 =0, 9p1+0, 01p2+0, 09p3

p2 =0, 3p1+0, 3p2+0p3+0, 4 p3 =0, 5p1+0p2+0, 2p3

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 22 / 42

(23)

medio di assorbimento

La probabilit`a totale di assorbimento: 1a regola della media Risolvendo si ottiene:

⎧⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎩

p1≈0, 145 p2≈0, 633 p3≈0, 091

⎧⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎩

q1=1 − p1≈1 − 0, 145 = 0, 855 q2=1 − p2≈1 − 0, 633 = 0, 367 q3=1 − p3≈1 − 0, 091 = 0, 909

A lungo andare l’atomo di azoto14N si trover`a nello stato 4 (C3) con p = 14, 5 % e nello stato 5 (C3) con p = 85, 5 %.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 23 / 42

(24)

medio di assorbimento

Il tempo medio di assorbimento: 2a regola della media

0 m2 m1 m3 0

0, 9

0, 09

0, 01

0, 2

0, 3 0, 5

0, 3

0, 4

0, 3

1 1

⎧⎪

⎪⎪

⎪⎪

⎪⎪

m1=1 + 0, 9m1+0, 01m2+0, 09m3 m2=1 + 0, 3m1+0, 3m2+0m3

m3=1 + 0, 5m1+0m2+0, 2m3

e da ci`o

⎧⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎪

⎪⎩

m1 ≈28, 552 m2≈13, 665 m3≈19, 095 Il tempo medio di assorbimento per lo stato (14N) `e pari a m1=28, 55 anni (per questo modello!).

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 24 / 42

(25)

medio di assorbimento

La matrice fondamentale

Data la matrice di transizione (stocastica).

A =

⎜⎜

⎜⎜

0, 9 0, 3 0, 5 0 0 0, 01 0, 3 0 0 0 0, 09 0 0, 2 0 0

0 0, 4 0 1 0

0 0 0, 3 0 1

⎟⎟

⎟⎟

⎠ e il SEL ottenuto dalla 1a regola della media:

⎧⎪

⎪⎪

⎪⎪

⎪⎪

p1=0, 9p1+0, 01p2+0, 09p3 p2=0, 3p1+0, 3p2+0p3+0, 4 p3=0, 5p1+0p2+0, 2p3

⎝ p1

p2

p3

=

0.9 0.01 0.09

0.3 0.3 0

0.5 0 0.2

⎝ p1

p2

p3

⎠ +

⎝ 0 0.4

0

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 25 / 42

(26)

medio di assorbimento

La matrice fondamentale

⎝ p1

p2 p3

=

0.9 0.01 0.09

0.3 0.3 0

0.5 0 0.2

⎝ p1

p2 p3

⎠ +

⎝ 0 0.4

0

⇔ ⃗p = Q ⋅ ⃗p + ⃗a4

Dove Q = St della blocco in alto a sinistra di A.

p = Q ⋅ ⃗⃗ p + ⃗a4⇔ ⃗p − Q ⋅ ⃗p = ⃗a4 (I − Q) ⋅ ⃗p = ⃗a4⇔ ⃗p = (I − Q)−1⋅ ⃗a4

La matrice fondamentale `e data da: F =

0, 1 −0, 01 −0, 09

−0, 3 0, 7 0

−0, 5 0 0, 8

−1

.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 26 / 42

(27)

medio di assorbimento

La matrice fondamentale Siano ⃗a4=

⎝ 0 0, 4

0

⎠ a⃗5=

⎝ 0 0 0, 3

, allora:

F ⋅ ⃗a4

⎝ 0, 145 0, 633 0, 090

F ⋅ ⃗a5

⎝ 0, 855 0, 366 0, 909

La matrice fondamentale F esprime la 1a e la 2a Regola della media.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 27 / 42

(28)

medio di assorbimento

La matrice fondamentale

Data la matrice di transizione (stocastica).

A =

⎜⎜

⎜⎜

0, 9 0, 3 0, 5 0 0 0, 01 0, 3 0 0 0 0, 09 0 0, 2 0 0

0 0, 4 0 1 0

0 0 0, 3 0 1

⎟⎟

⎟⎟

⎠ e il SEL ottenuto dalla 2a regola della media:

⎧⎪

⎪⎪

⎪⎪

⎪⎪

m1=1 + 0, 9m1+0, 01m2+0, 09m3 m2=1 + 0, 3m1+0, 3m2+0m3

m3=1 + 0, 5m1+0m2+0, 2m3

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 28 / 42

(29)

medio di assorbimento

La matrice fondamentale

⎝ m1

m2

m3

=

0.9 0.01 0.09

0.3 0.3 0

0.5 0 0.2

⎝ m1

m2

m3

⎠ +

⎝ 1 1 1

⇔ ⃗m = Q ⋅ ⃗m + ⃗u Dove Q = St della blocco in alto a sinistra di A.

m = Q ⋅ ⃗⃗ m + ⃗u ⇔ ⃗m − Q ⋅ ⃗m = ⃗u (I − Q) ⋅ ⃗m = ⃗u ⇔ ⃗m = (I − Q)−1⋅ ⃗u

Con ⃗u =

⎝ 1 1 1

, si ottiene: F ⋅ ⃗u ≈

⎝ 28, 552 13, 665 19, 095

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 29 / 42

(30)

medio di assorbimento

La matrice fondamentale

Data la matrice di transizione (stocastica).

A =

⎜⎜

⎜⎜

0, 9 0, 3 0, 5 0 0 0, 01 0, 3 0 0 0 0, 09 0 0, 2 0 0

0 0, 4 0 1 0

0 0 0, 3 0 1

⎟⎟

⎟⎟

Questa `e composta da quattro blocchi: Data la matrice di transizione (stocastica).

A = (Q O

R I) = (Q O R I ) Si pu`o verificare senza troppe difficolt`a che: Q=O

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 30 / 42

(31)

medio di assorbimento

La matrice fondamentale

Considerando l’identit`a (I − Q)(I + Q + Q2+Q3+ ⋯ +Qn) =I − Qn+1, si conclude che:

(I − Q)(I + Q + Q2+Q3+ ⋯ +O) = I − O Dato che det(I ) = 1, segue det(I − Q) = 1, ossia F−1 esiste e i corrispondenti SEL sono determinati.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 31 / 42

(32)

simulazione con catena di Markov.

Con il nottolino browniano in Termodinamica si indica un esperimento mentale riguardante un dispositivo meccanico che appare essere in grado di produrre un moto perpetuo. Questa semplice macchina consiste in un cricco accoppiato a una ruota a pale capace di estrarre lavoro meccanico da fluttuazioni termiche casuali in un sistema all’equilibrio T1=T2, in violazione della seconda legge della Termodinamica.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 32 / 42

(33)

simulazione con catena di Markov.

Il dispositivo fu analizzato nel 1912 da M. Smoluchowski e nel 1962 R.

Feynman ha dimostrato che ci`o `e in realt`a impossibile. Il principio del nottolino pu`o essere trasposto in un meccanismo lineare: si alternano, in modo giudizioso, i due profili per una biglia che si muove casualmente da destra a sinistra. Il risultato `e che, presi singolarmente, entrambi i profili faranno scorrere la biglia verso destra, ma combinandoli le biglie scorrono verso sinistra.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 33 / 42

(34)

simulazione con catena di Markov.

Un modello molto semplice per simulare con una catena di Markov omogenea a stati finiti una trasposizione lineare di un nottolino browniano

`

e stato proposto nel 1996 dal fisico spagnolo J. Parrondo: la combinazione di due giochi d’azzardo perdenti pu`o risultare vincente a lungo termine. La versione qui proposta `e da attribuire al fisico statunitense D. Astumian.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 34 / 42

(35)

simulazione con catena di Markov.

Si consideri una scacchiera con cinque campi come da figura. Su di essa ci si pu`o spostare in modo indipendente da una casella a una contigua, secondo le seguenti regole. Sia 0 < ε < 1 e pX ,Y indichi la probabilit`a di transizione dallo stato X allo stato Y . Vale: p−1,−2=ε, p−2,−2=1, p−1,0=1 − ε e p2,2=1. Per gli altri stati ci sono due versioni A e B del gioco.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 35 / 42

(36)

simulazione con catena di Markov.

Gioco A

Per questo gioco valga inoltre che p0,−1=1 e p1,2=1 (stati riflettenti).

Gioco B

Per questo gioco valga invece che p0,−1=ε, p0,1=1 − ε e p1,0=1 (stato riflettente).

Quali sono le corrispondenti matrici di transizione A e B.

E possibile, nei due giochi A e B, vincere partendo dallo stato iniziale` 0?

Quali sono i tempi medi di assorbimento e le probabilit`a totali di assorbimento per i due giochi A e B?

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 36 / 42

(37)

simulazione con catena di Markov.

A =

⎜⎜

⎜⎜

1 ε 0 0 0

0 0 1 0 0

0 1 − ε 0 0 0

0 0 0 0 0

0 0 0 1 1

⎟⎟

⎟⎟

B =

⎜⎜

⎜⎜

⎜⎜

1 ε 0 0 0

0 0 ε 0 0

0 1 − ε 0 1 0

0 0 1 − ε 0 0

0 0 0 0 1

⎟⎟

⎟⎟

⎟⎟

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 37 / 42

(38)

simulazione con catena di Markov.

Gioco A

⎧⎪

⎪⎪

⎪⎪

⎪⎩

m−1=1 + m0⋅ (1 − ε) + 0 ⋅ m1 m0=1 + m−1⋅1 + 0 ⋅ m1 m1=1 + m0⋅0

⇔ m⃗A=

⎝ 2 − ε

2 /ε /ε 1

⎧⎪

⎪⎪

⎪⎪

⎪⎩

p−1=0 ⋅ p−1+p0⋅ (1 − ε) + 0 ⋅ p1+ε p0 =1 ⋅ p−1+0 ⋅ p1+0 ⋅ p0

p1 =p0⋅0

⇔ p⃗A,S−2=

⎝ 1 1 0

⎧⎪

⎪⎪

⎪⎪

⎪⎩

q−1=q0⋅ (1 − ε) q0=1 ⋅ q−1+0 ⋅ q1

q1=1

⇔ q⃗A,S2=

⎝ 0 0 1

=

⎝ 1 1 1

− ⃗pA,S−2

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 38 / 42

(39)

simulazione con catena di Markov.

Gioco B

⎧⎪

⎪⎪

⎪⎪

⎪⎩

m−1=1 + m0⋅ (1 − ε) + 0 ⋅ m1 m0=1 + m−1⋅ε + (1 − ε) ⋅ m1 m1=1 + m0⋅1

⇔ m⃗B = 1 ε2

2 − 2ε + ε2 2 ε2+2

⎧⎪

⎪⎪

⎪⎪

⎪⎩

p−1=ε + p0⋅ (1 − ε) + 0 ⋅ p1 p0 =ε ⋅ p−1+ (1 − ε) ⋅ p1 p1 =p0⋅1

⇔ p⃗B,S−2 =

⎝ 1 1 1

⇔ q⃗B,S2=

⎝ 0 0 0

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 39 / 42

(40)

simulazione con catena di Markov.

Gioco C

Si consideri una moneta ideale: P(T ) = P(C ) = 1

2. Si lanci la moneta e se esce “Testa” si giochi la variante A del gioco, altrimenti il gioco B.

C = 1 2⋅A +1

2⋅B =

⎜⎜

⎜⎜

1 ε 0 0 0

0 0 1+ε2 0 0 0 1 − ε 0 12 0 0 0 1−ε2 0 0

0 0 0 12 1

⎟⎟

⎟⎟

⎠ ,

che `e stocastica.

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 40 / 42

(41)

simulazione con catena di Markov.

Determiniamo, in funzione di ε, la probabilit`a totale di vincere in questo gioco C, partendo dallo stato iniziale 0.

⎧⎪

⎪⎪

⎪⎪

⎪⎩

q−1=q0⋅ (1 − ε) q0 =1+ε2 ⋅q−1+1−ε2 ⋅q1 q1 =q01

2+1

2

⇒ q0=

1 − ε 1 + ε + 2ε2

ε→0limq0=lim

ε→0

1 − ε 1 + ε + 2ε2 =1

la probabilit`a di vincere nel gioco C `e pari a 1 (ε → 0), nonostante A e B siano giochi perdenti.

q0= 0, 9

1, 12≅80%

A. Gropengiesser (ETH f¨ur die Schule, LiLu1)Catene di Markov nel corso dell’OS FAM Parte II: catene di Markov assorbenti25 gennaio 2019 41 / 42

Riferimenti

Documenti correlati

Tali catene di Jordan si dicono linearmente indipendenti.. Forme normali

[r]

In quanto tempo si sono formate le catene montuose. Le catene montuose si sono

Wenn der werte Leser, oder die werte Leserin, also jemals eine etwas ungew¨ohnliche Verteilung fitten muss (etwa eine zero-inflated Poisson- oder eine Dirichlet-Verteilung), dann

L’ipernatriemia può derivare dall’uso di soluzioni di citrato di sodio ad elevata concentrazione (ipertoniche per ciò che riguarda il contenuto di sodio) e può

Hypothesis: in view of the human security lens on post-conflict development, and, specifically, the emphasis on the process, it can be hypothesised that an MSPs, which by

produce un’ampia gamma di prodotti speciali che distribuisce in Italia e all’estero attraverso le aziende del Gruppo Mondial e la rete di distribuzione a esse collegata.. La

Il lupo in Cansiglio, e nell’arco alpino anche gli altri grandi carnivori come lince ed orso, pur presentando la necessità di adeguate misure di gestione, migliorano la