• Non ci sono risultati.

La probabilità di E, indicata con P(E), corrisponde a

N/A
N/A
Protected

Academic year: 2021

Condividi "La probabilità di E, indicata con P(E), corrisponde a "

Copied!
22
0
0

Testo completo

(1)

Lezione 14

PROBABILITÀ

Nella lezione scorsa ho usato più volte il termine probabilità pur senza averla ancora definita, dando per scontato che il significato del termine vi fosse noto e familiare.

Esistono però diverse definizioni del termine “probabilità”, che consentono di attribuirle un valore numerico in situazioni diverse.

1) DEFINIZIONE CLASSICA

Questa definizione risale all’inizio del 1800 e viene utilizzata ancora oggi, quando gli eventi associati a una prova possono essere considerati equiprobabili.

Casi comuni di eventi che possono essere ritenuti equiprobabili sono quelli associati a esperimenti come:

- il gioco della roulette

- l’estrazione di numeri nel gioco del lotto - il lancio di un dado equilibrato

- il lancio di una moneta non truccata - l’estrazione di una carta da un mazzo

Secondo la definizione classica, la probabilità di un evento è data dal rapporto fra il numero di risultati favorevoli a quell'evento e il numero di risultati possibili, purché tutti equiprobabili.

(2)

In simboli, considerato un certo evento E, sottoinsieme di  sia card(E) la sua cardinalità, ossia il numero degli eventi elementari che compongono E, mentre N è la cardinalità di  ossia il numero degli eventi elementari di .

La probabilità di E, indicata con P(E), corrisponde a

𝑃(𝐸) = 𝑐𝑎𝑟𝑑(𝐸) 𝑁

Esempio

Si consideri un esperimento che consiste nell’estrazione di una pallina da un'urna contenente 50 palline bianche, 38 palline nere e 12 gialle.

In questo caso le probabilità associate ai tre eventi: A “estrazione di una pallina bianca”, B “estrazione di una pallina nera” e C “estrazione di una pallina gialla”

risultano

P(A) = 50/100=0.5, P(B) = 38/100=0.38, P(C) = 12/100=0.12

dato che il numero complessivo di palline, corrispondente al numero di possibili risultati, è infatti pari a 100.

In realtà la definizione classica presenta alcuni difetti che ne limitano l’utilizzo:

- presuppone che esista un numero finito di risultati possibili

- cerca di definire la probabilità, ma contiene al suo interno l’aggettivo

“equiprobabili”

- non consente di calcolare la probabilità in caso di eventi non equiprobabili

(3)

L’ultimo difetto è quello più importante, perché implica che questa definizione possa essere utilizzata solo se si è certi che tutti i possibili risultati dell’esperimento siano equiprobabili.

In realtà le situazioni in cui non si è certi che i possibili risultati siano tutti equiprobabili sono abbastanza frequenti.

Per quanto riguarda l’estrazione da un’urna, di solito il meccanismo utilizzato per estrarre le palline non tende a privilegiare una pallina più di altre, ma è ben diverso è il caso di un esperimento che consiste nel lancio di un dado o di una moneta.

In questi casi, infatti, l’equiprobabilità dei risultati presuppone che il dado o la moneta siano perfettamente bilanciati. Se non lo fossero, le due facce della moneta non avrebbero probabilità 1/2 e le diverse facce del dado non avrebbero tutte una probabilità pari a 1/6.

In queste situazioni una valutazione della probabilità associata ai diversi risultati può essere ottenuta lanciando più volte la moneta (o il dado) e valutando la frequenza con cui i diversi risultati si presentano.

Se si effettuassero 1000 lanci di una moneta le cui facce sono contrassegnate da

“testa” e “croce” e si ottenessero 700 teste e 300 croci, sarebbe abbastanza ragionevole supporre che la moneta è truccata e che la probabilità dell’evento

“testa” è all’incirca pari a 0.7, mentre la probabilità dell’evento “croce” è all’incirca pari a 0.3.

Il criterio utilizzato per valutare la probabilità degli eventi “testa” e “croce”

deriva dalla definizione frequentista di probabilità

(4)

2) DEFINIZIONE FREQUENTISTA

Secondo la definizione frequentista, la probabilità di un evento è il limite a cui tende la frequenza relativa di quell’evento all’aumentare del numero delle prove.

Va detto che l’esistenza del “limite” a cui tende la frequenza relativa non può essere dimostrata, ma viene semplicemente postulata.

Dalla definizione precedente risulta che il grado di precisione della stima della probabilità di un evento tende ad aumentare al crescere del numero di prove (che spesso vengono dette repliche).

A differenza della definizione classica, quella frequentista si basa sull’osservazione empirica, anziché sulla conoscenza a priori delle modalità con cui è effettuato esperimento.

Anche questa definizione presenta alcuni difetti:

- nessun fenomeno o esperimento può essere considerato esattamente ripetibile, nel senso che cambiano continuamente le condizioni in cui si osserva il fenomeno di interesse o si effettua l’esperimento. Pertanto esistono fattori casuali che non possono essere tenuti sotto controllo e che alterano i risultati dell’esperimento, generando errori nelle valutazioni della probabilità associata ai diversi eventi.

- non consente di valutare la probabilità di eventi che non sono ripetibili

L’impossibilità di utilizzare la definizione frequentista per valutare la probabilità di eventi non ripetibili è quello che ha spinto un gran numero di

(5)

portati ad attribuire una probabilità a moltissimi eventi che non sono ripetibili, come alla vittoria di una particolare squadra in una partita di calcio, alla vittoria di una contrada nel Palio di Siena, alla possibilità di pioggia nelle due ore seguenti. Anche le valutazioni sul futuro rialzo o ribasso del prezzo di un bene, di un titolo in Borsa o di una valuta ci portano a prendere decisioni circa la vendita o l’acquisto e, quindi, portano a un risultato economico negativo o positivo.

A questi, e a molti altri eventi non ripetibili, vengono attribuite delle valutazioni quantitative di probabilità e proprio queste valutazioni vengono poi usate per effettuare scommesse o per prendere decisioni in condizioni di incertezza.

L’estensione della nozione di probabilità a eventi non equiprobabili e non ripetibili avviene attraverso la definizione soggettivista.

3) DEFINIZIONE SOGGETTIVISTA

Secondo la definizione soggettivista la probabilità di un evento E è la misura del grado di fiducia che un individuo “coerente” attribuisce, secondo le sue informazioni e opinioni, all’avverarsi di E.

È del tutto ovvio che l’uso di questa definizione comporti che individui diversi diano valutazioni diverse della probabilità associata a uno stesso evento.

Questa impossibilità di ottenere una valutazione “oggettiva” del valore della probabilità di un evento impedisce, secondo molti studiosi, la possibilità di usare questa definizione.

Non esiste una definizione di probabilità che sia univocamente accettata ed esistono tuttora scuole di pensiero diverse che utilizzano definizioni diverse.

(6)

Per ovviare a questo inconveniente si utilizza allora la cosiddetta definizione assiomatica di probabilità che non fornisce indicazioni sul metodo per calcolarla, ma stabilisce invece le regole fondamentali che devono essere comunque rispettate dalla probabilità, quale che sia il metodo usato per quantificarla.

4) DEFINIZIONE ASSIOMATICA

Nella definizione assiomatica, la probabilità deve rispettare alcune proprietà fondamentali, che vengono assunte come assiomi. Da questi assiomi si deducono poi altre proprietà, che costituiscono i teoremi.

Assiomi

Considerato lo spazio fondamentale  i tre assiomi della definizione assiomatica della probabilità sono:

Positività: dato un evento E, sottoinsieme di , la sua probabilità risulta sempre maggiore o uguale a zero

P(E)≥0 per ogni E ∈

Certezza: la probabilità dell’evento certo è pari a 1 P()=1

Unione: Se A e B sono due eventi incompatibili, sottoinsiemi di , la probabilità della somma di tali eventi è uguale alla somma delle probabilità

𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵)

(7)

Con i primi due assiomi si stabilisce che la probabilità assume un valore che non può mai essere negativo e che la scala di misura adottata attribuisce valore 1 all’evento certo.

Il terzo assioma, che costituisce la cosiddetta legge delle probabilità totali per eventi incompatibili, consente di attribuire una probabilità all’unione di un numero finito di eventi incompatibili.

In base agli assiomi precedenti si giunge anche alla conclusione che la somma delle probabilità di tutti gli eventi elementari che costituiscono lo spazio fondamentale è pari a 1

𝑃(Ω) = 𝑃{𝜔1∪ 𝜔2∪ 𝜔3∪ … ∪ 𝜔𝑁} = 1

Risulta anche definita la probabilità di tutti gli eventi corrispondenti ad un qualsiasi sottoinsieme di .

ESEMPIO

Considerata un’urna contenente 15 palline bianche, 3 palline nere e 2 gialle e l’esperimento che consiste nell’estrazione di una pallina dall’urna, si determini la probabilità che la pallina estratta sia bianca (B) oppure gialla (G)

Gli eventi B e G sono incompatibili fra loro, per cui la somma dell’unione di tali eventi è pari alla somma delle probabilità associate a ciascuno di essi

P(BG) = P(B) + P(G) = 0.75 + 0.1 = 0.85

(8)

La legge delle probabilità totali può essere estesa anche al caso in cui gli eventi considerati siano compatibili, per cui la sua enunciazione completa è la seguente

LEGGE DELLE PROBABILITÀ TOTALI

Considerati due eventi A e B, sottoinsiemi di , la probabilità della loro unione (o somma) corrisponde a

P(AB) = P(A) + P(B) se A e B sono incompatibili

P(AB) = P(A) + P(B) − P(AB) se A e B sono compatibili

Se gli eventi sono compatibili è necessario sottrarre alla somma delle probabilità associate ad A e B la probabilità della loro intersezione. Se così non si facesse, verrebbe sommata due volte la probabilità associata agli eventi elementari in comune fra A e B

Applicazione degli assiomi della definizione assiomatica di probabilità

Dai 3 assiomi precedentemente elencati, ritenuti validi quale che sia la definizione di probabilità adottata, discendono alcuni importanti risultati che vengono elencati qui di seguito

(9)

a) Campo di variazione di P(E)

Per ogni evento E che sia un sottoinsieme di  risulta che la probabilità ad esso associata, P(E), è un numero compreso fra 0 e 1

0  P(E)  1 per ogni E  

dato che E   e che P() = 1.

La probabilità di un qualsiasi evento assume un valore che è sempre compreso nell’intervallo [0, 1].

b) Calcolo di P(∅)

La probabilità dell’evento impossibile si ottiene facilmente tenendo presente che un qualsiasi evento E, sottoinsieme di , può essere sempre scritto come unione dell’evento stesso più l’evento impossibile

E = E  ∅

Dalla legge delle probabilità totali, risulta quindi

P(E) = P(E) + P(∅)

da cui risulta che la probabilità dell’evento impossibile ∅ è pari a zero

P(∅) = 0

(10)

c) Calcolo di P(Ec)

Dato un evento E a cui è associata la probabilità P(E), la probabilità dell’evento contrario Ec si ottiene tenendo presente che l’unione di E ed Ec risulta uguale all’evento certo. Dalla seguente uguaglianza

 = E  Ec

risulta

P() = P(E) + P(Ec) = 1

per cui si ottiene

P(Ec) = 1 − P(E)

(11)

EVENTI CONDIZIONATI

Dati due eventi A e B, sottoinsiemi di , si definisce come evento A condizionato a B (e si indica con A|B), l’evento A considerato sotto la condizione che sia vero B.

Considerata una prova e un evento A di probabilità P(A), la conoscenza del verificarsi dell’evento B in quella prova costituisce una conoscenza supplementare, che può far variare la probabilità iniziale P(A).

ESEMPIO

Con riferimento all’esperimento associato al lancio di un dado equilibrato a 6 facce sia E l'evento "uscita della faccia 6", F l'evento "uscita di una faccia pari"

e G l’evento “faccia dispari”.

Prima di effettuare la prova, la probabilità di E è P(E) = 1/6.

Se è noto che nella prova si è verificato l’evento F "uscita di una faccia pari", l’evento E va considerato sotto questa condizione, per cui diventa E|F e la sua probabilità P(E|F) risulta uguale a 1/3, in quanto gli eventi possibili sono diventati solo 3 (uscita della faccia 2, 4 o 6).

Se invece fosse noto che nella prova è si è presentato l’evento G “faccia dispari”, la probabilità dell’evento E|G è P(E|G) = 0, in quanto gli eventi possibili sono solo l’uscita della faccia 1, 3 o 5.

(12)

In generale, per determinare la probabilità P(A|B) dell’evento condizionato A|B, si devono ricalcolare le probabilità iniziali considerando il sottoinsieme di eventi elementari che costituiscono B.

Indicato con {1, 2, …,h} il sottoinsieme di  che costituisce l’evento B, siano 𝑃{𝜔1}, 𝑃{𝜔2}, …, 𝑃{𝜔} le probabilità iniziali associate a questi h eventi elementari.

Gli eventi elementari possibili, infatti, non sono più tutti gli N eventi elementari di , ma solo gli h eventi che costituiscono B (in questo caso, infatti, B è diventato l’evento certo).

Di conseguenza le 𝑃{𝜔𝑖} (𝑖 = 1,2, … , ℎ) vanno modificate in modo che la somma delle h nuove probabilità 𝑃{𝜔𝑖} sia pari a 1, dato che B si è certamente verificato.

Per ottenere questo risultato è sufficiente dividere ciascuna 𝑃{𝜔𝑖} per P(B), ossia per la somma di tutte le probabilità 𝑃{𝜔𝑖} degli h eventi elementari che costituiscono B

𝑃(𝐵) = 𝑃{𝜔1} + 𝑃{𝜔2} + ⋯ + 𝑃{𝜔} = ∑ 𝑃{𝜔𝑖}

𝑖=1

Le nuove probabilità 𝑃(𝜔𝑖) sono quindi

𝑃{𝜔𝑖} = 𝑃{𝜔𝑖}

𝑃(𝐵) (𝑖 = 1, 2, … , ℎ)

In questo modo la somma di queste nuove probabilità risulta

(13)

∑ 𝑃{𝜔𝑖}

𝑖=1

= ∑𝑃{𝜔𝑖} 𝑃(𝐵)

𝑖=1

= 1

𝑃(𝐵)∑ 𝑃{𝜔𝑖} =𝑃(𝐵) 𝑃(𝐵) = 1

𝑖=1

Nell’esempio precedente l'evento F "uscita di una faccia pari" ha probabilità P(F)= 1/2, mentre l’evento E = {6} ha una probabilità iniziale pari a 1/6.

La probabilità P(E|F) corrisponde quindi al rapporto fra la probabilità inziale 𝑃(𝜔6) e la probabilità P(F)

𝑃(𝐸|𝐹) = 𝑃(𝜔6)

𝑃(𝐹) = 1/6 1/2= 1

3

Nel caso dell’evento E|G, invece, va notato che il risultato 6 non appartiene a G = {1, 3, 5}, per cui E|G è un evento impossibile e la sua probabilità è nulla.

Dall’esempio risulta quindi chiaro che, in generale, l'evento A|B è costituito dai soli eventi elementari in comune fra A e B, ossia dagli eventi elementari di (AB), per cui la probabilità di A condizionato a B si ottiene dal rapporto

𝑃(𝐴|𝐵) = 𝑃(𝐴 ∩ 𝐵) 𝑃(𝐵)

per cui gli eventi A e B devono essere compatibili, o la probabilità 𝑃(𝐴|𝐵) risulta necessariamente pari a zero.

Scambiando l’evento condizionato e l’evento condizionante risulta anche

(14)

𝑃(𝐵|𝐴) = 𝑃(𝐴 ∩ 𝐵) 𝑃(𝐴)

e dalle uguaglianze riportate nel riquadro giallo e nel riquadro arancione si ottiene la probabilità dell’intersezione (o prodotto) degli eventi A e B

𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) × 𝑃(𝐵|𝐴) = 𝑃(𝐵) × (𝐴|𝐵)

Questa uguaglianza costituisce una prima formulazione delle cosiddetta legge delle probabilità composte.

Nell’esempio precedente si è visto come l’informazione supplementare relativa all’avverarsi dell’evento F o dell’evento G abbia portato a una modifica della probabilità iniziale dell’evento E.

Può però accadere che la probabilità di un evento non si modifichi all’avverarsi di un altro evento, ossia può accadere che

P(A|B) = P(A)

In questa situazione l’evento A risulta indipendente da B, nel senso che l’informazione supplementare fornita dalla conoscenza dell’avverarsi di B non va a modificare la probabilità iniziale di A.

La legge delle probabilità totali, quindi, assume forme diverse a seconda che gli eventi A e B siano indipendenti o meno.

(15)

LEGGE DELLE PROBABILITÀ COMPOSTE

Considerati due eventi A e B, sottoinsiemi di , la probabilità della loro intersezione (o prodotto) corrisponde a

P(A∩B) = P(A) ×P(B) se A e B sono indipendenti

P(A∩B) = P(A)×P(B|A) = 𝑃(𝐵) × (𝐴|𝐵) se A e B sono dipendenti

A notato che se A è indipendente da B, anche B deve essere indipendente da A perché vale l’uguaglianza P(B|A)= P(B).

In generale, considerati h eventi Ai (i = 1, 2, …, h) qualsiasi, la probabilità del loro prodotto è data da

𝑃(𝐴1 ∩ 𝐴2∩ … ∩ 𝐴) = 𝑃(𝐴1) × 𝑃(𝐴2|𝐴1) × 𝑃[𝐴3|(𝐴1∩ 𝐴2)] × … × 𝑃[𝐴|(𝐴1∩ 𝐴2 ∩ … ∩ 𝐴ℎ−1)]

Se invece gli eventi sono tutti indipendenti fra loro

𝑃(𝐴1∩ 𝐴2∩ … ∩ 𝐴) = 𝑃(𝐴1) × 𝑃(𝐴2) × 𝑃(𝐴3) × … × 𝑃(𝐴)

Quest’ultima è condizione necessaria, ma non sufficiente, per l’indipendenza completa fra tutti gli h eventi.

Affinché gli eventi siano completamente indipendenti è infatti necessario che la probabilità del prodotto di un qualsiasi sottoinsieme degli h eventi sia uguale al prodotto delle probabilità degli eventi stessi.

(16)

Nel caso di tre eventi, per esempio, devono essere verificate tutte le seguenti uguaglianze

𝑃(𝐴1 ∩ 𝐴2∩ 𝐴3) = 𝑃(𝐴1) × 𝑃(𝐴2) × 𝑃(𝐴3) 𝑃(𝐴1∩ 𝐴2) = 𝑃(𝐴1) × 𝑃(𝐴2)

𝑃(𝐴1∩ 𝐴3) = 𝑃(𝐴1) × 𝑃(𝐴3) 𝑃(𝐴2∩ 𝐴3) = 𝑃(𝐴2) × 𝑃(𝐴3)

ESEMPIO

Con riferimento all’esperimento associato al lancio di un dado equilibrato a 6 facce sia A l'evento "uscita di una faccia pari", B l'evento "uscita di una faccia dispari" e C l’evento “uscita di una faccia contrassegnata da zero”. Verificare se i tre eventi sono completamente indipendenti

In questo caso

𝑃(𝐴 ∩ 𝐵 ∩ 𝐶) = 0 = 𝑃(𝐴) × 𝑃(𝐵) × 𝑃(𝐶) 𝑃(𝐴 ∩ 𝐵) = 0 ≠ 𝑃(𝐴) × 𝑃(𝐵) =1

4 𝑃(𝐴 ∩ 𝐶) = 0 = 𝑃(𝐴) × 𝑃(𝐶) 𝑃(𝐵 ∩ 𝐶) = 0 = 𝑃(𝐵) × 𝑃(𝐶)

(17)

FORMULA DI BAYES

Questa formula risulta estremamente utile quando esistono h eventi 𝐸𝑖 (con i = 1, 2, …, h) che possono verificarsi in k situazioni o per k cause diverse Cj (con j = 1, 2, …, k) e consente di determinare la probabilità che l’evento 𝐸𝑖 sia stato prodotto dalla situazione (o dalla causa) Cj.

Per esempio, viene spesso utilizzata:

- in medicina, per determinare la probabilità che un individuo presenti una determinata malattia una volta accertata la presenza di alcuni sintomi oppure una volta che un test diagnostico risulti positivo

- in botanica, per determinare la probabilità che una pianta o animale appartenga ad una certa varietà in base ad alcune caratteristiche

- in campo artistico, per calcolare la probabilità che un’opera di attribuzione incerta sia stata creata da un certo autore

Prima di esaminare la situazione generale, che prevede h eventi Ej (con i = 1, 2,

…, h) che possono verificarsi in k situazioni o cause diverse Cj (con j = 1, 2, …, k), conviene fare riferimento al caso più semplice, in cui gli eventi sono solamente due, A e B, entrambi sottoinsiemi di 

Dalla legge delle probabilità composte, risultano verificate entrambe le uguaglianze

P(A∩B) = P(B)×P(A|B) P(A∩B) = P(A)×P(B|A)

(18)

da cui si ottiene l’uguaglianza delle due quantità riportate alla destra dei due segni di uguaglianza

P(B)×P(A|B) = P(A)×P(B|A)

Da quest’ultima uguaglianza risulta

𝑃(𝐴|𝐵) = 𝑃(𝐴) × 𝑃(𝐵|𝐴) 𝑃(𝐵)

e questa uguaglianza rappresenta la più semplice formulazione della formula di Bayes.

In base a questa uguaglianza risulta che la probabilità dell’evento A, una volta che sia noto che si è verificato l’evento B, corrisponde al prodotto della probabilità iniziale di A per la probabilità di (𝐵|𝐴) diviso per la probabilità di B.

La probabilità P(A) viene detta probabilità a priori, la probabilità P(A|B) viene detta probabilità a posteriori, mentre la probabilità P(B|A), considerata dopo che l’evento A si è verificato, costituisce la verosimiglianza dell'ipotesi B.

ESEMPIO

Si consideri una malattia rara, M, che colpisce solo 5 individui su 1000, per cui P(M)=0.005. Una persona che sospetta di essere affetta da questa malattia effettua un test in grado di confermare o negare la presenza di questa malattia.

Supponiamo che da studi effettuati sul test è noto che la probabilità che il test dia un risultato positivo è pari al 99% se l’individuo è malato e pari a 0.1% se l’individuo è invece sano (in questo caso si parla di falso positivo).

(19)

Si vuole determinare la probabilità che la persona sia affetta dalla patologia sapendo che il test ha dato un risultato positivo.

Indicando con T l’evento “il test è positivo” e con M l’evento “l’individuo è malato”, i dati disponibili consentono di calcolare le probabilità

P(M) = 0.005

P(Mc) = 1−P(M) = 0.995 P(T|M) = 0.99

P(T|Mc) = 0.001

dove Mc indica l’evento “l’individuo non presenta la malattia M”.

La probabilità che si vuole calcolare, corrispondente alla probabilità che l’individuo sia effettivamente malato se il test è risultato positivo è P(M|T) e, come si nota, può essere calcolata utilizzando la formula di Bayes.

𝑃(𝑀|𝑇) =𝑃(𝑀) × 𝑃(𝑇|𝑀) 𝑃(𝑇)

Le due probabilità che compaiono al numeratore, ossia 𝑃(𝑀) e 𝑃(𝑇|𝑀) , sono note, mentre la probabilità che il test dia un risultato positivo si ottiene tenendo presente che l’evento certo Ω corrisponde all’unione degli eventi necessari e incompatibili M e Mc per cui

T = T∩Ω = T∩(M⋃Mc) = (T∩M)⋃(T∩Mc)

(20)

L’uso di un diagramma di Venn può aiutare a comprendere i passaggi precedenti

Da questa figura si vede come l’evento certo Ω corrisponde all’unione delle aree colorate in rosso e in verde, per cui Ω = M⋃Mc

Allo stesso modo l’evento T corrisponde all’unione delle aree colorate in giallo e in arancione, per cui T =(T∩M)⋃(T∩Mc)

Dall’uguaglianza riportata nel riquadro verde risulta che la probabilità di T corrisponde a

P(T)= P(T∩Ω) = P[T∩(M⋃Mc)]= P(T∩M)+P(T∩Mc)

dove, per la legge delle probabilità composte, risulta

(21)

P(T∩Mc)=P(Mc)P(T|Mc)

Le probabilità che compaiono a destra del segno di uguale delle due uguaglianze precedenti sono note, essendo fornite dal test dell’esempio, per cui

P(T)= 0.005×0.99+0.995×0.001 = 0.005945

La probabilità che la persona sia affetta dalla patologia se è risultato positivo al test risulta quindi pari a

𝑃(𝑀|𝑇) = 𝑃(𝑀) × 𝑃(𝑇|𝑀)

𝑃(𝑇) =0.005 × 0.99

0.005945 ≈ 0.8326

In questo esempio, quindi, la probabilità di essere affetto dalla malattia è passata da un valore iniziale pari a 0.005 a oltre 0.83, una volta che il test ha dato un risultato positivo.

Generalizzando quanto visto con l’esempio, dati h eventi 𝐸𝑖 (con i = 1, 2, …, h) e k situazioni o cause diverse 𝐶𝑗 (con j = 1, 2, …, k), la probabilità che l’evento 𝐸𝑖 sia stato prodotto da 𝐶𝑗 è data da

𝑃(𝐶𝑗|𝐸𝑖) = 𝑃(𝐶𝑗) × 𝑃(𝐸𝑖|𝐶𝑗) 𝑃(𝐸𝑖)

𝑖 = 1, 2, … , ℎ; 𝑗 = 1, 2, … , 𝑘

(22)

Va notato che le k cause devono essere esaustive e incompatibili, cioè deve risultare

∑ 𝑃

𝑘

𝑗=1

(𝐶𝑗) = 1

Sotto questa condizione un qualsiasi evento 𝐸𝑖 che si verifica è stato prodotto necessariamente da una delle cause 𝐶𝑗.

È necessario inoltre che sia nota per ogni 𝐶𝑗 la probabilità P(𝐸𝑖|𝐶𝑗) con cui la causa 𝐶𝑗 produce l’evento 𝐸𝑖.

Le probabilità degli ℎ eventi 𝐸𝑖 che si trovano al denominatore della formula di Bayes si ottengono dalla seguente somma

𝑃(𝐸𝑖) = ∑ 𝑃

𝑘

𝑗=1

(𝐸𝑖 ∩ 𝐶𝑗) = ∑ 𝑃

𝑘

𝑗=1

(𝐶𝑗) × 𝑃(𝐸𝑖|𝐶𝑗)

Riferimenti

Documenti correlati

L’estrazione avviene con ripetizione: di conseguenza gli eventi risultano indipendenti, in quanto la composizione dell’urna resta sempre la stessa ad ogni estrazione.. 4)

Per ogni seme ci sono 10 carte numerate da 1 a 10 e tre carte che contengono le seguenti figure: il fante, la donna e il re, identificati anche dalle lettere J, Q e K (in

Riflessione 1: in questo problema la probabilità sarebbe difficile da calcolare perché il numero dei casi possibili è molto grande, comunque si tratta di un calcolo non necessario

Nel caso delle biglie della scatola A i casi favorevoli sono 30 (il numero delle biglie rosse), mentre i casi possibili sono dati dalla somma delle palline rosse e nere,

La probabilità dell’evento unione di due eventi E1 ed E2 è uguale: ● alla somma delle loro probabilità, se E1 ed E2 sono incompatibili; ● alla somma delle loro probabilità

Utilizzando i dati scelti e riportati in tabella costruire un intervallo di confidenza per la media a livello

Le probabilità di transizione si ottengono ricordando che, nel lancio di un dado, la probabilità di uscita di un numero dispari è 1/2, la probabilità di uscita del 6 è 1/6 e

Un addetto al controllo di qualità ha considerato un campione di 30 confezioni e sulla base dei dati raccolti deve decidere se interrompere o meno il processo produttivo.. Se il