Probabilita' condizionale e marginale (24-10-2011)
Probabilita' condizionale => P(A | B) = P(A ⋂ B | B) e' la probabilita' che l'insieme di dati comuni ad A e B appartenga a B; e' quindi la "frazione" corrispondente.
P(B | B) e' quondi = 1, per definizione, e P(A ⋂ B) e' la probabilita' "assoluta" (congiunta) degli eventi comuni ad A e B in Ω.
E' evidente che B e' quindi l'insieme "totale" degli eventi per questo caso, qualunque sia la frazione B del vero insieme totale Ω.
Stabilendo ora la proporzione P(A ⋂ B | B) = P(A ⋂ B)
P(B | B) P(B)
si perviene alla definizione di "probabilita' condizionale": P(A ⋂ B | B) = P(A ⋂ B) = P(A | B) P(B)
La probabilita' P(B) e' detta "probabilita' marginale".
Esempio: in un mazzo di 52 carte (4 "semi" di 13 carte ciascuno), la probabilita' di pescare il 5 in Cuori e' 1/13 La probabilita' di pescare il 5 di Cuori nel totale e' 1/52
La probabilita' di pescare una carta qualunque di Cuori nel mazzo e' 13/52 = 1/4 Quindi P(5 ⋂ Cuori | Cuori ) = 1/13 = P(5 ⋂ Cuori) = 1/52 / P(Cuori) = 1/4
Seme -> Cuori Fiori Quadri Picche
Carta 1 2 3 4
5 Cella nera in campo rosso = P(5 ⋂ Cuori | Cuori ) = 1/13
6 Cella nera in area totale = P(5 ⋂ Cuori) = 1/52
7 8 9 10 J Q K
1/4 1/4 1/4 1/4 Probabilita' marginale
L'estensione al caso di Random Variables continue e' immediata.
W. J. Metzger "Statistical Methods in Data Analysis" HEN-343 (2010) Radboud Universiteit Nijmegen