Dottorato di Ricerca Modelli e Metodi Matematici per la Tecnologia e la Societ`a - XXIV ciclo
Calcolo delle Probabilit`a (2009) Angelo Gilio
Dip. Me.Mo.Mat. - [email protected]
Introduzione
Il calcolo delle probabilit`a fornisce gli strumenti logico- matematici per affrontare problemi decisionali in con- dizioni di incertezza.
Nell’esame di un problema aleatorio si possono di- stinguere sostanzialmente due aspetti: uno in cui si applica la logica del certo ed un’altro, successivo, in cui si applica la logica del probabile.
- In una prima fase, avendo un’informazione incom- pleta in relazione al fissato esperimento aleatorio, si analizzano i fatti incerti individuando l’insieme delle eventualit`a possibili (detto anche insieme dei casi elementari, o insieme dei casi possibili, o insieme dei costituenti). Di tali casi uno e uno solo risulter`a vero.
Ogni fatto incerto di interesse nel problema considerato
`e descritto mediante una proposizione logica non am- bigua e costituisce un evento che risulter`a Vero (V ) o Falso (F ).
Un evento E `e quindi un ente logico a due valori: V, F .
Dato un evento E, si definisce Indicatore di E la seguente quantit`a
|E| =
(1 se E `e vero, 0 se E `e falso.
Sugli eventi si possono effettuare operazioni logiche per introdurre o rappresentare altri eventi; inoltre, dati due o pi`u eventi, tra di essi potranno esistere delle relazioni logiche.
In astratto, l’insieme dei casi possibili potr`a essere rappresentato con uno spazio Ω e ogni caso elementare sar`a rappresentato con un punto di Ω. Allora, ogni fissato sottoinsieme E di Ω rappresenta un evento, in- dicato con lo stesso simbolo, che sar`a vero oppure falso a seconda che il risultato dell’esperimento, ovvero il ca- so elementare che si verifica, corrisponde ad un punto che appartiene oppure no ad E.
Due eventi particolari sono:
(a) l’evento certo, rappresentato dall’insieme Ω, che risulta sicuramente vero;
(b) l’evento impossibile, rappresentato dall’insieme vuoto ∅, che risulta sicuramente falso.
(Nota: |Ω| = 1, |∅|=0)
- Completata la prima fase, che consiste nel deli- neare l’ambito del possibile e in cui ogni ragionamento si basa sull’applicazione della logica deduttiva o logica del certo, il passo successivo consiste nel vagliare l’in- formazione che si ha su ogni fatto incerto che interessa esaminare e nel valutare i pro e i contro relativi al verificarsi o meno degli eventi incerti considerati.
Normalmente, nei riguardi dei diversi eventi si avranno differenti gradi di fiducia (circa la loro possibilit`a di ve- rificarsi) e diventa essenziale, anche al fine di possibili decisioni, rappresentare quantitativamente in maniera consistente, ovvero ammissibile, tali gradi di fiducia mediante opportune valutazioni probabilistiche.
In questa fase un aspetto importante pu`o essere quello di propagare (in modo consistente) ad ulteriori eventi incerti le valutazioni probabilistiche fatte su dati eventi iniziali.
Operazioni e relazioni logiche Negazione di E.
Ec =
(vero, se E `e falso, falso, se E `e vero.
Nota: |Ec| = 1 − |E|.
Implicazione. A implica B se quando `e vero A segue che `e vero anche B.
In simboli: A ⇒ B, oppure A ⊆ B.
A ⇒ B equivale a |A| ≤ |B|.
Uguaglianza. A = B se e solo se A ⇒ B e B ⇒ A.
Unione. L’evento unione, o somma (logica), di A e B `e vero quando almeno uno dei due eventi `e vero ed `e falso quando sia A che B sono falsi.
L’evento unione si indica con A ∨ B, oppure A ∪ B.
Propriet`a:
- associativa : (A ∨ B) ∨ C = A ∨ (B ∨ C) = A ∨ B ∨ C;
- commutativa : A ∨ B = B ∨ A.
Osservazioni:
A∨Ω = Ω ; A∨∅ = A ; A∨A = A ; A∨Ac = Ω . Intersezione
L’evento intersezione, o prodotto (logico), di A e B `e vero quando entrambi gli eventi sono veri ed `e falso quando almeno uno dei due eventi `e falso.
L’evento intersezione si indica con A∧B, oppure A∩B, o pi`u semplicemente AB.
Propriet`a:
- associativa : (A ∧ B) ∧ C = A ∧ (B ∧ C) = A ∧ B ∧ C.
- commutativa : A ∧ B = B ∧ A.
Osservazioni:
A ∧ Ω = A ; A ∧ ∅ = ∅ ; A ∧ A = A ; A ∧ Ac = ∅ . Incompatibilit`a
A e B si dicono incompatibili se non possono essere entrambi veri, cio`e se AB = ∅.
Propriet`a degli indicatori:
|AB| = |A| · |B| ; |A ∨ B| = |A| + |B| − |AB| , con |A ∨ B| = |A| + |B| nel caso in cui AB = ∅.
Altre propriet`a:
AB ⊆ A ⊆ A ∨ B , (|AB| ≤ |A| ≤ |A ∨ B|) AB ⊆ B ⊆ A ∨ B , (|AB| ≤ |B| ≤ |A ∨ B|) Propriet`a distributive :
(A∨B)∧C = AC∨BC , (A∧B)∨C = (A∨C)∧(B∨C) .
Formule di De Morgan :
(A ∨ B)c = Ac ∧ Bc ; (A ∧ B)c = Ac ∨ Bc . Rappresentazione geometrica con i diagrammi di Venn.
A B
&%
'$
Ω C
&%
'$
D
&%
'$
Evento Insieme
certo universo
impossibile vuoto
contrario complementare implicazione inclusione
incompatibili disgiunti
unione unione
intersezione intersezione Partizioni finite dell’evento certo
{H1, H2, . . . , Hn} `e una partizione di Ω se:
1. HiHj = ∅ , i 6= j ; 2. H1 ∨ H2 ∨ · · · ∨ Hn = Ω .
Equivalentemente:
|H1| + |H2| + · · · + |Hn| = 1 . (1)
Casi possibili o Costituenti.
Osserviamo che Ω ∧ Ω = Ω e che E ∨ Ec = Ω, ∀ E.
Considerati degli eventi A, B, . . ., i casi elementari o costituenti si ottengono sviluppando l’espressione:
(A ∨ Ac) ∧ (B ∨ Bc) ∧ · · · =
= (AB ∨ ABc ∨ AcB ∨ AcBc) ∧ · · · =
= AB · · · ∨ ABc · · · ∨ AcB · · · ∨ AcBc · · · ∨ · · · . (2) Eliminando le intersezioni impossibili, quelle rimanenti sono i casi possibili relativi agli eventi A, B, . . . .
In generale, data una famiglia Fn = {E1, . . . , En}, i casi possibili o costituenti, C1, . . . , Cm, con m ≤ 2n, si ottengono osservando che
(E1∨E1c)∧(E2∨E2c)∧· · ·∧(En∨Enc) = C1∨C2∨· · ·∨Cm ,
dove
Ck = E1∗E2∗· · · En∗ , k = 1, 2, . . . , m ≤ 2n ,
con Ei∗ = Ei, oppure Ei∗ = Eic.
Ω Decomposizione di un evento.
Dato un evento arbitrario E ed una partizione {H, Hc}, si ha:
E = E ∧ Ω = E ∧ (H ∨ Hc) = EH ∨ EHc . (3)
Pi`u in generale, data una partizione {H1, H2, . . . , Hn}, si ha:
E = EH1 ∨ EH2 ∨ · · · ∨ EHn . (4)
Le formule (3) e ( 4) sono utilizzate spesso per calco- lare la probabilit`a di E.
Esempio:
Da un’urna contenente 5 palline bianche e 3 nere si effettuano 2 estrazioni senza restituzione. Sia A l’evento 00la 1a pallina estratta `e bianca00 e B l’evento
00la 2a pallina estratta `e bianca00. Calcolare, in relazione a ciascun evento, il rapporto tra il numero di casi favorevoli e il numero di casi possibili, confrontando i valori ottenuti per A e B.
Data una famiglia Fn = {E1, . . . , En}, siano C1, C2, . . . , Cm i relativi costituenti. Ogni evento Ei si pu`o scrivere come unione logica dei costituenti ad esso
favorevoli.
Ei = Ei ∧ Ω = Ei ∧ (C1 ∨ C2 ∨ · · · ∨ Cm) =
= EiC1 ∨ EiC2 ∨ · · · ∨ EiCm = W
h:Ch⊆Ei Ch . Indipendenza logica.
A si dice logicamente indipendente da B, C, . . . se, assegnando in tutti i modi ammissibili il valore logico (vero o falso) a tali eventi, ovvero considerando in tutti i modi possibili un loro costituente, A rimane incerto, potendo risultare sia vero che falso.
Se A non `e logicamente indipendente da B, C, . . . , si possono presentare vari tipi di dipendenza logica.
Data una famiglia F = {E1, E2, . . . , En}, gli eventi di F si dicono logicamente indipendenti se il numero m di costituenti `e pari a 2n.
Esempio 1 Estrazioni con restituzione da un’urna contenente 1 pallina bianca e 1 nera.
Gli eventi
Ei = la i-ma pallina estratta `e bianca, i = 1, . . . , 5,
sono logicamente indipendenti?
Esempio 2 Estrazioni senza restituzione da un’urna contenente 2 palline bianche e 3 nere.
Gli eventi E1, E2, E3 sono logicamente indipenden- ti?
Ad esempio, se E1, E2 sono entrambi veri (cio`e le prime due palline estratte sono bianche), cosa si pu`o dire della terza pallina e quindi del valore logico di E3 ?
Se invece E1 `e vero ed E2 `e falso, cosa si pu`o dire di E3 ?
L’evento E5 `e logicamente dipendente da E1, . . . , E4? Una famiglia (non vuota) di eventi A si dice un’algebra di Boole se `e chiusa rispetto alle operazioni logiche di negazione e unione.
Nota: se A `e un’algebra contiene sia Ω che ∅ ed
`e chiusa anche rispetto all’intersezione.
Eventi logicamente dipendenti da n eventi E1, . . . , En Sia C = {C1, C2, . . . , Cm} l’insieme dei costituenti generati da n eventi E1, E2, . . . , En.
C ”coincide” con lo spazio dei punti possibili Ω e cia- scuno dei costituenti sar`a un punto possibile.
L’insieme delle parti P(Ω) = P(C) `e un’algebra.
(i) ogni sottoinsieme A di Ω essendo unione di alcu- ni punti, ovvero di alcuni costituenti, `e logicamente dipendente da E1, E2, . . . , En.
Infatti, una volta noti i valori logici di E1, E2, . . . , En rimane determinato il costituente Cr che si `e verificato e di conseguenza A non rimane incerto: A `e vero se Cr ⊆ A, ovvero se il ”punto” Cr appartiene ad A, ed
`e falso in caso contrario.
(ii) d’altra parte, se un qualsiasi evento A `e logica- mente dipendente da E1, E2, . . . , En, non esiste alcun costituente Cr che, se vero, lascia incerto A, cio`e tale che: CrA 6= ∅ e CrAc 6= ∅ .
In altri termini, per ogni Cr, risulta possibile una sola alternativa: Cr ⊆ A, oppure Cr ⊆ Ac.
Allora: A = A ∧ Ω = · · · = W
r:Cr⊆A Cr .
In conclusione, gli eventi di P(C) sono tutti e soli gli eventi logicamente dipendenti da E1, E2, . . . , En.
Un’algebra A si dice una σ-algebra se `e chiusa rispetto all’unione numerabile, cio`e se, per ogni successione E1, . . . , En, . . . di eventi di A, si ha W∞
i=1 Ei ∈ A.
Data una famiglia F di eventi di Ω e considerate tutte le σ-algebre contenenti F , l’intersezione di tali σ-algebre `e la minima σ-algebra AF contenente F . AF si dice generata da F .
Esempio. Sia Ω = R, l’insieme dei numeri reali, ed F la famiglia degli intervalli di R. La σ-algebra B generata da F si chiama classe di Borel o σ-algebra boreliana di R. I suoi elementi si chiamano gli insiemi boreliani di R.
Possiamo immaginare di costruire B, con un procedi- mento che non ha mai termine, aggiungendo agli eventi costituiti da intervalli le loro unioni (in numero finito o numerabile), le negazioni degli eventi cos`ı costruiti, di nuovo le unioni e le negazioni, e cos`ı via.
La classe di Borel `e molto vasta, in particolare contiene
tutti i punti, gli insiemi aperti e gli insiemi chiusi.
B si pu`o anche definire come la minima σ-algebra contenente tutti gli intervalli (−∞, x], con x ∈ R.
Impostazione assiomatica
Da un punto di vista strettamente matematico, come accade in molte trattazioni al riguardo, il calcolo delle probabilit`a si pu`o sviluppare considerando una terna (Ω, A, P ), detta spazio di probabilit`a.
A `e una famiglia di eventi di Ω (opportunamente scelta), dotata della struttura di algebra o σ−algebra.
P `e una funzione d’insieme a valori reali che ad ogni E ∈ A associa un valore p = P (E), detto probabilit`a di E, soddisfacente i seguenti assiomi:
• P (E) ≥ 0, ∀ E ∈ A, (non-negativit`a);
• P (Ω) = 1, (normalizzazione);
• P (A ∨ B) = P (A) + P (B), ∀ A, B ∈ A, tali che AB = ∅, (propriet`a additiva).
Se l’insieme dei casi elementari `e infinito, generalmente, si considera una σ−algebra A; la coppia (Ω, A) si dice uno spazio misurabile, o spazio probabilizzabile, e gli eventi di A sono gli insiemi ”misurabili”, mentre i sottoinsiemi di Ω non appartenenti ad A non sono misurabili.
Inoltre, per ragioni di ”convenienza matematica”, si assume che P , oltre ai primi due assiomi, soddisfi il seguente terzo assioma (additivit`a numerabile, o addi- tivit`a completa, o σ-additivit`a):
• P (W∞
i=1 Ei) = P∞
i=1 P (Ei), per ogni successione E1, . . . , En, . . . di eventi di A a due a due incompati- bili, cio`e tali che EiEj = ∅ per i 6= j.
La ”convenienza matematica” relativa alla scelta della σ- additivit`a risiede nel fatto che il calcolo delle pro- babilit`a si pu`o sviluppare utilizzando, anzich`e la misura di Peano-Jordan e l’integrale di Riemann, la misura e l’integrale di Lebesgue.
Da questo punto di vista, il calcolo delle probabilit`a di- venta una branca della teoria della misura e molti risul- tati di tale teoria diventano automaticamente teoremi di probabilit`a.
Commenti critici:
• nell’impostazione assiomatica la probabilit`a `e vista semplicemente come una funzione, mentre sarebbe importante attribuire preliminarmente un significato a tale nozione;
• non si vedono i motivi logici per i quali solo gli eventi di A debbano essere misurabili, mentre gli altri debbano essere considerati come ”non eventi”;
• in generale, sembrerebbe naturale scegliere come famiglia A l’insieme delle parti di Ω, P(Ω), in modo che tutti gli eventi fossero misurabili (cio`e probabilizzabili), ma ci sono dei risultati teorici che mostrano che (se Ω `e infinito e) se la funzione P `e σ-additiva non `e possibile definire P su tutto P(Ω) e quindi `e necessario limitarsi ad una σ-algebra A opportunamente scelta;
• d’altra parte, come si pu`o vedere con esempi, se si impone la σ-additivit`a rimangono precluse (senza
chiari motivi logici) delle valutazioni probabilistiche che in certi casi sembrano le pi`u opportune;
• da un punto di vista teorico, assegnare P su A potrebbe essere ”troppo” o ”troppo poco”, men- tre, nelle applicazioni, di solito interessa assegnare P su un numero generalmente limitato di eventi appartenenti ad una famiglia F priva di qualsiasi struttura;
• sugli eventi di F (quelli di effettivo interesse nel problema dato) si avranno normalmente sufficienti informazioni che potranno tradursi in valutazioni probabilistiche significative;
• occorrer`a soltanto dotarsi di opportuni criteri per verificare la consistenza delle assegnazioni di pro- babilit`a e di opportuni metodi per estendere tali assegnazioni ad ulteriori eventi di interesse, even- tualmente a tutto P(Ω), ma ci`o `e teoricamente possibile solo nel caso finitamente additivo.
Definizione classica
In molti problemi aleatori, per ragioni di simmetria o di mancanza di informazioni sul fenomeno studiato, i casi possibili sono giudicati ugualmente possibili.
In tali situazioni, ai primi studiosi di calcolo delle probabilit`a appariva naturale valutare la probabilit`a di un evento utilizzando la seguente
Definizione. Considerato un esperimento aleatorio con m casi possibili, giudicati ugualmente possibili, ed un evento E con r casi favorevoli, la probabilit`a P (E) di E `e uguale al rapporto mr .
Commenti critici
1) Scelta appropriata dei casi da giudicare ugualmente possibili.
Esempio 3 Un esperimento aleatorio consiste in due lanci di una moneta.
E : in almeno un lancio esce Testa.
Casi possibili:
C1: esce Testa al primo lancio (e l’esperimento ter-
mina);
C2: esce Croce al primo lancio e Testa al secondo lancio;
C3: esce Croce in entrambi i lanci.
C1 e C2 sono favorevoli ad E.
Allora . . . P (E) = 23 ? (Non ragionevole!)
Non `e ragionevole giudicare i tre casi ugualmente possibili.
Infatti, P (E1) = 12 (se Testa o Croce al primo lancio si giudicano ugualmente possibili).
. . . inoltre, l’unione logica di E2 ed E3 coincide con l’evento Croce al primo lancio, che ha probabilit`a 12, . . . pertanto, P (E2) = P (E3) = 14.
. . . quindi una valutazione pi`u adeguata `e P (E) = 34. 2) La definizione classica non `e applicabile sempre.
Esempio 4 Se uno studente sostiene un esame vi sono due casi possibili (lo studente pu`o essere pro-
mosso o bocciato) . . . nessuno, per`o, concluderebbe che la probabilit`a di essere promosso `e 12.
. . . per la valutazione delle probabilit`a occorrono quindi metodi generali e solo in casi particolari ci si pu`o basare sulla definizione classica.
3) Circolarit`a.
Il termine ugualmente possibili non pu`o significare altro che ugualmente probabili e quindi nella definizione classica ... il concetto di probabilit`a viene definito mediante se stesso.
Paradosso del Cavalier De M´er´e
Esempio 5 Si effettuano 4 lanci di un dado, A : ”esce almeno una volta la faccia 6”.
Si effettuano 24 lanci di una coppia di dadi, B : ”esce almeno una volta la coppia (6,6)”.
Si racconta che (nel 1654) il Cavalier De M´er´e (accani- to giocatore di azzardo) valutasse ugualmente probabili A e B sulla base del seguente ragionamento:
- nel primo esperimento in ognuno dei 4 lanci la faccia 6 ha probabilit`a 16 e quindi
P (A) = 1
6 + 1
6 + 1
6 + 1
6 = 2 3 .
- nel secondo esperimento in ognuno dei 24 lanci la coppia (6,6) ha probabilit`a 361 e quindi
P (B) = 1
36 + · · · + 1
36 = 24
36 = 2
3 = P (A) .
Negli esperimenti pratici . . . per uno dei due eventi la frequenza di successo era leggermente superiore a
quella dell’altro (il problema venne sottoposto a Blaise Pascal).
. . . se i lanci nel primo esperimento fossero pi`u di 6, ad esempio 7, si avrebbe
P (A) = 1
6 + · · · + 1
6 = 7
6 > 1 ,
il che `e assurdo, pertanto il ragionamento precedente non `e corretto.
Soluzione.
P (A) = 1 − P (Ac) = 1 − 5644 ' 0.51 , P (B) = 1 − P (Bc) = 1 − 3524
3624 ' 0.49 . Quindi P (A) > P (B).
In modo diretto:
lanciando 4 volte un dado i casi possibili sono 64 (disposizioni con ripetizione di classe 4 di 6 oggetti).
I casi favorevoli all’evento Eh = 00la faccia 6 esce esattamente h volte00 sono
4 h
54−h , h = 0, 1, . . . , 4, e quindi:
P (Eh) =
4 h
54−h
64 .
Pertanto :
P (A) =
4
X
h=1
4 h
54−h
64 ' 0.51 . In modo analogo:
P (B) =
24
X
k=1
24 k
3524−k
3624 ' 0.49 .
Impostazione frequentista
Come mostrato anche dall’esempio di De M´er´e, . . . esiste una naturale tendenza a vedere un legame tra frequenza e probabilit`a.
Tale tendenza `e stata anche espressa nella seguente legge empirica del caso:
in una successione di prove effettuate nelle stesse condizioni la frequenza relativa di volte in cui un evento si verifica converge verso la probabilit`a che tale evento ha di verificarsi in ogni prova.
In tale ordine di idee, si giunge alla seguente Definizione frequentista
Considerata una successione di prove indipendenti e ripetute nelle stesse condizioni e indicando, per un da- to evento E, con fN la frequenza relativa di ”successo”
sulle prime N prove si pone
P (E) = lim
N →+∞ fN .
Commenti critici.
1) Le frequenze non costituiscono una successione numerica data mediante una legge, ma sono dei nu- meri rilevati sperimentalmente. Inoltre, il concetto di limite utilizzato nella definizione non `e quello rigoroso dell’analisi.
2) (applicabilit`a) si deve prendere in considerazione una successione di prove fatte nelle stesse condizioni, il che non `e realistico.
3) (circolarit`a) il concetto di indipendenza ha un sig- nificato probabilistico, cos`ı come il fatto di ripetere le prove sempre nelle stesse condizioni equivale ad as- sumere l’equiprobabilit`a di successo nelle singole prove.
Quindi, la definizione classica e la definizione frequen- tista si possono utilizzare solo come criteri pratici di valutazione, utili in certi casi, e non per definire il concetto di probabilit`a.
Impostazione soggettiva della probabilit`a
I precedenti criteri di valutazione possono essere in- tegrati in una impostazione pi`u generale: la teoria soggettiva, sviluppata intorno al 1930 dal matematico italiano Bruno de Finetti.
In tale impostazione gli aspetti oggettivi, concernen- ti l’ambito del possibile (logica del certo), sono ri- gorosamente distinti da quelli soggettivi, concernenti le valutazioni probabilistiche (logica del probabile).
Si considerino le frequenti discussioni in cui delle per- sone esprimono opinioni e valutazioni differenti sulla maggiore o minore attendibilit`a di fatti incerti:
. . . la diversit`a di valutazioni risiede essenzialmente nel fatto che le persone hanno un differente stato di informazione.
Esempio 6 Estrazioni con restituzione da un’urna di composizione incognita contenente palline bianche e nere. Si vuole valutare la probabilit`a p di estrarre una pallina bianca alla 1001-ma estrazione.
Se non si conosce il risultato delle precedenti 1000 estrazioni pu`o essere naturale valutare p = 12.
Se si sa che 900 volte `e stata estratta una pallina bianca, in mancanza di altre informazioni, si pu`o essere indotti a valutare p ' 109 .
Il diverso atteggiamento . . . `e dovuto a un diverso grado di fiducia nel verificarsi dell’evento considerato.
. . . l’informazione di cui si `e in possesso e il modo in cui tale informazione viene elaborata giocano un ruolo essenziale nelle valutazioni di probabilit`a.
. . . nell’impostazione soggettiva tale aspetto viene riconosciuto esplicitamente . . .
Definizione 1 La probabilit`a P (E) = p di un evento E, secondo un dato individuo, in un certo stato di informazione, `e la misura numerica del suo grado di fiducia nel verificarsi di E.
Criterio operativo di misura + condizione di coerenza:
Criterio della scommessa
P (E) = p rappresenta il prezzo che tale individuo ritiene equo pagare (risp., ricevere) per ricevere (risp., pagare)
1, se si verifica E
0, se non si verifica E
Pi`u in generale, l’individuo deve essere disposto a pagare (risp., ricevere) pS, con S 6= 0, per ricevere (risp., pagare)
S, se si verifica E 0, altrimenti.
Condizione di coerenza:
L’individuo deve essere coerente, cio`e le sue valutazioni di probabilit`a per uno o pi`u eventi non devono essere tali da comportare a priori una perdita certa.
Indicando con G il guadagno aleatorio e, per comodit`a, con lo stesso simbolo gli eventi e i loro indicatori, si ha
G = S|E| − pS = SE − pS = S(E − p) =
=
S(1 − p) , E vero
−pS , E f also
In generale, data un’assegnazione di probabilit`a (o punto previsione) Pn = (p1, . . . , pn) su una famiglia Fn = {E1, . . . , En}, con pi = P (Ei) per ogni i, si ha
G =
n
X
i=1
Si(Ei − pi) ,
con S1, . . . , Sn numeri reali arbitrari (non tutti nulli).
Definizione 2 La valutazione Pn si dice coerente se, per ogni S1, . . . , Sn, risulta
M in G · M ax G ≤ 0 .
Nota: in modo equivalente, la condizione di coerenza pu`o esprimersi come M ax G ≥ 0, oppure M in G ≤ 0.
Propriet`a fondamentali della probabilit`a
• P1. P (E) ≥ 0, per ogni evento E;
• P2. P (Ω) = 1 ;
• P3. se AB = ∅, allora P (A∨B) = P (A)+P (B).
Data una valutazione P (E) = p, si ha G =
S(1 − p) , E vero
−pS , E f also . . . la condizione di coerenza diventa . . . S(1 − p)(−pS) = −p(1 − p)S2 ≤ 0,
da cui segue . . . 0 ≤ p ≤ 1. (Propriet`a P1).
In particolare, se E = Ω, si ha
M in G = M ax G = G = S(1 − p)
e quindi . . . dev’essere G = 0, per ogni S, . . . da cui si ottiene P (Ω) = 1. (Propriet`a P2).
La propriet`a additiva si ottiene come corollario del seguente
Teorema 1 Un’assegnazione di probabilit`a Pn = (p1, . . . , pn) su una partizione {H1, . . . , Hn} `e coerente se e solo se
p1 + · · · + pn = 1 ; pi ≥ 0 , ∀ i . (5)
(CN) Supponiamo Pn coerente. Il guadagno `e G = S1(H1 − p1) + · · · + Sn(Hn − pn)
e poich`e H1 + · · · + Hn = 1, scegliendo S1 = S2 =
· · · = Sn = S, con S 6= 0, si ottiene
M in G = M ax G = G = · · · = S[1 − (p1 + · · · + pn)].
Allora, dev’essere G = 0, ∀ S, e quindi p1+· · ·+pn = 1.
(CS) Supponiamo che Pn soddisfi (5). Posto µ = Pn
i=1 piSi, i valori possibili del guadagno sono g1 = S1 − µ , g2 = S2 − µ , . . . , gn = Sn − µ . Ovviamente, ∀ S1, . . . , Sn, si ha
M in G ≤ p1g1 + · · · + pngn ≤ M ax G .
D’altra parte: p1g1 + · · · + pngn = · · · = µ − µ = 0 , pertanto M in G · M ax G ≤ 0 e Pn `e coerente.
Propriet`a additiva:
assumendo A e B incompatibili, per le due partizioni {A ∨ B, AcBc} e {A, B, AcBc} deve valere
P (A∨B)+P (AcBc) = 1 , P (A)+P (B)+P (AcBc) = 1 , da cui segue
P (A ∨ B) = P (A) + P (B) . (6)
Iterando la formula precedente, per n eventi E1, . . . , En a due a due incompatibili, si ha
P (E1 ∨ · · · ∨ En) = · · · = P (E1) + · · · + P (En) . (7) Criterio classico di valutazione. In un esperimento aleatorio con m casi possibili C1, . . . , Cm giudicati ugualmente probabili, poich`e P
iP (Ci) = 1 , si ha necessariamente P (Ci) = m1 , ∀ i. Allora, considerato un evento E = Ci1 ∨ · · · ∨ Cir, da ( 7) segue
P (E) = P (Ci1) + · · · + P (Cir) = r m ,
cio`e la probabilit`a di E `e pari al rapporto tra il numero di casi favorevoli e il numero di casi possibili.
Criterio di Penalizzazione.
Al posto dello schema delle scommesse, per misurare l’opinione di un individuo si pu`o utilizzare il crite- rio di penalizzazione. Con tale criterio, un indivi- duo che esprime una valutazione Pn = (p1, . . . , pn) su una famiglia Fn = {E1, . . . , En} subisce una penalizzazione (aleatoria)
L =
n
X
i=1
Ei − pi ki
2 ,
con k1, . . . , kn costanti positive arbitrarie.
(ai fini della verifica della coerenza si pu`o assumere k1 = · · · = kn = 1 , cfr. [8], pp. 112-113, par. 6.4).
Condizione di coerenza
La valutazione Pn `e coerente se non esiste un’altra valutazione Pn∗ tale che per la corrispondente penaliz- zazione L∗ risulta L∗ ≤ L, con L∗ < L in almeno un caso.
Applicando il criterio di penalizzazione si dimostrano tutte le propriet`a della probabilit`a ottenute con lo schema delle scommesse.
Ad esempio, per ogni evento E diverso da ∅ e da Ω e per ogni p ∈ [0, 1], la valutazione P (E) = p `e coerente. Infatti, si ha L = (E − p)2, con L = (1 − p)2 (risp., L = p2) se E `e vero (risp., falso); allora, com’`e facile verificare, non esiste una valutazione p∗ tale che L∗ ≤ L, con L∗ < L in almeno un caso.
Verifica della coerenza.
Data una famiglia Fn = {E1, . . . , En}, sia Pn = (p1, . . . , pn) una assegnazione di probabilit`a su Fn, con pi = P (Ei), i = 1, . . . , n.
Siano C1, . . . , Cm, con m ≤ 2n, i costituenti rela- tivi alla famiglia Fn. Ad ogni Ch associamo un vertice, Qh = (qh1, . . . , qhn), dell’ipercubo unitario di Rn, con
qhi =
1, se Ch ⊆ Ei, 0, se Ch ⊆ Eic.
Utilizzando il criterio di penalizzazione si pu`o dimostrare ([12])
Teorema 2 Il punto-previsione Pn `e coerente se e solo se `e un baricentro dei punti Q1, . . . , Qm; ovvero, indicando con I l’involucro convesso di Q1, . . . , Qm, Pn `e coerente se e solo se Pn ∈ I.
Dim.
(CS) assumiamo Pn ∈ I. Ci`o significa che esiste un vettore non negativo (λ1, . . . , λm), con P
r λr = 1, tale che Pn = λ1Q1 + · · · + λmQm, ovvero tale che
pi =
m
X
h=1
λhqhi , i = 1, . . . , n .
Al costituente Ch corrisponde per la penalizzazione L il valore Lh = Pn
i=1(qhi − pi)2, pari al quadrato della distanza dh tra Pn e Qh. Il vettore (λ1, . . . , λm) si pu`o interpretare come una distribuzione di ”masse” sui punti Q1, . . . , Qm.
Il momento d’inerzia rispetto al baricentro Pn `e MP = X
h
λhd2h = X
h
λhLh .
Considerato un punto-previsione Pn∗, con Pn∗ 6= Pn, indicando con d∗h la distanza tra Pn∗ e Qh e con δ la distanza tra Pn e Pn∗, si ha
d∗2h = P
i(qhi − p∗i)2 = P
i[(qhi − pi) + (pi − p∗i)]2 =
= d2h + 2 P
i(qhi − pi)(pi − p∗i) + δ2 . Allora, osservando che P
h λhqhi = pi e quindi P
h λh(qhi − pi) = 0, si ha
MP∗ = P
h λhd∗2h = P
h λhL∗h =
= P
h λhd2h + 2P
i(pi − p∗i)[P
h λh(qhi − pi)] + δ2 P
hλh =
= MP + δ2 (teorema di Huygens − Steiner);
cio`e
MP∗ − MP = X
h
λh(d∗2h − d2h) = δ2 > 0 .
Allora, spostandosi da Pn a Pn∗, almeno una delle distanze (e di conseguenza una delle penalizzazioni) aumenta; quindi Pn `e coerente.
(CN) se Pn ∈ I esiste un iperpiano π che separa P/ n da I. Allora, indicando con Pn∗ la proiezione di Pn su π, la distanza d∗h di Pn∗ da Qh `e minore della distanza dh di Pn da Qh, per ogni h = 1, . . . , m. Pertanto, sostituendo Pn con Pn∗, risulta L∗h = d∗2h < d2h = Lh, per ogni h; quindi Pn non `e coerente.
Nota: poich`e Pm
h=1 λhqhi = P
h:Ch⊆Ei λh , la con- dizione di coerenza Pn ∈ I equivale alla risolubilit`a del seguente sistema
(S)
P
h:Ch⊆Ei λh = pi , i = 1, . . . , n;
Pm
h=1 λh = 1 , λh ≥ 0 , ∀ h .
(8)
Ricordiamo che Ei = W
h:Ch⊆Ei Ch; allora, se si interpreta λh come probabilit`a del costituente Ch, l’equazione P
h:Ch⊆Ei λh = pi rappresenta la formula P (Ei) = P
h:Ch⊆Ei P (Ch).
Pertanto, ogni soluzione del sistema costituisce un mo- do di assegnare una distribuzione di probabilit`a sui costituenti coerente con l’assegnazione di probabilit`a Pn = (p1, . . . , pn) su Fn = {E1, . . . , En}.
Esempi. Sia Fn = {E1, E2}.
1. E1, E2 logicamente indipendenti
C1 = E1E2, C2 = E1E2c, C3 = E1cE2, C4 = E1cE2c, Q1 = (1, 1), Q2 = (1, 0), Q3 = (0, 1), Q4 = (0, 0).
I `e il quadrato unitario. P2 = (p1, p2) `e coerente se e solo se appartiene al quadrato.
2. E1E2 = ∅.
C1 = E1E2c, C2 = E1cE2, C3 = E1cE2c, Q1 = (1, 0), Q2 = (0, 1), Q3 = (0, 0).
I `e il triangolo di vertici i punti Qh. P2 = (p1, p2) `e coerente se e solo se appartiene al triangolo.
Un discorso analogo vale nei casi in cui E1E2c = ∅, o E1cE2 = ∅, o E1cE2c = ∅.
3. Gli eventi E1, E2 formano una partizione di Ω.
C1 = E1E2c, C2 = E1cE2, Q1 = (1, 0), Q2 = (0, 1).
I `e il segmento che unisce i punti Q1 e Q2.
P2 = (p1, p2) `e coerente se e solo se appartiene al segmento, cio`e se e solo se p1 + p2 = 1.
Figura 1: insiemi delle valutazioni coerenti
Equivalenza dei criteri di penalizzazione e della scommessa.
Teorema 3 Data una famiglia Fn = {E1, . . . , En}, siano, rispettivamente, Ip e Is gli insiemi dei punti previsione Pn = (p1, . . . , pn) coerenti secondo il cri- terio di penalizzazione e quello della scommessa. Si ha Ip = Is.
Dim.
(a) assumiamo Pn ∈ Ip. Allora, per il Teorema 2, esiste un vettore non negativo (λ1, . . . , λm), con P
h λh = 1, tale che Pn = λ1Q1 + · · · + λmQm, ovvero tale che
pi =
m
X
h=1
λhqhi , i = 1, . . . , n ,
da cui segue, per i = 1, . . . , n:
m
X
h=1
λhqhi −
m
X
h=1
λh
!
pi =
m
X
h=1
λh(qhi − pi) = 0 .
Indicando con g1, . . . , gm i possibili valori del guadagno aleatorio
G =
n
X
i=1
Si(Ei − pi) =
n
X
i=1
SiEi −
n
X
i=1
Sipi ,
per ogni h si ha
gh =
n
X
i=1
Siqhi −
n
X
i=1
Sipi =
n
X
i=1
Si(qhi − pi) . (9)
Allora, per ogni S1, . . . , Sn, si ha P
h λhgh = P
h λh [Pn
i=1 Si(qhi − pi)] =
= Pn
i=1 Si[P
h λh(qhi − pi)] = 0 .
Pertanto, comunque si scelgano S1, . . . , Sn, i valori g1, . . . , gm non possono essere tutti positivi o tut- ti negativi, altrimenti sarebbe P
h λhgh > 0 oppure P
h λhgh < 0. La condizione M in G · M ax G ≤ 0 `e quindi sempre soddisfatta, perci`o Pn ∈ Is.
(b) assumiamo Pn ∈ I/ p. In questo caso, esiste un iperpiano π, di equazione Pn
i=1 aixi = b, che separa Pn dall’involucro convesso I dei punti Q1, . . . , Qm. Siano
n
X
i=1
aixi = c ,
n
X
i=1
aixi = c1 , · · · ,
n
X
i=1
aixi = cm , le equazioni degli iperpiani, πP, π1, . . . , πm, paral- leli a π e passanti rispettivamente per i punti Pn, Q1, . . . , Qm.
Considerata la funzione f (x1, . . . , xn) = Pn
i=1 aixi e scelti nell’espressione del guadagno aleatorio G i valori S1 = a1, . . . , Sn = an, da (9) segue
gh = f (Qh) − f (Pn) = ch − c , h = 1, . . . , m . Poich`e π separa πP da π1, . . . , πm si ha ch < c per ogni h, oppure ch > c per ogni h, e quindi
M in G · M ax G = (c0 − c)(c00 − c) > 0 ,
dove c0 = M in ch , c00 = M ax ch . Pertanto Pn ∈ I/ s. In conclusione: Pn ∈ Ip ⇔ Pn ∈ Is e quindi Ip = Is.
Propagazione
Sia Fn = {E1, . . . , En} una famiglia arbitraria di n eventi e sia Pn = {p1, . . . , pn} un’assegnazione di probabilit`a coerente su Fn .
Se consideriamo un ulteriore evento En+1, sorge il problema di come valutare la probabilit`a pn+1 = P (En+1) in modo tale che la valutazione Pn+1 = {p1, . . . , pn, pn+1} su Fn+1 = {E1, . . . , En, En+1} sia coerente.
. . . la scelta di pn+1 non `e arbitraria, ma va fatta in un opportuno intervallo [p0, p00] ⊆ [0, 1].
Infatti, si ha il seguente risultato (teorema fondamentale per le probabilit`a, [8])
Teorema 4 Data un’assegnazione di probabilit`a co- erente Pn = (p1, . . . , pn) su una famiglia Fn = {E1, . . . , En}, con pi = P (Ei), si consideri un ul- teriore evento En+1 e si ponga Fn+1 = Fn∪ {En+1}.
Allora, esiste un intervallo [p0, p00] ⊆ [0, 1] tale che l’estensione Pn+1 = (p1, . . . , pn, pn+1) di Pn su Fn+1
`e coerente se e solo se pn+1 ∈ [p0, p00].
Pi`u in generale, si ha
Teorema 5 Data un’assegnazione di probabilit`a coerente P su una famiglia di eventi K ed una famiglia K∗, con K ⊂ K∗, esiste un’estensione coerente P∗ di P su K∗, tale che, per ogni E ∈ K, si ha P∗(E) = P (E).
Nota: l’assegnazione coerente P su K pu`o quindi essere estesa all’algebra AK generata da K.
Esempi.
1. Sia F1 = {E1}, con P (E1) = p1 ∈ [0, 1]. Da- to un evento E2 incompatibile con E1, con E2 6= E1c, si ponga P (E2) = p2.
Per quali valori di p2 la valutazione (p1, p2) su F2 = {E1, E2} `e coerente?
Risposta: osservando che P (E1∨ E2) = p1+ p2 ≤ 1 , si ha p2 ∈ [0, 1 − p1].
2. Date le probabilit`a P (A) = x, P (B) = y, la valutazione P (A ∨ B) = z `e un’estensione coerente di (x, y) se e solo se
M ax {x, y} ≤ z ≤ M in {1, x + y} ,
mentre la valutazione P (AB) = p `e un’estensione coerente se e solo se
M ax {0, x + y − 1} ≤ p ≤ M in {x, y} .
3. Un sistema S `e costituito da 3 moduli M1, M2, M3. Definiti gli eventi Ai = “il modulo Mi funziona”, i = 1, 2, 3, supponiamo che se Mi funziona allora Mi+1 funziona, i = 1, 2. Posto P (A1) = 14, P (A3) = 106 , de- terminare l’intervallo [p0, p00] delle estensioni coerenti P (A2) = p.
Soluzione: Dalla propriet`a di monotonia della pro- babilit`a segue P (A1) ≤ P (A2) ≤ P (A3) e quindi
1
4 ≤ P (A2) ≤ 35. Si pu`o verificare che [p0, p00] = [14, 35].
Infatti, essendo A1 ⊆ A2 ⊆ A3, i costituenti sono C1 = A1 ∧ A2 ∧ A3 ; C2 = Ac1 ∧ A2 ∧ A3 ; C3 = Ac1 ∧ Ac2 ∧ A3 ; C4 = Ac1 ∧ Ac2 ∧ Ac3.
Allora, posto P (Ch) = λh, la coerenza della valutazione
P (A1) = 1
4 , P (A3) = 3
5 , P (A2) = p , equivale alla risolubilit`a del sistema
λ1 = 14 , λ1 + λ2 = p , λ1 + λ2 + λ3 = 35 , λ1 + λ2 + λ3 + λ4 = 1 , λh ≥ 0 , ∀ h . Si ha: p = 14 + λ2 = 35 − λ3 , λ2 + λ3 = 207 ;
pertanto, il sistema `e risolubile se e solo se p ∈ [14, 35].
In particolare, le soluzioni del sistema sono tutti e soli i vettori (λ1, λ2, λ3, λ4) = (14, λ, 207 − λ, 25), con λ ∈ [0, 207 ].
Determinazione dell’intervallo [p0, p00].
Siano C1, . . . , Cm i costituenti relativi alla famiglia Fn = {E1, . . . , En}.
Dato En+1, distinguiamo 3 classi di costituenti:
(i) costituenti che implicano (cio`e favorevoli a) En+1; (ii) costituenti che non implicano En+1, ma sono con esso compatibili;
(iii) costituenti incompatibili con En+1. Definiamo gli insiemi
J1 = {h : Ch ∧ En+1c = ∅} = {h : Ch ∧ En+1 = Ch} , J2 = {h : ∅ ⊂ Ch ∧ En+1 ⊂ Ch} =
= {h : Ch ∧ En+1 6= ∅ , Ch ∧ En+1c 6= ∅} ,
J3 = {h : Ch ∧ En+1 = ∅} = {h : Ch ∧ En+1c = Ch} . Osservando che W
h∈J3 En+1Ch = ∅, si ha En+1 = Wm
h=1 En+1Ch = W
j∈J1∪J2∪J3 En+1Ch =
= · · · =
W
h∈J1 Ch
∨ W
h∈J2 En+1Ch
,
e, definendo E0 = W
h∈J1 Ch , E00 = W
h∈J1∪J2 Ch, si ha: E0 ⊆ En+1 ⊆ E00 .
E0 si chiama massimo evento logicamente dipendente da E1, . . . , En contenuto in En+1.
E00 si chiama minimo evento logicamente dipendente da E1, . . . , En contenente En+1.
Se si assegnano le probabilit`a dei costituenti λh = P (Ch) , h = 1, . . . , m, si ha
X
h∈J1
λh = P (E0) ≤ P (En+1) ≤ P (E00) = X
h∈J1∪J2
λh .
Poich`e Pn `e coerente, l’insieme S delle soluzioni Λ = (λ1, . . . , λm) del sistema (8) `e non vuoto. Si ha
p0 = M inΛ∈S P (E0) , p00 = M axΛ∈S P (E00) . I valori p0, p00 si possono calcolare utilizzando il metodo del simplesso della programmazione lineare.
(questo tipo di problemi `e stato studiato in molti lavori;
cfr., ad es., [1], [2], [5], [20]).
Numeri aleatori semplici
Dati n eventi E1, E2, . . . , En ed n numeri reali x1, x2, . . . , xn, la quantit`a
X = x1 · |E1| + x2 · |E2| + · · · + xn · |En| (10) rappresenta un numero ben determinato ma incognito, detto numero aleatorio semplice, i cui possibili valori si ottengono considerando i costituenti relativi agli eventi E1, . . . , En, ovvero assegnando in tutti i modi possibili i valori agli indicatori degli eventi.
X si pu`o anche considerare come una funzione reale definita sull’insieme dei costituenti C1, . . . , Cm.
L’insieme dei possibili valori di X costituisce il codo- minio CX di tale funzione.
Esempi.
(i) l’indicatore di un evento `e un numero aleatorio semplice;
(ii) il risultato aleatorio X del lancio di un dado `e un numero aleatorio semplice. Definiti gli eventi
Ei = 00esce il numero i 00 , i = 1, 2, . . . , 6,
si ha: X = 1 · |E1| + 2 · |E2| + · · · + 6 · |E6|.
E1, E2, . . . , E6 formano una partizione e quindi, per il codominio di X, si ha CX = {1, 2, . . . , 6}.
Forma Canonica.
In generale, se {H1, H2, . . . , Hn} `e una partizione di Ω, per il numero aleatorio
X = x1 · |H1| + x2 · |H2| + · · · + xn · |Hn| si ha CX = {x1, x2, . . . , xn}.
Esempio. Dati E1, E2, E3, con E1E2 = ∅, E3 ⊆ E1, sia X = 2|E1| − |E2| + |E3|.
Costituenti generati da E1, E2, E3:
C1 = E1E2cE3 , C2 = E1E2cE3c , C3 = E1cE2E3c , C4 = E1cE2cE3c . Corrispondenti valori di X:
χ1 = 3 , χ2 = 2 , χ3 = −1 , χ4 = 0 .
Pertanto CX = {−1, 0, 2, 3}. Inoltre
X = 3|C1| + 2|C2| − 1|C3| + 0|C4| .
Quindi, determinando i costituenti e i corrispondenti valori di X, si pu`o passare alla forma canonica.
In generale, dati gli eventi E1, . . . , En, siano C1, . . . , Cm i relativi costituenti. Posto
X = x1|E1| + x2|E2| + · · · + xn|En|
e indicando con χ1, . . . , χm i valori di X associati con C1, . . . , Cm, si ha
X = χ1|C1| + χ2|C2| + · · · + χm|Cm| .
Fissato Ch, si ha: |Ei| = 1 ⇔ Ch ⊆ Ei; quindi: χh = P
i:Ch⊆Ei xi , h = 1, . . . , m.