• Non ci sono risultati.

Dottorato di Ricerca Modelli e Metodi Matematici per la Tecnologia e la Societ`a - XXIV ciclo Calcolo delle Probabilit`a (2009) Angelo Gilio Dip. Me.Mo.Mat. - [email protected]

N/A
N/A
Protected

Academic year: 2022

Condividi "Dottorato di Ricerca Modelli e Metodi Matematici per la Tecnologia e la Societ`a - XXIV ciclo Calcolo delle Probabilit`a (2009) Angelo Gilio Dip. Me.Mo.Mat. - [email protected]"

Copied!
78
0
0

Testo completo

(1)

Dottorato di Ricerca Modelli e Metodi Matematici per la Tecnologia e la Societ`a - XXIV ciclo

Calcolo delle Probabilit`a (2009) Angelo Gilio

Dip. Me.Mo.Mat. - [email protected]

(2)

Introduzione

Il calcolo delle probabilit`a fornisce gli strumenti logico- matematici per affrontare problemi decisionali in con- dizioni di incertezza.

Nell’esame di un problema aleatorio si possono di- stinguere sostanzialmente due aspetti: uno in cui si applica la logica del certo ed un’altro, successivo, in cui si applica la logica del probabile.

- In una prima fase, avendo un’informazione incom- pleta in relazione al fissato esperimento aleatorio, si analizzano i fatti incerti individuando l’insieme delle eventualit`a possibili (detto anche insieme dei casi elementari, o insieme dei casi possibili, o insieme dei costituenti). Di tali casi uno e uno solo risulter`a vero.

Ogni fatto incerto di interesse nel problema considerato

`e descritto mediante una proposizione logica non am- bigua e costituisce un evento che risulter`a Vero (V ) o Falso (F ).

Un evento E `e quindi un ente logico a due valori: V, F .

(3)

Dato un evento E, si definisce Indicatore di E la seguente quantit`a

|E| =

(1 se E `e vero, 0 se E `e falso.

Sugli eventi si possono effettuare operazioni logiche per introdurre o rappresentare altri eventi; inoltre, dati due o pi`u eventi, tra di essi potranno esistere delle relazioni logiche.

In astratto, l’insieme dei casi possibili potr`a essere rappresentato con uno spazio Ω e ogni caso elementare sar`a rappresentato con un punto di Ω. Allora, ogni fissato sottoinsieme E di Ω rappresenta un evento, in- dicato con lo stesso simbolo, che sar`a vero oppure falso a seconda che il risultato dell’esperimento, ovvero il ca- so elementare che si verifica, corrisponde ad un punto che appartiene oppure no ad E.

Due eventi particolari sono:

(a) l’evento certo, rappresentato dall’insieme Ω, che risulta sicuramente vero;

(4)

(b) l’evento impossibile, rappresentato dall’insieme vuoto ∅, che risulta sicuramente falso.

(Nota: |Ω| = 1, |∅|=0)

- Completata la prima fase, che consiste nel deli- neare l’ambito del possibile e in cui ogni ragionamento si basa sull’applicazione della logica deduttiva o logica del certo, il passo successivo consiste nel vagliare l’in- formazione che si ha su ogni fatto incerto che interessa esaminare e nel valutare i pro e i contro relativi al verificarsi o meno degli eventi incerti considerati.

Normalmente, nei riguardi dei diversi eventi si avranno differenti gradi di fiducia (circa la loro possibilit`a di ve- rificarsi) e diventa essenziale, anche al fine di possibili decisioni, rappresentare quantitativamente in maniera consistente, ovvero ammissibile, tali gradi di fiducia mediante opportune valutazioni probabilistiche.

In questa fase un aspetto importante pu`o essere quello di propagare (in modo consistente) ad ulteriori eventi incerti le valutazioni probabilistiche fatte su dati eventi iniziali.

(5)

Operazioni e relazioni logiche Negazione di E.

Ec =

(vero, se E `e falso, falso, se E `e vero.

Nota: |Ec| = 1 − |E|.

Implicazione. A implica B se quando `e vero A segue che `e vero anche B.

In simboli: A ⇒ B, oppure A ⊆ B.

A ⇒ B equivale a |A| ≤ |B|.

Uguaglianza. A = B se e solo se A ⇒ B e B ⇒ A.

Unione. L’evento unione, o somma (logica), di A e B `e vero quando almeno uno dei due eventi `e vero ed `e falso quando sia A che B sono falsi.

L’evento unione si indica con A ∨ B, oppure A ∪ B.

(6)

Propriet`a:

- associativa : (A ∨ B) ∨ C = A ∨ (B ∨ C) = A ∨ B ∨ C;

- commutativa : A ∨ B = B ∨ A.

Osservazioni:

A∨Ω = Ω ; A∨∅ = A ; A∨A = A ; A∨Ac = Ω . Intersezione

L’evento intersezione, o prodotto (logico), di A e B `e vero quando entrambi gli eventi sono veri ed `e falso quando almeno uno dei due eventi `e falso.

L’evento intersezione si indica con A∧B, oppure A∩B, o pi`u semplicemente AB.

Propriet`a:

- associativa : (A ∧ B) ∧ C = A ∧ (B ∧ C) = A ∧ B ∧ C.

- commutativa : A ∧ B = B ∧ A.

(7)

Osservazioni:

A ∧ Ω = A ; A ∧ ∅ = ∅ ; A ∧ A = A ; A ∧ Ac = ∅ . Incompatibilit`a

A e B si dicono incompatibili se non possono essere entrambi veri, cio`e se AB = ∅.

Propriet`a degli indicatori:

|AB| = |A| · |B| ; |A ∨ B| = |A| + |B| − |AB| , con |A ∨ B| = |A| + |B| nel caso in cui AB = ∅.

Altre propriet`a:

AB ⊆ A ⊆ A ∨ B , (|AB| ≤ |A| ≤ |A ∨ B|) AB ⊆ B ⊆ A ∨ B , (|AB| ≤ |B| ≤ |A ∨ B|) Propriet`a distributive :

(A∨B)∧C = AC∨BC , (A∧B)∨C = (A∨C)∧(B∨C) .

(8)

Formule di De Morgan :

(A ∨ B)c = Ac ∧ Bc ; (A ∧ B)c = Ac ∨ Bc . Rappresentazione geometrica con i diagrammi di Venn.

A B

&%

'$





Ω C

&%

'$

D

&%

'$

Evento Insieme

certo universo

impossibile vuoto

contrario complementare implicazione inclusione

incompatibili disgiunti

unione unione

intersezione intersezione Partizioni finite dell’evento certo

{H1, H2, . . . , Hn} `e una partizione di Ω se:

1. HiHj = ∅ , i 6= j ; 2. H1 ∨ H2 ∨ · · · ∨ Hn = Ω .

(9)

Equivalentemente:

|H1| + |H2| + · · · + |Hn| = 1 . (1)

Casi possibili o Costituenti.

Osserviamo che Ω ∧ Ω = Ω e che E ∨ Ec = Ω, ∀ E.

Considerati degli eventi A, B, . . ., i casi elementari o costituenti si ottengono sviluppando l’espressione:

(A ∨ Ac) ∧ (B ∨ Bc) ∧ · · · =

= (AB ∨ ABc ∨ AcB ∨ AcBc) ∧ · · · =

= AB · · · ∨ ABc · · · ∨ AcB · · · ∨ AcBc · · · ∨ · · · . (2) Eliminando le intersezioni impossibili, quelle rimanenti sono i casi possibili relativi agli eventi A, B, . . . .

In generale, data una famiglia Fn = {E1, . . . , En}, i casi possibili o costituenti, C1, . . . , Cm, con m ≤ 2n, si ottengono osservando che

(E1∨E1c)∧(E2∨E2c)∧· · ·∧(En∨Enc) = C1∨C2∨· · ·∨Cm ,

(10)

dove

Ck = E1E2· · · En , k = 1, 2, . . . , m ≤ 2n ,

con Ei = Ei, oppure Ei = Eic.

Ω Decomposizione di un evento.

Dato un evento arbitrario E ed una partizione {H, Hc}, si ha:

E = E ∧ Ω = E ∧ (H ∨ Hc) = EH ∨ EHc . (3)

(11)

Pi`u in generale, data una partizione {H1, H2, . . . , Hn}, si ha:

E = EH1 ∨ EH2 ∨ · · · ∨ EHn . (4)

Le formule (3) e ( 4) sono utilizzate spesso per calco- lare la probabilit`a di E.

Esempio:

Da un’urna contenente 5 palline bianche e 3 nere si effettuano 2 estrazioni senza restituzione. Sia A l’evento 00la 1a pallina estratta `e bianca00 e B l’evento

00la 2a pallina estratta `e bianca00. Calcolare, in relazione a ciascun evento, il rapporto tra il numero di casi favorevoli e il numero di casi possibili, confrontando i valori ottenuti per A e B.

Data una famiglia Fn = {E1, . . . , En}, siano C1, C2, . . . , Cm i relativi costituenti. Ogni evento Ei si pu`o scrivere come unione logica dei costituenti ad esso

(12)

favorevoli.

Ei = Ei ∧ Ω = Ei ∧ (C1 ∨ C2 ∨ · · · ∨ Cm) =

= EiC1 ∨ EiC2 ∨ · · · ∨ EiCm = W

h:Ch⊆Ei Ch . Indipendenza logica.

A si dice logicamente indipendente da B, C, . . . se, assegnando in tutti i modi ammissibili il valore logico (vero o falso) a tali eventi, ovvero considerando in tutti i modi possibili un loro costituente, A rimane incerto, potendo risultare sia vero che falso.

Se A non `e logicamente indipendente da B, C, . . . , si possono presentare vari tipi di dipendenza logica.

Data una famiglia F = {E1, E2, . . . , En}, gli eventi di F si dicono logicamente indipendenti se il numero m di costituenti `e pari a 2n.

Esempio 1 Estrazioni con restituzione da un’urna contenente 1 pallina bianca e 1 nera.

Gli eventi

Ei = la i-ma pallina estratta `e bianca, i = 1, . . . , 5,

(13)

sono logicamente indipendenti?

Esempio 2 Estrazioni senza restituzione da un’urna contenente 2 palline bianche e 3 nere.

Gli eventi E1, E2, E3 sono logicamente indipenden- ti?

Ad esempio, se E1, E2 sono entrambi veri (cio`e le prime due palline estratte sono bianche), cosa si pu`o dire della terza pallina e quindi del valore logico di E3 ?

Se invece E1 `e vero ed E2 `e falso, cosa si pu`o dire di E3 ?

L’evento E5 `e logicamente dipendente da E1, . . . , E4? Una famiglia (non vuota) di eventi A si dice un’algebra di Boole se `e chiusa rispetto alle operazioni logiche di negazione e unione.

Nota: se A `e un’algebra contiene sia Ω che ∅ ed

`e chiusa anche rispetto all’intersezione.

(14)

Eventi logicamente dipendenti da n eventi E1, . . . , En Sia C = {C1, C2, . . . , Cm} l’insieme dei costituenti generati da n eventi E1, E2, . . . , En.

C ”coincide” con lo spazio dei punti possibili Ω e cia- scuno dei costituenti sar`a un punto possibile.

L’insieme delle parti P(Ω) = P(C) `e un’algebra.

(i) ogni sottoinsieme A di Ω essendo unione di alcu- ni punti, ovvero di alcuni costituenti, `e logicamente dipendente da E1, E2, . . . , En.

Infatti, una volta noti i valori logici di E1, E2, . . . , En rimane determinato il costituente Cr che si `e verificato e di conseguenza A non rimane incerto: A `e vero se Cr ⊆ A, ovvero se il ”punto” Cr appartiene ad A, ed

`e falso in caso contrario.

(ii) d’altra parte, se un qualsiasi evento A `e logica- mente dipendente da E1, E2, . . . , En, non esiste alcun costituente Cr che, se vero, lascia incerto A, cio`e tale che: CrA 6= ∅ e CrAc 6= ∅ .

In altri termini, per ogni Cr, risulta possibile una sola alternativa: Cr ⊆ A, oppure Cr ⊆ Ac.

Allora: A = A ∧ Ω = · · · = W

r:Cr⊆A Cr .

In conclusione, gli eventi di P(C) sono tutti e soli gli eventi logicamente dipendenti da E1, E2, . . . , En.

(15)

Un’algebra A si dice una σ-algebra se `e chiusa rispetto all’unione numerabile, cio`e se, per ogni successione E1, . . . , En, . . . di eventi di A, si ha W

i=1 Ei ∈ A.

Data una famiglia F di eventi di Ω e considerate tutte le σ-algebre contenenti F , l’intersezione di tali σ-algebre `e la minima σ-algebra AF contenente F . AF si dice generata da F .

Esempio. Sia Ω = R, l’insieme dei numeri reali, ed F la famiglia degli intervalli di R. La σ-algebra B generata da F si chiama classe di Borel o σ-algebra boreliana di R. I suoi elementi si chiamano gli insiemi boreliani di R.

Possiamo immaginare di costruire B, con un procedi- mento che non ha mai termine, aggiungendo agli eventi costituiti da intervalli le loro unioni (in numero finito o numerabile), le negazioni degli eventi cos`ı costruiti, di nuovo le unioni e le negazioni, e cos`ı via.

La classe di Borel `e molto vasta, in particolare contiene

(16)

tutti i punti, gli insiemi aperti e gli insiemi chiusi.

B si pu`o anche definire come la minima σ-algebra contenente tutti gli intervalli (−∞, x], con x ∈ R.

Impostazione assiomatica

Da un punto di vista strettamente matematico, come accade in molte trattazioni al riguardo, il calcolo delle probabilit`a si pu`o sviluppare considerando una terna (Ω, A, P ), detta spazio di probabilit`a.

A `e una famiglia di eventi di Ω (opportunamente scelta), dotata della struttura di algebra o σ−algebra.

P `e una funzione d’insieme a valori reali che ad ogni E ∈ A associa un valore p = P (E), detto probabilit`a di E, soddisfacente i seguenti assiomi:

• P (E) ≥ 0, ∀ E ∈ A, (non-negativit`a);

• P (Ω) = 1, (normalizzazione);

• P (A ∨ B) = P (A) + P (B), ∀ A, B ∈ A, tali che AB = ∅, (propriet`a additiva).

(17)

Se l’insieme dei casi elementari `e infinito, generalmente, si considera una σ−algebra A; la coppia (Ω, A) si dice uno spazio misurabile, o spazio probabilizzabile, e gli eventi di A sono gli insiemi ”misurabili”, mentre i sottoinsiemi di Ω non appartenenti ad A non sono misurabili.

Inoltre, per ragioni di ”convenienza matematica”, si assume che P , oltre ai primi due assiomi, soddisfi il seguente terzo assioma (additivit`a numerabile, o addi- tivit`a completa, o σ-additivit`a):

• P (W

i=1 Ei) = P

i=1 P (Ei), per ogni successione E1, . . . , En, . . . di eventi di A a due a due incompati- bili, cio`e tali che EiEj = ∅ per i 6= j.

La ”convenienza matematica” relativa alla scelta della σ- additivit`a risiede nel fatto che il calcolo delle pro- babilit`a si pu`o sviluppare utilizzando, anzich`e la misura di Peano-Jordan e l’integrale di Riemann, la misura e l’integrale di Lebesgue.

Da questo punto di vista, il calcolo delle probabilit`a di- venta una branca della teoria della misura e molti risul- tati di tale teoria diventano automaticamente teoremi di probabilit`a.

(18)

Commenti critici:

• nell’impostazione assiomatica la probabilit`a `e vista semplicemente come una funzione, mentre sarebbe importante attribuire preliminarmente un significato a tale nozione;

• non si vedono i motivi logici per i quali solo gli eventi di A debbano essere misurabili, mentre gli altri debbano essere considerati come ”non eventi”;

• in generale, sembrerebbe naturale scegliere come famiglia A l’insieme delle parti di Ω, P(Ω), in modo che tutti gli eventi fossero misurabili (cio`e probabilizzabili), ma ci sono dei risultati teorici che mostrano che (se Ω `e infinito e) se la funzione P `e σ-additiva non `e possibile definire P su tutto P(Ω) e quindi `e necessario limitarsi ad una σ-algebra A opportunamente scelta;

• d’altra parte, come si pu`o vedere con esempi, se si impone la σ-additivit`a rimangono precluse (senza

(19)

chiari motivi logici) delle valutazioni probabilistiche che in certi casi sembrano le pi`u opportune;

• da un punto di vista teorico, assegnare P su A potrebbe essere ”troppo” o ”troppo poco”, men- tre, nelle applicazioni, di solito interessa assegnare P su un numero generalmente limitato di eventi appartenenti ad una famiglia F priva di qualsiasi struttura;

• sugli eventi di F (quelli di effettivo interesse nel problema dato) si avranno normalmente sufficienti informazioni che potranno tradursi in valutazioni probabilistiche significative;

• occorrer`a soltanto dotarsi di opportuni criteri per verificare la consistenza delle assegnazioni di pro- babilit`a e di opportuni metodi per estendere tali assegnazioni ad ulteriori eventi di interesse, even- tualmente a tutto P(Ω), ma ci`o `e teoricamente possibile solo nel caso finitamente additivo.

(20)

Definizione classica

In molti problemi aleatori, per ragioni di simmetria o di mancanza di informazioni sul fenomeno studiato, i casi possibili sono giudicati ugualmente possibili.

In tali situazioni, ai primi studiosi di calcolo delle probabilit`a appariva naturale valutare la probabilit`a di un evento utilizzando la seguente

Definizione. Considerato un esperimento aleatorio con m casi possibili, giudicati ugualmente possibili, ed un evento E con r casi favorevoli, la probabilit`a P (E) di E `e uguale al rapporto mr .

Commenti critici

1) Scelta appropriata dei casi da giudicare ugualmente possibili.

Esempio 3 Un esperimento aleatorio consiste in due lanci di una moneta.

E : in almeno un lancio esce Testa.

Casi possibili:

C1: esce Testa al primo lancio (e l’esperimento ter-

(21)

mina);

C2: esce Croce al primo lancio e Testa al secondo lancio;

C3: esce Croce in entrambi i lanci.

C1 e C2 sono favorevoli ad E.

Allora . . . P (E) = 23 ? (Non ragionevole!)

Non `e ragionevole giudicare i tre casi ugualmente possibili.

Infatti, P (E1) = 12 (se Testa o Croce al primo lancio si giudicano ugualmente possibili).

. . . inoltre, l’unione logica di E2 ed E3 coincide con l’evento Croce al primo lancio, che ha probabilit`a 12, . . . pertanto, P (E2) = P (E3) = 14.

. . . quindi una valutazione pi`u adeguata `e P (E) = 34. 2) La definizione classica non `e applicabile sempre.

Esempio 4 Se uno studente sostiene un esame vi sono due casi possibili (lo studente pu`o essere pro-

(22)

mosso o bocciato) . . . nessuno, per`o, concluderebbe che la probabilit`a di essere promosso `e 12.

. . . per la valutazione delle probabilit`a occorrono quindi metodi generali e solo in casi particolari ci si pu`o basare sulla definizione classica.

3) Circolarit`a.

Il termine ugualmente possibili non pu`o significare altro che ugualmente probabili e quindi nella definizione classica ... il concetto di probabilit`a viene definito mediante se stesso.

(23)

Paradosso del Cavalier De M´er´e

Esempio 5 Si effettuano 4 lanci di un dado, A : ”esce almeno una volta la faccia 6”.

Si effettuano 24 lanci di una coppia di dadi, B : ”esce almeno una volta la coppia (6,6)”.

Si racconta che (nel 1654) il Cavalier De M´er´e (accani- to giocatore di azzardo) valutasse ugualmente probabili A e B sulla base del seguente ragionamento:

- nel primo esperimento in ognuno dei 4 lanci la faccia 6 ha probabilit`a 16 e quindi

P (A) = 1

6 + 1

6 + 1

6 + 1

6 = 2 3 .

- nel secondo esperimento in ognuno dei 24 lanci la coppia (6,6) ha probabilit`a 361 e quindi

P (B) = 1

36 + · · · + 1

36 = 24

36 = 2

3 = P (A) .

Negli esperimenti pratici . . . per uno dei due eventi la frequenza di successo era leggermente superiore a

(24)

quella dell’altro (il problema venne sottoposto a Blaise Pascal).

. . . se i lanci nel primo esperimento fossero pi`u di 6, ad esempio 7, si avrebbe

P (A) = 1

6 + · · · + 1

6 = 7

6 > 1 ,

il che `e assurdo, pertanto il ragionamento precedente non `e corretto.

Soluzione.

P (A) = 1 − P (Ac) = 1 − 5644 ' 0.51 , P (B) = 1 − P (Bc) = 1 − 3524

3624 ' 0.49 . Quindi P (A) > P (B).

In modo diretto:

lanciando 4 volte un dado i casi possibili sono 64 (disposizioni con ripetizione di classe 4 di 6 oggetti).

(25)

I casi favorevoli all’evento Eh = 00la faccia 6 esce esattamente h volte00 sono

 4 h



54−h , h = 0, 1, . . . , 4, e quindi:

P (Eh) =

 4 h



54−h

64 .

Pertanto :

P (A) =

4

X

h=1

 4 h



54−h

64 ' 0.51 . In modo analogo:

P (B) =

24

X

k=1

 24 k



3524−k

3624 ' 0.49 .

(26)

Impostazione frequentista

Come mostrato anche dall’esempio di De M´er´e, . . . esiste una naturale tendenza a vedere un legame tra frequenza e probabilit`a.

Tale tendenza `e stata anche espressa nella seguente legge empirica del caso:

in una successione di prove effettuate nelle stesse condizioni la frequenza relativa di volte in cui un evento si verifica converge verso la probabilit`a che tale evento ha di verificarsi in ogni prova.

In tale ordine di idee, si giunge alla seguente Definizione frequentista

Considerata una successione di prove indipendenti e ripetute nelle stesse condizioni e indicando, per un da- to evento E, con fN la frequenza relativa di ”successo”

sulle prime N prove si pone

P (E) = lim

N →+∞ fN .

(27)

Commenti critici.

1) Le frequenze non costituiscono una successione numerica data mediante una legge, ma sono dei nu- meri rilevati sperimentalmente. Inoltre, il concetto di limite utilizzato nella definizione non `e quello rigoroso dell’analisi.

2) (applicabilit`a) si deve prendere in considerazione una successione di prove fatte nelle stesse condizioni, il che non `e realistico.

3) (circolarit`a) il concetto di indipendenza ha un sig- nificato probabilistico, cos`ı come il fatto di ripetere le prove sempre nelle stesse condizioni equivale ad as- sumere l’equiprobabilit`a di successo nelle singole prove.

Quindi, la definizione classica e la definizione frequen- tista si possono utilizzare solo come criteri pratici di valutazione, utili in certi casi, e non per definire il concetto di probabilit`a.

(28)

Impostazione soggettiva della probabilit`a

I precedenti criteri di valutazione possono essere in- tegrati in una impostazione pi`u generale: la teoria soggettiva, sviluppata intorno al 1930 dal matematico italiano Bruno de Finetti.

In tale impostazione gli aspetti oggettivi, concernen- ti l’ambito del possibile (logica del certo), sono ri- gorosamente distinti da quelli soggettivi, concernenti le valutazioni probabilistiche (logica del probabile).

Si considerino le frequenti discussioni in cui delle per- sone esprimono opinioni e valutazioni differenti sulla maggiore o minore attendibilit`a di fatti incerti:

. . . la diversit`a di valutazioni risiede essenzialmente nel fatto che le persone hanno un differente stato di informazione.

Esempio 6 Estrazioni con restituzione da un’urna di composizione incognita contenente palline bianche e nere. Si vuole valutare la probabilit`a p di estrarre una pallina bianca alla 1001-ma estrazione.

(29)

Se non si conosce il risultato delle precedenti 1000 estrazioni pu`o essere naturale valutare p = 12.

Se si sa che 900 volte `e stata estratta una pallina bianca, in mancanza di altre informazioni, si pu`o essere indotti a valutare p ' 109 .

Il diverso atteggiamento . . . `e dovuto a un diverso grado di fiducia nel verificarsi dell’evento considerato.

. . . l’informazione di cui si `e in possesso e il modo in cui tale informazione viene elaborata giocano un ruolo essenziale nelle valutazioni di probabilit`a.

. . . nell’impostazione soggettiva tale aspetto viene riconosciuto esplicitamente . . .

Definizione 1 La probabilit`a P (E) = p di un evento E, secondo un dato individuo, in un certo stato di informazione, `e la misura numerica del suo grado di fiducia nel verificarsi di E.

(30)

Criterio operativo di misura + condizione di coerenza:

Criterio della scommessa

P (E) = p rappresenta il prezzo che tale individuo ritiene equo pagare (risp., ricevere) per ricevere (risp., pagare)

1, se si verifica E

0, se non si verifica E

Pi`u in generale, l’individuo deve essere disposto a pagare (risp., ricevere) pS, con S 6= 0, per ricevere (risp., pagare)

S, se si verifica E 0, altrimenti.

Condizione di coerenza:

L’individuo deve essere coerente, cio`e le sue valutazioni di probabilit`a per uno o pi`u eventi non devono essere tali da comportare a priori una perdita certa.

(31)

Indicando con G il guadagno aleatorio e, per comodit`a, con lo stesso simbolo gli eventi e i loro indicatori, si ha

G = S|E| − pS = SE − pS = S(E − p) =

=

 S(1 − p) , E vero

−pS , E f also

In generale, data un’assegnazione di probabilit`a (o punto previsione) Pn = (p1, . . . , pn) su una famiglia Fn = {E1, . . . , En}, con pi = P (Ei) per ogni i, si ha

G =

n

X

i=1

Si(Ei − pi) ,

con S1, . . . , Sn numeri reali arbitrari (non tutti nulli).

Definizione 2 La valutazione Pn si dice coerente se, per ogni S1, . . . , Sn, risulta

M in G · M ax G ≤ 0 .

(32)

Nota: in modo equivalente, la condizione di coerenza pu`o esprimersi come M ax G ≥ 0, oppure M in G ≤ 0.

Propriet`a fondamentali della probabilit`a

• P1. P (E) ≥ 0, per ogni evento E;

• P2. P (Ω) = 1 ;

• P3. se AB = ∅, allora P (A∨B) = P (A)+P (B).

Data una valutazione P (E) = p, si ha G =

 S(1 − p) , E vero

−pS , E f also . . . la condizione di coerenza diventa . . . S(1 − p)(−pS) = −p(1 − p)S2 ≤ 0,

da cui segue . . . 0 ≤ p ≤ 1. (Propriet`a P1).

In particolare, se E = Ω, si ha

M in G = M ax G = G = S(1 − p)

(33)

e quindi . . . dev’essere G = 0, per ogni S, . . . da cui si ottiene P (Ω) = 1. (Propriet`a P2).

La propriet`a additiva si ottiene come corollario del seguente

Teorema 1 Un’assegnazione di probabilit`a Pn = (p1, . . . , pn) su una partizione {H1, . . . , Hn} `e coerente se e solo se

p1 + · · · + pn = 1 ; pi ≥ 0 , ∀ i . (5)

(CN) Supponiamo Pn coerente. Il guadagno `e G = S1(H1 − p1) + · · · + Sn(Hn − pn)

e poich`e H1 + · · · + Hn = 1, scegliendo S1 = S2 =

· · · = Sn = S, con S 6= 0, si ottiene

M in G = M ax G = G = · · · = S[1 − (p1 + · · · + pn)].

Allora, dev’essere G = 0, ∀ S, e quindi p1+· · ·+pn = 1.

(34)

(CS) Supponiamo che Pn soddisfi (5). Posto µ = Pn

i=1 piSi, i valori possibili del guadagno sono g1 = S1 − µ , g2 = S2 − µ , . . . , gn = Sn − µ . Ovviamente, ∀ S1, . . . , Sn, si ha

M in G ≤ p1g1 + · · · + pngn ≤ M ax G .

D’altra parte: p1g1 + · · · + pngn = · · · = µ − µ = 0 , pertanto M in G · M ax G ≤ 0 e Pn `e coerente.

Propriet`a additiva:

assumendo A e B incompatibili, per le due partizioni {A ∨ B, AcBc} e {A, B, AcBc} deve valere

P (A∨B)+P (AcBc) = 1 , P (A)+P (B)+P (AcBc) = 1 , da cui segue

P (A ∨ B) = P (A) + P (B) . (6)

(35)

Iterando la formula precedente, per n eventi E1, . . . , En a due a due incompatibili, si ha

P (E1 ∨ · · · ∨ En) = · · · = P (E1) + · · · + P (En) . (7) Criterio classico di valutazione. In un esperimento aleatorio con m casi possibili C1, . . . , Cm giudicati ugualmente probabili, poich`e P

iP (Ci) = 1 , si ha necessariamente P (Ci) = m1 , ∀ i. Allora, considerato un evento E = Ci1 ∨ · · · ∨ Cir, da ( 7) segue

P (E) = P (Ci1) + · · · + P (Cir) = r m ,

cio`e la probabilit`a di E `e pari al rapporto tra il numero di casi favorevoli e il numero di casi possibili.

(36)

Criterio di Penalizzazione.

Al posto dello schema delle scommesse, per misurare l’opinione di un individuo si pu`o utilizzare il crite- rio di penalizzazione. Con tale criterio, un indivi- duo che esprime una valutazione Pn = (p1, . . . , pn) su una famiglia Fn = {E1, . . . , En} subisce una penalizzazione (aleatoria)

L =

n

X

i=1

 Ei − pi ki

2 ,

con k1, . . . , kn costanti positive arbitrarie.

(ai fini della verifica della coerenza si pu`o assumere k1 = · · · = kn = 1 , cfr. [8], pp. 112-113, par. 6.4).

Condizione di coerenza

La valutazione Pn `e coerente se non esiste un’altra valutazione Pn tale che per la corrispondente penaliz- zazione L risulta L ≤ L, con L < L in almeno un caso.

(37)

Applicando il criterio di penalizzazione si dimostrano tutte le propriet`a della probabilit`a ottenute con lo schema delle scommesse.

Ad esempio, per ogni evento E diverso da ∅ e da Ω e per ogni p ∈ [0, 1], la valutazione P (E) = p `e coerente. Infatti, si ha L = (E − p)2, con L = (1 − p)2 (risp., L = p2) se E `e vero (risp., falso); allora, com’`e facile verificare, non esiste una valutazione p tale che L ≤ L, con L < L in almeno un caso.

Verifica della coerenza.

Data una famiglia Fn = {E1, . . . , En}, sia Pn = (p1, . . . , pn) una assegnazione di probabilit`a su Fn, con pi = P (Ei), i = 1, . . . , n.

Siano C1, . . . , Cm, con m ≤ 2n, i costituenti rela- tivi alla famiglia Fn. Ad ogni Ch associamo un vertice, Qh = (qh1, . . . , qhn), dell’ipercubo unitario di Rn, con

qhi =

 1, se Ch ⊆ Ei, 0, se Ch ⊆ Eic.

Utilizzando il criterio di penalizzazione si pu`o dimostrare ([12])

(38)

Teorema 2 Il punto-previsione Pn `e coerente se e solo se `e un baricentro dei punti Q1, . . . , Qm; ovvero, indicando con I l’involucro convesso di Q1, . . . , Qm, Pn `e coerente se e solo se Pn ∈ I.

Dim.

(CS) assumiamo Pn ∈ I. Ci`o significa che esiste un vettore non negativo (λ1, . . . , λm), con P

r λr = 1, tale che Pn = λ1Q1 + · · · + λmQm, ovvero tale che

pi =

m

X

h=1

λhqhi , i = 1, . . . , n .

Al costituente Ch corrisponde per la penalizzazione L il valore Lh = Pn

i=1(qhi − pi)2, pari al quadrato della distanza dh tra Pn e Qh. Il vettore (λ1, . . . , λm) si pu`o interpretare come una distribuzione di ”masse” sui punti Q1, . . . , Qm.

Il momento d’inerzia rispetto al baricentro Pn `e MP = X

h

λhd2h = X

h

λhLh .

(39)

Considerato un punto-previsione Pn, con Pn 6= Pn, indicando con dh la distanza tra Pn e Qh e con δ la distanza tra Pn e Pn, si ha

d∗2h = P

i(qhi − pi)2 = P

i[(qhi − pi) + (pi − pi)]2 =

= d2h + 2 P

i(qhi − pi)(pi − pi) + δ2 . Allora, osservando che P

h λhqhi = pi e quindi P

h λh(qhi − pi) = 0, si ha

MP∗ = P

h λhd∗2h = P

h λhLh =

= P

h λhd2h + 2P

i(pi − pi)[P

h λh(qhi − pi)] + δ2 P

hλh =

= MP + δ2 (teorema di Huygens − Steiner);

cio`e

MP − MP = X

h

λh(d∗2h − d2h) = δ2 > 0 .

Allora, spostandosi da Pn a Pn, almeno una delle distanze (e di conseguenza una delle penalizzazioni) aumenta; quindi Pn `e coerente.

(40)

(CN) se Pn ∈ I esiste un iperpiano π che separa P/ n da I. Allora, indicando con Pn la proiezione di Pn su π, la distanza dh di Pn da Qh `e minore della distanza dh di Pn da Qh, per ogni h = 1, . . . , m. Pertanto, sostituendo Pn con Pn, risulta Lh = d∗2h < d2h = Lh, per ogni h; quindi Pn non `e coerente.

Nota: poich`e Pm

h=1 λhqhi = P

h:Ch⊆Ei λh , la con- dizione di coerenza Pn ∈ I equivale alla risolubilit`a del seguente sistema

(S)

 P

h:Ch⊆Ei λh = pi , i = 1, . . . , n;

Pm

h=1 λh = 1 , λh ≥ 0 , ∀ h .

(8)

Ricordiamo che Ei = W

h:Ch⊆Ei Ch; allora, se si interpreta λh come probabilit`a del costituente Ch, l’equazione P

h:Ch⊆Ei λh = pi rappresenta la formula P (Ei) = P

h:Ch⊆Ei P (Ch).

Pertanto, ogni soluzione del sistema costituisce un mo- do di assegnare una distribuzione di probabilit`a sui costituenti coerente con l’assegnazione di probabilit`a Pn = (p1, . . . , pn) su Fn = {E1, . . . , En}.

(41)

Esempi. Sia Fn = {E1, E2}.

1. E1, E2 logicamente indipendenti

C1 = E1E2, C2 = E1E2c, C3 = E1cE2, C4 = E1cE2c, Q1 = (1, 1), Q2 = (1, 0), Q3 = (0, 1), Q4 = (0, 0).

I `e il quadrato unitario. P2 = (p1, p2) `e coerente se e solo se appartiene al quadrato.

2. E1E2 = ∅.

C1 = E1E2c, C2 = E1cE2, C3 = E1cE2c, Q1 = (1, 0), Q2 = (0, 1), Q3 = (0, 0).

I `e il triangolo di vertici i punti Qh. P2 = (p1, p2) `e coerente se e solo se appartiene al triangolo.

Un discorso analogo vale nei casi in cui E1E2c = ∅, o E1cE2 = ∅, o E1cE2c = ∅.

3. Gli eventi E1, E2 formano una partizione di Ω.

C1 = E1E2c, C2 = E1cE2, Q1 = (1, 0), Q2 = (0, 1).

(42)

I `e il segmento che unisce i punti Q1 e Q2.

P2 = (p1, p2) `e coerente se e solo se appartiene al segmento, cio`e se e solo se p1 + p2 = 1.

Figura 1: insiemi delle valutazioni coerenti

(43)

Equivalenza dei criteri di penalizzazione e della scommessa.

Teorema 3 Data una famiglia Fn = {E1, . . . , En}, siano, rispettivamente, Ip e Is gli insiemi dei punti previsione Pn = (p1, . . . , pn) coerenti secondo il cri- terio di penalizzazione e quello della scommessa. Si ha Ip = Is.

Dim.

(a) assumiamo Pn ∈ Ip. Allora, per il Teorema 2, esiste un vettore non negativo (λ1, . . . , λm), con P

h λh = 1, tale che Pn = λ1Q1 + · · · + λmQm, ovvero tale che

pi =

m

X

h=1

λhqhi , i = 1, . . . , n ,

da cui segue, per i = 1, . . . , n:

m

X

h=1

λhqhi

m

X

h=1

λh

!

pi =

m

X

h=1

λh(qhi − pi) = 0 .

(44)

Indicando con g1, . . . , gm i possibili valori del guadagno aleatorio

G =

n

X

i=1

Si(Ei − pi) =

n

X

i=1

SiEi

n

X

i=1

Sipi ,

per ogni h si ha

gh =

n

X

i=1

Siqhi

n

X

i=1

Sipi =

n

X

i=1

Si(qhi − pi) . (9)

Allora, per ogni S1, . . . , Sn, si ha P

h λhgh = P

h λh [Pn

i=1 Si(qhi − pi)] =

= Pn

i=1 Si[P

h λh(qhi − pi)] = 0 .

Pertanto, comunque si scelgano S1, . . . , Sn, i valori g1, . . . , gm non possono essere tutti positivi o tut- ti negativi, altrimenti sarebbe P

h λhgh > 0 oppure P

h λhgh < 0. La condizione M in G · M ax G ≤ 0 `e quindi sempre soddisfatta, perci`o Pn ∈ Is.

(45)

(b) assumiamo Pn ∈ I/ p. In questo caso, esiste un iperpiano π, di equazione Pn

i=1 aixi = b, che separa Pn dall’involucro convesso I dei punti Q1, . . . , Qm. Siano

n

X

i=1

aixi = c ,

n

X

i=1

aixi = c1 , · · · ,

n

X

i=1

aixi = cm , le equazioni degli iperpiani, πP, π1, . . . , πm, paral- leli a π e passanti rispettivamente per i punti Pn, Q1, . . . , Qm.

Considerata la funzione f (x1, . . . , xn) = Pn

i=1 aixi e scelti nell’espressione del guadagno aleatorio G i valori S1 = a1, . . . , Sn = an, da (9) segue

gh = f (Qh) − f (Pn) = ch − c , h = 1, . . . , m . Poich`e π separa πP da π1, . . . , πm si ha ch < c per ogni h, oppure ch > c per ogni h, e quindi

M in G · M ax G = (c0 − c)(c00 − c) > 0 ,

dove c0 = M in ch , c00 = M ax ch . Pertanto Pn ∈ I/ s. In conclusione: Pn ∈ Ip ⇔ Pn ∈ Is e quindi Ip = Is.

(46)

Propagazione

Sia Fn = {E1, . . . , En} una famiglia arbitraria di n eventi e sia Pn = {p1, . . . , pn} un’assegnazione di probabilit`a coerente su Fn .

Se consideriamo un ulteriore evento En+1, sorge il problema di come valutare la probabilit`a pn+1 = P (En+1) in modo tale che la valutazione Pn+1 = {p1, . . . , pn, pn+1} su Fn+1 = {E1, . . . , En, En+1} sia coerente.

. . . la scelta di pn+1 non `e arbitraria, ma va fatta in un opportuno intervallo [p0, p00] ⊆ [0, 1].

Infatti, si ha il seguente risultato (teorema fondamentale per le probabilit`a, [8])

Teorema 4 Data un’assegnazione di probabilit`a co- erente Pn = (p1, . . . , pn) su una famiglia Fn = {E1, . . . , En}, con pi = P (Ei), si consideri un ul- teriore evento En+1 e si ponga Fn+1 = Fn∪ {En+1}.

Allora, esiste un intervallo [p0, p00] ⊆ [0, 1] tale che l’estensione Pn+1 = (p1, . . . , pn, pn+1) di Pn su Fn+1

`e coerente se e solo se pn+1 ∈ [p0, p00].

(47)

Pi`u in generale, si ha

Teorema 5 Data un’assegnazione di probabilit`a coerente P su una famiglia di eventi K ed una famiglia K, con K ⊂ K, esiste un’estensione coerente P di P su K, tale che, per ogni E ∈ K, si ha P(E) = P (E).

Nota: l’assegnazione coerente P su K pu`o quindi essere estesa all’algebra AK generata da K.

Esempi.

1. Sia F1 = {E1}, con P (E1) = p1 ∈ [0, 1]. Da- to un evento E2 incompatibile con E1, con E2 6= E1c, si ponga P (E2) = p2.

Per quali valori di p2 la valutazione (p1, p2) su F2 = {E1, E2} `e coerente?

Risposta: osservando che P (E1∨ E2) = p1+ p2 ≤ 1 , si ha p2 ∈ [0, 1 − p1].

(48)

2. Date le probabilit`a P (A) = x, P (B) = y, la valutazione P (A ∨ B) = z `e un’estensione coerente di (x, y) se e solo se

M ax {x, y} ≤ z ≤ M in {1, x + y} ,

mentre la valutazione P (AB) = p `e un’estensione coerente se e solo se

M ax {0, x + y − 1} ≤ p ≤ M in {x, y} .

3. Un sistema S `e costituito da 3 moduli M1, M2, M3. Definiti gli eventi Ai = “il modulo Mi funziona”, i = 1, 2, 3, supponiamo che se Mi funziona allora Mi+1 funziona, i = 1, 2. Posto P (A1) = 14, P (A3) = 106 , de- terminare l’intervallo [p0, p00] delle estensioni coerenti P (A2) = p.

Soluzione: Dalla propriet`a di monotonia della pro- babilit`a segue P (A1) ≤ P (A2) ≤ P (A3) e quindi

1

4 ≤ P (A2) ≤ 35. Si pu`o verificare che [p0, p00] = [14, 35].

(49)

Infatti, essendo A1 ⊆ A2 ⊆ A3, i costituenti sono C1 = A1 ∧ A2 ∧ A3 ; C2 = Ac1 ∧ A2 ∧ A3 ; C3 = Ac1 ∧ Ac2 ∧ A3 ; C4 = Ac1 ∧ Ac2 ∧ Ac3.

Allora, posto P (Ch) = λh, la coerenza della valutazione

P (A1) = 1

4 , P (A3) = 3

5 , P (A2) = p , equivale alla risolubilit`a del sistema

λ1 = 14 , λ1 + λ2 = p , λ1 + λ2 + λ3 = 35 , λ1 + λ2 + λ3 + λ4 = 1 , λh ≥ 0 , ∀ h . Si ha: p = 14 + λ2 = 35 − λ3 , λ2 + λ3 = 207 ;

pertanto, il sistema `e risolubile se e solo se p ∈ [14, 35].

In particolare, le soluzioni del sistema sono tutti e soli i vettori (λ1, λ2, λ3, λ4) = (14, λ, 207 − λ, 25), con λ ∈ [0, 207 ].

(50)

Determinazione dell’intervallo [p0, p00].

Siano C1, . . . , Cm i costituenti relativi alla famiglia Fn = {E1, . . . , En}.

Dato En+1, distinguiamo 3 classi di costituenti:

(i) costituenti che implicano (cio`e favorevoli a) En+1; (ii) costituenti che non implicano En+1, ma sono con esso compatibili;

(iii) costituenti incompatibili con En+1. Definiamo gli insiemi

J1 = {h : Ch ∧ En+1c = ∅} = {h : Ch ∧ En+1 = Ch} , J2 = {h : ∅ ⊂ Ch ∧ En+1 ⊂ Ch} =

= {h : Ch ∧ En+1 6= ∅ , Ch ∧ En+1c 6= ∅} ,

J3 = {h : Ch ∧ En+1 = ∅} = {h : Ch ∧ En+1c = Ch} . Osservando che W

h∈J3 En+1Ch = ∅, si ha En+1 = Wm

h=1 En+1Ch = W

j∈J1∪J2∪J3 En+1Ch =

= · · · =

W

h∈J1 Ch

 ∨  W

h∈J2 En+1Ch

 ,

(51)

e, definendo E0 = W

h∈J1 Ch , E00 = W

h∈J1∪J2 Ch, si ha: E0 ⊆ En+1 ⊆ E00 .

E0 si chiama massimo evento logicamente dipendente da E1, . . . , En contenuto in En+1.

E00 si chiama minimo evento logicamente dipendente da E1, . . . , En contenente En+1.

Se si assegnano le probabilit`a dei costituenti λh = P (Ch) , h = 1, . . . , m, si ha

X

h∈J1

λh = P (E0) ≤ P (En+1) ≤ P (E00) = X

h∈J1∪J2

λh .

Poich`e Pn `e coerente, l’insieme S delle soluzioni Λ = (λ1, . . . , λm) del sistema (8) `e non vuoto. Si ha

p0 = M inΛ∈S P (E0) , p00 = M axΛ∈S P (E00) . I valori p0, p00 si possono calcolare utilizzando il metodo del simplesso della programmazione lineare.

(questo tipo di problemi `e stato studiato in molti lavori;

cfr., ad es., [1], [2], [5], [20]).

(52)

Numeri aleatori semplici

Dati n eventi E1, E2, . . . , En ed n numeri reali x1, x2, . . . , xn, la quantit`a

X = x1 · |E1| + x2 · |E2| + · · · + xn · |En| (10) rappresenta un numero ben determinato ma incognito, detto numero aleatorio semplice, i cui possibili valori si ottengono considerando i costituenti relativi agli eventi E1, . . . , En, ovvero assegnando in tutti i modi possibili i valori agli indicatori degli eventi.

X si pu`o anche considerare come una funzione reale definita sull’insieme dei costituenti C1, . . . , Cm.

L’insieme dei possibili valori di X costituisce il codo- minio CX di tale funzione.

Esempi.

(i) l’indicatore di un evento `e un numero aleatorio semplice;

(ii) il risultato aleatorio X del lancio di un dado `e un numero aleatorio semplice. Definiti gli eventi

Ei = 00esce il numero i 00 , i = 1, 2, . . . , 6,

(53)

si ha: X = 1 · |E1| + 2 · |E2| + · · · + 6 · |E6|.

E1, E2, . . . , E6 formano una partizione e quindi, per il codominio di X, si ha CX = {1, 2, . . . , 6}.

Forma Canonica.

In generale, se {H1, H2, . . . , Hn} `e una partizione di Ω, per il numero aleatorio

X = x1 · |H1| + x2 · |H2| + · · · + xn · |Hn| si ha CX = {x1, x2, . . . , xn}.

Esempio. Dati E1, E2, E3, con E1E2 = ∅, E3 ⊆ E1, sia X = 2|E1| − |E2| + |E3|.

Costituenti generati da E1, E2, E3:

C1 = E1E2cE3 , C2 = E1E2cE3c , C3 = E1cE2E3c , C4 = E1cE2cE3c . Corrispondenti valori di X:

χ1 = 3 , χ2 = 2 , χ3 = −1 , χ4 = 0 .

(54)

Pertanto CX = {−1, 0, 2, 3}. Inoltre

X = 3|C1| + 2|C2| − 1|C3| + 0|C4| .

Quindi, determinando i costituenti e i corrispondenti valori di X, si pu`o passare alla forma canonica.

In generale, dati gli eventi E1, . . . , En, siano C1, . . . , Cm i relativi costituenti. Posto

X = x1|E1| + x2|E2| + · · · + xn|En|

e indicando con χ1, . . . , χm i valori di X associati con C1, . . . , Cm, si ha

X = χ1|C1| + χ2|C2| + · · · + χm|Cm| .

Fissato Ch, si ha: |Ei| = 1 ⇔ Ch ⊆ Ei; quindi: χh = P

i:Ch⊆Ei xi , h = 1, . . . , m.

Riferimenti

Documenti correlati

Ipotizzi- amo che il processo di arrivo alle casse sia di Poisson con tale parametro (`e un’ipotesi: un conto `e il processo delle entrate nel negozio, un altro il pro- cesso

Si stabilisce allora di seguire questa procedura: se in coda ci sono al pi`u tre pezzi (incluso il pezzo in lavorazione), li lavora completamente; appena ce ne sono pi`u di

ii) Supponiamo che entrambe le stazioni siano messe in funzione. Ogni verniciatura dura in media 30 minuti. Se entrambe le stazioni sono impegnate ed arrivano da verniciare

i) Supponiamo che i semilavorati vengano messi sul rullo A con cadenza poissoniana, alla media di 1 al minuto. L’operaio della stazione A che li riceve, impiega mediamente 30 secondi

5) Immaginare la semplificazione pi`u ragionevole del meccanismo de- scritto al punto 4, tale per cui possiamo considerare un modello markoviano pi`u semplice,

La probabilit`a che arrivi una vettura in deposito nell’unit`a temporale `e 10 1 , fin tanto che ce ne sono fuori deposito; la probabilit`a che parta una vettura dal

Il comportamento dei tre parametri `e indipendente. Ogni parametro perde memoria del suo valore molto rapidamente, per cui il suo valore al controllo successivo dipende solo

In un impianto di produzione c’`e un forno che opera relativa- mente a due diversi semilavorati, che chiameremo di tipo A e tipo B. Quando un semilavorato di tipo A arriva al forno,