• Non ci sono risultati.

1.2 Definizione assiomatica di probabilit`a . . . 2

N/A
N/A
Protected

Academic year: 2021

Condividi "1.2 Definizione assiomatica di probabilit`a . . . 2"

Copied!
330
0
0

Testo completo

(1)
(2)

PARTE PRIMA

PROBABILITA’

CAPITOLO I - Gli assiomi della probabilit` a

1.1 Introduzione . . . pag. 1

1.2 Definizione assiomatica di probabilit`a . . . 2

1.2.1 Logica degli eventi . . . 2

1.2.2 Campo di Borel . . . 3

1.2.3 Assiomi della probabilit`a . . . 5

1.3 Probabilit`a condizionata . . . 9

1.4 Eventi indipendenti . . . 10

1.5 Formula di Bayes . . . 12

1.6 Problemi risolti . . . 16

CAPITOLO II - Variabili aleatorie 2.1 Definizioni . . . 23

2.1.1 Funzione di distribuzione . . . .25

2.1.2 Densit`a di probabilit`a . . . 27

2.2 Momenti di variabili aleatorie . . . 30

2.3 Distribuzioni notevoli in Probabilit`a e Statistica . . . .33

2.3.1 Distribuzione uniforme . . . 33

2.3.2 Distribuzione normale . . . 34

2.3.3 Distribuzione Gamma . . . 36

2.3.4 Distribuzione esponenziale . . . 37

2.3.5 Distribuzione di Maxwell . . . 38

2.3.6 Distribuzione t-Student . . . 39

(3)

2.3.7 Distribuzione Chi-quadrato . . . 41

2.3.8 Distribuzione F di Fisher . . . .42

2.3.9 Distribuzione binomiale . . . 43

2.3.10 Distribuzione di Poisson . . . 49

2.3.11 Distribuzione geometrica e ipergeometrica . . . 51

2.3.12 Distribuzione Beta . . . 54

2.3.13 Distribuzione di Weibull . . . 56

2.4 Problemi risolti . . . 57

CAPITOLO III - Variabili aleatorie multidimensionali 3.1 Coppie di variabili aleatorie . . . 69

3.1.1 Momenti congiunti . . . 71

3.1.2 Coppie di v.a. indipendenti . . . 73

3.1.3 Coppie di v.a. discrete . . . 77

3.2 Caso di n variabili aleatorie . . . 80

3.3 Trasformate delle densit`a di probabilit`a . . . 84

3.3.1 Funzione caratteristica . . . 84

3.3.2 Funzione generatrice dei momenti . . . 90

3.4 Problemi risolti . . . 92

CAPITOLO IV - Trasformazioni di variabili aleatorie 4.1 Generalit`a . . . 95

4.2 Funzioni di una variabile casuale . . . 96

4.2.1 Calcolo della funzione di distribuzione . . . 96

4.2.2 Calcolo diretto della densit`a . . . 101

4.2.3 Trasformazioni invertibili . . . 103

4.2.4 Momenti di Y (ω) = g[X(ω)] . . . 105

4.2.5 Trasformazioni lineari . . . 106

4.3 Funzioni di due o pi` u variabili casuali . . . 109

4.4 Trasformazioni n-dimensionali . . . 118

4.5 Problemi risolti . . . 122

(4)

CAPITOLO V - Processi stocastici

5.1 Definizioni . . . 127

5.1.1 Momenti . . . 128

5.1.2 Processi indipendenti . . . 128

5.1.3 Processi senza memoria . . . 129

5.1.4 Processi stazionari . . . 129

5.2 Esempi notevoli . . . .130

5.3 Processi di Markov . . . 136

5.4 Catene di Markov . . . 137

5.4.1 Matrice di transizione . . . 138

5.4.2 Classificazione degli stati . . . .141

5.4.3 Probabilit`a invarianti . . . 143

*********************************************** PARTE SECONDA STATISTICA CAPITOLO VI - Statistica descrittiva 6.1 Introduzione . . . 147

6.2 Distribuzioni di frequenze . . . 148

6.3 Indici di tendenza centrale e di dispersione . . . 150

6.3.1 Medie, moda, mediana, quantili . . . 150

6.3.2 Indici di dispersione . . . 154

6.3.3 Stem-and-leaf e box-plot . . . 158

6.4 Distribuzioni congiunte di frequenze . . . 161

6.5 Regressione lineare . . . 163

6.6 Regressione multipla . . . 168

6.7 Regressione non lineare . . . 169

(5)

6.8 Problemi risolti . . . 171

CAPITOLO VII - Distribuzioni campionarie 7.1 Modelli statistici . . . 181

7.2 Teoria dei campioni . . . 183

7.3 Distribuzione campionaria delle medie . . . 185

7.3.1 Campionamento con ripetizione . . . 185

7.3.2 Campionamento senza ripetizione . . . 187

7.4 Distribuzione campionaria delle varianze . . . 191

7.4.1 Campionamento con ripetizione . . . 191

7.4.2 Campionamento senza ripetizione . . . 193

7.5 Distribuzione campionaria delle frequenze . . . 195

7.6 Problemi risolti . . . 197

CAPITOLO VIII - Stime di parametri 8.1 Stima puntuale . . . 203

8.1.1 Stima puntuale di medie e varianze . . . 205

8.1.2 Stima di massima verosimiglianza . . . 206

8.1.3 Metodo dei momenti . . . 210

8.2 Stima per intervalli . . . 211

8.2.1 Intervalli di confidenza per la media . . . .212

8.2.1.1 Popolazione con varianza nota . . . 212

8.2.1.2 Popolazione con varianza sconosciuta . . . 215

8.2.2 Intervalli di confidenza per la varianza . . . 224

8.3 Problemi risolti . . . 228

CAPITOLO IX - Test parametrici di ipotesi statistiche 9.1 Principi generali di un test statistico . . . 239

9.2 Test parametrici . . . 241

9.3 Test di Neyman-Pearson tra ipotesi semplici . . . 242

9.4 Test parametrici con ipotesi composte . . . 245

(6)

9.4.1 Test sul valor medio per il modello normale . . . 246

9.4.1.1 Modello Normale-1: popolazione con varianza nota . . . 246

9.4.1.2 Modello Normale generale: varianza sconosciuta . . . 249

9.4.1.3 Popolazione con distribuzione non Normale . . . 250

9.4.2 Test sulla varianza . . . 258

9.4.3 Test di Fisher per il rapporto tra varianze . . . 263

9.4.4 Test di incorrelazione . . . 265

9.4.5 Ipotesi H

0

e H

1

composte . . . 266

9.4.6 Test del rapporto di verosimiglianza . . . .268

9.5 Problemi risolti . . . 269

CAPITOLO X - Test non parametrici 10.1 Test sulla legge di distribuzione . . . 279

10.1.1 Test di Kolmogorov-Smirnov . . . 280

10.1.2 Test Chi-quadrato . . . 282

10.2 Test di omogeneit`a . . . 292

10.2.1 Test dei segni . . . 293

10.2.2 Test dei ranghi . . . 295

10.2.3 Test di Smirnov . . . 297

10.2.4 Test Chi-quadrato di omogeneit`a per pi` u campioni . . . 298

10.3 Test di indipendenza . . . 303

10.3.1 Test Chi-quadrato di indipendenza . . . 303

10.3.2 Test di Spearman . . . 305

10.4 Test sulla casualit`a di un campione . . . 307

10.4.1 Test di correlazione seriale . . . 308

10.4.2 Run test . . . 310

BIBLIOGRAFIA . . . 313

APPENDICE Tavole delle distribuzioni . . . 315

Normale standard . . . 316

(7)

t-Student . . . 317

Poisson . . . 318

Chi-quadrato . . . 320

Fisher . . . 321

Kolmogorov-Smirnov . . . 322

(8)
(9)

GLI ASSIOMI DELLA PROBABILITA’

1.1 Introduzione

Nel Calcolo delle Probabilit`a si elaborano modelli matematici per la valutazione ri- gorosa del concetto primitivo di probabilit`a che un esperimento casuale si concretizzi in un determinato evento. Ma cos’`e la probabilit`a di un evento? Ne esistono almeno quattro definizioni principali, da cui si originano altrettante teorie matematiche, elaborate dalla seconda met`a del XXVII secolo fino ai giorni nostri. Esse sono:

1)

Definizione classica

: la probabilit`a P (A) di un evento A `e il rapporto tra il numero N

A

dei casi favorevoli e il numero N dei casi possibili:

P (A) = N

A

/N.

E’ questa una definizione aprioristica, nel senso che P (A) `e definita senza far ricorso ad alcuna effettiva prova sperimentale. La sua applicabilit`a `e limitata allo studio di quel fenomeni casuali in cui si pu`o assumere che il numero N dei casi possibili sia finito, e che questi siano tutti, a priori, egualmente probabili.

2)

Definizione frequentista

, ovvero basata sul concetto, particolarmente familiare ai fisici, di frequenza relativa di un evento: se un esperimento `e ripetuto n volte, e l’evento A si presenta n

A

volte, allora la sua probabilit`a `e il limite della frequenza relativa:

P (A) = lim

n→∞

n

A

/n

quando il numero delle prove tende ad infinito. Questa definizione implica l’ipotesi preliminare che le prove ripetute si svolgano in condizioni identiche, il che, al pari della definizione classica, ne restringe l’applicabilit`a a una classe piuttosto ristretta di fenomeni casuali.

3)

Definizione soggettivista

, come misura di un’opinione personale: la probabilit`a di un evento `e il grado di fiducia che si ha nel verificarsi di esso. Per esempio:

1

(10)

la probabilit`a che in un processo giudiziario l’imputato sia giudicato colpevole `e una misura della nostra conoscenza dei fatti e della nostra abilit`a deduttiva. Tale definizione si formalizza adottando lo schema tipico delle scommesse regolate da condizioni di equit`a: la probabilit`a dell’evento `e misurata dal prezzo che un individuo ritiene equo pagare per ricevere ”1” se l’evento si realizza, e ”0” se non si verifica.

4)

Definizione assiomatica

, la cui formalizzazione matematica (che `e quella che seguiremo) risale ad A. N. Kolmogorov (1933). Essa consiste nell’introdurre un opportuno insieme di assiomi, verificando a posteriori il significato fisico e la validit`a della teoria matematica cos´ı precisata.

1.2 Definizione assiomatica di probabilit` a

Oggetto della teoria matematica sviluppata nel Calcolo delle Probabilit`a `e un generi- co esperimento casuale, la cui singola esecuzione `e chiamata prova dell’esperimento.

Il risultato (o esito) della prova si indica con ω. L’insieme di tutti i possibili esiti costituisce lo spazio campione Ω associato all’esperimento casuale. Un evento A relativo al medesimo esperimento `e un certo insieme di risultati ω, ovvero un sot- toinsieme dello spazio campione Ω . Se un risultato ω ∈ A, si dice che esso realizza l’evento A. Se l’insieme A ⊂ Ω `e costituito da un solo elemento ω, allora quest’ultimo prende il nome di evento elementare; altrimenti A `e un evento composto.

1.2.1 Logica degli eventi

Le definizioni che seguono riguardano operazioni sugli eventi, e si possono formal- mente rappresentare come indicato nello schema riassuntivo di Fig.1.1.

• Dati due eventi A, B ⊆ Ω, si dice che A implica B se `e A ⊂ B.

• I due eventi sono incompatibili se non esiste alcun risultato ω che realizzi sia A che B, ovvero se `e A ∩ B = ®, dove ® `e l’insieme vuoto.

• Al contrario, se A e B non sono incompatibili, l’insieme non vuoto (A ∩ B) `e costituito da tutti i risultati ω che realizzano sia A che B.

• L’insieme (A∪B) indica invece la realizzazione dell’evento A, oppure dell’evento B, oppure di entrambi.

• Se non si realizza un evento A, allora si realizza il suo complementare in A = Ω \ A in Ω, negazione dell’evento A. Ne segue subito che Ω `e l’evento certo e

® `e l’evento impossibile.

(11)

Figura 1.1

1.2.2 Campo di Borel

Gli eventi A

i

, i = 1, 2, . . . relativi ad un determinato esperimento casuale sono sottoinsiemi dello spazio campione Ω, sui quali effettuiamo operazioni di unione, intersezione, differenza come indicato in Fig.1. Al fine di attribuire a ciascun evento una misura di probabilit`a, si richiede a tali eventi di soddisfare il seguente requisito fondamentale: qualunque operazione su di essi deve essere a sua volta un evento definito in Ω.

Questa propriet`a si formalizza dicendo che gli eventi devono costituire un campo C, ovvero una classe additiva di insiemi A

i

, non vuota e chiusa rispetto alla negazione e all’unione. Se esiste un insieme numerabile

1

di infiniti eventi A

i

, questi devono formare un campo di Borel (o σ-algebra) cos´ı definito:

Definizione 1

. Un campo di Borel B `e la classe costituita da una infinit`a numerabile

1Ricordiamo che un insieme di infiniti elementi `e numerabile se esiste una corrispondenza uno- a-uno tra gli elementi dell’insieme e tutti gli interi positivi. Ad esempio: l’insieme IR dei numeri reali non `e numerabile; l’insieme {1, 2, 3, ..} `e numerabile.

(12)

di insiemi A

i

∈ Ω, tale che:

1) A

i

∈ B A

i

= Ω\A

i

∈ B

2) A

i

∈ B

[ i=1

A

i

∈ B;

\ i=1

A

i

∈ B 3) ® ∈ B; Ω ∈ B.

Dunque, un campo di Borel `e caratterizzato dalla propriet`a che qualsiasi operazione sugli insiemi che lo formano d`a luogo ad un insieme nello stesso campo, anche se gli insiemi sono una infinit`a numerabile.

Esempio 1.1: lancio di un dado

Consideriamo come singola prova di un esperimento casuale il classico esempio del lancio di un dado, che ha come risultati (eventi) possibili ω l’uscita di un numero intero, compreso tra 1 e 6. Lo spazio campione `e Ω = {1, 2, 3, 4, 5, 6}, ovvero `e costituito da un numero finito di elementi ω, cui si attribuisce il significato di eventi elementari. Essi formano un insieme di eventi necessari e a due a due incompati- bili, poich´e {i} ∩ {j} = ® per ogni i 6= j = 1, .., 6. Ma esistono molti altri eventi in questo esperimento casuale: ad esempio, l’uscita di un numero pari, che `e cos- tituita dall’evento E = {2, 4, 6} composto dai tre eventi elementari che lo realiz- zano; oppure l’uscita di un numero ”basso” definita dall’evento E

0

= {1, 2}; ecc.

Inoltre: l’intersezione {2, 4, 6} ∩ {1, 2}, che coincide con l’evento elementare {2}, indica l’evento: ”uscita di un numero pari e basso”. L’evento: {1, 3, 5} ∪ {5, 6}

indica l’uscita di un numero dispari, oppure di un numero maggiore di 4, oppure di un numero dispari e maggiore di 4” (ovvero dell’intersezione dei due eventi, cos- tituita dall’evento elementare {5}). Il complementare dell’insieme A = {1, 2, 3, 5}

composto dai numeri primi minori di 7, ovvero l’evento Ω\A = {4, 6}, indica l’uscita di un numero che non sia primo (negazione di A).

Tutti i possibili eventi si presentano in questo esperimento come sottoinsiemi di Ω , ed `e facile verificare che il loro numero complessivo `e la somma delle combinazioni di classe k di sei elementi:

X6

k=0

Ã

6 k

!

= 2

6

= 64,

compresi l’insieme vuoto (per k = 0) e l’insieme Ω (per k = 6). Essi costituiscono un campo C, perch`e soddisfano tutte le condizioni di additivit`a sopra precisate.

Se per`o siamo interessati solo ad alcuni eventi relativi a questo esperimento, `e preferi-

bile definire una diversa classe additiva, che costituisca un campo C

0

contenente il

minor numero possibile di eventi, compresi quelli che interessano. Si pu`o costruire

questo campo C

0

con successive operazioni di unione e negazione che, a partire dagli

insiemi dati, coinvolgano tutti gli eventi che via via si aggiungono. Ad esempio, se

(13)

siamo interessati all’evento: ”uscita di un numero pari”, il campo C

0

da considerare

`e composto dai quattro insiemi:

C

0

: ®, {2, 4, 6}, {1, 3, 5}, Ω

che costituiscono rispettivamente: la ”negazione” {1, 3, 5} dell’evento ”numero pari”;

l’unione Ω degli eventi ”pari” e ”dispari”, e la negazione dell’evento unione Ω . C’ `e un campo, perch´e qualsiasi operazione sugli insiemi che lo compongono d`a luogo a un insieme anch’esso contenuto in C

0

. Al contrario, la classe:

C” : ®, {2, 4, 6}, {1, 3, 5}, {1, 2}, Ω non `e un campo, perch´e {2, 4, 6} ∪ {1, 2} = {1, 2, 4, 6} 6∈ C”. /

Esempio 1.2: misura di una grandezza

Il valore teorico di una generica grandezza fisica `e espresso da un numero reale, e in tal senso alla sua misura sperimentale associamo uno spazio campione Ω costituito dall’asse reale (o da un suo intervallo, se siamo in grado di precisarlo a priori). Per definire una classe additiva di eventi che sia compatibile con l’esperimento della mis- urazione, suddividiamo l’asse reale in intervalli di ampiezza assegnata (ad esempio:

gli intervalli aperti a sinistra e chiusi a destra, di ampiezza unitaria e aventi per centro tutti i numeri interi), in modo che qualsiasi risultato della misurazione possa appartenere ad uno di tali intervalli. Quindi, con operazioni successive di unione e negazione, aggiungiamo altrettanti insiemi agli intervalli inizialmente considerati. Il limite a cui tende la classe degli eventi cos´ı definiti `e il campo di Borel B associ- ato alla misura sperimentale che effettuiamo. Si pu`o dimostrare che tale campo di Borel si genera anche a partire da tutti gli intervalli (−∞, x

1

] con x

1

reale qualsiasi;

esso contiene anche tutti gli intervalli [x

1

, x

2

], (x

1

, x

2

), i punti x = x

1

e l’infinit`a numerabile delle loro unioni e intersezioni. /

1.2.3 Assiomi della probabilit` a

Siamo ora in grado di attribuire una misura di probabilit`a a ciascun evento A

i

la cui collezione, come si `e appena visto, forma nel caso pi` u generale un campo di Borel B.

Definizione 2.

La probabilit`a `e un funzionale P : B → [0, 1] che verifica i seguenti assiomi:

I. P (Ω) = 1

II. i 6= j, A

i

∩ Aj = ® ⇐⇒ P (A

i

∪ A

j

) = P (A

i

) + P (A

j

).

La formulazione matematica del modello probabilistico `e cos´ı completa: essa consiste

nell’insieme (Ω, B, P ) chiamato spazio di probabilit`a, e permette di assegnare un

(14)

numero reale non negativo P (A

i

) che chiamiamo probabilit`a di A

i

, agli eventi che formano un campo di Borel B, costituito da sottoinsiemi di uno spazio campione Ω associato all’esperimento casuale.

L’assioma I attribuisce probabilit`a 1 all’evento certo Ω, senza tuttavia escludere a priori che esistano altri eventi, diversi da Ω, con probabilit`a 1. Se `e teoricamente possibile un evento A 6= Ω tale che P (A) = 1, si dice che questo evento `e quasi certo.

L’assioma II esprime la propriet`a additiva del funzionale P tra due eventi fra loro incompatibili. Tale propriet`a si generalizza subito a un insieme finito o infinito di eventi a due a due incompatibili, con una delle due relazioni seguenti:

II

0

) i 6= j, A

i

∩ A

j

= ® ⇐⇒ P

à n

[

i=1

A

i

!

=

Xn i=1

P (A

i

)

rII”) i 6= j, A

i

∩ A

j

= ® ⇐⇒ P

Ã

[

n

i=1

A

i

!

=

X

i=1

P (A

i

)

l’ultima delle quali esprime la additivit`a infinita, o σ-additivit`a, dell’insieme {A

i

, i = 1, 2, . . .} di eventi a due a due incompatibili.

Dagli assiomi I), II) della probabilit`a si deducono svariate propriet`a di P . Le pi` u significative sono le seguenti:

• C1. P (A

i

) = 1 − P (A

i

)

• C2. P (®) = 0

• C3. A

i

⊂ A

j

: P (A

i

) ≤ P (A

j

)

• C4. ∀A

i

∈ B : 0 ≤ P (A

i

) ≤ 1

• C5. A

i

∩ A

j

6= ® : P (A

i

∪ A

j

) = P (A

i

) + P (A

j

) − P (A

i

∩ A

j

).

La propriet`a C1 si dimostra considerando che per l’assioma I si ha P (Ω) = P (A

i

A

i

) = 1, e poich`e A

i

e il suo complementare sono incompatibili, si ricava per l’assioma II: P (A

i

) + P (A

i

) = 1.

La C2 si deduce dalla C1 perch`e l’insieme vuoto `e il complementare di Ω e quindi P (®) = 1 − P (Ω) = 0.

La C3 afferma che P `e un funzionale crescente di B in [0, 1], e si dimostra applicando l’assioma II agli eventi (incompatibili) A

i

e (A

j

\A

i

). Si trova: P (A

j

) = P (A

i

(A

j

\A

i

)) = P (A

i

) + P (A

j

\A

i

) e poiche’ l’insieme (A

j

\A

i

) non `e vuoto per ipotesi, risulta P (A

j

\A

i

) ≥ 0.

La C4 si prova osservando che se A

i

⊂ Ω non `e vuoto, `e anche ® = Ω ⊂ A

i

e per la

C3 valgono entrambe le diseguaglianze: P (A

i

) ≥ P (®) = 0 e P (A

i

) ≤ P (Ω) = 1.

(15)

W

Ai A j

Ai Aj Ai Aj

Figura 1.2

La C5 `e la generalizzazione dell’assioma II per eventi non incompatibili, e si dimostra come segue. Consideriamo l’evento A

i

∪ A

j

= A

i

∪ (A

i

∩ A

j

) che si pu`o esprimere (v.

Fig. 1.2) mediante l’unione dei due eventi incompatibili A

i

e (A

i

∩A

j

). Per l’assioma II si ha allora P (A

i

∪ A

j

) = P (A

i

) + P (A

i

∩ A

j

). Ma anche A

j

`e esprimibile con l’unione: (A

i

∩ A

j

) ∪ (A

i

∪ A

j

) di due eventi incompatibili, e per esso l’assioma II fornisce: P (A

j

) = P (A

i

∩ A

j

) + P (A

i

∩ A

j

). Eliminando P (A

i

∩ A

j

) dalle due precedenti eguaglianze, si ricava la C5.

Esempio 1.3: eventi elementari equiprobabili

Si `e visto (Esempio 1.1) che nel lancio di un dado sei eventi elementari, a due a due incompatibili, costituiscono lo spazio campione Ω = {1, 2, 3, 4, 5, 6}. Per gli assiomi I e II’ si ha subito: P (Ω) = P ({1} ∪ {2} ∪ . . . ∪ {6}) =

Pi

P {i} = 1 e se ammettiamo che ciascun evento elementare abbia uguale probabilit`a di realizzarsi (ovvero se operiamo con un dado ”non truccato”), la probabilit`a di ciascuno vale:

∀i = 1, .., 6 : P (i) = 1/6.

Sempre per l’assioma II’, l’evento composto: ”esce un numero pari” ha probabilit`a P (2, 4, 6) = P (2) + P (4) + P (6) = 1/2

mentre l’uscita di un ”numero che non sia primo” ha probabilit`a P (4, 6) = P (4) + P (6) = 2/6 = 1/3.

Se si effettua per due volte il lancio dello stesso dado non truccato, gli eventi ele- mentari sono 6

2

= 36, e la probabilit`a che esca due volte lo stesso numero vale

P (11, 22, 33, 44, 55, 66) =

X

i

P (ii) = 6/36 = 1/6. /

(16)

Questo esempio esprime il seguente risultato di carattere generale:

Se lo spazio campione consiste di un numero finito N di eventi elementari equi- probabili, la probabilit`a di un evento A

i

composto da N

A

eventi elementari vale

P (A

i

) = N

A

/N (1.1)

e coincide con la definizione ”classica” di probabilit`a, citata nella Introduzione.

Esempio 1.4

Nel lancio di una moneta, i possibili eventi elementari sono soltanto due: T = {esce

”testa”} e C = {esce ”croce”}. Lo spazio campione associato ad una singola prova

`e Ω = {T C}; se la moneta `e lanciata due volte si ha Ω = {T T, T C, CT, CC} e per n prove ripetute Ω `e formato da 2

n

eventi elementari equiprobabili, con probabilit`a 1/2

n

. Sulla base del risultato espresso dalla (1.1), si verifica subito che nei lanci ripetuti della moneta si ha:

P {C nel secondo di due lanci } = 1/2 P {C nei primi due di tre lanci } = 1/4 P {T in due qualsiasi di quattro lanci } = 3/8

P {T per la prima volta all’n-esimo lancio } = 1/2

n

. /

Esempio 1.5: distribuzione uniforme in

[0, T ]

Estendiamo al caso continuo il risultato dell’Esempio 1.3. Supponiamo che lo spazio campione sia l’intervallo [0, T ] ∈ IR e che gli eventi A

i

relativi ad un esperimento casuale siano una infinit`a numerabile di intervalli in [0, T ]. Supponiamo inoltre che si richieda di assegnare uguali probabilit`a ad eventi definiti da intervalli di uguale ampiezza. Questa ipotesi implica la definizione di una distribuzione uniforme di probabilit`a in [0, T ], e determina univocamente P (A

i

). Infatti, se pensiamo di sud- dividere Ω in n intervalli I di eguale ampiezza T /n e senza elementi comuni, per l’assioma II’ la loro probabilit`a vale P (I) = 1/n. Un evento A definito dalla unione di k intervalli I ha probabilit`a

P (A) = k n = kT

nT = L(A) L(Ω) ,

uguale al rapporto tra le ampiezze L(A), L(Ω) degli intervalli A ed Ω. In particolare,

se Ω `e l’intervallo unitario, P (A) coincide con la misura di Lebesgue di A. E poich´e la

misura di Lebesgue `e una funzione continua degli intervalli, se ne deduce il seguente

risultato.

(17)

In una distribuzione uniforme di probabilit`a nell’intervallo [O, T ], la probabilit`a del generico evento A

i

di ampiezza L(A

i

) vale:

P (A

i

) = L(A

i

) T .

Ne segue, tra l’altro, che ogni punto t di Ω ha probabilit`a nulla: P (t) = 0, ∀t ∈ [0, T ] poich´e t `e un insieme di misura nulla.

1.3 Probabilit` a condizionata

Assegnato un evento A

j

∈ B con probabilit`a non nulla, la probabilit`a di un altro evento A

i

∈ B, condizionata da A

j

si indica con P (A

i

| A

j

) e vale:

P (A

i

| A

j

) = P (A

i

∩ A

j

)

P (A

j

) . (1.2)

Essa indica la probabilit`a che che si realizzi A

i

sapendo che A

j

si `e verificato; oppure:

la probabilit`a di A

i

in una prova valida solo se si verifica anche A

j

. Le probabilit`a condizionate soddisfano tutte le propriet`a che discendono dagli assiomi I, II. In particolare:

• Se A

i

⊂ A

j

, allora A

i

∩ A

j

= A

i

e quindi:

A

i

⊂ A

j

=⇒ P (A

i

| A

j

) = P (A

i

)/P (A

j

) > P (A

i

).

• Se A

i

⊃ A

j

, allora A

i

∩ A

j

= A

j

e quindi:

A

i

⊃ A

j

=⇒ P (A

i

| A

j

) = 1.

• Se A

i

e A

j

sono incompatibili, allora A

i

∩ A

j

= ® e quindi:

A

i

∩ A

j

= ® =⇒ P (A

i

| A

j

) = 0.

La definizione (1.2) si pu`o anche scrivere:

P(A

i

∩ A

j

) = P(A

j

)P(A

i

| A

j

) (1.3) e si estende al caso di n eventi A

1

, .., A

n

∈ B nella forma seguente

P(A

1

∩ A

2

∩ ... ∩ A

n

) = P(A

1

)P(A

2

| A

1

)P(A

3

| A

1

∩ A

2

) · · ·

· · · P(A

n

| A

1

∩ A

2

∩ · · · ∩ A

n−1

) (1.4)

che esprime la legge delle probabilit` a composte, molto utile in svariate appli-

cazioni, come mostra l’esempio che segue.

(18)

Esempio 1.6: estrazione senza reimbussolamento

Da un’urna contenente 6 palline bianche e 4 nere si estrae una pallina per volta, senza reintrodurla nell’urna. Indichiamo con B

i

l’evento: ”esce una pallina bianca alla i-esima estrazione” e con N

i

l’estrazione di una pallina nera. L’evento: ”escono due palline bianche nelle prime due estrazioni” `e rappresentato dalla intersezione {B

1

∩ B

2

}, e la sua probabilit`a vale, per la (1.3):

P (B

1

∩ B

2

) = P (B

1

)P (B

2

| B

1

).

Ora, P (B

1

) vale 6/10, perch´e nella prima estrazione Ω `e costituito da 10 elementi:

6 palline bianche e 4 nere. La probabilit`a condizionata P (B

2

| B

1

) vale 5/9, perch`e nella seconda estrazione se `e verificato l’evento B

1

lo spazio campione consiste di 5 palline bianche e 4 nere. Si ricava pertanto: P (B

1

∩ B

2

) = 1/3. In modo analogo si ha che

P (N

1

∩ N

2

) = P (N

1

)P (N

2

| N

1

) = (4/10) · (3/9) = 4/30.

Se l’esperimento consiste nell’estrazione successiva di 3 palline, la probabilit`a che queste siano tutte bianche vale, per la (1.4):

P (B

1

∩ B

2

∩ B

3

) = P (B

1

)P (B

2

| B

1

)P (B

3

| B

1

∩ B

2

)

dove la probabilit`a P (B

3

| B

1

∩B

2

) si calcola supponendo che si sia verificato l’evento condizionante {B

1

∩ B

2

}. Lo spazio campione per questa probabilit`a condizionata

`e allora costituito da 4 palline bianche e 4 nere, per cui P (B

3

| B

1

∩ B

2

) = 1/2 e quindi: P (B

1

∩ B

2

∩ B

3

) = (1/3) · (1/2) = 1/6. La probabilit`a dell’estrazione di tre palline nere `e invece:

P (N

1

∩ N

2

∩ N

3

) = P (N

1

)P (N

2

| N

1

)P (N

3

| N

1

∩ N

2

) = 4 10 · 3

9 · 2 8 = 1

30 . /

1.4 Eventi indipendenti

Due eventi A

i

, A

j

si dicono statisticamente indipendenti se e solo se:

P (A

i

∩ A

j

) = P (A

i

)P (A

j

) . (1.5) Tale definizione esprime il concetto intuitivo di indipendenza di un evento da un altro, nel senso che il verificarsi di A

i

non influisce sulla probabilit`a del verificarsi di A

j

, ovvero non la condiziona. Infatti, per la definizione (1.2) di probabilit`a condizionata, si ha che se vale la (1.5) risulta:

P (A

i

| A

j

) = P (A

i

)P (A

j

)/P (A

j

) = P (A

i

).

(19)

e dunque la conoscenza del verificarsi di A

j

non modifica la valutazione della prob- abilit`a dell’evento A

i

da esso statisticamente indipendente.

Si noti bene che il concetto di indipendenza `e del tutto differente da quello di in- compatibilit`a. In effetti, due eventi incompatibili (per i quali si ha A

i

∩ A

j

= ®) sono strettamente dipendenti statisticamente, poich`e il verificarsi dell’uno esclude il verificarsi dell’altro. Per la propriet`a C2 del §1.2.3, la probabilit`a della loro inter- sezione `e nulla: P (A

i

∩ A

j

) = 0 e di conseguenza, per confronto con la (1.5), due eventi incompatibili possono essere anche statisticamente indipendenti solo nel caso banale in cui almeno uno di essi abbia probabilit`a nulla, ovvero sia quasi impossibile.

Se due eventi con probabilit`a non nulla sono statisticamente indipendenti, la legge delle probabilit`a totali espressa dalla propriet`a C5 del §1.2.3 si modifica nella re- lazione seguente:

P (A

i

∪ A

j

) = P (A

i

) + P (A

j

) − P (A

i

)P (A

j

).

La definizione di indipendenza si estende al caso di un insieme finito o infinito di eventi A

i

, i quali si dicono statisticamente indipendenti se e solo se, per qualunque sottoinsieme {A

1

, . . . , A

n

} di n eventi, si verifica la condizione:

P (A

1

∩ A

2

∩ . . . ∩ A

n

) = P (A

1

)P (A

2

) · · · P (A

n

). (1.6) Ci`o significa, in particolare, che tre eventi A, B, C sono statisticamente indipendenti se lo sono a due a due, e se inoltre:

P (A ∩ B ∩ C) = P (A)P (B)P (C).

Esempio 1.7

Nel lancio di un dado non truccato, si considerino gli eventi: A = {esce un numero minore di 3} e B = {esce un numero pari}. Questi due eventi sono statisticamente indipendenti. Infatti, le loro probabilit`a valgono: P (A) = P (1, 2) = 1/3; P (B) = P (2, 4, 6) = 1/2 e la probabilit`a della loro intersezione vale:

P {(1, 2) ∩ (2, 4, 6)} = P (2) = 1/6 ≡ P (A)P (B).

Come verifica, si pu`o osservare che la probabilit`a dell’evento A condizionata da B coincide con la sua probabilit`a non condizionata:

P {(1, 2) | (2, 4, 6)} = P {(1, 2) ∩ (2, 4, 6)}

P (2, 4, 6) = 1/6

1/2 = 1/3 ≡ P (1, 2)

Nel lancio ripetuto di una moneta (cfr. l’Esempio 1.4) in cui lo spazio campione `e

Ω = {T T, T C, CT, CC}, si considerino gli eventi composti: A

1

= {T T, T C}, A

2

=

(20)

{T C, CT } e A

3

= {T T, CT }, ciascuno con probabilit`a 1/2. I tre eventi non sono statisticamente indipendenti, anche se lo sono a due a due. Infatti:

P (A

1

∩ A

2

) = P {T C} = 1/4 = P (A

1

)P (A

2

) P (A

1

∩ A

3

) = P {T T } = 1/4 = P (A

1

)P (A

3

) P (A

2

∩ A

3

) = P {CT } = 1/4 = P (A

2

)P (A

3

), ma si ha anche:

P (A

1

∩ A

2

∩ A

3

) = P (®) = 0 6= P (A

1

)P (A

2

)P (A

3

) e dunque non `e verificata la condizione (1.6) per n = 3. /

Esempio 1.8: componenti in serie e in parallelo

Si abbia un generico sistema (ad es. una macchina, un dispositivo di controllo, un circuito, una rete di comunicazione tra centri abitati, ecc.) costituito da n compo- nenti con funzionamento statisticamente indipendente, che sono operativi ciascuno con probabilit`a P

i

, i = 1, . . . , n. Il collegamento `e in serie se tutti i componenti devono essere operativi perch´e lo sia il sistema; `e in parallelo se `e sufficiente il fun- zionamento di un solo componente per rendere operativo il sistema.

Indichiamo con A

i

l’evento: ”`e operativo l’i-esimo componente” e con B l’evento:

”il sistema `e operativo”. L’intersezione degli eventi A

i

, i = 1, . . . , n indica l’evento:

”tutti i componenti sono operativi”, e l’intersezione delle loro negazioni A

i

= Ω\A

i

`e l’evento: ”nessun componente `e operativo”.

Poich`e A

i

sono indipendenti, le loro probabilit`a soddisfano la (1.6), per cui nel collegamento in serie si ha subito:

P (B) = P (A

1

∩ A

2

∩ .. ∩ A

n

) = P (A

1

)P (A

2

)..P (A

n

) =

Yn

i=1

P

i

.

Nel collegamento in parallelo, P (B) `e invece eguale alla probabilit`a che almeno un componente sia operativo, e perci´o vale

P (B) = 1 − P (A

1

∩ A

2

∩ .. ∩ A

n

) = 1 −

Yn i=1

(1 − P

i

). /

1.5 Formula di Bayes

Si abbia una sequenza finita o numerabile di eventi A

i

∈ B ⊂ Ω con probabilit`a non

nulle, e soddisfacente alle seguenti ipotesi:

(21)

1) i 6= j : A

i

∩ A

j

= ® 2)

Si=1

A

i

= Ω.

La prima condizione stabilisce che gli eventi devono essere a due a due incompatibili;

la seconda impone che il loro insieme sia esaustivo, ossia tale che in ogni prova dell’esperimento casuale si realizza uno e uno solo tra gli eventi A

i

(v. Fig. 1.3).

W

A

A

A

A A

1

2 3

4 5

E

Figura 1.3

Definito un arbitrario evento E ⊂ Ω con probabilit`a non nulla, `e chiaro per le ipotesi fatte che se si verifica E, deve anche essersi verificato almeno uno degli eventi A

i

, che in tal senso si possono considerare come possibili ”cause” dell’evento E che `e stato registrato.

La probabilit`a condizionata P (A

i

| E), detta probabilit`a a posteriori, `e’ quella che attribuiamo ad A

i

sapendo che si `e verificato E, ed `e legata alla probabilit`a a priori P (A

i

) dalla seguente formula di Bayes:

P (A

i

| E) = P (A

i

)P (E | A

i

)

X

j

P (A

j

)P (E | A

j

)

. (1.7)

Essa mostra che la conoscenza del verificarsi di E modifica la probabilit`a che ”a priori” siamo portati ad attribuire all’evento A

i

.

Per dimostrare la (1.7), si osservi che ricorrendo due volte alla definizione di proba- bilit`a condizionata, si ha anzitutto:

P (A

i

| E) = P (A

i

∩ E)

P (E) = P (E ∩ A

i

)

P (E) = P (A

i

)P (E | A

i

)

P (E) . (1.8)

Inoltre, per l’ipotesi 2) e tenendo conto che E ⊂ Ω, si pu`o scrivere:

E = E ∩ Ω = E ∩ (

[

j

A

j

) =

[

j

(E ∩ A

j

).

(22)

Ma per l’ipotesi 1) anche gli eventi (E∩A

j

) ed (E∩A

k

), con j 6= k, sono incompatibili a due a due. Quindi per l’assioma II” si ha:

P (E) = P

[

j

(E ∩ A

j

)

=

X

j

P (E ∩ A

j

) =

X

j

P (A

j

)P (E | A

j

) (1.9) che, sostituita nella (1.8), prova la (1.7).

La (1.9) `e detta Formula delle probabilit` a totali, ed `e assai utile in molte ap- plicazioni perch`e permette di valutare la probabilit`a dell’evento E se `e nota la sua probabilit`a condizionata dalla sequenza degli eventi A

i

di cui si conoscono le prob- abilit`a a priori.

Esempio 1.9: Controllo statistico della qualit`a

Al montaggio di 200 apparecchiature uguali contribuiscono tre tecnici con abilit`a differenti. Il primo tecnico monta 50 apparecchiature, che al collaudo risultano perfette nel 90% dei casi; il secondo ne monta 85, perfette all’80%, e il terzo ne monta 65, perfette nel 70% dei casi. Si vuole determinare la probabilit`a che un apparecchio di buona qualit`a, scelto a caso, sia stato montato del terzo tecnico.

Indichiamo con E l’evento rappresentato dalla buona qualit`a del montaggio, e con A

1

, A

2

, A

3

il montaggio effettuato da ciascuno dei tre tecnici. I tre eventi A

i

sono esaustivi (la loro unione `e lo spazio campione dei 200 apparecchi montati) ed in- compatibili (il montaggio da parte di un tecnico esclude quello di un altro). Le probabilit`a a priori di questi tre eventi sono note:

P (A

1

) = 50

200 = 0.25, P (A

2

) = 85

200 = 0.425, P (A

3

) = 65

200 = 0.325.

La probabilit`a dell’evento E nella ipotesi che l’apparecchio scelto sia stato montato dal primo tecnico, `e la probabilit`a condizionata: P (E | A

1

) = 0.90 che `e nota dal collaudo; e cos´ı pure risulta: P (E | A

2

) = 0.80, P (E | A

3

) = 0.70. La probabilit`a da determinare `e quella relativa al montaggio effettuato dal terzo tecnico, sapendo che `e stata scelta una apparecchiatura perfetta. Essa si ricava applicando la (1.7) e vale:

P (A

3

| E) = P (A

3

)P (E | A

3

)

P (A

1

)P (E | A

1

) + P (A

2

)P (E | A

2

) + P (A

3

)P (E | A

3

) = 0.287. /

Esempio 1.10: trasmissione di un segnale binario

In un sistema di comunicazione digitale, un segnale binario X `e trasmesso nella

forma ”0” oppure ”1”, con probabilit`a di trasmissione di ciascuna delle due forme

che indichiamo rispettivamente con P (X

0

) e P (X

1

). La trasmissione `e affetta da

disturbi aleatori (rumore), per cui esiste una probabilit`a non nulla che il segnale

ricevuto, che indichiamo con Y , sia diverso da quello emesso X (v. Fig. 1.4).

(23)

Figura 1.4

Canale simmetrico

Supponiamo dapprima che i due eventi (esaustivi) X

0

= {X = 0} e X

1

= {X = 1}

si realizzino con probabilit`a P (X

0

) = 0.4 e P (X

1

) = 0.6; e inoltre che la probabilit`a di errore nella trasmissione del segnale ”0” sia uguale alla probabilit`a di errore nella trasmissione del segnale ”1”, e valga P

= 0.25. Si vuole determinare le probabilit`a di ricevere ”1” e di ricevere ”0”.

Indichiamo con Y

0

ed Y

1

la ricezione del segnale nelle forme ”0” ed”1”. Se il segnale trasmesso `e ”0” esso ha, per ipotesi, probabilit`a P

di essere distorto in ”1”. Quindi P (Y

1

| X

0

) = P

= 0.25. Se invece il segnale trasmesso `e ”1”, ha probabilit`a (1 − P

) di essere ricevuto inalterato: P (Y

1

| X

1

) = 0.75. Applicando la (1.9) si ricava pertanto

P (Y

1

) = P (Y

1

| X

0

)P (X

0

) + P (Y

1

| X

1

)P (X

1

) = 0.25 · 0.4 + 0.75 · 0.6 = 0.55.

La probabili`a di ricezione del segnale nella forma ”0” si calcola invece come segue:

P (Y

0

) = P (Y

0

| X

0

)P (X

0

) + P (Y

0

| X

1

)P (X

1

) = 0.75 · 0.4 + 0.25 · 0.6 = 0.45 o meglio, se gi`a si conosce P (Y

1

), come probabilit`a della negazione dell’evento Y

1

:

P (Y

0

) = P (Ω) − P (Y

1

) = 1 − 0.55.

Canale non simmetrico

Supponiamo ora che la probabilit`a di trasmissione del segnale in forma non distorta vari a seconda della forma del segnale trasmesso, e precisamente:

P (X

0

non distorto) = 0.8, P (X

1

non distorto) = 0.9

essendo P (X

0

) = 1/3. Si vuole determinare la probabilit`a P (E) che il segnale ricevuto sia errato. Essa si calcola applicando ancora la (1.9) e vale:

P (E) = P (Y

0

| X

1

)P (X

1

) + P (Y

1

| X

0

)P (X

0

) = 0.1 · 2

3 + 0.2 · 1

3 = 0.13. /

(24)

1.6 Problemi risolti

1.1. Da un mazzo di 52 carte se ne sceglie una a caso. Quanto vale la probabilit`a di estrarre una figura o una carta di fiori? E quella di estrarre una figura e un fiori?

Soluzione. L’evento {estrazione di una figura} non influisce sulla probabilit`a dell’e- vento {estrazione di un fiori}, per cui essi sono statisticamente indipendenti. Ne segue:

P {figura ∪ fiori} = P {figura} + P {fiori} − P {figura ∩ fiori}= 12 52 + 13

52 3 52 = 11

26 P {figura ∩ fiori} = P {figura} · IP{fiori} = 12

52 · 13 52 = 3

52 .

1.2. Se A e C sono eventi incompatibili con B, allora P (A ∪ B|C) = P (A|C). Vero o falso?

Risposta: Vero , perch´e:

&%

'$

A

ÁÀ ¿

C

&%

'$

B

P (A ∪ B|C) = P [(A ∪ B) ∩ C]

P (C) = P (A ∩ C)

P (C) = P (A|C).

1.3. Nel lancio ripetuto di due dadi non truccati, la somma dei risultati `e un numero pari. Quanto vale la probabilit`a di aver totalizzato 8 ?

Risposta: La probabilit`a che la somma sia 8 `e

P {8} = P {(6 + 2) ∪ (5 + 3) ∪ (4 + 4) ∪ (3 + 5) ∪ (2 + 6)} = 5 36 . Sapendo che `e uscito un numero pari, si ha invece

P {8|pari} = P {8 ∩ pari}

P {pari} = P {8}

0.5 = 5 18 .

1.4. Gli eventi A

1

, A

2

sono incompatibili, esaustivi e con uguale probabilit`a. Se un

terzo evento C ⊂ Ω ha probabilit`a condizionate P (C|A

1

) = P (C|A

2

) = 0.5, allora

P (A

1

|C) = 1/4. Vero o falso?

(25)

Risposta: Falso , perch´e P (A

1

) = P (A

2

) = 0.5 e se si applica la formula di Bayes si ricava:

P (A

1

|C) = P (A

1

)P (C|A

1

)

P (A

1

)P (C|A

1

) + P (A

2

)P (C|A

2

) = 0, 5 · 0.5

0.5(0.5 + 0.5) = 1 2 . 1.5. Se gli eventi A, B sono incompatibili, allora P (A) ≤ P (B). Vero o falso?

Risposta: Vero , perch´e se sono incompatibili allora A ⊆ B = Ω − B da cui si deduce, per gli assiomi della probabilit`a, che P (A) ≤ P (B).

1.6. L’urna A contiene 2 palline bianche e 3 nere; l’urna B ne contiene 4 bianche e 1 nera; l’urna C ne contiene 3 bianche e 4 nere. Si sceglie a caso un’urna, e si estrae una pallina bianca. Calcolare la probabilit`a che essa provenga dall’urna C.

Soluzione. Le probabilit`a di scegliere a caso una delle tre urne sono uguali: P (A) = P (B) = P (C) = 1/3. Indichiamo con E l’evento {estrazione di una pallina bianca}.

Le probabilit`a che essa sia estratta dall’urna A, oppure B o C sono:

P (E|A) = 2/5; P (E|B) = 4/5; P (E|C) = 3/7

e la probabilit`a totale di estrarre una pallina bianca da una qualsiasi delle tre urne vale

P (E) = 1 3

µ

2 5 + 4

5 + 3 7

= 57 105 .

La probabilit`a di averla estratta dall’urna C `e data dalla formula di Bayes:

P (C|E) = P (C)P (E|C)

P (E) = (1/3)(3/7) 57/105 = 5

19 .

1.7. Due ditte forniscono il medesimo prodotto. Se esso proviene dalla ditta A, la probabilit`a che si guasti prima dell’istante t vale 1 − e

−t

; se invece proviene dalla ditta B questa probabilit`a vale 1−e

−2t

. Il prodotto pu`o essere acquistato con uguale probabilit`a da A o da B, e non `e nota la ditta fornitrice. Tuttavia, `e stato osservato che il prodotto si guasta in un intervallo di tempo 1 ≤ t ≤ 2. Determinare la probabilit`a che esso sia stato acquistato dalla ditta A.

Soluzione. Indichiamo con E l’evento: {guasto in 1 ≤ t ≤ 2} e con P (A) = P (B) = 0.5 le probabilit`a che il prodotto provenga da A o da B. La probabilit`a di guasto del prodotto A nell’intervallo di tempo 1 ≤ t ≤ 2 vale

P (E|A) = 1 − e

−2

− [1 − e

−1

] = e

−1

− e

−2

e quella del prodotto B nello stesso intervallo `e

P (E|B) = 1 − e

−2·2

− [1 − e

−2·1

] = e

−2

− e

−4

.

(26)

La probabilit`a a posteriori P (A|E) `e data dalla formula di Bayes:

P (A|E) = P (A)P (E|A)

P (A)P (E|A) + P (B)P (E|B)

= e

−1

− e

−2

e

−1

− e

−2

+ e

−2

− e

−4

= e

2

(e − 1)

e

3

− 1 ' 0.6652 .

1.8. Abbiamo sul tavolo 9 carte coperte: due di esse sono di cuori, tre di fiori e quattro di picche. Calcolare la probabilit`a che, scelte simultaneamente due carte a caso, siano di seme diverso.

Soluzione. Indichiamo con {QQ}, {F F }, {P P } gli eventi: “estrazione di due cuori”, oppure “due fiori”, o “due picche”. Lo spazio campione Ω `e costituito da

¡92¢

= 36 eventi possibili (numero di combinazioni di 9 elementi a 2 a 2). Tra essi, esistono:

Ã

2 2

!

= 1 evento {QQ};

Ã

3 2

!

= 3 eventi {F F };

Ã

4 2

!

= 6 eventi {P P }.

La probabilit`a di estrarre due carte dello stesso seme vale:

P [{QQ} ∪ {F F } ∪ {P P }] = P {QQ} + P {F F } + P {P P } = 1 36 + 3

36 + 6 36 = 5

18 . La probabilit`a di estrarre due carte di seme diverso `e :

P {seme diverso} = 1 − P [{QQ} ∪ {F F } ∪ {P P }] = 13 18 .

1.9. Una sorgente emette una sequenza di tre segnali binari equiprobabili nella forma “0” e “1”. Sapendo che almeno due segnali sono stati emessi nella forma “1”, calcolare la probabilit`a che sia stato emesso “0” nella prima emissione.

Soluzione. Lo spazio campione contiene 2

3

= 8 eventi (= numero delle disposizioni con ripetizione di 2 elementi a 3 a 3). Questi sono:

(000) (001) (011) (100) (010) (101) (110) (111) e la probabilit`a che sia stato emesso “1” almeno due volte vale

P (E) ≡ P ( “1” per due o tre volte) = 4 8 = 0.5.

La probabilit`a di emissione di un primo “0” condizionata da E vale:

P (primo “0”|E) = P [(primo “0”) ∩ E]

P (E) = 1/8

0.5 = 0.25 .

(27)

1.10. In un primo turno elettorale il polo A ha avuto il 45% dei voti, e il polo B ha vinto con il 55% dei suffragi. Si ripetono le elezioni con i medesimi votanti, e dagli exit-poll risulta che: 1) il 10% di colori che avevano votato A hanno spostato il voto su B; 2) il 20% dei vecchi elettori di B hanno votato A. Chi ha vinto (secondo gli exit-poll) il secondo turno?

Soluzione. Definiamo i seguenti eventi e le loro probabilit`a:

A

1

= {voto per A al primo turno} : P (A

1

) = 0.45 B

1

= {voto per B al primo turno} : P (B

1

) = 0.55

E = {voto cambiato} : P (E|A

1

) = 0.10, P (E|B

1

) = 0.20.

La probabilit`a che gli elettori abbiano votato A al secondo turno `e

P (A

2

) = P (A

1

)[1 − P (E|A

1

)] + P (B

1

)P (E|B

1

) = 0.45 · 0.9 + 0.55 · 0.20 = 0.515.

Poich´e gli eventi A

2

e B

2

sono esaustivi, ha vinto A con il 51.5% contro B che ha avuto il 48.5% .

1.11. Sul tavolo ci sono due mazzi di carte. Il mazzo A `e completo ed ha 52 carte (ossia tredici per ognuno dei quattro semi). Dal mazzo B sono state tolte tutte le figure. Si estrae una carta a caso da uno dei due mazzi, ed `e un asso. Qual’`e la probabilit`a che l’asso sia stato estratto dal mazzo B ?

Soluzione. Le probabilit`a a priori di scegliere uno dei due mazzi sono uguali: P (A) = P (B) = 0.5. Se E `e l’evento “estrazione di un asso”, le probabilit`a di estrarlo da A o da B sono:

P (E|A) = 4 52 = 1

13 , P (E|B) = 4 40 = 1

10 .

La probabilit`a a posteriori che l’asso sia stato estratto dal mazzo B vale, per la formula di Bayes:

P (B|E) = P (B)P (E|B)

P (A)P (E|A) + P (B)P (E|B) = 0.5 · 0.1

0.5(0.1 + 1/13) = 13

23 ' 0.5652 . 1.12. Si utilizza un prodotto fornito in percentuali uguali da due ditte A e B. E’

stato calcolato che, scelto a caso un esemplare difettoso, la probabilit`a che esso sia stato fornito dalla ditta A vale IP(A|difettoso ) = 0.25. Se la produzione del prodotto da parte della ditta A ha un difetto di qualit`a del 5%, qual’`e il difetto di qualit`a nella produzione della ditta B ?

Soluzione. Le probabilit`a a priori che la ditta fornitrice sia A oppure B sono uguali:

P (A) = P (B) = 0.5. Se D `e l’evento: “prodotto difettoso”, si sa che P (D|A) = 0.05.

Inoltre `e stato calcolato che

P (A|D) = 0.5 · 0.05

0.5 · 0.05 + 0.5 · P (D|B) = 0.25.

Riferimenti

Documenti correlati

La somma degli angoli interni di un quadrilatero è sempre un angolo giro 2. Tutti i trapezi hanno una coppia di lati paralleli.. 5. Il quadrato è l’unico

Una compagnia di assicurazioni offre una polizza che prevede il pagamento di una determinata cifra a fronte di un danno subito dal cliente.. La compagnia classifica gli assicurati

[r]

Calcolare quanto deve essere grande il campione affinch´e la lunghezza dell’intervallo di confidenza sia L =

Qual`e la probabilit`a che esattamente 2, su 5 esemplari di questo compo- nente, debbano essere sostituiti nelle prime 150 ore di funzionamento, supponendo che i tempi di vita

Un insieme di misurazioni della temperatura corporea di un gruppo di bambini affetti da otite fornisce i seguenti dati, in gradi centigradi:.. 37.2, 37.6 36.4 36.5 37.5 37.1 36.9

Nella giornata successiva alla fine della campagna pubblicitaria, gli organizzatori rilevano una presenza di 1230 visitatori.. Qual ` e la probabilit` a che l’aumento sia dovuto

Per incrementare il numero di visite, gli organizzatori si rivolgono a una agenzia pubblicitaria specializzata che, dall’esperienza passata, riesce ad aumentare la media di un