• Non ci sono risultati.

8.3. Franca Tortorella e gli alunni della IV B, a. s. 2011-12, del Liceo Scientifico E. Siciliano di Bisignano, CS, Probabilità e statistica. Tra epoca antica ed epoca moderna.

N/A
N/A
Protected

Academic year: 2021

Condividi "8.3. Franca Tortorella e gli alunni della IV B, a. s. 2011-12, del Liceo Scientifico E. Siciliano di Bisignano, CS, Probabilità e statistica. Tra epoca antica ed epoca moderna."

Copied!
39
0
0

Testo completo

(1)

1

Probabilità e Statistica

Tra epoca antica ed epoca moderna

Un salto

da

Pascal

a

Kolmogorov

(2)

2 PREMESSA

Nel corso del nostro studio abbiamo notato come molti argomenti siano stati trattati esaurientemente già prima dell’era cristiana. Gli Elementi di Euclide, infatti, danno conferma di ciò non solo per quanto riguarda la geometria elementare, ma anche per molte questioni di aritmetica. Il grado di perfezione raggiunto dai greci in geometria è stato superato soltanto dopo più di duemila anni, e cioè nel XIX secolo, con la scoperta delle geometrie non euclidee.

Lo sviluppo dell’algebra è stato

molto più lento. Bisogna arrivare, infatti, al XVI secolo per avvertire un vero e proprio salto di qualità rispetto agli studi precedenti, i quali consideravano le equazioni di 2° grado come le colonne d’Ercole dell’algebra. Gli algebristi del ‘500, a dispetto di tutte le radicate convinzioni, riuscirono a spingersi fino alla risoluzione delle equazioni di 4° grado. Nel giro di pochi anni l’algebra diventa lo strumento più efficace per la risoluzione di molti problemi geometrici. Comincia così ad acquistare le caratteristiche di una vera e propria scienza che non aveva nulla da invidiare alla consolidata e affermata geometria.

Si fa strada in tal modo l’idea di una certa autonomia dalla cultura classica. L’uomo del ‘500 acquista piena consapevolezza delle

proprie capacità creative che lo liberano dalla sudditanza del passato.

In tutti i campi del sapere le questioni vengono affrontate con mezzi e prospettive nuovi.

La grande autorità esercita da Aristotele per decine di secoli viene messa in discussione e rigettata, specie nel campo della fisica.

Tuttavia, soltanto in matematica furono raggiunti risultati molto espressivi e pregnanti, il cui influsso fu avvertito oltre lo stretto ambito della disciplina.(In figura Gerolamo Cardano 1501-1576). A questo punto la cultura classica acquista una dimensione nuova e, comunque, assolutamente non totalizzante.

Le conquiste realizzate in algebra diedero un grande impulso alla ricerca scientifica. Infatti, con l’algebra presero l’avvio altri rami della matematica come la

(3)

3 geometria analitica e il calcolo

infinitesimale, la cui importanza è

testimoniata dai grandi progressi realizzati nella meccanica, struttura portante di tutta la scienza moderna.

Con la geometria analitica e il calcolo infinitesimale prende l’avvio anche un nuovo ramo della matematica: il calcolo delle probabilità, che si pone come obiettivo la ricerca di una certa regolarità anche per quei fenomeni che regolari non lo sono per niente.

Si tratta di un progetto ambizioso e, in un certo senso, velleitario, che poteva essere perseguito soltanto da chi nutriva grande fiducia nel progresso scientifico. I fenomeni astronomici attrassero l’attenzione dell’uomo sin dall’antichità a causa della periodicità regolare con cui si verificavano. Ciò ha permesso la scoperta di molte leggi che regolano il moto degli astri. L’uomo dell’era moderna comincia ad interessarsi di questioni che nell’antichità non avrebbero sicuramente trovato posto nel campo della ricerca scientifica. Difatti, il calcolo delle probabilità prese le mosse dal gioco d’azzardo. Le sue origini perciò sono poco nobili. Il primo ad interessarsi della ricerca di una legge che regolasse il gioco con i dadi fu Blaise Pascal. Si distinsero in questo campo anche Fermat, Eulero e

Bernoulli. Tuttavia soltanto ai primi del XIX secolo, con Laplace, il calcolo delle

probabilità acquista pieno diritto di cittadinanza nel mondo matematico.

Nel calcolo delle probabilità Laplace riconobbe un vero e proprio strumento di ricerca scientifica. Le sue idee trovarono la più ampia conferma nel XX secolo con i grandi progressi realizzati in fisica quantistica.

(4)

4

INTRODUZIONE

Il calcolo della probabilità è lo strumento che fa sì che l’uomo assuma un comportamento

razionale di fronte all’incertezza.

L’esperienza quotidiana mostra che i fatti osservabili non sono generalmente prevedibili, eppure si presenta spesso la necessità di prendere decisioni che riguardano eventi futuri.

Il calcolo della

probabilità permette di assumere atteggiamenti coerenti e giustificabili nel caso di eventi futuri non ripetibili e di effettuare previsioni quantitative attendibili nel caso di eventi ripetibili uniformemente e per i quali è quindi possibile effettuare una serie sufficientemente lunga di osservazioni.

Il calcolo delle probabilità nasce dagli studi dei matematici sui giochi d’azzardo. Da questi studi, nei primi dell’800, ha origine la prima definizione di probabilità, detta

classica. Successivamente si ebbero le definizioni frequentista e soggettiva e, per

ultimo la definizione assiomatica, dovuta principalmente a Komolgorov.

Tutte le definizioni necessitano, però, di un concetto basilare su cui tutte si fondano: il concetto di evento.

Per gli eventi vale quanto detto per le proposizioni(il concetto di proposizione riguarda un enunciato per il quale è possibile esprimere immediatamente una valutazione sulla sua verità o falsità. Vero o falso sono detti valori di verità della proposizione).

Per cui dati due eventi semplici, due eventi cioè espressi da enunciati non scomponibili in enunciati più semplici aventi senso compiuto, E1 ed E2, si può ottenere un evento composto mediante i connettivi logici e (^) ed o (v), oppure dato un evento E, è possibile considerare la sua negazione (connettivo logico non) come evento che si verifica se non si verifica E.

(5)

5 Le operazioni tra eventi,

medianti i connettivi e ed o, sono commutativi, associative e godono della proprietà di idempotenza.

Per esempio, sono eventi semplici

E1 : uscita di testa nel lancio di

una moneta

E2 : uscita del 3 nel lancio di

un dado

E3 : uscita di un numero pari

nel lancio di un dado;

mentre sono eventi composti, ottenuti dai precedenti,

E2 V E3 : uscita del 3 o di un

numero pari nel lancio di un dado

DEFINIZIONE: due eventi, E1 ed E2, si dicono incompatibili, se il verificarsi dell’uno

esclude il verificarsi dell’altro. In caso contrario, i due eventi si diranno

compatibili.

Esempio: supponiamo di estrarre, da un mazzo di carte da gioco, una carta. Gli eventi

E1 :estrazione di una carta rossa E2: estrazione di una figura,

sono compatibili, perché è possibile estrarre una figura rossa.

DEFINIZIONE: due eventi, E1 ed E2 ,si dicono indipendenti, se il verificarsi di uno

dei due non influenza il verificarsi dell’altro. In caso contrario, i due eventi si dicono dipendenti.

Esempio: consideriamo il gioco della Roulette. Gli eventi

E1 uscita di un numero rosso E2 uscita di un numero pari

(6)

6

sono indipendenti; infatti il verificarsi dell’uno non influisce sul verificarsi dell’altro. In caso contrario i due eventi si dicono dipendenti.

(7)

7

(8)

8

Nel mondo che ci circonda troviamo una quantità innumerevole di situazioni probabilistiche.

La probabilità nasce per rispondere ad alcune domande. Infatti nel lontano 1654 un giocatore d'azzardo, il cavaliere di Merè, chiese consiglio ad un matematico francese, Blaise Pascal (1601-1665), sul modo di ripartire le sue puntate in denaro in un gioco di dadi. Pascal discusse il problema con un

altro eminente matematico , di nome Pierre Fermat (1623-1662), e la soluzione di questo problema diede origine alla teoria della probabilità.

Una delle questioni proposte, considerata un paradosso, è la seguente: secondo il giocatore d'azzardo, la probabilità di avere almeno un 6 su quattro

lanci di un dado è almeno un doppio 6 su ventiquattro lanci di due dadi doveva essere la stessa; questa sua convinzione,però non era confermata dall'esperienza. Aveva ragione l'esperienza. I due matematici francesi avevano quindi discusso su un fenomeno che in matematica era completamente nuovo. Fino ad allora, infatti,ad opera principalmente di Galileo Galilei (1564-1642) e Isaac Newton(1642-1727), dominava un modo di vedere la realtà, detto determinismo

meccanicistico secondo il quale, ogni fenomeno fisico nel mondo reale doveva

seguire leggi matematiche e che non ci si poteva fermare alla descrizione di come era fatto il mondo, ma si doveva capire anche come funzionava. Nasceva così la convinzione che poche leggi governavano i fenomeni del mondo fisico e permettevano di prevedere ogni evoluzione futura dell'universo.

(9)

9

Possiamo schematizzare il successo del determinismo meccanicistico con la seguente affermazione:

(Dati) + (Leggi) = (Conoscenza)

Ciò significa essere in grado ,per esempio,di prevedere in quale istante e in quale luogo un corpo lanciato toccherà terra. Ma per Pascal e Fermat il meccanicismo deterministico non riusciva a risolvere tutti i problemi che la ricerca poneva: certi fenomeni non si verificavano con certezza ma avevano una evoluzione casuale non univocamente prevedibile. Per essi quindi vale la seguente affermazione:

(Dati)+(Leggi)=(Conoscenza non completa)

In molti esperimenti, è possibile calcolare a priori quali e quanti sono i casi che possono realizzarsi e quali e quanti tra questi sono quelli da considerarsi favorevoli all’esito dell’esperimento. In questi casi, quando è cioè possibile conoscere a priori il numero dei casi favorevoli m e quello dei casi possibili n, si può considerare come misura della probabilità dell’evento considerato, secondo la definizione di La Place, il rapporto tra il numero dei casi favorevoli e quello dei casi possibili a condizione che però tutti i casi abbiano la stessa possibilità di

realizzarsi:

Dalla definizione si deduce facilmente che p può assumere valori compresi tra 0 e 1, estremi inclusi. Nel primo caso l’evento considerato è detto impossibile, nel secondo è detto certo. Per tutti i valori compresi tra 0 e 1 l’evento è detto

aleatorio o casuale. Per questo motivo, la probabilità così calcolata è detta a priori.

Osservazioni

La definizione classica presenta vari punti deboli. Intanto, dal punto di vista pratico, si può osservare che la sua applicazione è legata all’effettiva possibilità di conoscere a priori m ed n e ciò è effettivamente possibile solo in alcuni casi. Inoltre, la definizione prevede un ambiente ideale nel quale tutti gli eventi sono ugualmente possibili, cosa non sempre realizzabile nella realtà e non tiene, quindi, conto di tutti quei fattori che potrebbero influire sul verificarsi o meno di un evento. Nella definizione viene indicata la condizione che i casi possibili siano

(10)

10

devono essere equiprobabili. Delle osservazioni critiche ora fatte si tenne conto

negli studi che portarono alle altre definizioni già citate che permisero di ovviare, almeno in parte a questi difetti.

Eventi ed insiemi

Le considerazione che seguono permettono di visualizzare un esperimento ed i suoi possibili esiti utilizzando un modello insiemistico.

Consideriamo l’evento E: uscita di una faccia contrassegnata da un numero pari, nel lancio di un dado. Si possono considerare possibili esiti come elemento di un insieme, che chiameremo U, insieme universo.

La probabilità dell’evento E, secondo la definizione classica sarà

In generale, ad ogni esperimento è possibile associare l’insieme universo U dei risultati possibili e un sott’insieme proprio di U, i cui elementi sono risultati favorevoli all’evento e che possiamo considerare coincidente con l’evento stesso.

U 1 2 3 6 5 4

(11)

11

(12)

12

LA DEFINIZIONE FREQUENTISTA DI PROBABILITA’

In molti dei problemi della realtà è possibile effettuare praticamente un certo numero di prove e rilevare gli esiti di queste. Se su n prove un certo evento E si è presentato m volte, il rapporto m/n esprime la frequenza con cui l’evento E si è verificato relativamente al numero n di prove effettuate.

Tale rapporto che indicheremo con f è detto quindi frequenza relativa mentre m è detta frequenza assoluta dell’evento considerato.

I valori che la frequenza può assumere sono compresi bell’intervallo chiuso *0;1+, avendosi il valore 0 quando m=0, cioè quando E non si è mai realizzato, e il valore 1 quando m=n, cioè quando l’evento E si è realizzato in ogni prova.

Malgrado ciò però la frequenza e la probabilità sono concetti molto diversi, essendo la prima una quantità calcolata a posteriori, cioè dopo aver effettuato l’esperimento e la seconda una quantità, come già detto, a priori.

La legge empirica del caso

P ed f non sono indipendenti tra loro, anzi esiste uno strettissimo legame,

espresso dalla legge ricavata empiricamente, detta appunto legge empirica del caso o legge dei grandi numeri:

eseguendo un grande numero di prove, effettuate tutte nelle medesime condizioni, il valore della frequenza approssima il valore della probabilità e tale approssimazione è tanto maggiore quanto più alto è il numero di prove effettuate.

Grazie alle legge empirica del caso, è possibile utilizzare la frequenza come valore approssimato della probabilità a priori, quando non sussistono le condizioni perché questa sia calcolata.

Da ciò ha origine la definizione frequentista:

la frequenza di un evento, calcolata effettuando un gran numero di prove, può essere considerata come il valore approssimato della probabilità.

(13)

13

La legge permette, inoltre di effettuare previsioni sull’esito di un esperimento, se è possibile calcolare la probabilità a priori dell’evento in esame.

LAPLACE E LA PROBABILITÀ

Nel 1779 Laplace indicò il metodo per stimare il rapporto del numero dei casi favorevoli rispetto al numero totale dei casi possibili. Esso consiste nel considerare i valori successivi di una qualsiasi funzione come i coefficienti dello sviluppo di un'altra funzione con riferimento ad una diversa variabile. Questa seconda funzione viene dunque chiamata la funzione generatrice della precedente. Laplace mostrò

come, per mezzo dell'interpolazione, questi coefficienti possano essere determinati a partire dalla funzione generatrice. In seguito egli affrontò il problema inverso, trovando dai coefficienti la funzione generatrice mediante la soluzione di un'equazione alle differenze finite. Il metodo è scomodo e, dati i successivi sviluppi dell'analisi, oggi viene usato raramente. Il suo trattato Théorie analytique des probabilités include un'esposizione del metodo dei minimi quadrati, una notevole testimonianza della padronanza di Laplace sui procedimenti

(14)

14

dell'analisi. Il metodo dei minimi quadrati, tramite numerose osservazioni, era stato spiegato empiricamente da Carl Friedrich Gauss e Legendre, ma il quarto capitolo di questo lavoro contiene una dimostrazione formale di esso, su cui da allora si è basata l'intera teoria degli errori. Questo fu dimostrato solo grazie a un'analisi più complessa, inventata appositamente per lo scopo, ma la forma in cui viene presentato è così incompleta che, nonostante la costante accuratezza dei risultati, ci si chiese se Laplace aveva effettivamente esaminato con attenzione il difficile lavoro che egli stesso aveva così brevemente e spesso erroneamente mostrato.

(15)

15

(16)

16

DEFINIZIONE PROBABILITA’ SOGGETTIVA

Esistono, però, eventi per i quali non è applicabile nessuna delle due definizioni precedenti, esistono cioè eventi, per i quali è impossibile il calcolo di p, non potendosi conoscere m ed n, per i quali non è possibile calcolare f trattandosi di un evento unico non verificatosi precedentemente e che non si verificherà più in futuro. Si tratta di eventi tutt’altro che rari anzi, nella maggior parte dei casi, sono di questo tipo gli eventi aleatori sui quali ci si trova a dover prendere decisioni. Un esempio classico è la scommessa sul risultato di un avvenimento sportivo, come una corsa di cavalli o una partita di calcio. Per quanto soggettiva la valutazione non è però arbitraria, ma deve rispondere a un principio di coerenza. Per la scuola che segue il principio di coerenza e che fa capo al matematico B. De Finetti, la probabilità di un evento può essere definita come la misura della fiducia del verificarsi di un evento che ha

un individuo coerente. Per “coerenza”, sarà p(E)=0 se l’evento è considerato impossibile in base alle proprie informazioni e opinioni, mentre sarà p(E)=1 se l’evento è considerato certo. Sarà 0<p(E)<1 se l’evento è aleatorio: il valore sarà tanto più prossimo ad 1 quanto maggiore è la fiducia che

l’individuo coerente ha del verificarsi dell’evento, sarà tanto più prossimo a 0 quanto minore è questa fiducia. Poiché molte scelte comportano l’investimento di un capitale s nella speranza di ricavarne uno S, con s<S, per coerenza la probabilità p dell’evento E al verificarsi del quale, avendo avuto una spesa s, si introita la somma S, deve essere tale che

Sp=s

da cui

Poichè il rapporto s/S rappresenta la somma che si è disposti a sborsare per esigere un capitale unitario, si può dare la seguente definizione:

(17)

17

la probabilità di un evento, secondo un individuo coerente, è la somma ch’egli considera equo sborsare per avere la possibilità di incassare un importo unitario al verificarsi dell’evento considerato.

BRUNO DE FINETTI E LA PROBABILITÀ

De Finetti è stato un matematico e statistico italiano, noto soprattutto per la formulazione della concezione soggettiva operazionale della probabilità. La probabilità è l'argomento di cui De Finetti si è occupato in modo più specifico e continuativo. Egli sostiene il significato soggettivo

della probabilità. Egli inoltre rivolge critiche radicali

ad alcune correnti concezioni e definizioni (o pseudo definizioni) della probabilità. "La

probabilità non è nient'altro che il grado di fiducia (speranza, timore, ..) nel fatto che qualcosa di atteso (temuto, o sperato, o indifferente) si verifichi e risulti vero". Lo statistico italiano è

inoltre noto per aver ideato il Diagramma di De Finetti, il quale permette di individuare la

posizione di una popolazione in un grafico basato su coordinate triangolari, rispetto all'equilibrio di Hardy-Weinberg.

De Finetti e Savage hanno proposto una definizione di probabilità applicabile ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili e che non siano necessariamente ripetibili più volte sotto le stesse condizioni: la

probabilità di un evento è il prezzo che un individuo ritiene equo pagare per ricevere 1 se l'evento si verifica, 0 se l'evento non si verifica.

Al fine di rendere concretamente applicabile la definizione, si aggiunge un criterio di coerenza: le probabilità degli eventi devono essere attribuite in modo tale che

non sia possibile ottenere una vincita o una perdita certa.

In tal modo è possibile ricavare dalla definizione soggettiva le stesse tre regole già viste.

1. P(A) è compresa tra 0 e 1; se infatti fosse negativa si avrebbe un guadagno certo, se fosse maggiore di 1 si avrebbe una perdita certa;

2. P(Ω) = 1; se l'evento è certo, si riceverà sicuramente 1, ma se fosse P(Ω) < 1 si avrebbe un guadagno certo, pari a 1 - P(Ω), se invece fosse P(Ω) > 1 si avrebbe una perdita certa;

(18)

18

3. se A∩B = ∅, P(A∪B) = P(A)+P(B). Si osserva preliminarmente che se gli n eventi A1, A2, ..., An sono incompatibili (non possono presentarsi

insieme) e necessari (uno di loro deve necessariamente verificarsi), la somma delle probabilità P(Ai), con i che va da 1 a n, è uguale a 1; infatti, se

si paga P(Ai) per ciascun evento,

se la somma fosse inferiore a 1 si avrebbe un guadagno certo, se fosse superiore si avrebbe una perdita certa. Si considerano poi gli eventi incompatibili A e B e l'evento complemento della loro unione; i tre eventi sono incompatibili e necessari e si ha: Sono però incompatibili anche l'unione di A e B ed il suo complemento:

Dalle due uguaglianze segue:

se , allora

La definizione soggettiva consente quindi di calcolare la probabilità di eventi anche quando gli eventi elementari non sono equiprobabili e quando l'esperimento non può

essere ripetuto. Rimane fondata, tuttavia, sull'opinione di singoli individui, che potrebbero presentare diverse propensioni al rischio. Basta pensare che molti sarebbero disposti a giocare 1 euro per vincerne 1000, ma pochi giocherebbero un milione di euro per vincerne un miliardo.

(19)

19

(20)

20

DEFINIZIONE PROBABILITA’ ASSIOMATICA

Negli anni centrali del XX secolo, tuttavia, prima Bruno de Finetti e poi Leonard Jimmie Savage hanno elaborato una

concezione soggettiva della probabilità, secondo cui essa è il grado di fiducia che una persona ha nel verificarsi dell'evento. Nello stesso periodo, Andrey Nikolaevich Kolmogorov ha dato inizio alla moderna teoria assiomatica (Grundbegriffe der

Wahrscheinlichkeitsrechnung, 1933), ispirandosi alla teoria della misura.

Si è così affermata una teoria della probabilità puramente matematica, che generalizza il patrimonio matematico comune alle diverse impostazioni. Seguendo l'impostazione di Kolmogorov

(1950), si può introdurre la teoria della probabilità seguendo un modo di procedere detto "assiomatizzazione", che consiste nei seguenti momenti:

a) si introducono i concetti primitivi (prova, evento e probabilità), cioè delle nozioni originarie e intuitive;

b) mediante tali concetti si stabiliscono delle affermazioni, detti postulati o assiomi, che non si dimostrano; c) dai postulati, e solo tramite essi, si deducono tutte le possibili conseguenze, sia logiche che matematiche, pervenendo alla dimostrazione dei teoremi del calcolo delle probabilità. Nel corso di questo secolo i matematici usando i metodi della logica formale e della teoria degli hanno formulato una nuova definizione di probabilità, detta assiomatica.

(21)

21 Lo spazio degli eventi

Alla base di questa impostazione sta il concetto di spazio degli eventi. Abbiamo già accennato al fatto che ad ogni evento E è possibile associare un insieme, logicamente coincidente con l’evento stesso, avente come elementi tutti gli esiti favorevoli al realizzarsi di E. Per esempio nel lancio di un dado si ha

U=,1,2,3,4,5,6-. Consideriamo per l’insieme delle parti di U p(U), cioè l’insieme

avente come elementi tutti i possibili sottoinsiemi di U compresi l’insieme ∅ e l’insieme U stesso. Nell’esempio si ha

P(U)={E0, E1, E2, E3, E4, E5, E6, E7, E8, E9, E10, E11, E12,…}

con E1=1, E2=2, E3=3, E4=4, E5=5, E6=6, E7=1,2, E8=1,3, E9=1,4, … questo insieme è detto spazio degli eventi s.

in generale, dato un insieme U i cui elementi diremo eventi elementari, si chiama spazio degli eventi l’insieme p(U) di tutti i sottoinsiemi di U.

(22)

22 Gli assiomi

I seguenti assiomi permettono di attribuire alla funzione p(E) le caratteristiche che la rendono utilizzabile nel calcolo delle probabilità.

Assioma 1. Ad ogni elemento E nello spazio

degli eventi è associabile un numero reale

p(E) non negativo detto probabilità di E. Assioma 2. Dati tre elementi E1, E2, E3 dello

stesso spazio degli eventi disgiunti tra loro si ha che:

p(E1 U E2 U E3)= p(E1)+ p(E2)+ p(E3);

si dice che la funzione p(E) è una funzione additiva d’insieme.

Assioma 3. Essendo S lo spazio degli eventi si ha p(S)=1. Si può osservare che,

poiché S U ∅ = S, per il secondo assioma si ha

p(S)= p(S)+ p(∅) 1=1+p(∅)

(23)

23

(24)

24 Teorema sulla probabilità contraria

Facendo riferimento alla teoria assiomatica, consideriamo due elementi dello spazio degli eventi S, l’evento E e il suo complementare rispetto ad S, E’= E’’. Sarà naturalmente

S = E U E’’

E per il secondo assioma

P(S)= p(E)+ p(E’’).

Poiché il terzo assioma è

P(S)=1,

si ha

p(E)+ p(E’’)=1

tale teorema della probabilità contraria si esprime dicendo che

la somma delle probabilità di un evento E e del suo contrario E’’ è uguale ad 1. Teorema della probabilità totale

Il secondo assioma della teoria assiomatica è conosciuto come il teorema della probabilità totale e si esprime dicendo che: dati due o più eventi incompatibili E1,

E2, E3, la probabilità dell’evento U p(E1 U E2 U E3) è data dalla somma delle

probabilità dei singoli eventi cioè, in formula

p(E1 U E2 U E3)= p(E1)+ p(E2)+ p(E3)

si può, però, presentare il caso di dover calcolare la probabilità dell’evento unione di eventi compatibili.

Consideriamo il caso di due eventi E1 e E2 compatibili. U

(25)

25

L’evento composto E2 – (E1 ∩ E2) è incompatibile con E1 e, come si può osservare dalla figura, l’unione tra questo evento ed E1 è uguale all’unione tra E1 ed E2, cioè

E1 U E2 = E1 U(E2 – (E1 ∩ E2 ))

Da cui

P(E1 U E2)= p(E1) + p(E2) – p(E1 ∩ E2 )

Il teorema della probabilità totale nel caso di eventi compatibili si esprime dicendo che

dati due eventi E1 ,E2 compatibili, la probabilità dell’evento (E1 U E2 )è data dalla somma delle probabilità dei singoli eventi diminuita della probabilità dell’evento intersezione.

Probabilità condizionata

Sia E1 l’evento estrazione di una pallina avente il colore verde, E2 l’evento

estrazione di una pallina avente il colore rosso. L’evento estrazione di una pallina avente il colori verde e rosso sarà E1 ∩ E2.

Si ha che

p(E1)= n1 +n3 /n , poiché n1 + n3 è il totale delle palline aventi una parte verde; p(E2)= n1 + n2/n , poiché n1+n2 è il totale delle palline aventi una parte rossa; p(E1 ∩ E2)= n1/n2

si consideri adesso l’evento “estrazione di una pallina con una metà verde,

supposto che l’altra metà sia rossa, cioè il verificarsi dell’evento E1 subordinato (o condizionato) al realizzarsi di E2 ; indichiamo un tale evento con il simbolo E1/E2. Nota: il fatto che l’evento E1 sia subordinato all’evento E2 non vuol dire che E1

deve realizzarsi “dopo” E2; E1 può realizzarsi in concomitanza ad E2.

Poiché si sta considerando il realizzarsi di E1 essendosi realizzato anche E2 dovranno essere considerati possibili tutti e solo i casi che danno ad E2 la

possibilità di realizzarsi: essi sono tanti quanti il numero delle palline contenenti il colore rosso e cioè le n1 palline rosse o verdi più le palline n2 rosso o bianche. Si

avrà allora

P(E1/E2)= n1/ n1 + n2

Da cui, dividendo numeratore e numeratore per n, si ha

(26)

26 -10- E cioè, in termini di probabilità

P(E1/E2)= p(E1 ∩ E2)/ p(E2)

La probabilità di un evento E1 subordinato al realizzarsi di un evento E2, detto probabilità condizionata è data dal rapporto tra la probabilità che E1 ed E2 si realizzino contemporaneamente e la probabilità di realizzarsi di E2.

Teorema della probabilità composta La formula

p(E1 ∩ E2)- p(E1)x P(E1/E2)

permette di calcolare la probabilità dell’evento intersezione E1 ∩ E2, detta probabilità composta che si esprime dicendo

dati due eventi dipendenti E1 ed E2, la probabilità dell’evento E1 ∩ E2 è uguale al prodotto della probabilità dell’evento E1 per la probabilità dell’evento E2 subordinato all’evento E1 (evento E2/ E1).

Se gli eventi E1 ed E2 sono indipendenti, la probabilità di E2 è indipendente dal verificarsi di E1 e quindi è p(E2/ E1) = p(E2) e perciò avremo

p(E1 ∩ E2)= p(E1)x p(E2)

si può quindi enunciare tale teorema come:

dati due eventi E1 ed E2 indipendenti, la probabilità dell’evento E1 ∩ E2 è data dal prodotto della probabilità dell’evento E1 per la probabilità dell’evento E2.

(27)

27

(28)

28

LA STATISTICA

Studia fenomeni collettivi (demografici, economici, scientifici..) mediante l’osservazione dei fatti e degli eventi, con lo scopo di interpretarli attraverso l’uso di opportuni modelli.in tutti i problemi di statistica si devono analizzare grandi mane di dati che sono raccolti e classificati ed elaborati allo scopo di ottenere certi risultati o di formulare e verificare delle ipotesi. La statistica opera su popolazioni di dati che possiedono determinate caratteristiche alla quali viene dato il nome di caratteri o attributi. Se la popolazione è troppo estesa per essere analizzata completamente allora si estrae un campione appropriatamente scelto.

Soluzione problemi

Ragionamento deduttivo: Ragionamento induttivo:

E’ utilizzato quando si Procede da casi particolari per conoscono i caratteri di una giungere a considerazioni generali popolazione e si possono ricavare

le proprietà dei doveri con più possibilità di estrarli.

Procede da ipotesi vere e conduce a risultati veri.

(29)

29

CLASSIFICAZIONE DELLA STATISTICA

Descrittiva Inferenziale

Esempio: per determinare l’efficacia di un farmaco si conducono analisi di tipo statistico inferenziale analizzando differenti campioni di popolazione e

confrontando i risultati. Dai comportamenti registrati si inducono comportamenti validi per tutta la popolazione.

ha come scopo quello di raccogliere informazioni relative alle caratteristiche di uno stato (da cui il nome). Opera su grandezze certe e non utilizza grandezze probabilistiche.

Opera su un campione e su grandezze di tipo probabilistico. Adotta il metodo induttivo. I risultati sono incerti.

POPOLAZIONE

CAMPIONE Estrazione

(30)

30

Si occupa della descrizione delle distribuzioni statistiche di una sola variabile. I dati raccolti vengono organizzati in tabelle e poi analizzate e descritte per mezzo di alcuni indici.

Se alcuni dati si verificano più volte si ottiene la frequenza assoluta.

Se i dati raccolti sono numeri interi si diranno discreti; se i dati sono approssimati si diranno continui.

(31)

31 Esempio:lancio di un dado 40 volte.

f% 1 2 3 diagramma ad aste DATI DISCRETI f%

punteggio non sono classi

1 2 3 4 Punteggio. Frequenza. 1 4 2 8 3 9 4 7 5 4 6 8 Totale 40 DATI DISCRETI

(32)

32

Esempio: Serie di 30 misure di peso in grammi arrotondati all’unità. 60,48,73,79,86,90,61,64,67,57,95,87,93,78,91…..

30

I dati raccolti si possono organizzare in tabelle di frequenze. A fianco di ciascun intervallo, detto classe di frequenza, si riporta la frequenza assoluta con cui compare il dato. CLASSE FREQUENZA ASSOLUTA FREQUENZA RELATIVA FREQUENZA PERCENTUALE FREQUENZA CUMULATA 40 – 49 2 2 0, 07 30 7% 2 50 – 59 4 4 0, 13 3 13% 4+2=6 60 – 69 5 5 0, 17 30 17 % 5 + 6 = 11 70 – 79 12 40 % 12 +11 = 23 80 – 89 4 13 % 4 + 23 = 27 90 – 99 3 10 % 3 + 27 = 31 TOTALI 30 1,0 100 %

(33)

33

(34)

34

Per rappresentare una distribuzione frequenza si associa ai dati raccolti nelle tabelle di frequenza un grafico detto diagramma di frequenza. Uno dei più noti è l’istogramma, detto anche grafico a colonne, in cui sull’asse delle ascisse si riportano i dati suddivisi in classi di frequenza e sull’asse delle ordinate la frequenza. Gli estremi delle classi di frequenza, detti limiti e confini delle classi, si trovano nel punto medio tra la fine di una classe e l’inizio della classe successiva.

Estremi della classe 50 – 59.

4 9 5 0 49, 5 e. i. 2

5 9 6 0 59, 5 e. s. 2

Si disegna per ciascuna classe una colonna avente base costante e altezza proporzionale alla frequenza.

f

In alternativa si possono utilizzare i poligoni di frequenza, che si ottengono

congiungendo i punti medi del lato superiore di ciascuna sbarra dell’istogramma. L’ordinata del punto medio è il valore della frequenza, l’ascissa si ricava

sommando i punti xi e xi+1 della classe 2.

Xmi i i 1 centro o valore centrale della i- esima classe 2

(35)

35 Es :

mi 4 9 , 5 5 9 , 5 54, 5 2

misure pesi

Poiché a ogni distribuzione di frequenza è associabile una distribuzione

cumulativa di frequenza è associabile una distribuzione cumulativa di frequenza, oltre a questi diagrammi possiamo disegnare grafici detti poligoni delle frequenze cumulate od ogive. Le frequenze cumulate sull’asse delle ordinate e sull’asse delle ascisse gli estremi di ogni classe, l’ordite dell’esterno sinistro della prima classe è 0 mentre l’ordite di ciascun estremo destro coincide col valore della frequenza cumulata.

(36)

36

LE DISTRIBUZIONI CONTINUE

Per le distribuzioni continue l’istogramma è un’approssimazione della distribuzione delle probabilità.

(37)

37 Distribuzione continua normale o gaussiana Presenta le seguenti caratteristiche:

1) ha un unico picco centrale, per cui esiste una sola moda. 2) è simmetrica e quindi la moda coincide con la media

3) le probabilità di valori sempre più lontani dalla media sono via via più piccole. La distribuzione gaussiana assume notevole importanza per l’esecuzione di misure di laboratorio di grandezze fisiche. I valori si distribuiscono attorno al valore medio secondo una curva ‘campana’ in modo che i valori meno probabili sono quelli più lontani dal valore atteso.

Questa distribuzione è rappresentata dalla funzione densità di probabilità: S(x)= |c e (elevato a –h(x- ) al quadrato

Dove

= valore medio della variabile aleatoria x

|C= costante arbitraria il cui valore influenza lo sviluppo verticale della campana: al crescere di k cresce l’altezza della curva e viceversa, da k dipende anche l’area totale sottesa. In generale, si utilizza una distribuzione gaussiana normalizzata in modo che l’area sottesa sia unitaria.

in questo caso il valore di k è fissato e dipende dalla deviazione standard δ

h è una costante il cui valore influenza lo sviluppo orizzontale della campana: al

crescere di h la curva assume una forma più larga. Il valore h dipende da δ:

h = 1/2 δ2

Sostituendo h e k si ha

δ (x) = e –(x- 2 2 δ2

(38)

38

La distribuzione gaussiana dipende da due valori: 1) la media ;

2) la deviazione standard δ.

La funzione di distribuzione per una distribuzione normale è data da:

F(x) = –(x- )2 dx 2 2

f(x)

1 - - - - -2 - - - 1- - -

In una distribuzione gaussiana:

1) tra i valori - e + cade il 68,3% dei valori della distribuzione; 2) tra i valori - e + cade il 95,5% dei valori della distribuzione; 3) tra i valori - e + cade il 99,7% dei valori della distribuzione

(39)

39

LICEO SCIENTIFICO “E. SICILIANO” Bisignano (CS) a.s. 2011/2012 CLASSE IVB:

Polverazzi Valentina - Prezioso Ilenia - Giovinco Valentina - Spera M. N. Jacqueline - Ritacco Pamela

Riferimenti

Documenti correlati

Calcolare il numero medio di minuti d’attesa e la varianza di X.. Disegnare il boxplot relativo alla

La biocenosi DM è risultata caratterizzata dagli cnidari Actinauge richardi (facies dei fanghi compatti ad A. quadrangularis) ed Isidella elongata (facies dei

Using the comparison principle and Proposition 3.18, it is possible to ob- tain a corollary to this theorem which deals with boundary regularity of some particular obstacle

Here, we have identified PTX3 as an easily measurable disease biomarker able to predict at onset of clinical symptoms, in a pediatric cohort of HSCT patients, the

The oral health benefits of brushing and rinsing twice daily with an essential oil mouthrinse are perceived by patients and professionals alike and measurable by dentists at a

In order to meet the Layer0 requirements MAPS performance improvements are currently under investigation with two different approaches: 3D CMOS MAPS, realized with vertical

Google Trends graph depicting tendency over time to search for “Lyme disease”, “tick bite”, and “cough” (http://www.google.com/trends) a,b,c. a Lyme disease (blue), tick

We first describe the experimental settings (environment and data collection) and evaluate the overall impact of the proposed improvements on the localization accuracy of the system.