• Non ci sono risultati.

appunti sulle distribuzioni di probabilità

N/A
N/A
Protected

Academic year: 2021

Condividi "appunti sulle distribuzioni di probabilità"

Copied!
5
0
0

Testo completo

(1)

DISTRIBUZIONI DI PROBABILITÀ

Marco Monaci

1Liceo Scientifico G. Marconi (5F)

Variabili casuali discrete:

In questa breve nota renderemo più rigorosa l’idea di probabilità, e studieremo un modo per rappresentare al meglio tale idea.

Partiamo subito con un esempio, in modo da porre al meglio il problema e capire cosa dobbiamo fare.

Immaginiamo che Giulia, accanita giocatrice d’azzar-do, faccia questo test: vuole essere davvero certa che un dado da sei facce non sia truccato. Per fare questo un possibile esperimento è il seguente; effettuare un numero molto alto di lanci e verificare che ciascuna faccia esca mediamente un sesto delle volte totali. In altre parole, se Giulia effettua 1000 lanci (ammazza che voglia) si aspetta che il 3 esca mediamente 167 volte, esattamente come il 2 o come il 6. Ovviamente è pos-sibile che il 3 non esca esattamente 167 volte, ma che più o meno non ci si allontani da lì.

In Figura 1 riportiamo i risultati dell’esperimento aleatoriocondotto da Giulia. Con esperimento aleato-rio intendiamo propaleato-rio il lancio di un dado, il lancio di una moneta... insomma, qualunque cosa che abbia a che fare con il caso, e di cui vogliamo conoscere (o già conosciamo) le probabilità di successo o di fallimento.

Figura 1:L’esperimento aleatorio di Giulia, ovvero una simulazione di 1000 lanci di un dado a sei facce. Si vede bene che l’uscita di ciascuna faccia è grosso modo equiprobabile, e tutte si stabiliscono nell’intorno di 167 uscite.

Guardando per l’appunto la Figura 1 possiamo pas-sare a dare qualche definizione che tornerà molto utile.

Una variabile aleatoria discreta è una variabile che può assumere solo precisi valori predeterminati e di-screti, e tali valori sono assunti dopo un esperimento aleatorio. In poche parole, nel nostro caso, la variabile aleatoria discreta X è semplicemente l’insieme dei nu-meri scritti sulle facce di un dado, che quindi possono variare da 1 a 6.

Nel nostro particolare caso siamo in presenza per l’appunto di una variabile aleatoria discreta, in quanto arriva da un esperimento dettato dal caso (il lancio del dado); tuttavia è anche discreta perché può assumere ben precisi valori. Infatti Giulia non si aspetterà mai che esca il 2.5, oppure il π. Ciò significa che il risultato dell’esperimento può assumere solo un numero limitato di valori.

Definiamo ora una distribuzione di probabilità

discreta:

Si definisce distribuzione di probabilità discreta una funzione che associa ad ogni valore della variabile alea-toria la probabilità che tale valore esca. Per esempio nel nostro caso siamo in presenza di una distribuzio-ne discreta uniforme, in quanto qualunque valore è equiprobabile se confrontato con gli altri.

Per distribuzione uniforme intendiamo di fatto una distribuzione piatta: può assumere un solo valore in un certo intervallo, mentre è zero fuori da questo intervallo. Questa idea chiaramente torna con quanto ci si aspetta dall’esperimento condotto dalla nostra Giulia: nessuno di noi, sano di mente, scommetterebbe sull’uscita del -1: la sua probabilità è nulla. Esattamente come nessuno scommetterebbe sul 7.

Distribuzioni discrete non uniformi:

Incontriamo adesso un altro accanito giocatore d’azzar-do, che per comodità chiameremo Lorenzo. Lorenzo fa un gioco leggermente diverso, in quanto lancia due dadi a sei facce conteporaneamente, e vuole vedere come si distribuisce la probabilità di ottenere tutte le possibili combinazioni. Per fare questo anche lui effettua 1000 lanci diversi1 e vede il numero uscito, dato chiaramente

dalla somma dei due numeri ottenuti. Tale esperimento aleatorio presenta una grossa differenza rispetto all’e-sperimento condotto da Giulia: la distribuzione non è

più uniforme, ma presenta un massimo sul numero 7 (numero che probabilisticamente è più facile da ottenere, essendo il risultato del maggior numero di combinazio-ni), mentre invece per numeri inferiori o superiori la probabilità decresce.

In Figura 2 riportiamo il risultato dei 1000 lanci effet-tuati da Lorenzo. Si vede molto chiaramente che questa volta la distribuzione di probabilità discreta non è uni-forme, ma presenta più che altro un aspetto a campana. Dove è più alta significa che la probabilità è maggiore, mentre dove la curva è più bassa la probabilità e minore. Per ottenere la probabilità si può dividere il numero di ricorrenze (ovvero la y nell’istogramma) per il numero complessivo di prove effettuate. In questo modo il risul-tato sarà compreso fra 0 e 1, dove 0 indica per l’appunto probabilità nulla e dove 1 indica la certezza (probabilità del 100%).

Giusto per dovere di cronaca, la distribuzione ottenuta da Lorenzo è un caso particolare della distribuzione binomiale, anche detta distribuzione di Bernoulli.

1Il fatto di ottenere la probabilità che vogliamo a seguito di un gran

numero di prove si chiama legge dei grandi numeri, oppure

teo-rema di Bernoulli. Tale teoteo-rema ci garantisce che dopo un numero

sufficientemente elevato di prove, la nostra distribuzione ottenuta sarà molto simile alla distribuzione teorica, tanto più simile tante più prove si faranno.

(2)

Figura 2:Distribuzione di probabilità per la prova effettuata da Lorenzo.

Funzione di ripartizione:

Adesso descriviamo un’altra funzione carina e coccolo-sa che può esserci utile in qualche caso. Riprendiamo l’esperimento di Lorenzo e la sua distribuzione: come abbiamo visto non è uniforme, ma presenta un picco in corrispondenza del valore 7, che risulta essere quel-lo più probabile. Detto questo, vogliamo calcolare la probabilità di un evento leggermente diverso, ovvero la probabilità che esca un numero minore o uguale di un certo valore.

In altre parole per esempio, sul lancio dei due dadi, vogliamo calcolare la probabilità che esca un numero in-feriore a 5; tale probabilità sarà data chiaramente dalla somma delle probabilità, per così dire, sottostanti, ovve-ro la povve-robabilità che esca 4, sommata alla povve-robabilità che esca 3 e così via.

Detto questo vediamo che la funzione di ripartizione è sempre crescente (del resto si sommano sempre pro-babilità che per quanto piccole sono positive) ed inoltre parte da 0 e arriva al numero totale di prove effettuate, oppure a 1 se abbiamo normalizzato la distribuzione. Questo discorso torna logicamente, infatti è impossibile

ottenere un numero inferiore al minimo numero possibile, come del resto è certo ottenere un numero inferore al massimo numero possibile. Infatti nel lancio di due dadi è ovvio che abbiamo il 100% di probabilità di ottenere un numero inferiore o uguale a 12.

In Figura 3 possiamo osservare la funzione di riparti-zione della prova effettuata da Lorenzo. Giustamente la probabilità aumenta molto rapidamente in corrispon-denza del 7 (maggiore pencorrispon-denza della curva) mentre au-menta poco in corrispondenza dei valori meno probabili, in questo caso 2 e 12.

Nel caso in cui la distribuzione di probabilità sia uni-forme, allora la funzione di ripartizione è un pezzo di retta, che parte dall’origine e arriva fino al numero totale di prove effettuate.

In definitiva:

Figura 3:Funzione di ripartizione della prova effettuata da Lorenzo. Si vede chiaramente che è una funzione monotona, che parte da zero e arriva al numero di prove totali.

La funzione di ripartizione di una variabile casuale è la funzione che associa ad ogni X la probabilità di ottenere un valore non superiore a X.

Media e varianza:

A ciascuna distribuzione di probabilità è possibile asso-ciare un certo numero di valori caratterizzanti la distri-buzione stessa. Solitamente ne vengono usati anche 5, tuttavia noi ci limiteremo ai primi due, chiamati anche

momenti della distribuzione.

Entrambi sono di nostra vecchia conoscenza, essendo di fatto le generalizzazioni della media e della deviazione standard.

4.1 Media

L’idea della media è piuttosto semplice, in quanto pos-siamo, in maniera molto naive, definirlo come un valore "che va bene per tutti" e che rappresenta, per l’appunto mediamente, la distribuzione in oggetto. Effettivamente se sappiamo che la media delle estrazioni di un dado è 3.5, saremo praticamente certi che stiamo lanciando un dado a 6 facce. Nessuno direbbe che si tratta di un dado a 20 facce, e qualora lo sia, possiamo essere ragionevolmente certi che si tratti di un dado truccato.

Definiamo però ora la media in modo più rigoroso: Indichiamo con la lettera greca µ la media della variabile casuale discreta sarà data da:

µ(X) = x1p1+ x2p2+ ... + xnpn = n

X

i=1

xipi

Lasciando perdere il matematichese, come si calcola la media? Niente di più semplice. Si prendono tutti i possibili valori che possono uscire (quindi nel caso del dado prenderemo 1,2,3,4,5,6) e si moltiplicano rispetti-vamente per le probabilità di uscita (nel caso del dado le uscite sono equiprobabili e hanno probabilità 1/6);

(3)

quindi si sommano tutti i risultati ottenuti. Calcolia-mo proprio la media della distribuzione dei lanci di un singolo dado a sei facce:

µ(X) = 1 ·1 6+ 2 · 1 6 + 3 · 1 6+ 4 · 1 6 + 5 · 1 6 + 6 · 1 6 = 3.5 Quindi la media è 3.5.

Proprietà della media. k e h sono costanti numeriche,

mentre X e Y sono due variabili casuali discrete. • Se X può assumere un solo valore, chiaramente la

media coinciderà con il valore stesso; • µ(kX) = kµ(X); • µ(X + h) = µ(X) + h; • µ(X + Y ) = µ(X) + µ(Y ); • µ(X2) = x2 1p1+ x22p2+ ... + x2npn=Pni=1x2ipi.

4.2 Varianza

La varianza ci dice invece quanto i valori della buzione sono "arrognati" (vicini) alla media. Una distri-buzione con una grande varianza sarà piuttosto "larga" attorno alla media, mentre una distribuzione con una piccola varianza indica una distribuzione molto stretta e piccata attorno alla media. Sempre in maniera molto naive la varianza è collegata alla somma delle distanze al quadrato di tutti i punti rispetto alla media. Indichiamo la varianza con il simbolo σ2 (sì, è voluto l’elevamento

alla seconda, in quanto la notazione σ è riservata alla

deviazione standard.)

Il calcolo della varianza è piuttosto semplice. Lo riportiamo qua sotto nel riquadro.

Consideriamo i possibili valori x1, x2, x3...che può

assu-mere una variabile casuale; indichiamo con p1, p2, p3, ...

le rispettive probabilità di uscita dei valori considerati. Sia inoltre µ la media della variabile casuale considerata. Allora definiamo la varianza come:

σ2(X) = µ[(X − µ)2] = n X i=1 (xi− µ)2pi= = (x1− µ)2p1+ (x2− µ)2p2+ ... + (xn− µ)2pn

Molto semplicemente indichiamo con deviazione

standard l’indice σ =√σ2.

Si può dimostrare anche il teorema secondo il quale la varianza è uguale alla differenza fra la media della variabile al quadrato e il quadrato della media (che sono due cose diverse!); in altre parole:

σ2(X) = µ(X2) − [µ(X)]2

Riportiamo infine le proprietà della varianza:

Proprietà della varianza, con X e Y due variabili

casuali discrete, h e k due costanti numeriche. • σ2(kX) = k2σ2(X);

• σ2(X + h) = σ2(X);

• se le variabili X e Y sono indipendenti, allora abbiamo σ2(X + Y ) = σ2(X) + σ2(Y ).

Possiamo inoltre definire la covarianza come: cov(X, Y ) = σ

2(X + Y ) − [σ2(X) + σ2(Y )]

2

La covarianza è nulla se le sue variabili sono totalmen-te indipendenti. La covarianza quindi ci può dire quanto sono collegate due variabili, e quanto siano dipendenti l’una dall’altra.

Qualche distribuzione comune:

Riportiamo in questa sezione le distribuzioni discrete più comuni.

5.1 Distribuzione uniforme

Abbiamo già avuto modo di descrivere la distribuzione uniforme come la distribuzione che descrive l’uscita di un certo evento che è equiprobabile con gli altri. Casi classici sono il lancio di un singolo dado non truccato, così come il lancio di una moneta.

La media e la varianza di tale distribuzione sono: µ(X) = n + 1

2 σ

2(X) = n 2− 1

12

Dove con n indichiamo il valore massimo che può as-sumere la variabile casuale. Nel caso del dado semplice è n = 6, e si vede bene che la media risulta essere 3.5.

5.2 Distribuzione binomiale

Una distribuzione binomiale modellizza i successi nel caso di prove ripetute, come per esempio: "quale è la probabilità di ottenere 3 lanciando un dado 5 volte consecutive?"

Tale distribuzione l’abbiamo già vista, e l’abbiamo chiamata distribuzione di Bernoulli (o teorema di Ber-noulli) o anche teorema delle prove ripetute. Tale distribuzione ha forma:

f (x) =n x 

px(1 − p)n−x

Dove per l’appunto n è il numero di prove effettuate, x è il numero di successi, p la probabilità di avere successo su un singolo tiro.

La distribuzione binomiale possiede la seguente media e varianza:

µ(X) = np σ2(X) = np(1 − p)

5.3 Distribuzione di Poisson

Chiamata anche distribuzione degli eventi rari, mo-dellizza tutti quei problemi del tipo: sapendo che in un’ora avvengono tot eventi, quanti ne capiteranno nei primi cinque minuti? (Inutile dire che si può utilizzare qualunque intervallo temporale).

La distribuzione di Poisson può essere così modelliz-zata:

f (x) =λ

x

x!e

−λ

Dove con λ indichiamo la media che tot eventi si ve-rifichino nel nostro intervallo considerato, mentre x è proprio il numero di eventi che vogliamo che avvengano.

Difficile? Ma neanche per la fonchia, è molto più facile di quanto si possa pensare. Facciamo un esempio.

Esempio. Sappiamo che una certa specie radioattiva

produce 1000 decadimenti all’ora. Quale è la probabilità di osservare 70 decadimenti nei primi 5 minuti?

(4)

Prima di tutto calcoliamo la media di eventi che av-vengono in 5 minuti. In un’ora ci sono dodici intervalli da 5 minuti, quindi la media sarà:

λ = 1000 12 = 83

A questo punto possiamo calcolare la probabilità: P (70) = 83

70

70! e

−83= 0.016 = 1.6%

In questo particolare caso siamo sotto media, in quan-to abbiamo osservaquan-to meno decadimenti di quanquan-to aspettato.

La media e la varianza di una distribuzione di Poisson sono facili, infatti:

µ(X) = σ2(X) = λ

Giochi aleatori:

Un gioco aleatorio, ovvero un modo carino per definire il gioco d’azzardo, prevede l’utilizzo di una certa variabile aleatoria discreta e un pagamento più o meno equo in caso di successo.

Seguiamo ora la nostra Antonietta, anche lei accanita però esperta giocatrice di azzardo. Antonietta decide di giocare alla Roulette: una roulette francese è composta da trentasei numeri (dall’1 al 36) più lo zero. Limitiamo-ci alla puntata semplice, ovvero dove Antonietta gioca una fiche su un singolo numero, immaginiamo il 10. La probabilità di vincita è di 1/37, in quanto bisogna contare anche lo zero. Se Antonietta vince, il banco paga 36 volte la puntata. Il vantaggio del banco risiede nello zero, infatti se esce lo zero il banco vince tutto. Ciò significa che il banco ha una piccola probabilità in più di vincita, piuttosto esigua se paragonati rispetto ad altri giochi.

Se il gioco fosse equo, il banco pagherebbe 37 volte la puntata, ovvero la puntata sarebbe uguale alla media delle vincite lorde che si possono ottenere nel gioco. Nel nostro caso la media della vincita lorda è pari a 37.

Un gioco può quindi essere anche svantaggioso o

vantaggioso. E’ inutile dire che tutti i giochi di azzardo

sono visibilmente svantaggiosi, di cui la roulette rap-presenta quello più equo. Giusto per divertirvi, provate a calcolare la probabilità di ottenere una cinquina al gioco del lotto e andate a vedere quanto viene pagata su una puntata di un euro. Rimarrete sbalorditi.

Inoltre questo pone un problema etico: infatti più uno gioca, e più fa vincere il banco: infatti per la legge dei grandi numeri si tenderà alla media di vincite e di perdite, che nei giochi sono a netto sfavore del giocatore. Questo significa che giocando tutto il giorno uno non fa altro che fare il gioco del banco, ovvero effettuare una serie di prove ripetute che vanno a convergere verso la perdita totale. Detto questo, conviene effettuare una puntata poche volte, e sperare nella cosiddetta botta di culo. Se non arriva, meglio smettere, o si rischia di giocarsi tutta la pensione di invalidità della nonna.

6.1 Variabili casuali standardizzate

Questa breve subsection serve solo per definire una

variabile casuale standardizzata. La variabile casuale

standardizzata Z della variabile casuale X con media µ e deviazione standard σ è definita come:

Z = X − µ σ

Passando alle variabili casuali standardizzate è possibile confrontare grandezze diverse.

Distribuzioni casuali continue:

Adesso alziamo un po’ il tiro. Immaginiamo di avere a disposizione tutti i numeri reali compresi fra 0 e 10. Vogliamo calcolare la probabilità di beccare il π, estraendo a caso un numero reale fra 0 e 10. Chiunque non ci punterebbe nemmeno una moneta da tre euro, in quanto la probabilità di beccare esattamente il π è nulla. Infatti i numeri reali compresi fra 0 e 10 sono infiniti, quindi la probabilità di successo è p = 1

∞ = 0.

Quindi questa descrizione di probabilità, nel caso di variabili continue, non è adatta. Per variabile casuale

continua si intende proprio un insieme composto da

infiniti elementi, che abbia la potenza del reale (ovvero che sia possibile stabilire una corrispondenza biunivoca fra il numero di elementi e i reali).

Proviamo a riformulare la questione. Quale è la pro-babilità di beccare un numero reale compreso fra 2 e 3 da un insieme contenenti tutti i numeri reali compresi fra 0 e 10? Saremo tutti d’accordo che tale probabilità è proprio un decimo, in quanto l’intervallo considerato è proprio un decimo di tutto l’insieme.

Sembrerebbe proprio che qui serva un integrale, e infatti è così.

La probabilità, nel nostro caso, è data proprio dall’integrale:

P (2 ≤ X ≤ 3) = Z 3

2

f (x)dx

Dove la funzione f (x) rappresenta proprio la di-stribuzione di probabilità continua. Affinché tale distribuzione di probabilità abbia senso, deve essere:

Z ∞

−∞

f (x)dx = 1

Ciò significa che la probabilità di estrarre un numero compreso in tutto l’insieme è il 100%; e come potrebbe essere altrimenti. Considerando l’esempio di prima, quale è la probabilità di estrarre un numero compreso da 0 a 10 in un insieme che va da 0 a 10? Ovviamente del 100%.

In Figura 4 è presente una rappresentazione grafica di quanto abbiamo detto. L’integrale definito ci dice la probabilità di beccare un numero contenuto proprio all’interno di tale intervallo.

In generale possiamo scrivere: p(x1≤ X ≤ x2) =

Z x2

x1

f (x)dx

7.1 Funzione di ripartizione

La funzione di ripartizione di una variabile continua è rappresentata dalla funzione integrale:

F (x) = p(X ≤ x) = Z x

−∞

f (t)dt

Dove come al solito abbiamo indicato con t la nostra variabile di supporto. Tale integrale fondamentalmente conteggia tutte le possibilità da −∞ fino a x.

La funzione di ripartizione di una variabile continua non è diversa da quella di una variabile discreta, è sempre crescente e parte da zero fino a raggiungere l’unità (se abbiamo normalizzato la distribuzione a 1, ovvero l’integrale fra meno infinito e più infinito è pari a 1).

(5)

Figura 4:Rappresentazione grafica della probabilità di estrarre un numero reale compreso fra 2 e 3 da un insieme contenente i numeri reali da 0 a 10.

7.2 Media, Varianza, Deviazione Standard

Concludiamo questa breve trattazione indicando le for-mule per la media, la varianza e la deviazione standard. Di fatto sono più o meno le stesse del caso discreto, solo che questa volta abbiamo sostituito le sommatorie con gli integrali. Media: µ(X) = Z +∞ −∞ x · f (x)dx Varianza: σ2(X) = Z +∞ −∞ [x − µ(X)]2f (x)dx Deviazione standard: σ =√σ2

Riferimenti

Documenti correlati

La popolazione dei bambini di età 0-18 anni è pari a circa il 18% della popolazione totale e, nonostante il decremento progressivo delle nascite, sono numerosi i nuovi problemi

Perché questo tasso di occupazione evidenziato dalla ricerca di Ahnalaurea, an- che se non esaltante, è superio- re a quello di un neodiplomato e i dati sugli stipendi indicano

“numero di palline bianche estratte” se ne determini la distribuzione di probabilità, il valore atteso, il coefficiente di variazione e

Uno strumento digitale ha una risoluzione di una cifra

II La Regione Emilia Romagna ha approvato il progetto «Spe- rimentazione di azioni a suppor- to della qualificazione delle transizioni dai percorsi univer- sitari al lavoro» che

Applichiamo il seguente teorema (vedere modulo calcolo delle probabilità):... La

Prova parziale dell’8.11.2007. Tempo concesso: 90 minuti N. di def., limiti, even- tuale parit`a o disparit`a, eventuale periodicit`a, immaggine, continuit`a, derivabilit`a, crescenza

Insulinemia plasmatica periferica in soggetti normali non diabetici dopo pasto, e in pazienti con diabete mellito tipo 1 dopo iniezione sc di 0,15 U/kg di insulina umana regolare