• Non ci sono risultati.

• Elementi di probabilità e statistica • Teorema del limite centrale

N/A
N/A
Protected

Academic year: 2021

Condividi "• Elementi di probabilità e statistica • Teorema del limite centrale"

Copied!
41
0
0

Testo completo

(1)

• Elementi di probabilità e statistica

• Teorema del limite centrale

FS-0.1- Elementi di probabilità e statistica 1

(2)

Molti problemi in teoria delle probabilità e, come vedremo in seguito, in Fisica Statistica richiedono il contare il numero di modi in cui un particolare evento può accadere.

richiamo di alcune formule di calcolo combinatorio

Numero di permutazioni

Sia N il numero di oggetti distinti. Il numero di permutazioni è dato da:

N!

Infatti se si considerano N scatole ed N oggetti,

• ci sono N modi per scegliere il primo oggetto e porlo nella prima scatola,

• ci sono (N-1) modi per il secondo per la seconda scatola,

• etc.

Il totale dei modi è N(N-1)(N-2)…1 = N

(3)

Si continua con un esempio:

Quante persone dobbiamo avere in una stanza per una scommessa favorevole (probabilità maggiore di ½) sull’avere almeno due persone nate lo stesso giorno.

---

Avendo a disposizione 365 possibilità vinceremmo di sicuro dicendo almeno 183.

La sorpresa è che ne bastano solo 23.

Per dimostrarlo calcoliamo la probabilità pr che in una stanza con r persone non ci sono duplicazioni di giorni di nascita. Vinceremo la scommessa se questa probabilità è minore di ½.

Ordiniamo le persone da 1 ad r e per ognuna di loro ci sono 365 possibilità ottenendo 365r possibili sequenze di nascite. Tra queste dobbiamo scegliere quelle che non hanno duplicazioni.

Questo significa che scelto 365 per il primo elemento, ce ne sono 364 per il secondo, 363 per il terzo, …, 365-r+1 per l’r-esimo

FS-0.1- Elementi di probabilità e statistica 3

(4)

Assumendo che ogni sequenza è equamente probabile,

20 .5885616

21 .5563117

22 .5243047

23 .4927028

24 .4616557

25 .4313003

… … 40 .1087682

… … 100 .0000003

(5)

Abbiamo assunto che un qualunque giorno sia equamente

probabile rispetto ad un altro ma, l’evidenza statistica diche che non è proprio così.

Numero di disposizioni e numero di combinazioni

Il numero di disposizioni di n entità presi tra N oggetti

rappresenta il numero di modi di sceglierne n tra N oggetti

considerando anche l’ordine di uscita (ad esempio (1,2) è diverso da (2,1)) ed è dato da,

Se l’ordine di uscita non è rilevante (ad esempio (1,2) è uguale a (2,1)) allora il numero di combinazioni è dato da,

FS-0.1- Elementi di probabilità e statistica 5

(6)

Probabilità

La Fisica statistica è sostanzialmente basata su concetti probabilistici.

Come vedremo in seguito, il valore di una grandezza fisica

sperimentalmente osservata è interpretata come il suo valore più probabile.

Questo valore corrisponde al massimo della probabilità di trovarlo.

Inoltre, la quantità osservata è nient’altro che il valore medio risultante da una media statistica sui microstati.

Riassumiamo, perciò, le principali proprietà delle probabilità e le leggi più usate.

Cominciamo col distinguere tra eventi discreti ed eventi continui.

(7)

Eventi discreti

Possono essere distinti l’uno dall’altro senza errore o

ambiguità. Pensate al lancio di un dado o a quello di una moneta in cui il risultato è indipendente da quello

precedente.

Supponiamo di effettuare N esperimenti ognuno con un proprio risultato.

Sia il numero di volte in cui appare un risultato di tipo i tra gli N risultati.

La probabilità di tale evento è,

N.B. Per ogni è, 0

FS-0.1- Elementi di probabilità e statistica 7

(8)

Eventi continui – Densità di probabilità

In questo caso c’è sempre una incertezza (errore).

Esempio: Si vuole misurare la lunghezza di un tavolo. Sia a probabilità che tale lunghezza appartenga all’intervallo e sia numero di volte tra le N misure in cui questo accade, allora, =

La densità di probabilità è definita da,

La probabilità di trovare la lunghezza del tavolo nell’intervallo è così,

N.B.

(9)

Proprietà fondamentali

• Normalizzazione

• Regola dell’addizione

Se ed sono due eventi discreti incompatibili con

probabilità e la probabilità di trovare o è,

Per variabili continue, la probabilità di trovare x tra a e b sarà,

= = 1

FS-0.1- Elementi di probabilità e statistica 9

(10)

Se i due eventi non sono incompatibili in N esperimenti, allora

• Regola della moltiplicazione

Se ed sono due eventi indipendenti,

Esempio:

Tirare un dado due volte. La probabilità di trovare faccia 1 o faccia 2 è mentre quella di trovare faccia 1 e faccia 2 sarà .

(11)

Valori medi

Per variabili discrete,

dove è il valore di nel microstato m di probabilità e la somma è su tutti gli stati.

Per eventi continui,

dove è il valore di nello stato

Il valore più probabile di una variabile A corrisponde al massimo di

FS-0.1- Elementi di probabilità e statistica 11

(12)

Varianza

E’ definita da,

La grandezza

= è nota come deviazione standard e rappresenta la dispersione della distribuzione statistica.

Una relazione analoga vale per il caso continuo.

Di solito è usato il simbolo σ per indicarla.

La deviazione standard, o scarto

quadratico medio , è , quindi, un indice di dispersione delle misure sperimentali.

È uno dei modi per rappresentare la

dispersione dei dati attorno al valore atteso (valore medio).

(13)

13

«E non è ingiusto, questo? Non è forse vero che chi si comporta così, evidentemente vive tra gli uomini senza averne nessuna esperienza? Se, infatti, li conoscesse appena, saprebbe che son pochi quelli veramente buoni o completamente malvagi e che per la maggior parte, invece, sono dei mediocri.»

«In che senso?» feci.

«È lo stesso delle cose molto piccole e molto grandi. Credi forse che sia tanto facile trovare un uomo o un cane o un altro

essere qualunque molto grande o molto piccolo o, che so io, uno molto veloce o molto lento o molto brutto o molto bello o tutto bianco o tutto nero? Non ti sei mai accorto che in tutte le cose gli estremi sono rari mentre gli aspetti intermedi sono

frequenti, anzi numerosi?»

Platone, Fedone, XXXIX

Le distribuzioni statistiche

FS-0.1- Elementi di probabilità e statistica

(14)

Le distribuzioni statistiche

• Una distribuzione di probabilità è una funzione che sintetizza la relazione tra i valori di una variabile casuale e la probabilità che questi si presentino

• La conoscenza della distribuzione di probabilità di una variabile casuale fornisce uno strumento potente per riassumere e

descrivere il set di dati e per trarre conclusioni a partire dal campione della popolazione studiata

• Una distribuzione di probabilità può essere rappresentata con una tabella, un grafico o una formula

• Una distribuzione continua non permette la stima della probabilità di estrarre un particolare valore, ma solo quelli compresi in un dato intervallo. Per esempio, nella distribuzione delle altezze di una

popolazione di studenti, non è possibile stimare la probabilità di avere un individuo alto esattamente 176,000 cm ma quella di avere un individuo tra 180 e 190 centimetri

(15)

• La forma di una distribuzione di probabilità continua è

usualmente definita da una curva senza sbalzi, mentre per una variabile discreta la probabilità è definita per i valori puntuali della variabile , e il grafico della distribuzione rassomiglia ad una serie di impulsi

• La forma di una distribuzione può essere simmetrica rispetto al valore centrale o ci può essere una coda più lunga da un lato piuttosto che da un altro. Se la coda è a sinistra (destra) la

distribuzione viene detta asimmetrica a sinistra (destra)

• - Alcune distribuzioni teoriche di probabilità comunemente usate per descrivere dati sono: la distribuzione Gaussiana o Normale, la distribuzione Binomiale e la distribuzione di

Poisson .

FS-0.1- Elementi di probabilità e statistica 15

(16)

Nel caso si osservino Variabili discrete le distribuzioni specificano tutti i possibili risultati della variabile casuale insieme alla probabilità che ciascuno di essi si verifichi V.C. discreta: Numero di figli maschi in famiglie con 4 figli residenti in Toscana nel 1991

DISTRIBUZIONI DI PROBABILITA’ PER VARIABILI DISCRETE

# MASC

HI

FR

0 0.05

1 0.23

2 0.37

3 0.28

4 0.07

(17)

DISTRIBUZIONE BINOMIALE

Consideriamo un esperimento con solo due tipi di risultati possibili (es: Successo (1) - Non Successo (0)) rispettivamente con probabilità p e q=1-p.

Ripetendo n volte l'esperimento in modo che le ripetizioni diano luogo a risultati indipendenti la somma delle realizzazioni 0,1 coinciderà con il numero di successi k.

Tale numero è una nuova variabile casuale (o meglio aleatoria), somma di n variabili casuali bernoulliane indipendenti

La v.c. Binomiale è definita dalla seguente funzione di probabilità :

tale funzione esprime la probabilità della concomitanza di k successi (indipendentemente dall'ordine) che si alternano agli n - k insuccessi.

Il coefficiente binomiale:

(coefficienti binomiali)

esprime i modi distinguibili in cui possono essere ripartiti i k successi negli n tentativi, ed, ovviamente,

FS-0.1- Elementi di probabilità e statistica 17

(18)

per il binomio di Newton vale:

       

k è un numero intero non negativo (k=0,1,2,3,...,n) p è un valore compreso tra 0 e 1 esclusi (0<p<1)

Per una variabile casuale con distribuzione binomiale si può dimostrare che:

il valore medio è: μ = np

la varianza vale: var(X) = npq e la deviazione standard risullta: σ = npq

Esempio 1. Determinare la probabilità che su 12 lanci di una moneta buona si ottengano esattamente 8 teste.

Si tratta di un esperimento di Bernoulli in cui il “successo” coincide con “esce T”; quindi p

=1/2 e q = ½ e si ha:

(19)

FS-0.1- Elementi di probabilità e statistica 19

Distribuzione di Poisson

La distribuzione di Poisson è anche detta distribuzione degli eventi rari. Se abbiamo un evento E, il numero di volte che E si verifica è una variabile aleatoria discreta.

Una variabile aleatoria X (numero di volte che si verifica E), che può assumere i valori 0,1,2,…, è detta variabile aleatoria di Poisson con parametro λ se la sua distribuzione di probabilità per λ>0 è:

dove:

λ parametro della Poisson

x numero di volte che si verifica l’evento E

( ) !

e x

P X x

(20)

E' un modello probabilistico adoperato per rappresentare situazioni di conteggio del n° di occorrenze di certi eventi in una unità di tempo o più precisamente n° di “successi” in un certo intervallo continuo (di tempo, di superficie, di

lunghezza).

Le ipotesi di base della Poisson sono:

1.La probabilità del verificarsi di un evento è costante per tutti i sottointervalli.

2.L’evento non si può verificare più di una volta in ciascuno dei sottointervalli.

3.Eventi che si verificano in intervalli disgiunti sono

indipendenti.

(21)

FS-0.1- Elementi di probabilità e statistica 21

Una delle caratteristiche principali della variabile aleatoria di Poisson è che il suo valore medio e la sua varianza

coincidono e sono uguali al parametro λ della distribuzione.

In base al valore assunto dal parametro λ la distribuzione

prende differenti forme

(22)

Esempio

Ad una guardia medica arrivano in media 3,5 richieste ogni ora di interventi urgenti a domicilio. Calcolare la probabilità che in una stessa ora arrivino 3, 4, oppure 5 chiamate urgenti. Il fenomeno può essere descritto utilizzando la formula di Poisson, con λ = 3,5. Si ha:

3,5 3

3,5 4

3,5 5

(3) 3,5 0, 2158 3!

(4) 3,5 0,1888

4!

(5) 3,5 0,1322

5!

P e

P e

P e

(23)

Distribuzione normale (o Gaussiana)

La distribuzione normale (o Gaussiana) è la distribuzione continua più utilizzata in statistica

Le sue proprietà principali sono:

1.ha forma campanulare

2.le sue misure di posizione centrale (media, mediana e moda) coincidono

3.ha due punti di flesso in μ-σ e in μ+σ 4.assume valori compresi tra -∞ e +∞

5.ha come asintoto orizzontale l’asse delle ascisse

FS-0.1- Elementi di probabilità e statistica 23

lim ( ) lim ( ) 0

x f x x f x

 

(24)

La funzione di densità di probabilità della normale è data dalla seguente espressione:

dove:

μ = valore atteso (media) della popolazione σ = scarto quadratico medio della popolazione x = valori assunti dalla variabile aleatoria

Le probabilità di una distribuzione normale dipendono soltanto dai valori dei due parametri μ e σ.

Diverse combinazioni di questi

parametri danno luogo a differenti distribuzioni normali.

1 2

1

2

( ) 2

x

f x e

 

 

(25)

FS-0.1- Elementi di probabilità e statistica 25

Distribuzione normale al variare di μ.

Distribuzione normale al variare di σ.

(26)

Caratteristiche di una distribuzione Normale

La probabilità che un valore estratto a caso da una

N(μ,σ2) sia compreso nell’intervallo (μ -σ , μ+σ) è pari a 0.683 e che sia compreso tra (μ -2σ , μ+2σ) è pari a 0,954 Il 95% dei valori centrali di una

distribuzione Normale cadono

nell’intervallo (μ - 1.96σ , μ+1.96σ)

ed il 99% nell’intervallo (μ – 2.58σ , μ+2.58σ)

(27)

FS-0.1- Elementi di probabilità e statistica 27

Esempio.

Il tempo medio di permanenza in un ospedale per anziani è di 38 giorni con uno scarto quadratico medio di 12 giorni. La distribuzione dei tempi di permanenza è una normale.

Sappiamo quindi che il 68,27% degli ospiti resta in ospedale tra 26 e 50 giorni

La probabilità che un ospite resti 62 giorni è del 2,275%, infatti:

la coda a destra μ+2σ di in una distribuzione Normale sottende un area di 0,02275.

38 12 50 38 12 26

 

 

 

 

62

50 12 62 2 n

n n

  

   

(28)

Poiché i valori di μ e σ dipendono dal particolare problema in

considerazione le probabilità di trovare dei valori in un determinato intervallo, anche diverso da quelli comunemente usati, e descritti nel grafico precedente, diventa complicato.

Non ci sono tavole di probabilità per tutti i possibili valori di μ e σ , esiste una tavola unica che può essere usata per tutte le variabili Normali. Tale tavola si riferisce ad una particolare distribuzione: la distribuzione Normale Standardizzata.

La distribuzione normale standardizzata o normale ridotta, si

ottiene mediante il cambiamento di variabile dato da

(29)

La standardizzazione è una trasformazione che consiste nel:

- rendere la media nulla (μ = 0), poiché ad ogni valore viene sottratta la media;

- prendere la deviazione standard σ come unità di misura (σ = 1) della nuova variabile.

La distribuzione normale ridotta viene indicata con N(0,1), che indica appunto una distribuzione normale con media 0 e varianza uguale a 1.

In ogni distribuzione Normale con media μ e d.s. σ, la probabilità tra x

1

e x

2

è la stessa che tra z

1

e z

2

nella distribuzione Normale

Standardizzata, dove

z1=(x1- μ)/ σ

z2=(x2- μ)/ σ

FS-0.1- Elementi di probabilità e statistica 29

(30)

Distribuzione Normale Standardizzata

Tavola dei valori di una

Normale

Standardizzata

(31)

FS-0.1- Elementi di probabilità e statistica 31

Esempio

Supponiamo che il tempo necessario per caricare la homepage del sito Unica sia distribuito normalmente con μ=7 secondi e σ=2 secondi. A ciascun valore della variabile X (tempo di

caricamento) è associato il corrispondente valore della variabile

standardizzata Z.

(32)

Supponiamo di voler determinare la probabilità che il tempo di caricamento della homepage sia inferiore ai 9 secondi. (P(X<9))

Il primo passo è quello di riportare il valore di X=9 secondi al valore della Z standardizzandolo:

Infine si utilizza la tavola dei valori per determinare l’area cumulata fino al valore Z=1

9 7 1

2 Z X

 

  

(33)

FS-0.1- Elementi di probabilità e statistica 33

Ricaviamo allo stesso modo le seguenti probabilità:

P(X<7 o X>9)

P(5<X<9)

(34)

•Tirare un dado 5 volte e segnamo I risultati di ogni lancio.

•Trovare il valore medio dei cinque lanci .

•Ripetere l’operazione 250 volte.

Teorema del limite centrale

(35)

x=3.504 s=.7826 n=5

FS-0.1- Elementi di probabilità e statistica 35

(36)

Ripetere l’operazione lanciando il dado non 5 ma 10 volte e

seguire la stessa procedura.

(37)

Risultato per 20 lanci

FS-0.1- Elementi di probabilità e statistica 37

(38)

Cosa notiamo circa la forma della distribuzione delle medie ?

Per grandi dimensione dei campioni:

1. La distribuzione delle medie tenderà sempre più ad una distribuzione normale..

2. La media della distribuzione delle medie,  tenderà ad essere quella della popolazione.

3. La deviazione standard della distribuzione delle medie approccia il valore .

n

(39)

Il teorema del limite centrale (TLC) afferma che,

la somma (o la media) di un grande numero di variabili casuali ed indipendenti e dotate della stessa

distribuzione, è approssimativamente normale

indipendentemente dalla distribuzione soggiacente.

Questo significa che la distribuzione di alcune

statistiche (per esempio la media del campione) diventa nota, anche se non si sa nulla a proposito della forma della distribuzione della popolazione da cui i campioni sono stati tratti.

Cosa significa grande?

Una regola euristica afferma che un campione con sia sufficiente a giustificare l’applicazione del TLC.

FS-0.1- Elementi di probabilità e statistica 39

(40)

Esempio

Supponiamo di estrarre dei campioni da una popolazione che segue una distribuzione binomiale con n = 10, p = 0.075.

La variabile casuale x assumerà i valori 1,…10 non nella stessa misura essendo p = 0.075, i valori più bassi sono rappresentati nella popolazione in maniera superiore a quelli più alti.

La media di questa popolazione sarà,

Supponiamo di estrarre dei campioni casuali di grandezza n = 5 e di calcolare la media di ciascun campione.

Un esempio di campione è, C

1

= (1, 3, 1, 2, 1); ognuno di questi numeri estratto a caso dalla distribuzione binomiale.

(41)

Per ciascun campione calcoliamo la media. Per C

1

è 1.8. Se ripetiamo questo processo 10.000 volte e costruiamo un

istogramma della distribuzione delle medie otteniamo un risultato che non somiglia molto ad una distribuzione normale e con una media di 0.7466 (molto simile alla media della popolazione 0.75).

Se il numero dei campioni fosse più grande , l’approssimazione sulla forma sarebbe molto migliore. Infatti con campioni di

dimensioni n = 10 la forma approssima meglio quella normale ed un valore medio di 0.7477.

Con un campione di n = 100 la forma della distribuzione delle medie è praticamente normale con un valore medio di 0.7502.

La cosa importante è che, per campioni sufficientemente grandi, la distribuzione della media dei campioni tende a quella normale

indipendentemente dalla forma della distribuzione della popolazione da cui i campioni sono tratti.

FS-0.1- Elementi di probabilità e statistica 41

Riferimenti

Documenti correlati

Si osservi che la deviazione standard delle medie è 1/N volte più piccolo della deviazione standard delle singole misure; questo implica che le medie campionarie si

E’ un teorema di convergenza della binomiale alla gaussiana, che si a¢ anca al teorema degli eventi rari.. Qui, per vedere la convergenza, bisogna standardizzare la binomiale S n (Z n

Un suo reparto produce un numero di pezzi giornalieri che varia casualmente di giorno in giorno; con un certo grado di estrapolazione, si supponga che questo numero X aleatorio

Ripetere il calcolo del punto 2 utilizzando per la media il valore 5.4 e per la varianza la stima più pessimistica, al 90%; per pessimistica si intenda qui la varianza più

Teorema - Sia data una popolazione numerica infinita di media µ e deviazione standard (scarto quadratico medio) σ da cui ven- gono estratti dei campioni casuali formati ciascuno da

Una lettura attenta della dimostrazione appena completata rivela che l’ipotesi che le variabili aleatorie X i siano indipendenti `e stata usata pi`u volte, mentre quella che

Date due variabili aleatorie indipendenti di leggi allora avrà legge Data una variabile aleatoria con distribuzione di probabilità coincidente con

Ad esempio, in seguito al lancio di un dado un evento può essere: “esce un numero pari”, “un numero maggiore di 7”,.. “un numero minore o uguale a