• Elementi di probabilità e statistica
• Teorema del limite centrale
FS-0.1- Elementi di probabilità e statistica 1
Molti problemi in teoria delle probabilità e, come vedremo in seguito, in Fisica Statistica richiedono il contare il numero di modi in cui un particolare evento può accadere.
richiamo di alcune formule di calcolo combinatorio
Numero di permutazioni
Sia N il numero di oggetti distinti. Il numero di permutazioni è dato da:
N!
Infatti se si considerano N scatole ed N oggetti,
• ci sono N modi per scegliere il primo oggetto e porlo nella prima scatola,
• ci sono (N-1) modi per il secondo per la seconda scatola,
• etc.
Il totale dei modi è N(N-1)(N-2)…1 = N
•
Si continua con un esempio:
Quante persone dobbiamo avere in una stanza per una scommessa favorevole (probabilità maggiore di ½) sull’avere almeno due persone nate lo stesso giorno.
---
Avendo a disposizione 365 possibilità vinceremmo di sicuro dicendo almeno 183.
La sorpresa è che ne bastano solo 23.
Per dimostrarlo calcoliamo la probabilità pr che in una stanza con r persone non ci sono duplicazioni di giorni di nascita. Vinceremo la scommessa se questa probabilità è minore di ½.
Ordiniamo le persone da 1 ad r e per ognuna di loro ci sono 365 possibilità ottenendo 365r possibili sequenze di nascite. Tra queste dobbiamo scegliere quelle che non hanno duplicazioni.
Questo significa che scelto 365 per il primo elemento, ce ne sono 364 per il secondo, 363 per il terzo, …, 365-r+1 per l’r-esimo
FS-0.1- Elementi di probabilità e statistica 3
Assumendo che ogni sequenza è equamente probabile,
20 .5885616
21 .5563117
22 .5243047
23 .4927028
24 .4616557
25 .4313003
… … 40 .1087682
… … 100 .0000003
•
Abbiamo assunto che un qualunque giorno sia equamente
probabile rispetto ad un altro ma, l’evidenza statistica diche che non è proprio così.
Numero di disposizioni e numero di combinazioni
Il numero di disposizioni di n entità presi tra N oggetti
rappresenta il numero di modi di sceglierne n tra N oggetti
considerando anche l’ordine di uscita (ad esempio (1,2) è diverso da (2,1)) ed è dato da,
Se l’ordine di uscita non è rilevante (ad esempio (1,2) è uguale a (2,1)) allora il numero di combinazioni è dato da,
•
FS-0.1- Elementi di probabilità e statistica 5
Probabilità
La Fisica statistica è sostanzialmente basata su concetti probabilistici.
Come vedremo in seguito, il valore di una grandezza fisica
sperimentalmente osservata è interpretata come il suo valore più probabile.
Questo valore corrisponde al massimo della probabilità di trovarlo.
Inoltre, la quantità osservata è nient’altro che il valore medio risultante da una media statistica sui microstati.
Riassumiamo, perciò, le principali proprietà delle probabilità e le leggi più usate.
Cominciamo col distinguere tra eventi discreti ed eventi continui.
Eventi discreti
Possono essere distinti l’uno dall’altro senza errore o
ambiguità. Pensate al lancio di un dado o a quello di una moneta in cui il risultato è indipendente da quello
precedente.
Supponiamo di effettuare N esperimenti ognuno con un proprio risultato.
Sia il numero di volte in cui appare un risultato di tipo i tra gli N risultati.
La probabilità di tale evento è,
N.B. Per ogni è, 0
•
FS-0.1- Elementi di probabilità e statistica 7
Eventi continui – Densità di probabilità
In questo caso c’è sempre una incertezza (errore).
Esempio: Si vuole misurare la lunghezza di un tavolo. Sia a probabilità che tale lunghezza appartenga all’intervallo e sia numero di volte tra le N misure in cui questo accade, allora, =
La densità di probabilità è definita da,
La probabilità di trovare la lunghezza del tavolo nell’intervallo è così,
N.B.
•
Proprietà fondamentali
• Normalizzazione
• Regola dell’addizione
Se ed sono due eventi discreti incompatibili con
probabilità e la probabilità di trovare o è,
Per variabili continue, la probabilità di trovare x tra a e b sarà,
•
= = 1
FS-0.1- Elementi di probabilità e statistica 9
Se i due eventi non sono incompatibili in N esperimenti, allora
• Regola della moltiplicazione
Se ed sono due eventi indipendenti,
Esempio:
Tirare un dado due volte. La probabilità di trovare faccia 1 o faccia 2 è mentre quella di trovare faccia 1 e faccia 2 sarà .
•
Valori medi
Per variabili discrete,
dove è il valore di nel microstato m di probabilità e la somma è su tutti gli stati.
Per eventi continui,
dove è il valore di nello stato
Il valore più probabile di una variabile A corrisponde al massimo di
•
FS-0.1- Elementi di probabilità e statistica 11
Varianza
E’ definita da,
La grandezza
= è nota come deviazione standard e rappresenta la dispersione della distribuzione statistica.
Una relazione analoga vale per il caso continuo.
Di solito è usato il simbolo σ per indicarla.
La deviazione standard, o scarto
quadratico medio , è , quindi, un indice di dispersione delle misure sperimentali.
È uno dei modi per rappresentare la
dispersione dei dati attorno al valore atteso (valore medio).
•
13
«E non è ingiusto, questo? Non è forse vero che chi si comporta così, evidentemente vive tra gli uomini senza averne nessuna esperienza? Se, infatti, li conoscesse appena, saprebbe che son pochi quelli veramente buoni o completamente malvagi e che per la maggior parte, invece, sono dei mediocri.»
«In che senso?» feci.
«È lo stesso delle cose molto piccole e molto grandi. Credi forse che sia tanto facile trovare un uomo o un cane o un altro
essere qualunque molto grande o molto piccolo o, che so io, uno molto veloce o molto lento o molto brutto o molto bello o tutto bianco o tutto nero? Non ti sei mai accorto che in tutte le cose gli estremi sono rari mentre gli aspetti intermedi sono
frequenti, anzi numerosi?»
Platone, Fedone, XXXIX
Le distribuzioni statistiche
FS-0.1- Elementi di probabilità e statistica
Le distribuzioni statistiche
• Una distribuzione di probabilità è una funzione che sintetizza la relazione tra i valori di una variabile casuale e la probabilità che questi si presentino
• La conoscenza della distribuzione di probabilità di una variabile casuale fornisce uno strumento potente per riassumere e
descrivere il set di dati e per trarre conclusioni a partire dal campione della popolazione studiata
• Una distribuzione di probabilità può essere rappresentata con una tabella, un grafico o una formula
• Una distribuzione continua non permette la stima della probabilità di estrarre un particolare valore, ma solo quelli compresi in un dato intervallo. Per esempio, nella distribuzione delle altezze di una
popolazione di studenti, non è possibile stimare la probabilità di avere un individuo alto esattamente 176,000 cm ma quella di avere un individuo tra 180 e 190 centimetri
• La forma di una distribuzione di probabilità continua è
usualmente definita da una curva senza sbalzi, mentre per una variabile discreta la probabilità è definita per i valori puntuali della variabile , e il grafico della distribuzione rassomiglia ad una serie di impulsi
• La forma di una distribuzione può essere simmetrica rispetto al valore centrale o ci può essere una coda più lunga da un lato piuttosto che da un altro. Se la coda è a sinistra (destra) la
distribuzione viene detta asimmetrica a sinistra (destra)
• - Alcune distribuzioni teoriche di probabilità comunemente usate per descrivere dati sono: la distribuzione Gaussiana o Normale, la distribuzione Binomiale e la distribuzione di
Poisson .
FS-0.1- Elementi di probabilità e statistica 15
Nel caso si osservino Variabili discrete le distribuzioni specificano tutti i possibili risultati della variabile casuale insieme alla probabilità che ciascuno di essi si verifichi V.C. discreta: Numero di figli maschi in famiglie con 4 figli residenti in Toscana nel 1991
DISTRIBUZIONI DI PROBABILITA’ PER VARIABILI DISCRETE
# MASC
HI
FR
0 0.05
1 0.23
2 0.37
3 0.28
4 0.07
DISTRIBUZIONE BINOMIALE
Consideriamo un esperimento con solo due tipi di risultati possibili (es: Successo (1) - Non Successo (0)) rispettivamente con probabilità p e q=1-p.
Ripetendo n volte l'esperimento in modo che le ripetizioni diano luogo a risultati indipendenti la somma delle realizzazioni 0,1 coinciderà con il numero di successi k.
Tale numero è una nuova variabile casuale (o meglio aleatoria), somma di n variabili casuali bernoulliane indipendenti
La v.c. Binomiale è definita dalla seguente funzione di probabilità :
tale funzione esprime la probabilità della concomitanza di k successi (indipendentemente dall'ordine) che si alternano agli n - k insuccessi.
Il coefficiente binomiale:
(coefficienti binomiali)
esprime i modi distinguibili in cui possono essere ripartiti i k successi negli n tentativi, ed, ovviamente,
FS-0.1- Elementi di probabilità e statistica 17
per il binomio di Newton vale:
k è un numero intero non negativo (k=0,1,2,3,...,n) p è un valore compreso tra 0 e 1 esclusi (0<p<1)
Per una variabile casuale con distribuzione binomiale si può dimostrare che:
il valore medio è: μ = np
la varianza vale: var(X) = npq e la deviazione standard risullta: σ = npq
Esempio 1. Determinare la probabilità che su 12 lanci di una moneta buona si ottengano esattamente 8 teste.
Si tratta di un esperimento di Bernoulli in cui il “successo” coincide con “esce T”; quindi p
=1/2 e q = ½ e si ha:
FS-0.1- Elementi di probabilità e statistica 19
Distribuzione di Poisson
La distribuzione di Poisson è anche detta distribuzione degli eventi rari. Se abbiamo un evento E, il numero di volte che E si verifica è una variabile aleatoria discreta.
Una variabile aleatoria X (numero di volte che si verifica E), che può assumere i valori 0,1,2,…, è detta variabile aleatoria di Poisson con parametro λ se la sua distribuzione di probabilità per λ>0 è:
dove:
λ parametro della Poisson
x numero di volte che si verifica l’evento E
( ) !
e x
P X x
E' un modello probabilistico adoperato per rappresentare situazioni di conteggio del n° di occorrenze di certi eventi in una unità di tempo o più precisamente n° di “successi” in un certo intervallo continuo (di tempo, di superficie, di
lunghezza).
Le ipotesi di base della Poisson sono:
1.La probabilità del verificarsi di un evento è costante per tutti i sottointervalli.
2.L’evento non si può verificare più di una volta in ciascuno dei sottointervalli.
3.Eventi che si verificano in intervalli disgiunti sono
indipendenti.
FS-0.1- Elementi di probabilità e statistica 21
Una delle caratteristiche principali della variabile aleatoria di Poisson è che il suo valore medio e la sua varianza
coincidono e sono uguali al parametro λ della distribuzione.
In base al valore assunto dal parametro λ la distribuzione
prende differenti forme
Esempio
Ad una guardia medica arrivano in media 3,5 richieste ogni ora di interventi urgenti a domicilio. Calcolare la probabilità che in una stessa ora arrivino 3, 4, oppure 5 chiamate urgenti. Il fenomeno può essere descritto utilizzando la formula di Poisson, con λ = 3,5. Si ha:
3,5 3
3,5 4
3,5 5
(3) 3,5 0, 2158 3!
(4) 3,5 0,1888
4!
(5) 3,5 0,1322
5!
P e
P e
P e
Distribuzione normale (o Gaussiana)
La distribuzione normale (o Gaussiana) è la distribuzione continua più utilizzata in statistica
Le sue proprietà principali sono:
1.ha forma campanulare
2.le sue misure di posizione centrale (media, mediana e moda) coincidono
3.ha due punti di flesso in μ-σ e in μ+σ 4.assume valori compresi tra -∞ e +∞
5.ha come asintoto orizzontale l’asse delle ascisse
FS-0.1- Elementi di probabilità e statistica 23
lim ( ) lim ( ) 0
x f x x f x
La funzione di densità di probabilità della normale è data dalla seguente espressione:
dove:
μ = valore atteso (media) della popolazione σ = scarto quadratico medio della popolazione x = valori assunti dalla variabile aleatoria
Le probabilità di una distribuzione normale dipendono soltanto dai valori dei due parametri μ e σ.
Diverse combinazioni di questi
parametri danno luogo a differenti distribuzioni normali.
1 2
1
2( ) 2
x
f x e
FS-0.1- Elementi di probabilità e statistica 25
Distribuzione normale al variare di μ.
Distribuzione normale al variare di σ.
Caratteristiche di una distribuzione Normale
La probabilità che un valore estratto a caso da una
N(μ,σ2) sia compreso nell’intervallo (μ -σ , μ+σ) è pari a 0.683 e che sia compreso tra (μ -2σ , μ+2σ) è pari a 0,954 Il 95% dei valori centrali di una
distribuzione Normale cadono
nell’intervallo (μ - 1.96σ , μ+1.96σ)
ed il 99% nell’intervallo (μ – 2.58σ , μ+2.58σ)
FS-0.1- Elementi di probabilità e statistica 27
Esempio.
Il tempo medio di permanenza in un ospedale per anziani è di 38 giorni con uno scarto quadratico medio di 12 giorni. La distribuzione dei tempi di permanenza è una normale.
Sappiamo quindi che il 68,27% degli ospiti resta in ospedale tra 26 e 50 giorni
La probabilità che un ospite resti 62 giorni è del 2,275%, infatti:
la coda a destra μ+2σ di in una distribuzione Normale sottende un area di 0,02275.
38 12 50 38 12 26
62
50 12 62 2 n
n n
Poiché i valori di μ e σ dipendono dal particolare problema in
considerazione le probabilità di trovare dei valori in un determinato intervallo, anche diverso da quelli comunemente usati, e descritti nel grafico precedente, diventa complicato.
Non ci sono tavole di probabilità per tutti i possibili valori di μ e σ , esiste una tavola unica che può essere usata per tutte le variabili Normali. Tale tavola si riferisce ad una particolare distribuzione: la distribuzione Normale Standardizzata.
La distribuzione normale standardizzata o normale ridotta, si
ottiene mediante il cambiamento di variabile dato da
La standardizzazione è una trasformazione che consiste nel:
- rendere la media nulla (μ = 0), poiché ad ogni valore viene sottratta la media;
- prendere la deviazione standard σ come unità di misura (σ = 1) della nuova variabile.
La distribuzione normale ridotta viene indicata con N(0,1), che indica appunto una distribuzione normale con media 0 e varianza uguale a 1.
In ogni distribuzione Normale con media μ e d.s. σ, la probabilità tra x
1e x
2è la stessa che tra z
1e z
2nella distribuzione Normale
Standardizzata, dove
z1=(x1- μ)/ σ
z2=(x2- μ)/ σ
FS-0.1- Elementi di probabilità e statistica 29
Distribuzione Normale Standardizzata
Tavola dei valori di una
Normale
Standardizzata
FS-0.1- Elementi di probabilità e statistica 31
Esempio
Supponiamo che il tempo necessario per caricare la homepage del sito Unica sia distribuito normalmente con μ=7 secondi e σ=2 secondi. A ciascun valore della variabile X (tempo di
caricamento) è associato il corrispondente valore della variabile
standardizzata Z.
Supponiamo di voler determinare la probabilità che il tempo di caricamento della homepage sia inferiore ai 9 secondi. (P(X<9))
Il primo passo è quello di riportare il valore di X=9 secondi al valore della Z standardizzandolo:
Infine si utilizza la tavola dei valori per determinare l’area cumulata fino al valore Z=1
9 7 1
2 Z X
FS-0.1- Elementi di probabilità e statistica 33
Ricaviamo allo stesso modo le seguenti probabilità:
P(X<7 o X>9)
P(5<X<9)
•Tirare un dado 5 volte e segnamo I risultati di ogni lancio.
•Trovare il valore medio dei cinque lanci .
•Ripetere l’operazione 250 volte.
Teorema del limite centrale
x=3.504 s=.7826 n=5
FS-0.1- Elementi di probabilità e statistica 35
Ripetere l’operazione lanciando il dado non 5 ma 10 volte e
seguire la stessa procedura.
Risultato per 20 lanci
FS-0.1- Elementi di probabilità e statistica 37
Cosa notiamo circa la forma della distribuzione delle medie ?
Per grandi dimensione dei campioni:
1. La distribuzione delle medie tenderà sempre più ad una distribuzione normale..
2. La media della distribuzione delle medie, tenderà ad essere quella della popolazione.
3. La deviazione standard della distribuzione delle medie approccia il valore .
n
Il teorema del limite centrale (TLC) afferma che,
la somma (o la media) di un grande numero di variabili casuali ed indipendenti e dotate della stessa
distribuzione, è approssimativamente normale
indipendentemente dalla distribuzione soggiacente.
Questo significa che la distribuzione di alcune
statistiche (per esempio la media del campione) diventa nota, anche se non si sa nulla a proposito della forma della distribuzione della popolazione da cui i campioni sono stati tratti.
Cosa significa grande?
Una regola euristica afferma che un campione con sia sufficiente a giustificare l’applicazione del TLC.
•
FS-0.1- Elementi di probabilità e statistica 39
Esempio
Supponiamo di estrarre dei campioni da una popolazione che segue una distribuzione binomiale con n = 10, p = 0.075.
La variabile casuale x assumerà i valori 1,…10 non nella stessa misura essendo p = 0.075, i valori più bassi sono rappresentati nella popolazione in maniera superiore a quelli più alti.
La media di questa popolazione sarà,
Supponiamo di estrarre dei campioni casuali di grandezza n = 5 e di calcolare la media di ciascun campione.
Un esempio di campione è, C
1= (1, 3, 1, 2, 1); ognuno di questi numeri estratto a caso dalla distribuzione binomiale.
•
Per ciascun campione calcoliamo la media. Per C
1è 1.8. Se ripetiamo questo processo 10.000 volte e costruiamo un
istogramma della distribuzione delle medie otteniamo un risultato che non somiglia molto ad una distribuzione normale e con una media di 0.7466 (molto simile alla media della popolazione 0.75).
Se il numero dei campioni fosse più grande , l’approssimazione sulla forma sarebbe molto migliore. Infatti con campioni di
dimensioni n = 10 la forma approssima meglio quella normale ed un valore medio di 0.7477.
Con un campione di n = 100 la forma della distribuzione delle medie è praticamente normale con un valore medio di 0.7502.
La cosa importante è che, per campioni sufficientemente grandi, la distribuzione della media dei campioni tende a quella normale
indipendentemente dalla forma della distribuzione della popolazione da cui i campioni sono tratti.
•
FS-0.1- Elementi di probabilità e statistica 41