CALCOLO DELLA PROBABILITAβ
Importanza probabilitΓ e definizioni
Occorre studiare la probabilitΓ perchΓ© in molti esperimenti non Γ¨ noto a priori lβesito, ma sono noti i possibili esiti di cui Γ¨ possibile calcolare la probabilitΓ . Un esperimento di cui a priori non si conosce lβesito Γ¨ detto esperimento aleatorio. I possibili esiti di un esperimento aleatorio sono detti eventi elementari. Lβinsieme costituito da tutti gli eventi elementari Γ¨ detto spazio campionario Ξ©. I sottoinsiemi di Ξ© sono gli eventi. Lo spazio campionario puΓ² essere:
β’ Discreto = quando Γ¨ finito o infinito numerabile β’ Continuo = quando Γ¨ infinito non numerabile
Linguaggio insiemistico
Dopo aver definito gli eventi Γ¨ opportuno comprendere che significato hanno le varie relazioni insiemistiche dal punto di vista del βlinguaggio degli eventiβ:
β’ Unione = lβesito dellβesperimento Γ¨ un elemento di A oppure un elemento di B π΄ βͺ π΅ β’ Intersezione = lβesito dellβesperimento Γ¨ un elemento sia di A che di B π΄ β© π΅ β’ Differenza = lβesito dellβesperimento Γ¨ un elemento di A ma non di B π΄ β π΅ β’ Eventi incompatibili = due eventi A e B sono incompatibili se sono disgiunti cioΓ¨ non hanno elementi in
comune ovvero la loro intersezione Γ¨ lβinsieme vuoto π΄ β© π΅ = β
β’ Implicazione logica = tutti gli elementi di B sono anche elementi di A π΄ β π΅
Definizione informale e assiomatica della probabilitΓ
Dopo aver definito un evento e aver studiato le relazioni insiemistiche occorre attribuire ora ad ogni evento la sua probabilitΓ . Nel linguaggio comune la probabilitΓ si esprime con percentuali. Informalmente la probabilitΓ di un evento Γ¨ un numero reale compreso tra 0 e 1 che misura quanto si ritiene probabile il verificarsi di tale evento.
Per dare una definizione rigorosa della probabilità fu necessario aspettare il 1930 quando Kolmogrov scoprì che le proprietà della probabilità si potevano ricavare da pochi assiomi, ovvero proprietà che si definiscono vere, e pose così le basi per il calcolo delle probabilità moderno.
Definiamo dunque assiomaticamente la probabilitΓ : sia Ξ© uno spazio campionario e β± una famiglia di suoi eventi, si chiama probabilitΓ su Ξ© una qualsiasi funzione β: β± β [0,1] con le seguenti proprietΓ :
β β(Ξ©) = 1
β Se {π΄π}π Γ¨ una successione numerabile di eventi a due a due disgiunti allora:
β (β π΄π +β π=1 ) = β β(π΄π) +β π=1
Definiamo poi la π-algebra ovvero una famiglia di sottoinsiemi di Ξ© che ha delle proprietΓ di chiusura rispetto ad alle operazioni insiemistiche di unione numerabile di passaggio complementare. Assiomaticamente la π-algebra Γ¨ una famiglia β± se sono soddisfatte le seguenti proprietΓ :
β Lβinsieme vuoto appartiene ad β±: β β β±
β Se π΄ β β± allora anche il suo complementare appartiene ad β±: π΄β β β±
β Se {π΄π}πββ Γ¨ una collezione di insiemi di β± allora lβunione di tutti gli eventi appartiene ad β±
Da questβultima ipotesi ne consegue che la probabilitΓ β deve soddisfare la richiesta di additivitΓ . Con il solo utilizzo degli assiomi Γ¨ possibile dimostrare le seguenti proprietΓ :
β’ β(β ) = 0
β’ β(π΄β) = 1 β β(π΄)
β’ β(π΄ βͺ π΅) = β(π΄) + β(π΅) β β(π΄ β© π΅)
Definiamo ora la probabilitΓ discreta: una misura β su Ξ© si dice discreta se esiste π· β β± al piΓΉ numerabile tale che β(π·β) = 0.
Calcolo della probabilitΓ
Se lo spazio campionario Γ¨ discreto per conoscere la probabilitΓ di ogni evento basta assegnare la probabilitΓ agli eventi elementari. Infatti, se Ξ© Γ¨ discreto significa che i suoi elementi si possono elencare e ogni suo sottoinsieme A Γ¨ unβunione finita di elementi. Quindi la probabilitΓ di A Γ¨ la somma delle probabilitΓ degli elementi che lo compongono. Vediamo ora come assegnare la probabilitΓ agli eventi elementari:
β’ Approccio classico = se lo spazio campionario Γ¨ finito e ha π elementi e tutti i suoi elementi hanno la stessa probabilitΓ , la probabilitΓ si calcola come:
β(π΄) =πΒ°ππ£πππ‘π πππ£ππππ£πππ πΒ°ππ πππ π πππ π πππππ
Questo approccio puΓ² essere usato quando i casi possibili sono un numero finito e quando i casi sono equiprobabili, se vengono meno queste due ipotesi non Γ¨ piΓΉ possibile calcolare la probabilitΓ come rapporto tra casi favorevoli e casi possibili.
β’ Approccio frequentista = si calcola come rapporto tra il numero di volte che si realizza un evento π e lβinsieme dei tentativi π:
β(π΄) =π π
Questo approccio Γ¨ valido se lβesperimento Γ¨ ripetibile. Se un evento non viene osservato negli esperimenti fatti si attribuisce probabilitΓ zero. Inoltre, bisogna tenere presente che lβidea frequentista non va bene se il futuro Γ¨ βdiversoβ dal passato ovvero lβesperimento non si ripete sempre nelle medesime condizioni: in questo caso si parlerΓ di probabilitΓ condizionata
β’ Se si vuole calcolare la probabilitΓ di pescare π elementi con certe caratteristiche, indichiamo con π il numero degli elementi dellβinsieme π che hanno queste caratteristiche, e π‘ elementi con altre caratteristiche, si procede nel seguente modo:
β(π΄) = (π π) ( π β π π‘ ) ( π π + π‘)
Ricordiamo come calcolare il coefficiente binomiale: (ππ) = π!
π! (π β π)! π! = π(π β 1)(π β 2) β¦ 1
ProbabilitΓ condizionata
Dunque, la probabilitΓ Γ¨ uno strumento che viene usato quando si ha incertezza sullβesito degli esperimenti. Tuttavia, ci sono situazioni in cui abbiamo una conoscenza parziali dellβesito; questa conoscenza potrebbe alterare la probabilitΓ che assegniamo a certi eventi (ad esempio il numero pescato non viene rimesso nel sacchetto). La probabilitΓ che avvenga A sapendo che B avviene Γ¨ calcolata considerando B come nuovo spazio campionario e si fa riferimento agli eventi elementari che appartengono sia ad A che a B. Dunque, dati due eventi A e B con β(π΅) > 0, si definisce la probabilitΓ di A dato B, o probabilitΓ di A condizionata al verificarsi di B, il seguente numero:
β(π΄|π΅) =β(π΄ β© π΅) β(π΅)
β(π΄|π΅) risulta comunque essere una probabilitΓ su Ξ© come afferma in seguente teorema: data una probabilitΓ β su Ξ© e fissato un evento B con β(π΅) > 0, allora la funzione β(β |π΅) che allβevento A associa β(π΄|π΅) Γ¨ una probabilitΓ su Ξ©.
La probabilitΓ condizionata gode delle seguenti proprietΓ : β’ β(β |π΅) = 0
β’ Se gli eventi sono a due a due disgiunti si ha: β(π΄1, π΄2, β¦ , π΄π|π΅) = β(π΄1, |π΅) + β(π΄2|π΅) + β― + β(π΄π|π΅)
β’ β(π΄β|π΅) = 1 β β(π΄|π΅)
β’ Se gli eventi non disgiunti si ha: β(π΄1βͺ π΄2|π΅) = β(π΄1, |π΅) + β(π΄2|π΅) β β(π΄1β© π΄2|π΅)
Dalla formula della probabilitΓ condizionata ricaviamo anche un altro modo di calcolare la probabilitΓ dellβunione di due eventi:
β(π΄ β© π΅) = β(π΄|π΅)β(π΅)
Indipendenza di eventi
Due eventi A e B si dicono indipendenti se vale lβuguaglianza β(π΄ β© π΅) = β(π΄)β(π΅). Γ importante sottolineare che lβindipendenza non deve essere confusa con lβincompatibilitΓ . Se due eventi A e B sono incompatibili, sapere che si Γ¨ verificato A implica che B non puΓ² essersi verificato dunque sapere che si Γ¨ verificato A cambia la probabilitΓ di B.
Teorema delle probabilitΓ totali e formula di Bayes
Dato uno spazio campionario Ξ©, si definisce partizione dello spazio campionario una famiglia di eventi π΅1, π΅2, β¦ , π΅π tali che la loro unione dia proprio lo spazio campionario π΅1βͺ π΅2βͺ β¦ βͺ π΅π= Ξ© e lβintersezione a
due a due di questi eventi sia lβinsieme vuoto π΅πβ© π΅π = β βπ β π.
Enunciamo ora il teorema delle probabilitΓ totali: dato uno spazio campionario Ξ©, una sua partizione π΅1, π΅2, β¦ , π΅π e un evento A, vale la seguente formula:
β(π΄) = β β(π΄ β© π΅π) π=1,β¦,π
= β β(π΄|π΅π)β(π΅π) π=1,β¦,π:β(π΅π)>0
Dimostrazione: poichΓ© la famiglia π΅1, π΅2, β¦ , π΅π Γ¨ una partizione vale che:
β β(π΄ β© π΅π) π=1,β¦,π
= β β(π΄ β© π΅π)
π=1,β¦,π:β(π΅π)>0
PoichΓ© β(π΅π) = 0 implica che β(π΄ β© π΅π) = 0, dalla formula per la probabilitΓ condizionata, se
β(π΅π) > 0 allora β(π΄ β© π΅π) = β(π΄|π΅π)β(π΅π). β‘
Nel teorema delle probabilitΓ totali si ha una partizione dello spazio campionario e si conoscono tutte le probabilitΓ condizionate β(π΄|π΅π), talvolta si potrebbe essere interessati invece a una partizionare in particolare
β(π΅π|π΄). Per poter calcare questo termine occorre utilizzare la formula di Bayes: sia {π΅π}π=1π una partizionare
dello spazio campionario Ξ© e sia A un evento con β(π΄) > 0, allora per ogni π β {1,2, β¦ , π} vale che: β(π΅π|π΄) =
β(π΄|π΅π)β(π΅π)
βπ=1,β¦,π:β(π΅π)>0β(π΄|π΅π)β(π΅π)
Dimostrazione: per dimostrare questo teorema Γ¨ sufficiente scrivere la definizione di β(π΅π|π΄) e applicare il
teorema delle probabilitΓ totali per ricavare β(π΄): β(π΅π|π΄) = β(π΅πβ© π΄) β(π΄) = β(π΄|π΅π)β(π΅π) β(π΄) = β(π΄|π΅π)β(π΅π) βπ=1,β¦,π:β(π΅π)>0β(π΄|π΅π)β(π΅π)
Formule per il calcolo della probabilitΓ β(Ξ©) = 1
β(β ) = 0
β(π΄β) = 1 β β(π΄)
β(π΄ βͺ π΅) = β(π΄) + β(π΅) β β(π΄ β© π΅) se A e B non sono disgiunti β(π΄ βͺ π΅) = β(π΄) + β(π΅) se A e B sono disgiunti β(π΄ β© π΅) = 0 se A e B sono disgiunti
N.B.: per ricavare la probabilitΓ β(π΄) + β(π΅) Γ¨ fondamentale che i due eventi siano disgiunti π΄ β© π΅ = β
Mentre per ricavare la probabilitΓ β(π΄) + β(π΅) + β(πΆ) occorre che gli eventi siano a due a due disgiunti ovvero π΄ β© π΅ = β , π΅ β© πΆ = β , π΄ β© πΆ = β , non Γ¨ sufficiente che π΄ β© π΅ β© πΆ = β N.B.: ricordarsi che puΓ² essere applicato de Morgan e quindi fare il complementare di tutto. Formule per il calcolo della probabilitΓ condizionata
β(π΄|π΅) =β(π΄ β© π΅) β(π΅)
β(π΄ β© π΅) = β(π΄|π΅)β(π΅) β(β |π΅) = 0
β(π΄β|π΅) = 1 β β(π΄|π΅)
β(π΄1, π΄2, β¦ , π΄π|π΅) = β(π΄1, |π΅) + β(π΄2|π΅) + β― + β(π΄π|π΅) eventi sono a due a due disgiunti
β(π΄1βͺ π΄2|π΅) = β(π΄1, |π΅) + β(π΄2|π΅) β β(π΄1β© π΄2|π΅) eventi non disgiunti
Alte formule per il calcolo della probabilitΓ β(π΄) = β β(π΄ β© π΅π) π=1,β¦,π = β β(π΄|π΅π)β(π΅π) π=1,β¦,π:β(π΅π)>0 β(π΅π|π΄) = β(π΄|π΅π)β(π΅π) βπ=1,β¦,π:β(π΅π)>0β(π΄|π΅π)β(π΅π)
VARIABILI ALEATORIE
Variabili aleatorie
Definiamo variabile aleatoria X una funzione che ha come dominio lo spazio campionario Ξ© e come codominio βπ, in formule: π: Ξ© β βπ. Γ dunque una funzione che fa corrispondere ad ogni valore nel dominio un valore nel codominio. Le caratteristiche interessanti di una variabile aleatoria sono due:
β’ Lβinsieme dei suoi possibili valori = nel nostro caso sono numeri reali e dunque si le variabili aleatorie si chiamano numeriche. Le variabili aleatorie numeriche possono essere suddivise in due tipi:
1. Discrete = una variabile aleatoria si dice discreta se lβinsieme dei valori che X puΓ² assumere Γ¨ un insieme infinito oppure infinito numerabile
2. Assolutamente continue = una variabile aleatoria si dice discreta se lβinsieme dei valori che X puΓ² assumere Γ¨ un insieme infinito continuo
β’ Usare le variabili aleatorie permette di lavorare con uno spazio piΓΉ semplice, modellizzare esprimenti multipli contemporaneamente e lavorare con le βleggiβ e non con lo spazio campionario. Definiamo dunque la legge: data una variabile aleatoria X la misura di probabilitΓ βπ definita di seguito si dice legge:
βπ(π΄) β βπ(πβ1(π΄)), π΄ β βπ
Data una variabile aleatoria X a valori in β la funzione πΉπ: β β [0,1] definita di seguito si dice funzione di
ripartizione di X:
πΉπ(π‘) β βπ(πβ1((ββ, π‘])) β‘ βπ((ββ, π‘]), βπ‘ β β
La funzione di ripartizione πΉπ ha le seguenti proprietΓ :
β’ Γ non decrescente, quindi ha limiti da destra e da sinistra β’ lim π βπ‘+πΉπ(π ) = πΉπ(π‘) β’ lim π‘β+βπΉπ(π‘) = 1 β’ lim π‘βββπΉπ(π‘) = 0
VARIABILI ALEATORIE DISCRETE
DensitΓ di una variabile aleatoria discreta
Definiamo ora la densitΓ ππ di una variabile discreta come una funzione che associa ad ogni valore di x la
probabilitΓ che X assuma quel valore. Se x non Γ¨ uno dei valori possibili allora la densitΓ Γ¨ nulla ππ= 0. In
generale dunque ciΓ² che interessa di una variabile aleatoria Γ¨ lβinsieme dei valori possibili che puΓ² assumere e la densitΓ ππ. Lβinsieme dei valori possibili puΓ² essere:
β Finito
β Numerabile = in questo caso viene indicato come successione La densitΓ di una variabile discreta ha le seguenti proprietΓ :
β Assume solo valori positivi o uguali a 0 β La somma dei suoi valori Γ¨ 1
Valore atteso di una variabile aleatoria discreta
Sia π: Ξ© β βπ una variabile aleatoria discreta avente come immagine in βπ lβinsieme V (ovvero lβinsieme dei valori che X puΓ² assumere). Se la serie βπ£βπ||π£||ππ(π£) converge allora si chiama valore atteso di X il numero
reale:
πΌ(π) = β π£
π£βπ
La πΌ sta per expectation, ovvero attesa. Il valore atteso nel caso in cui V sia finito si calcola sommando su tutti i valori possibili il prodotto tra il valore π₯π e la sua probabilitΓ , Γ¨ dunque una media pesata dei valori dove il peso
di un valore Γ¨ la sua probabilitΓ :
πΌ(π) = β π₯π π
π=1
β(π₯π)
Vediamo ora una serie di proprietΓ (dedotti da alcuni teoremi) del valore atteso: β’ Se π, π sono numeri reali: πΌ(ππ + π) = ππΌ(π) + π
β’ Se π, π sono due variabili aleatorie: πΌ(π + π) = πΌ(π) + πΌ(π)
Varianza di una variabile aleatoria
Data una variabile aleatoria X a valori in β la sua varianza Γ¨ il numero reale: πππ(π) = πΌ ((π β πΌ(π))2)
La radice della varianza Γ¨ detta deviazione standard o anche scarto quadratico medio. Per variabili discrete il calcolo si riduce a:
πππ(π) = β π₯2 π₯βπ
ππ(π₯) β πΌ(π)2
Vediamo ora una serie di proprietΓ della varianza: 1. πππ(π) β₯ 0
2. πππ(π) = 0 se e solo se π Γ¨ una variabile aleatoria costante ovvero puΓ² assumere un solo valore 3. πππ(π) = πΌ(π2) β (πΌ(π))2
4. Se π, π sono numeri reali: πππ(ππ + π) = π2πππ(π)
5. Se π, π sono due variabili aleatorie: πππ(π + π) = πππ(π) + πππ(π) + 2πΆππ£(π, π) Dove la covarianza di X e Y Γ¨:
πΆππ£(π, π) = πΌ(ππ) β πΌ(π)πΌ(π)
La differenza tra la varianza e il valore atteso delle variabile aleatoria Γ¨ che la varianza Γ¨ un indice di dispersione mentre il valore atteso Γ¨ un indice di posizione.
Dimostrazione prop. 1: Γ¨ conseguenza del fatto che la variabile aleatoria puΓ² solo essere maggiore o uguale a 0 Dimostrazione prop. 3: πππ(π) = πΌ ((π β πΌ(π))2) = = πΌ (π2+ (πΌ(π))2β 2ππΌ(π)) = = πΌ(π2) + πΌ ((πΌ(π))2) β 2πΌ(ππΌ(π)) = = πΌ(π2) + (πΌ(π))2β 2πΌ(π)πΌ(π) = = πΌ(π2) + (πΌ(π))2β 2(πΌ(π))2 = = πΌ(π2) β (πΌ(π))2 Dimostrazione prop. 4: πππ(ππ + π) = πΌ((ππ + π)2) β (πΌ(ππ + π))2= = πΌ(ππ2+ π2+ 2πππ) β (ππΌ(π) + π)2= = πΌ(ππ2) + πΌ(π2) + πΌ(2πππ) β π2(πΌ(π))2β π2β 2πππΌ(π) = = π2πΌ(π2) + π2+ 2πππΌ(π) β π2(πΌ(π))2β π2β 2πππΌ(π) = = π2πΌ(π2) β π2(πΌ(π))2=
= π2(πΌ(π2) β (πΌ(π))2) = = π2πππ(π) Dimostrazione prop. 4: πππ(π + π) = πΌ((π + π)2) β (πΌ(π + π))2= = πΌ(π2+ π2+ 2ππ) β (πΌ(π) + πΌ(π))2= = πΌ(π2)+πΌ(π2)+πΌ(2ππ)β (πΌ(π))2β (πΌ(π))2β 2πΌ(π)πΌ(π)= = πππ(π)+πππ(π)+2πΆππ£(π, π)
Indipendenza variabili aleatorie discrete
Date π varaibili aleatorie π1, π2, β¦ , ππ essere si dicono indipendenti se lβuguaglianza:
β(π1= π£1, π2= π£2, β¦ , ππ= π£π) = β(π1= π£1) β β( π2 = π£2) β β¦ β β(ππ = π£π)
Per ogni scelta di π£1, π£2, β¦ π£π. La prima parte dellβeguaglianza significata la βprobabilitΓ che
contemporaneamente π1 assume il valore π£1, π2 assume il valore π£2 e cosΓ¬ via. Se π e π sono variabili
aleatorie indipendenti allora:
β’ Il valore atteso del prodotto Γ¨ il prodotto dei valori attesi: πΌ(π β π) = πΌ(π) β πΌ(π)
β’ La varianza della somma Γ¨ la somma elle varianze: πππ(π + π) = πππ(π) + πππ(π)
Formule valore atteso e varianza per variabili aleatorie discrete: πΌ(ππ + π) = ππΌ(π) + π πΌ(π + π) = πΌ(π) + πΌ(π) πππ(π) = πΌ ((π β πΌ(π))2) πππ(π) β₯ 0 πππ(π) = πΌ(π2) β (πΌ(π))2 πππ(ππ + π) = π2πππ(π) πππ(π + π) = πππ(π) + πππ(π) + 2πΆππ£(π, π) πΆππ£(π, π) = πΌ(ππ) β πΌ(π)πΌ(π)
πΌ(π β π) = πΌ(π) β πΌ(π) se variabili aleatorie sono indipendenti πππ(π + π) = πππ(π) + πππ(π) se variabili aleatorie sono indipendenti
MODELLI DISCRETI DI VARIABILI ALEATORIE
Bernoulli
Nel caso in cui gli esperimenti aleatori possono avere solo due esisti (esempio lancio della moneta oppure presenza o meno di una proteina oppure uomo sano o non sano) si utilizza la variabile aleatoria di Bernoulli. Si definisce dunque esperimento di Bernoulli un esperimento aleatorio che puΓ² avere solo due esisti. Una variabile aleatoria di Bernoulli β¬(π) di parametro p Γ¨ una variabile che puΓ² assumere solo i valori 0 e 1, e per cui la probabilitΓ di assumere il valori 1 Γ¨ pari a π, e quella di assumere il valore 0 Γ¨ pari a 1 β π. Il valore 0 Γ¨ anche detto insuccesso mentre il valore 1 Γ¨ detto successo. Ricordandoci che di una variabile discreta interessano i valori che puΓ² assumere e la funzione di densitΓ definiamo lβinsieme dei valori possibili Γ¨ π = {0,1}; ππ₯(0) = 1 β π e ππ₯(1) = π. Studiamo ora alcune proprietΓ delle variabili aleatorie applicata alla
bernoulliana:
β Valore atteso della bernoulliana: πΌ(π) = π
Il massimo della varianza di una variabile di Bernoulli Γ¨ ΒΌ e lo si ottiene in corrispondenza a π = 1/2. Nel caso in cui si ripetessero piΓΉ esperimenti di Bernoulli si parlerebbe di processo si Bernoulli. Diamo ora una definizione formale di processo di Bernoulli: una sequenza finita o infinita di prove di Bernoulli, tutte con lo stesso parametro π e fra loro indipendenti, Γ¨ detta processo di Bernoulli di parametro π. Dato un processo di Bernoulli si potrebbe voler calcolare:
β’ Se si fanno π prove, qual Γ¨ la probabilitΓ che si abbiamo π successi? Per rispondere a questa domanda si definisce la variabile binomiale β¬(π, π) ovvero una variabile che conta il numero di successi in π prove di un processo di Bernoulli di parametro π. La probabilitΓ con cui si abbiano π successi in π prove si calcola come:
ππ₯(π) = (ππ) ππ(1 β π)πβπ
Studiamo ora alcune proprietΓ delle binomiale: β Valore atteso della binomiale: πΌ(π) = ππ
β Varianza della binomiale: πππ(π) = ππ(1 β π)
Il massimo della varianza di una variabile binomiale Γ¨ π/4 e lo si ottiene in corrispondenza a π = 1/2. β’ Quando si ha per la prima volta il successo? Per rispondere a questa domanda si definisce la variabile
geometrica π’(π) ovvero una variabile aleatoria che dice in quale prova di un processo di Bernoulli di parametro π si ha il primo successo. Per la geometrica si ha che:
ππ₯(π) = π(1 β π)πβ1
β(π β€ π) = 1 β (1 β π)π Studiamo ora alcune proprietΓ delle binomiale:
β Valore atteso della geometrica: πΌ(π) =1
π
β Varianza della geometrica: πππ(π) =1βππ2
La varianza di una variabile geometrica Γ¨ decrescente rispetto a π β [0,1]
Poisson
Parliamo ora di unβaltra variabile aleatoria discreta ovvero la variabile di Poisson che si costruisce come limite in legge di una successione di variabili binomiali. Una variabile aleatoria π si dice di Poisson di parametro π > 0, π~π«(π) se: π(π = π) = { ππ π!π βπ π β β 0 πππ‘ππππππ‘π
Questo tipo di variabile aleatoria viene utilizzata per determinare ad esempio il numero di automobili che passa per un determinato incrocio in un determinato intervallo di tempo oppure il numero di persone che si reca in un negozio in un giorno feriale. Studiamo ora alcune proprietΓ della variabile di Poisson:
β Valore atteso: πΌ(π) = π β Varianza: πππ(π) = π
Un teorema afferma che se π1, π2, β¦ , ππ sono variabili indipendenti con legge di Poisson allora vale che:
π1+ π2+ β― + ππ= π«(π1+ π2+ β― + ππ)
Definiamo ora processo di Poisson: sia Ξ£ uno spazio con misura π, una famiglai di variabili aleatorie {πΞ}ΞβΞ£
si dice processo di Poisson di intensitΓ π se e solo se valgono le seguenti proprietΓ : β’ Se {Ξπ}π=1π sono disgiunti allora πΞ1, β¦ , πΞπ sono indipendenti
β’ πΞ~π«(π(Ξ))
Formule di Bernoulli β¬(π): ππ₯(0) = 1 β π ππ₯(1) = π πΌ(π) = π πππ(π) = π(1 β π) Formule binomiale β¬(π, π): ππ₯(π) = ( π π) ππ(1 β π)πβπ πΌ(π) = ππ πππ(π) = ππ(1 β π) Formule geometrica π’(π) : ππ₯(π) = π(1 β π)πβ1 β(π β€ π) = 1 β (1 β π)π πΌ(π) =1 π πππ(π) =1 β π π2 Formule Poisson π«(π): π(π = π) = { ππ π!π βπ π β β 0 πππ‘ππππππ‘π πΌ(π) = π πππ(π) = π
VARIABILI ALEATORIE CONTINUE
DensitΓ variabili aleatorie continue
Studiamo adesso le variabili aleatorie continue. Una variabile aleatoria si dice discreta se lβinsieme dei valori che X puΓ² assumere Γ¨ un insieme infinito continuo. Sia π: Ξ© β β una variaible aleatoria conitnua, se esiste una funzione integrabile ππ₯: β β [0, +β) tale che per ogni intervallo π½ β β:
β(π β π½) = β« ππ₯(π)ππ₯ π½
allora ππ₯ Γ¨ la funzione di densitΓ continua della variabile aleatoria π e la π Γ¨ detta variabile assolutamente
continua. Data una variabile aleatoria, se per ogni intervallo reale πΌ sappiamo calcolare β(π β πΌ) diciamo che conosciamo la legge o distribuzione di π. Se le variabili π1, π2, β¦ , ππ hanno la stessa legge si dice che sono
identicamente distribuito. Studiamo ora alcune proprietΓ della variabili continue: β Valore atteso: πΌ(π) = β« π₯ β πβ π₯(π₯)ππ₯
Indipendenza variabili aleatorie discrete
Date π variabili aleatorie continue π1, π2, β¦ , ππ essere si dicono indipendenti se lβuguaglianza:
β(π1β πΌ1, π2 β πΌ2, β¦ , ππβ πΌπ) = β(π1β πΌ1) β β( π2β πΌ2) β β¦ β β(ππβ πΌπ)
per ogni scelta di πΌ1, πΌ2, β¦ , πΌπ intervalli reali. Se π e π sono variabili aleatorie continue indipendenti allora:
β’ Il valore atteso del prodotto Γ¨ il prodotto dei valori attesi: πΌ(π β π) = πΌ(π) β πΌ(π)
β’ La varianza della somma Γ¨ la somma elle varianze: πππ(π + π) = πππ(π) + πππ(π) Formule valore atteso e varianza per variabili aleatorie discrete:
β(π β π½) = β« ππ₯(π)ππ₯ π½
πΌ(π) = β« π₯ β ππ₯(π₯)ππ₯ β
πππ(π) = πΌ ((π β πΌ(π))2)
MODELLI CONTINUE DI VARIABILI ALEATORIE
Uniforme
Una variabile aleatoria uniforme sullβintervallo (π, π) Γ¨ la variabile continua che assume valori fra π e π e ha densitΓ :
ππ₯(π) =
1
π β π π π π₯π(π, π) ππ₯(π) = 0 π π π₯ β (π, π)
Studiamo ora alcune proprietΓ della uniforme: β Valore atteso della uniforme: πΌ(π) =π+π
2
β Varianza della uniforme: πππ(π) =(πβπ)12 2
Normale
Se si hanno misure effettuate da errore o grandezze misurate sugli individui di una popolazione come altezza o peso si utilizza la variabile normale. Una variabile normale standard Γ¨ la variabile continua che assume valori in tutto β e ha densitΓ come nel grafico ovvero:
ππ₯(π) =
1 β2ππ
βπ₯22
Non importa conoscere con esattezza il valore della densitΓ , ciΓ² che importa Γ¨ invece conoscere il grafico e le sue proprietΓ :
β’ Il massimo Γ¨ in π₯ = 0 ed Γ¨ uguale a 1
β2π
β’ Γ simmetrica rispetto allβasse delle y β’ Va a zero a Β±β
β’ β(|π| > 4) = 0,000063 β’ β(β3 < π₯ < 3) = 0,9973
Studiamo ora alcune proprietΓ della normale: β Valore atteso della normale: πΌ(π) = 0 β Varianza della normale: πππ(π) = 1
Per determinare il valore della probabilitΓ occorre usare le tavole. La riga ci permette di trovare il numero fino al primo decimale mentre la colonna ci permette di trovare il secondo decimale. Le probabilitΓ non presenti in tabella si ottengono ragionando sul grafico come valori complementari.
Parliamo ora della variabile normale generiche: sia π~π©(0,1) e siamo π, π β β. La variabile aleatoria π = ππ + π si indica con π~π©(π, π2) ed Γ¨ detta vairaible aleatoria normale di parametri π e π2. Studiamo ora
alcune proprietΓ della normale generica:
β Valore atteso della normale generica: πΌ(π) = π β Varianza della normale generica: πππ(π) = π2 Le proprietΓ di un grafico riferito a una normale generica sono:
β’ Il massimo Γ¨ in π₯ = π
β’ Altezza del massimo puΓ² anche superare 1Γ simmetrica rispetto allβasse delle y β’ Ha orma a campana
β’ Lβarea sotto la curva vale 1
β’ Se la varianza Γ¨ minore di 1 la campana Γ¨ stretta e alta β’ Se la varianza Γ¨ maggiore di 1 la campana Γ¨ larga e bassa β’ β(π β 3π < π < π + 3π) = 0,9973
Le tavolo nella normale generalizzata sono riferite solo al valore π dunque occorre effettuale lβoperazione di standardizzazione ovvero sottrarre ad π il valore atteso e dividere per la radice della varianza:
π =π β π π Se π~π©(π1, π12) e π~π©(π2, π22) vale che: π + π~π©(π1+ π2, π12+ π22) Se π~π©(π1, π12) e π, π β β vale che: ππ + π~π©(ππ1+ π, π^2π22)
Formule dellβuniforme: {ππ₯(π) = 1 π β π π π π₯π(π, π) ππ₯(π) = 0 π π π₯ β (π, π) πΌ(π) =π + π 2 πππ(π) =(π β π) 2 12
Formule della normale standard: ππ₯(π) = 1 β2ππ βπ₯22 β’ Il massimo Γ¨ in π₯ = 0 ed Γ¨ uguale a 1 β2π
β’ Γ simmetrica rispetto allβasse delle y β’ Va a zero a Β±β β’ β(|π| > 3) = 0,0027 β’ β(|π| > 4) = 0,000063 β’ β(β3 < π₯ < 3) = 0,9973 πΌ(π) = 0 πππ(π) = 1
Formule della normale π~π©(π, π2): π = ππ + π
πΌ(π) = π πππ(π) = π2
β’ Il massimo Γ¨ in π₯ = π
β’ Altezza del massimo puΓ² anche superare 1Γ simmetrica rispetto allβasse delle y β’ Ha orma a campana
β’ Lβarea sotto la curva vale 1
β’ Se la varianza Γ¨ minore di 1 la campana Γ¨ stretta e alta β’ Se la varianza Γ¨ maggiore di 1 la campana Γ¨ larga e bassa β’ β(π β 3π < π < π + 3π) = 0,9973
π =π β π π
π + π~π©(π1+ π2, π12+ π22)
TEOREMA CENTRALE DEL LIMITE
Media campionaria
Date π variabili aleatorie π1, π2, β¦ , ππ indipendenti e identicamente distribuiti, la variabile aleatoria Γ¨ detta
media campionaria: ππ= 1 πβ ππ π π=1
Definita la media campionaria potremmo voler rispondere alla seguente domanda: posso dire che legge ha? In generale non Γ¨ semplice conoscere la legge di ππ, ma se π Γ¨ grande e ci si accontenta di unβapprossimazione, il
teorema centrale del limite da una risposta. Teorema centrale del limite
Sia {ππ}πβ₯1 una successione di variabili aleatorie identicamente distribuite, tutte con valore atteso πΌ(ππ) = π e
varianza finita πππ(ππ) = π2> 0. Per ogni π‘ β β vale che:
lim πβββ(ππ ββ€ π‘) = π(π‘) πππ π πβ= ππβ ΞΌ π/βπ
ππβ Γ¨ la standardizzazione della media campionaria. In altre parole, se si vuole calcolare le probabilitΓ relative a
ππβ si puΓ² utilizzare quelle relativa alla normale π©(0,1) come approssimazione. Dunque:
ππβ β π©(0,1)
ππβ π©(π, π2)
π1+ π2+ β― + ππ β π©(π, π2)
Lβaspetto positivo Γ¨ che questa approssimazione vale per qualsiasi legge, quello negativo Γ¨ che in quanto approssimazione vale solo se π Γ¨ sufficientemente grande. Lβapprossimazione diviene uguaglianza nel caso di variabili normali chiaramente:
ππβ= π©(0,1)
ππ= π©(π, π2)
π1+ π2+ β― + ππ = π©(π, π2)
Il teorema del limite puΓ² essere applicato anche a Bernoulli. In questo caso ha validitΓ quando ππ β₯ 5 e (1 β π) β₯ 5.
Disuguaglianza di Chebychev
Sia π una variabile aleatoria con πΌ(π) = π e πππ(π) = π2. Sia π un numero reale positivo prefissato. Vale la seguente disuguaglianza: β(|π β π| β₯ π) β€π 2 π2 O equivalentemente: β(|π β π| < π) β₯ 1 βπ 2 π2
β(|π β π| β₯ πΏπ) β€ 1 πΏ2 Sciogliendo il modulo: |π β π| β₯ πΏπ β π β₯ π + πΏπ π β€ π β πΏπ Quindi si ottiene: β(π β₯ π + πΏπ) + β(π β€ π β πΏπ) β€ 1 πΏ2
Se π = πΏπ allora si ha che per la seconda equazione:
β(|π β π| < πΏπ) β₯ 1 β 1 πΏ2 Sciogliendo il modulo: |π β π| β€ πΏπ β π β πΏπ < π < π + πΏπ Quindi si ottiene: β(π β πΏπ < π < π + πΏπ) β€ 1 β 1 πΏ2
Questa disuguaglianza non permette di prevedere esattamente il valore di π perchΓ© Γ¨ sempre una variabile aleatoria ma mi permette di definire un intervallo di valori in cui Γ¨ molto probabile che si trovi il valore che la variabile aleatoria π assumerΓ . Sottolineiamo che lβampiezza dellβintervallo Γ¨ stabilita da π2.
La legge dei gradi numeri
Siano π1, π2, β¦ , ππ variabili indipendenti e identicamente distribuite. Sia πΌ(ππ) = π e πππ(ππ) = π2 per ogni i.
Allora per π > 0 vale:
lim
πβββ(|ππβ π| > π) = 0
La legge forte dei grandi numeri afferma invece che: siano π1, π2, β¦ , ππ variabili indipendenti e identicamente
distribuite. Sia πΌ(ππ) = π per ogni i. Allora per π > 0 vale:
β (| lim
AFFIDABILITAβ
AffidabilitΓ
Supponiamo di avere un sistema costituito da vari sottosistemi. Si consideri una caratteristica Z che ciascun sottosistema puΓ² avere o non avere. La probabilitΓ che il sistema abbia la caratteristica Z si chiama affidabilitΓ del sistema. Ipotizziamo dunque si avere n sottosistemi di affidabilitΓ π1, π2,β¦, ππ e supponiamo che gli
eventi βlβelemento i-esimo ha la caratteristica Zβ siano indipendenti. LβaffidabilitΓ si calcola in modo differente in funzione del tipo di relazione tra i sottosistemi:
β’ Sottosistemi in serie = quando il sistema S ha la caratteristica Z e se e solo se tutti i sottosistemi hanno la caratteristica Z. LβaffidabilitΓ ππ del sistema in serie si calcola come produttoria delle affidabilitΓ dei
sottosistemi:
ππ = β ππ π
π=1
β’ Sottosistemi in parallelo = quando il sistema P ha la caratteristica Z se e solo se almeno uno dei sottosistemi ha la caratteristica Z. LβaffidabilitΓ ππ del sistema in serie si calcola come:
ππ= 1 β β(1 β ππ) π
π=1
Iterando opportunamente queste due formule si possono costruire in maniera gerarchica le affidabilitΓ di sistemi complessi.
STATISTICA DESCRITTIVA
Singole variabili e classi
La statistica descrittiva considera un insieme di dati e li elabora. I dati raccolti rappresentano la realizzazione di variabili aleatorie. Si distinguono in variabili continue e discrete. Spesso le singole variabili vengono raggruppate in classi ovvero intervalli contigui. Una volta raggruppati gli π dati in classi si definiscono le frequenze. Esistono diversi tipi di frequenze:
β’ Frequenza assoluta di una classe ππ = Γ¨ il numero di osservazioni che ricadono in quella classe
β’ Frequenza relativa di una classe ππ = Γ¨ la sua frequenza assoluta divisa per il numero totale di
osservazioni
β’ Frequenza percentuale di una classe ππ = Γ¨ la sua frequenza relativa moltiplicata per 100
β’ Frequenza cumulativa di una classe πΉπ, πΉπ, πΉπ = Γ¨ la somma delle frequenze della classe stessa e di tutte
quelle che la precedono
Se i valori diversi osservati in un esperimento non sono troppo numerosi si puΓ² scegliere tutte le classi come singoli valori.
Spesso per rappresentare le frequenze si utilizzano gli istogrammi. La scelta delle classi Γ¨ arbitraria; talvolta puΓ² essere conveniente trattare classi di ampiezza diversa. In tal caso solitamente Γ¨ lβarea del rettangolo ad essere proporzionale alla frequenza.
Indici di posizione
Defiliamo ora alcuni indici di posizione: β’ Media = si definisce media il numero:
π₯ =1 πβ π₯π
π
π=1
La media di un insieme di dati si calcola utilizzando lo stimatore media campionaria; Γ¨ quindi la stima puntuale del valore atteso della variabile aleatoria che modellizza la misura del dato in questione. β’ Mediana = disponendo i dati in ordine crescente la mediana Γ¨ il dato nella posizione centrale se n Γ¨
dispare, oppure la media aritmetica dei due dati in posizione centrale se n Γ¨ pari.
β’ Quantili, percentili e quartili = generalizzando il concetto di mediana cercando un valore ππ con la
proprietΓ che almeno una frazione π dei dati sia non superiore a ππ ed almeno una frazione 1 β π sia
non inferiore a ππ. Si definisce dunque p-esimo quantile:
β Se ππ non Γ¨ intero allora ππ= π₯π+1
β Se ππ = π con k interno allora ππ=
π₯π+π₯π+1
2
Il p-esimo quantile viene anche detto 100 p-esimo percentile. Il 25Β°,50Β°,75Β° percentile vengono detti anche primo, secondo e terzo quartile e indicati con π1, π2, π3. Il secondo quartile coincide con la
mediana
β’ Moda = Γ¨ il valore o piΓΉ in generale la classe in corrispondenza del quale si ha la popolazione piΓΉ numerosa. Se vi Γ¨ un solo punto dove la frequenza Γ¨ massima, si dice che la distribuzione delle frequenze Γ¨ unimodale, se vi Γ¨ piΓΉ di un massimo si dice che la distribuzione delle frequenze Γ¨ plurimodale
Indici di dispersione
Definiamo ora una serie di indici di dispersione:
β’ Range = se i dati sono π₯1, π₯2, β¦ , π₯π il range Γ¨ il numero reale:
π = πππ₯{π₯π: π = 1, β¦ } β πππ{π₯π: π = 1, β¦ }
π 2= 1 π β 1β(π₯πβ π₯) 2 π π=1 = ( 1 π β 1β π₯π 2 π π=1 ) β π π β 1π₯ 2
Una definizione alternativa di varianza per un insieme di dati Γ¨ la seguente:
π2=1 πβ(π₯πβ π₯) 2 π π=1 = (1 πβ π₯π 2 π π=1 ) β π₯2
Indici di forma
STATISTICA INFERENZIALE
Introduzione
Finora abbiamo visto che esistono modelli probabilistici che possiamo utilizzare per prevedere gli esiti di esperimenti aleatori. Naturalmente la previsione Γ¨ di tipo probabilistico: diciamo infatti con quanta probabilitΓ si verificano certi esiti.
Con la statistica inferenziale si utilizzano i dati di piΓΉ esperimenti aleatori per dire qualcosa sul modello probabilistico che si suppone incognito. In tutti i problemi di stima dei parametri si seguono questi passi:
1. Scegliere un modello con un parametro incogniti 2. Fare π esperimenti
3. Raccogliere i dati e calcolare una funzione di questi dati 4. Usare questa funzione per stimare il parametro incognito
Modello statistico parametrico
Diamo ora una serie di definizioni utili allo studio della statistica inferenziale. Definiamo un modello statistico in due diversi modi:
β’ Utilizzando la densitΓ = un modello statistico parametrico Γ¨ una famiglia di leggi di variabili aleatorie dipendenti da uno o piΓΉ parametri π: lo indichimo tramite la funzione di densitΓ {π(π₯; π): π β Ξ} dove Ξ Γ¨ lo spazio dei parametri. In altre parole, il modello statistico indica la scelta di un tipo di variabile aleatoria.
β’ In generale = un modello statistico parametrico Γ¨ una famiglia di leggi di variabili aleatorie dipendenti da uno o piΓΉ parametri π: lo indichimo tramite la legge {βπ: π β Ξ} dove Ξ Γ¨ lo spazio dei parametri. In
altre parole, la legge βπ simboleggia la scelta di un tipo di legge (la bernoulliana, la binomiale, la
poissoniana, normale etc)
Stimatore
Definiamo inoltre il campione casuale di dimensione π una n-upla di variabili aleatorie π1, β¦ , ππ. Dato un
campione casuale π1, β¦ , ππ si dice statistica di variabile aleatorie π funzione del campione casuale che non
sia funzione di alcun parametro incognito. Assegnata la statistica π una volta estratto un particolare campione il numero π = π‘(π₯1, β¦ π₯π) si dice stima di π(π). Uno stimatore si dice non distorto o corretto se
πΌπ(π) = π(π) ovvero quando il valore atteso della statistica Γ¨ uguale alla sua stima. In generale se ciΓ² non
accade si definisce distorsione la differenza tra il valore atteso della statistica e la sua stima: πΌπ(π) β π(π).
Spesso lo stimatore scelto dipende esplicitamente dal numero n ovvero dalla numerositΓ del campione. Una successione di stimatori si dice consistente se il limite per n che tende a infinito del valore atteso del quadrato della distorsione Γ¨ nullo ovvero:
lim
πββπΌπ((ππβ π(π)) 2
) = 0 Il valore atteso del quadrato della distorsione πΌπ((ππβ π(π))
2
) Γ¨ detto rischio quadratico medio. Per uno stimatore consistente vale che:
πΌπ((ππβ π(π)) 2
) = πππ(ππ) + (πΌπ(ππβ π(π))) 2
Se lo stimatore oltre a essere consistente Γ¨ anche non distorto allora vale che: πΌπ((ππβ π(π))
2
) = πππ(ππ)