• Non ci sono risultati.

tutto_il_corso.pdf

N/A
N/A
Protected

Academic year: 2021

Condividi "tutto_il_corso.pdf"

Copied!
18
0
0

Testo completo

(1)

CALCOLO DELLA PROBABILITA’

Importanza probabilitΓ  e definizioni

Occorre studiare la probabilitΓ  perchΓ© in molti esperimenti non Γ¨ noto a priori l’esito, ma sono noti i possibili esiti di cui Γ¨ possibile calcolare la probabilitΓ . Un esperimento di cui a priori non si conosce l’esito Γ¨ detto esperimento aleatorio. I possibili esiti di un esperimento aleatorio sono detti eventi elementari. L’insieme costituito da tutti gli eventi elementari Γ¨ detto spazio campionario Ξ©. I sottoinsiemi di Ξ© sono gli eventi. Lo spazio campionario puΓ² essere:

β€’ Discreto = quando Γ¨ finito o infinito numerabile β€’ Continuo = quando Γ¨ infinito non numerabile

Linguaggio insiemistico

Dopo aver definito gli eventi Γ¨ opportuno comprendere che significato hanno le varie relazioni insiemistiche dal punto di vista del β€œlinguaggio degli eventi”:

β€’ Unione = l’esito dell’esperimento Γ¨ un elemento di A oppure un elemento di B 𝐴 βˆͺ 𝐡 β€’ Intersezione = l’esito dell’esperimento Γ¨ un elemento sia di A che di B 𝐴 ∩ 𝐡 β€’ Differenza = l’esito dell’esperimento Γ¨ un elemento di A ma non di B 𝐴 βˆ– 𝐡 β€’ Eventi incompatibili = due eventi A e B sono incompatibili se sono disgiunti cioΓ¨ non hanno elementi in

comune ovvero la loro intersezione Γ¨ l’insieme vuoto 𝐴 ∩ 𝐡 = βˆ…

β€’ Implicazione logica = tutti gli elementi di B sono anche elementi di A 𝐴 βŠ‚ 𝐡

Definizione informale e assiomatica della probabilitΓ 

Dopo aver definito un evento e aver studiato le relazioni insiemistiche occorre attribuire ora ad ogni evento la sua probabilitΓ . Nel linguaggio comune la probabilitΓ  si esprime con percentuali. Informalmente la probabilitΓ  di un evento Γ¨ un numero reale compreso tra 0 e 1 che misura quanto si ritiene probabile il verificarsi di tale evento.

Per dare una definizione rigorosa della probabilità fu necessario aspettare il 1930 quando Kolmogrov scoprì che le proprietà della probabilità si potevano ricavare da pochi assiomi, ovvero proprietà che si definiscono vere, e pose così le basi per il calcolo delle probabilità moderno.

Definiamo dunque assiomaticamente la probabilitΓ : sia Ξ© uno spazio campionario e β„± una famiglia di suoi eventi, si chiama probabilitΓ  su Ξ© una qualsiasi funzione β„™: β„± β†’ [0,1] con le seguenti proprietΓ :

βˆ’ β„™(Ξ©) = 1

βˆ’ Se {𝐴𝑛}𝑛 Γ¨ una successione numerabile di eventi a due a due disgiunti allora:

β„™ (⋃ 𝐴𝑗 +∞ 𝑗=1 ) = βˆ‘ β„™(𝐴𝑗) +∞ 𝑗=1

Definiamo poi la 𝜎-algebra ovvero una famiglia di sottoinsiemi di Ξ© che ha delle proprietΓ  di chiusura rispetto ad alle operazioni insiemistiche di unione numerabile di passaggio complementare. Assiomaticamente la 𝜎-algebra Γ¨ una famiglia β„± se sono soddisfatte le seguenti proprietΓ :

βˆ’ L’insieme vuoto appartiene ad β„±: βˆ… ∈ β„±

βˆ’ Se 𝐴 ∈ β„± allora anche il suo complementare appartiene ad β„±: 𝐴∁ ∈ β„±

βˆ’ Se {𝐴𝑖}π‘–βˆˆβ„• Γ¨ una collezione di insiemi di β„± allora l’unione di tutti gli eventi appartiene ad β„±

Da quest’ultima ipotesi ne consegue che la probabilitΓ  β„™ deve soddisfare la richiesta di additivitΓ . Con il solo utilizzo degli assiomi Γ¨ possibile dimostrare le seguenti proprietΓ :

β€’ β„™(βˆ…) = 0

β€’ β„™(𝐴∁) = 1 βˆ’ β„™(𝐴)

β€’ β„™(𝐴 βˆͺ 𝐡) = β„™(𝐴) + β„™(𝐡) βˆ’ β„™(𝐴 ∩ 𝐡)

(2)

Definiamo ora la probabilitΓ  discreta: una misura β„™ su Ξ© si dice discreta se esiste 𝐷 ∈ β„± al piΓΉ numerabile tale che β„™(𝐷∁) = 0.

Calcolo della probabilitΓ 

Se lo spazio campionario Γ¨ discreto per conoscere la probabilitΓ  di ogni evento basta assegnare la probabilitΓ  agli eventi elementari. Infatti, se Ξ© Γ¨ discreto significa che i suoi elementi si possono elencare e ogni suo sottoinsieme A Γ¨ un’unione finita di elementi. Quindi la probabilitΓ  di A Γ¨ la somma delle probabilitΓ  degli elementi che lo compongono. Vediamo ora come assegnare la probabilitΓ  agli eventi elementari:

β€’ Approccio classico = se lo spazio campionario Γ¨ finito e ha 𝑛 elementi e tutti i suoi elementi hanno la stessa probabilitΓ , la probabilitΓ  si calcola come:

β„™(𝐴) =𝑛°𝑒𝑣𝑒𝑛𝑑𝑖 π‘“π‘Žπ‘£π‘œπ‘Ÿπ‘’π‘£π‘œπ‘™π‘– 𝑛°𝑑𝑖 π‘π‘Žπ‘ π‘– π‘π‘œπ‘ π‘ π‘–π‘π‘–π‘™π‘–

Questo approccio puΓ² essere usato quando i casi possibili sono un numero finito e quando i casi sono equiprobabili, se vengono meno queste due ipotesi non Γ¨ piΓΉ possibile calcolare la probabilitΓ  come rapporto tra casi favorevoli e casi possibili.

β€’ Approccio frequentista = si calcola come rapporto tra il numero di volte che si realizza un evento π‘˜ e l’insieme dei tentativi 𝑛:

β„™(𝐴) =π‘˜ 𝑛

Questo approccio Γ¨ valido se l’esperimento Γ¨ ripetibile. Se un evento non viene osservato negli esperimenti fatti si attribuisce probabilitΓ  zero. Inoltre, bisogna tenere presente che l’idea frequentista non va bene se il futuro Γ¨ β€œdiverso” dal passato ovvero l’esperimento non si ripete sempre nelle medesime condizioni: in questo caso si parlerΓ  di probabilitΓ  condizionata

β€’ Se si vuole calcolare la probabilitΓ  di pescare π‘š elementi con certe caratteristiche, indichiamo con π‘˜ il numero degli elementi dell’insieme 𝑁 che hanno queste caratteristiche, e 𝑑 elementi con altre caratteristiche, si procede nel seguente modo:

β„™(𝐴) = (π‘˜ π‘š) ( 𝑁 βˆ’ π‘˜ 𝑑 ) ( 𝑁 π‘š + 𝑑)

Ricordiamo come calcolare il coefficiente binomiale: (π‘›π‘˜) = 𝑛!

π‘˜! (𝑛 βˆ’ π‘˜)! 𝑛! = 𝑛(𝑛 βˆ’ 1)(𝑛 βˆ’ 2) … 1

ProbabilitΓ  condizionata

Dunque, la probabilitΓ  Γ¨ uno strumento che viene usato quando si ha incertezza sull’esito degli esperimenti. Tuttavia, ci sono situazioni in cui abbiamo una conoscenza parziali dell’esito; questa conoscenza potrebbe alterare la probabilitΓ  che assegniamo a certi eventi (ad esempio il numero pescato non viene rimesso nel sacchetto). La probabilitΓ  che avvenga A sapendo che B avviene Γ¨ calcolata considerando B come nuovo spazio campionario e si fa riferimento agli eventi elementari che appartengono sia ad A che a B. Dunque, dati due eventi A e B con β„™(𝐡) > 0, si definisce la probabilitΓ  di A dato B, o probabilitΓ  di A condizionata al verificarsi di B, il seguente numero:

β„™(𝐴|𝐡) =β„™(𝐴 ∩ 𝐡) β„™(𝐡)

(3)

β„™(𝐴|𝐡) risulta comunque essere una probabilitΓ  su Ξ© come afferma in seguente teorema: data una probabilitΓ  β„™ su Ξ© e fissato un evento B con β„™(𝐡) > 0, allora la funzione β„™(βˆ™ |𝐡) che all’evento A associa β„™(𝐴|𝐡) Γ¨ una probabilitΓ  su Ξ©.

La probabilitΓ  condizionata gode delle seguenti proprietΓ : β€’ β„™(βˆ…|𝐡) = 0

β€’ Se gli eventi sono a due a due disgiunti si ha: β„™(𝐴1, 𝐴2, … , 𝐴𝑛|𝐡) = β„™(𝐴1, |𝐡) + β„™(𝐴2|𝐡) + β‹― + β„™(𝐴𝑛|𝐡)

β€’ β„™(𝐴∁|𝐡) = 1 βˆ’ β„™(𝐴|𝐡)

β€’ Se gli eventi non disgiunti si ha: β„™(𝐴1βˆͺ 𝐴2|𝐡) = β„™(𝐴1, |𝐡) + β„™(𝐴2|𝐡) βˆ’ β„™(𝐴1∩ 𝐴2|𝐡)

Dalla formula della probabilitΓ  condizionata ricaviamo anche un altro modo di calcolare la probabilitΓ  dell’unione di due eventi:

β„™(𝐴 ∩ 𝐡) = β„™(𝐴|𝐡)β„™(𝐡)

Indipendenza di eventi

Due eventi A e B si dicono indipendenti se vale l’uguaglianza β„™(𝐴 ∩ 𝐡) = β„™(𝐴)β„™(𝐡). È importante sottolineare che l’indipendenza non deve essere confusa con l’incompatibilitΓ . Se due eventi A e B sono incompatibili, sapere che si Γ¨ verificato A implica che B non puΓ² essersi verificato dunque sapere che si Γ¨ verificato A cambia la probabilitΓ  di B.

Teorema delle probabilitΓ  totali e formula di Bayes

Dato uno spazio campionario Ξ©, si definisce partizione dello spazio campionario una famiglia di eventi 𝐡1, 𝐡2, … , 𝐡𝑛 tali che la loro unione dia proprio lo spazio campionario 𝐡1βˆͺ 𝐡2βˆͺ … βˆͺ 𝐡𝑛= Ξ© e l’intersezione a

due a due di questi eventi sia l’insieme vuoto π΅π‘–βˆ© 𝐡𝑗 = βˆ… βˆ€π‘– β‰  𝑗.

Enunciamo ora il teorema delle probabilitΓ  totali: dato uno spazio campionario Ξ©, una sua partizione 𝐡1, 𝐡2, … , 𝐡𝑛 e un evento A, vale la seguente formula:

β„™(𝐴) = βˆ‘ β„™(𝐴 ∩ 𝐡𝑖) 𝑖=1,…,𝑛

= βˆ‘ β„™(𝐴|𝐡𝑖)β„™(𝐡𝑖) 𝑖=1,…,𝑛:β„™(𝐡𝑖)>0

Dimostrazione: poichΓ© la famiglia 𝐡1, 𝐡2, … , 𝐡𝑛 Γ¨ una partizione vale che:

βˆ‘ β„™(𝐴 ∩ 𝐡𝑖) 𝑖=1,…,𝑛

= βˆ‘ β„™(𝐴 ∩ 𝐡𝑖)

𝑖=1,…,𝑛:β„™(𝐡𝑖)>0

PoichΓ© β„™(𝐡𝑖) = 0 implica che β„™(𝐴 ∩ 𝐡𝑖) = 0, dalla formula per la probabilitΓ  condizionata, se

β„™(𝐡𝑖) > 0 allora β„™(𝐴 ∩ 𝐡𝑖) = β„™(𝐴|𝐡𝑖)β„™(𝐡𝑖). β–‘

Nel teorema delle probabilitΓ  totali si ha una partizione dello spazio campionario e si conoscono tutte le probabilitΓ  condizionate β„™(𝐴|𝐡𝑖), talvolta si potrebbe essere interessati invece a una partizionare in particolare

β„™(π΅π‘˜|𝐴). Per poter calcare questo termine occorre utilizzare la formula di Bayes: sia {𝐡𝑖}𝑗=1𝑛 una partizionare

dello spazio campionario Ξ© e sia A un evento con β„™(𝐴) > 0, allora per ogni π‘˜ ∈ {1,2, … , 𝑛} vale che: β„™(π΅π‘˜|𝐴) =

β„™(𝐴|π΅π‘˜)β„™(π΅π‘˜)

βˆ‘π‘–=1,…,𝑛:β„™(𝐡𝑖)>0β„™(𝐴|𝐡𝑖)β„™(𝐡𝑖)

Dimostrazione: per dimostrare questo teorema Γ¨ sufficiente scrivere la definizione di β„™(π΅π‘˜|𝐴) e applicare il

teorema delle probabilitΓ  totali per ricavare β„™(𝐴): β„™(π΅π‘˜|𝐴) = β„™(π΅π‘˜βˆ© 𝐴) β„™(𝐴) = β„™(𝐴|π΅π‘˜)β„™(π΅π‘˜) β„™(𝐴) = β„™(𝐴|π΅π‘˜)β„™(π΅π‘˜) βˆ‘π‘–=1,…,𝑛:β„™(𝐡𝑖)>0β„™(𝐴|𝐡𝑖)β„™(𝐡𝑖)

(4)

Formule per il calcolo della probabilitΓ  β„™(Ξ©) = 1

β„™(βˆ…) = 0

β„™(𝐴∁) = 1 βˆ’ β„™(𝐴)

β„™(𝐴 βˆͺ 𝐡) = β„™(𝐴) + β„™(𝐡) βˆ’ β„™(𝐴 ∩ 𝐡) se A e B non sono disgiunti β„™(𝐴 βˆͺ 𝐡) = β„™(𝐴) + β„™(𝐡) se A e B sono disgiunti β„™(𝐴 ∩ 𝐡) = 0 se A e B sono disgiunti

N.B.: per ricavare la probabilitΓ  β„™(𝐴) + β„™(𝐡) Γ¨ fondamentale che i due eventi siano disgiunti 𝐴 ∩ 𝐡 = βˆ…

Mentre per ricavare la probabilitΓ  β„™(𝐴) + β„™(𝐡) + β„™(𝐢) occorre che gli eventi siano a due a due disgiunti ovvero 𝐴 ∩ 𝐡 = βˆ…, 𝐡 ∩ 𝐢 = βˆ…, 𝐴 ∩ 𝐢 = βˆ…, non Γ¨ sufficiente che 𝐴 ∩ 𝐡 ∩ 𝐢 = βˆ… N.B.: ricordarsi che puΓ² essere applicato de Morgan e quindi fare il complementare di tutto. Formule per il calcolo della probabilitΓ  condizionata

β„™(𝐴|𝐡) =β„™(𝐴 ∩ 𝐡) β„™(𝐡)

β„™(𝐴 ∩ 𝐡) = β„™(𝐴|𝐡)β„™(𝐡) β„™(βˆ…|𝐡) = 0

β„™(𝐴∁|𝐡) = 1 βˆ’ β„™(𝐴|𝐡)

β„™(𝐴1, 𝐴2, … , 𝐴𝑛|𝐡) = β„™(𝐴1, |𝐡) + β„™(𝐴2|𝐡) + β‹― + β„™(𝐴𝑛|𝐡) eventi sono a due a due disgiunti

β„™(𝐴1βˆͺ 𝐴2|𝐡) = β„™(𝐴1, |𝐡) + β„™(𝐴2|𝐡) βˆ’ β„™(𝐴1∩ 𝐴2|𝐡) eventi non disgiunti

Alte formule per il calcolo della probabilitΓ  β„™(𝐴) = βˆ‘ β„™(𝐴 ∩ 𝐡𝑖) 𝑖=1,…,𝑛 = βˆ‘ β„™(𝐴|𝐡𝑖)β„™(𝐡𝑖) 𝑖=1,…,𝑛:β„™(𝐡𝑖)>0 β„™(π΅π‘˜|𝐴) = β„™(𝐴|π΅π‘˜)β„™(π΅π‘˜) βˆ‘π‘–=1,…,𝑛:β„™(𝐡𝑖)>0β„™(𝐴|𝐡𝑖)β„™(𝐡𝑖)

(5)

VARIABILI ALEATORIE

Variabili aleatorie

Definiamo variabile aleatoria X una funzione che ha come dominio lo spazio campionario Ξ© e come codominio ℝ𝑛, in formule: 𝑋: Ξ© β†’ ℝ𝑛. È dunque una funzione che fa corrispondere ad ogni valore nel dominio un valore nel codominio. Le caratteristiche interessanti di una variabile aleatoria sono due:

β€’ L’insieme dei suoi possibili valori = nel nostro caso sono numeri reali e dunque si le variabili aleatorie si chiamano numeriche. Le variabili aleatorie numeriche possono essere suddivise in due tipi:

1. Discrete = una variabile aleatoria si dice discreta se l’insieme dei valori che X puΓ² assumere Γ¨ un insieme infinito oppure infinito numerabile

2. Assolutamente continue = una variabile aleatoria si dice discreta se l’insieme dei valori che X puΓ² assumere Γ¨ un insieme infinito continuo

β€’ Usare le variabili aleatorie permette di lavorare con uno spazio piΓΉ semplice, modellizzare esprimenti multipli contemporaneamente e lavorare con le β€œleggi” e non con lo spazio campionario. Definiamo dunque la legge: data una variabile aleatoria X la misura di probabilitΓ  ℙ𝑋 definita di seguito si dice legge:

ℙ𝑋(𝐴) ≔ ℙ𝑋(π‘‹βˆ’1(𝐴)), 𝐴 βŠ† ℝ𝑛

Data una variabile aleatoria X a valori in ℝ la funzione 𝐹𝑋: ℝ β†’ [0,1] definita di seguito si dice funzione di

ripartizione di X:

𝐹𝑋(𝑑) ≔ ℙ𝑋(π‘‹βˆ’1((βˆ’βˆž, 𝑑])) ≑ ℙ𝑋((βˆ’βˆž, 𝑑]), βˆ€π‘‘ ∈ ℝ

La funzione di ripartizione 𝐹𝑋 ha le seguenti proprietΓ :

β€’ È non decrescente, quindi ha limiti da destra e da sinistra β€’ lim 𝑠→𝑑+𝐹𝑋(𝑠) = 𝐹𝑋(𝑑) β€’ lim 𝑑→+βˆžπΉπ‘‹(𝑑) = 1 β€’ lim π‘‘β†’βˆ’βˆžπΉπ‘‹(𝑑) = 0

VARIABILI ALEATORIE DISCRETE

DensitΓ  di una variabile aleatoria discreta

Definiamo ora la densitΓ  𝑓𝑋 di una variabile discreta come una funzione che associa ad ogni valore di x la

probabilitΓ  che X assuma quel valore. Se x non Γ¨ uno dei valori possibili allora la densitΓ  Γ¨ nulla 𝑓𝑋= 0. In

generale dunque ciΓ² che interessa di una variabile aleatoria Γ¨ l’insieme dei valori possibili che puΓ² assumere e la densitΓ  𝑓𝑋. L’insieme dei valori possibili puΓ² essere:

βˆ’ Finito

βˆ’ Numerabile = in questo caso viene indicato come successione La densitΓ  di una variabile discreta ha le seguenti proprietΓ :

βˆ’ Assume solo valori positivi o uguali a 0 βˆ’ La somma dei suoi valori Γ¨ 1

Valore atteso di una variabile aleatoria discreta

Sia 𝑋: Ξ© β†’ ℝ𝑛 una variabile aleatoria discreta avente come immagine in ℝ𝑛 l’insieme V (ovvero l’insieme dei valori che X puΓ² assumere). Se la serie βˆ‘π‘£βˆˆπ‘‰||𝑣||𝑓𝑋(𝑣) converge allora si chiama valore atteso di X il numero

reale:

𝔼(𝑋) = βˆ‘ 𝑣

π‘£βˆˆπ‘‰

(6)

La 𝔼 sta per expectation, ovvero attesa. Il valore atteso nel caso in cui V sia finito si calcola sommando su tutti i valori possibili il prodotto tra il valore π‘₯𝑖 e la sua probabilitΓ , Γ¨ dunque una media pesata dei valori dove il peso

di un valore Γ¨ la sua probabilitΓ :

𝔼(𝑋) = βˆ‘ π‘₯𝑖 𝑛

𝑖=1

β„™(π‘₯𝑖)

Vediamo ora una serie di proprietΓ  (dedotti da alcuni teoremi) del valore atteso: β€’ Se π‘Ž, 𝑏 sono numeri reali: 𝔼(π‘Žπ‘‹ + 𝑏) = π‘Žπ”Ό(𝑋) + 𝑏

β€’ Se 𝑋, π‘Œ sono due variabili aleatorie: 𝔼(𝑋 + π‘Œ) = 𝔼(𝑋) + 𝔼(π‘Œ)

Varianza di una variabile aleatoria

Data una variabile aleatoria X a valori in ℝ la sua varianza Γ¨ il numero reale: π‘‰π‘Žπ‘Ÿ(𝑋) = 𝔼 ((𝑋 βˆ’ 𝔼(𝑋))2)

La radice della varianza Γ¨ detta deviazione standard o anche scarto quadratico medio. Per variabili discrete il calcolo si riduce a:

π‘‰π‘Žπ‘Ÿ(𝑋) = βˆ‘ π‘₯2 π‘₯βˆˆπ‘‰

𝑝𝑋(π‘₯) βˆ’ 𝔼(𝑋)2

Vediamo ora una serie di proprietΓ  della varianza: 1. π‘‰π‘Žπ‘Ÿ(𝑋) β‰₯ 0

2. π‘‰π‘Žπ‘Ÿ(𝑋) = 0 se e solo se 𝑋 Γ¨ una variabile aleatoria costante ovvero puΓ² assumere un solo valore 3. π‘‰π‘Žπ‘Ÿ(𝑋) = 𝔼(𝑋2) βˆ’ (𝔼(𝑋))2

4. Se π‘Ž, 𝑏 sono numeri reali: π‘‰π‘Žπ‘Ÿ(π‘Žπ‘‹ + 𝑏) = π‘Ž2π‘‰π‘Žπ‘Ÿ(𝑋)

5. Se 𝑋, π‘Œ sono due variabili aleatorie: π‘‰π‘Žπ‘Ÿ(𝑋 + π‘Œ) = π‘‰π‘Žπ‘Ÿ(𝑋) + π‘‰π‘Žπ‘Ÿ(π‘Œ) + 2πΆπ‘œπ‘£(𝑋, π‘Œ) Dove la covarianza di X e Y Γ¨:

πΆπ‘œπ‘£(𝑋, π‘Œ) = 𝔼(π‘‹π‘Œ) βˆ’ 𝔼(𝑋)𝔼(π‘Œ)

La differenza tra la varianza e il valore atteso delle variabile aleatoria Γ¨ che la varianza Γ¨ un indice di dispersione mentre il valore atteso Γ¨ un indice di posizione.

Dimostrazione prop. 1: Γ¨ conseguenza del fatto che la variabile aleatoria puΓ² solo essere maggiore o uguale a 0 Dimostrazione prop. 3: π‘‰π‘Žπ‘Ÿ(𝑋) = 𝔼 ((𝑋 βˆ’ 𝔼(𝑋))2) = = 𝔼 (𝑋2+ (𝔼(𝑋))2βˆ’ 2𝑋𝔼(𝑋)) = = 𝔼(𝑋2) + 𝔼 ((𝔼(𝑋))2) βˆ’ 2𝔼(𝑋𝔼(𝑋)) = = 𝔼(𝑋2) + (𝔼(𝑋))2βˆ’ 2𝔼(𝑋)𝔼(𝑋) = = 𝔼(𝑋2) + (𝔼(𝑋))2βˆ’ 2(𝔼(𝑋))2 = = 𝔼(𝑋2) βˆ’ (𝔼(𝑋))2 Dimostrazione prop. 4: π‘‰π‘Žπ‘Ÿ(π‘Žπ‘‹ + 𝑏) = 𝔼((π‘Žπ‘‹ + 𝑏)2) βˆ’ (𝔼(π‘Žπ‘‹ + 𝑏))2= = 𝔼(π‘Žπ‘‹2+ 𝑏2+ 2π‘Žπ‘π‘‹) βˆ’ (π‘Žπ”Ό(𝑋) + 𝑏)2= = 𝔼(π‘Žπ‘‹2) + 𝔼(𝑏2) + 𝔼(2π‘Žπ‘π‘‹) βˆ’ π‘Ž2(𝔼(𝑋))2βˆ’ 𝑏2βˆ’ 2π‘Žπ‘π”Ό(𝑋) = = π‘Ž2𝔼(𝑋2) + 𝑏2+ 2π‘Žπ‘π”Ό(𝑋) βˆ’ π‘Ž2(𝔼(𝑋))2βˆ’ 𝑏2βˆ’ 2π‘Žπ‘π”Ό(𝑋) = = π‘Ž2𝔼(𝑋2) βˆ’ π‘Ž2(𝔼(𝑋))2=

(7)

= π‘Ž2(𝔼(𝑋2) βˆ’ (𝔼(𝑋))2) = = π‘Ž2π‘‰π‘Žπ‘Ÿ(𝑋) Dimostrazione prop. 4: π‘‰π‘Žπ‘Ÿ(𝑋 + π‘Œ) = 𝔼((𝑋 + π‘Œ)2) βˆ’ (𝔼(𝑋 + π‘Œ))2= = 𝔼(𝑋2+ π‘Œ2+ 2π‘‹π‘Œ) βˆ’ (𝔼(𝑋) + 𝔼(π‘Œ))2= = 𝔼(𝑋2)+𝔼(π‘Œ2)+𝔼(2π‘‹π‘Œ)βˆ’ (𝔼(𝑋))2βˆ’ (𝔼(π‘Œ))2βˆ’ 2𝔼(𝑋)𝔼(π‘Œ)= = π‘‰π‘Žπ‘Ÿ(𝑋)+π‘‰π‘Žπ‘Ÿ(π‘Œ)+2πΆπ‘œπ‘£(𝑋, π‘Œ)

Indipendenza variabili aleatorie discrete

Date 𝑛 varaibili aleatorie 𝑋1, 𝑋2, … , 𝑋𝑛 essere si dicono indipendenti se l’uguaglianza:

β„™(𝑋1= 𝑣1, 𝑋2= 𝑣2, … , 𝑋𝑛= 𝑣𝑛) = β„™(𝑋1= 𝑣1) βˆ™ β„™( 𝑋2 = 𝑣2) βˆ™ … βˆ™ β„™(𝑋𝑛 = 𝑣𝑛)

Per ogni scelta di 𝑣1, 𝑣2, … 𝑣𝑛. La prima parte dell’eguaglianza significata la β€œprobabilitΓ  che

contemporaneamente 𝑋1 assume il valore 𝑣1, 𝑋2 assume il valore 𝑣2 e cosΓ¬ via. Se 𝑋 e π‘Œ sono variabili

aleatorie indipendenti allora:

β€’ Il valore atteso del prodotto Γ¨ il prodotto dei valori attesi: 𝔼(𝑋 βˆ™ π‘Œ) = 𝔼(𝑋) βˆ™ 𝔼(π‘Œ)

β€’ La varianza della somma Γ¨ la somma elle varianze: π‘‰π‘Žπ‘Ÿ(𝑋 + π‘Œ) = π‘‰π‘Žπ‘Ÿ(𝑋) + π‘‰π‘Žπ‘Ÿ(π‘Œ)

Formule valore atteso e varianza per variabili aleatorie discrete: 𝔼(π‘Žπ‘‹ + 𝑏) = π‘Žπ”Ό(𝑋) + 𝑏 𝔼(𝑋 + π‘Œ) = 𝔼(𝑋) + 𝔼(π‘Œ) π‘‰π‘Žπ‘Ÿ(𝑋) = 𝔼 ((𝑋 βˆ’ 𝔼(𝑋))2) π‘‰π‘Žπ‘Ÿ(𝑋) β‰₯ 0 π‘‰π‘Žπ‘Ÿ(𝑋) = 𝔼(𝑋2) βˆ’ (𝔼(𝑋))2 π‘‰π‘Žπ‘Ÿ(π‘Žπ‘‹ + 𝑏) = π‘Ž2π‘‰π‘Žπ‘Ÿ(𝑋) π‘‰π‘Žπ‘Ÿ(𝑋 + π‘Œ) = π‘‰π‘Žπ‘Ÿ(𝑋) + π‘‰π‘Žπ‘Ÿ(π‘Œ) + 2πΆπ‘œπ‘£(𝑋, π‘Œ) πΆπ‘œπ‘£(𝑋, π‘Œ) = 𝔼(π‘‹π‘Œ) βˆ’ 𝔼(𝑋)𝔼(π‘Œ)

𝔼(𝑋 βˆ™ π‘Œ) = 𝔼(𝑋) βˆ™ 𝔼(π‘Œ) se variabili aleatorie sono indipendenti π‘‰π‘Žπ‘Ÿ(𝑋 + π‘Œ) = π‘‰π‘Žπ‘Ÿ(𝑋) + π‘‰π‘Žπ‘Ÿ(π‘Œ) se variabili aleatorie sono indipendenti

MODELLI DISCRETI DI VARIABILI ALEATORIE

Bernoulli

Nel caso in cui gli esperimenti aleatori possono avere solo due esisti (esempio lancio della moneta oppure presenza o meno di una proteina oppure uomo sano o non sano) si utilizza la variabile aleatoria di Bernoulli. Si definisce dunque esperimento di Bernoulli un esperimento aleatorio che puΓ² avere solo due esisti. Una variabile aleatoria di Bernoulli ℬ(𝑝) di parametro p Γ¨ una variabile che puΓ² assumere solo i valori 0 e 1, e per cui la probabilitΓ  di assumere il valori 1 Γ¨ pari a 𝑝, e quella di assumere il valore 0 Γ¨ pari a 1 βˆ’ 𝑝. Il valore 0 Γ¨ anche detto insuccesso mentre il valore 1 Γ¨ detto successo. Ricordandoci che di una variabile discreta interessano i valori che puΓ² assumere e la funzione di densitΓ  definiamo l’insieme dei valori possibili Γ¨ 𝑉 = {0,1}; 𝑓π‘₯(0) = 1 βˆ’ 𝑝 e 𝑓π‘₯(1) = 𝑝. Studiamo ora alcune proprietΓ  delle variabili aleatorie applicata alla

bernoulliana:

βˆ’ Valore atteso della bernoulliana: 𝔼(𝑋) = 𝑝

(8)

Il massimo della varianza di una variabile di Bernoulli Γ¨ ΒΌ e lo si ottiene in corrispondenza a 𝑝 = 1/2. Nel caso in cui si ripetessero piΓΉ esperimenti di Bernoulli si parlerebbe di processo si Bernoulli. Diamo ora una definizione formale di processo di Bernoulli: una sequenza finita o infinita di prove di Bernoulli, tutte con lo stesso parametro 𝑝 e fra loro indipendenti, Γ¨ detta processo di Bernoulli di parametro 𝑝. Dato un processo di Bernoulli si potrebbe voler calcolare:

β€’ Se si fanno 𝑛 prove, qual Γ¨ la probabilitΓ  che si abbiamo π‘˜ successi? Per rispondere a questa domanda si definisce la variabile binomiale ℬ(𝑛, 𝑝) ovvero una variabile che conta il numero di successi in 𝑛 prove di un processo di Bernoulli di parametro 𝑝. La probabilitΓ  con cui si abbiano π‘˜ successi in 𝑛 prove si calcola come:

𝑓π‘₯(π‘˜) = (π‘›π‘˜) π‘π‘˜(1 βˆ’ 𝑝)π‘›βˆ’π‘˜

Studiamo ora alcune proprietΓ  delle binomiale: βˆ’ Valore atteso della binomiale: 𝔼(𝑋) = 𝑛𝑝

βˆ’ Varianza della binomiale: π‘‰π‘Žπ‘Ÿ(𝑋) = 𝑛𝑝(1 βˆ’ 𝑝)

Il massimo della varianza di una variabile binomiale Γ¨ 𝑛/4 e lo si ottiene in corrispondenza a 𝑝 = 1/2. β€’ Quando si ha per la prima volta il successo? Per rispondere a questa domanda si definisce la variabile

geometrica 𝒒(𝑝) ovvero una variabile aleatoria che dice in quale prova di un processo di Bernoulli di parametro 𝑝 si ha il primo successo. Per la geometrica si ha che:

𝑓π‘₯(π‘˜) = 𝑝(1 βˆ’ 𝑝)π‘˜βˆ’1

β„™(𝑋 ≀ π‘˜) = 1 βˆ’ (1 βˆ’ 𝑝)π‘˜ Studiamo ora alcune proprietΓ  delle binomiale:

βˆ’ Valore atteso della geometrica: 𝔼(𝑋) =1

𝑝

βˆ’ Varianza della geometrica: π‘‰π‘Žπ‘Ÿ(𝑋) =1βˆ’π‘π‘2

La varianza di una variabile geometrica Γ¨ decrescente rispetto a 𝑝 ∈ [0,1]

Poisson

Parliamo ora di un’altra variabile aleatoria discreta ovvero la variabile di Poisson che si costruisce come limite in legge di una successione di variabili binomiali. Una variabile aleatoria 𝑋 si dice di Poisson di parametro πœ† > 0, 𝑋~𝒫(πœ†) se: 𝑃(𝑋 = 𝑖) = { πœ†π‘– 𝑖!𝑒 βˆ’πœ† 𝑖 ∈ β„• 0 π‘Žπ‘™π‘‘π‘Ÿπ‘–π‘šπ‘’π‘›π‘‘π‘–

Questo tipo di variabile aleatoria viene utilizzata per determinare ad esempio il numero di automobili che passa per un determinato incrocio in un determinato intervallo di tempo oppure il numero di persone che si reca in un negozio in un giorno feriale. Studiamo ora alcune proprietΓ  della variabile di Poisson:

βˆ’ Valore atteso: 𝔼(𝑋) = πœ† βˆ’ Varianza: π‘‰π‘Žπ‘Ÿ(𝑋) = πœ†

Un teorema afferma che se 𝑋1, 𝑋2, … , 𝑋𝑛 sono variabili indipendenti con legge di Poisson allora vale che:

𝑋1+ 𝑋2+ β‹― + 𝑋𝑛= 𝒫(πœ†1+ πœ†2+ β‹― + πœ†π‘›)

Definiamo ora processo di Poisson: sia Ξ£ uno spazio con misura πœ‡, una famiglai di variabili aleatorie {𝑋Δ}Ξ”βˆˆΞ£

si dice processo di Poisson di intensitΓ  πœ‡ se e solo se valgono le seguenti proprietΓ : β€’ Se {Δ𝑖}𝑖=1𝑛 sono disgiunti allora 𝑋Δ1, … , 𝑋Δ𝑛 sono indipendenti

β€’ 𝑋Δ~𝒫(πœ‡(Ξ”))

(9)

Formule di Bernoulli ℬ(𝑝): 𝑓π‘₯(0) = 1 βˆ’ 𝑝 𝑓π‘₯(1) = 𝑝 𝔼(𝑋) = 𝑝 π‘‰π‘Žπ‘Ÿ(𝑋) = 𝑝(1 βˆ’ 𝑝) Formule binomiale ℬ(𝑛, 𝑝): 𝑓π‘₯(π‘˜) = ( 𝑛 π‘˜) π‘π‘˜(1 βˆ’ 𝑝)π‘›βˆ’π‘˜ 𝔼(𝑋) = 𝑛𝑝 π‘‰π‘Žπ‘Ÿ(𝑋) = 𝑛𝑝(1 βˆ’ 𝑝) Formule geometrica 𝒒(𝑝) : 𝑓π‘₯(π‘˜) = 𝑝(1 βˆ’ 𝑝)π‘˜βˆ’1 β„™(𝑋 ≀ π‘˜) = 1 βˆ’ (1 βˆ’ 𝑝)π‘˜ 𝔼(𝑋) =1 𝑝 π‘‰π‘Žπ‘Ÿ(𝑋) =1 βˆ’ 𝑝 𝑝2 Formule Poisson 𝒫(πœ†): 𝑃(𝑋 = 𝑖) = { πœ†π‘– 𝑖!𝑒 βˆ’πœ† 𝑖 ∈ β„• 0 π‘Žπ‘™π‘‘π‘Ÿπ‘–π‘šπ‘’π‘›π‘‘π‘– 𝔼(𝑋) = πœ† π‘‰π‘Žπ‘Ÿ(𝑋) = πœ†

VARIABILI ALEATORIE CONTINUE

DensitΓ  variabili aleatorie continue

Studiamo adesso le variabili aleatorie continue. Una variabile aleatoria si dice discreta se l’insieme dei valori che X puΓ² assumere Γ¨ un insieme infinito continuo. Sia 𝑋: Ξ© β†’ ℝ una variaible aleatoria conitnua, se esiste una funzione integrabile 𝑓π‘₯: ℝ β†’ [0, +∞) tale che per ogni intervallo 𝐽 βŠ† ℝ:

β„™(𝑋 ∈ 𝐽) = ∫ 𝑓π‘₯(𝑋)𝑑π‘₯ 𝐽

allora 𝑓π‘₯ Γ¨ la funzione di densitΓ  continua della variabile aleatoria 𝑋 e la 𝑋 Γ¨ detta variabile assolutamente

continua. Data una variabile aleatoria, se per ogni intervallo reale 𝐼 sappiamo calcolare β„™(𝑋 ∈ 𝐼) diciamo che conosciamo la legge o distribuzione di 𝑋. Se le variabili 𝑋1, 𝑋2, … , 𝑋𝑛 hanno la stessa legge si dice che sono

identicamente distribuito. Studiamo ora alcune proprietΓ  della variabili continue: βˆ’ Valore atteso: 𝔼(𝑋) = ∫ π‘₯ βˆ™ 𝑓ℝ π‘₯(π‘₯)𝑑π‘₯

(10)

Indipendenza variabili aleatorie discrete

Date 𝑛 variabili aleatorie continue 𝑋1, 𝑋2, … , 𝑋𝑛 essere si dicono indipendenti se l’uguaglianza:

β„™(𝑋1∈ 𝐼1, 𝑋2 ∈ 𝐼2, … , π‘‹π‘›βˆˆ 𝐼𝑛) = β„™(𝑋1∈ 𝐼1) βˆ™ β„™( 𝑋2∈ 𝐼2) βˆ™ … βˆ™ β„™(π‘‹π‘›βˆˆ 𝐼𝑛)

per ogni scelta di 𝐼1, 𝐼2, … , 𝐼𝑛 intervalli reali. Se 𝑋 e π‘Œ sono variabili aleatorie continue indipendenti allora:

β€’ Il valore atteso del prodotto Γ¨ il prodotto dei valori attesi: 𝔼(𝑋 βˆ™ π‘Œ) = 𝔼(𝑋) βˆ™ 𝔼(π‘Œ)

β€’ La varianza della somma Γ¨ la somma elle varianze: π‘‰π‘Žπ‘Ÿ(𝑋 + π‘Œ) = π‘‰π‘Žπ‘Ÿ(𝑋) + π‘‰π‘Žπ‘Ÿ(π‘Œ) Formule valore atteso e varianza per variabili aleatorie discrete:

β„™(𝑋 ∈ 𝐽) = ∫ 𝑓π‘₯(𝑋)𝑑π‘₯ 𝐽

𝔼(𝑋) = ∫ π‘₯ βˆ™ 𝑓π‘₯(π‘₯)𝑑π‘₯ ℝ

π‘‰π‘Žπ‘Ÿ(𝑋) = 𝔼 ((𝑋 βˆ’ 𝔼(𝑋))2)

MODELLI CONTINUE DI VARIABILI ALEATORIE

Uniforme

Una variabile aleatoria uniforme sull’intervallo (π‘Ž, 𝑏) Γ¨ la variabile continua che assume valori fra π‘Ž e 𝑏 e ha densitΓ :

𝑓π‘₯(𝑋) =

1

𝑏 βˆ’ π‘Ž 𝑠𝑒 π‘₯πœ–(π‘Ž, 𝑏) 𝑓π‘₯(𝑋) = 0 𝑠𝑒 π‘₯ βˆ‰ (π‘Ž, 𝑏)

Studiamo ora alcune proprietΓ  della uniforme: βˆ’ Valore atteso della uniforme: 𝔼(𝑋) =π‘Ž+𝑏

2

βˆ’ Varianza della uniforme: π‘‰π‘Žπ‘Ÿ(𝑋) =(π‘βˆ’π‘Ž)12 2

Normale

Se si hanno misure effettuate da errore o grandezze misurate sugli individui di una popolazione come altezza o peso si utilizza la variabile normale. Una variabile normale standard Γ¨ la variabile continua che assume valori in tutto ℝ e ha densitΓ  come nel grafico ovvero:

𝑓π‘₯(𝑋) =

1 √2πœ‹π‘’

βˆ’π‘₯22

Non importa conoscere con esattezza il valore della densitΓ , ciΓ² che importa Γ¨ invece conoscere il grafico e le sue proprietΓ :

β€’ Il massimo Γ¨ in π‘₯ = 0 ed Γ¨ uguale a 1

√2πœ‹

β€’ È simmetrica rispetto all’asse delle y β€’ Va a zero a ±∞

(11)

β€’ β„™(|𝑋| > 4) = 0,000063 β€’ β„™(βˆ’3 < π‘₯ < 3) = 0,9973

Studiamo ora alcune proprietΓ  della normale: βˆ’ Valore atteso della normale: 𝔼(𝑋) = 0 βˆ’ Varianza della normale: π‘‰π‘Žπ‘Ÿ(𝑋) = 1

Per determinare il valore della probabilitΓ  occorre usare le tavole. La riga ci permette di trovare il numero fino al primo decimale mentre la colonna ci permette di trovare il secondo decimale. Le probabilitΓ  non presenti in tabella si ottengono ragionando sul grafico come valori complementari.

Parliamo ora della variabile normale generiche: sia 𝑍~𝒩(0,1) e siamo πœ‡, 𝜎 ∈ ℝ. La variabile aleatoria 𝑋 = πœŽπ‘ + πœ‡ si indica con 𝑋~𝒩(πœ‡, 𝜎2) ed Γ¨ detta vairaible aleatoria normale di parametri πœ‡ e 𝜎2. Studiamo ora

alcune proprietΓ  della normale generica:

βˆ’ Valore atteso della normale generica: 𝔼(𝑋) = πœ‡ βˆ’ Varianza della normale generica: π‘‰π‘Žπ‘Ÿ(𝑋) = 𝜎2 Le proprietΓ  di un grafico riferito a una normale generica sono:

β€’ Il massimo Γ¨ in π‘₯ = πœ‡

β€’ Altezza del massimo puΓ² anche superare 1È simmetrica rispetto all’asse delle y β€’ Ha orma a campana

β€’ L’area sotto la curva vale 1

β€’ Se la varianza Γ¨ minore di 1 la campana Γ¨ stretta e alta β€’ Se la varianza Γ¨ maggiore di 1 la campana Γ¨ larga e bassa β€’ β„™(πœ‡ βˆ’ 3𝜎 < 𝑋 < πœ‡ + 3𝜎) = 0,9973

Le tavolo nella normale generalizzata sono riferite solo al valore 𝑍 dunque occorre effettuale l’operazione di standardizzazione ovvero sottrarre ad 𝑋 il valore atteso e dividere per la radice della varianza:

𝑍 =𝑋 βˆ’ πœ‡ 𝜎 Se 𝑋~𝒩(πœ‡1, 𝜎12) e π‘Œ~𝒩(πœ‡2, 𝜎22) vale che: 𝑋 + π‘Œ~𝒩(πœ‡1+ πœ‡2, 𝜎12+ 𝜎22) Se 𝑋~𝒩(πœ‡1, 𝜎12) e π‘Ž, 𝑏 ∈ ℝ vale che: π‘Žπ‘‹ + 𝑏~𝒩(π‘Žπœ‡1+ 𝑏, π‘Ž^2𝜎22)

(12)

Formule dell’uniforme: {𝑓π‘₯(𝑋) = 1 𝑏 βˆ’ π‘Ž 𝑠𝑒 π‘₯πœ–(π‘Ž, 𝑏) 𝑓π‘₯(𝑋) = 0 𝑠𝑒 π‘₯ βˆ‰ (π‘Ž, 𝑏) 𝔼(𝑋) =π‘Ž + 𝑏 2 π‘‰π‘Žπ‘Ÿ(𝑋) =(𝑏 βˆ’ π‘Ž) 2 12

Formule della normale standard: 𝑓π‘₯(𝑋) = 1 √2πœ‹π‘’ βˆ’π‘₯22 β€’ Il massimo Γ¨ in π‘₯ = 0 ed Γ¨ uguale a 1 √2πœ‹

β€’ È simmetrica rispetto all’asse delle y β€’ Va a zero a ±∞ β€’ β„™(|𝑋| > 3) = 0,0027 β€’ β„™(|𝑋| > 4) = 0,000063 β€’ β„™(βˆ’3 < π‘₯ < 3) = 0,9973 𝔼(𝑋) = 0 π‘‰π‘Žπ‘Ÿ(𝑋) = 1

Formule della normale 𝑋~𝒩(πœ‡, 𝜎2): 𝑋 = πœŽπ‘ + πœ‡

𝔼(𝑋) = πœ‡ π‘‰π‘Žπ‘Ÿ(𝑋) = 𝜎2

β€’ Il massimo Γ¨ in π‘₯ = πœ‡

β€’ Altezza del massimo puΓ² anche superare 1È simmetrica rispetto all’asse delle y β€’ Ha orma a campana

β€’ L’area sotto la curva vale 1

β€’ Se la varianza Γ¨ minore di 1 la campana Γ¨ stretta e alta β€’ Se la varianza Γ¨ maggiore di 1 la campana Γ¨ larga e bassa β€’ β„™(πœ‡ βˆ’ 3𝜎 < 𝑋 < πœ‡ + 3𝜎) = 0,9973

𝑍 =𝑋 βˆ’ πœ‡ 𝜎

𝑋 + π‘Œ~𝒩(πœ‡1+ πœ‡2, 𝜎12+ 𝜎22)

(13)

TEOREMA CENTRALE DEL LIMITE

Media campionaria

Date 𝑛 variabili aleatorie 𝑋1, 𝑋2, … , 𝑋𝑛 indipendenti e identicamente distribuiti, la variabile aleatoria Γ¨ detta

media campionaria: 𝑋𝑛= 1 π‘›βˆ‘ 𝑋𝑖 𝑛 𝑖=1

Definita la media campionaria potremmo voler rispondere alla seguente domanda: posso dire che legge ha? In generale non Γ¨ semplice conoscere la legge di 𝑋𝑛, ma se 𝑛 Γ¨ grande e ci si accontenta di un’approssimazione, il

teorema centrale del limite da una risposta. Teorema centrale del limite

Sia {𝑋𝑖}𝑖β‰₯1 una successione di variabili aleatorie identicamente distribuite, tutte con valore atteso 𝔼(𝑋𝑖) = πœ‡ e

varianza finita π‘‰π‘Žπ‘Ÿ(𝑋𝑖) = 𝜎2> 0. Per ogni 𝑑 ∈ ℝ vale che:

lim π‘›β†’βˆžβ„™(𝑆𝑛 βˆ—β‰€ 𝑑) = πœ™(𝑑) π‘π‘œπ‘› 𝑆 π‘›βˆ—= π‘‹π‘›βˆ’ ΞΌ 𝜎/βˆšπ‘›

π‘†π‘›βˆ— Γ¨ la standardizzazione della media campionaria. In altre parole, se si vuole calcolare le probabilitΓ  relative a

π‘†π‘›βˆ— si puΓ² utilizzare quelle relativa alla normale 𝒩(0,1) come approssimazione. Dunque:

π‘†π‘›βˆ— β‰ˆ 𝒩(0,1)

π‘‹π‘›β‰ˆ 𝒩(πœ‡, 𝜎2)

𝑋1+ 𝑋2+ β‹― + 𝑋𝑛 β‰ˆ 𝒩(πœ‡, 𝜎2)

L’aspetto positivo Γ¨ che questa approssimazione vale per qualsiasi legge, quello negativo Γ¨ che in quanto approssimazione vale solo se 𝑛 Γ¨ sufficientemente grande. L’approssimazione diviene uguaglianza nel caso di variabili normali chiaramente:

π‘†π‘›βˆ—= 𝒩(0,1)

𝑋𝑛= 𝒩(πœ‡, 𝜎2)

𝑋1+ 𝑋2+ β‹― + 𝑋𝑛 = 𝒩(πœ‡, 𝜎2)

Il teorema del limite puΓ² essere applicato anche a Bernoulli. In questo caso ha validitΓ  quando 𝑛𝑝 β‰₯ 5 e (1 βˆ’ 𝑝) β‰₯ 5.

Disuguaglianza di Chebychev

Sia 𝑋 una variabile aleatoria con 𝔼(𝑋) = πœ‡ e π‘‰π‘Žπ‘Ÿ(𝑋) = 𝜎2. Sia πœ€ un numero reale positivo prefissato. Vale la seguente disuguaglianza: β„™(|𝑋 βˆ’ πœ‡| β‰₯ πœ€) β‰€πœŽ 2 πœ€2 O equivalentemente: β„™(|𝑋 βˆ’ πœ‡| < πœ€) β‰₯ 1 βˆ’πœŽ 2 πœ€2

(14)

β„™(|𝑋 βˆ’ πœ‡| β‰₯ π›ΏπœŽ) ≀ 1 𝛿2 Sciogliendo il modulo: |𝑋 βˆ’ πœ‡| β‰₯ π›ΏπœŽ β†’ 𝑋 β‰₯ πœ‡ + π›ΏπœŽ 𝑋 ≀ πœ‡ βˆ’ π›ΏπœŽ Quindi si ottiene: β„™(𝑋 β‰₯ πœ‡ + π›ΏπœŽ) + β„™(𝑋 ≀ πœ‡ βˆ’ π›ΏπœŽ) ≀ 1 𝛿2

Se πœ€ = π›ΏπœŽ allora si ha che per la seconda equazione:

β„™(|𝑋 βˆ’ πœ‡| < π›ΏπœŽ) β‰₯ 1 βˆ’ 1 𝛿2 Sciogliendo il modulo: |𝑋 βˆ’ πœ‡| ≀ π›ΏπœŽ β†’ πœ‡ βˆ’ π›ΏπœŽ < 𝑋 < πœ‡ + π›ΏπœŽ Quindi si ottiene: β„™(πœ‡ βˆ’ π›ΏπœŽ < 𝑋 < πœ‡ + π›ΏπœŽ) ≀ 1 βˆ’ 1 𝛿2

Questa disuguaglianza non permette di prevedere esattamente il valore di 𝑋 perchΓ© Γ¨ sempre una variabile aleatoria ma mi permette di definire un intervallo di valori in cui Γ¨ molto probabile che si trovi il valore che la variabile aleatoria 𝑋 assumerΓ . Sottolineiamo che l’ampiezza dell’intervallo Γ¨ stabilita da 𝜎2.

La legge dei gradi numeri

Siano 𝑋1, 𝑋2, … , 𝑋𝑛 variabili indipendenti e identicamente distribuite. Sia 𝔼(𝑋𝑖) = πœ‡ e π‘‰π‘Žπ‘Ÿ(𝑋𝑖) = 𝜎2 per ogni i.

Allora per πœ€ > 0 vale:

lim

π‘›β†’βˆžβ„™(|π‘‹π‘›βˆ’ πœ‡| > πœ€) = 0

La legge forte dei grandi numeri afferma invece che: siano 𝑋1, 𝑋2, … , 𝑋𝑛 variabili indipendenti e identicamente

distribuite. Sia 𝔼(𝑋𝑖) = πœ‡ per ogni i. Allora per πœ€ > 0 vale:

β„™ (| lim

(15)

AFFIDABILITA’

AffidabilitΓ 

Supponiamo di avere un sistema costituito da vari sottosistemi. Si consideri una caratteristica Z che ciascun sottosistema puΓ² avere o non avere. La probabilitΓ  che il sistema abbia la caratteristica Z si chiama affidabilitΓ  del sistema. Ipotizziamo dunque si avere n sottosistemi di affidabilitΓ  π‘Ž1, π‘Ž2,…, π‘Žπ‘› e supponiamo che gli

eventi β€œl’elemento i-esimo ha la caratteristica Z” siano indipendenti. L’affidabilitΓ  si calcola in modo differente in funzione del tipo di relazione tra i sottosistemi:

β€’ Sottosistemi in serie = quando il sistema S ha la caratteristica Z e se e solo se tutti i sottosistemi hanno la caratteristica Z. L’affidabilitΓ  π‘Žπ‘  del sistema in serie si calcola come produttoria delle affidabilitΓ  dei

sottosistemi:

π‘Žπ‘ = ∏ π‘Žπ‘– 𝑛

𝑖=1

β€’ Sottosistemi in parallelo = quando il sistema P ha la caratteristica Z se e solo se almeno uno dei sottosistemi ha la caratteristica Z. L’affidabilitΓ  π‘Žπ‘ del sistema in serie si calcola come:

π‘Žπ‘= 1 βˆ’ ∏(1 βˆ’ π‘Žπ‘–) 𝑛

𝑖=1

Iterando opportunamente queste due formule si possono costruire in maniera gerarchica le affidabilitΓ  di sistemi complessi.

(16)

STATISTICA DESCRITTIVA

Singole variabili e classi

La statistica descrittiva considera un insieme di dati e li elabora. I dati raccolti rappresentano la realizzazione di variabili aleatorie. Si distinguono in variabili continue e discrete. Spesso le singole variabili vengono raggruppate in classi ovvero intervalli contigui. Una volta raggruppati gli 𝑛 dati in classi si definiscono le frequenze. Esistono diversi tipi di frequenze:

β€’ Frequenza assoluta di una classe π‘“π‘Ž = Γ¨ il numero di osservazioni che ricadono in quella classe

β€’ Frequenza relativa di una classe π‘“π‘Ÿ = Γ¨ la sua frequenza assoluta divisa per il numero totale di

osservazioni

β€’ Frequenza percentuale di una classe 𝑓𝑝 = Γ¨ la sua frequenza relativa moltiplicata per 100

β€’ Frequenza cumulativa di una classe πΉπ‘Ž, πΉπ‘Ÿ, 𝐹𝑝 = Γ¨ la somma delle frequenze della classe stessa e di tutte

quelle che la precedono

Se i valori diversi osservati in un esperimento non sono troppo numerosi si puΓ² scegliere tutte le classi come singoli valori.

Spesso per rappresentare le frequenze si utilizzano gli istogrammi. La scelta delle classi Γ¨ arbitraria; talvolta puΓ² essere conveniente trattare classi di ampiezza diversa. In tal caso solitamente Γ¨ l’area del rettangolo ad essere proporzionale alla frequenza.

Indici di posizione

Defiliamo ora alcuni indici di posizione: β€’ Media = si definisce media il numero:

π‘₯ =1 π‘›βˆ‘ π‘₯𝑖

𝑛

𝑖=1

La media di un insieme di dati si calcola utilizzando lo stimatore media campionaria; Γ¨ quindi la stima puntuale del valore atteso della variabile aleatoria che modellizza la misura del dato in questione. β€’ Mediana = disponendo i dati in ordine crescente la mediana Γ¨ il dato nella posizione centrale se n Γ¨

dispare, oppure la media aritmetica dei due dati in posizione centrale se n Γ¨ pari.

β€’ Quantili, percentili e quartili = generalizzando il concetto di mediana cercando un valore π‘žπ‘ con la

proprietΓ  che almeno una frazione 𝑝 dei dati sia non superiore a π‘žπ‘ ed almeno una frazione 1 βˆ’ 𝑝 sia

non inferiore a π‘žπ‘. Si definisce dunque p-esimo quantile:

βˆ’ Se 𝑛𝑝 non Γ¨ intero allora π‘žπ‘= π‘₯π‘˜+1

βˆ’ Se 𝑛𝑝 = π‘˜ con k interno allora π‘žπ‘=

π‘₯π‘˜+π‘₯π‘˜+1

2

Il p-esimo quantile viene anche detto 100 p-esimo percentile. Il 25Β°,50Β°,75Β° percentile vengono detti anche primo, secondo e terzo quartile e indicati con 𝑄1, 𝑄2, 𝑄3. Il secondo quartile coincide con la

mediana

β€’ Moda = Γ¨ il valore o piΓΉ in generale la classe in corrispondenza del quale si ha la popolazione piΓΉ numerosa. Se vi Γ¨ un solo punto dove la frequenza Γ¨ massima, si dice che la distribuzione delle frequenze Γ¨ unimodale, se vi Γ¨ piΓΉ di un massimo si dice che la distribuzione delle frequenze Γ¨ plurimodale

Indici di dispersione

Definiamo ora una serie di indici di dispersione:

β€’ Range = se i dati sono π‘₯1, π‘₯2, … , π‘₯𝑛 il range Γ¨ il numero reale:

π‘Ÿ = π‘šπ‘Žπ‘₯{π‘₯𝑖: 𝑖 = 1, … } βˆ’ π‘šπ‘–π‘›{π‘₯𝑖: 𝑖 = 1, … }

(17)

𝑠2= 1 𝑛 βˆ’ 1βˆ‘(π‘₯π‘–βˆ’ π‘₯) 2 𝑛 𝑖=1 = ( 1 𝑛 βˆ’ 1βˆ‘ π‘₯𝑖 2 𝑛 𝑖=1 ) βˆ’ 𝑛 𝑛 βˆ’ 1π‘₯ 2

Una definizione alternativa di varianza per un insieme di dati Γ¨ la seguente:

𝜎2=1 π‘›βˆ‘(π‘₯π‘–βˆ’ π‘₯) 2 𝑛 𝑖=1 = (1 π‘›βˆ‘ π‘₯𝑖 2 𝑛 𝑖=1 ) βˆ’ π‘₯2

Indici di forma

(18)

STATISTICA INFERENZIALE

Introduzione

Finora abbiamo visto che esistono modelli probabilistici che possiamo utilizzare per prevedere gli esiti di esperimenti aleatori. Naturalmente la previsione Γ¨ di tipo probabilistico: diciamo infatti con quanta probabilitΓ  si verificano certi esiti.

Con la statistica inferenziale si utilizzano i dati di piΓΉ esperimenti aleatori per dire qualcosa sul modello probabilistico che si suppone incognito. In tutti i problemi di stima dei parametri si seguono questi passi:

1. Scegliere un modello con un parametro incogniti 2. Fare 𝑛 esperimenti

3. Raccogliere i dati e calcolare una funzione di questi dati 4. Usare questa funzione per stimare il parametro incognito

Modello statistico parametrico

Diamo ora una serie di definizioni utili allo studio della statistica inferenziale. Definiamo un modello statistico in due diversi modi:

β€’ Utilizzando la densitΓ  = un modello statistico parametrico Γ¨ una famiglia di leggi di variabili aleatorie dipendenti da uno o piΓΉ parametri πœ—: lo indichimo tramite la funzione di densitΓ  {𝑓(π‘₯; πœ—): πœ— ∈ Θ} dove Θ Γ¨ lo spazio dei parametri. In altre parole, il modello statistico indica la scelta di un tipo di variabile aleatoria.

β€’ In generale = un modello statistico parametrico Γ¨ una famiglia di leggi di variabili aleatorie dipendenti da uno o piΓΉ parametri πœ—: lo indichimo tramite la legge {β„’πœ—: πœ— ∈ Θ} dove Θ Γ¨ lo spazio dei parametri. In

altre parole, la legge β„’πœ— simboleggia la scelta di un tipo di legge (la bernoulliana, la binomiale, la

poissoniana, normale etc)

Stimatore

Definiamo inoltre il campione casuale di dimensione 𝑛 una n-upla di variabili aleatorie 𝑋1, … , 𝑋𝑛. Dato un

campione casuale 𝑋1, … , 𝑋𝑛 si dice statistica di variabile aleatorie 𝑇 funzione del campione casuale che non

sia funzione di alcun parametro incognito. Assegnata la statistica 𝑇 una volta estratto un particolare campione il numero 𝜏 = 𝑑(π‘₯1, … π‘₯𝑛) si dice stima di 𝑔(πœ—). Uno stimatore si dice non distorto o corretto se

π”Όπœ—(𝑇) = 𝑔(πœ—) ovvero quando il valore atteso della statistica Γ¨ uguale alla sua stima. In generale se ciΓ² non

accade si definisce distorsione la differenza tra il valore atteso della statistica e la sua stima: π”Όπœ—(𝑇) βˆ’ 𝑔(πœ—).

Spesso lo stimatore scelto dipende esplicitamente dal numero n ovvero dalla numerositΓ  del campione. Una successione di stimatori si dice consistente se il limite per n che tende a infinito del valore atteso del quadrato della distorsione Γ¨ nullo ovvero:

lim

π‘›β†’βˆžπ”Όπœ—((π‘‡π‘›βˆ’ 𝑔(πœ—)) 2

) = 0 Il valore atteso del quadrato della distorsione π”Όπœ—((π‘‡π‘›βˆ’ 𝑔(πœ—))

2

) Γ¨ detto rischio quadratico medio. Per uno stimatore consistente vale che:

π”Όπœ—((π‘‡π‘›βˆ’ 𝑔(πœ—)) 2

) = π‘‰π‘Žπ‘Ÿ(𝑇𝑛) + (π”Όπœ—(π‘‡π‘›βˆ’ 𝑔(πœ—))) 2

Se lo stimatore oltre a essere consistente Γ¨ anche non distorto allora vale che: π”Όπœ—((π‘‡π‘›βˆ’ 𝑔(πœ—))

2

) = π‘‰π‘Žπ‘Ÿ(𝑇𝑛)

Riferimenti

Documenti correlati

Usare il teorema degli zeri per determinare il segno di f 4. Senza calcolare l’integrale, disegnare il grafico della funzione F. Spiegare la relazione fra integrale di Riemann e

2. Determinare il polinomio di McLaurin di ordine 16 di f, usando il simbolo di sommatoria. Si consiglia di usare le formule di addizione per il coseno e quindi l’approssimazione

ProprietΓ  della somma degli antecedenti e dei conseguenti: in una proporzione la somma degli antecedenti sta alla somma dei conseguenti come ogni antecedente sta

Caratteristiche della distribuzione binomiale - la distribuzione binomiale e' normalizzata... Distribuzione

La distribuzione binomiale Γ¨ la risposta al problema di valutare la probabilitΓ  di osservare un numero intero. k = 0,1,2,3...,n di β€œsuccessi” in n

Si suppone, nel modello di Laplace, che gli errori casuali di misura possano essere schematizzati come il concorso contemporaneo di un numero n molto grande

Non Γ¨ consentito utilizzare appunti, libri, e/o qualsiasi

Non Γ¨ consentito utilizzare appunti, libri, e/o qualsiasi