• Non ci sono risultati.

Probabilit`a e incertezza di misura

N/A
N/A
Protected

Academic year: 2021

Condividi "Probabilit`a e incertezza di misura"

Copied!
94
0
0

Testo completo

(1)Probabilit`a e incertezza di misura G. D’Agostini Dipartimento di Fisica, Universit`a “La Sapienza”, Roma 30 ottobre 2001.

(2) ii. c G. D’Agostini 2001.

(3) Indice I. Dal concetto di probabilit`a ai problemi di probabilit`a inversa. 1. 1. Incertezza e probabilita` 1.1 Determinismo e probabilismo nei metodi di indagine scientifica 1.2 Incertezze in Fisica e nelle altre scienze naturali . . . . . . . . 1.3 Limiti all’accuratezza delle misure - un esempio . . . . . . . . 1.4 Imparare dagli esperimenti: il problema dell’induzione . . . . 1.5 ❄Limiti del metodo di falsificazione . . . . . . . . . . . . . . 1.6 Decisioni in condizioni di incertezza . . . . . . . . . . . . . . 1.7 Concetto di probabilit`a . . . . . . . . . . . . . . . . . . . . . 1.8 Semplici valutazioni di probabilit`a . . . . . . . . . . . . . . . 1.9 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 1.10 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 3 3 4 6 7 9 10 10 13 15 17. 2. Valutazioni e interpretazioni della probabilit a` 2.1 Primi interessi in stime quantitative di probabilit`a . . . . . 2.2 Valutazione combinatoria . . . . . . . . . . . . . . . . . . 2.3 Probabilit`a e frequenza . . . . . . . . . . . . . . . . . . . 2.4 Legge empirica del caso e “definizione” frequentista . . . 2.5 Interpretazione oggettivista e soggettivista della probabilit`a 2.6 Concetto di probabilit`a condizionata . . . . . . . . . . . . 2.7 Eventi di probabilit`a nulla . . . . . . . . . . . . . . . . . 2.8 Probabilit`a e scommesse eque . . . . . . . . . . . . . . . 2.9 Probabilit`a e quote di scommessa . . . . . . . . . . . . 2.10 Definizione soggettiva di probabilit`a . . . . . . . . . . . . 2.11 ❄ La “definizione ISO” . . . . . . . . . . . . . . . . . . . 2.12 ❄Note sul termine “soggettivo” . . . . . . . . . . . . . . . 2.13 ❄Ruolo virtuale della scommessa, valore dei soldi e ordini grandezza non intuitivamente percepibili . . . . . . . . . . 2.14 Speranza matematica e previsione di vincita . . . . . . 2.15 ❄Previsione di guadagno e decisioni . . . . . . . . . . . . 2.16 ❄Decisioni vantaggiose e etica della ricerca . . . . . . . . 2.17 ❄Regola di penalizzazione - il bastone e la carota . . . . . 2.18 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . 2.19 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . .. 19 19 20 21 23 25 26 28 29 30 31 32 33. . . . . . . . . . . . . . . . . . . . . . . . . . . di . . . . . . . . . . . . . .. 34 36 37 39 40 41 43.

(4) iv. INDICE 3. Elementi di calcolo combinatorio 3.1 Problemi elementari tipici . . . . . . . . . . . . . . . . 3.2 Disposizioni e combinazioni . . . . . . . . . . . . . . 3.2.1 Regola fondamentale del calcolo combinatorio 3.2.2 Numero di -disposizioni di oggetti . . . . . 3.2.3 Numero di -disposizioni semplici di oggetti 3.2.4 Numero di permutazioni di oggetti . . . . . . 3.2.5 Combinazioni . . . . . . . . . . . . . . . . . . 3.2.6 Coefficienti binomiali . . . . . . . . . . . . . 3.2.7 Note su nomenclatura e simbologia . . . . . . 3.3 Note sul calcolo dei grandi numeri . . . . . . . . . . . 3.4 Ordinamenti, occupazioni ed estrazioni . . . . . . . . 3.5 Alcuni esempi classici . . . . . . . . . . . . . . . . . 3.6 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . 3.7 Problemi . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . .. . . . . . . . . . . . . . .. . . . . . . . . . . . . . .. 47 47 48 48 48 48 50 50 52 53 53 55 57 59 60. Regole della probabilita` 4.1 Probabilit`a della somma logica di due eventi incompatibili 4.2 Eventi e insiemi . . . . . . . . . . . . . . . . . . . . . . . 4.3 probabilit`a come misura . . . . . . . . . . . . . . . . . . 4.4 Evento condizionato . . . . . . . . . . . . . . . . . . . . 4.5 Regole di base della probabilit`a - assiomi . . . . . . . . . 4.5.1 ❄Dimostrazioni delle propriet`a della probabilit`a . . 4.6 Relazione fra probabilit`a condizionata e congiunta . . . . . 4.7 Condizionamento da eventi di probabilit`a nulla . . . . . . 4.8 Indipendenza stocastica (o in probabilit`a) . . . . . . . . . 4.9 Altre propriet`a della probabilit`a condizionata . . . . . . . 4.9.1 Legge della moltiplicazione . . . . . . . . . . . . 4.9.2 Legge delle alternative . . . . . . . . . . . . . . . 4.10 Indipendenza logica e indipendenza stocastica . . . . . . . 4.11 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . 4.12 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . .. 61 61 62 67 67 69 71 72 74 75 76 76 78 78 78 81. . 4. 5. . . . . . . . . . . . . . . . . .. Probabilit`a delle cause e meccanismo di aggiornamento delle probabilit`a 5.1 Inferenza probabilistica . . . . . . . . . . . . . . . . . . . . . 5.2 Teorema di Bayes . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Chiavi di lettura del teorema di Bayes . . . . . . . . . . . . . 5.4 Visione combinatoria del teorema di Bayes . . . . . . . . . . 5.5 Esempi tipici di applicazione . . . . . . . . . . . . . . . . . . 5.5.1 Classificazione di eventi e rapporto segnale rumore . . 5.5.2 Uso iterativo del teorema di Bayes . . . . . . . . . . . Statistica bayesiana: imparare dall’esperienza . . . . . . . 5.6 5.7 Il caso del sospetto baro . . . . . . . . . . . . . . . . . . . 5.7.1 I “fatti” . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.2 Riaggiornamento della probabilit`a . . . . . . . . . . . 5.7.3 Confronto fra inferenza diretta e inferenza iterativa . . 5.7.4 Dipendenza dalla probabilit`a iniziale . . . . . . . . . . 5.7.5 Pregiudizio, indizi e conclusioni . . . . . . . . . . . .. . 85 85 87 89 91 92 92 94 95 96 96 96 97 98 98. c G. D’Agostini 2001.

(5) v. INDICE 5.7.6 Probabilit`a e decisione . . . . . . . . . . . . . . . . . 5.8 ❄Recupero e superamento del metodo di falsificazione . . . . 5.9 Osservazioni indipendenti e prodotto delle verosimiglianze . 5.10 ❄Fattore di Bayes e incremento logaritmico delle quote di scommessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.11 Indifferenza iniziale e massima verosimiglianza . . . . . . 5.12 ❄Problema della verificabilit`a ed estensione del concetto di evento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.13 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 5.14 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..  . II 6. Variabili casuali - I. 98 99 100 100 101 101 102 104. 109. Variabili casuali e distribuzioni di probabilit a` di variabili discrete 111 6.1 Numeri aleatori . . . . . . . . . . . . . . . . . . . . . . . . . 111 6.2 Distribuzione di probabilit`a . . . . . . . . . . . . . . . . . . . 112 6.3 Distribuzione di probabilit`a e distribuzioni statistiche . . . . 113 6.4 Esempi di costruzione di distribuzioni di variabili casuali . . . 115 6.5 Propriet`a delle distribuzioni di probabilit`a discrete . . . . . . . 118 6.6 Distribuzioni elementari notevoli . . . . . . . . . . . . . . . . 119 6.6.1 Distribuzione uniforme discreta . . . . . . . . . . . . 119 6.6.2 ❄Distribuzione uniforme discreta - caso generale . . . 119 6.6.3 Processo di Bernoulli . . . . . . . . . . . . . . . . . . 120 6.6.4 Combinazione di molti processi di Bernoulli indipendenti e di uguale probabilit`a . . . . . . . . . . . . . . 121 6.7 Distribuzione geometrica . . . . . . . . . . . . . . . . . . . . 122 6.8 Sintesi di una distribuzione di probabilit`a: previsione e incertezza di previsione . . . . . . . . . . . . . . . . . . . . . . . 123 6.9 Previsione (o valore atteso) come baricentro della distribuzione 126 6.9.1 Osservazioni su terminologia e notazioni . . . . . . . 127 6.9.2 Valore atteso di una funzione di una variabile casuale . 128 6.10 Valore atteso di distribuzioni elementari . . . . . . . . . . . . 128 6.10.1 Distribuzione uniforme discreta . . . . . . . . . . . . 129 6.10.2 Processo di Bernoulli . . . . . . . . . . . . . . . . . . 129 6.10.3 Distribuzione geometrica . . . . . . . . . . . . . . . . 130 6.11 Incertezza “standard” di previsione . . . . . . . . . . . . . . . 130 Varianza e deviazione standard . . . . . . . . . . . . . 130 6.12 Propriet`a formali di varianza e deviazione standard . . . . . . 132 6.13 ❄ Momenti di una distribuzione e altri indicatori di forma . . . 133 6.14 ❄ Entropia come misura dello stato di incertezza . . . . . . . 134 6.15 Deviazione standard delle distribuzioni elementari . . . . . . . 134 6.15.1 Distribuzione uniforme fra 1 e . . . . . . . . . . . . 135 6.15.2 ❄ Distribuzione uniforme di valori fra e . . . . . 135 6.15.3 Processo di Bernoulli . . . . . . . . . . . . . . . . . . 135 6.15.4 Distribuzione geometrica . . . . . . . . . . . . . . . . 136 6.16 Processo di Bernoulli e percezione di probabilit`a prossime a 0 o a 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137. . . . c G. D’Agostini 2001. .  .

(6) vi. INDICE 6.17 ❄ Previsione e incertezza di previsione di vincita in giochi d’azzardo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 6.17.1 Gioco della roulette . . . . . . . . . . . . . . . . . . . 137 6.17.2 I sistemi “per vincere” al lotto . . . . . . . . . . . . . 139 6.18 Misure di centralit`a e di dispersione di distribuzioni statistiche141 6.19 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 143 6.20 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145. . 7. Distribuzioni di probabilita` di variabili discrete - II 7.1 Distribuzione binomiale . . . . . . . . . . . . . . . . . . . . . 7.2 Distribuzione binomiale – da capo . . . . . . . . . . . . . 7.3 Propriet`a della distribuzione binomiale e note sul suo uso . . . 7.3.1 Valore atteso e deviazione standard . . . . . . . . . . 7.3.2 Usi tipici della distribuzione binomiale . . . . . . . . 7.4 Distribuzione di Poisson . . . . . . . . . . . . . . . . . . . . 7.5 Processo di Poisson - prima parte . . . . . . . . . . . . . . 7.6 ❄ Formule ricorsive per la distribuzione binomiale e di Poisson 7.7 Propriet`a riproduttiva delle distribuzioni di probabilit`a binomiale e di Poisson . . . . . . . . . . . . . . . . . . . . . . . . 7.8 ❄ Altre distribuzioni di interesse . . . . . . . . . . . . . . . . Distribuzione di Pascal . . . . . . . . . . . . . . . . . Binomiale negativa . . . . . . . . . . . . . . . . . . . Distribuzione ipergeometrica . . . . . . . . . . . . . . 7.9 ❄Cammino casuale e problema della rovina del giocatore . . . ”? . . . . . . . . . . . . . . . . 7.10 Quanto credere in “ 7.10.1 Alcuni esempi numerici . . . . . . . . . . . . . . . . 7.10.2 Disuguaglianza di Markov . . . . . . . . . . . . . . . 7.10.3 Disuguaglianza di Cebicev . . . . . . . . . . . . . . . 7.11 Intervalli di probabilit`a, o di credibilit`a . . . . . . . . . . . . 7.12 ❄Previsione, penalizzazione e valore sul quale scommettere . . 7.13 Previsione di frequenza relativa e legge dei grandi numeri . 7.14 Previsione di una distribuzione statistica . . . . . . . . . . 7.14.1 Introduzione al concetto di correlazione fra variabili casuali . . . . . . . . . . . . . . . . . . . . . . . . . 7.15 Un esempio storico di distribuzione di Poisson come introduzione al problema della verifica delle leggi statistiche . . . . 7.15.1 Previsione del tipo di distribuzione . . . . . . . . . . . 7.15.2 Stima “puntuale” del parametro della distribuzione . . 7.15.3 Previsione quantitativa della distribuzione statistica, subordinata a , e confronto con le osservazioni . . Inferenza probabilistica su . . . . . . . . . . . . . . Previsione della distribuzione statistica subordinata all’incerteza su . . . . . . . . . . . . . . . 7.16 Estensione dei teoremi sulla probabilit`a alle funzioni di probabilit`a discrete . . . . . . . . . . . . . . . . . . . . . . . . . 7.17 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 7.18 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..   . 

(7) .   . .  . . . 147 147 149 151 151 154 154 156 161 161 162 162 164 165 166 168 168 170 170 171 172 173 174 175 176 176 176 177 178 179 179 181 184. c G. D’Agostini 2001.

(8) vii. INDICE 8. Distribuzioni di probabilita` di variabili continue 8.1 Variabili casuali continue e densit`a di probabilit`a . . . . . . . 8.1.1 Probabilit`a nulle con diversi gradi di fiducia . . . . . . 8.1.2 Dal grado di fiducia alla probabilit`a finita . . . . . . . 8.1.3 Funzione densit`a di probabilit`a . . . . . . . . . . . . . 8.1.4 Propriet`a della funzione densit`a di probabilit`a e della funzione di ripartizione . . . . . . . . . . . . . . . . . 8.1.5 Valori attesi . . . . . . . . . . . . . . . . . . . . . . . 8.2 Distribuzione uniforme continua . . . . . . . . . . . . . . . . 8.3 ❄ Simulazione al computer di processi stocastici . . . . . . . . 8.3.1 Costruzioni di altre semplici variabili casuali . . . . . Generica distribuzione uniforme fra e . . . . . . . Processo di Bernoulli e distribuzione binomiale . . . . Distribuzione uniforme discreta . . . . . . . . . . . . Marcia a caso . . . . . . . . . . . . . . . . . . . . . . 8.3.2 Scelta pesata con . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.3 Scelta uniforme lungo 8.4 Distribuzioni triangolari . . . . . . . . . . . . . . . . . . . 8.5 Distribuzione esponenziale . . . . . . . . . . . . . . . . . . . 8.6 ❄ Distribuzione esponenziale doppia . . . . . . . . . . . . . . 8.7 Distribuzione normale . . . . . . . . . . . . . . . . . . . . . 8.8 Distribuzione normale standardizzata . . . . . . . . . . . . . . 8.9 Uso delle tabelle dell’integrale della distribuzione normale standardizzata . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.10 ❄ Derivazione della gaussiana come limite di funzione binomiale o poissoniana . . . . . . . . . . . . . . . . . . . . . . . 8.11 Propriet`a riproduttiva della distribuzione normale . . . . . . 8.12 Processo di Poisson - Seconda parte . . . . . . . . . . . . . 8.12.1 Distribuzione del tempo di attesa del primo successo . 8.12.2 Relazione fra esponenziale e poissoniana . . . . . . . 8.12.3 Relazione fra esponenziale e geometrica . . . . . . . . 8.12.4 Tempo di attesa del -mo successo . . . . . . . . . . . 8.12.5 Intensit`a di pi`u processi di Poisson indipendenti . . . . 8.12.6 Vita media di decadimento . . . . . . . . . . . . . . . 8.13 ❄ Funzione generatrice dei momenti . . . . . . . . . . . . . . Binomiale . . . . . . . . . . . . . . . . . . . . . . . . Poissoniana . . . . . . . . . . . . . . . . . . . . . . . Gaussiana . . . . . . . . . . . . . . . . . . . . . . . . Altre propriet`a e applicazioni . . . . . . . . . . . . . . 8.14 Altre distribuzioni di interesse . . . . . . . . . . . . . . . . 8.14.1 Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.14.2 Gamma . . . . . . . . . . . . . . . . . . . . . . . . . 8.14.3 Chi . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.14.4 di Student . . . . . . . . . . . . . . . . . . . . . . . 8.14.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.15 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 8.16 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..  . . .  . . . . c G. D’Agostini 2001. . . . 187 187 187 188 189 190 190 192 193 194 194 194 194 194 195 195 196 197 198 199 202 204 208 209 210 210 211 212 213 214 215 215 217 217 217 218 219 219 221 221 224 225 226 227.

(9) viii. INDICE. III Variabili casuali - II. 229. 9. 231 231 232 233 234. Variabili casuali multiple 9.1 Vettori aleatori . . . . . . . . . . . . . . . . . . . . . . . . . 9.1.1 Variabili casuali doppie discrete . . . . . . . . . . . . 9.1.2 Variabili casuali doppie continue . . . . . . . . . . . . 9.2 Distribuzioni marginali . . . . . . . . . . . . . . . . . . . . . 9.3 Estensione dei teoremi sulla probabilit`a alle distribuzioni di probabilit`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.1 Distribuzioni condizionate . . . . . . . . . . . . . . . 9.3.2 Variabili casuali indipendenti . . . . . . . . . . . . . . 9.3.3 Formula delle alternative e teorema di Bayes . . . . . 9.4 Previsione e incertezza di previsione . . . . . . . . . . . . . . 9.5 Covarianza e coefficiente di correlazione . . . . . . . . . . 9.5.1 Variabili correlate e misura della correlazione . . . . . 9.5.2 Propriet`a formali di covarianza e coefficiente di correlazione . . . . . . . . . . . . . . . . . . . . . . . . . Matrice di covarianza e matrice di correlazione . . . . . . . 9.6 9.7 Esempi di variabili doppie discrete . . . . . . . . . . . . . 9.8 Esempi di distribuzione bidimensionale continua . . . . . . 9.8.1 Distribuzione uniforme in un rettangolo . . . . . . . . 9.8.2 Distribuzione uniforme in un triangolo . . . . . . . . . 9.9 ❄ Distribuzione multinomiale . . . . . . . . . . . . . . . . . . 9.10 ❄ Distribuzione normale bivariata . . . . . . . . . . . . . . . 9.11 ❄ Caso generale di distribuzione multivariata . . . . . . . . . rispetto alle variabili casuali . . . . . . Derivate di 9.12 Distribuzioni statistiche multivariate . . . . . . . . . . . . . 9.13 varie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..    . . 10 Funzioni di variabili casuali e teoremi limite 10.1 Propagazione delle incertezze . . . . . . . . . . . . . . . . . . 10.2 Soluzione generale per variabili discrete . . . . . . . . . . . . 10.2.1 Regola generale . . . . . . . . . . . . . . . . . . . . . 10.2.2 ❄ Convoluzione di due funzioni di probabilit`a . . . . . 10.2.3 Trasformazione di una variabile distribuita uniformemente . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3 ❄Soluzione generale per variabili continue . . . . . . . . . . . 10.3.1 Cambiamento di variabile . . . . . . . . . . . . . . . Trasformazioni di una distribuzione uniforme . . . . . Applicazioni alle simulazioni di variabili casuali . . . Trasformazione lineare di una variabile distribuita normalmente . . . . . . . . . . . . . . . . . . 10.3.2 Caso di funzioni non monotone . . . . . . . . . . . . 10.3.3 Somma di due variabili . . . . . . . . . . . . . . . . . Somma di due variabili distribuite uniformemente . . . Somma di due variabili distribuite normalmente . . . . 10.4 ❄Uso della funzione generatrice dei momenti . . . . . . . . . 10.4.1 , con e poissoniane . . . . . . . . . 10.4.2 , con e gaussiane . . . . . . ..  ! #%&""'$ ($ "') $  $. 236 236 237 237 238 239 239 242 244 244 249 249 250 251 256 261 263 263 264 265 265 266 266 267 269 271 271 272 272 274 274 275 275 276 277 277 278. c G. D’Agostini 2001.

(10) ix. INDICE 10.5 ❄ Stime a bruta forza: metodi di Monte Carlo . . . . . . . . . 10.6 Riepilogo di alcune propriet`a delle funzioni di variabili casuali 10.7 Valore atteso e varianza di combinazioni lineari . . . . . . . . Valore atteso e varianza della distribuzione binomiale . Valore atteso e varianza della distribuzione di Erlang . Previsione di una media aritmetica di variabili aleatorie analoghe . . . . . . . . . . . . . . . . . 10.8 Correlazione fra diverse combinazioni lineari di variabili casuali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Covarianza di due medie aritmetiche . . . . . . . . . . Correlazione fra una variabile e una combinazione lineare che la contiene . . . . . . . . . . . . 10.9 Legge dei grandi numeri . . . . . . . . . . . . . . . . . . . . 10.9.1 Limite della media aritmetica . . . . . . . . . . . . . 10.9.2 Teorema di Bernoulli . . . . . . . . . . . . . . . . . . Lancio di una moneta . . . . . . . . . . . . . . . . . . Sul recupero dei numeri ritardatari . . . . . . . . . . . 10.10Teorema del limite centrale . . . . . . . . . . . . . . . . . . . 10.10.1 Distribuzione della media aritmetica . . . . . . . . . . 10.10.2 Convergenza in distribuzione della binomiale e della poissoniana . . . . . . . . . . . . . . . . . . . . . . . 10.11Estensione del teorema del limite centrale a variabili non indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.12❄ Simulazione di numeri aleatori distribuiti secondo una distribuzione normale . . . . . . . . . . . . . . . . . . . . . . . 10.13 Linearizzazione . . . . . . . . . . . . . . . . . . . . . . . 10.14 Esempio di applicazione alle incertezze di misure . . . . . 10.15 Moto browniano, “pallinometro” ed errori di misura . . . . 10.16❄ Distribuzione di velocit`a delle molecole di un gas perfetto . 10.17Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .  . IV. Applicazioni di statistica inferenziale. 11 Impostazione del problema. Caso di verosimiglianza gaussiana 11.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Verosimiglianza normale con nota . . . . . . . . . . . . . 11.3 Effetto di una prior rilevante: combinazione di risultati . . . 11.4 ❄ Derivazione di Gauss della gaussiana . . . . . . . . . . . 11.5 ❄ Caso di forte vincolo dato dalla prior . . . . . . . . . . . . 11.6 Caso di ignota . . . . . . . . . . . . . . . . . . . . . . . . 11.6.1 Ragionamento intuitivo . . . . . . . . . . . . . . . . 11.6.2 Possibili dubbi sul modello normale . . . . . . . . . 11.6.3 ❄ Inferenza simultanea su e . . . . . . . . . . . Prior uniforme in . . . . . . . . . . . . . . . . . . Prior uniforme in . . . . . . . . . . . . . . . . Incertezza su . . . . . . . . . . . . . . . . . . . . 11.6.4 Distribuzione di . . . . . . . . . . . . . . . . . 11.6.5 Conclusioni e raccomandazioni . . . . . . . . . . .. *,+.-/ 0213 4. c G. D’Agostini 2001. . 278 280 280 283 283 283 284 286 287 287 288 289 290 290 292 295 295 297 297 298 299 301 304 307. 309 . . . . . . . . . . . . . .. 311 311 313 316 318 320 322 323 324 324 325 327 328 331 333.

(11) x. INDICE 11.7 Distribuzione predittiva . . . . . . . . . . . . . . . . . . . . . 333 11.8 Combinazione scettica . . . . . . . . . . . . . . . . . . . . . 335 11.9 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338 12 Verosimiglianza binomiale e poissoniana. Approssimazioni 12.1 Misure di conteggi, di proporzioni e di efficienze . . . . . . . 12.2 Inferenza su e (o ) in condizioni di normalit`a. . . . . . . 12.2.1 Caso poissoniano . . . . . . . . . . . . . . . . . . . . 12.2.2 Caso binomiale . . . . . . . . . . . . . . . . . . . . . 12.3 Caso generale di inferenza con verosimiglianza binomiale . 12.3.1 Caso di routine . . . . . . . . . . . . . . . . . . . . . 12.3.2 Casi critici . . . . . . . . . . . . . . . . . . . . . . . 12.3.3 Combinazione di misure indipendenti . . . . . . . . . 12.3.4 ❄ Uso della prior coniugata Beta . . . . . . . . . . . . Caso generale di inferenza con verosimiglianza poissoniana 12.4 12.4.1 Caso di routine . . . . . . . . . . . . . . . . . . . . . 12.4.2 Caso di con prior uniforme . . . . . . . . . . . 12.4.3 Combinazione di risultati . . . . . . . . . . . . . . . . 12.4.4 ❄ Uso della prior coniugata Gamma . . . . . . . . . . 12.4.5 Inferenza sull’intensit`a del processo di Poisson da osservazioni effettuate con diversi tempi di osservazione. 339 339 339 340 340 341 342 343 344 344 346 346 347 348 348. 13 Sufficienza statistica, limite a normale e metodi frequentistici. 351. 14 Effetti sistematici e di rumore 14.1 Considerazioni generali . . . . . . . . . . . . . . . . . . . . . 14.2 Soluzioni esatte sotto ipotesi di normalit`a . . . . . . . . . . . 14.2.1 Incertezza sullo zero dello strumento . . . . . . . . . 14.2.2 Correzione per errori sistematici noti . . . . . . . . . 14.2.3 Correlazione fra i risultati introdotta dalla non perfetta conoscenza dello zero dello strumento . . . . . . . . . 14.3 Effetto del background nella misura dell’intensit`a di un processo di Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 14.4 Propagazioni di incertezza, approssimazioni e linearizzazioni . 14.5 Matrice di covarianza di dati correlati . . . . . . . . . . . . . Offset uncertainty . . . . . . . . . . . . . . . . . . . . Normalization uncertainty . . . . . . . . . . . . . . . General case . . . . . . . . . . . . . . . . . . . . . .. 353 353 353 353 355. 358 361 361 361 362 363. 15 Adattamento di curve ai dati sperimentali e stima dei parametri 15.1 Inferenza sui parametri di una legge . . . . . . . . . . . . . . 15.2 ❄ Come tener conto anche di possibili incertezze sulle . . . 15.3 Formule dei minimi quadrati . . . . . . . . . . . . . . . . . . 15.3.1 nota e costante . . . . . . . . . . . . . . . . . . . 15.3.2 ignote e supposte costanti . . . . . . . . . . . . . 15.3.3 diverse e note a priori . . . . . . . . . . . . . . .. 365 365 367 368 368 369 369. 5  .  . 6 7. 98 98;: 98;:. . 349. 356. c G. D’Agostini 2001.

(12) xi. INDICE 16 Test di ipotesi 16.1 Riepilogo dell’approccio probabilistico . . . . . . . . . . . . 16.2 Schema di test di ipotesi nell’approccio frequentista . . . . . . 16.3 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . .. 371 371 371 371. V. 373. Soluzione dei problemi. c G. D’Agostini 2001.

(13) xii. INDICE. c G. D’Agostini 2001.

(14) Parte III. Variabili casuali - II.

(15)

(16) Capitolo 9. Variabili casuali multiple 9.1 Vettori aleatori Nei capitoli precedenti abbiamo considerato un numero aleatorio alla volta, introducendo il formalismo generale per descrivere lo stato di incertezza rispetto. Come si pu`o bene immaginare, nei casi reali ci si trova spesso a dover considerare pi`u grandezze dai valori incerti. Facciamo degli esempi.. <. Consideriamo 100 lancio consecutivi di una moneta. Si pu`o essere interessati al numero di teste, al numero di croci, al numero pi`u elevato di teste consecutive che si e` verificato e al numero di cambiamenti di esito (ogni volta che dopo un certo numero di teste e` uscita croce e viceversa). Quali risultati sar`a possibile ottenere? 0, 0, 0, 0 , 1, 0, 0, 0 , . . . 50, 50, 1, 49 , . . . 100, 100, 100, 100 ? (Con “ . . . ” e` indicata la lista ordinata dei valori numerici di ciascuna delle variabili di interesse. Molte di queste combinazioni risultano impossibili.). <. > =. > = = >> =. > =. = >. > =. Scelgo uno studente a caso che abbia terminato tutti gli esami del corso. Che voti ha riportato in ciascuno degli esami? 18, 18, 18, . . . , 18 , 19, 18, 18, . . . , 18 , . . . , 30, 30, 30, . . . , 30 ? (Con “ . . . ” e` indicata la lista dei possibili risultati, ordinata per ordine alfabetico degli esami.). <. >. =. > = 0;?@7 CA> B@= 7. = >. > =. Si lancia una pallina su un tavolo di cm cm? In quale punto del piano si fermer`a? 0.0, 0.0 , 0.0, 0.1 , 0.1, 0.1 , . . . 120.0, 80.0 , (discretizzando al millimetro le coordinate, prese a partire da uno spigolo). >. <. =. D!EFG"H) E  ) J  I   M ? = > = > = > = > 2IKL0 < Caso inverso del precedente: avendo osservato NIOMPGQSR e   UTVQS? ai tempi  I W0 e  U? , cosa si pu`o dire sui “valori veri” dei coefficienti E e ) ? = 3.1, 0.4> , . . . = 3.3, 0.6> , . . . = 3.4, 0.5> ? La legge fisica che lega la grandezza (misurata in unit`a arbitrarie) al tempo e` del tipo . Se e valgono rispettivamente 3 e di 1 (unit`a arbitrarie) e la misura e` affetta da errori casuali, quali valori di e di (misurati con “strumenti reali”) si osserveranno ai tempi e ? 3.7, 6.7 , 3.8, 6.7 , . . . 4.0, 7.0 , . . . 4.5, 7.5 ?.

(17) 232. Variabili casuali multiple. . . Ricapitolando, in generale si e` in stato di incertezza rispetto alla realizzazione di variabili casuali, o , come si dice, rispetto a un vettore aleatorio di componenti, anche chiamato -tupla (leggi “entupla”) di valori. Come al solito, lo stato di incertezza su ciascun possibile vettore aleatorio sar`a quantificato da un grado di fiducia. Vediamo separatamente il caso discreto e quello continuo. Successivamente, molte delle propriet`a saranno descritte in modo generale per i due casi, eventualmente scegliendo variabili discrete o continue per gli esempi, a seconda di quella che meglio si presta al caso.. . 9.1.1 Variabili casuali doppie discrete Il concetto di distribuzione di probabilit`a si estende in modo naturale alle variabili multiple. Cominciamo anche in questo caso con le variabili discrete e, per semplicit`a, con il caso bidimensionale. L’estensione al caso generale e` immediato. La funzione di probabilit`a e` 1 :. 4XZY[\ ]D!^X_$`!Y[9X. (9.1).  $ 4XZY[. la quale e` definita non negativa e compresa fra 0 e 1. Le possibili coppie di valori di e (o il vettore, o n-tupla, di dimensione 2), ciascuna con il suo grado di fiducia , danno luogo alla distribuzione congiunta delle variabili. La condizione di normalizzazione richiede che la somma su tutte le coppie sia pari a 1. Questo pu`o essere scritto in diversi modi.. <. 1. ^cN!edUAfg8 b j k h@i ]

(18) man\ jk h@i ]D! k X_$L!Y k o lI lI. a.  $. Si pu`o pensare a ciascuna coppia come un punto del piano ( , ) e ordinata mediante l’indice . La somma delle probabilit`a sommare su tutti gli punti deve dare 1:. jk h.i  k XZY k \`0pQ lI < Si pu`o indicare la variabile  con l’indice b , la $ con q e sommare su tutte le possibilit`a degli indici: jrk ]D! k X_$u!Y t v jrk  k XZY t \u0pQ st st k Facciamo un esempio che chiarisca l’uso del simbolo w s t . Se la variabile  pu`o assumere 3 valori e la variabile $ 2 valori si ha che j k  k XZY t x gIyXZYzI{g"'4I|XZY g" XZYzI(   st "}  XZY  e"'~€XZYzI(e"9~3XZY   ‚„ƒr ‡†6ˆG‰‹ŠŒ†f€Ž ‚„ƒr ‡†fˆ4ŠN†€Ž. sta per 6 sulla flessibilit`a dell’uso di simboli.. . Si ricordi inoltre quanto detto nel capitolo. c G. D’Agostini 2001.

(19) 233. 9.1 Vettori aleatori. <. j  4XZY[x 0pX ‘ s’. si pu`o infine scrivere pi`u semplicemente. . Y. intendendo semplicemente che la sommatoria corre su tutti i possibili valori di e di .. k j 9“VXZY•”–\F]˜—9“•X9$W—'Y•” k  XZY•”–{X  —'—'9“ ” t Essa soddisfa le seguenti propriet`a: 1. ^XZY™ e` non decrescente, ossia 

(20)  I XZY I š—u XZY  se  I›  e    YzI › Y  ; 2. ^XZY™ tende a 0 per fœž Ÿ!XZY¡œv Ÿ ; 

(21) 4XZY[ tende a 1 per œ¢"£Ÿ!XZY¡œ¢"£Ÿ‡ ; k ak destra; k k 3. ^k XZY™ k e` continua 4.  XZY   XZY pJ

(22)  ¤ I XZY ¤ I  .. Anche in questo caso si definisce una funzione di ripartizione, in perfetta analogia al caso unidimensionale:. La tabella 9.1 mostra un esempio di distribuzione doppia di variabili discrete.. 9.1.2 Variabili casuali doppie continue. ‘ ’ 4XZY[\ ]¥—'^X_$¦—Y™M§ ¤9¨ § ¤9¨ ª©«XZYG©«G•9©¬%YV©Q In questo caso l’elemento infinitesimo di probabilit`a e` pari a: V4XZY[\F^XZY™­%9%Y®Q. Per introdurre le variabili continue partiamo dalla funzione di ripartizione:. Esso ha il significato di. ]¯rŒ—'¥—'°"'•4±JY—‡$W—'Y£"%Y™³²•Q. La funzione densit`a di probabilit`a, ottenuta dalla funzione di ripartizione come. ^XZY™\#´   ^Y XZY™ X ´ ´ rappresenta invece il grado di fiducia del punto 4XZY[ , come discusso al momento di introdurre le variabili continue. Le propriet`a della densit`a di probabilit`a congiunta 4XZY[ sono analoghe al caso unidimensionale visto nel capitolo precedente. Ricordiamo soltanto che 4XZY[ ha le dimensioni inverse di ¶µZ$ e che la condizione di normalizzazione diventa: ¨ ¨ § ¤9¨ § ¤9¨ ^XZY™G%9•Y`0pQ c G. D’Agostini 2001.

(23) 234. Variabili casuali multiple. eœ. /œ. YY I Y ~ YzY I Y•~. 4XZY[ gI   9~ ª ·. ¸ Y™. 0.08 0.11 0.10 0.29. 0.05 0.07 0.08 0.20. 0.01 0.12 0.14 0.17. 0.10 0.02 0.12 0.24. 0.24 0.32 0.44. 0.08 0.19 0.29 0.29. 0.13 0.31 0.49 0.49. 0.14 0.44 0.76 0.76. 0.24 0.56 1.00 1.00. 0.24 0.56 1.00. ^XZY™ gI   9~ ª ·  ¸ Y[. Tabella 9.1: Esempio di distribuzione congiunta e di marginalizzazione.. 9.2 Distribuzioni marginali Dalla distribuzione di probabilit`a congiunta e` possibile ottenere la distribuzione di probabilit`a di una delle variabili, “sommando” (in senso lato, che per il caso continuo equivale ad integrare) le probabilit`a di tutte le possibilit`a delle altre variabili per un certo valore della variabile di interesse. Nel caso discreto si ha, ad esempio rispetto alla :. k j k ]D! \ t ] D! X_$` Y t 9Q. Questa operazione e` detta di marginalizzazione e la tabella 9.1 ne mostra un esempio (si noti come le distribuzioni di ciascuna delle variabili sono ottenute sommando “a margine” i valori della tabella della probabilit`a congiunta). Nel caso di variabili continue si ha2 :. eo § ^XZY™­%Y¹X (9.2) e analogalmente per Y™ , integrando su  . Le distribuzioni ottenute con questa operazioni sono chiamate distribuzioni marginali. Sia chiaro che, in principio, tale appellativo dovrebbe essere superfluo, in quanto ogni distribuzione ºº ƒrƒm€» Ž Ž º ƒr€Ž ƒrˆ•Ž º¾½ ƒr€Ž ƒrˆÀ¿€Ž _ º ¼ º r ƒ / ˆ  ¿ €  Ž º ¼®Á,½ º ƒrˆ•Ž[†Â º ƒrˆG‰m3Ž ÀÃ„Ä º ƒrˆ•Ž[†ÅÂ¡È Æ%Ç º ƒrˆG‰m3Ž ÊÉ Ç 2. e sono in genere funzioni diverse, anche se entrambe indicate con Chiaramente lo stesso simbolo , cambiando solo la variabile nell’argomento. A volte, per ricordare che si tratta di funzioni diverse, si e . In modo analogo dovremmo indicare con , e cos`ı via. Eviteremo questo modo pi`u preciso (e pesante) in quanto non ci sono ragioni per temere ambiguit`a. Allo stesso modo gli estremi degli integrali saranno omessi a sottintendere che essi si estendono su tutti i possibili valori di : d. d. c G. D’Agostini 2001.

(24) 235. 9.2 Distribuzioni marginali. 3 2 1. 0.1. 0.05. 0 1 2 3 4. 3 2 1 1. 0.75. 0.5 0.25 0 1 2 3 4. ËÌ,Í9γϕÐ. Ñ}Ì,Í9γϕÐ. Figura 9.1: Visualizzazione qualitativa, mediante “lego plot”, della distribuzione di probabilit`a di tabella 9.1: in alto e in basso . Si faccia attenzione al fatto che la rappresentazione grafica non corrisponde esattamente alla distribuzione di partenza: perche?. c G. D’Agostini 2001.

(25) 236. Variabili casuali multiple di una sola variabile pu`o essere pensata come una marginale rispetto ad altre infinite variabili che non interessano. In sostanza, quando si parla esplicitamente di distribuzione marginale, significa semplicemente che si sta facendo riferimento ad una distribuzione congiunta di partenza. Si noti inoltre l’interpretazione della marginale come, per cos`ı dire, “proiezione” della congiunta (non da prendere in modo rigoroso nel senso geometrico).. 9.3 Estensione dei teoremi sulla probabilit`a alle distribuzioni di probabilit`a Questo argomento e` gi`a stato introdotto nel paragrafo 7.16, limitatamente alle variabili distrete. L’estensione alle variabili continue e` abbastanza immediata, essendo sufficiente sostituire alle probabilit`a gli elementi infinitesimi di probabilit`a. Riprendiamo ora il discorso in maniera pi`u generale, aggiungendo anche delle osservazioni sull’interpretazioni delle distribuzioni condizionate.. 9.3.1 Distribuzioni condizionate. °Ò­$u !Y[ °ÒÓY[ ed e` funzione soltanto di  , mentre Y svolge, per cos`ı dire, il ruolo di parametro. Quindi esistono tante diverse °ÒÓY[ quanti sono i possibili valori di $ , infiniti nel caso che $ sia una variabile continua.. In analogia alla probabilit`a condizionata esistono le distribuzioni di probabilit`a condizionate, nel senso che pu`o essere subordinata alla conoscenza che sia uguale a , ovvero . Essa e` indicata con. $. Y. Come detto nel paragrafo 7.16, l’estensione al caso discreto e` immediata. Vediamo come ci si comporta per il caso continuo. Ricordiamo la formula che lega probabilit`a condizionata alla congiunta (vedi paragrafo 4.6):. ]mÔ'Ò­Õ¡\ ] m] ԁmÕ¡±6 Õ¡ @]

(26) m՚}!Ö 7/ (9.3) Nel caso di variabile casuale continua possiamo scrivere in perfetta analogia: × Ì«Í¡ØÅÙ#ØHÍ™Ú Í ÛÝ܇ÞßϕÐgÞ ×}à Ì,Í¡ØHÙ#ØÅ× Í®Ú ÍzÐ[áÌ,Ï،Ü!ØHÏOÚ Ï.Ћâ Î Ì,ÏãØHÜ ØÅÏäÚ Ï•Ð con ]Yf—$¦—'Y®" dY[®. Ö 7 . Passando alle funzioni densit`a di probabilit`a si ha šÒÓY™ d  ^XZY™Y[ ddY dY X d. da cui. Y™¦Ö 7. d. d. d. šÒÓY™x   4Y[XZY[ . (9.4). (9.5). šÒÓY™. con . Si ricorda che, come visto per la (9.3), neanche la (9.5) definisce la distribuzione condizionata. In particolare, pu`o essere valutata. c G. D’Agostini 2001.

(27) 9.3 Estensione dei teoremi sulla probabilit`a alle distribuzioni di probabilit`a. 4XZY[. senza che sia nota (o abbia importanza) la funzione congiunta (vedi discussioni ai paragrafi 4.4 4.6). E` comunque chiaro che, qualora invece la sia assegnata, essa contiene l’informazione pi`u completa sullo stato di incertezza di e di , in quanto da essa e` possibile ricavarsi le marginali e le condizionate, ad esempio:. 4XZY[. $. $. šÒÓY™ å   44XZXZY[Y[­ • Q. Ý. Si noti come la formula (9.5) non dipenda dal fatto che le siano probabilit`a o densit`a di probabilit`a, ovvero la formula e` indipendentemente dal tipo di variabili. Inoltre, per simmetria, si ha. ^XZY™M°ÒÓY[ʵ2Y™MY}ÒÓeʵ29Q. (9.6). Cos`ı pure, in modo analogo alla (4.22), si ha, nel caso di molte variabili:. ^XZY9X_æ™XyQyQyQrFY[^µ€°ÒÓY[^µ€mæ ÒÓ^XZY™9QyQyQ. 9.3.2 Variabili casuali indipendenti Se la distribuzione di una variabile, subordinata ad un certo valore di un’altra variabile, e` uguale alla distribuzione marginale si dice che le due variabili sono (stocasticamente) indipendenti. Questa condizione equivale a richiedere. x °ÒÓY[ Y™x Y}ÒÓe ^XZY™Fe^µ€Y[9X ]mԁ±6Õ¡ ]mÔ}ʵ2]mÕ¡9Q. o analoga della. (9.7) (9.8). Nel caso di molte variabili, la condizione di indipendenza richiede le (9.7) per ciascuna delle coppie, o, equivalentemente e pi`u succintamente:. 4XZYX_æ™Xyµyµyµy\F^µ2Y[^µ€mæV9µyµyµ4Q. (9.9). 9.3.3 Formula delle alternative e teorema di Bayes La versione generale del teorema di Bayes discende dalle espressioni della probabilit`a congiunta in funzione delle condizionate e delle marginali. Infatti dalla (9.6) segue. (9.10) °ÒÓY[  Y£ ÒÓY[ze X analoga della (5.3). Ricordando che Y[ e` la marginale rispetto a $ di 4XZY[ si ottiene l’analoga della formula delle alternative (mostriamo il solo caso continuo, quello discreto e` assolutamente simile). Y™ § 4XZY[ d6 § Y}ÒÓeç dãX c G. D’Agostini 2001. (9.11). 237.

(28) 238. Variabili casuali multiple che, sostituita nella (9.10), d`a luogo alla formula pi`u consueta del teorema di Bayes per variabili continue, del quale faremo largo uso nell’inferenza su valori di grandezze fisiche:. °ÒÓY[\ å   Y£Y£ÒÓÒÓçzee  d Q. (9.12). 9.4 Previsione e incertezza di previsione La valutazione dei valori attese segue in modo naturale dal caso di una sola variabile. Questo pu`o essere visto pi`u chiaramente nel caso di variabili discrete: il valore atteso di una funzione di variabili casuali si calcola “facendo la somma, estesa su tutto il campo di definizione, del prodotto della funzione, calcolata in ogni punto, per la probabilit`a di quel punto”. Come si vede, questa definizione non dipende dal numero di variabili casuali (ovvero dalle dimensioni dello spazio che contiene il vettore aleatorio), quindi nel caso pi`u generale: E. ¯ èÅX_$ÀX{äXyµyµyµ€³² j ‘ j ’ •j é yµ µyµ™è^XZY9X_æ[Xyµyµyµ;z^XZY9X_æ[Xyµyµyµ|9Q. (9.13). Nel caso di variabili continue, la “probabilit`a di un punto” viene sostituita dal concetto di elemento infinitesimo di probabilit`a di trovare le variabili casuali nell’intorno di quel punto e le sommatorie diventano integrali su tutte le variabili: E. ¯ èÅX_$ÀX{äXyµyµyµ;³²e § µyµyµ § è4XZYX_æ™Xyµyµyµ2^µ€4XZYX_æ™Xyµyµyµy dæ dY dæäµyµyµ. (9.14) Dalla formula generale ci possiamo calcolare il valore atteso e la varianza di ciacuna delle variabili. Prendendo, ad esempio, la e considerando, per semplicit`a, ma senza perdere in generalit`a, due sole variabili continue, si tratta di calcolare E eE . Il fatto che queste due funzioni, di cui si e` interessati al valore atteso, dipendano soltanto da una variabile semplifica i calcoli, in quanto, in generale. J ¯r¢ê gd}­(² E. . ¯ èJ³²¥ § §Wèez4XZY[ d dY  § èeNë § 4XZY[ dYVì d  §Wèeʵ€e d^X. (9.15). ottenendo lo stesso risultato che si sarebbe ottenuto utilizzando la funzione marginale della variabile di interesse. Abbiamo quindi ricondotto il problema del calcolo di media e di deviazione standard nel caso molte variabili (multivariato) a quello di una sola variabile (univariato). Questo risultato e` “confortante”. Difatti abbiamo gi`a detto che per ogni evento e` possibile definire un numero arbitrario di variabili casuali. Quando se ne considera una sola si ignorano tutte le altre: se il valore atteso di una variabile (scelta senza nessuna condizione restrittiva) dovesse dipendere da tutte le altre si porrebbero problemi di definizione.. c G. D’Agostini 2001.

(29) 9.5. . 239. Covarianza e coefficiente di correlazione. )€I. 0 1 2 3 4 5. 0 0 0 0 0 0 3.1. 1 0 0 0 0 15.6 0. 2 0 0 0 31.3 0 0. 1 2 3 4 5. 0.1 0.5 1.0 1.0 0.5 0.1. 0.5 2.4 4.9 4.9 2.4 0.5. 1.0 4.9 9.8 9.8 4.9 1.0. ) 0. I. 3 0 0 31.3 0 0 0. 4 0 15.6 0 0 0 0. 5 3.1 0 0 0 0 0. 1.0 4.9 9.8 9.8 4.9 1.0. 0.5 2.4 4.9 4.9 2.4 0.5. 0.1 0.5 1.0 1.0 0.5 0.1. íî.ï/¾I;X_)€I( íð%ñO{I;X_)  . òªó ôó. Tabella 9.2: Distribuzioni congiunta del numero di teste e numero di croci nel lancio di 5 monente ( , ) confrontata con quella del numero di teste e di croci relative a due diversi lanci di monete. In valori sono in percentuale.. 9.5. õ. Covarianza e coefficiente di correlazione. Introducendo i concetti di previsione e di incertezza di previsione abbiamo detto che queste rappresentano le informazioni minime nelle quali riassumere lo stato di incertezza quantificato dalla distribuzione di probabilit`a. Ulteriori informazioni sulla forma sono date dai valori attesi, opportunamente scalati, di potenze pi`u elevate degli scarti (skewness e curtosi, vedi paragrafo 6.13). Purtroppo, nel riassumere una distribuzione di molte variabili in previsione e incertezza di previsione si perde la struttura multidimensionale della distribuzione. Questa perdita di informazione non e` dovuta al solo passaggio dalle distribuzioni marginali ai valori attesi, ma e` gi`a implicita nel passaggio dalla congiunta alle marginali. (E` un po’ come la perdita di informazioni spaziali che si ha eseguendo due radiografie, su piani ortogonali, di un corpo.) Considerando, ad esempio, la distribuzione di tabella 9.1, si capisce come sia impossibile di risalire a a partire da e , mentre e` univoco il passaggio inverso.. ^XZY™.  Y™. 9.5.1 Variabili correlate e misura della correlazione. öKI ÷øI. Facciamo un esempio numerico per capire meglio il problema. Immaginiamo di dover lanciare 5 monete e di interessarci alle variabili casuali e , numeri di teste e di croce. Consideriamo anche un altro lancio di 5 monete e chiamiamo e i rispettivi esiti. Possiamo costruire le distribuzioni doppie e . Sebbene tutte le marginali siano uguali e quindi tutte la variabili abbiano un valore atteso 2.5 e una deviazione standard di 1.1, le due distribuzioni sono completamente diverse (vedi tabella 9.2). Ad esempio (evento impossibile), mentre ..  ï  I X_) I  ö   ñ ÷ I  X_)   @ïÀ‹PGXZùVÀ 7 c G. D’Agostini 2001. VñO‹PGXZùVÀF7zQú7@ù%R.

(30) 240. Variabili casuali multiple. ö öI I. ÷I. La differenza di rilievo fra le due distribuzioni dell’esempio e` che mentre nella prima ad ogni valore di pu`o essere associato un solo valore di , non modifica lo stato di incertezza rispetto nella seconda la conoscenza di a : e sono dipendenti (o correlate); e sono indipendenti (o scorrelate). Questo fatto si riflette sulle distribuzioni condizionate, le quali differiscono nei due casi. Ad esempio , mentre , e cos`ı via Dovendo quantificare il grado di correlazione con un solo numero si utilizza il valore atteso del prodotto degli scarti rispetto alle previsioni:. ÷ öI ÷I 7øÒ­)  F•û \F7zQú7•Pz0. öI ÷ yIäM7øÒ­)€Iøüû•KL0. (I„. ¯rmý E  ŒZe‹$þ E m $¡Z³²/Q Esso e` chiamato covarianza ed e` indicato con Cov ­µrXyµÿ : Cov ÅX_$¡ (9.16)  E ¯r  E ŒZ|m$u E m$šZ³²ÀQ Per capire come mai essa possa essere adeguata allo scopo si pensi che < se in corrispondenza di scarti positivi di  (rispetto alla previsione) si attendono (sempre in senso probabilistico) scarti positivi anche per $ , ne segue che la previsione del prodotto degli scarti e` un numero positivo; lo stesso e` vero se, in corrispondenza di scarti negativi di  , si attendono scarti negativi anche per $ ; < se invece si prevedono scarti di segno opposto la covarianza e` negativa; < infine, la covarianza e` nulla se si attendono scarti mediamente incoerenti. Ne segue che ci aspettiamo covarianza negativa fra öÀI e ÷øI dell’esempio di tabella 9.2, covarianza nulla fra ö\I e ÷ .  Per quanto riguarda il valore assoluto della covarianza, esso non indica in E. 3. maniera intuitiva quanto due variabili sono correlate, in quanto la covarianza non e` una grandezza omogenea con le due variabili casuali e dipende anche dall’unit`a di misura scelta per le variabili. Si preferisce rendere adimensionale la misura di correlazione, dividendo per le scale naturali degli scarti di ciascuna variabile, ovvero le due deviazioni standard. Si definisce allora il coefficiente di correlazione, definito come. . ÅX_$¡\ \ CovŒGH \X_m$¡$ . .  HX_$ Q Var J Var m$š Cov. (9.17). Come detto a proposito della previsione e della sua incertezza, in principio ci potrebbero essere modi alternativi per riassumere con un numero una caratteristica di una distribuzione. Volendo giustificare questa scelta per la misura di correlazione, possiamo fare le seguenti considerazioni:. <. La covarianza e` formalmente una estensione della definizione operativa della varianza a due variabili e quindi la covarianza di una variabile con s´e stessa e` uguale alla varianza: Cov. ÅXZŒK. Var. J9Q. 3. Per un altro modo di capire come mai la covarianza definita come (9.16) tenda a comparire nella teoria della probabilit`a si veda la (10.27) a proposito della somma di variabili casuali.. c G. D’Agostini 2001.

(31) . 9.5. 241. Covarianza e coefficiente di correlazione. Figura 9.2: Esempi di correlazione fra variabili casuali. Questa analogia suggerisce di indicare la covarianza con un simbolo compatto simile a quello di varianza:. <. [ d„8 Cov ÅX_$¡ (9.18) con la convenzione che dÀd&# ed  (questa notazione sar`a molto utile nelle applicazioni). HXZŒÅž0. <. Ne segue che il coefficiente di correlazione di una variabile con s´e stessa e` uguale a 1 ( ): si dice che una variabile e` correlata al 100 % con s´e stessa.. <. La covarianza, e quindi il coefficiente di correlazione, si annulla se due variabili sono fra loro indipendenti, come abbiamo giustificato intuitivamente sopra e come vedremo formalmente fra breve.. <. Vedremo come la covarianza entra in modo naturale nel calcolo della varianza di una combinazione lineare di variabili casuali (paragrafo 9.5.2). Se due variabili sono legate (in modo deterministico) da una relazione lineare, il grado di correlazione misurato da  e` massimo in modulo ( ) e il suo segno dipende dal fatto che una variabile cresca o diminuisca al crescere dell’altra, come intuitivamente comprensibile.. Ò Òäv0. ^XZY™. La figura 9.2 mostra alcuni esempi di variabili doppie discrete in cui la e` proporzionali all’intensit`a dei punti. Si faccia attenzione come correlazioni complicate possano dare  .. F7. c G. D’Agostini 2001.

(32) 242. Variabili casuali multiple. 9.5.2 Propriet`a formali di covarianza e coefficiente di correlazione Avendo introdotto il concetto di covarianza, vediamo il modo con cui essa viene calcolata a partire dalla definizione. Cov. HX_$¡x. r¯ m  E ŒZm$U E m$°Z­² ëÝM§\§D¯rm

(33)  E JZ£Y° E m$šZÓ²^4XZY[ d dYVì  E ¯  µ;$`J µ E m$šʝ $üµ E J4" E Jʵ E m$¡³² (9.19)  E N$¡ʝ E Œpµ E m$° E. Il secondo passaggio, fra parentesi, mostra il modo di calcolare la covarianza dalla definizione operativa (avendo preso come esempio il caso di variabili continue). In realt`a la (9.19) rappresenta il modo pi`u semplice per calcolare la covarianza, in analogia alla formula che esprime la varianza come “media dei quadrati meno il quadrato della media”. Infatti, anche la (9.19) pu`o essere letta come “media del prodotto meno il prodotto delle medie”. Per quanto riguarda E , esso non e` in genere risolvibile in termine di altre grandezze note e va calcolato dalla definizione operativa, che, per variabili continue, e`. H$¡. E. `$° §\§ øYO4XZY[­••Y¹Q. (9.20). Esiste un solo caso notevole in cui e` possibile evitare di fare l’integrale doppio. Se. ^XZY™M^µ€Y[9X. $ $. ovvero e sono fra loro indipendenti, possiano riscrivere l’integrale doppio come prodotto di due integrali:. þ$šv #§ ®e­•

(34) µ3§¦YOY™­%Y (9.21)  E Œʵ E m$¡9Q Ne segue, allora, che Cov HX_$š E Œʵ E m$¡ʝ E Jʵ E m$š\ 7 : E. se due variabili casuali sono indipendenti, la loro covarianza e` nulla.. 4XZY[®LzY[. Si faccia attenzione a questa affermazione. Essa si basa sulla definizione di indipendenza stocastica espressa dalla e non significa che non esista alcun legame fra i possibili valori delle due variabili. La covarianza nulla implica soltanto l’assenza di una correlazione di tipo lineare, come si vedr`a fra breve quando vedremo i casi che massimizzano  . Due variabili possono essere fortemente dipendenti pur avendo covarianza nulla. Un caso “clamoroso” e` quello di punti nel piano distribuiti lungo una circonferenza.4 Se per semplicit`a poniamo il centro del cerchio nell’origine e` facile. Š. ÒÒ. ÅX_$. D†þˆ. º ƒr¿ˆ.Ž º ƒr3Ž. 4 Per mostrare come le variabili e del caso del cerchio siano non indipendenti, nonostante la distribuzione congiunta dia covarianza nulla, si pensi alla pdf condizionata , ottenuta “affettando” il “cerchio” per un certo valore di . Chiaramente la forma di dipender`a dal valore di scelto e, in ogni caso, sar`a diversa dalla “proiezione” .. º ƒr¿ˆ.Ž. ˆ. c G. D’Agostini 2001.

(35) 9.5. . 243. Covarianza e coefficiente di correlazione. J m$° `$ . verificare che sono nulli E ,E eE e quindi anche la covarianza (vedi figura 9.2). Calcoliamo ora covarianza e coefficiente di correlazione fra due variabili linearmente dipendenti, ovvero legate da una relazione del tipo. u$  À&"4Q Utilizzando i simboli compatti ^dF E Œ e g8  E m$š , abbiamo: g8  À ed"' 8    d  Cov ÅX_$x E ¯r ß ed£m$þŒ g8K³²  E ¯r J ed£m/ "'KßÀ ed! y³²  E ¯ ¹ ß ed¹ J ed¹³²  K d. (9.22) (9.23). (9.24). (9.25)   K  d    Ò eÒ Q d d Quindi, in caso di dipendenza lineare, il coefficiente di correlazione vale °0 a seconda che il coefficiente angolare  sia positivo o negativo. Si pu`o dimostrare che, in generale, (9.26) £0}—  —ê"š0 e il grado di correlazione lineare fra due variabili e` misurato da Ò  Ò . Dimostrazione della (9.26): consideriamo la variabile casuale  !F " ã$ . La varianza di  e` , per definizione, non negativa per qualsiasi valore di  :   ÊÀ d "   8 "'? [d„8

(36) 7„Q (9.27) 

(37) ‡7 , questo sar`a La dipendenza di   p da  e` parabolico. Essendo   Ê vero anche quando g   p assume il valore minimo, in corrispondenza di k ªdK8 Q  h ` 8 da cui. . Sostituendo nella (9.27) si ottiene. ed„ 8 d 8 —M0pX. da cui segue la (9.26).. c G. D’Agostini 2001. (9.28). .

(38) 244. Variabili casuali multiple. õ. 9.6. Matrice di covarianza e matrice di correlazione. Siamo giunti a sintetizzare l’incertezza su una coppia di variabili con tre valori: due varianze e una covarianza, o, equivalentemente, due deviazioni standard e un coefficiente di correlazione. Nel caso di variabili ( , , ... ) servono .  ! 

(39) " f? 02  

(40) ? " 02. ŒI    h. (9.29). informazioni indipendenti. Talvolta e` preferibile utilizzare una rappresentazione compatta di queste grandezze mediante la cosidetta matrice di correlazione, una matrice quadrata i cui termini sono dati da. k. k. k. (9.30) t  E r¯   E   Z| t  E  t Z³²KQ Infatti, i termini diagonali (quando b®uq ) danno le varianze, mentre gli altri (quando b®' Ö  q ) danno le covarianze. In forma matriciale, abbiamo:  e.  Cov 6I;XZ  µyµyµ Var fI;XZ h   I  µyµyµ Var   XZ h   Cov  I XZ  e.     µyµyµ  µ µyµyµ µyµyµ  (9.31) y µ y µ Var  I XZ h  Var  XZ h  µyµyµ eh  La matrice e` simmetrica, come e` facile verificare, e quindi i termini indipendenti sono esattamente 

(41) " 02Z1@?• come richiesto dalla (9.29). Alternativamente, a volte pu`o essere conveniente presentare l’incertezza dei dati mediante la matrice di correlazione, ik cui elementi sono dati da k k t   XZ t \ t X ovvero   6I;XZ  µyµyµ  6I€XZ h   0   6I;XZ  0 a   µyµyµ  µyµyµ µyµyµyµyµµ   µy µyXZµ  h   (9.32)  6I;XZ h    XZ h žµyµyµ 0  Come si vede, nel passaggio dalla matrice di covarianza alla matrice di correlazione si perdono le informazioni sulle  deviazioni standard (gli elementi della diagonale sono tutti unitari). Quindi, qualora si preferisca questo modo. . di condensare la distribuzione, le deviazione standard devono essere fornite separatamente.. 9.7. õ. Esempi di variabili doppie discrete. Per chiarire alcuni dei concetti appena illustrati e per introduzione altre problematiche che seguiranno, facciamo l’esempio di costruzione di variabili doppie discrete a partire da eventi elementari. Immaginiamo di dover effettuare una serie di esperimenti che consistono nel lancio di tre monete e nell’estrazione di una carta scelta a caso fra due. Per. c G. D’Agostini 2001.

(42) . 9.7. 245. Esempi di variabili doppie discrete. . k. ATTT ATTC ATCT ATCC ACTT ACTC ACCT ACCC RTTT RTTC RTCT RTCC RCTT RCTC RCCT RCCC.  $ 3 2 2 1 2 1 1 0 3 2 2 1 2 1 1 0. 0 1 1 2 1 2 2 3 0 1 1 2 1 2 2 3. 2 1 0 0 1 0 0 0 2 1 0 0 1 0 0 0. HX{® m$/X{¹  „XZJ  „X{¹ (3,2) (2,1) (2,0) (1,0) (2,1) (1,0) (1,0) (0,0) (3,2) (2,1) (2,0) (1,0) (2,1) (1,0) (1,0) (0,0). (0,2) (1,1) (1,0) (2,0) (1,1) (2,0) (2,0) (3,0) (0,2) (1,1) (1,0) (2,0) (1,1) (2,0) (2,0) (3,0). (1,3) (1,2) (1,2) (1,1) (1,2) (1,1) (1,1) (1,0) (0,3) (0,2) (0,2) (0,1) (0,2) (0,1) (0,1) (0,0). (1,2) (1,1) (1,0) (1,0) (1,1) (1,0) (1,0) (1,0) (0,2) (0,1) (0,0) (0,0) (0,1) (0,0) (0,0) (0,0). Ù. Tabella 9.3: Variabili casuali costruite sugli eventi elementari costituiti dai possibili. Ü. esiti di tre lanci di monete e dell’estrazione di una carta da gioco: : numero di teste; : numero di croci;  : numero di teste consecutive;  : numero di assi.. Ô. ogni moneta si pu`o verificare Testa o Croce, mentre supponiamo che i valori delle due carte siano Asso ( ) e Re ( ). Per ogni evento possiamo costruire diverse variabili casuali, per esempio:. < . < $ <. : numero di teste;. <. : numero di croci;. . : numero di teste consecutive; : numero di assi;. ÅX{¹ m$/X{¹. Inoltre possiamo costruire a partire da queste tutte le possibili combina, , zioni di variabili multiple. Ci limitiamo alle variabili doppie.  e  . Riportiamo i risultati nella tabella 9.3 Da questa tabella ci possiamo calcolare tutte le distribuzioni di probabilit`a di interesse applicando le relazioni viste nei paragrafi precedenti. Cominciamo con le variabili.  „XZŒ  „X{¹. HX{¹. 4X_æV 4X_æV (0,0) (1,0) (2,0) (2,1) (3,2). c G. D’Agostini 2001. 2/16 6/16 2/16 4/16 2/16.

(43) 246. Variabili casuali multiple. e. . . Da questa possiamo ricavare le distribuzioni marginali di e . Per esempio, per ottenere bisogna , per ogni valore di , “integrare” su tutti i valori di :. . 0 1 2 3. ¨ j é  l ! ¤9¨  4X_æV{Q.  e ?•"•1G1G0#0#"ã"ãuMP•021@1@BB ‹?•1G0#" ?•1G"C0#"ãùV1Gu0#"•02K1@FB P•1@B. æ. 0 1 2. mæG ‹?•1G0#"®" ùV"•1G1G0#0#"®" "F?•?•1G1@0#B "•ÀMû•1@B ?•1G#0 " `021@B. Come si vede dalla tabella, la distribuzione marginale di una certa variabile calcolata dalla formula e` esattamente quella che si otterrebbe esaminando la tabella ove sono riportati gli eventi elementari e ignorando tutte le altre variabili. Dalla distribuzione di probabilit`a di ci possiamo costruire anche le distribuzioni condizionali . Come detto, di queste distribuzioni ne esiste una per ogni valore di . E` interessante, in questo semplice caso, confrontare il risultato che si ottiene contando il numero di casi favorevoli e il numero di casi possibili con quello che si otterrebbe applicando le formule delle variabili condizionali viste sopra:. šÒ­æV ÅX{¹.   Ò æã 7% 0 ?•1G0y7 `021@û 1 "•1G0y7 FP•1@û 2 ?•1G0y7 `021@û  Ò æ `02 2. 1.  Ò æãF?• 3. 1. é‘ s é l('*) $&% (l '*) *, . + +0I-I-/$&,, % `021@û . + FP•1@û *. + +0+0-I // , é`021@û ‘$1% é s l l I I) ) · + $1I-% , `0 * +0/ é ‘$1% é s l l ) )  * I + $1-I % , u0 +0/. Queste sono le altre distribuzioni di variabili doppie ottenibili dalla tabella degli eventi elementari5 : 5. Si ricorda che la lettera minuscola di. 2. 3. e` .. c G. D’Agostini 2001.

(44) 9.7. . 247. Esempi di variabili doppie discrete. 54zXZ 54zXZe. YX_æV YX_æV (0,2) (1,0) (1,1) (2,0) (3,0). (0,0) (0,1) (0,2) (0,3) (1,0) (1,1) (1,2) (1,3). 2/16 2/16 4/16 6/16 2/16. 54zX_æV 54zX_æV. 1/16 3/16 3/16 1/16 1/16 3/16 3/16 1/16. (0,0) (0,1) (0,2) (1,0) (1,1) (1,2). 5/16 2/16 1/16 5/16 2/16 1/16. La distribuzione marginale di  e`. 4 0 1. 1/254% 1/2.  7. Come ultimo esempio ci costruiamo la distribuzione condizionale di sotto la condizione  .. .  Ò 4£F7% I $1I-$1%, ‘ % 6 s 6l(l('*'*) ) 0 1/8 I + +çI- , `021@B ~ 1 3/8 I + +ç-I  , F P•1@B ~ 2 3/8 I + +ç-I  , FP•1@B I 3 1/8 I + +ç `021@B.  7. . . Da quest’ultima tabella si vede che che la distribuzione di sotto la condizione  e` uguale a quella marginale di , contrariamente a quanto accadeva quando la variabile condizionante era . Questo corrisponde al fatto che, mentre lo stato di conoscenza del numero di teste consecutive condiziona il grado di fiducia del numero di teste, questo non e` influenzato dal sapere se si e` verificato un Asso o un Re. Calcoliamo ora valori attesi di ciascuna variabile:. Œv E ݹx E m$¡x E  /x. E. c G. D’Agostini 2001. 7}µ B0 "!0Oµ PB "'?¹µ PB 7}µ ûB "!0Oµ ?B "'?¹µ B0 7}µ B0 "!0Oµ PB "'?¹µ PB 7}µ #0 B " " 0äµ 0#B "  ?0. "'P®µ B0  ùB "'P®µ B0.  ;0 B ?  0;B ?. (9.33).

(45) 248. Variabili casuali multiple. \Œ. Per quanto riguarda la deviazione standard, svolgiamo in dettaglio il calcolo di , lasciando gli altri conti come esercizio:.   o 7  µ B0 "F0  µ PB "'?  µ PB "'P  µ B0  3? B ù ?3ù 87 ;0 ?   P Var Œv B :B 9 ù \Jx ; ùP  7zSQ B•T \m$šo ; ùP  7zSQ B•T \ݹo ; ?0  7zQÿGT 0 \  /o ; ù0  7zQSû E. (9.34). Per quanto riguarda le covarianze e coefficienti di correlazione abbiamo: 1.. HX{¹ :.  L¹o Cov HX{®v  ÅX{¹v E. 2.. m$ÀX{¹ :. m $'¹x Cov m$ÀX{¹v  m$/X{¹v E. 3..  OX{® :. 7}µ ûB "'?¹µ ?B 0y7  0;? µ ù 7zB QSBz0 B <>= B. " "®µ B0  y0 B 7  ?0. 7£µ "B " 0„µ ?B  ?B ?  0;? ù ` 0 äB 7zQSBz0 B B › = ?. (9.35) (9.36). (9.37) (9.38).  ¹o ¹7 µ 0;#0 P" " 0„µ 0#? " "?®µ 0#0 "  0#ù "  ù0 0  0 0 F7 Cov  „X{¹o ù ??   „X{¹x = E . (9.39) (9.40). Il coefficiente di correlazione fra il numero di teste consecutive e il numero di teste e` positivo; fra il numero di teste consecutive e il numero di croci e` negativo; fra il numero di teste consecutive e il numero di assi e` nullo. Questo e` in accordo con quanto ci si aspetta da una grandezza atta a quantificare il grado. c G. D’Agostini 2001.

(46) 9.8. . 249. Esempi di distribuzione bidimensionale continua. Figura 9.3: Distribuzione bidimensionale uniforme di correlazione. E` infatti chiaro che, sotto l’ipotesi che un evento contenga un alto numero di teste, cresce la probabilit`a di trovare due teste consecutive. L’effetto opposto avrebbe l’ipotesi che si verichino una grande numero di croci. L’ipotesi dell’uscita o meno di un asso non altera invece le probabilit`a degli esiti dei lanci delle monete, e viceversa.. 9.8. õ. Esempi di distribuzione bidimensionale continua. Entrambi gli esempi che facciamo hanno una funzione densit`a di probabilit`a congiunta costante. Nel primo caso le variabili sono definite in un rettangolo con i lati paralleli agli assi, nel secondo sono definite nel triangolo ottenuto dividendo il rettangolo precedente lungo la diagonale. Questi esempi permettono di prendere familiarit`a con alcuni aspetti delle distribuzioni multiple, pur mantenendo al livello minimo le difficolt`a di calcolo,. 9.8.1 Distribuzione uniforme in un rettangolo.  $. 4XZY[ ¯ I;XZ  ² ¯ YzIyXZY  ² \I YzI. Come primo e semplice esempio di distribuzione multipla di variabili continue consideriamo due variabili e negli intervalli e e tali che la loro densit`a di probabilit`a congiunta sia costante nella porzione di piano definita da tali limiti. Per semplificare i conti, ma senza perdere in generalit`a, facciamo coincidere gli estremi inferiori e con l’origine degli assi, e chiamiamo e le lunghezze dei due segmenti (vedi figura 9.3). La condizione di normalizzazione permette di ricavare il valore della costante:.  . §@' ? §' A ^XZY™ d dYš §@' ? §@' A  d dYš z da cui segue. c G. D’Agostini 2001. 4XZY[ z0  B. 7¡7¡—'—NY——‡. (9.41). (9.42).

(47) 250. Variabili casuali multiple Possiamo quindi calcolare le distribuzioni marginali delle due variabili:. 0 (9.43) DC 0Q (9.44)  Come ovvio, la densit`a e` uniforme in ciascuna delle due distribuzioni. Le medie e le varianze valgono quindi: E ŒÀ ™1@? ; E m$š/M|1@? ; Êd  FG;1G0;? ; 8 Per F  il1Gcalcolo 0;? . della covarianza serve il valore atteso del prodotto: eo § ' A ^XZY™ dY¡ Y[  @§ ' ?  4XZY[ d6. E. þ$šv § ' ? §@' A øYO4XZY[ d dY  z0  §@' ? § ' A  Y d dYš Gù  X. (9.45). da cui.  HX_$¡ E `$°ʝ E J E m$š\ Kù   ? ?  7„Q (9.46) e quindi  ÅX_$¡\!7 . In effetti, anche se si venisse a sapere che  vale ™1G0y7 , ™1@? o  , questa informazione non cambia le nostre aspettative sui possibili valori di $ . Il calcolo della densit`a di probabilit`a di  , condizionata dall’occorrenza di un valore di $u!Y , e` altres`ı semplice: I 0     ^  Z X ™ Y  °ÒÓY[\ @8äY[  ?EI A   Q (9.47) A Essa e` identica alla densit`a marginale e quindi $ e $ sono indipendenti. Cov. 9.8.2 Distribuzione uniforme in un triangolo. Ô ã÷}Ô. Se le variabili casuali possono assumere valori, sempre in modo uniforme, all’interno del triangolo GF di figura 9.3, la funzione densit`a di probabilit`a congiunta e` data da. ^XZY™ z? . B. 7¡7¡—'—'NY6—'—. (9.48). E` possibile ottenere le distribuzioni marginali e condizionate senza fare alcun conto:. <  e` ottenuta integrando 4XZY[ lungo Y e quindi e` proporzionale all’altezza del triangolo rettangolo F}Œ÷ © F , ove ÷ © indica il punto lungo la diagonale F÷ in corrispondenza di  . la distribuzione marginale di  e` quindi una triangolare asimmetrica (vedi paragrafo 8.4) avente IHO  , J  7 e J ¤   ; !. c G. D’Agostini 2001.

(48) 9.9 ❄ Distribuzione multinomiale. <. 251. ¤ F7 Y[ e` data da una triangolare avente KH¹L7 , J ! u e < fissando    la distribuzione di $ e` una uniforme fra 0 e YL ‘  ‹y13™Ó .; ? k < analogamente, fissando $ oY la distribuzione di  e` uniforme fra M  h Lmz1@yÓY e  . per simmetria ; J. Come esercizio facciamo i conti:. x Y[x °ÒÓY[x Y¹ÒÓev. § 4XZY[ dYšü§O' PN § 4XZY[ d6M § P ? ’ ^XZY™  0  N Y™  KJY ^XZY™   e ª. ‘ ? ?3 „ dšY    ? ? „ d6   ‹KJY[. m7¡—'Œ—™ m7¡—'Y6—‡y   Y6—'H—™ m7—'Y—  e. Si ricordi che le nelle funzioni densit`a di probabilit`a condizionate il condizionante ha il ruolo di parametro. A differenza del caso precedente, le funzioni le condizionate e le marginali sono diverse: sapere che vale 0, o cambia lo stato di incertezza su . Ad esempio, la previsione ( incertezza standard) vale nei tre casi: (certezza!), e .. ø7 7 $.  ™1@?  m7zQS?.û¹ C7zQ,0|ùV­ m7zQS@û 7¹ 7zQS?.R•­. 9.9 ❄ Distribuzione multinomiale Dopo aver introdotto i concetti di base delle distribuzioni multivariate e alcuni esempi elementari, mostriamo ora una una distribuzione di variabile discreta che descrive i possibili istogrammi che possono essere osservati effettuando un certo esperimento. Questo argomento era gi`a stato introdotto nel paragrafo 7.14. In tale occasione ci eravamo interessati soltanto della previsione della distribuzione statistica, ma era stato tralasciato il problema di calcolare la probabilit`a di ciascuna delle possibili configurazioni. Cominciamo con un esempio numerico. Immaginiamo di ripetere 20 volte un certo esperimento, in ciascuno crediamo che possa uscire, con uguale proil numero babilit`a, un numero intero compreso fra 0 e 10. Indichiamo con di occorrenze dell’esito -mo. Riassumiamo le cose che gi`a sappiamo fare:. k. bb  k < ciascuna variabile  e` distribuita secondo una binomiale di ê#?@7 e 5f`021G0.0 ; < prevediamo una distribuzione statistica con 5ø Q S5 R4 occorrenze per ciascun esito; (*** att ***) < prevediamo che le frequenze relative siano 5°T Q U5 R.1 Q  .. c G. D’Agostini 2001.

(49) 252. Variabili casuali multiple. DÞ. Íó Þ. Í LÞ. Figura 9.4: Esempi di eventi multinomiali generati casualmente. Tutte le distri\[ e ^] _X`[ . Negli istobuzioni hanno il parametro V pari a 20, W YXZX , grammi a destra aLb e` costante e pari XdceXZX , mentre in quelli a sinistra vale invece a^b ^b gfihkj lkm h .. Þ ËÌ«Í %Û ó |Ð. c G. D’Agostini 2001.

(50) 9.9 ❄ Distribuzione multinomiale. 253. Interessiamoci ora delle possibili configurazioni di occorrenze che e` possibile osservare. La figura 9.4 (parte a destra) ne mostra qualcuna (istogramma ottenuto da simulazione al calcolatore). Cominciamo con dei casi particolari e poi passeremo alla trattazione generale.. <. b U7  } þ  @ ? 7 f  ø I ü   ¶  y µ y µ 9 µ ü  6  I  0@QSû£A0y7 ¤  I 0@Q AJ0y7 ¤ . bÀþ7. <. Pu`o capitare 20 volte di seguito lo stesso valore di , ad esempio , ' e , con probabilit`a dando luogo a nH per ciascuna possibilit`a. (La probabilit`a che si verifichi uno ' .) qualsiasi di questo tipo di eventi e` o".  £#0y7 @? 7 6I®&0y7 altri zero. Questi valori possono essere ottenuti da 7 y0 7 ¤ 9 I D0;B3ùVT@ûe" possibili sequenze, ciascuna avente probabilit`a 0@QSû6A'0y7  . Ne seque ¤ I-, . ? S Q \ B A y 0 7 che la probabilit`a dell’evento qHä`0y7 , 6IK`0y7 e` uguale a G (Per calcolare la probabilit`a di osservare una qualsiasi equipartizione dei 20 successi in due classi bisogna considerare il numero combinazioni di ¤ IÝ· .) 11 esiti presi 2 a 2, pari a 55, ottenendo 0@QSûšAß0y7 <. Pu`o capitare che esca la met`a delle volte un valore, l’altra met`a un altro e nessuna volta gli altri 9. Concentriamoci su pH , e gli. Consideriamo ora un caso in cui i risultati sono “pi`u equilibrati”, ad esempio i primi 9 esiti che si verificano 2 volte e gli ultimi due una ' sola volta: ' ; sr . Questo / sembra essere, intuitivamente, un risultato molto pi`u probabile dei due precedenti. Calcoliamo il numero di sequenze (tutte di probabilit`a ):.  ¥4INvµyµyµ£¥  ?   6I ž0. 0y7 ¤  I. 0@QSû®A.  I' u combinazioni che danno' ¤ bp 7 ;I – per ciascuna di esse ce ne sono t    t / che danno bO 0 e  u (u \ cos`i via; – otteniamo un totale di ?@7 7 0;B µyµyµ 7 0 7 ? 9 S? 9 0 9 v combinazioni, ovvero: ?@E7 w 0;LB w #0 "Lw QyQyQ€0ø ?@E7 w r !ù™QSB¡AJ0y7 I . Q 0;LB w¾L? w #0 "Lw¾L? w 0|xù w¾L? w ‹L? wÿ ¤ , , enorQuesta configurazione ha quindi una probabilit`a di TVQ,0Aê0y7 memente pi`u alta delle altre, anche se di per s´e ancora molto piccola. – ci sono. t. Se poi consideriamo che ci sono 55 configurazioni distinte in cui 9 esiti possono uscire 2 volte e gli altri 1 volta, otteniamo una probabilit`a di circa lo 0.4 per mille di osservare una qualsiasi di queste configurazioni “equilibrate”.. 5. k. E. Passiamo ora al caso generale di possibili modalit`e per l’esito di ciascuna prova e sia la probabilit`a che assegniamo a ciscuna modalit`a. Naturalmente deva valere la condizione. c G. D’Agostini 2001. [j  k 5 k ` 0pQ.

Riferimenti

Documenti correlati

• Per ogni contributo d’incertezza di categoria A il numero di gradi di libertà υ i da considerare è uguale al numero dei dati considerati n a cui va sottratto il numero di

Possiamo dunque costruire una tabella dove per ogni caratteristica x i ed y j rilevata congiuntamente viene riportata la frequenza (assoluta) congiunta, cioè il numero di volte

Assegnato uno spazio di probabilità (S, A, P[.]) si definisce variabile casuale X una funzione avente come dominio lo spazio dei campioni (S) e come codominio la retta realex.

Qual è la probabilità che tale lotto venga accettato, se in tale campione sono presenti al più di tre pezzi difettosi. (Si considerino estrazioni con reimmissione).

Una macchina ha una vita media prima di subire guasti di 6 anni (ipotizzare una distribuzione esponenziale). Un acquirente compera 10 macchine di questo tipo e vuole sapere qual è la

Un acquirente compera 12 macchine di questo tipo e vuole sapere qual è la probabilità che al massimo una di esse si guasti entro 2 anni. Dopo 5 anni, quanto è il numero di

Esercitazione: Trasformazione di Variabili Casuali. Misure Meccaniche e Termiche

Come sappiamo, in una data prova non si può conoscere quale valore assumerà la nostra variabile casuale; ma se conosciamo tutti i possibili valori che la nostra variabile