• Non ci sono risultati.

Probabilit`a e incertezza di misura

N/A
N/A
Protected

Academic year: 2021

Condividi "Probabilit`a e incertezza di misura"

Copied!
55
0
0

Testo completo

(1)Probabilit`a e incertezza di misura G. D’Agostini Dipartimento di Fisica, Universit`a “La Sapienza”, Roma 30 ottobre 2001.

(2) ii. c G. D’Agostini 2001.

(3) Indice I. Dal concetto di probabilit`a ai problemi di probabilit`a inversa. 1. 1. Incertezza e probabilita` 1.1 Determinismo e probabilismo nei metodi di indagine scientifica 1.2 Incertezze in Fisica e nelle altre scienze naturali . . . . . . . . 1.3 Limiti all’accuratezza delle misure - un esempio . . . . . . . . 1.4 Imparare dagli esperimenti: il problema dell’induzione . . . . 1.5 ❄Limiti del metodo di falsificazione . . . . . . . . . . . . . . 1.6 Decisioni in condizioni di incertezza . . . . . . . . . . . . . . 1.7 Concetto di probabilit`a . . . . . . . . . . . . . . . . . . . . . 1.8 Semplici valutazioni di probabilit`a . . . . . . . . . . . . . . . 1.9 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 1.10 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 3 3 4 6 7 9 10 10 13 15 17. 2. Valutazioni e interpretazioni della probabilit a` 2.1 Primi interessi in stime quantitative di probabilit`a . . . . . 2.2 Valutazione combinatoria . . . . . . . . . . . . . . . . . . 2.3 Probabilit`a e frequenza . . . . . . . . . . . . . . . . . . . 2.4 Legge empirica del caso e “definizione” frequentista . . . 2.5 Interpretazione oggettivista e soggettivista della probabilit`a 2.6 Concetto di probabilit`a condizionata . . . . . . . . . . . . 2.7 Eventi di probabilit`a nulla . . . . . . . . . . . . . . . . . 2.8 Probabilit`a e scommesse eque . . . . . . . . . . . . . . . 2.9 Probabilit`a e quote di scommessa . . . . . . . . . . . . 2.10 Definizione soggettiva di probabilit`a . . . . . . . . . . . . 2.11 ❄ La “definizione ISO” . . . . . . . . . . . . . . . . . . . 2.12 ❄Note sul termine “soggettivo” . . . . . . . . . . . . . . . 2.13 ❄Ruolo virtuale della scommessa, valore dei soldi e ordini grandezza non intuitivamente percepibili . . . . . . . . . . 2.14 Speranza matematica e previsione di vincita . . . . . . 2.15 ❄Previsione di guadagno e decisioni . . . . . . . . . . . . 2.16 ❄Decisioni vantaggiose e etica della ricerca . . . . . . . . 2.17 ❄Regola di penalizzazione - il bastone e la carota . . . . . 2.18 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . 2.19 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . .. 19 19 20 21 23 25 26 28 29 30 31 32 33. . . . . . . . . . . . . . . . . . . . . . . . . . . di . . . . . . . . . . . . . .. 34 36 37 39 40 41 43.

(4) iv. INDICE 3. Elementi di calcolo combinatorio 3.1 Problemi elementari tipici . . . . . . . . . . . . . . . . 3.2 Disposizioni e combinazioni . . . . . . . . . . . . . . 3.2.1 Regola fondamentale del calcolo combinatorio 3.2.2 Numero di -disposizioni di oggetti . . . . . 3.2.3 Numero di -disposizioni semplici di oggetti 3.2.4 Numero di permutazioni di oggetti . . . . . . 3.2.5 Combinazioni . . . . . . . . . . . . . . . . . . 3.2.6 Coefficienti binomiali . . . . . . . . . . . . . 3.2.7 Note su nomenclatura e simbologia . . . . . . 3.3 Note sul calcolo dei grandi numeri . . . . . . . . . . . 3.4 Ordinamenti, occupazioni ed estrazioni . . . . . . . . 3.5 Alcuni esempi classici . . . . . . . . . . . . . . . . . 3.6 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . 3.7 Problemi . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . .. . . . . . . . . . . . . . .. . . . . . . . . . . . . . .. 47 47 48 48 48 48 50 50 52 53 53 55 57 59 60. Regole della probabilita` 4.1 Probabilit`a della somma logica di due eventi incompatibili 4.2 Eventi e insiemi . . . . . . . . . . . . . . . . . . . . . . . 4.3 probabilit`a come misura . . . . . . . . . . . . . . . . . . 4.4 Evento condizionato . . . . . . . . . . . . . . . . . . . . 4.5 Regole di base della probabilit`a - assiomi . . . . . . . . . 4.5.1 ❄Dimostrazioni delle propriet`a della probabilit`a . . 4.6 Relazione fra probabilit`a condizionata e congiunta . . . . . 4.7 Condizionamento da eventi di probabilit`a nulla . . . . . . 4.8 Indipendenza stocastica (o in probabilit`a) . . . . . . . . . 4.9 Altre propriet`a della probabilit`a condizionata . . . . . . . 4.9.1 Legge della moltiplicazione . . . . . . . . . . . . 4.9.2 Legge delle alternative . . . . . . . . . . . . . . . 4.10 Indipendenza logica e indipendenza stocastica . . . . . . . 4.11 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . 4.12 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . .. 61 61 62 67 67 69 71 72 74 75 76 76 78 78 78 81. . 4. 5. . . . . . . . . . . . . . . . . .. Probabilit`a delle cause e meccanismo di aggiornamento delle probabilit`a 5.1 Inferenza probabilistica . . . . . . . . . . . . . . . . . . . . . 5.2 Teorema di Bayes . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Chiavi di lettura del teorema di Bayes . . . . . . . . . . . . . 5.4 Visione combinatoria del teorema di Bayes . . . . . . . . . . 5.5 Esempi tipici di applicazione . . . . . . . . . . . . . . . . . . 5.5.1 Classificazione di eventi e rapporto segnale rumore . . 5.5.2 Uso iterativo del teorema di Bayes . . . . . . . . . . . Statistica bayesiana: imparare dall’esperienza . . . . . . . 5.6 5.7 Il caso del sospetto baro . . . . . . . . . . . . . . . . . . . 5.7.1 I “fatti” . . . . . . . . . . . . . . . . . . . . . . . . . 5.7.2 Riaggiornamento della probabilit`a . . . . . . . . . . . 5.7.3 Confronto fra inferenza diretta e inferenza iterativa . . 5.7.4 Dipendenza dalla probabilit`a iniziale . . . . . . . . . . 5.7.5 Pregiudizio, indizi e conclusioni . . . . . . . . . . . .. . 85 85 87 89 91 92 92 94 95 96 96 96 97 98 98. c G. D’Agostini 2001.

(5) v. INDICE 5.7.6 Probabilit`a e decisione . . . . . . . . . . . . . . . . . 5.8 ❄Recupero e superamento del metodo di falsificazione . . . . 5.9 Osservazioni indipendenti e prodotto delle verosimiglianze . 5.10 ❄Fattore di Bayes e incremento logaritmico delle quote di scommessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.11 Indifferenza iniziale e massima verosimiglianza . . . . . . 5.12 ❄Problema della verificabilit`a ed estensione del concetto di evento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.13 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 5.14 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..  . II 6. Variabili casuali - I. 98 99 100 100 101 101 102 104. 109. Variabili casuali e distribuzioni di probabilit a` di variabili discrete 111 6.1 Numeri aleatori . . . . . . . . . . . . . . . . . . . . . . . . . 111 6.2 Distribuzione di probabilit`a . . . . . . . . . . . . . . . . . . . 112 6.3 Distribuzione di probabilit`a e distribuzioni statistiche . . . . 113 6.4 Esempi di costruzione di distribuzioni di variabili casuali . . . 115 6.5 Propriet`a delle distribuzioni di probabilit`a discrete . . . . . . . 118 6.6 Distribuzioni elementari notevoli . . . . . . . . . . . . . . . . 119 6.6.1 Distribuzione uniforme discreta . . . . . . . . . . . . 119 6.6.2 ❄Distribuzione uniforme discreta - caso generale . . . 119 6.6.3 Processo di Bernoulli . . . . . . . . . . . . . . . . . . 120 6.6.4 Combinazione di molti processi di Bernoulli indipendenti e di uguale probabilit`a . . . . . . . . . . . . . . 121 6.7 Distribuzione geometrica . . . . . . . . . . . . . . . . . . . . 122 6.8 Sintesi di una distribuzione di probabilit`a: previsione e incertezza di previsione . . . . . . . . . . . . . . . . . . . . . . . 123 6.9 Previsione (o valore atteso) come baricentro della distribuzione 126 6.9.1 Osservazioni su terminologia e notazioni . . . . . . . 127 6.9.2 Valore atteso di una funzione di una variabile casuale . 128 6.10 Valore atteso di distribuzioni elementari . . . . . . . . . . . . 128 6.10.1 Distribuzione uniforme discreta . . . . . . . . . . . . 129 6.10.2 Processo di Bernoulli . . . . . . . . . . . . . . . . . . 129 6.10.3 Distribuzione geometrica . . . . . . . . . . . . . . . . 130 6.11 Incertezza “standard” di previsione . . . . . . . . . . . . . . . 130 Varianza e deviazione standard . . . . . . . . . . . . . 130 6.12 Propriet`a formali di varianza e deviazione standard . . . . . . 132 6.13 ❄ Momenti di una distribuzione e altri indicatori di forma . . . 133 6.14 ❄ Entropia come misura dello stato di incertezza . . . . . . . 134 6.15 Deviazione standard delle distribuzioni elementari . . . . . . . 134 6.15.1 Distribuzione uniforme fra 1 e . . . . . . . . . . . . 135 6.15.2 ❄ Distribuzione uniforme di valori fra e . . . . . 135 6.15.3 Processo di Bernoulli . . . . . . . . . . . . . . . . . . 135 6.15.4 Distribuzione geometrica . . . . . . . . . . . . . . . . 136 6.16 Processo di Bernoulli e percezione di probabilit`a prossime a 0 o a 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137. . . . c G. D’Agostini 2001. .  .

(6) vi. INDICE 6.17 ❄ Previsione e incertezza di previsione di vincita in giochi d’azzardo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 6.17.1 Gioco della roulette . . . . . . . . . . . . . . . . . . . 137 6.17.2 I sistemi “per vincere” al lotto . . . . . . . . . . . . . 139 6.18 Misure di centralit`a e di dispersione di distribuzioni statistiche141 6.19 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 143 6.20 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145. . 7. Distribuzioni di probabilita` di variabili discrete - II 7.1 Distribuzione binomiale . . . . . . . . . . . . . . . . . . . . . 7.2 Distribuzione binomiale – da capo . . . . . . . . . . . . . 7.3 Propriet`a della distribuzione binomiale e note sul suo uso . . . 7.3.1 Valore atteso e deviazione standard . . . . . . . . . . 7.3.2 Usi tipici della distribuzione binomiale . . . . . . . . 7.4 Distribuzione di Poisson . . . . . . . . . . . . . . . . . . . . 7.5 Processo di Poisson - prima parte . . . . . . . . . . . . . . 7.6 ❄ Formule ricorsive per la distribuzione binomiale e di Poisson 7.7 Propriet`a riproduttiva delle distribuzioni di probabilit`a binomiale e di Poisson . . . . . . . . . . . . . . . . . . . . . . . . 7.8 ❄ Altre distribuzioni di interesse . . . . . . . . . . . . . . . . Distribuzione di Pascal . . . . . . . . . . . . . . . . . Binomiale negativa . . . . . . . . . . . . . . . . . . . Distribuzione ipergeometrica . . . . . . . . . . . . . . 7.9 ❄Cammino casuale e problema della rovina del giocatore . . . ”? . . . . . . . . . . . . . . . . 7.10 Quanto credere in “ 7.10.1 Alcuni esempi numerici . . . . . . . . . . . . . . . . 7.10.2 Disuguaglianza di Markov . . . . . . . . . . . . . . . 7.10.3 Disuguaglianza di Cebicev . . . . . . . . . . . . . . . 7.11 Intervalli di probabilit`a, o di credibilit`a . . . . . . . . . . . . 7.12 ❄Previsione, penalizzazione e valore sul quale scommettere . . 7.13 Previsione di frequenza relativa e legge dei grandi numeri . 7.14 Previsione di una distribuzione statistica . . . . . . . . . . 7.14.1 Introduzione al concetto di correlazione fra variabili casuali . . . . . . . . . . . . . . . . . . . . . . . . . 7.15 Un esempio storico di distribuzione di Poisson come introduzione al problema della verifica delle leggi statistiche . . . . 7.15.1 Previsione del tipo di distribuzione . . . . . . . . . . . 7.15.2 Stima “puntuale” del parametro della distribuzione . . 7.15.3 Previsione quantitativa della distribuzione statistica, subordinata a , e confronto con le osservazioni . . Inferenza probabilistica su . . . . . . . . . . . . . . Previsione della distribuzione statistica subordinata all’incerteza su . . . . . . . . . . . . . . . 7.16 Estensione dei teoremi sulla probabilit`a alle funzioni di probabilit`a discrete . . . . . . . . . . . . . . . . . . . . . . . . . 7.17 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 7.18 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..   . 

(7) .   . .  . . . 147 147 149 151 151 154 154 156 161 161 162 162 164 165 166 168 168 170 170 171 172 173 174 175 176 176 176 177 178 179 179 181 184. c G. D’Agostini 2001.

(8) vii. INDICE 8. Distribuzioni di probabilita` di variabili continue 8.1 Variabili casuali continue e densit`a di probabilit`a . . . . . . . 8.1.1 Probabilit`a nulle con diversi gradi di fiducia . . . . . . 8.1.2 Dal grado di fiducia alla probabilit`a finita . . . . . . . 8.1.3 Funzione densit`a di probabilit`a . . . . . . . . . . . . . 8.1.4 Propriet`a della funzione densit`a di probabilit`a e della funzione di ripartizione . . . . . . . . . . . . . . . . . 8.1.5 Valori attesi . . . . . . . . . . . . . . . . . . . . . . . 8.2 Distribuzione uniforme continua . . . . . . . . . . . . . . . . 8.3 ❄ Simulazione al computer di processi stocastici . . . . . . . . 8.3.1 Costruzioni di altre semplici variabili casuali . . . . . Generica distribuzione uniforme fra e . . . . . . . Processo di Bernoulli e distribuzione binomiale . . . . Distribuzione uniforme discreta . . . . . . . . . . . . Marcia a caso . . . . . . . . . . . . . . . . . . . . . . 8.3.2 Scelta pesata con . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.3 Scelta uniforme lungo 8.4 Distribuzioni triangolari . . . . . . . . . . . . . . . . . . . 8.5 Distribuzione esponenziale . . . . . . . . . . . . . . . . . . . 8.6 ❄ Distribuzione esponenziale doppia . . . . . . . . . . . . . . 8.7 Distribuzione normale . . . . . . . . . . . . . . . . . . . . . 8.8 Distribuzione normale standardizzata . . . . . . . . . . . . . . 8.9 Uso delle tabelle dell’integrale della distribuzione normale standardizzata . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.10 ❄ Derivazione della gaussiana come limite di funzione binomiale o poissoniana . . . . . . . . . . . . . . . . . . . . . . . 8.11 Propriet`a riproduttiva della distribuzione normale . . . . . . 8.12 Processo di Poisson - Seconda parte . . . . . . . . . . . . . 8.12.1 Distribuzione del tempo di attesa del primo successo . 8.12.2 Relazione fra esponenziale e poissoniana . . . . . . . 8.12.3 Relazione fra esponenziale e geometrica . . . . . . . . 8.12.4 Tempo di attesa del -mo successo . . . . . . . . . . . 8.12.5 Intensit`a di pi`u processi di Poisson indipendenti . . . . 8.12.6 Vita media di decadimento . . . . . . . . . . . . . . . 8.13 ❄ Funzione generatrice dei momenti . . . . . . . . . . . . . . Binomiale . . . . . . . . . . . . . . . . . . . . . . . . Poissoniana . . . . . . . . . . . . . . . . . . . . . . . Gaussiana . . . . . . . . . . . . . . . . . . . . . . . . Altre propriet`a e applicazioni . . . . . . . . . . . . . . 8.14 Altre distribuzioni di interesse . . . . . . . . . . . . . . . . 8.14.1 Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.14.2 Gamma . . . . . . . . . . . . . . . . . . . . . . . . . 8.14.3 Chi . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.14.4 di Student . . . . . . . . . . . . . . . . . . . . . . . 8.14.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.15 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . 8.16 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..  . . .  . . . . c G. D’Agostini 2001. . . . 187 187 187 188 189 190 190 192 193 194 194 194 194 194 195 195 196 197 198 199 202 204 208 209 210 210 211 212 213 214 215 215 217 217 217 218 219 219 221 221 224 225 226 227.

(9) viii. INDICE. III Variabili casuali - II. 229. 9. 231 231 232 233 234. Variabili casuali multiple 9.1 Vettori aleatori . . . . . . . . . . . . . . . . . . . . . . . . . 9.1.1 Variabili casuali doppie discrete . . . . . . . . . . . . 9.1.2 Variabili casuali doppie continue . . . . . . . . . . . . 9.2 Distribuzioni marginali . . . . . . . . . . . . . . . . . . . . . 9.3 Estensione dei teoremi sulla probabilit`a alle distribuzioni di probabilit`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.1 Distribuzioni condizionate . . . . . . . . . . . . . . . 9.3.2 Variabili casuali indipendenti . . . . . . . . . . . . . . 9.3.3 Formula delle alternative e teorema di Bayes . . . . . 9.4 Previsione e incertezza di previsione . . . . . . . . . . . . . . 9.5 Covarianza e coefficiente di correlazione . . . . . . . . . . 9.5.1 Variabili correlate e misura della correlazione . . . . . 9.5.2 Propriet`a formali di covarianza e coefficiente di correlazione . . . . . . . . . . . . . . . . . . . . . . . . . Matrice di covarianza e matrice di correlazione . . . . . . . 9.6 9.7 Esempi di variabili doppie discrete . . . . . . . . . . . . . 9.8 Esempi di distribuzione bidimensionale continua . . . . . . 9.8.1 Distribuzione uniforme in un rettangolo . . . . . . . . 9.8.2 Distribuzione uniforme in un triangolo . . . . . . . . . 9.9 ❄ Distribuzione multinomiale . . . . . . . . . . . . . . . . . . 9.10 ❄ Distribuzione normale bivariata . . . . . . . . . . . . . . . 9.11 ❄ Caso generale di distribuzione multivariata . . . . . . . . . rispetto alle variabili casuali . . . . . . Derivate di 9.12 Distribuzioni statistiche multivariate . . . . . . . . . . . . . 9.13 varie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..    . . 10 Funzioni di variabili casuali e teoremi limite 10.1 Propagazione delle incertezze . . . . . . . . . . . . . . . . . . 10.2 Soluzione generale per variabili discrete . . . . . . . . . . . . 10.2.1 Regola generale . . . . . . . . . . . . . . . . . . . . . 10.2.2 ❄ Convoluzione di due funzioni di probabilit`a . . . . . 10.2.3 Trasformazione di una variabile distribuita uniformemente . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3 ❄Soluzione generale per variabili continue . . . . . . . . . . . 10.3.1 Cambiamento di variabile . . . . . . . . . . . . . . . Trasformazioni di una distribuzione uniforme . . . . . Applicazioni alle simulazioni di variabili casuali . . . Trasformazione lineare di una variabile distribuita normalmente . . . . . . . . . . . . . . . . . . 10.3.2 Caso di funzioni non monotone . . . . . . . . . . . . 10.3.3 Somma di due variabili . . . . . . . . . . . . . . . . . Somma di due variabili distribuite uniformemente . . . Somma di due variabili distribuite normalmente . . . . 10.4 ❄Uso della funzione generatrice dei momenti . . . . . . . . . 10.4.1 , con e poissoniane . . . . . . . . . 10.4.2 , con e gaussiane . . . . . . ..  ! #%&""'$ ($ "') $  $. 236 236 237 237 238 239 239 242 244 244 249 249 250 251 256 261 263 263 264 265 265 266 266 267 269 271 271 272 272 274 274 275 275 276 277 277 278. c G. D’Agostini 2001.

(10) ix. INDICE 10.5 ❄ Stime a bruta forza: metodi di Monte Carlo . . . . . . . . . 10.6 Riepilogo di alcune propriet`a delle funzioni di variabili casuali 10.7 Valore atteso e varianza di combinazioni lineari . . . . . . . . Valore atteso e varianza della distribuzione binomiale . Valore atteso e varianza della distribuzione di Erlang . Previsione di una media aritmetica di variabili aleatorie analoghe . . . . . . . . . . . . . . . . . 10.8 Correlazione fra diverse combinazioni lineari di variabili casuali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Covarianza di due medie aritmetiche . . . . . . . . . . Correlazione fra una variabile e una combinazione lineare che la contiene . . . . . . . . . . . . 10.9 Legge dei grandi numeri . . . . . . . . . . . . . . . . . . . . 10.9.1 Limite della media aritmetica . . . . . . . . . . . . . 10.9.2 Teorema di Bernoulli . . . . . . . . . . . . . . . . . . Lancio di una moneta . . . . . . . . . . . . . . . . . . Sul recupero dei numeri ritardatari . . . . . . . . . . . 10.10Teorema del limite centrale . . . . . . . . . . . . . . . . . . . 10.10.1 Distribuzione della media aritmetica . . . . . . . . . . 10.10.2 Convergenza in distribuzione della binomiale e della poissoniana . . . . . . . . . . . . . . . . . . . . . . . 10.11Estensione del teorema del limite centrale a variabili non indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.12❄ Simulazione di numeri aleatori distribuiti secondo una distribuzione normale . . . . . . . . . . . . . . . . . . . . . . . 10.13 Linearizzazione . . . . . . . . . . . . . . . . . . . . . . . 10.14 Esempio di applicazione alle incertezze di misure . . . . . 10.15 Moto browniano, “pallinometro” ed errori di misura . . . . 10.16❄ Distribuzione di velocit`a delle molecole di un gas perfetto . 10.17Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .  . IV. Applicazioni di statistica inferenziale. 11 Impostazione del problema. Caso di verosimiglianza gaussiana 11.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Verosimiglianza normale con nota . . . . . . . . . . . . . 11.3 Effetto di una prior rilevante: combinazione di risultati . . . 11.4 ❄ Derivazione di Gauss della gaussiana . . . . . . . . . . . 11.5 ❄ Caso di forte vincolo dato dalla prior . . . . . . . . . . . . 11.6 Caso di ignota . . . . . . . . . . . . . . . . . . . . . . . . 11.6.1 Ragionamento intuitivo . . . . . . . . . . . . . . . . 11.6.2 Possibili dubbi sul modello normale . . . . . . . . . 11.6.3 ❄ Inferenza simultanea su e . . . . . . . . . . . Prior uniforme in . . . . . . . . . . . . . . . . . . Prior uniforme in . . . . . . . . . . . . . . . . Incertezza su . . . . . . . . . . . . . . . . . . . . 11.6.4 Distribuzione di . . . . . . . . . . . . . . . . . 11.6.5 Conclusioni e raccomandazioni . . . . . . . . . . .. *,+.-/ 0213 4. c G. D’Agostini 2001. . 278 280 280 283 283 283 284 286 287 287 288 289 290 290 292 295 295 297 297 298 299 301 304 307. 309 . . . . . . . . . . . . . .. 311 311 313 316 318 320 322 323 324 324 325 327 328 331 333.

(11) x. INDICE 11.7 Distribuzione predittiva . . . . . . . . . . . . . . . . . . . . . 333 11.8 Combinazione scettica . . . . . . . . . . . . . . . . . . . . . 335 11.9 Problemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338 12 Verosimiglianza binomiale e poissoniana. Approssimazioni 12.1 Misure di conteggi, di proporzioni e di efficienze . . . . . . . 12.2 Inferenza su e (o ) in condizioni di normalit`a. . . . . . . 12.2.1 Caso poissoniano . . . . . . . . . . . . . . . . . . . . 12.2.2 Caso binomiale . . . . . . . . . . . . . . . . . . . . . 12.3 Caso generale di inferenza con verosimiglianza binomiale . 12.3.1 Caso di routine . . . . . . . . . . . . . . . . . . . . . 12.3.2 Casi critici . . . . . . . . . . . . . . . . . . . . . . . 12.3.3 Combinazione di misure indipendenti . . . . . . . . . 12.3.4 ❄ Uso della prior coniugata Beta . . . . . . . . . . . . Caso generale di inferenza con verosimiglianza poissoniana 12.4 12.4.1 Caso di routine . . . . . . . . . . . . . . . . . . . . . 12.4.2 Caso di con prior uniforme . . . . . . . . . . . 12.4.3 Combinazione di risultati . . . . . . . . . . . . . . . . 12.4.4 ❄ Uso della prior coniugata Gamma . . . . . . . . . . 12.4.5 Inferenza sull’intensit`a del processo di Poisson da osservazioni effettuate con diversi tempi di osservazione. 339 339 339 340 340 341 342 343 344 344 346 346 347 348 348. 13 Sufficienza statistica, limite a normale e metodi frequentistici. 351. 14 Effetti sistematici e di rumore 14.1 Considerazioni generali . . . . . . . . . . . . . . . . . . . . . 14.2 Soluzioni esatte sotto ipotesi di normalit`a . . . . . . . . . . . 14.2.1 Incertezza sullo zero dello strumento . . . . . . . . . 14.2.2 Correzione per errori sistematici noti . . . . . . . . . 14.2.3 Correlazione fra i risultati introdotta dalla non perfetta conoscenza dello zero dello strumento . . . . . . . . . 14.3 Effetto del background nella misura dell’intensit`a di un processo di Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 14.4 Propagazioni di incertezza, approssimazioni e linearizzazioni . 14.5 Matrice di covarianza di dati correlati . . . . . . . . . . . . . Offset uncertainty . . . . . . . . . . . . . . . . . . . . Normalization uncertainty . . . . . . . . . . . . . . . General case . . . . . . . . . . . . . . . . . . . . . .. 353 353 353 353 355. 358 361 361 361 362 363. 15 Adattamento di curve ai dati sperimentali e stima dei parametri 15.1 Inferenza sui parametri di una legge . . . . . . . . . . . . . . 15.2 ❄ Come tener conto anche di possibili incertezze sulle . . . 15.3 Formule dei minimi quadrati . . . . . . . . . . . . . . . . . . 15.3.1 nota e costante . . . . . . . . . . . . . . . . . . . 15.3.2 ignote e supposte costanti . . . . . . . . . . . . . 15.3.3 diverse e note a priori . . . . . . . . . . . . . . .. 365 365 367 368 368 369 369. 5  .  . 6 7. 98 98;: 98;:. . 349. 356. c G. D’Agostini 2001.

(12) xi. INDICE 16 Test di ipotesi 16.1 Riepilogo dell’approccio probabilistico . . . . . . . . . . . . 16.2 Schema di test di ipotesi nell’approccio frequentista . . . . . . 16.3 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . .. 371 371 371 371. V. 373. Soluzione dei problemi. c G. D’Agostini 2001.

(13) xii. INDICE. c G. D’Agostini 2001.

(14) Parte IV. Applicazioni di statistica inferenziale.

(15)

(16) Capitolo 11. Impostazione del problema. Caso di verosimiglianza gaussiana 11.1 Introduzione Il problema dell’inferenza probabilistica e` stato ampiamente discusso nel capitolo ??. In particolare, partendo da esempi intuitivi, e` stata illustrata la potenza del teorema di Bayes per riaggiornare la probabilit`a di ipotesi alla luce di nuovi fatti. Successivamente, abbiamo visto, rispettivamente nei paragrafi 7.16 e 9.3.3, come il teorema di Bayes si applicchi sia a funzioni di probabilit`a che a funzioni di densit`a di probabilit`a. Siccome in questa parte ci occuperemo essenzialmente di grandezze il cui valore pu`o assumere valori con continuit`a, faremo uso della formula (9.12), che riscriviamo qui nel seguente modo. (11.1) 

(17) < dati =9>?@A dati <B =C>DFE2HG3

(18) <I>D9= avendo indicato con il valore vero della grandezza che vogliamo inferire, con ‘dati’ i valori osservati e avendo omesso l’inessenziale fattore di normalizzazione (come ampiamente discusso nel capitolo ??). La condizione di sfondo > tiene conto della globalit`a del nostro stato di informazione sulla misura (grandezza da misurare, comportamento degli apparati e delle procedure, condizioni ambientali, etc.). Come discusso nell’introduzione alle variabili casuali (paragrafo ??, in particolare gli ultimi due punti), nell’impostazione seguita in questo testo osservazioni e valori veri giocano un ruolo simmetrico.. J. J. Posso affermare quanto credo all’osservazione di certi dati sperimenatali, subordinatamente ad ogni ipotesi di valore vero e delle condizioni sperimentali, ossia esplicito la mia verosimiglianza dati . E in questo caso sono i valori dei dati ad essere numeri incerti..  <B K>D. Posso affermare quanto credo ai possibili valori di , subordinatamente all’osservazione di certi valori dei dati. In questo caso e` il valore vero ad essere un numero incerto, mentre i dati sperimentali sono per defi-.

(19) 312. Impostazione del problema. Caso di verosimiglianza gaussiana. f(µ|xo) valore vero. µ1. µ2. µ. f(x|µ) valore osservato. x. xo. L. Figura 11.1: Schema generale del modello modello inferenziale basato sulla pro-. M. babilit`a condizionata. L’asse delle rappresenta il mondo reale delle osservazioni. L’asse dei rappresenta invece i possibili valori dei parametri della teoria, che, come tali, non si manifestano direttamente ai nostri sensi.. 

(20) < =N>?. >. nizione certi, in quanto ‘dati’.1 Il risultato dell’esperimento sar`a quindi della forma dati , dove con sono state indicate, ripetiamo, tutte le informazioni di contorno su grandezza da misurare, strumenti di misura e fattori di influenza.. %GO

(21) <I>?. Lo schema generale di inferenza e` illustrato in figura 11.1 L’importanza cone` stato discusso nel capitolo ?? e verr`a ripreso nel cettuale della prior seguito, mostrando come sia praticamente irrilevante nei casi di routine. Si ricorda, infine, che il ruolo della verosimiglianza e` quello di modificare il grado di fiducia in ciascun valore di , come ovvio dalla formula (11.1). Il resto del capitolo consister`a nell’applicazione sistematica della formula (11.1) a diverse situazioni che si verificano frequentemente nella pratica di laboratorio. La condizione di contorno verr`a in genere sottintesa, a meno che non la si voglia esplicitare per tenere conto dell’incertezza su grandezze di influenza (i cosiddetti effetti sistematici).. >. 1. Come discuteremo nel seguito esiste una corrente di pensiero, fortunatamente in declino fra coloro che si occupano dei fondamenti dell’inferenza statistica, ma tuttora in auge per quanto riguarda le applicazioni, la quale nega che si possa parlare di probabilit`a dei valori veri. Questo e` il motivo per cui si sente ancora parlare di “incertezza dei dati”, una vera assurdit`a che fa pensare che si pu`o essere in stato di incertezza di fronte al numero letto sul display di uno strumento. L’incertezza e` invece sul valore della grandezza che con quello strumento si vuole misurare, ed e` compito dell’inferenza statistica esprimere correttamente tale incertezza.. c G. D’Agostini 2001.

(22) 11.2 Verosimiglianza normale con. 313. nota. Vedremo anche come usare delle approssimazioni per semplicare i conti nei semplici casi di routine.. 11.2 Verosimiglianza normale con. P. nota. L’interesse per la distribuzione di Gauss e` giustificato dal ‘fatto’ che essa descrive abbastanza bene la distribuzione degli errori di misura. 2 Le ragioni per la quale adottiamo tale modello sono le seguenti. Innanzitutto, dal confronto fra i singoli valori osservati e la loro media (o un valore vero convenzionale, nei casi fortunati in cui si riesca a calibrare le misure su una grandezza di riferimento) si nota che la distribuzione degli scarti (“errori”) somiglia ad una gaussiana nel senso visto a proposito dell’approssimazione normale di distribuzioni di variabili casuali discrete (vedi paragrafo 10.10). Come in quel caso la gaussiana si estendeva per valori al di fuori del range della variabile (tipicamente valori negativi, o valori maggiori di nel caso della binomiale), anche in questo caso bisogna prestare attenzione a non prendere troppo sul serio le code della gaussiana. La seconda ragione e` legata al teorema del limite centrale, in base ad argomenti simili a quelli per descrivere il cammino casuale incontrato nel paragrafo 10.15. Ammettiamo che nel processo di misura ci siano molti effetti di disturbo, ovvero dei piccoli errori di valore atteso nullo e deviazione standard . L’errore totale e` dato da , di varianza . Se valgono le condizioni del teorema del limite centrale, ci aspettiamo che sia descritto da una gaussiana di valor medio zero e deviazione standard . In genere questa approssimazione e` abbastanza buona, soprattutto perch´e e` frequente il caso in cui sono le stesse ad essere descritte con buona approssimazione da una gaussiana. Infine, a volte l’inferenza non e` fatta a partire da una singola osservazione, ma dalla media di molte osservazioni, come se si trattasse di una singola osservazione equivalente. Questa operazione e` legata al concetto statistico di sufficienza, su cui torneremo nel seguito (vedi paragrafo ***). Anche in questo caso, interviene il teorema del limite centrale che ci fa credere che questa ‘osservazione equivalente’ pu`o essere descritta da una gaussiana. Stanti queste ipotesi (o “credenze” o “assunzioni ragionevoli” che dir si vogliano), tendiamo a credere che la singola osservazione (o osservazione equivalente) sar`a descritta da. . Q6VQSR U R Q R. QR. .  ]. W XU R QR W. YZ[ =\ W 9=. TR. (11.2). Applicando il teorema di Bayes, includendo il fattore di normalizzazione, abbiamo per :. 2. _` Q.f gih(jIork.q dlno mpo .GO ] v 

(23) <B^ s %_ acbed gih(jIork.q lno m o ` %acbed Q.f d .GO ]?tu. (11.3). ‘Fatto’ e` fra virgolette perch´e non c’`e nessuna necessit`a logica che ci obblighi ad adottare tale modello; abbiamo soltanto ottimi argomenti, sia di natura teorica che empirica che ci fanno pensare che molto probabilmente sar`a cos`ı.. c G. D’Agostini 2001.

(24) 314. Impostazione del problema. Caso di verosimiglianza gaussiana. wGO ]. Resta ora da discutere cosa usare per . Come si pu`o immaginare, la presenza della prior crea molto imbarazzo fra coloro ritengono che la probabilit`a sia ‘oggettiva’, e non semplicemente una descrizione del nostro stato di incertezza, nella quale i possibili valori dei numeri incerti sono flassificati in plausibilit`a. Simili reazioni provengono da coloro (pi`u o meno gli stessi) che considerano l’inferenza un esercizio matematico, e non, come deve essere, una costante modifica delle nostre credenze alla luce di nuovi fatti sperimentali. Se ci si mette nell’ottica di considerare esclusivamente situazioni pratiche, di modellizzare onestamente quello che si sa e prendere i modelli ‘cum grano salis’ non ci sono problemi seri, a parte quello di trovare le approssimazioni adatte per semplificare i conti quando i conti diventano complessi. Facciamo un esempio pratico. Il lettore vuole misurare la temperatura della stanza dove sta in quest’istante. Se vuole effettuare la misura, vuol dire che vuole conoscerla meglio di quanto ne sa in quest’istante, ma non che lui non ne sappia assolutamente niente. Qualsiasi persona e` in genere in grado di indovinare la temperatura entro qualche grado, e per questo ci si stupisce quando un termometro indica valori molto diversi da quello che ci si aspetta (tanto da far sorgere il dubbio che il termometro sia rotto!). Quindi, nell’eseguire la misura si sceglier`a lo strumento adatto, tale da migliorare la propria conoscenza. Se un amico ci desse uno strumento formidabile (per le sue potenzialit`a) in grado di misurare la temperatura assoluta da 0 a un milione di gradi entro un errore di 5 gradi, non lo accetteremmo per l’applicazione specifica: qualsiasi cosa leggeremo sullo strumento, crederemo ancora e soltanto a quanto possiamo indovinare dalla nostra sensazione fisiologica. Riassumendo, nelle condizioni ordinarie delle misure, l’informazione riassunta in e` molto pi`u vaga di quella che ci pu`o fornire lo strumento, ovvero e` molto pi`u larga di , letta in funzione di per fissato (dato). Detto ancora in altri termini: nella regione in cui la verosimiglianza , la e` circa costante, varia rapidamente (“su e giu”) intorno a mentre per valori lontani da esso, le code gaussiane della verosimiglianza rendono l’esatta forma di irrilevante. Un esempio e` mostrato in figura 11.2.. .GO ] HGO ]. x<B ]. %G3 ]. y   y ?GO ]. %GS ]^z. Quindi, quando valgono queste condizioni, si pu`u modellizzare la conoscenza a priori come , costante in un intervallo “abbastanza ampio”. Per sola convenienza matematica, estendiamo tale intervallo a coprire l’intero asse reale. Ne segue che nella (11.3) la , si semplifica. Abbiamo allora:. ?GO ]{| _` QOf gih(ork.q lndo m o 

(25) <B s} Hac_ bed gih(orkOq l(o m o v (11.4) ` f } waTb d QOf d tC L’integrale di normalizzazione e` pari a 1, in quanto l’integrale della funzione di Gauss rispetto a e` uguale all’integrale rispetto a  , che sappiamo valere 1. Il risultato finale e` quindi gileork.q h\o m‚o 0 

(26) <B^ ~ € W Q.f d ƒ (11.5) c G. D’Agostini 2001.

(27) 11.2 Verosimiglianza normale con. 315. nota. fH1ÈΜL 5 4 prior vaghe 3 2 1 1. 0.5. 1.5. 2. Μ. Figura 11.2: Esempio di prior (curve tratteggiate) molto pi`u vaghe della verosimiglianza dello strumento (curva continua). Per questioni di resa grafica, le prior sono a meno di una irrilevante costante di normalizzazione..  . Si noti la banale (formalmente) inversione di e all’esponente della funzione di Gauss, a ricordare che ora e` ad essere il numero incerto. Dalle note propriet`a della gaussiana, arriviamo alle seguenti conclusioni.. J J J. La previsione di.  „  †! .. e` pari a : E. L’incertezza (standard) di previsione e` pari a. ‡x W .. Il risultato pu`o essere riportato nella forma. ˆ!x ' W =. a meno che non lo si voglia dare sotto forma di intervallo di probabilit`a. In questo caso va specificato chiaramente, dindicando anche il livello di probabilit`a prescelto. Avremmo quindi:. Livello di Probabilit`a (Livello di confidenza) 68.3% 90.0% 95.0% 99.0% 99.73%. Intervallo di probabilit`a (Intervallo di confidenza). ‰ '0 v‹Š. Œ W W x ‰‰ 0 v‹v‹.Œ.ŠŽ WW ‰  W. Abbiamo usato anche le espressioni “livello di confidenza” e “intervallo di confidenza”, con il significato che si d`a a loro nel linguaggio naturale (e non quello astrusa della prassi statistica detta “frequentista”).. c G. D’Agostini 2001.

(28) 316. Impostazione del problema. Caso di verosimiglianza gaussiana. 11.3 Effetto di una prior rilevante: combinazione di risultati A questo punto, una domanda naturale e` cosa succede se la prior non e` proprio talmente vaga da essere ininfluente sulla distribuzione di probabilit`a finale. Per semplificare i conti, modellizziamo la nostra conoscenza a priori con una gaussiana centrata in e di deviazione standard . Ad esempio, tale stato di conoscenza potrebbe derivare da una precedente misura effettuata nelle condizioni del paragrafo precedente. Come discusso a lungo nel capitolo 5, nello schema bayesiano il riaggiornamento della probabilit`a si effettua usando come prior la distribuzione finale dell’inferenza precedente. Nel nostro caso, abbiamo. FG. G. _` QOf gih(orkOq l(do mpo ` _ Q f gilek.orql ’o’ m o 

(29) <B]=\ W = 4G3=\ †Ge‘ s %_ acb d gih(oek.q lno m o %_ ab;’ g“l;kOorql o’ m o v (11.6) ` Hacb d QOf d ` Hacb;’ Q f ’ d. L’integrale e` un po’ pi`u complicato del caso precedente. Con le opportune semplificazoni3 il risultato dell’inferenza e` :. gilek.orql–•o•Nmpo 0 (11.7) 

(30) <B]=\ W = G =\ G ^ ~ € 9” Q f = con c”  021313 T W W "—"A 402Ge1313 TG G = (11.8) 0  0 " 0 v (11.9) ”  W  G I possibili valori di sono ancora descritti da una gaussiana centrata in corrispondenza della media pesata fra  e G , con pesi pari all’inverso delle varianze. Previsione e incertezza di previsione valgono E ˜/ ” e ^ ]/ N” . Il caso di prior vaga e` recuperato per cGš™œ› (con ]G ‘ragionevole’). Poich´e il risultato E  ]ž6 Ÿ W e` quello che si ottiene quando la prior e` ininfluente, mentre la previsione precedente E G. ]

(31)   4G¡ ¢ 9G pu`o essere £?¤p¥?¦¨§ ©Iª2«{¬®­°²¯ ± ­ ° ¥^³O´ ’†o µ ¥ o ´ ´ ’o o µ ­ ´ °o ¥¥ ’ ´ do µ ¥ o ´ do ¶4· d À µ qr¿ ’ h l r q ¿ ¥ ­  ¥ ¾ ° o I À Á ¸ ©Iª2«

(32) ¹ºI­°¼¯ »½ ¤Ä´ o ´ o ¦ÇÆ2¤Ä´ q o ¿ Á q ¿À&´ o ¦

(33) à ÈÉ¡ÊË d]° Å ¥¥’ • d µ ’ ¥ ­ o ¸ ©Iª2«{¬®­ °²¯ ± ´ •o § ©Iª2«{¬®­ ¤p¥Ì°­´ ¥ •o • ¦ o ¶4· · ©Iª2«wÍi­ ° ¥ •o Ɩ´ •Do Î 3. A parte fattori moltiplicativi, abbiamo. In particolare, nell’ultimo passaggio abbiamo “complementato” l’esponenziale moltiplicando e dividendo per . Normalizzando, otteniamo la 11.7.. c G. D’Agostini 2001.

(34) 317. 11.3 Effetto di una prior rilevante: combinazione di risultati pensato come dovuto ad una precedente inferenza, le (11.8) e (eq:waver2) ci mostrano come combinare due risultati parziali. In particolare, interpretando l’inverso della varianza come peso statistico, la (11.9) ci dice che il peso statistico risultante dall’inferenza globale e` pari alla somma dei pesi statistici delle inferenze parziali. A questo punto, la combinazione di molti risultati parziali indipendenti, ciascuno ottenuto da una prior vaga e` abbastanza ovvio. E` istruttivo ragionare in due modi diversi.. J. Ï  _ =\ _eÐ Ï  _  ]n= =\ Ð  ve vev Ï 3Ò _  ]n=9ÒN=\ NÒ Ð f. Ñ ™  _  ]A

(35) <B _ =\ _  Ñ ™    ]A

(36) <B _ =\ _ =  =\   vevev Ñ ™ 

(37) <BÓ=\ 49= ove abbiamo indicato con Ó e l’insieme dei valori osservati e delle deviazioni standard legate alla verosimiglianza di ciascuna di esse. Possiamo immaginare una catena di inferenze, del tipo. Applicando iterativamente il teorema di Bayes abbiamo:. J. 

(38) <BÓ]@z _ <B ]9EeEeE( Ò <Ô= ]^zÕ R NRC<B ] v Ó. (11.10).  dati <B ]AÓ

(39) <B ]^ Õ R NRC<B ] v. Il secondo modo consiste nel pensare alla verosimiglianza congiunta di osservare per ogni ipotesi di : (11.11). Otteniamo lo stesso risultato indipendentemente dal percorso seguito, il ch´e e` confortante, visto che entrambi i ragionamenti sono legittimi (vedi anche discussioni in proposito nel capitolo 5). In conclusione, abbiamo la seguente regola di combinazione:.  ]‘ U U R ER R 02 ]13 13R T ]R  ] (11.12) 0  Ö 0 = (11.13)   ] R R  ] che possiamo riscrivere, facendo riferimento agli  valori osservati  R e alle deviazioni standard delle relative verosimiglianze come U R  R 13 TR E  ]× (11.14) U R 0213 R 0 0 (11.15)   ]  Ö R R v E. Si noti il carattere pi`u generale delle (11.12) e (11.13) rispetto a queste ultime, in quanto quelle possono far riferimento a situazioni pi`u complicate delle semplici osservazioni individuali. Ad esempio, ciascuna previsone E pu`o derivare essa stessa da una precedente combinazione o da un’analisi complicata. Un esempio di inferenza combinata e` mostrata in figura 11.3.. . c G. D’Agostini 2001. R  ].

(40) 318. Impostazione del problema. Caso di verosimiglianza gaussiana fHΜL 5 4 3 2 1 1. 0.5. 1.5. 2. Μ. Figura 11.3: Esempio di combinazione di quattro inferenze indipendenti (curve tratteggiate) risultanti in un’unica inferenza globale (curva tratteggiata).. . R . Tornando alle osservazioni individuali indipendenti, vediamo il caso in cui la deviazione standard sia la stessa per tutte le osservazioni, ovvero . Le (11.14) e (??) diventano. ØÚÙ.  ]× ^ ]×. E. 0  ÖR R ~  v. (11.16) (11.17). . La previsione di e` pari alla media aritmetica delle osservazioni. Inoltre, si vede come l’insieme delle osservazioni indipendenti hanno un peso statistico di volte quello di una singola osservazione.. . 11.4 ❄ Derivazione di Gauss della gaussiana A questo punto e` interessante mostrare con quali argomenti Gauss introdusse la funzione che porta il suo nome4 . Essa era, infatti gia`a nota molto primo di Gauss, come limite della binomiale (vedi paragrafo 8.10). L’interesse nella derivazione di Gauss e` che essa fu ottenuta nel contesto dell’inferenza probabilistica, ma come soluzione di un problema inverso: qual’`e la forma pi`u generale della verosimiglianza tale che il massimo di probabilit`a di coincida con la media aritmetica? Nel risolvere questo problema, dapprima Gausss deriv`o la formula della probabilit`a delle ipotesi, assumendo equiprobabilit`a iniziale. 4. Vedi ad esempio F. Sibirani, “Calcolo delle probabilit`a”, in Enciclopedia delle Matematiche Elementari e Complementari, a cura di L. Berzolati, Hoepli, 1949 (ristampa anastatica 1987), Volume III, parte 2 , pp. 234-236. Le citazioni in latino sono dallo scritto originale di Gauss Theoria motus corporum coelestium in sectionibus conicis solem ambientium” del 1809. Esse sono riportate per mostrare come l’impostazione di questo testo, seppur moderna, se confrontata con la prassi statistica del XX secolo, si rif`a al modo di pensare originario sulla probabilit`a di Gauss, Laplace, Bernoulli etc.. Û. c G. D’Agostini 2001.

(41) 11.4 ❄ Derivazione di Gauss della gaussiana. 319. delle ipotesi. In pratica ottenne il teorema di Bayes nel caso particolare di probabilit`a iniziale delle ipotesi, concetto a lui molto chiaro (“ante eventum cognitum”, contrapposto a “post eventum cognitum”). Quindi, passando alle osservazioni sperimentali (usando la nostra simbologia), cerca la forma della funzione incognita che descrive la probabilit`a di ottenere dal valore vero (sempre nella nostra simbologia). La (funzione densit`a di) probabilit`a del campione e` allora data da.   R Ü. Ó Ó

(42) <B ]^zÜÝ _/Ñ ]]E3ÜÝ  Ñ ]FEÌEeEeEÞESÜÝNÒ Ñ ] v. R. (11.18). A questo punto intervengono due ipotesi:. 1. Tutti i valori di sono ritenuti a priori (“ante illa observationes”) ugualmente probabili (“... aeque probabilia fuisse”).. ˆ . . 2. Il massimo di probabilit`a a posteriori (“post illas observationes”) si ottiene per , media aritmetica degli valori osservati. Dalla prima ipotesi segue. 

(43) <BÓ]@AÓ

(44) <B ]/zÜÝ _ßÑ ]FESÜÝ  Ñ ]]EÌEeEeEÌEOÜß9Ò Ñ ] v Per far uso della seconda, si impone che la derivata prima si annulli in ˆ  : d 

(45) <BÓ] d.  ã 7 c  ä å Õ ÜÝ R Ñ ]Iæ ‡3á â  7ç= d d ààà ‡Oá â à ovvero Ö R ÜcÜßèé  Ù R Ñ Ñ T†   7ç= ove Ü è sta per la funzione derivata di ê rispetto a . Chiamando ë la funzione Ü4èì1.Ü e indicando con í R | R Ñ  gli scarti dalla media, i quali devono soddisfare la condizione U R í R  7 , abbiamo î U R ëÌïí R ^!7 (11.19) U R í R  7 = la quale, dovendo essere valida indipendentemente da  e dal valore degli scarti, d`a il seguente vincolo alla forma funzionale di ëÌïíw : 0 ëÞïíw/zÌ= (11.20) í ó : ð ò ¤,óe¦ ð ñ : ð9ò ¤,ó : ¦ ó : ¸õó ô ¸÷ö ô : ñ ö ð ¤,óe¦C§¼ñ ó : : ¤ù ­ ø ¦ ù ö ú ú ¸ ­ öø Æ2¤ ù ø ­ ø ¦ ø ð ¤ö ¦ µ ¤ù ­ ø ¦ ð ¤ú ¦ ¸ ô 5. 5. Il modo pi`u semplice di usare la condizione di vincolo quello di passare ai differenziali di : d ( ), con la condizione che si riflette in un’analoga condizione sui differenziali: d . Affinch´e ( ) sia sempre valida, deve essere costante, da cui segue e quindi la (11.20). Un modo pi`u vicino alla dimostrazione originale di Gauss e` di pensare al caso in cui degli scarti acquistino il valore e gli altri acquistino il valore , con , in virt`u degli vincolo della media aritmetica. Abbiamo allora. c G. D’Agostini 2001.

(46) 320. Impostazione del problema. Caso di verosimiglianza gaussiana. í Ñ&û 7. Ü  íõž7. ëÌïí?13íüž. con costante (il limite non e` un problema, in quanto la derivata di in si annulla e la condizione implica che numeratore e denominatore ci devono tendere con la stessa “rapidit`a). Ne segue. Ü Ü Aýí díý= Ovvero o9ÿ o AQ f o ÿ o = ß Ü ï  ? í ^  A @ N Q þ (11.21)  ove C1 e` stato chiamato Ñ  per imporre che esso deve essere negativo in quanto Ü ha il massimo in í 7 . Normalizzando la funzione mediante il suo integrale da Ñ › a › , conto dovuto a Laplace (“ab ill. Laplace inventum”), d. la funzione “di Gauss” e` (“funtio nostra fiet”):. ÜÝïíw/ ~  € Q f o ÿ o. .. 11.5 ❄ Caso di forte vincolo dato dalla prior Anche se, per evitare ogni pedanteria, e` stato suggerito che, per i casi di routine, una prior uniforme e` pi`u che ragionevole, un ricercatore esperto ha sempre delle prior in mente, e con esse valuta il risultato. Lo pu`o accettare tranquillamente, diffidando quasi sempre delle code di probabilit`a perch´e e` ben cosciente dei modelli matematici che usa; oppure si pu`o insospettire e controllare meglio lo strumento; oppure pu`o decidere di ripetere le misure, e cos`ı via. Ad esempio, se si guarda al volo verso ora di pranzo un orologio che non si sa essere rotto e si legge 12:27 si prende per buona tale osservazione (immagino che questa o analoghe esperienze sia capitata a molti), mentre se avesse indicato 17:43 la si sarebbe rifiutata. Lo stesso vale per voltmetri rotti, termometro starati e cos`ı via. Lo sperimentatore esperto ha sempre delle prior che, pur nella loro vaghezza, sono molto solide e filtrano le piccole disavventure che capitano in laboratorio. Uno strumento rotto, un procedimento di misura sbagliato o un errore di calcolo possono produrre effetti drammatici nel risultato. Lo sperimentatore che ha buone prior, sviluppate con anni di ricerca pu`o sbagliare del 30%, del 50% o addirittura di un fattore due, ma raramente di fattori 10, 100 o 1000. Purtroppo questo discorso esula da questa trattazione e niente pu`o sostituire l’esperienza diretta. Vogliamo mostrare qui soltanto un caso, molto da cui. g Bm ¸ ø. ð ¤ ö ¦ ¸ ­ ù ­ø ø ð ± ­ ù ø­ ö ø ¯ö ð ¤ ö ¦ ¸ ­ ù ø­ ö ø ð ± ­ ù ø­ ö ø ¶ ¶ ö. . ø ¸ ù ø­ ¯. Poich`e questa relazione non deve dipendere dal valore di scelto, e nemmeno da dimostrazione originale di Gauss viene preso in considerazione soltanto il caso condizione   e` assunta universale, e questa porta alla gaussiana.. (nella ), la. c G. D’Agostini 2001.

(47) 11.5 ❄ Caso di forte vincolo dato dalla prior. 321. fHmΝ L 0.6 0.5 prior vaghe Hnon in scalaL. 0.4 0.3 0.2 0.1 x=-5.41 -10. x=10 10. 20. 30. mΝ. Figura 11.4: Esempio di inferenza in prossimit`a del limite fisico di una grandezza. L. (massa del neutrino in unit`a di eV/c  ) con tre diverse prior ‘motivate’ e due diverse osservazioni. Si noti come, nel caso dell’osservazione negativa (

(48)    ) le tre distribuzioni finali sono praticamente coincidenti.. schematizzato, di come comportarsi quando il risultato ottenuto da una rapida applicazione delle formule precedenti cozza violentemente con le proprie convinzioni. Immaginiamo un esperimento progettato per misurare la massa del neutrino (di tipo elettronico). Assumiamo che, la conoscenza dettagliata dell’esperimento induca gli sperimentatori a credere che le possibili osservazioni ‘equivalenti’ (nel senso specificato sopra, ovvero il numero al quale si arriva avendo elaborato opportunamente la massa di dati) siano descritte da una gaussiana centrata intorno alla massa vera, con deviazione standard 3.3 eV/c (per avere un’idea dell’ordine di grandezza, in questa unit`a di misura la massa dell’elettrone e` 511 mila, quella del protone 938 milioni). Alla fine dell’esperimento  eV/c . Cosa dobbiamo concluderne? Che il neutrino si ottiene abbia, con probabilit`a del 95% una massa negativa? Oppure che l’esperimento sia “sbagliato”? Se prima di questo esperimento i fisici erano convinti che la massa del neutrino pu`o essere al pi`u qualche decine di eV/c , come viene modificata la loro conoscenza? (Si noti che sotto l’ipotesi “esperimento sbagliato” non si impara niente). In questo caso, la prior forte e` che la massa debba essere non negativa. Inoltre si e` praticamente convinti che essa non pu`o essere troppo grande (altrimenti avrebbe dato effetti in altre osservazioni precedenti). Con queste considerazioni, tenendo conto che l’esperimento e` stato proposto, finanziato e costruito con lo scopo di vedere qualcosa, si pu`o modellizzare l’incertezza in diversi modi (vedi figura 11.4):. .   Ñ Œ?v 0. . . J. . Una distribuzione uniforme fra 0 e 30 eV/c :. .G²ˆz[021OO7. c G. D’Agostini 2001. ï7ŸO7%. (11.22).

(49) 322. Impostazione del problema. Caso di verosimiglianza gaussiana. J. 0e7.   . G²ˆ ~ € † G. J. una mezza gaussiana centrata su zero con deviazione standard eV/c :. !#"%$. &. Ñ    (G '. ) 7%. ]G'. (11.23). una distribuzione triangolare. .G+*߈ %Œ0 7 Ç O7 Ñ ˆ  ï7 O7% v. (11.24). La “mezza-gaussiana” ha il vantaggio di ammettere anche valori di massa molto grandi, seppur molto poco plausibili. Consideriamo per semplicit`a la distribuzione uniforme. Inserendola nella formula di Bayes otteniamo. _ !#"%$-, Ñ/. â f(02o41 o 3  `  <B]=–.GÞ‘ s67 57 ` %_ acb !#"8$-, Ñ/. â %b o4o 3 çt(: (11.25) (091 f Hacb &  Ñ wb I ?  ‹ v Ž 0 v  ~ O€ !#"%$ Ñ   ' ï7;<= O7% (11.26) Come conclusione dell’esperimento, il valore al quale crediamo di pi`u e` zero (moda), ma ˆ e` diversa da zero fino a 30 eV/c  . In questi casi e` conveniente dare il risultato come limite superiore ad un certo livello di probabilit`a.. Facendo i conti otteniamo:. >.  v‹ eV13) . al. 7 v‹.Œ@?. di probabilit`a. v. (11.27). Se avessimo usato le altre prior avremmo avuto.  vBA eV13)  al 7 v‹.@Œ ? di probabilit`a = (11.28) praticamente lo stesso valore (soprattutto se confrontato con la risoluzione sperimentale di  v  eV 13)e ). Ben diverso e` il caso in cui si osserva un valore positivo ben distanziato dallo zero, esemplificato in figura 11.4 dal punto   0e7 . Sebbene l’inferenza dipende leggermente dalla prior (ma in modo irrrilevante dal punto di vista >. pratico) si vede che anche la banale inversione intuitiva di probabilit`a d`a un risultato soddisfacente.. 11.6 Caso di. P. ignota. Nei paragrafi precedenti abbiamo assunto di avere gi`a delle idee sulla deviazione standard del modello gaussiano di verosimiglianza. Ovvero, ci siamo posti nelle condizioni di avere gi`a acquisito una certa esperienza, o comunque una certa confidenza, sul comportamento della singola osservazione (o osservazione equivalente). E` preferibile parlare, in termini generali, di confidenza piuttosto che di esperienza, in quanto il nostro modello (e i sui parametri) possono derivare, e e` spesso il caso, da simulazioni, estrapolazioni e analogie, piuttosto. c G. D’Agostini 2001.

(50) 11.6 Caso di. 323. ignota. che da una vera sperimentazione su quella grandezza fisica, in quell’intervallo di valori possibili e in quelle condizioni sperimentali. Vediamo ora come valutare del modello gaussiano avendo registrato osservazioni in condizioni apparentemente identiche (nei limiti di un controllo reale dell’esperimento e non dal punto di vista di un diavoletto di Maxwell in grado di percepire qualsiasi variazione microspopica) e avendo osservato una dispersione di valori, intorno a un valore medio . Quantifichiamo la dispersione dei valori con la deviazione standard del campione statistico, che per evitare confusione con il parametro della gaussiana, chiameremo C . Abbiamo quindi:. . .    0 Ö R 9R 0 C   Ö R  R Ñ   ED   Ñ   v. (11.29) (11.30). Avendo introdotto questi riassunti statistici del campione in esame, procediamo per passi. Infatti questo e` uno degli argomenti nei quali ci si pu`o far prendere la mano dalla matematica dimenticando il proprio stato di conoscenza sulla natura delle cose e facendo perdere di mira gli obiettivi pratici.. 11.6.1 Ragionamento intuitivo Il modo pi`u semplice di ragionare, senz’altro valido quando grande, e` il seguente.. J.  ]. . e` abbastanza. 41 ~ . J. Abbiamo visto che, assumendo il parametro identico in tutte le oservazioni, la previsione di E e` uguale alla media aritmetica, indipendentemente dal valore di , con incertezza di previsione .. J. RÑ . . Possiamo allora dire che il valore vero di sia approssimativamente , e quindi gli scarti siano circa uguali agli scarti delle osservazioni dal valore vero. La media dei quadrati degli scarti rispetto alla media e` , di consequenza, approssimativamente ugale alla media degli scarti rispetto al valore vero, ovvero F C ..  . In conclusione, abbiamo.  ]ã  (11.31) W F C C (11.32) (11.33) ^ ] F ~  (11.34) Y F Z  ]= ~ C   Si noti il simbolo “=” per la prima uguaglianza e “ F ” per le altre. In fatti mentre l’espressione della previsione di e` “esatta” (nel senso di previsione probabilistica e con la sua incertezza) le alte dipendono dall’incertezza di previsione di e quindi sono “esatte” soltanto nel caso di  “molto grande”. E. c G. D’Agostini 2001.

(51) 324. Impostazione del problema. Caso di verosimiglianza gaussiana Nel seguito vedremo, pi`u formalmente, l’origine e il limite di queste approssimazioni. Per ora possiamo assicurare che questo ragionamento va abbastanza bene, ai fini dei risultati quantitativi e interessandoci soltanto alla ragione di dove e` condensata la massa di probabilit`a, per )HG ..  6 0e7%. 11.6.2 Possibili dubbi sul modello normale A questo punto e` naturale la domanda di come si faccia ad essere “sicuri” del modello gaussiano. Come discusso pi`u volte nel testo e, pi`u specificatamente nel paragrafo 11.2 introducendo l’inferenza con modello gaussiano, non siamo sicuri di niente, altrimenti non avremmo affrontato questo lungo discorso sulla logica dell’incerto. In particolare, nel paragrafo 11.2 abbiamo passato in rassegna le credenze che ci portano ad adottare, almeno in prima istanza, il modello gaussiano. Se, da un’occhiata ai dati sperimentali, sorge il sospetto che un modello alternativo possa descrivere meglio la dispersione delle osservazioni lo si pu`o prendere in considerazione, soppesando opportunamente l’abilit`a del nuovo modello nel descrivere i dati sperimentali con la sua plausibilit`a, secondo lo schema descritto nel capitolo 5 e sul quale torneremo nel capitolo ***. Ad esempio, e` chiaro che un modello ad hoc che segue esattamente la forma dell’istogramma di frequenza osservato e` quello che massimizza la descrizione dei dati (per definizione!), ma e` anche quello al quale non si crede per niente! Come esempio di (*** ritrovare o rifare la figura con le 20 gaussiane e le venti distribuzioni uniformi non n picolo ***).. 11.6.3 ❄ Inferenza simultanea su I e J. . . Affrontiamo ora il problema dal punto di vista generale. Per inferire e da un insieme di osservazioni che riteniamo indipendenti (condizionatamente ad ogni ipotesi di LK e ) e descritte da verosimiglianza normale, dobbiamo semplicemente applicare il teorema di Bayes a due numeri incerti anzich´e ad uno solo. Successivamente si tratta di marginalizzare la distribuzione congiunta sulla variabile che non ci interessa:.  =\ <BÓ=\>?×@  Ó

(52) } <Ô= =\ =\>?NMˆ.G3 =\ 4 (11.35) 

(53) <BÓ=\>?× O 7   =\ <BÓ=\>? d (11.36) } (11.37) ï <BÓ=\>?× O }   =\ <BÓ=\>? d ‰= f ove abbiamo ricordato, ancora una volta, che tutta l’inferenza dipende da tutte le condizioni di contorno > . Come al solito c`e il “problema” di che prior utilizzare. Senza ripetere il lungo discorso fatto a proposito di , e` chiaro che .GO =\ 4 dovrebbe modellizzare, pur nella sua vaghezza, quello che ci si aspetta su e . In alcune misure si e` abbastanza sicuri l’ordine di grandezza della deviazione standard (“si e` stupiti se venisse oltre un valore di un ordine di grandezza in pi`u o in meno di quanto ci si aspetta). In altre misure si aspettano valori che possono differire “tranquillamente” di uno o due ordini di grandezza rispetto a quello atteso, ma quasi certamente non di un fattore 1000 o pi`u. In altri tipi di misure, forse e` il caso pi`u generale, le aspettazioni sull’ordine di. c G. D’Agostini 2001.

(54) 11.6 Caso di. 325. ignota. & 41S. grandezza non sono su ma sul coefficiente di variazione P , ovvero sulla precisione, in modo largamente indipendente dal valore . E, infatti, le misure vengono classificate in “come ordine di grandezza”, “al percento”, “al per mille”, e cos`ı via. Quindi, ricordando che incertezza sull’ordine di grandezza significa incertezza sul logaritmo della variabile, otteniamo le seguenti possibilit`a:. P.  YY Z[[Z ïï*R*RQýQ2PH †GSG2=\=\ ( SST(T U b;’ ’   v. (11.38) (11.39). Si capisce come, una volta combinate queste prior su o su P con quella su e inserite nella formula di Bayes, i conti diventano complicati e, come veedremo, non vale la pena di farli, a meno che non si tratti di un problema cruciale. Vediamo un paio di modi di modellizzare la vaghezza su in modo da semplificare i conti e, in base ai risultati ottenuti, di capire se vale la pena di fare di meglio.. Prior uniforme in. . Come per , il primo modello matematicamente semplice di vaghezza che salta in mente e` una distribuzione uniforme per valori positivi di . Ovviamente, questo modello va preso con cautela, come anche nel caso di , in quanto certamente non crediamo allo stesso modo a tutti i valori di , specialmente quelli molto prossimi a zero o che tendono a infinito (rispetto alla scala che abbiamo in mente di valori plausibili). Dal modello otteniamo (assumendo implicito il condizionante di contorno ):.  =\ <BÓ]×@ @ @ @. >. Ó

(55) <Ô= =\ 4 & Ñ Õ R 0 !#"8$ Ñ  R   ]  ' f Ò !#"8$WV Ñ  0  Ö R NR Ñ ] YX Ò f !#"8$ & Ñ  0   Ñ ]  "[C #\ =  Z '. (11.40) (11.41). (11.42) (11.43). ove nell’ultimo passaggio abbiamo utilizzato l’uguaglianza. Ò. ÖR á _  R Ñ ]   /  Ñ ]  ". Ò. Ö R á _  R Ñ    /  Ñ ]  "—[C  =. con C pari alla deviazione standard calcolata sui dati sperimentali:. 0 CÞ ^  _ ]^. c G. D’Agostini 2001. Ò. Ö R á _  R Ñ T . (11.44).

(56) 326. Impostazione del problema. Caso di verosimiglianza gaussiana. abbiamo: } 

(57) <BÓ]× O 7  =\ 4 d @ Z   Ñ ]  "—[C  \ Ò f . _Ò f _ 1a`  @ å40/"  Ñ C  TI æ f . f 1b`  (11.45) _ .b. Ò f  1bc 1a`  Ñ  . T  I   f @ å40/"  Ñ  % C  1D Ñ   æ  Avendo moltiplicato e diviso C. per  Ñ  , si riconosce una forma del tipo _ .fe c 1a`    f @ åc0ß" d æ (11.46) 6. Marginalizzando su.   Ñ Ñ  (11.47) ‘ CO1 ~  Ñ  = (11.48) ovvero (11.49)  ‰" ~  C Ñ  †=  ove  e` la variabile  di Student con d   Ñ . Applicando le note propriet`a della distribuzione di Student (vedi paragrafo 8.14.4 ), otteniamo: ~ Ñ Ñ  Y Student  d ! Ñ   (11.50) CO1  hÒ g 5 (11.51) E  ] .  1  h Ò ( g i C (11.52) ^ ] .  1 ~  Ñ  v Come si vede, l’incertezza su produce una ulteriore incertezza su , tale da rendere pi`u plausibili valori molto lontani dalla media (caratteristica delle  di Student rispetto alla normale standardizzata). Questo effetto e`, come e` ragionevole che sia, pi`u importante per  piccolo e si attenua immediatamente quando  supera il valore di qualche decina. Per  al di sotto di ˆ Œ le code della distribuzione sono talmente pronunciate che la varianza e` infinita e per  >  e` addirittura il calcolo della media a non convergere. Questo va bene j dal punto di vista matematico, ma non vuol dire che “non si pu`o dire niente su ”. Queste divergenze non sono altro che il risultato della ipersemplicit`a del modello. Nessuna persona ragionevole creder`a mai che avendo letto su un con. d. 6. ó kn ©Iª2«¬­p° o ó o ó ¸ ° gn;kqémfr o8s ¬ °¯ ¤ ù ­ ¯ ¦ o k?gn2k j mtr o  · ·. L’integrale di interesse e`. k;l m. d. c G. D’Agostini 2001.

(58) . 11.6 Caso di. 327. ignota. voltmetro 6.25 V, 6.32 V e 6.29 V creder`a mai che il valore vero della tensione sia compatibile con valori “infiniti”, sia positivi che negativi (`e quello che ci dice la di Student, e anche la pi`u tranquilla gaussiana, seppur con gli infiniti “un po’ meno probabili”, per dirla alla buona). Quando diventa molto grande otteniamo gli stessi risultati delle argomentazioni intuitive discusse precedentemente (basate giustappunto su tale limite):. . . wÑ ÒvÑCu Ñ }} ™  ÑwvÒ ÑCu Ñ ™ ~ C  ÑwvÒ ÑCu Ñ } ™ Y[Z  ]=wCO1 ~ 4 v.  ] ^ ]. E. (11.53) (11.54) (11.55). Seguitiamo ora con questa parte formale, ritornando successivamente a raccomandazioni su come comportarsi in pratica. Prior uniforme in. *Ä+.-/. Vediamo ora cosa succede se si sceglie una posizione di assoluta indifferenza sugli ordini di grandezza di , posizione assurda quanto quella precedente, ma se non altro un po’ pi`u ragionevole della precedente e con il vantaggio pratico di smorzare un po’ gli eccessivamente grandi valori di responsabili delle divergenze. Assumere che e` equivalente a . Inserendo RQ questa prior nei conti precedenti, l’effetto e` di diminuire di 1 la potenza di nell’integrando. L’effetto sulla e` che la potenza dell’espressione finale diventa anzich´e . Di consequenza, abbiamo ancora una di xC Student, ma con d e nella variabile , da cui:.  G ï* ý 4 ×  G ï 4  0213.     ].  Ñ ]1  Ñ Ñ  Ñ 021     0  Ñ 1D O1 ~  Ñ 0S ~ Ñ Ñ Y Student  d ! Ñ 02 (11.56) CO1  0 hÒ g E  ] .   1  (11.57) hg 5 Ò C . (11.58) ^ ]  1 ~  Ñ  v Per  piccoli questo modello produce una incertezza su minore di quella del modello precedente, ma anche questa e` da considerarsi molto conservativa (e quindi non coerente!) perch´e usa una prior su irragionevole per qualsiasi applicazione pratica. Quando  aumenta abbiamo una pi`u rapida convergenza al modello normale in quanto l’osservazione “solida” di C esclude valori troppo fantasiosi per . Per un confronto quantitativo fra i diversi modelli, riportiamo in tabella  F|" y 11.1 i valori del semiampiezza y , in unit`a di C , tale che z  Ñ y{'. sia uguale al 50%, al 90%, a; 95% e al 99%. Ad esempio, con ÷&0e7 osservazioni dalle quali abbiamo ricavato  e C , abbiamo: z  Ñ 7 v‹Š.Š C<& } C" 7 v‹Š. Š 7 CÝ? <  eG ïcos` 4ßı via.CÝ Per 7 ? i ,ragionamenti z  Ñ 7 v‹Š ~ 0 Cfatti  sull’eccessiva   "7 v‹Š ~ 0 CÝprudenza <  G ïR* Qý 4Ýdi entrambi i modelli matematicamente abbordabili, si possono considerare valori ragionevoli per y quelli circa intermedi fra il modello DGOïR* Qý 4   c G. D’Agostini 2001.

(59) 328. Impostazione del problema. Caso di verosimiglianza gaussiana. ˆ  ˆ  Š ˆ  Ž ˆ [0e7 ˆ  7 ˆ Œ 7 ˆ[0e7.7. ï*RïQý 4 4^AA  Normale  ü C ïR* ïQý 4 4^AA  Normale ü C Normale ïR* ïQý 4 4^A üA   C Normale ïR* ïQý 4 4^A üA   C Normale ïR* ïQý 4 4^A üA   C ïR* ïQý 4 4^AA  Normale ü C Normale ïR* ïQý 4 4^A üA   C. z6€ 7‚. z6ƒ 7‚. z„ƒ€ . z6ƒƒ . 0.58 0.44 0.34 0.37 0.33 0.28 0.29 0.27 0.24 0.25 0.23 0.21 0.16 0.16 0.15 0.10 0.10 0.10 0.07 0.07 0.07. 2.06 1.36 0.82 1.07 0.90 0.67 0.79 0.72 0.58 0.66 0.61 0.52 0.41 0.40 0.37 0.24 0.24 0.23 0.17 0.17 0.16. 3.04 1.83 0.98 1.40 1.15 0.80 1.00 0.90 0.69 0.82 0.75 0.62 0.49 0.48 0.44 0.29 0.29 0.28 0.20 0.20 0.20. 7.03 3.38 1.29 2.30 1.81 1.05 1.52 1.32 0.92 1.20 1.09 0.82 0.68 0.66 0.58 0.39 0.38 0.36 0.26 0.26 0.26. M. Tabella 11.1: Semiampiezza in unit`a di †‡ dell’intervallo intorno al valore medio tale che racchiuda con probabilit`a ˆŠ‰Y‰Œ‹ il valore vero di . Nel caso di  ignota la probabilit`a dipende dalla prior ŽŠb( . Per confronto e` riportato il caso limite gaussiano nell’ipotesi che  sia esattamente uguale a quella osservata..  C . in questo esempio avremmo: ‹ v ‘ Œ A ‹ v ‘ Œ A C’ “ " F 7 CÝ< .GHï*bQý 4 œC   7 ? . Come si F 7 vede, tenendo conto degli arrotondamenti con i quali si forniscono le incertezze, gi`a con  0e7 possiamo considerarci in approssimazione normale, a meno di non essere interessati a valori molto lontani da dove si concentra la z  Ñ. e quello normale in cui si assume. massa di probabilit`a.. Incertezza su. .GOï 4.  =\ 4. E` interessante, a questo punto marginalizzare la funzione congiunta rispetto a per inferire i valori di . Facciamo i conti nei due modelli per .. c G. D’Agostini 2001.

(60) 11.6 Caso di. 329. ignota. fHӐsL. Prior uniforme in Σ. 1.5 1.25 1 0.75 0.5 0.25 4. 2. 6. 8. Ӑs. 10. Figura 11.5: Funzione densit`a di probabilit`a del parametro  della gaussiana, in. unit`a della deviazione standard sui valori osservati, assumendo Žv”•a(; —– per un numero ˜ di osservazioni pari 3 (curva puntinata), 5 (tratteggiata) e 10 (continua).. J. Prior uniforme in :. ï <BÓ]‘. }. }f  & =\ <BÓ] d } @ f Ò !#"8$ Ñ [ C  ' O c } & f _ Ò # ! 8 " $ . @ f f 1 Ñ [ C  ' = ~ € 41 ~  in quanto l’integrale e` pari a normalizzazine della gaussiana). O c. V™ ›. !#"8$. Ñ     Ñ  ]  ' d &. (11.59) (la ben nota condizione di. . La forma della funzione e` molto asimmetrica per piccoli, mentre tende ad una gaussiana per . La figura 11.5 mostra degli esempi. Queste sono le espressioni di moda, valore atteso e deviazione standard in unit`a di C. ï 41vC  ™  Ñ 0 (11.60)  Ñ hg 5 Ò  Ä „    H    1 .  › š  (11.61) E ï 4v1 C  1 œ ™ š „ Ÿ]ž 1 Ñ 0(   ¡ m   „, Ñ H1  hÒ g(i 0 .  1 ~     Ñ  Ñ š š  „ ]1  Ñ (0 (11.62) DevSt ï 41vC œ #ž   ¢ Moda. m. c G. D’Agostini 2001.

(61) 330. Impostazione del problema. Caso di verosimiglianza gaussiana. Α 2.5 2 1.5 1 0.5. 5. 10. 15. 20. 25. 30. n. Figura 11.6: Fattore £ fra valore atteso di  e deviazione standard delle osservazioni sperimentali in funzione del numero di osservazioni. I rombi si riferiscono al caso di prior uniforme in  , le stelle al caso di uniforme in ¤t¥@ .. ^G †G. ove abbiamo designato con “DevSt” la deviazione standard di , per ovvi motivi. I due fattori complicati ¦ e § sono rilevanti soltanto per piccoli valori . Per essi tendono a 1 e gi`a per differiscono dall’unit`a per meno del 50% (vedi figure 11.6 e 11.7). Quindi, per grandi abbiamo i seguenti valori asintotici:. . . Ÿ™ ›. ï 4 DevSt ï 4. E. Ÿ 0e7. ?Ñ ÒÑuu Ñ } ™ C ÑDÒ Ñuu Ñ } ™ ~ C  ÑDÒ Ñuu Ñ } ™ YZ[x C%=wC31 ~  ] v. (11.63) (11.64) (11.65). (Si noti come il limite a normale e` , per ora, una congettura basata sull’osservazione delle curve. Nel paragrafo 11.6.4 vedremo un altro argomento pi`u formale, basato sulla distribuzione di probabilit`a di .). J. 0213 ^. * ý. wGOï 4ü@ 0213. Prior uniforme in RQ : la prior potenza di nella funzione finale:. abbassa di un grado la. & Ò # ! 8 " $ ï <BÓ]‘ f Ñ [ C2 ' =. (11.66). c G. D’Agostini 2001.

(62) 11.6 Caso di. 331. ignota. Β 4 3 2 1. 5. 10. 15. 20. 25. 30. n. Figura 11.7: Fattore ¨ fra incertezza standard su  e †Ÿ©vª «Š˜ in funzione del numero di osservazioni. I rombi si riferiscono al caso di prior uniforme in  , le stelle al caso di uniforme in ¤t¥@ .. da cui seguono. ï 41vC  0 (11.67)  Ñ  Ò g 0( .   1 ™ .  š „Ä]1 Ñ E ï 4v1 C (11.68) „ Ä    2 0   1 œ #  ž   š ¡ j   Ñ 0( Ò g 5 0 „ ]  1  . Ñ DevSt ï 4v1 C  1 ~     Ñ  š š  „Ä Ñ 20 1  (11.69) œ #ž   ¢ j Come succedeva per la previsione di , questo secondo modello d`a delle curve un po’ pi`u strette per  piccoli, mentre le differenze diventano immediatamente irrilevanti quando  arriva all’ordine della decina. In particolare, gli andamenti asintotici E ï 4 ÑDÒ Ñuu Ñ } ™ C (11.70) ~ C  DevSt ï 4 ÑDÒ Ñuu Ñ } ™ (11.71) Ñ?ÒÑuu Ñ } ™ YZ[xCH=wCO1 ~  ] v (11.72) sono gli stessi. Degli esempi sono mostrati in figura 11.8. Le funzioni ¦ _ e § _ sono mostrate nelle figure 11.6 e 11.7. 11.6.4 Distribuzione di ¬‘­J  Abbiamo visto come, seppur con delle scelte di convenienza formale delle prior, le funzioni distribuzioni finali di sono alquanto inconsuete. E` Moda. c G. D’Agostini 2001.

Riferimenti

Documenti correlati

Analogalmente, abbiamo visto nelle pagine precedenti come la previsione della media aritmetica di variabili casuali aventi la stessa distribuzione di probabilit`a e` uguale

una misura `e tanto pi`u accurata quanto pi`u la media delle misure si approssima al valore vero della grandezza. Anche l’accuratezza `e spesso espressa come rapporto fra

• Per ogni contributo d’incertezza di categoria A il numero di gradi di libertà υ i da considerare è uguale al numero dei dati considerati n a cui va sottratto il numero di

Come si nota dal grafico, a variazioni del parametro  , che corrisponde alla moda, alla mediana e al valore atteso della distribuzione, corrisponde uno

Si è scelto di utilizzare come errore associato al miglior valore non la deviazione standard dalla media, bensì l'incertezza determinata mediante propagazione a partire da

I dati sono mostrai in tabella: durante la caduta libera l’accelerazione misurata è vicina a zero (efetti di attrito e taratura possono modificare il valore misurato). Calcolare

- Confrontare i dati sperimentali con i valori teorici calcolati utilizzando una funzione di distribuzione di Poisson il cui valor medio sia quello ottenuto dai dati

Ogni misurazione ha delle ‘’imperfezioni’’ che influiscono sul valore della misura dando luogo al cosiddetto errore di. misura che rende la misura diversa dai