• Non ci sono risultati.

Il risultato di un esperimento o una misura va sempre dato con il suo errore nella forma

N/A
N/A
Protected

Academic year: 2021

Condividi "Il risultato di un esperimento o una misura va sempre dato con il suo errore nella forma"

Copied!
14
0
0

Testo completo

(1)

Teoria degli errori

17.3.2003

1 Errori

Il risultato di un esperimento o una misura va sempre dato con il suo errore nella forma

x ± δx , δx > 0 (1)

dove x `e la migliore stima del valore vero x vero e δx `e “l’errore su x “. L’errore δx viene generalmente scelto in modo tale che l’intervallo [x − δx, x + δx]

contiene il valore vero di x con una probabilit`a di 68%.

P (x vero ∈ [x − δx, x + δx]) = 68% (2)

Esempio: L’et`a dell’universo `e 13.7 ± 0.2 miliardi di anni.

L’errore puo anche essere dato relativo al valore stesso.

x ± δ rel x dove δ rel x = δx

|x| (3)

Esempio: L’et`a dell’universo `e 13.7 ± 1.5% miliardi di anni.

Di solito l’errore δx `e composto da due tipi di errori diversi, gli errori casuali (anche chiamati errori statistici) e gli errori sistematici.

1.1 Errori casuali

Errori casuali sono fluttuazioni casuali del valore che si ottiene misurando varie volte la stessa quantit`a. L‘effetto di questa fluttuazione su una misura specifica `e imprevedibile.

• Ogni misura mostra fluttuazioni casuali.

• La sensibilit`a di uno strumento o di un esperimento pu`o essere troppo

bassa per poter osservare queste fluttuazioni.

(2)

• Ripetendo una misura `e possibile trovare una stima dell’errore casuale di misura se la sensibilit`a dell’ esperimento lo permette.

• Di solito gli errori casuali sono distribuiti simmetricamente intorno al valore medio.

Esempio: Contiamo le macchine che passano sotto un ponte in 10 minuti.

Facciamo questa misura 10 volte. Avremmo forse 10 numeri diversi con un certo valore medio. Per ogni misura era impossibile prevedere la deviazione di questo valore medio. Questo `e dovuto a un errore casuale.

1.2 Errori sistematici

Errori sistematici sono errori che si potrebbero correggere avendo una cono- scenza completa dell’esperimento. Molte volte pero non `e possibile fare queste correzioni. Ci sono tra le altre due fonti importanti di errori sistematici:

• Gli strumenti utilizzati nella misura non sono perfetti. Possono mostra- re errori nella calibrazione o nello stesso funzionamento. Per esempio scale graduate non equidistanti, cerchi eccentrici invece di concentrici, etc.

• Il valore desiderato non pu`o essere misurato direttamente. Si usa un modello per calcolare il valore richiesto dai valori misurati. Questo mo- dello ha sicuramente imperfezioni perch`e, per esempio, sono introdotte approssimazioni e trascurati effetti di minore importanza. Questi dan- no luogo a un certo errore sul valore calcolato. Questo tipo di errore viene chiamato anche errore teorico.

1.3 Cifre significative

L’ultima cifra significativa di un risultato `e quella dello stesso ordine di grandezza dell’errore.

Esempio:

• corretto: 5380 ± 20

• corretto: 5300 ± 200

• corretto: 5383 ± 5

• sbagliato: 5383 ± 52

• sbagliato: 5383.32 ± 52

• sbagliato: 5300 ± 512

(3)

2 Distribuzione

2.1 Distribuzioni discrete

Definizione: distribuzione Un insieme {x 1 , x 2 , ..., x N } di N misure di una data costituisce una distribuzione.

Definizione: frequenza assoluta Siano m 1 , m 2 , ..., m n i possibili valori assunti dalla grandezza misurata. Il numero di volte n k in cui viene misurato il valore m k si chiama frequenza assoluta. La somma di tutti gli m k

corrisponde al numero totale di misure.

M

X

i=1

n k = N (4)

Definizione: frequenza relativa F k = n k

N (5)

Esempio: Misuriamo(chiediamo) la et`a di un certo numero(grande) di italiani (Figura 3). Raggruppiamo i valori che otteniamo per blocchi di cinque anni. Risulta la distribuzione riportata nella seguente figura 3. Numero di misure (abitanti) N = 56.300.000. Sull’asse delle ordinate sono riportate le frequenze assolute n k , differenziate per sesso, sull’asse delle ascisse il valore misurato.

2.2 Distribuzioni continue

Definizione: Consideriamo il caso ipotetico d’un numero infinito di misure. ` E quindi possibile assegnare a ogni valore x , x ∈ < una frequenza relativa f(x).

Una tale distribuzione viene chiamato una distribuzione continua

• La parte F (a, b) delle volte che in una misura si ottiene un valore x tra a e b `e

F (a, b) =

Z b

a f (x)dx (6)

• Che f(x) `e normalizzata significa che

Z +∞

−∞

f (x)dx = 1 (7)

(4)

0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 0

1000 2000 3000 4000 5000 6000 7000

x10

3

Eta

Entries 0

Mean 40.57

RMS 21.3

Eta

Entries 0

Mean 40.57

RMS 21.3

Popolazione per classe di eta’

>

56.300.000

Figura 1: Et` a della popolazione italiana nel 2000; Riportato in ordinate ` e il numero di persone che ha una et` a corrispondente al valore riportato sulle ascisse.

Per esempio si vede che c’erano 4.000.000 di persone con una et` a tra 40 e 44 anni.

• Quando f(x) `e normalizzata viene chiamata funzione di densit`a di pro- babilit`a. P (a < x < b) `e la probabilit`a che una misura assuma un valore di x compreso tra a e b.

P (a < x < b) =

Z b

a f (x)dx (8)

Esempio: Lasciamo cadere una sfera bianca perfettamente rotonda con un punto rosso. Misuriamo l’angolo tra la linea che passa per il punto rosso e il centro della sfera e il pavimento. La distribuzione di questo angolo sar`a piatta perche ogni angolo ha la stessa probabilit`a di essere misurato. Va da 0 a 2π. Per essere normalizzata la funzione di densit`a di probabilit`a avra una altezza di 1/(2π).

3 Caratteristiche di una distribuzione

Definizione: media di una distribuzione

• Media aritmetica ¯x

– Distribuzione discreta F k

¯ x =

N

X

i=1

x i

N =

M

X

k=1

m k · n k

N =

M

X

k=1

m k · F k (9)

(5)

∗ N = Numero totale di misure

∗ M = Numero di misure con valori diversi

∗ n k = Numero di misure con valore m k

∗ F k = Frequenza relativa del valore m k

– Distribuzione continua f (x)

¯ x =

Z ∞

xf (x)dx (10)

• Deviazione (scarto) quadratica media σ

– sigma si chiama deviazione quadratica media e σ 2 si chiama va- rianza

– Distribuzione discreta F k

σ x 2 =

N

X

i=1

(x i − ¯x) 2

N =

M

X

k=1

F k (m k − ¯x) 2 (11)

– Distribuzione continua f (x) σ x 2 =

Z ∞

∞ (x − ¯x) 2 f (x)dx (12)

4 Miglior stima del valore vero e della varian- za

• La migliore stima del valore vero usando un numero N di misure con lo stesso errore `e la media aritmetica.

• La migliore stima della varianza σ 2 `e

σ 2 N =

N

X

i=1

(x i − ¯x) 2

N − 1 (13)

• La migliore stima della deviazione quadratica media `e

σ N = q σ N 2 =

v u u t

N

X

i=1

(x i − ¯x) 2

N − 1 (14)

• La stima della deviazione quadratica media pu`o essere visto come errore

sulla singola misura.

(6)

• La deviazione quadratico standard della media σ x ¯ pu`o essere visto come errore sulla media. ` E data da

σ ¯ x = σ x

√ N (15)

– σ x ¯ = deviazione standard della media – ¯ x = la media delle misure

– N = numero totale delle misure – σ x = l’errore su una misura

Esempio: Si misura il tempo T che ci vuole per una pallina di ferro per cadere da un tavolo di altezza 90cm. Si ripete la misura 10 volte, e si ottengono i sequenti dieci valori in secondi

T k = {0.33, 0.36, 0.38, 0.41, 0.42, 0.44, 0.47, 0.48, 0.50, 0.51} (16) T = ¯

P N k=1 T k

N = 4.3

10 = 0.43 (17)

σ N 2 =

N

X

i=1

(x i − ¯x) 2

N − 1 = 0.0334/9 = 0.0037 (18)

σ N = q σ N 2 = 0.06 (19)

σ T ¯ = σ N

√ N = 0.06/3.2 = 0.02 (20)

L’errore statistico su ogni misura `e allora dell’ ordine di 6/100 di secondo e l’errore sulla media `e 2/100 sec. Il risultato si esprime come T = (0.43 ± 0.02)sec. Questo risultato tiene conto deli vari errori statistici. Eventuali errori sistematici non sono presi in considerazione.

5 Distribuzione normale

Gli errori casuali in una misura condotta molte volte sono distribuiti secondo una distribuzione normale o distribuzione gaussiana (vedi grafico 2).

Definizione Distribuzione normale: Una distribuzione che ha la se- guente funzione di densit`a di probabilit`a G(x) si chiama distribuzione normale

G x,σ ¯ (x) = 1 σ √

2π e

(x−¯2σ2x)2

(21)

(7)

5 6 7 8 9 10 11 12 13 14 15 0

0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4

gaus Distribuzione normale

Mean : 10 Integral : 1

Sigma : 1

σ

68%

16% 16%

Figura 2: Funzione di densit` a di probabilit` a di una distribuzione normale;

• Media della distribuzione normale G ¯ ¯ x,σ =

Z +∞

−∞

xG x,σ ¯ (x)dx = ¯ x (22)

• Scarto della distribuzione normale σ G

x,σ¯

(x) =

Z +∞

−∞

 x − ¯ G x,σ ¯

 2

G x,σ ¯ (x)dx = σ (23)

• Probabilit`a per ottenere un valore meno di σ o di 2σ lontano dalla media (vedi equazione (8) )

P (|x| < σ) =

Z

− σ G(x)dx = 68.27% (24)

P (|x| < 2σ) =

Z +2σ

− 2σ G(x)dx = 95.45% (25)

• Accettabilit`a di una risposta misurata: Si misura un valore x exp ± σ x

exp

di un certo valore. Si aspetta da una teoria, o da altre misure accettate come standard, un valore x teo . Come possiamo decidere se la misura `e accettabile? Come grandezza si usa il numero t di deviazioni standard σ di cui differiscono il valore misurato e il valore aspettato.

t = |x exp − x teo | σ x

exp

(26)

(8)

Supponiamo che il valore misurato sia distribuito come una distribuzio- ne normale intorno al valore aspettato x teo con una deviazione standard di σ x

exp

. Allora possiamo calcolare la probabilit`a P (|x| > x exp + tσ), di ottenere un valore che differisce piu di t volte la deviazone standard dal valore aspettato.

P (|x| > x exp + tσ) = 1 − P (|x| > x exp + tσ) (27)

=

Z +σ

− σ G(x exp , σ x

best

, x)dx (28) Esempio: La probabilit`a che una differenza di pi` u di 1σ tra il valore misurato al valore aspettato sia dovuta solo a fluttuazioni statistiche `e P (|x| > x exp + 1σ) = 1 − P (|x| > x exp + σ) (29)

= 1 − 68% = 32% (30)

Allo stesso modo una differenza di 2σ ha una probabilit`a di 5 % e di 3σ una probabilit`a di 0.3%.

6 Propagazione degli errori

Vogliamo determinare una grandezza z che non `e misurabile sperimental- mente. Esiste ed `e nota per`o una relazione funzionale f tra z e le grandezze x, y, u, ..., che sono invece oggetto di misura.

z = f (x, y, u, ...) (31)

Vengono quindi effettuate delle misure delle grandezze x, y, u, ... con i rispettivi errori σ x , σ y , σ u , ...

Esempio: La densit`a ρ di un liquido o un oggetto solido. La densit`a `e la massa m divisa per il volume V dell’ oggetto.

ρ(m, V ) = m

V (32)

Esempio: La velocit`a v `e una distanza s diviso per il tempo t.

v = s

t (33)

Quale `e l’errore σ z su z ?

(9)

L’errore su z `e dato dalla formula per la propagazione degli errori non-correlati

σ z =

v u u u t

X

(r=x,y,u,...)

∂f (x, y, u, ...)

∂r σ r

! 2

(34)

Esempio: L’errore assoluto di una somma di due grandezze

z = f (x, y) = x + y (35)

σ z =

v u u

t ∂ (x + y)

∂x σ x

! 2

+ ∂ (x + y)

∂y σ y

! 2

(36)

= q σ x 2 + σ y 2 (37)

Esempio: L’errore relativo di un prodotto di due grandezze

z = f (x, y) = x · y (38)

σ z

z = 1

x · y

v u u

t ∂ (x · y)

∂x σ x

! 2

+ ∂ (x · y)

∂y σ y

! 2

(39)

=

v u u t y

x · y σ x

! 2

+ x

x 1 · y σ y

! 2

(40)

=

v u u t

 σ x

x

 2

+ σ y

y

! 2

(41) (42)

7 Combinare misure della stessa grandezza

N sperimentatori A i misurano tutti la stessa grandezza x. Ottengono i valori x i ±σ x

i

. Quale `e la miglior stima del valore vero, il suo errore e la probabilit`a che la differenza sia dovuta a una fluttuazione statistica?

• Miglior stima X m del valore medio di misure con diversi errori:

La miglior stima `e data da

X ¯ m =

P x

i

σ

xi2

P 1/σ x 2

i

(43)

(10)

• Errore σ X ¯

m

della miglior stima: L’errore della miglior stima `e data da

σ X ¯

m

= 1

q P

1/σ x 2

i

(44)

• Probabilit`a che la differenza di due misure sia dovuta a flut- tuazioni statistiche (compatibilit` a di due misure): Quando ab- biamo due misure di due sperimentatori A e B con i suoi valori misurati x A ± σ x

A

e x B ± σ x

B

, calcoliamo la differenza D con il suo errore σ D

usando la propagazione degli errori.

D = |x A − x B | (45)

σ D

(37) = q σ x 2

A

+ σ x

B

(46)

Ora siamo in grado di calcolare la probabilit`a che la differenza D sia compatibile con 0 secondo quanto detto nel capitolo “Accettabilit` a di una risposta misurata”.

Esempio: Due studenti A e B misurano la velocit`a v di una stessa pallina su un piano inclinato varie volte. Ottengono i valori medi

v A = (10 ± 1) cm

sec (47)

v B = (8 ± 0.5) cm

sec (48)

Qual’`e la miglior stima del valore vero, qual’`e il suo errore, e quanto `e la probabilit`a che la differenza sia dovuta a fluttuazione statistiche?

– Miglior stima della media v m =

 10 1 2 + 8

0.5 2



/

 1 1 2 + 1

0.5 2

 cm

sec = 8.4 cm

sec (49)

– L’errore sulla miglior stima `e σ v

m

= 1/ q 1/1 2 + 1/0.5 2 cm

sec = 0.45 cm

sec (50)

– Probabilit`a che le due misure sono compatibili

D = 10 − 8 = 2 (51)

σ D = √

1 2 + 0.5 2 = 1.12 (52)

t = D

σ D

= 2

1.12 = 1.79 (53)

(11)

Troviamo una differenza di 1.8 volte l’errore. Questo corrisponde a una probabilit`a P (|x| > 1.8σ) = 100% − 93% = 7%. Quindi aspettiamo una differenza uguale o maggiore di 1.8σ nel 7 % dei casi. Diciamo che le 2 misure sono compatibile al 7 %.

8 Metodo dei minimi quadrati

Supponiamo che esista una relazione lineare tra due grandezze, x e y della forma:

y = ax + b (54)

Da diverse misure (x 1 , x 2 , ..., x N ) e (y 1 , y 2 , ..., x N ) delle grandezze x e y vo- gliamo o dedurre a e b o la natura lineare della relazione. Per la deduzione di a e b si usa il Metodo dei minimi quadrati. Questo problema e equi- valente a cercare la retta che si avvicina in modo migliore ai dati misurati.

Assumiamo che la grandezza sia misurata con l’errore σ y , uguale per tutte misure di y. In pi` u assumiamo che le fluttuazioni di y siano governate dalla distribuzione di Gauss. Il risultato finale per a e b `e

a = N P xy − P x P y

∆ (55)

σ a = σ y

s N

∆ (56)

b =

P x 2 P y − P x P xy

∆ σ b = σ y

s P

x 2

∆ (57)

σ ab = − σ y 2 P x i

N P x 2 i − ( P x i ) 2 dove

∆ = N X x 2 − ( X x) 2 (58)

Per determinare ora il livello di confidenza della relazione lineare tra x e y si usa un valore chiamato χ 2 .

χ 2 =

N

X

i=1

(y i − y i,teo ) 2

σ y 2 (59)

(12)

Nel nostro caso il valore aspettato y i,teo per y i `e dato dalla relazione lineare y i,teo = ax i + b.

χ 2 =

N

X

i=1

(y i − ax i − b) 2

σ y 2 (60)

Il valore cosi introdotto dipende non solo dalle deviazioni delle misure dalla retta ma anche dal numero delle misure N e del numero delle variabili determinate usando le misure n. Questo rende difficile il confronto con altri casi; si introduce allora una grandezza chiamata χ 2 ridotto.

˜ χ 2 = 1

d

N

X

i=1

(y i − Bx i − A) 2

σ y 2 (61)

dove

d = N − n → gradi di liberta 0 (62)

La differenza tra il numero delle misure effettuate e il numero delle va- riabili determinate usando queste misure viene chiamato gradi di libert` a d.

Il valore atteso del ˜ χ 2 ridotto `e 1.

(valore medio atteso di ˜ χ 2 ) = 1 (63)

Otteniamo un valore ˜ χ 2 0 . La probabilit`a P d ( ˜ χ 2 ≥ ˜ χ 2 0 ) di ottenere un valore

˜

χ 2 uguale o maggiore di ˜ χ 2 0 si trova nella tabella delle χ 2 . Questa probabilit`a viene chiamato livello di confidenza di questa assunzione (di linearit`a nel nostro caso).

Esempio: Si misura il tempo trascorso e la distanza percorsa da un veicolo del quale si vuole verificare che si muove a una velocit`a costante. Si misurano le sequenti 4 coppie di valori:

(t/sec, s/cm) = ((0, 2.2); (2, 4.5); (3, 6.3); (5, 11.8)) (64) Si assume un errore trascurabile sul tempo e pari a σ s = 0.4cm sulla distanza.

Quale `e il valore della velocit`a? Quale `e il livello di confidenza che la velocit`a del veicolo `e costante?

Assumere una velocit`a costante vuol dire assumere una relazione tra s e t della forma

s = v · t + s 0 (65)

(13)

0 1 2 3 4 5 2

4 6 8 10 12 Graph

Metodo dei minimi quadrati

Figura 3: Metodo dei minimi quadrati;

Per ottenere i valori di v e s 0 usiamo il metodo dei minimi quadrati:

∆ = N X x 2 − ( X x) 2 (66)

= 4 ∗ (0 2 + 2 2 + 3 2 + 5 2 ) − (0 + 2 + 3 + 5) 2 = 52 (67) v = a = N P xy − P x P y

∆ (68)

= 4 ∗ (0 ∗ 2.2 + 2 ∗ 4.5 + 3 ∗ 6.3 + 5 ∗ 11.8)

52 (69)

− (0 + 2 + 3 + 5) ∗ (2.2 + 4.5 + 6.3 + 11.8)

52 = 1.91 (70)

σ v = σ a = σ y

s N

∆ (71)

= 0.4 ∗

s 4

52 = 0.11 (72)

s 0 = b =

P x 2 P y − P x P xy

∆ = 1.41 (73)

σ s

0

= σ b = σ y

s P

x 2

∆ = 0.34 (74)

σ s

0

v = − σ y 2 P x i

N P x 2 i − ( P x i ) 2 = 0.033 (75)

Per sapere ora se effettivamente, la velocit`a era costante basta calcolare

il valore ˜ χ 2 .

(14)

˜

χ 2 = 1 2

4

X

i=1

(v · t i + s 0 − s i ) 2

0.4 2 = 16.04/2 = 8 (76)

Il valore ottenuto e ˜ χ 2 = 8 che ha, secondo la tabella delle χ 2 , una probabilit`a di

P 2 ( ˜ χ 2 ≥ 8) < 0.05% (77)

Quindi dobbiamo rifiutare la ipotesi che la velocit`a fosse costante.

Riferimenti

Documenti correlati

a) una bilancia con portata 600 g e sensibilità 0,001 g. qual è la sensibilità dello strumento? ……….. Con quale degli strumenti seguenti posso misurare 38 ml nel modo

Se entrambe le misure sono state fatte con un errore dell’1%, si può dire che gli oggetti hanno volume uguale.. Possiamo affermare con certezza che potranno essere inserite una

La base due ` e ancora pi` u interessante perch´ e in tale base tutti i numeri sono rappresentati da successioni dei due simboli 0 ed 1 che possono essere messe in corrispondenza

A che angolo viene minimizzato l’errore di misura su D ?.. L’incertezza che contribuisce di più all’errore sulla gittata è quello relativo alla velocità.. Quando devo usare

Propagazione degli errori di misura.. Covarianza

 Soluzione Soluzione : scrivere : scrivere test harness test harness che facilitano la che facilitano la ripetizione del collaudo delle unità.. ripetizione del collaudo

La consapevolezza di non riuscire mai a determinare il valore esatto della gran- dezza non deve scoraggiare chi opera la misura perché, se non annullarli, è pos- sibile

NELL’ESECUZIONE DI UNA SERIE DI MISURE , L’ERRORE SISTEMATICO CAMBIA IL VALORE DELLA GRANDEZZA SEMPRE IN ECCESSO O SEMPRE IN DIFETTO.. L’ERRORE SISTEMATICO SI