• Non ci sono risultati.

7. Determinazione dell’incertezza sperimentale

N/A
N/A
Protected

Academic year: 2021

Condividi "7. Determinazione dell’incertezza sperimentale"

Copied!
8
0
0

Testo completo

(1)

7. Determinazione dell’incertezza sperimentale

L’errore di una misura sta ad indicare la sua incertezza, legata anche all’attrezzatura utilizzata per la misurazione della stessa. In generale, la misura di una quantità x, è scritta come:

X = ±x

δ

x (7.1) dove:

- X rappresenta il valore misurato, - x rappresenta il valore della grandezza -

δ

xrappresenta l’errore.

La bontà di una misura è indicata non solo dall’errore

δ

x, ma anche dal rapporto:

x x

δ

(7.2) la (7.2) prende il nome di errore relativo o precisione.

La maggior parte delle grandezze fisiche non possono di solito essere misurate da una singola misura diretta, ma vengono invece determinate in due o più passaggi distinti (come nel nostro caso). In primo luogo occorre misurare direttamente le grandezze x, y,…, dalle quali calcolare quella che ci interessa. In secondo luogo, utilizzando tali valori, si calcola la grandezza in questione. Quindi per il calcolo, dapprima occorre stimare gli errori delle grandezze che sono misurate direttamente, e poi trovare come questi errori si propagano attraverso i calcoli per produrre un errore nel risultato finale.

7.1 Calcolo degli errori

Incertezza nei prodotti e nei quozienti

Gli errori nei prodotti e nei quozienti sono meglio espressi in termini di errori relativi, quindi se misuriamo qualche grandezza x, y come:

(valore misurato di x) = x±

δ

x

(valore misurato di y ) = y±∂y

nel solito modo, anche l’errore relativo in x e y è definito come: (errore relativo in x) =

δ

x x/

(errore relativo in y )=

δ

y y/

il risultato della misura di qualsiasi grandezza x, y può essere espresso in termini del suo errore relativo come:

(2)

(valore di x) =x

[

(

δ

x x

)

]

(valore di y ) =y

[

(

δ

y y

)

]

Allora il valore q=xypuò essere scritto come: (valore di q ) = x

[

(

δ

x x

)

]

y

[

(

δ

y y

)

]

Dunque il più grande valore di q è:

(

qmax

)

=x

[

1+

δ

x x

]

y

[

1+

(

δ

y y

)

]

Poiché ∂x/x <<1,

(valore di maxq ) = xy

[

1+

(

δ

x x

) (

+

δ

y y

)

]

(valore di minq ) = xy

[

1−

(

δ

x x

) (

δ

y y

)

]

Combinando le due espressioni troviamo che: (valore di q) =xy

[

(

(

δ

x x

) (

+

δ

y y

)

)

]

e notiamo che il migliore valore per q è q =xy, come dovremmo aspettarci; l’errore relativo è:

(

) (

)

[

x x y y

]

q q

δ

δ

δ

≈ +

In conclusione quando dividiamo o moltiplichiamo due grandezze misurate x, y l’errore relativo nel risultato è la somma degli errori relativi in x e y .

Incertezza nelle somme e nelle differenze

Nel caso delle somme e delle differenze di due misure x, y si procede calcolando prima il valore più basso e più alto di tale operazione, quindi nel caso di x+y sarà:

(

x y

)

y

x+ +

δ

+

δ

e x+ y

(

δ

x+

δ

y

)

Così la migliore stima per q è q =x+ y ed il suo errore relativo sarà:

y x

q δ δ

δ = +

Prodotto di una grandezza misurata per un numero esatto

Nel caso di un prodotto di una misura x per un numero B che non ha errore, secondo quanto detto in precedenza, l’errore relativo in q=Bx è la somma di quelli in B e x; dal momento che

δ

B=0si ricava

δ

q q =

δ

x x

(3)

Incertezza in una potenza

Se la grandezza x è misurata con un errore

δ

x, allora nell’operazione:

n

x

q=

l’errore relativo di q sarà n volte quello di x:

(

x x

)

n q

q

δ

δ

=

7.2 Errori nelle misure indirette (caso di funzioni lineari)

Consideriamo una grandezza L espressa mediante una funzione lineare che lega tra di loro più grandezze indipendenti e misurate direttamente.

Esempio di una grandezza di questo tipo è il perimetro di un poligono ottenuto per somma dei lati misurati direttamente. La grandezza L, in questo caso, viene espressa mediante un’equazione lineare del tipo: L = aX + bY + cZ + … +l nella quale X, Y, Z, … sono le grandezze misurate direttamente, mentre a, b, c, …l sono delle costanti.

Se indichiamo con δXYZ...gli errori delle grandezze X, Y, Z,…, l’ errore della grandezza L è dato da:

... 2 2 2 2 2 2 + + + ± = a X b Y c Z L

δ

δ

δ

δ

Nel caso in cui si ha: a = b = c = … = 1, come, ad esempio, nel caso del perimetro di un poligono, l’espressione per il calcolo dell’errore della grandezza L diventa:

... 2 2 2 + + + ± = X Y Z L

δ

δ

δ

δ

Quindi utilizzando la distribuzione di Gauss, l’errore non sarà più δxy, ma

( ) ( )

2 2 y

x

δ

δ

+ . Questa differenza è dovuta al fatto che l’incertezza δq≈δxy è probabilmente una sovrastima di qδ . Consideriamo quindi, come potrebbe accadere, che il reale valore di q sia uguale all’estremo più alto, cioè x+y+

(

δ

x+

δ

y

)

. Ovviamente questo accade se noi abbiamo sottostimato sia x che y dell’intero ammontare

δ

x e yδ . Questo è piuttosto improbabile che possa accadere, allora il valore δq≈δxy sovrastima il nostro errore probabile. Quindi l’espressione δq≈δxy è un limite superiore valido in tutti i casi e da prendere in considerazione se abbiamo qualche dubbio sull’indipendenza delle misure.

(4)

7.3 I diversi tipi di errori

Come accennato all’inizio del capitolo, se si esegue la misura di una qualsiasi grandezza fisica si commettono degli errori, di conseguenza il risultato trovato non è esattamente il vero valore; quest’ultimo non sarà perciò mai noto con precisione. Si possono distinguere due categorie di errori:gli errori causali e gli errori sistematici.

Errori casuali

L’errore casuale o accidentale è pari alla differenza tra le misure effettivamente eseguite e la misura teorica, quella cioè che si sarebbe potuta effettuare in condizioni ideali.

Gli errori casuali sono dovuti a imprevedibili variazioni spaziali e temporali di grandezze che hanno influenza sulla misura.

Sebbene non sia possibile compensare completamente gli errori casuali, il loro effetto può essere ridotto aumentando il numero di osservazioni e calcolando la media aritmetica di un numero sufficientemente elevato di misure; l’errore casuale è il risultato di una misurazione meno la media che si potrebbe ottenere da un numero infinito di misurazioni della grandezza sotto condizioni di ripetibilità.

Errori sistematici

L’errore sistematico è pari alla differenza tra quello totale e quello casuale.

Se la popolazione delle misure possibili è spostata rispetto alla misura vera, si è in presenza di errori sistematici. Questi sono causati essenzialmente dalle rettifiche degli strumenti di misura e producono variazioni di verso ed entità costanti al ripetersi delle misurazioni; non possono essere eliminati, ma spesso possono essere ridotti: se viene identificato un difetto nello strumento, esso può essere quantificato e, se esso è significativo per l’accuratezza richiesta, si può applicare una correzione numerica per compensarne il difetto o procedere con una nuova misurazione in condizioni di non riproducibilità.

7.4 Errori in una catena di misure

Come già detto, tutti i valori misurati di grandezze sperimentali presentano un’incertezza dovuta a fattori come la precisione e la sensibilità dello strumento di misura, l’effettiva stabilità delle condizioni sperimentali, e così via. Il valore rilevato non corrisponderà, in generale, a quello esatto, ma ne rappresenterà con una certa probabilità una sua approssimazione: è necessario quindi corredare ogni grandezza misurata del suo errore di misura. Nel caso di valori ottenuti tramite una cosiddetta catena di misure, composta di sensori, trasduttori, strumenti per la rilevazione dei segnali e la loro conversione, come nella nostra esperienza condotta in laboratorio, oppure tramite una relazione funzionale che

(5)

coinvolge più grandezze misurate, va anche considerata la propagazione degli errori dovuta a queste operazioni. Per stimarla, si è fatto uso dei metodi descritti in [65], in particolare la correlazione di Kline-McClintock e la perturbazione in sequenza riportata in [66-67]. Di seguito viene data una breve descrizione dei metodi succitati, illustrandone l’applicazione al calcolo delle grandezze di interesse per questa tesi.

La propagazione degli errori in una catena di misure viene normalmente calcolata mediante il metodo RSS (root-sum-squares): indicata con ux l’incertezza sperimentale a cui la

grandezza x è soggetta e con ei, i=1, 2, ……, K gli errori legati a ciascun anello della

catena di misura, se si suppone che la distribuzione degli errori attorno al valore reale sia di tipo gaussiano, si ha:

 = ±∑ 

(7.3)

che dà una stima più plausibile dell’errore rispetto al prendere la somma dei valori assoluti di tutti gli errori elementari.

Quando si deve stimare l’approssimazione che influenza una grandezza calcolata a partire da una relazione funzionale tra più grandezze misurate sperimentalmente, non si tiene normalmente conto degli errori di tipo algoritmico, ovvero generati dalla successione delle operazione di calcolo, in quanto la causa principale di incertezza è la propagazione dell’errore sui dati. Per stimare quest’ultimo si ricorre usualmente alla correlazione di Kline-Mcclintock, ottenuta troncando al primo ordine lo sviluppo in serie di Taylor dalla relazione R= f(x1, x2, …., xL) tra le grandezze misurate. La stima di R con una probabilità

definita è data da:

=  +  (7.4)

dove  è calcolata usando i valori mei delle variabili indipendenti e uR è dato da :

(

)

[

]

1/2 1 2

= ⋅ = N i i x R u i u

ϑ

(7.5) I θi sono chiamati indici di sensibilità e vengono definiti come:

=, calcolata in xi = ̅ (7.6)

e calcolati per il valor medio del vettore delle grandezze x, o, in mancanza di questo, per il valore nominale atteso delle variabili: l’indice di sensibilità dà una indicazione di quanto il valore di R sia influenzato dalle variazioni delle singole xi. Si ipotizza ancora che i dati

misurati assumano una distribuzione di tipo gaussiano attorno al valore esatto e che ogni misura sia indipendente dalle altre. Questo metodo è stato usato per calcolare l’errore sperimentale sul flusso termico specifico, dove la derivazione parziale della formula che

(6)

fornisce q” è poco laboriosa. Quando il processo di derivazione è troppo lungo o dispendioso in termini di tempo è possibile utilizzare un metodo numerico chiamato perturbazione in sequenza, che utilizza un metodo alle differenze finite per approssimare le derivate. Operativamente, si calcola il valore di R per condizioni sperimentali fissate, in modo da ottenere un valore di riferimento, R0. Si calcolano poi gli =f ( +  , j=1, 2,

…, L) e gli  =  ( -  ,  = 1, 2, … , #), per i=1, 2, …, L: Si può ora approssimare il prodotto  con l’espressione:

 =%& '(%% &)(% (7.7) e calcolare uR come:  = ±*∑ (+), - / (7.8)

Tale metodo è stato utilizzato per il calcolo della temperatura di parete.

7.5 Errori commessi nella sperimentazione

Nella tabella sottostante (6.1) sono riportate le grandezze misurate e calcolate nella nostra indagine sperimentale, con i corrispondenti valori di riferimento e di incertezze sperimentali.

Tabella 7.1

Incertezza su quantità misurate e su quelle calcolate nella sperimentazione

Quantità misurate Valore di riferimento Incertezza

Temperatura bagno 75°C ±0,1°C Corrente 120 A 0,3% Tensione 1,7 V 0,2% Temperatura dell’asse del cilindro 131°C ±0,1°C Misure di lunghezza <0,01mm

Quantità calcolate Valori di riferimento Incertezza

Temperature esterna cilindro (Tcil) 126°C 10,5%

Superficie di scambio 6,6·10-4m2 0,4% Flusso specifico (q”) 3,2·105 W/m2 1% Differenza di temperature cilindro-acqua

(Tcil- TH2O) 51°C 10,6%

(7)

Dalla tabella sovrastante si ricava che l'errore relativo al coefficiente di scambio convettivo, h, che è la variabile più significativa nel nostro studio, è pari a 11,6% e, dunque, approssimando per eccesso, al 12%.

Il grafico in Figura 7.1 mostra l’andamento del coefficiente di scambio convettivo, h, in funzione del flusso termico specifico dissipato dal cilindro, in assenza di ultrasuoni, ad un grado di sottoraffreddamento di 35°C. Tale andamento si riscontra usualmente nelle nostre prove. Nel suddetto grafico sono riportate anche le curve del massimo e del minimo sul valore calcolato su h, rispettivamente indicate con range superiore ed inferiore di errore.

Fig.7.1: Andamento di h, in assenza di ultrasuoni, a ∆TSUB =35°C, con il range superiore

ed inferiore dell’errore su h stesso.

2000 3000 4000 5000 6000 7000 8000 9000 10000

1,2E+05 1,4E+05 1,6E+05 1,8E+05 2,0E+05 2,2E+05 2,4E+05 2,6E+05 2,8E+05 3,0E+05 3,2E+05

q'' [W/m²] h [ W /m ²K ] valori calcolati range superiore di errore range inferiore di errore

(8)

Riferimenti

Documenti correlati