• Non ci sono risultati.

DATI MONITORAGGI ANNO PARAMETRI ANALIZZATI NUMERO ED ELENCO BIBLIOGRAFICO RIFERIMENTO

4.2 Fase II: Sviluppo del Database

La seconda fase consiste nello sviluppo di un database che permette di visualizzare le relazioni tra i dati e di avere un sistema ordinato e completo delle informazioni in essere sulle risorse idriche. Questo database è stato pensato e sviluppato affinché venga condiviso e aggiornato dagli enti operanti e aventi competenza nel settore idrico.

L’obiettivo di questa fase era cercare di organizzare le informazioni raccolte in modo funzionale per una gestione di tutti i dati sia esistenti che futuri sulla matrice acqua. Non si esclude, in futuro, la possibilità di estenderlo alle altre matrici ambientali e alle altre isole dell’Arcipelago.

Il database, inoltre, è stato pensato in un’ottica di condivisione delle informazioni tra le organizzazioni in modo tale da avere un’unica infrastruttura dati su cui inserire i risultati delle analisi svolte. Per una migliore gestione delle informazioni, oltre ai codici identificativi dei campioni e dei siti d’interesse, sono stati sviluppati una serie di altri codici che permettessero una più semplice digitalizzazione e un minor rischio di commettere errori durante le trascrizioni dei dati.

Questa fase é stata suddivisa in tre sottofasi principali: l’elaborazione di un DBMS in ambiente Microsoft Access, le query sviluppate e l’utilizzo di grafici e test statistici per valutare la bontà dei dati storici delle campagne di campionamento idrico.

4.2.1 Elaborazione del DBMS

Lo sviluppo del Database Management System è consistito nella creazione di otto tabelle relazionali (Figura 32) che raccogliessero tutte le informazioni raccolte e digitalizzate nel foglio di calcolo “Metadatos agua”.

Pagina 106 di 296 Figura 32. Schema delle relazioni tra le tabelle. La tabella “codigo_SITIOS” permette il collegamento e la visualizzazione dei dati in GIS.

Nella Tabella 5 è riportata come esempio la struttura della tabella Toma_de_Muestras, mentre quella delle tabelle Codigo_Sitios, Responsables, Parametros, Muestras, Unidades_de_Misura, Limites_de_ley, e Instrumentos sarà descritta nell’allegato 3.

Nome Campo Tabella

“Toma_de_Muestras” Tipo di dato Descrizione

Codigo_Sitio Testo Siti d’interesse dove sono stati fatti i campionamenti (35 siti diversi).

Fecha Data/ora Data del prelievo del campione. Hora Data/ora Ora del prelievo del campione.

Marea Testo Alta o Bassa marea al momento del prelievo del campione.

Temperatura Testo Temperatura esterna al momento del prelievo del campione; ricostruzione da database zone FCD. Lluvia Testo Precipitazioni al momento del prelievo; mai

rilevate, ricostruzione da database zone FCD. Cogigo_Responsable Testo Codice responsabile del campionamento: 12 codici

divisi per anno e istituto. Tabella 5. Struttura Tabella “Toma_de_Muestras”

4.2.2 Elaborazione di query

Come spiegato nel capitolo 3, un DBMS permette l’interrogazione dei dati (query) con lo scopo di recuperare o effettuare delle operazione su specifici dati. Le query elaborate nel presente caso studio, con lo scopo di svolgere un’analisi preliminare, permetto di conteggiare:

­ il numero di repliche per ogni parametro in ogni sito, così da poter capire quante volte è stato misurato lo stesso parametro in ogni sito;

­ il numero di parametri per sito, per comprendere quanti parametri sono stati analizzati in ciascun sito (ad esempio, per alcuni siti risulta rilevato un solo parametro);

­ gli anni in cui sono stati fatti i campionamenti: si può così visualizzare nei vari siti, per quanti e in che anni, sono stati fatti i prelievi;

­ il numero di campionamenti effettuati negli anni: per poter capire quante volte in un anno sono state fatte, in un sito, le analisi.

Inoltre, sono state calcolate delle statistiche dei parametri. L’obiettivo era di visualizzare, per ogni sito, il valore minimo, massimo, la media e la deviazione standard per ogni parametro misurato.

Con il procedere delle analisi ed elaborazioni sui dati raccolti dalle precedenti campagne di campionamento si è scesi maggiormente nel dettaglio. Si sono svolte delle interrogazioni, suddivise in base al parametro in questione, che hanno permesso di visualizzare, per ogni sito e data, i valori rilevati. Le informazioni sono servite per le successive analisi delle serie temporali e della distribuzione statistica con lo scopo di comprendere e visualizzare la variabilità e bontà dei dati reperiti dai monitoraggi ambientali.

4.2.3 Controllo di coerenza dei dati storici per la validazione

Dal campione di acqua prelevato e analizzato da uno strumento, si genera un dato di qualità delle acque; tale dato che, in alcuni casi, può evidenziare una scarsa qualità e, quindi, delle potenziali ripercussioni per la salute e/o sull’ecosistema, può indurre gli enti competenti ad applicare provvedimenti esistenti o a pianificarne di nuovi per il futuro (Corvaglia et a., 2008).

La qualità dei dati è, quindi, fondamentale quando si devono interpretare i risultati per poi gestire efficacemente ed efficientemente un sistema e risolvere delle eventuali problematiche.

Per questo motivo è sorta la necessità di fare un controllo di coerenza per la validazione dei dati storici. Tale verifica è dovuta ai dubbi sulla bontà dei dati, emersi durante la digitalizzazione dei dati storici e durante l’osservazione delle statistiche elaborate in Access.

Pagina 108 di 296 Si è deciso, quindi, di procedere con un controllo di coerenza, nel quale sono stati coinvolti strumenti informatici. L’obiettivo era scoprire se ci fossero dei valori che potevano essere definiti errati.

Una validazione preliminare e sommaria dei dati acquisiti è servita per evidenziare e, in qualche caso, eliminare, gli errori grossolani (per i dettagli vedere il capitolo 5).

I passaggi eseguiti si possono suddividere in quattro punti:

1) Costruzione di una query in Access: calcolo di valore minimo, massimo, medio e la deviazione standard per ogni parametro analizzato in ogni sito;

2) Creazione di un foglio di calcolo Excel per ogni singolo parametro: visualizzazione dei valori di ogni parametro per ogni sito e per data di prelievo.

3) Analisi delle serie temporali: andamento temporale per ogni sito, divisi in base alla tipologia d’acqua e rapportati al limite di legge per osservare, in maniera rapida e istantanea, se nell’andamento ci sono delle anomalie evidenti.

4) Analisi della distribuzione statistica, tramite la produzione, con il programma R, di boxplot. Il boxplot è un metodo in grado di rappresentare una distribuzione statistica. È rappresentato da un rettangolo diviso in due parti, dal quale escono due segmenti (Figura 33).

Figura 33. Struttura di un boxplot (Tukey, 1977).

La linea interna al rettangolo è la mediana della distribuzione, mentre le linee estreme del box rappresentano il primo e il terzo quartile e la loro distanza, detta distanza interquantilica, è la misura della dispersione della distribuzione: il 50% delle osservazioni si trovano comprese tra questi due valori. Se questo intervallo è piccolo, significa che la metà delle osservazioni si trova fortemente concentrata intorno alla mediana. All’aumentare della distanza interquantilica, aumenta la dispersione del 50% delle osservazioni centrali (Tukey, 1977).

I segmenti uscenti dal rettangolo, detti baffi, individuano i valori minimo e massimo, mentre i valori esterni a questi limiti, sono considerati valori anomali rispetto alla maggior parte dei valori osservati.

Un’analisi preliminare di tutte le operazioni svolte ha evidenziato che:

­ Alcuni parametri non sono confrontabili nel tempo, perché sono state fatte delle singole misurazioni non continue.

­ Ci sono dei problemi nell’interpretazione di alcuni dati, causati da un inadeguato intervallo dello strumento: il limite di legge risulta inferiore al limite di rilevabilità dello strumento.

Pagina 110 di 296 ­ In alcuni casi è evidente un errore nella trascrizione dei dati coerenti con

l’unità di misura.

Per i dettagli si rimanda al capitolo 5.