• Non ci sono risultati.

1 Stato dell’arte

1.2 Data Fusion

1.2.1 Multisensor data fusion

Esistono un certo numero di problematiche che fanno del data fusion un challenge

37

integrare, con le imperfezioni e le diverse tecnologie dei sensori, nonché con la natura dell’ambiente di applicazione. Analizziamone le principali:

• Imperfezione dati: i dati forniti dai sensori sono sempre affetti da qualche livello di imprecisione come l’incertezza delle misure. Gli algoritmi di data fusion devono quindi essere capaci di esprimere tali imperfezioni efficacemente e sfruttare la ridondanza dei dati per ridurre i loro effetti.

• Outliers e dati spuri: le incertezze nei sensori aumentano non solo con l’imprecisione ed il rumore nelle misurazioni, ma sono anche causate dalle ambiguità e dall’inconsistenza presente nell’ambiente e dall’incapacità di distinguerli tra loro [46]. Gli algoritmi di data fusion devono essere dunque capaci di sfruttare i dati ridondanti per alleviare tali effetti.

• Dati conflittuali: l’integrazione di questi dati può essere problematica specialmente quando il sistema di fusione è basato su evidential belief reasoning e Dempester’s rule

of combination [47]. Per evitare di produrre risultati counter intuitive, gli algoritmi di

data fusion devono trattare dati altamente conflittuali con particolare attenzione. • Modalità dati: le reti di sensori possono acquisire dati qualitativamente simili (omogenei) o differenti (eterogenei) come audio, immagini, misure tattili di un fenomeno. Entrambi i casi devono poter essere gestiti efficacemente da uno schema di

data fusion.

• Correlazione dati: questa problematica è particolarmente importante e comune nell’implementazione di fusioni distribuite, ad esempio nelle reti di sensori wireless. • Allineamento/registrazione dati: i dati devono essere trasformati da ogni sistema di riferimento locale del sensore ad uno comune, prima di poter effettuare la fusione. Tale problema d’allineamento è spesso riferito col termine “registrazione dei sensori” e trattato mediante calibrazione degli errori indotti dai nodi individuali di sensori. La registrazione dei dati è di importanza cruciale nello sviluppo con successo di un sistema di fusione.

• Associazione dati: problemi di tracking multi target introducono maggiore complessità nei sistemi di fusione, se confrontati con quelli a singolo target. Una di

38

queste riguarda il problema dell’associazione dei dati, la quale può realizzarsi in due modalità: associazione misura-traccia o traccia-traccia. La prima si riferisce al problema di identificare da quale target, se presente, proviene ogni misura, mentre la seconda tratta la distinzione e la combinazione di tracce che stimano lo stato reale del target stesso [48].

• Processing framework: il processo di data fusion può essere eseguito in maniera centralizzata o decentralizzata. Quest’ultima è usualmente preferibile per le reti di sensori wireless poiché consente, ad ogni nodo di sensori, di elaborare “localmente” i dati acquisiti. Ciò è molto più efficiente se si considerano le risorse di comunicazione richieste da un approccio centralizzato, in cui ogni misura deve essere inviata al nodo centrale prima di essere elaborata e fusa.

• Operational timing: l’area di copertura dei sensori può comprendere un vasto ambiente, composto da molteplici aspetti che variano in modalità differente. Dunque, anche in caso di sensori omogenei, la frequenza operativa dei sensori può essere differente. Un metodo di data fusion ben progettato deve includere scale multi temporali con l’obiettivo di trattare efficacemente tale variazione temporale nei dati. Nei sistemi di fusione distribuiti, parti differenti di dati possono seguire differenti strade prima di giungere al centro di fusione, con conseguente possibilità di arrivi fuori sequenza. Questo problema necessita di un’opportuna gestione, specialmente nelle applicazioni real-time, al fine di evitare potenziali decadimenti delle performance. • Static vs dynamic phenomena: i fenomeni sotto osservazione possono essere tempo invarianti o variabili in funzione del tempo. In quest’ultimo caso può essere necessario, per gli algoritmi di data fusion, incorporare nel processo di fusione una tabella temporale delle misure [49]. In particolare, l’aggiornamento dei nuovi dati, cioè quanto velocemente le sorgenti di dati catturano le variazioni e le memorizzano, giocano un ruolo vitale nella validità dei risultati della fusione. Ad esempio in qualche recente lavoro [50], gli autori hanno eseguito un’analisi probabilistica della storia temporale delle misure aggiornate, al fine di assicurare l’immediatezza dei dati di input e per migliorare l’efficienza del processo di fusione.

39

• Data dimensionality: i dati di misura acquisiti possono essere pre-processati sia localmente, in ogni nodo sensore, o globalmente, nel centro di fusione, per essere successivamente compressi in dati di dimensione minore, assumendo che sia tollerato un certo livello di perdita d’informazione a valle del processo di compressione stesso. Questo fase di pre-processing è utile poiché consente di risparmiare sia sulla larghezza di banda del canale di comunicazione che sulla potenza richiesta per la trasmissione dei dati, in caso di pre-processing locale [51], o limitare l’onere computazione del nodo centrale di fusione, in caso di pre-processing globale [52].

Figura 1.14: Tassonomia delle metodologie di data fusion: differenti algoritmi posso essere classificati in funzione dei quattro problemi dei dati di input (imperfection, correlation, inconsistency, disparateness) [41].

Sebbene molti di questi problemi siano stati identificati ed investigati in maniera approfondita, nessun algoritmo di data fusion è in grado di risolvere contemporaneamente tutte queste problematiche. In effetti, le differenti metodologie presenti in letteratura, si focalizzano sulla risoluzione di un sottoinsieme di tali tematiche, determinata in funzione della particolare applicazione considerata.

Nel caso in esame, in cui l’obiettivo è quello di integrare in maniera efficiente i dati ottici e acustici acquisiti dalla camera progettata, sarà affrontato principalmente, in base alla classificazione riportata, il problema dell’ Allineamento/Registrazione di dati. In Fig. 1.14 è mostrato uno schema della tassonomia utilizzata per classificare i diversi algoritmi di data fusion presenti in letteratura scientifica, basata sulle diverse problematiche a cui possono essere soggetti i dati di input di un sistema di data fusion. Essi, in generale, possono essere “imperfetti”, “correlati”, “inconsistenti” e/o in

40

disparate “forme/modalità”. Ognuna di queste quattro categorie principali può essere ulteriormente suddivisa in sotto categorie che affrontano problemi più specifici.

Per quanto concerne l’imperfezione dei dati, vengono considerati tre aspetti principali: “incertezza”, “imprecisione” e “granularità”. Un dato è definito “incerto” quando il grado di confidenza associato all’informazione presente sul dato stesso è minore di 1. Un dato “impreciso” è uno che si riferisce a molti oggetti, piuttosto che ad un solo. La “granularità” dei dati si riferisce invece all’abilità di distinguere tra gli oggetti che sono descritti dai dati stessi, essendo questi dipendenti dal set di attributi fornito. Inoltre, per quanto concerne “l’imprecisione”, essa si può manifestare come “ambiguità”, “indeterminatezza” o “incompletezza” dei dati. Continuando ad analizzare la tassonomia di Fig. 1.14, si hanno i dati “correlati” (cioè dipendenti) che, come già descritto, rappresentano un problema nei sistemi di data fusion e che dunque richiedono una trattazione opportuna. Troviamo poi “l’inconsistenza” nei dati di input, classificati ulteriormente in dati “conflittuali”, “spuri” o “fuori sequenza”. Infine, i dati possono essere classificati in funzione delle diverse modalità attraverso le quali essi sono forniti: avremo, dunque, una o più modalità di fornitura (dati generati da diversi sensori fisici o da operatori umani).