• Non ci sono risultati.

Ricostruzione dello scenario Shiplight

3.4 Missioni

3.4.4 Ricostruzione dello scenario Shiplight

Una soluzione alternativa ai metodi di SLAM e Visual Odometry per la ricostruzione densa di una scena tridimensionale `e rappresentata dagli metodi di Multi-View Stereo Matching. Tali approcci, basati sul principio dello Structure from Motion, sono molto robusti e per- mettono di ottenere ricostruzioni da posizionamenti di camera non noti anche in caso di traiettorie poco regolari e geometrie o texture povere di dettagli. La ricostruzione densa della scena si ottiene in due passi, il primo (che comprende l’estrazione delle feature, il matching delle stesse, la stima del posizionamento delle camere e il bundle adjustment) calcola la ricostruzione della nuvola di punti sparsa da una stima del posizionamento e dell’orientazione relativa di immagini adiacenti, il secondo calcola la nuvola densa con metodi diversi a seconda del software usato. Ad oggi esiste un ampia gamma di software open source o commerciali che applicano questa procedura, per questo la Multi-View ste- reo reconstruction `e diventata un metodo di ricostruzione standard in molti campi, dal monitoraggio ambientale al cultural heritage alle applicazioni forensi. Per l’estrazione del- le features, il calcolo dei match tra le immagini, la stima delle posizioni delle camere e la generazione della nuvola densa `e stato usato il software Agisoft Photoscan 1.3.2 Standar Edition. Qualunque software ci si proponga di usare al fine di ottenere una buona ricostru- zione `e indispensabile avere una stima iniziale dei parametri intrinseci della camera usata, un buon ricoprimento della scena (o dell’oggetto inquadrato) con un overlapp generoso tra le immagini, e una buona visibilit`a delle feature. A questo proposito prima di realizzare la ricostruzione della scena le immagini vengono preprocessate applicando enhancement del contrasto (che aumenta il numero delle feature estratte) e del colore (utile solo in seguito per la generazione delle texture) e i parametri intrinseci (calcolati mediante la procedura di calibrazione) inseriti come iniziali in Agisoft. Agisoft estrae le feature dalle immagini tramite l’algoritmo SIFT (Scale Invariant Feature Transform) le feature estratte sono ro- buste rispetto ai cambi di scala ma sensibili alle grosse variazioni di luminosit`a e al motion blur; queste due problematiche devono essere quanto pi`u possibile controllate in fase di acquisizione dei dati. In fase di pre-processing `e importante rendere le immagini pi`u leggi- bili senza introdurre distorsioni che alterino le feature stesse e non le rendano riconoscibili in immagini diverse.

La missione, condotta il 16 giugno 2017, a largo di Livorno presso lo Shiplight, prevede- va di effettuare un ricoprimento fotografico di un’area di interesse a transetti (utilizzando il tradizionale path del tagliaerba) ai fini di ottenere come primo passo una ricostruzio- ne tridimensionale del fondale. Sono state raccolte complessivamente 1804 immagini ad

una risoluzione di 1420x1420 px in sei differenti immersioni del ROV ritraevano un’area complessiva di circa 60x80 metri. A causa di overlap insufficiente tra le immagini, motion blur, presenza di posidonia in movimento non `e stato possibile ottenere una ricostruzione complessiva dell’area. La traiettoria globale, ottenuta importando in MATLAB le coordi- nate del GPS e altitudine (Fig.33) di tutte sei le immersioni, evidenzia chiaramente delle lacune di acquisizione delle immagini consistenti rispetto alla frequenza di scatto di 2Hz. Mancando il dato tra immagini consecutive e mancando l’overlap tra immagini di transetti adiacenti `e impossibile estrarre il posizionamento globale delle camere. Sono stati sele- zionati in MATLAB cluster di immagini vicine (non necessariamente consecutive poich´e provenienti da missioni diverse) al fine di ottenere delle ricostruzioni a blocchi da allineare in Meshlab al fondale globale estratto dalle coordinate di GPS e profondit`a (Fig.39).

Figura 39: Vista dall’alto dell’area mappata.

Le ricostruzioni a blocchi risultano comunque disgiunte per mancanza di dati o per il movimento della Posidonia ma forniscono il dato pi`u completo sul fondale ricavabile. Allineando la traiettoria GPS, l’altitudine con il path di camera ricostruito in Agisoft relativo al processing del cluster di immagini con errore di registrazione inferiore `e stato possibile ottenere una stima della scala per la ricostruzione globale dell’area dello Shiplight (Fig.40).

Figura 40: Scala: path di camera SFM (giallo) Gps (rosso).

Le nuvole di punti ricostruite (relative ai cluster selezionati) sono state fuse in Me- shlab in modo da ottenere mesh triangolate (Screened Poisson Surface Reconstruction

Algorithm) su cui poi `e stata proiettata l’informazione colorimetrica. Il livello di dettaglio presente nelle mesh inquadrate pi`u da vicino (1.5 m circa) `e sufficiente a compiere indagini strutturali a fini di indagini biologiche, Fig.(41).

4

Navigazione in ambiente virtuale



UWSim: Un-

derwater Simulator



UWSim `e un software per la visualizzazione e la simulazione di missioni robotiche sotto- marine. Il software visualizza uno scenario virtuale sottomarino che pu`o essere configurato partendo da una modellazione standard. Si possono controllare veicoli sottomarini, navi di superficie e manipolatori robotici, cos`ı come sensori simulati, possono essere aggiunti alla scena. Il software `e open source, colmando cos`ı un vuoto nel comunit`a di robotica subacquea, dove i simulatori commerciali sono improntati per l’apprendimento dei piloti dei ROV.

La sperimentazione con robot sott’acqua `e normalmente molto difficile a causa del- l’elevato numero di risorse richieste. Una piscina abbastanza profonda per i sistemi da testare `e normalmente necessaria, ma richiede spazio significativo e manutenzione. Un’al- tra possibilit`a `e quella di accedere ad ambienti aperti come i laghi o il mare, ma questo normalmente comporta costi elevati e richiede una logistica speciale. Inoltre, la natura dell’ambiente sottomarino rende molto difficile per i ricercatori (che operano in superfi- cie) osservare l’evoluzione del sistema in esecuzione. Come conseguenza, la validazione sperimentale di questi sistemi `e altamente laboriosa. Al fine di facilitare lo sviluppo di robot subacquei, `e della massima importanza sviluppare simulatori adatti a consentire di sviluppare e testare i sistemi. Diversi simulatori virtuali per veicoli subacquei autonomi sono stati sviluppati, sfortunatamente, la maggior parte di questi simulatori sono obsoleti o specifici per un dato progetto e non possono essere facilmente adattati ad altri progetti.

4.1

Integrazione scenario



Ship Light



Nella missione in mare presso lo Ship Light (LI), sono state acquisite immagini geo refe- renziate del fondale. In seguito sono state processate al fine di ricostruire uno scenario 3D da integrare con il simulatore UWSim per poter testare gli algoritmi di visione.

Il simulatore riconosce scenari in formato .obj, una volta reso compatibile ho ottenuto un risultato come in Fig.(42), in basso a sx si vede la visuale dalla camera del veicolo simulato.

Figura 42: Visualizzazione con UWSim del fondale 3D Shiplight (LI).

La ricostruzione parziale dello scenario, ha permesso di eseguire simulazioni solo nelle zone pi`u grandi.

Documenti correlati