• Non ci sono risultati.

Acquisizione ed elaborazione dati zona 2: fondale

4 Metodologia per la modellazione 3D di siti archeologici sommersi

4.2 Ricostruzione ottico acustica sito archeologico Capo Colonna

4.2.1 Acquisizione ed elaborazione dati zona 2: fondale

Il tratto di fondale che costituisce la zona 2 del sito archeologico di capo Colonna è prevalentemente sabbioso con presenza in alcune aree di tratti rocciosi ricoperti da Posidonia Oceanica. Poiché l’Unical, in collaborazione con ISPRA, ha realizzato nell’Area Marina Protetta di Isola Capo Rizzuto alcune sperimentazioni in campo sull’applicazione di tecniche di imaging 3D per la mappatura di praterie di Posidonia Oceanica, si è deciso di utilizzare tale metodologia e le soluzioni tecnologiche ivi proposte per il rilievo e l’acquisizione dei dati ottici della suddetta zona e realizzare in tal modo sia un fotomosaico che una ricostruzione 3D dei transetti acquisiti. La piattaforma hardware impiegata per l’acquisizione è stata la slitta di superficie a traino presentata nella sezione 4.1.1. Al fine di evitare eccessive distorsioni ottiche sulle immagini acquisite ed ottenere una buona risoluzione delle stesse, le GoPro hero 3 + black edition installate a bordo della slitta sono state settate in modalità time lapse (intervallo 0.5 s), risoluzione 12 MP (4000 x 3000 pix) e FOV medium (94.40 x 72.20). Il primo passo della metodologia consiste nel dimensionamento della griglia attraverso la quale definire la rotta che dovrà percorrere l’imbarcazione da traino durante l’acquisizione dei vari transetti. L’obiettivo è quello di garantire una sovrapposizione tra le immagini del singolo transetto di circa il 60% e una sovrapposizione di circa il 20% - 30% tra i vari transetti acquisiti (in maniera parallela). I parametri necessari ad un corretto dimensionamento della griglia sono:

• stima FOV delle camere in acqua; • profondità del fondale da acquisire; • velocità massima dell’imbarcazione.

127

Per quanto concerne il primo parametro, precedenti sperimentazioni hanno dimostrato che il FOV in acqua della camera GoPro nel settaggio proposto è di 630 x 480 (riduzione di circa il 30%). Essendo la profondità media del fondale di 6.5 m il

footprint C sarà di circa 7.2 m x 5.7 m (Fig. 4.10, sinistra). Una velocità massima

dell’imbarcazione di circa 1 Kn/h, con un time lapse di 0.5 s, garantisce una sovrapposizione tra le immagini del singolo transetto superiore al 75%. Si è dunque deciso di creare una griglia di 5 m x 5 m in modo tale da avere una sovrapposizione tra i transetti di circa il 50%. Essendo l’area delimitata di circa 70 m x 65 m e eseguendo un’acquisizione parallela alla costa (direzione sud-ovest nord-est) in modo da avere una profondità di fondale circa uguale per ogni transetto, sono stati acquisiti un totale di 13 transetti (Fig. 4.10, destra). La griglia così generata è stata successivamente geo – referenziata utilizzando i dati ottenuti nella fase 2 del protocollo operativo e caricati su un GPS cartografico della serie Trimble.

Fig.4.10: schematico per il calcolo del footprint sul fondale della camera GoPro (sinistra). Geometria per la determinazione della dimensione e del numero di transetti d’acquisizione (destra).

Il data set ottico è stato successivamente elaborato utilizzando una metodologia

custom di image enhancement sviluppata presso il DIMEG dell’Unical, impiegata al fine

di eliminare gli effetti di sfocatura dovuti allo scattering e correggere le dominanti di colore (componente colore verde - blu) [92] (Fig. 4.11).

128

Fig. 4.11: risultati applicazione algoritmo custom di correzione immagini [4] su immagini di un tratto di fondale della zona 2 con una notevole estensione di Posidonia oceanica.

Il primo passo della metodologia consiste nell’applicare uno sharp filter al data set d’immagini al fine di attenuare l’effetto “nebbia” causato dallo scattering, che porta ad una diminuzione del contrasto ed ad un aumento della sfocatura delle immagini stesse. Successivamente, il colore delle immagini viene migliorato attraverso un bilanciamento del bianco effettuato nello spazio colore lαβ. Questa tecnica consente di eliminare la dominante colore delle immagini subacquee (soggette tipicamente a fenomeni di alterazione dei colori) bilanciando le componenti cromatiche α e β, mentre la componente di luminanza l è usata per migliorare il contrasto delle immagini attraverso una tecnica di cutoff e histogram stretching. Per quanto concerne la ricostruzione 3D, la metodologia verte su un algoritmo Multi View Stereo (MVS) utilizzato per risolvere la corrispondenza di punti omologhi su una sequenza di immagini non ordinate.

La prima fase della ricostruzione 3D è stata effettuata mediante il software open

source Bundler (pacchetto di strumenti per lo structure from motion) che riceve in input un set di immagini (scattate in sequenza oppure anche disordinate) e produce in output una ricostruzione geometrica preliminare della scena, nonché la posizione ed i

parametri di calibrazione della fotocamera. La ricostruzione 3D finale dei transetti è stata poi portata a termine mediante PMVS2, un software open source che riceve in

input i parametri calcolati da Bundler e fornisce in output una nuvola di punti 3D

densa. Le nuvole di punti 3D dense dei 13 transetti, dopo una fase preliminare di pulitura per la riduzione del rumore dovuto alla ricostruzione, eseguita applicando filtri automatici presenti all’interno del software open source MeshLab, sono state

129

processate mediante l’algoritmo Poisson Surface Reconstruction incluso in Meshlab stesso, ottenendo in tal modo una superficie 3D continua (mesh triangolarizzata). Successivamente è stata effettuata la mappatura delle texture sui modelli 3D risultanti. Tale operazione, definita di UV Mapping, può essere realizzata utilizzando diverse tecniche. Nel caso in esame, vista la conoscenza dei punti di presa della camera, la tecnica utilizzata consiste nella proiezione delle immagini originali ad alta risoluzione direttamente sulla superficie. In questo modo si riesce ad ottenere un modello 3D la cui texture ha una risoluzione comparabile con le immagini originali ed inoltre si avrà l’informazione sul colore anche per le aree aggiunte in post-processing. Applicando tale metodologia sono stati generati i modelli 3D testurizzati per i 13 transetti acquisiti (Fig. 4.12, sinistra). Essendo le immagini del data set geo – referenziate, i modelli 3D generati risultano anch’essi geo – referenziati e già scalati. Grazie ad una sovrapposizione del 50% tra le immagini appartenenti ai 13 transetti, i modelli 3D generati presentano un’elevata percentuale di aree in comune. Il modello 3D finale della zona 2 del sito archeologico di capo Colonna è stato dunque ottenuto registrando tra loro i modelli 3D dei singoli transetti attraverso un’applicazione sistematica dell’algoritmo Iterative Closest Point (ICP).

Fig. 4.12: immagini ortografiche modelli 3D di alcuni transetti della zona 2 del sito archeologico di capo Colonna (sinistra). Fotomosaico transetto 1 (destra).

130

Il fotomosaico del transetto 1 (Fig. 12, destra) è stato realizzato utilizzando il software

open source PANGAEA, strumento per la creazione di fotomosaici specificatamente

progettato per applicazioni subacquee. Dato un set d’immagini della scena acquisita con una sovrapposizione del 60% circa, l’applicazione crea un fotomosaico ad alta risoluzione combinando le varie immagini in maniera tale da non far percepire all’utente la giunzione tra le stesse. La fase di caricamento e di allineamento delle foto è del tutto automatica. Le proiezioni applicabili alle immagini sono presentate in termini di “movimenti della camera” (rotating camera e planar camera) mentre tutta una serie di strumenti sono presenti al fine di correggere le foto caricate (esposizione,

vignetting, bilanciamento del bianco).