• Non ci sono risultati.

La rappresentazione tridimensionale: modellazione 3D poligonale e nurbs

5.3 Texture mapping e visualizzazione

Dopo la generazione della superficie, il modello può es- sere visualizzato in modalità wireframe, shaded o textu- red model. Uno degli strumenti più adeguati per la do- cumentazione di oggetti tridimensionali è rappresentato dal modello geometrico texturizzato, poichè è in grado di fornire una visualizzazione fotorealistica oltre che una sua rappresentazione geometrica. É inoltre possibi- le utilizzare immagini a colori per ottenere tale visualiz- zazione fotorealistica di un modello 3D; in particolare, nelle applicazioni terrestri, se sono noti i parametri sia interni che esterni di orientamento delle immagini, at- traverso una procedura automatica viene colorata ogni faccia della mesh poligonale col colore corrispondente

presente nella foto quindi i valori di colore RGB all’in- terno del triangolo proiettato sono attaccati alla faccia dello stesso. Nel caso di texture multi-immagine si fa generalmente una media dei valori RGB trovati.

Le problematiche in questo processo possono essere di- verse è dovute a: distorsioni radiometriche nelle imma- gini, causate da acquisizioni con differenti camere da differenti posizioni e con differenti condizioni di luce; distorsioni geometriche dovute a scorrette procedure di orientamento; occlusioni dovute ad oggetti fermi o in movimento, alberi, auto, ecc. davanti all’area in esame, da rimuovere in fase di pre-processamento; le imma- gini digitali possono presentare spesso, per le foto de-

Nelle tre immagini, rendering di una porzione di modello resti archeologici del sito di Masada.

gli ambienti interni, problemi di basso range dinamico, cioè, per visualizzare le zone scure si deve sovraesporre e quindi si saturano le zone illuminate e viceversa per vedere le zone illuminate si deve sottoesporre, rendendo nere le zone non illuminate; la soluzione sono le imma- gini cosiddette high dynamic range, che combinano in una unica immagine le informazioni di radianza di una sequenza di immagini standard.

Quando invece s’intende mappare sul modello 3D del- le immagini con parametri di orientamento incogniti, è necessario fare ricorso al modulo UV mapping, al fine di individuare la relazione fra immagini e oggetto 3D. Infatti un sistema molto particolare per l’applicazione di textures agli oggetti è rappresentato dall’utilizzo del modulo UV Mapping. Tramite questo sistema non si creano materiali predefiniti che vengono applicati suc- cessivamente a parti o ad interi oggetti ma si crea una vera e propria “pelle” che andrà a rivestire il modello. L’UV Mapping consiste nell’assegnare coordinate UV (coordinate della texture) ai poligoni. Questo permette di nascondere il basso numero di poligoni “sotto” le textures.

Nelle immagini, rendering di una porzione di modello resti archeologici del sito di Masada. Nello specifico, il modello è stato realizzato attraverso la modellazione della nuvola di punti, ricavata dal rilievo laser scanner. La texture applicata è stata ricavata attaverso la fotomodellazione.

In altre parole, i piccoli dettagli che non sono modellati nella mesh acquistano nuovamente forma con l’applica- zione sulle textures.

Infine la resa finale può essere migliorata applicando ef- fetti di bump mapping. Si tratta di un effetto che viene ottenuto tramite l’introduzione di piccole perturbazioni direzionali della normale alla superficie, al fine di ag- giungere effetti di irregolarità ed ottenere così rese più realistiche.

Un’altra tecnica, denominata displacement mapping, viene invece implementata in fase di rendering e con- siste nella traslazione della posizione dei punti lungo la normale alla superficie di una distanza definita dalla mappa di displacement, la quale è a sua volta funzione della texture.

Una variante rispetto a tale approccio è dato dal view-de- pendent displacement mapping, che risulta più efficace del precedente in termini di ombre auto portate e self occlusion.

Tutto ciò serve per aggiungere dettagli in fase di textu- rizzazione proprio grazie all’impiego di bump e displa- cement mapping. Questo metodo consente di limitare i calcoli computazionali richiesti da molti sistemi di ren- dering.

I programmi di renderizzazione tridimensionali hanno raggiunto livelli qualitativi che fanno avvicinare sem- pre di più il risultato alla realtà, per semplificare anco- ra di più il processo di creazione di visualizzazioni fo- torealistiche, la loro interfaccia è cambiata nel tempo, diventanto sempre più semplice ed intuitiva.

L’importanza inoltre della gestione delle luci e delle ombre ,per una corretta descrizione morfologica e cro- matica del modello tridimensionale, è evidenziata nel- la semplicità con il quale in alcuni programmi si arriva alla corretta e veloce impostazione di tutti i parametri riguardanti la radiosity.

Nella renderizzazione di un modello tridimensionale rappresentante un elemento archeologico o naturale è essenziale per capirne meglio la morfologia e poterne cogliere aspetti altrimenti poco visibili in assenza di ombre. La resa fotografica ottenuta grazie all’utiliz- zo di una luce puntiforme (sole), rispetto ad una luce ugualmente diffusa per tutto l’ambiente, può essere ancora di più enfatizzata in fase di postproduzione fotografica, esportando tali fotografie in programmi di fotoritocco è possibile aumentare notevolemte il contrasto e l’illuminazione dando ancora più profon- dità e importanza ai dettagli cromatici che descrivono l’andamento della mesh poligonale che costituisce il modello.

I modelli generati attraverso fotomodellazione, con- tengono per loro natura la descrizione cromatica dell’oggetto, non neccessitando quindi di nessun ag- giunta di eventuali texture in fase di renderizzazione.

Ad esempio per il modello dell’intero sito archeologi- co di Masada, realizzato per scopi di visualizzazione d’insieme, con un grado di affidabilità morfologica media, è risultato conveniente e più pratico unire la tecnica di modellazione poligonale e nurbs.

Prendendo come base la mesh nata dalla nuvola dei punti e unendola alle varie mesh relative alle parti più interessanti dal punto di vista archeologico, arriviamo ad ottenere un modello di pari peso ma con una defi- nizione a livello visivo e foto-cromatico maggiore e più definita.

Le texture utilizzate sono di due tipi diversi: texture estrapolate dal modello fotogrammetrico ed applica- to alla mesh generata dalla nuvola dei punti del laser scanner, che risulta più dettaglia e texture ricavate da fotogrammetria bidimensionale.

Quindi, le parti del modello generato da fotomodella- zione sono munite di texture fin dall’esportazione del

Nelle immagini, texture esportata da PhotoScan; modello rimappato in Rhinoceros; divisione del modello in layer per una gestione più fluida del lavoro di texturizzazione.

file da Photoscan. Il modello, generato dalla creazione di una mesh sulla nuvola acquisita con il laser scan- ner, deve invece essere mappato grazie all’utilizzo di texture ricavate dai fotopiani e dalle foto acquisite nel rilevamento riguardanti le parti interessate.

Il modello per comodità è stato diviso in layer in base al tipo di materiale o al tipo di texture che è stata applicata. Per la creazione di tali texture è stata effettuara un’at- tenta analisi dell’immagine originale per evitare pro- blematiche di presenza di ombre e operando su di esse per eliminare preliminarmente ogni tipo di imperfezio- ne e regolarne l’esposizione grazie a programmi di fotoritocco.

Nelle immagini texture ricavate da fotogrammetria bidimensionale; divisione in layer del modello e mappatura di una porzione di mesh.

Note

1. De Luca, 2011; 2. Verdiani, 2012; 3. Picchio, 2014;

Rendering fotorealistico dei resti archeologici siti nella terrazza più bassa del Palazzo di Erode, a Masada.

Le informazioni ottenute tramite i diversi metodi di acquisizione elaborate fino all’ottenimento di prodotti, come abbiamo visto, di tipo bidimensionale e soprattut- to di tipo tridimensionale.

Entrambe nasceranno da una post-produzione che ha come base la fotogrammetria e l’acquisizione di dati per mezzo del laser scanner. I modelli 3D digitali si otten- gono infatti grazie all’utilizzo di sensori di misura atti- vi, come appunto i laser scanner, o passivi, usualmente macchine fotografiche, anche se si possono integrare dati da fonti come sistemi CAD o GPS.

E’ stato possibile immettere giudiziosamente sul file entrambe le ricche schiere di immagini e i modelli ge- nerati attraverso di esse. Un immediato e corretto col- locamento dei modelli individuali sulla generale nuvola di punti, è un necessario prerequisito per lo sviluppo di osservazioni riguardanti l’affidabilità metrica e il livello di descrizione che queste metodologie possono offrire nel campo dell’archeologia.

Lo svilupparsi di ambienti virtuali e modelli tridimen- sionali interattivi in cui utenti specializzati possono in- teragire realizzando mappe cognitive sul contesto cul- turale e storico, è uno degli scopi perseguiti da queste procedure: i modelli altamente rappresentativi simulano le reali condizioni delle strutture archeologichee archi- tettoniche che diventano vere simulazioni virtuali, per la pianificazione e la gestione di test e modelli di sviluppo. Il modello digitale può essere visto allora come un ac- curato insieme di misure nello spazio, dalla quale si possono estrarre ed estrapolare ogni tipo di informazio- ne morfologica, oppure, dove dal modello creato tra- mite fotogrammetria è possibile estrarre la texture che ne descrive in maniera fotorealistica le caratteristiche morfologiche e cromatiche.

La texture potrà quindi essere successivamente utilizza- ta per integrare i modelli tridimensionali ottenuti grazie

alla rielaborazione della nuvola dei punti nata dal rilie- vo scanner. La scelta è strettamente legata all’oggetto analizzato e agli obbiettivi prefissati per il rilievo, non- ché alla scala di dettaglio a cui s’intende arrivare. La domanda da porsi dunque non sarà solo se la fotomo- dellazione sia utile per il rilievo scientifico ma quando e se sia opportuno unire tale tecnica alle già conosciute tecniche di rilevazione non diretta. Il supporto nel com- pletamento dell’informazione acquisita risulta in ogni caso necessario, almeno per quanto riguarda la corretta descrizione fotocromatica del rilevato.

Attualmente il vantaggio principale dei sistemi passivi è costituito dal costo e dalla trasportabilità dei sensori, di contro ne possono derivare modelli particolarmente incompleti nei casi di geometria irregolare, poiché sono necessarie superfici con caratteristiche ben marcate. I sensori attivi invece presentano il vantaggio di poter acquisire in pochi secondi e in via automatica dense nuvole di punti 3D organizzate; tuttavia presentano anch’essi degli inconvenienti poiché generalmente sono progettate per uno specifico campo di utilizzo, di con- seguenza un sensore progettato per un impiego a corto raggio non può essere adoperato per un uso a lunga di- stanza. Nel caso di strutture aperte, inoltre, il risultato di una procedura di allineamento dei dati acquisiti può far emergere errori cumulativi nel modello finale.

Pertanto la soluzione ideale è senz’altro quella che pre- vede la combinazione fra le due tecniche, in modo tale che i metodi di acquisizione mediante le immagini per- mettano di rilevare la geometria elementare degli og- getti, mentre attraverso scansione laser possono essere acquisiti i dettagli fini.

c

aPItoLo

6