• Non ci sono risultati.

Pipeline di modellazione fotogrammetrica

ITER PER LA REALIZZAZIONE D

3. Sistemi di acquisizione image-based: l’approccio fotogrammetrico

3.5 Pipeline di modellazione fotogrammetrica

intero usso di la oro (in inglese ) fotogram- metrico utilizzato per ricavare informazioni 3D metriche e precise di una scena da una serie di immagini consiste in: (1) la calibrazione della fotocamera e l’orientamento dell’immagine; (2) le misure e la restituzione 3D; (3) la enera ione della super cie ( ) texture mapping e visua- li a ione. ispetto al usso di la oro dei sensori atti i

range-based, la differenza principale rimane nella deri-

vazione della nuvola di punti 3D: mentre i sensori range (cioè gli scanner laser) forniscono direttamente i dati 3D, la fotogrammetria richiede l’elaborazione matematica dei dati dell’immagine per ricavare le nuvole di punti 3D spar- se o dense utili per ricostruire digitalmente la scena rile- vata.

3.5.1 Calibrazione della fotocamera

e l’orientamento delle immagini

La calibrazione della fotocamera e l’orientamento delle immagini sono procedure di fondamentale importanza, soprattutto per tutte le applicazioni – come quelle richieste nel ca po dei eni ulturali c e si asano sull estra io- ne di informazioni geometriche 3D accurate da immagini. Lo sviluppo delle prime teorie e formulazioni sulle pro- cedure di orientamento risale a più di 50 anni fa ed oggi,

infatti, ci sono numerosi sistemi ed algoritmi disponibili. La calibrazione del sensore e l’orientamento dell’imma- gine, anche se concettualmente equivalenti, seguono stra- tegie diverse in base ai sensori delle immagini impiegati. Del resto, mentre in passato venivano adoperate camere metriche, nate esclusivamente per fini fotogrammetrici e di cui si conoscevano già le informazioni di calibrazio- ne105, oggi si utilizzano camere digitali di vario genere che

si differenziano – come già considerato precedentemente – per tipo di sensore, ottica, stabilità, costo, etc. Perché, uindi una ca era di itale possa essere utili ata ai ni etrici e per ottenere in or a ioni detta liate ed a - dabili, debbono essere determinati i paramenti di orienta- mento interno (IO) della macchina mediante una procedu- ra chiamata proprio ‘calibrazione’. Questa costituisce un prerequisito per i sistemi di rilievo metrico tridimensiona- le che partono da immagini e può essere suddivisa in ca- librazione geometrica e radiometrica, tuttavia nell’ambito di tesi sarà trattata solo la calibrazione delle fotocamere

frame terrestri.

Così mentre la fase di calibrazione della fotocamera de- termina i relativi parametri interni (IO), quelli esterni (EO) vengono ottenuti con la procedura di orientamento dell’immagine. Le due operazioni sono spesso distinte in fotogrammetria, partendo dal fatto che caratteristiche ot- timali di un network di immagini per la calibrazione della fotocamera differiscono dalle circostanze migliori per l’o- rientamento dell’immagine.

Ci sono altri approcci che uniscono la determinazione dei parametri interni ed esterni utilizzando lo stesso insieme di immagini e lo stesso procedimento, tuttavia i loro risultati sono normalmente scadenti e non molto precisi.

3.5.1.1 Calibrazione geometrica della fotocamera

La calibrazione geometrica di una fotocamera – come dice Fabio Remondino – è definita come la determinazione delle de ia ioni della realt sica da un siste a di imaging geometricamente ideale basato sul principio della colline- arità: la macchina con foro stenopeico106.

A differenza delle applicazioni – come la CV – dove tale fase corrisponde alla sola determinazione della lunghezza focale, in fotogrammetria vengono calcolati solitamente

−𝑒𝑒 = 𝐴𝐴 ∙ 𝑥𝑥 ∙ 𝑙𝑙 𝑥𝑥 = (𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-)∙ 𝐴𝐴)𝑃𝑃𝑙𝑙 𝜈𝜈 = 𝐴𝐴 ∙ 𝑥𝑥 − 𝑙𝑙 𝜎𝜎0 = 𝜈𝜈 )∙ 𝑃𝑃2 𝑟𝑟 𝐶𝐶55 = 𝜎𝜎06(𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-) 𝜎𝜎578= 𝑞𝑞𝑞𝑞𝜎𝜎;< 𝑘𝑘 [8]

Se i parametri di orientamento interno sono incogniti, il metodo è chiamato self-calibrating bundle adjustment. Il sistema di equazioni non lineare è iterativamente risolto con il metodo dei minimi quadrati; dopo la linearizzazio- ne e l’introduzione di un vettore di errore e, può essere espresso come:

dove e è il vettore di errore; A è la matrice disegno n×m (numero di osservazioni × numero di incognite ed n>m) con i coe cienti delle e ua ioni di collinearit lineari a- te100; x è il vettore delle incognite – ovvero parametri ester-

ni, coordinate dell’oggetto 3D, eventualmente parametri interni (X, Y, Z, X0, Y0, Z0, , x0, y0, f) – ed il vettore assoluto delle osservazioni (cioè le misurazioni).

Generalmente viene aggiunta una matrice dei pesi P (ma- trice diagonale) per ponderare le osservazioni ed i parame- tri incogniti durante la procedura di stima. La stima di x e del fattore di variazione viene di solito supposta (ma non esclusivamente) come imparziale, stima della variazio- ne minima, effettuata mediante minimi quadrati e risulta come:

con i residui delle osservazioni calcolati come:

e la deviazione standard a posteriori ( 0) come:

dove r è la ridondanza del sistema (il numero di osserva- zioni m meno il numero di incognite n).

Il 0 nale del bundle adjustment fornisce una stima sul- la qualità della procedura e delle osservazioni (coordinate immagine dei punti omologhi).

La precisione del parametro vettore è controllata dalla sua matrice di covarianza101

nc sia sin olar ente in erti ile e uindi il sistema risolto come richiesto in [Eq. 3], risulta necessa- rio ssare un datum esterno, cioè i sette parametri di una trasformazione di similarità spaziale tra spazio immagine e spazio oggetto. Ciò viene ottenuto, ad esempio, impor- tando almeno le coordinate di tre punti di controllo a terra (GCP).

Un’altra possibilità è quella di risolvere il sistema di equa- zioni [Eq. 2] in una modalità free-network fornendo la di- stanza di almeno un oggetto conosciuto per recuperare la scala corretta. La scala è molto importante e deve essere fatta nell’ambito della procedura di bundle adjustment (e non a posteriori, una volta che il modello è ottenuto) altri- menti la possibile deformazione del blocco non può essere compensata.

Nel caso in cui siano disponibili punti di controllo, è possi- bile calibrare una camera anche utilizzando un’immagine singola (resezione spaziale, in inglese space resection), ottenendo tuttavia un risultato di qualità decisamente infe- riore rispetto al processo bundle.

A seconda dei parametri che vengono presi in considera- zione, sia noti che con valori incogniti, le equazioni di col- linearità portano a differenti procedure.

Queste non solo descrivono le relazioni tra punti immagi- ne omologhi e punti oggetto attraverso i parametri interni ed esterni della fotocamera utilizzata, ma vengono estese per modellare e compensare tutti i possibili errori sistema- tici presenti all’interno del sistema ‘camera’102.

Come già considerato, il metodo di ricostruzione foto- grammetrica si basa su un minimo di due immagini dello stesso o etto ac uisito da punti di ista di ersi. e nen- do la linea di ase tra le due i a ini e la distan a media tra fotocamera e oggetto, un rapporto ragionevole tra e ( ase pro ondit ) tra le i a ini do re e arantire una orte con ura ione eo etrica e ricostru- zione che è meno sensibile agli errori di rumore e di mi- sura.

Nella fotogrammetria terrestre, un valore tipico del rap- porto do re e essere intorno a 0. anc e se in si- tua ioni pratic e uesto re uisito spesso olto di cile da soddisfare. In generale quando la linea di base è mag- giore, la precisione delle coordinate degli oggetti calcola- ti risulta migliore, tuttavia con linee di base molto estese possono sorgere problemi nel trovare automaticamente le

−𝑒𝑒 = 𝐴𝐴 ∙ 𝑥𝑥 ∙ 𝑙𝑙 𝑥𝑥 = (𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-)∙ 𝐴𝐴)𝑃𝑃𝑙𝑙 𝜈𝜈 = 𝐴𝐴 ∙ 𝑥𝑥 − 𝑙𝑙 𝜎𝜎0 = 𝜈𝜈 )∙ 𝑃𝑃2 𝑟𝑟 𝐶𝐶55 = 𝜎𝜎06(𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-) 𝜎𝜎578= 𝑞𝑞𝑞𝑞𝜎𝜎𝑘𝑘;< [3] −𝑒𝑒 = 𝐴𝐴 ∙ 𝑥𝑥 ∙ 𝑙𝑙 𝑥𝑥 = (𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-)∙ 𝐴𝐴)𝑃𝑃𝑙𝑙 𝜈𝜈 = 𝐴𝐴 ∙ 𝑥𝑥 − 𝑙𝑙 𝜎𝜎0 = 𝜈𝜈 )∙ 𝑃𝑃2 𝑟𝑟 𝐶𝐶55 = 𝜎𝜎06(𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-) 𝜎𝜎578= 𝑞𝑞𝑞𝑞𝜎𝜎𝑘𝑘;< [4] −𝑒𝑒 = 𝐴𝐴 ∙ 𝑥𝑥 ∙ 𝑙𝑙 𝑥𝑥 = (𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-)∙ 𝐴𝐴)𝑃𝑃𝑙𝑙 𝜈𝜈 = 𝐴𝐴 ∙ 𝑥𝑥 − 𝑙𝑙 𝜎𝜎0= 𝜈𝜈 )∙ 𝑃𝑃2 𝑟𝑟 𝐶𝐶55 = 𝜎𝜎06(𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-) 𝜎𝜎578= 𝑞𝑞𝑞𝑞𝜎𝜎𝑘𝑘;< −𝑒𝑒 = 𝐴𝐴 ∙ 𝑥𝑥 ∙ 𝑙𝑙 𝑥𝑥 = (𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-)∙ 𝐴𝐴)𝑃𝑃𝑙𝑙 𝜈𝜈 = 𝐴𝐴 ∙ 𝑥𝑥 − 𝑙𝑙 𝜎𝜎0 = 𝜈𝜈 )∙ 𝑃𝑃2 𝑟𝑟 𝐶𝐶55= 𝜎𝜎06(𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-) 𝜎𝜎578= 𝑞𝑞𝑞𝑞𝜎𝜎𝑘𝑘;< [5] −𝑒𝑒 = 𝐴𝐴 ∙ 𝑥𝑥 ∙ 𝑙𝑙 𝑥𝑥 = (𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-)∙ 𝐴𝐴)𝑃𝑃𝑙𝑙 𝜈𝜈 = 𝐴𝐴 ∙ 𝑥𝑥 − 𝑙𝑙 𝜎𝜎0= 𝜈𝜈 )∙ 𝑃𝑃2 𝑟𝑟 𝐶𝐶55= 𝜎𝜎06(𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-) 𝜎𝜎578 = 𝑞𝑞𝑞𝑞𝜎𝜎;< 𝑘𝑘 [6] −𝑒𝑒 = 𝐴𝐴 ∙ 𝑥𝑥 ∙ 𝑙𝑙 𝑥𝑥 = (𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-)∙ 𝐴𝐴)𝑃𝑃𝑙𝑙 𝜈𝜈 = 𝐴𝐴 ∙ 𝑥𝑥 − 𝑙𝑙 𝜎𝜎0= 𝜈𝜈 )∙ 𝑃𝑃2 𝑟𝑟 𝐶𝐶55= 𝜎𝜎06(𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-) 𝜎𝜎578 = 𝑞𝑞𝑞𝑞𝜎𝜎;< 𝑘𝑘 [7] 𝜈𝜈 = 𝐴𝐴 ∙ 𝑥𝑥 − 𝑙𝑙 𝜎𝜎0 = 𝜈𝜈 )∙ 𝑃𝑃2 𝑟𝑟 𝐶𝐶55= 𝜎𝜎06(𝐴𝐴)∙ 𝑃𝑃𝐴𝐴)(,-) 𝜎𝜎578= 𝑞𝑞𝑞𝑞𝜎𝜎𝑘𝑘;<

termini per la correzione delle coordinate delle immagini

(1) [9] [10] [11] [12] [13] [14] Fig. 16 – s e e e t estese e -

rametri aggiuntivi per modellare errori sistematici e deviazioni dalla collinearità.

Fig. 17 – est e t tte st e st s -

e e e t e e b e e e e

della fotocamera digitale (Cfr. F. Remondino, C. Fraser, Digital camera calibration methods: considerations and comparisons,

es e

Variazione della distorsione radiale in funzione della lunghezza focale (Nikon D100)

15 12.5 10 7.5 5 2.5 0 distanza radiale (mm) -250 -150 -50 50 150 250 350 450 550 distorsione (micr on) f=25mm f=35mm f=50mm f=70mm f=25mm f=35mm f=50mm f=70mm

Variazione della distorsione tangenziale in funzione della lunghezza focale (Nikon D100)

distorsione (micr on) 0 3 6 9 12 0 3 6 9 12 15 distanza radiale (mm) Principio di collinearità

odello di ro n e er con 10 para etri addi ionali ( P) con:

b

la lunghezza focale della lente, seppure in modo inferiore, co e indicato dal tipico pro lo (Fig. 17b).

L’accoppiamento proiettivo tra P1 e P2 e gli spostamenti del punto principale ( 0 0) aumentano con l’aumen- tare della lunghezza focale e possono essere problematici per obiettivi ad ampia lunghezza focale. Il grado di accop- piamento può essere diminuito, durante la procedura di calibrazione, sia attraverso l’uso di una matrice dei punti dell’oggetto 3D che mediante l’adozione di angoli di ele- vata convergenza per le immagini.

tutti i para etri di cali ra ione ai ni di una restitu io- ne accurata, determinando così la deviazione geometrica (collinearità) frapposta fra la realtà ed il network di ac-

uisi ione di i a ini. na acc ina oto ra ca risulta pertanto calibrata quando se ne conoscono la lunghezza focale, la compensazione del punto principale ed una se- rie di parametri addizionali (AP). Infatti la procedura di calibrazione della fotocamera si basa sul modello mate- matico della collinearità, ma di solito le equazioni usate sono estese con ter ini di corre ione a iunti i de niti appunto AP, per modellare gli eventuali errori sistematici all’interno della camera107 riducendo la realt sica della

geometria del sensore nel modello prospettico.

D’altronde, come è noto, la formazione di un’immagine oto ra ca di erisce dal odello ate atico eo etri- co ideale e se pli cato poic i sono ine ita il ente alcuni errori sistematici indotti dalla fotocamera, i quali provocano uno spostamento del punto immagine nella po- sizione teorica.

eneral ente possi ile classi care le procedure di cali- brazione seguendo molteplici criteri108, talvolta la classi-

ca ione pi speci ca uella atta in ase alla sti a dei parametri e della tecnica di ottimizzazione impiegata: • Le tecniche lineari si distinguono per la semplicità e la

velocità del loro processo, tuttavia di solito non possono gestire la distorsione della lente e necessitano di un pun- to di controllo con coordinate note. sse se pli cano il modello di fotocamera, portando a risultati di bassa precisione. Un esempio di tale tecnica è la cosiddetta

Direct Linear Transformation (DLT)109;

• Le tecniche non lineari come l’equazione estesa del mo- dello collinearità, che costituisce la base della self-ca-

libration attraverso il bundle adjustment, sono quelle

maggiormente impiegate in campo fotogrammetrico poiché consentono una modellazione rigorosa ed accu- rata dei parametri di orientamento interno della fotoca- mera e di distorsione dell’obiettivo110 mediante il pro-

cesso di stima iterativo ai minimi quadrati;

• Una combinazione di tecniche lineari e non lineari, in cui è impiegato un metodo lineare per recuperare le ap- prossimazioni iniziali dei parametri, dopo il quale l’o- rientamento e la calibrazione vengono iterativamente ra nati111. Tale approccio sviluppato in due fasi è stato,

per molti aspetti, superato dalla calibrazione più precisa ottenuta tramite il bundle adjustment, il quale è anche implicitamente un processo a due fasi.

l odello c e si di ostrato il pi e cace soprattut- to per i sensori a corto raggio, è quello sviluppato da D.

ro n112; esso esprime le correzioni ( x, y) da applicare

alle coordinate delle immagini misurate (x, y) [Eq. 9-10], al ne di riportare la realt sica della eo etria del senso- re al modello teorico [Eq. 11].

Mentre x e y rappresentano le coordinate misurate, x0 e y0 quelle relative al punto principale.

l odello di ro n iene c ia ato odello sico poi- ché tutti i suoi componenti possono essere direttamente attri uiti a onti sic e di errore. sso contiene oltre ai tre termini x0 y0, per la correzione degli elementi di orientamento interni: i parametri Ki di distorsione della lente radiale; i parametri Pidella distorsione tangenzia- le; Sxè il fattore di scala in per compensare possibili pixel non uadrati ed il attore a ne per la non orto onalit e la deformazione geometrica del pixel113. I tre parametri ad-

dizionali (punti di accesso) utilizzati per modellare la di- storsione radiale M sono generalmente espressi tramite il polinomio di ordine dispari M = K1r3 + K

2r5 + K3r7 dove

rappresenta la distanza radiale. Il comportamento della di- storsione radiale risulta variare a seconda della lunghezza

ocale co e iene ostrato dal tipico pro lo do uto a distorsione gaussiana (Fig. 17a). coe cienti idi sono strettamente correlati fra loro e l’errore viene valutato, al- meno per la maggiore parte, tramite il termine cubico K1r3.

I parametri K2 e K3 vengono impiegati per applicazioni fo- togrammetriche a bassa distorsione e per lenti grandango- lari, oltre che quando viene richiesta un’elevata precisione nelle valutazioni metriche. Alcune ricerche recenti hanno dimostrato come sia possibile modellare la distorsione ra- diale in modo empirico partendo da taluni valori noti a de- terminate lunghezze focali.

La distorsione tangenziale è dovuta ad una mancanza di centratura (o decentramento) della lente lungo l’asse otti- co. I parametri di distorsione tangenziale P1 e P2 sono sem- pre fortemente correlati con la posizione del punto princi- pale, e quindi con x0 e y0.

Anche la distorsione radiale, essendo in genere di un ordi- ne di magnitudine inferiore alla quella radiale, varia con

La stele etrusca di Vicchio, metodologie di rilievo per un’iscrizione da svelare

Alessandro Nocentini Alessandro Nocentini

62 63

3. Sistemi di acquisizione image-based: l’approccio fotogrammetrico

sensore);

• è possibile adoperare una matrice di punti appartenenti ad un oggetto planare (in inglese test-

fie ) per la calibrazione della fotocamera se le im-

magini vengono acquisite con angoli di rotazione ortogonali al piano da rilevare, un alto grado di con- vergenza e siano, preferibilmente, a distanze diffe- renti dall’oggetto;

• l’acquisizione di immagini ruotando la fotocamera di ± 90 gradi ha la funzione di ridurre l’accoppiamen- to proiettivo fra i parametri di orientamento interno ed esterno. Nonostante sia possibile raggiungere tale disaccoppiamento senza ruotare di 90° le immagini tramite l’utilizzo di testfie tridimensionali, è sem- pre preferibile avere immagini ruotate nel network di calibrazione.

e ene l a da ilit dell auto cali ra ione o ero la determinazione dei parametri interni ed esterni nel me- desimo istante – dipenda da una geometria del network di i a ini a ore ole ai ni di un uon rilie o o i la so- luzione self-calibration tramite il bundle adjustment è un processo completamente automatico. Infatti quest’ultimo richiede esclusivamente che le immagini siano registrate in un’opportuna geometria a più stazioni (multi-station ge-

ometry), che sia svolta una stima iniziale della lunghezza

focale, delle caratteristiche del sensore dell’immagine e di alcuni coded targets che formano una matrice di punti dell o etto . n de niti a per cali rare una acc ina oto ra ca potre e essere addirittura possi ile utili are semplicemente un foglio di carta piano (bidimensionale) con alcune mire, prestando tuttavia grande attenzione alla fase di acquisizione delle immagini, data la piattezza della scena.

3.5.1.2 Orientamento delle immagini

Quando viene acquisita una serie di immagini per rileva- re un oggetto, è necessario considerare che un dettaglio può essere ricostruito tridimensionalmente se è visibile in almeno due immagini. La procedura di orientamento viene così svolta, prima per determinare la posizione e la vista (angoli) dove le immagini sono state acquisite, dopo

per ricavare le informazioni 3D, sfruttando il principio di collinearità. La fase di orientamento, successiva a quella di calibrazione, consiste nel trovare i parametri di orienta- mento esterno (3 posizioni e tre rotazioni) di ogni immagi- ne adoperata, i quali vengono sempre calcolati mediante la procedura di bundle adjustment ed il principio di collinea- rità. Una volta ottenute le immagini ed i relativi parametri di cali ra ione de e essere identi cato ( anual ente o automaticamente) un insieme di punti omologhi fra le im- magini – almeno 5 per coppia – rispettando il fatto che i punti risultino ben distribuiti nell’immagine e non siano né complanari né allineati. Per ciascuno dei punti imma- gine (e per il suo corrispondente nello spazio) viene scritta un’equazione di collinearità.

Le osservazioni delle immagini vengono quindi utiliz- zate per formare un sistema di equazioni di collinearità [Eq. 1], che sono risolte iterativamente con il modello di Gauss-Markov dei minimi quadrati [Eq. 3-4] al ne di ri- cavare le coordinate tridimensionali dei punti di appoggio (punti omologhi) misurati, i parametri di orientamento esterno della fotocamera, oltre che i valori statistici dei pa- rametri incogniti. In tale fase i parametri interni della ca- era sono considerati ssi di erente ente dal o ento di calibrazione dove questi risultavano incogniti.

È bene considerare, comunque, che un tipico insieme di immagini acquisite per scopi di ricostruzione 3D, forma un network che non è generalmente adatto per una proce- dura di calibrazione. Quindi è sempre meglio separare le due fasi fotogrammetriche o adottare un insieme di imma- gini adatte per entrambe le procedure.

Il sistema di equazioni può essere risolto in modo relativo o assoluto117, tuttavia in applicazioni close-range, si può

procedere anche in modalità free-network, evitando di ri- correre a punti di controllo, sebbene sia sempre necessario de nire una distan a nota ra due punti isi ili in al eno due immagini per ottenere un esito metrico e scalato cor- rettamente.

3.5.2 Misure e restituzione fotogrammetrica 3D

Dopo il recupero dei parametri di calibrazione ed orienta- mento, prende avvio la cosiddetta fase di restituzione tri- dimensionale dell’oggetto, o della scena, tramite ulterio- Come già anticipato, la soluzione self-calibration del bun-

dle adjustment può essere eseguita con o senza vincoli del-

lo spazio oggetto, spesso sotto forma di punti di controllo noti. Per de nire il network è comunque sempre richiesto un numero minimo di vincoli, i quali possono essere im- pliciti come vincoli interni, in modalità free-network, o espliciti ediante una con ura ione ini a di punti di controllo (arbitraria o reale)114.

La soluzione self-calibration mediante bundle adjustment conduce, dunque, alla stima di tutti i parametri interni e ad- dizionali, a partire da un insieme di corrispondenze delle immagini (punti omologhi) misurate manualmente o au- tomaticamente. Di conseguenza divengono fondamentali, per la medesima qualità dell’auto-calibrazione, la geome- tria lo ale dell o etto da rile are e la con ura ione delle stazioni di presa della fotocamera.

A tale proposito i numerosi studi sperimentali, che sono stati condotti nell’ambito della fotogrammetria close-ran-

ge115, forniscono oggi alcuni buoni consigli e regole prati-

che per eseguire una corretta operazione, riassunti come segue:

• acquisire una serie di immagini dell’oggetto di inte- resse e entual ente unito di ire codi cate (in inglese coded targets) che possono essere automati- camente e accuratamente misurate nelle immagini; • la geometria del network di immagini per essere fa-

vorevole deve comprendere immagini convergenti, riprese a distanze diverse rispetto l’oggetto 3D, ruo- tando la ca era di 0 radi al ne di di inuire le correlazioni fra i parametri – e con una distribuzione uniforme dei punti dell’oggetto nelle immagini; • la precisione della rete di immagini (e quindi della

procedura di calibrazione) cresce all’aumentare de- gli angoli di convergenza fra le diverse posizioni di ripresa, all’aumentare del numero di raggi per ogni punto dell’oggetto rilevato, sebbene tale aumento sia proporzionale al quadrato del numero di immagini di quel determinato punto116;

• l’accuratezza cresce con il numero dei punti misurati per ogni immagine, benché ce ne siano almeno una decina per ciascuna (è importante che punti aggiunti- vi all’interno dell’immagine siano ben distribuiti sul

Fig. 18 – Tipico network di immagini terrestri acquisite ad-hoc per la procedura di calibrazione della fotocamera digitale, con

e e t e t te e

tt e fi e st e b

nuvole di punti dense dense 3D point clouds ricostruzione 3D fotogrammetrica

3D reconstruction from images

geometrie complesse e aree dettagliate geometric discontinuities and detailed areas geometrie semplici

e aree planari

simple geometric features and flat areas

nuvole di punti sparse sparse 3D point clouds

misurazioni manuali o interattive

manual /semi-automated measurements

misurazioni automatiche

dense image matching

automated measurements dense image matching

Fig. 19 – Nella fase di restituzione fotogrammetrica 3D l’im- piego di approcci manuali interattivi, piuttosto che automatici, dipende innanzitutto dalla tipologia geometrica dell’oggetto ri- levato.

ri misure (manuali, semiautomatiche o automatiche) dei punti omologhi fra le immagini, selezionati preferibilmen- te nelle one pi si ni cati e dell o etto da restituire. e corrispondenze misurate dell’immagine 2D vengono di seguito convertite in coordinate 3D – spaziali ed univoche – dell’oggetto (nuvole di punti 3D) sfruttando il principio di collinearità ed i parametri esterni ed interni ormai noti. In base alle esigenze dell’oggetto, o della scena, da rileva- re, si possono ricavare nuvole di punti ‘dense’ o ‘sparse’, quali modelli che contengono un numero di punti restituiti in 3D rispettivamente differente.

Le misurazioni manuali (interattive), eseguite in modali- tà monoculare o stereoscopica, generano nuvole di punti ‘sparse’ necessarie per determinare le principali geometrie in tre dimensioni e le discontinuità di un oggetto. Le rico- struzioni 3D sparse sono adeguate per le applicazioni di modellazione architettonica e urbana 3D o, come nel caso di edi ci o se plici strutture arc eolo ic e do e i pie-