• Non ci sono risultati.

Cenni sull’acquisizione di immagini digitali

La piattaforma software: LabVIEW

4.2 Sistemi di visione: il modulo NI Vision

4.2.1 Cenni sull’acquisizione di immagini digitali

Il sistema di visione artificiale che verrà messo a punto deve avere una struttura che permetta l’acquisizione di immagini con una qualità sufficiente per poter estrarne l’informazione richiesta. A tale scopo vengono descritti i principali parametri che determinano le caratteristiche qualitative delle immagini digitali che devono essere considerate in fase di set-up del sistema di acquisizione [21][22]. Un immagine digitale non è altro che un array 2D composto da elementi, chiamati pixel, che rappresentano la misura dell’intensità luminosa emessa da corpi nello spazio. Ad ogni pixel è quindi associata una posizione spaziale (x, y) ed un valore che rappresenta l’intensità luminosa, detto livello di grigio o di colore, a seconda che l’immagine sia o meno in bianco e nero.

I principali parametri da considerare nel set-up del sistema di acquisizione sono la risoluzione, l’ampiezza e la profondità del campo visivo, la distanza focale e le dimensioni del sensore. Questi concetti sono illustrati in Figura 4.4.

- Risoluzione

Esistono due concetti distinti di risoluzione da tenere in considerazione. Il primo è la “pixel resolution”, questa consiste nel numero minimo di pixel necessari per rappresentare l’oggetto in esame senza perdere l’informazione rappresentata dai suoi dettagli. Tale valore può essere determinato considerando il particolare più piccolo da ispezionare. Generalmente è consigliato che il dettaglio di dimensioni più piccole sia rappresentato da almeno due pixel.

Il secondo tipo di risoluzione riguarda invece la quantità di dettagli che la il sistema di visione può riprodurre. Tale concetto di risoluzione, più generale del primo, influisce profondamente sulle prestazioni del sistema di visione artificiale: una scarsa risoluzione genera immagini sfocate e senza dettagli. Tre parametri incidono sulla risoluzione: l’ampiezza del campo visivo, le dimensioni ed il numero di pixel del sensore.

- Ampiezza del campo visivo

L’ampiezza del campo visivo, pari alla superficie riprodotta dall’inquadratura, è un parametro strettamente legato alla pixel resolution. Infatti, analizzando lo stesso oggetto, se il campo visivo viene aumentato la pixel resolution diminuisce.

37

Figura 4.4 Principali parametri di un Imaging System. 1- Risoluzione, 2- Ampiezza del campo visivo, 3- Distanza focale,

4- Dimensioni del sensore, 5- Profondità del campo visivo, 6- Immagine, 7- Pixel, 8- Pixel resolution.

- Dimensioni e numero di pixel del sensore

La dimensione della superficie fotosensibile del sensore ottico è un parametro che determina l’ampiezza del campo visivo e, di conseguenza, è un elemento determinante nella definizione del numero minimo di pixel necessari per riprodurre tutti i dettagli dell’oggetto inquadrato. La dimensione del sensore è tipicamente indicata con la lunghezza della diagonale della superficie fotosensibile. Il numero di pixel del sensore deve essere uguale o maggiore del valore di pixel resolution.

38

- Lunghezza focale

Questo è il principale parametro che caratterizza la lente, infatti dalla lunghezza focale dipende la capacità di messa a fuoco della lente. Essa viene definita come la distanza tra il centro ottico della lente ed il piano focale nel caso in cui l’oggetto da mettere a fuoco sia posto all’infinito, quindi i raggi ottici sono paralleli all’asse del sistema, vedi Figura 4.5. In questo caso il piano focale coincide con il sensore fotosensibile della telecamera.

Figura 4.5 Lunghezza focale. La lente illustrata ha lunghezza focale variabile.

Da notare che la definizione fa riferimento al centro ottico della lente che non sempre coincide con il centro dell’obiettivo, infatti, un obiettivo composto da più lenti si comporta come una sola lente. Sono disponibili lenti a lunghezza focale fissa o variabile. Nelle prime si è vincolati dal punto di vista della distanza di lavoro (distanza tra il fronte della lente e l’oggetto sotto ispezione) e dell’ampiezza del campo visivo, mentre per le seconde, si ha la possibilità di ampliare o restringere il campo visivo inquadrato, il cosiddetto zoom, e la distanza di lavoro senza perdere la messa a fuoco del particolare d’interesse dell’oggetto.

- Profondità di campo

La profondità di campo è l’intervallo dei valori di distanza tra la lente e l’oggetto ripreso per cui quest’ultimo risulta avere una sfocatura impercettibile, o comunque accettabile.

Nelle applicazioni che verranno affrontate si cercherà di mantenere pressoché costante la distanza tra la lente e le feature di interesse per tutto il campo di spostamento di quest’ultime.

39

- Luminosità e contrasto

Un’importante caratteristica dell’immagine digitale è l’intensità media dei pixel che la compongono. Valori troppo elevati o troppo bassi di questo parametro causano saturazione, la quale si manifesta in un eccessivo numero di pixel bianchi o neri con conseguente perdita dell’informazione contenuta nell’immagine.

Nel set-up di un sistema di visione artificiale deve essere preso in considerazione il problema dell’illuminazione dell’oggetto in esame. Esistono in commercio diversi tipi di sistemi di illuminazione che oltre a mettere in risalto le feature di interesse nell’immagine devono essere compatibili, dal punto di vista dell’accessibilità e degli ingombri, con il sistema in esame.

Altro fattore determinante dal punto di vista della qualità dell’immagine acquisita è il contrasto. Questo consiste nella differenza dei valori di intensità luminosa tra l’oggetto ispezionato e lo sfondo. Il sistema di visione deve garantire valori di contrasto sufficientemente elevati da rendere possibile la netta distinzione dell’oggetto dallo sfondo, questa condizione viene raggiunta appunto tramite l’utilizzo di appropriate tecniche di illuminazione.

- Errori di prospettiva e distorsione

Gli errori di prospettiva si verificano quando l’asse ottico della telecamera non è perpendicolare alla superficie dell’oggetto inquadrato. Questo causa nell’immagine riprodotta variazioni di dimensioni di dettagli posti a diverse distanze dalla lente e quindi altera il contenuto informativo dell’immagine come si può notare in Figura 4.6.

La distorsione non lineare invece è una aberrazione geometrica causata da errorri dell’ottica della telecamera. Generalmente le lenti introducono una distorsione radiale che fa si che i punti lontani dal centro ottico della lente appaiano nell’immagine più lontani dal centro di quello che realmente sono. In Figura 4.6-e si può vedere l’effetto della distorsione su una griglia di punti.

Questi difetti compromettono le funzionalità del sistema di visione in cui le elaborazioni effettuate necessitano di trasformazioni delle lunghezze misurate in pixel in valori espressi con unità di misura più facilmente interpretabili (es. millimetri).

Nel caso in cui non si possa installare la telecamera perpendicolarmente all’oggetto da visualizzare viene introdotto un tipo di errore che può essere ridotto tramite un processo di calibrazione eseguito in fase di inizializzazione dell’applicazione software. Anche quando si verifica la distorsione le informazioni contenute dall’immagine vengono alterate percui si rende necessaria la calibrazione spaziale dell’immagine per tenere conto di questo effetto.