• Non ci sono risultati.

s t r u c t r t c v _ l i s t { int a r g u m e n t; int* v a l u e s; int c o u n t; int i n d e x; l i s t _ t* n e x t; };

Si tratta di una lista con diversi campi di tipo intero, ciascuno destinato a contenere un differente valore, correlato al campione da memorizzare. Il campoargument contiene il valore di distanza rilevato dal sensore di profon-

dità; count conserva il conteggio dei valori di area rilevati per lo specifico

valore di distanza; index indica dove memorizzare la successiva lettura del-

l’area, all’interno dell’arrayvalues, che invece contiene i diversi campioni di

area già rilevati. L’array contiene un numero massimo di letture specificato dalla costanteMAX_AREA_SAMPLESe viene utilizzato secondo un modello circola-

re che prevede di riutilizzare le posizioni con valori nuovi qualora il numero di rilevazioni si trovi a superare il massimo numero di letture.

La funzione che si occupa di aggiungere una nuova coppia distanza-area nella struttura dati è la

l i s t _ t* l i s t _ a d d(l i s t _ t* , int, int) ;

che gestisce le meccaniche descritte. Quando si desidera utilizzare la strut- tura per costruire la funzione di approssimazione è necessario combinare i diversi campioni di area per ottenerne soltanto uno da abbinare alle letture di distanza. A questo fine si utilizza un’operazione di moda statistica che opera attraverso la funzione

int l i s t _ c a l c u l a t e m o d e(l i s t _ t*) ;

deputata a calcolare la moda dei valori presenti nell’arrayvalues, ritornando

il numero totale di elementi presenti nella lista (che corrisponde al numero di distanze rilevate). Il valore di moda viene memorizzato nel primo elemento dell’array values, che viene successivamente esaminato dalla funzione

CAPITOLO 4. IMPLEMENTAZIONE 48

int l i s t _ m o d e(c o n s t l i s t _ t*)

quando è necessario conoscere il valore più frequente per un dato elemento della lista, corrispondente a uno specifico valore di distanza.

4.7

Il metodo dei minimi quadrati

Per implementare il metodo dei minimi quadrati si è reso necessario disporre di un supporto di base di algebra lineare, che ha trovato la sua realizzazione in diverse funzioni, tra le quali le più importanti sono:

v o i d m a t r i x _ m u l t(m a t r i x _ t* , d o u b l e c) ;

m a t r i x _ t* m a t r i x _ p r o d m a t r i x _ t* , m a t r i x _ t*) ;

m a t r i x _ t* m a t r i x _ t r a s p o s e(m a t r i x _ t*) ;

m a t r i x _ t* m a t r i x _ i n v 2 2( m a t r i x _ t*) ;

Utilizzando questo supporto è possibile procedere con i passi indicati al paragrafo 3.5 per ottenere i coefficienti della funzione di stima. É, però, preliminarmente necessario fissare il valore m che dipende dal numero di funzioni φi che si vogliono utilizzare nella combinazione lineare. Un’indica-

zione su quante e quali funzioni utilizzare ci viene dalla visualizzazione della raccolta dei campioni effettuata durante una prima fase di testing, paralle- lamente allo sviluppo del software. In Figura 4.2 sono mostrati i campioni ottenuti durante questa fase di testing preliminare.

Il grafico evidenzia un’andamento iperbolico e suggerisce il tipo di fun- zioni da utilizzare come φi nell’equazione 3.11.

CAPITOLO 4. IMPLEMENTAZIONE 49 0 0.5 1 1.5 2 2.5 3 3.5 ·104 500 1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 5,000 area [pixels] distanza [mm]

Capitolo 5

Testing

Per valutare efficacia ed efficienza del sistema è stato predisposto un am- biente di testing idoneo a misurare le grandezze coinvolte che comprende un PC collegato al sensore Microsoft Kinect, nella sua prima incarnazione, datata 2010.

5.1

Il sistema di riferimento

La macchina utilizzata nei test delle performance è basata su una tecnologia più moderna rispetto alla piattaforma di sviluppo per permettere al software di esprimere tutte le sue potenzialità. La scelta è ricaduta su un PC portatile equipaggiato con un processore della famiglia Core i5 di quarta generazione (i5-4210U), dual core, operante alla frequenza di 1.70GHz (che può arrivare a 2.70GHz in modalità turbo), gestito dalla distribuzione Linux Mint 18.3 “Sylvia” (kernel 4.13.0-45-generic x86_64).

5.2

L’oggetto campione

L’oggetto campione deve avere una geometria, proiettata sul piano immagi- ne, invariante alle rotazioni poiché il sistema ne ignora l’orientamento nello spazio. Questo fa delle sfere gli oggetti preferenziali in quanto la loro pro- iezione sul piano della telecamera, a meno di distorsioni, è una sempre un cerchio. Altre forme possono adattarsi al funzionamento col sistema a pat- to che nell’ambiente operativo mantengano le caratteristiche descritte; ad esempio se il sistema operasse a bordo di un autoveicolo, la targa del vei- colo che precede nella marcia potrebbe comportarsi da oggetto campione in quanto mantiene un orientamento costante e la sua grandezza varia soltanto al variare della distanza.

L’uniformità di colore è un requisito meno stringente poiché l’algoritmo di tracciamento utilizza l’istogramma anziché una semplice verifica che la tonalità si trovi entro un range definito. Utilizzando delle sfere è normale

CAPITOLO 5. TESTING 51 rilassare questo vincolo poiché la luce su una sfera genera punti più chiari di altri e questo mette facilmente in crisi gli algoritmi basati sul range, specialmente in spazi colore privi di uniformità percettiva, come l’RGB.

Per i test sono stati utilizzati tre oggetti campione, di colori differenti e di diversi calibri (9cm/20cm), mostrati in figura.

Figura 5.1: Oggetti campione utilizzati: le due sfere da 9cm (arancione e blu) e

quella verde da 20cm.

La sfera di colore arancione è manovrata attraverso una bacchetta nera per permettere di distanziarla dalla mano dell’operatore che potrebbe creare occlusioni o interferire con la segmentazione o con il tracciamento. Per la stessa ragione la sfera blu è sospesa a un filo sottile. La sfera verde viene utilizzata in rotolamento sul pavimento e dunque non richiede distanziali di sorta.

5.3

Il software di testing

É stato realizzato un software, basato sulla libreria costruita, che copre tutte le fasi del flusso informativo all’interno del sistema, permettendo di verifica- re, in ultima analisi, la qualità della stima e le prestazioni raggiunte. La sua interfaccia è mostrata in figura Figura 5.2. Dopo aver selezionato i flussi da utilizzare si può procedere con la fase di sampling, accedendo alla relativa

CAPITOLO 5. TESTING 52

Figura 5.2: Schermata principale del software.

sezione nella quale è possibile catturare il modello dello sfondo e segmen- tare la scena per estrarre l’immagine della sfera e ottenerne l’istogramma. Una volta disponibile il modello dell’oggetto campione il software concede accesso ala sezione di calibrazione nella quale entra in funzione la sottose- zione di tracciamento (Figura 5.3). Quando l’operatore verifica il riuscito “aggancio” dell’oggetto da parte del sistema si può attivare il campionatore che cattura le coppie distanza–area e le memorizza nell’apposita struttura. Il software visualizza l’andamento dei campioni, mostrando all’utente, un grafico e provvede a esportare su file di testo le coppie raccolte. Dall’esame di questi dati risulta che l’andamento è proporzionale a 1x sebbene in alcune parti si evidenzino dei discostamenti. Per migliorare la precisione della fun- zione di stima si adotta un approccio raffinato dalla presenza di un secondo termine, proporzionale invece a √1

x generando così la seguente funzione di

stima Φ(x) = c0·1 x+ c1· 1 √ x (5.1)

la cui costruzione si riduce, a questo punto, a individuare i migliori coeffi- cienti c0 e c1 nel senso dei minimi quadrati.

Istruito il software a procedere in questo senso si può passare alla sezione di misura in cui la relazione costruita viene utilizzata per stimare la distanza dell’oggetto dalla telecamera (Figura 5.4). Infine, nell’ultima modalità di funzionamento, le misurazioni dell’AC range estimator vengono confrontate con le letture del depth sensor, prese a riferimento di correttezza. I test di precisione vengono eseguiti in questa modalità, andando a costituire la sorgente per i dati mostrati al paragrafo 5.5.

CAPITOLO 5. TESTING 53

Figura 5.3: Schermata della modalità di tracciamento.

Figura 5.4: Schermata della modalità operativa. Dall’area del quadrato rosso

CAPITOLO 5. TESTING 54

5.4

Test di efficienza computazionale

Nel software è presente un misuratore di frame al secondo, attivo in tutte le modalità. Partendo da una frequenza di 30/31 fps (pari a quella nominale, dichiarata nei datasheet), raggiunta in assenza di processing (se si escludono le conversioni di input e output) si arriva a un minimo di 28 fps quando agiscono in serie i diversi algoritmi implementati. Questo risultato è reso possibile dall’adozione dell’implementazione ottimizzata per l’accesso alle immagini e dagli accorgimenti presi durante la stesura degli algoritmi e si discosta notevolmente dai cali di frame rate riscontrati nelle fasi di sviluppo, che spesso raggiungevano il 50% per singolo algoritmo.

5.5

Test di precisione

Le prestazioni dell’AC range estimator sono state messe alla prova utiliz- zando, in prima istanza, un ambiente favorevole al tracciamento e, succes- sivamente, un ambiente generico e hanno coinvolto, quasi sempre, tutti e tre gli oggetti. In alcuni casi i campioni sono stati raccolti su tre diversi intervalli di distanza mentre la stima è stata effettuata sempre su tutto il range operativo del sistema (60cm – 4.5m).

5.5.1 Ambiente monocromatico

I primi test sono stati effettuati in una stanza vuota, con pareti, pavimento e soffitto di un colore d’intensità tenue nella gamma del viola, sia in condizioni d’illuminazione artificiale sia con luce naturale.

Illuminazione artificiale

É stata utilizzata, come fonte d’illuminazione, una lampada fluorescente da soffitto e tutti i rilevamenti sono stati effettuati raccogliendo i campioni sull’intera distanza di rilevamento.

I risultati del test con campione verde (20cm) sono stati condotti facen- do rotolare l’oggetto sul pavimento e catturando le immagini con il Kinect poggiato a terra (Figura 5.5).

• errore percentuale medio: 2.6% • errore percentuale massimo: 7.7%

• deviazione standard errore percentuale: 1.5%

Il test con campione blu (9cm) è stato effettuato sollevando dal pa-

vimento il Kinect con un supporto di 26cm e spostando a mano l’oggetto, attraverso un filo ad esso fissato (Figura 5.6).

• errore percentuale medio: 3.5% • errore percentuale massimo: 10.9%

CAPITOLO 5. TESTING 55 1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 distanza di riferimento [mm] distanza stimata [mm]

Figura 5.5: Risultati del test effettuato con campione verde e luce artificiale,

CAPITOLO 5. TESTING 56 • deviazione standard errore percentuale: 2.3%

1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 distanza di riferimento [mm] distanza stimata [mm]

Figura 5.6: Risultati del test effettuato con campione blu e illuminazione artificiale, confrontati con il riferimento Kinect (grigio).

Il test con campione arancione (9cm) è stato effettuato, come nel caso

precedente, sollevando dal pavimento il Kinect con un supporto di 26cm e spostando a mano l’oggetto, per mezzo di una bacchetta ad esso solidale (Figura 5.7).

• errore percentuale medio: 2.4% • errore percentuale massimo: 6.2%

• deviazione standard errore percentuale: 1.2%

Illuminazione naturale

I test sono stati effettuati con luce naturale proveniente da una finestra di dimensioni 191cm × 94cm. I rilevamenti sono avvenuti con campionamento esteso a tutta la distanza operativa.

I risultati del test con campione verde (20cm) sono stati condotti facen- do rotolare l’oggetto sul pavimento e catturando le immagini con il Kinect

CAPITOLO 5. TESTING 57 1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 distanza di riferimento [mm] distanza stimata [mm]

Figura 5.7: Risultati del test effettuato con campione arancione e illuminazione

CAPITOLO 5. TESTING 58 poggiato a terra. I risultati evidenziano un’approssimazione accurata entro i 3,5m con una leggera flessione oltre questa distanza (Figura 5.8).

• errore percentuale medio: 3% • errore percentuale massimo: 9.8%

• deviazione standard errore percentuale: 2.3%

1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 distanza di riferimento [mm] distanza stimata [mm]

Figura 5.8: Risultati del test effettuato con campione verde e luce naturale confrontati con il riferimento Kinect (grigio).

Il test con campione blu (9cm) mostra una un’approssimazione abba-

stanza uniforme con un errore percentuale che si assesta, mediamente, sul 7.9 con più di tre quarti dei campioni che fornisce un errore non maggiore del 10% (Figura 5.9).

• errore percentuale medio: 7.9% • errore percentuale massimo: 19.4%

• deviazione standard errore percentuale: 4.6%

Il test con campione arancione (9cm) esprime un errore percentuale

medio del 7% con circa tre quarti dei campioni che fornisce un errore non maggiore del 10% (Figura 5.10).

CAPITOLO 5. TESTING 59 1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 distanza di riferimento [mm] distanza stimata [mm]

Figura 5.9: Risultati del test effettuato con campione blu e luce naturale confrontati con il riferimento Kinect (grigio).

CAPITOLO 5. TESTING 60 • errore percentuale massimo: 16.7%

• deviazione standard errore percentuale: 4.3%

1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 distanza di riferimento [mm] distanza stimata [mm]

Figura 5.10: Risultati del test effettuato con campione arancione e luce naturale

confrontati con il riferimento Kinect (grigio).

Ulteriori rilevamenti sono stati compiuti, utilizzando il solo oggetto ver- de, campionando su distanze operative di 60cm–294cm e 60cm–153cm con risultati visionabili in Figura 5.11. L’esito di questa prova mostra come l’algoritmo abbia un comportamento soddisfacente anche in assenza di cam- pionamento dell’intero range operativo poiché è in grado di estrapolare i dati a questo esterni con un discostamento minimo rispetto al funzionamento in modalità full range.

5.5.2 Ambiente generico

Le prove mostrate sono state effettuate in una stanza arredata, con due pareti di diverso colore, in presenza di sola luce artificiale proveniente da lampade fluorescenti ancorate al soffitto. Come mostrato in precedenza, l’il- luminazione artificiale favorisce l’efficacia del sistema dal punto di vista della precisione, permettendo di raggiungere i seguenti risultati (Figura 5.12):

CAPITOLO 5. TESTING 61 1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 1,000 1,500 2,000 2,500 3,000 3,500 4,000 4,500 distanza di riferimento [mm] distanza stimata [mm]

Figura 5.11: Risultati dei test effettuati con oggetto verde con campionamento su

CAPITOLO 5. TESTING 62 • errore percentuale massimo: 14.5%

• deviazione standard errore percentuale: 2.6%

1,000 1,500 2,000 2,500 3,000 3,500 1,000 1,500 2,000 2,500 3,000 3,500 distanza di riferimento [mm] distanza stimata [mm]

Figura 5.12: Risultati del test effettuato con campione arancione, in ambiente

non controllato, confrontati con il riferimento Kinect (grigio).

5.5.3 Analisi risultati

La tabella 5.1 raccoglie l’esito delle prove effettuate. Si osserva che il sistema è maggiormente a suo agio operando in condizioni d’illuminazione artificiale, probabilmente per una distribuzione della luce tale da generare un minor numero di ombre e riflessioni sul pavimento (presenti soprattutto nel test di rotolamento dell’oggetto verde). Il calo prestazionale è più marcato sugli oggetti di dimensione minore.

Altro dato significativo è la sostanziale indipendenza del sistema dai disturbi presenti nell’ambiente, evidenziata dalla vicinanza tra i risultati in ambiente monocromatico e generico.

L’oggetto di colore blu ha fatto segnare i valori peggiori, probabilmente a causa della lieve sebbene continua oscillazione causata dalla sua sospensione al filo.

CAPITOLO 5. TESTING 63 Il test su distanze di campionamento differenti ha mostrato una variazio- ne minima delle prestazioni del sistema. Questo comportamento è dovuto al metodo usato per costruire la funzione di approssimazione, che riesce a trovare una curva di fitting soddisfacente anche con pochi campioni poiché si presta bene all’estrapolazione dei dati.

oggetto luce ambiente Ep [%] Emax[%] σE[%]

verde naturale 3 9.8 2.3 artificiale monocromatico 2.6 7.7 1.5 blu naturale 7.9 19.4 4.6 artificiale monocromatico 3.5 10.9 2.3 arancione naturale 7 16.7 4.3 monocromatico 2.4 6.2 1.2 artificiale generico 2.9 14.5 2.6

Capitolo 6

Conclusioni

L’AC range estimator si è mostrato efficace nell’adempiere alle richieste prefissate in fase di specifica.

Tutto il software è stato realizzato in linguaggio C (seguendo lo stan- dard C99) per ridurre al minimo le operazioni di adattamento necessarie a realizzarne porting su architetture diverse da quella di sviluppo e, con- temporaneamente, per raggiungere il massimo livello di efficienza possibile, garantita dal relativo basso livello del linguaggio stesso. Oculate scelte di progetto hanno permesso di raggiungere prestazioni tali da permettere agli algoritmi implementati d’impattare in maniera quasi trascurabile sul frame rate operativo (di circa 30 fps). Ne sono un esempio l’estensivo uso di arit- metica intera e la gestione ottimizzata della memoria allocata alle immagini. Tutto il codice è strutturato in forma di libreria grafica ed è pronto per un utilizzo svincolato dall’algoritmo presentato. Le sue funzioni principali co- prono conversioni di spazio colore, mascheramento, sottrazione dello sfondo, tracciamento oggetti, gestione istogrammi, calcolo dei momenti statistici e supporto algebrico di base.

Lo sviluppo si è mosso nell’ottica di minimizzare le dipendenze di colle- gamento con altre librerie già esistenti, che potrebbero non essere disponibili sui sistemi di destinazione degli eventuali porting. Questo è frequente nei sistemi embedded in cui le capacità hardware sono subordinate a ingombri ridotti o esigenze energetiche. Nella libreria è presente tutto e solo il software necessario a mettere in esercizio il sistema presentato. Questo permette di ridurre al minimo l’occupazione di memoria del codice oggetto, andando in- contro a sistemi con spazi d’esecuzione limitati. Gli unici collegamenti attivi sono quelli con la libreria standard del C.

I test hanno mostrato un successo nella stima della distanza a meno di un errore medio del 4.2% (con una deviazione standard di 2.7%). Questo risultato rende il sistema idoneo a contesti in cui l’alta precisione è sotto- messa a una maggiore flessibilità e a tempi di risposta rapidi. L’algoritmo di tracciamento trasferisce al sistema la sua robustezza ai disturbi sulla sce-

CAPITOLO 6. CONCLUSIONI 65 na e al rumore elettronico dei sensori, permettendo di mantenere un buon inseguimento degli oggetti agganciati.

La sua caratteristica di funzionamento a singolo sensore, durante la fase operativa, e la relativa semplicità delle operazioni svolte al di fuori della fase di calibrazione fanno di questo algoritmo una scelta energeticamente efficiente in situazioni in cui è richiesta una misurazione continua della di- stanza con requisiti di efficienza computazionale e senza vincoli di elevata precisione.

Bibliografia

[1] Gary Bradski. Computer Vision Face Tracking For Use in a Perceptual

User Interface. Gen. 1998.

[2] P. Zanuttigh C. Dal Mutto e G. M. Cortelazzo. Time-of-Flight Ca-

meras and Microsoft Kinect, A user perspective on technology and applications. Springer-Verlag New York, 2012.

[3] Roda V. O. Calin G. «Real-time disparity map extraction in a dual

head stereo vision system». In: Latin American applied research 37.1 (2007), pp. 21–24. url: http://www.scielo.org.ar/scielo.php? script = sci _ arttext & pid = S0327 - 07932007000100005 & lng = es & nrm=iso.

[4] GByoung-Suk Choi et al. «A Hierarchical Algorithm for Indoor Mo-

bile Robot Localization Using RFID Sensor Fusion». In: Industrial Electronics, IEEE Transactions on 58.6 (giu. 2011), pp. 2226–2235.

[5] Myungjin Choi et al. «Fusion of multispectral and panchromatic Satel-

lite images using the curvelet transform». In: Geoscience and Remote Sensing Letters, IEEE 2.2 (apr. 2005), pp. 136–140.

[6] Benjamin Coifman et al. «A real-time computer vision system for ve-

hicle tracking and traffic surveillance». In: Transportation Research Part C: Emerging Technologies 6.4 (ago. 1998), pp. 271–288.

[7] Colour metric. url: https://www.compuphase.com/cmetric.htm.

[8] S.P. Constantinos, M.S. Pattichis e E. Micheli-Tzanakou. «Medical

imaging fusion applications: An overview». In: Signals, Systems and Computers, 2001. Conference Record of the Thirty-Fifth Asilomar Con- ference on. Vol. 2. 2001.

[9] Daniel F. Dementhon e Larry S. Davis. «Model-based object pose in

25 lines of code». In: International Journal of Computer Vision 15.1 (giu. 1995), pp. 123–141. issn: 1573-1405. doi: 10.1007/BF01450852. url: https://doi.org/10.1007/BF01450852.

BIBLIOGRAFIA 67

[10] Terrence Fong, Charles Thorpe e Charles Baur. «Advanced Interfaces

for Vehicle Teleoperation: Collaborative Control, Sensor Fusion Di- splays, and Remote Driving Tools». In: Autonomous Robots 11.1 (lug. 2001), pp. 77–85.

[11] K. Fukunaga e L. Hostetler. «The estimation of the gradient of a

density function, with applications in pattern recognition». In: IEEE Transactions on Information Theory 21.1 (gen. 1975), pp. 32–40. issn: 0018-9448. doi: 10.1109/TIT.1975.1055330.

[12] Shensheng Gao et al. «Multi-sensor optimal data fusion for INS/GPS/-

SAR integrated navigation system». In: Aerospace Science and Tech- nology 13.4-5 (giu. 2009), pp. 232–237.

[13] Jason Geng. «Structured-light 3D surface imaging: a tutorial». In:

Adv. Opt. Photon. 3.2 (giu. 2011), pp. 128–160.

[14] D.L. Hall e J. Llinas. «An introduction to multisensor data fusion».

In: Proceedings of the IEEE 85.1 (gen. 1997), pp. 6–23.

[15] Mosheand Kam, Zhu Xiaoxun e Paul Kalata. «Sensor fusion for mo-

bile robot navigation». In: Proceedings of the IEEE 85.1 (gen. 1997), pp. 108–119.

[16] Kourosh Khoshelham e Sander Oude Elberink. «Accuracy and Reso-

lution of Kinect Depth Data for Indoor Mapping Applications». In: Sensors 12.2 (2012), pp. 1437–1454. issn: 1424-8220. doi: 10.3390/ s120201437. url: http://www.mdpi.com/1424-8220/12/2/1437.

[17] Kinect IR camera datasheet. url: http://www.fishcamp.com/pdf/

mt9m001_1300_mono.pdf.

[18] Kinect RGB camera datasheet. url: http : / / devel . 0cpm . org /

reverse/grandstream/datasheet/MT9V112.pdf.

[19] D. Koller et al. «Towards robust automatic traffic scene analysis in

real-time». In: Proceedings of 12th International Conference on Pat- tern Recognition. Vol. 1. Ott. 1994, 126–131 vol.1. doi: 10.1109/ICPR. 1994.576243.

[20] Robert Laganière. OpenCV 2 computer vision application program-

ming cookbook : over 50 recipes to master this library of programming functions for real-time computer vision. Packt Publishing, 2011.

[21] Y. C. Lim et al. «Distance estimation algorithm for both long and

short ranges based on stereo vision system». In: 2008 IEEE Intelligent Vehicles Symposium. Giu. 2008, pp. 841–846. doi: 10 . 1109 / IVS . 2008.4621190.

BIBLIOGRAFIA 68

[22] M. Mahalakshmi. «Real time vision based object tracking using CAM-

SHIFT algorithm with enhanced color image segmentation». In: 2010 Second International conference on Computing, Communication and Networking Technologies. Lug. 2010, pp. 1–8. doi: 10.1109/ICCCNT. 2010.5591697.

[23] M.R et al. Kinect Depth Sensor Evaluation for Computer Vision Ap-

plications. Rapp. tecn. Department of Engineering, Aarhus University, 2012.

[24] A. Ohya, A. Kosaka e A. Kak. «Vision-based navigation by a mobile

robot with obstacle avoidance using single-camera vision and ultraso- nic sensing». In: IEEE Transactions on Robotics and Automation 14.6 (dic. 1998), pp. 969–978.

[25] OpenCV - background subtraction tutorial. url: https://docs.opencv.

org/3.2.0/d1/dc5/tutorial_background_subtraction.html.

[26] Parekh e Kayton B. «A Computer Vision Application to Accurately

Estimate Object Distance». In: Mathematics, Statistics, and Computer Science Honors Projects 18 (2010). url: http://digitalcommons. macalester.edu/mathcs_honors/18.

[27] PassMark CPU Comparison. url: https://www.cpubenchmark.net/

compare.php?cmp%5B%5D=1402&cmp%5B%5D=2792.

[28] M. Piccardi. «Background subtraction techniques: a review». In: 2004

IEEE International Conference on Systems, Man and Cybernetics (IEEE

Documenti correlati