• Non ci sono risultati.

Attendibilit` a delle font

Nel documento Punti impropri nella robotica mobile (pagine 31-37)

Durante il lavoro di questa tesi son state riscontrate alcune incongruenze sul contenuto di un articolo preso in considerazione [11]. Questa fonte dal tito- lo “VPass: Algorithmic Compass using Vanishing Points in Indoor Enviromen- ts”presenta un metodo per la navigazione autonoma di veicoli in ambienti interni bastato sul VPass, ovvero una bussola algoritmica che utilizza il punto di fuga per ottenere l’informazione sulla direzione del robot. Si tratta di un algoritmo EKF SLAM che stima l’angolo di rotta del robot e si vuole ricercare un angolo (TI), invariante di traslazione tra rette viste come caposaldi, che non dipenda dalla po- sizione del robot.

Durante l’analisi del testo ci siamo imbattuti nei seguenti problemi:

Primo problema: il primo problema riguarda la relazione tra la definizione del pun- to di fuga e le coordinate omogenee con cui `e scritto. Gli autori definiscono il punto di fuga come l’intersezione di due rette r1 : ax+by+c1 = 0 e r2 : ax+by+c2 = 0

in coordinate omogenee nel seguente modo VP=     a b c1     ×     a b c2     = (c2 − c1)     b −a 0    

e affermano che fissati a e b ovvero fissata la direzione di queste rette parallele esistono infiniti punti di fuga VPs al variare di (c2 − c1). Ma questo non `e cor-

3.3 30

retto nel senso che le coordinate omogenee di un punto, proprio o improprio che sia, sono s`ı infinite perch´e definite a meno di un fattore di proporzionalit`a, ma rappresentano un’unica direzione e quindi non `e corretto affermare che al variare di (c2− c1) esistono infiniti punti di fuga.

Secondo problema: una seconda perplessit`a riguarda il concetto di non linearit`a relativo alla posizione del robot. Gli autori sostengono che ψr `e una funzione non lineare rispetto alla posizione del robot e nel passaggio da ψ a ψ + π sullo stesso semipiano affermano che non c’`e linearit`a, ma se si guarda ad esempio la Fig. 3.21 all’interno dello stesso semipiano in cui sta il robot non c’`e dipendenza dalle coor- dinate del robot xr e yr e c’`e perfetta linearit`a con l’angolo θr.

Figura 3.21: Una retta `e rappresentata da due diverse angolazioni rispetto alle coordinate del robot

Terzo problema: un terzo problema riguarda la dipendenza dell’angolo ψr dalla

posizione del robot. Essi definiscono z = ψr = atan2(dy, dx) − θ

r (∗), dove

dx = (ρw − x

rcosψw − yrsinψw)cosψw e dy = (ρw − xrcosψw − yrsinψw)sinψw,

attraverso cui dimostrano che c’`e un’importante dipendenza dalla posizione del robot, ma in realt`a questa dipendenza va intesa come in quale semipiano si trova il robot e in altre parole lo si pu`o intendere come una differenza di +π.

Basterebbe dire che ψr =

 

ψw − θr se il robot si trova nel semipiano dell’origine

ψw + π − θ

r altrimenti

. Quindi la formula (∗) era eccessiva e non era necessario rigirarla in quella forma per far apparire il tutto non lineare e facendo credere che ψr dipendesse in modo

3.3 31

decisivo dalla posizione del robot.

Queste osservazioni riportate vogliono mostrare che non sempre, purtroppo, si ha a che fare con articoli pienamente attendibili, e quindi bisogna sempre verificare la validit`a delle fonti.

Conclusione

In questo elaborato abbiamo voluto sottolineare l’importante ruolo dei punti di fuga nella robotica mobile. Per cominciare abbiamo analizzato quelli che sono i principali obiettivi degli autori interessati alla navigazione autonoma di robot e siamo andati a selezionarne uno in particolare e ad approfondirlo. Ci siamo interes- sati al rilevamento della posa del robot all’interno di ambienti interni di un edificio e siamo andati a vedere quali metodi venivano usati dagli autori per risalire alla posizione del robot. L’utilizzo del punto di fuga `e uno degli approcci pi`u utilizzati in questo campo e abbiamo selezionato un metodo che ne tenesse conto: abbia- mo scelto un approccio basato sulla trasformata di Hough e sul raggruppamento K-means. Abbiamo poi approfondito l’utilizzo dei punti di fuga nella navigazione esterna di robot e in modo molto generale abbiamo affrontato i diversi aspetti sia di ambienti strutturati che non strutturati. In particolare abbiamo affrontato il caso anche di ambienti pedonali, come ad esempio i campus universitari, dove si presenta il problema di navigare evitando ostacoli come possono essere le persone. Infine abbiamo scelto di aggiungere un paragrafo in cui presentare una sottolinea- tura riguardo l’attendibilit`a delle fonti, perch´e durante il lavoro svolto ci siamo imbattuti in un articolo che presentava alcune scorrettezze su certe affermazioni riguardanti l’utilizzo dei punti di fuga e altre nozioni geometriche e abbiamo voluto presentare delucidazioni a riguardo che mettessero in chiaro come non sempre si ha a che fare con fonti pienamente attendibili.

Bibliografia

[1] R. Bishop. Intelligent vehicle applications worldwide. Intelligent Systems and their Applications, IEEE, 15(1):78–81, 2000.

[2] M. Bosse, R. Rikoski, J. Leonard, and S. Teller. Vanishing points and three-dimensional lines from omni-directional video. The Visual Computer, 19(6):417–430, 2003.

[3] K. Daniilidis and J. Ernst. Active intrinsic calibration using vanishing points. In Computer Vision and Pattern Recognition, 1996. Proceedings CVPR’96, 1996 IEEE Computer Society Conference on, pages 708–713. IEEE, 1996. [4] G. N. DeSouza and A. C. Kak. Vision for mobile robot navigation: A survey.

Pattern Analysis and Machine Intelligence, IEEE Transactions on, 24(2):237– 267, 2002.

[5] R. Ebrahimpour, R. Rasoolinezhad, Z. Hajiabolhasani, and M. Ebrahimi. Vanishing point detection in corridors: using hough transform and k-means clustering. Computer Vision, IET, 6(1):40–51, 2012.

[6] V. Huttunen and R. Pich´e. A monocular camera gyroscope. Gyroscopy and Navigation, 3(2):124–131, 2012.

[7] A. Kheyrollahi and T. P. Breckon. Automatic real-time road marking reco- gnition using a feature driven approach. Machine Vision and Applications, 23(1):123–133, 2012.

BIBLIOGRAFIA 34

[8] Y. Kim and S. Kwon. A heuristic obstacle avoidance algorithm using vanishing point and obstacle angle. Intelligent Service Robotics, 8(3):175–183, 2015. [9] J. Kogecka and W. Zhang. Efficient computation of vanishing points. In

Robotics and Automation, 2002. Proceedings. ICRA’02. IEEE International Conference on, volume 1, pages 223–228. IEEE, 2002.

[10] H. Kong, J.-Y. Audibert, and J. Ponce. General road detection from a single image. Image Processing, IEEE Transactions on, 19(8):2211–2220, 2010. [11] Y. H. Lee, C. Nam, K. Y. Lee, Y. S. Li, S. Y. Yeon, and N. L. Doh. Vpass:

Algorithmic compass using vanishing points in indoor environments. In IROS, pages 936–941, 2009.

[12] E. Marder-Eppstein, E. Berger, T. Foote, B. Gerkey, and K. Konolige. The office marathon. 2010.

[13] P. Moghadam, J. A. Starzyk, and W. S. Wijesoma. Fast vanishing-point de- tection in unstructured environments. Image Processing, IEEE Transactions on, 21(1):425–430, 2012.

[14] M. Nieto and L. Salgado. Real-time vanishing point estimation in road sequen- ces using adaptive steerable filter banks. In Advanced Concepts for Intelligent Vision Systems, pages 840–848. Springer, 2007.

[15] J. Omedes, G. L´opez-Nicol´as, and J. J. Guerrero. Omnidirectional vision for indoor spatial layout recovery. In Frontiers of Intelligent Autonomous Systems, pages 95–104. Springer, 2013.

[16] C. Rasmussen. Grouping dominant orientations for ill-structured road fol- lowing. In Computer Vision and Pattern Recognition, 2004. CVPR 2004. Proceedings of the 2004 IEEE Computer Society Conference on, volume 1, pages I–470. IEEE, 2004.

[17] R. Schuster, N. Ansari, and A. Bani-Hashemi. Steering a robot with vanishing points. Robotics and Automation, IEEE Transactions on, 9(4):491–498, 1993.

BIBLIOGRAFIA 35

[18] C. Siagian, C.-K. Chang, and L. Itti. Mobile robot navigation system in out- door pedestrian environment using vision-based road recognition. In Robo- tics and Automation (ICRA), 2013 IEEE International Conference on, pages 564–571. IEEE, 2013.

[19] C. Thorpe, M. H. Hebert, T. Kanade, and S. A. Shafer. Vision and navigation for the carnegie-mellon navlab. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 10(3):362–373, 1988.

[20] S. Thrun, M. Montemerlo, H. Dahlkamp, D. Stavens, A. Aron, J. Diebel, P. Fong, J. Gale, M. Halpenny, G. Hoffmann, et al. Stanley: The robot that won the darpa grand challenge. Journal of field Robotics, 23(9):661–692, 2006. [21] L.-L. Wang and W.-H. Tsai. Camera calibration by vanishing lines for 3- d computer vision. IEEE Transactions on Pattern Analysis & Machine Intelligence, (4):370–376, 1991.

Nel documento Punti impropri nella robotica mobile (pagine 31-37)

Documenti correlati