• Non ci sono risultati.

Come prova conclusiva `e stata abilitata la guida waypoint e quindi i controllori di depth, speed ed heading. In particolare il controllore di speed `e chiuso con le misure prese dal DVL. La camera e l’echosounder lavorano ad una frequenza di 5 Hz, il veicolo segue i waypoint e gli viene comandata una velocit`a diversa ogni volta che ne raggiunge uno. Lo scopo della prova `e ottenere un andamento a velocit`a e yaw rate variabili. Raccolti i dati di navigazione e le immagini del fondale, sono stati processati con l’algoritmo di VO fornendogli in ingresso le misure dell’echosounder e le immagini.

Nella Fig.(76) possiamo vedere come la velocit`a stimata con VO sia molto fedele a quella misurata con il DVL, inoltre il confronto con la velocit`a di riferimento richiesta al controllore di speed dimostra la bont`a del sistema di controllo.

Figura 76: Confronto tra Velocit`a di Surge misura con DVL, VO e di riferimento. La velocit`a di sway `e di entit`a irrilevante in quanto nell’implementazione della guida a waypoint non `e possibile fornire coppie per la traslazione laterale del veicolo, per quando riguarda la velocit`a di heavy il veicolo `e mantenuto a profondit`a costante dal controllore di depth, quindi anche questa risulta essere nulla.

Come per la velocit`a di surge, anche yaw rate stimato tramite la VO `e molto fedele alle misure prodotte dalla IMU, in Fig.(77) ne `e mostrato l’andamento.

Figura 77: Yaw Rate stimato con VO Vs Yaw Rate misurato con IMU.

L’errore medio sullo yaw rate stimato con VO vale 0.0001 rad/s, con un errore in percentuale pari a 0.53 %. La stima dello yaw rate `e affetta da un errore in % sempre minore rispetto alle misure di velocit`a lineare.

7

Conclusioni e sviluppi futuri

Il veicolo simulato implementato con tre controllori PID indipendenti (speed, heading e depth) `e in grado di svolgere una missione di acquisizione di immagini seguendo una guida a waypoint. Obiettivo preposto per risolvere le esigenze della biologia marina. Per rendere il sistema di navigazione economico `e necessario sostituire il costoso DVL con un sensore per la stima della velocit`a basato sulla VO. Dai risultati ottenuti in simulazione si pu`o concludere che l’algoritmo implementato in MATLAB risulta essere sufficentemente affidabile per sostituire il DVL in missioni di ispezione dove la visibilit`a `e un prerequisito. Implementare l’algoritmo di VO in ROS e testarne il funzionamento on-line con UW- Sim sar`a l’ultimo passo prima di poter provare il sistema su un AUV reale. L’algoritmo `e stato testato con velocit`a di surge massima di 1 m/s, questo valore `e stato scelto conside- rando le prestazioni di un normale AUV. Aumentando la velocit`a del veicolo, l’algoritmo continua a stimare correttamente, in caso di velocit`a pi`u elevate `e possibile aumentare la frequenza di lavoro di camera ed echosounder in modo da avere immagini con una buona quantit`a di sovrapposizione. In tutti i test, le velocit`a misurate sui canali x e y risultano meno rumorose rispetto al canale z. Questo `e da attribuire alla morfologia del terreno di simulazione, il g500 `e mantenuto a profondit`a costante ma i valori letti dall’echosounder variano tra 3.7 m e 4.7 m. In Fig.(78) `e mostrato il segnale prodotto dall’echosounder in una generica prova.

Figura 78: Misure echosouder virtuale del Girona500.

Aver testato positivamente l’algoritmo in un fondale cos‘ı variabile, garantisce una buona robustezza rispetto ad un fondale reale effettivamente variabile. La misura dello yaw rate risulta pi`u robusta rispetto alle velocit`a lineari con errori relativi sempre inferiori all’1 %.

I test con camera inclinata hanno evidenziato quanto la perdita di parallelismo tra piano immagine e scena influenzasse la stima della velocit`a senza il fattore di correzione della distanza.

Il calo delle prestazioni legato alla torbidit`a dell’acqua, pu`o essere migliorato imple- mentando un filtro che corregga le immagini dove la tonalit`a appare vicina ad un mono- cromatismo; cercando di enfatizzare le frequenze desiderate, in modo che l’algoritmo di estrazione delle features riesca a individuarle.

Processando le immagini sperimentali raccolte con FeelHippo, `e possibile confermare la robustezza dell’estrattore di features SURF implementato in MATLAB (Fig.56, 57).

L’identificazione e rimozione degli outlier `e risultata robusta anche con le immagini sperimentati (Fig.70), questo ci fa concludere che utilizzare questo sensore in un am- biente marino reale possa funzionare efficientemente in missioni in cui la visibilit`a `e un prerequisito.

Elenco delle figure

1 Sistemi di riferimento e moti elementari di un veicolo, [1]. . . 9

2 Visual odometry, [3]. . . 14

3 Classificazione sistemi per la navigazione subacquea. Questi metodi sono spesso combinati in un unico sistema per fornire prestazioni migliori, [4]. . 15

4 Explorer DVL Teledyne Marine. . . 17

5 Inertial navigation system. a. Schema a blocchi INS b. INS miniaturizzato [SGB System 2016], [3]. . . 18

6 Global positioning system. a. Costellazione di satelliti GPS b. Concetto di posizionamento tramite trilaterazione (punto rosso rappresenta la posizione dell’utente), [3]. . . 19

7 Sistema di posizionamento DGPS, [3]. . . 19

8 Metodi di localizzazione sottomarina a. SBL; b. USBL; c. LBL, [4]. . . 20

9 Localizzazione con Single Fixed Beacon, [4]. . . 22

10 Cooperazione tra AUV e ASC, [4]. . . 23

11 Tipologie di Sensori Sonar: a. Sidescan, b. Multibeam, c. Forward looking, d. Mechanical scanning and imaging, e. Synthetic aperture, [4]. . . 24

12 Differenti tipi di camere per VO. a. Stereo camera b. Stereo camera omni- dirazionale c. camera monoculare d. camera monoculare omnidirezionale, [3]. . . 28

13 Diagramma di flusso di un algoritmo VO, [3]. . . 30

14 FeelHippo, [2]. . . 34

15 Disegno CAD del veicolo, [2]. . . 35

16 Dimensioni Basler Ace. . . 36

17 Caratteristiche obiettivo. . . 37

18 Imagenex 852 Ultra-Miniature. . . 37

19 Payload. . . 38

20 Basler pylon Camera Software Suite. . . 39

21 Taratura diaframma e messa a fuoco. . . 40

22 Calibrazione camera. . . 40

23 GretagMacbeth ColorChecker. . . 41

24 Scacchiera con bullone e metro a nastro, foto acquisita con parametri di regolazione automatici e non filtrata. . . 43

25 Configurazione della prova in piscina. . . 44

26 Calibrazione con scacchiera in mare. . . 44

27 Porzione della Carta Nautica Mar Tirreno – Italia - da San Rossore – al Canale di Piombino – e Isole d’Elba – Capraia – Gorgona, [10]. . . 45

28 FeelHippo in navigazione presso lo Ship Light. . . 46

29 Foto scattata da FeelHippo al ColorChecker. . . 46

30 Fotogramma scattato da FeelHippo durante una missione. . . 47

31 Traiettoria percorsa da FellHippo. . . 47

32 Percorso finale per interallacciare le prove precedenti. . . 48

33 Rotta complessiva FellHippo 3D e 2D. . . 48

35 Confronto fra gli errori provenienti da diversi set di immagini. . . 49

36 Modello delle distorsioni completo. . . 50

37 Modello delle distorsioni tangenziali e radiali. . . 50

38 Immagine VS Immagine corretta. . . 51

39 Vista dall’alto dell’area mappata. . . 53

40 Scala: path di camera SFM (giallo) Gps (rosso). . . 53

41 Livello di dettaglio presente nelle mesh inquadrate pi`u da vicino. . . 54

42 Visualizzazione con UWSim del fondale 3D Shiplight (LI). . . 56

43 Girona 500, disposizione thrusters. . . 57

44 Joystick Playstation 3, numerazione tasti e leve. . . 58

45 Grafo dei nodi tra Joystick e Girona500 generato con Rqt graph . . . 59

46 Traiettoria ottenuta con guida a waypoint. . . 59

47 Schema a blocchi di un controllore PID. . . 60

48 Andamento della profondit`a. . . 61

49 Andamento dell’angolo di imbardata. . . 61

50 Velocit`a acquisita dal DVL e errore di velocit`a longitudinale. . . 62

51 Rqt graph, topic /DataNavigator. . . 63

52 Angolo di inclinazione della camera. . . 63

53 Rqt graph, guida a waypoint. . . 64

54 Stima dell’assetto di una Camera in movimento, [11]. . . 65

55 Immagine rettifica e convertita in scala di grigio. . . 67

56 Matching Features tra 2 immagini successive. . . 68

57 Matching Features tra frames successivi. . . 69

58 World Coordinate System, [11]. . . 69

59 Sistemi di Riferimento, [11]. . . 70

60 Lunghezza Focale f, [11]. . . 70

61 Offset del punto principale, [11]. . . 71

62 Proiezione in avanti, [11]. . . 71

63 Basic Perspective Projection, [11]. . . 72

64 Piano immagine e scena rappresentati come triangoli simili, [11]. . . 72

65 Trasformazione rigida dal frame World al frame Camera, [11]. . . 73

66 v: velocit`a 2D VS V: velocit`a 3D, [11]. . . 75

67 Matching Features con piano immagine non parallelo alla scena. . . 77

68 Piano immagine non parallelo alla scena. . . 77

69 Rappresentazione dell’errore tra velocit`a misurata e teorica. . . 78

70 Matching Features tra 2 immagini successive, con rimozione degli Outliers. 79 71 Confronto tra velocit`a VO, velocit`a di riferimento e velocit`a DVL. . . 80

72 Traiettoria di riferimento eseguita dal g500. . . 81

73 Confronto yaw rate VO e IMU. . . 82

74 Angoli di assetto Girona500. . . 83

75 Variazione della torbidit`a in funzione del parametro fog density. . . 84

76 Confronto tra Velocit`a di Surge misura con DVL, VO e di riferimento. . . 85

77 Yaw Rate stimato con VO Vs Yaw Rate misurato con IMU. . . 86

Elenco delle tabelle

1 Confronto fra i sensori pi`u comuni per la navigazione. . . 26

2 Confronto fra tipi di camere usate in VO. . . 29

3 Caratteristiche GigE Basler acA2040-25gc. . . 36

4 Forze e momenti agenti su un veicolo . . . 58

5 Andamento della stima VO, all’aumentare della velocit`a di surge. . . 80

6 Andamento della stima VO, all’aumentare della velocit`a di sway. . . 81

7 Andamento della stima VO, con velocit`a su pi`u assi. . . 81

8 Andamento della stima VO, pura rotazione. . . 81

9 Andamento della stima VO, con velocit`a su pi`u assi. . . 82

10 Stima della velocit`a in funzione dell’angolo α. . . 83

Riferimenti

1. Gianluca Antonelli, Underwater Robots, terza edizione, Springer, Svizzera, 2014. 2. A. Ridolfi, R. Costanzi, F. Fanelli, N. Monni, B. Allotta, S. Bianchi, R. Conti, J.

Gelli, L. Gori, L. Pugi, A. Rindi, FeelHippo: a low-cost autonomous underwa-

ter vehicle for subsea monitoring and inspection, 2016 IEEE 16th International

Conference on Environment and Electrical Engineering (EEEIC)

3. Mohammad O. A. Aqel1, Mohammad H. Marhaban, M. Iqbal Saripan and Nap- siah Bt. Ismail, Review of visual odometry: types, approaches, challenges, and

applications, Aqel et al. SpringerPlus (2016) 5:1897.

4. Liam Paull, Sajad Saeedi, Mae Seto, and Howard Li, AUV Navigation and Loca-

lization: A Review, IEEE JOURNAL OF OCEANIC ENGINEERING, VOL. 39,

NO. 1, JANUARY 2014.

5. Mario Prats, Javier P´erez, J. Javier Fern´andez and Pedro J. Sanz, An Open

Source Tool for Simulation and Supervision of Underwater Intervention Missions,

2012 IEEE/RSJ International Conference on Intelligent Robots and Systems October 7-12, 2012. Vilamoura, Algarve, Portugal.

6. Caiti Andrea, Slide Didattiche Underwater Systems.

7. Pollini Lorenzo, Slide Didattiche Sistemi di Guida e Navigazione, http://www. dynamitechs.com/- storage/SGN 1415 Guidance.pdf.

8. Jean-Yves Bouguet, Camera Calibration Toolbox for MATLAB, http://www.vision. caltech.edu/- bouguetj/calib doc/, October 14th, 2015.

9. Prats, M.; Perez, J.; Fernandez, J.J.; Sanz, P.J., ”An open source tool for simulation and supervision of underwater intervention missions”, 2012 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 2577-2582, 7-12 Oct. 2012.

10. Renzo Mazzanti, Secche della Meloria, introduzione geografica, http://www.parco- sanrossore.org/- pdf/meloria/focus1 introGeografia.pdf, 2012

11. Robert Collins, Slide Didattiche Computer Vision I , Course Overview, http:// www.cse.psu.edu/˜rtc12/CSE486/lecture01.pdf, 2007

12. Matthew Dunbabin, Jonathan Roberts, Kane Usher, Graeme Winstanley and Peter Corke, A Hybrid AUV Design for Shallow Water Reef Navigation, International

Conference on Robotics and Automation Barcelona, Spain, April 2005

13. A. Geiger and J. Ziegler, “Stereoscan: Dense 3d reconstruction in realtime,” in IEEE Intelligent Vehicles Symposium, jun 2011.

14. Christian Forster, Matia Pizzoli, Davide Scaramuzza, SVO: Fast Semi-Direct Mo-

nocular Visual Odometry, IEEE International Conference on Robotics & Automa-

tion (ICRA), 2014.

15. Hartley R, Zisserman A (2004) Multiple view geometry in computer vision, 2nd edn. Cambridge University Press, Cambridge

16. Scaramuzza D, Fraundorfer F (2011) Tutorial: visual odometry. IEEE Robot Autom Mag 18(4):80–92

17. Bay, H., A. Ess, T. Tuytelaars, and L. Van Gool. “SURF:Speeded Up Robust Features” Computer Vision and Image Understanding (CVIU).Vol. 110, No. 3, pp. 346–359, 2008.

18. David Ribas; Pere Ridao; Llu´ıs Mag´ı; Narc´ıs Palomeras; Marc Carreras, The Gi-

rona 500, a multipurpose autonomous underwater vehicle , OCEANS 2011 IEEE -

Spain Year: 2011.

19. E. Trucco and A. Verri, Introductory Techniques for 3-D Computer Vision ,Prentice Hall Engineering/Science/Mathematics, 1998.

20. Lisha Guo; Junshan Li; YingHong Zhu; ZongQi Tang, A novel Features from

Accelerated Segment Test algorithm based on LBP on image matching, IEEE 3rd

International Conference on Communication and Software, 2011.

21. Stephan Wirth, Pep Lluis Negre Carrasco, Gabriel Oliver Codina,Visual Odometry

Documenti correlati