• Non ci sono risultati.

10 SCENARIO DI RIFORNIMENTO IN VOLO AUTOMATICO

10.2 Fasi di approaching e refueling

10.2.1 Fase di approaching

La stessa fase di approaching può essere suddivisa in due sottofasi: la sottofase GPS-feedback e la sottofase Vision-feedback. Quando l’UAV è distante dal tanker, l’UAV conosce la sua posizione rispetto al tanker semplicemente effettuando la differenza tra le posizioni GPS del tanker e quella del veicolo. Per effettuare la manovra di avvicinamento l’UAV è comunque è interessato alla alla posizione del drogue. Dal momento che il GPS è posizionato sulla fusoliera del tanker e che il drogue fluttua nell’aria, la posizione del drogue è conosciuta con grande incertezza. Il sistema di guida dovrà quindi portare l’UAV in una posizione dalla quale il drogue sia ben visibile dalla telecamera, in modo da permettere l’attivazione del Vision-feedback. Fintanto che il drogue non è ben visibile, la retroazione di posizione relativa si basa esclusivamente sul GPS. Il problema della conoscenza della posizione del drogue viene risolto definendo un drogue fittizio, chiamato dummy drogue, la cui posizione è fissa rispetto al tanker. La posizione del dummy drogue, ottenuta per semplice rototraslazione statica della posizione del GPS rispetto alla fusoliera, viene quindi usata per pilotare i controllori di formazione.

Quando il drogue si trova sufficientemente vicino alla telecamera posta sull’UAV, e il sistema di visione produce una stima del posizionamento relativo considerata valida, il Vision-feedback può iniziare.

Quando la fase di Vision-feedback inizia, l’errore tra la posizione del dummy drogue e quella effettiva del drogue diventa evidente. Tale errore viene usato per calcolare una nuova posizione del dummy drogue, che può essere anche utilizzata come feedback di errore in caso di errore temporaneo nel sistema di visione.

Per ridurre un transitorio troppo lungo causato da queste brusche variazioni nelle posizioni, lo switching tra le due fasi è effettuato in tre stadi diversi. Inizialmente il segnale proveniente dalla visione è usato per ridurre l’errore lungo l’asse y (l’asse laterale), successivamente lungo l’asse z (verticale) e infine lungo l’asse x (asse longitudinale).

La riduzione dell’errore lungo l’asse x, che porta all’inserzione del probe all’interno del drogue, può iniziare solo quando gli errori sulle componenti laterale e verticale sono all’interno di una certa soglia. Inoltre, la logica di switching tra le varie sottofasi presenta un’isteresi per evitare frequenti switching tra stime provenienti da GPS e visione.

Durante la fase di approaching, la strategia è quella di mantenere la velocità di avvicinamento costante ed uguale alla velocità ottima di inserimento del probe all’interno del drogue. Comunque, nel caso di fallimento del sistema di visione (il flag di validità viene portato a 0), il sistema entra in una fase di Blackout. Durante la fase di Blackout lo scopo è continuare a controllare l’UAV persino senza l’ausilio di alcun segnale proveniente dall’esterno. In questo caso, la fase di GPS-feedback viene riattivata, ed i controllori di formazione sono pilotati dall’errore in posizione rilevato all’ultimo istante di comportamento corretto del sistema. Se la fase di Blackout rimane attiva per un periodo oltre una determinata soglia temporale, il sistema si riporta nella fase di GPS-feedback utilizzando una precedente posizione del dummy drogue.

10.2.2 Fase di refueling

La procedura di refueling inizia quando il probe è stato inserito all’interno del drogue. Per mantenere sicura l’intera operazione, la tensione del cavo viene leggermente diminuita. Benché sia teoricamente possibile controllare la tensione del cavo con il sistema di visione, in pratica può essere difficile perché per distanze molto ravvicinate la posizione della telecamera sull’UAV potrebbe non permettere l’inquadramento del drogue. In questo caso il GPS feedback deve essere quindi riattivato, e l’UAV deve essere quindi guidato per volare in formazione con il tanker.

10.3 Simulazioni

In questo paragrafo verranno mostrati i risultati ottenuti dello scenario simulato. I modelli degli aerei, del tubo di rifornimento e dei disturbi atmosferici sono stati implementati in Matlab/Simulink. Inoltre, sono stati inseriti in DynaWORLDS [82] i modelli CAD degli aerei, del tubo e della telecamera a bordo dell’UAV. Simulink genera le traiettorie di tutti gli oggetti coinvolti nello scenario, e DynaWORLDS li visualizza in una finestra 3D simulando l’acquisizione da una telecamera.

Fig. 10.4 Esempio di marker posizionati sul drogue

L’immagine viene successivamente inviata a Simulink, e processata dall’algoritmo di pose estimation descritto nel capitolo precedente. La Fig. 10.4 mostra la posizione dei marker posizionati in simulazione sul drogue, mentre la Fig. 10.5 mostra l’architettura software dello scenario simulato. La posizione del dummy drogue rispetto al tanker reference frame è impostata a [-53 -19 18] metri, cioè il cavo è supposto essere a sinistra ed in basso rispetto al tanker. La posizione iniziale dell’UAV è impostata a [16 3.5 7] metri rispetto al drogue. Un passo di campionamento di 0.1 secondi è stato scelto per acquisire i frame dalla telecamera simulata.

Fig. 10.5 Architettura dell'ambiente di simulazione

In Fig. 10.6 viene raffigurato l’aereo YF-22 il cui modello è stato utilizzato all’interno dello scenario simulato.

Fig. 10.6 L'YF-22 utilizzato come UAV nello scenario simulato

In Fig. 10.7 si mostra la sequenza di switching tra il GPS-feedback ed il Vision - feedback. Nei primi 43 secondi di simulazione l’UAV si avvicina al tanker utilizzando esclusivamente il feedback di posizione proveniente dal GPS. Al tempo t = 43 la stima di posizione lungo l’asse y rientra all’interno della soglia preimpostata ed inizia il Vision-feedback sull’asse y. A questo punto, i controllori agenti sull’asse y sono pilotati dalla stima di posizione proveniente dalla visione.

Al tempo t = 57 il Vision-feedback diventa attivo anche sull’asse x e il GPS- feedback non è più attivo.

Fig. 10.7 Posizione relativa stimata tra probe e drogue

Fig. 10.8 Numero di marker visibili e flag di validità del sistema di visione

La Fig. 10.8 mostra il numero di marker identificati ad ogni passo di campionamento e lo stato del flag di validità del sistema di visione. Quando tale flag vale 0 il sistema di visione non è affidabile, ed in tal caso un warning viene inviato al sistema complessivo. Durante l’intera fase di feedback visivo, il numero di marker visibili cambia in funzione delle occlusioni prodotte dal muso dell’aereo e dal probe. Il sistema è comunque capace di fornire una corretta

stima per tutta la durata della missione, persino nel caso di perdita di 3 marker avvenuta al tempo t = 67 secondi.

Fig. 10.9 Posizione relativa reale tra probe e drogue

10.4 Conclusioni

In questo capitolo è stato presentato un nuovo scenario simulato di rifornimento in volo automatico di tipo probe-and-drogue. Nello scenario sono stati introdotti i modelli del tanker e dell’UAV, con i relativi controllori. Sono stati inoltre introdotti il modello del cavo di rifornimento ed i controllori di formazione. Il sistema di visione proposto nel capitolo precedente è stato utilizzato in combinazione con un GPS per fornire all’UAV la stima del posizionamento relativo rispetto al drogue. Il sistema di visione, punto cruciale dell’intero scenario di rifornimento, si è dimostrato affidabile anche in situazioni nei quali alcuni marker sono rimasti occlusi.

123

11

CONCLUSIONI

In questa tesi sono stati descritti alcuni dei risultati ottenuti nel corso dei tre anni di dottorato. L’argomento comune è la progettazione e la realizzazione di componenti a basso costo per veicoli autonomi terrestri e aerei.

Durante i tre anni di attività è stato progettato e realizzato il veicolo terrestre autonomo Ulisse. Il veicolo, originariamente adibito al trasporto di personale e materiale su campi da golf, è stato dotato di sensori e attuatori per permetterne la movimentazione autonoma. Benché molti veicoli a basso costo siano già stati presentati in letteratura, Ulisse presenta al suo interno alcune componenti innovative. In primo luogo il veicolo è stato progettato in modo da minimizzare il costo complessivo di sensori ed attuatori, con un occhio particolare quindi ad una sua possibile commercializzazione. Inoltre, è stato studiato e realizzato un innovativo sistema di obstacle detection basato su visione stereo. Il sistema è in grado di localizzare accuratamente ostacoli senza la necessità di essere integrato con altri sensori comunemente utilizzati (radar, lidar). Il sistema, tuttavia, a causa di alcuni filtri utilizzati per migliorarne l’affidabilità, non riesce talvolta a rilevare oggetti in movimento. Ben presto, quindi, il sistema verrà esteso per permettere un’identificazione affidabile anche di oggetti in movimento. Attualmente è inoltre in fase di studio un nuovo algoritmo di obstacle avoidance, che verrà presto testato sul veicolo.

Gli algoritmi di guida presenti attualmente su Ulisse sono ben noti in letteratura. Inseguitori di percorso e di traiettoria sono attualmente utilizzati, ed alcuni sistemi di guida tipici del settore aeronautico sono stati implementati ad esclusivo uso didattico. Un nuovo sistema di guida fuzzy che ha fornito buoni risultati in scenari simulati è attualmente in fase di test.

Ulisse inoltre sfrutta un sistema di navigazione basato su EKF per orientarsi e localizzarsi. Il sistema riceve in ingresso le misure dal GPS e dai sensori odometrici, e produce in uscita stime di posizione, velocità e orientamento. Parallelamente alla realizzazione di Ulisse è stato progettato e realizzato un innovativo sistema di visione per la stima di posizione e orientamento di oggetti. L’algoritmo è stato pensato per essere utilizzato in uno scenario di volo in formazione autonomo o di rifornimento in volo automatico. Il sistema, testato in situazioni reali, ha dimostrato di essere molto affidabile e robusto a disturbi ed occlusioni di marker, e può essere inserito in un ambiente real time. L’algoritmo è stato successivamente inserito all’interno di un nuovo e completo scenario di rifornimento in volo automatico probe-and-drogue. All’interno dello scenario

sono state progettate nuove strategie per il completamento della missione, ed una missione completa è stata simulata. Nello scenario sono stati inseriti i modelli del tanker, dell’UAV YF-22 e del cavo di rifornimento, nonché i controlli di formazione ed una nuova logica di switching tra GPS e sistema di visione per la retroazione della posizione relativa tra probe e drogue. L’algoritmo di visione, nucleo fondamentale dell’intero scenario, è stato inserito per limitare il più possibile l’utilizzo del GPS (potenzialmente non disponibile in caso di jamming), e per aumentare la frequenza di aggiornamento della posizione relativa. L’algoritmo ha dimostrato di essere affidabile anche con informazioni parzialmente disponibili, permettendo un’efficace retroazione di posizione.

125

BIBLIOGRAFIA

1. Reina, G., Ojeda, L., Micella, A., Borenstein, J., “Wheel slippage and sinkage detection for planetary rovers”, IEEE/ASME Transactions on Mechatronics, Volume 11, Issue 2, April 2006 Page(s):185 - 195

2. Sito Internet di Tekel.srl: www.tekel.it 3. Sito Internet di Eltra.srl: www.eltra.it

4. Sito Internet di USDigityal: www.usdigital.com 5. Sito Internet di CUI Inc.: www.cui.com

6. Landi, A., “Lezioni di Motion Control”, 1998, Edizioni ETS 7. Sito Internet di GPS World: www.gpsworld.com

8. Biezad, D. J., “Integrated Navigation and Guidance Systems”, 1999, AIAA Education, QED Educational Services

9. Grewal, M. S., Weill, L. R., Andrews, A.P, “Global Positioning Systems, Inertial Navigation, and Integration”, 2001, J. Wiley, Inc. Publication

10. Sito Internet di NMEA: http://www.nmea.org/ 11. Sito Internet: http://www.gpsinformation.org/

12. Huang, W., Krotkov, E. P., “Optimal Stereo Mast Configuration for Mobile Robot”, International Conference on Robotics and Automation, Volume 3, April 1997, pp. 1946-1951

13. Hartley, R., Ziesserman, A., “Multiple View Geometry in Computer Vision”, Cambrige University Press, 2004

14. Adams, M. D., “Lidar design, use, and calibration concepts for correct environmental detection”, IEEE Transactions on Robotics and Automation, Volume 16, Issue 6, Dec. 2000 Page(s): 753 – 761

15. Toth, C. K., Paska, E., Chen, Q., Yongjie Zhu, Redmill, K., Ozguner, U., “Mapping support for the OSU DARPA grand challenge vehicle”, IEEE Intelligent Transportation Systems, 2006.

16. Cheng, H., Zheng, N., Zhang, X., Qin, J., van de Wetering, H., “Interactive Road Situation Analysis for Driver Assistance and Safety Warning Systems: Framework and Algorithms”, IEEE Transactions on Intelligent Transportation Systems, Volume 8, Issue 1, March 2007 Page(s):157 – 167

17. Alessandretti, G., Brogli, A., Cerri, P., “Vehicle and Guard Rail Detection Using Radar and Vision Data Fusion”, IEEE Transactions on Intelligent Transportation Systems, Volume 8, Issue 1, March 2007 Page(s):95 – 105 18. Zehang Sun, Bebis, G., Miller, R., “On-road vehicle detection: a review”, IEEE

Transactions on Pattern Analysis and Machine Intelligence, Volume 28, Issue 5, May 2006 Page(s) 694 – 711

19. Chen, Q., Ozguner, U., Redmill, K., “Ohio State University at the 2004 DARPA Grand Challenge: developing a completely autonomous vehicle”, IEEE Intelligent Systems, Volume 19, Issue 5, Sep-Oct 2004 Page(s):8 - 11 20. Millman, J., Grabel, A., “Microelectronics”, 1987, McGraw-Hill,.

21. Corsanini, D., Tocchini, F., “Identification of a car-like vehicle via modulating functions”, ICINCO 2005, Barcelona, Spain

22. Ogata, K., “Modern Control Engineering”, 1997, Ed. Prentice Hall,

23. Fossen, T. I, “Marine Control Systems: Guidance, Navigation and Control of Ships, Rigs and Underwater Vehicles”, Marine Cybernetics

24. Fossen, T. I., “Guidance and Control of Ocean Vehicles2, , 1994John Wiley & Sons Ltd.

25. Zarchan, P., “Tactical and strategic missile guidance”, 2002, AIAA, Fourth Edition

26. Lin Ching Fang, “Modern Navigation, Guidance, and Control Processing”, Prentice Hall, 1991.

27. Committee on Army Unmanned Ground Vehicle Technology, National Research Council, “Technology Development for Army Unmanned Ground Vehicles”, 2002

28. Pollini, L., Baralli, F., Innocenti, M., “Waypoint-based Fuzzy Guidance for Unmanned Aircraft - A New Approach”, AIAA Guidance, Navigation and Control Conference, Monterey, California, August 2002

29. Pollini, L., Baralli, F., Innocenti, M., “A Guidance System for Unmanned Air Vehicles Based on Fuzzy Sets and Fixed Waypoints”, Journal of Guidance, Control, and Dynamics, AIAA, March 2004

30. Naeem, W., Sutton, R., Ahmad, S. M., Burns, R. S., “A Review of Guidance Laws Applicable to Unmanned Underwater Vehicles”, Journal of Navigation, 2003, Vol. 56, pp.: 15-29, N. 1

31. Welch, G., Bishop, G., “An Introduction to the Kalman Filter”, University of North Carolina at Chapel Hill, 2004

32. Snyder, J. P., “Flattening the Earth: Two Thousand Years of Map Projections”, University of Chicago Press, 1997

33. Pearson, F., “Map Projections: Theory and Applications”, CRC Press, 1990 34. Sito Internet kartoweb: http://kartoweb.itc.nl/geometrics/Map

Projections/Understanding Map Projections.pdf

35. Cooper, S., Durrant-Whyte, H., “A Kalman Filter Model for GPS Navigation of Land Vehicles”, IEEE, 1994

36. Redmill, K. A., Kitajima, T., Özgüner, Ü., “DGPS/INS integrated positioning for control of automated vehicle”, 2001 IEEE Intelligent Transportation System Conference Proceedings

37. Garcìa-Perez, L., Garcìa-Alegre, M. C., Ribeiro, A., Guinea, D., Canas, J. M., “Perception and Tracking of Dynamic Objects for Optimization of Avoidance Strategies in Autonomous Piloting of Vehicles”, Spatial Cognition IV, 2005, pp. 500-517.

38. Kwon, Y. D., Lee, J. S., “A Stochastic Map Building Method for Mobile Robot using 2-D Laser Range Finder”, Autonomous Robots 7, 1999, pp. 187-200. 39. Broggi, A., Caraffi, C., Fedriga, R. I., Grisleri, P., “Obstacle Detection with

Stereo Vision for Off-Road Vehicle Navigation,” IEEE Computer society conference on Computer Vision and Pattern Recognition, Vol. 3, 20-26 Jun. 2005, pp. 65.

40. Brogli, A., Caraffi, C., Porta, P. P., Zani, P., “The Single Frame Stereo Vision System for Reliable Obstacle Detection used during the 2005 DARPA Grand Challenge on TerraMax,” IEEE Intelligence Transportation Systems Conference, 17-20 Sept. 2006, pp. 745-752.

41. Pollini, L., Greco, F., Mati, R., Innocenti, M., Tortelli, A., “Stereo Vision Obstacle Detection based on Scale Invariant Feature Transform Algorithm”, AIAA Guidance Navigation and Control Conference 2007

42. Lowe, D., “Distintive Image Features from Scale-Invariant Keypoint”, International Journal for Computer Vision, 2004

43. Pauly M., Gross, M., Kobbelt, L. P., “Efficient Simplification of Point-Based Surfaces”, 2002

44. Lomenie, N., “A generic methodology for partitioning unorganized 3D point clouds for robotic vision”, First Canadian Conference on Computer and Robot Vision,2004.

45. Burger, W., Scharinger, J., ”Object-centered Feature Selection for Weakly- Unsupervised Object Categorization”, Digital Imaging in Media and Education ,Vol.179, pages 79-86. OCG, 2004.

46. Rajagopalan, B., Isken, M.W., “Exploiting data preparation to enhance mining and knowledge discovery”, IEEE Transactions on Systems, Man and Cybernetics, Part C, Volume 31, Issue 4, Nov. 2001 Page(s):460 – 467

47. Höppner, F., Klawonn, F., Kruse, R., Runkler, T., “Fuzzy Cluster Analysis”, Wiley, 1999

48. Se, S., Lowe, D., Little, J., “Mobile Robot Localization and Mapping with Uncertainty using Scale-Invariant Visual Landmarks”, The international Journal of Robotics Research Vol.21,No.8, August 2002,,pp753-758.

49. Bay, H., TuyTelaars, T., Van Gool, L., “SURF: Speeded Up Robust Features,” 9th European Computer Vision Conference, Vol. 60, 7-13 May 2006, pp. 404- 417.

50. Sito Internet PC104: http://www.pc104.org/ 51. Sito Internet RTAI: http://www.rtai.org

52. Sito Internet Mthworks: http://www.mathworks.com/products/rtw/

53. Blake, W., Multhopp, D., “Design, Performance, and Modeling Considerations for Close Formation Flight,” Proceedings of the 1999 AIAA GNC Conference, AIAA paper 1999-4343, Portland, OR, August 1999.

54. Pachter, M., D’Azzo, J., Proud, A., “Tight Formation Flight Control,” Journal of Guidance, Control, and Dynamics, Vol. 24, No. 2, March-April 2001, pp. 246–254.

55. Giulietti, F., Pollini, L., Innocenti, M., “Autonomous Formation Flight,” IEEE Control Systems Magazine, Vol. 20, No. 6, December 2000, pp. 34–44. 56. Fischler, M., Bolles, R.C., “Random Sample Consensus: A Paradigm for Model

Fitting and Automatic Cartography,” Comm. ACM, No. 6, 1981, pp. 381-395. 57. Horaud, R., Conio, B., Leboulleux, O., “An Analytic Solution for the

Perspective 4-Point Problem,” Computer Vision, Graphics, and Image Processing, No. 1, 1989, pp. 33-44.

58. Haralick, R.M., Lee, C., Ottenberg, K., Nolle, M., “Analysis and Solutions of the Three Point Perspective Pose Estimation Problem,” Proc. IEEE Conf. Computer Vision and Pattern Recognition, 1991, pp. 592-598.

59. Ansar A., Daniilidis K., “Linear Pose Estimation from Points or Lines,” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 25, No. 4, April 2003, pp. 578-589

60. Quan, L., Lan, Z., “Linear N-Point Camera Pose Determination,” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 21, 1999, pp. 774-780.

61. Fiore, P.D., “Efficient Linear Solution of Exterior Orientation,” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 23, 2001, pp. 140-148.

62. Lu, C.-P., Hager, G., Mjolsness, E., “Fast and Globally Convergent Pose Estimation From Video Images,” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 22, 2000, pp. 610-622.

63. Lowe, D.G., “Three-Dimensional Object Recognition from Single Two- Dimensional Image,” Artificial Intelligence, Vol. 31, 1987, pp. 355-395. 64. Araujo, H., Carceroni, R., Brown, C., “A Fully Projective Formulation for

Lowe's Tracking Algorithm,” Technical Report 641, Univ. of Rochester, 1996 65. DeMenthon, D., Davis, L., “Model-Based Object Pose in 25 Lines of Code,”

International Journal of Computer Vision, Vol. 15, June 1995, pp. 123-141. 66. Horn, B. K. P., “Closed-Form Solution of Absolute Orientation Using Unit

Quaternion,” Journal of the Optical Society of America, Vol. 4, 1987, pp. 629- 642

67. Horn, B. K. P., Hilden, H. M., Negahdaripour, S., “Closed-Form Solution of Absolute Orientation Using Orthonomal Matrices,” Journal of the Optical Society of America, Vol. 5, 1988, pp. 1127-1135.

68. Naffin, D. J., Sukhatme, G. S., “A Test Bed for Autonomous Formation Flying,” Institute for Robotics and Intelligent Systems Technical Report IRIS- 02-412, 2002.

69. Altug, E., Taylor, C., “Vision-based Pose Estimation and Control of a Model Helicopter,” IEEE International Conference on Mechatronics, June 3-5, 2004, Istanbul, Turkey.

70. Saripalli, S., Montgomery, J. F., Sukhatme, G. S., “Visually-Guided Landing of an Unmanned Aerial Vehicle,” IEEE Transactions on Robotics and Automation, Vol. 19, No 3, June 2003, pp. 371-381

71. Mortari, D., Rojas, J. M., Junkins, J. L., “Attitude and Position Estimation from Vector Observations,” 14th AAS/AIAA Space Flight Mechanics Meeting, February 8–12, 2004, Maui, Hawaii

72. Kimmet, J., Valasek, J., Junkins, J., “Autonomous Aerial Refueling Utilizing a Vision Based Navigation System,” Proceedings of the 2002 AIAA GNC Conference, AIAA paper 2002-4469, Monterey, CA, August 2002.

73. Valasek, J., Kimmet, J., Hughes, D., Gunnam, K., and Junkins, J., “Vision Based Sensor and navigation for Autonomous Aerial Refueling,” Proceedings of the 1st AIAA Unmanned Aerospace Vehicles, Systems, Thechnologies and Operations Conference and Workshop, AIAA paper 2002-3441, Portsmouth, VA, May 2002.

74. Pollini, L., Mati, R., Innocenti, M., Campa, G., and Napolitano, M., “A synthetic Environment for Simulation of Vision-Based Formation Flight,” Proceedings of the 2003 AIAA MST Conference, Austin, TX , August 2003 75. Pollini, L., Campa, G., Giulietti, F., Innocenti, M., “Virtual Simulation Set-Up

for UAVs Aerial Refuelling”, Proceedings of the 2003 AIAA MST Conference, Austin, TX , August 2003

76. Pollini, L., Mati, R., Innocenti, M., “Experimental Evaluation of Vision Algorithms for Formation Flight and Aerial Refuelling,” Proceedings of the 2004 AIAA MST Conference, Providence, RI, August 2004

77. Pollini, L., Mati, R., Innocenti, M., “Vision Algorithms for Formation Flight and Aerial Refueling with Optimal Marker Labeling,” Proceedings of the 2005 AIAA MST Conference, S. Francisco, CA, August 2005

78. Kuhn, H.W., “The Hungarian Method for the assignment problem,” Naval Research Logistic Quarterly, Vol. 2, 1955, pp. 83-97.

79. R.Mati, L.Pollini, M.Innocenti., “Vision-Based Autonomous Probe and Drogue Aerial Refueling”, Mediterranean Conference on Automation and Control 2006, Ancona, Italy

80. Junkins, J. L., Hughes, D., Wazni, K., and Pariyapong, V., “Vision-Based Navigation for Rendezvous, Docking, and Proximity Operations”, 22nd Annual AAS Guidance and Control Conference, Advances in Astronautical Sciences 99-021, February 1999

81. Crassidis, J., Alonso, R., and Junkins, J. L., “Optimal Attitude and Position Determination from Line-of-Sight Measurements”, Journal of the Astronautica lSciences, Special Issue, Vol. 48, No. 2,3, April - September 2000, pp. 391- 408.

82. Camera Calibration Toolbox for Matlab, Free Software, Ver. 1.0, California Insitute of Tecnology, http://www.vision.caltech.edu/bouguetj/calib_doc/ 83. www.dynamitechs.com

Documenti correlati