Zusammenfassung
In dieser Arbeit stellen wir eine Lösung zum visuellen Lernen von Roboterpositionen über die Erkennung natürlicher Szenen mit einem einfachen Kamerasystem vor. Als Eingangsinformationen dienen allein omnidirektionale Grauwertbilder der Umgebung. Für die Anwendung in einer globalen Umgebung wurde die Klassifizierung verschiedenster Situationen durchgeführt. Sobald das Kamerasystem zur Laufzeit eine neue Szene erfaßt, wird das Bild in den globalen Eigenraum projiziert und der nächstliegenden benachbarten Situation zugeordnet. Anschließend wird der entsprechendelokale Controlleraktiviert, welcher die Position automatisch über Interpolation berechnet. Praktisch durch¬geführte Experimente mit dem Khepera-Roboter zeigen die Effizienz dieses Verfahrens.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
R. Cassinis, D. Grana, and A. RizzL Using Color Information in an Omni-directional Perception System for Autonmous Robot Localization. InProcee¬dings of the EUROBOT 796 Conference, pages 172–176, 1996.
G. Dudek and C. Zhang. Vision-based robot localization without explicit ob¬ject models. InProceedings of the IEEE International Conference on Robotics and Automation, pages 76–82, 1996.
J. A. Hancock and C. E. Thorpe. ELVIS: Eigenvectors for Land Vehicle Image System. Technical Report CMU—RI—TR—94—43, The Robotics Institue, Carnegie Mellon Univeristy, 1994.
Y. Matsumoto, M. Inaba, and H. Inoue. Visual Navigation using View- Sequenced Route Representation. InProceedings of the IEEE International Conference on Robotics and Automation, pages 83 - 94, 1996.
T. Sanger. Anoptimaliiy principle for unsupervised learning. Advances in neural information processing systems 1. D. S. Touretzky (ed.), Morgan Kauf¬mann, San Mateo, CA, 1989.
Y. Yagi and M. Yashida. Real-time generation of environment map and obstacle avoidance using omnidirectional image sensor with conic mirror. InProcee¬dings of the IEEE Conference on Computer Vision & Pattern Recognition, pages 160–165, 1991.
J. Zhang and A. Knoll. Constructing fuzzy controllers with B-spline models - principles and applications. International Journal of Intelligent Systems, 13 (2/3): 257 — 285j Feb./Mar. 1998.
Author information
Authors and Affiliations
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 1999 Springer-Verlag Berlin Heidelberg
About this paper
Cite this paper
Zhang, J., Schwert, V., Knoll, A. (1999). Visuelles Lernen zur Lokalisierung eines mobilen Roboters. In: Wörn, H., Dillmann, R., Henrich, D. (eds) Autonome Mobile Systeme 1998. Informatik aktuell. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-60043-2_2
Download citation
DOI: https://doi.org/10.1007/978-3-642-60043-2_2
Publisher Name: Springer, Berlin, Heidelberg
Print ISBN: 978-3-540-65192-5
Online ISBN: 978-3-642-60043-2
eBook Packages: Springer Book Archive