Zusammenfassung
Bisher ist die Zusammenarbeit von Menschen mit autonomen Agenten noch sehr eingeschränkt und künstlich. Um zu einer möglichst natürlichen Zusammenarbeit in der Mensch-Roboter-Kollaboration zu kommen, werden Ansätze benötigt, die auf den menschlichen Fähigkeiten der Antizipation anderer fußen. Der Frage wird nachgegangen, wie der Mensch in der Lage ist, Kollaborationspartner zu antizipieren und mit ihnen indirekt zu kommunizieren. Weitere Fragen sind, wie mögliche kritische Situationen vorhergesehen werden können und wie eine flexible Aufgabenallokation realisiert werden kann. Die Integration kognitiver Modellansätze kann einem autonomen Agenten antizipative Fähigkeiten verleihen. Vorgestellt werden hierzu Umsetzungen mentaler Modelle spezifischer Situationen (1), spezielle Eigenschaften des Kooperationspartners (2) als auch der möglichen Handlungen und deren Auswirkungen des Agenten selbst (3). Es werden Beispiele aus dem Feld der kognitiven Assistenz herangezogen, in welcher ebenfalls Kollaborationspartner antizipiert werden. Des Weiteren ist die Fähigkeit, schnellere und flexiblere Lernformen zu verwenden, gegeben. Die Integration kognitiver Systemansätze in autonome Systeme könnte einige derzeit bestehende Probleme, wie die fehlende Transparenz und Anpassung an die Nutzer, weitreichend lösen.
This is a preview of subscription content, log in via an institution.
Buying options
Tax calculation will be finalised at checkout
Purchases are for personal use only
Learn about institutional subscriptionsLiteratur
Anderson, J. R., Bothell, D., Byrne, M. D., Douglass, S., Lebiere, C., & Qin, Y. (2004). An integrated theory of the mind. Psychological Review, 111(4), 1036–1060.
Buxbaum, H., & Sen, S. (2018). Kollaborierende Roboter in der Pflege – Sicherheit in der Mensch-Maschine-Schnittstelle. In O. Bendel (Hrsg.), Pflegeroboter. Wiesbaden: Springer Gabler.
Endsley, M. R. (1995). Toward a theory of situation awareness in dynamic systems. Human Factors, 37(1), 32–64.
Fiebich, A. (2018). Three dimensions in human-robot cooperation. In M. Coeckelbergh, M. Funck, J. Seibt & M. Norskov (Hrsg.), Envisioning robots in society – Power, politics, and public space, proceedings of robophilosophy 2018/TRANSOR 2018 (Frontiers in artificial intelligence and applications, S. 147–155). Amsterdam: IOS Press.
Fodor, J. A. (1992). A theory of the child’s theory of mind. Cognition, 44(3), 283–296.
Klaproth, O., Halbrügge, M., & Russwinkel, N. (2019). ACT-R model for cognitive assistance in handling flight deck alerts. In Proceedings of the 17th international conference on cognitive modeling, Montreal.
Lake, B. M., Ullman, T. D., Tenenbaum, J. B., & Gershman, S. J. (2017). Building machines that learn and think like people. Behavioral and Brain Sciences, 40, e253. https://doi.org/10.1017/S0140525X16001837.
Li, A., & Maani, K. (2011). Dynamic decision-making, learning and mental models. In Proceedings of the 29th international conference of the system dynamics society (S. 1–21). Washington, DC: System Dynamics Society.
Mahy, C. E., Moses, L. J., & Pfeifer, J. H. (2014). How and where: Theory-of-mind in the brain. Developmental Cognitive Neuroscience, 9, 68–81.
Newen, A. (2015). Understanding others: The person model theory. In T. Metzinger & J. Windt (Hrsg.), Open-Mind (Bd. 26, S. 1–28). www.open-mind.net. https://doi.org/10.15502/9783958570320.
Newen, A., & Schlicht, T. (2009). Understanding other minds: A criticism of Goldman’s simulation theory and outline of the person model theory. Grazer Philosophische Studien, 79, 209–242.
Onnasch, L., Maier, X., & Jürgensohn, T. (2016). Mensch-Roboter-Interaktion – Eine Taxonomie für alle Anwendungsfälle (1. Aufl., S. 1–12). baua: Fokus, Bundesanstalt für Arbeitsschutz und Arbeitsmedizin. https://doi.org/10.21934/baua:fokus20160630.
Premack, D., & Woodruff, G. (1978). Does the chimpanzee have a theory of mind? Behavioral and Brain Sciences, 1(4), 515–526.
Prezenski, S., Brechmann, A., Wolff, S., & Russwinkel, N. (2017). A cognitive modeling approach to strategy formation in dynamic decision making. Frontiers in Psychology, 8(1335), 1–18.
Scharfe, M., & Russwinkel, N. (2019). A cognitive model for understanding the takeover in highly automated driving depending on the objective complexity of non-driving related tasks and the traffic environment. In Proceedings of the 41th annual cognitive science society meeting.
Thomaz, A. L., Lieven, E., Cakmak, M., et al. (2019). Interaction for task instruction and learning. In K. A. Gluck & J. E. Laird (Hrsg.), Interactive task learning: Humans, robots, and agents acquiring new tasks through natural interactions (Strüngmann Forum Reports, Bd. 26, J. R. Lupp, series editor, S. 91–110). Cambridge, MA: MIT Press.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2020 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Rußwinkel, N. (2020). Antizipierende interaktiv lernende autonome Agenten. In: Buxbaum, HJ. (eds) Mensch-Roboter-Kollaboration. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-28307-0_13
Download citation
DOI: https://doi.org/10.1007/978-3-658-28307-0_13
Published:
Publisher Name: Springer Gabler, Wiesbaden
Print ISBN: 978-3-658-28306-3
Online ISBN: 978-3-658-28307-0
eBook Packages: Computer Science and Engineering (German Language)