1 Einführung

In diesem Beitrag sollen von der Verfasserin und ihrem Team verfolgte Forschungsansätze und die damit erzielten Ergebnisse aus der Robotertechnik vorgestellt werden. Sie zeigen, wie Senior:innen unterstützt werden können, ein selbständiges Leben aufrechtzuerhalten bzw. zu verlängern, und wie sie im Falle eines akuten Unterstützungs- oder Hilfebedarfs schnelle und passgenaue Hilfe erhalten können. Konkret geht das Forschungsteam auf die Sensortechnik ein, mit deren Hilfe die Aktivitäten einer Person erfasst werden, und auf Anwendungen bei der Assistenz durch Roboter. Eine maßgebliche Aufgabe der Forschung auf dem Gebiet der Mensch-Roboter-Kommunikation ist es, eine Person in ihren Tätigkeiten zu unterstützen und ggf. sogar eine Symbiose zwischen ihr und einem Roboter zu erzielen. Als mögliche Lösungsansätze wird in diesem Beitrag auf den Einsatz von „sozialen Robotern“ und die „Etho-Robotik“ eingegangen, die sich auf die Ethologie stützen und die Beziehung zwischen Mensch und Hund in den Fokus nehmen.

2 Beispiele für die Roboterassistenz im alltäglichen Lebensumfeld und im Alltagshandeln

Zu Beginn sollen Beispiele aufgezeigt werden, wie ein Roboter den Menschen in seinem alltäglichen Lebensumfeld assistieren kann.

Das in Abb. 1 wiedergegebene Beispiel (a) zeigt, wie ein Roboter mit Mobilitäts- und Kommunikationsfunktionen anstelle von Anzeigetafeln Menschen den Weg weist oder sich zu Menschen hinbewegt, um dort mit Menschen zu kommunizieren. Das Beispiel (b) zeigt eine Situation an einem Produktionsstandort, bei Mensch und Roboter zusammenarbeiten: Der Roboter hebt Teile hoch, um dem Menschen die Arbeit zu vereinfachen. Im ersten Beispiel findet der Roboter Menschen, die eine Wegbeschreibung benötigen, und bewegt sich aktiv zu ihnen hin, um ihnen den Weg zu weisen. Man kann davon ausgehen, dass das effektiver ist als herkömmliche Hinweisschilder. Wenn ein Roboter – wie im zweiten Beispiel – schwere Einzelteile oder Rohstoffe anhebt und dadurch den Menschen körperlich entlastet, kann erwartet werden, dass der Mensch seine Arbeit sicherer verrichten und sich – insbesondere in der Bearbeitung oder Montage, bei der Feinarbeit gefragt ist – besser auf seinen Arbeitsvorgang konzentrieren kann.

Abb.  1
figure 1

Beispiele für die Assistenz durch einen Roboter bei menschlichen Aktivitäten

Damit ein Roboter eine solche Unterstützung leisten kann, muss er die Aktivitäten des Menschen erfassen, er muss die Situationen verstehen und entsprechende Handlungen generieren. Wenn ein Roboter ohne die Steuerung durch einen Menschen selbst Aktionen ausführt, handelt es sich um „autonomes Agieren“ bzw. analog um „autonome Fortbewegung“, wenn er sich ohne die Steuerung durch einen Menschen an einen Zielort begeben kann. Roboter mit solchen Funktionen werden als „autonome Roboter“ bezeichnet. Die Aktivitäten und das Lebensumfeld des Menschen sind dynamisch, man kann sie nicht per se a priori kennen. Dementsprechend muss ein Roboter, der die Aktivitäten des Menschen unterstützt, grundsätzlich autonom agieren können.

Damit ein Roboter dies tun kann, ist es unerlässlich, dass er das Umfeld, in dem er sich bewegen will, beobachtet und versteht. In der Sensorik für einen autonomen Roboter gibt es dazu grob unterteilt zwei Ansätze: (a) Die Sensoren sind im Roboter eingebaut, (b) die Sensoren sind in seinem Umfeld verteilt. Ansatz (a) erhöht die Unabhängigkeit des Roboters von seinem Umfeld, gleichzeitig kann aber die Reichweite des erfassbaren Gebiets begrenzt sein. Ansatz (b) ermöglicht durch die Vernetzung der Sensoren die Beobachtung eines weiträumigen Umfelds. Mit anderen Worten: Der Roboter kommuniziert mit diesem Sensoren-Netzwerk und erhält so die erforderlichen Informationen.

Im Ansatz (b) muss also der Roboter sein Umfeld nicht erst beobachten, um agieren zu können. Außerdem muss im Falle des Einsatzes von mehreren Robotern auch die Zahl der Sensoren nicht erhöht werden. Im Rahmen seiner Forschungen hat das Team einen Raum mit Sensoren bestückt. Der darin agierende Roboter wird als „physikalischer Agent“ und der Prozess, mit dem dieser Agent auf den Raum einwirkt, als „intelligente Vernetzung dieses Raums“ bezeichnet. Letzteres definiert einen „Intelligent Space“ (iSpace). Der Roboter dient als „Effektor“, der für den Menschen eine physikalische Wirkung (Dienstleistungen) erbringt. Abb. 2 zeigt das Konzept der „intelligenten Vernetzung“.

Abb.  2
figure 2

Das Konzept des intelligenten Raums (iSpace)

3 Roboterassistenz durch Umgebungsbeobachtung und Bedarfsanalyse

In diesem Abschnitt sollen die Techniken zur Umgebungserfassung bei der intelligenten Vernetzung des Raums beschrieben und darauf aufbauend gezeigt werden, wie damit die Aktivitäten einer Person unterstützt werden können. Je nach kulturellem Hintergrund gibt es dazu unterschiedliche Einstellungen. In der japanischen Kultur löst die Überwachung des Menschen mit Kameras nicht selten psychischen Widerstand aus, denn dies kann eine Verletzung der Privatsphäre bedeuten (Lee & Hashimoto, 2003; Morioka et al., 2004; Sasaki & Hashimoto, 2008). Um die so mögliche Identifizierung von Einzelpersonen zu erschweren, ist man dazu übergegangen, zur Feststellung des Standorts von Robotern und Personen anstelle von Kameras dreidimensionale Laserscans zu verwenden (Brscic et al., 2013; Hiroi & Niitsuma, 2013; Nikkei Research, 2021).

3.1 Messung eines Raums mit Laserscanning und Darstellung in einer Gitterkarte

Damit ein Roboter autonom mobil sein kann, ist er auf eine genaue Umgebungskarte angewiesen. Nur so kann er seine eigene Position ermitteln, sich frei im Raum bewegen und ohne Schwierigkeiten sein Ziel finden. Dabei gibt es verschiedene Formen von Umgebungskarten. Häufig werden Belegungsgitterkarten („grid maps“) verwendet, mit denen die erforderlichen Informationen einfach und praktisch in einer Karte dargestellt werden können. Dabei wird die Karte in Gitter aufgeteilt. Potenzielle Hindernisse und ihr Standort werden darin aufgeführt. Für jede Zelle wird die Wahrscheinlichkeit der Belegung mit einem Hindernis gespeichert. Dazu wird häufig ein Laserscanner genutzt, der die jeweilige Entfernung messen kann. Trifft der Laser auf ein Objekt, dann ist der Bereich dahinter verdeckt, sodass zur Messung des Standorts von Personen oder Roboter auch häufig mehrere LiDAR-Sensoren verwendet werden müssen. Abb. 3 zeigt das Erkennen von Objekten mit Laserscannern sowie ein Beispiel für die entsprechende Darstellung in einer Gitterkarte.

Abb. 3
figure 3

Messung eines Raums mit Laserscanning und Darstellung in einer Gitterkarte

Für die Erstellung der Umgebungskarte werden die entsprechenden Standorte von Hindernissen in der Gitterkarte als unterschiedliche Objekte aufgeführt und dann in statische und bewegliche Objekte unterteilt. Weiterhin werden die Positionen der sich bewegenden Menschen und Roboter erfasst. Anhand von Zeitreihendaten zur Position beweglicher Körper kann man deren Bewegungsverlauf ermitteln. Der hier verfolgte Ansatz schlägt vor, die Gitterkarte zu einer Umgebungskarte um die  akkumulierten Daten zum Bewegungsverlauf der Personen im Raum zu erweitern (Hiroi & Niitsuma, 2013; Nishio & Niitsuma, 2019; Uenoyama & Niitsuma, 2014) Das Besondere daran ist, dass der Roboter damit nicht nur die räumlichen Merkmale von unbeweglichen Objekten, sondern auch die Aktivitäten von Personen erfassen kann.

3.2 Assistenzbezogene Berücksichtigung von Bewegungsverläufen und -geschwindigkeiten

Abb. 4 zeigt Beispiele für Umgebungskarten unter Berücksichtigung von Bewegungsverläufen. Dabei blickt man jeweils von oben auf den Boden. Die weinroten Markierungen stehen für statische Körper (Wände etc.). Abbildung (a) zeigt für jede Zelle an, in welche Richtung die häufigsten Bewegungen stattfinden. Abbildung (a’) zeigt, welche Farbe für welche Richtung steht. Es wird deutlich, dass etwa im Zentrum der Fläche ein hellgrün markierter Bereich existiert, der für eine Bewegung von oben nach unten steht. Damit wird für diese Umgebung ein von Personen häufig benutzter „Durchgangsbereich“ identifiziert, ebenso erkennt man, dass die Bewegung zumeist von Nord nach Süd stattfindet. Links und rechts davon finden sich rot markierte Bereiche, womit Bereiche ohne Fortbewegungen markiert sind. Daraus lässt sich schließen, dass es auf beiden Seiten des Durchgangsbereichs Orte gibt, an denen Personen sich aufhalten können. Mittels dieser Karte kann ein Roboter dann die Bewegungen von Personen in dieser Umgebung erfassen oder die für einen bestimmte Aufgabe passenden Bereiche finden. Der Roboter kann damit entsprechende Aktionen durchführen: Wenn er sich zum Beispiel fortbewegt, nutzt er den Durchgangsbereich, wenn er einer Person Hinweise geben will, begibt er sich in den entsprechenden Aufenthaltsbereich.

Abb. 4
figure 4

Umgebungskarten mit Darstellungen von Bewegungsverläufen

In der Karte (b) ist die Bewegungsgeschwindigkeit in den Farben von blau bis rot eingezeichnet. Damit kann der Roboter erfassen, in welchen Bereichen Personen ihre Bewegungen verlangsamen bzw. anhalten oder sich aufhalten. Karte (c) zeigt die jeweilige Nutzungsfrequenz. Stellen, an denen der Mensch sich lange aufhält, sind mit kräftigen Farben markiert, Bereiche, die er z. B. schnell durchgeht, mit hellen Farben. Diese Daten können auch dazu genutzt werden, um die Häufigkeit der Nutzung einzelner Bereiche durch den Menschen zu erfassen. Bei den hier gezeigten Umgebungskarten sind die Informationen zur Visualisierung mit Farben dargestellt. Bei einer Umgebungskarte als Referenz für einen Roboter hingegen werden diese Informationen in Codes oder Zahlen überführt. Der Roboter kann somit anhand der Umgebungskarte und der Klassifizierung der Gehrouten die Situation der Menschen, die eine Wegbeschreibung benötigen, erfassen und von sich aus autonom auf sie zugehen und ihnen entsprechende Hinweise anbieten (Uenoyama & Niitsuma, 2014).

3.3 Assistenzbezogene Nutzung von Gehrouten und -frequenzen

Abb. 5 zeigt eine Umgebungskarte sowie anhand roter und blauer Linien die Gehrouten von Personen. Eine Situation, in der eine Person ihren Zielort nicht kennt, wurde vom Untersuchungsteam so interpretiert, dass eine Wegbeschreibung benötigt wird. Weiterhin wurde untersucht, wie eine solche Situation durch den Roboter erfasst werden kann. Die Erstellung der oben genannten Umgebungskarte macht dies möglich, denn iSpace kann die Gehwege des Menschen erkennen. Auch wenn zwei Menschen am gleichen Ausgangspunkt starten, unterscheiden sich ihre Gehrouten, je nachdem ob sie ihr Ziel kennen und darauf zusteuern, oder ob sie ihr Ziel nicht gleich erkennen und infolgedessen suchend umhergehen. Ausgehend davon wurden die Gehrouten der beobachteten Menschen sukzessive danach beurteilt, ob sie umherirrten oder nicht. Dabei wurde vom Untersuchungsteam unterstellt, dass der Gehweg geradlinig sei, wenn man auf sein Ziel zusteuert. Daher wurde die Geradlinigkeit der Gehwege bewertet. Zieht man zusätzlich noch die Umgebungskarte zur Nutzungsfrequenz des Raums hinzu, dann kann man daraus schließen, ob eine Person diesen Raum und damit die Nutzung desselben gut kennt oder nicht. Denn Orte, die häufig genutzt werden, sollten Personen bekannt sein.

Abb. 5
figure 5

Beispiel für Gehrouten und eine Umgebungskarte zur Darstellung der Nutzungsfrequenz des Raums

Stellt man sich zum Beispiel die Verkaufsabteilungen in einem großen Kaufhaus vor und geht man weiterhin davon aus, dass sich neben den Rolltreppen jeweils Lagepläne der Etagen befinden, dann liegt es nahe zu vermuten, dass die Nutzungsfrequenz für den Raum vor diesen Plänen steigt. Wenn dann so das gewünschte Ziel gefunden wurde, geht man auch direkt zu der anvisierten Abteilung. Sollte man jedoch sein Ziel trotz des Lageplans nicht finden, dann treten Menschen häufig ein Stück zurück, um die Verkaufsflächen besser überblicken zu können und von dort aus ihre Suche neu zu beginnen. Dabei gibt es jedoch keinen expliziten Grund, warum man gerade an einem bestimmten Punkt stehenbleibt. Folglich steigt die Nutzungsfrequenz dort auch nicht an. Das heißt, wenn sich Menschen in Bereichen mit geringer Nutzungsfrequenz aufhalten, dann bedeutet dies in vielen Fällen, dass sie den Weg zum anvisierten Ziel nicht sofort finden können und u. U. eine Wegbeschreibung benötigen. Auf diese Weise wurden durch die Kombination von Umgebungskarten und der Bewertung von Gehrouten Personen identifiziert, die eine Wegbeschreibung benötigen. Diesen Personen wurde dann durch den Roboter aktiv Unterstützung geboten.

Abb. 6 zeigt ein Experiment, bei dem ein Roboter Menschen während eines Schatzsuche-Spiels assistiert. Im Experiment sind pro Durchlauf zwei Proband:innen und ein Roboter aktiv. Testperson A hat die Aufgabe, etwas an ein Whiteboard zu schreiben. Testperson B bekommt die Anweisung, einen bestimmten Gegenstand auf den im Versuchsraum angeordneten Tischen zu suchen. Person A kennt ihren Zielort, während B nicht weiß, auf welchem Tisch sich der gesuchte Gegenstand befindet, das Ziel also suchen muss. Testperson A durchquert die in der Umgebungskarte in Abb. 5 dargestellten Bereiche mit niedriger Nutzungsfrequenz und begibt sich sofort zum Whiteboard und nimmt dort ihre Tätigkeit auf. Testperson B dagegen sucht unter den Objekten, die auf den verschiedenen Tischen liegen, nach dem benannten Gegenstand und beginnt damit an einem Ende der angeordneten Tische. An den Aufnahmen von \(t=\mathrm{7{,}5} \mathrm{s}\) bis \(t=\mathrm{9{,}5} \mathrm{s}\) erkennt man, dass Testperson B umherirrt: In kurzen Zeitabständen bewegt sie sich von links nach rechts und von rechts nach links. Kurz darauf, zum Zeitpunkt \(t=\mathrm{10{,}5} \mathrm{s}\), kann man erkennen, dass sich auch der Roboter in Bewegung setzt und ihr bei der Suche zu helfen beginnt. Da es unmöglich ist, schon vorab zu bestimmen, wo in diesem Raum die Suchbewegungen einer Person entstehen, muss der Roboter auf Basis der Messergebnisse des iSpace die Aktivitäten des Menschen sukzessive beurteilen, um daraufhin seine eigenen Aktionen auszurichten. Die grundlegenden Prozesse eines Assistenz-Roboters bestehen demnach darin, auf Basis der Beobachtungsergebnisse die Lage zu beurteilen und danach die geeigneten assistierenden Aktivitäten auszuführen.

Abb. 6
figure 6

Assistenz durch einen Roboter während eines Experiments (Schatzsuche-Spiel)

3.4 Die assistierende Nutzung des „Raumgedächtnisses“ eines Roboters

Während das obige Beispiel unterschiedliche Aufgaben zeigt, bei denen der Roboter im Einzelfall aufgabenbezogen assistiert, wurden vom Untersuchungsteam auch Mechanismen für die Unterstützung bei wiederkehrenden Alltagshandlungen untersucht, bei denen dann diverse, im Haus eingebaute Aktoren in Verknüpfung mit bestimmten Bewegungen der hier lebenden Person aktiv werden (Niitsuma et al., 2012). Für diese Fälle wurde zum Einschalten des Aktors ein virtueller Schalter im Raum eingebaut, wobei die jeweilige Position des menschlichen Körpers dann das Ein/Aus für den Schalter bewirkt und damit den Aktor aktiviert. Die Fähigkeit des Roboters, wiederkehrende Handlungen zu erkennen, wurde vom Forschungsteam als „Raumgedächtnis“ bezeichnet.

Der virtuelle Schalter gibt aber nicht nur den Befehl für das Ein- und Ausschalten von Aktoren, sondern kann darüber hinaus auch noch mit weiteren elektronischen Daten wie Bildern, Videos, Musik oder Webseiten verknüpft werden. In dem mit einem roten Kreis markierten Punkt in Abb. 7 (a) ist ein solches Raumgedächtnis enthalten. Die gemessene Position des menschlichen Körpers und das visualisierte Raumgedächtnis sind in Abb. 7 (b) dargestellt. Definiert man die Position der Fingerspitzen als Zugriffspunkt auf den Schalter, dann muss die betreffende Person nur – wie in Abb. 7 (a) gezeigt – die Hand in dem jeweiligen Bereich des Raumgedächtnisses bewegen. Dies wird dann von dem Roboter als Zugriff erkannt, und die Person kann so die damit verbundenen Daten abrufen. Handelt es sich um Audiodaten, dann werden geeignete Lautsprecher im Raum angewählt, bei Bilddaten wird ein geeigneter Bildschirm aktiviert. Die aufgerufenen Daten werden dann jeweils angezeigt. Das „Raumgedächtnis“ ist also eine Benutzerschnittstelle, mit der mit dem iSpace verbundene unterschiedliche Geräte jeweils einzeln und gesondert mit einer einheitlichen Methode bedient werden können.

Abb. 7
figure 7

Messung der Position des menschlichen Körpers und Raumgedächtnis

In das Raumgedächtnis eingefügte Befehle

Abb. 8 zeigt, wie in einer Wohnung über das Raumgedächtnis das Türschloss und die Beleuchtung gesteuert werden können. Der virtuelle Schalter für das Türschloss wurde dort angebracht, wo man im Eingangsbereich üblicherweise in die Hocke geht oder sich hinsetzt, um sich die Schuhe auszuziehen. Der virtuelle Schalter zum Ausschalten des Lichts im Eingangsbereich befindet sich dann auf dem weiteren Weg in die nächsten Räume. Der Standort der Person, ihre Laufrichtung und andere Bewegungen wurden somit im Raumgedächtnis als Zugriffsbedingungen eingesetzt. So lange sich die Person in einem erfassbaren Bereich aufhält, kann ein Raumgedächtnis sowie der Umfang des Zugriffs beliebig festgelegt werden. Über das Raumgedächtnis kann man also überall im definierten räumlichen Umfeld auf Daten zugreifen oder Geräte steuern. Gleichzeitig kann aber der Zugriffsverlauf auch als chronologischer Ablauf der Handlungen einer Person selbst angesehen werden, denn die Nutzung des Raumgedächtnisses ist ja nichts anderes als die Aktivität der das Gedächtnis generierenden Person. Integriert man die Informationen über den Ort, die Häufigkeit oder den Zyklus von Aktivitäten in das Alltagsumfeld und -handeln, dann kann ein solches System für die Überwachung des Wohlergehens von Personen oder zur Früherkennung eines Hilfefalls im häuslichen Alltag ebenso eingesetzt werden, ähnlich wie dies beim Monitoring von Arbeitsprozessen in der industriellen Produktion geschieht (Niitsuma et al., 2012; Sakotani et al., 2020).

Abb. 8
figure 8

Bedienen von technischer Raumausstattung durch das „Raumgedächtnis“

4 Verbesserung von Kommunikation zwischen Mensch und Roboter durch „Etho-Robotik“

Wenn ein Roboter aktiv eine Person assistieren und dieser diese Absicht „mitteilen“ soll, dann stellt sich das bekannte Problem der Kommunikation zwischen Mensch und Roboter. Das lässt sich anhand der in Abb. 5 und 6 vorgestellten Assistenz bei Wegbeschreibungen erläutern. Bei den Auskunftsrobotern, die man derzeit z. B. in vielen japanischen Einkaufszentren sehen kann, beginnt die Kommunikation üblicherweise damit, dass der Roboter von einer Person, dem bzw. der Nutzer:in, angesprochen wird. Das bedeutet, die Kommunikation beginnt mit einer Situation, in welcher die Aufmerksamkeit der Person auf den Roboter gerichtet ist. Soll nun aber die Person vom Roboter aktiv angesprochen werden, dann ist nicht zwangsläufig auch garantiert, dass sie diesen beachtet. Die Kommunikation muss also damit beginnen, dass der Roboter die Aufmerksamkeit der Person auf sich lenkt.

Menschen benötigen ihnen bisher zumeist unbekanntes Wissen, um mit Robotern zu kommunizieren. Wenn aber dieses Wissen vollkommen neuartig ist und man damit bisher noch keinerlei Erfahrungen gemacht hat, wie dies für viele ältere Menschen auch in Japan typisch ist (“digital divide“; siehe auch den Beitrag von Claudia Müller in diesem Buch), dann ist die Hürde, sich dieses Wissen anzueignen, sehr hoch. In vielen Fällen erscheint der Einsatz von Robotern daher besonders voraussetzungsvoll. Um diese Hürde zu senken, wird in der Regel vorgeschlagen, den Roboter wie einen Menschen agieren zu lassen. Auch das Forschungsteam wählte diesen Zugang. Er zählt inzwischen zum Mainstream. Der Roboter soll die Sprache der Menschen sprechen und Gesten wie ein Mensch machen. Allerdings ist auch bekannt, dass ein Roboter mit einem zu starken humanoiden „Verhalten“ in manchen Kulturen auf Abneigung stößt, oder dass das Interesse an ihm erlischt, wenn von ihm erwartet wird, dass er auf Situationen so flexibel wie ein Mensch reagieren soll, er dies aber nicht tut. Außerdem weiß man auch von Akzeptanzproblemen wie dem sog. Uncanny Valley, dass es nämlich als „gruselig“ empfunden wird, wenn ein Roboter wie ein Mensch aussieht, man aber weiß, dass er keiner ist.Footnote 1

Wenn ein Roboter mit Personen kommuniziert, um sie zu unterstützen, ist Folgendes wichtig: Der Roboter muss ausreichend robust sein, um die Assistenz erbringen und nachhaltig fortführen zu können. Gleichzeitig muss er sich so verhalten, dass er von den Personen akzeptiert wird. Er muss in die soziale Umgebung passen und darf dabei die Aktivitäten der Personen auf keinen Fall stören. Damit ein Roboter diese grundlegenden Bedingungen erfüllt, sollte er über zentrale „soziale Kompetenzen“ verfügen, um mit Menschen ohne technische Vorkenntnisse interagieren zu können. Es ist wichtig, dass diese sozialen Kompetenzen im interaktiven Verhalten des Roboters ausgedrückt werden und für den Menschen interpretierbar sind.

Das Forschungsteam entschied sich in diesem Zusammenhang für den Ansatz der „Etho-Robotik“, die ethologisch inspirierte Mensch-Roboter-Kommunikation. Der Ansatz beruht auf der Verbindung von Ethologie (Verhaltensforschung) und Robotik. Dabei wird der Fokus auf die Mensch-Hund-Beziehung gerichtet, das Verhalten des Hundes wiederum wird als Modell für die Mensch-Roboter-Beziehung genutzt. Diese Orientierung am Vorbild des Hundes als Handlungsmodell für den Roboter soll eine Kommunikation ermöglichen, die auf dem Modell der Kommunikation zwischen Mensch und Hund aufbaut.

Der Hund benutzt keine Sprache, sondern kommuniziert durch sein nicht verbales Verhalten mit einer Person. Es ist zum Beispiel bekannt, dass ein Hund unabhängig davon, ob er trainiert wurde oder nicht, eine Person führen kann (Miklósi et al., 2000). Überträgt man dieses Verhalten nun auf den Roboter, dann wird es möglich, dass Roboter Personen auch ohne Worte den Weg weisen können (Takahashi et al., 2015). Ein anderer wichtiger Aspekt in der Mensch-Hund-Beziehungen ist das Bindungsverhalten des Hundes. Der Hund unterscheidet zwischen seinem Halter und anderen Personen und verhält sich zu diesen je nach deren Beziehung zu seinem Halter. Eine Person kann die Beziehung zwischen sich selbst und einem Hund anhand des Verhaltens des Hundes gegenüber seinem Halter oder aber auch an der wachsamen Reaktion des Hundes gegenüber fremden Personen interpretieren. Wenn der Roboter die Aktivitäten des Menschen unterstützt und ganz selbstverständlich Teil des Alltags wird, dann kann nach Meinung des Forschungsteams davon ausgegangen werden, dass dieses Bindungsverhalten eines Hundes modellhaft für den Aufbau einer sozialen Bindung zwischen Menschen und Robotern sein kann. Gemeint ist damit, dass der Roboter wie ein Hund sein Verhalten ändert, je nachdem ob er mit dem Halter oder anderen Menschen interagiert.

Das Forschungsteam hat Experimente durchgeführt, bei denen das Bindungsverhalten mit der Funktion der Überwachung des Wohlergehens durch iSpace systematisch verknüpft wurde, d. h., Roboter sollten Personen beim Erkennen von Ungewöhnlichkeiten informieren. Es zeigte sich, dass die subjektive Bewertung anders ausfiel, je nachdem, ob bei den Handlungen des Roboters ein „Bindungsverhalten“ erkennbar war oder nicht. Zeigt der Roboter kein „Bindungsverhalten“, dann agiert er nur, wenn er eine außergewöhnliche Situation erkennt. Ist dagegen „Bindungsverhalten“ involviert, dann zeigt er seine Verbundenheit mit der Person auch wenn kein Meldeverhalten erforderlich ist. Die Experimente haben gezeigt, dass man ohne Bindungsverhalten dazu tendiert, den Roboter nicht längerfristig nutzen zu wollen. Wenn aber andererseits der Roboter durch sein „Verhalten“ eine „soziale Bindung“ zulässt, dann sind eine positivere Beurteilung was die Bedienbarkeit der Funktionen angeht und damit auch eine stärkere Nutzungsbereitschaft, z. B. in Bezug auf eine längerfristige Nutzung, sowie die Freude am Zusammensein oder über seine „soziale Präsenz“ im Falle des Alleinseins, bei langer Krankheit oder gar Pflegebedürftigkeit wahrscheinlich. Es war also eine positivere Einstellung auch hinsichtlich der Bedienbarkeit der Funktionen zu beobachten, obwohl es keine Unterschiede in Bezug auf die Kernfunktionen, nämlich die „unbeliebte“ Überwachung des Wohlergehens bzw. die Meldefunktion gab (Ichikawa et al., 2018).

Die Ergebnisse zeigen, dass eine „gute Kommunikation“ zwischen Mensch und Roboter nicht einfach dadurch hergestellt werden kann, dass ein Roboter lediglich seine Funktionen „gut“ ausübt. Vielmehr muss er ein „soziales Verhalten“ an den Tag legen, um „erfolgreich“ kommunizieren zu können. Erst damit kann die Wahrscheinlichkeit der Akzeptanz gesteigert, das Interesse am Roboter aufrechterhalten und eine „gute Beziehung“ aufgebaut und eine langfristige Nutzung zum Wohle der Anwender:innen gewährleistet werden.

5 Ausblick

Nicht nur die Entwicklung von Etho-Robotern, sondern auch von sozialen oder ko-operativen Robotern schreitet voran. Ihre Funktionalität verbessert sich stetig. In den meisten Fällen werden sie jedoch durch jüngere Testpersonen evaluiert, was dazu führt, dass auch das Interaktionsdesign auf der Grundlage von Erfahrungswerten mit jüngeren Probanden entwickelt wurde. Die motorischen Fertigkeiten und kognitiven Fähigkeiten junger Menschen unterscheiden sich jedoch in hohem Maße von denen von Senior:innen. Darüber hinaus sind bei älteren Menschen die interindividuellen und sozialen Unterschiede viel größer. Eine Folge ist, dass in Japan trotz der Entwicklung und Realisierung vielfältiger assistierender Techniken nicht genug Forschung zur Nutzung durch Senior:innen vorliegt. Die Entwicklung einer Robotergeneration, die auch von älteren Testpersonen erfolgreich genutzt werden kann, stellt eine dringliche Zukunftsaufgabe dar. Es ist wichtig, hier mehr Erfahrung zu sammeln und in die Konstruktion von Robotern einfließen zu lassen (siehe dazu auch den Beitrag von Claudia Müller).

In diesem Beitrag sind ausgewählte Techniken und Probleme im Zusammenhang mit dem autonomen Einsatz von Robotern im Lebensalltag und -umfeld der Menschen vorgestellt worden. Obwohl die meisten der hier behandelten Beispiele nicht in erster Linie für die Unterstützung von Senior:innen entwickelt wurden, haben sie dennoch auch das Potenzial, ältere Menschen in ihrem selbständigen Alltagsleben fürsorglich und nicht kontrollierend zu überwachen, ungewöhnliche und/oder für sie gefährdende Situationen rechtzeitig zu identifizieren, sie in ihrem Alltagsleben anzusprechen oder in Alltagsproblemen zu assistieren.

Es soll hier noch erwähnt werden, dass die Funktionen zur autonomen Mobilität von Robotern auch in der Rollstuhlversorgung sehr erfolgreich anwendbar sind. Allerdings fehlt es auch hier derzeit noch an der praktischen Validierung und Bewertung durch Senior:innen selbst. Das Forschungsteam und insbesondere die Verfasserin dieses Beitrags plädieren stark dafür, mehr Validierungen mit älteren Testpersonen vorzunehmen, um die so gewonnen Erfahrungen sinnvoll und nutzbringend für die Bedarfe alternder Gesellschaften wie Japan einsetzen und die Nutzung der Ergebnisse nachhaltig sichern zu können.