Zusammenfassung
Der Einsatz von Sprachassistenten (Alltagsbeispiele sind Alexa von Amazon, Siri von Apple oder der Chatbot von Hellofresh) hat auch im Gesundheitswesen Einzug gehalten. Ein aktuelles Beispiel ist der WhatsApp Chatbot der WHO, welcher Nutzer:innen über COVID-19 aufklärt. Sprachassistenten haben die Fähigkeit, Patienten und Patientinnen orts- und zeitunabhängig aufzuklären, wodurch Mitarbeiter:innen entlastet werden. Jedoch gibt es neben den technischen (u. a. Entwicklung und Optimierung der Algorithmen für die Spracherkennung) auch Herausforderungen in der Mensch-Chatbot-Interaktion. In dieser Studie wird untersucht, welche Rolle die menschenähnliche Gestaltung (u. a. menschlicher Name, Begrüßung, menschlicher Avatar) eines Reiseimpfberatungschatbots auf dessen Wahrnehmung durch Nutzer:innen hat. Spezifisch geht es darum zu verstehen, ob und wie sich Anthropomorphismus (die Wahrnehmung von Menschlichkeit und sozialer Präsenz in Objekten, Tieren und Maschinen) auf die wahrgenommene Vertrauenswürdigkeit und letztendliche Zufriedenheit mit dem Service auswirkt. In einem Online-Experiment mit 78 Teilnehmer:innen, wurden zwei Chatbot-Gestaltungen (mit menschenähnlichen Gestaltungselementen vs. ohne diese Elemente) verglichen. Die Ergebnisse zeigen, dass die wahrgenommene soziale Präsenz signifikant die wahrgenommene Vertrauenswürdigkeit und die Zufriedenheit mit dem Service des Chatbots erhöhen. Somit ist die Implikation, dass bei der Reiseimpfberatung und ähnlichen Beratungsprozessen eine menschliche Gestaltung der Sprachassistenten zu empfehlen ist.
Abstract
The rise of digital speech-based assistants (e.g., Amazon’s Alexa, Apple’s Siri, or Hellofresh’s chatbot) gained increased popularity and has also found its way into healthcare. A current example is WHO’s WhatsApp chatbot that informs users about COVID-19. Such assistants can educate patients, independent of location and time, which is an incredible benefit for patients. However, in addition to existing technical challenges (including the development and optimization of speech recognition algorithms), there are also challenges in human-chatbot-interactions. This study investigates the role of a human-like design (including human name, greeting, and human avatar) of a travel vaccination advice chatbot on the perception of its users. Specifically, we aim to understand whether and how anthropomorphism (the perception of humanness and social presence in objects, animals, and machines) affects perceived trustworthiness and ultimately service satisfaction. In an online experiment with 78 participants, two chatbot designs (with human-like design elements vs. without these elements) were compared. The results show that perceived social presence significantly increases perceived trustworthiness and service satisfaction. Thus, we recommend that practitioners implement a human-like design travel vaccination counseling and similar counseling processes via chatbots.
Avoid common mistakes on your manuscript.
1 Einleitung
Reisen nehmen eine immer größere Stellung in unserer globalisierten Welt ein. Eine Auslandsreise stellt allerdings auch ein gesundheitliches Risiko dar. Viele dieser Risiken können durch einfache Handlungen wie medizinische Aufklärung und Impfungen minimiert werden. Dies widerspiegelt sich in der Tatsache, dass viele erkrankte Reisende keine reisemedizinische Beratung gesucht hatten (Warne et al. 2014). Dementsprechend besteht ein starker Aufklärungsbedarf bzgl. Reiseerkrankungen, um entsprechende krankheitsbedingte betriebs- und volkswirtschaftliche Ausfälle zu verringern. Vor allem sind niedrigschwellige Angebote wichtig, welche Reisende mit geringem Aufwand wahrnehmen können. Ein vielversprechender Ansatz ist der Einsatz von Sprachassistenten.
Dabei werden Sprachassistenten als technische Dialogsysteme verstanden, welche auf Anfragen der Nutzenden reagieren und Fragen oder Befehle ausführen, wie z. B. „Wie wird das Wetter morgen?“ oder „Bitte spiele meine Lieblingssongs“. Alltagsbeispiele sind Siri von Apple, Alexa von Amazon, Cortana von Microsoft und Google Home bzw. Assistent. Vor allem im medizinischen Kontext können Sprachassistenten den Einsatzbereich erweitern und nicht nur bei der Betreuung von älteren Menschen unterstützen, sondern auch im Zuge von Erinnerungsaufgaben Patienten und Patientinnen an ihre Medikamentation aufmerksam machen und so lebensrettende Aufgaben übernehmen.
Diese Art der Assistenten, worunter auch Chatbots fallen, werden immer stärker in der medizinischen Aufklärung genutzt, um eine breite Masse zu erreichen, wie z. B. zur COVID-19-Aufklärung (World-Health-Organization 2021). Dies hat sowohl für die Nutzenden als auch für den Anbieter viele Vorteile. So ist die Information rund um die Uhr abrufbar und bindet keine Fachkräfte. Zusätzlich ist die Hemmschwelle der Nutzer:innen geringer, da diese nur eine Website aufrufen oder im Messenger ihrer Wahl kommunizieren müssen, anstatt sich telefonisch einen Arzttermin zu buchen und diesen wahrzunehmen.
In der medizinischen Aufklärung spielt neben den oben genannten Punkten auch das Vertrauen in die Quelle eine große Rolle (Fiscella et al. 2004). Dies ist im direkten Kontakt zum Arzt oder Ärztin gegeben, da Ärzte und Ärztinnen für gewöhnlich als sehr gut ausgebildet und vertrauensvoll wahrgenommen werden. Dementsprechend ist es wichtig, dieses Vertrauen auch in der Interaktion mit dem Chatbot aufzubauen. In der Human-Computer-Interface (HCI) Forschung sind als Treiber für das Vertrauen die Fähigkeiten des Chatbots und die menschenähnliche Gestaltung identifiziert worden (Toader et al. 2020). Dieser Zusammenhang wurde im Gesundheitskontext und reisemedizinische Aufklärung nach unserem Wissen bisher noch nicht untersucht. Entsprechend wird in diesem Artikel folgende Forschungsfrage adressiert:
FF
Welche Auswirkung hat die wahrgenommene Menschlichkeit auf das Vertrauen und die Zufriedenheit von Nutzern und Nutzerinnen von Chatbots für die Reiseimpfungsberatung?
Dafür führten wir ein Online-Experiment mit 78 Teilnehmern und Teilnehmerinnen durch und erfassten den Einfluss von menschenähnlichen Gestaltungselementen auf wahrgenommene Menschlichkeit, Vertrauen und Service Zufriedenheit. Zusammenfassend konnte anhand der Daten festgestellt werden, dass menschenähnliche Gestaltungselemente die soziale Präsenz in diesem Kontext erhöht. Diese Wahrnehmung treibt über die Faktoren Fähigkeit und Integrität das Vertrauen der Nutzer:innen, welches wiederum die Service Zufriedenheit erhöht. Abschließend werden die Implikationen dieser Ergebnisse für den praktischen Einsatz von Chatbots im Gesundheitssektor betrachtet.
2 Forschungskontext
2.1 Digitale Sprachassistenten im Gesundheitswesen
Im Gesundheitswesen gilt ELIZA als einer der ersten Chatbots und wurde im Jahr 1966 entwickelt, um einen Therapeuten nachzuahmen (Weizenbaum 1966). Seitdem wurden Chatbots kontinuierlich weiterentwickelt und haben den Einsatzbereich innerhalb des Gesundheitswesens erweitert, u. a. zum Thema telemedizinische Krankheitsberatung, Medikamenteneinhaltung und psychiatrische Beratung. Dabei können Chatbots den Patienten und Patientinnen eine besondere User Experience sowie Kunden- und Patientenerfahrung bieten, die nicht nur das Befüllen statischer Informationsformulare übernehmen. Chatbots können als persönliche Assistenten eingesetzt werden, die unabhängig von Zeit und Ort z. B. an die richtige Medikamentation erinnern, medizinische Informationen bereithalten und erste Abschätzungen bzgl. Krankheiten abgeben können, wie im Falle eines Covid-19-Chatbots, der anhand diverser Fragen beurteilt, ob eine ärztliche Konsultation notwendig sei (Brendel et al. 2022).
Darüber hinaus haben sich Chatbots während der COVID-19-Pandemie als innovatives Instrument herausgestellt, um Wissen über präventive Handlungsmaßnahmen zum Infektionsgeschehen zu vermitteln als auch zur Bekämpfung von Fake News (Judson et al. 2020). So wurde beispielsweise der Chatbot Clara vom Center for Disease Control and Prevention als öffentliches Selbstkontrollinstrument eingeführt, das verschiedene Fragen zum individuellen Impfstatus und zu Gesundheitssymptomen stellt und anschließend Empfehlungen abgibt (z. B. bleiben Sie zu Hause und machen Sie einen Selbsttest) (CDC 2020). Allerdings hat sich auch im Gesundheitsbereiche gezeigt, dass die Gestaltung des Chatbots, insbesondere eine menschenähnliche Gestaltung ausschlaggebend für die Wirkung auf die Nutzer:innen hat (Brendel et al. 2022).
2.2 Wirkung menschenähnlicher Gestaltungselemente in Chatbots
Die Neigung, Objekte menschenähnlichen Eigenschaften zuzuschreiben, ist eine tief verwurzelte Voreingenommenheit und führt dazu, dass Objekte wie Zeichentrickfiguren (z. B. Bugs Bunny) mit menschlichen Eigenschaften assoziiert werden (Epley et al. 2007). Dieser Effekt ist auch bei Benutzer:innen von Computern beobachtbar, welche mit einer menschenähnlichen Hard- und/oder Software sozial und kommunikativ interagieren. Diese schreiben dem Computer unbewusst ein gewisses Maß an Menschlichkeit und sozialer Präsenz zu, obwohl sie wissen, dass es sich nicht um ein menschliches Wesen handelt. Dieser Effekt ist unter dem CASA-Paradigma (Computers Are Social Actors) bekannt (Nass et al. 1994) und wird durch die Theorie der sozialen Reaktion erklärt, wonach Menschen automatisch auf soziale Signale reagieren, auch wenn dies nur vom Computer simuliert werden (Nass und Moon 2000). Diese Signale sorgen dafür, dass die Situation nicht wie eine Interaktion mit einer Maschine, sondern mit einem anderen Menschen behandelt wird.
Dabei hängen die Intensität und der Umfang dieser Reaktionen vom wahrgenommenen Grad der Menschlichkeit und der sozialen Präsenz des Chatbots ab. Studien zeigen, dass Nutzer:innen verschiedene affektive, kognitive und verhaltensbezogene Reaktionen auf das menschenähnliche Design eines Chatbots zeigen, z. B. erhöhte Begeisterung, Überzeugungskraft und attribuierte Vertrauenswürdigkeit (Diederich et al. 2020).
3 Modell und Hypothesenherleitung
Unsere Studie untersucht, wie Chatbots im Zusammenhang mit reisemedizinischer Beratung gestaltet werden sollten, um größtmögliche Auswirkungen auf die Service Zufriedenheit und Kundenbindung zu erreichen. Auf Basis des Anthropomorphismus-Bias untersuchen wir, wie die wahrgenommene Menschlichkeit das Vertrauen und die Service Zufriedenheit des Chatbots beeinflusst. Unser Forschungsmodell ist in Abb. 1. zusammengefasst und im folgendem werden die angegebenen Zusammenhänge aus der Literatur hergeleitet.
Die Bedeutung einer individuellen und besonderen Customer Experience spielt in vielen Branchen eine bedeutende Rolle, wenn es gilt, den Kunden und die Kundeninnen vom eigenen Produkt oder Service zu überzeugen. Der direkte Kontakt ist dabei elementar, um die Service Zufriedenheit und Kundenbindung zu beeinflussen. In Mensch-Computer-Interaktionen bezieht sich die soziale Präsenz auf verschiedene Anhaltspunkte, wie z. B. der Sprache, die Fähigkeit Gefühle auszudrücken und das Empfinden von Emotionen (Toader et al. 2020). Menschenähnliche Gestaltungselemente (wie Name und Avatar) können bei den Nutzenden eine solche soziale Reaktion auslösen, wie z. B. das Gefühl der Anwesenheit eines Mitarbeiters, welches sich wiederum positiv auf das Kundenerlebnis auswirken kann. Entsprechend kann auch im Kontext einer Reiseimpfungsberatung durch einen Chatbot davon ausgegangen werden, dass menschenähnliche Gestaltungselemente in Nutzer:innen eine Wahrnehmung von sozialer Präsenz herbeiführen werden. Aus diesem Grund leiten wir folgende Hypothese ab:
H1
Ein menschenähnliches Erscheinungsbild eines Chatbots führt zu einer höheren wahrgenommenen sozialen Präsenz.
Des Weiteren beziehen wir uns in unserer Studie auf das Konzept des Vertrauens. Vertrauen spielt in fast jeder Beziehung eine entscheidende Rolle und ist grundlegend, wenn es z. B. um die Glaubwürdigkeit geht. Insbesondere im medizinischen Kontext gilt, dass Vertrauen die Basis einer effektiven Arzt-Patienten-Beziehung ist. Studien haben gezeigt, dass Vertrauen als messbare Größe mit dem Gesundheitszustand einhergehen und das Misstrauen sich dabei auch negativ auf die Arzt-Patienten-Beziehung auswirken kann (d’Hombres et al. 2010). In unserer Studie beziehen wir uns auf die drei Faktoren, die Vertrauen beeinflussen können: Fähigkeit, Integrität und Wohlwollen (Mayer et al. 1995). Im Kontext von Chatbots kann fähigkeitsbasiertes Vertrauen als die durch die Nutzer:innen wahrgenommenen Fähigkeiten oder Kompetenzen des Chatbots verstanden werden. Unter dem integritätsbasierten Vertrauen wird eine Übereinkunft in den Werten und Prinzipien zwischen Chatbot und Nutzer:in verstanden. Abschließend beschreibt das wohlwollensbasierte Vertrauen, dass der Chatbot keine Ziele verfolgt, die im Widerspruch zu den Zielen und Bedürfnissen des Nutzenden stehen.
Im Zusammenspiel mit sozialer Präsenz und zwischenmenschlichem Vertrauen wurde bereits aufgezeigt, dass diese beiden Faktoren miteinander korrelieren. So konnten Brendel et al. (2022) in ihrer Studie zeigen, dass soziale Präsenz sich im Gesundheitskontext positiv auf das Vertrauen der Nutzer:innen auswirkt. Aus diesen Gründen gehen wir davon aus, dass eine hohe wahrgenommene soziale Präsenz die Vertrauensfaktoren positiv beeinflussen. Daraus leiten wir folgende Hypothese ab:
H2a
Eine höhere wahrgenommene soziale Präsenz wirkt sich positiv auf die wahrgenommene Fähigkeit aus.
H2b
Eine höhere wahrgenommene soziale Präsenz wirkt sich positiv auf das wahrgenommene Wohlwollen aus.
H2c
Eine höhere wahrgenommene soziale Präsenz wirkt sich positiv auf die wahrgenommene Integrität aus.
Darüber hinaus gilt es zu untersuchen, welcher der drei Vertrauenskonstrukte am stärksten das letztendliche Vertrauen der Nutzer:innen in den Chatbot zur Reiseimpfungsberatung beeinflusst. Dazu wurden folgende Hypothesen aufgestellt:
H3a
Die wahrgenommene Fähigkeit wirkt sich positiv auf das Vertrauen in den Chatbot aus.
H3b
Wahrgenommenes Wohlwollen wirkt sich positiv auf das Vertrauen in den Chatbot aus.
H3c
Wahrgenommene Integrität wirkt sich positiv auf das Vertrauen in den Chatbot aus.
Letztendlich muss es das Ziel eines jeden Chatbots sein, die Nutzer:innen zufriedenzustellen. Auch im Kontext der Reiseimpfungsberatung gilt es, dass die Nutzer:innen am Ende mit einem guten Gefühl aus der Beratung herauskommen. Um diese Zufriedenheit mit der Dienstleistung sicher zu stellen, gilt es zu verstehen, wie sich die wahrgenommene soziale Präsenz und das Vertrauen in den Chatbot darauf auswirken. Grundsätzlich sollten beide Faktoren einen positiven Einfluss haben, da auch in der Beratung zwischen Arzt oder Ärztin und Patient:in beide Faktoren wichtig sind (Cukor et al. 1998; Hall et al. 2001). Wenn ein Arzt oder Ärztin als unfreundlich und kühl wahrgenommen wird, fühlen sich viele Patienten und Patientinnen nicht wohl – Ihnen fehlt die soziale Präsenz. Ebenso muss einem Arzt oder Ärztin auch vertraut werden, damit dessen Beratung als zufriedenstellend wahrgenommen wird. Daher wurden die folgenden zwei Hypothesen formuliert:
H4
Die wahrgenommene soziale Präsenz wirkt sich positiv auf die Servicezufriedenheit aus.
H5
Das wahrgenommene Vertrauen in den Chatbot wirkt sich positiv auf die Servicezufriedenheit aus.
4 Experiment
4.1 Experimentaufbau
Zur Beantwortung der Forschungsfragen wurde ein Online-Experiment mit zwei verschieden gestalteten Chatbots durchgeführt. Die detaillierten Differenzierungen der beiden Implementierungen der Chatbots sind aus der nachfolgenden Tab. 1 zu entnehmen. Grundsätzlich wurde einer der Chatbots mit möglichst vielen menschlichen Elementen ausgestattet, während der andere keine solcher Elemente aufweist. Dabei wurden sowohl verbale (Parasuraman und Miller 2004; Bickmore und Picard 2005; Derrick und Ligon 2014; Feine et al. 2019) als auch non-verbale Gestaltungselemente verwendet (Hoff und Bashir 2015).
4.2 Teilnehmende
Die Durchführung der Datenerhebung hat in der Zeit vom 21. Februar bis zum 14. März 2022 stattgefunden. Die Studie war im Internet frei zugänglich und wurde über soziale Netzwerke promotet. Innerhalb dieser 22 Tage nahmen insgesamt 78 Personen erfolgreich an der Studie teil. Von den Teilnehmenden waren 64,1 % (50 Teilnehmerinnen) Frauen und 35,9 % (28 Teilnehmer) waren Männer. Die Altersspanne reichte von 18–74 Jahren (M = 35,55 Jahre, SD = 15,56). Das Experiment wurde in deutscher Sprache mit deutschsprachigen Teilnehmenden durchgeführt. Die Teilnehmer:innen wurden über soziale Medien (Facebook.com, Nebenan.de, SurveyCycle.com) und persönliche Netzwerke rekrutiert. Als Anreiz wurde allen Teilnehmer:innen die Teilnahme an einer Verlosung von fünf 10-Euro-Gutscheinen angeboten.
4.3 Fragebogen
Um die Auswirkungen der Vertrauenswürdigkeit und der Service Zufriedenheit im Zusammenhang mit anthropomorphen Gestaltungselementen zu erforschen, nutzten wir etablierte Fragen aus früheren Studien zur Messung (Mayer et al. 1995; Gefen und Straub 1997; Merritt 2011; Verhagen et al. 2014). Diese sind in nachfolgender Tab. 2 zusammengefasst. Die Messung der Konstrukte basierte auf einer Likertskala, von 1 (stimme voll zu) bis 7 (stimme überhaupt nicht zu). Während der Befragung wurden Kontrollfragen integriert, um die Aufmerksamkeit der Teilnehmer:innen zu überprüfen.
5 Ergebnisse
Die Ergebnisse zeigen, dass die wahrgenommene soziale Präsenz signifikant die wahrgenommene Vertrauenswürdigkeit und die Zufriedenheit mit dem Service des Chatbots erhöhen. Dabei ist die Verwendung eines Chatbots mit menschenähnlichen Gestaltungselementen von ausschlaggebender Bedeutung. Auch wirkt sich die soziale Präsenz signifikant auf die drei Haupttreiber der Vertrauensbildung aus. Es wird ersichtlich, dass die Integrität sich am stärksten auf das Vertrauen auswirkt, gefolgt von der Fähigkeit bzw. Kompetenz des Systems. Wohlwollen hat keinen signifikanten Einfluss auf das Vertrauen. Die nachfolgende Abb. 3 veranschaulicht die Forschungsergebnisse und zeigt die jeweiligen Signifikanzen und β‑Werte auf.
Des Weiteren wurden unsere abgeleiteten Hypothesen weitestgehend bestätigt. Diese wurden mit der Software SmartPLS (Version 3.3.7) getestet. Das endgültige Modell basierte auf einem Bootstrapping-Resampling-Ansatz mit 5000 Stichproben. Die ermittelten Faktorladungen zeigen eine zuverlässige und gültige Messung. Auch die R2-Werte zeigen eine zuverlässige Wirkung. Während für Fähigkeit, Wohlwollen, Integrität, Vertrauen und Service Zufriedenheit die Wirkung hoch ist (alle > 0,25), weißt die soziale Präsenz eine geringe Korrelation auf (< 0,13) (Cohen 2013).
Insgesamt konnten acht der neun Hypothesen bestätigt werden (siehe Tab. 3). Die Studie bestätigt, dass soziale Präsenz Vertrauen und Service Zufriedenheit stark positiv beeinflusst. Für die Hypothese, dass sich Wohlwollen positiv auf das Vertrauen auswirkt, wurde keine Signifikanz festgestellt.
6 Diskussion
Unsere Ergebnisse zeigen dass soziale Präsenz einen signifikanten positiven Einfluss auf alle der drei vertrauenserzeugende Konstrukte hat und sich ebenfalls positiv auf die Service Zufriedenheit auswirkt. Von den drei betrachteten vertrauenserzeugenden Faktoren wirken Fähigkeit und Integrität auf das Vertrauen der Nutzer:innen in den Chatbot. Vertrauen hat seinerseits einen hohen Einfluss auf die Service Zufriedenheit des Nutzers oder der Nutzerin, ebenso die soziale Präsenz.
Von einem praktischen Standpunkt aus zeigt unsere Studie, dass Nutzer:innen einem menschlich gestalteten Chatbot vertrauen und mit dem Service zufrieden sind. Obwohl es sich hierbei um ein Bereich handelt, welcher für die Nutzer:innen ein gewisses Risiko darstellt, da eine Fehlberatung gesundheitliche Konsequenzen mit sich bringt. Trotzdem reagierten die Nutzer:innen durchweg positiv auf den Chatbot. Dies zeigt dass Chatbots problemlos im Bereich der Digitalen Gesundheitsdienste von Nutzern und Nutzerinnen akzeptiert werden.
In dieser Studie hat sich Vertrauen als wichtiger Einfluss auf die Service Zufriedenheit ergeben. Dieser Effekt lässt sich durch den Gesundheitskontext erklären, welcher eine starke Vertrauensbasis zwischen den Patienten und Patientinnen und den Dienstleistungsanbieter benötigt. Es ist davon auszugehen, dass dieser Effekt auch auf andere IT-Dienstleistungen im Gesundheitssektor übertragbar ist. Bei der Gestaltung und Evaluation solcher IT-Dienstleistungen sollte vermehrt Augenmerk auf das Vertrauen der Nutzenden gerichtet werden. Beispiele für solche vertrauensfördernden Herangehensweisen sind: die Funktionsweise der IT-Dienstleistung für den Nutzer transparent gemacht werden (z. B. via explainable AI, Khurana et al. 2021), oder dass die Patienten oder Patientinnen einen einfachen Zugriff auf ihre Gesundheitsdaten erlangen können (patient empowerment).
Die Ergebnisse der Studie unterstreichen die Bedeutung für die Verwendung von menschenähnlichen Gestaltungselementen in Chatbots. Mittels dieser Gestaltungselemente kann sowohl die Service Zufriedenheit als auch das Vertrauen des Nutzers oder der Nutzerin erhöht werden. Dies ist vor allem relevant für Kontexte, in welchen Nutzervertrauen eine große Rolle spielt, wie z. B. Gesundheitswesen, Bankwesen oder der Versicherungsbranche. Entscheidend hierbei ist, dass das Vertrauen und die Nutzerzufriedenheit auch im Onlinekontext durch einfache Gestaltungselemente erreicht werden kann. In dieser Studie wurden entsprechende Gestaltungselemente identifiziert und auf ihre Wirkung auf die Nutzer:innen untersucht.
Die korrekte Wahl der Gestaltungselemente wirken sich maßgeblich auf das Vertrauen und die Service Zufriedenheit der Nutzer:innen in den Chatbots aus. Eine fundierte Wahl der Gestaltungselemente stellt eine erhöhte Service Zufriedenheit und Vertrauen der Nutzer:innen sicher. Unternehmen in den obenan genannten Bereichen sind dementsprechend angehalten, entsprechende Gestaltungselemente erst nach einer ausführlichen Evaluation zu verwenden.
Ein interessantes Ergebnis unserer Studie ist, dass sich Wohlwollen nicht auf das Vertrauen auswirkt. Eine mögliche Erklärung ist, dass die Nutzer:innen den Chatbot nicht als Entität mit eigenen Zielen wahrnehmen. Vereinfacht ausgedrückt, die Nutzer:innen glauben nicht, dass der Chatbot andere Ziele als seine offensichtlich dargestellten verfolgen kann. Dies beachtet allerdings nicht, dass hinter dem Chatbot ein:e Programmierer:in oder Unternehmen steht, welches durchaus seine eigenen Ziele verfolgt, die nicht mit den Zielen des Nutzers oder der Nutzerin kompatibel sein müssen. Hier ist ein Versagen der Theory of Mind sichtbar, also der Erkenntnis, das andere Entitäten ihre eigenen Ziele verfolgen und damit eine Gelegenheit für unethische Manipulation des Nutzers oder der Nutzerin. Diese These eröffnet interessante Forschungsfragen für zukünftige Untersuchungen.
Unsere Forschung trägt zur Verbesserung der Mensch-Computer-Interaktion im Kontext der Chatbot-Gestaltung bei. Unsere Studie unterstützt bestehende Forschungsarbeiten zum positiven Einfluss von menschenähnlichen Gestaltungselementen, wahrgenommener sozialer Präsenz, wahrgenommener Menschlichkeit und Servicequalität. Diese Forschung haben wir um den Kontext digitale Gesundheit und reisemedizinische Aufklärung erweitert.
7 Limitation
Unsere Studie wurde mit allem nötigen Bedacht und nach wissenschaftlichen Standards durchgeführt. Trotzdem ergeben sich eine Reihe von Punkten, welche in der Bewertung beachtet werden sollten.
Die Studie wurde nur mit deutschen Teilnehmenden durchgeführt. Aufgrund der kulturellen Unterschiede in der Wahrnehmung von sozialer Präsenz (Hassanein et al. 2009) sind unsere Ergebnisse nicht auf andere Kulturkreise übertragbar. Ebenfalls fand keine Beratung im Sinne eines Dialoges mit den Nutzern und Nutzerinnen in Bezug auf die eigene persönliche Situation und besonderen Ansprüche statt. Es wurden die generellen reisemedizinischen Informationen in Bezug zu einer hypothetischen Reise nach Peru vermittelt.
Eine weitere Limitierung unserer Studie ist die Verwendung von Fragebögen, um unterbewusste und automatische Eindrücke wie soziale Präsenz und Vertrauen zu erfassen. Fragebögen beruhen auf einer bewussten Reflexion der Situation und leiden unter einer Reihe von Verzerrungen wie soziale Erwünschtheit (die Teilnehmenden geben die Antwort, die sie für sozial angemessen halten), Tendenz zur Mitte (Teilnehmende wählen eher einen der mittleren Punkte aus) oder Akquieszenz (Teilnehmende tendieren dazu, zuzustimmen). Eine Möglichkeit diese Verzerrungen zu vermeiden ist, die Fragebögen durch physiologische Messungen zu ergänzen. Für beide Konstrukte wurden spezifisch messbare Gehirnaktivitäten beschrieben, welche eine unterstützende Erfassung erlauben würden (Dimoka 2010; Soiné et al. 2021).
Unsere Studie ist in hohem Maße von der Auswahl der verwendeten menschenähnlichen Gestaltungselemente und Kommunikationsstrukturen abhängig. Eine Auswahl anderer Gestaltungselemente könnte zu einem anderen Empfinden bei den Nutzern und Nutzerinnen führen, vor allem aufgrund der Kontextabhängigkeit der untersuchten Effekte. Es bedarf weitere Forschung, um weitere Gestaltungselemente und Strukturen zu untersuchen.
8 Fazit
Unsere Forschungsergebnisse erweitern das Wissen im Bereich der Mensch-Computer-Interaktion in Bezug auf die vertrauensvolle Interaktion von Menschen und Chatbots im Gesundheitskontext. Konkret wurde untersucht, wie sich die menschähnliche Gestaltung von Chatbots auf die Wahrnehmung der Nutzer:innen im Kontext der reisemedizinischen Aufklärung auswirkt. Unsere Ergebnisse zeigen, dass sich soziale Präsenz auf die wahrgenommene Vertrauenswürdigkeit und die Service Zufriedenheit auswirkt. Chatbots mit menschenähnlichen Gestaltungselementen erhöhen das Vertrauen der Nutzer:innen signifikant. Entsprechend ist die menschenähnliche Gestaltung von Chatbots ein positiver Faktor für die effektive Aufklärung im reisemedizinischen Kontext. Unsere Forschungsergebnisse zeigen, dass die kontextangemessene Auswahl von menschenähnlichen Gestaltungselementen maßgeblich das Vertrauen und die Service Zufriedenheit der Nutzer:innen beeinflusst.
Literatur
Bickmore TW, Picard RW (2005) Establishing and maintaining long-term human-computer relationships. ACM Trans Comput Hum Interact 12:293–327
Brendel AB, Greve M, Riquel J, Science D (2022) “Is It COVID or a cold ?” An investigation of the role of social presence, trust, and persuasiveness for users’ intention to comply with COVID-19 chatbots. In: 30th European Conference on Information Systems. Timișoara, Romania, S 0–19
CDC (2020) COVID-19 testing: What you need to know | CDC. https://www.cdc.gov/coronavirus/2019-ncov/symptoms-testing/testing.html. Zugegriffen: 26. Apr. 2022
Cohen J (2013) Statistical power analysis for the behavioral sciences. Routledge, London
Cukor P, Baer L, Willis BS et al (1998) Use of videophones and low-cost standard telephone lines to provide a social presence in telepsychiatry. Telemed J 4:313–321. https://doi.org/10.1089/tmj.1.1998.4.313
Derrick DC, Ligon GS (2014) The affective outcomes of using influence tactics in embodied conversational agents. Comput Human Behav 33:39–48. https://doi.org/10.1016/j.chb.2013.12.027
d’Hombres B, Rocco L, Suhrcke M, McKee M (2010) Does social capital determine health? Evidence from eight transition countries. Health Econ 19:56–74
Diederich S, Lichtenberg S, Brendel AB, Trang S (2020) Promoting sustainable mobility beliefs with persuasive and anthropomorphic design: Insights from an experiment with a conversational agent. In: 40th International Conference on Information Systems, ICIS 2019
Dimoka A (2010) What does the brain tell us about trust and distrust? evidence from a functional neuroimaging study. MIS Q 34:373–396. https://doi.org/10.2307/20721433
Epley N, Waytz A, Cacioppo JT (2007) On seeing human: a three-factor theory of anthropomorphism. Psychol Rev. https://doi.org/10.1037/0033-295X.114.4.864
Feine J, Gnewuch U, Morana S, Maedche A (2019) A taxonomy of social cues for conversational agents. Int J Hum Comput Stud 132:138–161. https://doi.org/10.1016/J.IJHCS.2019.07.009
Fiscella K, Meldrum S, Franks P et al (2004) Patient trust: is it related to patient-centered behavior of primary care physicians? Med Care 42:1049–1055
Gefen D, Straub DW (1997) Gender differences in the perception and use of e‑mail: An extension to the technology acceptance model. MIS Q 21:389–400. https://doi.org/10.2307/249720
Hall MA, Dugan E, Zheng B, Mishra AK (2001) Trust in physicians and medical institutions: what is it, can it be measured, and does it matter? Milbank Q 79:613–639
Hassanein K, Head M, Ju C (2009) A cross-cultural comparison of the impact of Social Presence on website trust, usefulness and enjoyment. Int J Electron Bus 7:625. https://doi.org/10.1504/ijeb.2009.029050
Hoff KA, Bashir M (2015) Trust in automation: Integrating empirical evidence on factors that influence trust. Hum Factors 57:407–434
Judson TJ, Odisho AY, Young JJ et al (2020) Implementation of a digital chatbot to screen health system employees during the COVID-19 pandemic. J Am Med Inform Assoc 27:1450–1455
Khurana A, Alamzadeh P, Chilana PK (2021) ChatrEx: designing explainable chatbot interfaces for enhancing usefulness, transparency, and trust. In: Proc IEEE Symp Vis Lang Human-Centric Comput VL/HCC 2010-October https://doi.org/10.1109/VL/HCC51201.2021.9576440
Mayer RC, Davis JH, Schoorman FD (1995) An integrative model of organizational trust. Acad Manag Rev 20:709–734. https://doi.org/10.5465/amr.1995.9508080335
Merritt SM (2011) Affective processes in human-automation interactions. Hum Factors 53:356–370. https://doi.org/10.1177/0018720811411912
Nass C, Moon Y (2000) Machines and mindlessness: Social responses to computers. J Soc Issues 56:81–103. https://doi.org/10.1111/0022-4537.00153
Nass C, Steuer J, Tauber ER (1994) Computers are social actors. In: Proc SIGCHI Conf Hum factors Comput Syst Celebr Interdepend—CHI ’94, S 72–78 https://doi.org/10.1145/191666.191703
Parasuraman R, Miller CA (2004) Trust and etiquette in high-criticality automated systems. Commun ACM 47:51–55
Soiné A, Flöck AN, Walla P (2021) Electroencephalography (EEG) reveals increased frontal activity in social presence. Brain Sci 11:731. https://doi.org/10.3390/BRAINSCI11060731
Toader DC, Boca G, Toader R et al (2020) The effect of social presence and chatbot errors on trust. Sustainability. https://doi.org/10.3390/SU12010256
Verhagen T, van Nes J, Feldberg F, van Dolen W (2014) Virtual customer service agents: Using social presence and personalization to shape online service encounters. J Comput Mediat Commun 19:529–545
Warne B, Weld LH, Cramer JP et al (2014) Travel-related infection in european travelers, EuroTravNet 2011. J Travel Med 21:248–254. https://doi.org/10.1111/jtm.12120
Weizenbaum J (1966) ELIZAa computer program for the study of natural language communication between man and machine. Commun ACM 9:36–45. https://doi.org/10.1145/365153.365168
World-Health-Organization (2021) WHO health alert brings COVID-19 facts to billions via WhatsApp
Funding
Open Access funding enabled and organized by Projekt DEAL.
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://creativecommons.org/licenses/by/4.0/deed.de.
About this article
Cite this article
Greulich, R.S., Pietrantoni, N., Hildebrandt, F. et al. Ready for Take-off? – Gestaltung und Wahrnehmung von Reiseimpfberatungschatbots. HMD 59, 1626–1639 (2022). https://doi.org/10.1365/s40702-022-00927-z
Accepted:
Published:
Issue Date:
DOI: https://doi.org/10.1365/s40702-022-00927-z