Zusammenfassung
Bei der Integration von KI-Systemen in medizinische Tätigkeiten ist es entscheidend, sich sowohl mit der Vertrauenswürdigkeit dieser Systeme als auch mit dem Vertrauen der Ärzte und Patienten in diese Systeme zu beschäftigen. Ein zu hohes Maß an Vertrauen kann dazu führen, dass Ärzte sich unkritisch auf diese Technologie verlassen, während zu wenig Vertrauen darin resultieren kann, dass Ärzte die Vorteile dieser Technologie für ihre Entscheidungen nicht nutzen. Um eine Balance zwischen diesen Extremen zu finden, muss die Vertrauenswürdigkeit eines Systems korrekt eingeschätzt werden. Nur so ist es möglich zu entscheiden, ob diesem System vertraut werden kann oder nicht. In diesem Beitrag stellen wir diese Zusammenhänge für den medizinischen Kontext dar. Wir zeigen auf, warum Vertrauenswürdigkeit und Vertrauen eine zentrale Rolle beim Einsatz KI-basierter Systeme spielen, und was nötig ist, damit Personen zu einer akkuraten Einschätzung der Vertrauenswürdigkeit KI-basierter Systeme kommen können.
Abstract
For the integration of artificial intelligence (AI) systems into medical processes it is decisive to address both the trustworthiness of these systems and the trust that physicians and patients have in those systems. Too much trust can result in physicians uncritically relying on this technology, while too little trust may result in physicians not taking advantage of the full potential of AI-based technology in making decisions. To strike a balance between these extremes it is crucial to correctly assess the trustworthiness of a system. Only in this way is it possible to decide whether or the system can be trusted or not. This article describes these relationships for the medical context. We show why trustworthiness and trust are important in the use of AI-based systems and how individuals can come to an accurate assessment of the trustworthiness of AI-based systems.
Notes
Das in diesem Beitrag beschriebene Modell basiert auf einer bisher unveröffentlichten wissenschaftlichen Arbeit [8]. Eine ausführliche Beschreibung des Modells mit inhaltlicher Nähe zum vorliegenden Beitrag und konkretisierten Implikationen für Normung von KI am Beispiel der Medizin soll innerhalb der Schriftenreihe „Schriften zum Recht der Digitalisierung“ (Möslein et al.) veröffentlicht werden.
Nutzer steht hier stellvertretend für alle potenziellen Parteien und Geschlechter, die die Vertrauenswürdigkeit des Systems einschätzen. Es kann sich dabei z. B. auch um die Klinikleitung oder verantwortliche Chefärztinnen handeln.
Literatur
Durán JM, Jongsma KR (2021) Who is afraid of black box algorithms? On the epistemological and ethical basis of trust in medical AI. J Med Ethics 47(5):329–335. https://doi.org/10.1136/medethics-2020-106820
Gille F, Jobin A, Ienca M (2020) What we talk about when we talk about trust: theory of trust for AI in healthcare. Intell Based Med 100001:1–2. https://doi.org/10.1016/j.ibmed.2020.100001
Liu P, Lu L, Zhang J, Huo T, Liu S, Ye Z (2021) Application of artificial intelligence in medicine: an overview. Curr Med Sci 41(6):1105–1115. https://doi.org/10.1007/s11596-021-2474-3
Gaube S, Suresh H, Raue M et al (2021) Do as AI say: susceptibility in deployment of clinical decision-aids. NPJ Digit Med 4(1):1–8. https://doi.org/10.1038/s41746-021-00385-9
Longoni C, Bonezzi A, Morewedge CK (2019) Resistance to medical artificial intelligence. J Consum Res 46(4):629–650. https://doi.org/10.1093/jcr/ucz013
Bach AKP, Nørgaard TM, Brok JC, van Berkel N (2023) “If I had all the time in the world”: Ophthalmologists’ perceptions of anchoring bias mitigation in clinical AI support. In: Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems. CHI ’23. Association for Computing Machinery, S 1–14 https://doi.org/10.1145/3544548.3581513
Dzindolet MT, Peterson SA, Pomranky RA, Pierce LG, Beck HP (2003) The role of trust in automation reliance. Int J Hum Comput Stud 58(6):697–718. https://doi.org/10.1016/S1071-5819(03)00038-7
Schlicker N, Baum K, Uhde A, Sterz S, Hirsch MC, Langer M (2022) A micro and macro perspective on trustworthiness: theoretical underpinnings of the Trustworthiness Assessment Model (TrAM) https://doi.org/10.31234/osf.io/qhwvx
Mayer RC, Davis JH, Schoorman FD (1995) An integrative model of organizational trust. Acad Manage Rev 20(3):709–734. https://doi.org/10.2307/258792
Thiebes S, Lins S, Sunyaev A (2021) Trustworthy artificial intelligence. Electron Mark 31(2):447–464. https://doi.org/10.1007/s12525-020-00441-4
European Union (2021) Proposal for a regulation of the European parliament and of the council laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts. https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_1&format=PDF. Zugegriffen: 8. Febr. 2022
High-Level Expert Group on Artificial Intelligence (2019) Ethics guidelines for trustworthy AI
Loh W, Hauschke A, Puntschuh M, Hallensleben S (2022) VCIO based description of systems for AI trustworthiness characterisation. VDE SPEC, Bd. 90012 V1.0
DIN, DKE (2020) German standardization roadmap on artificial intelligence
Lee JD, See KA (2004) Trust in automation: designing for appropriate reliance. Hum Factors 46(1):50–80. https://doi.org/10.1518/hfes.46.1.50_30392
Awad E, Dsouza S, Kim R et al (2018) The moral machine experiment. Nature 563(7729):59–64. https://doi.org/10.1038/s41586-018-0637-6
Burrell J (2016) How the machine ‘thinks’: understanding opacity in machine learning algorithms. Big Data Soc 3(1):2053951715622512. https://doi.org/10.1177/2053951715622512
Dietvorst BJ, Simmons JP, Massey C (2015) Algorithm aversion: people erroneously avoid algorithms after seeing them err. J Exp Psychol Gen 144(1):114–126. https://doi.org/10.1037/xge0000033
Author information
Authors and Affiliations
Corresponding author
Ethics declarations
Interessenkonflikt
M.C. Hirsch ist Initiator und Gründer der Fa. Ada und hat heute nur noch eine beratende Rolle inne. N. Schlicker und M. Langer geben an, dass kein Interessenkonflikt besteht.
Für diesen Beitrag wurden von den Autor/-innen keine Studien an Menschen oder Tieren durchgeführt. Für die aufgeführten Studien gelten die jeweils dort angegebenen ethischen Richtlinien.
Additional information
Redaktion
Edouard Battegay, Basel
Martin C. Hirsch, Marburg
Claus Vogelmeier, Marburg
QR-Code scannen & Beitrag online lesen
Rights and permissions
About this article
Cite this article
Schlicker, N., Langer, M. & Hirsch, M.C. Wie vertrauenswürdig ist künstliche Intelligenz?. Innere Medizin 64, 1051–1057 (2023). https://doi.org/10.1007/s00108-023-01602-1
Accepted:
Published:
Issue Date:
DOI: https://doi.org/10.1007/s00108-023-01602-1