Skip to main content
Log in

Wie vertrauenswürdig ist künstliche Intelligenz?

Ein Modell für das Spannungsfeld zwischen Objektivität und Subjektivität

How trustworthy is artificial intelligence?

A model for the conflict between objectivity and subjectivity

  • Schwerpunkt: Künstliche Intelligenz in der Inneren Medizin
  • Published:
Die Innere Medizin Aims and scope Submit manuscript

Zusammenfassung

Bei der Integration von KI-Systemen in medizinische Tätigkeiten ist es entscheidend, sich sowohl mit der Vertrauenswürdigkeit dieser Systeme als auch mit dem Vertrauen der Ärzte und Patienten in diese Systeme zu beschäftigen. Ein zu hohes Maß an Vertrauen kann dazu führen, dass Ärzte sich unkritisch auf diese Technologie verlassen, während zu wenig Vertrauen darin resultieren kann, dass Ärzte die Vorteile dieser Technologie für ihre Entscheidungen nicht nutzen. Um eine Balance zwischen diesen Extremen zu finden, muss die Vertrauenswürdigkeit eines Systems korrekt eingeschätzt werden. Nur so ist es möglich zu entscheiden, ob diesem System vertraut werden kann oder nicht. In diesem Beitrag stellen wir diese Zusammenhänge für den medizinischen Kontext dar. Wir zeigen auf, warum Vertrauenswürdigkeit und Vertrauen eine zentrale Rolle beim Einsatz KI-basierter Systeme spielen, und was nötig ist, damit Personen zu einer akkuraten Einschätzung der Vertrauenswürdigkeit KI-basierter Systeme kommen können.

Abstract

For the integration of artificial intelligence (AI) systems into medical processes it is decisive to address both the trustworthiness of these systems and the trust that physicians and patients have in those systems. Too much trust can result in physicians uncritically relying on this technology, while too little trust may result in physicians not taking advantage of the full potential of AI-based technology in making decisions. To strike a balance between these extremes it is crucial to correctly assess the trustworthiness of a system. Only in this way is it possible to decide whether or the system can be trusted or not. This article describes these relationships for the medical context. We show why trustworthiness and trust are important in the use of AI-based systems and how individuals can come to an accurate assessment of the trustworthiness of AI-based systems.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Abb. 1

Notes

  1. Das in diesem Beitrag beschriebene Modell basiert auf einer bisher unveröffentlichten wissenschaftlichen Arbeit [8]. Eine ausführliche Beschreibung des Modells mit inhaltlicher Nähe zum vorliegenden Beitrag und konkretisierten Implikationen für Normung von KI am Beispiel der Medizin soll innerhalb der Schriftenreihe „Schriften zum Recht der Digitalisierung“ (Möslein et al.) veröffentlicht werden.

  2. Nutzer steht hier stellvertretend für alle potenziellen Parteien und Geschlechter, die die Vertrauenswürdigkeit des Systems einschätzen. Es kann sich dabei z. B. auch um die Klinikleitung oder verantwortliche Chefärztinnen handeln.

Literatur

  1. Durán JM, Jongsma KR (2021) Who is afraid of black box algorithms? On the epistemological and ethical basis of trust in medical AI. J Med Ethics 47(5):329–335. https://doi.org/10.1136/medethics-2020-106820

    Article  Google Scholar 

  2. Gille F, Jobin A, Ienca M (2020) What we talk about when we talk about trust: theory of trust for AI in healthcare. Intell Based Med 100001:1–2. https://doi.org/10.1016/j.ibmed.2020.100001

    Article  Google Scholar 

  3. Liu P, Lu L, Zhang J, Huo T, Liu S, Ye Z (2021) Application of artificial intelligence in medicine: an overview. Curr Med Sci 41(6):1105–1115. https://doi.org/10.1007/s11596-021-2474-3

    Article  PubMed  PubMed Central  Google Scholar 

  4. Gaube S, Suresh H, Raue M et al (2021) Do as AI say: susceptibility in deployment of clinical decision-aids. NPJ Digit Med 4(1):1–8. https://doi.org/10.1038/s41746-021-00385-9

    Article  Google Scholar 

  5. Longoni C, Bonezzi A, Morewedge CK (2019) Resistance to medical artificial intelligence. J Consum Res 46(4):629–650. https://doi.org/10.1093/jcr/ucz013

    Article  Google Scholar 

  6. Bach AKP, Nørgaard TM, Brok JC, van Berkel N (2023) “If I had all the time in the world”: Ophthalmologists’ perceptions of anchoring bias mitigation in clinical AI support. In: Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems. CHI ’23. Association for Computing Machinery, S 1–14 https://doi.org/10.1145/3544548.3581513

    Chapter  Google Scholar 

  7. Dzindolet MT, Peterson SA, Pomranky RA, Pierce LG, Beck HP (2003) The role of trust in automation reliance. Int J Hum Comput Stud 58(6):697–718. https://doi.org/10.1016/S1071-5819(03)00038-7

    Article  Google Scholar 

  8. Schlicker N, Baum K, Uhde A, Sterz S, Hirsch MC, Langer M (2022) A micro and macro perspective on trustworthiness: theoretical underpinnings of the Trustworthiness Assessment Model (TrAM) https://doi.org/10.31234/osf.io/qhwvx

    Book  Google Scholar 

  9. Mayer RC, Davis JH, Schoorman FD (1995) An integrative model of organizational trust. Acad Manage Rev 20(3):709–734. https://doi.org/10.2307/258792

    Article  Google Scholar 

  10. Thiebes S, Lins S, Sunyaev A (2021) Trustworthy artificial intelligence. Electron Mark 31(2):447–464. https://doi.org/10.1007/s12525-020-00441-4

    Article  Google Scholar 

  11. European Union (2021) Proposal for a regulation of the European parliament and of the council laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts. https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_1&format=PDF. Zugegriffen: 8. Febr. 2022

  12. High-Level Expert Group on Artificial Intelligence (2019) Ethics guidelines for trustworthy AI

    Google Scholar 

  13. Loh W, Hauschke A, Puntschuh M, Hallensleben S (2022) VCIO based description of systems for AI trustworthiness characterisation. VDE SPEC, Bd. 90012 V1.0

    Google Scholar 

  14. DIN, DKE (2020) German standardization roadmap on artificial intelligence

    Google Scholar 

  15. Lee JD, See KA (2004) Trust in automation: designing for appropriate reliance. Hum Factors 46(1):50–80. https://doi.org/10.1518/hfes.46.1.50_30392

    Article  PubMed  Google Scholar 

  16. Awad E, Dsouza S, Kim R et al (2018) The moral machine experiment. Nature 563(7729):59–64. https://doi.org/10.1038/s41586-018-0637-6

    Article  CAS  PubMed  Google Scholar 

  17. Burrell J (2016) How the machine ‘thinks’: understanding opacity in machine learning algorithms. Big Data Soc 3(1):2053951715622512. https://doi.org/10.1177/2053951715622512

    Article  Google Scholar 

  18. Dietvorst BJ, Simmons JP, Massey C (2015) Algorithm aversion: people erroneously avoid algorithms after seeing them err. J Exp Psychol Gen 144(1):114–126. https://doi.org/10.1037/xge0000033

    Article  PubMed  Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Nadine Schlicker.

Ethics declarations

Interessenkonflikt

M.C. Hirsch ist Initiator und Gründer der Fa. Ada und hat heute nur noch eine beratende Rolle inne. N. Schlicker und M. Langer geben an, dass kein Interessenkonflikt besteht.

Für diesen Beitrag wurden von den Autor/-innen keine Studien an Menschen oder Tieren durchgeführt. Für die aufgeführten Studien gelten die jeweils dort angegebenen ethischen Richtlinien.

Additional information

Redaktion

Edouard Battegay, Basel

Martin C. Hirsch, Marburg

Claus Vogelmeier, Marburg

figure qr

QR-Code scannen & Beitrag online lesen

Rights and permissions

Reprints and permissions

About this article

Check for updates. Verify currency and authenticity via CrossMark

Cite this article

Schlicker, N., Langer, M. & Hirsch, M.C. Wie vertrauenswürdig ist künstliche Intelligenz?. Innere Medizin 64, 1051–1057 (2023). https://doi.org/10.1007/s00108-023-01602-1

Download citation

  • Accepted:

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1007/s00108-023-01602-1

Schlüsselwörter

Keywords

Navigation