Zusammenfassung
Hintergrund
Der ärztliche Alltag ist durchzogen von zahlreichen Entscheidungen. Medizinische, ethische und rechtliche Aspekte sind häufig miteinander verwoben und der zeitlichen Veränderung unterworfen. Hilfe in der Entscheidungsfindung kann u. a. durch die Einbeziehung eines Ethikkomitees oder einer ethischen Fallbesprechung erfolgen. Ob und in welcher Form auch die Einbeziehung künstlicher Intelligenz (KI) und des „large language model“ (LLM; Fa. OpenAI, San Francisco, CA, USA), bekannt unter dem Namen ChatGPT, eine hilfreiche Unterstützung für die ethische Entscheidungsfindung sein kann, wird in jüngster Zeit zunehmend kontrovers diskutiert.
Material und Methoden
Anhand eines Fallbeispiels, in dem sich eine Ärztin mit ethischen und rechtlichen Fragen konfrontiert sieht und diese ChatGPT zur Beantwortung vorlegt, werden erste Hinweise auf Stärken und Schwächen herausgearbeitet.
Schlussfolgerung
Aufgrund der rasanten technischen Entwicklung und des Zugriffs auf immer größere Datenmengen sollte die Nutzung engmaschig begleitet und evaluiert werden.
Abstract
Background
Physicians have to make countless decisions every day. The medical, ethical and legal aspects are often intertwined and subject to change over time. Involving an ethics committee or arranging an ethical consultation are examples of potential aids to decision making. Whether and how artificial intelligence (AI) and the large language model (LLM) of the company OpenAI (San Francisco, CA, USA), known under the name ChatGPT, can also help and support ethical decision making is increasingly becoming a matter of controversial debate.
Material and methods
Based on a case example, in which a female physician is confronted with ethical and legal issues and presents these to ChatGPT to come up with answers, the first indications of the strengths and weaknesses are ascertained.
Conclusion
Due to the rapid technical development and access to ever increasing quantities of data, the utilization should be closely observed and evaluated.
Notes
Für Deutschland listet die Webseite der Akademie für Ethik in der Medizin e. V. insgesamt 49 Kontaktstellen für ambulante Ethikberatung auf (Stand 28.07.2023, [10]).
Das Fallbeispiel wurde in Anlehnung an einen Fall aus der US-amerikanischen Krankenhausserie Emergency Room formuliert.
Literatur
World Health Organization (2021) Ethics & governance of artificial intelligence for health. WHO guidance. Genf. https://www.who.int/publications/i/item/9789240029200. Zugegriffen: 29. Juli 2023
Meier LJ, Hein A, Diepold K, Buyx A (2022) Algorithms for ethical decision-making in the clinic: a proof concept. Am J Bioeth 22(7):4–20. https://doi.org/10.1080/15265161.2022.2040647
Deutscher Ethikrat (2023) Mensch und Maschine – Herausforderungen durch künstliche Intelligenz. Berlin. https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf. Zugegriffen: 29. Juli 2023
Stroud AM, Pacyna JE, Sharp RR (2023) Ethical aspects of machine listening in healthcare. Am J Bioeth. https://doi.org/10.1080/15265161.2023.2199646
Sedlakova J, Trachsel M (2023) Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? Am J Bioeth 23(5):4–13. https://doi.org/10.1080/15265161.2022.2048739
Europäische Kommission (2020) WEISSBUCH. Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen. Brüssel. https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:52020DC0065. Zugegriffen: 29. Juli 2023
Demaree-Cotton J, Earp BD, Savulescu J (2022) How to use AI ethically for ethical decision-making. Am J Bioeth 22(7):1–3. https://doi.org/10.1080/15265161.2022.2075968
Hurst SA, Hull SC, DuVal G, Danis M (2005) How physicians face ethical difficulties: a qualitative analysis. J Med Ethics 31:7–14. https://doi.org/10.1136/jme.2003.005835
Schochow M, Schnell D, Steger D (2019) Implementation of clinical ethics consultation in German hospitals. Sci Eng Ethics 25(4):985–991. https://doi.org/10.1007/s11948-015-9709-2
Akademie für Ethik in der Medizin e. V. (2023) Außerklinische Ethikberatung. https://www.aem-online.de/index.php?id=157. Zugegriffen: 28. Juli 2023
Cervantes JA, López S, Rodríguez LF, Cervantes S, Cervantes F, Ramos F (2020) Artificial moral agents: a survey of the current status. Sci Eng Ethics 26(2):501–532. https://doi.org/10.1007/s11948-019-00151-x
Anderson SL, Anderson M (2021) AI and ethics. Opinion paper. Ai Ethics 1:27–31. https://doi.org/10.1007/s43681-020-00003-6
Beauchamp TL, Childress JF (2013) Principles of biomedical ethics, 7. Aufl. University Press, New York, Oxford
Schmidt KW (2017) Ethik – eine gemeinsame Sprache finden. Zur Rolle ethischer Fallbesprechungen. Pädiatr Prax 88:1–8
Bundesärztekammer (2019) Hinweise und Empfehlungen der Bundesärztekammer zum Umgang mit Zweifeln an der Einwilligungsfähigkeit bei erwachsenen Patienten. Dtsch Ärztebl 116(22):A-1133–A -1134 (https://www.aerzteblatt.de/pdf.asp?id=208054)
Shen Y, Heacock L, Elias J et al (2023) ChatGPT and other large language models are double-edged swords. Radiology 307(2):e230163. https://doi.org/10.1148/radiol.230163
Sauerbrei A, Hallowell N, Kerasidou A (2022) Algorithmic ethics: a technically sweet solution to a non-problem. Am J Bioeth 22(7):28–30. https://doi.org/10.1080/15265161.2022.2075050
Gigerenzer G (2007) Bauchentscheidungen. Die Intelligenz des Unbewussten und die Macht der Intuition. Bertelsmann, München
Biller-Andorno N, Ferrario A, Gloeckler S (2022) In search of a mission: artificial intelligence in clinical ethics. Am J Bioeth 22(7):23–25. https://doi.org/10.1080/15265161.2022.2075055
De Cremer D, Narayanan D (2023) How AI tools can—and cannot—help organizations become more ethical. Front Artif Intell 6:1093712. https://doi.org/10.3389/frai.2023.1093712
Sallam M (2023) ChatGPT utility in healthcare education, research, and practice: systematic review on the promising perspectives and valid concerns. Healthcare 11(6):887. https://doi.org/10.3390/healthcare11060887
Meskó B, Topol EJ (2023) The imperative for regulatory oversight of large language models (or generative AI) in healthcare. Npj Digit Med 6:120. https://doi.org/10.1038/s41746-023-00873-0
Bender EM, Gebru T, McMillan-Major A, Shmitchell S (2021) On the dangers of Stochastic parrots: can language models be too big? Conference on Fairness, Accountability, and Transparency (FAccT ’21). https://doi.org/10.1145/3442188.3445922
Savulescu J, Maslen H (2015) Moral enhancement and moral artificial intelligence: Moral AI? In: Romportl J, Zackova E, Kelemen J (Hrsg) Beyond artificial intelligence: the disappearing human–machine divide. Springer, Berlin, S 79–95
Chambers T (2022) An All-Too-Human Enterprise. Am J Bioeth 22(7):33–35. https://doi.org/10.1080/15265161.2022.2075969
Author information
Authors and Affiliations
Corresponding author
Ethics declarations
Interessenkonflikt
K.W. Schmidt und F. Lechner geben an, dass kein Interessenkonflikt besteht.
Für diesen Beitrag wurden von den Autoren keine Studien an Menschen oder Tieren durchgeführt. Für die aufgeführten Studien gelten die jeweils dort angegebenen ethischen Richtlinien.
Additional information
Redaktion
Edouard Battegay, Basel
Martin C. Hirsch, Marburg
Claus Vogelmeier, Marburg
QR-Code scannen & Beitrag online lesen
Rights and permissions
About this article
Cite this article
Schmidt, K.W., Lechner, F. ChatGPT: Hilfe bei der medizinethischen Entscheidungsfindung?. Innere Medizin 64, 1065–1071 (2023). https://doi.org/10.1007/s00108-023-01601-2
Accepted:
Published:
Issue Date:
DOI: https://doi.org/10.1007/s00108-023-01601-2