Skip to main content
Log in

ChatGPT: Hilfe bei der medizinethischen Entscheidungsfindung?

ChatGPT: aid to medical ethics decision making?

Die Innere Medizin Aims and scope Submit manuscript

Zusammenfassung

Hintergrund

Der ärztliche Alltag ist durchzogen von zahlreichen Entscheidungen. Medizinische, ethische und rechtliche Aspekte sind häufig miteinander verwoben und der zeitlichen Veränderung unterworfen. Hilfe in der Entscheidungsfindung kann u. a. durch die Einbeziehung eines Ethikkomitees oder einer ethischen Fallbesprechung erfolgen. Ob und in welcher Form auch die Einbeziehung künstlicher Intelligenz (KI) und des „large language model“ (LLM; Fa. OpenAI, San Francisco, CA, USA), bekannt unter dem Namen ChatGPT, eine hilfreiche Unterstützung für die ethische Entscheidungsfindung sein kann, wird in jüngster Zeit zunehmend kontrovers diskutiert.

Material und Methoden

Anhand eines Fallbeispiels, in dem sich eine Ärztin mit ethischen und rechtlichen Fragen konfrontiert sieht und diese ChatGPT zur Beantwortung vorlegt, werden erste Hinweise auf Stärken und Schwächen herausgearbeitet.

Schlussfolgerung

Aufgrund der rasanten technischen Entwicklung und des Zugriffs auf immer größere Datenmengen sollte die Nutzung engmaschig begleitet und evaluiert werden.

Abstract

Background

Physicians have to make countless decisions every day. The medical, ethical and legal aspects are often intertwined and subject to change over time. Involving an ethics committee or arranging an ethical consultation are examples of potential aids to decision making. Whether and how artificial intelligence (AI) and the large language model (LLM) of the company OpenAI (San Francisco, CA, USA), known under the name ChatGPT, can also help and support ethical decision making is increasingly becoming a matter of controversial debate.

Material and methods

Based on a case example, in which a female physician is confronted with ethical and legal issues and presents these to ChatGPT to come up with answers, the first indications of the strengths and weaknesses are ascertained.

Conclusion

Due to the rapid technical development and access to ever increasing quantities of data, the utilization should be closely observed and evaluated.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Institutional subscriptions

Notes

  1. Für Deutschland listet die Webseite der Akademie für Ethik in der Medizin e. V. insgesamt 49 Kontaktstellen für ambulante Ethikberatung auf (Stand 28.07.2023, [10]).

  2. Das Fallbeispiel wurde in Anlehnung an einen Fall aus der US-amerikanischen Krankenhausserie Emergency Room formuliert.

Literatur

  1. World Health Organization (2021) Ethics & governance of artificial intelligence for health. WHO guidance. Genf. https://www.who.int/publications/i/item/9789240029200. Zugegriffen: 29. Juli 2023

  2. Meier LJ, Hein A, Diepold K, Buyx A (2022) Algorithms for ethical decision-making in the clinic: a proof concept. Am J Bioeth 22(7):4–20. https://doi.org/10.1080/15265161.2022.2040647

    Article  PubMed  Google Scholar 

  3. Deutscher Ethikrat (2023) Mensch und Maschine – Herausforderungen durch künstliche Intelligenz. Berlin. https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf. Zugegriffen: 29. Juli 2023

  4. Stroud AM, Pacyna JE, Sharp RR (2023) Ethical aspects of machine listening in healthcare. Am J Bioeth. https://doi.org/10.1080/15265161.2023.2199646

    Article  PubMed  Google Scholar 

  5. Sedlakova J, Trachsel M (2023) Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? Am J Bioeth 23(5):4–13. https://doi.org/10.1080/15265161.2022.2048739

    Article  PubMed  Google Scholar 

  6. Europäische Kommission (2020) WEISSBUCH. Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen. Brüssel. https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:52020DC0065. Zugegriffen: 29. Juli 2023

  7. Demaree-Cotton J, Earp BD, Savulescu J (2022) How to use AI ethically for ethical decision-making. Am J Bioeth 22(7):1–3. https://doi.org/10.1080/15265161.2022.2075968

    Article  PubMed  Google Scholar 

  8. Hurst SA, Hull SC, DuVal G, Danis M (2005) How physicians face ethical difficulties: a qualitative analysis. J Med Ethics 31:7–14. https://doi.org/10.1136/jme.2003.005835

    Article  CAS  PubMed  PubMed Central  Google Scholar 

  9. Schochow M, Schnell D, Steger D (2019) Implementation of clinical ethics consultation in German hospitals. Sci Eng Ethics 25(4):985–991. https://doi.org/10.1007/s11948-015-9709-2

    Article  PubMed  Google Scholar 

  10. Akademie für Ethik in der Medizin e. V. (2023) Außerklinische Ethikberatung. https://www.aem-online.de/index.php?id=157. Zugegriffen: 28. Juli 2023

  11. Cervantes JA, López S, Rodríguez LF, Cervantes S, Cervantes F, Ramos F (2020) Artificial moral agents: a survey of the current status. Sci Eng Ethics 26(2):501–532. https://doi.org/10.1007/s11948-019-00151-x

    Article  PubMed  Google Scholar 

  12. Anderson SL, Anderson M (2021) AI and ethics. Opinion paper. Ai Ethics 1:27–31. https://doi.org/10.1007/s43681-020-00003-6

    Article  Google Scholar 

  13. Beauchamp TL, Childress JF (2013) Principles of biomedical ethics, 7. Aufl. University Press, New York, Oxford

    Google Scholar 

  14. Schmidt KW (2017) Ethik – eine gemeinsame Sprache finden. Zur Rolle ethischer Fallbesprechungen. Pädiatr Prax 88:1–8

    Google Scholar 

  15. Bundesärztekammer (2019) Hinweise und Empfehlungen der Bundesärztekammer zum Umgang mit Zweifeln an der Einwilligungsfähigkeit bei erwachsenen Patienten. Dtsch Ärztebl 116(22):A-1133–A -1134 (https://www.aerzteblatt.de/pdf.asp?id=208054)

    Google Scholar 

  16. Shen Y, Heacock L, Elias J et al (2023) ChatGPT and other large language models are double-edged swords. Radiology 307(2):e230163. https://doi.org/10.1148/radiol.230163

    Article  PubMed  Google Scholar 

  17. Sauerbrei A, Hallowell N, Kerasidou A (2022) Algorithmic ethics: a technically sweet solution to a non-problem. Am J Bioeth 22(7):28–30. https://doi.org/10.1080/15265161.2022.2075050

    Article  PubMed  Google Scholar 

  18. Gigerenzer G (2007) Bauchentscheidungen. Die Intelligenz des Unbewussten und die Macht der Intuition. Bertelsmann, München

    Google Scholar 

  19. Biller-Andorno N, Ferrario A, Gloeckler S (2022) In search of a mission: artificial intelligence in clinical ethics. Am J Bioeth 22(7):23–25. https://doi.org/10.1080/15265161.2022.2075055

    Article  PubMed  Google Scholar 

  20. De Cremer D, Narayanan D (2023) How AI tools can—and cannot—help organizations become more ethical. Front Artif Intell 6:1093712. https://doi.org/10.3389/frai.2023.1093712

    Article  PubMed  PubMed Central  Google Scholar 

  21. Sallam M (2023) ChatGPT utility in healthcare education, research, and practice: systematic review on the promising perspectives and valid concerns. Healthcare 11(6):887. https://doi.org/10.3390/healthcare11060887

    Article  PubMed  PubMed Central  Google Scholar 

  22. Meskó B, Topol EJ (2023) The imperative for regulatory oversight of large language models (or generative AI) in healthcare. Npj Digit Med 6:120. https://doi.org/10.1038/s41746-023-00873-0

    Article  PubMed  PubMed Central  Google Scholar 

  23. Bender EM, Gebru T, McMillan-Major A, Shmitchell S (2021) On the dangers of Stochastic parrots: can language models be too big? Conference on Fairness, Accountability, and Transparency (FAccT ’21). https://doi.org/10.1145/3442188.3445922

    Book  Google Scholar 

  24. Savulescu J, Maslen H (2015) Moral enhancement and moral artificial intelligence: Moral AI? In: Romportl J, Zackova E, Kelemen J (Hrsg) Beyond artificial intelligence: the disappearing human–machine divide. Springer, Berlin, S 79–95

    Chapter  Google Scholar 

  25. Chambers T (2022) An All-Too-Human Enterprise. Am J Bioeth 22(7):33–35. https://doi.org/10.1080/15265161.2022.2075969

    Article  PubMed  Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Kurt W. Schmidt.

Ethics declarations

Interessenkonflikt

K.W. Schmidt und F. Lechner geben an, dass kein Interessenkonflikt besteht.

Für diesen Beitrag wurden von den Autoren keine Studien an Menschen oder Tieren durchgeführt. Für die aufgeführten Studien gelten die jeweils dort angegebenen ethischen Richtlinien.

Additional information

Redaktion

Edouard Battegay, Basel

Martin C. Hirsch, Marburg

Claus Vogelmeier, Marburg

figure qr

QR-Code scannen & Beitrag online lesen

Rights and permissions

Reprints and permissions

About this article

Check for updates. Verify currency and authenticity via CrossMark

Cite this article

Schmidt, K.W., Lechner, F. ChatGPT: Hilfe bei der medizinethischen Entscheidungsfindung?. Innere Medizin 64, 1065–1071 (2023). https://doi.org/10.1007/s00108-023-01601-2

Download citation

  • Accepted:

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1007/s00108-023-01601-2

Schlüsselwörter

Keywords

Navigation