Die Debatte um den Einsatz Künstlicher Intelligenz (KI) in der Gesundheitsversorgung ist schon seit einigen Jahren omnipräsent: Nicht nur in Fachzeitschriften, sondern auch in lokalen und überregionalen Publikumsmedien (bis hin zur „Apothekenumschau“), in Radio, Fernsehen und auf Internetplattformen werden Möglichkeiten (und mit ein bisschen Glück auch Grenzen) datenbasierter Unterstützungssysteme für Diagnostik und Therapie diskutiert. Gesundheits-Apps zur Selbstanwendung für Patient*innen und Bürger*innen gewinnen an Bedeutung zum Erhalt von „Fitness“ sowie für Früherkennung und Monitoring von Erkrankungen. Ethische Aspekte stehen dabei ebenfalls häufig im Mittelpunkt: Fragen der Erklärbarkeit („explainability“) von KI-Anwendungen, Gefahren durch Verzerrungen in den Trainingsdaten, die zur Diskriminierung bestimmter Bevölkerungsgruppen führen können, oder die Auswirkungen der Digitalisierung auf die Versorgungspraxis (z. B. auf Rolle und Kompetenzen von Ärzt*innen) bieten mehr als genug Anlass für medizinethische Analysen.

Parallel zu dieser ausgesprochen breiten Debatte um die „Ethik der KI“ dürfte es aufmerksamen Leser*innen internationaler Fachzeitschriften nicht entgangen sein, dass in den letzten zwei bis drei Jahren ein zweiter, bisher deutlich kleinerer Diskurs zum Zusammenhang zwischen KI und Ethik entstanden ist. Hier geht es weniger um die ethische Bewertung KI-getriebener Anwendungen im Gesundheitswessen als – gewissermaßen andersherum – um den Einsatz informationstechnischer und datenwissenschaftlicher Verfahren zur Bearbeitung von Aufgaben in der Medizinethik selbst. Die KI wird hier nicht im Hinblick auf die ethischen Implikationen ihres Einsatzes, sondern als „Lösungsmittel“ bzw. unterstützendes Werkzeug für die medizinethische Arbeit betrachtet. Im Unterschied zur „großen Geschichte“ der Ethik von KI im Gesundheitswesen geht es in dieser „kleinen Geschichte“ um die KI in der Ethik (vgl. Salloch und Ursin 2023).

Die Ideen zur Nutzung von KI in der Ethik sind schon heute ausgesprochen vielfältig: „Klassische“ empirische Forschungsansätze der Medizinethik werden neuerdings ergänzt durch Datenerhebung in digitalen Settings (etwa in Form von „serious moral games“ (vgl. Pavarini et al. 2021)), die ein hohes Maß an Involviertheit der Forschungsteilnehmer*innen versprechen. Anstelle klassischer Diskursanalysen erfolgt die teil-automatisierte Auswertung großer Mengen an Social Media-Daten, um Argumente und Diskussionszusammenhänge zu umstrittenen ethischen Themen (etwa der Genomeditierung (vgl. Schneider et al. 2021)) herauszuarbeiten. Und auch für die unmittelbare klinisch-ethische Entscheidungsfindung wurde bereits ein „proof of concept“-Modell vorgestellt, das drei der vier bioethischen Prinzipien nach Beauchamp und Childress operationalisiert und auf konkrete Fälle anwendet (vgl. Meier et al. 2022). Ein neues Themenheft des „American Journal of Bioethics“ zur Nutzung von Large Language Models (Chat GPT) widmet sich unter anderem der auf den Autor personalisierten Optimierung des Schreibens bioethischer Artikel (vgl. Porsdam Mann et al. 2023).

Können also Maschinen jetzt das ethische Argumentieren und Urteilen unterstützen? Oder sollen sie sogar das ethische Entscheiden übernehmen? Und das im Gesundheitswesen mit seinen bekanntermaßen oft sehr sensiblen Fragen von großer Tragweite für die betroffenen Menschen (Benzinger et al. 2023)? Der Gedanke einer „Maschinenethik“ ist zumindest nicht neu. Die Auseinandersetzung mit dem ethischen Handeln von Robotern begleitet uns spätestens seit Isaac Asimovs „Three Laws of Robotics“, die in einer Kurzgeschichte 1942 eingeführt wurden und im Werk des Autors wiederholt einen wichtigen Referenzpunkt bilden. Autor*innen aus dem Bereich der Maschinenethik diskutierten bereits Jahrzehnte vor der aktuell dominierenden KI-Debatte Chancen und Grenzen von „Artificial Moral Agents“ als Systemen, die in der Lage sind, selbstständig moralische Entscheidungen zu treffen (Cervantes et al. 2020).

Ein spezifisches Feld der Anwendung von KI in der Medizinethik bezieht sich auf die Prädiktion der Präferenzen von Patient*innen, die ihren Willen selbst nicht mehr äußern können. Für eine solche „patient preference prediction“ liegen – nach Wissen der Autorin – bisher keine einsatzfähigen Programme vor, wohl aber wird spekuliert, wie sich technische Grundlagen und Einsatz solcher Software grundsätzlich darstellen könnten (vgl. Rid und Wendler 2014; Biller-Andorno und Biller 2019). Denkbar wäre es ja: Könnten wir nicht die enormen Datenbestände aus elektronischen Krankenakten nutzen, um das mutmaßliche Entscheidungsverhalten von Patient*innen vorauszusagen, die ihren Willen selbst nicht äußern können? Ließen sich diese klinischen Datenbestände vielleicht sogar mit anderen Quellen verbinden, um noch bessere Rückschlüsse auf die jeweils spezifischen Interessen der Betroffenen zu ziehen? Verschiedene Autor*innen gehen davon aus, dass die automatisierte Prädiktion von Präferenzen potenziell eine sinnvolle Ergänzung zum herkömmlichen Vorgehen bei nicht selbstbestimmungsfähigen Patient*innen sein könnte – zumal aus empirischer Forschung gut bekannt ist, dass Stellvertreter*innen oft nur unzureichend in der Lage sind, den Willen der Betroffenen wiederzugeben (vgl. Wendler und Rid 2011).

Wird die „menschengemachte“ Medizinethik dann in Kürze überflüssig? Erfolgt statt einer Konsultation des Klinischen Ethikkomitees demnächst eine Dateneingabe in die Kliniksoftware, welche dann Hilfe für die Entscheidung, z. B. bei nicht-selbstbestimmungsfähigen Patient*innen, liefert? Aus einer ganzen Reihe von Gründen bin ich ausgesprochen zuversichtlich, dass die Menschen in der Medizinethik so schnell nicht verschwinden werden. Und hier können wir aus der „großen Geschichte“ um den Einsatz von KI in der Gesundheitsversorgung einiges lernen. So kann es etwa beim Einsatz von Algorithmen stets nur um eine Entscheidungsunterstützung gehen. Ergebnisse müssen vom Menschen interpretiert werden und er muss hierzu in die Lage versetzt werden. Schließlich liegt auch die Verantwortung weiterhin beim menschlichen Akteur. „Black Box“-Systeme, die keinen Einblick in die Entstehungszusammenhänge der Empfehlungen liefern, sind auch und gerade bei ethischen Entscheidungen abzulehnen. Die automatisierte Prädiktion von Patientenpräferenzen bliebe dann letztlich eine Art weiteres diagnostisches Werkzeug, das in solchen Fällen genutzt werden kann, wo es sinnvoll erscheint – etwa weil keinerlei anderweitige Informationen über die Wünsche der Betroffenen vorliegen. Die Entscheidungen aber, ob das System zum Einsatz kommen soll und in welcher Weise dessen Empfehlungen berücksichtigt (oder nicht berücksichtigt) werden, muss der Mensch treffen. Solange wir als Medizinethiker*innen also um unsere eigenen Kompetenzen wissen und in der Lage sind, technische Hilfsmittel sinnvoll einzusetzen, ohne die Kontrolle an „moralische Roboter“ abzugeben, werden wir auch auf lange Sicht unverzichtbar bleiben.