Einleitung

Mit der zunehmenden Einbindung von künstlicher Intelligenz (KI) in die medizinische Praxis hat die Technisierung der Medizin einen weiteren Schub erhalten. Ein Beispiel ist die Unterstützung bei der Diagnostik durch „machine learning“ (ML). Die Stärke von ML liegt in der Mustererkennung, die durch Tausende digital vorliegende Beispiele trainiert wurde und laufend verbessert wird. Für alles, was bereits in digitaler Form vorhanden ist, können diese Programme besonders gut eingesetzt werden. Für die Gynäkologie betrifft dies z. B. alle radiologischen Diagnoseverfahren. Warum sollte sich jemand von diesem automatisierten Erfahrungsschatz in der Diagnose nicht unterstützen lassen oder sich gar gänzlich darauf verlassen? Verringert dies nicht zugleich die Last der Verantwortung? Die Entwicklung dieser Techniken hat gerade erst vielversprechend begonnen und der Schub durch KI dürfte noch lange Zeit anhalten.

Dieser Schub gilt gleichfalls für damit zusammenhängende ethische Herausforderungen. Wer trägt beispielsweise die Verantwortung, wenn in der Diagnostik dennoch etwas schiefläuft? Wenn ein Karzinom übersehen wird, kann dies letale Folgen haben. Der Zweck humanmedizinischen Handelns liegt in der Gesundheit und dem Wohl der Patientinnen und Patienten. Damit geht es in der Medizin zwangsläufig um Ethik und Moral, weil hier Menschen andere Menschen behandeln und sich Fragen nach Leidvermeidung und -minderung, Würde und Respekt, Freiheit und Selbstbestimmung, Gerechtigkeit und Gleichheit, Vertrauen und Verantwortung gleichsam aufdrängen. Ob und in welchem Ausmaß dies nun technisch unterstützt geschieht, bleibt für die grundlegende Bedeutung der Ethik für die Medizin zunächst unwesentlich. Inwiefern sie wichtig wird, ändert sich jedoch mit zunehmender Technisierung. In meinem Beitrag wird es nach einem Abschnitt, der sich Grundlegendem widmet, um neue Herausforderungen der Medizin durch KI gehen, insbesondere in Hinblick auf Verantwortung.

Bevor ich mich diesen Fragen zuwende, möchte ich Folgendes vorausschicken: Nicht zufällig ist die medizinische Ethik eines der Hauptgebiete der sogenannten angewandten Ethik, die sich im Kern als philosophische Disziplin versteht. Als philosophische Disziplin reflektiert sie über die moralische Praxis, analysiert und orientiert. Unter bestimmten ausgewiesenen Bedingungen macht sie zudem Vorschläge für eine Änderung dieser Praxis. Jede moralische Praxis erhebt den Anspruch, dass es letztlich um ein gutes und gerechtes Leben geht, um das Wohl und Wehe zumindest von Menschen, auch wenn der Anspruch unterschiedlich eingelöst wird. Da für viele das Wort „Moral“ als veraltet, moralinsauer und zu eng mit bestimmten sehr starren religiösen Moralvorstellungen verbunden gilt, wird heute meist auch bei der gesellschaftlichen oder religiösen moralischen Praxis selbst und geltenden Moralsystemen (nicht nur bei ihrer philosophischen Reflexion) von „Ethik“ gesprochen.Footnote 1 Wo der Unterschied nicht entscheidend ist, werde ich von „ethisch-moralisch“ sprechen.

Ethik und technisierte Medizin: Grundlegendes

Nicht zuletzt die Medizin bzw. die Handelnden in diesem System definieren sich wesentlich durch ihr ethisch-moralisches Selbstverständnis. Entsprechende Normen und Werte gehören sozusagen zur DNA der Medizin. Dies kann leichter in Vergessenheit geraten, wenn die Beziehung, innerhalb welcher das medizinische Handeln stattfindet, nicht mehr direkt ersichtlich ist, sondern Technik im Sinne technischer Geräte und Prozesse dazwischengeschaltet wird. Betrachten wir einen einfachen, alltäglichen, aber nicht minder wichtigen Fall: Wenn eine Patientin bei einer Brustuntersuchung erlebt, wie die Ärztin ihr nur den Oberkörper zum Abtasten zudreht, jedoch keinen Augenblick das Gesicht und sie somit kein einziges Mal anblickt, weil die Ärztin auf den Bildschirm vor sich starrt, so irritiert dies die Patientin zu Recht, sofern dies Ausdruck von fehlendem Respekt ist. Zumindest ist dies der Fall, solange dieser Respekt nicht anderweitig unmissverständlich ausgedrückt wird. Der Blick auf den Monitor ist wichtig, doch nicht weniger bedeutsam ist, dass es trotz allem um ein zwischenmenschliches Handeln zum Wohle der Patientin geht. In diesem einfachen Beispiel ist Technik zunächst vor allem Ablenkung. Je mehr Technik sich zwischen Behandelnden und Behandelten schiebt, umso größer ist die Gefahr, dass der Zweck des Handelns und die Art dieser speziellen Beziehung übersehen und vergessen wird. Angesichts des rasanten Tempos des technischen Fortschritts daran zu erinnern und auf diese Rücksichtnahme zu verweisen, ist, so banal es erscheinen mag, eine der Aufgaben der (philosophischen) medizinischen Ethik und medizinischer Moral. Für die Patientinnen und Patienten ist dies nämlich keineswegs unbedeutend. Medizinische Ethik ist hier Begleiterin des technischen Fortschritts, wenn auch durchaus eine kritische.

Dabei ist die Ethik oftmals sogar eine Befürworterin des technischen Fortschritts und keinesfalls eine Gegnerin. Gerade als philosophische Disziplin ist sie nicht an die mehr oder weniger latente Technikfeindlichkeit von Moralsystemen gebunden, die das Natürliche gegen das Künstliche verteidigen wollen. Nicht zuletzt in der Medizin ist aus ethischer Perspektive anzuerkennen, wie viel Gutes technisierte Medizin ermöglicht hat und hoffentlich noch ermöglichen wird. Als Beispiele aus der jüngeren Vergangenheit seien hier MRT-Geräte, Chirurgieroboter oder reproduktionstechnologische Verfahren genannt. Damit sei nicht behauptet, die erwähnten Techniken brächten ausschließlich Vorteile mit sich. Dem ist beileibe nicht so, wie wir u. a. an nötigen ethischen und moralischen Debatten bei letztgenannten Verfahren sehen. Ich will nur verdeutlichen, dass moralische oder ethische Zugänge nicht technikfeindlich sein müssen. Moralische und ethische Gesichtspunkte führen nicht notgedrungen zu einer Ablehnung von Technik. Sie können sogar den technischen Fortschritt unterstützen. Wäre dem nicht so, könnten ethisch-moralische Gesichtspunkte zur Legitimierung von Forschungsprojekten nicht so regelmäßig und erfolgreich herangezogen werden. Dies gilt selbst dann, wenn dies zu bloßer Forschungsantragsrhetorik verkommen mag.

Neue Herausforderung: Verantwortung und KI

Die ethisch-moralische Dimension liegt bei aktuellen technischen Entwicklungen, wie eingangs erwähnt, jedoch nicht immer klar auf der Hand. Deshalb braucht es neben einem Wissen um hinlänglich bekannte und offensichtliche Zusammenhänge ebenso ein Wissen um verstecktere und komplexere Verbindungen, die oftmals in weitere philosophische Grundfragen führen. Ich werde das in diesem Abschnitt exemplarisch anhand der zentralen Fragen der Verantwortung, wenn es um den Einsatz von KI in der Entscheidung für einen Behandlungspfad geht, erläutern. Hierbei greife ich auf Ausführungen zurück, die 2020 im von Markus Hengstschläger und dem Rat für Forschung und Technologieentwicklung herausgegebenen Sammelband Digitaler Wandel und Ethik erschienen sind.

Ärztinnen und Ärzten erwächst aus ihrer beruflichen Position eine besondere Verantwortung. Ändert sich etwas an dieser Verantwortung, wenn sie zur Entscheidungsfindung für einen Behandlungspfad KI-Programme heranziehen? Es ist durchaus üblich geworden zu sagen, die KI würde nun entscheiden. Dem ist jedoch im ethisch-moralisch relevanten Sinne nicht so.

KI-Programme entscheiden nämlich nicht in dem Sinne, dass sie diese Verantwortung abnehmen könnten. Die metaphorische Rede von der Verantwortung, die Systeme künstlicher Intelligenz selbst tragen sollten, kommt nur leider jenen zu Gute, die ungerechtfertigterweise Verantwortung von sich weisen wollen. Sie verweisen irrtümlicherweise auf KI nach dem Motto: „Ich kann ja nichts dafür, das System selbst wars.“ Solch ein Weiterschieben von Verantwortung auf die KI selbst beruht auf grundlegend falschen Annahmen.

Verantwortung im moralischen Sinne können – und hier verweise ich auf meinen Beitrag von 2020 – nur Wesen tragen, die ein Bewusstsein haben und etwas beabsichtigen können. Zu sagen, die KI habe eine Entscheidung getroffen, bleibt eine metaphorische Redeweise. Die Rede von Verantwortung ist dem menschlichen Kontext entnommen. Jemand mit Bewusstsein bildet einen Willen, entscheidet sich, handelt entsprechend, und wenn etwas schiefgeht, erwarten die anderen, dass die handelnde Person sagen kann, zu welchem Zweck und aus welchen Gründen sie so gehandelt hat. Bei KI liegt dies alles nicht vor. Wir Menschen reden nur so, als ob dem so wäre. Dies kann sehr wohl hilfreich sein, um zu etwas einen leichteren Zugang zu finden, aber eben auch irreführend (vgl. [1]). Hierbei ist mir durchaus bewusst, dass Menschen wie ich aus Sicht des Hypes um KI als Spaßverderberin gelten. Eben war alles noch so neu, revolutionär und aufregend, und dann bleibt doch alles wieder bei den Menschen hängen. Aber es ist nun einmal so: Selbst im Falle von sogenannten autonomen KI-Systemen (seien es medizinische Roboter oder selbstfahrende Autos etc.) bleibt die Verantwortung bei den involvierten Menschen. Damit sind jene gemeint, die an der Entwicklung, Herstellung und Nutzung als Entscheidende beteiligt sind. Werden bei KI diskriminierende Daten als Trainingsdaten genommen, ist für die dadurch eingeschriebene Diskriminierung und den damit entstandenen Bias aufgrund der Ergebnisse nicht die KI verantwortlich, sondern jene, die dieses System entwickeln und wider besseres Wissen anwenden bzw. anwenden lassen. KI-Systeme haben – zumindest in absehbarer Zukunft – kein Bewusstsein, keine Absichten, auch keine Gefühle. Sie simulieren jedoch sehr erfolgreich Bewusstsein, Gefühle, Intentionen, Entscheidungen, ja sogar Zuwendung.

Dennoch sind es wir Menschen, die dies hineininterpretieren, weshalb sowohl die möglichen positiven Effekte als auch die überzogenen Erwartungen mehr über die enormen Fähigkeiten von Menschen aussagen als über jene der KI. Der Umgang mit KI trägt durchaus Züge einer Form des Animismus, das ist die angenommene Beseelung des Nichtbeseelten, die hier zum Tragen kommt. Neben diesbezüglicher Hoffnung auf humanoide Pflegeroboter, die selbst die menschliche Dimension der Pflege übernehmen sollen, sind textgenerierende KI-Systeme wie ChatGPT, das in diesem Jahr für überwältigende Aufmerksamkeit und Aufregung gesorgt hat, ein gutes Beispiel. Weil das Programm sprachliche Zeichen ausgibt, die wir Menschen mit Bedeutung belegen, meinen wir, das Programm würde mit diesen ebenso Bedeutung verbinden. Wie faszinierend und hilfreich die Antworten auch sein mögen, hat das, was das Programm ausgibt, nur für uns Menschen Bedeutung. Dennoch können wir uns einer Vermenschlichung des Programms und einer Autoritätszuschreibung kaum entziehen. Wenn das Programm zeitverzögert die Antworten gibt – und schon diese Redeweise ist vermenschlichend –, neigen wir sofort dazu, das als nötige Nachdenkphase zu verstehen. Diese Neigung, ein Programm, das sprachliche Zeichen ausgibt, gleich als menschliches Wesen anzusehen, fußt auf der zentralen Stellung von Sprache für menschliche Wesen. Es wäre durchaus hilfreich, solche Programme keine Texte in Ich-Form, bei denen es zu entsprechenden Missverständnissen kommen kann, generieren zu lassen. Grundlegend bleibt: Die Projektion, die hier stattfindet, ist eine beeindruckende menschliche Leistung, nur leider eine, die sehr in die Irre führen kann, wenn wir vergessen, dass dieses „Als-ob-Verhalten“ auf einer Illusion beruht.

Was heißt das für die Verantwortung bei der Verwendung von KI in der medizinischen Diagnostik? Ein KI-Programm bietet höchstens einen Vorschlag für die Diagnostik und gegebenenfalls einen Behandlungspfad, der sich erfahrungsgemäß als sehr verlässlich herausgestellt haben mag. Durch hohe Zuverlässigkeitswerte rechtfertigen Menschen mit guten Gründen anderen Menschen gegenüber, sich auf diese Programme zu stützen. Die Verantwortung wird jedoch nicht abgenommen. Es ist unsere Entscheidung, ob und in welchem Maße wir die Angaben eines KI-Programms als für uns verbindlich ansehen. Insbesondere humanoide Formen bei Robotern und generell humanisierende Ausdrucksweisen in Bezug auf die Technik verführen jedoch, wie oben angesprochen, dazu, moralische Verantwortung abschieben zu wollen und von sich zu weisen. Wir vermeinen, es gäbe hier schon eine uns vorgelagerte Entscheidungsinstanz, was jedoch, ich kann es nicht oft genug betonen, Illusion ist.

In bestimmten Kontexten käme die Möglichkeit, auf diese Weise Verantwortung abzuschieben, besonders gelegen. So weist Daniela Wachter, Professorin für Technologie und Regulierung am Internet Institute der Universität Oxford, in einem Interview mit Jakob Pflügl von der Tageszeitung Der Standard darauf hin, dass in der Strafjustiz die Neigung, Verantwortung abzuschieben, hoch sei, weil es um lebensverändernde Entscheidungen gehe: „Menschen sind geneigt, so etwas von sich wegzuschieben. Da kommt ein Algorithmus, der angeblich objektiv und fair entscheidet, gelegen“ [2]. Sie schlägt deshalb auch vor, dort, wo es um das Problem der in das Programm eingeflossenen Diskriminierung geht, die Grundannahme umzukehren: Grundsätzlich solle die Annahme lauten, ein Bias liege vor, und das Gegenteil wäre zu zeigen [2]. Da es in der Medizin häufig sogar um noch weiter reichende lebensverändernde Entscheidungen geht, ist hier die Gefahr, dieser Neigung zu unterliegen, ebenfalls besonders hoch. Daraus folgt einerseits, dass es bei der Qualitätssicherung zu keinerlei Abstrichen kommen darf – weder technisch noch rechtlich. Andererseits müssen diese „Neigungen“ ausdrücklich adressiert werden, und zwar sowohl auf persönlicher Ebene als auch in den Berufsgruppen.

Schlussbemerkungen

In einer zunehmend technisierten Medizin steigt ebenso die Bedeutung der Ethik. Dies insbesondere deshalb, weil die Zusammenhänge zwischen dem Zweck medizinischen Handelns und der damit zwangsläufig verbundenen ethisch-moralischen Dimension durch das Dazwischentreten von Technik nicht mehr so offensichtlich sind. Trotz der beeindruckenden technischen Möglichkeiten bleibt deshalb auch die Entscheidung, ob eine Patientin oder ein Patient diese nützen will, bei der dieser/diesem. Das mag einige zum Gähnen verleiten, für die Betroffenen kann es hingegen lebensentscheidend sein.

Eine nicht zu unterschätzende Gefahr entsteht gegenwärtig vor allem durch die irrtümliche Annahme, Verantwortung an KI-Systeme abtreten zu können. KI-Systeme können durchaus in vielen Anwendungsfeldern die Datenaufbereitung, Entscheidungsvorbereitung und Anwendungen effizient unterstützen, wie der mithilfe von ML entwickelte Kaiser-Score bei der MRT-Diagnostik zeigt (siehe dazu [3]). Dies gilt auch für textgenerierende KI-Systeme, die beim Durchforsten von Fachliteratur wertvolle Dienste leisten können, wenn sie sich, und dies ist der springende Punkt, auf verlässliche Datenquellen beschränken. Hier werden sicherlich noch sehr wichtige Hilfsmittel entwickelt werden. Trotz allen Fortschritts ist es jedoch nicht die KI, die die Verantwortung trägt und vertrauenswürdig zu sein hat. Vielmehr braucht es vertrauenswürdige und verantwortungsvolle Medizinerinnen und Mediziner, die nur zuverlässige Technik einsetzen.

Im Sinne ethisch-moralischer Gesichtspunkte und der Medizin wird es entscheidend sein, sich der Tendenz, Verantwortung abtreten zu wollen, bewusst und entschieden entgegenzustemmen, nicht nur auf technischer und rechtlicher, sondern auch auf persönlicher Ebene. Eine philosophische Ethik, die wissenschaftlich informiert und fundiert argumentiert und selbst die (latente) Technikfeindlichkeit manch geltender Moralsysteme hinterfragt, kann hierbei auf allen Ebenen unterstützen und einen bedeutenden Beitrag leisten.