Thema

Der Einsatz Künstlicher Intelligenz (KI), d. h. algorithmischer Systeme, die eigenständig komplexe Probleme lösen können, wird absehbar eine bedeutsame Rolle in der klinischen wie pflegerischen Praxis spielen. In der klinischen Praxis sind teilweise schon jetzt KI-Systeme im Einsatz, die diagnostische und therapeutische Entscheidungen unterstützen oder prognostisch arbeiten. Schon seit einigen Jahren werden etwa Systeme zur diagnostischen Unterstützung in der Radiologie getestet und diskutiert (Wu et al. 2020; McKinney et al. 2020). Damit einhergeht die Hoffnung auf schnellere, effizientere und effektivere Diagnosen und Entscheidungen sowie neue Therapie- und Prognosemöglichkeiten, insbesondere in der Big Data-basierten Medizin (d. h. in medizinischen Bereichen, die auf die Verarbeitung großer Mengen komplexer und unstrukturierter Daten angewiesen sind). In der pflegerischen Praxis spielt KI v. a. im Zusammenhang mit dem Einsatz von Pflegerobotern wie Paro oder Pepper eine Rolle, die pflegebedürftige Personen eigenständig animieren, mit diesen kommunizieren oder bestimmte pflegerische Tätigkeiten übernehmen sollen (Bendel 2018).

Diesen Erwartungen gegenüber steht eine Reihe ethischer Bedenken, etwa hinsichtlich möglicher Auswirkungen eines zunehmenden Einsatzes KI-basierter Systeme auf die ärztliche und pflegerische Rolle oder das Ärzt:innen-Patient:innen-Verhältnis. Darüber hinaus werden Fragen des Datenschutzes ebenso diskutiert wie mögliche gesellschaftliche Implikationen. Einen weiteren Schwerpunkt in der Debatte bilden die möglichen ethischen Implikationen der mangelnden Erklärbarkeit bzw. Explizierbarkeit von Diagnosen, therapeutischen Entscheidungen sowie Prognosen durch KI-basierte Systeme und ihre Bedeutung für Patient:innen bzw. die Interaktion zwischen Mensch und Medizintechnologie im Allgemeinen. Mit Blick auf den Einsatz von Pflegerobotern steht im Fokus der Debatten, unter welchen Bedingungen solche Systeme als vertrauenswürdig gelten können bzw. wie ein im Sinne pflegebedürftiger Personen angemessener Einsatz aussehen kann.

Die skizzierten Erwartungen an den Einsatz KI-basierter Systeme in Medizin und Pflege, wie auch insbesondere die damit verbundenen ethischen Herausforderungen, werfen darüber hinaus eine Reihe von Rechtsfragen auf. Von besonderer Bedeutung sind dabei Fragen zivilrechtlicher Haftung sowie strafrechtlich relevanter Verantwortung im Kontext des Einsatzes von KI-basierten Systemen. Insofern eine angewandt-ethische Reflexion neuer technologischer Entwicklungen grundsätzlich auch den geltenden Rechtsrahmen bzw. hier auftretende Lücken und Herausforderungen berücksichtigen muss, erscheint eine Auseinandersetzung mit diesen Fragen auch mit Blick auf die ethische Analyse geboten.

Beiträge

Das Themenschwerpunktheft ist einigen der zentralen ethischen und rechtlichen Herausforderungen gewidmet, die sich im Zusammenhang mit dem Einsatz von KI in Medizin und Pflege ergeben.

Frank Ursin, Felix Lindner, Timo Ropinski, Sabine Salloch und Cristian Timmermann gehen in ihrem Beitrag „Levels of explicability for medical artificial intelligence: what do we normatively need and what can we technically reach?“ der Frage nach, welches Maß an Explizierbarkeit erforderlich ist, um eine ethisch angemessene informierte Einwilligung durch Patient:innen in Kontexten des Einsatzes medizinischer KI-Systeme zu ermöglichen. Dazu unterscheiden die Autor:innen mit der Offenlegung (disclosure), der Verstehbarkeit (intelligibility), der Interpretierbarkeit (interpretability) und der Erklärbarkeit (explainability) zunächst vier Ebenen der Explizierbarkeit, die in ethisch angemessenen Einwilligungsprozessen relevant sein können. Im Anschluss zeigen sie Möglichkeiten ihrer technischen Umsetzung auf und argumentieren, dass Verstehbarkeit, Interpretierbarkeit und Erklärbarkeit nicht notwendig bzw. nicht in jedem Fall des Einsatzes medizinischer KI-Systeme zu gewährleisten seien, um eine ethisch angemessene informierte Einwilligung zu ermöglichen. Vielmehr seien die individuellen Bedürfnisse von Patient:innen im Einzelfall sowie die möglichen Folgen medizinischer Entscheidungen zu berücksichtigen: Patient:innen seien beispielsweise umso mehr Ebenen der Explizierbarkeit anzubieten, je invasiver und potenziell beeinträchtigender oder je weniger reversibel ein mit dem Einsatz medizinischer KI-Systeme verbundener medizinischer Eingriff sei.

Arne Manzeschke und Galia Assadi gehen in ihrem Beitrag „Künstliche Emotion – Zum ethischen Umgang mit Gefühlen zwischen Mensch und Technik“ davon aus, dass der derzeitige Diskurs um emotions- und soziosensitive Roboter in der Pflege eher Ausdruck eines technologischen Solutionismus als einer realitätsgerechten Beschreibung des pflegerischen Alltags sei. Mit Blick auf die weiterhin bestehenden technischen Herausforderungen einerseits sowie den derzeit lediglich vereinzelten Einsatz solcher Systeme sei es aus ethischer Perspektive weniger drängend, wie emotions- und soziosensitive Roboter bzw. ihr Einsatz in pflegerischen Kontexten konkret bewertet werden können. Zentral sei vielmehr eine Explikation jener normativen Aspekte, die im Rahmen der Entwicklung und des zukünftigen Einsatzes emotions- und soziosensitiver Roboter Beachtung finden sollten. Vor diesem Hintergrund skizzieren die Autor:innen Elemente eines anthropologisch-ethischen Analysemodells im Sinne einer fünfdimensionalen Heuristik, deren Dimensionen „Emotion“, „Interaktion“, „Kontext“, „Akteur“ und „Aktant“ angemessene Situationsanalysen erlauben sollten, auf deren Basis emotions- und soziosensitive Roboter entwickelt bzw. ethisch evaluiert werden könnten. Im Rahmen solcher Analysen sei insbesondere die Differenz zwischen menschlichen Emotionen einerseits und ihrer technischen Simulation andererseits zu berücksichtigen, um zu gewährleisten, dass sozioemotionale Systeme – wenigstens in bestimmten Kontexten – tatsächlich einen Beitrag zu Heilung, Therapie oder Steigerung von Lebensqualität leisteten.

Ines Schröder, Oliver Müller, Helena Scholl, Shelly Levy-Tzedek und Philipp Kellmeyer unterziehen das Konzept des Vertrauens im ethischen Diskurs um soziale Roboter in der Pflege unter dem Titel „Can robots be trustworthy? Reflections about responsive robots and trust as a human capability“ einer kritischen Analyse. Dazu explizieren sie zunächst die Bedeutung von Vertrauen im Kontext der Entwicklung und des Einsatzes von Pflegerobotern. Anschließend analysieren die Autor:innen Vertrauen als mehrdimensionales Phänomen, für das die Fähigkeit des Vertrauen-Könnens mit Blick auf den Aufbau von Beziehungen zentral sei. Aufgrund der damit verbundenen relationalen Aspekte seien „Vertrauen“ und „Vertrauen-Können“ prinzipiell responsiv und setzten responsive Andere notwendig voraus. Damit, so die Autor:innen, sei das Konzept der Responsivität zentral, um „Vertrauen-Können“ begrifflich zu fassen. Vor diesem Hintergrund untersuchen sie den Zusammenhang bestimmter responsiver Qualitäten von Robotern und menschlicher Vertrauensbereitschaft bei simulierter (virtueller) Responsivität und skizzieren abschließend einige ethisch relevante Implikationen für die Auszeichnung vertrauenswürdiger Roboter.

Im abschließenden Beitrag „Rechtliche Aspekte des Einsatzes von KI und Robotik in Medizin und Pflege“ beschäftigen sich Susanne Beck, Michelle Faber und Simon Gerndt zunächst mit den zivil- und strafrechtlichen Herausforderungen des Einsatzes von Machine Learning (ML)-basierten Systemen in Medizin und Pflege. Angesichts ihres Black Box-Charakters stelle sich die juristische Kernfrage, wem etwa die Entscheidungen solcher Systeme normativ zuzurechnen seien. Dabei sei die naheliegende Position, solche Entscheidungen dem jeweils letztentscheidenden Menschen zuzurechnen, nicht in allen Situationen überzeugend. Darüber hinaus ergäben sich nach Auffassung der Autor:innen schwierige Fragen hinsichtlich der Zulassung von ML-Systemen im medizinischen und pflegerischen Bereich, insbesondere mit Blick auf den Umstand, dass solche Systeme in Nutzungskontexten weiterlernen und damit ihren strukturellen Aufbau kontinuierlich veränderten. Vor diesem Hintergrund sei es notwendig, frühzeitig einen praxisgerechten Handlungsrahmen zu schaffen.