1 Einleitung

In ihrem Artikel „Robots Should be Slaves“ plädiert Joanna J. Bryson dafür, intelligente Roboter als eine neue Form von Sklaven zu betrachten und zu behandeln. Danach sollten wir zukünftige Roboter so konstruieren und konzeptuell einstufen, dass wir ihnen ohne moralische Skrupel eine reine Dienerrolle bei der Verwirklichung menschlicher Zwecke zuweisen können. In diesem Zusammenhang weist sie insbesondere Vorstellungen zurück, intelligente Roboter seien als Personen einzustufen:

A robot can be a servant without being a person. (…) It would be wrong to let people think that their robots are persons. (Bryson 2010, 65)

Bryson betrachtet zukünftige Roboter zudem als Entitäten, die ein Besitztum von Menschen sind: „Robots are fully owned by us“ (a.a.O. 63). David Gunkel fast die normativen Konsequenzen dieses Standpunktes wie folgt zusammen:

Robots are property. No matter how capable they are, appear to be, or may become; we are obligated not to be obligated by them. (Gunkel 2018, 93)

Die Aussicht auf eine Sklavenhaltergesellschaft 2.0, die uns Menschen zukünftig eine ähnlich weitgehende Freiheit von mühseligen Tätigkeiten beschert, wie sie einst der antiken Bürgergesellschaft beschieden war, und die sich zugleich ohne moralische Verfehlung einrichten lässt, mag fraglos attraktiv erscheinen. Dennoch sind starke Zweifel angebracht, ob es für die Ausstellung des moralischen Persilscheins ausreicht, sicherzustellen, dass zukünftige Roboter keine Personen sind – und dass sie auch nicht die Fähigkeit besitzen zu leiden, wie man fraglos noch hinzufügen sollte. Denn in Zukunft wollen wir es ja mit intelligent agierenden Sklaven zu tun haben – für die rein physische Sklavenarbeit, die in der antiken Welt meist üblich war, haben wir schließlich schon seit Jahrhunderten geeignete Maschinen. Doch dürfen wir eine intelligente Entität, selbst wenn sie nicht leidensfähig ist und auch keine Person darstellt, tatsächlich so ohne weiteres als bloßes Mittel zu unseren Zwecken und als persönlichen Besitz betrachten? Diese Frage, die in dieser Form in bisherigen Debatten zur Ethik der KIFootnote 1 kaum ausführlicher diskutiert wird, mag auf den ersten Blick überraschend klingen. Dass sie aber dennoch ihre Berechtigung hat, wird klar, wenn man sich zwei Dinge vor Augen führt: Zum einen den Umstand, dass Intelligenz – auch wenn der Inhalt dieses Begriffs im Kontext der KI notorisch umstritten ist – in einem engen Zusammenhang steht mit Rationalität und Vernunft; und zum anderen, dass Rationalität bzw. Vernunft innerhalb einer wirkmächtigen philosophischen Tradition stets als dasjenige Merkmal gegolten hat, dass uns Menschen unsere spezifische Würde verleiht und damit auch genau jenen herausgehobenen moralischen Status, der eine versklavende Instrumentalisierung zu fremden Zwecken ethisch verbietet. Könnte es daher sein, dass wir uns mit dem Vorhaben, intelligente Entitäten zu konstruieren, die für uns die Rolle von Sklaven übernehmen sollen, in eine ethische Inkohärenz begeben?

Ich möchte im Folgenden nicht die These vertreten, dass diese Art der Inkohärenz tatsächlich besteht oder droht. Ein Ziel meiner Überlegungen ist jedoch, darauf aufmerksam zu machen, dass das Projekt einer Sklavenhaltergesellschaft 2.0 es im Vorfeld erfordert, sich genauer, als dies bis dato geschehen ist, darüber Rechenschaft abzulegen, welche systematische Beziehung eigentlich zwischen der Intelligenz intelligenter Roboter und denjenigen menschlichen Fähigkeiten besteht, auf die wir unsere traditionelle Vorstellung von Menschenwürde gründen. Denn auch wenn beim Menschen in den allermeisten Fällen und Situationen außer Zweifel steht, dass es sich bei den jeweiligen Würdeträgern um Personen und auch um bewusste Subjekte handelt, scheint es zumindest nicht von vornherein begrifflich ausgeschlossen zu sein, dass die würdeverleihenden Aspekte der Vernunft auch in Entitäten instantiiert sein könnten, die ansonsten so konstruiert sind, dass sie weder als Personen noch als Subjekte bewusster Erfahrungen gelten können und daher zum Beispiel auch nicht leidensfähig sind. Und ebensowenig lässt sich von vornherein ausschließen, dass diese Aspekte zukünftige KI-Systeme dennoch mit einer Art von Würde oder einem der Würde verwandten moralischen Status ausstatten könnten, der ihre radikale Instrumentalisierung dann problematisch erscheinen ließe.

In den einschlägigen Debatten über das mögliche Erfordernis der moralischen Rücksichtnahme auf Maschinen, die mit künstlicher Intelligenz ausgestattet sind, hat allerdings der Gesichtspunkt der Würde bisher kaum eine größere Rolle gespielt. Stattdessen geht es dort einerseits um das generelle Problem, ob einem KI-System überhaupt ein Status als „moral patient“ zukommen kann oder ob dies nicht von vornherein ausgeschlossen ist, wenn man das fragliche System zum Beispiel kategorial als technisches Instrumentarium einstuft oder, wie bei Bryson, als Besitztum (vgl. hierzu Gunkel 2018, 89 f.; sowie Bryson 2010, 63). Andererseits wird debattiert, anhand welcher Kriterien wir intelligenten Robotern mentale Eigenschaften zuschreiben könnten, die sie gegebenenfalls als moral patients qualifizieren würden (Danaher 2020; Shevlin 2021). Und hierbei richtet sich der Fokus – neben Rationalität – häufig auf Eigenschaften wie Bewusstsein, Selbstbewusstsein, Gefühle, Präferenzen, Empfindungs- und Leidensfähigkeit (Singer und Sagan 2009; Levi 2009; Coeckelbergh 2010, 210 ff.; ders. 2018, 146 f.; Neely 2013; Shevlin 2021; Danaher 2021) oder auf den Besitz intrinsischer Interessen unterschiedlicher Art sowie das Erfordernis ihres Schutzes (Neely 2013; Basl 2014; Coeckelbergh 2018, 146 f.; Shevlin 2021).

Wo das mögliche moralische standing näher konkretisiert wird, ist neben der Berücksichtung von Interessen häufig relativ abstrakt von möglichen „moralischen Rechten“ für Roboter die Rede (vgl. den Überblick bei Levi 2009, 212 ff.; Singer und Sagan 2009; Coeckelbergh 2010, 210; Neely 2013, 106 f.; Coeckelbergh 2018, 146 f.; Gunkel 2018; Shevlin 2021). Diese Thematik verweist zwar indirekt auf die WürdethematikFootnote 2, doch auch sie fällt nicht mir ihr zusammen, insbesondere nicht innerhalb der angelsächsisch geprägten Diskurstradition.

In manchen Fällen werden durchaus Merkmale als moralisch relevante Fähigkeiten genannt, die tradionell als würdeverleihend eingestuft wurden. Hierzu zählen neben Verstandestätigkeit (sapience) auch allgemeine Intelligenz sowie Autonomie, Personalität oder Willensfreiheit, die jeweils als mögliche Grundlage eines Status als moral patient oder sogar als Basis moralischer Rechte Erwähnung finden (Sparrow 2004; Coeckelbergh 2010; ders. 2018; Neely 2013; Bostrom und Yudkowski 2014; EU Report 2016; Shevlin 2021). Doch auch in diesen Fällen kommt der Zusammenhang mit der möglichen Zuschreibung von Würde nicht dezidierter zur Sprache.Footnote 3

Macht man sich die eingangs skizzierte Verknüpfung mit dem strikten Instrumentalisierungsverbot klar, liegt allerdings auf der Hand, dass die roboterethische Reflexion die Würdethematik ebenfalls ernst nehmen sollte.Footnote 4 Nicht mit dem Ziel, am Ende KI-Systeme tatsächlich in den Kreis der Würdeträger aufzunehmen, sondern um explizit zu prüfen, welche Gründe für und welche Gründe gegen eine solche Zuschreibung sprechen, aber auch um gegebenenfalls im Zuge dieser Prüfung umgekehrt die systematische Tragfähigkeit kritisch zu hinterfragen, die das traditionelle, vernunftbasierte Würdekonzepts angesichts der neuartigen Beispielsphäre intelligent agierender Maschinen noch beanspruchen kann.

Eine nähere Untersuchung des Verhältnisses, das zwischen der Intelligenz von KI-Systemen und traditionellen Würdekonzepten besteht, ist jedoch auch noch aus einem weiteren Grund von Interesse. Es stellt sich nämlich die Frage, ob durch die Entwicklung intelligenter Maschinen, die den Menschen in vielen Bereichen kognitiv einholen oder ihm in Zukunft sogar überlegen sein könnten, nicht überdies ein zusätzlicher Aspekt der herkömmlichen Vorstellung menschlicher Würde systematisch untergraben wird: nämlich jene Idee, nach der die besondere Würde unserer Gattung darin besteht, die einzigen vernunftbegabten Wesen zu sein. Auch hierzu möchte ich im Folgenden einige Betrachtungen anstellen.

Die Überlegungen zu beiden Fragestellungen werden allerdings keine definitven Problemlösungen bieten. Vielmehr nehmen sie ihrer Tendenz nach einen aporetischen Charakter an. Diese Aporetik lässt es letztlich sogar ungewiss erscheinen, ob sich das traditionelle Konzept einer auf Vernunftfähigkeit gegründeten Menschenwürde im Zeitalter künstlicher Intelligenz überhaupt noch sinnvoll aufrechterhalten lässt.

2 Vorklärungen: Begriffliche Prämissen und Unterscheidungen

2.1 Würdeverleihende Merkmale: Vernunft vs. Autonomie, Moralität oder Willkürfreiheit

Zunächst gilt es, eine gewisse Beschränkung der Reichweite der nachfolgenden Überlegungen hervorzuheben. Wie zuvor beschrieben, soll es im Folgenden um Implikationen der Annahme gehen, dass Vernunft bzw. Rationalität dasjenige Merkmal bildet, in dem die besondere Würde des Menschen gründet. Denn speziell aufgrund dieser Prämisse wird die Würdethematik für die ethische Einordnung von KI-Systemen in besonderer Weise relevant. Die genannte Voraussetzung knüpft zudem an ein einflussreiches, traditionelles Würdeverständnis an, das bis heute etliche Anhänger hat (vgl. Schaber 2010, 88; sowie den Überblick in Werner 2004, 200 ff.). Dennoch ist sie keineswegs alternativlos. Die bis in die Antike, zur Stoa und Cicero, zurückreichende Vorstellung, die spezifische Würde des Menschen entspringe seiner Vernunftbegabung, ist nicht die einzige geistesgeschichtlich wirkmächtige Auffassung. Neben der Vernunftfähigkeit wurden häufig auch andere würdeverleihende Merkmale propagiert, insbesondere die radikale Freiheit des menschlichen Willens, die Autonomie dieses Willens und die Fähigkeit zur moralischen Orientierung.

Die beiden letztgenannten Merkmale hängen allerdings im traditionellen Denken sehr eng mit dem der Vernunft zusammen. Insbesondere bei Kant gehen alle drei Bestimmungen dergestalt Hand in Hand, dass Vernunft, Autonomie und Moralität nahezu drei Seiten ein und derselben Fähigkeit bilden.Footnote 5 Und auch die Stoa und Cicero betrachten die Vernunft, auf der die besondere Würde des Menschen basiert, ganz wesentlich als eine praktisch wirksame Vernunft, die mit der Regentschaft über die Leidenschaften und Triebe und mit der Freiheit von deren Diktat zumindest ein negatives Element von Freiheit einschließt.Footnote 6 Hingegen erklären Autoren wie Augustin, Pico della Mirandola oder Margalit die Fähigkeit zur freien Wahl zwischen Gut und Böse bzw. zur radikal freien Wahl der Lebensform zur Quelle menschlicher Würde, wobei diese Wahlfreiheit eher Züge einer existenziellen Willkürfreiheit trägt als Züge einer vernunftbestimmten Orientierung.Footnote 7 Daher handelt es sich um ein würdeverleihendes Merkmal, das eine echte Alternative zur Eigenschaft der Vernunftbegabung bildet.Footnote 8 Diese alternative Konzeption wird allerdings im Rahmen meiner Überlegungen ausgeblendet.Footnote 9

Im Folgenden wird ein inklusiver Vernunftbegriff zugrunde gelegt, der sowohl kognitive Leistungen als auch praktische Vernunft in einem relativ allgemeinen Sinne einschließt. Es ist damit die doppelte Fähigkeit gemeint, sowohl die eigene Überzeugungsbildung auf rationale Gründe zu stützen als auch die eigene Willensbildung und das zielgerichtete Verhalten. Es soll also Vernunft in diesem umfassenden Sinne als mögliches würdeverleihendes Merkmal betrachtet werden. Nach diesem Verständnis beinhaltet Vernunft zugleich ein Element von Autonomie, sofern letztere so aufgefasst wird, dass sie im Wesentlichen in der Orientierung des eigenen Wollens und Verhaltens an solchen Gründen besteht, die man selbst als maßgebliche und gute Gründe einsieht – wobei dies, anders als bei Kant, nicht notwendigerweise auch eine sittliche Orientierung einschließt, eine solche aber durchaus einschließen kann. Die Frage, ob auch KI-Systeme Vernunft in diesem inklusiven Sinne manifestieren, kann sich demnach sinnvollerweise nur mit Blick auf solche Systeme stellen, die auch als zielgerichtete Aktoren innerhalb der Welt tätig sind. Wie wir im nächsten Abschnitt sehen werden, kommen aus geistphilosophischen Gründen jedoch wohl ohnehin nur Robotersysteme, die diese Bedingung erfüllen, als potenzielle Träger von Rationalität in Frage.

2.2 Individualwürde vs. Gattungswürde

Eine weitere wichtige Unterscheidung betrifft das logische Subjekt der Würde. Gewöhnlich und primär schreiben wir in ethischen Kontexten Würde Individuen zu, die die dafür nötigen begrifflichen Voraussetzungen erfüllen, wobei, wie wir gesehen haben, über diese Voraussetzungen kein allgemeiner Konsens besteht. Darüberhinaus gibt es jedoch auch einen gattungsbezogenen Würdebegriff, wenngleich dieser in heutigen ethischen Debatten nur am Rande eine Rolle spielt. Das logische Subjekt der Würde ist dabei nicht das einzelne menschliche Individuum, sondern die menschliche Spezies in ihrer Gesamtheit bzw. das Kollektivsubjekt der Menschheit, das als Trägerin einer spezifischen Form der Würde aufgefasst wird (vgl. hierzu Birnbacher 2004; Werner 2014, 347 f.; Bos und Riley 2022, sec. 3 b iii.). Ein Beispiel für diese Sichtweise, das dem Bereich der Bioethik entstammt, ist die Intuition, dass die Verwischung der Speziesgrenze bei der Herstellung von Mensch-Tier-Chimären die Menschenwürde untergräbt, womit nicht die Verletzung der individuellen Würde des entstandenen Mischwesens gemeint ist, sondern vielmehr eine Erschütterung der Gattungsidentität und der damit verbundenen Spezieswürde.Footnote 10 Dieser gattungsbezogene Würdebegriff ist für meine Überlegungen ebenfalls von Interesse. Denn das Unbehagen, das der Vorstellung entspringt, es zukünftig womöglich mit kognitiv gleichrangigen oder sogar überlegenen KI-Systemen zu tun zu bekommen, kann auch so interpretiert werden, dass wir hierdurch ein Stück unserer Gattungsidentität untergraben sehen, die wir darin erblicken, die einzigen existierenden Vernunftwesen zu sein, und auf die wir zugleich eine Art Gattungsstolz gründen, mit dem sich eine kollektiv empfundene Würde verbindet.

3 Künstliche Intelligenz, Intentionalität und Bewusstsein

Die nachfolgende Erörterung basiert auf zwei substanziellen systematischen Voraussetzungen. Sie betreffen die grundsätzliche Frage, inwieweit KI-Systeme überhaupt zu mentalen Leistungen fähig sind, die genuiner Intelligenz oder gar Vernunft entsprechen. Hierüber herrscht unter Philosophinnen und Philosophen bekanntlich seit Jahrzehnten Dissens. Während technophil und naturalistisch orientierte Stimmen zu der Auffassung tendieren, dass zwar noch nicht heutige Computer und Roboter, wohl aber zukünftige Maschinen dieses Typs in den Besitz von mentalen Attributen wie Intelligenz, Intentionalität und/oder sogar Bewusstsein gelangen könntenFootnote 11, weisen andere Autoren diese Vorstellung zurück und argumentieren, dass es sich bei computergenerierter Intelligenz um eine weitgehend unrealistische Zielsetzung handelt oder bestenfalls um eine Art von Als-ob-Intelligenz (Searle 1980; Dreyfuss und Dreyfuss 1986; Dreyfuss 1992; Gabriel 2020).

Zu dieser komplexen Debatte auf philosophisch fundierte Weise Stellung zu beziehen, ist im Kontext dieses Essays nicht möglich. Stattdessen möchte ich von zwei Prämissen ausgehen, für die ich nicht ausführlicher argumentieren werde, von denen ich hier aber zwei Dinge behaupten möchte. Nämlich erstens, dass sie zumindest eine prima facie-Plausibilität beanspruchen können. Und zweitens, dass sie von einer hinreichend großen Anzahl zeitgenössischer Denkerinnen und Denker geteilt werden dürften, um keine völlig exotische Position zu exemplifizieren.

Hierbei handelt es sich um:

Prämisse P1

Es ist durchaus denkbar, dass wir in Zukunft KI-Systeme entwickeln werden, denen wir zu Recht – also nicht nur in einem Als-ob-Modus – intentionale Zustände (erster und ggf. auch höherer Stufe) zuschreiben können und somit Intelligenz und auch Rationalität in einem philosophisch belastbaren Sinne.

Prämisse P2

Es ist höchst zweifelhaft, ob wir jemals technische Systeme entwickeln können, die im Besitz von phänomenalem Bewusstsein sein werden.

Beide Prämissen seien im Folgenden ein wenig näher erläutert.

3.1 KI-Systeme und Intentionalität

Die prima-facie-Plausibilität von P1 gründet darin, dass die Philosophie des Geistes in den zurückliegenden Jahrzehnten die begriffliche Natur intentionaler Zustände – die Art ihres Gehalts, ihre wechselseitige strukturelle und logische Vernetzung und ihre konstitutive Beziehung zu Rationalitätsstandards sowie zu beobachtbarem Verhalten und der wahrnehmbaren Umgebung – gründlich erforscht hatFootnote 12 und dabei eine Reihe zwar bis heute kontrovers debattierter, aber nicht von vornherein abwegiger Vorschläge ausgearbeitet hat, wie sich solche Zustände im Rahmen einer im weiten Sinne funktionalistischenFootnote 13 – oder ggf. auch interpretationistischen (vgl. hierzu Dennett 1978, 1987; Davidson 1980, 23,24,a, b) – Betrachtungsweise in ein naturalistisches Weltbild integrieren lassen. Es erscheint daher aus heutiger Sicht nicht unplausibel zu vermuten, dass diese unterschiedlichen explanatorischen und analytischen Ansätze in der Zukunft auf ein einigermaßen überzeugendes Erklärungsmodell hin konvergieren werden, das man dann vielleicht als eine Grand Unified Theory of Intentionality (GUTI) bezeichnen könnte. Eine solche GUTI dürfte wohl am ehesten im Kern einen funktionalistischen Charakter haben, ergänzt um Prinzipien des semantischen ExternalismusFootnote 14 und der konstitutiven Rolle von Rationalitätsstandards (vgl. hierzu Dennett 1978, 1987; Brandom 1994, 5; Davidson 2001a; ders. 2004), sowie ggf. auch um ein Modell interner mentaler Repräsentationen, wie sie im Rahmen des Language of Thought-AnsatzesFootnote 15 konzipiert wurden.Footnote 16

Gemäß einem solchen zukünftigen Erklärungsmodell könnte dann im Prinzip die Möglichkeit bestehen, intentionale Zustände und, damit einhergehend, zumindest eine basale Form der Rationalität auch KI-Systemen zuzuschreiben, und zwar in einem nicht-derivativen Sinne. Voraussetzung wäre, dass diese Systeme ein hinreichend komplexes – ggf. auch normativ deutbaresFootnote 17 –, durch kausale Wechselwirkungen interner Zustände gesteuertes Verhalten in Interaktion mit ihrer Umwelt an den Tag legen – und, je nach konkretem Theorietyp, gegebenenfalls auch über so etwas wie „künstliche Bedürfnisse“Footnote 18 verfügen sowie über die Fähigkeit zur linguistischen Interaktion. Insbesondere die letztgenannte Voraussetzung scheint, wie Analysen von Davidson, Brandom und anderen Autoren nahelegen (Brandom 1994; Davidson 2001b, 95-106; Glock 2005), für eine vollwertige Form der Intentionalität, die die urteilende Anwendung von Begriffen beinhaltet, unabdingbar zu sein. Daher werde ich mir diese Auffassung im Folgenden zu eigen machen, woraus sich nicht zuletzt die Konsequenz ergibt, dass von vornherein nur sprachlich kommunizierende KI-Systeme – nicht aber z. B. auch sprachunfähige Tiere – als mögliche Träger einer für Würde relevanten Form der Rationalität in Frage kommen.

Bei dieser Form der Rationalität, die mit tatsächlicher Intentionalität einherginge, würde es sich nicht lediglich um eine Als-ob-Intelligenz handeln.Footnote 19 Aus dem funktionalistischen Kernerfordernis sensorischer Inputs und gezielter Verhaltensoutputs folgt allerdings, dass keine reinen Computersysteme, sondern nur solche Apparaturen, bei denen es sich um computergesteuerte Roboter handeltFootnote 20, überhaupt als Kandidaten für die ernsthafte Zuschreibung intentionaler Zustände in Betracht zu ziehen sind.Footnote 21

3.2 KI-Systeme und Bewusstsein

Was Prämisse P2 betrifft, so basiert deren Plausibilität in erster Linie auf dem gegenwärtigen Stand des Nicht-Wissens. Bis heute existiert keine entwickelte philosophische Theorie des Bewusstseins, die die interne begriffliche Natur von Bewusstseinsphänomenen sowie deren mögliche systematische Beziehung zu physikalischen Zuständen auf eine ähnlich klar umrissene und konzeptuell präzise nachvollziehbare Weise beschreibt und verständlich macht wie dies die zuvor erwähnten funktionalistischen Analysen mit Blick auf intentionale Zustände tun.Footnote 22 Daher gibt es auch keine theoretischen Anhaltspunkte, auf die sich die begründete Vermutung stützen ließe, dass auch eine komplex strukturierte Entität, die über kein biologisches Gehirn verfügt, bewusste Erlebnisse haben könnte.Footnote 23 Eine solche Vermutung wäre letztlich ebenso wenig durch konkretere und stichhaltige explanatorische Modelle fundiert wie beispielsweise die Behauptung, dass Galaxien oder das Internet über ein Bewusstsein verfügen, und stünde daher, was ihre Glaubwürdigkeit betrifft, im Grunde genommen auf derselben Ebene wie diese. Im Gegensatz hierzu verfügt der funktionalistische Ansatz zumindest über ein verständliches generelles Modell dafür, wie intentionale Zustände in einer nicht-biologischen hardware implementiert sein können.

Zusammengenommen lässt sich aus P1 und P2 folgern, dass wir keinen plausiblen Grund zu der Annahme haben, dass zukünftige KI-Systeme, die gegebenenfalls über echte Intentionalität verfügen werden, zugleich auch über Bewusstsein verfügen werden – selbst wenn sich dann ihr beobachtbares Verhalten womöglich kaum oder gar nicht vom Verhalten bewusster Lebewesen unterscheiden lassen sollte. Entsprechende Apparaturen wären folglich als Zombies einzustufen, oder genauer gesagt, um eine Formulierung von Bostrom und Yudkowski aufzugreifen, als „sapient zombies“.Footnote 24 Die begriffliche Möglichkeit von sapient zombies besteht unter anderem deshalb, weil intentionale Zustände wie Überzeugungen oder Absichten, anders als Empfindungen, Gefühle oder phänomenal gehaltvolle Wahrnehmungen, nicht zwangsläufig eine subjektive Erlebnisseite (sogenannte Qualiaaspekte) beinhalten müssen – wobei im Zombie-Fall dann auch die sensorisch vermittelten Interaktionen des intentionalen Akteurs mit seiner wahrnehmbaren Umwelt so zu deuten wären, dass sie ohne bewusstes Erleben ablaufen, indem sie lediglich auf blinden und zugleich verlässlichen Dispositionen zu differenzierenden Reaktionen basieren.Footnote 25

3.3 Sapient Zombies als Würdeträger?

Nehmen wir also an, es würden in Zukunft KI-Systeme entwickelt, die aufgrund ihrer komplexen Interaktion mit der Welt sowie aufgrund ihrer Fähigkeit zur sprachlichen Interaktion als sapient zombies klassifizierbar wären. Dürften wir sie, da sie ja laut Voraussetzung nichts empfinden und somit auch an ihrer Situation nicht leiden könnten, als Sklaven behandeln und unseren Zwecken nach Belieben unterwerfen? Oder bliebe uns eine solche Form der totalen Instrumentalisierung deshalb verwehrt, weil wir ihnen aufgrund der spezifischen Form ihrer Intelligenz, zumindest in Ansätzen, so etwas wie eine Würde im kantischen Sinne zubilligen müssten? In jedem Fall scheint zu gelten, dass die Zuschreibung von intentionalen Zuständen zwingend mit der Zuschreibung von Rationalität Hand in Hand gehen muss, da solche Zustände stets ein holistisches Muster bilden, das Prinzipien rationaler Konsistenz unterliegt.Footnote 26 Und sofern es sich bei den betreffenden Zuständen um genuine Intentionalität handelt, kann offenbar auch die damit verbundene Rationalität nicht lediglich in einem bloßen Als-ob-Modus vorliegen.

Darüber hinaus gilt, dass diese robuste Form der Rationalität zugleich ein Element praktischer Autonomie beinhalten wird, indem die fraglichen intentionalen Zustände bei sapient zombies unter anderem als rationale Gründe für einen zielgerichteten Verhaltensoutput fungieren müssen. Letztere Implikation ergibt sich aus der Logik des im weitesten Sinne funktionalistischen Erklärungsmodells der Intentionalität, mit dem die hier postulierte zukünftige GUTI voraussichtlich operieren wird. Zudem lässt sich, wie zuvor bereits angedeutet, ein durch rationale Gründe gesteuertes Verhalten – das u. a. durch eigene Wünsche und Zielsetzungen gelenkt wird, die ihrerseits im Lichte rationaler Schlussfolgerungen herausgebildet werden – unter einen weit gefassten Begriff der praktischen Autonomie subsumieren, wie er in manchen Autonomiekonzeptionen analytischer Provenienz sowie auch in der Maschinenethik Verwendung findet.Footnote 27

Folgt aus alledem nun aber nicht in der Tat, dass wir entsprechenden KI-gesteuerten Robotern dann auch jene Form der Würde zubilligen müssen, die gemäß der im vorigen Abschnitt beschriebenen, traditionellen Sichtweise ihren Grund in der Vernunftnatur sowie in der damit verbundenen praktischen Autonomie rationaler Wesen hat? Mir scheint, dass wir bei der Beantwortung dieser Frage widerstreitenden Impulsen unterliegen: Während auf der einen Seite unsere Verpflichtung zur Konsistenz uns dazu zu nötigen scheint, die genannte Schlussfolgerung tatsächlich zu ziehen, sofern wir an der traditionellen Idee von Rationalität als würdeverleihender Eigenschaft festhalten wollen, steht dem auf der anderen Seite ganz offenkundig eine starke Intuition entgegen, die sich gegen die Vorstellung sträubt, eine Maschine könne Trägerin jener normativ gehaltvollen Form von Würde sein, die wir bis dato als das Privileg menschlicher Personen angesehen haben. Diesen Widerstreit und seine möglichen Konsequenzen möchte ich im Folgenden etwas genauer beleuchten.

4 Künstliche Intelligenz, Vernunft und vernunftbasierte Würde

Die Intuition, dass es normativ verfehlt und konzeptuell unangemessen wäre, einer Maschine, die über die Fähigkeiten eines sapient zombie verfügt, den moralischen Status eines Würdeträgers zuzuerkennen, werden vermutlich die meisten Menschen unmittelbar teilen. Sie lässt sich überdies durch eine Überlegung bestärken, die sich an ein Gedankenexperiment von Robert Sparrow anlehnt. Hierbei handelt es sich um den sogenannten Turing Triage Test, der in Analogie zu dem berühmten Turing Test ein Kriterium dafür an die Hand geben soll, ob ein KI-System einen dem Menschen vergleichbaren moralischen Status einnimmt. Dies ist nach Sparrow genau dann der Fall, wenn in einer dilemmatischen Triage-Situation ein Mensch durch das KI-System dergestalt ersetzbar ist, dass diese Substitution den dilemmatischen Charakter der Situation nicht verändert, der sich u. a. darin zeigt, dass man gegenüber dem Menschen, den man gegebenfalls sterben lassen muss, dennoch schwere Gewissensbisse hegt (Sparrow 2004, 209).

Sparrows Version des Gedankenexperiments ist nicht speziell auf den moralischen Status zugeschnitten, Würdeträger zu sein, lässt sich aber an unsere spezifischere Fragestellung anpassen: Werden Menschen als Träger von Würde betrachtet, so schließt das damit verbundene Instrumentalisierungsverbot gemäß der hier zugrunde gelegten, an Kant orientierten Lesart von vornherein die Berechtigung aus, das Leben eines Menschen gezielt zu opfern, um das Leben einer sehr viel größeren Anzahl anderer Menschen zu retten.Footnote 28 Hieraus folgt, dass es in analoger Manier niemals moralisch gerechtfertigt sein könnte, die Zerstörung eines sapient zombie herbeizuführen, um mehrere Menschenleben zu retten, falls sapient zombies tatsächlich Würdeträger wären. Wäre zum Beispiel ein sapient zombie als Kellner auf einem in Seenot geratenen Kreuzfahrtschiff beschäftigt, wäre es danach moralisch unzulässig, ihn aus einem Rettungsboot zu stoßen und im Meer untergehen zu lassen, um fünf dort schwimmende Menschen, die zusammen so viel wiegen wie der Roboter, in das Boot aufnehmen zu können.Footnote 29 Diese Konsequenz erscheint jedoch so kontraintuitiv, dass man sie als reductio ad absurdum der Würdezuschreibung auffassen kann.

An dieser Stelle mag man vielleicht einwenden wollen, dass die streng kantianische Prämisse der gesamten Überlegung zu restriktiv sei. Vielmehr müsse aus heutiger Sicht jede moralisch tragfähige Konzeption von Würde von vornherein Raum für die Option lassen, dass in einer elementaren Notsituation ein Verstoß gegen das Instrumentalisierungsverbot auch moralisch entschuldbar sein kann, wenn er tatsächlich der Rettung einer signifikant größeren Anzahl von Menschenleben dient – so wie es ja auch generell Grenzen für die individuelle existenzielle Zumutbarkeit der Befolgung moralischer Regeln gibt.Footnote 30 Daher sei die unterstellte Implikation der Würdezuschreibung zu stark.Footnote 31

Ich bin mir nicht sicher, ob man einer solchen Aufweichung des Würdeschutzes tatsächlich in dieser Form zustimmen sollte. Allerdings würde auch diese Modifikation nichts am grundsätzlichen Ergebnis der Überlegung ändern. Denn selbst wenn man den Schritt mitginge, müsste die Opferung des Roboters dann noch immer mindestens mit nachträglichen schweren Gewissenbissen des von Sparrow beschreibenen Typs verbunden sein. Und auch diese schwächere Implikation erscheint intuitiv wenig plausibel.

Wie aber lässt sich die konträre Intuition, wonach mögliche zukünftige KI-Systeme trotz der ihnen zugeschreibbaren Rationalität keine Würde besitzen, systematisch rechtfertigen? Es nützt nichts darauf hinzuweisen, dass es sich bei denjenigen Entitäten, die wir bisher zur Klasse der Würdeträger gezählt haben, ausnahmslos um Personen gehandelt hatFootnote 32, die zudem nicht nur mit Rationalität, sondern darüber hinaus auch mit Bewusstsein begabt waren. Denn solange wir Vernunft bzw. Rationalität als das entscheidende würdeverleihende Merkmal betrachten, spielt es – jedenfalls mit Blick auf das im vorliegenden Kontext relevante Instrumentalisierungsverbot – anscheinend keine Rolle, ob die Elemente der Klasse der Würdeträger zusätzlich auch noch diese darüber hinausgehenden Merkmale besitzen.Footnote 33 Aus der bloßen Koextensivität der Eigenschaften folgt noch kein innerer Zusammenhang, der die logischen Kriterien der Zuschreibung von Würde bestimmt. Die Koextension kann genauso gut zufällig sein. Es bleibt daher eine nicht-triviale philosophische Herausforderung, die fragliche Intuition auf eine präzisere Rechtfertigungsgrundlage zu stellen.

4.1 Die Allgemeinheit der Vernunft

Eine mögliche Rechtfertigungsstrategie könnte darin bestehen, zu argumentieren, dass (zukünftige) KI-Systeme zwar tatsächlich Intentionalität und somit auch eine bestimmte Form von Rationalität und praktischer Autonomie exemplifizieren könnten, dass aber diese Form der Rationalität noch nicht an Vernunft in dem für Würde relevanten Sinne heranreicht. Doch welche spezifische Differenz könnte hierbei den Ausschlag geben? Eine denkbare Antwort lautet, dass die Allgemeinheit der Rationalität das entscheidende zusätzliche Kriterium bildet, also die Fähigkeit, in einer unbestimmt großen Anzahl völlig neuartiger Situationen und Problemlagen zu rationalen Entscheidungen und Lösungen zu gelangen. Bisher entwickelte KI-Systeme können nur in Rahmen sehr spezifischer Aufgaben- und Entscheidungsfelder rational anmutende Operationen vollziehen, und die Entwicklung einer generellen künstlichen Intelligenz (Artificial General Intelligence) gilt nach wie vor als die große noch ungelöste Herausforderung der KI-Forschung. Daher mag es vielleicht in Zukunft KI-Systeme geben, die zwar über echte Intentionalität und somit über Rationalität verfügen werden, deren Rationalität und deren auf Gründe gestütze praktische Entscheidungen sich jedoch nach wie vor auf ein relativ begrenztes Anwendungsfeld erstrecken, etwa auf die Zielsetzung globaler Transportdienste, einschließlich der flexiblen und spontanen Planung und Durchführung der sicheren eigenen Fortbewegung im weltweiten Bahn- und Straßenverkehr. Mit Blick auf solche Systeme ließe sich dann behaupten, dass sie, obwohl sie über echte Rationalität verfügen, dennoch keine Würdeträger seien, weil das würdeverleihende Merkmal im Fall des Menschen in Wahrheit nicht schon Rationalität als solche sei, sondern erst generalisierte Rationalität.Footnote 34

Interessant an einer solchen Argumentationsfigur wäre sicherlich, dass sie die Konfrontation mit KI-Systemen zum Anlass nähme, das traditionelle Verständnis vernunftbasierter Würde in ganz bestimmten Hinsichten zu präzisieren und dadurch zu vertiefen.Footnote 35 Es käme hierdurch ein kriterialer Aspekt ans Licht, der bisher verdeckt war. Der Grund für die Verdecktheit läge darin, dass die bis dato einzige Klasse vernünftiger Wesen mit der Klasse der Besitzer generalisierter Vernunft identisch war, so dass sich die Frage nach der würdeverleihenden Relevanz des Teilkriteriums der Generalität der Vernunft nicht gestellt hat. In Wahrheit, so würden wir erst durch die Konfrontation mit der KI lernen, wäre aber Rationalität sans phrase noch gar kein würdeverleihendes Merkmal.

Dennoch ist zweifelhaft, ob diese Argumentation das Problem tatsächlich löst. Denn erstens könnte man eine Erklärung fordern, warum es gerade die Generalität der Vernunft sein soll, die den würdeverleihenden Unterschied macht, und nicht zum Beispiel ihre Höchstleistung oder Exzellenz auf einem beschränkteren Gebiet. Zwar könnte man hiergegen einwenden, dass gerade auch die Generalität der Vernunft selbst als eine spezifische Form ihrer Exzellenz angesehen werden kann.Footnote 36 Doch wäre damit noch immer nicht die Frage beantwortet, warum gerade diese spezifische Ausformung von Exzellenz in Sachen Würdestatus relevanter sein sollte als eine bereichsbezogene hochklassige Ausprägung.

Zweitens können wir uns vorstellen, dass die algorithmischen Konstruktionsprobleme generalisierter künstlicher Intelligenz in der Zukunft dennoch irgendwann gelöst sein werden und wir es dann mit sapient zombies zu tun bekommen könnten, die über rationale Fähigkeiten von ähnlich breiter Allgemeinheit verfügen wie wir Menschen. Doch unser intuitives Urteil würde sich vermutlich auch bei dergestalt verbesserten KI-Systemen noch weiterhin dagegen sträuben, sie als Würdeträger einzustufen. Insbesondere mit Blick auf das zuvor geschilderte Rettungsbootszenario dürfte unsere normative Haltung sich dadurch kaum ändern.

4.2 Die Moralität der Vernunft

Es schient daher erforderlich zu sein, nach weiteren – oder ggf. auch alternativen – Merkmalen Ausschau zu halten, die diejenige Form der Vernunft, die die Grundlage menschlicher Würde bildet, selbst noch von einer generalisierten Form intentionalitätsgebundener Rationalität unterscheiden. Ein auf den ersten Blick relativ naheliegender Ansatz wäre wohl der, sich noch stärker an Kants spezifischer Konzeption der gleichursprünglichen Einheit von Vernunft, Autonomie und Moralität zu orientieren. Gemäß dieser Konzeption würde eine Form der praktischen Rationalität, die lediglich das eigene zielgerichtete Verhalten auf irgendwelche rationalen Gründe stützt, noch keine Vernunft und Autonomie in dem für Würde relevanten Sinne exemplifizieren. Vielmehr müssten hierfür solche Gründe im Spiel und handlungswirksam sein, die spezifisch moralischer Natur sind. Ein sapient zombie, der auf unbegrenzt vielen Tätigkeitsfeldern zu rationalen Entscheidungen gelangen kann, wäre durch diese Fähigkeit allein dann noch gar nicht im eigentlichen Sinne praktisch autonom und folglich auch kein Würdeträger.

Wie es scheint, löst jedoch auch dieser Vorschlag das Problem nicht wirklich. Denn die KI-Forschung beschäftigt sich ja bereits heute intensiv damit, KI-Systemen auch moralische Richtlinien zu implementieren, an denen sie sich in konkreten Entscheidungssituationen orientieren sollen. Die bekanntesten Beispiele hierfür sind die kontrovers diskutierten ethischen Normen für selbstfahrende Autos oder eigenständig operierende Kampfdrohnen.Footnote 37 Zwar manifestieren diese heute diskutieren KI-Systeme gewiss noch keine echte Intentionalität, doch wenn solche Systeme eines Tages den erforderlichen Grad an komplexer Aktivität und sprachlicher Kommunikationsfähigkeit aufweisen werden, um als sapient zombies gelten zu können, dürfte im Prinzip auch nichts dagegen sprechen, die ihnen eingegebenen ethischen Richtlinien als moralische Überzeugungen zu interpretieren, in deren Lichte sie ihr Verhalten steuern. Solche Artefakte würden dann nicht nur, als Bestandteil ihrer Rationalität, über praktische Autonomie in dem elementaren Sinne verhaltenwirksamer rationaler Gründe verfügen, sondern auch über moralisch-praktische Autonomie in einem anspruchsvolleren Sinne.

Gleichwohl dürfte auch angesichts solcher, moralisch versierter sapient zombies die Intuition weiterhin Bestand haben, dass es letztlich nicht stimmig wäre, derartige KI-Systeme in den Kreis der Würdeträger einzugemeinden. Denn dies hätte abermals zur Konsequenz, dass man eine „Triage“-Situation, in der man das Leben eines Menschen nur durch die Inkaufnahme der Zerstörung eines entsprechenden Roboters retten könnte, als ein tragisches Dilemma einstufen müsste, und dass man darüber hinaus den Roboter auf keinen Fall – oder aber in extremen Notsituationen nur unter größten Gewissensbissen – aktiv zerstören dürfte, um das Leben einer größeren Anzahl von Menschen zu retten. Vorausichtlich werden derart weitreichende normative Implikationen aber selbst im Falle eines moralisch handelnden sapient zombie nach wie vor inakzeptabel und kontraintuitiv anmuten. Um dieser widerstreitenden Intution gerecht zu werden, scheint es daher erforderlich zu sein, die Suche nach zusätzlichen Kriterien der vernunftbasierten Würdezuschreibung nochmals in eine ganz andere Richtung zu lenken. Ein mögliches Manöver dieses Typs möchte ich daher hier abschließend erörtern.

4.3 Die Bewusstseinseinbettung der Vernunft

Hierbei handelt es sich um die Schlussfolgerung, dass Vernunft in dem für Würde relevanten Sinne neben Intentionalität eben doch auch Bewusstsein und ggf. sogar „ich“-referenzielles Selbstbewusstsein beinhaltet. Konkreter könnte man in diesem Zusammenhang etwa behaupten, dass Vernunft in diesem engeren Sinne sich von derjenigen Form der Rationalität, die bereits mit dem holistischen Netzwerk intentionaler Zustände unauflöslich einhergeht, dadurch unterscheidet, dass sie in der rationalen Verarbeitung speziell solcher sensorischer Inputs besteht, die die Form subjektiv erfahrener, phänomenal gehaltvoller Wahrnehmungen annehmen, und dass dabei überdies alle rationalen Operationen ihrerseits als mentale Vollzüge von einem egologisch geformten Bewusstsein ihrer selbst begleitet werden.

Dieses Verständnis von Vernunft entspräche in etwa dem Kantischen Konzept des Verstandes, wonach alle Verstandesoperationen Synthesisleistungen darstellen, die eine begriffliche Ordnung in die Mannigfaltigkeit subjektiv gegebener Anschauungen bringen (Kant 1787, B 104, 136 f.) und die jederzeit vom selbstbewussten Akt des „ich denke“ begleitet werden (können) müssen (a.a.O., B 131 f.). Zusätzlich könnte man gebenenfalls noch fordern, dass auch die spezifisch moralischen Überzeugungen von einer speziellen subjektiven Empfindung begleitet werden müssen, die dem Gefühl der Achtung entspricht, das Kant als ein Kernelement praktischer Vernunft ansieht (Kant 1788, A 130-136). Solange KI-Systeme die schwierige Hürde der Ausbildung von phänomenalem Bewusstsein und egologischer Selbsttransparenz nicht nehmen, würden sie demzufolge auch noch nicht Vernunft in einem hinreichend vollumfänglichen, für den Besitz von Würde relevanten Sinne aufweisen – selbst wenn ihre generalisierte Rationalität auf der Ebene zombiehafter Intentionalität noch so beeindruckende Leistungen hervorbrächte.Footnote 38

Diese Sichtweise würde erklären, warum sapient zombies, die per definitionem über kein phänomenales Bewusstsein – und auch über keine innere Form der Selbsttransparenz – verfügen, ohne moralische Skrupel zerstört werden dürfen, um das Leben von Menschen zu retten, und gegebenfalls auch, warum sie den von Sparrow ursprünglich entwickelten Turing Triage Test nicht bestehen. Und umgekehrt würde folgen, dass durch die Hinzufügung phänomenalen Bewusstseins und genuinen „ich“-Bewusstseins sapient zombies tatsächlich die Schwelle überschreiten würden, die sie zu Würdeträgern macht.Footnote 39

Von speziellem Interesse wären bei dieser recht radikalen Argumentationsstrategie gleich zwei Aspekte. Zum einen würde die Konfrontation mit KI-Systemen dabei abermals zu einer Präzisierung und Vertiefung des herkömmlichen Verständnisses vernunftbasierter Würde führen. Mit der Komponente des Bewusstseins würde dabei ein weiterer verdeckter, bislang nicht explizit thematisierter Aspekt des relevanten Vernunftbegriffs in den Fokus gebracht, ein Aspekt, der deshalb zuvor unauffällig geblieben war, weil die Klasse der vernünftigen Wesen bis dato stets eine Teilklasse der bewussten Wesen gebildet hat. Erst die mögliche Konstruktion von sapient zombies lässt die Merkmale der Rationalität und des Bewusstseins extensional dergestalt auseinanderdriften, dass die Differenz der beiden Aspekte deutlicher in den Vordergrund tritt.

Darüber hinaus würde die beschriebene Argumentation die Diagnose nahelegen, dass die konträren Schlussfolgerungen und Intuitionen bezüglich der möglichen Würde von sapient zombies nicht zuletzt divergierenden Vernunftbegriffen der kontinentalen und der analytischen Philosophietradition entspringen. Denn der traditionelle und für das neuzeitliche Konzept vernunftbasierter menschlicher Würde zugleich paradigmatische Vernunftbegriff der kontinentalen Philosophie war – seit Descartes und Leibniz, bis hin zu Kant, dem Deutschen Idealismus und Husserl – stets eng an das bewusstseinstheoretische Paradigma des Philosophierens geknüpft und hat daher Vernunft stets von vornherein als ein Vermögen (selbst)-bewusster Subjekte konzipiert. Demgegenüber hat sich in der analytischen Tradition ein Rationalitätskonzept durchgesetzt, dass dieses Junktim so nicht kennt. Vielmehr ist das analytische Denken maßgeblich vom linguistischen Paradigma des Philosophierens geprägt, in dem Bewusstseinsvollzüge keine vergleichbar zentrale Rolle spielen und eine Kategorie des Subjekts nur marginal existiert.Footnote 40 Diesem alternativen, sprachphilosophischen Kontext entspringt auch jener sparsamere Rationalitätsbegriff, der Rationalität lediglich intern an intentionale Zustände – bzw. an „propositionale Einstellungen“ – bindet, die tendenziell einer naturalistisch-funktionalen Analyse zugänglich sind. Verknüpft man nun dieses sprachphilosophische Rationalitätskonzept mit einem vernunftbasierten Würdebegriff, erscheint daher die Schlussfolgerung unausweichlich, dass mindestens solche zukünftigen sapient zombies, die über eine generalisierte und moralisch imprägnierte Form intentionaler Rationalität verfügen, in den Kreis der Würdeträger rücken. Hingegen weist bei Zugrundelegung des kontinentalen Vernunftbegriffs die Intuition weiterhin in die entgegengesetzte Richtung.

Dennoch gibt es auch gegen diese Argumentationsstrategie naheliegende Einwände. Wenn die Dimension des Bewusstseins für den würdeverleihenden Charakter von Vernunft unverzichtbar ist, dann, so könnte man etwa entgegnen, stellt sich die Frage, warum nicht dem Bewusstsein selbst dabei die eigentliche würdeverleihende Kraft zukommt. Oder anders formuliert: Wäre es dann nicht konsequenter, anstatt das vernunftbasierte Würdekonzept mit immer weiteren Zusatzbedingungen anzureichern, von diesem Würdekonzept ganz abzurücken und ein bewusstseinsbasiertes Würdeverständnis an seine Stelle zu setzen? Damit hätte man dann eine scharfe Abgrenzung gegenüber zukünftigen KI- Systemen gezogen, wenngleich freilich mit der Konsequenz, dass man neben uns Menschen auch viele andere Tiere in den Kreis der Würdeträger aufzunehmen hätte.

Ein auf sämtliche bewusstseinsfähigen Lebewesen ausgeweiteter Würdestatus, der dann auch ein entsprechend erweitertes Instrumentalisierungsverbot einschlösse, erschiene allerdings aufgrund dieser praktischen Konsequenz ebenfalls kaum akzeptabel. Hierdurch sieht man sich wohl letztlich doch auf die zuvor beschriebene Position zurückgeworfen, die einen bewusstseinsgebundenen Vernunftbegriff zum Kriterium der Würde erhebt. Diese Sichtweise bleibt jedoch mit dem Problem behaftet, dass sie eine entscheidende Frage unbeantwortet lässt: die Frage, inwiefern denn eigentlich Würde auf der hybriden Kombination zweier sehr unterschiedlicher Arten mentaler Leistungen – einerseits auf intentionaler Rationalität und andererseits auf subjektivem Bewusstsein – basieren kann, wenn zugleich gilt, dass keine dieser beiden geistigen Fähigkeiten jeweils für sich betrachtet würdeverleihend ist. Ob sich auf diese Frage eine überzeugende Antwort geben lässt, erscheint zweifelhaft. Spätestens an dieser Stelle liegt daher die Schlussfolgerung nahe, dass die Imagination zukünftiger KI-Systeme, die als sapient zombies firmieren, das traditionelle philosophische Verständnis vernunftbasierter Menschenwürde in eine komplizierte Aporie bringt, die am Ende womöglich sogar Anlass zu seiner vollständigen Preisgabe geben könnte, sollte sie sich nicht zufriedenstellend auflösen lassen.

Ich möchte dieser Dialektik hier nicht mehr weiter folgen. Stattdessen sei abschließend noch einmal die allgemeine Lehre hervorgehoben, die sich aus ihr ergibt. Sie lautet, dass die gedankliche Konfrontation mit möglichen künftigen Systemen Künstlicher Intelligenz die Vertreter eines klassischen vernunftbasierten Würdekonzepts zu nicht-trivialen Reflexionsanstrengungen nötigt: Sie fordert nachdrücklich dazu heraus, die zugrundeliegende Vorstellung von Vernunft zu präzisieren, sie darüber hinaus von bisherigen blinden Flecken hinsichtlich möglicher verdeckt gebliebener Teilkriterien zu befreien, sowie ggf. sogar das Konzept in seiner Gesamtheit kritisch zur Disposition zu stellen.

Im folgenden Abschnitt möchte ich nun – unter Einbeziehung einiger Ergebnisse der bisherigen Betrachtungen – noch auf einen weiteren Aspekt des Verhältnisses von Künstlicher Intelligenz und Würde eingehen. Die diesbezüglichen Überlegungen betreffen die Frage, unter welchen Voraussetzungen der bisherige Würdestatus von uns Menschen durch die bloße Existenz von vernunftbegabten KI-Systemen bedroht wäre. Das Problem lautet dabei also nicht, ob zukünftige KI-Systeme uns dazu nötigen könnten, den Club der Würdeträger über die Klasse menschlicher Personen hinaus auszuweiten, sondern ob durch sie womöglich umgekehrt unsere eigene Stellung innerhalb dieses Clubs in bestimmten Hinsichten untergraben würde.

5 Künstliche Intelligenz, humane Würde und humanes Selbstbild

Die Frage, ob und inwieweit heutige Entwicklungen und zukünftige Fortschritte im Bereich Künstlicher Intelligenz das Risiko bergen, unsere eigene menschliche Würde zu tangieren, wird seit einiger Zeit in ethischen Beiträgen angesprochen. Im Blickpunkt stehen dabei meist konkrete Praktiken der Anwendung von KI-Systemen und Gefahren, die sich aus diesen spezifischen Anwendungen für unsere Würde ergeben. Dies gilt etwa für Überlegungen, dass Überwachungstechnologien mit Gesichtserkennung den Schutz der Privat- und Intimsphäre gefährden sowie auch Diskriminierungspotenziale bergen, dass die Simulation von Sprachverstehen und persönlicher Empathie seitens einer Kommunikations-KI oder eines Pflegeroboters eine entwürdigende Form der Täuschung darstellt, oder auch, dass umgekehrt eine empathiefreie Betreuung durch ein maschinelles System unsere Würde angreift (vgl. etwa Dietterich 2018; Thacker 2018; Al-Rhodhan 2021).Footnote 41 Ebenso wird diskutiert, ob es grundsätzlich entwürdigend für Menschen sei, von einem autonomen Waffensystem getötet zu werden (Misselhorn 2019, 181-184).

Diese Überlegungen eint, wie gesagt, ihr Fokus auf würdegefährdenden Effekten, die mit bestimmten konkreten Verwendungen oder Anwendungen von KI-Systemen einhergehen – wobei die zugrundeliegenden Würdekonzepte oftmals recht vage bleiben und zuweilen auch zu weit gefasst erscheinen.Footnote 42 Hiervon zu unterscheiden ist das bis dato noch kaum erörterte Problem, ob bereits die bloße Existenz von KI-Systemen, unabhängig von ihrer spezifischen Anwendung, unsere humane Würde oder unser Verständnis dieser Würde sowie ihrer Grundlagen tangiert. Präziser gefasst geht es dabei um Implikationen des Szenarios einer Ko-Existenz anderer intelligenter – und gegebenenfalls überlegen intelligenter – Entitäten mit uns Menschen, die wir Träger natürlicher Intelligenz sind. Die Frage, die ich in diesem Zusammenhang diskutieren möchte, lautet: Untergräbt diese bloße Koexistenz auch dann unsere Würde – oder verändert deren Grundverständnis oder gibt Anlass zu einer solchen Modifikation –, wenn die fraglichen Artefakte in keiner der zuvor genannten problematischen Formen zur Anwendung gelangen, deren würdegefährdende Effekte bereits Gegenstand ethischer Erörterungen sind? Dabei werde ich auf die Unterscheidung zurückreifen, die in Abschnitt 2.2 zwischen der individuellen Würde des je einzelnen Menschen und jener Form von Würde getroffen wurde, die ggf. dem Kollektivsubjekt der menschlichen Gattung zugesprochen werden kann.

5.1 Intrinsische und komparative Grundlagen des Würdebesitzes

In diesem Kontext ist zunächst noch eine weitere Differenzierung wichtig, nämlich die zwischen intrinsischen und komparativen Eigenschaften oder Merkmalen. In den vorherigen Abschnitten wurde individuelle Würde stets auf eine intrinsische Eigenschaft der jeweiligen Würdeträger zurückgeführt – nämlich auf die Eigenschaft der Rationalität. Komparative – und somit relationale – Gesichtspunkte haben hingegen insofern keine Rolle gespielt, als Würde nicht als ein Status aufgefasst wurde, der einem relationalen Vergleich entspringt oder der relationalen Position innerhalb einer Rangordnung. Ein solches komparatives Fundament hätte die Zuschreibung von Würde zum Beispiel dann, wenn sich die Würde eines Individuums I nicht lediglich I’s Besitz einer Eigenschaft X verdanken würde, sondern darüber hinaus dem Umstand (bzw. der Meta-Eigenschaft), dass I das Merkmal X entweder (a) exklusiv besitzt oder (b) in einem höheren Maße als andere Individuen oder aber (c), im Vergleich zu allen anderen, im höchsten Maße.

Diese spezifischen komparativen Bestimmungen sind auf die kriteriale Basis der individuellen Menschenwürde nicht gut anwendbar. Entspränge nämlich die individuelle Würde eines Menschen nicht nur z. B. dessen Rationalität, sondern zugleich auch noch dem Umstand, das einzige Wesen mit dieser Fähigkeit zu sein, so wäre erstens der Würdezuschreibung die faktische Grundlage entzogen, da natürlich niemand diese Exklusivitätsbedingung erfüllen würde, und zweitens wäre eine universell geteilte Würde aller Menschen sogar begrifflich ausgeschlossen.Footnote 43 Die zweite Konsequenz ergäbe sich zudem auch dann, wenn die Würde an den Status gebunden wäre, Rationalität im höchsten Maße zu besitzen (es können nicht alle die ersten in einem Ranking sein), und ein faktisches Extensionsproblem entstünde auch dann, wenn Würde an den Status gebunden wäre, Rationalität in höherem Maße zu besitzen als andere (denn auf manche Menschen träfe dies nicht zu, und diese wären dann aus dem Kreis der Würdeträger ausgeschlossen).Footnote 44

Aufgrund der genannten Schwierigkeiten erscheint es folgerichtig, wenn für die Zuschreibung individueller Würde allein der intrinsische Besitz der würdeverleihenden Eigenschaft zählt und relationale Positionierungen des zuvor beschriebenen Typs dabei keine Rolle spielen.Footnote 45 Für die Würde eines Individuums I kommt es danach lediglich darauf an, ob I selbst im Besitz der relevanten Eigenschaft X ist, und nicht, ob auch noch andere Wesen X besitzen oder nicht besitzen, bzw. ob sie X in einem niederen oder höheren Grade besitzen oder nicht besitzen. Aufgrund dieser logischen Formatierung ist die Würdezuschreibung auch potenziell über Speziesgrenzen hinweg inklusiv und kann – wie in Abschnitt 4 diskutiert – im Prinzip auch Artefakte betreffen, sofern auch sie z. B. als vernunftbegabte Akteure anzusehen sind.

Die zuvor beschriebenen extensionalen und logischen Probleme entfallen jedoch bei der Idee einer speziesbezogenen Würde. Die Vorstellung, dass unsere Spezies als Ganze eine besondere Würde besitze, weil sie die einzige Spezies mit Vernunftbegabung sei (oder diejenige Spezies, die über Vernunft in ihrer höchsten Ausprägung verfüge), widerspricht weder erkennbar der bisherigen Faktenlage, noch widerstreitet sie einem über unsere eigene Spezies hinausgehenden Universalisierungsanspruch, der andere Spezies – oder, sofern es sich um Artefakte handelt, andere Klassen von Entitäten – ebenfalls als potenzielle Träger derselben Art von Würde ins Auge fassen möchte. Denn ein solcher Anspruch ist jedenfalls nicht Bestandteil unserer traditionellen ethischen Orientierung.Footnote 46 Vielmehr scheint zur klassischen Idee einer besonderen, auf Vernunftfähigkeit basierenden Würde der menschlichen Gattung die relationale Vorstellung dazuzugehören, dass tatsächlich allein unsere Spezies dieses Merkmal besitzt.

In jedem Fall prägt diese Vorstellung das traditionelle Selbstbild der Menschen und ist bis heute Bestandteil dessen, was man vielleicht als eine Art kollektiven Gattungsstolz bezeichnen könnte.Footnote 47 Die komparative Form der würdeverleihenden Eigenschaft, im Gegensatz zu anderen Wesen exklusiv über Vernunft zu verfügen, spiegelt dabei ein althergebrachtes begriffliches Verständnis wieder, das Würde mit einer Form der aristokratischen Erhabenheit verbindet. Eine solche Konzeption von Würde als Erhabenheit findet sich im antiken Denken, insbesondere bei Cicero, prägt jedoch zum Teil auch noch Kants Würdebegriff.Footnote 48

Der Gedanke einer komparativ begründeten Würde, der als gattungsbezogene Würdeidee bis heute mindestens unterschwellig wirksam geblieben ist, kann zu der zuvor diskutierten, nicht-relationalen Vorstellung individueller Menschenwürde im Prinzip hinzutreten.

5.2 Die potenzielle Unterminierung der gattungsbezogenen Würdevorstellung durch Künstliche Intelligenz

Würden nun in Zukunft Artefakte existieren, die ebenso wie der Mensch über eine komplexe Form der Rationalität verfügen, so könnte dies die individuelle Würde menschlicher Personen nicht unterminieren. Denn wie wir gesehen haben, ist letztere aufgrund des nicht-komparativen Verständnisses des würdeverleihenden Merkmals grundsätzlich verträglich mit der Existenz beliebiger anderer Besitzer desselben würdeverleihenden Merkmals. Untergraben werden könnte jedoch die zusätzliche, relational fundierte Gattungswürde mit ihrem traditionellen Anspruch auf den exklusiven und erhabenen Besitz der Vernunftfähigkeit. Diese Konsequenz ließe sich abermals nur dann vermeiden, wenn die relevante Form der Vernunft so konzipiert wird, dass sie als eine Art Hybridgebilde neben intentionaler Rationalität auch phänomenales Bewusstsein und/oder egologisch geformte Selbsttransparenz einschließt und damit mentale Leistungen, die algorhithmisch implementierbare Funktionsabläufe übersteigen.

Diese Überlegung beschreibt eine zusätzliche Hinsicht, in der die zukünftige Entwicklung immer potenterer KI-Systeme substanzielle Fragen mit Blick auf das systematische Verständnis und die Reichweite menschlicher Würde aufwirft. Auch diese Fragen sind philosophisch bisher nur wenig ausgeleuchtet worden. In diesem Sinne konstatiert etwa Paula Boddington:

Hence, we need to think about human nature. What is it that is special about us? Or what is it that we thought was special about us? And how AI may threaten human dignity by its usurpation of our place in the world, both as individuals and as a group of humanity. (Boddington 2018, S. 127 f.)

Unter anderem gilt es genauer zu analysieren, welche Perfektionsgrade künstlicher Intelligenz die komparativ begründete Gattungswürde und das damit verbundene humane Selbstbild tatsächlich untergraben würden, sollte der abgrenzende Rückgriff auf ein bewusstseinsphilosophisches Vernunftkonzept aus den in Abschnitt 4.3 angedeuteten Gründen letztlich nicht überzeugen. Muss sich die Selbstzuschreibung vernunftbasierter Erhabenheit beispielsweise zwingend auf das Postulat stützen, als humane Gattung exklusiver Besitzer der Vernunft zu sein? Oder genügt auch die schwächere Prämisse, dass die Menschheit Vernunft im vergleichsweise höchsten Maße besitzt? Oder reicht vielleicht sogar die noch schwächere Annahme aus, dass sie Vernunft in höherem Maße besitzt als andere Wesen und Entitäten?

In den beiden letztgenannten Fällen würde die humane Gattungswürde noch nicht von zukünftigen KI-Systemen tangiert, die zwar genuine Vernunftleistungen im Sinne weitreichender Problemlösungskapazitäten aufweisen, aber nicht denjenigen Exzellenzgrad von Vernunft, den wir unserer eigenen Gattung zuschreiben. In der Folge müssten wir dann lediglich den bisherigen Exklusivitätsanspruch preisgeben, zugunsten eines schwächeren Exzellenzanspruchs.

Brenzliger für unser humanes Selbstbild wäre hingegen die Konfrontation mit gleichrangigen Vernunftleistungen algorithmischer Systeme. In diesem Fall ließe sich die Erhabenheitsvorstellung weder in Form eines Exklusivitätsanspruchs noch in Form eines Exzellenzanspruchs aufrechterhalten. Könnte uns dann dennoch eine begriffliche Revision der gattungsbezogenen Würdeidee dazu verhelfen, diese komparativ begründete Vorstellung zu bewahren? Grundsätzlich scheint dies möglich, doch müsste die Revision an einer anderen Stelle ansetzen als im zuvor diskutierten Fall, indem sie die Extension der Klasse der Wesen erweitern müsste, die als Kollektiv Träger besagter Würde wären: Wir müssten die fraglichen KI-Systeme dann in diese Klasse eingemeinden und uns im Anschluss daran als Mitglieder einer erweiterten Kollektivs rationaler Akteure betrachten, das gleichsam als hybride Gattung im Besitz der erhabenen und würdeverleihenden Fähigkeit wäre.Footnote 49 Allerdings wäre damit bereits die Preisgabe der herkömmlichen Idee einer kollektiven „Menschen“-Würde verbunden, denn das hybride Kollektiv ließe sich nicht länger unter diesen Gattungsbegriff bringen. Ob die Ausweitungsstrategie tatsächlich Sinn ergäbe, erscheint daher unklar.

Darüber hinaus stellt sich die Frage, welche Konsequenzen sich ergäben, wenn wir es im nächsten Schritt mit überlegenen Vernunftsleistungen von KI-Systemen zu tun bekämen? Wäre es in diesem Fall noch möglich, uns selbst weiterhin als Angehörige eines zugleich hybriden und erhabenen Kollektivs anzusehen, wenn auch gewissermaßen als dessen zweitklassige Elemente? Oder käme dann die Strategie einer transformierenden Bewahrung der komparativ begründeten Gattungswürde definitiv an ihr Ende?

Ich möchte dieser Frage hier nicht mehr weiter nachgehen, sondern stattdessen festhalten, dass – anders als unsere intrinsisch an den Vernunftbesitz gekoppelte individuelle Menschenwürde – die Vorstellung unserer kollektiven Erhabenheit durch zukünftige KI-Systeme dann ernsthaft in Bedrängnis geraten könnte, wenn es nicht gelingt, die zugrundeliegende Konzeption von Vernunft so anspruchsvoll auszubuchstabieren, dass sie neben der Komponente intentionaler Rationalität weitere Komponenten enthält, die kein KI-System auf absehbare Zeit erreichen kann. Gelingt diese begriffliche Abgrenzung nicht und schreitet die rationale Leistungsfähigkeit von KI-Systemen beständig weiter voran, so droht der eigentümliche Gattungsstolz der menschlichen Spezies, der in der traditionellen komparativen Würdevorstellung zum Ausdruck kommt, seine Grundlage zu verlieren.Footnote 50 In dieser Aussicht zeigt sich mithin eine zweite tendenzielle Aporetik, in die die klassische vernunftbasierte Auffassung menschlicher Würde durch die zukünftige Konfrontation mit sapient zombies geraten dürfte.

Mit alldem ist natürlich nicht gesagt, dass der Verlust des kollektiven Gattungsstolzes per se eine negative Entwicklung wäre. Auch unter ganz anderen philosophischen Aspekten – wie etwa dem der Tier- und Naturethik – mag eine Verabschiedung der Idee der Menschheit als einer erhabenen Gattung begrüßenswert erscheinen. Die Frage, wie eine solche Konsequenz unter ethischen Gesichtspunkten all things considered zu bewerten wäre, bedürfte jedoch einer eigenständigen Untersuchung. Sie soll daher an dieser Stelle offen gelassen werden.