Advertisement

Maschinenethik und Technikethik

  • Karsten WeberEmail author
  • Thomas Zoglauer
Living reference work entry
Part of the Springer Reference Geisteswissenschaften book series (SPREFGEIST)

Zusammenfassung

Der Eigenständigkeitsanspruch der Maschinenethik steht und fällt mit der Frage, ob man autonome Maschinen als moralische Agenten betrachten kann. Zur Beantwortung dieser Frage wird untersucht, unter welchen Voraussetzungen man Maschinen als moralische Agenten betrachten und ob man Maschinen Autonomie und Verantwortungsfähigkeit zusprechen kann. Die Autoren kommen zu dem Schluss, dass es in absehbarer Zukunft zwar keine „moralische Maschinen“ geben mag, es aber Aufgabe der Maschinenethik sein sollte, Maschinen so zu gestalten, dass sie als quasi-moralische Akteure akzeptiert werden können. Dabei dürfen jedoch jene menschlichen Akteure, die entsprechende Maschinen gestalten, entwickeln, bauen und nutzen, nicht aus ihrer Verantwortung entlassen werden.

Schlüsselwörter

Verantwortung Autonomie Moralische Agenten Turing-Test Akteur-Netzwerk-Theorie 

1 Einleitung

Technikethik beschäftigt sich mit der Bewertung von technischem Handeln und der Folgen des Einsatzes von Technik. Maschinenethik ist mit der Technikethik eng verwandt, insofern sie mit Computern, Robotern und autonomen künstlichen Agenten einen speziellen Gegenstandsbereich der Technik in den Blick nimmt. Sie weist aber eine Besonderheit auf, die ihr einen eigenen Stellenwert neben der Technikethik zuweist: Susan Leigh Anderson und Michael Anderson betrachten als Ziel einer Maschinenethik, autonome Maschinen so zu konstruieren und zu programmieren, dass sie sich an ethische Prinzipien halten (Anderson und Anderson 2011a, S. 1). Nach ihrer Auffassung richtet sich eine solche Ethik nicht nur an den Menschen als Nutzer der Technik, sondern ist auch als eine Ethik für Maschinen gedacht, für die es Regeln moralischen Verhaltens zu entwickeln gilt. Nach diesem Verständnis werden ethikfähige Maschinen selbst als moralische Akteure betrachtet, die manchmal auch als moralische Agenten bezeichnet werden. Dies ist jedoch eine Auffassung, die nicht unumstritten ist und in diesem Beitrag auch angegriffen werden wird. Damit, so wird sich zeigen, geht die Ablehnung bestimmter Konzeptionen einer Maschinenethik einher.

Technikbewertung ist eng verknüpft mit Technikfolgenabschätzung (TA). Die Technikfolgenabschätzung ist eine Sammelbezeichnung für „systematische Verfahren der wissenschaftlichen Untersuchung von Bedingungen und Folgen von Technik und Technisierung sowie zu ihrer gesellschaftlichen Bewertung“ (Grunwald 2002, S. 51). Maschinenethiker bedienen sich häufig des methodischen Instrumentariums der TA, um Aussagen über die zukünftige Entwicklung neuer Technologien zu gewinnen, auf deren Grundlage Bewertungen vorgenommen und Handlungsempfehlungen formuliert werden können. So gibt es bereits zahlreiche Projekte zur Technikfolgenabschätzung auf dem Gebiet der künstlichen Intelligenz (Daniel und Striebel 1993; Cath et al. 2017), der Robotik (bspw. Becker et al. 2013; Fischer 2012; Ott 2012), der Entwicklung selbstfahrender Autos (u. a. Maurer et al. 2015) sowie altersgerechter Assistenzsysteme (z. B. Biniok und Lettkemann 2017; Friesdorf et al. 2007; Weber et al. 2015).

2 Normative Theoriemodelle der Technik- und Maschinenethik

Die Maschinenethik bedient sich ebenso wie die Technikethik verschiedener ethischer Theorien, die einen normativen Rahmen für den Umgang mit und die Programmierung von autonomen künstlichen Agenten liefern. Die gebräuchlichsten ethischen Theorien sind der Utilitarismus, die deontologische Ethik und die Tugendethik. Im Folgenden sollen diese ethischen Theorien kurz vorgestellt und ihre Bedeutung für die Maschinenethik deutlich gemacht werden.

Bei der Technikbewertung wird häufig ein utilitaristischer Ansatz angewendet, bei dem die positiven und negativen Folgen einer Handlung sowie die Wahrscheinlichkeit ihres Eintretens berücksichtigt werden. Ziel der utilitaristischen Ethik ist die Nutzenmaximierung, wobei unter Nutzen die Summe der positiven minus der Summe der negativen Folgen einer Handlung verstanden wird. Dieses Prinzip der Nutzenmaximierung wird auch als Bayes-Kriterium bezeichnet, nach dem der Erwartungswert der Handlungsfolgen maximiert wird. Der Erwartungswert ist definiert als der Wert der Handlungsfolgen (Nutzen bzw. Schaden) gewichtet mit der Wahrscheinlichkeit ihres Eintretens. Dabei werden Schaden und Nutzen gegeneinander aufgerechnet. Ein Risiko gilt als akzeptabel, wenn es durch einen höheren Nutzen aufgewogen wird. Der Vorteil des utilitaristischen Ansatzes besteht in der Operationalisierbarkeit des Verfahrens. In der Maschinenethik können solche Verfahren in Form eines Algorithmus formuliert werden. So werden beispielsweise für die Programmierung selbstfahrender Autos utilitaristische Modelle in Erwägung gezogen (Goodall 2014). Was in der Theorie leicht aussieht, stößt in der Praxis allerdings auf Probleme. Erstens dürfte es schwer sein, alle Folgen einer Handlung zu berücksichtigen und die Wahrscheinlichkeiten ihres Eintretens zu quantifizieren (Wallach und Allen 2009, S. 85–87) – noch dazu in der kurzen Zeit beispielsweise direkt vor einem Verkehrsunfall. Zur Abschätzung der Folgen müssten nicht nur quantitative Daten wie die Zahl der geschädigten und geretteten Personen berücksichtigt werden, sondern auch die Art dieser Schäden und deren Bedeutung für die Zukunft der Personen selbst und der Gesellschaft einbezogen werden. Es müssten womöglich auch qualitative Merkmale wie Alter, Geschlecht, Bildung, berufliche Stellung und viele andere Eigenschaften mehr evaluiert werden – beispielsweise dadurch, dass das selbstfahrende Auto nach den Profilen der betroffenen Personen in den sozialen Medien sucht und sie auswertet. Da all dies Zeit benötigt, die in vielen Fällen nicht gegeben ist, müsste das selbstfahrende Auto eigenständig entscheiden, welche Faktoren in Betracht gezogen werden. Anders formuliert: Für solche Entscheidungen müssten moralische Normen und Werte zweiter Ordnung existieren, um entscheiden zu können, welche Faktoren überhaupt relevant sind. Es ist kein Zufall, dass uns Menschen moralische Urteile schwer fallen, denn wir stehen vor den gleichen Problemen.

Schadenswahrscheinlichkeiten werden oft subjektiv als zu gering eingeschätzt, besonders im Fall systemischer Risiken und unwahrscheinlicher Ereignisse mit hohem Schadenspotenzial (Renn 2014, S. 330–339; Taleb 2010, S. 355–357). Zweitens gibt es unterschiedliche Ansichten darüber, was man unter dem Nutzen einer Handlung verstehen soll. Sollen nur die subjektiven Einschätzungen oder Präferenzen der Betroffenen berücksichtigt werden oder sollen quasi-objektive ökonomische Bewertungskriterien zugrundegelegt werden, die als Grundlage für eine Kosten-Nutzen-Rechnung dienen? Risikoabwägungen nach dem Bayes-Kriterium mögen zwar ökonomisch rational sein, berücksichtigen aber nicht die Individualrechte und Sicherheitserwartungen der Bürger.

Im Kontext der Debatte um selbstfahrende Autos wird ein weiteres Problem der utilitaristischen Ethik deutlich: Bei unvermeidbaren Unfällen können sich Dilemma-Situationen ergeben, bei denen Leben gegen Leben abgewogen werden muss. Legt man ein utilitaristisches Ethik-Programm zugrunde, könnte dies zur Konsequenz haben, dass man im Ernstfall unschuldige Menschen zugunsten eines höheren Nutzens opfern müsste (Hevelke und Nida-Rümelin 2015a, b; Lin 2015). Bei selbstfahrenden Autos dürften utilitaristische Ethik-Programme zudem auf geringe Akzeptanz in der Bevölkerung stoßen, wenn Autofahrer und ihre Mitfahrer damit rechnen müssten, in Notsituationen geopfert zu werden, wenn dadurch mehr Menschenleben gerettet werden könnten (Bonnefon et al. 2016). Die Ethik-Kommission des Bundesverkehrsministeriums empfiehlt daher in ihren Leitlinien, dem Schutz menschlichen Lebens höchste Priorität einzuräumen, und lehnt eine quantitative Aufrechnung von Opfern ab (Ethik-Kommission 2017). Insofern orientiert sie sich eher an deontologischen Prinzipien wie dem Recht auf Leben oder dem Menschenwürdeprinzip.

Die deontologische Ethik ist regel- und prinzipienbasiert. Sie hat gegenüber einer utilitaristischen Ethik den Vorteil, dass in ihr Individualrechte und moralische Prinzipien wie Autonomie, Menschenwürde, Umweltschutz, Solidarität, Verteilungsgerechtigkeit etc. einen hohen Stellenwert einnehmen und nicht durch einen höheren Nutzen aufgewogen werden können. Als grundlegende ethische Prinzipien kommen die Goldene Regel oder Kants kategorischer Imperativ in Betracht. Thomas Powers (2006) sieht eine deontologische Ethik als besonders geeignet für eine Maschinenethik an, da ihre Regeln formalisierbar seien. Die deontologische Ethik hat allerdings Probleme bei der Lösung moralischer Dilemmata, nämlich dann, wenn zwei Pflichten kollidieren und nicht beide gleichzeitig erfüllt werden können (Zoglauer 2017, S. 67–71). Nach Kant dürfte es Pflichtenkollisionen eigentlich gar nicht geben (Kant 1983, S. 330). Dennoch kommen sie im Alltag häufig vor und werden gerade bei selbstfahrenden Autos diskutiert. Eine Möglichkeit zur Lösung solcher Dilemmata besteht darin, Güterabwägungen zuzulassen. Nach W. D. Ross gelten Pflichten nicht absolut, sondern lediglich prima facie, d. h. sie gelten nur so lange, wie sie nicht mit anderen Pflichten kollidieren. Im Konfliktfall ist zwischen widerstreitenden Pflichten abzuwägen (Ross 2002, S. 19). Zur Lösung von Normenkonflikten müssen daher Prioritätsregeln eingeführt werden oder es muss jeweils im Einzelfall durch moralische Intuition entschieden werden, welche Norm Vorrang hat. Ob Intuition algorithmisierbar ist, muss hier offengelassen werden; Zweifel daran sind aber erlaubt. Folgte man der Argumentation, dass Intuition nichts anderes ist als Erfahrung, dann müssten selbstfahrende Autos, hier immer verstanden als paradigmatischer Fall, womöglich erst einmal das moralische Räsonieren üben. Auch hier stellt sich die Frage, wie dies technisch umzusetzen wäre.

Beauchamp und Childress (1994) entwickelten für die medizinische Ethik eine Prinzipienethik auf der Grundlage von Prima-facie-Pflichten. Sie formulierten vier grundlegende Prinzipien, die als Prima-facie-Pflichten aufgefasst werden und im Konfliktfall, wenn zwei oder mehrere Prinzipien kollidieren, abgewogen werden können. Die vier Prinzipien sind Autonomie, das Nichtschädigungsprinzip (nonmaleficence), das Fürsorgeprinzip (beneficence) und Gerechtigkeit (justice) (Beauchamp und Childress 1994; Beauchamp 2010). Obwohl dieses Modell ursprünglich nur für die medizinische Ethik konzipiert wurde, findet es mittlerweile auch in der Technik- und Maschinenethik Anwendung (Reijers et al. 2017). Susan Leigh Anderson und Michael Anderson entwickelten für Pflegeroboter ein Programm auf der Grundlage der Prinzipienethik von Beauchamp und Childress (Anderson und Anderson 2007; Anderson und Anderson 2011b).

Anstatt auf einer strikten Befolgung moralischer Prinzipien zu bestehen, könnte man die Lösung von Normenkonflikten auch dem Urteilsvermögen der handelnden Personen überlassen und dabei lediglich Anforderungen an ihre Charaktereigenschaften stellen und darauf vertrauen, dass tugendhafte Menschen im Einzelfall in der Lage sind, kluge und verantwortungsvolle Entscheidungen zu treffen. Die Tugendethik stellt neben der utilitaristischen und deontologischen Ethik ein drittes Paradigma der Technikethik dar und kann auch als Vorbild und Modell für die Maschinenethik dienen. Eine Ingenieurethik auf der Basis von Tugenden gibt keinen Katalog zu befolgender Pflichten und Regeln vor, sondern sagt lediglich, was ein guter Ingenieur ist und welche Tugenden er besitzen soll. Als typische technikethische Tugenden werden Verantwortungsbewusstsein, Aufrichtigkeit, Professionalität, Zivilcourage, Gerechtigkeit, Einfühlungsvermögen und Fürsorge genannt (van de Poel und Royakkers 2011, S. 99; Pritchard 2001, S. 394–395; Vallor 2016, S. 120–155). Allerdings gibt die Tugendethik keine Auskunft darüber, wie man sich in einer Konfliktsituation, z. B. wenn man sich in einem moralischen Dilemma befindet, verhalten soll.

Ein Spezialfall der Tugendethik stellt die Fürsorgeethik (ethics of care) dar. Für sie haben die altruistischen Tugenden der Fürsorge, Hilfsbereitschaft und Empathie Vorrang. Sie wird unter anderem bei der Konstruktion von Pflegerobotern angewendet, da hier die Fürsorge für alte und kranke Menschen von besonderer Bedeutung ist (van Wynsberghe 2013; Vallor 2016, S. 220–229).

3 Maschinen als moralische Agenten?

Spricht man von einer Maschinenethik, so ist dies in vielerlei Hinsicht voraussetzungsreich. Eine der wichtigen Annahmen bezieht sich dabei auf die Existenz autonomer Maschinen, deren Autonomie so weit reicht, dass sie selbst als moralische Akteure – oder, wie oft formuliert wird, als moralische Agenten – gelten müssen. Das nun kann aber sehr vieles heißen: 1) Das Verhalten solcher Maschinen ist moralisch relevant und muss daher durch moralische Normen und Werte bestimmt sein. Diese werden von Menschen in der Programmierung der Maschinen implementiert und fortan durch die Maschinen als Regeln befolgt. Es wird sich weiter unten zeigen, dass die Integration moralischer Normen und Werte in Maschinen bzw. allgemeiner Technik, ob intendiert oder nicht, unvermeidlich ist. Die Diskussion der Algorithmisierung von Normen und Werten zeigt jedoch, dass diese nicht, zumindest nicht in jedem Fall, möglich ist. 2) Maschinen sind moralische Agenten insofern, dass sie selbst kognitive Kapazitäten besitzen, um intentional moralische Normen und Werte zu beachten. Dies erweist sich schon bei einem sehr kurzen Blick in die einschlägige Literatur als hochgradig umstritten. Außerdem kann man begrifflich an dieser Option zweifeln. 3) Nicht nur sind Maschinen moralische, sondern sogar ethische Agenten. Das heißt, dass sie die kognitiven Fähigkeiten besitzen, selbst moralische Normen und Werte zu formulieren, zu begründen und in der Folge sich für eine bestimmte Menge von ihnen zu entscheiden und andere zu verwerfen. Danach handelt eine entsprechende Maschine nach den selbst gewählten moralischen Normen und Werten. 4) In Erweiterung von Punkt 3) können moralische Agenten den selbst gewählten moralischen Normen und Werten widersprechend agieren – sie wären dann nichts weniger als das technische Spiegelbild des Menschen mit all seinen moralischen Defekten.

Es mag sein, dass es noch viel mehr Vor- und Zwischenstufen in Ergänzung und Detaillierung zu den gerade genannten vier Abstufungen gibt, doch wäre deren Ausarbeitung für die Zwecke des vorliegenden Textes begrifflich zu aufwändig und kann daher hier nicht betrieben werden. Wie am Schluss dieses Beitrags zu sehen sein wird, sind diese Punkte für das Nachdenken über eine Maschinenethik im Detail aber gar nicht entscheidend, denn die Notwendigkeit einer ganz bestimmten Art oder Form von Maschinenethik ergibt sich nicht aus der tatsächlichen Existenz moralischer Agenten, sondern daraus, dass wir Menschen Maschinen für solche halten.

Die oben genannten vier Stufen werden daher im Folgenden nicht einzeln abgehandelt, auch dafür fehlt der Platz. Eine wesentliche Frage, die in allen Stufen angesprochen wird, ist nun, ob bestimmte Maschinen tatsächlich als moralische Agenten angesehen werden müssen, weil sie moralisch handeln oder ob andere Faktoren dazu führen, dass Menschen sich in Bezug auf die „Natur“ oder das „Wesen“ dieser Maschinen irren. „Natur“ und „Wesen“ sind nicht in einem essenzialistischen Sinne zu verstehen, daher stehen beide Ausdrücke in Anführungsstrichen. Sie dienen hier lediglich als Sammelbegriff für die Eigenschaften, die für die mit diesen Maschinen interagierenden Menschen sichtbar sind oder über die sie bspw. durch Analyse der zugrunde liegenden Algorithmen zumindest Kenntnis erlangen können – wobei die Möglichkeit dieser Analyse in Anbetracht von heute genutzten neuronalen Netzen grundsätzlich infrage steht. Man kann daher mit einigen guten Argumenten behaupten, dass vom Standpunkt der Menschen, die mit Maschinen interagieren, die Frage, ob diese tatsächlich moralische Agenten sind oder nur als solche erscheinen, letztlich nur auf der Grundlage von Menschenähnlichkeit, Vertrautheit, sichtbarem Verhalten und ähnlichen beobachtbaren Hinweisen entschieden werden kann.

Folgt man dieser Ansicht, so erscheint eine Diskussion der obigen vier Stufen letzten Endes irrelevant. Nicht die tatsächliche „Natur“ einer Maschine wäre dann entscheidend, sondern welches Bild sich Menschen von solchen Maschinen machen. Doch hierbei stehenzubleiben wäre in Bezug auf die Frage nach Verantwortung und Verantwortlichkeit für die Folgen des Maschinenagierens fatal, denn in Hinblick darauf ist es eben entscheidend, ob Maschinen tatsächlich moralisch handeln, oder ob dies nur einer Zuschreibung geschuldet ist, denn im letzteren Fall müssten andere Akteure an die Stelle der Verantwortlichen rücken. Diese Frage, die in jeder Maschinenethik adressiert werden müsste, soll im nächsten Abschnitt zunächst in Bezug auf den Verantwortungsbegriff und dann gegen Ende des Betrags bzgl. der menschlichen Verantwortung genauer untersucht werden.

4 Der Verantwortungsbegriff in Technikethik und Maschinenethik

Der Verantwortungsbegriff ist ein Schlüsselbegriff der Technik- und Maschinenethik. Verantwortung ist eine mehrstellige Relation: Jemand ist für etwas gegenüber einer Instanz in Bezug auf ein Normensystem verantwortlich (Lenk 1994, S. 119–120; Maring 2001, S. 13–16; Lenk und Maring 2017, S. 727). Neben einer individuellen Verantwortung, bei der ein einzelnes menschliches Individuum Verantwortungsträger ist, gibt es auch eine korporative und kollektive Verantwortung, bei der Gruppen, Korporationen oder Institutionen Verantwortung tragen (Maring 2001; Lenk 1994, S. 128–133; Ropohl 1996, S. 75). Bei Unfällen und technischen Katastrophen stellt sich immer wieder die Frage, wer für den Schaden verantwortlich ist. Nicht immer können einzelne Personen als Verantwortliche identifiziert werden, da gerade bei industriellen Prozessen und technischen Großprojekten mehrere Personen im Team zusammenarbeiten. In der Ingenieurethik wird dies als das Problem der vielen Hände (problem of many hands) bezeichnet. Damit ist eine Situation gemeint, bei der ein Kollektiv, aber keine einzelnen Personen für ein Ergebnis verantwortlich gemacht werden können (van de Poel und Royakkers 2011, S. 253; van de Poel 2015b, S. 52). Für John Searle ist ein kollektives absichtliches Verhalten nicht einfach die Summe individuellen absichtlichen Verhaltens (Searle 2009, S. 100). Daher kann eine kollektive Verantwortung nicht immer auf eine individuelle Verantwortung zurückgeführt werden (Maring 2001, S. 77–122).

Das Problem der Verantwortungszuschreibung wird in der Maschinenethik im Zusammenhang des Einsatzes von Militärrobotern und autonomen Waffensystemen kontrovers diskutiert: Wer ist schuld, wenn bei einem Einsatz von Robotern auf dem Schlachtfeld das Kriegsrecht (ius in bello) verletzt wird und es zu unrechtmäßigen Tötungen kommt? In diesem Fall gibt es mehrere Personen, die als Verantwortliche infrage kommen: die Ingenieure, die die Roboter konstruiert haben, die Programmierer, die Soldaten und Offiziere bis zu den Oberbefehlshabern, die den Einsatz von „Killerrobotern“ angeordnet haben. Man könnte aber auch die Roboter selbst verantwortlich machen.

Einige Maschinenethiker halten autonome, zu komplexen Verhaltensmustern fähige Roboter für moralische Agenten, denen eine Verantwortung für ihr Verhalten zugeschrieben werden könne (Sullins 2011, S. 160; Floridi 2013, S. 134–160). Sullins, Sparrow und Hellström argumentieren wie folgt: Je autonomer ein System agiert, desto schwieriger sei sein Verhalten vorhersehbar und kontrollierbar und desto weniger könnten die Programmierer und Konstrukteure dafür verantwortlich gemacht werden (Sullins 2011, S. 160; Sparrow 2007, S. 70; Hellström 2013, S. 103). Dieser postulierte Zusammenhang zwischen Autonomie und Verantwortung ist aber keineswegs evident und muss kritisch hinterfragt werden. Denn der Autonomiebegriff hat eine unterschiedliche Bedeutung, je nachdem in welchem philosophischen Theoriekontext man sich bewegt. Autonomie kann im kantischen Sinne als Selbstgesetzgebung oder Fähigkeit, unabhängig von Naturgesetzen zu handeln, verstanden werden (Zoglauer 2016, S. 191). Dieser Autonomiebegriff ist von Sullins und Sparrow aber nicht gemeint. Denn in der Robotik bedeutet Autonomie lediglich Unabhängigkeit vom Menschen: Autonome Roboter können weitgehend selbstständig aufgrund eines Programms agieren und müssen nicht jedes Mal auf den Befehl eines Menschen warten. Autonomie in diesem Sinne hat nichts mit Moral zu tun. Auch Staubsaugerroboter und autonome Rasenmäher werden lediglich in Bewegung gesetzt und verrichten ihre Arbeit unabhängig vom Menschen, sind aber keine verantwortungsfähigen Wesen. Roboter agieren heteronom, da sie von einem Programm geleitet werden. Aus einer technischen Autonomie folgt daher keine moralische Autonomie (Zoglauer 2016, S. 195).

Robert Sparrow versucht den gedanklichen Zusammenhang zwischen Autonomie und Verantwortung durch die Mittelbegriffe Kontrollfähigkeit und Vorhersehbarkeit herzustellen. Aber allein aus der Tatsache, dass wir das Verhalten einer Maschine weder kontrollieren noch vorhersehen können, folgt nicht, dass wir es mit einem verantwortungsfähigen moralischen Subjekt zu tun haben. Hierzu müssten wir der Maschine ein intentionales und bewusstes Handeln unterstellen, was zumindest auf dem gegenwärtigen Stand der Technik nicht vorausgesetzt werden kann. Nida-Rümelin ist der Auffassung, dass nur solche Wesen fähig sind, Verantwortung zu übernehmen, die Gründe für ihr Handeln haben bzw. die fähig sind, „sich von Gründen affizieren zu lassen“ (Nida-Rümelin 2011, S. 32). Derk Pereboom spricht von „reasons-responsiveness“: Wesen müssen fähig sein, aufgrund von Gründen zu handeln, und müssen auf Gründe reagieren können (Pereboom 2001, S. 107–109). Robert Brandom (2001) weist darauf hin, dass das Geben und Verlangen von Gründen äußerst anspruchsvolle Praktiken darstellen, die an komplexe epistemische und normative Voraussetzungen gebunden sind. Es ist daher zweifelhaft, ob Roboter diese Fähigkeit besitzen oder je besitzen werden. Auch hierauf wird am Ende des Beitrags noch einmal zurückzukommen sein.

5 Das Argument der Verantwortungslücke

Andreas Matthias (2004) hält Hersteller und Nutzer autonomer Maschinen für ihr Verhalten nicht verantwortlich. Matthias begründet dies mit dem Argument der Verantwortungslücke (responsibility gap). Er verweist auf die Besonderheit lernfähiger Automaten, deren Aktionen von einem neuronalen Netzwerk oder genetischen Algorithmus gesteuert werden: Ihr Verhalten wird nicht durch ein Programm determiniert, sondern ergibt sich durch ihre Interaktion mit der Umwelt und ist daher nicht vorhersehbar und kann vom Nutzer auch nicht kontrolliert werden. Das Verhalten solcher Maschinen könne nicht kausal auf einen menschlichen Urheber zurückgeführt werden, weshalb die Konstrukteure und Nutzer keine Schuld treffe, wenn durch die Maschine ein Schaden entsteht. Nach Ansicht von Matthias klafft zwischen Mensch und Maschine daher eine Verantwortungslücke.

Sparrow (2007) argumentiert ähnlich: Autonomie gehe mit einem Kontrollverlust einher. Autonome Waffensysteme agierten unabhängig vom Menschen, weshalb das militärische Personal keinen Einfluss auf die Folgen ihres Einsatzes habe. Da Kontrollfähigkeit laut Sparrow aber eine notwendige Voraussetzung für Verantwortung ist, könnten Menschen auch nicht verantwortlich gemacht werden, wenn autonome Waffensysteme versagen oder falsche Ziele angreifen. Sparrow will den Einsatz von Killerrobotern und autonomen Distanzwaffen nicht verteidigen oder verharmlosen. Vielmehr hält er ihren Einsatz gerade deshalb für unmoralisch, weil sie in einem moralfreien und möglicherweise auch rechtsfreien Raum agieren, wo sich niemand für mögliche Kriegsverbrechen verantwortlich fühlt.

Noorman und Johnson (2014) glauben nicht, dass Autonomie von Verantwortung befreit, und halten dagegen, dass diese Technologien von Menschen entwickelt und eingesetzt werden und die Konstrukteure und Programmierer indirekt doch eine Kontrolle über ihr Verhalten haben: Wenngleich ihr Verhalten durch das Programm zwar nicht in allen Details determiniert ist, würden ihre Aktionsmöglichkeiten und ihr Handlungsspielraum dadurch gleichwohl eingeschränkt. In der Lernphase wird ein neuronales Netzwerk durch den Menschen geprägt. So wie Eltern für ihre minderjährigen Kinder verantwortlich sind und bei einem Fehlverhalten für den entstandenen Schaden haften müssen, müssten auch die Hersteller für den Schaden haften, der aus dem Fehlverhalten eines Roboters resultiert (Beck 2016, S. 475). Daher könne der Mensch nicht von jeder Verantwortung für seine Schöpfung freigesprochen werden.

Selbst wenn niemand individuell für einen Schadensfall verantwortlich gemacht werden kann, gibt es immer noch eine kollektive Verantwortung für den Einsatz von Militärrobotern und autonomen Waffensystemen (Galliott 2015, S. 224). Den Erfolg eines Einsatzes werden sich die Ingenieure, Soldaten und Offiziere selbst zuschreiben. Bei einem Misserfolg werden sie sich vor der Verantwortung nicht drücken können. Ibo van de Poel (2015a) unterscheidet zwischen einer prospektiven und retrospektiven Verantwortung (van de Poel 2015a, S. 13–15): Will man wissen, wer für einen eingetretenen Schaden verantwortlich ist, handelt es sich um retrospektive Verantwortung. Wenn es dagegen um die zukünftigen möglichen Folgen einer Handlung geht, ist die Verantwortung prospektiver Natur, weil sie auf die Zukunft gerichtet ist. Matthias und Sparrow behandeln lediglich die Frage nach der retrospektiven Verantwortung. Die Hersteller und Programmierer autonomer Maschinen tragen aber auch eine prospektive Verantwortung für ihren künftigen Einsatz (Galliott 2015, S. 225). Sie müssen im Rahmen der Produkthaftung ein ordnungsgemäßes Funktionieren der Maschinen gewährleisten und unerwünschte Folgen verhindern.

Johnson (2015) sieht eine gesamtgesellschaftliche Verantwortung für die Entwicklung neuer Technologien. Ihrer Auffassung nach werden Verantwortungspraktiken durch gesellschaftliche Normen und Erwartungen konstituiert und sind diskursiv verhandelbar. Letztlich trage daher die Gesellschaft eine Verantwortung dafür, welche Technologien angewendet und wie sie eingesetzt werden.

6 Die Akteur-Netzwerk-Theorie

Ein Modell zur Beschreibung der Interaktionen zwischen Menschen und Dingen stellt die Akteur-Netzwerk-Theorie von Bruno Latour (1996) und Michel Callon (1991) dar. In dieser Theorie werden Personen und Artefakte als gleichrangige Elemente eines soziotechnischen Netzwerks betrachtet. Latour spricht von Aktanten anstatt von Akteuren und will damit zum Ausdruck bringen, dass auch technische Artefakte handeln und Dinge verändern können. Entscheidend sind die Relationen zwischen den Aktanten innerhalb des Netzwerks.

Die Akteur-Netzwerk-Theorie ist für eine Maschinenethik von Bedeutung, da sie neben Menschen auch Maschinen, Roboter, künstliche Intelligenzen und Cyborgs als soziale Aktanten behandelt. Der traditionellen Ethik wird oft ein Speziesismus vorgeworfen: die Fixierung auf Menschen, die allein als moralische Akteure infrage kommen. Von Tierrechtlern wie Peter Singer (1990) wird schon lange gefordert, auch Tieren Rechte zuzusprechen und zumindest Menschenaffen Personenstatus zuzuschreiben. Darüber hinaus wird spekuliert, dass in Zukunft auch künstliche Intelligenzen und Roboter als Personen anerkannt werden könnten (Calverley 2008). Wenn man Software-Agenten und autonome Maschinen als wirkmächtige Akteure anerkennt, warum sollte man dann nicht auch andere technische Artefakte als Teil eines soziotechnischen Netzwerks betrachten?

Allerdings würde dies den traditionellen Handlungsbegriff stark strapazieren. Denn begrifflich und alltagssprachlich gibt es einen wesentlichen Unterschied zwischen Handeln und Verhalten: Handlungen erfolgen zielgerichtet, d. h. sie sind mit Absichten verbunden, während ein Verhalten lediglich aus Körperbewegungen besteht und kein Bewusstsein voraussetzt. Es macht einen Unterschied, ob man sagt, eine Maschine veranlasse einen Menschen zu einer Handlung, oder ob man die Maschine selbst als einen handelnden Akteur betrachtet. Roboter – zumindest gegenwärtig existierende – verhalten sich, aber sie handeln nicht. Man kann ihnen – außer im metaphorischen Sinn – keine Absichten unterstellen. Was nicht ausschließt, dass sie vielleicht in ferner Zukunft tatsächlich über Bewusstsein verfügen und als Personen anerkannt werden können. Aber es wäre fahrlässig, den Handlungsbegriff ohne nähere philosophische Begründung über den menschlichen Bereich auszudehnen und damit begriffliche und ontologische Unterschiede zu nivellieren.

Hanson (2008, 2009) vertritt die These, dass nicht einzelne Menschen, sondern das Gesamtsystem aus menschlichen und nicht-menschlichen Akteuren Verantwortung trägt. Hanson begründet dies mit der Theorie der „extended agency“, die auf die Extended-Minds-These von Andy Clark und David Chalmers (1998) zurückgeht. Clark und Chalmers glauben, dass kognitive Prozesse nicht nur in unserem Gehirn stattfinden, sondern auch durch die Interaktion mit materiellen Objekten realisiert werden können. Hanson setzt diese Überlegung wie folgt fort: Wenn das soziotechnische System selbst zu solchen kognitiven Prozessen fähig sei, so sei es als Ganzes auch für die daraus entstehenden Folgen verantwortlich. Aber Hanson begeht einen Fehlschluss, wenn er den Verantwortungsbegriff von menschlichen Individuen auf soziotechnische Netzwerke überträgt. Jemanden für etwas verantwortlich machen setzt voraus, dass dieser Jemand ein Verantwortungsbewusstsein besitzt und Gründe für sein Verhalten nennen kann. Unbelebte Artefakte können dies nicht. Ein technisches System für etwas verantwortlich zu machen ist nicht mehr als eine metaphorische Redeweise. Sie verwässert den Verantwortungsbegriff, weil man keinen konkreten Urheber für Fehlleistungen oder Missstände angeben kann. Eine wissenschaftlich fundierte Maschinenethik sollte solche Verantwortlichkeiten benennen, die Mensch-Maschine-Interaktionen kritisch reflektieren und nicht in metaphorischen Redeweisen Zuflucht suchen.

7 Maschinen als moralische Agenten reloaded

Zunächst ist noch einmal festzustellen, dass in der Diskussion um Maschinenethik und moralische Maschinen bzw. Agenten sehr undifferenziert von „Autonomie“ gesprochen wird. So schreiben Gransche et al. (2014, S. 20):

„Viele der Eigenschaften, die technische Interaktionsfähigkeit ermöglichen, werden unter dem Schlagwort ‚autonome Technik‘ gefasst; dabei unterscheidet sich die Bedeutung von ‚autonom‘ von Fall zu Fall erheblich und v. a. zwischen den Technikwissenschaften und der Philosophie. Im technischen Bereich bedeutet autonome Technik je nachdem autark, mobil, automatisch, umweltunabhängig, adaptiv, lernend, innovativ oder opak, nicht vorhersagbar. Entscheidend ist für den Autonomiegrad von Technik auch das Maß an technischer Selbstkontrolle bzw. Kontrolle von Technik durch den Menschen.“

Anders ausgedrückt: Die Rede von „der“ Autonomie ist verfehlt, denn es gibt, je nach Wissenschaftsdisziplin, verschiedene Autonomiebegriffe mit unterschiedlichen Abstufungen – weiter oben wurde dies bereits angedeutet. Damit greift die gerade in den Massenmedien häufig undifferenzierte Rede über Autonomie und autonome Maschinen zu kurz. Autonome Fahrzeuge mögen in absehbarer Zeit in dem oben genannten technischen Sinne autonom sein, in einem moralischen Sinne sind sie dies damit aber noch lange nicht. Eine Maschinenethik für moralisch autonome Maschinen (denn die technischen Aspekte der Autonomie sind in diesem Text irrelevant) wäre nun begrifflich nur sinnvoll, wenn sich diese Maschinen eine Moral selbst geben würden und dieser freiwillig folgten – denn genau dies bedeutet Autonomie (αὐτός νόμος / autós nómos = Selbstgesetzgebung). Dies entspricht der im dritten Abschnitt genannten dritten und vierten Abstufung autonomer Maschinen.

Sollten solche Maschinen realisiert werden, müsste akzeptiert werden, dass deren Aktionen nicht mehr vorhersehbar wären – genauso, wie dies für Menschen ebenfalls gilt. Damit aber wäre die Zielsetzung, mit der Menschen Maschinen bauen, konterkariert, denn Maschinen sollen reproduzierbare Ergebnisse liefern, sie sollen unter gleichen Bedingungen gleiche Ergebnisse produzieren. Es mag Anwendungen geben, in denen in einem gewissen Maße von solchen Erwartungen abgewichen werden kann und sogar muss, beispielsweise in der Mensch-Maschine-Interaktion: Hier wäre es eher störend oder gar verwirrend, wenn eine Maschine immer mit den gleichen Worten auf eine bestimmte Frage reagierte. Eine gewisse Varianz in den Antworten würde die Interaktion erleichtern und menschenähnlicher gestalten. Doch dieser Varianz müssten Grenzen gesetzt werden, um beispielsweise verletzende oder beleidigende Äußerungen zu verhindern. Würden jedoch Maschinen der dritten oder vierten Stufe gebaut, könnte dies nicht mehr garantiert werden. Doch tatsächlich beginnen die Probleme viel früher, wie am Beispiel des Chatbots „Tay“ von Microsoft zu erkennen ist. Dieser lernende Chatbot verwandelte sich in kürzester Zeit in ein rassistisches Programm in Reinform (Beran 2017; Hirsch 2017), so dass es Microsoft sehr schnell – nach nur 24 Stunden – wieder vom Netz nehmen musste. Neben dem Schaden erntete das Unternehmen auch sehr viel Spott, bis hin zu einem langen Spottgedicht (Davis 2016).

Um solche oder womöglich noch weitaus schlimmere Ereignisse zu vermeiden, müssten solchen autonomen Maschinen anderweitig Grenzen gesetzt werden; kein Wunder, dass in der Diskussion um moralische Agenten und Roboter oft auf die drei Robotergesetze von Isaac Asimov verwiesen wird (Anderson 2007; Leslie-McCarthy 2007). Doch die Idee von fest einprogrammierten moralischen Imperativen widerspricht dem Gedanken autonomer und moralischer Agenten. Denn jedes Regelwerk, das Maschinen fix einprogrammiert oder anderweitig bindend aufgegeben werden würde, widerspräche der These von der autonomen (selbstgesetzgebenden) Maschine. Insbesondere kann dann nicht mehr sinnvoll von einer Maschinenmoral gesprochen werden, denn moralische Autonomie setzt Willensfreiheit und damit die Möglichkeit der Zuwiderhandlung voraus. Da die betreffenden Maschinen zudem nicht über bestimmte Teile jener Moral nachdenken und sich selbst geben könnten, gäbe es auch keine Maschinenethik in dem Sinne einer Ethik, die der Deliberation von Maschinen zugänglich wäre.

In den vorhergehenden Abschnitten wurden ganz unterschiedliche und auch voneinander unabhängige Argumente aufgeführt, die gegen die Existenz von moralischen Maschinen sprechen und daher auch gegen eine Maschinenethik als Ethik der Maschinen. Trotzdem berührt die Diskussion um Maschinenethik und moralische Maschinen einen wichtigen Punkt, denn zunehmend statten wir Maschinen mit Aktions- und Interaktionsfähigkeiten aus, die sie in Situationen bringen, die mit moralischen Fragen befrachtet sind. In der englischsprachigen Wikipedia (2017) findet sich folgender Eintrag zu „machine ethics“:

„Machine ethics (or machine morality, computational morality, or computational ethics) is a part of the ethics of artificial intelligence concerned with the moral behavior of artificially intelligent beings.“

Liest man diesen Satz in dem Sinne, dass es nicht um Maschinen der oben genannten zweiten, dritten oder vierten Stufe geht, sondern um Maschinen, die sich auf der ersten Stufe bewegen, aber so erscheinen, dass sie weitergehende kognitive und moralische Fähigkeiten besäßen, wird der Satz nicht nur verständlicher, sondern sinnvoller. Denn diesen Maschinen sind moralische Normen und Werte inhärent dadurch, wie sie von Menschen gestaltet wurden. So verstanden adressiert eine Maschinenethik nicht die Maschinen, sondern deren Schöpfer auf allen Ebenen der Gestaltung. Dies wirft aber die Frage auf, warum Maschinen überhaupt so gestaltet werden, dass sie mehr scheinen als sie sind und wie dies möglich ist. Damit muss man sich unweigerlich mit einem Klassiker der KI-Debatte auseinandersetzen.

8 Turing revisited

Gemeint ist natürlich Alan M. Turing und sein 1950 erschienener Aufsatz „Computing machinery and intelligence“, in dem er den heute sogenannten Turing-Test präsentiert, mit dessen Hilfe entschieden werden soll, ob eine Maschine „intelligent“ ist bzw. „denkt“. Die Grundidee ist einfach: Ein Mensch kommuniziert mit einem Gegenüber ohne zu wissen, ob dies ein Mensch oder eine Maschine ist. Kann ersterer nicht erkennen, dass er mit einer Maschine interagiert, obwohl dies der Fall ist, hätte diese den Turing-Test bestanden: Man könnte dann sagen, dass diese Maschine „intelligent“ sei bzw. „denke“, weil sie sich so verhalten kann, dass sie als Mensch gehalten wird. Ob die Maschine tatsächlich denkt wie ein Mensch, ist irrelevant, denn wichtig ist nur, dass Menschen die Überzeugung hegen, dass sie denkt. Es ist naheliegend diese Annahme auf Emotionen, Wünsche, Ziele, Intentionen und Motive auszuweiten, da Menschen stets nur das beobachtbare äußere Verhalten zur Beurteilung darüber heranziehen können, ob ein Interaktionspartner denkt, Gefühle besitzt oder Überzeugungen hegt (McCarthy 1979) oder eben moralisch entscheidet. Daher schlagen Allen et al. (2000, S. 254) einen moralischen Turing-Test vor, um der Frage, ob eine Maschine „wirklich“ moralisch urteilen kann, zu entkommen. „Moralisch sein“ wird dann ähnlich operationalisiert wie „denken können“ – über das Bestehen eines Tests: „A Moral Turing Test (MTT) might similarly be proposed to bypass disagreements about ethical standards by restricting the standard Turing Test to conversations about morality. If human ‚interrogators‘ cannot identify the machine at above chance accuracy, then the machine is, on this criterion, a moral agent.“ Dieser Test baut ebenso wie der originale Turing-Test darauf auf, dass Menschen bereit sind Maschinen bestimmte Vermögen aufgrund deren Verhaltens zuzuschreiben.

Tatsächlich scheinen Menschen sehr weitgehende Zuschreibungen vorzunehmen. Joseph Weizenbaum berichtet schon in den 1960er-Jahren davon, dass Menschen mit dem von ihm erstellten recht einfachen Programm ELIZA (Weizenbaum 1966) sehr intime Gespräche führten. Viele neuere theoretische und empirische Studien zeigen, dass Menschen tatsächlich bereits sind, Maschinen trotz eigentlich geringer Interaktionsfähigkeiten weitgehende kognitive und auch emotionale Fähigkeiten zuzuschreiben (Draude 2011; Misselhorn 2009; Slater et al. 2006). Daher ist es naheliegend anzunehmen, dass sich Menschen in Bezug auf die Fähigkeit des moralischen Räsonierens ähnlich verhalten werden. Denkt man daran, dass Menschen in manchen kulturellen Kontexten unbelebten Gegenständen Seelen zuschreiben, dass im Mittelalter Tiere für deren Taten gerichtlich verurteilt wurden oder Menschen mit aufblasbaren Gummipuppen zusammenleben, gewinnen solche Überlegungen zusätzlich an Plausibilität. Entscheidend ist die Fähigkeit und Bereitschaft von Menschen, solche Zuschreibungen vorzunehmen, um Ereignisse und Prozesse, die sie sich selbst und anderen ansonsten nicht erklären könnten, trotzdem verständlich und damit auch bis zu einem gewissen Grad beherrschbar zu machen. Sie nehmen dann, wie es Daniel C. Dennett (1994) ausdrückt, einen intentionalen Standpunkt in der Interaktion mit dem Gegenüber ein.

Unsere Bereitschaft und Fähigkeit zu solchen Zuschreibungen, vielleicht sogar deren Unvermeidlichkeit, lässt sich bei der Gestaltung von Maschinen, die eng mit Menschen interagieren sollen, sinnvoll einsetzen. Sind die menschlichen Interaktionspartner der Ansicht, dass das technische Gegenüber denkt, fühlt, glaubt, wünscht und damit uns ähnlich ist, sind Interaktionen meist erfolgreicher. In vielen Fällen ist die emotionale Seite der Interaktion sogar wichtig oder entscheidend: Die Stimmen für das GPS-Navigationsgerät im Auto wurden sicherlich auch so ausgewählt, dass sie Vertrauen erwecken können. Bei der Stimme im Pkw, die uns dazu anhält, uns anzuschnallen, geht es letztlich um Überredung (IJsselsteijn et al. 2006). Die Unterstützung medizinischer Therapien mithilfe von Robotern funktioniert in vielen Fällen explizit nur über die Adressierung von Emotionen, so beispielsweise im Fall der künstlichen Robbe Paro, die bei der Therapie demenziell veränderter Menschen eingesetzt wird, um die soziale Isolation dieser Menschen aufzubrechen und die Interaktion zwischen ihnen und dem Pflegepersonal zu erleichtern (Kidd et al. 2006).

9 Schlussfolgerungen

Selbst wenn programmierte Maschinen, die zunehmend unseren Alltag (mit-)bestimmen, den Eindruck erwecken, dass sie moralische Agenten seien, folgen sie doch nur den durch Menschen vorgegebenen Regeln und können sich grundsätzlich nicht von diesen befreien. Im besten Fall wurden diese Regeln wohlbedacht, im schlechtesten Fall spiegeln sie die Vorurteile und normativen Schwächen ihrer Schöpfer wider. Bisher gibt es aber keinen Anlass davon zu sprechen, dass Maschinen selbst ein moralisches Urteil gefällt hätten. Existierende Maschinen sind keine moralischen Agenten und entwickeln keine eigene Moral. Die vielen Situationen, von denen weiter oben bereits gesprochen wurde, sind für die involvierten Maschinen keine moralischen Dilemmata, sondern schlicht Situationen, für die bisher keine geeigneten Regeln formuliert werden konnten: Wir stünden in solchen Situationen möglicherweise vor einem moralischen Dilemma, weil wir anhand moralischer Erwägungen entscheiden wollen, wie wir handeln sollen – ob wir beispielsweise den Vater mit Kinderwagen überfahren oder eben die alte Frau mit Rolli. Allerdings muss hinzugefügt werden: Wir mögen dies im Vorfeld entscheiden wollen oder im Nachgang feststellen, ob wir moralisch richtig gehandelt haben. Die konzeptionelle Schwäche dieser Szenarien ist jedoch, dass in der konkreten Situation gar keine Entscheidung im eigentlichen Sinne stattfindet, sondern eine Instinktreaktion. Gäbe es die Zeit zum moralischen Räsonieren, hätte man in solchen Situationen vermutlich immer eine Option, die keine Schäden für Mensch und Material nach sich zieht. Menschen neigen nun dazu, Maschinen, die in solche Situationen geraten, die gleiche Entscheidungsstruktur zuzuschreiben, weil ansonsten die „Entscheidung“ der Maschine kognitiv nicht mehr durchdringbar ist – Menschen nehmen also einen intentionalen Standpunkt ein, um die Situation zu rationalisieren, und sie vermuten Moral, wo bloßes Kalkül regiert. Doch dieses Unvermögen aufseiten der beteiligten Menschen rechtfertigt nicht die Rede von moralischen Agenten und Maschinenethik im Sinne einer Ethik für Maschinen von Maschinen. Ähnlich wie im Fall von Bio-, Medizin-, Technik- oder Informationsethik – um nur einige Bindestrichethiken aufzuzählen – gibt es aber tatsächlich gute Gründe, über eine Maschinenethik nachzudenken. Die Entwicklung angewandter Ethiken stellt eine Reaktion auf eine normative Bedarfslage dar: Wissenschaftliche Erkenntnisse oder technische Innovationen ließen es notwendig werden, für eine bestimmte Anwendungsdomäne spezifische normative Lösungen zu finden. Dies wäre eben die Aufgabe einer Maschinenethik im Fall von mit Künstlicher Intelligenz ausgestatteten technischen Systemen.

Maschinen so zu gestalten, dass sie als moralische Agenten akzeptiert werden, birgt eine große Versuchung. Auch diese Maschinen werden ohne Zweifel versagen, Fehler begehen, Besitz zerstören, Menschen schaden und andere moralisch fragwürdige Dinge tun, denn Menschenwerk ist nie perfekt und ohne Fehler. Aber die Rede von moralischen Agenten impliziert, sie selbst für ihre Aktionen und deren Folgen verantwortlich zu machen, wie es Allen et al. (2005, S. 149) formulieren: „Artificial morality shifts some of the burden for ethical behavior away from designers and users, and onto the computer systems themselves.“ Die Schöpfer von solchen Maschinen wären also bis zu einem gewissen Grad exkulpiert, wenn ihre Geschöpfe moralisch fragwürdige Dinge vollziehen. Dies erscheint problematisch, da ein überzeugender Ersatz für die Übernahme von Verantwortung durch diese Verschiebung noch lange nicht identifiziert worden wäre.

Doch man kann diese ganze Debatte mit Friedman und Kahn (1992) schlicht als verfehlt ansehen, da zumindest heute existierende Maschinen keinerlei Intentionen hätten und daher auch eine notwendige Bedingung für einen moralischen Agenten nicht erfüllten – als Bedingung der Möglichkeit von moralischem Handeln werden häufig mentale Zustände, Intentionen, Bewusstsein oder Selbstbewusstsein genannt. Allerdings lassen sich Menschen, wie oben schon angedeutet, sehr leicht davon überzeugen, dass diese Bedingungen erfüllt sind. Daher macht es Sinn, den Blickwinkel zu verändern, so wie es Coeckelbergh (2009, S. 181) vorschlägt:

„I propose an alternative route, which replaces the question about how ‚moral‘ non-human agents really are by the question about the moral significance of appearance. […] I propose to redirect our attention to the various ways in which non-humans, and in particular robots, appear to us as agents, and how they influence us in virtue of this appearance.“

Die im vorliegenden Beitrag nur am Rande angesprochenen ontologischen und epistemologischen Fragen sind sicherlich interessant, doch angesichts der heute schon fast allgegenwärtigen intelligent und moralisch erscheinenden Maschinen ist es bereits aus pragmatischer Sicht unverzichtbar darüber nachzudenken, was diese Maschinen mit uns normativ anstellen. Denn ebenso wie es derzeit keine moralischen Agenten gibt, die in einem strengen Sinne diese Bezeichnung verdienen, existieren derzeit auch keine auf als moralisch erscheinende Agenten anwendbaren moralischen Normen. Die oben skizzierte Zuschreibung von Moral an Maschinen hat jedoch trotzdem zur Folge, dass es einen dringenden Bedarf nach solchen Normen gibt. Nicht weil wir bereits moralische Agenten bauen könnten, sondern weil sie durch bloße Zuschreibung zur Existenz gebracht werden. Wenn diese Feststellung zutrifft, müssen jene dringend benötigten moralischen Normen die Akteure adressieren, die Maschinen gestalten, nicht die Maschinen selbst (dazu widersprechend Floridi und Sanders 2001). Wie immer dann solche Normen aussähen, sie müssten in jedem Fall folgende Forderung erfüllen (Johnson und Miller 2008, S. 132, Kursiv KW/TZ):

„[T]he implication of our analysis is that discourse at this level should reflect and acknowledge the people who create, control, and use computer systems. In this way, developers, owners, and users are never let off the hook of responsibility for the consequences of system behavior.

Literatur

  1. Allen, Colin, et al. 2000. Prolegomena to any future artificial moral agent. Journal of Experimental & Theoretical Artificial Intelligence 12:251–261.CrossRefGoogle Scholar
  2. Allen, Colin, et al. 2005. Top-down, bottom-up, and hybrid approaches. Ethics and Information Technology 7:149–155.CrossRefGoogle Scholar
  3. Anderson, Susan Leigh. 2007. Asimov’s „three laws of robotics“ and machine metaethics. AI & Society 22:477–493.CrossRefGoogle Scholar
  4. Anderson, Michael, und Susan Leigh Anderson. 2007. Machine ethics: Creating an ethical intelligent agent. AI Magazine 28:15–25.Google Scholar
  5. Anderson, Michael, und Susan Leigh Anderson. 2011a. Machine ethics. Cambridge: Cambridge University Press.CrossRefGoogle Scholar
  6. Anderson, Susan Leigh, und Michael Anderson. 2011b. A prima facie duty approach to machine ethics. In Machine ethics, Hrsg. Michael und Susan Leigh Anderson, 476–492. Cambridge: Cambridge University Press.CrossRefGoogle Scholar
  7. Beauchamp, Tom L. 2010. Standing on principles. New York/Oxford: Oxford University Press.Google Scholar
  8. Beauchamp, Tom, und James Childress. 1994. Principles of biomedical ethics, 4. Aufl. New York/Oxford: Oxford University Press.Google Scholar
  9. Beck, Susanne. 2016. The problem of ascribing legal responsibility in the case of robotics. AI & Society 31:473–481.CrossRefGoogle Scholar
  10. Becker, Heidrun, et al. 2013. Robotik in Betreuung und Gesundheitsversorgung. Zürich: vdf Hochschulverlag (TA-Swiss 58/2013).Google Scholar
  11. Beran, Ondřej. 2017. An Attitude Towards an Artificial Soul? Responses to the „Nazi Chatbot“. Philosophical Investigations, Online first 09.14.2017.Google Scholar
  12. Biniok, Peter, und Eric Lettkemann, Hrsg. 2017. Assistive Gesellschaft. Wiesbaden: Springer.Google Scholar
  13. Bonnefon, Jean-Francois, et al. 2016. The social dilemma of autonomous vehicles. Science 352:1573–1576.CrossRefGoogle Scholar
  14. Brandom, Robert B. 2001. Begründen und Begreifen. Eine Einführung in den Inferentialismus. Frankfurt a. M.: Suhrkamp.Google Scholar
  15. Callon, Michel. 1991. Techno-economic networks and irreversibility. In A sociology of monsters. Essays on power, technology and domination, Hrsg. John Law, 133–165. London: Routledge.Google Scholar
  16. Calverley, David J. 2008. Imagining a non-biological machine as a legal person. AI & Society 22:523–537.CrossRefGoogle Scholar
  17. Cath, Corinne, et al. 2017. Artificial intelligence and the ‚good society‘: The US, EU, and UK approach. Science and Engineering Ethics 28:1–24.Google Scholar
  18. Clark, Andy, und David Chalmers. 1998. The extended mind. Analysis 58:7–19.CrossRefGoogle Scholar
  19. Coeckelbergh, Mark. 2009. Virtual moral agency, virtual moral responsibility: On the moral significance of the appearance, perception, and performance of artificial agents. AI & Society 24:181–189.CrossRefGoogle Scholar
  20. Daniel, Manfred, und Dieter Striebel. 1993. Künstliche Intelligenz, Expertensysteme. Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  21. Davis, Ernest. 2016. AI Amusements: The tragic tale of tay the chatbot. AI Matters 2: 20–24.CrossRefGoogle Scholar
  22. Dennett, Daniel C. 1994. Philosophie des menschlichen Bewußtseins. Hamburg: Hoffmann & Campe.Google Scholar
  23. Draude, Claude. 2011. Intermediaries: Reflections on virtual humans, gender, and the uncanny valley. AI & Society 26:319–327.CrossRefGoogle Scholar
  24. Ethik-Kommission. 2017. Automatisiertes und Vernetztes Fahren. Berlin: Bundesministerium für Verkehr und digitale Infrastruktur. http://www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.pdf. Zugegriffen am 17.07.2017.
  25. Fischer, Martin. 2012. Interdisciplinary technology assessment of service robots: The psychological / work science perspective. Poiesis & Praxis 9:231–248.CrossRefGoogle Scholar
  26. Floridi, Luciano. 2013. The ethics of information. Oxford: Oxford University Press.CrossRefGoogle Scholar
  27. Floridi, Luciano, und John W. Sanders. 2001. Artificial evil and the foundation of computer ethics. Ethics and Information Technology 3:55–66.CrossRefGoogle Scholar
  28. Friedman, Batya, und Peter H. Kahn Jr. 1992. Human agency and responsible computing: Implications for Computer System Design. Journal of Systems and Software 17:7–14.CrossRefGoogle Scholar
  29. Friesdorf, Wolfgang, et al. 2007. Sentha, seniorengerechte Technik im häuslichen Alltag: Ein Forschungsbericht mit integriertem Roman. Berlin/New York: Springer.CrossRefGoogle Scholar
  30. Galliott, Jai. 2015. Military robots. Farnham: Ashgate.Google Scholar
  31. Goodall, Noah J. 2014. Ethical decision making during automated vehicle crashes. Journal of the Transportation Research Board 2424:58–65.CrossRefGoogle Scholar
  32. Gransche, B., et al. 2014. Wandel von Autonomie und Kontrolle durch neue Mensch-Technik-Interaktionen. Stuttgart: Fraunhofer Verlag.Google Scholar
  33. Grunwald, Armin. 2002. Technikfolgenabschätzung – eine Einführung. Berlin: Edition Sigma.Google Scholar
  34. Hanson, F. Allan. 2008. The anachronism of moral individualism and the responsibility of extended agency. Phenomenology and the Cognitive Sciences 7:415–424.CrossRefGoogle Scholar
  35. Hanson, F. Allan. 2009. Beyond the skin bag: On the moral responsibility of extended agencies. Ethics and Information Technology 11:91–99.CrossRefGoogle Scholar
  36. Hellström, Thomas. 2013. On the moral responsibility of military robots. Ethics and Information Technology 15:99–107.CrossRefGoogle Scholar
  37. Hevelke, Alexander, und Julian Nida-Rümelin. 2015a. Selbstfahrende Autos und Trolley-Probleme: Zum Aufrechnen von Menschenleben im Falle unausweichlicher Unfälle. Jahrbuch für Wissenschaft und Ethik 19:5–23.CrossRefGoogle Scholar
  38. Hevelke, Alexander, und Julian Nida-Rümelin. 2015b. Ethische Fragen zum Verhalten selbstfahrender Autos bei unausweichlichen Unfällen: Der Schutz von Unbeteiligten. Zeitschrift für Philosophische Forschung 6:217–224.CrossRefGoogle Scholar
  39. Hirsch, Peter Buell. 2017. The Robot in the window seat. Journal of Business Strategy 38:47–51.Google Scholar
  40. IJsselsteijn, Wijnand A., et al. 2006. Persuasive technology for human well-being: Setting the scene. In Persuasive technology, Hrsg. Wijnand IJsselsteijn. 1–5. LNCS 3962. Berlin/Heidelberg: Springer.Google Scholar
  41. Johnson, Deborah G. 2015. Technology with no human responsibility? Journal of Business Ethics 127:707–715.CrossRefGoogle Scholar
  42. Johnson, Deborah G., und Keith W. Miller. 2008. Un-making artificial moral agents. Ethics and Information Technology 10:123–133.CrossRefGoogle Scholar
  43. Kant, Immanuel. 1983. Metaphysik der Sitten, Rechtslehre. In Werke in zehn Bänden, Hrsg. W. Weischedel, Bd. 7. Darmstadt: Wissenschaftliche Buchgesellschaft.Google Scholar
  44. Kidd, Cory D., et al. 2006. A sociable robot to encourage social interaction among the elderly. In Proceedings of the 2006 I.E. International conference on robotics and automation, 3972–3976.Google Scholar
  45. Latour, Bruno. 1996. On actor-network theory. A few clarifications. Soziale Welt 47:369–381.Google Scholar
  46. Lenk, Hans. 1994. Macht und Machbarkeit der Technik. Stuttgart: Reclam.Google Scholar
  47. Lenk, Hans, und Matthias Maring. 2017. Verantwortung in Technik und Wissenschaft. In Handbuch Verantwortung, Hrsg. Ludger Heidbrink, 715–731. Wiesbaden: Springer VS.CrossRefGoogle Scholar
  48. Leslie-McCarthy, Sage. 2007. Asimov’s posthuman pharisees: The letter of the law versus the spirit of the law in Isaac Asimov’s robot novels. Law, Culture and the Humanities 3:398–415.CrossRefGoogle Scholar
  49. Lin, Patrick. 2015. Why ethics matters for autonomous cars. In Autonomes Fahren, Hrsg. Markus Maurer et al., 69–85. Berlin: Springer.CrossRefGoogle Scholar
  50. Maring, Matthias. 2001. Kollektive und korporative Verantwortung. Münster: Lit.Google Scholar
  51. Matthias, Andreas. 2004. The responsibility gap: Ascribing responsibility for the actions of learning automata. Ethics and Information Technology 6:175–183.CrossRefGoogle Scholar
  52. Maurer, Markus, et al., Hrsg. 2015. Autonomes Fahren. Technische, rechtliche und gesellschaftliche Aspekte. Berlin: Springer.Google Scholar
  53. McCarthy, John. 1979. Ascribing mental qualities to machines. In Philosophical perspectives in artificial intelligence, Hrsg. Martin Ringle, 161–195. Brighton: Humanities Press.Google Scholar
  54. Misselhorn, Cathrin. 2009. Empathy with inanimate objects and the Uncanny Valley. Minds and Machines 19:345–359.CrossRefGoogle Scholar
  55. Nida-Rümelin, Julian. 2011. Verantwortung. Stuttgart: Reclam.Google Scholar
  56. Noorman, Merel, und Deborah G. Johnson. 2014. Negotiating autonomy and responsibility in military robots. Ethics and Information Technology 16:51–62.CrossRefGoogle Scholar
  57. Ott, Ingrid. 2012. Service robotics: An emergent technology field at the interface between industry and services. Poiesis & Praxis 9:219–229.CrossRefGoogle Scholar
  58. Pereboom, Derk. 2001. Living without free will. Cambridge: Cambridge University Press.CrossRefGoogle Scholar
  59. Poel, Ibo van de. 2015a. Moral responsibility. In Moral responsibility and the problem of many hands, Hrsg. Ibo van de Poel and Lambèr Royakkers, 12–43. New York/London: Routledge.Google Scholar
  60. Poel, Ibo van de. 2015b. The problem of many hands. In Moral responsibility and the problem of many hands, Hrsg. Ibo van de Poel and Lambèr Royakkers, 50–92. New York/London: Routledge.Google Scholar
  61. Poel, Ibo van de, und Lambèr Royakkers. 2011. Ethics, technology, and engineering. Malden/Oxford: Wiley-Blackwell.Google Scholar
  62. Powers, Thomas. 2006. Prospects for a Kantian machine. IEEE Intelligent Systems 21:46–51.CrossRefGoogle Scholar
  63. Pritchard, Michael S. 2001. Responsible engineering: The importance of character and imagination. Science and Engineering Ethics 7:391–402.CrossRefGoogle Scholar
  64. Reijers, Wessel, et al. 2017. Methods for practising ethics in research and innovation: A literature review, critical analysis and recommendations. Science and Engineering Ethics 1–45. first online 09.12.2017.Google Scholar
  65. Renn, Ortwin. 2014. Das Risikoparadox. Frankfurt a. M.: Fischer.Google Scholar
  66. Ropohl, Günter. 1996. Ethik und Technikbewertung. Frankfurt a. M.: Suhrkamp.Google Scholar
  67. Ross, William David. 2002. The right and the good, Hrsg. P. Stratton-Lake. Oxford: Oxford University Press.Google Scholar
  68. Searle, John R. 2009. Kollektive Absichten und Handlungen. In Kollektive Intentionalität, Hrsg. Hans Bernhard Schmid und David P. Schweikhard, 99–118. Frankfurt a. M.: Suhrkamp.Google Scholar
  69. Singer, Peter. 1990. Animal liberation. New York: Avon Books.Google Scholar
  70. Slater, Mel, et al. 2006. A virtual reprise of the Stanley Milgram obedience experiments. PLoS ONE 1(1): e39.CrossRefGoogle Scholar
  71. Sparrow, Robert. 2007. Killer robots. Journal of Applied Philosophy 24:62–77.CrossRefGoogle Scholar
  72. Sullins, John P. 2011. When is a robot a moral agent? In Machine ethics, Hrsg. Michael und Susan Leigh Anderson, 151–161. Cambridge: Cambridge University Press.CrossRefGoogle Scholar
  73. Taleb, Nassim Nicholas. 2010. The black swan. London: Penguin.Google Scholar
  74. Turing, Alan M. 1950. Computing machinery and intelligence. Mind 54:433–457.CrossRefGoogle Scholar
  75. Vallor, Shannon. 2016. Technology and the virtues. New York: Oxford University Press.CrossRefGoogle Scholar
  76. Wallach, Wendell, und Colin Allen. 2009. Moral machines. New York: Oxford University Press.CrossRefGoogle Scholar
  77. Weber, Karsten, et al., Hrsg. 2015. Technisierung des Alltags – Beitrag für ein gutes Leben? Stuttgart: Steiner.Google Scholar
  78. Weizenbaum, Joseph. 1966. ELIZA – A computer program for the study of natural language communication between man and machine. Communications of the ACM 9:36–45.CrossRefGoogle Scholar
  79. Wikipedia. 2017. https://en.wikipedia.org/wiki/Machine_ethics. Zugegriffen am 30.05.2017.
  80. Wynsberghe, Aimee van. 2013. Designing robots for care: Care centered value-sensitive design. Science and Engineering Ethics 19:407–433.Google Scholar
  81. Zoglauer, Thomas. 2016. Wie Robotik, Neuroprothetik und Cyborg-Technologien unser Verständnis von Handlung und Verantwortung verändern. In List und Tod (Jahrbuch Technikphilosophie), Hrsg. Gerhard Gamm et al., 189–203. Zürich/Berlin: Diaphanes.Google Scholar
  82. Zoglauer, Thomas. 2017. Logik in der Ethik. Eine normenlogische Analyse moralischer Dilemmata. In Logik in den Wissenschaften, Hrsg. Peter Klimczak und Thomas Zoglauer, 61–81. Münster: Mentis.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018

Authors and Affiliations

  1. 1.Institut für Sozialforschung und Technikfolgenabschätzung, OTH RegensburgRegensburgDeutschland
  2. 2.Arbeitsgebiet TechnikphilosopieBTU Cottbus-SenftenbergCottbusDeutschland

Personalised recommendations