Advertisement

Autonomes Fahren aus Sicht der Maschinenethik

  • Claudia BrändleEmail author
  • Armin Grunwald
Living reference work entry
Part of the Springer Reference Geisteswissenschaften book series (SPREFGEIST)

Zusammenfassung

In der Debatte um die zunehmende Automatisierung des Individualverkehrs und die Vision des autonomen Fahrens wird eine Vielzahl ethischer Fragen aufgeworfen. Ziel des vorliegenden Beitrages ist es, einen Überblick über die unterschiedlichen ethischen Aspekte des autonomen Fahrens zu geben. Da, wie meist in lebensweltlichen Herausforderungen, sehr unterschiedliche ethische Fragestellungen angesprochen werden, lässt sich eine gewisse Heterogenität nicht vermeiden.

Der Text gliedert sich in zwei Teile: Im ersten Teil geht es um spezifische Themen der Maschinenethik und die zentrale Frage, inwieweit ein autonomes Fahrzeug moralische Entscheidungen treffen wird. Im Zuge dessen wird zunächst das Problem der Dilemma-Situationen thematisiert. In einem zweiten Schritt soll die Frage nach der Verantwortung für durch autonome Fahrzeuge verursachte Unfälle in den Blick genommen werden. Der zweite Teil beschäftigt sich mit den ethischen Herausforderungen, die sich durch das autonome Fahren auf der gesellschaftlichen Systemebene ergeben. Dies umfasst unter anderem die potenziellen und z. T. nicht intendierten Auswirkungen des autonomen Fahrens auf informationelle Selbstbestimmung, Wirtschaft und Arbeitsmarkt und das Verkehrssystem als solches.

Schlüsselwörter

Autonomes Fahren Maschinenethik Moralische Maschinen Moralisches Handeln Moralisches Dilemma Verantwortung Systemethik Risikoethik Technikfolgenabschätzung 

1 Einleitung

Im Bereich der Automobiltechnik findet mit Fahrerassistenzsystemen, Einparkhilfen und Spurhalteassistenten eine zunehmende Automatisierung statt. Die weitgehende oder vollständige Automatisierung des Straßenverkehrs ist seit einigen Jahren Gegenstand öffentlicher und wissenschaftlicher Debatten. Dabei stehen ethische Fragen vielfach im Vordergrund.

Üblicherweise werden sechs Stadien des automatisierten und autonomen Fahrens unterschieden (SAE International 2016): 0, also keine Automatisierung bis 5, Vollautomatisierung. Die dazwischenliegenden Schritte sind Fahrerassistenz (1), Teilautomatisierung (2) sowie bedingte (3) und hohe (4) Automatisierung. Die Stufen 1 und 2 beschreiben Automatisierungsformen, die bereits realisiert und auf dem Markt erhältlich sind. Selbiges gilt seit kurzer Zeit auch für Vorstufen von Level-3-Technologien wie Teslas „Autopilot“.1 Auf der Stufe 4 – hohe Automatisierung, gelegentlich als teilautonomes Fahren bezeichnet (Baumann et al. 2018) – sollen die Fahraufgaben auf spezifischen Strecken und Verkehrssituationen vollständig autonom vom Fahrzeug durchgeführt werden. Der menschliche Fahrer dient dabei lediglich als Fallback-Option im Falle einer für das Auto nicht zu bewältigenden Situation. Vollautonomes Fahren der Stufe 5 soll Fahrzeuge zur Marktreife bringen, die jeden Teil des Fahrauftrages unter allen Bedingungen vollkommen selbstständig, ohne Input seitens eines menschlichen Fahrers, ausführen können. Die Stufen 4 und 5 stellen technologische Entwicklungen dar, die für die Zukunft erwartet werden. Da sie noch nicht realisiert sind, ist jeder Bezug auf Fahrzeuge dieser Stufen eine Frage von Visionen und Erwartungen.

Inwiefern autonomes Fahren der Stufe 5 tatsächlich realisierbar ist, welche Nebenfolgen die Einführung dieser Technologie hätte und ob die damit verbundenen Erwartungen und Ziele tatsächlich erreicht werden können, sind offene Fragen. Dennoch beeinflusst die Vision des autonomen Fahrens bereits jetzt auf vielfältige Weise Politik, Wirtschaft und Gesellschaft und gibt Anlass, sich mit den potenziellen Auswirkungen der Technologie auseinanderzusetzen. Das große Interesse am autonomen Fahren gründet vor allem in den Hoffnungen und positiven Effekten, die man sich vom Einsatz dieser Technologie verspricht. Jenseits handfester wirtschaftlicher Interessen werden ein Gewinn an Sicherheit durch Vermeidung von Unfällen (s. u.), die Erhöhung von Lebensqualität, z. B. für Pendler, die Transferzeiten durch autonomes Fahren mit anderen Tätigkeiten verbringen können, und eine bessere Verkehrseffizienz oder Umweltbilanz erwartet. Auch könnte der Einsatz autonomen Fahrens mobilitätseingeschränkten Personen den Zugang zu individueller Mobilität erleichtern und sie so in einer selbstständigen Lebensführung unterstützen.

Einige Todesfälle im Zusammenhang mit teilautonomem Fahren in den Vereinigten Staaten (z. B. mit einem Tesla Model S im Mai 2016 und mit einem Testfahrzeug von Uber im März 2018) lassen allerdings Zweifel sowohl an den Sicherheitsversprechen als auch an der generellen Erwartungshaltung gegenüber dem autonomen Fahren aufkommen. So zeigen sich im realen Straßenverkehr immer wieder Herausforderungen, die durch autonome Technologien nur schwer zu bewältigen sind, wie schlechte Straßen- und Sichtverhältnisse, überraschende Ereignisse oder Verkehrsteilnehmer, deren Reaktionen für automatisierte Systeme schwer vorhersagbar sind (Fagnant und Kockelman 2015). Insbesondere der Mischverkehr und dort vor allem im kommunalen bzw. städtischen Raum, in dem autonome Fahrzeuge auf klassisch manuell gefahrene Autos, Fußgänger und Radfahrer treffen, stellt dabei eine große Herausforderung dar. Schließlich regelt sich der Verkehr in diesem Umfeld besonders häufig durch die Anwendung informeller Regeln und es findet ein hohes Maß an Kommunikation zwischen den unterschiedlichen Verkehrsteilnehmern statt (Färber 2016). Es ist also eine grundsätzliche Frage, ob die Vision eines autonomen Fahrzeugs der Stufe 5, die völlig ohne einen menschlichen Fahrer auskommt, überhaupt technisch umsetzbar ist. Doch selbst wenn diese technische Vision umgesetzt werden könnte, ist eine kritische Auseinandersetzung notwendig: Weil autonomes Fahren einen umfassenden Einfluss auf unser Verkehrssystem darstellen würde, ist wie bei jeder technischen Neuerung mit bisher unbekannten oder nur schwer vorhersagbaren nicht intendierten Folgen für die Gesellschaft zu rechnen (Grunwald 2010). Zudem lässt sich bereits jetzt eine Vielzahl von grundlegenden ethischen Herausforderungen aufzeigen.

Vor diesem Hintergrund wird im vorliegenden Artikel ein Überblick über die verschiedenen ethischen Probleme des autonomen Fahrens gegeben. Zunächst soll eine zentrale Frage der Maschinenethik thematisiert werden, die im Falle des autonomen Fahrens an Relevanz gewinnt, nämlich inwiefern ein autonomes Fahrzeug über Menschenleben entscheiden darf. Um den Zusammenhang zwischen der Technologie des autonomen Fahrens und der Maschinenethik darzustellen, wird das medial prominent besetzte Thema der Dilemma-Situationen ausführlicher betrachtet. Daneben wird auch die allgemeine Frage behandelt, wer eigentlich die Verantwortung für Schäden trägt, die durch autonomes Fahren verursacht werden können. Dieses Problem ergibt sich nicht nur beim autonomen, sondern bereits beim teilautonomen Fahren. Neben den spezifisch maschinenethischen Aspekten ergeben sich zusätzliche ethische Fragen auf der gesellschaftlichen Systemebene, so etwa für Ökonomie, Arbeitsmarkt und Privatheit.

2 Maschinenethische Herausforderungen des autonomen Fahrens

Die maschinenethischen Herausforderungen, die das autonome Fahren aufwirft, betreffen im Wesentlichen zwei Fälle: Der eine Fall ist dabei von hoher praktischer Relevanz und betrifft die Frage nach dem Umgang mit und der Verantwortung für Unfälle bzw. Schäden verursacht durch autonome Fahrzeuge. Der zweite Fall betrifft die ethische Herausforderung, die der Umgang mit Dilemma-Situationen für die Technologie des autonomen Fahrens darstellt. Obwohl dieser Fall weit weniger relevant für die praktischen Fragen des autonomen Fahrens ist, soll er im vorliegenden Text eine zentrale Rolle einnehmen: Nicht weil Dilemma-Situationen dasjenige Problem darstellen, welches am dringendsten einer Antwort bedarf, sondern weil die Wichtigkeit, die es in der Debatte einnimmt und dabei sowohl den wissenschaftlichen als auch den medialen Diskurs zu dominieren scheint, einen guten Grund hat: Am Beispiel der Dilemma-Situationen, mit denen sich autonome Fahrzeuge konfrontiert sehen könnten, offenbart sich eine ethische Kernfrage des autonomen Fahrens: Darf ein autonomes Fahrzeug tatsächlich über Menschenleben entscheiden? Dahinter verbergen sich dezidiert maschinenethische Fragen: Inwiefern kann eine autonome Maschine oder eben ein autonomes Fahrzeug eigentlich als (moralischer) Akteur beschrieben werden, der moralische Entscheidungen trifft? Von welchen moralischen Kriterien soll eine autonome Maschine dabei geleitet und wie kann Moral in einer autonomen Maschine implementiert werden? Für die Betrachtung des autonomen Fahrens aus maschinenethischer Sicht ist der Umgang mit Dilemma-Situationen daher von einer hohen theoretischen Bedeutung.

Dilemma-Situationen und Trolley-Probleme

Um den Zusammenhang zwischen Dilemma-Situationen im Straßenverkehr und der Frage nach dem Status eines autonomen Fahrzeuges deutlicher herauszuarbeiten, ist es sinnvoll, zunächst das Problem der Dilemmata genauer zu beschreiben. Von einem Dilemma kann man kurz zusammengefasst dann sprechen, wenn eine Situation vorliegt, in der jemand vor der Entscheidung steht, eines von zwei Übeln notwendigerweise verwirklichen zu müssen. In der medialen Berichterstattung über autonomes Fahren werden diese Situationen oft sehr treffend, wenn auch morbide, auf den Punkt gebracht. So titeln zwei bekannte Online-Nachrichtenportale: „Das Auto, das entscheiden muss, ob es Kinder oder Alte überfährt“2 oder „Einer muss sterben – nur wer?“.3 Häufig wird neben Eigenschaften wie Alter, Geschlecht und anderen sozialen Merkmalen der potenziellen Opfer (Qualifizierung) auch das Moment der Anzahl genannt, d. h. es wird die Frage aufgeworfen, ob man eher den Tod einer einzelnen Person als den einer Gruppe (von Personen) in Kauf nehmen sollte (Quantifizierung) (Bendel 2018). Wie komplex die Klassifizierung potenzieller Opfer eines unvermeidlichen Unfalls anhand bestimmter Eigenschaften oder Menge sein kann (ebd.), zeigt eine Website (www.moralmachine.mit.edu) entwickelt von Forschern des MIT in der Absicht, die Intuitionen von Menschen zu diesen verschiedenen Konstellationen abzufragen (Awad et al. 2018).

Quelle: www.moralmachine.mit.edu (Zugegriffen am 21.01.2019)

Gerade das Abwägen nach der Anzahl der von einer Handlung betroffenen Personen verweist auf ein bekanntes und viel diskutiertes Gedankenexperiment aus der Philosophie, das sogenannte Trolley-Problem. Die ursprüngliche Formulierung des Trolley-Problems findet sich – zusammen mit anderen Gedankenexperimenten – in einem Text zur Abtreibungsdebatte mit dem Ziel, den Unterschied zwischen „töten“ und „sterben lassen“ bzw. „jemandes Tod in Kauf nehmen“ zu illustrieren (Foot 1967):

„To make the parallel as close as possible it may rather be supposed that he is the driver of a runaway tram which he can only steer from one narrow track on to another; five men are working on one track and one man on the other; anyone on the track he enters is bound to be killed. [..] The question is why we should say, without hesitation, that the driver should steer for the less occupied track […].“ (Ebd., S. 6)

Dieses Gedankenexperiment wurde insbesondere von Judith Jarvis Thomson in mehreren Artikeln aufgegriffen und weiterentwickelt. Dabei nimmt sie die Annahme Foots in die Kritik, „wir sollten ohne zu Zögern sagen, der Fahrer sollte sein Fahrzeug auf das weniger besetzte Gleis lenken“ (Ebd.; eigene Übersetzung, eigene Hervorhebung). Thomson untersucht zunächst die Frage, ob es überhaupt moralisch erlaubt wäre, das Fahrzeug umzulenken und den Einen für die Vielen zu opfern – ganz zu schweigen davon, ob es moralisch geboten wäre, in dieser Form zu quantifizieren. Um diese Schwierigkeit herauszuarbeiten, ersetzt sie in der ursprünglichen Formulierung des Problems den Fahrer des Wagens, den driver, durch einen bystander, einen Außenstehenden oder Nebenstehenden, der durch das Umstellen einer Weiche den Wagen auf das Gleis mit dem einzelnen Arbeiter lenken kann (Thomson 1985, S. 1397). Durch ihre Abwandlung lenkt Thomson den Blick auf einen neuen Aspekt in der Debatte, nämlich die Frage, nach welchen übergeordneten moralischen Konzepten – spezifisch Kantianismus oder Konsequentialismus – man Fragen dieser Art entscheiden kann. Auch für den Fall des autonomen Fahrens gilt: Auf Grundlage welcher moralischen Kriterien oder Konzepte soll ein autonomes Fahrzeug Handlungsentscheidungen treffen – nach den Kriterien eines kantischen, konsequentialistischen oder anderen moralischen Regelsystems? Auf diese grundsätzliche und kaum lösbare ethische Frage sowie die von Thomson eingeführte Unterscheidung zwischen driver und bystander werden wir an späterer Stelle noch einmal zurückkommen.

Der Zusammenhang zwischen autonomem Fahren, Trolley-Problemen und Maschinenethik

Dass Dilemma-Situationen, die den oben skizzierten Trolley-Problemen gleichen, tatsächlich im Straßenverkehr vorkommen, scheint sehr abwegig zu sein. So kann es theoretisch zwar durchaus zu Situationen kommen, in denen der Fahrer eines Wagens entscheiden muss, ob er mit einer Handlung eher den einen oder den anderen Verkehrsteilnehmer oder gar sich selbst gefährdet. Praktisch bleibt in solchen Situationen jedoch oft nur der Bruchteil einer Sekunde, um sich für oder gegen eine bestimmte Handlung zu entscheiden. Wenn jemand sein Lenkrad herumreißt, um einem plötzlich auf der Straße auftauchenden Kind auszuweichen, und dabei in den Gegenverkehr gerät, würden wir nicht davon ausgehen, es hätte sich dabei um eine bewusste, wohlüberlegte, nach moralischen Gesichtspunkten sorgfältige abgewogene Handlungsentscheidung gehandelt. Tatsächlich würde man in einem solchen Fall viel eher von einer reflexartigen Handlung sprechen (Dilich et al. 2002). Konsequenterweise stellen sich uns solche oder ähnliche Unfallkonstellationen nicht als Dilemmata im Sinne des Trolley-Problems, sondern schlicht als tragische Unfälle dar, die nicht zu verhindern waren und an denen keiner wirklich schuld ist.

Im Fall des autonomen Fahrens erfahren die verschiedenen Beschreibungen des Trolley-Problems allerdings eine völlig neue und vor allem praktische Relevanz: Durch den Einsatz autonom agierender Maschinen werden allem Anschein nach aus prinzipiell tragischen Konstellationen im Straßenverkehr auf einmal Dilemma-Situationen, die dem theoretischen Gedankenexperiment der Trolley-Probleme auffallend ähneln.4 Deutlich wird dies, wenn man drei verschiedene Eigenschaften von autonomen Fahrzeugen genauer betrachtet: Erstens zeichnet sich ein autonomes Fahrzeug gegenüber einem menschlichen Akteur gerade dadurch aus, das es in kritischen Situationen über mehr relevante Informationen verfügt und auch in der Lage ist, diese deutlich schneller zu verarbeiten und auf ihrer Grundlage zu einer Entscheidung zu kommen. Zweitens ist die Handlungsentscheidung von der eigentlichen Situation separiert: Weit bevor eine potenzielle Dilemma-Situation eintritt, muss geklärt sein, wie bzw. nach welchen Kriterien ein autonomes Fahrzeug in einer solchen Situation entscheiden soll. Drittens führt der Einsatz autonomer Fahrzeuge voraussichtlich zu einer Erhöhung von ethisch konsistenten Handlungsentscheidungen im Straßenverkehr (vgl. Birnbacher und Birnbacher 2016): Das autonome Fahrzeug wird – sofern nicht durch einen Hacker-Angriff beeinträchtigt – in allen potenziellen Situationen im Straßenverkehr so entscheiden, wie es programmiert wurde. Aus diesen drei Eigenschaften lassen sich wiederum zwei interessante Themen ableiten:

So lässt sich zunächst feststellen, dass an dieser Stelle die eingangs als dezidiert maschinenethisch bezeichnete Frage an Bedeutung gewinnt: Kann das autonome Fahrzeug als ein moralischer Akteur beschrieben werden, etwa weil er, im Gegensatz zu uns Menschen, stets zuverlässig und in Sekundenschnelle unparteiische, auf allen relevanten Informationen beruhende, rationale, nach moralischen Gesichtspunkten abgewogene Entscheidungen zu treffen in der Lage ist? Ist eine solche Beschreibung als (moralischer) Akteur, der „handelt“ oder „entscheidet“, überhaupt angemessen? Diese Frage erfordert eine eingehende Auseinandersetzung mit Themen der Philosophie des Geistes und es gibt bereits einige Ansätze, die autonomen Maschinen den Status eines (moralischen) Akteurs zumindest in einer gewissen Hinsicht zubilligen. Beispiele hierfür finden sich u. a. bei Anderson und Anderson (2011), Wallach und Allen (2009) und Misselhorn (2018). Letztere spricht in Bezug auf autonome Maschinen in Anlehnung an Moor 2006 von „expliziten moralischen Akteuren“ (ebd., vgl. auch das Kapitel „Maschinenethik und Philosophie“ im vorliegenden Handbuch). Diese sind allerdings von vollständigen moralischen Akteuren, wie es in der Regel Menschen sind, zu unterscheiden. Stattdessen ist allen diesen Ansätzen gemein, dass sie autonome Maschinen als abgeleitete Akteure sehen, die typisch menschliche Fähigkeiten wie „handeln“ und „entscheiden“ nur simulieren (ebd.). Die grundlegenden Kriterien, nach denen die Algorithmen das Verhalten der autonomen Maschinen bestimmen sollen, muss nach wie vor von Menschen vorgegeben werden: Entweder direkt wie im Falle sogenannter Top-down-Ansätze, bei denen autonome Maschinen als lernende Systeme bestimmte Entscheidungskriterien vorgegeben werden (Wallach und Allen 2009). Aber auch bei Bottom-up-Ansätzen, in denen autonome lernende Systeme die relevanten Entscheidungskriterien aus Einzelfällen selbstständig ableiten (ebd.), muss im Nachgang überprüft werden, ob diese mit den von uns als grundlegend anerkannten Kriterien übereinstimmen. Damit wird deutlich, dass die moralischen Entscheidungen (über das Leben von Menschen) autonomer Maschinen im Straßenverkehr in letzter Hinsicht von Menschen getroffen werden. Entsprechend kann auch die Verantwortung für Leben und Tod (im Falle von Dilemma-Situationen) oder über die Verantwortung für durch autonomes Fahren verursachte Unfälle nicht an die Technik abgegeben werden. Offen bleibt dann allerdings die Frage, wer für das Verhalten von autonomen Fahrzeugen im Straßenverkehr und die sich daraus ergebenden Folgen verantwortlich ist bzw. sein sollte (s. u.).

Dies führt zum zweiten Thema, welches sich aus der unterschiedlichen Charakterisierung von Dilemma-Situationen ergibt – je nachdem, ob ein menschlicher Fahrer oder ein autonomes Fahrzeug involviert ist. Nimmt man zu der Charakterisierung die durch Thomson aufgeworfene Unterscheidung zwischen driver und bystander hinzu, zeigt sich folgendes: Beim konventionellen Autofahren scheint es völlig klar zu sein, den driver im Trolley-Problem ganz lapidar mit dem menschlichen Fahrer eines Fahrzeugs gleichzusetzen. Der Fall des autonomen Fahrens stellt sich allerdings anders dar: Hier scheint der passendere Vergleich eher der bystander zu sein. Die Rolle des bystanders kommt dabei denjenigen Menschen zu, die dafür Sorge tragen, welche moralischen Entscheidungskriterien dem autonomen Fahrzeug mitgegeben werden. Deren moralische Verantwortlichkeit mit Blick auf die möglichen Handlungsentscheidungen scheint sich durch die zeitliche Separation zwischen der Entscheidung, wie in Dilemma-Situationen generell gehandelt werden sollte, und der tatsächlichen Situation nur noch zu erhöhen. Überspitzt könnte man sagen, dass der passendere Unterschied im Fall des autonomen Fahrens eher zwischen „Fahrer des Wagens“ (driver) und „Person, die im Lehnstuhl über Trolley-Probleme entscheidet“ besteht. Das wirft einerseits die Frage auf, welche moralischen Kriterien wir Menschen einem autonomen Fahrzeug einprogrammieren sollen, damit es – in Dilemma-Situationen, aber auch in anderen kritischen Situationen – moralisch richtig entscheidet. Andererseits zeigt sich gerade in der zeitlichen Separation von Entscheidung und Situation, dass eine grundsätzliche Unstimmigkeit darüber herrscht, wie eine konkrete Antwort auf diese zentrale ethische Frage aussehen kann. Auch ohne den akuten Stress, den eine situative Entscheidung einer Dilemma-Situation mit sich bringt, steht man der Frage, wen man in einer solchen Situationen gefährden soll, mit einer gewissen Hilflosigkeit gegenüber. Man weiß nicht zweifelsfrei, welche Entscheidung die moralisch richtige ist. Dies scheint das Kernproblem der Debatte und auch der Grund dafür zu sein, warum das bisher eher philosophisch interessante Gedankenexperiment der Trolley-Probleme mit dem autonomen Fahren auf einmal eine solche mediale und wissenschaftliche Aufmerksamkeit erreicht hat. Denn obwohl es bereits praktische Ansätze gibt, autonome Systeme zu gestalten, deren Entscheidungsalgorithmen deontologischen („MedEthEx“, Anderson et al. 2006) oder konsequentialistischen Kriterien („Jeremy“, Anderson et al. 2005) folgen, ist damit noch nicht die Frage beantwortet, ob beispielsweise eine Orientierung am Kantianismus, statt am Konsequentialismus oder einem anderen ethischen System, die moralisch richtige Entscheidung ist.5 Von einem philosophischen Standpunkt aus bleibt die Frage danach, welches moralische Prinzip einen berechtigten Anspruch auf allgemeine Gültigkeit hat, bisher unbeantwortet (vgl. Birnbacher und Birnbacher 2016). Dass wir auf diese (meta-)ethische Frage in absehbarer Zeit keine zufriedenstellende Antwort finden werden, stellt uns vor ein grundsätzliches Problem, dessen Brisanz nur noch durch den Umstand erhöht wird, dass der Einsatz (teil-)autonomer Fahrzeuge im echten Straßenverkehr kurz bevorzustehen scheint, und es sich bei autonomen Fahrzeugen potenziell um weit verlässlichere „Akteure“ handelt, als wir es sind, jedenfalls was die Regeleinhaltung betrifft. Jede Entscheidung darüber, ob autonomes Fahren überhaupt eingesetzt werden, und wenn ja, wer darüber entscheiden soll, welche moralischen Kriterien dem autonomen Fahrzeug mitgegeben werden, muss in absehbarer Zukunft also unter einem gewissen Maß an ethischer Unsicherheit gefällt werden.

Verantwortung für Unfälle mit autonomen Fahrzeugen

Anders als Dilemma-Situationen kommt der Frage, wie man ganz allgemein mit Unfällen umgeht, die durch autonome Fahrzeuge verursacht werden, eine sehr hohe praktische Relevanz zu. Zudem gewinnt hier in besonderer Weise die Frage an Bedeutung, wer für die negativen Folgen des autonomen Fahrens – insbesondere jene, die durch Unfälle verursacht wurden – verantwortlich ist und ggf. zur Rechenschaft gezogen wird. An dieser Stelle lohnt es sich, die beteiligten und betroffenen Akteursgruppen genauer in den Blick zu nehmen.

Während unklar ist, wie oft es in der Praxis tatsächlich zu Dilemma-Situationen im Straßenverkehr kommt, ist die hohe Zahl der Unfälle, die sich im Straßenverkehr allgemein ergeben, ein äußerst aktuelles Problem. So sterben in Deutschland jedes Jahr über 3000 Menschen im Straßenverkehr und über 390.000 Personen werden verletzt (Statistisches Bundesamt 2018). Diese Zahlen bilden eines der Kernargumente für den flächendeckenden Einsatz autonomer Fahrzeuge. Laut Statistik lassen sich ca. 90 % der Unfälle im Straßenverkehr auf menschliches Versagen bzw. menschliches Fehlverhalten zurückführen (ebd.). Entsprechend einleuchtend erscheint der Ansatz des autonomen Fahrens, den menschlichen Fahrer komplett oder zumindest so weit wie möglich aus der Fahraufgabe zu entlassen und damit die Zahl der Verkehrsunfälle und der damit verbundenen Schäden für Leben und Gesundheit stark zu verringern. Sollte sich diese mit der Vision des autonomen Fahrens verbundene Hoffnung als tragfähig erweisen, müssten schon sehr starke Gegenargumente gegen diese Technologie vorgebracht werden. Schließlich geht mit der (technischen) Möglichkeit, diese Zahlen zu verringern, auch eine beträchtliche ethische Verpflichtung einher, sich der dazu nötigen Mittel zu bedienen, die nur schwer aufzuwiegen ist. So werfen Hevelke und Nida-Rümelin (2015) die Frage auf, ob die Einführung höher automatisierter Fahrsysteme oder vollautonomer Fahrzeuge nicht sogar als ethisch geboten anzusehen ist. Eine solche unbedingte Pflicht zum autonomen Fahren kann durchaus kritisch gesehen werden, nicht zuletzt deswegen, weil auch diese Technologie das mit ihr verbundene Sicherheitsversprechen nicht vollkommen einlösen können wird. Aufgrund von technologischen Mängeln, unvorbereiteten und evtl. unvorhersehbaren Situationen, auf die das autonome Fahrzeug (noch) nicht angemessen reagieren kann, wird auch diese Technologie Unfälle nicht gänzlich verhindern können (Goodall 2014). Dies kann auch Unfälle einschließen, die spezifisch für autonome Technologien sind und einem menschlichen Fahrer nicht unterlaufen würden. Die Unfallproblematik ist auch für das teilautonome Fahren eine Herausforderung: Da sich dabei Mensch und Maschine die Fahraufgabe teilen, kann die Frage gestellt werden, wer in welcher Situation für eventuelle Unfälle verantwortlich ist. Darauf eine konkrete Antwort zu geben, ist allerdings problematisch, weil bei dieser Art der „Mensch-Maschine-Interaktion“ Unklarheiten in Bezug auf die Übernahme bzw. Abgabe von Kontrolle bestehen. Dies ist insbesondere dann der Fall, wenn dem Menschen in bestimmten Phasen die Aufgaben der Überwachung und des schnellen Eingreifens übertragen werden. Bainbridge (1983) legt nahe, dass für Menschen gerade ein hochautomatisiertes Umfeld äußerst abträglich ist, um Überwachungs- und Übernahmeaufgaben angemessen durchzuführen. Ob es sinnvoll ist, einem menschlichen Fahrer die Verantwortung für diese Aufgaben zu übertragen, während man gleichzeitig ein Umfeld schafft, in dem die dafür notwendigen Fähigkeiten leiden, ist eine offene Frage, deren Klärung auch ein Anliegen der Ethik-Kommission für automatisiertes und vernetztes Fahren war (Ethik-Kommission 2017).

Es ist davon auszugehen, dass Unfälle mit (teil-)autonomen Fahrzeugen im Allgemeinen, aber auch Unfälle, die spezifisch für das autonome Fahren sind, weitestgehend mit den Mitteln des bestehenden (rechtlichen) Systems behandelt werden können (Grunwald 2015). Dennoch kommt der Frage eine hohe Bedeutung zu, wer für Schäden an Personen oder Sachen, die durch autonomes Fahren verursacht werden, eigentlich verantwortlich ist. An dieser Stelle lohnt ein Blick auf die recht umfangreiche Liste der zentralen Akteure bzw. Interessengruppen und die unterschiedlichen Arten, wie sie vom autonomen Fahren betroffen sind. So stellen die Nutzer autonomer Fahrzeuge eine Interessengruppe dar, die einerseits von der Technik profitiert, andererseits als Insassen eines solchen Fahrzeugs dem Risiko eines Unfalls ausgesetzt ist. Gleichzeitig wird der Straßenverkehr auch von anderen Akteuren genutzt: Im Falle eines Mischverkehrs werden sich auch Nutzer von Fahrzeugen, die über keine oder nur sehr niedrigschwellige Assistenzsysteme verfügen, genauso wie Fahrradfahrer oder Fußgänger, die im Straßenverkehr besonders gefährdete Gruppen darstellen, die Straßen mit autonomen Fahrzeugen teilen. Vor allem im Stadtverkehr sind diese beiden Gruppen in besonderem Maße durch Unfallschäden negativ betroffen (Statistisches Bundesamt 2016). Sich den Risiken des autonomen Fahrens zu entziehen, würde für diese anderen Verkehrsteilnehmer bedeuten, sich dem Straßenverkehr als solchem zu entziehen. Dies wäre nicht nur mit erheblichen Einschränkungen verbunden, sondern scheint – besonders in Hinblick auf Fußgänger und Fahrradfahrer – ungerecht zu sein. Aber auch für die Gesellschaft als Ganzes kann autonomes Fahren positive wie negative Folgen haben (s. u.).

Involviert in die Entwicklung autonomer Fahrzeuge, was die Ausgestaltung der notwendigen Hard- und Software betrifft, sind in erster Linie die Herstellerfirmen und deren Programmierer. Gleichzeitig betrifft insbesondere die Entwicklung der Software zentrale ethische Themen, schließlich findet hier die Verwendung bestimmter lernender Systeme und das Entwickeln von Entscheidungsalgorithmen statt. Auch wenn, wie bereits dargelegt, unklar ist, welche die richtigen moralischen Werte sind, die in den Entscheidungsalgorithmen ihren Ausdruck finden sollen, müssen die Kriterien für die Algorithmen zumindest hinreichend ähnlich zu bestehenden gesellschaftlichen Wertkonzepten sein. Hier bedarf es einer Reihe weiterer Akteure, die in diesen Entwicklungsprozess einbezogen werden müssen: Manager, Regulatoren, Rechtsexperten, Versicherungen sowie politische Entscheidungsträger. An dieser Auflistung zeigt sich, dass es schwer sein wird, einen konkreten Verantwortlichen für durch autonomes Fahren verursachte Unfälle zu bestimmen: Das autonome Fahrzeug ist als ein moralischer Akteur in einem höchstens abgeleiteten Sinne ein denkbar schlechter Adressat für Verantwortung, auch wenn es der Verursacher eines Unfalls ist (Misselhorn 2018). Ein offensichtlicher Kandidat könnte der jeweilige Hersteller bzw. der oder die Programmierer eines autonomen Fahrzeugs sein. Allerdings scheint es zumindest in Abwesenheit von augenscheinlichen Herstellungsfehlern nicht in allen Fällen gerechtfertigt zu sein, die Verantwortung für Unfälle ihnen allein zu übertragen. Schließlich werden sie voraussichtlich innerhalb eines rechtlichen und gesellschaftlichen Rahmens handeln, in dem der Einsatz autonomen Fahrens reguliert und erlaubt ist.

Neben Herstellern und Programmierern spielt auch der Nutzer eines solchen Fahrzeugs eine ambivalente Rolle bei der Frage nach der Verantwortung: So hat er im Rahmen des autonomen Fahrens nur noch die Rolle eines „Beifahrers“ inne und kann daher nicht als Verursacher eines Unfalls angesehen werden. Gleichzeitig kann er aber als Nutznießer des Systems teilweise dafür verantwortlich gemacht werden, die Risiken, die mit autonomem Fahren einhergehen, auf die Straße zu bringen (Hevelke und Nida-Rümelin 2015). Ein möglicher Ansatz könnte also darin bestehen, die Nutzer autonomer Fahrzeuge gemeinsam für das Risiko, welches autonome Fahrzeuge im Straßenverkehr darstellen können, in eine kollektive Verantwortung zu nehmen, z. B. über entsprechende Steuerabgaben oder über eine Pflichtversicherung (ebd.). Diese Maßnahmen könnten einen Teil des rechtlichen und gesellschaftlichen Rahmens sein, der sowohl die Herstellung als auch tatsächliche Verwendung eines autonomen Fahrzeugs im Straßenverkehr grundsätzlich ermöglicht. Dabei stellt die Gestaltung dieses rechtlichen und gesellschaftlichen Rahmens, in dem autonomes Fahren stattfinden kann, ein zentrales Element für Verantwortungszuschreibung dar: Entsprechend verschiebt sich die Verantwortung für die Entscheidungen autonomer Fahrzeuge, die zu Unfällen führen können, einerseits auf die Gestalter der technischen Systeme, aber auch auf diejenigen Akteure, die die nötigen Randbedingungen und (rechtlichen) Vorgaben schaffen. Diese bestehen unter anderem aus den oben genannten Akteuren, also Managern, Regulatoren, Rechtsexperten, Versicherungen, Behörden und politischen Entscheidungsträgern. Doch auch deren Entscheidungen bedürfen einer Legitimation, die sich wohl letztendlich aus einer offenen, gesellschaftsweiten Debatte ergeben wird. Somit ist es in letzter Hinsicht auch die Gesellschaft – in welcher Form auch immer – die Verantwortung für die Folgen des autonomen Fahrens übernehmen muss. Interessant ist bei der Rede von Stichworten wie kollektiver Verantwortung oder einem „rechtlichen und gesellschaftlichem Rahmen“, in dem autonomes Fahren stattfinden kann und der ein verantwortungsvolles Agieren der individuellen Akteure ermöglichen soll, der Wechsel von einer primär ethischen hin zu einer stärker politischen Perspektive auf diese Technologie. Tatsächlich kann die Lösung der Probleme, die das autonome Fahren an uns als Gesellschaft stellt, in einem politischen Aushandlungsprozess liegen, dessen Ziel darin besteht zu klären, welches Risiko wir als Gesellschaft bereit sind, für ein auf autonomen Fahrzeugen beruhendes Verkehrssystem mit allen seinen Vor- und Nachteilen in Kauf zu nehmen. Diese Verschiebung macht Ethik nicht überflüssig, da ethische Argumentationen in den politischen Aushandlungen und ihren rechtlichen Verfestigungen eine wichtige Rolle spielen dürften.

3 Ethische Herausforderungen auf der Systemebene

Die Technologie autonomen Fahrens wird sich nicht darin erschöpfen, dass heutige von Menschen gefahrene Fahrzeuge durch automatische Fahrzeuge ergänzt oder von ihnen ersetzt werden, aber ansonsten alles gleichbleibt. In der Debatte um autonomes Fahren werden freilich ethische Fragen auf anderen Ebenen und für andere Akteure häufig ausgeblendet, die zu den spezifisch maschinenethischen Fragestellungen noch hinzukommen. Autonomes Fahren gilt dabei als Schlüssel für eine neue Stufe der Mobilität und als Quelle innovativer Mobilitätskonzepte in Absetzung vom klassischen Automobil. Da damit große Märkte, Wertschöpfungsketten, Geschäftsmodelle und Gewinnerwartungen verbunden werden, gibt es einen globalen Wettbewerb um Konzepte und schnelle Markteinführung. Dadurch können neue Systemeffekte im Mobilitätssystem und Folgen für den Arbeitsmarkt entstehen, Zugangsgerechtigkeit und Privatheit herausgefordert werden sowie neue gesellschaftliche Abhängigkeiten einkehren, sowohl von technischen Systemen als auch von den Akteuren hinter diesen Systemen. Diese möglichen Entwicklungen bergen Chancen und Risiken, die ebenfalls vorausschauend analysiert und unter ethischer Perspektive bedacht werden müssen. Je nach systemischer Frage sind dabei unterschiedliche Bereichsethiken angesprochen: die Wirtschafts- und Unternehmensethik, die Umweltethik (Ott et al. 2016), die Informationsethik (Heesen 2016) und die Technikethik (Grunwald 2013).

Wie im einleitenden Kapitel beschrieben, werden von der Einführung autonomen Fahrens nicht nur Vorteile auf der individuellen Ebene wie Sicherheit und Lebensqualität erwartet, sondern auch Vorteile auf der Ebene des Verkehrssystems generell. Verbesserte Verkehrseffizienz durch intelligente Steuerung des Verkehrsflusses und dadurch bessere Ausnutzung der vorhandenen Infrastruktur können Staus vermindern und Fahrzeiten verkleinern. Dadurch und durch ökologisch optimierte Fahrweise autonomer Fahrzeuge kann es zur Verminderung der Umweltbelastung durch den Straßenverkehr kommen. In einer ethischen Abwägung schlagen diese erwarteten Vorteile selbstverständlich positiv zu Buche. Allerdings ist umstritten, wie realistisch diese Erwartungen sind. Seit Jahrzehnten wird von technischen Maßnahmen wie Leichtbau, effizienter Antriebstechnik und Steuerung des Verkehrs durch Telematik eine Verminderung der Umweltbelastung des Verkehrs erwartet. Eingetreten sind diese Erwartungen meist aufgrund von Rebound-Effekten (Jackson 2009) nicht oder nur in marginalem Umfang, weil z. B. die Automobile immer größer und leistungsstärker wurden. Analog ist es denkbar, dass das autonome Fahren zu einer weiteren Steigerung der Mobilitätsbedürfnisse führen könnte, wodurch die erhofften positiven Systemeffekte für Effizienz und Umwelt zunichtegemacht werden könnten. Es wäre daher naiv, einfach das Eintreten der unzweifelhaft vorhandenen Potenziale zu erwarten. Ein ethisches Gebot ist vielmehr, erstens in der Analyse zukünftiger Systemeffekte autonomen Fahrens auch mögliche Verhaltens- und Bedarfsänderungen zu berücksichtigen, und zweitens konkrete Innovations- und Umsetzungspfade zu untersuchen und ggf. zur Umsetzung zu bringen, in denen realistische Aussicht auf Realisierung der Potenziale besteht.

Die historische Erfahrung zeigt jenseits solcher Positiverwartungen eine tief greifende Ambivalenz von Technik und Technisierung (Grunwald 2010). Danach ist damit zu rechnen, dass es auch beim autonomen Fahren zu nicht intendierten Folgen auf der Systemebene kommen wird. Nicht intendierte Folgen werden häufig als Risiken, als mögliche Schäden (Nida-Rümelin 1996) thematisiert. Dies ist besonders virulent, wenn es um die Zumutung möglicher Risiken an Betroffene geht, also z. B. durch Arbeitsplatzverluste, Einschränkungen der Wahlfreiheit oder Gesundheitsrisiken. Entsprechende Abwägungen führen in der Regel nicht zu einem Entweder/Oder, sondern geben Hinweise darauf, wie die in Frage stehende Technologie entwickelt und eingesetzt, möglicherweise aber auch flankiert und reguliert werden sollte, damit der Umgang mit den unvermeidlichen Risiken in einer möglichst verantwortlichen Weise erfolgt. In diesem Sinne ist ethische Reflexion gestaltungsorientiert. Eine adäquate und sorgfältige Diskussion von Risiken auf der Systemebene muss kontextbezogen und differenzierend vorgehen und soll in Bezug auf das autonome Fahren Fragen der folgenden Art so weit wie möglich beantworten (vgl. Grunwald 2015):
  • Für wen können welche systembedingten Schäden auftreten, welche Personengruppen können gefährdet werden oder müssten möglicherweise Nachteile erleiden?

  • Wie sind mögliche Risiken auf Personengruppen verteilt? Sind die Träger der Risiken andere Gruppen als die Nutzer der Vorteile des autonomen Fahrens?

  • Wer sind jeweils die Entscheider? Befinden sie über selbst einzugehende Risiken oder setzen sie andere Menschen Risiken aus?

  • Mit welcher Plausibilität oder Wahrscheinlichkeit ist mit dem Eintreten dieser Risiken zu rechnen? Wovon hängt ihr Eintreten ab und wie kann dieses beeinflusst werden?

  • Wie groß ist die räumliche und zeitliche Reichweite der Risiken? Welche Pfadabhängigkeiten mit welchen Implikationen (acatech 2016) zeichnen sich ab und wie sind sie zu beurteilen?

Auf diese Weise wird das abstrakte Systemrisiko des autonomen Fahrens in mehr oder weniger klar angebbare Risiken in einzelnen Handlungsfeldern, Akteurskonstellationen und gesellschaftlichen Teilsystemen zerlegt, deren ethische Legitimier- und Verantwortbarkeit einzeln und konkret analysiert und diskutiert werden kann. Beispielsweise kann dann auch konkret nach möglichen Unterschieden zwischen autonom fahrenden LKW, Bussen oder Individualfahrzeugen differenziert werden. Nicht intendierte systemische Folgen mit möglichen Schäden können beim autonomen Fahren in sehr unterschiedlichen Bereichen auftreten. Die folgende Darstellung beruht auf Grunwald (2015).

Systemische Risiken

Während in der bisherigen Autowelt die Fahrzeuge mehr oder weniger unabhängig voneinander bedient werden und sich Massenphänomene nur emergent durch das ungeplante Zusammenwirken der vielen individuell geführten Fahrzeuge ergeben, wird der autonom geführte Verkehr zu einem gewissen Anteil durch Leitzentralen und Vernetzung verbunden sein. Die Steuerung einer großen Zahl von Fahrzeugen wird voraussichtlich durch eine der Grundstruktur nach identische Software erfolgen, weil Komplexität und Firmenkonzentration vermutlich die Zahl von Zulieferern stark begrenzen wird. Nun ist komplexe Software bekanntlich niemals vollständig vor Inbetriebnahme prüfbar. Die Nutzung ist in diesem Sinne auch nur eine weitere Testphase, eine Art soziales Experiment, in dem die Nutzenden auch Testende sind (Van de Poel 2016). Dies ist bereits heute auch in der Autowelt ein Stück weit der Fall, sind doch Softwareprobleme ein relativ häufiger Grund für Pannen. Auf der Systemebene könnte es zu simultanem Ausfall oder zu simultanem Fehlverhalten einer großen Zahl von Fahrzeugen kommen, basierend auf dem gleichen Softwareproblem. Diese Probleme wären dann nicht mehr, wie bei bisherigen Unfällen, räumlich, zeitlich und in der Schadensgröße überschaubar, sondern könnten erheblichen Schaden für Menschen mit sich bringen sowie volkswirtschaftlich relevant werden. Über reine Softwareprobleme hinaus ist zu beachten, dass vernetzt fahrende, autonome Fahrzeuge ein sich selbst koordinierendes Megasystem mit extrem hoher Komplexität bilden, zumal es auch menschlich bedienten Verkehr integrieren muss. Dies ist geradezu eine Musterkonstellation für schlecht oder möglicherweise gar nicht antizipierbare systemische Risiken, in denen sich Risiken komplexer Technik und Software mit unvorhergesehenem menschlichen Handeln zu unerwarteten Systemproblemen aggregieren könnten (Renn et al. 2008).

In ethischer Hinsicht erwachsen in dieser Perspektive Aufklärungs-, Forschungs- und Vorsorgenotwendigkeiten. Sicherheits-, Vulnerabilitäts- und Resilienzforschung müssen auch auf der Systemebene durchgeführt werden, um mögliche Probleme frühzeitig erkennen und Präventiv- oder Eindämmungsmaßnahmen einleiten zu können. Vermutlich kommt der Resilienzforschung besondere Bedeutung zu, um vollständige Systemzusammenbrüche und damit einen möglichen gesellschaftsweiten Stillstand zu verhindern. Die verantwortlichen Akteure bilden ein komplexes Geflecht aus Wissenschaft, Automobilkonzernen, Softwareproduzenten, politischen Regulierern und Behörden mit verteilten Verantwortlichkeiten.

Ökonomische Risiken

Erforschung und Entwicklung von Technologien des autonomen Fahrens sind extrem aufwändig und damit entsprechend kostenintensiv, sowohl auf der Ebene der individuellen Fahrzeuge und ihrer Interaktion, aber auch in Bezug auf die erforderliche Ertüchtigung der Straßeninfrastruktur. Wie bei anderen Investitionen besteht auch hier für die involvierten Unternehmen das betriebliche Risiko, dass der Return on Investment nicht in der erwarteten Größenordnung oder nicht im erwarteten Zeitraum kommt, etwa weil autonomes Fahren sich nicht in größerem Umfang durchsetzt. Auf der anderen Seite besteht bei einem Verzicht auf diese Investitionen das Risiko, dass Konkurrenten im Erfolgsfall das Geschäft machen. Hier müssen also strategische Unternehmensentscheidungen unter Abwägung der unterschiedlichen Risiken getroffen werden. Dies ist zunächst ein Standardfall der Unternehmensführung sowie eine klassische Aufgabe des Managements und aufgrund der Größenordnung der Investitionen von unternehmensethischer Relevanz.

Die hohe Abhängigkeit der deutschen Volkswirtschaft vom Automobilmarkt führt auf ein darüber hinaus gehendes Problem. Vorausschauende wirtschafts- und industriepolitische Maßnahmen, aber auch Regulation und Anreizsysteme werden diskutiert, um in Deutschland ein förderliches Klima für autonomes Fahren zu schaffen, um in der globalen Konkurrenz vor allem mit chinesischen und US-amerikanischen Unternehmen bestehen zu können. Im Spannungsverhältnis zwischen dem liberalen Gedanken eines freien Welthandels und dem politischen Wunsch nach einer gedeihlichen Entwicklung der nationalen Wirtschaft sind ethische Fragen einer gerechten Wirtschaftsordnung involviert.

Arbeitsmarkt

Eine umfassende Realisierung des autonomen Fahrens hätte zweifellos Auswirkungen auf den Arbeitsmarkt. Betroffen wären primär, abhängig von den Bereichen der Autonomisierung des Verkehrs, Lastwagenfahrer, Taxifahrer und Mitarbeiter von Logistik- und Zustellunternehmen. Eine auf autonomes Fahren umgestellte Mobilitätswelt käme weitgehend ohne diese Berufe aus. Auf der anderen Seite könnten neue Berufsfelder in der Steuerung und Überwachung des autonomen Verkehrs entstehen, würden in Entwicklung, Test und Herstellung der entsprechenden Systeme hoch qualifizierte Mitarbeiter benötigt, vor allem in der Zulieferindustrie.

Historisch sind Automatisierungswellen sowohl mit dem Wegfall von Arbeitsplätzen als auch der Entstehung neuer verbunden. Der Automatisierung in Produktion und Fertigung in den 1980er-Jahren sind allein in Deutschland Millionen von Arbeitsplätzen zum Opfer gefallen, vorwiegend im Bereich einfacher mechanischer Tätigkeiten. Es war eine erhebliche gesellschaftliche Anstrengung erforderlich, um durch Qualifizierung und Umschulung wenigstens einem Teil der Betroffenen andere Tätigkeitsfelder zu ermöglichen. Gegenwärtig gibt es Befürchtungen, dass die zunehmende Digitalisierung auch anspruchsvollere Tätigkeiten überflüssig machen könnte (Börner et al. 2018). Auf der positiven Seite entstehen neue Tätigkeitsfelder und Arbeitsmöglichkeiten, in der Regel für höher Qualifizierte. In allen bisherigen Automatisierungswellen gab es Gewinner und Verlierer.

Aus Perspektive der Verteilungsgerechtigkeit müssen diese Gewinner/Verlierer-Konstellationen analysiert und ethisch wie politisch reflektiert werden. Eine gesellschaftliche Entwicklung hin zu autonomem Fahren muss diese den potenziellen Verlierern gegenüber legitimieren und ggf., wenn die Verluste nicht zumutbar sind, auch Kompensation leisten. Hierbei ist nicht nur an die ökonomische Existenz der Betroffenen zu denken, sondern auch an die Frage nach einem sinnstiftenden Platz in einer zukünftigen Gesellschaft. Da davon auszugehen ist, dass die Integration des autonomen Fahrens in das gegenwärtige Verkehrssystem allmählich erfolgt und weil Erfahrungen aus anderen Automatisierungsvorgängen vorliegen, dürften die Voraussetzungen hier recht gut sein. Um für den Arbeitsmarkt problematische Entwicklungen frühzeitig zu erkennen, ist entsprechende Forschung erforderlich. Im Sinne eines ‚ethischen Vorsorgegebots‘ sollten in Kooperationen aus Gewerkschaften und Arbeitgebern, Wissenschaft und Politik frühzeitig Transformationsstrategien für die betroffenen Berufe entwickelt werden, z. B. im Hinblick auf die Vorbereitung von Betroffenen auf neue Berufe durch Weiterbildung.

Privatheit

Bereits heute liefern moderne Automobile eine Fülle von Daten und hinterlassen elektronische Spuren, z. B. durch Verwenden einer Navigationshilfe oder durch an die Hersteller übermittelte Daten. Aus vernetzt fahrenden autonomen Fahrzeugen könnten durch die elektronischen Spuren vollständige Bewegungsprofile abgelesen werden. Bewegungsprofile sind eine wertvolle Information für Polizei und Geheimdienste, die etwa die räumliche Bewegung von Terroristen und Regimegegnern verfolgen könnten, aber auch für Unternehmen, um Profile für zielgenaue Werbung abzuleiten. Hier bestehen weitreichende Missbrauchsmöglichkeiten mit der ethischen Notwendigkeit entsprechender Vorkehrungen zum Schutz der Privatheit: „Eine vollständige Vernetzung und zentrale Steuerung sämtlicher Fahrzeuge im Kontext einer digitalen Verkehrsinfrastruktur ist ethisch bedenklich, wenn und soweit sie Risiken einer totalen Überwachung der Verkehrsteilnehmer und der Manipulation der Fahrzeugsteuerung nicht sicher auszuschließen vermag“ (Ethik-Kommission 2017).

Angesichts der zunehmenden Digitalisierung und Vernetzung von immer mehr Bereichen des gesellschaftlichen und individuellen Lebens stellt die spezifisch zusätzliche Digitalisierung im autonomen Fahren vermutlich nur ein Element neben vielen anderen dar, wie die aktuellen Debatten zeigen (Rolf 2014; Kolany-Raiser et al. 2018). Das Entstehen einer konvergierenden Mega-Infrastruktur aus Verkehrssystem, Informationsversorgung, Kommunikationssystemen, Energiesystemen und möglicherweise weiteren, bisher getrennt funktionierenden Infrastrukturen stellt eine der großen Herausforderungen der nächsten Jahre oder sogar Jahrzehnte dar. Ethik und Politische Philosophie sind hier gefragt, in den Debatten um neue Grenzen zwischen Privatheit und Öffentlichkeit mitzuwirken. Das autonome Fahren selbst ist in dieser Auseinandersetzung vermutlich von nur geringer spezifischer Bedeutung.

Abhängigkeit

Moderne Gesellschaften sind generell vom reibungslosen Funktionieren von Technik zunehmend abhängig. Dies beginnt mit der Abhängigkeit vom individuellen Computer und Auto und reicht bis hin zur vollständigen Abhängigkeit von einer funktionierenden Energieversorgung (Petermann et al. 2011) und dem Funktionieren der weltweiten Datenkommunikationsnetze und Datenverarbeitung als Voraussetzung der globalen Wirtschaft. Bei einer weitgehenden Umstellung der Mobilität auf autonomes Fahren würde selbstverständlich ein großer Teil der gesellschaftlichen Mobilitätsbedürfnisse vom Funktionieren dieses Systems abhängen. Ein Zusammenbruch wäre dann noch tragbar, wenn es genügend Menschen gibt, die Fahrzeuge noch manuell bedienen können. Mit autonomen Fahrzeugen im individuellen Personenverkehr wäre dies solange kein prinzipielles Problem, wie eine Umschaltung von autonom auf manuell noch technisch möglich wäre. Allerdings könnte es in einzelnen Fällen zu Schwierigkeiten aufgrund mangelnder menschlicher Fahrpraxis kommen. Falls jedoch weite Teile der Logistik und des Güterverkehrs autonom abgewickelt würden, wäre es schwer vorstellbar, für den Fall eines länger andauernden Komplettausfalls ein umfangreiches Fahrpersonal vorzuhalten, selbst wenn die Fahrzeuge auch manuell betrieben werden könnten. Im Ausfall wesentlicher Logistikketten käme es schnell zu möglicherweise katastrophalen Engpässen in der Versorgung der Bevölkerung (Petermann et al. 2011).

Mit der weiteren Digitalisierung und der Übergabe von Autonomie an technische Systeme wächst die gesellschaftliche Anfälligkeit gegenüber intendierten Störungen und externen Angriffen. Durch Terroristen, Psychopathen oder auch in militärischen Zusammenhängen wäre dann auch das autonome Fahren betroffen. So könnten die Leitzentralen „gehackt“, es könnte Störsoftware eingebracht oder ein Systemzusammenbruch ausgelöst werden. Angriffe auf die Steuerungssoftware könnten bedeuten, dass jemand anderes die Kontrolle übernimmt und z. B. absichtlich Unfälle auslöst. Abwehrmaßnahmen sind selbstverständlich notwendig.

Die zunehmende Abhängigkeit von technischen Systemen stellt sich üblicherweise mehr oder weniger schleichend ein und wird daher vielfach nicht explizit in Risiko-Chance-Abwägungen berücksichtigt. Häufig wird sie gar nicht wahrgenommen oder sogar verdrängt. In ethischer Perspektive erscheint es jedoch aus Vorsorgenotwendigkeiten geboten, erstens den jeweiligen Stand der Abhängigkeit zu erheben und Bewusstsein dafür zu schaffen, zweitens mögliche Schadensszenarien im Falle des Falles zu explorieren, und drittens Maßnahmen für diese Schadensfälle vorbereitend zu entwickeln.

Diese Risikotypen zeichnen ein vielfältiges Bild der Risikokonstellation autonomen Fahrens. Das Feld der beteiligten Akteure, der Entscheidungsträger und der betroffenen gesellschaftlichen Gruppen stellt sich jeweils anders dar. In ethischer Perspektive sind hier individualethische, technikethische, sozialethische und wirtschaftsethische Fragen involviert. Teils hängen diese mit regulativ-rechtlichen Aspekten zusammen, teils markieren sie eher Aufgaben für eine politische Gestaltung.

4 Ausblick

Geteilte Verantwortung stellt eine wesentliche Herausforderung für den Einsatz autonomer Fahrzeuge dar, insbesondere weil umstritten ist, wie zentrale ethische Fragen zu den Kriterien der Entscheidungsfindung in Dilemma- oder anderen kritischen Situationen im Straßenverkehr gelöst werden sollen. Hier kann der Endbericht der Ethikkommission (2017) trotz des durchaus berechtigten Vorwurfs fehlender Eindeutigkeit, wenig Originalität und zu großer Allgemeinheit (Misselhorn 2018) als ein erster Schritt hin zu einem rechtlichen und gesellschaftlichen akzeptablen Rahmen für autonomes Fahren gelten. So werden in ihm Ansätze zur Erstellung von Leitlinien deutlich, die zu weiten Teilen mit Wertvorstellungen kongruent sind, auf die bereits in anderen Kontexten rekurriert wird: So findet der Grundsatz, dass Personen stets schutzwürdiger sind als Sachen, und dass das menschliche Leben unter den im Straßenverkehr bedrohten Rechtsgütern den höchsten Rang einnimmt, eine zentrale Stelle im Endbericht ein, genauso wie das Prinzip der Schadensminimierung. Außerdem wird an einigen Stellen, in denen es zentral um die Frage nach dem Abwägen von Leben geht, auf das Grundsatzurteil des BVerfG zum Luftsicherheitsgesetz verwiesen, nach dem die Tötung Unschuldiger unter allen Umständen als rechtswidrig angesehen werden sollte. Ebenso wird eine Abwägung nach kontingenten Kriterien wie Alter, Geschlecht oder Ethnie bei Entscheidungen in kritischen Situationen äußerst kritisch gesehen, auch wenn die Frage offenbleibt, ob es in Dilemma-Situation, in der mehrere Menschen gleichermaßen in Lebensgefahr sind, in manchen Fällen geboten sein könnte, die Zahl der unschuldig Getöteten so gering wie möglich zu halten, und diesen Grundsatz in einer gesetzlichen Regelung festzuhalten (vgl. hierzu die obigen Ausführungen zu Qualifizieren/Quantifizieren). Dies würde bedeuten, auch hier das Prinzip des geringsten Übels anzuwenden und unter mehreren drohenden Personenschäden die geringfügigsten anzustreben. Im Endbericht findet sich zudem der intuitiv einleuchtende Grundsatz, in kritischen Situationen Unbeteiligte nicht zugunsten derjenigen zu opfern, die das Risiko erst in den Straßenverkehr einbringen (Ethik-Kommission 2017).

Freilich kann der Bericht der Kommission genauso wie das vorliegende Kapitel nur ein Schritt in einem ethischen und gesellschaftlichen, aber auch wissenschaftlichen und technischen Lernprozess sein. Die aufgeworfenen ethischen Fragen, aber auch die weiterhin exorbitanten technischen Herausforderungen rufen nach einer allmählichen Integration teil- oder hochautomatisierter Elemente in das Verkehrssystem. Eine allmähliche Integration eröffnet die größten Chancen auf ein kontinuierliches Lernen, anders als etwa die disruptive Einführung komplett neuer Technologien, von denen weder Zielerreichung noch die ethische und gesellschaftliche Verträglichkeit der Nebenfolgen hinreichend evident gemacht wurde. Die beiden bisherigen tödlichen Unfälle mit (teil-)autonomen Fahrzeugen (s. o.) deuten auf eine Überschätzung der Technologie hin. Es ist trotz der nach Beschleunigung rufenden ökonomischen Wettbewerbskonstellation eine ethische Verpflichtung, den Weg hin zu einem stärker automatisierten Verkehr möglichst reflexiv und lernend zu gestalten.

Fußnoten

  1. 1.

    https://www.tesla.com/de_DE/autopilot (Zugegriffen am 04.02.2019).

  2. 2.
  3. 3.
  4. 4.

    Dementsprechend wurden zahlreiche wissenschaftliche Publikationen in den letzten Jahren veröffentlicht, die an der klassischen Debatte um die Trolley-Probleme ansetzen und diese auf den Fall des autonomen Fahrens anwenden, u. a. Lin (2016) und JafariNaimi (2017).

  5. 5.

    Wie verschiedene Moralkonzepte auf den Fall des autonomen Fahrens bzw. autonomer Systeme allgemein angewendet werden und wie normative Regelsysteme für autonome Maschinen aussehen können, wird in der Literatur umfassend behandelt: So stellt beispielsweise die Initiative zur Ethik autonomer und intelligenter Systeme des IEEE in einem Bericht Empfehlungen für ein ethisches Design autonomer und intelligenter Systeme vor (IEEE 2017). Eine Zusammenfassung verschiedener philosophischer Moralkonzepte, ethischer Leitlinien aus dem professionellen Umfeld und verschiedener Anwendungsgebiete der Roboterethik im Allgemeinen findet sich in Tzafestas (2016). Einen interessanten Einblick in die Roboterethik bietet der Sammelband Robot Ethics (Lin et al. 2012) und der darin enthaltene Artikel von Abney (2012), in dem deontologische Ethik sowie Tugendethik als vielversprechende Moralkonzepte für die Implementation in autonome Systeme genannt werden.

Literatur

  1. Abney, Keith. 2012. Robotics, ethical theory, and metaethics: A guide for the perplexed. In Robot Ethics. The ethical and social implications of robotics, Hrsg. Patrick Lin, Keith Abney und George A. Bekey. Cambridge, MA: The MIT Press.Google Scholar
  2. Anderson, Michael, und Susan L. Anderson. 2011. Machine ethics. Cambridge, MA: Cambridge University Press.  https://doi.org/10.1017/CBO9780511978036.Google Scholar
  3. Anderson, Michael, Susan L. Anderson, und Chris, Armen. 2005. Towards machine ethics: Implementing two action-based ethical theories. In Proceedings of the AAAI 2005 fall symposium on machine ethics. Arlington.Google Scholar
  4. Anderson, Michael, Susan L. Anderson, und Chris, Armen. 2006 MedEthEx: A prototype medical ethics advisor. In Proceedings of the 18th conference on innovative applications of artificial intelligence, Boston, Massachusetts, Bd. 2, 1759–1765.Google Scholar
  5. Awad, Edmond, Sohan Dsouza, Richard Kim, Jonathan Schulz, Joseph Henrich, Azim Shariff, Jean-Francois Bonnefon, und Iyad Rahwan. 2018. The moral machine experiment. Nature 563: 59–63.CrossRefGoogle Scholar
  6. Bainbridge, Lisanne. 1983. Ironies of automation. Automatica 19:775–779.CrossRefGoogle Scholar
  7. Baumann, Martina F., Claudia Brändle, Christopher Coenen, und Silke Zimmer-Merkle. 2018. Taking responsibility: A Responsible Research and Innovation (RRI) perspective on insurance issues of semi-autonomous driving. Transportation Research Part A: Policy and Practice.  https://doi.org/10.1016/j.tra.2018.05.004.
  8. Bendel, Oliver. 2018. Überlegungen zur Disziplin der Maschinenethik. Aus Politik und Zeitgeschichte 6–8:34–38.Google Scholar
  9. Birnbacher, Dieter, und Wolfgang Birnbacher. 2016. Automatisiertes Fahren. Ethische Fragen an der Schnittstelle von Technik und Gesellschaft. Information Philosophie 4:8–15.Google Scholar
  10. Börner, Franziska, Christoph, Kehl, und Linda, Nierling. 2018. Chancen und Risiken mobiler und digitaler Kommunikation in der Arbeitswelt. Berlin: Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag. www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Arbeitsbericht-ab174.pdf. Zugegriffen am 26.08.2018.
  11. Dilich, Michael, Dror, Kopernik, und John, Goebelbecker. 2002. Evaluating Driver response to a sudden emergency: Issues of expectancy, emotional arousal and uncertainty. SAE Technical Paper 2002-01-0089.  https://doi.org/10.4271/2002-01-0089.
  12. Ethik-Kommission automatisiertes und vernetztes Fahren. 2017. Bericht. https://www.bmvi.de/SharedDocs/DE/Publikationen/DG/bericht-der-ethik-kommission.pdf?__blob=publicationFile. Zugegriffen am 06.03.2019.
  13. Fagnant, Daniel J., und Kara Kockelman. 2015. Preparing a nation for autonomous vehicles: Opportunities, barriers and policy recommendations. Transportation Research Part A: Policy and Practice 77:167–181.  https://doi.org/10.1016/j.tra.2015.04.003.CrossRefGoogle Scholar
  14. Färber, Berthold. 2016. Kommunikationsprobleme zwischen autonomen Fahrzeugen und menschlichen Fahrern. In Autonomes Fahren. Technische, rechtliche und gesellschaftliche Aspekte, Hrsg. Markus Maurer, Christian J. Gerdes, Barbara Lenz und Hermann Winner, 128–146. Berlin/Heidelberg: Springer.Google Scholar
  15. Foot, Philippa. 1967. The problem of abortion and the doctrine of the double effect. Oxford Review 5:5–15.Google Scholar
  16. Goodall, Noah J. 2014. Machine ethics and automated vehicles. In Road vehicle automation. Lecture notes in mobility, Hrsg. G. Meyer und S. Beiker. Cham: Springer.  https://doi.org/10.1007/978-3-319-05990-7_9.CrossRefGoogle Scholar
  17. Grunwald, Armin. 2010. Technikfolgenabschätzung – Eine Einführung. Zweite, grundlegend überarbeitete erweiterte Auflage. Berlin: edition sigma.CrossRefGoogle Scholar
  18. Grunwald, Armin, Hrsg. 2013. Handbuch Technikethik. Stuttgart/Weimar: Metzler.Google Scholar
  19. Grunwald, Armin. 2015. Gesellschaftliche Risikokonstellation für Autonomes Fahren. Analyse, Einordnung und Bewertung. Autonomes Fahren. In Technische, rechtliche und gesellschaftliche Aspekte, Hrsg. M. Maurer, J. C. Gerdes, B. Lenz und H. Winner, 661–685. Heidelberg: Springer.Google Scholar
  20. Heesen, Jessica. 2016. Handbuch Medien- und Informationsethik. Stuttgart/Weimar: Springer VS.CrossRefGoogle Scholar
  21. Hevelke, Alexander, und Julian Nida-Rümelin. 2015. Responsibility for crashes of autonomous vehicles. An ethical analysis. Science and Engineering Ethics 21(3): 619–630.  https://doi.org/10.1007/s11948-014-9565-5.CrossRefGoogle Scholar
  22. Jackson, Tim. 2009. Prosperity without growth? The transition to a sustainable economy. London: Sustainable Development Commission.Google Scholar
  23. JafariNaimi, Nassim. 2017. Our bodies in the trolley’s path, or why self-driving cars must *not* be programmed to kill. Science, Technology & Human Values:1–22.  https://doi.org/10.1177/0162243917718942.CrossRefGoogle Scholar
  24. Kolany-Raiser, Barbara, Reinhard Heil, et al., Hrsg. 2018. Big Data und Gesellschaft. Wiesbaden: Springer.Google Scholar
  25. Lin, Patrick. 2016. Why ethics matters for autonomous cars. In Autonomes Fahren. Technische, rechtliche und gesellschaftliche Aspekte, Hrsg. Markus Maurer, Christian J. Gerdes, Barbara Lenz und Hermann Winner, 69–85. Berlin/Heidelberg: Springer.Google Scholar
  26. Lin, Patrick, Keith Abney, und George A. Bekey, Hrsg. 2012. Robot ethics. The ethical and social implications of robotics. Cambridge, MA: The MIT Press.Google Scholar
  27. Misselhorn, Catrin. 2018. Maschinen mit Moral? Grundfragen der Maschinenethik. Stuttgart: Reclam.Google Scholar
  28. Moor, James A. 2006. The nature, importance, and difficulty of machine ethics. IEEE Intelligent Systems 21:18–21.CrossRefGoogle Scholar
  29. Nida-Rümelin, Julian, Hrsg. 1996. Risikoethik. In Angewandte Ethik. Die Bereichsethiken und ihre theoretische Fundierung, 863–887. Stuttgart: Kröner.Google Scholar
  30. Ott, Konrad, Jan Dierks, und Lieske Voget-Kleschin, Hrsg. 2016. Handbuch Umweltethik. Stuttgart: Metzler.Google Scholar
  31. Petermann, Thomas, Harald Bradke, Arne Lüllmann, Maik Poetzsch, und Ulrich Riehm. 2011. Was bei einem Blackout geschieht. Folgen eines langandauernden und großflächigen Stromausfalls. Berlin: Edition Sigma.CrossRefGoogle Scholar
  32. Renn, Ortwin, Pia J. Schweizer, Marion Dreyer, und Andreas Klinke. 2008. Risiko. Über den gesellschaftlichen Umgang mit Unsicherheit. München: oekom verlag.Google Scholar
  33. Rolf, Arno. 2014. Weltmacht Vereinigte Daten. Die Digitalisierung und Big Data verstehen. Weimar: Metropolis.Google Scholar
  34. SAE International. 2016. Standard J3016. Taxonomy and definitions for terms related to on-road motor vehicle automated driving systems.Google Scholar
  35. Statistisches Bundesamt. 2016. Unfallentwicklung auf deutschen Straßen 2015. Wiesbaden. https://www.destatis.de/DE/PresseService/Presse/Pressekonferenzen/2016/Unfallentwicklung_2015/Pressebroschuere_unfallentwicklung.pdf. Zugegriffen am 04.02.2019.
  36. Statistisches Bundesamt. 2018. Unfallentwicklung auf deutschen Straßen 2017. Wiesbaden. https://www.destatis.de/DE/PresseService/Presse/Pressekonferenzen/2018/verkehrsunfaelle_2017/Pressebroschuere_unfallentwicklung.pdf. Zugegriffen am 04.02.2019.
  37. The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. 2017. Ethically aligned design: A vision for prioritizing human well-being with autonomous and intelligent systems, Version 2. https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead_v2.pdf. Zugegriffen am 06.03.2019.
  38. Thomson, Judith Jarvis. 1985. The trolley problem. The Yale Law Journal 94(6): 1395–1415.  https://doi.org/10.2307/796133.CrossRefGoogle Scholar
  39. Tzafestas, Spyros G. 2016. Roboethics. A navigating overview. Cham: Springer International Publishing.  https://doi.org/10.1007/978-3-319-21714-7.CrossRefGoogle Scholar
  40. Van de Poel, Ibo. 2016. An ethical framework for evaluating experimental technology. Science and Engineering Ethics 22:667–686.  https://doi.org/10.1007/s11948-015-9724-3.CrossRefGoogle Scholar
  41. Wallach, Wendell, und Colin Allen. 2009. Moral machines: Teaching robots right from wrong. New York: Oxford University Press.CrossRefGoogle Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019

Authors and Affiliations

  1. 1.Karlsruher Institut für Technologie (KIT)Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)KarlsruheDeutschland

Personalised recommendations