Die Frage nach der Technik und nach dem, was mit neuen Technologien alles möglich und erlaubt ist, ist gerade in aller Munde. Mit wachsenden technischen Möglichkeiten sowie der bevorstehenden Erprobung und Realisierung risikoaffiner Technologien geht naturgemäß der Bedarf einher, näher zu untersuchen, welche ethischen Implikationen die Einführung, Weiterentwicklung oder Verhinderung einer bestimmten Technik oder Technologie hat. Das von Armin Grunwald und Rafaela Hillerbrand herausgegebene Handbuch zur Technikethik nimmt sich der Herausforderung an, diesen Implikationen aus verschiedenen Blickwinkeln nachzugehen, indem es sich auf breiter Basis nicht nur einem „retrospektiven Bewerten bestehender Techniken und Technologien“ (Vorwort) zuwendet, sondern darüber hinaus in der zeitgenössischen Technikethik „ein prospektiv gestaltendes Element des technischen Fortschritts“ (ebd.) zu erkennen glaubt.

Der Aufbau des Handbuches, das in einer modifizierten, um einige Beiträge erweiterten zweiten Auflage erscheint, ist klar strukturiert, insofern in den ersten Abschnitten Grundbegriffe der Technikethik erläutert, historische Hintergründe beleuchtet sowie technikphilosophische Theoriemodelle und technikethische Begründungansätze vorgestellt werden. Viel Raum wird dabei inter- und transdisziplinären Anschlussdiskussionen, der Auflistung und auf ethische Probleme zu durchleuchtenden Technikfelder sowie verschiedenen Formen der gesellschaftspolitischen bzw. ökonomisch-industriellen Anwendung von Technikethik gegeben.

Wie Buchbesprechungen es nun mal an sich haben, gerade auch im Fall eines eher schwer zu rezensierenden Nachschlagewerks, ist es leider nur möglich, auf einen Bruchteil der Themen und Aspekte des Handbuches einzugehen. Daher möchte ich mich insbesondere auf jene Felder und Bereiche konzentrieren, von denen ich glaube, dass diese im Rahmen der Technikethik bislang unterbelichtet worden sind bzw. das Potential haben – gesetzt den Fall, dass genug kritisches Bewusstsein in Wissenschaft und Gesellschaft vorhanden ist – in Zukunft größere Kontroversen auszulösen.

Bei dem hier vorliegenden und vornehmlich von Philosophinnen und Philosophen geschriebenen Handbuch scheint es zunächst nicht so sehr verwunderlich zu sein, dass die Technik in einem ersten Schritt begrifflich analysiert und in ihren Funktionen gedeutet wird. Es gibt – gerade in Deutschland – eine lange denkerische Tradition, die sich intensiv mit Fragen nach dem Wesen der Technik, ihren Chancen und Gefahren auseinandergesetzt hat. Dabei ist die Bestimmung des Verhältnisses von Technik und Wissenschaft bzw. wissenschaftlichen Fortschritts in der bis dato erschienenen einschlägigen Literatur nicht immer mit der gebotenen Ausführlichkeit thematisiert und mit den tatsächlichen aktuellen Entwicklungen auf diesem Gebiet abgeglichen worden. Klaus Kornwachs ist hierzulande wohl immer noch einer der wenigen, die versucht haben, eine konzise Wissenschaftstheorie der Technik zu entwickeln, mit deren Hilfe es gelingen kann, gegenwärtige technologische Innovationen, deren Entstehen und Vergehen, besser zu verstehen. Nach Ansicht von Kornwachs folgen technische Innovationen, sei es im Bereich der Digitalisierung oder im Kontext moderner Biotechnologien, einem allgemeinen Korrespondenzprinzip, das sich paradigmatisch in der Physik beobachten lässt und auf technologischen Fortschritt bzw. dessen Erklärung übertragen werden kann. Davon ausgehend wird Technikwissen nicht in linearer Weise akkumuliert, sondern entsteht, indem verschiedene Entwicklungslinien mehr oder weniger kontingent zusammenlaufen und bestimmte Technologisierungsschübe auslösen. Interessanterweise lässt sich aus diesem Paradigma auch gut ablesen und ableiten, dass technische Innovation im Sinne von breakthrough sich nur schwerlich politisch steuern und forcieren lässt, was angesichts der aktuellen Flut von öffentlichen Geldern zur Förderung von Vorhaben im Bereich von Digitalisierung und Künstlicher Intelligenz mehr als nachdenklich stimmen sollte. Kornwachs arbeitet ferner heraus, dass jenes Konvergenzgeschehen, also das kontingente Zusammenlaufen verschiedener Entwicklungslinien, im Rahmen technischen Fortschrittes hauptsächlich darin zum Ausdruck komme, dass „alte“ Techniken innerhalb von „neuen“ Techniken Wiederverwendung finden. Diesen Aspekt beobachten wir auch im Kontext der Digitalisierung, wo „unabhängig voneinander entwickelte Technologien zu neuen Technologisierungsschüben führen können.“ (35) Diesen Schüben sind natürlich auch – gerade im Hinblick auf die gegenwärtige ökonomische Verknappungssituation infolge der Coronapandemie und des Ukrainekrieges – wiederum natürliche Grenzen gesetzt, was jedoch zu neuen Innovationsbewegungen auf Gebieten führen kann, von denen wir bislang gar nicht dachten, dass ein technologischer Fortschritt dort möglich sei oder zukünftig höchstwahrscheinlich gewünscht werde. Der scheinbar unumkehrbare Trend zu mehr Digitalisierung und KI zeichnet sich wissenschaftsgeschichtlich bekanntlich schon viel länger ab (beginnt vermutlich im 19. Jahrhundert mit der Entdeckung bzw. Entwicklung der symbolischen Logik), ohne dass irgendwelche Innovationstreiber hierfür eingesetzt werden müssen. Diese Entwicklung im Sinne der fortschreitenden, seit Descartes einsetzenden Operationalisierung des Geistes musste natürlich immer auch eine maschinenphysische Seite durch den Bau von Rechenmaschinen und Robotern haben, deren Einsatz neue Möglichkeiten eröffnet, gleichzeitig aber auch an neue, oftmals ökonomische Grenzen stoßen muss. So bemerkt Kornwachs mit Verweis auf Nicolas Rescher, dass die „Kosten für das Wachstum der Rechenkapazität weniger schnell steigen als für die apparative Ausstattung bei Test und Experiment.“ Daraus folgt, dass „sich die Bemühungen zunehmend auf die Seite der Simulation und der Analysen mit Big Data [verschieben].“ (36) Gerade in der derzeitigen sehr angespannten Situation im Energiesektor und infolge der Zunahme von „Cyberwarfare“ ist eine beliebige Ausweitung von Rechenkapazitäten natürlich kritisch in den Blick zu nehmen. Erfolgreiche Forschung ist und bleibt langwierig, kostet viel Geld und verschlingt enorme geistige und physische Ressourcen. Es brechen daher wohl auch für die eher datengetriebenen Technologien neue Zeiten an, denn mit begrenzten Stromkapazitäten und knapper werdenden bzw. komplizierter anzuschaffenden Rohstoffen können nur schwerlich fortschrittliche Maschinen, Computer, KI-Systeme und andere Apparaturen gebaut werden, kann ebenso auch keine wissenschaftliche Innovation an Universitäten, Forschungsinstituten und F&E-Abteilungen der Unternehmen mehr stattfinden.

Damit kommen wir zu einem Thema, das in der zweiten Auflage des Handbuches sichtbar größeren Raum bekommen hat: Künstliche Intelligenz und Big Data. Ohne Zweifel ist die Digitalisierung das Technikfeld der Stunde. Kein Tag vergeht, an dem wir nicht von neuen Entwicklungen auf diesem Gebiet hören und lesen. Die ethische Betrachtung dazu steckt trotz einer Vielzahl an aktuellen Untersuchungen aber noch immer in den Kinderschuhen, da der autonome und teilautonome Einsatz von Künstlicher Intelligenz, z.B. in der Medizin, noch mit allerhand Risiken behaftet ist, Erprobungen der Systeme unter realitätsnahen Bedingungen noch sehr selten stattfinden, sodass sich die aktuelle Forschung im Rahmen eines sogenannten „embedded ethics approach“ zunächst erst einmal daran machen muss, „ethische“ KI-Systeme zu konzipieren, bevor sie überhaupt in Erwägung ziehen kann, diese für eine tatsächliche Implementierung freizugeben. Somit bewegt sich jede normative Analyse weiterhin meist im hypothetischen Raum oder rekurriert auf altbekannte Probleme, die nur in ein neues begriffliches Gewand gekleidet werden. Dabei fokussiert sich die aktuelle Technikethik vornehmlich auf den nicht-schädigenden Einsatz von KI-Systemen und diskutiert im Zuge dessen ethische Fragen, die sich vor allem um Probleme wie epistemische Opazität, Deepfakes und neu entstehende Verantwortungslücken drehen (425 ff.). Gerade die Frage nach der ethischen Verantwortung des Ingenieurs – und dem Versuch der Institutionalisierung dieser Verantwortung – wird in diesem Handbuch ausführlich diskutiert. So ist im Kontext von medizinischen KI-Systemen die Rollenverantwortung des Ingenieurs neu zu klären, der z.B. Geräte für einen KI-gestützten Operationssaal entwickelt bzw. baut und deren schädigungsfreien Einsatz in Abstimmung mit den ethischen Rollenprofilen der am Aufbau dieser Einheit beteiligten Informatikern, Ärzten etc. unterstützend koordiniert und dadurch letztlich auch mitverantwortet. Nach derzeitigem Stand der ethisch-normativen Bewertung solcher Vorhaben scheint es aber fraglich, ob die bislang existierenden VDI-Richtlinien und zahlreichen Ethikkodizes ausreichen, um den in diesem Kontext herrschenden komplexen ethischen Anforderungen zu genügen. So weist Matthias Maring in seinem Beitrag zurecht auf den durchaus manipulationsanfälligen Umstand einer „Ethisierung des Ethikkodizes“ (455) hin, ein Befund, der an anderer Stelle und meist in Bezug auf den Umgang von Big Tech wie Google mit ethischen Richtlinien auch als „ethics washing“ bezeichnet werden kann.

Technikethische Fragen zur Digitalisierung und Künstlichen Intelligenz können natürlich auch im militärischen Bereich eigens problematisiert werden. Wie beim gegenwärtigen Ukrainekrieg in erschütternder Weise deutlich wird, spielt der Einsatz von Militärtechnik, z.B. Drohnen, eine immer größer werdende Rolle (siehe dazu der Beitrag von Jürgen Altmann in dem Handbuch). So ist es auch eine Frage der professionellen Einschätzung, ob eine Waffe und damit auch eine spezifische Technik zu Offensiv- oder zu Defensivzwecken eingesetzt wird, ob diese Waffe leicht oder schwer ist, welche Reichweite, Zerstörungskraft oder Präzision eine Waffe hat etc. Diese Punkte werden bislang weniger in der Technikethik als im Rahmen der sogenannten Kriegsethik diskutiert, wobei aus technikethischer Sicht anscheinend klar ist, dass der Einsatz einer Waffentechnik fast vollständig abhängig von den Absichten und Zwecken desjenigen ist, der deren Einsatz anordnet. Ist eine Anordnung erst einmal erfolgt, dann findet der Einsatz entweder im Rahmen eines Testes statt oder wir befinden wir uns bereits inmitten eines Krieges. Im Kalten Krieg haben wir erleben müssen, wie zahlreiche Technologien im Militärsektor vornehmlich aus taktischen Gründen, d.h. zur Abschreckung, entwickelt worden sind, ohne dass diese je zum Einsatz gekommen sind. Technikethische Fragestellungen kaprizieren sich damit vielmehr auf das Stadium der Entwicklung und Testung von militärischen Technologien, wobei hier in erster Linie auf die sogenannte Dual-Use-Forschung hingewiesen werden sollte.

Bei der Dual-Use-Problematik tritt dabei eine immer aktueller werdende, ethisch hochproblematische Ambivalenz zu Tage: In unserer heutigen Industriegesellschaft wurden und werden einerseits militärisch dominierte Forschungsfelder für zivile Zwecke nutzbar gemacht (z.B. nukleare Technik), andererseits entsteht in zivil genutzten Technologiefeldern auch „ein Potenzial für waffenrelevante Kenntnisse und Anwendungen entstehen“ (289), z.B. im Zuge biotechnologischer Forschung, neuen Nanotechnologien und der Weitentwicklung von intelligenten Systemen. Biologische Waffen, Drohnen, autonome Kampfroboter und von Terroristen genutzte Kleinstroboter bilden dabei nur einen geringen Teil des weiten Spektrums von schrecklichen Möglichkeiten, den dieser Bereich bietet. Um hier Missbrauch zu verhindern und weitere Disambiguisierungstendenzen zu befördern, ist es aus technikethischer Sicht notwendig, dass die Forschungszwecke transparent gemacht werden, ohne dass damit Tür und Tor für einen Technologiediebstahl geöffnet wird. Alle an der Dual-Use-Forschung Beteiligten sollten analog zu dem bereits erwähnten „embedded ethics approach“ schon sehr früh und während des ganzen Entwicklungsprozesses in ihrer ethischen Urteilsbildung geschult werden (293). Inwieweit in diesen ethischen Urteilsbildungsprozess auch pazifistische Überzeugungen Eingang finden können, ja sogar müssen, sollte offen diskutiert werden.

Ohne Zweifel wird die Dual-Use-Forschung in Zukunft von weiteren ethischen Kontroversen begleitet werden. Ähnlich gelagert, vor allem was den Ambivalenzcharakter und das kontroverse Potential anbelangt, ist das Thema der Technokratie (technocracy). Die chinesischen AutorInnen des Beitrages in diesem Handbuch lassen ihrerseits keinen Zweifel daran, dass die Vorteile einer technokratisch strukturierten Gesellschaftsordnung, wie wir sie gerade im „Reich der Mitte“ erleben, die Nachteile überwiegen. Kritische Argumente gegenüber technokratischen Gesellschaften, so sie denn überhaupt angeführt existieren, werden relativiert oder als Ausdruck der Ideologie westlicher liberaler Demokratien verstanden (119). Demgegenüber wird gerade das zeitgenössische China als optimale Alternative und am besten gelungene Umsetzung des technokratischen Gesellschaftsideals im Sinne des Gemeinwohls gepriesen: „In modern Chinese history, technocracy is often a better and fairer use of power than a traditional hierarchical system and is a better way to deal with social systems than authoritarian politics divorced from technical expertise.“ (121) Ohne Zweifel handelt es sich bei diesem Text um ideologisch imprägnierte und ein gewisses Problembewusstsein vermissenlassende Konfektionsware und man fragt sich, wieso die Herausgeber diesen Beitrag unkommentiert in die Sammlung aufgenommen haben. Das in China implementierte Sozialkreditsystem und der extrem repressive Umgang der Regierung mit der Bevölkerung in der Corona-Pandemie zeigen doch nachdrücklich, wohin es führt, wenn kollektive ökonomische, soziale und kulturelle Rechte politische Freiheitsrechte in jeder Hinsicht übertrumpfen dürfen, ja sogar zum Zwecke der Erreichung eines im Text nicht genau bestimmten Gemeinwohls übertrumpfen müssen (120). Zwar sollten sich auch die sogenannten liberalen Gesellschaften des Westens endlich eingestehen, dass ihr zunehmender Hang zu technokratischen Lösungen die Freiheitsrechte des Einzelnen immer mehr einschränken, doch das totalitäre Ausmaß jener technischen Überwachung in China sucht nach wie vor seines gleichen.

Ich komme zu meiner Gesamteinschätzung des Handbuches: Kritisch gegenüber dem Handbuch ist vor allem anzumerken, dass der eben vorgestellte chinesische Beitrag zur Technokratie unkommentiert und nicht kontextualisiert in das Handbuch aufgenommen wurde, sodass sich die noch uninformierte Leserin bzw. der sich zu diesem Thema kundig machende Leser selbst ein Bild von diesem fragwürdigen Text machen muss. Das wäre an sich auch nicht weiter schlimm, wenn man nicht stillschweigend voraussetzen müsste, dass jede Leserin bzw. jeder Leser von vornherein eine kritische Distanz zu dem Text aufbaut bzw. aufzubauen imstande ist. Davon ist angesichts der Komplexität der Themen und Vielfalt der inneren Bezüge aber nicht in jedem Fall auszugehen. Hinzu kommt, dass es im Handbuch ja selbst mehr oder weniger versteckte kritische Einlassungen zu einem überzogenen heilbringenden Technokratieverständnis, wie es Liu et al. in dem besagten Beitrag propagieren, gibt. Beispielsweise geht Matthias Kettner in seinem Text auf die zahlreichen Gefahren technokratischer Governance ein (235). Ein interner Verweis zwischen den Beiträgen von Kettner und Liu et al. in der Einleitung oder anderswo oder eine andere Anordnung und Kategorisierung der Themen hätte der Erhellung des Technokratie-Themas gutgetan und dem Handbuch überdies eine stärkere diskursive Note gegeben. Überhaupt kommen infolge des Vorrangs der möglichst vollständigen thematischen Auflistung spannende Kontroversen (so gibt es auch zum Vorsorgeprinzip in dem Band zwei Texte, die nicht in Bezug zueinander gebracht werden und damit den Eindruck von Redundanz aufkommen lassen), von denen es im Kontext der aktuellen Technikethik ja zahlreiche gibt, etwas zu kurz.

Weiterhin fällt auf, dass die für die Gesamtdarstellung unverzichtbaren Abschnitte zu den Grundbegriffen und historischen Hintergründen gemessen am Umfang der anderen Abschnitte eher schmal ausfallen. Vielleicht wäre es gut gewesen, den Text zur antiken Technikphilosophie unter Punkt III („Historischer Hintergrund“) zu stellen. Nichtsdestoweniger wird im Handbuch vor allem der Technikphilosophie viel Raum gegeben, was auch die Heterogenität der Zugänge zum Thema der Technikethik sichtbar werden lässt. Die Darstellung der ethischen Begründungssätze fällt hingegen etwas unübersichtlich aus. In der aktuellen Moraltheoriediskussion, deren Kompetenzen bei der Aufstellung und Erkenntnisdeduktion von Theorienvergleichen man hier heranziehen hätte können, werden alle Ansätze meist auf ein konsequentialistisches, deontologisches und tugendethisches Paradigma heruntergebrochen. Dagegen entsteht im Handbuch der Eindruck, dass alle dort genannten, in einigen Fällen auch nicht immer argumentativ durchschlagenden Begründungsansätze gleichwertig nebeneinanderstünden und sich teilweise auch gar nicht aufeinander beziehen oder sogar reduzieren lassen. Sicherlich ist es allgemein noch nachvollziehbar, den Utilitarismus als eine Variante des Konsequentialismus prominent in dem Handbuch zu positionieren. Allerdings wäre es vielleicht angemessener und für die Anregung von Kontroversen förderlicher gewesen, eher von Konsequentialismus zu sprechen, da es auch einen nicht-utilitaristischen Konsequentialismus gibt, aber keinen non-konsequentialistischen Utilitarismus. Gerade die Betrachtung und Berücksichtigung der Handlungskonsequenzen ist ja für eine Technikethik, die sich vorzugweise – wie der Name schon sagt – mit Folgenabschätzung befasst, nicht wegzudenken. Ferner liegen im Paradigma des Utilitarismus m.E. auch die größten Spannungen in Bezug auf eine kohärente Beantwortung der wichtigsten technikethischen Fragestellungen, was unter anderem daran deutlich wird, dass sich der Autor des Beitrages zum Utilitarismus, Dieter Birnbacher, trotz schwer auszuräumender Intuitionen, die letztlich das Gegenteil nahelegen, gezwungen sieht, Grundaxiome des utilitaristischen Ansatzes aufzugeben, um Platz für Zugeständnisse an allgemeine politische und klimaethische Forderungen zu machen. Es erscheint wie ein hölzernes Eisen, wenn Birnbacher vorsichtig versucht, eine allgemein wenig überzeugende „grüne Variante des Utilitarismus“ (163) einzuführen. Dass an diesem Entwurf etwas irreduzibel kontraintuitiv bleibt, mag Birnbacher auch nicht dadurch auszuräumen, dass er meint, dass es immer mehr Anhänger dieser Strömung gibt und sich schon einer der Begründer des Utilitarismus, John Stuart Mill nämlich, gar nicht auf Naturzerstörung, sondern auf den Fortschritt des Menschen in der Bildung und in den Umgangsformen konzentriert habe. Dass technischer Fortschritt stets mit der Zerstörung des Naturwüchsigen einhergeht und zukünftig auch weiterhin einhergehen wird, scheint jedem klar, wenn er aus dem Fenster seiner Großstadtwohnung schaut und sich zugleich den Grenznutzen jeder technischen Entwicklung bewusst macht.

Einige eher in der thematischen Anlage des Handbuches zu suchenden Kritikpunkte sollen ebenfalls nicht unerwähnt bleiben: So merkt man dem Handbuch die heutige, vor allem medial oft vorgetragene starke Fokussierung der Diskussion auf smarte Technologien nicht besonders an, was wohl seinen Grund darin hat, dass das Werk in einer zweiten Auflage vorliegt und damit auch Themen mit sich führt, die zwar nicht obsolet geworden sind, deren Erörterung aber im Strudel des gerade stattfindenden phasenbeschleunigten technologischen Wandels auf den Gebieten von Künstlicher Intelligenz, Big Data und Life Sciences untergeht. Die am Anfang versprochene Internationalisierung des Technikethikdiskurses ist dem Handbuch nur bedingt gelungen, da sich der aktuelle globale Diskurs immer noch stark vom deutschsprachigen unterscheidet, was nicht in jeder Hinsicht ein Nachteil ist, da Deutschland auch das Hauptland der Technikkritik (z.B. Heidegger, Jonas) ist. Aber gerade das selbstbewusste Ausspielen dieser Stärke einer genuin deutschsprachigen Technikethik und Technikkritik vermisst man im Handbuch dann auch wieder. Vielleicht könnte es das Ziel einer dritten Auflage sein, gerade wenn man den Schwerpunkt weiterhin auf Philosophie legen will, den anspruchsvollen Technikreflexionen von Denkern aus der kontinentalen Tradition mehr Raum zu geben, aber es im gleichen Atemzug auch zu versuchen, auf die konzeptuellen und problemanzeigenden Arbeiten einer sich gerade formierenden analytischen Philosophie der Technik einzugehen.

Trotz dieser Kritikpunkte ist es den Herausgebern, bei dem Versuch eine zweite erweiterte Auflage auf die Beine zu stellen, gelungen, die pragmatisch gesehen beste Lösung zu finden. Beim Lesen wird jedenfalls schnell klar, dass bestimmte Neusortierungen notwendig geworden sind und sich nur um den Preis des Verlustes einer gewissen Übersichtlichkeit bewerkstelligen ließen. Dieser Preis ist aber nicht allzu hoch und wird eindeutig auch dadurch aufgewogen, dass den Lesern ein „Reichtum der Perspektiven“ (14) geschenkt wird. Ferner sollte es jedem auch einleuchten, dass ein Handbuch nicht unbedingt der Ort für Kontroversen ist, sondern vielmehr der informative Ausgangspunkt für selbige darstellen sollte, die dann fruchtbringender an anderer Stelle, z.B. in Zeitschriften, geführt werden können. In diesem Sinne ist das von Grunwald und Hillerbrand herausgegebene Handbuch der kaum zu übertreffende Versuch der thematischen Kartierung eines spezifischen ethischen Geländes, auf dem sich in Zukunft sicherlich die meisten Kontroversen abspielen werden.