Advertisement

Algorithmen, Daten und Ethik

Ein Beitrag zur Papiermaschinenethik
  • Stefan UllrichEmail author
Living reference work entry
  • 568 Downloads
Part of the Springer Reference Geisteswissenschaften book series (SPREFGEIST)

Zusammenfassung

Die informationstechnischen Realisierungen von Algorithmen sind längst in alle Lebensbereiche des modernen Menschen vorgedrungen. Algorithmen werden als Allheilmittel angepriesen oder als Hauptschuldige der „Digitalen Unmündigkeit“ gesehen. Zunächst werden wir Algorithmen ganz ohne Digitaltechnik betrachten, also auf bestimmte Arten von Texten eingehen, die auf den menschlichen Geist eine Art Zwang ausüben, die so genannten Paper Machine Codes. Die Betrachtungen zur Ethik der Algorithmen wird mit einer ethischen Betrachtung der (Eingabe-)Daten verbunden, besonderes Augenmerk liegt auf der Signatur einer Person. Es folgen dann Ausführungen zu Geistesmaschinen und nutzlosen Maschinen, um mit einem Ausblick auf die Bedingungen zur Möglichkeit der Mündigkeit im Zeitalter der Internet of Things zu schließen.

Schlüsselwörter

Paper Machine Code Algorithmenethik Informationsethik Maschinenethik Informatik und Gesellschaft Turing-Galaxis 

1 Einleitung

Algorithmus. Allein das Wort erzeugt eine mystische Aura und sorgt für Aufmerksamkeit. Von Algorithmen, die über Wohl und Wehe einer Person entscheiden, ist die Rede. Dabei wird der Algorithmenbegriff arg gedehnt, Informatiker, Philosophen oder Mathematiker verstehen etwas ganz anderes darunter als das Feuilleton. Dennoch, allein die breite wissenschaftliche Debatte über eine Ethik der Algorithmen zeigt, dass es sich hierbei um etwas Spezielles handelt, und diese differentia specifica soll in diesem Beitrag herausgearbeitet werden.

In der gegenwärtigen Debatte über eine Ethik der Algorithmen liegt der Fokus auf der Frage nach Entscheidungs- und Handlungsspielräumen des Menschen (Mittelstadt et al. 2016, S. 2). Algorithmen werden als Entscheidungshilfen oder gar -diktatoren dargestellt, die unsere Fähigkeiten erweitern, aber auch unser Denken einschränken können. In diesem Sinne verstanden berühren Algorithmen den Kernbereich des menschlichen Handelns und Denkens und damit den Kernbereich der Ethik, verstanden als Lehre der Moral. Eine Ethik der Algorithmen richtet sich an Menschen, die im engeren oder weiteren Sinn mit Algorithmen zu tun haben.

Diskutiert wird derzeit weniger über die Algorithmen (als mathematische Entität) selbst als vielmehr über ihre technischen Realisierungen in Hard- und Software. Fragen nach dem Einfluss von Techniken auf menschliche Handlungsweisen (πρᾶξις) und Erkenntnisspielräume (ἐπιστήμη) sind seit der Antike immer wieder gestellt worden, doch erst seit der industriellen Revolution wurde deutlich, dass dies keine theoretischen Fragen sind, sondern ganz konkret erfahrbare Herausforderungen darstellen. Nicht die theoretische Beschreibung der Energieumwandlung, sondern ihre technische Realisierung in der sich ohne Unterlass drehenden Dampfmaschine transformierte die Gesellschaft.

Der Geltungsbereich von technischen Ethiken im industriellen Zeitalter und ganz besonders im post-industriellen Zeitalter muss sinnvoller Weise nicht nur die gesamte Menschheit einschließen, sondern seit der Erfindung von biologischen, chemischen und atomaren Waffensystemen auch eine zukünftige Menschheit. Hans Jonas formulierte 1979 prägnant eine Notstands-Ethik für das technische Zeitalter, die so lange in Kraft sein soll, bis geeignete Nachfolgerinnen gefunden sind:

Ein Imperativ, der auf den neuen Typ menschlichen Handelns paßt und an den neuen Typ von Handlungssubjekt gerichtet ist, würde etwa so lauten: „Handle so, daß die Wirkungen deiner Handlung verträglich sind mit der Permanenz echten menschlichen Lebens auf Erden“; […] der neue Imperativ sagt eben, daß wir zwar unser eigenes Leben, aber nicht das der Menschheit wagen dürfen; und daß Achill zwar das Recht hatte, für sich selbst ein kurzes Leben ruhmreicher Taten vor einem langen Leben ruhmloser Sicherheit zu wählen (unter der stillschweigenden Voraussetzung nämlich, daß eine Nachwelt da sein wird, die von seinen Taten zu erzählen weiß); daß wir aber nicht das Recht haben, das Nichtsein künftiger Generationen wegen des Seins der jetzigen zu wählen oder auch nur zu wagen (Jonas 1984, S. 36).

Im 21. Jahrhundert ist eine neue Waffengattung auch und gerade in Friedenszeiten wirksam geworden: Informationelle Waffen, „Weapons of Math Destruction“, wie sie die Mathematikerin Cathy O’Neil nennt. Sie hat 2008 hautnah miterlebt, in welcher Weise abstrakte mathematische Modelle ganz konkrete Auswirkungen auf das Leben aller Menschen in den Vereinigten Staaten von Amerika und auch darüber hinaus hatten (Ergänzung der Jahreszahl von mir als service für zukünftige Leserinnen und Leser, die nach wie vor an den Auswirkungen zu leiden haben):

The crash [of 2008] made it all too clear that mathematics, once my refuge, was not only deeply entangled in the world’s problems but also fueling many of them. The housing crisis, the collapse of major financial institutions, the rise of unemployment – all had been aided and abetted by mathematicians wielding magic formulas. What’s more, thanks to the extraordinary powers that I loved so much, math was able to combine with technology to multiply the chaos and misfortune, adding efficiency and scale to systems that I now recognized as flawed (O’Neil 2016, S. 2).

Algorithmen, die so alt wie die Ethik selbst sind, werden erst jetzt, am Ende des ersten Zeitalters der Turing-Galaxis zum Betrachtungsgegenstand. Zugegeben, „so alt wie die Ethik“ ist eine sehr abendländische Formulierung, hier soll auf die Platonische Akademie und ihr Mitglied Euklid angespielt werden, auf dessen Algorithmus wir gleich zu sprechen kommen werden. Der Begriff „Turing-Galaxis“ (Coy 1994) bezeichnet die mediengeschichtliche Epoche der vom Leitmedium Computer geprägten Welt, analog zur „Gutenberg-Galaxis“ (McLuhan) mit ihrem Leitmedium Buch. Die breite Debatte handelt also streng genommen von einer Ethik der informationstechnischen Realisierungen von Algorithmen. Dies hat sehr nachvollziehbare Gründe, auf die später näher eingegangen wird; methodisch möchte ich dennoch mit den Algorithmen als rein geistig-mathematisches Konzept anfangen. Algorithmen stehen dabei stellvertretend für eine Klasse an kodifizierter Information, die ich in Anlehnung an Alan Turing Paper Machine Codes nennen möchte (Turing 1937).

Doch was ist Information? Diese Frage beantwortet Janich (2006) für verschiedene Disziplinen. Für Technikerinnen und Techniker ist Information nach Claude Shannon gleichbedeutend mit negativer Entropie, das Maß der Information ist Bit (binary digit). Um beispielsweise eine Skat-Spielkarte eindeutig zu identifizieren, werden 5 Bit an Information benötigt, das ist die Anzahl optimaler Entweder-Oder-Fragen (wenn beide Antworten gleich wahrscheinlich sind). Rot oder Schwarz? Karo oder Herz? Zahl oder nicht? Bart oder nicht? Dame oder Ass? Nach fünf Fragen haben Sie das Herz-Ass identifiziert.

In diesem Text soll es um eben diese „optimalen Entweder-Oder-Fragen“ gehen, um die Möglichkeit, gezielt auf Informationen (im alltagssprachlichen Sinn) zuzugreifen, eben um Paper Machine Codes. Der Untertitel dieses Beitrags soll deutlich machen, dass auf bestimmte Maschinen abgezielt wird, nämlich auf solche, die im Geist ablaufen und nicht den physikalischen, sondern den mathematischen Gesetzen unterworfen sind.

2 Algorithmen als Problemlösungsmaschinen

Algorithmen und andere Paper Machine Codes sind kodifizierte Handlungsvorschriften zur Lösung eines kodifizierbaren Problems, die von einem menschlichen Geist prozessiert werden können. Algorithmen sind also in erster Linie Techniken der instrumentellen Vernunft. Das älteste uns bekannte Beispiel für einen Algorithmus haben Sie alle in der Schule kennen gelernt; der Euklid’sche Algorithmus zur Bestimmung des größten gemeinsamen Teilers wird in seinem Werk „Die Elemente“ wie folgt beschrieben:

Wenn CD nicht Teiler von AB ist, subtrahiert man, von den beiden Zahlen AB und CD ausgehend, immer die kleinere von der größeren[, ] bis die entstandene Zahl Teiler der ihr vorhergehenden ist, der dann der größte gemeinsame Teiler von AB und CD ist (Euklid 2017, Buch VII, Proposition 2).

Die Handlungsanweisungen „teilen“, „subtrahieren“ etc. können nun in der physischen Welt beispielsweise mit Hilfe von Schnur und Schere durchgeführt werden – oder eben rein im Geiste. Das Befolgen der Handlungsanweisung erzeugt dann im menschlichen Geist eine mathematische Maschine, die in der Regel einen „Auslagerungsspeicher“ in Form von Bleistift und Papier verwenden wird.

Wenn Sie der Handlungsanweisung nicht folgen, wenn Sie also den obigen Text nur als Text gelesen haben (und das unterstelle ich Ihnen einfach), entgeht Ihnen der zwingende Charakter dieses Paper Machine Codes (pmc). Es ist, als ob Sie ein Gedicht in einer fremden Sprache gelesen haben. Ein Gedicht in einer von Ihnen verstandenen Sprache jedoch nimmt Sie gefangen, Sie können sich nicht entziehen, Ihre Gedanken kreisen um die Zeilen, unfähig zum Abschweifen. Dieses zwingende Element besitzen auch Algorithmen und andere pmc, die von einem menschlichen Geist tatsächlich prozessiert werden.

Algorithmen und andere pmc besitzen eine informationelle Dimension, die am besten als Performanz-Affordanz beschrieben werden könnte, so wie ein Faustkeil ja auch ein How-To enthält, an welcher Seite man ihn greifen soll. Ein Teil einer wie auch immer zu formulierenden Ethik der Algorithmen liegt daher im Bereich der Informationsethik, jedoch – und dies ist ein wesentliches Merkmal von pmc – liefert erst die Performanz des Ausrechnens oder Prozessierens Informationen, die im Code selbst nicht vorhanden sind.

Ein Algorithmus kann dem Minotaurus nicht verraten, wo sich der Ausgang befindet, er kann ihm jedoch sagen, wie er garantiert den Ausgang findet.1 Die Wie-Information besitzt eine andere Kardinalität als die Wo-Information.

Die unterschiedliche Kardinalität wirkt sich auch rechtsphilosophisch aus. Nehmen wir als Beispiel den Personenbezug im Datenschutz und machen ein kleines Gedankenexperiment. Stellen Sie sich vor, dass Sie 32 Leuten jeweils eine Spielkarte zuordnen, also „Karo-7“, „Pik-Bube“, „Herz-Ass“ und so weiter. Die Aufforderung „Nehmen Sie das Herz-Ass“ betrifft genau eine Karte. Sie würden wahrscheinlich zustimmen, dass es sich hierbei um ein personenbezogenes Datum handelt, weil wir ja in der Vorbereitung jeder Karte genau eine Person zugeordnet haben. Wie anders allerdings die Aufforderung: „Wählen Sie alle roten Karten aus. Legen Sie alle Nummern beiseite, ebenso die Bilder und zuletzt noch alle Karo-Karten.“ Sie haben ganz ohne Personenbezug im Ergebnis wieder nur noch eine Karte übrig, wobei Sie streng genommen eine Menge an Karten übrig haben, die in diesem Fall nur aus einer Karte besteht. In der zweiten Aufforderung kommen die Begriffe „Herz“ und „Ass“ außerdem überhaupt nicht vor.

Nun kann eingewandt werden, dass die zweite Handlungsaufforderung nur eine andere Formulierung der ersten sei. Doch für die Person, die dieser Handlungsaufforderung nachkommt, stimmt das nur dann, wenn die auszuführende Person weiß, wie viel Farben, Zahlen und Bilder es in einem Kartenspiel gibt und wie die Verteilung aussieht et cetera. „Hamlet wollte den Mann hinter dem Vorhang töten“ kann nicht mit „Hamlet wollte Polonius töten“ gleichgesetzt werden, da Hamlet ja gar nicht wusste, wer sich hinter dem Vorhang verbarg, auch wenn wir als Bildungsbürger das natürlich wissen (Velichkovsky 1994, S. 64–65). Für die Feststellung der Schuld vor Gericht ist es entscheidend, das Wissen des Angeklagten zumindest in das Strafmaß einzubeziehen. Wir können durch das Studium der pmc jedoch nicht auf die Intention der Entwicklerin bzw. des Entwicklers schließen. Im Zweifelsfall müssen wir eher Dummheit als Bösartigkeit unterstellen, eher Fahrlässigkeit als Absicht. In allen Fällen jedoch ist dies ein Kernbereich des Ethos, mal verstanden als Gewohnheit oder Sitte (ἔϑος), mal als Charakter oder Haltung (ἦϑος).

Die ethische Betrachtung von Algorithmen ist unweigerlich verknüpft mit einer ethischen Betrachtung der (Eingabe-)Daten.2

3 Daten und Heuristiken

Nicht also für die Erinnerung, sondern nur für das Erinnern hast du ein Mittel erfunden, und von der Weisheit bringst du deinen Lehrlingen nur den Schein bei, nicht die Sache selbst. Denn indem sie nun vieles gehört haben ohne Unterricht, werden sie sich auch vielwissend zu sein dünken, obwohl sie größtenteils unwissend sind, und schwer zu behandeln, nachdem sie dünkelweise geworden statt weise (Platon 1994, 275a, S. 604).

Im Platonischen Mythos ist der ägyptische Gott Theuth nicht nur der Erfinder der Buchstaben, sondern auch der der Zahl, der Rechnung, der Messkunst und des Würfelspiels. Theuth ist somit der Erfinder aller Bausteine von Big Data (Massendaten). Wenn Sie den Zeitsprung Antike-Moderne als zu groß empfinden, legen Sie doch einen Zwischenschritt im Mittelalter ein. Der Scholastiker Roger Bacon sprach bereits ganz deutlich von „Data“, von dem „Gegebenen“, wenn er über Messungen von Naturphänomenen sprach. Für ihn als Franziskanermönch war ja klar, wer für die Phänomene der uns umgebenden Welt verantwortlich war. Seitdem Nietzsche Gott umgebracht hat, stehen wir Wissenschaftlerinnen und Wissenschaftler bei dem Begriff „Data“ jedoch vor einem Problem: Wer gibt denn die „Data“? Die Natur? Die Naturwissenschaft? Die Naturwissenschaftlerin, der Naturwissenschaftler? Das naturwissenschaftliche Instrument?

Daten sind gemessene Zahlenwerte, die mit Hilfe eines Notationssytems aufgeschrieben (γράμμασιν) werden. Sie sind eben nicht „gegeben“, wie ihr lateinischer Name suggeriert, sondern durch Beobachtung der kontinuierlichen Welt gewonnen worden. Daten sind also diskretisierte Repräsentationen der mess- und beschreibbaren Phänomene unserer Umwelt.

Diese Repräsentationen unterliegen nicht mehr den Gesetzen der Natur, sondern nur noch denen des Geistes. Wir können ganz problemlos von 14,3 Kindern sprechen, die pro Lehrkraft in einer typischen Grundschule in Europa unterrichtet werden.3 Der inkommensurable Mensch kann über den Umweg dieser Repräsentationen eben doch vermessen und für zu leicht in Hinblick auf bestimmte Fragen befunden werden. Wir können die Daten nun nach logischen (oder anderweitig gesetzten) Regeln transformieren.

Die Macht der Daten liegt in dem Möglichkeitsraum der Schlüsse, die man aus ihnen ziehen kann. Mit meinen Studentinnen und Studenten führe ich gelegentlich ein kleines Experiment durch, das Sie auch durchführen können. Schnappen Sie sich Stift und Papier und schreiben Sie eine Information über sich auf, von der Sie der Meinung sind, sie lasse so gut wie keine weiteren Schlüsse auf andere Informationen über Sie zu. Fertig?

Gut, nehmen wir einmal meinen Vornamen, eines der ersten Wörter dieses Textes. Sie können nun auf mein Geschlecht schließen und über die Häufigkeitsverteilung der beliebtesten Vornamen auch ungefähr mein Alter bestimmen. Ferner gibt der Name einen Hinweis auf Nationalität und kulturelle Zugehörigkeit und so weiter und so fort. Wenn Sie dann eine zweite Information hinzunehmen, multiplizieren Sie aussagekräftige Schlüsse erheblich.

Das Konzept des Personenbezugs hatte seine Berechtigung, ist aber obsolet und für den Diskurs sogar gefährlich, wie der Rechtsinformatiker Jörg Pohle zu Recht immer wieder kritisiert:

Personenbezogene Informationen sind als Bezugspunkt und Schutzobjekt des Rechts aus informatischer, soziologischer wie rechtlicher Sicht ungeeignet, insoweit es für Organisationen möglich ist, individuelle Diskriminierung auch auf der Basis anonymer oder statistischer Informationen vorzunehmen (Pohle 2016, S. 17).

Es gibt kein belangloses Datum unter den Bedingungen automatisierter Datenverarbeitung – und vor allem der Datenspeicherung. Günstiger Speicher führt dazu, dass nicht nur mehr Daten verarbeitet werden, sie werden auch auf Vorrat gespeichert, falls sie in Zukunft mal nützlich sein könnten. Das Bundesdatenschutzgesetz und die in diesem Jahr in Kraft getretene Europäische Datenschutzgrundverordnung sieht zwar eine klare Zweckbindung vor, doch gegen ausgefeilte „Allgemeine Geschäftsbedingungen“ und die freiwillige Datenpreisgabe („Datensouveränität“) sind sie so gut wie machtlos. Die Kernaussagen des inzwischen weithin bekannten „Volkszählungsurteils“ von 1983 erschließt sich den Leserinnen und Lesern des Facebook-, Google- und Amazon-Zeitalters seit den zahlreichen Datenskandalen unmittelbar; die Probleme entstanden jedoch früher, spätestens zu Zeiten der ersten industriellen Revolution.4

Der erste Computer der Welt sollte eigentlich bereits für die Industrie-1.0-Arbeitsgesellschaft gebaut werden; einer der besten Beobachter der jungen Industrialisierung war der Universalgelehrte Charles Babbage, sein Werk On the Economy of Machinery and Manufactures von 1832 war ein Bestseller und beeinflusste ökonomische Theorien wie die von Karl Marx erheblich. Babbage beschrieb dort das Prinzip der Effizienzsteigerung durch Arbeitsteilung, das wiederum auf Beobachtung, Formalisierung und Logik beruhte. Im gleichen Jahr baute er eine Version seiner Rechenmaschine, die von Lord Byron poetisch „Thinking Machine“ genannt wurde. Diese Maschine war jedoch kein Computer im heutigen Sinne. Erst die von Charles Babbage 1837 „Analytical Engine“ genannte Rechenmaschine zur Lösung mathematischer Probleme war eine direkte (wenn auch nie gebaute) Vorläuferin des Computers. Mit Babbages Maschine könnte man Tabellen produzieren, „[which] would undoubtedly be correct“ (Babbage 1889/2010, S. 161).

Dampfbetrieben, zwanzig Meter lang und drei Meter hoch und vor allem: programmierbar. Drei verschiedene Lochkartentypen waren vorgesehen, ein Typ für arithmetische Operationen, ein anderer für Lese- und Schreiboperationen und der dritte für numerische Konstanten. Aus finanziellen Gründen wurde sie nicht gebaut, aber die Informatik ist sich nach dem Studium von Babbages Aufzeichnungen (weitgehend) einig, dass es sich bei der Analytical Engine um einen Universalcomputer handelt, der prinzipiell die gleichen Probleme lösen kann wie ein moderner Rechner (nur eben sehr viel langsamer).

Die Idee für die Speicherung von Zahlen und Maschinenbefehlen („lies“, „schreib“ etc.) auf Lochkarten bekam Babbage beim Studium automatischer Webstühle, wie dem von Jacquard. Dort wurden die zu webenden Muster auf Lochkarten gespeichert, jeweils eine Karte pro „Schuss“. Kleine Hebel konnten die Karte entweder passieren, wenn dort ein Loch war, oder eben nicht. Entsprechend hoben oder senkten sich die Nadeln und zogen Fäden durch oder eben nicht.

4 Automatisierte Datenverarbeitung

In der Lochkarte manifestiert sich ein Algorithmus, und man benötigt nicht einmal eine Maschine, um ihn auszuführen. Nehmen wir einmal eine Randlochkarte, die im Gegensatz zu anderen Lochkarten für die manuelle Verarbeitung geeignet ist (siehe Abb. 1).
Abb. 1

Randlochkarte mit zwei Schlitzungen. Public Domain

Eine Randlochkarte besitzt im uncodierten Zustand ringsum Löcher am Rand. Nun wird ein Schlüssel, eine Codierung entworfen, und die Karten werden eingekerbt, so dass an bestimmten Stellen ein Schlitz entsteht. Oben im Bild sehen wir sowohl ein flach gekerbtes Lochpaar (oben) als auch ein tief gekerbtes (rechts). Alle Randlochkarten werden nun auf einen Stapel gelegt und hochkant aufgestellt, so dass die Löcher übereinander liegen. Wenn man nun eine Stricknadel hinein schiebt und den Kartenstapel anhebt, fallen diejenigen Karten herunter, die an der Stelle der Nadel einen Schlitz aufweisen.

Die Zeitersparnis bei der Suche im Gegensatz zu normalen Karteikarten ist enorm, wie Kiermeier und Renner (1960) beschreiben. Die Auswahlgeschwindigkeit beträgt zwischen 30.000 und 40.000 Karten pro Stunde. Es gibt jedoch noch einen weiteren Vorteil:

Neben der erheblichen Zeitersparnis, welche die Lochkarte bei der Auswertung von Untersuchungsergebnissen mit sich bringt, liegt ihr besonderer Vorteil darin, daß sie die Auswertung nach den verschiedensten Gesichtspunkten erlaubt, so daß es möglich ist, bei sehr geringem Zeitaufwand unterschiedliche Einflüsse und Kombinationen innerhalb eines Sachgebietes zu untersuchen. Dabei erübrigt es sich vollständig, die Karten in einer bestimmten Reihenfolge einzuordnen (Kiermeier und Renner 1960, S. 317).

Nehmen Sie jetzt unsere Skat-Spielkarten von oben und fügen in Gedanken entsprechende Schlitzungen am Rand hinzu. Doch anders als oben werden Sie gar nicht aufgefordert, bestimmte Karten auszuwählen oder nicht, Ihnen wird die einzunehmende Position der Stricknadeln als Suchkriterium (selector) mitgeteilt – und schon erhalten Sie im Handumdrehen das Ergebnis einer massiv parallel von der Natur ausgeführten Operation und das „Herz-Ass“ fällt zu Boden.

Dieser Vorgang benötigt also zwei Stufen. Zum einen müssen die Informationen auf Karten geschrieben werden, danach müssen sie (automatisiert) verarbeitbar gemacht werden durch das Hinzufügen der Schlitzungen. Damit kommen wir – endlich! – zu den informationstechnischen Systemen unserer Zeit. Wir haben im 20. Jahrhundert keine Digitale Revolution erlebt, die erfolgte je nach Sichtweise bereits vor 5000 Jahren im Zweistromland bzw. vor 500 Jahren in den Fugger’schen Büchern, sondern eine Algorithmische Revolution (Frieder Nake).

Charles Babbage beschrieb in seinen Aufzeichnungen sehr detailliert, wie viel Bewegungen die Teile seiner Maschine für eine Berechnung machen müssten und vor allem, wie lange das ganze dauern würde. An den Präsidenten der Royal Society schrieb er voller Stolz, dass seine Maschine 30 Berechnungen von jeweils zwei 40-stelligen Zahlen in nur zweieinhalb Minuten durchführen könne (Babbage 1889/2010, S. 213)!

Die Geschwindigkeit der Engine kann nicht beliebig gesteigert werden, selbst unter optimalen Bedingungen benötigt eine Berechnung zwischen fünf und sechs Sekunden, und auch nur, wenn man gut zu Fuß ist, der Maschine rechtzeitig alle Lochkarten gibt und die Zahnräder gut geölt sind.

5 Das tabellarische Leben

Die berechenbare Welt im mathematisch-naturwissenschaftlichen Geist spendet Geborgenheit, verleiht einem das Gefühl der Kontrolle. Man reiche mir einen langen Hebel, zeige mir einen Fixpunkt und schon hebe ich die Welt aus ihren Angeln. Dass es diesen Fixpunkt im physisch-haptischen Universum nicht gibt, stört die kontemplierenden Menschen seit Archimedes nicht weiter, im Geiste können Symbole nach beliebigen, aber festen, Regeln transformiert werden.

Dazu muss unsere Umwelt zunächst diskretisiert und in symbolischer Notation, vornehmlich als Zahl, erfasst werden. Dies war in der Antike die Aufgabe der Philosophie und der Mathematik, in der Neuzeit die der Physik und anderer Berechnungswissenschaften; im letzten Jahrhundert sind weitere Disziplinen hinzugestoßen, darunter die Informatik, die die Welt gleichsam als neue Pythagoräer betrachten mit der neuen Maxime „Alles ist Binärzahl“.5 Das binäre System übt einen starken Reiz auf unser Denken aus, Eins und Null, Tag und Nacht, Yin und Yang – die Kategorie der Einheit in der Zweiheit begeistert auch den ersten Informatiker avant le mot. Der Universalgelehrte Gottfried Leibniz war so angetan vom dyadischen (binären) Zahlsystem, dass er Medaillen prägen ließ mit dem Spruch „Einer hat alles aus Nichts gemacht“. Darunter eine Darstellung von Sonne, Mond und Sternen. Das Bild der Schöpfung („imago creationis“) ist binär kodiert.

Das binäre System war Mathematikern und Mystikern seit Entdeckung der Zahlen bekannt, Leibniz selbst besaß eine Kopie des chinesischen Yijing, dem Buch der Wandlungen, das die Binärdarstellung als Orakel nutzte. Es gibt jedoch einen fundamentalen Unterschied zwischen der Darstellung im Yijing und bei Leibniz, wie an anderer Stelle festgestellt wurde:

Die daoistische Binärdarstellung wurde jedoch nicht zum Rechnen verwendet, doch genau darin liegt der Kniff der Informatik: Etwas (Strom, Hebelposition, Vertiefung, Magnetisierung etc.) wird als Symbol erfasst. Mit Hilfe einer Vorschrift wird das Symbol nach bestimmten Regeln transformiert und im Anschluss wieder in physikalische Substrate übertragen […] (Ullrich 2017a, S. 165).

Für die Mathematik wurde diese Symboltransformation erst mit Alan Turing wichtig, der mit seiner Paper Machine die verdrängte Frage beantwortet hatte, was es denn heiße, dass etwas „berechenbar“ sei: Alles, was eine Turing-Maschine berechnen kann, ist berechenbar. Die heutigen Computer und ihre Softwareprogramme sind solche Universalberechenbarkeitsmaschinen, ihr logischer Kern besteht aus einer Tafel (table), auf der die Berechnungsvorschrift (behaviour) für bestimmte Zustände (configuration) abzulesen ist (Turing 1937, S. 233).

Die Tabelle ist ein mächtiges epistemisches Werkzeug, was uns dann bewusst wird, wenn wir es nicht einsetzen können. Blinde Menschen können Tabellen nicht im gleichen Sinn erfassen wie sehende.6 Dieses unmittelbare Erfassen eines Sachverhalts, der in einer Tabelle codiert wurde, dient nicht zuletzt eine Zeitersparnis. Der Politik-Berater Leibniz erkannte dieses Potenzial und entwarf so genannte Staats-Tafeln für beschäftigte Herrscherinnen und Herrscher:

Ich nenne Staats-Tafeln eine schriftliche kurze Verfassung des Kerns aller zu der Landesregierung gehörigen Nachrichtungen, so ein gewisses Land insonderheit betreffen, mit solchen Vorteil eingerichtet, daß der hohe Landesherr alles darin leicht finden, was er bei jeder Begebenheit zu betrachten, und sich dessen als eines der bequemsten Instrumente zu einer löblichen Selbst-Regierung bedienen könne (Leibniz 1966, S. 80).

Die Landesfürstin oder der Landesherr sollen sich mit diesem Instrument einen Überblick verschaffen können, wie viel „wüllene Tücher jährlich konsumiert oder vertan werden“ und dies in kürzester Zeit und vor allem ohne Mehraufwand. Diese und andere Ideen einer modernen Buchhaltung führten schließlich zur modernen Gouvernementalität (Foucault) des Staates. Die Data besitzen eine politische Dimension, sie sind spätestens jetzt, im 17. Jahrhundert, unmittelbar mit Fragen der Macht verknüpft.

Mit ein oder zwei Linealen können Personen in entsprechend aufbereiteten Tabellen nach Eigenschaften ausgefiltert werden. Wie die Haltung der Stricknadeln der selector für die Lochkarte ist, so ist das Tabellen-Design mit seinen Spalten und Reihen auf das effiziente Auffinden eines Datums ausgerichtet. Wenn Sie sich zwischen einhundertzwanzig Bewerberinnen und Bewerbern entscheiden müssten, wären Sie nicht auch versucht, mit Hilfe einer Tabelle schon einmal eine Vorauswahl zu treffen?

6 Von der Person zur Signatur

Grundsätzliche Probleme einer Ethik der Algorithmen werden bereits mit der Lochkarte und selbst mit der Kulturtechnik Tabelle sichtbar. Auch die unzulässige Gleichsetzung von Person und Signatur hat ihren Ursprung in Tabelle und Lochkarte, doch die eigentliche Sprengkraft wird erst durch die informationstechnische Realisierung im elektrisch betriebenen Digitalcomputer deutlich, wie Coy (Coy 1994, S. 9) treffend beschreibt. Abgesehen davon, dass heutige Computer millionenfach schneller sind, sind es auch die Datenmengen, die zum Betrachtungsgegenstand einer Ethik der Algorithmen werden. Ganz anschaulich hat dies unser Bundespräsident a.D. einem Fernsehpublikum erklärt:

Wir nehmen ja einigermaßen entgeistert im Moment [Sommer 2013] zur Kenntnis, dass unsere Kommunikation weitgehend ausgespäht wird. Wir wissen, dass von amerikanischen, britischen Geheimdiensten Handyverbindungen, SMS und Emails gespeichert werden, und es gibt keine wirkliche Aufklärung, in welchem Umfang [dies geschieht] jedenfalls nicht. Sie als Verfechter von Bürgerrechten – wie sehr empört Sie das?

Also erst einmal bin ich natürlich besorgt. Aber ich habe es mir jetzt zur Angewohnheit gemacht, bevor ich mich empöre, schaue ich noch einmal genau hin und schaue mir die wirkliche Wirklichkeit an – nicht nur die der Schlagzeilen.

Aber die kennen wir nicht!

Und die kennen wir ein wenig. Wir wissen zum Beispiel, dass es nicht so ist wie bei der Stasi und dem KGB, dass es dicke Aktenbände gibt, in denen unsere Gesprächsinhalte alle aufgeschrieben und schön abgeheftet sind. Das ist es nicht. Was ist es denn? Ist es etwas, was uns sorglos machen kann? Nein […] (Gauck 2013) (
Abb. 2

Fläche aller Stasi-Aktenschränke (links) und benötigte Fläche der durch die NSA, GCHQ und BND gesammelten Daten, wenn sie ausgedruckt werden (rechts). CC-BY OpenDataCity

Abb. 2).

Das Team von OpenDataCity erstellten als Antwort darauf eine kleine Applikation, die die ungeheure Dimension der Technik greifbar macht.7 NSA, GCHQ, BND und andere Datensammler im Staatsdienst wie auch in der Privatwirtschaft verarbeiten inzwischen eine Milliarde Mal mehr Daten als die Stasi je erfasst hat. Einen Aktenschrank dieser Größe könnte man mechanisch gar nicht durchsuchen, da er von Sekunde zu Sekunde größer wird. Es werden Sortieralgorithmen, Suchalgorithmen, Filteralgorithmen, Selektionsalgorithmen und andere Paper Machine Codes gebraucht, um die riesige Menge an Daten zu verarbeiten.

Dabei ist ein beunruhigender Trend zu beobachten, der ungeheure moralische, aber auch ethische Implikationen mit sich bringt. Galt bislang noch die Person und damit verbunden das personenbezogene Datum als Objekt der Betrachtung bei Datenschutz, Privatheit, aber auch im Falle der Strafverfolgung, wird nun ein komplexes Gebilde aus Verhalten, Besitz und Aufenthaltsort zur so genannten Signatur einer gesuchten Person.

Die so genannten Signature Strikes, also die Tötungen durch unbemannte bewaffnete Drohnen, sind die letale Fortsetzung dieses Trends. Staaten besaßen und besitzen nach wie vor Listen, die Staatsfeinde, Terroristen und gesuchte Schwerverbrecher aufführten, doch nun wurden diese Listen ergänzt durch eine so genannte Disposition Matrix, eine Datenbank mit Informationen (Wohnort, Dienststelle, Namen von Freunden, kurze Biografie) und vor allem mit Algorithmen. Ein Beispiel einer solchen Handlungsanweisung konnte man in der Washington Post im Oktober 2012 lesen:

„If he’s in Saudi Arabia, pick up with the Saudis,“ the former official said. „If traveling overseas to al-Shabaab [in Somalia] we can pick him up by ship. If in Yemen, kill or have the Yemenis pick him up“ Miller (2012).

Oder, in einer Pseudo-Programmiersprache formuliert:

IF $target.location == 'Saudi-Arabia'
THEN DO contact('Saudi-Arabia')
ELSE IF $target.location == 'Yemen'
THEN DO kill($target) || contact('Yemen')

Die ethische Besonderheit von Signaturen besteht darin, dass sie eine Person identifizieren, deren Identität gar nicht bekannt sein muss. Wie oben erwähnt, handelt es sich bei allen Datenbank-Einträgen über Personen oder targets nur um Repräsentationen der jeweiligen Person bzw. des targets. Diese „Verdopplung der Person“ wurde wunderbar nachgezeichnet von Groebner (2004). Mit Hilfe dieser Repräsentationen kann man mit einer sehr hohen, nahe an 1 liegenden Wahrscheinlichkeit auf die repräsentierte Person schließen. Dennoch, es bleibt ein Spiel mit Wahrscheinlichkeiten, was in bestimmten Bereichen des gesellschaftlichen Zusammenlebens (noch) nicht akzeptabel ist. Ich schreibe „noch“, weil sich in einzelnen Bereichen bereits jetzt schon eine Verschiebung beobachten lässt. In Gerichtsverfahren kommen beispielsweise forensische Verfahren zum Einsatz, die wissenschaftlich höchst fragwürdig sind. Aber auch bei den oben angesprochenen außergerichtlichen Hinrichtungen scheint man die Eindeutigkeit der Identifikation zugunsten einer sehr hohen Wahrscheinlichkeit aufgegeben zu haben:

[T]he following criteria must be met before lethal action may be taken: 1. Near certainty that the terrorist target is present;

Near certainty that non-combatants will not be injured or killed […] White House (2013).

„Near certainty“ tritt in der US-amerikanischen Rechtsprechung an die Stelle von „reasonable doubt“, der eine Kontra-Indikation zur Vollstreckung des Todesurteils darstellte (unterhaltsam und lehrreich wird dieser Zweifel von Peter Fonda verkörpert in: Rose und Lumet (1957)).

Wir haben es also mit einer Beweislastumkehr zu tun, was hauptsächlich technische Gründe hat. Der Hauptgrund ist, dass für „reasonable doubt“ eben „reason“ vorhanden sein muss. Ein Computerprogramm kann nichts entscheiden und seine Zweifel sind mathematisch ausgerechnet, wie uns das von IBM entworfene System Watson bei Jeopardy gezeigt hat. Als Watson befragt wurde, welche US-amerikanische Stadt einen bestimmten Flughafen besaß, tippte das System auf die kanadische Stadt Toronto. Jedoch, und das ist der Zweifel, setzte das System nur eine geringe Summe Spielgeld und gewann schließlich das gesamte Jeopardy-Spiel gegen zwei menschliche Kandidaten. Das System berechnete, dass die Antwort mit einer Wahrscheinlichkeit „near certainty“ nicht richtig sei, es hatte also die maschinelle Art eines Zweifels.

Der maschinelle Zweifel ist lediglich über einen Schwellwert der berechneten Wahrscheinlichkeit einer gegebenen Rechnung definiert, seine Berechnung tritt an die Stelle von Entscheidungen. Was bei Leibniz noch böse Satire gegenüber seinen Mitmenschen war, erleben wir nun ständig und überall: Anstatt zu entscheiden, welche Handlung durchgeführt oder welche Antwort gegeben werden soll – das wird einfach ausgerechnet (Królikowski et al. 2017, S. 317–328). Die Jeopardy-Erfahrung zeigt uns jedoch: Das ist gut genug für die meisten Anwendungsfälle. 2011 markiert somit den Beginn des Zweiten Zeitalters der Turing-Galaxis, seitdem spüren wir alle die Auswirkungen der Heuristischen Revolution.

7 Turing-Galaxis 1.1

The Analytical Engine has no pretensions whatever to originate anything. It can do whatever we know how to order it to perform. It can follow analysis; but it has no power of anticipating any analytical relations or truths. Its province is to assist us in making available what we are already acquainted with (Lovelace 1842, S. 44).

Ada Lovelace, die damals namenlose Übersetzerin eines italienischen Transkripts einer von Babbage gehaltenen Vorlesung über seine Analytical Engine, gilt als erster Programmierer der Welt.8 Sie schrieb den ersten Algorithmus für eine Maschine, ein Computerprogramm. Sie erkannte auch, dass es sich bei der maschinellen Verarbeitung von Zahlendarstellungen eigentlich um eine Symboltransformation handelt, die auch dann funktioniert, wenn die transformierende Maschine gar nicht „weiß“, was eine 7 „bedeutet“. Ihre Notes erfuhren jedoch wenig Aufmerksamkeit und auch Babbage’s Beiträge zu Wissenschaft, Technik und Politik – einst europäische Bestseller – sind bis heute nur in Fachkreisen bekannt.

Es war schließlich Alan Turing, der den mathematischen Begriff der Berechenbarkeit auf eine rein mechanische Symboltransformation überführte. Seine Papiermaschine bestand aus einem unendlichen, karierten Band, einem ewig schreibenden Stift und einem Lesekopf. Sie befand sich in einer bestimmten Konfiguration, die sich je nach gelesenem Symbol und entsprechender Zuordnungstabelle änderte. Seine Paper Machine, die wir inzwischen Turing-Maschine nennen, lieferte (wie oben bereits erwähnt) die Definition dessen, was denn Berechenbarkeit sei: Berechenbar ist, was mit einer Turing-Maschine berechnet werden kann.

Der Mensch ist nicht berechenbar, prinzipiell nicht, doch das hält unsere Zunft nicht davon ab, es dennoch zu versuchen. Der Computer-Pionier und kritische Informatiker Joseph Weizenbaum sagte einmal sinngemäß: „Früher haben wir den Computer Probleme berechnen lassen, die wir zutiefst verstanden haben. Heute scheint es gerade umgekehrt zu sein: Wenn wir ein Problem nicht verstanden haben, lassen wir mächtige Computerprogramme Lösungen berechnen“. (So formulierte er es im Dokumentarfilm Plug & Pray von Jens Schanze, diesen Gedanken finden Sie natürlich auch in Weizenbaum (1978).)

[Dabei ist es] nicht die Rechenkraft, die Computer so mächtig erscheinen lässt, es ist die Eleganz der Modellierung, die einen Reiz auf den überlasteten Geist ausübt. Die Informatik ist sehr gut darin, Modelle zu konstruieren, die bestimmte zu untersuchende Aspekte der Welt besonders gut erklären können. Der vorbildliche Informatiker ist sich jedoch jederzeit über den Modellcharakter bewusst, er verwechselt als guter Akademiker nie Abgebildetes mit seinem Abbild.

Menschen in der Welt ebenso zu behandeln wie ihre Repräsentationen hieße, sie als bloßes Objekt wahrzunehmen. Schlimmer noch, aus den unteilbaren Individuen werden Dividuen, Unterteilte, weil im Modell unterteilbare Objekte. Dies ist mit einem auf Würde und Freiheit ausgerichteten Menschenbild nicht vereinbar (Ullrich 2017a, S. 98).

Die Macht der Modelle und Modellierungen äußert sich im Moment in den Diskursen rund um Scoring und eben dem Ruf nach einer Ethik der Algorithmen. „Big Data“, „Künstliche Intelligenz“ und „Machine Learning“ stehen ganz besonders für die Heuristische Revolution der Informationstechnik. Die Heuristik ist die seelenlose Schwester des Algorithmus, es geht nicht mehr um Kausalitäten oder vollständige Daten, sondern um Korrelationen und plausible Daten. Die größte Stärke von heuristischen Systemen besteht darin, dass diese Systeme auch mit ungenauen, fehlenden oder sich widersprechenden Daten umgehen können.

Für die ethische Betrachtung von Algorithmen und anderen Paper Machine Codes ist somit eine besondere Herausforderung verbunden: Wir müssen nicht nur die Ethik verstehen, sondern auch die zu Grunde liegende Technik und vor allem über ihre Grenzen Bescheid wissen. Vielleicht ist dies die späte Rache der einst so wenig beachteten Technai.

8 Verborgene Mechanismen

Unter Technai wurden verschiedene Praktiken des Handwerks verstanden, bei Platon sind dies unter anderem Medizin, Reiten, Jagd, Viehzucht, Ackerbau, Rechnung, Geometrie, Führung, Steuerung von Schiffen oder Wagen, Politik, Wahrsagekunst, Musik, Laute-Spiel, Flötenspiel, Malerei, Bildhauerei, Schiffbau, Zimmerhandwerk, Webkunst, Skulptur, Schmiedekunst und Kochen (Parry 2008, Abschn. 2 zu Platon).

Die Antike spricht nicht von den Technikerinnen oder Technikern in dieser abstrakten Form, man sprach beispielsweise von Jägerinnen und Jägern, die eine Jagdkunst erlernen mussten, aber nicht von den Jagdkünstlern. Die Praktikerinnen und Praktiker bewegen sich ohnehin in der Welt des Notwendigen und damit außerhalb der politischen Sphäre, zumindest nach dem antiken Verständnis von politiká. Die politische Sphäre war die der Freiheit, der Zwang und das Notwendige gehörten zur Sphäre des Privaten. Das öffentliche Räsonieren auf agora und forum machte einen nicht satt, es war schlicht nicht die Aufgabe der politisch denkenden Menschen, dafür zu sorgen, dass es Essen für alle gibt, sondern zu begründen, warum es wünschenswert oder transzendental geboten sei, dass es eine Grundversorgung an Lebensnotwendigem in einem (Stadt-)Staat geben müsse.

Die Fähigkeit, seine Meinung wirksam zu vertreten, war eine erlernbare Technik, eine rhetorike techne; die Theater waren so gebaut, dass ein möglichst großes Publikum möglichst viel von den rezitierten Texten und gesungenen Liedern verstand; schließlich sorgte die optisch wie olfaktorisch nicht wahrgenommene cloaka maxima dafür, dass die Lebensspanne der Philosophen groß genug war, um Schulen zu bilden. Die Technai waren und sind bis heute für die technische Infrastruktur von Städten und Staatengemeinschaften zuständig, sie bilden in der Gesamtheit die zweite Natur des Menschen, die sie wie einen Vorhang um urbi et orbi zogen.

Die verborgene Technik kodifiziert jedoch – beabsichtigt oder nicht – bestimmte Ansichten und Vorannahmen, die Barrieren beseitigen oder erst aufbauen können. Das Verhalten von Individuen oder Massen kann durch entsprechende Technikgestaltung gesteuert oder zumindest beeinflusst werden, das berühmte Beispiel der Techniksoziologie ist der schwere Anhänger eines Hotelschlüssels, den man gern an der Rezeption abgibt, um sich das Jackett nicht auszubeulen (Latour 1990, S. 104).

Diese Beeinflussung geschieht zwar beabsichtigt, jedoch in der Regel unbemerkt, es sei denn, der digital naive Wanderer wird mit einer großen Debatte (wie der Anfang 2018 geführten rund um Facebook und Cambridge Analytica) an die Grenzen seines Horizonts geführt.

Der Wanderer am Weltenrand, so berichtet Camille Flammarion 1888, war ein naiver Mensch des Mittelalters, der eine Stelle entdeckte, wo Himmel und Erde sich zwar berührten, aber nicht gut verschweißt waren. So war er in der Lage, einen Blick hinter den Horizont zu werfen.

Der bekannte Holzstich zu der Geschichte dient bis heute als Illustration der kopernikanischen Wende und anderer Zäsuren der Wissenschaftsgeschichte. Das Motiv ist uns durch moderne dystopische Literatur ebenfalls bekannt: Die Protagonistin stolpert durch Zufall hinter die Bühne der Welt und wird auf die dort verborgenen Mechanismen aufmerksam, die nicht unbedingt zum Vorteil aller Menschen ihre Geschicke bestimmen.

Die technische Sprache von Flammarion, die „Schweißnaht“ zwischen Himmel und Erde oder „couvercle“, Luke, Wartungsklappe, Verschlussdeckel, verrät ihn als Kind des 19. Jahrhunderts, auch wenn schon seit der Antike technische Metaphern für kosmoligische Vorgänge verwendet wurden. Das Wort Himmelsgewölbe ist ja auch ein technischer Ausdruck (Ullrich 2017b, S. 15).

Auch die menschlichen Schicksale wurden seit der Antike bereits technisch erklärt: Die Moiren Klotho, Lachesis und Atropos weben ein Lebenstuch bzw. spinnen einen Lebensfaden, der bereits bei der Geburt eines Menschen den weiteren Verlauf des Lebens und in der Konsequenz auch seinen Tod festlegt. Es ist ein verstörender Widerhall dieser Prädestination, wenn wir gegenwärtig lesen, dass informationstechnische Systeme im Krankheitsfall die Lebenserwartung errechnen.

9 Geistesmaschinen

Die hier vorgenommenen ethischen Betrachtungen dürfen sich nicht nur auf die physikalisch wahrnehmbaren Mechanismen der Flammarion’schen Weltmaschine beziehen, sie müssen sich auch und gerade den Geistesmaschinen widmen, also Werkzeugen des Geistes. Diese mind tools liegen noch verborgener, da in manchen Fällen nicht einmal der denkende Geist sich der Gegenwart der eigenen Geistesmaschine bewusst ist. Ich möchte zwei Geistesmaschinen unterscheiden, die logische Maschine im Geist des Individuums und die Kollektivmaschine.

Die individuelle Geistesmaschine soll Strukturen des Geistes bezeichnen, die das Denken in bestimmte Richtungen lenken. Philosophische Systeme und diskursanalytische Schemata können den wandernden Geist in konzisere Bahnen lenken. Auch spezielle Begriffe und generell der Gebrauch einer bestimmten Sprache bestimmen, wie wir über das „Weltganze“ nachdenken. Die Philosophinnen und Philosophen beispielsweise nahmen gern aktuelle technische Entwicklungen auf und erklärten damit den Denkvorgang, was bei Descartes wohl am deutlichsten wird. Aber auch die Politik bedient sich am technischen Vokabular. Seit der Weimarer Republik wird die Wirtschaft angekurbelt, werden bestimmte Reformen angestoßen und Prinzipien fest verankert.

Es sind jedoch die deutschen Nationalsozialisten und andere Faschisten im Europa der 1930er-Jahre, die technische Begriffe nicht nur zur Beschreibung verwenden, sondern darin auch den Lösungsansatz für die Transformation einer ganzen Gesellschaft sehen. Der Begriff der „Gleichschaltung“ verrät viel über die tiefe Verachtung gegenüber frei denkenden Menschen, die gesamte Sprache des Dritten Reichs war durchsetzt mit technischen Metaphern, die nichts weniger im Sinn hatten, als die Mechanisierung des Menschen voranzutreiben, auf dass er programmiert werden konnte (Klemperer 1947, Kap. XXIII, besonders S. 236–239).

Auf die Rolle der elektronischen Medien als Erfüllungsgehilfen der Gleichschaltung soll hier nicht weiter eingegangen werden. (Das Wikipedia-Schlagwort heißt natürlich „Volksempfänger“, vgl. dazu (Ullrich 2017a, S. 102–122) und detaillierter (Sösemann 2003, S. 390).) Wir haben allein mit der Sprache ein sehr mächtiges Werkzeug, die Geistesmaschine zu formen, wie Victor Klemperers Lingua Tertii Imperii (Klemperer 1947), George Orwells Nineteen Eighty-Four (Orwell 1980) und am unterhaltsamsten auch Martin Haase et al. beschrieben haben.9 Anhand einzelner Begriffspaare können Sie die unterschiedlichen Wege Ihrer Gedanken einmal selbst nachvollziehen. Flüchtlinge – Geflüchtete. Terahertzscanner – Nacktscanner. „Cyber war“ – „kybernetischer Krieg“.

Die vielleicht umfassendste Beschreibung der logischen Geistesmaschine ist vor über siebenhundert Jahren von Ramon Llull in seinem Werk „Ars Magna“ vorgenommen worden, in der er sich mit Hilfe einer logischen Maschine auf mechanischem Wege der Wahrheit nähert. Auch die Scholastiker und schließlich die Philosophen des Wiener Kreises haben diese Geistesmaschinen sehr detailliert beschrieben, jedoch sind die Logiker in die Objektivitätsfalle getappt:10 Die logischen Maschinen selbst haben einen Bias, der jedoch nicht thematisiert wurde. „Wovon man nicht sprechen kann, darüber muss man schweigen“, wie Wittgenstein so prägnant formulierte, deutet in die Richtung dieser Verzerrung. Es gibt Dinge, die sich schlicht nicht in logische Systeme, ja nicht einmal in Sprache pressen lassen. (Wobei der Shruggie [Open image in new window] eine eigene Betrachtung wert ist, da gebe ich Dirk von Gehlen absolut Recht (von Gehlen 2018, S. 11–20).) Dies sind jedoch genau die Dinge, die in der Philosophie im Allgemeinen und in der Ethik im Speziellen Gegenstand der Betrachtung seit tausenden von Jahren sind.

Vielleicht wird das Argument der verborgenen Struktur und ihr Einfluss auf Denken und Handeln deutlicher, wenn wir uns Kollektivmaschinen ansehen. Die Kollektivmaschine ist in der Literatur unter mehreren Begriffen betrachtet worden, im Politischen ist der Hobbes’sche Leviathan sicher der bekannteste, aber auch Canettis Masse (Canetti 1994) und Tardes Nachahmungsgesetze (Tarde 2009) beziehen sich auf die Kollektivmaschine in dem hier verwendeten Sinn. In jüngster Zeit wird das kollektive Handeln und das ausführende Organ der Handlung (group agency) in den Vordergrund gestellt (etwa von List und Pettit 2011), hier soll auf die zugrunde liegende Struktur fokussiert werden.

Ein anschauliches und historisch sehr gut nachgezeichnetes Beispiel ist das Militärwesen.11 Schon im antiken Sparta wurde begonnen, was unter Moritz von Oranien zur Perfektion gebracht wurde: der Drill. Der niederländische Oberbefehlshaber war umfassend gebildet und griff auf antike Vorbilder in der Kriegskunst zurück. Aelianus beschrieb zur Zeit Trajans die taktike techne, also die Kunst der Anordnung und Aufstellung von Personen, die auf engem Raum als Kollektiv handeln sollen.

Ein Schlüssel zum Erfolg waren Kommandos, also Befehlswörter, die kurz und laut eine Gruppe steuern konnten. Waren es bei Aelianus noch 22 Befehlswörter, erforderte der Umgang mit Schusswaffen 42 verschiedene Teil-Bewegungen mit entsprechenden Kommandos. Der Erfolg war beeindruckend:

The practical importance of such pedantry was very great. In principle and to a surprising degree also in practice, it became possible to get soldiers to move in unison while performing each of the actions needed to load, aim, and fire their guns. The resulting volleys came faster, and misfires were fewer when everyone acted in unison and kept time to shouted commands. Practice and more practice, repeated endlessly whenever spare time allowed, made the necessary motions almost automatic and less likely to be disrupted by stress of battle (McNeill 2009, S. 128).

„Beinahe automatisch“ erfolgten die Bewegungen der Soldaten, sie sind zu einem steuerbaren Teil einer größeren Maschine geworden. Wenn wir nun nach der Ethik der Maschine fragen, sollte klar sein, dass wir unsere Betrachtungen auf diese Struktur richten und nicht auf die Individuen dieser Maschine. Es sind die Konstrukteurinnen und Konstrukteure, die bestimmte Handlungsoptionen von vorn hinein forcieren, ermöglichen, befürworten, erschweren oder ausschließen. Ein gebrülltes Kommando könnte ja auch „Denke!“ lauten oder „Sapere Aude!“, wobei letzteres ja allein schon als Befehlswort zu lang für die militärische Nutzbarkeit ist.

Es ist daher ein konsequenter und gar nicht so überraschender Schritt, dass diese Mechanisierung des Kollektivs nun vermehrt mit maschineller Unterstützung vorgenommen wird. Panzer, Gleitflugbomben, Drohnen – jede Kriegstechnik zielt darauf ab, die individuelle Entscheidungs- und Handlungsmöglichkeit so weit einzuschränken, dass sie berechenbar ist. Im Falle der „unbemenschten Luftfahrzeuge“ (unmanned aerial vehicle) ist auf den zweiten Blick auch gar nicht so klar, wen wir hier als Drohnen bezeichnen: die informationstechnischen Systeme in der Luft oder die handlungseingeschränkten Soldatinnen und Soldaten vor den Bildschirmen im Kontrollzentrum.

10 Ethik der Ultimativen Maschine

Die „Ultimative Maschine“ besitzt nur einen Zweck: Wenn sie eingeschaltet wird, schaltet sie sich selbsttätig wieder aus. Dem berühmten Mathematiker und Informationstheoretiker Claude Shannon wird die Ehre zugeschrieben, als erster eine solche nutzlose Maschine gebaut zu haben. Doch bei näherer Betrachtung stimmt dies nicht, denn schon das Uhrwerk ist eine invertierte Ultimative Maschine, eine Maschine, die keinen anderen Zweck verfolgt, als ihre Zahnräder, einmal eingeschaltet, immer weiter zu drehen.

Etymologisch geht das Wort „Maschine“ auf das griechische Wort für Werkzeug zurück, und wie das Werkzeug auch, berührt die Maschine den Kernbereich der Ethik, da sie sich auf das Handeln und Denken des Menschen bezieht. Der Mensch ist nicht nur ein Werkzeug gebrauchendes Wesen, sondern auch ein homo faber, ein Werkzeug herstellender Prometheus. Er kann in die Zukunft blicken und vorausschauend planen, er kann die Handlungsabsichten mit anderen teilen und dementsprechend Werkzeuge suchen oder herstellen, die dann zum Einsatz kommen. Im Anschluss überprüft er, ob die Wirkung seiner Handlung mit seiner Intention übereinstimmt und passt dann gegebenenfalls Werkzeug oder Handlungsprozess an (oder aber er gibt auf und versucht es mit einer neuen Intention).

Die Grenzen zwischen Werkzeug und Maschine sind fließend, wie man am Beispiel der Archimedischen Schraube sieht. Hier sind mit Werkzeugen technische Artefakte gemeint, die menschliche Handlungen unmittelbar unterstützen. Maschinen hingegen wirken mittelbar, sie transformieren Handlungen, Werkzeuge, Symbole oder Energie. Zwischen beiden besteht in ethischer Hinsicht ein Unterschied in der Performanz-Dimension. Oben haben wir ja gesehen, dass ein Faustkeil unter anderem eine Performanz-Affordanz eingeschrieben hat, eine Aufforderung zur (intendierten) Benutzung. Die Maschine ist von der Unmittelbarkeit der Affordanz befreit, ohne Gebrauchsanleitung oder eine entsprechende Vorführung wird man unter Umständen gar nicht wissen, was die Maschine eigentlich macht.

Der Gestalter Jakob Werner nimmt diese Mittelbarkeit und die daraus entstehende Unsicherheit als Ausgangspunkt, er hat eine besonders originelle Version der Ultimativen Maschine gebaut (hier auf Abb. 3 zu sehen). Er nennt sie Lese-Maschine, und sie besteht aus einer geschlossenen Kiste mit einem Kippschalter vorn, einem Pult für Bücher, ein paar sichtbaren Zahnrädern und schließlich zwei Stielaugen, die auf das Pult gerichtet sind. Wenn nun ein operator die Maschine bedient, also ein Buch auf das Pult legt und den Kippschalter betätigt, blättert die Lese-Maschine dieses Buch von vorn bis hinten durch und „liest“ es mit ihren Augen aus Pappmaché.
Abb. 3

A Machine Learning, Installation, 2016. © Jakob Werner. Abdruck mit freundlicher Genehmigung des Künstlers

Wir wissen nicht, was diese Maschine tut. Sind die Augen in Wirklichkeit kleine Webcams? Wird das Buch eingescannt und auf einem in der Box verborgenen Datenträger gespeichert? Oder ist sie ganz und gar instrumentell sinnlos?

Und damit sind wir bei der Ultimativen Maschine der Industriegesellschaft, die eigentlich ebenso sinnlos wie die Lese-Maschine ist: Die Uhr treibt mit ihrem unnatürlich regelmäßigen und steten Takt die industrielle und bislang sogar die post-industrielle Gesellschaft seit nunmehr 250 Jahren an. Dabei zeigt die Uhr lediglich die Karikatur des Tagesverlaufs an. Vorindustrielle Arbeiterinnen und Arbeiter richteten sich nach der Sonne, dem Wetter, den Jahreszeiten und nach vielem anderen mehr, eben nach allem, was einen Tag ausmacht. Die industriellen Arbeiterinnen und Arbeiter stempeln nun brav ihre Zeiterfassungsbogen jeden Morgen um die gleiche Uhrzeit ab.

Für die Ethik der Ultimativen Maschine betrachten wir nun sowohl ihre Mittelbarkeit als auch ihr Performanz-Gebot, wenn sie einmal in Gang gesetzt wurden. Ähnlich dem oben angesprochenen Zwang des Gedichts, zwingt das unaufhaltsame Fortschreiten der Uhrzeiger den Menschen geradezu, sich zu rechtfertigen, was er denn Sinnvolles in der verstrichenen Zeit angestellt habe.

Für transdisziplinäre Kulturtechnikforschende ist es erstaunlich und bedrückend, dass Maschinen in erster Linie nicht etwa gebaut und eingesetzt werden, um den Arbeiterinnen und Arbeitern ihre Arbeit zu erleichtern, sondern hauptsächlich, um die Effizienz der menschlichen Arbeit zu steigern. Die Fabrikarbeiterinnen und -arbeiter schalteten nach getaner Arbeit die Maschinen ja nicht aus, im Gegenteil, die sich stets drehenden Kraftübertragungen schrien geradezu danach, Mehrarbeit zu verrichten – und genau das geschieht (Höre dazu Mason 2016).

Der elektronische Routenplaner kann den Angestellten im Lieferdienst eine Hilfe sein – oder aber eine Geißel, wenn sie von der maschinell vorgeschlagenen Route abgewichen sind. Die „smarten“ Armbänder der Lagerarbeiterinnen und Lagerarbeiter können vor Haltungsschäden und anderen gesundheitlichen Gefahren warnen – oder aber zur Kontrolle der optimalen Handgriffe mit entsprechender Entlohnung eingesetzt werden.

Dieser durch die Ultimativen Maschinen erst ermöglichte Optimierungswahn trifft nun alle Bereiche des Lebens, nicht nur in der Arbeitswelt, wobei das hier am deutlichsten sichtbar zu Tage tritt. Die Pflegefachkraft hat 8,2 Minuten Zeit, die Patientin von Zimmer 3 zu waschen, weitere 3,7 Minuten, um sie anzuziehen und dann schließlich 1,1 Minuten Zeit für ein aufmunterndes Gespräch. Das Konzept der genauen Uhrzeit ergibt vielleicht im Bereich der Personenbeförderung einen Sinn, in vielen Berufsfeldern hingegen ersetzt der Sekundenzeiger schlicht die Peitsche des Vorarbeiters bzw. der Vorarbeiterin.

Mit den informationstechnischen Artefakten ist eine neue Art der Ultimativen Maschine hinzugekommen, die Datenmaschine, eine Maschine, die dem Capital nicht das Geringste kostet (Marx 1857, S. 637). Diese Ultimative Maschine dient der Perfektion des arbeitsteiligen System, in dem nicht nur jeder Teilschritt einer Optimierung ausgesetzt ist, wie noch bei Taylor, nein, jeder Teilschritt kann nun situativ einem anderen Arbeitenden zugewiesen werden. Aufgaben werden in Echtzeit auf der ganzen Welt verteilt in die modernen Sweat Shops der Informationsgesellschaft – und das bei zentralisierter Kontrolle durch Monopolisten.

Dies geht sogar so weit, dass auch Sie, werte Leserin und werter Leser, eingebunden werden können – und tatsächlich auch eingebunden werden. Falls Sie im Internet einmal ein so genanntes CAPTCHA lösen mussten, also diese verzerrten Wörter enträtseln (z. B. [Open image in new window]) oder auf Straßenschilder klicken mussten, dann verrichten Sie Arbeit für eine Software-Firma, die dadurch wertvolle Trainingsdaten bekommt.12

Die Datenmaschine ist nun in Betrieb, sie ist längst amortisiert, so dass der Wert der produzierten Daten konstant fällt. Und damit auch der Wert der Produkte, die mit Hilfe von Daten einfach produziert werden können:

So ist – um nur ein Beispiel zu nennen – in 15 Jahren der Preis für die Analyse des gesamten DNA-Genoms eines Menschen von 100 Millionen Dollar auf 1000 Dollar gefallen. Und das ist nur eine von vielen realen physischen Waren, deren Preis wegen des in ihnen enthaltenen hohen Informationsanteils zusammengebrochen ist. Die Antwort des Kapitalismus auf diese Diskrepanz zwischen Arbeitswert und Geldpreis – anders gesagt: Auf diesen Überfluss – ist es natürlich, große Monopole zu schaffen, mit denen sich Marktpreise weit über den Produktionskosten stabilisieren lassen. […] Im Zeitraum von bloß 15 Jahren entstanden so Apple, Google, Samsung, Amazon, Microsoft, Facebook, What’sApp – Monopolunternehmen, deren Bewertung jede mögliche Vorhersage zukünftiger Erträge übersteigt.

Nicht nur das: Diese neuen IT-gestützten Monopole privatisieren unaufhaltsam nicht-marktgängige Lebensbereiche und verwandeln unsere Freizeit in ihren Profit – wie wir es mit Uber, Airbnb, Facebook und so weiter erleben. In ihren Netzwerken entstehen völlig neuartige Informationsgüter: Enorme Datenmengen, die Kunden, Nutzer öffentlicher und privater Dienste und Bürger liefern, die nun von großen Informationsmonopolisten und staatlichen Instanzen angeeignet und ausgebeutet werden (Mason 2016, Minute 14:45).

Sie sind sich keiner Lieferung der Daten bewusst? Überprüfen Sie jedes Mal, ob Sie einen normalen Lichtschalter betätigen – oder aber einen Schalter für eine Smart Lightbulb betätigen, also ein Internet-of-Things-Objekt nun mit Strom versorgen, das Sie seinerseits nun als Datenpunkt registriert hat?

11 Mündigkeit im Zeitalter des Internets der Dinge

Wenn oben davon die Rede war, dass bestimmte Akteurinnen und Akteure durch die bevormundenden informationstechnischen Systeme zu Patientinnen und Patienten werden (von lateinisch patiens, „geduldig“, „ertragend“, „erleidend“), sollte betont werden, dass es sich nur um eine Verlagerung der Handlungskompetenz handelt. Auch wenn die Betreiberinnen und Betreiber der Systeme zu Getriebenen werden, auch wenn aus dem User ein Usee wird, so ist es doch nicht die Technik, die diese Entwicklung vorangetrieben hat, sondern deren Schöpferinnen und Schöpfer, die nun umso mächtiger werden, je mehr sich der Zorn auf die leblose Technik richtet. Ähnlich argumentiert der Computerpionier Heinz Zemanek, der in der Informationstechnik keine Wegbereiterin der Unmündigkeit sieht, im Gegenteil, sie sei ein Lackmustest für die Mündigkeit. Sie verlange von der technisierten Gesellschaft die „stetige Überlegenheit über ihre Systeme ab“ (Zemanek 1991, S. 277).

Die Unmündigkeit jedoch, ach!, ist allzu süß. Wenn Sie vor einem Bildschirm sitzen und eine Entscheidung treffen sollen, würden Sie sich nicht darüber freuen, wenn Ihnen das informationstechnische System im Hintergrund schon die ganze Arbeit abgenommen hat? Welches Produkt sollten Sie denn kaufen, wenn nicht das mit den höchsten Bewertungen? Welchen Verurteilten sollten Sie auf Bewährung entlassen, wenn nicht die Person mit dem niedrigsten Kriminalitätswert? Die Aggregation und Filterung von Information ist im Zeitalter des information overload äußerst verlockend. Damit hat sich transzendental eine bestimmte Denkweise in unserem Geist eingenistet, die den gegenwärtigen Daten- und Überwachungskapitalismus für alternativlos hält. Wovor hier gewarnt werden soll,

[…] ist, dass die Bedingungen zur Möglichkeit der Herausbildung einer Urteilskraft durch den falschen Einsatz von Technik massiv angegriffen werden. Es ist technisch nicht notwendig, alle Seitenzugriffe zu protokollieren oder gar die aktuelle Scroll-Position bei einem längeren Text in einem Browser-Fenster zu erfassen. Es ist beispielsweise technisch durchaus möglich, ein dezentrales, anonymes und komplett verschlüsseltes E-Mail-System zu betreiben, jeder Internet-Nutzer könnte einen Teil seiner Rechenleistung der Allgemeinheit zur Verfügung stellen. […] Es liegt an den Technikern, die Vielfalt der Lebensweisen ihrer Mitmenschen zunächst anzuerkennen und in Folge dessen zu respektieren. Vielleicht kann über den Umweg des Hineinversetzens in Andere ein neuer Gesichtspunkt auftauchen, der vorher so nicht gesehen wurde (Ullrich 2014, S. 699–700).

Wir haben es also nach wie vor mit der Herausbildung des Charakters eines jeden Menschen, besonders aber dem der technisch Handelnden zu tun. Doch im Gegensatz zur Antike sind wir inzwischen alle zu technisch Handelnden geworden, auch wenn uns das nicht immer bewusst ist. Der moderne Mensch ist längst Gastgeber einer Menge informationstechnischer Systeme geworden, die daraus folgende Unmündigkeit ist zwar erneut selbst verschuldet, jedoch durch ihre Verborgenheit weitaus schwieriger zu überwinden.

Es gibt keine seriösen Schätzungen, wie viele Internet-der-Dinge-Dinge mit dem Internet verbunden sind. In teuren Studien ist die Rede von gegenwärtig sechs Milliarden Internet-der-Dinge-Dingen, in weniger teuren von 23 Milliarden, was alles nicht stimmen muss, jedoch die Hausnummer angibt. Basierend darauf und auf dem in Fachkreisen berühmten Internet-Zensus von 2012 (Botnet 2012, 6.5 Numbers) können wir getrost annehmen, dass auf eine Person auf diesem Planeten mehrere Internet-of-Things-Geräte kommen.

Diese Geräte besitzen in der Regel einen oder mehrere Sensoren, sie sind klein, günstig und aufgrund ihrer schwachen Rechenleistung ungenügend gegen Angriffe gesichert. Diese allgegenwärtigen, zahlreichen und vernetzten Sensoren zeichnen die Kontur einer Person sehr akkurat nach. Allein mit Gyroskop, Barometer und freien Wetterdaten konnten Forscher die Ortsinformation eines Smartphones berechnen, wie Mosenia et al. (2018) zeigen. Die obige Aussage, dass es kein belangloses Datum gebe, wird dadurch eindrucksvoll belegt. Neigungssensoren in Smartphones verraten Passwörter, CO2-Messungen lassen auf die Anzahl der Personen in einem Raum schließen und Fitness-Armbänder offenbaren metergenau die Position geheim geglaubter Militär-Basen.

Mit der durch die Datafizierung erst möglich gewordenen Hyper-Individualisierung des vermessenen Menschen ist eine beunruhigende Ent-Solidarisierung verbunden, die sich ganz harmlos beispielsweise in Form maßgeschneiderter Krankenversicherungstarife äußert. Neue Formen der Arbeit erlauben keinen gewerkschaftlichen Zusammenschluss, an Stelle des klassischen Arbeitsvertrags treten Mikro-Verträge mit Laufzeiten von wenigen Minuten und auf globaler Ebene werden gesellschaftliche Probleme einfach ausgelagert: Der Pauperismus 4.0 ist vor allem in Nicht-OECD-Ländern zu spüren.13

Die Ubiquität informationstechnischer Sensoren und die damit einhergehende totale wie totalitäre Erfassung des Datenschattens des Menschen ist für die Verdrängung sowohl des öffentlichen wie privaten Raums hauptverantwortlich. An die Stelle tritt der gesellschaftliche Raum (Hannah Arendt), der sich in der Antike allenthalben auf die Türschwelle ausgedehnt hatte. In dieser Ausdehnung liegt freilich auch eine Chance für die Herausbildung eines neuen Weltbürgertums.14 Die Weltöffentlichkeit kann nun, den Technai sei Dank, adressiert werden. Nicht die internationale Staatengemeinde, sondern die transgemeinschaftliche Weltbürgergemeinde handelt ganz ohne Verträge und Abkommen gemeinsam aus, wie sie es beispielsweise mit der Privatheit hält.

Wenn unter Privatheit die Freiheit zu offenbaren oder zu verbergen, wer wir in der gemeinsamen Welt sind, verstanden wird, dann lässt sich eine interkulturelle, d. h. kritisch vergleichende und nicht bloß multikulturelle, d. h. bloß aneinanderreihende Analyse kultureller Unterschiede durchführen […]. Freiheit ist nicht die Eigenschaft eines weltlosen und von den anderen Menschen und Dingen in der gemeinsamen Welt isolierten Subjekts, sondern vollzieht sich immer im Rahmen eines mit den anderen Menschen und Dingen gestalteten und -gestaltbaren Spielraums Capurro (2016).

Ich möchte den letzten Satz aus dem obigen Zitat transzendental aufgreifen und betonen, dass wir uns die Welt gestaltbar halten müssen. Die Überwindung der gegenwärtig wahrzunehmenden Unmündigkeit erfordert auch und gerade Wissen über die Bausteine der Digitalisierung: Sapere et informare aude! Wage, zu wissen und wage, zu gestalten. Dies also ist der Wahlspruch der Aufklärung im technischen Zeitalter.

Fußnoten

  1. 1.

    Die Maus im Labyrinth ist ein klassisches Sujet des Informatik-Curriculums. Ein möglicher Algorithmus wäre: „Taste dich immer an der rechten Wand entlang, folge jedem Gang, der rechts abgeht. Triffst du frontal auf eine Wand, drehe dich nach links, so dass diese Wand nun zu deiner Rechten liegt. Mache weiter, bis du zu einem Ausgang kommst.“

  2. 2.

    Frei nach Kant: Algorithmen ohne Daten sind leer, Daten ohne Algorithmen sind blind.

  3. 3.

    UNESCO Institute for Statistics, Datensatz Education (full dataset), Ansicht „Pupil-teacher-ratio in primary education (headcount basis)“, Daten vom 15. Dezember 2017. http://data.uis.unesco.org/.

  4. 4.

    „Spätestens“ ist meine Entschuldigung, nicht auf die Praktiken der Geheimdienste in Europa eingehen zu müssen. Natürlich haben die cabinets noirs in Paris oder Florenz seit Beginn der Neuzeit systematisch Briefe abgefangen und auch in gewisser Weise automatisiert Daten verarbeitet, also transkribiert, dechiffriert und manipuliert.

  5. 5.

    Der Ausspruch „Alles ist Zahl“ wird den Schülern des Pythagoras zugeschrieben, ob sie so zahlenmystisch waren, wie Aristoteles behauptet, vermag ich nicht zu entscheiden.

  6. 6.

    Ich verdanke diese Erkenntnis den Berliner Technikphilosophen Elke und Dieter Graupner, die mich auch zum technē-Begriff führten.

  7. 7.

    Datenfreunde: Stasi vs. NSA. Web-Applikation online unter. https://opendatacity.github.io/stasi-vs-nsa/. Zugegriffen im Mai 2018.

  8. 8.

    Ich verwende bewusst das generische Maskulinum, um „world’s first programmer“ ohne Ambiguität zu übersetzen.

  9. 9.

    Den Neusprech-Blog nebst Podcast können Sie nachlesen und hören unter Martin Haase, Kai Biermann, Constanze Kurz: Neusprech, https://neusprech.org.

  10. 10.

    Die männliche Form habe ich hier gewählt, weil mir keine weiblichen Mitglieder des Wiener Kreises im Moment einfallen.

  11. 11.

    Ich verdanke dieses Beispiel der Kulturwissenschaftlerin Nina Franz und ihrem Vortrag „Painting the Target“, den sie 2015 im Rahmen der GI-Tagung „Drohnen: Verkörperung von Algorithmen“ in Berlin gehalten hat.

  12. 12.

    CAPTCHA ist die Abkürzung für ein Verfahren, das man mit „vollautomatischer offener Turing-Test zur Unterscheidung von Computern und Menschen“ übersetzen kann, engl. Completely Automated Public Turing test to tell Computers and Humans Apart. Sie entziffern die verzerrten Buchstaben unter anderem für das Google-Books-Projekt, was zur Texterkennung eingesetzt wird.

  13. 13.

    Die Versionsnummer bezieht sich natürlich auf den Modebegriff „Industrie 4.0“.

  14. 14.

    Immanuel Kant schrieb im generischen Maskulinum, der Terminus Technicus „Weltbürgertum“ schließt natürlich auch die Weltbürgerinnen ein.

Literatur

  1. Babbage, Charles. 1889/2010. Babbage’s calculating engines. Being a collection of papers relating to them; their history, and construction. New York: Cambridge University Press.Google Scholar
  2. Botnet, Carna. 2012. Internet Census 2012. Port scanning/0 using insecure embedded devices. http://census2012.sourceforge.net/paper.html. Zugegriffen am 21.11.2018.
  3. Canetti, Elias. 1994/1960. Masse und macht. München: Carl Hanser.Google Scholar
  4. Capurro, Rafael. 2016. Informationsethik und kulturelle vielfalt, Hrsg. Jessica Heesen, 331–336. Stuttgart: Metzler.Google Scholar
  5. Coy, Wolfgang. 1994. Die turing-galaxis. In Bericht der fakultät informatik 3/94, 7–13. Bremen: Universität Bremen.Google Scholar
  6. Euklid. 2017. Elemente. Übersetzung der 15 bücher der stoicheia mit verknüpfung der griechischen textfassung. neufassung mit hypertextverweisen. Markgröningen: Edition Opera-Platonis. übersetzt von Rudolf Haller. http://www.opera-platonis.de/euklid/Euklid_Stoicheia.pdf. Zugegriffen am 21.11.2018.
  7. Gauck, Joachim. 2013. ZDF-Sommerinterview 2013. Joachim Gauck im Gespräch mit Bettina Schausten. http://www.bundespraesident.de/SharedDocs/Reden/DE/Joachim-Gauck/Interviews/2013/130630-ZDF.html. Zugegriffen am 21.11.2018.
  8. Gehlen, Dirk von. 2018. Das pragmatismus-prinzip: 10 gründe für einen gelassenen umgang mit dem neuen. München: Piper.Google Scholar
  9. Groebner, Valentin. 2004. Der schein der person. München: C. H. Beck.Google Scholar
  10. Janich, Peter. 2006. Was ist information? Frankfurt a. M.: Suhrkamp.Google Scholar
  11. Jonas, Hans. 1984. Das prinzip verantwortung. Frankfurt a. M.: Suhrkamp Taschenbuch Verlag.Google Scholar
  12. Klemperer, Victor. 1947. Lti. notizbuch eines philologen. Berlin: Aufbau-Verlag.Google Scholar
  13. Kiermeier, Friedrich, und Edmund Renner. 1960. Einsatz der randlochkarte in der arbeitskartei (ein beispiel aus der milchwissenschaft). Zeitschrift für Lebensmittel-Untersuchung und Forschung 113(4): 316–322.  https://doi.org/10.1007/BF01353946.
  14. Królikowski, Agata, Jens-Martin Loebel, und Stefan Ullrich. 2017. Ausrechnen statt entscheiden–30 jahre it-innovation, Hrsg. Alexandra Hildebrandt und Werner Landhäußer, 317–328. Berlin: Springer.CrossRefGoogle Scholar
  15. Latour, Bruno. 1990. Technology is society made durable. The Sociological Review 38(1_suppl): 103–131.  https://doi.org/10.1111/j.1467-954X.1990.tb03350.x.CrossRefGoogle Scholar
  16. Leibniz, Gottfried Wilhelm. 1966. Entwurf gewisser staatstafeln (1685), Hrsg. Hans Heinz Holz, 80–89. Frankfurt a. M.: Europäische Verlagsanstalt.Google Scholar
  17. List, Christian, und Philip Pettit. 2011. Group agency: The possibility, design, and status of corporate agents. New York: Oxford University Press.CrossRefGoogle Scholar
  18. Lovelace, Ada. 1842. Notes upon the [sketch of the analytical engine by l. f. menabrea], Hrsg. Henry P. Babbage, 21–50. New York: Cambridge University Press.Google Scholar
  19. Marx, Karl. 1857. Grundrisse der kritik der politischen Ökonomie. zweiter teil. MEGA digital, Berlin-Brandenburgische Akademie der Wissenschaften. http://telota.bbaw.de/mega/. Zugegriffen am 21.11.2018.
  20. Mason, Paul. 2016. Der niedergang des kapitalismus. 4. Folge des Deutschlandfunk-Podcasts über Karl Marx, 4. Dezember 2016. http://www.deutschlandfunk.de/re-das-kapital-4-6-der-niedergang-des-kapitalismus.1184.de.html?dram:article_id=370390. Zugegriffen am 21.11.2018.
  21. McNeill, William. 2009. Keeping together in time. Cambridge: Harvard University Press.Google Scholar
  22. Mittelstadt, Brent Daniel, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter, und Luciano Floridi. 2016. The ethics of algorithms: Mapping the debate. Big Data & Society 3(2).  https://doi.org/10.1177/2053951716679679.CrossRefGoogle Scholar
  23. Mosenia, Arsalan, Xiaoliang Dai, Prateek Mittal, und Niraj K. Jha. 2018. Pinme: Tracking a smartphone user around the world. CoRR abs/1802.01468. http://arxiv.org/abs/1802.01468. Zugegriffen am 21.11.2018.CrossRefGoogle Scholar
  24. O’Neil, Cathy. 2016. Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Archetype.Google Scholar
  25. Orwell, George. 1980. Nineteen eighty four. Middlesex: Penguin Books.Google Scholar
  26. Parry, Richard. 2008. Episteme and techne, Fall 2008 edn. In The stanford encyclopedia of philosophy, Hrsg. Edward N. Zalta. First published Fri Apr 11, 2003; substantive revision Sun Oct 28, 2007. http://plato.stanford.edu/archives/fall2008/entries/episteme-techne/. Zugegriffen am 21.11.2018.
  27. Platon. 1994. Phaidros, Vol. 2, Sämtliche Werke, 543–609. Reinbek bei Hamburg: Rowohlts Enzyklopädie.Google Scholar
  28. Pohle, Jörg. 2016. Personal data not found: Personenbezogene entscheidungen als überfällige neuausrichtung im datenschutz. Datenschutz Nachrichten 39:14–19.Google Scholar
  29. Rose, Reginald, und Sidney Lumet. 1957. 12 Angry Men Orion-Nova Productions AND United Artists.Google Scholar
  30. Sösemann, Bernd. 2003. „Auf Bajonetten läßt sich schlecht sitzen“, Hrsg. Thomas Stamm-Kuhlmann und Michael Salewski, 381–409. Stuttgart: Steiner.Google Scholar
  31. Tarde, Gabriel. 2009/1890. Die gesetze der nachahmung. Frankfurt a. M.: Suhrkamp.Google Scholar
  32. The White House. 2013. Fact sheet: U.S. policy standards and procedures for the use of force in counterterrorism operations outside the United States and areas of active hostilities office of the press secretary. https://obamawhitehouse.archives.gov/the-press-office/2013/05/23/fact-sheet-us-policy-standards-and-procedures-use-force-counterterrorism. Zugegriffen am 21.11.2018.
  33. Turing, Alan. 1937. On computable numbers, with an application to the entscheidungsproblem. Proceedings of the London Mathematical Society 42:230–265.CrossRefGoogle Scholar
  34. Ullrich, Stefan. 2014. Informationelle mü(n)digkeit. Über die unbequeme selbstbestimmung. Datenschutz und Datensicherheit 10:696–700.CrossRefGoogle Scholar
  35. Ullrich, Stefan. 2017a. Informationstechnische grundlagen, werkzeuge und praktiken des öffentlichen vernunftgebrauchs.  https://doi.org/10.18452/17784. Dissertation an der Humboldt-Universität zu Berlin bei Prof. Wolfgang Coy. https://edoc.hu-berlin.de/handle/18452/18436. Zugegriffen am 21.11.2018.
  36. Ullrich, Stefan. 2017b. Kleine geschichten verborgener technik. FIfF-Kommunikation 1/17. https://www.fiff.de/publikationen/fiff-kommunikation/fk-2017/fk-2017-1/fk-2017-1-content/fk-1-17-p14.pdf. Zugegriffen am 21.11.2018.
  37. Velichkovsky, Boris. 1994. Die funktionale organisation der menschlichen intelligenz, Hrsg. Günther Cyranek und Wolfgang Coy, 57–72. Braunschweig/Wiesbaden: Vieweg.Google Scholar
  38. Weizenbaum, Joseph. 1978. Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt a. M.: Suhrkamp.Google Scholar
  39. Zemanek, Heinz. 1991. Das geistige umfeld der informationstechnik. Berlin: Springer.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019

Authors and Affiliations

  1. 1.TU BerlinWeizenbaum-Institut für die vernetzte GesellschaftBerlinDeutschland

Personalised recommendations