3.1 Einleitung

Ausgehend von den vorangegangenen Teilen beschreibt dieses Kapitel auf einer Basis von 1000 Befragten das Verhältnis der deutschen Bevölkerung zu digitaler Vernetzung, Big Data und Künstlicher Intelligenz. Der Aufbau folgt der Logik

  1. a)

    vom ‚Wissen‘ und ‚Können‘ als Randbedingungen souveränen Entscheidens …

  2. b)

    über das ‚Wollen‘ in Form von Einstellungen und Bewertungen zu Technikfolgen, Anwendungsfeldern und Datenschutz …

  3. c)

    zum tatsächlichen ‚Handeln‘ in Onlinenutzung und Datenschutz.

Aufbauend darauf wird das Potenzial für einen möglichen Paradigmenwandel eruiert – in der Datenpolitik, in den medialen und gesellschaftlichen Narrativen und schließlich – beispielhaft für eine Branche – in der Versicherungswirtschaft.

Vernetzung und Big Data, Künstliche Intelligenz und die damit verbundenen Algorithmen bestimmen zunehmend die Lebenswelt der Bürger, sind bisher aber erst wenig in den Köpfen angekommen. Bisherige Umfragen zeigen einen meist geringen Informationsgrad und eine tendenziell skeptische Haltung, aber zugleich eine umfassende, oft wenig bewusste Nutzung der Potenziale.

Aufbauend auf den vorliegenden Studien, theoretischen Grundüberlegungen sowie den vorangegangenen Ausführungen soll im Folgenden das Verhältnis der deutschen Bevölkerung in Bezug auf Daten und Algorithmen erfasst und analysiert werden. Dabei werden einerseits ‚Wissen‘ (Abschn. 3.2) und ‚Können‘ (Abschn. 3.3) als Voraussetzung souveränen Handels beschrieben. Dies wird in Form von Folgeabschätzungen, die Bewertung von Anwendungsfeldern (mit besonderem Schwerpunkt auf den drei Lebenswelten ‚Mobilität‘, ‚Wohnen‘ und ‚Gesundheit‘) sowie durch die Erfassung von Einstellungen zum Datenschutz das ‚Wollen‘ der Bürger abgebildet (Abschn. 3.4). Dem Wollen, Wissen und Können wird in Abschn. 3.5 das tatsächliche ‚Handeln‘ gegenübergestellt: Wie verhalten sich die Bürger? In welchem Umfang werden Geräte und Dienste genutzt und welche aktiven Maßnahmen zum Schutz der persönlichen Daten werden tatsächlich ergriffen? Anschließend werden die in Kap. 1 thematisierten Paradigmen zu Datenpolitik und Datenethik aus Sicht der Bürger beleuchtet (Abschn. 3.6) sowie die Frage, inwieweit den zu beobachtenden und weitgehend negativ besetzten Narrativen rund um Big Data auch positive ‚Erzählungen‘ gegenüberstehen (Abschn. 3.7). Abschließend werden in Abschn. 3.8 am Beispiel der Versicherungswirtschaft Erwartungen an neue Rollen von Marktteilnehmern dargestellt.

Die Auswertung basiert auf einer Befragung von 1000 Bürgern ab 18 Jahren. Diese Gesamtstichprobe wurde in zwei Teilstichproben mit unterschiedlicher Erhebungsform aufgeteilt (siehe Abb. 3.1). Dieser sogenannte Mixed-Mode-Ansatz hat den Vorteil, dass sowohl Personengruppen, die in Telefoninterviews schwer zu erreichen sind, als auch solche, die durch Online-Erhebungen nicht ansprechbar sind, in der Gesamtstichprobe ausreichend abgebildet sind, und dass sich auch Effekte der Interviewsituation in der Gesamtstichprobe ausgleichen.

Abb. 3.1
figure 1

Methodisches Vorgehen

Um Reihenfolgeeffekte zu vermeiden, wurden die Items innerhalb einer Frage nach dem Zufallsprinzip rotiert. Zudem wurde ein Teil der Fragen jeweils nur der (zufällig ausgewählten) Hälfte der Befragten gestellt um die Gesamtlänge des Fragebogens zu verkürzen (‚split half‘)Footnote 1. Die realisierte Stichprobe wurde auf Basis der aktuellen Verbraucheranalyse „best 4 planning 2018 I“ (best 4 planning 2018) mit der Struktur der deutschen Wohnbevölkerung abgeglichen. Auf eine nachträgliche Gewichtung der Antworten wurde aufgrund der insgesamt hohen Übereinstimmung verzichtet.

Fazit

Im Ergebnis liefert die Erhebung ein weitgehend ‚repräsentatives‘ Abbild der deutschen Bevölkerung beziehungsweise – soweit die Fragen sich nur auf Internetnutzung beziehen, der online-aktiven BevölkerungFootnote 2.

3.2 Datenwissen

Voraussetzung eines mündigen Umgangs mit den eigenen digitalen Daten ist zuerst einmal eine grundlegende Kenntnis des Themas (zur Relevanz von Fähigkeit und Motivation für überlegte Entscheidungen siehe z. B. Petty und Cacioppo 1986). Um das Wissen um Big Data und Künstliche Intelligenz in der Bevölkerung zu erfassen, wurden eine Liste von Begriffen erstellt und die Interviewpartner befragt, inwieweit sie diese einem Bekannten erklären könnten. Die Stichworte umfassten sowohl Fachbegriffe als auch umgangssprachliche Formulierungen zu technischen Grundlagen und deren Anwendungen, zur Gesetzgebung und schließlich zu einigen Daten-Skandalen, die in den Medien breite Aufmerksamkeit erhalten haben.Footnote 3

Neben dem Wissensstand ist auch die (gefühlte) Wahlfreiheit eine Bedingung für Souveränität im Umgang mit Daten. Einerseits haben auf der rechtlichen Seite die EU-Datenschutz-Grundverordnung sowie in Folge das Bundesdatenschutzgesetz weitgehende Schutz- und Verfügungsrechte für die Bürger sowie umfassende Zustimmungspflichten installiert. Andererseits schränken Informationslücken, die Komplexität von Datenschutzerklärungen, digitale Ökosysteme und monopolähnliche Marktstrukturen die faktische Handlungsfreiheit in hohem Maße ein.

Wie die Befragungsergebnisse (siehe Abb. 3.2) zeigen, sind wesentliche Grundbegriffe der Digitalisierung bereits in das Allgemeinwissen eingegangen. Das betrifft vor allem weitverbreitete Anwendungen (wie GPS-Ortung oder Cookies) sowie plakative Begriffe aus der öffentlichen Diskussion (wie Selbstfahrendes Auto, Künstliche Intelligenz, aber auch der Name Edward Snowden). Bemerkenswert ist, wie schnell auch neue Angebote den Weg in die Köpfe gefunden haben (wie Smart Home, Smart Watch oder Alexa).

Abb. 3.2
figure 2

Datenwissen als Bedingung für Souveränität (n = 449–496; alle Befragten [split half])

Weitere Begriffe sind zumindest einer Mehrheit bekannt, z. B. aktuelle politische Themen wie der Facebook-Datenskandal oder die Europäische Datenschutzgrundverordnung, aber auch Termini wie Tracking oder Algorithmus (was nicht immer auch ein genaueres Verständnis beinhaltet).

Schließlich gibt es Begriffe, die nur einer Minderheit vertraut sind. Das sind vor allem Anwendungen, die relativ neu sind (wie Chatbot oder e-Call), aber auch grundlegende Begriffe digitaler Vernetzung, die eher im Hintergrund hinter sicht- und erlebbareren Anwendungen stehen (wie Big Data, Telematik, Internet of Things). Bezüglich des ‚Schlusslichtes‘ e-Privacy-Verordnung ist anzumerken, dass sich diese zum Befragungszeitraum politisch noch im Vorbereitungsstadium befand.

Entsprechend der Prägung der Generationen durch digitale Techniken ist der Wissensstand der jüngeren Alterskohorte höher, wobei selbst die Gruppe 70+ noch annähernd jeden zweiten Begriff erklären kann. Ebenso steigt das Wissen mit dem Bildungsgrad und ist bei Männern im Durchschnitt etwas höher als bei Frauen (siehe Abb. 3.3 sowie Tab. 3.1).

Abb. 3.3
figure 3

Datenwissen als Bedingung für Souveränität nach Alter und Bildung

Tab. 3.1 Selbsteinschätzung zum Datenwissen (n = 441)

Fazit

Die digitale Welt ist kein ‚Neuland‘ mehr: Grundbegriffe der Digitalisierung sind angekommen, und ein Großteil der Bevölkerung fühlt sich zumindest in Teilen kompetent. Wissensdefizite bestehen aber gerade in Themen, die die Vernetzung von Daten behandeln und damit den souveränen Umgang mit den eigenen Daten besonders tangieren (z. B. Big Data, Telematik, IOT und e-Privacy).

3.3 Handlungsfreiheit

Der empfundene Freiheitsspielraum (‚Können‘) wurde durch eine Reihe von Fragen gemessen, die sowohl objektive als auch subjektive Hürden der Handlungsfreiheit berücksichtigen – denen also sowohl die Marktsituation als auch Grenzen durch Nichtwissen oder Bequemlichkeit der Nutzer zugrunde liegt.

In den Antworten (siehe Abb. 3.4) wird deutlich, dass die Handlungsfreiheit als eher gering eingeschätzt wird, respektive einem wesentlichen Teil der Bevölkerung, der sich den Marktstrukturen ‚ausgeliefert‘ sieht. Ergänzend dazu misstraut eine leichte Mehrheit der Einhaltung von Datenschutzvorschriften durch die Unternehmen. Am ehesten erscheint den Befragten noch die individuelle Datenfreigabe beeinflussbar. Einer Ausschöpfung dieser Spielräume steht allerdings die empfundene Komplexität der jeweiligen Datenschutzbestimmungen entgegen, durch die sich eine Mehrheit überfordert fühlt.

Abb. 3.4
figure 4

Wahrgenommene Handlungsfreiheit (‚Können‘): Gesamtbevölkerung

Die Unterschiede nach Geschlecht, Alter und selbst nach Schulbildung sind eher gering: So sind Akademiker genauso der Meinung wie andere Bildungsschichten, dass man „die Datenschutzbedingungen gar nicht alle lesen“ könne, und sehen auch kaum mehr Einflussmöglichkeit auf die eigene Datenspur. Erst mit steigendem digitalem Wissen werden tendenziell etwas höhere Handlungsspielräume gesehen (siehe beispielhaft Abb. 3.5).

Abb. 3.5
figure 5

Wahrgenommene Handlungsfreiheit (‚Können‘): Internetnutzer

Fazit

Es besteht ein hohes Abhängigkeitspotenzial: Die Bürger fühlen sich – quer durch alle Bevölkerungsgruppen – aufgrund von Komplexität und Marktstrukturen nur sehr bedingt handlungsfrei oder souverän. Regelungen wie z. B. aus der Europäischen Datenschutzgrundverordnung, die ausgehend vom Ideal eines mündigen und kritischen Bürgers Verbraucherinteressen über Information- und Zustimmungspflichten sichern wollen (siehe Kap. 1), drohen damit ‚ins Leere‘ zu laufen.

3.4 Folgeabschätzungen, Bewertung von Anwendungsfeldern und Einstellungen zu Datenschutz und Technologie (‚Wollen‘)

Die affektive Bewertung von Big Data, Vernetzung und Co., also das ‚Wollen‘, bezieht sich auf die generelle Einschätzung möglicher Technikfolgen, auf die Bewertung konkreter Anwendungsfelder sowie schließlich auf die generelle Einstellung zu Datenschutz einerseits und neuen Technologien andererseits.

3.4.1 Folgeabschätzungen

Um mögliche positive und negative Folgen von Big Data zu erfassen, wurde betrachtet, welche menschlichen Grundmotive dadurch erfüllt oder gefährdet werden können (zu Grundlagen menschlicher Motivation siehe z. B. McClelland 1985, Heckhausen & Heckhausen 2010). Auf Basis der Motive Sicherheit, sozialer Zugehörigkeit, Aktivierung, Kontrolle, Komfort und Effizienz wurden Chancen und Risiken für den Einzelnen abgeleitet und durch die Befragten bewertet.

Ergänzend dazu wurden je vier allgemeine Folgeeinschätzungen zum Thema Wirtschaft und Gesellschaft erfasst:

  • Wirtschaft: Während in der politischen Diskussion derzeit die Frage im Vordergrund steht, wie Daten als ‚das neue Öl‘, also als Ressource der Zukunft, ideal zu er schließen und zu nutzen sind, steht in der öffentlichen Diskussion vielfach die Frage nach Arbeitsplätzen im Vordergrund.

  • Medien und Gesellschaft: Hier werden insbesondere die Wirkung von Vernetzung, Big Data und Künstlicher Intelligenz auf die Aufklärung und die demokratische Grundordnung diskutiert: Einerseits, ob das Wissen der Bürger durch die bessere Verfügbarkeit von Informationen steigt oder durch oberflächliche, falsche, manipulierte oder vorselektierte Informationen (sog. ‚Filterblase‘) eher abnimmt. Andererseits, ob infolgedessen die Demokratie eher gefördert oder geschwächt wird.

Auf Basis dieser insgesamt 24 Einschätzungen wurde ein Optimismus-Index gebildet und anhand dessen drei Typen unterschieden. Ergänzend gaben die Befragten eine Gesamteinschätzung an, ob eher die Risiken oder die Chancen von Big Data überwiegen.

Überwiegen die Risiken oder die Chancen? Ein erster Blick auf die Verteilungen in Tab. 3.2 und 3.3 (eine genauere Auswertung nach Themenfeldern erfolgt auf den Folgeseiten) zeigt, dass eine recht differenzierte Sicht zu den einzelnen Risiken und Chancen vorliegt – also keinesfalls pauschal Risiken oder Chancen gesehen werden, aber zugleich die Risiken (Tab. 3.3) insgesamt eher bejaht werden als die Chancen (Tab. 3.2).

Tab. 3.2 Folgeabschätzungen im Überblick: Chancen (n = 440–490, die ungekürzten Fragetexte finden sich im Anhang)
Tab. 3.3 Folgeabschätzungen im Überblick: Risiken (n = 440–490, die ungekürzten Fragetexte finden sich im Anhang)

Die gleiche Tendenz zeigt sich auch in der Gesamtbeurteilung: Unabhängig davon, ob wir die Frage positiv oder negativ formuliert haben, überwiegten jeweils die Risiken gegenüber den Chancen, mit jeweils einem hohen Anteil an ‚neutralen‘ Urteilen (siehe Abb. 3.6).

Abb. 3.6
figure 6

Folgeabschätzung Gesamteindruck („Alles in Allem glaube ich ...“)

Als Zwischenfazit lässt sich festhalten: Chancen und Risiken werden durchaus einzeln und differenziert wahrgenommen, wobei jedoch der Blick auf die Risiken der Digitalisierung und Vernetzung überwiegt (‚Negativitäts-Dominanz‘).

Diese Negativitätsdominanz gilt auch bei der Betrachtung der einzelnen Motivfelder (siehe Tab. 3.4) und unterscheidet sich damit vielfach von den optimistischen Erwartungen der Experten (siehe dazu Kap. 2):

Tab. 3.4 Folgeabschätzungen für den Einzelnen, sortiert nach Motivfeldern (n = 472–490; alle Befragten [split half]. Die ungekürzten Fragetexte finden sich im Anhang.)
  • Sicherheit: Eine große Mehrheit erwartet neue, digitale Risiken, während nur knapp jeder Dritte glaubt, dass die Welt durch Big Data insgesamt an Sicherheit gewinnt.

  • Soziale Zugehörigkeit: Hier findet die Befürchtung, dass die Menschen durch die neue Technik weiter vereinsamen, als auch die Chance, dass sich der Kontakt zu Freunden und Familie vereinfacht, moderate Zustimmung. Aber auch in diesem Bereich liegt das Risiko (mit 49 %) vor der Chance (mit 42 %). Noch deutlicher wird die Tendenz bei den Ablehnungen (Risiko 17 %, Chance 26 %).

  • Aktivierung: Selbst zu diesem Thema dominiert die Erwartung zusätzlichen Stresses gegenüber der Hoffnung auf „Spaß und neue Anregungen“.

  • Kontrolle: Dass neue Spielräume und zusätzliche Möglichkeiten der Lebensgestaltung gewonnen werden, wird von immerhin etwa der Hälfte der Befragten bejaht. Dem steht allerdings in gleichem Umfang die Befürchtung entgegen, in Abhängigkeit von computergenerierten Entscheidungen zu geraten und in seinen Wahlfreiheiten beschnitten zu werden. Hinzu kommt – mit der insgesamt höchsten Zustimmungsquote aller Fragen – die Gefährdung der Privatsphäre.

Etwas ausgeglichener ist das Verhältnis von erwarteten Chancen und Risiken in den beiden übrigen Motivfeldern:

  • Komfort: Hier gleichen sich die Erwartungen eines bequemeren Lebens und die Befürchtung zunehmender Komplexität annähernd aus.

  • Effizienz: Während eine knappe Mehrheit erwartet, dass „Dinge schneller zu erledigen“ seien, bleiben die Hoffnungen auf finanzielle Einsparungen sowie höhere Energieeffizienz sehr verhalten.

Bezogen auf die Gesellschaft hatten wir bewusst gegensätzliche Formulierungen gesucht und – wie die vorhergehenden Fragen auch – jeweils der Hälfte der Stichprobe vorgelegt. In beiden Fällen fällt das Saldo der Antworten leicht pessimistisch aus: also eher Entdemokratisierung statt Demokratiegewinn durch Meinungsvielfalt sowie oberflächlicheres Wissen anstelle von „mehr Wissen und Aufklärung“ (siehe Tab. 3.5).

Tab. 3.5 Folgeabschätzungen für Wirtschaft und Gesellschaft (n = 450–485, alle [split half] Befragten)

Auch in Bezug auf die Volkswirtschaft erwarten nur 15 % der Befragten positive Wohlstandseffekte, doppelt so viele befürchten dagegen einen Anstieg der Arbeitslosigkeit (die Wahrnehmung marktwirtschaftlicher Zusammenhänge durch Laien ist in vielen Fällen pessimistisch verzerrt, siehe dazu Caplan 2007 sowie Enste et al. 2009). Daneben sehen deutlich mehr als die Hälfte der Befragten das Risiko der Diskriminierung Einzelner, während immerhin 36 % Vorteile für Konsumenten sehen („besser und günstiger einkaufen“).

Auf Basis der Bewertung der von uns vorgegebenen 13 Chancen und 11 Risiken haben wir die Befragten in drei Gruppen klassifiziert (siehe Abb. 3.7):

Abb. 3.7
figure 7

Typen nach Chancen und Risiken

  1. 1.

    ‚Optimisten‘, die primär die Chancen sehen,

  2. 2.

    ‚Indifferente‘, bei denen weder die Chancen noch die Risiken deutlich überwiegen,

  3. 3.

    ‚Pessimisten‘, bei denen die negativen Einschätzungen dominieren.

Als Optimist wurden Befragte klassifiziert, wenn sie bei ihren insgesamt 12 Folgeeinschätzungen mindestens drei Chancen mehr bejahten (oder analog Risiken verneinten) als umgekehrt. Analog wurden Befragte als Pessimist klassifiziert, wenn sie bei ihren insgesamt 12 Folgeeinschätzungen mindestens drei Risiken mehr bejahten (oder analog Chancen verneinten) als umgekehrt.

Chancen, die bei höherem Informationsstand stärker gesehen werden (siehe Abb. 3.8), betreffen vor allem die neuen Möglichkeiten der Lebensgestaltung (Kontrolle) und damit verbunden die zeitliche Effizienz sowie Spaß und Anregung (Aktivierung). Aber auch bei den übrigen Chancen ist tendenziell ein Anstieg zu erkennen.

Abb. 3.8
figure 8

Folgeabschätzungen: Typen und Einfluss digitalen Wissens

Sorgen lassen tendenziell mit zunehmender Kenntnis nach (siehe Abb. 3.8). Manche Befürchtungen könnten sich also durchaus als ‚Scheinriesen‘ (im Sinne von Michael Endes bekannter Figur aus dem Kinderbuch „Jim Knopf und Lukas der Lokomotivführer“) erweisen, die bei näherer Betrachtung immer kleiner werden und sich somit durch Aufklärung zumindest in Teilen entkräften lassen. Das betrifft besonders die Sorge vor Verkomplizierung des Alltags, in wirtschaftlicher Hinsicht die Zunahme der Arbeitslosigkeit und aus gesellschaftlicher Perspektive die Gefahr zunehmender Vereinsamung. Einige Erwartungen werden aber nicht durch Aufklärung beeinflusst (z. B. Sorge vor Entdemokratisierung) oder werden sogar durch zusätzliche Informationen noch pessimistischer (z. B. bezüglich Meinungsvielfalt).

Fazit

Befürchtungen überwiegen. Aufklärung ‚hilft‘, aber einzelne Sorgen nehmen mit zunehmendem digitalen Wissen noch zu.

3.4.2 Bewertung von Anwendungsfeldern

Aufbauend auf der Einschätzung von Nutzen und Risiken haben die Befragten unterschiedliche Einsatzbereiche von Daten, die im Internet oder durch vernetzte Geräte gewonnenen werden, bewertet. Diese wurden untergliedert in

  1. a)

    gesamtgesellschaftliche Fragestellungen,

  2. b)

    Anwendungsfelder in Marketing und Konsum,

  3. c)

    Anwendungen in der Lebenswelt Mobilität,

  4. d)

    Anwendungen in der Lebenswelt Wohnen,

  5. e)

    Anwendungen in der Lebenswelt GesundheitFootnote 4.

Bezogen auf Gesellschaft und Konsum wurden einige der verbreitetsten oder der derzeit meistdiskutierten Anwendungen vorgestellt.

Die Ergebnisse (siehe Tab. 3.6 und 3.7) sind eindeutig: Überwachung im Sinne der Strafverfolgung oder öffentlichen Ordnung erfährt weitgehend Zustimmung (die grundgesetzlich bedingten rechtlichen Bedenken hierzu scheinen nicht weit in das Bewusstsein der Bevölkerung vorgedrungen zu sein). Auch spielt die Schwere des Deliktes nur eine nachrangige Rolle: Geht es anstelle von schweren Gewaltverbrechen wie Mord, Totschlag oder Terrorismus nur um Eigentumsdelikte, sinkt die Zustimmung lediglich von 59 % auf 45 %, und die Ablehnenden bleiben deutlich in der Minderheit. Überwiegend negativ werden dagegen die übrigen gesellschaftlichen Anwendungsfelder bewertet. Weder die Vorauswahl von Nachrichten (zur Problematik von ‚Filterblasen‘ siehe Pariser 2011) noch die von Stellenbewerbern findet Zustimmung.

Tab. 3.6 Anwendungsfelder in der Gesellschaft (n = 461–504, alle Befragten [split half])
Tab. 3.7 Anwendungsfelder in Marketing/Konsum (n = 461–504, alle Befragten [split half])

Diese Ablehnung gilt erst recht für das Social Scoring. Ein solches Aufsichtssystem (siehe Kap. 1) findet hierzulande lediglich 10 % Zustimmung. Wenn allerdings berücksichtigt wird, wie weitreichend ein solches Instrument tatsächlich in das Leben eingreift, erscheint dieser Anteil gar nicht mehr wenig, sondern erstaunlich hoch, erst recht, wenn nach Hinzunahme der neutralen Bewertungen immerhin ein Drittel der Bevölkerung ein solches System zumindest nicht ablehnt.

Eines der Haupteinsatzfelder von Scorings und Künstlicher Intelligenz liegt bereits heute im Bereich des Marketings oder – breiter definiert – des Kundenmanagements von Unternehmen. Auch diesbezüglich überwiegt die Skepsis. Selbst wenn die neutrale Mittelkategorie als Akzeptanz gewertet wird (schließlich erfährt der Kunde ja meist keinen unmittelbaren Nutzen aus den gewählten Anwendungen), beträgt die Ablehnung 50 % und mehr. Ausnahme ist die Kreditprüfung, bei der die Legitimität des Anbieters, Absicherung zu suchen, auch am ehesten nachzuvollziehen ist. ‚Mikrotargeting‘, ‚Dynamic Pricing‘ (vor allem auf Basis von Personenprofilen) und auch der Einsatz von Sprachcomputern basierend auf Künstlicher Intelligenz (sog. Chatbots) stoßen dagegen auf breite Kritik.

Anhand der Bewertung exemplarischer Anwendungen aus den Lebenswelten (siehe Tab. 3.8, 3.9 und 3.10) sind grundlegende Tendenzen zur Akzeptanz des Einsatzes von Big Data und Algorithmen im Alltag zu erkennen:

Tab. 3.8 Anwendungsfelder in der Lebenswelt Mobilität (n = 464–504, alle Befragten [split half])
Tab. 3.9 Anwendungsfelder in der Lebenswelt Wohnen (n = 464–504, alle Befragten [split half])
Tab. 3.10 Anwendungsfelder in der Lebenswelt Gesundheit (n = 464–504, alle Befragten [split half])
  • Hohe Akzeptanz: Ein Großteil der Befragten kann sich die meisten beschriebenen Anwendungen in allen drei Lebenswelten Mobilität, Wohnen und Gesundheit durchaus vorstellen. Die zuvor beschriebene Grundskepsis kippt, wenn konkrete, nutzenstiftende Anwendungen genannt werden.

  • Sicherheit geht vor: Analog zu den gesellschaftlichen Einsatzfeldern ist die Akzeptanz besonders dann hoch, wenn es um die Abwendung von Gefahren geht – sei es im Feld der Gesundheit, im Einbrecherschutz oder selbst zur Überwachung der Verkehrsregeln.

  • Unterstützung ja, Automatisierung „ja, aber“: Anwendungsfelder werden in der Tendenz negativer bewertet, je mehr sie den Alltag nicht nur unterstützen, sondern auch gefühlt „die Kontrolle übernehmen“ (vergleiche z. B. die geringe Akzeptanz von intelligenten Kühlschränken, selbstfahrenden Autos oder der automatisierten Raumbeleuchtung).

  • Die Roboter können kommen: Werden aber keine als wesentlich empfundenen Handlungsspielräume eingeschränkt und ist der Nutzen offensichtlich (z. B. beim Staubsaugen, Fensterputzen oder bei der Heizungssteuerung), ist die Akzeptanz automatischer Steuerung hoch. Selbst für sogenannte ‚Pflegeroboter‘ in der Altenpflege finden sich ebenso viele Befürworter wie Ablehner.

  • Wenig Angst vor Überwachung: Viele der Anwendungen (zum Beispiel im Gesundheitsmonitoring, der Verkehrssteuerung oder auch im Smart Home) erfordern eine weitgehende Überwachung des Einzelnen. In den Antworten lässt sich aber kein klarer Zusammenhang zwischen Überwachungsgrad und Akzeptanz feststellen, vielmehr scheint alleine der empfundene Nutzen der Anwendung über Befürwortung und Ablehnung zu entscheiden.

Einige Bewertungen variieren deutlich mit dem Alter der Befragten. So werden Einsätze zu ‚Recht und Ordnung‘ vermehrt von Älteren befürwortet, Smart Home oder das selbstfahrende Auto dagegen deutlich mehr von jüngeren Menschen.

3.4.3 Einstellungen zu Datenschutz und Technologien

Neben Folgeabschätzungen und der Bewertung von Anwendungsfeldern stellt die grundsätzliche Einstellung zum Datenschutz einerseits und zum Umgang neuen Techniken andererseits ein wesentliches Element der Motivation, also des ‚Wollens‘ von Big Data dar. Um die Einstellung der Befragten gegenüber dem Datenschutz zu erfassen, wurde nach der persönlichen Relevanz gefragt sowie als Gegensatz dazu die Zustimmung zur viel zitierten Meinung, man „habe nichts zu verbergen“. Dies wurde ergänzt um eine Frage zur empfundenen Valenz der Beschäftigung – also der individuellen Freude an neuen Technologien.

In den Antworten zur persönlichen Bedeutung des Datenschutzes zeigt sich dessen unverändert hoher Stellenwert für die meisten Bürger (siehe Abb. 3.9). Ob der bei den unter 30-Jährigen zu beobachtende ‚Einbruch‘ ein Kohorteneffekt ist (in dem Sinne, dass nachwachsende Generationen weniger Datenschutzbedenken haben) oder lediglich ein Alterseffekt (d. h. junge Menschen haben weniger Erfahrung oder weniger schützenswerte Daten, was sich aber mit zunehmendem Alter wieder ändert), lässt sich durch die vorliegende Studie leider nicht abschließend klären. Umgekehrt findet der viel zitierte Spruch „ich habe nichts zu verbergen“ als Argument für einen freizügigen Umfang mit Daten nur bedingte Zustimmung – dies am ehesten noch in der älteren Generation, auch dort zeigt sich also ein tendenziell hohes Datenbewusstsein.

Abb. 3.9
figure 9

Einstellung zu Datenschutz und Technologien

Ungeachtet möglicher Datenschutzbedenken einerseits und Nutzenversprechen andererseits ist der Spaß oder das persönliche ‚Involvement‘ ein wesentlicher Faktor, der zur Akzeptanz oder Ablehnung von Innovationen beitragen kann. Dass die neuen Techniken für einen großen Teil der Bevölkerung nicht nur ein notwendiges Übel, sondern – entweder vorrangig oder zumindest auch – eine positive Erfahrung darstellen, zeigt der untere Teil der Abb. 3.9, wobei die Zustimmung erwartungsgemäß in den jüngeren Altersklassen noch höher ist.

3.5 Verhalten (‚Handeln‘)

In den bisherigen Ergebnissen zeigen sich eine Reihe von Konflikten. Die Folgeabschätzungen sind eher negativ, und das Datenschutzbewusstsein ist hoch. Andererseits ist das digitale Wissen rund um Schlüsselbegriffe von Vernetzung und Big Data eher gering und die empfundene Handlungsfreiheit begrenzt. Zudem werden konkrete Anwendungsfelder von Vernetzung und Big Data durchaus als positiv und nutzenstiftend gesehen.

Folgt das Verhalten nun den grundsätzlichen Einstellungen und Befürchtungen oder eher den konkreten Nutzenversprechen? Zu dieser Frage werden im Folgenden sowohl die generelle Onlinenutzung als auch konkrete Maßnahmen der User zum Schutz ihrer Daten erfasst.

3.5.1 Umfang der Online-Nutzung

Die Daten zum Nutzerverhalten (siehe Abb. 3.10) zeigen: Der Alltag der Bevölkerung ist bereits heute in hohem Maße digitalisiert und vernetzt:

Abb. 3.10
figure 10

Verhalten: Umfang der Online-Nutzung

  • Nicht nur Computer und Smartphone, sondern auch Tablets und internetfähige Fernseher werden von einer Mehrheit genutzt. Autocomputer, Fitnessarmbänder und Homeboxes (wie Alexa) erweitern bereits heute die Vernetzung. Im Schnitt verwenden unsere Befragten 3,6 der aufgeführten ‚Devices‘.

  • Ähnlich verbreitet sind führende Onlinedienste: Google, WhatsApp, YouTube und Facebook werden jeweils von einem Großteil der Bevölkerung genutzt. Und auch Dienste wie Amazon Prime, Netflix oder Instagram erreichen bereits wesentliche Teile der Gesellschaft.

  • Die große Mehrheit verfügt über einen eigenen Account bei Amazon, Google und eBay (hinzu kommen die oben schon erfassten Social-Media-Dienste WhatsApp und Co.). Ein Drittel der Befragten schätzt, über 20 eigene Accounts zu haben.

  • Lediglich die Verbreitung des Internets der Dinge (Internet of Things) hinkt, mit Ausnahme des bereits erwähnten interaktiven TV und des Autocomputers, noch deutlich hinterher. Nur einer von sechs Befragten nutzte zum Befragungszeitpunkt ein vernetztes Gerät aus dem Kontext ‚Smart Home‘.

Fazit

Die Bevölkerung ist im Netz, und zwar in doppeltem Sinne: Das Internet wird intensiv und über unterschiedlichste Geräte genutzt. Zugleich sind die Nutzer über zahlreiche Dienste und Geräte ‚im Netz‘ der Dienste und hinterlassen so umfangreiche Datenspuren. Dabei dominieren US-amerikanische Internetgiganten (siehe Kap. 1), die zumindest bis zur Inkraftsetzung der EU-Datenschutzgrundverordnung im Mai 2018 niedrigeren Datenschutzstandards unterlagen als ihre deutschen Wettbewerber. Reichweite und Nutzenumfang der globalen Player dominiert offenbar gegenüber Nähe und Datenschutz, wie auch eine Gegenüberstellung unmittelbarer Wettbewerber wie booking.com versus HRS oder mit gewissen Einschränkungen Amazon versus Otto und Zalando zeigt.

3.5.2 Selbst- und Fremdeinschätzung

Eine Gegenüberstellung der großen Skepsis zum Thema Big Data und der hohen empfundenen Relevanz des Themas Datenschutz auf der einen Seite und der breiten und anscheinend weitgehend unkritischen Nutzung von Diensten und Devices auf der anderer Seite lässt bereits den tief greifenden Einstellungs-Verhaltenskonflikt rund um den Datenschutz erkennen: Angebote werden ungeachtet von Werthaltungen und Einstellung genutzt, sofern sich daraus ein unmittelbarer persönlicher Vorteil ergibt. Die meisten der auf der vorhergehenden Seite beschriebenen Verhaltensweisen zeigen dabei kaum einen Zusammenhang mit der persönlichen Bedeutung, die dem Datenschutz zugemessen wird. Das Bewusstsein der Nutzer zu dieser Diskrepanz zeigt Abb. 3.11.

Abb. 3.11
figure 11

Verhalten: Selbst und Fremdeinschätzung

Da Menschen zur Selbstüberschätzungen neigen (Kahneman 2011) und bei der Einschätzung ‚anderer‘ Menschen oft objektiver und damit zutreffender urteilen (und dabei oft unbewusst ihr eigenes Verhalten auf die ‚Allgemeinheit‘ projizieren), haben wir die Stichprobe geteilt und die eine Hälfte der Befragten um eine Einschätzung des Verhaltens der ‚meisten Menschen‘ gebeten, die andere Hälfte um eine Selbsteinschätzung.

In der projektiven Frage wird ‚den meisten Menschen‘ ganz überwiegend ein zu sorgloser Umgang mit den persönlichen Daten attestiert. Bezogen auf die eigene Person fällt das Urteil erwartungsgemäß deutlich positiver aus: Fast 40 % verneinen dies für sich selbst, aber auch hier gestehen mehr als 60 % zumindest in Teilen Handlungsdefizite ein.

Fazit:

Besorgte Bürger, aber sorglose Verbraucher – das Nutzer-Paradoxon findet weitgehend Bestätigung. Datenschutzbedenken, generelle Sorge vor Big Data oder auch vor der Übermacht einzelner Anbieter halten die Nutzer kaum davon ab, „nützliche“ oder „notwendige“ Dienste zu nutzen. Die Mehrzahl der Verbraucher ist sich des Konfliktes durchaus bewusst.

3.5.3 Maßnahmen zum Datenschutz

Auch wenn die Dienste und Devices umfassend genutzt werden, hat der Einzelne zahlreiche Handlungsoptionen zur eigenen Datensicherheit. Die in den Tab. 3.11 und 3.12 abgebildeten Antworten zeigen, dass durchaus Maßnahmen ergriffen werden, allerdings nicht in dem von Experten immer wieder empfohlenen Umfang (so ändert nur jeder Zweite regelmäßig seine Passwörter).

Tab. 3.11 Verhalten: Konkrete Maßnahmen zum Datenschutz – Faktor 1: Passive Abwehr
Tab. 3.12 Verhalten: Konkrete Maßnahmen zum Datenschutz – Faktor 2: Aktiver Datenschutz

Da die einzelnen Schutzmaßnahmen nicht unabhängig voneinander sind, sondern gehäuft in bestimmten Kombinationen auftreten, haben wir zur Identifikation typischer Schutzstrategien eine Faktorenanalyse durchgeführt und damit die Mehrheit der Maßnahmen auf wenige, dahinterliegende Dimensionen verdichtet:

  • Passive Abwehr umfasst niederschwellige und damit weitverbreitete Aktivitäten wie das Ablehnen von Zustimmungen oder den Verzicht auf die Nutzung einer Website (siehe Tab. 3.11).

  • Aktiver Datenschutz umfasst hingegen Handlungen, die eine explizite Entscheidung und einen gewissen Aufwand in der Umsetzung erfordern. Sie werden von einem deutlich geringeren Teil der Nutzer eingesetzt (siehe Tab. 3.12).

  • Laissez-faire beinhaltet eine weitgehend unreflektierte Übernahme bzw. Akzeptanz von Voreinstellungen oder Abfragen. Die hohen Zustimmungsraten zum Beispiel zum „Überlesen“ von Datenschutzbestimmungen zeigen, dass gesetzlich vorgegebene Regeln zur Aufklärung und Einholung von Zustimmungen zumindest in der derzeitigen Form vielfach ‚ins Leere laufen‘ (siehe Tab. 3.13).

    Tab. 3.13 Verhalten: Konkrete Maßnahmen zum Datenschutz – Faktor 3: Lasisez Fair

Die Löschung von Cookies und das Abkleben der Kamera liegen an der Grenze zwischen passiver Abwehr (höchste Übereinstimmung) und aktivem Datenschutz und lassen sich den Faktoren daher nicht ganz eindeutig zuordnen.

Eine Einteilung der Nutzer nach Zahl der getroffenen Maßnahmen zeigt, dass sich der typische ‚pragmatische‘ Nutzer in ca. der Hälfte der abgefragten Handlungsfelder datenbewusst verhält. Jeder Fünfte verhält sich ‚datenschutzphlegmatisch‘, weniger als jeder Zehnte wirklich konsistent ‚aktiv‘ (Abb. 3.12).

Abb. 3.12
figure 12

Verhalten: Konkrete Maßnahmen zum Datenschutz

Die in den Tab. 3.14, 3.15 und 3.16 abgebildeten Fragen zeigen den Anteil der Befragten, die die Maßnahmen bejahten, in Abhängigkeit davon, wie ihre Einstellung zum Datenschutz ist. Die gleichen Zahlen finden sich zur Übersicht nochmals in Abb. 3.13.

Tab. 3.14 Maßnahmen in Abhängigkeit der Einstellung: Passiver Datenschutz
Tab. 3.15 Maßnahmen in Abhängigkeit der Einstellung: Aktiver Datenschutz
Tab. 3.16 Maßnahmen in Abhängigkeit der Einstellung: Laissez Faire
Abb. 3.13
figure 13

Datenschutz-Verhalten in Abhängigkeit von der Datenschutz-Einstellung

Viele der konkreten Schutzmaßnahmen korrelieren durchaus mit der Einstellung zum Datenschutz – anders, als dies bei der Nutzung der Dienste der Fall war. So geben Menschen, die Datenschutz für wichtig erachten, mehr als doppelt so häufig an, ihre Passwörter regelmäßig zu aktualisieren, als Datenschutzunbewusste (siehe A1 in Tab. 3.15). E-Mail-Verschlüsselung wird von Datenschutzunbewussten sogar so gut wie gar nicht genannt.

Interessant sind dabei wieder die Ausnahmen: Denn die Nutzung einiger essenzieller Funktionen, die die Datenspur erheblich verbreitern, hängt nicht oder nur wenig mit dem Datenschutzbewusstsein zusammen. Dazu gehören insbesondere die Nutzung einer Cloud sowie in der ‚analogen‘ Welt der Besitz von Rabatt- oder Kundenkarten. Aber auch die datenschutzrechtlich besonders sensible Freigabe von Fotos oder Adressen in Apps sowie die Daueraktivierung der Ortungsfunktion unterscheidet sich nur wenig zwischen den beiden Gruppen.

Fazit

Die in der Bevölkerung weitverbreiteten Datenschutzbedenken haben wenig Einfluss auf den Umfang und die Inhalte der Onlinenutzung. Dennoch beeinflussen sie das Verhalten im Kleinen – in Form konkreter Schutzmaßnahmen, die jeder einzelne Nutzer vornehmen kann. Aber auch dabei ist nur eine kleine Minderheit wirklich konsequent.

3.6 Datenpolitik und Datenethik (‚Neue Paradigmen‘)

Wie die bisherigen Auswertungen zeigen, befürchtet eine Mehrheit der Bürger negative Auswirkungen einer vernetzten ‚Datengesellschaft‘, befürwortet Datenschutz und ist sich dabei der Divergenz der eigenen Ansprüche und des eigenen Verhaltens im (digitalen) Alltag sehr wohl bewusst. Im ersten Kapitel dieses Buches wurden bereites Lösungsansätze diskutiert, wie die Gesellschaft dem nicht zuletzt daraus resultierenden Konflikt zwischen Datennutzen und Datenschutz, zwischen Wettbewerb und zunehmend monopolistischen Marktstrukturen und schließlich zwischen (langsamer) Gesetzgebung und (rasanter) Entwicklung in Technik und Wirtschaft begegnen kann.

Im Folgenden werden einige wesentliche Punkte dieser Diskussion aus Sicht der Bürger beleuchtet, nämlich

  1. a)

    Grundannahmen zum Daten-Eigentum, zu computergenerierten Entscheidungen und zur Wettbewerbsfähigkeit,

  2. b)

    der Rolle von Fairness bei der Verwendung von Big Data für Scorings und automatisierte Entscheidungen,

  3. c)

    ein möglicher Paradigmenwechsel in der Datenpolitik und damit verbunden

  4. d)

    die gezielte Bereitstellung persönlicher Daten gegen Vorteile, gegen Bezahlung oder im Sinne des Gemeinwohls.

3.6.1 Datenpolitik aus Sicht der Bevölkerung

Ein wesentlicher Punkt in der öffentlichen Diskussion ist das mögliche Eigentum an den Daten: Gehören die Daten dem Nutzer (also bspw. dem Autofahrer oder dem Mitglied eines sozialen Mediums) oder aber dem Anbieter des jeweiligen Dienstes (also z. B. BMW oder Facebook)? Ungeachtet der offenen rechtlichen Problematik (siehe Kap. 1) geben die Befragten ein klares Plädoyer, indem sie die Daten mit großer Mehrheit dem Nutzer zusprechen (siehe Tab. 3.17).

Tab. 3.17 Datenpolitik: Bewertungen aus Sicht der Bevölkerung (n = 469–481; alle Befragten [split half])

Eine Frage, die mit der zunehmenden Verbreitung von Künstlicher Intelligenz noch wesentlich an Bedeutung gewinnen wird, ist die nach automatisierten Entscheidungen, die auf Basis von Big Data und (zunehmend selbstlernenden) Algorithmen durch ‚den Computer‘ getroffen werden. In welchem Maß können wir diesen Entscheidungen vertrauen? Auch wenn es mittlerweile eine umfassende psychologische Forschung zur Fehleranfälligkeit menschlichen Urteilens und Entscheidens gibt (von persönlichen Interessen menschlicher Entscheider ganz abgesehen): Das Urteil der Befragten fällt hier deutlich zugunsten des Menschen und contra ‚Computer‘ aus (siehe Tab. 3.17).

Schließlich spielt die Wettbewerbsfähigkeit der deutschen oder europäischen Wirtschaft im politischen Diskurs eine zentrale Rolle als Argument für einen liberalen Umgang mit Big Data. Schon bei den oben dargestellten Folgeabschätzungen deutete sich an, dass solche gesamtwirtschaftlichen Zusammenhänge in der Einstellung der Bevölkerung wenig Beachtung finden. Entsprechend wird auch das Wettbewerbsargument von den Befragten nur sehr begrenzt angenommen (siehe Tab. 3.17).

3.6.2 Fairness als Mindestanforderung an Big Data

Werden Daten gesammelt und durch Algorithmen für Scorings oder sogar automatisierte Entscheidungen genutzt, ist der Einzelne dem in hohem Maße ausgeliefert. Wesentlich dafür, dass solche Verfahren akzeptiert werden, ist die Gerechtigkeit der zugrunde liegenden Prozesse.

Leventhal (1980) hat sechs Kriterien formuliert, die der wahrgenommen Fairness von solchen Prozessen zugrunde liegen:

  1. 1.

    Konsistenz, also gleiche Regeln für Alle,

  2. 2.

    Neutralität, also Freiheit von persönlichen Interessen oder Voreingenommenheit des Entscheiders,

  3. 3.

    Genauigkeit der zugrunde liegenden Informationen,

  4. 4.

    Repräsentativität der Daten, auf deren Basis Entscheidungen gefällt werden,

  5. 5.

    Revidierbarkeit fehlerhafter oder unangemessener Urteile,

  6. 6.

    Ethik, also Übereinstimmung mit übergeordneten moralischen Standards.

Damit der Nutzer erkennen kann, inwieweit diese Kriterien erfüllt sind, bedarf es als Randbedingung der Transparenz, des Vertrauens in den Entscheider und/oder der Kontrolle durch eine übergeordnete Instanz. Zusätzlich ist die Sicherheit der Daten ein relevanter Faktor.

Dass Big-Data-basierte Computerentscheidungen derzeit keinesfalls als gerechter gesehen werden, das Vertrauen in die Einhaltung von Vorschriften zum Datenschutz gering ist und mit der Anwendung von Big Data die Sorge vor ungerechtfertigter Diskriminierung verbunden ist, zeigte sich schon in den bisherigen Ergebnissen. Ergänzend haben wir in Tab. 3.18 Antworten zu einigen der genannten Bedingungen zusammengefasst: Durchweg hohe Zustimmungswerte – selbst zur Frage einer staatlichen Algorithmenaufsicht (‚Algorithmenpolizei‘) – verdeutlichen die große Bedeutung, die den Kriterien der Gerechtigkeit für eine breite gesellschaftliche Akzeptanz von Big Data und Künstlicher Intelligenz zukommt.

Tab. 3.18 Datenpolitik: Fairness als Mindestanforderung an Big Data (n = 479–501; alle Befragten [split half])

Während sich kein deutlicher Zusammenhang mit Bildung oder Geschlecht zeigt, nimmt die Zustimmung zu den in Tab. 3.18 abgebildeten Thesen ab, je jünger die Befragten sind (ohne Abbildung). Möglicherweise deutet sich hier ein allmählicher Einstellungswandel an. Allerdings liegen die Erwartungen auch bei den Jüngeren noch auf einem hohen Niveau.

3.6.3 Bewertung von Paradigmen in der Datenpolitik

In der Analyse der politischen Diskussion wurde in Kap. 1 ein vorsichtiger Wandel der Paradigmen, die von politischen Entscheidungsträgern für den gesellschaftlichen Umgang mit Big Data und Künstlicher Intelligenz formuliert werden, gezeigt. Da diese abstrakten Leitbilder die meisten Befragten überfordern würden, haben wir konkretere Aussagen bewerten lassen, die aus den jeweiligen Anschauungen abgeleitet wurden (siehe Tab. 3.19).

Tab. 3.19 Datenpolitik: Ein Wechsel in den Paradigmen?

Vom Datenschutz zur Datensouveränität?

Während das Datenschutzkonzept neben Regulierung auf Aufklärung, Transparenz und Zustimmungsvorbehalte setzt, steht Datensouveränität (im Sinne einer aktiv ausgeübten Datenhoheit der Nutzer) für eine gezielte Verwendung der eigenen Daten. In den Antworten der Befragten werden beide Positionen (etwas mehr die ‚Datenschutz‘-Position) eher zustimmend bewertet. Das Selbstbild der Befragten widerspricht also nicht notwendigerweise einem Ideal des Bürgers als ein aktiver, aber selektiver Datengeber (wie auch im Folgenden deutlich wird), auch wenn dieses Ideal vor dem Hintergrund des zu beobachtenden Nutzerparadoxons zumindest derzeit wenig realistisch erscheint.

Von der Regulierung zur Daten-Ethik?

Die Gegenüberstellung enger Regulierung durch den Gesetzgeber versus subsidiär gestalteter, innerhalb eines flexiblen Handlungsrahmens auf Abwägungen und Selbstverpflichtungen beruhender Datenethik fällt eindeutig zugunsten der gesetzlichen Regulierung aus. Dennoch findet auch der Gedanke freiwilliger Selbstverpflichtungen eine recht breite Zustimmung, ein Hinweis darauf, dass solche Unternehmen oder Branchen, die ein hohes Vertrauen in der Öffentlichkeit genießen, hier einen Wettbewerbsvorteil erlangen könnten.

Vom Wettbewerbsrecht zu Open Data?

Vielfach wird ein kartellrechtliches Eingreifen des Staates gegen die Marktmacht der ‚Internetgiganten‘ diskutiert. Diese Forderung wird von der Bevölkerung mehrheitlich unterstützt. Dabei findet auch das recht neue Modell ‚offener Daten‘, bei dem der Wettbewerbsvorsprung von ‚Monopolisten‘ durch erzwungenes Data-Sharing beschnitten wird, um Innovation und Wettbewerb zu stärken, ebenfalls mehr Zustimmung als Ablehnung – und könnte bei intensiverer Kommunikation durchaus ‚mehrheitsfähig‘ werden.

3.6.4 ‚Rohstoff‘ Daten

Das Konzept der Datensouveränität und insbesondere der Datenethik als Alternative zu einem engen, regulativen Datenschutzkonzept bedingt in seinem Kern ein bewusstes Abwägen der Bürger oder Kunden, für welche Gegenleistung und für welche Zweckbestimmung sie ihre Daten freigeben. Gerade auch in Zusammenhang mit der Eigentumsdiskussion um die Daten könnten das sein

  1. a)

    der unentgeltliche Tausch der Daten gegen das Nutzenversprechen einer Anwendung,

  2. b)

    ein Verkauf der Daten, also das Bereitstellen des ‚Rohstoffs‘ der eigenen Daten gegen Vergütung, sowie

  3. c)

    die gezielte ‚Spende‘, also die kostenfreie Bereitstellung für gesellschaftliche Zwecke.

Letzteres würde beispielsweise Anwendungen zur Verbesserung von Verkehrsflüssen oder der medizinischen Versorgung ermöglichen, welche derzeit aufgrund der gesetzlich verankerten Zweckgebundenheit und Datensparsamkeit nur sehr begrenzt möglich sind (vgl. Kap. 2).

Der Datentausch – also faktisch das ‚Bezahlen‘ von Diensten durch die Bereitstellung von Daten, ist bereits breite gesellschaftliche Realität. Entsprechend wird unsere Frage (die allerdings auch die Bezahlung durch Werbung miteinschließt) von den Befragten mehrheitlich bejaht oder zumindest nicht abgelehnt (siehe Tab. 3.20).

Tab. 3.20 ‚Rohstoff‘ Daten – Datentausch, Datenhandel und Datenspende

In unseren Fragen zu Verkauf und Spende wurde der Datenzugriff bewusst recht weitgehend formuliert. Im Ergebnis zeigt sich, dass sowohl der Verkauf als auch die bewusste Spende solch umfassender Daten von einer Mehrheit abgelehnt wird (siehe Tab. 3.20). Die im Vergleich deutlich höhere Zustimmung zur medizinischen Spende zeigt aber, dass Datenspende nicht pauschal verneint wird, sondern bei nachvollziehbar wichtigen Zwecken durchaus abgewogen wird.Footnote 5

3.7 Alte und neue Narrative

Narrative sind ‚sinnstiftende Erzählungen‘ innerhalb einer Kultur, die in hohem Maße das öffentliche Bild und damit auch die Bewertung der zugrunde liegenden Themen prägen. Im Rahmen einer aktuellen Medienanalyse wurde in Kap. 1 gezeigt, dass Big Data und Algorithmen ganz überwiegend mit negativen Narrativen verbunden sind. Positive Deutungen, die den möglichen Nutzen von Big Data thematisieren und in den gesellschaftlichen Vorstellungen verankern, sind bislang dagegen kaum zu erkennen.

Wir haben die Befragten daher um Auskunft gebeten, wie weit sie die vorherrschenden kritischen ‚Erzählungen‘ für zutreffend halten (siehe Tab. 3.21). Zugleich haben wir mögliche ‚Narrative‘ oder ‚Bilder‘ beschrieben, die die positive Seite der Datennutzung repräsentieren könnten und so möglicherweise ein Potenzial hätten, auch die Nutzenseite der neuen Techniken zu verankern.

Tab. 3.21 Bewertung von Narrativen

Die Befragungsergebnisse zeigen ein analoges Bild zur Negativitäts-Dominanz in der Medienanalyse (und auch in der Folgenabschätzung, siehe Abschn. 3.3): Auch bei der Beurteilung der Narrative überwiegt die Zustimmung zu den negativen Positionen deutlich. Besonders die Bilder der Ausspähung und der Überwachung werden von einer Mehrheit geteilt. Aber auch andere gewählte Metaphern – Verführer, Droge, Diktator und (in etwas geringerem Ausmaß) Zensor, welche auf die zuvor dargestellten Aspekte wie Kontrollverlust, Monopolismus oder die Filterblase referieren, finden mehr Zustimmung als Ablehnung.

Deutlich differenzierter zeigt sich das Bild auf Seite der positiven Analogien: Die höchste Zustimmung findet sich bezüglich des Forschers und des persönlichen Assistenten. Weitergehende Rollen wie Heinzelmännchen, Einkaufsberater, Wünscheerfüller oder auch Schutzengel, die direkt auf Motive wie Bequemlichkeit, Sicherheit, Kontrolle oder Effizienz abzielen und damit die Mehrheit neuer Dienste und Geschäftsmodelle (siehe Kap. 2) repräsentieren, haben bislang kaum den Weg in die Vorstellungswelt der Menschen gefunden. Ähnliche Tendenzen hatten sich schon bei den Folgeabschätzungen gezeigt (siehe Abschn. 3.3).

Abb. 3.14 verdeutlicht noch einmal in Form eines ‚Waagen-Modells‘ die Gewichtung zwischen positiven und negativen Narrativen (die Zahlen sind identisch zu Tab. 3.21). Nur durchschnittlich 24 % stimmen den positiven Vergleichen zu (weitere 39 % zumindest teilweise). Den negativen Vergleichen stimmen im Mittel 43 % zu (weitere 33 % teilweise). Eine Mehrheit finden lediglich die negativen Analogien „Überwachungsapparat“ und „Spion“, während keines der positiven Bilder mehrheitsfähig ist.

Abb. 3.14
figure 14

Bürgerschreck oder Hoffnungsträger? Negative Narrative wiegen schwerer

Fazit

Anwendungen auf Basis von Big Data haben aus technischer Sicht ein hohes Potenzial, grundlegende Motive zu bedienen und somit einen hohen direkten Nutzen für die Bürger zu generieren. Positive mit Assoziationen aufgeladene Codes könnten diese Seiten von Big Data in der Vorstellungswelt der Menschen verankern und so helfen, ein etwas balancierteres Bild der neuen Datenwelt zu schaffen. Bisher dominiert aber vor allem das Big-Brother-Narrativ, begleitet von weiteren Bedrohungsszenarien, neben denen optimistische Schilderungen bisher allenfalls eine Nebenrolle einnehmen konnten. Zur gesellschaftlichen Konstruktion positiver ‚sinnstiftender Erzählungen‘ ist es also noch ein weiter Weg.

3.8 Neue Rollen am Beispiel der Versicherungswirtschaft

Vernetzung, Big Data und Künstliche Intelligenz führen nicht nur zu zahlreichen Gründungen und Innovationen in techniknahen Branchen, sondern ändern auch die Rolle, die etablierte Branchen für Kunden und die Gesellschaft spielen. In Kap. 2 wird am Beispiel der Assekuranz aufgezeigt, wie sich die Rolle einer ganzen Branche auf Basis von Vernetzung und intelligenten Algorithmen wandeln kann. Darauf abgestimmt werden im Folgenden Erwartungen der Bürger an die Versicherungswirtschaft auf empirischer Basis beschrieben.

3.8.1 Anwendungsfelder von Big Data

Zu den wesentlichen Anwendungsfeldern von Big Data in der Versicherung gehören bereits heute

  1. a)

    Betrugserkennung,

  2. b)

    Flexibilisierung der Produkte, z. B. durch situative Deckungen,

  3. c)

    TarifierungFootnote 6,

  4. d)

    Individualisierung des Angebots entsprechend dem Kundenprofil.

Bei der Beurteilung entsprechender Anwendungen (siehe Tab. 3.22) wiederholt sich das Muster, das schon in Abschn. 3.4 zu den Anwendungsfeldern zu erkennen war: Wenn es um die Kriminalitätsbekämpfung geht, überwiegt die Zustimmung bei Weitem. Scorings und Selektionen im Marketing, hier also Preissetzung sowie flexible oder individualisierte Produkte, werden dagegen eher skeptisch aufgenommen, wenngleich auch nicht mehrheitlich abgelehnt.

Tab. 3.22 Anwendungsfelder von Big Data in der Versicherungswirtschaft

3.8.2 Akzeptanz neuer Rollen

Damit ist aber erst ein Teil möglicher Anwendungsfelder von Big Data und intelligenter Algorithmen im Kontext der Versicherungswirtschaft erfasst. Wenn es um neue und erweiterte Funktionen geht, die die Assekuranz dank Daten und Vernetzung übernehmen kann, dann ist vor allem über folgende Rollenbilder nachzudenken (siehe auch Kap. 2):

  1. 1.

    ‚Retter‘ oder ‚Schadenmanager‘: Ist ein Schaden eingetreten, tritt neben den eigentlichen finanziellen Schadenausgleich immer mehr das ‚Management‘ des Schadens, also z. B. die Unterstützung bei oder auch weitgehende Organisation von Reparaturen oder medizinischen Therapien. Mit zunehmender Vernetzung ergeben sich hier weitergehende Möglichkeiten, sowohl die Schäden zu erkennen als auch die Maßnahmen zu koordinieren und zu begleiten.

  2. 2.

    ‚Coach‘ oder ‚Schadenverhüter‘: Ebenso ermöglichen Vernetzung und die Analyse großer Datenbestände den Versicherern zunehmend, schon vorab mögliche Risiken zu erkennen und durch Aufklärung, Verhaltensfeedbacks oder konkrete Präventionsmaßnahmen zu minimieren. Aufklärung und Feedback erfolgt beispielsweise im Rahmen von telematischen Kfz-Policen oder im Kontext des Vitality-Programms der Generali Versicherung. Weitere Präventionsmaßnahmen sind zum Beispiel die Installation von Sensoren im Haushalt, regelmäßige Gesundheitschecks oder auch ein laufendes Gesundheitsmonitoring per Smartwatch oder Fitness-Tracker.

  3. 3.

    ‚Kontrolleur‘ oder ‚Motivator‘: Wenn Risiken gemessen und erkannt werden, dann ist auch eine unmittelbare Einflussnahme auf das Verhalten des Versicherungsnehmers durch positive oder negative Sanktionen nicht mehr weit. Dies kann zum Beispiel über die Bepreisung erfolgen (wie in Kfz-Telematik-Tarifen oder im „Vitality-Modell“ der Generali Versicherung bereits gegeben), aber auch in weitergehenden konkreten Handlungsvorschriften oder Verboten, welche wiederum durch Sensoren und Vernetzung überprüft werden können.

Die Befragten zeigen sich den neuen Rollen gegenüber differenziert, aber vielfach durchaus aufgeschlossen (siehe Tab. 3.23, 3.24 und 3.25). Inwieweit eine Rolle im Einzelfall befürwortet oder zumindest akzeptiert wird, hängt dabei mehr von der konkreten Ausgestaltung des Beispiels als von der Rolle selbst ab. So findet die gewählte Beschreibung des Schadenverhüters ausgerechnet im Kfz-Beispiel, in dem die Vernetzung faktisch ja schon weit fortgeschritten ist, die geringste Akzeptanz, im deutlich sensibleren Gesundheitsbereich dagegen die höchste. Ähnlich verhält es sich mit der Rolle des Schadenmanagers, während Kontrolle und Sanktionen in der Autoversicherung den meisten Zuspruch erfahren.

Tab. 3.23 Neue Rolle der Versicherungswirtschaft? Akzeptanz nach Rollen für die Autoversicherung (n = 312–325, alle Befragten)
Tab. 3.24 Neue Rolle der Versicherungswirtschaft? Akzeptanz nach Rollen für die Krankenversicherung (n = 312–325, alle Befragten)
Tab. 3.25 Neue Rolle der Versicherungswirtschaft? Akzeptanz nach Rollen für die Wohnungsversicherung (n = 312–325, alle Befragten)

Analog zeigt sich auch kein eindeutiger Unterschied bezüglich der drei Lebenswelten: Die erweiterten Rollen finden in Mobilität, Gesundheit und Wohnen ungefähr in gleichem Ausmaß Akzeptanz, wobei die Zustimmung im Bereich der Gesundheit tendenziell etwas höher ist und im Bereich des Kfz am stärksten je nach beschriebener Maßnahme schwankt.

Deutlich zurückhaltender sind die Befragten aber in der Bereitschaft, sich dafür auch ‚vermessen‘ zu lassen. Je nach Anwendung wäre nur jeder Zweite bis jeder Vierte bereit, Sensoren zu installieren oder anfallende Daten aus Kfz, Arztbesuchen oder Fitnesstracker an den Versicherer weiterzugeben. Interessanterweise liegen hier die Zustimmungsraten im besonders datenschutzsensiblen Bereich der Gesundheit ganz vorne. Unter Berücksichtigung der Tatsache, dass eine solche Vernetzung einen recht weitgehenden Eingriff in die Privatsphäre darstellt, Datenschutz von den Befragten als wichtig erachtet wurde und die Erfahrung der meisten Befragtem mit Sensoren und Trackern gering ist, sind die Zustimmungsquoten dennoch erstaunlich hoch.

Auch wenn die Verbreitung von ‚Wearables‘ sowie von Alexa oder vergleichbaren ‚Smart Speakers‘ noch moderat ist, wachsen die Nutzerzahlen rasant. Ein Blick auf die Nutzer kann also andeuten, inwieweit die Akzeptanz der Datenweitergabe mit einer weiteren fortschreitenden Vernetzung im Alltag steigt. Tatsächlich stimmen die von uns befragten Nutzer von Smartwatch, Alexa & Co. der Datenübertragung weitaus häufiger – in vielen Fällen sogar mehrheitlich – zu (siehe Tab. 3.26). Die Aussage ist wegen der geringen Zahl der Nutzer der Devices allerdings nur als Tendenzwert zu interpretieren. Ebenso steigt die Akzeptanz – wenig verwunderlich – mit dem Optimismus bezüglich Big Data. Keine wesentlichen Unterschiede zeigen sich dagegen in Abhängigkeit vom Lebensalter (ohne Abbildungen).

Tab. 3.26 Akzeptanz der Datenweitergabe an Versicherer nach Grad der Vernetzung des Kunden (Tendenzaussagen, teils geringe Fallzahlen!)

Ambivalent ist dagegen der Zusammenhang mit dem Datenschutzbewusstsein. Datenschutzbewusste unterscheiden sich in der Akzeptanz der erweiterten Rolle des Versicherers nicht grundsätzlich von wenig Datenschutzbewussten. Deutlichere Effekte zeigen sich zwar bei der Bereitschaft zur Datenweitergabe, aber auch dies gilt keinesfalls für alle beschriebenen Einsatzzwecke (ohne Abbildungen).

Fazit

Aus den Vergleichen lässt sich schließen, dass nicht die Sorge um die Privatsphäre der Haupttreiber für Zustimmung oder Ablehnung ist, sondern auch hier das jeweilige Nutzenversprechen entscheidet. Verbunden mit zunehmender Gewöhnung an laufende Vernetzung und unter der Voraussetzung der in Abschn. 3.7 beschriebenen Kriterien ‚gerechter‘ Systeme (siehe auch Müller-Peters und Wagner 2017) kann eine insgesamt breite Akzeptanz für eine erweiterte Rolle der Versicherer erwartet werden – von der tradierten Funktion als Kostenerstatter hin zum Schadenmanager, zum Schadenverhüter und bis zum aktiven Motivator oder Kontrolleur.

3.9 Fazit

Als Kernergebnisse dieser empirischen Studie lassen sich festhalten:

3.9.1 Wissen – Können – Wollen – Handeln

‚Wissen‘

Die digitale Welt ist für die Menschen in Deutschland kein ‚Neuland‘ mehr. Grundbegriffe der Digitalisierung sind ins Allgemeinwissen eingegangen. Bestehende Wissensdefizite finden sich aber gerade rund um die digitale Vernetzung und Big Data, jene Themen also, die besonders den Umgang mit den eigenen Daten tangieren.

‚Können‘

Die Bürger fühlen sich aufgrund von Informationsüberlastung und monopolistischer Marktstrukturen nur sehr bedingt handlungsfrei oder souverän, und zwar quer durch alle Altersgruppen und Bildungsschichten. Regulierungen wie z. B. aus der Europäischen Datenschutzgrundverordnung, die vom Ideal eines mündigen und kritischen Bürgers ausgehen und die Interessen der Verbraucher daher über umfassende Information- und Zustimmungspflichten absichern wollen, drohen dadurch vielfach ‚ins Leere‘ zu laufen.

‚Wollen‘

Der Schutz der eigenen Daten ist den Menschen unverändert wichtig. Dennoch ergibt sich eine ganz unterschiedliche Wahrnehmung von Big Data, je nach Blickwinkel, aus dem das Thema betrachtet wird:

Das Fernbild von Big Data:

  • Sofern eher abstrakt nach möglichen Folgen gefragt wird, überwiegen aus Sicht der Bürger die Risiken.

  • Nutzenpotenziale der neuen Techniken, wie ein Zugewinn an Sicherheit, Komfort oder Effizienz, werden vielfach nicht erkannt oder wiegen im Vergleich zu den möglichen Nachteilen weniger schwer.

  • Auch bezüglich gesamtgesellschaftlicher und volkswirtschaftlicher Auswirkungen dominieren die Bedenken.

  • In einer Klassifizierung nach Sorgen und Hoffnungen zeigen sich annähernd doppelt so viele Pessimisten (42 % der Befragten) wie Optimisten (22 % der Befragten). Die verbleibenden 36 % geben sich bezüglich der Chancen und Risiken annähernd indifferent.

Das Nahbild von Big Data:

  • Das negative Bild ändert sich, wenn anhand konkreter Anwendungsfelder der Nutzen von Big Data deutlich wird. Zahlreiche der getesteten Anwendungen in den drei Lebenswelten Mobilität, Wohnen und Gesundheit werden mehrheitlich begrüßt.

  • Das gilt besonders, wenn die Sicherheit erhöht wird, wenn lästige Alltagstätigkeiten automatisiert werden oder wenn der Nutzer bei weitergehenden Tätigkeiten unterstützt wird, ohne dabei gleich die die Kontrolle aus der Hand geben zu müssen.

  • Ist der Nutzen der Anwendung ersichtlich, tritt selbst die Sorge vor Überwachung in den Hintergrund. Dies gilt sowohl für eine breite Anzahl von Anwendungen in den eigenen Lebenswelten als auch für eine (politisch derzeit höchst konträr diskutierte) polizeiliche Kriminalitätsbekämpfung mittels Big Data.

  • Dennoch möchte der Bürger nicht zum ‚Objekt‘ der Algorithmen degradiert werden: Klassifizierungen (sog. ‚Scorings‘) oder gar automatisierte Entscheidungen werden mehrheitlich abgelehnt. Anwendungen im Marketing – z. B. durch ‚Mikrotargeting‘, dynamische Preissetzung oder der Kundenbetreuung über Sprachcomputer, wird überwiegend mit Skepsis begegnet.

‚Handeln‘

Die Bevölkerung ist im Netz, und zwar in doppeltem Sinne:

  • Das Internet wird intensiv und über unterschiedlichste Geräte genutzt.

  • Zugleich sind die Nutzer über zahlreiche Dienste und Geräte im ‚Netz‘ der Anbieter und hinterlassen dort umfangreiche Datenspuren. Dabei dominieren – ungeachtet monopolistischer, gesamtwirtschaftlicher und datenschutzrechtlicher Bedenken – die bekannten Internetgiganten. Reichweite und Nutzenumfang der globalen Player überkompensieren ‚Nähe‘ und höhere Datenschutzstandards nationaler Wettbewerber.

  • Besorgte Bürger, aber sorglose Verbraucher – das Nutzer-Paradoxon findet demnach in unseren Daten weitgehende Bestätigung. Die Mehrzahl der Verbraucher ist sich dieses Konfliktes durchaus bewusst.

  • Dennoch sind die Nutzer ‚im Kleinen‘ nicht gänzlich datenschutzpassiv:

    • Datenschutzmaßnahmen an Computer und Smartphone werden – gerade von datenschutzsensiblen Bürgern – durchaus genutzt.

    • Die große Mehrheit verhält sich in Bezug auf Datenschutzmaßnahmen ‚pragmatisch‘ (negativ formuliert ließe sich auch sagen: ‚leicht fahrlässig‘). Jeder fünfte Nutzer zeigt sich ‚datenschutz-phlegmatisch‘, nicht einmal jeder zehnte ist konsequent ‚datenschutz-aktiv‘.

3.9.2 Neue Paradigmen für Politik, Wirtschaft und Gesellschaft?

Bürger befürworten ein persönliches Eigentum an den eigenen Daten, sind skeptisch gegenüber allen Arten automatisierter Entscheidungen und sind nur sehr begrenzt bereit, den Datenschutz zugunsten der internationalen Wettbewerbsfähigkeit der Wirtschaft hintenanzustellen.

Es herrscht breiter Konsens bezüglich der Grundanforderungen an datengestützte Systeme, nämlich Fairness und Nachvollziehbarkeit. Das impliziert Transparenz, Vertrauen oder Kontrolle sowie Diskriminierungsfreiheit, Neutralität, Datenqualität und Datensicherheit. (Die Forderungen nach Datenqualität und Transparenz stellen den Einsatz unstrukturierter Daten und selbstlernender Algorithmen aus technischer Sicht vor eine große Hürde, siehe Kap. 2).

Neue Paradigmen in der politischen Diskussion betonen Datensouveränität statt Datenschutz, freiwillige Datenethik der Unternehmen anstelle strikter Regulierung, sowie Open-Data-Ansätze anstelle oder ergänzend zum klassischen Wettbewerbsrecht.

  • Die Konzepte von Datenschutz versus eigenverantwortlicher Datensouveränität des Einzelnen schließen sich aus Sicht der Befragten nicht aus, sondern werden gleichermaßen geteilt. Dennoch ist den meisten der Gedanke eher fremd, Daten im Sinne einer Ware zu ‚tauschen‘ (auch wenn dies faktisch schon breite gesellschaftliche Realität ist) oder gar zu ‚verkaufen‘ oder zu ‚spenden‘. Ist der gesellschaftliche Nutzen aber offensichtlich (wie im Fall der medizinischen Forschung gegeben), erhöht sich die Bereitschaft zur Datenüberlassung ganz erheblich.

  • Überwiegend fordern die Bürger jedoch eine enge staatliche Regulierung des Umgangs mit Daten. Der eigentlich gegenteilige Gedanke einer weitgehend freiwilligen Selbstverpflichtung der Unternehmen findet zwar ebenfalls eine recht breite Akzeptanz, dürfte aber im Detail stark vom Vertrauen in ebenjene abhängen.

  • Ein Eingreifen des Staates gegen die Marktmacht der ‚Internetgiganten‘ wird in Mehrheit unterstützt. Dabei findet auch das recht neue Modell der ‚Open Data‘, bei dem der Wettbewerbsvorsprung von Monopolisten durch erzwungenes Data-Sharing beschnitten wird, um Innovation und Wettbewerb zu stärken, mehr Zustimmung als Ablehnung – und könnte bei intensiverer Kommunikation durchaus ‚mehrheitsfähig‘ werden.

Spion, Überwachungsapparat, Verführer, Droge und Diktator

Wir haben die Befragten um Auskunft gebeten, wie weit sie positive und negative Analogien zum Einsatz von Big Data für zutreffend halten. Die fünf zuvor genannten Begriffe wurden mit Abstand meistgenannt und verdeutlichen die große Skepsis, die dem Thema aus der ‚Fernsicht‘ entgegenschlägt. Positive Narrative, die den konkreten Nutzen neuer Anwendungen in die Vorstellungswelt der Menschen transportieren könnten, wie Schutzengel, Wünsche-Erfüller oder Heinzelmännchen, folgen erst weit danach.

3.9.3 Rollenwandel für die Versicherungswirtschaft?

Die Versicherungswirtschaft könnte auf Basis von Daten und Vernetzung neue Rollen in der Gesellschaft übernehmen, indem sie sich vom Kostenerstatter wandelt zum ‚Retter‘ oder ‚Schadenmanager‘ zum ‚Coach‘ oder ‚Schadenverhüter‘ sowie zum ‚Kontrolleur‘ oder ‚Motivator‘.

  • In der Summe zeigen sich die Befragten diesen neuen Rollen gegenüber durchaus aufgeschlossen.

  • Deutlich zurückhaltender ist die persönliche Bereitschaft zur laufenden Übermittlung der notwendigen Daten, zum Beispiel durch Sensoren, Wearables oder auch durch den Arzt.

  • Inwieweit ein Angebot – und auch die damit verbundene Weitergabe der Daten – im Einzelfall befürwortet wird, hängt mehr von dessen konkreter Ausgestaltung ab als von der dahinterstehenden Rolle. Gleiches gilt für die Frage, ob der Einsatz eher in der Lebenswelt Mobilität, Wohnen oder Gesundheit vorstellbar ist. Und selbst der Grad der Überwachung, der mit dem jeweiligen Angebot verbunden ist, tritt hinter die Attraktivität des jeweiligen Nutzenversprechens zurück.

In Summe lässt sich eine insgesamt hohe Bereitschaft der Bürger respektive Kunden erkennen, neue, erweiterte Rollen der Versicherer anzunehmen.

3.9.4 Conclusio

Im Gesamtbild zeigt sich in den Ergebnissen ein doppeltes Paradoxon:

  • Die Bürger fordern Datenschutz, beklagen übermächtige Konzerne und fühlen sich in ihrer Freiheit beschränkt – aber handeln nicht danach, sondern folgen ‚brav der Herde‘.

  • Die Bürger fürchten Big Data – aber sind gerne bereit, die aus der Vernetzung resultierenden Potenziale in ihre Lebenswelten einzulassen.

Die Antwort auf die Frage ‚Bürgerschreck oder Hoffnungsträger‘ ist also weder das eine noch das andere, sondern muss lauten:

  • Big Data: Bürgerschreck und Hoffnungsträger!

Angesichts der weiter rasant fortschreitenden Vernetzung und des zunehmenden Einsatzes von künstlicher Intelligenz besteht die Gefahr, dass sich das doppelte Paradoxon nicht etwa auflöst, sondern weiter verfestigt. Dies kann in einer fatalistischen Haltung enden oder darin, dass auf Dauer eine Anpassung der Einstellungen an das eigene Verhalten erfolgt. Beides steht diametral zum Ideal eines ‚souveränen Datenbürgers‘.

Ein politischer Paradigmenwechsel kann in Teilen dazu beitragen, Brücken zwischen den empfundenen Risiken und den erhofften Chancen zu bauen. Ebenso kann die Etablierung positiver gesellschaftlicher ‚Erzählungen‘ helfen, das bisherige Schwarz-Weiß-Bild zu überwinden. Wesentliche Grundbedingungen dazu sind – neben dem eigentlichen Nutzen der Anwendungen – Fairness und Sicherheit der Systeme sowie Transparenz und Vertrauen in die Akteure. Und schließlich bleibt essenziell, die digitale Bildung der Bevölkerung auch in Bezug auf Big Data zu intensivieren, um Akzeptanz zu gewinnen und dem Ideal eines souverän handelnden Bürgers zumindest in Schritten näherzukommen.