Advertisement

Springer Nature is making SARS-CoV-2 and COVID-19 research free. View research | View latest news | Sign up for updates

Maschinenraum, Privatsphäre und Psychopolitik

Holistischer Datenschutz als Kombination von individueller Souveränität und kollektiver Gesetzgebung

Zusammenfassung

Nutzer und Verbraucher sind unterschiedlichen Gefahren bei der Verwendung von Computertechnologien ausgesetzt und benötigen Schutz. Der Schutzgedanke umfasst nicht nur sozial-regulativen Datenschutz durch Vorschriften im Umgang mit personenbezogenen Daten, sondern auch funktional-kognitive Aspekte, durch die Anwender in ihren Kompetenzen und ihrer digitalen Souveränität gestärkt werden. Aktuell ist eine Verantwortungsdiffusion für Datenschutz (im weiten Sinn) zu beobachten. In deren Folge werden Zuständigkeiten abgelehnt, delegiert und automatisiert. Eine Systematisierung der Verantwortlichkeiten für einen holistischen Datenschutz unterscheidet sowohl zwischen Fremd- und Selbstverpflichtung als auch zwischen Fremd- und Selbstermächtigung. Es zeigt sich, dass insbesondere Maßnahmen zur Selbstermächtigung von Nutzern und Verbrauchern bislang kaum existieren und/oder institutionalisiert sind.

This is a preview of subscription content, log in to check access.

Notes

  1. 1.

    Vgl. dazu auch die kritischen Positionen gegenüber der Terminologie „Digitalisierung“ in den OXI-Ausgaben 10/18 und 01/19 unter https://e-paper.oxiblog.de/de/profiles/9b3e2b784504/editions, 26.02.2019.

  2. 2.

    Vgl. diesbezüglich auch die Publikationen des Projekts „Ethik der Algorithmen“ unter https://www.bertelsmann-stiftung.de/de/unsere-projekte/ethik-der-algorithmen, 29.01.2019.

  3. 3.

    Vereinfachend werden Informations- und Kommunikationstechnologien unter dem Begriff Computertechnologie subsumiert.

  4. 4.

    Der Beitrag beruht zu einem Großteil auf früheren Forschungsarbeiten, u. a. im Rahmen der Erstellung des Gutachtens zu Big Data [23]. Ich danke Crispin Hartmann für anregende Diskussionen zur Beitragsthematik und der Reviewerin/dem Reviewer für wertvolle Hinweise.

  5. 5.

    Dieser Text ist erstmals 2015 erschienen in Spektrum der Wissenschaft: https://www.spektrum.de/news/wie-algorithmen-und-big-data-unsere-zukunft-bestimmen/1375933, 10.04.2019.

  6. 6.

    An dieser Stelle heißt es weiter: „[…] als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen identifiziert werden kann, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind“.

  7. 7.

    Dieser letzte Aspekt „verantwortlicher Technik“ bedarf einer eigenständigen Diskussion und wird hier ausgespart.

  8. 8.

    Vgl. ähnlich und ausführlicher das von mir hauptverantwortlich ausgearbeitete Kapitel „Kodifizierung ethischer Standards für Big Data“ [23].

  9. 9.

    Die Unterscheidung markt- und technikorientiert vs. nutzer- und kompetenzorientiert mag etwas holzschnittartig wirken, letztlich verbirgt sich dahinter die Unterscheidung zwischen Entwicklern und Anbietern von Technik und Dienstleistungen einerseits und den Anwendern, Nutzern und Verbrauchern, die davon „betroffen“ sind, andererseits.

  10. 10.

    Vgl. Ethische Leitlinien der Gesellschaft für Informatik oder VDI-Richtlinie 6320 „Datenmanagement im Bereich Life Sciences“.

  11. 11.

    Vgl. auch den zu entwickelnden Standard IEEE P7000, der sich mit Themen wie Transparenz, Privatsphäre, Algorithmen-Bias und Daten-Governance beschäftigt.

  12. 12.

    Vgl. https://deinedatendeinerechte.de/schauen, 12.04.2019.

  13. 13.

    Vgl. https://www.marktwaechter.de/digitalewelt, 12.04.2019.

  14. 14.

    Ein aktuelles Thema betrifft die Abschaffung des Bargeldes. Da durch elektronisches Geld jegliche Transaktionen nachvollzogen werden könnten, sprechen manche vom „Tod des Datenschutzes“.

Literatur

  1. 1.

    Beck U (1986) Risikogesellschaft. Suhrkamp, Frankfurt a.M.

  2. 2.

    Biniok P (2017) Emanzipierende Infrastrukturen. Wie digitale Teilhabe ausgebaut werden kann. Standpunkte, Bd. 09. Rosa-Luxemburg-Stiftung, Berlin

  3. 3.

    Biniok P (2017) De-Fragmentierung. Gemeinwohlbildung durch digitale Plattformen. https://www.rosalux.de/publikation/id/38133/de-fragmentierung. Zugegriffen: 1. März 2019

  4. 4.

    Biniok P, Lettkemann E (Hrsg) (2017) Assistive Gesellschaft. Springer, Wiesbaden

  5. 5.

    BITKOM (2015) Leitlinien für den Big-Data-Einsatz. Chancen und Verantwortung. BITKOM, Berlin

  6. 6.

    Coser LA (2015) Gierige Institutionen. Soziologische Studien über totales Engagement. Suhrkamp, Frankfurt a.M. (1974)

  7. 7.

    Deutscher Ethikrat (2017) Big Data und Gesundheit – Datensouveränität als informationelle Freiheitsgestaltung. Deutscher Ethikrat, Berlin

  8. 8.

    Friedrichsen M, Bisa P‑J (Hrsg) (2016) Digitale Souveränität. Springer, Wiesbaden

  9. 9.

    Gaycken S, Kurz C (Hrsg) (2009) 1984.exe. transcript, Bielefeld

  10. 10.

    Gehlen A (2009) Der Mensch: Seine Natur und seine Stellung in der Welt. AULA, Wiebelsheim (1940)

  11. 11.

    Gräf E, Lahmann H, Otto P (2018) Die Stärkung der digitalen Souveränität. DIVSI, Hamburg

  12. 12.

    Han B‑C (2000) Psychopolitik: Neoliberalismus und die neuen Machttechniken. Matthes & Seitz, Berlin

  13. 13.

    Helbing D, Frey BS, Gigerenzer G, Hafen E, Hagner M, Hofstetter Y, van den Hoven J, Zicari RV, Zwitter A (2017) Digitale Demokratie statt Datendiktatur. In: Könneker C (Hrsg) Unsere digitale Zukunft. Springer, Berlin, Heidelberg, S 3–21

  14. 14.

    Horn N, Stecher B (2019) Denkimpuls innovativer Staat: Datensouveränität – Datenschutz neu verstehen. Initiative D21, Berlin

  15. 15.

    IEEE (2019) Ethically aligned design

  16. 16.

    Karafillidis A, Weidner R (Hrsg) (2018) Developing support technologies. Springer, Cham

  17. 17.

    Kurz C, Rieger F (2011) Die Datenfresser. Fischer, Frankfurt a.M.

  18. 18.

    Lischka K, Stöcker C (2017) Digitale Öffentlichkeit. Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen. Bertelsmann, Gütersloh

  19. 19.

    Loll AC (2017) Akteure im Bereich Informatik und Gesellschaft. Inf Spektrum 40:345–350

  20. 20.

    OECD (2013) The OECD privacy framework

  21. 21.

    Schirrmacher F (Hrsg) (2015) Technologischer Totalitarismus. Suhrkamp, Berlin

  22. 22.

    Selke S, Biniok P (2015) Assistenzensembles in der Gesellschaft von morgen. In: VDE (Hrsg) 8. AAL-Kongress. VDE, Berlin, S 50–56

  23. 23.

    Selke S, Biniok P, Achatz J, Späth E (2018) Gutachten: Ethische Standards für Big Data und deren Begründung. ABIDA, Münster, Karlsruhe

  24. 24.

    Srnicek N (2017) Platform capitalism. Polity, Cambridge

  25. 25.

    Stalder F (2016) Kultur der Digitalität. Suhrkamp, Berlin

  26. 26.

    Stengel O, van Looy A, Wallaschkowski S (Hrsg) (2017) Digitalzeitalter – Digitalgesellschaft. Springer, Heidelberg, Berlin, New York

  27. 27.

    SVRV (2017) Digitale Souveränität

  28. 28.

    Weyer J (2018) Autonome Technik außer Kontrolle? Möglichkeiten und Grenzen der Steuerung komplexer Systeme in der Echtzeitgesellschaft. Z Sozialmanag 1:67–91

Download references

Author information

Correspondence to Peter Biniok.

Rights and permissions

Reprints and Permissions

About this article

Verify currency and authenticity via CrossMark

Cite this article

Biniok, P. Maschinenraum, Privatsphäre und Psychopolitik. Informatik Spektrum (2020). https://doi.org/10.1007/s00287-020-01233-y

Download citation