Skip to main content

„Hochinvasive Überwachung“ und der Verlust der Autonomie (die es nie gab?)

  • Chapter
  • First Online:
Die Maschine: Freund oder Feind?

Zusammenfassung

Überwachung steht – so die übliche Lesart – in einem antagonistischen, gar zerstörerischen Verhältnis zur Autonomie. Im vorliegenden Beitrag wird diese etablierte Grundannahme entlang dreier Thesen kritisch diskutiert: Erstens ist Überwachung nicht in einem solchen destruktiven Verhältnis zur Idee der Autonomie zu denken, denn beide stehen in einem wechselseitig konstitutiven Zusammenhang. Dieser beschreibt zweitens in einem idealtypischen, modernen Verständnis ein Gleichgewicht, das sich durch medientechnologische Praktiken verändert hat. Drittens rührt die Bewertung von Überwachungspraktiken im Hinblick auf individuelle Handlungsfreiheit, Autonomie oder Privatheit an normativen Vorstellungen des Diskurses der Moderne, deren Prämissen in den letzten Jahrzehnten jedoch zunehmend an konzeptueller Schärfe verloren haben. „Hochinvasive“ Überwachung wird im Beitrag begrifflich eingeführt und dadurch charakterisiert, dass sie Emotionen, Persönlichkeitsmerkmale und psychologische Dispositionen zum Objekt hat. Ein solches, in weiten Teilen fiktionales Überwachungswissen über Gruppen und Einzelpersonen birgt das Risiko einer totalen Überwachungsgesellschaft. Die technische Entwicklung solcher hochinvasiver Formen der Überwachung entzieht sich weitgehend einer normativen Bewertung in tradierten Konzepten wie „Autonomie“, „Privatheit“ oder „Selbst“. Ein starres Festhalten an diesen kaschiert die wahrhaft destruktive Kraft der neuen Überwachungspraktiken.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 34.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 44.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Similar content being viewed by others

Notes

  1. 1.

    Für seine vielen hilfreichen Anmerkungen zum Manuskript danke ich herzlich Christoph Ernst.

  2. 2.

    Aus einer philosophischen Perspektive ließe sich vor allem der zweite Teil dieses Wechselverhältnisses betonen: Erst die Existenz autonomer Entitäten und ihrer Handlungsfreiheit bedingt, dass zum Zweck der Kontrolle das Instrument der Überwachung notwendig wird. Vgl. zur philosophischen Diskussion die Texte in Khurana und Menke (2011). Im vorliegenden Beitrag soll jedoch vor allem der erste Teil des Wechselverhältnisses aus einer tendenziell gesellschaftstheoretischen Lesart im Fokus stehen.

  3. 3.

    Der Autonomie-Gedanke richtet sich als Aufgabe und Programm sowohl gegen jede Auffassung des Menschen im Sinne einer bloßen Naturtheorie als auch gegen jede Art gesellschaftlicher Fremdbestimmung durch Unterdrückung. Autonomie in diesem Sinne einer Selbstgesetzgebung durch Vernunft kann als Strukturprinzip der gesamten Kantischen Philosophie verstanden werden: ‚Alle Philosophie ist Autonomie‘ (Kant 1900, Opus postumum, AA 21, S. 106; zit. n. Pohlmann 1971, S. 707).

  4. 4.

    So etwa in der Kybernetik (Wiener 1961).

  5. 5.

    Wie Sewell und Barker (2007) argumentieren auch Stoddart (2012) und Nissenbaum (2010) für eine kontextspezifische Konzeptualisierung des Werts und des Rechts auf „Privatheit“. Bei der Bewertung von Überwachung folgt daraus eine diskursiv operierende „angewandte Mikro-Ethik“, mit deren Hilfe Überwachung nicht per se qualifiziert wird, sondern sich als Praxis stets aufs Neue legitimieren muss. Wer, so fragen Sewell und Barker (2007, S. 263) beispielsweise, entscheidet über Notwendigkeit, Nutzen und Zweck von Überwachungspraktiken und zugleich über die Kriterien, nach denen sie beurteilt wird.

  6. 6.

    Siehe dazu auch den Beitrag von Ernst im vorliegenden Band.

  7. 7.

    Siehe dazu auch den Beitrag von Cap im vorliegenden Band.

  8. 8.

    Als Beispiel kann man den Kommunikationsdienst Snapchat anführen. Hinter denjenigen Chat-Kontakten, mit denen ein häufiger kommunikativer Austausch stattfindet, steht ein Flammensymbol, das anzeigt, dass zwei Interaktionspartner sich an drei aufeinanderfolgenden Tagen jeweils innerhalb von 24 Stunden eine Nachricht geschickt haben. Die Anzahl der Flammensymbole wiederum beschreibt die Anzahl der Tage, seit denen ein solcher „Snapstreak“ bereits anhält. Findet innerhalb von 24 Stunden keine Interaktion statt, endet diese von Snapchat symbolisch ausgezeichnete Interaktion und alle gesammelten Feuer gehen verloren. Beispielhaft zu nennen ist auch die gängige Praxis von Plattformen wie Facebook oder Instagram, die erwünschte und erwartete Gratifikation durch „Likes“ oder Herzen von anderen Nutzerinnen und Nutzern zeitlich verzögert darzustellen, um einen Anreiz zu geben, sich bei diesen Diensten häufiger anzumelden.

  9. 9.

    Ein völliger ‚neuronaler Determinismus‘ als Gegenentwurf zur Vernunft-Verliebtheit der Moderne ist zwar ebenfalls als einseitig zurückzuweisen. „Bewusstsein“ jedoch muss durch seine Verortung in der materiell-physikalisch determinierten Welt erklärbar sein (s. ausführlich Dennett 2017). Auch ist wichtig zu betonen, dass sich der eingangs eingeführte philosophische Autonomiebegriff nicht auf den durch das Gehirn ‚ermöglichten‘ freien Willen zu einer Entscheidung, sondern auf menschliche Leistungen in einer Kultur, insbesondere auf den Gebrauch von Sprache und das daraus resultierende Handeln in normativen Strukturen bezieht (vgl. etwa Brandom 2011). Entscheidend für das Argument hier ist demgegenüber die „neuronale Inkorporation“ zur Autonomie befähigender sozialer Strukturen.

Literatur

  • Andrejevic, M. (2007). iSpy: Surveillance and power in the interactive era. Lawrence: University Press of Kansas.

    Google Scholar 

  • Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine bias: There’s software used across the country to predict future criminals and it’s biased against blacks. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Zugegriffen: 15. März 2018.

  • Bächle, T. C. (2016a). Digitales Wissen, Daten und Überwachung zur Einführung. Hamburg: Junius.

    Google Scholar 

  • Bächle, T. C. (2016b). Das Smartphone, ein Wächter. Selfies, neue panoptische Ordnungen und eine veränderte sozialräumliche Konstruktion von Privatheit. In E. Beyvers, P. Helm, M. Hennig, C. Keckeis, I. Kreknin, & F. Püschel (Hrsg.), Räume und Kulturen des Privaten (S. 137–164). Wiesbaden: Springer VS.

    Google Scholar 

  • Bächle, T. C. (2019, i. V.). Das digitale Selbst. In M. Heßler & K. Liggieri (Hrsg.), Handbuch Historische Technikanthropologie. Baden-Baden: Nomos.

    Google Scholar 

  • Bächle, T. C., Regier, P., & Bennewitz, M. (2017). Sensor und Sinnlichkeit. Humanoide Roboter als selbstlernende soziale Interfaces und die Obsoleszenz des Impliziten. In C. Ernst & J. Schröter (Hrsg.), Medien und implizites Wissen. Navigationen. Zeitschrift für Medien und Kulturwissenschaften 2, 66–85.

    Google Scholar 

  • Bächle, T. C., Ernst, C., Schröter, J., & Thimm, C. (2018). Selbstlernende autonome Systeme? – Medientechnologische und medientheoretische Bedingungen am Beispiel von Alphabets Differentiable Neural Computer (DNC). In C. Engemann & A. Sudmann (Hrsg.), Machine Learning – Medien, Infrastrukturen und Technologien der Künstlichen Intelligenz (S. 169–194). Bielefeld: transcript.

    Google Scholar 

  • Barrett, L. F. (2017). The theory of constructed emotion: An active inference account of interoception and categorization. Social Cognitive and Affective Neuroscience, 12(1), 1–23. https://doi.org/10.1093/scan/nsw154.

    Article  Google Scholar 

  • Bauman, Z. (2004). Flüchtige Moderne. Frankfurt am Main: Suhrkamp.

    Google Scholar 

  • Berliner Zeitung/dpa. (2017). „Digitaler Leninismus“. Neue Ära der totalen Überwachung in China. Berliner Zeitung Online, 24.10.2017. https://www.berliner-zeitung.de/politik/-digitaler-leninismus–neue-aera-der-totalen-ueberwachung-in-china-28643412. Zugegriffen: 15. Nov. 2017.

  • Bogard, W. (2007). Surveillance, its simulation, and hypercontrol in virtual systems. In S. P. Hier & J. Greenberg (Hrsg.), The surveillance studies reader (S. 95–103). Maidenhead: Open University Press (Erstveröffentlichung 1996).

    Google Scholar 

  • Boyd, D., & Crawford, K. (2012). Critical questions for big data. Information. Communication & Society, 15(5), 662–679.

    Article  Google Scholar 

  • Brandom, R. B. (2011). Freiheit und Bestimmtsein durch Normen. In T. Khurana & C. Menke (Hrsg.), Paradoxien der Autonomie (S. 61–89). Berlin: August-Verlag.

    Google Scholar 

  • Breazeal, C. (2003). Toward sociable robots. Robotics and Autonomous Systems, 42(3), 167–175.

    Article  Google Scholar 

  • Bucher, T., & Helmond, A. (2017). The Affordances of Social Media Platforms. In J. Burgess, T. Poell, & A. Marwick (Hrsg.), The SAGE Handbook of Social Media (S. 233–253). London: SAGE.

    Google Scholar 

  • Calvo, R. A., D’Mello, S., Gratch, J., & Kappas, A. (Hrsg.). (2014). The Oxford handbook of affective computing. Oxford: Oxford University Press.

    Google Scholar 

  • Deleuze, G. (2017). Postskriptum über die Kontrollgesellschaften. In G. Deleuze (Hrsg.), Unterhandlungen. 1972–1990 (S. 254–262). Frankfurt a. M.: Suhrkamp (Erstveröffentlichung 1990).

    Google Scholar 

  • Dennett, D. C. (2017). Consciousness explained. New York: Boston Little Brown & Company (Erstveröffentlichung 1991).

    Google Scholar 

  • Duden. (2018): Duden Wörterbuch Online, Lemma „Autonomie“. https://www.duden.de/rechtschreibung/Autonomie; Zugegriffen: 1. Febr. 2018.

  • Duttweiler, S., Gugutzer, R., Passoth, J.-H., & Strübing, J. (Hrsg.). (2016). Leben nach Zahlen. Self-Tracking als Optimierungsprojekt (S. 9–42). Bielefeld: transcript.

    Google Scholar 

  • Eagleman, D. (2015). The brain. The story of you. New York: Pantheon Books.

    Google Scholar 

  • Esposito, E. (2007). Die Fiktion der wahrscheinlichen Realität. Frankfurt a. M.: Suhrkamp.

    Google Scholar 

  • Floridi, L. (2012). Distributed morality in an information society. Science and L.G. Ethics, 19(3), 727–743.

    Article  Google Scholar 

  • Flyverbom, M., & Madsen, A. K. (2015). Sorting data out. Unpacking big data value chains and algorithmic knowledge production. In F. Süssenguth (Hrsg.), Die Gesellschaft der Daten. Über die digitale Transformation der sozialen Ordnung (S. 123–144). Bielefeld: Transcript.

    Google Scholar 

  • Foucault, M. (1983). Der Wille zum Wissen. Sexualität und Wahrheit 1. Frankfurt a. M.: Suhrkamp.

    Google Scholar 

  • Foucault, M. (1993). Die Technologien des Selbst. In L. H. Martin, H. Gutman, & P. H. Hutton (Hrsg.), Technologien des Selbst (S. 24–62). Frankfurt a. M.: Fischer.

    Google Scholar 

  • Foucault, M. (1994). Überwachen und Strafen. Die Geburt des Gefängnisses. Frankfurt a. M.: Suhrkamp (Erstveröffentlichung 1975).

    Google Scholar 

  • Giddens, A. (1991). Modernity and self-identity: Self and society in the late modern age. Stanford/CA: Stanford University Press.

    Google Scholar 

  • Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie, P. J. Boczkowski, & K. A. Foot (Hrsg.), Media Technologies. Essays on Communication, Materiality and Society (S. 167–193). Cambridge: MIT Press.

    Google Scholar 

  • Gitelman, L., & Jackson, V. (2013). Introduction. In L. Gitelman (Hrsg.), “Raw Data” is an Oxymoron (S. 1–14). Cambridge: MIT Press.

    Chapter  Google Scholar 

  • Goffman, E. (1963). Stigma. Notes on the management of spoiled identity. New York: Simon & Schuster.

    Google Scholar 

  • Habermas, J. (1990). Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Frankfurt a. M.: Suhrkamp (Erstveröffentlichung 1962).

    Google Scholar 

  • Hall, S. (1996). Introduction. Who needs ‚Identity‘? In S. Hall & P. du Gay (Hrsg.), Questions of cultural identity (S. 1–17). Cambridge: Sage.

    Google Scholar 

  • Hegel, F., Muhl, C., Wredel, B., Hielscher-Fastabend, M. & Sagerer, G. (2009). Understanding Social Robots. In The Second International Conference on Advances in Computer-Human Interactions (ACHI), Cancun 2009, 169–174.

    Google Scholar 

  • Hellige, H. D. (2008). Paradigmenwechsel der Computer-Bedienung aus technikhistorischer Perspektive. In H. D. Hellige (Hrsg.), Mensch-Computer-Interface. Zur Geschichte und Zukunft der Computerbedienung (S. 11–92). Bielefeld: transcript.

    Chapter  Google Scholar 

  • Höflich, J. R. (2011). Mobile Kommunikation im Kontext. Studien zur Nutzung des Mobiltelefons im öffentlichen Raum. Frankfurt a. M.: Lang.

    Book  Google Scholar 

  • Jenkins, R. (2008). Social identity. London: Routledge.

    Google Scholar 

  • Kant, I. (1900). Gesammelte Schriften. Hrsg.: Bd. 1–22 Preussische Akademie der Wissenschaften, Bd. 23 Deutsche Akademie der Wissenschaften zu Berlin, ab Bd. 24 Akademie der Wissenschaften zu Göttingen.

    Google Scholar 

  • Khurana, T. (2011). Paradoxien der Autonomie. Zur Einleitung. In T. Khurana & C. Menke (Hrsg.), Paradoxien der Autonomie (S. 7–23). Berlin: August-Verlag.

    Google Scholar 

  • Kosinski, M., Stillwell, D., & Graepel, T. (2013). Private traits and attributes are predictable from digital records of human behavior. PNAS 110(15), 5802–5805. https://doi.org/10.1073/pnas.1218772110.

    Article  Google Scholar 

  • Latour, B. (2008). Wir sind nie modern gewesen. Frankfurt a. M.: Suhrkamp.

    Google Scholar 

  • Lyon, D. (2002). Everyday surveillance. Personal data and social classifications. Information, Communication and Society, 51(1), 1–16.

    Google Scholar 

  • Lyon, D., Haggarty, K. D., & Ball, K. (2012). Introducing surveillance studies. In K. Ball, K. D. Haggarty, & D. Lyon (Hrsg.), Routledge handbook of surveillance studies (S. 1–11). London: Routledge.

    Google Scholar 

  • Manovich, L. (2013). Software takes command. New York: Bloomsbury (Erstveröffentlichung 2008).

    Google Scholar 

  • Marx, G. T. (2004). What’s new about the „New Surveillance“? Classifying for change and continuity. Knowledge Technology & Policy, 17(1), 18–37.

    Article  Google Scholar 

  • Mirsch, T., Lehrer, C., & Jung, R. (2017). Digital nudging: Altering user behavior in digital environments. In J. M. Leimeister & W. Brenner (Hrsg.), Proceedings der 13. Internationalen Tagung Wirtschaftsinformatik (WI 2017), St. Gallen 2017, 634–648.

    Google Scholar 

  • Misselhorn, C. (2009). Empathy with inanimate objects and the Uncanny Valley. Minds and Machines, 19, 345–359.

    Article  Google Scholar 

  • MIT Moral Machine. (2018). MIT Moral Machine. http://moralmachine.mit.edu/hl/de. Zugegriffen: 15. April 2018.

  • Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 1–21.

    Article  Google Scholar 

  • Nissenbaum, H. (2010). Privacy in context. Technology, policy and the integrity of social life. Stanford: Stanford Law Books.

    Google Scholar 

  • O’Neil, C. (2017). Weapons of math destruction. How big data increases inequality and threatens democracy. London: Penguin.

    Google Scholar 

  • Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Cambridge: Harvard University Press.

    Book  Google Scholar 

  • Picard, R. (1997). Affective computing. Cambridge/MA: MIT Press.

    Google Scholar 

  • Pohlmann, R. (1971). Autonomie. In J. Ritter (Hrsg.), Historisches Wörterbuch der Philosophie (Bd. 1, S. 701–719). Darmstadt: Wissenschaftliche Buchgesellschaft.

    Google Scholar 

  • Rammert, W. (2008). Where the action is: Distributed agency between humans, machines, and programs. In J. H. Kim, U. Seifert, & A. Moore (Hrsg.), Paradoxes of Interactivity (S. 62–91). Bielefeld: transcript.

    Google Scholar 

  • Rose, N. (1996). Assembling the modern self. In R. Porter (Hrsg.), Rewriting the self. Histories from the renaissance to the present (S. 224–248). London: Routledge.

    Google Scholar 

  • Rose, N. (1998). Inventing our selves: Psychology, power and personhood. Cambridge: Cambridge University Press.

    Google Scholar 

  • Rössler, B. (2001). Der Wert des Privaten. Frankfurt a. M.: Suhrkamp.

    Google Scholar 

  • Rouvroy, A. (2013). The end(s) of critique. Data-behaviorism vs. due-process. In M. Hildebrandt & K. de Vries (Hrsg.), Privacy, due process and the computational turn. The philosophy of law meets the philosophy of technology (S. 143–167). London: Routledge.

    Google Scholar 

  • Rule, J. B. (2007). Social control and modern social structure. In S. P. Hier & J. Greenberg (Hrsg.), The surveillance studies reader (S. 19–27). Maidenhead: Open University Press (Erstveröffentlichung 1973).

    Google Scholar 

  • Schnell, M. (2018). Ethik der digitalen Gesundheitskommunikation. In V. Scherenberg & J. Pundt (Hrsg.), Digitale Gesundheitskommunikation zwischen Meinungsbildung und Manipulation (S. 277–290). Bremen: Apollon University Press.

    Google Scholar 

  • Sewell, G., & Barker, J. R. (2007). Neither good, nor bad, but dangerous: Surveillance as an ethical paradox. In S. P. Hier & J. Greenberg (Hrsg.), The surveillance studies reader (S. 354–367). Maidenhead: Open University Press (Erstveröffentlichung 2001).

    Google Scholar 

  • Selke, S. (2016). Lifelogging. Digitale Selbstvermessung und Lebensprotokollierung zwischen disruptiver Technologie und kulturellem Wandel. Wiesbaden: Springer.

    Google Scholar 

  • Sennett, R. (1983). Verfall und Ende des öffentlichen Lebens. Die Tyrannei der Intimität. Frankfurt a. M.: Fischer.

    Google Scholar 

  • Sheller, M., & Urry, J. (2007). Mobile transformations of ‚public‘ and ‚private‘ life. In S. P. Hier & J. Greenberg (Hrsg.), The surveillance studies reader (S. 327–336). Maidenhead: Open University Press (Erstveröffentlichung 2003).

    Google Scholar 

  • Siciliano, B., & Khatib, O. (Hrsg.). (2016). Springer handbook of robotics. Berlin: Springer.

    Google Scholar 

  • Stoddart, E. (2012). A surveillance of care. Evaluating surveillance ethically. In K. Ball, K. D. Haggarty, & D. Lyon (Hrsg.), Routledge handbook of surveillance studies (S. 369–376). London: Routledge.

    Google Scholar 

  • Tao, J., & Tan, T. (2005). Affective computing. A Review. In J. Tao, T. Tan, & R. W. Picard (Hrsg.), Proceedings. Affective computing and intelligent interaction. First International Conference, ACII, Peking 2005, 981–995.

    Google Scholar 

  • Thaler, R. H., & Sunstein, C. R. (2008). Nudge: Improving decisions about health, wealth, and happiness. New Haven: Yale University Press.

    Google Scholar 

  • Thimm, C., & Bächle, T. C. (2018). Autonomie der Technologie und autonome Systeme als ethische Herausforderung. In M. Karmasin, F. Krotz, & M. Rath (Hrsg.), Maschinenethik. Normative Grenzen autonomer Systeme (S. 73–87). Wiesbaden: Springer VS.

    Google Scholar 

  • Wiener, N. (1961). Cybernetics: Or Control and communication in the animal and the machine. Cambridge: MIT Press.

    Google Scholar 

  • Zuboff, S. (2015). Big Other: Surveillance capitalism and the prospects of an information civilization. Journal of Information Technology 30, 75–89. https://doi.org/10.1057/jit.2015.5.

    Article  Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Thomas Christian Bächle .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2019 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Bächle, T.C. (2019). „Hochinvasive Überwachung“ und der Verlust der Autonomie (die es nie gab?). In: Thimm, C., Bächle, T. (eds) Die Maschine: Freund oder Feind?. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-22954-2_11

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-22954-2_11

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-22953-5

  • Online ISBN: 978-3-658-22954-2

  • eBook Packages: Social Science and Law (German Language)

Publish with us

Policies and ethics