Skip to main content
Log in

Die digitale Versuchung

Wie digitale Technologien die politischen Fundamente freiheitlicher Gesellschaften herausfordern

The Digital Temptation

How Digital Technologies Challenge the Political Bases of free Societies

Politische Vierteljahresschrift Aims and scope Submit manuscript

Zusammenfassung

Das chinesische Sozial-Kredit-System ist in westlichen Demokratien als Antithese zur Idee der freiheitlichen Gesellschaft aufgenommen worden. Es erscheint als technologiegestützte Verwirklichung totalitärer Überwachung und Steuerung. Aus europäischer Sicht mag es geografisch wie ideell ein abseitiges Gegenmodell darstellen, doch steckt darin zugleich eine Verheißung, für die auch freiheitliche Gesellschaften empfänglich sind. So stellt die Existenz der Technologien, die jenes Sozialkreditsystem ermöglichen, die Demokratie auf eine Probe. Denn dieselben Technologien können ebenso der Verwirklichung des individualistischen Traums dienen, dem Menschen immer besser das zu geben, was er will – jedoch zugleich unter Bedingungen zunehmender Abhängigkeit. Real existierende Demokratien sehen sich damit einer besonderen Versuchung gegenüber, paternalistischen Formen der Machtausübung mehr Raum zu geben. Wie sie mit dieser Versuchung umgehen, wird davon abhängen, inwieweit sie einer zentralen Lehre politischen Denkens stärkeren Ausdruck verleihen: Dass zu bekommen, was man will, nicht gleichbedeutend mit Freiheit ist und sogar auf das Gegenteil hinauslaufen kann.

Abstract

The Chinese Social Credit System has been perceived in liberal democracies as the antithesis to the idea of a free society. It appears as the technologically supported realization of totalitarian surveillance and control. Yet, it also contains a promise to which free societies, too, are very much susceptible. The mere fact that the technologies behind the Social Credit System exist presents a challenge for democracy. The same set of technologies can also serve the realization of the individualist dream to better give people whatever they want—albeit under increased dependency. Really-existing democracies thus face a special kind of temptation, namely to give more space to paternalist forms of power. How they deal with this temptation will depend on whether they can lend greater force to a core lesson of political thought: That getting what one wants is not the same as freedom—and can even mean its exact opposite.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Institutional subscriptions

Notes

  1. Auch manche Computerspiele, besonders solche mit einer sozialen Komponente, sind so gestaltet, dass sie in ähnlicher Manier durch ausgeklügelte Belohnungssysteme die Spielerinnen und Spieler zum Weiterspielen sowie zum käuflichen Erwerb von bestimmten Zusatzleistungen motivieren (Johansson und Götestam 2004; Sheth et al. 2011; Forsa 2019).

  2. Dabei dürfte es kein Zufall sein, dass die Innovationen und Techniken zur Verhaltensvorhersage und -steuerung vielfach militärische und nachrichtendienstliche Wurzeln haben.

  3. An der Grenze zwischen analoger und digitaler Welt gibt es ein illustratives Beispiel für eine solche Beziehung. So haben Forscherinnen wie Karen Yeung (2017a) und Shoshana Zuboff (2018) auf eine Studie zu Bemühungen von US-Spielcasino-Betreibern zurückgegriffen, um die paternalisierende Stoßrichtung bestimmter datenbasierter Geschäftsmodelle hervorzuheben. Ähnlich wie bei den möglichst anziehend gestalteten Online-Diensten haben die Casinobetreiber auf Basis der Auswertung großer Datenbestände das Erlebnis ihrer Kunden minutiös geplant und ihre Einrichtung und Angebote bis hin zu den Spielmaschinen für die Kunden gezielt so entworfen, dass diese möglichst lange in den Casinos und an den Spielgeräten gehalten werden.

  4. Ich danke der Redaktion der PVS für den Hinweis zur sinnvollen Differenzierung von algorithmischen Entscheidungssystemen hinsichtlich ihrer Konsequenzen für persönliche Autonomie.

Literatur

  • Acquisti, Alessandro. 2004. Privacy in electronic commerce and the economics of immediate gratification. In EC ’04 proceedings of the 5th ACM conference on electronic commerce, Hrsg. Jack Breese, Joan Feigenbaum, und Margo Seltzer, 21–29. New York: ACM Press.

    Chapter  Google Scholar 

  • Acquisti, Alessandro, und Jens Grossklags. 2005. Privacy and rationality in individual decision making. IEEE Security and Privacy Magazine 3(1):26–33. https://doi.org/10.1109/MSP.2005.22.

    Article  Google Scholar 

  • Arendt, Hannah. 2018. Die Freiheit, frei zu sein. München: dtv.

    Google Scholar 

  • Balkin, Jack M. 2017. Free speech in the algorithmic society: Big data, private governance, and new school speech regulation. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3038939.

    Article  Google Scholar 

  • Barocas, Solon, und Andrew D. Selbst. 2016. Big data’s disparate impact. California Law Review 104:671–732.

    Google Scholar 

  • Berk, Richard, Hoda Heidari, Shahin Jabbari, Michael Kearns, und Aaron Roth. 2018. Fairness in criminal justice risk assessments: The state of the art. Sociological Methods & Research. https://doi.org/10.1177/0049124118782533.

    Article  Google Scholar 

  • Binns, Reuben. 2017. Algorithmic accountability and public reason. Philosophy & Technology. https://doi.org/10.1007/s13347-017-0263-5.

    Article  Google Scholar 

  • Brandimarte, Laura, und Alessandro Acquisti. 2012. The economics of privacy. In The Oxford handbook of the digital economy, Hrsg. Martin Peitz, Joel Waldfogel, 547–571. New York: Oxford University Press.

    Google Scholar 

  • Bröckling, Ulrich. 2017. Gute Hirten führen sanft: über Menschenregierungskünste. Berlin: Suhrkamp.

    Google Scholar 

  • Bucher, Taina. 2018. If...then: algorithmic power and politics. New York: Oxford University Press.

    Book  Google Scholar 

  • Chen, Yongxi, und Anne S.Y. Cheung. 2017. The transparent self under big data profiling: Privacy and Chinese legislation on the social credit system. The Journal of Comparative Law 12(2):356–378. https://doi.org/10.2139/ssrn.2992537.

    Article  Google Scholar 

  • Coglianese, Cary, und David Lehr. 2019. Transparency and algorithmic governance. Administrative Law Review 71:1.

    Google Scholar 

  • Compañó, Ramón, und Wainer Lusoli. 2010. The policy maker’s anguish: Regulating personal data behavior between paradoxes and dilemmas. In Economics of Information Security and Privacy, Hrsg. Tyler Moore, David Pym, und Christos Ioannidis, 169–185. Boston: Springer.

    Chapter  Google Scholar 

  • Crawford, Kate, und Ryan Calo. 2016. There is a blind spot in AI research. Nature 538(7625):311–313. https://doi.org/10.1038/538311a.

    Article  Google Scholar 

  • Dai, Xin. 2018. Toward a reputation state: The social credit system project of China. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3193577.

    Article  Google Scholar 

  • Eyal, Nir. 2014. Hooked: How to build habit-forming products. London: Portfolio Penguin.

    Google Scholar 

  • Forsa. 2019. Geld für Games – wenn Computerspiel zum Glücksspiel wird. Berlin: forsa.

    Google Scholar 

  • Frankfurt, Harry G. 2013. Freedom of the will and the concept of a person. In The philosophy of free will: Essential readings from the contemporary debates, Hrsg. Paul Russell, Oisín Deery, 253–266. New York: Oxford University Press.

    Google Scholar 

  • Fromm, Erich. 2018. Die Furcht vor der Freiheit, 22. Aufl., München: dtv.

    Google Scholar 

  • Herder, Janosik. 2018. Regieren Algorithmen? Über den sanften Einfluss algorithmischer Modelle. In (Un)Berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, Hrsg. Resa Mohabbat Kar, Basantas E.P. Thapa, und Peter Parycek, 179–203. Berlin: Kompetenzzentrum Öffentliche IT.

    Google Scholar 

  • Hildebrandt, Mireille. 2016. Law as information in the era of data-driven agency: Law as information. The Modern Law Review 79(1):1–30. https://doi.org/10.1111/1468-2230.12165.

    Article  Google Scholar 

  • Hofstetter, Yvonne. 2018. Das Ende der Demokratie: wie die künstliche Intelligenz die Politik übernimmt und uns entmündigt. München: Penguin.

    Google Scholar 

  • Johansson, Agneta, und K. Gunnar Götestam. 2004. Problems with computer games without monetary reward: Similarity to pathological gambling. Psychological Reports 95(2):641–650. https://doi.org/10.2466/pr0.95.2.641-650.

    Article  Google Scholar 

  • Just, Natascha, und Michael Latzer. 2017. Governance by algorithms: Reality construction by algorithmic selection on the Internet. Media, Culture & Society 39(2):238–258. https://doi.org/10.1177/0163443716643157.

    Article  Google Scholar 

  • König, Pascal D. 2019. Dissecting the algorithmic leviathan: On the socio-political anatomy of algorithmic governance. Philosophy & Technology. https://doi.org/10.1007/s13347-019-00363-w.

    Article  Google Scholar 

  • Lanzing, Marjolein. 2018. “Strongly recommended” revisiting decisional privacy to judge hypernudging in self-tracking technologies. Philosophy & Technology. https://doi.org/10.1007/s13347-018-0316-4.

    Article  Google Scholar 

  • Lepri, Bruno, Oliver Nuria, Emmanuel Letouzé, Alex Pentland, und Patrick Vinck. 2018. Fair, transparent, and accountable algorithmic decision-making processes: The premise, the proposed solutions, and the open challenges. Philosophy & Technology 31(4):611–627. https://doi.org/10.1007/s13347-017-0279-x.

    Article  Google Scholar 

  • Mittelstadt, Brent Daniel, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter, und Luciano Floridi. 2016. The ethics of algorithms: Mapping the debate. Big Data & Society 3(2):1–21. https://doi.org/10.1177/2053951716679679.

    Article  Google Scholar 

  • Morozov, Evgeny. 2014. To save everything, click here: Technology, solutionism and the urge to fix problems that don’t exist. London: Penguin.

    Google Scholar 

  • Napoli, Philip M. 2014. Automated media: An institutional theory perspective on algorithmic media production and consumption. Communication Theory 24(3):340–360. https://doi.org/10.1111/comt.12039.

    Article  Google Scholar 

  • Nemitz, Paul. 2018. Constitutional democracy and technology in the age of artificial intelligence. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 376(2133):1–14. https://doi.org/10.1098/rsta.2018.0089.

    Article  Google Scholar 

  • Nocun, Katharina. 2018. Die Daten, die ich rief: wie wir unsere Freiheit an Großkonzerne verkaufen. Köln: Lübbe.

    Google Scholar 

  • Norberg, Patricia A., Daniel R. Horne, und David A. Horne. 2007. The privacy paradox: Personal information disclosure intentions versus behaviors. Journal of Consumer Affairs 41(1):100–126. https://doi.org/10.1111/j.1745-6606.2006.00070.x.

    Article  Google Scholar 

  • Pasquale, Frank. 2015. The Black box society: The secret algorithms that control money and information. Cambridge, London: Harvard University Press.

    Book  Google Scholar 

  • Pettit, Philip. 1999. Republicanism: A theory of freedom and government. Oxford: Oxford University Press.

    Book  Google Scholar 

  • Przeworski, Adam. 1999. Minimalist conception of democracy: A defense. In Democracy’s value, Hrsg. Ian Shapiro, Casiano Hacker-Cordón, 23–55. Cambridge: Cambridge University Press.

    Google Scholar 

  • Rahwan, Iyad. 2017. Society-in-the-loop: Programming the algorithmic social contract. Ethics and Information Technology. https://doi.org/10.1007/s10676-017-9430-8.

    Article  Google Scholar 

  • Reisman, Dillon, Jason Schultz, Kate Crawford, und Meredith Whittaker. 2018. Algorithmic impact assessments: A practical framework for public agency accountability. New York: AINow Institute, New York University.

    Google Scholar 

  • Rouvroy, Antoinette. 2013. The end(s) of critique: data behaviorism versus due process. In Privacy, due process and the computational turn: The philosophy of law meets the philosophy of technology, Hrsg. Mireille Hildebrandt, Katja de Vries, 143–167. Milton Park: Routledge.

    Google Scholar 

  • Sartre, Jean-Paul. 2006. Wahrheit und Existenz, 2. Aufl., Reinbek bei Hamburg: Rowohlt.

    Google Scholar 

  • Saurwein, Florian. 2019. Automatisierung, Algorithmen, Accountability: Eine Governance Perspektive. In Maschinenethik, Hrsg. Matthias Rath, Friedrich Krotz, und Matthias Karmasin, 35–56. Wiesbaden: Springer.

    Chapter  Google Scholar 

  • Sheth, Swapneel, Jonathan Bell, und Gail Kaiser. 2011. HALO (highly addictive, socially optimized) software engineering. GAS ’11, Waikiki. Proceeding of the 1st international workshop on games and software engineering. http://portal.acm.org/citation.cfm?doid=1984674.1984685. Zugegriffen: 2. Juli 2019.

    Book  Google Scholar 

  • Spiekermann, Sarah. 2019. Digitale Ethik: ein Wertesystem für das 21. Jahrhundert. München: Droemer.

    Google Scholar 

  • Urbinati, Nadia. 2014. Democracy disfigured: Opinion, truth, and the people. Cambridge: Harvard University Press.

    Book  Google Scholar 

  • Wang, Zheng, John M. Tchernev, und Tyler Solloway. 2012. A dynamic longitudinal examination of social media use, needs, and gratifications among college students. Computers in Human Behavior 28(5):1829–1839. https://doi.org/10.1016/j.chb.2012.05.001.

    Article  Google Scholar 

  • Winfield, Alan F. T., und Marina Jirotka. 2018. Ethical governance is essential to building trust in robotics and artificial intelligence systems. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 376(2133):1–13. https://doi.org/10.1098/rsta.2018.0085.

    Article  Google Scholar 

  • Yeung, Karen. 2017a. Algorithmic regulation: A critical interrogation. Regulation & Governance https://doi.org/10.1111/rego.12158.

    Article  Google Scholar 

  • Yeung, Karen. 2017b. ‘Hypernudge’: Big Data as a mode of regulation by design. Information, Communication & Society 20(1):118–136. https://doi.org/10.1080/1369118X.2016.1186713.

    Article  Google Scholar 

  • Zuboff, Shoshana. 2018. Das Zeitalter des Überwachungskapitalismus. Frankfurt, New York: Campus.

    Google Scholar 

  • Zweig, Katharina A. 2019. Algorithmische Entscheidungen: Transparenz und Kontrolle. Berlin: Konrad Adenauer Stiftung.

    Google Scholar 

  • Zweig, Katharina A., und Tobias D. Krafft. 2018. Fairness und Qualität algorithmischer Entscheidungen. In (Un)Berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft, Hrsg. Resa Mohabbat Kar, Basantas E. P. Thapa, und Peter Parycek, 204–227. Berlin: Kompetenzzentrum Öffentliche IT.

    Google Scholar 

Download references

Danksagung

Ich danke der PVS-Redaktion für kritische Anmerkungen und wertvolles Feedback. Mein Dank gilt außerdem Katharina Zweig für ihre hilfreichen Anregungen und Kommentare zu einer früheren Version des Manuskripts.

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Pascal D. König.

Rights and permissions

Reprints and permissions

About this article

Check for updates. Verify currency and authenticity via CrossMark

Cite this article

König, P.D. Die digitale Versuchung. Polit Vierteljahresschr 60, 441–459 (2019). https://doi.org/10.1007/s11615-019-00171-z

Download citation

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1007/s11615-019-00171-z

Schlüsselwörter

Keywords

Navigation