Advertisement

Automatisierung, Algorithmen, Accountability

Eine Governance Perspektive
  • Florian SaurweinEmail author
Chapter
Part of the Ethik in mediatisierten Welten book series (EMW)

Zusammenfassung

Algorithmen und Prozesse algorithmischer Selektion durchdringen Wirtschaft und Gesellschaft. Mit der starken Verbreitung, dem steigenden Einfluss und den vorhandenen Risiken von Algorithmen stellt sich auch die Verantwortungsfrage (Accountability). Der Beitrag bietet einen Überblick zu bestehenden Verantwortungsstrukturen im Bereich algorithmischer Selektion aus einer Governance-Perspektive. Im Verantwortungsnetzwerk agieren Nutzer, Unternehmen, Entwickler, Technologien, Verbände, Experten und der Staat, die mit unterschiedlichen Verantwortlichkeitskonzepten in Verbindung gebracht werden: Von der Eigenverantwortung (Nutzer) und Accountability-by-Design (Technologie) über Corporate Social Responsibility (Unternehmen) bis zu Accountability Reporting (Journalismus). Die vielfältigen Verantwortungsträger, verteiltes Handeln und die unterschiedlichen Verantwortungskonzepte verweisen in Summe auf eine “verteilte Verantwortlichkeit” (Distributed Accountability) im Bereich algorithmischer Selektion, deren Implikationen noch nicht hinlänglich erfasst sind.

Schlagwörter

Automatisierung Algorithmen Accountability Governance verteilte Verantwortlichkeit 

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. Ajunwa, I., Crawford, K., & Schulz, J. (2017). Limitless Worker Surveillance. California Law Review, 105 (3), Forthcoming. Available at SSRN: https://ssrn.com/abstract=2746211.
  2. Ananny, M. (2016). Toward an Ethics of Algorithms: Convening, Observation, Probability, and Timeliness. Science, Technology & Human Values, 41 (1), S. 93–117.Google Scholar
  3. Ananny, M., & Crawford, K. (2016). Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society (Online first,  https://doi.org/10.1177/1461444816676645).
  4. Angwin, J., Larson, J., Mattu S., & Kirchner, L. (2016). Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
  5. Barocas, S., Hood, S., & Ziewitz, M. (2013). Governing Algorithms: A Provocation Piece. http://ssrn.com/abstract=2245322 (Zugriff 28.03.2017).
  6. Beam, M. A. (2014). Automating the news: How personalized news recommender system design choices impact news reception. Communication Research, 41 (8), S. 1019–1041.Google Scholar
  7. Beck, S. (2012). Brauchen wir ein Roboterrecht? Ausgewählte juristische Fragen zum Zusammenleben von Menschen und Robotern. In Japanisch-Deutsches Zentrum (Hrsg.), Mensch-Roboter-Interaktionen aus interkultureller Perspektive. Japan und Deutschland im Vergleich (S. 124–146). Berlin.Google Scholar
  8. Beer, D. (2013). Popular Culture and New Media: The Politics of Circulation. London: Palgrave Macmillan.Google Scholar
  9. Beer, D. (2016). Metric power. London: Palgrave Macmillan.Google Scholar
  10. Berger, J. (2016). Die Manipulation von Denken und Handeln ist zur treibenden Kraft der IT-Entwicklung geworden. NachDenkSeiten. http://www.nachdenkseiten.de/?p=35940 (Zugriff 22.11.2016).
  11. Beuth, P. (2016). Twitter-Nutzer machen Chatbot zur Rassistin. Zeit Online. http://www.zeit.de/digital/internet/2016-03/microsoft-tay-chatbot-twitter-rassistisch (Zugriff 24.03.2016).
  12. Binns, R. (2017). Algorithmic Accountability and Public Reason. Philosophy & Technology. doi: 24 May 2017.  https://doi.org/10.1007/s13347-017-0263-5
  13. BMVI (2016). Auftaktsitzung der Ethik-Kommission zum automatisierten Fahren. Pressemitteilung. 157/2016.https://www.bmvi.de/SharedDocs/DE/Pressemitteilungen/2016/157-dobrindt-ethikkommission.html.
  14. Bovens, M. (2007). Analysing and assessing accountability: a conceptual framework. European Law Journal, 13 (4), S. 447–468.Google Scholar
  15. Bovens, M. (2010). Two Concepts of Accountability: Accountability as a Virtue and as a Mechanism. West European Politics, 33 (5), S. 946–967.Google Scholar
  16. Bozdag, E. (2013). Bias in Algorithmic Filtering and Personalization. Ethics and Information Technology, 15 (3), S. 209–227.Google Scholar
  17. Bucher, T. (2012). Want to be on top? Algorithmic power and the threat of invisibility on Facebook. New Media & Society, 14 (7), S. 1164–1180.Google Scholar
  18. Bunz, M. (2012). Die stille Revolution. Berlin: Suhrkamp.Google Scholar
  19. Cellan-Jones, R. (2014). Stephen Hawking warns artificial intelligence could end mankind. BBC News. http://www.bbc.com/news/technology-30290540 (Zugriff 2.12.2014).
  20. Christl, W. (2014). Kommerzielle digitale Überwachung im Alltag. Studie im Auftrag der Bundesarbeitskammer. Wien.Google Scholar
  21. Christl, W., & Spiekermann, S. (2016). Networks of Control. Wien: Facultas.Google Scholar
  22. Citron, D., & Pasquale, F. (2014). The Scored Society: Due Process for Automated Predictions. Washington Law Review, 89 (1), S. 1–33.Google Scholar
  23. Danaher, J. (2016). The Threat of Algocracy: Reality, Resistance and Accommodation. Philosophy & Technology, 29 (3), S. 245–268.Google Scholar
  24. Diakopoulos, N. (2015). Algorithmic Accountability. Journalistic investigation of computational power structures. Digital Journalism, 3 (3), S. 398–415.Google Scholar
  25. Diakopoulos, N., & Friedler, S. (2016). How to Hold Algorithms Accountable. MIT Technology Review. https://www.technologyreview.com/s/602933/how-to-hold-algorithms-accountable/ (Zugriff 17.11.2016).
  26. Dörr, N. (2016). Mapping the field of Algorithmic Journalism. Digital Journalism, 4 (6), S. 700–722.Google Scholar
  27. Dörr, N., Köberer, N., & Haim, M. (2017). Normative Qualitätsansprüche an algorithmischen Journalismus. In I. Stapf, M. Prinzing, & A. Filipovic (Hrsg.), Gesellschaft ohne Diskurs? Digitaler Wandel und Journalismus aus medienethischer Perspektive (S. 121–133). Baden-Baden: Nomos.Google Scholar
  28. Eberwein, T., & Porlezza, C. (2014). The missing link: Online media accountability practices and their implications for European media policy. Journal of Information Policy 4, S. 421–443.Google Scholar
  29. Edelman, B. (2011). Bias in Search Results? Diagnosis and Response. Indian Journal of Law and Technology 7, S. 16–32.Google Scholar
  30. Elish, M., & Hwang, T. (2015). Praise the Machine! Punish the Human! The Contradictory History of Accountability in Automated Aviation. Working Paper, Data & Society Research Institute.Google Scholar
  31. Europäisches Parlament (2016). Entwurf eines Berichts mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich der Robotik (2015/2103(INL)). http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+COMPARL+PE-582.443+01+-DOC+PDF+V0//DE& (Zugriff 31.5.2016).
  32. FAZ.net (2016). Merkel fordert mehr Transparenz von Google und Facebook. FAZ.net. http://www.faz.net/aktuell/wirtschaft/netzwirtschaft/angela-merkel-fordert-mehr-transparenzvon-google-facebook-14497819.html (Zugriff 25.10.2016).
  33. Fisher, E. C. (2014). The European Union in the Age of Accountability. Oxford Journal of Legal Studies, 24 (3), S. 495–515.Google Scholar
  34. Freimann, H. (2016). Ethikkommission wagt sich in die Welt des automatisierten Fahrens. Vdi Nachrichten. http://www.vdi-nachrichten.com/Gesellschaft/Ethikkommission-wagt-sich-in-Welt-automatisierten-Fahrens (Zugriff 24.11.2016).
  35. Funiok, R. (2002). Medienethik: Trotz Stolpersteinen ist der Wertediskurs über Medien unverzichtbar. In M. Karmasin (Hrsg.), Medien und Ethik (S. 37–58). Stuttgart: Reclam.Google Scholar
  36. Gangadharan, S. P. (2016). With Algorithmic Accountability, Different Remedies Bear Different Costs for Consumers. LSE Blog. http://blogs.lse.ac.uk/mediapolicyproject/2016/04/08/with-algorithmic-accountability-different-remedies-bear-different-costs-for-consumers/ (Zugriff 8.04.2016).
  37. Gillespie, T. (2014). The Relevance of Algorithms. In T. Gillespie, P. Boczkowski, & K. Foot (Hrsg.), Media Technologies: Essays on Communication, Materiality, and Society (S. 167–193). Cambridge, MA: MIT Press.Google Scholar
  38. Gourarie, C. (2016). Investigating the algorithms that govern our lives. Columbia Journalism Review. https://de.scribd.com/document/309146333/Investigating-the-Algorithms-That-Govern-Our-Lives-Columbia-Journalism-Review (Zugriff 14.04.2016).
  39. Hannak, A., Soeller, G., Lazer, D., Mislove, A., & Wilson, C. (2014). Measuring Price Discrimination and Steering on E-commerce Web Sites. ACM Internet Measurement Conference (IMC ‘14).  https://doi.org/10.1145/2663716.2663744.
  40. Helbing D. et al. (2015). Digitale Demokratie statt Datendiktatur. Spektrum der Wissenschaft. http://www.spektrum.de/news/wie-algorithmen-und-big-data-unsere-zukunft-bestimmen/1375933 (Zugriff 17.12.2015).
  41. Helbing, D. (2015). The Automation of Society Is Next: How to Survive the Digital Revolution. CreateSpace.Google Scholar
  42. Hilgendorf, E. (2012). Können Roboter schuldhaft handeln? In S. Beck (Hrsg.), Jenseits von Mensch und Maschine. Ethische und rechtliche Fragen zum Umgang mit Robotern, Künstlicher Intelligenz und Cyborgs (S. 119–132). Baden-Baden: Nomos.Google Scholar
  43. Human Rights Watch (2015). Mind the Gap: The Lack of Accountability for Killer Robots. Human Rights Watch.Google Scholar
  44. Jaakonsaari, L. (2016). EU framework on algorithmic accountability and transparency. Parliamentary question to the Commission, E-007674-16 (Zugriff 11.10.2016).Google Scholar
  45. Johnson, D. G. (2011). Software Agents, Anticipatory Ethics, and Accountability. In G. E. Marchant, B. R. Allenby, & J. R. Herkert (Hrsg.), The Growing Gap Between Emerging Technologies and Legal-Ethical Oversight (S. 61–76). Springer.Google Scholar
  46. Just, N., & Latzer, M. (2017). Governance by Algorithms: Reality Construction by Algorithmic Selection on the Internet. Media, Culture & Society, 39 (2), 238–258.Google Scholar
  47. Karmasin, M., & Weder, F. (2008). Organisationskommunikation und CSR: Neue Herausforderungen für Kommunikationsmanagement und PR. Wien: Lit Verlag.Google Scholar
  48. Knight, W. (2017), The Dark Secret at the Heart of AI. MIT Technology Review. https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/ (Zugriff 11.04.2017).
  49. Koops, B.-J., Oosterlaken, I., Romijn, H., Swierstra, T., & van den Hoven, J. (2015). Responsible Innovation 2. Concepts, Approaches, and Applications. Springer.Google Scholar
  50. Kroll, J. A., Huey, J., Barocas, S. , Felten, E. W., Reidenberg, J. R., Robinson, D. G., & Yu, H. (2016). Accountable Algorithms. University of Pennsylvania Law Review, 165. http://ssrn.com/abstract=2765268 (Zugriff 28.03.2017).
  51. Latour, B. (2005). Reassembling the Social. An Introduction to Actor-Network-Theory. Oxford: Oxford University Press.Google Scholar
  52. Latzer, M., Gewinner, J., Hollnbuchner, K., Just, N., & Saurwein, F. (2014). Algorithmische Selektion im Internet: Ökonomie und Politik automatisierter Relevanzzuweisung in der Informationsgesellschaft. Forschungsbericht. Abteilung Medienwandel & Innovation, Universität Zürich, IPMZ.Google Scholar
  53. Latzer, M., Hollnbuchner, K., Just, N., & Saurwein, F. (2016). The economics of algorithmic selection on the Internet. In J. Bauer & M. Latzer, (Hrsg.), Handbook on the Economics of the Internet (S. 395–425). Cheltenham. Northampton: Edward Elgar.Google Scholar
  54. Latzer, M., Just, N., Saurwein, F., & Slominski, P. (2002). Selbst- und Ko-Regulierung im Mediamatiksektor. Alternative Regulierungsformen zwischen Staat und Markt. Wiesbaden: Westdeutscher Verlag.Google Scholar
  55. Latzer, M., Just, N., Saurwein, F., & Slominski, P. (2003). Regulation remixed: institutional change through self and co-regulation in the mediamatics sector. Communications & Strategies, 50 (2), S. 127–157.Google Scholar
  56. Lauer, C. (2016). Gesetzesbrecher im Netz. Die Internet-Charta, die Justizminister Heiko Maas vorschlägt, muss griffiger werden. Eine Entgegnung. Zeit Online. http://www.zeit.de/2016/02/internet-charta-heiko-maas-grundgesetz (Zugriff 7.01.2016).
  57. Lobe, A. (2016). Künstliche Intelligenz. Der ist jetzt Koch, und der ist Kellner. Faz.net. http://www.faz.net/aktuell/feuilleton/debatten/die-digital-debatte/kuenstliche-intelligenz-roboter-als-chef-14239957.html (Zugriff 24.05.2016).
  58. Lyon, D. (2003). Surveillance as social sorting: Computer codes and mobile bodies. In D. Lyon (Hrsg.), Surveillance as Social Sorting. Privacy, Risk, and Social Discrimination (S. 13–30). London, New York: Routledge.Google Scholar
  59. Maas, H. (2015). Unsere digitalen Grundrechte. Zeit Online. http://www.zeit.de/2015/50/internet-charta-grundrechte-datensicherheit (Zugriff 10.12.2015).
  60. Manovich, L. (2013). Software Takes Command. New York: Bloomsbury.Google Scholar
  61. Mayer-Schönberger, V., & Cukier, K. (2013). Big Data: Die Revolution, die unser Leben verändern wird. München: Redline Verlag.Google Scholar
  62. Mittelstadt, B. (2016). Auditing for Transparency in Content Personalization Systems. International Journal of Communication 10, S. 4991–5002.Google Scholar
  63. Murthy, D., Powell, A., Tinati, R., Anstead, N., Carr, L., Halford, S. , & Weal, M. (2016). Automation, Algorithms, and Politics| Bots and Political Influence: A Sociotechnical Investigation of Social Network Capital. International Journal Of Communication, 10, S. 4952–4971.Google Scholar
  64. Narayanan, A., & Reisman, D. (2017). The Princton Web Transparency and Accoutability Project. In T. Cerquitelli, D. Quercia, & F. Pasquale (Hrsg.), Transparent data mining for Big and Small Data. Springer (forthcoming).Google Scholar
  65. Neyland D. (2016). Bearing account-able witness to the ethical algorithmic system. Science, Technology and Human Values, 41 (1), S. 50–76.Google Scholar
  66. O’Conner, S. (2016). When your boss is an algorithm. Financial Times. https://www.ft.com/content/88fdc58e-754f-11e6-b60a-de4532d5ea35?mhq5j=e2 Zugriff 8.09.2016).
  67. Pariser, E. (2011). The Filter Bubble: What the Internet is Hiding from You. London: Penguin Books.Google Scholar
  68. Pasquale, F. (2015). The Black Box Society. The Secret Algorithms That Control Money and Information. Harvard University Press.Google Scholar
  69. Passig, K. (2012). Warum wurde mir ausgerechnet das empfohlen? Süddeutsche.de. http://www.sueddeutsche.de/digital/zur-kritik-an-algorithmen-warum-wurde-mir-ausgerechnet-das-empfohlen-1.1253390 (Zugriff 10.01.2012).
  70. Rammert, W. (2003). Technik in Aktion: verteiltes Handeln in soziotechnischen Konstellationen. TUTS – Working Papers 2-2003.Google Scholar
  71. Rammert, W. (2008). Where the action is: Distributed agency between humans, machines, and programs. TUTS – Working Papers 4-2008.Google Scholar
  72. Rammert, W., & Schulz-Schaeffer, I. (2002). Technik und Handeln. Wenn soziales Handeln sich auf menschliches Verhalten und technische Abläufe verteilt. In W. Rammert, & I. Schulz-Schaeffer (Hrsg.), Können Maschinen handeln? Soziologische Beiträge zum Verhältnis von Mensch und Technik. Frankfurt/M: Campus.Google Scholar
  73. Reichertz, J. (2015). Von Menschen und Dingen. Wer handelt hier eigentlich? In A. Poferl, & N. Schröer (Hrsg.), Wer oder was handelt? Zum Subjektverständnis der hermeneutischen Wissenssoziologie (S. 95–120). Wiesbaden: Springer VS.Google Scholar
  74. Rosenblat, A., Kneese, T., & Boyd, D. (2014). Algorithmic Accountability. The Social, Cultural & Ethical Dimensions of “Big Data”. https://ssrn.com/abstract=2535540 (Zugriff 28.03.2017).
  75. Rosenblat, A., Kneese, T., & Boyd, D. (2014). Workplace Surveillance. Working Paper, Data & Society Research Institute.Google Scholar
  76. Sandvig, C., Hamilton, K., Karahalios, K., & Langbort C. (2014b). Auditing Algorithms: Research Methods for Detecting Discrimination on Internet Platforms. Paper presented to a preconference of the 64th ICA Annual Meeting 2014, Seattle, WA.Google Scholar
  77. Sandvig, C., Hamilton, K., Karahalios, K., & Langbort, C. (2014a). An Algorithm Audit. In S. P. Gangadharan (Hrsg.), Data and Discrimination: Collected Essays (S. 6–10). Washington, DC: New America Foundation.Google Scholar
  78. Saurwein, F. (2011). Regulatory choice for alternative modes of regulation: How context matters. Law & Policy, 33 (3), S. 334–366.Google Scholar
  79. Saurwein, F., Just, N., & Latzer, M. (2015). Governance of Algorithms: Options and Limitations. Info, 17 (6), S. 35–49.Google Scholar
  80. Schirrmacher, F. (2013). Ego. Das Spiel des Lebens. München: Blessing.Google Scholar
  81. Schirrmacher, F. (2014). Wir müssen verhandeln, welchen Wert Qualitätsjournalismus hat. Interview mit Jürgen Scharrer. Horizont.de. http://www.horizont.net/medien/nachrichten/FAZ-Herausgeber-Schirrmacher-Wir-muessen-verhandeln-welchen-Wert-Qualitaetsjournalismus-hat-120550 (Zugriff 15. Mai 2014).
  82. Schulz-Schaeffer, I. (2007). Technik als sozialer Akteur und als soziale Institution. Sozialität von Technik statt Postsozialität. Technical University Technology Studies Working Papers. TUTS -WP- 3-2007.Google Scholar
  83. Schuppli, S. (2014). Deadly Algorithms: Can legal codes hold software accountable for code that kills? Radical Philosophy 187, S. 1–8.Google Scholar
  84. Scott, C. (2000). Accountability in the Regulatory State. In C. Harvey, J. Morison, & J. Shaw (Hrsg.), Voices, Spaces and Processes in Constitutionalism (S. 38–60). London: Blackwell.Google Scholar
  85. Sickert, T. (2016). Vom Hipster-Mädchen zum Hitler-Bot. Spiegel Online. http://www.spiegel.de/netzwelt/web/microsoft-twitter-bot-tay-vom-hipstermaedchen-zum-hitlerbot-a-1084038.html (Zugriff 24.03.2016).
  86. Slavin K. (2011). How Algorithms Shape Our World. TED Talks. http://www.ted.com/talks/kevin_slavin_how_algorithms_shape_our_world.html (Zugriff 28.03.2017).
  87. Somaiya, R. (2014). How Facebook Is Changing the Way Its Users Consume Journalism. New York Times. https://www.nytimes.com/2014/10/27/business/media/how-facebookis-changing-the-way-its-users-consume-journalism.html?_r=0 (Zugriff 26.10.2014).
  88. Sombetzki, J. (2016). Verantwortung und Roboterethik – ein kleiner Überblick. Humboldt Forum Recht (HFR), 3/2016, S. 10–30.Google Scholar
  89. Spiekermann, S. (2015). Ethical IT Innovation: A Value-Based System Design Approach. Apple Ac. Press.Google Scholar
  90. Steiner, C. (2012a). Automate This: How Algorithms Came to Rule Our World. New York: Penguin Books.Google Scholar
  91. Steiner, C. (2012b). Die Kunst der Algorithmen. Technology Review. https://www.heise.de/tr/artikel/Die-Kunst-der-Algorithmen-1655092.html (Zugriff 31.07.2012).
  92. Storm, D. (2015). ACLU: Orwellian Citizen Score, China’s credit score system, is a warning for Americans. Computerworld. http://www.computerworld.com/article/2990203/security/aclu-orwellian-citizen-score-chinas-credit-score-system-is-a-warning-for-americans.html (Zugriff 7.10.2015).
  93. Striphas, T. (2015). Algorithmic Culture. European Journal of Cultural Studies, 18 (4–5), S. 395–412.Google Scholar
  94. van den Hoven, J., Vermaas, P. E., & van den Poel, I. (Hrsg.) (2015), Handbook of Ethics, Values and Technological Design. Wiesbaden: Springer.Google Scholar
  95. Weder, F., & Karmasin, M. (2011). Corporate communicative responsibility: Kommunikation als Ziel und Mittel unternehmerischer Verantwortungswahrnehmung. Studienergebnisse aus Österreich. Zeitschrift für Wirtschafts- und Unternehmensethik, 12 (3), S. 410–428.Google Scholar
  96. Wile, R. (2014). VITAL Named To Board. Business Insider. http://wiky.team/download/vital-named-to-board-business-insider (Zugriff 13.05.2014).
  97. Ziewitz, M. (2016). Governing Algorithms: Myth, Mess, and Methods. Science, Technology & Human Values, 41 (1), S. 3–16.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019

Authors and Affiliations

  1. 1.CMC – Austrian Academy of Sciences/ Alpen-Adria-UniversitätWienÖsterreich

Personalised recommendations