Zusammenfassung
Seit etwa fünfzig Jahren setzen Menschen modell- und datenbasierte Unterstützungssysteme zur Entscheidungsfindung ein – vorwiegend bei komplexen Entscheidungsproblemen. Menschen haben nicht nur beschränkte kognitive Fähigkeiten und Kapazitäten, sondern auch bewusste und unbewusste Vorurteile, die die Qualität ihrer Entscheidungen vermindern können. Der Einsatz von Entscheidungssystemen wird daher damit gerechtfertigt, dass mit ihrer Hilfe Entscheidungen nicht nur effizienter, sondern auch unparteiisch getroffen und damit mehr Fairness und Gerechtigkeit erzielt werden können.
Dieses Kapitel ist unter dem Titel Der autonome Mensch im Zeitalter des Digitalen Wandels im Ecowin Verlag ersterschienen: Sabine Köszegi: Der autonome Mensch im Zeitalter des Digitalen Wandels, S. 62–90, in: Markus Hengstschläger/Rat für Forschung und Technologieentwicklung (Hg.) (2020): Digitaler Wandel und Ethik. Salzburg, München: Ecowin Verlag.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Notes
- 1.
In öffentlichen Dokumenten oder in den Medien werden für automatisierte Entscheidungssysteme auch viele andere Begriffe synonym verwendet, wie „predictive analytics“, „algrorithmic decision making“, „automated decision making“ oder „machine learning“. Es gibt Unterschiede zwischen den einzelnen Begriffen, die aber auch bei Expert*innen umstritten sind (s. dazu z. B. Molnar und Gill 2018).
- 2.
Nach der E-Privacy-Richtlinie der Europäischen Kommission, der sogenannten Cookie-Richtlinie, ist das Setzen von Cookies allerdings nur erlaubt, wenn Nutzer*innen ausdrücklich und aktiv zustimmen. Auch der Europäische Gerichtshof hat dies in einem neuerlichen Urteil bestätigt (vgl. Ionos, Digital Guide 2020).
- 3.
Weiterführende Literatur
AW Algorithm Watch (2019) Automating society: taking stock of automated decision-making in the EU. www.algorithmwatch.org/automating-society. Zugegriffen: 28. Febr. 2020
Agrawal J, Gans J, Goldfarb A (2018) Prediction machines: the simple economics of artificial intelligence. Harvard Business Review Press, Boston Massachusetts
Bainbridge Lisanne (1983) Ironies of automation. Automatica 19(6):775–779. https://doi.org/10.1016/0005-1098(83)90046-8
Balkow C, Eckardt I (2019) „Bias in Algorithmischen Systemen – erläuterungen, Beispiele und Thesen.“ „Denkimpulse digitale Ethik“, Initiative D21. https://initiatived21.de/app/uploads/2019/03/algomon_denkimpuls_bias_190318.pdf
Bond R, Fariss CJ, Jones JJ, Kramer ADI, Marlow C, Settle JE, Fowler JH (2012) A 61-Million-Person Experiment in Social Influence and Political Mobilization. Nature 489:295–298
Collingridge D (1981) The social control of technology. Milton Keynes, Eng. Open University Press
Council of Europe (2018) Algorithms and Human Rights: Study on the Human Rights Dimensions of Automated Data Processing Techniques and Possible Regulatory Implications DGI (2017)12. https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5. Zugegriffen: Febr. 2020
Dignum V, Muller C, Theodorou A (2020) First Analysis of the EU Whitepaper on AI. https://allai.nl/first-analysis-of-the-eu-whitepaper-on-ai/. Zugegriffen: 26. Febr. 2020
Gillespie T (2016) Algorithm. In: Peters B (Hrsg) Digital keywords: a vocabulary of information society and culture. Princeton University Press, Princeton, S 18–30
Hagras H (2018) Toward Human-Understandable, Explainable AI. Computer 51(9):28–36
High-Level Expert Group on Artificial Intelligence (2019) Ethics Guidelines for Trustworthy AI, source. https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai. Zugegriffen: 28. Febr. 2020
Ionos, Digital Guide (2020) Cookie Richtlinie. https://www.ionos.at/digitalguide/websites/online-recht/cookie-richtlinie/. Zugegriffen: 25. Febr. 2020
Kosinski M, Stillwell D, Graepel T (2013) Private traits and attributes are predictable from digital records of human behavior. PNAS 110(15):5801–5805
Kramer ADE, Guillory JE, Hancock JT (2014) Experimental evidence of massive scale emotional contagion through social networks. PNAS 111(24):8788–8790
Lipton, ZC (2016) The mythos of model interpretability. In: ICML Workshop on Human Interpretability in Machine Learning (WHI 2016), New York, arXiv:1606.03490 1470 arXiv:cs, stat/1606.03490
Logga JM, Minsona JA, Moore DA (2019) Algorithm appreciation: people prefer algorithmic to human judgment. Organ Behav Hum DecisProcess 15:90–103
Molnar P, Gill L (2018) Bots at the gate: a human rights analysis of automated decision-making in Canada’s immigration and refugee system. University of Toronto, Research 114
Papagni G, Koeszegi ST (2021) Understandable and trustworthy explainable robots: a sensemaking perspective. Paladyn. Journal of Behavioral Robotics 12. https://doi.org/10.1515/pjbr-2021-0002
Thaler R, Sunstein CR (2008) Nudge: improving decisions about health, wealth, and happiness. Yale University Press, ISBN 978-0-14-311526-7
Tufekci Z (2015) Algorithmic harms beyond Facebook and Google: emergent challenges of computational agency. Colo Tech L J 13:203–218
Wihlborg E, Larsson H, Hedström K (2016) “The Computer Says No!”– A Case Study on Automated Decision-making in Public Authorities. IEEE Computer Society, Proceedings of HICCS 2016:2903–2912. https://doi.org/19.1109/HICCS.2016.364
Wouters N, Kelly R, Velloso E, Wolf K, Ferdous HS, Newn J, Joukhadar Z, Vetere F (2019) Biometric mirror: exploring values and attitudes towards facial analysis and automated decision-making. Conference on Designing Interactive Systems, 1145
Zuboff S (2018) Das Zeitalter des Überwachungskapitalismus. Campus, Frankfurt
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2021 Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature
About this chapter
Cite this chapter
Koeszegi, S.T. (2021). Spannungsfeld automatisierte Entscheidungssysteme und Autonomie. In: Altenburger, R., Schmidpeter, R. (eds) CSR und Künstliche Intelligenz. Management-Reihe Corporate Social Responsibility. Springer Gabler, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-63223-9_3
Download citation
DOI: https://doi.org/10.1007/978-3-662-63223-9_3
Published:
Publisher Name: Springer Gabler, Berlin, Heidelberg
Print ISBN: 978-3-662-63222-2
Online ISBN: 978-3-662-63223-9
eBook Packages: Business and Economics (German Language)