Skip to main content

Spannungsfeld automatisierte Entscheidungssysteme und Autonomie

  • Chapter
  • First Online:
CSR und Künstliche Intelligenz

Part of the book series: Management-Reihe Corporate Social Responsibility ((MRCOSORE))

Zusammenfassung

Seit etwa fünfzig Jahren setzen Menschen modell- und datenbasierte Unterstützungssysteme zur Entscheidungsfindung ein – vorwiegend bei komplexen Entscheidungsproblemen. Menschen haben nicht nur beschränkte kognitive Fähigkeiten und Kapazitäten, sondern auch bewusste und unbewusste Vorurteile, die die Qualität ihrer Entscheidungen vermindern können. Der Einsatz von Entscheidungssystemen wird daher damit gerechtfertigt, dass mit ihrer Hilfe Entscheidungen nicht nur effizienter, sondern auch unparteiisch getroffen und damit mehr Fairness und Gerechtigkeit erzielt werden können.

Dieses Kapitel ist unter dem Titel Der autonome Mensch im Zeitalter des Digitalen Wandels im Ecowin Verlag ersterschienen: Sabine Köszegi: Der autonome Mensch im Zeitalter des Digitalen Wandels, S. 62–90, in: Markus Hengstschläger/Rat für Forschung und Technologieentwicklung (Hg.) (2020): Digitaler Wandel und Ethik. Salzburg, München: Ecowin Verlag.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 44.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 59.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    In öffentlichen Dokumenten oder in den Medien werden für automatisierte Entscheidungssysteme auch viele andere Begriffe synonym verwendet, wie „predictive analytics“, „algrorithmic decision making“, „automated decision making“ oder „machine learning“. Es gibt Unterschiede zwischen den einzelnen Begriffen, die aber auch bei Expert*innen umstritten sind (s. dazu z. B. Molnar und Gill 2018).

  2. 2.

    Nach der E-Privacy-Richtlinie der Europäischen Kommission, der sogenannten Cookie-Richtlinie, ist das Setzen von Cookies allerdings nur erlaubt, wenn Nutzer*innen ausdrücklich und aktiv zustimmen. Auch der Europäische Gerichtshof hat dies in einem neuerlichen Urteil bestätigt (vgl. Ionos, Digital Guide 2020).

  3. 3.

    Vgl. AI HLEG 2019, https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai.

Weiterführende Literatur

  • AW Algorithm Watch (2019) Automating society: taking stock of automated decision-making in the EU. www.algorithmwatch.org/automating-society. Zugegriffen: 28. Febr. 2020

  • Agrawal J, Gans J, Goldfarb A (2018) Prediction machines: the simple economics of artificial intelligence. Harvard Business Review Press, Boston Massachusetts

    Google Scholar 

  • Bainbridge Lisanne (1983) Ironies of automation. Automatica 19(6):775–779. https://doi.org/10.1016/0005-1098(83)90046-8

    Article  Google Scholar 

  • Balkow C, Eckardt I (2019) „Bias in Algorithmischen Systemen – erläuterungen, Beispiele und Thesen.“ „Denkimpulse digitale Ethik“, Initiative D21. https://initiatived21.de/app/uploads/2019/03/algomon_denkimpuls_bias_190318.pdf

  • Bond R, Fariss CJ, Jones JJ, Kramer ADI, Marlow C, Settle JE, Fowler JH (2012) A 61-Million-Person Experiment in Social Influence and Political Mobilization. Nature 489:295–298

    Google Scholar 

  • Collingridge D (1981) The social control of technology. Milton Keynes, Eng. Open University Press

    Google Scholar 

  • Council of Europe (2018) Algorithms and Human Rights: Study on the Human Rights Dimensions of Automated Data Processing Techniques and Possible Regulatory Implications DGI (2017)12. https://rm.coe.int/algorithms-and-human-rights-en-rev/16807956b5. Zugegriffen: Febr. 2020

  • Dignum V, Muller C, Theodorou A (2020) First Analysis of the EU Whitepaper on AI. https://allai.nl/first-analysis-of-the-eu-whitepaper-on-ai/. Zugegriffen: 26. Febr. 2020

  • Gillespie T (2016) Algorithm. In: Peters B (Hrsg) Digital keywords: a vocabulary of information society and culture. Princeton University Press, Princeton, S 18–30

    Google Scholar 

  • Hagras H (2018) Toward Human-Understandable, Explainable AI. Computer 51(9):28–36

    Article  Google Scholar 

  • High-Level Expert Group on Artificial Intelligence (2019) Ethics Guidelines for Trustworthy AI, source. https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai. Zugegriffen: 28. Febr. 2020

  • Ionos, Digital Guide (2020) Cookie Richtlinie. https://www.ionos.at/digitalguide/websites/online-recht/cookie-richtlinie/. Zugegriffen: 25. Febr. 2020

  • Kosinski M, Stillwell D, Graepel T (2013) Private traits and attributes are predictable from digital records of human behavior. PNAS 110(15):5801–5805

    Article  Google Scholar 

  • Kramer ADE, Guillory JE, Hancock JT (2014) Experimental evidence of massive scale emotional contagion through social networks. PNAS 111(24):8788–8790

    Article  Google Scholar 

  • Lipton, ZC (2016) The mythos of model interpretability. In: ICML Workshop on Human Interpretability in Machine Learning (WHI 2016), New York, arXiv:1606.03490 1470 arXiv:cs, stat/1606.03490

    Google Scholar 

  • Logga JM, Minsona JA, Moore DA (2019) Algorithm appreciation: people prefer algorithmic to human judgment. Organ Behav Hum DecisProcess 15:90–103

    Article  Google Scholar 

  • Molnar P, Gill L (2018) Bots at the gate: a human rights analysis of automated decision-making in Canada’s immigration and refugee system. University of Toronto, Research 114

    Google Scholar 

  • Papagni G, Koeszegi ST (2021) Understandable and trustworthy explainable robots: a sensemaking perspective. Paladyn. Journal of Behavioral Robotics 12. https://doi.org/10.1515/pjbr-2021-0002

  • Thaler R, Sunstein CR (2008) Nudge: improving decisions about health, wealth, and happiness. Yale University Press, ISBN 978-0-14-311526-7

    Google Scholar 

  • Tufekci Z (2015) Algorithmic harms beyond Facebook and Google: emergent challenges of computational agency. Colo Tech L J 13:203–218

    Google Scholar 

  • Wihlborg E, Larsson H, Hedström K (2016) “The Computer Says No!”– A Case Study on Automated Decision-making in Public Authorities. IEEE Computer Society, Proceedings of HICCS 2016:2903–2912. https://doi.org/19.1109/HICCS.2016.364

    Google Scholar 

  • Wouters N, Kelly R, Velloso E, Wolf K, Ferdous HS, Newn J, Joukhadar Z, Vetere F (2019) Biometric mirror: exploring values and attitudes towards facial analysis and automated decision-making. Conference on Designing Interactive Systems, 1145

    Google Scholar 

  • Zuboff S (2018) Das Zeitalter des Überwachungskapitalismus. Campus, Frankfurt

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Sabine Theresia Koeszegi .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2021 Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Koeszegi, S.T. (2021). Spannungsfeld automatisierte Entscheidungssysteme und Autonomie. In: Altenburger, R., Schmidpeter, R. (eds) CSR und Künstliche Intelligenz. Management-Reihe Corporate Social Responsibility. Springer Gabler, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-63223-9_3

Download citation

  • DOI: https://doi.org/10.1007/978-3-662-63223-9_3

  • Published:

  • Publisher Name: Springer Gabler, Berlin, Heidelberg

  • Print ISBN: 978-3-662-63222-2

  • Online ISBN: 978-3-662-63223-9

  • eBook Packages: Business and Economics (German Language)

Publish with us

Policies and ethics