Zusammenfassung
Wir haben in den vorausgehenden Kapiteln unterschiedliche Rollen künstlicher Intelligenz betrachtet. Die untersuchten Organisationen betrachten diese Umgangsformen als selbstverständlich. Aus einer organisationswissenschaftlichen Perspektive sind sie jedoch erklärungsbedürftig. Insbesondere hat Technik bislang kaum Anerkennung als Entscheidungsträger gefunden. Zudem stellt sich die Frage, was die Unterschiede zwischen den untersuchten Fällen erklärt. Das führt uns zur zweiten Forschungsfrage. Wir müssen nachvollziehen, wie es dazu kommt, dass künstliche Intelligenz bestimmte Rollen einnimmt.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Notes
- 1.
Dazu kommt, dass Organisationen mit einem übergeordneten Diskurs in der Umwelt konfrontiert sind, der die Lernfähigkeit und Eigenständigkeit künstlicher Intelligenz als Neuheit identifiziert (siehe hierzu u.a. Bory 2019). Daran ist auch die Wissenschaft maßgeblich beteiligt (siehe z.B. Tamò-Larrieux et al. 2022).
- 2.
Dieses Ausprobieren der Technik ist von den Tests und Verlässlichkeitskontrollen zu unterscheiden, die wir in Abschnitt 7.2.2 und Abschnitt 7.3.2 behandeln. Während der erste Eindruck ungezwungen zustande kommt, folgen Tests und Verlässlichkeitskontrollen einer strengen Systematik, die eine bestimmte Funktion erfüllt.
- 3.
Bislang ist es nicht möglich, die kausalen Ursachen eines Outputs vollständig zu rekonstruieren (vgl. Aust 2021: 14; Preece 2018: 4; Jackszis 2021: 40 sowie London 2019: 17).
- 4.
Diese Einsicht deckt sich mit den Beobachtungen von Aoki (2021), die feststellt, dass Organisationsmitglieder eher bereit sind, Entscheidungen künstlicher Intelligenz aufzugreifen, wenn Menschen daran beteiligt sind. Während Aoki (ebd.) allerdings davon ausgeht, dass menschliche Beteiligung Vertrauen erzeugt, stellt die vorliegende Arbeit eine andere Funktion in den Mittelpunkt. Menschen an den Entscheidungen künstlicher Intelligenz zu beteiligen, puffert Unsicherheit.
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
Copyright information
© 2024 Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Scharff, C. (2024). Warum künstliche Intelligenz (nicht überall) Entscheidungsträger wird. In: Wie künstliche Intelligenz Entscheidungen prägt. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-44262-0_6
Download citation
DOI: https://doi.org/10.1007/978-3-658-44262-0_6
Published:
Publisher Name: Springer Gabler, Wiesbaden
Print ISBN: 978-3-658-44261-3
Online ISBN: 978-3-658-44262-0
eBook Packages: Computer Science and Engineering (German Language)