Skip to main content

Warum künstliche Intelligenz (nicht überall) Entscheidungsträger wird

  • Chapter
  • First Online:
Wie künstliche Intelligenz Entscheidungen prägt
  • 523 Accesses

Zusammenfassung

Wir haben in den vorausgehenden Kapiteln unterschiedliche Rollen künstlicher Intelligenz betrachtet. Die untersuchten Organisationen betrachten diese Umgangsformen als selbstverständlich. Aus einer organisationswissenschaftlichen Perspektive sind sie jedoch erklärungsbedürftig. Insbesondere hat Technik bislang kaum Anerkennung als Entscheidungsträger gefunden. Zudem stellt sich die Frage, was die Unterschiede zwischen den untersuchten Fällen erklärt. Das führt uns zur zweiten Forschungsfrage. Wir müssen nachvollziehen, wie es dazu kommt, dass künstliche Intelligenz bestimmte Rollen einnimmt.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 54.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 69.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Dazu kommt, dass Organisationen mit einem übergeordneten Diskurs in der Umwelt konfrontiert sind, der die Lernfähigkeit und Eigenständigkeit künstlicher Intelligenz als Neuheit identifiziert (siehe hierzu u.a. Bory 2019). Daran ist auch die Wissenschaft maßgeblich beteiligt (siehe z.B. Tamò-Larrieux et al. 2022).

  2. 2.

    Dieses Ausprobieren der Technik ist von den Tests und Verlässlichkeitskontrollen zu unterscheiden, die wir in Abschnitt 7.2.2 und Abschnitt 7.3.2 behandeln. Während der erste Eindruck ungezwungen zustande kommt, folgen Tests und Verlässlichkeitskontrollen einer strengen Systematik, die eine bestimmte Funktion erfüllt.

  3. 3.

    Bislang ist es nicht möglich, die kausalen Ursachen eines Outputs vollständig zu rekonstruieren (vgl. Aust 2021: 14; Preece 2018: 4; Jackszis 2021: 40 sowie London 2019: 17).

  4. 4.

    Diese Einsicht deckt sich mit den Beobachtungen von Aoki (2021), die feststellt, dass Organisationsmitglieder eher bereit sind, Entscheidungen künstlicher Intelligenz aufzugreifen, wenn Menschen daran beteiligt sind. Während Aoki (ebd.) allerdings davon ausgeht, dass menschliche Beteiligung Vertrauen erzeugt, stellt die vorliegende Arbeit eine andere Funktion in den Mittelpunkt. Menschen an den Entscheidungen künstlicher Intelligenz zu beteiligen, puffert Unsicherheit.

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Christian Scharff .

Rights and permissions

Reprints and permissions

Copyright information

© 2024 Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Scharff, C. (2024). Warum künstliche Intelligenz (nicht überall) Entscheidungsträger wird. In: Wie künstliche Intelligenz Entscheidungen prägt. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-44262-0_6

Download citation

Publish with us

Policies and ethics