Skip to main content

Künstliche Intelligenz als kontingenzerzeugende Technik: Eine praxistheoretische Perspektive

  • Chapter
  • First Online:
Künstliche Intelligenz, Mensch und Gesellschaft
  • 744 Accesses

Zusammenfassung

Der Beitrag entwickelt eine praxistheoretische Perspektive, um das technische Wirken subsymbolischer Künstlicher Intelligenz (KI) zu analysieren und die soziologische Relevanz und Spezifik dieser relativ neuen, zur Interaktion mit Menschen fähigen Form von KI herauszuarbeiten. In der soziologischen Diskussion ist noch keineswegs geklärt, wie die Nutzung von Techniken, die auf Deep Learning und Künstlichen Neuronalen Netzen aufbauen, zu verstehen und in ihren Folgen für gesellschaftliche und soziale Zusammenhänge zu bewerten ist. Der Beitrag schlägt vor, das Wirken interaktiver KI als Erzeugung von Kontingenz in Praxiszusammenhängen zu begreifen. Unterschieden werden dabei drei Formen: agentielle Kontingenz, epistemische Kontingenz und formative Kontingenz. Vor diesem Hintergrund ergeben sich neue Perspektiven auf die Einbettung und Reflexion von KI in der Nutzungspraxis.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 49.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Tendenziell gilt dies auch für die internationale soziologische Literatur, in der sich ab Mitte der 1980er Jahre zunehmend programmatisch ausgerichtete Arbeiten zum Thema finden (z. B. Brent 1986; Collins 1990; Ennals 1991; Gilbert & Heath 1985; Schwartz 1989; Woolgar 1985).

  2. 2.

    Wie es von einer „multiparadigmatischen Wissenschaft“ (Kneer & Schroer 2009) wie der Soziologie zu erwarten ist, findet sich mittlerweile eine Vielzahl an Perspektiven auf KI. Diese reichen von ethnographischen Studien zur Sozialrobotik (Breazeal 2002; Muhle 2023), die die verkörperte Form von KI in den Vordergrund rücken (z. B. Alač 2009, 2016; Bischof 2017; Koolwaay 2018; Straub 2020) bis hin zu Arbeiten, die KI als ein algorithmisches Geschehen fassen, durch das neuartige gesellschaftliche Möglichkeits- und Wirklichkeitsräume eröffnet werden. Dieser Zugang findet sich vorrangig in der Systemtheorie, die sich bereits früh mit der Kommunikation mit Computern auseinandergesetzt hat (u. a. Baecker 2011; Esposito 2014, 2017; Harth & Lorenz 2017) und in Studien zur ‚intelligenten‘ Algorithmisierung von Öffentlichkeit, Macht und Kontrolle, wie sie etwa als neues ökonomisches Prinzip von „data, extraction, analysis“ (Zuboff 2015), als „threat of algocracy“ (Danaher 2016), als (un-)sichtbar von Daten durchzogenes „algorithmic life“ (Amoore & Piotukh 2016) oder als politisch und ethisch problematische Verengung von entscheidungsrelevanten Perspektiven und Zukunftsnarrativen durch KI (Amoore 2020) diskutiert wird.

  3. 3.

    ‚Die‘ Künstliche Intelligenz gibt es nicht, da unter diesem Sammelbegriff eine Vielzahl von Technologien und Paradigmen (darunter das Paradigma der konnektionistischen bzw. subsymbolischen KI) verhandelt werden. Zudem ist der Begriff der Künstlichen Intelligenz selbst einem historischen Wandel unterworfen, sodass mit ihm in Abhängigkeit von technischen und sozialen Entwicklungen zu verschiedenen Zeiten jeweils Anderes bezeichnet wurde. Es gibt mittlerweile eine Fülle an Literatur, die sowohl den Begriff der Künstlichen Intelligenz als auch die unter diesem Begriff firmierenden Technikformen erläutern und historisch einordnen – einen solchen Überblick kann dieser Beitrag nicht leisten. Stellvertretend für viele seien daher an dieser Stelle Mainzer (2019), Rosengrün (2021) und Seising (2021) genannt.

  4. 4.

    Das Paradigma der symbolischen KI geht davon aus, „that the correct level at which to model the mind is that of the symbol – that is, an entity in a computer program that is taken to refer to some entity in the real world.“ (Chalmers 1992, S. 26; Hervorh. i. Orig.).

  5. 5.

    Symbole werden in dieser vernetzten Funktionsweise allein als Ergebnis sichtbar: Konnektionistische KI-Systeme „still follow rules, but the rules are well below the semantic level. It is hoped that as a consequence of following rules at this low level, semantic properties will emerge – that is, manifest themselves in the processing and behavior of the program – without having been explicitly programmed in. Consequently, when viewed at the semantic level such systems often do not appear to be engaged in rule-following behavior, as the rules that govern these systems lie at a deeper level.“ (Chalmers 1992, S. 26; siehe auch Smolensky 2012).

  6. 6.

    Dieser Prozess der Gewichtung und Strukturierung der algorithmischen Relationen kann von außen nicht beobachtet werden, da er in den verborgenen Schichten der KI stattfindet – die Qualitätssteigerung bemisst sich somit allein am von der KI erzielten Ergebnis. Hier setzen die Debatten um eine nachvollziehbare und transparente KI an, die auch deshalb schwer zu realisieren ist, da es sich bei neueren KI-Anwendungen eben um subsymbolisch operierende Systeme handelt.

  7. 7.

    Dies kann sich, wie die aktuelle Entwicklung sogenannter Large Language Models (LLMs) bzw. Transformer-Technologien zeigt, jedoch schnell ändern. Zum Zeitpunkt des Schreibens dieses Textes erhalten diese Technologien deshalb erhöhte Aufmerksamkeit, da sie mit ihrer konnektionistischen Architektur in der Lage sind, mit entsprechendem Training Inhalte (z. B. Texte oder Bilder) zu generieren, die der Performanz menschlicher Akteure erstaunlich nahekommen. Bubeck et al. (2023) machen hier – unter Berücksichtigung bekannter Restriktionen von LLMs und algorithmischer biases – sogar „sparks“ einer allgemeinen Intelligenz von KI aus. Ob diese These haltbar ist, wird sich nach dem Abflauen des Hypes um diese Technik allerdings erst noch zeigen müssen.

  8. 8.

    Unvorhersehbar ist eine Technik auch dann, wenn sie plötzlich defekt ist oder aufgrund einer Fehlfunktion Fehler produziert – siehe etwa Latour (2002b) für das Versagen eines Overhead-Projektors oder Orr (1996) für das Irritationspotenzial von Fotokopierern. Dies gilt grundsätzlich auch für KI, ist hier aber nicht mit ‚neuer Qualität der Unvorhersehbarkeit‘ gemeint, die auf die dieser Technik intentional eingeschriebenen Potenziale abhebt.

  9. 9.

    Im Folgenden meint KI immer die beschriebene Form der konnektionistischen bzw. subsymbolischen KI.

  10. 10.

    Es stellt sich die Frage, inwieweit ein ‚klassischer‘ soziologischer Technikbegriff im Kontext von KI überhaupt noch tragfähig ist. Die Überlegungen in diesem Beitrag können auch als Versuch gelesen werden, den Technikbegriff um Dimensionen der Kontingenz zu erweitern.

  11. 11.

    So hat der Wissenschafts- und Techniksoziologe Steve Woolgar bereits 1985 angemerkt, dass KI eine gute Gelegenheit darstelle, über quasi-naturalisierte soziologische Gewissheiten – etwa, dass soziales Handeln genuin menschliches Handeln sei – nachzudenken (Woolgar 1985).

  12. 12.

    Wesentlich dafür ist, die praktischen Bedingungen von Handeln und Wissen herauszuarbeiten, die sich mit dem Wirken von KI einstellen und etablieren. Wenn daher im Folgenden die Akteur-Netzwerk-Theorie diskutiert wird, dann geschieht dies im Sinne einer Praxistheorie, der ein Praxisbegriff zugrunde liegt, der auf eine soziotechnisch erzeugte und sich dynamisch verändernde Ermöglichungsstruktur von Handlungen und Kommunikation abhebt. Der Begriff des Wirkens, der auf die transformativen Effekte von KI in ebendieser Praxis abstellt, dient dazu, apriorische Zuschreibungen von Handlungsfähigkeit oder Intentionalität an KI und eine damit verbundene Anthropomorphisierung einer menschengemachten Technik zu vermeiden. Zugleich wird damit der Umstand markiert, „dass Handlung und Technik jeweils nur in Zusammenhängen emergieren“ (Rammert 2016, S. 105), die im Falle von KI sowohl Erwartbares als auch Unerwartbares produzieren.

  13. 13.

    Man kann dies analog zum Verhältnis von Strukturfunktionalismus und Systemtheorie sehen: Während Talcott Parsons den Begriff des sozialen Systems analytisch verwendet, geht Niklas Luhmann davon aus, „dass es Systeme gibt.“ (Luhmann 1984, S. 30) Diese Differenz hat weitreichende Folgen für die Theorieentwicklung und empirische Forschung. In diesem Beitrag wird davon ausgegangen, dass es analytisch Sinn macht, technisches Wirken und menschliches Handeln symmetrisch zu beschreiben – doch dass dies keineswegs bedeutet, dass Technik ‚intelligent‘ ist oder ‚intentional‘ handelt.

  14. 14.

    Darauf weist auch Rauer (2023) hin, wenn er von sozio-algorithmischen Dynamiken spricht, die eindeutige Zurechnungen von Autorenschaft in der Praxis mit ‚intelligent‘ automatisierten Schreib(unterstützungs)programmen (z. B. ChatGPT) erschweren oder gar unmöglich machen.

  15. 15.

    Es wäre zu prüfen, ob und inwieweit diese Verschränkung von sinnsetzendem (erzeugte Selektivität) und sinnerzeugendem Wirken (erzeugende Selektivität) von KI ihrer Anthropomorphisierung Vorschub leistet: KI erscheint als eine Technik, deren technisches Wirken zu Deutungen einlädt, die sie im Bereich des Menschlichen ansiedelt.

  16. 16.

    Paradigmatisch dafür können generative KI-Anwendungen bzw. Transformer-Technologien wie der Chatbot ChatGPT gelten, die in Echtzeit im Austausch mit Nutzenden sinnvolle Texte erzeugen.

  17. 17.

    Analog zum Bloor’schen Symmetrieprinzip ist für diese Theoretisierung einer soziotechnischen Wissensgenese die Unterscheidung von ‚wahrem‘ und ‚falschem‘ Wissen auf analytischer (!) Ebene nicht von Bedeutung – für die gesellschaftliche Nutzung von KI allerdings umso mehr. Selbst fortgeschrittene KI-Anwendungen wie der Chatbot ChatGPT produzieren falsche Informationen und ‚fake news‘, die – nolens volens – von mehr oder weniger kompetenten Nutzenden bewertet und eingeordnet werden müssen.

  18. 18.

    Abzugrenzen davon ist die Notwendigkeit, Wissen über die Arten und Folgen der Algorithmisierung (in) der Gesellschaft zu entwickeln, die „uns ein anderes Denken über die Produktion von Macht und Hegemonie im Web, über die Formung und Ausrichtung von Information online, abverlangen.“ (Cardon 2017, S. 131 f.).

  19. 19.

    Bezogen auf die vieldiskutierte Frage der Standardisierung von Wissen durch KI bedeutet dies, dass Standardisierung praktisch immer auch mit Differenzen zu tun hat bzw. gerade auf die Möglichkeit von Differenzen angewiesen ist, um wirksam zu werden. Oder anders formuliert: Standardisierung muss Kontingenzen in der praktischen Umsetzung mit einrechnen und aushalten (können).

  20. 20.

    Folgt man Armin Nassehi, dann hängt die Zuschreibung von Intelligenz an eine Technik damit zusammen, dass „der Nutzer oder Anwender einer solchen Technik die Kontingenz des Gegenübers wahrnimmt, will heißen: dass man davon überrascht wird, dass der Automat so und nicht doch anders entscheidet – was den Automaten dann eben nicht mehr als Automaten erscheinen lässt.“ (Nassehi 2019, S. 222).

  21. 21.

    Mit Alfred Schütz (2004) lässt sich Relevanz als Verhältnis zwischen einem Ereignis und der darauf bezogenen Bedeutungszuschreibung verstehen. Aufseiten der KI können Korrelationen als Relevanzstrukturen gelten, wohingegen aufseiten des Individuums Relevanzen eng mit dem ihm verfügbaren Wissen und Erfahrungen zusammenhängen. Eine ‚symmetrische‘ Relevanztheorie für die hier beschriebene Relationierung von Mensch und KI, die die Etablierung einer soziotechnischen Ordnung entlang der Wechselseitigkeit und Dynamik je eigener algorithmischer und sozialer Relevanzstrukturen beschreibt, steht allerdings noch aus.

  22. 22.

    Interessant, aber soziologisch kurzsichtig erscheint hier die These einer „Obsoleszenz des Impliziten“ (Bächle et al. 2017), die behauptet, dass humanoide Roboter über Sensorik „mit den Dimensionen impliziten Wissens umzugehen“ (ebd., S. 68) wüssten und sie im eigenen Tun reproduzieren könnten. Dies verkürzt die Debatte um implizites Wissen jedoch beträchtlich und blendet aus, dass dazu mehr gehört als ein nur als regelhaft beobachtbares und damit algorithmisch formalisierbares Interaktionsgeschehen (siehe dazu u. a. Böhle & Rose 1992, Neuweg 2015 und Polanyi 1985). Aus diesem Grunde werden in der Argumentation dieses Beitrags die Ebenen der beobachtbaren Aktionen und die des verborgenen Impliziten und Latenten analytisch voneinander getrennt.

  23. 23.

    Eine menschliche Person kann immerhin ihr Handeln nachträglich rationalisieren und erklären.

  24. 24.

    Dies mag sich langsam ändern, da auch mediale Diskurse mittlerweile die Verzerrungen durch und Grenzen von KI (vgl. etwa Pfeiffer 2021, S. 284–285) erkennen und in der Berichterstattung aufgreifen.

  25. 25.

    Man kann dies auch so formulieren, dass es nicht nur um das Was des Wirkens von KI geht (Intransparenz), sondern auch um das Wie (Latenz).

Literatur

  • Alač, M. 2009. Moving Android: On Social Robots and Body-in-Interaction. Social Studies of Science, 39(4): 491–528.

    Article  Google Scholar 

  • Alač, M. 2016. Social Robots: Things or Agents? AI & Society, 31(4): 519–535.

    Article  Google Scholar 

  • Amoore, L.A. 2013. The Politics of Possibility: Risk and Security Beyond Probability. Duke University Press.

    Google Scholar 

  • Amoore, L.A. 2020. Cloud Ethics: Algorithms and the Attributes of Ourselves and Others. Duke University Press.

    Google Scholar 

  • Amoore, L.A., und V. Piotukh (Hrsg.). 2016. Algorithmic Life. Calculative Devices in the Age of Big Data. Routledge.

    Google Scholar 

  • Bächle, Thomas C., P. Regier, und M. Bennewitz. 2017. Sensor und Sinnlichkeit: Humanoide Roboter als selbstlernende soziale Interfaces und die Obsoleszenz des Impliziten. Navigationen – Zeitschrift für Medien- und Kulturwissenschaften, 17(2): 67–86.

    Google Scholar 

  • Baecker, D. 2011. Who Qualifies for Communication? A Systems Perspective on Human and Other Possibly Intelligent Beings Taking Part in the Next Society. Technikfolgenabschätzung – Theorie und Praxis, 20(1): 17–26.

    Google Scholar 

  • Baecker, D. 2019. Auf dem Weg zu einer Theorie der digitalen Gesellschaft: Rezension zu ‚Muster – Theorie der digitalen Gesellschaft‘ von Armin Nassehi. Soziopolis: Gesellschaft beobachten, veröffentlicht unter https://nbn-resolving.org/urn:nbn:de:0168-ssoar-81735-2 (letztes Abrufdatum: 26.04.2023)

  • Berger, P.L., und T. Luckmann. 1969. Die gesellschaftliche Konstruktion der Wirklichkeit. Eine Theorie der Wissenssoziologie. Fischer.

    Google Scholar 

  • Bijker, W.E. 1992. The Social Construction of Fluorescent Lighting, or How an Artifact Was Invented in Its Diffusion Stage. In Shaping Technology – Building Society: Studies in Sociotechnical Change, hrsg. W.E. Bijker, & J. Law, 75–102. MIT Press.

    Google Scholar 

  • Bijker, W.E. 1995. Of Bicycles, Bakelite and Bulbs: Toward a Theory of Sociotechnical Change. MIT Press.

    Google Scholar 

  • Bischof, A. 2017. Soziale Maschinen bauen. Epistemische Praktiken der Sozialrobotik. transcript.

    Google Scholar 

  • Bloor, D. 1976. Knowledge and Social Imagery. Routledge.

    Google Scholar 

  • Bloor, D. 1998. Anti-Latour. Studies in History and Philosophy of Science, 1: 81–112.

    Google Scholar 

  • Böhle, F., und H. Rose. 1992. Technik und Erfahrung. Campus.

    Google Scholar 

  • Bongaerts, G. 2008. Verdrängungen des Ökonomischen. Bourdieus Theorie der Moderne. transcript.

    Google Scholar 

  • Bongaerts, G. 2017. Zur Vollzugswirklichkeit des Handelns. Soziale Welt, 68(2–3): 157–173.

    Article  Google Scholar 

  • Bourdieu, P. 1987. Sozialer Sinn. Kritik der theoretischen Vernunft. Suhrkamp.

    Google Scholar 

  • Breazeal, C. 2002. Designing Sociable Robots. MIT Press.

    Google Scholar 

  • Brent Jr., E.E. 1986. Knowledge-based Systems: A Qualitative Formalism. Qualitative Sociology, 9(3): 256–282.

    Article  Google Scholar 

  • Brödner, P. 2022. Die Illusionsfabrik der ‚KI‘-Narrative. FIfF-Kommunikation, 22(2): 32–36.

    Google Scholar 

  • Brynjolfsson, E., D. Rock, und C. Syverson. 2019. Artificial Intelligence and the Modern Productivity Paradox: A Clash of Expectations and Statistics. In The Economics of Artificial Intelligence: An Agenda, hrsg. A. Agrawal, J. Gans, & A. Goldfarb, 23–60. University of Chicago Press.

    Google Scholar 

  • Bubeck, S., V. Chandrasekaran, R. Eldan, J. Gehrke, E. Horvitz, E. Kamar, P. Lee, Y.T. Lee, Y. Li, S. Lundberg, H. Nori, H. Palangi, M.T. Ribeiro, und Y. Zhang. 2023. Sparks of Artificial General Intelligence: Early experiments with GPT-4. Veröffentlicht unter https://arxiv.org/abs/2303.12712 (letztes Abrufdatum: 26.04.2023)

  • Callon, M. 1986. Some Elements of a Sociology of Translation: Domestication of the Scallops and the Fishermen of St Brieuc Bay. In Power, Action and Belief: A New Sociology of Knowledge? hrsg. J. Law, 196–233. Routledge and Kegan Paul.

    Google Scholar 

  • Cardon, D. 2017. Den Algorithmus dekonstruieren. Vier Typen digitaler Informationsberechnung. In Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit, hrsg. R. Seyfert, & J. Roberge, 131–150. transcript.

    Google Scholar 

  • Chalmers, D.J. 1992. Subsymbolic Computation and the Chinese Room. In The Symbolic and Connectionist Paradigms: Closing the Gap, hrsg. J. Dinsmore, 25–48. Psychology Press.

    Google Scholar 

  • Collins, H.M. 1990. Artificial Experts: Social Knowledge and Intelligent Machines. MIT Press.

    Google Scholar 

  • Collins, H.M., und S. Yearley. 1992. Epistemological Chicken. In: Science as Practice and Culture, hrsg. A. Pickering, 301–326. The University of Chicago Press.

    Google Scholar 

  • Crafts, N. 2021. Artificial Intelligence as a General-Purpose Technology: An Historical Perspective. Oxford Review of Economic Policy, 37(3): 521–536.

    Article  Google Scholar 

  • Danaher, J. 2016. The Threat of Algocracy: Reality, Resistance and Accommodation. Philosophy & Technology, 29(3): 245–268.

    Article  Google Scholar 

  • Degele, N. 2002. Einführung in die Techniksoziologie. Fink.

    Google Scholar 

  • Dogruel, L., und S. Dickel. 2022. Die Kommunikativierung der Maschinen. Publizistik, 67(4): 475–486.

    Article  Google Scholar 

  • Durkheim, É. 1961. Die Regeln der soziologischen Methode. Luchterhand.

    Google Scholar 

  • Dyer-Witheford, N., A.M. Kjøsen, und J. Steinhoff. 2019. Inhuman Power: Artificial Intelligence and the Future of Capitalism. Pluto Press.

    Google Scholar 

  • Ennals, R. 1991. Artificial Intelligence and Human Institutions. Springer.

    Book  Google Scholar 

  • Esposito, E. 2014. Algorithmische Kontingenz. Der Umgang mit Unsicherheit im Web. In Die Ordnung des Kontingenten. Beiträge zur zahlenmäßigen Selbstbeschreibung der modernen Gesellschaft, hrsg. A. Cevolini, 233–249. Springer VS.

    Google Scholar 

  • Esposito, E. 2017. Artificial Communication? The Production of Contingency by Algorithms, Zeitschrift für Soziologie, 46(4): 249–265.

    Article  Google Scholar 

  • Faßler, M. 1996. Mediale Interaktion: Speicher, Individualität, Öffentlichkeit. Fink.

    Google Scholar 

  • Fitts, P.M. 1962. Functions of Man in Complex Systems. Aerospace Engineering, 21(1): 34–39.

    Google Scholar 

  • Fodor, J.A., und Z.W. Pylyshyn. 1988. Connectionism and Cognitive Architecture: A Critical Analysis. Cognition, 28: 3–71.

    Article  Google Scholar 

  • Gilbert, G.N., und C. Heath (Hrsg.). 1985. Social Action and Artificial Intelligence. Gower.

    Google Scholar 

  • Gillespie, T. 2014. The Relevance of Algorithms. In Media Technologies: Essays on Communication, Materiality, and Society, hrsg. T. Gillespie, P.J. Boczkowski, & K.A. Foot, 167–193. MIT Press.

    Google Scholar 

  • Gurevich, Y. 2012. What Is an Algorithm? In SOFSEM 2012: Theory and Practice of Computer Science. SOFSEM 2012. Lecture Notes in Computer Science, hrsg. M. Bieliková, G. Friedrich, G. Gottlob, S. Katzenbeisser, & G. Turán, 31–42. Springer.

    Google Scholar 

  • Guzman, A. L., und S.C. Lewis. 2020. Artificial Intelligence and Communication: A Human–Machine Communication Research Agenda. New Media & Society, 22(1): 70–86.

    Article  Google Scholar 

  • Halfmann, J. 1995. Editorial: Theoriebausteine der Techniksoziologie. In Technik und Gesellschaft. Jahrbuch 8: Theoriebausteine der Techniksoziologie, hrsg. J. Halfmann, G. Bechmann, & W. Rammert, 7–11. Campus.

    Google Scholar 

  • Haraway, D. 1988. Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective. Feminist Studies, 14(3): 575–599.

    Article  Google Scholar 

  • Harth, J., und C.-F. Lorenz. 2017. „Hello World“ – Systemtheoretische Überlegungen zu einer Soziologie des Algorithmus. kommunikation@gesellschaft, 18(2).

    Google Scholar 

  • Heinlein, M. 2022. Zeit. In Handbuch Sozialwissenschaftliche Gedächtnisforschung, Band 1: Grundbegriffe und Theorien, hrsg. G. Sebald, M. Berek, K. Chmelar, O. Dimbath, H. Haag, M. Heinlein, N. Leonhard, V. Rauer. Springer VS.

    Google Scholar 

  • Heinlein, M., und N. Huchler. 2023. Artificial Intelligence in the Practice of Work: A New Way of Standardising or a Means to Maintain Complexity? Work Organisation, Labour & Globalisation, 17(1): 34–60.

    Article  Google Scholar 

  • Hirsch-Kreinsen, H. 2023. Das Versprechen der Künstlichen Intelligenz. Gesellschaftliche Dynamik einer Schlüsseltechnologie. Campus.

    Google Scholar 

  • Kneer, G., und M. Schroer. 2009. Soziologie als multiparadigmatische Wissenschaft. Eine Einleitung. In Handbuch Soziologische Theorien, hrsg. G. Kneer, & M. Schroer, 7–18. VS Verlag für Sozialwissenschaften.

    Google Scholar 

  • Koolwaay, J. 2018. Die soziale Welt der Roboter: Interaktive Maschinen und ihre Verbindung zum Menschen. transcript.

    Google Scholar 

  • Latour, B. 1988. Mixing Humans and Nonhumans Together. The Sociology of a Door-Closer. Social Problems, 35(3): 298–310.

    Google Scholar 

  • Latour, B. 1996. Haben auch Objekte eine Geschichte? Ein Zusammentreffen von Pasteur und Whitehead in einem Milchsäurebad. In Der Berliner Schlüssel. Erkundungen eines Liebhabers der Wissenschaften, 87–112. Akademie Verlag.

    Google Scholar 

  • Latour, B. 1998. Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie. Fischer.

    Google Scholar 

  • Latour, B. 2002a. Zirkulierende Referenz. Bodenstichproben aus dem Urwald am Amazonas. In Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft, 36–95. Suhrkamp.

    Google Scholar 

  • Latour, B. 2002b. Ein Kollektiv von Menschen und nichtmenschlichen Wesen. Auf dem Weg durch Dädalus’ Labyrinth. In Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft, 211–264. Suhrkamp.

    Google Scholar 

  • Latour, B. 2005. Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford University Press.

    Google Scholar 

  • Law, J. 1987. Technology and Heterogeneous Engineering: The Case of Portuguese Expansion. In The Social Construction of Technological Systems, hrsg. W.E. Bijker, T.P. Hughes, & T. Pinch, 111–134. MIT Press.

    Google Scholar 

  • Law, J. 1994. Organizing Modernity. Blackwell.

    Google Scholar 

  • Law, J. 2001. Ordering and Obduracy. Lancaster University: Centre for Science Studies and the Department of Sociology. Veröffentlicht unter https://www.lancaster.ac.uk/fass/resources/sociology-online-papers/papers/law-ordering-and-obduracy.pdf (letztes Abrufdatum: 26.04.2023)

  • Law, J., und I. Moser. 1999. Managing, Subjectivities and Desires. Lancaster University und Oslo University: Centre for Science Studies, the Department of Sociology and Teknologi, Innovasjon og Kultur. Veröffentlicht unter https://www.lancaster.ac.uk/fass/resources/sociology-online-papers/papers/law-moser-managing-subjectivities-desires.pdf (letztes Abrufdatum: 26.04.2023)

  • Lee, N., und S. Brown. 1994. Otherness and the Actor Network. The Undiscovered Continent. American Behavioral Scientist, 37(6): 772–790.

    Article  Google Scholar 

  • Lee, N., und P. Stenner. 1999. Who pays? Can we pay them back? In Actor Network Theory and After, hrsg. J. Law, & J. Hassard, 90–112. Blackwell.

    Google Scholar 

  • Lewis, J.D. 1981. G.H. Mead’s Contact Theory of Reality: The Manipulatory Phase of the Act in the Constitution of Mundane, Scientific, Aesthetic, and Evaluative Objects. Symbolic Interaction, 4(2): 129–141.

    Google Scholar 

  • Linde, H. 1972. Sachdominanz in Sozialstrukturen. Mohr.

    Google Scholar 

  • Luger, G.F. 2005. Artificial Intelligence: Structures and Strategies for Complex Problem Solving. Fifth Edition. Addison-Wesley.

    Google Scholar 

  • Luhmann, N. 1967. Reflexive Mechanismen. Soziale Welt, 18(2/3): 97–123.

    Google Scholar 

  • Luhmann, N. 1984. Soziale Systeme. Grundriss einer allgemeinen Theorie. Suhrkamp.

    Google Scholar 

  • Luhmann, N. 1992a. Kontingenz als Eigenwert der modernen Gesellschaft. In Beobachtungen der Moderne, ders., 93–128. Westdeutscher Verlag.

    Google Scholar 

  • Luhmann, N. 1992b. Europäische Rationalität. In Beobachtungen der Moderne, ders., 51–91. Westdeutscher Verlag.

    Google Scholar 

  • Mainzer, K. 2019. Künstliche Intelligenz – Wann übernehmen die Maschinen? Springer.

    Book  Google Scholar 

  • Makropoulos, M. 1997. Modernität und Kontingenz. Fink.

    Google Scholar 

  • Mead, G.H. 1932. The Physical Thing, Supplementary Essay 2. In The Philosophy of the Present, hrsg. A.E. Murphy, 119–139. Open Court.

    Google Scholar 

  • Moser, I., und J. Law. 1999. Good Passages, Bad Passages. In Actor Network Theory and After, hrsg. J. Law, & J. Hassard, 196–219. Blackwell.

    Google Scholar 

  • Moser, I., und J. Law. 2001. ‘Making Voices’: New Media Technologies, Disabilities, and Articulation. Lancaster University: Centre for Science Studies and the Department of Sociology. Veröffentlicht unter https://www.lancaster.ac.uk/fass/resources/sociology-online-papers/papers/moser-law-making-voices.pdf (letztes Abrufdatum: 26.04.2023)

  • Muhle, F. (Hrsg.). 2023. Soziale Robotik. Eine sozialwissenschaftliche Einführung. de Gruyter.

    Google Scholar 

  • Munro, R. 1997. Ideas of Difference: Stability, Social Spaces and the Labour of Division. In Ideas of Difference: Social Spaces and the Labour of Division, hrsg. K. Hetherington, & R. Munro, 3–24. Blackwell.

    Google Scholar 

  • Nake, F. 2008. Surface, Interface, Subface. Three Cases of Interaction and One Concept. In Paradoxes of Interactivity. Perspectives for Media Theory, Human-Computer Interaction, and Artistic Investigations, hrsg. U. Seifert, J. H. Kim, & A.A. Moore, 92–109. transcript.

    Google Scholar 

  • Nake, F., und S. Grabowski. 2005. Zwei Weisen, das Computerbild zu betrachten. In HyperKult II: Zur Ortsbestimmung analoger und digitaler Medien , hrgs. M. Warnke, W. Coy, & G.C. Tholen, 123–150. Transcript.

    Google Scholar 

  • Nassehi, A. 2019. Muster. Theorie der digitalen Gesellschaft. C.H. Beck.

    Google Scholar 

  • Neuweg, G.H. 2015. Das Schweigen der Könner. Gesammelte Schriften zum impliziten Wissen. Waxmann.

    Google Scholar 

  • Oevermann, U. 2002. Klinische Soziologie auf der Basis der Methodologie der objektiven Hermeneutik (Manifest der objektiv hermeneutischen Sozialforschung). Frankfurt a.M.: Goethe-Universität. Veröffentlicht unter http://publikationen.ub.uni-frankfurt.de/files/4958/ManifestWord.pdf (letztes Abrufdatum: 26.04.2023)

  • Orlikowski, W.J. 1992. The Duality of Technology: Rethinking the Concept of Technology in Organizations. Organization Science, 3(3): 398–427.

    Article  Google Scholar 

  • Orr, J.E. 1996. Talking About Machines. An Ethnography of a Modern Job. ILR Press.

    Google Scholar 

  • Pfeiffer, S. 2021. Digitalisierung als Distributivkraft. Über das Neue am digitalen Kapitalismus. transcript.

    Google Scholar 

  • Pickering, A. 1995. The Mangle of Practice: Time, Agency, and Science. University of Chicago Press.

    Book  Google Scholar 

  • Pinch, T.J., und W.E. Bijker. 1984. The Social Construction of Facts and Artefacts: or How the Sociology of Science and the Sociology of Technology Might Benefit Each Other. Social Studies of Science, 14(3): 399–441.

    Article  Google Scholar 

  • Polanyi, M. 1985. Implizites Wissen. Suhrkamp.

    Google Scholar 

  • Rammert, W. (Hrsg.). 1995. Soziologie und künstliche Intelligenz – Produkte und Probleme einer Hochtechnologie. Campus.

    Google Scholar 

  • Rammert, W. 1998. Technikvergessenheit der Soziologie? Eine Erinnerung als Einleitung. In Technik und Sozialtheorie, hrsg. W. Rammert, 9–28. Campus.

    Google Scholar 

  • Rammert, W. 1999. Relations That Constitute Technology and Media That Make a Difference: Toward a Social Pragmatic Theory of Technicization, Techné: Research in Philosophy and Technology, 4(3): 165–177.

    Google Scholar 

  • Rammert, W. 2003. Technik in Aktion: verteiltes Handeln in soziotechnischen Konstellationen. TUTS – Working Papers, 2–2003. Technische Universität Berlin, Fak. VI Planen, Bauen, Umwelt, Institut für Soziologie, Fachgebiet Techniksoziologie. Veröffentlicht unter https://nbn-resolving.org/urn:nbn:de:0168-ssoar-11573 (letztes Abrufdatum: 26.04.2023)

  • Rammert, W. 2007. Technik – Handeln – Wissen. Zu einer pragmatistischen Technik- und Sozialtheorie. VS Verlag für Sozialwissenschaften.

    Google Scholar 

  • Rammert, W. 2016. Technik – Handeln – Wissen. Zu einer pragmatistischen Technik- und Sozialtheorie. Springer VS.

    Google Scholar 

  • Rammert, W., und I. Schulz-Schaeffer. 2002. Technik und Handeln – Wenn soziales Handeln sich auf menschliches Verhalten und technische Artefakte verteilt. Technical University Technology Studies Working Papers, TUTS-WP-4–2002. Veröffentlicht unter https://nbn-resolving.org/urn:nbn:de:0168-ssoar-122133 (letztes Abrufdatum: 26.04.2023)

  • Rauer, V. 2016. The Mobilization of Algorithms. In Algorithmic Cultures. Essays on Meaning, Performance and New Technologies, hrsg. R. Seyfert, & J. Roberge, 140–157. Routledge.

    Google Scholar 

  • Rauer, V. 2023. Von Interaktion zur Transformaktion: Die Folgen von Künstlicher Intelligenz für Theorien sozialen Handelns. In Künstliche Intelligenz, Mensch und Gesellschaft, hrsg. M. Heinlein, & N. Huchler. Springer VS.

    Google Scholar 

  • Reckwitz, A. 2004. Die Kontingenzperspektive der ‚Kultur‘. Kulturbegriffe, Kulturtheorien und das kulturwissenschaftliche Forschungsprogramm. In Handbuch der Kulturwissenschaften. Band 3: Themen und Tendenzen, hrsg. F. Jaeger, & J. Rüsen, 1–20. Metzler.

    Google Scholar 

  • Ropohl, G. 2005. Die kulturelle Verzögerung der Techniksoziologie. In Pragmatisches Philosophieren. Festschrift für Hans Lenk, hrsg. R. Dürr, G. Gebauer, M. Maring, & H.-P. Schütt, 392–403. LIT.

    Google Scholar 

  • Rosengrün, S. 2021. Künstliche Intelligenz zur Einführung. Junius.

    Google Scholar 

  • Schulz-Schaeffer, I. 2008. Deutung und Delegation: Handlungsträgerschaft von Technik als doppeltes Zuschreibungsphänomen. In Die Natur der Gesellschaft: Verhandlungen des 33. Kongresses der Deutschen Gesellschaft für Soziologie in Kassel 2006, hrsg. K.-S. Rehberg, 3135–3144. Campus.

    Google Scholar 

  • Schütz, A. 2004. Das Problem der Relevanz. In Alfred Schütz Werkausgabe, Bd. VI.1, Relevanz und Handeln 1. Zur Phänomenologie des Alltagswissens, hrsg. E. List, 57–249. UVK.

    Google Scholar 

  • Schwartz, R.D. 1989. Artificial Intelligence as a Sociological Phenomenon. The Canadian Journal of Sociology, 14(2): 179–202.

    Article  Google Scholar 

  • Seising, R. 2021. Es denkt nicht! Die vergessenen Geschichten der KI. Büchergilde Gutenberg.

    Google Scholar 

  • Smolensky, P. 1988. On the Proper Treatment of Connectionism. Behavioral and Brain Sciences, 11(1): 1–74.

    Article  Google Scholar 

  • Smolensky, P. 2012. Subsymbolic Computation Theory for the Human Intuitive Processor. In How the World Computes. CiE 2012. Lecture Notes in Computer Science, vol 7318, hrsg. S.B. Cooper, A. Dawar, & B. Löwe, 675–685. Springer.

    Google Scholar 

  • Straub, I. 2020. Zur Sozialität und Entität eines androiden Roboters. Empirische Zugänge zum Objekt- und Subjektstatus. Springer VS.

    Google Scholar 

  • Treusch, P. 2021. Robotic Knitting. Re-Crafting Human-Robot Collaboration Through Careful Coboting. transcript.

    Google Scholar 

  • Woolgar, S. 1985. Why Not a Sociology of Machines? The Case of Sociology and Artificial Intelligence. Sociology, 19(4): 557–572.

    Article  Google Scholar 

  • Zuboff, S. 1988. In the Age of the Smart Machine: The Future of Work and Power. Basic Books, Inc.

    Google Scholar 

  • Zuboff, S. 2015. Big Other: Surveillance Capitalism and the Prospects of an Information Civilization. Journal of Information Technology, 30(1): 75–89.

    Article  Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Michael Heinlein .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2024 Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Heinlein, M. (2024). Künstliche Intelligenz als kontingenzerzeugende Technik: Eine praxistheoretische Perspektive. In: Heinlein, M., Huchler, N. (eds) Künstliche Intelligenz, Mensch und Gesellschaft. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-43521-9_16

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-43521-9_16

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-43520-2

  • Online ISBN: 978-3-658-43521-9

  • eBook Packages: Social Science and Law (German Language)

Publish with us

Policies and ethics