Zusammenfassung
Der Beitrag entwickelt eine praxistheoretische Perspektive, um das technische Wirken subsymbolischer Künstlicher Intelligenz (KI) zu analysieren und die soziologische Relevanz und Spezifik dieser relativ neuen, zur Interaktion mit Menschen fähigen Form von KI herauszuarbeiten. In der soziologischen Diskussion ist noch keineswegs geklärt, wie die Nutzung von Techniken, die auf Deep Learning und Künstlichen Neuronalen Netzen aufbauen, zu verstehen und in ihren Folgen für gesellschaftliche und soziale Zusammenhänge zu bewerten ist. Der Beitrag schlägt vor, das Wirken interaktiver KI als Erzeugung von Kontingenz in Praxiszusammenhängen zu begreifen. Unterschieden werden dabei drei Formen: agentielle Kontingenz, epistemische Kontingenz und formative Kontingenz. Vor diesem Hintergrund ergeben sich neue Perspektiven auf die Einbettung und Reflexion von KI in der Nutzungspraxis.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Notes
- 1.
- 2.
Wie es von einer „multiparadigmatischen Wissenschaft“ (Kneer & Schroer 2009) wie der Soziologie zu erwarten ist, findet sich mittlerweile eine Vielzahl an Perspektiven auf KI. Diese reichen von ethnographischen Studien zur Sozialrobotik (Breazeal 2002; Muhle 2023), die die verkörperte Form von KI in den Vordergrund rücken (z. B. Alač 2009, 2016; Bischof 2017; Koolwaay 2018; Straub 2020) bis hin zu Arbeiten, die KI als ein algorithmisches Geschehen fassen, durch das neuartige gesellschaftliche Möglichkeits- und Wirklichkeitsräume eröffnet werden. Dieser Zugang findet sich vorrangig in der Systemtheorie, die sich bereits früh mit der Kommunikation mit Computern auseinandergesetzt hat (u. a. Baecker 2011; Esposito 2014, 2017; Harth & Lorenz 2017) und in Studien zur ‚intelligenten‘ Algorithmisierung von Öffentlichkeit, Macht und Kontrolle, wie sie etwa als neues ökonomisches Prinzip von „data, extraction, analysis“ (Zuboff 2015), als „threat of algocracy“ (Danaher 2016), als (un-)sichtbar von Daten durchzogenes „algorithmic life“ (Amoore & Piotukh 2016) oder als politisch und ethisch problematische Verengung von entscheidungsrelevanten Perspektiven und Zukunftsnarrativen durch KI (Amoore 2020) diskutiert wird.
- 3.
‚Die‘ Künstliche Intelligenz gibt es nicht, da unter diesem Sammelbegriff eine Vielzahl von Technologien und Paradigmen (darunter das Paradigma der konnektionistischen bzw. subsymbolischen KI) verhandelt werden. Zudem ist der Begriff der Künstlichen Intelligenz selbst einem historischen Wandel unterworfen, sodass mit ihm in Abhängigkeit von technischen und sozialen Entwicklungen zu verschiedenen Zeiten jeweils Anderes bezeichnet wurde. Es gibt mittlerweile eine Fülle an Literatur, die sowohl den Begriff der Künstlichen Intelligenz als auch die unter diesem Begriff firmierenden Technikformen erläutern und historisch einordnen – einen solchen Überblick kann dieser Beitrag nicht leisten. Stellvertretend für viele seien daher an dieser Stelle Mainzer (2019), Rosengrün (2021) und Seising (2021) genannt.
- 4.
Das Paradigma der symbolischen KI geht davon aus, „that the correct level at which to model the mind is that of the symbol – that is, an entity in a computer program that is taken to refer to some entity in the real world.“ (Chalmers 1992, S. 26; Hervorh. i. Orig.).
- 5.
Symbole werden in dieser vernetzten Funktionsweise allein als Ergebnis sichtbar: Konnektionistische KI-Systeme „still follow rules, but the rules are well below the semantic level. It is hoped that as a consequence of following rules at this low level, semantic properties will emerge – that is, manifest themselves in the processing and behavior of the program – without having been explicitly programmed in. Consequently, when viewed at the semantic level such systems often do not appear to be engaged in rule-following behavior, as the rules that govern these systems lie at a deeper level.“ (Chalmers 1992, S. 26; siehe auch Smolensky 2012).
- 6.
Dieser Prozess der Gewichtung und Strukturierung der algorithmischen Relationen kann von außen nicht beobachtet werden, da er in den verborgenen Schichten der KI stattfindet – die Qualitätssteigerung bemisst sich somit allein am von der KI erzielten Ergebnis. Hier setzen die Debatten um eine nachvollziehbare und transparente KI an, die auch deshalb schwer zu realisieren ist, da es sich bei neueren KI-Anwendungen eben um subsymbolisch operierende Systeme handelt.
- 7.
Dies kann sich, wie die aktuelle Entwicklung sogenannter Large Language Models (LLMs) bzw. Transformer-Technologien zeigt, jedoch schnell ändern. Zum Zeitpunkt des Schreibens dieses Textes erhalten diese Technologien deshalb erhöhte Aufmerksamkeit, da sie mit ihrer konnektionistischen Architektur in der Lage sind, mit entsprechendem Training Inhalte (z. B. Texte oder Bilder) zu generieren, die der Performanz menschlicher Akteure erstaunlich nahekommen. Bubeck et al. (2023) machen hier – unter Berücksichtigung bekannter Restriktionen von LLMs und algorithmischer biases – sogar „sparks“ einer allgemeinen Intelligenz von KI aus. Ob diese These haltbar ist, wird sich nach dem Abflauen des Hypes um diese Technik allerdings erst noch zeigen müssen.
- 8.
Unvorhersehbar ist eine Technik auch dann, wenn sie plötzlich defekt ist oder aufgrund einer Fehlfunktion Fehler produziert – siehe etwa Latour (2002b) für das Versagen eines Overhead-Projektors oder Orr (1996) für das Irritationspotenzial von Fotokopierern. Dies gilt grundsätzlich auch für KI, ist hier aber nicht mit ‚neuer Qualität der Unvorhersehbarkeit‘ gemeint, die auf die dieser Technik intentional eingeschriebenen Potenziale abhebt.
- 9.
Im Folgenden meint KI immer die beschriebene Form der konnektionistischen bzw. subsymbolischen KI.
- 10.
Es stellt sich die Frage, inwieweit ein ‚klassischer‘ soziologischer Technikbegriff im Kontext von KI überhaupt noch tragfähig ist. Die Überlegungen in diesem Beitrag können auch als Versuch gelesen werden, den Technikbegriff um Dimensionen der Kontingenz zu erweitern.
- 11.
- 12.
Wesentlich dafür ist, die praktischen Bedingungen von Handeln und Wissen herauszuarbeiten, die sich mit dem Wirken von KI einstellen und etablieren. Wenn daher im Folgenden die Akteur-Netzwerk-Theorie diskutiert wird, dann geschieht dies im Sinne einer Praxistheorie, der ein Praxisbegriff zugrunde liegt, der auf eine soziotechnisch erzeugte und sich dynamisch verändernde Ermöglichungsstruktur von Handlungen und Kommunikation abhebt. Der Begriff des Wirkens, der auf die transformativen Effekte von KI in ebendieser Praxis abstellt, dient dazu, apriorische Zuschreibungen von Handlungsfähigkeit oder Intentionalität an KI und eine damit verbundene Anthropomorphisierung einer menschengemachten Technik zu vermeiden. Zugleich wird damit der Umstand markiert, „dass Handlung und Technik jeweils nur in Zusammenhängen emergieren“ (Rammert 2016, S. 105), die im Falle von KI sowohl Erwartbares als auch Unerwartbares produzieren.
- 13.
Man kann dies analog zum Verhältnis von Strukturfunktionalismus und Systemtheorie sehen: Während Talcott Parsons den Begriff des sozialen Systems analytisch verwendet, geht Niklas Luhmann davon aus, „dass es Systeme gibt.“ (Luhmann 1984, S. 30) Diese Differenz hat weitreichende Folgen für die Theorieentwicklung und empirische Forschung. In diesem Beitrag wird davon ausgegangen, dass es analytisch Sinn macht, technisches Wirken und menschliches Handeln symmetrisch zu beschreiben – doch dass dies keineswegs bedeutet, dass Technik ‚intelligent‘ ist oder ‚intentional‘ handelt.
- 14.
Darauf weist auch Rauer (2023) hin, wenn er von sozio-algorithmischen Dynamiken spricht, die eindeutige Zurechnungen von Autorenschaft in der Praxis mit ‚intelligent‘ automatisierten Schreib(unterstützungs)programmen (z. B. ChatGPT) erschweren oder gar unmöglich machen.
- 15.
Es wäre zu prüfen, ob und inwieweit diese Verschränkung von sinnsetzendem (erzeugte Selektivität) und sinnerzeugendem Wirken (erzeugende Selektivität) von KI ihrer Anthropomorphisierung Vorschub leistet: KI erscheint als eine Technik, deren technisches Wirken zu Deutungen einlädt, die sie im Bereich des Menschlichen ansiedelt.
- 16.
Paradigmatisch dafür können generative KI-Anwendungen bzw. Transformer-Technologien wie der Chatbot ChatGPT gelten, die in Echtzeit im Austausch mit Nutzenden sinnvolle Texte erzeugen.
- 17.
Analog zum Bloor’schen Symmetrieprinzip ist für diese Theoretisierung einer soziotechnischen Wissensgenese die Unterscheidung von ‚wahrem‘ und ‚falschem‘ Wissen auf analytischer (!) Ebene nicht von Bedeutung – für die gesellschaftliche Nutzung von KI allerdings umso mehr. Selbst fortgeschrittene KI-Anwendungen wie der Chatbot ChatGPT produzieren falsche Informationen und ‚fake news‘, die – nolens volens – von mehr oder weniger kompetenten Nutzenden bewertet und eingeordnet werden müssen.
- 18.
Abzugrenzen davon ist die Notwendigkeit, Wissen über die Arten und Folgen der Algorithmisierung (in) der Gesellschaft zu entwickeln, die „uns ein anderes Denken über die Produktion von Macht und Hegemonie im Web, über die Formung und Ausrichtung von Information online, abverlangen.“ (Cardon 2017, S. 131 f.).
- 19.
Bezogen auf die vieldiskutierte Frage der Standardisierung von Wissen durch KI bedeutet dies, dass Standardisierung praktisch immer auch mit Differenzen zu tun hat bzw. gerade auf die Möglichkeit von Differenzen angewiesen ist, um wirksam zu werden. Oder anders formuliert: Standardisierung muss Kontingenzen in der praktischen Umsetzung mit einrechnen und aushalten (können).
- 20.
Folgt man Armin Nassehi, dann hängt die Zuschreibung von Intelligenz an eine Technik damit zusammen, dass „der Nutzer oder Anwender einer solchen Technik die Kontingenz des Gegenübers wahrnimmt, will heißen: dass man davon überrascht wird, dass der Automat so und nicht doch anders entscheidet – was den Automaten dann eben nicht mehr als Automaten erscheinen lässt.“ (Nassehi 2019, S. 222).
- 21.
Mit Alfred Schütz (2004) lässt sich Relevanz als Verhältnis zwischen einem Ereignis und der darauf bezogenen Bedeutungszuschreibung verstehen. Aufseiten der KI können Korrelationen als Relevanzstrukturen gelten, wohingegen aufseiten des Individuums Relevanzen eng mit dem ihm verfügbaren Wissen und Erfahrungen zusammenhängen. Eine ‚symmetrische‘ Relevanztheorie für die hier beschriebene Relationierung von Mensch und KI, die die Etablierung einer soziotechnischen Ordnung entlang der Wechselseitigkeit und Dynamik je eigener algorithmischer und sozialer Relevanzstrukturen beschreibt, steht allerdings noch aus.
- 22.
Interessant, aber soziologisch kurzsichtig erscheint hier die These einer „Obsoleszenz des Impliziten“ (Bächle et al. 2017), die behauptet, dass humanoide Roboter über Sensorik „mit den Dimensionen impliziten Wissens umzugehen“ (ebd., S. 68) wüssten und sie im eigenen Tun reproduzieren könnten. Dies verkürzt die Debatte um implizites Wissen jedoch beträchtlich und blendet aus, dass dazu mehr gehört als ein nur als regelhaft beobachtbares und damit algorithmisch formalisierbares Interaktionsgeschehen (siehe dazu u. a. Böhle & Rose 1992, Neuweg 2015 und Polanyi 1985). Aus diesem Grunde werden in der Argumentation dieses Beitrags die Ebenen der beobachtbaren Aktionen und die des verborgenen Impliziten und Latenten analytisch voneinander getrennt.
- 23.
Eine menschliche Person kann immerhin ihr Handeln nachträglich rationalisieren und erklären.
- 24.
Dies mag sich langsam ändern, da auch mediale Diskurse mittlerweile die Verzerrungen durch und Grenzen von KI (vgl. etwa Pfeiffer 2021, S. 284–285) erkennen und in der Berichterstattung aufgreifen.
- 25.
Man kann dies auch so formulieren, dass es nicht nur um das Was des Wirkens von KI geht (Intransparenz), sondern auch um das Wie (Latenz).
Literatur
Alač, M. 2009. Moving Android: On Social Robots and Body-in-Interaction. Social Studies of Science, 39(4): 491–528.
Alač, M. 2016. Social Robots: Things or Agents? AI & Society, 31(4): 519–535.
Amoore, L.A. 2013. The Politics of Possibility: Risk and Security Beyond Probability. Duke University Press.
Amoore, L.A. 2020. Cloud Ethics: Algorithms and the Attributes of Ourselves and Others. Duke University Press.
Amoore, L.A., und V. Piotukh (Hrsg.). 2016. Algorithmic Life. Calculative Devices in the Age of Big Data. Routledge.
Bächle, Thomas C., P. Regier, und M. Bennewitz. 2017. Sensor und Sinnlichkeit: Humanoide Roboter als selbstlernende soziale Interfaces und die Obsoleszenz des Impliziten. Navigationen – Zeitschrift für Medien- und Kulturwissenschaften, 17(2): 67–86.
Baecker, D. 2011. Who Qualifies for Communication? A Systems Perspective on Human and Other Possibly Intelligent Beings Taking Part in the Next Society. Technikfolgenabschätzung – Theorie und Praxis, 20(1): 17–26.
Baecker, D. 2019. Auf dem Weg zu einer Theorie der digitalen Gesellschaft: Rezension zu ‚Muster – Theorie der digitalen Gesellschaft‘ von Armin Nassehi. Soziopolis: Gesellschaft beobachten, veröffentlicht unter https://nbn-resolving.org/urn:nbn:de:0168-ssoar-81735-2 (letztes Abrufdatum: 26.04.2023)
Berger, P.L., und T. Luckmann. 1969. Die gesellschaftliche Konstruktion der Wirklichkeit. Eine Theorie der Wissenssoziologie. Fischer.
Bijker, W.E. 1992. The Social Construction of Fluorescent Lighting, or How an Artifact Was Invented in Its Diffusion Stage. In Shaping Technology – Building Society: Studies in Sociotechnical Change, hrsg. W.E. Bijker, & J. Law, 75–102. MIT Press.
Bijker, W.E. 1995. Of Bicycles, Bakelite and Bulbs: Toward a Theory of Sociotechnical Change. MIT Press.
Bischof, A. 2017. Soziale Maschinen bauen. Epistemische Praktiken der Sozialrobotik. transcript.
Bloor, D. 1976. Knowledge and Social Imagery. Routledge.
Bloor, D. 1998. Anti-Latour. Studies in History and Philosophy of Science, 1: 81–112.
Böhle, F., und H. Rose. 1992. Technik und Erfahrung. Campus.
Bongaerts, G. 2008. Verdrängungen des Ökonomischen. Bourdieus Theorie der Moderne. transcript.
Bongaerts, G. 2017. Zur Vollzugswirklichkeit des Handelns. Soziale Welt, 68(2–3): 157–173.
Bourdieu, P. 1987. Sozialer Sinn. Kritik der theoretischen Vernunft. Suhrkamp.
Breazeal, C. 2002. Designing Sociable Robots. MIT Press.
Brent Jr., E.E. 1986. Knowledge-based Systems: A Qualitative Formalism. Qualitative Sociology, 9(3): 256–282.
Brödner, P. 2022. Die Illusionsfabrik der ‚KI‘-Narrative. FIfF-Kommunikation, 22(2): 32–36.
Brynjolfsson, E., D. Rock, und C. Syverson. 2019. Artificial Intelligence and the Modern Productivity Paradox: A Clash of Expectations and Statistics. In The Economics of Artificial Intelligence: An Agenda, hrsg. A. Agrawal, J. Gans, & A. Goldfarb, 23–60. University of Chicago Press.
Bubeck, S., V. Chandrasekaran, R. Eldan, J. Gehrke, E. Horvitz, E. Kamar, P. Lee, Y.T. Lee, Y. Li, S. Lundberg, H. Nori, H. Palangi, M.T. Ribeiro, und Y. Zhang. 2023. Sparks of Artificial General Intelligence: Early experiments with GPT-4. Veröffentlicht unter https://arxiv.org/abs/2303.12712 (letztes Abrufdatum: 26.04.2023)
Callon, M. 1986. Some Elements of a Sociology of Translation: Domestication of the Scallops and the Fishermen of St Brieuc Bay. In Power, Action and Belief: A New Sociology of Knowledge? hrsg. J. Law, 196–233. Routledge and Kegan Paul.
Cardon, D. 2017. Den Algorithmus dekonstruieren. Vier Typen digitaler Informationsberechnung. In Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit, hrsg. R. Seyfert, & J. Roberge, 131–150. transcript.
Chalmers, D.J. 1992. Subsymbolic Computation and the Chinese Room. In The Symbolic and Connectionist Paradigms: Closing the Gap, hrsg. J. Dinsmore, 25–48. Psychology Press.
Collins, H.M. 1990. Artificial Experts: Social Knowledge and Intelligent Machines. MIT Press.
Collins, H.M., und S. Yearley. 1992. Epistemological Chicken. In: Science as Practice and Culture, hrsg. A. Pickering, 301–326. The University of Chicago Press.
Crafts, N. 2021. Artificial Intelligence as a General-Purpose Technology: An Historical Perspective. Oxford Review of Economic Policy, 37(3): 521–536.
Danaher, J. 2016. The Threat of Algocracy: Reality, Resistance and Accommodation. Philosophy & Technology, 29(3): 245–268.
Degele, N. 2002. Einführung in die Techniksoziologie. Fink.
Dogruel, L., und S. Dickel. 2022. Die Kommunikativierung der Maschinen. Publizistik, 67(4): 475–486.
Durkheim, É. 1961. Die Regeln der soziologischen Methode. Luchterhand.
Dyer-Witheford, N., A.M. Kjøsen, und J. Steinhoff. 2019. Inhuman Power: Artificial Intelligence and the Future of Capitalism. Pluto Press.
Ennals, R. 1991. Artificial Intelligence and Human Institutions. Springer.
Esposito, E. 2014. Algorithmische Kontingenz. Der Umgang mit Unsicherheit im Web. In Die Ordnung des Kontingenten. Beiträge zur zahlenmäßigen Selbstbeschreibung der modernen Gesellschaft, hrsg. A. Cevolini, 233–249. Springer VS.
Esposito, E. 2017. Artificial Communication? The Production of Contingency by Algorithms, Zeitschrift für Soziologie, 46(4): 249–265.
Faßler, M. 1996. Mediale Interaktion: Speicher, Individualität, Öffentlichkeit. Fink.
Fitts, P.M. 1962. Functions of Man in Complex Systems. Aerospace Engineering, 21(1): 34–39.
Fodor, J.A., und Z.W. Pylyshyn. 1988. Connectionism and Cognitive Architecture: A Critical Analysis. Cognition, 28: 3–71.
Gilbert, G.N., und C. Heath (Hrsg.). 1985. Social Action and Artificial Intelligence. Gower.
Gillespie, T. 2014. The Relevance of Algorithms. In Media Technologies: Essays on Communication, Materiality, and Society, hrsg. T. Gillespie, P.J. Boczkowski, & K.A. Foot, 167–193. MIT Press.
Gurevich, Y. 2012. What Is an Algorithm? In SOFSEM 2012: Theory and Practice of Computer Science. SOFSEM 2012. Lecture Notes in Computer Science, hrsg. M. Bieliková, G. Friedrich, G. Gottlob, S. Katzenbeisser, & G. Turán, 31–42. Springer.
Guzman, A. L., und S.C. Lewis. 2020. Artificial Intelligence and Communication: A Human–Machine Communication Research Agenda. New Media & Society, 22(1): 70–86.
Halfmann, J. 1995. Editorial: Theoriebausteine der Techniksoziologie. In Technik und Gesellschaft. Jahrbuch 8: Theoriebausteine der Techniksoziologie, hrsg. J. Halfmann, G. Bechmann, & W. Rammert, 7–11. Campus.
Haraway, D. 1988. Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective. Feminist Studies, 14(3): 575–599.
Harth, J., und C.-F. Lorenz. 2017. „Hello World“ – Systemtheoretische Überlegungen zu einer Soziologie des Algorithmus. kommunikation@gesellschaft, 18(2).
Heinlein, M. 2022. Zeit. In Handbuch Sozialwissenschaftliche Gedächtnisforschung, Band 1: Grundbegriffe und Theorien, hrsg. G. Sebald, M. Berek, K. Chmelar, O. Dimbath, H. Haag, M. Heinlein, N. Leonhard, V. Rauer. Springer VS.
Heinlein, M., und N. Huchler. 2023. Artificial Intelligence in the Practice of Work: A New Way of Standardising or a Means to Maintain Complexity? Work Organisation, Labour & Globalisation, 17(1): 34–60.
Hirsch-Kreinsen, H. 2023. Das Versprechen der Künstlichen Intelligenz. Gesellschaftliche Dynamik einer Schlüsseltechnologie. Campus.
Kneer, G., und M. Schroer. 2009. Soziologie als multiparadigmatische Wissenschaft. Eine Einleitung. In Handbuch Soziologische Theorien, hrsg. G. Kneer, & M. Schroer, 7–18. VS Verlag für Sozialwissenschaften.
Koolwaay, J. 2018. Die soziale Welt der Roboter: Interaktive Maschinen und ihre Verbindung zum Menschen. transcript.
Latour, B. 1988. Mixing Humans and Nonhumans Together. The Sociology of a Door-Closer. Social Problems, 35(3): 298–310.
Latour, B. 1996. Haben auch Objekte eine Geschichte? Ein Zusammentreffen von Pasteur und Whitehead in einem Milchsäurebad. In Der Berliner Schlüssel. Erkundungen eines Liebhabers der Wissenschaften, 87–112. Akademie Verlag.
Latour, B. 1998. Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie. Fischer.
Latour, B. 2002a. Zirkulierende Referenz. Bodenstichproben aus dem Urwald am Amazonas. In Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft, 36–95. Suhrkamp.
Latour, B. 2002b. Ein Kollektiv von Menschen und nichtmenschlichen Wesen. Auf dem Weg durch Dädalus’ Labyrinth. In Die Hoffnung der Pandora. Untersuchungen zur Wirklichkeit der Wissenschaft, 211–264. Suhrkamp.
Latour, B. 2005. Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford University Press.
Law, J. 1987. Technology and Heterogeneous Engineering: The Case of Portuguese Expansion. In The Social Construction of Technological Systems, hrsg. W.E. Bijker, T.P. Hughes, & T. Pinch, 111–134. MIT Press.
Law, J. 1994. Organizing Modernity. Blackwell.
Law, J. 2001. Ordering and Obduracy. Lancaster University: Centre for Science Studies and the Department of Sociology. Veröffentlicht unter https://www.lancaster.ac.uk/fass/resources/sociology-online-papers/papers/law-ordering-and-obduracy.pdf (letztes Abrufdatum: 26.04.2023)
Law, J., und I. Moser. 1999. Managing, Subjectivities and Desires. Lancaster University und Oslo University: Centre for Science Studies, the Department of Sociology and Teknologi, Innovasjon og Kultur. Veröffentlicht unter https://www.lancaster.ac.uk/fass/resources/sociology-online-papers/papers/law-moser-managing-subjectivities-desires.pdf (letztes Abrufdatum: 26.04.2023)
Lee, N., und S. Brown. 1994. Otherness and the Actor Network. The Undiscovered Continent. American Behavioral Scientist, 37(6): 772–790.
Lee, N., und P. Stenner. 1999. Who pays? Can we pay them back? In Actor Network Theory and After, hrsg. J. Law, & J. Hassard, 90–112. Blackwell.
Lewis, J.D. 1981. G.H. Mead’s Contact Theory of Reality: The Manipulatory Phase of the Act in the Constitution of Mundane, Scientific, Aesthetic, and Evaluative Objects. Symbolic Interaction, 4(2): 129–141.
Linde, H. 1972. Sachdominanz in Sozialstrukturen. Mohr.
Luger, G.F. 2005. Artificial Intelligence: Structures and Strategies for Complex Problem Solving. Fifth Edition. Addison-Wesley.
Luhmann, N. 1967. Reflexive Mechanismen. Soziale Welt, 18(2/3): 97–123.
Luhmann, N. 1984. Soziale Systeme. Grundriss einer allgemeinen Theorie. Suhrkamp.
Luhmann, N. 1992a. Kontingenz als Eigenwert der modernen Gesellschaft. In Beobachtungen der Moderne, ders., 93–128. Westdeutscher Verlag.
Luhmann, N. 1992b. Europäische Rationalität. In Beobachtungen der Moderne, ders., 51–91. Westdeutscher Verlag.
Mainzer, K. 2019. Künstliche Intelligenz – Wann übernehmen die Maschinen? Springer.
Makropoulos, M. 1997. Modernität und Kontingenz. Fink.
Mead, G.H. 1932. The Physical Thing, Supplementary Essay 2. In The Philosophy of the Present, hrsg. A.E. Murphy, 119–139. Open Court.
Moser, I., und J. Law. 1999. Good Passages, Bad Passages. In Actor Network Theory and After, hrsg. J. Law, & J. Hassard, 196–219. Blackwell.
Moser, I., und J. Law. 2001. ‘Making Voices’: New Media Technologies, Disabilities, and Articulation. Lancaster University: Centre for Science Studies and the Department of Sociology. Veröffentlicht unter https://www.lancaster.ac.uk/fass/resources/sociology-online-papers/papers/moser-law-making-voices.pdf (letztes Abrufdatum: 26.04.2023)
Muhle, F. (Hrsg.). 2023. Soziale Robotik. Eine sozialwissenschaftliche Einführung. de Gruyter.
Munro, R. 1997. Ideas of Difference: Stability, Social Spaces and the Labour of Division. In Ideas of Difference: Social Spaces and the Labour of Division, hrsg. K. Hetherington, & R. Munro, 3–24. Blackwell.
Nake, F. 2008. Surface, Interface, Subface. Three Cases of Interaction and One Concept. In Paradoxes of Interactivity. Perspectives for Media Theory, Human-Computer Interaction, and Artistic Investigations, hrsg. U. Seifert, J. H. Kim, & A.A. Moore, 92–109. transcript.
Nake, F., und S. Grabowski. 2005. Zwei Weisen, das Computerbild zu betrachten. In HyperKult II: Zur Ortsbestimmung analoger und digitaler Medien , hrgs. M. Warnke, W. Coy, & G.C. Tholen, 123–150. Transcript.
Nassehi, A. 2019. Muster. Theorie der digitalen Gesellschaft. C.H. Beck.
Neuweg, G.H. 2015. Das Schweigen der Könner. Gesammelte Schriften zum impliziten Wissen. Waxmann.
Oevermann, U. 2002. Klinische Soziologie auf der Basis der Methodologie der objektiven Hermeneutik (Manifest der objektiv hermeneutischen Sozialforschung). Frankfurt a.M.: Goethe-Universität. Veröffentlicht unter http://publikationen.ub.uni-frankfurt.de/files/4958/ManifestWord.pdf (letztes Abrufdatum: 26.04.2023)
Orlikowski, W.J. 1992. The Duality of Technology: Rethinking the Concept of Technology in Organizations. Organization Science, 3(3): 398–427.
Orr, J.E. 1996. Talking About Machines. An Ethnography of a Modern Job. ILR Press.
Pfeiffer, S. 2021. Digitalisierung als Distributivkraft. Über das Neue am digitalen Kapitalismus. transcript.
Pickering, A. 1995. The Mangle of Practice: Time, Agency, and Science. University of Chicago Press.
Pinch, T.J., und W.E. Bijker. 1984. The Social Construction of Facts and Artefacts: or How the Sociology of Science and the Sociology of Technology Might Benefit Each Other. Social Studies of Science, 14(3): 399–441.
Polanyi, M. 1985. Implizites Wissen. Suhrkamp.
Rammert, W. (Hrsg.). 1995. Soziologie und künstliche Intelligenz – Produkte und Probleme einer Hochtechnologie. Campus.
Rammert, W. 1998. Technikvergessenheit der Soziologie? Eine Erinnerung als Einleitung. In Technik und Sozialtheorie, hrsg. W. Rammert, 9–28. Campus.
Rammert, W. 1999. Relations That Constitute Technology and Media That Make a Difference: Toward a Social Pragmatic Theory of Technicization, Techné: Research in Philosophy and Technology, 4(3): 165–177.
Rammert, W. 2003. Technik in Aktion: verteiltes Handeln in soziotechnischen Konstellationen. TUTS – Working Papers, 2–2003. Technische Universität Berlin, Fak. VI Planen, Bauen, Umwelt, Institut für Soziologie, Fachgebiet Techniksoziologie. Veröffentlicht unter https://nbn-resolving.org/urn:nbn:de:0168-ssoar-11573 (letztes Abrufdatum: 26.04.2023)
Rammert, W. 2007. Technik – Handeln – Wissen. Zu einer pragmatistischen Technik- und Sozialtheorie. VS Verlag für Sozialwissenschaften.
Rammert, W. 2016. Technik – Handeln – Wissen. Zu einer pragmatistischen Technik- und Sozialtheorie. Springer VS.
Rammert, W., und I. Schulz-Schaeffer. 2002. Technik und Handeln – Wenn soziales Handeln sich auf menschliches Verhalten und technische Artefakte verteilt. Technical University Technology Studies Working Papers, TUTS-WP-4–2002. Veröffentlicht unter https://nbn-resolving.org/urn:nbn:de:0168-ssoar-122133 (letztes Abrufdatum: 26.04.2023)
Rauer, V. 2016. The Mobilization of Algorithms. In Algorithmic Cultures. Essays on Meaning, Performance and New Technologies, hrsg. R. Seyfert, & J. Roberge, 140–157. Routledge.
Rauer, V. 2023. Von Interaktion zur Transformaktion: Die Folgen von Künstlicher Intelligenz für Theorien sozialen Handelns. In Künstliche Intelligenz, Mensch und Gesellschaft, hrsg. M. Heinlein, & N. Huchler. Springer VS.
Reckwitz, A. 2004. Die Kontingenzperspektive der ‚Kultur‘. Kulturbegriffe, Kulturtheorien und das kulturwissenschaftliche Forschungsprogramm. In Handbuch der Kulturwissenschaften. Band 3: Themen und Tendenzen, hrsg. F. Jaeger, & J. Rüsen, 1–20. Metzler.
Ropohl, G. 2005. Die kulturelle Verzögerung der Techniksoziologie. In Pragmatisches Philosophieren. Festschrift für Hans Lenk, hrsg. R. Dürr, G. Gebauer, M. Maring, & H.-P. Schütt, 392–403. LIT.
Rosengrün, S. 2021. Künstliche Intelligenz zur Einführung. Junius.
Schulz-Schaeffer, I. 2008. Deutung und Delegation: Handlungsträgerschaft von Technik als doppeltes Zuschreibungsphänomen. In Die Natur der Gesellschaft: Verhandlungen des 33. Kongresses der Deutschen Gesellschaft für Soziologie in Kassel 2006, hrsg. K.-S. Rehberg, 3135–3144. Campus.
Schütz, A. 2004. Das Problem der Relevanz. In Alfred Schütz Werkausgabe, Bd. VI.1, Relevanz und Handeln 1. Zur Phänomenologie des Alltagswissens, hrsg. E. List, 57–249. UVK.
Schwartz, R.D. 1989. Artificial Intelligence as a Sociological Phenomenon. The Canadian Journal of Sociology, 14(2): 179–202.
Seising, R. 2021. Es denkt nicht! Die vergessenen Geschichten der KI. Büchergilde Gutenberg.
Smolensky, P. 1988. On the Proper Treatment of Connectionism. Behavioral and Brain Sciences, 11(1): 1–74.
Smolensky, P. 2012. Subsymbolic Computation Theory for the Human Intuitive Processor. In How the World Computes. CiE 2012. Lecture Notes in Computer Science, vol 7318, hrsg. S.B. Cooper, A. Dawar, & B. Löwe, 675–685. Springer.
Straub, I. 2020. Zur Sozialität und Entität eines androiden Roboters. Empirische Zugänge zum Objekt- und Subjektstatus. Springer VS.
Treusch, P. 2021. Robotic Knitting. Re-Crafting Human-Robot Collaboration Through Careful Coboting. transcript.
Woolgar, S. 1985. Why Not a Sociology of Machines? The Case of Sociology and Artificial Intelligence. Sociology, 19(4): 557–572.
Zuboff, S. 1988. In the Age of the Smart Machine: The Future of Work and Power. Basic Books, Inc.
Zuboff, S. 2015. Big Other: Surveillance Capitalism and the Prospects of an Information Civilization. Journal of Information Technology, 30(1): 75–89.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2024 Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Heinlein, M. (2024). Künstliche Intelligenz als kontingenzerzeugende Technik: Eine praxistheoretische Perspektive. In: Heinlein, M., Huchler, N. (eds) Künstliche Intelligenz, Mensch und Gesellschaft. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-43521-9_16
Download citation
DOI: https://doi.org/10.1007/978-3-658-43521-9_16
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-43520-2
Online ISBN: 978-3-658-43521-9
eBook Packages: Social Science and Law (German Language)