1 Einleitung

Die Automatisierung von Kommunikation ist Ausdruck einer fundamentalen Transformation der Kommunikation in der Gesellschaft: Mehr oder weniger „künstlich intelligent“, sind Medien nicht mehr nur Vermittlungsinstanzen von Kommunikation, sondern werden selbst zu (teil-)automatisiert agierenden Systemen und Teilnehmern an Kommunikation. Die Phänomene und Beispiele hierfür sind vielfältig: Intensiv wird die Rolle von Bots und algorithmischer Personalisierung auf Social-Media-Plattformen beispielsweise bei der Verbreitung von „Fake News“ und „Hate Speech“ diskutiert. Systeme wie Amazon Alexa, Google Assistant, Microsoft Cortana oder Apple Siri ermöglichen mobilen Endgeräten, smarten Lautsprechern oder Computern, über gesprochene Sprache Menschen Feedback zu geben. Sie sind eng verbunden mit Diskussionen um Daten(un)sicherheit, Überwachungskapitalismus und Datenkolonialismus, werfen aber auch Fragen nach der Kommunikationsbeziehung zwischen Mensch und Maschine auf.

Die Automatisierung von Kommunikation kann prinzipiell alle Bereiche des sozialen Lebens betreffen. Eine besondere Bedeutung entfaltet sie aber dort, wo es um gesellschaftliche Kommunikation geht, wie sich am Beispiel des Journalismus veranschaulichen lässt. Hier spielt die Automatisierung von Kommunikation eine doppelte und zunehmend wichtige Rolle: nach innen, etwa wenn sich journalistische Arbeitspraktiken durch die automatisierte Produktion und Distribution von Inhalten ändern, und nach außen, wenn derart mehr oder weniger maschinell-assistiert erstellte Inhalte Teil öffentlicher Kommunikation werden. Ein weiteres, eher am technologischen Artefakt ansetzendes Beispiel sind Chatbots, die in Computerspielen, der Organisations- und Kundenkommunikation und der Kommunikation zwischen öffentlicher Verwaltung und Bürger:innen zum Einsatz kommen. Auch hier geht es aber nicht nur um die direkte Interaktion von Mensch und Maschine, sondern darüber hinaus um die Möglichkeiten der Datengenerierung über Kunden oder die „Optimierung“ von Verwaltungsabläufen.

Insgesamt verweisen diese Beispiele darauf, dass sich Systeme automatisierter Kommunikation flächendeckend in der Gesellschaft etablieren, dass sie Teil unserer Medienumgebung geworden sind und damit auch Teil von Domänen, Feldern bzw. Systemen wie Öffentlichkeit, Journalismus, Politik, Wirtschaft und Bildung, die von jeher im Zentrum kommunikations- und medienwissenschaftlicher Forschung stehen. Diese Entwicklung stellt nicht unerhebliche Herausforderungen für die Kommunikations- und Medienwissenschaft dar: empirisch gesehen im Hinblick darauf, wie sich automatisierte Kommunikation erforschen lässt, und theoretisch im Hinblick darauf, dass Grundbegriffe wie „Medien“ und „Kommunikation“ tangiert sind.

Mit diesem Beitrag wollen wir das aktuell erst in unscharfen Konturen erkennbare Forschungsfeld der Automatisierung von Kommunikation näher bestimmen. Unsere zentrale These ist hierbei, dass wir, um die mit der Automatisierung von Kommunikation verbundene Transformation unserer Medienumgebung umfassend bearbeiten zu können, den Blick von der Perspektive der „direkten Interaktion von Mensch und Maschine“ hin zur „gesellschaftlichen Kommunikation“ erweitern müssen.Footnote 1 Eine solche Perspektiverweiterung fragt danach, wie sich die Dynamiken von gesellschaftlicher Kommunikation insgesamt ändern, wenn „kommunikative künstliche Intelligenz“ (kurz: „kommunikative KI“, engl. „communicative AI“) Teil von dieser wird.

Um diese Überlegung zu untermauern, beschäftigen wir uns im zweiten Abschnitt zunächst näher mit Automatisierung von Kommunikation als Phänomen. Vor diesem Hintergrund setzen wir uns im dritten Abschnitt mit dem Begriff der kommunikativen KI auseinander, der unseres Erachtens ein „sensitizing concept“ (Blumer 1954, S. 7) darstellt, das für die Breite und Tiefe des Phänomens der automatisierten Kommunikation sensibilisiert. Im Anschluss zeigen wir im Abschnitt vier, wie sich mit dem Brückenkonzept der „hybriden Figuration“ AgencyFootnote 2 im Phänomenbereich der Automatisierung von Kommunikation beschreiben und dabei an bestehende „defintive concepts“ (Blumer 1954, S. 7) einer empirischen Operationalisierung für die Kommunikations- und Medienforschung anknüpfen lässt. Im fünften Abschnitt behandeln wir kommunikative KI als Forschungsfeld, das mit „Kommunikation“ und „Medien“ die Grundbegriffe der Kommunikations- und Medienforschung selbst herausfordert. Wir enden mit einem Fazit, das die sich aus einem solchen Zugang ergebenden Forschungsperspektiven skizziert.

2 Die Automatisierung von Kommunikation als Phänomen

In der Forschung zu digitaler Kommunikation lassen sich mindestens drei Entwicklungsstadien unterscheiden, wobei die Auseinandersetzung mit der Automatisierung von Kommunikation das dritte darstellt. Im ersten Stadium hat sich die sozialwissenschaftliche Forschung der Frage zugewandt, wie sich soziale Kommunikation und soziale Beziehungen in Zeiten digitaler Medien und Infrastrukturen verändern. Im Vordergrund standen die Transformationsmuster mit und durch digitale Medien bzw. Technologien. Dies betraf übergreifende Forschung zum Entstehen der Informationsgesellschaft (vgl. u. a. Bühl 1995; Castells 2001; Mattelart 2003; Wersig 1983), auf Fragen der gesellschaftlichen Kommunikation ausgerichtete Studien, etwa zum Internet als „Netz-Medium“ (Neverla 1998), zu „Computernetzen“ (Beck und Vowe 1997; Wetzstein et al. 1995), zu „mediatisierten Welten“ (Hepp und Krotz 2012) oder „politischer Kommunikation in der Online-Welt“ (Dohle et al. 2014), aber auch gegenläufige Prozesse der De-Mediatisierung (vgl. Pfadenhauer und Grenz 2017a). Im zweiten Stadium rückten Fragen digitaler Daten und ihrer (gesellschaftlichen) Verwendungs- und Verwertungszusammenhänge in den Vordergrund – parallel zu dem Umstand, dass Technologieunternehmen und staatliche Akteure zunehmend das Potenzial digitaler Daten für sich entdeckten (vgl. Gitelman und Jackson 2013; Kitchin 2014; Schäfer und van Es 2017). Diskutiert wurde der Einfluss von datafizierten „Plattformen“ (van Dijck et al. 2018), die Notwendigkeit ihrer „Regulation“ (Hofmann et al. 2017), der „Überwachungskapitalismus“ (Zuboff 2018), die „tiefgreifende Mediatisierung“ (Hepp 2021) und der „Datenkolonialismus“ (Couldry und Mejías 2019). Gegenwärtig stehen wir am Beginn eines dritten Stadiums der Forschung zu digitaler Kommunikation, nämlich der Hinwendung zu Formen der Automatisierung von Kommunikation, die auf digitalen Daten und Infrastrukturen beruhen. Versteht man als ein Kennzeichen von Algorithmen ihre Fähigkeit, „to act when triggered without any regular human intervention or oversight“ (Gillespie 2014, S. 170), ist Automatisierung – allgemein verstanden als maschinell-eigenständiges Erreichen bestimmter Handlungsziele – von Beginn an ein Schlüsselaspekt softwarebasierter Medien. Digitalisierung, Datafizierung und Algorithmisierung stellen also sowohl die Bedingungen der Möglichkeit als auch die Bedarfe für die Automatisierung von Kommunikationsprozessen dar. Aus diesem Grund wird auch der Begriff der „automatisierten Medien“ (Andrejevic 2020) verwendet. Als Medien werden dabei die technisch basierten Institutionen nicht nur der Vermittlung (Silverstone 2005, S. 189), sondern auch der Herstellung von Kommunikation begriffen (Esposito 2022, S. 14). Was dann aber das Technische in der Automatisierung ist, kann erheblich variieren und reicht von einfachen Skripten mit determinierten Schritten (also im Sinne der Informatik lineare Algorithmen), auf denen viele Social Bots beruhen (vgl. Veale und Cook 2018), bis hin zu komplexen technischen Systemen maschinellen Lernens (vgl. Heuer et al. 2021).

Entscheidend ist, dass wir es also mit der Automatisierung von Kommunikation zu tun haben und nicht etwa mit Formen der Automatisierung wie bei Produktfertigungsprozessen, bei denen Roboter „Dinge bauen“. Die Automatisierung von Kommunikation beruht auf digitalen Spuren als inhärenten „Nebenprodukten“ der Datafizierung. Diese haben eine eigene Materialität, die weit „opaker“ (Burrell 2016) ist als die der Automatisierung durch örtlich platzierte materiell-maschinelle Systeme wie „Fertigungsroboter“. Hieraus ergeben sich erhebliche Konsequenzen für verschiedene Formen automatisierter Kommunikationsprozesse (vgl. Esposito 2017, S. 251): Bei all ihrer Heterogenität – etwa im Gesundheitswesen, in der Justiz, der Politik, im Journalismus, in der Alltagspraxis, der Wissenschaft, dem öffentlichen Sektor oder der Bildung – gilt es die spezifische Materialität dieser Art von „kommunikativen Robotern“ (Hepp 2020) auf angemessene Weise zu fassen.

Anfangs hat sich die kommunikations- und medienwissenschaftliche Forschung dem Phänomen der Automatisierung von Kommunikation insbesondere aus dem Blickwinkel des Individuums angenähert, also der Frage, wie einzelne Menschen mit automatisierten Systemen umgehen, welche Agency sie diesen zuschreiben und welche Formen von Agency theoretisch für diese zu unterscheiden sind. Verdeutlichen lässt sich dies mit für die Forschungsdiskussion besonders einflussreichen Publikationen vom Ende der 2010er Jahre: Robert W. Gehl und Maria Bakardjieva beispielsweise entwickeln in ihrer Veröffentlichung zu Social Bots die Perspektive, diese seien „intended to present a Self, to pose as an alter-ego, as a subject with personal biography, stock of knowledge, emotions and body, as a social counterpart, as someone like me, the user, with whom I could build a social relationship“ (Gehl und Bakardjieva 2016, S. 2). Andrea Guzman definierte im gleichen Zeitraum das Forschungsfeld der Mensch-Maschine-Kommunikation (human machine communication, HMC) noch vergleichsweise eng als „the creation of meaning between human and machine“ (Guzman 2018a, S. 3).

In diesen aus heutiger Sicht für das Forschungsfeld grundlegenden Sammelbänden geht es folglich um die Frage der Art der direkten Interaktion zwischen Mensch und Maschine sowie um die Agency, die automatisierte Systeme haben bzw. die diesen zugeschrieben wird, als auch die menschliche Agency, die diesen gegenübersteht. Dies wird insbesondere deutlich an stärker medienpsychologisch orientierten Ansätzen wie der CASA-Forschung („Computers-Are-Social-Actors“), die in einzelnen Artikeln der oben genannten Bücher immer wieder aufgegriffen wird. Im Kern besagt das CASA-Paradigma, dass in dem Moment, in dem Computer oder andere technische Systeme wie eine Person aussehen, kommunizieren oder agieren, Menschen auf diese reagieren, als ob es „reale“ Personen wären (Lee und Nass 2010; Nass et al. 2006). Zurück geht der CASA-Ansatz auf eine Buchpublikation von Byron Reeves und Clifford Nass (1996), in der sie sich mit der „media equation“ auseinandergesetzt haben, also der Tendenz von Nutzer:innen zur „Gleichsetzung“ von „neuen Medien“ mit natürlichen Personen und Orten.

Die CASA-Forschung hat zu wichtigen Befunden geführt – etwa zur Wahrnehmung von „Kommunikationsqualitäten“ automatisierter Systeme (Edwards et al. 2014), zu „Beziehungsnormen“ von Menschen gegenüber Twitter-Bots (Li und Li 2014) oder zur „Anthropomorphisierung“ von Smartphones (Wang 2017). In jüngeren Publikationen zur Mensch-Maschine-Kommunikation wird gleichwohl die Notwendigkeit der Erweiterung des CASA-Ansatzes betont. Das Argument dabei ist, dass mit der zunehmenden Verbreitung von Systemen automatisierter Kommunikation Menschen auf neue Systeme nicht mehr nur „scripts“ – hier verstanden im Sinne der Sozialwissenschaften als Handlungsschemata – der Mensch-Mensch-Kommunikation anwenden, sondern sich auch neuartige „scripts“ der Mensch-Maschine-Kommunikation etablieren (Gambino et al. 2020). Um dies an einem Beispiel zu erläutern: Nutzt heute ein Mensch ein (neues) System automatisierter Kommunikation (beispielsweise einen Artificial Companion), wendet er oder sie in dieser Interaktionssituation nicht nur Handlungsschemata an, die aus der Interaktion mit Menschen bekannt sind, sondern auch solche aus der Interaktion mit Maschinen. Auf „neue“ Systeme werden also, neben „menschlichen Scripts“, mit alten Systemen erlernte „maschinelle Scripts“ übertragen.

Wir wollen in unserem Argument für die Erweiterung des Blickwinkels über die direkte Interaktion zwischen Mensch und Maschine hinaus aber noch einen Schritt weitergehen. Dass ein alleiniges Ansetzen bei der direkten Interaktion von Mensch und Maschine dem Phänomenbereich der Automatisierung von Kommunikation in seiner Breite nicht gerecht wird, macht bereits das Beispiel der Social Bots deutlich, auf die sich die Forschung der 2010er Jahre besonders konzentriert hat. Auch wenn die direkte Interaktion zwischen Menschen und Bots zweifelsfrei ein relevantes Thema darstellt (vgl. u. a. Ferrara et al. 2016; Varol et al. 2018), ebenso wie die Frage, wie empirisch bestimmbar ist, was ein Bot ist und was nicht (vgl. u. a. Cresci 2020; Martini et al. 2021), weisen empirische Studien, die sich mit der Rolle von Bots in öffentlicher Kommunikation befassen, auf Dynamiken hin, die jenseits von direkten Interaktionsbeziehungen zwischen einzelnen Menschen und Systemen automatisierter Kommunikation liegen. Entscheidend ist also, den Blick auf umfassende Handlungsketten zu legen. So hat in einem detaillierten Überblick zum Stand der Social-Bot-Forschung Florian Muhle (2022) darauf aufmerksam gemacht, dass die besondere Bedeutung von Twitter-Bots gerade nicht die direkte Interaktion mit Menschen ist, sondern diese vielmehr in ihrem indirekten Einfluss auf das Kommunikationsgeschehen liegt: Durch Bots auf Twitter werde in erster Linie versucht, „das Amplifikationspotenzial des Dienstes zur Erreichung der breiten publizistisch hergestellten Öffentlichkeit auszunutzen“ (Muhle 2022, S. 48). Anders formuliert, wird durch die Retweets der Bots „Traffic“ erzeugt, wodurch die Algorithmen der Plattform bestimmten Hashtags, Tweets oder Accounts eine höhere Relevanz zusprechen als anderen. Auf diese Weise erzeugen Bots also „Öffentlichkeitsresonanz“ (Fürst 2017, S. 4). Diese zielt in vielen Fällen auf Journalist:innen, um deren Haltung zu bestimmten Personen und Themen zu beeinflussen und damit ebenfalls die Berichterstattung in journalistischen Medien. Eine solche Erweiterung des Blickwinkels etabliert sich zunehmend auch über die Informatik: Deren Forschung zur Human-computer-interaction blickt mit dem Begriff der tertiären Nutzer:innen nicht nur auf diejenigen, die mit dem System direkt interagieren, sondern auch auf diejenigen, „who are affected by the introduction of the system or influence its purchase“ (Alsos und Svanæs 2011, S. 85).

Vor diesem Hintergrund ist die Automatisierung von Kommunikation als Phänomen in einer größeren Breite und Tiefe zu sehen, als dies in der Forschung zur direkten Interaktion von Mensch und Maschine angelegt ist. Die Breite des Phänomens ergibt sich durch die Vielfalt so unterschiedlicher technischer Systeme wie Artificial Companions (vgl. u. a. Pfadenhauer und Lehmann 2022), Chat Bots (vgl. u. a. Beattie et al. 2020), News Bots (vgl. u. a. Lokot und Diakopoulos 2016), Social Bots (vgl. u. a. Keller und Klinger 2019), Work Bots (vgl. u. a. Loosen und Solbach 2020) sowie vielfältiger neu entstehender Systeme. Die Tiefe des Phänomens ergibt sich darüber, dass die Automatisierung von Kommunikation in das „hybride Mediensystem“ (Chadwick 2017) und seine gesamten Kommunikationsdynamiken hineinwirkt. Automatisierte Systeme stehen für eine Verschränkung mit Kommunikationsräumen, durch die beispielsweise „Plattformöffentlichkeit“ und „publizistische Öffentlichkeit“ in eine dynamische Beziehung gesetzt werden. Kommunikationsdynamiken können aber auch noch weiter gedacht werden, wenn man im Blick hat, dass die in automatisierter Kommunikation generierten Daten Grundlage für weitergehende Automatisierungen werden, wie dies beispielsweise beim „automated decision making“ (Carlson 2018; Zarsky 2015) und dessen Einschätzung und Bewertung durch Menschen (vgl. Araujo et al. 2020) der Fall ist. Um solche Gesamtzusammenhänge zu erfassen, erscheint ein „holistischer Blick“ (Hepp und Loosen 2020, S. 25) notwendig, der den Stellenwert von automatisierter Kommunikation in der gesellschaftlichen Kommunikation insgesamt in den Mittelpunkt rückt. Es ist dieser holistische Blick, den wir mit dem Konzept der kommunikativen KI stark machen möchten.

3 Zum Begriff der kommunikativen KI

Wie der letzte Abschnitt deutlich gemacht hat, ist die Automatisierung von Kommunikation ein sich derzeit in hohem Maße dynamisch entwickelndes Forschungsfeld. Gerade aufgrund der gleichzeitigen Breite und Tiefe des Phänomens erscheint allerdings eine begriffliche Sortierung notwendig. In den letzten Jahren gab es hierzu unterschiedliche begriffliche bzw. konzeptionelle Vorschläge. Es wird beispielsweise von „automatisierten Medien“ (Andrejevic 2020) gesprochen, von „kommunikativen Robotern“ (Hepp 2020) oder „medialen Agenten“ (Gambino et al. 2020). Zunehmend hat sich in der internationalen Forschungsdiskussion aber der bereits in der Einleitung zu diesem Beitrag angeführte Begriff der „kommunikativen KI“ (englisch: „communicative AI“) etabliert (u. a. Dehnert und Mongeau 2022; Guzman und Lewis 2020; Natale 2021; Stenbom et al. 2021; Schäfer und Wessler 2020). Andrea Guzman und Seth Lewis, die diesen Begriff ursprünglich vorgeschlagen haben, fassen als kommunikative KI „technologies designed to carry out specific tasks within the communication process that were formerly associated with humans“ (Guzman und Lewis 2020, S. 3), eine Definition, der sich auch Agnes Stenbom et al. (2021, S. 1) sowie Marco Dehnert und Paul Mongeau (2022, S. 3) anschließen. Mike Schäfer und Hartmut Wessler lehnen sich ebenfalls an ein solches Verständnis an, argumentieren aber noch stärker, dass diese Technologien „nicht mehr nur als Mittler der Kommunikation zwischen Menschen, sondern als Kommunikator“ (Schäfer und Wessler 2020, S. 311) zu begreifen sind.

Alle diese Vorschläge betonen also den kommunikativen Aspekt, bleiben aber „generisch“ in dem Sinne, dass sie eine bestimmte Gattung von Medien- und Kommunikationstechnologien umreißen, ohne analytisch sowohl ihre Gemeinsamkeit als auch die Abgrenzung gegenüber anderen Medien- und Kommunikationstechnologien zu erfassen. So wirft beispielsweise die Definition von Guzman und Lewis (2020) die Frage auf, ob auch alle Automatisierungen im Kommunikationsprozess – beispielsweise beim Bearbeiten von Videos oder bei automatisierten Übersetzungen – als kommunikative KI bezeichnet werden sollten. Klarer erscheint hier das Verständnis von Schäfer und Wessler (2020), die die veränderte Agency von kommunikativer AI reflektieren, analytisch aber nicht weiter differenzieren.

Vor diesem Hintergrund und an anderer Stelle formulierte Überlegungen aufgreifend (vgl. Hepp und Loosen 2022), möchten wir eine Definition von kommunikativer KI anhand von drei Kriterien vorschlagen. Kommunikative KI in ihrer Vielfalt

  1. 1.

    beruht auf verschiedenen Formen der Automatisierung, die in ihrem Zweck auf Kommunikation abzielen,

  2. 2.

    ist in digitale Infrastrukturen eingebettet und

  3. 3.

    konstituiert sich in der Verschränkung mit menschlichen Praktiken.

Alle diese drei Punkte bedürfen einer weiteren Erläuterung.

Der erste Punkt zielt auf einen Zusammenhang ab, auf den Elena Esposito (2017) bereits vor einigen Jahren in einem Aufsatz zu „artificial communication“ hingewiesen hat. In Abgrenzung zur Diskussion um den Turing Test betont sie, dass das Entscheidende bei „künstlicher Kommunikation“ nicht ist, „that the machine is able to think but that it is able to communicate“ (Esposito 2017, S. 250, siehe auch Esposito 2022, S. 14–16). Dieses Argument ist aus sozialwissenschaftlicher Sicht insofern ein wichtiger gedanklicher Schritt, als es uns von der Frage entbindet, was die „Intelligenz“ bei der kommunikativen KI genau ausmacht. Gerade sozialwissenschaftliche Forschungen zeigen, dass die menschliche Zuschreibung von „Intelligenz“ an technische Systeme eine variable Konstruktionsleistung ist und nicht von der Frage abhängt, ob diese beispielsweise auf maschinellem Lernen wie neuronalen Netzwerken beruhen oder nicht (Natale 2021, S. 68–86). Das bereits in den 1960er-Jahren entwickelte System ELIZA von Weizenbaum lässt sich beispielsweise als kommunikative KI begreifen, weil es in der Lage war, automatisiert mit Menschen zu kommunizieren und Menschen ihm deswegen eine „Intelligenz“ zuschrieben, auch wenn es technisch gesehen ein auf einfachen Skripten basierendes Chat-Programm war (Weizenbaum 1966; Natale 2019). Die zumeist auf einfachen Skripten beruhenden Twitter Bots wären einem solchen Verständnis nach ebenfalls kommunikative KI, weil sie zum Zweck der Kommunikation programmiert wurden und eigene Kommunikationsdynamiken entfalten. Aus sozialwissenschaftlicher Sicht geht es also darum, „künstliche Intelligenz“ mit dem Begriff der kommunikativen KI nicht substanziell zu definieren – beispielsweise in dem Sinne, dass hierunter bestimmte Verfahren des maschinellen Lernens gefasst werden (z. B. Mühlhoff 2019) –, sondern als soziale Konstruktionsleistung, die es als solche empirisch zu erforschen gilt. Hierbei ist einzubeziehen, dass die Bezeichnung einer bestimmten Kommunikationstechnologie als „intelligent“ immer auch eine umkämpfte und mitunter widersprüchliche Konstruktion ist (Bareis und Katzenbach 2021). Und es gilt zu berücksichtigen, dass in vielen Fällen die soziale Konstruktion von „intelligent“ eine Art Chiffre ist für „zu ähnlichem wie der Mensch fähig“ (z. B. Guzman 2020). Dabei kann es auch darum gehen, inwieweit einem System der automatisierten Kommunikation „emotionale“ bzw. „affektive“ Qualitäten unterstellt werden (u. a. Beattie et al. 2020; Ling und Björling 2020).

Ebenso erklärungsbedürftig ist der zweite Punkt: die Einbettung kommunikativer KI in technische Infrastrukturen. Gemeint ist damit die Notwendigkeit, zu unterscheiden zwischen dem Interface einer kommunikativen KI, das die „Oberflächenstruktur“ ausmacht, und den dahinterliegenden Tiefenstrukturen. Kate Crawford und Vladan Joler (2018) haben dies am Beispiel von Alexa durch eine Visualisierung verdeutlicht (vertiefend siehe Crawford 2021). Gerade Artificial Companions – ob nun Alexa, Google Assistant, Cortana oder Siri – operieren auf der Infrastruktur des Internets, ohne die sie nicht funktionsfähig wären, auch in ihren lokalen Varianten. Die Materialität von kommunikativer KI betrifft also nicht nur die Materialität des Mediums im engeren Sinne, sondern auch die Materialität der Infrastrukturen, in die dieses Medium eingebettet ist: die technischen Netzwerke und Serverfarmen der Datenspeicherung (vgl. Constantinides et al. 2018, S. 381), ohne die Artificial Companions nicht funktionieren könnten. Aber auch scheinbar einfache Systeme wie Chatbots von öffentlichen Verwaltungen brauchen eine Backend-Infrastruktur. In ähnlicher Weise bauen Social Bots darauf auf, dass sie in Plattformen wie Facebook oder Twitter aktiv sind, die Kommunikation in einem Maße vorstrukturieren, dass Bots vergleichsweise einfach menschliche Akteure replizieren können (vgl. Gehl und Bakardjieva 2016). In dieser Hinsicht können wir sagen, dass Systeme kommunikativer KI „Medien in Medien“ darstellen: viele von ihnen setzen als „automatisierte Medien“ auf bestehenden „infrastrukturellen Plattformen“ (van Dijck et al. 2018, S. 11, 2019, S. 9) als Medien auf. Gerade wegen dieses „rhizomatischen Charakters“ von kommunikativer KI – also einer beschränkten Oberflächenstruktur mit umfassender Tiefenstruktur – gilt es im Blick zu haben, dass viele Systeme kommunikativer KI ihre Funktionalitäten bzw. „Wirkmächtigkeit“ nur dadurch entfalten, dass sie „in“ diesen Plattformen agieren. So sichern diese Infrastrukturen notwendige Prozesse der Datenverarbeitung und -speicherung, machen kommunikative KI aber auch zu einem Teil des oben genannten Überwachungskapitalismus und Datenkolonialismus (vgl. Turow 2021). Des Weiteren sind solche Infrastrukturen mit umfassenden „planetary costs“ (Crawford 2021) verbunden, also sozial-ökologischen Folgen u. a. aufgrund des hohen Verbrauchs fossiler Energie, die für den Betrieb der digitalen Infrastrukturen notwendig ist (vgl. Brevini 2021; Kannengießer 2022, S. 56–65). Nehmen wir einen holistischen Blick auf kommunikative KI ein, so gilt es, auch diese zunächst eher unsichtbaren Elemente zu berücksichtigen, die in der Tiefenstruktur ihrer Infrastrukturen zu finden sind.

Der dritte Punkt der Definition – die Verschränkung („entanglement“) mit menschlicher Praxis – ist insofern wichtig, als er verstehen hilft, wie die bereits angesprochene Konstruktion der „Intelligenz“ dieser Systeme erfolgt. Der Begriff des Entanglement, der über die Science and Technology Studies Verbreitung gefunden hat, geht insbesondere auf die Arbeiten von Karen Barad (2007) zurück, die ihn als ein analytisches Konzept entwickelt hat. Wie Susan Scott und Wanda Orlikowski (2014, S. 881–882) darlegen, ist einem solchen Verständnis nach „the entanglement of matter and meaning produced in practice within specific phenomena“. Wie sie weiter argumentieren, müsse damit die Vorstellung von vordefinierten Kategorien wie „Subjekt“ und „Objekt“ oder „Mensch“ und „Nichtmensch“ in Frage gestellt und betont werden, dass sich solche Differenzen im Prozess ihrer Relationalisierung konstituieren: „To be entangled is not simply to be intertwined with another, as in the joining of separate entities, but to lack an independent, self-contained existence. Existence is not an individual affair. Individuals do not pre-exist their interactions; rather, individuals emerge through and as part of their entangled intra-relating“ (Barad 2007, S. ix).

So verstanden ist mit dem Begriff der Verschränkung ein bestimmter Zugang zur bereits angesprochenen Materialität „automatisierter Medien“ verbunden, der stark ihre prozesshafte und relationale Konstitution betont – gerade auch in Abgrenzung zu Konzepten der Akteur-Netzwerk-Theorie, die das Dauerhaft-Machen von Gesellschaft in Materie in den Vordergrund rücken (beispielsweise Latour 1991). Spezifischer auf den uns hier interessierenden Gegenstand der kommunikativen KI bezogen heißt dies, den Schwerpunkt auf das Zusammenkommen von Materie und Bedeutung in der menschlichen Praxis zu legen. Materialität wird dann in einer Doppelgestalt des Technischen einerseits und des Körperlichen der Praxis andererseits fassbar (vgl. Pfadenhauer und Grenz 2017b). Entanglement betrifft auch die tieferliegenden informatischen Technologien kommunikativer KI. So werden z. B. Sprach- und Sprechermodelle für die Erkennung von gesprochener und geschriebener Sprache auf der Grundlage großer, über menschliche Praxis gewonnener Datensätze erstellt, die dann für viele Systeme genutzt werden. Über das Entanglement mit menschlicher Praxis findet auch eine Zuschreibung von „Intelligenz“ zu Systemen der automatisierten Kommunikation statt (Natale 2021, S. 227): Intelligent ist ein „automatisiertes Medium“ dann, wenn es in der Verschränkung mit menschlicher Praxis als solches behandelt wird. Eine sozialwissenschaftliche Beschäftigung mit kommunikativer KI muss also immer auch eine Auseinandersetzung damit sein, welches technische System durch welche Praktiken wie als „kommunikativer Akteur“ konstruiert wird.

4 Kommunikative KI in hybriden Figurationen

Zur Erforschung der im letzten Abschnitt erläuterten Verschränkungen zwischen Technologie und menschlicher Praxis wird insbesondere in den Science and Technology Studies ein figurationsanalytischer Ansatz als angemessene Zugangsweise behandelt. In ihrer Betrachtung von „Human-machine reconfigurations“ greift beispielsweise Lucy Suchman (2012b, S. 227) Überlegungen von Donna Haraway (1997, S. 11; Herv. i. O.) auf und charakterisiert Technologien als „materialized figuration; that is, they bring together assemblages of stuff and meaning into more or less stable arrangements“. Es finden sich in diesem Zusammenhang aber auch andere figurationsanalytische Zugangsweisen, beispielsweise die von Claudia Castañeda (2002) oder Sarah Kember (1998).

Hier zeigen sich also Pfade, auch kommunikative KI figurationsanalytisch zu fassen. Ein besonderes „theoretisches Feature“ des Konzepts der Figuration ist – gerade in seiner prozesssoziologischen Form (Elias 1993) –, dass es eine produktive Möglichkeit eröffnet, über die Agency von kommunikativer KI auf allen sozialen Skalierungsebenen vom Individuum und seinen Interaktionsbeziehungen, über kollektive Akteure wie Organisationen und Gemeinschaften bis hin zu Gesellschaft nachzudenken; darin nicht unähnlich der Ebenen-Trias Interaktion – Organisation – Gesellschaft bei Luhmann (1984). Hierdurch erscheinen figurationsanalytische Zugänge in besonderem Maße geeignet, den oben geforderten holistischen Blick auf kommunikative KI in der gesellschaftlichen Kommunikation sowohl theoretisch einlösen zu können als auch empirisch zu operationalisieren.

Das Konzept der Figuration kann dabei eine Brückenfunktion einnehmen zwischen einem „sensitizing concept“ von kommunikativer KI und den „definitive concepts“ sozialwissenschaftlicher Kommunikations- und Medienforschung: Die Leistung eines „sensitizing concept“ ist es, „[to] giv[e] the user a general sense of reference and guidance in approaching empirical instances“ (Blumer 1954, S. 7). In diesem Sinne geht es also darum, auf eine gewisse Familienähnlichkeit (vgl. Wittgenstein 1971), die Phänomene kommunikativer KI teilen, aufmerksam zu machen. Das Konzept der kommunikativen KI „sensibilisiert“ so für die Tiefe und Breite der verschiedenen Phänomene der automatisierten Kommunikation – und damit uns als Forscher:innen dafür, den Blick auf die Bedeutung von kommunikativer KI für gesellschaftliche Kommunikation zu richten. Der Nachteil eines jeden „sensitizing concepts“ ist, dass es als solches nicht umstandslos empirisch operationalisierbar ist. Hierfür werden Brückenkonzepte hin zu „definitive concepts“ (Blumer 1954, S. 7) benötigt, wobei letztere in ihrer Definition auf Operationalisierung zielen. Figuration als Brückenkonzept ermöglicht es, eine allgemeine Sensibilisierung in Richtung empirischer Operationalisierbarkeit produktiv zu wenden, indem es an Schlüsselbegriffe und -konzepte (wie kommunikative Praktiken, Akteurskonstellation, Medien etc.) sowie Forschungsfelder (wie politische Kommunikation, Mediennutzungsforschung, Journalismusforschung etc.) der Kommunikations- und Medienforschung anschließt. Auf diese Weise können empirisch unterschiedliche Phänomene der automatisierten Kommunikation vergleichend untersucht werden. Damit ist kein exklusiver Anspruch auf eine solche Leistungsfähigkeit verbunden, wohl aber ein fortgeschrittener und nachgewiesenermaßen leistungsfähiger Vorschlag. Der Blick auf hybride Mensch-Maschine-Figurationen auf unterschiedlichen Skalierungsebenen des Sozialen – Individuum, Gruppe, Gemeinschaft, Organisation, Gesellschaft –, gestattet es außerdem, bisher noch stark nebeneinanderstehende Zugangsweisen besser miteinander zu verbinden.

In einem grundlegenden Verständnis ist eine Figuration eine „Verflechtung“ (Elias 1993, S. 141) von interdependenten Menschen wie beispielsweise eine Gruppe, Gemeinschaft oder Organisation. Aus Sicht der Kommunikations- und Medienforschung können wir jede Figuration als eine kommunikative betrachten: Es sind kommunikative Praktiken, über die (in) Figurationen Bedeutungen zugeschrieben werden, wobei diese Praktiken in Zeiten tiefgreifender Mediatisierung verstärkt medienvermittelt stattfinden. Familienmitglieder können beispielsweise räumlich getrennt sein, aber durch multimodale Kommunikation über (Handy‑)Telefonate, E‑Mail und den Austausch auf digitalen Plattformen miteinander verbunden sein, was die alltagsweltliche Dynamik familiärer Beziehungen aufrechterhält. Organisationen werden als Figurationen auch durch die Nutzung von Datenbanken, die Kommunikation über ein Intranet sowie gedruckte Flyer und andere Medien für die interne und externe Kommunikation zusammengehalten. Individuen sind über die Rolle und Position, die sie in ihren jeweiligen Akteurskonstellationen einnehmen, in diese Figurationen eingebunden. Kommunikations- und Medienforschung aus einem figurationsanalytischen Ansatz heraus zu betreiben, macht es damit auf produktive Weise möglich, nicht nur die Perspektiven von Individuen und sozialen Domänen zu verbinden, sondern dabei einzubeziehen, dass die Praktiken ihrer Konstruktion eng mit Medien verschränkt sind (vgl. Hepp 2021, S. 27–33).

Es gibt drei grundlegende Merkmale, die eine Figuration ausmachen und über die an etablierte „definitive Konzepte“ der Kommunikations- und Medienforschung angeschlossen werden kann (vgl. Couldry und Hepp 2016, S. 66–67; Hepp und Hasebrink 2017):

  • Strukturelle Basis jeder kommunikativen Figuration ist erstens eine Akteurskonstellation, ein Netzwerk von Akteur:innen, die in einer bestimmten Machtbalance und durch aufeinander bezogene kommunikative Praktiken wechselseitig miteinander verbunden sind.

  • Jede kommunikative Figuration ist zweitens gekennzeichnet durch einen Relevanzrahmen, der handlungsleitend für die Praktiken ihrer Akteur:innen und deren wechselseitige Ausrichtung aufeinander ist. Dieser Relevanzrahmen definiert die Handlungsorientierung der beteiligten Akteur:innen und damit die Spezifik der Figuration.

  • Drittens werden Figurationen in kommunikativen Praktiken ständig neu artikuliert, die mit anderen sozialen Praktiken verwoben sind. Diese Praktiken sind typischerweise zunehmend eng mit einem Medienensemble verschränkt.

Ausgehend von einem solchen allgemeinen Verständnis von kommunikativen Figurationen lassen sich auch solche fassen, zu denen kommunikative KI gehört. Wir wollen solche Figurationen als hybride Figurationen bezeichnen. Der von uns hier verwendete Begriff des Hybriden ist nicht zu verwechseln mit Konzepten des Hybriden, wie sie beispielsweise in Bezug auf den „Cyborg“ als einem Hybrid von Mensch und Maschine verwendet werden (u. a. Berscheid et al. 2019; Britton und Semaan 2017; Haraway 1991). Uns geht es mit der Verwendung von „hybrid“ um einen anderen Aspekt, nämlich dass sich in Figurationen, deren Teil Systeme automatisierter Kommunikation sind, eine besondere Form der „überindividuellen“ (Schimank 2010, S. 327) Agency aus Mensch und Maschine entwickelt. Um dies an einem Beispiel deutlich zu machen: In einer journalistischen Redaktion, die Systeme zu einem „automating the news“ (Diakopoulos 2019) einsetzt und die beispielsweise Inhalte wie Wetternachrichten, Börsenmeldungen, Fußballstatistiken und ähnliches von kommunikativer KI „produzieren“ lässt, entwickelt sich eine Form der hybriden Agency im Zusammenkommen von Mensch – Redakteur:innen, Autor:innen, Entwickler:innen etc. – und Maschine. Im Journalismus wirft dies u. a. Fragen nach Autor:innenschaft und Zurechenbarkeit von journalistischen Kommunikaten auf (Montal und Reich 2017; Lewis et al. 73,74,a, b), aber auch solche nach Copingstrategien, die mit dem Stress verbunden sein können, wenn sich Journalist:innen von der technologischen Entwicklung abgehängt fühlen (vgl. Min und Fink 2021).

Das Konzept hybrider Figurationen heißt demnach nicht, dass sich die Unterscheidung Mensch/Maschine auflösen würde. Wie wir bei unserer Diskussion des Begriffs Entanglement in Bezug auf kommunikative KI verdeutlichen wollten, ist die Differenzsetzung von Mensch und Maschine eine Konstruktionsleistung in menschlicher Praxis – und damit auch eine gesellschaftliche Definition dessen, was als automatisiert-maschinell und was als authentisch-menschlich gilt und wo hierbei Grenzen verlaufen (sollten) (vgl. Pfadenhauer und Grenz 2017b). Dies ändert aber wiederum nichts daran, dass eine hybride Figuration eine andere überindividuelle Agency aufweist als Figurationen ohne Systeme der automatisierten Kommunikation.

Das mag in dieser Form zunächst trivial klingen. Im Kern eröffnet ein solches Verständnis von hybriden Figurationen aber die Möglichkeit, zwei in der Kommunikations- und Medienforschung immer wieder als gegensätzlich diskutierte Positionen in eine integrierte Betrachtung von kommunikativer KI zu überführen, um somit an bestehende „definitive concepts“ und damit an verschiedene Möglichkeiten der Operationalisierung anzuschließen.

So betonen konstruktivistisch geprägte Theorien wie beispielsweise die Sozialphänomenologie, der kommunikative Konstruktivismus oder die Systemtheorie, dass Maschinen als eine Objektivierung menschlichen Handelns zu beschreiben sind und die ihnen zugeschriebene Agency eine „Projektion“ menschlicher Akteur:innen oder eine „Personifizierung“ ihrer Erwartungen sind (u. a. Esposito 2022; Knoblauch 2017; Lindemann 2016; Muhle 2016; Pfadenhauer und Lehmann 2022). Auch die rechtliche Einordnung von automatisierten Systemen konzentriert sich derzeit (noch) auf die einfache Lösung der Zuschreibung von Systemverhalten zu natürlichen oder juristischen Personen, die ein System entwickelt, programmiert oder implementiert haben; eine kommunikative KI, die keine „Postadresse“ für die Zustellung einer rechtlichen Verfügung und kein „Eigentum“ für die Zahlung von Schadenersatz oder Bußgeld hat, erscheint für Gerichte als Herausforderung.

Hingegen betonen Ansätze des neuen Materialismus, der Akteur-Netzwerk-Theorie oder der erweiterten Handlungstheorie den Gedanken der „verteilten“ oder „gemeinsamen“ Agency von Menschen und Maschinen (u. a. Bellacasa 2017; Gunkel 2018; Hanson 2009). Es geht diesen Ansätzen nicht um die Frage, welche Agency Menschen in Abgrenzung zu Dingen haben, sondern zu verstehen, welche Formen „symbiotischer Agency“ sich zwischen Mensch und Maschinen entwickeln.

Aus Sicht des Figurationsansatzes müssen beide Perspektiven allerdings keinen Gegensatz darstellen, sondern stehen für unterschiedliche Blickwinkel auf hybride Figurationen: In der Binnenperspektive einer hybriden Figuration geht es aus Sicht der in sie involvierten Menschen um „Projektionen“ und „personifizierte Erwartungen“ gegenüber kommunikativer KI. Um hier nochmals das oben genannte Beispiel einer journalistischen Redaktion, die mit Systemen automatisierter Kommunikation arbeitet, aufzugreifen: Sehr wohl „projizieren“ die in solchen Redaktionen arbeitenden Journalist:innen Agency auf solche Systeme, wenn sie beispielsweise davon sprechen, dass ein bestimmtes System „eine Geschichte schreibt“, und sie „vergessen“ bei solchen Formulierungen, dass dies auf Basis von Skripten und Daten geschieht, die sie selbst in das System eingegeben haben (vgl. Caswell und Dörr 2018). In der Außenperspektive – also in einer Gesamtbetrachtung hybrider Figurationen durch eine:n wissenschaftliche:n Beobachter:in – gilt dann wiederum, dass diese Redaktion als organisationale Einheit insgesamt über eine andere Agency verfügt als Redaktionen ohne solche Systeme: So könnten bestimmte Inhalte automatisiert schneller veröffentlicht werden und neue Freiräume beispielsweise für Nachrecherchen und vertiefende Artikel entstehen (vgl. Young und Hermida 2015), aber theoretisch auch menschliche Arbeitskraft zugunsten automatisierter Leistungen eingespart werden.

Solche hybriden Figurationen lassen sich aber auch in anderen Bereichen gesellschaftlicher Kommunikation ausmachen. Im öffentlichen Sektor beispielsweise soll kommunikative KI Dienste erbringen, die bürgernah und einfach zu nutzen sind, insbesondere in den Fällen, in denen Bürger:innen Informationen suchen oder Transaktionen mit geringer Komplexität, Mehrdeutigkeit und Unsicherheit vornehmen (vgl. Androutsopoulou et al. 2019; Schaffer et al. 2020). In diesem Zusammenhang ist kommunikative KI in der Form von „Citizen AI Assistants“ – wie sie von der finnischen Regierung genannt werden, die sie als „nannies“ oder „good guardians“ bewirbt (AlgorithmWatch 2020, S. 87) – ein Beispiel für die Automatisierung gesellschaftlicher Kommunikation, die darauf abzielt, Bürger:innen Verantwortung abzunehmen: Sie müssen nicht mehr wissen, wer in Bürokratien für welche Anfragen zuständig ist; sie projizieren dies in der Binnensicht auf die mit ihnen kommunizierenden Assistants, während bei der Verantwortung für die Identifizierung der richtigen Informationsquellen die Verwaltung mit neuen Herausforderungen konfrontiert ist. Eine hybride Figuration der Verwaltungskommunikation entsteht, die in der Außenperspektive als der Versuch erscheint, eine effizientere und effektivere Gestaltung von Arbeitsabläufen sowie zuverlässigere und transparentere Entscheidungsprozesse zu etablieren.

Ähnliche Zusammenhänge lassen sich auch bei Artificial Companions wie der Anwendung „Replika“ (https://replika.com) ausmachen. Die Begleitung durch eine solche digitale Persona – oder auch durch einen Social Robot (vgl. Alač 2016) – beruht darauf, dass die Technik mit ihren Algorithmen und Sensoren vom Design als soziales Gegenüber intendiert angelegt ist und tatsächlich auch als solches zu fungieren scheint. Betrachtet man eine Anwendung wie Replika aus der Binnenperspektive der Figurationen von Menschen, die sie nutzen, findet eine Projektion statt, in der die Technik ein Erleben von Begleitung ermöglicht. Die Imagination dessen, was die Technik kann, ist für dieses Erleben ein wesentlicher Schlüssel (vgl. Pfadenhauer und Lehmann 2022). Gleichzeitig entfaltet sich Agency im Gesamt einer solchen hybriden Figuration der Companionship, liegt also nicht einfach nur bei den Menschen, die solche Artificial Companions nutzen, sondern vielmehr in der triadischen sozialen Relation zwischen Subjekt – Subjekt – Objektivation, also zwischen Menschen und Maschine. Technik ist hier also als Objektivation eingewoben (vgl. Pfadenhauer 2015) – und diese hybride Figuration verändert die Privatsphäre des Alltags grundlegend.

Solche Beispiele aus dem Journalismus, der Kommunikation im öffentlichen Sektor und der privaten Mediennutzung führen vor Augen, in welchem Maße sich mit kommunikativer KI die Agency in Kommunikation verändert – und wie sehr dies nicht nur eine Frage der direkten Interaktion von Mensch und Maschine ist, sondern der Dynamik gesellschaftlicher Kommunikation insgesamt.

5 Kommunikative KI als Forschungsfeld

Unsere bisherigen Darlegungen sollten deutlich machen, dass die Automatisierung von Kommunikation eine Breite und Tiefe der Veränderung von gesellschaftlicher Kommunikation entfaltet und dass sie für sich genommen einen wichtigen Forschungsgegenstand darstellt. Mit Hilfe von kommunikativer KI als einem übergreifenden „sensitizing concept“ und hybrider Figuration als Brückenkonzept kann es unserer Überzeugung nach gelingen, diesen Gegenstand in ein Forschungsfeld zu überführen, das an verschiedene bestehende „definitive concepts“ der Kommunikations- und Medienforschung anschließt und das gleichzeitig das Potenzial hat, diese weiterzuentwickeln. Wie wir in dem nun folgenden Abschnitt darlegen möchten, besteht neben der notwendigen Deskription noch ein weiterer Grund, warum sich die Kommunikations- und Medienforschung kommunikativer KI zuwenden sollte: Eine Beschäftigung mit diesem Forschungsfeld stellt die für die Kommunikations- und Medienforschung konstitutiven Grundbegriffe von Kommunikation und Medien in Frage, denn diese sind im Kern von (medienvermittelter) menschlicher Interaktion abgeleitet. Vieles an Theorien und Konzepten, die zuerst für vor-digitale Kommunikation entwickelt wurden, wurde in den letzten Jahren immer wieder unhinterfragt fortgeschrieben, wodurch zunehmend blinde Flecken der Kommunikations- und Medienwissenschaft und angrenzender Disziplinen entstanden sind. In diesem Sinne sensibilisiert kommunikative KI auch dafür, welche impliziten Grenzen in den Konzepten von Kommunikation und Medien, mit denen wir operieren, bestehen. Eine Forschung zu kommunikativer KI regt also ebenfalls dazu an, zu hinterfragen, ob diese Grundbegriffe in der aktuellen Form für eine analytische Beschreibung der (gegenwärtigen) Medienumgebung überhaupt (noch) geeignet sind. Ein solches Hinterfragen für die Gegenwart eröffnet wiederum in historischer Sicht die Möglichkeit, rückblickend zu reflektieren, welche Aspekte medienvermittelter Kommunikation durch die gewählten Begrifflichkeiten analytisch ausgeschlossen wurden. In diesem Sinne geht es bei einer Beschäftigung mit kommunikativer KI also auch darum, den analytischen Blickwinkel der Kommunikations- und Medienwissenschaft insgesamt zu erweitern.

Am Kommunikationsbegriff hat sich bereits die Human-Machine Communication (HMC) abgearbeitet, ein in der Kommunikations- und Medienforschung neu entstandener und sich dynamisch entwickelnder Bereich (vgl. Guzman 2018b; Lewis et al. 2019b; Westerman et al. 2020). Jenseits einer kybernetischen Perspektive (vgl. Wiener 1948), ihrem Aufgreifen in der Kommunikations- und Medienforschung (vgl. Merten 1977) und insbesondere in der systemtheoretischen Medienforschung (vgl. Dickel 2022; Scholl und Malik 2019) beruht der Kommunikationsbegriff der Kommunikations- und Medienwissenschaft vor allem auf der Handlungs- und Praxistheorie. Über alle bestehenden Differenzen hinweg – beispielsweise bei der Frage, ob Kommunikation stets intentional ist oder nicht (vgl. Reichertz 2009, S. 81–122) – treffen sich die meisten Kommunikationsbegriffe darin, dass sie Kommunizieren als eine wechselseitig orientierte, symbolische Praxis begreifen, die darauf ausgerichtet ist, dass die beteiligten Akteur:innen in unterschiedlichen Graden geteilte Bedeutungen herstellen.

Es ist offensichtlich, dass ein solches Verständnis von Kommunikation an seine Grenzen stößt, wenn es um kommunikative KI geht. Dies wird insbesondere deutlich, wenn wir uns vergegenwärtigen, wie umfassend kommunikative KI mit Praktiken der alltäglichen Mediennutzung verwoben ist – über den Gebrauch persönlicher Sprachassistenten oder die Kommunikation mit Social Bots hinaus z. B. auch mit Blick auf algorithmische Personalisierung und automatisierte Empfehlungen durch Suchmaschinen, Social-Media-Plattformen und Online-Mediatheken. Diese algorithmischen Systeme arbeiten auf Grundlage einer unüberschaubaren Vielzahl von Variablen, die sich auf die empfohlenen Inhalte ebenso beziehen wie auf das Nutzerverhalten und weitere kontextuelle Faktoren. Im Gegensatz dazu sind die „Metaphern“ – verstanden im Sinne von Lakoff und Johnson (1980) als Bilder, auf deren Basis Menschen soziale Wirklichkeit konstruieren –, entlang derer solche Systeme gefasst werden, eher „mechanistisch“, stellen also eher Assoziationen mit technischen Geräten als mit Kommunikation her (search engine), oder gehen ganz im Begriff der Plattform auf (siehe auch Puschmann und Burgess 2014). Tatsächlich treffen solche Systeme ununterbrochen Entscheidungen und zielen klar darauf ab, eine gemeinsame ontologische Ebene mit ihrem menschlichen Gegenüber herzustellen, was unabhängig von der Modalität her durchaus als Annäherung an einen kommunikativen Prozess verstanden werden kann. Indem algorithmische Empfehlungen also im Hintergrund agieren, statt als Kommunikationspartner aufzutreten, ist ein persönlicher Sprachassistent technisch gesehen eine Weiterentwicklung bestehender Informationssysteme mit einem intuitiveren Interface. Gerade die Empfehlung als exemplarisch soziale Ebene der Kommunikation legt hierbei nahe, dass algorithmische Vorschläge für eine neue Phase der automatisierten Kommunikation stehen, in der Kommunikationsfähigkeit zunehmend von Intentionalität losgelöst wird. Die Verknüpfung mit Metaphern wird auch an der historischen Entwicklung von Suchmaschinen deutlich: Die frühen Suchmaschinen der 1990er-Jahre – beispielsweise HotBot, Lycos oder Ask Jeeves – bedienten noch sehr konsequent die Analogie zu hilfreichen (wenn auch nicht unbedingt unabhängig handelnden) Agenten, was in Folge aufgegeben und erst in der Ära persönlicher Sprachassistenten wieder aufgegriffen wurde.

Haben wir solche Beispiele im Blick, ist die Frage aufgeworfen, wie weit eine Sichtweise trägt, die kommunikative KI als direkten Kommunikationspartner und die „Delegation“ menschlicher Kommunikationsfähigkeiten an solche technischen Systeme ins Zentrum rückt. Das Phänomen erscheint wesentlich vielschichtiger und die Herausforderung für unseren Kommunikationsbegriff wesentlich komplexer: „This emerging movement of social roboticization is causing a fundamental change in the meaning of social interaction and the nature of human communication in society“ (Zhao 2006, S. 402). Gerade beim Hinzukommen weiterer Systeme kommunikativer KI über Artificial Companions, Social Bots und Work Bots hinaus, gilt es, die Kommunikation mit diesen Systemen – die basierend auf Modellen menschlicher Kommunikation für die Kommunikation mit Menschen geschaffen wurden (vgl. Guzman 2018a, S. 7) – auch begrifflich neu zu reflektieren.

Bisherige Vorschläge hierzu sind je nach theoretischer Verortung unterschiedlich. Über bestehende Varianzen hinweg treffen sie sich aber darin, die Notwendigkeit zu betonen, einfache Delegationsmetaphern zu überwinden und einzubeziehen, dass Menschen mit Maschinen in dauerhafte, ergebnisoffene Kommunikationsbeziehungen treten können (vgl. Esposito 2017; Hepp 2020). Die bisherigen Begriffsbildungen können wir als ein Tasten in Richtung einer angemessenen Beschreibungssprache verstehen. Gleichwohl bleibt an dieser Stelle viel an theoretischer Arbeit zu leisten, die von Relevanz und Wert für die Kommunikations- und Medienforschung insgesamt ist. So zwingt die Besonderheit der Kommunikation von Menschen mit kommunikativer KI immer auch dazu, die Spezifik der (medienvermittelten) Kommunikation unter Menschen zu hinterfragen (vgl. zu dieser Diskussion aktuell: Tomasello 2020; Vowe 2021). Die Forschung zu kommunikativer KI trägt somit zur Bildung einer allgemeinen Kommunikationstheorie bei – eine Theorieentwicklung, die seit Jahren ins Stocken geraten ist.

Dies führt direkt zu einer zweiten grundlegenden Herausforderung, nämlich der des Medienbegriffs. Wie bereits angeklungen, können wir kommunikative KI als eine bestimmte Art von (Kommunikations‑)Medium begreifen. Verstehen wir Letzteres als eine Vermittlungsinstanz von Kommunikation, der ein technisch basiertes Zeichensystem zugrunde liegt, die soziale Institutionen bildet, Organisationen umfasst und bestimmte Leistungen für Menschen (Individuen, Gruppen, Organisationen, soziale Welten, soziale Systeme etc.) erbringt (vgl. Beck 2006, S. 14; Saxer 1980, S. 532), so sind Systeme kommunikativer KI offensichtlich Medien, gleichwohl der besonderen Art, nämlich – wie wir bereits betont haben – solche, die über die reine Vermittlung hinausgehen.

Es ist dieses Über-die-reine-Vermittlung-Hinausgehen, das die Begriffsbildung, was ein Medium ist, herausfordert und eine Erklärung mit dafür ist, dass die Akteur-Netzwerk-Theorie gerade in der Forschung zu kommunikativer KI aufgegriffen wird (vgl. u. a. Lutz und Tamò 2018). Eine Kernüberlegung der Akteur-Netzwerk-Theorie ist, dass „Dinge“ in Akteur-Netzwerken bzw. Assemblagen mit Menschen die Rolle von Aktanten einnehmen. Dass ein solcher Theoriezugang bei einer Beschäftigung mit kommunikativer KI attraktiv ist, liegt auf der Hand. Sicherlich hat die ANT in ihrer Annahme, die Gesellschaft wäre – bestehend aus derartigen Akteur-Netzwerken bzw. Assemblagen – „flach“, Schwierigkeiten, umfassendere gesellschaftliche Zusammenhänge insbesondere im Hinblick auf Macht und Ungleichheit zu fassen (Couldry und Hepp 2016, S. 61–62). Auch bestehen Probleme mit dem Argument, dass Dinge die Dauerhaftigkeit einer Gesellschaft sicherstellen würden (vgl. Scott und Orlikowski 2014, S. 881–882). Gleichwohl kann die verstärkte Diskussion um eine ANT-Perspektive als Indikator dafür gesehen werden, dass eine sinnvolle Beschreibung von kommunikativer KI nicht möglich ist, ohne ihre Agency über Vermittlung hinaus zu theoretisieren.

Überdies haben wir oben deutlich gemacht, dass kommunikative KI als „Medien in Medien“ zu denken ist. Dies steht dafür, dass eine Beschäftigung mit kommunikativer KI direkt auf die Forschung zu Plattformen verweist. Ein wichtiges Argument dieser Forschung ist, dass digitale Plattformen zunehmend die Rolle von Infrastrukturen annehmen (vgl. Plantin und Punathambekar 2019). „Infrastrukturelle Plattformen“ (van Dijck et al. 2018, S. 11, 2019, S. 9) – Social-Media-Plattformen wie Facebook, Spiele-Plattformen wie Steam oder Software-Plattformen wie der Apple App Store oder der Google Play Store – bilden Meta-Strukturen für das Angebot weiterer Medien (die ggf. wiederum weitere Medien vermitteln oder zugänglich machen). Dies ist auch die Infrastruktur, über die viele Systeme kommunikativer KI verfügbar werden bzw. in der viele Systeme kommunikativer KI agieren.

Diese Reflektionen provozieren das Nachdenken über einen Teilaspekt des Medienbegriffs, nämlich die Materialität eines Mediums. Nach dem (unterstellten) „age of dematerialization“ (Magaudda 2011, S. 15), in dem die Kommunikations- und Medienwissenschaft u. a. das „Verschwinden der Medien“ (Mersch 2006, S. 3) betonte, wird seit dem „material turn“ (Bennett und Joyce 2010) die Materialität der Medien (wieder verstärkt) betont (vgl. Gillespie et al. 2014; Kannengießer 2020). Unsere oben gemachten Ausführungen zu Infrastrukturen weisen dabei nicht nur auf die Materialität kommunikativer KI als „Medien in Medien“ hin, die es zu reflektieren gilt, sondern auch, in welchem Maße die Beschäftigung mit dieser hilft, die Historizität des Medienbegriffs zu hinterfragen. So war die Materialität von Medien immer gegeben, eine Betonung ihrer „Dematerialisierung“ im historischen Rückblick eher eine Verkürzung, die sich aus der Fehldeutung von Digitalität ergab. Genau in einem solchen Sinne kann – so zumindest unsere Annahme – eine Beschäftigung mit kommunikativer KI historische Begrenzungen unseres Begriffs von Medien deutlich machen.

Beim aktuellen Forschungsstand ist es aber noch eine offene Frage, bei welchen Verständnissen von Kommunikation und Medien die Kommunikations- und Medienwissenschaft ankommen wird – so sie kommunikative KI zu einem festen Forschungsfeld macht. Wie die Beispiele deutlich gemacht haben, werden wir aber sicherlich zu anderen Begrifflichkeiten gelangen als die bisher verbreiteten. Auf diesem Weg werden wir an verschiedenen Stellen realisieren, wie „künstlich“ die begrifflichen Grenzziehungen der Kommunikations- und Medienforschung in den letzten Jahrzehnten waren – und wie viel für eine größere Offenheit spricht, sowohl was den Umgang mit Phänomenen als auch mit ihrer Theoretisierung angeht.

6 Fazit

In diesem Aufsatz haben wir versucht darzulegen, warum wir die Automatisierung von Kommunikation als einen relevanten Gegenstand der Kommunikations- und Medienforschung begreifen sollten. Unser Ausgangsargument war, dass die Phänomene, die wir unter dem „sensitizing concept“ der kommunikativen KI beschrieben haben, weit mehr umfassen als die direkte Interaktion von Mensch und Maschine und wir deshalb eine holistische Perspektive auf diese und die damit verbundenen Dynamiken der gesellschaftlichen Kommunikation entwickeln sollten. Wie man dies analytisch umsetzen kann, haben wir anhand des Brückenkonzepts der hybriden Figurationen gezeigt, das für die Konzeption einer supraindividuellen Agency von Mensch und Maschine steht. Mit diesem Brückenkonzept können wir nicht nur an bestehende „definitive concepts“ der Kommunikations- und Medienforschung anschließen. Darüber hinaus wird auch das Forschungsfeld der kommunikativen KI in einer Weise greifbar die verdeutlicht, wie die Automatisierung von Kommunikation die bisherigen Grundbegriffe von Kommunikation und Medien selbst in Frage stellt.

Die Aufgabe der Erforschung kommunikativer KI erscheint uns groß – und entsprechend als eine, die nur in der interdisziplinären Kooperation mit anderen Sozial- und Geisteswissenschaften sowie der Informatik zu leisten ist. Es würde den Rahmen dieses Aufsatzes sprengen, dieses Unterfangen hier darzulegen. Unsere bisherigen Darlegungen sollten aber deutlich gemacht haben, dass vor allem zwei Punkte notwendig erscheinen: ein Ansetzen einerseits bei der soziomateriellen Konstitution von kommunikativer KI, andererseits bei der Aneignung in verschiedenen sozialen Domänen.

Warum eine empirische Erforschung der soziomateriellen Konstitution von kommunikativer KI zentral ist, hat unsere Argumentation wiederholt vor Augen geführt. Wie wir von den Science and Technology Studies lernen können, ist die Konstitution von neuen Technologien immer in der „Intraktion“ von Sozialität und Materialität zu sehen (Orlikowski 2007; Suchman 2012a) – es geht also nicht darum, Soziales und Technologie bzw. Mensch und Maschine im Gegensatz zu sehen, sondern die Emergenz aus beidem zu erfassen. Heutige Sozialität besteht auch in und über die Materialität digitaler Technologien, aber Materialität erfährt jenseits des Sozialen keine Sinnhaftigkeit. Dies ist erst einmal eine allgemeine Aussage, die es gilt, in empirischer Forschung zu konkretisieren. Fragen, die dann im Raum stehen, sind beispielsweise: Auf Grundlage welcher Imaginationen wird kommunikative KI entwickelt, eingesetzt und genutzt? Wie ist Soziales in ihre Algorithmen und Interfaces eingeschrieben? Welchen Stellenwert haben Infrastrukturen dabei? Welche Rolle spielen Recht, Politik und Wirtschaft sowie deren Regelsetzungen und Governance in Prozessen der soziomateriellen Konstitution?

Wir haben aber auch gesehen, dass kommunikative KI nicht einfach „ein Ding“ ist, das überall mit identischen Transformationen einherginge. Hier können wir insbesondere aus der Mediatisierungsforschung lernen, die auch für andere Medientechnologien gezeigt hat, dass sich ihre Wirkmächtigkeit für unterschiedliche „soziale Domänen“ gesellschaftlicher Kommunikation auf verschiedene Weise entfaltet (Ekström et al. 2016; Hepp und Hasebrink 2017; Hjarvard 2013; Lunt und Livingstone 2016). Der Begriff der „sozialen Domäne“ dient in der Mediatisierungsforschung als weiter Oberbegriff für verschiedenste soziale Zusammenhänge, die für sich „sinnhafte Bereiche“ der Gesellschaft bilden. In diesem weiten Verständnis kann die Skalierung dieser „sinnhaften Bereiche“ sehr unterschiedlich sein und von Paaren, Gruppen, Gemeinschaften und Organisationen bis hin zu ganzen sozialen Feldern oder Systemen reichen. Diese weitreichende Skalierbarkeit kann als begriffliche Unschärfe problematisiert werden.Footnote 3 In der Mediatisierungsforschung geht es bei der Verwendung dieses Begriffs aber vorrangig darum, mit dem Hinweis auf die „Domänenspezifik“ der (tiefgreifenden) Mediatisierung zu betonen, dass Mediatisierung kein über verschiedene gesellschaftliche Sinnbereiche hinweg wirkender homogener Prozess ist. Dies gilt ebenso für kommunikative KI, deren Aneignungen und Herausforderungen beispielsweise im politischen Diskurs andere sind als im Journalismus, in der Verwaltung, im Privatleben oder der Bildung. Wichtig an der Stelle ist es, solche domänenspezifischen Aneignungen von kommunikativer KI in ihren Dynamiken empirisch zu erforschen und gerade nicht zu unterstellen, wir hätten es hier mit einheitlichen Systemen und identischen Funktionsweisen zu tun. Kommunikative KI kann „Überwachungskapitalismus“ (Zuboff 2018) und „Datenkolonialismus“ (Couldry und Mejías 2019) fördern, muss dies aber nicht zwangsläufig.

Wir hoffen, dass dieser Beitrag eine Anregung dazu ist, sich kommunikativer KI auf eine Art und Weise anzunähern, die die Vielschichtigkeit ihrer soziomateriellen Konstitution und domänenspezifischen Aneignungen ernst nimmt und dabei insofern einen holistischen Blick auf gesellschaftliche Kommunikation einnimmt, als kommunikative KI nicht auf die direkte Interaktion von Mensch und Maschine reduziert wird.