1 Veränderungen der Lebens- und Arbeitswelt und Kompetenzerfordernisse

Unser Leben und Arbeiten wird zunehmend durch Künstliche Intelligenz (KI) und durch Interaktionen zwischen uns Menschen und „intelligenten“ Assistenzsystemen geprägt. Dies spiegelt sich auch in der Verwendung der Bezeichnung „Industrie 5.0“, mit der u. a. Aspekte wie der Einsatz von (generativer) KI und das produktive Zusammenspiel von Menschen und „intelligenten“ Maschinen verbunden werden (Akundi et al. 2022, S. 3).

Künstliche Intelligenz bezeichnet Systeme, die auf Verfahren maschinellen Lernens, logischer Programmierung oder statistischer Verfahren basieren und ausgehend von der Analyse von Daten Inhalte, Vorhersagen, Empfehlungen, Entscheidungen hervorbringen oder Handlungen ausführen können (Europäische Kommission und Generaldirektion Bildung, Jugend, Sport und Kultur 2022, S. 10). Künstliche Intelligenz kann sich in unterschiedlicher Weise manifestieren, als nicht-physische Software (Agenten, Bots, Chatbots) oder als physische Roboter bzw. Maschinen. Wir sprechen daher im Folgenden von Assistenzsystemen, Agenten, Chatbots oder Robotern, die auf KI basieren. Diese können halb- oder vollautonom Aufgaben ausführen, die traditionell von Menschen erledigt wurden (Dang und Liu 2022). Im Gegensatz zu anderen Maschinen sind Chatbots und Roboter als Träger von KI konzipiert und ähneln in ihren Aktionen, ihrem Aussehen oder ihrer Leistung bzw. ihren Hervorbringungen uns Menschen. Dementsprechend schreiben wir Menschen diesen KI-basierten Agenten häufig menschenähnliche geistige Fähigkeiten oder Verstand zu (Roesler et al. 2021).

Mit der Veröffentlichung von ChatGPT im November 2022 ist KI weltweit ins öffentliche Bewusstsein gelangt. Keine andere bisherige digitale Applikation hat in vergleichbar kurzer Zeit eine so große Anzahl von aktiven Nutzern erreicht (Hu 2023). ChatGPT kann aufgrund der hohen Leistungsfähigkeit, der menschenähnlichen Kommunikation und der Optimierung für Interaktion (Chat) als ein digitaler Coworker oder Cobot bezeichnet werden (Sowa und Przegalinska 2020). Dies führt einerseits zu Befürchtungen, dass diese leistungsfähigen Assistenzsysteme Arbeitsplätze verschwinden lassen werden (Substitution von Arbeitskraft und Arbeitsplätzen). Andererseits wird aber auch argumentiert, dass durch neue Formen der komplementären Zusammenarbeit von Menschen und leistungsfähigen KI-Agenten Synergieeffekte und Produktivitätsgewinne realisiert werden können (Augmentations-Paradigma; Meier et al. 2019).

Im Zuge der fortschreitenden Digitalisierung und insbesondere der Entwicklungen rund um KI-basierte Assistenzsysteme ergeben sich neue Anforderungen an die Kompetenzen von Menschen. Mit dem Rahmenmodell DigComp wurde hierzu in einer ersten Version bereits 2017 ein systematischer Vorschlag zu den erforderlichen digitalen Kompetenzen gemacht (Carretero et al. 2017), der sich als Referenzpunkt etabliert hat. Die aktualisierte Version DigComp 2.2 (Vuorikari et al. 2022) ergänzt dieses Modell um den Kompetenzbereich „AI Literacy“ bzw. KI Literalität: Wissen, Fertigkeiten und Einstellungen für den kompetenten Umgang mit KI-Systemen. Dies ist nicht der erste Vorschlag zur Konzeptualisierung von KI-Kompetenzen bzw. AI Literacy. Vorschläge hierzu haben u. a. Long und Magerko (2020) sowie Ng et al. (2021) publiziert. Diese Modellierungen bleiben allerdings noch recht allgemein und sind erkennbar nicht dahingehend spezifiziert, welches Wissen, welche Fertigkeiten und welche Einstellungen es für eine erfolgreiche Interaktion mit generativen KI-Assistenzsystemen wie beispielsweise ChatGPT, Midjourney oder GitHub Copilot braucht. Beispiele hierfür sind etwa Kompetenzen im Bereich Prompt Design, Prompt Engineering und Model Finetuning: „the capacity to adeptly engage with generative AI becomes crucial, positioning prompt engineering as an emerging form of digital literacy“ (Bozkurt 2023).

An dieser Forschungslücke setzt der vorliegende Beitrag an. Dabei folgen wir einem deduktiv-konzeptionellen Vorgehen, das auf der Sichtung und Analyse ausgewählter Literatur in den Forschungsfeldern „Human-Machine-Collaboration“ und „Hybrid Intelligence“ basiert. In einem ersten Schritt erläutern wir in Kap. 2 den derzeitigen Stand generativer KI mit Blick auf große Sprachmodelle. In Kap. 3 gehen wir näher auf unterschiedliche Formen der Zusammenarbeit mit KI-basierten Assistenzsystemen ein sowie auf zentrale Erkenntnisse bisheriger Forschungsarbeiten in diesem Gebiet. Auf dieser Grundlage gehen wir im Kern des Beitrags (Kap. 4) zwei Fragen nach: zum einen, was unter „Hybrider Intelligenz“ im Kontext der Zusammenarbeit mit KI verstanden werden kann; zum anderen, welche menschlichen Kompetenzen dafür erforderlich sind und in Bildung/Personalentwicklung adressiert werden sollten. Kap. 5 liefert eine Zusammenfassung und stellt die mit diesen Entwicklungen verbundenen Gestaltungsaufgaben heraus.

2 Generative KI und KI-basierte Assistenzsysteme

In der Vergangenheit haben Maschinen vor allem Aufgaben übernommen, die besonders viel Kraft oder Ausdauer erforderten. Beispielsweise das Pflügen von Feldern, das Abpumpen von Sickerwasser in Bergwerken oder das Schmieden von Werkstücken in der Metallverarbeitung. Davon betroffen waren zunächst Beschäftigte im Bereich der Landwirtschaft, Bergbau oder der industriellen Produktion. Seit dem Beginn der industriellen Revolution sind die Maschinen, mit denen wir arbeiten, vielfältiger und leistungsfähiger geworden. Mit der Verbreitung der Personal Computer ab den 1980er-Jahren gibt es auch breit genutzte, leistungsfähige Werkzeuge für Wissensarbeiter:innen, die kognitive Arbeit übernehmen (z. B. die Tabellenkalkulation MS Excel). Mit dem Aufkommen von KI erleben wir diesbezüglich noch einmal einen Entwicklungssprung. KI-Anwendungen sind zunehmend in der Lage, anspruchsvolle Aufgaben zu übernehmen (Davenport und Kirby 2016; Brynjolfson und McAfee 2017).

Mit der Veröffentlichung von DALL‑E 2 und ChatGPT im Jahr 2022 sowie der breiten Nutzung dieser KI-Applikationen ist in der Gesellschaft das Bewusstsein dafür gewachsen, dass „intelligente‘ Assistenzsysteme jetzt auch dort Einzug halten, wo es um wissensintensive (Berufs‑)Arbeit geht. Im Vordergrund der öffentlichen Wahrnehmung stehen dabei die Fähigkeiten dieser Applikationen, ansehnliche Bilder oder brauchbare Texte zu erzeugen.

Diese Entwicklung wird sich noch akzentuieren. So hat Microsoft kürzlich den „Microsoft 365 Copilot“ angekündigt. Diese Lösung verbindet die Microsoft Office Apps (z. B. Word, PowerPoint, Excel), Microsoft Graph (Gateway zu Daten/Dokumenten) und ein großes Sprachmodell wie ChatGPT und ermöglicht damit beeindruckende Assistenzfunktionen (Microsoft 2023). Hinzu kommen Integrationen von generativen KI-Applikationen wie ChatGPT mit anderen Lösungen wie etwa dem auf der Software Mathematica basierender Onlinedienst Wolfram Alpha. Mit dieser Integration wird es beispielsweise möglich, anspruchsvolle mathematische oder statistische Fragestellungen über alltagssprachliche Befehle (Prompts) zu lösen (Wolfram 2023).

Mit generativen KI-Systemen (und deren Zusammenspiel mit anderen Lösungen wie Expertensystemen) werden daher in absehbarer Zeit sehr leistungsfähige Assistenzsysteme breit verfügbar sein, die in verschiedensten Berufsfeldern genutzt werden können. Damit stellt sich zum einen die Frage, wie das Zusammenspiel von Menschen einerseits und KI-basierten Anwendungen auf der anderen Seite im Kontext von beruflichem Arbeitshandeln gestaltet werden kann bzw. soll. Zum anderen stellt sich die Frage, wie die Akteure im Bildungssystem diese Entwicklungen aufgreifen sollen.

Aufgrund ihrer breiten Anwendungsmöglichkeiten ist der Einsatz von großen Sprachmodellen auch im Bereich der Bildung ein großes Thema (Kasneci et al. 2023; Gimpel et al. 2023). Da Menschen individuell unterschiedliche Voraussetzungen in Lernprozesse einbringen (Vorwissen und Fähigkeiten, Präferenzen, Bedürfnisse, etc.), bieten große Sprachmodelle Möglichkeiten für individualisierte Lernumgebungen und personalisierte Lernaktivitäten. Dies gilt für alle Bildungsebenen, von der Primär‑, Sekundär-, und Tertiär-Stufe bis hin zur beruflichen Weiterbildung. Im Rahmen der beruflichen Ausbildung können große Sprachmodelle beispielsweise dazu beitragen, Sprachkenntnisse zu entwickeln, die speziell auf einen bestimmten Arbeitsbereich ausgerichtet sind. Sie können darüber hinaus auch bei der Entwicklung von Fähigkeiten wie Programmierung, Berichterstellung, Projektmanagement, Entscheidungsfindung und Problemlösung unterstützen.

Diese Entwicklungen machen deutlich, wie wichtig es künftig sein wird, mit KI-Systemen kollaborieren zu können. Auf den Stand der Forschung dazu und auf unterschiedliche Ansätze zur Konzeptualisierung von Formen der Zusammenarbeit mit KI-basierten Assistenzsystemen gehen wir im nächsten Abschnitt näher ein.

3 Zusammenarbeit mit intelligenten Assistenzsystemen: Formen und Rollen

In der Vergangenheit wurde für die Arbeitsteilung zwischen Maschinen und Menschen häufig das sogenannte „leftover“-Prinzip angewendet (Wesche und Sonderegger 2019). Gemäss diesem Prinzip übernehmen Menschen nur die Aufgaben und Funktionen, die aus technischen oder wirtschaftlichen Gründen nicht automatisiert wurden bzw. nicht automatisiert werden können (Hancock 2014). Dem gegenüber steht das kompensatorische Prinzip für die Gestaltung von Mensch-Maschinen-Interaktionen. Dieses besagt, dass Funktionen auf der Grundlage der jeweiligen Stärken und Schwächen von Menschen und Computern zugewiesen werden sollten (Wesche und Sonderegger 2019). Insbesondere im kooperativen Zusammenwirken wird aber das große Produktivitätspotenzial von technischen Entwicklungen im Bereich von KI und Robotik gesehen (Brugger und Kimmich 2017).

Im Folgenden betrachten wir dieses kooperative Zusammenwirken von Menschen und intelligenten Assistenzsystemen genauer. Dabei gehen wir zunächst auf unterschiedliche Vorschläge zu Konzeptualisierung dieses Zusammenwirkens ein: Aufgabenkomplexität und Kooperationstypen, Stufenmodelle der Zusammenarbeit und Rollen, die KI-basierte Assistenzsysteme in Mensch-Maschine-Teams übernehmen. Darüber hinaus betrachten wir Aspekte der Akzeptanz von KI in Entscheidungssituationen.

3.1 Aufgabenkomplexität und Kooperationstypen

Ausgehend von Traumer et al. (2017) haben Bittner et al. (2019) eine Taxonomie für die Unterscheidung von Typen der Zusammenarbeit von Menschen und Maschinen vorgeschlagen. Dabei werden zwei Dimensionen unterschieden. Einerseits den Grad der Komplexität von Aufgaben (u. a. basierend auf der Anzahl der interagierenden Akteure, der Qualität der Kommunikation zwischen Akteuren oder der Dauer der Interaktion). Andererseits die Ausprägung der Interaktion im Hinblick darauf, wer mit wem kooperiert (Tab. 1).

Tab. 1 Taxonomie zu Aufgaben und Interaktionsformen im Bereich maschinelles Lernen und Mensch-Maschine Interaktion und Beispiele (eigene Darstellung nach Traumer et al. 2017 und Bittner et al. 2019)

Bittner et al. führen drei Beispiele für Mensch-Maschine Kollaboration an und verorten diese in diesem zweidimensionalen Raum. Sie sehen Assistenzsysteme für autonomes Fahren als ein Beispiel für Mensch-Maschine Kollaboration mit hoher Aufgabenkomplexität. Als Beispiele für Mensch-Maschine Kollaboration bei Aufgaben mittlerer Aufgabenkomplexität sehen sie zum einen sprachbasierte Lernassistenten und zum anderen Chatbots als Unterstützer bei der Ideengenerierung und Ideenelaboration (Bittner et al. 2019, S. 41ff.).

3.2 Stufen der Intensität der Zusammenarbeit

Ein Stufenmodell zur zunehmend engen Zusammenarbeit von Menschen und intelligenten Assistenzsystemen haben Sowa et al. (2021) vorgeschlagen. Sie unterscheiden die in Abb. 1 aufgeführten Stufen.

Abb. 1
figure 1

Stufen der Intensität der Zusammenarbeit bzw. der Integration von Menschen und intelligenten Assistenzsystemen (eigene Darstellung nach Sowa et al. 2021, S. 136)

Ein ähnliches Stufenmodell unterscheidet Grade der Automatisierung und Konsequenzen für die menschliche Rolle in verschiedenen Umgebungen (Parasuraman et al. 2000). Beispiele für unterschiedliche Grade der Automatisierung sind etwa die Stufen (teil-)autonomen Fahrens von Fahrzeugen oder Stufen der Unterstützung von Mediziner:innen bei Diagnostik und Behandlung durch Expertensysteme (Topol 2019). Für den Bildungsbereich hat Molenaar (2022) ein 6‑stufiges Modell der Automatisierung formuliert, dessen Pole durch die Modalitäten „Lehrperson steuert allein“ bzw. „vollständige Automatisierung ohne Kontrolle des Menschen“ markiert werden und zwischen denen verschiedene Zwischenstufen unterschieden werden (z. B. „bedingte Automatisierung“, bei der die KI-basierte Lerntechnologie ein Set an Aktivitäten steuert, wobei die Lehrperson beiläufig beaufsichtigt und jederzeit die Steuerung wieder übernehmen kann).

3.3 Mensch-Maschine-Teams: Rollen von Assistenzsystemen/Robotern

In der Leadership- und Teamforschung hat sich in den letzten Jahren die Sicht darauf, wer als Teammitglied zu sehen ist, verändert. Die meisten bisher vorliegenden Definitionen von Teams gehen von „zwei oder mehr Individuen“ aus. Im Kontext der Entwicklungen im Bereich KI werden neu allerdings auch KI-basierte Assistenzsysteme und Roboter als Teammitglieder gesehen („Technology as a Teammate“, vgl. Larson und DeChurch 2020).

Erkenntnisse über Mensch-Roboter-Teams in Organisationen im Büroumfeld sind immer noch rar (Wolf und Stock-Homburg 2022). In ihrer eigenen Studie haben Wolf und Stock-Homburg (2022) die Akzeptanz von Robotern in arbeitsbezogenen Mensch-Roboter-Teams untersucht. Die Ergebnisse deuten auf vier mögliche Rollen für Assistenzsysteme bzw. Roboter hin:

  1. 1.

    Teamassistent zur Unterstützung administrativer und koordinativer Arbeiten;

  2. 2.

    Wissensexperte, der Fachwissen in einem bestimmten Bereich bietet;

  3. 3.

    Scrum-Master, der mit dem Team arbeitet und sicherstellt, dass das Team die agilen Werte und Prinzipien umsetzt, z. B. durch Coaching; und schliesslich

  4. 4.

    Teamleiter mit institutionalisierter Autorität über andere Teammitglieder.

Auch Siemon (2022) macht einen Vorschlag für 4 mögliche Rollen von KI-basierten Systemen („AI-based teammates“) in Kollaborationsszenarien. Im Unterschied zu Wolf und Stock-Homburg werden KI-basierte Systeme als gleichberechtigte Partner in Kollaborationsszenarien gesehen:

  1. 1.

    Koordinator: In dieser Rolle leiten und koordinieren KI-basierte Systeme die Arbeit des Teams. Sie sorgen vor allem dafür, dass Aufgaben fristgerecht erledigt werden und Teammitglieder effektiv miteinander kommunizieren.

  2. 2.

    Kreator: In dieser Rolle geht es darum, neue Ideen und Problemlösungen zu entwickeln. KI-basierte Systeme als Kreatoren sind in der Lage, viele mögliche Lösungen für komplexe Probleme zu finden.

  3. 3.

    Perfektionist: In dieser Rolle sind KI-Systeme darauf ausgerichtet, detaillierte Aufgaben auf hohem Niveau zu erledigen.

  4. 4.

    Macher: In dieser Rolle sind KI-Systeme auf die effiziente und effektive Erledigung von Aufgaben ausgerichtet. Das kann auch die Umsetzung der Ideen von Ideengeber:innen beinhalten.

Die Ergebnisse dieser Studie legen nahe, dass KI-basierte Teamkollegen nicht unbedingt so viele Fähigkeiten wie möglich haben, sondern vielmehr eine klar definierte und konsequent umgesetzte Rolle einnehmen sollten. Wenn dies gegeben ist, können und werden menschliche Teammitglieder den Wert dieser Systeme für die Zusammenarbeit erkennen und nutzen, so dass das gemeinsame Potenzial von Menschen und KI ausgeschöpft werden kann (Siemon 2022).

4 Hybride Intelligenz als Basis für gelingende Zusammenarbeit

4.1 Hybride Intelligenz: Verbinden der Stärken von Menschen und Maschinen

Das Zusammenwirken von Menschen und intelligenten Assistenzsystemen wird seit einigen Jahren auch als „Hybride Intelligenz“ (HI) bezeichnet (Akata et al. 2020). HI bezeichnet Systeme, die als gemischte Teams arbeiten, in denen Menschen und Maschinen synergetisch, proaktiv und zielgerichtet zusammenarbeiten, um gemeinsam Ziele zu erreichen. Diese Idee der Hybridisierung von menschlicher und maschineller Intelligenz ist nicht neu. Einflussreich war diesbezüglich unter anderem Doug Engelbart mit seinem Konzept von erweiterter Intelligenz („Augmented Intelligence“ 1962).

Dellermann et al. (2019, S. 640) definieren hybride Intelligenz als „die Fähigkeit, komplexe Ziele durch die Kombination von Mensch und KI zu erreichen und dadurch bessere Ergebnisse zu erzielen, als sie jeder für sich hätte erreichen können“. Gerber et al. (2020) sprechen diesbezüglich von „Mensch-Maschine Symbiose“ im Sinne einer zielorientierten Partnerschaft zwischen Menschen und Maschinen.

Dabei werden die Stärken von Menschen vor allem im Bereich der Flexibilität, der Empathie, der Kreativität und des „gesunden Menschenverstands“ gesehen. Die Stärken von Maschinen vor allem im Bereich der Mustererkennung, der Wahrscheinlichkeitsbestimmung, der Geschwindigkeit und der Ausdauer (siehe Tab. 2). Interessant ist bei diesem Vergleich, dass sich mit den aktuellen Entwicklungen von ChatGPT bzw. GPT‑4 Veränderungen in diesen Zuschreibungen ergeben. Lag vor dem Aufkommen der großen generativen Sprachmodelle wie ChatGPT tendenziell die Übernahme von analytischen Aufgaben durch KI im Fokus, so werden nun auch kreative Tätigkeiten als mögliche Aufgaben gesehen (Bubeck et al. 2023, S. 35).

Tab. 2 Übersicht zu Definitionen für „hybride Intelligenz“ und damit verbundenen Stärken von Menschen bzw. Maschinen

Tab. 2 liefert eine Übersicht, wie in den letzten 60 Jahren hybride Intelligenz im Kontext der Zusammenarbeit von Menschen und Maschinen verstanden wurde und welche Stärken jeweils den Menschen sowie den Maschinen zugeschrieben wurden.

4.2 Akzeptanz für die Zusammenarbeit mit KI

Ein gelingendes Zusammenwirken von Menschen und intelligenten Assistenzsystemen erfordert nicht nur ein synergetisches Zusammenspiel von menschlicher und künstlicher Intelligenz. Daneben spielen auch die Haltungen und Einstellungen der beteiligten Menschen eine wichtige Rolle für das Gelingen der Zusammenarbeit.

Hier haben sich u. a. die impliziten Theorien über die menschliche Psyche als relevante Kontext-Bedingung herausgestellt – insbesondere Haltungen, die als „growth mindset“ bzw. als „fixed mindset“ charakterisiert werden können. So zeigt die Studie von Dang und Liu (2022), dass Menschen mit einem „growth mindset“ in der Tendenz (1) eher die eigene Kompetenzentwicklung in den Vordergrund stellen, (2) im Hinblick auf KI-Systeme eher das Kooperationspotenzial sehen und (3) eher beabsichtigen, mit KI-Agenten zu kooperieren.. Demgegenüber sehen sich Menschen mit einem „fixed mindset“ eher in Konkurrenz mit KI-Robotern und erwarten eher eine Wettbewerbssituation. Diese Unterschiede verweisen auf die Bedeutung von „Growth Mindset Kulturen“ und der von Führungskräften geschaffenen Rahmenbedingungen für eine gelingende Zusammenarbeit von Menschen und KI-Agenten (Dweck und Yeager 2019, S. 487).

Auch Studien zur Akzeptanz von KI-Systemen im Rahmen von Entscheidungsprozessen sind in diesem Zusammenhang relevant. Hierzu gibt es beispielsweise Ergebnisse aus der Management-Forschung. Interessante Studien im Bereich „Human-machine collaboration in managerial decision making“ hat etwa die Forschergruppe um Haesevoets durchgeführt (z. B. Haesevoets et al. 2021). Die Ergebnisse zeigen, dass menschliche Manager Maschinen nicht gänzlich von Managemententscheidungen ausschließen wollen, sondern stattdessen eine Partnerschaft bevorzugen, in der Menschen eine Mehrheitsstimme haben.

Wie die Studien zeigen, steigen die Akzeptanzraten für das Einbinden von KI-Robotern stetig an, bis zu dem Punkt, an dem Menschen bei Managemententscheidungen ein Gewicht von etwa 70 % und Maschinen ein Gewicht von 30 % haben. Danach flacht die Kurve ab, was bedeutet, dass ein höherer Anteil an menschlichem Einfluss die Akzeptanz nicht weiter erhöht.

4.3 Spezifische menschliche Kompetenzen für die gelingende Zusammenarbeit mit intelligenten Maschinen

Die Übersicht in Tab. 2 hat gezeigt, dass hybride Intelligenz vielfach als ein synergetisches Zusammenführen von menschlicher und maschineller Intelligenz bzw. von Stärken von Menschen und Maschinen verstanden wird. Dabei werden Menschen u. a. sehr allgemeine geistige Fähigkeiten und Stärken bei der Anpassung an neue Umgebungen zugeschrieben.

Eine solche neue Umgebung stellt auch die sich verändernde Lebens- und Arbeitswelt dar, in der (1) Smarte Maschinen bzw. intelligente Agenten rasch Verbreitung finden und (2) das synergetische Zusammenwirken mit diesen Agenten hohen Nutzen verspricht. Von daher stellt sich die Frage, welche spezifischen Kompetenzen Menschen dafür einbringen können bzw. entwickeln müssen. Aktuell wird dies insbesondere im Hinblick auf die produktive Nutzung von bzw. Zusammenarbeit mit generativen KI-Systemen wie z. B. ChatGPT/GPT‑4 diskutiert.

Für den kompetenten Umgang mit KI-Agenten wie ChatGPT sind aus unserer Sicht insbesondere die folgenden Aspekte relevant:

  1. 1.

    Ein allgemeines Verständnis davon, wie KI funktioniert – einschliesslich des Unterschieds zwischen regelbasierten Algorithmen und der Funktionsweise eines Sprachmodells wie ChatGPT.

    Das Wissen darüber ist u. a. für die Gestaltung der Benutzereingaben für das System („Prompts“) relevant. Dieses Wissen ist aber auch relevant für die Fähigkeit zur Unterscheidung zwischen systemimmanenten Limitationen (z. B. „Halluzinationen“ bei einer zu kleinen Trainingsdatenbasis) und vorübergehenden Limitationen (z. B. die Trainingsdaten für ChatGPT berücksichtigen derzeit nur Daten bis ca. Mitte 2021).

  2. 2.

    Ein Verständnis für die Unterschiede zwischen menschlichen Kompetenzen und den Fähigkeiten einer KI.

    Sprachmodelle wie ChatGPT basieren auf statistischen Wahrscheinlichkeiten und sind nicht dafür optimiert, etwas Einzigartiges oder Neues zu erzeugen. In der Vergangenheit wurde Kreativität als eine spezifisch menschliche Stärke betrachtet, an der sich auch gut eine Abgrenzung gegenüber künstlicher Intelligenz vornehmen lässt. Allerdings hat sich in jüngster Zeit gezeigt, dass die Leistungsfähigkeit von generativer KI wie ChatGPT auch zu einer veränderten Sicht auf Kreativität und Originalität in unserer Gesellschaft führt.

  3. 3.

    Die Fähigkeit, zielorientiert mit KI-basierten Agenten zusammen zu arbeiten (Ko-Kreation) und sie zur Bewältigung von Aufgaben einzusetzen.

    Wenn es darum geht, in Kooperation mit KI-Agenten Artefakte unterschiedlicher Genres zu erstellen, ist – zumindest im aktuellen Entwicklungsstand – eine ausgeprägte Expertise im Bereich „Prompting“ erforderlich.

    Da Anwendungen wie ChatGPT/GPT‑4 beim Erzeugen der Ausgaben umfangreichen Kontext berücksichtigen können, spielt die überlegte und präzise Gestaltung der Prompts eine wichtige Rolle für die Qualität der erzielten Ergebnisse (Gimpel et al. 2023, S. 29).

    Der nachfolgende Vorschlag für die strukturierte Gestaltung von Prompts unterscheidet drei Gestaltungselemente (siehe auch Tab. 3):

    • Anweisung – Was soll die KI tun?

    • Suchraum – Für welche Zielgruppe soll sie etwas erzeugen?

    • Ausgabe-Spezifika – In welcher Machart soll sie etwas erzeugen?

  4. 4.

    Die Fähigkeit zur reflexiven Beobachtung und Steuerung des eigenen Handelns („reflection-in-action“) – insbesondere im Hinblick auf lebenslanges Lernen.

    Mit KI-Agenten wie ChatGPT/GPT‑4 erhalten Menschen nicht nur ein Assistenzsystem, sondern sie können auch auf einen jederzeit verfügbaren persönlichen Trainer bzw. Coach zurückgreifen. Mit diesem können sie u. a. auf Wissensentwicklung ausgerichtete Dialoge zu Themen führen, die für sie persönlich relevant sind. Für die erfolgreiche (Weiter‑)Entwicklung eines solchen personalisierten Trainingssystems sind metakognitive Kompetenzen erforderlich. Diese ermöglichen es einer Person, nicht nur ihr eigenes Wissen, ihre eigenen Fähigkeiten und ihr eigenes Verhalten selbstreflexiv zu betrachten, zu bewerten und zu regulieren; sie ermöglichen auch die Reflexion, Bewertung und Regulierung der Zusammenarbeit mit einem persönlichen Assistenzsystem.

  5. 5.

    Zu den für den Umgang mit KI-Agenten relevanten Kompetenzen gehört auch eine Sensibilität für deren ethische Nutzung.

    Kim (2022) hat für den Kontext der betrieblichen Personalentwicklung zwei Ansätze identifiziert, um ethische Bedenken in der Mensch-Maschine Zusammenarbeit anzugehen. Erstens sollten Organisationen ethische Leitlinien und geeignete Umgebungen etablieren, um Mitarbeitende in der Zusammenarbeit mit KI-Agenten zu schützen. Zweitens sollte die Personalentwicklung Leitlinien für eine angemessene Nutzung von bzw. einen angemessenen Umgang mit KI-Agenten durch die Beschäftigten etablieren. Vorschläge dazu, welche Aspekte dabei relevant sind, kommen u. a. von der Europäischen Kommission. Diese hat sieben ethische Leitlinien und dazugehörige Leitfragen formuliert (Europäische Kommission und Generaldirektion Bildung, Jugend, Sport und Kultur 2022). Dazu gehören beispielsweise der Vorrang menschlichen Handelns und menschlicher Aufsicht, Transparenz oder Rechenschaftspflicht.

Tab. 3 Zentrale Gestaltungselemente für Prompts für ChatGPT/GPT‑4 (Quelle: Handschuh 2023)

5 Zusammenfassung und Ausblick

Mit KI-Agenten bzw. generativen KI-Systemen wie z. B. ChatGPT/GPT‑4 werden in absehbarer Zeit sehr leistungsfähige Assistenzsysteme breit verfügbar sein. Diese Assistenzsysteme können in verschiedensten Berufsfeldern und für verschiedenste Aufgaben eingesetzt werden. Damit stellen sich Fragen nach (1) den Optionen für die Gestaltung der Zusammenarbeit von Menschen und KI-Agenten, (2) dem Zusammenwirken von menschlicher und künstlicher Intelligenz und (3) den für eine erfolgreiche Zusammenarbeit mit intelligenten Assistenzsystemen erforderlichen Kompetenzen.

Im Hinblick auf die Zusammenarbeit von Menschen und KI-Agenten können nicht nur unterschiedliche Kooperationstypen und Stufen der Intensität der Zusammenarbeit unterschieden werden. Es können auch verschiedene Rollen für KI-Agenten als Teammitglieder unterschieden werden (z. B. Assistent, Koordinator, Macher, Experte).

Menschen und KI-Agenten bringen in die Zusammenarbeit unterschiedliche Stärken ein und daraus resultiert eine „hybride Intelligenz“. Für die erfolgreiche Zusammenarbeit von Menschen und intelligenten Assistenzsystemen braucht es aber mehr als das Zusammenwirken unterschiedlicher Intelligenzen. Hier spielen kulturelle Rahmenbedingungen bzw. Haltungen und Einstellungen der beteiligten Menschen eine wichtige Rolle. Gehen Menschen eher mit einem „growth mindset“ in die Zusammenarbeit und sehen sie eher die damit verbundenen Entwicklungschancen? Oder gehen sie eher mit einem „fixed mindset“ in diese Zusammenarbeit und sehen sie eher eine Konkurrenzsituation?

Schliesslich spielen spezifische menschliche Kompetenzen eine wichtige Rolle für das Gelingen der Zusammenarbeit von Menschen und KI-Agenten. Zu diesen Kompetenzen gehören insbesondere die folgenden: (1) ein allgemeines Verständnis dazu, wie KI funktioniert und wo die Unterschiede zwischen menschlichen Kompetenzen und den Fähigkeiten von KI-Agenten liegen; (2) Kompetenzen im Hinblick auf die Gestaltung von Prompts für generative KI-Assistenzsysteme; (3) die Fähigkeit zur reflexiven Beobachtung und Steuerung des eigenen Handelns im Mensch-Maschine Tandem; (4) die Fähigkeit zur reflexiven Beobachtung und Steuerung der Zusammenarbeit im Mensch-Maschine Tandem; (5) Sensibilität für die ethischen Herausforderungen der Mensch-Maschine Kooperation.

Insgesamt verweisen die in diesem Beitrag behandelten Aspekte der Zusammenarbeit von Menschen und KI-Agenten auf die Bedeutung sowohl von Rahmenbedingungen als auch Gestaltungsaufgaben für eine gewollte, gelingende, und produktive Zusammenarbeit von Menschen und intelligenten Assistenzsystemen. Damit verbunden sind wichtige Management-Aufgaben, wie etwa das Etablieren von ethischen Leitlinien oder von „Growth Mindset Kulturen“ in Unternehmen und Organisationen.