1 Künstliche Intelligenz in der Sozialen Arbeit

Mit diesem Artikel wird ein Beitrag zum Diskurs des Themas „Künstliche Intelligenz (KI)“ in der Sozialen Arbeit geleistet, indem vertieft der Bereich der Sprachverarbeitung durch KI, das Natural Language Processing (NLP), in den Blick genommen wird, denn Verarbeitung natürlicher Sprache ist aufgrund der hohen Bedeutung kommunikativer Prozesse für die Praxis der Sozialen Arbeit von besonderer Relevanz. Zunächst erfolgt eine Einführung zu KI und NLP. Bezugnehmend auf Staub-Bernasconis Handlungstheorie (2018) werden die Implikationen von NLP für die Profession und der sich ergebenen Konsequenzen einerseits und die Möglichkeiten der Bedürfnisbefriedigung und gleichzeitiger Wahrung der Rechte der Klient*innen andererseits analysiert. In Bezug auf die Bedürfnisfrage der Klient*innen hinsichtlich der Möglichkeiten von NLP wird der Uses-and-Gratification-Ansatz (Ruggiero 2000) herangezogen. Zur Frage der potenziellen Wirkung von NLP auf Klient*innen greifen wir auf die Media Equation Theory (Nass und Brave 2005) zurück. In verschiedenen Handlungsfeldern der Sozialen Arbeit wird der Einfluss von NLP exemplarisch dargestellt. Die entsprechenden Erörterungen sind wiederum für die professionsbezogene Diskussion von hoher Relevanz – etwa wo Bedürfnisse durch NLP-gestützte Technologie zunächst befriedigt werden und den Einbezug von Fachkräften der Sozialen Arbeit vordergründig obsolet zu machen scheinen.

1.1 Verständnis von KI und NLP

KI ist ein Oberbegriff, unter dem Verfahren zusammengefasst werden, bei denen aus Daten neue Informationen in Form von Vorhersagen, Klassifikationen oder Ordnungen generiert werden. Unter einem „Datum“ (als Singular von „Daten“) kann jede einzeln abgrenzbare Information verstanden werden. In der Sozialen Arbeit können dies z. B. Stammdaten sein, aber auch Artefakte, handschriftliche Notizen, Häufigkeit und Dauer von Kontakten, Kosten usw. Daten sind die Grundlage für die auf Statistik basierenden Verfahren der KI (Russell und Norvig 2021, S. 44). Zu beachten ist, dass die Qualität der Ergebnisse von der Qualität und Quantität der einfließenden Daten abhängt und die Interpretation der Ergebnisse immer unter Einbezug der Datengrundlage erfolgen sollte (Russell und Norvig 2021, S. 723–728).

BegrifflichFootnote 1 kann KI aufgeteilt werden in starke KI und schwache KI. Starke KI meint, dass die KI über eine Art Bewusstsein verfügt, sich in ihrer Existenz selbst erkennen und selbstständig Ziele setzen kann (Russell und Norvig 2021, S. 1032). Solche Formen von KI werden häufig in Filmen und Science-Fiction behandelt, in der Realität gibt es eine solche KI bisher nicht. Ob es sie überhaupt geben kann, ist stark umstritten. Das Spektrum der Diskussion reicht dabei vom praktischen Ausschluss einer solchen Möglichkeit (z. B. Fjelland 2020) bis hin zur Warnung vor der Entwicklung aufgrund der befürchteten gravierenden Auswirkungen auf die Menschheit (z. B. Bostrom 2020). Unter die schwache KI fallen neben sog. ExpertensystemenFootnote 2 vor allem die heute sehr relevant gewordenen Verfahren des maschinellen Lernens (Machine Learning). Maschinelles Lernen umfasst Verfahren, bei denen Systeme lernen, was bedeutet, dass sich ihre auf statistischen Modellen beruhenden Vorhersagen durch Rückmeldungen in Form von Feedbackdaten verbessern. Diese Modellanpassungen werden in logischen Regeln abgebildet oder in den sich anpassenden, sog. Künstlichen Neuronalen Netzwerken (KNN) (Theodoridis 2015, S. 875–932). KNN – in Analogie zu den Strukturen im menschlichen Gehirn benannt – sind netzwerkartige Modelle mit Verbindungen zwischen künstlichen Neuronen und werden beim Deep Learning, einer Unterform maschinellen Lernens, verwendet. Deep Learning zeichnet sich durch die Anzahl der Verarbeitungsschichten aus, wodurch zahlreiche Verknüpfungsmöglichkeiten vorhanden sind. Ähnlich wie beim menschlichen Lernen, verändern sich KNN in Abhängigkeit von Feedback in ihrer Struktur und der Stärke der einzelnen Verbindungen. Sie sind von besonderer Bedeutung sowohl für die Spracherkennung als auch für alle Gebiete, in denen wenige explizite Regeln bekannt sind oder formuliert werden können (Goodfellow et al. 2016, S. 301–310). Damit ein vorhandenes KNN eine spezifische Aufgabe möglichst passgenau erfüllen kann, wird es beim überwachten Lernen mit vorhandenen Daten zunächst trainiert, bevor in einer Testphase die Ergebnisse überprüft werden. Beim unüberwachten Lernen werden keine Zielkategorien vorgegeben; die KI soll Muster in den Daten entdecken, z. B. sog. Cluster, d. h. Häufungen von Datenpunkten (Goodfellow et al. 2016, S. 108–115).>

Wird natürlicher Text oder natürliche Sprache durch einen AlgorithmusFootnote 3 bearbeitet oder generiert, wird dieses Verfahren Natural Language Processing, kurz NLP, genannt. Methoden der KI werden dafür mit computerlinguistischen Methoden kombiniert. In den 1990er-Jahren nahm die Forschung von Methoden zur Analyse natürlicher Sprache deutlich zu und entwickelte sich zu einem der wichtigsten Forschungsgebiete des maschinellen Lernens (Jain et al. 2018). Gründe dafür sind die gestiegene Rechenleistung und Speicherkapazität, die generell zu einem Aufschwung der KI in der Forschung führten, aber auch die große Menge an Texten, die mit der Verbreitung des Internets verfügbar wurde (Liddy 2001). Diese Entwicklungen ermöglichten eine deutliche Verbesserung in der Übersetzung von Texten, jedoch noch ohne den Versuch, die Bedeutung der Texte zu erfassen (Liddy 2001). Erst weitere Fortschritte ermöglichten erste automatisierte Kontextualisierungen natürlicher Sprache. Vor allem die Forschung im Bereich des Deep Learning erzielte auf diesem Gebiet überzeugende Ergebnisse (Hirschberg und Manning 2015). Ziele der heutigen NLP-Forschung sind u. a. das Erkennen von Stimmungen in Texten, das automatisierte Generieren von Sprache, die nicht oder kaum von menschlich verfassten Texten zu unterscheiden ist (z. B. zur Anwendung in Chatbots) und das Erfassen des Inhalts sowie des Kontexts von Sprache zur Erzeugung von Zusammenfassungen (Jain et al. 2018).

Die Möglichkeiten des Deep Learning einerseits und die ständig wachsende Anzahl an Daten in Form von natürlicher Sprache andererseits, haben die Techniken im NLP in den letzten Jahren auf ein neues Level gehoben. Das im Jahr 2020 veröffentlichte OpenAI GPT‑3 (OpenAI LP, San Franciso, USA; OpenAI 2020) nutzt Deep-Learning-Applikationen und ist in der Lage, anhand von wenigen Input-Parametern qualitativ hochwertige Texte zu generieren, die oftmals nicht mehr von menschlich verfassten Texten unterschieden werden können (Elkins und Chun 2020; Floridi und Chiriatti 2020). Es handelt sich um ein autoregressives Sprachmodell. Das heißt, es lernt schrittweise aus den eigenen Daten, ohne dass vorab umfangreiche Regeln formalisiert werden müssen, und verbessert sich so stetig (Zong und Krishnamachari 2022). Einer breiten Öffentlichkeit wurde die Technik durch den von OpenAI entwickelten Chatbot „ChatGPT“ (Veröffentlichung im November 2022) bekannt, als dieser Anfang 2023 eine Jura-Prüfung an der Universität von Minnesota bestand und damit viel Aufmerksamkeit erzeugte (Choi et al. 2023). Die Qualität der Texte, die durch das Modell erzeugt werden, hat eine neue Ebene erreicht, an die andere Sprachmodelle bis heute nicht heranreichen. Da in der Sozialwirtschaft große Mengen an Text erzeugt und verarbeitet werden und eine sehr große Menge an Daten in Form natürlicher Sprache vorliegt, erscheint GPT‑3 äußerst relevant. Problematisch bei der Verwendung von KNN im Deep Learning ist die Tatsache, dass die Entscheidungsgrundlagen nicht oder kaum noch nachvollzogen werden können. Das Forschungsgebiet „Explainable Artificial Intelligence“ ist der Fragestellung gewidmet, wie diese Informationen transparent gemacht werden können.

2 NLP in der Sozialen Arbeit

2.1 Theoretische Zugänge

Bedeutung von NLP für die Soziale Arbeit als Menschenrechtsprofession

Staub-Bernasconi charakterisiert die Soziale Arbeit als Menschenrechtsprofession (2007) und Handlungswissenschaft (2018). Sie entfaltet für die Soziale Arbeit das Tripelmandat, das die Mandate der Gesellschaft, der Klient*innen und der Profession als solcher umfasst (2018). Diese befinden sich mitunter in einem Spannungsverhältnis und stellen widersprüchliche Anforderungen an die Fachkraft. Dem Tripelmandat zugrunde liegen vier Komponenten: wissenschaftliches Wissen, ethische Basis, Menschenrechte und -würde sowie Haltung. Insbesondere die Wahrung der Menschenrechte, die Staub-Bernasconi als „Realutopien“ (2007) bezeichnet, ist übergeordneter Auftrag. In Bezug auf das Tripelmandat formuliert sie: „Ziele von Menschenrechtsarbeit im Rahmen der Sozialen Arbeit sind auf der individuellen Ebene die Wiederherstellung von Menschenwürde sowie Wohlbefinden durch Bedürfnisbefriedigung und Lernprozesse, auf der gesellschaftlichen Ebene gesellschaftliche Integration, soziale Gerechtigkeit sowie sozialer Wandel in Anbetracht menschenverachtender sozialer Strukturen und Kulturmuster und – langfristig – die Arbeit an einer Menschenrechtskultur im Alltag“ (2007, S. 10). Beranek (2021) legt dar, dass KI die Frage der Menschenrechte tangiert. Beranek, Hill und Sagebiel (2019) arbeiten in einem Diskursüberblick die Bedeutung für Fragen der Profession, der Disziplin und der Ausbildung heraus. Hierbei messen sie hinsichtlich ethischer Fragen insbesondere der aufklärerischen Funktion der Sozialen Arbeit Bedeutung bei. Wir werden im Folgenden die Implikationen des Tripelmandats hinsichtlich des Einsatzes von NLP im Kontext verschiedener Handlungsfelder elaborieren.

Ein weiterer Aspekt, der in Bezug auf NLP diskutiert werden sollte, ist die Möglichkeit der permanenten Verfügbarkeit, Modularisierung und Herauslösung von Interaktion aus einem sozialen oder professionellen Kontext. Staub-Bernasconi warnt vor einer rein marktbasierten Nachfrage- und Angebotsstruktur (2007) und spricht mit James (2004) von einer „Sozialen Arbeit auf Fastfoodniveau“. Hier muss der Einsatz von NLP in dem von Staub-Bernasconi aufgefalteten Spannungsverhältnis von „Ver-Betriebswirtschaftlichung“ und Teilhabe diskutiert werden.

Perspektive der (potenziellen) Klient*innen

Die Media Equation Theory besagt, dass Menschen dazu neigen, Computer und andere Medien so zu behandeln, als handele es sich um Menschen; insbesondere der Gebrauch von Sprache scheint soziale Kategorien zu aktivieren (Nass und Brave 2005). Bei den Experimenten, die zur Untersuchung der Postulate der Theorie durchgeführt wurden, war den Teilnehmenden bekannt, dass sie mit Computersystemen interagieren, die Aktivierung der sozialen Kategorien erfolgte gleichwohl. Der aktuelle Leistungsstand von Systemen, die NLP nutzen, übersteigt bei Weitem das Vermögen der Computer- und Sprachsysteme, die bei der ursprünglichen Entwicklung der Media Equation Theory von Nass und Kollegen untersucht wurden. Auch wenn eine Interaktion mit einem solchen System als quasisozialeFootnote 4 Interaktion wahrgenommen werden kann, fehlt die professionelle Reflexion und der Rückbezug auf die von Staub-Bernasconi benannten Komponenten (2018). Die Nutzung kann gleichwohl für Klient*innen attraktiv erscheinen: Neben dem Wegfall einer möglichen Bewertung durch ein menschliches Gegenüber sind NLP-Systeme stets verfügbar, niederschwellig erreichbar, und die Verengung auf einen Problemaspekt oder einen Lösungsansatz ist möglicherweise sogar gewünscht. Zur systematischen Analyse der Frage, welche Nutzungsmöglichkeiten und entsprechenden Gratifikationen vonseiten der Klient*innen gesehen werden, kann der Uses-and-Gratification-Ansatz (Ruggiero 2000) herangezogen werden, demzufolge Menschen Medien danach auswählen, ob diese ihre Bedürfnisse erfüllen. Sundar und Limperos (2013) schlagen unter Einbezug der Besonderheiten neuer Medien ein Rahmenmodell mit vier Kategorien vor. Diese sind Gratifikation durch 1. Modalität des Mediums, 2. (Selbst‑)Wirkung, 3. Interaktivität und 4. Navigationsmöglichkeiten.

Exemplarisch wird im Folgenden näher auf die (arbeitsfeldübergreifende) Beratung eingegangen, bevor ein spezifischer Blick auf die Arbeitsfelder Altenhilfe sowie Kinder- und Jugendhilfe erfolgt. Die nachfolgenden Ausführungen sind nicht als Best-Practice-Beispiele zu verstehen, sondern bieten einen Exkurs zu aktuellen Entwicklungen. Die Implikationen für potenzielle Gratifikationen von NLP in den Handlungsfeldern werden anhand der konkreten Beispiele entwickelt.

2.2 NLP in der Beratung

Die Einsatzbereiche von Methoden der KI in der Beratung sind vielseitig. Gerade die Methoden des NLP eröffnen neue Möglichkeiten der Textverarbeitung und -generierung. So gibt es in Bezug auf die Beratung aktuell vor allem drei Einsatzfelder, die besonders relevant sind: die direkte Interaktion mit Ratsuchenden über Chatbots, das Wissensmanagement sowie Entscheidungsunterstützungssysteme. Im Folgenden werden die Einsatzfelder genauer beleuchtet sowie Risiken und Chancen aufgezeigt. Anschließend werden Voraussetzungen für einen hilfreichen Einsatz von KI in der Beratung herausgearbeitet.

Der Einsatz von Chatbots in der psychosozialen Beratung

Die technischen Fortschritte im Bereich der KI und speziell des NLP ermöglichen Entwicklungen von Chatbots, die in ihrer Kommunikation kaum mehr von einem menschlichen Gegenüber zu unterscheiden sind (Zong und Krishnamachari 2022). Das macht diese Technik auch für die Soziale Arbeit immer interessanter (Brandtzaeg et al. 2021), etwa für den Erstkontakt mit Ratsuchenden, denen Informationen zur Verfügung gestellt werden oder die richtige Ansprechperson empfohlen wird.

Der Chatbot Woebot (Woebot Labs Inc., San Francisco, USA) wird in der Therapie eingesetzt und interagiert direkt mit den Nutzenden (Woebot Health 2022). Es können verschiedene Themen gewählt werden, die Hilfe erfolgt direkt über den Chat. Der Woebot wurde von Mediziner*innen, Psycholog*innen und Techniker*innen entwickelt und fragt nach dem aktuellen Befinden, hört zu und gibt Ratschläge, um an der aktuellen Situation zu arbeiten (Becker 2018). Motivation zur Entwicklung des Woebots war u. a. die Knappheit von Therapieplätzen, die Hemmschwelle, diese aufzusuchen, sowie die Erreichbarkeit. Einige weitere Anwendungen von Chatbots im Gesundheitsbereich stellen Adamopoulou und Moussiades (2020) vor.

Der Einsatz von Chatbots in der Beratung kann einen Erstkontakt erleichtern und erlaubt vor allem jüngeren Menschen, so zu kommunizieren, wie sie es üblicherweise tun. Die Gratifikation nach Sundar und Limperos (2013) wäre hier die Modalität: Mehr Hilfesuchende können erreicht und mit Informationen versorgt oder an eine Beratungsstelle weitergeleitet werden (Brandtzaeg et al. 2021). Zudem ist die Wartezeit für eine analoge persönliche Beratung oft lang und für die Ratsuchenden schwer zu überbrücken. Die Chatbots sind direkt und jederzeit verfügbar, auch wenn die Tools oft nur Ideen zum Umgang mit der eigenen Situation zur Verfügung stellen. Interaktivität und erlebte Selbstwirksamkeit sind mögliche Gratifikationen. Nutzer*innen erhalten eine direkte Reaktion. Staub-Bernasconi warnt jedoch davor, Angebote zu schaffen, nur weil die Nachfrageseite – also die Klient*innen – diese einfordern. Eine ausschließlich nachfragegesteuerte Schaffung von sozialen Diensten werde der Profession der Sozialen Arbeit nicht gerecht und führe zur genannten „Ver-Betriebswirtschaftlichung“ (2007). Besonders kritisch sind solche Chatbots zu betrachten, die nicht nur einen Erstkontakt herstellen und dann an Fachpersonal weiterleiten, sondern die auch Therapieleistungen übernehmen. Hier besteht die Gefahr einer einseitigen Betrachtungsweise der Situation durch die ratsuchende Person selbst, anstelle einer ganzheitlichen Beratung unter Einbezug von Umfeld, Gesellschaft und weiteren Faktoren. Zudem verschiebt sich der Fokus verstärkt von sozialen Beziehungen auf quasisoziale Beziehungen mit digitalen Medien. Ein hermeneutisches Fallverstehen findet dann nicht oder in reduzierter Form statt. Grundsätzlich darf die digitale Kontaktaufnahme nicht die ausschließliche Form des Erstkontakts sein, da sonst weniger digital affine Hilfesuchende nicht mehr erreicht werden. Darüber hinaus ist zu klären, wer im Falle einer Fehleinschätzung der Lage des*der Ratsuchenden durch den Algorithmus oder bei Ratschlägen, die nicht zielführend sind, haftet. Nicht zuletzt sind Datenschutz und -sicherheit zu adressieren und zu gewährleisten (Brandtzaeg et al. 2021). In jedem Fall muss der Einsatz von Bots transparent gemacht werden, sodass die Ratsuchenden sich zu jeder Zeit darüber bewusst sind, dass ein Algorithmus und kein Mensch auf ihre Anfragen antwortet.

NLP im Wissensmanagement

Auch im Hintergrund kann NLP die Arbeit der Sozialarbeiter*innen ergänzen und unterstützen, z. B. beim Wissensmanagement und im Austausch zwischen den Berater*innen. Die Caritas hat das Pilotprojekt „Lernende Systeme in der Beratung“ ins Leben gerufen. Primäres Ziel ist das Aufzeigen der Vorteile einer strukturierten Datennutzung und der Aufbau von Kompetenzen in diesem Bereich. Das System durchsucht Protokolle, Forenbeiträge und Expertiseprofile, um die Beratenden über ähnliche Fälle zu informieren und Kontakte zu Kolleg*innen zu vermitteln, die Erfahrung in diesem Bereich haben. So soll das Netzwerk, auf das die Beratenden Zugriff haben, vergrößert werden (Müller 2022). Da die Wissensweitergabe in diesem Fall von Mensch zu Mensch funktioniert, ist das Risiko der Falschinformation durch das System gering. Die Überprüfung in der Praxis steht noch aus. Erst diese wird zeigen, ob die Beratenden tatsächlich weniger Zeit für die Beschaffung der relevanten Informationen benötigen und ob die Beratungsleistung durch die Unterstützung des Systems verbessert wird (Caritas digital o.J.).

Im Projekt MAEWIN, das an der FH Bielefeld durchgeführt wird, wird auf Basis maschinell ausgewerteter Dokumentationen aus der Sozialen Arbeit ein Entscheidungsunterstützungssystem entwickelt (FH Bielefeld o.J.). Bei den Dokumentationen handelt es sich um natürlichen Text, dessen Fragmente klassifiziert werden. Durch das Aufzeigen von Ähnlichkeiten und Unterschieden zu anderen Fällen soll die Fachkraft in ihren Beratungsgesprächen unterstützt werden. Um solche Systeme sinnvoll einsetzen zu können, ist es notwendig, dass Fachkräfte Wissen darüber erlangen, wie durch das System generierte Vorschläge zu interpretieren sind. So neigen viele Menschen, die kein umfangreiches Wissen über Statistik besitzen, dazu, die von einem Algorithmus als am wahrscheinlichsten angegebene Lösung als definitiv korrekt anzusehen (Schneider und Seelmeyer 2019). Wird die Nutzung des Entscheidungsunterstützungssystems eingeführt und werden die Grundlagen der Statistik vermittelt, sodass eine reflektierte Anwendung möglich ist, zeigt das Projekt durchaus positive Ergebnisse. Auch das Projekt CASoTex beschäftigt sich mit der Analyse von Beratungsverläufen mittels NLP (Lehmann et al. 2021). Die Fragestellung lautet hier, inwiefern Verfahren des maschinellen Lernens qualitative Analysen unterstützen können. Vor allem die Frage nach Wirkungszusammenhängen im Beratungsprozess steht im Fokus. Dafür wurden Texte aus moderierten Onlineberatungsforen u. a. mittels NLP ausgewertet. Vor allem überwachte Lernverfahren zeigten hier gute Erfolge: Mittels vorklassifizierter Texte als Trainingsdaten war es möglich, fundierte Inhaltsanalysen der Beratungsdokumentationen in großem Umfang durchzuführen. Mit klassischen qualitativen Verfahren hätten diese Analysen sehr große zeitliche Ressourcen in Anspruch genommen (Lehmann et al. 2021).

Diese Projekte zeigen, dass der Einsatz von digitalen Werkzeugen und Verfahren des NLP eine deutlich größere Wissensbasis verfügbar macht, als es qualitative Verfahren leisten können. Aber auch die praktische Arbeit der Beratenden profitiert von der Erweiterung ihres persönlichen Erfahrungsschatzes. Im Sinne der Gratifikation kann somit die schnelle Verfügbarkeit notwendiger Informationen und eine erhöhte Wirksamkeit der eigenen Arbeit aufgeführt werden. Allerdings besteht die Gefahr von Fehlinterpretationen der Ergebnisse, welche die Algorithmen liefern. Es ist essenziell für den Einsatz von Entscheidungsunterstützungssystemen in der Praxis, dass transparent gemacht wird, mit welcher Wahrscheinlichkeit ein Ergebnis passend ist. Die Fachkräfte müssen dazu befähigt werden, diese Wahrscheinlichkeiten zu interpretieren (Schneider und Seelmeyer 2018). Um in der Praxis anwendbare Werkzeuge zu entwickeln und Forschungsarbeiten erfolgreich durchzuführen, ist die Interdisziplinarität der beteiligten Entwickler*innen von großer Bedeutung. Hier wird insbesondere der Mehrwert maschinellen Lernens deutlich: sei es durch a. Rückmeldung auf einen Chatbot (Krüger 2020), ob dieser hilfreich war, b. die Bewertung der angebotenen Entscheidungsunterstützung oder c. Bewertung des angebotenen Kontakts.

2.3 NLP in der Arbeit für und mit älteren Menschen

Der Achte Altersberichts der Bundesregierung zum Thema „Ältere Menschen und Digitalisierung“ (Achte Altersberichtskommission, 2019) kommt zu der Einschätzung, dass Technologien und Digitalisierung den Grundsatz im Sinne des möglichst langen Verbleibens in der eigenen Häuslichkeit unterstützen können. Neben TelemedizinFootnote 5 spielen hier insbesondere intelligente Assistenzsysteme eine wichtige Rolle. Darunter können modulare Systeme verstanden werden, die Funktionen von Sicherheit, Gesundheit und Komfort übernehmen. Solche Systeme sind teils bereits erhältlich, teils in Erprobung und Erforschung. Die Bedeutung von NLP liegt in der Ermöglichung von Sprachassistenz. Sogenannte sprachbasierte Nutzeroberflächen haben gegenüber grafischen Nutzeroberflächen den Vorteil, dass sie mit natürlicher Sprache gesteuert werden können. Sie sind nicht vom Sehvermögen der Nutzenden abhängig, funktionieren ohne motorische Interaktion, und die Nutzung ist aus unterschiedlicher Position im Raum möglich. Forschungsarbeiten zeigen, dass sich die Nutzung von Sprachassistenten durch ältere Menschen von der durch jüngere Menschen unterscheidet (Wolters et al. 2009), z. B. in der Verwendung eines vielfältigeren Vokabulars und längerer Äußerungen. Im Bereich der intelligenten Assistenz wird Sprachassistenz u. a. zur Steuerung von Smarthome-Funktionen, für Erinnerungen (Trink- und Medikamentenerinnerung) und zum Aufbau von Kommunikation (Anrufe zu Angehörigen und Kontakten starten, aber auch Hilferufe weiterleiten) eingesetzt. Außerdem kann die Sprachassistenz selbst als quasisoziale Akteurin in den Fokus rücken und soziale Funktionen übernehmen. Schwierigkeiten können im professionellen Kontext im datenschutz- und arbeitsrechtlichen Bereich auftreten.

Bei der Bewertung des Einsatzes von intelligenter Assistenz sind in Hinblick auf Sprachassistenz neben rechtlichen Fragen also zwei Aspekte zu berücksichtigen: der Einsatz zur reinen Steuerung von Sicherheits- und Gesundheitsfunktionen einerseits und der Beziehungsaspekt andererseits. Die Chance, dass Menschen im Alter länger zuhause sicher und selbstständig leben können, kann mit dem Einsatz von Assistenzsystemen gesteigert werden, wenn ältere Menschen diese durch natürliche Sprache selbst steuern und beherrschen können. Für die Betroffenen und Angehörigen berührt dies Fragen der Autonomie und Lebensqualität sowie der Teilhabe. Die Nutzung von Sprachassistenz als quasisoziale Beziehung könnte Übungseffekte haben, das Selbstbewusstsein stärken und Kontaktaufnahmen erleichtern, insbesondere für stark von Einsamkeit betroffene Menschen. In Bezugnahme auf die Media Equation Theory (Reeves und Nass 1996) ist anzunehmen, dass eine Zuschreibung menschlicher Eigenschaften gegenüber der Persona erfolgt. Dies erleichtert möglicherweise zwar die Nutzung, wirft aber auch ethische Fragen auf, insbesondere bei eingeschränkten kognitiven Fähigkeiten, z. B. bei einer Demenzerkrankung. Gleichzeitig ist die Gefahr von abnehmendem Kontakt zu professionellen Pflegepersonen, Sozialarbeitenden und Angehörigen zu thematisieren, die Problematik der Einsamkeit könnte sich hierdurch wiederum verschärfen. Darüber hinaus handelt es sich bei den benötigten Daten um Informationen aus dem höchstpersönlichen Lebensbereich, es müssen sehr hohe Standards bezüglich des Datenschutzes bei der Anwendung erfüllt werden. Es gilt ferner zu beachten, dass über den Dialogcharakter eigene Daten ggf. freigiebiger preisgegeben werden könnten als etwa bei einer standardisierten Abfrage in einem Formular (Ravichander und Black 2018). Im Sinne der drei Mandate nach Staub-Bernasconi ist die Soziale Arbeit aufgefordert, in ihrer Haltung den Einsatz kritisch zu begleiten. Auch Gefahren der Nutzung im Sinne einer „Ver-Betriebswirtschaftlichung“ (2007), etwa angesichts eines Fachkräftemangels, sind sowohl im ambulanten als auch im stationären Bereich zu beobachten. Wird das Rahmenmodell der Gratifikation von Sundar und Limperos (2013) herangezogen, wird die Breite möglicher Gratifikationen durch den Einsatz von Sprachassistenz deutlich. Auf der ersten Ebene „Gratifikation durch die Modalität des Mediums“ ist die Einfachheit der Nutzung durch den Einsatz natürlicher Sprache und aus verschiedenen Positionen im Raum hervorzuheben. Auf der zweiten Ebene „(Selbst‑)Wirkung“ ist die unmittelbare Reaktion des Sprachassistenten durch sofortige Information oder „Zuwendung“ zu nennen. Auf der dritten Ebene ergibt sich „durch Interaktivität“ die permanente Möglichkeit der Gesprächsführung und Gesprächssteuerung, auf der vierten Ebene „Navigationsmöglichkeiten“ besteht eine hohe Kontrolle über die Eingaben und die Vielfalt der Nutzungsmöglichkeiten.

2.4 NLP in der Kinder- und Jugendhilfe

Der Einsatz von KI in der Kinder- und Jugendhilfe stellt sich neben dem Einsatz von Chatbots in der Beratung bisher sehr übersichtlich dar. Gründe liegen neben ethischen Bedenken darin, dass sich personennahe Dienstleistungen in der Sozialen Arbeit sowohl im Allgemeinen als auch in der Kinder- und Jugendhilfe im Speziellen durch die Interaktion verschiedener Individuen innerhalb komplexer sozialer Prozesse auszeichnen. Im Arbeitsalltag besteht die Herausforderung, schwach strukturierte Arbeitsprozesse, informelle Kommunikationsstrukturen sowie Erfahrungswissen auf zwei Arten zu integrieren:

  1. 1.

    zur Ermöglichung einer bestmöglichen Unterstützung von Klient*innen und

  2. 2.

    zur Ermöglichung von individuellen und organisationalen Arbeits- und Lernprozessen (Fellmann et al. 2020).

Es stellt sich die Frage, inwiefern KI und insbesondere NLP hierbei unterstützen können. Zu nennen sind vor allem zwei Ansatzpunkte, in denen der Einsatz von KI in diesem Arbeitsfeld tiefergehende Überlegungen erfährt. Der eine Bereich umfasst die Gefährdungseinschätzung in der Kinder- und Jugendhilfe. Unter dem Schlagwort Predictive Analytics werden hier vor allem im englischsprachigen Raum erste Erfahrungen gesammelt. Der andere Bereich bezieht sich auf Assistenz zum Erziehungssetting.

Predictive Analytics

Große Aufmerksamkeit haben statistikbasierte Verfahren zur Risikoeinschätzung von zukünftigen Kindeswohlgefährdungen, wie das in mehreren Bundesstaaten in den USA eingesetzte California-Family-Risk-Assessment(CFRA)-Tool, erzeugt. Ein anderes Beispiel ist das prädiktive Risikomodellierungstool Allegheny Family Screening Tool (AFST), das für die Einschätzung von Kindeswohlgefährdung im Allegheny County Department of Human Services in Pennsylvania (USA) zum Einsatz kommt (Allegheny County o.J.). Diese und ähnliche Verfahren sind – mit Blick auf die Frage von Vorhersagbarkeit bzw. Prädiktion aufgrund von Daten – allgemein unter der Überschrift „Predictive Analytics“ zu finden (von der Hude 2020). Predictive Analytics ist ein fortgeschrittenes Verfahren der Analytik, das historische Daten mit statistischer Modellierung, Data-Mining-Techniken und maschinellem Lernen kombiniert und auf Muster hin untersucht, um Vorhersagen über zukünftige Ereignisse zu treffen. Internationale Studien haben gezeigt, dass die auf Statistik basierten Einschätzungen zur Kindeswohlgefährdung sehr genau und sogar klinischen Verfahren überlegen sind (Bastian 2019). Statistik wird in diesen Szenarien als wesentlicher Entscheidungsfaktor identifiziert und kann den Prozess der Urteilsbildung in der Profession der Sozialen Arbeit nachhaltig verändern, denn damit konkurriert die Urteilskompetenz der Fachkräfte mit computergestützten Programmen hinsichtlich ihrer Treffsicherheit (Schneider und Seelmeyer 2018). Solche statistischen Verfahren werden international allerdings höchst umstritten mit dem Einwand diskutiert, dass sie zu einer Deprofessionalisierung der Sozialen Arbeit sowie einer gleichzeitigen Entmündigung ihrer Adressat*innen und der Gefahr falscher Vorverurteilung führen (Schrödter et al. 2020). Wenn es jedoch darum geht, anstelle eines First-come-first-serve-Ansatzes Priorisierungen in die Fallbearbeitung zu integrieren, kann dies durchaus zu einer erhöhten Wirksamkeit der eigenen Arbeit führen, da die Ressourcen besser eingesetzt werden. Die Verantwortung und Entscheidungskraft müssen jedoch bei den Mitarbeitenden bleiben.

Assistenz zum Erziehungssetting

Im Rahmen von Überlegungen zur Assistenz im Erziehungssetting gibt es erste Ansätze, mithilfe von NLP unstrukturierte Daten systematisiert aufzubereiten. Da die Daten nicht über verschiedenen Einrichtungen hinweg gesammelt und zusammengeführt werden, sind hier weniger datenschutzrechtliche Hürden vorzufinden. Erste theoretische Überlegungen zu einer sog. Assistenz im Erziehungssetting finden im Rahmen begleiteter Forschungsprojekte in der Praxis statt.

Als Ziel des Projekts KiJuAssistenz wird angegeben, dass – aufbauend auf Erfahrungen eines digitalen „Pädagogischen Tagebuchs“, digitale Unterstützungswerkzeuge für die pädagogische Arbeit entwickelt werden (Forschungsportal Sachsen-Anhalt o.J.). Bisher vorliegende Ausführungen erscheinen im Sprachduktus sehr betriebswirtschaftlich orientiert. Dennoch ist diese Initiative als eine der bisher wenigen in diesem Bereich zu nennen. Wissenschaftlich belastbare Ergebnisse bleiben abzuwarten.

Im Verbundprojekt SensAssist2Sens sollen Potenziale der Textanalyse durch Softwareentwicklung für die Soziale Arbeit erforscht und angewendet werden. Es wird von einer ähnlichen Problembeschreibung ausgegangen: Bisherige Informationssysteme unterstützen vor allem das Fallmanagement, die Dokumentation und Abrechnung sowie die Personaleinsatzplanung. Nennenswerte Empfehlfunktionen für den Vorschlag geeigneter Aktivitäten, Dokumente oder Ansprechpartner*innen für das pädagogische Unterstützungssetting haben diese Systeme nicht. Für die Mitarbeitenden wäre eine strukturierte Auswertung sehr aufwendig. Darin erkennen die Projektpartner ein Potenzial für die Anwendung von NLP: Eine KI-Anwendung als maßgeschneiderte IT-Unterstützung in der Kinder- und Jugendhilfe könnte die Dokumente systematisch analysieren und Erkenntnisse extrahieren. Diese Erkenntnisse stellen typische Abläufe von Aktivitäten und Ereignissen dar, geben Hinweise und Ansätze auf Vergangenes und ermöglichen Empfehlungen, welche Aktivitäten im Hilfeprozess ggf. verbunden oder welche Personen mit eingebunden werden können (Universität Rostock 2022). Diese Art von Empfehlungen werden in beiden Projekten, KiJuAssistenz und SensAssist2Sens, als „Assistenz“ bezeichnet.

Zur Entwicklung einer KI-gestützten Assistenz im Erziehungssetting schlagen Fellmann et al. (2020) ein fortgeschrittenes Informationssystem vor, eine KI, die auf Grundlage von NLP natürliche Texte auswertet und Empfehlungen ausgibt. Auf Grundlage der wissenschaftlichen Erhebungsmethoden, Workshops, Experteninterviews und Shadowing wurden Kategorien zu Anforderungen an ein solches Informationssystem mit Blick auf personennahe Dienstleistungen in der Kinder- und Jugendhilfe formuliert (Fellmann et al. 2020, S. 833ff.).

3 Diskussion und Ausblick

Mit GPT‑3 besteht die Möglichkeit, Texte zu erzeugen, die sehr nah an der natürlichen Sprache sind. Die Unterstützung in der Analyse von Dokumenten und Social Media kann einen Mehrwert für Fachkräfte und Klient*innen in der Sozialen Arbeit bedeuten. Vor einem potenziellen Einsatz dieser Techniken muss eine Einschätzung des (individuellen) Mehrwerts gegenüber den Risiken des Verfahrens erfolgen. Besonders wichtig ist, dass Transparenz darüber hergestellt wird, wenn Algorithmen zum Einsatz kommen – vor allem, wenn anhand der generierten Texte nicht mehr zu erkennen ist, ob sie von einem Menschen verfasst wurden. Darüber hinaus muss bei der Anwendung berücksichtigt werden, dass ein solcher Algorithmus lediglich eine Reproduktion von bereits vorhandenem Kontext herstellen kann und somit nicht ohne Weiteres zu einer Weiterentwicklung der generierten Inhalte beiträgt. Das zeigt sich z. B. darin, dass stereotype Rollenbilder wiederholt werden (Lucy und Bamman 2021). Ohne interdisziplinäre Teams in der Entwicklung von Werkzeugen, die NLP nutzen, besteht die Gefahr der Reproduktion von Diskriminierung und sogar weiterer Radikalisierung (McGuffie und Newhouse 2020). Ein weiterer Aspekt im Sinne der Transparenz ist die Zugänglichkeit von Daten und der Algorithmen selbst. Einen ersten Schritt in Richtung einer zentralen Datenplattform strebt das BMFSFJ mit dem Civic Data Lab an. Dieses soll als Datenhub Informationen aus öffentlich zugänglichen Quellen vereinen und verfügbar machen. Später sollen auch Schnittstellen und Datenpipelines für Einrichtungen der Zivilgesellschaft und der Sozialen Arbeit aufgebaut werden, um öffentlich nutzbare Daten zusammenzuführen (BMFSFJ 2021). Die Beispiele aus den einzelnen Handlungsfeldern haben gezeigt, dass die Soziale Arbeit von den Entwicklungen im Bereich NLP in allen drei von Staub-Bernasconi postulierten Mandanten tangiert wird, mit z. T. widerstreitenden Interessen. Hier ist die Leitorientierung die Wahrung der Menschenrechte. Im Bereich NLP sind insbesondere das Verbot von Diskriminierung, der Schutz der Freiheitssphäre des Einzelnen und die Meinungs- und Informationsfreiheit zu beachten. Für den Erhalt und die Wahrnehmung professioneller Sozialer Arbeit müssen unseres Erachtens ferner die potenziellen Gratifikationseffekte für Klient*innen eruiert und nachvollzogen werden. Diese können vielfältig und individuell verschieden sein: Von der unmittelbaren Verfügbarkeit von Informationen über einen Wegfall von Angst vor Verurteilung oder Stigmatisierung bis hin zum Gefühl der Autonomie in Bezug darauf, was ein Problem umfasst und die Möglichkeit zum jederzeitigen Abbruch eines Prozesses. Eine umfassende empirische Auseinandersetzung steht noch aus.

Abschließend lässt sich festhalten, dass der Einsatz von Methoden des maschinellen Lernens und speziell des NLP in der Sozialen Arbeit einen Mehrwert bieten kann, wenn die Algorithmen unter Einbezug der Fachkräfte entwickelt werden und sichergestellt wird, dass diese die Ergebnisse korrekt interpretieren können (Schneider und Seelmeyer 2019). Aber auch unter diesen Voraussetzungen können Algorithmen in keinem Fall die persönliche Beratung und Betreuung von Klient*innen ersetzten, sondern nur unterstützen bzw. einen zusätzlichen Kanal bieten. Die Transparenz darüber, dass Systeme eingesetzt werden, muss sowohl für die Klient*innen als auch für die Sozialarbeiter*innen jederzeit gegeben sein. Ebenso wie die Transparenz darüber, wofür und in welcher Form die eigenen Daten genutzt werden. Der Datennutzung und -speicherung muss jederzeit widersprochen werden können. Sind diese Voraussetzungen erfüllt, kann der Zugriff auf eine sehr viel größere Wissensbasis, gerade bei untypischen Fällen, unterstützen.