Ob Big Data, maschinelles Lernen oder voraussagende Analysen – es mag die Annahme geben, dass technische Entwicklungen, die mithilfe von Algorithmen und großen Datenbeständen entstehen, für Arbeitsfelder der Sozialen Arbeit nicht relevant sind. Doch ist diese Annahme vielleicht trügerisch oder gar als naiv zu bezeichnen? Inwieweit stellen sich diese Aspekte konkret für Klient_innen und Sozialarbeiter_innen im Bereich der Arbeitssuche und Transferunterstützung dar?

Digitalisierung der Sozialen Arbeit – mehr als Software zur Falldokumentation

Kontakt mit Klient_innen aufrechterhalten, Fallarbeit dokumentieren oder eigene Angebote in sozialen Medien bewerben – der Einsatz von digitalen Lösungen auch in der Sozialen Arbeit ist nicht mehr weg zu denken, gerade seit der COVID-19-Pandemie. Darüber hinaus finden jedoch auch Entwicklungen statt, die kaum wahrnehmbar sind und über den Einsatz von Fachsoftware oder digitaler Kommunikationsmöglichkeiten hinaus reichen. Als Stichwort sei hier „Big Data Technologie“ genannt. Dabei geht es um die Nutzung enormer digitaler Datenmengen und die automatisierte Generierung von Analysen und Prognosen auf Basis dieser Datenbestände (Schrödter et al. 2018, S. 1). Wie sich diese Entwicklungen konkret auf die Fallarbeit mit Arbeitssuchenden auswirken können, wird mit Blick auf aktuelle technische Lösungen, im Folgenden aufgezeigtFootnote 1.

Daten, Daten, Daten

Um Big-Data-Technologien einsetzen zu können, müssen große Datenmengen vorliegen. Die genutzten Daten können dabei aus unterschiedlichen Quellen stammen und in unterschiedlichen Datenformaten vorliegen (ebd.). Beispiele für Datenquellen im Bereich der Sozialen Arbeit stellen Informationen von Meldeämtern, Fallunterlagen, Informationen über Transferleistungen, aber auch öffentlich zugängliche Aktivitäten sozialer Netzwerke dar.

Ein Vorschlag zur Kategorisierung von Datenquellen, der deutlich aufzeigt, auf welchen unterschiedlichen Ebenen und Bewusstseinsgraden diese Daten erfasst werden, stammt von der OECD (Gapski 2021, S. 81; OECD 2014, S. 5). Unter „provided data“ werden Daten verstanden, die von Personen bewusst abgegeben werden, beispielsweise Inhalte, die in sozialen Medien bereitgestellt werden oder Einwilligungserklärungen beim Abschluss von Verträgen. „Observed data“ beschreibt Informationen, die aus Meta-Daten dieser abgebenden Informationen gewonnen und bei denen das Bewusstsein der Abgabe in Art und Umfang nicht immer gegeben ist. Beispielhaft sind hier Geoinformationen in Bilddateien oder Zeitstempel zu nennen. Mit „derived data“ werden Informationen bezeichnet, die mittels mathematischer Berechnungen aus (bewusst) abgegebenen Daten abgeleitet werden. Ein Beispiel hierfür ist die Analyse des Kaufverhaltens von Websitenutzer_innen um gezielt individuelle Werbeangebote oder Informationen für diese ausliefern zu können. Für Personen völlig unbewusst generiert werden Daten der Kategorie „inferred data“, die mittels selbstlernender Algorithmen erstellt werden und Vorhersagen zu unterschiedlichen Aspekten liefern. Unabhängig von der Herkunft der Daten werden diese in der Regel automatisiert, mittels Algorithmen, ausgewertet.

Algorithmen – neutral und unbestechlich?

Algorithmen bestehen aus einer endlichen Folge von „Berechnungsanweisungen“, die mittels Programmiersprachen konkret beschrieben werden können (Beranek 2021, S. 156). Beranek (ebd.) beschreibt, dass Programme, die durch Algorithmen beschrieben sind, „neutral und unbestechlich“ wirken können, weist jedoch darauf hin, dass auch diese Programme letztendlich Werke von Menschen sind und somit mit subjektiven Einstellungen, Überzeugungen und Maßstäben ausgestattet sind. Diese subjektiven Komponenten müssen dabei nicht bewusst implementiert worden sein (ebd., S. 156 f.). So können Entwickler_innen bereits fertige, technische Komponenten nutzen und nicht immer ist dabei nachvollziehbar, welche Bedingungen und Annahmen bei der Entwicklung dieser Komponenten vorlagen (ebd.). Zudem ist es möglich, auf Basis von Big Data Technologie, Verfahren des maschinellen Lernens einzusetzen (Gapski 2021, S. 83).

Aufgabenstellungen werden hierbei nicht durch vorher definierte Programmabläufe und gezielt gesetzte Anweisungen gelöst (ebd.). Vielmehr nutzen solche Verfahren die weitreichenden Datengrundlagen, um Muster und Gesetzmäßigkeiten selbstständig zu erkennen und Problemlösungen selbst zu generieren („selbstadaptiver Algorithmus“) (ebd., S. 83). Diese Art der Algorithmen in Verbindung mit der individuellen Datenbasis kann z. B. zu Verzerrungen führen, die rassistische und sexistische Stereotype weiter reproduzieren (Schrödter et al. 2018, S. 9). Diese so entstehenden Herausforderungen an die Soziale Arbeit beschreiben auch Schneider und Seelmeyer (2018).

Dieser Beitrag widmet sich konkret möglichen Auswirkungen von automatisierten Entscheidungsverfahren für die Transferleistungsbezieher_innen am Beispiel zentraler Fachsoftware von Arbeitsverwaltungen in Deutschland und Österreich, um daraus resultierende Herausforderungen für Sozialarbeiter_innen zu identifizieren.

Softwarelösung „ALLEGRO“ der Bundesagentur für Arbeit

2014 führte die Bundesagentur für Arbeit [BA] die Software „ALLEGRO“ (ALg II LEistungsverfahren GRundsicherung Online) ein, die das Vorgängersystem „A2LL“ ablöste (BA 2015, S. 43). ALLEGRO wird für die Leistungssachbearbeitung in der Grundsicherung für Arbeitsuchende im Rechtskreis des SGB II eingesetzt und teilweise durch Automatisierung unterstützt. Sachbearbeiter_innen wird hier eine grafische Oberfläche zur Verfügung gestellt, mit der die Berechnung von Leistungsansprüchen, die Bescheiderteilung oder die Meldungen zur Sozialversicherung für Leistungsbezieher_innen ermöglicht wird (Deutscher Bundestag 2018, S. 17). Die Produktbeschreibungen des „IT-Systemhaus“, der Entwicklungsabteilung der BA und aktuelle Ausschreibungsverfahren lassen erkennen, dass auch weiterhin auf ALLEGRO gesetzt und dieses Programm weiterentwickelt werden soll (Beschaffungsamt des BMI 2021; BA 2020, S. 11 ff.).

Die Antworten auf eine Anfrage der Fraktion DIE LINKE aus dem Jahr 2018 geben Einblick in den Stand der Automatisierung von IT-Verfahren innerhalb der BA, insbesondere bezüglich ALLEGRO (Deutscher Bundestag 2018). Automatisiert ist bereits der Datenabgleich nach §52 SGB II. Dieser findet durch ALLEGRO regelmäßig und systematisch statt. Hierbei bezieht ALLEGRO Informationen von Rentenversicherungen ein, mit dem Ziel, Leistungsmissbrauch aufzudecken (ebd., S. 7). Auch die Möglichkeit zur Kommunikation mit weiteren externen Schnittstellen, wie beispielsweise denen der Meldebehörden, ist technisch gegeben. Anfragen an diese Stellen erfolgen hier allerdings nicht automatisiert, sondern werden im Einzelfall von Sachbearbeiter_innen veranlasst (ebd., S. 8).

Der derzeitige Automatisierungsgrad ist also begrenzt. Dies unterstreicht die BA auch, in dem sie den Einsatz von maschinellem Lernen und geplante, weitere Automatisierungsschritte diesbezüglich verneint (ebd., S. 8). Aus der Schnittstellenübersicht und aus dem ALLEGRO-Handbuch (BA 2014, S. 16–17; Deutscher Bundestag 2018, S. 56–91) wird jedoch auch ersichtlich, dass Datenbestände der BA aggregiert in einem Data-Warehouse abgelegt werden, damit diese Daten an einer Stelle erfasst und zugreifbar gemacht werden. Ein Data-Warehouse stellt eine zentrale Datenbasis dar, in der Daten aus unterschiedlichsten Systemen, intern und extern zusammengetragen und aufeinander abgestimmt werden (BA 2014, S. 17). Dies erlaubt einen einheitlichen und schnellen Zugriff darauf (ebd.). Diese Sammlung und Aggregierung der Daten lässt vermuten, dass die grundlegenden Voraussetzungen bereits geschaffen sind, um auch selbstlernende Elemente in der Software zu integrieren und Ergebnisse von bereits existierenden Ergebnisdaten abhängig zu machen. Zusammenfassend kommt AlgorithmWatch (2020) zu dem Fazit, dass ALLEGRO nur begrenzt automatisiert, überwiegend transparent ist und kaum Risiken der Diskriminierung beinhaltet.

Arbeitsmarktchancen-Assistenzsystem – der Versuch einer Einführung in Österreich

Diskriminierungsrisiken stellen sich bei der bei der Softwarelösung „Arbeitsmarktchancen-Assistenzsystem“ [AMAS] des Arbeitsmarktservice und deren versuchter Einführung in Österreich anders dar. Der Arbeitsmarktservice kündigte 2019 die Einführung dieser automatisierten Lösung für die Arbeit mit Arbeitssuchenden an und stellte in diesem Zuge die Relevanz der Sichtbarmachung von Diskriminierung auf dem Arbeitsmarkt dar (BMSGPK 2019).

AlgorithmWatch (2019) beschreibt, dass auf Grundlage verschiedener Eigenschaften Arbeitssuchenden hier unterschiedliche Scores zugeschrieben werden sollen. Aufgrund dieser Zuschreibungen würden Arbeitssuchende hinsichtlich ihrer Eingliederungschancen gruppiert, wovon abhängig ist, welche Hilfen durch den Arbeitsmarktservice gewährt werden. Die Gestaltung der Gruppierungen baut auf Modellen auf, die wissenschaftliche Erkenntnisse hinsichtlich von zur Arbeitsmarktintegration relevanten (Personen‑)Faktoren beinhalten. Auf Basis dieser Modelle sollen individuelle Integrationschancen von Arbeitsuchenden vorab bestimmt werden können (ebd.). Catherine Bernard, Spezialistin für Diskriminierungsrecht, kritisierte die Software mit Blick auf immanente Diskriminierungsmechanismen und stellt heraus, dass das AMAS auf Grundlage von EU-Rechtsprechungen nicht zu rechtfertigen sei (ebd.). Doch wenn empirisch gestützte Erkenntnisse genutzt wurden, um Integrationschancen abzubilden, wie kam es zu der Diskriminierung?

Veröffentlichte Auszüge aus der Dokumentation des Arbeitsmarktchancen-Assistenzsystems zeigen die Gewichtung verschiedener Kriterien auf und aus diesen wird eine Diskriminierung von Personengruppen deutlich erkennbar (AlgorithmWatch, 2019). Allein das soziodemografische Merkmal „weiblich“ schlägt sich negativ in der Eingruppierung nieder. Aber auch Frauen mit Kindern, Menschen mit Behinderung oder Menschen über 30 Jahren erhalten automatisiert deutlich negativere Gewichtungen (ebd.). AlgorithmWatch (ebd.) weist zudem auf die fehlende Transparenz des AMAS hin. Nur zwei von 96 statistischen Modellen wurden veröffentlicht. Expert_innen stellten zusammenfassend dar, dass der Algorithmus die strukturellen Ungerechtigkeiten und Vorurteile des bestehenden österreichischen Stellenmarktes in großem Umfang abbilde und damit eben auch für die Zukunft reproduziere (ebd.).

Auf Kritiken diesbezüglich reagierte der Arbeitsmarktservice mit der Aussage, dass der Algorithmus mit allen Antidiskriminierungsvorschriften vereinbar sei und rechtfertigte die Legitimität damit, dass der Arbeitsmarktservice die Hälfte seiner Ressourcen für die Unterstützung von Frauen aufwenden muss und diese in der Gruppe C (Gruppe mit den wenigstens Hilfen durch den Arbeitsmarktservice) unterrepräsentiert seien (ebd.).

Der Einsatz des Arbeitsmarktchancen-Assistenzsystem wurde im Sommer 2020 mit Verweis auf die Datenschutzgrundverordnung durch die Datenschutzbehörde zunächst untersagt (netzpolitik.org e. V. 2021). Diese Entscheidung wurde im Dezember 2020 durch das Bundesverwaltungsgericht wieder aufgehoben (ebd.). Wie aus der Antwort des Bundesministeriums für Arbeit auf eine parlamentarische Anfrage im August 2021 hervorgeht, ist es durch ein anhängiges Verfahren beim Verwaltungsgerichtshof jedoch noch unklar, ob und wann das AMAS zum Einsatz kommt (Bundesministerium für Arbeit 2021, S. 6).

Das Ergebnis dieser Verhandlung ist mit Spannung zu erwarten, da dies ein Indiz für die grundsätzliche Möglichkeit der Einführung solcher Systeme auch in Deutschland sein kann. Durch die EU-Datenschutz-Grundverordnung stellt sich der rechtliche Rahmen vergleichbar dar.

Schlussfolgerungen für die Soziale Arbeit

Ob auch die BA, bei entsprechender Gesetzesanpassung und erfolgreicher Rechtsauslegung in Österreich, Softwarelösungen wie das Arbeitsmarktchancen-Assistenzsystem implementieren würde, ist derzeit offen. Entscheidend ist jedoch, die künftigen Entwicklungen in diesem Bereich aufmerksam zu verfolgen und ggf. zu reagieren.

Sozialarbeiter_innen sollten sich also damit auseinandersetzen, dass der Einsatz automatisierter Prognoseverfahren für Klient_innen bei der Arbeitssuche deren Stigmatisierung festigen kann. Sei es bei der Eingruppierung Arbeitssuchender nach vermeintlichen Integrationschancen in den Arbeitsmarkt oder bei der automatischen Bearbeitung von Transferleistungsansprüchen und der Betrugserkennung. Eine Herausforderung wird das Aufklären und Entgegenwirken bezüglich dieser neuen Stigmatisierung von Klient_innen sein, die bereits in der aktuellen Arbeitsvermittlung von Verdachten und Kontrollen betroffen sind (siehe z. B. mit Blick auf die Rolle der Eingliederungsvereinbarung im Beratungsprozess Freier 2021).

Sind Sozialarbeiter_innen in der konkreten Fallarbeit mit Arbeitssuchenden tätig, kommt ergänzend der Aspekt hinzu, die technischen Prognosen mit der eigenen Kompetenz abwägen zu müssen. Wie sich deutlich zeigt, (re)produziert beispielsweise das Arbeitsmarktchancen-Assistenzsystem auf Basis intransparenter Algorithmen und der Verwendung bestehender Daten Ergebnisse, deren zukünftige Aussagekraft ungewiss ist und Diskriminierungsmechanismen befördern können. Dies zeigt sich beispielsweise dadurch, dass Mitarbeitenden im Arbeitsmarkservice für weibliche Arbeitssuchende, durch deren schlechterer Eingruppierung vom AMAS, weniger Hilfen vorgeschlagen werden könnten. In Anbetracht dessen kann auch dieser Arbeitsbereich stark geprägt durch Unsicherheit in Bezug auf korrekte Entscheidungen für oder gegen etwaige Maßnahmen und Angebote für Klient_innen sein. Sozialarbeiter_innen sollten daher wachsam sein, einer unhinterfragten „algorithmischen Autorität“ nicht einfach zu erliegen.

Erste Schritte einer Auseinandersetzung

Die Möglichkeit einer ersten Auseinandersetzung mit dieser Thematik kann die Beschäftigung mit Veröffentlichungen von AlgorithmWatch darstellen. Die gemeinnützige Organisation hat sich zum Auftrag gemacht, Prozesse algorithmischer Entscheidungsfindung zu beobachten und zu erläutern, die gesellschaftlichen Auswirkungen dieser darzustellen und Entwicklungen aktiv mitzugestalten (AlgorithmWatch o.J.). Auch netzpolitik.org e. V. stellt sich diesem Thema, informiert über aktuelle Entwicklungen in diesem Bereich und engagiert sich für digitale Freiheitsrechte und ihre politische Umsetzung (netzpolitik.org e. V. o.J.).

Zusammenfassend wird deutlich, dass es unerlässlich ist, die Herausforderungen und Problemstellungen durch die Daten- und Algorithmen-getriebenen Entwicklungen zu reflektieren, um sich so als Vertreter_innen der Sozialen Arbeit an gesellschaftspolitischen Diskussionen und Entwicklungsprozessen diesbezüglich aktiv beteiligen zu können.