1 Zehn Jahre Soziale Passagen – Eine empirisch-explorative Standortsuche

Wissenschaftliche Diskurse finden nach wie vor in Fachzeitschriften ihren NiederschlagFootnote 1. Wenn auch in Zeiten der Digitalisierung andere Formate an Bedeutung gewinnen und dabei aktuelle Themen womöglich schneller aufgegriffen werden können – so zum Beispiel über Webblogs wie dem der Deutschen Gesellschaft für Soziologie (DGS) Footnote 2oder über das Nachrichtenportal SoziopolisFootnote 3 – gelten fachwissenschaftliche Zeitschriften als bedeutsame Instanzen der Qualitätssicherung, der Profilbildung für bestimmte Traditionslinien und Deutungsweisen sowie der Verbreitungsmöglichkeit eigener Forschungen innerhalb einer und angrenzender Scientific Communities. Sowohl Fachgesellschaften als auch die zentralen Onlinedatenbanken und Suchportale der Erziehungswissenschaft weisen die Möglichkeit aus, nach Fachzeitschriften zu suchen oder unterbreiten eine Auflistung der verfügbaren, fachbezogenen Journale. So schlägt beispielsweise die Deutsche Gesellschaft für Erziehungswissenschaft (DGfE) mit Unterstützung des Deutschen Bildungsservers eine Liste von 114 Zeitschriften vorFootnote 4. Die Deutsche Gesellschaft für Soziale Arbeit (DGSA) stellt eine Tabelle mit 178 Fachzeitschriften zur VerfügungFootnote 5. Das auf Open Access spezialisierte Fachportal PädagogikFootnote 6 findet insgesamt 136 Journale. Demgegenüber etwas zurückhaltender listet der Deutsche Bildungsserver in der Rubrik „Zeitschriften zur Sozialen Arbeit/Sozialpädagogik“ 36 verschiedene Medien aufFootnote 7.

Die wachsende Anzahl an Zeitschriften spiegelt einen internationalen Trend in der Sozialen Arbeit wider (Perron et al. 2016). Die Neugründung von Fachzeitschriften in den letzten Jahren, in die auch die erste Ausgabe der Sozialen Passagen fällt, kann als Ausdruck gesehen werden, diesem steigenden Bedarf entgegenzukommen (Ricken 2009). Eine steigende Vielfalt fördert den Bedarf nach Orientierungspunkten im Hinblick auf die inhaltlichen Schwerpunktsetzungen. Systematisierungsversuche der wachsenden Zeitschriftenlandschaft lassen erahnen, dass sich Heterogenität, Pluralität und eine gewisse Unübersichtlichkeit der Diskussionslinien in ihren wechselseitigen Bezugnahmen auch in der Zeitschriftenlandschaft der Sozialen Arbeit widerspiegeln. So findet sich beispielsweise in der 36 Medien führenden Auflistung des Bildungsservers die ein für die Soziale Arbeit kleineres Gebiet betreffende Zeitschrift für Gerontologie und Geriatrie, welche aber wiederum in der mit 178 Einträgen deutlich umfassenderen Tabelle der DGSA nicht berücksichtigt wird.

Eine übliche Orientierung in diesem kaum zu überblickenden ‚Dickicht‘ ist die der theoretischen oder praktischen Ausrichtung eines Mediums. Mit den Hinweisen von Werner Thole (2012) kann diese Unterscheidung etwas ausdifferenziert werden. Das gesamte Feld der ‚Praxis‘ umfasse demnach „die Realität der hier beruflich engagierten Personen sowie die von ihnen offerierten Hilfe-, Beratungs- und Bildungsleistungen“ (Thole 2012, S. 21), die darauf zielen, auf das Handeln und Verhalten von Adressat*innen(-gruppen) in spezifischen Kontexten einzuwirken. Das gesamte Feld der ‚Theorie‘ verweise darauf, dass sich in ihm Forschungs- und Theoriebildungsprozesse realisieren, wobei „über Forschung, Reflexion und Produktion von Theorien Welt- und Gesellschaftsbilder zu kreieren und zu beeinflussen“ im Mittelpunkt stehe (Thole 2012, S. 21). Mit dieser Sichtweise des aktiven Prozessierens sozialpädagogischer Theoriebildung wird auch die Disziplin zu einem Handlungsfeld der Sozialen Arbeit. Diesen Überlegungen folgend sind für Zeitschriften verschiedene Zielgruppen in verschiedenen Handlungsfeldern mit je eigenen Interessensperspektiven, mit denen Inhalte betrachtet werden, folglich auch interdisziplinäre Sichtweisen in verschiedener Weise, bedeutsam.

Die Sozialen Passagen. Journal für Empirie und Theorie Sozialer Arbeit verstehen sich laut ihrer Selbstbeschreibung in diesem Kontext als ein „wissenschaftlicher Publikationsort“Footnote 8, in dem „interne Fachdiskurse“ geführt und aktuelle Forschungsbefunde präsentiert werden können. Dahingehend gibt es Bemühungen, den wissenschaftlichen Dialog als Praxis der Sozialen Arbeit zu begreifen. Inhaltlich finden sich in dem zweimal jährlich erscheinenden Journal ein zusammenhängender Thementeil sowie ein Forum für einzelne Beiträge. Im Zuge der primären Adressierung von Wissenschaftler*innen als Autor*innen ist ein Peer-Review Verfahren eingerichtet. Die Sozialen Passagen haben im letzten Jahr ihr zehnjähriges Bestehen gefeiert. Dies wird hier als Anlass genommen, einen explorativ-empirischen Rückblick zu wagen: Anhand des skizzierten Profils soll hier im Folgenden nachverfolgt werden, welche Themen in den letzten zehn Jahren im Journal diskutiert wurden. Auch soll es darum gehen, wie häufig bestimmte Themen in welchen Zusammenhängen publiziert wurden.

Ausgangspunkt stellt die Sammlung, Aufbereitung und Analyse bibliometrischer Daten der Sozialen Passagen dar, wozu Methoden aus der Szientometrie zum Einsatz gebracht werden. In der Szientometrie werden Vorgehensweisen zur Erfassung und Bündelung von Inhalten in großen Daten-/Textmengen disziplinärer Fachdiskurse (weiter-)entwickelt. Der Kritik an dieser quantitativen Untersuchungsform, dass sie kaum Aussagen über die Qualität – also der Inhalte – erlauben würde, wird hier auf zweierlei Ebenen begegnet: Zunächst wird im Anschluss an eine knappe, disziplinär-methodische Einordnung (Abschn. 2) das Design und die Topic Modeling Methode Latent Dirichlet Allocation (LDA) beschrieben (Abschn. 3). In der deutschsprachigen Sozialen Arbeit gibt es bisher kaum Vorbilder solcher Studien, sodass der Innovationsgehalt sichtbar und vor allem nachvollziehbar gemacht werden soll. Dies ist der erste Schwerpunkt des Beitrages. Der zweite Schwerpunkt umfasst die Präsentation und Diskussion der Ergebnisse. Sie stellen Wortlisten dar, die als eigenständige Themenfelder interpretiert werden können (Abschn. 4). Mit der Auswahl von sechs Topics werden vertiefend „Kindheit und Kinderschutz“, „Jugendhilfe und Inklusion“, „Empirische Studien“, „Evaluationsstudien“, „Profession und Feldtheorie“ sowie „Soziale Arbeit und Systemtheorie“ exemplarisch vorgestellt und näher betrachtet. Danach ist es schließlich möglich, neben der inhaltlichen Diskussion der Erkenntnisse und einer weiteren Gruppierung der Themen unter Bezugnahme der Netzwerkanalyse eine kritische Reflexion der Limitationen des Designs vorzunehmen, um zudem auf Entwicklungspotentiale verweisen zu können (Abschn. 5).

2 Szientometrische Forschung in der Sozialen Arbeit

Szientometrie kann als wissenschaftliche Disziplin verstanden werden, die sich mit der Erforschung von Wissenschaft, sowie Politik und Kommunikation in der Wissenschaft beschäftigt und dabei auf quantitative Forschungsmethoden zurückgreift (Leydesdorff und Milojevic 2015). Mit Beginn der standardisierten Speicherung bibliometrischer Daten und der Entwicklung von Indexsystemen in den 1960er und 1970er Jahren konnte sich sukzessive ein Forschungszweig herausbilden, der sich zunächst auf die Analyse von Publikationsaktivitäten und Zitationen konzentrierte. Auch wenn bibliometrische Daten für sich genommen keine Aussage über die Qualität wissenschaftlicher Aktivitäten erlauben, wurden verschiedene Systematiken entwickelt, die als Indikatoren für ‚wissenschaftliche Performance‘ und die Evaluation von einzelnen Wissenschaftler*innen, Zeitschriften oder Forschungseinrichtungen herangezogen wurden (z. B. Journal Impact Factor, h-Index). Auch wenn die Aussagekraft dieser Berechnungen in der Sozialen Arbeit immer wieder kritisiert wird, werden sie als Evaluationskriterium z. B. für Entscheidungen in wissenschaftlichen Laufbahnen herangezogen (vgl. Blyth et al. 2010).

Bibliometrische Daten und Zitationskennzahlen werden auch für szientometrische Forschungsprojekte in der Sozialen Arbeit genutzt (für einen Überblick: Holden et al. 2005). Die häufigste Anwendung findet diese Art von Forschung zur Evaluation wissenschaftlicher Aktivitäten auf individueller Ebene. So werden beispielsweise einfache Zitationshäufigkeiten einzelner Publikationen herangezogen, um Rückschlüsse auf den Einfluss dieser Publikationen auf die Fachdiskurse ziehen zu können (z. B. Martínez et al. 2015b; Ho 2014; Hodge et al. 2012; kritisch dazu: Slater et al. 2012). Auf der Ebene der individuellen Wissenschaftler*innen wird meist der h-Index herangezogen (Hirsch 2005), um die Zitationen mit der Anzahl aller Publikationen und deren Zitationen in Bezug zu setzen (Lacasse et al. 2011). Ein aktuelles Beispiel aus der Sozialen Arbeit ist die Studie von Bruce Thyer und Kolleg*innen (2019), die auf Basis des h-Index ein Ranking von Wissenschaftler*innen der Sozialen Arbeit in den USA erstellen. Der h-Index wird auch genutzt, um Zitierhäufigkeiten von Doktorand*innenprogrammen (Smith et al. 2018), Fakultäten der Sozialen Arbeit (Ligon et al. 1995), oder die Soziale Arbeit mit anderen Disziplinen (Barner et al. 2014) zu vergleichen. Zitationen werden zudem herangezogen, um sie mit anderen Merkmalen von Artikeln oder Wissenschaftler*innen in Bezug zu setzen und damit komplexere Fragestellungen zu beantworten, wie beispielsweise der Frage nach dem Zusammenhang zwischen ‚wissenschaftlichen Einfluss‘ („academic impact“) und Gender (Sheppard 2017) sowie beruflicher Position in der Wissenschaft (Carter et al. 2017; Holosko et al. 2016).

Neben Zitationen werden auch andere bibliometrische Daten genutzt, um die Wissenschaft der Sozialen Arbeit zu erforschen. So finden Daten über Ko-Autor*innenschaften Verwendung, um Aussagen über Kooperationsstrukturen in der Sozialen Arbeit treffen zu können (Eckl 2017; Eckl et al. 2019) oder den Zusammenhang zwischen Ko-Autor*innenschaften und anderen Merkmalen wie der Qualität der Publikationen zu überprüfen (Victor et al. 2017). Ko-Zitationen können dazu dienen, Prozesse der Wissensdiffusion in wissenschaftlichen Disziplinen zu untersuchen (Ghanem et al. 2017).

Über die bloße Betrachtung von Kennzahlen wie den h-Index hinaus nutzen einige der oben genannten Studien methodologische Zugänge, die Wissenschaft als soziales Unterfangen verstehen und durch netzwerkanalytische Methoden (Ko-)Zitationen oder (Ko-)Autor*innenschaften als relationale Phänomene zu greifen versuchen (Eckl et al. 2019; Ghanem et al. 2017). Dieser Zugang findet sich auch bei dem aktuellen Trend wieder, durch szientometrische Studien nicht nur Strukturen, sondern auch Inhalte der Fachdiskurse abzubilden. Die einfachste Form der Analyse von thematischen Entwicklungen in der Disziplin stellen Studien auf Grundlage von Schlagworten dar, so z. B. in der Studie von Dean Belkin Martínez und Kolleg*innen (2015a), in der das Auftreten von Schlagwörtern gemeinsam mit anderen Schlagwörtern (co-word analysis) seit 1930 untersucht und die diese thematischen Entwicklungen anhand von netzwerkanalytischen Methoden abbilden möchte. Kritisch zu hinterfragen ist, ob Schlagworte den Inhalt ganzer Publikationen repräsentieren können und geeignet sind, inhaltliche Fachdiskussionen valide abzubilden. Aufgrund dieser methodologischen Schwächen ist davon auszugehen, dass szientometrische Studien in der Sozialen Arbeit in der Zukunft zunehmend die rasante Entwicklung automatisierter Analysemethoden nutzen werden, um große Textmengen zu untersuchen. Bisher gibt es hier lediglich vereinzelte Versuche, derartige Methoden im Rahmen szientometrischer Forschung anzuwenden. So nutzen Markus Eckl und Christian Ghanem (2020) das ‚Topic Modeling‘ (siehe Abschn. 3), um die Abstracts zu analysieren und die thematischen Auseinandersetzungen in den Fachzeitschriften der Sozialen Arbeit der letzten 30 Jahre abzubilden. Da nicht nur die Publikationstätigkeiten in der Sozialen Arbeit ansteigen (Perron et al. 2016), sondern sich auch die Möglichkeiten der Datenspeicherung und -analyse stetig weiterentwickeln, stellt ‚Topic Modeling‘ einen geeigneten Ansatz dar, um diese großen Datenmengen analysierbar zu machen.

3 Methode

In den letzten Jahren wurde das Topic Modeling als Methode für die quantitative Analyse von Texten vor allem in den Digital Humanities in vielen Studien angewandt (McFarland et al. 2013). Unter Topic Modeling werden zumeist Methoden verstanden, die auch als ‚Generative Models‘ bezeichnet werden, da sie unter Zuhilfenahme von probabilistischen Verfahren die Konstruktion eines Textes nachbilden. Ziel solcher Methoden ist, latente semantische Strukturen in den Texten zu ermitteln und dadurch Themen zu extrahieren. Sie eignen sich vor allem für die Analyse sehr großer Textkorpora, deren Inhalte bisweilen nur wenig bekannt oder deren Daten durch Unstrukturiertheit und fehlende Metadaten gekennzeichnet sind.

3.1 Die Latent Dirichlet Allocation (LDA)

Die LDA zeichnet sich dadurch aus, dass Forschende Themen nicht subjektiv vorgeben, z. B. in Form von Schlüsselwörtern, deren Häufigkeit in einem Text ermittelt werden. Bei der LDA können Themen auf Grundlage von gemeinsam auftretenden Wörtern in den Dokumenten mithilfe eines komplexen probabilistischen Modells gefunden werden. Im Sinne des Ziels dieses Artikels, diese Methode einem größeren Publikum zugänglich zu machen, wird auf die Darlegung der mathematischen Grundannahmen verzichtet. Im Folgenden soll die Funktionsweise des Algorithmus, die Anwendung der Methode sowie Evaluation und Reflexion des Modells thematisiert werden.

Die Ausgangslage der LDA ist die Bestimmung zweier Wahrscheinlichkeitsverteilungen. Die erste gibt Auskunft darüber, wie wahrscheinlich es ist, ob in den einzelnen Texten (im Weiteren: Dokumenten) bestimmte Themen bzw. Topics enthalten sind. Zwei Dokumente werden dabei als ähnlich bestimmt, wenn gleiche Wörter in beiden Dokumenten enthalten sind. Bei jedem neu hinzukommenden Dokument wird überprüft, mit welchem Dokument es hinsichtlich der Wörter stärker oder schwächer übereinstimmt. Die zweite Wahrscheinlichkeitsverteilung gibt Auskunft darüber, wie wahrscheinlich es ist, dass ein Topic aus bestimmten Wörtern besteht. Die Grundannahme, die hinter diesen zwei Wahrscheinlichkeitsverteilungen steht, geht davon aus, dass ein Dokument nur eine begrenzte Anzahl an Topics besitzt und dass jedes Topic wiederum nur durch bestimmte Wörter aus den Dokumenten repräsentiert werden kann. Beispielsweise können die Wörter „Thiersch“, „Adressat“, „Lebenswelt“, „Praxis“ und „Orientierung“ für das Topic „Lebensweltorientierung“ durch das Modell zusammengestellt werden; diese Wörter hätten eine hohe Gewichtung.

Für die LDA hat das gemeinsame Auftreten von Wörtern, auch Kookkurrenz genannt, eine große Bedeutung. Hierbei wird zwischen einer schwachen und einer starken Kookkurrenz unterschieden, was jeweils Auswirkungen auf die menschliche Interpretierbarkeit der Topics hat. Von einer schwachen Kookkurrenz spricht man, wenn ein Wort in vielen unterschiedlichen Dokumenten mit einer hohen Zahl an unterschiedlichen Wörtern auftritt. In einem solchen Fall sinkt die Wahrscheinlichkeit, dass dieses Wort ein Topic gut repräsentieren kann. Beispielsweise könnte das Wort „Einleitung“ hier genannt werden, da dieses Wort gerne als Überschrift in vielen unterschiedlichen Artikeln vorkommt. Eine starke Kookkurrenz ist gegeben, wenn ein Wort häufig mit immer den gleichen Wörtern gemeinsam auftritt. Dabei erhöht sich die Wahrscheinlichkeit, dass das Wort ein bestimmtes Topic repräsentiert. So können zum Beispiel die Wörter „Bourdieu“ und „Feld“ in einem gemeinsamen Topic höher gewichtet werden und dadurch ist eine sinnhafte Interpretation des Topics möglich.

Einen großen Einfluss auf die Interpretierbarkeit der Topics besitzt die im Modell zu bestimmende Anzahl der Topics. Denn diese werden nicht automatisch ermittelt, sondern müssen von den Forscher*innen selbst bestimmt werden. Werden zu wenige Topics bestimmt, kann es sein, dass wichtige Themen nicht ermittelt werden, oder dass in einem Topic unterschiedliche Themen zusammengefasst werden. Wird eine zu hohe Anzahl an Topics bestimmt, geht dies ebenfalls auf Kosten der Interpretierbarkeit der Topics, da ansonsten zu viele unterschiedliche Wörter zusammengefasst werden, sprich, hier fließt eine schwache Kookkurrenz zu stark in das Modell mit ein. In der Literatur werden unterschiedliche Evaluationsmethoden diskutiert, wobei das Kohärenzmaß von David Mimno und Kolleg*innen (2011) für die Ermittlung der Topicanzahl häufiger herangezogen wird. David Mimno und Kolleg*innen (2011) betonen in ihrem Algorithmus die Anzahl und Gewichtung von Kookkurrenzen der Wörter in den Dokumenten der Topics. Aber auch hier gilt zu beachten, dass ein besonders hohes Kohärenzmaß nicht gleichbedeutend mit einem menschlichen, gut interpretierbaren Modell ist. Daher ist es unerlässlich, unterschiedliche Modelle zu berechnen und miteinander zu vergleichen, sowie stichprobenartig die Dokumente selbst qualitativ zu sichten. In dieser Studie wurde das Kohärenzmaß von David Mimno und Kolleg*innen (2011) verwendet. Dabei wurden vier Modelle mit einer unterschiedlichen Anzahl an Topics berechnet (20, 40, 60 und 80 Topics). Es stellte sich dabei heraus, dass das Modell mit dem höchsten Kohärenzmaß das Modell mit 20 Topics war. Nach dem Vergleich von mehreren Modellen wurde das Modell mit den 20 Topics für die Ergebnisdarstellung gewählt, da dabei die Ergebnisse am vielversprechendsten waren und eine Interpretation der Topics am besten gelang.

In der hier vorliegenden Arbeit wurde mit einer Weiterentwicklung der LDA gearbeitet, nämlich mit dem ‚Structual Topic Modeling‘ (STM)-Package aus der Statistiksoftware R (Roberts et al. 2019). Das STM erlaubt, Kovariablen in das LDA Modell zu integrieren. Die Häufigkeit des Auftretens des Topics in den Dokumenten wird in Abhängigkeit zu anderen Merkmalen gesetzt. Für eine bessere menschliche Interpretation der Topics bietet das Package unterschiedlich gewichtete Wortlisten der einzelnen Topics an. Für die hier vorliegende Studie wurden zwei Gewichte herangezogen. Das erste Gewicht – das ‚Highest Probability‘ – wird direkt aus dem Verteilungsparameter abgeleitet und zeigt die Wörter, die innerhalb eines Themas die höchste Wahrscheinlichkeit besitzen, das Thema repräsentieren zu können. Die zweite Gewichtung mit dem Namen FREX basiert ursprünglich auf Jonathan M. Bischof und Edoardo M. Airoldi (2012) und betont die Häufigkeit des Auftretens eines Wortes in einem Topic, als auch die Exklusivität der Wörter in einem Topic. Exklusive Wörter sind Wörter, die dabei helfen, Topics zu unterscheiden, wodurch Wörter betont werden, die sehr spezifisch für einen Topic sind. Worthäufigkeit und Exklusivität sind beide von Bedeutung, da sie die Interpretation eines Topics erleichtern können. Sehr häufig auftretende Wörter sind oftmals nur wenig aussagekräftig und auch sehr exklusive Wörter können Wörter sein, die sehr selten auftreten und das Topic kaum beschreiben können. Besteht die Möglichkeit, unterschiedliche Gewichtungen zu vergleichen, so wird die Interpretation der Topics einfacher.

Um den Einfluss des Erscheinungsjahres auf die Auftrittswahrscheinlichkeit eines Topics in einem Dokument untersuchen zu können, wird das Erscheinungsjahr der jeweiligen Artikel herangezogen. Dabei wird eine Regression gerechnet, in der die Auftrittswahrscheinlichkeit eines Topics in einem Dokument die abhängige Variable ist, während die unabhängige Variable das Erscheinungsjahr des Artikels darstellt.

Für eine bessere Interpretation des Modells und für ein besseres Verständnis hinsichtlich der Topics und deren Beziehung zueinander, stellt das STM-Package die Berechnung eines Korrelationsgraphen zur VerfügungFootnote 9. In diesem Zusammenhang bedeutet Korrelation die Wahrscheinlichkeit, dass zwei Themen innerhalb eines Dokuments gemeinsam auftreten. Die Knoten dieses Netzwerks repräsentieren dabei die einzelnen Topics und eine Verbindung zwischen zwei Knoten bedeutet eine positive Korrelation, die einen zuvor – von Menschen definierten Schwellwert – übersteigt. Darüber hinaus sollen die Knoten mithilfe des Modularity-Algorithmus geclustert werden (Clauset et al. 2004). Mithilfe dieser Clusterung werden stärker miteinander korrelierte Themen gruppiert.

3.2 Ablaufplan Text Mining

Um die dargelegte Methode anwenden zu können braucht es zunächst eine bestimmte Datenstruktur, sprich, der Text muss für den Computer lesbar und analysierbar sein. Hierfür kommen unterschiedliche Methoden zum Einsatz, die im Folgenden kurz erklärt werden sollen. Abb. 1 zeigt den Ablaufplan des sog. Text Minings, in dem die wichtigsten Schritte dargestellt werden (Feinerer et al. 2008).

Abb. 1
figure 1

Ablaufplan Text Mining. (Nach Feinerer et al. 2008)

3.3 Corpuserstellung

Die Sozialen Passagen umfassen vielfältige Rubriken, so z. B. wiederkehrend ein durch Herausgeber*innen verfasstes Editorial, aber auch „Zwischenrufe“ oder die Kategorie „Nachgefragt/Wiederentdeckt“. In jeder Ausgabe finden sich mind. drei Rubriken, deren Qualität durch ein double-blind Peer-Review gesichert wirdFootnote 10: ein Thementeil („Blickpunkt“), ein „Forum“ für einzelne freie Beiträge sowie Kurzberichte aus laufenden Forschungsprojekten („Forschungsnotizen“). Genau diese in ihrer wissenschaftlichen Güte abgesicherten Rubriken sollen im Folgenden untersucht werden. Da die Forschungsnotizen vornehmlich der aktuellen Information dienen, aus diesen Forschungen selbst später eigene inhaltliche Beiträge zu verschiedenen Themenstellungen zu erwarten sein können, ist dieser Bereich aus der Analyse ausgeschlossen worden. Für die Korpuserstellung wurden die Artikel der Ausgaben von 2009 bis 2019 herangezogen.

Dafür wurden im Dezember 2018 und Januar 2019 alle Artikel dieser Rubriken über den Online-Zugang als pdf-Dateien heruntergeladen. Die Benennung der Dateien in einem einheitlichen Schema ist nicht nur wichtig zur Sicherstellung der Zuordnung der Dokumente. Die Ausweisung mit Metadaten, wie etwa den Nachnamen der Autor*innen und das Erscheinungsjahr des Artikels, sind für die Analyse selbst von Bedeutung. Insbesondere das Erscheinungsjahr stellt eine wichtige Information dar. Nach einer Konvertierung in Open Office Textdokumente (über das Programm gImage Reader) konnten zunächst alle Tabellen und Grafiken gelöscht werden, die für das Topic Modeling nicht analysierbar sind. Sämtliche andere Zeichen wurden im Text belassen, so z. B. Seitenzahlen und Literaturangaben. Sie wurden zu einem späteren Zeitpunkt automatisiert entfernt.

Für die Analyse der Texte wurde nicht der gesamte Artikel als Untersuchungseinheit herangezogen, sondern er wurde anhand seiner eigenen Binnenstruktur, sprich seiner Absätze, zerteilt. Grund hierfür ist, dass die LDA auf Grundlage von kürzeren Sequenzen bessere Ergebnisse liefert. Ähnlich zum Prozess diverser Formen qualitativer Textanalysen erscheint es sinnvoll, den Text in Segmente zu gliedern (Przyborski und Wohlrab-Sahr 2014; Bock und Miethe 2010). Insgesamt wurden dadurch nach einer Bereinigung der Sequenzen aus den 255 Artikeln 8995 zu analysierende Texteinheiten.

3.4 Textaufbereitung

Nachdem das Corpus erstellt wurde, ist der Text für den Computer analysierbar. Hierzu müssen zunächst alle Dokumente in ein Programm geladen werden. In der hier durchgeführten Untersuchung wurde die Programmiersprache R verwendet.

Der zweite Schritt ist das ‚Tokenizing‘. Darunter versteht man einen automatisierten Prozess, in dem der Text in untersuchbare Einheiten zerlegt wird. Ein Token kann entweder aus einem Satz oder aus mehreren/einzelnen Wörtern bestehen. Inwieweit Tokens gebildet werden, ist abhängig von den jeweiligen Methoden der quantitativen Textanalyse. In einem darauffolgenden Schritt wurden die Tokens als bag of words abgespeichert. Darunter ist eine vereinfachte Darstellung von Text gemeint, in der jedes Wort nur noch einmal pro Dokument und mit ihrer jeweiligen Auftretens-Häufigkeit abgespeichert wird.

Zudem wurde eine Lemmatisierung der Tokens durchgeführt, d. h. ein Wort wird auf seine Grundform gebracht. So wird beispielsweise „gibt“ auf „geben“ zurückgeführt. Die Rückführung der Wörter auf ihren Wortstamm wird in der Computerlinguistik als sinnvoll angesehen, weil bei dem reinen Zählen der Wörter ein Wort dadurch weniger Varianz aufweist und zusammengeführt werden kann. Diese Informationsreduktion führt dabei auch zu besseren Analyseergebnissen, ohne zu stark in den Sinngehalt der Wörter einzugreifen. Für die Lemmatisierung muss in einem Schritt die syntaktische Funktion der Wörter in einem Satz bestimmt werden. Das automatisierte Verfahren wird auch Part-of-speech-Tagging (POS-Tagging) genannt, bei dem jedes Wort und Satzzeichen mit ihren jeweiligen Wortarten bestimmt und zugewiesen wird.

In einem darauffolgenden Schritt wurden Punktionen, Leerzeichen und Kommata, sowie ‚stop-words‘ gelöscht. Letztere sind Wörter, die keinen relevanten Informationswert für die Themenbestimmung besitzen. Deutsche ‚stop-words‘ sind zum Beispiel „und“, „durch“, „von“ oder „aber“. Da der Computer ein und dasselbe Wort aufgrund der Groß- und Kleinschreibung als unterschiedliche Wörter auffassen würde, wurden alle Wörter klein geschrieben. Zudem wurden in diesem Schritt auch ‚bi-grams‘ erzeugt. Dies sind häufig gemeinsam auftretende Wörter, wie zum Beispiel „Soziale Arbeit“.

3.5 Dokument Term Matrix (DTM)

Ausgangslage für die unterschiedlichen quantitativen Analysen der Texte ist die Dokument Term Matrix (DTM). Die Zeilen der DTM repräsentieren die jeweiligen Dokumente. Die Spalten repräsentieren die Wörter, die im Korpus. In den jeweiligen Zellen steht die Häufigkeit des Auftretens eines Wortes in einem Dokument. Durch diese Matrixstruktur werden die Texte als Summe ihrer Wörter aufgefasst, sprich die grammatikalische Struktur selbst geht zwar verloren, jedoch können dadurch unterschiedlichste mathematische Analysen durchgeführt werden (Tab. 1).

Tab. 1 Dokument-Term-Matrix

Für das vorgestellte Modell wurde nicht der gesamte Textkorpus herangezogen, sondern lediglich die 10.000 häufigsten Tokens. Diese Einstellung wurde aus Gründen der Rechengeschwindigkeit gewählt. Bei Vergleichen mit anderen Modellen, die den gesamten Corpus heranziehen, konnte keine Verschlechterung der Modelle beobachtet werden. Das STM-Package stellt zudem unterschiedliche Visualisierungen der Ergebnisse zur Verfügung. Eine Auswahl dieser Visualisierungstechniken soll im kommenden Abschnitt vorgestellt werden.

4 Ergebnisse und Interpretation der Ergebnisse

Im Rahmen dieses Artikels sollen sechs der 20 identifizierten Topics im Detail dargestellt werden. Auf diese Weise kann auch mit visuell-methodischer Unterstützung nachvollzogen werden, wie die jeweiligen Topic-Labels entwickelt wurden. In der Auswahl wurde auf Basis der Gewichtungen beachtet, inwieweit sich eine interne Homogenität und eine externe Heterogenität zu anderen Topics andeutet, was ein guter Hinweis auf die Verschiedenheit der Themen in den Topics ist, so dass eine vorsichtige Kontextualisierung und Interpretation vorgenommen werden kann. Dies dient einer stärkeren inhaltlichen Annäherung an die Themensetzungen innerhalb der letzten zehn Jahre in der Zeitschrift Soziale Passagen. Zudem wurde bei der Auswahl berücksichtigt, welche Topics häufiger in einem Dokument auftreten bzw. eine relativ hohe Wahrscheinlichkeit aufweisen, dass diese Topics in einem Dokument vorkommen. Nachdem auf diese sechs Topics eingegangen wurde (Abschn. 4.1), sollen Visualisierungen vorgestellt werden, die eine globale Perspektive auf das Korpus einnehmen (Abschn. 4.2). Dadurch lassen sich Gesamtzusammenhänge der Themen diskutieren. In Abb. 5 sind für diese Zwecke alle 20 Topics inklusive ihrer Labels zu finden. Um dazu noch die vollständigen Wortlisten der Topics einsehen zu können, verweisen wir auf ein R Notebook, das eine vollständige Ergebnisdarstellung enthältFootnote 11.

4.1 Einzelne Topics

Tab. 2 zeigt die ausgewählten Topics mit den zwei herangezogenen Gewichtungen ‚hightest probability‘ und ‚FREX‘, sowie die jeweiligen Labels der Topics. Abb. 2 zeigt auf Basis der ‚highest probability‘ Wordclouds, die für die ausgewählten Topics erstellt wurden. Dabei wurden die 20 Wörter eines Topics herangezogen, welche die höchste Wahrscheinlichkeit haben, das Topic zu repräsentieren. Anhand der Wordclouds und unter Berücksichtigung der zweiten Gewichtung hinsichtlich der Exklusivität, werden die Themen der Topics ausgelotet und auf dieser Basis Label vergeben. Die daran anschließenden Passagen entwickeln ausgehend von den empirisch gegründeten Topics Lesarten zu Deutungen und denkbaren Kontextualisierungen.

Tab. 2 Übersicht zu den ausgewählten Topics
Abb. 2
figure 2

Wordclouds für sechs ausgewählte Topics

Angefangen von oben links in Abb. 2 sollen die Topics nun näher beschrieben und kontextualisiert werden, um in diesem Prozess zu empirisch gegründeten Labels zu gelangen. In der ersten Wordcloud zeigt sich, dass das Wort ‚kind‘ (dazu ist auch das Wort ‚child‘ zu zählen) die größte Wahrscheinlichkeit aufweist, dieses Topic zu repräsentieren. In direkter Verbindung steht es mit Wörtern wie ‚eltern‘, ‚erziehung‘, ‚erwachsene‘, ‚sorgen‘ und ‚verantwortung‘, was darauf verweist, dass hier Themen von Erziehung und elterlicher Sorge verhandelt werden. In beiden Varianten der Gewichtungen findet sich ‚kindheit‘ weit vorne, womit sich zumindest Bezüge zum relativ neuen Feld der Kindheitsforschung andeuten. Auch wenn die Kinderrechtskonvention der Vereinten Nationen schon seit fast 30 Jahren in Deutschland Geltung besitzt, zeigt sich hier eine Verbindung innerhalb des Topics über den Begriff ‚recht‘. Kindern scheint außerdem eher der Status der Schützenswerten zugesprochen zu werden, in dem innerhalb des Topics Gefahrendiskurse aufgerufen werden, so die Begriffe ‚gewalt‘, ‚sexuell‘ aber auch ‚hilfe‘, wodurch sich Anschlüsse an Kinderschutzdiskurse der letzten zehn Jahre zeigen. Auf dieser Basis können die inhaltlichen Themensetzungen des Topics als „Kindheit und Kinderschutz“ gebündelt werden.

Die zweite Gruppe ist durch die Wörter ‚jugendliche‘, ‚jugendhilfe‘ und ‚jugendarbeit‘ relativ klar abgesteckt. Wenn die Begriffe ‚kinder__jahr‘ und ‚kinder-‘ zunächst vermuten lassen, dass die Textbereinigung nicht gänzlich glückte, könnten dies aber auch mit Blick auf die anderen Begriffe Hinweise darauf sein, dass es hier um Themen der ‚behinderung‘ und ‚inklusion‘ geht: Da damit häufig schulspezifische Themen diskutiert werden, was Wörter wie ‚schulen‘, ‚schule‘, ‚bildung‘ und ‚kompetenz‘ anzeigen, könnte auf die politischen und disziplinären Diskussionslinien verwiesen sein, die sich nach der Unterzeichnung der Behindertenrechtskonvention der Vereinten Nationen (UN-BRK) Deutschlands 2009 entsponnen haben: Einerseits zu einem inklusiven Bildungssystem (beispielsweise Lange 2017) und andererseits zur gleichberechtigten Teilhabe an der Kinder- und Jugendhilfe, aber auch der Jugendarbeit (beispielsweise „inklusive Lösungen“, AGJ 2019). Somit kann das Topic mit der Benennung „Jugendhilfe und Inklusion“ repräsentiert werden. Mit den Topics „Kindheit und Kinderschutz“ sowie „Jugendhilfe und Inklusion“ bilden sich über Jugendliche und Kinder zunächst zwei Generationen-Gruppen ab. Dies könnte als Verweis auf die klassische Ausprägung der Sozialpädagogik als Wissenschaft der Jugendhilfe (vgl. Mollenhauer 1996) interpretiert werden, die darüber, dass die Gruppen als Topics in Erscheinung treten, bis heute relevant und empirisch sichtbar abgrenzbar zu anderen Feldern bleiben. Diese klassische Verortung geht dann einher mit einer konstanten Aufmerksamkeit für Jugendliche und Kinder als Adressat*innen der Sozialen Arbeit.

Das dritte Topic in Abb. 2 erscheint relativ kohärent. Das Wort, das dieses Topic am besten repräsentiert ist ‚studie‘. Die Begriffe ‚forschung‘, ‚ergebnis‘, ‚frage‘, ‚vergleiche‘, ‚verfahren‘, ‚datum‘, ‚empirisch‘ und ‚untersuchung‘ sind klassische Begriffe im Kontext empirischer Arbeiten, wodurch die thematische Ausrichtung des Topics mit „Empirischer Forschung“ umrissen werden kann. In der vierten Wordcloud ist der zentrale Begriff ‚analyse‘. Er steht in Verbindung mit ‚programm‘, ‚modell‘, ‚evaluation‘ und ‚strategie‘. Wenngleich Begriffe wie ‚debatte‘, ‚normativ‘ oder ‚text‘ wenig Spezifisches für bestimmte Fachpublikationen erkennen lassen, werden durch viele Begriffe in diesem Topic Verbindungen sichtbar rund um die Themen von „Evaluationsstudien“. Möglicherweise lässt sich in den Topics „Evaluationsstudien“ und „Empirische Forschung“ eine für Soziale Arbeit und Erziehungswissenschaft generell zu attestierende Tendenz eines Aufschwungs empirischer Methoden der Disziplin(en) ablesen, was auch an einer Vielzahl als empirisch bezeichneter (Auftrags-)Forschungen und einer stetig wachsenden Anzahl an Methodenbüchern deutlich sichtbar wird (Dollinger und Lütke-Harmann 2019; Neumann und Sandermann 2019; Thole und Ziegler 2018). Auffällig ist in diesem Zuge, dass eine Autorisierung lediglich über die rhetorische Formel „empirisch“ erfolgt; in der Auseinandersetzung mit Forschungen wäre eine einfache Unterteilung, die man intuitiv erwarten könnte, die der quantitativen und qualitativen Methoden. Sie zeichnet sich jedoch so nicht ab. Eine Differenz zwischen dem Topic „Evaluationsstudien“ und „Empirische Forschung“ findet sich allerdings in einer Tendenz im Topic „Evaluationsstudien“ zu normativ aufgeladener Sprache, etwa im Aufrufen durch Begrifflichkeiten wie ‚relevant‘ oder eben konkret ‚normativ‘. Ergänzend finden sich Inhalte wie ‚programm‘ oder ‚modell‘, die auf Schematisierungen – aber nicht notwendigerweise auf Quantifizierungen – verweisen. Im Topic „Empirische Forschung“ finden sich im Kontrast eher ‚weiche‘ Begrifflichkeiten, die die meisten Forschungsvorhaben charakterisieren könnten. So wird statt des offenbar nur augenscheinlich stärkeren methodologischen Unterscheidungskriteriums (quanti/quali) in den Topics Forschungen gut erkennbar von bewertenden Auftragsforschungen unterschieden. Vermuten lässt sich, dass die mit Evaluationsstudien verbundenen Erwartungen des Generierens von Steuerungswissen unter dem „Primat der Praxis“ (Kromrey 2001, S. 113) ein – hier empirisch auffindbares – Abgrenzungskriterium für „reine“ Forschungsprojekte bieten, welches in seiner Relevanz zumindest im vorliegenden Material die „Methodendiskussion“ übersteigt.

In der vorletzten Wordcloud, die das fünfte Topic repräsentiert, finden sich einige Begriffe, die typisch erscheinen für systemtheoretische Perspektiven, auf die oder in der Sozialen Arbeit, wie ‚system‘, ‚funktion‘ und ‚integration‘. Das Topic beinhaltet mit dem expliziten Autoren-Namen ‚luhmann‘ zudem einen deutlichen Hinweis darauf, dass hier ein Theorieimport der Systemtheorie erfolgt. Gleichzeitig sind daran eigene Thematiken wie ‚profession‘ oder ‚sozialarbeit‘ gekoppelt, die in der Systemtheorie Niklas Luhmanns keine herausgehobene Stellung haben. Auf dieser Grundlage kann das Topic gelabelt werden als „Soziale Arbeit und Systemtheorie“. Weitere Wörter wie ‚social work‘, ‚expertise‘, oder ‚sozial‘ legen nahe, dass eine systemtheoretische Perspektive oftmals genutzt wird, um die Soziale Arbeit zu beschreiben oder zu analysieren. Eventuell zeichnet sich hier etwas ab, was sich auch in anderen pädagogischen Disziplinen wie Organisationsforschung oder Didaktik abzeichnet: Der Theorieimport erfolgt als Adaption angepasst auf eigene Bezugsprobleme (vgl. Emmerich et al. 2019). Die meisten Wörter im letzten Topic der Abb. 2 verweisen auf Professionsdiskussionen in der Sozialen Arbeit. Nicht nur zeigt diese Wordcloud, dass die Begriffe ‚professionell‘, ‚wissen‘, ‚handeln‘ und ‚praxis‘ einen Bezug zu professioneller Praxis aufweisen. Im Kontrast zum Topic „Soziale Arbeit und Systemtheorie“ scheint es vielmehr um eine theoretische Analyse professioneller Sozialer Arbeit zu gehen, worauf man durch Begriffe wie ‚verstehen‘, ‚theoretisch‘ und ‚perspektive‘ schließen kann. Mit Bezug auf Pierre Bourdieu stellen die Begriffe ‚feld‘ und ‚theorie‘ Hinweise dar, dass hier häufig eine (feld-)theoretische Bezugsquelle verwendet wird, um eine Reflexionsfolie für das (professionelle) Handeln in der Sozialen Arbeit heranzuziehen, wodurch das Topic offenbar Inhalte der „Profession und Feldtheorie“ umfasst.

Im nächsten Schritt kann im Anschluss an die inhaltliche Konturierung der Topics näher betrachtet werden, welche Konjuktur diese im Korpus aufweisen. Abb. 3a, b zeigen für die ausgewählten Topics jeweils eine Zeitreihe. Für jedes Topic wurde eine Regression gerechnet, bei der die abhängige Variable die Auftrittswahrscheinlichkeit eines Topics in einem Dokument ist und die unabhängige Variable das Erscheinungsjahr der Artikel. Die X‑Achse der jeweiligen Plots zeigen die Jahre und die Y‑Achse bildet die Topicwahrscheinlichkeit ab. Die einzelnen Zeitreihen zeigen zudem auch das 95 %-Konfidenzintervall mit dessen Maximal- und Minimalwerten (obere und untere Linie) und den Estimated Effect (mittlere Linie). Sichtbar wird, dass das Topic „Kindeswohl und Kindesschutz“ einen negativen Trend aufweist, sprich, die Wahrscheinlichkeit des Auftretens dieser Themen nahm in den letzten Jahren sukzessive ab. „Jugendhilfe und Inklusion“ zeigt einen annähernd saisonalen Verlauf auf. Die beiden Topics werden in unterschiedlichen Jahren einmal mehr, einmal weniger stark diskutiert. Eine ähnliche Entwicklung lässt sich für „Empirische Forschung“ und „Profession und Feldtheorie“ feststellen. Einen positiven Trend zeigt die Wahrscheinlichkeit des Auftretens des Topics „Soziale Arbeit und Systemtheorie“ auf. Auch wenn hier in den Jahren 2014 und 2015 ein leichter Rückgang zu verzeichnen ist, haben die Bezüge zu diesem Thema in den Publikationen tendenziell zugenommen. Ebenfalls ein tendenziell positiver Trend zeigt sich beim Topic „Evaluationsstudien“. Dies mag Ausdruck davon sein, dass die Frage nach der Legitimierung Sozialer Arbeit und den ‚Outcomes‘ ungebrochen hoch erscheint und vermutlich weiter zunimmt. Diese Hinweise müssen allerdings mit dem Vorbehalt von methodischen Limitationen gelesen werden. Aufgrund der relativ geringen Anzahl von Artikeln im Korpus, aus denen die Absätze als Analyseeinheiten genutzt wurden, kann es sein, dass einzelne oder wenige Artikel in einem Jahr, die ein ähnliches Thema intensiver diskutieren, bereits einen Ausschlag in der Zeitreihe verursachen können. Es muss zwar berücksichtigt werden, dass die Zeitreihen die Auftretenswahrscheinlichkeit eines Topics in Absätzen repräsentiert und nicht direkt die einzelnen Artikel, indirekt können jedoch Artikel mit einem oder wenigen thematischen Schwerpunkten Einfluss auf eine Vielzahl von Absätzen haben und somit auf die hier dargelegten Zeitreihen. Zweitens wurden die letzten beiden Jahre des Untersuchungszeitraums exkludiert, da hier die Konfidenzintervalle bezüglich der Wahrscheinlichkeit vieler Topics sehr groß waren, was eine gewisse Varianz in den Daten wiederspiegelt sowie eine Unschärfe inhaltlicher Interpretationen mit sich bringt.

Abb. 3
figure 3

a Zeitreihentrends der ausgewählten Topics. b Zeitreihentrends der ausgewählten Topics

4.2 Globale Perspektive

Nimmt man eine globale Perspektive ein und betrachtet die Topics, die im Korpus am häufigsten Auftreten (Abb. 4), so zeigt sich erstens, dass die Topics „Profession und Feldtheorie“ und „Empirische Forschung“ auf Rang zwei bzw. drei liegen. Am meisten tritt das Topic mit dem Label „Bestrafen und Beschützen“ im Korpus auf. Die Bedeutung des Topics zeigt sich besonders, wenn der Korrelationsgraph mit herangezogen wird (Abb. 5). So wurden die Topics „Bestrafen und Beschützen“ und „Anerkennung und Paternalismus“ mithilfe des Modularity Algorithmus zu einem Cluster gruppiert. Dieses Cluster spiegelt das Schwerpunktthema „Paternalismus“ der Sozialen Passagen im Jahre 2014 sehr gut wieder, in dem der Begriff hinsichtlich der „Frage der Anerkennung eines Subjektstatus sowie der Autonomie von Personen und den Ansprüchen, eine Situation besser bzw. gerechter zu gestalten“ diskutiert wurde (Ziegler et al. 2014, S. 187). In diesem Zusammenhang wurde etwa auch über gewaltförmige Übergriffe, wie zum Beispiel auf Kinder und Jugendliche, diskutiert (Lorenz und Kessl 2014). Darüber hinaus ist zu vermuten, dass das hohe Auftreten des Topics „Bestrafen und Beschützen“ auch durch die Reflexion von strukturellen Missbrauchsfällen von Kinder- und Jugendlichen in stationären Einrichtungen der Kinder- und Jugendhilfe zustande kam, was bereits in den ersten Jahren der Zeitschrift stark thematisiert wurde (Ziegler et al. 2010).

Abb. 4
figure 4

Die zehn häufigsten Topics

Abb. 5
figure 5

Clustergruppierungen aller gefundenen Topics

Das Netzwerk zeigt vier weitere Cluster, deren inhaltliche Kohärenz unterschiedlich gut zu interpretieren ist. Die schwarzen Kanten entsprechen den Verbindungen von Knoten innerhalb eines Clusters, die roten bzw. helleren Kanten hingegen zeigen Verbindungen zwischen Knoten unterschiedlicher Cluster. So ist das Cluster mit den Topics „Familienhilfe“, „Kindheit und Kinderschutz“ und „Jugendhilfe und Inklusion“ relativ kohärent und gruppiert Dokumente, die wohl sehr stark den Kontext der Kinder- und Jugendhilfe aufweisen. In dem Cluster „Elternschaft“, „Entfremdung und Gruppen“ und „Umgang mit Medien“ werden wohl Dokumente enthalten sein, die den Umgang und Gebrauch neuer Medien, wie etwa sog. social media im Kontext der Erziehung thematisieren. Interessant ist, dass in diesem Kontext auch von „Entfremdung“ gesprochen wird. Hier könnte eine qualitative Folgestudie interessante Erkenntnisse liefern, nicht zuletzt darüber, wie über neue Medien in der Sozialen Arbeit gesprochen wird und welcher Entfremdungsbegriff Verwendung findet.

Ein weiteres Cluster zeigt eine starke Vernetzung von Topics hinsichtlich der Forschung in der Sozialen Arbeit. Interessant ist, dass hier neben den Topics „Empirische Forschung“ und „Evaluationsstudien“ eine Verknüpfung zu den eher theoretischen Topics von „Profession und Feldtheorie“ und „Diskurs und Körper“ zu beobachten ist. Dies verstärkt die zuvor formulierte Vermutung, dass die Feldtheorie eine hohe Anschlussfähigkeit an empirische Forschungen, insbesondere zur Professionsforschung, erlaubt. In diesem Cluster ist auch das Topic „Wissenschaft und Disziplin“ enthalten, auch wenn dieses zwei Verbindungen zu Topics anderer Cluster aufweist. Das letzte Cluster enthält sechs Topics, wobei die gruppierten Topics sehr heterogen sind und eine Gemeinsamkeit aller enthaltenen Topics nur bedingt sinnvoll erscheint. Betrachtet man aber das Topic „Soziale Arbeit und Systemtheorie“ und ihre Verknüpfung zu den Topics „Sozialpolitik und Gesellschaft“, „Internationale Bildungssysteme“ und „Soziale Arbeit und Kritik“, wird ein möglicher Gebrauchswert der Systemtheorie im Kontext der Sozialen Passagen deutlich. Sie wird wohl vor allem dann herangezogen, wenn die Soziale Arbeit selbst, oder mit ihr strukturell gekoppelte Funktionssysteme zu beschreiben und zu analysieren sind. Das Topic „Themen in englischer Sprache“ enthält ausschließlich unterschiedliche Begriffe in englischer Sprache und ist nicht sinnvoll zu interpretieren.

5 Potenziale, Grenzen, Perspektiven

Wie in allen anderen gesellschaftlichen Bereichen entstehen auch in der Sozialen Arbeit unüberschaubare Datenmengen. Zentrale Herausforderungen, die sich dadurch ergeben, werden zunehmend diskutiert, wobei die Fachdiskussionen meist einen professionellen Zusammenhang aufweisen (Kutscher 2018) und z. B. Themen der Entscheidungsfindung (z. B. Schneider und Seelmeyer 2019) im Mittelpunkt stehen. Weiter werden die Auswirkungen der Nutzung digitaler Technologien auf Organisationen der Soziale Arbeit (Helbig 2018) sowie die Lebenswelt der Adressaten*innen bzw. die Soziale Einzelfallhilfe diskutiert (Kirwan 2019). Da die Digitalisierung gleichsam Auswirkungen auf disziplinäre Zusammenhänge der Sozialen Arbeit hat und zunehmend haben wird, wäre hier eine ähnlich intensive Debatte wünschenswert. Auch wenn Themen der Lehre in der Sozialen Arbeit seit längerem Gegenstand zahlreicher Diskussionen und Entwicklungsprojekte darstellen (Zorn und Seelmeyer 2017; Fang et al. 2014), bleiben viele Fragen der Auswirkungen der Digitalisierung auf die Forschung weitgehend unbeantwortet. Dieser Artikel greift eine dieser Fragen auf, um auf Basis der Publikationen in der Zeitschrift Soziale Passagen die Möglichkeiten und Grenzen auszuloten, die mit dem Import von Forschungsmethoden einhergehen. Die LDA ermöglicht dabei eine automatisierte Extraktion und Analyse von Themen aus großen Textkorpora. Zudem ist im Vergleich zu den meist angewandten Worthäufigkeitsanalysen von einer höheren Validität auszugehen, zumal die LDA den Kontext der auftretenden Wörter mitberücksichtigt und Aussagen über den Zusammenhang dieser Wörter zulässt.

Aufgrund der beschriebenen Entwicklungen bzgl. digitaler Kommunikation und Datenverarbeitung ist davon auszugehen, dass die Frage nach einem forschungsmethodischen Umgang mit unüberschaubaren Datenmengen zunehmend gestellt wird. Dieser Aufsatz nimmt die Herausforderung durch solche Datenmengen auf, im Zuge einer wissenschaftlichen Selbstbeforschung.

Die Repräsentationen der Inhalte der Artikel in den Sozialen Passagen aus den letzten zehn Jahren müssen jedoch mit der nötigen Sorgfalt interpretiert werden. Die Graphen, Tabellen und Netzwerke können zwar einen nützlichen Einblick in disziplinäre Diskurse der Sozialen Arbeit bieten. Jedoch können derartige Abbildungen eine vermeintliche Objektivität der automatisierten Analyseergebnisse suggerieren und zu überzogenen Generalisierungstendenzen verleiten (Schneider und Seelmeyer 2019). Die Ergebnisse stehen nicht für sich selbst und können nur mit einem gewissen Maß an Expertise im jeweiligen Feld und Sensitivität bzgl. des Entstehungszusammenhangs der Daten sinnvoll interpretiert werden. Wie in Abschn. 3 zum methodischen Vorgehen dargestellt wurde, sind unterschiedliche subjektive Entscheidungen bereits bei der Datenbereinigung notwendig, was unvermittelt einen Einfluss auf die Ergebnisse hat. So müssen beispielsweise ‚stop words‘ vordefiniert und Entscheidungen über die Anzahl der zu repräsentierenden Topics und deren Gewichtung getroffen werden. Auch inhaltlich lassen sich kritische Fragen an die Ergebnisse stellen. So fällt vor dem Hintergrund des untersuchten Zeitraumes von 2009 bis 2019 auf, dass Themen der Migration und Flucht in den Ergebnissen nicht repräsentiert zu sein scheinen, obwohl Migrationsbewegungen seit 2014 verstärkt in öffentlichen und fachlichen Diskursen in den Blick genommen wurden (Filsinger 2017). Es könnte sein, dass die entsprechenden Publikationen im Vergleich zu der Häufigkeit der anderen, diskutierten Themen nicht so zentral erscheinen. Gleichsam könnte es aber auch sein, dass einige Themen vom Algorithmus nicht valide abgebildet werden. Diese Unsicherheit verweist auf das Problem hinsichtlich der Bestimmung der Anzahl an Topics, die einen großen Einfluss auf den Algorithmus besitzt. Die Berechnung und Interpretation von Modellen mit einer größere Topicanzahl (60 und 80 Topics) zeigt jedoch, dass kein Topic hinsichtlich Migration oder Flucht zu erkennen war.

Misst man die Sozialen Passagen an ihrem Selbstanspruch, ein Journal für Empirie und Theorie Sozialer Arbeit darzustellen, so lässt sich dies in den Topics als verwirklicht bezeichnen. Empirische Forschungen wurden auch als eigenes Topic sichtbar. Zusammen mit den „Evaluationsstudien“ verfügen damit zwei Topics über eine klare empirische Ausrichtung. Hinweise auf theoretische Diskurslinien sind ebenso gut erkennbar, wie sie beispielsweise in den Topics zur „Profession und Feldtheorie“ oder „Soziale Arbeit und Systemtheorie“ auftauchen. Und schließlich werden zwei Topics erkennbar, die bedeutsame Adressat*innen-Gruppen der Sozialen Arbeit in den Blick nehmen und worin Verschränkungen zu aktuellen fachlich-politischen Entwicklungslinien wie der der Inklusion erkannt werden konnten.

Damit wird deutlich, dass trotz der beschriebenen Limitationen des Topic Modelings diese Forschungsmethode in der Lage ist, die Komplexität sehr großer Datenmengen zu reduzieren, diese Daten zu strukturieren und darin Muster zu erkennen, die sodann einer Deutung zugänglich werden. Um die Schwachstellen dieser Methode zu kompensieren, bietet sich für zukünftige Projekte eine Kombination mit qualitativen Forschungsmethoden an, um die Ergebnisse besser verstehen zu können. Dabei wären hermeneutische Inhaltsanalysen bis hin zu diskursanalytischen Ansätzen denkbar. Bei der vorliegenden Untersuchung wäre es beispielsweise lohnenswert, diskursanalytisch jene Publikationen näher zu betrachten, die vom Algorithmus als zentral (im Sinne von die häufigsten Diskussionsthemen an den besten repräsentierenden Publikationen) identifiziert wurden. Über die Beleuchtung der Topics zeigen sich außerdem sehr deutlich Grenzen der Analysemöglichkeiten bei der Bezugnahme auf Themenstellungen. So lässt sich am Beispiel der Inklusion im Kontext der Kinder- und Jugendhilfe nicht feststellen, inwieweit kritische, ungleichheitstheoretische oder ordnende Perspektiven eingenommen werden. Die hier vorgelegten Vertiefungen müssen gemessen an einem qualitativ-rekonstruktiven, kontrolliert methodischen Vorgehen noch als eine Art exploratives ‚Kratzen an der Oberfläche‘ bezeichnet werden. Erste Einblicke in die inhaltlichen Auseinandersetzungen gemäß Theorieimporten, etwa Feldtheorie und Systemtheorie und empirischer Vorgehensweisen, etwa die unklare Trennung zwischen quantitativen und qualitativen Verfahren aufgrund der aufgerufenen Wortfelder, können dennoch vorsichtig konstatiert werden. Da sich einige Limitationen automatisierter Analysen nicht werden aufheben lassen, verweisen diese Überlegungen doch darauf, dass eine sorgfältig vorbereitete Integration rekonstruktiv-qualitativer Verfahren lohnenswert erscheint und zudem dadurch eine höhere Anschlussfähigkeit an eher konventionelle Forschungsansätze in der Sozialen Arbeit hergestellt werden kann.

Des Weiteren könnte man die durch Datenmining gewonnenen Ergebnisse auch mit Daten aus anderen Zeitschriften kontrastieren. Hier wäre zum einen denkbar, das singuläre Profil einer Zeitschrift (wie in diesem Fall der Sozialen Passagen) mit dem anderer Zeitschriften zu vergleichen. Eine Kontur der Sozialen Arbeit als Disziplin ließe sich eventuell auch nachzeichnen durch einen Vergleich mit anderen Teildisziplinen (etwa der Schulpädagogik oder der Allgemeinen Pädagogik) oder Nachbardisziplinen (denkbar wären hier Soziologie oder Politikwissenschaft). Bis dahin stellt der vorliegende Artikel einen explorativen Versuch dar, eine vielversprechende Methode für die Forschung in der Sozialen Arbeit einzuführen.