1 Einleitung

Bereits seit den 1970er-Jahren und verstärkt seit der „empirischen Wende“ in den 1990er-Jahren ist in Deutschland die Evidenzbasierung, im Sinne der Orientierung an datengestützten und empirisch prüfbaren Aussagen, von Bedeutung in der Steuerung von Bildungssystemen. Auch im Bereich der Weiterbildung sollen auf Grundlage von Daten zum einen Diagnosen über den Zustand sowie Stärken und Schwächen von Einrichtungen und Systemen ermöglicht werden, zum anderen soll „Steuerungswissen“ optimale Entscheidungen über die Entwicklung und Umsetzung von Maßnahmen und Strategien unterstützen (Dedering 2016; Ioannidou 2012, S. 42).

Das Versprechen von Faktizität und Objektivität, das in diesem Kreislauf aus datengestütztem Wissen und Handeln transportiert wird (Desrosiéres 2005), ist jedoch mit Einschränkungen behaftet. Hinsichtlich der Weiterbildungsstatistik besteht mit Blick auf idealtypische Kreisläufe und Gelingensbedingungen der datenbasierten Steuerung eine doppelte Herausforderung. Zum einen wird die verfügbare Datengrundlage oftmals als defizitär beziehungsweise entwicklungsbedürftig beschrieben. Die empirische Weiterbildungsforschung kann ihrem Auftrag – wie ihn Schrader und Goeze (2011) formulieren – steuerungsrelevantes Wissen zu generieren, bislang nur auf Basis einer fragmentierten Datengrundlage nachkommen. Zum anderen muss mit dieser fragmentierten Datengrundlage ein – mit Blick auf Institutionalisierung, Angebot und Adressaten – sehr heterogener Bildungsbereich abgedeckt werden. Im Anschluss an Modellüberlegungen von Schrader zum Mehrebenensystem der Weiterbildung (Schrader 2014) können unterschiedliche Akteure auf der Ebene von Staaten, Organisationen und deren Umwelt sowie auf der Ebene des Lehr-Lernprozesses identifiziert werden, die in verschiedenen Konstellationen agieren und unterschiedliche institutionelle Reglements und Formen der Handlungskoordination aufweisen. Insgesamt kann das Weiterbildungsgeschehen bislang nur auszugsweise systematisch und datenbasiert beobachtet werden und das zudem teilweise mit widersprüchlichen Befunden (Kuper, Widany und Kaufmann 2016).

Neben der Datengrundlage sowie Merkmalen des Steuerungsfeldes selbst, müssen auf dem Weg „von Daten zu Taten“ komplexe Transferbedingungen berücksichtigt werden. Renn (2017) verweist darauf, dass der Konsens über konkurrierende Wahrheitsansprüche und der Umgang mit verbleibenden Unsicherheiten, die Anschlussfähigkeit an die institutionellen und zeitlichen Bedingungen der Politikgestaltung sowie die deutliche Trennung zwischen belastbarem Wissen und begründbarer Spekulation entscheidend sind für die politische Wirksamkeit sozialwissenschaftlicher Politikberatung.

Die komplexen Transferbedingungen im Rahmen datenbasierter Steuerung werden in diesem Beitrag mit Fokus auf die Wahrnehmung und Nutzung der fragmentierten Datengrundlage untersucht. Die Wahrnehmung und Nutzung von Daten und Statistiken durch weiterbildungspolitische Akteure wird als wichtige Grundvoraussetzungen für Transferprozesse betrachtet. Nach einer konzeptionellen Einführung zu den Voraussetzungen datengestützter Steuerung und den spezifischen Rahmenbedingungen auf Grundlage der Weiterbildungsstatistik, zeigen Ergebnisse einer Interviewstudie, mit Hilfe welcher Datenquellen, welche Themen von weiterbildungspolitischen Akteuren aufgegriffen werden, zu welchen Zwecken sie die Daten nutzen und wie sie die Qualität der Daten einschätzen. In der Diskussion werden die Ergebnisse in ihrer Bedeutung für datenbasierte Steuerungsprozesse im Bereich der Weiterbildung reflektiert.

2 Von Daten zu Taten? Voraussetzungen datengestützter Steuerung im Bildungswesen

Desrosiéres (2005) zeigt in seiner historischen Analyse zur Geschichte des statistischen Denkens auf, wie sich die Nutzung von Statistiken als konstitutives Element moderner Staatlichkeit entwickelt hat und dabei immer geprägt war (und ist) von Verflechtungen und Austauschbeziehungen staatlicher und wissenschaftlicher Legitimität. Statistik dient der Reduktion und zusammenfassenden Beschreibung als Grundlage von Handeln. Daten sind dabei das Ergebnis einer aufwendigen sozialen und materiellen Produktion, die in einen zirkulären Kreislauf von Wissen und Handeln eingegliedert sind: Daten in statistischen Systemen entstehen aufgrund von Handlungen, werden durch Aggregation und Strukturierung zu Informationen, die durch vernunftgeleitete Akkumulation zu Wissen oder Kenntnissen werden, die wiederum Handlungen initiieren.

Neuere Arbeiten aus der Public-Policy- und Verwaltungsforschung zeigen, dass die Nutzung von Expertise und Wissen durch die beteiligten politischen Akteure die Qualität von Entscheidungen beeinflusst (Kropp und Kuhlmann 2013). Allerdings gibt es keinen direkten, einfachen Zusammenhang zwischen wissenschaftlichen Erkenntnissen, politischen Entscheidungen und Ergebnissen (Tripney et al. 2014; Cairney 2016). „Evidenzen“, sei es aus statistischen Daten oder der empirischen Forschung, können nur dann Relevanz in der Politik entfalten, wenn sie wahrgenommen, interpretiert, reformuliert und in die politische Agenda integriert werden können (Baumert 2016, S. 222).

Informationen werden von politischen Akteuren eher aus von ihnen als vertrauenswürdig eingeschätzten Quellen bezogen und an Überzeugungen angepasst, die sie bereits vertreten. Die Unmöglichkeit, alle Informationen zu sammeln und zu analysieren, bedingt, dass Heuristiken (Suchstrategien) angewendet werden. Hierdurch ergeben sich notwendigerweise Verzerrungen in der Wahrnehmung von Informationen (Cairney 2016, S. 6). Rickinson et al. (2017, S. 180) weisen darauf hin, dass Politiker dazu neigen, sich immer wieder auf einige wenige Quellen zu beschränken, die bekannt und einfach zugänglich sind. Die Grenze zwischen evidenz-basierten Aussagen und subjektiven Urteilen ist daher oftmals schwer zu ziehen (Renn 2017).

Da also in der politischen Realität Ziele meist unklar bleiben und nur begrenzte Informationen zur Verfügung stehen, können daraus auch nur unklare politische Entscheidungen hervorgehen. Es handelt sich um eine begrenzte Evidenzbasierung von Politik („bounded evidence-based policymaking“, Cairney 2016, S. 7).

Die von Seiten der Wissenschaft zur Verfügung gestellten Wissensbestände sind darüber hinaus nicht immer eindeutig, Erkenntnisse stützen sich teilweise auf ungesicherte und normativ umstrittene Vorannahmen, die selbst Gegenstand des wissenschaftlichen Diskurses sind (Kropp und Kuhlmann 2013). Zudem folgt aus wissenschaftlichen Beschreibungen und Erklärung keine eindeutige Konstruktionsregel, sie zeigen bestenfalls Handlungsoptionen auf, die dann wieder unterschiedlich bewertet werden (Baumert 2016, S. 221).

Tripney et al. (2014, S. 61) beschreiben den Prozess der Evidenznutzung („evidence production-to-use process“) anhand von drei Dimensionen: 1. Evidenz-Erzeugung, z. B. durch Forschung, 2. Evidenz-Verwendung, u. a. durch Bildungspolitik, -praxis und andere Nutzungskontexte, um Veränderung des Verhaltens, Wissens und Verständnisses von Entscheidungstragenden (und letztendlich der Politik selbst) zu bewirken und 3. Vermittlung zwischen der Evidenz-Erzeugung und -Verwendung, die unter anderem über Politikberatung erfolgt, zu der auch die existierenden Formate der Bildungsberichterstattung, wie der Nationale Bildungsbericht, (siehe dazu weiter unten) gezählt werden können.

Trotz des steigenden Interesses an der Evidenzbasierung von Bildungspolitik gibt es bislang nur wenig Forschung zur Frage der Verwendung von empirischen Evidenzen zur politischen Entscheidungsfindung (Tripney et al. 2014; für einen Überblick siehe Dedering 2016, S. 64ff.).

Der Einfluss von wissenschaftlichen Studien selbst auf politische Akteure ist nach bisherigen Erkenntnissen als gering anzusehen. Bedeutend wird wissenschaftliche Beratung nach Jann und Wegrich (2014, S. 113) erst in längerfristig bestehenden Beratungsbeziehungen. Für die internationale Leistungsvergleichsstudie PISA aus dem Jahr 2000 konnte gezeigt werden, dass die generierte Evidenz von Politik und Verwaltung in Prozessen der Entscheidungsfindung kaum genutzt wurde. Einer durchaus intensiven Rezeption folgten keine datengestützten, sondern vielmehr „politisch-taktische“ Entscheidungen, die dem Erhalt politischer Macht und der Legitimation bereits getroffener Entscheidungen dienten (Dedering 2016, S. 62; Tillmann et al. 2008).

Für den Bereich der Weiterbildung liegen Studien zur Rezeption der PIAAC-Studie 2012 (Programme for the International Assessment of Adult Competencies) vor, die aufzeigen, dass die generierten Befunde in Abhängigkeit von medialer Berichterstattung und politischen Diskursen, nationalen Akteuren und Ressourcen unterschiedlich rezipiert werden, insgesamt jedoch kaum Auswirkungen auf weiterbildungspolitisches Handeln haben (Schmidt-Hertha 2014; Cort und Larson 2015; Hamilton 2018).

Bildungsberichterstattung und Monitoring auf der Grundlage von weiterbildungsstatistischen Daten ist in Deutschland sowie inter- und supranationalen Kontexten inzwischen eine etablierte Quelle für Evidenz. Für das Monitoring von Weiterbildung können im Zuge dieser Etablierung erhebliche Fortschritte bei der Entwicklung von Indikatoren und Kennzahlen, der Datengrundlage, der Methodik und der internationalen Koordination von Expertise beobachtet werden (Ioannidou 2012), auch wenn der Anspruch steuerungsrelevantes Wissen im Sinne einer Output-Steuerung, in dem kausale Zusammenhänge zwischen Weiterbildungserträgen und Merkmalen des Weiterbildungsangebotes beschrieben werden, bislang nur sehr eingeschränkt erfüllt wird (Reichart und Mülheims 2012; Echarti, Reichart und Gerhards 2021).

In Deutschland wird auf nationaler Ebene seit 2006 alle zwei Jahre ein indikatorengestützter Bildungsbericht im Auftrag der Kultusministerkonferenz (KMK) und das Bundesministerium für Bildung und Forschung (BMBF) von einer Autorengruppe unabhängiger Wissenschaftler*innen erstellt (zuletzt Autorengruppe Bildungsberichterstattung 2020). Dieser beinhaltet Informationen zu allen Bereichen des deutschen Bildungswesens, von der frühkindlichen Bildung bis zur Bildung im Erwachsenenalter. Zudem existiert eine Reihe weiterer Berichtsformate, die Teilbereiche der der Weiterbildung darstellen, wie bspw. der Berufsbildungsbericht des Bundesministeriums für Bildung und Forschung (BMBF) und der Datenreport zum Berufsbildungsbericht, der durch das Bundesinstitut für Berufsbildung (BIBB) herausgegeben wird. Bislang existieren allerdings keine Untersuchungen zur Rezeption dieser Berichte. Fallstudien zur Implementation und Anwendung von Bildungsberichterstattung auf kommunaler Ebene zeigen, dass eine erfolgreiche Nutzung sowohl von den vor Ort vorhandenen Kompetenzen und der Infrastruktur für die Bereitstellung der Berichte als auch von einer Qualität des politischen Diskurses abhängig ist, in dem ein Bewusstsein über die Möglichkeiten und Grenzen solcher Monitorings besteht (Busemeyer und Vossiek 2015, S. 26ff.; 46f.). Für den Bereich der Weiterbildung zeigt eine aktuelle Auswertung kommunaler Bildungsberichte in Deutschland, dass der Bildungsbereich zum einen relativ selten abgebildet ist und zum anderen nur spezifische Teilbereiche (in der Regel öffentlich geförderte Angebote, insbesondere die Volkshochschule) adressiert werden. Dies ist vor allem auf die begrenzte Verfügbarkeit von Daten auf der regionalen Ebene zurückzuführen (Gerhards 2022).

Nicht nur aufgrund dieser Voraussetzungen und Befunde wird das Konzept evidenzbasierter Politik anhand wissenschaftlicher Informationen aus der empirischen Bildungsforschung und statistischen Daten skeptisch und kritisch begleitet (Bellmann 2016). Es werden vielmehr grundlegende Zweifel daran vorgebracht, dass die Entscheidungsfindung anhand von Daten überhaupt möglich ist: Kritiker bemängeln, die Forschung unterliege einer „Wirkungsillusion“ und ignoriere Traditionen, Sachzwänge und Interessenlagen, die Einfluss nehmen auf Evidenzen. Zudem sei „nicht alles, was evident ist, auch wirksam, und auch nicht alles, was wirksam ist, evident“ (Arnold 2012, S. 26).

Fundamentalkritik auf der einen und geringe beziehungsweise ernüchternde Evidenz zu Voraussetzungen und Wirksamkeit evidenzbasierter Steuerung im Bildungssystem auf der anderen Seite, sind die Motivation in diesem Beitrag einen Ausschnitt des oben beschrieben Transferprozesses eingehender zu untersuchen. Im Fokus stehen die Wahrnehmung und Nutzung von weiterbildungsstatistischen Daten durch weiterbildungspolitische Akteure als Grundvoraussetzung für Transferprozesse im Rahmen evidenzbasierter Steuerung. Dafür wird im Folgenden zunächst die Datengrundlage und die Funktion von Weiterbildungsstatistik näher beschrieben.

3 Weiterbildungsstatistik als Grundlage datengestützter Steuerung

Die zahlenmäßige Selbstbeschreibung der modernen Gesellschaft schließt die Weiterbildung mit ein – wenn auch nicht in vergleichbarer Art und Weise wie das durch die amtlichen Statistiken für die stärker staatlich regulierten Bildungsbereiche wie Schule, berufliche Bildung und Hochschule der Fall ist. Sowohl für die input-orientierten Steuerungsansätze der Bildungsplanung in den 1960er und 70er-Jahren als auch für die output-orientierten Ansätze gegenwärtiger monitoringbasierter Steuerung, wird die Datenlage für die Weiterbildung als unzureichend eingeschätzt. Zwar hat sich die Weiterbildungsstatistik seit den 1970er-Jahren weiterentwickelt, substantielle Vorhaben, wie eine amtliche Institutionenstatistik auf Bundes- und Länderebene, konnten jedoch nicht realisiert werden (Gnahs 2018, S. 408).

Die Weiterbildungsstatistik speist sich aus Datenquellen, die in vier Säulen aufgeteilt werden können (Kuper, Behringer und Scharder 2016). Personenbefragungen erheben Informationen zu individuellen Weiterbildungsaktivitäten. Unternehmensbefragungen geben Einblick in die betriebliche Weiterbildungsaktivität. Anbieterstatistiken und -befragungen informieren über Angebot und Leistungen der Weiterbildungseinrichtungen und vereinzelt liegen Daten aus Personalbefragungen zu Merkmalen des Weiterbildungspersonals vor. Oftmals werden die Daten über die wissenschaftlich begleitete Infrastruktur der schwerpunktmäßig außeruniversitären Forschung erhoben und bereitgestellt (bspw. die Anbieterbefragung wbmonitor (Christ, Koscheck, Martin, Ohly und Widany 2021)), teilweise in Kooperation mit Verbänden aus der Weiterbildung (bspw. die Volkshochschul-Statistik (Widany, Reichart, Ambos und Huff 2019)). In seltenen Fällen basiert die Erhebung auf einer gesetzlichen Grundlage (bspw. bei der europäischen Personenbefragung Adult Education Survey (AES)). In anderen Bereichen liegen Daten vor, die im Rahmen behördlicher Prozesse generiert werden (bspw. die SGB-Statistik der Bundesagentur für Arbeit). Während Monitoringstudien wie der AES von ihrer Anlage her der externen Steuerung dienen, werden die Daten der Anbieterstatistiken wie auch die behördlich generierten Daten ebenso im Kontext organisationsinterner Steuerungsprozesse genutzt. Die Datengrundlagen unterscheiden sich oftmals hinsichtlich der Definition und Operationalisierung von Weiterbildung und ihrer surveymethodologischen Qualität. Dies erschwert einen kohärenten datengestützten Blick auf das System der Weiterbildung, sowohl über die verschiedenen Säulen hinweg, als auch innerhalb einzelner Säulen. Für grundlegende Informationsbedarfe zur Weiterbildungsteilnahme und Teilnahmestrukturen in der Bevölkerung, liegen beispielsweise aus den Personenbefragungen Teilnahmequoten vor, die Differenzen um die 30 Prozentpunkte aufweisen (Widany, Christ, Gauly, Massing und Hoffmann 2019). Mit hoher Kontinuität werden daher Forderung zur Weiterentwicklung der Statistik gestellt, wie jüngst im Rahmen der von der Bundesregierung verabschiedeten Nationalen Weiterbildungsstrategie (BMAS und BMBF 2019, S. 21).

Mit dieser Ausgangslage wird eine zentrale Funktion von Statistik als Fundament zukunftsbezogener politischer Entscheidungen für den Bereich der Weiterbildung nur bedingt erfüllt. „Das Ziel von statistischen Erhebungen besteht in der Analyse dessen, was den Dingen Zusammenhalt verleiht – einen Zusammenhalt in dem Sinne, daß es in Bezug auf diese Dinge gemeinsam genutzte Darstellungen gibt, die durch Handlungen von allgemeiner Bedeutung beeinflußt werden können. Ein wichtiger Bestandteil dieser – zur Beschreibung und Schaffung von Gesellschaften erforderlichen – Sprache ist die moderne Statistik, denn sie hat einen besonderen Ruf aufgrund ihrer Faktizität, ihrer Objektivität und ihrer Fähigkeit, Bezugsrahmen und Ansatzpunkte zu liefern.“ (Desrosiéres 2005, S. 20). Die Forderung nach einer Weiterentwicklung der Datengrundlage der Weiterbildung können demnach auch so verstanden werden, dass die weiterbildungsstatistische Sprache bislang nicht in der Lage ist einen adäquaten faktischen Bezugsrahmen für die Analyse, Darstellung, Kommunikation und Entscheidungen in diesem Bildungsbereich zu gewährleisten.

Bei allen Unzulänglichkeiten konstruiert die Weiterbildungsstatistik letztlich dennoch eine Abbildung der Weiterbildungswirklichkeit und wird in einem öffentlichen Raum von verschiedenen Akteuren in Kommunikations- und Entscheidungsprozessen genutzt. Dollhausen (2008) versteht unter Rückgriff auf wissenssoziologische Ansätze Statistik als eine gesellschaftliche Aktivität, in der gesellschaftliche Wirklichkeit sowohl konstruiert als auch vermittelt wird. Statistische Verfahren und Kategorien ermöglichen die gesellschaftliche Beobachtung und Selbstbeschreibung, allerdings bringen diese ebenso eine Reduktion der Komplexität gesellschaftlicher Wirklichkeit mit sich. Um einen kommunikativen Erfolg sicherzustellen, müssen die Strukturen der Beobachtung anschlussfähig an bestehende gesellschaftliche Beobachtungsmuster sein, dies wiederum führt zur Reproduktion eben dieser Beobachtungsmuster. So bedeutete beispielsweise der Wechsel vom seit 1979 etablierte Berichtssystem Weiterbildung (BSW) zum AES im Jahr 2007 eine Irritation der bis dato bestehenden Wirklichkeitskonstruktion, indem neue Beobachtungsmuster und Selektionen integriert und anschlussfähig gemacht werden mussten. Die statistische Abbildung der Weiterbildungsrealität unterscheidet seitdem beispielsweise nicht mehr zwischen allgemeinen und beruflichen Weiterbildungsaktivitäten (BSW), sondern differenziert individuelle Weiterbildungsteilnahmen in formale, non-formale Weiterbildungen und informelle Lernaktivitäten, die entweder beruflich oder privat motiviert sein können (AES) (ebd.).

Der kommunikative Erfolg und die Anschlussfähigkeit an Plausibilitätsstrukturen sind nicht nur inhaltlich geprägt, sondern auch von einem grundlegenden Vertrauen in quantifizierte Informationen getragen. Statistisch gewonnene Zahlen schaffen Faktizität, sie sind vermeintlich frei von persönlichem Ermessen. Formalisierte Verfahren ersetzen das menschliche Element und suggerieren eine mechanische Objektivität. Diese Eigenschaft greift sowohl in organisationsinternen Steuerungsprozessen als auch in politischen Kommunikations- und Entscheidungsprozessen im öffentlichen Raum, in den verschiedene Akteure eingebunden sind (Porter 1995, S. 43ff.). In der Weiterbildungsstatistik gibt es jedoch nur wenige amtliche Statistiken, die in der Regel hohen Standards folgen und eine dementsprechend hohe Legitimität genießen. Hinter der oben skizzierte Datengrundlage stehen in unterschiedlichen Konstellationen Akteure aus Wissenschaft, Verwaltung, Politik und Bildungspraxis. Je nach Perspektive und Nutzer oder Nutzerin könnte dieser spezifische institutionelle Kontext von Statistiken das Vertrauen in quantifizierte Informationen beeinflussen.

4 Datengrundlage und Methode der Analyse

Die Analyse basiert auf leitfadenbasierten Experteninterviews, die 2015 im Rahmen einer Studie geführt wurden, die die „Entwicklung von Indikatoren und einer Datengewinnungsstrategie für die Weiterbildungsstatistik in Deutschland“ zum Ziel hatte (Kuper, Behringer und Schrader 2016). Es handelt sich somit um eine Sekundäranalyse dieser Interviews. Insgesamt handelt es sich um 13 Interviews in zwölf Organisationen, die die organisierte Weiterbildung in Deutschland politisch, strategisch oder wirtschaftlich mitgestalten (siehe Tab. 1). Es finden sich große Überschneidungen zu den Akteuren, die an der Verfassung der Nationalen Weiterbildungsstrategie (BMAS und BMBF 2019) beteiligt waren.

Tab. 1 Befragte Akteure

Die Befragten wurden entlang der von Ihnen vorrangig verfolgten Interessen und der damit verbunden Legitimation zwei Gruppen zugeordnet. Bei der Gruppe der politischen Akteure handelt es sich um politisch legitimierte Akteure aus der Administration des politischen Systems in Ministerien, Behörden und Gremien. Bei der Gruppe der Verbände handelt es sich um Akteure, die in privatrechtlichen Organisationen korporativ die Interessen ihrer Organisation verfolgen.

Die Interessen, Perspektiven und Handlungsspielräume in Bezug auf Weiterbildung unterscheiden sich zwischen diesen beiden Gruppen. Somit sind auch Unterschiede in den mit der Nutzung von Statistik verfolgten Zielsetzungen zu vermuten. So werden durch politisch legitimierte Akteure (sowohl Politiker*innen als auch Angehörige der Ministerialbürokratie, die die Schnittstelle zwischen Politik und Verwaltung bilden) Entscheidungen getroffen, die Wirkungen auf das Gesamtsystem entfalten (sollen). Hierzu werden unter anderem Verordnungen und Förderprogramme eingesetzt. Die Verbände dagegen, die als korporative Akteure den Weiterbildungsbereich strategisch und wirtschaftlich gestalten, vertreten mit ihrem Handeln eine bestimmte Klientel. Zu diesem Zweck erhalten sie teilweise auch öffentliche Förderung, die es zu legitimieren gilt (Scharpf 2000). Über Gesetzesgrundlagen, Berichtspflichten und Förderungen nehmen die politischen Akteure stellenweise direkt Einfluss auf die Erhebung und Verfügbarkeit weiterbildungsstatistischer Daten und Informationen. Auf Ebene der verbandlichen Akteure werden teilweise ebenfalls Daten generiert und verfügbar gemacht. Diese Aktivitäten bewegen sich vorrangig im Rahmen der verbandlichen Ziele und Interessen. Analysen zu Unterschieden in der Wahrnehmung und Nutzung von Daten im Vergleich der beiden Gruppen sollten dem jeweiligen Zielgruppenverständnis Rechnung tragen: Bei den politischen Akteuren ist eher ein „Versorgungsblick“ maßgeblich, der sich an einer politisch gewünschten Nachfrage nach Weiterbildung orientiert und gleichen Zugang für alle sowie eine Sicherung der Humanressourcen gewährleisten möchte. Bei den Verbänden dagegen existiert eher ein „Klientelblick“, es stehen spezifische Bedarfe dieser Klientel im Vordergrund und entsprechend orientiert sich die Datennutzung daran.

Die Analyse fokussiert Interviewpassagen, die sich auf Daten und Statistiken sowie Wahrnehmung und Nutzung beziehen. Insgesamt umfassen diese Passagen ca. 5 h Interviewmaterial, was etwa einem Drittel des Ausgangsmaterials darstellt. Dieses wurde computergestützt inhaltsanalytisch ausgewertet. Das Vorgehen orientierte sich am Ablaufschema von Kuckartz (2012, S. 78). Zunächst wurden anhand der Forschungsfragestellungen deduktiv Hauptkategorien gebildet, mit denen die Interviewtranskripte codiert wurden. Im zweiten Schritt wurden induktiv Unterkategorien aus dem Material heraus entwickelt. Auch die Hauptkategorien wurden induktiv weiterentwickelt.

Die hier betrachteten Experteninterviews sind mit Bogner und Menz (2002) als „theoriegenerierend“ zu bezeichnen, denn sie zielen weniger drauf ab, objektives Wissen zu erheben, es geht vielmehr darum, subjektive Erfahrungen und Deutungen der Akteure hinsichtlich der Nutzung von Statistiken und Daten zu erfragen. Diese gilt es zu interpretieren im Hinblick auf das Funktionieren des Systems der Weiterbildungspolitik.

Für den Ergebnisteil nutzen wir zur Veranschaulichung stellenweise Zitate sowie einfache Tabellen, die akteursspezifische Muster der Wahrnehmung und Nutzung von Daten aufzeigen, indem die Schwerpunkte von Politik und Verbänden in verschiedene Kategorien gegenübergestellt werden.

Aufgrund der Tatsache, dass es sich um eine Sekundäranalyse handelt, ergeben sich einige Limitationen für die Analyse. Es ist darauf hinzuweisen, dass die Fragestellung der Originalstudie sich nicht gezielt auf Politikberatung oder den genauen Umgang der Akteure mit Daten bezog. Die Informationsbreite ist dadurch eingeschränkt. Allerdings hat dies den Vorteil, dass davon ausgegangen werden kann, dass die getätigten Aussagen für die Befragten eher eine hohe Relevanz haben, da sie auch in diesem unspezifischen Kontext benannt wurden.

Eine weitere Einschränkung, die Experteninterviews grundsätzlich zugrunde liegt, ist die Schwierigkeit, Aussagen von einzelnen befragten Personen als für eine gesamte Organisation geltend anzusehen. Hier könnten sich für den Kontext der Nutzung statistischer Daten möglicherweise deutliche Abweichungen ergeben je nachdem, welchen Hintergrund bzw. welche Vorbildung die Befragten diesbezüglich mitbringen.

5 Ergebnisse: Nutzung von Weiterbildungsdaten

Trotzt der genannten Einschränkungen erbringen die Analysen einige erhellende Einblicke in die Datennutzung der weiterbildungspolitischen Akteure. Im Folgenden werden Analyseergebnisse dargestellt zu genutzten Datenquellen, Themen, Modi und Zwecken sowie der Einschätzung von Qualität und Grenzen der Nutzung von Daten.

5.1 Nutzung verschiedener Datenquellen

Grundsätzlich spielen Daten für alle befragten Akteure eine Rolle und werden genutzt. Die Befragten nutzen eine große Bandbreite von Statistiken und Datenquellen (Abb. 1). Die meisten Akteure nutzen fünf bis sechs verschiedene Datenquellen. Insgesamt werden 59 verschiedene Quellen genannt. Die Ausführungen zeigen verschiedene Niveaus der Kenntnis und Auseinandersetzung mit den jeweiligen Datengrundlagen.

Abb. 1
figure 1

Nutzung von externen Daten und Statistiken. (Eigene Darstellung; je größer die dargestellten Quadrate, desto häufiger werden die jeweiligen Daten und Statistiken genutzt)

Vor diesem Hintergrund sind zwei Arten von Daten zu unterscheiden. Dies sind einerseits intern produzierte Daten von einzelnen Organisationen, die diese für eigene Zwecke erheben. Hierunter fallen unter anderem Angebots- und Prüfungsstatistiken der Verbände sowie die Förderstatistik der Bundesagentur für Arbeit. Interne Daten werden, soweit vorhanden, sehr intensiv genutzt. Insgesamt verfügen fünf der befragten Organisationen über eine interne Statistik.

Sie finden vielleicht in den einen oder anderen Broschüren […] ab und zu in der Quelle mal eine andere Statistik, die wir zitieren, wo wir Vergleiche anstellen. Aber ich sage mal, das Gros der Statistik, die wir jetzt für unsere Arbeit hier verwenden, ist schon unsere Statistik. (P5)

Andererseits handelt es sich um „extern“ produzierte Daten, die durch unterschiedliche Surveys erhoben werden. Alle Akteure nutzen Daten aus mindestens zwei externen Quellen. Insbesondere internationale und nationale Monitoringstudien sind wichtige Informationsquellen, allen voran der AESFootnote 1 (siehe Abb. 1). Genutzt werden auch PIAACFootnote 2, CVTSFootnote 3 und NEPSFootnote 4. Die Nutzung von PIAAC beschränkt sich allerdings vorwiegend auf politische Organisationen. Auffällig ist auch, dass obwohl internationale Daten häufiger herangezogen werden, der Vergleich zwischen Staaten für die Akteure eine untergeordnete Rolle zu spielen scheint. Ursächlich hierfür ist möglicherweise die problematische Vergleichbarkeit der Daten (siehe. Abschnitt 5.4).

Weitere bereichsspezifische Erhebungen, die häufiger Verwendung finden, sind solche zu berufsbezogener und betrieblicher Weiterbildung. Dies sind insbesondere die des Bundesinstituts für Berufsbildung (BIBB) und des Instituts der deutschen Wirtschaft (IW)Footnote 5 sowie das IAB-Betriebspanel des Instituts für Arbeitsmarkt- und Berufsforschung. Es zeichnet sich ab, dass für die Befragten vor allem Quellen relevant sind, die Informationen über die Teilnehmenden an Weiterbildung liefern. Doch auch verschiedene Anbieterstatistiken werden von den befragten Organisationen genutzt. Dies sind insbesondere die am Deutschen Institut für Erwachsenenbildung (DIE) betreuten Anbieterstatistiken, namentlich die VHS-Statistik und die Verbundstatistik sowie die Anbieterbefragung wbmonitor (Kooperation BIBB/DIE). Darüber hinaus werden Statistiken herangezogen, die Rahmeninformationen für den Weiterbildungsbereich liefern: zum einen zur Bevölkerungsentwicklung (bereitgestellt durch das Statistische Bundesamt), zum anderen zu Entwicklungen am Arbeits- und Ausbildungsmarkt (bereitgestellt insbesondere durch die Bundesagentur für Arbeit).

Zusätzlich werden insgesamt 14 weitere Datenquellen genannt, zu denen keine Nutzung angegeben wird – es handelt sich hierbei um Quellen, die den Interviewten bekannt, aber für deren konkrete Arbeit nicht relevant sind. Sie dienen eher der Abgrenzung und Einordnung der relevanten Daten. Genannt werden unter anderem der jährliche Mikrozensus, das ebenfalls jährliche Sozioökonomische Panel und die 2010 durchgeführte leo.-Level-One Studie zur Literalität von Erwachsenen auf den unteren Kompetenzniveaus.

5.2 Themen und Modi der Nutzung

Für beide Akteursgruppen – Politik und Verbände – sind die Beteiligungsquoten an Weiterbildung von Bedeutung, d. h. die Teilnahme in unterschiedlichen Bevölkerungsgruppen, wie etwa nach Altersgruppen, Beschäftigungsstatus oder bei Zugewanderten (Abb. 2). Für die Verbände sind v. a. auch Rahmeninformationen für Weiterbildung wichtig, wie Arbeitsmarkt- und Bevölkerungsentwicklungen oder zur akademischen Bildung, wie etwa die Zahl der Studierenden. Auch Informationen zu Angebot und Nachfrage betrieblicher und beruflicher Weiterbildung sind insbesondere für die Verbände relevant. Grundkompetenzen Erwachsener, wie sie etwa durch PIAAC erhoben werden, werden eher von Akteuren aus der Politik thematisiert. Generell interessieren auch Informationen über Zielgruppen, wie z. B. Geschlecht und Altersgruppen, Geringqualifizierte, Langzeitarbeitslose. Insgesamt erscheint vor allem die berufsbezogene bzw. beruflich verwertbare Weiterbildung im Fokus der Akteure zu stehen.

Abb. 2
figure 2

Themen, zu denen Daten und Statistiken genutzt werden. (Eigene Darstellung, je größer die dargestellten Quadrate, desto häufiger werden die jeweiligen Themen benannt)

Für alle Akteure zeigt sich, dass die Datennutzung sehr selektiv und anlassbezogen ist und ausschließlich auf Berichtsebene erfolgt. Aus diesem Grund kann die Nutzung der Daten dadurch beeinflusst sein, welche Berichte zuletzt im Vorfeld der Befragung der Akteure veröffentlicht wurden (siehe Fußnoten 1–4). Es ist anzunehmen, dass diese verstärkt rezipiert werden und daher die Aussagen in den Interviews möglicherweise prägen können. Lediglich der Verband, der unter den Befragten dem Wissenschaftssystem am nächsten steht, führt eigene Auswertungen externer statistischer Daten durch. In drei Fällen werden Auswertungen von statistischen Daten von externen, mit den befragten Organisationen kooperierenden Instituten vorgenommen.

Es sind eigentlich gar nicht die Statistiken selbst, sondern es sind Berichte aus Statistiken, die wahrgenommen werden. (P4)

I: Greifen Sie auf einer Berichtsebene darauf zu oder nutzen Sie konkrete Daten?

E: Nein, nur Berichtsebene, nur und ausschließlich, ja, nur und ausschließlich. Wir haben keine eigenen Forschungskapazitäten oder sowas in der Form. (V1)

I: Und Sie nutzen da primär dann die Berichtslegung oder werten Sie auch selber aus? […]

2: Ja, also schon die aggregierten Daten beziehungsweise auch schon die Interpretationshinweise, […] also selber auswerten geht jetzt nicht über Excel-Tabelle, Fachserie, beziehungsweise Excel-Tabelle aggregierte Daten […] hinaus. (V2)

Einige Befragte berichten, dass sie bei Bedarf einzelne Zahlen aus verschiedenen Quellen heraussuchen. D. h. es werden nicht vollständige Berichte rezipiert, sondern diese werden selektiv gelesen entsprechend der jeweils aktuell zu bearbeitenden Themen.

5.3 Zwecke der Nutzung

Es lassen sich vier Zwecke oder Funktionen abgrenzen, für die Daten genutzt werden (Abb. 3). Zum einen dienen Daten 1. intern der Beobachtung von Entwicklungen in der Weiterbildung und deren Rahmenbedingungen und daraufhin 2. der evidenzbasierten innerorganisationalen und bildungspolitischen Steuerung, etwa indem Förderprojekte oder Verordnungen konzeptioniert und auf den Weg gebracht werden, um die Weiterbildung zu entwickeln und an Erfordernisse anzupassen. Zum anderen werden Daten 3. zur Entscheidungslegitimation und 4. zur politischen Kommunikation, Diskussion und Interessenvertretung gegenüber Dritten herangezogen.

Abb. 3
figure 3

Zwecke der Nutzung externer Daten. (Eigene Darstellung, je größer die dargestellten Quadrate, desto häufiger werden die jeweiligen Zwecke thematisiert)

Interne Daten werden von den jeweiligen Akteuren vor allem zur Information und Beobachtung im Sinne der Evaluation der eigenen Aktivitäten sowie der darauf aufbauenden internen organisationalen Steuerung genutzt (Angebots- und Personalplanung, Qualitätssicherung).

Bei der Nutzung externer Daten zeichnet sich ein deutlicher Unterschied zwischen politischen und verbandlichen Akteuren ab: Für die Politik stehen eher interne Motive im Vordergrund, Daten dienen primär der Beobachtung und der Steuerung. Verbände dagegen nutzen Daten stärker zur Kommunikation und Legitimation ihres Handelns nach außen.

5.4 Einschätzung der Datenqualität und Grenzen der Nutzung

Bezüglich der Einschätzung der Qualität vorhandener Weiterbildungsdaten zeigen sich gleichermaßen positive wie auch negative Urteile. Die Daten und Erhebung erfüllen aus Sicht der Befragten einen hohen Standard. Schwierigkeiten werden vor allem hinsichtlich der Vergleichbarkeit von Daten unterschiedlicher Quellen gesehen. Insgesamt ist die Kritik wesentlich ausdifferenzierter als die positiven Aussagen, wobei sich zwischen politischen Organisationen und Verbänden nur geringe Unterschiede zeigen.

Die große Bandbreite der Kritik zeigt sich z. B. deutlich hinsichtlich der Möglichkeiten und Grenzen, die von den Befragten benannt werden. Möglichkeiten werden generell kaum hervorgehoben, dagegen werden eine ganze Reihe von Grenzen aufgezeigt. Von einigen Befragten wird die Aussagekraft von Statistiken und ihr Mehrwert zur Steuerung der Weiterbildung angezweifelt. Entsprechende Aussagen stammen häufiger von politischen Akteuren. Insbesondere die wahrgenommene Uneinheitlichkeit der Daten wird immer wieder hervorgehoben, sowohl von politischen als auch verbandlichen Akteuren. Mehrfach wird auf die „Äpfel und Birnen“ verwiesen, die miteinander verglichen würden. Dies bezieht sich insbesondere auf den internationalen Vergleich, da sich die verschiedenen Systeme der Weiterbildung selbst deutlich voneinander unterscheiden. Dies mag auch ein Grund dafür sein, dass der Vergleich zwischen Staaten kaum eine Rolle spielt in der Datennutzung der Akteure (siehe Abschnitt 5.1). Aber auch auf der Ebene von nationalen Studien fehlt aus Sicht der befragten Akteure ein terminlogischer Konsens über inhaltliche Konzepte wie ganz grundlegend etwa bei dem Begriff „Weiterbildung“. Daraus folgt, dass Studien als nicht miteinander vergleichbar angesehen werden, da „unterschiedliche Antworten auf die gleichen Fragen“ produziert würden. Hierfür besteht großes Unverständnis. Ein weiterer Kritikpunkt ist, dass das Verständnis der Befunde, bspw. bezüglich der unterschiedlichen Weiterbildungsformen, abhängig sei von der Kompetenz und Vorbildung der Nutzerinnen und Nutzer. Dies ist gleichermaßen bei politischen und verbandlichen Akteuren der Fall.

Die Lösungsvorschläge oder Bedarfe, die die einzelnen Akteure aus der Kritik ableiten, unterscheiden sich aber bzw. stehen sich teilweise diametral entgegen. So etwa, wenn einige Akteuren eine alle Weiterbildungsbereiche umfassende Gesamtstatistik fordern, andere dagegen das Setzen von Schwerpunkten und eben nicht eine Erhebung aller Details als den richtigen Weg ansehen.

6 Fazit und Diskussion

Der Beitrag gibt einen Einblick in die Wahrnehmung und Nutzung von Weiterbildungsstatistik durch weiterbildungspolitische Akteure. Die Analyse zeigt auf, dass diese auf Weiterbildung bezogene Daten – zwar in unterschiedlichem Umfang, aber dennoch grundsätzlich – nutzen. Die Nutzung ist allerdings sehr selektiv, anlassbezogen und erfolgt fast ausschließlich auf Berichtsebene. Daraus folgt, dass (Kurz‑)Berichten und Reports, wie z. B. dem Nationalen Bildungsbericht, eine zentrale Bedeutung zukommt für die Akteure und letztendlich die Gestaltung von Weiterbildung durch diese Akteure. Die Datennutzung und -bewertung wird moderiert über die etablierten Formate der Berichterstattung; die dort vorgenommene Informationsaufbereitung hat somit auch das Potenzial auf weiterbildungspolitische Entscheidungen Einfluss zu nehmen. Den Entscheidungen der jeweiligen Autoren(-gruppen) zur Aufnahme und Darstellungsweise von Themenbereichen kommt dementsprechend eine hohe Bedeutung zu.

Als zentrale Schwierigkeit im Umgang mit Weiterbildungsstatistik thematisieren die Akteure Uneinheitlichkeit auf mehreren Ebenen, wie Begrifflichkeiten und Erhebungsmodi. Hieraus werden allerdings unterschiedliche Bedarfe abgeleitet. Ein weiteres Mal scheint die Bedeutung der Berichterstattung auf, die hier moderierend eingreifen kann, indem sie Datenquellen, Begriffe und Erhebungsmodi transparent macht.

Die positiven Bezüge auf und der relativ hohe Nutzungsgrad von internen Daten verweist darauf, dass diese grundsätzlich geeignet sind, die Verständigung über Ziele und Entscheidungen zu unterstützen. Ebenso genießen sie organisationsintern ein hohes Vertrauen, da sie an die Weiterbildungsrealität der Organisation sprachlich anschlussfähig sind und hohe Transparenz über den Entstehungsprozess besteht. Bei der organisationsübergreifenden Verständigung auf der Grundlage externe Daten ist diese sprachliche Anschlussfähigkeit und Transparenz nicht im gleichen Umfang gegeben. Die Daten werden zwar genutzt, jedoch mit erheblichen Sprachbarrieren, die sich aus einem terminologischen Dissens zum Weiterbildungsbegriff (Widany 2009) und dessen Ordnungsstrukturen ergibt. Die fragmentierte Datengrundlage kommuniziert und reproduziert dadurch eine fragmentierte Weiterbildungsrealität. Die integrierte Berichterstattung (Widany 2021) – also Berichte, die unterschiedliche Datenquellen in ihren Kennzahlen und Indikatoren einbeziehen – hat das Potenzial durch Systematisierungsleistungen zu einem besseren Verständnis weiterbildungsstatistischer Sprache und einer erfolgreichen Kommunikation beizutragen. Allerdings kann auch sie nur Beobachtung und Kommunikation leisten, wo Daten vorhanden sind. Eine notwendige substantielle Weiterentwicklung der Datengrundlage ersetzten sie nicht. Dies gilt insbesondere für bislang kaum statistisch abgebildete Bereiche, wie Daten zum Personal und zur Prozessqualität von Weiterbildung. Um die Metapher weiter zu bemühen, gibt es in der weiterbildungsstatistischen Sprache für diese Bereiche kaum einen Wortschatz, was die Kommunikation über die Weiterbildungsrealität erheblich einschränkt. Obwohl mit CVTS, AES und PIAAC mehrere Monitoringstudien vorliegen, deren zentrales Ziel das Benchmarking im internationalen Vergleich ist, wird diese Möglichkeit von den Akteuren kaum genutzt. Begründet wird dies in diesem Fall jedoch nicht vorrangig mit der problematischen Vergleichbarkeit der Daten, sondern der der nationalen Weiterbildungssysteme.

Die Bedingungen des Transfers von Daten und Erkenntnissen aus der Weiterbildungsstatistik in die politische und verbandliche Gestaltung von Weiterbildung sind weitestgehend unklar. Das Rezeptionsverhalten von Akteuren aus Politik und Verbänden bedarf gezielterer Forschung, um daraufhin passgenauere Transferkonzepte entwickeln zu können, so dass die Daten auch den Nutzen erzielen können, für den sie – aufwändig und kostenintensiv – erhoben werden. Fragen der Rezeption sollte dabei eingebunden werden in spezifische politische Verwendungskontexte. Die Wahrnehmung und Nutzung von Daten können hier mit dem Konzept der „democratic numeracy“ politischer Akteure (Bartl und Sackmann 2017) adressiert werden, das den professionellen Umgang mit Indikatoren und Kennzahlen als Ergebnis individueller und kollektiver Lernprozesse von Akteuren und Organisationen in jeweils spezifischen Entscheidungskontexten nachzeichnet und Hinweise für die Transfergestaltung geben kann. Je nach Kontext kann hier auch die Rolle der Wissenschaft stärker beleuchtet werden. Involvierte Wissenschaftlerinnen und Wissenschaftler bewegen sich im Rahmen der Produktion von Weiterbildungsstatistik und -berichterstattung zwischen politischem Auftrag, Erwartungen und Befürchtungen der Praxis und eigenen forschungsethischen Ansprüchen. Eine Frage wäre hier beispielsweise, inwiefern dieses Spannungsverhältnis durch die Antizipation der expliziten und impliziten Denkweisen der beteiligten Akteure in Transferprodukten durch Kommunikations- und Relationierungsleistungen berücksichtigt werden kann und sollte (Seitter 2013). In diesem Zusammenhang wären auch stärker personalisierte Transferprozesse zu untersuchen. „Knowledge Broker“, betreiben – auch auf der Grundlage von Daten – professionelle Politikberatung und erzeugen so eine neue Art des „vermittelten“ Wissens (Meyer 2010). Hier wäre zu beleuchten, wie datenbasiert diese personalisierte Vermittlung ist und welche Unterschiede zu den vermeintlich personenunabhängigen Formaten der Statistiken und Berichte in Wahrnehmung und Nutzung von Daten durch die Akteure bestehen. Geeignete methodische Ansätze wären kontrastive Fallstudien zu regionalen bzw. internationalen Fällen datenbezogener politischer Kommunikations- und Entscheidungsprozesse, bspw. im Rahmen des kommunalen Bildungsmonitoring oder institutionalisierter regionaler Weiterbildungsverbände.