Im Mai 2019 wurden die ersten Ergebnisse der Überprüfung der Grundkompetenzen (ÜGK) vorstellt. Damit wurde eine rund 20-jährige Entwicklung hin zu einem Dispositiv des nationalen Bildungsmonitorings abgeschlossen. Dessen Ursprünge reichen zurück bis in die 1960er-Jahre und zu den im Kontext der Bildungsexpansion kultivierten Vorstellungen einer rationalen Planung auf wissenschaftlichen Grundlagen. Ein für die Schweiz stets zentrales Motiv war neben der Planung die Harmonisierung der unter kantonaler Hoheit stehenden obligatorischen Schule. Beide Elemente werden im folgenden Blick auf die Bildungspolitik und die Bildungsforschung der 1960er-Jahre herausgearbeitet.

Nach dem Abflauen der Planungseuphorie und dem vorläufigen Scheitern der strukturellen Harmonisierung wurden in den 1990er-Jahren die interkantonalen Harmonisierungs- und Koordinationsbestrebungen als auch die Bemühungen um evidenzbasierte Entscheidungen wieder intensiviert. Dabei spielten auch die internationalen Entwicklungen in Richtung von Evidence-based policy im Bildungsbereich eine Rolle. Das Projekt eines nationalen Bildungsmonitorings entstand diesem Kontext. Diese Revitalisierung wird anhand von vier Projekten dargestellt: die Entwicklung internationaler bildungsstatistischer Indikatoren, die Einrichtung eines Koordinationsorgans für bildungsbezogene Forschung und Entwicklung, die ersten internationalen Schulleistungsstudien sowie das erste allgemein auf Bildung bezogene, nationale Forschungsprogramm. Mit den Indicators of education systems (INES) und der Third international mathematics and science study (TIMSS) sind zwei dieser Projekte auf internationaler Ebene angesiedelt und werden insbesondere auf die Beteiligung der Schweiz hin betrachtet. Als Gremium im Schnittfeld zwischen bildungsföderalistischer Koordination und Bildungsforschung prägte die Schweizerische Koordinationskonferenz Bildungsforschung (CORECHED) die Ausgangslage des nationalen Bildungsmonitorings sehr wesentlich mit, nicht zuletzt indem sie mit Blick auf internationale Entwicklungen Bildungsforschung soziologischer, staatsrechtlicher und ökonomischer Prägung initiierte. Das Nationale Forschungsprogramm Wirksamkeit unserer Bildungssysteme (NFP 33) schliesslich war als Impuls für die nationale Bildungsforschung in Richtung dieser internationalen Entwicklungen konzipiert.

Sowohl zeitlich als auch programmatisch ist das Programme for international student assessment (PISA) als einer der zentralen Impulse zum Aufbau des nationalen Bildungsmonitorings zu sehen. Dementsprechend werden das darin angelegte Programm sowie die internationale und nationale Ergebnislage detailliert nachgezeichnet.

Der Aufbau eines nationalen Bildungsmonitorings wurde 2001 als gemeinsames Projekt von Bund und Kantonen initiiert. Dabei spielen sowohl die angestrebte Neukonzeption der interkantonalen Zusammenarbeit als auch der durch die ersten PISA-Ergebnisse ausgelöste, bildungspolitische Handlungsdruck eine wichtige Rolle. Die dargestellte Entwicklung geht über die Konzeptphase, in der unter anderem um das Verständnis von Bildungsmonitoring gerungen wird, und die Pilotberichte hin zu den bislang drei publizierten, periodischen Bildungsberichten.

Als Abschluss der hier vorliegenden Untersuchung wird die ÜGK als finales Element eines international inspirierten und umfassend angelegten Systemmonitorings eingeordnet. Dabei wird unter anderem gefragt, inwiefern der 2019 bestehende Informationsbedarf von Praxis, Verwaltung und Bildungspolitik durch mit Leitungsdaten generierbare Erkenntnisse abgedeckt werden kann.

5.1 Bildungspolitik und -forschung der 1960er-Jahre

In den sogenannten langen 1960er-JahrenFootnote 1 erfuhren vor dem Hintergrund der Bildungsexpansion sowohl die Bemühungen zur Koordination der zumeist in kantonaler Kompetenz liegenden Bildungssysteme als auch die Bildungsforschung eine Phase beschleunigter Entwicklung. Politische Meilensteine dieser Zeit sind etwa das Schulkonkordat von 1970, die Abstimmungen zu Forschungs- und Bildungsartikel in der Bundesverfassung von 1973 oder das erste bildungsbezogene nationale Forschungsprogramm ab 1975 (Cusin, Grossenbacher & Vögeli-Mantovani, 2001; Criblez, 2008c; Herren, 2008).

„Schulkoordination sollte Ende der 1960er- und anfangs der 1970er-Jahre durch eine verbesserte Koordination zwischen den Kantonen und durch unterstützendes Wirken des Bundes erzielt werden“ (Criblez, 2008c, S. 251–252). Unter politischem Druck und der Forderung nach Harmonisierung wurden im Schulkonkordat strukturelle Eckwerte sowie eine verstärkte Harmonisierung in zahlreichen Bereichen verankert (Arnet, 2000). Parallel dazu legte der Bundesrat eine Revision des Bildungsartikels in der Bildungsverfassung vor, zusammen mit einem Forschungsartikel (Criblez, 2008c).

Die so von Bund und Kantonen angelegte, strukturelle Schulkoordination stagnierte bereits kurz nach der Verabschiedung des Schulkonkordats. Kritische Ereignisse dabei waren die Nicht-Einführung des Herbstschulbeginns in den Kantonen Zürich und Bern 1972 sowie das Scheitern des nationalen Bildungsartikels 1973 am Ständemehr (Arnet, 2000; Manz, 2011). Als Reaktion darauf wurden Koordinationsbemühungen der Kantone bereits in den 1970er-Jahren nicht mehr als strukturelle Harmonisierung, sondern als „innere Schulkoordination im Sinne einer Förderung des Schulwesens – entsprechend Artikel 3 des Konkordats – “ (EDK, 1977/1995c, S. 51) vorangetrieben (Badertscher, 1997).

Parallel zu den quantitativen Anforderungen an Bildungssysteme entwickelte sich in den 1960er-Jahren in den westlichen Industriestaaten eine gesellschaftliche Debatte rund um die Funktion der Bildung und den Zugang dazu, in Deutschland etwa festzumachen an den Publikationen von Picht (1965) und Dahrendorf (1966) (vgl. Abschn. 3.4). Diese Diskussion wurde begleitet von der Vorstellung einer wissenschaftlichen Bearbeitung dieser Themen und geführt vor dem Hintergrund einer steigenden Reformnotwendigkeit. Insbesondere die ebenfalls wachsenden Bildungsverwaltungen sollten „im Zuge der Versozialwissenschaftlichung der Gesellschaft auf rationaler Grundlage“ (Criblez, 2002, S. 435) operieren und artikulierten eine steigende Nachfrage nach wissenschaftlichem Support (Criblez, 2007b). Die Bildungsforschung erfuhr vor diesem Hintergrund einen deutlichen Ausbau. Dieser erfolgte durch quantitative und qualitative Veränderungen der Erziehungswissenschaft als akademische Disziplin. Unter anderem löste sich die Erziehungswissenschaft zunehmend als eigenständige Disziplin aus der Philosophie heraus und initiierte zugleich eine funktionale Trennung zwischen Disziplin und Lehrerbildung (Criblez, 2015). Parallel dazu erwuchs der universitären Erziehungswissenschaft Konkurrenz vonseiten der ab 1965 innerhalb der Verwaltung entstehenden, kantonalen Bildungsplanungsstellen (Criblez, 2002). Diese verwaltungsinternen, politikorientierten Arbeitsstellen erschienen als neuer und innovativer Organisationstyp und veränderten das Verhältnis zwischen universitärer und ausseruniversitärer Bildungsforschung nachhaltig indem politik- und verwaltungsnahe, entscheidungsorientierte Bildungsforschung bewusst vorangetrieben und gefördert wurde (Gretler, 2001).

Im Rahmen der Bemühungen um eine nationale Hochschul- und Wissenschaftspolitik wurde die Koordination der Forschungstätigkeiten der Hochschulen, wie sie etwa die sogenannte Kommission Labhardt 1964 vorschlug, intensiv vorangetrieben (Herren, 2008). Ende der 1960er-Jahre forderte der 1965 vom Bundesrat geschaffene Schweizerische Wissenschaftsrat (SWR) mehrmals und explizit den Auf- und Ausbau von Koordination und Förderung der noch sehr dezentral organisierten Bildungsforschung (Gretler, 1997; Criblez, 2007b). Die Zusammenarbeit in der Bildungsforschung im Sinne einer anwendungs- und politikorientierten Forschung fand unter anderem Eingang in die Koordinationsbereiche des Schulkonkordats (Arnet, 2000). Zu diesem Zweck wurde 1969 zunächst eine Koordinationsstelle in gemeinsamer Trägerschaft der Schweizerischen Konferenz der kantonalen Erziehungsdirektoren (EDK) und des Kantons Aargau eingerichtet, die ab 1974 in die geplante aber nie realisierte Aargauer Hochschule für Bildungswissenschaften integriert werden sollte. 1974 wurde die Koordinationsstelle als Schweizerische Koordinationsstelle für Bildungsforschung (SKBF) neu konzipiert und letztere als gemeinsame Institution von Bund und Kantonen gegründet. Ihre Kernaufgaben lagen in der Registrierung und Dokumentation von Projekten der Bildungswissenschaften, der Netzwerkbildung sowie der Identifikation bildungspolitisch relevanter Themen (Gretler, 1997; Grossenbacher, 2016).

Die Forschungsförderung auf nationaler Ebene erfuhr durch den 1973 in einer Volksabstimmung angenommenen Forschungsartikel in der Bundesverfassung einen Wandel: Der 1952 gegründete Schweizerische Nationalfonds (SNF) förderte davor primär Grundlagenforschung. Daneben konnte die Förderung der praxisorientierten Forschung, für die die 1944 gegründete Kommission zur Förderung der wissenschaftlichen Forschung (KWF) zuständig war, nicht mit dem stark zunehmenden Bedarf und dem Interesse an gesellschaftlich und politisch relevanter Forschung mithalten. Mit dem Forschungsartikel wurde das Instrument der Nationalfondsprogramme geschaffen, das es dem SNF ermöglichte, gezielt auf bestimmte Forschungsziele hin ausgerichtete Forschung zu fördern (Herren, 2008). Ebenfalls 1973 definierte der SWR die Bildungsforschung als einen von vier Forschungsbereichen, in denen durch besondere Fördermassnahmen Impulse zur intensiveren Weiterentwicklung der sogenannten orientierten Forschung gegeben werden sollten (Fricker, 2001). Legitimiert wurde diese forcierte Förderung der Bildungsforschung durch die besondere Bedeutung von Bildung „für die künftige Entwicklung eines hochindustrialisierten Landes und für das Wohlergehen seiner Bevölkerung“ (SWR, 1973, zit. nach Grossenbacher, 2016, S. 444). Konkrete Produkte dieser nationalen Förderung und Koordination der Bildungsforschung waren die Gründung der Schweizerischen Gesellschaft für Bildungsforschung (SGBF) 1975 und das erste bildungsbezogene Nationalfondsprogramm zur Berufsbildung (NFP 10) (Criblez, 2007b).

Nicht zuletzt vor dem Hintergrund internationaler und disziplinärer Entwicklungen, dem Eintreten der Wirtschaftskrise sowie einer Ernüchterung bezogen auf die Möglichkeiten wissenschaftlicher Planung und Politikberatung folgte auf die Etablierung und Intensivierung sozialwissenschaftlicher Bildungsforschung, insbesondere auch mit ausser"-universitärer, verwaltungsnaher Prägung, eine Latenz- oder Konsolidierungsphase bis Ende der 1980er-Jahre (Criblez, 2007b; Bottani, 1990; Grossenbacher, 2016; Zedler, 2013). Was Fricker (2001) für die Aargauer Hochschule festhält, galt sicher auch für die in den 1960er-Jahren angestossene Dynamisierung von Koordination, Planung und Forschung im Bildungsbereich: „Konnte man in den sechziger Jahren noch füglich von einer gewissen Bildungseuphorie sprechen, setzte das veränderte wirtschaftliche Umfeld im nächsten Jahrzehnt visionären Gedanken enge Grenzen“ (S. 119). Die innovative Vorstellung einer Durchdringung administrativer und bildungspolitischer Prozesse mit Information und Wissenschaft scheiterte nicht zuletzt am komplexen Gefüge der Gegenstände und den bestehenden, von politischen und professionsbezogenen Durchsetzungskräften durchzogenen Konstellationen, gegenüber denen gerade die verwaltungsnahen Arbeitsstellen keine Autonomie reklamieren konnten (Rothen, 2016).

Sowohl die Erziehungswissenschaft als auch die Bildungspolitik veränderten sich im Kontext der Bildungsexpansion bzw. während der sogenannten langen 1960er-Jahre. Die Erziehungswissenschaft in der Schweiz wurde quantitativ und qualitativ gewandelt und erfuhr – zumindest teilweise – als Bildungsforschung erhöhte politische Aufmerksamkeit und Förderung. Die Bildung wurde als zentrales Element einer an Rationalitäts- und Wissenschaftsmassstäben ausgerichteten Politikgestaltung, auch im Sinne eines Wettbewerbsfaktors, identifiziert. Die Planung einer koordinierten Expansion stand als gemeinsames Motiv von Bund und Kantonen im Vordergrund. Die international verbreitete Vorstellung von Wachstum und Prosperität durch rationale, zielorientierte Planung im Bildungsbereich beeinflusste die beschriebenen Entwicklungen in der Schweiz (vgl. Abschn. 3.4). Dass die Dynamik sich in den 1970er-Jahren nicht im gleichen Masse fortsetzte und auf die sogenannte Planungseuphorie Ernüchterung folgte, wird unter anderem auf die weltweite Wirtschaftskrise, die auf verschiedenen Ebenen nicht erfüllten Hoffnungen in Bildungsforschung, -planung und -koordination sowie auf einzelne Schlüsselentscheidungen wie etwa den 1973 abgelehnten Bildungsartikel in der Bundesverfassung oder die Schwierigkeiten rund um die Harmonisierung des Schuljahresbeginns zurückgeführt. Die anschliessende Phase ist nicht als eine Phase der Inaktivität zu charakterisieren. Vielmehr verlagerten sich die Schwerpunkte in verschiedener Hinsicht weg von der Systemebene hin zu Bildungs- und Harmonisierungsprozessen auf anderen Ebenen. Die im Hinblick auf das nationale Bildungsmonitoring relevanten Denkanstösse und insbesondere die damit verbundenen Vorstellungen der durch Forschung und Planung unterstützten, bildungspolitischen Gestaltung auf der Systemebene wurden nicht grundsätzlich zurückgewiesen oder revidiert, sondern blieben in diesem Sinne latent.

5.2 Revitalisierung in den 1990er-Jahren

Beginnend in den späten 1980er-Jahren erfolgte eine erneute Intensivierung sowohl der interkantonalen Harmonisierungs- und Koordinationsbestrebungen als auch der Bemühungen um evidenzbasierte Entscheidungen im bildungspolitischen Bereich. Diese Intensivierung entstand einerseits im Kontext einer stärkeren internationalen Perspektive auf die durch Bildungsforschung begleitete Steuerung von Bildungssystemen wie sie beispielsweise im ersten OECD-Examen zur Schweizer Bildungspolitik eingenommen wurde (Silvestre, 1990). Gretler (1991b, S. 5) etwa stellte „nach jahrzehntelanger mehr oder weniger ausgeprägter Igelstellung [...] in der schweizerischen Bildungspolitik eine Reihe hoffnungsvoller Zeichen der Öffnung“ fest und bezog sich dabei auf die Beteiligung der Schweiz an internationaler Bildungsforschung ebenso wie auf die internationale und interkantonale Bildungspolitik. Andererseits entstanden, unter anderem markiert durch die Lösung des Konflikts beim Schuljahresbeginn 1985, im Bereich der Koordination und Harmonisierung neue Möglichkeiten, verstärkte Aktivität und damit ein „Ausbruch aus der inneren Reform“ (Badertscher, 1997, S. 217).

Ausgehend von einer 1990 initiierten systematischen Überprüfung des Schulkonkordates, war diese revitalisierte Koordination im Bildungsraum Schweiz sehr viel deutlicher auf die Sekundarstufe II und die Tertiärstufe fokussiert als dies noch in den 1960er-Jahren der Fall gewesen war (Criblez, 2008c; EDK, 1991/1995a; Hega, 2000). Für die Sekundarstufe II wurde die 1993 verabschiedete Vereinbarung über die Anerkennung von Ausbildungsabschlüssen zum Grundstein für die weitere Harmonisierung (EDK & GDK, 2015). Auf der Tertiärstufe wurde im gleichen Jahr der Aufbau der Fachhochschulen sowie die Tertiarisierung der Ausbildung von Lehrpersonen für die Volksschule mittels entsprechender Thesen oder Empfehlungen initiiert (Badertscher, 1997; EDK, 1993, 1993/1995d). Für die Bildungsstufen der Volksschule wurden 1991 zudem gemeinsame Lehrplangrundlagen sowie die Struktur der Sekundarstufe I als Harmonisierungsprojekte bekräftigt (EDK, 1991/1995a). Insbesondere die Bestrebungen im Bereich der gesamtschweizerischen Anerkennung von Ausbildungsabschlüssen sind in einem internationalen Kontext zu sehen: Durch die politische Positionierung der Schweiz gegenüber dem zusammenwachsenden Europa und konkret im Vorfeld der Volksabstimmung, in der sich die Schweiz 1992 gegen den Beitritt zum Europäischen Wirtschaftsraum (EWR) entschied, wurden Strukturprobleme offenbar. Insbesondere die Strukturen der Sekundarstufe II sowie der Tertiärstufe erfüllten kaum die Voraussetzungen für eine internationale Anerkennung (Arnet, 1990; Criblez, 2007a). Nach dem EWR-Nein mussten zudem für die europäische Bildungszusammenarbeit und die internationale Diplomanerkennung alternative Lösungen gefunden werden (EDK & GDK, 2015).

Die revitalisierte Koordination stand im Kontext einer angespannten Finanzlage des Bundes und vieler Kantone. Diese wirtschaftlichen Schwierigkeiten und die nur zurückhaltend erfolgte, strukturelle Harmonisierung des Bildungswesens rückten in den Fokus politischer Diskussionen.

„Auch wenn weiterhin in politischen Absichtserklärungen der Bildung Priorität eingeräumt, Bildung als Investition in die Zukunft bezeichnet und als entscheidender Faktor für die wirtschaftliche Wettbewerbsfähigkeit erachtet wird, so erfolgen doch auf der anderen Seite im politischen Alltag Sparmassnahmen, Leistungsabbau und finanzielle Beschränkungen. [...] Hier sieht sich also das Bildungswesen zusätzlich zu der Forderung nach Veränderung oder Verbesserung des Outputs – also der Effektivität – mit der Tatsache stagnierender oder gar sinkender öffentlicher Ressourcen konfrontiert. Das Thema der Effizienz rückt in der bildungspolitischen Agenda der 90er Jahre weit nach vorne.“ (Gilomen, 2000, S. 243)

Mit der bildungspolitischen Sensibilität für den Einsatz der knappen Mittel verbunden war die Forderung nach entsprechenden wissenschaftlichen Entscheidungs und Gestaltungsgrundlagen. Im Fokus stand dabei insbesondere der mögliche Beitrag bildungsökonomischer Ansätze.

In ihrem Tätigkeitsbericht für die Jahre 1989 und 1990 konstatierte die SKBF eine stark zunehmende Beteiligung der Schweiz an internationalen Projekten der Bildungsforschung und -evaluation. Die Beteiligung war aber selten eine nationale oder gesamtschweizerische, sondern die Schweiz wurde repräsentiert durch die jeweils interessierten Kantone und Forschungsorganisationen. Klare, gesamtschweizerische Entscheidungs- und Finanzierungsstrukturen fehlten und die Beteiligungen mussten projektbezogen und innerhalb der interessierten Organisationen organisiert und finanziert werden (SKBF, 1991). Spätestens ab 1990 war in vielen Kantonen sowie innerhalb der EDK eine erhöhte Aufmerksamkeit für die internationalen Trends der Bildungsforschung festzustellen. Diese Aufmerksamkeit entstand vor dem Hintergrund der Revitalisierung der internationalen Bildungsforschung einerseits sowie der erwähnten, zunehmenden Ausrichtung von Politik und Verwaltung an Rationalitätsmassstäben im Kontext der angespannten Finanzlage andererseits. Die bildungsökonomischen Ansätze in Neo-Liberalismus und New public management (NPM) passten gut in diesen Kontext (Gretler, 2000; Hangartner & Svaton, 2013).

„International gesehen richtete sich das Augenmerk von Politik und Forschung zunehmend auf Qualität, Wirkungen und Ergebnisse von Bildungsprozessen. Der Qualitätsdiskurs und der allgemeine Trend zur Rechenschaftslegung steigerten den Bedarf an wissenschaftlich fundierten Evaluationen von Programmen, Institutionen und Systemen.“ (Grossenbacher, 2016, S. 443)

Der Aufbau entsprechender Projektstrukturen und Monitoring-Dispositive war teilweise durch ähnliche Zielsetzungen, Grundvorstellung und auch durch ein ähnliches Instrumentarium gekennzeichnet, wie die beschriebenen Entwicklungen in der Bildungspolitik und -forschung der 1960er-Jahre (Weiss, 2001).

Ein Beispiel solcher politiknaher und entscheidungsorientierter Forschung war die Untersuchung des abteilungsübergreifenden Versuchs auf der Oberstufe im Kanton Zürich mittels Daten von Schulleistungsstudien und entlang von Qualitätsbegriffen (U. Moser, 1997; U. Moser & Rhyn, 1999). Diese Untersuchung stellte einen der ersten Versuche dar, mit Leistungserhebungen bildungspolitische Problemstellungen auf der Systemebene zu bearbeiten und Gestaltungsentscheidungen – im konkreten Fall zur Struktur der Sekundarstufe I – zu begründen.Footnote 2 Damit repräsentiert sie exemplarisch den höheren Bedarf der kantonalen Bildungsverwaltungen nach sogenanntem Steuerungswissen. Diesem hohen Bedarf nach Steuerungswissen konnte zunächst nicht entsprochen werden. Dementsprechend wurde im OECD-Examen zur Schweizer Bildungspolitik das „zur Verfügung stehende Instrumentarium auf dem Gebiet der Reflexion, der Analyse, der Prospektive und der Prognose als ungenügend erachtet“ (Gretler, 1991a, S. 132). Die Bildungsforschung rückte im Zuge dieser Entwicklungen stärker in den bildungspolitischen Fokus von Bund und Kantonen. Konkret wurden an den Universitäten Bern, Zürich und Basel dezidierte Forschungsabteilungen geschaffen, die Zahl privater Forschungsorganisationen im Bildungsbereich stieg markant an und die verwaltungsinternen Forschungsstellen wurden teilweise umstrukturiert und neu positioniert (Gretler, 2001). Die kantonsübergreifende, gesamtschweizerische Koordination im Bereich der Bildungsforschung erfuhr ebenfalls eine Intensivierung, und zwar sowohl innerhalb bestehender, akademischer Organe wie der SGBF oder der SGAB als auch durch die Gründung der beiden Koordinationskonferenzen Schweizerische Koordinationskonferenz Bildungsforschung (CORECHED) und Schweizerische Konferenz der Arbeitsstellen für Schulentwicklung und Bildungsforschung (CODICRE) (Gretler, 2000, 2001).

Die Entwicklungen der Revitalisierung von harmonisierter Bildungsgestaltung und politikbezogener Bildungsforschung der 1990er-Jahre wird im Folgenden anhand von vier Entwicklungen dargestellt: (1) Ein wesentlicher Ausdruck der internationalen Perspektive waren die sogenannten Bildungsindikatoren mit denen auf internationaler Ebene eine vergleichbare Darstellung einzelner Elemente von Bildungssystemen auf statistischer Grundlage angestrebt wurde. Die Beteiligung der Schweiz am Projekt INES dokumentiert zudem die Forderung nach politisch nutzbaren Informationen zum Bildungssystem. (2) Anschliessend wird die Geschichte der CORECHED als eines der beiden Gremien der gesamtschweizerischen Auseinandersetzung mit Bildungsforschung präsentiert. (3) Als eine der ersten internationalen Schulleistungsstudien mit Beteiligung der Schweiz und zugleich als ein wichtiger Ursprung der Gründung der CORECHED steht dann TIMSS im Fokus. (4) Die politische Setzung von Themen und Forschungsbereichen auf nationaler Ebene erfolgte ab den 1970er-Jahren über die sogenannten nationalen Forschungsprogramme. Nicht zufällig wurde mit dem NFP 33 in den 1990er-Jahren das erste Programm im Bereich der Bildungsforschung lanciert.

Die Ausführungen zur Revitalisierung münden in einem vorläufigen Fazit. Vorläufig ist es insbesondere deshalb, weil ab Ende der 1990er-Jahre die Entwicklung eines nationalen Bildungsmonitorings auf der Grundlage der Revitalisierung der 1990er-Jahre erst initiiert wurde.

5.2.1 Internationale Bildungsindikatoren

Die Organisation for economic co-operation and development (OECD) initiierte 1988 das Projekt Indicators of education systems (INES). Damit sollte unter anderem der Forderung einiger der damals 24 Mitgliedstaaten nach einer Basis für internationale Vergleiche der Qualität ihrer Bildungssysteme entsprochen werden. Diese Vergleichsbasis wurde etwa von den USA zur Legitimierung angestrebter Bildungsreformen eingefordert (Langer, 2008b; Martens & Wolf, 2009). Das Vergleichsmotiv war allerdings nur ein Element in der Zweckdefinition des Indikatorenprojekts. Neben dem Vergleich sollte INES die Indikatorenentwicklung an sich sowie die mittelfristige Veränderung von Steuerungsmechanismen über internationale Indikatorensysteme anstossen (Bottani, 1990).

Aufbauend auf Entwicklungen in den 1960er-Jahren (vgl. Abschn. 3.1) und angeregt durch grosse Mitgliedstaaten wie die USA und Frankreich wurden in den 1980er-Jahren die Entwicklungen in diesem Bereich in Richtung international vergleichbarer Indikatoren vorangetrieben (Martens & Wolf, 2006). Diese sollten zunächst fünf und dann später vier Themenbereiche abdecken (Bottani, Tuijnman & Duchêne, 1993; Bottani, 1990): (1) Schülerleistungen und erreichte Qualifikationen, (2) Bildungsverläufe und Arbeitsmarkteintritte der Schülerinnen und Schüler, (3) Rahmenbedingungen von Schulen und Charakteristika der Bildungssysteme sowie (4) gesellschaftliche Haltungen und Erwartungen. Die konkreten Indikatoren wurden ab 1989 durch vier international zusammengesetzte Expertennetzwerke entwickelt (Bottani, 1990). Im September 1991 wurde das Indikatorenmodell, das der ersten Publikation der Bildungsindikatoren zugrunde lag, anlässlich der dritten INES-Konferenz in Lugano verabschiedet (Bottani et al., 1995). Dieser erste Bericht trug den Titel Education at a glance und wurde 1992 publiziert (Bottani, Duchêne & Tuijnman, 1992). Er enthielt die Auswertungen zu den rund 50 Bildungsindikatoren, „begleitet von ausführlichen Analysen der begrifflichen und technischen Probleme, mit denen die Entwicklung der Indikatoren und die Möglichkeiten ihres Gebrauchs und Missbrauchs in der Bildungspolitik und der Bildungsplanung konfrontiert waren“ (Papadopoulos, 1994/1996, S. 222). Auf die erste Publikation folgten 1993 und ab 1995 im Jahresrhythmus weitere Ausgaben von Education at a glance (Bottani et al., 1993, 1995).

Das INES-Indikatorenmodell, die Daten und die Berichtspublikationen wurden bereits in den 1990er-Jahren intensiv evaluiert und weiterentwickelt. Die Weiterentwicklung fokussierte die vergleichende Beschreibung der Strukturen der nationalen Bildungssysteme sowie die Erweiterung der Datenbasis im Bereich der Schülerleistungen als Indikatoren für den Output der Bildungssysteme. Unter anderem legitimiert durch den Erfolg von INES übernahm die OECD die Weiterentwicklung der International system of educational classification (ISCED) von der United nations educational, scientific and cultural organization (UNESCO) (Martens & Wolf, 2009). Für die Education at a glance-Publikation von 2000 war das Indikatorenmodell entlang der neu entwickelten Klassifikation der Bildungsgänge (ISCED 97) strukturiert (OECD, 2000). Als Output-Indikatoren wurden in INES bis 2001 die Ergebnisse ausgewählter Leistungserhebungen wie etwa TIMSS verwendet. Da diese Erhebungen nicht von der OECD verantwortete wurden, sondern von Organisationen wie der International association for the evaluation of educational achievement (IEA), konnten sie nicht oder nur punktuell auf die Erfordernisse ihrer Verwendung in INES adaptiert werden. Im Bestreben, die jeweils besten verfügbaren Daten zu referenzieren, wurden deshalb das Indikatorenmodell bzw. die entsprechenden Indikatoren immer wieder der Datenlage angepasst und neu definiert (OECD, 2001). Gerade für die bildungspolitisch interessierenden Outputdaten konnte damit keine Stabilität im Indikatorenmodell erreicht werden. Diese Praxis wurde sowohl von den Mitgliedstaaten als auch OECD-intern immer wieder kritisch beurteilt (Bottani, 1996). Mit der Lancierung von PISA 1997 und den ersten Ergebnissen 2001 wurde diese Datenlücke geschlossen und das Ziel einer in möglichst allen Bereichen stabilen und durch die OECD verwalteten Datenbasis realisiert (Schleicher et al., 2002).

In der ersten Publikation von Education at a glance wurden nicht nur die Indikatoren präsentiert, sondern auch die drei Prinzipien, die bei der Entwicklung der Indikatoren leitend waren (Bottani et al., 1992): (1) Mit INES wurden bildungsstatistische Informationen auf internationaler Ebene als relevant für die politische und insbesondere auch die öffentliche Bearbeitung von Bildung und Schule proklamiert. An ein breites Publikum gerichtet sollten die Indikatoren in öffentliche Debatten auch ausserhalb der Bildungsverwaltung einfliessen. (2) Durch die Konzentration auf wenige, programmatisch und pragmatisch ausgewählte Indikatoren sollte relevantes Steuerungswissen generiert werden. (3) Über die internationale Vergleichbarkeit sollte eine Art Bildungswettbewerb erst ermöglicht werden.

Die Schweiz war an INES in vielerlei Hinsicht aktiv beteiligt. Mit dem Erziehungswissenschaftler Norberto BottaniFootnote 3 lag die Projektleitung bis 1997 in Schweizer Händen. In der sogenannten Advisory group war die Schweiz mit Walo Hutmacher vom Service de la recherche en éducation (SRED) in Genf vertreten. Die Position des nationalen Projektkoordinators hatte Heinz Gilomen vom Bundesamt für Statistik (BFS) inne. In den verschiedenen Netzwerken und Expertengruppen wirkten an den ersten beiden Publikationen acht weitere Personen als Vertreterinnen und Vertreter der Schweiz mit, darunter Sigfried Hanhart und Maria Schubauer-Leoni von der Universität Genf, Paul Amacher und Anna Borkowsky vom BFS, Jacques Prod’hom von der Schweizerischen Dokumentationsstelle für Schul- und Bildungsfragen (CESDOC), Uri Peter Trier von der Zürcher Bildungsplanung und Eugen Stocker von der Unité de recherche pour le pilotage des systèmes pédagogiques (URSP) in Lausanne (Bottani et al., 1992, 1993).

Das BFS erstellte 1992 erstmals eine statistische Zusammenstellung zum Schweizer Bildungssystem, die sich explizit an den internationalen Entwicklungen in Richtung der Bildungsindikatoren orientierte. Anlass dieser Publikation mit dem Titel Bildungsmosaik Schweiz war die Rolle der Schweiz bzw. des BFS als Gastgeberin der INES-Konferenz von 1991. Inhaltlich wurde versucht, den bildungsstatistischen Datenbestand möglichst über alle Bildungsstufen hinweg nutzbar zu machen. Zwar konnte das eigentliche Indikatorenmodell der OECD nicht umgesetzt werden, die Beiträge im Bildungsmosaik sollten trotzdem die Verhältnisse in der Schweiz einer internationalen Leserschaft bekannt machen und zugleich das Potenzial der bestehenden statistischen Daten zum Schweizer Bildungssystem dokumentieren. Als Fokusthema wurde die Frage der Chancengleichheit bezogen auf Geschlecht und Nationalität vertieft untersucht und dargestellt (Costa et al., 1992). Der Pilotpublikation liess das BFS 1995, 1999 und 2007 weitere Übersichtspublikationen mit Bildungsindikatoren folgen (Ryser & von Erlach, 2007).

Die Beteiligung der Schweiz an INES zeigt deutlich zwei Elemente der zunehmend internationalen Ausrichtung von Bildungsgestaltung und Bildungsforschung in den 1990er-Jahren: (1) Die internationale Ebene wurde nicht nur diskursiv und als Legitimationsfolie wichtig. Vielmehr sollte – im Stile der USA und Frankreichs – die internationale Perspektive auch in der Schweiz nationale und gesamtschweizerische Entwicklungen katalysieren und vorantreiben. Dabei waren Vergleichbarkeit und der Vergleich als Kommunikationsform bedeutsam. Dass dies insbesondere auf der Ebene einer stark bildungsökonomisch geprägten Ausrichtung an systematisch aufbereiteten Daten und Informationen so gut funktionierte, war im Kontext knapper öffentlicher Finanzen kein Zufall. (2) Die Schweizer INES-Mitarbeit unter Führung des BFS und mit Beteiligung einer kleinen Gruppe von Expertinnen und Experten dokumentiert zudem den vorsichtigen Eklektizismus, der den Beteiligungen an internationaler Bildungsforschung innewohnte.

In der Kombination dieser beiden Elemente illustriert die Beteiligung der Schweiz an INES gut, wie eine kleine Gruppe zentraler Akteure der nationalen und kantonalen Bildungsforschung und Bildungsstatistik die in INES angelegten Kernprinzipien mitentwickelte und – unter anderem über das Bildungsmosaik – in die Art der Aufbereitung und Präsentation von datenbasierten Entscheidungsgrundlagen für die Bildungspolitik oder – wie es im aktuellsten Bildungsmosaik sinngemäss formuliert war (Ryser & von Erlach, 2007) – in die Anstrengungen zur Deckung der Nachfrage nach Informationen zu Strukturen, Funktions- und Wirkungsweisen des Bildungssystems transferierte.

5.2.2 Schweizerische Koordinationskonferenz Bildungsforschung

Bereits bei ihrer Gründung 1991 vereinte die Schweizerische Koordinationskonferenz Bildungsforschung (CORECHED) verschiedene an Bildungsforschung interessierte und beteiligte Akteure. Politische Vertreter von Bund und Kantonen hatten ebenso Einsitz wie Akteure der Bildungsforschung innerhalb und ausserhalb der Universitäten (Criblez, 2001b; Gretler, 2001; Weiss, 2001). Die bildungspolitischen Akteure reagierten mit der Gründung der CORECHED primär auf die fehlenden Entscheidungsstrukturen, die Akteure der Bildungsforschung, vertreten durch die SGBF, primär auf die Stagnation der Forschung im Bildungsbereich. Letztere wurde auch auf die längerfristigen Folgen der Verfassungsabstimmungen von 1973 zurückgeführt: „Das Bildungswesen also Sache der Kantone, die Forschung Sache des Bundes und Bildungsforschung zwischen Stuhl und Bank?“ (SKBF, 1993, S. 9).

Mit der CORECHED sollte den Forderungen nach einer Intensivierung der Forschung in den Bereichen System- und Leistungsevaluation, Organisationsentwicklung, Qualitätssicherung, Berichterstattung, Steuerung und Regulierung sowie Politikevaluation entsprochen werden (Cusin et al., 2001). Sie sollte sich mit dem zunehmenden Bedarf nach internationalen, gesamtschweizerischen und überregionalen Forschungsprojekten auseinandersetzen und zugleich eine nationale Bildungsforschungspolitik und die Koordination der Bildungsforschung interkantonal und zwischen Bund und Kantonen gewährleisten (SKBF, 1993). Inhaltlich definierte sie ihr Arbeitsprogramm 1994 mit der Formulierung der Leitlinien zur Entwicklung der Bildungsforschung. Dieses Programm wies drei Schwerpunkte auf (CORECHED-Mandat, 1993; EDK, 1995b): (1) Zur Bildungsforschung in der Schweiz sollte eine periodische Berichterstattung konzipiert und initiiert werden. (2) Der inhaltliche Fokus der Bildungsforschung sollte auf der bildungsökonomischen Forschung liegen. (3) Nationale Bildungsforschungsprojekte sollten aufgegleist und die Teilnahme an internationalen Projekten forciert werden.

Die inhaltliche Bestimmung der künftigen, inhaltlichen Entwicklungsrichtungen der Bildungsforschung in der Schweiz war stark auf die im internationalen Kontext verbreiteten, soziologischen, staatsrechtlichen und ökonomischen Betrachtungsweisen und auf den Ausbau von System- und Leistungsevaluation, Organisationsentwicklung, Qualitätssicherung, Steuerung, Regulierung, Monitoring und Reporting ausgerichtet. Die Zusammenarbeit im Rahmen internationaler Bildungsforschung sollte es den Bildungsforschungsorganisationen erlauben, international anschlussfähig zu bleiben und andererseits bildungspolitisch relevante Erkenntnisse generieren. Dies umfasste sowohl die politischen Organisationen Europarat, Europäische Union (EU), OECD und UNESCO als auch die wissenschaftlichen Organisationen wie etwa die IEA oder später die European educational research association (EERA). In den Leitlinien explizit genannt wurden vor allem die indikatorenbasierte, vergleichende Bildungsstatistik sowie die Systemleistungsvergleiche (CORECHED, 1995).

Die Schweizer Beteiligungen an internationalen Bildungsforschungsprojekten waren in den ersten Jahren der CORECHED die dominierenden Diskussionsthemen (Landert 1997). Darunter sind etwa die anfangs der 1990er-Jahre initiierten IEA-Projekte zur Civic education und zur Language education zu nennen. Ersteres wurde mit der Veröffentlichung des nationalen Berichtes 1997 abgeschlossen. An letzterem wurde 1996 die Beteiligung der Schweiz zurückgezogen. Auch die Schweizer Beteiligung an TIMSS sowie an den ab 1999 auf nationaler Ebene durchgeführten Vertiefungsstudien waren bei der CORECHED angesiedelt. Ein wichtiges Projekt war der International adult literacy survey (IALS) der OECD, dessen erster Durchlauf 1996 mit der Veröffentlichung der Schweizer Ergebnisse abgeschlossen wurde. Andere in der CORECHED diskutierte OECD-Projekte beschäftigten sich mit den Übergängen ins Berufsleben, der Informationsgewinnung zur Organisation und Steuerung der Sekundarstufe II, der Frühkindlichen Erziehung oder der Erwachsenenbildung (EDK, 1995b, 1996, 1997, 1998b, 1999a, 2000, 2001a).

Die CORECHED war das Gremium, das sich innerhalb der EDK um die Vorbereitungen der ersten Durchführung von PISA kümmerte. 1998 konnte sie im EDK-Jahresbericht folgendes vermelden:

„Die Beteiligung der Schweiz an der Messung der Kenntnisse der 15-Jährigen wurde erfolgreich gesichert und die Projektleitung etabliert. Kompetenzmessungen werden von nun an regelmässig durchgeführt. Die Schweiz ist mit ihrer ausgereiften Curriculumentwicklung führend an der konzeptionellen Planung der Kompetenzmessungen beteiligt.“ (EDK, 1999a, S. 40)

Die CORECHED hat, nicht zuletzt aufgrund ihrer Ausrichtung auf bildungsökonomische Themen, die Teilnahme der Schweiz an den internationalen Schulleistungsstudien massgeblich angestossen (Denzler-Schircks, 2006a). Insgesamt wird ihr in den 1990er-Jahren eine sehr zentrale Rolle in der Beteiligung an und der Rezeption von internationalen Projekten der Bildungsforschung zugesprochen (Gretler, 2000). Allerdings wurden für PISA – und später auch für weitere Projekte mit organisatorischem und thematischem Bezug zur CORECHED – spezifische, nationale und sprachregionale Organisationsstrukturen aufgebaut und die nationale Projektleitung im BFS angesiedelt (McCluskey, 2000; EDK, 2000; vgl. Abschn. 5.3).

In Ergänzung des NFP 33 (vgl. Abschn. 5.2.4), das die CORECHED ebenfalls verfolgte, initiierte sie zwei eigene Projekte mit bildungsökonomischem Schwerpunkt: (1) In Zusammenarbeit mit dem BFS und der Universität St. Gallen wurde 1996 ein Projekt zu Kostenrechnungsmodellen für Bildungsinstitutionen initiiert (EDK, 1997). Im 1998 veröffentlichten Expertenbericht wird deutlich, dass auf internationaler Ebene, bildungsökonomisch inspirierte Kosten- und Leistungsrechnungen oft mit der Einführung wettbewerbsorientierter Steuerungsmechanismen einhergingen. In der Schweiz dagegen würde dagegen der Informationscharakter solcher Kostenmodelle betont, unabhängig von den bildungspolitischen Entscheidungs- und Steuerungsmechanismen. Das erarbeitete Modell basierte auf Kostenarten, Leistungsgruppen, Bildungsstufen und Organisationseinheiten als primäre Gliederungselemente. Es sollte in seiner abstrakten Grundform anwendbar sein von der Ebene der Gemeinde bis hin zum Bund sowie über alle Bildungsstufen hinweg (Schedler et al., 1998). Die Modellvorschläge wurden ab 1998 rege diskutiert und in verschiedenen Kantonen sowie gesamtschweizerisch für die Fachhochschulen aufgenommen (EDK, 1999a). (2) Vor dem Hintergrund der Ende der 1990er-Jahre intensivierten Untersuchungen zum Stand der Bildungsforschung in der Schweiz lancierte die CORECHED 2000 eine Untersuchung der finanziellen Ressourcen der Bildungsforschung und beauftragte die Universität Genf damit (EDK, 2001a). Im 2001 veröffentlichten Schlussbericht wurde festgestellt, dass über 70 Prozent der Gesamtausgaben für Bildungsforschung an öffentlichen Forschungsanstalten in der Schweiz – 1999 und 2000 je ca. 24 Millionen – an Instituten ausserhalb der Universitäten angefallen waren. Diese typischerweise bei den kantonalen Erziehungsdirektionen angegliederten Forschungszentren und Institute für Berufspädagogik bewältigten damit auch den Hauptanteil der Bildungsforschung in der Schweiz. Die Finanzierung sowohl dieser nicht akademischen als auch der Forschungsabteilungen innerhalb der Hochschulen war praktisch ausschliesslich durch die öffentliche Hand erfolgt (Hanhart, 2001). Auch die Impulse dieses Projektes wurden in der Folge in verschiedenen Kontexten aufgenommen, beispielsweise im Bereich der Weiterbildungsfinanzierung (SKBF, 2004).

Ein sehr wesentlicher Teil des CORECHED-Programms war die regelmässige Berichterstattung zur Bildungsforschung in der Schweiz. Der erste Bericht über Stand, Entwicklung und Tendenzen der Bildungsforschung in der Schweiz sowie deren Beziehungen zu Bildungspolitik, -verwaltung und -praxis wurde 1996 veröffentlicht und behandelte die Berichtsperiode von 1993 bis Anfang 1995. Darin wurde eine Bestandsaufnahme in sechs Punkten präsentiert (CORECHED, 1996): (1) In der föderalistischen Vielfalt kleiner Organisationen der Bildungsforschung werde bislang nur sporadisch Kooperation und Netzwerkbildung betrieben. Insbesondere zwischen universitären und ausser"-universitären Organisationen könne kaum Zusammenarbeit festgestellt werden. (2) Personell sei die Bildungsforschung durch einen Kern, in dem wenige Personen für Stabilität und Kontinuität sorgen, und viele sporadisch engagierte Personen gekennzeichnet. (3) Die Bildungsforschung sei selten interdisziplinär angelegt. Sie befasse sich primär mit pädagogisch-psychologischen und didaktischen Fragestellungen auf der Unterrichtsebene und kaum mit ökonomischen, soziologischen oder juristischen Themen. Ebenso würden Steuerungs- und Regulationsprozesse sowie Organisationsentwicklung kaum bearbeitet. Die Bildungsforschung sei zudem fokussiert auf die obligatorischen Schulstufen während die Sekundarstufe II, die Tertiärstufe und die Erwachsenenbildung kaum bearbeitet würden. (4) Die CORECHED habe das Potenzial, die internationale Öffnung der schweizerischen Bildungsforschung mitzugestalten. Allerdings stellten sich der internationalen Zusammenarbeit auch politische Hindernisse entgegen, etwa durch die Ablehnung des EWR-Beitritts 1992. Die Bearbeitung der nationalen Beteiligung an internationalen Projekten und der Finanzierung solcher Beteiligungen durch die CORECHED sei intensiv und aufwändig. Für die Berichtsperiode wurden 16 Projekte sowie das erstmalige Erscheinen des Jahrbuchs European documentation and information system on education (EUDISED) und die Gründung der EERA aufgeführt. (5) Die Zusammenarbeit zwischen Bildungsforschung und Bildungspolitik, die international als Voraussetzung für die Weiterentwicklung und Verbesserung des Bildungswesens angesehen wurde, stehe in der Schweiz erst am Anfang. Auf kantonaler Ebene funktioniere primär die Zusammenarbeit mit den kantonalen pädagogischen Arbeitsstellen, von denen es in der Berichtsperiode 20 gab. Auf regionaler Ebene hätten nur zwei der EDK-Regionalkonferenzen eigene Bildungsforschungsorganisationen. Der universitären Bildungsforschung wurde mit Ausnahme zweier Forschungsstellen an den Universitäten Bern und Zürich nur wenig Bedeutung beigemessen. (6) Bezogen auf die Beziehung der Bildungsforschung zur Bildungspraxis wurde der Einbezug der Lehrerverbände in die CORECHED als erster Schritt bezeichnet. Die erste Berichterstattung von 1996 wurde in den Folgejahren nicht ergänzt oder aktualisiert. Der Bericht von 1996 blieb in diesem Sinne ein Unikat.

Knapp zehn Jahre später war die CORECHED Auftraggeberin und zugleich eines der Untersuchungsobjekte des OECD-Reports zum Stand der Bildungsforschung in der Schweiz. Im Rahmen dieses Reportings verfasste die SKBF einen Hintergrundbericht zur Bildungsforschung in der Schweiz. Darin wurde die CORECHED als einer der wenigen auf nationaler Ebene für die Bildungsforschung zuständigen Akteure präsentiert. Zugleich waren die verschiedenen Projekte zur Ermittlung der Situation der Bildungsforschung in der Schweiz seit den 1980er-Jahren aufgeführt. Im Bericht wurde auf Faktoren hingewiesen, die eine nationale Bildungsforschung erschweren. Dies waren etwa die Kleinräumigkeit, die Vielzahl der Organisationen, Programme und Projekte sowie die komplexe Struktur der föderalen Ebenen. Insgesamt konstatierte der Report eine auch angesichts dieser Faktoren wenig dynamische Entwicklung (Denzler-Schircks, 2006a). Neben den strukturellen Problemen wurde auch eine insgesamt eher schwach ausgeprägte Zusammenarbeit zwischen den politischen Akteuren und den Akteuren der Bildungsforschung festgestellt. Erstere hätten bis dahin nur in Ansätzen systematische und auf aktuelle Policies bezogene Fragestellungen an die Bildungsforschung herangetragen. Diese wiederum würde die politische Verwertbarkeit der Forschungsergebnisse nicht deutlich genug hervorheben (Denzler-Schircks, 2006a).

Der Hintergrundbericht wurde von verschiedenen Akteuren der Bildungsforschung eher kritisch rezipiert. Die SKBF als für den Bericht verantwortliche Instanz legte daraufhin eine überarbeitete Version vor, die unter anderem eine umfangreichere Auflistung der Forschungsorganisationen enthielt sowie den Stellenwert der Pädagogischen Hochschulen und der kantonalen Forschungsstellen in der Forschungslandschaft höher einschätzte (Denzler-Schircks, 2006b). Im eigentlichen OECD-Report wurde trotzdem die kritische Einschätzung übernommen, insbesondere was die Wirkung der eingesetzten Mittel im Hinblick auf eine politisch relevante Bildungsforschung betraf (Tippelt et al., 2007). Die Erkenntnisse des durch die CORECHED angestossenen Reports wurden an mehreren Tagungen 2007 und 2008 intensiv diskutiert (EDK, 2008). Die CORECHED setzte sich unter anderem für eine Diskussion der Ergebnisse im Vergleich mit weiteren Ländern ein, die ein ähnliches Reporting durchführen liessen (SKBF, 2009)

Inwiefern der OECD-Report und seine Verarbeitung die CORECHED in ihrer Arbeit und Struktur beeinflusste, kann im Rahmen der vorliegenden Arbeit nicht beantwortet werden. Insgesamt brachte er für die Bildungsforschung sicherlich einen weiteren Impuls zugunsten einer stärkeren Ausrichtung auf politische Themen und Fragestellungen mit sich. Der Impuls, der im Verständnis der OECD auch in Richtung einer stärker sozialwissenschaftlichen und ökonomischen Bildungsforschung gehen sollte, fand zwar nicht nur positive Resonanz, wurde aber durchaus in der Bearbeitung grundsätzlicher Fragen wie etwa der Hochschulpolitik oder der Bildungsstandards aufgenommen (Baeriswyl & Périsset, 2008; Forneck, 2007).

Aus der Position der CORECHED im Nukleus sowohl der bildungspolitischen als auch der wissenschaftlichen Entwicklungen heraus entwickelte sich auch der Arbeitsschwerpunkt „Aufbau eines nationalen Bildungsmonitorings“ (EDK, 2002b, S. 3) im EDK-Tätigkeitsprogramm von 2001 (vgl. Abschn. 5.4.1) und damit die Anfänge des nationalen Bildungsmonitorings. Bis 2015 war das Bildungsmonitoring innerhalb der EDK explizit der CORECHED zugeordnet (EDK, 2015b).

Die Organisationsstruktur der CORECHED spiegelte das Akteursspektrum von Bildungspolitik und -forschung in der Schweiz wider. Seit der Gründung waren die jeweils massgeblichen für Bildungsforschung zuständigen Behörden von Bund und Kantonen in der Konferenz vertreten. Dies waren bei der Gründung 1991 das Bundesamt für Bildung und Wissenschaft (BBW) das Bundesamt für Industrie, Gewerbe und Arbeit (BIGA) sowie die EDK. Zusätzlich wurden das BFS, der SNF, die SGBF, die Schweizerische Vereinigung für Erwachsenenbildung (SVEB), verschiedene Vertreter der Bildungsforschung an kantonalen Amtsstellen sowie an den Universitäten, die Lehrerverbände Dachverband Lehrerinnen und Lehrer Schweiz (LCH) und Société pédagogique romande (SPR) und mit Uri Peter Trier der Programmdirektor des NFP 33 miteinbezogen (SKBF, 1993). Die Tatsache, dass mehrere Personen, die in der CORECHED Einsitz nahmen, verschiedene Funktionen innerhalb der Mitgliedsorganisationen wahrnahmen, wurde in der externen Evaluation als „Wesenselement der CORECHED“ (Landert 1997, S. 10) bezeichnet. Kernorgan der Konferenz war ursprünglich die Plenarversammlung. Der erste Vorsteher war der Neuenburger Erziehungsdirektor und damalige EDK-Präsident Jean Cavadini (SKBF, 1993). Er wurde 1993 als Vorsteher der EDK und CORECHED-Präsident abgelöst vom Berner Erziehungsdirektor Peter Schmid (EDK, 1994). Die Vorbereitung und der Vollzug der Geschäfte war dem permanenten Ausschuss übertragen, dem zwölf der rund 25 Konferenzmitglieder angehörten. Das Sekretariat der CORECHED übernahm von Beginn an die SKBF (CORECHED-Mandat, 1993).

Die CORECHED hat bis zu ihrer formalen Auflösung 2016 einige organisatorische Veränderungen durchlaufen: So wurde 1997 auf Anregung eines hinzugezogenen, externen Experten eine Anpassung der Strukturen vorgenommen (Landert 1997), die eine Professionalisierung des Sekretariats sowie 1999 eine neue Finanzierungsvereinbarung nach sich zog (EDK, 1999a, 2000). Die ebenfalls Ende der 1990er-Jahre in die Wege geleitete Organisationsrevision, die eine Straffung der Gremienstruktur innerhalb der CORECHED beinhaltete, wurde 2001 mit dem Inkrafttreten des neuen Statuts abgeschlossen. In diesem Statut wurden Funktion und Mitgliedschaft der drei Organe definiert (CORECHED-Statut, 2001): (1) Die Steuerungsgruppe als operativ zentrales Organ wurde besetzt mit leitenden Mitgliedern der Verwaltung von EDK, BBW, Bundesamt für Berufsbildung und Technologie (BBT), SNF, BFS und SGBF. (2) Als beratendes Organ wurde ein Beirat eingesetzt, in dem Vertretungen weiterer Arbeitsgruppen bei Bund und EDK, Vertreter der Wissenschaft sowie der Direktor der SKBF Einsitz haben.Footnote 4 (3) Die Geschäftsstelle verblieb in der Verantwortung der SKBF. Ab 2004 wurde der ständige Beirat abgelöst durch themenbezogene Beratungen mit externen Fachleuten (EDK, 2005). Das Statut wurde 2008 überarbeitet, die Steuerungsgruppe in Konferenz umbenannt, den Vertretern der nicht-finanzierenden Organisationen SNF, BFS und SGBF nurmehr eine beratende Stimme zugestanden und der Beirat auch formal abgeschafft (CORECHED-Statut, 2008). Die Liste der in der CORECHED vertretenen Organisationen wandelte sich auch durch Veränderungen in den Organisationen selbst.Footnote 5 Im Zuge der Etablierung projektspezifischer Organisationen und Strukturen rund um die ursprünglich von der CORECHED inhaltlich geprägten Projekte wurde gleichzeitig die Relevanz und der Wirkungskreis der CORECHED zunehmend eingeschränkt. Für die PISA-Untersuchungen, die Einrichtung des Bildungsmonitorings und später auch im Zusammenhang mit der Harmonisierung der Volksschule wurden mit den spezifischen Projektgremien die Diskussionen der ursprünglichen Themen sukzessive aus der CORECHED ausgelagert.Footnote 6 Die CORECHED blieb zwar zunächst als Gremium bestehen, das gemeinsam mit den Gremien des nationalen Bildungsmonitorings die Teilnahme an internationalen Schulleistungsstudien prüfte. Mit der Auslagerung der zentralen Themen nahm die Relevanz der CORECHED jedoch ab. In den EDK-Jahresberichten ist die CORECHED 2014 letztmals erwähnt worden (EDK, 2015b). Die formelle Auflösung erfolgte 2016 durch die Aufhebung des Statuts von 2008 (EDK, 2017a).

In der Gründung der CORECHED und dem Spektrum ihrer Themen und Geschäfte in den 1990er-Jahren zeigt sich unter anderem die Intention, die bildungspolitische Gestaltung national und gesamtschweizerisch einerseits an Informationen mit wissenschaftlichem Charakter auszurichten und andererseits mit Blick auf die internationale Ebene anzugehen. Schon in den ersten Leitlinien klingen die Postulate der 1960er-Jahre wieder an: Mit einer Intensivierung der Bildungsforschung sollte dem grossen Bedarf nach später als Steuerungswissen bezeichneten Informationen seitens der Bildungspolitik entsprochen werden. Besondere Relevanz wurde dabei der bildungsökonomischen Forschung zugesprochen. Zudem sollte die Entwicklung der Bildungsforschung auf der nationalen Ebene nicht zuletzt durch die Teilnahme an internationalen Bildungsforschungsprojekten massgeblich beeinflusst werden.

Die CORECHED konnte die hohen Erwartungen, gerade bezogen auf die Förderung und Koordination von explizit politikrelevanter Bildungsforschung nur punktuell erfüllen. Dementsprechend kritisch fiel auch der OECD-Report zum Stand der Bildungsforschung aus. Zugleich zog sich das Gremium bei praktisch allen grösseren Projekten auf eine begleitende Rolle zurück während projektspezifische Strukturen die operative und thematische Führung übernahmen. Dies ist unter anderem darauf zurückzuführen, dass die CORECHED weder Ressourcen noch Kompetenzen für die tatsächliche Durchführung von Grossprojekten wie PISA oder der Interkantonalen Vereinbarung über die Harmonisierung der obligatorischen Schule (HarmoS) hatte. Insofern könnte man einerseits folgern, dass in der Phase der Revitalisierung der 1990er-Jahre die künftige Gestalt der Implementation von Bildungsmonitoring noch kaum abschätzbar war. Andererseits scheint die CORECHED mit ihrem breiten Einbezug von Akteuren aus Bildungspolitik und Bildungsforschung den Anforderungen an Projektstrukturen im bildungsföderalistischen System mit ausdifferenzierter Kompetenzverteilung nicht zu entsprechen.

5.2.3 Third international mathematics and science study

Die Third international mathematics and science study (TIMSS) steht in einer langjährigen Tradition international vergleichender Schulleistungsstudien in Verantwortung der IEA (Köller, Baumert & Bos, 2014). Begründet wurde diese Tradition durch einen informellen Zusammenschluss von Bildungsforschern, die sich bereits in den 1950er-Jahren mit der Idee der vergleichenden Evaluation nationaler Bildungssysteme beschäftigt hatten. Diese erstmals 1955 am UNESCO-Institut für Pädagogik in Hamburg zusammengekommene Gruppe führte 1960 eine Erhebung der Fähigkeiten und Fertigkeiten in einer nicht-repräsentativen Stichproben von 13-Jährigen aus zwölf Ländern in vier Fächern durch (Husén, 1996). In der Fortführung dieser Zusammenarbeit wurde 1964 die First International Mathematics Study durchgeführt und 1967 die IEA formal gegründet (DeBoer, 2010).

Bereits 1964 wurde in den Forschungsgruppen und ab 1967 innerhalb der IEA die Durchführung von Schulleistungsstudien in den Fächern Naturwissenschaften, Civic education, Leseverständnis und Literature in der Erstsprache sowie in Englisch und Französisch als Fremdsprachen diskutiert und vorbereitet (Bloom, 1969). Die Datenerhebung dieser Six Subject Survey erfolgte in den Jahren 1970 und 1971. Parallel dazu entstand in den 1970er-Jahren die Idee, die Schulleistungen als Attained curriculum mit den Lehrprogrammen (Intended curriculum) und den Lehr-Lern-Prozessen (Implemented curriculum) zu verknüpfen. Dieses Untersuchungsdesign wurde unter anderem ab 1980 in der Second International Mathematics Study mit vergleichenden Leistungserhebungen in 20 Ländern realisiert (Pelgrum, 1986). Die Untersuchung war zugleich eine von mehreren IEA-Untersuchungen der 1980er-Jahre mit längsschnittlichen Untersuchungselementen (Kifer & Wolfe, 1990). Parallel zu den Mathematikleistungen wurden im Rahmen der Second International Science Study die Schulleistungen in Naturwissenschaften erhoben. International vergleichende Studien in den sprachlichen Fächern sowie zur Verwendung von Computern in den Schulen folgten.

In der Forschungsgruppe, die die Leistungserhebung von 1960 durchführte, war die Schweiz vertreten durch Samuel Roller von der Universität Genf. Die Schweizer Stichprobe bestand aus 314 Schülerinnen und Schülern aus der Stadt Genf (Foshay, 1962). Die Leistungen der Genfer Schülerinnen und Schüler lagen in den Fächern Mathematik, Leseverständnis und Geografie über dem internationalen Durchschnitt. In Naturwissenschaften wiesen sie die tiefsten Leistungen aller zwölf nationalen Stichproben auf (Thorndike, 1962). In den ab 1964 auf die Pilotstudie folgenden Untersuchungen der IEA war die Schweiz weder in den Forschergruppen noch mit Stichproben vertreten. Insofern ist die Latenzphase der Bildungsforschung in der Schweiz bis in die 1990er-Jahre auch in der Beteiligung an den IEA-Schulleistungsstudien abzulesen.

In den späten 1980er-Jahren reagierte die IEA auf die steigende Nachfrage verschiedener Staaten nach Informationen zur vergleichenden Beurteilung der Qualität ihrer Bildungssysteme. Im Kontext vieler nationaler Leistungserhebungen, des Erfolgs der OECD-Bildungsindikatoren und ähnlicher Initiativen durchlief die IEA eine organisationale Transformation. Dabei wurden unter anderem ein Hauptsitz und ein Generalsekretariat eingerichtet. Parallel dazu wurde, ausgehend von der Annahme eines „international appetite for data from cycles of repeat surveys“ (Plomp, 2011, S. 45), die inhaltliche und konzeptionelle Ausrichtung der künftigen IEA-Untersuchungen geprägt. Diese sollten nicht mehr einmalig, sondern als periodische Untersuchungsreihen angelegt sein, sich auf die Kernfächer Mathematik, Naturwissenschaften, Erst- und Fremdsprachen beschränken sowie Daten mit direktem Bezug zu bildungspolitischen Entscheidungen und zu Phänomenen neuer Steuerung im Bildungsbereich liefern (Plomp, 2011).Footnote 7 TIMSS wurde von der IEA 1989 erstmals diskutiert, 1991 offiziell initiiert und stellte sowohl eine Realisierung der erwähnten Neuausrichtung als auch eine Fortführung der in den 1970er-Jahren in den Fokus der IEA gerückten Fragen der Curriculum- und Unterrichtsentwicklung dar. Obwohl methodisch der Fokus klar auf den elaborierten Verfahren der Leistungserhebung lag, waren Erhebungen von Unterrichtsinhalten einerseits sowie von Rahmenbedingungen und Praktiken des Unterrichts andererseits ebenfalls Teil von TIMSS (Robitaille & Donn, 1992). Legitimiert wurde diese breite Konzeption durch die Annahme, Bildungssysteme seien anhand von Input-, Prozess- und Outputvariablen beschreib- und untersuchbar:

Educational inputs, processes, and outputs constitute three basic components of the educational system, and each of these is related to the others in a complex, integrated whole. An important objective of international studies in education is to examine the comparative influence of a variety of constituent variables within each component on the success of a given education system as indicated by measures of students’ achievement, participation, and attitudes and aspirations.“ (Robitaille & Donn, 1992, S. 205)

Nach den ersten Schritten der Konzeptentwicklung wurden 1992 die ersten Pilotuntersuchungen und 1994 bis 1995 die eigentlichen Leistungserhebungen durchgeführt. Sie umfassten drei verschiedene Schülerpopulationen in 40 Ländern und insgesamt über eine halbe Million Schülerinnen und Schüler (Salganik, Rychen, Moser & Konstant, 1999). Die ersten nationalen und internationalen Resultate wurden 1996 publiziert (Martin et al., 1997; Beaton, Martin et al., 1996; Beaton, Mullis et al., 1996; Mullis et al., 1997; Harmon et al., 1997). Mit der Wiederholung der Untersuchung der mittleren Population der 13-jährigen Schülerinnen und Schüler wurde 1999 einerseits der Vierjahresrhythmus etabliert und andererseits das Konzept der sich wiederholenden Untersuchungen erstmals statistisch und methodisch robust umgesetzt. Die zweite Untersuchungsreihe, TIMSS 1999 oder teilweise auch TIMSS-R genannt, umfasste 38 Länder und ca. 150’000 Schülerinnen und Schüler (Martin & Mullis, 2000; Martin et al., 2000; Mullis et al., 2000). Der Vierjahresrhythmus der TIMSS-Untersuchungen wird bis heute beibehalten. Mit TIMSS 2015 wurde die mittlerweile sechste Durchführung abgeschlossen. Beibehalten wurde über alle Untersuchungen hinweg die Erfassung von Unterrichtsinhalten, Rahmenbedingungen und Praktiken des Unterrichts, seit 2007 publiziert in der der sogenannten Encyclopedia (Mullis et al., 2008, 2012; Mullis, Martin, Goh & Cotter 2016).

Auf den ersten beiden Durchführungen von 1995 und 1999 basierten die von den USA initiierten TIMSS Videostudien, die sich eingehender mit der Unterrichtspraxis in Mathematik und Naturwissenschaften auseinandersetzten. Während in der TIMSS 1995 Video Study primär die methodischen und analytischen Aspekte im Vordergrund standen und lediglich Mathematikunterricht aus drei Ländern erfasst wurde (Ainley et al., 2011), war die TIMSS 1999 Video Study deutlich breiter angelegt, erfasste Mathematik- und Naturwissenschaftsunterricht und bezog Schülerinnen und Schüler aus sieben Ländern ein. Ein primäres Ziel des methodisch neuartigen Zugangs über Videoaufnahmen bestand in der Dokumentation und Analyse von Unterricht als komplexem Prozess (Hiebert et al., 2003). Während die erste Durchführung stark auf die Unterrichtsstruktur und die eingesetzten didaktischen Prinzipien fokussiert gewesen war, sollte in der zweiten Durchführung insbesondere die Analyse der inhaltsbezogenen Aspekte von Unterricht vertieft werden (Pauli & Reusser, 2010). Aufgezeichnet wurden insgesamt 638 Mathematik- und 439 Naturwissenschaftslektionen (Hiebert et al., 2003; Gonzales et al., 2006).

Die Schweizer Beteiligung an der ersten TIMSS-Erhebung von 1995 war einer der Auslöser für die Gründung der CORECHED. Sie diskutierte denn auch die TIMSS-Untersuchungen als eines ihrer ersten grossen Themen (EDK, 1996). Die Mitarbeit an der Entwicklung und Planung von TIMSS leistete primär das Amt für Bildungsforschung des Kantons Bern in Zusammenarbeit mit dem Institut de recherche et de documentation pédagogique (IRDP), dem Ufficio studi e ricerche (USR) und dem BFS. Ein Grossteil der Auswertungsarbeit wurde im Rahmen des NFP 33 vom SNF finanziell unterstützt. Von den in TIMSS vorgesehenen drei Populationen wurden in der Schweiz zwei untersucht: (1) Die TIMSS-Stichprobe der 13-Jährigen umfasste in der Schweiz 13’000 Schülerinnen und Schülern aus rund 380 Klassen aus 20 deutsch-, drei französisch- und den beiden italienischsprachigen Kantonen (Martin & Kelly, 1997; U. Moser, 1997). (2) Die TIMSS-Stichprobe im letzten Jahr der Sekundarstufe II umfasste 366 Klassen und etwas über 6’000 Schülerinnen und Schüler an Gymnasien, Lehrerseminaren, Diplommittelschulen sowie in der beruflichen Grundbildung (IEA, 1998; Ramseier, Keller & Moser, 1999).

Für die Sekundarstufe I und damit die Population der 13-Jährigen wurde, bezogen auf die Schulleistungen in Mathematik, ein positives Fazit gezogen, vor allem im Vergleich mit den Nachbarländern sowie den Ländern der EU. In den Naturwissenschaften dagegen wurden die Leistungen als „europäisches Mittelfeld“ (U. Moser, 1997, S. 43) eingestuft. Die Differenz zwischen den Leistungen in den beiden Fachbereichen wurde insbesondere durch die Curriculumanalyse erklärt: Der lehrplanorientierte Unterricht in der Schweiz decke die Inhalte der Testaufgaben in Mathematik deutlich breiter ab als jene in Naturwissenschaften. Zudem wurde auch die in den Lehrplänen definierte Unterrichtszeit als Erklärung für die Leistungsdifferenzen bestätigt. Daneben wurde auf eine eher positiv wahrgenommene Arbeitssituation der Lehrpersonen sowie auf die soziale Herkunft der Schülerinnen und Schüler als weitere Faktoren hingewiesen. Insbesondere für die französisch- und die deutschsprachige Schweiz wurde eine grosse Schichtabhängigkeit der Leistungen nachgewiesen (U. Moser, 1997).

Für die Sekundarstufe II und damit die Population der Schülerinnen und Schüler im letzten Jahr von Ausbildungsprogrammen auf ebendieser Stufe fielen die Ergebnisse ähnlich aus: Im europäischen Vergleich waren die Leistungen bezogen auf die Mathematik hoch und jene in Naturwissenschaften im oberen Mittelfeld anzusiedeln. Zwischen den Sprachregionen der Schweiz ergaben sich signifikante Differenzen zwischen der deutsch- und der italienischsprachigen Schweiz. Die Leistungen in der französischsprachigen Schweiz waren etwas tiefer als jene der deutschsprachigen und etwas höher als jene der italienischsprachigen Schweiz, jedoch ohne signifikante Differenz. Für die gesamte Schweiz wurde, unabhängig von den Schultypen und -formen und von den unterschiedlichen Testarrangements auf der Sekundarstufe I und der Sekundarstufe II, ein eher tiefer Stellenwert der Naturwissenschaften festgestellt (Ramseier et al., 1999). In den folgenden Durchgängen von TIMSS ab 1999 war die Schweiz nicht mehr beteiligt (Martin & Gregory, 2000). Dies kann unter anderem auf die Beteiligung an PISA zurückgeführt werden.

Unter anderem finanziert durch die CORECHED beteiligte sich die Schweiz an dem auf Mathematik bezogenen Teil der TIMSS 1999 Video Study. Die Schweizer Stichprobe bestand aus 140 Lehrpersonen, deren Mathematiklektionen gefilmt wurden. Daneben wurden die Lehrpersonen sowie die Schülerinnen und Schüler schriftlich befragt. Als Schweizer Ergänzung enthielten die schriftlichen Fragebogen zusätzliche Items und die Schülerinnen und Schüler absolvierten zusätzlich eine Leistungserhebung sowie einen Test auf kognitive Fähigkeiten (Reusser & Pauli, 2010). Neben den weltweit beobachtbaren Gemeinsamkeiten in Unterrichtsorganisation, sogenannten Inszenierungsmustern und Unterrichtsinhalten wurde die Unterscheidung von Einführungs- und Vertiefungslektionen als spezifisches Charakteristikum von Unterricht in der Schweiz identifiziert (Pauli & Reusser, 2010). Die TIMSS-Untersuchungen wurden auch im Kontext der gesamtschweizerischen Weiterentwicklung sogenannter Treffpunkte im Mathematikunterricht aufgenommen. Dabei ging es darum im Fach Mathematik einerseits didaktische und inhaltliche Impulse aus der aktuellen Bildungsforschung in die Praxis zu tragen. Andererseits wurde mit den Treffpunkten eine Art Lehrplanharmonisierung angestrebt, und zwar bezogen auf die gesamte Volksschule (EDK, 1998a).

Entstanden in der Planungseuphorie der 1960er-Jahre war die IEA als zunächst nur schwach institutionalisierter Zusammenschluss interessierter Wissenschaftlerinnen und Wissenschaftler über Jahre für die wichtigsten international vergleichenden Schulleistungsstudien verantwortlich. Insbesondere in der Verbindung mit den Begrifflichkeiten der Curriculumforschung und der Vorstellung einer periodischen Leistungserhebung rund um die zweite Generation der IEA-Untersuchungen wurden zentrale Prinzipien der Leistungserhebung international erstmals konzipiert und umgesetzt. An TIMSS zeigt sich der punktuelle und von wenigen Akteuren abhängige Charakter der Beteiligung an internationalen Bildungsforschungsprojekten nochmals sehr deutlich. Es ist schon fast vermessen, dabei von einer Beteiligung der Schweiz zu sprechen, da jeweils einzelne Forscher oder Forschergruppen die Initiative ergriffen und nie die ganze Schweiz im Sinne aller Kantone untersucht wurde. Trotzdem wurde mit TIMSS in der Schweiz der Anspruch einer stärker national koordinierten Beteiligung an internationaler Bildungsforschung verbunden und – wie der Aufbau der CORECHED illustriert – auch erfüllt. TIMSS passte thematisch sehr gut zu den damals drängenden, bildungspolitischen Fragen und die Ergebnisse prägten die Diskussionen, etwa um die Struktur der Sekundarstufe I oder um harmonisierte Lehrplangrundlagen im Fach Mathematik.

5.2.4 Nationales Forschungsprogramm Wirksamkeit unserer Bildungssysteme

Der Bundesrat hatte 1985 zum ersten Mal auf der Basis des Forschungsgesetzes von 1983 seine forschungspolitischen Ziele formuliert. Dabei war Forschung zu „Individuum, Gesellschaft und Staat im Wandel der Zeit“ (Ziele Forschungspolitik 1988, 1985, S. 231) als einer von drei thematischen Schwerpunkten definiert worden. In den forschungspolitischen Zielen von 1990 wurde dieser Schwerpunkt fortgesetzt. Dabei sollten insbesondere die Geistes- und Sozialwissenschaften Ursachen, Entstehung und Entwicklung der zentralen Probleme von Staat und Gesellschaft untersuchen und einen Beitrag zur politischen Bearbeitung ebendieser Probleme leisten. Konkret definierte der Bundesrat innerhalb des als „Mensch: sozio-ökonomische und medizinische Probleme“ bezeichneten Schwerpunktes vier Forschungsgebiete, in denen wiederum Forschungsthemen aufgeführt waren. Die vier Forschungsgebiete lauteten „Mensch und Technik“, „Bildung und Ausbildung“, „Fragen der nationalen und internationalen Politik“ sowie „soziale und medizinische Aspekte“. Während die übrigen drei Forschungsgebiete jeweils mehrere unterschiedlich priorisierte Themen umfassten war für die Bildung nur ein Thema erster Priorität aufgeführt: „Effizienz unserer Ausbildungssysteme angesichts der demographischen und technologischen Entwicklung, namentlich Entwicklung und Anwendung Unterrichtstechnologien und -methoden“ (Ziele Forschungspolitik 1992, 1990, S. 890).

Kurz darauf beauftragte der Bundesrat den SNF, im Rahmen der sechsten Serie der nationalen Forschungsprogramme ein Programm zur Wirksamkeit der Bildungssysteme vorzubereiten und durchzuführen. Eine zehnköpfige Expertengruppe arbeitete zuhanden der ProgrammleitungFootnote 8 einen Ausführungsplan sowie die Ausschreibungsunterlagen für das Nationale Forschungsprogramm Wirksamkeit unserer Bildungssysteme (NFP 33) aus (Bauhofer, 1999). Im Ausführungsplan wurde klar formuliert, dass sich die intendierte Wirksamkeitsanalyse zwar auf eine normative Bewertung bezog, jedoch angesichts der Komplexität von Bildung und Bildungssystemen nicht eindimensional gedacht werden dürfe. Die Expertengruppe setzte damit die Effizienzformulierung in den forschungspolitischen Zielen sowie den Effektivitätsbegriff im Programmtitel sehr multidimensional und prospektiv um. Konkret empfahl sie eine

„Wirksamkeitsanalyse der Bildungssysteme: (a) aus der Perspektive der Erforschung von typischen Prozessen, (b) durch den Bezug ihrer historischen Entwicklung auf die innere Struktur und auf die Interaktion „Innen – Aussen“, sowie (c) aus der Sicht der formativen Evaluation von Bildungssystemen.“ (Trier et al., 1994, S. 63)

Die 1992 erfolgte Ausschreibung stiess zwar auf grosses Interesse, wurde aber gleichzeitig sehr kritisch kommentiert, nicht zuletzt aufgrund von begrifflichen Unschärfen in der inhaltlichen Anlage. So wies Criblez (1991) schon mit Bezug auf die erste publizierte Programmskizze auf die Schwierigkeit der Unterscheidung zwischen Begleit- und Wirkungsforschung hin und fragte kritisch nach den Grenzen von Wirkungsforschung auf Unterrichtsebene. Auch die Schwierigkeiten der im Bildungskontext zuvor wenig verwendeten Kernbegriffe Wirksamkeit, Effizienz, Wirkung und Effekte wurden vonseiten der Bildungsforschenden kritisch hervorgehoben (Hexel, 1991). Nichtsdestotrotz wurden rund 160 Projektskizzen eingereicht (Trier et al., 1994). Davon wurden schliesslich 39 Projekte bewilligt und umgesetzt. Die Forschungstätigkeit begann 1993 und das Programm endete formal 1999 (Bauhofer, 1999).

Eine Mehrheit der Forscherinnen und Forscher war an Universitäten beschäftigt. Dazu kamen Projekte, bei denen kantonale Forschungsstellen oder private Organisationen federführend waren. Zahlreiche Projekte stellten Koordinationsvorhaben zwischen Hochschulen und ausser"-universitären Organisationen dar (Cusin et al., 2001; Gretler, 2000). Dabei wurde durchaus kritisch auch angemerkt, dass private Organisationen ein höheres Gewicht hatten als die kantonalen Forschungsstellen (Gretler, 2001). Im NFP 33 waren einige Projekte enthalten, die die Ausgangslage von Bildungsmonitoring Schweiz konkret mitprägten. So waren die nationalen Auswertungen von TIMSS und die Beteiligung an der TIMSS 1999 Video Study als Projekte im NFP 33 integriert. Zwei weitere Projekte betrafen die Schweizer Beteiligung an den internationalen IALS-Untersuchungen der OECD. Weitere Themen waren das Sprachenlernen sowie die Aus- und Weiterbildung von Lehrpersonen, Ingenieuren und im Gesundheitsbereich. Eine explizit bildungsökonomische Perspektive wurde in vier Projekten eingenommen (Bauhofer, 1999).

In den abschliessenden Überlegungen zum NFP 33 hoben die Programmverantwortlichen vier Aspekte hervor: (1) Mit dem NFP 33 sei der Versuch verbunden gewesen, Politik und Praxis auch im Bildungsbereich durch wissenschaftliche Erkenntnisse zu prägen. Bildungswissenschaften, Bildungspolitik und Schulpraxis seien inhaltlich zu verknüpfen mit dem Ziel, Erziehung und Bildung wirksamer, transparenter und innovativer zu machen (Trier, 1999b). (2) Dies sei vor dem Hintergrund einer stärkeren gesellschaftlichen Nachfrage nach sozialwissenschaftlicher Forschung im Bildungsbereich erfolgt. Die Rezeption der Ergebnisse des NFP 33 durch Praxis und Politik dokumentiere zugleich die gestiegene Akzeptanz von wissenschaftlichen Informationen im Bildungsbereich (Hutmacher, 1999; Berthoud, 1999). (3) Gleichzeitig lägen die Prozesse der Kommunikation, Interpretation und Umsetzung der Ergebnisse nur noch teilweise in der Hand der Wissenschaft. Nicht zuletzt deshalb sei der Frage des Wissenstransfers zurecht ein hoher Stellenwert zugeordnet worden (Hutmacher, 1999). (4) Die wissenschaftliche Bearbeitung von Erziehung und Bildung als sehr komplexe und vielschichtige Gegenstände habe sich im NFP 33 sehr differenziert und vielfältig präsentiert. Dabei wurden die in den forschungspolitischen Zielen und im Projekttitel angedeuteten Hoffnungen einer zusammenfassenden Beurteilung nicht erfüllt. Gerade das diesbezüglich als hoch eingeschätzte Potenzial der bildungsökonomischen Perspektive sei nicht ausgeschöpft worden (Trier, 1999b; auch Brunschwig-Graf, 2002).

In dieser zurückliegenden Beurteilung wird deutlich, dass das NFP 33 in seiner Gesamtheit als Bildungsmonitoringprojekt angelegt und realisiert worden war. Im Zentrum standen nicht Effizienz- und Effektivitätskriterien, sondern die Vorstellung einer differenzierten Forschung für die vielfältige Praxis in Politik, Bildung und Ausbildung. Insofern passte das NFP 33 sehr gut in das heterogene Feld der damaligen Bildungsforschung und die damalige Themenkultur. Es wirkte verstärkend auf die bereits etablierten Akteure und Diskurse. Dass das Programm den erhofften Impuls in Richtung einer Bildungsforschung darstellte, die sich mit Fragen der Wirksamkeit beschäftigt und damit bildungspolitisch rezipierbares Steuerungswissen erzeugt, ist aus heutiger Sicht eher kritisch zu bewerten. Der vom Programm erwartete Aufschwung bildungsökonomischer Betrachtungsweisen erfolgte nicht oder nur sehr spärlich (Streckeisen, 2013). Der angestrebte Wandel hin zu einer systematischen Sicht der Bildungsforschung auf die Wirksamkeit organisierter und formaler Bildungsangebote (Trier, 2000) wurde in vielen Projekten nicht vollzogen. Die Frage der Wirksamkeit der Lehrerbildungssysteme wurde beispielsweise anhand einer breit angelegten Erhebung von Qualitäts- und Wirksamkeitseinschätzungen unterschiedlicher Akteure bearbeitet (Oelkers & Oser, 2000). Oder die Frage der Wirkung unterschiedlicher sprachdidaktischer Ansätze wurde mittels Lehrmittelanalysen untersucht (Bronckart, Marschall & Plazaola Giger, 1999). Insofern lässt sich das NFP 33 durchaus als Element der Revitalisierung der Bildungsforschung einordnen. Neue inhaltliche Impulse oder eine breite Förderung neuer Forschungsakteure sind ihm aber eher nicht zuzuschreiben.

5.2.5 Vorläufiges Fazit

Die Revitalisierung der bildungspolitischen Koordination einerseits und der dargestellten Impulse und Aktivitäten der Bildungsforschung andererseits schaffte in den 1990er-Jahren die Ausgangslage zur Etablierung des nationalen Bildungsmonitorings. Diese Ausgangslage war charakterisiert durch die Vorstellung, die Qualität von Bildung auf verschiedenen Stufen des Bildungssystems und von der individuellen bis auf die Systemebene steigern zu können. Diese Qualitätssteigerung sollte nicht zuletzt durch wissenschaftliche Erkenntnisse ermöglicht und vorangetrieben werden.

Als Mitglied verschiedener internationaler Organisationen und Initiativen war die Schweiz zwar regelmässig eingebunden in die multilaterale Zusammenarbeit im Bildungsbereich über die Landesgrenzen hinweg. Allerdings – so formuliert etwa in der sogenannten BFT-Botschaft für die Jahre 2000 bis 2003 – stand die Schweiz relativ häufig abseits, da die Finanzierung der Teilnahme an internationalen Projekten nicht immer sichergestellt werden konnte. Vor diesem Hintergrund integrierte der Bundesrat in die BFT-Botschaft die Finanzierung der

„Beteiligung an ausgewählten Bildungsprojekten der multilateralen Organisationen[,] [...] insbesondere an gross angelegten internationalen Projekten über Kompetenzmessungen und Leistungsvergleiche im Bildungsbereich, an den international vergleichenden Studien zur Verbesserung des Übergangs von Erstausbildung in die Arbeitswelt sowie an länderübergreifenden Studien zur effizienteren Steuerung nationaler Bildungssysteme.“ (BFI-Botschaft 2000–2003, 1999, S. 401)

Insofern gab es auch von Bundesseite her Druck in Richtung einer stärkeren Ausrichtung an internationalen Entwicklungen, gerade was die Generierung und Verarbeitung von Entscheidungsgrundlagen durch die Bildungsforschung zuhanden bildungspolitischer Akteure anging.

Die Ausgangslage war zweitens geprägt durch eine disziplinäre und begriffliche Offenheit: Obschon die kompetenzorientierte Leistungserhebung in vielen Aktivitäten prominent vertreten war und obwohl der Ruf nach bildungsökonomischen Gesamtbetrachtungen prominent erklang, wurde – gerade auch im NFP 33 und angeregt durch die CORECHED – eine wissenschaftliche Betrachtung des Bildungssystems aus verschiedenen disziplinär codierten Perspektiven realisiert. Die Frage nach der disziplinären Konfiguration einer politikrelevanten Bildungsforschung wurde ab 1990 wiederum prominent gestellt, verbunden mit der Forderung gerade die bildungsökonomischen Ansätze weiterzuentwickeln. Allerdings zeigten sowohl interne als auch externe Auswertungen, dass die Forcierung der meist mit Verweis auf internationalen Kontexte legitimierten Interdisziplinarität die Phalanx der eher traditionellen, an den Universitäten angesiedelten Erziehungswissenschaft nur punktuell durchbrechen konnte.Footnote 9 Vorläufig ist dieses Fazit deshalb, weil mit dem PISA die Ausgangslage – gewissermassen kurz vor dem eigentlichen Beginn der Entwicklung zum nationalen Bildungsmonitoring – nochmals deutlich verändert wurde.

5.3 Programme for international student assessment

Die OECD fällte 1997 den Entscheid, ihr Bildungsindikatorenmodell INES durch eine eigene, systematische Erhebung der Schülerleistungen und damit der Outputs von Bildungssystemen substanziell zu erweitern. Mit diesem Entscheid wurde das Programme for international student assessment (PISA) initiiert (Bloem, 2015). Hintergrund für diesen Entscheid war die breite internationale Aufmerksamkeit, die INES und den ab 1992 erscheinenden Education at a glance-Publikationen zuteil wurde (Martens & Wolf, 2009). Ein wesentliches Element der kontinuierlichen Weiterentwicklung von INES war die Abbildung der Schülerleistungen. Das Bestreben der OECD, für diesen zentralen Faktor im Indikatorenmodell eine solide Datengrundlage zu erhalten, stand hinter der Lancierung von PISA (vgl. Abschn. 5.2.1). In der international vergleichenden Konzeption von PISA waren und sind die sogenannten Student outcomes und deren Erhebung als „three domains of ‚literacy‘– reading literacy, mathematical literacy and scientific literacy“ (Schleicher & Tamassia, 2000, S. 7) ein Schlüsselelement.

Mit PISA erfuhren die Bestrebungen zu einer gesamtschweizerischen Betrachtung von Bildung auf wissenschaftlicher Grundlage einerseits zusätzlichen Schub und erhielten andererseits einen diskursiven und programmatischen Rahmen aufgesetzt. Trotz teilweiser Übereinstimmungen ging das bildungspolitische Programm von PISA deutlich über die bis dahin zwar immer wieder geforderte, aber eher zaghafte realisierte Priorisierung bildungsökonomischer Zugänge hinaus. Ausgehend vom bildungspolitischen Programm, das in PISA angelegt und sukzessive ausgebaut wurde, werden im Folgenden die internationalen und die auf die Schweiz bezogenen Ergebnisse präsentiert. Dabei interessieren neben den eigentlichen PISA-Resultaten auch deren Implikationen auf das Generieren und Verarbeiten von Daten und Informationen zuhanden politischer Akteure.

5.3.1 Bildungspolitisches Programm

Während sich das methodische Programm von PISA um die akkurate Erfassung von Kompetenzen dreht, ist das bildungspolitische Programm auf die Bedeutung ebendieser erfassten Kompetenzen von 15-jährigen Schülerinnen und Schülern fokussiert. Dabei spielt der internationale Vergleich – in der Tradition der Bildungsindikatoren – eine wichtige Rolle, ebenso wie die Definition der erfassten Kompetenzen als Outcome von Bildungssystemen (Adams & Wu, 2002). Die erfassten Kompetenzen sind jedoch nicht auf ihre Bedeutung als Bildungsresultate beschränkt. Vielmehr werden sie, codiert als am Literacy-Begriff orientierte Grundbildung, als gesellschaftlich und ökonomisch definiertes Verwertungspotenzial gedeutet (Zahner et al., 2002). „In PISA, literacy is regarded as knowledge and skills for adult life“ (Schleicher & Tamassia, 2000, S. 7). Der Literacy-Begriff wird dabei auch zur Abgrenzung gegenüber den curriculumzentrierten Schulleistungsstudien der IEA verwendet (Hopfenbeck et al., 2017). Referenzrahmen für die Einschätzung des Outcomes von Bildungssystemen sind in PISA nicht mehr länger die bildungssystemimmanenten Definitionen von Strukturen und Inhalten, sondern Vorstellungen von Lebensverläufen, Bildungs- und Erwerbskarrieren und der darin wichtigen Wissenselemente, Fähigkeiten und Fertigkeiten. Diese Vorstellungen sind so konstruiert, dass Bildung einerseits ein individuelles Merkmal und eine stetige Aufgabe im Lebensverlauf und andererseits eine ökonomische Grösse in Arbeitsmärkten darstellt.

Wie Lassnigg (2009) darlegt, sind im zeitlich parallel zu PISA von der OECD entwickelten Begriff des Lifelong learning beide Elemente des neuen Referenzrahmens vereint. Zudem sei die Begrifflichkeit des lebenslangen Lernens sowohl eine empirisch begründete, bildungspolitische Zielvorstellung als auch ein hegemonialer Diskurs. Damit solle eine spezifische Entwicklung in Richtung dieser Zielvorstellung mittels einer bestimmten Perspektive auf Bildung und Bildungssysteme durchgesetzt werden. Durch die Orientierung am Literacy-Konzept wird es erst möglich, die bislang als Outputs verstandenen Leistungen der Schülerinnen und Schüler als Outcomes zu definieren. Die Schülerleistungen werden damit im bildungspolitischen Programm von PISA nicht bloss als Ergebnisse oder Leistungen der Schule bzw. des Bildungssystems verstanden, sondern gewissermassen transitiv auf die Wirkungen von Bildung auf individueller und gesellschaftlicher Ebene umgedeutet.

Das politische Programm und die mit PISA verfolgte Zielvorstellung gehen über die individuelle Ebene hinaus. Ausgehend von makroökonomisch bestätigten Zusammenhängen zwischen Wirtschaftswachstum und Bildungsfaktoren wie Schulbesuchsquoten und -dauer ist die Frage nach dem Zusammenhang zwischen wirtschaftlicher Prosperität und den Schülerleistungen ebenfalls Teil des bildungspolitischen Programms. Die entsprechenden Annahmen lauten dahingehend, dass die kognitive Leistungsfähigkeit – über Humankapitaltheorien bezogen auf ein Land bzw. eine Nation – ein ökonomisches Potenzial darstelle. Hanushek & Woessmann (2010) unternahmen diesbezüglich den Versuch einer Beschreibung der zentralen Zusammenhänge in den PISA-Daten und deren monetärer Quantifizierung. Dabei bestätigen sie einerseits die Kausalität des Zusammenhangs zwischen den Skills und der wirtschaftlichen Entwicklung eines Landes. Damit seien bildungspolitische Massnahmen – neben solchen in den Bereichen Gesundheit und Kultur – als nationalökonomische Investitionen zu sehen. Andererseits seien nicht nur Steigerungen der Skills mit grosser ökonomischer Wertschöpfung verbunden, sondern – im gegenteiligen Fall – die wirtschaftlichen Folgen von Unterinvestitionen in Bildung massiv. Diese Zusammenhänge werden auch quantifiziert: „A modest goal of having all OECD countries boost their average PISA scores by 25 points over the next 20 years [...] implies an aggregate gain of OECD GDP of USD 115 trillion over the lifetime of the generation born in 2010“ (Hanushek & Woessmann, 2010, S. 6). Obschon diese makroökonomische Perspektive nicht im Zentrum der bildungspolitischen Aufmerksamkeit steht, offenbart sie die ökonomischen Elemente als wesentliche Begriffe des mit PISA etablierten Diskurses über Bildung.

5.3.2 Internationale PISA-Ergebnisse

Die Ergebnisse der ersten PISA-Durchführung in 32 Ländern wurden im Dezember 2001 veröffentlicht.Footnote 10 Dabei wurden die Ergebnisse der Schülerinnen und Schüler in den drei untersuchten Fachbereichen präsentiert, und zwar in Form von Mittelwerten sowie als Verteilung auf die fünf Kompetenzstufen. Als inhaltlicher Schwerpunkt wurden in PISA 2000 die Lesekompetenzen vertieft untersucht (Schleicher et al., 2001). Ein grosser Teil des ersten Ergebnisberichts war den Zusammenhängen zwischen Schulmerkmalen, individuellen Merkmalen und den Leistungen gewidmet. Dabei zeigten die Ergebnisse einen Zusammenhang des sozio-ökonomischen Hintergrunds der Schülerinnen und Schülern mit den Leistungen. Dieser Zusammenhang war in den verschiedenen Ländern unterschiedlich stark ausgeprägt, aber in allen Ländern feststellbar (Schleicher et al., 2001).Footnote 11 Insgesamt wurden der sozio-ökonomische Hintergrund, die Herkunft sowie die sozialen und kulturellen Bedingungen der einzelnen Schülerinnen und Schüler als wichtigste Einflussfaktoren auf die Leistung identifiziert. Bildungssysteme unterscheiden sich deutlich in ihrer Fähigkeit, diese unterschiedlichen Voraussetzungen zu kompensieren (Schleicher et al., 2003). Neben den medial sehr intensiv rezipierten, reinen Ergebnissen der Leistungserhebung wurde der Befund einer deutlichen Chancenungleichheit weltweit aufgenommen und politisch bearbeitet, wenn auch nicht nur im Sinne einer evidenzbasierten Politikgestaltung, sondern primär als Legitimationsgrundlage und Referenz bildungspolitischer Programme (Tillmann, 2015).

Im Bericht mit den ersten Ergebnissen der zweiten PISA-Durchführung in 49 Ländern, publiziert im Dezember 2004, stand die Frage „How have things changed since 2000?“ (Schleicher, Tamassia & Ikeda, 2004, S. 4) im Vordergrund. In PISA 2003 lag der Untersuchungsschwerpunkt auf den mathematischen Kompetenzen, zusätzlich wurden überfachliche Kompetenzen erhoben und der Umfang der erhobenen Hintergrundinformationen zu Schülerinnen, Schülern und Schulen war deutlich grösser als in der Vorgängeruntersuchung. Die Befunde aus PISA 2000 zum Zusammenhang zwischen sozio-ökonomischem Hintergrund und den Leistungen wurden bestätigt. Zusätzlich wurden unterrichts-, schul- und ressourcenbezogene Faktoren mit den Ergebnissen verknüpft. Ein wichtiger Befund war, dass leistungsdifferenzierte Schulstrukturen mit sozio-ökonomisch erklärbaren Leistungsunterschieden einhergingen. Daneben wurde auf die positiven Auswirkungen von Vorschulerziehung sowie – mit einigen Unsicherheiten behaftet – von Privatschulen auf die erfassten Leistungen hingewiesen (Schleicher et al., 2004).

Während die Präsentation auch in diesem Ergebnisbericht sehr akkurat und mit zahlreichen Einordnungen, Erläuterungen und Interpretationshilfen angereichert war, deutete sich ein Wandel auf einer diskursiv-kommunikativen Ebene an: Der bildungspolitische Impact von PISA 2000 wurde mehrfach hervorgehoben, ebenso die durch die zweite und die folgenden Untersuchungen nun mögliche Rolle eines umfassenden und periodischen Monitorings. Illustriert wurde dieser Wandel durch eine deutlich akzentuierte Rhetorik der Leistung im Wettbewerb der Nationen. Im Vorwort des Ergebnisberichts heisst es beispielsweise:

Finland, the top performing country in the PISA 2000 reading assessment, has maintained its high level of reading performance while further improving its performance in mathematics and science, placing it now on a par with the East Asian countries, whose performance in mathematics and science had been previously unmatched. By contrast, in Mexico, the lowest performing OECD country in the 2000 assessment, the pressure to expand the still limited access to secondary education [...] may have been one of the factors contributing to lower performance in 2003 in all three assessment areas.“ (Schleicher et al., 2004, S. 4)

Die PISA-Berichterstattung nahm in diesem Sinne die Art und Weise der öffentlichen Diskussion und Interpretation von PISA 2000, wie sie Tillmann (2008) exemplarisch für Deutschland rekonstruiert, selbstreferenziell auf. Dieser Stil wurde in den Folgeuntersuchungen sukzessive zum Standard in den PISA-Ergebnisberichten. PISA entwickelte sich damit auch diskursiv zu einem anerkannten Verfahren der Leistungsevaluation (Fend, 2008b).

In PISA 2006 lag der Untersuchungsschwerpunkt auf den naturwissenschaftlichen Kompetenzen. Der Ergebnisbericht dieser dritten PISA-Durchführung enthielt vertiefte Analysen bezogen auf schulische und schulsystematische Charakteristika. Bezogen auf die durch sozio-ökonomische Faktoren erklärbaren Leistungsunterschiede wurde insbesondere die Wichtigkeit der bildungspolitischen Bearbeitung des Bedarfs nach spezifischer Förderung einzelner Schulen und Schülergruppen betont. Bezogen auf die unterrichts-, schul- und ressourcenbezogenen Faktoren wurde ein komplexes Mehrebenenmodell präsentiert, in dem insbesondere Schulautonomie, verschiedene Formen der Zulassungsregulierung und mehr Unterrichtszeit als Merkmale hervortraten, die auch unter Kontrolle des sozio-ökonomischen Hintergrunds mit höheren Leistungen einhergingen. Als eher negativer Einflussfaktor stellten sich Möglichkeiten der leistungsbezogenen Gruppierung und damit das Prinzip der Leistungsdifferenzierung heraus. Mit der dritten PISA-Durchführung wurde auch die Betrachtung der Ergebnisse im Zeitverlauf aktualisiert: Insbesondere für den Kompetenzbereich Lesen wurde festgestellt, dass – abgesehen von einzelnen Ländern – sich die Leistungen zwischen 2000 und 2006 nicht markant verbessert hatten, und dies trotz teilweise massiv höherer Bildungsausgaben. Ähnliches wurde für die Entwicklung der Mathematikleistungen zwischen 2003 und 2006 konstatiert (Schleicher, Cresswell, Ikeda & Shewbridge, 2007).

Im Ergebnisbericht zu PISA 2006 setzte sich der Wandel auf der diskursiv-kommunikativen Ebene fort. In den früheren Berichten waren zwar jeweils Rangreihenfolgen enthalten. Das explizite Rangieren der Länder nach ihren Leistungsmittelwerten wurde jeweils unterhalb der entsprechenden Tabellen angegeben. Dazu wurde die relative Unsicherheit der Mittelwerte und der daraus entstehenden Rangreihenfolge stets transparent gemacht (Schleicher et al., 2004). Im Ergebnisbericht zu PISA 2006 dagegen stellten die Range of ranks der einzelnen Länder vielfach nicht mehr eine kommentierte Zusatzinformation dar, sondern waren die eigentliche Hauptinformation der entsprechenden Tabellen (z. B. Schleicher et al., 2007, S. 58). Damit wurde das kommunikative Element der Ratings and rankings zunehmend in den Vordergrund gerückt:

What is fairly new is that results of R &R [ratings and rankings] initiate public and political debates because they create an air of competition around state performance or policies by attributing relative positions. Although R &R usually do not provide direct recommendations or policy proposals, they can at least draw attention to possible solution strategies or best practice examples in a specific problem field and, hence, open a window of opportunity for policy reforms.“ (Martens & Niemann, 2013, S. 314)

Obschon unter anderem Grek (2009) feststellte, dass die PISA-Ergebnisse weltweit sehr unterschiedlich rezipiert und bildungspolitisch eingesetzt wurden, erscheint das bildungspolitische Programm in den internationalen PISA-Berichten der ersten drei Durchführungen zunehmend stabiler und konkreter. Die hohe Effektivität der Kommunikation von Ergebnissen und bildungspolitischem Programm lässt sich unter anderem daran ablesen, dass der Diskurs um die politische Bearbeitung von Bildung und Schule auf internationaler, nationaler und regionaler Ebene entscheidend und fast unausweichlich durch PISA bestimmt wurde (H.-D. Meyer & Benavot, 2013a). Ergebnisse und Terminologien fanden – wie für die Schweiz zu zeigen sein wird – national und regional zunehmend Verbreitung.

Mit PISA 2009 begann der zweite Untersuchungszyklus. Untersuchungsschwerpunkt waren zum zweiten Mal die Lesekompetenzen. Die Erhebung fokussierte zusätzlich die Lerndispositionen der 15-jährigen Schülerinnen und Schüler sowie das Wissen und die Anwendung von Lernstrategien. Im Ergebnisbericht kristallisierten sich der sozio-ökonomische Hintergrund, die unterrichts-, schul- und ressourcenbezogenen Faktoren, die Lerndispositionen der Schülerinnen und Schüler und – für 19 Länder – der Umgang mit digitalen Informationen als relevante Themenkomplexe heraus (Schleicher et al., 2010d; Adams & Cresswell, 2012). Erneut bestätigt wurden die Zusammenhänge der Leistungen mit dem sozio-ökonomischem Status der einzelnen Schülerinnen und Schüler sowie der Schülerschaft einer Schule. Die Bildungssysteme seien – so ein Kernergebnis – trotz vieler gezielter Interventionen immer noch nicht in der Lage, unterschiedliche Hintergründe und Voraussetzungen der Kinder so zu kompensieren, dass sich diese nicht mehr auf deren Leistungen auswirkten (Schleicher et al., 2010b). Zusätzlich konnten Massnahmen auf der Systemebene wie etwa Leistungsdifferenzierung, Repetition oder separative Sonderschulung erneut mit niedrigeren Durchschnittsleitungen und deutlich verringerter Chancengleichheit in Zusammenhang gebracht werden. Schulautonomie bezogen auf Curricula und Leistungsbewertung wirke sich positiv auf die Leistungen aus. Ein kompetitives Umfeld – teilweise auch als Quasi-Markt bezeichnet (Maroy, 2008) – für Schulen gehe dagegen nicht mit höheren Leistungen einher (Schleicher et al., 2010c). Im Vergleich mit den früheren PISA-Resultaten zeigte sich in vielen Ländern eine leichte Verbesserung, insbesondere in Form einer Reduktion der Anteile von 15-Jährigen in den untersten Kompetenzstufen (Schleicher et al., 2010a).

In PISA 2012 lag der Untersuchungsschwerpunkt ein zweites Mal auf den mathematischen Kompetenzen. Als zusätzliches Element wurde in einigen Ländern die sogenannte Financial literacy untersucht (Schleicher et al., 2014a). Ebenfalls konnten in PISA 2012 erstmals einige Mathematikaufgaben am Computer gelöst werden. Ergänzend zu den mathematischen Kompetenzen wurde – dem Literacy-Konzept folgend – der Grad der Vertrautheit mit und der Bekanntheit von mathematischen Theorien, Konzepten und Inhalten erhoben. Diese sogenannten Opportunities to learn bezogen sich dabei auf die Lernzeit in Schul- und Unterrichtskontexten (Schleicher et al., 2014b). Die meisten Ergebnisse von PISA 2009 wurden in PISA 2012 reproduziert: Eine separative Ausrichtung der Bildungssysteme wurde eher mit tieferen Leistungen und die in vielen Ländern gestärkte Schulautonomie mit besseren Leistungen in Verbindung gebracht (Schleicher et al., 2013a, 2013b). Bezogen auf die Financial literacy wurde festgestellt, dass ein wesentlicher Teil der Schülerinnen und Schüler sehr niedrige Kompetenzen aufwies. Dieses Ergebnis – und hier tauchen wiederum Elemente des ökonomisch angehauchten, bildungspolitischen Programms auf – wurde insofern als gravierend dargestellt, als dass ein Mindestmass an Financial literacy einem substanziellen Teil der Bevölkerung fehle und damit deren Teilnahme an Arbeitsmarkt und an einer Gesellschaft, die geprägt sei durch genuin finanzielle Phänomene wie Hypotheken, Versicherungen, Steuern, Rente und Geldanlagen, erschwere (Schleicher et al., 2014a).

In den Ergebnisberichten von PISA 2012 findet sich erstmals eine Art bildungspolitisches Programmmonitoring: Entwicklungen in den Leistungen und in den wichtigsten Zusammenhangsgrössen – etwa zu Stärke und Form der sozio-ökonomischen Gradienten – wurden mit konkreten politischen Entwicklungen in einzelnen Ländern zusammengebracht. So wurden beispielsweise die PISA-Ergebnisse und die dadurch ausgelösten Reformen seit 2000 in Deutschland oder Polen oder detailliert beschrieben (Schleicher et al., 2013a, 2013b). An anderer Stelle wurden die bildungspolitischen Massnahmen zur Förderung der Financial literacy in acht Ländern aufgeführt (Schleicher et al., 2014a). Mit der expliziten Bewertung der bildungspolitischen Massnahmen der einzelnen Länder auf der Basis der PISA-Resultate wurde der Diskurs um die Generierung und Verarbeitung von Daten und Informationen zuhanden politischer Akteure im Sinne des bildungspolitischen Programms weiterentwickelt.

In PISA 2015 mit Untersuchungsschwerpunkt in den Naturwissenschaften war die computerbasierte Testdurchführung erstmals Standard und nur eine sehr reduzierte Menge von Aufgaben konnte überhaupt noch auf Papier bearbeitet werden. Ein Teil der ergänzenden Untersuchungselemente – etwa die Befragung zu den Kontextinformationen – wurde ebenfalls in den Modus des Computer-based assessment (CBA) überführt (Schleicher et al., 2016a). Die Untersuchung der Financial literacy wurde in 15 Ländern wiederholt (OECD, 2017a). Als zusätzliches Untersuchungselement wurden erstmals Daten zum Wohlbefinden der Schülerinnen und Schüler erhoben (OECD, 2017b). Wiederum wurde ein Grossteil der Ergebnisse von PISA 2009 und 2012 reproduziert (Schleicher et al., 2016a). Gerade mit Bezug auf die unterrichts-, schul- und ressourcenbezogenen Faktoren wurden für die naturwissenschaftlichen Kompetenzen wieder eher Elemente des Unterrichts wie Lernzeit, adaptive Lernformen, positive Lernumgebung, integrative Förderung und variable Beurteilungsformen sowie Ressourcenfragen wie Schul- und Klassengrössen als bedeutsam hervorgehoben (Schleicher et al., 2016b). Bezogen auf das Wohlbefinden zeigten sich in den Ergebnissen Zusammenhänge zwischen der Elternzusammenarbeit, der Unterstützung durch die Eltern und den Leistungen sowie dem allgemeinen Wohlbefinden der Kinder (OECD, 2017b).

In den Ergebnisberichten von PISA 2015 wurde das Gewicht der Einordnung und Bewertung der Ergebnisse deutlich erhöht: Die Ergebnisse in den naturwissenschaftlichen Kompetenzen wurden – ähnlich wie bei der Financial literacy in PISA 2012 – vor einen gesellschaftlichen Hintergrund gesetzt und als enttäuschend eingeordnet. Nur wenige Länder hätten ihr Resultat gegenüber PISA 2006 verbessern können und dies vor dem Hintergrund einschneidender technologischer und naturwissenschaftlicher Entwicklungen:

Since then [PISA 2006], the world of science and technology has changed significantly. The smartphone [...] was invented and became ubiquitous. Social media [...], cloud-based services and advances in robotics/machine learning, based on Big Data, became available and have had a profound impact on our economic and social life [...]. The Internet of things as well as augmented and virtual reality emerged. Also, biotechnology advanced considerably since 2006, as evidenced in the possibilities of gene sequencing and genome editing, synthetic biology, stem-cell therapies, bio-printing, optogenetics, regenerative medicine and brain interfaces that became available since then.“ (Schleicher et al., 2016a, S. 264)

Dass die Kompetenzentwicklung in vielen Ländern der technologischen Entwicklung hinterherhinke und ein signifikanter Teil der Schülerinnen und Schüler die als Baseline definierte zweite Kompetenzstufe nicht erreiche, sei aus mehreren Gründen problematisch: (1) Die ungleiche Kompetenzverteilung verletze eines der 2015 vereinbarten Ziele für nachhaltige Entwicklung der United nations organization (UNO), das inklusive, gleichberechtigte und hochwertige Bildung für alle postuliert. (2) Verschiedene Längsschnittstudien zeigten, dass Kinder, die in den frühen PISA-Untersuchungen lediglich untere Kompetenzstufen erreichten, deutlich seltener einen Abschluss auf der Sekundarstufe II erreichten.Footnote 12 (3) Studien, die PISA- und PIAAC-Daten kombinierten, zeigten einen Zusammenhang zwischen tiefen Kompetenzstufen und späteren Schwierigkeiten auf dem Arbeitsmarkt (Schleicher et al., 2016a). Mit diesen und weiteren Argumentationsmustern in den Ergebnisberichten wurde die evaluative Dimension der PISA-Ergebnisse zunehmend betont. Die hegemonialen Züge des Diskurses sind offensichtlich. Die Teilnahme an PISA und am PISA-Diskurs selbst wurde als Erfolgsvoraussetzung explizit gemacht:

The countries that have improved the most in PISA over the past decade have often shown the capacity to find solutions to the challenges they face, using PISA and other robust sources of evidence, as both a mirror and a way to build consensus about the priorities for action.“ (Schleicher et al., 2016a, S. 265)

Diese selbstreferenzielle Evaluation dokumentiert gewissermassen den Abschluss – oder die Durchsetzung – der über die sechs ersten PISA-Untersuchungen hinweg entwickelten bildungspolitischen Programmatik. PISA stützt sich auf einen breiten, internationalen Konsens bezüglich des methodischen und theoretischen Programms und ein entsprechend ausgebautes Experten- und Wissenschaftsnetzwerk. Die globale Rezeption der Ergebnisse ist gewährleistet und über das Politikmonitoring wird die Wirksamkeit des bildungspolitischen Programms dokumentiert. Allerdings ist die vor allem mit PISA verbundene, „neue Form der an Standards orientierten Bildungsentwicklung“ (Terhart, 2015, S. 6) etwas zu eindimensional geblieben. Einwände bezogen auf die Passung zwischen primär ökonomisch, technologisch und neo-liberal inspirierten Ansätzen und den Gegenstandsbereichen Bildung, Lernen und Schule, die sich als soziale, offene, semiotische und rekursive Systeme einer solchen Perspektive immer teilweise entziehen, wurden parallel mit PISA weiterentwickelt (Biesta, 2015; Uljens, 2007; H.-D. Meyer & Zahedi, 2014). Die Kritik an der Idee des ausschliesslich an PISA-Ergebnissen orientierten Improvement, die Fragen nach Qualitätsverständnis und Praxisrelevanz des bildungspolitischen Programms und der dabei identifizierten Herausforderungen und Lösungen sind nach wie vor relevant.

Auf einer konkreteren Ebene identifizieren Hopfenbeck et al. (2017) in ihrer Sekundäranalyse englischsprachiger Artikel in wissenschaftlichen Zeitschriften Elemente kritisch-wissenschaftlicher Qualitätskontrolle. Insgesamt hätten sich neben der Verarbeitung von PISA-Daten auch Policyanalysen und die kritische Auseinandersetzung mit PISA im Forschungsdiskurs etabliert. Kritisch seien unter anderem Fragen nach Inhalt und Bedeutung des Literacy-Konzepts, zur Frage der kulturellen Curricula, zur Qualität der ab 2012 einbezogenen Lehrpersonendaten, zur Qualität der Instrumente im Bereich der Kontextinformationen oder zu Stichproben und Skalen bearbeitet worden. Dazu gäbe es in vielen Artikeln auch Hinweise auf grundsätzliche Schwierigkeiten in der politischen Verwendung von PISA-Daten und auf generelle Unstimmigkeiten.

Die PISA-Ergebnisse und der damit etablierte Diskurs um die politische Bearbeitung von Bildung und Schule auf der internationalen Ebene bildete – zusammen mit der Revitalisierung von Koordination und Bildungsforschung in der Schweiz (vgl. Abschn. 5.2) – eine Gemengelage, in der sich das Bildungsmonitoring auf nationaler Ebene entwickelte. Brenn- und Referenzpunkte in dieser Gemengelage sind unter anderem die PISA-Untersuchungen und -Auswertungen in der Schweiz.

5.3.3 PISA in der Schweiz

Die Schweiz war von Beginn weg an PISA beteiligt. Im Ausschuss der teilnehmenden Länder nahm seitens der Schweiz Heinz Gilomen vom BFS Einsitz. Mit Raul Gagliardi von der Universität Genf in der Expertengruppe für die Naturwissenschaften und Erich Ramseier vom Amt für Bildungsforschung des Kantons Bern im internationalen PISA-Konsortium waren zwei weitere Schweizer auf der internationalen Ebene des Programms vertreten (Schleicher et al., 2001). Bereits 1998 legten Bund und Kantone gemeinsam im Rahmen der CORECHED die nationale Projektstruktur fest: Die operative Projektleitung übernahm das BFS, die nationale Gesamtleitung wurde einer eigens eingesetzten Steering group mit Vertretern von Bund und KantonenFootnote 13 übertragen, der ihrerseits ein 20-köpfiges Konsultativgremium zur Seite gestellt war. Beteiligt an PISA 2000 waren alle 26 Kantone. Unterhalb der nationalen Projektstruktur wurden mehrere regionale Konsortien gebildet, die die eigentliche Erhebung organisierten und durchführten: Die französischsprachigen Kantone übertrugen diese dem Service de la recherche en éducation (SRED) in Genf, für die italienischsprachige Schweiz war das Ufficio studi e ricerche (USR) in Bellinzona zuständig. An den Erhebungen in den deutschsprachigen Kantonen waren das Amt für Bildungsforschung des Kantons Bern, die Forschungsstelle der Pädagogischen Hochschule St.Gallen (PHSG), die Bildungsplanung Zentralschweiz in Luzern und das Kompetenzzentrum für Bildungsevaluation und Leistungsmessung (KBL) in Zürich beteiligt. Auf nationaler Ebene waren wiederum mehrere Expertengremien an der Adaption der Erhebungsinstrumente, der Stichprobenziehung sowie der Auswertung beteiligt (McCluskey, 2000; Zahner et al., 2002).

Während die Stichprobe für den internationalen Vergleich ausschliesslich über das Alter der Schülerinnen und Schüler definiert war, wurden für die nationalen Auswertungen repräsentative Stichproben für die drei grossen Sprachregionen unter den Schülerinnen und Schülern der 9. Klasse der obligatorischen Schule gebildet. Die Kantone hatten zusätzlich die Möglichkeit, die kantonale Stichprobe auszubauen und so die Jugendlichen des eigenen Kantons repräsentativ abzubilden. Davon machten in PISA 2000 neun Kantone Gebrauch (Zahner et al., 2002). Zusätzlich konnte der Kanton Tessin die Stichprobe der italienischsprachigen Schweiz als kantonal repräsentative Stichprobe nutzen (Pedrazzini-Pesce, 2003). An den ersten PISA-Tests nahmen rund 13’000 Schweizer Schülerinnen und Schüler teil (Zahner et al., 2002).

Die ersten PISA-Ergebnisse für die Schweiz wurden zeitgleich mit den internationalen Ergebnissen 2001 veröffentlicht (U. Moser, 2001). Bereits in diesem ersten Bericht wurde deutlich, dass PISA auf der nationalen, sprachregionalen und kantonalen Ebene den gesamtschweizerischen Diskurs einerseits prägen und verändern, sich aber andererseits sorgfältig darin einfügen sollte. Programmatisch eingeführt wurde dies durch die Steuergruppe im Vorwort folgendermassen:

„Die Qualitätssicherung des Bildungswesens setzt sinnvollerweise bei den Resultaten des Bildungsprozesses an. Die schulischen Leistungen von Schülerinnen und Schülern in den Kernbereichen Lesen, Mathematik und Naturwissenschaften am Ende der obligatorischen Schule können dabei als kumulierte Effekte der schulischen Karrieren interpretiert werden. Ein Leistungsvergleich mit andern Bildungssystemen liefert wertvolle Informationen zu Stärken und Schwächen des eigenen Bildungssystems.“ (U. Moser, 2001, S. 4)

Mit dieser Art der Funktionszuschreibung wurde PISA als Leistungserhebung und Instrument des internationalen Vergleichs mit dem schweizerischen Diskurs einer auf Qualität bezogenen und durch (bildungs-)wissenschaftliche Erkenntnisse unterstützten Systementwicklung kombiniert.

Inhaltlich wurden die nationalen Ergebnisse von PISA 2000 – insbesondere in Mathematik – als Bestätigung früherer Schulleistungsstudien wie TIMSS oder IALS bzw. als den Erwartungen auf der Basis dieser früheren Resultate entsprechend dargestellt. Zentrale Ergebnisse waren der hohe Anteil der Schülerinnen und Schüler mit geringen Lesekompetenzen von über 20 Prozent und die teilweise damit verbundenen, eher wenig ausgeprägten Fähigkeiten der Reflexion und der Beurteilung von Texten. Die in den Ergebnissen identifizierten Ansatzpunkte politischer Handlungsfelder waren die späte Einschulung, die Geschlechterdifferenzen in Leseinteresse und -leistungen sowie die Möglichkeiten der Schule, ungünstige Lernvoraussetzungen und Unterschiede der sozialen Herkunft von Kindern und Jugendlichen – auch im Zusammenhang mit Migration – zu kompensieren (U. Moser, 2001; Zahner et al., 2002).

In fünf ergänzenden Berichten wurden einzelne Aspekte auf Basis der PISA-Daten vertieft untersucht: (1) In ihrer Untersuchung der Passung von PISA-Aufgaben und Lehrplänen stellten U. Moser & Berweger (2003) fest, dass die sogenannte curriculare Validität mit den Leistungen in Mathematik und Naturwissenschaften zusammenhänge, jedoch nicht mit den Leseleistungen. (2) Broi, Moreau, Soussi und Wirthner (2003) identifizierten in ihrer Analyse der Ergebnisse in den zehn Kantonen mit erweiterter Stichprobe die Vertrautheit mit der Testsprache, das Geschlecht und den sozio-ökonomischem Hintergrund als Einflussgrössen auf die Leistungen. (3) Die Analyse des Einflusses der sozialen und kulturellen Herkunft auf die Schulleistungen von Coradi Vellacott, Hollenweger, Nicolet und Wolter (2003) vertiefte die Analyse zu dem, in den internationalen Berichten zentralen sozio-ökonomischen Gradienten in Form eines Vergleichs von sechs Ländern. (4) Mit den PISA 2000-Untersuchungen verbunden war die erste Erhebung der TREE-Studie, in der die nachobligatorischen Ausbildungs- und Erwerbslaufbahnen der in PISA getesteten Schülerinnen und Schüler längsschnittlich untersucht wurden. T. Meyer et al. (2003) stellten in ihrer Analyse fest, dass der aktuelle sozio-ökonomische Status, der für die Zukunft erwartete sozio-ökonomische Status sowie das Anforderungsniveau der voraussichtlichen Ausbildung zusammenhängen. (5) Im Nachgang einer Tagung zur wissenschaftlichen Diskussion des internationalen Vergleichs und Wettbewerbs nationaler Bildungssysteme anhand der PISA-Ergebnisse, die 2002 in Zürich stattfand, entstand schliesslich ein weiterer Bericht. Neben den im Sinne von Best practise relevanten Merkmalen der in PISA erfolgreichen Länder standen darin auch Fragen nach der wissenschaftlichen Verarbeitung von Wirkungs- und Leistungsdaten durch eine auszubauende schweizerische Bildungsforschung im Fokus (Larcher & Oelkers, 2003).

Die Steuergruppe veröffentlichte zusätzlich eine Synthese der Ergebnisse und Analysen und empfahl darin zehn Handlungsfelder zur politischen Bearbeitung, die vor allem bedingt durch sinkende Schülerbestände im Zeitraum bis 2020 möglich und realistisch seien. Darunter waren die obligatorische Einführung einer Vorschulstufe bzw. des Kindergartens, die Einführung geleiteter Schulen sowie die stärkere Ausrichtung von Qualitätsentwicklung auf Schul- und Systemebene an überprüfbaren Leistungszielen und Bildungsstandards. Eine weitere Empfehlung bezog sich auf den quantitativen und qualitativen Ausbau der Lehrerbildung sowie der Bildungsforschung, primär bezogen auf die Untersuchung von Wirksamkeit (Buschor, Gilomen & McCluskey, 2003).

Wie Bieber (2012) darstellt, wurden die PISA-Ergebnisse in der Schweiz aus dreierlei Gründen sehr intensiv rezipiert: (1) Ähnlich wie in Deutschland oder Dänemark seien Bildung und wirtschaftliche Prosperität wichtige Elemente des nationalen Selbstverständnisses gewesen. (2) Da die Schweiz eher selten an den verschiedenen internationalen Schulleistungsstudien der 1990er-Jahre teilnahm, hätten die relativ hohen Bildungsausgaben und die meist positiven Ergebnisse nicht direkt leistungsbezogener internationaler Vergleiche vor PISA kaum Zweifel an der hohen Qualität des Bildungssystems aufkommen lassen. (3) Zugleich seien in den föderalen Strukturen verschiedene Reformvorhaben nicht oder nur teilweise umsetzbar gewesen. Ein sehr deutliches Beispiel dafür ist die Struktur der Sekundarstufe I (vgl. Abschn. 5.2). Gerade für diese politisch in den 1990er-Jahren nicht entscheidbare Frage wurde von PISA dezidiertes Steuerungswissen und damit eine Wiederaktivierung der Harmonisierungsbestrebungen erwartet (Ramseier et al., 2002).

Die diskursive Aufnahme der ersten PISA-Ergebnisse im Schweizer Kontext war einerseits geprägt durch die auf internationaler Ebene diskutierten Zusammenhänge zwischen Merkmalen der einzelnen Bildungssysteme und den Leistungen. Gerade die Themen der Selektion auf der Sekundarstufe I und der frühen Förderung wurden aufgenommen. Andererseits wurde im Schweizer Kontext die Frage der Reaktionsfähigkeit der regelmässig als harmonisierungsbedürftig bezeichneten, kantonalen Systeme der obligatorischen Schule zentral. Die inhaltliche Zielsetzung „Voraussetzungen dafür zu schaffen, dass alle Kinder und Jugendlichen, unabhängig von ihrem sozialen und ökonomischen Hintergrund, Bildungsangebote wahrnehmen können, die ihren Fähigkeiten entsprechen“ (U. Moser, 2001, S. 18) akzentuierte auch die Diskussion um Harmonisierung und Steuerung im föderalen Bildungssystem neu. Konkret diskutiert wurden Themen der Standardsetzung, der Qualitätssicherung, der Schulautonomie und der Schulentwicklung (Larcher & Oelkers, 2003).

Nicht zuletzt über die Diskussion der ersten PISA-Ergebnisse etablierte sich ein nationales, bildungspolitisches Programm, das beispielsweise an einer Tagung von 2002 zu den Lesekompetenzen im internationalen Vergleich sehr deutlich umrissen wurde:

„In Workshops wurden Massnahmen wie die Senkung des Einschulungsalters, der weitere Ausbau des ausserhäuslichen Betreuungsangebots, die Integration von Problemfällen mit gezielter fachlicher Unterstützung anstelle des Abschiebens in Sonderklassen, eine individuelle Begabungsförderung statt allzu frühe Selektion, die wechselseitige Nutzung von Print- und Multimedia, der gezieltere und kompetentere Einbezug des Internets oder die Bedeutung von Lerntechnik und Leistungsbereitschaft diskutiert. Einig waren sich die Anwesenden, dass sehr bald gesamtschweizerische Minimalstandards verbindlich festgelegt und dass die von der EDK in Auftrag gegebenen vertiefenden Studien abgewartet werden müssen, bevor konkrete Schlussfolgerungen gezogen werden können.“ (Gloor, 2002, S. 19)

Dieses bildungspolitische Programm bezog sich sowohl auf die Ebene der konkreten Systemmerkmale als auch auf die Frage der Harmonisierung und der Steuerung. Es floss unter anderem direkt in die bereits Ende der 1990er-Jahre initiierten Programmarbeiten der EDK ein (vgl. Abschn. 5.4.1).

Für PISA 2003 wurde das Stichprobendesign grundsätzlich beibehalten. Drei zusätzliche Kantone liessen eine kantonal repräsentative Stichprobe testen. Die Gesamtzahl der getesteten Schülerinnen und Schüler stieg auf fast 25’000. Die Ergebnisse in Naturwissenschaften waren signifikant besser als 2000, jene in Lesen und Mathematik ungefähr gleich. Ein inhaltlicher Fokus der Auswertungen lag auf den Auswirkungen der verschiedenen Modelle der Sekundarstufe I, auf die bereits in PISA 2000 einige kantonale Auswertungen ausgerichtet waren (unter anderem Broi et al., 2003; Ramseier et al., 2002). Dabei schnitten kooperative Schulmodelle besser ab als geteilte, insbesondere bei der Verminderung des sozio-ökonomischen Einflusses (Zahner Rossier et al., 2004). Dieser Befund wurde in einer vertieften Analyse der Mathematikkompetenzen mit den Daten aus allen kantonalen Stichproben bestätigt. Die in geteilten Schulmodellen bestehende Zusammensetzung von Schulklassen nach sozio-ökonomischen Merkmalen führe insbesondere dann zu schlechteren Mathematikleistungen wenn der Anteil der Kinder aus sozio-ökonomisch benachteiligten Verhältnissen hoch sei, was typischerweise in Schultypen mit Grundansprüchen der Fall wäre (U. Moser & Berweger, 2005). Eine weitere Analyse derselben Daten wies zusätzlich auf die Anteile der Landbevölkerung, der Jugendlichen mit Migrationshintergrund, der Bildungsausgaben an den Gesamtausgaben sowie die über die gesamte Schulzeit kumulierten Mathematikstunden als Faktoren zur Erklärung der Unterschiede zwischen den Kantonen hin (Holzer, 2005).

Wiederum im dreistufigen Stichprobendesign beteiligte sich die Schweiz an PISA 2006. Kantonale Zusatzstichproben wurden in 15 Kantonen getestet. Die nationalen Ergebnisse lagen in Naturwissenschaften und Mathematik auf dem Niveau von 2003 sowie bei den Lesekompetenzen auf dem Niveau von 2000 und 2003. In den als Untersuchungsschwerpunkt gesetzten Naturwissenschaften wurde der deutliche Einfluss des sozio-ökonomischen Hintergrundes von Schulen, Schülerinnen und Schülern für die Schweiz bestätigt. Zudem sei das Unterrichtsangebot in Naturwissenschaften in der Schweiz etwas weniger umfangreich als im OECD-Durchschnitt (Zahner Rossier & Holzer, 2007). Insbesondere die über Stundentafeln relativ direkt steuerbare Unterrichtszeit wurde als Einflussfaktor auf die Leistungen näher untersucht. Dabei wurde ein Zusammenhang zwar bestätigt, jedoch auf die Schwierigkeit einer rein quantitativen Lesart hingewiesen. Des Weiteren wurde in Zusatzanalysen darauf hing7ewiesen, dass die im internationalen Vergleich guten Ergebnisse in Naturwissenschaften nicht direkt dazu führten, dass sich Jugendliche für naturwissenschaftsbezogene Berufe interessierten und entschieden. Insofern wäre eine geschlechtsspezifische, schulische Förderung entsprechender Interessen und Berufsabsichten sinnvoll (U. Moser et al., 2009).

Nach drei PISA-Durchführungen bilanzierte die nationale Steuergruppe, dass durch die breite Aufmerksamkeit, die den PISA-Ergebnissen und dem Schulbereich insgesamt zuteil wurde, zahlreiche Reformvorhaben aus den 1990er-Jahren vorangebracht werden konnten. Zudem seien mit PISA gewissermassen Grundsteine einer neu ausgerichteten Generierung und Verarbeitung von Daten und Informationen zuhanden politischer Akteure und eines neuen Steuerungsverständnisses gesetzt worden:

„Die regelmässige Beobachtung des ganzen Systems ist notwendig, damit die PISA-Ergebnisse in einen grösseren nationalen Kontext gestellt werden können und eine Steuerung des Bildungssystems möglich ist, die sich vermehrt an Evidenz orientiert und die traditionellen Steuerungsinstrumente durch Outputdaten ergänzt.“ (Zahner Rossier & Holzer, 2007, S. 5)

Damit wurde die PISA-Debatte explizit in den Diskurs um Harmonisierung, Monitoring und letztlich Steuerung des Bildungssystems eingeordnet.

Im nationalen Ergebnisbericht von PISA 2009 wurde der internationale Vergleich als Kommunikationsstrategie deutlich intensiver angewandt als zuvor. Die Schweizer Ergebnisse wurden jeweils im Vergleich mit den Nachbarstaaten, den OECD-Mittelwerten sowie mit vier weiteren Ländern präsentiert. Sogenannte Vergleichsländer waren zwar schon im nationalen Ergebnisbericht von PISA 2006 zu finden gewesen, sie waren jedoch nicht explizit als zentrales kommunikatives Element eingeführt worden (Zahner Rossier & Holzer, 2007). Mit dem vergleichenden Ansatz wurde im nationalen Ergebnisbericht von PISA 2009 der OECD-Mittelwert als Referenzgrösse stärker hervorgehoben, ähnlich wie dies in den internationalen Ergebnisberichten von Beginn an praktiziert worden war. Eine Betonung lag darauf, dass die Schweizer Ergebnisse im Mittelwert wiederum signifikant über den Mittelwerten aller OECD-Länder lagen (vgl. Tabelle 5.1).Footnote 14 Neben den durchschnittlichen bis guten Ergebnissen, wurden insbesondere die für die Schweiz nachgewiesenen Einflussgrössen des Geschlechts, des sozio-ökonomischen Status, der Sprache und des Migrationshintergrunds auf die Leseleistungen berichtet (Nidegger et al., 2010). Im Bericht zu den Ergebnissen der drei sprachregionalen und 13 kantonalen Stichproben wurde die Relevanz der erwähnten Einflussgrössen auch für die Mathematik- und Naturwissenschaftskompetenzen bestätigt, wenngleich sich die konkrete Stärke der entsprechenden Zusammenhänge zwischen den Sprachregionen und den Kantonen teilweise deutlich unterschieden habe (Nidegger, Moser et al., 2011).

Tabelle 5.1 Leistungsmittelwerte der PISA-Untersuchungen (Zahner et al., 2002; Zahner Rossier et al., 2004; Zahner Rossier & Holzer, 2007; Nidegger et al., 2010; Nidegger et al., 2013; Schleicher et al., 2016a)

Der Bericht der regionalen und kantonalen Ergebnisse von PISA 2009 enthielt eine Einordnung der durch PISA dokumentierten Leistungsentwicklung in die damit verbundenen Ansprüche einer durch regelmässiges Monitoring unterstützten Bildungspolitikgestaltung. Damit wurde die Bilanzierung im Vorwort des Ergebnisberichts von PISA 2006 gewissermassen fortgesetzt (Angelone & Moser, 2011): (1) Durch die PISA-Untersuchungen habe der in vielen Kantonen bereits vor 2000 initiierte Diskurs um die Förderung sozio-ökonomisch benachteiligter Kinder neuen Schub erhalten. (2) Das in PISA zentrale Literacy-Konzept habe das Bewusstsein für die gesellschaftlichen Funktionen von Schule verändert, hin zu einer Betonung der grundlegenden Kompetenzen, die für eine erfolgreiche Integration in Arbeitsmarkt und Gesellschaft als wichtig definiert wurden. Dabei würde vor allem den Sprachkompetenzen eine Schlüsselrolle zugeordnet. (3) Neben den eigentlichen Resultaten hätten vorab die durch PISA initiierten Veränderungen des Diskurses als Katalysatoren und Auslöser politischer Prozesse gewirkt. (4) Ein Monitoring der ausgelösten Prozesse und ihrer Wirkungen sei jedoch auch mit PISA eine kaum erfüllbare Hoffnung geblieben. PISA sei nicht zu einem Instrument der Wirkungsüberprüfung politischer Programme geworden.

Mit dieser Einordnung wurde – durchaus in Übereinstimmung mit internationalen Bilanzierungen – die Wirkung von PISA als Impuls für nationale, regionale und kantonale Entwicklungen bestätigt. Zugleich wurde die Nachhaltigkeit von PISA als Impulsgeber eher kritisch bewertet. Eine Überführung von PISA im damaligen Umfang hin zu einer langfristigen Politikbeobachtung und Wirkungsanalyse erschien nicht mehr als sinnvolles und realistisches Szenario. Es wurden zunehmend Zweifel formuliert, ob der mit PISA angestrebte Nutzen in Form von bildungspolitisch verarbeitbarem Steuerungswissen erreicht worden sei und ob er den grossen Ressourceneinsatz rechtfertige. Positiv formulierte dies die damalige EDK-Präsidentin folgendermassen:

„In wenigen Jahren werden wir in der Schweiz erstmals mit „eigenen“ Instrumenten die Leistungen der obligatorischen Schule überprüfen. Das Referenzsystem bilden die nationalen Bildungsstandards [...]. Im Unterschied zu internationalen Leistungsmessungen wie PISA werden sich mit dieser Überprüfung Daten erheben lassen, die für die Weiterentwicklung des nationalen Bildungssystems besonders aussagekräftig sind. [...] Für unsere Schulkultur wird aber leitend bleiben: Keine Testitis und keine Rankings. Die EDK verfolgt im Rahmen von HarmoS seit langem ein Evaluationskonzept, das bewusst zurückhaltend ist. Auf gesamtschweizerischer Ebene werden die Referenztests für das System-Monitoring eingesetzt. Dieses umfasst repräsentative Stichproben. Rankings oder Beurteilungen von Lehrpersonen sind damit nicht möglich und auch nicht gewollt. Eine zweite Anwendung finden die Tests im Rahmen der förderorientierten individuellen Standortbestimmungen, die in der Verantwortung der Sprachregionen entwickelt werden.“ (Chassot, 2012, S. 1)

Dementsprechend entschied die EDK bereits 2009, das dreistufige Stichprobendesign und damit die sprachregionale und kantonale Untersuchungsebene auf PISA 2015 hin aufzugeben (EDK, 2010; Nidegger, Moser et al., 2011). Im Verlauf des Jahres 2012 wurden auf nationaler und gesamtschweizerischer Ebene die Entscheide bestätigt, das künftige Engagement in PISA deutlich zu reduzieren und stattdessen auf die 2007 mit dem HarmoS-Konkordat beschlossene, an den nationalen Bildungsstandards ausgerichtete Überprüfung der Grundkompetenzen (ÜGK) zu setzen (EDK, 2013a; vgl. Abschn. 5.5).

Im nationalen Ergebnisbericht von PISA 2012 wurde die rückblickend-bilanzierende Perspektive der Vorgängerberichte fortgesetzt. Im Fokus standen wiederum die Zusammenhänge zwischen sozio-ökonomischem Hintergrund, Migration und den Leistungen. Im Lichte der sehr positiven Ergebnisse wurden etwa die Phänomene der zunehmenden Zuwanderung von hochqualifizierten Arbeitskräften oder der Schülerinnen und Schüler, die trotz sozialer und sozio-ökonomischer Benachteiligung die oberen Kompetenzstufen erreichten, analysiert und dargestellt (Nidegger et al., 2013; Nidegger, Moser et al., 2014).

An PISA 2015 war die Schweiz erstmals lediglich mit der internationalen Stichprobe beteiligt. Die Kommunikation und Verarbeitung der Ergebnisse wurde geprägt durch die im Mittelwert gegenüber den letzten drei Untersuchungen deutlich schlechteren Lesekompetenzen (vgl. Tabelle 5.1). Anstelle eines Berichtes mit ersten Ergebnissen publizierten SBFI und EDK eine Medienmitteilung. Darin wurden Zweifel an der Validität der Ergebnisse geäussert und einerseits mit dem Wechsel auf die computerbasierte Erhebung und andererseits mit Unklarheiten bezüglich der Stichprobenzusammensetzung begründet (EDK & SBFI, 2016). Insbesondere der sogenannte Moduseffekt, der die Auswirkungen des Wechsels auf mehrheitlich computerbasiertes Testen auf die Leistungen beschreibt, sei trotz hohem Aufwand bei den entsprechenden Feldtests 2012 von der OECD nicht auf Länderebene ausgewertet worden, was die Aussagen zur Leistungsentwicklung stark beeinträchtige (Eymann & Ambühl, 2016).Footnote 15 Im internationalen Ergebnisbericht wurden für die Schweiz (1) die guten Mathematikleistungen, (2) die vergleichsweise grosse Differenz der Naturwissenschaftsleistungen zwischen Schülerinnen und Schülern mit bzw. ohne Migrationshintergrund sowie (3) die trotz hoher Durchschnittsleistung nach wie vor eher unterdurchschnittliche Chancengleichheit hervorgehoben (Schleicher et al., 2016a).

Bund und Kantone beschlossen im Juni 2015 die Teilnahme an PISA 2018, wiederum mit einer für internationale Vergleiche repräsentativen Stichprobe aber ohne Stichprobenerweiterungen für Sprachregionen oder Kantone (EDK, 2016).

Die diskursive Be- und Verarbeitung der PISA-Ergebnisse in der Schweiz lässt sich ganz grob in drei Phasen gliedern. (1) In der ersten Phase trafen die kommunikativ wirksamen Elemente des internationalen, bildungspolitischen Programms von PISA auf ein föderales Bildungssystem, das zumindest für die obligatorische Schule eher einen Rückstand an koordinierter Systementwicklung aufwies und sowohl um die Inhalte als auch um die Prozesse und Verantwortlichkeiten von Harmonisierung rang (Bieber, 2012). Gerade im Volksschulbereich wurden in den 1980er- und 1990er-Jahren Ansatzpunkte für eine strukturelle und koordinierte Systementwicklung identifiziert und benannt. Beispiele dafür sind der frühe Fremdsprachenunterricht oder das Schuleintrittsalter (Badertscher, 1997; Criblez, 2008c). Zugleich wurde die Reaktionsfähigkeit der immer noch auf der Basis des Schulkonkordats von 1970 koordinierten, in kantonaler Hoheit liegenden, obligatorischen Schulsysteme bereits 1990 und dann wiederum im Lichte der ersten PISA-Ergebnisse kritisch beurteilt (Criblez, 2007a). Insgesamt erhöhte sich der Handlungsdruck in dieser ersten Phase markant da die unter den Erwartungen liegenden Resultate und diskursiven Elemente von PISA auf einen trägen und inhaltlich anders gelagerten Diskurs trafen (vgl. Abschn. 5.2.5). Dieser war – wiederum für die Volksschulstufen – thematisch geprägt durch Fragen des Fremdsprachen- und Informatikunterrichts, der Beurteilungs- und Förderungspraxis, der Bildung vier- bis achtjähriger Kinder sowie durch die Bemühungen, den Status der Harmonisierung und der Koordination im Bildungsbereich zu klären (Arnet, 2000; EDK, 2001a, 2002a; Vögeli-Mantovani, 1999). (2) Im Verlauf des ersten PISA-Zyklus veränderten sich die politisch bearbeiteten Themen sowohl in den Kantonen als auch interkantonal und gesamtschweizerisch. Die Ergebnisse spurten die einzelnen Elemente thematisch vor – beispielsweise Vorstellungen einer verbesserten Sprachförderung (z. B. Bertschi-Kaufmann, 2000) oder einer Neugestaltung der Schuleingangsstufe (z. B. Wiederkehr Steiger et al., 2010) – und rahmten zugleich das für politische Argumentation und Legitimation verfügbare Material. Zugleich erfuhren die bereits in den 1990er-Jahren vorangetriebenen Bemühungen um die Weiterentwicklung der Harmonisierung im Schulbereich neuen Schub. (3) Die jüngste Phase, spätestens mit dem Beginn des zweiten PISA-Zyklus einsetzend, war geprägt durch eine repetitive, thematische und ergebnisbezogene Kenntnisnahme und Verarbeitung von PISA. Die von Angelone und Moser (2011) dokumentierte und von Chassot (2012) auch politisch zum Ausdruck gebrachte Ernüchterung basierte einerseits auf der Erwartung, mit der ÜGK bald ein auf die Bildungsstandards abgestimmtes Instrument zur Leistungserhebung zur Verfügung zu haben. Andererseits war der unter dem Eindruck der ersten PISA-Ergebnisse postulierte Anspruch, kontinuierlich und nachhaltig auf der Basis entsprechender Daten Bildungspolitik zu planen, zu gestalten und zu evaluieren nur sehr partiell eingelöst worden. Die PISA-Studien stellen damit für die Schweiz und die hier als Bildungsmonitoring im Fokus stehenden Prozesse der Generierung und Verarbeitung von Daten und Informationen zuhanden politischer Akteure einen wichtigen Impuls dar. Die Ergebnisse von PISA haben den Diskurs und damit die im Folgenden beschriebenen Entstehungsprozesse hin zum nationalen Bildungsmonitoring ebenso wie die Entwicklungen der kantonalen Bildungsmonitoring-Dispositive massgeblich mitgeprägt.

5.4 Nationale Bildungsberichte

Neben den PISA-Berichten stellen die nationalen Bildungsberichte die prominentesten Produkte des nationalen Bildungsmonitorings in der Schweiz dar. Während die Hintergründe für diese ab 2006 konkrete Form der Bildungsberichterstattung auf nationaler Ebene historisch weit zurückreichen, wurde der Aufbau eines gesamtschweizerischen Bildungsmonitorings in Verantwortung von Bund und Kantonen mit dem Tätigkeitsprogramm der EDK von 2001 formal initiiert.Footnote 16

Die Initiierung eines nationalen Bildungsmonitorings durch Bund und Kantone fiel zeitlich ziemlich genau mit der Veröffentlichung der ersten PISA-Ergebnisse zusammen. Damit wurden die Grundlagen der nationalen Bildungsberichterstattung gewissermassen im Sog des sich auflösenden Reformstaus (Bieber, 2012) geschaffen. Insofern lohnt sich zunächst ein Blick in die Phase, in der Bildungsmonitoring zum Entwicklungsschwerpunkt und zum prioritären Handlungsfeld wurde bevor daran anschliessend die konzeptionellen Vorarbeiten und die Berichte selbst dargestellt werden.

5.4.1 Entwicklungsschwerpunkte und Handlungsfelder

Das Tätigkeitsprogramm der EDK, verabschiedet im Juni 2001 anlässlich der Plenarversammlung in Magglingen, war ein breit gefächertes Panoptikum von Themen, die in den vorangegangenen Jahren politisch von Bund, EDK und Kantonen bearbeitet worden waren. Es sollte zugleich Grundlage eines allgemeinen Programm- und Tätigkeitsmonitorings sein, mit dem die EDK sich nach innen und aussen präsentieren und Profil verschaffen wollte.

Innerhalb dieses Tätigkeitsprogramms ordnete der EDK-Vorstand im Juli 2001 drei Schwerpunkten höchste strategische Priorität zu (EDK, 2002b). Die Priorisierung wurde im November von der EDK-Plenarversammlung bestätigt (EDK, 2002a): (1) Im Bereich der obligatorischen Schule sollte die bislang auf dem Schulkonkordat von 1970 basierende Harmonisierung auf formaler und inhaltlicher Ebene weiterentwickelt werden. Anvisiert wurde explizit eine nationale Festsetzung von Leistungsstandards in Erstsprache, Fremdsprachen, Mathematik und Naturwissenschaften sowie eine sprachregionale Koordination von Lehrplänen und Lehrmitteln. (2) Dem Lehrerinnen- und Lehrermangel sollte mit verschiedenen Massnahmen in den Bereichen Ausbildung, Weiterbildung, Rekrutierung und Berufsbild begegnet werden. (3) Ein schweizerisches Bildungsmonitoring sollte etabliert werden:

„Der Aufbau eines schweizerischen Bildungsmonitorings zielt auf die kontinuierliche Beschaffung und Aufarbeitung jenes umfassenden Wissens, welches für eine zukunftsgerichtete Steuerung des Bildungssystems erforderlich ist. So verstandenes Monitoring liefert demnach die Voraussetzungen für seriöse Bildungsplanung und für solide bildungspolitische Entscheide. Es setzt auf der gesamtsystemischen Ebene an und geht implizit davon aus, dass auf allen übrigen Ebenen das Setzen von Zielen (Standards) und deren Überprüfung stattfindet – auf der Ebene der Schülerinnen und Schüler und ihres Lernerfolgs, auf der Ebene der Schulbetriebe mit Selbst- und Fremdevaluation, auf der Ebene von Teilsystemen (obligatorische Schule, Gymnasien, Berufsbildung usw.). In einer bundesstaatlichen Ordnung mit je originären bildungsrechtlichen Zuständigkeiten beider föderaler Ebenen wird ein so verstandenes Bildungsmonitoring sinnvoll nur durch Kantone und Bund gemeinsam aufgebaut und genutzt werden.“ (EDK, 2002a, S. 9)

Der Schwerpunkt zum nationalen Bildungsmonitoring umfasste ein organisatorisches sowie drei inhaltliche Elemente des zukünftigen Monitorings (EDK, 2001b)Footnote 17: (1) Bereits ab 2002 sollte die Planung der Trägerschaft, Struktur und Finanzierung des aufzubauenden Bildungsmonitorings in gemeinsamer Verantwortung von Bund und Kantonen geplant werden. (2) Die Wirkungsüberprüfung mittels Kompetenzmessungen sollte im Monitoring aufgenommen und fortgeführt werden. Konkret würde die Ende der 1990er-Jahre von der CORECHED entschiedene Beteiligung der Schweiz an PISA fortgeführt. (3) Ein bereits 1998 initiiertes Review der nationalen Hochschul- und Forschungspolitik durch die OECD wurde ebenfalls ins Bildungsmonitoring integriert. Ein fünfköpfiges Expertengremium besuchte dazu 2002 die Schweiz. Hintergrund- und Expertenbericht wurden 2003 veröffentlicht (OECD, 2003). (4) Die durch das BFS bereits ab 1992 an internationalen Standards ausgerichteten Bildungsindikatoren (vgl. Abschn. 5.2.1) sollten schliesslich im Rahmen des Bildungsmonitorings zu einem nachhaltigen Instrument kontinuierlicher und systematischer Systeminformation zuhanden politischer Steuerung und Gestaltung ausgebaut werden.

Neben dem Schwerpunkt zum nationalen Bildungsmonitoring sollten in einem weiteren Schwerpunkt des Tätigkeitsprogramms die Bildungsforschung insgesamt und die kantonalen Schulentwicklungs- und Forschungsstellen weiterhin gefördert und koordiniert werden. Ein „Kompetenzzentrum für die bildungsökonomische Erfassung des schweizerischen Bildungswesens aller Stufen“ (EDK, 2001b, S. 7) sollte die bestehenden Koordinationsgremien CORECHED und CODICRE ergänzen.

Das Tätigkeitsprogramm entstand im Rahmen der Neuorientierung der EDK, angesiedelt thematisch und zeitlich rund um die Jubiläen von EDK (1997: 100 Jahre) und Schulkonkordat (2000: 30 Jahre). Es war stark geprägt einerseits vom gesamtschweizerischen Diskurs um – wie es Armin Gretler als Zielvorgabe für die SKBF formulierte – eine Intensivierung der Bildungsforschung zur „Weiterentwicklung des Bildungswesens [mit dem Ziel] [...] Vorurteile und Mythen so häufig wie möglich durch rationale Erkenntnis als Entscheidungsgrundlage zu ersetzen und so Forschung und Entwicklung zum Normalelement der Führung von Bildungssystemen“ (Gretler, 1997, S. 252) zu entwickeln. Andererseits spielten die internationalen Schulleistungsstudien und vor allem PISA sicherlich eine entscheidende Rolle bei der Formulierung und Priorisierung der Arbeitsschwerpunkte, und dies obwohl die ersten PISA-Ergebnisse zum Zeitpunkt der Ausarbeitung und Entscheidung noch nicht vorlagen. Das bildungspolitische Programm von PISA tauchte denn auch in der Legitimierung der drei Schwerpunkte auf: „Sie [die EDK] will durch gesamtschweizerische Kooperation sicherstellen, dass unser Land im weltweiten Bildungs- und Wissenswettbewerb zu bestehen vermag“ (EDK, 2002a, S. 9).

Wie schon im vorläufigen Fazit zur Revitalisierung in den 1990er-Jahren erwähnt (vgl. Abschn. 5.2.5), wandelte sich der gesamtschweizerische Diskurs um die politische Gestaltung vorab der Volksschule relativ rasch. Begrifflich lässt sich dies etwa am Übergang von der Betonung einer Entwicklung um der Qualität willen zum zitierten, internationalen Bildungs- und Wissenswettbewerb dokumentieren. Ersteres ist beispielsweise noch im EDK-Jahresbericht von 1998 sichtbar, in dem etwa auf die aktuellen Entwicklungen im Bereich der Schuleingangsstufe, das Ringen um die Harmonisierung der Sekundarstufe I oder die Arbeiten zu dezentraler Qualitätssicherung von Schulen hingewiesen wurde (EDK, 1999a). Letzteres ist etwa in der BFT-Botschaft 2000–2003 festzustellen, in der Bildung, Wissenschaft und Technologie zu nationalen und globalen Wirtschaftsfaktoren erklärt wurden (vgl. Abschn. 5.2.5).

Bereits 2001 wurden erste Schritte zum Aufbau des nationalen Bildungsmonitorings unternommen. Konkret erteilten Ruth Dreifuss als Vorsteherin des Eidgenössischen Departements des Innern (EDI), Pascal Couchepin als Vorsteher des Eidgenössischen Volkswirtschaftsdepartements (EVD) sowie der EDK-VorstandFootnote 18 den Auftrag zu einer Projektskizze. Basis dieser Skizze sollte ein Vorbericht zu den möglichen Elementen eines gesamtschweizerischen Bildungsmonitorings sein, ausgearbeitet vom damaligen Erziehungsdirektor des Kantons Zürich, Ernst Buschor.Footnote 19 Der Auftrag ging, entsprechend der gemeinsamen Verantwortung von Bund und Kantonen an das SBF, das BBW, das BFS, das BBT sowie das Generalsekretariat der EDK (EDK, 2002a). Der Aufbau eines nationalen Bildungsmonitorings erhielt durch die PISA-Ergebnisse von 2001 zusätzlichen Schub. Die EDK verabschiedete im März 2002 eine Erklärung, in der sie ihre Prioritätensetzung durch die Ergebnisse bestätigt sah und vertiefende Untersuchungen anregte. Zugleich konkretisierte sie dabei die Form des aufzubauenden Monitorings: Es sollte einerseits auf gesamtschweizerischen Standards in den vier Kernfächern und entsprechenden sprachregionalen Rahmenlehrplänen basieren. Andererseits sollte es „regelmässige gesamtschweizerische Schulleistungsuntersuchungen zur Feststellung von Stärken und Schwächen des Bildungswesens und bei Bedarf Verstärkung oder Einleitung von Massnahmen zur Qualitätsverbesserung“ (EDK, 2003b, S. 125) umfassen. Die nationale PISA-Steuergruppe empfahl in ihrem Synthesebericht ebenfalls, den Aufbau des Bildungsmonitorings voranzutreiben (vgl. Abschn. 5.3.3). Insbesondere eine der zehn Empfehlungen bezog sich darauf: Die Volksschule sollte auf transparente Leistungsziele in Form von Bildungsstandards hin ausgerichtet werden. Dabei sollte eine periodische Überprüfung der Leistungen der Schülerinnen und Schüler neben schulinternem Qualitätsmanagement, neuen Formen der Schulaufsicht sowie Instrumenten der Selbstevaluation für die Schulen eine entscheidende Rolle spielen (Buschor et al., 2003).

Die Empfehlungen der Steering group aufnehmend, wurden die Elemente des Tätigkeitsprogramms, die PISA-Ergebnisse sowie die Inhalte der EDK-Erklärung innert eines Jahres zum sogenannten Aktionsplan weiterentwickelt. Darin wurde versucht, die im bildungspolitischen Programm von PISA zentralen, diskursiven Elemente im Kontext der gesamtschweizerischen Debatten um Harmonisierung und Qualitätsentwicklung einzuordnen: Eine reine, medial breit aufgegriffene Konzentration auf Ranglisten im internationalen Bildungswettbewerb würde zu kurz greifen. Vielmehr sollten die Ergebnisse dazu führen, Stärken und Schwächen des Systems zu verstehen und wirksame Massnahmen hin zu einer dauerhaften Verbesserung zu implementieren. Zugleich wurde auf die kantonalen und gesamtschweizerischen Entwicklungen der 1990er-Jahre sowie auf die Tatsache hingewiesen, dass das EDK-Tätigkeitsprogramm vor PISA 2000 entstanden wäre und sich die Massnahmen des Aktionsprogramms nahtlos darin einfügten (EDK, 2003a).

Konkret wurden im Aktionsplan fünf Handlungsfelder definiert, die jeweils bestimmte Schwerpunkte des Tätigkeitsprogramms, Ergebnisse aus PISA 2000 sowie Empfehlungen der Steering group umfassten (EDK, 2003a): (1) Vor dem Eindruck der mässigen PISA-Ergebnisse bezüglich der der Lesekompetenzen wurde die allgemeine Förderung der Unterrichtssprache als wichtigstes Handlungsfeld definiert. (2) Der in PISA identifizierte hohe Einfluss von Fremdsprachigkeit und sozialer Herkunft auf das Leistungsniveau begründete ein Handlungsfeld mit verschiedenen Massnahmen zur spezifischen Förderung von Kindern mit ungünstigen Lernvoraussetzungen. Darin waren sowohl Massnahmen zum Umgang mit besonderen Förderbedürfnissen allgemeiner Art wie etwa Sonderschulung oder sonderpädagogische Massnahmen als auch spezifisch auf Förderbedürfnisse im Zusammenhang mit Fremdsprachigkeit und Migration ausgerichtete Massnahmen enthalten. (3) Ebenfalls auf der Basis des in PISA ausgewiesenen, hohen sozio-ökonomischen Gradienten wurde die in verschiedenen Kantonen bereits initiierte Neustrukturierung der Schuleingangsstufe als Handlungsfeld aufgenommen. (4) Die durch PISA infrage gestellte Reaktions- und Steuerungsfähigkeit der föderalen Strukturen der Volksschule (vgl. Abschn. 5.3.3) sowie die entsprechenden, internationalen Best practise-Modelle standen hinter dem Handlungsfeld zu Steuerung und Qualitätssicherung im Bildungssystem. Darin wurde ein Massnahmenkatalog formuliert, der von der generellen Umstellung auf Output- und Outcomesteuerung teilautonomer Einzelschulen, der Ausrichtung an Bildungsstandards über die systematischen Erhebung der Qualität anhand der Ergebnisse bis hin zur Verbesserung von Durchlässigkeit und zu chancengerechterer Selektion reichte. (5) Wiederum legitimiert durch den hohen sozio-ökonomischen Gradienten wurde schliesslich die Förderung und Koordination im Bereich der familien- und unterrichtsergänzenden Betreuungsangebote für Kinder im Vorschul- und im Schulalter als weiteres Handlungsfeld definiert. Dieses Handlungsfeld konnte als einziges nicht direkt mit Schwerpunkten aus dem Tätigkeitsprogramm verbunden werden.

Mit dem Aktionsplan der EDK war das Bildungsmonitoring, zunächst in Form periodischer Leistungserhebungen, definitiv im bildungspolitischen Programm von Bund und Kantonen verankert. Da bezüglich der Output- oder Leistungserhebung fast ausschliesslich die PISA 2000-Ergebnisse referenziert wurden, fanden die zentralen Elemente von PISA auch Eingang in den gesamtschweizerischen Diskurs um die Weiterentwicklung der Schule. Dies wird etwa illustriert durch die implizite Fokussierung des Qualitätsbegriffs auf die Outputs und Wirkungen von Bildungssystemen, wie sie im vierten Handlungsfeld erfolgte.

Im Rahmen der Programmarbeit von Bund und Kantonen wurde Bildungsmonitoring als eine Art Synonym für das über die einzelnen Tätigkeiten und Handlungsfelder hinweg gültige Postulat einer politischen Gestaltung und Steuerung von Bildung über sogenanntes Steuerungswissen verankert. Wie die Ausführungen zur CORECHED illustrieren (vgl. Abschn. 5.2.2), war die Verankerung dieses Prinzips im Grundauftrag zum Aufbau eines nationalen Bildungsmonitorings und einer nationalen Bildungsberichterstattung nicht zuletzt vor dem Hintergrund der Forderungen nach einer Intensivierung der Bildungsforschung und der entsprechenden Entwicklungen auf der Ebene der Kantone, der EDK und des Bundes zustande gekommen.

5.4.2 Skizzen und Konzepte

Der formale Auftrag zur Ausarbeitung einer Projektskizze für ein nationales Bildungsmonitoring wurde von EDK, EDI und EVD gemeinsam erteilt. Basis dafür war eine Art Vorbericht des Zürcher Erziehungsdirektors Ernst Buschor, der zugleich im damaligen EDK-Vorstand sass (EDK, 2002a). Buschor hatte seit 1993 als Zürcher Gesundheitsdirektor und seit 1995 als Vorsteher der Erziehungsdirektion des Kantons Zürich (ED ZH) aktiv auf die Übertragung von Steuerungsmechanismen grosser Konzerne auf die öffentliche Verwaltung hingewirkt, deren Kern er darin sah, „dass die Wirkungen staatlicher Massnahmen systematisch über Vorgaben bezüglich der Leistungen und Kosten gesteuert werden“ (Buschor, 1993, S. 8). Seinem Bericht zur Legitimation, zu Elementen und Kompetenzzuordnungen des aufzubauenden Bildungsmonitorings sowie zum besonderen Problem der Kostenrechnungssysteme im Bildungsbereich stellte Buschor eine Arbeitsdefinition von Bildungsmonitoring voran:

„Unter Bildungsmonitoring versteht man die ganzheitliche Analyse und Gestaltung von Bildungssystemen. Solche Analysen der Leistungen setzen voraus, dass Leistungen von der zuständigen Stelle klar definiert (Standards) und deren Erreichung angemessen überwacht sind (Evaluationen, Qualitätsmanagement der Schulen, Benchmarking usw.).“ (Buschor, 2001, S. 1)

In seinen Ausführungen zur Begründung des nationalen Bildungsmonitorings stellte Buschor die internationalen Vorstellungen einer intensivierten wirtschaftlichen Entwicklung und eines Bildungssystems zur Förderung individueller sowie gesellschaftlicher und wirtschaftlicher Leistungsfähigkeit den existierenden curricularen Steuerungsmitteln gegenüber. Dabei wären die entsprechenden Voraussetzungen für ein solches Leistungsmonitoring – namentlich Bildungsstandards und deren Überprüfung auf Systemebene – erst noch zu schaffen (Buschor, 2001). Buschor setzte also die Verknüpfung von Monitoring mit den parallel laufenden Prozessen rund um eine Neufassung gesamtschweizerischer Harmonisierung und Steuerung im Volksschulbereich fort. Bezüglich letzterer wurden ebenfalls 2001 von der EDK die Arbeiten zur Erweiterung des Schulkonkordates von 1970 aufgenommen (EDK, 2002a), die schliesslich im HarmoS-Konkordat mündeten.

Inhaltlich sollte das aufzubauende Bildungsmonitoring aber nicht nur auf Leistungsdaten basieren, sondern einen Grossteil der statistischen Daten und der Bildungsindikatoren des BFS miteinbeziehen. Neben den Standards und den Leistungserhebungen wäre auch eine valide Erhebung der Kosten im Bildungsbereich zu entwickeln. Insgesamt sollte das Bildungsmonitoring Inputs, Prozesse, Outputs und Outcomes des Bildungssystems auf solider Datenbasis umfassend darstellen und zwar auf Unterrichts-, Schul- und Sys"-tem"-ebene sowie im internationalen Vergleich. Sehr wichtig war zudem das Zusammenspiel des nationalen Bildungsmonitorings mit den ähnlich konzipierten kantonalen Anstrengungen in diesem Bereich (Buschor, 2001). Damit nahm Buschor auch die kantonalen Zuständigkeiten im Bildungsbereich, – besonders für die Volksschule – sowie die Anstrengungen der interkantonalen Harmonisierung auf. Zugleich machte er deutlich, dass ein solches Monitoring nicht auf die reine Analyse beschränkt bleiben würde, sondern die Steuerungsmechanismen im Bildungsbereich, die bildungspolitische Gestaltung und die Art und Weise des politischen Steuerungswissens grundsätzlich verändern sollte (Buschor, 2001). Damit folgte er der internationalen Begriffsfassung von Bildungsmonitoring (vgl. Abschn. 3.1).

In der durch die EDK und die Bundesämter 2002 erstellten Projektskizze wurde das Monitoringkonzept des Vorberichts nur teilweise übernommen. Bildungsmonitoring wurde da definiert mit einer deutlichen Betonung von Beschreibung und Analyse:

„Bildungsmonitoring ist die systematische und auf Dauer angelegte Beschaffung und Aufbereitung von Informationen über ein Bildungssystem und dessen Umfeld. Es dient als Grundlage für Bildungsplanung und bildungspolitische Entscheide, für die Rechenschaftslegung und die öffentliche Diskussion.“ (Ambühl, Gilomen & Oggenfuss, 2002, S. 1)

Bildungsmonitoring wurde damit nicht als Ersatz der tradierten Formen der Inputsteuerung und der interkantonalen Harmonisierung angesehen, sondern sollte sich in die bestehende politische Gestaltung und Steuerung einfügen. Innovativ, neuartig, systematisch und kontinuierlich sollte lediglich die Informationsbasis sein. Bezüglich der Harmonisierung, Steuerung und politischen Gestaltung der Bildungssysteme wurde den bestehenden Strukturen und Akteuren ein Wandel in Richtung einer stärkeren Ausrichtung an dieser Informationsbasis zugetraut. Insofern ähnelt die Monitoringkonzeption derjenigen der nationalen Bildungsberichterstattung in Deutschland (vgl. Abschn. 3.1).

Noch im gleichen Jahr beauftragte der sogenannte operative Ausschuss, bestehend aus den Direktoren der betroffenen Bundesämter und dem Generalsekretär der EDK, die Erziehungswissenschaftlerin Margrit Stamm und ihr Institut für Bildungs- und Forschungsfragen mit der Ausarbeitung eines Detailkonzepts (EDK, 2003b). Kern dieses Konzepts sollte eine Abklärung der Bedürfnisse der verschiedenen Stakeholder sein (Stamm, 2003).

Das Detailkonzept wurde 2003 vorgelegt. Die sogenannten Benutzerbedürfnisse wurden über eine inhaltsanalytische Auswertung von Interviews mit insgesamt 24 Personen aus dem Schweizer Bildungswesen erhoben. Ein Ergebnis dieser Abklärung war, dass die Expertinnen und Experten die analytisch-beschreibende Zielsetzung, wie sie in der Projektskizze betont wurde, eher wieder um die politisch-gestaltende Komponente, wie sie im Vorbericht skizziert worden war, ergänzt haben wollten. Bildungsmonitoring und die entsprechenden Ergebnisse sollten sehr wohl zur Steuerung, Führung und zur Mittelverteilung einsetzbar sein und das Bildungsmonitoring damit eine Steuerungsfunktion an sich erhalten. Die Organisation des Bildungsmonitorings wurde mehrheitlich in einer Netzwerkstruktur zwischen Bund und EDK gesehen, wobei die politische Verankerung sowohl im Tätigkeitsprogramm der EDK als auch in den BFT-Botschaften des Bundes als zentral erachtet wurde. Die Expertinnen und Experten sahen zudem internationale und nationale Bildungsindikatoren, Leistungserhebungen sowie die nationale Bildungsstatistik als primäre Informationsquellen an. Zusätzlich wären aber auch gesamtschweizerische, regionale und kantonale Evaluationsstudien mit einzubeziehen (Stamm, 2003).

Das eigentliche Detailkonzept wurde in Form eines Vorgehensvorschlags formuliert und umfasste die folgenden Elemente (Stamm, 2003): (1) Das Bildungsmonitoring sollte als zyklischer Prozess geplant sein und in periodischen Bildungsberichten münden. Vorgeschlagen wurde ein erster Überblicksbericht, der 2005 erscheinen sollte. (2) Für die Berichte würden verschiedene Daten genutzt. Darunter wären insbesondere die Bildungsindikatoren, deren Entwicklung und Nutzung vertieft werden sollte. Zugleich sollte die bestehende Bildungsstatistik kantonal und national ausgebaut werden, unter anderem in Richtung von Individualdaten der Schülerinnen und Schüler. Ergebnisse bestehender kantonaler Evaluationen würden ebenso genutzt werden wie jene von zu entwickelnden interkantonalen Evaluationsprojekten. Die Datengrundlage würde komplettiert durch nationale Evaluationen, etwa für die Berufsbildung, sowie durch die internationalen Leitungsuntersuchungen und Bildungsindikatoren. (3) Die Berichtsstruktur wäre definiert durch thematische Kriterien, die sich in die fünf Bereiche Kontexte, Voraussetzungen, Prozesse, Ergebnisse und Wirkungen gruppieren lassen. Zudem wären die Berichte sinnvollerweise durch eine Stufenlogik gegliedert. Ebenso könnte die Unterscheidung in Deskription, Analyse und Bewertung in die Berichtsstruktur aufgenommen werden. Schliesslich könnte ein Bericht allgemein bzw. umfassend oder entlang von Schwerpunktthemen strukturiert sein. (4) Organisatorisch sollten EDK und Bundesämter nach wie vor die strategische Führung innehaben, teilweise auch gemeinsam mit verschiedenen weiteren Akteuren aus Politik und Wirtschaft. Die strategische Hauptaufgabe läge zunächst in der gemeinsamen Beantwortung der wichtigsten Fragen in der weiteren Entwicklung hin zum ersten Überblicksbericht: „Was wollen wir wissen? Wozu sollen die Daten verwendet werden und mit welcher Legitimation? Welches Wissen soll steuerungsrelevant werden? Welche finanziellen Mittel stehen von welchen Partnern zur Verfügung und wie sollen sie eingesetzt werden?“ (Stamm, 2003, S. 36). Die operativen Tätigkeiten würde ein Netzwerk von kompetenten Organisationen übernehmen wobei die Führung innerhalb dieses Netzwerks bei einer wissenschaftlichen Organisation liegen sollte.

Nachdem das Detailkonzept von der EDK-Jahresversammlung und den beiden involvierten Bundesämtern gutgeheissen worden war, initiierte der operative Ausschuss die Ausarbeitung eines Projektplanes für den ersten Bildungsbericht. In die Diskussionen eingebunden war auch die CORECHED (EDK, 2004b). Der Projektplan, ausgearbeitet durch eine Expertengruppe unter Einbezug von EDK, BBW, BFS, BBT und SKBF, lag im September 2004 vor (EDK, 2005). Es wurde darin wiederum eine Zweckbestimmung in Form einer Definition vorgenommen, die eher an der analytisch-beschreibenden Zielsetzung der Projektskizze orientiert war:

„In dieser Definition wird Bildungsmonitoring in erster Linie als Informationsbeschaffung und Informationsaufbereitung für Entscheidungsfindungen auf verschiedenen bildungspolitischen Ebenen verstanden. Es geht also primär darum, vorhandenes Wissen, vorhandene Informationen zu sammeln und nutzbar aufzubereiten und darzustellen.“ (Rhyn et al., 2004, S. 6)

Während mit dem Vorbericht und dem Detailkonzept beide externen Berichte eher auf eine umfassende Konzeption von Bildungsmonitoring unter Einbezug von Steuerung und Gestaltung ausgerichtet waren, setzte sich damit im Projektplan die Definition durch, die Bildungsmonitoring und vor allem den geplanten, ersten Bildungsbericht eher auf Analyse, Information und Dokumentation eingrenzte. Zugleich wurde das Bildungsmonitoring, auch mit Blick auf internationale ModelleFootnote 20, klar als Evaluationsprogramm konzipiert, in dem Informationen zu den Leistungen der Schülerinnen und Schüler ein wesentliches Element darstellten (Rhyn, 2004).

Im Projektplan wurde Bildungsmonitoring nicht nur bezüglich des Zwecks, sondern auch auf der Produkt- und Inhaltsebene konkretisiert. Mit dem Bericht als zentralem Produkt und Taktgeber wurde es als zyklischer Prozess initiiert, der sechs Schritte umfasste (Rhyn et al., 2004; vgl. Abbildung 5.1): (1) Ausgehend von bildungspolitischen Fragen und Wissensbedürfnissen sollten (2) seitens der Bildungsforschung und der Bildungsstatistik Daten generiert, erhoben, gesammelt und ausgewertet werden. (3) Der Bildungsbericht stellte ein Kompendium dieser wissenschaftlichen Prozesse bzw. ihrer Ergebnisse dar und diente gleichzeitig als evaluative Zuspitzung der Ergebnisse auf die bildungspolitischen Fragen. (4) Die Ausarbeitung von politischen Handlungsoptionen würde auf der Basis des Berichts erfolgen. (5) Informiert durch die Berichterstattung würden bildungspolitische Steuerentscheide gefällt und damit gezielt im Bildungssystem interveniert. (6) Aus den aktuellen Entwicklungen, idealerweise als Wirkung früherer Steuerentscheide, ergäben sich dann wiederum Fragestellungen für den nächsten Zyklus.

Abbildung 5.1
figure 1

Prozesszyklus des Schweizer Bildungsmonitorings (Wolter et al., 2007, S. 7)

Für den ersten Bildungsbericht, gemäss Projektplan 2006 zu publizieren, waren ein erster, allgemeiner Teil mit einem Kontext- und fünf Stufenkapiteln sowie ein zweiter Teil mit zwei Schwerpunktthemen vorgesehen. Im allgemeinen Teil sollten gewisse Informationen auf allen Stufen nach einem ähnlichen Muster dargestellt und andererseits stufenspezifische Themen bearbeitet werden. Dargestellt werden sollten jeweils die Entwicklung der Ergebnisse über die Zeit sowie in den einzelnen Kantone. Innerhalb der einzelnen Teile der Stufenkapitel sollten Ergebnisse aus verschiedenen Datenquellen verbunden werden und sowohl Beschreibung und Analyse als auch Bewertung gleichermassen vorkommen. Das Format der Schwerpunktthemen war vorgesehen, um besonders dringliche oder politisch prioritäre Bereiche vertieft bearbeiten zu können. Für den ersten Bericht sollten in der ausführlicheren Variante zwei Schwerpunktthemen bearbeitet werden, eines zum Umgang mit Heterogenität, zu Equity und zur Durchlässigkeit sowie ein zweites zur Lehrerinnen- und Lehrerbildung. In einer schlankeren Variante sollte auf die Schwerpunktthemen verzichtet werden können (Rhyn et al., 2004).

Im Projektplan wurde ebenfalls erstmals die SKBF, deren Leitung 1999 der Bildungsökonom Stefan Wolter übernommen hatte, als ausführende Organisation benannt. In gewisser Hinsicht wurde damit die in der Projektskizze angelegte, bildungsökonomische Ausrichtung auch auf der Akteursebene bestätigt. Der SKBF war zunächst die Verantwortung für den ersten Projektzyklus hin zum ersten Bildungsbericht zugewiesen. Gerade für die beiden Schwerpunktthemen war die Vergabe separater Mandate vorgesehen. Das zuvor als operativer Ausschuss definierte Gremium wurde als SteuerungsgruppeFootnote 21 mit strategischen Funktionen ins Organigramm aufgenommen. Zwischen Steuerungsgruppe und SKBF wurde ein Koordinationsstab eingerichtet, in dem Vertreterinnen und Vertreter kantonaler Schulentwicklungs- und Forschungsstellen, der EDK sowie der betroffenen Bundesämter SBF, BFS und BBT Einsitz nahmen. Die Finanzierung der Pilotphase sollte je zur Hälfte aus den bestehenden Finanzierungsarrangements von CORECHED und PISA heraus organisiert werden (Rhyn et al., 2004). Nachdem auch die Verhandlungen zwischen Bund und EDK bezüglich der Finanzierung abgeschlossen waren, wurde der Projektplan 2004 von der EDK-Plenarversammlung genehmigt (EDK, 2005).

In den konzeptionellen Vorarbeiten zum ersten nationalen Bildungsbericht nahmen die auf der Programmebene von Bund und EDK noch relativ abstrakt formulierten Elemente des nationalen Bildungsmonitorings Gestalt an. Zahlreiche Grundzüge wurden in der Ausarbeitung der vier dargestellten Konzeptpapiere sukzessive definiert, darunter der Berichtszyklus, die Datengrundlagen, die Inhalte und die Struktur des Pilotberichts sowie die Projektstruktur mit dem Bund und den Kantonen als Auftraggebende und der SKBF als ausführender Organisation. Ein weiteres Merkmal der Vorarbeiten wird illustriert durch die begriffliche Reibung zwischen der analytisch-beschreibenden und der politisch-gestaltenden Begriffs- und Zweckbestimmung von Bildungsmonitoring. Während erstere eher von den Auftraggebern in Projektskizze und und Projektplan betont wurde, war letztere in den externen Berichten prominenter. Obwohl sich im für den Auftrag an die SKBF massgebenden Projektplan die in diesem Sinne enge Bildungsmonitoringkonzeption der Bundesämter und der EDK durchsetzte, war die Frage der Implikationen des zyklischen Monitoringkonzepts und der konzeptionellen Ursprünge in der von Buschor (2001) skizzierten Steuerungstrias von Standarddefinition, -überprüfung und Massnahmen keinesfalls abschliessend entschieden oder beantwortet. Vielmehr wurde Bildungsmonitoring vorläufig im Sinne einer am ehesten pragmatisch zu nennenden Orientierung am aktuell Notwendigen und Machbaren auf die Informationsbeschaffung und -aufbereitung konzentriert. Zugleich wurde, gerade vonseiten der EDK, die Verknüpfung des angedachten Bildungsmonitorings mit dem Steuerungs- und Koordinationsdispositiv im Bildungsbereich immer wieder hervorgehoben. Und schliesslich deuteten unter anderem die Konzeption des Bildungsmonitoringprogramms als eine Art Evaluationszyklus oder die Wahl der SKBF als Auftragnehmerin für den Pilotbericht darauf hin, dass die politisch-gestaltende Zweckbestimmung wichtig war und blieb.

5.4.3 Pilotberichte

Im Rahmen des nationalen Bildungsmonitorings erschienen 2006 der erste Bildungsbericht Schweiz (Wolter et al., 2007) sowie 2007 ein Schwerpunktbericht zur Lehrerinnen- und Lehrerbildung (L. Lehmann, Criblez, Guldimann, Fuchs & Périsset, 2007). Der zweite, vorgesehene Schwerpunktbericht zu den Themen Heterogenität, Equity und Durchlässigkeit wurde nicht realisiert.

Der Pilotbericht des nationalen Bildungsberichts war schliesslich die erwartete Beschreibung des schweizerischen Bildungswesens entlang eines einheitlichen Kriterienrasters und unter Einbezug eines breiten Spektrums an Datengrundlagen. Die Beschreibung war nicht nur darstellend, sondern enthielt auch Einordnungen und Bewertungen. Dieser evaluative Charakter war auch eine der wesentlichen Neuerung gegenüber früheren Systemdarstellungen. Der Bildungsbericht wurde von der SKBF verfasst und war gegliedert nach Bildungsstufen und Bildungstypen mit vorgelagerten Kapiteln zu Definitionen und Kontexten. Innerhalb der Stufenkapitel kam fast durchwegs ein einheitliches Themen- oder Kriterienraster zur Anwendung. Es umfasste mit den äusseren und inneren Rahmenbedingungen bzw. den Kontexten und Institutionen zwei eher beschreibende Kriterien. Im Kern standen aber die drei eher evaluativ ausgerichteten Kriterien Effektivität, Effizienz und Equity.

Insbesondere auf die Problematik der ökonomisch geprägten Kriterien der Effektivität und der Effizienz wurde in der Einleitung des Berichts hingewiesen: Während sich die Rahmenbedingungen gewissermassen datenbasiert darstellen liessen, setzten die übrigen drei Kriterien Bildungsstandards voraus, anhand derer die Leistungen evaluiert werden können. Neben den auf die Outputs konzentrierten Leistungszielen, würden Bildungssystemen viele weitere Zielsetzungen und Funktionen zugeordnet. Diese Zielsetzungen müssten erst politisch bewertet, in eine Zielhierarchie gebracht und dann auf ihre empirische Überprüfung hin operationalisiert werden. Solche Bildungsziele, insbesondere was den Erwerb von Kompetenzen anginge, stünden aktuell noch nicht zur Verfügung und würden allenfalls für einen zweiten Monitoringzyklus entwickelt werden (Wolter et al., 2007). Die in der Konzeptphase angedachten Elemente einer ökonomisch inspirierten Steuerung des Bildungssystems über politische Zielvorgaben und deren Überprüfung wurden damit im Pilotbericht zwar angelegt aber nicht realisiert. Vielmehr wurde im Bericht deutlich gemacht, dass er auch insofern ein Pilotbericht sei, als dass in ihm bestehende Primärdaten und -quellen im Sinne einer Sekundäranalyse dargestellt würden (Wolter et al., 2007). Implizit und explizit enthielt der Bericht also nicht nur Hinweise auf die fehlenden Zielsysteme, sondern auch auf den Mangel an Evaluation und Forschung im Bereich der Effektivitätsüberprüfung.

Die Frage nach der Effektivität stellte das wichtigste der drei evaluativen Kriterien des angewandten Kriterienrasters dar, allein schon weil Effektivität als Zielerreichungsgrad als zentrales Mass sämtlicher am Output angelegter Steuerungsvorstellungen definiert war. Mögliche Ziele, an denen Effektivität gemessen werden sollte, wurden ganz grob in drei Kategorien unterteilt (Wolter et al., 2007): (1) Schülerzahlen und Angaben zur Bildungsbeteiligung wie etwa Abschlussquoten würden über den quantitativen Output informieren. (2) Die fachlichen, überfachlichen, sozialen und übrigen Kompetenzen stellten Zielgrössen für den qualitativen Output von Bildungsorganisationen und -systemen dar. (3) Als Outcomes, Wirkungen oder Finalitäten wurden wirtschaftliche und insbesondere arbeitsmarktbezogene Indikatoren sowie Gesundheit und politische Partizipation definiert.

Die Frage nach der Effizienz als zweitem evaluativem Kriterium richtete sich primär auf den Mittel- und Ressourceneinsatz im Bildungswesen. Dabei wurde deutlich gemacht, dass die Datengrundlage kaum konkrete Effizienzaussagen zuliesse. Stattdessen bezögen sich die Effizienzanalysen auf die Inputfaktoren und im Besonderen auf die Kosten.

Das dritte evaluative Kriterium war mit Equity überschrieben, bezog sich auf die Frage der sozialen Selektivität von Bildungssystemen und knüpfte an den im deutschsprachigen Raum häufiger verwendeten Begriff der Chancengerechtigkeit an. Dabei wurden sowohl die unterschiedlichen Gerechtigkeitsprinzipien als auch die konkreten Brennpunkte mangelnder Chancengerechtigkeit untersucht. Das Kriterium der Chancengerechtigkeit wurde bezogen auf Outputs und Outcomes ebenso wie auf die Prozesse und Bildungslaufbahnen (Wolter et al., 2007). Zusammen mit den beiden eher beschreibenden Kriterien bildeten die evaluativen Kriterien eine Art Heuristik, die eine einheitliche Beschreibung des Bildungssystems über alle Stufen hinweg sowie den Einbezug von Daten und Informationen aus einer Vielzahl von Quellen ermöglichen sollte.

Gerade mit dieser klaren Orientierung an den Kriterien sollte auch dem zyklischen oder periodischen Moment der Bildungsberichterstattung Rechnung getragen werden. Es wurde deutlich gemacht, dass der Pilotbericht erst den Anfang der Entwicklung hin zu den angedachten Steuerungsmechanismen im Bildungsbereich darstellte, und zwar sowohl auf der politischen als auch auf der daten- und informationsbezogenen Ebene. Der Bericht war sehr bewusst als Auftakt und Initialimpuls des zyklischen Monitoringprozesses gestaltet (vgl. Abbildung 5.1).

Mit der Orientierung an den drei evaluativen Kriterien und der entsprechenden Strukturierung und Ausrichtung der Sekundäranalysen wurde die in Projektskizze und Projektplan vorgesehene Akzentsetzung auf einen pragmatischen, systematisch-beschreibenden, ersten Bildungsbericht auf den ersten Blick übernommen und realisiert. Allerdings war der Bericht, insbesondere mit den drei Kriterien sowie den erwähnten Hinweisen auf die zu entwickelnden Zielsysteme und die spärliche Datenlage in zweierlei Hinsicht weit mehr als Beschaffung und Aufbereitung von Informationen (Wolter et al., 2007): (1) Mit der Setzung von Effektivität als erstem und wichtigstem Kriterium evaluativer Natur wurden das Prinzip der Outputsteuerung und die damit verbundenen Steuerungsmechanismen nicht nur präsentiert und dargestellt. Vielmehr wurden sie als zentrale Begrifflichkeiten auch für die weiteren Schritte im Bildungsmonitoringprozess gesetzt. Und dies obwohl die Voraussetzungen für die Analyse, Beschreibung und Bewertung der Effektivität in Form geeigneter, ausreichend differenzierter, operationalisierbarer und politisch bearbeiteter Zielsysteme nicht gegeben waren. Um trotzdem dieses für sämtliche Vorstellungen von Outputorientierung oder -steuerung absolut zentrale Kriterium heranziehen zu können, wurden stattdessen eigens für den Bericht Ziele aus internationalen, nationalen und kantonalen Policies abgeleitet an denen dann Effektivität als Mass für den Zielerreichungsgrad untersucht und berichtet werden konnte. Für die Primarstufe wurde beispielsweise die Entwicklung der nationalen Bildungsstandards als Fortführung und Konkretisierung der bis dahin eher uneinheitlichen und allgemein formulierten Ziele der kantonalen Bildungsgesetzgebung beschrieben. (2) Als Quellen- und Datenmaterial zur Überprüfung des damit implizit auf fachliche Kompetenzen eingegrenzten Bildungsziels wurde auf kantonale und regionale Leistungserhebungsinstrumente zur Orientierung von Lehrpersonen sowie auf die Ergebnisse aus konkreten Systemevaluationen mit Leistungserhebungen hingewiesen. Für die Sekundarstufe I wurde neben den Leistungen der Übertritt auf die Sekundarstufe II als Zielkategorie definiert. Primäre Quelle sowohl der Standarddefinition als auch der konkreten Leistungsdaten waren die PISA-Ergebnisse von 2000 und 2003. Die Effektivität der universitären Hochschulen wurde, ausgehend vom vierfachen Leistungsauftrag, anhand der Studienerfolgsquoten, der Mobilität der Studierenden sowie verschiedener Arbeitsmarktindikatoren der Universitätsabsolventinnen und -absolventen bestimmt.

Die Ausführungen zur Effektivität auf allen Stufen zeigen deutlich, dass neben der akkuraten und neutralen Systembeschreibung auch ein spezifisches Zielsystem oder zumindest die Grundstruktur eines solchen Zielsystems diskursiv und politisch verankert werden sollte. Im Zentrum dieses Zielsystems standen die Leistungen bzw. die Kompetenzen der Schülerinnen und Schüler, meist bezogen auf wenige Kernfächer. Ergänzt wurde das Zielsystem teilweise durch Arbeitsmarkt- und andere Wirtschaftsindikatoren.

Die Schlussfolgerungen des ersten Bildungsberichts bestanden aus fünf Forderungen bezüglich der als zweites Manko konstatierten Knappheit an verarbeitbaren Daten und Informationen (Wolter et al., 2007): (1) Durch die Erhebung von bildungsstatistischen Individualdaten sollte es möglich werden, Bildungsverläufe nachzuzeichnen sowie Übergänge und Schnittstellen besser zu analysieren. (2) Die Leistungserhebung sollte intensiviert werden um die Ermittlung der Zielerreichungsgrade zu verbessern oder gar erst zu ermöglichen. (3) Ebenso seien Systeme zur Gewinnung vergleichbarer Kosten- und Inputdaten als Voraussetzung von Effizienzbetrachtungen zu schaffen. (4) Die Bildungsforschung habe sich allgemein stärker auf die Ermittlung von kausalen Ursache-Wirkungs-Ketten auszurichten. (5) Und schliesslich hätten sich auch Bildungspolitik und -verwaltung stärker an empirischer Evidenz auszurichten. Insgesamt wären also die Informationen aus Forschung und Evaluation als Grundlage für politische Steuerentscheide oft nicht ausreichend und zugleich Forschung und Evaluation zu wenig gut auf steuerungsrelevante Daten und Ergebnisse hin ausgerichtet (Wolter et al., 2007).

Parallel zum Pilotbericht wurde ein Schwerpunktbericht zur Lehrerinnen- und Lehrerbildung ausgearbeitet und 2007 publiziert. Das Thema der Lehrerausbildung war sowohl im Tätigkeitsprogramm der EDK priorisiert (vgl. Abschn. 5.4.1) als auch vor dem Hintergrund der damaligen Entwicklungen rund um die entstehenden pädagogischen Hochschulen von Relevanz (Criblez, Lehmann & Huber, 2016). Das Mandat wurde 2005 ausgeschrieben und ging schliesslich an eine Gruppe von Forschenden unter der Leitung von Lucien Criblez. Ähnlich wie im Pilotbericht wurden für den Schwerpunktbericht bestehende Informationen und Daten zusammengestellt und aufbereitet. Neben bildungsstatistischen Daten sowie Forschungs- und Evaluationsergebnissen wurden auch Informationen aus den Anerkennungsverfahren, den Ausbildungsorganisationen sowie Verwaltungsdaten verwendet. Damit sollten auch bisherige Bestandsaufnahmen (z. B.  Badertscher, Criblez, Wälchli, Weissleder & Vauthier, 1993) aktualisiert und Forschungsanstrengungen in diesem Feld (z. B. Oelkers & Oser, 2000) aufgenommen werden. Anders als im Pilotbericht sollte die Analyse und Beschreibung nicht primär in einer Bewertung anhand evaluativer Kriterien münden, sondern in einem auf die Ausbildung von Lehrpersonen fokussierten Monitoringkonzept (L. Lehmann et al., 2007).

Ausgehend von einer Bestandsaufnahme der Ausbildungsangebote für Lehrpersonen der Vor- und Primarschule sowie der Sekundarstufen I und II wurden die Zugänge zu den Ausbildungen, die innere Struktur der Ausbildungsgänge sowie die Abschlüsse und Lehrberechtigungen untersucht. Dazu waren das Personal der Ausbildungsorganisationen sowie das Engagement in Forschung und Weiterbildung der jungen Hochschulen Gegenstand weiterer Analysen. All dies geschah sowohl auf einer normativen als auch auf einer empirischen Ebene. Gerade im Hinblick auf das Monitoringkonzept wurde, ähnlich wie im Pilotbericht, an zahlreichen Stellen eine eher dünne Daten- und Forschungslage konstatiert. Das vorgeschlagene Konzept für ein Monitoring der Ausbildung von Lehrpersonen nahm zunächst Bezug auf das nationale Bildungsmonitoring und grenzte sich zugleich davon ab. Die grundsätzliche Annahme, dass Wissen zur Gestaltung und Steuerung des Bildungssystems notwendig sei, wurde ebenso geteilt wie der Anspruch, die entsprechenden Daten und Informationen primär durch Bildungsstatistik und Bildungsforschung generieren zu lassen. Eher kritisch identifizierte der Bericht, bezogen auf das nationale Bildungsmonitoring, drei offene Fragen (L. Lehmann et al., 2007): (1) Das an Prinzipien der wirkungsorientierten Verwaltung angelehnte Monitoringkonzept berücksichtige die Dynamik von horizontaler und vertikaler Politikverflechtung im Bildungsbereich zu wenig. (2) Der darin angelegte Steuerungsansatz sei zu wenig konkret. So würde etwa die Differenzierung zwischen der Steuerung des Bildungssystems oder einzelner Teilsysteme und der Steuerung im System fehlen. (3) Das nationale Bildungsmonitoring sei zudem zu wenig konkret bezüglich der Steuerungsziele sowie der beteiligten Akteure und der eingesetzten Instrumente. Damit würden beispielsweise Transformations- und Interpretationsprozesse der einzelnen Akteure unberücksichtigt bleiben.

Dem eigentlichen Konzept lagen dann zwei grundsätzliche Definitionen zugrunde. Die eine bezog sich auf den Monitoringbegriff, die andere auf den Begriff der Steuerung:

„Durch das Bildungsmonitoring Lehrerinnen- und Lehrerbildung werden im Sinne einer gesellschaftlichen Dauerbeobachtung Systemdaten und Systemanalysen zum Lehrerinnen- und Lehrerbildungssystem Schweiz zum Zwecke der politischen Steuerung periodisch zur Verfügung gestellt. Die Daten und Analysen beschreiben das Lehrerinnen- und Lehrerbildungssystem Schweiz in definierten Bereichen, ermöglichen nach mehreren Monitoringdurchgängen die Beschreibung von Entwicklungen über die Zeit (Zeitreihen) in diesen Bereichen und situieren diese Daten und Analysen im Rahmen der allgemeinen Entwicklung des Bildungssystems Schweiz und vergleichend im internationalen Kontext.“ (L. Lehmann et al., 2007, S. 116)

„Sie [die Steuerung] ist ziel- und richtungsorientiert, ist auf Akteure angewiesen, die entscheidungsfähig und entscheidungsberechtigt sind und über Instrumente der Steuerung verfügen (Regelungs- und Entscheidungskompetenzen, entsprechende Ressourcen usw.). Steuerung in der Lehrerinnen- und Lehrerbildung meint in diesem Sinne die gezielte Beeinflussung untergeordneter durch übergeordnete Akteure mit dem Ziel, dass die untergeordneten Akteure Strukturen und Prozesse in ihren Institutionen so beeinflussen, dass sich definierte Indikatoren in die beabsichtigte Richtung verändern. Steuerung ist in diesem Verständnis ein Prozess, an dem unterschiedliche Akteure auf unterschiedlichen Ebenen des Bildungssystems auf unterschiedliche Art und Weise beteiligt sind.“ (L. Lehmann et al., 2007, S. 117)

Im Schwerpunktbericht zur Ausbildung von Lehrpersonen wurde eine spezifische Position bezüglich der Ausrichtung von Monitoring zwischen Beschreibung und Gestaltung eingenommen. Diese Position zeichnete sich einerseits dadurch aus, dass keine abstrakt legitimierte Entscheidung für oder gegen einen direkten Einbezug von Steuerung und Gestaltung in die Monitoringkonzeption getroffen wurde. Andererseits wurde für den Bereich der Lehrerbildung die pragmatische Orientierung am Bestehenden und Machbaren konsequent beibehalten und zugleich auf die Voraussetzungen und Rahmenbedingungen der Entwicklung hin zu einem politisch-gestaltenden Monitoring hingewiesen (L. Lehmann et al., 2007): (1) Eine dieser Voraussetzung war die Kopplung politisch festzusetzender Zielsysteme mit den wissenschaftsorientierten Monitoringprozessen. (2) Eine weitere war die Notwendigkeit mehrerer Wiederholungen des Monitoringzyklus (vgl. Abbildung 5.1) um auf der Wissenschaftsseite die Interpretation der Zielvorgaben und politischen Fragen und auf der politischen Seite das Verständnis und die Transformation der Ergebnisse zu verbessern. (3) Anstelle einer im Kontext der Berichterstattung erst hergeleiteten Zielsystematik wurden Themen, Akteure und Zielebenen mit Blick auf die existierenden Verhältnisse in Bildungspolitik, Lehrerbildung und Bildungsforschung präsentiert.

In Form der beiden Berichte hatten Bund und Kantone rund sechs Jahre nach der Definition des entsprechenden Entwicklungsfeldes im Kontext der ersten PISA-Ergebnisse erstmals etwas vorzuweisen. Wie gerade auch die Unterschiede in der Monitoringkonzeption zwischen Pilot- und Schwerpunktbericht offenbaren, waren damit auch explizite und implizite Setzungen und Definitionsversuche verbunden. Insbesondere die Frage wie stark die beiden Berichte die bildungspolitischen Prozesse und die Mechanismen der Steuerung des Bildungssystem und innerhalb des Bildungssystems informieren und mitprägten konnten und sollten, war damit auf einer nationalen Ebene gestellt worden. Beide Berichte waren sowohl bezüglich der systembezogenen Bildungsziele als auch bezüglich des politisch relevanten Datenmaterials deutlich mehr als eine blosse Aufarbeitung der vorhandenen Daten zum Zwecke einer Systembeschreibung. Sie waren nicht nur „Grund"-lage für Bildungsplanung und bildungspolitische Entscheide, für die Rechenschaftslegung und die öffentliche Diskussion“ (Ambühl et al., 2002, S. 1), sondern definierten ihre begriffliche, inhaltliche und programmatische Verarbeitung in den weiteren Schritten des Monitoringprozesses massgeblich mit.

Die Publikation der beiden Berichte fiel in eine bildungspolitisch höchst aktive Zeit, gerade was die Frage der relevanten Zielsysteme betraf: Die Bildungsharmonisierung wurde im Mai 2006 in der nationalen Volksabstimmung in Form der sogenannten Bildungsverfassung in der Bundesverfassung verankert. Die EDK schickte den Text des HarmoS-Konkordats in eine breite Vernehmlassungsrunde in den Kantonen und initiierte 2007 dessen Verabschiedung durch die Plenarversammlung. Zugleich wurde auch die Entwicklung der Bildungsstandards in Form von Grundkompetenzdefinitionen in Schulsprache, Fremdsprachen, Mathematik und Naturwissenschaften weiter vorangetrieben (EDK, 2011). Insbesondere für die nunmehr in der Verfassung festgeschriebene, gemeinsame Verantwortung von Bund und Kantonen für ein qualitativ gutes und durchlässiges Bildungssystem wurde das Projekt Bildungsmonitoring mit den beiden Berichten als zentral hervorgehoben (EDK, 2008).

Die Rezeption und Wirkung der beiden Pilotberichte sowohl bezüglich der systematischen Beobachtung der Schulsysteme als auch der Ausrichtung der Bildungsforschung ist nur schwer abzuschätzen. Sicherlich trug insbesondere der Pilotbericht dazu bei, den Diskurs um das Generieren und Verarbeiten von Daten und Informationen zuhanden politischer Akteure begrifflich zu verschieben. So wurden beispielsweise Leistungen als qualitative Outputs bezeichnet. Inhaltlich dienten Effektivität, Effizienz und Equity nicht nur als Beschreibungskriterien und Strukturmerkmale des Berichts, sondern als Auswahl-, Filter-, Ein- und Ausschlusskriterien bezogen auf die verfügbaren Daten und Informationen. Anders ausgedrückt wurden die Informationen in Form „dreier ‚Qualitätsmaßstäbe‘, d. h. quasi-objektiver Erwartungen an Bildungseinrichtungen, dargestellt, nämlich effizient, effektiv und gerecht zu arbeiten.“ (Rürup et al., 2010, S. 388–389)

Programmatisch war der Pilotbericht fast ausschliesslich auf Mechanismen der outputorientierten Steuerung von Bildungssystemen ausgerichtet. Der Bildungsbericht 2006 sollte sich nicht nur in den Bildungsmonitoringprozess einordnen, sondern gerade auch die nachfolgenden, bildungspolitischen Phasen massgeblich mitprägen. Er positionierte sich – nicht nur in der Prozessdarstellung (vgl. Abbildung 5.1) – klar zwischen Forschung, Statistik und Evaluation auf der einen Seite und Planung und Steuerung auf der anderen. Aus dieser Schnittstellenposition heraus wurden im Bericht die forschungs- und politikseitig zu schaffenden Voraussetzungen klar benannt und – da meist nicht gegeben – im Sinne einer „ganzheitliche[n] Analyse und Gestaltung von Bildungssystemen“ (Buschor, 2001, S. 1) geschaffen.

Verschiedene weitere Projekte und Publikationen trugen ebenfalls zur begrifflichen Verschiebung des Diskurses um die politische Steuerung von Bildung und Schule bei. So erschien 2007 der Expertenbericht zum von der CORECHED in Auftrag gegebenen OECD-Reporting zum Stand der Bildungsforschung in der Schweiz (Tippelt, Pollard & Van der Wende, Marijk, 2007; vgl. Abschn. 5.2.2). Im Januar 2007 verabschiedete der Bundesrat eine neue BFI-Botschaft, die unter anderem eine Orientierung des Mitteleinsatzes im Bildungsbereich an Effizienzkriterien sowie ein stärker kompetitives Forschungsförderungssystem postulierte (BFI-Botschaft 2008–2011, 2007). Ein weiterer, makroökonomisch ausgerichteter Länderreport der OECD von 2006 beurteilte die aktuellen Entwicklungen im Hochschulsystem der Schweiz zwar positiv, stellte jedoch zugleich Verbesserungsbedarf bei den Fachhochschulen, bei der internationalen Zusammenarbeit und bei den Forschungsförderung fest (Hutschenreiter, Stampfer, Glanz & Guinet, 2006). Schliesslich stellten die neue Bildungsverfassung und der damit verbundene Impuls in der Neuordnung der Bildungsharmonisierung auch eine Bestätigung der im Diskurs um Bildungsmonitoring prominenten Begriffssysteme dar. Trotz der relativierenden Einschätzungen im Schwerpunktbericht wurde in dieser Phase ein spezifischer Beschreibungsmodus für Bildungssysteme, der unter anderem auf Leistungserhebungen fokussiert ist, als Instrument politischer und öffentlicher Kommunikation etabliert. Ein Teil der Legitimation dieser für die Schweiz eher neuen Beschreibungslogik fasste Wolter (2008a) – teilweise in Übereinstimmung mit gewissen Aussagen im OECD-Report zur Bildungsforschung (vgl. Abschn. 5.2.2) – als Kritik an der bestehenden Bildungsforschung folgendermassen zusammen: (1) Die etablierten Perspektiven auf Schule und Bildung hätten die Rahmenbedingungen, den Output und den Output von Bildung nicht systematisch in den Blick genommen. (2) Insbesondere im Bereich der empirisch-sozialwissenschaftlichen Zugänge wäre nur wenig Forschung und damit verbunden zu wenig wissenschaftliche Kompetenz vorhanden. Dies würde insbesondere die Forschung zu Ursache-Wirkungszusammenhängen betreffen. (3) Die Betonung der hauptsächlich statistisch erstellten Bildungsindikatoren als politische Informationsgrundlage hätte eine Entwicklung elaborierterer empirischer Zugänge eher behindert. (4) Das Verhältnis zwischen Forschung und Politik wäre im Hinblick auf steuerungsrelevantes Wissen beidseitig zu verkrampft.

Insofern wurde auch klar, dass insbesondere die im Pilotbericht zentralen Begrifflichkeiten im Diskurs verankert werden sollten – und zu einem grossen Teil auch erfolgreich verankert wurden. Das Instrument der Schwerpunktberichte wurde in der Folge nicht mehr eingesetzt. Damit blieb auch dessen Potenzial, das nationale Bildungsmonitoring inhaltlich zu ergänzen und – wie im Schwerpunktbericht zur Lehrerinnen- und Lehrerbildung realisiert – durchaus auch kritisch zu kommentieren und zu erweitern, ungenutzt.

5.4.4 Periodische Bildungsberichte

Der Pilotbericht 2006 wurde von zwei Organisationen evaluiert: Teams des Erziehungsministeriums der kanadischen Provinz Ontario und des Deutschen Instituts für Internationale Pädagogische Forschung (DIPF) verfassten je einen Evaluationsbericht zuhanden der EDK. Auf dieser Grundlage entschied die EDK bereits 2007, die SKBF mit der Ausarbeitung des Berichts von 2010 zu beauftragen (EDK, 2008). Die entsprechenden Verhandlungen mit den Bundesämtern und der SKBF wurden rasch zu einem Abschluss gebracht und im Juli 2009 wurde die Bildungsberichterstattung ab 2014 im Rahmen einer langfristigen Vereinbarung zwischen EDK, BBT und SBF initiiert und rechtlich abgesichert (EDK, 2009, 2010).

In den beiden Bildungsberichten 2010 und 2014 wurde die Struktur mit den drei evaluativen Kriterien, ergänzt um Kontexte und Institutionen als beschreibende Kriterien, grundsätzlich beibehalten. Dagegen umfassten die beiden Berichte mehr Kapitel als der Pilotbericht. Dies lag einerseits daran, dass neben den Kapiteln zu den Bildungsstufen auch solche spezifisch bezogen auf einzelne Bildungstypen geschaffen wurden. So gab es neben dem allgemeinen Kapitel zur Sekundarstufe II je ein spezifisches zum Gymnasium, zur beruflichen Grundbildung und zu den Fachmittelschulen. Zusätzlich wurden die individuellen und gesellschaftlichen Wirkungen des Bildungssystems in einem separaten Kapitel zusammengetragen (Wolter, Kull & Hof, 2010; Wolter & Hof, 2014). Was gegenüber dem Pilotbericht weggelassen wurde, war die Bilanzierung bezogen auf das Programm Bildungsmonitoring Schweiz. Trotzdem enthielten beide Berichte zahlreiche Hinweise auf die spärliche Informations-, Forschungs- und Datenlage. Solche Hinweise finden sich im Bildungsbericht 2010 beispielsweise ganz allgemein formuliert im Vorwort, themenspezifisch in den Bereichen der familienergänzenden Betreuung oder der Zwischenlösungen nach der obligatorischen Schulzeit, oder datenspezifisch bezogen auf Schülerleistungen oder Längsschnittdaten (Wolter et al., 2010). Auch im Bericht von 2014 wurde etwa mehrfach auf „das weitgehende Fehlen von Längsschnitt- oder Kohortendaten im schweizerischen Bildungswesen“ (Wolter & Hof, 2014, S. 20) hingewiesen. Zugleich konnte aber in diesem Bericht an vielen Stellen auf die Modernisierung der nationalen Bildungsstatistik verwiesen werden, die zukünftig die individuellen Längsschnittdaten zumindest im Bereich der Bildungsstatistik ermöglichen würde (Wolter & Hof, 2014).Footnote 22

Gegenüber dem Pilotbericht weiterentwickelt wurde dagegen das Verständnis des Programms und der Prozesse des Bildungsmonitorings sowie die Kommunikation dessen im Rahmen der Bildungsberichte. Die zunächst auffallendste Anpassung war die Ablösung der zyklischen Darstellung des Bildungsmonitoringprozesses durch eine kontinuierliche (vgl. Abbildung 5.2).

Abbildung 5.2
figure 2

Prozess des Bildungsmonitorings Schweiz 2010 bis 2014 (Wolter & Hof, 2014, S. 6)

In der neueren Konzeption wurden zusätzlich die Ebenen der Informationssammlung und -aufbereitung sowie der Systemsteuerung getrennt. Dabei bezog sich Bildungsmonitoring im engeren Sinne nur auf die Informations- und nicht auf die Steuerungsebene, wobei in den beiden Berichten fast wortwörtlich auf die Definition aus der EDK-Projektskizze von 2002 rekurriert wurde (vgl. Abschn. 5.4.2). Der Bildungsbericht stellte als Produkt auf der Monitoringebene den zentralen Taktgeber dar, sowohl was die Zeitlichkeit der Prozesse als auch was die Inhalte der bildungspolitischen Diskussion angeht. Auf der Basis des Berichts sollten in einer ersten Phase politische Auswertungen der im Bericht gesammelten Informationen erfolgen. Beteiligt daran sollten primär politische Akteure sein. Als Abschluss dieser Auswertungsphase würden der Bildungspolitik in dieser Programmatik Folgerungen und Vorschläge bezogen auf die Steuerung des Bildungssystems übergeben. Die Folgerungen bezögen sich auch auf das Monitoring selbst indem in der folgenden Phase das Programm des Bildungsmonitorings angepasst würde, etwa bezüglich des gezielten Ausbaus der Daten- und Informationsgrundlage (Wolter & Hof, 2014).

Im Bericht von 2014 konnte erstmals darauf verwiesen werden, dass Bund und Kantone im Zuge der Auswertung des Berichtes von 2010 Zielsetzungen für die Steuerung und Weiterentwicklung des Bildungssystems erarbeitet hatten (Wolter & Hof, 2014). Diese bildungspolitischen Zielsetzungen von Bund und Kantonen wurden 2011 unter dem Titel „Chancen optimal nutzen“ erstmals öffentlich vorgestellt:

„Bund und Kantone verständigen sich auf wenige konkrete und überprüfbare Ziele für das laufende Jahrzehnt. Mit diesen Zielen wollen Bund und Kantone aufgrund der Erkenntnisse des Bildungsberichts 2010 die Chancen und die Potentiale des schweizerischen Bildungssystems besser ausschöpfen. Auf der Grundlage der Bildungsberichte von 2014 und 2018 soll überprüft werden, wo das Bildungssystem Schweiz in Bezug auf die Erreichung dieser Ziele steht.“ (EDI, EVD & EDK, 2011, S. 1)

Die Zielsetzungen stützten sich auf Kernbefunde aus dem Bildungsbericht 2010 und bezogen sich auf alle Stufen des Bildungssystems. Als übergeordnete Prinzipien wurden mit Qualität und Durchlässigkeit die beiden zentralen Elemente aus der sogenannten Bildungsverfassung übernommen. Konkret wurden sechs Zielsetzungen formuliert, in denen mehrheitlich bereits bestehende, politische Ziele aufgenommen und aktualisiert wurden (EDI et al., 2011): (1) Die in HarmoS vorgesehene Zielharmonisierung der obligatorischen Schule über Grundkompetenzen bzw. Bildungsstandards in den Kernfächern sowie über daran ausgerichtete, sprachregionale Lehrpläne (EDK, 2011) sollte fortgesetzt und abgeschlossen werden. (2) Das bereits 2006 formulierte Postulat der 95%-Abschlussquote auf der Sekundarstufe II sollte beibehalten werden (EDK, 2006). (3) Der traditionelle, allgemeine und prüfungsfreie Zugang zu den Universitäten mit einer gymnasialen Maturität wurde als bildungspolitische Leitlinie bekräftigt. Damit reagierte man unter anderem auf die im Zuge der EVAMAR II-Untersuchungen wieder aufgetauchten Zweifel an Studierfähigkeit und Hochschulreife der Gymnasiasten (Eberle, 2018). (4) Für die Abschlüsse der höheren Berufsbildung sollte, analog zu den übrigen tertiären Abschlüssen, die internationale Anerkennung angestrebt werden.Footnote 23 (5) Das universitäre Qualifikationssystem sollte insbesondere für junge Forschende attraktiver gestaltet werden. (6) Der Heterogenität von Laufbahngestaltungen und Formen des Kompetenzerwerbs sollte mit der verstärkten Berücksichtigung nicht-formaler Lernaktivitäten Rechnung getragen werden.

Mit diesen Zielsetzungen, die 2015 auf der Basis des 2014er-Berichts aktualisiert wurden (WBF & EDK, 2015), wurde das nationale Bildungsmonitoring um das bereits im Pilotbericht von 2006 geforderte Zielsystem ergänzt. Insbesondere mit dem ersten konkreten Ziel der Fortführung der Harmonisierung im Bereich der obligatorischen Schule waren dabei auch die Leistungen der Schülerinnen und Schüler als Zielvorgabe enthalten. Daneben tauchten allerdings die Kompetenzen in den ab 2011 formulierten Zielsystemen deutlich weniger prominent auf als dies im Pilotbericht noch der Fall gewesen war. Nichtsdestotrotz wurden ebendiese Kompetenzen in den Bildungsberichten nach wie vor als qualitative Outputgrössen definiert (Wolter & Hof, 2014).

Sehr viel konkreter wurde das Zielsystem für die obligatorische Schule durch die 2011 veröffentlichten Bildungsstandards. Das Projekt der nationalen Bildungsstandards, das in der Verantwortung der EDK lag, wurde stets als Element der Harmonisierung der föderalen Strukturen im Bereich der obligatorischen Schule kommuniziert. Angelegt als nationale Festsetzung von Zielen bereits im EDK-Tätigkeitsprogramm und damit als Kern des zu schaffenden HarmoS-Konkordats (EDK, 2002b) waren die Bildungsstandards eng verbunden mit den Koordinations- und Harmonisierungspostulaten jener Zeit. So bezogen sich etwa die vier Zielsetzungen eines EDK-Konzeptpapiers zur Harmonisierung und Koordination von 2004 durchwegs und fast ausschliesslich auf das Instrument der Standards und ihrer Überprüfung (EDK, 2004a). Dabei war die Umstellung der Systembeobachtung und -evaluation hin zu einer stärkeren Betrachtung von Outputs und Wirkungen zwar stets mitgedacht, aber nicht gleichermassen prominent. Die nationalen Bildungsstandards wurden in vier Kernfächern entwickelt und bezeichneten eine Leistungsstufe, die von sämtlichen Schülerinnen und Schülern erreicht werden sollte. Damit waren sie als sogenannte Basis- oder Mindeststandards angelegt (Criblez et al., 2009). Ursprünglich sollten die Bildungsstandards praktisch zeitgleich mit dem HarmoS-Konkordat 2007 verabschiedet werden und anschliessend die Ausarbeitung der darauf aufbauenden Implementations- und Evaluationsinstrumente folgen (EDK, 2004a). Freigegeben wurden sie schliesslich 2011 (EDK, 2011). Als Zielkriterien für die Bildungsberichterstattung wurden sie jedoch nicht unmittelbar angewendet, sondern sollten vermittelt über die sprachregionalen Lehrpläne, über Lehrmittel und daran ausgerichtete Evaluationsinstrumente wirksam werden (Wolter & Hof, 2014). Ein messbares Zielkriterium im Sinne des Systemmonitoring würden sie erst durch ihre systematische, stichprobenbasierte Überprüfung (EDK, 2015c, vgl. Abschn. 5.5).

Der jüngste nationale Bildungsbericht von 2018 stellte zugleich eine Fortsetzung und eine Erweiterung der bisherigen Berichte dar. Einerseits wurde in vielen Teilen die Beschreibung der Vorgängerberichte auf der Basis derselben Datenbestände und mit ähnlichen Darstellungsformen fortgesetzt. Andererseits wurden die dargestellten Daten und Informationen an verschiedenen Stellen sehr viel stärker auf konkrete Aussagen hin zugespitzt. Beispielsweise wurden für die Primarschule und die Sekundarstufe I nicht nur die steigenden Schülerzahlen als Herausforderung hervorgehoben, sondern mit Auswertungen der Klassengrössen, Beschäftigungsgrade, Betreuungsverhältnisse, Lehrerlöhne und Unterrichtszeiten explizit die zentralen politischen Einflussgrössen aus bildungsökonomischer Perspektive hervorgehoben. Auch verschiedene Auswertungen zu den Bildungslaufbahnen waren in dem Sinne evaluativ aufgebaut, als dass die Möglichkeiten variabler Laufbahnen auf der Sekundarstufe II generell problematisiert und insbesondere die allgemeinbildenden im Vergleich mit den berufsbildenden Laufbahnen als defizitär dargestellt wurden. Gegenüber den Vorgängerberichten wurde die Datenauswertung in Richtung ökonomischer Indikatoren und Darstellungsformen hin ausgebaut. Beispiele dafür sind etwa die relative Reaktion der Zahl der Lehrstellen und der Ausbildungsplätze an Gymnasien, hinter denen Konzepte wie Grenzkosten und Marktelastizität stecken (Wolter et al., 2018).

Inhaltlich dokumentieren die Bildungsberichte von 2010, 2014 und 2018 nicht zuletzt den Erfolg der begrifflichen Setzungen im Pilotbericht: Die Relevanz und Aussagekraft der drei evaluativen Kriterien wird als gegeben vorausgesetzt. Die für die Bewertung der Effektivität nötigen Ziele wurden im Bericht von 2010 nicht politisch verifiziert, sondern grösstenteils aus dem Pilotbericht übernommen. Auch die Definitionen zu den Effizienz- und Equity-Kriterien wichen nur marginal von jenen im Pilotbericht ab (Wolter, Kull & Hof, 2010; Wolter & Hof, 2014). Die bereits im Pilotbericht von 2006 – damals noch ohne entsprechende politische Zielsysteme – konsequent angewandte Abbildung fast aller pädagogischen und bildungspolitischen Fragen und Themen in das begriffliche System wurde fortgesetzt. Mit der verstärkten Fokussierung auf ökonomische Auswertungsmodi und Lesarten wurden im Bericht 2018 die bildungsökonomischen Grundannahmen hinter evaluativen Kriterien deutlicher realisiert als in den Vorgängerberichten.

Insgesamt stellen die Bildungsberichte ein akkurates und umfangreiches Kompendium der verfügbaren Daten und Informationen dar. Bewertend und evaluierend sind sie einerseits durch die genannten Kriterien und andererseits durch die häufigen Verweise auf internationale Befunde und Entwicklungen. Dabei wurden mehrheitlich Ergebnisse präsentiert, die implizit oder explizit mit der OECD als Organisation verbunden sind oder die sehr gut in den internationalen, bildungsökonomischen Diskurs passten.

Trotzdem blieben nationalen Bildungsberichte hinter dem Anspruch einer systematischen, evaluativen Gesamtdarstellung der Effektivität, Effizienz und Chancengerechtigkeit des gesamten Bildungssystems zurück. Sowohl in der Monitoringkonzeption als auch in den konkreten Inhalten der Bildungsberichte setzte sich bis zum Bericht von 2014 eher die Trennung von Analyse und Gestaltung durch, wie sie in Projektskizze und Projektplan zum Pilotbericht angelegt war (vgl. Abschn. 5.4.2). Damit standen die Berichte eher im Kontext einer systematisch-beschreibenden Zielsetzung von Bildungsmonitoring. Sie waren als Produkte von Informationsbeschaffung und -aufbereitung ausgearbeitet. Die in der Konzeptphase vor 2006 und im Pilotbericht ebenfalls angelegte, umfassende Konzeption von Bildungsmonitoring unter Einbezug von Steuerung und Gestaltung wurde mit der Differenzierung zwischen Monitoringprogramm und Systemsteuerung eher wieder zurückgenommen. Ein Grund für diese Zurückhaltung liegt sicherlich darin, dass mit der Überprüfung der Bildungsstandards der entscheidende Schritt zur Implementierung eines outputorientierten Steuerungsverständnisses erst noch realisiert werden sollte. Diese Zurückhaltung wurde im Bericht von 2018 zumindest im Hinblick auf die ökonomisch inspirierte evaluative Perspektive teilweise abgelegt, und dies obwohl die eigentlichen Outputdaten – wie im folgenden Abschnitt 5.5 dargestellt – nicht präsentiert werden konnten.

5.5 Überprüfung der Grundkompetenzen

Sowohl mit dem nationalen Bildungsmonitoring als auch mit der revitalisierten Harmonisierung der kantonalen Schulsysteme war die Vorstellung einer Leistungserhebung von Beginn an eng verbunden (Maradan & Mangold, 2005). Die Harmonisierung, konkretisiert in der neuen Bildungsverfassung und im HarmoS-Konkordat, sollte neben strukturellen Eckwerten und sprachregionalen Lehrplänen insbesondere über die Bildungsstandards und deren Überprüfung erfolgen. Diese Überprüfung sollte sowohl auf der Ebene der einzelnen Schülerinnen und Schüler in Form von Referenztest als auch auf der Systemebene über eine systematische Erhebung der Schülerleistungen erfolgen (EDK, 2011). Über diese „Beschreibungen, die sich auf erwartete Leistungen an bestimmten Zeitpunkten des Lernens beziehen“ (EDK, 2004a, S. 4) wurde, die traditionellen Steuerungs- und Harmonisierungsinstrumente ergänzend, eine indirekte Harmonisierung intendiert. Dementsprechend enthielt der HarmoS-Umsetzungsbeschluss den Auftrag zur Entwicklung von Instrumenten zur Erhebung von Schülerleistungen auf Individualebene einerseits und als sogenannte Überprüfung der Grundkompetenzen (ÜGK) auf der Systemebene andererseits (EDK, 2013c). Mit den 2011 freigegebenen Bildungsstandards in den Fachbereichen Schulsprache, Fremdsprachen, Mathematik und Naturwissenschaften wurde die Grundlage für die verschiedenen Evaluations- und Überprüfungselemente geschaffen und damit die Entwicklung der ÜGK initiiert.

Für das nationale Bildungsmonitoring stellte die ÜGK – ähnlich wie PISA für die OECD-Indikatoren – eine Vervollständigung der Datenbasis und damit der in den Konzepten angedachten Palette von Inhalten dar. Bereits in den ersten Konzeptpapieren war die Erfassung der Schülerleistungen als Output-IndikatorFootnote 24, gemessen an festzulegenden Standards, aufgetaucht: Bund und Kantone hätten sich zumindest in den Kernfächern der Volksschule auf abgestimmte Leistungsziele oder Standards zu einigen und deren Erreichung mittels entsprechender Evaluationen zu überprüfen (Buschor, 2001). Auf die Festlegung der Bildungsstandards im Rahmen von HarmoS hätte zwingend eine Überprüfung zu folgen. Die Bewertung der Ergebnisse wäre dabei genuiner Bestandteil des Bildungsmonitorings (Stamm, 2003). Auch im Projektplan der EDK und dann sehr prominent in den Schlussfolgerungen des Pilotberichts war auf die Datenlücke im Bereich der Schülerleistungen bzw. der systematischen Messung von Kompetenzen hingewiesen worden (Rhyn et al., 2004; Wolter et al., 2007). Die ÜGK waren, so der damalige EDK-Generalsekretär Hans Ambühl, ganz in diesem Sinne angedacht und würden nun dementsprechend realisiert:

„Wer sich Ziele setzt, muss auch überprüfen, ob er sie erreicht. Es war deshalb von Anfang an vorgesehen, dies in Form eines Large Scale Assessment, also einer breit angelegten Leistungserhebung, auf systemischer Ebene zu tun. Und das ist, was jetzt mit der ÜGK geschieht.“ (D. Fischer & Weber, 2016, S. 16)

Im Konzept, ausgearbeitet von der EDK, wurden die Grundzüge der ÜGK folgendermassen definiert (EDK, 2013c): (1) Auf der Basis der als Basis- oder Mindeststandards erarbeiteten Grundkompetenzen (vgl. Abschn. 5.4.4) sollte die ÜGK als Testinstrument darauf ausgerichtet sein, die Erreichung dieser Grundkompetenzen festzustellen. Die Zuordnung von Kompetenzstufen wie sie etwa in PISA erfolgt, war nicht vorgesehen. (2) Die ÜGK sollte sich sich auf die Fächer beziehen, für die Bildungsstandards vorliegen. Dies sind Schulsprache, Fremdsprachen, Mathematik und Naturwissenschaften. (3) Geprüft werden sollten die Schülerinnen und Schüler am Ende der Programmjahre 4, 8 und 11.Footnote 25 Damit sind in den meisten Kantonen die 2. und die 6. Klasse der Primarschule sowie die 3. Klasse der Sekundarstufe I gemeint. (4) Die ÜGK-Erhebungen erfolgen grundsätzlich stichprobenbasiert.Footnote 26 (5) Die Ergebnisse der ÜGK würden Auswertungen bis zur Ebene des Kantons und der Sprachregion erlauben, allerdings kein Ranking von Bezirken, Gemeinden oder Schulen. Sie sollten in den periodischen Bildungsberichten publiziert werden.

Anders als die meisten bislang beschriebenen Erhebungen und auch das nationale Bildungsmonitoring ist die ÜGK kein gemeinsames Projekt von Bund und Kantonen, sondern liegt in alleiniger Verantwortung der EDK. Dies ist insbesondere dadurch begründet, dass die Volksschule nach wie vor im Kompetenzbereich der Kantone angesiedelt ist und das HarmoS-Konkordat dementsprechend die rechtliche Basis der ÜGK darstellt. Als strategisches Führungsgremium der ÜGK wurde der Koordinationsstab HarmoS definiert, der – etwa im Unterschied zur PISA-Steuergruppe – ausschliesslich mit Vertreterinnen und Vertretern der Kantone, der Regionalkonferenzen und des EDK-Generalsekretariats besetzt ist (EDK, 2014b, 2013b).

Die eigentliche Entwicklung der ÜGK-Erhebungen liegt ebenfalls in der Verantwortung der EDK und wurde unter der Bezeichnung Aufgabendatenbank organisiert. Als strategisches Führungsorgan eingesetzt wurde wiederum der Koordinationsstab HarmoS. Die operative Geschäftsführung sowie die Koordination der Testentwicklung wurde einer bei der SKBF angesiedelten Geschäftsstelle übertragen. Zur Aufgaben- und Testentwicklung wurden von der Geschäftsstelle Expertinnen und Experten in den Bereichen Fachdidaktik, Psychometrie, Stichprobenziehung und Technik, mehrheitlich auf Mandatsbasis, verpflichtet (EDK, 2014a). An Entwicklung und Durchführung der ÜGK beteiligt waren unter anderem die PHSG, die Scuola universitaria professionale della Svizzera italiana (SUPSI), der SRED, das Institut für Mehrsprachigkeit (IFM) sowie das Institut für Bildungsevaluation (IBE) (EDK, 2014a). Ab April 2019 wurde das an der Universität Bern angesiedelte Interfaculty centre for educational research (ICER) als nationale Koordinationsstelle der ÜGK und PISA-Untersuchungen präsentiert (Fankhauser, 2019).

Als eine Art Pilotphase wurde die ÜGK 2016 im Fach Mathematik bei den Schülerinnen und Schülern des 11. Programmjahres sowie 2017 in den Fächern Schulsprache und erste Fremdsprache im 8. Programmjahr durchgeführt. Die Ergebnisse sollten im nationalen Bildungsbericht 2018 publiziert werden. Erst danach sollte über eine allfällige Weiterführung des Projektes entschieden werden (EDK, 2015c). 2017 entschied die EDK bis 2022 die Sprachen im 11. Programmjahr sowie mindestens ein Fach im 4. Programmjahr überprüfen zu lassen und damit das Projekt für mindestens vier weitere Jahre fortzuführen (EDK, 2017b). Im nationalen Bildungsbericht 2018 wurden die Ergebnisse schliesslich nicht publiziert (Wolter et al., 2018). Stattdessen entschied die EDK, sie zunächst einer Validitätsprüfung durch ein externes Institut unterziehen zu lassen sowie ihre Erstpublikation vom nationalen Bildungsbericht zu entkoppeln (EDK, 2018a; 2018b). Am 24. Mai 2019 wurden die Ergebnisse öffentlich vorgestellt und je ein Bericht zu den beiden Erhebungen publiziert (Nidegger et al., 2019b, 2019a).

Im gesamten Prozess der Entwicklung und der ersten Durchführungen der ÜGK wurden – zumindest bis 2019 – entscheidende Elemente eines solchen Instruments der Systembeobachtung nicht oder zumindest nicht öffentlich diskutiert. So sollten die Ergebnisse der ÜGK zur Unterstützung und Weiterentwicklung der kantonalen Schulsysteme beitragen. Die Ergebnisse der ÜGK wären sogar deutlich aussagekräftiger als die PISA-Ergebnisse (EDK, 2015c). Zugleich wurden jedoch weder die Verantwortlichkeiten noch die Prozesse der Auswertung der Ergebnisse definiert. Es ist beispielsweise unklar, inwiefern die Ergebnisse zu einer allfälligen Anpassung der Bildungsziele und damit der Grundkompetenzen führen können und sollen. Auch die Vorstellung einer doppelten Auswertungsstrategie unter Einbezug der Kantone als Schulträger und der Bildungsforschung blieb bislang diffus. Vor allem die Frage ob und wie unabhängige Forschende mit Daten arbeiten, die zu einem klar gerahmten, politischen Zweck generiert wurden, ist ungeklärt (Imlig & Ender, 2018). Gerade aus den pädagogischen Hochschulen, die einen nicht unerheblichen Teil der an ÜGK angegliederten Forschenden stellen sollen, wurde auch Kritik laut: Bemängelt wurde etwa die mangelnde Transparenz im Hinblick auf die hinter der ÜGK stehenden Nutzungsüberlegungen, die Unklarheit der geplanten Ergebnispräsentation – Stichwort Kantonsranking – sowie die fehlende vorausschauende Planung des Bewertungsprozesses (Beywl, 2016).

In den beiden Ergebnisberichten wurden die konzeptionellen Grundlagen der überprüften Kompetenzen, die Entwicklung der Testaufgaben sowie Design und Durchführung der Überprüfung ausführlich beschrieben. Ebenfalls präsentiert wurde ein Vergleich der kantonalen Lehrpläne und der in den überprüften Fachbereichen eingesetzten Lehrmittel. Die Auswertung umfasste grob drei Elemente (Nidegger et al., 2019b, 2019a): (1) eine Aufstellung der Anteile der Schülerinnen und Schüler, die die Grundkompetenzen erreichen, pro Kanton, jeweils für das gesamte Fach und für die einzelnen Teilkompetenzen innerhalb des Faches, (2) eine Untersuchung der Zusammenhänge zwischen dem Erreichen der Grundkompetenzen und persönlichen Merkmalen der Schülerinnen und Schüler wie Geschlecht, soziale Herkunft, zu Hause gesprochene Sprache und Migrationsstatus sowie, (3) eine Kurzzusammenstellung der wichtigsten Ergebnisse pro Kanton. Im Mathematik-Bericht wurden zusätzlich die Zusammenhänge zwischen dem Erreichen der Grundkompetenzen und der Anzahl Unterrichtsstunden in Mathematik dargestellt. Als insgesamt wichtigstes persönliches Merkmal hat sich in Mathematik, Erstsprache und erster Fremdsprache die soziale Herkunft herausgestellt (Nidegger et al., 2019b, 2019a).

Die ersten ÜGK-Ergebnisse zeigen, dass die individuellen Merkmale zwar mit dem Erreichen der Grundkompetenzen in Zusammenhang stehen, aber die Unterschiede zwischen den Kantonen so nur marginal erklärt werden können. Abgesehen von der Unterrichtszeit sind keine Merkmale der kantonalen Schulsysteme in die Auswertung einbezogen worden. Insofern zeigt sich, bezogen auf das ursprünglich angestrebte Steuerungswissen, eine gewisse Ernüchterung: Nidegger et al. (2019b) weisen explizit darauf hin, dass die vielen ermittelten Zusammenhänge in dieser Form nicht oder nur sehr wenig zu einem Verständnis der kantonalen Schulsysteme und deren Funktionsweisen beitragen.

Mit der ÜGK wurde die Implementation eines nationalen Bildungsmonitorings im Prinzip abgeschlossen. Alle Elemente der Vorstellung einer an Outputs orientierten, politischen Steuerung und Gestaltung von Bildungssystemen sind erstmals vorhanden. Rund 20 Jahre nach der Einrichtung der PISA-Organisationsstrukturen in der Schweiz ist das sehr wesentlich durch PISA angestossene Dispositiv eines nationalen Bildungsmonitorings also vollständig, zumindest für die obligatorische Schule. Dementsprechend sollen nun die kantonalen Schulsysteme auf ihre leistungsbezogene Effektivität hin beurteilt werden können. Insofern umfasst die Grundlage der bereits in den 1960er-Jahren postulierten, an Rationalitäts- und Wissenschaftsmassstäben ausgerichteten Politikgestaltung im Bildungsbereich, die in den 1990er-Jahren als Qualitätsentwicklung wieder aufgenommen wurde, nun erstmals auch wissenschaftliche Informationen zu den Outputs öffentlicher Schule. Dem immer wieder konstatierten Bedarf nach diesen Informationen auf Systemebene ist so entsprochen worden. Allerdings sind lediglich die Unterrichtszeit und die sozio-ökonomische und kulturelle Zusammensetzung der Schülerschaft als Faktoren zur Erklärung von Leistungsdifferenzen zwischen den Kantonen überhaupt untersucht worden. Die Relevanz beider Elemente für die Prozesse und Outputs von Schule sind empirisch bereits vielfach abgesichert (z. B. Carigiet Reinhard, 2012; U. Moser, 2007; Ramseier et al., 2005a; Soussi & Nidegger, 2010; Tomasik, Oostlander & Moser, 2018).

Es wird sich zeigen müssen, welchen Einfluss die ÜGK auf die öffentliche Wahrnehmung, die bildungspolitische Grosswetterlage in der Schweiz und in den Kantonen sowie auf die konkreten bildungspolitischen Aktivitäten im Bereich der obligatorischen Schule bekommt. Es ist zumindest fraglich, ob diese Art der Information, konzipiert nicht zuletzt unter dem Eindruck des diskursiven Wandels während des ersten PISA-Zyklus, noch dem aktuellen Bedarf entspricht. Die Frage der Harmonisierung der Bildungssysteme erhält mit diesen Outputinformationen zwar eine neue Ebene aber es blieb bislang ungeklärt, welche Akteure auf welchen Ebenen die ÜGK-Ergebnisse aufnehmen und als Grundlage politischer Entscheidungen verwenden können und sollen:

Though the cantons are in charge of their own education systems, they are requested by federal law to harmonise them. [...] Since the results of the ÜGK serve as an indicator of harmonisation, it is unclear which political level [...] is responsible in the event that results do not match expectations.“ (Imlig & Ender, 2018, S. 11)

Eine weitere Frage stellt sich bezüglich der konkreten Hinweise, die aus den ÜGK-Ergebnissen als Evidence und Grundlage für die Evidence-based policies herausgearbeitet werden können. Die Hoffnung auf der Basis von Leistungserhebungen Bildungspolitik zu planen, zu gestalten und zu evaluieren ist parallel zur steigenden Verfügbarkeit solcher Daten sukzessive der Ernüchterung gewichen. Der Bedarf nach Informationen aus Praxis und Verwaltung scheint sich insofern verändert zu haben, als dass die mit Leitungsdaten generierbaren Erkenntnisse ihn nur noch teilweise abdecken. Die Ständige Konferenz der Kultusminister der Länder in der Bundesrepublik Deutschland (KMK) formulierte in der aktualisierten Monitoring-Gesamtstrategie den sich wandelnden Bedarf folgendermassen: „Die Bilanz der vergangenen Jahre zeigt [...], dass das Bildungsmonitoring zukünftig in noch größerem Maße Erklärungs- und Handlungswissen für die Schulpraxis und die Bildungsverwaltung bereitstellen müsste“ (KMK, 2015, S. 3). Zu einem so gewandelten Informationsbedarf, der ähnlich auch für die Schweiz formuliert werden kann, passt die Untersuchungskonzeption der ÜGK nur bedingt. Die Fokussierung auf Mindeststandards und die Kantone als Untersuchungseinheiten führt kaum zu Ergebnissen, die die komplexen Wirkungszusammenhänge von Inputs über Prozesse und hin zu den Leistungen, definiert als Outputs oder Outcomes, akkurat abbilden. In diesem Sinne wird sich zeigen, ob ÜGK mehr sein kann als ein Harmonisierungsmonitoring auf gesamtschweizerischer Ebene.