Einleitung

Numerische Modelle spielen eine wichtige Rolle bei der Bewertung der Sicherheit eines Endlagerstandorts, so auch bei den Sicherheitsuntersuchungen im Standortauswahlverfahren zur Ermittlung eines Standorts für die Endlagerung hochradioaktiver Abfälle in Deutschland (StandAG 2017; Hoyer et al. 2021). Modelle bilden die Realität zu einem gewissen Grad ab und ermöglichen es so, in vielfältiger Weise etwas über die realen Systeme zu erfahren – häufig in Form einer Prognose (siehe Abschnitt „Nutzen von Modellen in der Praxis“). Sie werden beispielsweise dafür verwendet, den Transport von Radionukliden im Untergrund quantitativ zu beschreiben, tiefe Grundwasserströmungen in einem Gebiet abzubilden oder die geomechanische Integrität der geologischen und geotechnischen Barrieren zu bewerten. Dies ist Praxis in vielen nationalen Projekten und Safety Assessments (siehe etwa NAGRA 2014b; SKB 2006; Andra 2005; NAGRA 2014a; POSIVA 2012).

Die Auswahl und das Design geeigneter Modelle sind komplexe Aufgaben, bei denen immer der konkrete Fall betrachtet werden muss und die nicht in allgemeingültigen Vorschriften oder Regeln abzubilden sind. Von entscheidender Bedeutung ist es aber, die grundsätzlichen Möglichkeiten und auch Grenzen des Einsatzes von Modellen zu verstehen und diese bei deren Anwendung und Bewertung zu berücksichtigen.

In diesem Text werden einige Aspekte und Grundsätze der Modellauswahl sowie des Modelldesigns dargelegt und reflektiert. Ziel ist dabei auch eine kritische Reflexion, so etwa die Frage nach den Grenzen oder der Umsetzbarkeit von bestimmten Grundsätzen bei der Modellentwicklung. Diese Betrachtung ist keinesfalls abschließend, sondern ein Einblick in einen sich stetig fortsetzenden Prozess der Diskussion und Evaluation.

Während dieser Beitrag damit grundsätzliche, übergeordnete Überlegungen anstellt, widmet sich der Beitrag „OpenWorkFlow – Development of an open-source synthesis-platform for safety investigations in the site selection process“ (Lehmann et al. 2024) der technischen Umsetzung einer Synthese-Plattform für numerische Modellierung für das Standortauswahlverfahren im Auftrag der BGE als Vorhabenträgerin.

Der Text verweist an einigen Stellen auf Beispiele. Diese werden als Zusatzmaterial in der Online-Ausgabe dieses Beitrags bereitgestellt und dienen als zusätzliche Illustration der folgenden Diskussionen.

Rolle von Modellen in der Standortauswahl

Numerische Modelle werden bei den vorläufigen repräsentativen Sicherheitsuntersuchungen im deutschen Standortauswahlverfahren (EndlSiAnfV; EndlSiUntV; StandAG) in vielfältiger Weise eingesetzt. Relevant sind sie insbesondere bei der Beschreibung des Radionuklidaustrags im Grundwasser, der Ausbreitung der von Abfällen ausgehenden Wärmeleistung, der Freisetzung von Nukliden aus den Behältern (siehe Beispiel 1) und der mechanischen Bedingungen im Endlagersystem.

Großskalige Grundwasserströmungen, z. B. für Dosisberechnungen, können mithilfe von 3D-Grundwassermodellen (vgl. etwa Witherspoon 1996; Wang und Anderson 1982; Rutqvist et al. 2002; de Marsily 1986; Anderson et al. 2015; Diersch 2013) berechnet werden. Die mechanische Integrität eines Endlagers kann mithilfe von geeigneten geomechanischen Modellen nachgewiesen werden (vgl. etwa Kolditz et al. 2021; Brady und Brown 2004; Hudson und Harrison 2000).

Der Austrag von Radionukliden aus einem potenziellen Endlager wird mithilfe von Radionuklidtransportmodellen, die Transportprozesse wie Diffusion und Advektion sowie Sorption und radioaktiven Zerfall abbilden, quantifiziert (vgl. etwa Reiche 2016; Norman und Kjellbert 1990; NAGRA 2013; Garibay-Rodriguez et al. 2022; Lichtner et al. 2020). Die für die Errichtung eines Endlagers notwendige Fläche wird anhand von Modellen ermittelt, die den Einfluss der einzulagernden Abfälle auf die Temperatur im Untergrund abbilden (thermische Prozesse, vgl. z. B. Carslaw und Jaeger 1986; Stauffer 2014).

Es werden auch sogenannte Argumentativmodelle eingesetzt. In aller Regel werden Modelle in der Standortauswahl nicht im Sinne einzelner Modellläufe eingesetzt, sondern als Modellensembles (siehe auch Rühaak et al. 2015). Dies liefert die Basis für weitergehende Werkzeuge wie die Sensitivitätsanalyse (siehe Abschnitt „Nutzen von Modellen in der Praxis“).

Der Modellbegriff

Konzeptualisierung des Modellbegriffs

Die Bandbreite dessen, was man als Modell bezeichnet, ist sehr groß. Hinzu tritt, dass der Begriff in verschiedenen Fachbereichen unterschiedlich und mehrdeutig verwendet wird. Weiterhin gibt es eine Vielzahl von Kategorisierungen von unterschiedlichen Typen von Modellen. Im Bereich der Sicherheitsuntersuchungen existiert eine Kategorisierung der IAEA für Modelltypen (IAEA 2012): so wird unterschieden zwischen konzeptionellen, mathematischen und numerischen Modellen (siehe Abb. 1). Konzeptionelle Modelle liefern typischerweise eine qualitative Beschreibung der Komponenten des betrachteten Systems (inklusive seiner Geometrie) und der Prozesse, die darauf einwirken. Mathematische Modelle liefern eine mathematische Beschreibung dieser Komponenten und Prozesse. Numerische Modelle setzen das mathematische Modell im Sinne eines Rechenmodells oder Computercodes um.

Abb. 1 Fig. 1
figure 1

Verschiedene Modelltypen

Different types of models

Diese Modelltypen bauen aufeinander auf; ein numerisches Modell umfasst in dieser Kategorisierung meist eine diskretisierte, genäherte Form eines mathematischen Modells, und ein mathematisches Modell ist oft die quantitative Form eines konzeptionellen Modells. Meist können Fragen, etwa zur Angemessenheit eines bestimmten Rechenmodells, nicht ohne Rückgriff auf das mathematische oder konzeptionelle Modell beantwortet werden.

Im Rahmen dieses Dokuments wollen wir keine erschöpfende Definition davon geben, was ein Modell ist. Bei den folgenden Überlegungen beziehen wir uns vor allem auf Rechenmodelle im o. g. Sinne, aber im weiteren Sinne auch auf das, worauf das Rechenmodell aufbaut, also auf das zugehörige mathematische und konzeptionelle Modell. Weiterhin fokussieren wir uns auf Rechenmodelle, die physikalische Prozesse abbilden und diese räumlich und/oder zeitlich simulieren.

Beispiele für Prozesstypen, die dabei betrachtet werden, sind mechanische, hydraulische, thermische, chemische und biologische Prozesse sowie Transportprozesse und Prozesse des nuklearen Zerfalls.

Nicht betrachtet werden in diesem Dokument rein beschreibende Modelle ohne dynamische Prozesse, wie etwa mithilfe von Bohrungen und Interpolationsmethoden gewonnene strukturgeologische Modelle des Aufbaus des Untergrunds (bspw. in Gocad oder Petrel). Diese dienen aber häufig als Eingabe-Geometrie eines physikalischen Modells.

Oft können physikalische Prozesse nur näherungsweise als unabhängig von anderen beschrieben werden. Wärmeleitung kann zur Ausdehnung von Material im Untergrund und damit zu mechanischen Spannungen führen; Spannung wiederum kann durch Veränderungen des Porenraums Transportprozesse beeinflussen. Modelle bilden diese übergreifenden Verbindungen zwischen Prozessen oder Prozesstypen als Kopplungen ab. Kopplungen sind eine Quelle von Komplexität in Modellen.

Modellwahl und Modelldesign beginnen mit einem Realsystem – wie etwa das System der Grundwasserströmungen im Untergrund – welches im Modell abgebildet werden soll, und einem Modellzweck. Der Modellzweck legt implizit fest, für welche Größen, Prozesse und Eigenschaften des Realsystems wir uns interessieren. Für einen bestimmten Modellzweck nützlich ist ein Modell, wenn es das Realsystem im Hinblick auf diese Größen und Prozesse hinreichend genau abbildet – andere muss es ggf. gar nicht oder nur wenig realitätsnah abbilden. So kann man das Grundwassersystem im Hinblick auf die Frage modellieren, wieviel Wasser typischerweise pro Jahr in ein in Planung befindliches Bergwerk fließt, um Pumpen dimensionieren zu können. Für diesen speziellen Zweck reicht es aus, die stark wasserführenden Teile des Grundwassersystems zu betrachten; auch ist es vermutlich nicht nötig, die Salinität des Grundwassers zu modellieren. Für einen anderen Modellzweck kann ein geeignetes Modell des Realsystems ganz anders aussehen. Aus Ingenieursperspektive können häufig drei übergeordnete Modellzwecke unterschieden werden: (i) Verbesserung des Prozessverständnisses, (ii) Bemessungszwecke oder (iii) operationelle Aufgaben.

Modelle bilden das Realsystem mithilfe von Modellannahmen und Modelparametern teilweise ab. Modellannahmen erlauben es, die komplexe Realität in einer handhabbaren Form abzubilden. Die Annahme, dass der Grundwasserfluss in einem porösen Medium (mit hinreichend verbundenen Poren) proportional zur Druckdifferenz ist (wie im Darcy-Gesetz beschrieben), ist beispielsweise eine solche Modellannahme (siehe Beispiel 2). Sie erlaubt erst das Formulieren der jeweiligen Differentialgleichungen. Eine solche Annahme kann falsch sein: Mit zunehmender Größe der Porenöffnungsweiten verliert das Darcy-Gesetz aufgrund der einsetzenden turbulenten Strömung an Gültigkeit.

Das Darcy-Gesetz gibt eine Proportionalität vor, aber nicht den Proportionalitätsfaktor. In diesem Beispiel nennt man diesen die hydraulische Durchlässigkeit. Diese Größe ist ein Beispiel für einen Modellparameter. Während Modellannahmen meist die grundlegende Prozessbeschreibung im Modell betreffen und die mathematische Formulierung dieser Prozesse erlauben, sind Modellparameter die „Stellschrauben“ eines Modells. Diese werden oft mit geeigneten Werten so belegt, dass das Modell die Realität möglichst gut abbildet. Dabei bestimmen die Modellannahmen, welche Modellparameter überhaupt notwendig sind. Nicht immer ist es zielführend, einen Modellparameter realistisch oder realitätsnah zu belegen; es kann etwa nützlich sein, mit extremen Werten zu arbeiten, um zu zeigen, dass ein bestimmter Prozess für ein bestimmtes Modell gar nicht relevant ist (siehe auch Abschnitt „Das Verhältnis zwischen Konservativität und Realismus“). Die Stärke des Einflusses eines Modellparameters auf das Modellergebnis bezeichnet man als Sensitivität. Modellparameter sind immer nur bis auf die jeweilige Ungewissheit bekannt. Diese Ungewissheiten können groß sein, insbesondere dann, wenn die Parameter selbst abgeleitete Größen sind und nicht direkt gemessen werden können, wie es bei vielen geophysikalischen Untersuchungsmethoden der Fall ist (siehe Beispiel 3). Insbesondere bei räumlich veränderlichen Parametern ist dies in der Geologie in der Regel der Fall, weil der Untergrund größtenteils nicht zugänglich ist und nur punktuell erschlossen werden kann. Wenn Parameter direkt messbar sind, entspricht die Ungewissheit der Messungenauigkeit. Neben Parameterungewissheiten gibt es auch andere Typen von Ungewissheiten, die nicht alle quantifizierbar sind. Da der Umgang mit Ungewissheiten von hoher Relevanz für die Aussagekraft von Modellen ist, hat die BGE den Forschungscluster „Ungewissheiten und Robustheit mit Blick auf die Sicherheit eines Endlagers für hochradioaktive Abfälle“ (URSFootnote 1) (BGE 2022i) initiiert, der sich dediziert mit dieser Thematik beschäftigt. Die große Bedeutung von Parameterwerten und Ungewissheiten führt zu der Aufgabe, diese möglichst lückenlos zu dokumentieren (siehe Anhang).

Die Werte für Modellparameter können direkt gemessen worden sein oder aber in unterschiedlicher Weise gerechtfertigte Annahmen darstellen. Weiterhin können Parameterwerte insbesondere im Kontext hydrogeologischer Modelle auch durch Kalibrierung und/oder inverse Modellierung (Parameterschätzung) belegt werden.

Eine besondere Art von Modellparametern stellt in dieser Hinsicht die Modellgeometrie dar. Diese gibt mindestens die räumlichen Grenzen des Modells an. Sie werden im Falle des 3D-Grundwassermodells, wenn möglich, entlang natürlich auftretender Merkmale wie z. B. Barrieren gewählt, an denen Annahmen zum Strömungszustand getroffen werden können (Randbedingungen). Weiterhin spezifiziert die Modellgeometrie auch die Position und Ausdehnung der unterschiedlichen geologischen Schichten, in einem dreidimensionalen Modell also etwa die Flächen im Raum, die je zwei Schichten voneinander trennen. Die Modellgeometrie ist auch deshalb ein besonderer Modellparameter, weil er oft keine skalare/vektorielle Größe ist, sondern z. B. durch komplexe, triangulierte Flächen abgebildet werden muss. In der Praxis ist es daher schwerer, die Geometrie analog zu anderen Modellparametern zu variieren. Die Geometrie ist zudem oft mit besonders großen Ungewissheiten behaftet, die aufwendig zu quantifizieren sind (Bjorge et al. 2022).

In vielen Kontexten verwendet man nicht ein Modell mit einer Parameterbelegung, sondern eine Gruppe (ein Modellensemble) mit jeweils unterschiedlichen Parameterbelegungen, um Aussagen zu gewinnen. So können auch Ungewissheiten abgebildet werden. Dazu werden Annahmen zur statistischen Verteilung der Eingangsparameter getroffen und entsprechende Stichproben der Eingangsparameter gezogen. Jede Einzelstichprobe definiert eine Parameterbelegung und damit ein Ensemblemitglied. Während jedes Mitglied nur ein Ergebnis liefert, liefert das Ensemble eine Verteilung von Ergebnissen.

Manchmal bilden Modelle nur einzelne, stark abstrahierende Aspekte des Realsystems ab. Sogenannte Argumentativmodelle (auch Prinzipmodelle, „Toy“- oder „Type-Models“ genannt) sind in der Regel relativ einfach aufgebaut und adressieren einen ganz bestimmten, oft stark vereinfachten Aspekt, etwa die Frage danach, wie sich die Permeabilität im Kristallingestein unter sehr spezifischen Annahmen mit der Auflast verändert. Solche Modelle haben teilweise einen geringeren Anspruch an Detailtiefe und Realitätsnähe der Parameter.

Nutzen von Modellen in der Praxis

Dem Statistiker George Box wird die viel zitierte Aussage zugeschrieben, dass alle Modelle falsch, aber einige nützlich seien („All models are wrong, but some are useful“, Box 1979). Box bezieht sich dort auf die Tatsache, dass alle Modelle nur unvollständige, genäherte Abbildungen eines Realsystems sind und dieses entsprechend unvollständig repräsentieren. Die epistemische (erkenntnisbezogene) Nützlichkeit eines Modells hängt eng mit seinem Modellzweck zusammen. Modelle können in unterschiedlicher Weise nützlich sein. Einige Beispiele werden im Folgenden diskutiert.

Prognose

Modelle können verwendet werden, um Prognosen zu erstellen. Im Kontext von Sicherheitsuntersuchungen sollen solche Prognosen letztlich informierte Entscheidungen unterstützen. Nützlich sind solche Prognosen daher insbesondere dann, wenn sie genau und spezifisch sind.

Viele der endlagerrelevanten Modelle betrachten nun aber Zeiträume, die besonders genaue und spezifische Prognosen stark erschweren oder gar unmöglich machen. Zusätzlich unterliegen die Modelle erheblichen Ungewissheiten, etwa in ihren Modellparametern. Prognosemodelle umfassen oft auch die Betrachtung der Ungewissheiten in den Modellergebnissen, etwa durch Bildung eines Ensembles und dessen Verwendung in einem Monte-Carlo-Verfahren. Hierbei wird berücksichtigt, dass die Eingabeparameter des Modells einer Schwankungsbreite unterliegen. Die Schwankungsbreite der Parameter setzt sich dabei entsprechend ihrer Sensitivität auf das Modellergebnis fort (siehe Abb. 2). Je größer der Schwankungsbereich streut, desto stärker wird dann auch das Modellergebnis streuen, wobei unterschiedliche Parameter in unterschiedlich starkem Maße zu dieser Streuung beitragen.

Abb. 2 Fig. 2
figure 2

Illustration zum Einfluss der Streuung auf den Hypothesentest

Illustration of the influence of variance onto the test of a hypothesis

Die Nützlichkeit des Modells zur Prognose ist geringer, wenn die Parameter und damit die Ergebnisse stärker streuen. Stärkere Streuungen führen zum Beispiel dazu, dass über die Validität zweier konträrer Hypothesen statistisch nicht mehr sicher entschieden werden kann.

Ist die Prognose statistisch signifikant, so kann sie für die Entscheidungsfindung eine wichtige Rolle erfüllen: Das Modell ist in der Lage, Annahmen bzw. Wissen über Eingangsparameter in Kenntnisse von für Entscheidungen relevanten Größen zu übersetzen.

Auch eine nicht-signifikante Prognose ist ein Resultat. Dieses Resultat kann etwa darauf hinweisen, dass die Ungewissheiten in einigen Parametern gegenwärtig zu groß sind oder dass der gewählte Modellansatz allgemein ungeeignet ist, um ein signifikantes und entscheidungsrelevantes Resultat zu liefern.

Prognosen können unterschiedlich spezifisch sein: „Ab Zeitpunkt t tritt Ereignis x ein“ ist ebenso eine Prognose wie „Innerhalb des Zeitraums \(\Updelta t\) wird Wert y im Mittel nur n mal auftreten“. Ein wichtiger Fall sind auch negative Prognosen. Solche Prognosen sind Aussagen darüber, wie sich das System nicht verhalten wird. Insbesondere im Zusammenhang mit konservativen Abschätzungen (siehe Abschnitt „Das Verhältnis zwischen Konservativität und Realismus“) spielen sie eine wichtige Rolle.

Ein anderer wichtiger Fall ist die Prognose in „What-if“-Fällen, wenn also für ein Modell hypothetische und unwahrscheinliche Bedingungen angenommen werden, etwa um die Robustheit eines möglichen Endlagers zu untersuchen (Beispiel 4).

Systemverständnis

„Falsche“ Modelle sind auch nützlich, weil sie dazu beitragen können, die zugrundeliegenden Realsysteme besser zu verstehen. Ein Modell, welches nicht in der Lage ist, einen Prozess nachzubilden, zeigt, dass das Systemverständnis noch nicht ausreichend ist. Modelle sind im Gegensatz zu den Realsystemen leicht veränderbar – Modellierende können Parameter verändern, beobachten wie sich das System verändert usw. Modellparameter sind dabei auch isolierbar. Außerdem erlaubt es ein Modell, ein Realsystem auf die Aspekte zu reduzieren, die man in einem bestimmten Kontext und für einen bestimmten Modellzweck untersuchen möchte. Dabei eröffnet die Reduktion natürlich ein Spannungsfeld: wird stark reduziert, fehlen u. U. gerade die Wechselwirkungen im Modell, die zu den Phänomenen führen, die man verstehen möchte. Die Wahl des richtigen Detailierungsgrades ist auch hier ein Lernprozess (siehe auch Abschnitt „Abstraktionsgrad von Modellen“).

Wesentliche Methode, um Systemverständnis mithilfe von Modellen zu gewinnen, ist die Sensitivitätsanalyse. Modelle enthalten implizit Informationen darüber, welche Eingabeparameter das Modellergebnis in welchem Maße beeinflussen. Dieses Ergebnis des numerischen Modells erlaubt häufig Rückschlüsse z. B. auf die Validität des zu Grunde liegenden konzeptionellen Modells und kann somit bereits einen erheblichen Erkenntnisgewinn leisten. In vielen Fällen wird die Anzahl der relevanten Parameter (bzw. Linearkombination von Parametern) begrenzt sein (Saltelli et al. 2008), was die weitere Arbeit mit dem Modell vereinfachen kann. Aus der Kenntnis der Parametersensitivität lassen sich zudem weitere Erkenntnisse herleiten, z. B. welche Parameter im Rahmen einer weiteren Datenakquise besonders zur Reduktion der Ungewissheit der Prognose beitragen können.

Kalibrierung und Inverse Modellierung

Ein Modell kann nicht nur das Wissen über Parameter in Wissen über interessante oder entscheidungsrelevante Größen übersetzen, sondern auch dazu dienen, Wissen über andere Parameter zu sammeln. In der Grundwassermodellierung wird dies oft zur Modellkalibrierung genutzt. Wird dabei ein mathematisches Verfahren oder spezielle Software (wie etwa PEST, siehe Doherty et al. 2010) eingesetzt, spricht man von inverser Modellierung (in der etablierten Grundwassermodellierung oft als Parameterschätzung bezeichnet); vergleiche z. B. Poeter und Hill 1997; Moore und Doherty 2005; Finsterle et al. 2017 (siehe auch Beispiel 5).

Damit das Modell diesen Zweck erreichen kann, müssen hierbei vorhergesagte Größen mit ausreichender Genauigkeit bekannt sein, sowie sensitiv auf die Parameter sein, die durch die inverse Modellierung bestimmt werden sollen. Abb. 3 stellt den Informationsfluss einer solchen Anwendung dar.

Abb. 3 Fig. 3
figure 3

Informationsfluss eines Modells basierend auf A‑Priori-Wissen und inverser Modellierung

Flow of information in a model based on a priori knowledge and inverse modelling

Eine noch selten genutzte Anwendungsmöglichkeit von Modellen ist es zu bestimmen, welche zusätzlichen Informationen für den Schritt der inversen Modellierung benötigt werden, um das Modellergebnis zu verbessern (Data-Worth Analysis, Dausman et al. 2010). Dabei werden mathematische Verfahren verwendet, um zu ermitteln, welche spezifischen Zusatzinformationen (etwa Grundwasserstände an einem bestimmten Ort) optimal die Aussagekraft des Modells erhöhen. Im Rahmen des Projektes URS (Teilprojekt SmartMonitoring, BGE 2022i) soll dieser Aspekt im Hinblick auf die Endlagersuche besonders hervorgehoben werden.

Modellauswahl und -prüfung

Abstraktionsgrad von Modellen

Ein wesentliches Problem bei der Modellauswahl stellt die Frage nach der geeigneten und notwendigen Modellkomplexität und dem angemessenen Detailierungsgrad dar. Komplexität lässt sich hier, wenn auch nur unscharf, gegen Detailierungsgrad abgrenzen; Komplexität bezieht sich oft darauf, dass ein Modell komplexe oder auch überraschend neu auftretende Wechselwirkungen aufweist, etwa zwischen Teilprozessen. So ist ein Grundwassermodell, welches dichtegetriebene Strömung in der Nähe eines Salzkörpers enthält, sicher komplexer als eines, das Dichteunterschiede im Grundwasser nicht berücksichtigt. Dagegen sind zwei Grundwassermodelle, die sich in der Zahl der verwendeten Gitterzellen oder FE-Elemente unterscheiden, oft ähnlich komplex in ihrem Verhalten und nur unterschiedlich detailliert. Beide Begriffe sind nicht trennscharf, insbesondere weil beide Eigenschaften oft gemeinsam auftreten. Im Folgenden wird vorwiegend der Begriff der Komplexität behandelt.

In aller Regel bedeuten die Modellannahmen immer eine graduelle Reduktion der Komplexität gegenüber der realen Situation, die abgebildet werden soll. Das o. g. Beispiel des Darcy-Gesetzes stellt eine solche Komplexitätsreduktion dar; ohne diese Annahme müssen auch mögliche nicht-lineare Strömungseffekte, die nicht dem Darcy-Gesetz unterliegen, modelliert werden (siehe unten). Ähnliches gilt für die Kopplung von Prozessen. Mechanische, hydraulische und thermische Prozesse beeinflussen sich in aller Regel in der Realität; sie zu vernachlässigen ist eine Vereinfachung. Von diesem Standpunkt aus sind komplexere Modelle insofern immer besser, als dass sie die Realität, jedenfalls in der Theorie, präziser abbilden.

Tatsächlich gibt es oft gute Gründe, Modelle und Modellannahmen nur so komplex wie nötig und so einfach wie möglich zu wählen. Zunächst sind komplexere Modelle meist mit größerem Aufwand verbunden. Dies gilt sowohl für den Rechenaufwand als auch für die Implementierungskosten. Im Grenzfall verhindert dies schlicht, dass sehr komplexe Modelle verwendet werden können – sie sind nicht umsetzbar. Gleiches gilt auch für sehr detaillierte Modelle.

Andererseits sind komplexe Modelle auch nicht zwingend realitätsnäher und belastbarer als einfache Modelle. Zum einen erfordern komplexere Modelle oft auch mehr Modellparameter. Diese zusätzlichen Modellparameter erlauben zwar die Berücksichtigung weiterer Ungewissheiten im Modell, reduzieren diese aber nicht notwendigerweise. Um im Beispiel auch nicht-lineare Grundwasserströmungen zu berücksichtigen, kann das Forchheimer-Gesetz anstelle der Darcy-Gleichung verwendet werden. Hierbei werden aber weitere Parameter (nicht-darcy’sche Permeabilitätskoeffizienten) des Untergrunds benötigt. Diese Parameter sind schwer zu bestimmen und räumlich differenziert oft nicht bekannt: sie müssen also wiederum mithilfe von Annahmen belegt werden, mit nur schwer quantifizierbaren Ungewissheiten. In so einem Fall liefert die realitätsnähere Modellannahme allein noch keine realitätsnäheren Ergebnisse.

Zum anderen wird mit steigender Komplexität die Interpretation und Prüfung von Resultaten herausfordernder. Je komplexer ein Modell, desto eher birgt es das Risiko, zu einer „black box“ zu werden, also einem System, bei dem man den Einfluss der Eingabegrößen auf die Ausgabegrößen kaum noch versteht. In der Praxis führt das oft dazu, dass für die Analyse der Ergebnisse komplexer Modelle wiederum vereinfachte Modelle herangezogen werden müssen.

Aus diesen Gründen liegt es nahe, Modelle möglichst einfach zu wählen, ohne wesentliche Aspekte zu vernachlässigen. Dieser Grundsatz hat viele Namen, u. a. wird er „principle of parsimony“ (Prinzip der Sparsamkeit) oder „Ockham’s Rasiermesser“ genannt.

Welche Aspekte für das Modell wesentlich sind, ist abhängig vom konkreten Modellzweck und kann nicht pauschal beantwortet werden. In jedem Fall müssen getroffene Vereinfachungen und Modellannahmen expliziert und begründet werden. Wo dies möglich ist, sollte dies auch quantitativ geschehen. Dieses Vorgehen macht transparent, warum das vereinfachte Modell in der gegebenen Situation angemessen ist, aber im Umkehrschluss auch, wo seine Grenzen liegen.

Ein einfaches Modell ist außerdem ein starker Schutz gegen (versehentliche oder mutwillige) Über- oder Fehlinterpretationen seiner Ergebnisse, insbesondere wenn das Modell im Nachgang abseits seines ursprünglichen Modellzwecks genutzt und dabei die notwendige Auseinandersetzung mit dem Kontext vernachlässigt wird.

Bei der Begründung der Vereinfachungen kann es notwendig sein, auch komplexere Modelle zur Überprüfung einzusetzen. Ein Beispiel wäre hier der Vergleich eines nur zweidimensionalen Grundwassermodells mit dem realitätsnäheren dreidimensionalen Modell. Sensitivitätsanalysen können hier dabei helfen, relevante Prozesse und Parameter zu identifizieren.

Andere Vereinfachungen lassen sich über Prinzipmodelle (siehe auch oben) begründen. Manchmal ist es auch möglich, den Einfluss eines nur schwer genau zu modellierenden Prozesses durch eine einfache, den zu erwartenden Effekt überschätzende Annahme zu ersetzen, sodass das Modell seinen Modellzweck erfüllt, etwa im Sinne einer konservativen Abschätzung.

Trotz des Gebots der Einfachheit/Sparsamkeit bei der Modellwahl müssen je nach Modellzweck in manchen Situationen Modelle gewählt werden, die eine große Komplexität aufweisen: Der Grundsatz rät nicht zu einfachen Modellen, sondern nur möglichst einfachen in Anbetracht des Realsystems und Modellzwecks. Insbesondere wenn viele unterschiedliche physikalische Prozesse und Parameter die relevanten Ergebnisse gleichermaßen beeinflussen und komplexe Geometrien involviert sind, können Modelle mit angemessener Komplexität extrem komplex sein. Dabei kann auch der Punkt erreicht werden, an dem eine Modellierung zu einem bestimmten Zweck nicht mehr sinnvoll durchführbar ist.

Auch arbeitsökonomisch hat das Gebot der Sparsamkeit eine Bedeutung: Es ist in aller Regel effizienter, beim Aufbau eines Modells schrittweise vorzugehen und vom Einfachen zum Komplexen zu gehen. Zum einen gewinnt man auf dem Weg vom Einfachen zum Komplexeren bereits Einsichten in das System; zum anderen ist die Überprüfung/das Testen solcher Modelle einfacher. Weiterhin kann man so im Prozess des Modellaufbaus anhand der Ergebnisse entscheiden, welche Komplexität noch hinzugefügt werden muss oder kann.

Das Verhältnis zwischen Konservativität und Realismus

Um die Ungewissheiten, die in anwendungsorientierten Modellen immer stecken, abzumildern, werden oft „konservative“ Modellannahmen gewählt; verwandte Begriffe sind abdeckend oder pessimistisch. Die exakte Belegung dieser Begriffe unterscheidet sich von Feld zu Feld leicht. Konservative Annahmen sind solche, die den jeweilig betrachteten Prozess jedenfalls nicht unterschätzen (aber ggf. überschätzen). Sie werden betrachtet, wenn das Eintreten etwa eines bestimmten Ereignisses in der Planung oder Auslegung sicher vermieden werden soll. Anders ausgedrückt stellen konservative Annahmen den Versuch dar, mit den Ungewissheiten so umzugehen, dass sie für die Prognose eines bestimmten Risikos geringere Relevanz besitzen: für die Bewertung ist nicht relevant, wie stark die jeweilige Größe exakt überschätzt wurde (das bleibt in der Regel ungewiss), relevant ist nur, dass der reale Wert nicht größer sein wird als der berechnete Wert. In einem einfachen Fall kann das etwa bedeuten, dass man Parameterwerte, die eine große Ungewissheit aufweisen, pessimistisch wählt. Konservative Annahmen können aber auch komplexere Sachverhalte betreffen, wie etwa die Auswahl der modellierten Prozesse. Konservativität ist keine Eigenschaft von Modellannahmen per se, sondern eine Eigenschaft von Modellannahmen im Hinblick auf eine bestimmte Größe. Das bedeutet, dass eine Annahme, die bezüglich einer Größe konservativ ist, im Hinblick auf eine andere gerade nicht konservativ ist – sie also u. U. unterschätzt (siehe Beispiel 6). Zu beachten ist auch, dass Konservativität nicht alle Ungewissheiten in Modellresultaten aufhebt. Wird etwa ein pessimistischer Parameterwert aus gestreuten empirischen Werten gewählt, z. B. als Minimum der empirischen Werteverteilung oder Quantil, so ist nicht sicher, ob dies eine konservative Abschätzung darstellt – der Parameterwert, der das Realsystem am besten abbildet, könnte noch geringer sein. Wenn einfache Parameterwerte konservativ gewählt werden, lässt sich diese Ungewissheit noch mithilfe von Annahmen quantifizieren, etwa wenn die Form der Verteilungsfunktion des Parameters geschätzt werden kann.

Konservativität kann den jeweils betrachteten Effekt gegebenenfalls auch stark überschätzen. Damit steht Konservativität in einem Spannungsfeld zur Realitätsnähe eines Modells. Oft werden konservative Annahme gerade dort getroffen, wo die Alternative in der Verwendung eines realitätsnäheren, aber sehr komplexen Teilmodells bestehen würde. Hier besteht ein Zielkonflikt: auf der einen Seite soll das Realsystem möglichst genau abgebildet werden. Auf der anderen Seite besteht ein großes Interesse daran, Risiken nicht zu unterschätzen und sie im Zweifel lieber zu überschätzen.

Da oft nicht nur eine Modellannahme konservativ gewählt wird, können diese Überschätzungen aufeinander einwirken. Wenn diese sich in ihrer Wirkung noch gegenseitig verstärken, kann dies ein Modell nutzlos machen, weil die in Frage stehenden Prozesse um viele Größenordnungen überschätzt werden. Es ist daher notwendig, konservative Annahmen entsprechend zu dokumentieren. Es kann im Verlaufe der Modellentwicklungen notwendig sein, Konservativitäten wieder abzubauen, also besonders stark vereinfachende, aber überschätzende Annahmen durch andere zu ersetzen. Der Grundsatz, dass relevante Risiken nicht unterschätzt werden sollten, muss dabei gewahrt bleiben.

Möglichkeiten und Grenzen der Überprüfung von Modellen

Modelle bilden Realsystem teilweise ab (wenn auch manchmal, wie im Falle der Argumentativmodelle, nur einzelne Aspekte). Der Nutzen von Modellen, insbesondere in Form von Prognosen, hängt davon ab, dass sich dieses Vermögen auch demonstrieren und überprüfen lässt. Verschiedene Fachdisziplinen haben hier unterschiedliche Terminologien. Übliche Begriffe sind Validierung, Verifikation, Benchmarking oder Testen von Modellen. Um die Verwendung mehrfach belegter Begriffe zu vermeiden, werden hier allgemein die Begriffe Überprüfung oder Test genutzt.

Modelle können in verschiedener Hinsicht inkorrekt sein. Auf der praktischen Seite der Modellentwicklung ist die konkrete Implementierung von Modellen fehlerträchtig. Fehler können Programmtests zu einem gewissen Grad aufdecken. Weil sich die Umgebung, in der ein Code arbeitet, ändern kann und weil Code meist auch gewartet und ggf. erweitert wird, müssen solche Tests immer wieder durchgeführt werden. Aus diesem Grunde etabliert sich die Verwendung automatisierter Testsysteme auch im Bereich des wissenschaftlichen Rechnens immer stärker, vor allem im Zusammenhang mit Techniken aus der Softwareentwicklung wie unit tests bzw. integration tests und Continuous Integration. Diese Aspekte betreffen nur die Korrektheit der Implementierung (in vielen Bereichen als Verifikation bezeichnet, Oberkampf et al. 2004), stellen aber bereits eine Herausforderung dar, insbesondere wenn man die langfristige Perspektive betrachtet – Modelle im Standortauswahlverfahren müssen ggf. auch in vielen Jahren noch reproduzierbare Ergebnisse liefern.

Praktisch lassen sich Implementierungen einfacher Modelle oft anhand von analytischen Lösungen überprüfen. Komplexere Fälle müssen durch Code-Vergleiche (Benchmarks) oder durch die Kombination von analytischen Teillösungen abgedeckt werden.

Natürlich kann auch ein korrekt implementiertes Modell das Realsystem trotzdem inadäquat abbilden, nämlich dann, wenn Modellannahmen oder Parameter ungeeignet sind. Daher ist die Prüfung, ob das Modell in der Lage ist überprüfbare Prognosen zu liefern, von zentraler Bedeutung. Diese Prüfung erfolgt oft in Form eines „History Matchings“, bei dem geprüft wird, ob ein Modell in der Lage ist, einen bekannten gegenwärtigen Zustand ausgehend von einem Zeitpunkt in der Vergangenheit korrekt vorherzusagen. Auf der praktischen Ebene wird das Testen von Modellen in der Regel u. a. von einem Mangel an zur Verfügung stehenden Vergleichsmessdaten behindert.

Auf der theoretischen Ebene zeigt eine Übereinstimmung zwischen Modell und Vergleichsdaten zudem auch nur Konsistenz an, nicht aber Korrektheit, weil das Modell in dem Bereich, wo Vergleichsdaten vorliegen, mit diesen übereinstimmen, aber jenseits davon stark abweichen kann. Umgekehrt ist es möglich, die Inkorrektheit eines Modells anhand von Vergleichsdaten nachzuweisen. Im Allgemeinen lässt sich jedenfalls bei sehr komplexen Modellen daraus aber nicht zwingend schließen, welche Modellannahme/welcher Modellparameter angepasst werden muss. Dies ist eine Variante der sogenannten Duhem-Quine-These (Quine 1951), die allgemein von der Unbestimmtheit der Theorie durch die Empirie handelt.

Oreskes (1998) argumentierte in einem vielzitieren Aufsatz (analog zu Konikow und Bredehoeft 1992) dafür, Begriffe wie Validierung fallenzulassen und stattdessen nur noch von der Evaluierung von Modellen zu sprechen, um die Konnotationen dieser Begriffe (valide, wahr) zu vermeiden. Die unterschiedlichen Ungewissheiten, die in Modellresultate eingehen, seien oft nicht vollständig zu quantifizieren, und auch state-of-the-art-Modelle könnten fundamentale, konzeptionelle Fehler aufweisen, die sich erst nach langer Zeit zeigen. Oreskes wirbt dabei keineswegs für einen Verzicht auf den Einsatz von Modellen: ihr Anliegen ist vielmehr ein offener Umgang mit Ungewissheiten und den faktischen Möglichkeiten, die Korrektheit eines Modells vollständig nachzuweisen. Saltelli, einer der Pioiniere der Sensitivitätsanalyse, schlägt in eine ähnliche Kerbe (Saltelli und Funtowicz 2014) und fordert, den Fokus nicht auf das Überprüfen und Bestätigen, sondern auf das Widerlegen von Modellen zu legen. Diese Vorgehensweise ist auch als „Model Falsification“ bekannt und wird z. B. bei Modellen für die Integritätsbewertung von Struktursystemen verwendet (De et al. 2018).

In der Praxis ist die Überprüfung von Modellen eine oft sehr schwierige Aufgabe. So wird in vielen Fällen, wenn Modelparameter mit Ungewissheiten verbunden sind, eine Kalibrierung, bzw. ein Schätzen der Parameter (inverse Modellierung) auf Basis von Messdaten durchgeführt, bevor das Modell getestet wird. Dabei wird ein Teil der vorhandenen Vergleichsmessdaten für den Kalibrierungsprozess verwendet und der andere Teil für die Überprüfung der Modelle.

In der Konklusion ergibt sich, dass die Überprüfung und das Testen von Modellen fortwährende Prozesse sind. Vorschläge, die eine stets kritische Position als methodische Grundhaltung gegenüber komplexen Modellen fordern (Saltelli und Funtowicz 2014), spiegeln dies wider. Programme wie DECOVALEX (Birkholzer et al. 2019) stellen jahrzehntelange Bemühungen dar, die Angemessenheit der Modellansätze anhand des Vergleichs mit Experimenten zu verbessern, jenseits der sonst üblichen Zyklen von Forschungsprojekten (siehe auch Beispiel 7).

Bei allen Herausforderungen sind Modelle in vielen Bereichen nützlich, auch wenn ein umsichtiger und transparenter Umgang mit ihnen nötig ist. Einen solchen pragmatischen Ansatz stellen Finsterle und Lanyon (2022) in Bezug auf Sicherheitsuntersuchungen für Endlagerprojekte vor. Der Fokus dieses pragmatischen Ansatzes liegt darauf in einem gewissen Rahmen sicherzustellen, dass ein Modell hinreichend verlässliche Aussagen über einen spezifischen Aspekt des Endlagersystems oder seiner Umgebung trifft. Innerhalb dieses pragmatischen Ansatzes unterscheiden die Autoren sechs Phasen der Modellüberprüfung, die mit der Definition des Modellzwecks beginnen und mit der Dokumentation von Modellannahmen sowie Modelaudits enden.

Numerische Modelle im Bereich der Standortauswahl weisen Besonderheiten auf, die sie zum Teil mit klassischen Grundwassermodellen gemein haben. Zum einen sind die Zeitskalen (und Längenskalen), für die Prognosen erstellt werden sollen, sehr groß im Vergleich zu denen, die im Experiment oder in der Beobachtung zugänglich sind. Unmittelbare Tests dieser Modelle in ihrer Gesamtheit können z. B. oft nur mit Daten aus der Gegenwart vergleichen. Weiterhin gibt es im Bereich der Standortauswahl die Besonderheit, dass u. U. ein Modell nie einen Ist-Zustand beschreibt, sondern etwa bereits von einem extrapolierten, irrealen Zustand startet. In solchen Fällen ist die Überprüfung der Modelle mit besonderen Herausforderungen verbunden. Für das Testen von Modellen mit komplexen Prozessen, die in Experimenten nur schwer abzudecken sind (siehe Beispiel 8), können Analogieschlüsse von anderen realen physikalischen Prozessen für die Validierung herangezogen werden.

In den fortgeschrittenen Phasen des Standortauswahlverfahrens werden Erkundungsmaßnahmen mehr und mehr Daten über möglicherweise geeignete Standorte zusammentragen. Dies ermöglicht dann eine fortgesetzte Überprüfung und ggf. Verbesserung der verwendeten Modelle.

Ausblick

Bereits im gegenwärtigen Schritt der repräsentativen vorläufigen Sicherheitsuntersuchungen besitzen numerische Modelle einen hohen Stellenwert und sind von hoher Relevanz für Bewertung und Differenzierung von möglichen Standorten. Ein aufmerksamer, wissenschaftsgeleiteter und reflektierender Umgang mit ihnen ist daher unumgänglich. Die hier dargelegten Überlegungen zur Modellauswahl, zur Überprüfung von Modellen und ihrer transparenten Nutzung sollen dazu beitragen.

In späteren Schritten des Standortauswahlverfahrens wird das Hinzutreten von neuen Daten aus der Erkundung eine sehr viele größere Detailtiefe in diesen Modellierungen erlauben und ihre Bedeutung damit erhöhen. Die größere Detailtiefe erfordert ihrerseits eine deutlich intensivere Behandlung der Ungewissheiten unterschiedlichen Ursprungs, die sich auf die Ergebnisse der Modelle auswirken können. Ein Schlüsselprojekt hier wird das URS-Vorhaben (BGE 2022i) sein, welches die BGE fördert. Aufgrund der höheren Datenverfügbarkeit wird auch für die im Rahmen des Projekts OpenWorkFlow (BGE 2021k) entwickelte Syntheseplattform für umfassende und detaillierte Modellierungen, insbesondere von gekoppelten Prozessen in mehr als einer Raumdimension, von besonderer Bedeutung sein.

Gleichzeitig unterliegt auch die Welt der Modelle einem Wandel, zum einen durch die stete Weiterentwicklung von bereits etablierten Methoden, aber auch aufgrund des steilen Aufstiegs von Techniken des maschinellen Lernens in vielen Fachbereichen, den wir zurzeit erleben (vergleiche etwa Irrgang et al. 2021).

Diese Herausforderungen werden immer wieder Nachjustierungen in den hier dargelegten, grundsätzlichen Überlegungen bedeuten und vielleicht auch neue Problemfelder öffnen.