In diesem Kapitel wird dargestellt, welchen Fachinhalten (angehende) Lehrkräfte für das gymnasiale Lehramt in der ersten Phase der Lehrkräfteausbildung (also im universitären Studium) begegnen und andererseits, welche fachdidaktischen Grundlagen sie benötigen. Nun stellt sich die Frage, wieso fachdidaktische Aspekte betrachtet werden, obwohl in dieser Arbeit das Fachwissen und nicht das fachdidaktische Wissen von Lehrkräften in den Blickpunkt genommen wird. Dies hängt mit der Annahme zusammen, dass für das Verständnis fachdidaktischer Elemente immer auch ein Fachwissen zu dem jeweiligen mathematischen Teilgebiet vorhanden sein muss (Kunter & Baumer, 2011, S. 347). Dementsprechend gibt die Betrachtung fachdidaktischer Inhalte Aufschluss darüber, welches Fachwissen Lehrkräfte haben müssen.

Ziel dieses Kapitels ist die thematische Einführung in die Wahrscheinlichkeitsrechnung. Dafür werden fachliche Strukturierungen in Abschnitt 2.1 eingeführt und die Mathematik auf akademischem Niveau zur Mathematik auf schulischem Niveau abgegrenzt. Anschließend wird die fachliche Struktur auf akademischem Niveau anhand des Beispiels der Wahrscheinlichkeitsrechnung insbesondere im Themenbereich der Gesetze der großen Zahlen in Abschnitt 2.2 eingeführt. Im Anschluss daran werden ausgewählte fachdidaktische Strukturierungen, also fachdidaktische Konzepte zunächst einmal allgemein in Abschnitt 2.3 und dann bezogen auf den Themenbereich der Wahrscheinlichkeitsrechnung in Abschnitt 2.2 dargestellt. Die Auswahl der fachdidaktischen Konzepte erfolgt hinsichtlich ihrer Anwendbarkeit auf die Wahrscheinlichkeitrechnung. Es stellt sich heraus, dass die Didaktik der Stochastik, im Gegensatz zu didaktischen Aspekten in anderen mathematischen Teilbereichen, viele Anwendungsbezüge aufzeigt, aber wenige theoretische Überblicksarbeiten existieren.

Es stellt sich weiterhin heraus, dass durch die Auseinandersetzung mit den Fachinhalten auf akademischem Niveau sowie den fachdidaktischen Aspekten nur vage Aussagen hinsichtlich des Fachwissens von Lehrkräften getroffen werden können. Eine systematisiertere Auseinandersetzung scheint von Nöten.

2.1 Fachliche Strukturierung mathematischer Inhalte

Die Studierenden [lernen] die Mathematik an der Hochschule (insbesondere in den Grundlagenveranstaltungen im ersten Semester) primär als Geisteswissenschaft kennen, die durch einen systematischen und abgesicherten Theorieaufbau gekennzeichnet wird. (Rach, Heinze & Ufer, 2014, S. 152)

Dieser von Rach et al. (2014) erwähnte systematische und abgesicherte Theorieaufbau lässt sich im Studium für angehende Gymnasiallehrkräfte verorten und dieser Aufbau, nachfolgend die fachliche Strukturierung mathematischer Inhalte für akademische Mathematik genannt, wird in diesem Abschnitt näher betrachtet. Sie wird zunächst einmal in Abgrenzung an die schulische Mathematik charakterisiert. Anschließend wird diese Struktur exemplarisch anhand des Beispiels der Wahrscheinlichkeitsrechnung dargestellt.

Angehende Gymnasiallehrkräfte besuchen zu Beginn ihres Studiums die Veranstaltungen gemeinsam mit fachwissenschaftlichen Studierenden. Die Veranstaltungen im universitären Bereich unterscheiden sich zum Mathematikunterricht in der Schule auf mehrere Weisen. Diese Unterschiede werden im Folgenden näher erläutert. Reichersdorfer, Ufer, Lindmeier und Reiss (2014) führen an, dass es „im Grunde nur eine Mathematik“ (S. 38) gibt, sich die akademische Mathematik, wie sie an der Universität gelehrt wird, aber deutlich von schulischer Mathematik unterscheiden. Deshalb wird die akademische Mathematik der schulischen Mathematik vergleichend gegenübergestellt, um die Struktur verständlich zu machen. In der akademischen Mathematik ist auch die Anwendungsmathem (wie beispielsweise Mathematik für Ingenieure) anzusiedeln. Diese wird in der Betrachtung nicht weiter berücksichtigt, weil der Fokus auf den Inhalten und der Struktur der fachwissenschaftlichen Mathematik liegen soll.

In Tabelle 2.1 werden strukturelle und inhaltliche Unterschiede zwischen schulischer und akademischer Mathematik dargestellt. Die schulische Mathematik orientiert sich an einer inhaltlichen Axiomatik (Reichersdorfer et al., 2014, S. 38). Hier werden Axiome als Eigenschaften von schon bekannten Begriffen verwendet. Ihre Korrektheit ist immer gegeben. Die akademische Mathematik unterliegt eher einer formalen Axiomatik und ordnet diese einer formal-axiomatisch, deduktiven Struktur zu (Reichersdorfer et al., 2014, S. 38) . Diese formal-axiomatisch, deduktive Struktur, wie sie durch David Hilbert begründet wurde, behandelt Begriffe in der Form, dass sie vollständig durch in Axiomen festgelegten Eigenschaften bestimmt sind (Reichersdorfer et al., 2014, S. 38 f.). Diese Axiome haben die Anforderung vollständig, unabhängig und widerspruchsfrei zu sein (Heintz, 2000, S. 48). In der akademischen Mathematik muss mathematisches Wissen über „eine deduktive Prozedur – den Beweis gewonnen“ (Heintz, 2000, S. 53) werden. Auch die Art des Begriffserwerbs unterscheidet sich in der schulischen und akademischen Mathematik. In der schulischen Mathematik werden Begriffe induktiv erworben. Der Theorieaufbau und die formale und systematische Darstellung stehen eher im Hintergrund und es gibt einen bedeutsamen Anteil an Realitäts- und Anwendungsbezügen (Hoth, Jeschke, Dreher, Lindmeier & Heinze, 2020, S. 334). Dem gegenüber steht die akademische Mathematik mit einem definitorischen Begriffserwerb, der sich durch ein striktes Vorgehen mit Definition-Satz-Beweis als formal herausstellt. Hier spielen Realitäts- und Anwendungsbezüge keine essentielle Rolle (Hoth et al., 2020, S. 334).

Tabelle 2.1 Vergleich von schulischer und akademischer Mathemtik

Wu (2015) fasst diese fundamentalen Prinzipien der akademischen Mathematik, welche die Struktur akademischer mathematischer Inhalte charakterisieren, zusammen:

  1. (1)

    Every concept is precisely defined, and definitions furnish the basis for logical deductions.[...]

  2. (2)

    Mathematical statements are precise. At any moment, it is clear what is known and what is not known. [...]

  3. (3)

    Every assertion can be backed by logical reasoning.[...]

  4. (4)

    Mathematics is coherent; it is a tapestry in which all the concepts and skills are logically interwoven to form a single piece.[...]

  5. (5)

    Mathematics is goal-oriented, and every concept or skill in the standard curriculum is there for a purpose.

    (S. 379 ff.)

Der erste Punkt beschreibt die formal-axiomatisch, deduktive Struktur der akademischen Mathematik und betont die Logik in der Mathematik, in der Definitionen die logische Grundlage liefern. Wu (2015) hebt die Genauigkeit und Transparenz der Mathematik in Punkt (2) hervor, indem mathematische Aussagen präzise definiert werden. Die Transparenz ist klar, weil festgehalten wird, was gewusst und nicht gewusst wird. Er betont die logische Argumentation in der akademischen Mathematik (Punkt 3), weil jede Behauptung durch logische Begründungen gestützt wird. Punkt (4) beschreibt die Kohärenz, weil mathematische Konzepte und Fähigkeiten durch Logik miteinander verbunden sind und sie als ein großes Konzept präsentiert werden können. Wu (2015) bezieht sich in Punkt (5) auf die Zielorientiertheit der akademischen Mathematik, weil jedes Konzept oder jede Fähigkeit einen bestimmten Zweck hat.

Im Folgenden wird die fachliche Strukturierung mathematischer Inhalte anhand des Beispiels der Wahrscheinlichkeitstheorie in groben Zügen dargestellt.

2.2 Exemplarische Darstellung der fachlichen Strukturierung mathematischer Inhalte anhand des Beispiels Wahrscheinlichkeitsrechnung

Dieser Teilabschnitt befasst sich mit der exemplarischen Darstellung der fachlichen Strukturierung mathematischer Inhalte anhand des Beispiels in der Wahrscheinlichkeitsrechnung mit dem Fokus auf die Gesetze der großen Zahlen. Die Gesetze der großen Zahlen wurden als Beispiel ausgewählt, weil das empirische Gesetz der großen Zahlen in der Schule thematisiert wird, das schwache und starke Gesetz der großen Zahlen wiederum nicht. Das schwache und starke Gesetz der großen Zahlen werden wiederum in Stochastikveranstaltungen in der Universität behandelt. Damit wird eine Bandbreite verwandter, mathematischer Inhalte aufgezeigt.

Das mathematische Teilgebiet „Wahrscheinlichkeitsrechnung“ bzw. „Wahrscheinlichkeitstheorie“ gehört gemeinsam mit der Statistik zur Stochastik. Löwe und Knöpfel (2011, S. 1) bezeichnen die Stochastik als die Mathematik des Zufalls, welcher vielerorts Modellbaustein für reale Phänomene ist. Das Gründungsjahr der Stochastik wird auf 1654 datiert, in dem ein Briefwechsel zwischen Pierre de Fermat und Blaise Pascal stattfand. Sie befassten sich mit der Praxis der Würfelspiele. Ende des 17. Jahrhundert wurde durch Jakob Bernoulli ein Werk geschrieben, welches Stochastik als wissenschaftliche Theorie darstellte. Dieses Werk Ars conjectandi wurde nach dem Tode von Bernoulli im Jahr 1713 veröffentlicht. Hier wird der Beweis eines Gesetzes der großen Zahlen abgebildet. Eine Axiomatik gab es zu der Zeit noch nicht. Axiomatische Grundlagen als solche schuf Andrei Nikolaevich Kolmogorov im Jahr 1933, in dem er sich auf die Maßtheorie stützte (Löwe & Knöpfel, 2011, S. 21 f.).

Im Folgenden werden die hier relevanten Begriffe für das Verständnis der Gesetze der großen Zahlen eingeführt. Dafür werden folgende Begriffe definiert: Zufallsexperiment, Ergebnis und Ergebnismenge, Ereignis und Ereignismenge, absolute und relative Häufigkeiten, das Axiomensystem von Kolmogorov sowie Bernoulli-Ketten. Anschließend werden die Gesetze der großen Zahlen und die genutzten Konvergenzsätze der Wahrscheinlichkeitsrechnung genannt, weil diese im Zentrum dieser Arbeit stehen.

Unter einem Zufallsexperiment in der Stochastik versteht man reale Vorgänge (Versuche) unter exakt festgelegten Bedingungen, wobei die möglichen Ausgänge (Ergebnisse) des Versuches feststehen, nicht jedoch, welchen Ausgang der Versuch nimmt. (Kütting & Sauer, 2014, S. 89)

Das oben stehende Zitat zeigt die Zusammenhänge der Begriffe Zufallsexperiment, Versuche und Ergebnisse. Die möglichen Ergebnisse eines diskreten Zufallsexperiments werden mit \(\omega \) abgekürzt und sind Teil der Ereignismenge (der Zusammenfassung aller Ereignisse), welche als

$$\begin{aligned} \Omega = \{ \omega _1,\omega _2,...,\omega _n \} \end{aligned}$$
(2.1)

definiert werden (Büchter & Henn, 2007, S. 162).

Ein Elementarereignis ist dann wiederum eine Teilmenge von \(\Omega \) und Ereignismenge \(\mathcal {P}(\Omega )\). Oben genannte Begrifflichkeiten werden im Umgang mit Zufallsexperimenten genutzt. Der Begriff „Zufallsexperiment“ findet schon Verwendung im Mathematikunterricht in der Schule. Die formale Einführung der Ereignismengen wird wiederum in vereinfachter Form thematisiert (Büchter & Henn, 2007, S. 162 ff.).

Büchter und Henn (2007) definieren die absolute und relative Häufigkeit wie folgt:

Definition 0.1

(Absolute Häufigkeit und Relative Häufigkeit). Die Begriffe sind auf jedes Zufallsexperiment übertragbar: Ist E ein Ereignis bei einem Zufallsexperiment und ist E bei m Versuchen k-mal eingetreten, so sind

$$\begin{aligned} H_m (E) = k\, { die}\, {absolute}\, {H\ddot{a}ufigkeit}\, {von}\, {E}\, {bei}\, {m}\, {Versuchen} \end{aligned}$$
(2.2)
$$\begin{aligned} h_m (E) = \frac{k}{m}\, { die}\, {relative}\, {H\ddot{a}ufigkeit}\, {von}\, {E}\, {bei}\, {m}\, {Versuchen} \end{aligned}$$
(2.3)

Diese mathematischen Voraussetzungen werden benötigt, um das empirische Gesetz der großen Zahlen einführen zu können. Dieses kann nach Büchter und Henn (2007) folgendermaßen formuliert werden:

Mit wachsender Versuchszahl stabilisiert sich die relative Häufigkeit eines beobachteten Ereignisses. (S. 174)

Diese Beobachtung beruht auf Erfahrungen und lässt sich mathematisch nicht nachweisen. Sie kann auch Naturgesetz genannt werden und ist fundamental für die Modellannahme (Büchter & Henn, 2007, S.174).

Für eine mathematisierbare Aussage eines Gesetzes der großen Zahlen werden das Axiomensystem von Kolmogorov sowie Bernoulli-Ketten eingeführt.

Das Axiomensystem von Kolmogorov wird für einen endlichen Fall im Folgenden definiert:

Definition 0.2

Ein Wahrscheinlichkeitsraum \((\Omega , P)\) ist ein Paar bestehend aus einer nichtleeren endlichen Menge

$$\begin{aligned} \Omega = \{\omega _1 , \ldots , \omega _n\} \end{aligned}$$
(2.4)

und einer Funktion

$$\begin{aligned} P: \mathcal {P}(\Omega ) \rightarrow \mathbb {R} \end{aligned}$$
(2.5)

mit den Eigenschaften

  1. (1)

    \(P(E) \ge 0\) für alle Teilmengen E von \(\Omega \) (Nichtnegativität),

  2. (2)

    \(P(\Omega )=1\) (Normiertheit),

  3. (3)

    \(P(E_1 \cup E_2) = P(E_1) + P(E_2)\) für alle Teilmengen \(E_1,E_2\) mit \(E_1 \cap E_2 = \emptyset \) (Additivität).

Dabei heißen \(\Omega \) Ergebnismenge, \(P(\Omega )\) Ereignismenge, P Wahrscheinlichkeitsverteilung (oder Wahrscheinlichkeitsfunktion) und \(\mathcal {P}(E)\) Wahrscheinlichkeit des Ereignisses E.

Es gibt verschiedene Versionen des schwachen Gesetzes der großen Zahlen oder auch Bernoullli-Gesetz der großen Zahlen. Dieser Satz kann, wie in dieser Arbeit geschieht, im diskreten Wahrscheinlichkeitsraum formuliert werden. Es ist auch möglich, diesen für beliebige reellwertige Zufallsvariablen mit endlicher Varianz in einem reellwertigen Wahrscheinlichkeitsraum zu definieren. Aus Gründen der besseren Stringenz wird in dieser Arbeit darauf verzichtet. Für das schwache Gesetz der großen Zahlen wird eine Binomialverteilung benötigt, welche die Wahrscheinlichkeitsverteilung einer Bernoulli-Kette der Länge n ist. Zunächst wird die Zufallsvariable, die Bernoulli-Kette der Länge n definiert und anschließend ihre Binomialverteilung eingeführt.

Eine Zufallsvariable, also eine Funktion auf \(\Omega \) definiert Krengel (2005, S. 42) wie folgt:

Definition 0.3

Ist \((\Omega , P)\) ein diskreter Wahrscheinlichkeitsraum und \(\mathcal {X}\) eine beliebige Menge, so nennen wir eine Abbildung \(X : \Omega \rightarrow \mathcal {X} \) eine \(\mathcal {X}\)-wertige Zufallsvariable.

Satz

(Wahrscheinlichkeiten bei Bernoulli-Ketten der Länge n). Bei einer Bernoulli-Kette der Länge n mit Parameter p ist die Wahrscheinlichkeit für das Ereignis „genau k mal Treffer“ die Zahl

$$\begin{aligned} B_{n,p}(k):=B(n,p,k) :=\left( {\begin{array}{c}n\\ k\end{array}}\right) \cdot p^k\cdot (1-p)^{n-k}. \end{aligned}$$
(2.6)

(Büchter & Henn, 2007, S. 305 f.)

Ihre Wahrscheinlichkeitsverteilung wird Binomialverteilung genannt.

Definition 0.4

(Binomialverteilung). Eine Zufallsvariable X mit angenommenen Werten \(0, 1, 2, 3, \ldots , n\), heißt binomialverteilt mit den Parametern \(n\in \mathbb {N}\) und p, \(0<p<1\) genau dann, wenn gilt

$$\begin{aligned} P(X=k)=\left( {\begin{array}{c}n\\ k\end{array}}\right) \cdot p^k\cdot (1-p)^{n-k}, k=0,1,...,n. \end{aligned}$$

Ist X eine binomialverteilte Zufallsvariable mit den Parametern n und p, so wird diese so notiert: X ist B(np)-verteilt.

Nun ist ein weiterer Baustein für das schwache Gesetz der großen Zahlen und primär für den Beweis relevant, die Tschebyscheff-Ungleichung:

Satz

(Ungleichung von Tschebyscheff). Sei X eine diskrete Zufallsvariable mit dem Erwartungswert \(E(X)=\mu \) und der Varianz \(V(X)=\sigma ^2\). Dann gilt für jede Zahl \(a>0\):

$$\begin{aligned} P(|X-E(X)|\ge a)\le \frac{V(X)}{a^2} \end{aligned}$$
(2.7)

Es folgt das schwache Gesetz der großen Zahlen mit Bernoulli-Ketten der Länge n, welches aus Kütting und Sauer (2014, S. 280) entnommen wurde.

Satz

(Das schwache Gesetz der großen Zahlen). Es sei A ein Ereignis, das bei einem Zufallsexperiment mit der Wahrscheinlichkeit \(P(A)=p\) eintrete. Die relative Häufigkeit des Ereignisses A bei n unabhängigen Kopien (bzw. Wiederholungen) des Zufallsexperiments bezeichnen wir mit \(h_n\) (Bernoulli-Kette der Länge n). Dann gilt für jede positive Zahl \(\epsilon \):

$$\begin{aligned} lim_{n\rightarrow \infty } P(|h_n-p|<\epsilon )=1, \end{aligned}$$
(2.8)

bzw. gleichwertig

$$\begin{aligned} lim_{n\rightarrow \infty } P(|h_n-p|\ge \epsilon )=0. \end{aligned}$$

(Kütting & Sauer, 2014, S. 280)

Das schwache Gesetz der großen Zahlen gilt für (reellwertige) Zufallsvariablen. Die oben behandelten Zufallsvariablen und die Kernaussage des schwachen Gesetzes der großen Zahlen beinhaltet eine p-stochastische Konvergenz. Der Beweis ist in Kütting und Sauer (2014) zu finden.

Definition 0.5

((P-)Stochastische Konvergenz). Eine Folge \(Y_n\) von reellwertigen Zufallsvariablen konvergiert P-stochastisch gegen eine Zufallsvariable Y, wenn für alle \(\epsilon >0\) gilt:

$$\begin{aligned} P(|Y_n-Y|)\ge \epsilon )\rightarrow 0\ {f\ddot{u}r}\ n\rightarrow \infty \end{aligned}$$

Das starke Gesetz der großen Zahlen ist wie folgt definiert:

Satz

(Das starke Gesetz der großen Zahlen). Sei \(X_1, X_2, X_3,\ldots \) eine Folge reellwertiger, unkorrelierter Zufallsvariablen und \(Var(X_i)\le M < \infty \). Dann konvergiert diese durch

$$\begin{aligned} Z_n=\frac{1}{n}\sum _{i=1}^n(X_i-E(X_i)) \end{aligned}$$

definierte Folge fast sicher gegen 0.

\(\text {So folgt } \lim _{n\rightarrow \infty } (\frac{1}{n} \sum _{i=1}^n(X_i-E(X_i))) = 0\) P-fast sicher.

Der Beweis ist zum Beispiel in Krengel (2005) aufgeführt. Für das starke Gesetz der großen Zahlen wird eine fast sichere Konvergenz benötigt. Fast-sichere Konvergenz wird wie folgt definiert:

Eine Folge \((Y_n)\) konvergiert fast sicher gegen Y, wenn

$$\begin{aligned} P(\{\omega \in \Omega : lim_{n \rightarrow \infty } Y_n (\omega ) = Y(\omega )\}) = 1. \end{aligned}$$
(2.9)

In diesem Teilabschnitt wurden fachliche Strukturierungen mathematischer Inhalte am Beispiel der Gesetze der großen Zahlen exemplarisch dargestellt. Die Beweise für die jeweiligen Sätze wurden an dieser Stelle nicht geführt (nachzulesen u. a. in Krengel, 2005; Büchter & Henn, 2007; Georgii, 2009; Kütting & Sauer, 2014).

Das schwache Gesetz der großen Zahlen gilt auch für abstrakte Zufallsvariablen. Der Einfachheit halber wird der Satz mit diskreten Zufallsvariablen angegeben. Kütting und Sauer (2014) führen an, dass „die Bedeutung der Ungleichung von Tschebyscheff in ihrer allgemeinen Gültigkeit und dem weiteren Theorieaufbau“ (S. 280) liegt. Dieser weitere Theorieaufbau ist im schwachen und starken Gesetz zu sehen. Auch das starke Gesetz der großen Zahlen nutzt eine Form von stochastischer Konvergenz, da fast sichere Konvergenz auch stochastische Konvergenz impliziert (Krengel, 2005, S. 152).

Die Gesetze der großen Zahlen, mit Ausnahme des empirischen Gesetzes der großen Zahlen innerhalb des Teilbereichs der Stochastik, folgen einer formal-axiomatisch deduktiven Struktur. Das empirische Gesetz der großen Zahlen ist aufgrund der fehlendenden Mathematisierbarkeit als Beobachtung eines Naturphänomens zu deuten und nicht Teil einer mathematisierten Wahrscheinlichkeitsrechnung. Für mathematisch präzisere Betrachtungen werden das schwache und starke Gesetz der großen Zahlen genutzt. Durch das Axiomensystem von Kolmogorov erfüllt die Stochastik die Anforderung, formal-axiomatisch zu arbeiten. Es erfolgt ein definitorischer Begriffserwerb durch die Definition-Satz-Beweis-Struktur.

Ein wesentlicher Unterschied ist hinsichtlich der Relevanz von Realitäts- und Anwendungsbezügen sichtbar. Bei der Lektüre von Fachliteratur ist auffallend, dass viele Beispiele zur Veranschaulichung vor Definitionen und Sätzen gegeben werden. In der Wahrscheinlichkeitsrechnung spielt der definitorische Begriffserwerb eine große Rolle, Realitätsbezüge scheinen aber auch mit in den Begriffserwerb hineinzuspielen.

Im nächsten Abschnitt wird die fachdidaktische Strukturierung mathematischer Inhalte im Fokus stehen. Dafür werden zunächst ausgewählte fachdidaktische Grundlagenkonzepte eingeführt und auf das Beispiel der Wahrscheinlichkeitsrechnung angewendet.

2.3 Fachdidaktische Strukturierung mathematischer Inhalte

Die mathematikdidaktische Forschung bzw. die fachdidaktische Forschung im Allgemeinen nimmt im Rahmen der Bildungsforschung eine besondere Position ein. Wie auch andere Richtungen der Bildungsforschung beschäftigt sie sich mit Prozessen des Lehrens und Lernens, doch geschieht dies insbesondere unter der Berücksichtigung der Fachwissenschaft Mathematik. [..] [E]s wird eine spezifische Perspektive auf mathematische Inhalte bzw. mathematikspezifische Lernprozesse eingenommen. (Vollstedt, Ufer, Heinze & Reiss, 2015, S. 567 f.)

Mathematikdidaktische Forschung ist also nicht nur Forschung über das Lehren und Lernen, sondern wird unter mathematischen Aspekten der Fachwissenschaften betrieben. Diese mathematikdidaktische Forschung hat verschiedene Konzepte und Prinzipien entwickelt, die in diesem Abschnitt zunächst einmal allgemein dargestellt werden. Dafür werden die mathematische Grundbildung als Ziel vom Mathematikunterricht und die Bildungsstandards für den Mathematikunterricht erörtert. Anschließend werden Grundvorstellungen als ein zentrales didaktisches Konzept dargelegt. Im Anschluss wird das Konzept der fundamentalen Ideen ausgeführt. Diese zentralen didaktischen Konzepte wurden ausgewählt, weil sie in der Didaktik der Stochastik eine große Rolle spielen und widerspiegeln, welche Kenntnisse und Herausforderungen Lehrkräfte benötigen für eine „erfolgreiche“ Praxis im Stochastikunterricht. Natürlich scheint es erst einmal fraglich, warum für die Ausdifferenzierung von Fachwissenselementen für Lehrkräfte didaktischen Konzepten der Stochastik nachgegangen wird. Einerseits geben fachdidaktische Aspekte Aufschluss darüber, welches hinterliegende Fachwissen von Lehrkräften für die „erfolgreiche“ Vermittlung des mathematischen Inhalts nötig sind. Andererseits werden diese fachdidaktischen Aspekte im späteren Verlauf (s. Kapitel 5) berücksichtigt. Die Auswahl dieser fachdidaktischen Aspekte erfolgte also einerseits in Hinblick auf die Methodik und andererseits wurde auf die „üblichen“ Aspekte innerhalb der Stochastikdidaktik fokussiert. Der Fokus auf die Wahrscheinlichkeitsrechnung bedeutet auch, dass Aspekte zur Didaktik der Statistik explizit ausgeschlossen sind. Andererseits gibt die Forschungslage zur Didaktik der Stochastik nur eine geringe Auswahl von didaktischen Konzepten her. Um später didaktische Konzepte betrachten zu können, werden diese hier zunächst im Allgemeinen und dann exemplarisch an der Wahrscheinlichkeitsrechnung mit Blick auf die Gesetze der großen Zahlen dargestellt.

Mathematische Grundbildung als Ziel vom Mathematikunterricht

Mathematik ist ein wichtiger Lerngegenstand, der jeden Menschen von Kindesbeinen an bis in den Beruf hinein begleitet. In hochtechnisierten Ländern, wie es die deutschsprachigen Länder sind, ist das Verständnis von mathematischen Zusammenhängen eine wesentliche Voraussetzung für die Teilnahme am gesellschaftlichen, insbesondere am beruflichen Leben. (Kleine, 2012, S. 12)

Relevant wurde die mathematische Grundbildung durch internationale Vergleichsstudien wie TIMSS und PISA, bei denen Deutschland unerwartet schlecht abgeschnitten hat (Leuders, 2020, S. 48). Aus diesen Ergebnissen und der daraus resultierenden Diskussion hat es in Deutschland „wertvolle Impulse für den Mathematikunterricht gegeben“ (Leuders, 2020, S. 48). Die OECD hat im Rahmen der PISA-Studie („Programme for International Student Assessment“) die mathematische Grundbildung, im Englischen mathematical literacy genannt, als Ziel formuliert:

Mathematical literacy is an individual’s capacity to reason mathematically and to formulate, employ, and interpret mathematics to solve problems in a variety of real-world contexts. It includes concepts, procedures, facts and tools to describe, explain and predict phenomena. It assists individuals to know the role that mathematics play in the world and to make the well-founded judgements and decisions needed by constructive, engaged and reflective 21st century citizens. (OECD, 2019, S. 75)

Kleine (2021) stellt fest, dass mathematische Grundbildung ein „sichtbares Zeichen von Dispositionen“ (S. 114) ist, welche in der Diskussion als Kompetenzen bezeichnet werden. Dieser Notation folgend können Kompetenzen im Sinne eines Rahmenkonzepts an dieser Stelle kurz definiert werden.

Kompetenzen können als „die bei Individuen verfügbaren oder durch sie erlernbaren kognitiven Fähigkeiten und Fertigkeiten [verstanden werden], um bestimmte Probleme zu lösen, sowie die damit verbundenen motivationalen, volitionalen und sozialen Bereitschaften und Fähigkeiten, um die Problemlösungen in variablen Situationen erfolgreich und verantwortungsvoll nutzen zu können“ (Weinert, Rychen & Salganik, 2001, S. 27 f. zit. n. Klieme et al., 2003, S. 21). Kleine (2012, S. 25) zieht daraus drei Verständnisse:

  1. (1)

    ein funktionales Verständnis des Kompetenzbegriffs: ein Indikator von Kompetenz ist die Bewältigung bestimmter Aufgaben;

  2. (2)

    ein berufsspezifisches Verständnis: „Kompetenzen werden auf einen begrenzten Bereich von Kontexten und Situationen bezogen“ (Kleine, 2012, S. 25);

  3. (3)

    ein allgemeines Verständnis: Kompetenzen sind miteinander verbunden und sollten nicht isoliert betrachtet werden.

Für mathematische Kompetenzen existieren unterschiedliche Konzeptionen. Dabei wird im allgemeinen zwischen inhaltsbezogenen und handlungsbezogenen Kategorien unterschieden. Erstere werden vor dem Hintergrund von PISA in change and relationships, space and shape, quantity, sowie uncertainty and data ausdifferenziert (OECD, 2019, S. 83). Sie werden als big ideas im Sinne fachlicher Teilgebiete bezeichnet.

Im Gegensatz zu vorherigen Konzeptionen in der PISA-Studie wurden nur noch drei mathematische Prozesse, also handlungsbezogene Kategorien betrachtet:

  • formulating situations mathematically

  • employing mathematical concepts, facts, procedures and reasoning

  • interpreting, applying and evaluating mathematical outcomes (OECD, 2019, S. 77)

Der erste Punkt zeigt an, wie gut die Schüler*innen in der Lage sind, Gelegenheiten zur Anwendung von Mathematik in Problemsituationen zu erkennen bzw. zu identifizieren und dann die entsprechende mathematische Struktur bereitstellen zu können, die erforderlich ist, um das kontextbezogene Problem in eine mathematische Form zu bringen. Der zweite Punkt gibt an, wie gut Schüler*innen in der Lage sind, Berechnungen durchzuführen und die Konzepte und Fakten, die sie kennen, anzuwenden, um zu einer mathematischen Lösung für ein mathematisch formuliertes Problem zu finden. Der letzte Punkt akzentuiert die Kompetenz, wie gut Schüler*innen in der Lage sind, über mathematische Lösungen oder Schlussfolgerungen zu reflektieren, sie im Kontext eines realen Problems zu interpretieren und zu entscheiden, ob die Ergebnisse oder Schlussfolgerungen angemessen sind. Für jede der drei handlungsbezogenen Kategorien wurden Aktivitäten formuliert, auf die an dieser Stelle nicht weiter eingegangen wird (OECD, 2019, S. 77 ff.).

Bildungsstandards in Deutschland

Ausgehend von den Ideen einer mathematical literacy wurden in Deutschland Bildungsstandards durch die Kultusministerkonferenz eingeführt. Bildungsstandards beschreiben „die fachbezogenen Kompetenzen, die Schüler bis zum jeweiligen Abschluss erwerben sollen“ (Blum, 2012, S. 14 f.). Sie wurden erstmals im Jahre 2003 von der deutschen Kultusministerkonferenz als Reaktion auf die Ergebnisse der PISA-Studie beschlossen. Auch hier wird der Kompetenzbegriff nach Weinert et al. (2001) zugrunde gelegt, sodass Kompetenz als „die bei Individuen verfügbaren oder durch sie erlernbaren kognitiven Fähigkeiten und Fertigkeiten beschrieben werden kann, um bestimmte Probleme zu lösen sowie die damit verbundenen [...] Bereitschaften und Fähigkeiten, um die Problemlösungen in variablen Situationen erfolgreich und verantwortungsvoll nutzen zu können“. Die Konzeption der Mathematik-Standards sieht drei Dimensionen vor, welche sich „in anderen Zusammenhängen bereits bewährt haben“ (Blum, 2012, S. 19). Blum (2012, S. 19) zieht insbesondere Parallelen zur PISA-Studie, bei der zwischen „Competencies “ als Prozessdimension, „Overarchiving Ideas“ als Inhaltsdimension und „Competency Clusters“ als Anspruchsdimension unterschieden wird. Diese drei Dimensionen werden in den Bildungsstandards als

Tabelle 2.2 Bildungsstandards in der Mathematik im Vergleich zwischen den Jahren 2003 und 2022
  1. 1.

    die „allgemeinen mathematischen Kompetenzen“,

  2. 2.

    die „inhaltsbezogenen mathematischen Kompetenzen“, geordnet nach „Leitideen“,

  3. 3.

    die „Anforderungsbereiche“

    (Blum, 2012, S. 19)

fomuliert. Diese beschriebenen Kompetenzen in Kombination mit den Anforderungsbereichen „werden immer im Verbund erworben bzw. angewendet“ (KMK, 2022, S. 7 f.).

Unter den allgemeinen mathematischen Kompetenzen werden „zentrale Aspekte des mathematischen Arbeitens in hinreichender Breite erfasst“ (Blum, 2012, S. 20). Diese wurden 2022 aktualisiert und werden wie folgt unterschieden (s. Tabelle 2.2):

Wie in Tabelle 2.2 sichtbar, wurden die mathematischen Darstellungen unter die allgemeinen Kompetenz „Mit mathematischen Objekten umgehen“ gefasst und die mathematischen Medien hinzugefügt. Diese allgemeinen Kompetenzen sind Grundkompetenzen.

Insbesondere die Leitideen sind für das Fachwissen von Lehrkräften von Interesse. Diese werden in Zahl, Messen, Raum und Form, funktionaler Zusammenhang sowie Daten und Zufall unterschieden und sollen Phänomene erfassen, die bei der Betrachtung der Welt mit „mathematischen Augen“ (Blum, 2012, S. 20) gesehen werden können. Anforderungsbereiche sollen „den kognitiven Anspruch, den solche kompetenzbezogenen Tätigkeiten erfordern, auf theoretischer Ebene erfassen“ (Blum, 2012, S. 21) und umfassen die Bereiche „Reproduzieren“, „Zusammenhänge darstellen“und „Verallgemeinern und Reflektieren“ (KMK, 2022, S. 7 f.).

Dieser Abschnitt und der zur mathematischen Grundbildung 2.3 liefern eine generelle Idee zu inhaltlichen Rahmenbedingungen im Mathematikunterricht, aber keine spezifischen Einblicke in Lehr-Lern-Prozesse. Eine andere Form didaktischer Aspekte auf inhaltlicher Ebene, die als eine der basierenden Elemente für Leitideen dienten, sind fundamentale Ideen, auf welche im nächsten Abschnitt eingegangen wird.

Fundamentale Ideen

[I]n order for a person to be able to recognize the applicability or inapplicability of an idea to a new situation and to broaden his learning thereby, he must have clearly in mind the general nature of the phenomen with which he is dealing. The more fundamental or basic the idea he has learned, almost by definition, the greater will be its breadth of applicability to new problems. Indeed, this is almost a tautology, for what is meant by „fundamental“ in this sense is precisely that an idea has wide as well as powerful applicability. (Bruner, 1960, S. 18)

Das Konzept der fundamentalen Ideen wurde von Bruner (1960, S. 18) eingeführt und ist abzugrenzen von den big ideas der OECD (2019), welche mathematische Teilgebiete beschreibt. Bruners (1960) Ansinnen war es, ein Curriculum nach fundamentalen Ideen im Spiralprinzip zu entwickeln. Vohns (2005) elaboriert, dass Bruner die These aufstelle, „die Tätigkeit von Wissenschaftler und Kind seien primär vom Niveau, nicht aber von der Art unterschiedlich“ (S. 54). Bruner expliziert die im Zitat genannten fundamentalen Ideen, definiert diese aber nicht näher für das jeweilige Fach. Deshalb bezeichnet Vohns (2005, S. 54) deren Aussagen als Hypothesen, deren Gültigkeit Bruner schuldig blieb.

Nach Schreiber (1983, S. 69) sollen sich fundamentale Ideen durch Weite (logische Allgemeinheit), Fülle (vielfältige Anwendbarkeit) und Sinn (Verankerung im Alltagsleben) auszeichnen. Zunächst unabhängig von Schreiber hat sich auch Schweiger (1982) mit fundamentalen Ideen beschäftigt. Er charakterisiert fundamentale Ideen wie folgt:

Eine fundamentale Idee ist ein Bündel von Handlungen, Strategien oder Techniken, die

  1. 1.

    in der historischen Entwicklung der Mathematik aufzeigbar sind,

  2. 2.

    tragfähig erscheinen, curriculare Entwürfe vertikal zu gliedern,

  3. 3.

    als Ideen zur Frage, was Mathematik überhaupt ist, zum Sprechen über Mathematik geeignet erscheinen,

  4. 4.

    den mathematischen Unterricht beweglicher und zugleich durchsichtiger machen zu können,

  5. 5.

    in Sprache und Denken des Alltags einen korrespondierenden sprachlichen oder handlungmäßigen Archetyp besitzen.

    (Schweiger, 1992, S. 207)

Vohns (2005, S. 59) stellt folgende Komponenten eines Begriffsverständnisses der fundamentalen Ideen vor. Er spezifiziert zu einer fundamentalen Idee, dass ein „Bündel spezifischer Handlungen, Strategien, Techniken und Zielvorstellung“ (Vohns, 2005, S. 59) dazugehört. Er konkretisiert damit die fundamentalen Ideen auf Basis von Beiträgen von Schreiber (z. B. 1979), Schweiger (z. B. 1992) und Tietze (z. B. 1979) noch weiter. Bei fundamentalen Ideen „geht es wesentlich um die Frage, welche zentralen Konzepte der Mathematik helfen können, ‚den Unterricht transparent zu strukturieren‘, oder anders gesagt, um ‚wenige beziehungsreiche Grundgedanken‘, um die der gesamte Mathematikunterricht konzentriert werden kann“ (Vohns, 2005, S. 59). Diese Ideen sollen einen Alltagsbezug haben, aber auch Bedeutung im fachwissenschaftlichen Denken. Sie sollen im Bereich der akademischen Mathematik nachweisbar sein (Vohns, 2005, S. 59).

Vohns (2005) unterscheidet in zwei verschiedene Abstraktionsebenen von fundamentalen Ideen, den universellen und zentralen Ideen:

  • Universell schließt die Vorstellung einer Reichhaltigkeit ein, die sowohl aktuell innermathematisch, wissenschaftshistorisch als auch außermathematisch anwendungsbezogen verstanden werden kann.

  • Zentrale Ideen bezeichnen bereichsspezifische Konkretionen und Überlagerungen universeller Ideen. Entscheidend für ihre Bedeutung für das Lernen von Mathematik ist, inwiefern Anlass zu der Vermutung besteht, dass sie für den Lernenden hilfreich für den Erwerb (die Konstruktion) neuen Wissens sein können.

    (S. 59)

Fundamentale Ideen sind also ein didaktisches Prinzip für die Organisation von Curricula und wurden für verschiedene Teildisziplinen entwickelt. Dies zeigt sich auch in den obigen big ideas der mathematischen Grundbildung, welche als unterschiedliche Bereiche von Phänomenen, in denen Mathematik unterstützend für das Verständnis von komplexen Sachverhalten, beschrieben werden (Vohns, 2016, S. 210). Die von der KMK veröffentlichten Leitideen weisen viele Ähnlichkeiten zu den big ideas der PISA-Studie auf. Vohns (2016, S. 212) mahnt an, dass Leitideen vor allem als Bezeichnungen für Kontext- und Inhaltsbereiche fungieren. Sie bündeln Zusammenhänge und Inhalte, die in enger Beziehung zu bereits etablierten Themen des Mathematikunterrichts stehen und die in ähnlicher Weise schon gebündelt und getrennt wurden (Vohns, 2016, S. 212).

Der mathematikdidaktische Aspekt der fundamentalen Ideen steht nicht im Widerspruch zu den Grundvorstellungen, welche im nächsten Abschnitt dargestellt werden. Vohns (2016, S. 217) bezeichnet Grundvorstellungen als lokale mathematische Ideen, die sich auf ein spezifisches Konzept fokussieren und dieses zugänglich machen sollen. Grundvorstellungen als solche spielen also eine Rolle innerhalb einer fundamentalen Idee, sodass sich beide fachdidaktische Aspekte ergänzen.

Grundvorstellungen

Grundvorstellungen stellen Richtlinien für die Gestaltung von Lernprozessen sowie für eine strukturierte Erforschung mentaler Repräsentation bereit. (Salle & Clüver, 2021, S. 553)

Mit diesen mentalen Repräsentationen wurde einer Unterrichtspraxis entgegengewirkt, die die Mathematik zwar fachlich richtig darstellte, dem Lebensbezug der Schüler*innen aber wenig Beachtung schenkte. Griesel, vom Hofe und Blum (2019) beschreiben Grundvorstellungen als „mentale Repräsentationen mathematischer Objekte und Sachverhalte“ (S. 128). Die Stoffdidaktik war bis zu den 1980er Jahren die wichtigste Disziplin innerhalb der deutschsprachigen Mathematikdidaktik. Zu dieser Zeit wurde axiomatische Mathematik in nahezu akademischer Form schon in der Grundschule mit Mengenlehre beginnend gelehrt. Es stellte sich heraus, dass diese Form des Unterrichtens nicht in einem höheren Verständnis bei Schüler*innen resultierte. Ausgehend davon entstanden Arbeiten, wie beispielsweise die von Griesel (1968), Kirsch (1969) oder Blum (1979), mit dem Ziel Konzepte zu entwickeln, die den kognitiven Fähigkeiten und dem Vorwissen der Schüler*innen entsprachen und Mathematik insofern zu elementarisieren, sodass die Mathematik ohne Kompromisse in der mathematischen Korrektheit einzugehen zugänglich wird (vom Hofe & Blum, 2016, S. 226 f.). Das Konzept der Grundvorstellungen, systematisiert durch die Arbeit von vom Hofe (1995), entspricht dieser Bewegung zum Zugänglichmachen und hat seitdem eine „enorme Popularität und Ausgestaltung erfahren“ (Salle & Clüver, 2021, S. 554). Griesel et al. (2019) unterscheiden „zwischen normativen Grundvorstellungen und deskriptiv ermittelten Schülervorstellungen“ (S. 129). In dieser Arbeit wird der normative Aspekt von Grundvorstellungen betont, weil deren „didaktische Hauptaufgabe darin [besteht], geeignete reale Sachkonstellationen bzw. Sachzusammenhänge zu beschreiben, die den jeweiligen mathematischen Begriff auf einer für den Lernenden verständliche Art konkretisieren bzw. repräsentieren“ (vom Hofe, 1995, S. 98). Grundvorstellungen dienen also als Vermittler zwischen „der Welt der Mathematik und der individuellen Begriffswelt der Lernenden“ (vom Hofe, 1995, S. 98).

Dazu hat vom Hofe (1995) unterschiedliche Aspekte dieser Grundvorstellungsidee formuliert:

  • Sinnkonstituierung eines Begriffs durch Anknüpfung an bekannte Sach- oder Handlungszusammenhänge bzw. Handlungsvorstellungen,

  • Aufbau entsprechender (visueller) Repräsentationen bzw. „Verinnerlichungen“, die operatives Handeln auf der Vorstellungsebene ermöglichen,

  • Fähigkeit zur Anwendung eines Begriffs auf die Wirklichkeit durch Erkennen der entsprechenden Struktur in Sachzusammenhängen oder durch Modellieren des Sachproblems mit Hilfe der mathematischen Struktur.

    (S. 97 f.)

Vom Hofe (2003) fasst wichtige Kernpunkte des Grundvorstellungskonzepts zusammen:

  • Ein mathematischer Begriff lässt sich in der Regel nicht mit einer Grundvorstellung, sondern eher mit mehreren Grundvorstellungen erfassen. Die Ausbildung dieser Grundvorstellungen und ihre gegenseitige Vernetzung wird auch Grundverständnis des Begriffes genannt (Oehl, 1970).

  • Im Laufe der Schulzeit werden primäre Grundvorstellungen – das sind solche, die ihre Wurzeln in gegenständlichen Handlungserfahrungen aus der Vorschulzeit haben – immer mehr durch sekundäre Grundvorstellungen ergänzt, die aus der Zeit mathematischer Unterweisung stammen. Während erstere den Charakter von konkreten Handlungsvorstellungen haben, handelt es sich bei letzteren um Vorstellungen, die zunehmend mit Hilfe mathematischer Darstellungsmittel wie Zahlenstrahl, Koordinatensystemen oder Graphen repräsentiert werden.

  • Bei Grundvorstellungen ist nicht an eine Kollektion von stabilen und ein für allemal gültigen gedanklichen Werkzeugen zu denken, sondern an die Ausbildung eines Netzwerks, das sich durch Erweiterung von alten und Zugewinn von neuen Vorstellungen zu einem immer leistungsfähigeren System mentaler mathematischer Modelle entwickelt.

    (S. 6)

Es gibt zwei Arten von Grundvorstellungen. Primäre Grundvorstellungen sind diejenigen, die einen mathematischen Begriff mit Handlungserfahrungen an realen Gegenständen verbinden können, während sekundäre Grundvorstellungen an primäre Grundvorstellungen anknüpfen und keine konkreten Handlungserfahrungen haben (Greefrath, Oldenburg, Siller, Ulm & Weigand, 2016, S. 19). Bei Grundvorstellungen werden verschiedene Aspekte unterschieden: der normative, deskriptive und konstruktive Aspekt. Ersterer Aspekt wird aus stoffdidaktischen und stoffanalytischen Arbeiten abgeleitet. Formulierungen basieren hier auf mathematischen Inhalten. Durch eine Rekonstruktion der individuellen Vorstellungen von Lernenden zu mathematischen Inhalten werden beim deskriptiven Aspekt Grundvorstellungen validiert oder verändert (Greefrath et al., 2016, S. 20).

Salle und Clüver (2021, S. 555) weisen auf unterschiedliche Darstellungen zur Herleitung von Grundvorstellungen hin. Einerseits können Grundvorstellungen anhand ihrer mathematischen Objekte und ihren Definitionen sowie möglicher Anwendungstexte bestimmt werden (s. dazu die Arbeiten von Greefrath et al., 2016; Weber, 2016). Andererseits können Grundvorstellungen auf Basis fach- und stoffdidaktischer Beiträge formuliert werden oder aber auch „ohne weitere Explikation der vorgenommen Herleitung angegeben“ (Salle & Clüver, 2021, S. 555) werden. Beispiele für letzteres werden von ihnen mit Arbeiten von Malle (2003) sowie Salle und Frohn (2017) angegeben. Ein Versuch eines systematisierten Verfahrensrahmens unternahmen Salle und Frohn (2021) in ihrem Beitrag. Deren vorgeschlagenes Vorgehen sieht fünf Schritte vor:

  1. 1.

    Bestimmung von Richtlinien für den Herleitungsprozess,

  2. 2.

    Sachanalyse des mathematischen Begriffs und seiner Phänomene sowie Einbezug empirischer Ergebnisse,

  3. 3.

    Präzisierung des Bezugsrahmens,

  4. 4.

    Feststellung und Bewertung der didaktischen Relevanz.

    (Salle & Clüver, 2021, S. 564)

Dieser Verfahrensrahmen hat das Ziel, die Grundvorstellungsidee systematisiert weiterzuentwickeln. Er soll als flexibles Gerüst genutzt werden, um Grundvorstellungen herleiten zu können (Salle & Clüver, 2021, S. 576 f.). Empirische Ergebnisse und Lernendenvorstellungen werden in diesem Vorgehen berücksichtigt.

In diesem Abschnitt wurden ausgewählte fachdidaktische Strukturierungen mathematischer Inhalte allgemein eingeführt. Im Folgenden werden diese Elemente fachdidaktischer Strukturierung mathematischer Inhalte auf das Beispiel der Wahrscheinlichkeitsrechnung angewendet und die Wahrscheinlichkeitsbegriffe eingeführt.

2.4 Exemplarische Darstellung der fachdidaktischen Struktur anhand des Beispiels Wahrscheinlichkeitsrechnung

What do we want students to learn about probability, and why do we want them to learn that?[...]

The learning of probability is essential to help prepare students for life, since random events and chance phenomena permeate our lives and environments. (Gal, 2005, S. 43)

Die Gründe für die Behandlung von Stochastik in der Schule sind vielfältig. Stochastik ist nützlich für den Alltag, spielt eine wichtige Rolle in anderen Disziplinen und es wird ein Basiswissen der Stochastik in vielen Berufen benötigt ( Gal, 2005, Franklin, 2007, Jones, 2005b). Schüler*innen begegnen dem Zufall auch außerhalb des Mathematikunterrichts, zum Beispiel in Biologie, Wirtschaft, Meteorologie, bei politischen und sozialen Aktivitäten und auch in Spiel und Sport (Batanero & Diaz, 2012, S. 3).

Schupp (1982, S. 207) bezeichnet die Wahrscheinlichkeitstheorie (bzw. die Wahrscheinlichkeitsrechnung) und die Statistik als „Teilgebiete der wissenschaftlichen Disziplin ‚Stochastik‘“. In der vorliegenden Arbeit wird dieser Trennung von Teilgebieten gefolgt und auf die Wahrscheinlichkeitsrechnung fokussiert, obwohl diese beiden Teilgebiete durch mathematische Leitideen für den Stochastikunterricht oft gemeinsam betrachtet werden.

In diesem Kapitel werden die oben aufgeführten mathematikdidaktischen Aspekte der Wahrscheinlichkeitsrechnung beschrieben. Diese Beschreibung beginnt mit dem Konzept der stochastischen Grundbildung und wird mit den Bildungsstandards fortgesetzt. Anschließend werden die fundamentalen Ideen und die Grundvorstellungen zur Wahrscheinlichkeit erläutert. Im Anschluss werden unterschiedliche Wahrscheinlichkeitsbegriffe eingeführt.

Dieses Kapitel verfolgt auch das Ziel, die vielfältigen inhaltlichen Herausforderungen für Lehrkräfte beim Unterrichten der Leitidee „Daten und Zufall“ zu beschreiben. Welche Inhalte in der Wahrscheinlichkeitsrechnung müssen vermittelt werden und was gibt es dabei zu beachten? Obgleich mathematikdidaktische Aspekte eher einem fachdidaktischen Wissen zugeordnet werden können, beschreiben sie doch auch implizit die fachlichen Anforderungen an Lehrkräfte. Des Weiteren werden die hier aufgeführten Elemente für die exemplarische Darstellung der didaktisch orientierten Rekonstruktion benötigt.

Mathematische Grundbildung für den mathematischen Teilbereich der Stochastik

Overall, people need ‚probability literacy‘ to cope with a wide range of real-world situations that involve interpretation or generation of probabilistic messages as well as decision-making. However, details of the probability-related knowledge and dispositions that may comprise probability literacy have received relatively little explicit attention in discussions of adults’ literacy, numeracy, and statistical literacy. (Gal, 2005, S. 45)

Eine probabilistische Grundbildung kann der big idea von chance and data des OECD-Modells OECD (2019) zugeordnet werden. Diese big idea wird innerhalb des theoretischen Rahmenmodells für Mathematik von PISA wie folgt beschrieben:

In Science, technology and everyday life, uncertainty is a given. Uncertainty is therefore a phenomenon at the heart of the mathematical analysis of many problem situations, and the theory of probability and statistics as well as techniques of data representation and description have been established to deal with it. The uncertainty and data content category includes recognising the place of variation in processes, having a sense of the quantification of that variation, acknowledging uncertainty and error in measurement, and knowing about chance. It also includes forming, interpreting and evaluating conclusions drawn in situations where uncertainty is central. (OECD, 2019, S. 85)

Die Unsicherheit als zentrales Phänomen umfasst also nicht nur die mathematische Analyse von Problemen und die Stochastik, sondern auch das Erkennen des Stellenwerts von Variationen in Prozessen, ein Gefühl für die Quantifizierung dieser, die Anerkennung von Unsicherheit und Messfehlern und Wissen über Zufall. Die Beschreibung der big idea in diesem Rahmenmodell lässt sich mit einem Modell zur probabilistischen Grundbildung vereinbaren. Es existieren mehrere Modelle zur statistischen Grundbildung (u.a. Franklin, 2007; Gal, 2002; Wallman, 1993 und Watson, 1997), zur probabilistischen Grundbildung wird fast ausschließlich auf das Modell von Gal (2005) verwiesen.

Basierend auf seinem Modell der statistischen Grundbildung (Gal, 2002) erweitert Gal (2005) dieses um die Grundbildung für die Wahrscheinlichkeitsrechnung. Diese Erweiterung umfasst die Fähigkeit zur Interpretation und kritischen Bewertung probabilistischer Informationen und Zufallsphänomene in verschiedenen Kontexten. Wesentlich für eine solche Kompetenz sind die Fähigkeiten, die Bedeutung und die Sprache der grundlegenden Wahrscheinlichkeitskonzepte zu verstehen und Wahrscheinlichkeitsargumente in privaten oder öffentlichen Diskussionen richtig einzusetzen (Batanero & Borovcnik, 2016, S. 14). Gal (2005, S. 45 ff.) bezieht Dispositionen in seine Beschreibung der Wahrscheinlichkeitskompetenz ein, z. B. auch angemessene Überzeugungen und Einstellungen sowie die Kontrolle persönlicher Gefühle wie Risikoaversion ohne vertretbare Gründe. In diesem Abschnitt wird das Modell von Gal näher erläutert.

Gal (2005) beschreibt mögliche Schlüsselelemente von Wissen und Dispositionen, die Erwachsene für eine probability literacy, also für eine probabilistische Grundbildung brauchen. Die probabilistische Grundbildung ist mit der statistischen Grundbildung eng verbunden (Gal, 2005, S. 49). In Tabelle 2.3 zeigt Gal zwei Unterscheidungen der probabilistischen Grundbildung auf. Diese sind Wissen und Dispositionen, also einem Kompetenzbegriff folgend. Auch wenn einzelne Wissenselemente untereinander gelistet sind, so interagieren sie doch miteinander, so dass ein Fokus beim Lehren auf nur ein oder zwei der Elemente für die Entwicklung des „probability literate“ (Gal, 2005, S. 50) ein Handeln nicht genügt. Im unteren Teil der Tabelle 2.3 beschreibt Gal (2005, S. 51) Elemente von Dispositionen, die eine große Rolle spielen, wie Menschen über zufallsbezogene Informationen denken und wie sie in Situationen, in denen Zufall und Unsicherheit eine Rolle spielen, agieren. Diese Dispositionen können den Lernwillen von Schüler*innen beeinflussen und somit die Entwicklung ihrer probabilistischen Grundbildung prägen.

Im Folgenden sollen die Wissenselemente aus dem Modell von Gal (2005) kurz erläutert werden, weil sie das Bild von probabilistischer Grundbildung rahmen.

Tabelle 2.3 Probability literacy Quelle: (Gal, 2005, S. 51)

Big Ideas

Diese big ideas haben im Gegensatz zu den bisher eingeführten big ideas von OECD (2019) eine andere Auffassung als die Beschreibung eines mathematischen Teilgebiets. Lernende sollten mit den Konzepten des Zufalls, der Unabhängigkeit „but also others“ (Gal, 2005, S. 51) vertraut sein. Dies vorausgesetzt sind sie auch in der Lage, andere Konzepte abzuleiten, Repräsentationen zu erkennen, zu interpretieren und Implikationen von Wahrscheinlichkeitsaussagen zu verstehen. Manche dieser Aspekte der big ideas können in mathematischen oder statistischen Symbolen ausgedrückt werden, aber „the essence cannot be fully captured by technical notations“ (Gal, 2005, S. 52). Lernende können den allgemeinen abstrakten Charakter dieser big ideas nur intuitiv erfassen. Als Big Ideas gibt Gal (2005, S. 52) die Konzepte „Variation“, „Zufall“, „(Stochastische) Unabhängigkeit“ und „Vorhersehbarkeit/Unsicherheit“ an.

Die Konzepte „Zufall, Unabhängigkeit und Variation“ haben jeweils „complementary alter-egos“ (Gal, 2005, S. 47), die Gleichmäßigkeit, die Abhängigkeit und die Stabilität. Zwischen den jeweiligen big ideas und ihren komplementären Ideen besteht ein Kontinuum, sodass dies die beiden Eckpunkte auf einer Skala sind, auf der sich ein Element bewegen kann. Sie sind alle miteinander verbunden und bilden Bausteine für die vierte big idea, die der Vorhersagbarkeit und Unsicherheit. Diese big ideas sind also komplexer als sich zunächst vermuten lässt. Insbesondere die vierte big idea bezüglich Unsicherheit und Vorhersagbarkeit weist große Parallelen zu den big ideas im theoretischen Rahmen der PISA-Studie auf.

Die weiteren Wissenselemente werden im Folgenden kurz aufgeführt, um an anderen Stellen darauf verweisen zu können. Sie werden für die spätere exemplarische Darstellung der didaktisch orientierten Rekonstruktion nur implizit benötigt.

Figuring probabilities

Lernende sollen für eine probabilistische Grundbildung mit Methoden zur Ermittlung der Wahrscheinlichkeit von Ergebnissen vertraut sein, um probabilistische Aussagen anderer verstehen zu können oder auch Schätzungen über die Wahrscheinlichkeit von Ereignissen zu tätigen und mit anderen darüber zu kommunizieren. Hier erscheinen der klassische, der frequentistische und der subjektivistische Wahrscheinlichkeitsbegriff sinnvoll (Gal, 2005, S. 54). Diese Wahrscheinlichkeitsbegriffe und weitere werden im Abschnitt 2.4 ausgeführt.

Language

Ein weiteres Schlüsselelement für die probabilistische Grundbildung ist die „Sprache des Zufalls“. Schüler*innen sollen verschiedene Möglichkeiten haben, um über Zufall und Wahrscheinlichkeiten kommunizieren zu können (Gal, 2005, S. 55). Dieser Bereich wird von Gal (2005) in zwei Aspekte unterteilt: Einerseits die Vertrautheit mit Begriffen und Aussagen in Verbindung zu abstrakten Konstrukten, andererseits verschiedene Möglichkeiten, die Wahrscheinlichkeit tatsächlicher Ereignisse darzustellen und über sie zu sprechen.

Context

Zur Kompetenz im Bereich Wahrscheinlichkeitsrechnung gehört laut Gal (2005, S. 58) auch dazu, dass Lernende um die Rolle von probabilistischen Prozessen und deren Kommunikation in der Welt wissen. Das Wissen über den Kontext überschneidet sich teilweise mit den vorher genannten Bereichen (Gal, 2005, S. 58). Gal (2005) definiert „Kontextwissen“ wie folgt:

People know both

  1. (a)

    what is the role or impact of chance and randomness on different events and processes,

  2. (b)

    what are common areas or situations where notions of chance and probability may come up in a person’s life.

(S. 58)

Critical questions

Das letzte Wissenselement beinhaltet das Wissen, welche kritischen Fragen gestellt werden müssen oder können, wenn man einer Aussage zur Wahrscheinlichkeit oder Gewissheit begegnet, oder wenn eine probabilistische Schätzung getätigt werden muss (Gal, 2005, S. 59).

Für diese Arbeit ist die Betrachtung der big ideas von Relevanz, weil sich diese auch im nächsten Abschnitt zu den Bildungsstandards und im Abschnitt der fundamentalen Ideen für einen Vergleich eignen. Dabei werden hier zwei unterschiedliche Auffassungen von big ideas aufgeführt. Einerseits existiert eine Auffassung als mathematische Teilgebiete nach OECD (2019) und andererseits eine konzeptuelle Auffassung nach Gal (2005). Beide werden für die exemplarische Darstellung der didaktisch orientierten Rekonstruktion benötigt und geben Aufschluss darüber, in welchem Teilgebiet sich der mathematische Inhalt befindet und welche konzeptuellen Auffassungen für das Verständnis benötigt werden.

Für die Vermittlung einer probabilistischen Grundbildung benötigen Lehrkräfte ein fundiertes inhaltliches Verständnis der Wahrscheinlichkeitsrechnung.

Bildungsstandards in der Stochastik

Im vorherigen Abschnitt wurden das Rahmenmodell von PISA sowie das theoretische Modell von Gal (2005) diskutiert, welche die englische Notation von big ideas nutzen. Im deutschsprachigen Raum, insbesondere bei der Diskussion der Bildungsstandards sowie länderspezifischer Curricula werden zumeist Leitideen oder inhaltsbezogene mathematische Kompetenzen genutzt (s. Abschnitt 2.3). Zu beachten ist, dass Bildungsstandards normative Leitlinien sind, die im Diskurs verschiedener Gremien entstehen und somit nur begrenzt eine wissenschaftliche Aussagekraft haben. Sie sind Basis für Lehrpläne, auf die sich Unterricht und Unterrichtsmaterial ausrichten und haben politisch, gesellschaftlich und ökonomisch Bedeutung. Somit haben sie Bewandtnis für die Ausbildung eines Fachwissens von Lehrkräften, weil sie vorgeben, was schulische Mathematik im aktuellen Bildungsdiskurs ist.

Der Begriff der Leitidee wird für die Stochastik in Daten und Zufall aufgeschlüsselt. Es befinden sich also auch statistische Inhalte in den Begriffsdefinitionen. Die erste Definition der Leitidee wurde für den mittleren Schulabschluss spezifiziert und umfasst zwei Säulen, welche „die beschreibende Statistik und die Wahrscheinlichkeitsrechnung zur Modellierung von zufallsabhängigen Vorgängen und Risiken“ (KMK, 2022, S. 21 f.) umfasst. Weiterhin heißt es:

Wahrscheinlichkeiten können als Prognosen von relativen Häufigkeiten bei zufallsabhängigen Vorgängen gedeutet werden, wodurch die beiden Säulen verknüpft werden. Die darauf bezogenen mathematischen Sachgebiete der Sekundarstufe I sind die Stochastik und Funktionen. Es werden Begriffe und Methoden zur Erhebung, Aufbereitung und Interpretation von statistischen Daten vernetzt mit solchen zur Beschreibung und Modellierung zufallsabhängiger Situationen. Die stochastische Simulation spielt bei der Verknüpfung eine wichtige Rolle. Der Umgang mit Daten und Zufallserscheinungen im Alltag und Zufallsexperimenten geschieht auch unter Verwendung einschlägiger digitaler Mathematikwerkzeuge, hier vor allem Tabellenkalkulation und Stochastiktools. (KMK, 2022, S. 21 f.)

Diese Begriffsdefinition als solche bezieht die Definition der mathematischen Grundbildung mit ein, weil sie auf die Modellierung zufallsabhängiger Situationen eingeht und diese der realen Welt als Kontext entstammen können. Der Anwendungsbezug in dieser Leitidee ist hoch. Für die allgemeine Hochschulreife wurde darauf aufbauend die Leitidee weiter geschärft:

Diese Leitidee vernetzt Begriffe und Methoden zur Aufbereitung und Interpretation von statistischen Daten mit solchen zur Beschreibung und Modellierung von zufallsabhängigen Situationen. In Ausweitung und Vertiefung stochastischer Vorstellungen der Sekundarstufe I umfasst diese Leitidee insbesondere den Umgang mit mehrstufigen Zufallsexperimenten, die Untersuchung und Nutzung von Verteilungen sowie einen Einblick in Methoden der beurteilenden Statistik, auch mithilfe von Simulationen und unter Verwendung einschlägiger Software. Das darauf bezogene mathematische Sachgebiet der Sekundarstufe II ist die Stochastik. (KMK, 2012, S. 22)

Auch hier ist eine Anschlussfähigkeit zur mathematischen Grundbildung nach der OECD zu erkennen, weil es um Beschreibungen und Modellierungen von Situationen geht, die zufallsabhängig sind. Dies kann durch „formulate, employ, and interpret mathematics to solve problems in a variety of real-world contexts“ (OECD, 2019, S. 75) hergestellt werden. Bezogen auf die von Gal (2005) eingeführten big ideas (Variation, Zufall, Unabhängigkeit und Vorhersagbarkeit bzw. Unsicherheit) werden diese nur implizit angegeben. Im Umgang mit mehrstufigen Zufallsexperimenten werden von Lernenden Kenntnisse zu den big ideas verlangt. Die Leitidee wirkt in der Hinsicht eher wie ein mathematisches Oberthema, welche zwei Sachgebiete (Wahrscheinlichkeitsrechnung und beurteilende/beschreibende Statistik) zusammenfügt.

Fundamentale Ideen in der Wahrscheinlichkeitsrechnung

Wie im Abschnitt 2.3 eingeführt, haben fundamentale Ideen das Ziel, mathematische Konzepte mit „wenige[n] beziehungsreiche[n] Grundgedanken“ (Vohns, 2005, S. 59) erklären zu können. Auch für das mathematische Teilgebiet der Wahrscheinlichkeitsrechnung wurden mehrere fundamentale Ideen aufgestellt, die in diesem Abschnitt näher beleuchtet werden. Zunächst werden die fundamentalen Ideen nach Heitele (1975) dargestellt. Anschließend werden die darauf aufbauenden fundamentalen Ideen nach Borovcnik (1997) und die von Eichler (2013) erläutert.

Die häufig zitierten fundamentalen Ideen für diesen mathematischen Teilbereich sind von Heitele (1975). Er versteht unter fundamentalen Ideen „die Ideen, die dem Individuum auf jeder Stufe der Entwicklung [...] Erklärungsmodelle liefern, die so effizient wie möglich sind und die sich auf den verschiedenen kognitiven Ebenen unterscheiden, nicht strukturell, sondern durch ihre sprachliche Form und ihre Ausarbeitungsweisen “ (S. 188). Seine fundamentalen Ideen werden im Folgenden kurz eingeführt.

Fundamentale Idee 1: Zufälligkeit „Norming the expressions of our belief“

Die erste fundamentale Idee besteht aus intuitiven Überzeugungen wie „das glaube ich“ oder „ziemlich sicher“. Sie sind normiert in der Form, dass sie durch eine Zahl von 0 bis 1 ausgedrückt werden können, also in reelle Zahlen übersetzt werden. Heitele (1975) deutet dies als „Vergröberung der komplexen Welt und die Abbildung ihrer Mehrdimensionalität auf das eindimensenionale Einheitsintervall“ (S. 194) und bezeichnet „die Skalierung des Grades des individuellen Glaubens in einer Weise, wie wir es mit solchen nicht quantifizierten Begriffen wie Temperatur tun“ als fundamentale Idee.

Fundamentale Idee 2: Ereignisse und Ereignisraum

Bei der zweiten fundamentalen Idee bezieht Heitele (1975, S. 194 f.) sich auf Kolmogorovs Idee, den Zufallsexperimenten einen Ereignisraum beobachtbarer Ergebnisse zuzuordnen und ein solches \(\sigma \)-Feld von Mengen dem Feld der beobachtbaren Ereignisse zuzuordnen. Diese Idee Kolmogorovs macht ein Zufallsexperiment überschaubar und wird fundamental angesehen, weil in Untersuchungen zur Entwicklung des Zufallsbegriffs in der Entwicklungspsychologie oft festgestellt worden ist, das Kinder „auf einen eng verstandenen Determinismus beschränkt sind; sie glauben an einen Zwang durch verborgene Ursachen oder Parameter oder durch einen ‚deus ex machina‘“ (Heitele, 1975, S. 195). Batanero et al. (2016, S. 15) betonen die Wichtigkeit, Lernenden zu verstehen zu geben, alle unterschiedlichen Ereignisse mit einzubeziehen, wenn Wahrscheinlichkeiten in einem Zufallsexperiment ausgerechnet werden.

Fundamentale Idee 3: Wahrscheinlichkeiten kombinieren

Die dritte fundamentale Idee ist die Additionsregel, die es erlaubt, neue Wahrscheinlichkeiten aus ursprünglichen Wahrscheinlichkeiten abzuleiten, da subjektive Einschätzungen bei mehrstufigen Zufallsexperimenten aufgrund ihrer Komplexität versagten. Hier hilft die Additionsregel (Heitele, 1975, S. 195). Batanero et al. (2016, S. 15) ordnen dieser fundamentalen Idee auch die Kombinatorik zu, die u. a. bei der Auflistung aller Ereignisse in einem Stichprobenraum oder bei der Zählung aller seiner Elemente verwendet wird. Da kombinatorisches Denken schwierig ist, können Hilfsmittel, wie etwa das Baumdiagramm, Lernende in ihrer Argumentation stützen (Batanero et al., 2016, S. 15).

Fundamentale Idee 4: Unabhängigkeit und bedingte Wahrscheinlichkeit

Eine weitere fundamentale Idee ist es, Zufallsexperimente ohne physikalischen Kausalzusammenhang als stochastisch unabhängig zu betrachten. Diese Annahme ist noch einmal weitgehender als die Idee bedingter Wahrscheinlichkeiten, weil sie die Voraussetzung für bedingte Wahrscheinlichkeiten ist.

In fact the idea of independent repeatibility of chance experiments shows better than anything else the discrepancy between tile mathematical dealing with a theoretical model and its application to reality. On the one hand the mathematical model of independence, as expressed by the product rule, is easy to be mastered; on the other hand it appears in everyday life that many people, even those with a scientific background who are well acquainted with even more complex mathematical models, are not able to apply the idea of independence in a consequential manner in practical situations. (Heitele, 1975, S. 196)

Dieses Zitat weist auf die Praktikabilität der Produktregel hin, aber auch auf die Schwierigkeit, sie in praktischen Situationen konsequent anzuwenden. Diese Unabhängigkeit ist daher wichtig, um Simulationen zu verstehen und empirische Schätzungen durch Häufigkeiten zu tätigen, da für Wiederholungen stochastische Unabhängigkeit benötigt wird. Stochastische Unabhängigkeit wird für die Analyse von Experimenten und für viele Konzepte in der Stochastik wie Konfidenzintervalle und Hypothesentests benötigt (Batanero et al., 2016, S. 15).

Fundamentale Idee 5: Gleichverteilung und Symmetrie

Diese fundamentale Idee fokussiert auf das Entdecken und Benutzen von Symmetrien in einer Problemsituation. Bei einem Würfelwurf kann Symmetrie angenommen werden und dadurch ebenso Gleichverteilung. Als Konsequenz können dann die Laplace-Regeln angewendet werden. Wenn die Gleichverteilung nicht direkt sichtbar ist, können durch Verfeinerung des Ereignisraums Symmetrien entdeckt werden (Heitele, 1975, S. 196 f.). Diese fundamentale Idee ist die erste, die die Bestimmung einer Wahrscheinlichkeit erleichtert.

Fundamentale Idee 6: Kombinatorik

Die Kombinatorik wird von Heitele (1975, S. 197) als weitere fundamentale Idee genannt, da sie nicht nur Nebenprodukt der Wahrscheinlichkeitsrechnung ist, sondern auch zentral für die Betrachtung von Baumdiagrammen als ikonische Repräsentation. Grundlegende kombinatorische Operationen sind nicht einfach nur Standardalgorithmen zur Berechnung von Wahrscheinlichkeiten komplexer Zufallsexperimente. Weiterhin erläutert Heitele , dass sie insbesondere in einer ikonischen oder enaktiven Repräsentation einen unmittelbaren Einblick in die innere Struktur von Zufallsexperimenten und die Verkettung aufeinanderfolgender Experimente innerhalb eines größeren Komplexes ermöglichen.

Eng damit zusammen hängt die nächste fundamentale Idee mit einem Modellierungsgedanken.

Fundamentale Idee 7: Urnenmodell (bzw. Modellierung) und Simulation

Viele Zufallsexperimente lassen sich in ein Urnenmodell übertragen und dadurch greifbarer machen. Deshalb sieht Heitele (1975, S. 199) das Urnenmodell als fundamentale Idee an. Batanero et al. (2016, S. 15) gehen sogar noch weiter und inkludieren das Modellieren und die Simulation in diese fundamentale Idee. Das Modellieren ermöglicht den Lernenden ein entdeckendes Lernen der Konzepte und der Eigenschaften des Zufalls. Simulationen können zwischen Realität und mathematischem Modell vermitteln und somit die Lernenden in ihrem Prozess unterstützen.

Fundamentale Idee 8: Zufallsvariable

Die Zufallsvariable hat laut Heitele (1975, S. 199) die Wahrscheinlichkeitsrechnung über das Level der Mathematisierung von Glücksspielen gehoben, in dem die Zufallsvariable vielfältige Anwendungsmöglichkeiten in der Statistik ermöglicht. Für eine Zufallsvariable sind der Erwartungswert und die Standardabweichung zwei der wichtigsten Eigenschaften, weil diese fundamental sind bei der Betrachtung von statistischen Daten.

Durch die Zufallsvariable konnte Bernoulli sein schwaches Gesetz der großen Zahlen entdecken und beweisen. Dieses ist eine weitere fundamentale Idee.

Fundamentale Idee 9: (Stochastische) Konvergenz und Gesetze der großen Zahlen

Die progressive Stabilisierung der relativen Häufigkeit zu einer Wahrscheinlichkeit ist eine weitere fundamentale Idee. Heitele (1975, S. 201) schließt dabei keines der Gesetze der großen Zahlen aus, benennt aber die Beobachtung und das Wissen darüber als fundamentale Idee. Für das empirische Gesetz der großen Zahlen gibt er ein Beispiel an:

[The principle of large numbers] is straightforwardly observable in reality, for instance, in the well-known example of raindrops on paving tiles. Rain is a typical random mass phenomen where individual events are unpredictable in principle. (Heitele, 1975, S. 201)

Diese Herangehensweise, die aus den Gesetzen der großen Zahlen resultiert, findet inzwischen vermehrt Anwendung im Mathematikunterricht. Es erscheint wichtig, dass Lernende verstehen, dass kein Ergebnis vorhersehbar ist und die Stabilisierung erst bei hoher Versuchszahl eintritt (Batanero et al., 2016, S. 15).

Fundamentale Idee 10: Stichprobe und ihre Verteilung

Diese fundamentale Idee beinhaltet die Stichprobenwahl. Anhand eines Beispiels kann die gesamte vom Regen betroffene Fläche nicht betrachtet werden, um die Verteilung des Regens zu beurteilen. Um die Wahrscheinlichkeit greifbar zu machen, wird die Fläche auf einen Quadratmeter (oder weniger) begrenzt. Lernenden muss dann bewusst werden, dass die berechnete Wahrscheinlichkeit nur für diesen Quadratmeter gilt und somit auch nur eine empirische Schätzung darstellt (Heitele, 1975, S. 202).

Im Jahre 1997 schrieb Borovcnik , dass es gerade in der Didaktik der Stochastik „trotz der Lippenbekenntnisse zur Bedeutsamkeit von stochastischem Denken nicht wirklich über den Ansatz zu fundamentalen Ideen von Heitele (1975) hinausgekommen“ (S. 23) sei. Wie hier in der Arbeit ersichtlich wird, gibt es neue zentrale Erkenntnisse in der Didaktik der Stochastik, doch die fundamentalen Ideen werden auch in aktueller Literatur zitiert (z. B. Batanero et al., 2016; Begué, Álvarez-Arroyo & Valenzuela-Ruiz, 2021; Eichler, 2013).

Borovcnik (1997) schlägt eigene fundamentale Ideen vor, welche „den Kern der Sache umreißen“ (S. 28) und ordnet sie den fundamentalen Ideen nach Heitele (1975) zu (Tabelle 2.4).

Tabelle 2.4 Fundamentale Ideen von Borovcnik (1997, S. 28 f.), welche eine Zuordnung der fundamentalen Ideen von Heitele (1975) beinhalten

Auch Eichler (2013, S. 101) formuliert auf Grundlage von Borovcnik (1997) und Heitele (1975) sowie den zusammenfassenden Ideen zum statistischen Denken von Wild und Pfannkuch (1999) fundamentale Ideen für die Stochastik:

  1. 1.

    Erkennen der Notwendigkeit statistischer Daten,

  2. 2.

    Flexible Repräsentation der relevanten Daten (Transnumeration),

  3. 3.

    Einsicht in die Variabilität statistischer Daten,

  4. 4.

    Erkennen von Mustern und Beschreiben von Mustern mit statistischen Modellen,

  5. 5.

    Verbinden von Kontext und Statistik.

(Eichler, 2013, S. 101)

Borovcnik (1997) kritisiert, dass sich die Auflistung fundamentaler Ideen nach Heitele (1975) mit Ausnahme der Zufälligkeit (fundamentale Idee 1) und Urnenmodell und Simulation (fundamentale Idee 7) wie „Kapitelüberschriften eines mathematisch gehaltenen Stochastiklehrbuches“ (S. 23) liest. Diese Ansicht wird auch innerhalb dieser Arbeit geteilt, weil sie einer moderneren Ansicht fundamentaler Ideen wie in 2.3 nicht entspricht. Die fundamentalen Ideen 1-10 scheinen keine universellen fundamentalen Ideen zu sein, weil sie zwar innermathematisch, aber nur geringfügig außermathematisch anwendungsbezogen verstanden werden können. Sie scheinen auch nur geringfügig eine zentrale Idee zu sein, weil sie keine explizite Motivation, also keinen Anlass zur Vermutung, dass sie für den Lernenden hilfreich für den Erwerb neuen Wissens sind, aufzeigen aufgrund ihres wenig anwendungsbezogenen Charakters. Die Kriterien von Schweiger (1992) werden nur teilweise vom Ideenkatalog erfüllt. Die historische Entwicklung wird implizit dargestellt, indem beispielsweise die fundamentale Idee 8 (Zufallsvariable) vor der fundamentalen Idee der Gesetze der großen Zahlen kommt und diese auch historisch aufeinander folgen. Für eine vertikale Gliederung curricularer Entwürfe scheint eine Tragfähigkeit der fundamentalen Ideen zu existieren, weil Heitele (1975) spiralcurriculare Überlegungen mit Darstellungwechsel nach Bruner miteinbezieht. Es bestehen jedoch Zweifel, ob diese Ideen zu der Frage, was Mathematik überhaupt ist, geeignet sind, weil sie eher mathematische Sätze und Definitionen betiteln. Auch hinsichtlich des vierten Kriteriums ist nicht geklärt, inwieweit die fundamentalen Ideen den mathematischen Unterricht „beweglicher und zugleich durchsichtiger machen“ (Schweiger, 1992, S. 207) können. Bezüglich des letzten Kriteriums bleibt offen, ob diese fundamentalen Ideen einen „sprachlichen oder handlungsmäßigen Archetypen“ (Schweiger, 1992, S. 207) besitzen. Trotz alledem sind diese fundamentalen Ideen auf mathematische Konzepte gut anwendbar und Basis für die darauf aufbauenden fundamentalen Ideen, sodass diese im weiteren Verlauf primär betrachtet werden. Damit können dann auch Rückschlüsse auf die aktualisierten fundamentalen Ideen gezogen werden.

Die von Borovcnik (1997) vorgeschlagenen fundamentalen Ideen haben eine höhere Passgenauigkeit für die heutige Sicht auf fundamentale Ideen. Sie gehen über das Innermathematische hinaus und zeigen auch außermathematische Anwendungsmöglichkeiten. Sie entsprechen keiner big idea im Sinne der OECD , weil sie keinen größeren Teilbereich abdecken sollen, sondern innerhalb der big idea „data and chance“ Hinweise für inhaltsbezogene Kompetenzen liefern, aber keine Kompetenzen sind. Sie entsprechen den Kriterien von Schweiger (1992), weil sie einerseits in der historischen Entwicklung aufzeigbar, aber auch tragfähiger für die Gliederung curricularer Entwürfe sind. Diese fundamentalen Ideen sind wiederum schwieriger in mathematischen Konzepten zu identifizieren, weil sie durch das Benennen ihres Zwecks nicht so zugänglich zu sein scheinen.

Die fundamentalen Ideen von Eichler (2013) sind auf eine „datenorientierte Stochastik“ (S. 101) zu verwenden und entsprechen der Position Eichlers hinsichtlich des Stochastikunterrichts, weil dieser „ohne den Bezug zu Daten und ihren Kontexten sinnentlehrt bleibt“ (S. 102). Gleiches gilt für die von Biehler und Engel (2015) eingeführten fundamentalen Ideen der Stochastik. Sie legen einen Schwerpunkt auf die Statistik und werden deshalb in dieser Arbeit nicht näher betrachtet.

Für die Identifizierung elementarisierten akademischen Fachwissens werden zunächst die fundamentalen Ideen nach Heitele (1975) genutzt, weil sie trotz der Betrachtung von Anwendungsbezügen durch die Benennung nach mathematischen Konzepten besser geeignet für eine Zuordnung zu sein scheinen.

In diesem Abschnitt wurde gezeigt, dass fundamentale Ideen zur Wahrscheinlichkeitsrechnung existieren und auch in der neuen Literatur angegeben werden. Trotzdem ist die Forschungslage hierzu eher dünn. Die fundamentalen Ideen werden trotzdem in der durchgeführten didaktisch orientierten Rekonstruktion mit aufgenommen. Das hat den Grund, dass Lehrkräfte mathematische Kenntnisse hinter den fundamentalen Ideen aufweisen müssen, um fachlich korrekten Unterricht halten zu können. Außerdem geben die fundamentalen Ideen ein gewisses Metawissen preis, in dem die mathematischen Sätze und Definitionen ihrem Zweck zugeordnet werden.

Unterschiedliche Deutungen von Wahrscheinlichkeiten

Für Wahrscheinlichkeiten gibt es bestimmte Deutungen, die Wahrscheinlichkeitsbegriffe genannt werden. Sie sind Teil fachlich-epistemologischer Überlegungen, welche vor der Erforschung notwendig sind (Batanero et al., 2016, S. 2).

Laut Biehler und Engel (2015, S. 223) sind die wichtigsten Wahrscheinlichkeitsbegriffe der klassische, der frequentistische und der subjektivistische Wahrscheinlichkeitsbegriff sowie das Propensity-Konzept. In dieser Arbeit werden zudem noch der logische Wahrscheinlichkeitsbegriff und der axiomatische Wahrscheinlichkeitsbegriff verwendet. Die Grundprämisse für alle Wahrscheinlichkeitszugänge ist, dass Wahrscheinlichkeiten immer unsicher sind und vom Informationsstand abhängen (Biehler & Engel, 2015, S. 223). Jede dieser Sichtweisen bringt einige philosophische Fragen mit sich und ist für bestimmte reale Phänomene besser geeignet als andere. Diese Sichtweisen können auch bei der Lehrplanung unterstützen, um verschiedene Lernende zu berücksichtigen (Batanero et al., 2016, S. 2).

Auch wenn diese unterschiedlichen Deutungen im deutschsprachigen Raum häufig Wahrscheinlichkeitsbegriffe genannt werden, so sind sie nur im weiteren Sinn mit Begriffsbildung und -lernen (z. B. Vollrath, 1984, Vollrath & Roth, 2012 und Weigand, 2015) verbunden. Mit Wahrscheinlichkeitsbegriffen sind Deutungen von Wahrscheinlichkeiten gemeint, Eichler und Vogel (2014, S. 169) nennen sie beispielsweise auch Wahrscheinlichkeitsansätze. In diesem Abschnitt geht es um die Herangehensweise an den Zufall, es wird aber der deutschsprachigen Begrifflichkeit als solcher gefolgt.

Klassischer Wahrscheinlichkeitsbegriff

Beim klassischen Wahrscheinlichkeitsbegriff geht es um die Wahrscheinlichkeit als relativer Anteil in Gleichverteilungssituationen.

Als Wahrscheinlichkeit eines Ereignisses wird der relative Anteil der zu einem Ereignis gehörenden Ergebnisse an allen möglichen Versuchsausfällen genommen, die als gleichmöglich oder gleichwahrscheinlich angesehen werden. (Biehler & Engel, 2015, S. 223)

Unter diesen Wahrscheinlichkeitsbegriff fallen der Laplacesche Wahrscheinlichsbegriff, aber auch geometrische Zugänge, bei denen Ereignisse Wahrscheinlichkeiten über Flächeninhaltsverhältnisse zuweisen (Biehler & Engel, 2015, S. 223). Der Laplacesche Wahrscheinlichkeitsbegriff ist ein „theoretischer Ansatz a priori, d. h. vor der Durchführung des fraglichen Zufallsexperiments, rein aus der Vernunft gewonnen“(Büchter & Henn, 2007, S. 182). Wahrscheinlichkeiten haben also einen hypothetischen Charakter (Riemer, 1991b, S. 16). Dies entspricht auch dem Prinzip des unzureichenden Grundes:

Dieses Prinzip besagt, dass man an dem Modell der Gleichwahrscheinlichkeit von Elementarereignissen festhält, wenn man keinen ausreichenden Grund hat, an diesem Modell zu zweifeln. (Eichler & Vogel, 2014, S. 101)

Diese Annahme gilt laut Eichler und Vogel (2014, S. 101) als vereinfachende Modellannahme. Trotzdem hat diese Wahrscheinlichkeit eine hohe Relevanz für den Mathematikunterricht. Sie wird berechnet, in dem durch die Anzahl möglicher Ereignisse durch die Anzahl aller Ereignisse dividiert wird. Diese Berechnung der Wahrscheinlichkeit steht sinnbildlich für den klassischen Wahrscheinlichkeitsbegriff.

Benötigte Instrumente sind Kombinatorik, Proportionen und die oben genannte a priori Analyse. Repräsentationen können das Pascalsche Dreieck, Aufzählungen und kombinatorische Formeln sein. Verwandte Konzepte hier sind Erwartung und Fairness (Batanero & Díaz, 2007, S. 117).

Eine Erweiterung des klassischen Wahrscheinlichkeitsbegriffs ist der logische Wahrscheinlichkeitsbegriff, in dem der a priori-Ansatz um deduktiv-logische Annahmen von Möglichkeiten erweitert wird (Batanero et al. 2016, S. 5). Basierend auf Keynes (1921) und Carnap (1950) werden Ereignisse (auch ungleich) gewichtet. Die Wahrscheinlichkeit ist somit ein Grad der Implikation, der die Unterstützung einer gegebenen Hypothese H durch einen Beweis E misst (zit. nach Batanero 2016, S.5).

Batanero et al. (2016, S. 5) sehen in diesem Wahrscheinlichkeitsbegriff ein Problem, da es viele mögliche Wahrscheinlichkeitsfunktionen abhängig von möglichen Ausgangsmaßen und auch von der Weise, wie die Hypothese formuliert ist, gibt. Außerdem kann es schwerfallen, auf objektive Weise adäquate Beweise zu finden, da diese von Person zu Person variieren können (Batanero & Díaz, 2007, S. 114f).

Frequentistischer Wahrscheinlichkeitsbegriff

Der frequentistische Wahrscheinlichkeitsbegriff beschreibt den Ansatz, die relative Häufigkeit als Wahrscheinlichkeit aufzufassen.

Als Annäherung an die Wahrscheinlichkeit wird die relative Häufigkeit des Eintretens des Ereignisses in einer langen Versuchsserie genommen. (Biehler & Engel, 2015, S. 223)

Bei dieser Bedeutung des Wahrscheinlichkeitsbegriffs wird eine Konvergenz relativer Häufigkeiten angenommen. Dies entspricht einem empirischer Ansatz. Die Wahrscheinlichkeit wird nach Durchführung des Zufallsexperiments bestimmt, also a posteriori (Büchter & Henn, 2007, S. 182). Durch die Durchführung werden Daten erhoben, welche anschließend analysiert werden können. Im Sinne von empirischen Fakten ist dieser Wahrscheinlichkeitsbegriff objektiv für das eine Zufallsexperiment. Die gewonnenen Wahrscheinlichkeiten können also variieren, was Batanero et al. (2016, S. 4) als Nachteil beschreiben. Vor allem die Bestimmung der Wahrscheinlichkeit im Nachhinein ist schwierig, wenn ein Experiment nicht unter den gleichen Umständen wiederholt werden kann (Batanero 2016, S. 4). Borovcnik (1992, S. 88) betont deshalb: „Ein Ereignis aus einem individuellen Versuch muss dabei in ein Kollektiv von ‚ähnlichen‘ Versuchen eingebettet werden, die eine ganz bestimmte ‚Regellosigkeit‘ aufweisen müssen; dann ist Wahrscheinlichkeit der Grenzwert der relativen Häufigkeiten“. Diese Aussage ist als Annahme anzusehen, weil diese Deutung auch nicht eintreten muss.

Nützliche Instrumente sind gewisse mathematische Kurven und mathematische Analysen. Repräsentationen sind statistische Tabellen/Graphen, Simulationen, Dichtefunktionen und -kurven sowie Verteilungstabellen. Bei den Eigenschaften kann der Grenzwertbegriff für relative Häufigkeiten mit hoher Wiederholung sowie der objektive Charakter basierend auf empirischen Fakten erwähnt werden. Verwandte Themen sind die relative Häufigkeit, das Universum, Zufallsvariablen und Wahrscheinlichkeitsverteilungen (Batanero & Díaz, 2007, S. 117).

Das Propensity-Konzept ist eine Erweiterung des frequentistischen Wahrscheinlichkeitsbegriffs, bei der es um die Wahrscheinlichkeit als Tendenz bzw. Prognose geht. Dieser Wahrscheinlichkeitsbegriff wird oft auch als objektivistischer Wahrscheinlichkeitsbegriff bezeichnet.

Wahrscheinlichkeiten sind theoretische Eigenschaften von Zufallsexperimenten (chance set-ups), die nicht direkt beobachtbar sind und die sich experimentell in Strukturen in relativen Häufigkeiten zeigen. (Biehler & Engel, 2015, S. 223)

Die Annahme ist also, dass sich durch relative Häufigkeiten Wahrscheinlichkeiten „indirekt messen“ (Biehler & Engel, 2015, S. 223) lassen. Dieser Ansatz wird kontrovers diskutiert, da Tendenzen nicht in anderen empirisch verifizierenden Interpretationen ausgedrückt werden können, also methodisch nicht begründbar sind (Batanero et al., 2016, S. 4). Riemer (1991b) betont die Unverzichtbarkeit, die Möglichkeit „verschiedener (manchmal gleichberechtigter, mitunter aber auch verschieden glaubwürdiger) Wahrscheinlichkeiten“ (S. 19) und deren hypothetischen Charakter in den Vorstellungen von Lernenden zu verankern.

Wenn die Lernendenperspektive betrachtet wird, so ist der folgende Wahrscheinlichkeitsbegriff relevant. Er zeigt die Perspektive von Lernenden mit ihren Erfahrungen von Zufallserscheinungen auf.

Subjektivistischer Wahrscheinlichkeitsbegriff

Unter dem subjektivistischen Wahrscheinlichkeitsbegriff wird die Wahrscheinlichkeit als Maß für subjektives Vertrauen verstanden.

Als Wahrscheinlichkeit eines Ereignisses wird der Grad des subjektiven Vertrauens in das Eintreten des Ereignisses genommen. Als Paradigma kann man die als fair angenommene Wette ansehen. (Biehler & Engel, 2015, S. 223)

Im Kern befasst sich dieser Wahrscheinlichkeitsbegriff mit der fortschreitenden Verbesserung einer Entscheidungsfindung durch gesammelte weitere Informationen (Eichler & Vogel, 2014, S. 116). Durch diese Erfahrung wird bei diesem Ansatz die Wiederholung eines Experiments als nicht notwendig betrachtet und somit die erfahrene Wahrscheinlichkeit akzeptiert (Batanero et al., 2016, S. 5 f.). Dieser Ansatz ist ein theoretischer, basierend auf eigenen Erfahrungen, bei dem auch „eigene Wünsche eingehen können“ (Büchter & Henn, 2007, S. 182). Dieser Begriff weist also Unterschiede zu den anderen Wahrscheinlichkeitsbegriffen auf, weil es hier um die Entscheidungen in einzelnen Situationen geht und diese subjektiv entschieden werden. Dieser Wahrscheinlichkeitbegriff entspricht laut Eichler und Vogel (2014) dem „mathematischen Lernen aus Erfahrung“ (S. 128) und durch den sich aufbauenden Erfahrungsschatz können bessere Entscheidungen getroffen werden.

Axiomatischer Wahrscheinlichkeitsbegriff

Der axiomatische Wahrscheinlichkeitsbegriff basiert auf Kolmogorovs Axiomen, welche in Abschnitt 2.2 dargestellt wurden.

Dabei widerspricht dieser Wahrscheinlichkeitsbegriff nicht dem klassischen, frequentistischen und subjektivistischen Wahrscheinlichkeitsbegriff, obgleich „in allen praktischen Anwendungen, bei der stochastischen Modellierung, [...] die Zuordnung von Wahrscheinlichkeiten [...] immer gerechtfertig werden und [...] offengelegt werden [muss], inwieweit empirische Daten, theoretische Annahmen über Zufallsmechanismen oder subjektive Einschätzungen darin eingegangen sind“ (Biehler & Engel, 2015, S. 224). Im Gegensatz zu den anderen Wahrscheinlichkeitsbegriffen wird innerhalb dieser Deutung definiert, „was mathematisch als Wahrscheinlichkeit verstanden wird“ (Eichler & Vogel, 2011, S. 106), indem die oben genannten Axiome eingeführt werden. Die Wahrscheinlichkeit ist also ein mathematischer Gegenstand und probabilistische Modelle werden zur Beschreibung und Interpretation der zufälligen Realität verwendet. Die Wahrscheinlichkeitstheorie hat ihre Effizienz in vielen verschiedenen Bereichen unter Beweis gestellt, aber die verwendeten Modelle unterliegen immer noch heuristischen und theoretischen Hypothesen, die empirisch bewertet werden müssen. Diese Modelle ermöglichen es auch, neuen Ereignissen Wahrscheinlichkeiten zuzuordnen, die in früheren Interpretationen keinen Sinn ergaben (Batanero & Díaz, 2007, S. 116).

Im Folgenden werden die hier eingeführten Aspekte des Wahrscheinlichkeitsbegriffs in die big ideas und fundamentalen Ideen eingeordnet.

Die fundamentalen Ideen „Zufälligkeit“, „Ereignisse und Ereignisraum“, „Gleichverteilung und Symmetrie“ können dem klassischen Wahrscheinlichkeitsbegriff zugeordnet werden, weil durch den a priori Ansatz eine Vorausschau gegeben wird, um welche Art von Information es sich handelt. Durch diese Deutung werden Entscheidungen unter Unsicherheiten transparent gemacht, weil ein Zufallsexperiment durch die Gleichverteilung begründet wird. Letzteres ist Teil der Begründung der Zuordnung zur Gleichverteilung und Symmetrie als fundamentale Idee, weil die Laplacesche Gleichverteilung „als Ausdruck einer Indifferenz [...] eine spezielle Art von Informationen über eine Situation“ (Borovcnik, 1997, S. 28) liefert, indem das Eintreten aller Elementarereignisse als gleichwahrscheinlich angenommen wird. Diese Deutung von Wahrscheinlichkeiten finden durch den Begriff der „Prognosen“ auch in den Bildungsstandards Verwendung.

Die frequentistische Deutung einer Wahrscheinlichkeit kann den fundamentalen Ideen nach Heitele (1975) zugeordnet werden und somit auch Tendenzen für den erst genannten Katalog aufgezeigt werden. Die fundamentalen Ideen 1 und insbesondere 9 sind für diesen Wahrscheinlichkeitsbegriff relevant, weil die Normierung (Fundamentale Idee 1) den Aspekt widerspiegelt. Die neunte fundamentale Idee hinsichtlich der Gesetze der großen Zahlen ist von Bedeutung für den frequentistischen Wahrscheinlichkeitsbegriff, weil die Herangehensweise einer progressiven Stabilisierung der relativen Häufigkeit der Kerngedanke des hier beschriebenen Wahrscheinlichkeitsbegriffs ist.

Die fundamentale Idee 1 mit dem Aspekt von intuitiven Überzeugungen nach Heitele (1975) ist eine zuordbare Idee zum subjektivistischen Wahrscheinlichkeitsbegriff. Viel mehr kommen die personal sentiments regarding uncertainty and risk, beliefs und attitudes als Dispositionen nach Gal (2005) zum Tragen, weil diese durch Erfahrungen beeinflusst werden.

Der axiomatische Zugang zu Wahrscheinlichkeiten vereint die fundamentalen Ideen, ist von Realitätsbezügen aber ab einem gewissen Grad weiter entfernt. Dieser Wahrscheinlichkeitsbegriff kann hilfreich sein für den Ausdruck von Informationen über eine unsichere Sache, Informationen unter neuen Fakten zu revidieren, verwendete Informationen offenzulegen und zu verdichten, Informationen zu präzisieren und partielle Informationen zu repräsentieren und teilweise die Präzision zu verbessern. Letztere fundamentale Idee spielt keine größere Rolle bei der axiomatischen Deutung von Wahrscheinlichkeiten.

In diesem Abschnitt wurden verschiedene Deutungen von Wahrscheinlichkeiten präsentiert. Im nächsten Abschnitt werden mögliche Grundvorstellungen zur Wahrscheinlichkeit dargestellt und diese mit den bisherigen fachdidaktischen Strukturierungen in Verbindung gebracht.

Grundvorstellungen in der Wahrscheinlichkeitsrechnung

In diesem Abschnitt werden Grundvorstellungen innerhalb der Wahrscheinlichkeitsrechnung erörtert. Zunächst werden Grundvorstellungen zum Wahrscheinlichkeitskonzept erörtert und anschließend weitere Grundvorstellungen eingeführt. Diese Grundvorstellungen werden in diesem Abschnitt eingeordnet und anschließend mit den anderen fachdidaktischen Strukturierungen verglichen.

Wie in Abschnitt 2.3 beschrieben sind Grundvorstellungen „mentale Repräsen-tationen mathematischer Objekte und Sachverhalte“ (Griesel et al., 2019, S.128). Malle und Malle (2003) führen vier Grundvorstellungen zur Wahrscheinlichkeit an, welche im Folgenden erläutert werden. Die im vorherigen Abschnitt eingeführten Wahrscheinlichkeitsbegriffe bilden ebenfalls eine Grundlage für Grundvorstellungen in der Stochastik. Sie erläutern, dass Grundlage aller intuitiven Vorstellungen zu Wahrscheinlichkeiten zunächst einmal Vorstellungen zu Zufallsversuchen sowie zufälligem Auswählen sind. Ergänzt werden diese durch die Grundvorstellungen zur Stochastik nach Bender (1997). Alle im Folgenden eingeführten Grundvorstellungen gehören zur Leitidee „Daten und Zufall“.

Grundvorstellung zur Wahrscheinlichkeit als Maß für eine Erwartung

Diese Grundvorstellung ist „praktisch immer passend“ (Malle & Malle, 2003, S. 52). Sie schreiben weiterhin: „Wenn jemand meint, dass es morgen regnen wird, drückt er damit eine Erwartung aus“ (Malle & Malle, 2003, S. 52). Weiterhin kann diese Erwartung spezifiziert werden, indem Begriffe wie „sehr wahrscheinlich“, „wahrscheinlich“ oder „unwahrscheinlich“ genutzt werden. Mathematisiert werden Erwartungen, in dem sie durch eine Zahl zwischen 0 und 1 ausgedrückt werden (Malle & Malle, 2003, S. 52).

Deshalb wird diese Grundvorstellung von Malle & Malle (2003) wie folgt beschrieben:

Eine Wahrscheinlichkeit ist ein Maß für eine Erwartung. Der Grad der Erwartung wird durch eine Zahl von 0 bis 1 ausgedrückt. (S. 53)

Grundvorstellung zur Wahrscheinlichkeit als relativer Anteil

Bei dieser Grundvorstellung geht es um die Vorstellung, dass als „Wahrscheinlichkeit eines Ereignisses [...] der relative Anteil der zum Ereignis gehörenden Versuchsausfälle an allen möglichen Versuchsausfällen genommen werden“ (Malle & Malle, 2003, S. 52) kann. Malle und Malle (2003) umschreiben dieses Vorgehen wie folgt:

Es sei G eine endliche Menge und A eine Teilmenge von G. Als Wahrscheinlichkeit dafür, dass ein aus G zufällig ausgewähltes Element zu A gehört, kann man den relativen Anteil von A in G (Anzahl der Elemente von A durch Anzahl der Elemente von B) nehmen. (S. 52)

Grundvorstellung zur Wahrscheinlichkeit als relative Häufigkeit

Malle und Malle (2003, S. 53) bezeichnen hier die relative Häufigkeit des Eintretens eines Ereignisses in einer Versuchsreihe als Wahrscheinlichkeit. Dabei führen sie Folgendes aus:

Ein Zufallsversuch werde n-mal unter den gleichen Bedingungen durchgeführt (n groß). Als Wahrscheinlichkeit für das Eintreten eines Ereignisses kann man die relative Häufigkeit des Eintretens dieses Ereignisses unter den n Versuchen nehmen. (S. 52)

Grundvorstellung zur Wahrscheinlichkeit als subjektives Vertrauen

Diese Grundvorstellung umfasst die Vorstellung, dass eine Wahrscheinlichkeit eines Ereignisses als Grad des subjektiven Vertrauens in das Eintreten des Ereignisses betrachtet werden kann. Diese Wahrscheinlichkeit wird durch eine Zahl von 0 bis 1 ausgedrückt. Das subjektive Vertrauen wird maßgeblich beeinflusst durch Sachüberlegungen (Malle & Malle, 2003, S. 52). Auch hier spielen erfahrene Wahrscheinlichkeiten eine Rolle, so dass diese Grundvorstellung dem subjektivistischen Wahrscheinlichkeitsbegriff zugeordnet werden kann.

Bender beschreibt unabhängig von Malle und Malle Grundvorstellungen und Grundverständnisse für den Stochastikunterricht. Er diskutiert in seinem Beitrag für zentrale Inhalte der elementaren Stochastik mögliche Grundvorstellungen und Grundverständnisse und geht vom Begriff der Funktion in einer in der Lebenswelt verankernden Form aus. Als zentrales Thema der Stochastik sieht er die „Bändigung der Variabilität, des Zufalls“ (Bender, 1997, S. 9). Die von ihm herausgearbeiteten Grundvorstellungen sind angelehnt an die zu der Zeit üblichen Stochastiklehrgänge. Inwieweit diese Stochastiklehrgänge noch in dieser, von ihm nicht näher erläuterten Form praktiziert werden, bleibt unklar. Diese Grundvorstellungsideen, die er äußert, sollen „quer zum curricularen Aufbau“ (Bender, 1997, S. 10) stehen.

Kombinatorik als Grundvorstellung

Die erste Grundvorstellungsidee, die Bender äußert, ist die der Kombinatorik als „Prototyp für die Ausbildung von [Grundvorstellungen und Grundverständnissen]“ (Bender, 1997, S. 10), weil sie hilfreich für das Verstehen von Verteilungen im diskreten Wahrscheinlichkeitsraum sind und Grundprinzipien der beurteilenden Statistik darstellen. Weiter schreibt er:

Das Ziehen von Stichproben läßt sich nun einmal gut als Aufbau komplexer Experimente und deren Wahrscheinlichkeitsverteilungen mit kombinatorischen Mitteln aus einfachen Experimenten und einfachen Verteilungen verstehen. (Bender, 1997, S. 10)

Wenn Lernende diese Rückführung vom Komplizierten zum Einfachen als Wissen ausbilden können, können sie, „unbelastet von all den formalen, philosophischen und inhaltlichen Problemen des Wahrscheinlichkeitsbegriffs“, die Wahrscheinlichkeit verstehen.

Eine weitere Grundvorstellung ist laut Bender der Wahrscheinlichkeitsraum. Dieser wird im nächsten Abschnitt erläutert.

Wahrscheinlichkeitsraum als Grundvorstellung

Der Gedanke des Aufstellens eines Wahrscheinlichkeitsraums fasst Bender (1997) zunächst einmal intuitiv zusammen:

Man verschafft sich einen Überblick über alle möglichen Ausfälle eines Zufallsexperiments und faßt diese zu einer Menge zusammen, die dann einen abgeschlossenen (erneut: das Motiv des Abschlusses) Raum für die weiteren Betrachtungen bildet. Im Zusammenspiel von sachlicher und mentaler Struktur hat das explizite ‚Aufstellen‘ des Wahrscheinlichkeitsraums, das ich auch von fortgeschrittenen Stochastik-Lernenden zu deren (kurzsichtigem) Unmut immer wieder fordere, eine mehrfache Funktion. (Bender, 1997, S. 11)

Der Prozess des tatsächlichen Aufstellens (in der Vorstellung) scheint für Bender eine Grundvorstellung zu sein. Dies begründet er mit der Verbindung zwischen realem Kontext und mathematischer Begrifflichkeit (Bender, 1997, S. 11).

Die nächste Grundvorstellung geht von einem Individuum als handelndem Akteur innerhalb der Wahrscheinlichkeitsrechnung aus.

Die Rolle des erkennenden Subjekts bei der Generierung einer Wahrscheinlichkeitsverteilung

Bender (1997) erläutert seine Haltung, dass die „Beteiligung des erkennenden Subjekts bei der Generierung einer Wahrscheinlichkeitsverteilung“ (S. 15) in Stochastiklehrgängen gering ist. Wenn ein Individuum also ein Zufallsexperiment durchführt, so steht dieses mit dessen Annahmen im Mittelpunkt der Handlung. Er konkretisiert dies weiter:

Ich habe eine Wahrscheinlichkeits‚maße‘(die ich mir als elastischen, beliebig teilbaren und gut formbaren Stoff vorstelle) vom Umfang 1 in der Hand und verteile diese Masse auf die Menge der Ausfälle des Experiments, den Wahrscheinlichkeitsraum. Jeder Ausfall bekommt den Anteil zugewiesen, den ich aufgrund theoretischer Überlegungen oder empirischer Untersuchungen für angemessen halte. (Bender, 1997, S. 16)

Das erkennende Subjekt und eine Verteilung von Wahrscheinlichkeiten steht hier im Mittelpunkt. Darüber hinaus gibt er noch weitere mentale Vorstellungen für Wahrscheinlichkeitsverteilungen an.

Kontinuierliche Verteilungen

Diese Grundvorstellung betrifft Zugänge von verschiedenen Wahrscheinlichkeitsverteilungen. Bei stetigen Wahrscheinlichkeitsverteilungen muss „jeder der unendlich (ja, überabzählbar) vielen Ausfälle allein (formal als Elementarereignis aufgefaßt) die Wahrscheinlichkeit 0 [...] haben; denn sonst bräuchte man für jede, noch so kleine, Umgebung um einen Punkt mit Wahrscheinlichkeit \(> 0\) eine unendlich große Wahrscheinlichkeitsmasse“ (Bender, 1997, S. 18). Die Interpretation Wahrscheinlichkeitsverteilungen kann also zu einem mentalen Konflikt führen. Insbesondere im Übergang von diskreten zu stetigen Verteilungen treten Konflikte auf, weil stetige Verteilungen, „spätestens mit dem zentralen Grenzwertsatz, pauschal als ‚Grenzwertverteilungen‘ diskreter Verteilungen identifiziert werden“ (Bender, 1997, S. 19). Bender rät also zu einem Zugang zur Normalverteilung über Binomialverteilungen über aufsummierte Wahrscheinlichkeiten. Die Vorteile in stetigen Verteilungen sieht er auch auf ikonischer Ebene:

Kontinuierliche Verteilungen haben darüber hinaus den [...] Vorzug, daß kontinuierliche Wanderungen im Definitionsbereich ebensolche Änderungen der Werte nach sich ziehen. Man kann für gegebene Werte i.a. scharfe Intervallgrenzen angeben, und auch beim Zeichnen tut man sich leichter mit einem schwungvollen Graph als mit einer Treppenfunktion mit lauter gleichlangen waagerechten Strecken, bei denen benachbarte Enden und Anfänge genau lotrecht übereinander liegen müssen. (Bender, 1997, S. 24)

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

Bezüglich des Umgangs mit bedingter Wahrscheinlichkeit und Unabhängigkeit sieht Bender primär Schwierigkeiten in den „kausalen Konnotationen der verwendeten Wörter“ (Bender, 1997, S. 24). Eine irreführende Wortwahl im Umgang mit diesen Begriffen kann als Chance verstanden werden, Unterschiede zwischen stochastischer und kausaler Unabhängigkeit zu identifizieren und dadurch stochastisches Denken zu fördern (Bender, 1997, S. 18).

Zufallsgrößen als Funktionen

Die Idee, Zufallsgrößen bzw. -variablen als Funktion zu verstehen, ist für Bender eine weitere Grundvorstellung. Damit können Zufallsvariablen zum Funktionsbegriff vernetzt werden und diesen stärken sowie begriffliche Klärungen hinsichtlich der Zufallsvariablen durchgeführt werden. Letzteres führt er weiter aus:

Eine Vorschrift, die jedem Element eines Definitionsbereichs einen Wert aus einem Wertebereich zuordnet, veranschaulicht durch Pfeile. Die Begriffe ‚Vorschrift‘, ‚zuordnen‘, ‚Definitions-‘ und ‚Wertebereich‘ werden nicht weiter präzisiert, und nach meinem Erfahrungen kann auf dieser Basis in der Sekundarstufe I [...] ein tragfähiger Begriff aufgebaut werden, zu dem auch Addition, Subtraktion usw. von Funktionen gehören, wenn diese denn denselben Definitionsbereich und außerdem einen gemeinsamen Wertebereich haben, in dem diese Verknüpfungen vorhanden sind. (Bender, 1997, S. 27)

Bender legt Wert auf eine formale Einführung von Zufallsvariablen mit dem Funktionsbegriff, weil dadurch der Wahrscheinlichkeitsraum der Definitionsbereich ist und an Bekanntem angeknüpft werden kann.

Darüber hinaus benennt Bender die Anfänge des Hypothesentestens als Grundvorstellungsidee, die aber in dem Kontext der Wahrscheinlichkeitsrechnung nicht relevant zu sein scheint.

Die Grundvorstellung zur Wahrscheinlichkeit als Maß für eine Erwartung ist anschlussfähig mit den big ideas probabilistischer Grundbildung nach Gal , weil dieses Maß der Erwartung ein Teil der Vorhersagbarkeit und der Unsicherheit ist sowie auch des Konzepts des Zufalls. Dieser Grad der Erwartung, ausdrückbar durch eine Kennziffer, lässt sich auch in den Konzepten Figuring probabilities und Language wiederfinden, weil Lernende durch diese Kennziffer einerseits Schätzungen über die Wahrscheinlichkeiten tätigen und über Zufall und Wahrscheinlichkeit kommunizieren. Vorherrschende fundamentale Idee nach Heitele ist die der Zufälligkeit, weil sie dieser Normierung eines Ausdrucks des Glaubens beschreibt. Daraus folgend spielt also auch die fundamentale Idee „Ausdruck von Informationen über eine unsichere Sache“ eine Rolle. Diese Grundvorstellung beeinflusst alle Wahrscheinlichkeitsbegriffe, da sie für jegliche Deutungen eine Rolle spielt.

Die Grundvorstellung der Wahrscheinlichkeit als relativer Anteil unterliegt der big idea des Zufalls und beschreibt einen Weg, um Wahrscheinlichkeiten zu berechnen, ist also auch figuring probabilities zuzuordnen. Implizit spielt die fundamentale Idee 2 Ereignisse und Ereignisraum eine Rolle, weil Zufallsexperimente mit beobachtbaren Ergebnissen und Ereignisräumen betrachtet werden. Damit ist auch hier die fundamentale Idee Ausdruck von Informationen über eine unsichere Sache sichtbar. Diese Grundvorstellung kann dem klassischen Wahrscheinlichkeitsbegriff zugeordnet werden, da diese Definition einer Berechnung der Wahrscheinlichkeit einem Laplace-Experiment entspricht, obwohl eine Gleichwahrscheinlichkeit der Ergebnisse nicht explizit angenommen wird. Speziell bei dieser Grundvorstellung bleiben Malle und Malle vage.

Zur Grundvorstellung zur Wahrscheinlichkeit als relative Häufigkeit lässt sich eine big idea hier nur ansatzweise finden, weil diese Grundvorstellung in gewisser Weise über allen big ideas nach Gal als prinzipielles Konzept steht. Aufgrund der n-maligen Durchführung eines Zufallsversuchs und der damit resultierenden Wahrscheinlichkeit als relative Häufigkeit ist die fundamentale Idee 9 (Stochastische) Konvergenz und Gesetze der großen Zahlen sowie Verbesserung der Präzision bei dieser Grundvorstellung vordergründig. Somit kann diese Grundvorstellung mit dem frequentistischen Wahrscheinlichkeitsbegriff in Verbindung gesetzt werden. Die Wahrscheinlichkeit wird nach der Durchführung einer Versuchsserie bestimmt und die relative Häufigkeit eines Ereignisses wird als dessen Wahrscheinlichkeit aufgefasst.

Die Grundvorstellung zur Wahrscheinlichkeit als subjektives Vertrauen kann den Dispositionen nach Gal zugeordnet werden, weil diese Grundvorstellung zum critcal stance, den beliefs and attitudes und personal sentiments regarding uncertainty and risk durch Erfahrungen geprägt und dadurch ein subjektives Vertrauen etabliert wird. Die fundamentale Idee 1 nach Heitele Zufälligkeit „Norming the expressions of our belief“ ist in dieser Grundvorstellung vereint und somit bis zu einem gewissen Grad auch die fundamentale Idee Ausdruck von Informationen über eine unsichere Sache, weil die Vorausschau bzw. die Abwägung über die Vergangenheit einer gewissen Subjektivität unterliegt. Diese Grundvorstellung entspricht dem subjektivistischen Wahrscheinlichkeitsbegriff, weil sie die subjektiven Vorstellungen mit einbezieht, die aus Erfahrungen gesammelt werden.

Die Kombinatorik als Grundvorstellung ist weder explizit der big idea der Wahrscheinlichkeitsrechnung noch der Leitidee „Daten und Zufall“ zugeordnet. Sie findet aber wiederum Verwendung in der fundamentalen Idee 6 (Kombinatorik). Borovcnik erwähnt die Kombinatorik als fundamentale Idee nicht. Wie Bender schon schreibt, steht die Kombinatorik als mathematischer Inhalt unabhängig von Wahrscheinlichkeitsbegriffen, erscheint aber sinnvoll als Hilfsmittel für das Rechnen mit Wahrscheinlichkeiten.

Für den Wahrscheinlichkeitsraum als Grundvorstellung ist die vorrangige big idea die des Zufalls. Diese Grundvorstellung kann der Leitidee „Daten und Zufall“ zugeordnet werden. Die fundamentale Idee der Ereignisse und des Ergebnisraums scheint hier vordergründig relevant zu sein. Hinsichtlich der unterschiedlichen Wahrscheinlichkeitsbegriffe spielen einerseits der klassische, der frequentistische, aber auch der axiomatische eine Rolle.

Für die Rolle des erkennenden Subjekts bei der Generierung einer Wahrscheinlichkeitsverteilung ist eine Zuordnung hinsichtlich der big ideas nicht möglich. Diese Grundvorstellung kann der Leitidee „Daten und Zufall“ zugeordnet werden. Folgende fundamentale Ideen lassen sich in dieser Grundvorstellung identifizieren: Fundamentale Idee 1 (Zufälligkeit), Fundamentale Idee 2 (Ereignisse und Ereignisraum) und Fundamentale Idee 3 (Wahrscheinlichkeiten kombinieren). Somit ist dies auch Ausdruck von Informationen über eine unsichere Sache. Weil Bender (1997) über mentale Vorstellungen spricht, kann dies dem subjektiven Wahrscheinlichkeitsbegriff zugeordnet werden, zeigt aber auch Ansätze des klassischen und frequentistischen Wahrscheinlichkeitsbegriffs. Hinsichtlich der Grundvorstellungen nach Malle ist vor allem die Wahrscheinlichkeit als Maß für eine Erwartung von Relevanz.

Die Grundvorstellungsidee „Kontinuierliche Verteilungen“ findet primär im Wissenselement figuring probabilities Verwendung. Sie gehört zur big idea chance and data und zur Leitidee „Daten und Zufall“. Sie beinhaltet schwerpunktmäßig die fundamentale Idee 8 (Zufallsvariable) und 10 (Stichprobe und ihre Verteilung) und somit auch der Präzision von Informationen und der Repräsentativität partieller Informationen. Für stetige Verteilungen wird formal-mathematisch das Axiomensystem Kolmogoroffs benötigt, so dass ein axiomatischer Wahrscheinlichkeitsbegriff vonnöten ist.

Die Grundvorstellung zu bedingten Wahrscheinlichkeiten und zur Unabhängigkeit wird von Bender nur kurz behandelt und es wird auch nicht klar, inwieweit seine Ausführungen zu einer Grundvorstellungsidee führen. Deshalb wird diese hier nicht weiter betrachtet.

Die Grundvorstellungsidee „Zufallsgrößen als Funktionen“ ist der Leitidee „Daten und Zufall“ zugeordnet und die fundamentale Idee 8 (Zufallsvariable) erscheint stimmig. Damit wird ein Ausdruck von Informationen über eine unsichere Sache ausgedrückt und Informationen können verdichtet und präzisiert werden. Die Zufallsgröße, wie von Bender (1997) intendiert, wird mit dem axiomatischen Wahrscheinlichkeitsbegriff assoziiert.

Die Grundvorstellungen von Malle und Malle (2003) scheinen einem Grundvorstellungkonzept nach vom Hofe (1995) zu entsprechen. Sie scheinen auf Schüler*innen als Zielgruppe zu fokussieren, welche in dieser Arbeit nicht im Fokus stehen. Über die Explikation der vorgenommen Herleitung werden keine Angaben gemacht. Benders (1997) Grundvorstellungen scheinen doch eher einem Grundverständniskonzept ähnlich. Die Ausführungen sind trotzdem interessant, weil sie eine der wenigen Arbeiten zu Grundvorstellungen in der Stochastik sind. Bender spricht von Vorstellungen und scheint damit ein eher ‚naives‘ Verständnis von Grundvorstellungen anzunehmen, in dem einerseits mentale Bilder und Sinnkonstituierungen angesprochen werden, aber andererseits die nähere Auseinandersetzung mit den Kriterien von Grundvorstellungen nicht stattfindet. Dies kann unter Anderem auch an der damals recht aktuellen Systematisierung von vom Hofe liegen. Bender äußert sich, dass das Formen und Stabilisieren dieser Grundvorstellungen und Grundverständnisse noch empirisch überprüft werden muss, sie aber die Ausbildung des stochastischen Denkens wesentlich fördern könnten (Bender, 1997, S. 32). Auch die methodische Entwicklung dieser Grundvorstellungen wurde von Bender wie bei Malle und Malle nicht transparent gemacht.

2.5 Zusammenfassung und Folgerungen

Die Mathematik auf akademischem Niveau unterscheidet sich in Bezug auf Struktur, Art des Begriffserwerbs und Anteil von Realitäts- und Anwendungbezügen stark vom schulischen Niveau. Anhand der exemplarischen Betrachtung der fachlichen Aspekte lässt sich der mathematische Aufbau der Wahrscheinlichkeit erkennen. Die Gesetze der großen Zahlen benötigen unterschiedliche Vorkenntnisse und scheinen einen unterschiedlichen Schwierigkeitsgrad zu haben. Das empirische Gesetz der großen Zahlen ist nicht beweisbar, kann aber bei Experimenten beobachtbar gemacht werden. Das schwache Gesetz der großen Zahlen ist eine beweisbare Präzisierung des empirischen Gesetzes der großen Zahlen. Das starke Gesetz der großen Zahlen kann eine p-fast sichere Aussage hinsichtlich einer Schwankung bei wachsenden Versuchszahlen tätigen. Anhand dieser exemplarischen Darstellung zeigt sich die formal-axiomatische, deduktive Struktur und der definitorische Begriffserwerb. Auch wenn Realitätsbezüge eine Rolle spielen können, kommt die Wahrscheinlichkeitsrechnung ohne Realitäts- und Anwendungsbezüge auf akademischem Niveau aus.

Die Mathematik auf akademischem Niveau und die zu beachtenden fachdidaktischen Aspekte scheinen losgelöst voneinander. Lehrkräfte, die die erste Lehrerausbildungsphase an den Universitäten abgeschlossen haben, müssen das Gelernte in einer Weise elementarisieren, um ihren Schüler*innen die Mathematik zugänglich zu gestalten. Die hier aufgeführten fachdidaktischen Aspekte geben Indizien, inwiefern diese Elementatisierung stattfand bzw. stattfinden sollte.

In diesem Kapitel wurden ausgewählte fachdidaktische Strukturierungen aufgezeigt und auf die Wahrscheinlichkeitsrechnung angewendet. Zufall und Unsicherheit haben eine hohe Relevanz im Alltag. Zufallserscheinungen spielen in vielen anderen Disziplinen eine Rolle und Schüler*innen begegnen dem Zufall nicht nur in anderen Schulfächern, sondern auch bei politischen Aktivitäten bzw. Berichterstattungen. In Spiel und Sport sind Kenntnisse über Wahrscheinlichkeit von Vorteil. Das Konzept der Wahrscheinlichkeit ist also fester Bestandteil für eine mathematische Grundbildung und somit auch verankert in den Bildungsstandards sowie curricularen Standards der Bundesländer. Auch wenn die primäre Zielgruppe dieser mathematikdidaktischen Aspekte Schüler*innen sind, so können allgemeine inhaltliche Anforderungen für das Fachwissen von Lehrkräften abgeleitet werden.

Fundamentale Ideen als fachdidaktische Aspekte wurden für die Wahrscheinlichkeitsrechnung aufgezeigt. Eine der genannten fundamentalen Ideen weist die Behandlung der Gesetze der großen Zahlen auf. Verschiedene Zugänge zur Wahrscheinlichkeit bzw. die Wahrscheinlichkeitsbegriffe wurden eingeführt. Sie zeigen die vielfältigen Möglichkeiten, wie mit dem Zufall umgegangen werden kann. Dabei werden sie oftmals zusammenhangslos eingeführt. Für die Behandlung in der Schule bietet sich vor allem der klassische, frequentistische und subjektivistische Wahrscheinlichkeitsbegriff an, weil Lernende dafür nur wenige fachliche Voraussetzungen benötigen. Der frequentistische Wahrscheinlichkeitsbegriff beruft sich auf das Gesetz der großen Zahlen als Grundannahme. Lehrkräfte müssen die mathematischen Strukturen hinter diesen Wahrscheinlichkeitsbegriffen verstehen, um sie vermitteln zu können. Weiterhin wurden Grundvorstellungen in der Wahrscheinlichkeitsrechnung eingeführt, die für ein Verständnis des inhaltlichen Teilbereichs unvermeidlich sind. Insbesondere die zweite Grundvorstellung Wahrscheinlichkeit als relativer Anteil weist erstmals auf eine Auseinandersetzung mit den Gesetzen der großen Zahlen hin, da sie Grundlage für diese Grundvorstellung bilden.

Insgesamt lässt sich feststellen, dass die einzelnen mathematikdidaktischen Aspekte ähnliche Komponenten beinhalten. Sie widersprechen sich nicht, sondern beleuchten verschiedene Aspekte derselben Phänomene aus unterschiedlichen Perspektiven. Dies zeigt sich in der fortwährenden Unsicherheit einer Wahrscheinlichkeit, die Grundannahme aller Wahrscheinlichkeitsbegriffe darstellt. Auch Malle und Malle (2003) berufen sich auf die Unsicherheit als Grundwissen. Innerhalb der fundamentalen Ideen ist die Unsicherheit durch die erste fundamentale Idee gegeben. Ein weiteres wiederkehrendes Phänomen besteht in den Möglichkeiten, Wahrscheinlichkeiten zu bestimmen. Wahrscheinlichkeiten können vor einem Zufallsexperiment bestimmt werden oder aber nach einem Zufallsexperiment. Ersteres lässt sich dem klassischen Wahrscheinlichkeitsbegriff bzw. der ersten Grundvorstellung zuordnen und letzteres dem frequentistischen Wahrscheinlichkeitsbegriff und der zweiten Grundvorstellung.

Für die Betrachtung der Gesetze der großen Zahlen bedeutet dies: Die Gesetze der großen Zahlen, vor allem das empirische Gesetz der großen Zahlen, werden sowohl implizit als auch explizit aufgegriffen. Implizit finden sie Verwendung innerhalb der big Ideas und Figuring probabilities für die probabilistische Grundbildung, weil sie Voraussetzungen für die Vorhersage und Bestimmung von Wahrscheinlichkeiten sind. Sie sind Teil des frequentistischen Wahrscheinlichkeitsbegriffs sowie der Grundvorstellung Wahrscheinlichkeit als relativer Anteil, bei der die Konvergenz relativer Häufigkeiten angenommen wird. Explizit erwähnt werden die Gesetze der großen Zahlen von Heitele (1975, S.201), welcher diese als fundamentale Idee bezeichnet.

Aus der „reinen“ Angabe der fachlichen Strukturierung ergeben sich keine Wissenselemente für Lehrkräfte. Auch eine Gewichtung hinsichtlich der Relevanz lässt sich nur intransparent durchführen. So wird aber in Vorlesungen vorgegangen, indem didaktische Entscheidungen in der Form von Elementarisierungen für die Zielgruppe scheinbar selten getätigt werden. Somit bleibt es bei einer nicht zielgruppenorientierten Vorlesung, in der Mathematik auf akademischem Niveau vermittelt wird. Es bedarf also stoffdidaktischer Analysen, um, vom Kern des Inhalts (also der Mathematik) ausgehend, Fachwissen zu identifizieren.

Im Abschnitt 2.4 wurde anhand eines Zitats die Frage aufgeworfen, was Schüler*innen über Wahrscheinlichkeitsrechnung lernen sollen und warum. Die Frage in dieser Arbeit kann analog für Lehrkräfte gestellt werden. Eine gute stochastische Grundausbildung von Lehrkräften ist wichtig, um die oben aufgeführten mathematikdidaktischen Aspekte im Stochastikunterricht adressieren und ihnen gerecht werden zu können. Diese Komponenten müssen Lehrkräfte zwar fachdidaktisch beherrschen, aber auch gleichzeitig die fachliche Tiefe aufweisen, um Wahrscheinlichkeitsrechnung kompetent unterrichten zu können. Eine tiefgehende Auseinandersetzung mit der stochastischen Konvergenz, also verschiedener Gesetze der großen Zahlen, kann in der Ausbildung von Lehrkräften erfolgen. Welche Elemente des fachlichen Wissens zu den Gesetzen der großen Zahlen es gibt, soll innerhalb dieser Arbeit in didaktisch orientierten Analysen herausgearbeitet werden.

Innerhalb der Methodik der didaktisch orientierten Analyse fließen insbesondere die Konzepte des Wahrscheinlichkeitsbegriffs (als spezifischer Aspekt der Stochastikdidaktik), die Grundvorstellungen und die fundamentalen Ideen mit ein.

Im weiteren Verlauf wird das Fachwissen als Aspekt professioneller Kompetenz im Allgemeinen betrachtet. Insbesondere wird der Begriff des Wissens eingeführt und die Konzeptualisierung des Professionswissens in verschiedenen Forschungsprojekten beleuchtet. Ein besonderer Schwerpunkt wird dabei auf das „school-related content knowledge“ gelegt, nach dem die doppelte Diskontinuität in der Lehrkraftausbildung ausgeführt wird. Anschließend werden Studien zum Professionswissen in der Stochastik, insbesondere der Wahrscheinlichkeitsrechnung, kategorisiert und deren Ergebnisse kurz geschildert.