Skip to main content

Schätz- und Testtheorie – Bewerten und Entscheiden

  • Chapter
  • First Online:
Mathematik

Zusammenfassung

In der Wahrscheinlichkeitstheorie bewegen wir uns im gesicherten Rahmen eines mathematischen Modells. Nun treten wir hinaus in die nichtmathematische Realität. Hier stürmen unzählige Fragen und Probleme auf uns ein.

Angenommen, Sie gehen auf einen Trödelmarkt und sehen einen alten Stuhl aus einem glatten roten Holz. Sie fragen sich: Wie alt wird der Stuhl wohl sein? Ist das Holz Mahagoni? Handelt es sich um einen Nachbau oder ist er ein Original? Wird er meinem Freund gefallen, mit dem ich die Wohnung teile?

Angenommen, Sie fahren Ihren Wagen zum TÜV, dort wird unter anderem geprüft: Wie groß ist der Abgaswert? Werden die Grenzwerte eingehalten? Wird das Auto bis zur nächsten Untersuchung noch fahrtüchtig bleiben?

Diese Fragen sind einerseits Schätzungen. Hier wird die Größe eines unbekannten Parameters erfragt: Alter eines Möbels, Bremskraft und Abgaswerte eines PKW. Bei einem Test andererseits muss eine Entscheidung getroffen werden, ob ein Annahme akzeptiert werden kann oder nicht: Fahrtüchtig oder nicht? Mahagoni oder nicht? Nachbau oder Original?

Bei einer Prognose machen wir eine Aussage über ein zukünftiges Ereignis: Morgen wird es wahrscheinlich regnen! Dem Freund wird der Stuhl gefallen! Die Brücke wird der Belastung standhalten!

In diesem Kapitel legen wir die Grundlagen für Schätzungen, Prognosen und Tests. Dabei werden wir reale Beobachtungen in ein mathematisches Modell einbetten und dort mithilfe der axiomatischen Wahrscheinlichkeitstheorie Schlüsse ziehen und diese wieder in die Realität rückübertragen.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 69.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Tilo Arens .

Appendices

Zusammenfassung

Die zentralen Grundbegriffe aus diesem Kapitel sind Modell, Zufallsstichprobe, Likelihood, Konfidenzbereich und Test.

1.1 Das statistische Modell legt eine Familie von Wahrscheinlichkeitsverteilungen fest

Das Modell soll auf einer Zufallsstichprobe aufbauen. Dabei hat jedes Element der Grundgesamtheit eine angebbare, von null verschiedene Wahrscheinlichkeit, in die Auswahl zu gelangen. Bei einer reinen Zufallsstichprobe haben alle gleichgroßen Teilmengen der Grundgesamtheit dieselbe Wahrscheinlichkeit, dass ihre Elemente in die Auswahl gelangen.

1.2 Die Likelihood-Funktion misst die Plausibilität eines Parameters im Licht der Beobachtung

Die Likelihood-Funktion

Gegeben sei ein Wahrscheinlichkeitsmodell, in dem die Wahrscheinlichkeiten der Ereignisse von einem Parameter \(\theta\in\Theta\) abhängen. Das Ereignis \(A\) sei eingetreten. Innerhalb des Modells besitze \(A\) die Wahrscheinlichkeit \(\mathrm{P}(A\,\|\,\theta)> 0\). Dann heißt

$$\displaystyle L(\theta\,|\,A)=c\left(A\right)\mathrm{P}(A\,\|\,\theta)$$

die Likelihood-Funktion von \(\theta\) bei gegebener Beobachtung \(A\). Ist \(Y\) eine stetige, zufällige Variable mit der Dichte \(f\left(\left.y\right\|\theta\right)\), so ist die Likelihood-Funktion von \(\theta\)  bei beobachtetem \(Y=y\)

$$\displaystyle L(\theta\,|\,Y=y)=c(y)f(a\,\|\,\theta).$$

Dabei sind \(c\left(A\right)\) und \(c\left(y\right)\) beliebige, nicht von \(\theta\) abhängende Konstante.

Interpretation des Likelihood-Quotienten

Sind \(\theta_{1}\) und \(\theta_{2}\) zwei konkurrierende Parameter des Modells, so ist \(\theta_{1}\) um so plausibler als \(\theta_{2}\), je größer der Likelihood-Quotient ist. Er ist ein relatives Maß für die Plausibilität der Parameter \(\theta_{1}\) und \(\theta_{2}\) im Licht der Beobachtung \(A\).

1.3 Die Likelihood enthält die gesamte im Ereignis \(A\) enthaltene Information über den Parameter \(\theta\)

Der Suffizienzbegriff

Eine Funktion \(T\left(\boldsymbol{X}\right)=T\left(X_{1},X_{2},\ldots,X_{n}\right)\) heißt suffizient für \(\theta\), wenn die Likelihood von \(\theta\) nur von \(T\left(\boldsymbol{X}\right)\) abhängt

$$\displaystyle L(\theta\,|\,\boldsymbol{X}=\boldsymbol{x})=L(\theta\,|\,T\left(\boldsymbol{x}\right)=\boldsymbol{t}).$$

1.4 Der Maximum-Likelihood-Schätzer ist der Parameterwert, an dem die Likelihood ihr Maximum annimmt

Der Maximum-Likelihood-Schätzer macht alle Transformationen mit

Ist \(\gamma=\gamma\left(\theta\right)\) bzw. \(\theta=\theta\left(\gamma\right)\) eine eineindeutige Abbildung der Parametermenge \(\Theta\) auf die Parametermenge \(\Gamma\) und ist \(\widehat{\theta}\) der Maximum-Likelihood-Schätzer von \(\theta\), so ist

$$\displaystyle\widehat{\gamma}=\widehat{\gamma(\theta)}=\gamma(\widehat{\theta}).$$

1.5 Gütekriterien für Schätzer bewerten die Eigenschaften der Wahrscheinlichkeitsverteilung der Schätzfunktion

Die wichtigsten Kriterien einer Schätzfunktion sind der Bias, die Varianz und der Mean Square Error (MSE) sowie das asymptotische Verhalten für große \(n\). Dabei heißt \(\widehat{\theta}^{\left(n\right)}\) asymptotisch erwartungstreu, falls \(\lim_{n\rightarrow\infty}\mathrm{E}(\widehat{\theta}^{\left(n\right)})=\theta\) ist, und konsistent, wenn \(\lim_{n\rightarrow\infty}\widehat{\theta}^{\left(n\right)}=\theta\) gilt. Dabei ist der letzte Grenzwert im Sinne der schwachen Konvergenz oder Konvergenz nach Wahrscheinlichkeit zu verstehen.

Ungleichung von Rao-Cramer

Sind \(Y_{1},\ldots,Y_{n}\) i.i.d.-zufällige Variable, deren Verteilung von \(\theta\) abhängt, und ist \(\widehat{\theta}^{(n)}=\widehat{\theta}(Y_{1};\ldots;Y_{n})\) eine erwartungstreue Schätzung für \(\theta\), so ist unter schwachen mathematischen Regularitätsbedingungen

$$\displaystyle\mathop{\mathrm{Var}}(\widehat{\theta}^{(n)})\geq\frac{1}{n}\mathrm{RC}.$$

Dabei hängt \(\mathrm{RC}\), die Schranke von Rao-Cramer, weder vom Schätzer noch vom Stichprobenumfang, sondern allein vom Wahrscheinlichkeitsmodell ab.

Maximum-Likelihood-Schätzer stellen die höchsten Anforderungen an Modell und Vorwissen, da die Verteilung der beteiligten Zufallsvariablen bis auf den unbekannten Parameter bekannt sein muss. Sie haben dafür aber auch optimale Eigenschaften.

Optimalität des Maximum-Likelihood-Schätzers

Unter schwachen mathematischen Regularitätsbedingungen an die Likelihood gilt: Sind \(Y_{1},\dots,Y_{n}\) i.i.d., so ist \(\widehat{\theta}^{\left(n\right)}\) konsistent, asymptotisch normalverteilt, asymptotisch effizient und asymptotisch erwartungstreu.

Punktschätzer sind präzise, aber man kann keine Aussage darüber machen, wie verlässlich sie sind. Intervallschätzer gehen genau den entgegengesetzten Weg, sie machen unscharfe Aussagen mit angebbarer Verlässlichkeit.

1.6 Eine Prognose ist eine Aussage über das Eintreten eines zufälligen Ereignisses

Prognosebereich

Jeder Bereich \(B\) mit \(\mathrm{P}\left(Y\in B\right)\geq 1-\alpha\) heißt Prognosebereich für \(Y\) und \(Y\in B\) eine Prognose über \(Y\) zum Niveau \(1-\alpha\).

1.7 Die Konfidenzstrategie: Eine nicht verifizierbare Prognose wird für wahr erklärt

Die Konfidenzstrategie

Gegeben sei die zufällige Variable \(Y\), deren Verteilung vom unbekannten Parameter \(\theta\) abhängt. Ist \(A\left(\theta\right)\) ein \((1-\alpha)\)-Prognosebereich zum Niveau \(\alpha\) für \(Y\),

$$\displaystyle\mathrm{P}\left(Y\in A\left(\theta\right)\right)\geq 1-\alpha,$$

dann ist die Menge aller \(\theta\), für welche \(y\in A\left(\theta\right)\) gilt,

$$\displaystyle K\left(y\right)=\left\{\theta\,|\,y\in A\left(\theta\right)\right\}$$

ein Konfidenzbereich für \(\theta\) zum Niveau \((1-\alpha)\). Kurz

$$\displaystyle y\in A\left(\theta\right)\quad\Leftrightarrow\quad\theta\in K\left(y\right).$$

Konfidenzintervalle lassen sich leicht konstruieren, wenn man eine Pivotvariable besitzt.

Pivotvariable

Es sei \(Y\) eine zufällige Variable, deren Verteilung vom unbekannten Parameter \(\theta\) abhängt. Dann heißt eine von \(Y\) und \(\theta\) abhängende Variable

$$\displaystyle V=V(Y;\theta)$$

eine Pivotvariable, wenn die Verteilung von \(V(Y;\theta)\) vollständig bekannt ist.

1.8 Im Normalverteilungsmodell ist bei unbekanntem \(\sigma\) der studentisierte Mittelwert eine Pivotvariable

Der studentisierte Mittelwert ist t-verteilt

Sind \(X_{1},\ldots,X_{n}\) i.i.d. \(\mathrm{N}\left(\mu;\sigma^{2}\right)\), dann besitzt

$$\displaystyle\frac{\overline{X}-\mu}{\widehat{\sigma}_{\mathrm{UB}}}\sqrt{n}$$

eine t-Verteilung mit \(\left(n-1\right)\) Freiheitsgraden.

1.9 Der standardisierte Maximum-LikelihoodSchätzer ist asymptotisch eine Pivotvariable

Das angenäherte Konfidenzintervall im Binomialmodell

Wird die Binomialverteilung durch die Normalverteilung approximiert und werden kleinere Terme vernachlässigt, ist

$$\displaystyle|\theta-\widehat{\theta}|\leq\tau_{1-\alpha/2}^{\ast}\sqrt{\frac{\widehat{\theta}(1-\widehat{\theta})}{n}}$$

ein zweiseitiges Konfidenzintervall für \(\theta\) zum Niveau \(1- \alpha\).

1.10 Die Konfidenzprognosemenge gibt ein anschauliches Bild aller Konfidenzbereiche

Die Konfidenzprognosemenge

Ist \(Y\) eine zufällige Variable, deren Verteilung vom unbekannten Parameter \(\theta\) abhängt, und \(A\left(\theta\right)\) der Prognosebereich sowie \(K(y)\) der zugehörige Konfidenzbereich zum Niveau \(1-\alpha\), dann heißt

$$\displaystyle\left\{\left(y,\theta\right)\,|\,y\in A\left(\theta\right)\right\}=\left\{\left(y,\theta\right)\,|\,\theta\in K\left(y\right)\right\}$$

Konfidenzprognosemenge zum Niveau \(1-\alpha\).

1.11 Ein Test ist eine Entscheidung über die Gültigkeit einer Hypothese

Die Grundbegriffe der Testtheorie sind Prüfgröße, Annahmebereich und kritische Region, Null- und Alternativhypothese, Signifikanzniveau, Fehler 1. und 2. Art sowie die Gütefunktion.

1.12 Vor dem Test sind das Modell, die Nullhypothese und die Alternative festzulegen

Das Modell und die beiden Hypothesen

  • Das Grundmodell ist die Präzisierung des nicht bezweifelten Vorwissens.

  • Die Nullhypothese \(H_{0}\) ist die Präzisierung der angezweifelten Aussage, über deren Richtigkeit eine Entscheidung zu fällen ist.

  • Die Alternativhypothese oder kurz die Alternative \(H_{1}\) sagt: Was gilt, wenn \(H_{0}\) falsch ist?

1.13 Die Prüfgröße des Tests liegt entweder im Annahmebereich oder in der kritischen Region

Liegt die Prüfgröße in der kritischen Region, wird \(H_{0}\) abgelehnt.

Dualität von Konfidenzintervall und Testfamilie

\(y\) liegt genau dann im Annahmebereich des Tests der Nullhypothese \(H_{0}\): „\(\theta=\theta_{0}\)“, wenn bei gegebenem \(y\) der Parameter \(\theta_{0}\) im dualen Konfidenzintervall für \(\theta\) liegt.

1.14 Die fälschliche Ablehnung der richtigen Nullhypothese ist der Fehler 1. Art

Das Signifikanzniveau \(\alpha\) ist die Wahrscheinlichkeit des Fehlers 1. Art.

Definition der Gütefunktion

Die Gütefunktion \(g\left(\theta\right)\) ist die Wahrscheinlichkeit der Ablehnung der Nullhypothese als Funktion von \(\theta\),

$$\displaystyle g\left(\theta\right)=\mathrm{P}\left(H_{1}\,\|\,\theta\right)=\mathrm{P}\left(\text{,,}PG\in KR\text{``}\,\|\,\theta\right).$$

Der t-Test prüft die Hypothesen über den Erwartungswert \(\mu\) im Normalverteilungsmodell. Der Binomialtest prüft Hypothesen über \(\theta\) im Binomialverteilungsmodell.

Bonusmaterial

Im Bonusmaterial streifen wir kurz die Stichprobentheorie und betrachten Eigenschaften geschichteter Stichproben. Wir konstruieren Konfidenzintervalle für die Binomialverteilung. Dann behandeln wir die Schätztheorie aus einem ganz neuen Blickwinkel, nämlich die bayesianische Schätztheorie. Hier wird gefragt: Welche Schätzfunktion minimiert den Erwartungswert des Schadens einer Fehlschätzung? Dabei sind die relevanten Wahrscheinlichkeitsverteilungen die A-posteriori-Verteilungen auf der Basis von A-priori-Vorwissen und der Likelihood aus Stichproben. Schließlich vertiefen wir die Testtheorie und betrachten nichtparametrische Tests und das grundlegende Lemma von Neyman und Pearson.

Aufgaben

Die Aufgaben gliedern sich in drei Kategorien: Anhand der Verständnisfragen können Sie prüfen, ob Sie die Begriffe und zentralen Aussagen verstanden haben, mit den Rechenaufgaben üben Sie Ihre technischen Fertigkeiten und die Anwendungsprobleme geben Ihnen Gelegenheit, das Gelernte an praktischen Fragestellungen auszuprobieren.

Ein Punktesystem unterscheidet leichte Aufgaben •, mittelschwere •• und anspruchsvolle ••• Aufgaben. Lösungshinweise am Ende des Buches helfen Ihnen, falls Sie bei einer Aufgabe partout nicht weiterkommen. Dort finden Sie auch die Lösungen – betrügen Sie sich aber nicht selbst und schlagen Sie erst nach, wenn Sie selber zu einer Lösung gekommen sind. Ausführliche Lösungswege, Beweise und Abbildungen finden Sie auf der Website zum Buch.

Viel Spaß und Erfolg bei den Aufgaben!

3.1 Verständnisfragen

40.1

•  Es seien \(X_{1},\dots,X_{n}\) i.i.d.-gleichverteilt im Intervall \(\left[a,b\right]\). Wie sieht die Likelihood-Funktion \({L}\left(a,b\right)\) aus?

40.2

• Sie kaufen \(n\) Lose. Sie gewinnen mit dem ersten Los. Die restlichen \(n-1\) Lose sind Nieten. Wie groß ist die Likelihood von \(\theta\) der Wahrscheinlichkeit, mit einem Los zu gewinnen?

40.3

• Sie kaufen \(n\) Lose. Das erste Los ist eine Niete. Bei den restlichen Losen ist aber mindestens ein Gewinn dabei. Wie groß ist die Likelihood von \(\theta\) der Wahrscheinlichkeit, mit einem Los zu gewinnen?

40.4

• Bei einem Experiment zur Schätzung des Parameters \(\theta\) gehen Daten verloren. Sie können nicht mehr feststellen, ob \(X=x_{1}\) oder \(X=x_{2}\) beobachtet wurden. Wie groß ist \(L(\theta\,|\,x_{1}\text{ oder }x_{2})\)?

40.5

• Welche der folgenden Aussagen sind richtig?

  1. (a)

    Die Likelihood-Funktion hat stets genau ein Maximum.

  2. (b)

    Für die Likelihood-Funktion \(L\left(\theta\,|\,x\right)\) gilt stets \(0\leq L\left(\theta\,|\,x\right)\leq 1\).

  3. (c)

    Die Likelihood-Funktion \(L\left(\theta\,|\,x\right)\) kann erst nach Vorlage der Stichprobe berechnet werden.

40.6

• Der Ausschussanteil in einer laufenden Produktion sei \(\theta\). Es werden unabhängig voneinander zwei einfache Stichproben vom Umfang \(n_{1}\) bzw. \(n_{2}\) gezogen. Dabei seien \(x_{1}\) bzw. \(x_{2}\) schlechte Stücke getroffen worden. \(\theta\) wird jeweils geschätzt durch \(\widehat{\theta}_{\left(i\right)}=\frac{x_{i}}{n_{i}}\). Wie lassen sich beide Schätzer kombinieren?

40.7

•• Welche der folgenden Aussagen (a) bis (c) sind richtig:

  1. (a)

    Der Anteil \(\theta\) wird bei einer einfachen Stichprobe durch die relative Häufigkeit \(\widehat{\theta}\) in der Stichprobe geschätzt. Bei dieser Schätzung ist der MSE umso größer, je näher \(\theta\) an 0.5 liegt.

  2. (b)

    \(\overline{X}\) ist stets ein effizienter Schätzer für \(\mathrm{E}(X)\).

  3. (c)

    Eine nichtideale Münze zeigt „Kopf“ mit Wahrscheinlichkeit \(\theta\). Sie werfen die Münze ein einziges Mal und schätzen

    $$\displaystyle\widehat{\theta}=\begin{cases}1,&\text{falls die M{\"u}nze ,,Kopf`` zeigt.}\\ 0,&\text{falls die M{\"u}nze ,,Zahl`` zeigt.}\end{cases}$$

    Dann ist diese Schätzung erwartungstreu.

40.8

•• Das Gewicht \(\mu\) eines Briefes liegt zwischen 10 und 20 Gramm. Um \(\mu\) zu schätzen, haben Sie zwei Alternativen:

  1. (a)

    Sie schätzen \(\mu\) durch \(\widehat{\mu}_{1}=15\).

  2. (b)

    Sie lesen das Gewicht \(X\) auf einer ungenauen Waage ab und schätzen \(\widehat{\mu}_{2}=X\). Dabei ist \(\mathrm{E}(X)=\mu\) und \(\mathop{\mathrm{Var}}(X)=36\).

Welche Schätzung hat den kleineren MSE?

Nun müssen Sie das Gesamtgewicht von 100 derartigen Briefen mit von einander unabhängigen Gewichten abschätzen. Wieder haben Sie die Alternative: \(\widehat{\mu}_{1}=15\cdot 100\) oder \(\widehat{\mu}_{2}=\sum X_{i}\). Welche Schätzung hat den kleineren MSE?

40.9

•• Es sei \(X\) binomialverteilt: \(X\sim B_{n}\left(\theta\right)\). Was sind die ML-Schätzer von \(\mathrm{E}\left(X\right)\) und \(\mathop{\mathrm{Var}}\left(X\right)\) und wie groß ist der Bias von \(\widehat{\mu}\) und von \(\widehat{\sigma^{2}}\). Warum geht der Bias von \(\widehat{\sigma^{2}}\) nicht mit wachsendem \(n\) gegen 0?

40.10

• Bei einer einfachen Stichprobe vom Umfang \(n\) wird \(\sigma^{2}\) erwartungstreu durch die Stichprobenvarianz \(\widehat{\sigma_{\mathrm{UB}}^{2}}\) geschätzt. Wird dann auch \(\sigma\) erwartungstreu durch \(\widehat{\sigma}\) geschätzt?

40.11

•• Welche der folgenden Aussagen von (a) bis (d) sind richtig:

  1. (a)

    Erwartungstreue Schätzer haben stets einen kleineren MSE als nicht erwartungstreue Schätzer.

  2. (b)

    Effiziente Schätzer haben stets einen kleineren MSE als nichteffiziente Schätzer.

  3. (c)

    Mit wachsendem Stichprobenumfang konvergiert jede Schätzfunktion nach Wahrscheinlichkeit gegen den wahren Parameter.

  4. (d)

    Ist \(X\) in \(\left[a,b\right]\) gleichverteilt, dann sind \(\min X_{i}\) und \(\max\) \(X_{i}\) suffiziente Statistiken.

40.12

• Sie schätzen aus einer einfachen Stichprobe \(\widehat{\mu}=\overline{\boldsymbol{Y}}\). Wie schätzen Sie \(\mu^{2}\) und wie groß ist der Bias der Schätzung?

40.13

•• Welche der folgenden Aussagen von (a) bis (c) ist richtig:

  1. (a)

    Es sei \(10\leq\mu\leq 20\) ein Konfidenzintervall für \(\mu\) zum Niveau \(1-\alpha=0.95\). Dann liegt \(\mu\) mit hoher Wahrscheinlichkeit zwischen 10 und 20.

  2. (b)

    Für den Parameter \(\mu\) liegen zwei Konfidenzintervalle vor, die jeweils zum Niveau \(1-\alpha=0.90\) aus unabhängigen Stichproben gewonnen wurden und zwar \(10\leq\mu\leq 20\) und \(15\leq\mu\leq 25\). Dann ist \(\ 15\leq\mu\leq 20\) ein Konfidenzintervall zum Niveau \(0.9^{2}\).

  3. (c)

    Wird bei gleichem Testniveau \(\alpha\) der Stichprobenumfang vervierfacht, so halbiert sich die Wahrscheinlichkeit für den Fehler 2. Art.

40.14

••• Ein nichtidealer Würfel werfe mit Wahrscheinlichkeit \(\theta\) eine Sechs. Sie werfen mit dem Würfel unabhängig voneinander solange, bis zum ersten Mal Sechs erscheint. Nun wiederholen Sie das Experiment \(k\)-mal. Dabei sei \(X_{i}\) die Anzahl der Würfe in der \(i\)-ten Wiederholung. Insgesamt haben Sie \(n=\sum_{i=1}^{k}X_{i}\) Würfe getan.

In einem zweiten Experiment werfen Sie von vornherein den Würfel \(n\)-mal und beobachten \(X=k\) mal die Sechs. Vergleichen Sie die Likelihoods in beiden Fällen. Welche Schlussfolgerungen ziehen daraus? Ziehen wir aus der gleichen Information gleiche Schlüsse?

3.2 Rechenaufgaben

40.15

••• Beweisen Sie mithilfe der Markov-Ungleichung die Aussage: Ein \(\widehat{\theta}^{\left(n\right)}\), dessen Mean Square Error MSE gegen null konvergiert, ist konsistent.

40.16

••• Es sei \(X\) exponentialverteilt. \(\ X\sim\mathrm{ExpV}(\lambda)\). Zeigen Sie: Ein erwartungstreuer Schätzer \(\widehat{\lambda}> 0\) für \(\lambda\) existiert nicht. \(\frac{1}{X}\) ist asymptotisch erwartungstreu, dabei ist \(\mathrm{E}\big(\frac{1}{X}\big)\geq\lambda.\)

40.17

• Die Zufallsvariablen \(Y_{1},Y_{2},\ldots,Y_{n}\) seien i.i.d.-\({\mathrm{N}}(\mu;\sigma^{2})\)-verteilt. Weiter sei \(Q\) eine Abkürzung für

$$\displaystyle Q=\sum_{i=1}^{n}(Y_{i}-\overline{Y})^{2}.$$

Zeigen Sie: \(\widehat{\sigma}_{\mathrm{UB}}^{2}=\frac{Q}{n-1}\), \(\widehat{\sigma}_{\mathrm{ML}}^{2}=\frac{Q}{n}\) und \(\widehat{\sigma}_{\mathrm{MSE}}^{2}=\frac{Q}{n+1}\) sind konsistente Schätzer für \(\sigma^{2}\). Dabei ist allein \(\widehat{\sigma}_{\mathrm{UB}}^{2}\) erwartungstreu. Weiter gilt

$$\displaystyle\text{MSE}(\widehat{\sigma}_{\mathrm{UB}}^{2})> \text{MSE}(\widehat{\sigma}_{\mathrm{ML}}^{2})> \text{MSE}(\widehat{\sigma}_{\mathrm{MSE}}^{2}).$$

40.18

••• Die Dichte der Zufallsvariable \(Z\) sei eine Mischung von zwei Normalverteilungen:

$$\begin{aligned}\displaystyle f(z\,\|\,\mu;\sigma)=\frac{1}{2\sqrt{2\pi}\sigma}\exp\biggl({-\frac{(z-\mu)^{2}}{2\sigma^{2}}}\biggr)+\frac{1}{2\sqrt{2\pi}}\exp\biggl({-\frac{z^{2}}{2}}\biggr).\end{aligned}$$

Dabei sind \(\mu\) und \(\sigma> 0\) unbekannt. Zeigen Sie: Sind \(Z_{1},\dots,Z_{n}\) i.i.d.-verteilt wie \(Z,\) und werden ihre Realisationen \(z_{1},\dots,z_{n}\) beobachtet, dann lässt sich aus ihnen kein ML-Schätzer für \(\mu\) und \(\sigma\) konstruieren.

40.19

••• Bei einer Messung positiver Werte seien die Messungen normalverteilt mit konstantem bekannten Variationskoeffizient \(\gamma\), also mit bekannter relativer Genauigkeit. Bei einer einfachen Stichprobe liegen die Messwerte \(x_{1},\ldots,x_{n}\) vor. Nehmen Sie an, dass die \(X_{i}\) i.i.d.-N\(\left(\mu;\sigma^{2}\right)\)-verteilt sind mit \(\mu> 0\). Wie groß sind die ML-Schätzer \(\widehat{\mu}\) und \(\widehat{\sigma}\)?

40.20

••  Ein nichtidealer Würfel werfe mit Wahrscheinlichkeit \(\theta\) eine Sechs. Sie werfen mit dem Würfel unabhängig voneinander solange, bis zum ersten Mal Sechs erscheint. Bestimmen Sie daraus ein Konfidenzintervall für \(\theta\). Wie sieht das Intervall für ein \(\alpha=5\,\%\) aus, wenn dies nach dem sechsten Wurf zuerst geschieht.

40.21

•••  Der ML-Schätzer für \(\theta\) bei der geometrischen Verteilung ist \(\widehat{\theta}_{\mathrm{ML}}=\frac{1}{k}\). Bestimmen Sie \(\mathrm{E}(\widehat{\theta}_{\mathrm{ML}})\). Bestimmen Sie den einzigen erwartungtreuen Schätzer. Ist dieser Schätzer sinnvoll?

40.22

••• Es seien \(X_{1},\ldots,X_{n}\) im Intervall \(\left[0,\theta\right]\) i.i.d.-gleichverteilt.

  1. (a)

    Bestimmen Sie den ML-Schätzer für \(\theta\) und daraus einen erwartungstreuen Schätzer für \(\theta\).

  2. (b)

    Hat der ML-Schätzer oder der erwartungstreue Schätzer den kleineren MSE?

  3. (c)

    Bestimmen Sie ein Konfidenzintervall für \(\theta\) zum Niveau \(1- \alpha\).

3.3 Anwendungsprobleme

40.23

• Biologen stehen oft vor der Aufgabe, die Anzahl von freilebenden Tieren in einer festgelegten Umgebung abzuschätzen. Bei Capture-Recapture-Schätzungen wird ein Teil der Tiere gefangen, markiert und wieder ausgesetzt. Nach einer Weile, wenn sich die Tiere wieder mit den anderen vermischt haben und ihr gewohntes Leben wieder aufgenommen haben, werden erneut einige Tiere gefangen. Es seien \(N\) Fische im Teich und \(m\) Fische markiert worden. Es sei \(Y\) die Anzahl der markierten Fische, die bei einer zweiten Stichprobe von insgesamt \(n\) gefangenen Fischen gefunden wurden. Was ist der ML-Schätzer von \(N\)?

40.24

••• Bei der Suche nach medizinisch wirksamen Substanzen werden 1000 von Wissenschaftlern gesammelte Pflanzen auf ihre Wirksamkeit getestet. Dabei bedeute \(\mu=0\) Wirkungslosigkeit und \(\mu\neq 0\) potenzielle Wirksamkeit. Das Testniveau sei \(\alpha=10\,\%.\) Falls alle Pflanzen in Wirklichkeit wirkungslos sind, wie groß ist mit hoher Wahrscheinlichkeit der Anteil der Pflanzen, denen fälschlicherweise Wirksamkeit unterstellt wird:

  1. (a)

    unbekannt.

  2. (b)

    genau 10 %

  3. (c)

    zwischen 8 und 12 %.

Der größte Schaden für das Unternehmen besteht darin, wenn wirksame Pflanzen übersehen werden. Wie können Sie diese Problem durch geeignete Wahl der Hypothesen, des Niveaus und des Stichprobenumfangs lösen?

40.25

••• Betrachten wir eine Produktion, bei der ein Zuschlagsstoff ein Sollgewicht von \(\mu_{0}=5\) kg nicht überschreiten darf. Durch eine Kontrollstichprobe \(Y_{1},\ldots,Y_{n}\) soll der Sollwert geprüft werden. Welche Hypothese ist zu testen. Wie groß muss \(n\) sein, wenn der Fehler 1. Art höchsten 5 % und der Fehler 2. Art höchstens 10 % sein darf falls \(\mu\) 4,17 ist? Nehmen Sie dabei an, die \(Y_{i}\) seien i.i.d. \(\mathrm{N}(\mu;4)\). Zeichnen Sie die Gütefunktion des Tests.

40.26

••• 30 % der Patienten, die an einer speziellen Krankheit erkrankt sind, reagieren positiv auf ein von der Krankenschwester verabreichtes Placebo. Bei einem Experiment mit 20 Patienten soll überprüft werden, ob sich die Wirkung des Placebos ändert, wenn es vom Oberarzt überreicht wird. Welche Hypothesen testen Sie? Wie sieht bei einem \(\alpha=5\,\%\) der Annahmebereich aus? Mit welchem \(\alpha\) arbeiten Sie wirklich?

Antworten der Selbstfragen

Antwort 1

Der zweidimensionale Parameter ist \(\theta=\left(\mu,\sigma\right)\). Der Parameterraum im weitestens Sinn ist \(\mathbb{R}\times\mathbb{R}_{+}\), der wahre Parameter \(\theta_{0}=\left(\mu_{0},\sigma_{0}\right)\) könnte zum Beispiel \(\mu_{0}=500\) und \(\sigma_{0}=1\) sein.

Antwort 2

Es ist \(\mathrm{P}(Y=2\,\|\,\lambda)=\frac{\lambda^{2}}{2!}\mathrm{e}^{-\lambda}\). Da wir die Konstante \(\frac{1}{2!}\) ignorieren können, ist

$$\displaystyle L(\lambda\,|\,Y=2)=\lambda^{2}\mathrm{e}^{-\lambda}.$$

Antwort 3

Es ist \(\mathrm{E}\left(Y\right)=n\theta\) und \(\mathop{\mathrm{Var}}\left(Y\right)=n\theta\left(1-\theta\right)\). Daher ist \(\widehat{\mu}=n\cdot 0.2\) und \(\widehat{\sigma^{2}}=\widehat{\sigma}^{2}=n\cdot 0.2\cdot 0.8\).

Antwort 4

Ja. Die Verteilung der \(Y_{i}\) spielt keine Rolle, solange die \(Y_{i}\) nur einen Erwartungswert besitzen, denn \(\mathrm{E}\left(\widehat{\mu}\right)=\mathrm{E}\left(\overline{Y}\right)=\frac{1}{n}\sum_{i=1}^{n}\mathrm{E}\left(Y_{i}\right)=\frac{1}{n}\sum_{i=1}^{n}\mu=\mu\).

Antwort 5

a) Ja, denn

$$\displaystyle\mathrm{P}(Y=\mu+1\,\|\,\mu)=\mathrm{P}(Y=\mu-1\,\|\,\mu)=0.5.$$

Daher ist

$$\displaystyle\mathrm{E}\left(Y\right)=\frac{1}{2}\left(\mu+1\right)+\frac{1}{2}\left(\mu-1\right)=\mu.$$

Obwohl wir mit Sicherheit wissen, dass das angezeigte Gewicht \(Y\) falsch ist, ist \(Y\) erwartungstreu.

b) Nein. Der Erwartungswert macht nur alle linearen Transformationen mit. Die Wurzelfunktion ist nichtlinear. Daher ist

$$\displaystyle\mathrm{E}\left(\widehat{\sigma}_{\mathrm{UB}}\right)\neq\sqrt{\mathrm{E}\left(\widehat{\sigma}_{\mathrm{UB}}^{2}\right)}=\sqrt{\sigma^{2}}.$$

Antwort 6

\(\widehat{\theta}_{17}\) ist nicht erwartungstreu.

Antwort 7

Nein. Die Normalverteilung ist symmetrisch. Liegt das wahre \(\mu\) genau auf der oberen Grenze des Annahmebereichs, so liegen genau 50 % der Realisationen links und 50 % rechts davon. Der linke „Schwanz“ der Dichtefunktion ragt zwar noch über den linken Rand des Annahmebereich hinaus, die sich dort noch befindliche Wahrscheinlichkeitsmasse ist aber sehr klein und kann vernachlässigt werden.

Antwort 8

Die Gütefunktion ist eine Konstante \(g\left(\theta\right)=\alpha\). Denn unabhängig davon, welche Hypothese getestet und welcher Parameter wahr ist, es wird stets mit Wahrscheinlichkeit \(\alpha\) abgelehnt.

Rights and permissions

Reprints and permissions

Copyright information

© 2018 Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Arens, T., Hettlich, F., Karpfinger, C., Kockelkorn, U., Lichtenegger, K., Stachel, H. (2018). Schätz- und Testtheorie – Bewerten und Entscheiden. In: Mathematik. Springer Spektrum, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-56741-8_40

Download citation

  • DOI: https://doi.org/10.1007/978-3-662-56741-8_40

  • Published:

  • Publisher Name: Springer Spektrum, Berlin, Heidelberg

  • Print ISBN: 978-3-662-56740-1

  • Online ISBN: 978-3-662-56741-8

  • eBook Packages: Life Science and Basic Disciplines (German Language)

Publish with us

Policies and ethics