Zusammenfassung
In der Wahrscheinlichkeitstheorie bewegen wir uns im gesicherten Rahmen eines mathematischen Modells. Nun treten wir hinaus in die nichtmathematische Realität. Hier stürmen unzählige Fragen und Probleme auf uns ein.
Angenommen, Sie gehen auf einen Trödelmarkt und sehen einen alten Stuhl aus einem glatten roten Holz. Sie fragen sich: Wie alt wird der Stuhl wohl sein? Ist das Holz Mahagoni? Handelt es sich um einen Nachbau oder ist er ein Original? Wird er meinem Freund gefallen, mit dem ich die Wohnung teile?
Angenommen, Sie fahren Ihren Wagen zum TÜV, dort wird unter anderem geprüft: Wie groß ist der Abgaswert? Werden die Grenzwerte eingehalten? Wird das Auto bis zur nächsten Untersuchung noch fahrtüchtig bleiben?
Diese Fragen sind einerseits Schätzungen. Hier wird die Größe eines unbekannten Parameters erfragt: Alter eines Möbels, Bremskraft und Abgaswerte eines PKW. Bei einem Test andererseits muss eine Entscheidung getroffen werden, ob ein Annahme akzeptiert werden kann oder nicht: Fahrtüchtig oder nicht? Mahagoni oder nicht? Nachbau oder Original?
Bei einer Prognose machen wir eine Aussage über ein zukünftiges Ereignis: Morgen wird es wahrscheinlich regnen! Dem Freund wird der Stuhl gefallen! Die Brücke wird der Belastung standhalten!
In diesem Kapitel legen wir die Grundlagen für Schätzungen, Prognosen und Tests. Dabei werden wir reale Beobachtungen in ein mathematisches Modell einbetten und dort mithilfe der axiomatischen Wahrscheinlichkeitstheorie Schlüsse ziehen und diese wieder in die Realität rückübertragen.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Author information
Authors and Affiliations
Corresponding author
Appendices
Zusammenfassung
Die zentralen Grundbegriffe aus diesem Kapitel sind Modell, Zufallsstichprobe, Likelihood, Konfidenzbereich und Test.
1.1 Das statistische Modell legt eine Familie von Wahrscheinlichkeitsverteilungen fest
Das Modell soll auf einer Zufallsstichprobe aufbauen. Dabei hat jedes Element der Grundgesamtheit eine angebbare, von null verschiedene Wahrscheinlichkeit, in die Auswahl zu gelangen. Bei einer reinen Zufallsstichprobe haben alle gleichgroßen Teilmengen der Grundgesamtheit dieselbe Wahrscheinlichkeit, dass ihre Elemente in die Auswahl gelangen.
1.2 Die Likelihood-Funktion misst die Plausibilität eines Parameters im Licht der Beobachtung
Die Likelihood-Funktion
Gegeben sei ein Wahrscheinlichkeitsmodell, in dem die Wahrscheinlichkeiten der Ereignisse von einem Parameter \(\theta\in\Theta\) abhängen. Das Ereignis \(A\) sei eingetreten. Innerhalb des Modells besitze \(A\) die Wahrscheinlichkeit \(\mathrm{P}(A\,\|\,\theta)> 0\). Dann heißt
die Likelihood-Funktion von \(\theta\) bei gegebener Beobachtung \(A\). Ist \(Y\) eine stetige, zufällige Variable mit der Dichte \(f\left(\left.y\right\|\theta\right)\), so ist die Likelihood-Funktion von \(\theta\) bei beobachtetem \(Y=y\)
Dabei sind \(c\left(A\right)\) und \(c\left(y\right)\) beliebige, nicht von \(\theta\) abhängende Konstante.
Interpretation des Likelihood-Quotienten
Sind \(\theta_{1}\) und \(\theta_{2}\) zwei konkurrierende Parameter des Modells, so ist \(\theta_{1}\) um so plausibler als \(\theta_{2}\), je größer der Likelihood-Quotient ist. Er ist ein relatives Maß für die Plausibilität der Parameter \(\theta_{1}\) und \(\theta_{2}\) im Licht der Beobachtung \(A\).
1.3 Die Likelihood enthält die gesamte im Ereignis \(A\) enthaltene Information über den Parameter \(\theta\)
Der Suffizienzbegriff
Eine Funktion \(T\left(\boldsymbol{X}\right)=T\left(X_{1},X_{2},\ldots,X_{n}\right)\) heißt suffizient für \(\theta\), wenn die Likelihood von \(\theta\) nur von \(T\left(\boldsymbol{X}\right)\) abhängt
1.4 Der Maximum-Likelihood-Schätzer ist der Parameterwert, an dem die Likelihood ihr Maximum annimmt
Der Maximum-Likelihood-Schätzer macht alle Transformationen mit
Ist \(\gamma=\gamma\left(\theta\right)\) bzw. \(\theta=\theta\left(\gamma\right)\) eine eineindeutige Abbildung der Parametermenge \(\Theta\) auf die Parametermenge \(\Gamma\) und ist \(\widehat{\theta}\) der Maximum-Likelihood-Schätzer von \(\theta\), so ist
1.5 Gütekriterien für Schätzer bewerten die Eigenschaften der Wahrscheinlichkeitsverteilung der Schätzfunktion
Die wichtigsten Kriterien einer Schätzfunktion sind der Bias, die Varianz und der Mean Square Error (MSE) sowie das asymptotische Verhalten für große \(n\). Dabei heißt \(\widehat{\theta}^{\left(n\right)}\) asymptotisch erwartungstreu, falls \(\lim_{n\rightarrow\infty}\mathrm{E}(\widehat{\theta}^{\left(n\right)})=\theta\) ist, und konsistent, wenn \(\lim_{n\rightarrow\infty}\widehat{\theta}^{\left(n\right)}=\theta\) gilt. Dabei ist der letzte Grenzwert im Sinne der schwachen Konvergenz oder Konvergenz nach Wahrscheinlichkeit zu verstehen.
Ungleichung von Rao-Cramer
Sind \(Y_{1},\ldots,Y_{n}\) i.i.d.-zufällige Variable, deren Verteilung von \(\theta\) abhängt, und ist \(\widehat{\theta}^{(n)}=\widehat{\theta}(Y_{1};\ldots;Y_{n})\) eine erwartungstreue Schätzung für \(\theta\), so ist unter schwachen mathematischen Regularitätsbedingungen
Dabei hängt \(\mathrm{RC}\), die Schranke von Rao-Cramer, weder vom Schätzer noch vom Stichprobenumfang, sondern allein vom Wahrscheinlichkeitsmodell ab.
Maximum-Likelihood-Schätzer stellen die höchsten Anforderungen an Modell und Vorwissen, da die Verteilung der beteiligten Zufallsvariablen bis auf den unbekannten Parameter bekannt sein muss. Sie haben dafür aber auch optimale Eigenschaften.
Optimalität des Maximum-Likelihood-Schätzers
Unter schwachen mathematischen Regularitätsbedingungen an die Likelihood gilt: Sind \(Y_{1},\dots,Y_{n}\) i.i.d., so ist \(\widehat{\theta}^{\left(n\right)}\) konsistent, asymptotisch normalverteilt, asymptotisch effizient und asymptotisch erwartungstreu.
Punktschätzer sind präzise, aber man kann keine Aussage darüber machen, wie verlässlich sie sind. Intervallschätzer gehen genau den entgegengesetzten Weg, sie machen unscharfe Aussagen mit angebbarer Verlässlichkeit.
1.6 Eine Prognose ist eine Aussage über das Eintreten eines zufälligen Ereignisses
Prognosebereich
Jeder Bereich \(B\) mit \(\mathrm{P}\left(Y\in B\right)\geq 1-\alpha\) heißt Prognosebereich für \(Y\) und \(Y\in B\) eine Prognose über \(Y\) zum Niveau \(1-\alpha\).
1.7 Die Konfidenzstrategie: Eine nicht verifizierbare Prognose wird für wahr erklärt
Die Konfidenzstrategie
Gegeben sei die zufällige Variable \(Y\), deren Verteilung vom unbekannten Parameter \(\theta\) abhängt. Ist \(A\left(\theta\right)\) ein \((1-\alpha)\)-Prognosebereich zum Niveau \(\alpha\) für \(Y\),
dann ist die Menge aller \(\theta\), für welche \(y\in A\left(\theta\right)\) gilt,
ein Konfidenzbereich für \(\theta\) zum Niveau \((1-\alpha)\). Kurz
Konfidenzintervalle lassen sich leicht konstruieren, wenn man eine Pivotvariable besitzt.
Pivotvariable
Es sei \(Y\) eine zufällige Variable, deren Verteilung vom unbekannten Parameter \(\theta\) abhängt. Dann heißt eine von \(Y\) und \(\theta\) abhängende Variable
eine Pivotvariable, wenn die Verteilung von \(V(Y;\theta)\) vollständig bekannt ist.
1.8 Im Normalverteilungsmodell ist bei unbekanntem \(\sigma\) der studentisierte Mittelwert eine Pivotvariable
Der studentisierte Mittelwert ist t-verteilt
Sind \(X_{1},\ldots,X_{n}\) i.i.d. \(\mathrm{N}\left(\mu;\sigma^{2}\right)\), dann besitzt
eine t-Verteilung mit \(\left(n-1\right)\) Freiheitsgraden.
1.9 Der standardisierte Maximum-LikelihoodSchätzer ist asymptotisch eine Pivotvariable
Das angenäherte Konfidenzintervall im Binomialmodell
Wird die Binomialverteilung durch die Normalverteilung approximiert und werden kleinere Terme vernachlässigt, ist
ein zweiseitiges Konfidenzintervall für \(\theta\) zum Niveau \(1- \alpha\).
1.10 Die Konfidenzprognosemenge gibt ein anschauliches Bild aller Konfidenzbereiche
Die Konfidenzprognosemenge
Ist \(Y\) eine zufällige Variable, deren Verteilung vom unbekannten Parameter \(\theta\) abhängt, und \(A\left(\theta\right)\) der Prognosebereich sowie \(K(y)\) der zugehörige Konfidenzbereich zum Niveau \(1-\alpha\), dann heißt
Konfidenzprognosemenge zum Niveau \(1-\alpha\).
1.11 Ein Test ist eine Entscheidung über die Gültigkeit einer Hypothese
Die Grundbegriffe der Testtheorie sind Prüfgröße, Annahmebereich und kritische Region, Null- und Alternativhypothese, Signifikanzniveau, Fehler 1. und 2. Art sowie die Gütefunktion.
1.12 Vor dem Test sind das Modell, die Nullhypothese und die Alternative festzulegen
Das Modell und die beiden Hypothesen
-
Das Grundmodell ist die Präzisierung des nicht bezweifelten Vorwissens.
-
Die Nullhypothese \(H_{0}\) ist die Präzisierung der angezweifelten Aussage, über deren Richtigkeit eine Entscheidung zu fällen ist.
-
Die Alternativhypothese oder kurz die Alternative \(H_{1}\) sagt: Was gilt, wenn \(H_{0}\) falsch ist?
1.13 Die Prüfgröße des Tests liegt entweder im Annahmebereich oder in der kritischen Region
Liegt die Prüfgröße in der kritischen Region, wird \(H_{0}\) abgelehnt.
Dualität von Konfidenzintervall und Testfamilie
\(y\) liegt genau dann im Annahmebereich des Tests der Nullhypothese \(H_{0}\): „\(\theta=\theta_{0}\)“, wenn bei gegebenem \(y\) der Parameter \(\theta_{0}\) im dualen Konfidenzintervall für \(\theta\) liegt.
1.14 Die fälschliche Ablehnung der richtigen Nullhypothese ist der Fehler 1. Art
Das Signifikanzniveau \(\alpha\) ist die Wahrscheinlichkeit des Fehlers 1. Art.
Definition der Gütefunktion
Die Gütefunktion \(g\left(\theta\right)\) ist die Wahrscheinlichkeit der Ablehnung der Nullhypothese als Funktion von \(\theta\),
Der t-Test prüft die Hypothesen über den Erwartungswert \(\mu\) im Normalverteilungsmodell. Der Binomialtest prüft Hypothesen über \(\theta\) im Binomialverteilungsmodell.
Bonusmaterial
Im Bonusmaterial streifen wir kurz die Stichprobentheorie und betrachten Eigenschaften geschichteter Stichproben. Wir konstruieren Konfidenzintervalle für die Binomialverteilung. Dann behandeln wir die Schätztheorie aus einem ganz neuen Blickwinkel, nämlich die bayesianische Schätztheorie. Hier wird gefragt: Welche Schätzfunktion minimiert den Erwartungswert des Schadens einer Fehlschätzung? Dabei sind die relevanten Wahrscheinlichkeitsverteilungen die A-posteriori-Verteilungen auf der Basis von A-priori-Vorwissen und der Likelihood aus Stichproben. Schließlich vertiefen wir die Testtheorie und betrachten nichtparametrische Tests und das grundlegende Lemma von Neyman und Pearson.
Aufgaben
Die Aufgaben gliedern sich in drei Kategorien: Anhand der Verständnisfragen können Sie prüfen, ob Sie die Begriffe und zentralen Aussagen verstanden haben, mit den Rechenaufgaben üben Sie Ihre technischen Fertigkeiten und die Anwendungsprobleme geben Ihnen Gelegenheit, das Gelernte an praktischen Fragestellungen auszuprobieren.
Ein Punktesystem unterscheidet leichte Aufgaben •, mittelschwere •• und anspruchsvolle ••• Aufgaben. Lösungshinweise am Ende des Buches helfen Ihnen, falls Sie bei einer Aufgabe partout nicht weiterkommen. Dort finden Sie auch die Lösungen – betrügen Sie sich aber nicht selbst und schlagen Sie erst nach, wenn Sie selber zu einer Lösung gekommen sind. Ausführliche Lösungswege, Beweise und Abbildungen finden Sie auf der Website zum Buch.
Viel Spaß und Erfolg bei den Aufgaben!
3.1 Verständnisfragen
40.1
• Es seien \(X_{1},\dots,X_{n}\) i.i.d.-gleichverteilt im Intervall \(\left[a,b\right]\). Wie sieht die Likelihood-Funktion \({L}\left(a,b\right)\) aus?
40.2
• Sie kaufen \(n\) Lose. Sie gewinnen mit dem ersten Los. Die restlichen \(n-1\) Lose sind Nieten. Wie groß ist die Likelihood von \(\theta\) der Wahrscheinlichkeit, mit einem Los zu gewinnen?
40.3
• Sie kaufen \(n\) Lose. Das erste Los ist eine Niete. Bei den restlichen Losen ist aber mindestens ein Gewinn dabei. Wie groß ist die Likelihood von \(\theta\) der Wahrscheinlichkeit, mit einem Los zu gewinnen?
40.4
• Bei einem Experiment zur Schätzung des Parameters \(\theta\) gehen Daten verloren. Sie können nicht mehr feststellen, ob \(X=x_{1}\) oder \(X=x_{2}\) beobachtet wurden. Wie groß ist \(L(\theta\,|\,x_{1}\text{ oder }x_{2})\)?
40.5
• Welche der folgenden Aussagen sind richtig?
-
(a)
Die Likelihood-Funktion hat stets genau ein Maximum.
-
(b)
Für die Likelihood-Funktion \(L\left(\theta\,|\,x\right)\) gilt stets \(0\leq L\left(\theta\,|\,x\right)\leq 1\).
-
(c)
Die Likelihood-Funktion \(L\left(\theta\,|\,x\right)\) kann erst nach Vorlage der Stichprobe berechnet werden.
40.6
• Der Ausschussanteil in einer laufenden Produktion sei \(\theta\). Es werden unabhängig voneinander zwei einfache Stichproben vom Umfang \(n_{1}\) bzw. \(n_{2}\) gezogen. Dabei seien \(x_{1}\) bzw. \(x_{2}\) schlechte Stücke getroffen worden. \(\theta\) wird jeweils geschätzt durch \(\widehat{\theta}_{\left(i\right)}=\frac{x_{i}}{n_{i}}\). Wie lassen sich beide Schätzer kombinieren?
40.7
•• Welche der folgenden Aussagen (a) bis (c) sind richtig:
-
(a)
Der Anteil \(\theta\) wird bei einer einfachen Stichprobe durch die relative Häufigkeit \(\widehat{\theta}\) in der Stichprobe geschätzt. Bei dieser Schätzung ist der MSE umso größer, je näher \(\theta\) an 0.5 liegt.
-
(b)
\(\overline{X}\) ist stets ein effizienter Schätzer für \(\mathrm{E}(X)\).
-
(c)
Eine nichtideale Münze zeigt „Kopf“ mit Wahrscheinlichkeit \(\theta\). Sie werfen die Münze ein einziges Mal und schätzen
$$\displaystyle\widehat{\theta}=\begin{cases}1,&\text{falls die M{\"u}nze ,,Kopf`` zeigt.}\\ 0,&\text{falls die M{\"u}nze ,,Zahl`` zeigt.}\end{cases}$$Dann ist diese Schätzung erwartungstreu.
40.8
•• Das Gewicht \(\mu\) eines Briefes liegt zwischen 10 und 20 Gramm. Um \(\mu\) zu schätzen, haben Sie zwei Alternativen:
-
(a)
Sie schätzen \(\mu\) durch \(\widehat{\mu}_{1}=15\).
-
(b)
Sie lesen das Gewicht \(X\) auf einer ungenauen Waage ab und schätzen \(\widehat{\mu}_{2}=X\). Dabei ist \(\mathrm{E}(X)=\mu\) und \(\mathop{\mathrm{Var}}(X)=36\).
Welche Schätzung hat den kleineren MSE?
Nun müssen Sie das Gesamtgewicht von 100 derartigen Briefen mit von einander unabhängigen Gewichten abschätzen. Wieder haben Sie die Alternative: \(\widehat{\mu}_{1}=15\cdot 100\) oder \(\widehat{\mu}_{2}=\sum X_{i}\). Welche Schätzung hat den kleineren MSE?
40.9
•• Es sei \(X\) binomialverteilt: \(X\sim B_{n}\left(\theta\right)\). Was sind die ML-Schätzer von \(\mathrm{E}\left(X\right)\) und \(\mathop{\mathrm{Var}}\left(X\right)\) und wie groß ist der Bias von \(\widehat{\mu}\) und von \(\widehat{\sigma^{2}}\). Warum geht der Bias von \(\widehat{\sigma^{2}}\) nicht mit wachsendem \(n\) gegen 0?
40.10
• Bei einer einfachen Stichprobe vom Umfang \(n\) wird \(\sigma^{2}\) erwartungstreu durch die Stichprobenvarianz \(\widehat{\sigma_{\mathrm{UB}}^{2}}\) geschätzt. Wird dann auch \(\sigma\) erwartungstreu durch \(\widehat{\sigma}\) geschätzt?
40.11
•• Welche der folgenden Aussagen von (a) bis (d) sind richtig:
-
(a)
Erwartungstreue Schätzer haben stets einen kleineren MSE als nicht erwartungstreue Schätzer.
-
(b)
Effiziente Schätzer haben stets einen kleineren MSE als nichteffiziente Schätzer.
-
(c)
Mit wachsendem Stichprobenumfang konvergiert jede Schätzfunktion nach Wahrscheinlichkeit gegen den wahren Parameter.
-
(d)
Ist \(X\) in \(\left[a,b\right]\) gleichverteilt, dann sind \(\min X_{i}\) und \(\max\) \(X_{i}\) suffiziente Statistiken.
40.12
• Sie schätzen aus einer einfachen Stichprobe \(\widehat{\mu}=\overline{\boldsymbol{Y}}\). Wie schätzen Sie \(\mu^{2}\) und wie groß ist der Bias der Schätzung?
40.13
•• Welche der folgenden Aussagen von (a) bis (c) ist richtig:
-
(a)
Es sei \(10\leq\mu\leq 20\) ein Konfidenzintervall für \(\mu\) zum Niveau \(1-\alpha=0.95\). Dann liegt \(\mu\) mit hoher Wahrscheinlichkeit zwischen 10 und 20.
-
(b)
Für den Parameter \(\mu\) liegen zwei Konfidenzintervalle vor, die jeweils zum Niveau \(1-\alpha=0.90\) aus unabhängigen Stichproben gewonnen wurden und zwar \(10\leq\mu\leq 20\) und \(15\leq\mu\leq 25\). Dann ist \(\ 15\leq\mu\leq 20\) ein Konfidenzintervall zum Niveau \(0.9^{2}\).
-
(c)
Wird bei gleichem Testniveau \(\alpha\) der Stichprobenumfang vervierfacht, so halbiert sich die Wahrscheinlichkeit für den Fehler 2. Art.
40.14
••• Ein nichtidealer Würfel werfe mit Wahrscheinlichkeit \(\theta\) eine Sechs. Sie werfen mit dem Würfel unabhängig voneinander solange, bis zum ersten Mal Sechs erscheint. Nun wiederholen Sie das Experiment \(k\)-mal. Dabei sei \(X_{i}\) die Anzahl der Würfe in der \(i\)-ten Wiederholung. Insgesamt haben Sie \(n=\sum_{i=1}^{k}X_{i}\) Würfe getan.
In einem zweiten Experiment werfen Sie von vornherein den Würfel \(n\)-mal und beobachten \(X=k\) mal die Sechs. Vergleichen Sie die Likelihoods in beiden Fällen. Welche Schlussfolgerungen ziehen daraus? Ziehen wir aus der gleichen Information gleiche Schlüsse?
3.2 Rechenaufgaben
40.15
••• Beweisen Sie mithilfe der Markov-Ungleichung die Aussage: Ein \(\widehat{\theta}^{\left(n\right)}\), dessen Mean Square Error MSE gegen null konvergiert, ist konsistent.
40.16
••• Es sei \(X\) exponentialverteilt. \(\ X\sim\mathrm{ExpV}(\lambda)\). Zeigen Sie: Ein erwartungstreuer Schätzer \(\widehat{\lambda}> 0\) für \(\lambda\) existiert nicht. \(\frac{1}{X}\) ist asymptotisch erwartungstreu, dabei ist \(\mathrm{E}\big(\frac{1}{X}\big)\geq\lambda.\)
40.17
• Die Zufallsvariablen \(Y_{1},Y_{2},\ldots,Y_{n}\) seien i.i.d.-\({\mathrm{N}}(\mu;\sigma^{2})\)-verteilt. Weiter sei \(Q\) eine Abkürzung für
Zeigen Sie: \(\widehat{\sigma}_{\mathrm{UB}}^{2}=\frac{Q}{n-1}\), \(\widehat{\sigma}_{\mathrm{ML}}^{2}=\frac{Q}{n}\) und \(\widehat{\sigma}_{\mathrm{MSE}}^{2}=\frac{Q}{n+1}\) sind konsistente Schätzer für \(\sigma^{2}\). Dabei ist allein \(\widehat{\sigma}_{\mathrm{UB}}^{2}\) erwartungstreu. Weiter gilt
40.18
••• Die Dichte der Zufallsvariable \(Z\) sei eine Mischung von zwei Normalverteilungen:
Dabei sind \(\mu\) und \(\sigma> 0\) unbekannt. Zeigen Sie: Sind \(Z_{1},\dots,Z_{n}\) i.i.d.-verteilt wie \(Z,\) und werden ihre Realisationen \(z_{1},\dots,z_{n}\) beobachtet, dann lässt sich aus ihnen kein ML-Schätzer für \(\mu\) und \(\sigma\) konstruieren.
40.19
••• Bei einer Messung positiver Werte seien die Messungen normalverteilt mit konstantem bekannten Variationskoeffizient \(\gamma\), also mit bekannter relativer Genauigkeit. Bei einer einfachen Stichprobe liegen die Messwerte \(x_{1},\ldots,x_{n}\) vor. Nehmen Sie an, dass die \(X_{i}\) i.i.d.-N\(\left(\mu;\sigma^{2}\right)\)-verteilt sind mit \(\mu> 0\). Wie groß sind die ML-Schätzer \(\widehat{\mu}\) und \(\widehat{\sigma}\)?
40.20
•• Ein nichtidealer Würfel werfe mit Wahrscheinlichkeit \(\theta\) eine Sechs. Sie werfen mit dem Würfel unabhängig voneinander solange, bis zum ersten Mal Sechs erscheint. Bestimmen Sie daraus ein Konfidenzintervall für \(\theta\). Wie sieht das Intervall für ein \(\alpha=5\,\%\) aus, wenn dies nach dem sechsten Wurf zuerst geschieht.
40.21
••• Der ML-Schätzer für \(\theta\) bei der geometrischen Verteilung ist \(\widehat{\theta}_{\mathrm{ML}}=\frac{1}{k}\). Bestimmen Sie \(\mathrm{E}(\widehat{\theta}_{\mathrm{ML}})\). Bestimmen Sie den einzigen erwartungtreuen Schätzer. Ist dieser Schätzer sinnvoll?
40.22
••• Es seien \(X_{1},\ldots,X_{n}\) im Intervall \(\left[0,\theta\right]\) i.i.d.-gleichverteilt.
-
(a)
Bestimmen Sie den ML-Schätzer für \(\theta\) und daraus einen erwartungstreuen Schätzer für \(\theta\).
-
(b)
Hat der ML-Schätzer oder der erwartungstreue Schätzer den kleineren MSE?
-
(c)
Bestimmen Sie ein Konfidenzintervall für \(\theta\) zum Niveau \(1- \alpha\).
3.3 Anwendungsprobleme
40.23
• Biologen stehen oft vor der Aufgabe, die Anzahl von freilebenden Tieren in einer festgelegten Umgebung abzuschätzen. Bei Capture-Recapture-Schätzungen wird ein Teil der Tiere gefangen, markiert und wieder ausgesetzt. Nach einer Weile, wenn sich die Tiere wieder mit den anderen vermischt haben und ihr gewohntes Leben wieder aufgenommen haben, werden erneut einige Tiere gefangen. Es seien \(N\) Fische im Teich und \(m\) Fische markiert worden. Es sei \(Y\) die Anzahl der markierten Fische, die bei einer zweiten Stichprobe von insgesamt \(n\) gefangenen Fischen gefunden wurden. Was ist der ML-Schätzer von \(N\)?
40.24
••• Bei der Suche nach medizinisch wirksamen Substanzen werden 1000 von Wissenschaftlern gesammelte Pflanzen auf ihre Wirksamkeit getestet. Dabei bedeute \(\mu=0\) Wirkungslosigkeit und \(\mu\neq 0\) potenzielle Wirksamkeit. Das Testniveau sei \(\alpha=10\,\%.\) Falls alle Pflanzen in Wirklichkeit wirkungslos sind, wie groß ist mit hoher Wahrscheinlichkeit der Anteil der Pflanzen, denen fälschlicherweise Wirksamkeit unterstellt wird:
-
(a)
unbekannt.
-
(b)
genau 10 %
-
(c)
zwischen 8 und 12 %.
Der größte Schaden für das Unternehmen besteht darin, wenn wirksame Pflanzen übersehen werden. Wie können Sie diese Problem durch geeignete Wahl der Hypothesen, des Niveaus und des Stichprobenumfangs lösen?
40.25
••• Betrachten wir eine Produktion, bei der ein Zuschlagsstoff ein Sollgewicht von \(\mu_{0}=5\) kg nicht überschreiten darf. Durch eine Kontrollstichprobe \(Y_{1},\ldots,Y_{n}\) soll der Sollwert geprüft werden. Welche Hypothese ist zu testen. Wie groß muss \(n\) sein, wenn der Fehler 1. Art höchsten 5 % und der Fehler 2. Art höchstens 10 % sein darf falls \(\mu\) 4,17 ist? Nehmen Sie dabei an, die \(Y_{i}\) seien i.i.d. \(\mathrm{N}(\mu;4)\). Zeichnen Sie die Gütefunktion des Tests.
40.26
••• 30 % der Patienten, die an einer speziellen Krankheit erkrankt sind, reagieren positiv auf ein von der Krankenschwester verabreichtes Placebo. Bei einem Experiment mit 20 Patienten soll überprüft werden, ob sich die Wirkung des Placebos ändert, wenn es vom Oberarzt überreicht wird. Welche Hypothesen testen Sie? Wie sieht bei einem \(\alpha=5\,\%\) der Annahmebereich aus? Mit welchem \(\alpha\) arbeiten Sie wirklich?
Antworten der Selbstfragen
Antwort 1
Der zweidimensionale Parameter ist \(\theta=\left(\mu,\sigma\right)\). Der Parameterraum im weitestens Sinn ist \(\mathbb{R}\times\mathbb{R}_{+}\), der wahre Parameter \(\theta_{0}=\left(\mu_{0},\sigma_{0}\right)\) könnte zum Beispiel \(\mu_{0}=500\) und \(\sigma_{0}=1\) sein.
Antwort 2
Es ist \(\mathrm{P}(Y=2\,\|\,\lambda)=\frac{\lambda^{2}}{2!}\mathrm{e}^{-\lambda}\). Da wir die Konstante \(\frac{1}{2!}\) ignorieren können, ist
Antwort 3
Es ist \(\mathrm{E}\left(Y\right)=n\theta\) und \(\mathop{\mathrm{Var}}\left(Y\right)=n\theta\left(1-\theta\right)\). Daher ist \(\widehat{\mu}=n\cdot 0.2\) und \(\widehat{\sigma^{2}}=\widehat{\sigma}^{2}=n\cdot 0.2\cdot 0.8\).
Antwort 4
Ja. Die Verteilung der \(Y_{i}\) spielt keine Rolle, solange die \(Y_{i}\) nur einen Erwartungswert besitzen, denn \(\mathrm{E}\left(\widehat{\mu}\right)=\mathrm{E}\left(\overline{Y}\right)=\frac{1}{n}\sum_{i=1}^{n}\mathrm{E}\left(Y_{i}\right)=\frac{1}{n}\sum_{i=1}^{n}\mu=\mu\).
Antwort 5
a) Ja, denn
Daher ist
Obwohl wir mit Sicherheit wissen, dass das angezeigte Gewicht \(Y\) falsch ist, ist \(Y\) erwartungstreu.
b) Nein. Der Erwartungswert macht nur alle linearen Transformationen mit. Die Wurzelfunktion ist nichtlinear. Daher ist
Antwort 6
\(\widehat{\theta}_{17}\) ist nicht erwartungstreu.
Antwort 7
Nein. Die Normalverteilung ist symmetrisch. Liegt das wahre \(\mu\) genau auf der oberen Grenze des Annahmebereichs, so liegen genau 50 % der Realisationen links und 50 % rechts davon. Der linke „Schwanz“ der Dichtefunktion ragt zwar noch über den linken Rand des Annahmebereich hinaus, die sich dort noch befindliche Wahrscheinlichkeitsmasse ist aber sehr klein und kann vernachlässigt werden.
Antwort 8
Die Gütefunktion ist eine Konstante \(g\left(\theta\right)=\alpha\). Denn unabhängig davon, welche Hypothese getestet und welcher Parameter wahr ist, es wird stets mit Wahrscheinlichkeit \(\alpha\) abgelehnt.
Rights and permissions
Copyright information
© 2018 Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature
About this chapter
Cite this chapter
Arens, T., Hettlich, F., Karpfinger, C., Kockelkorn, U., Lichtenegger, K., Stachel, H. (2018). Schätz- und Testtheorie – Bewerten und Entscheiden. In: Mathematik. Springer Spektrum, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-56741-8_40
Download citation
DOI: https://doi.org/10.1007/978-3-662-56741-8_40
Published:
Publisher Name: Springer Spektrum, Berlin, Heidelberg
Print ISBN: 978-3-662-56740-1
Online ISBN: 978-3-662-56741-8
eBook Packages: Life Science and Basic Disciplines (German Language)