Skip to main content

Schätzen und Testen

  • Chapter
  • First Online:
  • 2894 Accesses

Zusammenfassung

Die Schätzung von Verteilungsparametern und das Testen von Hypothesen gehören zum Gebiet der induktiven Statistik oder, wie man heute mehr und mehr sagt, der Inferenzstatistik. Die empirische Grundlage für jede statistische Arbeit bilden Daten, die meist Zufallsstichproben aus definierten Zielpopulationen sind. Methoden zur Beschreibung der Verteilung von Stichprobenwerten und des Zusammenhangs zwischen den Werten verschiedener Stichproben wurden bereits in den vorangehenden Kapiteln besprochen und werden im ersten Abschnitt dieses Kapitels weiter ergänzt. Die Datenbeschreibung ist meist nur der erste Schritt einer statistischen Auswertung, bei der es primär um Aussagen über die Zielpopulation geht. Diese gewinnt man, in dem man versucht, die in Stichproben festgestellten Ergebnisse und Sachverhalte auf die Zielpopulation zu übertragen oder Vermutungen über die Zielpopulation mit den Beobachtungsdaten zu bestätigen. Das zuerst genannte Ziel wird methodisch in der Parameterschätzung umgesetzt, das zweite im Rahmen von Testverfahren. Die Parameterschätzung (in den Abschn. 5.2 und 5.6.3) befasst sich mit der Schätzung des Mittelwerts und der Varianz einer normalverteilten Zufallsvariablen, mit der Schätzung des Anstiegs einer Regressionsgeraden sowie mit der Schätzung einer Wahrscheinlichkeit. Bei den Testverfahren (in den Abschn. 5.3, 5.5 und 5.6) geht es um Vergleiche mit Mittelwerten und Wahrscheinlichkeiten. Wie man die Annahme einer normalverteilten Zielpopulation überprüft, wird in Abschn. 5.4 ausgeführt.

This is a preview of subscription content, log in via an institution.

Buying options

Chapter
USD   29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD   34.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD   44.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Learn about institutional subscriptions

Notes

  1. 1.

    Die so definierten Quartile werden als Angelpunkte (engl. hinges) der Stichprobe bezeichnet. Man beachte, dass es auch andere Definitionen für die Quartile gibt, die zu geringfügig abweichenden Ergebnissen führen können.

  2. 2.

    Die Wahrscheinlichkeit, dass eine normalverteilte Zufallsvariable X einen Wert annimmt, der das obere Quartil um mehr als das 1.5-fache des Quartilabstandes übertrifft oder das untere Quartil um den gleichen Betrag unterschreitet, ist klein; sie beträgt ca. 0.7 % (vgl. Beispiel 2.23b). Wenn ein derartiger Wert auftritt, besteht daher der Verdacht, dass er durch einen unerwünschten Störfaktor verursacht wurde und es sich dabei um einen sogenannten „Ausreißer“ handelt.

  3. 3.

    Freedman, D., Diaconis, P.: On the histogram as a density estimator: L 2-theory. Z. f. Wahrscheinlichkeitstheorie u. verw. Gebiete 57, 453–476 (1981)

  4. 4.

    Ist X nicht normalverteilt, so „nähert“ sich nach dem zentralen Grenzwertsatz die Verteilung von \(\bar{X}_{n}\) mit wachsendem n einer Normalverteilung mit den durch (5.2) gegebenen Parametern.

  5. 5.

    Die Eigenschaft „erwartungstreu“ kann man anschaulich so umschreiben: Wählt man wiederholt Zufallsstichproben desselben Umfangs aus X aus und berechnet mit dem Stichprobenmittel Schätzwerte für \(\mu_{X}\), so stimmt das arithmetische Mittel dieser Schätzwerte umso besser mit \(\mu_{X}\) überein, je größer die Zahl der Wiederholungen ist.

  6. 6.

    Dagegen stimmt der Mittelwert \(\mu_{S_{n}}\) der Stichproben-Standardabweichung \(S_{n}=\sqrt{S^{2}_{n}}\) nicht mit der Standardabweichung \(\sigma_{X}\) der Grundgesamtheit überein. Vielmehr ist \(\mu_{S_{n}}=k_{n}\sigma_{X}\) mit \(k_{n}<1\). Z.B. ist \(k_{2}=0.7979\), \(k_{5}=0.9400\), \(k_{10}=0.9727\). Mit wachsendem n strebt k n gegen 1.

  7. 7.

    Wenn α zunimmt, wird \(1-\alpha/2\) kleiner und damit auch das Quantil \(z_{1-\alpha/2}\). Ein größeres α bedeutet ein kleineres Konfidenzniveau \(1-\alpha\), das in diesem Zusammenhang auch als Sicherheit der Schätzung bezeichnet wird.

  8. 8.

    Die Verteilung von \(\bar{X}^{*}_{n}\) wurde vom englischen Statistiker W. S. Gosset (1876–1937) untersucht, der seine Ergebnisse unter dem Pseudonym „Student“ veröffentlichte. Die t-Verteilung wird daher auch als Student-Verteilung und die Größe \(\bar{X}^{*}_{n}\) wird als studentisiertes Stichprobenmittel bezeichnet.

  9. 9.

    Wegen \(1-\alpha=P\left(U_{\sigma^{2}}\leq\sigma^{2}_{X}\leq O_{\sigma^{2}}\right)=P\left(\sqrt{U_{\sigma^{2}}}\leq\sigma_{X}\leq\sqrt{O_{\sigma^{2}}}\right)\) sind \(U_{\sigma}=\sqrt{U_{\sigma^{2}}}\) und \(O_{\sigma}=\sqrt{O_{\sigma^{2}}}\) die Grenzen des entsprechenden Konfidenzintervalls für die Standardabweichung \(\sigma_{X}\).

  10. 10.

    Beim Konfidenzintervall für den Mittelwert liegen die Grenzen symmetrisch um den Schätzwert \(\bar{x}_{n}\) für \(\mu_{X}\). Im Gegensatz dazu liegt beim Konfidenzintervall für die Varianz der Schätzwert \(s^{2}_{n}\) für \(\sigma^{2}_{X}\) nicht in der Mitte des Intervalls, sondern näher bei der unteren Grenze.

  11. 11.

    Mit dem Großbuchstaben Y wird nun deutlich gemacht, dass Y eine Zufallsvariable ist. Dagegen unterliegt x keiner Zufallsvariation. Vielmehr hat man sich unter x eine vom Beobachter kontrollierte Variable (d. h. eine Variable mit vorgegebenen Werten) vorzustellen.

  12. 12.

    Wegen \(\sum{r_{i}}=\sum{(y_{i}-\hat{k}x_{i}-d)}=\sum{y_{i}}-\hat{k}\sum{x_{i}}-nd=0\) ist das arithmetische Mittel \(\bar{r}=\bigl(\sum{r_{i}}\bigr)/n\) der Residuen null (die Summation erstreckt sich jeweils von 1 bis n). Zur Schätzung von \(\sigma^{2}_{R}\) wird also die Varianz der Residuen herangezogen. Die Division durch \(n-2\) sichert eine erwartungstreue Schätzung der Varianz \(\sigma^{2}_{R}\).

  13. 13.

    Die Abhängigkeitsprüfung kann auch mit einer Variante des t-Tests durchgeführt werden, die äquivalent zur Entscheidungsfindung mit dem Konfidenzintervall für den Anstieg k ist. Vergleiche mit dem t-Test werden in den kommenden Abschnitten behandelt. Man entscheidet sich (mit dem Irrtumsrisiko α) für \(k\neq 0\), wenn die Testgröße \(\mathrm{tg}_{n}=\hat{k}/\hat{\sigma}_{\hat{k}}\) mit \(\hat{\sigma}_{\hat{k}}=\hat{\sigma}_{R}/[s_{x}\sqrt{n-1}]\) größer als das \((1-\alpha/2)\)-Quantil \(t_{n-2,1-\alpha/2}\) der \(t_{n-2}\)-Verteilung ist. In der R-Funktion lm() ist dieser Test standardmäßig für lineare Regressionsaufgaben vorgesehen.

  14. 14.

    In diesem Fall stimmt nämlich \(\mathrm{TG}_{n}\) mit dem im vorangehenden Abschnitt betrachteten studentisierten Stichprobenmittel \(\bar{X}^{*}_{n}\) überein.

  15. 15.

    Man beachte, das die \(t_{n-1}\)-Verteilung eine symmetrisch um null verlaufende Dichtekurve besitzt und daher \(P(\mathrm{TG}_{n}\leq-|\mathrm{tg}_{n}|)=P(\mathrm{TG}_{n}\geq|\mathrm{tg}_{n}|)=1-F_{n-1}(|\mathrm{tg}_{n}|)\) ist. Der Wert der Verteilungsfunktion \(F_{n-1}\) an der Stelle \(x=|\mathrm{tg}_{n}|\) kann z. B. mit der R-Funktion pt(x, n-1) bestimmt werden.

  16. 16.

    Beim indirekten Beweis geht man von der Verneinung \(\neg A\) der zu beweisenden Aussage A aus. Kommt man von \(\neg A\) durch eine logische Schlusskette zu einer offensichtlich falschen Aussage, so muss \(\neg A\) falsch und die Verneinung von \(\neg A\), also die Aussage A, richtig sein.

  17. 17.

    Für das Beispiel wurde \(\mu=1.3\) und \(\sigma=0.1\) angenommen und die Zufallsstichprobe mit der R-Funktion rnorm(10, 1.3, 0.1) generiert.

  18. 18.

    Die Funktionswerte \(F_{f,\lambda}(x)\) können mit der R-Funktion pt(x, df, ncp) bestimmt werden, in der für df und ncp der Freiheitsgrad f bzw. der Nichzentralitätsparameter λ einzusetzen ist.

  19. 19.

    Der β-Fehler besteht darin, dass die Testentscheidung nicht zur Ablehnung von H 0 führt, obwohl H 1 gilt. Davon zu unterscheiden ist der α-Fehler, bei dem H 0 irrtümlich abgelehnt wird.

  20. 20.

    In der Praxis ist es oft schwierig, Informationen über die relevante Abweichung \(\varepsilon\) zu finden bzw. zu erhalten.

  21. 21.

    Zum Beispiel mit der R-Funktion power.t.test(delta, sd, sig.level, power, type=“one.sample″​, strict=T), in der für delta die als relevant betrachtete Abweichung \(\delta=\mu-\mu_{0}\), für sd ein Schätzwert für σ, für sig.level das Signifikanzniveau α und für power die Sicherheit \(1-\beta\) einzusetzen ist.

  22. 22.

    Zur Schätzung der Wahrscheinlichkeiten p i wird auch die Formel \(\hat{p}_{i}=\frac{i-3/8}{n+1/4}\) verwendet (z. B. in der R-Funktion shapiro.test() für den Shapiro-Wilk-Test zur Prüfung der Normalverteilungsannahme). Die R-Funktion qqnorm() arbeitet mit \(\hat{p}_{i}=\frac{i-3/8}{n+1/4}\) für \(n\leq 10\) und mit \(\hat{p}_{i}=\frac{i-0.5}{n}\) für n > 10. Diese Funktion steht in der Basisinstallation zur Verfügung und erzeugt Normal-QQ-Plots ohne eine Intervallschätzung.

  23. 23.

    Die R-Anweisung zur Bestimmung von \(Q_{1}=x_{0.25}\) lautet quantile(x, 0.25). Dabei ist x der die Stichprobenwerte enthaltende Datenvektor. Man beachte, dass die mit quantile() berechneten Quartile geringfügig von den mit fivenum() bestimmten Quartilen abweichen, wenn n gerade ist. Die R-Funktion quantile() verwendet zur Berechnung des p-Quantils x p einer nach aufsteigender Größe angeordneten Stichprobe \(x_{1},x_{2},\ldots,x_{n}\) die Formel \(x_{p}=(1-v)x_{[u]}+vx_{[u]+1}\) mit \(u=1+(n-1)p\) und \(v=u-[u]\); der Klammerausdruck \([u]\) bedeutet die größte ganze Zahl, die kleiner als oder gleich u ist. Ist z. B. p = 0.25, so ergibt sich für den betrachteten Datenvektor u = 3.75, \([u]=3\), v = 0.75 und \(x_{0.25}=0.25x_{3}+0.75x_{4}=2.013\).

  24. 24.

    Als Beispiel einer linksteilen Grundgesamtheit wurde die mit den Parametern \(\mu=0\) und \(\sigma=1\) logarithmisch normalverteilte Zufallsvariable X verwendet. Eine Zufallsvariable X heißt logarithmisch normalverteilt mit den Parametern μ und σ, wenn der (natürliche) Logarithmus von X \(N(\mu,\sigma^{2})\)-verteilt ist.

  25. 25.

    Die Rechteckverteilung besitzt über dem reellen Intervall \([a,b]\) mit \(b> a\) die konstante Dichte \(1/(b-a)\) und sonst überall die Dichte null. Für die in Abb. 5.12 links oben dargestellte Rechteckverteilung ist \(b=-a=5\), \(\gamma_{1}=0\) und \(\gamma_{2}=-1.2\). Zufallszahlen aus einer rechteckig-verteilten Grundgesamtheit können mit der R-Funktion runif() erzeugt werden.

  26. 26.

    Eine Zufallsvariable X heißt Laplace-verteilt mit dem Lageparameter μ und dem Skalenparameter b > 0, wenn ihre Dichtefunktion f durch die Gleichung \(f(x)=\frac{1}{2b}\,\text{exp}\bigl(\frac{|x-\mu|}{b}\bigr)\) bestimmt ist. Die Dichtekurve der Laplace-Verteilung ist symmetrisch um μ, die Kurtosis ist positiv \((\gamma_{2}=3)\). Für die in Abb. 5.12 unten dargestellte Laplace-Verteilung ist \(\mu=0\) und b = 1. Zufallszahlen aus einer Laplace-verteilten Grundgesamtheit können mit der R-Funktion rdoublex() aus dem Paket ’’smoothmest’’ (Smoothed M-estimators for 1-dimensional location) erzeugt werden.

  27. 27.

    Vgl. Liliefors, H.W.: On the Kolmogorov-Smirnov Test for Normality with Mean and Variance Unknown. J. American Statistical Association, 62, 299–402 (1967); Anderson, T. W., Darling, D.A.: Asymptotic Theory of Certain ’’Goodness of Fit’’ Criteria based on Stochastic Processes. The Annals of Mathematical Statistics, 23, 193–212 (1952); Shapiro, S. S., Wilk, M. B.: An analysis of variance test for normality (complete samples). Biometrika, 52, 591–611 (1965). Für den Shapiro-Wilk-Test steht in der Basisinstallation von R die Funktion shapiro.test() zur Verfügung, die Funktionen für die beiden anderen Testverfahren sind im Paket „nortest“ (Tests for Normality) enthalten.

  28. 28.

    Die Ausgleichsgerade wurde mit \(\hat{g}\) bezeichnet, um sie von der Orientierungsgeraden \(g^{*}\) durch die Punkte \((z_{0.25},Q_{1})\) und \((z_{0.75},Q_{3})\) zu unterscheiden.

  29. 29.

    Vgl. Shapiro, S. S., Francia, R. S.: An approximate analysis of variance test for normality. Journal of the American Statistical Association 67, 215–216 (1972). Der Test kann mit der R-Funktion sf() im Paket ’’nortest’’ ausgeführt werden.

  30. 30.

    Die Parallelgruppen sollen sich idealerweise nur in den geplanten Versuchsbedingungen unterscheiden. Dann kann ein allfälliger Unterschied der Mittelwerte eines Untersuchungsmerkmals auf die Versuchsbedingungen zurückgeführt werden. Die Methodik, nur einen einzigen Einflussfaktor zu variieren und alle anderen quasi „konstant“ zu halten, wird auch in anderen Disziplinen angewendet und gelegentlich als „ceteris paribus“-Prinzip bezeichnet.

  31. 31.

    Liegt ein 1-seitiges Testproblem mit den Hypothesen \(H_{0}\colon\mu_{1}\geq\mu_{2}\), \(H_{1}\colon\mu_{1}<\mu_{2}\) vor, kann man durch Umbezeichnung der Gruppen stets ein Testproblem mit den Hypothesen (5.20b) erhalten.

  32. 32.

    Der Welch-Test ist im Gegensatz zum 2-Stichproben-t-Test universell einsetzbar. Obwohl die Testgröße nur näherungsweise t-verteilt ist, besitzt dieser Test eine gute Performance hinsichtlich des α-Fehlers, der nahe beim nominellen α-Fehler liegt, und eine akzeptable Güte (Power). Der 2-Stichproben-t-Test zeichnet sich durch eine (bei Varianzgleichheit) hohe Power aus. Simulationsstudien zeigen, dass der 2-Stichproben-t-Test robust gegenüber (moderaten) Abweichungen von der Varianzgleichheit ist, wenn die Parallelstichproben gleich groß sind. Bei einer früher oft praktizierten Vorgangsweise, zwei Mittelwerte zu vergleichen, wird dem t-Test ein Test (z. B. der F-Test) zur Überprüfung der Varianzgleichheit vorangestellt und je nach Ausgang des Vortests der Welch-Test oder der 2-Stichproben-t-Test eingesetzt. Dieser Weg kann vorteilhaft ein, wenn man das Signifikanzniveau des Vortests höher (z. B. \(\alpha=10\,\%\)) ansetzt. In einigen Softwareprodukten werden daher beide Varianten des t-Tests (also der Welch-Test und der 2-Stichproben-t-Test) in Verbindung mit einem Vortest zum Varianzvergleich angeboten. In der R-Funktion t.test() ist der Welch-Test die voreingestellte Testvariante.

  33. 33.

    Um die Formeln leichter lesen zu können, wird im Folgenden beim Stichprobenmittel und der Stichprobenvarianz die Kennzeichnung durch den Stichprobenumfang weggelassen. Wir schreiben also für das Stichprobenmittel und die Stichprobenvarianz der ersten Stichprobe einfach \(\bar{X}_{1}\) bzw. \(S^{2}_{1}\) und analog \(\bar{X}_{2}\) und \(S^{2}_{2}\) für die entsprechenden Größen der zweiten Stichprobe. Entsprechend verfahren wir mit den Realisierungen dieser Größen.

  34. 34.

    Für x = 1 ergibt sich die symmetrische Versuchsanlage mit \(n_{1}=n_{2}=N/2\). Bei vorgegebenem N nimmt λ (und damit auch die Gütefunktion) den größten Wert an, wenn \(x=n_{1}/n_{2}=\sigma_{1}/\sigma_{2}\) ist.

  35. 35.

    Bei der Anwendung der Funktion uniroot() ist ein Intervall für die Lösung vorzugeben. Dazu geht man am einfachsten von der mit (5.22c) bestimmten Näherungslösung \(n^{*}\) aus und bildet \([n^{*}-d,n^{*}+d]\) mit z. B. d = 10. Dabei ist sicher zu stellen, das die untere Grenze positiv bleibt.

  36. 36.

    Wie man die Gleichheit der Varianzen überprüft, wird in den Ergänzungen (Abschn. 5.7.3) behandelt.

  37. 37.

    Bei selbstkontrollierten Versuchen muss sicher gestellt sein, dass der Zustand der Probanden bei der zweiten Behandlung im Wesentlichen der gleiche ist wie bei der ersten Behandlung. Das ist z. B. nicht der Fall, wenn Übertragungseffekte auftreten, d. h. die erste Behandlung auf die zweite nachwirkt. In diesem Fall wird man Mittelwertvergleiche mit unabhängigen Stichproben bevorzugen.

  38. 38.

    Die Varianz der Differenzstichprobe kann auch mit der Formel \(s^{2}_{d}=s_{1}^{2}+s_{2}^{2}-2s_{1}s_{2}r_{12}\) berechnet werden, in der \(s_{1}^{2}\) und \(s_{2}^{2}\) die empirischen Varianzen der X 1- bzw. X 2-Stichprobe und r 12 die Produktmomentkorrelation der X 1- und X 2-Stichprobe bedeuten (vgl. Abschn. 2.1.3). Diese Darstellung zeigt, dass \(s_{d}^{2}\) klein und folglich \(\mathrm{tg}_{n}\) groß wird, wenn \(r_{12}> 0\) ist. Positiv korrelierte Stichproben führen also beim t-Test für abhängige Stichproben zu einem größeren Testgrößenwert, und in der Folge häufig zu einem signifikantem Testausgang.

  39. 39.

    Gregor Mendel (1822–1884) wirkte als Augustinermönch und Naturforscher in Brünn. Nach Experimenten mit ausgewählten Sorten der Erbse veröffentlichte er die nach ihm benannten Vererbungsregeln unter dem Titel „Versuche über Pflanzenhybriden“ im Jahre 1865. Die Originalarbeit findet man u. a. unter http://www.gutenberg.org/ebooks/40854.

  40. 40.

    Beim Prüfen der Gleichheit von zwei Binomialwahrscheinlichkeiten kann es sein, dass auf Grund von Rundungs- und Verfahrensfehlern eine allfällige Übereinstimmung nicht erkannt wird. Auf diese numerische Problematik wird im R-Code bei der Berechnung des P-Werts mit (5.28c) nicht eingegangen.

  41. 41.

    Der Arkussinus einer reellen Zahl z aus dem Intervall \([-1,1]\) ist die im Intervall \([-\pi/2,\pi/2]\) liegende Lösung x (im Bogenmaß) der Gleichung \(\sin{x}=z\). Zum Beispiel ist \(\arcsin{1}=\pi/2\) (wegen \(\sin{\pi/2}=1\)) oder \(\arcsin{0}=0\) (wegen \(\sin{0}=0\)).

  42. 42.

    Eine Begründung der Formel (5.29a) findet man in den Ergänzungen (Abschn. 5.7.4a).

  43. 43.

    Agresti, A., Coull, B.A.: Approximate Is Better than ‘‘Exact’’ for Interval Estimation of Binomial Proportions. The American Statistician, 52, 119-126 (1998).

  44. 44.

    Diese Formel ist auch auf das 1-seitige Testproblem \(H_{0}\colon p_{1}\leq p_{2}\) gegen \(H_{1}\colon p_{1}> p_{2}\) anwendbar, wenn man es durch Umbezeichnung der Versuchsbedingungen in das Testproblem \(H_{0}\colon p_{1}\geq p_{2}\) gegen \(H_{1}\colon p_{1}<p_{2}\) überführt.

  45. 45.

    Man beachte, das die Testgröße nur näherungsweise \(N(0,1)\)-verteilt ist. Die Näherung ist umso besser, je größer n 1 und n 2 ist. Nach einer Empfehlung in Sachs & Hedderich (2006) soll \(\min(n_{1},n_{2})\geq 25\), \(n\hat{p}\geq 1\) und \(n(1-\hat{p})\geq 1\) sein. Dabei ist \(\hat{p}=(h_{11}+h_{12})/(n_{1}+n_{2})\). Die Approximation wird verbessert, wenn man eine sogenannte Stetigkeitskorrektur vornimmt. Diese besteht darin, dass man bei der Berechnung von \(\mathrm{tg}_{n_{1},n_{2}}\) die Häufigkeiten h 11 und h 12 durch \(h_{11}+0.5\) bzw. \(h_{12}-0.5\) ersetzt, wenn \(h_{11}/n_{1}<h_{12}/n_{2}\) ist. Ist dagegen \(h_{11}/n_{1}> h_{12}/n_{2}\) setzt man statt h 11 und h 12 die korrigierten Werte \(h_{11}-0.5\) bzw. \(h_{12}+0.5\) ein.

  46. 46.

    In R wird der McNemar-Test mit der Funktion mcnemar() ausgeführt. Die Abweichung des P-Werts (5.37) vom exakten P-Wert bleibt in vertretbaren Grenzen, wenn \(n^{*}> 36\) ist.

  47. 47.

    Vgl. z. B. Abramowitz. M, Stegun, I.: Handbook of Mathematical Functions. National Bureau of Standards, Washington D.C. (1964), S. 949, Formel 26.7.10.

  48. 48.

    Vgl. Royston, P.: Approximating the Shapiro-Wilk W-test for normality. Statistics and Computing 2, 117–119 (1992)

  49. 49.

    Die F-Verteilung mit den Freiheitsgraden f 1 und f 2 ist allgemein als Verhältnis \((V_{1}/f_{1})\colon(V_{2}/f_{2})\) von zwei, auf die Freiheitsgrade bezogenen Zufallsvariablen \(V_{1}\sim\chi^{2}_{f_{1}}\) und \(V_{2}\sim\chi^{2}_{f_{2}}\) definiert. Nach Abschn. 5.2.1 folgt die mit einer Zufallsstichprobe des Umfangs n 1 aus \(X_{1}\sim N(\mu_{1},\sigma_{1}^{2})\) gebildete Größe \((n_{1}-1)S_{1}^{2}/\sigma_{1}^{2}\) einer Chiquadratverteilung mit \(f_{1}=n_{1}-1\) Freiheitsgraden. Analog gilt für die mit einer Zufallsstichprobe des Umfangs n 2 aus \(X_{2}\sim N(\mu_{2},\sigma_{2}^{2})\) gebildete Größe \((n_{2}-1)S_{2}^{2}/\sigma_{2}^{2}\sim\chi^{2}_{f_{2}}\) mit \(f_{2}=n_{2}-1\). Somit ist \((S_{1}^{2}/\sigma^{2}_{1})\colon(S_{2}^{2}/\sigma_{2}^{2})\), also die Testgröße (5.40), F-verteilt mit den Freiheitsgraden f 1 und f 2. Die F-Verteilung wurde nach dem englischen Statistiker Ronald A. Fisher (1890–1962) benannt, der als einer der Begründer der modernen Statistik gilt.

  50. 50.

    Wenn man überhaupt einen Vortest zur Überprüfung der Varianzhomogenität durchführt und im Zweifelsfalle nicht gleich den Welch-Test anwendet, wird heute dafür der Levene-Test wegen seiner Robustheit gegenüber Abweichungen von der Normalverteilung empfohlen. Dieser Test wird im nächsten Unterpunkt behandelt.

  51. 51.

    Der Test ist nach dem US-amerikanischen Biostatistiker und Genetiker Howard Levene (1914–2003) benannt.

  52. 52.

    Setzt man in (5.42b) \(P=\alpha\), ergibt sich \(\Phi(|\mathrm{tg}_{n}|)=1-\alpha/2\), d. h. \(|\mathrm{tg}_{n}|=z_{1-\alpha/2}\). Es ist \(|\mathrm{tg}_{n}|> z_{1-\alpha/2}\) genau dann, wenn \(P<\alpha\).

  53. 53.

    Vgl. Clopper, C.J., Pearson, E.S.: The Use of Confidence or Fiducial Limits Illustrated in the Case of the Binomial. Biometrika, Vol. 26, No. 4. (1934).

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Werner Timischl .

Rights and permissions

Reprints and permissions

Copyright information

© 2016 Springer-Verlag Berlin Heidelberg

About this chapter

Cite this chapter

Timischl, W. (2016). Schätzen und Testen. In: Mathematische Methoden in den Biowissenschaften . Springer Spektrum, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-48952-9_5

Download citation

Publish with us

Policies and ethics