Advertisement

Schließende Statistik

  • Ansgar StelandEmail author
Chapter
  • 6k Downloads
Part of the Springer-Lehrbuch book series (SLB)

Zusammenfassung

Die Grundaufgabe der schließenden Statistik ist es, basierend auf Stichprobendaten Aussagen über das zugrunde liegende Verteilungsmodell zu treffen. Häufig ist das Verteilungsmodell durch einen Parameter ϑ eindeutig parametrisiert. Dann interessieren vor allem Schätzungen für ϑ, Aussagen über die Schätzgenauigkeit und das Testen (Überprüfen) von Hypothesen über ϑ. Machen wir uns diese abstrakten Aussagen an einem Beispiel klar: Bei einer Umfrage unter n = 500 zufällig ausgewählten Käufern eines PKW stellt sich heraus, dass k = 400 mit dem Service zufrieden sind. Um zu klären, ob diese Zahlen „belastbar“ sind, müssen Antworten für die folgenden Fragen gefunden werden: 1. Ist der Anteil von kn = 80% zufriedener Käufer in der Stichprobe eine gute Schätzung für den unbekannten wahren Anteil in der Grungesamtheit aller Käufer? 2. Wie stark streut das Stichprobenergebnis überhaupt? 3. Wie kann objektiv nachgewiesen werden, dass der wahre Anteil zufriedener Käufer zumindest höher als (z. B.) 75% ist? Zur Beantwortung dieser Fragen muss zunächst ein geeignetes Verteilungsmodell für die Daten gefunden werden. Im eben diskutierten Beispiel ist dies die Binomialverteilung. Dann ist zu klären, wie im Rahmen des gewählten Verteilungsmodells geeignete Schätzungen für die interessierenden Größen – in unserem Beispiel ist dies der wahre Anteil p – gewonnen und hinsichtlich ihrer Güte (Qualität) bewertet werden können. Ferner wird ein geeignetes Konzept zur Überprüfung von relevanten Hypothesen durch empirisches Datenmaterial benötigt.

Literaturverzeichnis

  1. 1.
    Bamberg, G., & Bauer, F. (1998). Statistik. München: Oldenbourg.Google Scholar
  2. 2.
    Cramer, E., Kamps, U., & Oltmanns, E. (2007). Wirtschaftsmathematik (2. Aufl.). München: Oldenbourg.Google Scholar
  3. 3.
    Cramer, E., & Kamps, U. (2014). Grundlagen der Wahrscheinlichkeitsrechnung und Statistik (3. Aufl.). Berlin: Springer Spektrum.Google Scholar
  4. 4.
    Dehling, H., & Haupt, B. (2004). Einführung in die Wahrscheinlichkeitstheorie und Statistik. Berlin: Springer.Google Scholar
  5. 5.
    Fahrmeir, L., Künstler, R., Pigeot, I., & Tutz, G. (2004). Statistik – Der Weg zur Datenanalyse (5. Aufl.). Berlin: Springer.Google Scholar
  6. 6.
    Härdle, W. (1990). Applied Nonparametric Regression. Cambridge: Cambridge University Press.Google Scholar
  7. 7.
    Hartung, J., Elpelt, B., & Klösener, K.-H. (2002). Statistik (13. Aufl.). München: Oldenbourg.Google Scholar
  8. 8.
    Kockelkorn, U. (1993). Statistik für Anwender. Berlin: Skript.Google Scholar
  9. 9.
    Kockelkorn, U. (2000). Lineare statistische Methoden. München: Oldenbourg.Google Scholar
  10. 10.
    Rohatgi, V. K., & Saleh, E. (2001). An Introduction to Probability and Statistics. New York: Wiley.Google Scholar
  11. 11.
    Schlittgen, R. (1996). Statistische Inferenz. München: Oldenbourg.Google Scholar
  12. 12.
    Schlittgen, R. (2003). Einführung in die Statistik (10. Aufl.). München: Oldenbourg.Google Scholar
  13. 13.
    Steland, A. (2004). Mathematische Grundlagen der empirischen Forschung. Berlin: Springer.Google Scholar
  14. 14.
    Stock, J. H., & Watson, M. H. (2007). Introduction to Econometrics. Boston: Pearson International.Google Scholar
  15. 15.
    Sydsaeter, K., & Hammond, P. (2006). Mathematik für Wirtschaftswissenschaftler. München: Pearson-Studium.Google Scholar
  16. 16.
    Zucchini, W., Schlegel, A., Nenadić, O., & Sperlich, S. (2009). Statistik für Bachelor- und Masterstudenten. Berlin/Heidelberg: Springer.Google Scholar

Copyright information

© Springer-Verlag Berlin Heidelberg 2016

Authors and Affiliations

  1. 1.Institut für Statistik und WirtschaftsmanagementRWTH AachenAachenDeutschland

Personalised recommendations