Advertisement

Wahrscheinlichkeitsrechnung

  • Ansgar StelandEmail author
Chapter
  • 5.9k Downloads
Part of the Springer-Lehrbuch book series (SLB)

Zusammenfassung

Viele Phänomene in Technik, Wirtschaft und in der Informatik sind vom Zufall beeinflusst, so dass man diese nicht exakt vorhersagen oder berechnen kann. Wir können lediglich zufällige Ereignisse durch Wahrscheinlichkeiten erfassen und beschreiben. Sofort stellt sich die Frage, wie man Wahrscheinlichkeiten berechnen kann und welche Rechenregeln für Wahrscheinlichkeiten gelten. In einem ersten Schritt werden wir hierzu einige Beispiele für zufällige (stochastische) Phänomene betrachten und anhand dieser Beispiele ein mathematisches Modell zur formalen Beschreibung entwickeln. Als nächstes führen wir den fundamentalen Begriff des Wahrscheinlichkeitsmaßes ein und lernen die wichtigsten Regeln für den Umgang mit zufälligen Ereignissen und zugehörigen Wahrscheinlichkeiten kennen. Wahrscheinlichkeit kann physikalisch begründet sein (etwa beim radioaktiven Zerfall), aus historischen Datenbeständen resultieren, künstlich erzeugt werden (in der Statistik tut man dies bewusst durch Stichprobenziehungen, bei Kartenspielen durch gutes Mischen und bei Computersimulationen durch Zufallszahlen) oder auch subjektiv vorgegeben werden (etwa durch Expertenurteile). Während somit die Interpretation durchaus unterschiedlich sein kann, so gelten doch ganz unabhängig davon stets dieselben Rechenregeln. Neben diesen Rechenregeln müssen wir die wichtigsten Wahrscheinlichkeitsverteilungen kennen lernen, wie etwa die Binomialverteilung als grundlegende Verteilung für Zählvariablen oder die Normalverteilung als Standardmodell für Messfehler. In der Wahrscheinlichkeitsrechnung stellen wir uns hierbei typischerweise auf den Standpunkt, dass die Wahrscheinlichkeiten bekannt sind und fragen danach, was sich hieraus wie berechnen läßt, welche Formeln gelten usw. Die interessante Frage, wie aus zufälligen Beobachtungen (etwa verrauschten Messungen) auf den zugrunde liegenden Zufallsmechanismus zurückgeschlossen werden kann, untersuchen wir im nächsten Kapitel über Statistische Inferenz. Dass die Wahrscheinlichkeitstheorie eine solch hohe Bedeutung für die Datenanalyse und Statistik hat, liegt daran, dass der Statistiker durch zufällige Stichprobenziehungen oftmals in der Lage ist, die Voraussetzungen der wahrscheinlichkeitstheoretischen Modelle, Methoden und Ergebnisse exakt zu erfüllen und die resultierenden Beschreibungen und Analysen in vielen Gebieten eine unübertroffene Genauigkeit abliefern. Die wohl wichtigsten Kernergebnisse der Wahrscheinlichkeitstheorie, die sowohl von theoretischer Bedeutung als auch hohem praktischen Nutzen sind, stellen das Gesetz der Großen Zahlen und der Zentrale Grenzwertsatz dar. Das Gesetz der Großen Zahlen liefert den entscheidenden Zusammenhang zwischen relativen Häufigkeiten aus (langen) Beobachtungsreihen und theoretischen Wahrscheinlichkeiten. Insbesondere folgt hieraus gewissermaßen, dass man durch Statistik aus (in der Praxis endlichen) Stichproben verläßlich lernen kann. Der Zentrale Grenzwertsatz besagt anschaulich, dass eine Summe von (sehr vielen) zufälligen (numerischen) Größen, die in gleicher Weise streuen (so dass kein Summand dominiert), näherungsweise normalverteilt ist. Diese fundamentale Aussage erlaubt es, mit hoher Genauigkeit Fehlerwahrscheinlichkeiten zu approximieren und statistische Inferenz zu betreiben, solange man Summen (bzw. Mittelwerte) anstatt einzelne Beobachtungen nimmt.

Literaturverzeichnis

  1. 1.
    Bamberg, G., & Bauer, F. (1998). Statistik. München: Oldenbourg.Google Scholar
  2. 2.
    Cramer, E., Kamps, U., & Oltmanns, E. (2007). Wirtschaftsmathematik (2. Aufl.). München: Oldenbourg.Google Scholar
  3. 3.
    Cramer, E., & Kamps, U. (2014). Grundlagen der Wahrscheinlichkeitsrechnung und Statistik (3. Aufl.). Berlin: Springer Spektrum.Google Scholar
  4. 4.
    Dehling, H., & Haupt, B. (2004). Einführung in die Wahrscheinlichkeitstheorie und Statistik. Berlin: Springer.Google Scholar
  5. 5.
    Fahrmeir, L., Künstler, R., Pigeot, I., & Tutz, G. (2004). Statistik – Der Weg zur Datenanalyse (5. Aufl.). Berlin: Springer.Google Scholar
  6. 6.
    Härdle, W. (1990). Applied Nonparametric Regression. Cambridge: Cambridge University Press.Google Scholar
  7. 7.
    Hartung, J., Elpelt, B., & Klösener, K.-H. (2002). Statistik (13. Aufl.). München: Oldenbourg.Google Scholar
  8. 8.
    Kockelkorn, U. (1993). Statistik für Anwender. Berlin: Skript.Google Scholar
  9. 9.
    Kockelkorn, U. (2000). Lineare statistische Methoden. München: Oldenbourg.Google Scholar
  10. 10.
    Rohatgi, V. K., & Saleh, E. (2001). An Introduction to Probability and Statistics. New York: Wiley.Google Scholar
  11. 11.
    Schlittgen, R. (1996). Statistische Inferenz. München: Oldenbourg.Google Scholar
  12. 12.
    Schlittgen, R. (2003). Einführung in die Statistik (10. Aufl.). München: Oldenbourg.Google Scholar
  13. 13.
    Steland, A. (2004). Mathematische Grundlagen der empirischen Forschung. Berlin: Springer.Google Scholar
  14. 14.
    Stock, J. H., & Watson, M. H. (2007). Introduction to Econometrics. Boston: Pearson International.Google Scholar
  15. 15.
    Sydsaeter, K., & Hammond, P. (2006). Mathematik für Wirtschaftswissenschaftler. München: Pearson-Studium.Google Scholar
  16. 16.
    Zucchini, W., Schlegel, A., Nenadić, O., & Sperlich, S. (2009). Statistik für Bachelor- und Masterstudenten. Berlin/Heidelberg: Springer.Google Scholar

Copyright information

© Springer-Verlag Berlin Heidelberg 2016

Authors and Affiliations

  1. 1.Institut für Statistik und WirtschaftsmanagementRWTH AachenAachenDeutschland

Personalised recommendations