Skip to main content

Das Fundament: Wahrscheinlichkeiten

  • Chapter
  • First Online:
Angewandte Datenanalyse

Part of the book series: Statistik und ihre Anwendungen ((STATIST))

  • 7780 Accesses

Zusammenfassung

In Kap. 1 wird erklärt, dass Rechnungen aus Daten erst vertrauenswürdig werden, wenn angegeben wird, wie genau und wie plausibel die Resultate sind. Dabei wird Plausibilität wie folgt mit einer Wahrscheinlichkeit beschrieben: „Die mittlere Zeit zwischen zukünftigen, aufeinanderfolgenden starken Erdbeben liegt mit einer Wahrscheinlichkeit von 90 % zwischen 450 und 500 Tagen.“ Was Wahrscheinlichkeiten sind und wie man Aussagen mit Wahrscheinlichkeiten ausdrückt, wird in diesem Kapitel gezeigt. Zudem wird vorgestellt, wie man mit Wahrscheinlichkeiten rechnet. Anschliessend werden Modelle erwähnt, mit denen man beschreiben kann, wie Messwerte streuen. Solche Modelle werden auch mit Wahrscheinlichkeiten formuliert. Zum Schluss des Kapitels wird diskutiert, wie man dank Simulationen, Wahrscheinlichkeiten bei komplizierten Modellen bestimmen kann.

Zusammenfassung

In Kap. 1 wird erklärt, dass Rechnungen aus Daten erst vertrauenswürdig werden, wenn angegeben wird, wie genau und wie plausibel die Resultate sind. Dabei wird Plausibilität wie folgt mit einer Wahrscheinlichkeit beschrieben: „Die mittlere Zeit zwischen zukünftigen, aufeinanderfolgenden starken Erdbeben liegt mit einer Wahrscheinlichkeit von 90 % zwischen 450 und 500 Tagen.“ Was Wahrscheinlichkeiten sind und wie man Aussagen mit Wahrscheinlichkeiten ausdrückt, wird in diesem Kapitel gezeigt. Zudem wird vorgestellt, wie man mit Wahrscheinlichkeiten rechnet. Anschliessend werden Modelle erwähnt, mit denen man beschreiben kann, wie Messwerte streuen. Solche Modelle werden auch mit Wahrscheinlichkeiten formuliert. Zum Schluss des Kapitels wird diskutiert, wie man dank Simulationen, Wahrscheinlichkeiten bei komplizierten Modellen bestimmen kann.

„Ich konnte es auch gar nicht lernen“, sagte die Falsche Suppenschildkröte, „weil ich zu arm war. Ich hatte nur die Pflichtfächer.“„Und die waren?“ fragte Alice.„Also, zunächst einmal das Grosse und das Kleine Nabelweh, natürlich“, antwortete die Falsche Suppenschildkröte, „aber dann auch Deutsch und alle Unterarten – Schönschweifen, Rechtspeibung, Sprachelbeere und Hausversatz.“Lewis Carroll, Alice im Wunderland (Insel Taschenbuch, 1973, S. 99)

„Ich konnte es auch gar nicht lernen“, sagte die Falsche Suppenschildkröte, „weil ich zu arm war. Ich hatte nur die Pflichtfächer.“

„Und die waren?“ fragte Alice.

„Also, zunächst einmal das Grosse und das Kleine Nabelweh, natürlich“, antwortete die Falsche Suppenschildkröte, „aber dann auch Deutsch und alle Unterarten – Schönschweifen, Rechtspeibung, Sprachelbeere und Hausversatz.“

Lewis Carroll, Alice im Wunderland (Insel Taschenbuch, 1973, S. 99)

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 29.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 39.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Ausführliche Diskussionen dazu findet man in [11] und [17].

  2. 2.

    Anders ausgedrückt: Die Plausibilität einer Person misst, wie viel sie bereit ist, bei einer Wette einzusetzen. Daraus kann die Person bei Aussagen zu Unsicherheiten beurteilen, wie gross ihr (monetäres) Risiko ist, falsch zu liegen.

  3. 3.

    Formuliert man Wahrscheinlichkeiten zu Aussagen, sollte die vorhandene Information genannt werden: \(\mathbb{P}(\text{Aussage}\;|\;\text{Information})\). Manchmal schreibt man auch nur kurz \(\mathbb{P}(\text{Aussage})\), um Notationen klein zu halten. Es ist aber wichtig, die benutzte Information zu erwähnen. Es besteht sonst die Gefahr, Wahrscheinlichkeiten miteinander zu verrechnen, die auf Grund von verschiedenen Informationen bestimmt wurden. Dies kann zu widersprüchlichen Resultaten führen.

  4. 4.

    Hat man eine andere Information \(\mathcal{K}\) als \(\mathcal{I}\), so ist die Plausibilität der Negation von A nicht notwendigerweise 0,6. Beispielsweise kann \(\mathbb{P}(A^{\text{nicht}}\;|\;\mathcal{I})=0{,}6\) und \(\mathbb{P}(A^{\text{nicht}}\;|\;\mathcal{K})=0{,}8\) sein.

  5. 5.

    Die Multiplikationsregel lässt sich, da \(\mathbb{P}(A\text{ und }B)=\mathbb{P}(B\text{ und }A)\) ist, auch so schreiben: \(\mathbb{P}(A\text{ und }B)=\mathbb{P}(B\;|\;A)\cdot\mathbb{P}(A)\). Genauer müsste man die Information \(\mathcal{I}\) in der Gleichung ausweisen: \(\mathbb{P}(A\text{ und }B\;|\;\mathcal{I})=\mathbb{P}(B\;|\;A,\mathcal{I})\cdot\mathbb{P}(A\;|\;\mathcal{I})\).

  6. 6.

    Siehe dazu D. V. Lindley in [13] auf Seite 64:

    It is a fact that can hardly be emphasized too strongly that these three rules encapsulate everything about probability, and therefore everything about your probability measurement […]. …Once you have understood the three rules of probability just stated, you can calculate for yourselves and not read further.

  7. 7.

    Im Sinn von gesundem Menschenverstand oder „common sense“.

  8. 8.

    Wenn dies nicht gelten würde, also wenn beispielsweise \(\mathbb{P}(1)> \mathbb{P}(2)\) wäre, hätte man eine zusätzliche Information. Man müsste erklären, warum die Person 1 plausibler gezogen würde als die Person 2.

  9. 9.

    Man nennt dies das Prinzip der Indifferenz.

  10. 10.

    Eigentlich müsste man schreiben: \(\mathbb{P}(A\;|\;\mathcal{K})=0{,}6\) und \(\mathbb{P}(B\;|\;\mathcal{K})=0{,}5\). Dabei ist \(\mathcal{K}\) die Information der Person, die die Wetternachrichten gehört hat.

  11. 11.

    Wahrscheinlichkeiten drücken aus, wie plausibel Aussagen bei gegebener Information sind. Sie charakterisieren keine Eigenschaften der in den Aussagen vorkommenden Objekten. Vergleichen Sie dazu das Beispiel zum Münzwurf.

  12. 12.

    Siehe dazu E. T. Jaynes in [11] auf den Seiten 335–336:

    ‚When I toss a coin, the probability for heads ist one-half.‘ What do we mean by this statement? […] The issue is between the following two interpretations:

    1. (A)

      The available information gives me no reason to expect heads rather than tails, or vice versa – I am completely unable to predict which it will be.

    2. (B)

      If I toss the coin a very large number of times, in the long run heads will occur about the half the time – in other words, the frequency of heads will approach 1/2.

    Statement (A) does not describe any property of the coin, but only the state of knowledge (or, if you prefer, the state of ignorance). Statement (B) is, at least by implication, asserting something about the coin. Thus (B) is a very much stronger statement than (A).

  13. 13.

    Kovariablen sind hier etwa Luftturbulenzen, Inhomogenitäten in der Luft oder Ungenauigkeiten in den Messapparaten. Diese bewirken, dass man Messwerte erhält, die um den gesuchten Druck streuen.

  14. 14.

    Die Einheit der Dichtefunktion ist Wahrscheinlichkeit pro Einheit von G.

  15. 15.

    Sie lassen sich mit einem Computer schnell finden: man zeichnet den Graphen der Dichtefunktion und liest sie aus der Grafik ab.

  16. 16.

    Mit einer Formel ausgedrückt hat man: Der Median ist die kleinste Zahl mit \(\mathbb{P}(G\leq\text{Median})\text{ ist mindestens }0{,}5\).

  17. 17.

    Ein erster Versuch mit \(t_{1}=4\) Tage gibt \(\int_{0}^{4}\lambda\cdot\exp({-\lambda\cdot x})\,\mathrm{d}x=0{,}516\). Der Wert t 1 ist zu hoch. Eine zweiter Versuch mit \(t_{2}=3{,}5\) Tagen liefert \(\int_{0}^{3,5}\lambda\cdot\exp(-\lambda\cdot x)\,\mathrm{d}x=0{,}470\). Der Wert t 2 ist zu tief. Ein guter nächster Versuch t 3 ist das arithmetische Mittel von t 1 und t 2: \(t_{3}=3{,}75\) Tage. Mit diesem Verfahren (einer Bisektion) lässt sich der Median „einschachteln“.

  18. 18.

    The New York Times und Le Monde, 17. Mai 2008.

  19. 19.

    Die Rechnung wird in Kap. 9 gezeigt.

  20. 20.

    Hat die Verteilung eine schmale Spitze, so sind die Funktionswerte der Dichtefunktion hier meist sehr gross. Mit den logarithmierten Werten kann die Gefahr reduziert werden, Over- oder Underflows zu erhalten. Aus Zahlen wie 10300 oder 10−300 werden mit dem Logarithmus 300 und −300.

  21. 21.

    Ausführliche Informationen, wie man beurteilen kann, ob die gewählte Kette genügend lang ist und der Zufallsprozess gut ist, finden sich in [7].

  22. 22.

    Man berechnet Quotienten von Funktionswerten von pdf!

  23. 23.

    Wie dies gerechnet wird, siehe [10] auf den Seiten 102–103.

  24. 24.

    Strep B Test 014B255, ulti med Products (Deutschland) GmbH, Reeshoop 1, 22926 Ahrensburg.

Literatur

  1. D. Bättig, A. Leu, Einfluss von Lothar auf die Risikostruktur der XX Versicherung (Berner Fachhochschule, Burgdorf, 2003)

    Google Scholar 

  2. H. Cerruti, Neue Zürcher Zeitung, Folio 04 (1999)

    Google Scholar 

  3. R.T. Cox, Probability, frequency and reasonable expectation. Am J Phys 14, 1–13 (1946)

    Article  MathSciNet  MATH  Google Scholar 

  4. R.G. Finch, G.L. French, I. Phillips, Group B streptococci in the female genital tract. Br Med J 1, 1245–1247 (1976)

    Article  Google Scholar 

  5. A. Gelman, D.B. Rubin, Inference from iterative simulation using multiple sequences (with discussion). Stat Sci 7, 457–511 (1992)

    Article  Google Scholar 

  6. A. Gelman, K. Shirley: Inference from Simulations and Monitoring Convergence. In: Brooks, S., Gelman, A., Jones, G. L., Meng, X.-L. (Hrsg.) Handbook of Markov Chain Monte Carlo, Kapitel 6. (Chapman and Hall/CRC, 2011)

    Google Scholar 

  7. C.J. Geyser, Pratical Markov Chain Monte Carlo. Stat Sci 7(4), 473–511 (1992)

    Article  Google Scholar 

  8. K. Graf, Verfahrenstechnik. Manuskript (Berner Fachhochschule, Burgdorf, 2008)

    Google Scholar 

  9. W.K. Hastings, Monte Carlo sampling methods using Markov chains and their applications. Biometrika 57, 97–109 (1970)

    Article  MathSciNet  MATH  Google Scholar 

  10. P.D. Hoff, A First Course in Bayesian Statistical Methods Springer Text in Statistics. (Springer Verlag, 2009)

    Book  MATH  Google Scholar 

  11. E.T. Jaynes, Probability Theory, The Logic of Science (Cambridge University Press, 2003)

    Book  MATH  Google Scholar 

  12. A. Leu, E. Wyler, JAR – Return on IT Security (Bericht Institut für Risiko- und Extremwertanalyse, Berner Fachhochschule, 2006)

    Google Scholar 

  13. D.V. Lindley, Understanding Uncertainty (John Wiley & Sons, 2007)

    MATH  Google Scholar 

  14. N. Metropolis, A.W. Rosenbluth, M.N. Rosenbluth, A.H. Teller, E. Teller, Equation of state calculations by fast computing machines. J Chem Phys 2, 1007–1092 (1953)

    Google Scholar 

  15. B.A. Orser, Schlummern ohne Risiko. Spektrum Wissenschaft 2 (2008)

    Google Scholar 

  16. P. Rosin, E. Rammler, The Laws Governing the Fineness of Powdered Coal. J Inst Fuel 7, 29–36 (1933)

    Google Scholar 

  17. D.S. Sivia, J. Skilling, Data Analysis, a Bayesian Tutorial (Oxford University Press, 2006)

    MATH  Google Scholar 

  18. E. Todd, Apres l’empire, Essai sur la décomposition du systeme américan (Gallimard, 2002)

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Daniel Bättig Prof. Dr. .

Rights and permissions

Reprints and permissions

Copyright information

© 2017 Springer-Verlag GmbH Deutschland

About this chapter

Cite this chapter

Bättig, D. (2017). Das Fundament: Wahrscheinlichkeiten. In: Angewandte Datenanalyse. Statistik und ihre Anwendungen. Springer Spektrum, Berlin, Heidelberg. https://doi.org/10.1007/978-3-662-54220-0_4

Download citation

Publish with us

Policies and ethics