1.1 Das Spiel mit den Wahrscheinlichkeiten

Menschen sind intuitiv, wenn es um Wahrscheinlichkeiten geht; wir denken aus dem Bauch heraus, anstatt uns etwas mit den Regeln der Wahrscheinlichkeitstheorie zu bemühen. Diese zeigt uns, dass wir lieber nachrechnen sollten, statt dem Bauchgefühl zu folgen – nicht immer, aber oft genug. Es gibt sogar einen wissenschaftlichen Namen für diese Eigenartigkeit unseres Gehirns: the Neglect of Probability, die Vernachlässigung der Wahrscheinlichkeit. Psychologische Experimente, die schon 1972 ausgeführt worden sind, zeigen, dass wir sehr schlecht zwischen Risiken unterscheiden können, weil unser Gehirn „zu faul“ ist nachzurechnen (es ist nicht direkt „faul“, sondern unser Gehirn versucht, sparsam mit der zur Verfügung stehenden Energie umzugehen). Die Wahrscheinlichkeit, von einem Blitz erschlagen zu werden, beträgt 1 zu 10 Mio. und bei einem Flugzeugabsturz zu sterben 1 zu 2,2 Mio.; wenige junge Männer sind sich bewusst, dass es eine 1 zu 124 Wahrscheinlichkeit gibt, zwischen 20 und 30 Jahren impotent zu werden. Dagegen beträgt die Wahrscheinlichkeit, am Essen zu ersticken, „nur“ 1 zu 250.000. Kurios sind auch die fünf meist unterschätzten Risiken: Straftatverdacht, Wohnungsbrand, Leitungswasserschaden, ziviler Rechtsstreit und Autopanne. Die fünf meist überschätzten Risiken haben alle mit dem Tod zu tun: tödlicher Terroranschlag, Motorradunfall, Geisterfahrerunfall, Autounfall und tödlicher Fußgängerunfall. Wir liegen also sehr oft daneben, wenn wir Risiken einschätzen; eigene Fähigkeiten werden einfach überschätzt und wir überschätzen Kontrolle und Einfluss, die wir auf unser Umfeld haben. Wir haben Probleme mit dem Zufall, und speziell mit den Zahlen. Bei einer Studie der Deutschen Versicherer kam heraus, dass zum Beispiel nur 37 % der Deutschen wissen, dass eine Milliarde das Produkt von tausend mal einer Million ist; wenn es um Billionen geht, da liegt kaum jeder fünfte Deutsche richtig. Wenn Regierungen über Milliarden Hilfspakete sprechen, verliert der Durchschnittsbürger den Überblick, oft ohne sich diesen Mangels bewusst zu sein.

Der Zufall ist ein sehr seltsames Phänomen: Fast niemand bezweifelt seine Existenz (aus wissenschaftlicher Sicht), aber wie geht dies einher mit einer präzisen Beschreibung des Universums durch die Wissenschaft? Oder wie können wir systemische Risiken, wie z. B. eine weltweite Pandemie, hervorsagen? Oder welche Theorie hätte die Finanzkrise von 2008 hervorsagen können? War dies alles Zufall oder gab es zu wenige Kenntnisse über Vernetzungen und komplexe Phänomene?

Um Zufall und Wahrscheinlichkeiten geht es in diesem Buch. Besser noch, um eine Formel, die es uns ermöglicht, mit neuen Erkenntnissen unsere Hypothesen zum Ausgang eines Ereignisses zu verfeinern, zu verbessern. Diese Formel ist der Satz von Bayes: ein Gesetz der Wahrscheinlichkeitstheorie, insbesondere der bedingten Wahrscheinlichkeit (später mehr dazu). Er hilft uns, Wahrscheinlichkeiten zu überprüfen und zu verstehen, wenn wir neue Informationen erhalten. So können wir unseren Unglauben quantifizieren und fundierte und rationale Entscheidungen treffen. Das Bayes-Theorem vereinfacht vieles und ermöglicht uns die Beantwortung der folgenden Frage: Inwieweit sollte sich unser Vertrauen in einen vorher festgelegten Glauben ändern, wenn wir mit neuen Informationen konfrontiert werden? Ich weiß etwas, aber dann erhalte ich neue Informationen darüber, dass die Eintrittswahrscheinlichkeit des ursprünglichen Ereignisses variiert. Eine richtige Verwendung des Satzes von Bayes durch die Allgemeinheit könnte Spekulationsblasen verhindern, oder zumindest ihre negativen Effekte lindern. Hysterie, Angst und Unvernunft sind kurzfristige treibende Kräfte der Finanzmärkte (Klein 2005). Eben, wir sind schlecht mit Zahlen, Einschätzung von Risiken und Gefühlskontrolle.

Wie wir auf den nächsten Seiten sehen werden, umfassen die praktischen Anwendungen des Bayes-Theorems so unterschiedliche Bereiche wie Wirtschaft, Medizin, Finanzen, Informationstechnologie, Robotics oder Spieltheorie. Historisch betrachtet hat der Bayes-Satz zu bedeutenden Durchbrüchen geführt. Der Satz wurde verwendet, um den berüchtigten Nazi-Enigma-Code im Zweiten Weltkrieg zu knacken. Alan Turing, britischer Mathematiker, verwendete das Bayes-Theorem, um die Übersetzungen von der Enigma-Verschlüsselungsmaschine zu bewerten. Mithilfe von Wahrscheinlichkeitsmodellen konnten Turing und seine Kollegen die nahezu unbegrenzte Anzahl möglicher Übersetzungen anhand der Nachrichten aufschlüsseln, die am wahrscheinlichsten übersetzbar waren, und letztendlich den deutschen Nachrichten-Code knacken. In einem Satz: Das Bayes-Theorem ist ein mathematisches Modell, das auf Statistik und Wahrscheinlichkeit basiert und darauf abzielt, die Wahrscheinlichkeit eines Szenarios anhand seiner Beziehung zu einem anderen Szenario zu berechnen (die genaue Formel kommt in Kap. 2). Ein Beispiel: die Wahrscheinlichkeit, innerhalb von drei Stunden eine Runde Golf zu Ende zu spielen, hängt von verschiedenen Szenarien oder Rahmenbedingungen ab: von der Zeit der vorherigen Runde, wo und wie oft Sie Ihren Ball treffen oder daneben schlagen, dem Golfplatz, auf dem Sie spielen, die Anzahl der Personen, mit denen Sie spielen, die Tageszeit, die Anzahl von Personen, die vor Ihnen spielen… Also von mehreren Szenarien oder Umständen.

Die Finanzmärkte sind riskant und ungewiss, manchmal regiert bei ihnen sogar Chaos. Deswegen haben die Märkte einen spielerischen Reiz, der einem Casino-Spiel gleichkommt und bei dem Illusion und Angst unser Gehirn kitzeln. Im Allgemeinen ist die Wirtschaft wegen ihrer Komplexität ziemlich ungewiss; deswegen braucht man so viele Ökonomen für eine schlechte Prognose. Ob der US-Dollar oder Schweizer Franken in der nächsten Stunde steigen wird, ist praktisch unvorhersehbar. Die Finanzmärkte sind ein chaotisches System, in dem wir im besten Fall Tendenzen berechnen können. Eine Volkswirtschaft ist quasi ein chaotisches System, in dem Millionen vernetzte Entscheidungen gleichzeitig getroffen werden; chaotische Systeme sind eingeschränkt vorhersehbar. In diesen Szenarien sind die Standardmodelle, die wir in der Ökonomie benutzen, nicht ganz richtig. Deswegen arbeiten Ökonomen seit einigen Jahren mit Wissenschaftlern anderer Disziplinen, z. B. Biologie, Physik und Epidemiologie, um neue Erkenntnisse zu gewinnen und langsam ein Umdenken in die ökonomische Theorie zu zwingen (höchste Zeit dafür!). Man sucht etwa Systeme in der Biologie oder in der Ökologie, die sich ähnlich wie das Finanzsystem verhalten, z. B. Bienen- oder Ameisenvölker als Vorbild für eine funktionierende und effiziente Gesellschaft. Mathematische Modelle sind immer noch notwendig, um Modelle wie z. B. Entscheidungsvernetzung (stark präsent im Finanzsystem) zu analysieren und Prognosen zu stellen.

2020 brach weltweit die Coronavirus-Pandemie aus. Viele der mathematischen Werkzeuge, die wir zur Charakterisierung der Ausbreitung des Covid-19-Coronavirus oder eines anderen infektiösen Erregers verwenden, basieren auf der bayesschen Inferenz, ebenso wie die DNA-Sequenzvergleichstechniken, die zur Analyse des Genoms eines Lebewesens notwendig sind. Eine Methode, die ihre eigenen Vorhersagen korrigiert, wenn neue Daten eintreffen, scheint optimal zu sein, um die Entwicklung von Genen und Arten zu analysieren, und die Ergebnisse zeigen immer noch täglich die Relevanz der Arbeit von Bayes.

1.2 Klassische Wahrscheinlichkeitsrechnung

Um den Satz von Bayes zu verstehen und anzuwenden benötigt man keine großartigen mathematischen Kenntnisse. Wir brauchen lediglich drei Grundbegriffe:

  • Versuch oder Experiment

  • Ereignis

  • Wahrscheinlichkeit oder Probabilität

Wir erklären diese Konzepte anhand eines einfachen Beispiels:

Der Versuch (oder das Experiment) könnte darin bestehen, einen Würfel oder auch eine Münze zu werfen, oder auf bestimmte Aktien in den Finanzmärkten zu „wetten“. Bei einem „normalen“ Würfel haben wir sechs verschiedene Ereignisse, nämlich die Zahlen 1 bis 6, die gewürfelt werden können. Also sind die Ereignisse die Ergebnisse, die beim Experiment herauskommen können. Natürlich gibt es viele Experimente, bei denen man die Ergebnisse, die Resultate, im Vorhinein gar nicht vorhersehen kann (z. B. die Entdeckung von Penicillin).

Bei dem Würfelexperiment ist die Menge aller Elementarereignisse {1,2,3,4,5,6}; bei der Münze haben wir zwei Elementarereignisse {Zahl, Kopf}. Je zwei Elementarereignisse schließen sich gegenseitig aus (man kann nicht gleichzeitig eine 3 und eine 4 werfen; wir können auch nicht gleichzeitig Zahl und Kopf beim Münzwurf erreichen); bei den Aktien haben wir auch zwei mögliche Ereignisse, die sich gegenseitig ausschließen: in einem gegebenen Zeithorizont steigt der Preis der Aktie entweder oder er sinkt; der US-Dollar steigt in einem beschränkten Zeitraum gegenüber dem Schweizer Franken oder er sinkt. Jedes Ereignis, das man sich vorstellen kann, kann durch Zusammenfassen von Elementarereignissen erreicht werden. Man kann etwa eine 8 erreichen, indem man zuerst eine 5 und dann eine 3 würfelt, also indem man zwei Elementarereignisse zusammenfügt, 3 + 5 = 8. Man kann aber auch Teilmengen bilden. So könnten wir z. B. verlangen, dass man eine gerade Zahl wirft; in diesem Fall wäre die Menge der Ereignisse gleich {2,4,6}. Man könnte aber auch sagen, man werfe eine Primzahl (eine Primzahl ist eine Zahl, die nur durch sich selbst und durch 1 teilbar ist; aber: die 1 ist keine Primzahl), dann wäre die Teilmenge der Ereignisse gleich {2,3,5}. Wenn wir mit einem einzigen Wurf eine 8 werfen müssten, dann wäre die Menge der Ereignisse leer, denn es ist unmöglich, mit einem Würfel mit sechs Gesichtern eine 8 zu würfeln. Die leere Menge beschreibt man in der Mathematik mit folgendem Symbol: ø, oder einfach { }.

Nun kommen wir zum Konzept der Wahrscheinlichkeit. In der Schule lernen wir die Rechenregel der Wahrscheinlichkeit eines Ereignisses in einem Satz: „Die Wahrscheinlichkeit eines Ereignisses ist gleich der Anzahl der günstigen Möglichkeiten geteilt durch die Anzahl aller Möglichkeiten“. Die „günstigen Möglichkeiten“ werden gesucht, z. B. ein Sechser im Lotto. Und um den Satz von Bayes zu benutzen reicht es, wenn man die Wahrscheinlichkeit eines Ereignisses ausrechnen kann. Nehmen wir unseren Würfel mit sechs Zahlen.

Die Anzahl aller möglichen Ereignisse ist (Ω) = {1,2,3,4,5,6}, also haben wir insgesamt sechs Möglichkeiten. Die Wahrscheinlichkeit, dass irgendeines dieser Ereignisse auftritt, ist gleich eins, da logischerweise irgendeine Zahl erscheinen muss, wenn wir den Würfel werfen. Also muss die Summe aller Wahrscheinlichkeiten der verschiedenen möglichen Ereignisse gleich 1 sein, weil mit Sicherheit eines der möglichen Ereignisse auftreten wird:

$$ {\text{F}}\ddot {\text{u}} {\text{r P}}\left( {\text{z}} \right)\,=\,1/6{\text{ mit z}}\,=\,\left\{ { 1, 2, 3, 4, 5, 6} \right\} $$
(1.1)

Also 1/6 + 1/6 + 1/6 + 1/6 + 1/6 + 1/6 = 1.

Wenn wir oben genannte Definition verwenden, dann müssen wir die Anzahl der günstigen Möglichkeiten, in diesem Fall {1,2,3,4,5,6}, teilen durch die Anzahl aller Möglichkeiten, auch 6: (P steht für Probabilität, also für Wahrscheinlichkeit).

$$ {\text{P}}\left( {\text{OMEGA}} \right)\,=\, 6/ 6\,=\,1 $$
(1.2)

Nehmen wir jetzt an, wir wollen die Wahrscheinlichkeit ausrechnen, eine 5 zu werfen. Wir machen wieder das Gleiche: Anzahl der günstigen Möglichkeiten (das, was wir suchen): 1 (da der Würfel nur eine 5 besitzt) geteilt durch die Anzahl aller Möglichkeiten: 6 (wie oben erklärt):

$$ {\text{P}}\left( 5\right)\,=\,1/ 6 $$
(1.3)

Das heißt, wenn man den Würfel sechsmal wirft, sollte einmal die 5 rauskommen – „sollte“, nicht muss! Die Erklärung folgt weiter unten.

Machen wir es ein bisschen komplizierter: wir wollen jetzt die Wahrscheinlichkeit berechnen, entweder eine 3 oder eine 6 zu würfeln. Wir wissen, dass P(3) = 1/6 ist, genau wie P(6) = 1/6. Jetzt müssen wir nur beide Wahrscheinlichkeiten zusammenrechnen:

$$ {\text{Eine 3 oder eine 6 w}}\ddot {\text{u}} {\text{rfeln}}\,=\,{\text{P}}\left( 3\right)\,+\,{\text{P}}\left( 6\right)\,=\, 1/ 6\,+\,1/ 6\,=\,2/ 6\,=\,1/ 3 $$
(1.4)

Die Wahrscheinlichkeit, dass wir 1, 3 oder 5 würfeln, wäre dann:

$$ {\text{P}}\left( 1\right) + {\text{P}}\left( 3\right) + {\text{P}}\left( 5\right)\,=\, 1/6 + 1/6 + 1/6\,=\, 3/ 6\,=\,1/2 $$
(1.5)

Das heißt: Die Hälfte aller unserer Würfe sollte eine 1, eine 3 oder eine 5 ergeben (wieder „sollte“, nicht „muss“).

Ganz wichtig: wir sprechen davon, dass die Hälfte aller Würfe eine 1, eine 3 oder eine 5 ergeben SOLLTE, es muss aber nicht passieren. Nur wenn wir unendlich oft werfen würden (was unmöglich ist, aber wir können zu unendlich tendieren), würden wir die Hälfte der Male eine 1, 3 oder 5 bekommen. Würden wir das Experiment sehr oft wiederholen (tendenziell bis ins Unendliche), dann würde sich die empirische Wahrscheinlichkeit (entstanden durch den Wurf des Würfels) der idealen Wahrscheinlichkeit annähern (die 1/2 die wir in Gl. 1.5 ausgerechnet haben); dies ist eine einfache Erklärung des sogenannten Gesetzes der großen Zahlen. Noch deutlicher ist es beim Münzwurf: Die Wahrscheinlichkeit für Zahl oder Kopf beträgt 1/2. Jedes zweite Mal sollte also Kopf kommen, es kann aber durchaus passieren, dass wir zehnmal die Münze werfen und neunmal Kopf rauskommt und nur einmal Zahl. Wäre das nicht der Fall, dann würden sehr viele Menschen Casinos als Millionäre verlassen. Deswegen muss man mit Wahrscheinlichkeiten vorsichtig sein: Es heißt nicht, dass etwas eintreten wird, sondern nur, dass etwa bei der Hälfte der Würfe einer Münze (eine hohe Zahl) Kopf herauskommen wird und Zahl bei den restlichen 50 %. Die Probabilitätszahlen geben uns also keine Sicherheit, deswegen heißt es ja auch Wahrscheinlichkeit. Die Wahrscheinlichkeit ist ein quantitatives Maß für den Grad der Möglichkeit, mit dem ein Ereignis zur Wirklichkeit werden kann… Werden kann! (Deswegen liegen auch so viele ökonomische Prognosen daneben).

Nachdem wir das geklärt haben, können wir unsere Beispiele etwas komplizierter gestalten. Wir wollen jetzt unseren Würfel zweimal werfen. Wie groß ist dabei die Wahrscheinlichkeit, dass wir mindestens eine 5 werfen? Für den ersten Wurf, wie schon gesehen, haben wir eine Wahrscheinlichkeit von 1/6; für den zweiten Wurf haben wir ebenfalls eine Wahrscheinlichkeit von 1/6. Wir müssen mindestens einmal die 5 werfen, also ist die Wahrscheinlichkeit dafür 1/6 + 1/6 = 1/3. Was, wenn wir die Wahrscheinlichkeit berechnen wollen, dass wir genau zwei Fünfer würfeln? In diesem Fall müssen wir nicht ein „oder“ sondern ein „und“ berechnen: dass beim ersten Wurf eine 5 herauskommt UND dass auch beim zweiten Wurf eine 5 herauskommt. In diesem Fall müssen wir beide Probabilitäten multiplizieren, wir wenden die Multiplikationsregel (oder Multiplikationssatz) an:

$$ {\text{P}}\left( { 5 {\text{ und 5}}} \right)\,=\, 1/ 6\,*\,1/ 6\,=\, 1/ 3 6 $$
(1.6)

Was ist die Multiplikationsregel?

Die Wahrscheinlichkeit, dass sowohl Ereignis A als auch Ereignis B eintreten werden ist:

$$ {\text{P}}\left( {{\text{A}} \cap {\text{B}}} \right)\,=\,{\text{P}}\left( {\text{A}} \right)\,*\,{\text{P}}\left( {{\text{B}}|{\text{A}}} \right) $$
(1.7)

Also, die Wahrscheinlichkeit, dass A und B eintreten ist gleich der Wahrscheinlichkeit von A mal der Wahrscheinlichkeit von B, vorausgesetzt B.

Also ist die Wahrscheinlichkeit des gemeinsamen Auftretens zweier voneinander unabhängiger Ereignisse gleich dem Produkt ihrer Einzelwahrscheinlichkeiten:

$$ {\text{P}}\left( {\text{A und B}} \right)\,=\,{\text{P}}\left( {\text{A}} \right)\,*\,{\text{P}}\left( {\text{B}} \right) $$
(1.8)

Generell gilt:

$$ {\text{P}}\left( {\text{A und B}} \right)\,=\,{\text{P}}\left( {\text{A}} \right)\,*\,{\text{P}}\left( {{\text{B}}|{\text{A}}} \right)\,=\,{\text{P}}\left( {\text{B}} \right)\,*\,{\text{P}}\left( {{\text{A}}|{\text{B}}} \right) $$
(1.9)

wobei

  • P(A), die Wahrscheinlichkeit des Eintretens von Ereignis A ist, und

  • P(B|A), die Wahrscheinlichkeit, dass das Ereignis A das Ereignis B nach sich zieht, oder anders ausgedrückt, die Wahrscheinlichkeit von B vorausgesetzt A.

Deutlicher wird es bei folgendem Beispiel:

Nehmen wir an, wir haben eine Urne mit 13 Kugeln, 6 sind schwarz und 7 weiß. Wir entnehmen aus der Urne zwei Kugeln, ohne die erste wieder zurückzulegen. Wie hoch ist bei diesem Experiment die Wahrscheinlichkeit, dass sowohl die erste als auch die zweite Kugel schwarz sind? Um dieses Szenario visuell darzustellen, benutzen wir ein Baumdiagramm oder Wahrscheinlichkeitsbaum. Die Ecken dieser Bäume repräsentieren Zufallsverzweigungen und die Kanten stehen für die entsprechenden Ereignisse. Jeder Kante wird eine Zahl zugeordnet: Die Wahrscheinlichkeit für das Eintreten des Ereignisses, das die Kante darstellt. Noch klarer wird es, wenn man es sieht (Abb. 1.1)

Abb. 1.1
figure 1

Baumdiagramm; A = (Schwarz erste Entnahme) ∩ (Schwarz zweite Entnahme)

Es befinden sich nur 6 schwarze Kugeln von insgesamt 13 in der Urne, d. h. die Wahrscheinlichkeit, beim ersten Versuch eine schwarze Kugel zu entnehmen, ist gleich 6/13. Da wir die Kugel nicht mehr zurücklegen, verändert sich die Wahrscheinlichkeit, eine weitere schwarze Kugel zu ziehen. Jetzt gibt es in der Urne nur noch 5 schwarze Kugeln von insgesamt 12 Kugeln. So ist bei der zweiten Entnahme die Wahrscheinlichkeit, eine schwarze Kugel zu entnehmen, auf 5/12 gesunken. Diese Informationen in Verbindung mit dem Multiplikationssatz lassen uns die Wahrscheinlichkeit des Ereignisses A (Schwarz bei der ersten und bei der zweiten Entnahme) berechnen:

$$ \begin{aligned} {\text{P}}\left( {\text{A}} \right) \, & = \,\left( {\text{schwarz bei der ersten Entnahmen}} \right) \cap \left( {\text{schwarz bei der zweiten Entnahme}} \right) \\ & = \,{\text{P}}\left( {\text{schwarz bei der ersten Entnahme}} \right) \\ & \quad \quad *{\text{P}}\left( {{\text{schwarz bei der zweiten Entnahme}}|{\text{schwarz bei der ersten Entnahme}}} \right) \\ & = \,\left( { 6/ 1 3} \right)\,*\,\left( { 5/ 1 2} \right)\,=\, 30/ 1 5 6\,=\, 5/ 2 6\\ \end{aligned} $$
(1.10)

Dies bedeutet, dass man unabhängige Ereignisse daran erkennen kann, dass die Wahrscheinlichkeit für ihr gleichzeitiges Eintreten gleich dem Produkt ihrer Einzelwahrscheinlichkeit ist, wenn sie voneinander unabhängig sind!

Was sind „voneinander unabhängige“ Ereignisse?

Voneinander unabhängige Ereignisse sind z. B. die Würfelaugenzahlen zweier Würfe (oder eines Wurfes mit zwei Würfeln). Also, zwei Ereignisse sind unabhängig, wenn es für die Wahrscheinlichkeit des einen bedeutungslos ist, ob man etwas über das andere Ereignis weiß oder nicht. Zu wissen, ob morgen die Sonne scheinen wird ist bedeutungslos für die Wahrscheinlichkeit, dass ich im Lotto gewinne. Aber die Tatsache, dass es regnet gibt uns eine eindeutige Information darüber, ob die Straßen nass sein werden oder nicht.

Machen wir weiter mit unserem Würfelexperiment. Nun erhöhen wir wieder ein bisschen die Schwierigkeit unserer Berechnungen: Wie hoch ist die Wahrscheinlichkeit, mit zweimaligem Werfen eines Würfels, mindestens eine 8 zu erreichen, ohne zu wissen, was im ersten Wurf erzielt wurde? Nun beginnt die Überlegung, die wie folgt aussieht: Es gibt mehrere Möglichkeiten, wie wir zu einer 8 kommen könnten. Wir könnten zuerst eine 2 werfen und dann eine 6, oder wir könnten zuerst eine 5 werfen und dann eine 3. Beides zusammengerechnet ergibt 8, aber es sind verschiedene Kombinationen von Zahlen. Und wir sprachen ja von „mindestens“, das heißt, wenn ich zuerst eine 3 werfe, dann müsste ich beim zweiten Wurf eine 5 oder eine 6 werfen, damit ich mindestens eine 8 bekomme. Oder wenn ich zuerst eine 4 werfe, dann müsste ich beim zweiten Wurf entweder wieder eine 4, eine 5 oder eine 6 werfen, um mindestens eine 8 zu erreichen. Tab. 1.1 zeigt uns die möglichen Kombinationen beim Werfen von zwei Würfeln.

Tab. 1.1 Zwei Würfel ergeben folgende Kombinationen

Insgesamt sind es 36 verschiedene Möglichkeiten (sechsmal 6, weil wir ja zweimal unter 6 Zahlen (mit Wiederholung) auswählen). Jetzt müssen wir nur noch die Kombinationen aussuchen, die mindestens eine 8 ergeben. Die erste Zeile der möglichen Kombinationen (Tab. 1.1) können wir außer Acht lassen, da uns keine Zahl mit eins zu mindestens 8 bringt. Wenn wir die zweite Zeile ansehen, dann gibt es nur eine Möglichkeit, nämlich 2 und 6, also beträgt hier die Wahrscheinlichkeit 1/36. Bei der dritten Zeile gibt es zwei Möglichkeiten, 3 und 5, und 3 und 6, also beträgt hier die Wahrscheinlichkeit 2/36. Bei der vierten Zeile haben wir drei Möglichkeiten, nämlich (4,4), (4,5) und (4,6), die Wahrscheinlichkeit ist 3/36. In der fünften Zeile haben wir vier Möglichkeiten, mindestens eine 8 zu erreichen: (5,3), (5,4), (5,5) und (5,6), also ist die Wahrscheinlichkeit gleich 4/36. Und in der sechsten und letzten Zeile haben wir fünf Möglichkeiten: (6,2), (6,3), (6,4), (6,5) und (6,6), also ist die Wahrscheinlichkeit 5/36. Jetzt müssen wir nur noch diese Wahrscheinlichkeiten zusammenrechnen, wie oben gesehen:

$$ \begin{aligned} {\text{P}}\left( {\text{mindestens eine 8 zu erreichen}} \right) & = \, 1/ 3 6\,+\,2/ 3 6\,+\, 3/ 3 6\,+\, 4/ 3 6\,+\, 5/ 3 6\\ & \,=\, 1 5/ 3 6\,=\, 5/ 1 2\\ \end{aligned} $$
(1.11)

Die Wahrscheinlichkeit, mit zwei Würfen mindestens eine 8 zu erreichen, beträgt also 5/12.

Nehmen wir an, wir wissen, dass wir beim ersten Wurf eine 4 bekommen haben. Jetzt haben wir also eine zusätzliche Information darüber, was beim ersten Wurf herausgekommen ist. Diese zusätzliche Information verändert unsere Berechnungen. Wie wir wissen, beträgt die Wahrscheinlichkeit, eine 4 zu werfen, 1/6; nun müssen wir eine 4, eine 5 oder eine 6 bekommen, die Wahrscheinlichkeit ist 3/6. Also, mit dem Wissen, dass Sie eine 4 geworfen haben, haben Sie nun 3/6 = 1/2 Wahrscheinlichkeit, mindestens 8 zu erreichen. 1/2 ist gleich 6/12 und dies ist höher als die Wahrscheinlichkeit, die wir oben ausgerechnet haben (5/12). Wie ist das möglich? Wir sind ja immer noch im gleichen Experiment! Im ersten Fall haben wir die Wahrscheinlichkeiten ausgerechnet, ohne zu wissen, welche Zahl zuerst herausgekommen ist; im zweiten Fall wissen wir, dass wir zuerst eine 4 bekommen haben, und mit diesem Wissen berechnen wir die Wahrscheinlichkeit, dass wir eine 4, eine 5 oder 6 bekommen. Im zweiten Fall, wo die Wahrscheinlichkeit, mindestens eine 8 zu bekommen, 6/12 beträgt, haben wir also zusätzliche Informationen in Betracht gezogen, nämlich zuerst eine 4 gewürfelt zu haben. Wir ziehen also das Ergebnis des ersten Wurfes in Betracht, um die Wahrscheinlichkeit zu berechnen, dass wir mindestens zu einer 8 kommen (mit Vorwissen). Diese Art von Wahrscheinlichkeiten heißt „bedingte Wahrscheinlichkeiten“: das sind Wahrscheinlichkeiten, die mit zusätzlicher Information berechnet werden.

Was ist die bedingte Wahrscheinlichkeit?

Generell sprechen wir von bedingter Wahrscheinlichkeit, wenn wir die Wahrscheinlichkeit berechnen, dass ein Ereignis A eintritt, wenn wir zusätzlich wissen, dass Ereignis B eingetreten ist. Man schreibt P(A|B), also „die Wahrscheinlichkeit von A unter der Voraussetzung von B“. Die Formel zur Berechnung der bedingten Wahrscheinlichkeit lautet:

$$ {\text{P}}\left( {{\text{A}}|{\text{B}}} \right)\,=\,\left( {{\text{P}}\left( {{\text{A}} \cap {\text{B}}} \right)} \right)/{\text{P}}\left( {\text{B}} \right) $$
(1.12)

P(A∩B) steht für die Wahrscheinlichkeit, dass Ereignis A UND B (∩) eintreten, im Gegensatz zu P(A∪B), der Wahrscheinlichkeit, dass das Ereignis A oder B (∪) eintreten. Wie sieht das in unserem Beispiel aus? Das Ereignis A ist, mit zwei Würfen mindestens eine 8 zu erreichen. Das Ereignis B ist, beim ersten Wurf eine 4 zu erreichen; die Wahrscheinlichkeit, beim ersten Wurf eine 4 zu erreichen, beträgt 1/6. A∩B steht dafür, mindestens eine 8 zu erreichen, mit dem Wissen, dass wir eine 4 geworfen haben. Das sind die Kombinationen (4,4), (4,5) und (4,6), also drei der 36 möglichen Paare (siehe Tab. 1.1); also beträgt die Wahrscheinlichkeit von P(A∩B) 3/36. Nun setzen wir diese Zahlen in die obige Formel und erhalten:

$$ {\text{P}}\left( {{\text{A}}|{\text{B}}} \right)\,=\,\left( {{\text{P}}\left( {{\text{A}} \cap {\text{B}}} \right)} \right)/{\text{P}}\left( {\text{B}} \right)\,=\,\left( { 3/ 3 6} \right)/\left( { 1/ 6} \right)\,=\, 1 8/ 3 6\,=\, 6/ 1 2\,=\, 1/ 2 $$
(1.13)

Dies ist also genau das gleiche Ergebnis, das wir oben mit deutlich mehr Aufwand ausgerechnet haben.

Nehmen wir die bedingte Wahrscheinlichkeit etwas auseinander (damit werden wir in Kap. 2 den Satz von Bayes besser verstehen). Wir denken normalerweise in „Kausalzusammenhängen“, d. h. „Aktion → Wirkung“ oder „Ursache → Wirkung“. So können wir auch bei der bedingten Wahrscheinlichkeit denken, etwa: es hat geregnet → die Straßen sind nass; es brennt → es gibt Rauch. In diesen Beispielen haben wir deutliche Kausalzusammenhänge: die Ursache ist Regen, die Wirkung sind nasse Straßen; die Ursache ist Feuer, die Wirkung ist Rauch. Wir schreiben in der bedingten Wahrscheinlichkeit:

P(Wirkung|Ursache), die Wahrscheinlichkeit der Wirkung, wenn die Ursache vorliegt. Wenn wir B als Wirkung und A als Ursache betrachten, dann schreiben wir.

$$ {\text{P}}\left( {\text{B}} \right)\,=\,{\text{P}}\left( {{\text{B}}|{\text{A}}} \right)\,*\,{\text{P}}\left( {\text{A}} \right) $$
(1.14)

Mit

  • P(B):

    Wahrscheinlichkeit eines Ereignisses B.

  • P(A):

    Wahrscheinlichkeit eines Ereignisses A.

  • P(A|B):

    Wahrscheinlichkeit, dass A das Ergebnis B nach sich zieht

z. B.:

$$ {\text{P}}\left( {{\text{Stra{\ss}e nass}}} \right)\,=\,{\text{P}}\left( {{\text{Stra{\ss}e nass}}|{\text{Regen}}} \right)\,*\,{\text{P}}\left( {\text{Regen}} \right) $$
(1.15)

Die Ökonomie arbeitet oft mit der bedingten Wahrscheinlichkeit. Nehmen wir an, die Inflation steigt und wir wollen wissen, ob sich deswegen die Zentralbank entscheiden wird, die Zinsen zu erhöhen, um die Inflation zu bekämpfen. Offensichtlich brauchen wir zuerst die Wahrscheinlichkeit einer Steigerung der Inflation. Zweitens berechnen wir die Wahrscheinlichkeit, dass die Zinsen erhöht werden, wenn die Inflation gestiegen ist; jetzt müssen wir nur noch die Multiplikationsregel anwenden (Gl. 1.7). Also sieht es so aus:

$$ {\text{P}}\left( {{\text{Zinsen erh}}\ddot {\text{o}} {\text{hen}}} \right) = {\text{P}}\left( {{\text{Zinsen erh}}\ddot {\text{o}} {\text{hen}}|{\text{Inflation steigt}}} \right)\,*\,{\text{P}}\left( {\text{Inflation}} \right) $$
(1.15)

Wir könnten dies erweitern und ausrechnen, was mit dem Aktienindex geschehen würde, wenn die Zinsen erhöht werden (z. B., weil die Inflation gestiegen ist). Wir könnten dann folgende Arbeitshypothese aufstellen:

  • Ursache = Zinserhöhung

  • Wirkung = Sinken des Aktienindex.

Im folgenden Kapitel benutzen wir das gewonnene Wissen (besonders über die bedingte Wahrscheinlichkeit), um den Satz von Bayes im Detail zu erklären.

Kurze Zusammenfassung

  • Unser Gehirn kann – aus Spargründen – schlecht mit dem Zufall umgehen („The Neglect of Probability“).

  • Die einfache Wahrscheinlichkeit eines Ereignisses ist gleich der Anzahl der günstigen Möglichkeiten geteilt durch die Anzahl aller Möglichkeiten.

  • Die bedingte Wahrscheinlichkeit hilft uns, zusätzlich gewonnene Informationen einzuberechnen. Wir verwenden dann die Multiplikationsregel.

  • Ein Wahrscheinlichkeitsbaum oder Baumdiagramm ist ein visuelles Hilfsmittel zur Darstellung von Zufallsprozessen.