In Kapitel 2 wurden die Ziele der Neuroökonomie betrachtet, sowie die Erwartungen, die die Neurowissenschaftler und Ökonomen an die Neuroökonomie haben. Nun werfen wir einen Blick auf die Frage nach der Arbeit der Neuroökonomen für die Erreichung dieser Ziele. Dafür teilen wir die Neuroökonomie in ihre Mutterwissenschaften Ökonomie und Neurowissenschaften auf und betrachten die Arbeit der Neurowissenschaftler und Ökonomen zunächst eigenständig. In diesem Kapitel beginnen wir mit der Betrachtung der ökonomischen Seite der Neuroökonomie und sehen, wie die konkrete Arbeit der Ökonomen in dieser neuen Wissenschaft aussieht. In Kapitel 4 wird die Arbeit der kognitiven Neurowissenschaften thematisiert werden, worauf wir in Kapitel 5 beide Seiten zu einer Analyse der neuroökonomischen Zusammenarbeit zusammenbringen.

Doch zunächst zur Ökonomie: Um die Arbeit der Ökonomen besser verstehen zu können, ist es hilfreich, in Abschnitt 3.1 einen Blick auf die Verhaltensökonomie zu werfen, den Teilbereich der Ökonomie, der sich zumeist für die Neuroökonomie interessiert. Auf diese Weise erfahren wir, welches die ursprünglichen, ökonomischen Interessen und Kompetenzen dieser Wissenschaftler sind, die sie für ihre neuroökonomische Arbeit einsetzen. Für eine Charakterisierung der Verhaltensökonomie werden wir uns in Abschnitt 3.1 an vier Aspekten orientieren, die Edward Cartwright (Cartwright 2014) in einer Überblicksarbeit als Meilensteine in der Entwicklungsgeschichte der Verhaltensökonomie bezeichnet. Sie zeigen sehr gut die Probleme der Standardökonomie sowie die Lösungsansätze auf, die Verhaltensökonomen in den vergangenen Jahrzehnten vorgebracht haben. Das reicht von Herbert Simons Idee von bounded Rationality über die Etablierung von Laborexperimenten in der Ökonomie bis hin zu Daniel Kahnemans und Amos Tverskys Heuristics-and-Biases-Programm und der Entwicklung der Spieltheorie als wirksames Analyseinstrument.

Ein weiterer Aspekt moderner Verhaltensökonomie ist der Umgang mit vom Standardmodell abweichendem Verhalten von Versuchspersonen mittels der Entwicklung neuer Modelle zur Modellierung erweiterter Präferenzen im Vergleich zum Standardmodell. Dazu zählen beispielsweise soziale Präferenzen. In Abschnitt 3.2 werden zwei Modelle für die Einarbeitung sozialer Präferenzen in die Nutzenfunktionen ökonomischer Agenten vorgestellt. Sie zeigen, wie Verhaltensökonomen mit Experimentergebnissen umgehen und welche Ideen neuen Modellen zugrunde liegen.

3.1 Simon und die bounded Rationality

In Abschnitt 2.2 betrachteten wir Probleme, die Homo oeconomicus als Menschenbild der Ökonomie mit sich bringt. Es wird als nicht realistisch angesehen und daher für wenig geeignet, Entscheidungssituationen aus der realen Wirtschaftswelt zu modellieren. Aus einer Frustration mit dieser Situation heraus entwickelte sich ab Mitte des 20. Jahrhunderts die Verhaltensökonomie.

Ökonom Edward Cartwright (Cartwright 2014) beschreibt die Entwicklungsgeschichte der Verhaltensökonomie anhand vier verschiedener, aber zusammenwirkender Aspekte, denen wir hier folgen werden, da sie das Geschehen recht anschaulich gliedern. Es geht dabei um die bounded Rationality von Simon, das Heuristics-and-Biases-Programm von Kahnemann und Tversky, die Etablierung von Laborexperimenten in der Ökonomie und die Entwicklungen, die die Spieltheorie im zwanzigsten Jahrhundert durchläuft, dank der Arbeiten von John Nash, Reinhard Selten und John Harsanyi. Beginnen wir mit dem ersten Aspekt:

Simon gilt als einer der ersten Kritiker des zeitgenössischen ökonomischen Menschenbildes. Er forderte, Homo oeconomicus durch ein realistischeres Modell zu ersetzen. Seiner Meinung nach gibt es keinen einzigen Beweis dafür, dass in einer tatsächlichen Entscheidungssituation die von den Ökonomen geforderten Berechnungen durchgeführt werden können oder durchgeführt werden. (Simon 1955, 104). Ein neues Modell sollte der eingeschränkten Rationalität realer Menschen Rechnung tragen, womit Simon den Begriff bounded Rationality prägte. Allerdings stieß Simons Aufruf unter den Ökonomen zunächst auf weitgehend taube Ohren, was seiner Idee damals den Einfluss versagte, den sie vielleicht verdient hätte. Das erklärt Cartwright damit, dass Simon keinen formalen Beweis dafür vorgebracht hatte, dass Homo oeconomicus keine gute Annäherung an das menschliche Verhalten ist. Das machte es für Ökonomen einfacher, Simons Arbeiten zu ignorieren. (Cartwright 2014, 7). Erst Kahneman und Tversky konnten solche Belege liefern, mit einer Fülle an Experimenten und Hypothesen, die wir in Abschnitt 3.3 ausführlicher betrachten werden.

3.2 Smith und Laborexperimente

Der zweite Entwicklungsaspekt der Verhaltensökonomie, den Cartwright (Cartwright 2014) beschreibt, ist die Etablierung von Laborexperimenten als Werkzeug der empirischen Ökonomie. Maßgeblich war hier vor allem die Arbeit von Vernon Smith, für die er 2002 auch den Nobelpreis für Ökonomie erhielt. Smith war dabei gar nicht der erste Ökonom, der experimentelle Studien durchführte. Er selbst (Smith 1962) bezieht sich auf Edward Chamberlin, der Berichte über seine Experimente bereits in den Vierzigerjahren publiziert hatte (Chamberlin 1948). Allerdings weicht Smith bei seinem Experimentaufbau in einigen Punkten von dem Chamberlins ab, um Nachteile auszuschalten oder andere Marktaspekte besser beleuchten zu können. Smiths Studien begannen 1955 mit einer sechs Jahre dauernden Experimentreihe, die er darüber hinaus weiterzuentwickeln gedachte (Smith 1962, 111). Wir werfen hier einen kurzen Blick darauf, da Smiths Ideen und Vorgehensweisen wegbereitend für die Entwicklung der heutigen Experimentkultur in der Verhaltensökonomie waren:

Zum Teil sind diese Experimente darauf ausgerichtet, Hypothesen zum Marktgleichgewicht des Ökonomen Alfred Marshall zu testen, die dieser bereits 1890 veröffentlicht hatte (Marshall 1890). Da reale Märkte gewöhnlich sich verändernden Bedingungen unterworfen sind, definierte Marshall das Gleichgewicht als einen Zustand, zu dem sich der Markt hinbewegen würde, wenn Angebot und Nachfrage für eine ausreichend lange Zeitspanne unverändert blieben. Um testen zu können, ob sich ein Gleichgewicht tatsächlich mit der Zeit einstellen würde, hält Smith (Smith 1962, 115) in seinen experimentellen Märkten die Bedingungen von Angebot und Nachfrage über mehrere aufeinanderfolgende Handelsperioden konstant. Dafür teilt Smith, ähnlich wie Chamberlin, seine Versuchsteilnehmer nach dem Zufallsprinzip in zwei Gruppen auf, die Verkäufer und die Käufer. Jeder der Käufer erhält eine Karte mit einer Zahl darauf, die nur er kennt. Diese Zahl repräsentiert den maximalen Preis, den dieser Käufer gewillt ist, für eine Einheit der gehandelten Ware zu bezahlen. Den Käufern wird erklärt, dass sie keinen höheren Preis als den auf ihrer Karte für die Ware bezahlen dürfen, aber gerne einen niedrigeren Preis bezahlen möchten (je niedriger desto besser). Jedoch würden sie lieber genau den Preis auf der Karte bezahlen, als keine Ware zu erhalten und so ihre Bedürfnisse unbefriedigt zu lassen. Darüber hinaus wird den Käufern erklärt, dass sie sich vorstellen sollen, sie machen bei einem Kaufabschluss einen Reingewinn in Höhe der Differenz zwischen dem Maximalpreis auf der Karte und dem tatsächlich erzielten Handelspreis. (Smith 1962, 112). Diese Erklärung sollte die Probanden dazu anhalten, nicht beim ersten Angebot kleiner oder gleich ihrem Maximalpreis zuzuschlagen, sondern auf einen möglichst niedrigen Preis hinzuarbeiten.

Analog erhalten die Verkäufer je eine Karte mit einer Zahl, die nur ihnen bekannt ist und den Minimalpreis darstellt, zu dem sie eine Einheit der gehandelten Ware zu verkaufen bereit sind. Auch ihnen wird erklärt, dass sie gewillt sein sollten, zu diesem Preis ihre Ware zu verkaufen, was ihnen lieber sein sollte, als am Ende der Handelsperiode keine Ware verkauft zu haben. Jedoch machen auch die Verkäufer einen Reingewinn, der der Differenz zwischen erzieltem Preis und Minimalpreis entspricht, sodass sie versuchen sollten, ihre Ware zu einem so hohen Preis wie möglich zu verkaufen. Unterhalb des Minimumpreises sollten sie aber auf keinen Fall einen Handel eingehen.

Für Smith (Smith 1962, 115) ist es wichtig, dass die Marktteilnehmer darüber hinaus keine Informationen über den fiktiven Markt erhalten. Es wird keine Historie angezeigt und niemand erfährt den Maximum- beziehungsweise Minimumpreis der übrigen Käufer beziehungsweise Verkäufer. Damit möchte Smith seine Experimentalmärkte nur mit solchen Informationen ausstatten, die auch in einem realen Markt praktisch erfahrbar wären. In einem realen Markt, beispielsweise einer Wertpapierbörse, kennen die Marktteilnehmer die Reservationspreise der übrigen Marktteilnehmer für gewöhnlich nicht. Um trotzdem Informationen über die Marktbedingungen zu erlangen, müssen sie die getätigten und akzeptierten Angebote und Gebote beobachten und so etwas über das Verhalten der anderen lernen. Aus diesen „public data“ (Smith 1962, 115) des Marktes sollen die Versuchsteilnehmer ihre Schlüsse ziehen.

Diese Bedingungen werden, wie gesagt, über mehrere Handelsperioden konstant gehalten. Die Käufer und Verkäufer behalten auch ihre Maximal- und Minimalpreis-Karten aus der ersten Periode für alle übrigen Perioden.

Im Unterschied zu Chamberlins Experimenten beschränkt Smith die Handelsmöglichkeiten der Marktteilnehmer nicht auf bilaterale Gespräche, sondern ermöglicht multilaterales Bieten. Wenn der Markt für die erste Handelsperiode öffnet, dürfen die Marktteilnehmer ihre Hand heben und ein mündliches Angebot zum Kauf beziehungsweise Verkauf abgeben. Dabei ist jede Preisnennung erlaubt, die den eigenen Maximal- beziehungsweise Minimalpreis nicht verletzt. Die Marktteilnehmer dürfen nach eigenem Ermessen ein Angebot annehmen, wodurch ein Vertrag zwischen den beiden Handelspartnern abgeschlossen wird und sie den Markt für den Rest der Handelsperiode verlassen. Sobald ein Handel abgeschlossen ist, wird der Vertragspreis schriftlich festgehalten, sowie die Minimal- und Maximalpreise der Vertragspartner. Dies wird weitergeführt, bis keine neuen Verträge mehr zustande kommen oder die Zeit einer Handelsperiode abgelaufen ist. In Smiths frühen Experimenten, die wir hier betrachten, besteht ein Experiment aus drei bis sechs Handelsperioden, abhängig davon, wie viele Versuchsteilnehmer anwesend sind. Da Smith die Experimente während einer Vorlesungssitzung durchführt, ist die Gesamtlaufzeit jedes Mal (gleich) beschränkt.

Im Rahmen dieser Arbeit werden wir nicht alle Resultate aus Smiths ersten Experimenten einzeln betrachten können, schauen aber auf fünf Hypothesen, die Smith (Smith 1962, 134) aus den Daten schloss: Erstens gibt es starke Tendenzen hin zu einem Marktgleichgewicht, sofern die Angebote und Gebote sowie die Transaktionen öffentlich gehalten und Preisabsprachen verhindert werden. Zweitens führen Veränderungen der Bedingungen von Angebot und Nachfrage zu entsprechenden Veränderungen in der Anzahl an Transaktionen und ihrem Preisniveau. Die neuen Preise entsprechen dabei recht genau den Vorhersagen der Competitive Price Theory. Drittens sieht Smith in den Daten leichte Belege dafür, dass für die Vorhersage eines statischen Gleichgewichts in einem Markt Wissen über die Form der Angebots- und Nachfragekurven und ihre Schnittpunkte voraussetzen. Viertens zeigen Märkte, in denen nur die Käufer Kursnotierungen vornehmen dürfen, schwächere Tendenzen zu einem Gleichgewicht, wenn nicht sogar Tendenzen dagegen, zugunsten der Käufer. Eine mögliche Erklärung für Smith ist, dass die Käufer in diesem Verfahren nur ein Minimum an Informationen über ihre Kaufbereitschaft preisgeben. Fünftens sieht Smith die von ihm so genannte Walrasian HypothesisFootnote 1 nicht bestätigt. Er hält die Excess Rent HypothesisFootnote 2 für adäquater.

Bei Smiths Experimenten und seinem Beitrag zum Aufstieg der Verhaltensökonomie ist eines auffällig: Im Gegensatz zu den Forschungen von Simon und Kahneman und Tversky legen seine Ergebnisse nahe, dass das Standardmodell der Ökonomie doch Einiges richtigmacht. Smith kommt nicht zu dem Schluss, man müsse das bisherige Modell grundlegend verändern, um realistische Vorhersagen treffen zu können. Aber er war einer der einflussreichsten Forscher, die Laborexperimente als empirisches Werkzeug in der Ökonomie etablierten. Seine Ideen, wie Experimente aufgebaut werden sollten, um bestimmte Markteigenschaften zu simulieren, gehören heute zum Standardrepertoire eines jeden experimentell arbeitenden Ökonomen. Auch Smiths Ideen (Smith 1962, 120), die Motivation und Effizienz der Versuchsteilnehmer durch die Auszahlung von leistungsgebundenen monetären Belohnungen zu erhöhen, wird heute noch als Mittel der Wahl eingesetzt. Doch das ist nicht seine alleinige Errungenschaft für die Verhaltensökonomie: Smith begann nicht um ihrer selbst willen mit der Durchführung von Experimenten. Er entwickelte diese Idee, um bestehende ökonomische Hypothesen auf die Probe zu stellen und mögliche Alternativen zu identifizieren und erforschen. Das heißt, Smith nahm ökonomische Modelle als potenziell unrealistisch an und nahm an, sie müssten daraufhin untersucht werden. Es scheint ihm also wichtig gewesen zu sein, herauszufinden, ob die ökonomischen Modelle einen Realitätstest bestehen, und wie reale Menschen ökonomisch handeln. Das ist es, was ihn als Verhaltensökonomen der frühen Stunde auszeichnet.

3.3 Kahneman und Tversky, Heuristiken und Verzerrungen

Den dritten der vier Aspekte in der Entwicklung der Verhaltensökonomie sieht Cartwright in der Arbeit der Psychologen Kahneman und Tversky. Sie zeigten vor allem auf, dass reale Menschen nicht wie Homo oeconomicus denken, rechnen oder entscheiden. Sie konzentrierten sich dabei vor allem auf Entscheidungen unter Unsicherheit und stützten ihre Aussagen auf Experimente, die sie oder Kollegen durchgeführt hatten. Mit diesen Experimenten zeigen sie, dass Menschen systematisch die Anforderungen an rationale Entscheidungsfindungen verletzen, auch Wissenschaftler, die im Umgang mit den gestellten Problemen geschult sind. Kahneman und Tversky (Tversky et al. 1974, 1130) stellten sich unter anderem gegen die Konzeption der subjektiven Wahrscheinlichkeit, die sie in der Entscheidungstheorie falsch angewandt sahen. Ihrer Meinung nach kommen die subjektiven Wahrscheinlichkeiten, die eine Person beispielsweise dem Eintreffen eines Ereignisses zuschreiben, dadurch zustande, dass sich diese Personen auf eine Anzahl an Heuristiken verlassen. Diese Heuristiken reduzieren die komplexe Arbeit der Wahrscheinlichkeitserfassung und Wertzuschreibung auf einfachere Entscheidungsaufgaben. (Tversky et al. 1974, 1124). Die Nutzung von Heuristiken bringt den Vorteil, komplexe Rechenaufgaben umgehen zu können, um sie durch Heuristiken zu ersetzen. Sie zu nutzen, ist nach Kahneman und Tversky (Tversky et al. 1974, 1131) höchst ökonomisch und für gewöhnlich auch effizient, führt aber auch zu systematischen und vorhersehbaren Fehlern, den kognitiven Verzerrungen (cognitive Biases). In zahlreichen Veröffentlichungen beschreiben Kahneman und Tversky eine Reihe von Heuristiken und auch heute noch fügen vor allem Psychologen neue hinzu. Damit konnten Kahneman und Tversky auf eine große Datenbasis setzen, die ihre Thesen empirisch stützen konnten, wodurch sie einen besseren argumentativen Stand hatten als noch Simon. Da sie einen wichtigen Baustein in der Entwicklung der Verhaltensökonomie darstellen und um die Arbeit der beiden verstehen zu können, werden wir drei interessante Heuristiken und ihre Verzerrungen betrachten, die Kahneman und Tversky immer wieder in ihren Publikationen beschreiben: Die Repräsentativheuristik (Representativeness Heuristic), die Verfügbarkeitsheuristik (Availability Heuristic) und die Ankerheuristik (Adjustment and Anchoring Heuristic).

Die Repräsentativheuristik wird bei Fragen folgenden Typs verwendet: Mit welcher Wahrscheinlichkeit gehört Objekt A zur Klasse B? Mit welcher Wahrscheinlichkeit entstammt Ereignis A aus Prozess B? Wie hoch ist die Wahrscheinlichkeit, dass Prozess B Ereignis A hervorbringt? (Tversky et al. 1974, 1124). Kahneman und Tversky (Tversky et al. 1974, 1124) schreiben, dass in der Repräsentativheuristik Wahrscheinlichkeiten danach bewertet werden, in welchem Maße A repräsentativ für B ist, also in welchem Maße A B ähnelt. Wenn also A sehr repräsentativ für B ist, wird die Wahrscheinlichkeit, dass A aus B entstammt, als hoch eingeschätzt und umgekehrt. Ein Beispiel für eine Entscheidung mit der Repräsentativheuristik ist ein mittlerweile sehr bekanntes Experiment, das Kahneman und Tversky über die Jahre in verschiedenen Variationen und Kontexten durchgeführt haben.Footnote 3 Eine Person wird von einem früheren Nachbarn wie folgt beschrieben (Tversky et al. 1974, 1124):

„Steve is very shy and withdrawn, invariably helpful, but with little interest in people or in the world of reality. A meek and tidy soul, he has a need for order and structure, and a passion for detail.“

Die Versuchsteilnehmer bekommen eine Beschreibung der obigen Art vorgelegt und sollen dann entscheiden, mit welcher Wahrscheinlichkeit Eigenschaften auf einer Liste auf die beschriebene Person zutreffen. In unserem Beispiel wurden sie gebeten, einzuschätzen, mit welcher Wahrscheinlichkeit Steve einem bestimmten Beruf nachgeht, beispielsweise Landwirt, Verkäufer, Flugzeugpilot bei einer Airline, Bibliothekar oder Arzt. Die Frage, die sich Kahneman und Tversky dabei stellen, ist, wie die Versuchsteilnehmer ein Ranking vornehmen, vom wahrscheinlichsten Beruf zum unwahrscheinlichsten. Unter Nutzung der Repräsentativheuristik, so sagen die beiden Psychologen, wird die Wahrscheinlichkeit, dass Steve beispielsweise ein Bibliothekar ist, danach beurteilt, wie ähnlich, oder repräsentativ er für das Stereotyp eines Bibliothekars ist. Sie fanden in weiteren Studien heraus, dass das Ranking der Berufe nach Wahrscheinlichkeit gleich ausfällt wie ein Ranking nach Ähnlichkeit. (Tversky et al. 1974, 1124). Dieses Verhalten zeigt auch gleich eine der Verzerrungen auf, die durch die Nutzung von Heuristiken auftreten können. Denn bei einem Ranking von Steves Berufen nach Wahrscheinlichkeit sollte die Anfangswahrscheinlichkeit dafür, dass Steve beispielsweise ein Bibliothekar ist, eine Rolle spielen. Die Tatsache, dass es in der Bevölkerung viel mehr Landwirte als Bibliothekare gibt, sollte in die Entscheidung, ob Steve eher ein Landwirt oder Bibliothekar ist, einfließen. Tatsächlich hat sie keinen Einfluss auf die Repräsentativheuristik, was zu Fehleinschätzungen führt.Footnote 4 (Tversky et al. 1974, 1124). Neben der Anfangswahrscheinlichkeit (Insensitivity to Prior Probability of Outcomes) wird auch die Größe der Stichprobe offenbar nicht beachtet (Insensitivity to Sample Size). Kahnemans und Tverkys Experiment unter Bachelorstudenten macht das anschaulich (Tversky et al. 1974, 1125):

„A certain town is served by two hospitals. In the larger hospital about 45 babies are born each day, and in the smaller hospital about 15 babies are born each day. As you know, about 50 percent of all babies are boys. However, the exact percentage varies from day to day. Sometimes it may be higher than 50 percent, sometimes lower.

For a period of 1 year, each hospital recorded the day on which more than 60 percent of the babies born were boys. Which hospital do you think recorded more such days?

  • The larger hospital (21)

  • The smaller hospital (21)

  • About the same (that is, within 5 percent of each other) (53)“

Die Zahl in Klammern hinter den Antwortmöglichkeiten zeigt die Zahl der Studenten, die sich für diese Antwort entschieden haben. Die meisten schätzten die Wahrscheinlichkeit, dass es zu mehr als sechzig Prozent neugeborenen Jungen kommt, bei beiden Krankenhäusern gleich hoch ein. Kahneman und Tversky (Tversky et al. 1974, 1125) nehmen an, dass diese Meinung daher rührt, dass diese Ereignisse in derselben Statistik geführt werden und daher gleich repräsentativ für die Gesamtbevölkerung sind. Das heißt, die Versuchsteilnehmer halten auch in einer kleinen Stichprobe das für wahrscheinlich, was repräsentativ für die gesamte Bevölkerung ist. Tatsächlich jedoch ist die erwartete Anzahl an Tagen mit mehr als sechzig Prozent neugeborenen Jungen für das kleine Krankenhaus höher als für das große, da es für große Probengrößen weniger wahrscheinlich ist, von den fünfzig Prozent abzuweichen. Diese fundamentale statistische Auffassung ist offenbar nicht Teil der Intuitionen der Leute, meinen Kahneman und Tversky.

Eine damit verwandte Verzerrung findet sich in einer falschen Vorstellung vom Zufall (Misconceptions of Chance): Menschen erwarten, dass sich in einer durch einen Zufallsprozess generierten Sequenz Charakteristiken dieses Prozesses wiederfinden, auch wenn die Sequenz nur kurz ist. Betrachtet man beispielsweise eine Sequenz von Münzwürfen, so schätzen Versuchspersonen die Sequenz K/Z/K/Z/Z/KFootnote 5 als wahrscheinlicher ein als die Sequenz K/K/K/Z/Z/Z, die nicht so zufällig erscheint, und auch als wahrscheinlicher als die Sequenz K/K/K/K/Z/K, die nicht die Gleichförmigkeit der Münze repräsentiert. (Tversky et al. 1974, 1125). Ein weiteres, recht anschauliches Beispiel für diese Verzerrung ist die Gambler’s Fallacy. Nachdem an einem Roulettetisch eine ganze Reihe roter Zahlen hintereinander im Rouletterad ausgelost wurde, glauben die meisten Leute fälschlicherweise, es müsse nun eine schwarze Zahl an der Reihe sein. Kahneman und Tversky führen das auf den Glauben der Menschen zurück, dass das Auftreten einer schwarzen Zahl eine repräsentativere Sequenz produzieren würde als das erneute Auftreten einer roten Zahl. Der Zufall wird als ein sich selbst korrigierender Prozess angesehen, bei dem Ausschläge in das eine Extrem mit Ausschlägen in das andere Extrem ausgeglichen werden, um das Gleichgewicht wiederherzustellen. Tatsächlich jedoch werden Abweichungen nicht korrigiert, sondern mit längerer Prozesslaufzeit abgeschwächt. (Tversky et al. 1974, 1125). Diese Verzerrung konnten Kahneman und Tversky nicht nur bei Laien, sondern auch bei mit dem Phänomen vertrauten Psychologen beobachten, deren Antworten in Versuchen die Erwartung reflektierten, dass eine gültige Hypothese über eine Bevölkerung durch ein statistisch signifikantes Ergebnis in einer Stichprobe repräsentiert sein würde, ungeachtet wie groß die Stichprobe wäre. Dadurch setzen die Forscher zu hohe Erwartungen in Untersuchungsergebnisse kleiner Gruppen und überbewerten die Reproduzierbarkeit der Ergebnisse. Kahneman und Tversky (Tversky et al. 1974, 1126) sehen darin die Gefahr, dass in der Forschung Stichproben von ungeeigneter Größe ausgewählt und Resultate überinterpretiert werden.

Eine weitere Verzerrung zeigt auf, dass Menschen unter Nutzung der Repräsentativheuristik nicht nur fehlerhafte Vorhersagen treffen, sondern auch dort Vorhersagen treffen, wo gar keine Vorhersage möglich ist (Insensitivity to Predictability). In einer Studie bekamen die Versuchspersonen kurze Texte zu lesen, die die Leistung von Lehramtsstudenten bei der Durchführung einer Übungsschulstunde beschrieben. Ein Teil der Versuchspersonen wurde gebeten, die Qualität der beschriebenen Schulstunde in Prozentpunkten zu bewerten. Der andere Teil der Versuchspersonen wurde gebeten, die Leistung jedes Lehramtsstudenten in fünf Jahren vorherzusagen. Die Einschätzungen beider Versuchsgruppen waren identisch, das heißt, die Vorhersage eines entfernten Ereignisses (Leistung in fünf Jahren) war identisch mit der Bewertung der Information, auf der die Vorhersage beruhte (Leistung in der Übungsstunde). Kahneman und Tversky (Tversky et al. 1974, 1126) sind sich sicher, dass sich die Versuchspersonen bewusst waren, dass die Leistung eines Lehrers kaum anhand der Leistung während einer Übungsstunde fünf Jahre zuvor vorhersagbar ist. Die Versuchspersonen halten jedoch an ihren Vorhersagen fest und haben die falsche Vorstellung, dass die Vorhersagen, die sie mithilfe der Repräsentativheuristik treffen, stichhaltig sind (Illusion of Validity). Diese Verzerrung zeigt sich in dem oben besprochenen Beispiel von Nachbar Steve, von dem eine Beschreibung vorliegt und dessen Beruf eingeschätzt werden soll. Bei diesem Versuch steigt das Vertrauen in die eigene Vorhersage mit dem Grad der Repräsentativität, das heißt, die Leute sind stark davon überzeugt, dass eine Person ein Bibliothekar ist, wenn die vorliegende Beschreibung seiner Persönlichkeit stark dem Stereotyp eines Bibliothekars entspricht, selbst wenn die Beschreibung spärlich und unzuverlässig ist. Diese Verzerrung sehen Kahneman und Tversky (Tversky et al. 1974, 1126) auch bei Psychologen, die sich dieses Effekts bewusst sind, sich aber dennoch bei Probandenauswahlgesprächen stark von ihren Vorhersagen über die Kandidaten überzeugt zeigen, obwohl sie um die hohe Fehlbarkeit von Vorhersagen aufgrund solcher Gespräche wissen.

In der letzten Verzerrung, die wir im Zusammenhang mit der Repräsentativheuristik betrachten, geht es um falsche Vorstellungen über Regression mit der bekannten Fehleinschätzung der Regression zum Mittelwert (Regression to the Mean). In seinem Buch Thinking, Fast and Slow (Kahneman 2011, 175–176) beschreibt Kahneman die mittlerweile berühmte Geschichte einer Begebenheit, als er bei der israelischen Luftwaffe ein Seminar über Psychologie in Trainings abhielt. Kahneman unterrichtete dort, dass die Belohnung von Leistungssteigerungen effektiver wirke als die Bestrafung von Fehlern. Ein Ausbilder der Luftwaffe entgegnete, dass seiner Erfahrung nach Kadetten, die nach einer guten Leistung gelobt wurden, bei der nächsten Durchführung des Manövers eine schlechtere Leistung ablieferten. Wenn er dagegen diejenigen, die eine schlechte Leistung erbracht hatten, lautstark dafür kritisiert hatte, zeigten diese bei der folgenden Durchführung eine bessere Leistung. Daraus folgerte der Ausbilder, dass Bestrafung einen besseren Effekt auf die Leistung der Kadetten habe als Lob. Kahneman bemerkt, dass der Ausbilder recht hatte, zugleich aber auch unrecht. Recht hatte er mit seiner Beobachtung, dass auf eine gute Leistung eines Kadetten mit hoher Wahrscheinlichkeit beim nächsten Mal eine schlechtere Leistung folgte, während auf eine schlechte Leistung meist eine bessere folgte. Unrecht hatte der Ausbilder aber darin, dass er einen kausalen Zusammenhang zwischen der Leistungsverschlechterung beziehungsweise verbesserung der Kadetten und seinem eigenen Lob- und Tadelverhalten angenommen hatte. Für Kahneman ist klar, dass der Ausbilder hier eine Regression zum Mittelwert beobachtet, aber falsch interpretiert hatte. Der Ausbilder lobte seine Kadetten nur dann, wenn sie eine überdurchschnittlich gute Leistung erbracht hatten, was vermutlich nicht nur mit Talent, sondern auch mit etwas Glück zu tun gehabt hatte. Dass der Kadett dieses Glück beim nächsten Mal wieder haben würde, ist eher unwahrscheinlich, weshalb es wahrscheinlicher ist, dass er beim nächsten Versuch eine schwächere Leistung erbringen würde. Das hätte dann aber nichts mit dem Lob des Ausbilders zu tun. Ebenso schrie der Ausbilder auch nur dann einen Kadetten an, wenn dieser eine unterdurchschnittlich schlechte Leistung abgeliefert hatte, was wiederum vor allem mit dem Zufall zu tun gehabt hatte, weshalb der Kadett wahrscheinlich beim nächsten Versuch eine bessere Leistung erbringen würde, egal ob der Ausbilder ihn tadelte oder nicht. Kahneman sieht in der Leistung der Kadetten einen zufallsabhängigen Prozess, der zwangsläufig Schwankungen unterliegt. Kahneman und Tversky (Tversky et al. 1974, 1127) sind sich einig, dass Menschen diese Zufallsabhängigkeit des Prozesses und die Zwangsläufigkeit der daraus resultierenden Schwankungen oft nicht erkennen und daher andere kausale Gründe interpretieren, die aber nichts mit den beobachteten Schwankungen zu tun haben.

Kommen wir zur zweiten der drei Heuristiken, der Verfügbarkeitsheuristik. Bei der Verwendung dieser Heuristik schätzen Menschen beispielsweise die Wahrscheinlichkeit eines Ereignisses danach ein, wie leicht sie sich dessen Eintreten vorstellen können oder auch wie leicht sie sich an frühere solche Ereignisse erinnern können. Beispielsweise könnte man das Risiko für Herzanfälle bei Menschen mittleren Alters danach abschätzen, wie viele Personen mittleren Alters aus dem eigenen Umfeld schon einen Herzanfall hatten.

„Availability is a useful clue for assessing frequency or probability, because instances of large classes are usually recalled better and faster than instances of less frequent classes. However, availability is affected by factors other than frequency and probability.“Footnote 6 (Tversky et al. 1974, 1127)

Verlässt man sich also auf die Verfügbarkeit, kommt es auch unter dieser Heuristik zu vorhersehbaren Verzerrungen, von denen wir hier drei betrachten werden.

Verzerrungen aufgrund der Abrufbarkeit von Beispielfällen (Biases due to the Retrievability of Instances): Wird die Größe einer Klasse danach beurteilt, wie leicht abrufbar eingetretene Fälle dieser Klasse sind, dann erscheinen diejenigen Klassen, deren Fälle leichter abrufbar sind, als größer als Klassen gleicher Frequenz, deren Fälle nicht so leicht abrufbar sind. Zur Veranschaulichung beschreiben Kahneman und Tversky (Tversky et al. 1974, 1127) einen ihrer Versuche, bei dem die Versuchspersonen Listen mit Namen bekannter Persönlichkeiten, sowohl männlich als auch weiblich, vorgelesen bekamen. Danach wurden sie gebeten, einzuschätzen, ob die Liste mehr Männer- oder mehr Frauennamen enthalten hatte. Bei diesem Versuch wurden verschiedenen Versuchsgruppen verschiedene Listen vorgelesen; auf manchen Listen waren die genannten Herren berühmter als die genannten Damen, während auf anderen Listen die Damen berühmter waren als die Herren. Die Versuchspersonen schätzten bei jeder dieser Listen diejenige Klasse (in diesem Fall das Geschlecht) als größer ein, das die berühmteren Namen beinhaltet hatte. Die bekannteren Namen hatten die Versuchspersonen im Nachhinein besser wieder abrufen können als die weniger bekannten und daher angenommen, das Geschlecht mit den leichter erinnerbaren Namen sei das stärker repräsentierte gewesen.

Eine weitere Art von Verzerrungen entsteht je nach Leistungsfähigkeit eines Suchkriteriums (Biases due to the Effectiveness of a Search Set). Diese Verzerrung ist nicht ganz einfach zu charakterisieren. Kahnemans und Tverskys Beispiel (Tversky et al. 1974, 1127) erwähnt Versuche, bei denen die Versuchspersonen gebeten wurden, sich vorzustellen, sie wählten ganz zufällig aus einem englischen Text ein Wort aus. Sie wurden gebeten einzuschätzen, ob es wahrscheinlicher ist, dass dieses Wort mit dem Buchstaben r beginnt, oder dass r der dritte Buchstabe dieses Wortes ist. Die Versuchspersonen suchen in ihrem Wortschatz nach Wörtern, die mit r beginnen und Wörtern, bei denen ein r an der dritten Stelle steht. Sie beurteilen die Häufigkeit der Wörter danach, wie leicht ihnen Wörter der beiden Kategorien einfallen. Da es aber um einiges leichter ist, nach Wörtern mit einem bestimmten Anfangsbuchstaben zu suchen, als nach Wörtern mit einem bestimmten Buchstaben an dritter Stelle, fallen ihnen auch mehr Wörter ein, die mit r beginnen als Wörter mit r als drittem Buchstaben. Die Versuchspersonen schätzen also die Wahrscheinlichkeit, dass das zufällig gezogene Wort mit einem r anfängt, größer ein. Das gleiche Ergebnis brachte dieser Versuch auch mit weiteren Konsonanten, die an dritter Stelle in einem Wort häufiger vorkommen als an erster. Es ist, meiner Meinung nach, nicht ganz einfach in Worte zu fassen, was diese Verzerrung von der oben besprochenen Verzerrung aufgrund der Abrufbarkeit von Beispielen und der Verzerrung der Vorstellbarkeit (siehe unten) unterscheidet. Die Leistung der Personen hängt hier nicht nur von ihrer Gedächtnisleistung ab, aber auch. Die Leistung hängt auch nicht nur von ihrer Vorstellungskraft ab, aber auch. Es scheint hier wirklich auf die Effektivität, nicht des Gedächtnisses oder der mathematischen Fähigkeiten, anzukommen, sondern auf die Effektivität der Suche nach einem bestimmten Kriterium in Gedächtnis und Vorstellung. Je effektiver diese Suche abläuft, desto besser die Versuchsergebnisse.

Bei den Verzerrungen der Vorstellbarkeit (Biases of Imaginability) spielt das Gedächtnis eine eher untergeordnete Rolle. Sie kommt in Fällen zum Vorschein, in denen es nicht darum geht, die Auftrittshäufigkeit einer Klasse im Gedächtnis wiederzufinden, sondern sie anhand bekannter Regeln selbst zu generieren. Vor eine solche Aufgabe gestellt, entwickeln Menschen gewöhnlich verschiedene Fallbeispiele und beurteilen ihre Wahrscheinlichkeiten danach, wie einfach sie zu konstruieren sind. Allerdings geht eine einfache Konstruierbarkeit nicht immer mit einer großen Häufigkeit einher, weshalb es zu der Verzerrung der Vorstellbarkeit kommen kann. Kahneman und Tversky (Tversky et al. 1974, 1127) beschreiben ein Beispielexperiment: Eine Gruppe von zehn Personen soll in verschiedene Untergruppen aufgeteilt werden, wobei die Gruppenstärke k zwischen zwei und acht Mitgliedern liegen soll. Wie viele verschiedene Untergruppen können gebildet werden? Die richtige Antwort liegt laut den Autoren beim Binomialkoeffizienten \(\left( {\mathop {10}\limits_{k} } \right)\), der bei k = 5 sein Maximum erreicht. Um ohne mathematische Berechnungen zu einer Lösung zu kommen, kann man versuchen, in seiner Vorstellung Untergruppen verschiedener Mitgliederstärke zu bilden und ihre Anzahl danach beurteilen, wie leicht sie einem eingefallen sind. Untergruppen mit wenigen Mitgliedern (etwa zwei) sind dabei leichter vorzustellen als Untergruppen mit mehreren Mitgliedern (etwa acht). Teilt man die gesamte Gruppe im Kopf in verschiedene unabhängige Teile, so sieht man schnell, dass es einfacher ist, fünf Untergruppen mit je zwei Mitgliedern zu bilden, als zwei Untergruppen mit acht Mitgliedern. Daher werden die kleinen Untergruppen zahlreicher erscheinen als die großen. Bei ihrem Versuch, schreiben Kahneman und Tversky (Tversky et al. 1974, 1128), lag der Median der geschätzten Anzahl an Untergruppen mit zwei Mitgliedern bei siebzig, für Untergruppen mit acht Mitgliedern dagegen bei zwanzig. Die korrekte Antwort wäre in beiden Fällen 45 gewesen. Eine solche Aufteilungssituation mag reichlich abstrakt erscheinen. Doch da uns die Lebenserfahrung zeigt, dass wahrscheinlichere Ereignisse auch leichter vorstellbar sind als unwahrscheinlichere, nutzen wir die Verfügbarkeitsheuristik im Alltag. Dass die Verzerrung der Vorstellbarkeit dabei durchaus ein Problem darstellen kann, veranschaulicht ein Beispiel von Kahneman und Tversky (Tversky et al. 1974, 1128):

„Imaginability plays an important role in the evaluation of probabilities in real-life situations. The risk involved in an adventurous expedition, for example, is evaluated by imagining contingencies with which the expedition is not equipped to cope. If many such difficulties are vividly portrayed, the expedition can be made to appear exceedingly dangerous, although the ease with which disasters are imagined need not reflect their actual likelihood. Conversely, the risk involved in an undertaking may be grossly underestimated if some possible dangers are either difficult to conceive of, or simply do not come to mind.“

Nicht jeder plant in seinem Leben eine Expedition in das Amazonasgebiet, aber schon einen Urlaub zu planen, kann uns in Situationen falsch beurteilter Wahrscheinlichkeiten und Risiken bringen.

Die dritte und letzte Heuristik, die wir hier betrachten, ist die Ankerheuristik. Sie wird in Fällen verwendet, in denen Menschen zu einem Schätzwert gelangen, indem sie bei einem Anfangswert beginnen und diesen erweitern, um zum Endergebnis zu gelangen. Diese Anpassungen sind meist unzureichend, da unterschiedliche Anfangswerte zu unterschiedlichen Schätzwerten führen, die in Richtung des Anfangswertes abweichen. Diesen Effekt nennen Kahneman und Tversky (Tversky et al. 1974, 1128) Verankerung (Anchoring). Wie dabei schon anklingt, gibt es auch bei dieser Heuristik interessante Verzerrungen.

Unzureichende Anpassung (Insufficient Adjustment): Diese Verzerrung kann auftreten, wenn bei einer Schätzung von einem Anfangswert ausgegangen wird, wobei dieser Anfangswert auch Einfluss auf die Schätzung nehmen kann, wenn er zufällig entstand und nichts mit dem eigentlichen Schätzwert zu tun hat. In einem Beispielexperiment von Kahneman und Tversky (Tversky et al. 1974, 1128) wurden die Versuchspersonen gebeten, verschiedene Schätzungen abzugeben, beispielsweise für die Anzahl afrikanischer Staaten in den Vereinten Nationen (UN). Für jede Schätzung wurde zu Beginn, unter den Augen der Versuchsteilnehmer, mit einem Glücksrad eine Zahl zwischen null und einhundert ermittelt. Die Personen sollten nun in einem ersten Schritt angeben, ob sie glaubten, die Zahl afrikanischer Staaten in der UN läge unter oder über diesem Zufallswert. In einem zweiten Schritt sollten sie abweichend von dieser Zahl nach unten oder oben ihren Schätzwert abgeben. Bei der Gruppe, die die Zahl 10 als Zufallswert vom Glücksrad zugeteilt bekam, lag der Median der Schätzwerte bei 25; bei der Gruppe, die die Zufallszahl 65 bekommen hatte, lag der Median bei 45. Die Anfangswerte, die, was die Versuchsteilnehmer wussten, lediglich Zufallszahlen waren und nichts mit der tatsächlichen Anzahl afrikanischer Staaten in der UN zu tun hatte, nahmen Einfluss auf die Schätzung, sodass unterschiedliche Anfangswerte zu unterschiedlichen Schätzwerten führten.

Eine weitere Verzerrung führt dazu, dass Menschen die Wahrscheinlichkeiten konjunktiver und disjunktiver Ereignisse falsch einschätzen (Biases in the Evaluation of Conjunctive and Disjunctive Events). Psychologin Maya Bar-Hillel (Bar-Hillel 1973) führte eine Studie durch, um diesen Effekt aufzuzeigen. In dieser Studie wurden den Versuchsteilnehmern Lotterien über verschiedene Ereignisse zur Wahl gestellt: (a) Ein einfaches Ereignis, wie das Ziehen einer roten Kugel aus einer Urne mit fünfzig Prozent roten und fünfzig Prozent weißen Kugeln; (b) ein konjunktives Ereignis, wie das Ziehen einer roten Kugel sieben Mal hintereinander mit Zurücklegen aus einer Urne mit neunzig Prozent roten und zehn Prozent weißen Kugeln; (c) ein disjunktives Ereignis, wie das Ziehen wenigstens einer roten Kugel in sieben Zügen, mit Zurücklegen, aus einer Urne mit zehn Prozent roten und neunzig Prozent weißen Kugeln. Die Mehrheit der Versuchsteilnehmer entschied sich für Lotterie (b) (Wahrscheinlichkeit 0.48) statt für Lotterie (a) (Wahrscheinlichkeit 0.50). Bei der Wahl zwischen den Lotterien (a) und (c) (Wahrscheinlichkeit 0.52) entschied sich die Mehrheit für Lotterie (a). In beiden Fällen entschieden sich die Teilnehmer für die Lotterie mit der geringeren Gewinnwahrscheinlichkeit. Diese und weitere Ergebnisse anderer Studien legen den Schluss nahe, dass Menschen dazu neigen, die Wahrscheinlichkeit konjunktiver Ereignisse zu überschätzen, während sie die Wahrscheinlichkeit disjunktiver Ereignisse unterschätzen. Diese Verzerrungen erklären Kahneman und Tversky anhand des Verankerungs-Effekts (Tversky et al. 1974, 1129):

„The stated probability of the elementary event (success at any one stage) provides a natural starting point for the estimation of the probabilities of both conjunctive and disjunctive events. Since adjustment from the starting point is typically insufficient, the final estimates remain too close to the probabilities of the elementary events in both cases. [...] As a consequence of anchoring, the overall probability will be overestimated in conjunctive problems and underestimated in disjunctive problems.“

Sie mahnen, dass diese Verzerrung im Alltag zu einem Problem werden kann, beispielsweise wenn ein Unternehmen die Einführung eines neuen Produktes oder die Durchführung eines Projektes plant. Solcherlei Vorhaben sind gewöhnlich aus verschiedenen Zielen zusammengesetzt und haben daher konjunktiven Charakter. Damit das Gesamtprojekt erfolgreich sein kann, muss jedes der Unterprojekte erfolgreich abgeschlossen werden. Die Neigung, die Wahrscheinlichkeit konjunktiver Ereignisse zu überschätzen, führt nach Kahneman und Tversky (Tversky et al. 1974, 1129) zu unangebrachtem Optimismus bei der Einschätzung, ob ein Projekt ein Erfolg werden wird oder nicht.

Für Kahneman und Tversky (Tversky et al. 1974, 1130) ist es nicht verwunderlich, dass Heuristiken wie Repräsentativ- oder die Verfügbarkeitsheuristik beibehalten werden, obwohl sie gelegentlich zu Fehlern in Vorhersagen oder Schätzungen führen können, denn die Heuristiken sind nützlich. Sie sind sicher, dass Menschen statistische Prinzipien nicht im Alltag lernen. Zwar begegnen sie statistischen Regeln wie der Regression zum Mittelwert auch in ihrem täglichen Leben. Doch kaum jemand schließt aus diesen Erfahrungen von sich aus auf statistische Grundsätze, weil die relevanten Erfahrungen nicht entsprechend verarbeitet werden.

„For example, people do not discover that successive lines in a text differ more in average word length than do successive pages, because they simply do not attend to the average word length of individual lines or pages. Thus, people do not learn the relation between sample size and sampling variability, although the data for such learning are abundant.“ (Tversky et al. 1974, 1130)

Damit machen sie klar, dass man realen Menschen nicht die gleichen kognitiven Fähigkeiten zuschreiben kann wie dem Menschenbild, das die Ökonomen als Grundlage für ihre Modelle nehmen. Vielmehr sollte die moderne Entscheidungstheorie ihrer Meinung nach die Forschungen über kognitive Verzerrungen berücksichtigen, da sie Auswirkungen auf die theoretische und angewandte Rolle von Wahrscheinlichkeitsbeurteilungen haben. Dabei beziehen sie sich vor allem auf die Idee der subjektiven Wahrscheinlichkeiten, die als quantifizierte Beurteilung einer idealisierten Person betrachtet wird. Die subjektive Wahrscheinlichkeit eines bestimmten Ereignisses wird über die Art und Anzahl an Wetten über dieses Ereignis bestimmt, die eine Person bereit ist, einzugehen. Subjektiv ist diese Wahrscheinlichkeit deshalb, weil sie von Individuum zu Individuum unterschiedlich ausfallen kann. An dieser Konzeption kritisieren Kahneman und Tversky (Tversky et al. 1974, 1130), dass, obwohl subjektive Wahrscheinlichkeiten manchmal aus Präferenzen gegenüber Wetten abgeleitet werden können, sie nicht üblicherweise auch auf diesem Weg entstehen. Wenn eine Person auf Team A statt auf Team B wettet, dann tut sie das, weil sie glaubt, dass Team A die größeren Gewinnchancen hat. Sie leitet diesen Glauben aber nicht aus ihrem Wettverhalten ab. Damit wollen Kahneman und Tversky klarstellen, dass in der Realität subjektive Wahrscheinlichkeiten die Präferenzen beim Wetten bestimmen, und nicht von diesen Präferenzen abgeleitet werden, wie es die axiomatische Rational Decision Theory sieht. Kahneman und Tversky (Tversky et al. 1974, 1131) werben für mehr Erforschung für ein besseres Verständnis von Heuristiken und den Verzerrungen, die ihre Verwendung verursacht, denn nicht nur haben sie Auswirkungen auf die theoretische Rolle von subjektiven Wahrscheinlichkeiten, ein besseres Verständnis könnte auch zu besseren Entscheidungen unter Unsicherheit führen.

3.4 Selten und die Spieltheorie

Kommen wir zum vierten und wichtigsten Faktor in der Entstehung der Verhaltensökonomie nach Cartwright (Cartwright 2014), die Entwicklungen der Spieltheorie in der zweiten Hälfte des zwanzigsten Jahrhunderts. 1950 beschrieb der Mathematiker Nash in seiner Dissertation über nicht-kooperative Spiele das Nash-Gleichgewicht, das die Arbeit von John von Neumann und Oskar Morgenstern erweiterte und die Spieltheorie in der Ökonomie zu einem robusten und vielseitig einsetzbaren Werkzeug machte. Das Nash-Gleichgewicht wurde zu einem nützlichen Wegweiser zur rationalen Lösung nicht-kooperativer Spiele. Jedoch blieb die große Frage, wie in Situationen mit mehreren Gleichgewichten eines auszuwählen sei. Das Problem für die Ökonomen ist: Stehen mehrere Gleichgewichte zur Auswahl, so ist unklar, nach welcher Strategie der ökonomische Agent, Homo oeconomicus, handeln sollte. Es wird unklar, wie die rationale Handlung aussieht. Es musste also eine Methode gefunden werden, um einerseits das richtige Gleichgewicht auszuwählen, was immer „richtig“ in diesem Zusammenhang bedeuten mag. Ist ein Gleichgewicht sinnvoller als die übrigen oder wird es wahrscheinlicher eintreffen? Andersherum fehlte auch das Verständnis dafür, warum Spieler in entsprechenden Situationen das eine und nicht das andere Gleichgewicht gewählt hatten. In den folgenden Jahrzehnten entwarfen zahlreiche Mathematiker und Ökonomen unterschiedliche Theorien zur Verfeinerung des Nash-Gleichgewichts. Einer davon ist Ökonom Selten. Zusammen mit Nash und Harsanyi erhielt er 1994 den Wirtschaftsnobelpreis für seine Errungenschaften auf dem Gebiet der Spieltheorie. Für die Entwicklung der Verhaltensökonomie war dabei wichtig, dass der große Beitrag, den Harsanyi und Selten zur Spieltheorie erbrachten, auf der Idee beruhte, psychologische Ideen hinzuzuziehen und ökonomische Experimente durchzuführen, um der Frage nachzugehen, wie Probanden in Spielen mit mehreren Gleichgewichten entscheiden würden.

Ende der 1950er Jahre war Selten einer der ersten Ökonomen, die Experimente durchführten, Mitte der 1980er Jahre richtete er das erste voll rechnergestützte Labor Europas ein, das sich ausschließlich mit der Erforschung ökonomischer Fragen beschäftigte (Ockenfels et al. 2010, v). Die ersten Experimente in den 1950er Jahren drehten sich vor allem um das Verhalten von Probanden in Oligopolmärkten. Offenbar (Alt et al. 1999, 253) war die damals gängige Ansicht, Oligopolisten kämen über das gegenseitige Senden von Signalen zu einer stillschweigenden Preiskoordination, die zu einem Pareto-optimalen Ergebnis führt. Werfen wir einen kurzen Blick auf eines der ersten Experimente, die er zusammen mit Heinz Sauermann an der Universität Frankfurt a. M. durchführte. Nicht nur aus historischem Interesse ist das Experiment interessant, das sich noch stark von heutigen Versuchsaufbauten unterscheidet:

Dem Versuch liegt ein Modell mit drei Firmen zugrunde (Sauermann et al. 1959, 428), die ein homogenes Gut anbieten. Die Kostenverläufe und Produktionskapazitäten sind für jede Firma festgelegt, unterscheiden sich jedoch untereinander. Es ist ein wenig unübersichtlich, welche Informationen den Firmen bekannt sind und welche nicht. Manche Informationen können sie einkaufen, andere nur durch Erfahrung erschließen. Jede Firma kennt die Kapazitäten der übrigen, aber nicht deren Kostenverläufe. Ihr eigener Kostenverlauf ist ihnen natürlich bekannt. Sie kennen auch nicht die Preis-Absatz-Funktion, die zeitunabhängig jeder Gesamtangebotsmenge einen Preis zuordnet, können sie aber im Laufe des Versuchs erschließen. Informationen kaufen können die Firmen zu Beginn jeder Handelsperiode über die Schulden oder den Marktanteil der übrigen Firmen in der vorangegangenen Periode. Hierfür, oder zur Tilgung ihrer Produktionskosten, können die Firmen Kredite aufnehmen, welche Zinskosten verursachen.

Zum Ablauf: Zu Beginn einer Handelsperiode können die Firmen Informationen über die Konkurrenten einkaufen, wenn sie sich dazu entschließen. Danach bestimmt jede Firma ihre Produktionsmenge für die aktuelle Periode. Die Produktionskosten werden sofort fällig. Diese können aus dem eigenen Barbestand oder aus Neuverschuldung finanziert werden. Eine Lagerhaltung für spätere Perioden ist nicht vorgesehen, alles, was produziert wird, kommt in derselben Periode auf den Markt und wird verkauft. Die Preis-Absatz-Funktion ist annähernd konkav, mit Abweichungen, um eine Extrapolation auf ihren Verlauf aus den Daten der bisherigen Perioden zu erschweren. Die Probanden wissen allerdings, dass ihre Gestalt an eine Hyperbel erinnert und der Preis sinkt, je höher das Gesamtangebot ausfällt (Sauermann et al. 1959, 430). Am Ende der Periode wird den Firmen ihr jeweiliger Umsatz ausbezahlt, wodurch neues Kapital für die nächste Periode bereitsteht.

Jeder der dreizehn von Sauermann und Selten durchgeführten Versuche hatte 30 Perioden und dauerte circa vier Stunden mit einer ausführlichen Einführung der Versuchsteilnehmer. Diese kamen vor allem aus den Erst- bis Drittsemestern der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität Frankfurt. Jeder der drei Firmen wurden fünf bis sechs Personen zugeteilt, von denen zwei willkürlich ausgewählt und zum Unternehmer beziehungsweise Bankagenten bestimmt wurden. Die Unternehmer treffen die Entscheidungen für ihre Firma, nach Diskussion mit den übrigen Firmenmitgliedern. Der Bankagent hält die Verbindung mit der Versuchszentrale, die die Spielleitung innehat und ihrerseits mit mindestens zwei Leuten besetzt ist. Um Verbindungen mit den übrigen Firmen zu vermeiden, ist jede Firma in einem eigenen Raum untergebracht und kommuniziert über Telefone mit der Zentrale. Während einer Periode telefoniert jede Firma drei Mal mit der Zentrale. Dabei werden entweder von der Firma oder der Zentrale verschiedene Größen durchgegeben (Sauermann et al. 1959, 433):

  1. 1.

    Informationen

  2. 2.

    Schuldenstand, Angebot

  3. 3.

    Preis, Gesamtangebot, Einzelumsatz

Jede dieser Größen wird von je zwei Protokollanten in den Firmen festgehalten. Dafür erhalten sie eine vorgefertigte Tabelle, in die sie für jede Periode Daten zu Preis und Gesamtangebot, sowie die Einzelangebote jeder Firma festhalten. Neben dem eigenen Schuldenstand werden auch die gegebenenfalls eingekauften Informationen über die Schulden der übrigen Firmen aufgeschrieben. Die eigenen Produktionskosten und der Periodenumsatz werden in der Tabelle vermerkt, um daneben den Rohgewinn angeben zu können, von dem noch die zu zahlenden Zinsen und Informationskosten abgezogen werden müssen. Der entstehende Reingewinn plus dem Vermögensstand aus der vorangegangenen Periode ergeben den Vermögensstand der Firma. Zusätzlich werden die Probanden gebeten, die Gründe und vorgebrachten Argumente für ihre Entscheidungen in den einzelnen Perioden stichwortartig zu protokollieren und dieses Protokoll nach Versuchsende einzureichen. In den Versuchen wird mit Spielgeld gehandelt, um die Kosten und Geldflüsse zu verdeutlichen.

Der Preis auf dem Versuchsmarkt wird über das Gesamtangebot mithilfe der Preis-Absatz-Funktion ermittelt. Natürlich gibt es dabei Angebotskombinationen der drei Versuchsfirmen, die einen höheren oder einen niedrigeren Gesamtumsatz erzielen. Sauermann und Selten (Sauermann et al. 1959, 445–450) errechnen die Pareto-optimalen Angebotskombinationen aus allen theoretisch möglichen Kombinationen, denn diese würden erzielt werden, wenn sich die Firmen mit stillschweigenden Übereinkünften absprächen, wie es die gängige Hypothese annimmt. Die Ergebnisse vergleichen sie mit den erzielten Daten aus den Versuchen: In insgesamt 390 Perioden kam es lediglich in dreien zu solchen Pareto-optimalen Kombinationen.

„Das zeigt, daß stillschweigende Übereinkommen auf der Basis Pareto-optimaler Punkte in der vorliegenden nicht kooperativen Situation kaum zu erwarten sind. Damit werden in diesem Zusammenhang auch Annahmen über gemeinsame Gewinnmaximierung der Unternehmungen höchst unrealistisch.“ (Sauermann et al. 1959, 450)

Vielmehr sehen sie (Sauermann et al. 1959, 463) eine Anpassung an das erwartete Konkurrenzangebot im Sinne von Cournot, wo die Angebotsmenge durch wechselseitige Überlegungen über die Angebotsmenge der Konkurrenzfirmen und die eigene beste Antwort auf die erwarteten Mengen zustande kommt. Auf diese Weise wird in der Cournotschen Theorie eine stabile Gesamtangebotsmenge, das Cournot-Gleichgewicht, erreicht.Footnote 7 Es scheint also, als seien es Überlegungen, wie Selten sie aus der Spieltheorie kannte, die die Probanden zu ihren Entscheidungen brachten. Diese Beobachtung wiederholte Selten in weiteren Oligopolexperimenten. Bei einem Experiment mit Nachfrageträgheit war nicht ganz klar, wie die Entsprechung zur Cournot-Lösung aussehen würde. Auf der Suche nach einer Lösung dieses dynamischen Spiels fand er eine Gleichgewichtslösung mit Hilfe der Rückwärtsinduktion. Doch das Spiel hatte noch weitere Gleichgewichtspunkte, wodurch die Frage aufkam, was die eine Lösung von den übrigen Gleichgewichtspunkten unterschied. An dieser Stelle führte er die Subspiel-Perfektion als generelles Konzept der Spieltheorie ein, neben der Arbeit mit Harsanyi ein weiterer Zugewinn für die Spieltheorie, der heute aus keinem Lehrbuch mehr wegzudenken ist. (Albers et al. 1997, 5).

Kurz nachdem Selten mit seinen Experimenten zur Oligopoltheorie begonnen hatte, begann er auch, Werke von Herbert Simon zur Idee der bounded Rationality zu lesen, die ihn von der Notwendigkeit einer Theorie der eingeschränkten Rationalität überzeugten:

„Shortly after I had began (sic!) to run oligopoly experiments I read Herbert Simon and I was immediately convinced of the necessity to build a theory of bounded rationality. At first I still thought it might be possible to do this in an axiomatic way, just by pure thinking, as you build up a theory of full rationality. But over the years I more and more came to the conclusion that the axiomatic approach is premature. Behavior cannot be invented in the armchair, it must be observed in experiments. You first have to know what really happens before forming an axiomatic theory.“ (Albers et al. 1997, 4)

Es ist deutlich, welche Bedeutung der Mathematiker Selten Laborexperimenten beimisst. Mit dieser Einstellung beförderte er die Bedeutung und Entwicklung von Laborexperimenten in der ökonomischen Forschung in Europa, sowie Kollegen wie Smith es in den USA taten.

Ähnlich wie bei Selten erfuhren die Ansichten von Wissenschaftlern wie Simon und Kahneman und Tverksy in den vergangenen Jahrzehnten auch unter Ökonomen mehr und mehr an Zustimmung, die nicht zuletzt durch die steigende Popularität von Laborexperimenten gefördert wurde. Zwischenzeitlich konnten Ökonomen an ihrer eigenen Arbeit sehen, dass Theorien mit naiven Rationalitätsannahmen nicht das in den Laboren beobachtete Verhalten von Probanden widerspiegeln, geschweige denn korrekt vorhersagen konnten. Das machte deutlich, dass alternative Theorien gefunden werden mussten. Die Bereitschaft, über den bisherigen Tellerrand hinwegzuschauen, war nun vorhanden, doch was nutzte das, ohne die passenden Werkzeuge? Für die Entstehung der modernen Verhaltensökonomie genügten diese ersten drei der besprochenen Aspekte noch nicht. Der Vierte brachte die Lösung: Er brachte die Spieltheorie als wichtiges und erfolgreiches Werkzeug für die Entwicklung und Analyse der Laborexperimente. Ohne ein solches Werkzeug sind die Experimente nicht von großem Nutzen für die Wissenschaftler.Footnote 8 Vor der Entwicklung, die sie durch die Arbeit vor allem von Nash, Selten und Harsanyi erfahren hat, wäre sie kein so leistungsstarkes Werkzeug gewesen, um die Verhaltensökonomie voranzutreiben. Interessant dabei ist, dass vor allem Selten seinen Beitrag zur Spieltheorie vor allem und erst im Zusammenhang mit Laborexperimenten erbracht hat.

Wir haben also in den 1950er Jahren die Auffassung, dass eine absolute Rationalität, wie sie die Ökonomie von ihren Agenten fordert, von gewöhnlichen Menschen, also den ökonomischen Agenten der realen Welt, nicht erfüllt wird. Dies wird vor allem von Forschern außerhalb der Ökonomie so gesehen. Ungefähr zur gleichen Zeit verbreiten sich Laborexperimente als interessantes neues Betätigungsfeld unter Ökonomen und in ihrem Anhang auch die Ahnung, dass die Warnungen der Sozialwissenschaftler und Psychologen vor einer ökonomischen Theorie mit einem allzu rationalen homo oeconomicus doch nicht so ohne Weiteres beiseite gewischt werden könnten. In den 1960er bis 1980er Jahren machen die Entwicklungen in der Spieltheorie Laborexperimente zu einem ernstzunehmenden Verfahren in der ökonomischen Forschung. In den Augen von Verhaltensökonomen sind sie ein geeignetes Hilfsmittel, um Entscheidungsfindungsprozesse nachvollziehen zu können. Bald werden nicht nur bestehende Theorien auf ihre Realitätsnähe getestet, sondern auch neue Einflüsse in die ökonomische Theorie. Wie schon an den Experimenten von Smith und Selten zu sehen ist, können ganz unterschiedliche Dinge im Fokus ökonomischer Experimente stehen, von ganzen Institutionen bis hin zum Verhalten einzelner Probanden.

3.5 Soziale Präferenzen

Durch unseren Einblick in die Historie der Verhaltensökonomie lässt sich nachvollziehen, wie die Verhaltensökonomie wurde, was sie heute ist. Inzwischen ist die Verhaltensökonomie ein etablierter Teilbereich der Ökonomie, der Laborexperimente als reguläres Forschungsinstrument zum Erkenntnisgewinn einsetzt.

Das generelle Ziel von Verhaltensökonomen ist es heute, menschliches Verhalten und seine Konsequenzen zu verstehen: Warum kauft jemand eine Pizza oder geht regelmäßig zur Arbeit? Warum kaufen Menschen Versicherungen, um sich gegen die geringsten Risiken abzusichern und gehen danach zum Kiosk, um Lotto zu spielen? Warum lassen sie sich von veganer Ernährung überzeugen, können aber nicht mit dem Rauchen aufhören? Sind das gute oder schlechte Handlungen und wie könnte man ihnen dabei helfen, bessere Entscheidungen zu treffen? Eigentlich besitzt die Ökonomie ihr berühmtes Standardmodell für solche Fragen, doch wie wir auf den vergangenen Seiten sahen, sind sich die Verhaltensökonomen bewusst, dass das ökonomische Standardmodell seine Schwächen hat. Allerdings hat es auch seine Stärken, derer sie sich ebenso bewusst sind. Es kann gute Vorhersagen darüber machen, welche Wahl ein Proband treffen wird. Sein axiomatischer Zugang ohne spekulative Nebenannahmen hat großen Reiz für Ökonomen. Daher verwerfen sie das ökonomische Standardmodell nicht, sondern versuchen, es durch verschiedene Änderungen besser an beobachtetes Verhalten anzupassen. Denn die Verhaltensökonomen sind sich inzwischen sicher, dass reale Menschen nicht rational denken, wie es das ökonomischen Modell ihnen zuschreibt. Vielmehr sind sie überzeugt, dass reale Menschen sich auf Heuristiken verlassen, wie sie von Kahnemann und Tversky formuliert wurden und durchaus auch auf die kognitiven Verzerrungen hereinfallen. Diese Fallibilität muss in den Veränderungen am Standardmodell berücksichtigt werden. Zu den Änderungen gehört, die Annahmen über Präferenzen ökonomischer Agenten auszubauen, um sie in deren Nutzenfunktionen einbauen zu können. Der Pool möglicher Präferenzen wird vergrößert, um das Verhalten realer Menschen zutreffender zu beschreiben. Dazu zählen Zeitpräferenzen, oder Annahmen über das Verhalten von Individuen bei Entscheidungen unter Unsicherheit, wie es Kahneman und Tversky untersucht haben.

Ein wichtiges Beispiel sind soziale Präferenzen. Sie werden Individuen zugeschrieben, um beobachtetes Verhalten modellieren zu können. Sie sind eine Antwort der Verhaltensökonomie auf beobachtete Abweichungen vom Standardmodell. In diesem sind ökonomische Agenten ausschließlich von Egoismus motiviert. Verhaltensökonomen zeigen sich damit nicht einverstanden angesichts einer ganzen Reihe an Beispielen für Reziprozität im Verhalten von ökonomischen Agenten. Abgesehen davon, dass eine vollständige Gleichgültigkeit gegenüber der Konsequenzen der eigenen Handlung für andere Menschen tatsächlich nur für pathologische Agenten möglich ist, gibt es empirische Evidenz gegen das Modell rein egoistisch motivierter Handlungen (Wilkinson 2008, 327) wie beispielsweise Spenden für wohltätige Zwecke, freiwillige unbezahlte Arbeit, Beteiligung an der Bereitstellung öffentlicher Güter, Bestrafung von Trittbrettfahrern, auch wenn dies mit eigenen Kosten verbunden ist, Vertrauen in Vertrauensspielen, großzügige Angebote in Ultimatumspielen, Ablehnen niedriger Angebote in Ultimatumspielen.

Neben alltäglichen Situationen sind das Evidenzen aus Experimenten. In Abschnitt 2.2 haben wir das Ultimatumspiel, das Vertrauensspiel und öffentliche Güter bereits kennengelernt. Das Verhalten von Probanden in diesen Spielen weicht regelmäßig zum Teil stark von den Vorhersagen des Standardmodells ab. Rufen wir uns das noch einmal kurz ins Gedächtnis, ohne Anspruch auf Vollständigkeit oder die Betrachtung möglicher Motive und Auswirkungen von Variationen im Experimentaufbau: Im Ultimatumspiel zeigt, wie Wilkinson (2008, 333) zusammenfasst, eine Reihe an Studien, dass zwischen 60% und 80% der Angebote zwischen 40% und 50% der zur Verfügung stehenden Geldsumme liegen, wogegen Angebote unter 20% selten vorkommen. Auf der anderen Seite werden Angebote unter 20% in ungefähr der Hälfte der Fälle abgelehnt. Dies wird als Evidenz dafür interpretiert, dass Personen in der Rolle von Spieler 2 von Angeboten verärgert sind, die sie als unfair betrachten, und dazu bereit sind, solch unfaires Verhalten zu bestrafen, auf wenn dadurch Kosten für sie selbst entstehen. In Vertrauensspielen zeigen Probanden Reziprozität, was vom ökonomischen Standardmodell nicht vorhergesagt wird. In einer Studie von Berg, Dickhaut und McCabe (1995) zeigt sich, dass lediglich 6% der Investoren nichts, also einen Betrag von 0 investieren. Dagegen investiert der Durchschnitt der Investoren ungefähr 50% ihres Gesamtbetrags, 16% gar den gesamten Betrag. Im Durchschnitt wurden circa 95% des investierten Betrags vom Treuhänder zurückgegeben, wobei es hier starke Variationen gibt. Auch in Spielen um öffentliche Güter gibt es stark variierende Antworten, manche Spieler geben nichts, andere ihre gesamten Ressourcen für die Bereitstellung eines öffentlichen Guts. Generell, fasst Wilkinson (2008, 338) zusammen, stellen Probanden jedoch circa die Hälfte ihres Betrags zur Verfügung.

Wie gesagt, ist eine Idee der Verhaltensökonomie, die Anomalien in Standardmodellen durch Erweiterungen des Modells abzudecken. Um die evidente nicht ausschließlich egoistische Motivation von Individuen zu erklären, wurden soziale Präferenzen modelliert. Zu ihnen gibt es mehrere Modelle mit unterschiedlichen Ansätzen. Wir werden kurz zwei der bekanntesten Modelle betrachten, um die Ideen dahinter zu verstehen: Das Fehr-Schmidt-Modell und das Rabin-Modell.

Das Fehr-Schmidt-Modell ist ein Ungleichheitsaversionsmodell. Diese zeichnen sich dadurch aus, dass sie annehmen, Individuen interessierten sich für ihren eigenen Payoff, aber auch für den Payoff einer bestimmten Referenzgruppe, beziehungsweise wie sich die Höhe des eigenen Payoffs gegenüber der Payoffs anderer Individuen verhält. Die Frage, ob andere Personen mehr oder weniger Payoff erhalten als sie selbst, spielt in diesen Modellen eine Rolle für das Verhalten von Individuen, im Gegensatz zum Modell von rein egoistisch motivierten Agenten. In Ungleichheitsaversionsmodellen interessieren sich die Agenten dafür, wie ungleich die Payoffs sind; sie vergleichen ihren eigenen mit denen, die mehr oder weniger erhalten als sie selbst. Um das beschreiben zu können, werden Präferenzen eingeführt, die modellieren, inwiefern sich Individuen für die Payoffs ihrer Mitspieler interessieren. Betrachtet man das Verhalten von Versuchspersonen in Ultimatum- oder Diktatorspielen, die (hohe) Angebote machen, könnte Altruismus eine Rolle spielen. Dieser allein wird aber nicht ausreichen, um das Verhältnis zu Mitspielern zu beschreiben, wenn man das Verhalten von Probanden in anderen Spielen betrachtet, wie beispielsweise in Vertrauensspielen oder Spielen mit öffentlichen Gütern mit Bestrafungsmöglichkeiten, in denen Versuchspersonen unkooperative Mitspieler bestrafen, auch wenn das mit Kosten für sie selbst verbunden ist. Das könnte dafür sprechen, dass Gefühle wie Neid eine Rolle spielen. Tatsächlich bindet das Fehr-Schmidt-Modell Egoismus, Altruismus und Neid ein. Dazu erweitert es die Nutzenfunktion von Spielern um einen Koeffizienten αi für die Abneigung des Spielers i gegenüber nachteiliger Ungleichheit, sowie einen Koeffizienten βi für seine Abneigung gegenüber vorteilhafter Ungleichheit. Sie werden manchmal auch als Koeffizienten für Neid und Schuld bezeichnet. Ihre Höhe entscheidet darüber, wie sich ein Spieler in bestimmten Situationen gegenüber den Mitspielern verhält. Nehmen wir als Beispiel ein Spiel mit öffentlichen Gütern mit Bestrafung, bei dem Spieler i sich finanziell beteiligt, und erkennt, dass Mitspieler das nicht tun. Ist αi groß genug, wird Spieler i die nicht-kooperativen Mitspieler bestrafen. Ist andersherum βi groß genug, wird der Spieler zum öffentlichen Gut beitragen. Studien haben gezeigt, dass solche Bestrafungen zu mehr Kooperation in Spielen mit öffentlichen Gütern führen. (Wilkinson 2008, 354–357; Dhami 2016, 399–409). Damit kann das Fehr-Schmidt-Modell das Verhalten von Probanden im normalen Ultimatum- und Diktatorspiel sowie in Spielen mit öffentlichen Gütern erklären. (Wilkinson 2008, 355). Das Fehr-Schmidt-Modell hat aber auch eine charakteristische Besonderheit, die es von anderen Modellen sozialer Präferenzen unterscheidet: Im Fehr-Schmidt-Modell vergleichen die Individuen zwar ihre eigenen Payoffs mit denen ihrer Mitspieler. Im Gegensatz zu Reziprozitätsmodellen wie dem Rabin-Modell modelliert das Fehr-Schmidt-Modell aber nicht die Einschätzungen von Spielern über die Intentionen ihrer Mitspieler. Diese spielen hier keine gesonderte Rolle. Das Fehr-Schmidt-Modell hat allerdings den Vorteil, mit seiner Beschränkung auf zwei Parameter in einer linearen Nutzenfunktion einfach aufgebaut zu sein und auf eine große Bandbreite an Spielsituationen angewendet werden zu können.

Das Rabin-Modell ist, wie gesagt, ein Reziprozitätsmodell. Es geht von folgender zentraler Annahme aus, die Wilkinson (Wilkinson 2008, 359) zusammenfasst:

„If somebody is being nice to you, fairness dictates that you be nice to him. If somebody is being mean to you, fairness allows – and vindictiveness dictates – that you be mean to him.“

Faires Verhalten soll also mit Fairness beantwortet werden, während unfaires Verhalten mit einer unfairen Antwort bedacht werden darf. Das Rabin-Modell geht daher davon aus, dass für die meisten Leute Fairness nicht nur etwas mit Gleichheit beziehungsweise Ungleichheit zu tun hat, sondern auch mit der Absicht, die hinter den Handlungen von Personen steckt. Dabei spielt die Reziprozität eine große Rolle, also ob die eigenen Intentionen vom Gegenüber gespiegelt werden. Reziprozität wird häufig in empirischen Untersuchungen beobachtet, wenn beispielsweise Spieler 2 die Freundlichkeit von Spieler 1 mit Freundlichkeit erwidert (positive Reziprozität), oder wenn Spieler 2 die Unfreundlichkeit von Spieler 1 mit Unfreundlichkeit beantwortet (negative Reziprozität). Jedoch kann Altruismus, eine Herangehensweise anderer Modelle, die negative Reziprozität nicht erklären.

Das bedeutet für Rabins Zwei-Spieler-Modell, dass der Nutzen und die Strategie der Spieler von ihrer Meinung über die Absichten des anderen Spielers abhängen. Die Strategie a1 von Spieler 1 beruht auf seinen Annahmen b2 über die Strategie von Spieler 2 und seinen Annahmen c1 über die Annahmen von Spieler 2 über die Strategie von Spieler 1. Das sind zwei verschiedene Konstrukte, die in die Nutzenfunktion des Rabin-Modells einfließen: (1.) die Freundlichkeit von Spieler 1 gegenüber Spieler 2 sowie (2.) die Wahrnehmung der Freundlichkeit von Spieler 2 durch Spieler 1. Die Freundlichkeit von Spieler 1 gegenüber Spieler 2 wird durch eine Funktion von der Strategie a1 und den Annahmen über die Strategie von Spieler 2, b2, abgebildet. Die Wahrnehmung der Freundlichkeit von Spieler 2 durch Spieler 1 wird abgebildet durch eine Funktion von b2 und den Annahmen von Spieler 1 über die Annahmen von Spieler 2 über die Strategie von Spieler 1, c1. Daraus ergibt sich eine dreiteilige Nutzenfunktion zusammen mit dem Payoff von Spieler 1, der von a1 und b2 abhängt. Der entstehende Term ist sowohl dann positiv, wenn die Großzügigkeit von Spieler 1 durch Spieler 2 erwidert wird, als auch wenn seine Unfreundlichkeit von Spieler 2 erwidert wird. Somit entsteht im Rabin-Modell für positive wie auch für negative Reziprozität ein positives Nutzenergebnis, im Gegensatz zu Altruismus-Modellen. (Wilkinson 2008, 360).

Dies sind nur zwei Modelle für soziale Präferenzen, es wurden noch eine Reihe weiterer Modelle vorgeschlagen, ebenso wie beispielsweise für hyperbolisches Diskontieren oder für Entscheidungen unter Risiko, um nur zwei zu nennen. Das zeigt, dass es viele Ideen gibt, wie menschliches Verhalten in der Ökonomie modelliert werden könnte. Unser historischer Abriss zeigt, dass diese Ideen nicht ohne empirische Datenbasis zustande kommen können. Laborexperimente sind daher eines der wichtigsten Werkzeuge der modernen Verhaltensökonomie, denn sie liefern Belege für menschliches Verhalten. Weitere Hilfsmittel sind Einsichten aus der Psychologie oder anderer Sozialwissenschaften. Wie passt die Neuroökonomie, um die es uns ja geht, da hinein? Die Neuroökonomie ist in dieser Gruppe so etwas wie der jüngste Kooperationspartner. Psychologische Modelle wurden aufgegriffen, weil sie sich, im Gegensatz zum ökonomischen Standardmodell, nicht, oder nicht nur, mit der beobachtbaren Wahl eines ökonomischen Agenten beschäftigen. Sie fragen nach den Vorgängen, die die Handelnden durchlaufen, um zu einer Entscheidung zu kommen. Zudem sind Psychologen viel mehr als Ökonomen mit der Planung, Durchführung und Auswertung von Experimenten vertraut. Bereits während ihrer Ausbildung kommen sie damit vielfach in Kontakt und noch heute ist der Anteil an Psychologen, die Erfahrung mit Experimenten haben, deutlich höher als der Anteil an Ökonomen (Cartwright 2014, 11). Das macht sie für Verhaltensökonomen zu wertvollen Partnern bei der Erforschung menschlichen Verhaltens. Das trifft auch auf kognitive Neurowissenschaftler zu. Allerdings heißt das nicht, dass auf psychologischen Modellen basierende Annahmen generell besser für die ökonomische Forschung sind. Denn anders als den Psychologen ist es Ökonomen eher mittelbar wichtig, welche Prozesse die Menschen durchlaufen, um zu einer Kaufentscheidung oder einer unternehmerischen Strategieentscheidung zu gelangen. Am Ende müssen die Vorhersagen zutreffen. Und das ist auch bei psychologisch basierten Vorhersagen nicht immer der Fall.

Die Verhaltensökonomen suchen also weiter nach passenden Veränderungen am Standardmodell. Auch diese müssen vor allem mit akkuraten Vorhersagen aufwarten können. Vorhersagen, die besser sind als die des Standardmodells. Die Messlatte liegt hoch für jede neue Änderung.Footnote 9 Daher werfen wir im folgenden Kapitel einen Blick auf die Neurowissenschaften, die neue Erkenntnisse und Ideen in die Verhaltensökonomie einbringen möchten. Wir werden sehen, welche Geschichte und Erfahrungen sie mitbringen und welche Fragen sie zu beantworten versuchen.