Advertisement

Grundlagen der Entscheidungsfindung

  • Philipp SpreerEmail author
Chapter

Zusammenfassung

Nachdem die Wirtschaftswissenschaften Jahrzehnte lang davon ausgegangen waren, dass Menschen rationale Nutzenmaximierer seien, setzt sich zuletzt mehr und mehr die Erkenntnis durch, dass wir in vielen Situationen überhaupt nicht in der Lage sind, einen rationalen Entscheidungsprozess anzuwenden. Damit geht die Abkehr vom „Homo Oeconomicus“ einher und mehr und mehr psychologische und neurowissenschaftliche Erkenntnisse werden in das Menschenbild der Ökonomie eingeflochten. Heute gilt es als unstrittig, dass wir neben dem rationalen auch ein emotionales Entscheidungssystem besitzen. Letzteres versucht der Forschungsstrang der Behavioral Economics zu verstehen und für wirtschaftliche Fragestellungen nutzbar zu machen. Ihr wichtigster wissenschaftlicher Bezugspunkt ist die „Prospect Theory“, die maßgeblich war für die Verleihung des Wirtschaftsnobelpreises an den Psychologen Daniel Kahneman. Die Behavioral Economics beschäftigen sich vor allem mit unterbewussten Entscheidungsmustern (Heuristiken) und damit einhergehenden Denkfehlern und Verzerrungen (Biases). Zusammen lassen sich diese beiden Gruppen psychologischer Phänomene als Behavior Patterns beschreiben, wörtlich übersetzt also als Schablonen oder Trampelpfade unseres Verhaltens. Die Forschung hat mittlerweile eine Vielzahl von Behavior Patterns identifiziert und validiert. Damit sind die Grundlagen für den Einsatz im E-Commerce gelegt.

Wir sind das Ergebnis unserer Entscheidungen. Sie prägen unseren Lebensweg vom ersten Tag an. Im entscheidenden Moment links oder rechts abzubiegen, kann unter Umständen drastische Konsequenzen und Folgeeffekte auslösen. Daher stellen sich Menschen bei Entscheidungen eine Reihe von Fragen: Kann ich einen Gewinn erwarten oder muss ich mit Verlusten rechnen? Mit welcher Wahrscheinlichkeit treten die jeweiligen Ereignisse ein? Wie stehen Risiko und Gewinnwahrscheinlichkeit im Verhältnis? Es liegt jedoch nahe, dass wir uns diese und andere Fragen bei dem Großteil unserer Entscheidungen weder vollständig noch explizit stellen. Wenn Menschen aber inhärent daran interessiert sind, optimale Entscheidungen zu treffen, stellt sich die Frage, wie Entscheidungsprozesse eigentlich vonstattengehen.

Cognition by itself cannot produce action; to influence behavior, the cognitive system must operate via the affective system (Colin Camerer et al. 2005, S. 13, Vordenker der Behavioral Economics).

2.1 Die Mär vom rationalen Wesen

Die Ökonomie war immer schon ein Spiegelbild des Zeitgeists. Geprägt vom Leitmotiv der Industrialisierung gingen Ökonomen lange Zeit davon aus, dass ein Entscheidungsprozess etwa wie folgt abläuft: Wir definieren ein Ziel, recherchieren die verfügbaren Handlungsalternativen zur Erreichung dieses Ziels, sammeln Informationen über die Alternativen, bewerten diese anschließend im Hinblick auf den erwarteten Grad der Zielerfüllung und wählen schließlich die Handlungsoption mit dem erwarteten höchsten Grad der Zielerfüllung (siehe Abb. 2.1).
Abb. 2.1

Rationaler Entscheidungsprozess des „Homo Oeconomicus“.

(Quelle: eigene Darstellung)

Dieser Nutzungsmaximierungsansatz stellt den Kern des „Homo Oeconomicus“ -Gedankens dar: Menschen verhielten sich streng rational, recherchierten, bewerteten und handelten nach einem vorgegebenen Skript. Eine Abweichung von dieser Vorgehensweise oder die Umsetzung anderer als der gewählten Option komme nicht vor. Drei Merkmale kennzeichnen demnach den „Homo Oeconomicus“:
  1. 1.

    Uneingeschränkte Rationalität: Der ökonomische Mensch will und kann sich in allen Situationen streng rational verhalten. Er wägt seine Entscheidungen immer sorgfältig ab und begeht dabei keine Fehler.

     
  2. 2.

    Uneingeschränkte Willenskraft: Der ökonomische Mensch kennt weder Emotionen noch verliert er jemals die Kontrolle über sein Denken und Handeln. Einmal gefällte Entschlüsse werden ohne Zögern umgesetzt.

     
  3. 3.

    Uneingeschränkter Egoismus: Der ökonomische Mensch maximiert nur seinen eigenen Nutzen und denkt nicht in größeren sozialen Kategorien. Die Konsequenzen seines Verhaltens für seine Mitmenschen beeinflussen seine Entscheidungen nicht.

     

Diese Sichtweise auf den Menschen wird seit geraumer Zeit immer stärker kritisiert. Sie basiere auf einem grundfalschen Menschenbild – einerseits moralisch, andererseits auch hinsichtlich der kognitiven Leistungsfähigkeit. So warfen aufgeschlossene Ökonomen wie Herbert Simon schon früh (1959) ein, dass Menschen die Fähigkeit des Nutzenmaximierens überhaupt nicht besäßen. Das ist plausibel, müsste man dafür doch stets alle verfügbaren Alternativen kennen, Zugriff auf sämtliche Informationen haben und alle Konsequenzen korrekt prognostizieren können.

Beispiel

Am Beispiel des Autokaufs lässt sich die Komplexität dieses Prozesses gut nachvollziehen. Das Ziel (z. B. komfortable Mobilität) wird von Dutzenden von Modellen erfüllt, die wiederum jeweils in mehreren Linien und mit diversen Ausstattungsmerkmalen verfügbar sind. Der „Homo Oeconomicus“ müsste nun ein Verzeichnis aller Modelle erstellen, dazu die einzelnen Merkmale (z. B. Ledersitze, Alufelgen, beheizte Scheiben, Entertainmentsystem etc.) auflisten und einzeln hinsichtlich des Ziels mit einem quantitativen Nutzenwert bemessen. Mit einem Scoring-Verfahren würden anschließend die verfügbaren Optionen als Merkmalsbündel bewertet, am Aufwand gemessen und gegeneinander abgewogen. Die Wahl müsste letztlich unweigerlich auf das Modell mit dem höchsten Nutzen-Score fallen.

Die Unmöglichkeit dieser Form der Entscheidung nennt Simon „begrenzte Rationalität“ (Simon 1959). Doch auch die anderen Merkmale des „Homo Oeconomicus“ (Willenskraft und Egoismus) sind aus Sicht seiner Kritiker keineswegs uneingeschränkt gegeben. Ganz praktisch lässt sich die begrenzte Willenskraft beispielsweise an der hohen Zahl gescheiterter Diäten oder Suchtentwöhnungen nachvollziehen. Egoismus gilt heute ab einer gewissen Ausprägung sogar als evolutionärer Nachteil, weil sich sozial handelnde Gemeinschaften als robuster und überlebensfähiger herausgestellt haben.

Hintergrundinformation

Einen anschaulichen Beleg für die These, dass wir eine angeborene Tendenz zur Fairness haben bzw. nicht uneingeschränkt egoistisch sind, liefert das bekannte Ultimatum-Spiel (Camerer und Thaler 1995). Es funktioniert denkbar einfach: Spieler 1 erhält eine bestimmte Summe Geld und macht Spieler 2 anschließend ein Angebot, wie diese Summe zwischen ihnen aufgeteilt werden soll. Spieler 2 hat dann die Möglichkeit, das Angebot anzunehmen (in diesem Fall erhalten beide Spieler genau den vorgeschlagenen Anteil) oder das Angebot abzulehnen (in diesem Fall erhalten beide Spieler nichts). Als „Homo Oeconomicus“ müsste Spieler 2 nun theoretisch jedes Angebot von Spieler 1 annehmen, denn selbst 1 Cent ist besser als kein Cent. In der Realität zeigt sich jedoch, dass Spieler 2 das Angebot häufig ablehnt, wenn er es für unfair hält. Er verzichtet also selbst auf Geld bzw. bezahlt dafür, um Spieler 1 zu bestrafen und zur Fairness anzuhalten.

Interessant ist auch die neurowissenschaftliche Analyse des Spiels: Bei unfairen Angeboten finden Aktivierungen der anterioren Insula statt, die für negative Emotionen wie Schmerz, Stress, Hunger oder Durst zuständig ist (Sanfey et al. 2003). Bei fairen Angeboten beobachtet man dagegen Aktivierungen im Bereich des ventralen Striatums, das mit Belohnungsprozessen assoziiert wird. Emotionen spielen also gerade im sozialen Kontext eine Rolle bei der Entscheidungsfindung.

Mit Simons Einwänden und ähnlichen Vorbehalten weiterer führender Wissenschaftler gegen die Idee eines „Homo Oeconomicus“ belebte sich die Erforschung des menschlichen Entscheidungsverhaltens, gerade in der Schnittmenge zwischen Wirtschaft und Psychologie. Mehr und mehr nicht-analytische Strategien der Entscheidungsfindung wurden in der Folge beschrieben. Getragen wurde diese Entwicklung vor allem davon, dass mit dem klassischen Erklärungsansatz keine zufriedenstellenden Prognosen des Verhaltens möglich waren. Und Theorien muss man daran messen, wie verlässlich und präzise sie Vorhersagen treffen können (Wong 1973). Um im Beispiel des Autokaufs zu bleiben: Statt „Ich nehme den Wagen mit dem höchsten prognostizierten Nutzen-Score“ heißt es in den Autohäusern dieser Welt viel häufiger „Ich nehme den Roten“. Damit stellt sich die Frage: Warum können Menschen Raketen bauen und zum Mond fliegen, sind aber nicht in der Lage, einfache logische Entscheidungen zu treffen?

Ist der Mensch ein kognitiver Versager? Überschätzt und nur zur dominanten Spezies auf diesem Planeten geworden, weil alle anderen Lebewesen kognitiv noch weniger leistungsfähig sind? Diese Ansicht greift eindeutig zu kurz und zwar aus den folgenden zwei Gründen:
  1. 1.

    Der „Homo Oeconomicus“ ist ein bewusst theoretisches Konstrukt. Es handelt sich um keine Verfehlung der tatsächlichen Gegebenheiten, die sich uneinsichtige Eminenzen im Elfenbeinturm ausgedacht haben, sondern um einen modellhaften Gedanken bzw. eine stark zugespitzte Formulierung einer elementaren Grundannahme. Dieser Gedanke wurde in dem Wissen um seine eingeschränkte Verallgemeinerbarkeit entwickelt und hat sich bereits vielfach bewährt. Die theoretische Leistungsfähigkeit erhält das Modell aus eben dieser Vereinfachung der Realität. Vereinfachung ist ein zentrales Merkmal aller theoretischen Konzepte, man könnte auch sagen: die zentrale Stärke einer Theorie. Erst durch die Reduzierung der Komplexität lassen sich grundlegende Aussagen über Zusammenhänge treffen. Der Gedanke des streng rationalen Menschen ermöglicht also überhaupt erst die Arbeit mit ökonomischen Entscheidungsmodellen. Den Trade-Off zwischen Einfachheit und Exaktheit bezeichnet man übrigens als Bonini-Paradoxon. Sehr anschaulich beschreibt es der französische Lyriker Paul Valéry: „Alles Einfache ist falsch, alles Komplizierte unbrauchbar“ (1937). Das sollte stets im Hinterkopf behalten werden, wenn man theoretische Modelle aufgrund fehlerhafter oder fehlender Annahmen kritisiert.

     
  2. 2.

    Irrationalität ist eine Frage der Perspektive. Verhalten, das der modellhaften rationalen Theorie widerspricht, muss nicht per se irrational sein. Zum einen kann es sich durchaus für Menschen lohnen, sich nicht egoistisch nutzenmaximierend zu verhalten. Zum anderen macht die Nutzung vermeintlich irrationaler Verhaltensmuster unseren Entscheidungsprozess sehr schnell und effizient – und Effizienz ist gleichzusetzen mit Rationalität. Warum wir dankbar sein können, ein Entscheidungssystem zu besitzen, das auch einmal irrational handelt, erläutert Abschn. 2.2 ausführlich.

     

Dass unser tatsächliches Entscheidungsverhalten nicht immer besonders rational ausfällt, liegt sicherlich auch an der bloßen Anzahl von Entscheidungen, die wir Tag für Tag treffen. Der Münchener Professor für medizinische Psychologie Ernst Pöppel bezifferte deren Zahl einmal auf rund 20.000 – pro Tag (Pöppel 2008). Müssten wir den oben beschriebenen komplizierten Prozess für all diese Entscheidungen anwenden, wäre unser Gehirn permanent überlastet und kein Leben, wie wir es heute kennen, überhaupt möglich.

Zusammengefasst: Um streng faktenbasiert und rational die richtige Option zu wählen, muss unser Gehirn unvorstellbare Mengen von Energie aufbringen. So mächtig es sein mag, so geschickt ist es auch darin, den Energieverbrauch zu reduzieren. Das kann man am eigenen Leib spüren: Die meisten Menschen empfinden große Anstrengungen bei der Entscheidungsfindung und entwickeln – meist unbewusst – Vermeidungsstrategien. Wenn wir unsere Entscheidungen nicht streng logisch fällen können, müssen wir uns folgerichtig von dem Gedanken eines „Homo Oeconomicus“ abwenden. Ob es uns gefällt (z. B. weil dies den Menschen klar von kalt berechnenden Maschinen abgrenzt) oder nicht (z. B. weil damit deutlich wird, dass wir oft „unvernünftig“ entscheiden und handeln). Die Frage ist nun, welcher Mechanismus übernimmt stattdessen die Entscheidungsfindung?

Im Volksmund gesprochen treffen wir die meisten Entscheidungen „intuitiv“. Damit meinen wir, dass sie schnell und impulsiv, ohne bewusst darüber nachzudenken und mit großer Leichtigkeit aus dem Bauch heraus gefällt werden. Überraschend daran ist: Diese straßentaugliche Beschreibung des intuitiven Entscheidungsprozesses wird von der Wissenschaft ziemlich exakt bestätigt.

2.2 Zwei Entscheidungssysteme

In der Sesamstraße hat der ernsthafte Bert einen leicht verrückten Ernie an seiner Seite, im „Rosie Project“ verliebt sich der strukturierte Wissenschaftler Don in die impulsive Barfrau Rosie, in Steven Spielbergs Zeichentrickserie unterstützt die emotional-intellektuelle Labormaus Pinky ihren hochintelligenten Partner Brain bei der Eroberung der Weltherrschaft und über den Klassiker von Dr. Jekyll und Mr. Hyde muss man nicht viele Worte verlieren: Das Leben ist voll von ungleichbaren Paaren, die einander brauchen und auf ihre Weise miteinander harmonieren. Ganz ähnlich sieht es in unserem Gehirn aus.

Psychologen und Neurowissenschaftler sind sich heute weitgehend einig darin, dass unser Gehirn mit zwei Systemen arbeitet. Ein rationales System, das von uns bewusst gesteuert wird, langsam ist, aber komplexe Probleme lösen kann. Und ein intuitives System, das impulsiv ohne willentliche Steuerung funktioniert, aber sehr schnell und effizient arbeitet.

Ganz neu ist diese Differenzierung in zwei Systeme nicht, sie findet sich z. B. bereits in Freuds Theorie zur Unterscheidung von unbewussten, vorbewussten und bewussten Prozessen wieder (Freud 1923). Tatsächlich sind die theoretischen Bezüge aktueller kognitionspsychologischer Untersuchungen aber völlig andere. Einer der führenden Forscher und gewissermaßen neuer Vater dieses etablierten Gedankens ist Daniel Kahneman, der im Rahmen seines Beitrags zur Dual-Prozess-Theorie die beiden Entscheidungssysteme abgrenzte und schlicht mit System 1 (Intuition) und System 2 (Ratio) beschrieb (Kahneman 2011). Diese Sichtweise gilt mittlerweile als wissenschaftliches Gemeingut, nicht erst seit Kahneman 2002 als erster Psychologe mit dem Nobelpreis für Wirtschaft ausgezeichnet wurde. Sehr ähnlich gelagert ist auch die Differenzierung von impliziten und expliziten Motiven, die McClelland et al. (1989) als Grundlage unserer Entscheidungen betrachten, oder auch die Identifikation von kontrollierten und automatischen Prozessen von Camerer et al. (2005) sowie von affektiven und kognitiven Abläufen (Loewenstein und O’Donoghue 2004). Tab. 2.1 veranschaulicht den Zusammenhang und das allgemein hohe Maß der Übereinstimmung von Dual-Prozess-Theorien (für eine tiefergehende Diskussion sei Metz-Göckel 2010 empfohlen).
Tab. 2.1

Bezeichnung von Entscheidungsprozessen ausgewählter Dual-Prozess-Theorien

Autoren

Emotionaler Prozess

Rationaler Prozess

James (1890)

Assoziatives Denken

Wahres Denken

McClelland et al. (1989)

Implizit

Explizit

Loewenstein und O’Donoghue (2004)

Affektiv

Kognitiv

Camerer et al. (2005)

Automatisch

Kontrolliert

Smith (2008)

Ökologische Rationalität

Konstruktivistische Rationalität

Kahneman (2011)

System 1

System 2

Die Bezeichnung von Smith (2008) scheint auf den ersten Blick aus dem sehr homogenen Rahmen der anderen Bezeichnungen zu fallen. Allerdings drückt sich in seiner Bezeichnung emotionaler Prozesse als „ökologische Rationalität“ hervorragend aus, dass emotionale Prozesse im Kern keineswegs als irrational betrachtet werden dürfen. Die Verwendung von Heuristiken ist nämlich zunächst ein sehr effizienter und damit rationaler Ansatz. Der Zusatz „ökologisch“ macht dabei deutlich, dass die Heuristiken überwiegend einen biologisch-kulturell-evolutionären Ursprung haben, sich also aus dem ökologischen Umfeld heraus ableiten.

Dass die Zwei-System-Theorie auch von Neurowissenschaftlern vertreten wird (Lieberman 2007), deutet einmal mehr darauf hin, dass die vielen automatisierten Entscheidungsprozesse nicht den Gesetzen der Logik folgen, sondern vielmehr evolutorischen Notwendigkeiten entsprechen. Das bedeutet jedoch keineswegs, dass evolutorische Denkprozesse unlogisch seien. Viele der entsprechenden Heuristiken werden aufgrund radikal geänderter Umweltbedingungen heute einfach nicht mehr benötigt. So oder so: Die Erkenntnisse der Neurowissenschaften sind ein klares Plädoyer dafür, Emotionen bei der Entscheidungsfindung eingehender zu untersuchen, als dies bisher in der ökonomischen Lehre der Fall ist (gut zusammengefasst übrigens von Camerer et al. 2004 in dem Text „Neuroeconomics: Why Economics Needs Brains“).

System 1

„Experten haben immer Recht.“ Hierbei handelt es sich um eine Heuristik, also eine intuitive, einfache und oberflächliche Regel. Immer, wenn wir auf eine kognitive Auseinandersetzung mit vorliegenden Informationen verzichten und stattdessen auf eine Heuristik zurückgreifen, ist System 1 am Drücker. Kahneman beschreibt es als intuitives Entscheidungssystem, das in hohem Maße auf automatisierten Verhaltensmustern basiert. Wenn wir intuitiv entscheiden – unser System 1 also die Führung übernimmt –, fallen uns Lösungen schnell, spontan und ohne Anstrengung ein. Das funktioniert in den meisten Fällen sehr gut und fehlerfrei, wie man z. B. beim Autofahren feststellen kann – eine Situation, in der wir minütlich dutzende Entscheidungen treffen und doch über keine davon bewusst nachdenken. Ein anderes griffiges Beispiel für System-1-Entscheidungen ist ein simples Ballspiel: Wenn ein Sportler einen Ball fängt, hat er vorher nicht die Gleichungen zur Berechnung der Flugbahn des Balls gelöst und seinen Standpunkt entsprechend angepasst – er weiß intuitiv, wie er sich zu verhalten hat. Der Grund für die hohe Geschwindigkeit intuitiver Entscheidungen liegt in der guten Zugänglichkeit („availability“) bzw. Leichtigkeit, mit der wir auf die zugrunde liegenden Heuristiken zugreifen können. Sie ahnen es bereits: Genau um diese automatisierten Verhaltensmuster geht es bei „PsyConversion“.

System 2

Bitte berechnen Sie jetzt das Ergebnis von 24 × 17. Während Sie gegen den Impuls kämpfen, einen Taschenrechner herauszuholen, bemerken Sie eine wichtige Eigenschaft von System 2: Es führt zu Anstrengung und physischer Belastung. Denkprozesse in System 2 laufen also spürbar anders ab als solche in System 1. Sie befassen sich intensiv mit den vorliegenden Informationen und verarbeiten sie rational-kognitiv. Auf der Basis des Ergebnisses werden dann nach einem mehr oder minder klar definierten Skript unsere Einstellungen und Handlungsabsichten gebildet. Kahneman nennt zwei Kernaufgaben von System 2:
  1. 1.

    „compute“ (z. B. die obige Rechenaufgabe lösen)

     
  2. 2.

    „supervise“ (System 1 und das Verhalten überwachen bzw. die Entscheidungsfindung bremsen)

     

Unser effizienzoptimiertes Gehirn reagiert auf den ungewünschten Energieverbrauch, indem das schnelle und schlanke System 1 den Großteil aller Entscheidungen übernimmt und System 2 nur in schwierigen Fällen aktiviert wird. Einschätzungen von Experten zufolge, werden 75 bis 98 % aller Entscheidungen von System 1 getroffen. Angesichts der Tatsache, dass wir uns knapp 99 % aller Gene mit Schimpansen teilen und die genetischen Unterschiede zu allem Überfluss im Gehirn am geringsten sind (Junker 2006), fällt es nicht schwer, zu glauben, dass wir nur in Ausnahmefällen streng rational entscheiden.

In seiner Dankesrede bei der Verleihung des Nobelpreises beschreibt Kahneman die beiden Entscheidungssysteme wie folgt:

The operations of System 1 are typically fast, automatic, effortless, associative, implicit (not available to introspection), and often emotionally charged; they are also governed by habit and are therefore difficult to control or modify. The operations of System 2 are slower, serial, effortful, more likely to be consciously monitored and deliberately controlled; they are also relatively flexible and potentially rule governed (Kahneman 2003).

Auch neurologisch betrachtet entstehen Entscheidungen in zwei verschiedenen Hirnarealen. Im Neokortex (also dem evolutionsbiologisch gesehen „jüngsten“ Teil der Großhirnrinde) findet das bewusste und rationale Denken (System 2) statt. In Experimenten ließ sich deutlich belegen, dass solche kontrollierten Denkprozesse zu einer Aktivierung der medialen und lateralen Stirnhirnbereiche führen (Lieberman 2007). Intuitive Entscheidungen (System 1) werden dagegen in der Amygdala im limbischen System angestoßen, also dem Teil des Gehirns, der für Empfindungen zuständig ist. Intuitive Entscheidungen unterscheiden sich also neurologisch kaum von Emotionen – ein überraschender Befund in einer Welt, die Emotionalität lange Zeit als einen Störfaktor bei Entscheidungsprozessen betrachtet hat. Die beiden Gehirnareale arbeiten aber selbstverständlich nicht völlig getrennt voneinander. Der Neokortex empfängt die Signale der Amygdala und wird dadurch in seiner Arbeitsweise beeinflusst. Wäre das nicht der Fall, wären wir auf Gedeih und Verderb unseren impulsiven Entscheidungen ausgesetzt. So existiert jedoch eine beidseitige Überprüfungsroutine.

Neuroökonomische Entscheidungsmodelle werden mithilfe von fünf Komponenten aufgebaut, die in Abb. 2.2 dargestellt werden (in Anlehnung an die Beschreibung von Fehr und Rangel 2011).
Abb. 2.2

Entscheidungsprozess in neuroökonomischen Modellen.

(i. A. a. Fehr und Rangel 2011)

Haben Sie schon einmal von „Elliott“ gehört? Er war die Hauptfigur in einer spektakulären medizinischen Studie, die Antonio Damasio Ende der 1980er Jahre durchführte (Damasio 2014). Der Professor für Neurowissenschaften, Neurologie und Psychologie an der University of Southern California wollte den neurologischen Zusammenhang zwischen den beiden Entscheidungssystemen ergründen. Dafür führte er Untersuchungen mit Patienten durch, bei denen im Zuge einer Tumorerkrankung Hirnschäden aufgetreten waren. Einer davon war Elliott, der nach einer Gehirnoperation die Fähigkeit verlor zu fühlen. Erstaunlicherweise ging damit auch seine Unfähigkeit einher, fortan Entscheidungen zu fällen. Der Fall zeigt, wie schon angedeutet, dass der alte Dualismus „Geist vs. Körper“ bzw. „Verstand vs. Gefühl“ viel zu kurz greift. Damasios Forschung hat damit erstmals belegt, dass eine enge Verbindung zwischen unseren neuro-anatomischen Gewebestrukturen und der menschlichen Gefühlswelt existiert.

Hintergrundinformation

Neurowissenschaftlicher Deep Dive: Damasios Hypothese der somatischen Marker (1996)

Damasio und seine Kollegen waren die ersten, die die Behauptung aufstellten, dass Menschen neben kognitiven auch sogenannte „somatische“ Prozesse zur Entscheidungsfindung benötigten. Damit meinen sie im Kern die Wahrnehmung aller im Körper ablaufenden Prozesse. Somatische Marker werden dabei im limbischen System generiert und repräsentiert und haben die Aufgabe, Handlungsoptionen sowohl bewusst als auch unbewusst zu bewerten – vor allem dann, wenn für eine rationale Analyse keine Zeit ist. Neuronale Basis für die somatischen Marker sei die Vernetzung des präfrontalen Kortex zu den limbischen Strukturen (z. B. Amygdala, Hippocampus, Gyrus Cinguli).

Messbar gemacht wurden diese Prozesse mit einem eigens entwickelten Test zur Hautwiderstandsmessung, dem „Iowa Gambling“-Test. Dabei wurde untersucht, ob Patienten mit ventromedialer Läsion wie Elliot sich bei einem Kartenspiel anders verhalten als gesunde Probanden und ob dieses Verhalten per Hautwiderstandsmessung vorhergesagt werden kann. Das Ergebnis war beeindruckend: Die gesunden Teilnehmer konnten schnell erkennen, welche beiden der vier Kartenstapel einen positiven Erwartungswert hatten und welche nicht. Noch bevor diese Erkenntnis von den Probanden bewusst erfasst und beschrieben werden konnte, ließ sich bereits über den Hautwiderstand korrekt vorhersagen, ob eine Karte aus einem Stapel wahrscheinlich zu einem Gewinn oder einem Verlust führen würde. Bei den Teilnehmern mit Hirnschädigung war dies nicht der Fall. Sie beendeten im Gegensatz zu den gesunden Probanden das Spiel mit einem Verlust. Damasio schlussfolgerte, dass die somatischen Marker einen affektiven Aspekt der Entscheidungsfindung darstellen, Emotionen also unsere Entscheidungen prägen.

Die beiden Entscheidungssysteme arbeiten in der Regel sehr effizient zusammen: Empfangen wir einen Input von außen, wird dieser meist in System 1 verarbeitet und ein Entscheidungsvorschlag entwickelt. Erscheint dieser Vorschlag System 2 plausibel und werden keine Komplikationen, z. B. aufgrund von Erfahrungswissen, festgestellt, wird er unverändert übernommen und umgesetzt. Kommt es hingegen zu Komplikationen, fährt System 2 hoch und „überschreibt“ den Entscheidungsvorschlag von System 1, wie in Abb. 2.3 skizziert.
Abb. 2.3

Zusammenarbeit von System 1 und System 2.

(Quelle: i. A. a. Kahneman 2011)

Die Zusammenarbeit lässt sich auch am eigenen Leib erfahren, zum Beispiel mit dem „Stroop-Experiment“ (i. A. a. Stroop 1935). Gehen Sie dafür Tab. 2.2 spaltenweise durch und nennen Sie so schnell wie möglich die Farben der Wörter (d. h. vermeiden Sie es, die geschriebenen Wörter vorzulesen). Sie werden sehen: Bei jedem Wort muss System 2 den ersten Impuls von System 1 korrigieren, was mit spürbarem Konzentrationsaufwand und Anstrengung verbunden ist.
Tab. 2.2

Der „Stroop-Effekt“. (Eigene Darstellung i. A. a. Stroop 1935)

Im Rahmen dieser Zusammenarbeit können sich System 1 und System 2 gegenseitig unterstützen bzw. zu demselben Ergebnis führen. Im obigen Beispiel des Ballspielers wird das deutlich: Sowohl das intuitive Verhalten (System 1) als auch die komplexen Rechenoperationen (System 2) können verwendet werden, um das Fangen des Balls vorzubereiten. Die beiden Systeme können sich aber ebenso behindern: Die Kapazität mentaler Anstrengungen ist begrenzt, sodass sich kontrollierte Denkprozesse in System 2 meist gegenseitig stören. Kommt es zu einer Störung, wird Aufmerksamkeit abgezogen und die Aufgabe kann nicht mehr zufriedenstellend gelöst werden. Beeindruckendes Beispiel für die begrenzten Aufmerksamkeitsressourcen von System 2 ist die berühmte Monkey Business Illusion, bei der der Aufmerksamkeitsfokus so stark auf eine Aufgabe gerichtet wird (im Experiment: Ballwechsel bestimmter Spieler zählen), dass den Probanden sogar ein Gorilla entgeht, der sich quer durch das Bild bewegt. Intuitive Prozesse in System 1 laufen dagegen anstrengungsfrei ab. Sie sind auch dann nicht störungsanfällig, wenn mehrere Aufgaben parallel bearbeitet werden müssen (Metz-Göckel 2010). Für die Beziehungen zwischen den beiden Entscheidungssystemen finden sich auch neurowissenschaftliche Belege, die das Gehirn keineswegs als homogenen Prozessor begreifen, sondern die Parallelität und mögliche Konkurrenz der Prozesse betonen (Loewenstein et al. 2008).

Die Monkey Business Illusion macht im Übrigen deutlich, dass Multitasking als vermeintlich besonders wertvolle und erstrebenswerte Eigenschaft ein erwiesenermaßen unsinniges Konstrukt ist: Mehrere Denkaufgaben gleichzeitig auszuführen, führt fast immer dazu, dass jede einzelne Aufgabe mit geringer Qualität ausgeübt wird bzw. unser Gehirn eigenständig und ohne Rücksicht auf die Sinnhaftigkeit zwischen diesen Aufgaben priorisiert.

2.3 Besser, aber nicht perfekt

Wie heißt die Hauptstadt von Frankreich?

Welche Himmelsrichtung liegt entgegengesetzt zu Norden?

Wie viele Tiere jeder Art nahm Moses mit in die Arche?

Wenn Sie diese Fragen ohne zu überlegen mit „Paris“, „Süden“ und „zwei“ beantworten konnten, haben Sie am eigenen Leib erfahren, wie schnell unser Gehirn sein kann – aber auch wie fehleranfällig! Richtig: Nicht Moses, sondern Noah baute die biblische Arche. Die sogenannte „Moses-Illusion“ verdeutlicht, dass System 1 oft das führende System ist und System 2 nur bei denjenigen Entscheidungen hinzugezogen wird, bei denen sich System 1 unwohl fühlt. Bei der Moses-Illusion fühlt es sich jedoch wohl: Tiere, Arche, Moses – all das stammt aus dem biblischen Kontext und erscheint in einem plausiblen Zusammenhang. System 2 wird deshalb nicht aktiviert und wir treffen eine falsche Entscheidung. Anders wäre es gewesen, wenn statt von Moses von Helene Fischer die Rede gewesen wäre. Diese Figur passt offensichtlich nicht in den gegebenen Kontext, sodass System 2 aktiviert worden wäre und den Fehler umgehend bemerkt hätte.

Zwei Entscheidungssysteme zu haben, die sich in vielen Fällen gegenseitig kontrollieren können, ermöglicht uns erst ein normales Leben, wie wir es kennen. Ohne System 1 wäre unser rationales Entscheidungssystem 2 chronisch überlastet. Ohne System 2 hingegen würden wir sprunghaft, unüberlegt und oft irrational handeln, was uns die wesentlichen Fähigkeiten nähme, die den Menschen evolutionär von anderen Lebensformen abheben.

Dennoch ist die Dualität der beiden Systeme keineswegs perfekt, wie wir gesehen haben. Wir sind weder rationale Wesen noch können wir uns voll auf unsere Intuition verlassen. Wir wechseln stattdessen unkontrolliert zwischen beiden Entscheidungskreisen hin und her, unfähig uns unserer Denkprozesse bewusst zu werden oder sie zu steuern. Eine Vielzahl von kognitiven Denkfehlern (Cognitive Biases) und über Jahrtausende eingeschliffenen automatisierten Verhaltensmustern (Heuristiken) sind der Beleg dafür.

Für Täuschungen, Verzerrungen und Fehler wird gemeinhin System 1 verantwortlich gemacht, da es Entscheidungen auch dann fällt, wenn die relevanten Einflüsse und Kontextfaktoren nicht hinreichend bekannt sind. Das wird zum Beispiel dadurch belegt, dass Personen meist nicht merken oder sogar leugnen, solchen Denkfehlern zu unterliegen bzw. auf automatisierte Verhaltensmuster zurückzugreifen (Pronin 2009). Kahneman (2003) präsentiert für diese These eine Reihe von Untersuchungen zur statistischen Intuition und zeigt sich überrascht, dass selbst erfahrene Statistiker oft zu spektakulären intuitiven Fehleinschätzungen kommen: „We were impressed by the persistence of discrepancies between statistical intution and statistical knowledge“ (Kahneman 2003, S. 697). Offenbar sind selbst Experten nicht in der Lage, in ihrem Fachgebiet intuitiv gute Entscheidungen zu treffen. Fast noch erstaunlicher: Sie sind sich dessen keineswegs bewusst und halten ihre intuitiven Einschätzungen meist für überaus treffend. Für uns heißt das: Glaube keinem Experten blind.

Zu den bekanntesten Experimenten, die sich mit der Untersuchung von intuitiven (Denk-)Fehlern beschäftigen, zählt das sogenannte „Linda-Problem“ von Sloman (1996). Den Versuchspersonen wurde der Steckbrief einer fiktiven Frau namens Linda vorgelegt:

Linda ist 31 Jahre alt, Single, geradeheraus und sehr intelligent. Sie hat einen Universitätsabschluss in Philosophie. Als Studentin war sie tief betroffen von alltäglicher Diskriminierung und sozialer Ungerechtigkeit und nahm an Anti-Atom-Demonstrationen teil.

Anschließend sollten sie einschätzen, mit welcher Wahrscheinlichkeit jede der beiden folgenden Aussagen zutreffen:

a) „Linda ist eine Bankschalterangestellte.“

b) „Linda ist eine Bankschalterangestellte und aktive Feministin.“

Auch wenn die Frage von unserem heutigen Standpunkt aussieht, wie ein unangemessen tiefer Griff in die Klischeekiste: Welche der beiden Aussagen würden Sie als wahrscheinlicher einstufen? Angesichts der Details aus dem Steckbrief auch Aussage b)? So entscheiden sich die meisten Versuchspersonen. Sie verletzen damit jedoch eine einfache Konjunktionsregel: Eine Verknüpfung von Statements kann nie wahrscheinlicher sein als jedes einzelne Statement für sich genommen. Aussage a) muss damit wahrscheinlicher sein als Aussage b). Stellt man sich die beiden Gruppen als Venn-Diagramm vor, wäre die Menge feministischer Bankschalterangestellter vollständig in der Menge der Bankschalterangestellten enthalten. Intuitiv entdecken wir jedoch eine plausible Verbindung zwischen dem sozialen Engagement von Linda während ihrer Studienzeit und der Zugehörigkeit zur feministischen Bewegung. Das Vertrauen auf unsere Intuition und die Plausibilität lässt uns hier eine Entscheidung treffen, die rational betrachtet offensichtlich falsch ist. System 2 hätte diesen Fehler zwar vermieden, war aber bei den betroffenen Versuchspersonen überhaupt nicht an der Entscheidung beteiligt, weil die Informationen ähnlich wie bei der Moses-Illusion in einem plausiblen Kontext zueinanderstanden.

Ganz ähnlich ergeht es Menschen auch bei Kaufentscheidungen – besonders dann, wenn Unsicherheit im Spiel ist. Ein treffendes Beispiel ist der Abschluss einer (Risiko-)Lebensversicherung. Im Experiment von Johnson et al. (1993) wurde die Zahlungsbereitschaft von zwei Ausprägungen dieser Versicherung ermittelt:
  1. 1.

    Zahlung von 100.000 US$ im Todesfall

     
  2. 2.

    Zahlung von 100.000 US$ bei Tod durch Terrorismus

     

Erstaunlicherweise sind Menschen intuitiv bereit, für Variante 2 mehr Geld zu bezahlen, obwohl diese verglichen mit Variante 1 nur in einem Bruchteil der Fälle den Betrag ausschüttet. Dies steht in Verbindung mit dem Aktivierungspotenzial, das Gefühle wie Angst bei uns auslösen. Man könnte es auch so ausdrücken: Menschen haben größere Angst, bei einem Terroranschlag zu sterben, als überhaupt zu sterben. Dieses (zugegeben drastische) Beispiel verdeutlicht noch einmal die Fehleranfälligkeit der Intuition an sich und gleichzeitig den Einfluss öffentlicher Berichterstattung auf unsere Wahrnehmung von Wahrscheinlichkeit. Interessanterweise gibt es hierbei einen starken kulturellen Einschlag: Während bei Amerikanern die Angst vor Terrorismus irrational hoch ist, wurde derselbe Effekt in Kanada am Beispiel der Vogelgrippe nachgewiesen (Sunstein 2005).

Wie bereits erwähnt: Keineswegs sollte man daraus aber schlussfolgern, unser (zumindest zahlenmäßig) dominierendes Entscheidungssystem 1 sei per se irrational. Das Gegenteil ist der Fall: Die Nutzung von Heuristiken als mit hoher Wahrscheinlichkeit passende Lösungswege macht unser Gehirn außerordentlich schnell und effizient. Oder anders ausgedrückt, Heuristiken machen den Entscheidungsprozess ökonomisch. Und dies wiederum ist die Definition der „alten“ Ökonomie für rationales Verhalten. Die triviale Rechnung „Heuristiken = irrational“ geht also nicht auf.

2.4 Entscheidungstheorie 2.0: Behavioral Economics

Wäre die klassische nationalökonomische Theorie eine Software, sie bräuchte dringend ein Upgrade. Ihre Annahmen erscheinen nicht mehr zeitgemäß und stehen im Konflikt mit aktuellen Forschungsbefunden, insbesondere aus der Psychologie und den Neurowissenschaften. Demzufolge wird sie in ihrer reinen Lehre heute kaum mehr vertreten. Dies bedeutet allerdings nicht, dass sämtliche modellhaften Gedanken der Ökonomie verworfen werden sollten. Sie werden vielmehr erweitert und aktualisiert, um sie näher an die heutige Realität zu führen und damit bessere Prognosen machen zu können.

Beck (2014, S. V) formuliert das Grundanliegen der Behavioral Economics folgerichtig mit dem Ziel, tatsächliche „psychologische Grundlagen des menschlichen Handelns in die ökonomische Theorie einzuflechten“. Behavioral Economics sind damit keine eigenständige Theorie, sondern vielmehr ein anwendungsbezogenes „Upgrade“ etablierter Ansätze. Als solches zeigt es, wo psychologische Erklärungsansätze des menschlichen Verhaltens in einem betriebswirtschaftlichen Kontext genutzt werden können. Mit Blick auf die frühen Ursprünge der ökonomischen Theorie sprechen manche Autoren auch von einer Wiedervereinigung der Psychologie mit der Ökonomie (Camerer 1999). Klar ist damit jedoch auch, dass so die Anwendung modelltheoretischer Überlegungen komplexer wird. Das ist so lange hinnehmbar, wie der zusätzliche Nutzen der gesteigerten Genauigkeit einer Theorie den Verlust in Form der reduzierten Einfachheit (man könnte auch sagen: Nutzerfreundlichkeit) überkompensieren kann.

Im Gegensatz zu den Kernannahmen der klassischen Ökonomie 1. unbegrenzte Rationalität, 2. unbegrenzte Willenskraft, 3. unbegrenzter Egoismus beschreiben die Behavioral Economics die folgenden Grundlagen der Entscheidungsfindung:
  1. 1.

    Unvollkommene Märkte: Die Verfügbarkeit von Informationen ist eingeschränkt, die Transparenz möglicher Optionen ebenso. Dadurch verhalten sich Menschen nicht immer gemäß einer rational-vernünftigen bzw. markteffizienten Erwartung. Wenn wir also davon ausgehen, dass sich Individuen nicht unbegrenzt rational verhalten (können), können auf übergeordneter Ebene auch keine vollkommenen Märkte entstehen.

     
  2. 2.

    Framing: Die Art und Weise, wie ein Problem oder eine Entscheidung vorgestellt wird, beeinflusst die Entscheidung selbst. Starke Belege dafür sind die eindrucksvollen Milgram-Versuche (Milgram 1974) oder das Gefängnis-Experiment von Zimbardo (Haney et al. 1973). Hier zeigten sich enorme Einflüsse der Situation und der Instruktion, die eine rationale Bewertung der Aufgabe unmöglich machten. Im Gefängnis-Experiment gingen die Versuchsteilnehmer in der Rolle des Gefängniswärters aufgrund des entsprechenden Framings gar so weit, die vermeintlichen Insassen mit lebensgefährlichen Stromstößen zu bestrafen.

     
  3. 3.

    Einsatz von Heuristiken: Menschen treffen Entscheidungen häufig auf Grundlage einer einfachen, schnellen und stabilen Daumenregel, nicht nur aufgrund einer Analyse aller Möglichkeiten. Heuristiken sind damit Abkürzungen auf dem Weg zur Entscheidung. Beck (2014) veranschaulicht eine Heuristik mit dem Gordischen Knoten: Ein komplexes Problem (verknotetes Seil) wird mit einem einfachen Ansatz (mit einem Schwert durchschlagen) gelöst. Dieser Lösungsweg ist einfach und effizient, kann aber zu unerwünschten Nebeneffekten führen (Seil ist zerstört).

     
Die klassische Ökonomie ging zwar bereits auch davon aus, dass Menschen Fehlentscheidungen treffen können, betrachtete diese aber nie als systematisch. Häufig genannten Argumente für das begrenzte Auftreten von Fehlern sind die folgenden drei Aspekte: Arbitrage, Survival of the Fittest und Lernen.
  • Arbitrage bezeichnet die Chancen, die sich jemandem eröffnen, wenn jemand anderes sich ökonomisch irrational verhält. Am Aktienmarkt lässt sich das gut veranschaulichen: Wenn Anleger einen irrational hohen Preis für eine Aktie bezahlen, wird das rational agierende Besitzer dieser Aktie zum Verkauf ermutigen. Das gestiegene Angebot infolge der opportunistischen Ausnutzung dieser Arbitrage führt dann zu einem Sinken der Kurse und die irrationalen Preistendenzen werden beseitigt.

  • Survival of the Fittest bedeutet, dass sich nur rational handelnde Marktteilnehmer langfristig etablieren werden. Irrational handelnde Menschen und Institutionen machen dagegen demnach Fehler, die sie aus dem Markt entfernen. Ein Unternehmer, der nicht rational kalkuliert, würde also von rational handelnden Wettbewerbern verdrängt.

  • Lernen ist das dritte Argument für den nicht-systematischen Charakter irrationaler Entscheidungen in der ökonomischen Theorie. Demnach kann jeder, der Fehler begeht, aus diesen Fehlern lernen und sie künftig vermeiden. So könne irrationales Verhalten nicht langfristig auftreten.

Keines dieser Argumente der klassischen Ökonomie ist frei von Kritik (Können irrational erscheinende Aktienpreise in einem anhaltenden Aufwärtstrend nicht auch rational sein? Zeigt der Blick in die Natur nicht, dass auch physikalisch eindeutig suboptimale Lebensformen langfristig erfolgreich sein können? Existiert infolge mangelnden Feedbacks nicht häufig überhaupt keine Möglichkeit, aus seinem Verhalten zu lernen?). Diese Argumente veranschaulichen dennoch die Grundannahme der ökonomischen Theorie, dass irrationales Verhalten nicht systematisch und damit lediglich eine temporäre Marktanomalie sei. Lange Rede, kurzer Sinn: Hierin liegt ein wesentlicher Unterschied zum Ansatz der Behavioral Economics: Diese betrachten irrationales Verhalten als naturgegebene Begleiterscheinung von Heuristiken und als systematisch und verlangen daher von den jeweiligen ökonomischen Theorien, diese Anomalien in die Modellierung des Verhaltens aufzunehmen.

Die oben aufgelisteten Grundannahmen der Behavioral Economics greifen immer (aber nicht ausschließlich), wenn wir Entscheidungen unter Unsicherheit fällen. Das ist dann der Fall, wenn wir die Wahrscheinlichkeit des Eintretens eines Ereignisses nicht sicher kennen – also bei nahezu allen Kauf- und Konsumentscheidungen (nicht aber z. B. bei einem Münzwurf, bei dem die Wahrscheinlichkeit für „Kopf“ und „Zahl“ exakt 0,5 beträgt).

2.5 Die Prospect Theory als wichtigster Bezugspunkt der Behavioral Economics

Das wirft eine Frage auf: Wenn die klassische ökonomische Theorie nicht mehr zeitgemäß ist, die Behavioral Economics aber für sich genommen keine eigene Theorie darstellen und damit auch nicht als alternatives Erklärungsmodell herangezogen werden können: Welche Theorie legen wir unserem Verständnis der Entscheidungsfindung dann zugrunde?

Die Prospect Theory (deutsch: Neue Erwartungstheorie) wird hierfür von vielen Experten favorisiert. Sie wurde von Kahneman und Tversky 1979 vorgestellt und ist die Grundlage für die Verleihung des Wirtschaftsnobelpreises an Daniel Kahneman im Jahr 2002. Sie erklärt, wie Menschen unter Unsicherheit Entscheidungen treffen. In ihrer frühesten Form untersuchten die Wissenschaftler dies am Beispiel von Lotterien mit verschiedenen Höchstgewinnen und Gewinnwahrscheinlichkeiten, weswegen sie ursprünglich auch als „Lottery Theory“ bezeichnet wurde.

Sie eignet sich deshalb so gut für die Anwendung im E-Commerce, weil jede Informations- und Kaufentscheidung für Kunden per se mit Unsicherheit belastet ist. Eine vollständige Abschätzung und Bewertung aller Risiken ist unmöglich. Zudem finden die Entscheidungen meist allein (d. h. von sozialen Einflüssen abgeschirmt) statt, wodurch die Unsicherheit und die Tragweite der eigenen Entscheidungen noch einmal betont werden. Im Online-Umfeld finden sich also genau die in der Theorie beschriebenen Rahmenbedingungen wieder – ohne, dass die Väter der Theorie auch nur im Entferntesten an das Internet gedacht haben.

Kerngedanke der Prospect Theory ist, dass Menschen sich in Entscheidungssituationen nicht immer gleich verhalten (wie es der streng rationale Nutzenmaximierungsansatz in der klassischen nationalökonomischen Theorie annimmt), sondern dass die Einschätzung des Eintretens eines Ereignisses und die Bewertung dessen in hohem Maße individuell sind. So neigen Menschen zum Beispiel dazu, Verluste (bei denselben Eintrittswahrscheinlichkeiten) höher zu gewichten als Gewinne. Man ärgert sich also über den Verlust von 1000 € mehr, als man sich über den Gewinn derselben Summe freut. Als Faustformel gilt: Die Vermeidung eines Verlusts motiviert etwa doppelt so stark wie das Erreichen eines Gewinns. Das führt zum Beispiel zu dem (streng ökonomisch betrachtet) unsinnigen Verhalten vieler Anleger an der Börse: Gewinne werden zu früh realisiert, während an verlustreichen Aktien wegen der Verlustaversion zu lange festgehalten und auf steigende Kurse gewartet wird.

Hintergrundinformation

Die Prospect Theory beschreibt zwei Phasen der Entscheidungsfindung:
  1. 1.

    Die Editierungsphase: Die verfügbaren Alternativen werden vorläufig bewertet und sortiert. Um dies schnell und ressourceneffizient durchführen zu können, werden die Alternativen meist vereinfacht. Dafür stehen sechs Mechanismen zur Verfügung, die die Prospect Theory bereits grundlegend von der klassischen Erwartungsnutzentheorie unterscheiden: Coding (Ergebnisse werden nicht absolut, sondern im Verhältnis zu einem Referenzpunkt wahrgenommen), Combination (Alternativen mit demselben Ergebnis werden zusammengefasst und ihre Wahrscheinlichkeiten addiert), Segregation (sichere Bestandteile einer Alternative werden herausgerechnet, der mit der hohen Wahrscheinlichkeit multiplizierte Erwartungswert eines Ereignisses ist dann 1), Cancellation (gleiche Bestandteile von Alternativen werden nicht berücksichtigt, die Entscheidung also nur auf Basis der Unterscheidungsmerkmale gefällt), Simplification („krumme“ Wahrscheinlichkeiten werden mental gerundet, sehr unwahrscheinliche Ereignisse komplett ausgeschlossen) und letztlich Elimination (Alternativen, die in allen Bestandteilen gegenüber anderen Optionen unterliegen, werden bei der Entscheidungsfindung nicht weiter berücksichtigt).

     
  2. 2.

    Die Evaluierungsphase: In der Evaluierungsphase findet die Entscheidung zwischen den nunmehr editierten Alternativen statt. Dies lässt sich mit einer einfachen Funktion modellieren, die aus zwei Elementen besteht: a) dem subjektiven Wert einer Alternative und b) der individuell gewichteten Wahrscheinlichkeit des Eintretens dieser Alternative.

     

Mit der Bewertung von Alternativen auf Basis eines Werts und dessen Eintrittswahrscheinlichkeit scheint sich die Prospect Theory auf den ersten Blick nicht substanziell von der Erwartungsnutzentheorie zu unterscheiden, die ebenfalls mit Erwartungswerten und Wahrscheinlichkeiten argumentiert. Der zentrale Unterschied besteht in der subjektiven (d. h. nicht zwangsläufig rationalen) Einschätzung der Elemente dieser Funktion. Mit anderen Worten: Der objektive Erwartungsnutzen ist für die Entscheidung überhaupt nicht relevant. Sehr anschaulich verdeutlicht dies das Münzwurfspiel, bei dem man bei „Kopf“ einen Euro verliert, bei „Zahl“ einen Euro gewinnt. Die Erwartungsnutzentheorie würde nun sagen, beide Ereignisse (Kopf und Zahl) haben mit je 0,5 exakt dieselbe Eintrittswahrscheinlichkeit, zudem fallen der mögliche Gewinn und der mögliche Verlust genau gleich hoch aus – der Erwartungswert des Spiels wäre damit 0. Die Prospect Theory kommt zu einem anderen Ergebnis: Wie oben schon beschrieben, messen Menschen Verlusten ein höheres Gewicht bei als Gewinnen. Wenn ein Entscheider also den Verlust eines Euros höher einschätzt als den Gewinn eines Euros und beide mit derselben Wahrscheinlichkeit eintreffen, ist sein Erwartungswert negativ – er würde die Wette damit (anders als der „Homo Oeconomicus“) nicht eingehen.

Hintergrundinformation

Der Spatz in der Hand oder die Taube auf dem Dach?

Ein kurzer Vorgriff auf die Sammlung von Behavior Patterns, die in Kap.  4 vorgestellt wird: Bei der ungleichen Behandlung möglicher Gewinne und Verluste handelt es sich um den „Endowment Effect“, der beschreibt, dass Menschen Dinge aus ihrem Besitz wegen der hohen Verlustangst stärker wertschätzen als Dinge, die sie eventuell als Gewinnchance erhalten könnten. Probieren wir es aus: Sie haben die Wahl zwischen zwei Optionen:
  1. a.

    Verlust von 30.000 € mit einer Wahrscheinlichkeit von 0,001 %

     
  2. b.

    Sicherer Verlust von 30 €

     

Der Erwartungswert ist in beiden Fällen identisch (30 €). Warum entscheidet sich die Mehrheit von Ihnen dennoch spontan für Option b? Weil allein die Vorstellung des möglichen Verlusts von 30.000 € so viel „Schmerz“ erzeugt, dass die Wahrscheinlichkeit kaum mehr berücksichtigt wird. Mit diesem banalen Beispiel lässt sich übrigens auch das Geschäftsmodell von Versicherungen erklären: Ihr Auto im Wert von 30.000 € haben Sie sicherlich auch mit einer Monatsprämie von 30 € (oder sogar deutlich mehr) abgesichert und dabei die Eintrittswahrscheinlichkeit eines Versicherungsfalls vermutlich überschätzt.

Für die Entscheidung über die Teilnahme an solchen Spielen muss man ergänzend noch einmal den Referenzwert aus der Editierungsphase der Prospect Theory betonen. Er verdeutlicht, dass man die Teilnahmebereitschaft nicht statisch modellieren darf: Jemandem, der ein Vermögen von 100.000 € besitzt, schmerzt der mögliche Verlust von einem Euro weniger als jemandem, der nur ein Vermögen von 10 € besitzt. Diese beiden Personen würden daher wahrscheinlich nicht zu derselben Teilnahmeentscheidung kommen – völlig unabhängig vom Erwartungswert.

2.6 Die wichtigsten Erkenntnisse zusammengefasst

  • Menschen besitzen zwei Entscheidungssysteme, eines für rationales und kontrolliertes Denken und eines für impulsives und intuitives Denken. Der Großteil aller Entscheidungen wird intuitiv getroffen.

  • Intuitive Entscheidungen basieren auf einfachen Regeln, den Heuristiken. Diese sind recht universell und evolutionsbiologisch verankert. Sie lassen sich bei fast allen Menschen nachweisen.

  • Heuristiken sind zwar effizient, aber nicht unbedingt der Qualität von Entscheidungen zuträglich. Ihr Einsatz bringt oft kognitive Verzerrungen bzw. Denkfehler mit sich.

  • Behavioral Economics ist die Denkschule, die die Heuristiken und Verzerrungen in der Verhaltensmodellierung berücksichtigt. Ihr wichtigster Bezugspunkt ist die Prospect Theory.

  • Viele Heuristiken sind mittlerweile im Detail bekannt. Damit öffnet sich die Möglichkeit, unbewusste Entscheidungsprozesse durch die Aktivierung bestimmter Muster zu beeinflussen.

Die wichtigsten Begriffe dieses Grundlagenkapitels und deren Zusammenhänge werden in Abb. 2.4 dargestellt: Wir bewegen uns bei „PsyConversion“ also thematisch auf der linken Seite der Abbildung, dem intuitiven Entscheidungssystem 1, in dem die Behavior Patterns ihre Wirkung entfalten.
Abb. 2.4

Zusammenhang der wichtigsten Begriffe

Literatur

  1. Beck H (2014) Behavioral Economics: Eine Einführung. Springer-Gabler, WiesbadenGoogle Scholar
  2. Camerer C (1999) Behavioral economics: reunifying psychology and economics. Proc Nat Acad Sci 96(19):10575–10577CrossRefGoogle Scholar
  3. Camerer C, Thaler RH (1995) Anomalies: ultimatums, dictators and manners. J Econ Perspect 9(2):209–219CrossRefGoogle Scholar
  4. Camerer C, Loewenstein G, Prelec D (2004) Neuroeconomics: why economics needs brains. Scand J Econ 106(3):555–579CrossRefGoogle Scholar
  5. Camerer C, Loewenstein G, Prelec D (2005) Neuroeconomics: how neuroscience can inform economics. J Econ Lit 43(1):9–64CrossRefGoogle Scholar
  6. Damasio AR (2014) Descartes’ Irrtum: Fühlen, Denken und das menschliche Gehirn. Ullstein eBooks, BerlinGoogle Scholar
  7. Damasio AR, Everitt BJ, Bishop D (1996) The somatic marker hypothesis and the possible functions of the prefrontal cortex. Philos Trans R Soc B Biol Sci 351(1346):1413–1420CrossRefGoogle Scholar
  8. Fehr E, Rangel A (2011) Neuroeconomic foundations of economic choice – recent advances. J Econ Perspect 25(4):3–30CrossRefGoogle Scholar
  9. Freud S (1923) Das Ich und das Es. In: Freud S (Hrsg) Studienausgabe, Bd. III: Psychologie des Unbewußten. Fischer, Frankfurt a. M.Google Scholar
  10. Haney C, Banks C, Zimbardo PG (1973) Interpersonal dynamics in a simulated prison. Int J Criminol Penol 1:69–97Google Scholar
  11. James W (1890) The principles of psychology. Holt, New YorkGoogle Scholar
  12. Johnson EJ, Hershey J, Meszaros J, Kunreuther H (1993) Framing, probability distortions, and insurance decisions. J risk uncertainty 7(1):35–51CrossRefGoogle Scholar
  13. Junker T (2006) Die Evolution des Menschen. Beck, MünchenCrossRefGoogle Scholar
  14. Kahneman D (2003) A perspective on judgement and choice. Mapping bounded rationality. Am Psychol 58:697–720CrossRefGoogle Scholar
  15. Kahneman D (2011) Schnelles Denken, Langsames Denken. Siedler, MünchenGoogle Scholar
  16. Kahneman D, Tversky A (1979) Prospect theory: an analysis of decision under risk. Econometrica 47(2):263–291CrossRefGoogle Scholar
  17. Lieberman MD (2007) Social cognitive neuroscience: a review of core processes. Annu Rev Psychol 58:259–289CrossRefGoogle Scholar
  18. Loewenstein G, O’Donoghue T (2004) Animal spirits: affective and deliberative processes in economic behavior. https://ssrn.com/abstract=539843 or http://dx.doi.org/10.2139/ssrn.539843
  19. Loewenstein G, Rick S, Cohen JD (2008) Neuroeconomics. Annu Rev Psychol 59:647–672CrossRefGoogle Scholar
  20. McClelland DC, Koestner R, Weinberger J (1989) How do self-attributed and implicit motives differ? Psychol Rev 96:690–702CrossRefGoogle Scholar
  21. Metz-Göckel H (2010) Dual-Process-Theorien. Gestalt Theory 32(4):323–341Google Scholar
  22. Milgram S (1974) Obedience to authority. Harper & Row, New YorkGoogle Scholar
  23. Pöppel E (2008) Zum Entscheiden geboren. Hirnforschung für Manager. Hanser, MünchenCrossRefGoogle Scholar
  24. Pronin E (2009) The introspection illusion. Adv Exp Soc Psychol 41:1–67CrossRefGoogle Scholar
  25. Sanfey AG, Rilling JK, Aronson JA, Nystrom LE, Cohen JD (2003) The neural basis of economic decision-making in the ultimatum game. Science 300(5626):1755–1758CrossRefGoogle Scholar
  26. Simon HA (1959) Theories of decision-making in economics and behavioral science. Am Econ Rev 49(3):253–283Google Scholar
  27. Sloman SA (1996) The empirical case for two systems of reasoning. Psychol Bull 119:3–22CrossRefGoogle Scholar
  28. Smith V (2008) Rationality in economics. Cambridge University Press, New YorkGoogle Scholar
  29. Stroop JR (1935) Studies of interference in serial verbal reactions. J Exp Psychol 18(6):643–662CrossRefGoogle Scholar
  30. Sunstein CR (2005) Precautions against what? The availability heuristic and cross-cultural risk perception. Ala L Rev 57:75Google Scholar
  31. Valéry P (1937) Notre Destin et les lettres (Bd. II [1960]). Gallimard, ParisGoogle Scholar
  32. Wong S (1973) The “F-twist” and the methodology of Paul Samuelson. Am Econ Rev 63(3):312–325Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018

Authors and Affiliations

  1. 1.elaboratum GmbHMünchenDeutschland

Personalised recommendations