In den Kapiteln 3 und 4 haben wir die Verhaltensökonomie und die kognitiven Neurowissenschaften einzeln betrachtet. In diesem Kapitel werden wir nun sehen, wie die beiden Wissenschaften in der Neuroökonomie zusammenarbeiten. Welchen Beitrag bringen die Verhaltensökonomen ein, welchen die kognitiven Neurowissenschaftler? Wie arbeiten sie zusammen, wie profitieren sie gegenseitig? Diese Fragen werden wir, wieder getrennt nach den Ursprungswissenschaften, in den folgenden beiden Unterkapiteln betrachten. Wir werden sehen, dass die kognitiven Neurowissenschaften aus der ökonomischen Erfahrung mit behavioralen Experimenten lernen können. Gleichzeitig sollten Verhaltensökonomen Erkenntnisse aus neurowissenschaftlichen Studien nicht als wenig hilfreich verwerfen. Durch den Einsatz moderner Messtechniken können Erkenntnisse entstehen, die in der Ökonomie Forschungsfragen inspirieren und lange Umwege über mehrere behaviorale Experimente verkürzen können.

In Abschnitt 5.1 geht es um die Frage, welche Ideen, Modelle und Arbeitsweisen aus der Verhaltensökonomie in der Neuroökonomie Verwendung finden. Wir werden am Beispiel des Balloon Analog Risk Task (BART) sehen, wie psychologische Experimente zur Risikobereitschaft von Individuen in kognitiv neurowissenschaftliche übertragen werden und welche Nachteile das haben kann. Dem gegenüber stellen wir ein Experiment aus der Verhaltensökonomie über faires Verhalten von Individuen, das ein sehr gutes Beispiel dafür ist, wie schwer definierbare Präferenzen mit klaren Benchmarks operationalisiert werden können. Darin liegt der Beitrag der Verhaltensökonomie zur Neuroökonomie begründet.

Abschnitt 5.2 zeigt dann auf, wie die Arbeit der kognitiven Neurowissenschaftler Erkenntnisse für die Neuroökonomie liefert. Hierfür betrachten wir ein beispielhaftes Experiment von Zaki und Mitchell (Zaki et al. 2010) aus der neurowissenschaftlichen Seite der Neuroökonomie, anhand dessen wir nicht nur sehen werden, wie neurowissenschaftliche Experimente mit fMRT-Scannern geplant, durchgeführt und analysiert werden. Es ist auch ein gutes Beispiel dafür, wie neurowissenschaftliche Erkenntnisse die Verhaltensökonomie bereichern könnte. Zum besseren Verständnis der Arbeit von Zaki und Mitchell und als Grundlage für die Betrachtung von Kritiken in Kapitel 6 werden wir an dieser Stelle auch generell über die Prozesse, Standards und Regularien sprechen, die nötig sind, um fMRT-Experimente erfolgreich durchzuführen.

Das Abschnitt 5.3 fügt die Informationen zusammen. Wie nutzen die Verhaltensökonomie beziehungsweise die kognitiven Neurowissenschaften die Vorteile der jeweils anderen? Wie sieht nun konkret die Zusammenarbeit aus, wie sind sich Neurowissenschaften und Verhaltensökonomie konkret gegenseitig von Nutzen? Die Bilanz kann, wie wir sehen werden, je nach Blickwinkel anders ausfallen.

5.1 Der Beitrag der Verhaltensökonomie zur Neuroökonomie

In Kapitel 3 haben wir uns mit der Entwicklung der Verhaltensökonomie im 20. Jahrhundert beschäftigt. Wir haben gesehen, dass Verhaltensökonomen im Verlauf der vergangenen mehr als fünfzig Jahre Erfahrungen mit Laborexperimenten zu ökonomischen Fragestellungen gesammelt haben. Sie haben begonnen, Experimente in ihren Arbeitsalltag zu integrieren und sie als nützliche Datenquelle zu verwenden. Ihre Fähigkeiten im Umgang mit Experimenten sind dabei stetig gewachsen. Experimentaufbauten, die Komplexität der Aufgabenstellung und die Breite der erforschten Fragen haben sich seit Smiths und Seltens ersten Versuchen ebenso stark verändert wie die Aufbereitung und Analyse der generierten Daten. Betrachtet man Smiths und vor allem Seltens erste Experimente, so fällt deren Komplexität auf. Beispielsweise in dem oben beschriebenen Experiment von Selten sehen sich die Probanden zeitlich ausgedehnten Experimenten gegenüber, für die hohe Konzentration erforderlich ist, denn auch die Aufgabenstellungen sind vielfältig. Nebenbei wird nicht nur ein Protokoll der Entscheidungen und Diskussionen erwartet, sondern auch die eigenständige Skizzierung verschiedener Kosten- und Preis-Absatz-Kurven.

In dem Experiment wird nicht unbedingt eine einzige Hypothese getestet, sondern eher eine spannende Marktsituation erzeugt, in der das Verhalten der Probanden beobachtet wird, um eventuelle Verhaltensmuster zu erkennen, für die dann eine Erklärung gesucht wird. Diese Art des Experimentierens ist vermutlich auch darauf zurückzuführen, dass die experimentelle Ökonomie noch nicht etabliert war und noch wenig Erfahrungen darüber gemacht worden waren, welche Komplexität an Aufgaben für welchen Zweck angemessen sei, oder grundsätzlich welche Vielzahl an Möglichkeiten sich mit der Durchführung von Experimenten eröffneten. (Abbink et al. 2010, 53).

Heute ist diese Art zu experimentieren etwas aus der Mode gekommen und wurde von Experimenten abgelöst, die darauf abzielen, bestimmte, vorher präzise gestellte Forschungsfragen zu beantworten. Die Experimente werden dann so gestaltet, dass sie genau diese Forschungsfragen adressieren. Dabei ist es eher zweitrangig, ob die Experimentsituation besonders spannend ist, oder genau der Realität entspricht. (Abbink et al. 2010, 54).

Auch die Art der Protokollierung, der Datenaufbereitung, -analyse und -archivierung hat sich durch den Einzug von Computern und entsprechender Software in die Labore der Ökonomen stark verändert. Heute sind die Probanden nicht mehr über Telefone vernetzt, sondern über die vor ihnen stehenden Computer und auch Diagramme zur Datenveranschaulichung werden nicht mehr mit dem Lineal auf Millimeterpapier gezeichnet.

Die Verhaltensökonomen haben Erfahrungen gesammelt und ihre Experimente weiterentwickelt. Unzählige Lehrbücher weisen den Weg zum passenden Experiment für unterschiedliche Zwecke. Die Verhaltensökonomen haben viel Licht in den dunklen Raum der sie umgebenden Möglichkeiten gebracht. Gleichzeitig haben sie die Spieltheorie als hilfreichen Bestandteil der Experimentanalyse gefestigt.

Die Verhaltensökonomen verfügen heute also über jahrelange Erfahrung im Umgang mit klar definierten und adäquat konstruierten Experimenten und deren Analyse. Dieses Wissen macht sich die Neuroökonomie zunutze. Innerhalb der Neurowissenschaften sind die kognitiven Neurowissenschaften ein noch relativ junges Feld. Ihre experimentellen Anforderungen weichen zum Teil stark von denen anderer neurowissenschaftlicher Felder ab. Die Untersuchung einzelner Neuronen im Bein einer Heuschrecke ist reichlich verschieden von der Untersuchung mehrerer Zellen beziehungsweise des gesamten menschlichen Gehirns. Daher standen die kognitiven Neurowissenschaftler vor ungefähr fünfzehn Jahren vor einem Problem: Sie wollten Experimente durchführen, aber ihnen fehlten Erfahrung und Geräte. Die Ausstattung mit Messinstrumenten ist in den vergangenen Jahren stark gestiegen, die Qualität von Elektroenzephalografen bis fMRT-Scannern hat sich stark verbessert, ebenso ihre Verfügbarkeit. Besonders Elektroenzephalografie erfreut sich aufgrund geringer Kosten und relativ einfacher Anwendung einiger Beliebtheit.

Was den Aufbau, die Durchführung und Analyse von Experimenten angeht, wandten sich die kognitiven Neurowissenschaftler den Psychologen zu. Deren Erfahrung mit Experimenten über menschliches Verhalten war ihnen hilfreich beim Aufbau eigener Experimente. Zudem besaßen die Psychologen bereits Modelle zur Beschreibung dessen, was sich im Kopf eines Menschen abspielt, wenn er eine Entscheidung trifft und hatten auch passende Experimente und Analysetechniken entwickelt. Diese wurden von den frühen kognitiven Neurowissenschaftlern gern in eigenen Experimenten implementiert. Dieses Übernehmen von Ideen und Vorgehensweisen hatte für die Neurowissenschaftler Vorzüge, brachte aber auch die Schwächen psychologischer Experimentaufbauten mit. Da dies wichtig ist, um den Beitrag der Verhaltensökonomie zur Neuroökonomie zu verstehen, betrachten wir dazu ein Beispiel aus der Psychologie, das einerseits anschaulich aufzeigt, wie psychologische Experimentparadigmen in neurowissenschaftliche fMRT-Experimente umgestaltet werden können. Andererseits zeigt es auch die Nachteile, die auftreten, wenn sich kognitive Neurowissenschaftler ausschließlich auf Konzepte aus der Psychologie verlassen. Unser Beispiel dafür ist der Balloon Analog Risk Task (BART), ein Experiment zur Untersuchung des Risikoverhaltens von Individuen. Es wurde von einem Team um den klinischen Psychologen Carl Lejuez (Lejuez et al. 2002) entwickelt und 2002 veröffentlicht als ein Werkzeug zur Untersuchung von Risikobereitschaft (Risk Taking). Das Experiment ging der Frage nach, wie sich Individuen bei Entscheidungen unter Risiko verhalten. Im Jahr 2008 nutzten der Neurowissenschaftler Hengyi Rao (Rao et al. 2008) und sein Team den BART als eine der Ersten für ein fMRT-Experiment. Im BART sitzen die Probanden vor einem Bildschirm, der einen Ballon zeigt. Zu Beginn des Experiments ist er nicht aufgeblasen. Die Probanden können nun zwischen zwei Handlungen wählen: Sie drücken den rechten Knopf, der den Ballon ein Stück weit aufpumpt. Dadurch erhalten sie einen Geldbetrag auf einem virtuellen Konto gutgeschrieben. Mit jedem weiteren Aufpumpen erhöht sich der Kontostand, aber auch das Risiko, dass der Ballon platzt. Platzt der Ballon, ist der bei diesem Ballon gewonnene Betrag verloren und wird vom Konto des Probanden wieder abgezogenFootnote 1. Nach jedem Mal Aufpumpen gibt es eine kurze Sperre von 1,5–2,5 Sekunden (vom Computer zufällig bestimmt), in der ein kleines rotes Licht am Bildschirmrand leuchtet. Nach dieser Zeit leuchtet das Licht wieder grün und die Probanden können entscheiden, ob sie mit einem Druck des rechten Knopfes den Ballon weiter aufpumpen oder mit einem Druck auf den linken Knopf die Runde beenden möchten. In diesem Fall erscheint der Schriftzug „You Win!“ auf dem Bildschirm und der bisher gesammelte Geldbetrag bleibt dem Probanden erhalten. Mit jedem weiteren Aufpumpen des Ballons erhalten die Probanden mehr Geld. Das Risiko, dass der Ballon beim nächsten Druck auf den rechten Knopf platzt, erhöht sich dabei auch stetig. Dieser Anstieg des Risikos war den Probanden bekannt, nicht aber, welche Wahrscheinlichkeit zu platzen bei welchem Schritt genau vorlag. An einem vom Computer bestimmten Punkt, der bei jedem Ballon verschieden ist, platzt der Ballon. In diesem Fall erscheint der Text „You Lose!“ und der mit diesem Ballon gewonnene Geldbetrag wird vom Konto des Probanden abgezogen. Jeder Ballon kann maximal zwölf Mal aufgepumpt werden, dann ist der maximale Geldbetrag erreicht – sofern der Ballon nicht vorher zerplatzt ist. Die Versuchszeit wurde von Rao et al. (Rao et al. 2008, 905) auf acht Minuten festgelegt. Die Anzahl der Ballons, die die Probanden in diesem Zeitraum zu bearbeiten hatten, war dagegen nicht begrenzt, sondern ermaß sich an der Geschwindigkeit, mit der die Probanden ihre Entscheidungen trafen. Wer schneller den rechten oder linken Knopf drückte, konnte mehr Ballons in den acht Versuchsminuten unterbringen. Im FMRT-Scanner liegend konnten die Probanden über einen Spiegel das Geschehen auf dem Bildschirm betrachten, der hinter der magnetischen Röhre angebracht war. Für ihre Entscheidungen bekamen die Probanden eine Box mit zwei Knöpfen darauf in den Händen, die sie mit dem linken beziehungsweise dem rechten Daumen betätigen konnten.

Um vergleichen zu können, ließen Rao et al. ihre Probanden nach dem ersten, beschriebenen Durchgang einen zweiten, leicht modifizierten Durchgang von ebenfalls acht Minuten durchlaufen, um ein passives Eingehen von Risiken ohne eigene aktive Entscheidung zu simulieren. In diesem zweiten Versuchsdurchlauf waren keine Wahlmöglichkeiten für die Probanden gegeben, sie sollten die Luftballons einfach immer weiter aufpumpen. Der Computer entschied in diesem Durchlauf darüber, ob der Ballon platzte und der Gewinn verloren war, oder ob er seine endgültige Größe erreichen und der Proband seinen Gewinn erhalten würde. Die Probanden hatten hier also keinerlei Wahlmöglichkeiten, sie konnten nicht aussteigen und den bisherigen Gewinn behalten.

Ein kurzes Wort zu den Ergebnissen: Rao et al. (Rao et al. 2008, 907) beobachteten, dass das Verhalten der Probanden in beiden Versuchsdurchläufen, dem aktiven und dem passiven, ähnlich war. Im aktiven Durchlauf bearbeiteten sie 20.1 Ballons, im passiven 22.1, wobei sie jeden Ballon 7,6 beziehungsweise 7,5 Mal aufpumpten. Es fand sich keine signifikante Verbindung zwischen der Art des Versuchsdurchlaufs (aktiv mit Wahl oder passiv ohne Wahl) und Ergebniswert. Es fanden sich keine signifikanten Unterschiede in der Reaktionszeit zwischen den beiden Versuchsdurchläufen. Die Ergebnisse über die Gehirnaktivitäten aus dem fMRT-Scanner waren etwas aufschlussreicher für die Forscher, da sie die von ihnen im Vorfeld vermuteten Gehirnregionen aktiviert sahen, auch wenn die Unterschiede erst unter Nutzung eines geringeren Schwellenwertes für signifikante Neuronenaktivität ersichtlich wurden als zuvor angedacht.

Der Balloon Analog Risk Task ist ein interessantes Experiment, das dazu konstruiert wurde, die Risikobereitschaft von Menschen zu untersuchen. Allerdings birgt das Experiment auch Nachteile. Vor allem stellt sich bei der Analyse der Daten die Frage, wie sie zu interpretieren sind. Welche Werte kennzeichnen beispielsweise einen besonders risikofreudigen Probanden oder einen besonders risikoaversen? Wie oft Aufpumpen pro Ballon spricht für eine risiko-freudige Testperson, wie oft für eine risiko-averse? Wann haben die Probanden richtig gehandelt und welche Werte sind abnorm? Der Balloon Task scheint hier etwas willkürlich zu sein, was für psychologische Modelle nicht ungewöhnlich sein muss, da sie nicht selten auf Konstruktbasis angelegt sind. „Konstrukte können nicht beobachtet, sondern müssen aus Beobachtung erschlossen werden.“, wie Meindl (Meindl 2011, 5) auf den Punkt bringt. Das ist ein systematischer Nachteil, der nicht so einfach aus der Welt zu schaffen ist und sich auch auf die Auswertung kognitiver neurowissenschaftlicher Experimente auswirkt. Betrachten wir im Gegensatz dazu nun ein Beispiel, wie Verhaltensökonomen schwer zu definierende Präferenzen von Individuen operationalisieren.

Im Vergleich mit den gerade betrachteten psychologischen Modellen sehen Ökonomen ihre Modelle im Vorteil: Mit ihren Konzepten von Nutzen und revealed Preferences haben sie ein Modell an der Hand, das grundsätzlich auf jede Situation anwendbar ist. Im Gegensatz zu vielen psychologischen Experimenten bieten ökonomische Experimente klar strukturierte Situationen mit gewissen Wahrscheinlichkeiten. Es ist klar, was bekannt ist und was nicht, was richtig ist und was nicht. Es ist über den Versuchsaufbau bereits klar definiert, welches Verhalten welche Schlussfolgerungen zulässt. Die klare Interpretierbarkeit zeigt sich beispielsweise anschaulich an Experimenten, die Fairness (soziale Präferenzen) untersuchen, wie zum Beispiel Gift-Exchange-Experimente. Das Gift-Exchange-Spiel ist eine Form von sequenziellem Gefangenendilemma und zeichnet sich dadurch aus, dass die Probanden die Möglichkeit haben, Geld auszugeben, um einer anderen Person zu helfen, in der Hoffnung, dass diese Person ebenfalls Kosten auf sich nehmen wird, um die Hilfe zurückzugeben. Hier geht es also um Kooperation und welche Kosten die Probanden dafür bereit sind, auf sich zu nehmen. Eine Schwierigkeit bei einem solchen Experiment ist die Beurteilung der Nettigkeit oder Fairness der Probanden. Fairness ist ein schwer zu definierender Begriff. Wann verhält sich eine Person fair, wann unfair? Es scheint schwierig, einen Begriff wie diesen für ein Experimentparadigma zu operationalisieren. Hier zeigen verhaltensökonomische Modelle ihre Stärke, und deshalb ist das Gift-Exchange-Spiel auch so ein gutes Beispiel: Anders als bei der Bewertung der Risikoneigung im Ballonexperiment, ist im Gift-Exchange-Spiel klar, dass diejenigen Probanden Fairness in ihr Handeln einbeziehen, die Kosten für sich selbst aufnehmen, die nicht unbedingt notwendig sind für die ökonomische Transaktion im Spiel. Auch über den Grad der Berücksichtigung von Fairness-Überlegungen lässt sich etwas aussagen. Betrachten wir zur besseren Veranschaulichung das erste veröffentlichte Gift-Exchange-Spiel, das von Ernst Fehr und seinem Team stammt (Fehr et al. 1993):

Die Experimentatoren wollten Verhalten auf dem Arbeitsmarkt untersuchen, hatten jedoch Bedenken, dass die sozialen Präferenzen der Probanden eine größere Rolle spielen könnten, wenn sie über dieses Ziel der Studie informiert würden, da das Experimentatorenteam soziale Interaktion zwischen Unternehmer und Mitarbeitern als intensiver einschätzten als die zwischen Käufern und Verkäufern auf einem Gütermarkt. Sie maskierten also für die Probanden die Instruktionen als Instruktionen für einen Markt, auf dem ein bestimmtes Konsumgut gehandelt wird. Die Probanden wurden per Los aufgeteilt in Käufer (Arbeitgeber) und Verkäufer (Arbeitnehmer) dieses Guts.Footnote 2 Dabei wurden mehr Arbeitnehmer als Arbeitgeber ausgelost, um eine Konkurrenzsituation unter den Arbeitern zu schaffen. Das Experiment bestand aus zwei Phasen. In Phase 1, die auf 3 Minuten begrenzt war, machten die Arbeitgeber Lohnangebote an die Arbeitnehmer. Diese konnten die Angebote annehmen. Wurde ein Angebot akzeptiert, kam sogleich ein Vertragsverhältnis zwischen Arbeitgeber und Arbeiter zustande, das beide vom Markt nahm und für sie Phase 2 des Experimentes eröffnete. In dieser Phase legten nun die Arbeiter den Grad an Anstrengung oder Mühe fest, mit dem sie ihre Arbeit ausführen würden. Diese Antwort wurde nur dem jeweiligen Arbeitgeber offenbart, die übrigen Versuchsteilnehmer erfuhren diese Antworten nicht. Um die gegenseitige Anonymität während des Versuchs zu sichern, saßen die Arbeitgeber und Arbeitnehmer getrennt voneinander in unterschiedlichen Räumen. Die Kommunikation zwischen den beiden Gruppen verlief über zwei Experimentatoren, die je in einem Raum saßen und über Telefon verbunden waren. Sie gaben ausgesprochene Angebote aus dem Arbeitgeberraum an den Arbeitnehmerraum weiter, wo sie öffentlich ausgerufen wurden. Akzeptierte Angebote wurden ebenso zurückübermittelt.

Ein Ziel des Experiments war es, den Einfluss von Fairness auf die Marktpreise zu untersuchen. Um die Versuchsdaten später dahingehend interpretieren zu können, muss klar sein, was Fairness bedeutet, wann ein Proband fair gehandelt hat und wann nicht. Fehr und sein Team bauten ihren Versuch daher so auf, dass Fairnessparameter eindeutig zu erkennen sind (Fehr et al. 1993, 441–442):

„Although it is difficult to give an exact definition of fairness, the term necessarily involves some comparison between the gains of transactors. Therefore, if an agent is motivated by fairness considerations, his actions are based not only on his own gains, but also on the gains of other parties. Our experiment aimed at detecting whether agents exhibit intrinsic fairness preferences, and whether they base their actions on the expectation that others act fairly.“

Fairness bedeutet also, dass die Arbeitgeber und Arbeitnehmer im Experiment nicht nur ihren eigenen, sondern auch den Gewinn ihres Gegenübers im Blick haben. Dazu muss gewährleistet sein, dass sich die Probanden im Klaren darüber sind, wann sie mehr Geld ausgeben, als nötig ist, um die Transaktion durchführen zu können. Daher erhielten sie Informationen über ihre Kostenfunktionen. Alle Versuchsteilnehmer, egal, welcher Gruppe sie angehörten, wussten, dass es mehr Arbeiter als Arbeitgeber gab und daher ein Konkurrenzdruck unter den Arbeitern vorhanden war (wer keinen Vertrag in Phase 1 abschließen konnte, erhielt keinen Geldbetrag für diese Periode). Die Arbeitgeber waren sich also im Klaren darüber, dass die Arbeiter im Grunde jedes Angebot oberhalb des Gleichgewichtslohnes akzeptieren würden (Fehr et al. 1993, 450). Gleichzeitig waren sich die Arbeitnehmer im Klaren darüber, dass die Arbeitgeber per Experimentdesign keine Verluste erwirtschaften konnten (siehe weiter unten Erläuterungen zu (2)). Desweiteren waren allen Teilnehmern die Auszahlungsfunktionen der beiden Versuchsgruppen bekannt (Fehr et al. 1993, 441):

Die Auszahlung der Arbeiter war gegeben durch

  1. (1)

    \(u_{j} = \, p_{j} - c - m\left( {e_{j} } \right).\)

c steht für die Kosten für die Leistung von 1 Einheit Arbeit durch Arbeiter j und war in den Versuchen für alle Arbeiter auf 26 festgelegt. pj gibt den Lohn, den der Arbeiter vom Arbeitgeber erhält und ej die angewandte Mühe des Arbeiters. m(ej) übersetzt diesen Wert in monetäre Kosten, die dem Arbeiter durch das Aufwenden von Mühe entstehen. Diese Kosten steigen stetig und sind auf einer Tabelle festgehalten, die den Versuchsteilnehmern ausgeteilt wurde. Zusätzlich gilt: m(emin) = 0. Die Auszahlung eines Arbeiters hängt also nicht nur von der Höhe des Lohnes ab, den er in Phase 1 akzeptiert hat, sondern auch von der Höhe der Mühe, mit der er seine Arbeit verrichtet. Grundsätzlich muss er nicht mehr als emin für seine Arbeit aufwenden, was seine Auszahlung am größten halten würde. Allerdings hat der Grad seiner Mühe auch Auswirkungen auf die Auszahlung des Arbeitgebers i:

  1. (2)

    \(\Pi_{i} = \left( {v - p_{i} } \right)e_{i}.\)

Das Einkommen des Arbeitgebers wird durch vei bestimmt. Eine Einheit an Mühe, die der Arbeiter aufwendet, produziert eine Anzahl von v Einheiten eines Produkts, das für einen Preis von 1 verkauft wird. Die Annahme, dass die Lohnkosten pi ebenfalls von der Mühe des Arbeiters abhängen, soll verhindern, dass der Arbeitgeber Verluste erwirtschaften kann. Die Anzahl produzierbarer Einheiten wurde auf v = 126 festgelegt.

Die Arbeitgeber haben durch den unter den Arbeitnehmern herrschenden Konkurrenzdruck keine Notwendigkeit, mehr als den Gleichgewichtslohn zu zahlen, denn die Arbeiter sind an einem Vertragsabschluss sehr interessiert und müssen auf eingehende Angebote blitzschnell reagieren, da sie ansonsten leer ausgehen. Sogar Angebote unterhalb des durchschnittlichen Niveaus wurden durchweg akzeptiert.Footnote 3 Gleichzeitig haben die Arbeiter, die ihren Lohn bereits in Phase 1 erhalten haben, keine Notwendigkeit, in Phase 2 eine höhere Mühe als emin einzusetzen. Diese Verhaltensweisen würden einem rationalen Vorgehen entsprechen, vor allem da die Arbeitgeber und Arbeitnehmer gegenseitig anonym bleiben. Die Arbeiter müssen also nicht befürchten, aufgrund minimaler Leistung in dieser Runde, in späteren Runden niedrigere Angebote zu erhalten. Die Arbeitgeber können aber mehr Lohn anbieten, um die Motivation der Arbeitnehmer zu erhöhen. Diese revanchieren sich dann mit mehr Mühe, die auch die Auszahlung des Arbeitgebers erhöht. Die Arbeitgeber können also fair handeln (mehr Lohn bezahlen als der Gleichgewichtslohn) in der Hoffnung, dass auch der Geschäftspartner ihnen gegenüber fair handelt (mehr Mühe aufwenden als emin). Im Experiment von Fehr und seinem Team handeln die Teilnehmer auch beinahe ausnahmslos so. Die Arbeitnehmer wählten alle möglichen Level von Mühe, von 0 bis 1, wobei der Minimalwert in 44 von 276 Fällen gewählt wurde, der Maximalwert in 6 Fällen. Damit war der durchschnittlich gewählte Wert von 0,4 viermal so hoch wie von der Standardtheorie angenommen worden wäre. Fehr und seine Kollegen beobachteten, dass sowohl Durchschnitt als auch Median der von den Arbeitnehmern gewählten Mühe mit dem Gehalt anstieg. Die Arbeitgeber zahlten im Durchschnitt mehr als den Gleichgewichtslohn, es wurde auch keine Konvergenz des Durchschnittslohns zum von der Standardtheorie vorhergesagten Gleichgewichtslohn beobachtet.

Wichtig ist bei der Analyse aber vor allem, dass es in diesem Experiment ein klares Kriterium dafür gibt, was Nettigkeit oder Fairness bedeutet und wann ein Versuchsteilnehmer fair gehandelt hat. Bietet ein Arbeitgeber mehr Lohn als der Gleichgewichtslohn, beziehungsweise bringt ein Arbeitnehmer mehr Mühe auf als emin, dann war das faires Handeln, ein klares Ja-/Nein-Kriterium. Zudem lässt sich an der genauen Höhe des Lohnangebots, beziehungsweise der eingesetzten Mühe, ein gradueller Unterschied in der Fairness ausmachen.

Ein solcher Aufbau findet sich nicht nur im Gift-Exchange-Experiment, sondern ist charakteristisch für die meisten ökonomischen Experimente. Dadurch bringt ein ökonomisches Experiment leichter klare Vergleichskriterien hervor als ein Experiment wie der Balloon Analogue Risk Task, was nur von Vorteil sein kann, wenn man das Verhalten verschiedener Menschen in verschiedenen Situationen untersucht. Zudem sind die ökonomischen Strategien, einen Versuch aufzubauen, auf sehr viele Situationen anwendbar.

Natürlich können kognitive Neurowissenschaftler ihre Forschungsarbeit ohne Anleihen aus dem ökonomischen Labor durchführen. Natürlich können sie Modelle selbst erstellen oder sie in anderen Wissenschaften suchen. Allerdings verzichten sie in diesem Fall auf die Vorteile, die ökonomische Modelle mit sich bringen würden. Genau das ist der Beitrag, den Ökonomen zur Neuroökonomie beitragen. Sie bringen die inzwischen Jahrzehnte lange Erfahrung ihres Fachgebietes im Bereich der Entscheidungstheorie mit, ebenso wie ihre Erfahrung, daraus aussagekräftige Experimente aufzubauen und auszuwerten.

Im folgenden Abschnitt 5.2 werden wir sehen, wie die Anwendung verhaltensökonomischer Modelle im neurowissenschaftlichen Experiment aussehen kann und welche Möglichkeiten sich dadurch eröffnen.

5.2 Der Beitrag der kognitiven Neurowissenschaften zur Neuroökonomie

Der Beitrag der kognitiven Neurowissenschaften zur Neuroökonomie besteht zu einem großen Teil aus der empirischen Generierung von Daten. In unzähligen verschiedenen Studien untersuchen kognitive Neurowissenschaftler unterschiedliche Fragestellungen. Die dabei am häufigsten eingesetzten empirischen Methoden haben wir bereits in Abschnitt 4.3 kennengelernt. In den Studien geht es darum, Aktivitätsmuster einzelner Neuronen, einzelner Hirnregionen oder des gesamten Gehirns zu erfassen und mit einem bestimmten Verhalten in Verbindung zu bringen. Viele gesammelte Daten sollen dann Rückschlüsse darauf zulassen, wie das Gehirn in welcher Situation arbeitet. Klassische Experimente aus den kognitiven Neurowissenschaften sehen beispielsweise Erinnerungsaufgaben für die Probanden vor, während derer ihre Gehirnaktivitäten mit unterschiedlichen Hilfsmitteln erfasst und aufgezeichnet werden. Aus vielen solcher Daten kann dann ein Modell der Arbeit des Gedächtnisses entstehen. In der neuroökonomischen Forschung läuft der Erkenntnisgewinn ähnlich, hier findet aber der in Abschnitt 5.1 besprochene Beitrag der Verhaltensökonomie Anwendung: Der Aufbau der Studien und der grundsätzliche Ablauf der Experimente ist gleich oder sehr ähnlich wie bei klassisch kognitiv neurowissenschaftlichen Studien, es werden aber verhaltensökonomische Fragestellungen und Methoden zur Analyse der verhaltensbezogenen Daten zugrunde gelegt. Beispielsweise spielen Versuchspersonen in einer bildgebenden Röhre oder unter einer EEG-Kappe ökonomische Spiele. Das kann in Gruppen geschehen oder einzeln, je nach Versuchsaufbau. Allerdings ist es keine triviale Aufgabe, ein ökonomisches Spiel wie das Vertrauensspiel (Trust Game) in ein im Scanner spielbares und am Ende analysierbares Verfahren umzuwandeln. Die Vorbereitungen für Studien können Monate dauern.

Um den Beitrag der kognitiven Neurowissenschaften zur Neuroökonomie anschaulich zu machen und besser zu verstehen, werden wir in diesem Kapitel den grundlegenden Ablauf neuroökonomischer Studien generell betrachten. Wie wir sehen werden, gibt es bei der Planung, Durchführung und Analyse neurowissenschaftlicher Studien zahlreiche Einflussgrößen zu beachten. Da sich Studien und Abläufe je nach Zielsetzung und Hilfsmittel unterscheiden können, an dieser Stelle aber leider nicht der Platz für eine vollständige Darstellung aller in Frage kommenden empirischen Methoden ist, nehmen wir Studien mit funktioneller Magnetresonanztomographie (fMRT) als Beispiel. Mit der Entwicklung der bildgebenden Verfahren Ender der 90er Jahre eröffnete sich den Neurowissenschaftlern eine ganze Fülle neuer Möglichkeiten zur Erforschung menschlicher Gehirnaktivitäten. FMRTs sind seither zu einem beliebten Instrument für neurowissenschaftliche und neuroökonomische Untersuchungen geworden, weshalb wir mit der Betrachtung von fMRT-Studien einen guten Einblick in die tägliche Arbeit der kognitiven Neurowissenschaftler erhalten. In diesem Kapitel werden wir anhand eines Beispielexperiments von Zaki und Mitchell (Zaki et al. 2010) sehen, wie neuroökonomische Studien mit bildgebenden Verfahren aussehen können. Wir werden die verschiedenen Stufen von Studien betrachten, von der Planung über die Durchführung bis zur Analyse der gesammelten Daten. Um die Aktionen Zakis und Mitchells in unserem Beispielexperiment besser einordnen zu können, werden wir uns nicht nur auf ihre Entscheidungen in dieser konkreten Studie konzentrieren, sondern auch generelle Ideen, Regelungen und Empfehlungen aus den Neurowissenschaften hinzuziehen. Das wird dabei helfen, zu verstehen, wie neurowissenschaftliche Studien aufgebaut sind und mit welchen Schwierigkeiten Neurowissenschaftler bei ihrer Arbeit umgehen müssen, was wiederum dabei hilft, den Beitrag der kognitiven Neurowissenschaften zur Neuroökonomie zu verstehen. Zudem bereitet dieses Wissen den Grund für die Betrachtung einiger Kritiken in Kapitel 6.

Wie auch bei ökonomischen oder anderen Studien müssen bei der Planung von fMRT-Studien einige Dinge bedacht werden, bevor das tatsächliche Experiment durchgeführt werden kann. Allerdings ist die Nutzungszeit für fMRT-Geräte relativ teuer, sodass nicht nur ganze Studien sondern auch einzelne Scanner-Durchgänge nicht ohne Weiteres wiederholt werden können. Gerade wegen der hohen Kosten ist nicht jeder neurowissenschaftliche Fachbereich mit einem fMRT-Gerät ausgestattet. Wie bereits in Abschnitt 4.3 erwähnt, nutzen Neurowissenschaftler daher oft Geräte einer nahegelegenen Klinik oder einer anderen neurowissenschaftlichen Forschungseinrichtung, die über einen Scanner verfügt. In beiden Fällen müssen Scannerstunden gemietet werden. Vor allem Krankenhäuser benötigen ihre Geräte tagsüber meist selbst, sodass Experimente nicht selten nachts durchgeführt werden. Eine Gerätestunde kann dabei zwischen $100 und $1000 kosten, das richtet sich nach der Höhe der Operationskosten, die die Klinik oder die Forschungseinrichtung für ihren Scanner ansetzen (Carter et al. 2010, 25). Studien sollten also schon allein aus finanzieller Sicht sorgfältig geplant und durchgeführt werden.

Gewöhnlich beginnt die Planung mit der Formulierung einer geeigneten Forschungshypothese. Auch in den kognitiven Neurowissenschaften wird der Effekt einer unabhängigen Variable auf eine abhängige Variable untersucht. Bei fMRT-Experimenten kann die unabhängige Variable ein Stimulus sein, eine Aufgabe oder auch ein Unterschied zwischen den verschiedenen Probanden (beispielsweise Alter oder Krankheitsbild). Die abhängige Variable ist bei fMRT-Experimenten die Intensität des BOLD-Signals für einen bestimmten Teil des Gehirns. Ziel eines fMRT-Experiments ist es also, eine unabhängige Variable auf Signalintensität zu testen. Carter et al. (Carter et al. 2010, 26) geben Beispiele für typische Schemata von Hypothesenformulierungen: „For a given stimulus or task, activity in brain region X precedes activity in brain region Y.“, oder „Activity in brain region X is higher under condition Y than condition Z.“ Die Autoren geben zu bedenken, dass sich in diesen Beispielhypothesen die Experimentatoren bereits auf bestimmte Hirnregionen konzentrieren. Das setzt natürlich voraus, dass eine gewisse Vermutung darüber besteht, welche Hirnregionen für diesen bestimmten Aufbau relevant sind. Bildgebende Verfahren können auch dazu genutzt werden, das gesamte Gehirn zu analysieren, um so erst relevante Hirnregionen zu identifizieren. Allerdings produzieren fMRT-Studien relativ große Datenmengen, sodass eine Analyse des gesamten Gehirns langwierig sein kann. Daher ist es von Vorteil, wenn die Experimentatoren von vornherein eine Idee haben, welche Hirnregionen sich zu analysieren lohnen.

Ist die Forschungshypothese formuliert, gilt es, ein geeignetes experimentelles Paradigma (Task Paradigm) zu finden. Mit experimentellen Paradigmen bezeichnen kognitive Neurowissenschaftler die Strategien, nach denen den Probanden im Experiment die Stimuli präsentiert werden (Carter et al. 2010, 26). Ein gutes experimentelles Paradigma zu finden, ist nicht leicht. Dazu muss das zu untersuchende (motorische, sensorische, kognitive etc.) Phänomen in Versuchsbedingungen übersetzt werden. Gute Paradigmen werden daher zum Teil jahrelang von anderen Wissenschaftlern aufgegriffen und mit Variationen immer wieder verwendet. Neurowissenschaftler greifen deshalb oft auf Paradigmen aus vielen Jahren kognitiv-psychologischer Forschung zurück. Allerdings ist es auch hier nicht einfach, sie an die Erfordernisse von fMRT-Studien anzupassen. In der neuroökonomischen Forschung werden gewöhnlich Paradigmen aus der Verhaltensökonomie eingesetzt (siehe Abschnitt 5.1). (Sommer 2010, 243–245). Auch sie werden gemeinsam mit Verhaltensökonomen im Experimentteam in einen praktikablen Versuchsablauf übersetzt. Dabei muss eine ganze Reihe möglicher Fallstricke bedacht werden: Der Ablauf der Experimentaufgabe sollte für die Probanden leicht verständlich sein, sodass sie im Scanner immer wissen, wie ihre Aufgabe aussieht und was sie zu tun haben. Zudem werden Versuchspersonen im Laufe der Zeit unkonzentriert, sie werden müde, und ihre Leistungsfähigkeit lässt nach. Auch Kopfbewegungen sind ein häufiges Problem. Daher sollten Experimente nicht zu lange dauern und nötigenfalls in mehrere Sessions aufgeteilt werden, zwischen denen eine Pause eingelegt werden kann (die Versuchspersonen können sich die Beine vertreten oder zur Toilette gehen). Daneben kann auch ein interessanter Experimentaufbau mit kurzen Interstimulus-Intervallen (ISI, Leerlaufzeiten, in denen kein Stimulus präsentiert und keine Aktion der Versuchspersonen erwartet wird) helfen, die Probanden konzentriert zu halten.

Auch das sogenannte Rauschen, durch das Messungen fehlerhaft werden können, ist ein Problem, für das die Experimentatoren eine Lösung finden müssen: Natürlich sollte ein gutes Experimentdesign eine Analyse zulassen, welche Hirnaktivität zu welchen kognitiven Funktionen gehört. Das Problem ist dabei nicht nur, dass ein Experiment mehrere Funktionen im Gehirn ablaufen lässt, sondern auch, dass immer ein Rauschen auftritt, das die Signale überlagert. Das Rauschen stammt von denjenigen Hirnaktivitäten, die nicht durch die Experimentaufgabe ausgelöst werden, sondern durch andere psychische und physikalische Vorgänge, die nicht abgeschaltet werden können sowie durch Rauschen im Messprozess selbst. Die durch den Trial verursachten Signale müssen von den durch Rauschen verursachten unterschieden werden können. Das geschieht beispielsweise dadurch, dass das Experiment aus mehreren Sessions des gleichen Ablaufs besteht, sodass möglichst viele Trials BOLD-Signale liefern, deren Intensität dann gemittelt werden kann. Je mehr Daten zur Verfügung stehen, desto besser lassen sich die Schwankungen herausmitteln. (Sommer 2010 247–248).

Wurde über den Umgang mit dem Rauschen entschieden, gilt es, einen Mechanismus zu finden, um die verschiedenen Aktivierungszustände den im Experiment hervorgerufenen Funktionen zuordnen zu können. Dazu gibt es mehrere Stellschrauben bei der Erstellung der Abläufe. Die erste ist die Wahl des passenden Designs. Ganz allgemein werden faktorielle und parametrische Designs unterschieden (Sommer 2010, 250–252). Mit ihnen wird festgelegt, welche experimentellen Bedingungen miteinander verglichen werden sollen. Bei faktoriellen Designs werden die Hirnfunktionen, die man beim Probanden induzieren will, in mehrere Faktoren aufgeteilt. Diese sollen dann in verschiedenen Bedingungen des Experiments auftreten, sodass die Differenzen der Bedingungen Rückschlüsse auf die Aktivierungen durch die einzelnen Faktoren und ihre Interaktionen zulassen. Um das besser verstehen zu können, betrachten wir zur Veranschaulichung kurz ein Beispiel von Sommer, ein Experiment von Karl Friston, bei dem es um phonologischen Abruf geht. Der phonologische Abruf bezeichnet „das Finden des Namens für das bereits erkannte Objekt“ (Sommer 2010, 249). Um diesen zu untersuchen, könnte man nun eine Versuchsperson in einen fMRT-Scanner schieben, ihr ein Bild eines, sagen wir, Stuhls vorsetzen (dieses Objekt erkennt sie ganz bestimmt) und ihre Hirnaktivitäten scannen, und die Publikation ist so gut wie fertig. Allerdings geschehen bis zum phonologischen Abruf noch einige andere Prozesse im Gehirn. Der visuelle Stimulus muss aufgenommen und analysiert und das abgebildete Objekt erkannt werden. Zudem können die Experimentatoren einen tatsächlich stattgefundenen phonologischen Abruf nur dadurch überprüfen, dass die Versuchsperson das Objekt laut bezeichnet, sprachlichen Output gibt es also auch. In den Daten im Computer finden sich also nicht nur die Aktivierungen, die direkt mit dem phonologischen Abruf zusammenhängen, sondern auch die Aktivierungen darum herum. Um das Aktivierungsmuster des phonologischen Abrufs allein herauszurechnen, wird der Versuchsablauf in verschiedene Faktoren unterteilt, die dann in unterschiedlichen Konstellationen auf verschiedene Bedingungen verteilt werden. So wird in Bedingung 1 zu Beginn des Experiments der Versuchsperson ein Bild gezeigt, auf dem noch kein Objekt zu sehen ist, sondern eine Farbe. Wenn die Person das Bild sieht, soll sie „Ja“ sagen. Damit findet sich in Bedingung 1 der Faktor visuelle Analyse und der Faktor sprachlicher Output. In Bedingung 2 erscheint auf dem farbigen Bild ein Objekt, in unserem Fall ein Stuhl. Dazu soll die Versuchsperson wieder „Ja“ sagen. In dieser Bedingung kommt also zu den beiden ersten Faktoren (die liegen ja noch immer an) der Faktor Objekterkennen hinzu. In Bedingung 3 soll die Versuchsperson nun das Objekt benennen. Hier kommt zu den drei bisherigen Faktoren noch der Faktor phonologischer Abruf hinzu. Diesen findet man bisher nur in dieser einen Bedingung, was die Datenlage nicht eindeutig macht, also kommt noch eine vierte Bedingung ins Spiel. In dieser verschwindet das Objekt wieder und nur das Bild mit der Farbe vom Anfang des Experiments ist sichtbar. Nun soll die Versuchsperson die Farbe benennen. So kommen hier die Faktoren visuelle Analyse, phonologischer Abruf (arbeitet auch für Farben) und sprachlicher Output zusammen. In dieser Konstellation findet sich jeder Faktor in mindestens zwei Bedingungen in je anderen Konstellationen. So können die Bedingungen, beziehungsweise die für sie aufgezeichneten Hirnaktivitäten, voneinander abgezogen werden. Auf diese Weise erhält man die Aktivierungsmuster für einzelne Faktoren oder deckt Interaktionen zwischen ihnen auf.

Eine zweite Möglichkeit, den Ablauf eines Experiments zu strukturieren, sind parametrische Designs. Hier wird zwischen den verschiedenen Bedingungen nicht die Aufgabe verändert wie beim Experiment vom phonologischen Abruf, sodass Interaktionseffekte gar nicht erst auftreten können. Stattdessen wird zwischen den Bedingungen die Menge der Prozessierungen variiert. Das heißt, die Bearbeitung der Versuchspersonen erfolgt in unterschiedlichen Abstufungen. Zum Beispiel kann sich bei einer Aufgabe der Schwierigkeitsgrad ändern oder die Stärke der Schmerzen, die den Versuchspersonen zugefügt werden. Dieses Design setzt natürlich voraus, dass die Prozessierungen auch abstufbar sind, der phonologische Abruf wäre es beispielsweise nicht, dafür würde sich ein parametrisches Design schlecht eignen.

Eine dritte Möglichkeit, die nur kurz Erwähnung finden soll, ist die in früheren Zeiten oft verwendete Subtraktionsmethode. Sie wird heute kaum noch eingesetzt und ist ein Beispiel dafür, wie ein schlechtes Experimentdesign das Herausfiltern der aufgabeninduzierten Aktivierungen verhindern kann. Die Idee der Subtraktionsmethode stammt aus dem Jahr 1868. Sie sollte dabei helfen, die Länge eines Verarbeitungsprozesses zu messen. Dabei bearbeitet die Versuchsperson zwei Aufgaben, die sich in nur einem, genau definierten, Verarbeitungsprozess unterscheiden. Die Reaktionszeit beider Aufgaben wird gemessen, wobei die Zunahme an Zeit für die komplexere Aufgabe als die Zeit interpretiert wird, die es braucht, um den zusätzlichen Verarbeitungsprozess zu absolvieren. Diese Überlegung setzt allerdings eine serielle Verarbeitung und eine lineare Zunahme an Aktivitäten im Gehirn voraus und vernachlässigt dabei Interaktionen und Abhängigkeiten bei der Verarbeitung von Prozessen. (Sommer 2010, 232). Von solchen muss aber vor allem bei komplexeren kognitiven Prozessen ausgegangen werden, sodass die Subtraktionsmethode viel zu simple Annahmen macht, um sie in modernen fMRT-Studien einzusetzen.

Die zweite Stellschraube für die Erstellung eines geeigneten Experimentablaufs in einem fMRT ist die zeitliche Anordnung des Experiments. In welcher Reihenfolge und in welchem zeitlichen Abstand sollen den Versuchspersonen die Stimuli präsentiert werden? Bei dieser Entscheidung spielt der BOLD-Effekt wieder eine Rolle, denn die hämodynamische Antwort, also der Anstieg des Blutflusses zu den aktivierten Nervenzellen, dauert von Beginn bis zum vollständigen Abklingen circa 15 bis 20 Sekunden. Werden die Stimuli in einem kürzeren Abstand präsentiert, addieren sich die hämodynamischen Antworten der verschiedenen Stimuli. Bis zu einem Abstand von 2 Sekunden addieren sie sich linear, also berechenbar, darunter jedoch entstehen komplexe Interaktionen, die die Daten kaum analysierbar machen. Interstimulus-Intervalle von weniger als 2 Sekunden sollten also vermieden werden. Je nach Experimentdesign ist eine lineare Addition der Aktivierungen sogar gewünscht. In solchen Fällen wird ein Block-Design verwendet, bei dem die experimentellen Bedingungen einzeln in Blöcken präsentiert werden. (Sommer 2010, 252). Betrachten wir zum besseren Verständnis wieder ein kleines Beispiel: Carter et al. (Carter et al. 2010, 26–27) geben ein anschauliches Beispiel eines Experiments, bei dem zwei Stimuluskategorien miteinander verglichen werden sollen. Die Kategorie X besteht aus lächelnden Gesichtern, die Kategorie Y aus neutral blickenden Gesichtern. Im ersten Block des Experiments werden der Versuchsperson nur Bilder aus der Kategorie X präsentiert (X1, X2, X3, …). Ein typischer Block würde 10 bis 60 Sekunden dauern, wobei jeder Stimulus 1 bis 10 Sekunden lang präsentiert werden könnte. Am Ende des ersten Blockes könnte es eine kurze Pause ohne Stimuluspräsentation geben. Danach folgt der zweite Block, der nur Bilder aus Kategorie Y präsentiert (Y1, Y2, Y3, …) und zeitlich ähnlich aufgebaut ist wie der erste Block. Diese Stimulusblöcke könnten den Versuchspersonen dann abwechselnd weiter präsentiert werden, solange, bis eine ausreichende Menge an Daten generiert ist. Dieses Design wird häufig genutzt, um ein hohes Signal-Rausch-Verhältnis aus den aktivierten Hirnregionen zu bekommen. Denn durch die Addition der hämodynamischen Antworten wird das Signal in den durch die Stimuli aktivierten Hirnregionen stärker über das Rauschen herausragen, als einzelne Antworten allein. Das ist vor allem für solche Experimente von Vorteil, mit denen ermittelt werden soll, welche Hirnregionen bei einem bestimmten Stimulus aktiv werden.

Block-Designs eignen sich weniger für die Erforschung von kurzzeitig auftretenden Änderungen der Hirnaktivitäten, zum Beispiel wenn die Versuchspersonen im Scanner Entscheidungen treffen sollen. Dann ist eine Überlagerung der hämodynamischen Antworten hinderlich bei der Interpretation der Daten. Sommer (Sommer 2010, 253) erklärt, dass speziell für solche Experimente in den 90er Jahren das Event-related-Design entwickelt wurde. Da man nicht möchte, dass sich die hämodynamischen Antworten addieren, wird zwischen den Stimuluspräsentationen gewartet, bis die vorherige Antwort abgeklungen ist. Allerdings werden nicht die 25 bis 30 Sekunden bis zum völligen Abklingen abgewartet, sondern lediglich bis der Peak der Antwort vorbei ist, also 10 bis 15 Sekunden. So kann die Höhe des BOLD-Effekts auf einzelne Stimuli gemessen werden. Allerdings mit dem Nachteil, dass das Signal-Rausch-Verhältnis geringer ist als bei Block-Designs.

Mit der Zeit hat sich herausgestellt, dass eine Wartezeit von 10 bis 15 Sekunden zwischen den Stimuli für die Versuchspersonen auf Dauer sehr ermüdend sein kann. Daher kamen Variationen des Event-related-Designs auf, die kürzere Interstimulus-Intervalle bis wenigstens 2 Sekunden verwenden. Dabei addieren sich die hämodynamischen Antworten zwar, allerdings nur linear, sodass die einzelnen Peaks noch relativ leicht herauszurechnen sind. Diese rapid Event-related-Designs können noch weiter variiert werden, beispielsweise über das sogenannte Jittern, bei dem die Länge der Interstimulus-Intervalle variiert wird. Die jedes Mal veränderte Wartezeit bis zum nächsten Stimulus reduziert Erwartungseffekte, die bei den Versuchspersonen aufkommen. In modernen fMRT-Studien werden die Interstimulus-Intervalle flexibel gestaltet und die Stimuli innerhalb gewisser Grenzen randomisiert präsentiert. (Sommer 2010, 253).

Nachdem das Experiment-Design ausgearbeitet ist, sind auch eventuelle Anforderungen an die Versuchspersonen bekannt. Je nach Studie kann die Rekrutierung geeigneter Versuchspersonen in ausreichender Anzahl ein langwieriger Prozess sein, beispielsweise, wenn ganz bestimmte neurologische Vorerkrankungen gesucht werden. Viele neuroökonomische Studien jedoch benötigen gesunde Menschen ohne mentale Vorerkrankungen, oft alle rechts- oder linkshändig, für eine maximale Vergleichbarkeit. Solche Versuchspersonen finden sich häufig direkt an der Universität oder Forschungseinrichtung, weshalb ein Großteil der Probanden Studenten sind. Die Angaben für eine geeignete Stückzahl pro Studie reichen von circa 10 (Carter et al. 2010, 29) bis circa 25 (Sommer 2010, 255). Im anglo-amerikanischen Raum muss ein Institutional Review Board (IRB) über eine Erlaubnis entscheiden, ob ein Experiment mit menschlichen Probanden durchgeführt werden darf. Carter et al. (Carter et al. 2010, 28) erläutern, dass solche IRBs für gewöhnlich aus ungefähr zehn Personen bestehen, meist Mediziner und Mitarbeiter der Forschungseinrichtung oder des betreffenden Fachbereichs, sowie nicht wissenschaftlich tätige Personen wie Krankenschwestern, Anwälte oder Masterstudierende. Sie sollen darüber entscheiden, ob die vorgelegten Studien ethischen und wissenschaftlichen Vorgaben entsprechen und die Sicherheit der Probanden gewährleistet ist. Die Vorgaben stammen aus dem US-amerikanischen Health Insurance Portability and Accountability Act von 1996.

Bereits vor dem Experiment im Scanner treffen sich die Experimentatoren mit den Versuchspersonen, um sie über den Ablauf des Experiments zu informieren und zu erläutern, was von ihnen verlangt wird. Sollten Missverständnisse oder Verständnisschwierigkeiten auftreten, wird so keine teure Scannerzeit verbraucht, um sie zu lösen. Neben der Erklärung ihres Einverständnisses, bei der Studie mitzuwirken und ihre Ergebnisse zu Forschungs- und Veröffentlichungszwecken zur Verfügung zu stellen, müssen die Versuchspersonen auch Angaben über ihre mentale und körperliche Gesundheit, ihren Konsum von Alkohol und Drogen, sowie über metallene Gegenstände oder Flüssigkeiten in und am Körper machen. Das können beispielsweise Herzschrittmacher, künstliche Gelenke oder Schienen sein, aber auch in manchen Tattoofarben befinden sich Metallpartikel. Da fMRT-Scanner mit Magnetfeldern von bis zu 12 Tesla arbeiten, müssen Metalle jeder Art so gut es geht entfernt und vor dem Scannerraum abgelegt werden. Denn magnetisierbare Metalle werden vom Scanner angezogen, vorzugsweise in die Mitte der Röhre. Das kann für die Versuchspersonen gefährlich werden, da der Scanner stark genug ist, auch große Gegenstände wie Gasflaschen anzuziehen, die sich im Raum befinden. Für Gelenke oder Schrittmacher werden zwar meist nicht-magnetisierbare Metalle verwendet. Diese werden vom Scanner auch nicht angezogen, durch das starke Magnetfeld aber erhitzt, sodass Schrittmacher und Gelenke nicht nur verformt und beschädigt werden könnten, sondern auch Verbrennungen drohen.

Das Metall-Problem betrifft nicht nur die Versuchspersonen, sondern auch alle Gegenstände im Scannerraum. Das heißt, dass auch Hilfsmittel, die für das Experiment benötigt werden, nicht aus Metall gefertigt sein dürfen. Sommer berichtet (Sommer 2010, 247), dass sich bereits eine Anzahl an Firmen auf die Herstellung von metallfreien Geräten extra für den Gebrauch in Scannerräumen spezialisiert haben. Diese Produkte beschreibt er allerdings als recht teuer, sodass die Experimentatoren nicht selten auf Einfallsreichtum und handwerkliches Geschick angewiesen sind, um eine Studie durchführen zu können. So hat es sich beispielsweise bewährt, am Kopfende des Scanners in der Wand ein kleines Loch zum Nebenraum anzubringen. In diesem Nebenraum steht dann der Projektor, der die Experimentaufgabe auf einen halbtransparenten Schirm projiziert, der am Kopfende der Scannerröhre angebracht ist. Über dem Kopf der Versuchsperson wird dann ein Spiegel leicht schräg aufgehängt, mit dem sie sehen kann, was auf dem Schirm hinter ihrem Kopf zu sehen ist. (Sommer 2010, 244). Das ist etwas umständlicher als eine Spezialbrille für die Probanden, aber sicherlich kostengünstiger. Damit die Versuchspersonen auf den Stimulus reagieren, also eine Entscheidung treffen können, bekommen sie eine Art Fernbedienung mit Knöpfen (je weniger desto besser) in die Hand. Durch Drücken beispielsweise des rechten oder linken Knopfes können sie ihre Entscheidungen treffen. Carter et al. (Carter et al. 2010, 30) beschreiben auch, dass ihre Probanden immer in die andere Hand einen quetschbaren Ball bekommen. Wenn sie sich unwohl fühlen, kann der Ball gedrückt werden und das Experiment wird sofort abgebrochen. Denn nicht jede Versuchsperson kann sich lange im Scanner aufhalten. Zum einen ist es recht eng, zum anderen recht laut, weil der Scanner während des Betriebs starke Geräusche macht. Daher könnten es die Experimentatoren auch nicht immer hören, wenn eine Versuchsperson etwas äußert, sei es nun eine Antwort auf eine Experimentaufgabe oder den Wunsch zum Abbruch der Session.

Zur Enge im Scanner trägt auch bei, dass Kopfbewegungen der Versuchspersonen so gut wie möglich verhindert werden müssen. Denn zu Beginn des Experiments wird ein Bild des Gehirns der Person aufgenommen, auf das die funktionellen Daten aufgebracht werden. Verrutscht die Position des Kopfes relativ zu diesem Referenzbild, könnte das die Positionen der Aktivierungen verfälschen. Daher wird der Kopf von Versuchspersonen so gut wie möglich mit Kissen und Polstern fixiert, manchmal sogar mit einer Beißschiene oder Kissen, die um den Kopf herum aufgeblasen werden.

Die Experimentaufgabe, die sorgfältig ausgearbeitete Präsentation der Stimuli, wird in eine eigene Software programmiert, die mit dem Scannercomputer synchronisiert werden muss, damit der Ablauf des funktionellen Scans mit dem Ablauf der Präsentation, und damit der wertvollen Arbeit der Versuchspersonen übereinstimmt. Sonst können die verschiedenen Aktivierungsmuster später nicht bestimmten Zeitpunkten in der Stimuluspräsentation zugeordnet werden. (Sommer 2010, 247). Sind die Versuchspersonen ausgestattet und der Scanner sowie die Computer bereit, kann das Scannen beginnen.

An dieser Stelle kommt unsere Beispiel-Studie aus der Neuroökonomie hinzu, eine Studie von Jamil Zaki und Jason Mitchell, Psychologen an der Universität Harvard (Zaki et al. 2011). An dieser Studie werden wir den Versuchsdurchlauf und die Analyse in einzelnen Schritten nachvollziehen. Diese Studie ist nicht nur deshalb ein gutes Beispiel, weil sie relativ moderne Experimentstandards mit fMRT-Geräten veranschaulicht, sondern auch, weil sie direkt aus dem Bereich der neuroökonomischen Anwendung kommt und inhaltlich ein gutes Beispiel dafür ist, wie die Zusammenarbeit von Verhaltensökonomen und kognitiven Neurowissenschaftlern konkret aussehen könnte, wie wir weiter unten sehen werden,

Was hat es mit dieser Studie von Zaki und Mitchell also auf sich? Sie untersucht die neuronalen Implementierungen gerechter Entscheidungen und ist ein schönes Beispiel für neuroökonomische Forschung. Die Autoren (Zaki et al. 2011, 19761) bemerken, dass ökonomische Standardmodelle von egoistischen Menschen ausgehen, jedoch in jüngeren Studien regelmäßig faires und altruistisches Verhalten beobachtet wird. Laut den Autoren wird solches Verhalten von den Standardmodellen mit einem äußeren Druck zu erklären versucht, die eigene Reputation zu schützen und Vergeltungshandlungen zu vermeiden. Ihrer Ansicht nach widersprechen diesem Erklärungsversuch Beobachtungen, dass Versuchspersonen beim Diktatorspiel Geld an ihre Mitspieler abgeben, ohne Sanktionen oder Schädigungen ihres Rufs befürchten zu müssen. Sie erläutern eine alternative Erklärung dieses Verhaltens, nach der soziale Prinzipien wie Fairness, Austausch und Kooperation einen intrinsischen Wert besitzen, sodass Individuen zwar ihren eigenen Vorteil wertschätzen, aber auch eine Aversion gegen Ungerechtigkeiten und Egoismus empfinden. Weiter berichten sie, dass in jüngerer Zeit eine wachsende Unterstützung dieser Hypothese aus bildgebenden Studien an Menschen kommt: Es wurde verlässlich gezeigt, dass Aktivitäten in Regionen wie dem ventralen Striatum und dem orbitofrontalen Kortex ansteigen, linear zum subjektiven Wert einer Reihe von Belohnungen. Diese Hirnregionen sind laut jüngerer Studien auch dann aktiv, wenn die Versuchsperson soziales Verhalten, wie gerechte Ressourcenverteilung, beobachten. Zaki und Mitchell sehen aber bei diesen Studien den Nachteil, dass sie lediglich passives Beobachten untersuchten, die Empfindungen von Entscheidungsträgern selbst jedoch nicht bekannt sind. Diese möchten sie in ihrer Studie untersuchen, der die Idee zugrunde liegt, dass, wenn Gerechtigkeit von Entscheidungsträgern als belohnend empfunden wird, ein Festhalten an diesem Prinzip, unabhängig vom eigenen Gewinn, Hirnregionen aktivieren sollte, die mit Wertschätzungen und Belohnungen zusammenhängen. Sollten gerechte Entscheidungen aber von der Unterdrückung vorherrschender egoistischer Impulse herrühren, sollten sie von Aktivitäten in Hirnregionen begleitet sein, die kognitive Kontrolle ausüben.

Für ihre Studie rekrutierten Zaki und Mitchell offenbar eine Reihe Studenten, denn das Durchschnittsalter der neunzehn Versuchspersonen (zwölf männlich, sieben weiblich) betrug 23,2 Jahre. Alle waren rechtshändig und hatten keine Historie psychiatrischer oder neurologischer Erkrankungen. Für die Teilnahme an der Studie wurde ihnen eine monetäre Kompensation geboten, deren Höhe sich aus einem Grundbetrag und einem zusätzlichen Geldbetrag zusammensetzte, der von ihren Entscheidungen im Experiment abhing.

Als experimentelles Paradigma nutzten sie ein Diktatorspiel, das sie auf Event-related-Design mit faktoriellem Design modifiziert hatten. Vor dem Scannen wurde immer eine Versuchsperson mit einem Mitarbeiter des Experiments zusammengebracht, der der Versuchsperson als zweiter Versuchsteilnehmer vorgestellt wurde. Die Experimentatoren erklärten beiden, in der Studie ginge es um die Frage, wie Individuen Eindrücke über reale andere Personen formen, denen sie tatsächlich begegnet sind, im Gegensatz zu fiktionalen anderen Personen. Eine der beiden Versuchspersonen sollte in den Scanner liegen, während die andere in einem anderen Raum davon unabhängige Aufgaben erledigen sollte. Eine ökonomische Entscheidungsaufgabe wurde nicht erwähnt. Dann wurde aus den Teams der Versuchspersonen in einem Verfahren, das der Versuchsperson zufällig erschien, immer die tatsächliche Versuchsperson für die Scanneraufgabe ausgewählt. Diese Versuchsperson nahm im Diktatorspiel die Rolle des Diktators ein, die andere Person die Rolle des Empfängers. Im Scanner wurden die Versuchspersonen darüber informiert, dass sie eine Reihe von Entscheidungen treffen sollten. Sie bekamen die Wahl, eine bestimmte Summe Geld entweder sich selbst oder dem Empfänger zukommen zu lassen. Fünf ihrer Entscheidungen würden hinterher zufällig ausgewählt und tatsächlich umgesetzt. Um zu verhindern, dass die Versuchspersonen mit dem Gedanken an ihren Ruf oder moralische Reputation handelten, wurde ihnen versichert, dass der Empfänger nicht erfahren würde, dass die Versuchsperson im Scanner das Diktatorspiel gespielt hatte. Der zusätzliche Geldbetrag, den der Empfänger eventuell aus dem Spiel erhalten würde, werde ihm einfach zusammen mit der Grundkompensation zugesandt.

Die Versuchspersonen durchliefen drei Sessions im Scanner mit insgesamt 210 Runden des Diktatorspiels, das folgendermaßen ablief: Nach den Instruktionen wurden die Versuchspersonen im Scanner platziert. Das Experimentdesign sah zunächst ein gejittertes Interstimulus-Intervall vor, dessen Länge von 1 bis 6 Sekunden reichen konnte. Danach wurde ihnen der Stimulus in zwei Wahlmöglichkeiten präsentiert. Auf dem Bildschirm erschienen am linken und am rechten Rand je ein Foto, das eine zeigte die Versuchsperson, das andere den Empfänger. Welches Foto rechts oder links zu sehen war, variierte zufällig bei jedem Trial. Über den Fotos stand jeweils „$XX.XX for“, mit variierenden Geldbeträgen. Dieses Bild blieb für ein wieder gejittertes Zeitintervall von 1 bis 5 Sekunden zu sehen. Dann kam die Aufforderung zu entscheiden über das Wort „Decide“, das zusätzlich auf dem Bildschirm erschien. Von da an hatten die Versuchspersonen 2 Sekunden Zeit, über die Knöpfe ihrer Fernbedienung eine Wahl zu treffen, wer den Geldbetrag bekommen sollte. Das Foto der gewählten Person erschien dann für den Rest der Runde rot umrahmt. Danach begann mit einem erneuten gejitterten Interstimulus-Intervall eine neue Runde.

Die Geldbeträge, die die Diktatoren vergeben konnten, variierten, lagen aber immer zwischen $0,00 und $3,00. Die Relationen zwischen den Beträgen hielten sich dabei immer an eine vorgeschriebene Reihe von Möglichkeiten (3:1, 2:1, 3:2, 4:3, 5:4, 1:1), wobei der mögliche Betrag für den Diktator zuerst gewählt wurde. Anhand einer zufällig gewählten Relation wurde dann der mögliche Betrag für den Empfänger errechnet.

Beispielsweise konnte ein Stimulus so aussehen, dass über dem Foto der Versuchsperson „$1.00 for“ stand und über dem Foto des Empfängers „$1.33 for“. Die Diktatoren konnten dann zwischen links und rechts entscheiden, also ob sie selbst $1 bekommen sollten und der jeweilige Empfänger dann leer ausginge, oder ob der Empfänger $1,33 erhalten sollte und sie selbst keine Auszahlung bekämen. Auf diese Weise konnten vier Faktoren implementiert werden, die danach unterschieden wurden, ob der höhere Betrag für die Diktatoren oder die Empfänger möglich gewesen wäre. Stand der höhere Betrag bei den Empfängern, wäre es nach Zaki und Mitchell von den Diktatoren gerecht gewesen, den Empfängern diesen Betrag auch zukommen zu lassen (generous/equitable), während eine Entscheidung, trotzdem den niedrigeren Betrag ihnen selbst zu gewähren, als eigennützig eingestuft worden wäre (self-serving/inequitable). Stand dagegen der höhere Betrag auf der Seite der Diktatoren, wäre eine Allokation bei den Empfängern eine generöse, aber ungerechte Entscheidung gewesen (generous/inequitable), während eine Entscheidung zugunsten der Diktatoren selbst eine eigennützige, aber gerechte gewesen wäre (self-serving/equitable). In dieser Studie war eine Entscheidung also genau dann gerecht, wenn sie demjenigen Spielpartner das Geld zusprach, der mehr hatte gewinnen können, ganz gleich, ob das die Diktatoren selbst oder die Empfänger waren.

Zudem wurden noch eine Reihe pure self und pure other Wahlmöglichkeiten eingebracht. Sie wurden als reine Belohnung für die Diktatoren (pure self) beziehungsweise die Empfänger (pure other) eingebaut (für die je anderen wurden dabei $0,00 angeboten), ohne das Prozedere des Experiments zu verletzen. Außerdem wurden Situationen eingefügt, in denen die Diktatoren zwischen $0,00 für sich und $0,00 für die Empfänger entscheiden konnten, sodass, egal welche Wahl getroffen wurde, niemandem ein Geldbetrag zugesprochen werden konnte. Auch diese Ergebnisse flossen in die Datenanalyse ein. Der Hintergrund dafür könnte sein, dass die Experimentatoren von Zeit zu Zeit ein sogenanntes Null-Event einfügen wollten. Während eines Null-Events soll das BOLD-Signal die Möglichkeit bekommen, wieder auf die Baseline abzusinken. Sie sind Interstimulus-Intervalle, die oft die Länge eines normalen Events besitzen, nur ohne einen Stimulus zu präsentieren. Die Wahl von $0,00 für beide Personen könnte also eine Möglichkeit sein, das durch das rapid Event-related-Design stets angehobene BOLD-Signal zwischendurch absinken zu lassen, ohne die Gleichförmigkeit des Experimentablaufs zu unterbrechen.

An diesem Beispiel lässt sich gut beobachten, wie ein bekanntes ökonomisches Spiel in ein im Scanner durchführbares Spiel übersetzt wird. In der klassischen ökonomischen Variante des Diktatorspiels erhält der Diktator einen bestimmten Betrag; wie viel sie davon an den Empfänger abgeben möchte, kann sie selbst wählen. In der Version des Spiels von Zaki und Mitchell können die Diktatoren die Höhe des abzugebenden Betrags nicht selbst regulieren, das wäre zu kompliziert für eine Entscheidung im Scanner. Dazu müsste schon das Antwortinstrument (hier die Fernbedienung) mehr als zwei einfache Knöpfe besitzen, die rechts oder links, ja oder nein, codieren. Noch dazu wären die Prozesse im Gehirn dabei viel komplexer und könnten so nur schwer modelliert werden. In der Scannerversion des Spiels gibt es für die Diktatoren nur die Überlegung, ob sie die eine oder die andere Möglichkeit besser finden (also welche der beiden Personen das für sie vorgesehene Geld erhalten soll), während sie im klassischen Spiel theoretisch sehr viele Möglichkeiten hätten, das Geld aufzuteilen. Dafür wäre es schwieriger, zu modellieren, welche Prozesse im Gehirn vor sich gehen, ob etwa für jede der potenziellen Verteilungsvarianten ein eigener Wert berechnet und mit allen anderen verglichen wird. Die Prozesse, die sich während des Experiments im Gehirn abspielen, sollten so unkompliziert wie möglich gehalten werden. Wie wichtig die Möglichkeit einer relativ einfachen Modellierung ist, werden wir weiter unten bei der Datenanalyse mit Regressoren sehen.

Die Versuchspersonen liegen also im Scanner und treffen ihre Entscheidungen. Nach einer Weile wird eine Pause eingelegt, die Versuchsperson trinkt vielleicht einen Kaffee und geht ein paar Schritte im Flur, dann geht es weiter mit der zweiten Session, nach einer weiteren Pause mit einer dritten. Dieses Vorgehen wiederholt sich für alle Versuchspersonen, sofern keine außerplanmäßigen Vorkommnisse eintreten, in unserem Beispiel mit 15 Personen.

Danach dürfen die Versuchspersonen nach Hause gehen, und die Datenanalyse beginnt. Dazu müssen die Daten vorverarbeitet werden, um interpersonelle Vergleichbarkeit zu erreichen. Gute Veröffentlichungen geben nicht nur an, welche Art von Scannergerät verwendet wurde, sondern auch, welche Softwares und Modelle zur Datenverarbeitung. In unserem Beispielfall war der Scanner ein 3-Tesla Siemens Trio-Scanner, die Stimuluspräsentation geschah über MATLAB und die Datenverarbeitung wurde mithilfe der SPM Statistical Parametric Mapping Image Analysis Software durchgeführt.

Wie bereits erwähnt, wird gewöhnlich zu Beginn der ersten Session im Scanner ein nicht-funktionelles MRT-Bild des Gehirns aufgenommen, auf das die Aktivierungsdaten aufgebracht werden. Zaki und Mitchell entschieden sich für T1-gewichtete Aufnahmen ihrer Versuchspersonen. Damit die Aktivierungen an der korrekten Stelle dargestellt werden, müssen die Daten zunächst einer Aquisitionszeit- und Bewegungskorrektur unterworfen werden. Die Aquisitionszeitkorrektur wird durchgeführt, weil die Software des Scanners das Gehirn in mehrere virtuelle Schichten aufteilt, deren Stärke vor dem Scannen festgelegt wird (in unserem Beispiel 5 Millimeter). Die Schichten werden nacheinander gescannt, über die sogenannte Repetitionszeit hinweg. In unserem Beispiel liegt diese bei 2 Sekunden. Das bedeutet, dass die letzte Gehirnschicht bei jedem Scan 2 Sekunden nach der ersten Schicht gescannt wird. In diesem Zeitraum können sich die Aktivierungen verändern, was vor allem klar wird, wenn man die Zeitintervalle der Stimuluspräsentation betrachtet. Daher wird der zeitliche Unterschied vom Computer herausgerechnet, sodass für die statistische Analyse angenommen werden kann, dass alle Bilder eines Volumens (3D-Bild des gesamten Gehirns, das während einer Repetitionszeit aufgenommen wurde) gleichzeitig aufgenommen wurden. Diese Korrektur wird nur bei Experimenten mit event-related Designs angewandt, da hier der möglichst exakte Zeitpunkt eines BOLD-Signals eine Rolle spielt. (Sommer 2010, 256).

Die Bewegungskorrektur ist notwendig, weil sich die Köpfe der Versuchspersonen im Scanner trotz aller Vorsicht während einer Session bewegen. Da die Voxel im Scanner ein statisches Raster bilden, können nach einer Kopfbewegung ganz andere neuronale Verbände in einem Voxel zu finden sein als vorher. Bei der Bewegungskorrektur wird also jedes einzelne Volumen gedreht und gekippt, bis es wieder exakt über das Referenzvolumen (in unserem Fall das T1-gewichtete Bild vom Anfang des Experiments) passt. Für jedes Volumen werden die vorgenommenen Bewegungsparameter zur späteren Ansicht gespeichert. (Sommer 2010, 256).

Ein weiterer wichtiger Schritt der Datenvorverarbeitung, den auch Zaki und Mitchell vornahmen, sind die Normalisierung und Glättung der Daten. Da sich jedes Gehirn in seiner anatomischen Struktur von anderen Gehirnen unterscheidet, werden die Daten aller Versuchspersonen auf eine Art Mustergehirn-Schablone aufgebracht. Dazu werden die strukturellen Daten des Gehirns durch Stauchen und Strecken an die Strukturen des Mustergehirns angepasst. Für solche Normalgehirne gibt es mehrere Angebote, eines der bekanntesten kommt vom Montreal Neurological Institute (MNI), der MNI Space. (Carter et al. 2010, 34; Sommer 2010, 256). Zaki und Mitchell nutzten von diesem Institut das International Consortium of Brain Mapping ICBM 152 brain template.Footnote 4 Als letzter Schritt folgt dann noch die räumliche Glättung der Daten über einen Gaußschen Filter. Dabei werden die gemessenen Aktivierungswerte für die einzelnen Voxel mit ihren Nachbarvoxeln verglichen. Die Intensität eines Voxels wird auf die umgebenden Voxel ausgebreitet, sodass einzelne Ausschläge geglättet werden. Dazu legen die Forscher die Weite des Filters fest. Sie bestimmt die Weite der Wirkung des Glättungseffekts. Ein enger Filter verteilt die Daten nur über ein paar Voxel, während ein weiter Filter sie über viele Voxel verteilt. Die Filtergröße wird üblicherweise in Millimeter beim halben Maximum der Gaußschen Kurve (Full-Width-Half-Maximum, FWHM) angegeben und sollte mindestens die zwei- bis dreifache VoxelgrößeFootnote 5 betragen. In unserem Fallbeispiel verwendeten die Autoren einen Filter von 6 mm FWHM. Die räumliche Glättung soll zum Einen noch immer bestehende Unterschiede zwischen den Probanden ausgleichen, zum Anderen, das ist wichtig, soll sie das Signal-Rausch-Verhältnis verbessern, denn eine durch den Stimulus bedingte Aktivierung erreicht meist zwei bis drei benachbarte Voxel, sodass es bei der Beurteilung der Aktivierung eines Voxels hilfreich ist, die Aktivierung der Nachbarvoxel miteinzubeziehen. Dadurch wird auch die Rate von falsch positiven Aktivierungsanzeigen verringert. Ohne Glättung können einige einzelne Peaks von Aktivierungen den Grenzwert für signifikante Peaks überschreiten, obwohl sie nicht durch den Experimentstimulus ausgelöst wurden, sondern aus dem Rauschen stammen, und daher für die Analyse nicht berücksichtigt werden sollten. Bei der Glättung fallen diese einzelnen Peaks oft durch, weil ihre Nachbarvoxel keine oder zu wenig Aktivierung aufweisen. So steigt die Wahrscheinlichkeit, dass es sich bei den Aktivierungen, die nach der Glättung noch signifikant scheinen, auch tatsächlich um für die Analyse wertvolle Aktivierungen handelt. (Huettel et al. 2014, 316–317).

Nach der Datenvorverarbeitung kann die eigentliche Datenanalyse beginnen. Zuvor noch ein Wort zu den behavioralen Ergebnissen der Studie von Zaki und Mitchell: Von den Trials, in denen den Versuchspersonen mehr Geld angeboten wurde als den Empfängern, wiesen die Versuchspersonen das Geld in 83,2% der Fälle sich selbst zu (self-serving/equitable). Bei den Trials, in denen den Empfängern mehr Geld angeboten wurde, gaben es die Versuchspersonen mit ungefähr der gleichen Wahrscheinlichkeit an die Empfänger weiter, wie sie es sich selbst zuteilten (generous/equitable 55,2%; self-serving/inequitable 44,6%). Entscheidungen, bei denen den Versuchspersonen mehr Geld angeboten wurde, diese es aber an die Empfänger weitergaben (generous/inequitable), kamen so selten vor, dass sie in der Analyse nicht berücksichtigt werden konnten. Insgesamt gaben die Versuchspersonen 22,2% des insgesamt verfügbaren Geldes an die Empfänger weiter, was, wie die Autoren sagen, mit Ergebnissen früherer Studien mit Diktatorspielen im Einklang steht. (Zaki et al. 2011, 19762).

Zurück zur Datenanalyse: Für die Analyse der Daten nutzten Zaki und Mitchell eine Regressionsanalyse mit dem Allgemeinen Linearen Modell (ALM). Diese Art der Analyse wird für die meisten fMRT-Studien verwendet und ist in vielen Softwarepaketen für fMRT-Analysen enthalten. Für eine solche modellbasierte Analyse versuchen die Experimentatoren, die aufgezeichneten Aktivierungsdaten so gut wie möglich mit Regressoren zu erklären. Regressoren sind hypothetische Verläufe von BOLD-Antworten in einem Voxel über einen bestimmten Zeitraum. Sie korrespondieren mit verschiedenen Prozessen, oder Teilen davon, die sich hypothetisch im Gehirn abspielen (beispielsweise phonologischer Abruf). Das ALM kommt üblicherweise in Matrizenform und bringt die Regressoren mit den Daten in Verbindung:

$${\text{y }} = {\text{ G }} \times \upbeta + \upvarepsilon ,$$

wobei y die beobachteten Daten sind, G ist die Design-Matrix, β die Parameter Matrix und ε die Error Matrix. Die Error-Matrix enthält die Fehler für jedes Voxel, die durch Rauschen in den Daten oder Fehler bei den Messungen entstehen. Die Daten y sind bereits bekannt, sie wurden gerade gemessen. Die Idee beim ALM ist, dass die Experimentatoren die Regressoren so auswählen, dass sie möglichst viele der aufgetretenen Daten möglichst genau vorhersagen. Dazu müssen die Experimentatoren eine Vorstellung davon haben, welche Aktivierungen in einem Voxel über den Zeitverlauf auftreten. Die Gesamtheit der Regressoren wird in der Design-Matrix G festgehalten. Zusätzlich werden die Regressoren gewichtet. Je höher die Gewichtung für einen Regressor, desto stärker korreliert er mit den beobachteten Daten. Diese Gewichtung geschieht über die Parametergewichte β, die in der Parameter-Matrix festgehalten sind. (Huettel et al. 2014, 372–374).

Die Regressoren sind hypothetische Erklärungsversuche, die von den Experimentatoren ausgewählt werden, ebenso wie ihre Gewichtungen. Zusammen können sie die Daten gut erklären, oder schlecht. In letzterem Fall ist die Fehlervarianz des Modells sehr hoch, sie sollte aber so gering wie möglich gehalten werden. Denn, wie Sommer (Sommer 2010, 259) erklärt, werden die Aktivierungen später einzeln danach beurteilt, ob sie für die Forschungshypothese relevant oder zufällig entstanden sind. Dabei wird nach der Höhe der Fehlervarianz geschaut, die die Gewichtung des Regressors für diese Aktivierung relativiert. Je höher die Fehlervarianz, desto höher die Wahrscheinlichkeit für eine zufällige Aktivierung.

Zaki und Mitchell (Zaki et al. 2011, 19765) modellierten mit ihrem ALM die Entscheidungsphase ihres Experiments. Dazu wählten sie drei Regressoren, die den drei interessierenden Entscheidungsbedingungen entsprachen: self-serving/inequitable, self-serving/equitable und generous/equitable. Die vierte Bedingung (generous/inequitable) war, wie gesagt, zu selten aufgetreten, um modelliert werden zu können. Die Whole-Brain-Analyse verglich die Bedingungen in der Weise [self-serving/equitable + generous/equitable] > self-serving/inequitable und gegensätzlich dazu self-serving/inequitable > [self-serving/equitable + generous/equitable]. Dadurch ließen sich Häufungen von Gehirnaktivitäten herausfiltern, die zwischen gerechten Entscheidungen (beider Art) und ungerechten Entscheidungen unterschieden. Die Höhe des Geldbetrags, der bei jedem Trial gewonnen werden konnte, hatten Zaki und Mitchell als Faktor ohne Interesse in ihr Modell eingearbeitet. Daher gehen sie davon aus, dass die Analyse die Auswirkungen bestimmter Entscheidungstypen aufzeigt, ohne vom möglichen Geldgewinn beeinflusst zu sein. Diese Analyse zeigte Aktivierungen des orbitofrontalen Kortex (OFC) im Zusammenhang mit gerechten, im Gegensatz zu ungerechten, Entscheidungen auf. Der OFC reagierte dabei sowohl auf egoistische, als auch auf großzügige Entscheidungen, solange sie gerecht (equitable) waren. Zaki und Mitchell leiteten daraus eine erste Hypothese ab (Zaki et al. 2011, 19762):

„Thus, OFC activity here cannot have reflected (i) the presence or absence of personal gain or (ii) the ‚warm glow‘ of acting generously per se, because generous/equitable and self-serving/equitable trials differed along both of these dimensions but engaged this region similarly. Remarkably, the lowest OFC response was observed when participants chose to allocate money inequitably to themselves, even though these choices resulted in real financial gain for the participant, suggesting that a motivation to maximize social outcomes may ‚crowd out‘ the value associated with personal gains.“

Diese Aktivierungen wollten Zaki und Mitchell noch weiter untersuchen. Trat die gerechtigkeitsbezogene Aktivität in einer Region des OFC auf, die generell für Werte aktiv wird? Für diese Frage analysierten sie die Antworten auf die Pure-Self-Trials. Diese Trials verschafften den Versuchspersonen reinen Gewinn, ohne Kosten für die Empfänger und ohne Möglichkeit für die Versuchspersonen, großzügig zu entscheiden. Für diese Analyse wurde wieder das ALM verwendet, diesmal mit einem Regressor, der die Höhe des Geldbetrages repräsentierte, den die Versuchspersonen in den einzelnen Pure-Self-Trials erhalten hatten. Die Analyse erbrachte, dass eine ähnliche Region im OFC wie oben aktiv wurde, wobei die Aktivierungen mit der Höhe der Geldbeträge korrelierte. Diese dabei identifizierte Region of Interest im OFC wurde daraufhin nocheinmal nach unterschiedlichen Aktivierungen für die unterschiedlichen Entscheidungsmöglichkeiten untersucht. Die Aktivierungen waren stärker für gerechte gegenüber ungerechten Entscheidungen, wobei sie sich wiederum nicht zwischen eigennützigen gerechten und großzügigen gerechten Entscheidungen unterschieden. Für Zaki und Mitchell (Zaki et al. 2011, 19762) unterstützt das die Schlussfolgerung, dass Entscheidungsträger Gerechtigkeit einen intrinsischen Wert zuschreiben.

Um ihren Punkt weiter zu untermauern, unternehmen die Autoren eine Art Gegenprobe (Zaki et al. 2011, 19762, 19766). Ihre Idee ist, dass wenn gerechte Entscheidungen mit einem subjektiven Wert verbunden sind, ungerechte Entscheidungen ein Gefühl von subjektiver Disutilität hervorrufen sollten. Eine Gegenüberstellung der Gehirnaktivitäten für gerechte und ungerechte Entscheidungen erbrachte für ungerechte Entscheidungen erhöhte Aktivitäten in der vorderen Insula, die gemeinhin mit aversiven Gefühlen wie Schmerz oder Abscheu in Verbindung gebracht wird. Zudem zeigte sich, dass diejenigen Versuchspersonen mit stärkerer Insulaaktivierung bei ungerechten Entscheidungen weniger ungerechte Entscheidungen fällten. Da diese Personen somit auch weniger Daten zu ungerechten Entscheidungen bereitstellten, überprüften Zaki und Mitchell diesen Befund anhand einer weiteren ALM-Analyse eigens für die vordere Insula, bei der sie für jede Versuchsperson genau zehn ungerechte Entscheidungen berücksichtigten, um die Vergleichbarkeit der Daten zu erhöhen. Diese Analyse kam zu dem gleichen Ergebnis wie die vorherige Whole-Brain-Analyse. Damit war die Datenanalyse für diese Studie abgeschlossen, es folgt die Interpretation der Ergebnisse.

Für ihre Studie kamen Zaki und Mitchell (Zaki et al. 2011, 19763) zu dem Schluss: „[…] charitable donation engages reward-related brain regions.“ Zudem sehen sie in ihrer Analyse der vorderen Insula Belege, die nahelegen, dass nicht nur die Beobachtung, sondern auch das eigene ungerechte Handeln als aversiv empfunden wird.

Für unsere Fragestellung ist dieses Experiment interessant, weil es die ursprünglich ökonomische Fragestellung nicht lediglich aus einer neurowissenschaftlichen Sicht beleuchtet, es fügt vielmehr etwas Neues hinzu. Zaki und Mitchell bearbeiteten die Frage, ob Versuchspersonen auch ohne (sozialen) Druck von außen beim Diktatorspiel Geld abgeben. Diese Frage glauben sie beantworten zu können, ist für uns aber nur von untergeordneter Bedeutung. In unserem Kontext ist es vielmehr interessant, dass die Studie eine Erweiterung der Möglichkeiten darstellt, die den Ökonomen in ihren eigenen Laboren nicht zur Verfügung gestanden hätte. Mit behavioralen Experimenten ließe sich zwar der Umstand aufdecken, dass Versuchspersonen im Diktatorspiel ohne Zwang von außen Geld an die Empfänger abgeben. Aus welchen Gründen das aber geschieht, lässt sich nur schwer feststellen. Immerhin kann man im Experiment die Angst vor Reputationsschädigungen und Vergeltungen ausschließen. Aber die Frage, ob die Diktatoren aus einem Warm-Glow-Empfinden heraus Geld abgeben, lässt sich kaum beantworten. Hier konnte die Studie von Zaki und Mitchell immerhin einen Anfangspunkt liefern. Mit dem fMRT und einem geschickten Experimentdesign hatten sie die Möglichkeit, Erklärungsversuche für die Gründe nicht nur zu liefern, sondern auch ein Stück weit zu untermauern. Natürlich ist ihre Studie nicht der Wahrheit letzter Schluss zu dieser Frage, aber sie erweitern die möglichen Fragestellungen, und damit Erkenntnismöglichkeiten, zu ökonomischen Problemen.

Hier liegt der Beitrag der kognitiven Neurowissenschaften zur Neuroökonomie verborgen. Zum einen sind es die Daten, behavioral wie neurologisch, zum Verhalten von Entscheidungsträgern in ökonomischen Situationen. An sich können diese schon den Grundstock an Erkenntnissen erweitern. Der wahre Wert liegt dabei aber in den Möglichkeiten der neurologischen Instrumente und Fragestellungen, die über die ökonomischen Möglichkeiten hinausgehen, wie man an der Studie von Zaki und Mitchell sehr schön sehen kann, und was wir im folgenden Abschnitt 5.3 genauer sehen werden. Mit behavioralen Methoden kann man den Leuten bekanntermaßen nur vor den Kopf schauen. Inwiefern die bunten Bilder aus einem fMRT dazu geeignet sind, menschliches Verhalten nicht nur zu erklären, sondern global zu modellieren und schlussendlich auch vorherzusagen, ist natürlich eine andere Frage, der wir uns in Kapitel 6 stellen müssen. Werden die Möglichkeiten der kognitiven Neurowissenschaften aber nicht in prophetischer, sondern wissenschaftlicher Weise eingesetzt, könnten die kognitiven Neurowissenschaften mit ihren Studien einen wichtigen und wertvollen Beitrag zur Neuroökonomie leisten, wie wir nun genauer betrachten werden.

5.3 Wie nutzen Verhaltensökonomie und kognitive Neurowissenschaften die Vorteile des jeweils anderen?

In den Kapiteln 3 und 4 haben wir gesehen, welche Ideen und Entwicklungen hinter der Verhaltensökonomie beziehungsweise den kognitiven Neurowissenschaften stecken und wonach sie suchen. Kapitel 2 ließ erkennen, welche Hoffnungen die Anhänger der neuroökonomischen Idee in die Neuroökonomie stecken. Das vorliegende Kapitel zeigt nun auf, wie die Arbeit aussehen kann, die die beiden Wissenschaften in die Neuroökonomie einbringen. Nun wollen wir sehen, welchen Nutzen sie aus der Neuroökonomie ziehen können, was sie voneinander lernen und anwenden können.

Diese Frage zu beantworten, erfordert einen breiten Blick auf die Neuroökonomen. Je nachdem, wen man fragt, erhält man unterschiedliche Antworten, worin der tatsächliche Nutzen der Neuroökonomie liegt. Da sind auf der einen Seite diejenigen Ökonomen und Neurowissenschaftler, die die Neuroökonomie rundheraus ablehnen, aus verschiedenen Gründen, die wir in Kapitel 6 betrachten werden. Auf der anderen Seite sieht eine Gruppe von Forschern großen Nutzen und vielfältige Möglichkeiten in der Neuroökonomie. Bekannte Vertreter sind etwa Colin Camerer, Paul Glimcher oder Ernst Fehr. In diesem Kapitel wird die Sichtweise dieser Anhänger und Anwender der Neuroökonomie erläutert. Daneben gibt es aber auch eine Vielzahl an Verhaltensökonomen und kognitiven Neurowissenschaftlern, die sich weder zu den glühenden Verfechtern, noch zu den entschiedenen Gegnern der Neuroökonomie zählen würden. Sie lehnen die Neuroökonomie nicht grundsätzlich ab, sondern sehen sie eher als möglicherweise nützliche Zusammenarbeit. Diese Gruppe gilt es für die Anhänger der Neuroökonomie zu überzeugen. Das war ihnen bereits vor zehn Jahren klar, als die Neuroökonomie gerade an Fahrt aufnahm. Damals entwickelte sich eine hitzige Debatte darüber, welchen Nutzen die Neuroökonomie für ihre Elternwissenschaften haben könnte. Inzwischen ist die Diskussion etwas abgekühlt, die Frage besteht aber noch immer und die heutigen Ansichten sind natürlich von den Versprechen geprägt, die damals gemacht wurden. Manche dieser Versprechen über den zukünftigen Nutzen der Neuroökonomie klingen realistisch und wecken Interesse, einige klingen aber auch sehr optimistisch, um nicht zu sagen, recht hochgegriffen und unrealistisch. Bei manchen Versprechen wird auch nicht klar, ob sie aus grundsätzlichen, strukturellen, wissenschaftstheoretischen Gründen überhaupt erfüllbar sind. Im folgenden Kapitel 6 werden wir uns eingehender mit den Versprechen und ihrem Echo in der wissenschaftlichen Gemeinschaft befassen. Daher genügt uns an dieser Stelle ein kurzer Blick auf die Versprechen vom Nutzen der Neuroökonomie, bevor wir sehen, was davon übrig ist.

Möglicher Nutzen aus der Neuroökonomie geht grundsätzlich in eine von zwei Richtungen: Richtung Ökonomie oder Richtung Neurowissenschaften. Es gibt keinen Konsens darüber, in welche Richtung mehr Nutzen fließen kann oder wird. Nach Ansicht vieler, vor allem neutral bis skeptisch eingestellter Ökonomen, können die Neurowissenschaften mehr von der Expertise der Ökonomen profitieren, wenn überhaupt, während Neurowissenschaftler den höheren potenziellen Wissenstransfer in Richtung Ökonomie sehen. Die große Debatte aus den Anfängen der Neuroökonomie, die wir hier betrachten, drehte sich vor allem um die Frage des Nutzens der Neuroökonomie für die Ökonomie.

Die Befürworter der Neuroökonomie waren sich weitgehend einig, dass der globale Nutzen für die Ökonomie in der Öffnung der Black Box liegen wird, die das menschliche Gehirn in der ökonomischen Theorie darstellt (siehe beispielsweise Camerer et al. 2005b, 2004, Bernheim 2009, Reimann et al. 2011). Neuroökonomie würde diese Black Box öffnen, „much as organizational economics opened up the theory of the firm.“ (Camerer et al. 2004, 555) Jene Öffnung der Black Box hatte den Ökonomen nach Ansicht der Autoren neue Einblicke und Möglichkeiten beschert, die Neuroökonomie könnte das auch tun. Dieses Versprechen ist an sich schon recht hoch gegriffen, schon allein deshalb, weil gar nicht klar ist, ob sich diese Black Box überhaupt öffnen lässt und falls ja, ob das einen Nutzen für die Ökonomie bringt (Gul et al. 2008). Für manche trägt auch die Analogie mit der Theorie der Firma nicht (Bernheim 2009). Zudem ist das Versprechen der Öffnung der Black Box so oberflächlich formuliert, dass nicht von selbst evident wird, wie ein solcher Prozess aussehen könnte. Daher mussten die Befürworter der Neuroökonomie weiter ins Detail gehen, was den möglichen Nutzen der Neuroökonomie für die Ökonomie betrifft. Camerer, Loewenstein und Prelec zeigen in mehreren Veröffentlichungen verschiedene mögliche Wege auf, von denen wir zwei betrachten (Camerer et al. 2004, 573):

„[...] basic neuroeconomic research will ideally be able to link hypotheses about specific brain mechanisms (location, and activation) with unobservable intermediate variables (utilities, beliefs, planning ahead), and with observable behavior (such as choices). One class of fruitful tasks is those where some theories assume choice A and choice B are made by a common mechanism, but a closer neural look might suggest otherwise.“

Aus diesen und auch aus weiteren Ausführungen der Autoren wird leider überhaupt nicht klar, wieso das von Nutzen für die Ökonomie sein sollte oder was die Verhaltensökonomen bei ihrer Arbeit mit diesen möglicherweise demnächst verfügbaren Erkenntnissen anfangen sollten. Ganz ähnlich verhält es sich mit dem darauffolgenden Beispiel (Camerer et al. 2004, 574):

„A third payoff from neuroscience is to suggest that economic choices which are considered different in theory are using similar brain circuitry. For example, studies cited above found that insula cortex is active when players in ultimatum games receive low offers, when people choose ambiguous gambles or money, when people see faces of others who have cooperated with them, and in players who are poor strategic thinkers. This suggests a possible link between these types of games and choices which would never have been suggested by current theory.“

Auch hier bleibt wieder die Frage offen, inwiefern diese Erkenntnisse nützlich für die Ökonomie sind, warum Ökonomen sie benötigen. Es wird aber klar, wie manche Ökonomen zu der Ansicht gelangten, die Neuroökonomie könnte die Probleme der Ökonomie nicht lösen.

Diese und andere Nutzenbeispiele haben gemeinsam, dass sie nicht hinreichend überzeugend und manchmal sogar überzogen waren. Kein Wunder also, dass die Verunsicherung auf allen Seiten groß war, wie nun mit der Neuroökonomie zu verfahren sei. Doch wie so oft kommt auch hier der Rat mit der Zeit. Seit den Hochzeiten der Debatte sind, wie gesagt, ungefähr zehn Jahre vergangen und einige neuroökonomische Studien und Arbeiten wurden durchgeführt und veröffentlicht.

Was also ist nun vom Glauben an den Nutzen der Neuroökonomie geblieben? Wie wir etwas detaillierter in Kapitel 6 sehen werden, scheint ein gewisser Realismus eingezogen zu sein, vor allem bei den eher neutral eingestellten Forschern beider Seiten. Die überzogenen Versprechen von damals wurden als solche identifiziert, teilweise von den Autoren selbst. Eine solche Vorgehensweise findet man heute kaum mehr, die Neuroökonomen scheinen daraus gelernt zu haben. Auch mit etwas Erfahrung im Gepäck wird der Nutzen der Neuroökonomie für ihre Elternwissenschaften heute pragmatischer eingeschätzt. Den Nutzen der Neuroökonomie, wie er sich heute darstellt, können wir in den beiden vorangegangenen Unterkapiteln 5.1 und 5.2 sehen. Dort haben wir besprochen, welchen Beitrag die Ökonomie beziehungsweise die Neurowissenschaften zur Neuroökonomie liefern und haben daraus einen Nutzen für die jeweils andere Wissenschaft abgeleitet:

Die Neurowissenschaftler können aus der neuroökonomischen Zusammenarbeit vor allem den Nutzen ökonomischer Modelle ziehen, sowie das Know-how, sie richtig anzuwenden. In den klassischen kognitiven Neurowissenschaften wird oft auf experimentelle Paradigmen aus der psychologischen Forschung des 20. Jahrhunderts zurückgegriffen. Da die Entwicklung leistungsfähiger Experimentparadigmen keine leichte Aufgabe ist, hat dieses Vorgehen grundsätzlich seinen Sinn. So können die Neurowissenschaftler von den Erfahrungen ihrer psychologischen Vorgänger profitieren. Andererseits holen sich die kognitiven Neurowissenschaftler damit nicht nur die Vor- sondern auch die Nachteile vieler psychologischer Modelle ins Labor. Nicht selten beruhen sie auf Konstruktbasis und sind dadurch nicht immer leicht operationalisierbar, wie in Abschnitt 5.1 am Beispiel des Balloon Analogue Risk Task zu sehen ist. Ökonomen und Neuroökonomen sehen die Modelle der Verhaltensökonomie zur Erforschung menschlicher Entscheidungsfindung klar im Vorteil. Sie sind in Jahrzehnten gut erprobt und decken ein großes Spektrum an verschiedenen Anwendungsmöglichkeiten ab, da sie grundsätzlich auf jede zu erforschende Situation anwendbar sind. Dazu noch mit klar strukturierten Situationen und Abläufen, die gewisse Wahrscheinlichkeiten beinhalten und sich klar operationalisieren lassen. Diesen Nutzen könnten kognitive Neurowissenschaftler aus der Neuroökonomie erhalten. Umsichtig angewandt könnte er die Entwicklung der kognitiv neurowissenschaftlichen Forschung zur Entscheidungstheorie fördern und beschleunigen, denn nicht nur könnten die Forscher die Vorteile der ökonomischen gegenüber psychologischen Modelle nutzen, es findet sich auch nicht für jede Forschungsfrage ein passendes experimentelles Paradigma aus der Psychologie, das sich für Studien mit fMRT, PET oder EEG übersetzen ließe, sodass ein eigenes erdacht werden muss, was, wie gesagt, eine nicht ganz triviale Aufgabe ist. Ein erfolgreiches Anwendungsbeispiel eines ökonomischen Experimentparadigmas in einer neurowissenschaftlichen fMRT-Studie haben wir in Abschnitt 5.2 gesehen.

Der mögliche Nutzen der Neuroökonomie für die Ökonomie wird hart diskutiert. Während die einen Ökonomen glauben, dass Ökonomie und Neurowissenschaften keine gemeinsame Basis haben und schon allein so unterschiedlichen Fragestellungen und Problemen nachgehen, dass die Neurowissenschaften keinen Nutzen für die Ökonomie haben oder haben werden, sind andere der Überzeugung, die Neuroökonomie könne die Präzision von Funktionen und Parametern in ökonomischen Standardmodellen erhöhen (Camerer et al. 2004, 574). Während noch über die wissenschaftstheoretische Vereinbarkeit von Ökonomie und Neurowissenschaften und über Brückengesetze diskutiert wird (siehe Kapitel 6), könnte der tatsächliche, verwertbare Nutzen der Neuroökonomie für die Ökonomie viel banaler liegen: In Abschnitt 5.2 betrachteten wir das Experiment von Zaki und Mitchell zu neuronalen Implementierungen gerechter Entscheidungen. In ihrer Studie gehen sie der Frage nach, warum Menschen in sozialen Entscheidungssituationen nicht selten fair oder gerecht handeln, genauer gesagt, warum Diktatoren im Diktatorspiel ihren Empfängern überhaupt Geld zuteilen. Dass die Diktatoren im Spiel so handeln, lässt sich auch in behavioralen Untersuchungen feststellen. Gerade aber für die Frage nach dem Warum könnten bildgebende Studien aus den kognitiven Neurowissenschaften neue Daten und Perspektiven zur Diskussion beitragen, die die Verhaltensökonomen mit behavioralen Studien allein so leicht nicht reproduzieren könnten. Zaki und Mitchell beispielsweise bringen starke Evidenz dafür, dass das generöse Verhalten von Diktatoren nicht mit einem „warm glow“-Gefühl, wie sie es nennen (Zaki et al. 2011, 19762), zusammenhängt, das bei altruistischen Handlungen entsteht. Die Aktivierung mit Belohnung zusammenhängender Gehirnregionen beim Treffen gerechter Entscheidungen legt nahe, dass prosoziale Entscheidungen mit der Erfahrung subjektiver Belohnung einhergeht. Gerechte Entscheidungen hätten also ihren eigenen intrinsischen Wert.Footnote 6 Andersherum schließen die Autoren aus ihren Aktivierungsdaten, dass nicht nur diejenigen aversiv auf ungerechte Entscheidungen reagieren, die von ihnen betroffen sind, sondern auch diejenigen, die sie verursacht haben (Zaki et al. 2011, 19763).

Diese Erkenntnisse werden die Verhaltensökonomie nicht revolutionieren, vermutlich ebenso wenig wie andere oder zukünftige Studien aus den kognitiven Neurowissenschaften. Aber sie können Hinweise auf die Handlungsmotivationen der Versuchspersonen liefern, die Ökonomen in ihren Laboren nicht so einfach erschließen können. Natürlich könnte man mit Gul und Pesendorfer und vielen anderen nun sagen, dass solche Erkenntnisse für die Ökonomie irrelevant sind und die ökonomischen Probleme nicht lösen. Andererseits könnten sie Verhaltensökonomen zu neuen Forschungsfragen und Studien inspirieren. Denn wer mehr weiß, dem fällt auch mehr ein.

In diesem Kapitel sind bereits einige Kritiken an der Neuroökonomie angeklungen. Auf dieser Basis werden wir uns nun in Kapitel 6 mit diesen und weiteren Kritiken beschäftigen und ihre Wirkung auf die Neuroökonomie betrachten.