Nachdem wir in Kapitel 3 die Verhaltensökonomie betrachtet haben, werfen wir nun einen Blick auf die andere Seite der Neuroökonomie, auf die kognitiven Neurowissenschaften. Auch hier werden wir uns in Abschnitt 4.1 zunächst kurz mit der Historie der kognitiven Neurowissenschaften beschäftigen, die uns Einblick in die Entwicklung der Fragestellungen gewähren wird, denen die Neurowissenschaftler seit dem 19. Jahrhundert nachgehen. Wir werden Ideen und Methoden von Franz Josef Gall, Pierre-Paul Broca und Carl Wernicke kennenlernen und ihre Auswirkungen auf die Frage, ob das Gehirn mit lokalen Funktionen arbeitet oder die Mass-Action-Theorie zutrifft. Im 20. Jahrhundert ermöglichen Umbrüche den Aufstieg des Behaviorismus zur vorherrschenden Methode. Dieser Überblick wird uns dabei helfen, in Abschnitt 4.2 zu verstehen, was die kognitiven Neurowissenschaftler heute antreibt und welche Fragen sie beschäftigen. Die Überwindung des Behaviorismus ermöglichte die Entstehung der kognitiven Neurowissenschaften und ihre Erforschung von Gedächtnis, Emotionen und anderem mehr. Diese beiden modernen Forschungsgebiete werden wir genauer betrachten, da sie auch für die neuroökonomische Forschung interessant sind. Ebenso interessant für das Verständnis derzeitiger Fragen in den Neurowissenschaften sind zwei Großprojekte in Europa und den USA. Das Human Brain Project und die BRAIN Initiative beschäftigen sich mit sehr ähnlichen übergeordneten Fragen und wir werden sehen, wie sie diese beantworten möchten. Abschnitt 4.3 liefert dann einen Überblick über heute gebräuchliche empirische Methoden, mit deren Hilfe diese Fragen beantwortet werden sollen. Dazu gehören non-invasive Methoden wie funktionale Magnetresonanztomographie (fMRT), Positronenemissionstomographie (PET), Elektroenzephalographie (EEG) und die transkranielle Magnetstimulation (TMS), sowie invasive Methoden wie die lokale Ableitung von Aktionspotenzialen. Wir werden jedes dieser Instrumente und ihre technische Funktionalität in einem kurzen Überblick kennenlernen. Diese Betrachtung der praktischen Arbeit dient als Grundlage für das Verständnis des Beitrags der kognitiven Neurowissenschaften zur Neuroökonomie. Zusätzlich fußen einige Kritiken, die gegen die Neuroökonomie vorgebracht werden, auf diesen empirischen Methoden und der Art ihrer Anwendung. Ein Verständnis über die Grundlagen der empirischen Methoden wird daher für die Erfassung und Beurteilung dieser Kritiken in Kapitel 6 hilfreich sein.

4.1 Fragen und Historie der kognitiven Neurowissenschaften

Was ist unter dem Begriff „kognitive Neurowissenschaften“ zu verstehen? Der Neuropsychologe Wolfgang Hartje (Hartje 2012, 2) erläutert, dass die kognitiven Neurowissenschaften, wie auch andere Disziplinen der Neurowissenschaften, die Aufklärung der Strukturen und Funktionsweise des Nervensystems zum Ziel hat. Laut Hartje grenzt der Begriff „kognitiv“ das Untersuchungsgebiet auf das Gehirn ein, speziell auf eine Art der Hirnforschung, die die Zusammenhänge zwischen Gehirn und Kognition untersucht. Unter Kognition wird dabei in der heutigen Verwendung eine ganze Reihe sehr verschiedener Funktionen verstanden: Wahrnehmung, Aufmerksamkeit, Sprache, Denken, Vorstellung, Gedächtnis, Handeln, Reagieren, Motorik und Emotion (Hartje 2012, 2).

Nach dieser Definition ist das Forschungsgebiet, mit dem sich kognitive Neurowissenschaftler beschäftigen können, also sehr breit und vielschichtig und erfordert unterschiedliche Sichtweisen auf das Gehirn und seine Arbeit. Dies macht es, wie wir in Abschnitt 4.2 sehen werden, nicht leicht, die Fragen und Ziele der kognitiven Neurowissenschaften nachzuzeichnen.

Der Psychologe Bradley Postle (Postle 2015, 4) identifiziert zwei Ebenen, auf denen der Begriff „kognitive Neurowissenschaften“ gebraucht wird: Auf einer breiten Ebene bezeichnet er die neurowissenschaftliche Erforschung der meisten Bereiche des menschlichen Verhaltens. In einem engeren Sinne bezeichnet der Begriff die Erforschung der neuronalen Grundlagen des Denkens, woraus es besteht, wovon es beeinflusst und kontrolliert wird. Mit solchen Fragen beschäftigen sich auch andere Disziplinen, wie Philosophie, Biologie, Anthropologie und weitere. Postle (Postle 2015, 2) grenzt die kognitiven Neurowissenschaften folgendermaßen von ihnen ab:

„What distinguishes cognitive neuroscience [...] from these and other disciplines, is its grounding in the methods and traditions of neuroscience, and the primacy that it places on understanding the biological bases of mental phenomena.“

Die kognitiven Neurowissenschaften weisen also einen nicht geringen Aspekt an kognitiver Psychologie auf. Diesen verbinden sie mit der Herangehensweise von Neurowissenschaftlern und ihren empirischen Forschungsmethoden. Und mit welchen Fragen genau befassen sie sich? Postle (Postle 2015, 3) räumt ein, dass es nicht leicht ist, die Grenzen der Disziplin kognitive Neurowissenschaften zu definieren. Durch die relativ frühe Verbindung neurowissenschaftlicher Methoden und der Erforschung menschlichen Verhaltens mit Bereichen, die von kognitiver Psychologie bearbeitet wurden (beispielsweise optische Wahrnehmung oder Gedächtnis), ist der Begriff „kognitive Neurowissenschaften“ älter als andere, eventuell explizitere Begriffe (wie beispielsweise affektive Neurowissenschaften). Dadurch wird der Begriff „kognitive Neurowissenschaften“ heute in vielen Kontexten verwendet, zu Postles Bedauern nicht immer mit der gleichen Bedeutung. Zusammengefasst kann nach Postle „kognitive Neurowissenschaften“ verwendet werden, um auf die Werkzeuge und Methoden zu verweisen, die für die Erforschung der neuronalen Basis menschlichen Verhaltens verwendet werden. Er nennt als Beispiele Gehirnscans, elektrische Messungen und Gehirnstimulationen. Diese Methoden werden wir in Abschnitt 4.3 eingehender betrachten.

Bei dieser Arbeit, erläutert Postle (Postle 2015, 2) weiter, bedienen sich kognitive Neurowissenschaftler Methoden, die auch Physiker und Biologen anwenden: Sie führen streng kontrollierte Experimente durch, die objektive, messbare Daten liefern, und versuchen, diese Daten mit mechanistischen Modellen darüber in Verbindung zu bringen, wie natürliche Systeme arbeiten.

Die Kernfrage, denen sie dabei nachgehen, definiert Postle (Postle 2015, 13) als:

„How does the functioning of the brain give rise to cognition and behavior?“

Anfang des 19. Jahrhunderts gab es zwei gegensätzliche Konzeptionen: Localization of Functions und Mass Action. Die Idee der Localization of Functions geht davon aus, dass es im Gehirn bestimmte Bereiche gibt, die sich auf bestimmte Aufgaben spezialisiert haben und für diese zuständig sind. Werden diese Hirnareale beschädigt, ist ihre Funktion beeinträchtigt, was sich auf das Verhalten der Patienten auswirkt. Ist beispielsweise das Sehzentrum gestört (zum Beispiel durch einen Schlaganfall), werden die Betroffenen eine irreversible Einschränkung ihres Sehvermögens erfahren. Wird dagegen das Hörzentrum beschädigt, werden die Patienten schlechter hören, aber ceteris paribus weiterhin gut sehen können.

Die Idee der Mass Action dagegen sieht das Gehirn als eine große Masse, die nicht aus vielen Arealen mit unterschiedlichen Funktionen und Spezialisierungen besteht. Im Gegenteil arbeitet das Gehirn nach dieser Auffassung eher homogen, jeder Teil des Gehirns ist an allen möglichen kognitiven Funktionen beteiligt. Das Ausmaß der Schädigungen, die ein Patient erfährt, liegt demnach nicht an der lokalen Ausbreitung der Läsion, sondern einzig an der Menge des Gehirns, die geschädigt ist. Ist nur ein kleiner Teil des Gehirns betroffen, so wird die Beeinträchtigung der Fähigkeiten gering ausfallen, egal um welche Art es sich handelt. Wird allerdings ein großer Teil des Gehirns geschädigt, fällt auch die Beeinträchtigung größer aus.

Beide Konzeptionen waren in Teilen des 19. Jahrhunderts die jeweils vorherrschende Konzeption und befeuerten die Entwicklung der kognitiven Neurowissenschaften in die eine oder andere Richtung. Zuerst brachten Gall und Johann Caspar Spurzheim mit ihrer Lehre der Phrenologie die Idee der Lokalisation von Gehirnfunktionen zu größerer Verbreitung. Die Phrenologie, in den ersten beiden Jahrzehnten des 19. Jahrhunderts entwickelt, beruhte auf der Idee, dass das Gehirn in Bereiche aufgeteilt ist, die unterschiedliche Aufgaben erfüllen, beziehungsweise für bestimmte (Charakter-)Eigenschaften einer Person verantwortlich sind. Ist ein Gehirnbereich anatomisch besonders ausgeprägt, so ist es auch der zugehörige Teil des Körpers oder Charakters der Person. Gall und Spurzheim glaubten, dass Eigenschaften der Anatomie des Gehirns auch von außen, am Schädel einer Person, erkennbar sind. Ein stark ausgeprägter Teil des Gehirns zeigt sich durch eine Ausbuchtung des Schädels an jener Stelle, während ein wenig ausgeprägter oder gar kümmerlicher Bereich des Gehirns eine Einbuchtung im Schädel zur Folge hat. Sie erstellten eine Ordnung der verschiedenen „Geistes-Vermögen“ (Struve 1843, 25) und teilten sie in Facultés affectives, was Struve mit Sensitivität übersetzt, und Facultés intellectuelles, was Struve mit Intelligenz übersetzt, ein. Die Facultés affectives werden weiter unterteilt in Triebe und Gefühle, die Facultés intellectuelles in perzeptive und reflektive Vermögen (Struve 1843). In diese Kategorien werden dann die sogenannten phrenologischen Organe eingeordnet, wie beispielsweise Anhänglichkeit, Zerstörungstrieb und Nahrungstrieb, Sorglichkeit, Wohlwollen, Gewissenhaftigkeit und Beifallsliebe, Nachahmungstalent, Ordnungssinn und Witz, Gegenstandssinn, Tatsachensinn, Zahlensinn und noch viele weitere. Diese Organe bekommen in der Phrenologie ihren Platz am Gehirn und somit am Schädel zugewiesen, noch heute berühmt sind die Schädelmodelle mit aufgezeichneten Feldern für die Verortung der Organe. Die Ausprägungen der verschiedenen Facultés einer Person waren für den kundigen Phrenologen offen erkennbar, nicht zuletzt mit Hilfe von Messwerkzeugen. Die Phrenologie verbreitete sich rasch und wurde auch nach Galls Tod im Jahr 1828 in Nordamerika und vor allem in England von Georg Combe weiter erforscht.

Inzwischen haben die kognitiven Neurowissenschaften herausgefunden, dass kleine, idiosynkratische Unterschiede in der groben Form des Gehirns einen sehr geringen bis gar keinen Einfluss auf den Charakter einer Person haben. Das war aber nicht der einzige Fehler der Phrenologen: Die Verortung der verschiedenen Organe im Gehirn, also die Zuweisung von Funktionen zu bestimmten Gehirnarealen, basierte nicht auf wissenschaftlichen Methoden und stellte sich inzwischen als komplett falsch heraus. Ebenso wenig wissenschaftlich oder systematisch gingen Gall und seine Nachfolger bei der Auswahl und Definition der Funktionen vor, die sie den Gehirnarealen zuschrieben. (Postle 2015, 8). Gall, Spurzheim und Combe verließen sich dabei vielmehr auf ihre eigene Intuition.

Doch so sehr sie mit ihrer Definition und Verortung von Gehirnfunktionen auch auf dem Holzweg gewesen waren, hatten die Phrenologen doch die Idee der Lokalisation von Funktionen zur Sprache gebracht und verbreitet. Postle (Postle 2015, 11) beschreibt, wie zu dieser Zeit, nicht zuletzt als Antwort auf die Verbreitung der Phrenologie, Ärzte und Wissenschaftler begannen, sich in der Erforschung der Lokalisation von Funktionen zu engagieren. Dies taten sie mit Hilfe falsifizierbarer Hypothesen, die sie formulierten und dann an kontrollierten, replizierbaren Laborexperimenten testeten. Weit verbreitet war dabei die Herangehensweise, die Veränderungen im Verhalten von Versuchstieren zu analysieren, die Schäden an bestimmten Strukturen im Gehirn zugefügt bekommen hatten. Diese Art der Forschung wurde später als Teil der Neuropsychologie bekannt. Sie versucht, das Funktionieren des Gehirns dadurch zu verstehen, dass systematisch Teile des Gehirns entfernt oder inaktiviert werden und dann beobachtet wird, wie sich das Entfernen jedes Teilstücks auf das Funktionieren des Gehirns, also auf das Verhalten und die Fähigkeiten der Tiere, auswirkt (Postle 2015, 15). Einer der bekanntesten und einflussreichsten Vertreter dieser Zeit war Pierre Flourens, der bereits in den 1820er Jahren neuropsychologische Experimente an Tauben und Hunden durchführte. Seine Ergebnisse widersprachen der Phrenologie vehement. Beispielsweise konnte er durch eine Schädigung des Cerebellum eine Beeinträchtigung des Gleichgewichtsvermögens der Versuchstiere feststellen, jedoch keine des Geschlechtstriebs, wie die Phrenologie vorausgesagt hätte. Doch Flourens kam nicht nur zu dem Schluss, dass die Verortung von Funktionen, wie sie die Phrenologie vorlegte, falsch sei, er konnte auch keinen Nachweis dafür erbringen, dass Funktionen überhaupt an bestimmten Stellen im Gehirn verortet sind. Seine Versuchstiere zeigten bei einer Schädigung des Cortex zwar unweigerlich eine Störung von Verhalten, das mit Ermessen, Erinnern oder Perzeption zusammenhing. Doch diese Störungen beobachtete Flourens unabhängig davon, welcher Teil des Cortex geschädigt worden war. Daraus schloss er, dass alle Bereiche des Cortex gleichermaßen an diesen Fertigkeiten beteiligt waren. Zudem beobachtete Flourens, dass sich seine Versuchtauben, deren Cortex teilweise geschädigt worden war, oftmals wieder auf ein vor-experimentelles Verhaltensniveau erholten. Allerdings sah er keine Reparatur der geschädigten Materie vorliegen, weshalb er annahm, die intakten Teile des Gehirns hätten die zuvor gestörten Funktionen übernommen. Daraus entstand das Konzept der Equipotentiality, das besagt, dass jedes beliebige Stück Materie aus dem Cortex das Potential hat, jede Gehirnfunktion zu unterstützen. (Postle 2015, 11).

Flourens ging also davon aus, dass die phrenologische Idee der Lokalisation von Funktionen im Gehirn nicht zutreffend war, dass das Gehirn nicht in spezialisierte Areale aufgeteilt ist, sondern dass der gesamte Cortex (das cerebellum ist nach seinen Forschungen eine Ausnahme) an allen kognitiven Funktionen beteiligt ist. Flourens’ Ergebnisse basierten, im Gegensatz zu phrenologischen Lehrmeinungen, auf den wissenschaftlichen Methoden seiner Zeit, was das Pendel in der wissenschaftlichen Gemeinschaft stark in Richtung Mass Action ausschlagen ließ. Sie blieb bis in die 1860er Jahre die vorherrschende Konzeption der Neuropsychologie.

Der Umschwung zurück zur Localization-of-Functions-Idee kam langsam, entwickelte sich dann aber zur goldenen Ära der Behavioral Neurology, die bis ins 20. Jahrhundert hinein andauerte. Sie begann mit einer Häufung von einzelnen Veröffentlichungen, in denen Forscher berichteten, ihre Untersuchungen deuteten darauf hin, dass Schäden an der linken Gehirnhälfte oder Schäden an vorderen Teilen des Gehirns eine Einschränkung der Sprachfähigkeiten von Patienten zur Folge hätten. Aus der Häufung dieser Berichte heraus entstand bald die Hypothese, vordere Bereiche der linken Hemisphäre des Gehirns seien wichtig für Sprache. (Postle 2015, 16).

Solche Überlegungen an sich waren bereits ein Schritt in Richtung Lokalisation von Funktionen. Ob sie allein der vorherrschenden Mass-Action-Konzeption hätten gefährlich werden können, ist eine andere Frage. Die Diskussion um die Lokalisation von Sprache nahm jedoch an Fahrt auf mit den Veröffentlichungen des französischen Chirurgen Broca. In den 1860er Jahren veröffentlichte er eine Reihe von Berichten über seine Fallstudien am Hospital von Bicêtre in Paris. Dort beobachtete er mehrere Patienten mit Sprachstörungen, die er nach deren Tod im Hospital auch obduzieren konnte. Der bekannteste seiner Fälle ist ein Mann namens Lelong, der als „Tan“ bekannt wurde, da dies die einzige Silbe war, die er äußern konnte. Lelong hatte seit seiner Kindheit an Epilepsie gelitten und mit 30 Jahren schwere Störungen in seiner Fähigkeit zu sprechen gezeigt, zehn Jahre später begann zudem eine langsam fortschreitende rechtseitige Hemiparese. Einige Monate später behandelte Broca einen weiteren Patienten mit ähnlichen Symptomen der Sprachstörung wie Lelong. Über seine Beobachtungen an diesen beiden Patienten berichtete Broca erstmals im Jahr 1861 in den Bulletins de la société anatomique. Ihm war aufgefallen, dass es den Patienten nicht an Intelligenz fehlte, oder am Verständnis von Worten, sondern an der Fähigkeit, selbst Wörter zu produzieren. Er fand heraus, dass diese Unfähigkeit nicht an den motorischen Funktionen der Zunge oder des Sprechapparates liegen konnte, da die Patienten Zunge und Mund gut beherrschten, wenn sie Laute produzierten, die keine Worte waren. Vielmehr hatten die Patienten ihre Fähigkeit verloren, die Abfolge systematischer und koordinierter Bewegungen auszuführen, die die Silben hervorbringen, nach denen sie suchten. (Roth 2014, 13). Broca schreibt (Broca 1861, 333):

„Ce qui a péri en eux, ce n’est donc pas la faculté du langage, ce n’est pas la mémoire des mots, ce n’est pas non plus l’action des nerfs et des muscles de la phonation et de l’articulation, c’est autre chose, c’est une faculté particulière considérée par M. Bouillaud comme la faculté de coordonner les mouvements propres au langage articulé.“Footnote 1

Ohne diese Faculté ist nach Broca also keine Artikulation von Wörtern möglich. Er schließt aus seinen Beobachtungen, dass das Produzieren von Sprache klar verschieden ist vom Verständnis von Sprache, ähnlich wie bei einem Kind, das bereits viele Wörter verstehen kann, bevor es in der Lage ist, sie selbst zu verwenden. Die graduelle Perfektionierung der Sprachäußerungen bei Kindern beruht auf dem Aufbau eines Gedächtnisses, nicht für die Wörter an sich, sondern für die Bewegungen, die für die Artikulation der Wörter nötig sind. Und dieses Gedächtnis steht in keiner Verbindung zu den übrigen Erinnerungen oder der Intelligenz. Broca sieht seine Patienten in diesen Zustand vor dem Erlernen der Artikulation von Sprache zurückversetzt und nennt diesen Verlust der Sprachfähigkeit „aphémie“ (Broca 1861, 334, später setzte sich der Begriff Aphasie durch).

Bei der Dissektion von Lelongs Gehirn fand Broca eine etwa hühnereigroße Läsion in der vorderen linken Hemisphäre. Sie umfasste Teile des Frontallappens, der Insula, des corpus striatum und des vorderen oberen Temporallappens. Broca nahm an, dass die dritte vordere Hirnwindung wahrscheinlich für die Sprachfähigkeit entscheidend ist, da dieser Bereich früh von der Läsion betroffen zu sein schien und der Verlust der Sprache eines von Lelongs ersten Symptomen gewesen war. Die Dissektion des zweiten Patienten zeigte eine kleinere Läsion als die von Lelong, die vor allem die dritte untere vordere Hirnwindung betraf (heute Broca-Areal genannt). (Roth 2014, 14). Broca (Broca 1861, 356–357) hielt es aufgrund dieser beiden Ergebnisse für sehr wahrscheinlich, dass diese bestimmte Hirnwindung für die Fähigkeit zu artikulierter Sprache verantwortlich ist. Er räumte selbst ein, dass es für eine sichere Diagnose weitere Untersuchungen an mehr als seinen beiden Patienten geben müsste. Durch seine Ergebnisse sieht er jedoch Bouillauds Hypothese von der Existenz einer Faculté für die Koordination der Bewegungen für artikulierte Sprache bestätigt und sieht sie als ein wirksames Argument gegen die Annahme, dass die Sprachfähigkeit nicht an einem bestimmten Punkt im Gehirn verortet ist.

Brocas Hypothesen wurden nicht gleich von der wissenschaftlichen Gemeinschaft akzeptiert. Seine und ähnliche Ideen seiner Kollegen wurden noch jahrelang heiß diskutiert. Was Brocas Arbeit aber besonders machte, war seine für die damalige Zeit detaillierte Diskussion sowohl der Symptome der Patienten als auch der Anatomie des Gehirns in den untersuchten Regionen. Er beschränkte sich nicht auf eine grobe Beschreibung der vorderen linken Hemisphäre, sondern ging präzise auf eine bestimmte Region ein. Hinzu kommt, dass die Symptome seiner Patienten gerade den hervorstechendsten Aspekt der menschlichen Sprachfähigkeit betreffen, die Produktion von Sprache. Das macht den Verlust dieser Fähigkeit besonders interessant, nicht nur für die Forschung. Broca ging nicht nur direkt auf die wahrnehmbaren Symptome und Einschränkungen der Patienten ein. Er deckte auch auf, welche Aspekte der Sprachfähigkeit nicht betroffen waren und unterschied sie von Aspekten der Erinnerung und der Intelligenz. Schon bevor er die Dissektion der Gehirne vornehmen konnte, hatte er eine genaue Beschreibung der Krankheit und ihre möglichen Ursachen im Gehirn angestellt und eine Hypothese über die Ursachen der Einschränkungen aufgestellt. Mit dieser Vorgehensweise brachte Broca das erste (oder eines der) ersten klaren Beispiele für eine lokale Verortung einer genau umschriebenen Gehirnfunktion, die auf der Beobachtung der Patienten und anatomischer Forschung fußte. (Roth 2014, 14, 16). Neben diesen Aspekten der detaillierten und fundierten wissenschaftlichen Arbeit des Forschers Broca bringt Postle (Postle 2015, 17) einen weiteren zur Sprache, der Brocas Arbeit damals (und heute) viel Aufmerksamkeit erfahren ließ: Broca war es gelungen, eine Vorhersage zu bestätigen. Bouillaud und andere hatten vor Broca die Hypothese aufgestellt, eine Region in der linken vorderen Hemisphäre des Gehirns sei wichtig für die Sprachfähigkeit einer Person. Diese Hypothese konnte Broca eindeutig stützen. Gerade in einer Zeit, in der sich das Testen von Hypothesen als wichtiger Bestandteil wissenschaftlicher Arbeit eben etablierte, war dies sicher ein beeindruckender Erfolg für die Befürworter der Lokalisation von Funktionen.

Der Durchbruch für die Lokalisationshypothese kam dann 1874 mit der Veröffentlichung Wernickes zum aphasischen Symptomenkomplex (Wernicke 1874). Waren nach Broca noch hitzige Debatten im Gange, konnte spätestens dieser Mediziner die meisten Bedenken auch der deutschen Kritiker ausräumen. Sie waren vor allem deshalb kritisch mit Broca gewesen, da zur damaligen Zeit in Deutschland, anders als in Frankreich, die Physiologie die vorherrschende Wissenschaft zur Erforschung von Hirnfunktionen war. Roth (Roth 2014, 21) führt dies auf den großen Einfluss von Hermann Helmholtz und Johannes Müller zurück und erläutert, was physiologische Modelle ausmacht:

„Physiological models emphasized the mapping of smaller subcomponents of functions onto physiological processes, and uncovering principles of biological function through experimentation and fine-scaled measurement.“

Broca hatte die Funktion zur Artikulation von Wörtern als eine eigene Faculté beschrieben und aufgrund einer klinisch-pathologischen Korrelation dafür eine Verortung im Gehirn definiert. Befunde, die auf klinischen Korrelationen und großen psychologischen Einheiten basierten, erschienen Physiologen allerdings weniger verlässlich und ließen sich nur schwer in physiologische Begriffe übersetzen. (Roth 2014, 21). Offenbar war ihnen Brocas Arbeit zu grob. Wernicke gelang in dieser Situation ein Brückenschlag. Er präsentierte ein neues Modell der Produktion von Sprache in einer Terminologie, die sich von Brocas unterschied und eher physiologischer Natur war. Wernicke war zu jener Zeit Assistenzarzt an der Irrenstation des Allerheiligenhospitals in Breslau. In dieser Tätigkeit behandelte er eine Reihe von Patienten, die Einschränkungen ihrer Hirnfunktionen aufwiesen, die damals oft als „Verwirrtheit“ (Wernicke 1874, 39) zusammengefasst wurden, sodass sie in Wernickes Abteilung eingeliefert wurden. Nach ihrem Tod konnte er einige der Patienten obduzieren, wodurch er in der Lage war, die Beeinträchtigungen seiner Patienten mit Hirnläsionen in Verbindung zu bringen. Hinzu kommen Fälle von Kollegen, die er in seine Veröffentlichung einbezieht.

Wernicke bestätigte Brocas Einschätzungen dahingehend, dass die von Broca beschriebene Aphasie durch eine Beschädigung der motorischen Komponente für Sprache verursacht wurde, die sich im vorderen operculum oder im Broca-Areal befindet. Dieses Areal beherbergt das Gedächtnis für das Wissen, wie Wörter produziert werden. Wernicke (Wernicke 1874, 16) entdeckte aus eigener Arbeit, und der von Kollegen, dass das Broca-Areal nicht das einzige Areal sein kann, das als Sprachzentrum dient und kam so zur Definition einer weiteren, einer sensorischen Aphasie. Sie betrifft die sensorische Komponente für Sprache, die Wernicke im hinteren Teil der oberen temporalen Hirnwindungen verortete (später bekannt als das Wernicke-Areal). Dieses Areal beherbergt das Gedächtnis für das akustische Erscheinungsbild von Wörtern, also wie welche Wörter klingen. Bei der Broca-Aphasie können Patienten Wörter und Sätze, die man ihnen sagt, in der Regel gut verstehen. Sie können aber selbst keine Wörter formen, weil sie, grob gesagt, vergessen haben, wie das geht. Bei einer sensorischen Aphasie dagegen haben die Patienten vergessen, wie sich Wörter anhören. Sie erkennen Worte und Sätze nicht, die zu ihnen gesprochen werden. Sie selbst können aber Worte formulieren, ihre motorischen Fähigkeiten sind durch die sensorische Aphasie nicht eingeschränkt. Auch Geräusche, die keine Wörter sind, können sie identifizieren. Wernicke (Wernicke 1874, 40) beschreibt eine Patientin, die ihren eigenen Namen nicht erkennt und auf jeden Namen antwortet, bei dem man sie ruft. Vorgehaltene Gegenstände kann sie oft richtig benennen, aber sie versteht absolut nichts, was man ihr sagt. Das wird auch zum Problem, wenn die Patienten selbst Sätze formulieren. Im Grunde sind sie in der Lage dazu, sie besitzen einen großen Wortschatz und haben keine motorischen Einschränkungen (zumindest keine, die direkt mit der sensorischen Aphasie zusammenhängen). Jedoch hindert sie ihre eigene Unfähigkeit zum Verständnis von Sprache daran, ihre eigenen Sätze zu verstehen. Während sie selbst sprechen, verstehen sie sich nicht, sie können nicht überprüfen, was sie sagen. Das führt dazu, dass sie Wörter im Satz durcheinanderwerfen oder gar völlig neue, zum Teil unsinnige Wörter erfinden (Wernicke 1874, 42). Das macht es für Außenstehende schwer, die Patienten zu verstehen, während diese selbst ihr Sprachdefizit wenig bemerken.

Wernicke beschrieb in seinem Modell von der menschlichen Sprachfähigkeit also zwei verschiedene Sprachzentren im Gehirn. Aber auch deren Verbindung und die anderer sensorischer und motorischer Zentren untereinander erachtete er als unverzichtbare Komponente. Nach seiner Einschätzung laufen „Willensbewegungen“ (im Gegensatz zu „Reflexbewegungen“ (Wernicke 1874, 9)) folgendermaßen ab: Sinneseindrücke gelangen über die Sinnesorgane in das entsprechende sensorische Zentrum des Gehirns. Dort hinterlassen sie ein „Erinnerungsbild“ (Wernicke 1874, 10), das bei erneutem äußerem Eindruck als Reiz über Gehirnfasern in das zugehörige motorische Zentrum gelangt. Dort veranlasst diese Erregung eine Bewegung (in unserem Sprachbeispiel eine Äußerung). Auf unser Beispiel angewandt, dringen gesprochene Wörter an das Ohr, werden weitergeleitet an das Wernicke-Areal, das sensorische Zentrum für Sprache. Von dort wird der Reiz weitergeleitet an das Broca-Areal, wo eine motorische Ausgabe an die Muskeln des Mundraums und der Zunge veranlasst wird, um in Wernickes Vokabular zu bleiben. Diesen gedanklichen Bogen, den der Reiz dabei beschreibt, nannte Wernicke psychischer Reflexbogen (Wernicke 1874, 19). Diese Idee vom Reflexbogen wurde später von Behavioristen zwar kritisiert. Allerdings lieferte er eine Anleitung zur Lokalisation von Aphasien. Denn eine Beschädigung an irgendeinem der Punkte zwischen dem Eindringen des Reizes in das Ohr und der Ausgabe von Reizen über die Muskeln kann zu einer Aphasie führen. Die motorische Aphasie, bei der das motorische Zentrum beschädigt ist, hatte Broca beschrieben, Wernicke ergänzte die sensorische Aphasie bedingt durch eine Beschädigung des sensorischen Zentrums und sagte das Auftreten einer weiteren möglichen Aphasie voraus, der Leitungsaphasie. Bei dieser Form ist die Verbindung zwischen sensorischem und motorischem Zentrum gestört. Die Folgen sieht Wernicke (Wernicke 1874, 26–27) darin, dass die Patienten alles verstehen, was man ihnen sagt und auch alles sprechen können. Allerdings haben die Reize aus dem sensorischen Zentrum nur wenig oder gar keinen Einfluss auf die Bildung der motorischen Reize im motorischen Zentrum. Daher fällt es Patienten schwer, die richtigen Wörter auszuwählen, ähnlich wie bei der sensorischen Aphasie. Da bei der Leitungsaphasie das sensorische Zentrum aber funktioniert, verstehen die Patienten ihre eigenen Äußerungen und bemerken, dass sie Wörter verwechseln oder falsch gebrauchen. Das ist oft mit einigem Unmut verbunden, die Patienten beginnen den Satz von Neuem und geraten wieder ins Stocken. Sagt man ihnen verschiedene möglicherweise passende Wörter vor, können sie die richtigen auswählen. Es sollte den Patienten aber möglich sein, das, was sie sagen möchten, vorher einzuüben. Weniger stark Betroffenen fällt es im Redefluss schwer, die richtigen Worte zu finden, sie sprechen langsam und stockend mit langen Pausen. Auch beim Lesen kann es zu Schwierigkeiten kommen, vor allem bei einzelnen Buchstaben. Wernicke (Wernicke 1874, 28–29) erklärt, dass beim Erlernen des Lesens das optische Bild eines Buchstabens mit einem Klangbild verbunden wird. Bei Patienten mit einer Leitungsaphasie wird diese Verbindung nicht mehr hergestellt, wodurch die einzelnen Buchstaben nicht mehr gelesen werden können. Interessanterweise sieht Wernicke dieses Problem aber nicht für ganze Wörter. Hat eine Person flüssig lesen gelernt, so liest sie nicht die einzelnen Buchstaben und setzt sie zu einem Wort zusammen, sondern begreift das ganze Wort auf einmal. In diesem Fall „[…] wird durch das geschriebene Wort ein bestimmter Begriff in ihm [dem Patienten] lebendig, er versteht das Geschriebene und findet dafür […] wohl auch das richtige Wort.“ Später wurde diese Leitungsaphasie klinisch nachgewiesen (Roth 2014, 23).

Wernicke hatte einen anderen Ansatz, das Gehirn zu erklären als Broca. Er verband nicht nur eine einzelne Funktion mit einem bestimmten Ort im Gehirn, sondern gab einen differenzierteren Blick auf mögliche Symptome verschiedener Arten von Sprachstörungen. Seine Herangehensweise war nicht nur geschätzter unter Physiologen, sondern wird auch als Ausgangspunkt für die konnektionistische Sichtweise des Gehirns als aus spezialisierten anatomischen Zentren, Verbindungen und verzweigten Systemen bestehend angesehen. Die aus Wernickes Schule erwachsenen Konnektionisten illustrierten ihre Modelle häufig mit Diagrammen, die die funktionalen Zentren im Gehirn und ihre Verbindungen aufzeigten. Das war eine neue Methode, die Informationsflüsse im Gehirn aufzuzeigen, und damit nicht nur Auswirkungen von Läsionen erklären zu können. Auch neue, überprüfbare Hypothesen und Vorhersagen über pathologisches Verhalten aufgrund von Läsionen konnten aufgestellt werden. Insgesamt entstand ein neues Verständnis über den Zusammenhang von Gehirn und Verhalten. (Roth 2014, 25, 46).

Im Anschluss an Wernicke entstand eine Reihe von weiteren konnektionistischen Arbeiten auch zu anderen Hirnfunktionen, wie beispielsweise Hugo Karl Liepmanns Untersuchungen zu Apraxien, einer Reihe motorischer Störungen, oder Heinrich Lissauers Forschungen mit visueller Agnosie, bei der Betroffene Gegenstände und Gesichter zwar sehen, aber nicht erkennen können. Doch bereits um die Jahrhundertwende wurde immer stärkere Kritik am Konnektionismus laut, die sowohl seine neurologische als auch seine psychologische Seite betraf. Neurologe Henry Head bezeichnete die Konnektionisten als „diagram makers“ (Roth 2014, 47, zitierend Head 1926, 63), die ihre Fälle so zurechtbogen, dass sie in ihren Rahmen passten. Head war der Meinung, die Konzepte der Konnektionisten, ob motorische oder sensorische, seien zu weit gefasst, um Erklärungen liefern zu können. Roth (Roth 2014, 48) sieht den damals vorhandenen Einfluss von Head in seiner Disziplin als Grund für ein schwächer werdendes Interesse der Neurologie an konnektionistischen Ideen. Ein ähnlicher Zugpferdeffekt scheint sich auch in psychologischen Kreisen abgespielt zu haben. Sigmund Freud war kein Freund der Konnektionisten und kritisierte ihre Hypothesen als nicht zutreffend. Seine Erfahrung mit Patienten widersprach den Schlussfolgerungen von Forschern wie Ludwig Lichtheim (Roth 2014, 28). Auch Vertreter der damals populären Gestaltpsychologie argumentierten gegen konnektionistische Modelle. Ihr Augenmerk lag nicht auf der Identifikation von Funktionszentren und ihrer Verbindungen, sondern auf der Organisation des Verstandes im Sinne von Mustererkennung (Roth 2014, 48).

Vor allem aus Amerika kam Kritik von Vertretern eines radikalen Behaviorismus, der sich rasch ausbreitete. Die Behavioristen verneinten die Verlässlichkeit subjektiver Berichte. Sie sahen das Gehirn als Black Box, weshalb sie sich auf die Messung von Input und Output konzentrierten. Einzig das physikalische Verhalten und Gehirn von Probanden ist allgemein beobachtbar und daher als einzige Informationsquelle gültig. Hypothesen darüber, was sich im Gehirn abspielt, hielten die Behavioristen für wissenschaftlich unzulässig, ebenso wie Hypothesen zum Bewusstsein. Studien wie die der konditionierten Hunde des Physiologen Iwan Pavlov bestärkten auch unter Psychologen die Ansicht, dass letztlich jegliches Verhalten anhand einfacher, reflexbasierter Verhaltenselemente erklärbar sei (Baars et al. 2010, 22). Infolgedessen treten Bewusstseinsstudien und die Lokalisationshypothese im Laufe des 20. Jahrhunderts sowohl in der Psychologie als auch in der Physiologie in den Hintergrund. Die Arbeit von Wernicke und anderer Konnektionisten galt als fehlgeleitet, unwissenschaftlich und irrelevant (Roth 2014, 49).

Die Dominanz des Behaviorismus beginnt erst in den 1960er Jahren aufzuweichen, als der ursprünglich behavioral ausgebildete Neurologe Norman Geschwind die Literatur der Forschung um die Jahrhundertwende wieder aufgreift. Er sieht die Vorurteile nicht bestätigt, sondern findet detaillierte Analysen und von Verständnis zeugende Schlussfolgerungen. Vor allem Läsionsstudien prägen daraufhin seine eigene Forschung. Seine neue Begeisterung für den Konnektionismus teilt er in Veröffentlichungen (vor allem Geschwind 1965), was nicht nur den Konnektionismus, sondern auch die Lokalisationsidee sowie die Bewusstseinsforschung im Allgemeinen wieder in das Bewusstsein der Neurologen und Psychologen brachte. Allerdings dauerte es noch weitere zehn bis zwanzig Jahre, bis die Enttäuschung der Forscher mit dem radikalen Behaviorismus soweit gediehen war, dass sie in ihrer Arbeit neue Wege einschlugen.

4.2 Ziele der kognitiven Neurowissenschaften

Im vorangegangenen Abschnitt 4.1 haben wir einen kurzen Überblick darüber gewonnen, welche Fragen die kognitiven Neurowissenschaften und ihre Vorgänger beschäftigen und welche Konzeptionen nicht nur in der Geschichte von großer Bedeutung waren, sondern auch heute noch die Forschung anleiten und zu neuen Fragen inspirieren. Nun werfen wir in diesem Abschnitt 4.2 einen Blick auf die gegenwärtige Arbeit der kognitiven Neurowissenschaftler. Was wollen sie mit ihrer Forschung erreichen, nach welcher Art von Modellen suchen sie? Wir werden feststellen, dass sich die Modelle stark unterscheiden im Hinblick auf das Gebiet der kognitiven Neurowissenschaften, das sie beschreiben, sowie auf ihre Abstraktion und ihren Auflösungsgrad, also auf welcher Ebene sie das Gehirn und seine Arbeit untersuchen – von einzelnen Synapsen bis zum gesamten Gehirn. Das liegt nicht zuletzt an der Vielseitigkeit der kognitiven Neurowissenschaften, die einen generellen Umriss mit einem universellen Modell schwierig macht. Um zu verstehen, welche Konzeption heute, nach wechselvollen zwei Jahrhunderten, die vorherrschende ist und welche Ziele sich die Forscher unterschiedlicher Forschungsschwerpunkte setzen, werden wir uns nach einer kurzen Einführung zwei Forschungsfelder ansehen, Gedächtnis und Emotionen, sowie zwei aktuelle Großprojekte, das Human Brain Project und die BRAIN Initiative, mit je ihren Fragen und Zielen. Unter den unzähligen neurowissenschaftlichen Forschungsprojekten lässt sich vermutlich an solch umfangreichen am ehesten erkennen, welche Modelle die modernen Neurowissenschaften suchen und welche die heutigen großen Fragen sind.

Nachdem der Behaviorismus für große Strecken des 20. Jahrhunderts die vorherrschende Konzeption in Psychologie und Physiologie war, begann sich in den 1970er Jahren eine gewisse Enttäuschung unter den Forschern breit zu machen. Sicherlich haben Behavioristen wie Burrhus Frederic Skinner mit ihrer Arbeit neue Erkenntnisse hervorgebracht. Doch bestimmte Fragen blieben mit behavioristischen Mitteln weiterhin ungeklärt. Antworten auf Fragen beispielsweise zu Gedächtnis, Vorstellung, Unterbewusstsein und generell des Bewusstseins wurden innerhalb der Black Box vermutet, die das menschliche Gehirn im Behaviorismus darstellte. Trotz aller propagierter Unwissenschaftlichkeit von Bewusstseinsfragen und unbeobachtbarer Abläufe wollten einige Forscher doch die Black Box öffnen. Sie waren nicht der Meinung, dass Bewusstsein ohne Funktion oder bewusste Entscheidungen eine Illusion seien. Heute beschäftigen sich kognitive Psychologen wieder mit Bewusstsein, Unterbewusstsein, Gedächtnis, Vorstellung und vielem mehr. Beim Lesen von Texten zur Geschichte der Kognitionswissenschaften bekommt man beinahe das Gefühl, es herrsche eine Stimmung von Befreiung. Der Psychologe Allan Hobson (Hobson 2009, xi) fasst die Situation in bildhaften Worten zusammen:

„Suddenly it is spring. We have survived the long winter of behaviourism. We have tripped over the traces of reflexology. We are about to walk out the long shadow of psychoanalysis. This, surely, is cause for celebration. Consciousness, like sleep, is of the Brain, by the Brain, and for the Brain. A new day is dawning.“

Sicherlich, meint auch Hobson (Hobson 2009, xii), sind die Methoden des Behaviorismus nicht ganz vergessen, aber sie sind nun nicht mehr der begrenzende Horizont der Forschung. Ein Grund für den neuen Enthusiasmus für die Vorgänge im Gehirn ist sicherlich auch die Erfindung und starke technische Weiterentwicklung von bildgebenden Verfahren (s. Abschn. 4.3). Längst sind vor allem in Amerika nicht mehr nur medizinische Zentren mit fMRTs oder EEGs ausgestattet, doch noch vor dreißig Jahren war die Werteausgabe einer EEG-Untersuchung eine Nadellinie auf einer Papierrolle. Durch den Einsatz von Computertechnik wurde ein großer Schritt zur Verfügbarkeit und Vereinfachung von kognitiven Experimenten getan. Diese neue Quelle für Informationen und Daten schafft neue Möglichkeiten für Forschung, die vielseitig genutzt werden.

Zu Beginn dieses Kapitels haben wir gesehen, wie viele Begriffe unter das neurowissenschaftliche Verständnis von Kognition fallen: Wahrnehmung, Aufmerksamkeit, Sprache, Denken, Vorstellung, Gedächtnis, Handeln, Reagieren, Motorik. Zu allen diesen Gebieten gibt es Forschungen, was eine Vorstellung davon gibt, wie vielseitig die Arbeiten der Neurowissenschaftler sind und welch breites Feld sie bearbeiten. Zusätzlich gibt es unterschiedliche Ebenen der Untersuchung. Manche Fragen beschäftigen sich mit der Funktionsweise von Synapsen, oder auch nur einzelner Botenstoffe. Andere untersuchen axonale Verbindungen zwischen Neuronen und wieder andere die Lokalisation von Funktionen in ganzen Verbünden von Neuronen. Dann gibt es Fragen zur Arbeit des gesamten Gehirns, oder zum gesamten Prozess von der Reizaufnahme bis zur Reaktionsausgabe. Auf all diesen Ebenen werden die verschiedenen Aspekte von Kognition untersucht. Das bringt eine diverse Priorisierung von Fragen mit sich. Das heißt, welche Frage genau die große, zentrale, spannende Frage der kognitiven Neurowissenschaften ist, sieht jeder Forschende anders, je nachdem, aus welchem Forschungsfeld er stammt. Das macht eine Abgrenzung der einzelnen Aspekte von Kognition, wie Gedächtnis oder Vorstellung, schwierig. Kognitive Neurowissenschaftler suchen nicht nach dem einen einheitlichen Modell, das die Kognitionsleistungen des Gehirns beschreiben könnte, weil das, zumindest im Moment, nicht möglich ist. Vielmehr werden auf den verschiedenen Ebenen der Forschung eigene Modell erstellt, deren Qualität und Stärke durch die verschiedenen Reifestufen der einzelnen Gebiete bedingt sind.

Was sie aber alle eint, ist die wissenschaftliche Vorgehensweise, falsifizierbare Hypothesen aufzustellen und diese in Experimenten zu prüfen. Beispiele für Forschungsfragen und Experimente, wie sie in den kognitiven Neurowissenschaften auch für die neuroökonomische Arbeit Anwendung finden, werden wir in Kapitel 5 betrachten.

Aufgrund der Breite des Forschungsgebietes und der Tiefe der möglichen Ebenen lässt sich ein einheitliches Ziel aller kognitiven Neurowissenschaftler also nicht beschreiben. Wir können aber einzelne Forschungsfelder betrachten, die in den kognitiven Neurowissenschaften derzeit bearbeitet werden, und auf diese Weise neurowissenschaftliche Fragen und Ziele nachvollziehen. Die Anzahl der Bearbeitungsgebiete ist immens, an dieser Stelle können wir nicht alles abdecken. Daher beschränken wir uns auf zwei Forschungsfelder, die auch für die neuroökonomische Forschung relevant sind. Dabei geht es um Gedächtnis, das eng mit Lernprozessen zusammenhängt, und um Emotionen. In Kapitel 5 werden wir neuroökonomische Experimente betrachten, die sich mit diesen Themen beschäftigen.

4.2.1 Gedächtnis

Das Gedächtnis ist kein einheitliches Objekt, für das Gedächtnis und das mit ihm verknüpfte Lernen sind mehrere Systeme zuständig. Die Aufgabe der Funktion Gedächtnis ist nicht so nebensächlich, wie man meinen könnte, sondern erfüllt elementare Voraussetzungen für das tägliche (Über-)Leben eines Individuums. Auch beim Gedächtnis werden bewusste von unbewussten Prozessen unterschieden. Postle (Postle 2015, 306) betont die Wichtigkeit der Gedächtnisleistungen für unser Leben und unsere Identität:

„At the conscious level, it [memory, Anm. von mir] creates our sense of identity, and provides the soothing, subjectively continuous internal narrative that enables us to go about our business without constantly stopping to ask ’Why am I here? What was I doing 5 minutes ago?’ At an unconscious level, it shapes our habits, our proclivities and dispositions, and makes us who we are.“

Nicht ohne Grund fühlen sich Patienten mit retrograder Amnesie ihrer Identität beraubt, während Patienten mit anterograder AmnesieFootnote 2 häufig berichten, sie fühlten sich, als seien sie gerade aus einem Traum erwacht und hätten keine Ahnung, wo sie sind, wie sie an diesen Ort kommen, oder was sie hier tun (Postle 2015, 292). Ohne Gedächtnis gibt es also kein eigenes Identitätsbewusstsein und auch nicht Postles Internal Narrative, das uns den Weg weist. Ohne Gedächtnis ist auch das Lernen nicht möglich, denn zumindest Fakten und Ereignisse, die eines bewussten Wiederaufrufens bedürfen, sind dann verloren und können nicht als Referenz für ähnliche zukünftige Ereignisse dienen.

Neuroökonomen interessieren sich für Gedächtnis und Lernen, weil es unsere Art, Entscheidungen zu treffen, beeinflusst. In einem ökonomischen Spiel, das über mehrere Runden gespielt wird, sind die Spieler nach Runde 100 erfahrener als bei Runde 1. Die Informationen über das eigene Verhalten, das Verhalten der Mitspieler und die Auswirkungen der jeweiligen Handlungen werden im Gedächtnis gespeichert. Sie dienen bei weiteren Spielrunden als Entscheidungshilfe, sei es für eine Tit-for-Tat-Strategie oder um beispielsweise auf die sozialen Präferenzen des anderen Spielers zu reagieren. Nehmen wir als Beispiel das Ultimatumspiel: Spieler 1, der das Angebot an Spieler 2 abgibt, wird im Laufe mehrerer Spielrunden Informationen darüber sammeln, welche Angebote Spieler 2 annimmt oder ablehnt. Als erfolgreicher Spieler sollte Spieler 1 aus diesen Informationen ableiten, welche Angebote er in Zukunft machen sollte, um am Ende nicht leer auszugehen. Spieler 2 wiederum sammelt Informationen darüber, welche Angebote Spieler 1 macht und welche Reaktion das eigene Ablehnen oder Annehmen der Angebote in der nächsten Runde zur Folge hat. Macht Spieler 1 in Runde 2 ein besseres Angebot, wenn Spieler 2 das Angebot aus Runde 1 abgelehnt hat? Lassen wir die beiden Spieler nach 10 Runden die Rollen tauschen. Vielleicht wird ein fair bedachter Spieler 2 aus den ersten 10 Spielrunden nun auch gleich ein faires Angebot an den Mitspieler machen. Dazu braucht es wieder die Informationen aus dem Gedächtnis, die im Laufe der kommenden Spielrunden auch als Grundlage für das Erlernen einer eigenen Angebotsstrategie dienen werden. Gedächtnis- und Lernleistungen werden auch bei Spielen wie beispielsweise dem Trust Game oder den Experimenten von Smith aus Kapitel 3 abgefragt. Gedächtnis und Lernleistung sind also wichtige Faktoren beim Treffen von Entscheidungen. Wer schneller lernt, könnte im Vorteil sein und auch, woran sich die Spieler genau erinnern, ist wichtig. Erinnert sich Spieler 2 in der 11. Runde des Ultimatumspiels vor allem an die großzügigen Angebote von Spieler 1 aus den vorherigen Runden, könnte Spieler 2 selbst gute Angebote machen. Sind jedoch vor allem die niedrigen Angebote im Gedächtnis geblieben, könnte Spieler 2 nun vor allem niedrige Angebote vorlegen.

Derzeit sind Gedächtnis und Lernen Gegenstand intensiver neurowissenschaftlicher Forschung, die diverse und nicht nur kompatible Antworten hervorbringt. Im Laufe der vergangenen Jahre haben sich dabei auch neue Fragen aufgetan, die sich zu eigenen Forschungsfeldern entwickelten: In den 1950er Jahren machte die Gedächtnisforschung einen großen Sprung mit dem Fall des Patienten Henry Molaison aus den USA. Er hatte im Alter von fünfzehn Jahren einen ersten epileptischen Grand-Mal-AnfallFootnote 3. In den darauffolgenden Jahren verschlechterte sich sein Zustand stark, sodass er mit 27 Jahren das Haus nicht mehr verlassen konnte. Nachdem alle anderen Therapien ausgeschöpft waren, ohne dass sich eine Besserung gezeigt hätte, schlug ihm ein Neurochirurg die Entfernung seines Hippocampus vor, da dieser Teil des Gehirns damals als das am stärksten epileptogene Gewebe im Gehirn bekannt war. Molaison willigte ein und tatsächlich besserte sich seine Epilepsie erheblich, jedoch verlor er die Fähigkeit, sich für den Rest seines Lebens bewusst an irgendetwas zu erinnern, was er von dieser Zeit an bis zu seinem Tod erlebt hat. (Postle 2015, 288).

Molaison litt nach dieser Operation an anterograder Amnesie. Zwar erlitt er ebenfalls eine retrograde Amnesie, allerdings beschränkte diese sich auf wenige Jahre vor der Operation. Er wusste also, wer er war und erkannte die Personen, Orte und Abläufe, die er auch bis zu diesen paar Jahren vor der Operation gekannt hatte. Sein Problem bestand darin, dass er alle Ereignisse und Fakten, die er vom Tag der Operation an aufnahm, in unregelmäßigen Abständen dauerhaft vergaß. Dabei ging es ausschließlich um Ereignisse und Fakten, die bewusst wieder hervorgeholt werden mussten. Dagegen war Molaison in der Lage, neue Fertigkeiten und Gewohnheiten zu erlernen, die keiner bewussten Erinnerung bedürfen. (Postle 2015, 289). Dabei hatte er immer wieder das Gefühl, gerade erst aus einem Traum erwacht zu sein, sodass er sich nicht erinnern konnte, was er gerade getan hatte, oder wohin er gehen wollte. Er musste sich in seiner Umwelt ständig neu orientieren. Dieser Vergleich mit dem Erwachen aus einem Traum wurde auch von anderen Patienten mit anterograder Amnesie gezogen. Ein weiterer bekannter Patient ist der britische Musikwissenschaftler Clive Wearing, dessen Hippocampus durch eine Herpes Enzephalitis geschädigt worden war. Er beschrieb sich als ständig verwirrt und wie gerade aus einem Traum erwacht. Er führte über seine Gedanken Tagebuch, in das er immer wieder dieselben Eintragungen schrieb: „10:49 am I am totally awake – first time“, und direkt darunter, „11:05 am I am perfectly awake – first time“, und so weiter. Immer im Abstand von 5 bis 45 Minuten vergisst er alles Vorangegangene und fühlt sich wieder wie gerade erwacht. (Postle 2015, 292).

Die Erkenntnisse aus der Arbeit mit Patienten wie Molaison und Wearing gaben ihren Ärzten nicht nur Hinweise darauf, wie der Hippocampus in die Gedächtnisleistung des Gehirns eingebunden ist. Sie erlaubten auch die Skizzierung der Funktion Gedächtnis und ihrer Prozesse. Grob wird zwischen Kurzzeitgedächtnis/Arbeitsgedächtnis und Langzeitgedächtnis unterschieden, die unterschiedlich strukturiert werden. Im Gegensatz zum Langzeitgedächtnis erfüllt das Arbeitsgedächtnis die Aufgabe, Informationen kurzzeitig zu speichern und zu verarbeiten. Das gängigste Modell des Arbeitsgedächtnis, das modulare Arbeitsgedächtnismodell, stammt von Alan Baddeley und Graham Hitch aus den 1970er Jahren. Es unterscheidet in seiner Grundform drei Haupteinheiten, die für das Kurzzeitgedächtnis zusammenarbeiten (Hart 2016, 149): Die zentrale Exekutive (Central Executive) und die beiden Untersysteme visuell-räumlicher Notizblock (Visuospatial Sketchpad) und die phonologische Schleife (Phonological Loop).Footnote 4 Der visuell-räumliche Notizblock verarbeitet eingehende visuelle Wahrnehmungen, während die phonologische Schleife akustische (auch sprachbasierte) Informationen verarbeitet. Beide Untersysteme haben die Aufgabe, die eingehenden Informationen, die im Kurzzeitgedächtnis aufbewahrt werden sollen, immer wieder zu wiederholen (Rehearsal), um den Inhalt zugänglich zu erhalten und nicht zu verlieren. Dazu werden sie auch in einem Speicher abgelegt. Allerdings nur für die kurze Zeit von wenigen Sekunden, dann ist der Inhalt meist verloren. Die zentrale Exekutive kontrolliert die beiden Untersysteme und greift bei Bedarf auf die gespeicherten Informationen zurück. Ein gängiges Beispiel ist eine Situation, in der man am Telefon beispielsweise eine andere Telefonnummer diktiert bekommt und sie dann im Kurzzeitgedächtnis behalten muss, bis Stift und Papier bei der Hand sind, oder man die Nummer nach Beenden des Gesprächs gleich in das Telefon eingibt. In diesem Fall wird im modularen Arbeitsgedächtnismodell die Telefonnummer von der phonologischen Schleife empfangen und immer wiederholt, damit sie nicht vergessen wird. Wenn Stift und Papier oder das Telefon parat sind, greift die zentrale Exekutive auf die gespeicherte Nummer zurück und leitet die Informationen an die an der folgenden Handlung beteiligten Module weiter. Je besser das Arbeitsgedächtnis Informationen verarbeiten kann, desto länger oder genauer stehen sie dem Individuum zur Verfügung. Ein häufig genutzter Test zur Messung der Leistungsfähigkeit des Arbeitsgedächtnisses von Personen ist der Digit Span Test. Bei diesem Test werden der Versuchsperson Ziffern vorgelesen mit einer Geschwindigkeit von einer Ziffer pro Sekunde. Am Ende einer Ziffernreihe werden die Versuchspersonen gebeten, die Ziffern vorwärts zu wiederholen. Die längste Ziffernreihe, die die Person fehlerfrei wiederholen kann, ist ihre Forward Span und gilt als Maß für ihre Fähigkeit, Informationen zu erfassen. In einem zweiten Teil des Digit Span Test bekommen die Versuchspersonen wieder Ziffern vorgelesen, diesmal sollen sie die Reihe jedoch rückwärts wiedergeben. Die längste Reihe in diesem Durchgang ist die Backward Span der Versuchsperson und gibt Auskunft über ihre Fähigkeit, Informationen zu verarbeiten. (Hart 2016, 149) Denn in diesem zweiten Teil des Tests müssen die Informationen nicht nur gespeichert und wieder zur Verfügung gestellt werden, sondern auch manipuliert. Die erste Ziffer, die schon am längsten im Speicher liegt, sollte auch zuerst den Speicher wieder verlassen, um eine zu lange Liegedauer zu verhindern, während derer sie verloren gehen könnte. In diesem Fall allerdings sind die ersten Ziffern nicht nur die ersten, die im Speicher abgelegt werden, sondern auch die letzten, die ihn wieder verlassen.

Versuche mit fMRT-Geräten legen nahe, dass bei den Aufgaben des Arbeitsgedächtnisses der dorsolaterale präfrontale Kortex eine Schlüsselrolle spielt. Zusätzliche Läsionsstudien lassen die Beteiligung von Hirnregionen wie dem oberen Peritallappen oder dem ventrolateralen präfrontalen Kortex nicht ausschließen. Die genauen Zusammenhänge sind noch Gegenstand der aktuellen Forschung.Footnote 5

Auch die Forschungen darüber, wie genau der Hippocampus das Langzeitgedächtnis beeinflusst oder welche anderen Hirnregionen außerdem welche Aufgaben genau erfüllen, sind noch nicht abgeschlossen. Beim Langzeitgedächtnis werden zwei Formen unterschieden: Das deklarative und das nondeklarative Gedächtnis. Beide sind für unterschiedliche Bereiche zuständig. Das deklarative Gedächtnis, auch Explicit Memory genannt, kommt bei Aufzeichnungen von Fakten und Ereignissen zum Einsatz, die bewusst zugänglich sind. Im Gegensatz dazu umfasst das nondeklarative Gedächtnis, auch Implicit Memory genannt, jedes Beispiel erfahrungsbasierter Plastizität (diesen Begriff werden wir weiter unten genauer betrachten), die das Verhalten eines Individuums auf eine Art beeinflusst, die nicht notwendigerweise eine bewusste Zugänglichkeit verlangt, um zum Ausdruck zu kommen. Darunter fallen beispielsweise Konditionierung oder motorisches Lernen. (Postle 2015, 290). Wenn ich also meine Heimatadresse oder den Geburtstag meiner Mutter aufsagen soll, benötige ich dafür das deklarative Gedächtnis, da diese Informationen in dem Moment bewusst abgerufen werden. Wenn aber beispielsweise ein Pianist ein schwieriges Stück mit vielen Läufen einübt, wird sein Gehirn die Fingerbewegungen, die für die schnellen Tonabfolgen benötigt werden, im nondeklarativen Gedächtnis ablegen. Denn sie werden nicht bei jedem Spielen bewusst abgerufen, sondern sind Teil des motorischen Lernens, sodass die einzelnen Finger ab einem gewissen Übungsstand nicht mehr einzeln bewusst an die richtigen Stellen bewegt werden müssen. Einmal angeschoben, wird der Vorgang wiedererkannt und automatisch wiedergegeben.

Beide Seiten des Langzeitgedächtnis liefern schematisch die gleichen Prozessschritte: Ihre Aufgaben sind Encoding, Storage und Retrieval von Informationen, wobei Encoding bedeutet, dass die eingehenden Informationen so verarbeitet werden, dass sie später wieder erinnert werden können. Alle drei Prozesse funktionieren über unterschiedliche Signale, die über unterschiedliche Synapsentätigkeiten zwischen den Neuronen weitergegeben werden. Glimcher fasst das zusammen (Glimcher 2014b, 74):

„The biochemical mechanism by which information is stored in the nervous system over periods of days or longer is a process of synaptic modification. If one thinks of the passage of an action potential from one neuron to another as a transfer function, memories are encoded through changes in those transfer functions.“

Was Glimcher hier erläutert, beruht auf dem Prinzip der Hebbschen Plastizität, nach dem Psychologen Donald Hebb benannt, der sie 1949 als Erster beschrieb (Hebb 1949). Hebbs Hypothese (Hebb 1949, 62) lautete:

When an axon of cell A is near enough to excite a cell B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A’s efficiency, as one of the cells firing B, is increased.

Die Stärke der synaptischen Übertragung kann sich also verändern. In den 1960er und 1970er Jahren konnte diese Hypothese auch mit empirischer Evidenz unterlegt werden. Seither werden mehrere Arten von Aktivitäten unterschieden. Es wurde entdeckt, dass Synapsen nicht nur kurzzeitige Aktivierungen übertragen können, sondern auch Langzeit-Potenzierungen (long-term Potentiation, LTP) auftreten, ebenso Langzeit-Depressionen (long-term Depression, LTD). Bei beiden Effekten wird die Synapse zwischen zwei Zellen im Vergleich zum kurzen Aktionspotenzial gestärkt. Werfen wir einen kurzen Blick auf diesen Plastizitätsprozess, ohne auf die biochemischen Details einzugehen: Postle (Postle 2015, 295–298) beschreibt NMDA-Rezeptoren (eine Form der Glutamatrezeptoren an Zellmembranen) als anschauliches Beispiel, wie Plastizität und Erinnerung zusammenhängen. NMDA-Rezeptoren haben die Eigenschaft, nur dann aktiviert werden zu können, wenn zwei Ereignisse gemeinsam auftreten. Erstens die Freisetzung von Glutamat durch das präsynaptische Terminal der Synapse, die gestärkt werden soll, und zweitens eine vorangegangene Depolarisation des postsynaptischen Terminals. Also nur bei einer vorangegangenen Aktivierung der postsynaptischen Zelle kann der NMDA-Rezeptor aktiviert werden. Wie dies mit dem Gedächtnis zusammenhängt, erläutert Postle anhand der Pavlovschen Hunde: Wird den Hunden Futter vorgesetzt, werden olfaktorische Neuronen der Tiere aktiviert, was wiederum Neuronen aktiviert, die für die Verdauung verantwortlich sind. Dies liefert die benötigte Depolarisation für die NMDA-Rezeptoren. Wenn nun während dieser Zeit zusätzlich die berühmte Glocke geläutet wird, setzen auditive Neuronen Glutamat in den synaptischen Spalt frei. Darunter sind auch Synapsen, die sie mit digestiven Neuronen verbinden. Dort aktiviert das Glutamat die NMDA-Rezeptoren. Diese Aktivierung, vor allem wiederholt, kann Langzeit-Potenzierungen auslösen. Das heißt, beim zukünftigen Erklingen der Glocke werden die nun gestärkten Synapsen zwischen auditiven und digestiven Neuronen feuern und so in den Hunden die Erinnerung an Futter hervorrufen.

Die genauen Abläufe bei Langzeitpotenzierungen sind Gegenstand der aktuellen Gedächtnisforschung. Es bleiben noch Fragen nach der genauen notwendigen chemischen Zusammensetzung, um LTPs auszulösen, oder welche prä- und postsynaptischen Veränderungen ihnen zugrunde liegen und viele weitere.Footnote 6

4.2.2 Emotionen

Der zweite Forschungsbereich der kognitiven Neurowissenschaften, den wir betrachten wollen, sind Emotionen. Die Erforschung der neuronalen Basis von Emotionen erstreckt sich über ein breites Feld an Fragen und wird von einer eigenen Untergruppe der kognitiven Neurowissenschaften bearbeitet, den affektiven Neurowissenschaften. Auch in diesem Bereich wurde in den vergangenen dreißig Jahren, vor allem durch die Entwicklung der bildgebenden Instrumente, einiger Fortschritt erzielt. Allerdings sind auch hier noch viele Fragen offen und neue Erkenntnisse werfen wieder neue Fragen auf. Die Kontroverse beginnt bereits beim neurowissenschaftlichen Verständnis von Emotionen. Postle (Postle 2015, 491) berichtet, dass seit einigen Jahren Neurowissenschaftler die Ansicht vertreten, Emotionen, neurowissenschaftlich betrachtet, seien nicht zu verwechseln mit der subjektiven Erfahrung von Emotion im Individuum, was mit Begriffen einhergeht wie Angst, Eifersucht, Freude, und vielen mehr. Im neurowissenschaftlichen Sinn sollten Emotionen vielmehr als eine Art Überlebenshilfen gedacht werden. Sie sollen dafür sorgen, dass Funktionen und Abläufe wie Verteidigung, Nahrungsaufnahme, Flüssigkeitshaushalt, Thermoregulierung oder Reproduktion reibungslos ablaufen, beziehungsweise zur richtigen Zeit in Gang gebracht werden. Für diese Klassifizierung sind vor allem Arbeiten mit nicht-menschlichen Tieren interessant, die beispielsweise Vergleiche zulassen können, welche Funktionen anderer Säugetiere auch im menschlichen Gehirn zu finden sind.

Die Erforschung von Emotionen erstreckt sich über mehrere Prozesse, von der Aufnahme emotionaler Stimuli über die Kontrolle ihrer Verarbeitung bis hin zu ihrer Auswirkung auf die mentale Gesundheit eines Individuums. Relativ gut bearbeitet ist beispielsweise die Erforschung von Angst. Der experimentelle Psychologe Heinrich Klüver und der Neurochirurg Paul Bucy hatten in den 1930er Jahren Experimente mit nicht-menschlichen Primaten durchgeführt, denen der Temporallappen einschließlich der Amygdala entfernt worden war. Diese und spätere Studien, vor allem seit den 1980er Jahren, legen nahe, dass die Amygdala bei der Verarbeitung von Angststimuli eine große Rolle spielt. Offenbar wurden vor allem Experimente mit Angstkonditionierungen durchgeführt. Ähnlich wie bei den Pavlovschen Hunden werden hier ein unkonditionierter Stimulus (US) und ein konditionierter Stimulus (CS) miteinander verbunden, bis die Probanden eine Assoziation zwischen beiden aufgebaut haben. Der US ist dabei der ursprüngliche Angstauslöser, beispielsweise ein Elektroschock. Der CS ist ein davon ursprünglich unabhängiger Reiz wie beispielsweise ein bestimmter Ton oder ein Lichtschein. Nach der Konditionierung zeigen die Probanden Angstreaktionen bereits bei der Perzeption des CS allein. Aus Erkenntnissen aus solchen und weiteren Experimenten entstand ein schematisches Diagramm der Arbeit der Amygdala und anderer Hirnregionen bei der Aufnahme und Verarbeitung von CS (Postle 2015, 483). Der eingehende CS wird vom sensorischen Thalamus erfasst und an die Amygdala weitergeleitet. Dort wird er in verschiedenen Zentren verarbeitet und unter anderem an evolutionär ältere Ebenen weitergeleitet, die interne körperliche Reaktionen auslösen: an das zentrale Höhlengrau, das ein Erstarren des Individuums auslöst, sowie an den lateralen Hypothalamus, der das vegetative Nervensystem aktiviert, und an den paraventrikularen Nukleus des Hypothalamus, der adäquate Hormone produzieren lässt. Außerdem leitet die Amygdala Reize an das ventrale Striatum weiter, das motorische Reaktionen in Gang setzt. Das sind kontextabhängige Handlungen, die ein Zusammentreffen mit der Bedrohung verhindern, beziehungsweise eine angemessene Verteidigungsreaktion hervorbringen sollen.Footnote 7

Eine auch für den neuroökonomischen Kontext interessante Aufgabe der Amygdala scheint es zu sein, eine schnelle und unbewusste Beurteilung darüber abzugeben, ob ein bestimmtes Gesicht vertrauenswürdig erscheint. In einer Studie (Postle 2015, 478) wurden drei Probanden mit beidseitiger Amygdala-Läsion gebeten, anhand ihnen vorgelegter Fotos ein Urteil darüber abzugeben, ob sie die abgebildeten Personen für vertrauenswürdig hielten. Als Kontrolle dienten die Einschätzungen der selben Gesichter durch eine Gruppe gesunder Probanden. Die drei Amygdala-Patienten neigten dazu, alle vorgelegten Gesichter als vertrauensvoll einzustufen, sogar die 50, die von der Kontrollgruppe als die am wenigsten vertrauenswürdig Erscheinenden eingeschätzt worden waren. Diese Ergebnisse galten aber lediglich für den Durchlauf des Experiments, bei dem den Probanden Fotos vorgelegt worden waren. Bei einem zweiten Durchlauf wurden keine visuellen Stimuli genutzt, die Probanden sollten diesmal anhand ihnen vorgelesener Beschreibungen verschiedener Individuen entscheiden. Hier unterschieden sich die Ergebnisse kaum von denen der Kontrollgruppe. Obwohl die Amygdala nicht zum benachbart gelegenen visuellen System gezählt wird, scheint die Beeinträchtigung der Amygdala-Patienten mit dem visuellen Stimulus zusammenzuhängen. Ralph Adolfs, Daniel Tranel und Antonio Damasio, die Autoren der Studie, kamen daher zu dem Schluss, dass die Amygdala notwendig dafür zu sein scheint, das Hervorholen von Informationen auszulösen, die auf Basis früherer sozialer Erfahrungen bezüglich Klassen von Gesichtern beruhen.

Spätere fMRT-Studien ergaben, dass die Stärke der Amygdala-Aktivität als Antwort auf visuelle Stimulation durch Fotos von Gesichtern mit der Einschätzung der Vertrauenswürdigkeit jedes Gesichtes korrespondiert. Bei einer dieser Studien (Postle 2015, 480) wurde den Probanden gesagt, sie nähmen an einer Studie zum Gesichtsgedächtnis teil. Erst nachdem sie im fMRT-Scanner die Fotos von Gesichtern vorgelegt bekommen hatten, wurden sie nach ihrer Einschätzung zur Vertrauenswürdigkeit der abgebildeten Personen befragt. Ein Vergleich mit der Amygdala-Aktivität während des Scanvorgangs, bei dem die Vertrauenswürdigkeit keine Rolle spielte, zeigte, dass die spätere Einschätzung mit der früheren Aktivität zusammenhing. Diese Erkenntnis wird als Hinweis darauf gedeutet, dass die Amygdala ihre Einschätzung unbemerkt vom Individuum vornimmt. Die Probanden im Scanner formten nicht bewusst ein Bild von der Vertrauenswürdigkeit der fotographierten Person. Die Amygdala scheint ihre spätere Einschätzung aber bereits vorgenommen zu haben. Eine weitere Studie (Postle 2015, 481), die sich mit der Stereotypisierung verschiedener ethnischer Gruppen beschäftigte, kam zudem zu dem Schluss, dass die schnellen, impliziten Einschätzungen der Amygdala gelernt, und nicht festgefahren, sind.

Trotz aller Fortschritte ist die Aufgabe und die Interaktion der Amygdala mit anderen Hirnregionen noch nicht vollständig erforscht. Es gibt noch einige offene Fragen darüber, welche Rolle sie tatsächlich spielt, auch bei der Verarbeitung anderer Stimuli und Emotionen. Generell sind die Emotionen ein weites Forschungsfeld, an dem derzeit weitergearbeitet wird.

Auch an der Erforschung von sozialem Verhalten wird derzeit gearbeitet. Dazu gehört die große Frage nach den neuronalen Grundlagen für eine Theory of Mind (ToM), oder wie wir unser Verhalten an eine Gruppe anpassen, unsere Handlungen kontrollieren oder von anderen Individuen lernen. Auch die Frage nach moralischen Urteilen gehört in dieses Themengebiet. Wie moralische Entscheidungen in unserem Gehirn umgesetzt werden, ist auch interessant für Neuroökonomen, vor allem bei der Untersuchung sozialer Präferenzen. Denn nicht selten ist die Grundlage für ihre Ausprägung ein individuelles Bild von Moralität.

Die Fähigkeit zu moralischen Urteilen tritt gewöhnlich im Alter von 6 bis 7 Jahren hervor, ihre neuronalen Grundlagen sind noch nicht genau erforscht. In einer TMS-Studie (Postle 2015, 462–464) wurde der Zusammenhang von moralischen Urteilen mit dem rechten temporoparietalen Übergang untersucht (dieser war schon früher im Zusammenhang mit ToM-Funktionen aufgefallen). In dieser Studie bekamen die Probanden verschiedene Geschichten zu hören, die nach dem gleichen Schema abliefen: Informationen über den Kontext, Andeutungen/Vorausahnungen, Intention und Handlung. Die Intentionen der Protagonisten unterschieden sich in den Geschichten, sie konnten bösartig oder neutral sein, ebenso wie der Ausgang der Geschichten, den der Empfänger der Handlung zu erleiden hatte, es konnte ein Leid zugefügt werden oder glimpflich ausgehen. Die Probanden sollten sich die Geschichten anhören und dann ein Urteil darüber abgeben, ob die Handlung moralisch erlaubt war oder nicht. Während sie das taten, wurden ihre rechten temporoparietalen Übergänge mit einer TMS-Schleife manipuliert, sodass eine temporäre virtuelle Läsion entstand.Footnote 8 Als Kontrolle diente ein weiterer Durchgang mit der Manipulation einer Kontrollregion, die sich weiter am Hinterkopf befand. Das Ergebnis war, dass unter der Manipulation des temporoparietalen Übergangs die Probanden eine Handlung mit böser Absicht eher als moralisch erlaubt einstuften als bei der Manipulation der Kontrollregion. Dies galt interessanterweise aber nur für die Situationen, in denen eine bösartige Absicht vorhanden war, aber der betroffenen Person kein Schaden zugefügt wurde. Dies legt für Postle (Postle 2015, 464) den Schluss nahe, dass der rechte temporoparietale Übergang vor allem zur Beurteilung moralisch nicht eindeutiger Situationen beiträgt, in denen eine Diskrepanz zwischen Intention und Ergebnis herrscht.

Allerdings sieht Postle diese Studie kontrovers, da die untersuchte Hirnregion bekanntermaßen auch andere Funktionen erfüllt, die in dieser Studie nicht in Betracht gezogen worden waren. Ebenso gilt wie bei allen TMS-Studien, dass sich die manipulierte Region nicht ganz genau eingrenzen lässt. Umliegende Bereiche könnten mit manipuliert worden sein und so das Ergebnis beeinflusst haben.

Im Allgemeinen ist im Bereich des sozialen Verhaltens zwar einiges Interessantes untersucht worden, verlässliche, allgemein anerkannte Ergebnisse zur Lokalisierung von Emotionsverarbeitungen scheint es aber noch wenige zu geben, sodass auch hier die kognitiven Neurowissenschaften noch weiter bei der Arbeit sind.

4.2.3 Aktuelle Großprojekte in den kognitiven Neurowissenschaften

Unter den zahllosen neurowissenschaftlichen Forschungsprojekten machen vor allem zwei große auf sich aufmerksam. Das eine ist das Human Brain Project, gefördert durch die Horizon 2020-Förderlinie der Europäische Kommission, das andere die US-basierte BRAIN Initiative, die öffentlich und privat gefördert wird, unter anderem durch die National Institutes of Health und die National Science Foundation. Beginnen wir mit einem Überblick über das Human Brain Project.

Das Human Brain Project ist Europa-basiert und wird von 123 Projektpartnern aus ganz Europa und Israel in einer Vielzahl an kleinen Unterprojekten bearbeitet. Die Projektlaufzeit ist für 2013 bis 2023 angesetzt, die Förderung durch die EU-Kommission liegt bei 1,19 Milliarden Euro. Projektleiter und -initiator ist der bekannte Neurowissenschaftler Henry Markram von der Ecole polytechnique fédérale de Lausanne (EPFL). Er hatte bereits das Vorläuferprojekt Blue Brain Project von 2005 bis 2015 geleitet. Jenes hatte zum Ziel, ein biologisch korrektes, virtuelles Gehirnmodell zu produzieren. Dazu sollten alle Neuronen eines menschlichen Gehirns erfasst und kartiert werden, woraus am Ende eine digitale Simulation des Gehirns entstehen sollte. Als Unterziel dieses monumentalen Vorhabens entstand die Kartierung einer Blue Column eines Rattengehirns, also das Modell einer kortikalen Säule einer Ratte von 2 Millimeter Länge und einem Durchmesser von 0,5 Millimeter. Eine solche Säule enthält circa 10.000 Neuronen mit 108 Synapsen, eine kortikale Säule gleicher Größe eines Menschen beherbergt circa 60.000 Neuronen. Die Arbeit der Blue Column der Ratte wurde als weiteres Projektziel mit Computern simuliert, wobei ein eigener Rechner pro Neuron verwendet wurde. An diesem Kartierungs- und Simulationsprojekt wird an der EPFL weiterhin gearbeitet, im November 2018 verkündeten die dortigen Forscher die Fertigstellung des ersten digitalen dreidimensionalen Hirnzellen-Atlas eines gesamten Mäusegehirns.Footnote 9 Das Nachfolgeprojekt Human Brain Project definiert kein so konkretes Gesamtziel, stattdessen heißt es: „The Human Brain Project (HBP) is building a research infrastructure to help advance neuroscience, medicine and computing.“ (humanbrainproject.eu). Diese Weitläufigkeit der teilnehmenden Disziplinen schlägt sich in der Aufteilung des Projektes in sechs Forschungsplattformen nieder (humanbrainproject.eu):

„Neuroinformatics (access to shared brain data), Brain Simulation (replication of brain architecture and activity on computers), High Performance Analytics and Computing (providing the required computing and analytics capabilities), Medical Informatics (access to patient data, identification of disease signatures), Neuromorphic Computing (development of brain-inspired computing) and Neurorobotics (use of robots to test brain simulations).“

Es wird also auf vielen Gebieten gearbeitet. Die Abbildung der Gehirnarchitektur und die Simulation von Gehirnfunktionen sind auch in diesem Projekt ein großes Ziel. Das zweite große Ziel des Projekts ist im Bereich Neuroinformatics der Aufbau des Datenrepositoriums Knowledge Graph, in dem die beteiligten Projektgruppen ihre Forschungsdaten untereinander teilen können. Das Repositorium ist bereits in Betrieb, Metadaten sind auch öffentlich zugänglich. Auch im medizinischen Bereich des Projekts steht das Teilen von Daten im Vordergrund: Über die projekteigene Medical Informatics Platform (MIP) sollen Daten wie MRT-Scans von erkrankten und gesunden Gehirnen zwischen Krankenhäusern geteilt werden, um Medizinern Zugang zu breiter Datenlage zu gewähren, die helfen könnte, Patienten vor Ort zu behandeln. Auch von Werkzeugen aus dem Bereich maschinelles Lernen ist die Rede, mit deren Hilfe aus den riesigen Datenmengen neue neurowissenschaftliche Erkenntnisse gewonnen werden sollen. Um unter anderem Bedenken hinsichtlich des Schutzes von Patientendaten zu begegnen, wurde auch ein Ethikkomitee eingerichtet.

Mit der Abbildung und Simulation von Neuronen bis hin zum gesamten Gehirn führt das Human Brain Project die langwierige Arbeit seines Vorgängers weiter. Ein solches Modell des Gehirns zu besitzen, wäre sicherlich förderlich für die kognitiven Neurowissenschaften, auch bereits wegen der Erkenntnisse, die auf dem Weg dorthin gewonnen werden dürften. Schon allein aufgrund der Vielzahl an Neuronen im menschlichen Gehirn dürfte es jedoch noch eine Weile dauern, bis ein Modell fertiggestellt ist, noch länger bis die Funktionen verstanden und simuliert werden können. Vielleicht ist dieses also nicht das letzte Projekt, das sich mit dieser Aufgabe beschäftigen wird. Mit dem Aufbau von Plattformen zum Teilen von Forschungs- und Patientendaten liegt das Projekt jedenfalls genau im aktuellen Trend der empirischen Wissenschaften. Allerdings werden noch einige vor allem rechtliche Hürden überwunden werden müssen, bis eine solche Plattform betrieben werden könnte, besonders in internationaler Zusammenarbeit.

Das zweite große Projekt, das wir hier betrachten, ist die BRAIN Initiative. Die Abkürzung steht für Brain Research through Advancing Innovative Neurotechnologies. Das Projekt ist US-basiert und Teil der breiteren White House Neuroscience Initiative. Die BRAIN Initiative hat eine Laufzeit von 2013 bis 2025 und wird sowohl öffentlich als auch privat finanziert. Die privaten Förderer sind das Allen Institute for Brain Science, das Howard Hughes Medical Institute und The Kavli Foundation. Öffentliche Gelder kommen von den National Institutes of Health (NIH), der National Science Foundation (NSF) und bemerkenswerterweise von der Defence Advanced Research Projects Agency (DARPA), einer Behörde des Verteidigungsministeriums, die Forschungen für das Militär finanziert. Insgesamt erhält die BRAIN Initiative einen Etat von 4,9 Milliarden US-Dollar, mit einer jährlichen Basisfinanzierung von circa 300 Millionen US-Dollar. Die Ziele der Initiative klingen nicht so weit von denen des Human Brain Project entfernt (braininitiative.nih.gov):

„The Brain research through Advancing Innovative Neurotechnologies® (BRAIN) Initiative is aimed at revolutionizing our understanding of the human brain. By accelerating the development and application of innovative technologies, researchers will be able to produce a revolutionary new dynamic picture of the brain that, for the first time, shows how individual cells and complex neural circuits interact in both time and space. Long desired by researchers seeking new ways to treat, cure, and even prevent brain disorders, this picture will fill major gaps in our current knowledge and provide unprecedented opportunities for exploring exactly how the brain enables the human body to record, process, utilize, store, and retrieve vast quantities of information, all at the speed of thought.“

Auch hier werden die medizinischen Aspekte und Vorteile der Forschungen in den Vordergrund gerückt. Auch hier soll ein Modell des Gehirns und seiner Funktionsweise entstehen. Es wird aber auch ein großer Fokus auf technologische Entwicklungen gelegt, abseits des Aufbaus von Repositorien. Die ersten fünf Jahre der Initiative sollen vor allem technologische Entwicklungen fördern, wie beispielsweise neue Diagnoseverfahren oder neue bildgebende Instrumente. Wie wir in Abschnitt 4.3 sehen werden, haben die einzelnen neurowissenschaftlichen Technologien wie funktionale Magnetresonanztomographie (fMRT) oder die Elektroenzephalographie (EEG) methodische und technische Nachteile. Die BRAIN Initiative unterstützt daher Forschungsprojekte, die sich mit der Suche nach neuen Möglichkeiten beschäftigen, das Gehirn und seine Abläufe sichtbar beziehungsweise messbar zu machen. Nach den ersten fünf Jahren sollen dann vor allem Projekte gefördert werden, die auf neurowissenschaftlichen Erkenntnisgewinn ausgerichtet sind. Insgesamt wird gefördert in den Bereichen Data Coordination/Informatics, Human Imaging, Neural Recording, Cell/Circuit Tools, Cell Types, Understanding Circuits, Training und Neuroethics. Die zehn Institute der NIH sind Projektpartner, um Förderung bewerben können sich aber offenbar Forschungsvorhaben jeder amerikanischen Forschungseinrichtung.

Mit einem Budget, das noch weit über der Rekordsumme der EU-Kommission für das Human Brain Project liegt, können zahlreiche Projekte finanziert werden. Auch hier ist die Arbeit sicher sehr klein- und vielteilig, bis ein Modell des Gehirns entsteht. Es ist sicherlich auch eine gute Idee, die Suche nach neuen Diagnose- und Messverfahren zu unterstützen. Bedenkt man, welche Forschungs- und Diagnosemöglichkeiten sich den Neurowissenschaften durch die Entwicklung bildgebender Verfahren in den 1990er Jahren eröffneten, könnten weitere Instrumente und Techniken den Erkenntnisgewinn in den Kognitionswissenschaften weiter vorantreiben. Bedenklich allerdings ist die Finanzierung durch die DARPA. Man will sich gar nicht ausmalen, welche Möglichkeiten ein Modell des Gehirns und seiner Funktionalitäten sowie neue Technologien, es zu manipulieren, sich für das Militär eröffnen werden. Betrachten wir im folgenden Unterkapitel aber zunächst eine Auswahl an derzeit zur Verfügung stehenden Techniken und Instrumenten mit ihren Funktionsweisen sowie Vor- und Nachteilen.

4.3 Empirische Methoden

Für ihre Untersuchungen und Experimente stehen den kognitiven Neurowissenschaftlern eine ganze Reihe an verschiedenen Verfahren zur Verfügung. Diese unterscheiden sich nicht nur in ihren Techniken und Anwendungsgebieten, sondern auch in Komplexität und Kosten. Jedes besitzt Vor- und Nachteile und eignet sich für eine bestimmte Aufgabe besonders gut oder schlecht. Daher werden verschiedene Verfahren im besten Fall ergänzend eingesetzt, sodass in mehreren Studien unterschiedliche Blickwinkel auf bestimmte Fragen ermöglicht werden können.

Im Folgenden werfen wir einen Blick auf ausgewählte Verfahren, die in den kognitiven Neurowissenschaften regelmäßig angewandt werden und auch in neuroökonomischen Experimenten Verwendung finden. Hierbei werden invasive von nicht-invasiven Methoden unterschieden. Bei Letzteren wird der Schädel geöffnet, um direkte Messungen zu erlauben. Diese Art von Experimenten wird ausschließlich bei Versuchstieren angewandt. Für die Untersuchung menschlicher Versuchspersonen wurden in den vergangenen Jahrzehnten Messmethoden entwickelt, die neuronale Aktivitäten von außerhalb des Schädels ermitteln. Sie werden teilweise auch für Versuche an nicht-menschlichen Primaten verwendet, sind allerdings in ihrer Messung nicht so präzise wie invasive Methoden. In dieser Aufstellung betrachten wir zunächst die in der heutigen Forschung geläufigen nicht-invasiven Methoden mit ihren jeweiligen Anwendungsgebieten und Vor- und Nachteilen, bevor wir zur invasiven Methode der direkten Abnahme von Aktionspotenzialen und ihrer Anwendung in Tierexperimenten kommen.

4.3.1 Funktionelle Magnetresonanztomographie (fMRT)

Mit Verfahren der funktionellen Bildgebung wie die funktionelle Magnetresonanztomographie (fMRT) oder die Positronenemissionstomographie (PET, s. u.) können neurale Aktivitäten im zentralen Nervensystem gemessen werden, ohne den Schädel zu öffnen. Vor dem Hintergrund der schlechten Datenlage im 19. und 20. Jahrhundert war die Entwicklung funktioneller Bildgebungsverfahren in den 1990er Jahren eine große Bereicherung für Humanmedizin und neurowissenschaftliche Forschung.

Sowohl fMRT als auch PET messen neuronale Aktivitäten indirekt über Veränderungen im Stoffwechsel. Wo Nervenzellen aktiviert sind, ändert sich der Stoffwechsel in ihrer Umgebung, was den regionalen zerebralen Blutfluss ansteigen lässt. Dieser Anstieg wird gemessen und so ein Bild davon generiert, welche Nervenzellverbünde wann im Verlauf eines Versuchsdurchlaufs aktiviert sind. (Büchel et al. 2012, 10). Aufgrund dieser Arbeitsweise können funktionelle Bildgebungsverfahren keine klare Auskunft darüber geben, ob eine Hirnregion eine bestimmte Aktion begründet oder ob sie allein einen kognitiven Prozess steuert. Sie können aber aufzeigen, dass Aktivität in bestimmten Hirnregionen oft mit bestimmten Stimuli einhergeht oder dass Information in bestimmten Hirnregionen repräsentiert ist, bewusst oder unbewusst, und können Anzeichen dafür geben, wo beschädigte Gehirne nicht normal arbeiten. (Carter et al. 2010, 13–14).

Um die Stoffwechselveränderungen in der Nähe aktivierter Neuronen zu messen, macht sich die fMRT den Blood Oxygen Level-Dependent Effect (BOLD-Effekt) zunutze. Der BOLD-Effekt beschreibt die Veränderung der Sauerstoffkonzentration im Blut bei Aktivität von Nervenzellen: Werden Nervenzellen aktiviert, erhöht sich ihr Zellstoffwechsel und sie benötigen mehr Sauerstoff, den sie aus den umliegenden Blutgefäßen beziehen. Durch den erhöhten Verbrauch steigt in den Blutgefäßen die Konzentration von deoxygeniertem Hämoglobin, während die Konzentration an oxygeniertem Hämoglobin sinkt. In Sekunden reagiert die Blutversorgung des Gehirns mit der Erhöhung des regionalen zerebralen Blutflusses, was sauerstoffreiches Blut zu der betroffenen Hirnregion bringt. Die Blutgefäße um aktivierte Neuronen herum weisen also eine höhere Konzentration an oxygeniertem Hämoglobin auf als Blutgefäße um Neuronen im Ruhezustand. Gleichzeitig sinkt auch die Konzentration an deoxygeniertem Hämoglobin wieder. Da deoxygeniertes Hämoglobin paramagnetische Eigenschaften besitzt, ändert sich in der betroffenen Hirnregion die Reaktion des Blutes auf Magnetfelder. (Carter et al. 2010, 14; Büchel et al. 2012, 12). Kurz gesagt ist sauerstoffreiches Blut weniger stark magnetisch als sauerstoffarmes. Diese Änderungen werden vom Magnetfeld des fMRT-Scanners erfasst und farblich kontrastiert dargestellt.

Die Technik eines fMRT-Scanners beruht auf der Technologie von Magnetresonanztomographen (MRT), wie sie heute unter anderem in Krankenhäusern weit verbreitet sind. Der Scanner besteht aus einer langen Röhre, in der magnetische Spulen untergebracht sind. Patienten oder Versuchspersonen werden auf einer Liege in die Röhre geschoben. Die MRT-Technik macht sich zunutze, dass sich die Wasserstoffprotonen in den Körpern der Patienten um die eigene Achse drehen und dadurch ein winziges magnetisches Feld entsteht. Die Magnetfelder der einzelnen Protonen sind normalerweise zufällig ausgerichtet und heben sich großteils gegenseitig auf. Der Scanner erzeugt nun ein Magnetfeld längs zum Körper des Patienten, von den Füßen in Richtung des Kopfes. Dieses Magnetfeld richtet die Wasserstoffprotonen aus, manche parallel zum Magnetfeld (Richtung Kopf), manche antiparallel (Richtung Füße). Die Mehrheit der Protonen wird parallel ausgerichtet, da dies energetisch leicht vorteilhaft für sie ist. Durch dieses Ungleichgewicht entsteht im Körper des Patienten ein netto magnetischer Feldvektor (Net Magnetisation Vector NMV) in paralleler Richtung zum Magnetfeld des Scanners. Die Protonen bleiben dabei nicht stationär im Körper, sondern präzedieren um ihre eigene Achse, ähnlich wie ein Kreisel. Die Kreiselfrequenz hängt dabei von der Stärke des Magnetfeldes ab, in dem sie sich befinden. Je stärker das Magnetfeld, desto höher die Frequenz. Gewöhnliche MRT-Scanner erzeugen Feldstärken von 1,5 bis 3,0 Tesla, wobei in jüngster Zeit auch Geräte mit 7,0 oder gar 9,4 Tesla eingesetzt werden. Höhere Feldstärken ergeben eine bessere räumliche Auflösung und erhöhte Kontraste. Gleichzeitig steigt aber auch die Frequenz, mit der die Atome des Patienten zum Schwingen angeregt werden, sodass die Energiedichte, die der Körper des Patienten aufnehmen muss, ansteigt. Das kann zu Unwohlsein bis hin zu lokalen Verbrennungen führen. (Carter et al. 2010, 6–7).

Um nun ein Bild zu erzeugen, werden zusätzlich zum längs anliegenden Magnetfeld Hochfrequenzpulse (RF Pulses) in der gleichen Frequenz wie die Kreiselfrequenz der Protonen auf den Patienten gerichtet. Dadurch werden zwei Prozesse in Gang gebracht: Erstens nehmen einige Protonen in paralleler Ausrichtung die Energie auf, kehren ihre Polarität um zu antiparallel, und verringern so die Nettomagnetisierung im Körper. Zweitens regt der RF-Puls einige Protonen zu einer Rotation an, die sich zu einem Vektor quer zum externen Magnetfeld (also senkrecht zum Körper des Patienten) summiert. Somit wird eine neue, quer anliegende Magnetisierung aufgebaut. Nachdem der RF-Puls ausgeschaltet wurde, verlassen die hochenergetisierten Protonen ihre Kreiselfrequenz und kehren zu ihrer vorherigen Längsausrichtung zurück. Dadurch steigt die Längsmagnetisierung im Körper wieder auf ihren ursprünglichen Wert zurück, während gleichzeitig die Quermagnetisierung auf Null absinkt. Beide Vorgänge werden erfasst: Die Zeit, in Millisekunden, die ein bestimmter Prozentsatz der Protonen benötigt, um zur Längsausrichtung zurückzukehren, wird T1 genannt. Die Relaxationszeit der Quermagnetisierung wird T2 genannt. Diese beiden Werte sind wichtig für die Bildgebung, da unterschiedliche Gewebesubstanzen unterschiedliche Werte für T1 und T2 relativ zueinander aufweisen. So ist das T1-Signal von weißer Substanz stärker als das von grauer Substanz, während das T1-Signal von grauer Substanz stärker ist als das von Zerebrospinalflüssigkeit. Beim T2-Signal verhält es sich für diese Substanzen genau andersherum. Der Computer des MRT-Gerätes berechnet ein Bild des Gehirns anhand dieser unterschiedlichen Signale. Solche schwarz-weißen Bilder sind auch von diagnostischen Untersuchungen in Krankenhäusern bekannt. (Carter et al. 2010, 9–10).

Das fMRT nutzt die MRT-Technologie plus den BOLD-Effekt, um nicht nur statische Bilder der Materie zu produzieren, sondern auch die Aktivierungen der Nervenverbünde anzuzeigen. Diese Aktivierungen werden dann zur Veranschaulichung bunt eingefärbt, mit verschiedener Farbgebung für verschiedene Aktivierungsgrade.

Einer der Vorteile von fMRT-Geräten ist sicherlich, dass sie das gesamte Gehirn in verschiedenen wählbaren Schichten erfassen können. Andere Verfahren, wie beispielsweise Elektroenzephalographie (EEG, s. u.) können nur Aktivierungen an der Oberfläche des Hirngewebes messen. Gleichzeitig ist die Methode nicht invasiv und kommt ohne Injektion radioaktiver Substanzen aus, und kann daher beliebig oft angewandt werden. Damit ermöglicht die fMRT die Erforschung der neuralen Grundlagen für Kognition, Emotionen und sensorische Empfindungen an lebenden Menschen wie keine andere Technik (Carter et al. 2010, 14). Zudem liefert die auf dem BOLD-Effekt basierende Technik eine räumliche Auflösung im Bereich von Millimetern, was sehr gut ist (Büchel et al. 2012, 12).

Allerdings hat der BOLD-Effekt auch den Nachteil, dass er zeitlich verspätet nach der eigentlichen Aktivierung der Nervenzellen auftritt, ca. 5 Sekunden (Büchel et al. 2012, 11). Das bedeutet, dass Messungen auf Basis des BOLD-Effekts eine relativ schlechte zeitliche Auflösung besitzen. Hier sind elektrophysiologische Verfahren wie die EEG im Vorteil, wie wir in Abschnitt 4.3.3 sehen werden.

Außerdem muss bei der fMRT-Technik auch bedacht werden, dass die Verlängerung der T2-Relaxationszeit durch den BOLD-Effekt das MR-Signal bei einem gewöhnlichen 1,5 Tesla-Scanner nur um wenige Prozent erhöht. Die Gefahr, eine Aktivierung zu übersehen, ist also hoch, ebenso wie die Gefahr, gemessene Aktivierungen fälschlicherweise mit dem Versuchsstimulus in Verbindung zu bringen. Die Analysten können nicht sicher sein, dass der Scanner alle relevanten Aktivierungen erfasst hat. Genauso wenig können sie sicher sein, dass die erfassten Aktivierungen tatsächlich mit dem Versuchsstimulus zusammenhängen. Denn schon kleine Veränderungen im Sauerstoffgehalt des Blutes können vom Scanner als Aktivierung erkannt werden. Bei der Auswertung der Scannerdaten spricht man daher von einem Rauschen, das die ständigen (Hintergrund-)Aktivitäten des Gehirns widerspiegelt. Denn während eines Versuchs sind nicht nur Nervenzellverbünde aktiv, die auf die Versuchsstimuli reagieren, sondern auch solche Zellen, die auf viele andere Reize reagieren, die nicht direkt mit der Experimentaufgabe zusammenhängen. Das Gehirn ist ständig aktiv, empfängt und verarbeitet ständig Informationen und gibt ständig Anweisungen aus. Eine wichtige Aufgabe für die Forscher ist es daher, die durch den Versuch verursachten Aktivierungen aus dem Rauschen herauszufiltern. Dies wird über spezielle Experimentdesigns zu erreichen versucht. Beispielsweise werden sogenannte Kontraste in den Versuch eingebaut. Die Probanden bekommen zusätzlich zur Versuchsaufgabe weitere Aufgaben, die in bestimmter Weise von den Versuchsaufgaben verschieden sind. Die Aktivierungsmuster von Versuchsaufgabe und Kontrast-Aufgabe werden dann subtrahiert, um die Aktivierungen zu erhalten, die allein durch die Versuchsaufgabe bedingt wurden. Inzwischen hat sich eine ganze Reihe an verschiedenen Möglichkeiten und Versuchsanordnungen in Lehrbüchern bewährt, mit denen wir uns in Abschnitt 5.2 an einem Beispielexperiment näher befassen werden.Footnote 10

Zusätzlich werden neurowissenschaftliche und neuroökonomische Experimente mit fMRT mit jeder Person zweimal durchgeführt. Durch die doppelte Datenlage soll die Verlässlichkeit der Analyse verbessert werden. Der Nachteil dabei ist, dass die Gefahr besteht, dass die Probanden bei einem zweiten Durchlauf aus dem ersten Durchgang gelernt haben und nun anders reagieren könnten. Dieser Lernaspekt kann die Ergebnisse des zweiten Durchgangs verfälschen und damit auch die Ergebnisse und Schlussfolgerungen der gesamten Studie.

Ein weiterer Nachteil der fMRT sind die hohen Kosten. Gerätepreise liegen im einstelligen Millionenbereich, je nach Stärke der Magneten. Hinzu kommen die Kosten für jeden Scan, weshalb nicht alle Krankenhäuser oder neurowissenschaftlichen Forschungseinrichtungen im Besitz von fMRT-Geräten sind. Daher ist es nicht unüblich, dass Neurowissenschaftler für ihre Studien Scanner-Betriebszeiten an einem Krankenhaus mieten. Nicht selten finden fMRT-Studien dort nachts statt, da zu diesen Zeiten die Belegung des Scanners durch das Krankenhaus selbst am niedrigsten ist. Für jede Studie muss abgewogen werden, wie viele Probanden sie umfassen soll. Mehr Probanden bedeuten mehr Daten, die die Analysen und Schlussfolgerungen auf eine breitere Basis stellen würden. Mehr Probanden bedeuten aber auch mehr Scanner-Sitzungen, zumal jede Person zweimal gescannt werden muss, und somit auch mehr Kosten. Nicht zuletzt aus diesem Grund umfassen fMRT-Studien häufig weniger Probanden als Studien mit anderen Messtechniken.

4.3.2 Positronenemissionstomographie (PET)

Wie wir gerade gesehen haben, ermöglicht fMRT die Untersuchung von Nervenaktivitäten im menschlichen Gehirn und dient daher der Erforschung der neuronalen Basis von Kognition. Was es aber nicht aufzeigen kann, ist die neurochemischen Zusammensetzung der neuronalen Aktivitäten. Um beispielsweise zu untersuchen, welche Neurotransmitter Veränderungen in den Nervenzellaktivitäten herbeiführen, wird unter anderem die Positronenemissionstomographie (PET) verwendet.

Auch die PET misst Aktivitäten indirekt. Je nachdem, welche chemischen Substanzen untersucht werden sollen, gibt es verschiedene Vorgehensweisen. Generell werden bei einem PET-Experiment oder einer -Untersuchung bestimmte Isotope beispielsweise in die Halsschlagader der Patienten injiziert. Sie verbreiten sich daraufhin im Gehirn des Patienten. Wenn sie zerfallen, wird ein Positron freigesetzt, das schnell auf ein Elektron stößt. Bei ihrem Zerfall werden zwei Gammaphotonen ausgesendet, die sich in einem Winkel von 180º voneinander entfernen. (Büchel et al. 2012, 10). Innerhalb von Nanosekunden verlassen sie den Körper und werden von Gammastrahlendetektoren erfasst, die in einer Röhre ringförmig um den Kopf des Patienten angebracht sind. Durch die Erfassung zweier, sich im 180º-Winkel voneinander wegbewegender Photonen zur gleichen Zeit, berechnet ein Computer den Ursprungsort des Zerfalls im Gehirn. Durch viele solcher Messungen entsteht ein Bild vom Verteilungsmuster der Zerfälle und dadurch der Verteilung des injizierten Isotops im Gehirn.

Um verschiedene neurochemische Prozesse zu untersuchen, werden verschiedene Isotope eingesetzt. So können mit Isotopen markierte Liganden an spezifische Rezeptoren binden und ihre Aktivität so für den Detektor sichtbar machen. Carter und Shieh (Carter et al. 2010, 19) erklären:

„For example, a radioactive ligand that binds to serotonin receptors can indicate the locations and binding potential of these receptors in the brain, providing information about the relative metabolism of serotonin in human subjects.“

Die Autoren betonen, dass mit der PET die Verstoffwechselung spezifischer bioaktiver Moleküle untersucht werden kann. Damit bietet die PET Einsichten, die eine fMRT-Untersuchung nicht bieten kann. (Carter et al. 2010, 19). Auch der regionale zerebrale Blutfluss kann mit einer PET gemessen werden. Dazu wird häufig radioaktiv markiertes Wasser (H215O) in die Halsschlagader injiziert. Durch die kurze Halbwertszeit von circa 2 Minuten kann der Blutfluss zu aktivierten Nervenzellen nachvollzogen werden. (Büchel et al. 2012, 10). Außerdem kann die Aktivierung von Nervenzellen über ihren erhöhten Stoffwechsel gemessen werden. Dazu wird meist Fluordeoxyglucose (FDG) verwendet, eine radioaktive Form von Glucose. Da aktivierte Nervenzellen mehr Energie benötigen, also Glucose, kann eine erhöhte Aufnahme von Glucose aus dem Blut ein Indikator für aktive Nervenzellen sein. (Carter et al. 2010, 18).

Die PET bietet Einsichten in die neurochemischen Prozesse menschlicher Gehirne. Ähnlich wie die fMRT ist auch dies eine wertvolle Erkenntnisquelle für kognitive Neurowissenschaftler, da sie nicht invasiv ist und an lebenden menschlichen Probanden angewandt werden kann. Dabei bietet sie eine ähnliche zeitliche Auflösung wie fMRT.

Allerdings ist der Einsatz von PET auch sehr teuer, teurer noch als der Einsatz von fMRT. Das hängt nicht nur mit dem Gerät, dem Detektor und dem Computer zusammen, sondern auch mit den radioaktiven Substanzen, die benötigt werden. Da sie eine kurze Halbwertszeit haben müssen, können sie nicht außerhalb der Klinik oder Forschungseinrichtung hergestellt werden. Während des Transports zum PET würden sie bereits zerfallen. Daher müssen die Isotope in einem eigenen Zyklotron vor Ort hergestellt werden. Die Anschaffung und Instandhaltung dieser Einrichtung verursacht nicht unerhebliche Zusatzkosten. (Carter et al. 2010, 19).

Hinzu kommt die nötige Injektion radioaktiver Substanzen in die Körper der Patienten. Manchmal sogar mehrere gleichzeitig, je nach Untersuchungsziel. Die Strahlenbelastung ist nicht nur ein Gesundheitsrisiko, sie begrenzt auch die möglichen Wiederholungen der Experimente oder Untersuchungen an einem Patienten. Die fMRT dagegen benötigt keine radioaktiven Substanzen und ist theoretisch beliebig oft an einem Patienten durchführbar. Da sie eine ähnliche Auflösung bietet, wird für kognitive Forschungen für gewöhnlich die fMRT bevorzugt. Der hohe Aufwand und die Belastung für die Patienten lohnen einen Einsatz der PET in solchen Fällen nicht. (Büchel et al. 2012, 10).

4.3.3 Elektroenzephalographie (EEG)

Die Elektroenzephalographie (EEG) zählt zu den elektrophysiologischen Verfahren der kognitiven Neurowissenschaften. Im Gegensatz zu den bildgebenden funktionellen Verfahren fMRT und PET messen sie neuronale Aktivitäten nicht indirekt über Stoffwechselprozesse, sondern erfassen postsynaptische Membranpotenziale oder Aktionspotenziale mehrerer aktivierter Nervenzellen. Dazu werden Elektroden an der Kopfhaut befestigt, die die Summe der Potenziale im Gehirn erfassen. Häufig werden dafür den Probanden Hauben oder Netze aufgesetzt, auf denen die Elektroden angebracht sind. Um die Übergangswiderstände zu verringern und die Messungen zu verbessern, wird vorher ein leitfähiges Gel auf die Kopfhaut aufgetragen. Die Elektroden messen dann die Potenziale differenziell mit Hilfe einer zusätzlichen Referenzelektrode. Sie muss daher so angebracht werden, dass sie selbst keine Gehirnströme messen kann, meist um die Nasen der Probanden. Da die Spannungen von Aktions- und postsynaptischen Potenzialen im Mikrovoltbereich liegen, werden die Messdaten von einem Verstärker aufbereitet. (Büchel et al. 2012, 24–25).

Anders als fMRT und PET liefert EEG keine bildliche Darstellung des Gehirns, kann aber bestimmte Zustände im Gehirn anzeigen. Carter und Shieh (Carter et al. 2010, 20) vergleichen die Leistungen der EEG mit einem Mikrophon, das über einer großen Menschenmenge angebracht wird, wie beispielsweise in der Silvesternacht über dem Times Square in New York. Das Mikrophon nimmt die Geräusche der Menge auf. Dabei ist nicht auszumachen, welches Individuum welche Geräusche macht, ebenso kann das Mikrophon nicht nur auf ein Individuum gerichtet werden. Jedoch ist es mit dieser Methode möglich, auszumachen, wann etwas Wichtiges geschieht, in unserem Beispiel die Jubel der Menschen um Mitternacht. Analog können mit einer EEG-Messung nicht die Aktivitäten einzelner Neuronen oder kleinerer Neuronenverbände separat gemessen werden. Aber es ist möglich, festzustellen, wann ein bedeutsames Ereignis eintritt, wie beispielsweise wenn der Proband in einem Experiment einen Stimulus wahrnimmt.

Dies mag nicht wie eine präzise Darstellung der Ereignisse in einem Gehirn erscheinen, dennoch kann eine EEG wertvolle Informationen liefern. Da sie Neuronenaktivitäten nicht indirekt über Stoffwechselprozesse misst, die erst nach einer Aktivität auftreten, sondern direkt über elektrische Potenziale, die während einer Aktivität auftreten, liefert die EEG eine sehr gute zeitliche Auflösung im Bereich von Millisekunden. Vor allem in Kombination mit der sehr guten räumlichen Auflösung aus fMRT- oder PET-Messungen, kann die EEG präzise Daten über die Arbeit des Gehirns liefern.

4.3.4 Transkranielle Magnetstimulation (TMS)

Für eine transkranielle Magnetstimulation (TMS) wird elektrischer Strom mit sehr hoher Stromstärke in eine portable Spule eingeleitet, wodurch in der Spule ein starkes Magnetfeld entsteht. Die Spule wird dann nahe an den Schädel des Probanden gebracht. Durch das starke Magnetfeld entsteht an der Oberfläche des Gehirns ein schwacher elektrischer Strom, der Neuronenverbände auf der Kortexoberfläche reizt. Auf diese Weise können Gehirnareale gezielt stimuliert werden, beispielsweise der motorische Kortex, was zum Beispiel ein Zucken der Finger auslöst. Die stimulierende Wirkung der TMS kann auch inhibitorisch genutzt werden, indem sie wiederholt auf die selbe Stelle angewandt wird. Dadurch wird diese Region selektiv gestört, wodurch eine virtuelle funktionelle Läsion entsteht. (Büchel et al. 2012, 27). Das ist beispielsweise dann von Vorteil, wenn keine oder nicht genügend Patienten mit natürlichen Läsionen in den zu untersuchenden Hirnregionen zur Verfügung stehen.

Die TMS gehört zu den Stimulationsverfahren und wird häufig als Läsionsmodell verwendet. Läsionsmodelle sind ein wichtiger Bestandteil der Erforschung der Aktivierungen und des Zusammenspiels verschiedener Hirnregionen bei der Bearbeitung kognitiver Aufgaben. Wird beispielsweise bei einer fMRT-Studie eine bestimmte Hirnregion als für die Experimentaufgabe funktionell relevant angesehen, weil sie in den entscheidenden Momenten aktiv war, so sind die beobachteten Aktivitäten allein kein Beweis für die tatsächliche Relevanz dieser Hirnregion. Es bedarf weiterer Messungen auf anderer Grundlage, um die Relevanz zu bestätigen. (Büchel et al. 2012, 26). Läsionsmodelle gehen dabei sozusagen von einer anderen Seite an die Frage heran, ob bestimmte Hirnregionen für bestimmte Aufgaben relevant sind. Sie zeigen nicht an, welche Hirnareale bei welcher Aufgabe aktiv sind, sondern helfen zu erforschen, welche Hirnareale für diese Aufgabe unverzichtbar sind (Büchel et al. 2012, 16). Für solche Studien werden Patienten gesucht, die nach einem Unfall oder einer Erkrankung, wie beispielsweise einem Schlaganfall, eine bestimmte Einschränkung ihrer kognitiven Leistungsfähigkeit aufweisen. Lange Zeit war die Untersuchung natürlicher Läsionen die einzige Bezugsquelle für Probanden. Mit Hilfe der TMS können auch gesunde Probanden im Rahmen von Läsionsmodellen untersucht werden.

Ein großer Nachteil der TMS ist allerdings, dass sie, wie auch die EEG, auf die oberflächennahen Nervenverbände beschränkt ist. Zudem ist die räumliche Auflösung der TMS nicht sehr hoch, da das Magnetfeld räumlich ausgedehnt ist. Dadurch ist es schwierig, nur ganz bestimmte Gehirnareale zu stimulieren beziehungsweise zu stören. Auch benachbarte Areale werden leicht von dem Magnetfeld erfasst.

4.3.5 Ableitung von Aktionspotenzialen

Die bisher genannten Methoden der kognitiven neurowissenschaftlichen Forschung haben den Vorteil, dass sie nicht invasiv sind und an lebenden, gesunden Menschen angewandt werden können. Dieser Vorteil hat allerdings den Preis geringerer räumlicher (EEG, TMS) oder zeitlicher Auflösung (fMRT, PET). Die Ableitung von Aktionspotenzialen dagegen liefert eine größtmögliche räumliche und zeitliche Auflösung. Sie ist eine invasive Methode und wird in der kognitiven neurowissenschaftlichen Forschung ausschließlich an Tieren angewandt.

Tierexperimente werden in den kognitiven Neurowissenschaften zum größten Teil mit Nagetieren oder nicht-menschlichen Primaten durchgeführt. Der Vorteil von Affen als Probanden ist ihre phylogenetische Nähe zum Menschen, die einen ähnlichen Aufbau der Gehirne bedeutet. So lassen sich Forschungsergebnisse aus Studien mit beispielsweise Schimpansen leichter auf den Menschen übertragen. Die Vorteile von Nagetieren als Probanden sind ihre einfachere Haltung und geringere Generationszeit, was vor allem für Studien mit Züchtungen von Bedeutung ist. (Büchel et al. 2012, 28). Da Nagetiere ebenso wie Menschen Säugetiere sind, sind ihre organischen Übereinstimmungen groß genug, um für bestimmte kognitive Leistungen Rückschlüsse auf menschliche Gehirne zuzulassen.

Auch bei der in Abschnitt 4.3.3 betrachteten Elektroenzephalographie werden Aktionspotenziale im Gehirn gemessen, allerdings durch die Barriere der Schädelknochen hindurch. Bei der invasiven Ableitung von Aktionspotenzialen werden diese direkt an den Neuronen abgenommen. Hierzu wird den Versuchstieren unter Narkose eine kleine Öffnung in den Schädel gebohrt, in die eine Ableitkammer implantiert wird. Das ist für gewöhnlich ein kleiner Kubus aus Kunststoff, der mit einem Deckel verschlossen und geöffnet werden kann. Auf diese Weise ist ein Zugang zum Gehirn des Tieres jederzeit möglich und Reinigung und Desinfektion der Öffnung werden erleichtert. Um die Aktionspotenziale im Gehirn zu messen, werden dünne Elektroden in das Gehirn eingeführt, entweder vor jeder Experimentsitzung neu und danach wieder entfernt, oder sie werden chronisch implantiert. (Büchel et al. 2012, 29). Für die Messungen gibt es verschiedene Möglichkeiten: Für Single-Unit-Messungen werden drahtfeine Elektroden in die erforschte Gehirnregion eingeführt. Sie messen die Aktionspotenziale mehrerer Neuronen in der nächsten Umgebung, die zu einer einzelnen funktionalen Einheit gehören (Ruff et al. 2014, 80). Die zweite Möglichkeit ist die Verwendung der Patch-Clamp-Technik, bei der für die Messungen Mikropipetten verwendet werden, deren Öffnungen einen Durchmesser von 1 µm und weniger aufweisen. Durch einen leichten Unterdruck in der Pipette werden die Spitzen mit der Zellmembran eines Neurons verbunden, was auch das Umgebungsrauschen, verursacht durch umliegende Neuronen, weitgehend abschirmt. Diese Methode erlaubt es auch, Systeme aus mehreren hundert Mikroelektroden einzusetzen, die viele Messungen gleichzeitig liefern. (Büchel et al. 2012, 29).

Die derart ausgestatteten Tiere werden dann mit unterschiedlichen Experimentaufgaben und -stimuli konfrontiert, wobei ihre Reaktionen in Aktionspotenzialen gemessen werden. Die Experimente variieren stark in Aufbau und Aufgaben, je nach Art der Tiere. Während die Untersuchung von Nagetieren für basale kognitive Aufgaben interessant ist, können mit bestimmten nicht-menschlichen Primaten komplexe kognitive Fertigkeiten untersucht werden, die bekannten Spielen aus ökonomischen Laboren ähneln. Dafür werden die Tiere monatelang täglich darauf trainiert, bestimmte Aufgaben zu lösen und verlässlich mitzuwirken. Denn die Forscher sind bei solchen Experimenten auf die Mitarbeit der Tiere angewiesen, ihre Kooperation kann nicht erzwungen werden. Daher werden die Tiere mit Belohnungen, meist Fruchtsäfte oder Obst, zur Mitarbeit angeregt. Sind sie gesättigt oder unmotiviert, werden die Experimente unterbrochen. Trainierte, kooperationsbereite Tiere sind sehr wertvoll und werden gut gepflegt, damit sie jahrelang an den Experimenten teilnehmen können.

Daran lässt sich bereits ein großer Nachteil von invasiven Ableitungen von Aktionspotenzialen und Tierexperimenten im Allgemeinen erahnen: Die artgerechte Haltung, die Pflege und das Training der Tiere ist langwierig und kostenintensiv, vor allem bei nicht-menschlichen Primaten. Zusätzlich ist die Präzision der Abnahme von Aktionspotenzialen ihr größter Vorteil, aber auch ein großer Nachteil, denn mit dieser Methode kann, selbst mit vielen implantierten Multimikroelektroden, immer nur eine Hirnregion auf einmal untersucht werden. Sie ergibt kein Bild der Aktivierungen im gesamten Gehirn, wie beispielsweise fMRT. Für die Untersuchung anderer, möglicherweise korrelierender, Gehirnregionen, muss ein Tier neu präpariert und gegebenenfalls neu trainiert werden. Auf diese Weise schreitet der Erkenntnisgewinn nur langsam voran. (Ruff et al. 2014, 81).

Nachdem wir nun einzelne (Mess-)Techniken, ihre Funktionsweisen sowie Vor- und Nachteile kennengelernt haben, werden wir im nun folgenden Kapitel 5 ihre Anwendung in neuroökonomischen Experimenten betrachten. Dafür werden wir uns auf ein Beispielexperiment mit menschlichen Probanden in einer fMRT-Studie konzentrieren und sehen, wie solche Experimente aufgebaut werden und was es dabei zu beachten gilt. Generell führt das Kapitel 5 nach der getrennten Betrachtung von Verhaltensökonomie und kognitiven Neurowissenschaften in diesem und dem vorherigen Kapitel diese beiden Enden nun zusammen. Es zeigt auf, wie die beiden Wissenschaften zusammenarbeiten und was sie von dieser Zusammenarbeit erwarten können.