1 Einleitung

Der allgemeine Begriff der Digitalen Geisteswissenschaften (Digital Humanities) und der speziellere, fachliche Begriff der Digitalen Literaturwissenschaft haben, und das ist eine erfreuliche Nachricht, an Distinktionskraft eingebüßt. Ein rein analoges Arbeiten ist in der Wissenschaft längst genau so unmöglich geworden wie in den meisten anderen gesellschaftlichen Bereichen. Und in diesem Sinne ist digitales Arbeiten ein graduelles Phänomen. Das heißt freilich nicht, und damit kommen wir zum unerfreulichen Teil der Botschaft, dass klassische Literaturwissenschaftlerinnen und Literaturwissenschaftler mit jenen, die im Laufe ihrer Karriere begonnen haben, korpusanalytisch mit Texten zu arbeiten, und mit der neuen Generation, die in digitalen Studiengängen ausgebildet worden ist, ein Verständnis des Faches und seiner zentralen Fragestellungen teilten, das ihnen erlauben würde, gemeinsam Unterschiedliches zur Lösung anerkannter Probleme beizutragen.

Spricht man von datenanalytischer Literaturwissenschaft werden die Unterschiede, die ›digital‹ kaschiert werden, offensichtlich. Als hermeneutische Textwissenschaft besteht die Literaturwissenschaft im Kern aus Methoden und Theorien zur Textanalyse. Diese Grundlagen sind natürlich auch dort von Belang, wo nicht (nur) einzelne Texte, sondern (auch) viele Texte untersucht werden, sodass man meinen könnte, Korpusanalysen leisteten im Grunde das Gleiche nur mit mehr Text. Im Bereich der Digital Humanities bilden nach wie vor Projekte die Mehrheit, deren Arbeitsgrundlage die Annotation bestimmter Texteigenschaften darstellt. Auch bei nachgelagerter Bearbeitung mit Künstlicher Intelligenz bleibt diese Forschung innerhalb des Horizonts digitaler Hermeneutik (Gius 2022), das heißt von Fragestellungen, die die einzelne Leserin oder der einzelne Leser überschaut.

Und dennoch hat die datenanalytische Literaturwissenschaft einen Bruch nach sich gezogen, der das Fach auseinanderdriften lässt. Das kommt daher, dass für diesen Ansatz neben Texten Daten eine eigenständige Rolle spielen und Untersuchungsmethoden verlangen, die zwar immer wieder in die Nähe zu dem treten, was sich methodisch als Hermeneutik verstehen lässt, dabei aber ebenso kontinuierlich Kompetenzen verlangen, die die geisteswissenschaftliche Ausbildung bislang nicht abdeckt: Statistik und Natural Language Processing (NLP).

2 Arten von Daten in der Literaturwissenschaft

Systematisch lassen sich drei Arten von Daten unterscheiden. Metadaten, die als Kataloginformation zu Text und Kontext jeder Bibliotheksnutzerin vertraut sind, erleichtern unter den Bedingungen der Digitalisierung Untersuchungen, die diese Informationen nicht nur zum Suchen und Finden, sondern auch für Analysen nutzen, die die großen, nur textbasierten Erzählungen der Literaturgeschichtsschreibung herausfordern können (Jockers 2013).

Die zweite Datenart entsteht durch quantitative Analysen von Texten und Korpora.Footnote 1 Dabei handelt es sich um textstatistische und algorithmische Verfahren, die auf der Basis von Häufigkeitsverteilungen bestimmter Einheiten (Stilometrie), des gemeinsamen Eingebettetseins in bestimmten Kontexten (Kookkurrenz, Word Embedding) oder der Wahrscheinlichkeit des gemeinsamen Auftretens (Topic Modeling) Differenzen zwischen Texten berechnen und Ähnlichkeitsgruppen modellieren (Eder/Rybicki/Kestemont 2016; Päpcke et al. 2022; Schöch 2022; Erlin 2014; Weitin/Herget 2017). Bei aller Vielfalt und Unterschiedlichkeit im Detail ist diesen Verfahren gemeinsam, dass sie nicht mit den Texten selbst, sondern mit abstrakten Repräsentationen von Text arbeiten, mit quantitativen Stellvertretern, aus denen sich die Modelle berechnen lassen. Die Supplementarität der Textanalyse erklärt die Renaissance strukturalistischer Theorie im Zuge der wachsenden Verbreitung solcher Verfahren (Herrmann/Lauer 2018). Die Art und Weise, wie digitale Textanalysen Texte aufgrund von Daten modellieren, ist eine »strukturalistische Tätigkeit« im Sinne Barthes’: Zerlegen in einzelne Einheiten und Zusammensetzung von etwas Neuem aus diesen Einheiten (Barthes 2003). Noch zielführender für die Operationalisierungen etwa im Bereich distributioneller Semantik sind R. Jakobsons Theorien zum Zusammenhang von syntagmatischer und paradigmatischer Ähnlichkeit (Jakobson 1979).

Neben Texten, Metadaten und Daten, die durch quantitative Textanalysen entstehen, unterscheidet die literaturwissenschaftliche Systematik empirische Daten aus der Rezeptionsforschung. Die Erkenntnis, dass Dichtung sich über ihre Wirkung definiert, ist so alt wie die Dichtungspraxis selbst. Sie hat ihren Grund in der Aristotelischen Poetik und wurde im 18. Jahrhundert zunächst bei der Unterscheidung der Dichtungsarten und dann als dezidierte Wirkungsästhetik stark empfunden (Koschorke 2003; Scherpe 1968; Weitin 2009). Nachdem Kant zwar gesehen hatte, dass das Urteil über Kunst nicht aus den Werken, sondern nur aus dem kognitiven Subjekt zu begründen ist, die empirische Forschung dazu aber nicht für universalisierbar hielt, gab es im 19. Jahrhundert verschiedene Ansätze zu einer empirischen Ästhetik, die in der Nachfolge Fechners ein Teilgebiet der Psychologie wurden und im Anschluss an Sievers’ Schallanalysen die sprachwissenschaftliche Phonetik begründeten. Auch die positivistische Philologie nach Scherer und Walzel näherte sich den natur- und sozialwissenschaftlichen Methoden nicht nur über die Statistik, sondern auch über die in der Gründerzeit proliferierende konzeptionelle Vorstellung vom Experiment. Der Russische Formalismus bezog von dort seine Kritik des verifikationsorientierten Denkstils der Texthermeneutik und setzte ein Theorieverständnis dagegen, für das das empirische Scheiternkönnen von Theorien eine notwendige Bedingung darstellte (Ejchenbaum 1965).

In der empirischen Literaturwissenschaft (Ajouri/Mellmann/Rauen 2013) sind heute kognitionswissenschaftliche Ansätze am weitesten verbreitet (Kukkonen/Caracciolo 2014), die vor allem dort dominieren, wo es um konzeptionelle Argumentationen geht etwa zur Empathie (Breithaupt 2017) oder zum Verhältnis von traditionellem und digitalem Lesen (Hayles 2012; Wolf 2019). Viele Arbeiten werten zudem die experimentellen Forschungen anderer sekundär aus (Clifton et al. 2016; Lauer 2020), was auch für die meisten Untersuchungen im mit Abstand größten Feld der kognitiven Poetik gilt (Tsur 2008, 2017; Stockwell 2019). Literaturwissenschaftliche Forschung, die selbst Daten erhebt, lässt sich in fragebogengestützte Untersuchungen (van Dalen-Oskam 2023) und Messungen mit Hilfe von Geräten im Labor unterteilen. Durch die Möglichkeiten der Sozialen Medien und extra für diesen Zweck geschaffene Online-Tools hat die Fragebogenforschung neue Dimensionen erreichen können. Auch kognitive Aufgaben, Leseexperimente und Labor-Simulationen sind online möglich. Labore mit Messgeräten sind demgegenüber in der Literaturwissenschaft seltener. Wo sie eingesetzt werden, geht es in den meisten Fällen um die Wirkung ästhetischer Gegenstände oder um Leseforschung, wobei letztere in Psychologie und Sprachwissenschaft immer noch deutlich breiter ausgebaut ist. Eingesetzte Geräte und Verfahren sind dabei neben dem Eye-Tracking (Rayner 1998), das die Augenbewegungen beim Lesen aufzeichnet, vor allem die Elektroenzephalographie (EEG – Aron et al. 2021) zur Aufzeichnung von Hirnströmen und die Magnetresonanztomographie als bildgebendes Verfahren für Hirnaktivitäten (fMRT – Price 2012; Bohrn et al. 2013).

Mit Blick auf die Ausbildung von Literaturwissenschaftlerinnen und Literaturwissenschaftlern ist der Umgang mit Messdaten aus der Rezeption neben dem zusätzlichen Know-how, das die digitale Textanalyse verlangt, eine weitere Herausforderung. In Gestalt des für jede Art und Datenanalyse unentbehrlichen statistischen Handwerkszeugs lassen sich jedoch Synergien bilden, und auch die traditionelle Methodik der Geisteswissenschaften hat im Umgang mit Daten ihren Ort. Denn interpretative Akte und mithin hermeneutische Vorgehensweisen greifen nicht erst in der Datenanalyse, sondern bereits dort, wo aus Rohdaten der Datensatz hergestellt wird, mit dem eine Untersuchung dann arbeitet. Dieser Preprocessing oder schlicht Reinigung genannte Prozess nimmt fast immer deutlich mehr Zeit in Anspruch als die anschließende Analyse und die Interpretation der Ergebnisse, was sich in den Natur- und Lebenswissenschaften auch in der Proportion der Veröffentlichungen widerspiegelt, wo die Frage, wie die Daten, mit denen gearbeitet wird, zustande gekommen sind, breiten Raum einnimmt. Dass das so ist, hat mit den grundlegenden Entscheidungen zu tun, die in dieser den Untersuchungsgegenstand herstellenden Phase getroffen werden. Ohne diese Entscheidungen sind Ergebnisse buchstäblich nicht denkbar. Es geht dabei um den Unterschied zwischen dem, was als signal angesehen und der Analyse zugeführt oder aber als noise ferngehalten werden soll (Kahneman 2012; Silver 2012). Bei Textanalysen gibt oft die angewandte Untersuchungsrichtung mit ihren speziellen Methoden vor, was als noisy gilt. So sind die ihrer hohen Gebrauchshäufigkeit in Texten wegen Funktionswörter genannten Ausdrücke (Artikel, Pronomen etc.) für die Stilometrie ein zentrales Autorschaftssignal (Argamon/Levitan 2005; Burrows 2002; Schöch 2014; Weitin 2021), in der quantitativen Semantik gelten sie als nicht interpretierbar, werden daher als stopwords bezeichnet und im Preprocessing entfernt. Während solche Prozesse seit langem weitgehend automatisiert laufen, hat die Daten-Reinigung im experimentellen Bereich etwa in der empirischen Leseforschung einen wesentlichen ›händischen‹ Anteil, der in der Orientierung an der Kognitionswissenschaft und unter dem Eindruck der Replikationskrisen in der Psychologie wieder gewachsen ist. Zwar stehen auch hier von den Herstellern entsprechender Messgeräte mit zugehöriger Software zur Verfügung gestellte Algorithmen bereit, denen man jedoch nach der Einschätzung der meisten Expertinnen und Experten die Unterscheidung von Signal und Rauschen nicht allein überlassen sollte. Wo aber der Mensch mitentscheidet, wo seine Erfahrungen im Umgang mit ähnlichen Daten und in der Einschätzung standardisierter Visualisierungen eine wesentliche Rolle spielen, hat man es, bevor die statistische Auswertung beginnt, mit genuin hermeneutischem Handeln zu tun.

3 Vom data rich approach zur Rezeptionsanalyse

Schon seit längerem ist zu beobachten, wie sich hinter der großen Menge einzelner Korpusanalysen mit je spezifischen Forschungsfragen ein Ansatz als systematisch besonders vielversprechend herauskristallisiert. Zwar proliferiert die Selbstbeschreibung als data rich, sodass sie nicht bei jeder Untersuchung automatisch als Qualitätssiegel gelten kann. Gleichwohl ist ein methodischer Kern erkennbar geworden, der auf absehbare Zeit den Anspruch erheben kann, als Zukunftsmodell Digitaler Literaturwissenschaft zu gelten. Die Grundidee von data rich-Ansätzen (Bode 2018) resultiert aus der Einsicht, dass sich mit Textdaten allein das große literaturhistorische Versprechen der Digital Humanities, das Verhältnis von kultureller Überlieferung und Great Unread (Cohen 2009) systematisch zu erklären, nicht einlösen lässt. Auch eine evolutionstheoretische Überhöhung der Analyse historischer Texte und Korpora reicht dazu nicht, wie das Scheitern von Morettis Neo-Darwinismus belegt (Moretti 2000). Notwendig ist es, Untersuchungsformen zu entwickeln, die Textmerkmale als Daten erfassen und diese in Beziehung setzen zu den institutionellen Daten der Literaturgeschichte, die Rezeption, Wertung und schließlich Kanonisierung messbar machen. So hat van Dalen-Oskam ein großes Survey zur Bewertung von Gegenwartsliteratur mit Korpusanalysen verbunden, um zu überprüfen, ob sich die Bewertung von Gegenwartsliteratur durch die Leserinnen und Leser auf bestimmte Textmerkmale zurückführen lässt (van Dalen-Oskam 2023). Brottrager, Stahl und Arslan berichten erste Ergebnisse eines umfassenden komparatistischen Projekts, das englisch- und deutschsprachige Erzählliteratur des langen 18. und 19. Jahrhunderts im Hinblick auf ihre Kanonisierungswahrschweinlichkeit untersucht. Dazu wurde in Anlehnung an Algee-Hewitts und McGurls Überlegungen zur Bias-Reduktion beim Korpusaufbau (Algee-Hewitt/McGurl 2015) auf Sammlungen, Kompendien und Quellen zurückgegriffen, über die populäre und ›leichte‹ Literatur, Werke von Frauen und Texte aus der geografischen Peripherie erschlossen werden konnten. Auf dieser Basis wurde zugleich ein Kanonisierungsscore entwickelt, der zentrale und periphere Überlieferungsmedien feingranular gegeneinander gewichtet (Brottrager/Stahl/Arslan 2021). Im Ergebnis zeigt sich die Korrelation zwischen textintrinsischen und institutionellen Merkmalen der Kanonisierung schwach, wobei zwei Perioden, der Viktorianismus in der englischsprachigen und die Goethezeit in der deutschsprachigen Literaturgeschichte, deutlich bessere Werte erzielen.

Bei allen Studien, die aufwendige Korpora und historische Datensätze erstellen, mit einer großen Bandbreite von Sprachfeatures experimentieren und Zusammenhänge statistisch z. B. über Regressionen berechnen, ist es möglich und notwendig, Gegenstände, Methoden und Ergebnisse zu optimieren. In der für die Digital Humanities charakteristischen Arbeitsteiligkeit läuft gleichzeitig die reflektierte Einordnung des Trends, der sich in diesen Studien ausdrückt. Mit der Operationalisierung des Zusammenhangs von literarischem Text und Rezeption bewegt sich die Entwicklung ins Zentrum der Philologie und ihrer Fachgeschichte, deren hermeneutische Theorie auf der Unterscheidung von Produktion, Text und Rezeption beruht. Seit dem 19. Jahrhundert hat es immer wieder Versuche gegeben, diesen Zusammenhang auch empirisch zu untersuchen. Berühmt geworden sind etwa Sievers’ Schallanalysen, die davon ausgingen, dass Autorschaftssignale sich als Schallprofile nachweisen lassen, die den Leser zu einer je spezifischen Aufnahme des Textes bewegen. Die sprachwissenschaftliche Phonetik lässt sich auf diese Untersuchungen zurückführen.

In der Entwicklung der Literaturwissenschaft fällt auf, dass die experimentelle Untersuchung des Zusammenhangs von Text und Rezeption und die Theoretisierung desselben gegeneinander verschobene Konjunkturzyklen haben. Der Experimentiergeist der Gründerzeit ist im Formalismus noch spürbar und wird unter den Vorzeichen der Avantgarde zugleich theoretisch überhöht. Im Strukturalismus überwiegt dann die Theorie, wenn es um die Bedeutung von Rezeption geht, und mit dem vermeintlichen Tod des Autors als Beginn des Poststrukturalismus hat sich die ›Lesertheorie‹ endgültig von der Empirie in die Textimmanenz verabschiedet (Close Reading).

Die Folgen davon waren lange spürbar. Dort, wo die Literaturwissenschaft Rezeption als etwas herausstellte, das dem Textverstehen nicht äußerlich ist, blieb die starke theoretische Konzeptionalisierung des Lesers fast durchgängig ohne Bezug zur empirischen Forschung. Das gilt für die Reader-Response-Theory in der Art von Stanley Fish wie für die Rezeptionsästhetik der Konstanzer Schule. Im Unterschied dazu grenzt die kognitive Narratologie ihren theoretischen Anspruch zwar teilweise von der empirischen Forschung ab (Jannidis 2008), hat diese aber andererseits immer intensiv beobachtet und für Modelle (Schneider 2000) oder systematische Lektüren (Caracciolo/Kukkonen 2021) fruchtbar gemacht.

Dass sich die Rezeptionsästhetik mit ihren Konzepten fast ausschließlich am akademischen, informierten Leser orientiert, ist oft moniert worden (Kavanagh 2021), stellt aber nicht das größte Problem dar. Dieses ist entstanden, weil in dem Maße, wie die Empirie aus dem Blick geraten ist, auch grundsätzliche theoretische Innovationen ignoriert worden sind, die für die rezeptionsorientierte Literaturwissenschaft konzeptionelle und forschungspraktische Relevanz haben.

In Isers Der Akt des Lesens ist die ursprüngliche Nähe zur experimentellen Psycholinguistik noch nachvollziehbar. Und umgekehrt ist Isers dort formulierte Neu-Operationalisierung des hermeneutischen Zirkels als Blickpunkt des Lesers, der je nachdem, ob sein im Lesefluss aktualisiertes Vorverständnis irritiert wird, antizipiert (Protention) oder zurückspringt (Retention), anschlussfähig für die Empirie des überwachten Lesens mit einem Eye Tracking-Gerät (Holmqvist 2011). Was Iser indes als ›impliziten Leser‹ theoretisch fasst, die Übernahme einer vom Text perspektivierten Rolle durch den Leser, folgt einem empiriefernen Reiz-Reaktions-Schema. In Isers Terminologie korrespondiert mit der »Textstruktur« eine kognitive »Aktstruktur« des Lesers (Iser 1994, S. 66), über die dieser auf den Text reagiert. Genauer ausgeführt wird der kognitive Akt des Lesens allerdings nicht. Iser belässt es bei einer im Vergleich zur Textebene vagen phänomenologischen Idee von Bewusstseinskorrelaten, die als Gestaltbildungsprozesse beschrieben werden. Im Kontext des Verstehens literarischer Figuren im Leseprozess sind diese gestaltpsychologischen Anleihen nachvollziehbar. Wie bei Isers narratologischen Argumenten etwa zur Wirkung von Ironiesignalen ist aber auch hier deutlich, dass Rezeption nur in einem Richtungssinn als Wirkung des Textes und damit nicht wirklich als Kognition des Lesers erfasst wird. Im Grunde legt Isers Theorie ihre Perspektive auf den Akt des Lesens auch terminologisch offen, wenn sie vom impliziten Leser spricht. Impliziert wird der Leser strukturalistisch gedacht vom Text.

4 Vom impliziten zum expliziten Leser

Nicht mitgedacht werden können in dieser Perspektive die konzeptionellen Veränderungen, die die Kognitionswissenschaft in den letzten fünf Jahrzehnten aus den Grundlagen der Phänomenologie entwickelt hat. Dass diese neuen Konzepte bisher an den literaturwissenschaftlichen Rezeptionstheorien vorbeigegangen sind, dürfte an der narzisstischen Kränkung liegen, die sie der Literaturwissenschaft im Hinblick auf deren identitätsstiftenden Gegenstand zufügen. Im Kern geht es diesen Konzepten darum, dass das Gehirn beim kognitiven Akt des Lesens eben nicht nur auf Reize des Textes reagiert, sondern mit eigenen Strukturbedingungen über die Möglichkeit von Wahrnehmung und Verstehen entscheidet. Diese kognitive Ausstattung der Lesenden sprengt den Rahmen dessen, was als impliziter Leser gedacht werden kann, und nötigt dazu, sich mit dem expliziten Leser zu beschäftigen.

Im Folgenden diskutiere ich kurz drei Studien, die ich für die Auseinandersetzung mit diesem expliziten Leser für fruchtbar halte. Die erste hat für Aufsehen gesorgt, weil sie eines der Grundkonzepte der Wahrnehmungstheorie, das zugleich eine der wesentlichen gesellschaftlichen Ressourcen unserer Zeit darstellt, aufgrund von experimentellen Befunden neu zu denken vorschlägt. In ihrem Paper A rhythmic theory of attention (Fiebelkorn/Kastner 2019) nutzen Ian Fiebelkorn und Sabine Kastner die Evidenz aus vielen verschiedenen Experimenten zur menschlichen Aufmerksamkeit, um eine neue Theorie zu formulieren. Methodisch spielt dabei die Messung von Gehirnströmen während bestimmter Aufgaben, die Aufmerksamkeit verlangen, eine zentrale Rolle. Theoretisch wird das bereits breit konsolidierte Konzept eines attention networks im Gehirn vorausgesetzt, innerhalb dessen verschiedene Regionen neuronal zusammenwirken, um visuelle Informationsverarbeitung in der Koordination von Sensorik und Motorik zu bewältigen.

Probanden, die den Verlauf eines Lichtpunktes auf einem Bildschirm verfolgen, sind in diesem Kontext ein klassisches Experimentdesign. In einem unaufgeräumten Zimmer zu stehen und nach einem bestimmten Gegenstand zu suchen ist ein populäres Szenario, mit dem die Autoren verständlich machen wollen, was sie »Sampling« nennen: das gezielte Sammeln visueller Informationen. Diese kognitive Grundaktivität lässt sich in zwei räumliche Komponenten zerlegen, in die selektive Verarbeitung von Informationen des Auges (Sensorik) und in die explorative Bewegung des Auges zu relevanten Stellen (Motorik).

Die theoretische Pointe von Fiebelkorn und Kastner besteht darin, dass die beiden raumgreifenden Operationen zeitlich koordiniert werden, indem sie sich in einem bestimmten Grundrhythmus abwechseln. Während der Sakkaden genannten Augenbewegungen, der schnellsten Bewegung, zu der der menschliche Körper fähig ist, bleibt das Auge blind. Es können keine Informationen aufgenommen werden. Daher werden, das zeigen die in ihrer unterschiedlichen Funktionalität interpretierbaren Frequenzbänder der untersuchten Hirnströme, sensorische Verarbeitung und Verschiebung der Aufmerksamkeit zeitlich getrennt. Beim Shifting (Informationsverarbeitung unterdrückt) werden viermal pro Sekunde Augenbewegungen vorbereitet, was die Flexibilität des kognitiven Wahrnehmungssystems erhöht. Beim Sampling (Motorik unterdrückt) stehen entsprechend mehr Ressourcen für die Verarbeitung zur Verfügung.

Folgt man dieser empirisch konsolidierten Theorie, dann unterscheidet sich Aufmerksamkeit nicht nur erheblich von der intuitiven Vorstellung, die wir in der Alltagskultur davon haben. Wenn Aufmerksamkeit kein Kontinuum, sondern diskontinuierlich ist und einen Rhythmus besitzt, den wir bei unseren kognitiven Aktivitäten seiner Geschwindigkeit wegen nicht bemerken und auf den wir keinen bewussten Zugriff haben, dann ergeben sich für die Textwissenschaften grundlegende Anschlussfragen. Dies umso mehr, als Neuro- und Kognitionswissenschaft keinen Zweifel daran lassen, dass die Rhythmen neuronaler Oszillation nicht nur das Sehen, sondern die Wahrnehmung insgesamt prägen. Es handelt sich mithin um eine supramodale Eigenschaft, die für das menschliche Gehirn bei jeder kognitiven Aktivität die Grundeinstellung darstellt (Bolger et al. 2013; Lakatos et al. 2009; Lee/Noppeney 2014).

Der explizite Leser folgt demnach dem Rhythmus von Informationsaufnahme – Shift –Informationsaufnahme – Shift – … Und das ist zwar grundsätzlich mit Isers Vorstellung vom »wandernde[n] Blickpunkt« (Iser 1994, S. 177) vereinbar, allerdings nicht so, wie sich die textorientierte Rezeptionsästhetik das vorgestellt hat. Denn der Aufmerksamkeitsrhythmus des kognitiven Apparats verfügt über ein erhebliches Eigenleben, sodass die wohl wichtigste Anschlussfrage für die Literaturwissenschaft sich auf die Interaktion mit dem Text beim Lesen richtet. Wenn der Rhythmus der Aufmerksamkeit eine supramodale Regularität darstellt, sind die verschiedenen Domänen von Interesse, auf denen sich diese Regularität entfaltet. Das Lesen von Text ist eine davon, das Hören von Tönen oder die Orientierung im Raum wären andere.

Was hier in Frage steht, lässt sich nur empirisch beobachten, und angesichts der Geschwindigkeiten des unbewussten kognitiven Verhaltens braucht es dazu hochsensible Geräte, wozu neben dem Elektroenzephalographen (EEG), der auf die Spur der diskontinuierlichen Aufmerksamkeit geführt hat, vor allem Eye Tracking-Geräte zählen. In einer aktuellen Studien stellt Thomas Fabian eine Versuchsanordnung und einen Standard für die Datenauswertung vor, die eine Möglichkeit zeigen, die Herausforderungen des expliziten Lesers konzeptionell und analytisch zu bewältigen (Fabian in Vorbereitung). Dazu gehört zunächst die Einsicht, dass die Standards der linguistischen Eye Tracking-Forschung der literaturwissenschaftlichen Rezeptionsästhetik nicht unähnlich sehr stark von der Orientierung an Textwirkungen geprägt sind. Die von Rayner und im Anschluss an ihn entwickelten Modelle gehen von der Annahme aus, dass die Augenbewegungen beim Lesen von den linguistischen Merkmalen des Textes bestimmt werden. So lässt sich Rayner zufolge die Wahrscheinlichkeit, dass ein Wort beim Lesen fixiert oder aber übersprungen wird, allein aus drei Eigenschaften ableiten: aus seiner Länge, seiner Häufigkeit im Text und seiner Antizipierbarkeit im Satz (Clifton et al. 2016). Die Leseforschung mit dieser Perspektive beschreibt das Lesen von Texten als Prozessieren linguistischer Information, welches als kognitiv einzigartig angesehen und grundsätzlich unterschieden wird von Aufmerksamkeitsleistungen in anderen visuellen Domänen. Vergleichende Experimente konnten diese Sichtweise bestätigen (Andrews/Coppola 1999; Rayner 2009; Rayner et al. 2007).

Fabian fordert mit seinem Versuchsaufbau das Konzept des auch in der sprachwissenschaftlichen Sichtweise impliziten Lesers heraus und stellt sich im Rückgriff auf die neuro- und kognitionswissenschaftliche Forschungsrichtung, wie sie Fiebelkorn und Kastner vertreten, in die Perspektive des expliziten Lesers, der zufolge davon auszugehen ist, dass sich Leseverhalten nicht nur vom Text ausgehend, sondern, mit umgekehrtem Richtungssinn, auch vom kognitiven Apparat aus erklären lässt. Dem entsprechend kombiniert sein Leseexperiment eine klassische Leseaufgabe mit einer nicht textbasierten Aufgabe zum linearen Durcharbeiten visueller Objekte, die er dem foraging zuordnet. Dieser aus der Verhaltensbiologie entlehnte Begriff bezeichnet die Koordination von visuellem Sampling und Bewegung bei der Nahrungssuche, die für Tiere ein wesentliches evolutionäres Kriterium darstellt. Als Bewegung kommt in diesem Fall die Bewegung der Augen in Betracht.

Die Probanden des Experiments lasen im zufälligen Wechsel einerseits Ausschnitte aus einem balancierten Romankorpus des 20. Jahrhunderts und der Gegenwart, und betrachteten, geleitet von einer Zählaufgabe, andererseits individuelle Folgen von roten und blauen Dreiecken und Vierecken mit durchgehend wechselnder Neigung. Die Abstände zwischen den Figuren wurden den Wortfolgen in den Textstimuli nachempfunden, indem an der Position jedes vierten Buchstaben eine Figur platziert wurde. Vergleicht man beide Stimulusarten vor dem Hintergrund dessen, was die Eye Tracking-Forschung über das Verhältnis von Fokussierung und antizipierendem, parafovealem Sehen (dem Blick nach rechts aus dem Augenwinkel) weiß, weisen sie tatsächlich vergleichbare Charakteristiken auf.

In seiner Datenanalyse untersucht Fabian die Unterschiede im Verlauf der Augenbewegungen (Scan Paths) zwischen beiden Stimulusarten und kommt zu dem Schluss, dass sich das visuelle Verhalten beim Textlesen in allen räumlichen Dimensionen kaum vom Verhalten bei der zielgerichteten Betrachtung von Figurenfolgen unterscheidet. Das legt nahe, dass hier tatsächlich domänenübergreifende, supramodale Eigenschaften des visuellen Wahrnehmungsverhaltens beobachtet worden sind. Einen Unterschied stellt die Studie allerdings bei den vorwärts gerichteten Augenbewegungen (Sakkaden) fest und schlussfolgert daraus, dass die zielgerichtete Blickführung domänenabhängig sei.

Fabians Untersuchung präsentiert wichtige Evidenz dafür, dass Texteigenschaften allein das visuelle Leseverhalten nicht erklären können. Und sie zeigt damit auch, weshalb die Perspektive vom impliziten zum expliziten Leser wechseln muss, wenn, wie von der Rezeptionsästhetik postuliert, das Gelesenwerden von Texten der Bedeutung nicht äußerlich bleibt. Als Träger kognitiver Strukturen, die experimentell zu beobachten sind, ist der explizite Leser zudem nicht deckungsgleich mit dem in Form von Metadaten zum Leseverhalten erfassbaren empirischen Leser. Wie sich Textmerkmale und reading habits zu den supramodalen Regularitäten der Wahrnehmung verhalten, ist eine Frage, die Sprach- und Literaturwissenschaft im besten Sinne herausfordert.

Mit einer einzigen, nachher berühmt gewordenen Geschichte haben die Kognitionspsychologen Daniel Kahneman und Amos Tversky in den 1980er Jahren Erzählen und Narrativbildung auf eine Weise experimentell erforscht, die bis heute die Erklärungen der Kognitionswissenschaft vom Verständnis der Literaturwissenschaft trennt. Die Geschichte war kurz, nicht mehr als eine Personenbeschreibung einer 31 Jahre alten Universitätsabsolventin, die als freimütig und intelligent charakterisiert wird. Ihr Hauptfach war Philosophie, und während ihrer Studienzeit galt ihr Interesse Themen wie Diskriminierung und soziale Gerechtigkeit. Außerdem nahm sie an Protesten der Anti-Atomkraft-Bewegung teil (Kahneman 2012, S. 195). Kahneman und Tversky legten diesen kurzen Text Studierenden vor und baten sie zu entscheiden, welche Möglichkeit wahrscheinlicher sei: Linda ist eine Bankkassiererin (1) oder Linda ist eine Bankkassiererin und in der feministischen Bewegung aktiv (2)?

Das Experiment wurde berühmt, weil die überwältigende Mehrheit der Versuchsteilnehmerinnen und Versuchsteilnehmer sich vom Narrativ des Textes mitreißen ließ und fand, dass Linda eine typische Repräsentantin des Feminismus sei. Folglich hielten es die meisten für wahrscheinlicher, dass die beschriebene Frau eine ›feministische Bankkassiererin‹ ist. Der klassischen Wahrscheinlichkeitstheorie nach handelt es sich dabei um eine conjunction fallacy, ein Fehlurteil, das übersieht, dass die spezialisierende Verbindung zweier Bedingungen immer unwahrscheinlicher ist als die allgemeine Bedingung allein. Alle feministischen Bankkassiererinnen sind Bankkassiererin, also muss Bankkassiererin wahrscheinlicher sein.

Grundsätzlich lassen solche im Alltag häufig anzutreffenden logischen Fehlleistungen zwei Schlussfolgerungen zu: Wir können lernen, bessere, wahrscheinlichkeitstheoriekonforme Urteile zu fällen, oder wir verwenden zur Modellierung der kognitiven Urteilsprozesse eine alternative Wahrscheinlichkeitstheorie (man beachte, dass natürlich auch beides zugleich möglich ist). Den ersten Weg wählte Kahneman, der als Wirtschaftsberater und Buchautor dafür eintritt, die Intuition zu disziplinieren, den »Sünden der Repräsentativität« (Kahneman 2012, S. 190) zu widerstehen und sich im Urteil nicht von noch so plausibel scheinenden Geschichten verführen zu lassen.

In die Richtung des zweiten Weges zeigt eine Untersuchung, die die Quantentheorie als alternative Erklärung ins Spiel bringt (Pothos/Busemeyer 2013). Pothos und Busemeyer verweisen darauf, dass die den Leserinnen und Lesern zur Beurteilung der Linda-Geschichte vorgelegten Antwortmöglichkeiten als inkompatible Fragen verstanden werden können. Werden beide Fragen nacheinander beantwortet, kann die Beantwortung der ersten Einfluss auf die Beantwortung der zweiten haben und dabei den kognitiven Zustand der um eine Antwort gebetenen Leser verändern. Es ist dann nicht möglich, die Frage, ob Linda eine Bankkassiererin ist, und jene, ob sie Feministin sei, im Sinne der klassischen Wahrscheinlichkeitstheorie nach Bayes so zu verbinden, dass aus den Antwortwahrscheinlichkeiten der beiden Einzelfragen die Wahrscheinlichkeit für alle vier möglichen Kombinationen von Antworten berechnet werden kann.

Begründet wird die alles entscheidende Möglichkeit der Veränderung des kognitiven Zustands zwischen den Fragen mit dem Superpositionsprinzip der Quantenmechanik. Weil sich Quanten nicht in festen Zuständen befinden, greifen die Gesetze der klassischen Physik nicht, es müssen alle möglichen Zustände als parallel existierend angenommen werden. Sie befinden sich in Superposition. Die Pointe von Pothos und Busemeyer liegt nun darin, dass die Superposition, die die Linda-Geschichte bei den befragten Lesern erzeugt, nicht unabhängig von den Kontextinformationen über Linda aufgelöst werden kann. Das Narrativ der Geschichte macht es sehr unwahrscheinlich, dass Linda Bankkassiererin ist und sich die Superposition in diese Richtung auflöst. Geht man aber nach der wahrscheinlicher scheinenden Verbindung (Bankkassiererin und Feministin) davon aus, dass Linda zunächst einmal Feministin ist, und folgt damit dem, was die Geschichte suggeriert, ist es nicht mehr unmöglich, in ihr auch eine Bankkassiererin zu sehen.

[O]nce participants think of Linda in more general terms as a feminist, they are more able to appreciate that feminists can have all sorts of professions, including being bank tellers. (Pothos/Busemeyer 2013, S. 264)

Was also nach der klassischen Wahrscheinlichkeitstheorie ein Fehlurteil darstellt, ergibt sich natürlich aus den Prämissen einer quantentheoretischen Modellierung des Urteilens über eine gelesene Geschichte. Ohne Frage wird dabei der explizite Leser beobachtet, wobei für dessen Verhalten Texteigenschaften maßgeblich sind, nämlich einerseits die Fähigkeit des Stimulus-Textes von Kahneman und Tversky, in nur zwei Sätzen ein starkes Narrativ zu erzeugen, und andererseits die Kontextabhängigkeit der Fragen zu diesem Text. Stärker noch als das ursprüngliche Experiment macht die theoretische Reformulierung der Ergebnisse durch Pothos und Busemeyer darauf aufmerksam, dass beide Texte bei der Beobachtung des expliziten Lesers zusammengehören. Die Fragen zu Linda setzen die Personenbeschreibung fort. Sie unterscheiden sich in ihrer Anschlussfähigkeit an das Narrativ des Textes. Das Urteilsverhalten der Leser bezüglich der Geschichte hängt entscheidend davon ab, dass der im narrativen Kontext entgegen der klassischen Wahrscheinlichkeitstheorie plausibilisierte Teil der Frage zur Protagonistin zuerst beantwortet wird, was Sequenzialität als eine Texteigenschaft herausstellt, die in Anschlussexperimenten untersucht werden sollte.

5 Ausblick

Im Anschluss an Pothos und Busemeyer (2013) müsste überprüft werden, auf welchen literaturwissenschaftlich relevanten Ebenen die unterschiedliche Sequenzialisierung von Texten die Wahrnehmung und die Beurteilung des Gelesenen beeinflusst. In der Linda-Geschichte sind es prädikative Propositionen. Es wäre zunächst zu untersuchen, ob sich dieses Ergebnis mit Texten, die weniger stark mit Narrativen aus gemeinsamem Weltwissen arbeiten, wiederholen lässt. Probeweise könnten Hypothesen entlang der Frage entwickelt werden, ob und wie sich narrative Passung und Wahrscheinlichkeitsgefühl, wenn sie über Reihenfolge manipuliert werden, auch auf die kognitive Verarbeitung während des Lesens auswirken. Schließlich können schrittweise alle möglichen Reihenfolgen variiert werden, z. B. intratextuell die von Ereignissen und Personenbeschreibungen. Intertextuell lassen sich Text/Kontext-Verhältnisse unterschiedlich sequenzialisieren. Auch paratextuelle Reihungsvarianten sind denkbar.

Neben solchen konkreten Ideen für zukünftige Experimente macht die neue Perspektive auf Wahrscheinlichkeit auch die historische Semantik dieses Begriffs wieder theoretisch attraktiv. Platon hielt den Künsten vor, nur Scheinwahrheiten zu verbreiten. Aristoteles aber verpflichtete die Dichtung auf den Wortsinn dieser Metapher und verlangte, sie möge den Schein der Wahrheit nach Kriterien der Ähnlichkeit gestalten. Die Terminologisierung der Metapher, so Blumenberg in seiner Metaphorologie, ließ in der neuzeitlichen Wissenschaftsgeschichte die Bedeutung des Begriffs als Probabilität so dominant werden, dass der ursprüngliche Bezug zur Ähnlichkeit unkenntlich wurde (Blumenberg 1998). Die Folgen davon sieht man noch in Kahnemans Auswertung der Linda-Geschichte, die in repräsentativer Ähnlichkeit nur mehr die Ursache des Fehlgehens von Erkenntnis sehen kann. Die Quantentheorie sieht etwas anderes, weil sie Wahrscheinlichkeit und Wahr-Scheinlichkeit wieder zusammendenkt.