1 Digitale und nicht-digitale Literaturwissenschaft

Die Frage nach dem Status der Digital Humanities hat mittlerweile durch ihre Institutionalisierung in Form von Professuren, Forschungsfeldern, Konferenzen und Förderlinien eine pragmatische Antwort gefunden oder zumindest deutlich an Dringlichkeit verloren. Damit geht eine Phase teilweise ermüdender und wenig ergiebiger Diskussionen zu Ende. Die Diskussionen um die Inhalte der Digital Humanities sind im Umfang deutlich weniger, vielleicht auch, weil man sie – lapidar, aber doch treffend – abkürzen kann: Im Grunde handelt es sich immer dann um Digital Humanities, wenn der Gegenstand oder die Methodik einer geisteswissenschaftlichen Forschung digital ist. Allerdings scheint es im Kontext der disziplinären Entwicklungen einen wesentlichen Unterschied zu machen, welchen Teil nun das Digitale ausmacht. Während nämlich digitale Gegenstände relativ problemlos in die traditionellen Geisteswissenschaften integriert worden sind, wurden und werden digitale Zugänge bzw. Methoden weniger offen aufgenommen. Die damit verbundene Frage nach dem Verhältnis der nicht-digitalen Geisteswissenschaften zu den Digital Humanities ist durchaus legitim. Ihre Diskussion sollte aber nicht als Grundsatzdebatte geführt werden, an deren Ende es nur einen ‚richtigen‘ Zugang geben kann, sondern vielmehr als gewinnbringende Perspektive auf die beteiligten Seiten genutzt werden. Durch die Betrachtung beider Felder und ihrer Ähnlichkeiten und Unterschiede werden nämlich Eigenarten der Felder sichtbar, die ohne die Kontrastierung kaum wahrgenommen werden, jedoch zur Reflexion und damit zur Weiterentwicklung beider Felder beitragen können.

Dieser Beitrag will sich in einem Bereich der Literaturwissenschaft an einer solchen kontrastierenden Betrachtung versuchen. Im Zentrum soll ein Aspekt der literaturwissenschaftlichen Arbeit stehen, der ein, wenn nicht das literaturwissenschaftliche Verfahren par excellence ist: die hermeneutische Analyse literarischer Texte. Diese soll beispielhaft für das literaturwissenschaftliche Forschungsparadigma betrachtet werden. Dabei sollen als ‚hermeneutisch‘ jene Verfahren bezeichnet werden, die auf das Lesen, Verstehen und Interpretieren von Texten ausgerichtet sind.Footnote 1 Dieses paradigmatische literaturwissenschaftliche Verfahren bildet den Hintergrund, vor dem die Erfahrungen aus zwei Digital-Humanities-Projekten beleuchtet werden sollen, die mit textnahen, manuellen Annotationen gearbeitet haben. Die Kontrastierung besteht entsprechend nicht in der Gegenüberstellung der nicht-digitalen und der digitalen Zugangsweise, sondern darin, die digitale Zugangsweise auf die Verfahren der nicht-digitalen Literaturwissenschaft zu beziehen. Aufgrund der methodischen Vielfalt in der Literaturwissenschaft ist eine direkte Gegenüberstellung beider Zugänge schwierig. Die Betrachtung kann deshalb hauptsächlich Aussagen darüber hervorbringen, ob und wo die digitale Zugangsweise die etablierte Literaturwissenschaft verändert, ergänzt oder erweitert.Footnote 2

Diese Rückbindung an die nicht-digitale Literaturwissenschaft erscheint aber erfolgsversprechend, da die manuelle Annotation von Texten ein Verfahren ist, das – im Sinne des Hervorhebens und ggf. Kommentierens bzw. Interpretierens von Textstellen – auch unabhängig von Digital-Humanities-Kontexten als Close-Reading-Technik betrachtet wird.Footnote 3 Das betrachtete textanalytische Verfahren ist also ursprünglich ein nicht-digitales, weshalb der Hiat zwischen traditionellem Methodenparadigma und den angewendeten Methoden wesentlich kleiner sein sollte als im Falle von auf meist wesentlich größere Textmengen Distant-Reading-Methoden wie stilometrischen Analysen oder Topic Modeling. Durch diese größere Nähe zur etablierten literaturwissenschaftlichen Praxis der Textanalyse kann der Zugang auch jene Literaturwissenschaftlerinnen und Literaturwissenschaftler ansprechen, die eben doch eine „fitness of method“, eine methodische Passung zum Gegenstand, erwarten und an der „determination of interpretive boundaries“ interessiert sind – Aspekte, die Stephen Ramsay im Kontext des Algorithmic Criticism im Rahmen digitaler Zugänge für wenig relevant hält, die aber fest im Selbstverständnis der traditionellen Literaturwissenschaft verankert sind.Footnote 4

2 Close Reading in den Digital Humanities

Während in der literaturwissenschaftlichen Textanalyse Close-Reading-Verfahren durchaus etabliert sind, stellen sie im Bereich der Digital Humanities eher eine Ausnahme dar. Automatisierte Verfahren werden nicht für das Close Reading genutzt, weil sie dafür aus philologischer Sicht (noch) nicht geeignet sind, aber auch Verfahren wie das der manuellen und damit analyseintensiven Annotation werden bislang – außerhalb des Feldes der Editionsphilologie oder zur Anreicherung von Korpora für die maschinelle Verarbeitung – selten angewendet. Insbesondere die interpretationsbasierte Annotationstätigkeit kommt im Digital-Humanities-Kontext kaum vor. Entsprechend wird in der Taxonomy of Digital Research Activities in the Humanities (TaDiRAH),Footnote 5 die u. a. entwickelt wurde, um Vorhaben dabei zu unterstützen, „information on digital humanities tools, methods, projects, or readings“ zusammenzutragen, Annotation als erläuternd oder strukturell/linguistisch eingeführt und zur Forschungsaktivität der „Anreicherung“ („Enrichment“) gezählt.Footnote 6 Da der Ansatz in TaDiRAH generisch ist, um möglichst umfassend sein zu können, könnte man Annotation im Sinne des Close Reading in der Literaturwissenschaft als immerhin mitgemeint auffassen. Allerdings ist TaDiRAH so angelegt, dass die Forschungsaktivitäten „Analysis“ und „Interpretation“ auf „Enrichment“ aufbauen, Annotation in diesen Aktivitäten aber keine Rolle spielt. Das ist, zusammen mit der Aussage, dass „die Taxonomie auch eine Modalität des Nachdenkens darüber [ist], was die digitalen Geisteswissenschaften sind“,Footnote 7 aus Perspektive der literaturwissenschaftlichen Textanalyse unbefriedigend.

Andererseits gab es in den letzten zwanzig Jahren eine Reihe von Beiträgen zur Textanalyse, die als Fürsprecher für Annotation im Sinne des digitalen Close Reading gelesen werden können.Footnote 8 Sie thematisieren oder exemplifizieren die interpretierende Auszeichnung von Texten als geisteswissenschaftliche PraxisFootnote 9 und haben durch fortwährende Referenzierung z. T. einen nahezu kanonischen Status erlangt. Aber auch dies scheint keinen nachhaltigen Effekt zu haben. In Einführungswerken und Forschungspublikationen wird kaum auf manuelle Annotation als literatur- oder zumindest geisteswissenschaftliche Praxis Bezug genommen – teilweise selbst dann nicht, wenn auf die genannten Texte verwiesen wird.

So wird im Kapitel Annotationen in der Einführung in die Digital Humanities von Jannidis/Kohle/RehbeinFootnote 10 neben Unsworth und Renear sogar McGann zitiert.Footnote 11 Die Darstellung der Rolle von Annotation konzentriert sich aber auf Aspekte der Standardisierung, Disambiguierung und Edition. Zu Verfahren, die potenziell digitales Close Reading betreffen, findet sich nur ein Hinweis auf „private“ Annotationen.Footnote 12 Ebenso geht es an allen weiteren Stellen in der Einführung, in denen Annotation thematisiert wird, primär um ihre Rolle bei der Datenaufbereitung.

Auch im neuen, stark überarbeiteten A New Companion to Digital HumanitiesFootnote 13 findet sich kaum etwas zu Annotation im Sinne des digitalen Close Reading. Der Index weist für Annotation nur einen Untereintrag zu virtuellen Welten („virtual worlds and annotation“Footnote 14) sowie den Eintrag „text markup“ aus, der – ebenso wie alle Untereinträge – auf McGanns bereits erwähnten, unveränderten Beitrag verweist. Alle weiteren Markup-bezogenen Verweise beziehen sich auf Markup-Sprachen und damit auf Standards, nicht auf Methoden.Footnote 15 Von den sechs textorientierten Beiträgen im Abschnitt Analysis stammen zwei aus dem alten A Companion to Digital Humanities,Footnote 16 die anderen vier sind neu. Abgesehen von McGanns Beitrag thematisiert aber kein Artikel die interpretatorische Praxis bzw. den Status von Annotation als literaturwissenschaftliche Tätigkeit.

Eine oberflächliche Suche in den einschlägigen, frei digital verfügbaren Publikationen bestätigt diesen Befund. Im A Companion to Digital Humanities, dem Companion to Digital Literary StudiesFootnote 17 sowie den Zeitschriften Digital Scholarship in the Humanities (und der Vorgängerin Literary and Linguistic Computing), Digital Humanities Quarterly und der Zeitschrift für digitale Geisteswissenschaften sind mittlerweile beinahe 1000 Artikel und Beiträge erschienen. Die Suche nach den Begriffen ‚Annotation‘ oder ‚Markup‘ sowie ihren jeweiligen Varianten ergibt immerhin fast 500 Treffer. Auch wenn einige Dopplungen dabei sein dürften, so scheint Annotation doch ein Kernkonzept im Bereich der Digital Humanities zu sein. Beschränkt man allerdings die Treffer auf jene, in denen außerdem ‚manual‘ oder ‚manuell‘/‚händisch‘ bzw. deren Varianten vorkommen, schrumpft die Menge auf etwas über 120 Beiträge. Von diesen dürfte wiederum ein Teil irrelevant sein, weil etwa der Begriff ‚manual‘ im Sinne eines Handbuchs verwendet wird oder die Suchbegriffe ausschließlich in den Literaturangaben vorkommen. Die genaue Auswertung der Treffer steht noch aus,Footnote 18 aber eine kursorische Durchsicht der Texte bestätigt: Manuelle Annotation wird hauptsächlich im Rahmen von digitalen Editionen und von automatisierter Textanalyse thematisiert. Die Probleme der Textanalyse, die mit der manuellen Annotation im literaturwissenschaftlichen Bereich entstehen, werden hingegen kaum explizit adressiert.

Dies kann als Zeichen dafür gewertet werden, dass es sich bei manuellen Verfahren aus Digital-Humanities-Perspektive doch eher um einen (rein) literaturwissenschaftlichen Zugang handelt, der entsprechend wenig interessant ist. Genauso kann es als ein Befund interpretiert werden, der auf ein Versäumnis verweist. Plausibel sind beide Erklärungen. Eine Diskussion über die Ursachen dafür erscheint mir jedoch zum jetzigen Zeitpunkt wenig sinnvoll. Deshalb soll jetzt das Augenmerk auf konkrete Annotationsprojekte und ihren literaturwissenschaftlichen Beitrag gerichtet werden.

3 Zwei exemplarische Fälle computergestützter Annotation

3.1 Manuelle Annotation im Projekt Erzählen über Konflikte

Als erstes Beispiel für digitales Close Reading soll mein Dissertationsprojekt diskutiert werden, das ich von 2008 bis 2013 bearbeitet habe.Footnote 19 Es verfolgte im Rahmen einer narratologischen Textanalyse einen manuellen, computergestützten Zugang. Die zugrunde liegende Forschungsfrage war, inwiefern narrative Strukturen eines Textes Aussagen über seine Konflikthaftigkeit zulassen. Am Beispiel von Erzählungen über Arbeitskonflikte, die als Interviews erhoben wurden, wurde deshalb eine möglichst umfassende narratologische Analyse vorgenommen, die darauf abzielte, eine möglicherweise distinktive narrative Konfiguration von Konflikterzählungen – im Kontrast zu Erzählungen ohne Konfliktbezug – herauszuarbeiten. Dafür wurden unter Rückgriff auf Lahn/MeisterFootnote 20 bzw. Hühn u. a.Footnote 21 etwa 400 narratologische Kategorien in einem Korpus von 39 Erzählungen untersucht, um anschließend anhand der Verteilung der Phänomene auf konflikthafte und konfliktlose Erzählungen die narrative Konfiguration dieser Erzählungstypen zu beschreiben.Footnote 22

Die Forschungsfrage entstand ursprünglich in einem nicht-digitalen Kontext. Sie war als Beitrag zur Methodik der Konfliktbearbeitung intendiert, der gleichzeitig eine Überprüfung der Anwendbarkeit narratologischer Konzepte beinhaltete: Da bei Konfliktbearbeitungsmethoden wie etwa der Mediation konfliktrelevante Aspekte z. T. unter Rückgriff auf narrative Strukturen beschrieben werden, war es naheliegend, eine narratologische Untersuchung von Konfliktnarrativen zu unternehmen, um nach weiteren narrativen Strukturen zu suchen, die in der Konfliktbearbeitung als Indikatoren oder als Analyseansatz genutzt werden können. Der Zuschnitt der Untersuchung war damit in der Narratologie ein Novum, das verschiedene Herausforderungen mit sich brachte, die sich sowohl methodologisch als auch theoretisch auswirkten. Im Laufe der Arbeit habe ich dann das zeitgleich entwickelte Annotations- und Analysetool CATMAFootnote 23 als Werkzeug für die Textannotation hinzugezogen und etwa 28.000 Textstellen annotiert.

Auch wenn dies ursprünglich nicht geplant war: Der digitale Zugang hat die Analyse in der durchgeführten Form erst ermöglicht. Die Auszeichnung derart zahlreicher Phänomene ist in einem analog vorliegenden Text kaum so umsetzbar, dass sie erkenntnisgenerierend sein kann, da es praktisch unmöglich ist, eine Übersicht über die Phänomene und ihre Verteilung zu behalten. Noch problematischer sind Mehrfachannotationen, bei denen sich teilweise acht, neun oder mehr Analysekategorien an einer Textstelle überlagern. Auch die Auszeichnung von Phänomenen, die längere oder disjunkte Textpassagen umfassen, ist in der analogen Praxis schwer so umsetzbar, dass die entsprechenden Textstellen in ihrem Umfang oder ihrer Zugehörigkeit zueinander offensichtlich sind. Da die Analyse der Texte außerdem iterativ erfolgt, wäre ein Unternehmen mit einem solchen Umfang als analoges und damit nicht ohne Weiteres auszählbares und durchsuchbares Verfahren schlichtweg nicht praktikabel.

Die neuen Möglichkeiten erzeugten aber auch neue Probleme: Der induktive Zugang ohne Vorannahmen über die Beschaffenheit der narrativen Struktur und die narratologische Herangehensweise, die keine a-priori-Hierarchisierung ihrer Analysekonzepte vorsieht, boten beide keine Ansatzpunkte für eine Reihenfolge, in der die Phänomene identifiziert werden sollen. In der narratologischen Praxis ist das irrelevant, da narratologische Untersuchungen normalerweise nicht induktiv vorgehen, sondern bestimmte, für interessant befundene narratologische Aspekte von Texten, wie etwa Zeitstrukturen oder Figurencharakterisierung, umfangreicher untersuchen. Im Falle der Analyse der narrativen Strukturen von Konflikterzählungen war dies anders: Der induktive Zugang verlangte nach einer umsichtigen Sequenzierung der Analyseschritte in Bezug auf die analysierten Phänomene. Schließlich bedeutet jede weitere Iteration im hermeneutischen Zirkel eine Anreicherung und Veränderung des Vorverständnisses bzw. eine Weiterentwicklung des erlangten Textverständnisses und damit einen Schritt weg vom induktiven Zugang, der zuerst sammelt und dann analysiert bzw. interpretiert. Die über 400 narratologischen Kategorien, die in 14 Phänomenbereichen (etwa ‚Figuren‘, ‚Redewiedergabe‘, ‚Raum‘ etc.)Footnote 24 organisiert waren, mussten deshalb in eine Analysereihenfolge gebracht werden. Für diese wurde die möglichst geringe Auseinandersetzung mit dem Text als Maßstab genommen. Die Texte sollten entsprechend nicht über das für das jeweilige Phänomen betrachtete Maß hinaus analysiert werden, um den Einfluss von weiterem Ko(n)textwissen oder Interpretationshypothesen aus der vorhergehenden Betrachtung anderer Phänomene auf die jeweilige Analyse möglichst gering zu halten. Um dies zu erreichen, wurde eine Priorisierung von Analysekonzepten entwickelt, die auf einer Gewichtung der Kategorien in Bezug auf ihre Komplexität basierte. Unter Rückgriff auf (i) den Grad an Interpretationsabhängigkeit (im Sinne von semantischer Interpretation und Weltwissen), (ii) die Menge des für das Phänomen typischen Textumfangs und (iii) den für die Analyse benötigten zusätzlichen intratextuellen Kontext wurde deshalb ein Ranking der Komplexität der Analysekategorien erarbeitet. Die resultierende Reihenfolge der Analyse beginnt bei Zeit und Raum und reicht – u. a. über Redewiedergabe, Erzählebenen und Figuren – vom zeitlichen Verhältnis zwischen discours und histoire (also Ordnung, Dauer und Frequenz) bis zu Perspektive und schließlich Informationsvergabe und umfasst damit das Spektrum von „interpretationsarm“/„nur Worte bzw. Wortgruppen betreffend“/„kaum kontextabhängig“ bis hin zu „interpretationsintensiv“/„den ganzen Text betreffend“/„vom Gesamtkontext abhängig“.Footnote 25

Ein weiterer Effekt des induktiven Zugangs war, dass aufgrund des dadurch entstehenden Umfangs der Arbeit eine theoretische Auseinandersetzung mit den narratologischen Analysekategorien nicht möglich war und deshalb nicht der Analyse vorangestellt wurde. Die Auseinandersetzung mit den Kategorien erfolgte nur so weit, wie es nötig war, um sie für die Anwendung zu operationalisieren, also in Guidelines zu überführen, die bis zu einem gewissen Grad wiederholbare Analysen ermöglichen.

Allerdings sind im Zuge der Operationalisierung und Anwendung durchaus Probleme offensichtlich geworden, die für die narratologische Theorie von Bedeutung sind. Diejenigen, die im Hinblick auf die Anwendung gelöst werden konnten, wurden genauer betrachtet. So wurde etwa eine Reihe von Konzeptdefinitionen präzisiert, um Zweifelsfälle eindeutig annotieren zu können. Auf andere Probleme konnte nur verwiesen werden. So etwa auf die Zusammenhänge zwischen narratologischen Kategorien, die durch den breiten Zugang offensichtlich wurden. Diese sind in der theoretischen Debatte bislang unbemerkt geblieben, sollten aber im Sinne einer Systematisierung der narratologischen Konzepte weiter diskutiert werden.

Ein anderer Aspekt der Zusammenhänge wurde jedoch im Rahmen des Projekts bearbeitet: Für die konkrete Textanalyse folgt nämlich aus den offengelegten Zusammenhängen, dass einige Phänomene erst sinnvoll analysiert werden können, nachdem andere Phänomene untersucht wurden. So sind etwa narrative Ebenen aufgrund der mit ihnen verbundenen Analyse der erzählten Welten als ontologische Konstrukte Voraussetzung für alle narratologischen Phänomene, die die histoire-Ebene – also die Ebenen des Geschehens, nicht die des Textes – einer Erzählung betreffen oder mit dieser in Verbindung stehen. Solche vorausgesetzten Phänomene müssen bei der narratologischen Analyse nach vorne gezogen werden, um die auf ihnen aufbauenden weiteren Phänomene analysieren zu können.

3.2 Kollaborative manuelle Annotation im Projekt heureCLÉA

Die narratologischen Kategorien, die für die Analyse von Konflikterzählungen entwickelt wurden, flossen anschließend in das Projekt heureCLÉAFootnote 26, das von 2013 bis 2016 bearbeitet wurde und einen in zwei Hinsichten erweiterten Skopus hatte: Zum einen war das Ziel des Projekts, die narratologische Analyse von Zeitphänomenen in narrativen Texten zu automatisieren. Dies führte nicht nur auf literaturwissenschaftlicher Seite zu einem veränderten – und innerhalb des Fachs neuen – Einsatz von Annotationen. Auch für die computerlinguistische Seite des Projekts bedeutete die Fragestellung Neuland, denn die betrachteten Genette‘ schen Kategorien wie Ordnung, Dauer und FrequenzFootnote 27 waren dezidiert narratologisch und damit literaturwissenschaftlich ausgerichtet. Sie bewegten sich deshalb sowohl in ihrer Komplexität als auch in ihrer Relevanz für die Geisteswissenschaften weit jenseits gängiger Sprachverarbeitungszugänge zur Textanalyse – wie etwa dem Part-of-Speech-Tagging oder auch der Named Entity Recognition. Das Projekt verfolgte durch diese Berücksichtigung disziplinärer Bedarfe einen originär geisteswissenschaftlich motivierten Zugang und schlug eine Brücke zwischen traditionellem Close Reading und digitalem Distant Reading.Footnote 28

Für die Erstellung des manuell annotierten Korpus als Grundlage für die Automatisierung wurde ein kollaborativer Zugang gewählt, wonach jeweils mindestens zwei Annotatoren und Annotatorinnen Guideline-orientiert ein Phänomen im selben Text annotierten, um intersubjektiv abgesicherte Analyseergebnisse zu erhalten. Außerdem sollte die gegenseitige Beeinflussung der Annotatoren und Annotatorinnen vorerst möglichst gering gehalten werden, damit diese ein jeweils eigenes Textverständnis entwickeln können, bevor sie sich mit anderen darüber austauschen. Diese Anforderungen führten zu einer Struktur für den Analyseprozess, die folgende Analyseschritte vorsah:

  1. 1.

    Einarbeitung in die narratologische(n) Kategorie(n)

  2. 2.

    Lesen der Primärtexte

  3. 3.

    Vertrautmachen mit den GuidelinesFootnote 29

  4. 4.

    Annotieren der Texte

  5. 5.

    Diskussion über Probleme und Zweifelsfälle bei der Annotation; Festlegung einer Lösung

  6. 6.

    Überprüfung und ggf. Überarbeitung der Annotationen

Da auch im heureCLÉA-Projekt die Reihenfolge der Analyse an der steigenden Komplexität der genutzten Konzepte ausgerichtet war, mussten für alle folgenden Analysen von weiteren narratologischen Phänomenen außerdem die vorangegangenen Analysen der bereits bearbeiteten Phänomene berücksichtigt werden.Footnote 30 Die Auflistung der Schritte kann auch als eine Bewegung zwischen Vorwissen (1., 3., 5.) und Text (2., 4., 6.) im Sinne des hermeneutischen Zirkels betrachtet werden. Wenn man das Vorwissen um das narratologische Kategorieninventar, Guidelines und den Austausch über das Analysieren der Texte erweitert und zum Textganzen neben den Primärtexten auch die Annotationen sowie deren Überarbeitung zählt, modelliert die entwickelte Systematik den hermeneutischen Zirkel im Kontext der kollaborativen computergestützten Analyse.Footnote 31

Die Behandlung von nicht übereinstimmenden oder auch widersprüchlichen Annotationen musste außerdem aufgrund der interdisziplinären Ausrichtung des Projekts im Spannungsfeld zwischen literaturwissenschaftlichem Interpretationspluralismus und informationswissenschaftlichen Konsistenzanforderungen erfolgen. Das führte zu einer weiteren Systematisierung des Annotationsprozesses. Es ging dabei darum, ein Modell zu entwickeln, mit dem sowohl der Polyvalenz von literarischen Texten Rechnung getragen wird als auch der Umfang der Operationalisierung und der Iterationen der Annotation in Abhängigkeit von den zur Verfügung stehenden Ressourcen methodisch transparent gestaltet werden kann.Footnote 32 Dabei wurde neben einem System zur Bearbeitung von fehlerhaften Annotationen ein Zugang entwickelt, der einen flexiblen Umgang mit den Fällen erlaubt, in denen divergierende Annotationen durch divergierende Voranalysen bzw. divergierende Verständnisse weiterer – mit den betrachteten Kategorien im Zusammenhang stehender – Kategorien bedingt sind. Neben der Sensibilisierung für derartige Fälle, die oft implizit sind, hat das Modell den Vorteil, dass der Umgang mit diesen Fällen dem Bedarf innerhalb des Forschungsprojekts angepasst werden kann, der sich aus der Forschungsfrage und den Rahmenbedingungen des Projekts zusammensetzt. So erzeugte die Bestimmung von Anachronien – also Vor- und Rückgriffen in der Geschichte (Prolepsen, Analepsen) – im heureCLÉA-Projekt einen unerwartet geringen Konsens zwischen den Annotatoren und Annotatorinnen. In der Diskussion über die Annotationen stellte sich heraus, dass die Annotatoren und Annotatorinnen unterschiedlich mit den Erzählebenen in den Texten umgegangen waren und entsprechend in den weniger umsichtig analysierten Fällen Erzählebenen mit Anachronien verwechselt wurden. Deshalb musste die schon im Vorgängerprojekt festgestellte Abhängigkeit zwischen Erzählebenen und anderen Phänomenen mit Bezug zur histoire-Ebene der Erzählung berücksichtigt werden. Entsprechend wurden die Erzählebenen der Texte annotiert. Anschließend wurde die Analyse der Anachronien erneut vorgenommen. Der entstandene Mehraufwand war erheblich: Die Erzählebenen mussten analysiert werden – ein aufgrund der Omnipräsenz des Phänomens in narrativen Texten recht aufwendiges Unterfangen. Anschließend musste eine Überprüfung und in vielen Fällen eine Neubearbeitung der Anachronie-Annotationen erfolgen. Dies war nötig, um für die Automatisierung eine höhere Übereinstimmung zwischen den Annotatoren und Annotatorinnen zu erreichen, und möglich, weil die zusätzlichen Annotationen im Sinne einer narratologisch genauen Analyse waren. Ein anderer Zusammenhang, der ebenfalls narratologisch von Belang ist, wurde hingegen nicht umgesetzt: Bei der Analyse der Dauer – also des Verhältnisses zwischen dem zeitlichen Umfang der erzählten Geschichte und dem Umfang des Erzähltexts – waren die Annotationen z. T. widersprüchlich. Dieselbe Passage wurde von einer bestimmten Annotatorin als ‚gerafft erzählt‘ und von einem anderen Annotator als ‚gedehnt erzählt‘ annotiert. Es wurde also einmal behauptet, der Text der Passage sei im Verhältnis zum durch ihn erzählten Geschehen kurz, und einmal, der Text sei verhältnismäßig länger. Diese Widersprüche ließen sich auf das zugrunde liegende implizite Verständnis von Ereignishaftigkeit zurückführen. Konkret ging es um die Frage, ob im betreffenden Textteil etwas geschieht, also Ereignisse im narratologischen Sinne vorliegen, oder die Passage nicht narrativ ist.Footnote 33 Allerdings ist das Ereigniskonzept selbst in der Narratologie umstritten, und außerdem ist nicht absehbar, welche weiteren Interdependenzen zwischen Ereignissen und anderen narratologischen Kategorien bestehen. Gleichzeitig mussten wir aber von einer Interferenz mit den Zeitphänomenen ausgehen, da Ereignisse im narratologischen Verständnis Zustandsveränderungen sind und damit immer eine Zeitdimension besitzen. Neben diesen narratologischen Vorbehalten gab es noch einen pragmatischen: Da Ereignisse als „smallest indivisible unit“ narrativer Texte gelten,Footnote 34 würde die Annotation von Ereignissen einen kaum vertretbaren theoretischen wie praktischen Aufwand bedeuten. Deshalb wurde in diesem Fall ein vom Modell vorgesehener Mittelweg gewählt: Die Annotationen der Dauerphänomene wurden von allen Annotatoren und Annotatorinnen um Begründungen ergänzt, die das ihrer Analyse zugrunde liegende Verständnis von Ereignishaftigkeit explizieren. Gleichzeitig wurden alle dazu angehalten, darauf zu achten, dass sie ihr Konzept von ‚Ereignishaftigkeit‘ konsistent anwenden.

Die Auseinandersetzung mit den Fällen der Nichtübereinstimmung von Annotationen, die auf Zusammenhänge mit weiteren narratologischen Kategorien zurückzuführen sind, brachte auch systematische Zusammenhänge zwischen den bekannten narratologischen Kategorien der Zeit (Ordnung, Dauer, Frequenz) und narrativen Ebenen ans Licht. So ist, wie oben für die Analyse der Anachronien (Ordnung) erläutert, im Fall der Analyse von Ordnungs- und Dauerphänomenen ein mehrschrittiges Verfahren notwendig. Dabei wird jede narrative Ebene zunächst einzeln und erst anschließend unter Berücksichtigung weiterer – ggf. eingebetteter – Ebenen analysiert. Im Falle von Ordnung und Frequenz ist wiederum eine ontologische Bestimmung der analysierten Ebenen notwendig, da nur jene Ereignisse Kandidatinnen für die Ordnungs- und Frequenzphänomene sind, die auf derselben ontologischen Ebene, also in derselben fiktionalen Welt, stattfinden.

4 Computergestütztes Close Reading als literaturwissenschaftliches Forschungsparadigma?

4.1 Zur hermeneutischen Textanalyse

Inwiefern entsprechen nun die beschriebenen digitalen Arbeiten dem literaturwissenschaftlichen Paradigma der ‚hermeneutischen Textanalyse‘? Beide Projekte zeichnen sich zweifelsohne durch eine intensive Auseinandersetzung mit den Primärtexten aus und haben dementsprechend Texte als Objekte im Fokus. In den Projekten wurden u. a. etwa 28.000 bzw. 32.000 Textstellen annotiert, wobei die analysierten Primärtexte jeweils nur etwa 60.000 bzw. 80.000 Tokens umfassten. Wenn man das auf DIN-A4-Seiten umrechnet, sind das, abhängig von der angesetzten Zeichenzahl einer Seite, 100 bis 150 Seiten. Damit finden sich selbst bei einer vorsichtigen Schätzung von 150 Seiten durchschnittlich über 400 Annotationen auf einer Seite.Footnote 35

Um zu untersuchen, inwiefern die Arbeiten über das Close Reading hinaus einen Bezug zur literaturwissenschaftlichen bzw. hermeneutischen Textanalyse haben, muss diese genauer beschrieben werden. Hier kommt allerdings das bereits oben im Kontext der vorgenommenen Kontrastierung angesprochene Problem zum Tragen: Die hermeneutische Textanalyse ist nicht nur in konkreten Anwendungsfällen kaum methodisch expliziert, es gibt auch generell keine einheitliche Auffassung über das Verfahren. Der Grund dafür liegt in der Vielfalt literaturwissenschaftlicher Methoden, die „nicht in Reinform vorkommen, sondern Bestandteil einer Interpretationstheorie sind“, wobei zudem „statt genauer Angaben über einzelne Interpretationsschritte meist unspezifische Regeln formuliert werden“.Footnote 36 Versuche einer einheitlichen Beschreibung der literaturwissenschaftlichen Textanalyse gibt es deshalb nur in Einführungswerken oder Fachlexika. Die Beschreibungen in Einführungen sind – eher problematisierend als explizierend – darauf ausgerichtet, bei den Studierenden ein Verständnis für die Diversität der Zugänge in der Literaturwissenschaft zu entwickeln, das sich gleichzeitig von nicht-wissenschaftlichen Verfahren abgrenzt. Anstelle von detaillierten Beschreibungen wird das Vorgehen beispielhaft skizziert und mit allgemeinen Feststellungen oder Hinweisen ergänzt.Footnote 37 Einführungen können also keine Grundlage für die Darstellung literaturwissenschaftlicher Textanalyse sein. Deshalb basiert das in diesem Beitrag genutzte Verständnis des hermeneutischen Verfahrens auf einer Zusammenführung aus den für die Textanalyse und -interpretation einschlägigen Artikeln im Reallexikon der deutschen Literaturwissenschaft zu den Lemmata ‚Hermeneutik‘, ‚Hermeneutischer Zirkel‘, ‚Interpretation‘ und ‚Textanalyse‘.Footnote 38

Wie bereits oben eingeführt, wird ‚Hermeneutik‘ in Anlehnung an den gleichnamigen Eintrag im Reallexikon als auf das Lesen, Verstehen und Interpretieren von Texten ausgerichtet verstanden und nicht als die Umsetzung eines konkreten hermeneutischen Verfahrens im Sinne Schleiermachers, Gadamers oder anderer Theoretiker und Theoretikerinnen. Vielmehr werden mit dem Begriff ‚hermeneutisch‘ zwei Aspekte herausgestellt, die wesentlich sind für literaturwissenschaftliche Textanalysepraxis und die Reflexion darüber: Der hermeneutische Zugang zu Texten bedeutet zum einen, dass das Verstehen – im Gegensatz zum Erklären – im Zentrum der Aktivitäten steht. Entsprechend zielen weiterhin die Bemühungen, die unter ‚Hermeneutik‘ gefasst werden können, auf die Rekonstruktion der Phasen und des Verlaufs des Textverstehens in einem Verstehensmodell ab.Footnote 39 Die daraus resultierenden Modelle können unter den sogenannten ‚hermeneutischen Zirkel‘ gefasst werden, der wiederum eine Beschreibung für die „[w]echselseitige Abhängigkeit von Verständnis eines Ganzen und seiner Teile“ ist.Footnote 40 Es geht beim Textverstehen entsprechend darum, diese Abhängigkeit, die sich als Dilemma darstellt, aufzulösen. Dies geschieht durch das sogenannte Vorverständnis des Textganzen oder seiner Teile, das das Verstehen leitet, wobei es vom Text bestätigt oder revidiert werden kann.Footnote 41 Führt man dieses Vorgehen zurück auf die zentralen Aktivitäten der Hermeneutik – das Lesen, Verstehen und Interpretieren von Texten –, so ermöglicht die Unterscheidung zwischen Textanalyse und Interpretation die differenziertere Beschreibung literaturwissenschaftlicher Tätigkeiten.Footnote 42 Unter ‚Textanalyse‘ werden wiederum zwei Komponenten gefasst: die Beschreibung und die Analyse. Die Beschreibung beinhaltet zumeist rein deskriptive Verfahren, die auf die quantifizierbaren Faktoren sowie sprachlichen Oberflächenphänomene eines literarischen Textes abzielen. Die Analyse zielt hingegen auf Strukturbildung und untersucht entsprechend „globalere strukturelle Merkmale eines Textes” wie Isotopien oder andere interne semantische Beziehungen zwischen Textelementen.Footnote 43

‚Textanalyse‘ – also Beschreibung und Analyse – ist außerdem die „Vorstufe und Bedingung der Interpretation“, wobei die Grenzen zwischen der Analyse und der Interpretation von Texten aus erkenntnistheoretischer Sicht fließend sind.Footnote 44 Grundsätzlich sind aber Bedeutungszuweisungen im Rahmen der Textanalyse elementarer bzw. textnäher als bei einer Interpretation und damit leichter überprüfbar.Footnote 45

Die Unterscheidung zwischen den Begriffen ‚Textanalyse‘ und ‚Interpretation‘ scheint teilweise analog zur Unterscheidung zwischen ‚Textteilen‘ und ‚Textganzem‘ zu sein und entsprechend die beschriebenen Abhängigkeiten im hermeneutischen Zirkel abzubilden. In beiden Fällen sind allerdings keine trennscharfen Unterscheidungen der konstituierenden Elemente möglich, was die Grenzen zwischen den Begriffen ‚Analyse‘ und ‚Interpretation‘ ebenso fließend macht wie jene zwischen ‚Verständnis von Textteilen‘ und ‚Verständnis des Textganzen‘ oder jene zwischen ‚Erklären‘ und ‚Verstehen‘.

Trotz dieser Unschärfen soll für die folgenden Betrachtungen ‚hermeneutisches Textverstehen‘ definiert werden als dreistufige Auseinandersetzung mit Texten in Form von Beschreibung, Analyse und Interpretation. Diese Auseinandersetzung findet außerdem iterativ statt, wobei die Iterativität durch zwei Typen von Abhängigkeiten bedingt ist: Zum einen werden alle drei Aktivitäten (Beschreibung, Analyse und Interpretation) durch ein heuristisches Vorverständnis beeinflusst, zum anderen greift die jeweils höherkomplexe Aktivität auf die weniger komplexe(n) Aktivität(en) zurück.

4.2 Computergestütztes Close Reading als literaturwissenschaftliches Verfahren

Das entwickelte Verständnis hermeneutischen Textverstehens soll nun als Grundlage für eine Bewertung der beschriebenen Aktivitäten und Entwicklungen in den beiden Projekten dienen. Entsprechend wird im Folgenden dargelegt, welche Aspekte der Forschungsarbeit unter die drei wesentlichen Aktivitäten – Beschreibung, Analyse und Interpretation – der hermeneutischen Textanalyse fallen und welche das quer zu diesen verlaufende Vorverständnis betreffen. Der Zusammenhang zwischen Beschreibung, Analyse und Interpretation, der durch den Aufbau der jeweils komplexeren Tätigkeiten auf den weniger komplexen Aktivitäten begründet ist, wird nicht eigens adressiert, da die Abgrenzung der drei Tätigkeiten nicht ohne Weiteres möglich ist. Er ist aber z. T. in den jeweiligen Darstellungen und insbesondere in den übergreifenden Ausführungen zum Vorverständnis erkennbar.

Noch ein Hinweis zur Verwendung des Terminus ‚Analyse‘: Im Reallexikon werden unter Verweis auf die gängigen Verwendungsweisen des Begriffs bzw. daraus zusammengesetzter Begriffe mehrere Tätigkeiten der literaturwissenschaftlichen Auseinandersetzung mit Texten erläutert, von denen drei für diesen Beitrag relevant sind. Da die Einführung weiterer, neuer Begriffe für diese Tätigkeiten nicht ohne Weiteres möglich ist und potenziell andere Arten von Verwirrung verursacht, werden die Begriffe aus dem Reallexikon im Wesentlichen übernommen. ‚Textanalyse‘ wird also als Oberbegriff für die hauptsächlich intratextuell ausgerichteten Tätigkeiten genutzt, die durch diese Ausrichtung von der Interpretation abgegrenzt werden können. ‚Analyse‘ bezeichnet eine der beiden intratextuellen, textanalytischen Tätigkeiten. Sie kann, da sie komplexer auf die Textstruktur ausgerichtet ist, von der anderen Komponente, der ‚Beschreibung‘, abgegrenzt werden. Die im Reallexikon ebenfalls unter dem Terminus ‚Textanalyse‘ gefasste, mit der Untersuchung literarischer Texte zusammenhängende Tätigkeit wird schließlich als ‚hermeneutische Textanalyse‘ bezeichnet. Damit werden also sowohl die Analyse und Beschreibung umfassende Textanalyse als auch die Interpretation von Texten gefasst.

4.2.1 Beschreibung

„[D]ie überwiegend deskriptiven Verfahren, die sich auf Sprache und Form eines literarischen Textes richten“, gelten als ‚Beschreibung‘.Footnote 46 Im Falle der klassischen Narratologie ist zumindest ein Teil der Phänomene eher auf der Ebene des Textes bzw. der Textoberfläche anzusiedeln, deshalb kann ihre Bestimmung als ‚Beschreibung‘ gelten. Die hier diskutierten Projekte hatten außerdem eine nachfolgende Automatisierung der Analysen im Blick, weshalb eine möglichst textinterne Analyse angestrebt wurde und insbesondere Oberflächenphänomene eine Rolle in der Analyse spielen sollten. Da zudem selbst jener Teil der Textanalyse, der der Beschreibung dient, „technisch gesehen […] auf interpretierenden Annahmen beruhen“ kannFootnote 47 und damit Elemente der Analyse aufweist, kann die narratologische Analyse zumindest auch als Textbeschreibung aufgefasst werden.

Wenn man davon ausgeht, dass die verwendete Terminologie für die Beschreibung von Texten zentral ist, fallen einige Aspekte der diskutierten Projekte unter die ‚Textbeschreibung‘. Beide Projekte haben unterspezifizierte Definitionen der narratologischen Konzepte offengelegt und ergänzt. Die im Laufe der Begriffsarbeit außerdem entdeckten Abhängigkeiten zwischen narratologischen Analysekategorien tragen ebenfalls zu diesem Aspekt der hermeneutischen Textanalyse bei. Wenn sich die Abhängigkeiten als stabil herausstellen, müssten die narratologischen Analysekategorien entsprechend überarbeitet werden. Neben der Systematisierung des Begriffsapparats im Sinne offengelegter Abhängigkeiten wäre dadurch außerdem eine Redundanzreduktion zu erwarten.Footnote 48 Die damit weiterentwickelte Terminologie stellt eine verbesserte Struktur für die Untersuchung literarischer Texte im Sinne einer Beschreibung dar.

4.2.2 Analyse

Bei der aus Beschreibung und Analyse bestehenden ‚Textanalyse‘ geht es hauptsächlich um Verfahren, die eine nachfolgende Interpretation des Textes strukturiert ermöglichen. Textanalyse ist die „Vorstufe und Bedingung der Interpretation“ bzw. ein „Verfahren zur Sicherung der Deutungsarbeit“.Footnote 49 Die ‚Analyse‘ als eine Komponente der Textanalyse betrifft im Vergleich zur anderen, bereits diskutierten Komponente, der ‚Beschreibung‘, komplexere Textphänomene. Je nach Auffassung über die Komplexität von narratologischen Kategorien kann auch die bereits diskutierte Arbeit an den Analysekategorien in den Bereich der Analyse fallen. Daneben sind es insbesondere die konkreten Schritte, die in den beschriebenen Projekten beim Annotieren gemacht wurden, die als Beitrag im Bereich der ‚Analyse‘ gesehen werden können. In beiden Projekten entstanden im Forschungsprozess Anforderungen, die dazu führten, dass die Analyseroutine expliziert, erweitert oder überhaupt erst ausgearbeitet werden musste.

So etwa die Überlegungen zur Gewichtung der Analysekategorien. Diese waren von der verfolgten Fragestellung zur narrativen Struktur von Konflikterzählungen unabhängig und sind deshalb generell auf narratologische Analysen übertragbar, ebenso wie die daraus resultierende Reihenfolge der Analyse. Beide gelten außerdem unabhängig vom digitalen Zugang. Damit führte der durch die Digitalität des Zugangs erst entstandene Bedarf eines neuen Vorgehens zu einer methodologischen Erweiterung der narratologischen Analysepraxis, die auch für die nicht-digitale Narratologie relevant ist und dort angewendet werden kann.

Des Weiteren kann die Integration der Annotationen in den hermeneutischen Prozess als ein die Analyse betreffender Aspekt betrachtet werden. Die Tatsache, dass die Annotationen teilweise Grundlage für darauf aufbauende Analysen sind und gewissermaßen als zusätzlicher Text für die anschließende Interpretation vorliegen, führt ein neues, distinktes Element in den Analyseprozess ein.Footnote 50

4.2.3 Interpretation

Die ‚Interpretation‘ der analysierten Texte, also die Frage, inwiefern die Ergebnisse der Textanalyse als Interpretationsgrundlage genutzt wurden, um Hypothesen über die Bedeutung des Textes als Ganzes zu generieren,Footnote 51 ist ein wesentlicher Aspekt der meisten literaturwissenschaftlichen Praktiken im Umgang mit Texten. Allerdings wurde in der Beschreibung der beiden Projekte die Interpretation der Texte praktisch nicht erwähnt. Das liegt nicht nur daran, dass ‚Interpretation‘ im Sinne einer ‚Hypothese über Textbedeutung‘ in der klassischen Narratologie kaum eine Rolle spielt.Footnote 52 Die Bedeutung der Texte als Ganze spielte in diesen beiden Projekten eine besonders geringe Rolle, da es um Erkenntnisse über narrative Strukturen bzw. um die Erkennung dieser Strukturen ging.

Diese aus den Forschungsfragen heraus begründete Lücke im textanalytischen Prozess sollte aber nicht darüber hinwegtäuschen, dass im Kontext des digitalen Close Reading die Interpretation zumeist nicht nahtlos an die vorhergehenden Analysen anschließt. Das ist u. a. damit erklärbar, dass die meisten Tools zur Erstellung digitaler Annotationen nur – wenn überhaupt – eine Analyse der Texte ermöglichen, aber keine weitere Arbeit in Richtung Interpretation innerhalb des Tools unterstützt wird. Auch Tools wie CATMA, die explizit für die literaturwissenschaftliche Textanalyse entwickelt wurden und den iterativen Analyseprozess durch die nahtlose Integration von Annotations- und Suchfunktionalitäten modellieren, stellen ihren Nutzerinnen und Nutzern keine Funktionalitäten zur Verfügung, die diese zur Erarbeitung einer Interpretation nutzen können. Es gibt zwar seit einiger Zeit Ansätze, die die geisteswissenschaftlichen Forschungs- und Verstehensprozesse in einer digitalen Umgebung unterstützen, indem sie das Generieren von Hypothesen und sogar das Publizieren der entstehenden Interpretationen ermöglichen.Footnote 53 Doch während in den Sozialwissenschaften Werkzeuge wie NVivo, atlas.ti oder MAXQDA zur Verfügung stehen, die den gesamten Forschungsprozess umfassen, der auch dort im Wesentlichen vom Etablieren von Analysekategorien über die Annotation und Analyse der Daten bis hin zur Entwicklung einer InterpretationFootnote 54 reicht, hat sich bislang in den textbasierten Geisteswissenschaften kein System etablieren können, das die bestehende Lücke zwischen der Analyse und der darauf aufbauenden Interpretation schließt. Dies mag daran liegen, dass in den Sozialwissenschaften der Ausdifferenzierungsprozess in ‚qualitative‘ und ‚quantitative Sozialwissenschaften‘ Jahrzehnte zurückliegt und entsprechend sowohl die für die Forschungsprozesse unterstützenden Tools schon lange bekannt sind als auch die Kontroverse über den geeigneten – qualitativen oder quantitativen – Zugang zum Forschungsmaterial mittlerweile eher unaufgeregt und dadurch zielorientiert geführt wird. Dadurch sind die Forschungsprozesse wesentlich klarer und die Ansätze zu ihrer Unterstützung vielfach erprobt. Diese Entwicklung zeichnet sich in den Geistes- und insbesondere den Literaturwissenschaften erst ab. Der Prozess der Interpretation muss dort noch genauer erforscht und beschrieben werden, um Tools entwickeln zu können, die wirklich geisteswissenschaftliche Analysepraktiken im Sinne des mittlerweile 50 Jahre alten Prinzips „Human using Language, Artefacts, Methodology, in which he is Trained“ (H-LAM/T) von Engelbart unterstützen.Footnote 55 Dabei geht es im Wesentlichen darum, dass Werkzeuge wie etwa Papier und Stift „allow humans in some sense to do what they already do in the way of thinking about problems – but do those things more efficiently – at least once they are trained in the use of these tools“.Footnote 56

Auch wenn in den beschriebenen Projekten die Interpretation der Texte kaum eine Rolle spielte, sind zwei ihrer Ergebnisse im Kontext der weiteren Betrachtung des gesamten Prozesses der hermeneutischen Textanalyse – und damit auch der Interpretation – relevant. Der beschriebene erweiterte hermeneutische Zirkel sowie der entwickelte Ablauf des Annotationsprozesses können nämlich als Ansätze für die Abbildung des gesamten hermeneutischen Textanalyseprozesses dienen. Auf dessen Basis können solche Tools entwickelt werden. Die Strategien zur Überprüfung nicht übereinstimmender Annotationen im entwickelten Modell zur kollaborativen Annotation können darüber hinaus – digital oder nicht-digital – als Zugang zu Interpretationsverfahren genutzt werden. Das zugrunde liegende Prinzip des „agreed disagreement“Footnote 57 könnte ein effektives Werkzeug zur Untersuchung von Interpretationsprozessen sein, da es zum einen auf klar strukturierten Analyseschritten basiert und zum anderen durch den kollaborativen Modus einen intersubjektiven Blick auf Interpretationen erzeugt. Außerdem erweitert es die hermeneutische Grundannahme „agreement is the basis of understanding“Footnote 58 unter Rückgriff auf das Konzept der textlichen Ambiguität bzw. Polyvalenz im Sinne der literaturwissenschaftlichen Paradigmen der Interpretationspluralität.

4.2.4 Vorverständnis

Im Reallexikon wird das ‚Vorverständnis‘ als Element diskutiert, das die gesamte hermeneutische Textanalyse beeinflusst „durch die Ansetzung eines schon bestehenden oder sich spontan bildenden Vorverständnisses (d. h. einer heuristischen Antizipation) des Ganzen oder der im Text verhandelten Sache, das dann das Verstehen der Teile leitet und umgekehrt von diesem bestätigt oder revidiert wird“.Footnote 59 Weimar erläutert dabei nicht weiter, wie das Vorverständnis beschaffen ist. Da heuristische Verfahren immer dann eingesetzt werden, wenn das zur Verfügung stehende Wissen nicht ausreicht, um eine Frage zum Text zu beantworten, sind im Kontext der literaturwissenschaftlichen Textanalyse mit dem Vorverständnis als „heuristischer Antizipation“ vermutlich Annahmen gemeint, die beim Erschließen des Textverstehens eingesetzt werden können.

Im digitalen Zugang ist die Frage des Vorverständnisses ähnlich opak wie im nicht-digitalen. Allerdings wurde das Vorverständnis, das in den beiden Projekten in die hermeneutische Textanalyse mit einfloss, an manchen Stellen sichtbar. So wurde durch die Arbeit an und mit den Guidelines das terminologische Vorverständnis offensichtlich, das bei der Beschreibung des Textes eine Rolle spielt. Die Erstellung der Guidelines im Konflikterzählungsprojekt beinhaltete im ersten Schritt die schriftliche Fixierung des terminologischen Vorverständnisses. Mit diesem Vorverständnis wurde dann die Analyse versucht. In Zweifelsfällen oder Fällen, in denen sich ein Konzept nicht auf das vorhandene Textmaterial anwenden ließ, musste das Konzept so lange weiterentwickelt werden, bis es stabil anwendbar war. Damit kann die Begriffsarbeit auch als Entwicklung einer für die Beschreibung einsetzbaren Terminologie aus dem terminologischen Vorverständnis betrachtet werden.

Die kollaborative Arbeit mit den Guidelines im heureCLÉA-Projekt wiederum führte zur Explizierung weiterer impliziter Vorannahmen. Bei der Diskussion unterschiedlicher Annotationen wurde das (unterschiedliche) Vorverständnis der Annotatoren und Annatorinnen offengelegt. Dieses Vorverständnis betraf sowohl die Analysekonzepte als auch den Text selbst.

Eine dritte Form von ‚Vorverständnis‘ wurde schließlich durch die Entwicklung des Ablaufschemas für die literaturwissenschaftliche Annotation expliziert. Die systematische Beschreibung des Analyseprozesses ist als intersubjektiv gültige Offenlegung des Vorverständnisses von diesem Prozess intendiert. Auch wenn nicht eindeutig festgestellt werden kann, ob dies erreicht wurde, wurde zumindest das Vorverständnis der Projektbeteiligten expliziert und weiterentwickelt.

4.2.5 Weitere Aspekte

Die bisher beschriebenen Aspekte stellen einen Bezug zum literaturwissenschaftlichen Vorgehen her, das durch den digitalen Zugang verstärkt, aber nicht im Wesen verändert wurde. Es geht durchweg um Probleme der hermeneutischen Textanalyse, die durch den in Bezug auf Textmenge, Kategorienanzahl und Beteiligte umfangreicheren Zugang virulent wurden. Im Prinzip sind die resultierende Arbeit an Konzeptdefinitionen, die Methodenexplizierung und dergleichen natürlich nicht neu. Sie sind unabhängig vom digitalen Zugang möglich und notwendig.

Darüber hinaus gibt es aber einen Problemkomplex, der in der Literaturwissenschaft bisher nicht im Kontext der Verfahren der hermeneutischen Textanalyse diskutiert wurde. Hier geht es insbesondere um die bisher auch im Kontext der beschriebenen Projekte kaum thematisierte, bereits vor der eigentlichen Textanalyse liegende Frage nach der Qualität der Gegenstände, also nach den Primärtexten.

Die Qualität von Primärtexten wird bei einem großen Teil literaturwissenschaftlicher Analysen hauptsächlich anhand von Kriterien der Texttreue im weiteren Sinne (geeignete Textausgaben etc.) diskutiert. Die Zusammenstellung von verschiedenen Primärtexten zu einem Korpus hingegen wird in der Literaturwissenschaft zwar praktiziert, aber kaum problematisiert. Wenn die Forschungsfrage nicht zwingend mit der Textbasis zusammenhängt (z. B. bei einer Untersuchung aller Dramen Goethes in Bezug auf das Verhältnis zwischen männlichen und weiblichen Figuren), erfolgt die Korpuserstellung im nicht-digitalen Normalfall meist unter Verweis auf die Kanonizität der Texte. Die Exemplarität der Texte wird nicht weiter begründet, ihre Repräsentativität nur am Rande reflektiert. Auch in der Narratologie ist dies eine gängige Praxis. So begründet Genette (1998) in der Einführung zu seinem Standardwerk Die Erzählung die Analyse von Prousts Auf der Suche nach der verlorenen Zeit damit, dass er es analysiere und damit gleichzeitig seine Methode entwickle und anwende. Letzteres sei möglich, da die Besonderheiten von Prousts Text auch verallgemeinerbar seien.Footnote 60

In den vorgestellten Fällen ist dies anders: Bei der Untersuchung der Konfliktnarrative handelt es sich um ein literaturwissenschaftlich untypisches Korpus, da es erst generiert werden musste. Damit ist die Repräsentativität der Texte irrelevant, es können höchstens Kriterien für die Repräsentativität der erhobenen Interviews angelegt werden, was allerdings kein literaturwissenschaftliches, sondern ein sozialwissenschaftliches Problem ist.

Im heureCLÉA-Projekt liegt hingegen eher der Standardfall für eine literaturwissenschaftliche Textanalyse vor: Die Forschungsfrage bezieht sich auf bestehende Texte. Allerdings bedingt im Fall von heureCLÉA nicht das Textmaterial die Frage nach der automatisierten Analyse von Zeitphänomenen. Die Forschungsfrage ist vielmehr allgemeinerer, konzeptueller Natur – und damit vorerst unabhängig von konkreten Texten. Obwohl es insbesondere im digitalen Bereich grundsätzlich möglich ist, die Gesamtmenge bzw. Grundgesamtheit (Population) relevanter Texte in eine vollständige Datensammlung zu überführen, ist im Falle von heureCLÉA unklar, was die Texte ausmacht, die dieser Grundgesamtheit angehören.Footnote 61 Aus pragmatischen Gründen wurden deshalb folgende Ansprüche an die Texte gestellt: Die Texte mussten frei verfügbar sein, einen Umfang von etwa 5–10 Seiten haben und nach 1800 entstanden sein, um die Sprachvarianz und semantischen Verschiebungen gering zu halten. Außerdem sollten sie im Sinne der Fragestellung möglichst viele zeitliche Informationen enthalten und eine einfache narrative Struktur aufweisen.

Diese Kriterien wurden in diversen Vorträgen und Publikationen genannt, sie haben aber bisher keine kritische Reaktion erzeugt. Dies zeugt von einer Leerstelle der literaturwissenschaftlichen Methodik in Bezug auf fachliche Routinen zur Zusammenstellung eines Textkorpus als Untersuchungsgegenstand. Diese Routinen sollten insbesondere jene Fälle beschreiben, in denen die Zusammenstellung der Texte nicht vollständig und eindeutig aus der Fragestellung abgeleitet werden kann. Dort stellt sich nämlich immer die Frage nach der Repräsentativität der ausgewählten Texte, und diese ist literaturwissenschaftlich bislang wenig beleuchtet. Dabei ist insbesondere die Vermeidung von Fehlschlüssen, die durch – unbemerkte – Korrelationen entstehen, eine große Herausforderung.Footnote 62 So kann z. B. im Falle eines Korpus, anhand dessen die stilometrische Bestimmung des Autor-Genders vorgenommen werden soll, gleichzeitig eine weitgehend eindeutige Aufteilung der Genres der enthaltenen Texte entlang des Autor-Genders vorliegen. Bei der entwickelten, weitestgehend erfolgreichen Bestimmung dessen sind es dann aber nicht die Gender-Signale, sondern die Genre-Signale, die – versehentlich – gemessen werden.Footnote 63 Diesen Fehler zu entdecken, ist keine triviale Aufgabe.

Im Bereich der Digital Humanities gibt es durchaus Ansätze für die Erstellung und Bewertung von Korpora.Footnote 64 Die Beschreibung von unvollständigen Korpora in ihrer Funktion als Gegenstand literaturwissenschaftlicher Textanalyse steht allerdings – insbesondere für Fälle, die nicht als Referenzkorpora intendiert sind – noch aus.Footnote 65 Besonders für Ansätze, in denen der manuellen Annotation ein hoher Stellenwert zukommt und mit viel Aufwand betrieben wird, ist die Qualität des Korpus eine wesentliche Gelingensbedingung, die den vergleichsweise hohen Einsatz von Ressourcen erst rechtfertigt. Ein literaturwissenschaftlich nicht adäquates Korpus führt dazu, dass im Zweifelsfall mit viel Zeit und Mühe eine gute Forschungsfrage methodisch vorbildlich an einem dafür ungeeigneten Gegenstand untersucht wird. Damit wird nicht nur die Forschungsfrage nicht beantwortet bzw. nicht beantwortbar. Auch die Nachnutzbarkeit der Daten, die den Ressourceneinsatz rechtfertigt, ist aus literaturwissenschaftlicher Sicht nicht gegeben.

Ein weiterer Aspekt, der an die Frage der Korpuserstellung anschließt und mitbestimmt, inwiefern dieser Frage im Forschungsprozess größere Aufmerksamkeit gewidmet werden wird, ist die mit der Arbeit an Korpora verbundene wissenschaftliche Reputation. In der Literaturwissenschaft wird zwar die Erarbeitung von Editionen als literaturwissenschaftliche Tätigkeit honoriert – sie gelten als Publikationen und haben häufig die Bedeutung einer Monographie –, die Zusammenstellung und Aufbereitung eines Korpus wird allerdings bislang kaum als wissenschaftliche Leistung wahrgenommen, ebenso wenig wie die Anreicherung des Korpus mit Metadaten und Annotationen. Da außerdem sowohl die Korpuserstellung als auch die Auszeichnung der Korpustexte maßgeblich für die weitere Analyse der Texte sind, ist hier eine zweifache Entwicklung wünschenswert: Erstens braucht es die bereits geforderten Kriterien für die Korpuserstellung sowie Qualitätskriterien für die Textauszeichnung. Nur die Etablierung solcher Kriterien kann zweitens dazu führen, dass die mit der Korpuserstellung und -annotation verbundenen Tätigkeiten als wissenschaftliche Leistung anerkannt werden. Die Arbeit an und mit Korpora würde auf dieser Basis als wissenschaftliche Forschungs- und Publikationstätigkeit gewertet werden können. Vor allem kann sie infolgedessen im wissenschaftlichen Diskurs auf eine vergleichbare Weise adressiert werden wie fachlich etablierte Beitragsformen, so etwa Publikationen zu Textinterpretationen oder Methodenarbeiten. Im Kontext von Korpora und Korpusannotation besteht also sowohl in der digitalen als auch in der nicht-digitalen Literaturwissenschaft Bedarf an der Entwicklung von fachlich adäquaten Standards und Methoden.

5 Fazit

Wie verhält es sich nun mit computergestütztem Close Reading und der hermeneutischen Textanalyse? Der Beitrag macht deutlich, dass es durchaus Abweichungen zwischen den digitalen und den nicht-digitalen Verfahren gibt. Je nachdem, ob diese Abweichungen als bereits in der literaturwissenschaftlichen Textanalyse angelegt oder als kategorial neue und damit potenziell widersprüchliche Elemente betrachtet werden, muss auch die Beurteilung des digitalen Close Reading als literaturwissenschaftliches Verfahren ausfallen. Computergestütztes Close Reading kann entsprechend als Intensivierung oder Vertiefung des hermeneutischen Zugangs oder eben als dessen Veränderung aufgefasst werden.

Die in diesem Beitrag erfolgte Ausrichtung der Darstellung der Effekte digitalen Close Reading an den Elementen literaturwissenschaftlicher Textanalyse soll die Integrierbarkeit des digitalen Zugangs demonstrieren und ist deshalb ein Plädoyer für die Betrachtung von digitalem Close Reading als literaturwissenschaftliches Forschungsparadigma. Das ist aber kein zwingender Schluss, denn man darf nicht vergessen: Die diskutierten Punkte sind ein Versuch, aus der Erfahrung einiger weniger, methodisch relativ homogener Forschungsprojekte heraus über die Konsequenzen nachzudenken, die die manuelle digitale Annotation für den hermeneutischen Textanalyseprozess und die damit verbundenen Praktiken der Korpuserstellung und Textannotation hat. Entsprechend basieren die gemachten Beobachtungen auf exemplarischen Anwendungsfällen.

Allerdings wurden Konsequenzen des computergestützten Ansatzes diskutiert, die allgemeiner gültig sein können. Betrachtet man nämlich jene Aspekte des digitalen Close-Reading-Prozesses, die für oben beschriebene Erweiterungen von literaturwissenschaftlichen Verfahren ursächlich sind, so scheinen diese unabhängig von den verfolgten Fragestellungen oder der angewandten Methode zu sein.

Insgesamt sind es drei Besonderheiten des digitalen Zugangs, die einander bedingen und – einzeln oder kombiniert – den literaturwissenschaftlichen Reflexionsprozess in den beiden Projekten angestoßen haben:

  • Annotation als distinktes Verfahren Annotationen im digitalen Kontext sind technisch bedingt genauer als nicht-digitale Annotationen. Die Annotation eines Textes erfordert die präzise Bestimmung der zu annotierenden Textstelle – selbst wenn es sich um einen Textbereich handelt, muss dieser auf das Zeichen genau definiert sein, um vom Computer gespeichert und weiterverarbeitet werden zu können. Ebenso ist der Umgang mit den Kategorien anders als im analogen Bereich: Die Vergabe von Tags erfordert eine vorherige Benennung dieser Tags und fördert eine anschließende Überprüfung der Stringenz und Plausibilität ihrer Vergabe. Analysekategorien müssen deshalb zwar nicht zwingend systematisch verwendet werden, aber ihre unsystematische Verwendung wird schneller offensichtlich.

  • Textanalyse als definierter Prozess Die beiden Effekte digitaler Annotation – genauere Text- und Konzeptbestimmung – führen wiederum dazu, dass der Analyseprozess selbst in den Fokus der Analysierenden tritt. Auch hier gilt wieder, dass dies nicht gezwungenermaßen zu einer Explizierung und Systematisierung des Vorgehens führt. Allerdings ist es wahrscheinlicher, weil die bestehenden Defizite im Analyseprozess – implizite, widersprüchliche oder ungenaue Schritte – augenscheinlich werden und es naheliegend ist, diese zu beheben oder zumindest dadurch zur Prozessbeschreibung beizutragen, dass Gründe für die Nichtbehebung der Defizite angegeben werden.

  • Kollaboration als intersubjektiver Zugang Schließlich befördert die Tatsache, dass Annotationstools meistens kollaborative Funktionen haben, den ohnehin schon vorwiegend teamorientierten Arbeitsmodus in digitalen Projekten. Kollaboration stellt damit die dritte Besonderheit des digitalen Zugangs dar. Bereits das Speichern der Annotationen ermöglicht intra- und intersubjektiv eine intensivere Auseinandersetzung mit den in den Annotationen festgehaltenen Analysen. Kommt der kollaborative Modus hinzu, wird das intersubjektive Paradigma zum default-Fall in der Analyse und fördert nicht nur den Erkenntnisgewinn über Konzepte, Analyseverfahren und schließlich Gegenstände, sondern auch die Auseinandersetzung mit dem in der hermeneutischen Textanalyse stattfindenden Erkenntnisgewinn selbst.

Alle drei Besonderheiten digitaler Annotation sind, wie ausgeführt, unabhängig vom narratologischen Zugang. Deshalb kann man davon ausgehen, dass sie auf andere textanalytische Verfahren einen ähnlichen Einfluss haben. Unabhängig von der Frage der Passung zum literaturwissenschaftlichen Methodenparadigma scheinen daher digitale Close-Reading-Techniken generell als Ansatz geeignet, den Prozess der hermeneutischen Textanalyse aus der Praxis heraus zu erforschen und die Verfahren einer bestimmten Methode oder Interpretationstheorie offenzulegen, zu überprüfen und zu verbessern. Die Frage nach der Art des Zugangs – manuell oder automatisiert – ist dabei sekundär.

Ergänzung 2021

Seit dem Symposium „Digitale Literaturwissenschaft“ im Herbst 2017 gab es in den Feldern, die in meinem Beitrag adressiert werden, einige Entwicklungen. Auf der grundsätzlichen Ebene hat die – von mir am Rande diskutierte – Frage der Replizierbarkeit literaturwissenschaftlicher ForschungFootnote 66 in Form des als Replizierbarkeitsstudie verpackten Beitrags von Nan Z. DaFootnote 67 einen teilweise erbitterten Schlagabtausch über die vermeintlichen Schwachstellen der Computational Literary Studies ausgelöst. Die Frage nach dem Verhältnis zwischen dem digitalen und nicht-digitalen Feld der Literaturwissenschaft ist also weiterhin virulent und der Ausgang der Debatte offen.

Innerhalb des digitalen Feldes hingegen gibt es im Bereich der digitalen Hermeneutik hauptsächlich zwei positive Entwicklungen, die mit den Arbeiten in diesen Feldern einhergehen. Erstens hat insbesondere die Perspektive auf manuelle Annotation als literaturwissenschaftliche Textanalyse deutlich an Bedeutung gewonnen. Die Rolle manueller Annotationen in der hermeneutisch fundierten Datenerzeugung wird etwa in mehreren Beiträgen in den Sammelbänden von Nantke & Schlupkothen (2020) und – z. T. mit einer auf andere Geistes- und Sozialwissenschaften erweiterten Perspektive – Reiter, Pichler & Kuhn (2020) diskutiert. Außerdem scheint sich im literaturwissenschaftlichen Kontext eine Wahrnehmung von Annotationsrichtlinien als wissenschaftliche Ergebnisse zu entwickeln: Diese werden nicht nur häufiger publiziertFootnote 68, sondern die Fachzeitschrift Cultural AnalyticsFootnote 69 hat mittlerweile auch einen Sonderband angenommen und publiziert, der Annotationsrichtlinien enthält, die im Rahmen eines Shared Task zur Richtlinienerstellung für Erzählebenen entwickelt wurden.Footnote 70 Damit gibt es nun die erste, durch Peer Reviewing qualitätsgesicherte Publikation von Annotationsrichtlinien.

Die zweite Entwicklung betrifft die Frage der literaturwissenschaftlichen Korpuskompilierung, welche in den vergangenen Jahren ebenfalls prominenter wurde. Neben den Ansätzen zur Korpuserstellung, die Algee-Hewitt & McGurl (2015) unter Rückgriff auf kanonische und nicht- bzw. antikanonische Auswahllisten vorgestellt haben, gibt es inzwischen Überlegungen zur Kompilierung großer und sehr großer Korpora von Herrmann & Lauer (2018)Footnote 71, die mit Blick auf die Operationalisierung literaturwissenschaftlicher Fragestellungen umgesetzt wurden, sowie größere Initiativen zur Erstellung literarischer Korpora. Besonders hervorzuheben sind hier die European Literary Text Collection (ELTeC) (Odebrecht, Burnard & Schöch 2021) sowie das in DraCor umgesetzte Konzept der Programmable Corpora (Fischer u. a. 2019), die beide literarische Korpora in mehreren Sprachen zur Verfügung stellen. Ähnlich wie das Erstellen von Annotationsrichtlinien hat dadurch auch das Kompilieren von Korpora eine Aufwertung als wissenschaftliche Leistung erfahren. Dies ist nicht zuletzt ersichtlich an der Nutzung der CRediT (Contributor Roles Taxonomy)Footnote 72 im Bereich der Digital Humanities, in der Data Curation als Rolle definiert ist, oder in der erfolgreichen Etablierung von Datenjournalen wie dem Digital Humanities-spezifischen Journal of Open Humanities Data (JOHD)Footnote 73.