Der Begriff ‚digitale Literaturwissenschaft‘ ist, wie die vergleichbare Formulierung ‚digitale Geisteswissenschaften‘, eine Verlegenheitslösung, um allzu barocke Bezeichnungen zu vermeiden. Genauer wäre es, von der Literaturwissenschaft im Kontext der Digitalisierung und Vernetzung zu sprechen. Digitalisierung und Vernetzung betreffen den Gegenstand der Literaturwissenschaft, also literarische Texte im weitesten Sinne sowie die verschiedenen Formen gesellschaftlicher Kommunikation über diese Texte, ebenso wie die disziplinären Methoden der Aufbereitung des Gegenstands sowie der Analyse und die Schnittstellen des Fachs zu den angrenzenden Institutionen, insbesondere den Bibliotheken und Archiven. Nimmt man noch hinzu, dass es ‚die‘ Literaturwissenschaft nicht gibt, sondern vielmehr eine Vielzahl sehr unterschiedlicher Philologien mit sehr eigenen Traditionen – selbst innerhalb einer Nationalphilologie wie der germanistischen Literaturwissenschaft –, sodass selbst eine Formulierung wie ‚die germanistische Literaturwissenschaft‘ in erster Linie eine nützliche, aber eben auch stark homogenisierende Fiktion ist, dann wird klar, wie groß und divers das Feld ist, über das in diesem Band gesprochen werden soll. Man wird diese Diversität in einigen Jahren, wenn die Quellen entsprechend ausgewertet worden sind, vielleicht angemessener in ihren jeweiligen Häufigkeitsverteilungen beschreiben können. Die Aufgabe, die sich dieser Band gesetzt hat, ist demgegenüber altmodischer: Es geht darum, durch Reflexion auf den inzwischen erreichten jeweiligen Stand in ausgewählten Arbeitsfeldern Möglichkeiten und Probleme des Digitalen sichtbar zu machen. Die getroffene Auswahl privilegiert offensichtlich die Innovationen in unangemessener Weise, wenn unter ‚angemessen‘ verstanden wird, die Literaturwissenschaft insgesamt in Zeiten der Digitalisierung und Vernetzung in einer Momentaufnahme zu beschreiben. Aber darum geht es uns nicht. Vielmehr soll das Momentum der Veränderung im Vordergrund stehen. Nicht weil dahinter die These steht, dass diese Veränderung bald das ganze Fach ergreifen wird, sondern weil es der Teil ist, der uns aufgrund seines Innovations- und Irritationspotentials besonders interessiert.

Bevor die Bereiche, in denen der vorliegende Band diese Veränderungen nach- und vorzeichnet, wenigstens ansatzweise skizziert werden, einige Worte zur Ausgangslage: Unter ‚Digitalisierung‘ oder ‚digitaler Transformation‘ versteht man den gesamten Prozess der gesellschaftlichen Veränderung bedingt durch die Verwendung von digitalen Informationen in einer vernetzten Welt. Auch wenn man erkannt hat, dass dieser Prozess nahezu alle Bereiche des Lebens erfasst, sind die Gestalten und Auswirkungen der Transformation nur in Ansätzen verstanden – und das betrifft auch die Wissenschaften. Wie so oft beim Verständnis von Neuem ist weder die Rhetorik der disruptiven Innovation noch die Gegenrhetorik, dass alles beim Alten bleibe, sehr hilfreich. Die neue Qualität dieser Welt beruht nicht auf einer ontologischen Differenz, sondern auf der enormen Beschleunigung der Prozesse. Digitale Informationen können, anders als analoge Informationen, in eine prinzipiell endlose Kette von sofortigen Verarbeitungsprozessen eingespeist werden. Man kann das Vorkommen eines Wortes in einer Millionen Seiten auch analog ermitteln oder die partiellen Ableitungen in einem neuronalen Netz auch mit der Hand berechnen, aber der Zeitaufwand wäre so groß, dass daraus keine neuen, allgemein verwendeten Praktiken entstehen könnten. Das gilt mutatis mutandis auch für die Vernetzung und die Geschwindigkeit des Informationstransports. Die Komplexität der Prozesse, die durch das Digitale und die Vernetzung möglich geworden sind, hat in den letzten 50 Jahren rasant zugenommen, sodass, wenn es auch an keiner Stelle einen Bruch mit der vorherigen Welt gibt, die Gegenwart paradoxerweise inzwischen doch fundamental anders aussieht.

Hier ist nun nicht der Ort, dem im Detail nachzugehen, aber es sei noch einmal festgehalten, dass an diesem Prozess von Anfang an auch Forschende aus den Geistes- und Kulturwissenschaften aktiv beteiligt waren,Footnote 1 auch wenn dies vielen Vertreterinnen und Vertretern dieser Fächer immer noch unbekannt ist und viele noch immer den Eindruck haben, dass die digitale Transformation ihre Fächer nicht wirklich betrifft. So stammen immerhin 0,4 % der Forschung zur Anwendung der künstlichen Intelligenz in den Jahren 1996–2016 aus den Geisteswissenschaften.Footnote 2 Auch die Geschichte der digitalen Literaturwissenschaft beginnt bereits in den frühen 1960er Jahren, und sie hat seitdem einen festen Platz innerhalb der digitalen Geisteswissenschaft.Footnote 3

Die Veränderungen der Literaturwissenschaften durch die Digitalisierung und Vernetzung betreffen vor allem vier Bereiche: den Gegenstand, die Erstellung und Verwendung von Editionen und anderen annotierten Textsammlungen, die quantitative Analyse digitaler Daten sowie die Kommunikation im Fach und mit Bibliotheken und Archiven. Diese vier Aspekte prägen auch die Grundstruktur dieses Bandes und jedem sind eine Einleitung und eine Reihe von Aufsätzen gewidmet. Daher sollen im Folgenden nur einige Stichworte soviel umreißen, dass sichtbar wird, wie umfassend die Veränderungen sind. Jeder dieser Bereiche ist heute auch von digitalen Arbeitsformen geprägt. Man mag diese Veränderungen für irrelevant halten und annehmen, sie würden nur das Äußerliche einer eigentlichen Arbeitsweise betreffen, aber das wäre medientheoretisch vielleicht etwas naiv. Denn auch wenn man nicht einer starken Variante der Medientheorie anhängt, die eine sehr enge Kopplung zwischen Medium und Inhalt annimmt, kann man hier vielfältige und komplexe Wechselwirkungen und Bedingtheiten beschreiben.

1. Veränderungen des Gegenstandsbereichs. Literarische Texte werden geschrieben, gedruckt, im Feuilleton rezensiert, und hin und wieder gibt es einen Preis – so gesehen scheint sich nichts geändert zu haben. Wenn man aber mit einem weiten Literaturbegriff auf die Gegenwartsgesellschaft blickt, mit einem Begriff, der alle Formen der fiktionalen ästhetischen Kommunikation umfasst, auch die verachteten und vernachlässigten Formen wie Internetmemes und Twittergeschichten, Gesangvereinslieder und Fanfiction oder andere Formen nicht-professionellen Schreibens, dann wird das ganze Ausmaß der Veränderungen deutlich. Viele Menschen hören heute viel mehr Literatur als sie lesen, und sie verwenden dabei mit großer Selbstverständlichkeit digitale Vertriebsformen, die von der gelegentlichen Youtube-Lesung bis zu spezialisierten Anbietern wie Audible reichen.Footnote 4 Ein substantieller Teil literarischer Produktion ist Teil fiktionaler Universen, die in verschiedenen Medien wie Kinofilmen, TV-Serien, Computerspielen, Hörspielen, Brettspielen usw. zugleich zugänglich sind.Footnote 5 Hierzu ist wohl auch die überraschende Fülle an Fanfiction – Texte von Laienautoren, die in etablierten Universen angesiedelt sind – zu zählen, die im Internet zum einen erstmals breit wahrnehmbar wird, da sie früher nur in Ausnahmen gedruckt wurde, zugleich aber durch die vereinfachte Binnenkommunikation und größere Sichtbarkeit etwa in Foren enormen Zulauf erhält.Footnote 6 Programmatische Formen des digitalen Schreibens etwa in Form von Hypertexten hatten in einem Avantgarde-Feld der Literatur einige Jahre Konjunktur, ohne dass sie – wie eigentlich alle Formen der Avantgarde – den Anspruch auf einen allgemeinen radikalen Wandel realisieren konnten.Footnote 7 Aber auch der Schreibprozess selbst ist durch die Digitalisierung geprägt. Sei es bei einer sehr kleinen Zahl von Autorinnen und Autoren durch die radikale Verweigerung und das Bestehen auf Stift und Papier, sei es durch die Möglichkeiten des Digitalen, die schnelle Veränderbarkeit, die einfachere Wiederverwendbarkeit und die algorithmische Unterstützung. Das reicht von der Rechtschreibhilfe und dem Thesaurus bis zu Optionen, die sich vor allem schnell in den Bereichen des Schreibens etabliert haben, in denen dieses in komplexere Verwertungsketten eingebunden ist. Man denke etwa an die Fülle von Software zur Unterstützung beim Schreiben von Drehbüchern, die kollaboratives Schreiben, Materialorganisation, selektive Perspektiven auf das Geschriebene wie Figurenverzeichnisse u. a. m. ermöglicht.Footnote 8 Ähnliches gilt etwa für das Schreiben von Texten für populäre Musik, die ja auch in sehr großer Zahl von Firmen und Fans gesammelt und publiziert werden.Footnote 9 Und natürlich gehören hierher auch die immer leistungsfähigeren Programme, die die Rolle des professionellen Übersetzers immer stärker vom Autor zum Bearbeiter verschieben.

Die Kommunikation über Literatur hat sich grundlegend geändert, sei es die öffentlich sichtbare Kommunikation über Literatur in Online-Zeitschriften oder Blogs und Rezensionen bei Amazon oder etwa GoodreadsFootnote 10, sei es die interne zwischen Autoren und Lektoren und Agenten, seien es die Formen der Verlagswerbung und der Gestaltung von Informationsflüssen zwischen Verlagen und Publikum und auch die zahlreichen und viel genutzten neuen Formen der Selbstdarstellung von Autoren.Footnote 11 Die digitale Transformation beschleunigt hier oft Prozesse, die schon deutlich länger laufen, unter diesen neuen Bedingungen aber eine zusätzliche Dynamik entfalten, etwa die Konzentrationsprozesse in der Verlagslandschaft, die durch die hohen Kosten der Umstellung auf eine durchgehend digitale Produktion beschleunigt werden.

Die digitale und vernetzte Kommunikation führt einerseits zu massiven Aufmerksamkeitskonzentrationen auf wenige Punkte, aber andererseits war es noch nie so leicht für die Liebhaberinnen und Liebhaber noch des entlegensten Gegenstands, Gesinnungsfreunde zu finden, wodurch eine sehr vielfältige und kaum überschaubare Kommunikationswelt entstanden ist. Literarisches partizipiert an beiden Tendenzen, sei es durch den schnell übersetzten Weltbestseller, sei es durch die Nischenpublikation oft im Eigenverlag auf digitalen Plattformen – mit den bekannten Ausnahmen wie etwa Fifty Shades of Grey, die vom letzteren zum ersten werden. Auch hier gilt, dass wir Vieles noch nicht wissen, wahrscheinlich Wesentliches noch nicht einmal sehen. Das gilt nicht nur für die Frage nach der Eigengesetzlichkeit der kleinen und kleinsten Kommunikationskreise, in denen sich ja u. a. auch die Liebhaber von schwierigen Autoren oder Gattungen wie experimenteller Lyrik bewegen, sondern auch für die Frage nach den Gesetzmäßigkeiten der neuen ‚Weltliteratur‘.Footnote 12

So leicht es ist, auf all diese Veränderungen zu verweisen, so schwer, vielleicht unmöglich ist es, diese in einen überzeugenden und konsistenten Zusammenhang mit Formen und Inhalten von Literatur zu bringen. Dahinter verbirgt sich das klassische Problem jeder medien-, sozial- oder kulturgeschichtlichen Kontextualisierung von Literatur, für die es auch nach Kittler, Luhmann und Bourdieu keine integrative Theorielösung gibt, was ja nicht nur für die Gegenwart, sondern auch für alle anderen Epochen gilt. Der beobachtbaren Diversität am angemessensten erscheint aber wohl ein Modell, in dem Literatur und digitale Transformation in einem eher vermittelten Zusammenhang stehen, sodass man etwa im Fall von Fanfiction zwar die Existenz dieser Literatur vom Vorhandensein entsprechender digitaler Infrastrukturen abhängig machen kann, während die Inhalte und Formen dadurch aber nicht direkt bedingt sind, sondern eher von der sich so formierten Lese- und Schreibgemeinschaft.

2. Edition und Annotation. Historisch gesehen haben sowohl die Editionsphilologie als auch die quantitative Analyse erst durch die Digitalisierung und dann die Vernetzung eine gleichzeitige Dynamisierung erfahren, aber im Feld der Editionen ist dies zuerst sichtbar geworden.Footnote 13 Bei digitalen Editionen wurde sehr früh mit automatischen Verfahren gearbeitet, erst vor allem bei der Erstellung der Editionen, z. B. bei der Kollationierung oder dem Management von Varianten, dann ab den 1990ern zunehmend auch bei der Publikation der Editionen, sodass heute die hybride Edition, also die Publikation gleichzeitig im Druck und digital, zum Modell geworden ist, da auf diese Weise der vielfältigen Nutzung einer Edition als Arbeitsmittel am besten gedient zu sein scheint. Durch das Vorliegen eines von Philologen entwickelten und auch gepflegten Standards zur Annotation von Editionen, den Guidelines der Text Encoding Initiative,Footnote 14 hat dieses Feld nach Jahren beschleunigter Entwicklung eine gewisse Reife erreicht, was sich unter anderem daran zeigt, dass inzwischen eine ganze Reihe von digitalen Editionen abgeschlossen vorliegen.Footnote 15 Neuere Forschungsfragen betreffen zumeist avancierte Aspekte digitaler Editionen, etwa die Analyse von Varianten mit quantitativen Verfahren oder deren alternative Modellierung in Form von Graphen, oder neue Probleme, z. B. wie man die oft sehr spezifischen Funktionalitäten solcher Editionen ebenso nachhaltig bewahren kann wie ihren digitalen Text.

Unter technischer Perspektive ist die Anreicherung eines Texts mit Informationen zu Varianten eine von vielen möglichen Formen der Annotation. Literaturwissenschaftliche Annotationen jenseits der Edition finden sich etwa im Bereich der Narratologie. Dabei zeigen sich bislang vor allem zwei Interessen: Zum einen geht es darum, literaturwissenschaftliche Begriffe auf den Prüfstand zu stellen, indem man sie nicht nur an einigen typischen Beispielen exemplifiziert, sondern auch erprobt, wie brauchbar sie sich in einer durchgängigen, genauen Textanalyse erweisen.Footnote 16 Zum anderen ist die automatische Annotation, die für viele Fragen die Vorbedingung einer quantitativen Analyse ist, auf solche annotierten Korpora angewiesen, um entsprechende Werkzeuge mit Verfahren des maschinellen Lernens erstellen zu können.Footnote 17 Hierbei ergibt sich mit der messbaren Übereinstimmung der Annotatoren ein interessanter Indikator für die Komplexität eines Begriffs, aber auch für den Grad an Operationalisierbarkeit.

3. Quantitative Analyse. Die Analyse literarischer Texte mit Verfahren der Statistik und des maschinellen Lernens ist wohl der Bereich, der sich in den letzten zehn Jahren am schnellsten entwickelt hat und der auch besonders umstritten ist. Auch dieses Feld existiert schon seit den 1960er Jahren und kann auf Denk- und Methodentraditionen zurückgreifen, die bereits in der ersten Hälfte des 20. Jahrhunderts Verbreitung fanden. Das gilt insbesondere für die Autorschaftsattribution, die schon vor der Ankunft des Computers an der numerischen Erhebung von Daten interessiert war und lange Zeit – neben der Erstellung von Konkordanzen – die wichtigste Anwendung des Computers war.Footnote 18 Von den 1960er bis zu den 1990er Jahren konzentrierte sich die Analyse vor allem auf einen Text oder eine kleine Gruppe von Texten; neben der AutorschaftsattributionFootnote 19 beschäftige man sich mit allgemeinen stilistischen Analysen, der Metrik, verwendeten Wortfeldern und dem Thema der Texte.Footnote 20

Die Beschränkung auf wenige Texte hatte pragmatische Gründe. ‚Rechenanlagen‘ waren noch keineswegs allgemein zugänglich, vor allem aber war die Digitalisierung der Texte mit erheblichem Zeitaufwand verbunden. Die Rezeption dieser Arbeiten war insgesamt wenig enthusiastisch, nicht zuletzt wohl, weil das notwendige Spezialwissen für den Umgang mit dem Computer und den mathematischen Werkzeugen in keinem sinnvollen Verhältnis zum Ertrag zu stehen schien, diese Analysen sich also vor allem für diejenigen (häufig Fachfremden) anboten, die ohnehin über diese Kompetenzen verfügten. Das änderte sich deutlich mit der allgemeinen Verbreitung von Personal Computern, mit der Verfügbarkeit großer Textsammlungen und dem Vorhandensein einer Tradition im Umgang mit digitalen literarischen Texten im Feld der digitalen Geisteswissenschaften. Zuerst wurde diese Richtung unter der Bezeichnung ‚Distant Reading‘Footnote 21 weithin wahrgenommen und auch über den engeren Kreis der Beteiligten hinaus intensiv und kontrovers diskutiert.Footnote 22 In den letzten Jahren werden unter der Bezeichnung Computational Literary Studies die verschiedenen Strömungen zusammengeführt.Footnote 23 Gemeinsam ist den meisten Arbeiten, dass sie größere und sehr große Textsammlungen verwenden und sich dabei moderner Verfahren des maschinellen Lernens, der Statistik und der natürlichen Sprachverarbeitung bedienen. Seit dem Anfang der 2010er Jahre wurden diese Verfahren durch Deep Learning, also den Einsatz komplexerer neuronaler Netze, und große vortrainierte Modelle auf der Basis von sehr vielen Daten deutlich verbessert, was einen weltweiten Forschungsboom ausgelöst hat, der auch die Computational Literary Studies dynamisiert hat.

Die Bandbreite der verschiedenen Methoden ist inzwischen ausgesprochen groß, wenn es auch immer noch zahlreiche Aspekte literarischer Texte gibt, die man nicht direkt erfassen kann, z. B. die Handlung eines Erzähltextes. Gemeinsam ist den Verfahren, dass sie für die Einzeltexte und die gesamte Textsammlung eine präzise Beschreibung unter genau einer Perspektive liefern. Das ist so ziemlich komplementär zur Erfassung eines Textes durch eine Leserin oder einen Leser, die im Prozess der Lektüre auf der Basis von Weltwissen einschließlich ihres Wissens über Literatur ein reiches Modell erstellen. Insofern ist es wenig überraschend, dass fast alle Forschenden in diesem Feld ihre Arbeiten nicht als ein Ersetzen der alten Literaturwissenschaft durch eine neue projektieren, sondern sie vielmehr als eine Erweiterung des literaturwissenschaftlichen Methodenvorrats ansehen. Der große Vorteil dieser Methoden besteht eben vor allem darin, dass sehr große Textsammlungen in den Blick genommen werden können, wenn auch unter einer sehr reduzierten Perspektive, und dass dadurch etwa Phänomene sichtbar werden, die aufgrund ihrer zeitlichen Ausdehnung bislang nicht wahrgenommen wurdenFootnote 24 oder die die große Menge von Texten betreffen, über die zumindest das Fach wenig oder nichts weiß, z. B. Heftromane, Fanfiction oder die Novellenliteratur des 19. Jahrhunderts jenseits des Höhenkamms.

Keineswegs identisch mit diesem Aspekt ist ein anderer, auch wenn es im Personal und den Arbeitsweisen große Überschneidungen gibt: die Verwendung von Denkmodellen der empirischen Wissenschaften. Darunter verstehe ich hier stark vereinfachend die Ausrichtung an einem Denk- und Arbeitsmodell, dessen Kern die Falsifikation ist, vor allem die inferenzstatistischen Verfahren zur Prüfung von Hypothesen. Explorative Verfahren haben in diesem Kontext einen genau definierten Ort, indem sie zur Generierung von Hypothesen eingesetzt werden, aber selbst noch kein gesichertes Wissen produzieren, sondern nur eine Vorstufe in einem Prozess darstellen, der letztlich in eine Hypothesenprüfung einmündet. Empirisch in diesem Sinne sind bislang nur wenige Untersuchungen in der quantitativen Literaturwissenschaft, vielmehr kommen dort fast durchgehend explorative Verfahren zur Anwendung, deren Ergebnisse dann eher qualitativ unter Einbeziehung von Fachwissen mit möglichen Erklärungen verbunden werden. Das ist der Skepsis einiger Vertreterinnen und Vertreter gegenüber empirischen Wissenschaftsmodellen geschuldet, aber auch dem Zustand der diversen Textsammlungen, die eben nicht randomisiert aus einer Gesamtpopulation zusammengestellt wurden, sondern durch komplexe Auswahlprozesse geprägt sind, in die wiederum Bibliothekserwerbungsstrategien und Selektionskriterien für Digitalisierungkampagnen eingehen und einen undurchschaubaren Bias erzeugen. Zugleich aber folgt die Anwendung quantitativer Verfahren aufgrund ihres Entstehungskontexts fast automatisch einer Drift in Richtung empirischer Wissenschaftsmodelle. Die Literaturwissenschaften gehören – zusammen mit den Musik- und Kunstwissenschaften – zu den letzten Fächern, in denen solche Modelle Fuß fassen, und ein Blick auf die Geschichte von Fächern wie Psychologie, Soziologie oder Linguistik zeigt, wie unterschiedlich die Adaptionen verlaufen können, dass sie aber höchst spannungsreich waren und oft noch sind. In den Sozialwissenschaften wird die Methodenlandschaft grundlegend in qualitative und quantitative Verfahren geordnet, wobei dort unterstellt wird, dass ‚quantitativ‘ und ‚empirisch‘ gleichbedeutend sind. In letzter Zeit mehren sich die Stimmen in den Sozialwissenschaften, die einen pragmatischen Umgang mit diesen Methodenangeboten im Kontext von Mixed-Methods-Designs fordern.Footnote 25 Ob die Diskussion der quantitativen Verfahren in den Literaturwissenschaften von solchen Perspektiven profitieren kann, ist zur Zeit noch unklar.

4. Schnittstellen. Die digitalen Gegenstände und Verfahren verändern die Ansprüche an die Einrichtungen, mit denen die Literaturwissenschaften kooperieren. Die Bibliotheken sind etwa durch die Digitalisierung schon lange in einem tiefgreifenden Umbauprozess begriffen,Footnote 26 dessen genauer Umfang noch nicht ganz abzusehen ist, da die Arbeitsteilung zwischen Rechenzentren und Bibliotheken häufig noch weniger von den Institutionen als von den beteiligten Persönlichkeiten und deren Zugang zu wesentlichen Ressourcen bestimmt ist. Aber es ist jetzt schon deutlich, dass Bibliotheken eine wesentliche Rolle bei der Herstellung, Pflege, Verwaltung und Erschließung von digitalen Informationen haben werden – und das betrifft auch die literaturwissenschaftlichen Editionen, Textsammlungen und die oben erwähnten neuen Forschungsdaten, die etwa bei der Erstellung digitaler Editionen anfallen. Ebenso klar ist, dass Bibliotheken ganz neue Informationsressourcen anbieten werden, z. B. Word Embeddings trainiert auf ihren großen Datenbeständen. Weniger klar jedoch ist, ob dies alle Bibliotheken gleichmäßig betrifft und wie sich die künftige Arbeitsteilung zwischen den Bibliotheken gestalten wird. Und auch die Frage, wie mit etwas ferner liegenden Aspekten der digitalen Methodenerweiterung umzugehen ist, ist noch ungelöst, etwa wo die Forschungssoftware, die bei der Erstellung von Editionen oder von quantitativen Untersuchungen verwendet wird, nachhaltig vorgehalten wird. Nicht zuletzt haben sich manche Bibliotheken als wichtige Agenten bei dem Versuch etabliert, die Wissenschaftskommunikation trotz der massiven Konzentrationsprozesse bei den Verlagen durch Open Access und andere Strategien zugänglich zu halten.

Gerade im Bereich der Editionen hat sich inzwischen die intensivste Vernetzung mit Institutionen des kulturellen Gedächtnisses ergeben. Das betrifft zum einen den automatischen Rückverweis der Editionen auf die verwendeten Quellen, die etwa in Archiven und Bibliotheken liegen, zum anderen aber auch die Integration der Editionen und der Teilergebnisse in übergeordnete Ressourcen, etwa wenn Editionen angereicherte Handschriftenbeschreibungen erstellen, die auch gut in einem allgemeinen Handschriftenkatalog aufgehoben wären, oder wenn in deren Kontext bisher unbekannte Personen identifiziert und beschrieben werden, die auch in so etwas wie die Gemeinsame Normdatei der Deutschen Nationalbibliothek passen würden. Und nicht zuletzt stellt sich natürlich die Frage, wo die Editionen selbst langfristig liegen sollen. Das ist eine Frage, deren Antwort wohl erst mit dem Aufbau nationaler Infrastrukturen für Forschungsdaten gefunden sein wird.

Die digitale Transformation hat, wie jede Veränderung, viel Kritik auf den Plan gerufen. Da wird etwa die Angst geäußert, dass aus Computerspielern Massenmörder werden, oder das Internet zum endgültigen Verfall der Bildung führt. Die Kritik an der digitalen Literaturwissenschaft folgt ebenfalls einer kleinen Reihe von Mustern, die immer wieder aufleben. Ein erheblicher Teil der kritischen Stimmen unterstellt dabei dem Neuen, dass es das Alte ersetzen will. So war die Rezeption der ersten digitalen Editionen noch von der entsetzten Frage gefärbt, ob denn nun das Buch verschwinden würde, auch wenn die Befürworter digitaler Edition fast durchgängig die funktionale Differenzierung der Medien beschworen haben, die sich bislang auch weitgehend etabliert hat. Kritiker der quantitativen Literaturwissenschaft unterstellen beharrlich, sie wolle die herkömmlichen Methoden ersetzen, auch wenn praktisch in jedem längeren Text zu diesem Thema vonseiten der Befürworter betont wird, dass es sich um komplementäre Ansätze handele, die den Methodenvorrat erweitern würde – und das beginnt in Deutschland schon 1965 mit Kreuzers Einleitung zum Band Mathematik und Dichtung.Footnote 27 Im Folgenden sollen einige häufig wiederholte Argumente der Kritik aufgegriffen werden. Da es hier aber weniger auf die einzelne Stimme ankommt, sondern vielmehr auf das typische Argument, wird auf einen Einzelnachweis verzichtet.

‚Das wussten wir bereits‘. Das Ergebnis einer quantitativen Untersuchung sei deshalb irrelevant, weil das Fach das schon ‚wisse‘. Offensichtlich hängt hier alles vom Begriff des Wissens ab. Wenn man jede Proposition in Bezug auf einen literarischen Text bereits als Wissen bezeichnet, dann ist es wohl sehr schwierig, Neues zu sagen, insbesondere angesichts der zahlreichen Interpretationen, die kanonischen Texten gewidmet sind. Allerdings würde man damit diese Irrelevanz auch einem großen Teil der publizierten Interpretationen zuschreiben, da auch diese in vielen Fällen keine neuen Thesen aufstellen, sondern alte Thesen aufgreifen und z. B. durch neue Argumente zu stützen suchen. Kennzeichnend für die literaturwissenschaftliche Forschung ist doch gerade die Fülle von Interpretationsthesen insbesondere zu den kanonischen Texten, eine Fülle von Aussagen, die sich zum gehörigen Teil widersprechen. Was bedeutet es also, wenn in diesem Kontext durch quantitative Forschung eine solche These noch einmal aufgegriffen und mit quantitativen Argumenten begründet wird? Auf diese Weise wird die bekannte These neu gestützt und zwar aus einer methodisch andersartigen Perspektive. In den Sozialwissenschaften wird dieses Phänomen im Kontext der Diskussion um ‚Mixed Methods‘ als ‚Triangulation‘ bezeichnet und von vielen Vertretern eines pragmatischen Umgangs mit qualitativen und quantitativen Verfahren als Erkenntnisgewinn gewertet.Footnote 28

Ein weiterer Vorwurf lautet: ‚Die Themen sind veraltet‘. Das bezieht sich darauf, dass die Forschung mit quantitativen Verfahren sich tatsächlich auffallend häufig mit Begriffen wie ‚Autor‘ oder ‚Gattung‘ oder ‚Literaturgeschichte‘ beschäftigt, die ein anderer Teil der Literaturwissenschaft schon offiziell ad acta gelegt zu haben scheint (auch wenn sich diese theoretische Verabschiedung kaum in der Alltagspraxis niederschlägt).Footnote 29 Aber diese Verabschiedungen sind auch innerhalb der nicht-quantitativ arbeitenden Literaturwissenschaft keineswegs allgemein akzeptiert. Vielmehr ist es typisch für die pluralistischen Literaturwissenschaften der letzten 30 Jahre, dass es ein Nebeneinander von ganz diversen und auch widersprüchlichen Positionen gibt, sodass neben der Verabschiedung des Autorkonzepts in Nachfolge von Foucault eine florierende Autorenphilologie mit Handbüchern und runden Geburtstagen existiert. Aber selbst wenn man dies unberücksichtigt lässt, ergibt sich bei genauerer Betrachtung ein sehr viel komplexeres Bild. Vertreterinnen und Vertreter der quantitativen Verfahren verwenden die umstrittenen Begriffe ja nicht einfach, vielmehr setzen sie sich immer wieder kritisch mit den Positionen auseinander, die jene für obsolet erklären. Das sichtbarste Beispiel dafür ist wahrscheinlich die Stilometrie, die schon recht früh Einspruch gegen Foucaults Thesen zur Autorschaft erhoben hat.Footnote 30 Rezente Hinweise darauf, dass quantitative Verfahren gerade dafür geeignet sind, sehr langfristige Trends sichtbar zu machen, die der Literaturwissenschaft so bislang entgangen sind, lassen sich als selbstbewusste Kritik an einer Verabschiedung von Literaturgeschichte auffassen.Footnote 31 Diese Revisionen von Positionen, die Teilen der Literaturwissenschaft lieb geworden sind, wird man wohl nicht mit dem Hinweis abweisen können, dass man doch schon seit diesem oder jenem Meisterdenker wisse, dass ein bestimmter Begriff nicht haltbar sei. Allerdings ist die Kritik an diesen etablierten Denkmodellen der Literaturwissenschaft durch Vertreterinnen und Vertreter quantitativer Verfahren bislang ein einseitiges Gespräch.

‚Quantitative Verfahren können das Wesentliche an Literatur niemals erfassen‘. Diese Meinung wird von Vielen geteilt, selbst wenn hier noch nichts über die jeweiligen Gründe ausgesagt wird, also was das Wesentliche von Literatur ist und warum sich das einer quantitativen Erfassung entzieht. In den verschiedenen Anwendungen des Arguments lassen sich einige typische Begründungen finden, z. B. weil literarische Texte zu komplex sind, weil sie immer mehrdeutig sind oder weil sie einzigartige Individualitäten sind. Andere Begründungen beziehen sich darauf, dass die Aktualisierung eines Textes und seine angemessene Bewertung bzw. eine ästhetische Wertschätzung nur von Menschen vorgenommen werden kann. In den jeweiligen Begründungen zeigt sich zumeist, dass der hier verwendete Literaturbegriff hoch evaluativ ist und nicht deskriptiv: Es geht nicht um alle fiktionalen, ästhetisch geformten Texte vom Heftroman über das politische Gelegenheitsgedicht, die Kabarettnummer bis zur künstlerischen Höchstleistung, für die häufig Werke wie Kafkas Roman Der Prozeß oder James Joyce Ulysses angeführt werden, sondern nur um diese letzte Gruppe. Den meisten Arbeiten im Bereich der quantitativen Analyse von Literatur liegt dagegen ein weiter, deskriptiver Literaturbegriff zugrunde. Wertung wird in diesem Kontext nur zum Thema, wenn Wertungen von Lesern mit Eigenschaften der Texte korreliert werden sollen,Footnote 32 aber nicht als Leistung der verwendeten Verfahren. Die Perspektive auf den Einzeltext ist, methodisch bedingt, höchst selektiv, aber diese Einzelperspektive kann eben zugleich auf sehr viele Texte gerichtet werden. Dadurch entstehen Aussagen und Einsichten, die bislang in der Form kaum möglich waren und die den Methodenvorrat der an Methoden ja schon reichen Literaturwissenschaft noch einmal deutlich vergrößern. Daraus kann man wohl weder eine Heils- noch eine Untergangsgeschichte ableiten, aber es fällt leicht zu versprechen, dass viele interessante Ergebnisse noch kommen werden, sind doch auf diesem Weg die ersten Schritte kaum getan. Einen wichtigen Beitrag dazu kann auch die Modellierung leisten, die zum Kern der digitalen Literaturwissenschaft gehört.

Die vielfältigen Phänomene, die mit dem Begriff ‚digitale Literaturwissenschaft‘ in den Blick genommen werden, haben in vielen Aspekten mehr mit ihren analogen Gegenstücken gemein als mit anderen digitalen. Die digitale Editionsphilologie etwa hat in vielerlei Hinsicht mehr Gemeinsamkeiten mit der traditionellen Editionsphilologie als mit den Veränderungen des literarischen Markts durch die digitale Transformation. Insofern suggeriert dieser Begriff eine Einheit, die man in der Sache so umfassend nicht finden wird. Zugleich aber gibt es eine Reihe von Aspekten, die tatsächlich alle diese digitalen Arbeitsfelder verbindet. Dazu gehört offensichtlich die gemeinsame Bedingtheit durch die Digitalisierung und die Vernetzung. Aber das betrifft auch und zentral den Aspekt der Modellierung. Mit ‚Modellierung‘ ist hier eine formale Beschreibung gemeint, die von der einfachen Datenbank eines Projekts, das Veränderungen im Gegenstandsbereich erfassen möchte, über die Abbildung von Texten im Workflow einer digitalen Bibliothek oder die fein gegliederte Modellierung einer Edition, die sich etwa in der XML/TEI-Kodierung niederschlägt, bis hin zu komplexen mathematischen Modellierungen etwa bei der quantitativen Analyse reicht. Stets muss der Gegenstand auf ein System klarer, letztlich auch maschinenlesbarer Kategorien abgebildet werden. Diese Tätigkeit ist – im Kontext der digitalen Geisteswissenschaften – als eine wesentliche Leistung des Arbeitsfeldes erkannt worden,Footnote 33 und natürlich ist gerade die Modellierung von Unschärfe und Vagheit schon länger Gegenstand einschlägiger Diskussionen, da nicht nur die Literaturwissenschaften diese für typische Eigenschaften ihrer Gegenstände erachten.Footnote 34 Unter dieser Perspektive gibt es also eine Einheit in der digitalen Literaturwissenschaft. Die doppelte Struktur des Feldes, einmal als zerstreute Komplemente der analogen Teilfelder und dann als durch die Techniken, die Praktiken und die notwendigen Wissensvoraussetzungen erzeugte Einheit, prägt es und trägt angesichts der enormen Geschwindigkeit des Wandels in allen Bereichen zu seiner schnell sich steigernden Komplexität bei. Die formale Modellierung erlaubt eine neue Beschreibung für literarische und literaturwissenschaftliche Phänomene, und die Literaturwissenschaft als soziales System erhält dadurch eine reichere Semantik.

Der Band versammelt die Beiträge des DFG-Symposiums ‚Digitale Literaturwissenschaft‘, das vom 9.–13. Oktober 2017 in der Villa Vigoni stattfand. Die Sektionsverantwortlichen Jan Christoph Meister, Andrea Rapp, Thomas Stäcker und Simone Winko haben bei der Auswahl der Beiträge und der Gestaltung der Diskussion ganz wesentlich mitgewirkt. Dem Format der germanistischen Symposien treu bleibend werden auch hier die Diskussionen wiedergegeben, was nur durch das mühsame Geschäft der Protokollantinnen und Protokollanten Constanze Baum, Luise Borek, Jan Borkowski und Jan Horstmann möglich war. Carolin Hahn hat mit den Autoren und der Herstellung des Verlags kommuniziert und mit viel Sinn fürs Detail den Band für den Druck eingerichtet; letzte Arbeiten zur Fertigstellung des Bandes hat Agnes Hilger übernommen. Das Symposium ist im Rahmen der Reihe der germanistischen Symposien von der DFG gefördert worden. Von Seiten des Verlags haben Ute Hechtfischer und Ferdinand Pöhlmann mit viel Geduld das Zustandekommen des Bandes unterstützt und begleitet. Allen sei hier ganz ausdrücklich für ihre vielfältigen Formen der Mitarbeit und Mitgestaltung gedankt. Für die Fehler und dafür, dass der Band sehr viel später als erhofft erscheint, ist eine unglückliche Verkettung von persönlichen und weltweiten Ausnahmesituationen verantwortlich. Die Autorinnen und Autoren haben die Möglichkeit erhalten, ihre Beiträge durch eine Ergänzung zu aktualisieren.Footnote 35