1 Status quo: Das methodologische Delta

In der Texthermeneutik als zentralem und für das traditionelle Selbstverständnis der Philologien wesentlichem Arbeitsbereich spielte der Einsatz digitaler Verfahren bislang kaum eine Rolle.Footnote 1 Zwar profitiert auch die literaturwissenschaftliche Auslegung von Textbedeutungen mittelbar durchaus vom Digital Turn: Software und webbasierte Kollaborationsumgebungen können den philologischen Arbeitsprozess von der Edition bis zur Lektüre des Einzeltextes unterstützen; Kollokationen und Datenbanken werden zu Recherchezwecken genutzt; Verfahren des Data Mining, der Computational Stylometry und des Topic Modeling bieten neue Möglichkeiten für die Exploration großer Textkorpora mit Blick auf die Verbreitung und Genese inhaltlicher wie formaler Textmerkmale und eröffnen so nicht nur für die empirische Validierung von traditionell erarbeiteten Forschungshypothesen, sondern auch als Heuristiken neue Perspektiven, die für die Texthermeneutik durchaus relevant sein können. Aber wo es um die Textinterpretation als Bedeutungsauslegung im klassischen Sinne geht, finden computergestützte Ansätze bislang kaum Verwendung.Footnote 2

Instrumentell bei vorbereitenden Verfahrensschritten durchaus in Anspruch genommen, ist das digitale Methodenparadigma dem philologischen Kerngeschäft der Texthermeneutik konzeptionell bislang suspekt geblieben. Diese Skepsis ist durchaus verständlich, stellt man die Spezifik des geisteswissenschaftlichen Wissensbegriffs selbst in Rechnung, der seit der Romantik durch zwei Leitideen bestimmt wird:

  1. 1.

    Historizität des Forschungsgegenstandes. – Das Erkenntnisobjekt ‚Text‘ wird in der hermeneutischen Praxis grundsätzlich als ein in stetig wandelbare soziale und kulturhistorische Kontexte eingebettetes Phänomen aufgefasst.

  2. 2.

    Diskursivität und Unabgeschlossenheit des hermeneutischen Erkenntnisprozesses. – Die Exploration und Auslegung von Textbedeutungen werden als rekursiv-iterative Prozesse praktiziert, die aufgrund der Dynamik ihrer Kontexte prinzipiell infinit sind; es gibt keinen hermeneutischen Finite State und keine absolut ‚wahre‘ Interpretation eines gegebenen Textes, sondern eine Bandbreite von mehr oder weniger plausiblen und anschlussfähigen Interpretationsvarianten.

Beide Leitideen, die das Selbstverständnis der Literaturwissenschaften nachhaltig geprägt haben, sehen traditionell arbeitende Philologen infrage gestellt von einer Technologie, deren Anwendung auf genuin hermeneutische Fragestellungen scheinbar zwingend einen reduktionistischen Begriff von hermeneutischer Erkenntnis als formal operationalisier- und technologisch (re-)produzierbarem Resultat voraussetzt.

Diese grundsätzliche Problematik wird dabei nicht selten noch verschärft durch die Fehleinschätzung von Potenzial und Anspruch gegenwärtiger digitaler Verfahren und Modellierungen. Die Schimäre ‚künstliche Intelligenz‘ spielt dabei ebenso eine Rolle wie das wachsende Unbehagen angesichts von Big-Data-basierten Methoden, die mit opaken statistischen Verfahren probabilistische Erkenntnis und Prognosen menschlichen Verhaltens generieren.Footnote 3 Im Vordergrund der gesellschaftlichen Debatte steht dabei in der modernen Informationsgesellschaft die Sorge um die Freiheit und die Privatsphäre des Individuums als eines autonomen Agenten im sozialen Gefüge. Im Hintergrund wird hingegen eine moralphilosophische Problemstellung aufgeworfen, die auf dem Umweg über den ästhetischen Gegenstand auch und gerade die Geisteswissenschaften betrifft: Je treffsicherer individuelles Handeln und Verhalten mathematisch modellierbar werden, desto tiefgreifender wird das seit der Aufklärung propagierte Ideal vom Menschen als einem rationalen, prinzipiell selbstbestimmt und damit selbstverantwortlich handelnden Agenten infrage gestellt. Gerade dieses Selbstbild des Menschen in seinem Verhältnis zu Geschichte und Umwelt aber ist seit der Neuzeit das Kernthema des geisteswissenschaftlichen Gegenstandes ‚Literatur‘.

Die traditionelle philologische Texthermeneutik sieht sich so angesichts der DH mit einem methodologischen Paradoxon konfrontiert: Ausgerechnet ihre privilegierte Forschungsdomäne – der ästhetisch-literarische Diskurs – soll nun mit Methoden untersucht werden, die das Geistesleben nicht mehr als existenziellen, kontingenten Phänomenkomplex, sondern als prinzipiell berechen- oder zumindest modellierbaren ‚Output‘ einer multifaktoriellen Funktion konzeptualisieren. Die Skepsis methodisch konservativer Philologen wird dabei weiter befördert durch die programmatische Selbstbeschränkung und Fokussierung der DH auf deskriptive oder textdatenbasiert-analytisch bearbeitbare Fragestellungen – oder pointierter gesagt: durch eine Art selbstverordnete hermeneutische Abstinenz der DH. Denn Fakt ist: Das Spektrum wie der Grad der methodischen Ausgereiftheit von digitalen Editionsprojekten, stilometrischen Untersuchungen oder diachronen wie systematischen Form-, Struktur- und Themenanalysen mit avancierten NLP-Verfahren haben sich seit der Jahrtausendwende zwar deutlich erweitert. Zu dieser rasanten Entwicklung des Forschungsfeldes DH beigetragen haben dabei methodische, technologische, institutionelle und in ganz besonderem Maße auch pädagogisch-curriculare Impulse, kurz: die Gesamtheit der Faktoren, die eine wissenschaftliche Disziplin ausmachen. Der Anschluss an genuin hermeneutische Fragestellungen ist hingegen vonseiten der DH bislang nur in Ausnahmefällen gesucht worden. Die Praxis digitaler Literaturwissenschaften hat durch die professionelleren, robusteren Verfahren der Datenanalyse und Datenmodellierung vielmehr ein vorwiegend empirisch-analytisches Gepräge gewonnen und sich damit immer weiter von den spekulativ-exemplarisch verfahrenden Methoden traditioneller Literaturwissenschaften entfernt.Footnote 4

Anders als etwa in den Sprachwissenschaften trifft deshalb das stetig erweiterte Angebot an digitalen Ressourcen, Forschungsinfrastrukturen und immer robuster werdenden analytischen und modellierenden Methoden im texthermeneutischen Bereich auf eine nach wie vor geringe Nachfrage. Digitale Verfahren setzen grundsätzlich eine Konzeptualisierung des Forschungsgegenstandes voraus, die ausschließlich solche Gegenstands- und Prozess-Eigenschaften berücksichtigt, die in Form diskreter Daten erfassbar sind. Gegenstandsfunktionen lassen sich dank dieser Beschränkung damit formal als ein Effekt der Transformation und Verknüpfung von Daten modellieren. Was jedoch jenseits dieser epistemischen Schwelle liegt, ist für DH-Verfahren, solange sie primär informationstechnisch orientiert sind, nicht mehr operationalisierbar. Die methodische Konsequenz liegt auf der Hand: Ein Gegenstandsmodell, das beim diskreten Datum ansetzt und von dort aus strikt induktiv und ohne methodische Iteration oder Rückkoppelung bottom-up voranschreitet, kann phänomenologisch-hermeneutischen Problemstellungen nicht gerecht werden, die in der Regel ideengeleitet und top-down, darüber hinaus aber auch dynamisch und historisch-kontextuell entworfen sind.

Und doch lassen sich auch genuin hermeneutische Operationen des Erschließens, Verstehens und Interpretierens von Gegenständen durchaus mit DH-Verfahren unterstützen. Eine zentrale Rolle spielen dabei Verfahren der deklarativen Textauszeichnung und explikativen Textanreicherung, die in den DH unter den technischen Begriffen ‚Tagging‘ und ‚Markup‘ verhandelt werden. Das grundsätzliche hermeneutische Potenzial dieser Verfahren lässt sich allerdings erst erkennen, wenn wir die von der Computerlinguistik und der angewandten Informatik übernommene, vom elementaren String her und von vornherein mit Blick auf eine wohlgeordnete Syntax und Grammatik entworfene Konzeption des deklarativen wie des prozessualen Markups überschreiten. Es reicht dabei nicht, zähneknirschend die prinzipielle Interpretationshaltigkeit selbst einer grundlegenden schemakonformen Textauszeichnung mit einem Tag zu konzedieren. Ja, dieses Zugeständnis läuft geradezu auf eine Trivialisierung des Begriffes der ‚Interpretation‘ hinaus: In einem vorgegebenen Kategoriengerüst zwischen zwei oder mehr Optionen zu wählen, um ein Phänomen taxonomisch zu deklarieren, ist ein Akt des Sortierens und keiner der Interpretation. Interpretative Akte sind Akte der Kritik, die nicht nur den Gegenstand vermessen und bewerten, sondern immer zugleich reflexiv den Akt des Interpretierens selbst und dessen normative wie methodische Setzungen und Grenzbedingungen thematisieren.

Das Potenzial und die Anschlussfähigkeit von DH-Verfahren auch für die hermeneutische Literaturwissenschaft zu erkunden, setzt insofern voraus, die in den DH unter dem Terminus ‚Markup‘ etablierten Praktiken der Textauszeichnung mit einem anspruchsvolleren Maßstab zu konfrontieren und sie einmal konsequent vom komplexen, dynamischen Ganzen des Text-Leser-Kontext-Gefüges her zu denken. In dieser Perspektive erweist sich eine Markup-Praxis, die vom lokalen Tagging eines Strings maximal allenfalls bis zur schemakonformen Deklaration eines Gesamttextes reicht, als funktional eingeschränkte, dafür jedoch besser formalisierte technische Variante einer deutlich ambitionierteren ‚weichen‘ Textpraxis, die allen Schriftkulturen seit Jahrhunderten vertraut ist: die der Annotation von Texten im emphatischen Sinne von hermeneutisch-kommunikativ wie rhetorisch motivierter Informationsanreicherung. Markup als Annotation in diesem emphatischen Sinne zu konzeptualisieren, bedeutet dabei zugleich, es als ‚methodischen Mittler‘ zu begreifen, der die Anschlussfähigkeit digitaler Verfahren auch und gerade für traditionell-hermeneutisch orientierte Literaturwissenschaftler unter Beweis stellen kann.

2 Annotation als Kommunikation von Lesarten

Ich verwende den Begriff ‚Lesart‘ hier wie nachfolgend im allgemeineren Sinne von ‚Auslegung‘ oder ‚Auffassung‘, also nicht im Sinne des enger gefassten editionsphilologischen Terminus, der den Wortlaut einer Textstelle gemäß eines spezifischen Textzeugens bezeichnet.

Annotation als Kulturtechnik ist – methodengeschichtlich gesehen – nicht nur historisch vorgängig, sondern auch variantenreicher als das, was wir gegenwärtig unter den Begriff ‚Markup‘ rechnen – aus der DH-Perspektive gesehen mithin eine Praxis avant la lettre, die schon lange vor dem Digital Turn je nach den spezifischen Anforderungen von Textsorten und Gebrauchskontexten (u. a. religiöse, juridische und ästhetische Exegese) spezifiziert und teilweise auch formalisiert worden ist. Als informationstechnologische Spezifikation stellt Markup insofern nur die jüngste Ausprägung eines übergreifenden Annotationskonzepts dar – eine technisch wie methodisch bedingte Spezifikation, die möglicherweise nicht die letzte bleiben wird.

Die wissensgeschichtliche Kontextualisierung von Markup als bislang letzte Ausprägung einer lange etablierten Kulturtechnik ist bislang weder ins Bewusstsein der traditionellen Literaturwissenschaften getreten noch umgekehrt von den DH als Herausforderung zur Entwicklung eines anspruchsvolleren digitalen Annotationskonzepts angenommen worden. Die im Wesentlichen technologiegetriebene Konzeptualisierung von Markup als bloße Anreicherung von Objekten mit deklarativen Metadaten geht vielmehr weiterhin von einem erheblich engeren, instrumentell gefassten Begriff der ‚Anreicherung‘ aus. Als Markup in diesem engeren Sinne gelten systematisch geregelte Beschreibungen des Gesamttextes wie lokale Textauszeichnungen auf Wort- und Zeichenebene, die unter Rückgriff auf Standards, Taxonomien und Objektontologien und in der Regel für definierte Anschlussoperationen erstellt werden. Für die Objektdeskription auf elementarer Ebene sind prototypisch die Verfahren der linguistischen Basisannotation wie z. B. POS Tagging; für die systematische wie historische Einordnung des Gesamtdokumentes sind es etwa die Hinzufügung von Metadaten in einem TEI-Header. Generische Schemata wie GML, SGML, HTML bis hin zu TEI und den diversen heute gebräuchlichen XML-basierten domänenspezifischen Markup-Sprachen setzen dabei konzeptionell ein zwar abstraktes, aber klar definiertes Objektmodell voraus – sei es das grammatische Modell einer natürlichen Sprache, das jedes Part-of-Speech Tagging organisiert, sei es das einer Ordered-Hierarchy-of-Content-Objects-Sicht (OHCO) auf Textdokumente, das bei der TEI-konformen Textauszeichnung im Hintergrund steht. In der konkreten Annotationspraxis wird dieses abstrakte Objektmodell dann mithilfe einer geregelten Syntax am konkreten Objekt bottom-up instanziiert. Das Objektmodell selbst steht dabei prinzipiell nicht mehr zur Debatte – es sei denn, man stößt bei der Anwendung auf grundsätzliche Probleme, wie die 1999 mit einer Kontroverse zwischen Renear, McGann und Buzzetti einsetzende Debatte um die Unvereinbarkeit des OHCO-Modells mit dem Faktum der sog. Overlapping Hierarchies gezeigt hat.Footnote 5

Coombs u. a.Footnote 6 zählen zu den ersten, die die auf GML aufbauenden konkreten technischen Umsetzungen der taxonomie- und modellgetriebenen Markup-Praxis systematisch und funktional differenziert haben. Sie unterscheiden zwischen den Formen Punctuational, Presentational, Procedural, Descriptive, Referential und Meta-Markup. Als für den menschlichen Leser besonders relevante Variante heben die Autoren dabei das sog. Descriptive Markup hervor.Footnote 7 Ähnlich weist 25 Jahre später auch Nyhan darauf hin, dass die nicht bereits auf spezifischere Anschlussoperationen der maschinellen Transformation oder Präsentation eines Dokumentes zugeschnittene Variante einer beschreibenden Annotation flexibel und auf verschiedenste Textsorten, Genres und Medien übertragbar ist: „Descriptive markup can be applied to any kind or genre of text; indeed, any information that can be consistently represented using a symbol of some kind and then digitized can be marked up“.Footnote 8

Nochmals zu betonen ist allerdings, dass das ‚beschreibende‘ Markup, von dem hier die Rede ist, de facto nicht mehr als ein kategorial sortierendes, allenfalls taxonomisch evaluierendes Verfahren ist. Das Beschreibungsschema, die Beschreibungskategorien sowie der Typ und das Spektrum der zulässigen Werte, die dem jeweils markierten Objektbereich – einem Morphem, Wort, Satz, Absatz etc. – zugewiesen werden können, sind geregelt – und nicht ad hoc erweiter- oder veränderbar. Deklariert wird vielmehr anhand einer vorgegebenen Systematik und Metrik, die zudem gegenüber etwaigen Forschungsfragen agnostisch ist und dies auch sein muss, um überhaupt generalisierbar sein zu können. Ein Textdokument in TEI zu beschreiben oder eine verschriftlichte sprachliche Äußerung zu parsen und mit POS Tags zu versehen, läuft so, genau besehen, darauf hinaus, das jeweils selektierte Textelement in eine vorgegebene Tabelle einzusortieren und einen (oder mehrere) Werte aus einem finiten alphanumerischen Wertebereich zuzuordnen.

Zu erinnern ist hier an die von Gadamer getroffene Unterscheidung zwischen dem Verfahren des ‚Beschreibens‘, das die empirischen Wissenschaften anwenden, und jenem des ‚Erklärens‘, das für die Geisteswissenschaften zentral ist. Wittgenstein liefert mit einem Satz in seinen Philosophischen Untersuchungen ein gutes Beispiel, was geschieht, wenn man diese Distinktion zur programmatischen Norm erhebt. Dort heißt es zunächst: „Alle Erklärung muß fort, und nur Beschreibung an ihre Stelle treten“;Footnote 9 Deskription soll in den Wissenschaften herrschen, nicht Interpretation.Footnote 10 Aber im Nachsatz räumt Wittgenstein dann ein: „Und diese Beschreibung empfängt ihr Licht, d. i. ihren Zweck, von den philosophischen Problemen“.

Auch wenn man im Grundsatz eine klare und bewusst praktizierte Trennung der beiden Operationen des Beschreibens und des Erklärens auch von der Philologie fordern sollte, muss man zur Kenntnis nehmen, dass in der Praxis der wissenschaftlichen Texthermeneutik die zweckorientierte, philosophisch motivierte ‚Beschreibung‘ des Gegenstandes im emphatischen Sinne immer auf eine ‚Erklärung‘ hinauslaufen wird – mithin auf eine Interpretation, die als Verfahren der Gegenstandserschließung nicht nur auf den Gegenstand selbst gerichtet ist, sondern zugleich reflexiv und dynamisch eben dieses Verfahren der Erschließung selbst thematisiert. Diese unkalkulierbaren Rückkoppelungseffekte sind nun jedoch genau das, was ein standardisiertes, auf Disambiguierung verpflichtetes Markup auszuschalten versucht.

Der methodologische Reduktionismus, der dem deklarativen ebenso wie dem prozeduralen oder repräsentationellen Markup insofern inhärent ist, hat in den DH mehrfach die Forderung nach der Entwicklung eines interpretativen oder hermeneutischen Markupkonzepts ausgelöst. Piez fordert in diesem Sinne prononciert ein „markup that is deliberately interpretive“; diese Art Markup sei dabei „not limited to describing aspects or features of a text that can be formally defined and objectively verified. Instead, it is devoted to recording a scholar’s or analyst’s observations and conjectures in an open-ended way.“Footnote 11 Wie schon Caton hervorgehoben hat, ist insofern die Frage der Wahl eines Markupschemas in der hermeneutischen Perspektive eine nachgeordnete; ausschlaggebend ist vielmehr das Textkonzept an sich:

When OHCO-1 encourages encoders to see a written text as a thing, they stay above the content and only drop down to engage with the text as message to identify the occasional editorial object whose nature is not obvious from its appearance. But when encoders see the written text as a communicative act, they must participate in the act: take on the role of hearer, attend to what the text says, and identify the speaker's intentions not just from the words’ semantics but also from the attitudes conveyed. Metaphorically, encoders must be down at what would be the lowest level of an OHCO tree, completely immersed in the #PCDATA, because content generates interactional encoding far more than any content object. As its practitioners well know, all encoding interprets, all encoding mediates. There is no ‚pure‘ reading experience to sully. We don’t carry messages, we reproduce them – a very different kind of involvement. We are not neutral; by encoding a written text we become part of the communicative act it represents.Footnote 12

Das hier skizzierte Modell eines Interactional Encodings zieht einen konzeptionell erheblich weiter gefassten Begriff von ‚Markup‘ nach sich, als er mit einer am Ideal des perfekten Inter Annotator Agreement ausgerichteten Auszeichnungspraxis einhergeht – einer Praxis, die aus der Linguistik importiert wurde und damit in der Tradition der Bemühungen um eine Verwissenschaftlichung der Literaturwissenschaften steht, die schon zu Beginn des 20. Jahrhunderts mit dem Russischen Formalismus einsetzte.Footnote 13 In den methodengeschichtlich bislang eher desinteressierten DH unserer Tage wird dieses Ideal des non-ambigen Enkodierens und Auszeichnens allerdings weniger programmatisch als vielmehr pragmatisch legitimiert: Gold Standards spielen für die Automatisierung und Validierung von Markup-Routinen mit Verfahren des ML bekanntlich eine zentrale Rolle.

Diese in der Computerlinguistik, der NLP-Forschung und der digitalen Texteditorik verbreitete Konzeption einer am Ideal der Eindeutigkeit orientierten Textauszeichnung wird selbst in jüngeren DH-Handbüchern und Einführungen weitgehend alternativlos präsentiert.Footnote 14 In dieser Verengung der Perspektive drückt sich eine methodische Problematik aus, die van Zundert jüngst als die der – bislang ungenügend berücksichtigten – Computationality of Hermeneutics umreißt.Footnote 15 Van Zundert verbindet seinen historischen Abriss der in den DH zur Zeit nur noch am Rande geführten Forschungsdebatte zur Frage des methodologisch-philosophischen Verhältnisse zwischen den hermeneutischen Wissenschaften und der Informatik entsprechend mit einem Plädoyer, das hermeneutische Anliegen nicht länger nur „after the algorithmic fact“ zu thematisieren. Gefordert sei vielmehr, hermeneutische Desiderata bereits auf der Ebene der Konzepte, Codes und Modelle zu verhandeln, die für die digitale Repräsentation und Analyse von lebensweltlichen Phänomenen und ästhetischen Artefakten grundlegend sind.

Was aber wäre ein solches der Texthermeneutik wie der Informatik gemeinsames und damit für die DH kennzeichnendes hermeneutisches Anliegen ‚before the algorithmic fact‘? Der allen Varianten metasprachlicher Äußerung gemeinsame rhetorische Gestus ist der einer Kommunikation einer (oder mehrerer) Lesart(en) eines Objekttextes – und sei es nur in der Form eines <b>-Tags. Eine typographische Lesarten-Kommunikation mag zwar vordergründig nur noch die an eine Maschine gerichtete Instruktion sein, eine Zeichenfolge zu fetten. Aber selbst diese vermeintlich nur prozessuale Codierung ist ihrerseits Mittel zum Zweck: Auch sie richtet sich in letzter Instanz wieder an einen menschlichen Leser und ist ursprünglich diskurspragmatisch legitimiert.

Die hier vorgeschlagene diskurspragmatische Konzeptualisierung von Annotation als Kommunikation von Lesarten lässt zwei Grenzbedingungen erkennen: Annotation ist einerseits notwendig eine Form von Metatext, eine Rede über die Rede – wo sie sich vom Bezugstext ablöst und autonom wird, nimmt sie ihrerseits objektsprachlichen Charakter an und wird zur selbstständigen Sachverhaltsbehauptung. Andererseits verliert Annotation ihren kennzeichnenden Kommunikationscharakter aber auch dort, wo Metasprache zur reinen Privatsprache wird. Ein Beispiel dafür liefert das jüngst von McGann vertretene Konzept des sog. ‚topologischen‘ Markups.Footnote 16 McGann kritisiert das TEI-Modell vor allen Dingen deshalb, weil es die autopoetische Funktion von ästhetischen Texten ausklammere zugunsten einer allopoetischen Funktion, die Bedeutung nur noch als ein dem Text externes Output denkt, nicht aber als das dynamische Produkt eines Text-Leser-Komplexes in actu. Sein Gegenentwurf geht deshalb von einer als Patacriticism bezeichneten ‚theory of subjective interpretation‘ aus – und läuft in seiner Radikalität dann auf eine Annotation zum Zwecke der Autokommunikation des Annotators hinaus: eine Privatsprache, die keine Diskurspartner mehr sucht und den annotierten Text als Impulsgeber eines Selbstgespräches begreift.Footnote 17

Die von mir vorgeschlagene diskurspragmatische Bestimmung von Annotation als Kommunikation von Lesarten positioniert die Annotation hingegen als eine Art hermeneutischen Mediator, der in der Mitte zwischen dem Objekttext und seinem Gebrauchskontext funktional wird. Dies entspricht der von Boot unter dem Begriff Mesotext diskutierten epistemischen Funktion von Annotationen als einem Mittler zwischen dem (Objekt-)Text und dem medial eigenständigen Metatext.Footnote 18 Wichtig ist dabei insbesondere Boots Stufung Textdaten – Mesodaten – Mesotext, d. h. der Hinweis darauf, dass auch Annotationen immer bereits unter zwei Voraussetzungen generiert und verarbeitet werden: erstens einer der Annotationspraxis inhärenten Texttheorie, die eine deskriptive bzw. explikative Modellierung des Objekts ‚Text‘ überhaupt erst ermöglicht, und zweitens einer Ausrichtung auf ein diskursives ‚Narrativ‘, das die per Annotation formal erfassten einzelnen Beobachtungen, Erläuterungen und lokalen Interpretationen zum Objekttext sinnhaft integriert, mithin aus den isolierten Mesodaten überhaupt erst Information und damit einen Mesotext macht.

Für eine hermeneutisch ambitionierte DH-Praxis wäre insofern ein Begriff von ‚Markup‘ zu fordern, der nicht mehr vorwiegend technologisch, sondern vielmehr diskurspragmatisch gedacht ist. Wenn wir Markup als DH-spezifische Ausprägung von ‚Annotation‘ begreifen wollen, dann muss das Markup-Konzept auch Praktiken jenseits der bloßen Codierung oder Deklaration von Objektdaten einschließen – denn nur dann können auch die noch nicht auf spezifische informationstechnische Anschlussoperationen hin orientierten philologischen Verfahren der Anreicherung von textuellen Primärdaten mit Zusatzinformationen berücksichtigt werden, die einer hermeneutisch motivierten Kommunikation von Lesarten dienen. Ob und vor dem Hintergrund welcher Modelle diese Lesarten dann ihrerseits evaluiert werden, bleibt dabei eine Frage des spezifischen Anwendungsfalls und seiner Erfordernisse. Widerspruchsfreiheit und Konsistenz sind insofern keine intrinsischen, formalen Kriterien von Annotationen, die als solche normative Gültigkeit beanspruchen könnten – es sind dies vielmehr aus dem Anwendungskontext heraus definierte Anforderungen. Entsprechend wertneutral wäre deshalb auch das Konzept des ‚Markups‘ zu fassen, dessen Maßstab nicht eine abstrakte logische Spezifikation sein kann, sondern nur das aus einem Anwendungskontext heraus formulierte und vor dem Hintergrund einer jeweiligen Texttheorie spezifizierte Markupschema.

3 Funktionen und Formen von Annotationen

Nahezu sämtliche Varianten philologisch fundierter Lesartenhinweise an den Leser können heute als Verfahren digital emuliert und als Mitteilung digital codiert werden. Als wissenschaftliche Operation ist die Textannotation dabei funktional für drei der sog. Scholarly Primitives nach Unsworth: Objektkonstitution, Objektbeschreibung und Objektannotation.Footnote 19 Im engeren Anwendungsbereich der Literaturwissenschaften lassen sich analog drei Komplexitätsebenen unterscheiden:

  • Textauszeichnung: Auszeichnung von Phänomenen, die keine inhärente oder robust konventionalisierte Semantik aufweisen. Dazu gehören sowohl rein formale Phänomene wie etwa Layout und Typographie als auch strukturell-grammatische Phänomene. Vor der Auszeichnung liegt hier i. d. R. ein eindeutiges Auszeichnungsschema vor (linguistische Taxonomien, TEI etc.).

  • Textannotation: Auszeichnung lokaler semantischer Phänomene. Diese Variante der Auszeichnung setzt bereits das Verstehen des semantischen Gehalts einer umfangreicheren Textstelle (und damit meistens deren Interpretation im weiteren SinneFootnote 20) voraus. Diese auf der mittleren semantischen Komplexitätsebene ansetzende Auszeichnung lässt sich im Anschluss an PiezFootnote 21 als ‚hermeneutische Annotation‘ bezeichnen. Auch wenn in der Praxis der Textannotation qua Verwendung literaturwissenschaftlicher Fachterminologie oftmals eine Art implizite Taxonomie vorausgesetzt ist, wird diese deutlich weniger deterministisch gehandhabt als bei der schemabasierten Textauszeichnung.

  • Textkommentar: Auszeichnung dezidiert literarischer Bedeutungsphänomene, die sich in der Regel nur durch eine holistische Interpretation des Gesamttextes erschließen. Dazu gehören beispielsweise die allegorische oder parabelhafte Auslegung von Textbedeutungen sowie nur interpretativ lösbare Fragen nach ‚Wahrheit‘ im Kontext fiktionaler Repräsentationen. Für die Auszeichnung derartiger Phänomene ist eine komplexe Interpretationstheorie für literarische Texte erforderlich und, sofern interpretationstheoretisch abgesichert, darüber hinaus auch die Referenz auf kontextuelle (d. h. textexterne) Informationen. Textkommentare sind insofern noch weniger deterministisch und deshalb kaum sinnvoll digital modellierbar.

Diese systematische Differenzierung ist entlang der Achse zunehmender semantischer und damit auch hermeneutischer Komplexität von Annotationen entworfen. Eine alternative Systematik schlagen Bauer/Zirker vor,Footnote 22 die teils unter dem Gesichtspunkt des Gegenstandsbereiches (Typen A und B) und teils unter dem der explikativen Relation einer Annotation zum Text (C, D, E) fünf Annotationstypen unterscheiden:

  1. A

    linguistic

  2. B

    formal

  3. C

    intratextual

  4. D

    contextual

  5. E

    interpretive

Beide Systematisierungen ermöglichen es, das gesamte Spektrum an ‚Lesartenhinweisen‘ zu erfassen, die uns konkret in Form von Hervorhebungen, Unterstreichungen, in den Text direkt eingefügten Anmerkungen, Kommentaren in der Marginalienspalte usw. begegnen.

In einer dritten, auf den ersten Blick rein technischen Perspektive lassen sich Annotationstypen schließlich auch nach der medialen bzw. technischen Distanz einer Annotation zum jeweiligen Referenzbereich unterscheiden. Die im Printmedium geläufigen Formen der typographischen Hervorhebung wie z. B. Fettungen oder Unterstreichungen nutzen dabei das objektsprachliche Zeichen selbst als Träger der metasprachlichen Annotation. In den heute geläufigen SGML-basierten digitalen Varianten treten die objekt- und die metasprachlichen Dimensionen hingegen bereits auf dieser grundlegenden Ebene auseinander.Footnote 23 Das ist jedoch weder zwingend, noch wird dieses technische Detail in der Regel vom Normalleser eines digitalen Dokuments überhaupt bewusst verarbeitet. In der Perspektive des technisch interessierten Lesers hingegen läuft die in der digitalen Zeichenkette eingebettete Deklaration mittels Inline Tag auf eine doppelte Emulation hinaus: Erstens sichert das Inline Tagging die Eindeutigkeit der Objektreferenz auf eine quasi-analoge Weise durch die unmittelbare räumliche Nachbarschaft von Objekt- und Metazeichen; zweitens emuliert der digitale Text in den meisten Arbeitsumgebungen dann spätestens auf dem Bildschirm wieder die Verschmelzung der typographischen Annotation mit dem objektsprachlichen Zeichen.

Auf den zweiten Blick allerdings zeigt sich, dass die Gradierung von Annotationen nach ihrer medialen Distanz zum Objektzeichen bereits in der prädigitalen Textpraxis eine funktionale Semantisierung erfahren hat: Je weiter das objektsprachliche Zeichen und die metasprachliche Annotation auseinandertreten, desto eher wird ein kompetenter Leser die Annotation als interpretationshaltigen Mesotext sensu Boot bewerten, der einem eigenständigen Metatext zuarbeitet. Im traditionellen Schrift- und Printmedium beginnt dieses Auseinandertreten mit der Interlinearannotation und reicht über die Formen der Glosse und der Anmerkung in der Marginalienspalte bis hin zur komplexen, kommentierenden Fuß- oder Endnote und möglicherweise gar noch bis zum Apparat. Die mediale und räumliche Distanz zwischen Objekttext und Annotat ist so zum konventionalisierten Indikator diskurspragmatischer bzw. rhetorischer Funktionalität geworden.

4 Markup als Annotation jenseits des Document Paradigm

In der Perspektive der DH und mit Blick auf Markup als digitale Variante von Annotation stellt sich an dieser Stelle eine Grundsatzfrage: Alle Markuptechniken, die in der Tradition von SGML stehen, setzen konzeptionell auf die durchgehende Separierung von Objekttext und Metatext. Je deutlicher diese Trennung im Interface und im Workflow einer Markupumgebung ausgeprägt sind, umso sperriger wirkt diese daher für den traditionell arbeitenden Forscher, der Annotation als eine weitgehend unstrukturierte, intuitiv handhabbare Praxis der Anreicherung und Zwischenspeicherung von Anmerkungen, Erläuterungen, Kommentaren und Verweisen schätzt.

Die Suggestivität, Flexibilität und Reichhaltigkeit dieser ‚händischen‘ Annotationspraxis lässt sich zwar mit einigem Aufwand auch digital simulieren, wie John Bradley mit der Entwicklung der Arbeitsumgebung Pliny gezeigt hat.Footnote 24 Aber warum überhaupt an dem prädigitalen Muster festhalten und es zu emulieren suchen? Macht nicht gerade die Entkoppelung des digitalen Markups von der konventionalisierten Semantik ‚händischer‘ Annotation, die eine Anmerkung als umso selbstevidenter und ‚objektiver‘ suggeriert, je geringer die räumliche Distanz zwischen Objekttext und Annotat ist, einen epistemischen Mehrwert digitaler Annotationen aus?Footnote 25 Ist das, was auf den ersten Blick einer informationstechnischen Gegebenheit geschuldet zu sein scheint, nicht eigentlich Ausdruck einer prinzipiell anderen Form von Wissensorganisation und die logische Konsequenz eines neuen Textmodells? Welche neuen Formen, Funktionen und Praktiken literaturwissenschaftlicher, hermeneutisch ambitionierter Annotation könnten mit diesem Ansatz entstehen?

Eine der zentralen Debatten innerhalb der Markup-Community ist in dieser methodologischen Hinsicht die Kontroverse um die Verwendung von Inline vs. Stand-off Markup. Inline Markup in Form von in den Objekttext eingebetteten Tags ist bei der sequenziellen Verarbeitung von Dokumenten leichter handhabbar, konzeptionell den einfachsten Formen des analogen Verfahrens ähnlich und bietet zudem eine Reihe von Vorteilen bei der Datenverarbeitung (Performanz von Search- und Retrieval-Algorithmen, Stabilität der Referenz u. a. m.). Die Alternative des explizit referenzierenden Stand-off Markups bzw. External Stand-off Markups, in der das digitale Annotat konsequent vom Bezugstext abgelöst und separat gespeichert wird, kann hingegen besser komplexere Bezüge abbilden, die nicht mehr an die formale Strukturierung des Bezugstextes als lineare Zeichenkette gebunden sind.

Ein wesentliches Argument für die Verwendung von Stand-off-Markup-Verfahren ist bekanntlich die Kritik am hierarchischen Textmodell der Ordered Hierarchy of Content Objects (OHCO) gewesen, wie es etwa dem TEI-Schema zugrunde liegt. Das OHCO-Modell von ‚Text‘ ist entlang einer hierarchisch geordneten Systematik nach dem Muster ‚Buch (enthält Kapitel (enthält Absatz (enthält Satz (enthält Wort))))‘ entworfen; es lässt sich damit problemlos und performant mit einem Inline Markup abbilden, dessen Syntax die entsprechende hierarchische Staffelung der Tags garantiert. Die sog. ‚OHCO-Debatte‘ setzte vor diesem Hintergrund zunächst bei einem technischen Detail und damit bottom-up bei einem Praxisproblem an: Wie lässt sich eine sog. Overlapping Hierarchy codieren? Ein solcher Overlap liegt zum Beispiel bei einem lyrischen Enjambement vor, in dem eine Phrase die Versgrenze überspringt. Inline Markup stößt hier an eine Grenze, denn der schließende Tag der hierarchisch untergeordneten syntaktischen Einheit ‚Phrase‘ liegt jenseits des schließenden Tags der übergeordneten Einheit ‚Vers‘.Footnote 26

Stand-off Markup ist eine von mehreren Möglichkeiten, dieses Detailproblem der Markuppraxis technisch zu lösen.Footnote 27 Aber das ist eben nur die technische, problemorientierte Perspektive. Die konzeptionelle Relevanz von Stand-off Markup für die Praxis digitaler Textwissenschaften ist grundsätzlicherer Natur: Denn überlappende Hierarchien und diskontinuierlich über das Ganze ausgeprägte Phänomene sind nicht nur ein formales Binnenmerkmal des literaturwissenschaftlichen Gegenstandes ‚Text‘ – sie kennzeichnen vielmehr auch den pragmatischen Kontext und die methodischen Praktiken, innerhalb dessen Texte als Objekte der Literaturwissenschaften seit dem Digital Turn thematisch werden. Die traditionelle philologische Praxis ließ sich noch denken unter Bezugnahme auf eine hierarchisch-substanzorientierte Vorstellung von Texten (primären Gegenständen und sekundären Informationsquellen), Bibliotheken (Institutionen der Quellen- und Wissensverwaltung) und eine klare Distinktion der Rollen von Autoren (intentional agierenden Produzenten) und Lesern (Adressaten und Interpreten der verschriftlichten Rede). Für eine Philologie, die das Erkenntnispotenzial digitaler Medien, Modelle und Verfahren konzeptionell für sich nutzen will, greift diese aus der Ära des Printmediums stammende Modellierung von Texten und Gebrauchskontexten, die sich u. a. in dem deskriptiv-hierarchischen Markupmodell niederschlägt, jedoch zu kurz.

Die digitale Praxis literaturwissenschaftlicher Texthermeneutik sollte diesen Emulationsmodus deshalb konsequent hinter sich lassen und nicht länger von einer essenzialistischen Vorstellung von Text und traditionellen Rechte-Rollen-Schemata ausgehen, die in der allgemeinen literaturtheoretischen Debatte ohnehin spätestens mit dem Poststrukturalismus infrage gestellt worden sind. Eine Praxis der „literary annotation in the digital age“,Footnote 28 die sich nicht auf die leichter digital zu operationalisierenden Fragestellungen formal orientierter Arbeitsfelder wie etwa Narratologie oder Editorik beschränkt, wird deshalb vermutlich ein insgesamt eher ereignisorientiertes denn ein substanz- und rollenorientiertes Textmodell entwickeln müssen. Für die digitale Annotation bedeutet dies, den Objekttext wie seine Annotationen mal als Knotenpunkte, mal als Kanten in einem n-dimensionalen, dynamisch rekonfigurierbaren Netzwerk zu denken. Einer der Akteure in diesem Netzwerk ist dabei der Textinterpret: Je nach Erkenntnisinteresse und methodischem Ansatz definiert, systematisiert und exploriert er als hermeneutischer Agent im Zuge der digitalen Annotation die ‚Kanten‘ zu und von den Texten und ihren Annotaten sowie deren mögliche Clusterungen. Ein – wenn nicht gar der zentrale – Vorteil digitaler Repräsentationen von textuellen Objekten und Bezügen gegenüber analogen Vorläufern und Praktiken ist dabei die erheblich einfachere Aggregation, Rekonfiguration und Analyse der textuellen Objekte und Annotate, die jeweils in den Blick genommen werden können. Ein zweiter Vorteil ist die Möglichkeit zum ‚Re-Run‘ einer Forschungsfrage, die digitale Verfahren dank formaler Parametrisierung und computergestützter Abarbeitung repetitiver Routinen eröffnen.

Für den engeren Bezugsbereich einer digitalen Texthermeneutik bedeutet dies, dass die einzelne Textinterpretation nicht mehr zwingend als geschlossenes Ganzes gedacht werden muss, sondern dass sie auch als eine unter n möglichen Konfigurationen von Interpretations- und Deklarationsentscheidungen konzeptualisiert werden kann. Stand-off Markup unterstützt dieses Verfahrensmodell, weil es konzeptionell nicht mehr ein dokumentzentriertes Verfahren ist, sondern ein datenbankzentriertes, wie Schloen/Schloen hervorheben:

[…] stand-off markup deviates so much from the original markup metaphor that it no longer belongs within the document paradigm at all and is best implemented within the database paradigm. Stand-off markup involves the digital representation of multiple readings of a text by means of separate data objects, one for each reading, with a system of pointers that explicitly connect the various readings to the text’s components. But this amounts to a database solution to the problem. The best way to implement this solution is to abandon the use of a single long character sequence to represent a scholarly text — the document approach — in order to take advantage of the atomized data models and querying languages characteristic of database systems.Footnote 29

Diese digitale Repräsentation von Annotationen als „multiple readings of a text by means of separate data objects“ setzt allerdings noch mehr voraus als nur den Wechsel vom dokumentzentrierten zum datenbankzentrierten Modell: Sie bedeutet auch, die Praxis der digitalen Annotation insgesamt als eine des Data Modeling zu betrachten. In Anlehnung an Flanders/JannidisFootnote 30 ließe sich dann die für die Praxis der Datenmodellierung vorgeschlagene Unterscheidung Conceptual Model vs. Logical Model und Curation-Driven Modelers vs. Research-Driven Modelers in abgewandelter Form zu einer Matrix erweitern, mit der sich vier prototypische Ausprägungen von digitalen Annotationen als Praktiken der Textmodellierung unterscheiden lassen (s. Tab. 1).

Tab. 1 Prototypische Ausprägungen von digitalen Annotationen als Praktiken der Textmodellierung

Diskursiv orientiertes, hermeneutisch funktionales Annotieren als Exploration und Verschriftlichung individueller ‚Lesarten‘ eines Textes wird einen konzeptionellen Nutzen aus der Digitalisierung des Verfahrens in vielen Fällen zunächst nur mittelbar ziehen können: Je kontextabhängiger die Interpretation einer Textstelle ist, desto schwieriger ist die Formalisierung des Prozesses. Auch für die hermeneutisch ambitionierte Annotationspraxis mag das automatisierte Pre-Processing und ggf. auch das automatische Taggen eines Textes zwar durchaus heuristischen Wert haben – die eigentliche Aufgabe der Textinterpretation ist damit jedoch in aller Regel noch nicht erfüllt. Umso wichtiger ist deshalb die Bereitstellung von digitalen Arbeitsumgebungen, mit denen Philologen im ersten Zugriff unstrukturiert oder strukturiert, in jedem Fall aber kollaborativ und damit diskursiv orientiert annotieren, um dann im zweiten Schritt Objekttext wie Annotate mithilfe des Rechners analysieren zu können.

Wichtig ist dabei, den Übergang von der (leichter) automatisierbaren, hermeneutisch jedoch eher niedrigschwelligen formalen Textannotation (z. B. POS Tagging) bis hinauf zur nicht mehr algorithmenbasiert reproduzierbaren, dafür jedoch für eine globale Textdeutung entscheidenden semantischen Textannotation als stetig zu denken. Zwischen induktiven und deduktiven, deklarativen und interpretativen Annotationsmodi und automatischen wie intelligenten Verfahren kategorisch zu unterscheiden, hat wenig Sinn, wenn die DH mit der traditionellen Texthermeneutik ins Gespräch kommen wollen. Diese grundsätzlichen Kennzeichnungen können jedoch hilfreich sein, um die jeweilige Praxis einer digitalen Textannotation in einem dreidimensionalen Kontinuum zu verorten, dessen Achsen die der Methodik, der Funktion und des Verfahrens sind (s. Abb. 1).

Abb. 1
figure 1

Dimensionen der digitalen Textannotation

Von einem derart abstrakt formulierten Konzept digitaler Textannotation ausgehend, könnten dann digitale Annotationswerkzeuge und kollaborative Plattformen entwickelt werden, die die konkreten Use Cases traditionell arbeitender, hermeneutisch orientierter Forscher aufgreifen, statt wie bisher primär technik- und standardgetrieben voranzuschreiten. Ein strategisch interessanter Ansatz könnte dabei die Formulierung hermeneutischer Grand Challenges für die digitale Textannotation und -exploration sein, bei der DH-Vertreter und klassisch-hermeneutisch arbeitende Literaturwissenschaftler gemeinsam bewusst Fragestellungen jenseits der linguistisch-textempirischen Phänomene in den Blick nehmen. Von Seiten der Texthermeneutik dürften die formulierten Herausforderungen dabei nur selten darin bestehen, rein technische Routinen und Prozesse der Textannotation als solche zu automatisieren und zu optimieren: Nicht der technologische und informationstheoretische, sondern der epistemologische und konzeptionelle Aspekt dürfte vielmehr bei der Suche nach den wirklichen Killer ApplicationsFootnote 31 im Vordergrund stehen.

5 Desiderata

Aus den vorangehenden Überlegungen lassen sich drei zentrale Desiderata für die Entwicklung und Dissemination von digitalen Annotationsverfahren und -plattformen ableiten. Anzustreben sind:

  • eine umfassende born-digital-Modellierung von Textannotation als literatur-wissenschaftlichem Verfahren;

  • die konzeptionelle und technische Integration der Arbeitsschritte Textauszeichnung – Textannotation – Textanalyse

  • eine ‚Naturalisierung‘ digitaler Verfahren in den Philologien.

5.1 Born-digital-Modellierung literaturwissenschaftlicher Textannotation

Die digitale Modellierung der traditionellen Praxis non-deterministischer, explorativer Textannotation sollte, wie u. a. Bradley mit Blick auf einen „Richer Sense of Digital Annotation“Footnote 32 hervorgehoben hat, ein erheblich breiteres Spektrum erfassen, als dies mit den gängigen Methoden eines deklarativen, taxonomiegetriebenen Markups möglich ist. Insbesondere die unstrukturierte, intuitive Annotationspraxis muss stärker berücksichtigt werden – was in der traditionellen Praxis bislang auf Papier in Form von Unterstreichungen und Marginalien-Kommentaren zunächst manuell erfasst wurde, um dann allenfalls in einem zweiten Durchgang selektiv in eine digitale Variante kopiert bzw. umgeschrieben zu werden. So sollte also durchgehend eine born-digital-Textannotation entstehen können, die dem Nutzer schon in Echtzeit für methodisch anschließende computergestützte Prozesse (Indexierung, Search and Retrieval, Schematisierung etc.) zur Verfügung steht.

Dies kann sowohl synchron als auch noch während des Annotationsvorgangs selbst geschehen – etwa durch interaktive Auswertung und Visualisierung der Verteilung bereits annotierter Phänomene im Text- oder Korpus-Ganzen. Unterstützt werden sollte dieser Ansatz idealiter jedoch zugleich durch eine asynchrone maschinelle Auswertung des Gesamtkomplexes von Textdaten, Annotationsdaten und im System protokollierten Nutzeraktionen. Ziel einer solchen digitalen Metareflexion unter Verwendung von Machine-Learning-Verfahren ist dabei die Modellierung und schrittweise Automatisierung von Annotationsproblemen steigender Komplexität. Dabei geht es nicht allein darum, den Nutzer von repetitiven Aufgaben zu befreien. Durch Einbeziehung der informatischen Perspektive auf Problemstellung und Lösungswege sollten digitale Modellierungsangebote vielmehr auch epistemisch funktional gemacht werden: Denn sie emulieren nicht nur bekannte Verfahren, sondern eröffnen auch neue Perspektiven auf den hermeneutischen Gegenstand ‚Text‘, die bislang aufgrund zu hoher Komplexität für den menschlichen Leser und Kommentator nicht greifbar waren. Wesentlich ist dabei insbesondere die Unterstützung kollaborativer Annotation, die eine methodologische Erweiterung philologischer Annotationspraxis bedeutet.

5.2 Konzeptionelle und technische Integration von Textauszeichnung – Textannotation – Textanalyse

In der traditionellen philologischen Praxis ergänzen sich die Textauszeichnung (Beispiel: eine Analyse des Metrums), die Textannotation (Beispiel: die Explikation einer Metapher), die Textanalyse (die systematische Anwendung der beiden ersten Schritte auf den Gesamttext) und der Textkommentar (Beispiel: die kritische Würdigung der Form-Inhalt- Relation zwischen Metrum und Metaphorik vor dem Hintergrund eines Werkganzen). Diese methodische Integration muss auch eine digitale Forschungsumgebung für die Philologien zumindest in Hinblick auf die ersten drei Arbeitsschritte leistenFootnote 33 – und sie sollte dabei zudem berücksichtigen, dass in der literaturwissenschaftlichen Forschungspraxis gerade diese drei Verfahren eigentlich immer schon diskursiv praktiziert wurden. Denn die jeweils erzielten Ergebnisse fließen seit jeher in den fortlaufenden kritischen Fachdiskurs der Literaturwissenschaften ein. Diskursivität als solche ist also kein Novum – der eigentliche konzeptionelle wie methodische Mehrwert liegt vielmehr in der gesteigerten Komplexität, Synchronizität und Nachnutzbarkeit der ‚Arbeit am Text‘, der aus der digitalen Integration der Verfahren resultiert und im kollaborativen Modus nochmals gesteigert werden kann.

Eine virtuelle Textannotationsumgebung sollte deshalb:

  • den Dissens über Bedeutungen als produktive Bedingung und raison d’être der Textwissenschaften begreifen;

  • den Geltungsbereich der normativen Leitidee des Inter-Annotator Agreements bewusst relativieren, indem sie im Umgang mit semantisch anspruchsvolleren Textphänomenen auch das explorative Potenzial eines reflektierten Disagreements nutzbar macht;

  • statt des linearen Voranschreitens von der taxonomischen Textbeschreibung zur finalen Textdeutung den zyklischen Charakter und die Wechselwirkung von Textannotation und Textanalyse als Prozessschema zugrunde legen.

Für den philologischen Nutzer könnten damit auch in der digitalen Umgebung Textauszeichnung, Textannotation und Textanalyse als methodisches Kontinuum handhabbar bleiben. Die angestrebte User Experience emuliert damit die etablierten Praktiken des philologischen Arbeitens, statt Workflows und Segmentierungen von Prozessen zu erzwingen, die sich primär an den technischen Anforderungen orientieren.

5.3 ‚Naturalisierung‘ digitaler Verfahren in den Philologien

Diese Anschlussfähigkeit an etablierte ‚analoge‘ Routinen und Gebrauchsmetaphern ist dabei zugleich ein strategisches Desiderat: Denn mit ihr steht und fällt die Akzeptanz einer Plattform. Ihr wäre mit einem mehrstufigen Usability-Konzept Rechnung getragen, das den konzeptionellen Mehrwert eines Mixed-Methods-Ansatzes für die Literaturwissenschaften – also: einer Kombination manueller und automatischer Routinen – vermitteln kann. Drei Kriterien sind dabei erfolgskritisch:

  • Vom Nutzer dürfen keinerlei Vorkenntnisse im Bereich der digitalen Modellierung und Analyse von Texten und Korpora verlangt und damit vom System auch keine implizite Rekonzeptualisierung des Forschungsgegenstandes ‚Text‘ als Datenstruktur erzwungen werden.

  • Im Einstiegs-Modus sollte eine Plattform in Bezug auf Oberflächengestaltung, Terminologie und Handhabung bewusst traditionelle Praktiken, Konzepte, Verfahren und Gebrauchsmetaphern der Philologien emulieren, um dann

  • im Experten-Modus schrittweise mittels interaktiver Komponenten zwischen dem traditionellen und dem digital modellierten Workflow zu vermitteln. Wesentlich ist hier insbesondere der Schritt zur kollaborativen Arbeit am Text bzw. Textkorpus, die sowohl asynchron wie synchron, also auch in Real Time möglich sein und zudem Gelegenheiten zur Einbindung automatisierter Komponenten bieten muss.

6 CATMA als Proof of Concept

Der vorangehend skizzierte Anforderungskatalog mag auf den ersten Blick ambitioniert wirken. Tatsächlich gibt es jedoch bereits jetzt eine Reihe von Tools und Plattformen, die ihm in Konzeption und Funktionalität teilweise entsprechen. Als wohl wichtigstes frühes Beispiel zu nennen ist hier die bereits erwähnte, von Bradley entwickelte experimentelle Annotations- und Forschungsumgebung Pliny.Footnote 34 Plinys ausschlaggebende konzeptionelle Restriktion ist allerdings, dass das Tool als Desktopapplikation nur den Arbeitsablauf des Einzelnutzers unterstützt, aber keine Kollaborationsfunktionalität beinhaltet.

Die vorangehend skizzierten konzeptionellen Überlegungen und technischen Erfordernisse sind dagegen umfassender umgesetzt worden in dem seit 2008 an der Universität Hamburg entwickelten Textannotationstool CATMA (Computer Assisted Textual Markup and Analysis).Footnote 35 CATMA war zunächst als Re-Implementierung der bereits in der Mitte der 1980er Jahre von Bradley programmierten Programmsuite TACT (Textual Analysis Computing Tools) geplant;Footnote 36 eines der erfolgreichsten und verbreitetsten frühen Textanalysetools. Im Zuge des Architekturdesigns und nach Rücksprache mit Bradley wurde daraus jedoch ein komplexeres Entwicklungsvorhaben. Neben der Annotationsfunktion wurde das Programm in einer ersten Entwicklungsphase bis 2010 um mehrere Funktionskomponenten erweitert (insbes. Textanalysefunktionen und einen Query BuilderFootnote 37). Ab 2010 wurde CATMA dann als Webapplikation in JAVA implementiert, um webbasierte Kollaborationen in Echtzeit bei der Text-/Textkorpusannotation und -analyse zu unterstützen. Um die notwendige Flexibilität bei gleichzeitiger Standardkonformität sicherzustellen, basieren CATMA-Annotationen auf dem sog. Feature-Structure-Modell von TEI.Footnote 38 CATMA-Annotationen sind damit TEI/XML-kompatibel und können in alle gängigen Formate exportiert werden. Umgekehrt erlaubt CATMA den Import aller gängigen Annotationsformate, insbesondere TEI-XML. Objekttexte und Korpora können in diversen Formaten (darunter txt, rtf, doc, docx, pdf) in das CATMA-System geladen oder über eine Schnittstelle direkt aus Repositorien eingelesen werden. Intern verarbeitet CATMA alle Texte in UTF-8 bzw. UTF-16 und unterstützt somit eine Vielzahl UNICODE-basierter Sprachen inkl. einiger rechts-links geschriebener Sprachen wie z. B. Hebräisch und Arabisch. In CATMA 5.0 wurden außerdem prototypisch erstmals Machine-Learning-basierte Annotationsroutinen implementiert, mit denen z. B. das in der Narratologie als Analepse definierte Phänomen des non-linearen, rückschauenden Erzählens einer Vorgeschichte vom Zeitpunkt der Erzählgegenwart aus in deutschsprachigen Texten automatisch getaggt werden kann. CATMA wird aktuell international in mehr als 120 Forschungsvorhaben eingesetzt und ist bislang die einzige webbasierte Plattform, die

  • gezielt non-deterministische, kollaborative Textannotation unterstützt;

  • das komplette Funktionsspektrum ‚Textauszeichnung – Textannotation – Textanalyse‘ abbildet;

  • Schnittstellen zur Einbindung externer Routinen und Services für automatisierte Textauszeichnung und Korpora besitzt;

  • eine systeminterne Machine-Learning-Komponente integriert.

CATMA kann damit als Proof of Concept gelten, das die konkrete technische Umsetzbarkeit der methodischen Anforderungen demonstriert, die ein reichhaltigeres, stärker auf die texthermeneutischen Erfordernisse eingehendes DH-Annotationskonzept nach sich zieht, für das hier plädiert wurde.Footnote 39CATMA ist zwar bislang die einzige Plattform, die dem entsprechenden technischen Anforderungskatalog gerecht wird.Footnote 40Aber das ist durchaus keine Konsequenz technischer Restriktionen, die auf das Feld der DH einwirken. Es ist vielmehr eine Folge der konzeptionellen Selbstbeschränkung der DH auf eine Praxis der digitalen Anreicherung von Texten mit ‚Lesartenhinweisen‘, die Markup bleiben. Das aber ist nur die Vorstufe zu dem, was in der Texthermeneutik eigentlich gefordert ist: digitale Annotation.