Die sieben Beiträge der Sektion Digitale Edition und Annotation befassten sich mit dem Edieren von Texten im digitalen Raum, dem Prozess ihrer Aufbereitung und den dabei verwendeten Methoden. Die Reflexion dieser Praxis bezieht sich nicht nur auf einen medialen Transformationsprozess – sie erlaubt und erfordert es auch, grundlegende philologische Aktivitäten neu zu verhandeln.

Während die Edition gleichermaßen ein Forschungsergebnis und die Grundlage für weitere Forschung darstellt, sind Annotationen Teil eines aktiven Leseprozesses und Elemente eines analysierenden Zugriffs. Beide stehen somit für philologische Aushandlungsprozesse zwischen Deskription und Interpretation.

Im Inkunabelzeitalter der Digitalen Edition stellt es eine besondere Herausforderung dar, den andauernden Entwicklungsprozess ins Digitale parallel zu reflektieren, zu theorisieren und zu standardisieren. Dabei geht es einerseits um das Verhältnis analoger und digitaler Formate und die mit ihm einhergehenden Konsequenzen für LeserInnen und HerausgeberInnen. Welches sind die wesentlichen und identitätsstiftenden Elemente der Edition, und was leistet ihre digitale Umsetzung? Andererseits geht es in der Diskussion immer wieder um das Explizieren von Implizitem und damit um das Verhältnis von Modellierung, Abstraktion und Hermeneutik. In diesem Zusammenhang wurde auch auf die Problematik des weit verbreiteten Begriffs des Close Reading hingewiesen, der gemeinhin als Gegensatz zu maschinellen Verfahren verstanden wird – und keinesfalls ein komplementärer Begriff zu Morettis Distant Reading ist, wie es die Begriffe suggerieren.

Der Beitrag von Matthias Bauer, Gabriel Viehhauser und Angelika Zirker skizzierte den Kommentar als Bindeglied zwischen objektiver Primärtextanalyse und Interpretation. In der Diskussion wurde an die lange Tradition philologischer Kommentierung erinnert, die zwar bislang nicht spezifisch digital praktiziert worden sei, aber eine bestehende Heuristik entwickelt habe, die auch im digitalen Format Bestand haben könne. Die Schwierigkeit des Transfers bestehe jedoch darin, dass sich die Tradition auf die Praxis beschränke und nur wenig Theorie liefere. Ein terminologisches Resultat dieses Umstands sei die Undifferenziertheit des Kommentarbegriffs, die ebenso auf die ‚Annotation‘ zutreffe. Die Beitragenden verstehen den Kommentar als erklärende Annotation und somit als einen Subtyp von Annotationen.

Ausgiebig diskutiert wurde das Spannungsfeld von Abgeschlossenheit und Offenheit von Kommentaren. Bereits der analogen Textsorte sei eine gewisse Offenheit inhärent, weil sich in ihr nicht ausschließlich auf das Objektive beschränkt werden könne und weil sie abhängig sei von Verstehensbedingungen, die sich fortlaufend aktualisierten. Es bestand Konsens darüber, dass der digitale Kommentar ein Potenzial zur weiteren Öffnung biete, das weit über wegfallende räumliche Beschränkungen hinausgehe. Ein praktisches Beispiel, dessen Verwirklichung auch im Digitalen noch ungelöst sei, bestehe in der Verankerung von Annotationen, die sich nicht auf spezifische Textstellen bezögen, sondern erst in einem größeren Kontext Relevanz erhielten oder sich aus einer Summe von Annotationen ergäben. Dies illustriere zudem die Inklusion des hermeneutischen Prozesses in die Praxis des Kommentierens. Auch bei dem Verhältnis zwischen Kommentar und Interpretation müsse daher ein Mittelweg gefunden werden, der das öffnende Potenzial des Digitalen hin zu Multiperspektivität und dem Aufbrechen des Textbegriffs fördere, ohne den objektiven Gehalt des Kommentars zu unterwandern.

Weitere Diskussionsbeiträge widmeten sich dem Bereich der Systematisierung, dessen Wichtigkeit besonders hervorgehoben wurde. Das von der Autorin eingebrachte TEASys-Modell ermöglicht eine Kategorisierung der vorgenommenen Annotationen und setzt somit an dem Desiderat der Präzisierung von Annotationstypen und der Transparenz des Prozesses an. Auf die Frage nach der Bewährung in der Praxis wurde auf einen begleitenden Living Style Guide hingewiesen, der im Gegensatz zu weithin verbreiteten Inter-Annotator Agreements erforderliche Aushandlungsprozesse ermöglicht. Insbesondere im Umfeld der Lehre habe sich das kategorisierende Kommentieren als gutes reflexives Verfahren und produktive Erschließungsmethode erwiesen. Ausgehend von der Frage nach einer Systematisierung von Rollen, die im Beitrag nicht angesprochen wurde, aber spätestens bei einer Öffnung der Annotationsumgebung an Relevanz gewinnen werde, sei zu diskutieren, inwieweit es sich beim Digitalen Kommentar noch immer um eine Textsorte handele, die sehr stark an Experten gebunden sei.

Manuel Braun, Sonja Glauch und Florian Kragl untersuchten in ihrer Vorlage insbesondere jene Eigenschaften der Digitalen Edition, die über analoge Editionen hinausgehen. Sie gingen davon aus, dass Letztere inzwischen immer auch digital (angelegt) seien. Die vorgenommene Standortbestimmung verfolgte daher keineswegs das Ziel, das eine Format gegen das andere Format auszuspielen.

Ebenfalls kritisch hinterfragt wurde, inwiefern die Möglichkeit zur Nutzung quantitativer Verfahren tatsächlich zu neuen Qualitäten der Digitalen Edition beitragen könne, zumal sie große Herausforderungen an eine transparente und übersichtliche Darstellung mit sich bringe und zu keinen verlässlichen Ergebnissen führe. Während sich die Beitragenden dieser Herausforderungen bewusst waren, verwiesen sie auf das Umschlagen des quantitativen Arguments in ein qualitatives, sofern Zugänge geschaffen würden, die bereitgestellte Daten für individuelle Forschungsanfragen nutzbar machen würden. Das implizite Abwägen dieser Verfahrenskombinationen unterstreiche, dass sich die Digitale Edition in einem Grenzbereich zwischen Archiv und Edition bewege. Eine derartige Edition sei eine Analyseplattform, für die auch Maschinenlesbarkeit eine Rolle spiele.

Wie im Beitrag angeregt, wurde in diesem Zusammenhang diskutiert, inwiefern es sich bei der Digitalen Edition um ein revolutionäres Format handele. Ohne an dieser Terminologie festzuhalten, wurde übereinstimmend konstatiert, dass der Medienwandel hier zumindest zu neuen Qualitäten beitrage, zu denen neben der hinzugewonnenen Dynamik auch ein neues Rollenverständnis gehöre. So wurde in Replik auf den Beitrag auf eine Rollenverschiebung im Digitalen hingewiesen: Während die Herausgeberrolle vergleichsweise geschwächt zu sein scheine, indem dieser zunehmend organisierende Funktion zukomme, werde die Rolle des Rezipienten gestärkt. Im Beitrag war die Rede von BenutzerInnen als ‚Co-EditorInnen‘, was in der Diskussion hinterfragt wurde. Die Beitragenden erläuterten, dass sie es keineswegs so verständen, dass alles Machbare auch umgesetzt werden solle, sondern verwiesen darauf, dass entsprechende Zugänge geschaffen werden müssten, die unterschiedlichen Bedarfen gerecht würden. In der Diskussion wurde die Möglichkeit vielfältiger Angebote kritisch diskutiert, da hier nicht nur die Gefahr einer Überforderung von Nutzenden bestünde, sondern solche Surrogatlösungen auch deshalb sehr riskant seien, da das Angebot bequemer Alternativen ein Zurückfallen in analoge Muster bedeute, die es unbedingt zu vermeiden gelte. Als Beispiel wurde hier die hochwertige historisch-kritische Edition angeführt, die in der Regel um eine lesbarere und besser verkäufliche Studienausgabe ergänzt werde. Als Fazit der Diskussion der veränderten Rollen wurde festgehalten, dass die Digitale Edition LeserInnen stärker in die Pflicht nehme, als es bei ihrem gedruckten Pendant bislang der Fall gewesen sei. Es handele sich hier um eine Auslagerung, die zum gegenwärtigen Zeitpunkt als radikal empfunden werden könne.

Bei aller Einigkeit über den tatsächlichen und potenziellen Mehrwert Digitaler Editionen stellte sich die Frage nach dem Stellenwert der Textkritik, die hier in neuartiger Weise praktiziert werden könne, jedoch aus bislang nicht erklärlichen Gründen eher marginalisiert worden seien. In einigen Bereichen, wie beispielsweise den Aushandlungsprozessen zu Leithandschriften in der Mediävistik, sei die Vernachlässigung der Textkritik nachvollziehbar, da sich hier – etwa in Form von synoptischen Darstellungen – Möglichkeiten bieten würden, die Vielfalt der Überlieferung abzubilden. Darüber hinaus müsse die Entwicklung des laufenden Prozesses abgewartet werden, in dem eine Umkehrung des identifizierten Trends jederzeit eintreten könne.

Mit der Frage nach den Kosten für Digitale Editionen und deren Langzeitarchivierung widmete sich die Diskussion einem weiteren Bereich, der einige offene Fragen bereithalte, die es erst noch zu verhandeln gelte. Während Langzeitarchivierung nichts Neues sei, der Weg hier also als vergleichsweise geebnet angesehen werden könne und EditorInnen mit XML/TEI eine plausible Nachhaltigkeit schafften, wären aus der Perspektive der Förderer Mindeststandards für Digitale Editionen notwendig. In diesem Zusammenhang müsse zudem berücksichtigt werden, dass Schieflagen durch die Förderung entstehen könnten, etwa durch die Auswahl förderungswürdiger Editionsprojekte und den erhöhten Aufwand bei der Edition von älteren Texten. Kostenreduzierendes Potenzial zeige sich derweil im Bereich der Toolentwicklung zur nationalen Infrastruktur der Edition. Auch die Nutzung gemeinsamer Oberflächen könne die Kosten weiter reduzieren.

Für allgemeine Verwunderung sorgte das Resümee des Beitrags, in dem die Digitale Edition als zusätzliches und eigengesetzliches Angebot angesehen wird, das gegenüber seinem gedruckten Gegenstück nur für bestimmte literaturwissenschaftliche Anliegen einen Mehrwert biete. Die Beitragenden erläuterten ihr Fazit, indem sie analoge und digitale Edition als konzeptuelle Größen auffassen, die sich eignen, um bestimmte Praktiken und Zielsetzungen des Edierens zu umschreiben. Dass ein konkretes digitales Angebot in der Praxis beides umfassen und kombinieren kann, steht dazu in keinem Widerspruch.

Gerrit Brüning stellte in seiner Vorlage Überlegungen zu neuen Szenarien der Nutzung wissenschaftlicher Editionen unter den Voraussetzungen des Digitalen an. Es gehe darum, den im editionswissenschaftlichen Diskurs als ‚Variantenfriedhof‘ kritisierten Apparat digital zugänglich zu machen und für Analysen zu nutzen. Die Art seiner Aufbereitung solle in der Editionsphilologie diskutiert und nicht der Informatik überlassen werden.

Es sei nach allgemeinem Verständnis nicht die Aufgabe von Editionen, die Analyse und ihr Ergebnis vorzugeben, sondern lediglich, die entsprechenden Daten für die Analyse bereitzustellen. Die Analyse der Daten könne bereits mit grundlegenden Operationen erreicht werden, die zeigten, welche Änderungen an einem Text stattgefunden haben. Flankierend forderte er Werkzeuge zur Klassifikation von Typen von Varianten, etwa die Orthographie oder Interpretationen betreffend, ein. Hier wurde in der Diskussion darauf hingewiesen, dass bereits kleine Änderungen an einem Text diesen frappierend beeinflussen könnten. Scheinbar banale Eingriffe wie beispielsweise das Ändern numerischer in ausgeschriebene Zahlen könnten eine Erzählstimme grundlegend verändern. Daraus wurde gefolgert, dass es keine übergreifende Typologie von Änderungen geben könne und eher textspezifische Kategorien zu erwarten seien.

Aus mediävistischer Perspektive werde der ‚Variantenapparat als Signum der Wissenschaft‘ wahrgenommen, dessen Zweck es sei, zu erklären, was im (darüberstehenden) Text passiere, und zu belegen, dass bei der Edition sauber gearbeitet worden sei. Die Rekonstruierbarkeit einer Vieldimensionalität der Überlieferung sei dabei nicht das ausgegebene Ziel. Die Komplexitätsgrade zwischen Text und Apparat würden zudem variieren und es gebe keine einheitliche Vorgehensweise der HerausgeberInnen von Editionen. Aufgrund einer fehlenden Systematik seien LeserInnen den Apparaten ausgeliefert, was zur Folge habe, dass diese mit ihnen meist nicht viel anfangen könnten. Während der Autor des Beitrags diese Zustandsbeschreibung für Editionen aus der neueren Literaturwissenschaft bestätigte, ging er davon aus, dass eine maschinelle Auswertung der Variantenapparate möglich sei.

Als ein denkbarer Ansatz wurde das Anlegen einer Variantenhermeneutik vorgeschlagen, mittels derer bereits im Vorfeld Aussagen zur Komplexität der jeweiligen Variantenlage getätigt werden könnten. Auf diese Art könnten gezielt Ansichten oder Zugänge gewählt werden – etwa eine bestimmte Phase der Überarbeitung eines Textes im Gegensatz zu einer komplexen Textgenese. Der Autor sah in diesem Plädoyer für die einfachen Ansätze, zu denen er auch den Vergleich von Druckfassungen zählte, eine Chance, sich der Darstellung und Analyse komplexerer Sachverhalte anzunähern und diesen den Weg zu ebnen.

Eine grundsätzliche Frage, die die Diskussion der Varianten ans Licht brachte, betraf das Verständnis von Fassungen. Bei ihrer Bestimmung handele es sich um einen interpretativen Prozess, der auf textgeschichtlichem Vorverständnis beruhe. Der Autor der Vorlage ging davon aus, dass jede Variante über das Potenzial verfüge, eine Fassung zu konstruieren. In diesem Zusammenhang wird darauf hingewiesen, dass es sich bei der Grundschicht in der Regel nicht um eine Fassung handele, die jemals historisch existiert habe. Vor diesem Hintergrund stellt sich auch die Frage, ob nicht eigentlich Relationen von Fassungen zu klassifizieren seien und nicht (oder nicht nur) Typen von Varianten.

Im Anschluss unternahm die Diskussion einen Perspektivwechsel: Gehe man davon aus, dass die EditorInnen die Überlieferung am besten kennen, stelle sich die Frage, ob nicht die Editionsphilologie der Zukunft diese Kenntnisse bis zu einem gewissen Grad in die Edition einfließen lassen sollte – etwa durch die Beigabe von Bewertungs- und Interpretationswegen, die zu diesem Zweck transparent gestaltet werden müssten. Auch auf eine damit einhergehende Verlagerung in der Methodologie der Editorik wurde in diesem Zusammenhang hingewiesen. Diese betreffe eine Reihe von Fragen, etwa danach, was auf digitaler Ebene ediert werde oder welche Leistungen EditorInnen für einen ‚unvordenklichen‘ – von unterschiedlichen Interessen geleiteten – Abfrageprozess erbringen müssten, um LeserInnen Genüge zu tun. Es handele sich somit auch um einen Übersetzungsprozess hin zur Maschinenlesbarkeit, für den relevant sei, welche konkreten Anforderungen an die Daten gestellt würden und welche Art der Deskription der Texte hierfür erforderlich sei. Inwieweit die Edition bereits Vorleistungen zu Abfragemöglichkeiten erbringen solle, sei auch abhängig von dem Bedarf der Forschenden und davon, welche Operationen diese selbst übernehmen wollen und können. Ob beispielsweise eine Lemmatisierung oder ein Part-of-Speech Tagging standardmäßig beigegeben sein solle, sei zudem abhängig von der Art der jeweiligen Edition. Eine linguistische Edition verfolge eine andere Zielsetzung als ein Lesetext etc. Gerrit Brüning formulierte die Bereitstellung aller textgeschichtlich existenter Tokens als eine Minimalanforderung und merkte an, dass diese für eine Volltextsuche ohnehin benötigt würden. Zugleich wies er darauf hin, dass in Anbetracht der Verzeichnungsweise vieler vorliegender Editionen für die Ermittlung der Tokens bereits ein Aufbereitungsprozess notwendig sei.

Schließlich erfolgte die Anregung, mittels computerlinguistischer Verfahren quantitative Auswertungsmöglichkeiten zu eruieren. Zu den spontanen Ideen in dieser Richtung gehörten das Generieren eines unüberwachten Clusterings aus den vorgenommenen Änderungen oder die Zuordnung zu bereits gegebenen Klassen.

Anders als im vorherigen Paper ging es in der Vorlage von Dirk von Hulle um die Varianten des Autors selbst. In seinem Beitrag sprach er sich für die Aufwertung und für die editorische Berücksichtigung von verlorenem Material aus. Dieses finde sich häufig in Form von Notizbüchern, die nicht nur materielle Überlieferungsträger seien, sondern auch Indizien für einen Schaffensprozess liefern und somit Aufschluss über die Poetik eines Autors geben könnten.

Die Frage nach der Kodierung von Notizen, auf die AutorInnen für ihre Texte zurückgegriffen haben, ist einfach zu beantworten. Zunächst stehe hier aber der Versuch im Vordergrund, die Notizbücher überhaupt in die Edition zu integrieren. Der Autor verweist zudem auf die Schwierigkeit, dass ein Notizbuch nicht einem Text zuzuordnen sei, da es sich dabei um Work in Progress handele.

Daran schloss sich die Frage an, wieweit die Vorstellung eines nicht zielgerichteten Prozesses (in Anlehnung an den von Ernst Haeckel geprägten Begriff Dysteleological Approach) trage, zumal die Entscheidung für eine Übernahme in einen Text ja als durchaus zielgerichtet aufgefasst werden könne. Der Autor identifizierte diese Nachfrage als den Kern einer andauernden Diskussion, wobei Teleologie bei der Erstellung von Editionen immer implizit sei (daher spreche man auch von ‚Projekten‘). Der teleologische Anspruch sei zudem verankert und werde von HerausgeberInnen und LeserInnen gleichermaßen erwartet und gefordert. Man habe es jedoch mit übergangslosen Arbeiten zu tun, bei denen AutorInnen alles Mögliche notierten, ohne zu wissen, ob und für welchen Text sie darauf zurückgreifen würden. Inwiefern dabei unterschieden werden könne zwischen Verwendetem und lediglich Notiertem und ob letzteres einen Kontext generiere, der zum Auswahlprozess gehöre, könne nicht eindeutig geklärt werden, weshalb hier Vorsicht geboten sei. In jedem Fall erlaube es die digitale Umgebung, diese Vorgänge besser nachzuvollziehen, indem neben der Präsentation von Notizbüchern mittels Transklusion auch teleologische Ansichten generiert werden könnten.

Während es sich bei dem Beckett-Projekt um ein Editionsprojekt handele, das TEI-Daten umfasse, basierten die dem Beitrag zugrunde gelegten Notebook Editions auf einer Datenbank-Struktur, die es erlaube, Kategorien anzusteuern und neben der Perspektive auf die Notizbücher auch flankierendes Material, wie z. B. die Bibliothek des Autors, einzubeziehen. In diesem Zusammenhang regte die Diskussion auch zu einer Rekonzeptualisierung des Vorhabens an, indem die Flexibilität der Perspektive betont wurde. Anstatt eine fixe Perspektive anzubieten, könnten hier ganz im Sinne der genetischen Kritik diachrone Ansichten generiert werden, zwischen denen flexibel gewechselt werden könne. Auf die Frage nach der Verlässlichkeit der verknüpften Informationen in der Modellierung führte Van Hulle aus, dass beim Versuch der Rekonstruktion einer Virtual Library Kriterien benötigt würden, die Grade der Certainty und Uncertainty wiedergäben. Auch Spekulationen von EditorInnen, die intertextuelle Referenzen bemerkten, sollten als solche gekennzeichnet werden können.

Mit der Frage nach Material, das nicht vom Autor selbst stamme, etwa Notizen, die LeserInnen im Text hinterlassen haben, wurde eine weitere Dimension ins Spiel gebracht, deren Auswertung Aufschlüsse zu einer historischen Leserschaft geben könne. Van Hulle gab jedoch zu bedenken, dass es sich hier um eine sehr hypothetische Frage handele, die aus der aktuellen Projektperspektive nicht zu beantworten sei. Ein interessantes Szenario könne in dem Zusammenkommen von Notizen und gleichzeitigen Exzerpten liegen. Hier würde aus einem spezifischen Kontext ersichtlich, was ein lesender Autor als eigenes ‚Take-Away‘ aus einem Kontext herauslöse. Dabei handele es sich um Aspekte, die die Editionswissenschaft bislang ziemlich ausgespart habe.

Es wurde angemerkt, dass es sich aus mediävistischer Perspektive bei den Spuren, die frühere LeserInnen in den Texten hinterlassen hätten, um absolut Wesentliches handele. Im Gegensatz zu diesen selteneren historischen Lesezeugnissen habe man es nun mit einer überwältigenden Datenmenge zu tun. Daraus leite sich die Frage ab, wo hier die Unterschiede zu verorten seien. Dirk Van Hulle sah diese vor allem in der Fluidität der Daten, in denen Kommunikation zwischen Beteiligten stattfinde und Veränderungen und Streichungen vorgenommen würden. Ein weiterer Austausch in diese Richtung und zum historischen Wandel der Annotationskultur wäre sehr willkommen.

Als interessanter Aspekt wurden neben den Konsequenzen, die diese Art der Edition hat, vor allem auch die Konsequenzen für Leser- und Nutzerrollen – und mit ihnen für Bibliotheken und Archive – angesehen. Mit Blick auf die jüngere Textproduktion gelte es zudem, Veränderungen im Schaffensprozess von born-digital-AutorInnen zu untersuchen, bei denen beispielsweise auch digitale Annotationen und Zeugnisse an die Stelle von Notizbüchern träten. Hierin sah der Verfasser der Vorlage eine ganz neue Herausforderung für die veränderte Editorenrolle. Das Problem skaliere zudem insofern, als man voraussichtlich kaum noch von ‚Fassungen‘ sprechen könne und man es mit einem zunehmend fluiden Prozess zu tun habe, in dem auch besuchte Websites und dergleichen eine Rolle spielen könnten. Die Auffassung von ‚Versionen‘ müsse in diesem Kontext völlig neu gedacht werden und sei eine spannende Herausforderung.

Mit der Collation Engine, die bislang zur Erstellung von Apparaten eingesetzt wurde, verbinde er einerseits die Hoffnung, den Apparat als solchen zu stärken, und wünsche sich darüber hinaus ihre Verwendung durch die NutzerInnen, denen hierfür entsprechende Wege aufgezeigt werden müssten.

Der Beitrag von Jan Christoph Meister enthielt ein Plädoyer für eine generelle Ausweitung des Funktionsumfangs von Annotationen. Die „selbstverordnete hermeneutische Abstinenz der Digital Humanities“ trage dazu bei, dass traditionelle und Digitale Literaturwissenschaft immer weiter auseinanderdrifteten. Dabei bestehe neben deklarativen Annotationspraktiken auch hermeneutisches Potenzial in Markup. Interpretation müsse als reflexive Praxis verstanden werden und Annotieren als Aushandlungsprozess des Verstehens. Mittels Annotation könnten Lesarten kommuniziert und offenere Interpretationen aufgezeichnet werden. Vor diesem Hintergrund behandelte der Beitrag diskursives Annotieren in Forschungsumgebungen und formulierte Desiderate für den Umgang mit unterschiedlichen Modellierungsszenarien.

Die Diskussion der Vorlage erweckte den Wunsch nach einem Beispiel von hermeneutischem Markup. Momentan könne diesem nicht entsprochen werden, da hierfür zunächst Hermeneutic Ground Challenges definiert werden müssten, die ein Set von Problemen darstellten, um Operationalisierbarkeit systematisch zu testen. Der Autor der Vorlage erläutert zudem, dass das Annotieren hermeneutisch werde, sobald es methodenreflexiv sei und zu Problemen führe. Dies äußere sich beispielsweise in dem Bedarf, Entscheidungen zu plausibilisieren. Das Kollaborative könne hier einen wichtigen Beitrag leisten, indem unterschiedliche Bewertungen ausgetauscht und diskursiv ausgehandelt würden. Das etablierte Inter-Annotator Agreement sei diesbezüglich sehr dysfunktional, die Reflexion solle vielmehr in den Annotationsvorgang aufgenommen werden, um hier Diskursivität herzustellen.

Eine ausgedehnte Diskussion entwickelte sich um die Kontinuitätsvorstellung von Markup, das diskursive Elemente integriere, und um die Frage, ob hier nicht zwischen verschiedenen Markupformen zu unterscheiden wäre, damit eine zyklische Entwicklung von Statischem getrennt werden könne. Ein strategisches Argument für die Integration diskursiver Elemente liege in der Vermittlung. Annotieren habe immer etwas Stetiges, dennoch sei der Übergang zu hermeneutischen Fragen fließend. Komplexe Phänomene würden jedoch nur dann erreicht, wenn sie nicht ins angelegte Modell passen und somit nicht mehr leicht zu annotieren seien. Bei der intuitiven Annotation handele es sich um eine ‚Durchgangsphase‘, die transzendiert werden müsse. Es gehe folglich um eine Herausforderung des Konzepts. Ausgehend von einem klassenlosen Ursprung solle über die Begegnung und Auseinandersetzung mit einem geregelten Kontext aufgezeigt werden, dass es Kategorien geben könne – diese könnten jederzeit erweiterbar sein und auch meta-annotiert werden. Bei der Implementierung gebe es klare technische Grenzen. Diskontinuierliche Annotationen stellten hier kein triviales Problem dar, eine ausgehebelte Ebenenhistorie sei schwierig zu öffnen für analytische Verfahren. Für das Nachdenken und im theoretischen Metadiskurs sei das kategoriale System notwendig und solle als wichtiges Reflexionsinstrument nicht aufgegeben werden. Meister wies in diesem Zusammenhang auch darauf hin, dass man nicht darauf beharren solle, dass etwas nicht modellierbar sei – in diesem Fall würde jeglicher Dialog verhindert. Diese Reflexionen resümierend, solle der transitorische Aspekt in der Vorlage noch gestärkt werden.

Neben der Kontinuitätsfrage stellte sich auch die Frage nach dem Sinn des Vorschlags des hermeneutischen Annotierens, zumal das intuitive Annotieren die bisher bewährte Logik gefährde und auf Kosten der Maschinenlesbarkeit gehe. Die Trennung von beidem habe sich bislang als sinnvoll erwiesen, etwa wenn es um das Schärfen von Kategorien gehe. Hierzu wurde jedoch zu bedenken gegeben, dass diese skizzierte Opposition nicht unbedingt Bestand habe, da Vorannahmen immer schon einen wichtigen Bestandteil der Hermeneutik ausmachten. Bei der Dichotomie handele es sich daher eher um ein stetiges Kontinuum. Der Versuch einer Unterscheidung führe folglich zu einem ‚Moving Target‘. Die Idee einer starken kategorialen Trennung sei eigentlich ein Artefakt – und ihrerseits historisch.

Eine Gretchenfrage sah die Diskussion darin, welche der im Laufe des Annotationsprozesses generierten Forschungsdaten behalten werden sollten. Der Autor des Beitrags ging hier sogar noch einen Schritt weiter, indem er in dieser Frage eine Überlebensfrage und Kernaufgabe der Digital Humanities sah: Lange Latenzzeiten seien nicht mehr zeitgemäß und alles, was Forschende leisteten, müsse als Prozess transparent gemacht werden. Die Forschungsdaten sollten viel schneller an die Öffentlichkeit gelangen und Nachnutzbarkeit müsse ermöglicht werden.

Zu weniger konkreten Ergebnissen führten Überlegungen bezüglich der Kenntnisse, die für die Benutzung von Plattformen vorausgesetzt werden sollen. So wurde der Wunsch nach einer möglichst niedrigschwelligen, ohne ‚DH-Kenntnisse‘ zu bedienenden Plattform kritisch gesehen. Eine Bedienbarkeit ohne jegliche Vorkenntnisse zur Textmodellierung sei weder realistisch noch wünschenswert. Auch die Frage nach Kenntnissen, die sinnvoll vorausgesetzt werden könnten, wurde zurückgewiesen mit dem Hinweis auf eine nicht bestimmbare Menge von Vorkenntnissen, die zudem ständiger Veränderung unterliegen würden. Insgesamt sei jedoch ein sich stetig verbesserndes Niveau digitaler Kompetenzen zu beobachten, bei dem viele digitale Konzepte vorausgesetzt werden könnten.

Abschließend wurden Auswirkungen der im Beitrag und seiner Diskussion erzielten Erkenntnisse und Forderungen für das wissenschaftliche Feld besprochen. Hervorgehoben wurde hier die Integration in die Lehre, in der bei ausreichender Komplexität und Innovativität annotierte Texte als Leistungen zu akzeptieren seien. Ein mögliches Vorgehen könne darin bestehen, dass ein Anteil der Arbeit eine Methodenreflexion darstelle, in der grundlegende Konzepte der Annotation, ihre Reichweite, Fehlerhaftigkeit etc., thematisiert würden. Bisherige Erfahrungen zeigten, dass Studierende dieses Vorgehen sehr gern annehmen würden. Ein positiver Effekt, der auch traditioneller eingestellte KollegInnenen zu überzeugen vermöge, liege zudem darin, dass diese Arbeiten dazu führten, dass Texte genauer gelesen würden als in anderen Seminaren.

Der Beitrag von Evelyn Gius trägt den Titel Digitale Hermeneutik. Computergestütztes Close Reading als traditionelles Forschungsparadigma? und widmete sich somit dem Kerngeschäft der philologischen Analyse. Der Modus der Digitalität trage demnach nicht nur dazu bei, ‚dunkle Flecken‘ der Texterschließung zu erhellen, er führe auch zur Offenlegung des Analyseprozesses, der sehr viel stärker ins Bewusstsein rücke und in dem Präzision und kollaborative Verfahren einen hohen Stellenwert einnehmen würden.

Vor diesem Hintergrund ging es in der Diskussion um das Verständnis von Hermeneutik, unter der mehr zu fassen sei als das Verstehen beim digitalen Annotieren. Dazu gehörten etwa die systematische Einordnung in ein System mit weiteren Texten, die Neu-Perspektivierung und Verfremdungsprozesse. Es stelle sich daher die Frage, inwiefern die hermeneutische Begriffsvielfalt für eine digitale Hermeneutik reduziert werden müsse. Hierzu erläuterte die Autorin, dass der im Beitrag entworfene Zugang keine neue Hermeneutik anstrebe, sondern lediglich dazu dienen solle, Textanalyseprozesse genauer zu betrachten. Es gehe daher nicht um eine neue Systematik, sondern um die Möglichkeit zu einer kontrastiven Betrachtung. Dabei wollten sich die Digital Humanities keinesfalls als eine Substituierung verstanden wissen, hätten in einigen Bereichen vielmehr Angebote vorzuweisen.

Ein weiterer Kommentar zur Terminologie betraf die Unschärfe der Begriffe Close Reading und Hermeneutik. Auf beide werde zurückgegriffen, um einen Blick auf nicht-digitale Verfahren zu werfen, was dazu führe, die dazwischenliegende Kluft zu unterschätzen, da jeweils nicht eindeutig zu bestimmen sei, was darunter gefasst werde. Anknüpfend an eine in den vorausgehenden Diskussionen bereits kommunizierte Kritik am Begriff des Close Reading konkretisierte Gius ihre Lesart als ein stellenbezogenes Lesen und Kommunizieren und fügte an, dass sie nicht auf das Festhalten dieser Begriffe bestehe. Eine präzisere Terminologie stehe derzeit jedoch noch aus.

In Bezug auf die Hermeneutik schloss sich die Frage an, inwiefern ästhetische Erfahrungen, die hier traditionell stark einfließen, im Digitalen im Grunde gelöscht würden und eine ‚Anästhetisierung des Gegenstands‘ bewirkten. Die Autorin sah in digitalen Verfahren nicht unbedingt eine solche Anästhetisierung, sondern vielmehr eine Verlagerung des Ästhetischen auf andere Ebenen. In der Diskussion wurde zudem angemerkt, dass es – auch in anderen Disziplinen – seit jeher Spannungen zwischen ästhetischen und formalisierenden Verfahren gebe, und exemplarisch auf einen Aufsatz von Christoph März mit dem Titel Metrik, eine Wissenschaft zwischen Zählen und Schwärmen? (1999) verwiesen. Auch sei die Formalisierbarkeit ästhetischer Erfahrungen insofern vorstellbar, als beispielsweise Metaphern oder Metonymien annotierbar und somit in der Lage seien, ästhetische Erfahrungen anzuzeigen oder einzuleiten.

Neben den hermeneutisch-terminologischen Aspekten widmete sich die Diskussion ausführlich der Korpusbildung. Hier bestehe ein Problem des Zirkulären, da manuell aufbereitete Korpora bereits eines gewissen Vorverständnisses bedürften, dieses jedoch Einfluss nehme auf darauf basierende Ergebnisse. Das Problem bestehe zwar auch in anderen Disziplinen, linguistische Korpora könnten es jedoch bereits durch Quantität nivellieren. Entsprechende Ansätze sieht Gius auch für die Literaturwissenschaft, beispielsweise, wenn aus einer möglichst großen Textmenge eines für die Analyse relevanten Zeitraums automatisiert relevante Texte herausgesucht würden, anhand derer entsprechende Operationalisierungen vorgenommen werden könnten. Dass es immer auch ein Zirkel bleibe, der qualitative und quantitative Verfahren miteinander vereine, bedeute auch, dass Analyse ein Ausgangspunkt für Heuristik sein könne – was aber nicht problematisch sein müsse. Verkürzt und ein wenig vorsichtiger formulieren ließe sich dieser Sachverhalt mit einer Gleichsetzung von Analyse- und Modellierungsfragen.

Im Anschluss an die Frage zum Methodenmix wurde die im Beitrag vorgenommene scharfe Trennung von digitalen und nicht-digitalen Verfahren kritisch hinterfragt. Eine solche Unterscheidung entspreche nicht der Realität, da man Digitale Geisteswissenschaften prinzipiell auch analog betreiben könne. Folglich sei eine Unterscheidung in formalisierende und nicht-formalisierende Ansätze passender. Zunächst wurde hierzu angemerkt, dass auch Unsystematisches annotiert und formalisiert werden könne. Unter strategischen Gesichtspunkten müsse man sich die Frage nach der Verortung der Digital Humanities stellen. Man stehe sehr stark in etablierten Traditionen. Annotationsprojekte stellten dabei ein sehr gutes Gesprächsangebot dar, indem sie einen Ansatz böten, der eine Brückenfunktion einnehmen könne, insbesondere wenn sie ihre Aushandlungsprozesse sichtbar hinterlegten. Als zentraler Bestandteil rückte hier der Interpretationsbegriff in den Fokus. Während die Prozessreflexion und die Kategorialreflexion des Beitrags gelobt wurden, machte man darauf aufmerksam, dass eine Präzisierung des Interpretationsbegriffes dazu führen könne, die literaturwissenschaftliche Provenienz besser einzubeziehen. Es müsse klar werden, was Interpreten tun, wenn sie interpretieren. Die extreme Vielfalt und Heterogenität von Interpretationen müsse hierzu kategorial erfasst und mit den jeweiligen Zielen assoziiert werden. Eine Schwierigkeit bei dieser wissenschaftlichen Selbstreflexion bestehe jedoch in einer Leerstelle des Experiments, nämlich der, die das Vorgehen beschreibt, das angewandt wird, wenn keine Tools zur Bearbeitung derselben Fragestellung eingesetzt würden.

Abschließend wurde in diesem Zusammenhang diskutiert, inwiefern man sich in Fragen der disziplinären Selbstbestimmung und Kartographierung von anderen Fächern inspirieren lassen könne, in denen die Verankerung von Tools bereits weiter fortgeschritten sei. In den Sozialwissenschaften, beispielsweise, sei man in dem Anlegen von Interpretationsvorstufen viel weiter, weshalb sie sich als Impulsgeber für Prozessreflexionen eignen könnten. Einschränkend sei hier jedoch anzufügen, dass sich derartige Ansätze womöglich für das Identifizieren vergleichbarer Prozesse eigneten, für deren Reflexion jedoch untauglich seien, da in unterschiedlichen Disziplinen andere Prämissen vorzufinden seien.

Mit dem Beitrag von Rüdiger Nutt-Kofoth schloss sich der Kreis der Sektion, indem er genuin editionsphilologische Probleme tangierte. Er unternahm eine differenzierte und kritische Abwägung digitaler und analoger Editionen mittels systematischer Vergleiche inhaltlicher und funktionaler Kategorien. Aus den Beobachtungen ergab sich hier eine gewisse Relativierung des ‚Neuen‘, was die im Digitalen behauptete Qualitätsinnovation betrifft. Die Tendenz zum Aufbau von digitalen Wissensverbünden mit archivalischen Zügen habe zudem zur Folge, dass die Betitelung als historisch-kritische Ausgabe und überhaupt eine differenzierende Typologie im Digitalen nur noch selten auftrete – die Faust-Edition bilde hier eine Ausnahme.

Das Programm der digitalen historischen Edition reflektierend, unternahm die Diskussion den Versuch, ihre Grenzen auszuloten. Dabei stellte sich die Frage, ob es notwendig sei, die Volltexte aller Quellen beizufügen – wohlwissend, dass es sich hierbei um einen substanziellen Teil der abendländischen Literatur handeln könne. Bei der Alternative, der Ergänzung des Angebots über externe Verlinkungen, bestehe das Problem eines erhöhten Wartungsaufwandes. Während sich an dieser Zustandsbeschreibung der erhöhte Bedarf nach Standardisierungen zeige, müsse der Digitalen Edition im gegenwärtigen ‚Inkunabelzeitalter‘ womöglich eine gewisse Experimentierfreude zugestanden werden, um das skizzierte Spannungsfeld auszubalancieren.

Ähnliches gilt für die Bewertung des Phänomens ‚Medienwandel‘. Anknüpfend an die Überlegungen im Rahmen des Beitrags von Braun, Viehhauser und Zirker, wurde es unter revolutionären und evolutionären Gesichtspunkten diskutiert. Bei der ‚Revolution‘ handele es sich um einen Umbruch von Ordnungen, der auf den Transfer der Edition nicht zuzutreffen scheine. Ohne sich an dem Begriffspaar völlig abarbeiten zu wollen, wurde auf den von Elena Pierazzo geprägten Begriff der Radical Evolution verwiesen, der möglicherweise zutreffend sein könne. Allerdings müssten für eine Bewertung eine belastbare Menge von Durschnittsverwendungen von Editionen betrachtet werden. Bislang bestimmten einzelne größere Editionsprojekte die Diskussion, es gebe jedoch gar nicht so viele neugermanistische Digitale Editionen, die jetzt schon wissenschaftsgeschichtlich beschrieben werden könnten. Für das Identifizieren von Ausreißern und damit das Eintreten eines Bruchs sei zunächst eine solche repräsentative Menge erforderlich.

Anschließend wurde darauf hingewiesen, dass das Festhalten am Konzept der Edition auch in ihrem medialen Transfer ein wesentliches Merkmal bleiben müsse. Der Begriff des ‚Archivs‘, der den Medienwandel der Digitalen Edition begleite, verschleiere beispielsweise das identitätsstiftende Objekt der Edition, indem er sie auf etwas abstrakt Virtuelles beschränke. Eine wichtige Rolle komme hierbei dem Interface zu, das auf funktionaler Ebene seine Konzeptualität transportiere. Es wäre wünschenswert, so die Rückmeldung, wenn dieser Aspekt im Beitrag noch gestärkt werden könnte. Das Überführen der etablierten editorischen Kriterien in das digitale Paradigma biete großes Potenzial.

Einen qualitativen Unterschied im Vergleich zur traditionellen Printedition sah der Autor des Beitrags auch in den Möglichkeiten der Multimedialität. Mit dem Verweis auf deren bereits in Printeditionen erfolgte Einbindung – etwa durch die Beigabe von CD-ROMs – wurde der Status dieses Arguments hinterfragt. Die anschließende Diskussion machte deutlich, dass im Digitalen keine reine Medienkombinatorik gemeint sei, sondern ein Großzusammenhang hergestellt werde, der einfachere Zugänge für Medienwechsel biete und ‚offene Grenzen‘ fördere. So könnten beispielsweise Werke von AutorInnen, die in mehreren unterschiedlichen Medien gewirkt haben, miteinander verknüpft werden. In der Transmedialität bestehe ein wesentliches Spezifikum der Digitalen Edition. Auch hier zeige der Großzusammenhang, dass quantitative Argumente in qualitative umschlagen könnten, sobald sie durch entsprechende Konzepte in diesen eingebettet werden.

Vor dem Hintergrund einer derartigen Ausweitung des Angebots der Digitalen Edition widmete sich die Diskussion der Perspektive der RezipientInnen und den Konsequenzen, die dieses Forschungsdesign für deren Lektüreverhalten hat. Obwohl hier sicherlich erhebliche Veränderungen aufträten, die auch das Verhältnis zwischen NutzerInnen und HerausgeberInnen beträfen, könne hier von einem zunehmend wachsenden Medienvorwissen gerade jüngerer RezipientInnenen ausgegangen werden. Darüber hinaus werde nicht genug über die Oberflächen gesprochen, die Nutzenden den Zugriff auf die Edition erlauben. Ihre Gestaltung und intuitive Bedienbarkeit würden noch zu häufig nicht rechtzeitig in laufende Editionsprozesse eingebunden, was im Nachhinein zu einem erhöhten Aufwand führe. Insbesondere aufgrund der Komplexität der zur Verfügung gestellten Daten sei es auch Aufgabe der Oberfläche, mögliche Wege durch das Textuniversum aufzuzeigen und verschiedene Zugänge anzubieten. Es handele sich bei einer Oberfläche um ein ‚Entscheidungszugangsphänomen‘. Gleichzeitig liege die Neuartigkeit der Digitalen Edition jedoch auch in der Möglichkeit, die hinter den Editionen liegenden Daten als solche zu betrachten und zu entkontextualisieren – mit der Perspektive, sie auch wieder zurückspielen zu können. Bei Digitalen Editionen handele es sich folglich um Editions as Interfaces, deren Ausstattung mit einer API eine weitere Datafication und somit unterschiedliche Zugänge für heterogene Nutzergruppen erlaube. Es seien die sich hier eröffnenden Anschlusspotenziale, die Spezifika der Digitalen Edition ausmachen. Hier fehle es gegenwärtig noch an Beispielen aus realisierten Editionen, anhand derer die Brücke zwischen Edition und Anschlussoperation sichtbar gemacht werden könnte. Die Verlässlichkeit der Edition und die in ihr erbrachte textkritische Leistung müsse weiterhin als bewährter Standard erhalten bleiben und transparent gemacht werden. Folglich müssten editorische Grenzen gezogen und gleichzeitig Wege gefunden werden, um individuelle Anschlussoperationen zu ermöglichen.