Eine Schnittstelle ist einerseits ein technisches Protokoll zur Nachrichtenübermittlung, andererseits bezeichnet sie im übertragenen Sinne die Übergangsstelle zwischen verschiedenen in sich geschlossenen Systemen. Durch definierte Rahmenbedingungen bzw. Standards ermöglicht sie den Austausch von Daten, vermittelt aber auch ein Verständnis zwischen unabhängigen, miteinander kommunizierenden Systemen. Digitale Schnittstellen bestehen auf den Ebenen ‚von Maschine zu Maschine‘ und ‚von Mensch zu Maschine‘. Man kann sie allgemeiner aber auch als Metapher der Vermittlung verstehen. Eine standardisierte Schnittstelle ist somit nicht nur erforderlich, wenn man fremde Daten integrieren oder eigene Daten anderen zur Verfügung stellen möchte, ohne genau wissen zu müssen, wie das jeweils andere System im Inneren beschaffen ist. Der Begriff der ‚Schnittstelle‘ ist auch geeignet, Eigenschaften zu beschreiben, die im Allgemeinen miteinander kommunizierenden Systemen zukommen. Damit ist das Thema ‚Schnittstelle‘ auf verschiedenen Ebenen prädestiniert, die funktionalen und technisch-konzeptionellen Rahmenbedingungen der Digitalen Literaturwissenschaften näher zu beschreiben.

Die Sektion IV hatte zum Ziel, unter diesem Thema, das u. a. auch in der Medientheorie intensiver diskutiert wird, vor allem die Frage der Standardisierung, der Interaktion und die Beziehung der Digitalen Literaturwissenschaft zur Digitalen Sammlung, dem Archiv und der Bibliothek als den Reservoiren, die die Digitale Literaturwissenschaft mit Daten und Dokumenten versorgen, zu adressieren. Dies war der Einsicht geschuldet, dass Digitalität mit neuen Suchmöglichkeiten einhergeht, mit Prozessen der Aggregation, der Interaktion oder auch Vernetzung, die ihrerseits aber nur dann wirksam werden, wenn sie in die Modellierungs- und Präsentationsverfahren der eigenen Forschung einfließen. Die Forderung nach Schnittstellenkonformität hat somit auf den verschiedenen Ebenen Auswirkungen auf den Forschungs- und Publikationsprozess und sollte in ihrer Tragweite und Virulenz diskutiert werden.

Diese Idee ließ sich nur teilweise umsetzen, was vermutlich darauf zurückzuführen ist, dass das Thema ‚Schnittstelle‘ in der Literaturwissenschaft – oder konkreter – die Probleme der Standardisierung oder Interaktion in der Digitalen Literaturwissenschaft in der täglichen Forschungsarbeit noch nicht in dem Maße im Vordergrund stehen, wie dies zu erwarten wäre, und sich bisher allenfalls als Ärgernis der Daten- und Dokumentbeschaffung sowie -nutzung aufdrängen. Insofern ist es auch überraschend, dass die Digitale Literaturwissenschaft gegenüber den Infrastruktureinrichtungen, der Bibliothek und dem Archiv, nicht nachdrücklicher die zentrale Bereitstellung und Aggregation digitaler Daten und Dokumente für ihre Forschungen einfordert. Die frei verfügbaren Korpora sind, folgt man den üblichen Klagen, entweder von mäßiger Qualität oder angesichts der analog vorhandenen Texte vom Umfang her immer zu schmal. Selbst TextGrid, Gutenberg und das Deutsche Textarchiv, die bei den deutschen Korpora immer wieder genannt werden, entsprechen weder quantitativ noch in Teilen qualitativ wissenschaftlichen Anforderungen. Andererseits sorgt die Literaturwissenschaft aber nur in begrenztem Umfang für die offene Bereitstellung ihrer Daten, geschweige denn publiziert sie selbst regelhaft offen unter freien Lizenzen in standardisierten Formaten, obwohl sie – wie auch die Beiträge von Martus und Jannidis gezeigt haben – sich selbst das Leben leichter machen würde, wenn die Zugänglichkeit der Daten und Dokumente, z. B. zur Reproduzierbarkeit der Ergebnisse, nicht durch rechtliche oder technische Hürden erschwert würden. All dies mag den Ausschlag gegeben haben, warum einerseits vergleichsweise wenige Beiträge des Symposiums sich selbst hier verortet, andererseits viele das Thema implizit oder explizit, gelegentlich auch unter anderen Überschriften, aufgegriffen haben. So kam in den vorangegangenen Sektionen z. B. die Problematik der Korpusbildung, deren Klassifikation und flexible fragenabhängige Zusammenstellung, die Vereinheitlichung der Annotation oder die standardisierte Struktur für Zeitschriften zur Sprache. Auch die Frage der Langzeitarchivierung, also des Reservoirs der Literaturwissenschaft, kam wiederholt auf, etwa bei den verschwundenen Geniusdaten oder bei der Archivierung von Netzressourcen wie lebendigen Blogs, ebenso bei der Sorge um die langfristige Pflege von Oberflächen Digitaler Editionen. Standardisierung schließt Fragen der Lemmatisierung oder des POS Taggings bzw. der Tokenisierung Digitaler Editionen ein, wie im Beitrag von Brüning oder eben allgemein in der immer wieder sich aufdrängenden Frage nach brauchbaren Korpora für das Textmining deutlich wurde. Dies ist vorauszuschicken, um die möglicherweise nicht immer ganz passgenaue Einordnung der in dieser Sektion versammelten Beiträge zu erklären.

In praktischer Hinsicht bestehen für die Literaturwissenschaft vielfältige Schnittstellenanforderungen – je nachdem, wo Aggregation oder Vernetzung notwendig sind. Dazu kann ein einheitliches TEI-Format gehören (z. B. TEI simple) oder aber die einheitliche Ansetzung von Entitäten (Personennamen, Orte, Zeitbegriffe, Gegenstände). Schnittstellenanforderungen ergeben sich auch mit Blick auf den üblichen Kontext der Bereitstellung im Internet in der Beziehung der Dokumente zueinander (nach dem lateinischen Motto liber librum aperit), das auch in einigen Beiträgen zutage trat. Hier überraschte, dass die eigentlich naheliegenden Themen ‚Hypertextualität‘ und Semantic Web, die für viele Fragen der Digitalen Literaturwissenschaft Lösungen bereithalten, bislang immer noch eine untergeordnete Rolle spielen. Effiziente Schnittstellen bieten Kataloge mit Metadaten, die nicht nur die Datenübernahme in eigene Publikationen erlauben und bibliographische Daten zur Verfügung stellen, sondern darüber hinaus auch eigene bibliometrische Auswertungen ermöglichen. Archiv und Bibliothek sind Repositorien für Daten und Texte und stellen diese idealerweise der Digitalen Literaturwissenschaft in standardisierter und maschinenlesbarer Form zur Verfügung: Retrospektiv als Digitale Edition oder digitalisierter und re-kodierter Text der schriftlichen Überlieferung, prospektiv als born-digital oder elektronische Publikation. Sie bilden Infrastrukturen für geistes- und kulturwissenschaftliche Forschungsdaten, die das schriftliche kulturelle Erbe in eine maschinenlesbare, durchsuchbare und algorithmisch prozessierbare Form überführen, nachhaltig sichern und der Forschung zur Verfügung stellen, die idealerweise ihrerseits Daten und Texte digital aufbereitet und annotiert, um sie dann in eine archivische oder bibliothekarische Infrastruktur zurückzuspielen. Wesentliche Bedingungen dieses auch als Research Data Lifecycle beschriebenen Prozesses sind neben technischen und informationswissenschaftlichen Anforderungen der digitalen Infrastruktur Nachhaltigkeitskonzepte, Standardbildung, qualitativ hochwertige, zuverlässige Daten und Texte sowie deren zentraler Nachweis über Metadaten, freie Zugänglichkeit idealerweise über Open-Access-Lizenzen und eine im DH-Konzept verankerte kooperative und inter- wo nicht transdiziplinäre Wissenschaftskultur. In den Beiträgen zur Sektion, die der Frage nach der Schnittstelle als Relais zwischen Bibliothek und Forschung auf sehr unterschiedliche Weise nachgingen, spiegelten sich viele dieser intendierten Themen und Facetten.

Der Beitrag von Karina van Dalen-Oskam widmete sich als Teilergebnis einer größeren Studie zur Leseforschung – The Riddle of Literary Quality (2012–2019) – der Schnittstelle von Übersetzungserfahrungen im transnationalen Diskurs. Van Dalen-Oskam ging anhand eines Korpus zeitgenössischer, populärer Literatur der Frage nach der Wahrnehmung von Fiktionalität und Übersetzung nach. Eine zentrale Ausgangsüberlegung war, inwiefern Lesern solcher Texte bewusst sei, dass sie eine Übersetzung lesen. Dem lag die produktive Unterstellung zugrunde, dass sich eine Differenz zwischen Ausgangssprache und Übersetzung als Leseerlebnis herstellen lasse. Von der Zielsprache abweichende Sprachmuster oder eine spezifische Anlage der Geschichte könnten demnach Hinweise sein anzunehmen, dass eine Übersetzung vorliege. Dass Textphänomene der Übersetzung als Qualitätskriterien wahrgenommen werden, erschien damit als notwendige Voraussetzung der Studie. Ob mittels der durchgeführten Umfrage ein National Hiatus zwischen zwei Sprachfamilien nachweisbar sei, war eine der Fragen, die sich in der Berichterstattung stellten; eine weitere daran anknüpfende Überlegung bezog sich darauf, welche Vergleichserhebungen nötig seien, um valide Daten zu erhalten. In ihrer Replik stellte van Dalen-Oskam heraus, dass ihr bei der Wahl der Herangehensweise an der Kombination von soziologischer Feldstudie und literarischer Analyse gelegen sei. In der Diskussion des Beitrags wurde einerseits deutlich, dass das Thema Anschlussfähigkeit zu digitalen Methoden besitzt, die jedoch noch stärker gesucht werden müssten. Andererseits wurden auch eine Reihe nicht-digital basierter Aspekte im Hinblick auf das Thema diskutiert. So wurde über Lesekompetenz und die sie beeinflussenden Faktoren gesprochen, beispielsweise in welcher Korrelation Bildungsgrad und Leseverhalten zueinander stehen. Es wurde darauf hingewiesen, dass der Grad an Lesekompetenz wichtig für die Einschätzung von Ergebnissen sei. Zudem wurde nach den verschiedenen sozialen Milieus gefragt, aus denen niederländische Leser stammen und ob sich demzufolge Milieuunterschiede in der Bewertung der Übersetzungen abzeichnen. Kritisch wurde zudem eingewandt, dass zu prüfen sei, ob der vorgeschlagene komparatistische Ansatz ausreiche, das Phänomen adäquat zu erfassen. Da die Umfrage insgesamt ergeben habe, dass 11 % der Befragten nicht lesen, kamen auch Zweifel hinsichtlich der Konsistenz der Studie auf. Es wurden daher verschiedene Vorschläge unterbreitet, die Ergebnisse der Studie durch Interviews oder größere Korpora valider zu gestalten.

Das Problem, was eine gute literarische Übersetzung auszeichne und ob und wie Leser diese wahrnehmen, warf für van Dalen-Oskam größere Fragekomplexe auf: So gelte es herauszufinden, welche Faktoren die Literarizität eines Textes bedingen und – damit verbunden –, ob Literarizität digital messbar, erklärbar oder sogar programmierbar sei. Daran schließen sich Überlegungen nach dem literarischen Wert von Texten an. Kann dieser über normative Verfahren festgelegt und mittels digitaler Methoden erfasst werden? Die Bestimmbarkeit von Literarizität, so ein formulierter Einwand, könne sich nicht nur an vorgegebenen Kategorien orientieren. Literaturwissenschaft frage nicht nur nach den Konventionen. Werde ein hoher literarischer Wert impliziert, ginge es vielmehr auch um die produktive Lücke, die ein Text füllt, um literarisch zu wirken.

Die Diskussion zeigte auf, dass sich mit der Herangehensweise der Studie viele Fragen verbinden, deren komplexes Zusammenspiel möglicherweise noch nicht hinreichend definiert worden sei. So ließ sich nur schwer bestimmen, zu welchem methodischen Feld diese Form der Digital Literacy Studies zu zählen sei. Bekräftigt wurde aber, dass literatursoziologische Aspekte, wie sie die Leseforschung anbietet, in den Kontext der Digitalen Literaturwissenschaft eingebunden werden sollten und eine wertvolle Ergänzung zu anderen methodischen Herangehensweisen darzustellen in der Lage seien. Kritisch eingewandt wurde dennoch, dass zwischen den weit gefassten methodischen Ansätzen der Studie noch argumentative Lücken beständen, die es zu überwinden gelte. So wurde angeregt, sich dem Diskursfeld mittels stilometrischer Methoden zu nähern. Satzlänge oder Wortreichtum seien mögliche Parameter, die an die Untersuchungsergebnisse angelegt werden könnten, um qualitative Aussagen darüber zu erhalten, warum Probanden einen Text als literarisch bestimmten.

Van Dalen-Oskam wollte die Fragestellungen des Projekts in einen weiten Kontext eingespannt sehen: Leseforschung und damit einhergehend literatursoziologische Aspekte seien interessante, aus ihrer Perspektive relevante Faktoren für mögliche Lösungsansätze. Um aber herauszufinden, was Literatur ausmache, sei es wichtig, dass kollaborativ verschiedenste methodische Ansätze miteinander verknüpft würden. So könnten stilometrische Verfahren zwar Unterschiede aufdecken, dies sei aber noch nicht die Erklärung für alles. Sie machte sich dafür stark, die Ergebnisse nicht durch normative Setzungen zu verengen, und plädierte für eine größtmögliche Offenheit in der Anlage der Erhebung. Vor einer Befragung ohne determinierende Parameter wurde jedoch gewarnt. Auch seien die Kontextualisierungen des Lesens möglicherweise zu indifferent. Es mache einen erheblichen Unterschied, ob man danach frage, was gelesen werden soll, was Lesen überhaupt als Leseakt bedeute und was konkret gelesen worden sei. Hinsichtlich der Erschließung wurde als Desiderat festgehalten, dass Titel von Übersetzungen nur schwer in bibliothekarischen Systemen auffindbar seien. Ob sich Literarizität durch die aufgezeigten Verfahren sinnfällig extrapolieren lasse, blieb ungeklärter Restbestand der Diskussion.

Die Erfassung von Brief-Korrespondenzen im Projekt correspSearch bildete den Ausgangspunkt von Stefan Dumonts Vorlage. Digitale Projekte wie diese böten neben der stetigen Inventarisierung vorhandener Ressourcen, die deren Sichtbarkeit und Auffindbarkeit fördere, neue Möglichkeiten, Korrespondenzen in Relationen, Absender-Adressaten-Netzwerken oder Subkollektionen zugänglich zu machen. Dabei zeichneten sich zwei Wege der Datenpräsentation ab: auf der einen Seite zentrale Datenbanken sowie deren Bedeutung für Standards und Normierungen, auf der anderen Seiten dezentrale Initiativen und offene Plattformen, die ebenfalls dazu beitrügen, digital aufbereitete Bestände zusammenzuführen und Zuarbeiten zur weiteren digitalen Erschließung zu leisten. Um Briefmetadaten aus Briefverzeichnissen zu aggregieren und in einem Austauschformat verfügbar zu machen, würden Minimal-Standards benötigt, die im Fall von correspSearch auf einem reduzierten TEI basieren. Die Zusammenführung von Daten in einem Webservice, der technische Schnittstellen anbietet, führe in der Nachnutzung dazu, dass das Lesen eines Briefwechsels in unterschiedlichen Editionen möglich wird. Eine solche digitale Informationsinfrastruktur biete eine Mikro-Meta-Infrastruktur, die aber auch Grenzen hat, da sie nur edierte Briefe und nicht die archivalische Überlieferung einbeziehe. Daran anschließend wurde die Frage aufgeworfen, wie sich der Widerspruch zwischen der Referenz auf die konkrete Brief-Edition bei gleichzeitig fehlendem Verweis auf das Werk als Abstraktum lösen ließe. Unklar bleibe, was das Projekt formal eigentlich sei: Handelt es sich um einen Webservice, oder ist diese Art der Präsentation von Daten bereits als Digitale Edition einzustufen? In seiner Replik ging Stefan Dumont auf die Schnittstellenprobleme hinsichtlich der GND-Datensätze ein. Es fehle an Workflows und Ressourcen in Bibliotheken, um Fehler innerhalb der Normsätze dezentral zu korrigieren oder Ergänzungen einzupflegen. Dumont forderte die Entwicklung von entsprechenden Verfahren, um die wissenschaftliche Community besser und effizienter in diese Workflows einzubinden. Kollaboration könne die Qualität der Daten verbessern helfen, lautete der Tenor seiner Erwiderung.

In der Diskussion wurde mehrfach das Anliegen des Projekts und das Angebot für die Forschung gelobt. Einigkeit herrschte darüber, dass Erschließungsarbeiten von Korrespondenzen eine wichtige Grundlage weiterer literaturwissenschaftlicher Arbeiten darstellten. Die durch das Projekt auf digitaler Basis beförderte Zusammenführung von Material wurde daher von allen Gesprächsteilnehmenden begrüßt. Gleichzeitig wurden aber auch die Problemhorizonte offengelegt, die sich mit der Zusammenführung, der Erschließung und der Standardisierung der Metadaten ergeben. Der Gründung globaler Archive seien Grenzen der Machbarkeit gesetzt, denn Entscheidungen über die Auswahl und den Zuschnitt von Daten für die jeweilige digitale Instanz, die eine solche Zusammenführung präsentiere – sei es Service oder Edition –, seien die bestimmenden Faktoren eines jeden Projekts, die in Einklang mit darüber liegenden Instanzen stehen und entsprechende Schnittstellen bereithalten müssten. Konkret sei zu dokumentieren, was die Genese des Projekts bedingt, welche Entscheidungen hinsichtlich der Festlegung von Metadatenschemata oder anderer Kriterien getroffen wurden und welche Korpora unter welchen Voraussetzungen in das jeweilige Projekt integriert wurden. Die Erschließung müsse demzufolge mit ihrer (technischen) Anschlussfähigkeit einhergehen. Dumont stellte dar, dass Kalliope beispielsweise restriktiv hinsichtlich der Aufnahme von Datenbeständen sei, da hier keine Dokumente aus Privatbesitz zugelassen würden. Auch Dokumente, die teilweise nur im Druck überliefert seien, fänden keinen Eingang, da Kalliope nur Originale aus Nachlässen verzeichne. Für die wissenschaftliche Befragung der Überlieferungskette einer Korrespondenz könnten aber gerade auch solche Dokumente von Relevanz sein. Solche Erschließungslücken bzw. die spezifischen Bedingungen der Auswahl und Präsentation von Daten seien vielleicht auch im digitalen Raum nicht zu vermeiden, sollten aber in der jeweiligen Edition von Daten- oder Metadatenmaterial mittels textkritischer Verfahren dargelegt werden.

Weiter wurde angesprochen, dass der Datenbereitstellung von unterschiedlichen Projektträgern eine grundsätzliche Problematik inhärent sei, die besonders an der je verschiedenen Art der Zugänglichkeit und dem Recht auf wissenschaftliche Weiterverwertung deutlich ablesbar sei. Bedauert wurde, dass Rechtefragen der Präsentation der Volltexte entgegenständen. Dem könne nur durch langfristige Entwicklungen im Bereich von Open Access-Strategien durch freiere Lizenzen entgegengewirkt werden, da ansonsten die benötigte kritische Masse an Material nicht erreicht werden könne. Wenn nur Partikel Eingang in das Projekt fänden, stelle sich die Frage nach der wissenschaftlichen und empirisch-maschinellen Verwertbarkeit, da Ungleichgewichte drohten, wenn die Erschließung zu unvollständig sei und daraus beispielsweise ein verzerrtes Bild eines Korrespondenzen-Netzwerks erwachse. Für die Arbeitspraxis im Aufbau solcher digitalen Instanzen eröffne sich auch das Problem, inwieweit das Projekt selbst die Daten einsammeln und auch pflegen könne. Es wurde allgemein begrüßt, dass künftig auch Daten aus gedruckten Editionen erhoben werden sollen. Entsprechende Verfahren seien bereits angestoßen worden, befänden sich aber noch in der Entwicklung bzw. im Aufbau. Die Anbindung dieser Aufgabe an Akademien erscheine sinnvoll, um große Datenmengen einzupflegen. Gleichzeitig sei zu klären, welche Rolle (Forschungs-)Bibliotheken hinsichtlich solcher Zuschnitte künftig spielen können.

Dumont betonte, dass das Format zur Einspeisung neuer Daten in correspSearch nicht automatisiert werden solle; aus datenkuratorischer Sicht sei eine Bewertung und Prüfung der eingehenden Bestände weiterhin notwendig. Einzuberechnen sei bei jeder neuen Ressource der oftmals hohe Zeitaufwand zur Identifikation von Personen und Orten. Angeregt durch Überlegungen zur Abstufungsmodellierung für die aufzunehmenden Metadaten, wodurch Fassung, Werk oder gedruckte Ausgabe identifizierbar wären, wurden Vorteile und Umsetzbarkeit solcher Verfahren diskutiert. So wurde vorgeschlagen, die für die Druckwelt entwickelten RDA-Standards für die Datenmodellierungen anzuwenden. Zugleich wurde die Komplexität betont, die sich mit der Datenerhebung verbinde und mit der man konfrontiert werde, wenn beispielsweise einem Brief zwei Absender zugewiesen werden müssten. Schlussfolgernd aus dieser Debatte herrschte Einigkeit darüber, dass diese Aufgabe einen größeren Projektantrag zur Erschließung der Daten nahelege. Die Extrahierung von Metadaten aus gedruckten Quellen sah Dumont als Herausforderung, die mittels OCR geleistet werden müsse. Es wurde auch eingeworfen, dass Datenbanken, z. B. eXist, helfen könnten, Berufsstände aus den XML-Dateien auszulesen. Eine Wortmeldung verwies auf die Chancen, die eine Internationalisierung des Projekts bieten könnte, beispielsweise durch die Integration der Datenbestände von Early Modern Letters Online (EMLO). Auch ließen sich möglicherweise weitere Briefdatenbanken mittels entsprechender technischer Schnittstellen integrieren, genannt wurden in der Diskussion der Melanchthon-Briefwechsel und die Korrespondenzen der Weimarer Klassik. Subdatenbanken würden so in die nächsthöhere Instanz ‚geschaufelt‘.

Die Vorlage von Thomas Ernst griff Aspekte der ersten Sektion der Tagung auf. Ihm war an der Untersuchung von einem Text-Werk-Verhältnis gelegen, letztlich an der Frage nach einem möglichen neuen Werkbegriff, den die digitale Literatur durch ihre Prozessualität gleichsam herausfordere. Als soziales Medium verstanden, setze der digitale Raum Autor-Leser-Verhältnisse in ein neues Bezugssystem zueinander, dem es Kontur zu verleihen gelte. Der Werkbegriff sei laut der zentralen These von Ernst daher einer Revision zu unterziehen – ein Punkt, der von der folgenden Diskussion lebhaft aufgegriffen wurde. Unter Einbezug medientheoretischer und diskursanalytischer Überlegungen ging Ernst von zwei ‚Zuständen‘ aus: Er konstatierte einerseits einen statischen Werkbegriff, der im Sinne des Produkts eines Urhebers als Endpunkt des künstlerischen Schaffensprozesses angesehen werden könne, dem er andererseits einen dynamischen Werkbegriff gegenüberstellte. Die Öffnung des Werkprozesses werde in der Literaturwissenschaft seiner Ansicht nach innersystemisch gesehen, durch Paratexte und Intertexte, die den Text als dynamisches Konstrukt kennzeichneten. Dieses von der Literaturwissenschaft diskutierte Modell finde er in Social Reading, Litblogs und Fan-Fiction widergespiegelt und dort noch enger gefasst: Durch Angebote wie das Kommentieren rückten Lese- und Schreibakt im digitalen Raum näher zusammen. Zu fragen sei demnach nach einer Veränderung von Autorschaftsfunktionen und -modellen, die digitale Textsorten wie Blogpostings oder Tweets betreffen sowie die damit einhergehende Rolle von Interaktivität im Feld literarischer Kommunikation. Zur Disposition stehe demzufolge auch, ob die Relationen von Text und Rahmen im digitalen Raum noch verfügbar und stabilisierbar seien und welche Parameter diese Relationen bestimmen. Dies schloss die Frage ein, ob der Werkbegriff hinsichtlich der untersuchten Texte überhaupt aufrechterhalten oder ganz fallengelassen werden sollte. In seiner Replik machte Thomas Ernst noch einmal deutlich, dass ihm an Grundfragen der Literaturwissenschaft gelegen sei, die in letzter Konsequenz auf die Gründung einer ‚Netzliteraturwissenschaft‘ hinauslaufen könnten. Bezugnehmend auf konkrete Fälle stellte er fest, dass Leser und Leserinnen in sozialen Medien durch Kommentare als Produzenten und damit gleichsam Autoren in Erscheinung treten würden und durch das Kommentieren angestoßen so gesehen eine Leser-Leser-Produktivität zu verzeichnen sei und sich somit eine intensivierte literarische Kommunikation in diesen Medienformaten abzeichne. Die Literaturwissenschaft habe für die kollaborativen Schreibnetzwerke allerdings noch keine angemessenen Beschreibungsmodi entwickelt. Neben Mode-Blog, Posting oder Kommentar sei Code Poetry als Zusammenspiel von Maschine und Leser ein weiteres Beispiel, für das sich die Frage nach der Beschreibung der Urheberschaft von Maschineninterventionen stelle. Sind Mitschreibende in der Wikipedia Modifikatoren? Oder können Beiträge auf der Plattform Genius – in Rekurs auf den Beitrag von Alexander Nebrig – als Gamifikationen gelten? Wie lässt sich die Einbindung unterschiedlicher Medienformate in Digitaldokumenten wie Twitter-Nachrichten fassen? Thomas Ernst sah in der Interaktivität und Prozesshaftigkeit, die diese heterogenen Phänomene anbieten, eine Auflösung des Werkbegriffs begründet und fragte danach, wie dies in den verschiedenen Bereichen diskutiert werde. Er sprach dabei unterschiedliche Problem- und Gemengelagen an, deren Begrifflichkeiten und Grenzziehungen im digitalen Raum seiner Ansicht nach zur Disposition gestellt würden, und forderte gezielt die Diskussion über eine Standortbestimmung heraus. Wie lassen sich Digitale Edition und digitale Version beispielsweise terminologisch und methodologisch präzise voneinander trennen? Thomas Ernst war an einer Debatte um den Werkbegriff interessiert, den er im Bereich der vernetzten digitalen Literatur als in Auflösung begriffen sah.

Eine Wortmeldung hob das Engagement hervor, sich aus literaturwissenschaftlicher Sicht mit der terminologischen Terraingewinnung zu befassen. Jedoch wurde die Ansicht vertreten, dass als Ausgangspunkt Phänomene und Bedingungen von Textproduktion besser geeignet seien, als die Theoretisierung beim Werkbegriff anzusetzen. Insofern wurde für „mehr Genette als Barthes“ plädiert. Tenor der gesamten Diskussion war jedoch auch, dass der digitale Medienwandel auf die Begriffsfindung zurückfalle und sich hier ein spannendes, theoretisch-methodisches Arbeitsfeld für die Literaturwissenschaft eröffne.

In der Diskussion um den von Ernst kritisch gesehenen Werkbegriff wurden sehr verschiedene Positionen markiert. So wurde u. a. die Historizität des Werkbegriffs thematisiert, wobei sich folgende Punkte als zentral herauskristallisierten: Zum einen wurde gefragt, ob die herkömmlichen Begriffe terminologisch hinreichen würden, um digitale Textphänomene adäquat zu benennen; zum anderen, ob die theoretisch orientierte Hinterfragung des Werkbegriffs an dieser Stelle produktiv gemacht werden könne. Es wurden neue Begriffe eingefordert, die ‚Autorschaft‘ ersetzen könnten, man sah sich aber zugleich mit dem Dilemma von Überlappungen und Überschneidungen konfrontiert, die mit neuen und alten Begriffssetzungen einhergehen. Ein Wortbeitrag brachte den Aspekt der ‚Werkgenese‘ ins Spiel, da dieser im Zuschnitt besser zu den Phänomenen von Textproduktionen und -kommunikationen im sozialen digitalen Netz passe und stärker auf die ökonomischen Bereiche ziele, die die Dinge werkförmig und zugleich marktförmig machten. Im weiteren Schlagabtausch wurden unterschiedliche Positionen deutlich: So widersprach Ernst den Einwürfen, die den Werkbegriff für nicht geeignet hielten, die Debatte um die genannten digitalen Phänomene zu befördern, auch mit Rekurs auf entsprechende rechtswissenschaftliche Debatten. Zuspruch erhielt Ernst insofern, als auch – so eine Stimme – eine Wiederkehr des Werkbegriffs in aktuellen DH-Diskursen konstatiert wurde. Ein anderer Kommentar bestritt jedoch die Bedeutung des Begriffs für das Digitale. Ein längerer Diskussionsbeitrag führte aus, dass der Werkbegriff nicht inkonsistent werden dürfe, und insistierte auf verschiedene Kategorisierungsoptionen, wonach zwischen ‚Text‘ als syntaktischer, ‚Werk‘ als semantischer und ‚Ausgabe‘ als materieller Kategorie zu unterscheiden sei. Eine solche Systematisierung sei für diese Debatte wichtig. Gleichzeitig erfahre der Werkbegriff Wucherungen und Anlagerungen und damit auch eine neue Aufmerksamkeit. In der Verkopplung von Akteuren innerhalb des literarischen Kommunikationssystems liege demzufolge vielleicht eine neue Attraktivität begründet, die sich mit dem Werkbegriff verbinde. Zugleich wurde aber auch vor der Wirkmächtigkeit des Begriffs, z. B. im juristischen Diskurs, gewarnt. Barthes’ kritischer Werkbegriff reiche hier möglicherweise nicht hin, die neuen Entwicklungen zu beschreiben. In diesem Sinne wurde vorgeschlagen, die inhärente Dynamik der sozialen Medien als Autor-Leser-Kommunikation zu verstehen, für die weniger das Werk zentral in Anspruch zu nehmen sei als vielmehr die Werkhaftigkeit im Sinne eines Umgangs mit den Dingen.

Dass die Auseinandersetzung mit dem Textumfang einen Forschungsgegenstand und zugleich ein Desiderat darstellt, bildete den Ausgangspunkt der Diskussion um die Vorlage von Frank Fischer und Robert Jäschke. Der Beitrag fragte danach, inwiefern digitale Methoden helfen könnten, den theoretischen Überlegungen empirisch belastbares Material zur Seite zu stellen, um Forschungsfragen in dieser Hinsicht neue Kontur zu verleihen. Dabei stellten sich schnell grundsätzliche, epistemologische Fragen nach der Natur des Textumfangs überhaupt, deren relationale Maßeinheit ‚Seitenanzahl‘ in der quantifizierenden Vergleichbarkeit nur ein Faktor sei. Schon die Korpuswahl, die sich nicht auf Volltexte sondern auf die Metadaten der DNB stützt, bringe hinsichtlich der Operationalisierbarkeit dieser Forschungsfrage größere Schwierigkeiten mit sich. Verschiedene Ausgabenformate von Erstausgabe zu Taschenbuchausgabe würden hier ebenso eine Rolle spielen – wie in der Diskussion festgestellt wurde, enthalten Taschenbuchausgaben eine oft weitaus höhere Wortmenge pro Seite – wie die Beobachtung von Störfaktoren (z. B. Werbeseiten), die bei der Erfassung des Seitenumfangs Berücksichtigung finden müssten. Die Provokation, die dem Thema innewohnt, lag schon in den Ausgangsüberlegungen begründet, welcher Erkenntniswert für die Literaturwissenschaft sich mit der Frage nach dem Umfang verbinde und ob die Seitenanzahl das adäquate Maß zur Beurteilung sei. Eine weitere produktive Unterstellung war die Frage, ob es sinnvoll sei, Bücher mit mehr als 1000 Seiten zu veröffentlichen – durchaus auch durch einen entsprechenden Eingriff in den Satzspiegel –, weil diese dann statistisch gesehen kanonfähiger sein könnten.

In der Diskussion wurde hervorgehoben, dass sich die kategoriale Verengung auf den quantitativen Umfang von qualitativen Textmerkmalen ebenso wie von Fragen der Leseerfahrung oder Lesedauer entkopple. Es wurde die Frage aufgeworfen, warum als Grundlage nicht die Wortzählung gewählt worden sei, da die in der Vorlage erhobenen Metadaten zu viele Fehler aufwiesen. Als Grundlage könnten dann auch E-Books gewählt werden. Neben solchen Einwänden wurde das Projekt von verschiedenen anderen Seiten als ein gelungener, impulsgebender Beitrag angesehen, sich in literaturwissenschaftlicher Hinsicht mit dem Text und seinem Umfang als Forschungsfrage auseinanderzusetzen. Umfang als Textphänomen hinge mit diversen Faktoren und Phänomenen der Textproduktion und -verwertung zusammen, womit sich ästhetische, ökonomische und pragmatische Ansätze verbinden ließen, die nicht ohne Weiteres auseinanderzudividieren seien, im Gesamt aber zur Bewertung der Funktion von Büchern beitrügen. Bücher als Medium seien daher produktive Werkzeuge und ‚Quasi-Trittbretter‘ von Texten. Ein Text wie Jan Brandts Gegen die Welt (2011) zeige paradigmatisch auf, wie Buchdicke und Literaturkritik Hand in Hand gingen. Es wurde jedoch zu einer Präzisierung in der Nomenklatur geraten und vorgeschlagen, eine Unterscheidung zwischen Textlänge, basierend auf der vorhandenen Anzahl an Zeichen, und Ausgabenlänge, basierend auf der Anzahl der Seiten, vorzunehmen.

Frank Fischer führte aus, dass Extremtexte von über 1000 Seiten Phänomene wie Textverwitterungen bereithielten, die sich einer empirischen Zählung widersetzen. Umfang sei in diesem Fall auch eine poetologische Herausforderung an die Quantifizierbarkeit. In der Diskussion stellte sich auch die Frage, ob das vorhandene bzw. genutzte Datenmaterial als Informationsgeber ausreichend sei, um belastbare Ergebnisse zu erzielen. Es wurde angeregt, mithilfe einer anzulegenden Datenbank, mittels Teststatistiken oder Kollationen valide Daten zu erheben. Dem wurde entgegengehalten, dass die Operationalisierung zu komplex sei, um dies vorzunehmen. Versuchsberechnungen seien aber möglich und würden bei entsprechend vorliegenden Lizenzen auch erweitert.

In der weiteren Diskussion wurden die Dimensionen der Fragestellung für die Literaturwissenschaft generell, aber auch für mögliche digitale Herangehensweisen hervorgehoben. So verwies man auf die Rolle der Leserperspektive und die Option, Aufmerksamkeitsspannen als Quantifizierungsmöglichkeit in die Untersuchung einzubinden. Daran knüpften sich Überlegungen, die sich mit der Antizipation von Texten überhaupt beschäftigten, wie beispielsweise das selektive Lesen und die Frage, inwiefern sich dies im Hinblick auf digital rezipierte Texte verändere. Wenn beispielsweise E-Book-Reader anzeigten, wieviel Content noch zu lesen ist, so sei dies ein Übertrag der Seitenzählung in ein neues und durchaus präsentes Maß, das Orientierung beim Lesen biete und den Blick auch auf Mengenwahrnehmung lenken könne. Fragen der unterschiedlichen visuellen Darstellung solcher Mengenangaben könnten daher auch in den Fokus der wissenschaftlichen Bewertung geraten. Die Diskussion legte weitere Desiderate offen, denen es sich im Hinblick auf das Phänomen des Umfangs nachzugehen lohnen könnte. Antworten seien beispielsweise auf die Frage zu suchen, welche Verlage die „dicksten Kinder“ produzierten und inwiefern Autor- und Verlagsreputationen hier als Steuermechanismen eingeplant werden müssten. Auf literaturhistorischer Ebene sprechen Text- oder Buchexperimente wie die der Gruppe Oulipo oder Lawrence Sternes Tristram Shandy dafür, dass das Verhältnis von Buch und Länge auch in der Poetik der Texte eine Rolle spiele und immer schon gespielt habe.

Im Part-of-Speech Tagging (POS) sei Länge in gewisser Weise eine Störvariable. So wurde auf Matthew L. Jockers verwiesen, wonach Länge zum Problem der Digitalen Literaturwissenschaft werden könne. Mit der Rückfrage, wie viel Länge Literatur brauche, wurde implizit auch auf die Frage nach der Relevanz von digitalen Verfahren wie beispielsweise dem Topic Modeling verwiesen.

Allen Riddell stellte in seiner Vorlage literaturhistorische Beobachtungen und informatisch komplexe Berechnungen zum Verhältnis von Buchproduktion und der Verbreitung über einen großen Zeitraum vor. Literaturhistorisch zeige die Studie ein Netzwerk von Kooperationen und belege vor allem die Anschlussfähigkeit von Literaturgeschichte an informatische Verfahren. Riddell fragte danach, was Gründe für Konjunkturen von Büchern seien. Durch die digitale Bestandsaufnahme werde eine Berechnung möglich und Phänomene der Buch- und Publikationsgeschichte könnten überhaupt erst sichtbar gemacht werden.

In der Diskussion wurde darauf hingewiesen, dass der sprunghafte Anstieg im Vertrieb in der Mitte des 19. Jahrhunderts in Verbindung mit anderen Kontexten, hier der industriellen Entwicklung, zusammenhängen könne. Die Gründung von Buchläden in Bahnhöfen im Zuge des Ausbaus der Eisenbahn könne so vielleicht ein historisches Argument liefern, den enormen Anstieg des Buchvertriebs zu erklären. Riddell wandte jedoch ein, dass die Berücksichtigung der ‚Railway Editions’ den berechneten Effekt nicht hinreichend erklären könne. Die ökonomischen Bedingungen, die den weit abgesteckten Zeitraum bestimmen, seien als nicht stabil eingestuft worden. Interessant erschien es dennoch, der Frage nachzugehen, inwiefern Bücher im „goldenen Zeitalter der Buchproduktion“ verkauft worden seien und woher man Daten über Verkauf von Büchern im 19. Jahrhundert erhalten oder wie man diese rekonstruieren könne. In der Diskussion kam man schnell zu dem Schluss, dass Verfahren der Digital Humanities sinnfällig zeigten, wie Dinge für neue Wissenschaftsdisziplinen erschlossen werden könnten. Durch die Datenerhebungen würden Verbindungen von Geschichtswissenschaft und Literary Studies offengelegt, die es ermöglichten, transdisziplinär zu arbeiten.

Ein Diskussionsbeitrag betonte die Rolle von bibliographischen Ressourcen als Grundlage für die Kalkulation von verlorenen Büchern. Katalogsysteme seien in dieser Hinsicht Stabilisatoren für die Überlieferungsgeschichte. Das Buch selbst könne verlorengehen, dies müsse aber nicht auch für den Katalog zutreffen. Er verzeichne als Seismograph von Exemplargeschichte auch die Verluste.

Abschließend wurde neben der grundsätzlichen Befürwortung einer Integration von Daten in andere Disziplinen ein Einwand vorgebracht, der mit den von Riddell gelieferten Zahlen und Berechnungen einherging und möglicherweise auch für andere Bereiche der Digitalen Literaturwissenschaft symptomatisch sei: „Können wir Berechnungen trauen, deren Operationen wir nicht mehr in Gänze verstehen oder nachvollziehen können?“ Kritisch eingeschätzt wurde demnach, welche Fragen sich also mit den gelieferten Daten und Informationen verbinden, und ob dies die Fragen seien, die es zu stellen gelte? Es wurde festgestellt, dass die Ergebnisse in dem von Riddell vorgestellten Bereich in eine Richtung zielten, die man als Sociology of the Book umschreiben könnte. Die Antwort auf die Frage, wie viele Exemplare eines Buches kursierten und wie es zirkulierte, müsse jedoch wieder stärker an den Text selbst rückgekoppelt werden. Auch Riddell räumte ein, dass geklärt werden müsse, welche Romane bzw. Bücher publiziert worden sind, um den Zahlen Kontur zu verleihen und dies in Korrelation mit der Anforderung zu bringen, welche Bedeutung ein Buch in einer spezifischen historischen Periode gehabt habe.

Der Schlussbeitrag von Thomas Stäcker regte zu einer grundsätzlicheren Diskussion über die Schnittstelle von Literaturwissenschaft und Bibliothek im digitalen Zeitalter an. Es wurde konstatiert, dass es sich hierbei um eine Konstellation handele, die durch den digitalen Wandel einem tiefgreifenden Transformationsprozess unterliege. Rollen müssten neu verteilt, möglicherweise überhaupt neu definiert werden. Die Doppelnatur der Bibliothek bedinge, dass ihr durch die zunehmende Durchdringung digitaler Ressourcen und Verfahren in allen Arbeitsprozessen Aufgaben zuwachsen, die sich stärker als zuvor mit der Forschung verknüpfen ließen. So könne die Bibliothek auf der einen Seite als möglichst effizienter Dienstleister der pragmatisch orientierten Nutzung auftreten, auf der anderen Seite sei sie nicht nur als Archiv, sondern vor allem als Laboratorium anzusehen, als humane Anstalt und schließlich Wissensnetzwerk. Wie aber definiert sich das Verhältnis von Bibliothek zu Literaturwissenschaft? Wo liegen Aufgaben, Heraus- und Überforderungen?

Die eingeschlagene Perspektivierung, die sich von der Bibliothek ausgehend zur Wissenschaft hin orientierte, ließ deutlich werden, dass hier anders gelagerte Parameter im Vordergrund stehen könnten: Das mit Digitalität verknüpfte Sammeln, Erschließen und die Nutzung würden mit der Anreicherung des Textes durch Daten, darunter der Einsatz von Markup-Verfahren, einhergehen. Text dürfe in dieser Perspektive nicht mehr in gleicher Weise als statisch angesehen werden. Vielmehr sei jeder bibliothekarische Akt bereits als Teil einer digitalen Forschungsfrage zu verstehen. Gleichzeitig wurde aber auch rückgefragt, welches Verständnis von ‚Digitalität‘ im Hinblick auf bibliothekarische Interessen eigentlich vorliege und inwiefern dies über Formen der Digitalisierung hinausreiche. Könnten Bibliothekssysteme im Rahmen der Katalogaufnahme beispielsweise auf Formen der maschinellen Autorschaft adäquat reagieren? Weitere Nachfragen des Berichterstatters waren an die systemischen Aufgaben adressiert, die den Aufbau von Digitalen Bibliotheken im Zusammenhang von Digitalen Editionen und Tendenzen zu Zentralisierung und Dezentralisierung betreffen, auch im Hinblick auf verschiedene Sprachräume.

In seiner Replik betonte Thomas Stäcker zunächst, dass Ortlosigkeit sich auf Digitalität beziehe. Zur vorangegangenen Werk-Text-Debatte bemerkte er, dass die Existenzebene des Textes im digitalen Raum sei. Durch die Ablösung vom Trägermedium komme es zu einer Verschiebung, und die Zeichenrepräsentation werde daher aus seiner Sicht umso wichtiger. Stäcker verwies im Weiteren auf die Bedeutung von Markup-Language und XML. So sei beispielsweise Fettdruck eine Kulturleistung, die in Bedeutung übersetzt werden müsse. Text verweise demzufolge immer auch auf Struktur. Einem maschinellen Autor stehe er aufgeschlossen gegenüber, auch seien gleichermaßen künftig maschinelle Leser vorstellbar. Wer die Bibliothek befrage, so seine Conclusio, sei letztlich irrelevant, die Herausforderung liege vielmehr darin, dass die Bibliothek mit einer API technisch auf jede Frage antworten könne.

Hinsichtlich der Frage, welche Handlungspolitiken von zentralen Einrichtungen ausgehen sollten, betonte Stäcker den Kooperationsgedanken. Zugleich distanzierte er sich von dem Gedanken einer umfassenden Weltbibliothek im Digitalen. Anzustreben sei vielmehr eine Dezentralisierung, verteilte Zentren mit Spezialisierungsangeboten, um manövrierfähig zu bleiben. Künftige Aufgaben von Bibliotheken lägen nicht nur in der Bereitstellung, sondern auch in der Aufbereitung von Digitalisaten durch Volltextumwandlung (u. a. per OCR) und mit deskriptiven und strukturellen Metadaten. Hierfür sollten Verantwortlichkeiten klar benannt werden. Die Bibliothek stelle sich für Stäcker als Relaisstelle zwischen Allgemeinem und Speziellem dar, vor allem aber als zentrale Einrichtung im Prozess der Datafication. Durch die technisch-digitale Aufbereitung könne ein Maximum an Angeboten für die Nutzung, auch für forscherische Fragestellungen, erreicht werden. Allerdings bleibe es nicht aus, dass normative Setzungen in den Prozess der Bereitstellung und Aufbereitung eingreifen würden. So steuerten z. B. Verschlagwortungen letztlich auch wieder Kanonisierungsprozesse.

Eine Wortmeldung plädierte für eine differenzierte Verwendung der Begriffe ‚Interface‘ und ‚Schnittstelle‘, wobei der Begriff ‚Interface‘ zu präferieren sei, der stärker das Aufeinander-Wirken herausstelle. Der Traum einer Digitalen Bibliothek werde in der Programmbibliothek verwirklicht, die hochwertig aufbereitete Texte bereitstelle. Zugleich gestand man ein, dass die Digitale Bibliothek ein Moving Target sei. Es ließe sich nicht klären, wo Forschung anfange und wo es sich ‚nur‘ um Erfassung handele.

Stäcker griff dies auf und insistierte auf dem Aspekt der Interaktivität, der bislang zu wenig von der Forschung abgefragt worden sei. Die Bibliothek würde zu sehr reduziert auf einen Service von Angeboten, auf das Vor- und Aufbereiten. Sie sei aber Teil des Wissensdiskurses und auch die Recodierung des digitalen Erbes gehöre zu den Aufgaben der Bibliothek. Die Transformation ins Digitale beinhalte das Gestalten und Betreuen von aktuellem Wissen. Ob die Bibliothek künftig die Rolle von Herausgebern übernehmen werde und ob einer Digitalen Bibliothek, wenn sie Forschungsdaten aufbereite, sogar eine Co-Autorschaft zuwachsen könne, waren weitere Aspekte der Diskussion, die auf die Frage nach dem veränderten Werkcharakter abzielten. Thomas Stäcker wies auf die medientheoretischen Transformationen hin, die sich damit in materieller Hinsicht verbänden. Die Papier-Schrift-Kopplung und damit die Substratanbindung würden im digitalen Raum aufgegeben zugunsten eines anderen Verfahrens. Medientheoretisch sei dies zunächst als Entzug zu bewerten. Dennoch sah auch Stäcker in diesem Entzug einen Gewinn für Neuformierungen: Werk- oder Textausgaben seien in bibliothekarischen Zusammenhängen dem funktionalen Zweck der Zusammenfassung unterstellt. Welcher Werkbegriff hinter einer solchen regulierten Erfassung stecke, sei damit nicht festgelegt. Er warnte zugleich davor, der Bibliothek alle Hoheitsrechte im Veröffentlichungsszenario zu überantworten. Vielmehr wurde festgestellt, dass es Forschung gebe, die inzwischen ohne Verlag auskomme. Die Bibliothek sei als Herausgeber demnach nur bedingt geeignet. Nicht beantwortet werden könne zudem die Frage, was die Aufgabe der Bibliothek sein werde, wenn Open Access flächendeckend umgesetzt sei. Es fehle hier noch an Geschäftsmodellen, die im Brückenschlag von Bibliothek, Verlag und Autor adäquat die neuen Entwicklungen inkorporierten. Ergänzend wurde eingewandt, dass der Katalog des Bibliothekars – diskursgeschichtlich betrachtet – ein Instrument der Lenkung und Steuerung von Herrschaftswissen sei.

Was sich die Literaturwissenschaft von der Bibliothek wünsche, war ein weiterer Aspekt der Diskussion. Im Idealfall solle die Bibliothek in allen Übersetzungsfragen für die Forschenden aktiv sein und Mechanismen zur Verfügung stellen, um bibliothekarische Ressourcen auch für Forschungszwecke nutzbar zu machen (vgl. den Beitrag von Frank Fischer). So bliebe zu hoffen, dass Schnittstellen zu anderen Ressourcen wie Wikidata hergestellt werden. Im Hinblick auf das Zusammenwachsen bibliothekarischer und philologischer Interessen wurde angeregt, dass definiert und evaluiert werden müsse, wo die Prioritäten seitens der Wissenschaft liegen, um den Aufbau von Forschungsarbeiten sinnvoll zu unterstützen. Welchen Stellenwert habe beispielsweise die maschinelle Inhaltserschließung? Eine Rückkopplung an die Wissenschaft über den Wert solcher Automatisierungsprozesse wurde als überaus wichtig eingestuft. Auch schien es allgemeiner Konsens, dass die institutionellen Hürden für eine Partizipation niedriger gehängt werden müssten.

Stäcker schätzte den Prozess solcher Umsetzungen als steten Dialog ein, denn der Aufbau einer flächendeckenden Digitalisierung sei nicht generisch zu beantworten. Vielmehr, so wurde bemerkt, würden Forschungsaufträge vor allem über Förderformate und deren Gremien bestimmt. So sei durch die DFG beispielsweise die Faksimiledigitalisierung der Verzeichnisse der im deutschen Sprachraum erschienen Drucke forciert worden (mittlerweile mit einer Deckungsquote von ca. 50 %). Die DFG als Vertreterin der Wissenschaft habe aus der Sicht Stäckers die Relevanz der Bereitstellung von Digitalisaten für die Forschung erkannt und konsequent betrieben.

Die Bibliothek als konkreter, aufsuchbarer Raum für Forschungsvermittlung und ihre Auflösung im digitalen Raum standen im Mittelpunkt weiterer Überlegungen. Hier wurden unterschiedliche Positionen laut. Eine Wortmeldung betonte, dass die Digitale Bibliothek ubiquitär zu denken sei. Es wurde nach Möglichkeiten der Operationalisierbarkeit gefragt, durch die Wissenschaftlerinnen und Wissenschaftler konkret Bedürfnisse einbringen könnten, um besser in Prozesse zur Ausgestaltung digitaler Zusammenhänge eingebunden zu werden. Zudem wurde ergänzt, dass Funktionen und Leistungen der Bibliothek vor dem digitalen Zeitalter übernommen beziehungsweise erhalten werden sollten. Auch im Digitalen seien Stätten für Forschungsfähigkeiten auszubilden. Die Bibliothek werde als Ort der Forschung gebraucht und von Akteuren auch als Lernort wahrgenommen. Der Ort ‚Bibliothek’ gebe eine Idee davon, dass eine Übersicht möglich sei. Thomas Stäcker widersprach dem: In seinem Beitrag gehe es um die Medialität der Objekte, nicht um den Rahmen. Aus seiner bibliothekarischen Erfahrung heraus sei das Prinzip der forscherischen Serendipity durch die vage Nähe der Aufstellung in den Bibliotheken mittlerweile aufgekündigt, die Nutzer befänden sich nicht mehr vor den Regalen.

In seinem Schlussplädoyer stellte Stäcker noch einmal die Rolle der Bibliothek für die Digitale Literaturwissenschaft heraus. Dem Vorwurf, dass die Bibliothek durch Standardisierungen vorgebe, wie Editionen gemacht und die Freiheit der Edition durch solche Normierungen eingeschränkt würden, entgegnete er, dass Standardisierung der wissenschaftlichen Fachkultur auch im Analogen inhärent sei, um Wissenschaftskommunikation überhaupt möglich zu machen. Die Bibliothek sage nicht präskriptiv, wie Forschung zustande komme, es müsse aber ein Grundverständnis über Standards (z. B. zu Zitiermöglichkeiten im Netz) geben, um Forschungsergebnisse sichern und nachnutzen zu können. In diesem Sinne rief Stäcker abschließend dazu auf, sich über diese Parameter zu verständigen und neue Formate im Schulterschluss von Wissenschaft und Bibliothek zu definieren und auszudifferenzieren. Stäckers Apell als Bibliothekar richtete sich an die Disziplin: Digitale Literaturwissenschaft müsse mehr einfordern – vor allem von Bibliotheken –, damit bessere und umfangreichere Text- und Datensammlungen mit geeigneten Schnittstellen zur weiteren wissenschaftlichen Bearbeitung zur Verfügung gestellt würden.