Eine Schnittstelle ist einerseits ein technisches Protokoll zur Nachrichtenübermittlung, andererseits bezeichnet sie im übertragenen Sinne die Übergangsstelle zwischen verschiedenen, in sich geschlossenen Systemen. Durch definierte Rahmenbedingungen bzw. Standards ermöglicht sie den Austausch von Daten, vermittelt aber auch ein Verständnis zwischen unabhängigen miteinander kommunizierenden Systemen. Schnittstellen bestehen auf der Ebene von Maschine zu Maschine oder von Mensch zu Maschine. Schnittstellen kann man allgemeiner aber auch als Metapher der Vermittlung verstehen. Eine standardisierte Schnittstelle ist somit nicht nur erforderlich, wenn man fremde Daten integrieren oder eigene Daten anderen zur Verfügung stellen möchte, ohne genau wissen zu müssen, wie das jeweils andere System im Inneren beschaffen ist. Der Begriff der Schnittstelle ist auch geeignet Eigenschaften zu beschreiben, die im Allgemeinen miteinander kommunizierenden Systemen zukommen. Damit ist das Thema der Schnittstelle auf verschiedenen Ebenen prädestiniert, die funktionalen und technisch-konzeptionellen Rahmenbedingungen der digitalen Literaturwissenschaften näher zu beschreiben.

Die Sektion IV hatte zum Ziel, unter dem Thema der Schnittstelle, das etwa in der Medientheorie intensiver diskutiert wird, vor allem die Frage der Standardisierung, der Interaktion und die Beziehung der digitalen Literaturwissenschaft zur digitalen Sammlung, vor allem, aber nicht nur dem Archiv und der Bibliothek, als den Reservoiren, die die digitale Literaturwissenschaft mit Daten und Dokumenten versorgen, zu adressieren. Dies war der Einsicht geschuldet, dass Digitalität einhergeht mit neuen Suchmöglichkeiten, mit Prozessen der Aggregation, der Interaktion oder auch Vernetzung, die ihrerseits aber nur dann wirksam werden, wenn sie in die Modellierungs- und Präsentationsverfahren der eigenen Forschung einfließen. Die Forderung nach Schnittstellenkonformität hat somit auf den verschiedenen Ebenen Auswirkungen auf den Forschungs- und Publikationsprozess und sollte in ihrer Tragweite und Virulenz diskutiert werden.

Diese Idee ließ sich leider nur teilweise umsetzen, was vermutlich darauf zurückzuführen ist, dass das Thema der Schnittstelle in der Literaturwissenschaft oder, konkreter, die Probleme der Standardisierung oder Interaktion in der digitalen Literaturwissenschaft in der täglichen Forschungsarbeit noch nicht in dem Maße im Vordergrund stehen, wie dies erwartet worden war, und sich bisher allenfalls als Ärgernis der Daten- und Dokumentbeschaffung und – nutzung aufdrängen. Insofern ist es auch überraschend, dass die digitale Literaturwissenschaft gegenüber den Infrastruktureinrichtungen, der Bibliothek und dem Archiv, nicht nachdrücklicher die zentrale Bereitstellung und Aggregation digitaler Daten und Dokumente für ihre Forschungen einfordert. Die frei verfügbaren Korpora sind, folgt man den üblichen Klagen, entweder von mäßiger Qualität oder angesichts der Gesamtproduktion immer zu schmal. Nur Textgrid, Gutenberg und das Deutsches Textarchiv werden bei den deutschen Korpora immer wieder genannt, reichen aber entweder vom Umfang her nicht aus oder genügen qualitativ den Anforderungen nicht. Andererseits sorgt die Literaturwissenschaft aber nur in begrenztem Umfang für die offene Bereitstellung ihrer Daten, geschweige denn, publiziert selbst regelhaft offen unter freien Lizenzen in standardisierten Formaten, obwohl sie, wie auch die Beiträge von Martus und Jannides gezeigt haben, sich selbst das Leben leichter machen würde, wenn die Zugänglichkeit der Daten und Dokumente, z. B. zur Reproduzierbarkeit der Ergebnisse, nicht durch rechtliche oder technische Hürden erschwert würden. All dies mag den Ausschlag gegeben haben, warum einerseits vergleichsweise wenige Beiträge des Symposiums sich selbst hier verortet, andererseits viele das Thema implizit oder explizit, gelegentlich auch unter anderen Überschriften, aufgegriffen haben. So kam in den vorangegangenen Sektionen z. B. die Problematik der Korpusbildung, deren Klassifikation und flexible fragenabhängige Zusammenstellung, die Vereinheitlichung der Annotation oder die standardisierte Struktur für Zeitschriften zur Sprache. Auch die Frage der Langzeitarchivierung, also des Reservoirs der Literaturwissenschaft, trat wiederholt hervor, etwa bei den verschwundenen Geniusdaten oder bei der Archivierung von Netzressourcen wie lebendigen Blogs, oder die Sorge um die langfristige Pflege von Oberflächen digitaler Editionen. Standardisierung schließt Fragen der Lemmatisierung oder des PoS-Tagging bzw. der Tokenisierung digitaler Editionen ein, wie im Beitrag von Brüning oder eben allgemein in der immer wieder sich aufdrängenden Frage nach brauchbaren Korpora für das Textmining. Dies ist vorauszuschicken, um die vielleicht hier und da möglicherweise nicht ganz passgenaue Platzierung eines Beitrags zu erklären.

In praktischer Hinsicht bestehen für die Literaturwissenschaft vielfältige Schnittstellenanforderungen, je nachdem, wo Aggregation oder Vernetzung nötig sind. Dazu kann ein einheitliches TEI Format gehören (z. B. TEI simple) oder aber die einheitliche Ansetzung von Entitäten (Personennamen, Orte, Zeitbegriffe, Gegenstände). Schnittstellenanforderungen ergeben sich auch mit Blick auf den üblichen Kontext der Bereitstellung im Internet in der Beziehung der Dokumente untereinander (nach dem lateinischen Motto liber librum aperit), das auch in einigen Beiträgen zutage trat. Hier überraschte, dass das eigentlich naheliegende Thema der Hypertextualität und des semantic web, das für viele Fragen der digitalen Literaturwissenschaft Lösungen bereithält, bislang immer noch eine untergeordnete Rolle spielt. Effiziente Schnittstellen bieten Kataloge mit Metadaten, die nicht nur die Datenübernahme in eigene Publikationen erlauben und bibliographische Daten zur Verfügung stellen, sondern darüber hinaus auch eigene bibliometrische Auswertungen erlauben. Archiv und Bibliothek sind Repositorien für Daten und Texte und stellen sie idealerweise der digitalen Literaturwissenschaft in standardisierter und maschinenlesbarer Form zur Verfügung: Retrospektiv als digitale Edition oder digitalisierter und re-kodierter Text der schriftlichen Überlieferung, prospektiv als born digital oder elektronische Publikation. Sie bilden Infrastrukturen für geistes- und kulturwissenschaftliche Forschungsdaten, die das schriftliche kulturelle Erbe in eine maschinenlesbare, durchsuchbare und algorithmisch prozessierbare Form aufbereitet, nachhaltig sichert und der Forschung zur Verfügung stellt, die idealerweise ihrerseits Daten und Texte digital aufbereitet und annotiert, um sie dann in eine archivische oder bibliothekarische Infrastruktur zurückzuspielen. Wesentliche Bedingungen dieses auch als research data life cycle beschriebenen Prozesses sind neben technischen und informationswissenschaftlichen Anforderungen der digitalen Infrastruktur Nachhaltigkeitskonzepte, Standardbildung, hochwertige, qualitativ zuverlässige Daten und Texte und deren zentraler Nachweis über Metadaten, freie Zugänglichkeit idealerweise über Open Access Lizenzen und eine im DH – Konzept verankerte kooperative und inter- wo nicht transdiziplinäre Wissenschaftskultur.

In den Beiträgen zur Sektion spiegeln sich viele dieser intendierten Themen und Facetten der Schnittstelle. Während Stefan Dumont konkrete technische Schnittstellenanforderungen an den Austausch von Briefmetadaten vorstellt, geht es bei Karina van Dalen-Oskam um die Frage der Übersetzung literarischer Fiktion und damit eine innersprachliche Schnittstelle. Die Problematisierung des Werkbegriffs im Beitrag von Thomas Ernst führt zu einem Literaturbegriff, der soziale und prozessuale Aspekte, die im Netz immer auch als Schnittstellenthemen auftauchen, in die Literaturwissenschaft einführt. Querliegend zu klassischen Methoden ist die Messung von Umfängen eine Metrik, die zu überraschenden Einsichten in die Bewandtnis von Bücherdicken führt und neue Zugänge zur Literatur eröffnet. Die Darstellung der Rekonstruktion des englischen Novellenschatzes von Allen Riddell wiederum greift mit dem Problem der Berechnung von Buchproduktion und Bestimmung von Verbreitungsszenarien auch Fragen der richtigen Schnittstellen zu diesen Daten auf. Die abschließende Darstellung von Thomas Stäcker entwickelt einen Begriff von Bibliothek, der sie in ihrer zentralen Schnittstellenfunktion für die Forschung sichtbar werden lässt.