In der Sektion Textanalyse wurde besonders hervorgehoben, dass strategische Argumentation von der Diskussion der methodischen Organisation und Umsetzung wissenschaftlicher Verfahren unterschieden werden sollten. Die Digital Humanities tendierten stark dazu, sich auf den zweiten Punkt zu konzentrieren. Auch formale, digitale Analysen in den Literaturwissenschaften agierten jedoch vor dem Hintergrund einer etablierten disziplinären Theorie und Praxis, zu der sie sich bewusst verhalten sollten. Für die Digitale Literaturwissenschaft sei es daher strategisch erforderlich, hypothesengeleitete und explorative Verfahren der digitalen Textanalyse zu integrieren, um als Methodenfeld größere Akzeptanz bei traditionellen Literaturwissenschaftlern zu finden. Betont wurde in diesem Zusammenhang auch die transformative methodologische Wirkung, die digitale Textanalysen für die Praktiken etablierter philologischer Disziplinen haben könnten.

Marcus Willand und Nils Reiter unterschieden in ihrer Vorlage literarische Themen (Themes) von Topics (die durch Topic Modeling generiert werden) und führten drei wörterbuchbasierte Ansätze und vier Einstellungen des Topic Modeling (figurenspezifisch und übergreifend trainiert, mit je 20 und 100 Topics) durch. Anhand der Ergebnisse wurden die Methoden auf Grundlage von in der Literaturwissenschaft verbreiteten Annahmen als Postulate überprüft, womit der Anschluss digitaler Methoden an Konzepte und Wissen aus der Literaturwissenschaft gesucht werden sollte – ohne von einem Goldstandard auszugehen. Dass die einzelnen Tests nicht immer zufriedenstellend verliefen, wurde in der Diskussion als positiv aufgefasst. Die Neuartigkeit des Ansatzes wurde ebenfalls hervorgehoben: So behaupte Moretti in Network Theory, Plot Analysis (2011) eine Plotanalyse durchzuführen, beschäftige sich jedoch eigentlich mit der Figurenkonstellation. Willand/Reiter hingegen untersuchten die Figurenkonfiguration und könnten deshalb auch eine tatsächliche Plotanalyse vornehmen.

Die Unterscheidung zwischen Topics und Themen fand breite Unterstützung, wobei der Unterschied zwischen den beiden Konzepten noch genauer herausgearbeitet werden solle. So gebe es beispielsweise erfolgreiche Topics, die im engeren Sinne nicht thematisch seien, wohingegen Themen auch implizit vorhanden sein könnten. Eine Lemmatisierung oder ähnliche Methoden im Zuge des Pre-Processings beim Topic Modeling hätten auf der einen Seite eine erhöhte Vergleichbarkeit mit dem Wörterbuchansatz erzeugen können. Die Herangehensweise über das literaturwissenschaftliche Expertenwissen ermögliche es auf der anderen Seite, präzise nach Phänomenen zu suchen und unrelevante Daten schnell auszusortieren. Das kleine Set an Postulaten zeige bereits Unterschiede zwischen den angewandten Methoden. Dadurch ließen sich Empfehlungen ableiten, welche Methode für welche Frage die richtige sei. Dem Einwand, dass facheigene Postulate als gegeben modelliert würden und man daher auf literaturwissenschaftlicher Seite keinen Fortschritt konstatieren könne, wurde entgegengehalten, dass eine Toolentwicklung die Erzeugung von Daten ermögliche, die auch für die Entwicklung von neuen literaturwissenschaftlichen Fragestellungen genutzt werden könnten. Zudem könnten bisherige literaturwissenschaftliche Erkenntnisse verfeinert werden. Es herrschte Uneinigkeit darüber, ob ein methodisches Experiment aus dem Bereich Distant Reading eine literaturwissenschaftliche Erkenntnis fördern müsse, oder ob nicht die Reduktion der Methodendiversität eine kritische Reflexion – die stets Teil der disziplinären Diskussion sei – unterdrücke. Festgestellt wurde, dass der Beitrag von Willand/Reiter sich auf die Methodenentwicklung konzentriere. Die literaturwissenschaftlich orientierte Analyse und Interpretation der Ergebnisse sei erst der nächste Schritt und gefährde zu einem zu frühen Zeitpunkt die methodische Systematizität.

Im Zusammenhang mit der Korpuskonstitution wurde die Frage diskutiert, ob die sehr begrenzte Auswahl von kanonischen Texten nicht zu falschen Postulaten führen könne. Vor diesem Problem würde allerdings auch die klassische Literaturwissenschaft stehen, deren Erkenntnisse zwar häufig auf geringen Datenmengen basierten, deshalb jedoch nicht per se verworfen werden sollten. Auf Interesse stieß zudem die Genrefrage: Das untersuchte Korpus bestand ausschließlich aus Dramen; die Diskussionsteilnehmer waren sich uneinig darüber, ob z. B. Dramenenden (thematisch) klarer umrissen seien als die Enden von Romanen.

Positiv hervorgehoben wurde außerdem das Bemühen, traditionelle literaturwissenschaftliche Begriffe zu verwenden. Durch das äußerst komplexe Black-Box-Verfahren der einzelnen Methoden könne man klassischere Literaturwissenschaftler jedoch wieder verlieren. Es ergäben sich allerdings anschlussfähige literaturwissenschaftliche Fragestellungen. So sei es auf Grundlage der ermittelten Daten zukünftig z. B. möglich, unterschiedliche Figurentypen genauer zu analysieren. Die Operationalisierung selbst verlange jedoch nach einer stärkeren Validierung in zukünftigen Experimenten. Der Vorschlag, sie durch unstrittige synthetische Daten zu stützen, warf die Frage auf, welche Daten tatsächlich unstrittig sein könnten. Synthetisch erzeugte Konfigurationen, die realistisch modelliert wurden, könnten bei Dramen hilfreich sein.

Maciej Maryl skizzierte in seiner Vorlage ein Forschungsprogramm, in dem der Wandel vom zentralistisch organisierten polnischen Literatursystem vor 1989 über eine Diversifizierung, d. h. Ausweitung der topographischen Herkunft und Kanonizität der Autoren, hin zu einer neuen – dieses Mal an marktwirtschaftlichen Prinzipien des kapitalistischen Systems orientierten – Zentralisierung im Zuge einer ‚Rückkehr‘ zu literarischen Zentren und kanonisierter Literatur am Ende des ersten Jahrzehnts des 21. Jahrhunderts untersucht wird. Dabei werden digitale Datenquellen wie Bibliografien, sowie literarische und kritische literarische Texte mit digitalen Methoden ausgewertet.

Als Problem wurde vor allem die Verfügbarkeit der Daten diskutiert. Die umfassende Bibliografie polnischer Literatur wurde zwar digitalisiert, die Zugriffsmöglichkeiten seien jedoch noch zu verbessern. Hier zeige sich das generelle Problem von Ansätzen in den Digital Humanities, mit gegenwärtigen Texten zu arbeiten. Im Gegensatz zu kontemporären born-digital-Texten sei die hier untersuchte prä-digitale Phase besonders schwierig. Pragmatische Gründe wie die digitale Verfügbarkeit und Rechtefreiheit führten daher häufig dazu, dass mit Texten älterer Jahrhunderte gearbeitet werde. Man solle Verlage und Herausgeber an dieser Diskussion teilhaben lassen, um Aspekte des Copyrights und Möglichkeiten der Forschung und des Datenaustauschs fundiert zu diskutieren.

Für das vorgestellte Forschungsprogramm wurde in der Diskussion eine Vielzahl von Vorschlägen gesammelt. So solle die Möglichkeit hervorgehoben werden, dass die Auswertung der Daten die erwarteten Ergebnisse nicht nur entweder belegen oder widerlegen werde, sondern auch noch etwas völlig Neues zeigen könnte. Zudem scheine eine Betrachtung anderer Formen der Zensur – wie durch finanzielle Förderung oder durch politisch motivierte Akteure – vielversprechend. Die Fokussierung lediglich einer Bibliografie und nicht der Inhalte der in dieser Bibliografie aufgeführten Werke selbst wurde als problematisch hervorgehoben: Die untersuchten Veränderungen sollten auch auf textinhaltlicher Ebene erforscht werden. Auch hierfür seien jedoch die digitale Verfügbarkeit und die urheberrechtliche Situation entscheidende Motive. Als mögliche Quellen für weitere Daten wurden in der Diskussion Schulbücher, Wikipedia-Einträge über Autoren oder urheberrechtefreie Gebrauchstexte wie beispielsweise das Feuilleton vorgeschlagen. Schwierigkeiten seien dabei, dass Schulbücher die Popularität von Autoren nicht verlässlich abbildeten und Wikipedia-Artikel häufig von den Autoren selbst geschrieben und daher ebenfalls kein verlässlicher Repräsentant von Popularität seien. Das Sammeln von Gebrauchstexten könnte schwierig werden, verspräche aber interessante Einsichten in die Diskussion populärer Texte.

Literaturwissenschaftliche Implikationen der Nutzung künstlich-neuronaler Netze in der Handhabbarmachung umfangreicher Datenmassen beschrieb Christof Schöch in seiner Vorlage. Zugrunde lag die computerlinguistische semantische Hypothese, dass der Kontext von Wörtern in Verbindung mit ihrer Bedeutung stehe (Distributional Hypothesis; vgl. Harris 1954, Firth 1957). Im Verfahren des word2vec würden Vektoren, die Dokumenteigenschaften repräsentieren, stark in ihrer Dimensionalität reduziert und dadurch handhabbar gemacht. Durch die neue Zwischenschicht der Projection Layer in den Word Embedding Models (WEM) werde es möglich, bei kleiner Dimensionalität Wörter verlässlich vorherzusagen. Das automatisierte Verfahren werde auf Grundlage der Oberflächendaten möglichst großer Korpora trainiert, sei nicht sprachspezifisch und modelliere Sprachkompetenz historisch genau. Ähnlichkeiten und Analogiebeziehungen zwischen Wörtern würden dadurch mathematisch greifbar. So könnten nicht nur rein syntaktische oder morologische, sondern vor allem auch semantische Ähnlichkeiten automatisch erkannt werden (z. B. „go“ und „went“, aber auch „apple“ und „mango“).

Auch der Variantenvergleich in der Editorik (vgl. Sektion 2) könne mit WEM spezifiziert werden, indem das Ausmaß der Veränderung quantifiziert werde. Das Verfahren stehe nicht in direkter Konkurrenz zu hermeneutischen Ansätzen, sondern erweitere als zusätzlicher Baustein auf plausible Art und Weise die klassische (menschliche) Sicht auf den Text. Durch eine Kombination unterschiedlicher methodischer Bausteine müsse das Potenzial des hermeneutischen Analyseprozesses vergrößert werden: Die Literaturwissenschaft stehe noch am Anfang dieser Entwicklung. In der Diskussion wurde darauf hingewiesen, dass klar kommuniziert werden müsse, dass es sich um eine relationale Semantik auf Wortebene handele, andere Ebenen wie bspw. die Satzebene jedoch noch nicht bedient werden könnten. Hier wurde ein engerer Dialog mit der Computerlinguistik nahegelegt, die viel zu diesem Thema forsche. Hingewiesen wurde auf die Notwendigkeit, sich der besonderen Art des relationalen Semantikverständnisses bewusst zu sein: So sei es in einem Korpus aus dem 19. Jahrhundert beispielsweise möglich, dass ‚Frau‘ und ‚Küche‘ im Netzwerk näher als ‚Frau‘ und ‚Mann‘ beieinander liegen. Die Einschränkung von WEM sei tatsächlich, dass es keine Rückbindung an Referenzialität gebe, sondern immer auf Grundlage von Relationen innerhalb des jeweiligen Korpus trainiert würde: Eine Verknüpfung z. B. mit Wörterbuchansätzen scheine daher vielversprechend. Auch ließen sich beispielsweise im Abgleich mit einem lyrischen Referenzkorpus punktuelle Abweichungen von der Sprachnorm (die konstitutiv für eine Gruppe von Lyrik sei) untersuchen.

Positiv hervorgehoben wurde in der Diskussion, dass der Forschungsprozess selbst in dem didaktisch sinnvoll strukturierten Beitrag sehr deutlich herausgestellt werde, wodurch ein Austausch zwischen DH und Literaturwissenschaft gezielter und besser möglich sei. Gleichzeitig sei es jedoch möglich, einzelnen Aspekten des Verfahrens eine Unterkomplexität vorzuwerfen, wenn z. B. ‚Prosa‘ und ‚Poesie‘ auch in Kontexten nah beieinander liegen, in denen dies nicht gewünscht werde. Als generelles Problem von Modellen, deren Verfahren man als menschlicher Nutzer nicht überprüfen könne, wurde die Schwierigkeit identifiziert, eine Übersicht über die eigenen Aktionen zu behalten und methodische Schieflagen zu entdecken. Die Grobheit der Methode sei es auch, die bestimmte (detailliertere) Fragestellungen ausschließe: So böte sich beispielsweise eine klassische Kookkurrenzanalyse besser an, um herauszufinden, wann ein Wort das erste Mal in einem neuen Kontext auftauche, da hierfür nicht die große statistische Masse, die WEM benötige, gebraucht werde. Die schiere Menge der benötigten Daten (etwa 30 Mio. Wörter oder mehr wurden veranschlagt, um die Funktionalität von WEM zu gewährleisten) mache es schwierig bis unmöglich, die Methode auf einige historische Korpora (wie bspw. in der Mediävistik) anzuwenden, da dort eine solche Datenmenge nicht gegeben sei.

Im Zusammenhang mit dem differenztheoretischen Semantikmodell der WEM wurden schließlich Zusammenhänge und Unterschiede zum dekonstruktivistischen Différance-Begriff Derridas diskutiert. Es gebe im historischen System keinen archimedischen Punkt mehr; man könne die Methode als Rückkehr der DH in die Dekonstruktion auffassen. Andererseits böte die Saussure’sche Semantik bereits genügend Anhaltspunkte, um das hier skizzierte Verfahren zu greifen.

Die Arbeiten der dlina-Gruppe und ihre Rabbit Holes erfuhren in Peer Trilckes Beitrag eine Rekapitulation. Viele Projekte der Digitalen Literaturwissenschaft suchten nach literaturhistorischen Erkenntnissen, blieben dann jedoch bei Modellierungen und Operationalisierungen hängen. Dieser Prozess wurde demonstriert erstens anhand der Small-Worlds-Studie, zweitens anhand der Beat-Charts-Studie, welche die Rhythmik von Dramen anhand der Personalveränderung zwischen einzelnen Szenen mittels der Parameter Drama Change Rate bzw. Segment Change Rate beschreibt. So entstehe eine Dramentypologie auf Grundlage von Kennzahlen, die jedoch eine Eigendynamik entwickle: Es gehe nicht mehr allein um die Dramen, sondern auch um die Operationalisierung selbst (Rabbit Holes). Daraus ließen sich generelle Folgerungen schließen:

  1. 1.

    Digitale Begriffe seien zahlenmäßig geprägt und diese seien relational.

  2. 2.

    Es finde eine Anästhetisierung der untersuchten Objekte statt.

  3. 3.

    Daten und Zahlen würden häufig in Visualisierungen veranschaulicht, worin man eine Reästhetisierung sehen könne.

  4. 4.

    Digitale Projekte würden häufig eine Methode des Aufschubs verfolgen: Man habe keine Abschlüsse, sondern befinde sich bewusst im Prozess.

Diskutiert wurde, mit Blick auf die Small-Worlds-Studie, zunächst die Sequenzialität der angewandten Methoden, die einen Ausschlussprozess initiieren, bei dem am Ende nur fünf Texte des gesamten Korpus übrig bleiben (Faust-Dramen und Possen), die man auch als relationale Extremtypen bezeichnen könnte. An dieser Stelle wurde eine Rückbindung an klassische literaturhistorische Diskussionen und ein Blick zurück in das gesamte Korpus gefordert. Auch wenn die Prozesshaftigkeit der dargestellten Verfahren erkannt – und von einigen Seiten auch kritisiert – wurde, betonten viele Diskussionsteilnehmer, dass Anknüpfungspunkte für die Literaturwissenschaft evident seien: Wo Irritationen im Gegenstand zu neuen Methoden führen, böten Irritationen im Modell immer auch einen Weg zurück zum Gegenstand. Diese Dynamik zwischen Modell und Gegenstand sei theoretisch sehr traditionell. Die virulente Methode des Unabgeschlossenen und der Gestus des Aufschubs bei zurückgestellter Referenzialität ermöglichten eine gezielte Selbstreflektion der Literaturwissenschaft einerseits, zeigten jedoch andererseits auch gerade die Anschlussfähigkeit der demonstrierten Methoden: Ein umfassendes Mapping auf den literarischen Gegenstand in Form klassischer Publikationen und eine Bereitschaft zur Falsifikation schienen am Platz. Die Differenz der diskutierten kommunizierten Netzwerke zu nicht-fiktionalen Netzwerken sollte ebenfalls näher betrachtet werden. Um über diesen Sondertypus von Netzwerken differenziertere Aussagen treffen zu können, brauche man allerdings sehr viel mehr Daten, die bspw. auch durch eine komparatistische Ausweitung auf andere Sprachen zu erlangen seien.

Zu überdenken sei außerdem die Rhetorik des Unvertrauten und Fremden, denn Literaturhistoriker seien nicht so verwundert über die Ergebnisse, wie im Beitrag behauptet werde. Die vier im Schlussteil diskutierten Punkte sollten geschärft werden, um auch die Unterschiede dieser Aspekte in Bezug auf die Literaturwissenschaft deutlich hervorzuheben. Problematisch sei hier beispielsweise der Begriff der ‚Reästhetisierung‘ im Zuge des – in den Literaturwissenschaften ungewöhnlichen – Erstellens von Diagrammen als Aussagen über die zuvor ‚anästhetisierten‘ Gegenstände. Alternativ wurde hier der Begriff der ‚Diagrammatisierung‘ stark gemacht. Die Diskussionsteilnehmer betonten jedoch, dass keine Analyse das literaturwissenschaftliche Ziel, alles über den untersuchten Gegenstand zu erfahren, je erreiche: Wo die quantitative Arbeit den ästhetischen Wert der Gegenstände vernachlässige, unterschlügen klassisch literaturwissenschaftliche Ansätze häufig die quantitative Dimension. Generell sollte die Digitale Literaturwissenschaft jedoch konzentrierter darüber diskutieren, ob das Digitale tatsächlich kategorial anders sei als das Nicht-Digitale, als das Postkoloniale, Dekonstruktive etc.

Thomas Weitin operationalisierte in seiner Vorlage Ähnlichkeiten über ein Textvergleichungsmodell. Stilometrische Analysen wurden dabei als Netzwerk visualisiert und Unterscheidungskriterien sollten bis auf Wortebene bestimmt werden. Von der Analyse der durchschnittlichen Ähnlichkeit bahnte der Beitrag seinen Weg hin zur Analyse der maximalen Verschiedenheit. Als bemerkenswerte Punkte wurden in der Zusammenfassung genannt:

  1. 1.

    die Diagrammatisierung und Weiterverarbeitung der Daten mit dem Simmelian-Backbone-Netzwerk,

  2. 2.

    die stilometrische Ähnlichkeitsanalyse und -postulate sowie

  3. 3.

    die untersuchte literaturästhetische These über die stilistische Durchschnittlichkeit Heyses.

Beim letzten Punkt wurde empfohlen, die Diachronie des Textkorpus näher zu betrachten, um eine Durchschnittlichkeit a priori von einer Durchschnittlichkeit a posteriori (d. h. einer epigonalen Durchschnittlichkeit) unterscheiden zu können.

Das Plenum benannte als generelles Desiderat von DH-Ansätzen, das Begriffspaar von Ähnlichkeit und Unähnlichkeit, das vielen Methoden und Konzeptionen zugrunde liege, genauer zu diskutieren. Während der Beitrag für ein hypothesengeleitetes Vorgehen argumentiere, verfolge er selbst eher eine explorative Methode. Begründet wurde dies dadurch, dass eine historische Plausibilisierung der Fragestellung und ein hypothesengeleitetes Vorgehen immer der Operationalisierung und Analyse vorausgingen.

Als denkbare Anschlussfähigkeit der vorgestellten Untersuchung wurde die Möglichkeit genannt, Netzwerke zukünftig mit semantischen Werten zu verknüpfen und die einzelnen Werte zueinander in Bezug zu setzen, um z. B. die Frage beantworten zu können, wie viele Wörter den Unterschied bei einer Kategorisierung von Ähnlichkeit und Unähnlichkeit von Stil ausmachen. Empfohlen wurde, die Stabilität der Ergebnisse anhand unterschiedlicher Einstellungen der Rechenparameter zu überprüfen.

Das hier vorgestellte Verfahren zeige, wie stilometrische Analysen auch abseits der Autorschaftsattribution fruchtbar gemacht werden können. Der Distinktionsspielraum von Novellen sei gerade auf der Ebene des Stils (bzw. des ‚Tons‘) auszumachen, besonders im Epochenumbruch von Romantik und Realismus. Die verwendeten Begriffe (wie z. B. der Stilbegriff) könnten dabei noch genauer literaturwissenschaftlich kontextualisiert werden.

Überlegt werden könne außerdem, ob ein Fokus auf die wenigen diskriminativen Ergebnisse der einzelnen ‚Ausreißer‘ nicht weniger fruchtbar sei, als stattdessen die Summe der Abweichungen zu betrachten – ein Vorgehen, das gerade im Zusammenhang mit der Stilfrage vielversprechend scheine. Das vorgestellte Verfahren impliziere ein Modell von Stil, das durch Durchschnittlichkeit und Abweichung definiert werde, wobei Stil durchaus auch anders umrissen werden könne.

Bei der Frage, welche Wörter dafür verantwortlich seien, dass einige Texte im Korpus als sehr unterschiedlich kategorisiert werden, könne das Z-Score-Profil als Autorschaftsprofil verstanden werden, da im Deltawert mehrere Dinge zusammengefasst würden. Zu fragen sei dabei jedoch, wie hilfreich die Beobachtung sei, dass das Profil eines Autors dadurch bestimmt werde, dass ein anderer Autor ein Wort besonders selten verwende.

Auch in diesem Beitrag wurde das neue Publikationsethos kontrovers diskutiert. Die literaturhistorische Perspektive sei bibliografisch sehr unterrepräsentiert, es müsse jedoch ein Bezug zu den einzelnen Forschungsfeldern hergestellt werden. Weitin wies darauf hin, dass er diese Perspektive an anderer Stelle bereits herausgearbeitet (siehe den Beitrag von Weitin) und sich hier auf die Korpusanalyse konzentriert habe. Zudem wurde konstatiert, dass sich der Habitus im Umgang mit Theorie ändere und jetzt stärker methodenorientiert sei, wodurch das Theorieverständnis nun auch ein mögliches Scheitern der jeweiligen Theorie beinhalte. Diese neue Konstellation münde in ein anderes Publikationsethos. So sei es sinnvoll, die Unterschiede zwischen den jeweiligen Forschungspraktiken zu suchen und den Gegenpol nicht auf die einfachste, sondern auf die komplexeste Weise zu konstruieren. Der Experimentcharakter vieler DH-Projekte ermögliche es, andere Ergebnisse als zuvor erwartet zu erlangen. Die Diskutierenden plädierten dafür, die DH solle zukünftig die Stärken beider Strömungen in sich vereinen.

Eine andere Form der Operationalisierung – nämlich eine, die sich in der Gestalt von Richtlinien an den menschlichen Annotator richtet – untersuchte Berenike Herrmann in ihrer Vorlage. Die manuell erstellten Annotationen wurden dabei zur quantitativen vergleichenden Auswertung genutzt. Während die Annotation selbst eher einem Close Reading entspreche, komme durch die Analyse ein Distant Reading hinzu. Die kognitive Theorie der Metapher war in dem vorgelegten Ansatz das zugrundeliegende Konzept: Dabei wurden Eigenschaften einer Quelldomäne in eine Zieldomäne mit höherem Abstraktheitsgrad übertragen. Die Grundbedeutung eines Begriffs (Wörterbuchansatz) wurde mit der jeweiligen Kontextbedeutung verglichen, eine Abweichung wurde als Metapher annotiert. Dieses Verfahren zeitigte ein hohes Inter-Annotator Agreement.

Die Diskussionsteilnehmer hoben positiv hervor, dass der Aufsatz bemüht sei, das reiche Erbe der Metaphernforschung (siehe beispielsweise Lausberg) zu integrieren und dadurch sowohl ein literaturwissenschaftlich als auch ein eher technisch interessiertes Publikum anzusprechen. Als literaturwissenschaftlich anschlussfähig erwiesen sich bspw. Beobachtungen zur abnehmenden Satzlänge. Eine andere Studie zeige jedoch, dass zwischen 1850 und 1950 auch die Satzlänge in wissenschaftlichen Texten systematisch abnehme, es sich also um eine allgemeine Sprachentwicklung des bildungsbürgerlichen Sprechens und nicht nur um ein literarisches Phänomen handeln könne. Auch die konstatierte historische Abnahme der Menge an gebrauchten Metaphern lasse den Schluss zu, dass ebenfalls die Prozessleistung zur Verarbeitung von Metaphern abnehme. Der Ansatz sei gegenüber dieser phänomenologischen Komponente des Gegenstandsbereiches jedoch explizit agnostisch, da man keine Aussagen darüber treffen könne, wie Menschen mit den Metaphern umgingen. Eine Hypothesengenerierung sei indes auf Grundlage der Ergebnisse möglich. Diskutiert wurde zudem die Beobachtung, dass im skizzierten Verfahren nicht die abweichenden oder literarisch interessanten Metaphern im Vordergrund stünden. Trotz des weiten Metaphernbegriffs würden jedoch auch einige Metaphernspielarten aus der Analyse ausgeschlossen – bspw. etymologische Metaphern wie „zwiebeln“, da das Neuhochdeutsche als Referenz angelegt werde. Die pragmatische Entscheidung, bestimmte Formen von Metaphern auszuschließen und mit in Wörterbüchern festgelegten Bedeutungen zu arbeiten, wurde generell begrüßt, da so – neben dem Peer-Review innerhalb der Annotatorenteams – eine größere Unabhängigkeit vom jeweiligen Lektüreprozess gegeben sei. Eine Binnendifferenzierung in der Art der annotierten Metaphern fehle bislang noch. Zu Beginn möglichst breit zu annotieren, wurde als Methode jedoch begrüßt, da es zunächst darum ginge, eine große Menge an Daten zu erzeugen, an die spätere Automatisierungsversuche anschließen könnten. Außerdem wurde der Vorschlag gemacht, man solle die Metapher differenziell im Konkurrenzfeld zu den anderen Tropen (wie Metonymie, Ironie oder Emphase) untersuchen, um der Möglichkeit gerecht zu werden, dass ein Autor sehr unmetaphorisch, dafür aber stark ironisch schreiben könne.

In dem beschriebenen Experiment wurde mit Erzählanfängen gearbeitet, da gerade in den Anfängen von Erzählungen, in denen Text und Leser aufeinandertreffen und die rhetorische Funktion, den Leser zum Weiterlesen zu animieren, erfüllt werden solle, interessante Textstellen vermutet wurden. Außerdem lasse die aufwendige Methode der manuellen Annotation keine großen Textmengen zu. Ob ein Sampling aus Volltexten ebenso gute Ergebnisse produziert hätte, sollte überprüft werden. Als Alternative zum synchronen Wörterbuchansatz wurde über word2vec gesprochen, um Grund- und Kontextbedeutungen in zwei getrennten Korpora zuzuweisen. Wahrgenommen werden sollten zudem andere Ansätze, Metaphorizität zu modellieren, so z. B. der von Biemann u. a., die Jakobsons Poetizitätskonzept und eine distributionelle Semantik zugrunde legten.