1 Einleitung

Ein Ziel korpushermeneutischer Verfahren des Verstehens, Interpretierens und Erklärens ist die Theoriebildung. Diese Perspektive wird im vorliegenden Beitrag anhand der Entwicklung einer linguistischen Theorie des Kommentierens exemplarisch konkretisiert. Die ausführliche Darstellung des gesamten Theoriebildungsprozesses ist in diesem Rahmen nicht möglich, aber einige zentrale Schritte werden hier als Beispiele für ein korpushermeneutisches Vorgehen diskutiert. Die Reflexion dieser Verfahren steht im Folgenden also im Mittelpunkt, insbesondere mit Blick auf die kritische Problematisierung hermeneutischer Ansätze in der Korpuslinguistik – bspw. auf theoriegeleitetes Vorgehen und das Einbeziehen von Vorwissen. Eine rein datengeleitete Theoriebildung kommt bei dem Thema nicht in Frage, weil es nicht zielführend wäre, den nicht nur inflationär alltäglich, sondern auch linguistisch verwendeten Begriff des Kommentierens einfach neu zu besetzen und alle Vorüberlegungen dazu zu ignorieren. Stattdessen wird die kritische Reflexion bisheriger Ansätze, deren Weiterentwicklung und das – dann auch datengeleitete – Herausarbeiten neuer theoretischer Perspektiven und Aspekte mit dem Ziel angegangen, eine konsistente Theorie zur sprachlichen Praktik des Kommentierens in verschiedenen medialen und sozial-kommunikativen Kontexten zu bilden. Einerseits wird hier Theoriebildung also betrieben, wie Bühler sie im Hinblick auf die Sprachtheorie beschreibt, indem »Grundsätze, die aus dem Bestande der erfolgreichen Sprachforschung selbst durch Reduktion zu gewinnen sind« (Bühler 1982 [1934], S. 20) herausgearbeitet werden – nur eben mit spezifischerem Blick auf die Praktik des Kommentierens –, anderseits gilt es, diese korpusgestützt systematisch zu hinterfragen und dabei mögliche neue Theoriekomponenten freizulegen, hier beispielsweise die der retrospektiven Adjazenzkonstruktion und Rekontextualisierung (vgl. Bender 2024, 2023 und 2020a).

Spätestens seit Fillmore (1992) in seinem berühmten Cartoon den »armchair linguist« dem »corpus linguist« gegenübergestellt hat, hat sich die erkenntnistheoretische Diskussion in der Linguistik auch mit Blick auf Korpora weit verbreitet. Fillmore selbst plädierte bereits für eine komplementäre Herangehensweise: »the two kinds of linguists, wherever possible, should exist in the same body« (Fillmore 1992, S. 35) – in dem Fall bezogen auf die allgemeinere Frage, ob Linguisten Korpora nutzen sollten. Die auf das Wie der Korpusverwendung bezogene Unterscheidung zwischen corpus-based- und corpus-driven-Ansätzen – geprägt von Tognini Bonelli (2001, S. 65 ff. und 84 ff.) – wird ebenfalls längst weitgehend in komplementäre Modelle integriert. Die Kombination der Ansätze ist mittlerweile nahezu üblich und auch von den korpuslinguistisch forschenden Autor/innen dieses Hefts beschrieben und umgesetzt worden (vgl. z. B. Bubenhofer 2009, S. 149 ff.; Müller 2015, S. 143 ff.).

Oft propagiert wird in diesem Zusammenhang außerdem allgemeiner die Zusammenführung von qualitativen und quantitativen Verfahren – auch im weiteren Feld der digital forschenden Geisteswissenschaften – entgegen einiger hartnäckig auf der Trennung dieser Perspektiven beharrenden Forschenden auf beiden Seiten (siehe dazu Bubenhofer in diesem Band). Diese Terminologie stammt aus der sozialwissenschaftlichen Methodenkontroverse, in der einerseits die entsprechende Lagerbildung sichtbar wurde, andererseits aber auch der Gedanke der Überwindung des Methodengegensatzes schon mehrfach und von beiden Seiten ausformuliert wurde (vgl. z. B. aus dem eher quantitativen Lager Früh 2011, S. 68 und aus dem qualitativen Mayring 2010, S. 20 f.). Aus diesem disziplinären Feld wurden auch Methoden der datengeleiteten Theoriebildung für die Linguistik adaptiert. So zeigt Scharloth (2018) zum Beispiel, wie man die Grounded Theory für die Korpuslinguistik fruchtbar machen kann.

All diese Überlegungen sind jedoch vor allem darauf ausgerichtet, entweder eine Korrektiv-Funktion zu theoriegeleiteten Verstehensprozessen zu bieten oder möglichst der Gefahr entgegenzuwirken, dass Vorwissen bzw. Vorannahmen den Blick verstellen bzw. zu selektiv werden lassen. Von der rein aus den Daten gewonnenen Evidenz (bspw. durch statistische Messungen) verspricht man sich außerdem, Phänomene sichtbar zu machen, die etwa durch den konventionell lesenden Zugriff nicht wahrnehmbar wären. Es wird zwar reflektiert, dass auch datengeleitete Forschung nicht ohne Theorie auskommt (vgl. z. B. ebenfalls Scharloth 2018, S. 67). Die Interpretation der Datenanalysen wird auch beschrieben und begründet. Der Fokus liegt in der datengeleiteten Forschung jedoch oft weniger darauf, explizit zu machen und damit mehr in den Vordergrund zu rücken, welche theoretischen Überlegungen von vorneherein einfließen. Häufig rückt die eigentlich unhintergehbare hermeneutische Perspektive in den Hintergrund, wird zur »heuristischen Nebenbei-Praxis« wie Müller es in seinem Beitrag in diesem Band ausdrückt.

Gerade in der digitalen Linguistik ist es jedoch höchst interessant und relevant, auch die Hermeneutik der Theoriebildung (im Anschluss an Verstehens- und Interpretationsprozesse) inklusive der einbezogenen Komponenten des Vorwissens explizit und bewusst zu reflektieren – statt zu versuchen, sie auszuhebeln bzw. zu umgehen. Dies ist erst recht von besonderer Bedeutung, wenn sie schon vor der Folie statistischer und algorithmischer Analyseverfahren und der Verwendung von Korpora betrieben wird, also unter besonderen Voraussetzungen. Erst diese Explizierung versetzt Forschende in die Lage, Vorannahmen und theoretische Konstrukte wirklich reflektiert mit datengeleiteten Verfahren zu konfrontieren, potenzielle Bias-Problematiken zu erkennen und so informiert neue methodische und theoretische Konfigurationsmöglichkeiten zu entdecken.

Zur exemplarischen Konkretisierung dieser Perspektive eignet sich die Entwicklung einer korpusgestützten Theorie des Kommentierens besonders gut, weil es zum Kommentieren verschiedene linguistische Ansätze gibt, die aber alle nicht zu einer konsistenten und umfassenden Theorie ausgebaut wurden. Oft wird Kommentieren im Anschluss an den inflationären, unreflektierten und unterspezifizierten Alltagsgebrauch (insbesondere in den sozialen Medien) mit anderen Praktiken wie der Meinungsäußerung, Bewertung, Argumentation oder noch allgemeiner Positionierung gleichgesetzt. Eine tiefgreifendere theoretische Erfassung als sprachliche Praktik, die sich auch als linguistisches Beschreibungsinstrument eignen würde, stellt jedoch ein Desiderat dar. Es gibt in diesem Themenfeld also Vorwissenskomponenten, verschiedene vielversprechende Datenquellen und jede Menge Unklarheiten – die perfekten Voraussetzungen für die Entwicklung einer linguistischen Theorie. Im Mittelpunkt der folgenden Ausführungen steht, wie es zur Initialisierung einer solchen Theorieentwicklung kommen kann, wie reflektiert-explizierend mit Vorwissenskomponenten umgegangen wird (Kapitel 2) und vor allem, wie korpuslinguistische Verfahren in einen abduktiven und iterativen bzw. inkrementellen Forschungsprozess eingebunden werden (als Reflexion der in der Hermeneutik-Kritik oft thematisierten Zirkularitätsproblematik) (Kapitel 3). Außerdem werden vor dem Hintergrund der ebenfalls gegenüber hermeneutischen Verfahren oft vorgebrachten Subjektivitätsproblematik Intersubjektivierungs- bzw. Objektivierungspraktiken in den Blick genommen (Kapitel 4). Ein besonderer Schwerpunkt liegt dabei auf der Kategorienentwicklung im Rahmen eines (teilweise kollaborativen) Annotationsansatzes.

2 Vorwissensproblematik und -reflexion aus korpushermeneutischer Sicht

2.1 Theoretische Reflexion der Vorwissensdiskussion

Eine kritische Frage, die in Bezug auf die Hermeneutik diskutiert wird, aber auch in der korpuslinguistischen Methodologie (sowie in der hier als Hintergrund ebenfalls relevanten sozialwissenschaftlichen Methodendiskussion), ist die nach der Rolle des Vorwissens und von Vorannahmen / Hypothesen, die in einen Verstehens- bzw. Analyseprozess eingebracht werden. Auf der Grundlage, Verstehen als »eine Grundbedingung, eine conditio sine qua non, jeglichen gelingenden Kommunizierens« (Hermanns/Holly 2007, S. 1) anzusehen, begründen Fritz Hermanns (schon 2003) und Werner Holly eine linguistische Hermeneutik als sprachwissenschaftliche Teildisziplin und ein entsprechendes Forschungsprogramm. Hermanns behandelt die Vorwissensproblematik wie folgt. Als Ausgangspunkt von Verstehensprozessen sieht er ein Erkennen als u. U. reflexhafte Reaktion auf eine Wahrnehmung, durch die Vorwissen in Form von Schemata (frames, scripts, mentalen Modellen, Präsuppositionen) aktiviert und auf Wahrnehmungsgegenstände projiziert wird (vgl. Hermanns 2003, S. 144). Im Hinblick auf die Interdependenzen zwischen generellem und speziellem, singulärem Wissen und Erkennen (vgl. Hermanns 2003, S. 142 f.) führt er dies mit der Analogie des Verhältnisses von Type und Token aus linguistischer Perspektive weiter aus. »Ich verstehe – jetzt, in dieser Äußerung, die ich gerade höre – ein Wort (token), weil ich es (als type) schon kenne. Aber dieses allgemeine Kennen beruht umgekehrt nur darauf, dass ich dieses Wort vorher schon einmal, meistens sehr viel öfter, gehört und verstanden habe, und zwar ebenfalls in singulären Einzeläußerungen« (Hermanns 2003, S. 143). Nicht weiter eingegangen wird an dieser Stelle auf den initialen Erwerb von solchen token- und type-artigen Kenntnissen. Nur deren wechselseitiges Schaffen und Erhalten wird thematisiert und auf Wissensstrukturen in Form von »Vorstellungen, Ideen und Begriffen oder Schemata, Stereotypen, mentalen Modellen usw.« sowie von »generellen Sätzen, Theoremen, Ideologemen, Topoi usw.« (Hermanns 2003, S. 143) bezogen. Hermanns arbeitet so die Unhintergehbarkeit des Vorwissens heraus und verweist darüber hinaus auf den von Schleiermacher als divinatorischen Anfang des Verstehens beschriebenen »kühnen Entwurf« (Schleiermacher 1977 [1838), der im Grunde einer vorläufigen Konstruktion eines mentalen Modells entspricht. Auch Biere (2007, S. 16) beschreibt dieses Konzept eines Vorverständnisses, das sich »quasi automatisch« einstellt:

»Es muss sich einstellen bzw. eingestellt haben, damit wir mit dem Interpretieren überhaupt beginnen können. Auch und gerade dann, wenn wir dieses Verständnis als ›Vor-Verständnis‹ relativieren, brauchen wir es als (hypothetischen) Ausgangspunkt für das Interpretieren, das als professionelles Handeln seinerseits auf ein (Handlungs)ergebnis gerichtet ist, das wir ebenso ›Verstehen/Verständnis‹ nennen wie den Ausgangspunkt des Interpretierens.«

Demnach schiebe sich das professionelle Interpretieren als kritische Rekonstruktion und methodische Absicherung »gewissermaßen zwischen ein erstes und ein zweites, modifiziertes, spezifiziertes, diskursiv begründetes Textverständnis« (Biere 2007, S. 16). Das ist der entscheidende Punkt im Hinblick auf die Problematisierung von Vorwissen als möglichen Bias-Faktor – der reflektierte und professionelle Umgang damit, statt artifizieller methodischer Aushebelungsversuche.

Nun sind diese Übertragungen der Ideen der traditionellen auf eine linguistische Hermeneutik geprägt vom konventionell-lesenden Zugriff auf die sprachlichen Gegenstände des Verstehens. In einem korpuslinguistischen Forschungsprozess treten zu dieser Zugriffsform andere, sprachstatistische, nicht unbedingt auf die Textlinearität und -kohärenz ausgerichtete, auch textübergreifende Methoden hinzu. Hier relevant ist vor allem die Unterscheidung zwischen corpus-based- und corpus-driven-Ansätzen, also theorie- bzw. hypothesengeleitetem und datengeleitetem Vorgehen. Geprägt und ausführlich beschrieben wurde diese Unterscheidung von Tognini-Bonelli (2001). Bezüglich des Begriffs corpus based thematisiert sie die Reflexion von Theorien durch Korpusanalysen, »to expound, test or exemplify theories and descriptions that were formulated before large corpora became available to inform language study« und die Notwendigkeit der Explizierung »the theory would have to be put into an explicit form so that those aspects of corpus patterning that it covered could be distinguished from those where the theory did not cover […]« (Tognini-Bonelli 2001, S. 65) – ein zentraler Gedanke auch dieses Beitrags, insbesondere im Hinblick auf die Kategorienbildung im Rahmen von Annotationsprojekten.

Kontrastiv beschreibt Tognini-Bonelli die corpus-driven-Perspektive als auf der Evidenz der Korpusdaten aufbauende und diese reflektierende Theoriebildung:

The theory has no independent existence from the evidence and the general methodological path is clear: observation leads to hypothesis leads to generalisation leads to unification in theoretical statement. It is important to understand here that this methodology is not mechanical, but mediated constantly by the linguist, who is still behaving as a linguist and applying his or her knowledge and experience and intelligence at every stage during this process. There is no such a thing as pure induction [...] (Tognini-Bonelli 2001, S. 84 f.)

Diese Relativierung ist im vorliegenden Zusammenhang wichtig, denn sie stellt einen Anknüpfungspunkt an den Vorwissensaspekt dar, der hier mit Blick auf die Problematisierung der Hermeneutik diskutiert wird. Dieser Aspekt wird im corpus-driven-Ansatz jedoch nur am Rande relativierend berücksichtigt. Im Vordergrund der datengeleiteten Perspektive steht vor allem die Möglichkeit, Phänomene und Zusammenhänge zu entdecken, die ohne quantitative Korpusdaten-Analysen gar nicht sichtbar werden könnten.

Datengeleitete Verfahren werden in der Korpuslinguistik aber nicht nur durch statistisch-quantifizierende Methoden implementiert, auch qualitative Zugriffe werden datengeleitet modelliert unter Rückgriff auf Methoden aus der empirischen Sozialforschung. Schon erwähnt wurde die Grounded Theory, die – wie von Scharloth vorgeschlagen – sprachstatistisch umgesetzt werden kann, aber auch im Zuge der Kategorienbildung in Annotationsprojekten. Sie stellt aber nur einen von mehreren Ansätzen in den Sozialwissenschaften dar, in einem Spektrum unterschiedlich stark ausgeprägter Tendenz zur induktiven Kategorienbildung. Eine weitere Beispielmethode ist die qualitative Inhaltsanalyse mit induktiven Kategorisierungsschritten (nach vorläufigen deduktiven), z. B. nach Mayring (2010) und Gläser und Laudel (2010), angewendet im linguistischen Forschungskontext bei Bender (2016). Auch innerhalb der Grounded Theory Methodologie (entwickelt von Glaser und Strauss 1967) haben sich unterschiedlich streng datengeleitete Ausprägungen ausdifferenziert. Während Glaser radikaler die rein induktive Richtung vertritt, beschreibt Strauss später Vorwissen als wertvollen »Stimulus« (Corbin/Strauss 2015, S. 33), der zur Theoriebildung genutzt werden kann, aber kritisch hinterfragt werden muss und nicht als leitendes Theoriemodell den Blick auf die Daten verstellen darf. Eine trennscharfe Abgrenzung wird diesbezüglich allerdings nicht gegeben und ist so pauschal aufgrund der Komplexität von Verstehens- und Interpretationsprozessen – wie sie in der Hermeneutik diskutiert werden – auch gar nicht zu treffen. Sinnvoll erscheint es eher, unangemessen prägende Einflüsse und Verzerrungen durch gegebene Theorien systematisch zu durchkreuzen, beispielsweise mit datengeleitet-quantifizierenden korpuslinguistischen Verfahren, aber auch mit bewusst regelgeleiteter hermeneutischer Interpretation und Kategorisierung sowie der Reflexion von Annahmen nach Gadamers Konzept des produktiven Vorurteils (vgl. Gadamer 1960, S. 304) und ihrer Nutzung für das Erkennen von Forschungslücken. Wenn die induktive Kategorisierung mit solchen Vorannahmen bzw. dem Vorwissen konfligiert, also eine überraschende Beobachtung gemacht wird, kommt ein Prozess zum Tragen, der mit dem Begriff Abduktion bezeichnet wird.

Reisigl definiert Abduktion nach Peirce als »ersten Schritt im gesamten Prozess des Folgerns, an den die Induktion und die Deduktion als weitere Verfahren des Schließens anknüpfen können« und als das »kreative Moment im Bereich des Entdeckungszusammenhangs, bei dem eine mögliche Erklärung für eine überraschende Beobachtung oder Erfahrung als Hypothese mit einer gewissen Wahrscheinlichkeit aufgestellt wird« (Reisigl 2014, S. 16 f.). Felder (2012, S. 125 f.) führt ebenfalls die Vorläufigkeit solcher »Vermutungen über Regularitäten im diskursiven Sprachgebrauch« als charakteristisches Merkmal von Abduktion auf. Dieser Aspekt der Initialisierung und Vorläufigkeit (siehe dazu auch Jacob in diesem Band) ist auch in Bezug auf die Diskussion um Vorwissen im hermeneutischen Forschungsprozess relevant. Allerdings würde es zu kurz greifen, das Verständnis von Abduktion auf die Forschungsprozesse initiierende, vorläufige, wahrscheinlichkeitsorientierte Hypothesenstellung zu beschränken. Abduktion ist nicht nur als durch Irritation bedingte Reaktion zu verstehen, sondern auch als Operation der iterativ-inkrementellen Neukonfigurierung von Kategoriensystemen bzw. theoretischen Modellen im Zuge der empirisch gestützten Theorieentwicklung. Auf diese Aspekte der Abduktion, die wir (vgl. Bender/Müller 2020, S. 17 f.) bisher vor allem im Rahmen der sukzessiven Kategorienbildung für Annotationsschemata diskutiert haben, wird in Kapitel 3 ausführlicher eingegangen. Hier sei lediglich festgehalten, dass in diesem methodischen Konzept die Nutzung von Vorwissen in Form von vorläufigen Verständnismodellen von entscheidender Bedeutung ist und im Rahmen der sukzessiven Überprüfung, Weiterentwicklung bzw. Ausdifferenzierung dieser Annahmen das iterative Einbeziehen weiterer Beobachtungen, aber auch weiterer relevanter Vorwissenskomponenten angelegt ist. Letzteres stellt eine zentrale Vorgehensweise im folgenden exemplarischen Projekt dar.

2.2 Exemplarische Projektbeschreibung – Vorwissen zu einer Theorie des Kommentierens

Eine Form der korpusgestützten Theoriebildung, die theorie- bzw. hypothesen- und datengeleitete Verfahren kombiniert, illustriere ich im Folgenden am Beispiel der Entwicklung einer Theorie des Kommentierens. Ausgangspunkt ist die Fragestellung, wie sich Kommentieren als sprachliche Praktik theoretisch kategorisieren und modellieren sowie linguistisch beschreiben lässt. Im Hinblick auf Kommentieren wird dem mikrostrukturell-konversationsanalytischen Praktikenbegriff nach Deppermann, Feilke und Linke (2016, S. 13, mit Verweisung auf Schegloff 1997) gefolgt: »Praktiken sind kontextgebundene Einsatzroutinen von beobachtbaren, formbezogen beschreibbaren Ressourcen, die als solche noch keine Praktik sind und auch keine volle Handlungsbedeutung haben, sondern allenfalls ein Funktionspotenzial.« Die Theoriebildung umfasst als Zieldimensionen also zum einen ein Kategoriensystem, das die Praktik mit ihren möglichen Komponenten und Varianten auf einem gewissen Abstraktionsgrad abbildet (type-Ebene) – als echtes Merkmalsbündel, nicht als Bündelung oder Umwidmung anderer Praktiken wie z. B. Bewerten, Argumentieren oder ganz allgemein Positionieren. Zum anderen umfasst sie ein Instrumentarium zur Beschreibung und Analyse konkreter Vorkommen und Gebrauchsphänomene (token-Ebene). Ohne die Auseinandersetzung mit vorhandenen Konzepten zum Begriff Kommentieren ist eine solche Theorie nicht zu haben. Bisherige Erkenntnisse und Überlegungen zum Thema bzw. Begriff einfach zu ignorieren oder bewusst methodisch durch den Versuch reiner Induktion auszublenden wäre wissenschaftlich fragwürdig, weil man eventuell zielführende Aspekte nicht berücksichtigen würde. Eine solche Art der Fragestellung, die auf die Reflexion und Weiterentwicklung eines begrifflich bereits gefassten Konzepts zielt, das im sprachwissenschaftlichen und alltäglichen Gebrauch ist, ist für eine datengeleitete Initiierung des Forschungsprozesses weniger geeignet als andere.

Aber wie kommt man überhaupt zu der Fragestellung bzw. dem Ziel, Kommentieren theoretisch fassen zu wollen? Anlass für eine solche Fragestellung ist einerseits die Wahrnehmung eines auffälligen bzw. überraschenden Phänomens, das man zu verstehen versuchtFootnote 1 (Ein Beispiel dazu aus dem exemplarischen Projekt wird am Anfang des Kapitels 3.2 gegeben). Anderseits kann eine solche Irritation zur Entdeckung eines auch theoretischen Desiderats, einer Forschungslücke in der theoretischen Erfassung sprachlicher Phänomene führen. Diese Lücke wird sozusagen ex negativo aus dem disziplinären Vorwissen konstituiert. Sie setzt voraus, dass man den Stand der Forschung im relevanten Zusammenhang kennt, der hier aber nur stichpunktartig aufgeführt werden kann (ausführlichere Darstellung vgl. Bender 2022).

Im Falle des Kommentierens umfasst das erstens Konzeptualisierungen bzw. Bedeutungsbestimmungen im Rahmen der etymologischen Beschreibung der Wörter Kommentieren und Kommentar. Dazu gehört zum einen das Verständnis vom gelehrten, wissenschaftlichen Kommentieren als Kulturtechnik der Erläuterung und Auslegung (eine Verbindung zwischen Kommentieren und Hermeneutik) vor allem in der Philologie, der Theologie und der Rechtswissenschaft. Zum anderen umfasst die Etymologie auch den modernen Gebrauch im Zusammenhang mit meinungsbetonten Äußerungsformaten – von der journalistischen Textsorte bis zum Online-Kommentar und bezieht sich vor allem auf den Alltagsgebrauch. Zweitens ist der Forschungsstand in der Textlinguistik zu kommentierenden (vor allem journalistischen) Textsorten zu berücksichtigen, wobei die Prägung von Textmustern durch Meinungsäußerung, Bewertung und Persuasion im Mittelpunkt stehen. Die Bewertungs- und Meinungskomponente wird drittens auch im gesprächslinguistischen Begriffsgebrauch fokussiert, der sich auf Hörerrückmeldungen bezieht. Im Hinblick auf diverse Online-Anschlusskommunikationsformen unter der Überschrift ›Kommentare‹ (o. Ä.) werden viertens meistens ebenfalls bewertungs- bzw. meinungsbetonte Stellungnahmen (Stance-Taking) bzw. Positionierungspraktiken in den Blick genommen, die jedoch nicht mit einer linguistischen Kategorie des Kommentierens gleichzusetzen sind. Allerdings sind alle diese Ansätze auch nicht auf ein konsistentes sprachwissenschaftliches Theorie-Konzept des Kommentierens ausgerichtet, sondern verwenden den Begriff in Anlehnung an das Alltagsverständnis als Bezeichnung für andere Praktiken, die terminologisch auch schon anderweitig abgedeckt sind. Fünftens sind Ansätze mit sprachsystematischem Anspruch im Bereich der (Morpho-)Syntax relevant, etwa im Hinblick auf die kommentative Funktion von metadiskursiven Einschüben, Korrekturen etc. (vgl. Samain 2021, S. 3f.) oder die Topik-Kommentar-Gliederung in der Informationsstruktur (vgl. Dürscheid 2010, S. 182–184), die jedoch wiederum bereits erwähnte soziopragmatisch-kommunikative Aspekte des Kommentierens nicht abdecken.

Auf eine spezifische Praktik des Kommentierens ausgerichtet ist hingegen Posners – »Theorie des Kommentierens« – zumindest auf den ersten Blick. Sie ist zwar nicht gerade aktuell (Dissertation aus dem Jahr 1972) und geht auch zunächst ebenfalls von einer sehr allgemeinen Definition des Kommentierens als Stellungnahme in allen möglichen Kontexten aus. Als Untersuchungsgegenstände werden vor allem selbst konstruierte, als dialogisch-gesprochen konzipierte Satzpaare aufgeführt, aber Posner gibt als Beispiel zum Einstieg auch eine nonverbale Reaktion (Hinterherpfeifen) auf nicht-sprachliches und nicht-kommunikativ-intentionales Verhalten (Gangart einer Passantin) an (vgl. Posner 1972, S. 2). Doch der Ansatz bietet trotz alledem ein zunächst einmal sehr überzeugendes Beschreibungsschema, das zentrale Komponenten des Kommentierens sowie verschiedene Ausprägungen dieser Komponenten umfasst.

Dazu kann hier nur ein knapper Überblick gegeben werden (ausführlicher in Bender 2024; 2020a). Posner unterscheidet drei grundlegende Komponenten: Mit Kommentandum wird die Voräußerung bezeichnet, die kommentiert wird. Das Kommentat ist der genaue Ausschnitt aus dem Kommentandum, der beim Kommentieren wiederaufgenommen wird, sei es als Zitat, Reformulierung, deiktische Verweisung oder implizite Bezugnahme. Beim Kommentor handelt es sich um die Versprachlichung der angeschlossenen Information in der Kommentierung. Im Hinblick auf die Informationsstruktur gibt es hier Parallelen zur Topik-Kommentar-Gliederung (vgl. Dürscheid 2010, S. 182–184). Funktional führt Posner sowohl reine Kurzbewertungen auf, also eine Prädikation zur Referenz im Kommentat, als auch komplexere Aussagen mit eigenständiger/n Proposition/en. In der im Folgenden beschriebenen Theorieentwicklung werden diese beiden Formen allerdings abgegrenzt und der Propositionalitätsaspekt als prototypisches Merkmal des Kommentierens herausgearbeitet. Des Weiteren differenziert Posner unter anderem zwischen direkten und indirekten Kommentierungen. Direkte Kommentierungen behalten den Wortlaut der Voräußerung bei, zitieren wörtlich oder verweisen anaphorisch auf sie. Indirekte Kommentierungen hingegen reformulieren abweichend oder machen Implizites explizit, perspektivieren also potenziell schon durch die Kommentat-Gestaltung die Voräußerung neu. Außerdem unterscheidet Posner Lokutions- und Illokutionskommentierungen, also dahingehend, ob die semantische oder pragmatische Ebene der Voräußerung kommentiert wird (vgl. Posner 1972, S. 25–29 sowie 48f.).

Einige andere Facetten wie z. B. verschiedene Realisierungsformen an der sprachlichen Oberfläche würden an dieser Stelle zu sehr ins Detail führen, vor allem vor dem Hintergrund, dass Posner dieses Beschreibungsmodell gar nicht einsetzt. Letztlich setzt er nur direkte Kommentierungen ein, um über die direkte Kommentierbarkeit die kommunikativen Relevanzschwerpunkte von Voräußerungen zu analysieren und diese formal-semantisch zu modellieren. Es handelt sich also um eine Theorie der Kommentierbarkeit, nicht des Kommentierens. Alle anderen Typisierungen werden nicht weitergeführt, sind im Hinblick auf eine umfassende Theorie des Kommentierens aber vielversprechend und werden im hier als Beispiel dienenden Projekt einbezogen. Denn diese Beschreibungskategorien stellen als zu reflektierende Vorwissenskomponenten in Kombination mit den anderen aufgeführten Ansätzen einerseits lose Enden, andererseits aber sehr gute Ausgangspunkte dar.

Es gilt zu überprüfen, wie gut sie sich als Analyseinstrumente für verschiedene authentische Sprachdaten bzw. -formate eignen – jenseits der artifiziell konstruierten Satzpaare in Posners Ausführungen, also in verschiedenen Korpora, die unterschiedliche kommunikative Gattungen und Kontexte abdecken. Im Zuge dessen und des weiteren Forschungsprozesses kommen außerdem sukzessive weitere linguistische Vorwissensaspekte zum Tragen, beispielsweise konversations- bzw. sequenzanalytische Ansätze oder Aspekte der Kohärenz und Themenprogression, wenn Kommentierungen in ihrer echten ko(n)textuellen Umgebung untersucht werden. Dabei kommt es auch immer wieder zu mehr oder weniger überraschenden, jedenfalls irritierenden Wahrnehmungen von Abweichungen, die nicht ohne Weiteres in Posners Schema passen oder mit dem Konzept der meinungsbetonten Positionierung nicht abgedeckt sind.

Beispielsweise muss das Analyseschema angepasst werden, wenn funktional kommentierende Äußerungen über Zwei-Sätze-Sequenzen hinausgehen. Alleine die sprachliche Oberfläche bietet insofern eine Vielfalt an Ausdifferenzierungsmöglichkeiten oder besser -bedarfen. Funktional treten in Kommentierungsszenarien z. B. auch retrospektive Äußerungen auf, in denen die Funktion der propositionalen Verknüpfung und dadurch der Themensetzung, -steuerung und Neukontextualisierung im Vordergrund steht – auch entgegen der konditionalen Relevanzsetzung im Kommunikationsverlauf (vgl. Bender 2024; 2020a) –, und nicht die evaluativ-persuasive Meinungsäußerung. Diese Beobachtung führt zu der Hypothese, dass diese Funktionen den eigentlichen Kern der Praktik des Kommentierens bilden. Auch bestimmte Frageformen, die Posner kategorisch vom Kommentieren abgrenzt, können einen eigenständigen propositionalen Gehalt und somit eine Kommentierungsfunktion aufweisen – z. B. die Whataboutism-Fragekonstruktion (Was ist mit X?) (vgl. Bender 2024). Vorwissen fließt in diesem Ansatz also in Form von verschiedenen linguistischen Theoriemodellen in einen iterativ-inkrementellen Forschungsprozess im Zuge der empirischen Sprachdatenanalyse sukzessive in die Theoriebildung ein, nicht als ein Schema, das den Erkenntnisprozess lenkt. Modelliert wird es im Rahmen von Annotationsstudien durch die Ausdifferenzierung und iterative Konfiguration des Kategoriensystems als Tagset und die adaptierende Ausformulierung von Annotationsrichtlinien. Zusätzlich wird dieser Prozess ›durchkreuzt‹ von datengeleiteten Verfahren, die wiederum zu neuen theoretischen Perspektiven führen können. Dieser iterativ-inkrementelle Prozess wird im folgenden Kapitel vor dem Hintergrund der auf die Hermeneutik bezogenen Zirkularitätsmetapher am Beispiel beschrieben.

3 Zirkularitätsmetapher vs. iterativ-inkrementeller Abduktionsprozess

3.1 Theoretische Reflexion der korpushermeneutischen Prozesshaftigkeit

Die im vorigen Kapitel diskutierten Aspekte des Vorwissens und der theorie- und hypothesengeleiteten Prozesshaftigkeit des Verstehens werden im Hinblick auf die Hermeneutik mit der Problematisierung zirkulärer Schlussverfahren in Verbindung gebracht. Der auch außerhalb der Wissenschaft weithin bekannte Begriff des hermeneutischen Zirkels legt diesen Gedanken nahe. Kern der Idee des hermeneutischen Zirkels, den schon Friedrich Schleiermacher kritisch als »scheinbaren Kreise« des Verstehens bezeichnet, ist der Gedanke, »daß jedes Besondere nur aus dem Allgemeinen, dessen Teil es ist, verstanden werden kann und umgekehrt« (Schleiermacher 1977 [1838], S. 95). Das Zirkuläre wird in der traditionellen Hermeneutik jedoch nicht, wie sonst in wissenschaftlichen Methodologien (etwa im Hinblick auf Schlussverfahren), als Problematik gesehen, sondern als im positiven Sinne vertiefende Denkbewegung, in die sukzessive hineinzukommen erstrebenswert ist. Im Rahmen der Entwicklung einer linguistischen Hermeneutik bezeichnet Fritz Hermanns (2007, S. 141 f.) diese Perspektive als »Mirandum«, als »geheimnisvollen Ratschlag«, der »zum staunenden Bewundern« anregt, und fügt hinzu: »Da sich LinguistInnen in ehrfurchtsvollem Staunen nicht so gern ergehen, sollten sie auf die Bezeichnung Zirkel des Verstehens ganz verzichten. Schon Top-down-plus-bottom-up-Verstehen ist insoweit besser – wenn auch nicht zureichend – weil ganz ohne Suggestion von Esoterik« (Hermanns 2007, S. 142). Hermanns löst dieses »Mirandum« unter Rückgriff auf Überlegungen Schleiermachers weiter auf, differenziert unterschiedliche Interdependenzen zwischen Generellem und Speziellem (Type-Token-Analogie, siehe Kapitel zwei), Teil und Ganzem (einzelnen »features« (Hermanns 2007, S. 143) und ganzheitlichen Merkmalen wie Gestalt oder Kontur) sowie vor allem verschiedene Phasen des Verstehens (und Auslegens) in einem Prozess, der keineswegs zirkulär angelegt ist. Die Beschreibung eines ersten vorläufigen Verständnisses und eines zweiten, diskursiv explizierten Verständnisses durch Biere (2007, S. 16) sowie die Aktivierung schematischen Vorwissens als Reaktion auf Wahrnehmungen wurde im vorigen Kapitel schon erwähnt.

In wissenschaftlichen Kontexten (unter anderen) gilt es, einerseits Wahrnehmungen, insbesondere für Forschungsfragen relevante, methodisch herbeizuführen und andererseits mit den ausgelösten Aktivierungen im Verstehensprozess professionell und regelgeleitet nach wissenschaftlichen Kriterien umzugehen – im Sinne der etischen Kontextualisierung nach Müller »als heuristisches Verfahren des regelgeleiteten Nachvollzugs von Prozessen der Sinnkonstitution« (Müller 2015, S. 78 f. und in diesem Band). Dieses durch Regeln disziplinierte – und somit prinzipiell objektivierbare und explizierbare – Verstehen (siehe nächstes Kapitel) bezeichnet Dilthey mit dem Begriff Interpretation (vgl. Dilthey 1990 [1894], S. 319 und Müller in diesem Band). An dieser Stelle ließen sich also die Phasen (evozierte) Wahrnehmung, (reflektierte) Aktivierung und Anknüpfung von Wissensbeständen (Schemata usw.), (regelgeleitetes) Verstehen/Interpretieren und Explikation/Kommunikation/diskursive Aushandlung als Verfahrensablauf festhalten. Doch damit ist die Komplexität des in der Hermeneutik beschriebenen Verstehens nicht ausreichend erfasst. Denn ihr zentrales Prinzip ist iterativ und auch inkrementell als »Ineinandergreifen von top-down und bottom-up-Prozessen« (Biere 2007, S. 18) konzeptualisiert, oft eher irreführend als Zirkel dargestellt und entsprechend problematisiert.

Dieser hermeneutische Prozess wird hier auf Verfahrensschritte der digitalen Korpuslinguistik übertragen – exemplarisch gezeigt am beschriebenen Beispiel. Er wird initiiert, durchsetzt und geprägt von abduktiven Schritten auf der Basis von erklärungsbedürftigen Beobachtungen – sowohl im Zuge der Kategorienbildung für eine Annotationsstudie als auch in Bezug auf die vor-, zwischen- und nachgeschalteten statistischen Schritte und Entscheidungen der (Sub‑)Korpusbildung. Als ein zentraler Denkvorgang der Abduktion bereits aufgeführt wurde das Erstellen einer Hypothese über eine Regularität, die eine überraschende Beobachtung vorläufig erklärt und Ausgangspunkt von Überprüfungen ist. Dies kann sich beziehen auf die Initialisierung eines Forschungs- bzw. Theoriebildungsprozesses, aber auch auf Zwischenschritte. Allerdings wird der Begriff der Abduktion in der einschlägigen Literatur und auch von Peirce selbst unterschiedlich gebraucht (vgl. Reichertz 2003, S. 19 ff.). So weitet Eco beispielsweise den Begriff stark aus, indem er Abduktion als Grundlage aller Interpretationen ansieht (vgl. Eco 1987, S. 45), allgemein als konjekturales Denken versteht (dem Zusammendenken von allgemeinem Gesetz und spezifischen Gegebenheiten, insofern eine Parallele zum hermeneutischen, scheinbaren Zirkel) und verschiedene Formen veranschlagt (Eco 1985, S. 298–301). Wirth postuliert hingegen, dass abduktive Schlussfolgerungen im Sinne einer forschungsökonomischen Optimierungsstrategie auf die beste bzw. wahrscheinlichste und plausibelste Erklärung für Problemstellungen zielen (Wirth 1999, S. 123). Peirce misst jedoch eben nicht den auf Wahrscheinlichkeit ausgerichteten Hypothesen besonderen Wert zu, sondern gerade der Entwicklung neuer Lesarten und dem Testen auch ungewöhnlicher Hypothesen, das gerade nicht auf optimierte Wahrscheinlichkeitskalkulation und Zeiteffizienz ausgerichtet ist (Peirce CP 5.599).

Im hier beschriebenen Forschungsprozess wird beides berücksichtigt. Denn es schließt sich ja nicht aus, Plausibilität und Transparenz in der Kategorienentwicklung im Rahmen der Theoriebildung anzustreben und dabei Vorwissensstrukturen zu hinterfragen und zugleich offen zu sein für das Konstruieren oder die Ausdifferenzierung und Neukonfiguration bzw. Neuausdeutung im Falle des Scheiterns von deduktiv vorausgesetzten Regeln zur Einordnung von Phänomenen (vgl. Reichertz 2003, S. 53–64). Wenn also ein aufgefundenes Phänomen als token im Sinne eines Merkmalsbündels keiner im vorläufigen Annotationsschema angenommenen Kategorie im Sinne eines types durch qualitative Induktion zugewiesen werden kann, weil es nicht mit der Merkmalskombination dieses Typus in Einklang zu bringen ist, muss ein neuer, entsprechender Typus entworfen bzw. gefunden oder umkonfiguriert werden (vgl. Reichertz 2003, S. 48–50). Diese prinzipielle Offenheit des Kategoriensystems und die sukzessive Kategorien(system)bildung finden sich auch in den bereits erwähnten Ansätzen der qualitativen Sozialforschung, wie z. B. in Formen der qualitativen Inhaltsanalyse und der Grounded Theory. Die beschriebene abduktive Neukonstruktion bzw. -konfiguration ist im Beispiel-Annotationsprojekt zum Kommentieren jedoch kein rein individueller Erkenntnisprozess, sondern wird erstens möglichst transparent in der Guideline-Formulierung expliziert und in kollaborativen Phasen mit zwei oder mehreren Annotierenden auch als diskursiver Aushandlungsprozess von types im Sinne von Kategorien umgesetzt (zur intersubjektiven Aushandlung, siehe Kapitel 4).

3.2 Exemplarische Projektbeschreibung – Abduktion und sukzessive Kategorienbildung

Als erster Studiengegenstand wurden Zwischenrufe in Plenardebatten des Deutschen Bundestages ausgewählt. Für diese Selektionsentscheidung gibt es zwei Gründe.

Als erster Grund ist die oben beschriebene Beobachtung einer Auffälligkeit zu nennen, die im Zuge der linguistischen Korpusarbeit mit Plenarprotokollen in einem anderen Kontext zu einem gewissen Überraschungs- oder Abweichungsirritationseffekt geführt hat – und zwar wie folgt: Zunächst als naheliegend aufgefasst wurde die Hypothese, dass Zwischenrufe, die über reines Backchannel-Behavior und Kurzbewertungen hinausgehen und zusätzliche Informationen bzw. Diskussionsinhalte einbringen, eher Reaktionen evozieren und zur thematischen Progression der Debatten beitragen. Diese Annahme muss jedoch in Zweifel gezogen werden, weil im Zuge der explorativen Korpusarbeit überraschenderweise kaum Belege dafür entdeckt wurden, sondern vor allem Beispiele für Reaktionen auf propositional weniger komplexe Kurzbewertungen, Vorwürfe etc. Burkhardt, der in der Politolinguistik für Forschung zu Zwischenrufen einschlägig ist, stellt fest, dass so genannte durch Zwischenrufe initiierte »Mini-Dialoge« (Burkhardt 2004, S. 603) häufiger werden (diachron verglichen auch mit älteren Debatten, z. B. in der Paulskirche 1948, im Reichstag 1879), aber »immer seltener zur Führung eines wirklich sachorientierten Kurzgesprächs genutzt werden« (Burkhardt 2004, S. 604 f.) – und auch in seinen Beispielen sind nahezu ausschließlich Zwischenrufe zu finden, die den bewertenden Hörer-Rückmeldungen ohne eigene inhaltliche Komponente zuzuordnen sind, wie hier:

Zywietz (FDP): [ . . .]

Auch die Menschen in der Fläche haben einen Anspruch auf eine vernünftige Verkehrsbedienung.

   (Haar [SPD]: Das ist blanke Demagogie ! - Weiterer Zuruf von der SPD: Das ist Unwissenheit.)

Und die geht nur über einen vernünftigen Straßenausbau.

   (Beifall bei der FDP und der CDU/CSU)

Das ist nicht Unwissenheit, sondern das ist genau der Punkt. Und Sie würden nicht so heftig reagieren, wenn Sie sich nicht auf dem verkehrten Fuß ertappt fühlten.

   (Frau Faße [SPD]: Unmöglich! Keine Ahnung!)

Ja, aber Sie haben davon reichlich, wie ich gehört habe. (Plenarprotokolle des Deutschen Bundestages, CQPweb-Korpus des DiscourseLab, Text-ID: 11_156_00192, zitiert nach Burkhardt 2004, S. 609)

Im Zuge der Exploration fanden sich hingegen bei den Zwischenrufen, die einen neuen Inhaltsaspekt in die Debatte einführen bzw. ein neues Topik zu setzen versuchen, wie z. B. »Das ist gegen die Arbeitsplätze!« (Max Straubinger [CDU/CSU] 30.06.2017, Plenarprotokolle des Deutschen Bundestages, CQPweb-Korpus des DiscourseLab, Text-ID: 18_244_00063), kaum Reaktionen der Redner/innen, selbst bei Zwischenrufen, in denen durch Reformulierungen von vorgängigen Redepassagen verstärkt Dialogizität hergestellt wird, wie z. B. hier:

Sabine Leidig (DIE LINKE), 30.6.2017: Frau Präsidentin! Werte Kolleginnen und Kollegen! Liebe Gäste auf der Tribüne! Ich bin erstaunt, dass die Grünen jetzt mit der CDU darum wetteifern, wer die Automobilindustrie am besten befriedigen kann. (Cem Özdemir [BÜNDNIS 90/DIE GRÜNEN]: Es geht nicht ums »Befriedigen«! Das ist eine Schlüsselindustrie! 800 000 Jobs!) (Plenarprotokolle des Deutschen Bundestages, CQPweb-Korpus des DiscourseLab, Text-ID: 18_244_00063)

Diese – noch nicht repräsentative – Beobachtung hat nicht nur zu genaueren Untersuchungen dieses spezifischen (Nicht‑)Zusammenhangs angeregt, sondern auch zur Frage nach verschiedenen Formen, Funktionen und interaktional-kommunikativen Wirkungen von Kommentierungen im Allgemeinen geführt, woraus die Idee einer neuen, korpusgestützten Theorie des Kommentierens entwickelt wurde.

Den zweiten Grund für die Auswahl dieser Daten für eine Studie zum Kommentieren stellen die oben beschriebenen Vorwissensaspekte dar. Zwischenrufe sind retrospektive, auf Voräußerungen bezogene, konditional nicht relevant gesetzte (nicht vorgesehene, nur geduldete) ›Stellungnahmen‹, um den sehr allgemeinen Begriff aus den aufgeführten Definitionen zu verwenden. Sie sind geprägt durch die Akteurs- bzw. Parteienkonstellation im Bundestag, in der Regel durch das Verhältnis Regierung-Opposition. Hinzu kommt die »Mehrfachadressiertheit« (Burkhardt 2004, S. 147) im Rahmen des »Schaufensterparlamentarismus« (Burkhardt 2004, S. 570). Zwischenrufe werden also normalerweise vor dem Hintergrund der Gegnerschaft in der politischen Positionierung geäußert. Dissens, Agonalität und Bewertungen sind daher erwartbar. Es liegt insofern nahe, dass Zwischenrufe Kommentierungen sind, die größtenteils dem Prototyp im Alltagsverständnis, aber auch nach jenem sprachwissenschaftlichen Verständnis, das bewertende Meinungsäußerung als zentral ansieht, entsprechen. Fälle, auf die das nicht unbedingt zutrifft – also inhaltliche Beiträge, auch komplexere als die oben als Beispiele aufgeführten – fallen in diesem Szenario auf und bewirken, dass eine angemessene Kategorisierung in einer Theorie des Kommentierens entwickelt werden muss. Deshalb erscheint eine Klassifizierung von Zwischenrufen als guter Ausgangspunkt für die Theoriebildung und der Aspekt der eigenständigen Propositionalität und Kontextualisierung als relevante Kategorisierungsperspektive.

In einer ersten explorativen Annotationsrunde wurden zunächst als Zwischenrufe ausgezeichnetes nonverbales Backchannel-Behavior wie Beifall und nicht wörtlich transkribierte Äußerungen – z. B. als Rufe von rechts als Kategorien separiert. Außerdem bieten sich Kurzbewertungen wie Unsinn! oder Sehr richtig! als Kategorie an, die häufig erscheinen und sich von komplexeren Einrufen mit zusätzlichem propositionalem Gehalt abgrenzen lassen, die eher dem inhaltlich-thematisierenden Kommentierungsverständnis (wenn auch nicht dem erläuternden) entsprechen. Diese erste Kategorisierung hat sich im Zuge der weiteren explorativen Annotation jedoch nicht als ausreichend feingranular für eine exhaustive und distinktive Typologie erwiesen. Eine abduktive Ausdifferenzierung und Neukonfiguration war erforderlich, die zusätzlich metakommunikative Kategorien wie Ordnungsrufe und Anmahnungen thematischer Abweichung, einbezieht, aber auch verschiedene Fragetypen, die je nach eigenem propositionalen Gehalt, Erotetizität (echtem Wissensbedarf) und Rhetorizität ebenfalls eine thematisierend-kontextualisierende Kommentierungsfunktion haben können (vgl. Bender 2024). Neben Einrufen, deren propositionaler Gehalt nicht über eine Zustimmung/Ablehnung, Bewertung, (Des)Interessens- oder (Nicht‑)Relevanzbekundung hinausgeht, konnte auch in diesem – obschon durch Gegnerschaft und Streit geprägten – Kommunikationsformat diese Funktion des (meist kontrastiven) Topiksetzens und der Einführung zusätzlicher Kontexte als zentrale Praktik des Kommentierens herausgearbeitet werden, die in verschiedenen Formen (auch in Frageform) auftritt. Hier einige Beispiele:

Es geht um Opfer von Menschenrechtsverletzungen!

(Katharina Dröge [BÜNDNIS 90/DIE GRÜNEN], 14.12.2018, Plenarprotokolle des Deutschen Bundestages, CQPweb-Korpus des DiscourseLab, Text-ID: 19_072_00128)

Sagen Sie doch einmal etwas zur Unterwanderung durch Rechtsextreme! Kein Wort zu Rechtsextremen in der Polizei!

(Matthias W. Birkwald [DIE LINKE], 27.6.2019, Plenarprotokolle des Deutschen Bundestages, CQPweb-Korpus des DiscourseLab, Text-ID: 19_107_00032)

Was ist mit den Arbeitslosen?

(Richard Stücklen [CDU/CSU], 24.1.1974, Plenarprotokolle des Deutschen Bundestages, CQPweb-Korpus des DiscourseLab, Text-ID: 07_076_00370)

Letztlich wurde also eine Annotation ganzer Zwischenruf-Sätze nach pragmalinguistisch-funktionalen Kriterien durchgeführt. Dabei wurden typisierende Kategorien entwickelt. Flankiert wird dies durch datengeleitete Analysen wie z. B. N‑Gramm-Berechnungen, die häufige Konstruktionen im Allgemeinen und solche thematisierend-kontextualisierenden Konstruktionen wie in den Beispielen (Es geht um X, Sagen Sie doch mal etwas zu X oder Was ist mit X?) im Besonderen sichtbar machen, und maschinelle Verfahren wie z. B. die Anwendung eines Recommender-Algorithmus, beide auch als Objektivierungsstrategie eingesetzt und deshalb im nächsten Kapitel ausführlicher erläutert. Zugleich bilden diese Verfahren aber auch Schritte im iterativ-inkrementellen Forschungsprozess und führen zu Ausdifferenzierungen und Neukonfigurationen in der Kategorienbildung.

Im Zuge einer generischeren Theoriebildung zum Kommentieren ist allerdings auch das Einbeziehen einer Vielfalt an thematischen, sozial-kommunikativen und medialen Kontexten erforderlich. Die Kategorisierung von Zwischenrufen hat neben dem funktionalen Spektrum auch auf der Formebene vielfältige Realisierungen aufgezeigt, die aber fast ausschließlich anaphorisch (z. B. mit »Das ist …«) oder situationsdeiktisch ohne explizite Wiederaufnahme eingeleitet bzw. angeschlossen werden. Meistens wird also der Kommentat-Slot (nach Posner), eine wichtige Komponente des Kommentierens, nur pronominal gefüllt oder bleibt leer. Außerdem sind Zwischenrufe aufgrund der institutionell geprägten, situativ-kommunikativen Bedingungen von Plenardebatten in der Regel sehr kurz. Es ist anzunehmen, dass einige ›Spielarten‹ des Kommentierens dadurch gar nicht umgesetzt werden können, und die Kommentierungspraktiken in längeren, stärker konzeptionell schriftlichen Formaten, andere Umsetzungsmerkmale aufweisen.

Aus diesen Gründen müssen weitere Korpora selektiert, erstellt und erschlossen werden, um vergleichend Komponenten und Merkmale des Kommentierens erfassen zu können und in das Kategoriensystem der Theoriebildung einfließen zu lassen. Hier kann, wie erwähnt, nur ein exemplarischer Einblick in das Projekt gegeben werden. Deshalb wird im Folgenden nur auf ein weiteres Beispielkorpus eingegangen. Es besteht aus allen Blogposts und Kommentaren im Wissenschaftsblog-Portal »SciLogs – Tagebücher der Wissenschaft«Footnote 2 (vgl. Bender/Bubenhofer/Janich 2024). Die medialen Bedingungen ermöglichen in diesem Format Kommentierungspraktiken, die trotz dialogischer bzw. interaktionaler Sequenzen stärker durch Asynchronität, zeitliche Zerdehnung und die Akzeptanz auch längerer Kommentare mehr konzeptionell schriftlich geprägt ist. Zwar findet agonal-kompetitive Aushandlung von Expertise statt, allerdings kaum in Form von nicht weiter kontextualisierten Bewertungen, die bis hin zur Invektivität eskalieren. Dieses komplexere Format ermöglicht – unter anderem – Kommentieren in seiner Dynamik in längeren Kommentar-Verläufen zu untersuchen, vor allem aber zunächst z. B. Posners Kategorienschema jenseits selbstkonstruierter Satzpaare zu testen, hier nur ausschnittsweise gezeigt an einem Beispiel-Kommentar:

[…] »dass das Wirtschafts- und Gesellschaftssystem wettbewerbs- und gewinnorientiert, nicht auf Gerechtigkeit und Ausgleich ausgerichtet ist.«

Das ist aber sehr undifferenziert. Was ist mit Meinungsfreiheit, Körperlicher Unversehrtheit, Frauenwahlrecht, Abschaffung Sklaverei, Religionsfreiheit Menschenwürde …

Ihre Aussage ist ein pessimistischer Rückblick, der Fortschritte ausblendet. Ich kenne zwar auch nicht die Zukunft, aber wenn ich 100 Jahre zurückschaue und dann nochmal 100 Jahre usw. kann ich sehr wohl Verbesserungen erkennen. Ich finde auch nicht alles toll was heute so passiert, aber ich sehe optimistisch in die Zukunft. Gute Themen sind zum Beispiel das Bedingungslose Grundeinkommen, ein stark vereinfachtes Steuersystem und eLearning für die Universität. […]

(https://scilogs.spektrum.de/menschen-bilder/sorgt-euch-nicht-wie-zukunftsforscher-die-gegenwart-verkl-ren/#comment-9703, Abrufdatum: 8.3.2024)

Die Kommentierung beginnt mit einem Zitat, in dem Fall einem Ausschnitt aus einem zuvor geposteten Kommentar. Angeschlossen wird – mit anaphorischem »Das« als Kommentat-Element – eine Kurzevaluation der Aussage als »sehr undifferenziert«. Ihr folgen, angeschlossen mit einer »Was ist mit X«-Konstruktion, die hier vor allem thematisierende Funktion hat, die kontrastiven Topics »Meinungsfreiheit, Körperlicher Unversehrtheit, Frauenwahlrecht […]« etc. Nach einer metakommunikativen Beschreibung der Voräußerung (»pessimistischer Rückblick[…]«) wird zunächst die optimistische Einstellung des Kommentierenden explizit ausgedrückt. Anschließend werden wiederum »Gute Themen« gesetzt, »bedingungsloses Grundeinkommen« etc.

Die Annotation und Analyse solcher Beispiele trägt wie folgt zur Theoriebildung bei:

Erstens wird klar, dass und inwiefern Posners-Schema sowohl auf der Form- als auch auf der Funktionsebene ausdifferenziert werden muss, um Teil eines umfassenden, deskriptiven Kategoriensystems einer Theorie des Kommentierens werden zu können. Es zeigt sich, dass die Komponenten des Kommentierens jenseits von Posners Satzpaarkonstruktionen in komplexeren Äußerungen mehrfach, verteilt und in einer Vielfalt von Formen und Verbindungen vorkommen können.

Zweitens wird deutlich, dass diese Ausprägungsformen durch den medialen und konzeptuellen Rahmen bzw. die sozial-kommunikativen, situativen Kontexte bedingt sind. Insofern liegt die Exploration eines möglichst breiten Spektrums solcher Kontexte als weiterer Schritt der Theoriebildung nahe, um die Varianten des Kommentierens möglichst umfassend abzudecken.

Drittens wird sichtbar, dass solche komplexeren kommentierenden Äußerungen zwar auch z. B. bewertende Elemente umfassen können, diese aber nur einen Teilaspekt ausmachen und nicht unbedingt im Vordergrund stehen. Die Zwischenruf-Kategorisierung hat bereits gezeigt, dass reine Bewertungen und thematisch-propositionale Kontextualisierungen abgrenzbar sind und auch als Typen separat vorkommen können. Dass in komplexeren Kommentierungen vor allem die evaluativ-meinungsbetonte Perspektive als Trägerstruktur in den Blick genommen wird, ist nicht ohne Weiteres plausibel. Die Analyse wie im Beispiel – und zusätzlich in verschiedenen anderen Sprachdaten/Kontexten – führt vielmehr zu der Hypothese, dass das retrospektive Selektieren von Voräußerungsausschnitten, deren Herauslösen aus ihren Kontexten und Einbetten in neue Kontexte die entscheidende Scharnierfunktion des Kommentierens darstellt, eine rekontextualisierende Topiksetzung. Diese Funktion erscheint vielmehr als potenzielle Trägerstruktur für andere Praktiken wie z. B. Formen des Bewertens oder als Scharnier zu anderen kommunikativen Aufgaben wie der Erläuterung, Argumentation, Rollen- oder Expertisezuschreibung etc.

Sprachliche Praktiken des Bewertens, Perspektivierens oder Positionierens sind linguistisch bereits gut erforscht, auch komplexere, und nicht einfach mit Kommentieren gleichzusetzen. Ansätze zur Positionierung oder Stellungnahme bzw. Stance-Taking sind außerdem so weit/breit konzeptualisiert, dass sie eine Vielfalt an Praktiken einbeziehen und den Begriff Kommentieren – z. T. stark am Alltagsbegriff orientiert – als Bezeichnung anderer Praktiken(bündel) verwenden. Eine wirklich differenzierte Erfassung eines spezifischen Merkmalsbündels, das den Kern der Praktik des Kommentierens und seine Varianten präzise erfasst, leisten diese Ansätze jedoch nicht. Für eine weiterführende, reflektierte Theoriebildung ist es deshalb wichtig, diese etablierten Ansätze nicht einfach zu übertragen, sondern zu hinterfragen – insbesondere vor dem Hintergrund der korpusanalytischen Ergebnisse, die auf thematisch-propositionale Rekontextualisierung als relevanten Aspekt hinweisen.

Im Zuge der weiteren Annotation verschiedener kommunikativer Gattungen in unterschiedlichen Domänen/Kontexten (auch solchen, die nicht nach dem Alltagsbegriff des Kommentierens prototypisch oder entsprechend deklariert sind, z. B. wissenschaftliche Texte, Diskussionen nach Tagungsvorträgen, Unterrichtsgespräche, nicht-meinungsbetonte Pressetexte) und im synchronen und diachronen Vergleich lassen sich vor diesem Hintergrund sukzessive Hypothesen generieren und prüfen – und das theoriebildende Kategoriensystem auf der formalen und funktionalen Ebene iterativ-inkrementell immer weiter ausdifferenzieren.

4 Subjektivitätsproblematik vs. Objektivierungsstrategien

4.1 Theoretische Reflexion von korpushermeneutischer Intersubjektivität und Objektivierung

Die Hermeneutik steht als ›Kunst‹ des Verstehens und Auslegens auch wegen der damit in Verbindung gebrachten Subjektivität, mangelnden Transparenz und Reproduzierbarkeit bzw. Prognostizierbarkeit unter »Unwissenschaftlichkeitsverdacht« (Biere 2007, S. 9) – insbesondere aus der Perspektive der sogenannten exakten, erklärenden Wissenschaften mit dem Ideal der hypothetisch-deduktiven oder nomologischen Erklärung (vgl. Biere 2007, S. 7–10 sowie Müller in diesem Band). Dies muss mit der Vorwissensproblematik und Zirkularitätsmetaphorik zusammengedacht werden. Da der Aspekt der Intersubjektivitäts- und Objektivierungsstrategien zwar an Aspekte wie theoriegeleitet vs. datengeleitet anschließbar ist, aber auch darüber hinaus geht, wird er hier separat, aber mit Bezugnahmen auf die anderen Kapitel, behandelt.

Der Problematisierung der Subjektivität hermeneutischer Verstehensprozesse bzw. deren mangelnder Reflexion werden in der modernen Hermeneutik (und in Überlegungen zu einer linguistischen Hermeneutik) mehrere Punkte entgegengesetzt. Grundsätzlich wird unter hermeneutischem Verstehen nicht mehr Sinnentnahme, sondern reflektierte Sinnkonstitution bzw. -konstruktion verstanden (oder auch Ko-Konstruktion, siehe Beitrag von Müller in diesem Band), wobei davon ausgegangen wird, dass solche Konstruktionsprozesse kommunikativ eingebunden sind, wodurch auch eine intersubjektive Aushandlung und diskursive Begründung eines »kommunikativ tragfähigen Verständnisses« (Biere 2007, S. 15) erfolgen (vgl. Biere 2007, S. 13–16). Die permanente Semiose bzw. Sinnkonstruktion als einerseits subjektiver Verstehensprozess, andererseits als Verstehen, das auch durch konventionalisiertes, sozial-kommunikativ erworbenes Wissen intersubjektiv geprägt ist, wird demnach im Zuge der Interpretation (im Sinne von vermittelnder Auslegung) auch expliziert und dabei in ein intersubjektiv verfügbares und im Anschluss letztlich diskursiv konstituiertes Verständnis überführt.

Solche Intersubjektivität und letztlich Objektivität anstrebenden Prozesse sind in verschiedenen Methodenvarianten mit Hermeneutikbezug zuerst in den empirischen Sozialwissenschaften systematisch entwickelt worden. Dabei handelt es sich um Kodierungsverfahren, die – neben computerlinguistischen Annotationsmethoden – als Folie für die Methodenentwicklung, -reflexion und -innovation im Bereich des pragma- und diskurslinguistischen Annotierens in der digitalen Linguistik dienen (vgl. Bender 2020b; Bender/Müller 2020). Sie bilden den methodischen Kern der hier beschriebenen Form der korpusgestützten Theoriebildung. Vor diesem Hintergrund werden sie im Folgenden beschrieben. Bereits erwähnt wurden Formen der qualitativen Inhaltsanalyse sowie die Grounded Theory. Inhaltsanalytische Verfahren wie die bereits genannten (Mayring 2010; Gläser/Laudel 2010) haben fixierte, z. B. schriftlich verfasste, transkribierte oder protokollierte Kommunikation (auch nicht-sprachliche) als Gegenstand, die – in Abgrenzung zu anderen hermeneutischen Verfahren – nicht frei interpretiert, sondern systematisch nach expliziten Regeln analysiert wird. Ziel sind Rückschlüsse auf verschiedene Aspekte der Kommunikation, nicht nur inhaltliche Strukturen sondern auch Intentionen, Wirkungen etc. Der Begriff Inhalt ist insofern problematisch, erst recht aus linguistischer Sicht. Unterschiede zwischen den Verfahren bestehen vor allem darin, wie lange Kategorienschemata offengehalten werden und als vorläufig gelten.

Beiden gemeinsam sind Verfahren der durch ein vorläufiges, an der Fragestellung ausgerichtetes Schema geleiteten, in diesem Rahmen aber induktiven Kategorienbildung. In einem ersten Schritt erfolgt die regelgeleitete Extraktion von Segmenten (in der Regel Textstellen) und ihre Zuordnung zu mehr oder weniger vorläufigen Kategorien (Kodierung). Anschließend werden verschiedene Reduktions- bzw. Abstraktionsverfahren durchgeführt, wie die Paraphrasierung, Generalisierung und Bündelung von extrahierten Segmenten, wobei das Kategorienschema verändert werden kann – mit dem Ziel eines Kategoriensystems als Ergebnis, das wiederum am Material überprüft wird. Alle Schritte und Regeln werden explizit dokumentiert, z. B. in einem Code-Buch. Kodierungsverfahren gehören auch zur Methode der Grounded Theory. Sie sieht drei Phasen vor: offenes, axiales und selektives Kodieren, in denen zunächst ohne Schema relevante Phänomene identifiziert werden, die – immer weiter abstrahierend – nach Gemeinsamkeiten gruppiert, nach Relationen geordnet und zu einem Theoriemodell werden (sehr knapp nach Strauss/Corbin 1996). Das Verfahren ist zwar schrittweise aufgebaut, sieht aber iterative Schleifen des sukzessiven theoretischen Samplings (also der Datenerhebung), der Datenexploration, Kategorisierung, Theoriemodellierung und -überprüfung vor, außerdem eine transparente Dokumentation aller Schritte in Form von Memos und Diagrammen (vgl. Strauss/Corbin 1996, S. 169–192).

Die objektive Hermeneutik hier einzubeziehen, liegt schon wegen ihres Namens nahe. In den Sozialwissenschaften hat sie sich als »eines der differenziertesten qualitativen Interpretationsverfahren« (Mayring 2010, S. 37) und »elaboriertestes Datenanalyseverfahren« (Reichertz 1994, S. 129) etabliert. Zugleich ist der von dem Soziologen Ulrich Oevermann und Mitarbeitern entwickelte Ansatz (vgl. Oevermann et al. 1979) jedoch sehr umstritten. Vor allem wird sie als Kunstlehre in Teilen als zu wenig methodisch abgesichert angesehen. Kritisiert wird außerdem, dass ihre verschiedenen Varianten nicht in einem einheitlichen Interpretationsverfahren operationalisiert sind. Sie nimmt nicht in Anspruch, objektive Interpretation zu leisten, sondern bezieht den Begriff objektiv auf ihr Verständnis ihrer Untersuchungsgegenstände, auf die Gegenständlichkeit der Zeichen, deren Bedeutung auf intersubjektiv gültigen sprachlichen Regeln basiert. Die Sinninterpretation ist nicht auf subjektiv Gemeintes gerichtet, sondern versucht, aus Gesagtem bzw. Ausdrucksgestalten mit intersubjektiver Zeichenbedeutung als semiotischer Gegebenheit latente soziale Sinnstrukturen (auch unbewusste) zu rekonstruieren (vgl. Oevermann 2004, S. 312–316). Ganz zentral ist dabei das Verfahren der regelgeleiteten Protokollierung von Beobachtetem, das die so verstandenen Gegenstände intersubjektiv verfügbar macht (ebd.). Zwei Aspekte der objektiven Hermeneutik sind auch aus linguistischer Sicht (insbesondere aus pragma- und diskurslinguistischer Perspektive) problematisch: erstens die Annahme objektiv vorhandener sozialer Regeln, die beim Herausarbeiten von Sinnstrukturen spezifischer Fälle vorausgesetzt werden, und zweitens die Fokussierung des als objektiv angenommenen Gesagten. In seiner stark soziologischen Ausrichtung ist der Ansatz ohnehin nicht ohne Weiteres auf sprachwissenschaftliche Fragestellungen anwendbar.

Im vorliegenden Zusammenhang von Interesse sind jedoch einige Herangehensweisen, die als Objektivierungsstrategien verstanden werden können. Besonders die unterschiedlichen Varianten des Ko- und Kontexteinbezugs bei der Interpretation von Segmenten ist hier zu nennen. So wird etwa in der Feinanalyse von Texten auf acht verschiedenen Ebenen der Kontext und die Pragmatik des Interaktionstyps expliziert und in die Analyse einbezogen, in der Sequenzanalyse die einzelnen Interaktionsbeiträge ganz ohne Kontexteinbezug analysiert oder die verfügbaren Daten über Akteure von Interaktionen interpretiert, bevor der Text hinzugezogen wird (vgl. Reichertz 1994, S. 129 f.). Vielversprechend wäre ein stärkerer Ausbau der Arbeit mit unterschiedlich großen Kotextfenstern, um die Auswirkungen unterschiedlicher Ko(n)textsensibilität zu testen (vgl. Bender/Becker/Kiemes/Müller 2023; genauer beschrieben in Abschnitt 4.2).

Im vorliegenden korpushermeneutischen Annotationsmodell und der damit verbundenen Theoriemodellierung werden Elemente dieser Ansätze, insbesondere im Bereich des theoretischen Samplings, der Segmentierung, Kontextsensibilität und Interpretationstiefe sowie der iterativ-inkrementellen Kategorienbildung kombiniert und im Zuge der Entwicklung von Annotationsguidelines intersubjektiv ausgehandelt und dokumentiert. Diese Objektivierungsstrategien werden im nächsten Abschnitt am Beispielprojekt exemplarisch gezeigt.

Eine weitere Objektivierungsstrategie ist die Messung der Übereinstimmung bzw. Abweichung bei der Kategorienzuordnung zwischen mehreren Annotierenden in kollaborativen Annotationsstudien, das Inter-Annotator-Agreement. Darauf ist Müller in diesem Band schon ausführlich eingegangen, weshalb hier nur eine kurze Erwähnung mit Verweisung erfolgt. Im Beispielprojekt sind einige Stichproben zusätzlich von einem zweiten, geschulten Annotator kategorisiert worden, aufgrund begrenzter Ressourcen mussten die Studien aber größtenteils von einem Annotator durchgeführt werden. Deshalb wurde zusätzlich eine andere Möglichkeit der Qualitätssicherung genutzt, das Intra-Annotator-Agreement, bei dem mit einem festgelegten zeitlichen Abstand vom selben Annotator derselbe Datensatz ein zweites Mal annotiert wird. Dadurch soll neben der Kategorienschärfung und Sicherung der Verstehensbasis die Konsistenz der Zuweisungen zu Kategorien nach Guidelines und deren Reproduzierbarkeit überprüft werden und Faktoren wie die zunehmende Annotations-Erfahrung und Korpus-Kenntnis, aber auch Abstumpfungseffekte aufgedeckt werden (vgl. Abercrombie/Rieser/Hovy 2023; Zhang/Chapman/Ciravegna 2010; Teufel/Carletta/Moens 1999, S. 110–117). Im Beispielprojekt wird nicht nur stichprobenartig ein zweites Tagging durchgeführt, sondern es wird auch durch die Annotation auf verschiedenen Kategorie-Ebenen schichtweise annotiert, wobei jeweils eine Reflexion der bereits annotierten Schicht (und umgekehrt) geleistet wird.

Eine wichtige Rolle als Objektivierungspraktiken spielen außerdem naheliegenderweise korpuslinguistische Methoden, die datengeleitet und durch Quantifizierung objektivierend als Teile hermeneutischer Prozesse wirken – insbesondere in ihrer Wechselwirkung mit stärker qualitativ ausgerichteten Kategorisierungs- und Interpretationsmethoden, ob vor-, zwischen- oder nachgeschaltet. Dabei werden Wechselwirkungen zwischen lokalen (Segmentebene) und globalen (Korpusebene) Verstehens‑/Interpretationsprozessen in den Blick genommen, also zwischen dem Verstehen und der Interpretation von einzelnen Stellen/Konkordanzen/Kotextbereichen einerseits und andererseits von Verstehens‑/Interpretationsprozessen, die sich auf (Wissen über) ein gesamtes Korpus (oder mehrere) beziehen, sei es auf Kontextwissen, auf Metadaten oder durch Messungen gewonnene statistische Werte, die wiederum Bezüge zwischen Segmenten und Gesamtkorpora zeigen (z. B. Häufigkeit/Distribution von Segmenten im Korpus). In diesen Bereich gehören die gängigen Standardverfahren der Korpuslinguistik (vgl. McEnery/Hardie 2012; Bondi/Scott 2010, Müller 2015, S. 145–148) wie Frequenz- und Distributionsanalysen, Keyness- und Kookkurrenzanalysen. Diese Verfahren werden z. B. genutzt, um anhand der Kategorisierung von häufigen Konstruktionen (in Form von Clustern, N‑Grammen) einen datengeleiteten Zugang zu relevanten Daten zu bekommen, der auch ermöglicht, in verschiedenen Kontexten Subkorpora und Annotationsstichproben zu bilden. Ein Beispiel für ein Machine-Learning Verfahren ist die Anwendung eines Recommender-Algorithmus, der mit der Annotation mitläuft und aus den Annotationsentscheidungen lernen und Annotationsvorschläge machen kann, und hier anhand seines Confidence-Wertes als grober Indikator für die maschinelle Erlernbarkeit der Kategorisierung und somit der Objektivierung dienen kann (vgl. Bender 2023). Auch der Einsatz komplexerer algorithmischer Modelle, die durch Annotation trainiert werden (vgl. Bender 2023; Bender/Becker/Kiemes/Müller 2023 und Becker/Bender/Müller 2020), kann in dieser Funktion gesehen werden. Nicht nur der Lernerfolg des algorithmischen Modells kann als Objektivierungsaspekt gesehen werden, sondern auch die Kategorienbildung vor der Folie des Digitalen, die erfordert, bestimmte Qualitätskriterien zu beachten (Robustheit und Ausgewogenheit des Kategoriensystem bzgl. Segmentierung, Granularität und Trennschärfe), die die Kategorisierung nicht nur maschinell erlernbar, sondern intersubjektiv nachvollziehbar machen (vgl. Bender 2023).

4.2 Exemplarische Projektbeschreibung – Intersubjektivitätsstrategien

Die beschriebenen Objektivierungsverfahren werden in diesem Abschnitt am Beispiel gezeigt. Zu den einzelnen Verfahren wurden jeweils teils schon publizierte Studien durchgeführt, auf die verwiesen wird, die hier aber nur ausschnittsweise zur Verdeutlichung dargestellt werden und in diesem Rahmen nicht ausführlich wiedergegeben werden können.

Ausgehend von der in Kapitel 3.2 beschriebenen Wahrnehmung von Backchannel-Behavior-Zwischenrufen vs. kontextualisierend-kommentierenden Zwischenrufen und den daraus hervorgehenden Fragestellungen, Hypothesen und ersten Theoriebildungsideen wurde zunächst ein erster Sampling-Schritt durchgeführt, in dem vor allem die beiden Zwischenruf-Kategorien getrennt erfasst werden sollten. Dazu wurden alle Zwischenrufe von der ersten Sitzung 1949 bis zum Ende der letzten Legislaturperiode 2017 (bis dahin 1.979.596) aus dem Gesamtkorpus der Plenarprotokolle des Deutschen Bundestages auf der CQPweb-Korpusanalyse-Plattform (vgl. Hardie 2012) des DiscourseLab der TU Darmstadt (vgl. Müller 2020) extrahiert und daraus ein separates Korpus erstellt. Die explorative Annotation brachte jedoch weitere Kategorien hervor wie oben bereits dargestellt (z. B. nonverbale, nicht-wörtlich transkribierte, institutionell-metakommunikative und verschiedene Formen von Fragen). In dieser Studie wurde ein Recommender, also ein aus der Annotation lernender Empfehlungs-Algorithmus eingesetzt, der nach 1000 Annotationen gute Confidence-Werte in Kategorien gezeigt hat, die Ähnlichkeiten an der sprachlichen Oberfläche aufweisen (hochfrequente Lexik und Phrasen, Kürze der Äußerungen etc.). Dies kann als Indikator dafür angesehen werden, dass diese Kategorien relativ gut maschinell erkennbar sind und die Kategorisierung in diesen Fällen robust ist (ausführlicher vgl. Bender 2023). Zusätzlich wurde zur Abgrenzung von Kurzbewertungen und kontextualisierenden Kommentierungen eine Kombination aus Frequenzanalysen, N‑Gramm-Berechnungen und manueller Klassifikation angewendet. Zuerst wurden Frequenzlisten von Adjektiven und Substantiven erstellt und diejenigen mit bewertender Bedeutung extrahiert. Anschließend wurden die Frequenzen von Mehrworteinheiten (N-Grammen) berechnet, am ergiebigsten waren wortbasierte Trigramme. Dies erlaubte das Erkennen und die Extraktion der häufigsten Satzanfangskonstruktionen (bspw. Das ist X). Diese beiden Komponenten – Bewertungswörter und Satzanfänge – wurden in einem programmierten Script kombiniert, das mit diesen Informationen Sätze aus dem Gesamtkorpus der Zwischenrufe in CQPweb herausfiltern kann. Für andere Zwischenruf-Kategorien (nonverbale usw.) wurde ein ähnliches Verfahren durchgeführt. Auf diese Weise konnten halbautomatisch Subkorpora zu den Kategorien gebildet werden, die durch solche Indikatoren an der sprachlichen Oberfläche erschließbar waren. Die Kategorie der an der Oberfläche eher heterogenen kontextualisierenden Zwischenrufe wurde dadurch ex negativo gebildetFootnote 3. In dieser Kategorie wurden wiederum N‑Gramme berechnet, um häufige Konstruktionen in diesen komplexeren Kommentierungen mit eigenem propositionalem Gehalt zu ermitteln. Dazu gehören unter anderen die oben bereits genannten, z. B. auch Es geht um / Es geht nicht um|ums X, wie im folgenden Beispiel, das oben schon einmal aufgeführt wurde, hier jedoch der Veranschaulichung des Annotationsverfahrens dienen soll. Objektivierende und quantifizierende Verfahren werden in dem Projekt also schon auf dem bzw. als Weg zu relevanten Annotationsstellen wie der folgenden eingesetzt (oben schon einmal in anderem Zusammenhang aufgeführt).

Sabine Leidig (DIE LINKE), 30.6.2017: Frau Präsidentin! Werte Kolleginnen und Kollegen! Liebe Gäste auf der Tribüne! Ich bin erstaunt, dass die Grünen jetzt mit der CDU darum wetteifern, wer die Automobilindustrie am besten befriedigen kann. (Cem Özdemir [BÜNDNIS 90/DIE GRÜNEN]: Es geht nicht ums »Befriedigen«! Das ist eine Schlüsselindustrie! 800 000 Jobs!) (Plenarprotokolle des Deutschen Bundestages, CQPweb-Korpus des DiscourseLab, Text-ID: 18_244_00063)

In einem ersten Annotationsschritt wird das Basis-Schema nach Posner annotiert, also Kommentandum, Kommentat und Kommentor segmentiert. In Özdemirs Zwischenruf ist als wiederaufnehmendes Kommentat das Zitat »Befriedigen«, das anaphorische »Das« sowie »-industrie« als gemeinsamer Bestandteil der Komposita »Automobilindustrie« und »Schlüsselindustrie« zu markieren. Die genauere Bezeichnung unterschiedlicher Formen der Kommentierungs-Komponenten stellt bereits eine zweite Annotationsschicht dar, die als abgleichender Schritt zum Intra-Annotator-Agreement beiträgt. In einer dritten Annotationsschicht werden mit zeitlichem Abstand Sprachhandlungen bzw. kommunikative Funktionen der Komponenten annotiert. Das können bewertende oder metakommunikative Aspekte im Kommentat sein, aber vor allem funktionale Aspekte in den Kommentor-Passagen, hier »Es geht nicht ums« als Bekundung von Dissens und Markierung von Nichtrelevanz, »Schlüssel«- als (Auf)wertung und »800 000 Jobs!« als Setzung eines neuen Topiks. Neben dem zeitversetzten Abgleich verschiedener Annotationsschichten als Intra-Annotator-Agreement-Verfahren wird die Annotation stichprobenartig von zwei Annotatoren durchgeführt, wodurch Unschärfen und Zweifelsfälle herausgearbeitet, diskutiert und in intersubjektiv-kollaborativ erstellten Guidelines formuliert werden können.

Für viele Zuordnungen ist auch ein Blick in den erweiterten Kotext erforderlich. Im vorliegenden Beispiel befinden sich dort die Passagen, auf die Bezug genommen wird, aber auch Passagen, die selbst als Kommentierungen angesehen werden könnten. In Plenardebatten besteht eine sehr hohe Dichte an Diskursreferenzierungen, an die auch in den Reden angeschlossen wird, hier z. B. die Benennung der Grünen und der CDU als Akteure von Voräußerungen, die als Wetteifern um die Befriedigung der Autoindustrie beschrieben und dabei metakommunikativ perspektiviert werden. Eine Studie, in der solche Diskursreferenzierungen kollaborativ annotiert und vergleichend Modelle des maschinellen Lernens damit trainiert wurden, zeigt, dass sie ein zentrales Phänomen in Plenardebatten darstellen (vgl. Bender/Becker/Kiemes/Müller 2023). Dies wirft auch die Frage auf, was denn nicht als Kommentieren angesehen werden kann, wie es von anderen Praktiken abgegrenzt werden kann (Beispiele wären eigenständige Äußerungen ohne Bezugnahme auf Voräußerungen, erotetische (Verständnis‑)Fragen, reine Kurzbewertungen u. a.). Neben den bereits aufgeführten Aspekten der Propositionalität und der Neu- bzw. Rekontextualisierung durch das Einführen neuer Themen bzw. Topiks, durch die Kommentieren hier von reinen Kurzbewertungen abgegrenzt wird, lassen sich weitere Abgrenzungskriterien hypothetisch einführen, durch weitere Studien in anderen Kontexten herausarbeiten und abduktiv in das theoretische Kategorien-Modell einarbeiten. Ein weiteres Kriterium ist etwa die retrospektive Adjazenzkonstruktion, also der Aspekt, dass Kommentierungen nicht direkt durch die Voräußerung, auf die sie sich beziehen, konditionell relevant gesetzt werden, wie z. B. in Frage-Antwort-Paaren, sondern retrospektiv selbstinitiiert ein Adjazenzpaar mit einer Voräußerung bilden (vgl. Schegloff 2007, S. 217). Hinzu kommen weitere Aspekte wie die epistemische Haltung relativ zur Rahmung des kommunikativen Kontexts, bspw. institutionell geprägte Rollenkonstellationen etc. (vgl. Bender 2024; 2020a). Diese Aspekte werden im Beispielprojekt nach und nach sichtbar, im Zuge des theoretischen Samplings verschiedener Kontexte und Kommunikationsformen und des iterativ-inkrementellen Durchlaufens der beschriebenen methodischen Schritte und Objektivierungsverfahren.

5 Fazit

Im Beitrag wurde von drei Perspektiven ausgegangen, die hinsichtlich hermeneutischer Ansätze oft problematisierend eingenommen werden (Vorwissensbias, Zirkularität, Subjektivität). Dabei wurde dargelegt, wie diese Problematik-Annahmen gerade in der Korpuslinguistik entkräftet werden können. Alle drei lassen sich in diesem Zusammenhang positiv wenden. Das Vorwissen, unumgehbar und unhintergehbar, kann, wenn es bewusst und explizit gemacht wird, kritisch-konstruktiv einbezogen und gezielt auch mit datengeleiteten Verfahren hinterfragt werden. Die irreführende Zirkularitätsmetapher kann aufgelöst und durch die Darstellung iterativer und inkrementeller Forschungsprozesse abgelöst werden, in denen interpretative Verfahren und statistisches Messen wechselseitig verbunden sind. Der Subjektivitätsproblematik wird längst der in der Hermeneutik angelegte und mitgedachte Aspekt der intersubjektiven Vermittlung und Aushandlung entgegengehalten. Gerade in korpuslinguistischen Annotationsprojekten mit diskursiv-kollaborativer Kategorienbildung ist dieser Punkt ganz zentral. In diesem Bereich werden auch Objektivierungsverfahren aus den empirischen Sozialwissenschaften adaptiert. Die Korpuslinguistik bietet darüber hinaus ein breites Spektrum an objektivierenden statistischen Verfahren. Doch nicht deren Messergebnisse stellen die Zieldimension dar, sondern die Interpretation dieser Ergebnisse und ihre Integration in Verstehensprozesse bzw. Theoriebildungsprozesse. So genannte datengeleitete Verfahren hebeln Vorwissen und Theorien nicht aus. Das Bewusstmachen und Explizieren von Vorwissen, Kategorisierungen und Interpretationen ist die Voraussetzung für die kritische Reflexion in korpusgestützten Theoriebildungsprozessen, die auch unerwartet emergierende Kategorien und Relationen abduktiv integrieren können. Dies wurde hier gezeigt an exemplarischen Aspekten im Zuge der Theorieentwicklung zum Kommentieren. Zu diesen gehört erstens die Ausdifferenzierung einer Typologie von Komponenten des Kommentierens auf der Form- und der Funktionsebene, zweitens das Herausarbeiten der Kernpraktik des Selektierens und Herauslösens von Voräußerungspassagen aus ihrem Kotext und ihrer thematisch-propositionalen Rekontextualsierung als Scharnierfunktion zu anderen Praktiken (in Abgrenzung zur weit verbreiteten Gleichsetzung mit Bewertung, Positionierung etc.) und drittens der retrospektiven Adjazenzkonstruktion ohne direkte, prospektive konditionale Relevanzsetzung als spezifische Form der sequenziellen oder intertextuellen Anknüpfungspraktik des Kommentierens. Diese Aspekte bieten neue Perspektiven, um Kommentieren als sprachliches Phänomen zu beschreiben – und zu verstehen, zu interpretieren, zu erklären.