1 Einleitung

Die Natur erklären wir, das Seelenleben verstehen wir. (Dilthey [1894] 1990, S. 144)

Wilhelm Diltheys berühmtes Zitat bezieht sich bekanntlich auf den Methodenbruch zwischen erklärenden Naturwissenschaften und verstehenden Geisteswissenschaften in dem Sinne, dass Dilthey als fundamentales heuristisches Prinzip der Naturwissenschaften die Deduktion sieht. Damit ist die Ableitung von Erkenntnis aus einem absolut und allgemein gültigen Gesetz gemeint, nach dem am Einzelfall gesucht wird, während es in den Geisteswissenschaften um Sinnstiftung durch die empathische Ko-Konstruktion einer intentionalen Sinngestalt am einzelnen Sachverhalt geht. Die Unterscheidung zwischen erklärenden und verstehenden Wissenschaften hat Dilthey allerdings nicht erfunden, sie wird vielmehr auf den Historiker Johann Gustav Droysen (1868, S. 41–62) zurückgeführt. Dilthey hat sie aber in das Programm der Hermeneutik eingebettet. Verstehen in diesem Sinne heißt, eine geistige Hervorbringung in seiner Individualität zu erfassen und dazu den eigenen Erfahrungshorizont heranzuziehen.

In diesem Beitrag möchte ich die Dichotomie von Verstehen und Erklären auf die Methodendiskussion der digitalen Linguistik beziehen und daran einige methodische Punkte verdeutlichen, die mir beim Arbeiten mit digitalen Korpora wichtig erscheinen.Footnote 1 Dazu greife ich zuerst Diltheys Begriff des Verstehens auf, allerdings in einer sehr punktuellen und zugespitzten Art und Weise (Kap. 2). Danach führe ich die Idee ein, das Erklären, also das Herausarbeiten allgemeiner Prinzipien, sei Aufgabe aller Wissenschaften und demnach auch der Geisteswissenschaften, so sie denn den Anspruch verfolgten, eine Wissenschaft zu sein. Dazu beziehe ich mich auf den Philosophen Gerhard Schurz, der sich wiederum vor allem mit dem Wissenschaftstheoretiker Carl Gustav Hempel auseinandersetzt (Kap. 3). Im Folgekapitel skizziere ich verschiedene Programme des Erklärens in der Linguistik und deren Rolle in der Korpuslinguistik (Kap. 4), um in Kap. 5 wieder auf das Verstehen zurückzukommen, diesmal aus der korpuslinguistischen Praxis heraus betrachtet, wo es mir als Nebenbeiprogramm im Windschatten der mit Regeln, Qualitätsmaßstäben und Lehrbüchern flankierten Methoden begegnet. Die Methode der Annotation scheint mir ein Ort zu sein, an dem das Verstehen und das Erklären in der Korpuslinguistik zusammengeführt und methodisch kontrolliert werden können. In Kap. 6 diskutiere ich das theoretisch Entfaltete an zwei Anwendungsbeispielen aus meiner eigenen Arbeit. Ich schließe mit einem Fazit (Kap. 7).

Die Vorstellungen zum Verstehen und Erklären entwickle ich in diesem Beitrag anhand meiner eigenen linguistischen Arbeit mit Korpora, die – mit Überschneidungen – in den Bereichen der lexikalischen Semantik, funktionalen Grammatik, Textpragmatik und Diskursanalyse angesiedelt ist. Natürlich gibt es Bereiche der Korpuslinguistik, auf die mein Konzept nicht, nicht ganz oder in anderer als der dargestellten Weise zutrifft. Ich bemühe mich im Folgenden, den intendierten Geltungsbereich meiner Aussagen deutlich zu machen, möchte diesen Absatz aber als salvatorische Klausel verstanden wissen, sollte sich doch noch Manches als unzulässige Verallgemeinerung lesen.

2 Verstehen als einsames Geschäft

Das Verstehen als geisteswissenschaftliche Methode hat selbstredend eine lange Begriffs- und Rezeptionsgeschichte, die schon oft erzählt worden ist und hier nicht nachvollzogen werden kann.Footnote 2 Hier sind nur die folgenden Punkte bedeutsam, die sich aus der Theoriewelt der romantischen Hermeneutik ergeben: Verstehen ist erstens eine Methode der Einfühlung und des geistigen Nachvollzugs (Dilthey [1894] 1990, S. 318). Es geht also nicht um die Auswahl abstrakter Bedeutungspositionen im semasiologischen Feld sprachlicher Zeichen, sondern um den empathischen Nachvollzug dessen, was jemand mit der konkreten Disposition sprachlicher Zeichen im Text gemeint hat. Es ist der Nachvollzug einer geistigen Bewegung, der sozusagen durch die Zeichen hindurch geschieht, als wären sie ein Fenster in die Gedankenwelt einer schreibenden Person. Gadamer (1960, S. 296) nennt Verstehen das Einrücken in ein Überlieferungsgeschehen, in dem sich Vergangenheit und Gegenwart beständig vermitteln. Verstehen muss man sich zweitens als einen Sonderfall der zwischenmenschlichen Begegnung vorstellen. Da die Hermeneutik in ihren Hauptdomänen Theologie, Recht, Philosophie und Literatur und in jüngerer Zeit auch Linguistik immer eine Lehre und Theorie des Verstehens geschriebener Texte war, geht es um die Begegnung mit Abwesendem, und zwar in dem doppelten Sinne, dass sowohl die schreibende und meinende Person als auch das, worüber geschrieben wird, auf systematische Weise abwesend ist. Die Abwesenheit ist geradezu die Grundbedingung der Zeichenbildung. Verstehen in diesem Sinne ist eine doppelte Konstruktionsleistung, mit der das meinende Individuum und der gemeinte Sachverhalt unter den in einer Lese-Situation geltenden (historischen, weltanschaulichen, epistemischen) Bedingungen in eine semiotisch emulierte Ko-Präsenz gebracht werden. Das Verstehen als Ko-Konstruktion des Abwesenden kann und soll allerdings nur regelgeleitet vonstattengehen, das regelgeleitete Verstehen nennt Dilthey »Interpretation«:

Wir können auch solche Lebensäußerungen verstehen, die in Relikten, Zeichen, Symbolisierungen ihren materiellen Träger gefunden haben und somit über die Zeit hinweg erhalten bleiben. Die Fixierung der Lebensäußerung in einem materiellen, als Zeichen fungierenden Substrat stellt die Grundlage des geisteswissenschaftlichen Interpretationsbegriffs dar. Das durch Regeln disziplinierte ›Verstehen von dauernd fixierten Lebensäußerungen nennen wir Auslegung oder Interpretation.‹ (Teichert 2010, S. 22, der ein Zitat von Dilthey [1894] 1990, S. 319, aufnimmt)

Das Verstehen in diesem wissenschaftsprogrammatischen Sinne geht vom Individuum aus und richtet sich auf das Individuum.Footnote 3 Es ist ein einsames Geschäft. Teichert (2010, S. 21) drückt es folgendermaßen aus:

Das geisteswissenschaftliche Interesse gilt primär dem individuellen Erleben. Die kollektiven Bedingungen des Individuellen werden weder geleugnet noch ignoriert. Aber sie stehen nicht im Zentrum des hermeneutischen Interesses. Dieses gilt der »wissenschaftlichen Erkenntnis der Einzelpersonen«.

Das hermeneutische Verstehen im Sinne der Rekonstruktion eines so-intendierten Sachverhaltes kann daher drittens nie vollständig gelingen und es kann auch nie vollständig von Anderen nachvollzogen werden – es bleibt immer individuell und ist nicht replizierbar. Vor allem Letzteres wird man sich merken müssen, wenn es um die Bedingungen des Verstehens in der digitalen Linguistik geht (s. unten, Kap. 5).

3 Das Einheitsmodell der wissenschaftlichen Erklärung

Es hat gegen die Idee, jede akademische Kultur habe ihre je eigenen epistemischen Verfahren, die ihr eben gemäß sei, aber auch Einwände und Alternativprogramme gegeben, die im Gegenteil auf in allen Disziplinen geltende allgemeine Prinzipien des Erkennens abzielten. Schurz (2004) weist auf das Programm Carl Gustav Hempels hin, eines in den USA lehrenden Wissenschaftsphilosophen, der vom logischen Positivismus des Wiener Kreises beeinflusst war (vgl. Fetzer 2022).

Wie schon der Titel »The Function of General Laws in History« verrät, möchte Hempel in seiner ersten Arbeit zum Erklärungsbegriff von (1942)Footnote 4 entgegen dem Droysen-Dilthey-Windelbandschen Programm zeigen, daß die Suche nach allgemeinen Gesetzesmäßigkeiten ein unerläßlicher Schritt sei, auf den auch die Geisteswissenschaften und speziell die Geschichtswissenschaften unvermeidlich angewiesen sind, sobald sie etwas zu erklären bzw. zu verstehen suchen. Das sogenannte Modell der deduktiv-nomologischen Erklärung, kurz D‑N-Erklärung, das Hempel in ([1942] 1965) entwickelte […], zeichnet sich voralledem durch seine logische Allgemeinheit aus. (Schurz 2004, S. 6, Kursivierungen im Originalzitat)

Hempels ([1942] 1965) Hauptthese ist, dass die Geisteswissenschaften, speziell die Geschichtswissenschaften, auf die Suche nach allgemeinen Gesetzesmäßigkeiten »unvermeidlich angewiesen sind, sobald sie etwas zu erkennen suchen« (Schurz 2004, S. 158). In diesem Sinne entwickelt er das Modell der »deduktiv-nomologischen Erklärung« (Schurz 2004, S. 158):

Um auf möglichst viele Disziplinen anwendbar zu sein, verzichtet das Modell auf jedwede metaphysischen Annahmen über Erklärung im Sinne einer Wesensschau, sondern charakterisiert die Erklärung einer Tatsache E schlicht als deren logische Folgerung aus anderen Fakten und übergeordneten Gesetzeshypothesen, wobei Gesetzeshypothesen wiederum keine metaphysischen Kausalannahmen involvieren, sondern lediglich als strikte Regularitatsbehauptungen im Humeschen Sinn, sogenannte Allsätze der Form ›Immer wenn A(x), dann B(x)‹, verstanden werden.

Um diesen an den Naturwissenschaften orientierten Begriff der Erklärung als Ableitung des Einzelfalls vom allgemeinen Gesetz auf die Geistes- und Sozialwissenschaften anwenden zu können, bedarf es allerdings einiger Modifizierungen. Hempel selbst ([1942] 1965, S. 237) sieht in den Geschichts- und Sozialwissenschaften »kaum strikte, d. h. ausnahmslos geltende Gesetzesbeziehungen […], statt dessen gäbe es ›weiche‹ Gesetzesbeziehungen, die man als statistische Hypothesen auffassen könnte«. (Schurz 2004, S. 159, Kursivierungen im Originalzitat) Schurz (2004, S. 160 f.) führt einige Probleme eines starken »metaphysischen« Begriffs von ›Erklärung‹ an und resümiert, dass »man den Erklärungsbegriff besser nicht als rein semantischen Begriff einer zeitlich ›gültigen‹ Erklärung, sondern als einen auf ein gegebenes epistemisches Hintergrundsystem bezogenen und insofern pragmatischen Begriff expliziert.« (Kursivierungen im Originalzitat)

Ein Fallbeispiel zur Konkretisierung unterschiedlicher Begriffe von ›Erklärung‹ entnimmt Schurz (2004, S. 162) einem Text des Geschichtstheoretikers und Methodenpluralisten William Dray (1957, S. 33). Es bezieht sich auf Ludwig XIV, dessen Unpopularität in den Geschichtswissenschaften damit erklärt werde, »daß Ludwig der XIV sein Land oft in Kriege verwickelte und dem Volk schwere Belastungen aufbürdete.« Nach Dray müsste eine strenge, nomothetische Erklärung des Sachverhalts folgendermaßen lauten: »Alle Herrscher, die ihr Land in Kriege verwickeln und dem Volk schwere Belastungen aufbürden, werden unpopulär.« (zitiert nach Schurz 2004, S. 162). Schurz weist darauf hin, dass das ganz offensichtlich nicht stimmen könne. Es bliebe die in den Geschichtswissenschaften beliebte Normalfallhypothese oder normische Hypothese: »Herrscher bzw. Regierungen, die ihr Land in Kriege verwickeln und dem Volk schwere Belastungen aufbürden, werden normalerweise (üblicherweise, zumeist) unpopulär.« Nach Schurz (2004, S. 163) gleicht diese Art von Erklärung in ihrer untheoretisierten Form einer »Binsenswahrheit«. Sie ist offensichtlich nicht falsifizierbar, d. h. man kann nicht angeben, was der Fall sein muss, damit die Hypothese verworfen werden muss bzw. die Erklärung falsch ist. Schließlich seien Ausnahmen immer zugelassen und deren Ausmaß nicht weiter spezifizierbar. An späterer Stelle verweist Schurz (2004, S. 167), wiederum mit Verweis auf Hempel, auf die induktiv-statistische Erklärung als Lösungsansatz: »Die Wahrscheinlichkeit, daß ein Herrscher unpopulär wird, der sein Land in Kriege verwickelt, ist 84 %; Ludwig der XIV verwickelte sein Land in Kriege; also wird Ludwig der XIV mit bedingtem induktiven Wahrscheinlichkeitsgrad von 84 % unpopulär.« Auch wenn die induktiv-statistische Erklärung von Schurz (2004, S. 167 f.) ebenfalls als unbefriedigend angesehen und mit Gegenargumenten bedacht wird (es wären z. B. viele zu erklärende Phänomene nicht quantifizierbar bzw. quantitativ beobachtbar), so wird zuerst in den Sozial- und nun auch in den Geisteswissenschaften eben die statistische als ›harte‹ Erklärung zunehmend populärer. Schurz selbst verweist auf die Kontextsensitivität historischer Sachverhalte, aus der deren Nicht-Verallgemeinerbarkeit folge, und präferiert eine modifizierte Form der normischen Hypothese, der er eine evolutionstheoretische Fundierung gibt:

Im Alltagsdenken sowie in allen wissenschaftlichen Disziplinen, von der Biologie aufwärts bis zu den Geisteswissenschaften, haben wir es überwiegend mit normischen Gesetzeshypothesen zu tun: normalerweise können Vögel fliegen, handeln Menschen zweckrational, versuchen Regierungen die Wirtschaft ihres Landes intakt zu halten, funktionieren Lichtschalter, usw. – überall gibt es Ausnahmen. Was ist der Grund für diese Omnipräsenz normischer Gesetze – sind sie lediglich das Resultat einer subjektiven Zurechtinterpretation, Verschönerung einer in Wahrheit viel komplexeren Wirklichkeit, oder entspricht ihnen ein Realgrund, der normische Gesetze als genuinen Typ von nomologischen Gesetzesbeziehungen auszeichnet? (Schurz 2004, S. 170)

Sein Argument lautet, sehr verkürzt dargestellt, dass normische Erklärungen die Form nicht-numerischer induktiv-statistischer Erklärungen haben, ihnen also eine eindeutige – wenn auch komplexe und oft nicht quantitativ erfassbare – Realität zugrunde liege. Von deduktiven Schlüssen unterschieden sich normische Schlüsse durch ihre »Nichtmonotonie« (Schurz 2004, S. 171), d. h., dass eine Ableitung aus einem normischen, also mit Ausnahmen behafteten Gesetz so lange gilt, bis eine Ausnahme, die sich offensichtlich nicht unter der Ableitung subsummieren lässt, auftritt und auf ein spezifisches »Ausnahmegesetz« verweist, das die Erklärung des Normalfalls nicht außer Kraft setzt, sondern regelgeleitet in ihrer Geltung einschränkt. Als Beispiel gibt er Ableitungen über Eigenschaften eines Tiers, das wir als Vogel identifizieren:

Solange wir über dieses Tier nichts anderes wissen, als daß es ein Vogel ist, nehmen wir per default an, daß es sich um einen normalen Vogel handelt, und schließen, daß er fliegen kann. Dies ist ein wesentliches Prinzip der sogenannten nichtmonotonen Logik, die deshalb auch default logic genannt wurde: in Ermangelung gegenteiligen Wissens nehmen wir immer den Normalfall an. Sobald wir aber gegenteilige Evidenz erwerben, beispielsweise daß dieser Vogel einen gebrochenen Flügel hat, wird die Normalfallhypothese ›Vögel können normalerweise fliegen‹ durch das spezifischere normische Ausnahmegesetz ›Vögel mit gebrochenen Flügel können normalerweise nicht fliegen‹ blockiert: wir dürfen unseren ursprünglichen Schluß nicht mehr ziehen, sondern müssen das Ausnahmegesetz anwenden. Genau das ist Nichtmonotonie. (Schurz 2004, S. 171)

›Verstehen‹ ist in Schurz’ einheitswissenschaftlichem Programm mit dem Erklären korreliert. Verstehen heißt ›etwas erklären können‹. (Schurz 2004, S. 169) Während diese Lösung des Verstehen-Erklären-Problems vielleicht etwas zu einfach und etwas zu naturwissenschaftlich gedacht ist, wenn es um Sprachverstehen und dessen heuristische Rolle in sprachbasierten akademischen Disziplinen geht, so helfen die von Schurz diskutierten verschiedenen Erklärungstypen, linguistische Programme des Erklärens voneinander unterscheiden zu können.

4 Linguistik als erklärende Wissenschaft

Die Linguistik ist seit ihrer Disziplinenwerdung in ihrem Kern als erklärende Wissenschaft verstanden worden. In der Tat zielt sie auf das Allgemeine, die Sprache. Als Datum dafür haben wir Linguistinnen und Linguisten aber nur das Individuelle, das Gesprochene und Geschriebene. Dass der Text oder das gesprochene Wort als Explikat einer allgemeinen Regel erst einmal verstanden werden muss, wurde und wird in vielen Bereichen der Linguistik als Alltagsgrundlage des Fachs aufgefasst, die außerhalb der Methodologie vorausgesetzt wird. Daher gibt es in den Standardtheorien der Linguistik auch keine Methodologien des regelgeleiteten fachlichen Verstehens.Footnote 5 Wir können sechs Typen von linguistischen Erklärungen unterscheiden, die ich in Tabelle 1 aufführe, ohne ausführlich auf sie eingehen zu können. Dem Typ der Erklärung ist jeweils der explikative Kernbegriff und eine zentrale Publikation beigegeben (Tab. 1).

Tab. 1 Erklärungstypen in der Linguistik

Einen großen Verwissenschaftlichungsschub in der Linguistik brachte das Programm der Junggrammatiker, das mit seinem Leitsatz von der Ausnahmslosigkeit der Lautgesetze den Prototyp einer an den Naturwissenschaften orientierten nomothetischen Erklärung ins Zentrum stellte. Die ›klassischen‹ Paradigmen des 20. Jhs., Strukturalismus und Generativismus, waren im wissenschaftstheoretischen Sinn jeweils an metaphysischen Gesetzesbegriffen orientiert, deren paradigmatische Geltung angenommen wurde, ohne dass sie experimentell oder durch Beobachtung falsifizierbar gewesen wären. Die statistische Erklärung ist aus der Soziologie über die Soziolinguistik in die Linguistik gekommen und hat angesichts einer immer größer werdenden quantifizierbaren Datenbasis zunehmenden Einfluss in nahezu allen Bereichen der empirischen Linguistik; kritische Stimmen z. B. zum Wert von Signifikanztests (Mulder 2020) bestätigen die zunehmende Bedeutung der Statistik eher. Rezente Erklärungsparadigmen wie das funktionale, das praxeologische und das diskurstheoretische weisen in unterschiedlicher Dringlichkeit auf die Bedeutungen von Kontexten, deren Variation und Nichtgeneralisierbarkeit für die linguistische Erklärung hin und entfalten unterschiedliche Fassungen dessen, was Schurz (2004, s. oben) die »normische Erklärung« nennt. Damit konvergieren in vielen Fällen qualitative Methodologien, in denen das Verstehen, nämlich das Verstehen des Sprachdatums im Kontext eine zentrale Rolle spielt (Hermanns/Holly 2007; Felder/Mattfeldt 2015; Holly 2015). Da Forschungen in der empirischen Linguistik aller Spielarten aber – schon allein auf Grund der Datenverfügbarkeit und der technischen Entwicklung – immer häufiger auf digital repräsentierte, strukturell segmentierte und mit Metadaten ausgezeichnete Sprachkorpora zurückgreifen, gibt es einen gewissen Druck, einerseits die statistische Erklärung an irgendeiner Stelle miteinzubeziehen, schließlich sind Daten in dieser Form quantifizierbar und Hypothesen über deren Ausprägung und Distribution falsifizierbar. Andererseits gibt es aber das Bewusstsein, dass statistische Erklärungen eben (noch) keine linguistischen Erklärungen sind, da Sprache in Kontexten vollzogen wird und erst dann Sprache ist, wenn sie gemeint und verstanden wird (Müller 2012, 2015, S. 47–58). Insofern findet man in der zeitgenössischen empirischen Linguistik je spezifische Mischungen der genannten Erklärungstypen, bei denen z. B. der strukturalistische, der statistische und der funktionale Typ ineinandergreifen bzw. aufeinander aufbauen. In der digitalen Linguistik finden wir solche explikativen Kaskaden auf systematische Weise. Diese beginnen z. B. mit der statistischen Analyse und explizieren entsprechend erste Teilergebnisse als Muster, welche dann oft mit einer strukturalistischen Erklärung als sprachsystematisches Segment erklärt werden, z. B. als Nominalphrase. Diese können diskursfunktional erklärt werden, wie z. B. in der willkürlich, aber nicht zufällig ausgewählten Studie von Hundt/Oppliger (2022), in der eine Serie von Sprachdaten u. a. des Typs (the) fact was / Tatsache ist … in basisannotierten Korpora als Instanzen eines statistischen Musters (N‑is) erklärt werden, das wiederum in Begriffen der Phrasensyntax strukturalistisch beschrieben und schließlich diskursfunktional als Fokalisierungskonstruktion erklärt wird (Tab. 2).

Tab. 2 Explikative Kaskade in der Korpuslinguistik

5 Eine heuristische Nebenbei-Praxis: Verstehen in der digitalen Linguistik

“What we do when we analyse discourse using corpora ‘is a qualitative analysis of quantifiable patterns.” (Taylor/Marchi 2018, S. 6)

In dem hier vorangestellten Zitat aus einem Methodenbuch zur Diskursforschung mit Mitteln der Korpuslinguistik wird die in Tab. 2 dargestellte explikative Kaskade in vereinfachter Form angesprochen. Die angesprochene qualitative Analyse kann man auch unter den normischen Erklärungstypen subsummieren, die im Paradigma des Buchs von Taylor/Marchi (2018) funktional, praxeologisch und/oder diskurstheoretisch ausgedeutet werden. Praktisch geht es bei der qualitativen Analyse einerseits um Bildung oder Anwendung heuristischer Kategorien und andererseits um Kontextualisierung von Sprachdaten. Beides beinhaltet Verstehen. Das Zitat aus Taylor/Marchi (2018) steht programmatisch für die in dem Buch entfalteten Methodenvorschläge, die kenntnisreich und erkenntnisstiftend Wege z. B. zum Umgang mit Abwesenheiten in Korpora (Duguid/Partington) und multimodalen Texten (Caple) sowie Verfahren der Segmentierung (Marchi), Visualisierung (Anthony), Keyness-Analyse (Gabrielatos) und reflexiven Forschung (Baker) aufzeigen, die alle selbstverständlich Verstehen voraussetzen. Nirgends wird das Verstehen selbst aber thematisiert, reflektiert oder methodologisiert. Diesen Befund kann man für die digitale Linguistik verallgemeinern. Eine Ausnahme bildet hier Diskussion um die Technik der Annotation, auf die ich im Folgenden eingehen möchte (s. unten).

5.1 Was ist korpuslinguistisches Verstehen?

Zuvor möchte ich aber fragen, inwieweit die Verstehenstheorie, wie ich sie oben aus der Tradition der romantischen Hermeneutik heraus eingeführt habe, ein angemessener Rahmen für die digitale Linguistik sein kann. Dort geht es um Erkenntnis, die das Serielle, Typische, Regelhafte in einer bestimmten Datenpopulation betrifft. Dass die einzelnen Sprachdaten Spuren von Interaktionen des Meinens und Verstehens sind (Müller 2012, 2015, S. 47–48), ist Voraussetzung jeder linguistischen Analyse. Es ist aber in aller Regel nicht im Mittelpunkt des Forschungsinteresses, was jemand in einer einzelnen Interaktion gemeint und verstanden hat.Footnote 6 Was interessiert, ist die Serialität der Interaktionen und die daraus erwachsenden Regularitäten, von denen wir aber umgekehrt annehmen können, dass sie die Voraussetzung für das individuelle Alltagsverstehen bilden. Der Zusammenhang von Mustererkennung und Verstehen ist auch in der neueren hermeneutischen Diskussion erkannt und thematisiert worden, besonders prägnant in der pragmatischen Verstehenstheorie Werner Kogges (2002):

Erstens sind sinnhafte Handlungen – mit Wittgenstein gesprochen – zwar durch relativ stabile Gepflogenheiten und Normalitäten des Gebrauchs geführt. Jedoch zwingt die Unterbestimmtheit der handlungsleitenden Muster gegenüber den je gegebenen Situationen zu einer ständigen, zumeist unauffälligen, da routinisierten Leistung des Verstehens. Diese Leistung besteht darin, in heterogenem und teilweise auch widerständigem Material ein unproblematisches Muster zu erkennen und herauszuschälen. Zweitens hat das Verstehen mit Wirkungen zu tun. Ob ich in einer Konfiguration diese oder jene Nuance betone bzw. als betont auffasse, kann sehr unterschiedliche Ketten von Konsequenzen nach sich ziehen. (Kogge 2002, S. 264)

Hier bildet die Fluchtlinie des Verstehens nicht mehr die Geisteswelt des meinenden Individuums, sondern vielmehr die von den Interagierenden als gemeinsam vorausgesetzte Erfahrung mit der Materialität, Serialität und Kontextsensitivität sprachlicher Äußerungen. Das trifft die Hauptannahme der linguistischen Beschäftigung mit dem Verstehen. Hier ist der Kernbegriff ›Kontextualisierung‹ (Gumperz 1982; Müller 2012, 2020). Dabei geht es darum, dass sprachliche Äußerungen neben der symbolischen immer auch eine indexikalische Bedeutung haben, die darauf verweist, mit welchen sprachlichen, situativen, sozialen und thematischen Kontexten man typischerweise zu rechnen hat, wenn etwas Bestimmtes gesagt oder geschrieben wird. »Kontextualisierung« ist also im Kern ein interaktionaler Begriff. Vorgeschlagen hat ihn John Gumperz (1982) im Rahmen der linguistischen Anthropologie. Kontextualisierung ist ein Verfahren, mit dem Äußerungen in einen von den Interaktanten selbst geschaffenen Kontext gestellt werden. Dieser Prozess verbindet empirische Beobachtungen mit Hintergrundwissen. Dieses wird in Form von Schemata organisiert und kann nach Auer (1986, S. 27) auf fünf verschiedenen Ebenen betrachtet werden: »Reden wir gerade miteinander?«, »Wer spricht gerade mit wem?«, »Was tun wir gerade?«, »Worüber sprechen wir gerade?« und »Wie stehen wir gerade zueinander?« Kontextualisierung hat in der empirischen Linguistik in verschiedenen Verwendungstraditionen an Bedeutung gewonnen. Der Begriff ist interaktional, epistemologisch und strukturell ausformuliert worden (Müller 2020, S. 46 f.). Es wird jeweils mit unterschiedlichen Schwerpunkten die Bedeutung von indexikalischen Zeichenbeziehungen zwischen Äußerungen und ihrem Kontext für das Verstehen und die Bedeutungszuweisung betont. Die Kontextualisierungsforschung hat mit diesem Modell gezeigt, dass es einen Zusammenhang zwischen der sprachlichen Musterbildung und der Typik situativer, sozialer und thematischer Kontexte gibt (Abb. 1). Damit bietet der Kontextualisierungsbegriff eine adäquate Heuristik, um Verhältnisse in Korpora zu erforschen, die über die Ausprägung von Mustern in Datensätzen hinausgehen, z. B. den Zusammenhang von Formulierungstradition und sozialer Rolle (Müller 2015) oder die sprachliche Markierung von Unsicherheit (Müller/Bartsch/Zinn 2021). Verstehen meint hier also die erfolgreiche Kontextualisierung eines sprachlichen Segments in einem gegebenen oder neu hergestellten Sinnzusammenhang. Es ist als Dimension alltäglicher sprachlicher Interaktion die Voraussetzung für die Erhebung und Analyse sprachlicher Datensätze (emische Kontextualisierung) und gleichzeitig als heuristisches Verfahren des regelgeleiteten Nachvollzugs von Prozessen der Sinnkonstitution ein zentrales Element der Forschungspraxis (etische Kontextualisierung – Müller 2015, S. 78 f.).

Abb. 1
figure 1

Das Zwiebelmodell der Kontextualisierung – FK = Fokuskonstruktion. Aus: Müller (2012, S. 50)

5.2 Segmentierung und Verstehen

Man kann das Verstehen in der Korpuslinguistik also als regelgeleiteten Nachvollzug von Kontextualisierungsprozessen beschreiben. In korpuslinguistischen Studien wird es manifest meistens ganz am Ende, wenn Daten, die bereits statistisch, strukturalistisch und funktional erklärt wurden, diskutiert und in ihrer Bedeutung erfasst werden sollen – im Sinne von Taylor/Marchis (2018, S. 6) Aussage, die diesem Abschnitt als Zitat vorangestellt ist: das diskursanalytische Arbeiten mit Korpora sei eine qualitative Analyse quantifizierbarer Muster. Damit ist das Verstehen in der Korpuslinguistik aber nicht abgehandelt. Vielmehr spielt es als Nebenbei-Praxis eine allumfassende und ganz entscheidende Rolle in allen Schritten des korpuslinguistischen Verfahrens. Das kann man sich am Beispiel der Segmentierung klarmachen (Bartsch et al. 2023). Das Verfahren der Segmentierung von Wörtern, Phrasen, Sätzen oder Textabschnitten wird in der Korpuslinguistik eigentlich immer angewendet, teils als Hintergrundprozess in der Korpusanalyseumgebung. Segmentierung ist allerdings keineswegs eine rein formale Angelegenheit, sondern muss immer als hermeneutische Praktik im Sinne Kogges gedacht werden, in der drei Teilprozesse untrennbar ineinandergreifen und aufeinander bezogen sind (Abb. 2): Das Ausschneiden eines Segments aus dem Textkontinuum (Zoning), die Zuweisung des Segments zu einer analytischen Kategorie (Subsumption) und die Festlegung der Tiefe des gedanklichen Zugriffs auf der Basis von mehr oder weniger Kontextinformation (Interpretation).

Abb. 2
figure 2

Dimensionen der Segmentierung. Aus: Bartsch et al. (2023, S. 11)

Betrachtet man z. B. den Satz (a–1) isoliert und ohne Kontextwissen einzubeziehen, dann wäre er als deontisch modalisierte Proposition zu interpretieren und pragmatisch als direktiver Sprechakt einzuordnen, konkret als Handlungsempfehlung. Berücksichtigt man aber den unmittelbaren Textzusammenhang (a–2), den Kotext, dann ergibt sich eine selbst gesteckte Zielsetzung als heuristische Textpraktik (Bender/Müller 2020) im Rahmen der Einleitung einer akademischen Arbeit, in Searles Terminologie ein kommissiver Sprechakt:

»a–1) Die Arbeit soll in diesen [sic] Zusammenhang Aspekte darstellen, die bei der Erstellung eines solchen Verfahrens grundsätzlich zu beachten sind, und Wege aufzeigen, wie diese im konkreten Anwendungsfall zu einem anwendungsfähigen Verfahren konkretisiert werden können.« (Dieleman 2016, S. 3)

a–2) 1.2 Zielsetzung der Arbeit. Ziel der Arbeit ist die Erarbeitung von allgemeingültigen Hinweisen für die Entwicklung von Entscheidungsverfahren, […]. Die Arbeit soll in diesen [sic] Zusammenhang Aspekte darstellen, die bei der Erstellung eines solchen Verfahrens grundsätzlich zu beachten sind, und Wege aufzeigen, wie diese im konkreten Anwendungsfall zu einem anwendungsfähigen Verfahren konkretisiert werden können. (Dieleman 2016, S. 3)

Ein anderes Beispiel betrifft die Segmentierung und Kategorisierung von Wörtern. Es stammt aus der als linguistisches Korpus aufbereiteten Version des Darmstädter Tagblatts (Stegmeier et al. 2022). Das Korpus wurde tokenisiert, also wortsegmentiert und mit dem für das Deutsche sehr oft verwendeten Stuttgart-Tübingen-Tagset (STTS – Schiller et al. 1999) wortartenannotiert. In Beleg b) sieht man, dass dabei zwangsläufig die diskontinuierlichen Partikelverben abziehen, aufheben und ausrufen als jeweils zwei Textwörter segmentiert werden. In der Kategorisierung wird zwar die Zugehörigkeit der Partikel zum Verbstamm ausgedrückt (PTKVZ = abgetrennter Verbzusatz), dennoch werden die Verben faktisch als diskontinuierliche Phrasen behandelt, z. B. bei der Wortzählung, die bei allen statistischen Operationen auf dem Korpus eine entscheidende Rolle spielt. Im Rahmen einer metaphysisch-strukturalistischen Erklärung würde man die Textwörter aber als Allomorphe von Derivations- und Stammmorphemen und Wortbestandteile klassifizieren und entsprechend 21 statt 24 Wörter zählen.

b–1) Er zog hiebei seinen Hut ab, hob die Hände auf, und rief aus: Gott und dem Kaiser haben wir die guten Zeiten zu danken. (Darmstädter Tagblatt, 01.03.1784)

b–2) Er_PPER zog_VVFIN hiebei_NE seinen_NN Hut_NN ab_PTKVZ ,_$, hob_VVFIN die_ART Hände_NN auf_PTKVZ ,_$, und_KON rief_VVFIN aus_PTKVZ :_$. Gott_NN und_KON dem_ART Kaiser_NN haben_VAFIN wir_PPER die_ART guten_ADJA Zeiten_NN zu_PTKZU danken_VVINF ._$.

Wenn man segmentiert, muss man also kategorisieren und interpretieren. Wichtig ist, dass man sich dessen bewusst ist und sich auch die Regeln, die man für die dem Segmentieren immanenten Verstehensprozesse geltend machen will, vor Augen führt. Umso mehr gilt das, wenn man mit Analyseumgebungen arbeitet, die Segmentierungsschritte automatisiert ausführen. Nach welchen Maßstäben erfolgt die Segmentierung und welche Interpretationsregeln sind dem Algorithmus eingeschrieben?

5.3 Annotation: Fokalisierungspraxis und Schnittstelle von Verstehen und Erklären

Eine sinnvolle Methode, Verstehensprozesse sich selbst und anderen explizit zu machen und außerdem für weitere, etwa statistische Verfahren verfügbar zu machen, ist die Annotation (Bender 2020; Bender/Müller 2020). Annotation ist eine Fokalisierungspraxis und bildet die Schnittstelle von Verstehen und Erklären. Dabei wird ein sprachliches Segment auf kategoriale Information bezogen. Man subsummiert ein sprachliches Segment, z. B. ein Wort, eine Phrase oder einen Satz unter eine Kategorie, wie oben in Beleg b–2) für die Wortartenkategorisierung vorgeführt. Dazu muss man das Segment verstehen, also kontextualisieren. Da Verstehen, wie oben dargestellt, auf der Kommunikationsbiographie des Individuums beruht, ist natürlich mit subjektiven Interpretamenten beim Annotieren und daher mit unterschiedlichen Ergebnissen zu rechnen, wenn mehrere Personen denselben Datensatz annotieren. Das kann im Prozess interessant und hilfreich sein, weil es z. B. auf Polysemie und Vagheit in den Daten, auf nicht präzise genug zugeschnittene Annotationskategorien oder auf unzureichender Regelformulierung (Annotations-Guidelines) beruht. Wichtig ist aber erstens, solche Fälle zu identifizieren, und zweitens, am Ende einen annotierten Datensatz zu haben, der auf möglichst konsensualen Interpretationen beruht. Schließlich soll später beim Suchen oder Messen einer annotierten Kategorie sichergestellt sein, dass sich dahinter ein einheitlich beschriebenes Phänomen (z. B. Substantiv, Verbalphrase, direktiver Sprechakt, Risikomarkierung, Argumentation) befindet. Ein wichtiges Merkmal der kollaborativen Annotation ist die flexible Herangehensweise an die Kategorienbildung. Kategorien können deduktiv aus theoretischen Ansätzen abgeleitet oder induktiv aus den Daten selbst entwickelt und differenziert werden. Dieser Ansatz erlaubt es, auch implizite semantische und pragmatische Phänomene zu erfassen, die eine tiefgehende Interpretation erfordern.

Insbesondere dann, wenn man manuelle Annotation zur Grundlage nehmen möchte, um einen Algorithmus zu trainieren, der die Annotation automatisch durchführt, ist es unerlässlich, dass die Segmentierungs‑, Subsumptions- und Interpretationsverfahren – das Verstehen also – einheitlich gestaltet wurden (Becker/Bender/Müller 2020; Bender 2023; Bender/Becker/Kiemes/Müller 2023). Im Zentrum der kollaborativen Annotation steht also die gemeinsame Interpretation von Texten durch mehrere Annotierende. Eine Schlüsselkomponente ist die Erstellung eines Goldstandards, der als Referenz für die automatische Annotation dient. Um die Qualität der Annotationen zu gewährleisten, werden die Kategorien von verschiedenen Annotierenden überprüft, um Übereinstimmungen und Abweichungen zu identifizieren (Inter-Annotator-Agreement – Artstein 2017). Während kollaborative Verfahren der Annotation in der Computerlinguistik zum Zwecke der Automatisierung angewendet werden, kann man sie auch zur Kategorienentwicklung verwenden – zum Textverstehen in qualitativen Forschungssettings. Der Vorteil liegt dabei darin, dass die Annotation die verstehende Person dazu zwingt, Interpretamente zu externalisieren und genau zu sagen, auf welches sprachliche Segment sie es bezieht. Verstehen wird damit zu einem Verfahren, das in Gruppenprozessen angewendet werden und von Anderen in der Forschungsdebatte genau nachvollzogen diskutiert und – auf Basis eines in Guidelines und Metadaten angegeben Kontext- und Regelwissens – auch falsifiziert werden kann. Damit ist die Annotation eine Schnittstelle zwischen pragmatischem Verstehen, normischer Erklärung und statistischer Analyse.

6 Anwendungsbeispiele

Die Vorteile und Herausforderungen des kollaborativen Verstehens möchte ich kurz an zwei Fallbeispielen verdeutlichen. Im ersten Fall geht es um die Analyse von Praktiken des Moralisierens, zuerst in den Plenarprotokollen des Deutschen Bundestags, im zweiten um die kollaborative Analyse der Diskursgeschichte der Bundesrepublik Deutschland seit der Wiedervereinigung.

6.1 Praktiken des Moralisierens

Unter »Moralisierung« verstehen Felder/Müller (2022, S. 246)

die Einschreibung von moralischen Kategorien und Bewertungen in Debatten und den daraus erwachsenden diskursstrategischen Verweis auf eine Form der Unhintergehbarkeit (Letztbegründung) eines Sachverhalts, der seine tatsächliche oder vermeintliche Gültigkeit dadurch erhält, dass er als moralischer Wert keiner weiteren Begründung oder Rechtfertigung bedarf.

Als Beispiel sei ein Beitrag Otto Schilys zur Rüstungsdebatte der frühen 1980er Jahre angeführt:

Wenn man mit Massenvernichtungsmitteln droht – sie heißen zu Unrecht »Waffen« –, dann droht man mit einem vielfachen Auschwitz. (Otto Schily, Die Grünen, Rede im Deutschen Bundestag am 15.06.1983)

Auf der Basis einer lexikalisch getriebenen Vorauswahl von Sätzen, die Moralvokabeln enthielten (Felder/Müller 2022, S. 249–254), haben die Autoren drei Stichproben von insgesamt 900 Sätzen aus den Jahren mit den meisten Moralvokabeln (1949, 1983, 2015) gezogen, doppelt annotiert und in drei Runden ein Inter-Annotator-Agreement gemessen (Abb. 3).

Die erste Annotationsrunde erbrachte ein zufriedenstellendes Ergebnis, wenn man bedenkt, dass Moralisierung ein vages, wertbehaftetes und weltanschaulich durchdrungenes Konzept ist […]. Der statistische Agreement-Wert berücksichtigt, dass Übereinstimmungen ja auch zufällig erfolgen können (Artstein 2017). Die abweichenden Beispiele wurden dann diskutiert und die Guidelines entsprechend erweitert. In der zweiten Runde ist die Übereinstimmung dann allerdings nicht besser, sondern deutlich schlechter geworden. Es wurde deutlich, dass die Kriterien noch sehr stark von der Satzbedeutung und der gemutmaßten Sprecherintention ausformuliert waren und stark auf Kontexten basierten. Kontexte waren beim Annotieren aber gar nicht präsent, weil ja extrahierte Einzelsätze annotiert wurden. Wir haben daher die Guidelines ein weiteres Mal überarbeitet und diesmal auf Oberflächenindikatoren geachtet, formalere Richtlinien erstellt und die Kategorie der Moralisierungspraktiken stark eingeschränkt. Auf diese Weise haben wir bei der dritten Messung ein Ergebnis erzielt, das auch in der computerlinguistischen Literatur als exzellente Übereinstimmung bezeichnet wird (vgl. Becker/Bender/Müller 2020, S. 442). (Felder/Müller 2022, S. 252)

Abb. 3
figure 3

Kollaborative Annotation und Inter-Annotator-Agreement bei der Korpusanalyse von Moralisierungen

Hier wurde also das Inter-Annotator-Agreement als Instrument zur Kategorienschärfung und Sicherung der gemeinsamen Verstehensbasis verwendet. Eine Auswertung ergab, dass der Anteil der Moralisierungen an den Moralthematisierungen in den Stichproben abnimmt. Während das Moralvokabular insgesamt in den Jahren 1983 und 2015 wesentlich höher ist, sind im Jahr 1949 anteilig Moralisierungen im eingeführten Sinne am häufigsten. Die Annotation von Moralisierungspraktiken wird auf dieser Basis unter Federführung der Computerlinguistin Maria Becker automatisiert und auf Daten aus weiteren Domänen angewandt (Becker/Felder/Müller 2023)

6.2 Gruppenverstehen: Kontroverse Diskurse

Ein methodisch ganz ähnliches Projekt, das aber die Methode skaliert im Hinblick auf Forschende und Kategorien ist die DFG-Forschungsgruppe Kontroverse Diskurse. Sprachgeschichte als Zeitgeschichte seit 1990, die im Juni 2022 ihre Arbeit aufgenommen hat (Wengeler 2022). Es geht dabei darum, die Sprachgeschichte seit der deutschen Wiedervereinigung als eine Geschichte der kontroversen sprachlichen Bearbeitung öffentlicher Themen zu rekonstruieren. Dabei soll Diskursgeschichtsschreibung zum ersten Mal in dieser Größenordnung als echte Gruppenforschung organisiert werden, was u. a. heißt, dass die Gruppe nicht nur eine gemeinsame Korpusinfrastruktur aufbaut und nutzt, sondern auch ein gemeinsames Annotationsschema entwickelt und damit Analysen einzelner Teilprojekte für die gesamte Gruppe fruchtbar macht. Dabei baut sie auf ein Prozessmodell, in dem algorithmische und interpretative Verfahren möglichst systematisch und transparent ineinandergreifen (Abb. 4).

Abb. 4
figure 4

Analyse-Workflow der DFG-Forschungsgruppe Kontroverse Diskurse. Aus: Müller (2023, S. 177)

Die Gruppe arbeitet in fünf Teilprojekten die zentralen Konzepte, Wissensbestände und Diskursstrategien der politischen und gesellschaftlichen Diskurse der letzten drei Jahrzehnte heraus. Vier Teilprojekte sind dabei inhaltlich nach sog. »tiefensemantischen Grundfiguren« (Partizipation & Egalität, Mensch & Technologie, Individuum & Gesellschaft, Freiheit & Sicherheit) organisiert, Teilprojekt 5 ist ein methodologisches. Es begleitet reflexiv den kollaborativen Annotationsprozess und führt Automatisierungsexperimente durch. Aus den verschiedenen Datenquellen (s. Abb. 4) stellt jedes Teilprojekt über geeignete Suchwörter (»Saatwörter«) ein Korpus themenrelevanter Texte zusammen. Dieses dient als Grundlage für Messungen, die sich Methodensets der Korpuslinguistik bedienen und das Ziel haben, geeignete Texte für dichte, interpretative Analysen zu eruieren. Dieses Kernkorpus werden in die Annotationsplattform INCEpTION importiert und dort mit semantischen und pragmatischen Kategorien wie Metapher, Topos oder Präsupposition annotiert. Dazu erstellt die Forschungsgruppe inkrementell ein gemeinsames Annotationsschema. Insofern dabei reliable Tagger für die diskurssemantischen und -pragmatischen Kategorien entstehen, wird das Gesamtkorpus mit diesen Annotationen angereichert. Diese werden über die Korpusinfrastruktur durchsuchbar gemacht, so dass die Verteilung und Kombinatorik der qualitativ erhobenen Kategorien im Gesamtkorpus gemessen werden kann (zum Prozess Müller/Stegmeier 2022). Damit soll erreicht werden, dass erstens die Analysen der Teilprojekte möglichst eng verschränkt werden können und zweitens die Methoden der qualitativen, verstehenden Diskursgeschichte auf große Datenbestände möglichst ohne Qualitätsverlust angewendet werden können (Müller 2023, S. 177 f.). Auch hier ist die Annotation also die zentrale Technik, in der pragmatisches Verstehen, statistische Analyse und normische Erklärung ineinandergreifen. Dazu ist die Gruppe so zusammengestellt, dass Expertinnen und Experten sowohl für hermeneutische als auch für statistisch-algorithmische Verfahren zusammenarbeiten und ihr Prozesswissen zusammenführen können.Footnote 7

7 Fazit

In diesem Beitrag habe ich das methodenpluralistische Begriffspaar ›Verstehen‹ und ›Erklären‹ auf die Methodendiskussion der digitalen Linguistik angewendet. Wir haben gesehen, dass Verstehen im Sinne einer Ko-Konstruktion von Sinn eine grundlegende Voraussetzung für die linguistische Forschung ist. Das Verstehen von sprachlichen Äußerungen im Kontext ermöglicht die Analyse von Mustern, Regularitäten und Kontextualisierungsprozessen, die wiederum für das Erklären sprachlicher Phänomene bedeutsam sind. Mit Schurz (2004) habe ich verschiedene Typen des Erklärens unterschieden und diese dann auf die linguistische Tradition bezogen. Während Praktiken des Erklärens in der digitalen Linguistik gut reflektiert und methodologisiert sind, ist das Verstehen eine Nebenbei-Praxis, dessen Beherrschung als Alltagskunst vorausgesetzt und nicht weiter diskutiert wird. Verstehen und Erklären greifen in der digitalen Linguistik notwendigerweise ineinander. Ein besonderes Augenmerk verdient in diesem Kontext die Methode der Annotation, die als Schnittstelle von Verstehen und Erklären fungiert. Durch die kategoriale Zuordnung von sprachlichen Segmenten wird das Verstehen methodisch kontrolliert und für weitere Analysen verfügbar gemacht. In allen Bereichen der Linguistik sehen wir eine wachsende Bedeutung von statistischen Erklärungen, weil die quantifizierbare Datenbasis linguistischer Forschung immer weiter zunimmt. Dennoch darf man nicht vergessen, dass sprachliche Daten immer in einem Kontext interpretiert werden müssen, was das Verstehen als grundlegenden Schritt in der linguistischen Forschung unverzichtbar macht.

In der digitalen Linguistik ist Kontextualisierung als Dimension alltäglicher sprachlicher Interaktion die Voraussetzung für die Erhebung und Analyse sprachlicher Datensätze (emische Kontextualisierung) und gleichzeitig als heuristisches Verfahren des regelgeleiteten Nachvollzugs von Prozessen der Sinnkonstitution ein zentrales Element der Forschungspraxis (etische Kontextualisierung). Man kann das Verstehen in der Korpuslinguistik also als regelgeleiteten Nachvollzug von Kontextualisierungsprozessen beschreiben. Mit dem geläufigen Programm, welches das diskursanalytische Arbeiten mit Korpora als eine qualitative Analyse quantifizierbarer Muster beschreibt, ist das Verstehen in der Korpuslinguistik aber nicht abgehandelt. Vielmehr spielt es als Nebenbei-Praxis eine allumfassende und ganz entscheidende Rolle in allen Schritten des korpuslinguistischen Verfahrens.