1 Einführung

Hate Speech ist ein genuin interdisziplinärer Forschungsgegenstand (vgl. z. B. Marx, 2018), der in den letzten Jahren in verschiedensten Bereichen wie der Politikwissenschaft, der Psychologie und nicht zuletzt der Linguistik große Aufmerksamkeit erfahren hat. In der Linguistik sind die meisten Publikationen zu Hate Speech in den Bereich der Sprachtechnologie einzuordnen, und hier geht es primär um die automatische Erkennung von Hate Speech (vgl. hierzu auch die Beiträge in diesem Band von Demus et al., Mandl und Schäfer). Zum Teil werden zwar auch in diesen Beiträgen einzelne sprachliche Charakteristika analytisch vorgestellt, das Hauptziel ist jedoch nicht eine rein sprachliche Analyse, wie dies im Bereich der beschreibenden Sprachwissenschaft der Fall ist. Im Vergleich zu Arbeiten aus der Sprachtechnologie sind solche, die primär darauf abzielen, sprachliche Charakteristika von Hate Speech darzustellen, weniger geläufig. Gleichzeitig ist die Etablierung eines Inventars an sprachlichen Mustern wichtig, um Fälle von Rechtswidrigkeiten anhand konkreter sprachlicher Kriterien eindeutiger bestimmen zu können (Ruzaite, 2018, S. 94). Daher ist es umso verwunderlicher, „how little is known about the linguistic and communicative mechanisms underlying the expression and perception of hate speech“ (Baumgarten et al., 2019, S. 87). Wie dieser Beitrag zeigen wird, ist der Forschungsstand in Bezug auf verschiedene sprachliche Charakteristika sehr unterschiedlich, denn gerade zu lexikalischen Eigenschaften von Hate Speech wie zum Beispiel Entmenschlichungsmetaphern ist bereits einiges bekannt, während sprachliche Ebenen wie die Pragmatik im Bereich der Hate-Speech-Forschung bisher deutlich weniger Aufmerksamkeit erfahren haben.

Im Folgenden soll der State of the Art im Bereich der linguistischen Hate-Speech-Forschung überblickshaft skizziert werden, wobei vereinzelt auch die beschreibenden Anteile von Arbeiten aus anderen Disziplinen herangezogen werden können, sofern sie substanzielle Einblicke in die sprachlichen Charakteristika von Hate Speech erlauben. In Abschn. 2 soll zunächst eine Einführung in den Begriff Hate Speech erfolgen, bevor Abschn. 3 einen Einblick in die verschiedenen Schwerpunkte von sprachwissenschaftlichen Fallstudien bietet. Neben einer Kurzdarstellung von vorherrschenden Ansätzen, untersuchten Diskursen, Medien und Sprachen werden hier auch einige konkrete sprachliche Charakteristika präsentiert und anhand konkreter Tweets in den Sprachen Deutsch, Englisch und Niederländisch illustriert. Diese Tweets stammen aus dem EU-geförderten Projekt Detect then Act, in dessen Rahmen ein Dashboard zur Identifikation von Hate Speech auf Twitter entstand, mit dessen Hilfe die meisten der in diesem Artikel verwendeten Tweets ausgewählt wurden. Der Beitrag schließt mit einer Zusammenfassung des Forschungsüberblickes und dessen Implikationen für zukünftige Forschungstendenzen (Abschn. 4). Das Fazit beinhaltet überdies ein Plädoyer für eine multimodale Hate-Speech-Forschung, die neben verbalem Text auch die zahlreichen weiteren Bedeutungsressourcen digitaler Kommunikationskontexte berücksichtigt.

2 Hate Speech

Der für verschiedene Phänomene sprachlicher Aggressivität und Diskriminierung in der Fachliteratur vorherrschende Begriff ist Hate Speech. Bei Smułczyński (2019) wird der Begriff Hasssprache verwendet, bei Meibauer (2013) Hassrede. Auch der Begriff des Flaming ist hier relevant, denn er bezeichnet „messages showing attributes such as hostility, aggression, intimidation, insults, offensiveness, unfriendly tone, uninhibited language, and sarcasm“ (Turnage, 2007, S. 44). Ein weiterer Begriff, der mit Hate Speech in Verbindung gebracht wird, ist der des Cyberbullying. Hierunter versteht man den Versuch, Menschen durch Beleidigungen und andere erniedrigende Äußerungen zu verletzen und ihre Persönlichkeit zu degradieren (Marx, 2013, S. 103).

Zur Definition von Hate Speech kann folgende vielzitierte Passage aus Meibauer (2013, S. 1) herangezogen werden: „Unter Hate Speech – hier übersetzt mit ‚Hassrede‘ – wird im Allgemeinen der sprachliche Ausdruck von Hass gegen Personen oder Gruppen verstanden, insbesondere durch die Verwendung von Ausdrücken, die der Herabsetzung und Verunglimpfung von Bevölkerungsgruppen dienen.“ Es handelt sich dabei folglich um eine sprachliche Handlung (vgl. Marx, 2018, S. 38). Marsters (2019, S. 19) betont für den US-amerikanischen Kontext, dass gleichzeitig eine Anstiftung zu Gewalt oder Animositäten gegenüber dem Target gegeben sein muss, um von Hate Speech sprechen zu können.Footnote 1 Unter dem Target einer diskriminierenden Äußerung versteht man die Person oder die Gruppe, auf die sie abzielt. Die Gruppen und Individuen, gegen die sich Hate Speech richtet oder richten kann, sind fast unbegrenzt – die große Reichweite, angefangen bei Migrant*innen und Mitbürger*innen anderer Religionen über Frauen, Homosexuelle, Transfrauen/-männer bis hin zu Veganer*innen, Menschen mit Behinderungen uvm., zeigt, dass es kaum menschliche Charakteristika gibt, die nicht zur Zielscheibe von Hate Speech werden können.

Obwohl Hate Speech nicht zwangsläufig immer mit Hass zu tun hat (Geyer, 2017, S. 3), handelt es sich um einen stark emotional besetzten Begriff, da er mit Phänomenen wie beispielsweise Intoleranz, Diskriminierung, Hass, Feindseligkeit, Stereotypisierung und Aggression assoziiert wird (Ruzaite, 2018, S. 96).

Der Bereich, in dem Hate Speech vorwiegend, wenngleich auch nicht ausschließlich, zu beobachten ist, sind Online-Kontexte aller Art, insbesondere die sozialen Netzwerke. Dies kann als Kehrseite der Tatsache gesehen werden, dass das Internet eine verstärkte Partizipation der Zivilgesellschaft ermöglicht, denn diese „can assume a more active role, as creators and co-creators of new content“, was wiederum die Möglichkeiten zur Verbreitung von diskriminierenden Äußerungen erleichtert (Arroyo López & Moreno López, 2017, S. 11).

3 Fallstudien

Fallstudien, die Hate Speech aus vollständig oder teilweise sprachwissenschaftlicher Sicht beleuchten, unterscheiden sich nach den folgenden Aspekten:

  • den methodischen Herangehensweisen,

  • den Targets,

  • den Diskursen,

  • den Medien,

  • den untersuchten Sprachen,

  • den untersuchten sprachlichen Charakteristika.

Der Forschungsstand zu diesen Aspekten soll an dieser Stelle exemplarisch skizziert werden, um Trends in der sprachwissenschaftlichen Hate-Speech-Forschung herauszuarbeiten, wobei ein Anspruch auf Vollständigkeit explizit nicht gegeben ist. Hierbei werden Arbeiten berücksichtigt, die sich konkret mit dem Phänomen Hate Speech befassen, aber auch solche, die damit verbundene Themen untersuchen, beispielsweise bestimmte sprachliche Charakteristika der Pejoration. Besonders das EU-geförderte Projekt C.O.N.T.A.C.T, das sich vor allem mit Online-Kommentaren zu Berichten und mit der Wahrnehmung von Hate Speech beschäftigt hat (vgl. Assimakopoulos et al., 2017), hat zu zahlreichen Publikationen im Bereich der linguistischen Hate-Speech-Forschung zu verschiedenen europäischen nationalen Kontexten beigetragen (z. B.Ruzaite, 2018 und alle Beiträge in Assimakopoulos et al., 2017), und zwar Dänemark, Griechenland, Zypern, Italien, Litauen, Polen, Spanien und Malta. Das Anschlussprojekt XPEROHS (z. B. Baumgarten et al., 2019 sowie Neitsch und Niebuhr in diesem Band), konzentriert sich auf die Sprachen Dänisch und Deutsch. Auch die Forschung zum Thema Cyberbullying, das zahlreiche Überlappungen mit Hate Speech aufweist, soll hier erwähnt werden. Diese wurde im deutschen Raum maßgeblich von Marx (z. B. 2013, 2017) vorangebracht.

3.1 Methodische Herangehensweise

Generell lassen sich die empirischen Arbeiten zum Thema in erster Linie danach kategorisieren, ob qualitativ oder quantitativ vorgegangen wird. Häufig liegen auch gemischte Ansätze vor, die beides kombinieren (Hardaker & McGlashan, 2016; Jaki & De Smedt, 2019; Jaki et al., 2019; Lewandowska-Tomaszczyk, 2016, 2017; Marsters, 2019; Nick, 2018). Typisch ist hier unter anderem eine Verbindung von korpuslinguistischen Methoden mit qualitativer (mitunter Kritischer) Diskursanalyse (Brindle, 2016; Marsters, 2019; Musolff, 2015). Ruzaite (2018) verwendet einen differenzierten korpuslinguistischen Ansatz und zeigt, an welchen Stellen ein quantitatives Vorgehen an seine Grenzen stößt.

Rein quantitativ arbeiten dagegen Baumgarten et al. (2019) und ElSherief et al. (2018). Konkrete Methoden, die bei quantitativer Hate-Speech-Forschung zum Tragen kommen, sind beispielsweise Keywordanalyse (z. B. in Brindle, 2016; ElSherief et al., 2018; Jaki et al., 2019; Ruzaite, 2018), Kollokations- und Konkordanzanalyse (Brindle, 2016; Jaki & De Smedt, 2019; Ruzaite, 2018), Clusteranalyse (Jaki & De Smedt, 2019) und Sentimentanalyse (Jaki & De Smedt, 2019; Jaki et al., 2019).

Qualitativ orientierte Untersuchungen bieten dagegen beispielsweise Agnetta (2018), Kałasznik (2018), Kleinke (2007), Kopytowska und Stawikowska-Marcinkowska (2020), Marx (2013, 2018), Smułczyński (2019) sowie Stojić und Brala-Vukanović (2017). Hier werden wiederum Methoden aus unterschiedlichen Teilbereichen der Linguistik eingesetzt, so aus der Kognitiven Linguistik wie in der Metaphernanalyse von Agnetta (2018), der Pragmatik wie in der Analyse verbaler Ablehnung mithilfe verschiedener Konzepte sprachlicher Höflichkeit in Kleinke (2007) oder der Lexikologie bzw. Lexikographie, wenn Stojić und Brala-Vukanović (2017) Elemente lexikalischer Abwertung aus Wörterbucheinträgen zusammenstellen.

3.2 Targets und Diskurse

Häufig korrelieren Targets mit bestimmten Diskursen, weswegen diese beiden Aspekte im Folgenden zusammen vorgestellt werden sollen. So richten sich Äußerungen im Feminismusdiskurs beispielsweise häufig gegen Feminist*innen oder im Veganismusdiskurs gegen Veganer*innen. Dementsprechend überzeugend ist auch die stark diskursanalytische Ausrichtung von Assimakopoulos et al. (2017). Nichtsdestoweniger handelt es sich hier nicht um einen Automatismus, d. h. dass zum Beispiel Social-Media-User*innen mitunter aufgrund ihres Aussehens, ihres Geschlechts oder anderer Charakteristika unabhängig vom Diskurs sprachliche Diskriminierung erfahren.

Besonders gut beforscht ist insgesamt Hate Speech gegen Migrant*innen im Allgemeinen und Geflüchtete im Besonderen (z. B. Kopytowska & Stawikowska-Marcinkowska, 2020; Kreis, 2017) bzw. der Immigrationsdiskurs, der häufig in Bezug auf die Darstellung von Migrant*innen in verschiedenen Medien untersucht wird (z. B. Agnetta, 2018; Musolff, 2015), und auch einer der beiden Hauptschwerpunkte des Projekts C.O.N.T.A.C.T. lag in Migrant*innen als Targets. Zur Sprache des Rassismus allgemein forscht überdies Hoffmann (2020), zu rechtsextremistischen Diskursen beispielsweise Baumgarten (2017) oder Jaki und De Smedt (2019). Deutlich weniger Forschung aus linguistischer Perspektive wird bislang noch im Bereich Sexismus bzw. Antifeminismus (zum Beispiel Hardaker & McGlashan, 2016Footnote 2; Jaki et al., 2019) und LGBTQ + (Brindle, 2016 zu Homosexualität sowie die verschiedenen Teiluntersuchungen von C.O.N.T.A.C.T) betrieben. Um Terrordiskurse geht es bei Smułczyński (2019) und Opiłowski (2020), bei Lewandowska-Tomaszczyk (2016, 2017) um die Griechenlandkrise im Jahr 2015. Diskurse, die Hate Speech selbst thematisieren, werden in Marx (2018) behandelt.

3.3 Medien

Besonders die sozialen Medien, die durch ihre relative Anonymität und ihre Enthemmungseffekte als Beförderer von Polarisierung und Hate Speech gelten (vgl. Hardaker & McGlashan, 2016, S. 82), werden häufig als Datenbasis herangezogen. Hier wird vor allem mit Twitter (Dynel, 2021; ElSherief et al., 2018; Hardaker & McGlashan, 2016; Jaki & De Smedt, 2019; Kreis, 2017; Marx, 2018) und Facebook (Greule et al., 2020; Opiłowski, 2020; Smułczyński, 2019) gearbeitet; zum Teil werden auch beide sozialen Netzwerke kombiniert (Baumgarten et al., 2019; Marx, 2018). Mit YouTube befassen sich beispielsweise Bou-Franch und Garcés Blitvitch (2014) sowie Kopytowska und Stawikowska-Marcinkowska (2020). Generell stehen allerdings verschiedenste Arten von Online-Medien im Fokus der linguistisch orientierten Hate-Speech-Analyse, denn „[v]om Virus der Hasssprache sind heute fast alle Domänen der Internetkommunikation betroffen: Blogs, Chats, Soziale Medien oder Leserforen“ (Smułczyński, 2019, S. 227). Manche Publikationen ziehen eine Reihe von Online-Medien exemplarisch heran (z. B. Agnetta, 2018; Musolff, 2015), die Mehrheit konzentriert sich jedoch auf ein konkretes Medium. So untersuchen Ruzaite (2018) und Lewandowska-Tomaszczyk (2016, 2017) Kommentare zu Nachrichten im Internet. Kleinke (2007) widmet sich konkret dem Diskussionsforum von Spiegel Online. Brindle (2016) beschäftigt sich mit der Website Stormfront, Marx (2013) im Kontext von Cyberbullying mit der Internetseite Isharegossip.com und Jaki et al. (2019) mit einem Forum für involuntary celibates (Männer, denen sexuelle Kontakte verwehrt bleiben), incels.me. Nick (2018) dagegen untersucht 30 anonyme Drohbriefe, die im Rahmen der US-Präsidentschaftswahl 2016 offline entstanden sind.

3.4 Sprachen

Die meisten Arbeiten, die sprachliche Charakteristika von Hate Speech beschreiben, liegen zweifelsohne zum Englischen vor (z. B. Baumgarten, 2017; Brindle, 2016; ElSherief et al., 2018; Hardaker & McGlashan, 2016; Jaki et al., 2019; Lewandowska-Tomaszczyk, 2016, 2017; Marsters, 2019; Musolff, 2015; Nick, 2018; Stojić & Brala-Vukanović, 2017). Jedoch beschäftigen sich auch zahlreiche Autor*innen mit der deutschen Sprache, so beispielsweise Agnetta (2018), Baumgarten et al. (2019), Jaki und De Smedt (2019), Kleinke (2007), Kopytowska und Stawikowska-Marcinkowska (2020), Marx (2018), Smułczyński (2019) oder Stojić und Brala-Vukanović (2017). Agnetta (2018) enthält neben deutschem auch französisches und italienisches Sprachmaterial. Auch zur polnischsprachigen Hate Speech wurden bereits einige Beiträge verfasst (Kopytowska & Stawikowska-Marcinkowska, 2020; Lewandowska-Tomaszczyk, 2016, 2017; Opiłowski, 2020; Smułczyński, 2019). Sowohl Lewandowska-Tomaszczyk (2016, 2017) und Smułczyński (2019) gehen hierbei kontrastiv vor. Die Arbeiten ergeben, dass polnische Hate Speech zu Zeitungsartikeln im Internet mehr graphische Marker (z. B. Schreibung in Großbuchstaben oder Gebrauch von Ausrufezeichen) emotionaler Aufgeladenheit als englische enthalten (Lewandowska-Tomaszczyk, 2016, S. 81) bzw. dass die untersuchte polnischsprachige Hate Speech generell eine höhere Intensität aufweist als die deutsche oder dänische (Smułczyński, 2019, S. 231). Neben den bereits genannten Sprachen liegen vereinzelt auch Arbeiten zum Dänischen (Baumgarten et al., 2019; Geyer, 2019; Smułczyński, 2019) und zum Litauischen (Ruzaite, 2018) vor.

3.5 Charakteristika

Die in den vorigen Abschnitten vorgestellten Publikationen beschäftigen sich mit einer Vielzahl sprachlicher Charakteristika und bieten zum Teil auch eine Übersicht über verschiedenste sprachliche Strategien der Diskriminierung (z. B. in Jaki & De Smedt, 2019; Marx, 2018; Meibauer, 2013; Nick, 2018; Smułczyński, 2019), die im Folgenden nur exemplarisch vorgestellt werden können.

Die meisten Arbeiten befassen sich mit pejorativer Lexik. In diesen Bereich fallen insbesondere pejorative Personenbezeichnungen, also lexikalische Einheiten, die eine negative Bewertung von Personen enthalten. Diese sind in sozialen Netzwerken häufig auch in Hashtags zu finden (1).

  1. (1)

    Shut the fuck up, you tangerine-dusted blunder muppet mendacious fuckbilled twatypus hoofwanking bunglecunt! #FakePresident #RacistInChief #AmericanTraitor #LiarInChief #CrookedTrump #PresidentCOVIDIOT #ChingaTuMAGA #Loser

Hierüber geben in quantitativen Arbeiten beispielsweise Keywordanalysen Aufschluss (z. B. ElSherief et al., 2018). Abwertende ethnische Bezeichnungen (Ethnophaulismen) spielen vor allem in Baumgarten et al. (2019) eine prominente Rolle. Sie umfassen zum Beispiel deutsche Bezeichnungen wie Kanake, Nafri, Polacke oder Zigeuner oder auch gegen Deutsche gerichtete Bezeichnungen wie Alman, Piefke, Kartoffel oder Kraut (2).

  1. (2)

    leftist scumbags/Soros. Orban is a beacon. What about the Krauts? Haven’t they a similar emergency legislation?

Hierbei handelt es sich um eine Art der StereotypisierungFootnote 3. Auffällig ist in diesem Zusammenhang, dass stereotype Personenbezeichnungen häufig in Form von Komposita auftreten, zum Beispiel Teppichknutscher oder Kanakenfotzen (Jaki & De Smedt, 2019, S. 14) zur Bezeichnung von Gruppen oder angstpsychopaat zur Bezeichnung eines Individuums (3).

  1. (3)

    In vredesnaam, welke debiel gelooft nog wat deze angstpsychopaat allemaal uitkraamt? Wie? (dt. ‚Welcher Debile glaubt um Himmels willen noch, was dieser Angstpsychopath ständig von sich gibt? Wer?‘)

Pejorative Personenbezeichnungen werden in Stojić und Brala-Vukanović (2017) nach morphologischen (unter anderem abwertende Suffixe wie dt. –ler oder engl. –tard) und semantischen Gesichtspunkten untergliedert. Die Autorinnen heben hervor, dass solche Bezeichnungen nicht unbedingt ein negatives Sem enthalten müssen wie die abwertende Bezeichnung für eine Frau in (4), sondern dass manche Wörter nur in bestimmten Kontexten eine negative Konnotation erhalten, was vor allem auf Lexeme aus dem Bereich der Fauna (5) zutrifft (Stojić & Brala-Vukanović, 2017, S. 68 f.).

  1. (4)

    Knetter gestoord imbeciel wijf. (dt. ‚Irres, gestörtes, schwachköpfiges Weib‘)

  2. (5)

    Alle die #Merz jetzt als Lichtblick sehen, sind dumme Schlafschafe.

Bei (5) liegt eine Entmenschlichungsmetapher vor, die ein häufig beobachtetes Phänomen in Hate Speech darstellt (z. B. Musolff, 2015). Es handelt sich dabei um einen gängigen sozialen Mechanismus, bei dem anderen Individuen der Status eines Menschen aberkannt wird – problematisch ist dies vor allem, da Entmenschlichung Konflikte verschärfen, Empathie verringern und im schlimmsten Fall sogar die Hemmschwelle für Gewalt reduzieren kann (vgl. Cassese, 2020, S. 108). In diesem Sinne werden beispielweise Migrant*innen in rechtsextremistischer deutscher Hate Speech auf Twitter häufig als Parasiten, Pack, Abschaum, Gesindel oder Müll bezeichnet (Jaki & De Smedt, 2019, S. 11). Interessant ist, dass Entmenschlichung in vereinzelten Situationen nicht nur für die Abwertung der Out-Group, sondern auch für die Beschreibung der In-Group verwendet wird: So verwenden involuntary celibates nicht nur für Frauen und attraktive Konkurrenten Entmenschlichungsmetaphern, sondern auch für andere involuntary celibates und als Selbstzuschreibung, so zum Beispiel in Usernamen wie Subhuman Trash oder Melancholy_Worm im Forum incels.me (Jaki et al., 2019, S. 257 f.). Dass die Konzeptualisierung von Targets als nicht-menschliche Entitäten von Tieren (6) über Ungeziefer (7) bis hin zu unbelebten Entitäten wie Abfall und Ähnlichem (8 und 9) reicht, demonstrieren auch folgende Beispiele aus Twitter:

  1. (6)

    Der Spinner ist ein asoziales Dreckschwein. PUNKT.

  2. (7)

    Vermin who only want to out-vermin the verminest vermin, while some of us are on Twitter for the jokes and shared humanity.

  3. (8)

    Wählt diesen Scheißhaufen eigentlich noch jemand zu dem auch dieser wirklich sympathische junge Mann gehört? Wenn ja, dann -um mal jemanden sehr klugen zu zitieren- legt euch gehackt!

  4. (9)

    Met voorlichting ga je agressief tuig niet tegenhouden. Vooral buitenlanders niet. (dt. ‚Mit Ausbildung kann man aggressives Zeug nicht aufhalten. Vor allem keine Ausländer.‘)

Auch andere Arten von Metaphern werden in sprachwissenschaftlichen Arbeiten thematisiert, insbesondere wenn es um die Darstellung von Geflüchteten im Migrationsdiskurs geht (z. B. Agnetta, 2018; Kałasznik, 2018). So demonstriert Agnetta (2018), wie die ankommenden Geflüchteten als Wassermassen dargestellt werden. Hier geht es zwar nicht um Hate Speech per se, aber um ein Phänomen, das in Hate Speech häufig vorkommt bzw. in der Kritik steht, durch negatives Framing die gesellschaftliche Polarisierung zu fördern.

Dass sich Diskriminierung und Ähnliches nicht nur auf der Ein-Wort-Ebene manifestiert, sondern es auch Konstruktionen gibt, die für Hate Speech charakteristisch sind, zeigen Baumgarten et al. (2019) anhand von hochfrequenten Konstruktionen wie Ich bin kein Rassist, aber oder Ich habe nichts gegen X, aber und die ach so. Über die Wortebene hinaus bewegt sich auch die Analyse von Sprachhandlungen, die Greule et al. (2020) in Facebook-Einträgen von Pegida exemplarisch anhand von KRITISIEREN untersuchen, wie sie auch in Hate Speech auf Twitter häufig auftritt (10). In Opiłowski (2020) werden Facebook-Kommentare mit Hilfe der Sprachhandlungen BELEHREN, HERABWÜRDIGEN, BEDROHEN, BELEIDIGEN und KRITISIEREN AM VERHÖHNEN kategorisiert und durch Texthandlungen auf die multimodale Ebene übertragen. Jaki und De Smedt (2019, S. 20 f.) geben einen exemplarischen Einblick in Sprechakte in rechtsextremistischer Hate Speech und kommen zu dem Schluss, dass die expressiven Sprechakte (11) in den untersuchten Twitter-Daten den höchsten Grad an Aggressivität und Abwertung aufweisen.

  1. (10)

    #Kameltreiber Wegen einer harmlosen #Kameltreiber Aussage soll ein Trainer zurücktreten, während 3 #Vergewaltiger draußen frei herumlaufen. Hat einer dieser schwachsinnigen #Rassismus Sucher dazu was getwittert? Fehlanzeige! #Flüchtlinge

  2. (11)

    ich hasse hasse hasse kanaken

Andere Arbeiten kontrastieren verschiedene Arten von Hate Speech in Bezug auf ihre sprachlichen Charakteristika. Interessant ist in diesem Zusammenhang beispielsweise die Untersuchung von Marsters (2019), die analysiert, durch welche sprachlichen Charakteristika im schriftlichen Diskurs auf eine erhöhte Gewaltbereitschaft geschlossen werden kann. Die untersuchten Kategorien schließen beispielsweise Modalverben, Personalpronomina und Schimpfwörter mit ein. Ein Ergebnis in ElSherief et al. (2018) ist, dass generalisierende Hate Speech (12) im Vergleich zu gerichteter Hate Speech (13) emotionalere Sprache aufweist, weniger informell und weniger aggressiv ist, stärker mit they (Othering) arbeitet und mehr Wörter aus dem Wortfeld death aufweist.

  1. (12)

    Wo sind denn die Wasserwerfer? Wird Zeit…. ekelhafte Egoisten und Idioten. ich könnte Kotzen bei so vielen Hackfressen…

  2. (13)

    Was jaja du dumme schlampe bevor ich dich Keller ankette und dich 3 Tage verhungern lasse du dumme nutte

Nicht zu vernachlässigen ist überdies die Tatsache, dass sich Hate Speech auf der Ebene der konkreten kommunikativen Handlung manifestiert und nicht notwendigerweise an eine konkrete sprachliche Oberfläche gebunden ist. Dies bedeutet einerseits, dass es auch diverse Formen indirekter Hate Speech gibt (vgl. Ruzaite, 2018). So zeigen Bou-Franch und Garcés Blitvitch (2014) beispielsweise anhand von Kommentaren auf YouTube-Videos, die ein Bewusstsein für Gewalt gegen Frauen schaffen wollen, dass nur die wenigsten Kommentare explizit Gewalt gegen Frauen verherrlichen, sondern dass implizite und indirekte Formen überwiegen. Andererseits können Äußerungen, die scheinbar Hate Speech, zum Beispiel in Form von Beleidigungen, darstellen, auch scherzhaft gemeint sein und werden von den Rezipierenden im Idealfall nicht als Beleidigungen interpretiert (vgl. Dynel, 2021). Aus forschungstechnischer Sicht sind diese Arten auch deshalb besonders reizvoll, da sie einen hohen Dekodierungsaufwand besitzen. Überdies entziehen sie sich bei der automatisierten Erkennung von Hate Speech, die sich an der sprachlichen Oberfläche orientiert, häufig einer korrekten Klassifizierung, denn hier liegen wichtige Kontextinformationen meist nicht vor (vgl. Schmidt & Wiegand, 2017, S. 8). Dies würde vermutlich auch auf Beispiel (14) zutreffen, in dem der ursprünglich weltoffene Hashtag #RefugeesWelcome ironisch verwendet wird, um eine migrant*innenfeindliche Äußerung zu tätigen, und die sprachliche Oberfläche zwar eine kritisch Einstellung reflektiert, aber wenig der in diesem Kontext üblicherweise verwendeten Rhetorik aufweist. Auch (15) verwendet Ironie und könnte nur schwer als Hate Speech ausgewiesen werden, wenn der Tweet nicht mit dem eindeutig negativ konnotierten Hashtag #MultikultiTodeskulti schließen würde, der einen Anhaltspunkt für die Interpretation liefert.

  1. (14)

    Ich muss ehrlich gestehen, dass ich die aufdringlichen Einwanderer als absolut störend empfinde. Wie kriegen wir diese Leute eigentlich wieder aus unserem schönen Land? #RefugeesWelcome

  2. (15)

    Am Mittwoch fühlte sich ein zum #Islam konvertierter Däne dazu berufen, den Menschen in #Norwegen islamische Sitten und Gebräuche mit der gebührenden Toleranz gegenüber Andersgläubigen näherzubringen. #Konvertit #WirHabenPlatz #MultikultiTodeskulti

4 Fazit und Plädoyer für eine multimodale Betrachtung von Hate Speech

Der Überblick über verschiedene Arbeiten, die Hate Speech aus sprachwissenschaftlicher Sicht beschreiben, in diesem Beitrag hat zeigt, dass vor allem der Wortebene hohe Aufmerksamkeit zuteil wird, da hier zahlreiche Strategien existieren, um sprachlich ein Feindbild zu konstruieren. Gleichzeitig wird deutlich, dass Hate Speech auch über die Wortebene hinaus charakteristische Merkmale aufweist, die nicht vernachlässigt werden sollten. Auch darf man nicht Gefahr laufen, Hate Speech mit aus dem Kontext gelösten pejorativen Wörtern gleichzusetzen, da diese immer im Kontext zwischen Sender und Empfänger entsteht (Marx, 2018, S. 49; vgl. auch Nick, 2018, S. 186). So stellen besonders Untersuchungen zur pragmatischen Ebene von Hate Speech und allgemein zu indirekter Hate Speech noch ein stärkeres Desiderat dar als Untersuchungen auf der lexikalischen Ebene.

Der Fokus der Ausführungen lag klar auf der rein verbalen Ebene, wie dies für die Mehrheit linguistischer Arbeiten zu Hate Speech der Fall ist (mit Ausnahme beispielsweise von Arbeiten wie Kreis, 2017; Opiłowski, 2020). Kommunikation in sozialen Medien ist jedoch bei weitem nicht auf verbalen Text beschränkt, sondern ist multimodal. Multimodal sind Kommunikate, „which combine various sign systems (modes) and whose production and reception calls upon the communicators to semantically and formally interrelate all sign repertoires present“ (Stöckl, 2004, S. 9). Posts und Kommentare in den sozialen Medien sind insofern multimodal, als sie interaktive Bedeutungsressourcen, Text- und Bildelemente einschließen. Wie Abb. 1 für Twitter demonstriert, gehören zu diesen interaktiven Ressourcen beispielsweise Verlinkungen (hier: Link auf die Tagungswebsite), Mentions (Verweise auf andere User*innen) oder Hashtags (#HateSpeech, #HASeKI, #IPHSE2, #unihildesheim). Hinzu kommen die über dem Tweet platzierten Metainformationen zur Userin (@sylviajaki), das Profilfoto (hier unkenntlich gemacht) und der Tweetzeitpunkt (28 Min. vor Aufnahme des Screenshots) sowie die am Ende platzierten Möglichkeiten zum Kommentieren, Retweeten, Liken und Teilen (einschl. weiterer Funktionen) beziehungsweise Informationen zu Kommentaren, Likes (3), Retweets (4) sowie bei eigenen Tweets zur Tweet-Statistik. Darüber hinaus prägen den Tweet Bildelemente, und zwar Emojis und eingebettete Bilder aus verlinkten Artikeln, Fotos, Memes usw. (hier: hinzugefügtes Bild, das sich auch auf der verlinkten Website befindet). Verbaler Text, der für die Linguistik besonders relevant ist, findet sich hier im Posttext (bzw. potenziell in Kommentaren zum Post) und als Text im Bild.

Abb. 1
figure 1

Beispieltweet

Für die multimodale Analyse von Hate Speech sind vor allem drei Elemente hochrelevant, und zwar verlinkte Inhalte (die beispielsweise Straftatbestände wie Volksverhetzung erfüllen könnten), Emojis und eingebettete Bilder. Emojis werden aufgrund ihrer starken visuellen Salienz unmittelbar perzipiert (Beißwenger & Pappert, 2020, S. 100). Eine Funktion von Emojis, die im Rahmen von Hate Speech besonders ausgeprägt ist, ist deren Kontextualisierungsfunktion:

Mit der Verwendung von Emojis in dieser Funktion wird für die Adressatinnen und Adressaten der Kontext konstituiert, vor dessen Hintergrund und unter dessen Bedingungen der oder die Verwendende eine sprachliche Äußerung interpretiert wissen möchte oder anhand dessen die Einstellung der oder des Verwendenden zu einem geäußerten Sachverhalt rekonstruierbar gemacht werden soll, ohne diese explizit sprachlich zu formulieren. (Beißwenger & Pappert, 2020, S. 101)

Folglich haben wir es bei Emojis mit salienten Hinweisen darauf zu tun, wie ein Kommentar zu lesen ist. Wie Jaki und De Smedt (2019, S. 20) für rechtsextremistische Hate Speech auf Twitter zeigen, besitzen Emojis in Hate Speech oft intensivierende Wirkung und weisen insofern auf eine emotionale Beteiligung hin, als sie besonders mit expressiven Sprechakten auftreten (16).

  1. (16)

    Wat een walgelijke idioten, mocht er ooit nog een oorlog komen dan hoop ik dat de tegenstemmers als eerste doodgaan van de honger. (dt. ‚Was für widerliche Idioten. Sollte es noch jemals einen Krieg geben, hoffe ich, dass die, die dagegen stimmen, als erste verhungern‘)

So stellen Emojis folglich per se noch keine Hate Speech dar, sie sind jedoch ein integraler Bestandteil von Hate Speech und eng mit verbalen Elementen verknüpft.

Im Gegensatz zu Emojis können eingebundene Bildobjekte durchaus für sich gesehen konstitutiv für Hate Speech sein oder Hate Speech entsteht erst aus der Interaktion zwischen Text- und Bildanteilen. Besonders Memes spielen hier eine tragende Rolle, denn ihr Gebrauch in extremistischer Kommunikation, insbesondere in rechtsextremistischen Kreisen, hat stark zugenommen: Wie Bogerts und Fielitz (2019, S. 138) betonen, „we can barely understand recent far-right cultures without taking into account the diverse messages that memes disseminate“.

Im Folgenden möchte ich illustrierend zwei Fälle anführen, bei denen sich Text- und Bildelemente umgekehrt zueinander verhalten (Posttext kontextualisiert Bild vs. Bild kontextualisiert Posttext). In Abb. 2 liegt bei dem eingebetteten Meme bereits ein Text-Bild-Verband vor. Der visuelle Anteil allein ist nicht diskriminierend, sondern bietet nur die Folie für die misogynen Aussagen There is only one gender und Women are objects, von denen die zweite überdies eine Entmenschlichung darstellt. Ob dieser Bildverband jedoch eine ernst gemeinte Aussage darstellt oder eine kritische Distanzierung von Donald Trumps Frauenbild, ist ohne den Text des Posts nicht zu entscheiden. Mit I agree jedoch positioniert sich der User, liefert somit eine Lesehilfe, und der Tweet kann als frauenfeindlich eingestuft werden.

Abb. 2
figure 2

Frauenfeindlicher Tweet mit Kontextualisierungsfunktion des Textes

In Abb. 3 jedoch haben wir es mit einem Text im Post zu tun, der als ironisch interpretiert werden muss. Dies suggerieren bereits einige Textelemente (Was so alles aus dem #Mittelmeer gefischt wird, die Markierung von Neuen Deutschen in Anführungszeichen sowie die ironische Verwendung von echt). Wie abwertend die Aussage jedoch wirklich ist, wird durch das eingebettete Foto deutlich, das eine Gruppe schwarzer Jugendlicher zeigt.

Abb. 3
figure 3

Rassistischer Tweet mit Kontextualisierungsfunktion des Bildes

Der Eindruck, den die Jugendlichen auf diesem Bild machen, lässt sich als Kontrast zur Attribution nett beschreiben, denn sie wirken insbesondere aufgrund der heruntergelassenen Hosen und der Sturmhaube des Jugendlichen rechts im Bild unsympathisch und sogar gefährlich. Dass die Rezipierenden des Tweets eine (sicherlich intendierte) direkte Verbindung zwischen dem Aussehen auf dem Bild und Vorfällen sexualisierter Gewalt herstellen, zeigt sich zum Beispiel darin, dass ein User antwortet: Die Hosen haben die Buben sicherheitshalber schon runtergelassen. Allzeit bereit… #rapefugees. Durch die Kombination aus Text und Bild wird folglich ein komplexes Assoziationsgefüge geschaffen. Eine Recherche im Netz zeigt jedoch, dass es sich hier nicht um Geflüchtete handelt, sondern um ein älteres Bild von Jugendlichen aus den USA und bei den heruntergelassenen Hosen um eine Art Modetrend. Das Bildelement wird folglich verwendet, um gezielt Angst vor Geflüchteten zu schüren.

Die angeführten Beispiele sollen zeigen, dass eine Analyse über den rein verbalen Text hinaus nötig ist, um Hate Speech (manuell oder automatisiert) identifizieren und umfassend beschreiben zu können. Besonders zwischen Text- und Bildelementen können verschiedenste Beziehungen bestehen, die die Hate-Speech-Forschung noch eingehend in ihrem Wechselspiel beschreiben muss. Zusammenfassend lässt sich folglich feststellen, dass die multimodale Natur von Hate Speech noch ein weitgehendes Forschungsdesiderat darstellt, das es in den nächsten Jahren systematischer zu schließen gilt.