1 Einleitung

Digitale Kommunikation und politische Regulierung stehen in einem grundlegenden Spannungsverhältnis. Dezentralität, Transnationalität und weitgehend privatwirtschaftliche Trägerschaft als wesentliche Merkmale der Internetarchitektur sowie die relative Anonymität der Netzwerkkommunikation fordern hergebrachte Strukturen und Routinen der Regulierung heraus. Zudem bildet die freie Rede eine wesentliche Wertegrundlage und ein normatives Ideal für viele Gesellschaften und Regierungen (insb. demokratische) in der gesamten Welt. Das Internet und seine grundlegend freiheitliche Anlage und Architektur haben diese Werteorientierung in den vergangenen Jahrzehnten noch verstärkt und zur globalen Verbreitung entsprechender Geltungsansprüche – wie auch normativer und institutioneller Widerstände (s. etwa China) – beigetragen. So beobachten wir aktuell neue und flexible Formen der Governance, insbesondere wenn es um die Regulierung von Internetinhalten geht. Gerade auf diesem Feld ist die Spannung zwischen einem wachsenden gesellschaftlichen Problemdruck und beschränkten Handlungsspielräumen für klassische Regulierungsakteure besonders deutlich geworden. Gleichzeitig wachsen allerdings die Sorgen, dass die neuartigen Arrangements der Ko- und Selbstregulierung mit zentraler Rolle für große Plattformen aufgrund intransparenter Praktiken, algorithmengestützter Filterung und Steuerung normative Standards demokratischer Governance eher noch unterlaufen als sie zu stützen. Anders als in früheren Phasen der Internetentwicklung, als euphorische Erwartungen im Hinblick auf die politische Teilhabe, die demokratische Diskursqualität und die grenzüberschreitende Kommunikation überwogen und diese Chancen mit der relativ geringen Regelungsdichte und Staatsferne der Internettechnologie begründet wurden (Benkler, 2006; Rheingold, 1994), wird seit einigen Jahren vermehrt über die Schattenseiten digitaler Kommunikation debattiert (Kneuer, 2013). Dabei nehmen Sorgen vor der Verbreitung von Hassrede, Hetze und extremistischen Inhalten sowie ihren schädlichen Wirkungen auf das gesellschaftliche Leben und den demokratischen Diskurs einen prominenten Platz ein. Diese haben in den vergangenen Jahren zunehmend die Aufmerksamkeit von politischen Entscheidungsträger*innen gewonnen und zu verstärkten Regulierungsbemühungen auf verschiedenen Ebenen geführt. Der eingeleitete Wandel in der politischen Regulierungspraxis hat auch in der wissenschaftlichen Bearbeitung neue Schwerpunktsetzungen hervorgerufen. Im vorliegenden Beitrag möchten wir einen kombinierten Überblick über einige zentrale Tendenzen und Trends der Regulierungspraxis sowie ihrer wissenschaftlichen Bearbeitung bieten.

Zunächst einmal blicken wir auf den grundlegenden Paradigmenwechsel, der sich in der liberaldemokratischen Internetregulierung andeutet (2). Danach diskutieren wir die chronologisch wie disziplinär unterscheidbaren Forschungsstränge entlang von drei Stationen mit konkretem Bezug zur Hassrede (3). Im Anschluss daran wenden wir uns den Regulationsaktivitäten zu, zuerst mit Blick auf die Regeldefinition (4), dann im Hinblick auf die Verfolgungs- und Sanktionspraxis (5). Unser Fokus liegt auf Hassrede als Regulierungsgegenstand. Allerdings lassen sich politische Trends, Regulierungsbemühungen sowie ihre wissenschaftliche Bearbeitung nicht immer auf diesen Gegenstand verengen, sondern er fällt als prominentes und aktuell besonders virulentes Beispiel in das weitere Feld der Regulierung von Internetinhalten.Footnote 1

2 Der Ruf nach verantwortlichen Plattformen und das Ende des Internetexzeptionalismus?

Die oben beschriebenen Trends zu vermehrten Regulierungsforderungen und gesteigerter Regulationspraxis in Bezug auf Inhalte der Online-Kommunikation haben auch demokratische Systeme erfasst (s. etwa die jährlichen Berichte Freedom on the Net, Freedom House, 2021). Dabei ist das eingangs genannte Spannungsverhältnis („the inherent tension“) für liberale Demokratien besonders groß, weil jeder Eingriff in die Online-Kommunikation gegen das für den demokratischen Regimetyp konstitutive Recht auf freie Meinungsäußerung und Information sorgsam abgewogen werden muss (Schejter & Han, 2011, S. 248). Der für demokratische Medienpolitik so typische, normativ begründete „bias against control“ (McQuail, 2010, S. 234) ist zudem in den zurückliegenden Jahrzehnten, also parallel zur Internetentwicklung, durch die gründliche Liberalisierung auch der klassischen Medienmärkte eher noch vergrößert worden. Im Ergebnis weist die Regulierung des Internets und der digitalen Kommunikation erhebliche Besonderheiten gegenüber der medienpolitischen Regelungsdichte und den Kontrollinstanzen von Presse, Rundfunk und Fernsehen auf. Dazu zählt im Wesentlichen das sogenannte Haftungsprivileg, das besagt, dass solche Inhalteanbieter im Internet, die selbst nicht Hersteller der verbreiteten Inhalte sind, sondern nur als Plattformen für den Austausch von Inhalten Dritter fungieren, nicht für die veröffentlichten Inhalte in Haftung genommen werden können. Diese Grundregel, wie sie in der US-amerikanischen Telekommunikationsregulierung seit 1996 verankert ist (Communications Decency Act) und die Internetregulierung zumindest innerhalb des westlichen Internetökosystems prägt, gilt als Grundbedingung für die dynamische Kommerzialisierung, die Kommunikationsfreiheit und die Innovationskraft des Internets. Aus Regulationsperspektive haben Beobachter*innen in der Vergangenheit in diesem Zusammenhang auch vom „Internetexzeptionalismus“ (Wu, 2010) gesprochen.

Aktuell lässt sich auch für liberale Demokratien ein regulatorischer Paradigmenwechsel beobachten. Er setzt bei den großen Plattformen an, die als zentrale Infrastrukturanbieter kritische Funktionen für moderne Gesellschaften, insbesondere auch im Hinblick auf die öffentliche und politische Kommunikation, übernommen haben (Van Dijck et al., 2018) und damit für die beklagten Phänomene gesellschaftlicher Polarisierung und der Verrohung des demokratischen Diskurses mitverantwortlich gemacht werden können. Aus dieser Beobachtung und Verantwortungszuschreibung sind in vielen Ländern gesetzgeberische Reformen hervorgegangen, die die Regeln für eine bedingte Haftung von Plattformen festlegen. Unter den liberalen Demokratien kann insbesondere Deutschland als Vorreiterin gelten. Denn in Deutschland führten die Bedenken über die Folgen von Hassrede und Extremismus im Netz – bspw. die begünstigende Wirkung auf politische Gewalt (Müller & Schwarz, 2021) – zu einer Folge von Gesetzesnovellen, die die Betreiber sozialer Medien 2017 zunächst zur Löschung strafbarer Inhalte (Netzwerkdurchsetzungsgesetz, kurz: NetzDG) und schließlich 2020 zu deren Meldung verpflichtet haben (Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität). Insbesondere das NetzDG ist international viel beachtet (und auch mit Kritik bedacht) worden. An seinem Vorbild haben sich andere Länder in ihrer Rechtsetzung orientiert, wie etwa Frankreich. Auch der im Dezember 2020 von der EU präsentierte und mit großen Erwartungen begleitete Verordnungsentwurf zu einem Digital Services Act, also einer grundlegenden europäischen Rechtsetzung im Hinblick auf digitale Dienste, macht Anleihen am Beispiel des NetzDG. So etwa im Hinblick auf die Löschpflichten nach Meldung (notice-and-takedown), die Transparenz und Aufsicht der Content-Moderation auf Seiten der Plattformen sowie das Beschwerdemanagement (Schünemann, 2021).

Selbst in den USA gerät das Haftungsprivileg nach Section 230 des Communications Act zunehmend unter Druck. Diese Entwicklung ist in verschiedener Hinsicht bemerkenswert und kann bedeutende Folgen auch für die Internetentwicklung weltweit zeitigen, denn die Vereinigten Staaten zeichnen sich im internationalen Vergleich durch einen besonderen Schutz der freien Rede aus, die im Verfassungsrecht an zentraler Stelle (1st Amendment) verankert ist und traditionell von Politik und Justiz verteidigt wird. Gerade in Bezug auf das Internet, die Freiheit von staatlicher Regulierung und die Innovationskraft von Internetunternehmen haben die USA in der Vergangenheit einen entschieden liberalen Ansatz vertreten und gegen Tendenzen zur Einschränkung der Internetfreiheit in anderen – insbesondere autokratischen – Staaten verteidigt. Aufgrund der von den USA ausgegangenen Internetentwicklung, seiner Marktmacht und der klaren Dominanz US-amerikanischer Plattformanbieter für das westliche Internetökosystem nehmen die USA weiterhin eine besonders prägende Rolle für die digitalpolitische Governance ein. Eine partielle Reform des Haftungsprivilegs ist für die aktuelle Legislaturperiode wahrscheinlich. Nicht allein im zurückliegenden Präsidentschaftswahlkampf war zu beobachten, wie dieses Fundament der Internetregulierung von beiden konkurrierenden Lagern infrage gestellt und als reformbedürftig charakterisiert wurde. Hassrede und Hetze in Online-Medien spielen dabei als besonders dringlich wahrgenommene Regulationsgegenstände und Rechtfertigungen für Eingriffe in die Kommunikationsfreiheit eine zunehmend wichtige Rolle. Dies zeigen etwa die dramatischen Entwicklungen anlässlich der zurückliegenden Präsidentschaftswahl, insbesondere die Erstürmung des Kapitols Anfang Januar 2021, die verschiedene Plattformen ihrerseits zu Reaktionen veranlasst und zugleich auch die politische Reformnotwendigkeit unterstrichen haben. Auch die im Herbst 2021 veröffentlichten Dokumente der Whistleblowerin Frances Haugen zum Umgang des Plattformbetreibers Facebook mit Hassrede und anderen schädlichen InhaltenFootnote 2 haben den Druck auf die politischen Akteure verstärkt, effektive Regulierungsmaßnahmen zu ergreifen oder auf Seiten der Plattformen herbeizuführen.

Vor diesem Hintergrund stellt sich die in der Vergangenheit immer wieder diskutierte Frage nach der Zukunft des ‚Internetexzeptionalismus‘ im Hinblick auf Möglichkeiten, Formen und Ausmaße medienpolitischer Regulierung (Wu, 2010) in neuer Aktualität: Vollzieht die digitalpolitische Regulierung derzeit einen Paradigmenwechsel? Ist für die digitale Kommunikation eine medienpolitische Normalisierung im Vergleich zu anderen Kommunikationsmedien zu erwarten oder bleibt die Governance digitaler Medien eine Sphäre mit eigenen Gesetzlichkeiten und spezifischen Governance-Formaten? Für diese Fragen hat die Regulierung von Online-Hassrede eine entscheidende Bedeutung. Sie steht entsprechend im Mittelpunkt der folgenden Abschnitte.

3 Definition von Hassrede unter besonderer Berücksichtigung der digitalen Konstellation

Linguistische und computerlinguistische Ansätze zur Erkennung von Hassrede gehen vielfach von einer weiteren Definition von Hassrede im Sinne von „offensive speech“ aus, als es aus politiktheoretischer Perspektive normativ geboten und aus regulatorischer Sicht praktikabel scheint. Letztere Perspektiven beschränken sich in der Regel auf die inhaltliche Dimension von Hassrede und einige kontextuelle Faktoren (Medienumgebung, Textsorte etc.), die eine differenzierte Bewertung erfordern (vgl. Sirsch, 2013, S. 167 f.).

Bestehende gesetzliche Regelungen zum Umgang mit Hassrede spiegeln die definitorische Engführung grundsätzlich wider und unterscheiden zumeist auf der inhaltlichen Ebene zwischen persönlichen und gruppenbezogenen Äußerungen von Hass, wobei allerdings verschiedene Kontextfaktoren wie die Unterscheidung öffentlicher und privater Kommunikation oder etwa satirischer und künstlerischer Formate Differenzierungspotential bieten und Rechtfertigungsgründe darstellen können. Zudem wird auch der potenzielle Schaden eines Kommunikationsvorgangs bemessen. Viele gesetzliche Regelungen legen daher bspw. fest, dass Hate Speech geeignet sein müsse, den öffentlichen Frieden zu stören, bspw. § 130 StGB:

  1. (1)

    Wer in einer Weise, die geeignet ist, den öffentlichen Frieden zu stören,

    • gegen eine nationale, rassische, religiöse oder durch ihre ethnische Herkunft bestimmte Gruppe, gegen Teile der Bevölkerung oder gegen einen Einzelnen wegen seiner Zugehörigkeit zu einer vorbezeichneten Gruppe oder zu einem Teil der Bevölkerung zum Hass aufstachelt, zu Gewalt- oder Willkürmaßnahmen auffordert […]

    • wird mit Freiheitsstrafe von drei Monaten bis zu fünf Jahren bestraft.

Nach Einschätzung von Kritiker*innen werden diese etablierten Differenzierungen durch digitale Kommunikationsformen herausgefordert (Bakalis, 2016, S. 266). Grundlegend sind aus dieser Perspektive daher sowohl neue graduelle Unterscheidungen zwischen privaten und öffentlichen Kommunikationsvorgängen zu etablieren als auch zusätzlich Überlegungen zur transnationalen Dynamik von Hate Speech und deren schädlicher Wirkung anzustellen.

Grundlegende Überlegungen zur Besonderheit von digitaler Hassrede aus philosophisch-ethischer und rechtlicher Perspektive thematisieren sowohl die Verbreitung und Exposition als auch die potentielle Wirkung. So sei zunächst die Exposition gegenüber Hate Speech in der digitalen Sphäre schwerer zu kalkulieren, da auf Plattformen sehr heterogene Gruppen interagieren und nicht bei jedem Klick vorhersehbar sei, welche Inhalte folgen können (Bakalis, 2016, S. 267).

Mit der (geografischen) Distanz zwischen Täter*innen und Opfern nehme zudem die Wahrscheinlichkeit ab, dass sich bei persönlicher Interaktion Mitgefühl oder Sympathie einstellen könnten (Brown, 2015, S. 134 f.). Dies trifft zwar auf alle Formen vermittelter Kommunikation zu und ist damit kein genuines Merkmal der Digitalisierung. Allerdings haben vermittelte Formen durch die Digitalisierung einen neuen Stellenwert für die interpersonelle Kommunikation erlangt. In diesem Kontext werden in der demokratietheoretischen Literatur seit langer Zeit die schädlichen Wirkungen der relativen Anonymität von Kommunikationspartner*innen im Netz diskutiert, wobei ein vergleichsweise offensives, polarisierendes und extremes Diskursverhalten erwartet wird (Barber, 2001, S. 216). Entgegen den in den 1990er und 2000er Jahren noch verbreiteten euphorischen Positionen und demokratischen Versprechen (Rheingold, 1994), wurden die Chancen für demokratische Deliberation mithin von einem skeptischen Lager als schlecht eingeschätzt. So heißt es etwa bei Buchstein (Buchstein, 1996, S. 601): „[d]er Umgang im Netz ist rauher und barscher geworden, die Anonymität wirkt zumeist als Schutzschild für verbale Grausamkeiten.“ Nachdem im Zuge des arabischen Frühlings die potenziell demokratiefördernde Wirkung (bzw. deren Limitationen) digitaler Kommunikation debattiert wurde, sind es derzeit diese Schattenseiten, die im Fokus öffentlichen und wissenschaftlichen Interesses stehen.

Trotz der genannten Besonderheiten zeigt sich insbesondere in der Rechtspraxis aber, so Heinze (2016, S. 85), dass ein Transfer bestehender Gesetze möglich und gängig ist. So urteilen Gerichte regelmäßig darüber, ab wann bspw. mit digitaler Kommunikation Öffentlichkeit hergestellt ist. Auch Gesetze, die auf die schriftliche Verbreitung von Hate Speech rekurrieren, wurden in der gerichtlichen Praxis als auf digitale Verbreitungsformen anwendbar befunden (Brown, 2015, S. 248; Schweppe et al., 2014, S. 12). Die Anwendbarkeit auch „alter“ gesetzlicher Regelungen ist meist prinzipiell möglich, sodass im Hinblick auf den Regulierungsgegenstand der Hassrede per se angesichts bestehender, teils europäisch und international harmonisierter Straftatbestände nicht von einer digitalpolitischen Regelungslücke auszugehen ist.

Aus rechts- und politiktheoretischer Perspektive stellt sich angesichts der intensivierten Debatte über Hate-Speech-Regulierung in der digitalen Konstellation allerdings die bekannte Frage nach einer allgemeinen Rechtfertigung von Eingriffen in die Redefreiheit durch liberaldemokratische Regime in neuer Dringlichkeit. Einem „Free-Speech-Absolutismus“, wie er sich insbesondere aus einer liberalen Auslegung des US-Verfassungsrechts entwickelt hat (Scanlon, 1972), kann sowohl aus rechtswissenschaftlicher als auch politiktheoretischer Sicht eine Absage erteilt werden. Dennoch sind die Handlungsspielräume einer „wehrhaften Demokratie“ auf diesem Feld normativ eng beschränkt (Sirsch, 2013; Sunstein, 1995).

4 Regulierung von Online-Inhalten: Regeldefinition

In der öffentlichen und wissenschaftlichen Debatte werden die Besonderheiten und genuin neuen Herausforderungen durch digitale Hassrede betont, und der Eindruck entsteht, dass dem Phänomen nicht mit etablierten Maßnahmen begegnet werden könne: „[…] we need to design a specific response to online hatred that requires us to think beyond the traditional measures usually adopted to combat physical hate crimes“ (Bakalis, 2016, S. 272). Diese Wahrnehmung hat ihre Berechtigung vor allem mit Blick auf durch die Digitalisierung drastisch gewandelte Kommunikationsumgebungen mit veränderten Veröffentlichungsmöglichkeiten und Regulierungsspielräumen. Medien- und Kommunikationswissenschaften haben die veränderten Rahmenbedingungen für die Produktion und Verbreitung von Medieninhalten auf unterschiedlichen Stufen der Internetentwicklung, insbesondere im Hinblick auf soziale Medien, theoretisch und empirisch gründlich bearbeitet (stellvertretend für viele s. Benkler, 2006; Lessig, 2008; Shirky, 2011). Vor diesem Hintergrund sind die Regulierungsspielräume für staatliche Autoritäten vielfach als gering eingestuft oder aus normativ-ethischen Gründen zurückgewiesen worden (Johnson & Post, 1996; Mueller, 2010, 2017; dazu kritisch: Goldsmith & Wu, 2006; Shearing & Wood, 2003). In jüngeren Jahren hat sich ein Forschungsstrang vor dem Hintergrund verschärfter Kritiken an der Verbreitung von Falschnachrichten und Hassrede insbesondere mit den redaktionellen Verantwortlichkeiten von Plattformen oder Intermediären und entsprechenden Koregulierungs-Arrangements für die Content-Regulierung befasst (Flew et al., 2019; van Dijck et al., 2018).

Im Verbund mit der politischen Regulierungsdebatte erfüllt damit auch die wissenschaftliche Diskussion die aus einer historischen Betrachtung von Medienpolitik abgeleitete Erwartung nachholender Regulierungsanstrengungen im Hinblick auf digitale Informations- und Kommunikationsmärkte. Medien- und Kommunikationswissenschaftler*innen haben in diesem Zusammenhang vielfach festgehalten, dass Massenmedien seit jeher politischer Institutionalisierung unterliegen (Jarren, 2007) und dass technologischer Wandel im Mediensektor stets neue Regulierungsdebatten und -ansätze hervorgerufen hat (Schejter & Han, 2011, S. 245), die mit zeitlicher Verzögerung („zweistufiger Institutionalisierungsprozess“ als medienhistorische Regel, Stöber, 2007, S. 107) auch das neue Feld einer angepassten Regulierung unterwerfen und dabei pfadabhängig medienpolitischen Traditionslinien folgen. Allerdings steht die empirische Überprüfung dieser historisch-institutionalistischen Hypothese bislang für die aktuelle Entwicklung der digitalpolitischen Regulierung noch aus.

In der Politikwissenschaft ist die Forschung zu Online-Content-Regulierung demgegenüber weiterhin überschaubar. Die meisten Arbeiten, die sich explizit mit der Online-Inhalteregulierung befassen, sind bislang auf dem Feld der Vergleichenden Politikforschung entstanden. Dabei hat vor allem die Regimedifferenz die Annahmen zur Variation von Politikansätzen beeinflusst. So befasst sich ein dominanter Strang mit Online-Kontrolle und Zensurmaßnahmen ausschließlich in autokratischen Regimen (Deibert, 2013; Deibert & Rohozinski, 2010; Deibert et al., 2010; Hellmeier, 2016; Keremoğlu & Weidmann, 2020; King et al., 2013; Pearce & Kendzior, 2012; Roberts, 2018; Rød & Weidmann, 2015). Allerdings lassen sich damit Ergebnisse internationaler Vergleichsstudien zur Regulierungspraxis, die gesteigerte Aktivitäten auch für Demokratien dokumentieren (Freedom House, 2018, 2019, 2020, 2021), nicht erklären. Busch et al. haben diese von der dominanten Hypothese abweichenden Befunde aufgegriffen und ihrerseits eine auf Demokratien bezogene Entwicklungsannahme formuliert. Demnach stelle sich die Frage, ob die gesteigerten Regulationsaktivitäten demokratischer Regime auf einen Lerneffekt zurückzuführen sind, wonach Demokratien von Autokratien lernen („Learning from Autocracies“, Busch et al., 2018; Busch, 2017; aber auch Gomez, 2004). Die Konvergenzhypothese hat Vorteile darin, dass sie ein Erklärungsangebot für jüngere empirische Befunde in groß angelegten Vergleichsstudien bietet. Die tatsächlichen Überprüfungen der Konvergenzannahme leiden indes ihrerseits an der Beschränkung auf liberale Demokratien. Damit besteht bis heute ein augenfälliger Mangel an regimetypübergreifenden Arbeiten zur Internetkontrolle im Allgemeinen und zur Online-Content-Regulierung im Besonderen (Ausnahmen bilden Stier, 2017; Timofeeva, 2006).

Jenseits der Regimetypendifferenz wären dabei alternative Erklärungsfaktoren zu prüfen, etwa die historische Pfadabhängigkeit. Die medienwissenschaftliche Forschungstradition könnte hier in zweierlei Hinsicht aushelfen. Zum einen bietet sie einen differenzierten Blick auf die medienpolitische Regulierung über verschiedene Medientypen und technologische Entwicklungsstufen hinweg auch für Demokratien (Humphreys, 1996), zum anderen hält sie Typologien von Mediensystemen bereit, die womöglich geeigneter sind, Variationen in aktuell relevanten digitalpolitischen Regulierungsbereichen zu erklären (Hallin & Mancini, 2004).

5 Umsetzung und Sanktionspraxis

Bei der Sanktionspraxis werden in der Literatur prinzipielle Probleme sowie technische und praktische Limitationen thematisiert. Die globale Architektur des Netzes ermöglicht die Verbreitung von Hate Speech über Landesgrenzen hinweg, sodass Täter*innen und Opfer nicht zwangsläufig dem gleichen Rechtsrahmen unterliegen. Welche (Sanktions-)Maßnahmen durch welche Institutionen angewendet und vollstreckt werden können, bleibt so unklar. Der Versuch extraterritorialer Rechtsdurchsetzung ist immer wieder mit Problemen verbunden. In einem frühen Fall geriet bspw. Yahoo! zwischen die Fronten französischer und amerikanischer Gerichtsentscheidungen, die Angebote von Nazi-Memorabilien als illegal bzw. legal einstuften und jeweils mit Sanktionen drohten (Banks, 2010, S. 235; Goldsmith & Wu, 2006).

Insbesondere die rechtswissenschaftliche Forschung hat sich in diesem Kontext mit der internationalen Harmonisierung von Straftatbeständen der Hassrede befasst. Prominente Beispiele hierfür sind das Zusatzprotokoll zum Übereinkommen über Computerkriminalität betreffend die Kriminalisierung mittels Computersystemen begangener Handlungen rassistischer und fremdenfeindlicher Art des Europäischen Rates (CoE, 2003) sowie der Rahmenbeschluss zur strafrechtlichen Bekämpfung bestimmter Formen und Ausdrucksweisen von Rassismus und Fremdenfeindlichkeit der EU. Wohlwollend kommentieren die meisten Wissenschaftler*innen die Etablierung beiderseitiger Strafbarkeit, wodurch eine effiziente Strafverfolgung möglich werde. Kritisch werden allerdings die begrenzte Kommunalität der zeichnenden Staaten (insbesondere die Ablehnung der USA) sowie weite Interpretationsspielräume für nationale Regierungen gesehen (Alkiviadou, 2018; Bakalis, 2016; Banks, 2010). Aus medienwissenschaftlicher Perspektive wird das Problem betont, kulturelle Ziele und national definierte Regeln auf transnational zirkulierenden Content anzuwenden (Schejter & Han, 2011, S. 250).

Neben staatlicher Regulation haben sich Untersuchungen mit unterschiedlichen Aspekten der Selbstregulation von Kommunikationsplattformen befasst. Auf europäischer Ebene wird dieser Ansatz durch den 2016 verabschiedeten Code of conduct on countering illegal hate speech online verfolgt. Hierin sagen große Internetfirmen (Facebook, Microsoft, Twitter und YouTube) zu, Hate Speech auf ihren Plattformen effektiv zu begegnen (EU, 2016). Aber auch derartige freiwillige Selbstverpflichtungen der Plattformen wurden kritisch kommentiert, da diese sich damit widersprüchlichen Anforderungen öffneten und eine Fragmentierung von Inhalten befördern würden. So wurde insbesondere die Bereitschaft der US-Unternehmen kritisiert, dem Code of Conduct der EU zuzustimmen und so einer europäischen Lesart zu folgen, ohne die Erwartungen der US-Regierung zu bedenken und ohne einen Anschluss an internationale Normen der UN. Bedenklich hieran sei, dass sich die Unternehmen durch diesen Präzedenzfall schwerer anderen Anforderungen (bspw. aus Autokratien) entziehen könnten. So könnte der Code of Conduct zur Legitimation ausgreifender Zensur instrumentalisiert werden (Aswad, 2016). Das Beispiel europäischer Regulierungsbemühungen erweitert den Blickwinkel auf die teils politisch, teils anders motivierten eigenen Regelapparate und Praktiken der Content-Regulierung durch Plattformen und andere Intermediäre selbst: „The power of platform moderation to act effectively as a regulator of daily life is now evident“ (Gillespie et al., 2020, S. 21).

Bemühungen gegen Hassrede finden sich auch in den Geschäftsbeziehungen zwischen Werbepartnern und Internetplattformen. Facebook geriet 2020 unter Druck, aktiver gegen Hass auf der eigenen Plattform vorzugehen, nachdem mehr als 1000 Unternehmen beschlossen hatten, im Zuge der Kampagne #StopHateForProfit ihre Werbeanzeigen bei Facebook zu pausieren. Dies hatte unmittelbare Auswirkungen auf den Aktienkurs und Mark Zuckerberg versprach in der Folge, mehr gegen die Verbreitung von Hassrede zu unternehmen (He et al., 2021).

Eine Form der Selbstregulierung besteht in der eigenständigen (teilweise automatisierten) Moderation und Löschung von Inhalten anhand selbst gesetzter Community-Standards. Wissenschaftler*innen haben sich mit der Effektivität dieser Maßnahmen auf unterschiedlichen Plattformen beschäftigt. Befunde in diesem Kontext sind jedoch unterschiedlich. Während einige Studien zu dem Schluss kommen, dass große Wellen der Inhalteregulierung und Kontensperrungen effektive Maßnahmen zur Verbesserung der Diskursqualität seien (Chandrasekharan et al., 2017; Saleem & Ruths, 2018), widersprechen andere Untersuchungen dieser Einschätzung. Sie betonen vor allem die Ausweichbewegungen der Nutzer*innen zu anderen, weniger regulierten Plattformen (Newell et al., 2016) oder die Herausbildung eines neuen Sprachgebrauchs, der nicht unmittelbar als Hassrede erkennbar ist (Chancellor et al., 2016). Zudem bestehen Bedenken, dass Plattformen über ihre selbstmotivierte Content-Moderation eine faktische extraterritoriale Wirkung US-amerikanischer Wertevorstellungen in Bezug auf schädliche Inhalte hervorrufen (Gillespie et al., 2020). Allgemein wird die Verantwortlichkeit von privatwirtschaftlichen Inhalteanbietern bei der Konstitution und Bereinigung öffentlicher Debattenräume kritisch diskutiert (Arpagian, 2016).

Wie die zuletzt thematisierten Aspekte verdeutlichen, erfordert der medienwissenschaftlich in Teilen aufgearbeitete Strukturwandel hin zu einer Plattformgesellschaft und zunehmenden Plattformisierung des Netzes (Gillespie, 2018; van Dijck et al., 2018) neue digitalisierungsspezifische Perspektiven auf die Inhalteregulierung. Dementsprechend machen Autor*innen auf dem Feld der kritischen Internetstudien in einem aktuellen Special Issue des Internet Policy Review darauf aufmerksam (Gillespie et al., 2020), dass weder die Fokussierung auf eine Topdown-Perspektive staatlicher Regulierung noch auf die im Fokus der öffentlichen Aufmerksamkeit stehenden großen Plattformen (Facebook, Google etc.) dem für heutige Informationsökosysteme wesentlichen und allfälligen Phänomen der Content-Regulierung (also auch im Sinne der verschiedentlich motivierten Content-Moderation durch diverse Anbieter selbst) gerecht werden (Boberg et al., 2018). Daraus werden künftige Forschungsdesiderate abgeleitet, die etwa auch das Machtgefälle zwischen Plattformen und die entsprechenden Regelsetzungen durch infrastrukturelle Plattformen untersuchen, die potentielle Innovationsfeindlichkeit von regulatorischen Vorgaben im Startup-Bereich, die kritische Frage von Content-Regulierung für verschlüsselte Kommunikation (z. B. WhatsApp), und natürlich nicht zuletzt die ethischen, rechtlichen und politiktheoretischen Grenzen algorithmischer Governance (Gillespie et al., 2020; zur Regulierung von Big Data und Künstlicher Intelligenz und Hassrede s. Katzenbach & Ulbricht, 2019; Ulbricht, 2019; spezifisch zu KI und Hassrede: Finck, 2019).

6 Fazit

In den vorangegangenen Abschnitten haben wir einen kursorischen Überblick über die Forschung zur Regulation von Hassrede als Teil der zunehmend relevanten Online-Inhalteregulierung präsentiert. Zunächst geben rechtswissenschaftliche und politiktheoretische Schriften nur wenig Anlass für eine Neudefinition des Regulierungsgegenstands oder neue Definitionen von Hassrede im Online-Zeitalter. Vielmehr erweisen sich hergebrachte gesetzliche Regelungen in unterschiedlichen Jurisdiktionen als anwendbar. Betont werden dabei die engen Grenzen, in denen liberale Demokratien berechtigt sind, die Redefreiheit zu begrenzen. Eine verschwommene Trennung zwischen öffentlicher und privater Kommunikation erscheint vielen Beobachter*innen aber in der Rechtspraxis weniger problematisch, als von Skeptiker*innen befürchtet. Nicht die Trennung, aber eine mit der digitalen Kommunikation verbundene größere und unmittelbar ansprechbare Öffentlichkeit wird als eine neue Herausforderung gesehen.

Im Hinblick auf die internationale politische Regulation digitaler Kommunikation scheint die verbreitete These eines weitgehend unregulierten oder schwach regulierten digitalen Kommunikationsraumes – dessen Staatsferne mitunter aus normativer Perspektive begrüßt worden ist – zunehmend unhaltbar. Stattdessen ist hier tatsächlich eine nachholende Entwicklung der Medienregulation zu beobachten. Aus politikwissenschaftlicher Perspektive haben sich die meisten empirischen Studien bislang mit unterschiedlichen Praktiken der Inhalteregulierung (Zensur) in Autokratien befasst. Neuere Entwicklungen der Inhalteregulierung durch Demokratien wurden dabei seltener in den Blick genommen. Hier ist angesichts neuerer regimeübergreifender Trends eine breitere vergleichende Forschungsperspektive erforderlich.

Mit Blick auf die Umsetzung und Sanktionspraxis haben sich rechtswissenschaftliche Untersuchungen mit internationalen Regelungen zur Harmonisierung von Straftatbeständen und deren Problemen befasst. Vor allem abweichende Wertvorstellungen und Traditionen der Medienregulation erschweren die Entwicklung internationaler Standards. Im Kontext plattformgesteuerter Selbstregulation als digitalisierungsspezifischem Phänomenbereich haben sich Studien mit Moderationspraktiken von Anbietern unterschiedlicher sozialer Medien im Umgang mit nutzergenerierten Inhalten befasst. Dabei hat die Forschung algorithmische Governance und deren Kontrollmöglichkeiten problematisiert.