Zusammenfassung
Der Beitrag bietet einen Überblick über die Entwicklung und Durchsetzung von Regeln gegen Hate Speech auf den digitalen Kommunikations-Plattformen Facebook, YouTube und Twitter. Es wird gezeigt, dass ein konsequenteres Vorgehen gegen Hate Speech auf den Plattformen meist nur auf öffentlichen Druck hin erfolgte. Die Moderation von Inhalten auf den Plattformen ist hochgradig intransparent. Auch hier hat erst öffentlicher Druck dafür gesorgt, dass die Unternehmen Einblicke in Prozesse und Umfang der Moderation geben. Der Beitrag problematisiert diese Entwicklungen und diskutiert mögliche Lösungsansätze. Dazu gehören Möglichkeiten institutionalisierter Selbst-Regulierung sowie demokratisch legitimierter Fremd-Regulierung.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Similar content being viewed by others
Notes
- 1.
Gänzlich verschwinden problematische Inhalte damit nicht aus dem Netz, aber sie verlieren für gewöhnlich an Reichweite. Denn alle alternativen Plattformen, auf denen weniger moderiert wird, haben weniger aktive Nutzer*innen als Facebook und Co.
Literatur
Article19. (2019). The social media councils: Consultation paper. https://www.article19.org/wp-content/uploads/2019/06/A19-SMC-Consultation-paper-2019-v05.pdf. Zugegriffen: 25. Febr. 2020
Bergen, M. (2019). YouTube executives ignored warnings, letting toxic videos run Rampant: Proposals to change recommendations and curb conspiracies were sacrificed for engagement, staff say. https://www.bloomberg.com/news/features/2019-04-02/youtube-executives-ignored-warnings-letting-toxic-videos-run-rampant. Zugegriffen: 03. Apr. 2019.
Bruns, A., Highfield, T., & Burgess, J. (2013). The Arab spring and social media audiences. American Behavioral Scientist, 57(7), 871–98. https://doi.org/10.1177/0002764213479374.
Facebook. (o. J. a). Community standards: 12. Hate speech. https://www.facebook.com/communitystandards/hate_speech. Zugegriffen: 27. Jan. 2020.
Facebook. (o. J. b). Community standards enforcement report. https://transparency.facebook.com/community-standards-enforcement#hate-speech. Zugegriffen: 14. Febr. 2020.
Facebook. (2020). Bylaws for the oversight board. https://about.fb.com/wp-content/uploads/2020/01/Bylaws_v6.pdf.
Fron, Carina. (2019) 2019. Was Steckt Hinter Den Accountsperrungen Bei Twitter? https://www.deutschlandfunkkultur.de/twittersperrt-was-steckt-hinter-den-accountsperrungen-bei.1264.de.html?dram:article_id=449104. Zugegriffen: 16. Febr. 2020.
Gadde, V. (2015). Twitter executive: Here’s how we’re trying to stop abuse while preserving free speech: Open discussion doesn’t mean much if some people are afraid to take part. https://www.washingtonpost.com/posteverything/wp/2015/04/16/twitter-executive-heres-how-were-trying-to-stop-abuse-while-preserving-free-speech/. Zugegriffen: 18. Nov. 2019.
Gillespie, T. (2018). Custodians of the internet: Platforms, content moderation, and the hidden decisions that shape social media. Yale University Press.
Hauck, M. (2020). Facebook Durfte Post Löschen. https://www.sueddeutsche.de/muenchen/facebook-muenchen-prozess-urteil-1.4747550. Zugegriffen: 29. Jan. 2020.
Hegemann, L. (2019). Facebook Gibt Sich Einen Supreme Court. https://www.zeit.de/digital/internet/2019-06/soziales-netzwerk-facebook-aufsichtsgremium-hassrede. Zugegriffen: 14. Febr. 2020.
Jeong, S. (2016). The history of twitter’s rules. https://www.vice.com/en_us/article/z43xw3/the-history-of-twitters-rules. Zugegriffen: 18. Nov. 2019.
Kaye, David. (2019). Speech police: The global struggle to govern the internet. Columbia global reports. Columbia Global Reports.
Kettemann, M. C., & Schulz, W. (2020). Setting rules for 2.7 Billion: A (First) look into facebook’s norm-making system: Results of a pilot study. Hans-Bredow-Institut für Medienforschung. https://leibniz-hbi.de/uploads/media/Publikationen/cms/media/5pz9hwo_AP_WiP001InsideFacebook.pdf. Zugegriffen: 27. Jan. 2020.
Klonick, K. (2018). The new governors: The people, rules, and processes Governing Online Speech. Harvard Law Review, 131(6), 1598–1670. https://harvardlawreview.org/2018/04/the-new-governors-the-people-rules-and-processes-governing-online-speech/.
Latonero, M. (2020). Can facebook’s oversight board win people’s trust? Harvard Business Review Digital Articles, 2–4.
Laufer, D. (2019). Radikalisierung Auf Imageboards – Wie 8chan Unter Neuem Namen Zurückkehren Soll. https://netzpolitik.org/2019/wie-8chan-unter-neuem-namen-zurueckkehren-soll/. Zugegriffen: 24. Febr. 2020.
Lewis, R. (2018). Alternative influence: Broadcasting the reactionary right on YouTube. New York: Data & Society Research Institute. https://datasociety.net/wp-content/uploads/2018/09/DS_Alternative_Influence.pdf.
Nielsen, R. K. 2017. News media, search engines and social networking sites as varieties of online gatekeepers. In P. J. Boczkowski & C. W. Anderson (Hrsg.), Remaking the news: Essays on the future of journalism scholarship in the digital age. Inside technology (S. 81–96). The MIT Press.
O’Callaghan, D., Greene, D., Conway, M., Carthy, J., & Cunningham, S. (2014). Down the (White) rabbit hole. Social Science Computer Review, 33(4), 459–78. https://doi.org/10.1177/0894439314555329.
Parker, G., van Alstyne, M., & Choudary, S. P. (2017). Platform revolution: How networked markets are transforming the economy – And how to make them work for you (First published as a Norton paperback). W.W. Norton & Company.
Reinbold, F. (2017). Hallo Facebook, Dieser Mann Ist Kein Terrorist. https://www.spiegel.de/netzwelt/web/angela-merkel-ein-selfie-mit-folgen-hallo-facebook-dieser-mann-ist-kein-terrorist-a-1130400.html. Zugegriffen: 25. Febr. 2020.
Riesewieck, M. (2017). Digitale Drecksarbeit: Wie uns Facebook & Co. von dem Bösen erlösen. Originalausgabe. dtv premium. dtv.
Roberts, S. T. (2019). Behind the screen: Content moderation in the shadows of social media. Yale University Press.
Stasi, M. L. (2020). Ensuring pluralism in social media markets: Some suggestions. Centre for Media Pluralism and Media Freedom, EUI Working Paper. https://cadmus.eui.eu/bitstream/handle/1814/65902/RSCAS_2020_05.pdf?sequence=1&isAllowed=y.
Suzor, N. P. (2019). Lawless: The secret rules that govern our digital lives. Cambridge University Press.
Tufekci, Z. (2013). “Not this one”. American Behavioral Scientist, 57(7). 848–70. https://doi.org/10.1177/0002764213479369.
YouTube. (o. J.). Richtlinien Und Sicherheit. https://www.youtube.com/about/policies/#community-guidelines. Zugegriffen: 13. Febr. 2020.
YouTube. (o. J. b.). YouTube-Community-Richtlinien Und Ihre Anwendung. Google Transparenzbericht. https://transparencyreport.google.com/youtube-policy/removals?hl=de&total_removed_videos=period:Y2017Q4;exclude_automated:all&lu=total_removed_videos&content_by_flag=period:Y2017Q4;exclude_automated:all. Zugegriffen: 14. Febr. 2020.
Zuckerberg, M. (17. October 2019). Standing for voice and free expression. Georgetown University. https://www.washingtonpost.com/technology/2019/10/17/zuckerberg-standing-voice-free-expression/. Zugegriffen: 27. Jan. 2020.
Zweig, K. A. (2018). Wo Maschinen irren können: Fehlerquellen und Verantwortlichkeiten in Prozessen algorithmischer Entscheidungsfindung [How machines can be wrong. Possible mistakes and responsibilities in processes of algorithmic decision-making]. Arbeitspapier.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2022 Der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Mündges, S. (2022). Die Verantwortung von Facebook & Co. Über den Umgang digitaler Plattformen mit Hate Speech. In: Weitzel, G., Mündges, S. (eds) Hate Speech. Aktivismus- und Propagandaforschung. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-35658-3_12
Download citation
DOI: https://doi.org/10.1007/978-3-658-35658-3_12
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-35657-6
Online ISBN: 978-3-658-35658-3
eBook Packages: Social Science and Law (German Language)