Skip to main content

Mediale Hasssprache und technologische Entscheidbarkeit: Zur ethischen Bedeutung subjektiv-perzeptiver Datenannotationen in der Hate Speech Detection

  • Chapter
  • First Online:
Medien – Demokratie – Bildung

Part of the book series: Ethik in mediatisierten Welten ((EMW))

  • 3121 Accesses

Zusammenfassung

Mit den kommunikativen Möglichkeiten in den Sozialen Medien steigt auch die Verbreitung von Kommentaren, die als Hate Speech klassifiziert werden können. Die Technikwissenschaften haben es sich im Sinne einer Moderation daher zum Ziel gesetzt, solche Kommentare, Tweets und Inhalte algorithmisch detektierbar zu machen. In der vorliegenden Untersuchung wird gezeigt, dass jedoch gerade eine praxisrelevante Verbindung der einerseits ethischen Konzeptionen zu Hate Speech und der andererseits technologischen Methodik zur Hate Speech Detection auszubauen und zu vertiefen ist. Hierzu ist zum Ersten das Spezifikum von Hate Speech herauszuarbeiten, wobei insbesondere eine Abgrenzung zu offense und hateful erfolgen muss. Zum Zweiten ist aufbauend auf ethischen Theorien eine allgemeine Methodik des maschinellen Lernens kritisch zu begutachten, da sich Limitationen sowohl aus deontologischer wie auch aus konsequentialistischer Sicht zeigen lassen und die Forderung nach transparenter Gestaltung deutlich werden muss. Zum Dritten sind Kompromisslösungen nur dann sinnvoll, wenn sie die Problematik subjektiver Annotationen in den Blick nehmen und sich der transdisziplinären Kritik definitorischer, methodischer und ethischer Perspektiven bewusst sind.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 64.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 84.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Similar content being viewed by others

Literatur

  • Al Kuwatly, H., Wich, M., & Groh, G. (2020). Identifying and measuring annotator bias based on annotators’ demographic characteristics. In Proceedings of the Fourth Workshop on Online Abuse and Harms (S. 184–190).https://doi.org/10.18653/v1/2020.alw-1.21

  • Alorainy, W., Burnap, P., Liu, H., & Williams, M. L. (2019). “The enemy among us”: Detecting cyber hate speech with threats-based othering language embeddings. ACM Transactions on the Web 13(3), Artikel 14, 26 Seiten.https://doi.org/10.1145/3324997

  • Arango, A., Pérez, J., & Poblete, B. (2019). Hate speech detection is not as easy as you may think: A closer look at model validation. In Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval (S. 45–54)https://doi.org/10.1145/3331184.3331262

  • Bender, E. M., & Friedman, B. (2018). Data statements for natural language processing: Toward mitigating system bias and enabling better science. Transactions of the Association for Computational Linguistics 6, 587–604. https://doi.org/10.1162/tacl_a_00041

    Article  Google Scholar 

  • Bolukbasi, T., Chang, K.-W., Zou, J., Saligrama, V., & Kalai, A. (2016). Man is to computer programmer as woman is to homemaker? Debiasing word embeddings. In Proceedings of the 30th International Conference on Neural Information Processing Systems, S. 4356–4364.

    Google Scholar 

  • Burnap, P., & Williams, M. L. (2015). Cyber Hate Speech on Twitter: An Application of Machine Classification and Statistical Modeling for Policy and Decision Making. Policy & Internet 7(2), 223–242.https://doi.org/10.1002/poi3.85

  • Burnap, P., & Williams, M. L. (2016). Us and them: identifying cyber hate on Twitter across multiple protected characteristics. EPJ Data Science 5, Artikel 11.https://doi.org/10.1140/epjds/s13688-016-0072-6

  • Brink, D. O. (2009). Mill’s liberal principles and freedom of expression. In Ten, C. L. (Hrsg.), Mill’s On Liberty: A Critical Guide (S 40–61). Cambridge University Press.https://doi.org/10.1017/CBO9780511575181.003

  • Criado-Perez, C. (2020). Unsichtbare Frauen: Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert. btb Verlag.

    Google Scholar 

  • Davidson, T., Warmsley, D., Macy, M., & Weber, I. (2017). Automated hate speech detection and the problem of offensive language. In Proceedings of the 11th International AAAI Conference on Web and Social Media (S. 512–515).

    Google Scholar 

  • Dignum, V. (2019). Responsible artificial intelligence. How to develop and use artificial intelligence in a responsible way. Springer.https://doi.org/10.1007/978-3-030-30371-6

  • Feinberg, J. (1985). The moral limits of the criminal law: Offense to others (Bd. 2). Oxford University Press.

    Google Scholar 

  • Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Daumé III, H., & Crawford, K. (2018). Datasheets for Datasets. Working Paper. arXiv:1803.09010

  • Gorwa, R, Binns, R., & Katzenbach, C. (2020). Algorithmic content moderation: Technical and political challenges in the automation of platform governance. Big Data & Society 7(1).https://doi.org/10.1177/2053951719897945

  • Johndrow, J. E., & Lum, K. (2019). An algorithm for removing sensitive information: Application to race-independent recidivism prediction. The Annals of Applied Statistics 13(1), 189–220.

    Article  Google Scholar 

  • Mill, J. S. (2011). On Liberty [1859]. Cambridge University Press. https://doi.org/10.1017/CBO9781139149785

  • O’Neil, C. (2017). Angriff der Algorithmen: Wie sie Wahlen manipulieren, Berufschancen zerstören und unsere Gesundheit gefährden. Hanser.

    Google Scholar 

  • Rawls, J. (1999). A Theory of Justice. Harvard University Press. https://doi.org/10.2307/j.ctvkjb25m

  • Razavi, A. H., Inkpen, D., Uritsky, S., & Matwin, S. (2010). Offensive Language Detection Using Multi-level Classification. In A. Farzindar & V. Kešelj (Hrsg.), Advances in Artificial Intelligence. Canadian AI 2010. Lecture Notes in Computer Science, Volume 6085 (S. 16–27). Springer.https://doi.org/10.1007/978-3-642-13059-5_5

  • Ross, B., Rist, M., Carbonell, G., Cabrera, B., Kurowsky, N., & Wojatzki, M. (2016). Measuring the reliability of hate speech annotations: The case of the European refugee crisis. In 3rd Workshop on Natural Language Processing for Computer-Mediated Communication (S. 6–9).https://doi.org/10.17185/duepublico/42132

  • Sap, M., Card, D., Gabriel, S., Choi, Y., & Smith, N. A. (2019). The Risk of racial bias in hate speech detection. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (S. 1668–1678).https://doi.org/10.18653/v1/S.19-1163

  • Schefczyk, M., & Schramme, T. (2015). Einleitung. In dies. (Hrsg.), John Stuart Mill: Über die Freiheit (S. 1–10). De Gruyter.

    Google Scholar 

  • Schmidt, A., & Wiegand, M. (2017). A survey on hate speech detection using natural language processing. In Proceedings of the Fifth International Workshop on Natural Language Processing for Social Media (S. 1–10).https://doi.org/10.18653/v1/W17-1101

  • Sponholz, L. (2018). Hate speech in den Massenmedien. Theoretische Grundlagen und empirische Umsetzung. Springer VS. https://doi.org/10.1007/978-3-658-15077-8

    Article  Google Scholar 

  • Vidgen, B., & Derczynski, L. (2020). Directions in abusive language training data, a systematic review: Garbage in, garbage out. PLoS ONE 15(12), e0243300.https://doi.org/10.1371/journal.pone.0243300

  • Waldron, J. (2012). The harm in hate speech. Harvard University Press.

    Google Scholar 

  • Waseem, Z. (2016). Are you a racist or am I seeing things? Annotator influence on hate speech detection on twitter. In Proceedings of 2016 EMNLP Workshop on NLP and Computational Social Science (S. 138–142).https://doi.org/10.18653/v1/W16-5618

  • Waseem, Z., & Hovy, D. (2016). Hateful symbols or hateful people? Predictive features for hate speech detection on twitter. In Proceedings of NAACL Student Research Workshop (S. 88–93).https://doi.org/10.18653/v1/N16-2013

  • Wiegand, M., Ruppenhofer, J., & Kleinbauer, T. (2019). Detection of abusive language: The problem of biased datasets. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, vol. 1 (S. 602–608).https://doi.org/10.18653/v1/N19-1060

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Laurence Lerch .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2022 Der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Lerch, L., Wich, M., Eder, T., Groh, G. (2022). Mediale Hasssprache und technologische Entscheidbarkeit: Zur ethischen Bedeutung subjektiv-perzeptiver Datenannotationen in der Hate Speech Detection. In: Marci-Boehncke, G., Rath, M., Delere, M., Höfer, H. (eds) Medien – Demokratie – Bildung. Ethik in mediatisierten Welten. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-36446-5_17

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-36446-5_17

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-36445-8

  • Online ISBN: 978-3-658-36446-5

  • eBook Packages: Social Science and Law (German Language)

Publish with us

Policies and ethics