Zusammenfassung
Künstliche Intelligenz ist auf allen Ebenen unserer Gesellschaft längst allgegenwärtig. KI-basierte Algorithmen werden zunehmend mit der Aufgabe betraut, über die Verteilung von Ressourcen und den Zugang zu gesellschaftlicher Teilhabe zu entscheiden. Die Erfahrungen der letzten Jahre zeigen eine hohe Zahl an Fällen, in denen Menschen durch den Einsatz algorithmischer Entscheidungssysteme systematische Diskriminierung erfahren. Der vorliegende Beitrag greift diese Beobachtung auf und widmet sich der Frage, welche Bedeutung sozialwissenschaftliche Konzepte von Teilhabe und Diskriminierung im Kontext von Algorithmen haben, welche Ursachen und Lösungsansätze für algorithmische Diskriminierung diskutiert werden und welche Konsequenzen sich aus technologischen Transformationsprozessen im Zeitalter Künstlicher Intelligenz für den sozialwissenschaftlichen Diskurs um gesellschaftliche Teilhabe und soziale Gerechtigkeit ergeben.
Abstract
Artificial intelligence has long been ubiquitous at all levels of our society. AI-based algorithms get more and more entrusted with the task of deciding on the allocation of resources and access to social participation. Recent experience shows a high number of cases in which people experience systematic discrimination due to AI-based decision-making systems. This article takes up this observation and addresses questions about the significance of social science concepts of participation and discrimination in the context of algorithms, about the causes of and proposed solutions to algorithmic discrimination, and about the consequences of technological transformation processes in the age of artificial intelligence for social science discourses on social participation and justice.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Notes
- 1.
Für alle Formen von Diskriminierung gilt dabei: Die Beschränkung der Zugänge zu politischen, ökonomischen, kulturellen und sozialen Ressourcen hängt nicht von den tatsächlichen Merkmalen einer Person oder Gruppe von Personen ab, sondern von stigmatisierenden Zuschreibungen wie sie in rassistischen, sexistischen, antisemitischen, klassistischen, ableistischen und anderen Diskriminierungsformen verankert sind (Hormel & Scherr, 2010).
Literatur
Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine bias. ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Zugegriffen: 15. März 2022.
Anslinger, J. (2021). Faire KI – (wie) geht das? Interdisziplinäres Forschungszentrum für Technik, Arbeit und Kultur. https://www.ifz.at/sites/default/files/2021-12/Electronic%20Working%20Paper_Anslinger_FaireKI-wie%20geht%20das.pdf. Zugegriffen: 14. März 2022.
Barocas, S., Hardt, M., & Narayanan, A. (2021). Fairness and machine learning. Limitations and opportunities. Fairmlbook.org. https://fairmlbook.org/. Zugegriffen: 14. März 2022.
Barr, A., & Feigenbaum, E. A. (2014). The handbook of artificial intelligence. Butterworth-Heinemann.
Bartelheimer, P., Behrisch, B., Daßler, H., Dobslaw, G., Henke, J., & Schäfers, M. (2020). Teilhabe – Eine Begriffsbestimmung. Springer VS.
Bartlett, R., Morse, A., Stanton, R., & Wallace, N. (2019). Consumer-lending discrimination in the FinTech Era. National Bureau of Economic Research.
Beck, S., Grunwald, A., Jacob, K., & Matzner, T. (2019). Künstliche Intelligenz und Diskriminierung. Herausforderungen und Lösungsansätze. Plattform Lernende Systeme. https://bit.ly/3mYofNN. Zugegriffen: 15. März 2022.
Behrendt, H. (2017). Was ist soziale Teilhabe? Plädoyer für einen dreidimensionalen Inklusionsbegriff. In C. Misselhorn & H. Behrendt (Hrsg.), Arbeit, Gerechtigkeit und Inklusion (S. 50–76). J.B. Metzler.
Besand, A. (2020). Die Krise als Lerngelegenheit. Oder: Kollaterales politisches Lernen im Kontext von COVID-19. TU Dresden. https://tu-dresden.de/gsw/phil/powi/dpb/studium/lehrveranstaltungen/die-krise-als-lerngelegenheit. Zugegriffen: 14. März 2022.
Besand, A., Hölzel, T., & Jugel, D. (2019). Interview mit Anja Besand, Tina Hölzel und David Jugel zur wissenschaftlichen Begleitung von Lernort Stadion. Transferstelle politische Bildung. https://transfer-politische-bildung.de/. Zugegriffen: 14. März 2022.
Beschorner, T., & Krause, F. (13. August 2021). Algorithmen entscheiden nichts. Philosophie Magazin. https://www.philomag.de/artikel/algorithmen-entscheiden-nichts. Zugegriffen: 15. März 2022.
Bird, S., Kenthapadi, K., Kiciman, E., & Mitchell, M. (2019). Fairness-aware machine learning. In Proceedings of the Twelfth ACM International Conference on Web Search and Data Mining. ACM.
Boeser-Schnebel, C., & Jachertz, R. (2018). Wir brauchen mehr Streit. Argumentationstraining gegen Politikverdrossenheit. Forum Erwachsenenbildung, 51(4), 14–17.
Bundesministerium für Bildung und Forschung (BMBF). (2021). Digitalisierung und Künstliche Intelligenz. DLR Gesundheitsforschung. https://www.gesundheitsforschung-bmbf.de/de/digitalisierung-und-kunstliche-intelligenz-9461.php. Zugegriffen: 14. März 2022.
Burrell, J., & Fourcade, M. (2021). The society of algorithms. Annual Review of Sociology, 47(1), 213–237.
Calders, T. (2019). Machine-learning discrimination: Bias in, bias out. In 2019 Ninth International Conference on Intelligent Computing and Information Systems (ICICIS). IEEE.
Carton, S., Helsby, J., Joseph, K., Mahmud, A., Park, Y., & Walsh, J., et al. (2016). Identifying police officers at risk of adverse events. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM.
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., & Starnini, M. (2021). The echo chamber effect on social media. Proceedings of the National Academy of Sciences, 118(9).
Cho, J., Ahmed, S., Hilbert, M., Liu, B., & Luu, J. (2020). Do search algorithms endanger democracy? An experimental investigation of algorithm effects on political polarization. Journal of Broadcasting & Electronic Media, 64(2), 150–172.
Courtland, R. (2018). Bias detectives: The researchers striving to make algorithms fair. Nature, 558(7710), 357–360.
Crawford, K. (25. June 2016). Artificial intelligence’s white guy problem. The New York Times. https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem. Zugegriffen: 14. März 2022.
Dastin, J. (10. October 2018). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G. Zugegriffen: 15. März 2022.
Dunkelau, J., & Leuschel, M. (2019). Fairness-aware machine learning. An extensive overview. Universität Düsseldorf.
Europäische Kommission. (2019). Ethikleitlinien für eine vertrauenswürdige KI. Publications Office. https://data.europa.eu/doi/10.2759/856513. Zugegriffen: 15. März 2022.
Fazelpour, S., & Danks, D. (2021). Algorithmic bias: Senses, sources, solutions. Philosophy Compass, 16(8), e12760.
Fereidooni, K. (2011). Schule – Migration – Diskriminierung: Ursachen der Benachteiligung von Kindern mit Migrationshintergrund im deutschen Schulwesen. VS Verlag.
Feuerriegel, S., Dolata, M., & Schwabe, G. (2020). Fair AI. Business & Information Systems Engineering, 62(4), 379–384.
Foitzik, A. (2019). Einführung in theoretische Grundlagen: Diskriminierung und Diskriminierungskritik. In A. Foitzik, & L. Hezel, L. (Hrsg.), Diskriminierungskritische Schule: Einführung in theoretische Grundlagen (S. 12–39). Beltz.
Fry, H. (2019). Hello World: Was Algorithmen können und wie sie unser Leben verändern. Beck.
Garcia, M. (2016). Racist in the machine. World Policy Journal, 33(4), 111–117.
Gomolla, M. (2017). Direkte und indirekte, institutionelle und strukturelle Diskriminierung. In A. Scherr, A. El-Mafaalani, & G. Yüksel (Hrsg.), Handbuch Diskriminierung (S. 133–155). Springer Fachmedien Wiesbaden.
Grgic-Hlaca, N., Redmiles, E. M., Gummadi, K. P., & Weller, A. (2018). Human perceptions of fairness in algorithmic decision making. In Proceedings of the 2018 World Wide Web Conference on World Wide Web – WWW ’18. ACM Press.
Gsenger, R., & Strle, T. (2021). Trust, automation bias and aversion: Algorithmic decision-making in the context of credit scoring. Interdisciplinary Description of Complex Systems, 19(4), 542–560.
Hagen, L. M., Wieland, M., & In der Au, A.-M. (2017). Algorithmischer Strukturwandel der Öffentlichkeit. MedienJournal, 41(2), 127–143.
Hamilton, M. (2019). The sexist algorithm. Behavioral Sciences & the Law, 37(2), 145–157.
Heinemann, A. M. B., & Mecheril, P. (2017). Erziehungswissenschaftliche Diskriminierungsforschung. In A. Scherr, A. El-Mafaalani, & G. Yüksel (Hrsg.), Handbuch Diskriminierung (S. 1–15). Springer Fachmedien Wiesbaden.
Hormel, U., & Scherr, A. (2010). Diskriminierung: Grundlagen und Forschungsergebnisse. Springer.
Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence 1(9), 389–399.
Joyce, K., Smith-Doerr, L., Alegria, S., Bell, S., Cruz, T., & Hoffman, S. G., et al. (2021). Toward a sociology of artificial intelligence: A call for research on inequalities and structural change. Socius: Sociological Research for a Dynamic World, 7, 1–11.
Katzenbach, C., & Ulbricht, L. (2019). Algorithmic governance. Internet Policy Review, 8(4), 1–18.
Kersting, N. (2008). Politische Beteiligung: Einführung in dialogorientierte Instrumente politischer und gesellschaftlicher Partizipation. Springer VS.
Kolleck, A., & Orwat, C. (2020). Mögliche Diskriminierung durch algorithmische Entscheidungssysteme und maschinelles Lernen: Ein Überblick. Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag. https://www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Hintergrundpapierhp024.pdf. Zugegriffen: 14. März 2022.
Kreutzer, R. T., & Sirrenberg, M. (2019). Künstliche Intelligenz verstehen: Grundlagen – Use-Cases – unternehmenseigene KI-Journey. Springer.
Krönke, C. (2019). Artificial intelligence and social media. In T. Wischmeyer & T. Rademacher (Hrsg.), Regulating artificial intelligence (S. 145–173). Springer.
Kusner, M. J., & Loftus, J. R. (2020). The long road to fairer algorithms. Nature, 578(7793), 34–36.
Ledford. (2019). Millions of black people affected by racial bias in health-care algorithms (24.10.2019). Nature. https://www.nature.com/articles/d41586-019-03228-6. Zugegriffen: 15. März.
Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151, 90–103.
Mayer, R. (2017). Teilhabe und Teilung. In I. Miethe, A. Tervooren, & N. Ricken (Hrsg.), Bildung und Teilhabe (S. 65–85). Springer Fachmedien Wiesbaden.
Mühlhoff, R. (2020). Automatisierte Ungleichheit. Deutsche Zeitschrift für Philosophie, 68(6), 867–890.
Müller-Mall, S. (2020). Freiheit und Kalkül. Die Politik der Algorithmen: [Was bedeutet das alles?]. Reclam.
Müller, F., Schüßler, M., & Kirchner, E. (2020). Die Regulierung Künstlicher Intelligenz. Neuer Rechtsrahmen für Algorithmische Entscheidungssysteme? https://www.ssoar.info/ssoar/handle/document/70225. Zugegriffen: 14. März 2022.
Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press.
O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Publishers.
Orwat, C. (2020). Diskriminierungsrisiken durch Verwendung von Algorithmen. Antidiskriminierungsstelle des Bundes. Nomos.
Owens, K., & Walker, A. (2020). Those designing healthcare algorithms must become actively anti-racist. Nature Medicine, 26(9), 1327–1328.
Prates, M. O. R., Avelar, P. H., & Lamb, L. C. (2019). Assessing gender bias in machine translation: A case study with Google Translate. Neural Computing and Applications, 32(10), 6363–6381.
Rau, J. P., & Stier, S. (2019). Die Echokammer-Hypothese: Fragmentierung der Öffentlichkeit und politische Polarisierung durch digitale Medien? Zeitschrift für Vergleichende Politikwissenschaft, 13(3), 399–417.
Ruf, B., & Detyniecki, M. (2020). Active Fairness Instead of Unawareness. arXiv preprint. https://arxiv.org/abs/2009.06251. Zugegriffen: 15. März 2022.
Scherr, A., El-Mafaalani, A., & Yüksel, E. G. (2017). Handbuch Diskriminierung. Springer VS.
Schiebinger, L. (2014). Scientific research must take gender into account. Nature, 507(7490), 9–9.
Schmidt, N., & Stephens, B. (2019). An introduction to artificial intelligence and solutions to the problems of algorithmic discrimination. arXiv preprint. https://arxiv.org/abs/1911.05755. Zugegriffen: 15. März 2022.
Spatscheck, C., & Wagenblass, S. (2013). Bildung, Teilhabe und Gerechtigkeit: Gesellschaftliche Herausforderungen und Zugänge Sozialer Arbeit. Beltz Juventa.
Thiel, V. (2020). Algorithmen sind keine Neutren. In B. Miemitz (Hrsg.), Digitalisierung, Medizin, Geschlecht (S. 47–58). Budrich.
Trewin, S. (2018). AI fairness for people with disabilities: Point of view. arXiv preprint. https://arxiv.org/abs/1811.10670. Zugegriffen: 15. März 2022.
Turner Lee, N., Resnick, P., & Barton, G. (2019). Algorithmic bias detection and mitigation: Best practices and policies to reduce consumer harms. Brookings. https://www.brookings.edu/research/algorithmic-bias-detection-and-mitigation-best-practices-and-policies-to-reduce-consumer-harms/. Zugegriffen: 14. März 2022.
Vennemeyer, K. (2019). Inklusion im Politikunterricht. In T. Hölzel & D. Jahr (Hrsg.), Konturen einer inklusiven politischen Bildung (S. 35–49). Springer Fachmedien Wiesbaden.
West, S. M., Whittaker, M., & Crawford, K. (2019). Discriminating systems. Gender, race and power in AI. AI Now Institute. https://ainowinstitute.org/discriminatingsystems.pdf. Zugegriffen: 14. März 2022.
Willems, C. (2021). Künstliche Intelligenz im politischen Diskurs. Tectum Wissenschaftsverlag.
Wisser, L. (2019). Pandora’s algorithmic black box: The challenges of using algorithmic risk assessment in sentencing. American Criminal Law Review, 56(4). https://www.law.georgetown.edu/american-criminal-law-review/wp-content/uploads/sites/15/2019/06/56-4-Pandoras-Algorithmic-Black-Box-The-Challenges-of-Using-Algorithmic-Risk-Assessments-in-Sentencing.pdf. Zugegriffen: 14. März 2022.
Wu, Y., Schuster, M., Chen, Z., Le, Q. V., Norouzi, M., & Macherey, W., et al. (2016). Google’s neural machine translation system: Bridging the gap between human and machine translation. arXiv preprint. https://arxiv.org/abs/1609.08144. Zugegriffen: 14. März 2022.
Zajko, M. (2022). Artificial intelligence, algorithms, and social inequality: Sociological contributions to contemporary debates. Sociology Compass, 16(3), e12962.
Zick, A. (2017). Sozialpsychologische Diskriminierungsforschung. In A. Scherr, A. El-Mafaalani, & G. Yüksel (Hrsg.), Handbuch Diskriminierung (S. 1–22). Springer Fachmedien Wiesbaden.
Zliobaite, I. (2017). Fairness-aware machine learning: A perspective. arXiv preprint. https://arxiv.org/abs/1708.00754. Zugegriffen: 14. März 2022.
Zuiderveen Borgesius, F. J. (2020). Strengthening legal protection against discrimination by algorithms and artificial intelligence. The International Journal of Human Rights, 24(10), 1572–1593.
Zweig, K. A. (2018). Wo Maschinen irren können. Fehlerquellen und Verantwortlichkeiten in Prozessen algorithmischer Entscheidungsfindung. Arbeitspapier. Impuls Algorithmenethik, Bd. 4. Bertelsmann Stiftung.
Zweig, K. A. (2019). Algorithmische Entscheidungen. Transparenz und Kontrolle. Konrad-Adenauer-Stiftung.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2023 Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Rentsch, S. (2023). „Computer sagt nein“ – Gesellschaftliche Teilhabe und strukturelle Diskriminierung im Zeitalter Künstlicher Intelligenz. In: Wagener, A., Stark, C. (eds) Die Digitalisierung des Politischen. Sozialwissenschaften und Berufspraxis . Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-38268-1_2
Download citation
DOI: https://doi.org/10.1007/978-3-658-38268-1_2
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-38267-4
Online ISBN: 978-3-658-38268-1
eBook Packages: Social Science and Law (German Language)