Algorithmic Bias
Algorithmic Bias (deutsch: algorithmische Voreingenommenheit oder algorithmische Verzerrung) bezeichnet systematische Verzerrungen in den Ergebnissen algorithmischer Entscheidungsprozesse. Diese Verzerrungen führen dazu, dass bestimmte Gruppen oder Individuen konsistent benachteiligt oder bevorzugt werden. Der Begriff wird vor allem im Zusammenhang mit maschinellem Lernen, automatisierten Entscheidungssystemen und Künstlicher Intelligenz verwendet und gilt als zentrales Thema der digitalen Ethik.
Algorithmic Bias (deutsch: algorithmische Voreingenommenheit oder algorithmische Verzerrung) bezeichnet systematische Verzerrungen in den Ergebnissen algorithmischer Entscheidungsprozesse. Diese Verzerrungen führen dazu, dass bestimmte Gruppen oder Individuen konsistent benachteiligt oder bevorzugt werden. Der Begriff wird vor allem im Zusammenhang mit maschinellem Lernen, automatisierten Entscheidungssystemen und Künstlicher Intelligenz verwendet und gilt als zentrales Thema der digitalen Ethik.[1]
Geschichte und Entwicklung
[Bearbeiten | Quelltext bearbeiten]Frühe Diskussionen über Verzerrungen in Computersystemen entstanden bereits in den 1980er-Jahren. Friedmann und Nissenbaum zeigten 1996, dass technische Systeme gesellschaftliche Werte und Vorurteile widerspiegeln können.[2] Mit der zunehmenden Verbreitung datengetriebener KI-Systeme gewann das Thema ab den 2010er-Jahren an Bedeutung. Forschende wie Diakopoulos betonten die Notwendigkeit algorithmischer Rechenschaftspflicht.[3]
Ursachen
[Bearbeiten | Quelltext bearbeiten]Algorithmische Verzerrung kann auf mehreren Ebenen entstehen. Eine häufige Ursache liegt in den Trainingsdaten, die historische Ungleichheiten oder gesellschaftliche Vorurteile spiegeln. Werden solche Daten ohne Korrektur in Lernsysteme eingespeist, reproduzieren Algorithmen bestehende Diskriminierungen.[4] Ein prominentes Beispiel ist die Gesichtserkennung: Eine Studie von Joy Buolamwini und Timnit Gebru (2018) zeigte, dass kommerzielle Systeme bei Frauen mit dunkler Hautfarbe Fehlerraten von über 30 % auswiesen, während sie bei weißen Männern nahezu fehlerfrei arbeiteten.[5]
Weitere Beispiele aus der Praxis
[Bearbeiten | Quelltext bearbeiten]Algorithmische Voreingenommenheit zeigt sich in verschiedenen realen Anwendungen. Ein häufig zitiertes Beispiel ist das US-amerikanische Risikobewertungssystem COMPAS, das laut einer Untersuchung von ProPublica afroamerikanische Angeklagte systematisch als risikoreicher einstufte als weiße Angeklagte, obwohl die tatsächlichen Rückfallraten vergleichbar gering waren.[6] Auch im Bereich der Personalrekrutierung wurde algorithmische Diskriminierung dokumentiert. Ein von Amazon entwickeltes KI-gestütztes Bewerberranking bevorzugte männliche Kandidaten, da das Modell aus historischen Daten lernte, in denen Männer überrepräsentiert waren. Das System wurde nach internen Tests eingestellt.[7] Zudem fanden Bartlett et al. (2022), nach einer Analyse von 90 Millionen Hypothekenanträgen, heraus, dass algorithmische Kreditvergabesysteme Minderheiten systematisch höhere Zinssätze berechneten, obwohl die Modelle formal keine ethnischen Merkmale verwendeten. Die Verzerrungen entstanden durch indirekte Korrelationen, etwa über Wohnort oder Beschäftigungsdaten.[8]
Gesellschaftliche Auswirkungen
[Bearbeiten | Quelltext bearbeiten]Algorithmic Bias kann weitreichende Folgen haben. Betroffen sind unter anderem Kreditvergabe, Personalrekrutierung, polizeiliche Risikobewertung, Gesundheitsdiagnostik und Bildung. Kritiker betonen, dass algorithmische Systeme durch ihre scheinbare Objektivität Diskriminierung verschleiern und legitimieren können.[9]
Gegenmaßnahmen
[Bearbeiten | Quelltext bearbeiten]Zur Reduktion algorithmischer Voreingenommenheit existieren verschiedene Ansätze. Dazu gehören Fairness-Metriken, die algorithmische Entscheidungen quantitativ bewerten, sowie Bias-Mitigation-Techniken, die Verzerrungen in Daten oder Modellen verringern sollen. Darüber hinaus fordern Wissenschaftlerinnen und Wissenschaftler mehr Transparenz, unabhängige Audits und regulatorische Rahmenbedingungen, wie sie etwa im EU-AI-Act vorgesehen sind.[10]
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ Nima Kordzadeh, Maryam Ghasemaghaei: Algorithmic bias: review, synthesis, and future research directions. In: European Journal of Information Systems. Band 31, Nr. 3, 4. Mai 2022, ISSN 0960-085X, S. 388–409, doi:10.1080/0960085X.2021.1927212 (tandfonline.com [abgerufen am 8. Februar 2026]).
- ↑ Batya Friedman, Helen Nissenbaum: Bias in computer systems. In: ACM Trans. Inf. Syst. Band 14, Nr. 3, 1. Juli 1996, ISSN 1046-8188, S. 330–347, doi:10.1145/230538.230561.
- ↑ Nicholas Diakopoulos: Accountability in algorithmic decision making. In: Communications of the ACM. Band 59, Nr. 2, 25. Januar 2016, ISSN 0001-0782, S. 56–62, doi:10.1145/2844110 (acm.org [abgerufen am 8. Februar 2026]).
- ↑ Tony Doyle: Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy: , by Cathy O'Neil. New York, NY: Crown Publishers, 2016. 272 pp. $26.00 hardcover. ISBN 9780553418811 (hardcover). In: The Information Society. Band 33, Nr. 5, 20. Oktober 2017, ISSN 0197-2243, S. 301–302, doi:10.1080/01972243.2017.1354593 (tandfonline.com [abgerufen am 8. Februar 2026]).
- ↑ Joy Buolamwini, Timnit Gebru: Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. In: Proceedings of the 1st Conference on Fairness, Accountability and Transparency. PMLR, 21. Januar 2018, S. 77–91 (mlr.press [abgerufen am 8. Februar 2026]).
- ↑ Jeff Larson, Surya Mattu, Lauren Kirchner, Julia Angwin: How We Analyzed the COMPAS Recidivism Algorithm. In: ProPublica. 23. Mai 2016, abgerufen am 8. Februar 2026 (amerikanisches Englisch).
- ↑ Insight - Amazon scraps secret AI recruiting tool that showed bias against women. In: Reuters. (reuters.com [abgerufen am 8. Februar 2026]).
- ↑ Robert Bartlett, Adair Morse, Richard Stanton, Nancy Wallace: Consumer-lending discrimination in the FinTech Era. In: Journal of Financial Economics. Band 143, Nr. 1, 1. Januar 2022, ISSN 0304-405X, S. 30–56, doi:10.1016/j.jfineco.2021.05.047 (sciencedirect.com [abgerufen am 8. Februar 2026]).
- ↑ Safiya Umoja Noble: Algorithms of Oppression: How Search Engines Reinforce Racism. New York University Press, 2018, ISBN 978-1-4798-3364-1, doi:10.18574/nyu/9781479833641.001.0001 (degruyterbrill.com [abgerufen am 8. Februar 2026]).
- ↑ Solon Barocas, Moritz Hardt, Arvind Narayanan: Fairness and machine learning: limitations and opportunities. The MIT Press, Cambridge, Massachusetts 2023, ISBN 978-0-262-04861-3.