Diese Arbeit beschäftigt sich mit der Frage, inwiefern algorithmische Entscheidungsträger objektiv und vorurteilsfrei im Umgang mit marginalisierten Gruppen agieren. Dafür wird zunächst definiert, was genau unter der Künstlichen Intelligenz und was unter einem Algorithmus verstanden wird. Aufgrund des begrenzten Umfangs der Arbeit liegt der Fokus auf der Diskriminierungsform Rassismus, wobei auch dieser Begriff definiert wird. Nachdem der aktuelle Forschungsstand hinsichtlich des Zusammenhanges von Algorithmen und Rassismus beleuchtet wurde, werden verschiedene Maßnahmen und Strategien gegen die diskriminierende Wirkung von Algorithmen präsentiert, um mögliche Lösungsansätze zur Verbesserung der Objektivität und Vorurteilsfreiheit der KI zu diskutieren. Abschließend folgen Fazit und Ausblick.
Durch die rasante Entwicklung der Künstlichen Intelligenz (KI) hat sich in den letzten Jahren ein weitreichenden Forschungsfeld entwickelt, welches nicht nur die Technologie, sondern auch unser tägliches Leben maßgeblich beeinflusst. Wie der Philosoph Rainer Mühlhoff bemerkt, sind KIs weitaus mehr als Technologien; sie sind „Konstitutionsbedingungen unseres Denkens, Fühlens und Handelns.“ (ebd. 2020) Von Navigationsgeräten im Auto, Sprachassistenten wie SIRI oder Alexa, die Gesichtserkennung bei Handys oder Sprachübersetzungen wie Google Translate – KIs sind allgegenwärtig. Spätestens seitdem im Jahr 2022 der Chatbot ChatGPT1 veröffentlicht wurde, werden Künstliche Intelligenzen gesamtgesellschaftlich kontrovers diskutiert. Einige sehen in einer KI die Möglichkeit, die Welt zu verbessern, andere wiederum warnen vor KIs und deren negativen Auswirkungen. So wird neben der Annahme, dass KIs erheblich an Zeit und Arbeit sparen können, auch hinsichtlich der Fairness argumentiert. Denn eine wissenschaftlich und gesellschaftlich weitverbreitete Annahme ist, dass KIs im Gegensatz zu Menschen dazu fähig seien, vorurteils- und verzerrungsfrei zu bewerten und Entscheidungen zu treffen.
Beispielsweise wenn es um eine Vorsortierung von Bewerbung geht; dabei könne eine KI objektiv vorfiltern, wer potenziell für den Job geeignet sei, so die Annahme. Da 60 Prozent der deutschen Unternehmen überzeugt davon sind, dass die KI eine der
wichtigsten Zukunftstechnologien überhaupt darstellt wird die Präsenz dieser unaufhaltsam wachsen, denn die KI wurde entwickelt, um zu bleiben.
Inhaltsverzeichnis
- 1. Vorwort
- 2. Begriffsbestimmungen
- 2.1 Künstliche Intelligenz
- 2.2.2 Algorithmen...
- 2.2 Diskriminierungsform: Rassismus.
- 3. Algorithmen und die Reproduktion rassistischer Strukturen
- 4. Ursachen diskriminierender Algorithmen
- 5. Mögliche Lösungsansätze und Prävention.
- 6. Fazit...
- 6.1 Resümee
- 6.2 Ausblick.
- Literaturverzeichnis
Zielsetzung & Themen
Diese Arbeit befasst sich kritisch mit der Frage, inwiefern algorithmische Entscheidungsträger objektiv und vorurteilsfrei im Umgang mit marginalisierten Gruppen agieren. Sie untersucht das Diskriminierungspotenzial algorithmischer Entscheidungen im Hinblick auf die Reproduktion von Rassismus und diskutiert mögliche Lösungsansätze zur Verbesserung der Objektivität und Vorurteilsfreiheit von Künstlicher Intelligenz.
- Definition von Künstlicher Intelligenz und Algorithmen
- Analyse der Diskriminierungsform Rassismus
- Beleuchtung des Zusammenhangs von Algorithmen und rassistischen Strukturen
- Untersuchung der Ursachen diskriminierender Algorithmen
- Diskussion möglicher Lösungsansätze und Präventionsstrategien
- Reflexion über die gesellschaftlichen Auswirkungen algorithmischer Entscheidungen
Auszug aus dem Buch
Algorithmen und die Reproduktion rassistischer Strukturen
Professorin der Universität Zürich Aniko Hannak erforscht schon seit langem die Fairness von Algorithmen bzw. stellt diese infrage. In ihrer 2017 erschienenen Studie beschäftigte sie sich mit den Online-Marktplätzen TaskRabbit und Fiverr für Freiberufler:innen (vgl. ebd. Hannak et al 2017). Theoretisch bieten solche Plattformen die Möglichkeit Geld zu verdienen, “without the obligations and potential social biases associated with traditional employment frameworks.“ (ebd. S. 1) Insgesamt wurden 13.500 Arbeitnehmer:innenprofile durchsucht, um Informationen über das Geschlecht, die Herkunft, Kundenrezensionen, Bewertungen und Positionen der Arbeitnehmer:innen zu sammeln. Es wurde festgestellt, dass Arbeitnehmer:innen, deren Hautfarbe als schwarz wahrgenommen wurde, weniger Bewertungen und schlechtere Einstufungen als andere Arbeitnehmer:innen erhielten. Schwarz gelesene Männer haben im Schnitt 32 Prozent weniger Bewertungspunkte als weiße Männer erhalten. Nur Arbeitnehmer:innen ohne ein Profilbild haben im Durchschnitt noch schlechtere Bewertungspunkte als schwarz gelesene Personen erhalten (vgl. ebd. 2017, S. 1927). In beiden Plattformen fungierte ein Algorithmus, der nicht frei von Vorurteilen ist, sondern rassistische Strukturen reproduziert, indem die Hautfarbe in erheblichem Maße mit der Beurteilung der Arbeitnehmer:innen korreliert, was sich wiederum negativ auf die Beschäftigungsmöglichkeiten der Arbeitnehmer:innen auswirken kann.
Eine andere Studie von Safiya Umoja Noble (2018) konnte ebenfalls einen Zusammenhang zwischen Algorithmen und der Reproduktion von Rassismus feststellen. Sie hat in einem Zeitraum von sechs Jahren vor allem die Google-Suchergebnisse analysiert und konnte erkennen, dass die Rangfolge von Websites sowie die dargestellten Bilder bei bestimmten Suchanfragen rassistische Bilder reproduzieren. Eine von ihr zitierte Studie des Pew Research Centers besagt, dass 73 Prozent der Befragten die obersten Suchergebnisse als am vertrauenswürdigsten einordnen. 66 Prozent der Befragten sagen außerdem, dass Suchmaschinen für sie faire und unvoreingenommene Quellen der Informationsbeschaffung darstellen (vgl. ebd. 2018, S. 53). Nobles Studie zeigte, dass überwiegend pornografische Inhalte bei der Suche nach dem Begriff “Black Girls“ präsentiert wurden. Bei bei der Suche nach dem Wort „Gorilla“ wurden ebenfalls überwiegend schwarze Menschen gezeigt. Wenn beispielsweise nach dem Begriff “black hair“ gesucht wird, findet man überwiegend weiße Frauen mit schwarzer Haarfarbe und kaum Frisuren schwarzer Frauen (vgl. ebd. 2018, S. 7). So zeigt sich, dass auch Google bzw. der Algorithmus von Google Rassismus reproduziert. Die Tatsache, dass die Google-Suchergebnisse überwiegend als vertrauenswürdig eingestuft werden, verdeutlicht die Notwendigkeit einer kritischen Reflexion über die Macht und Verantwortung dieser. Noble führt an, dass ein Problem der Künstlichen Intelligenz darin besteht, dass die Menschen im Wesentlichen menschliche Entscheidungsfindungen automatisiert haben und sich damit aus der Verantwortung entzogen haben (vgl. ebd. S. 180).
Zusammenfassung der Kapitel
1. Vorwort: Dieses Kapitel führt in die rasante Entwicklung der Künstlichen Intelligenz ein und beleuchtet die kontroversen Diskussionen um ihre Fairness und Objektivität, insbesondere im Kontext von Vorurteilen und Diskriminierung.
2. Begriffsbestimmungen: Hier werden die zentralen Begriffe Künstliche Intelligenz, Algorithmen und die Diskriminierungsform Rassismus definiert, wobei die Komplexität und die uneinheitlichen Definitionen von "Intelligenz" hervorgehoben werden.
3. Algorithmen und die Reproduktion rassistischer Strukturen: Anhand konkreter Studien (wie zu Online-Marktplätzen, Google-Suche und Airbnb) wird dargestellt, wie algorithmische Entscheidungssysteme rassistische Diskriminierungsmuster erlernen und reproduzieren können.
4. Ursachen diskriminierender Algorithmen: Dieses Kapitel analysiert die verschiedenen Gründe für algorithmische Diskriminierung, darunter die fehlende Diversität in der Tech-Branche, Datenverzerrungen, mangelnde Testphasen und die Tendenz zu Generalisierungen.
5. Mögliche Lösungsansätze und Prävention: Es werden verschiedene Strategien und Maßnahmen zur Vermeidung und Bekämpfung algorithmischer Diskriminierung vorgestellt, darunter Forderungen nach mehr Transparenz, unabhängigen Kontrollsystemen und einer interdisziplinären Zusammenarbeit.
6. Fazit: Das Fazit fasst zusammen, dass algorithmische Entscheidungen historisch gewachsene Diskriminierung, insbesondere Rassismus, reproduzieren, da sie auf menschlichen Modellierungen basieren und nicht objektiv neutral sind; es betont die Notwendigkeit interdisziplinärer Reflexion und Bewusstseinsbildung.
Schlüsselwörter
Künstliche Intelligenz, Algorithmen, Rassismus, Diskriminierung, algorithmische Entscheidungen, Vorurteile, soziale Gerechtigkeit, Fairness, Transparenz, Ethik, maschinelles Lernen, Black-Box, Datenverzerrung, Reproduktion rassistischer Strukturen, marginalisierte Gruppen
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit untersucht das Diskriminierungspotenzial algorithmischer Entscheidungen, insbesondere im Hinblick auf die Reproduktion von Rassismus, und analysiert, inwiefern Künstliche Intelligenzen objektiv und vorurteilsfrei agieren können.
Was sind die zentralen Themenfelder?
Die zentralen Themenfelder sind Künstliche Intelligenz, Algorithmen, Rassismus, Diskriminierung, die Auswirkungen algorithmischer Entscheidungen auf marginalisierte Gruppen sowie mögliche Lösungsansätze und Prävention von algorithmischer Diskriminierung.
Was ist das primäre Ziel oder die Forschungsfrage?
Das primäre Ziel ist es, die Frage zu beantworten, inwiefern algorithmische Entscheidungsträger objektiv und vorurteilsfrei im Umgang mit marginalisierten Gruppen agieren, und Maßnahmen zur Verbesserung der Objektivität und Vorurteilsfreiheit von KI zu diskutieren.
Welche wissenschaftliche Methode wird verwendet?
Die Arbeit basiert auf einer Literaturanalyse und der Auswertung bestehender Studien und Forschungsarbeiten zum Zusammenhang von Algorithmen und Rassismus, um den aktuellen Forschungsstand zu beleuchten und mögliche Lösungsansätze zu diskutieren.
Was wird im Hauptteil behandelt?
Im Hauptteil werden Begriffsbestimmungen für Künstliche Intelligenz, Algorithmen und Rassismus vorgenommen, der aktuelle Forschungsstand zum Zusammenhang von Algorithmen und rassistischen Strukturen beleuchtet, die Ursachen diskriminierender Algorithmen analysiert und mögliche Lösungsansätze sowie Präventionsstrategien vorgestellt.
Welche Schlüsselwörter charakterisieren die Arbeit?
Die Arbeit wird charakterisiert durch Schlüsselwörter wie Künstliche Intelligenz, Algorithmen, Rassismus, Diskriminierung, algorithmische Entscheidungen, Vorurteile, Fairness, Transparenz, Ethik und Black-Box-Problematik.
Welche konkreten Beispiele für algorithmischen Rassismus werden in der Arbeit präsentiert?
Die Arbeit nennt Studien zu Online-Marktplätzen wie TaskRabbit und Fiverr, die Google-Suchmaschine bezüglich rassistischer Bilder und Suchergebnisse sowie die Diskriminierung auf der Vermietungsplattform Airbnb und bei Gesichtserkennungssystemen.
Was sind die wesentlichen Forderungen zur Prävention algorithmischer Diskriminierung?
Die wesentlichen Forderungen umfassen mehr Transparenz bezüglich der Architektur und Funktionsweise von Algorithmen, die Einführung von unabhängigen Kontrollsystemen (z.B. ein TÜV-Äquivalent) und eine erhöhte Diversität in den Entwicklerteams von Algorithmen.
- Citar trabajo
- Lilli Messer (Autor), 2024, Das Diskriminierungspotenzial algorithmischer Entscheidungen im Hinblick auf die Reproduktion von Rassismus, Múnich, GRIN Verlag, https://www.grin.com/document/1703778