Dass Diskriminierung durch algorithmische Entscheidungssysteme und vor allem die Gesichtserkennungstechnologie produziert und reproduziert werden kann, zeigen verschiedene Beispiele aus dem Alltag. Wie Diskriminierungen entstehen, welchen Einfluss die Entwickler*innen und Nutzer*innen der Technologie haben und wie eine faire und gleichberechtigte Nutzung gewährleistet werden kann, soll im Folgenden geklärt werden.
Dafür werden zuerst die technischen Grundlagen der Gesichtserkennungstechnologie dargestellt, die bei der Produktion von Ungleichbehandlungen eine wesentliche Rolle spielen. Im Fokus steht dabei das maschinelle Lernverfahren, vor allem das Deep Learning, welches den autonomen Lernprozess der Systeme bezeichnet und sich so dem menschlichen Einfluss und der Kontrolle immer mehr entzieht. Außerdem wird der Prozess der Gesichtserkennung näher untersucht und mit der menschlichen Fähigkeit, Gesichter zu erkennen und zu verarbeiten, verglichen
Ob zum Entsperren des eigenen Smartphones, zur automatischen Sortierung von Fotos oder bei der Passkontrolle am Flughafen: Gesichtserkennungstechnologie nimmt einen immer größer werdenden Anteil unseres Lebens ein. Hinter der Technologie stecken algorithmische Systeme, die unter der Bezeichnung „künstliche Intelligenz“ zusammengefasst werden und seit Jahren sowohl die Technikindustrie als auch die Geisteswissenschaften beschäftigen. In der Vergangenheit hat sich jedoch bereits mehrfach gezeigt, dass die als neutral angesehene Technologie durchaus in der Lage ist, menschliche Einstellungen und Vorurteile zu übernehmen und auf seine Nutzer*innen anzuwenden. Ein Fall, der sich 2015 ereignete, sorgte besonders für Aufsehen und zeigte, dass diskriminierenden Praktiken durch Algorithmen reproduziert werden können. In der Kritik stand die Google Fotos Anwendung, die Bilder automatisch anhand von Gesichtserkennungsalgorithmen klassifiziert. In diesem Fall ordnete das System jedoch das Foto eines dunkelhäutigen Paares nicht den Menschen zu, sondern klassifizierte sie mit der Bezeichnung „Gorilla".
Inhaltsverzeichnis
- Einleitung
- Technische Grundlagen
- Maschinelle Lernverfahren
- Gesichtserkennung: Mensch vs. Technik
- Probleme der KI Nutzung
- Vertrauen statt Wissen
- Bias: Auslöser von Diskriminierung
- Praxisbeispiele
- Bias: Wissenschaftlich belegt
- USA: Nutzung von KI in der Strafverfolgung
- China: Überwachungsstaat durch Gesichtserkennungstechnologie?
- Medienphilosophische Ansätze
- Das Phänomen „,Black Box“
- Bewusstsein, Erkenntnis, Kreativität – durch KI abbildbar?
- Fazit und Ausblick
Zielsetzung und Themenschwerpunkte
Die Arbeit untersucht die Auswirkungen von Gesichtserkennungstechnologie auf unsere Gesellschaft. Im Fokus steht dabei die Frage, wie Diskriminierungen durch algorithmische Systeme produziert und reproduziert werden können. Die Arbeit analysiert die technischen Grundlagen der Technologie, insbesondere das maschinelle Lernverfahren Deep Learning, sowie die Rolle von Bias in der Gesichtserkennung. Anhand von aktuellen Fallbeispielen aus den USA und China wird die Nutzung der Technologie in der Praxis und deren Folgen für Einzelpersonen und Gesellschaften betrachtet. Darüber hinaus beleuchtet die Arbeit die ethischen und philosophischen Herausforderungen, die sich aus der zunehmenden Verbreitung von Gesichtserkennungstechnologie ergeben.
- Technische Grundlagen der Gesichtserkennungstechnologie
- Die Rolle von Bias in der Gesichtserkennung
- Diskriminierung durch algorithmische Systeme
- Nutzung von Gesichtserkennungstechnologie in der Praxis
- Ethische und philosophische Herausforderungen
Zusammenfassung der Kapitel
Die Einleitung führt in die Thematik der Gesichtserkennungstechnologie ein und stellt die Problematik von Diskriminierung durch algorithmische Systeme dar. Das Kapitel „Technische Grundlagen“ beleuchtet die Funktionsweise von KI und konzentriert sich auf das Deep Learning, welches die Basis für die Gesichtserkennungstechnologie bildet. Das dritte Kapitel beschäftigt sich mit den Problemen der KI-Nutzung und beleuchtet die Themen Vertrauen in die Technik und Bias. Der Fokus liegt dabei auf der Frage, wie Verzerrungen in Algorithmen zu Diskriminierung führen können. Im vierten Kapitel werden Praxisbeispiele aus den USA und China vorgestellt, die die Nutzung und die Auswirkungen von Gesichtserkennungstechnologie verdeutlichen. Das fünfte Kapitel befasst sich mit medienphilosophischen Ansätzen und betrachtet die Beziehung zwischen Mensch und Technik sowie die Herausforderungen, die sich aus der künstlichen Intelligenz ergeben.
Schlüsselwörter
Gesichtserkennungstechnologie, künstliche Intelligenz, Deep Learning, Bias, Diskriminierung, Überwachung, Medienphilosophie, „Black Box“, Mensch-Maschine-Interaktion.
- Quote paper
- Hannah Jacobs (Author), 2021, Coded Bias. Gesichtserkennungstechnologie als Träger und Vermittler von Diskriminierungen, Munich, GRIN Verlag, https://www.grin.com/document/1025580