Der Einfluss von Big Data auf den Gender Bias


Hausarbeit (Hauptseminar), 2021

15 Seiten, Note: 1,3


Leseprobe


Inhaltsverzeichnis

1. Einleitung

2. Definition relevanter Begriffe
2.1 Big Data
2.2 Gender Bias
2.3 Gender Data Gap

3. Relevante Organisationen

4. Gender Data Gaps in fünf Bereichen

5. Lösungsansätze

6. Fazit

7. Literaturverzeichnis

8. Anhang

1. Einleitung

Big Data begeistert seit jeher verschiedene Bereiche: Ob Wissenschaft und Forschung, Marketing und E-Commerce oder Social-Media, viele profitieren von der Generierung großer Datenmengen. Im Marketing kann das Nutzer:innenverhalten tiefgründiger analysiert werden. Im E-Commerce können diese großen Datenmengen zur Reduktion von Retouren genutzt werden. Auch in der aktuell noch bestehenden Covid-19-Pandemie kommt Big Data zum Einsatz. In China wurden u.a. Flugdaten ausgewertet, um die Verbreitung des Virus ausgehend von Wuhan vorherzusagen. Viele Städte und Länder mit besonders hohem Risiko wurden identifiziert und gewarnt (vgl. Kreuzhuber, 2020). Diese berechtigte Euphorie lässt jedoch auch Fragen zur Schattenseite von Big Data aufkommen (vgl. Davenport, 2014). In der Tat kann die Frage gestellt werden, ob Big Data Fluch oder Segen ist. In dieser Arbeit soll die Schattenseite unter dem Gesichtspunkt des Gender Bias beleuchtet werden.

„Die Vorstellung der Welt ist, wie die Welt selbst, das Produkt der Männer: Sie beschreiben sie von ihrem Standpunkt aus, den sie mit dem der absoluten Wahrheit gleichsetzen.“ (Simone de Beauvoir, in Criado-Perez, 2020, S. 9)

Mit dieser Aussage aus den 1950-er Jahren trifft die Philosophin Simone de Beauvoir den Kern eines Problems, das im Zentrum der Ausarbeitung steht. Durch den Blick nur eines Geschlechts, wird die Realität nicht bzw. falsch abgebildet (vgl. Criado-Perez, 2020, S. 10). Die Relevanz des Themas begründet sich im Global Gender Gap Report 2021. Dieser hält fest, dass „another generation of women will have to wait for gender parity […].” (World Economic Forum, 2021). Frauen sind demnach noch immer eine marginalisierte Gruppe, denn „data on women and girls is lacking globally (Buvinvi et al., 2014, S. 9). Das bedeutet, dass in vielen Bereichen Benachteiligungen vorliegen (vgl. Criado-Perez, 2020, S.44). Auch Big Data ist davon betroffen und „has its limitations and risks, such as lack of representativeness, self-selection bias, spatial auto-correlation bias, inadequacy for causal attribution and spurious correlations” (Meltcaf et al., 2016, in UN Women, 2018, S. 5).

Somit stellt sich folgende Frage: Inwiefern hat Big Data Einfluss auf den Gender Bias? Der Fokus dieser Arbeit liegt demnach darauf, den Einfluss von Big Data auf den Gender Bias anhand einer literaturgestützten Recherche herauszustellen. Dazu wird zunächst durch die Definition relevanter Begriffe in die Thematik eingeführt. Anschießend werden zwei relevante Organisationen vorgestellt, um dann tiefgründiger einzelne Bereiche zu beleuchten. Daran anknüpfend werden Lösungsansätze vorgestellt. Zuletzt folgt das Fazit.

2. Definition relevanter Begriffe

Vorab kann festgehalten werden, dass in der internationalen Literatur diese Begriffe übergreifend auf Englisch genutzt werden. Dies wird in der vorliegenden Arbeit übernommen.

2.1 Big Data

Der Begriff Big Data unterliegt einem ständigen Wandel, da er an die Entwicklung der Technologien gebunden ist. Datenspezialist Davenport spricht sogar von einem Buzz-Word und setzt sich für die Etablierung eines geeigneteren Begriffs ein (vgl. Davenport, 2014). Obwohl es keine einheitliche Definition von Big Data gibt, kann festgehalten werden, dass sich hinter dem Begriff große Datenmengen verbergen, die vor allem durch das digitale Verhalten der Internet-Nutzenden entstehen. Big Data verlangt nach einer Interpretation, da die Datensammlung nicht durch eine Forschungsfrage geleitet wird (vgl. UN Women, 2018, S. 4).

Daten-Expert:innen definieren Big Data meist nach drei Dimensionen: volume, variety, velocity (vgl. King, 2014, S. 34; vgl. UN Women, 2018, S.3). Dabei liegt der Fokus auf der Charakteristik der Daten und nicht auf dem sozialen Kontext. Letouzé ergänzt diesen sozialen Kontext 2015, indem er die drei Vs durch die drei Cs erweitert: Big Data Crumps, Capacities and Communities. Big Data wird somit als Ökosystem verstanden, das Teil eines gesellschaftlichen Phänomens, das der ständigen Entwicklung von digitalen Technologien, ist (vgl. Letouzé, 2015, in UN Women, 2018, S. 3). „Big Data Crumps“ entstehen durch digitale Aktivitäten. Big Data beinhaltet zudem große Kapazitäten der Datensammlung und -analyse. Viele Gemeinschaften sind ferner in die Datennutzung und -generierung involviert (ebd.) Bereits die Definition zeigt indirekt ein Problem der Mechanismen von Big Data auf, das teilweise der Entstehung von Gender Data Gaps zugrunde liegt: Die soziale Komponente wird ausgeschlossen, ob absichtlich oder unabsichtlich. Es ist u.a. wichtig die Herkunft und Zusammenstellung der Daten zu kennen und dies bei der Interpretation mitzubedenken. Diese erweiterte Definition von Big Data ermöglicht somit einen angemesseneren Überblick über die Dimensionen von Big Data für diese Arbeit (siehe Anhang 1).

2.2 Gender Bias

Nach Stangl ist der Gender Bias „in der wissenschaftlichen Forschung eine Verzerrung der Wirklichkeit durch Formulierungen, gedankliche Annahmen oder statistische Fehler, die zu falschen Darstellungen der tatsächlichen geschlechtsspezifischen Verhältnisse führt.” (2021). Demnach gibt es verschiedene Ansatzpunkte für die Entstehung eines Gender Bias. Diese werden in den folgenden Kapiteln weiterausgeführt.

2.3 Gender Data Gap

Giest und Samuels definieren Data Gaps allgemein wie folgt: “We define data gaps as data for particular elements or social groups that are knowingly or unknowingly missing when policy is made on the basis of large datasets.” (2020, S. 560). Diese Arbeit dreht sich um die soziale Gruppe der Frauen und die Leerstellen in Big Data: „The gender data gap represents un unequal representation of females across numerous domains in a world driven by data.“ (Curran et al., 2019, S. 5)

Zudem können nach Giest und Samuels Data Gaps in drei Dimensionen unterteilt werden: Primary Data Gaps sind bekannte Datenlücken, die im Idealfall in einem Mehrmethodendesign durch zusätzliche Daten ergänzt werden. Secondary Data Gaps sind bekannte Datenlücken, wobei es an Expertise fehlt, um diese zu schließen oder sie angemessen zu interpretieren. Zusätzlich existierten noch Hidden Data Gaps, bisher unentdeckte Lücken (vgl. Giest & Samuels, 2020, S.685).

3. Relevante Organisationen

Es gibt viele Organisationen, die die Schattenseite von Big Data erkannt haben, die sich für die Sensibilisierung der Gender Data Gap einsetzen und Studien durchführen, um Gaps aufzudecken. Um den Rahmen dieser Arbeit nicht zu überschreiten, werden an dieser Stelle lediglich zwei Organisationen vorgestellt.

Die UN Women „is the United Nations entity dedicated to gender equality and the empowerment of women. [...] Our solutions include preparing regular research and data–based flagship reports to call attention to existing gaps and spur action.” (UN Women, 2021). Als Nichtregierungsorganisation verfolgt sie das Ziel, Gender Data Gaps zu identifizieren und dagegen zu agieren. Dabei liegt die Stärke der UN Women in der internationalen Zusammenarbeit mit Regierungen und weiteren politischen Akteuren. 2018 haben sie den Report „Gender equality and big data“ veröffentlicht, darin sprechen sie von der Notwendigkeit einer „gendered data revolution“ (UN Women, 2018, S. 1). Das bedeutet, dass unvoreingenommene Daten ohne genderspezifische Lücken gesammelt werden müssen, um „Inklusivität“ in Big Data zu erreichen (vgl. ebd.). Big Data weise oft einen Mangel an Repräsentativität auf. Das liege mitunter daran, dass Big Data aus den digitalen Aktivitäten der Menschen entstehen (ebd.). Wenn jedoch Frauen weniger Zugang zu Medien haben, bedingen dieses strukturelle Problem und die Mechanismen von Big Data die Verstärkung der Gender Data Gap (vgl. UN Women, 2018, S. 9; vgl. Criado-Perez, 2020). Dies vernachlässigt nicht nur die Interessen, Aktivitäten und Bedürfnisse von Frauen, sondern vor allem Gefahren und Risiken bleiben nicht beachtet oder unsichtbar. Ein Beispiel aus Schweden veranschaulicht dies: Ausgehend von der Feststellung, dass Frauen 75% der weltweiten unbezahlten Care-Arbeit leisten und Männer häufiger Zugang zu einem Auto haben, wurde die Frage gestellt, ob Schneeräumen sexistisch sein kann (vgl. Criado-Perez, 2018, S. 39). Dazu wurden Krankenhausdaten einer schwedischen Stadt zu Unfällen von Fußgänger:innen aus mehreren Jahren gesammelt. 79% der Unfälle ereigneten sich im Winter, dies scheint zunächst nicht überraschend zu sein. Doch 69% dieses Teils waren Frauen (ebd.). Die Forderung im Report ist demnach zunächst die geschlechtsspezifischen Lücken zu identifizieren, die soziale Realität abbilden und angemessen zu handeln (vgl. UN Women, 2018, S. 6).

Die Veröffentlichung von Buvinic und Levine mit dem Titel „Closing the gender data gap“ fügen dem hinzu, dass Daten von hoher Qualität durch Validität, Repräsentativität, Reliabilität und zudem „free of gender biases“ (Buvinic & Levine, 2016, S. 35) charakterisiert sind. Die ersten drei Termini sind in der Statistik bekannt, wenn auch nicht zweifelsfrei geeignet (vgl. Schnell, 2018). Die Autorinnen ergänzen die Dimension Granularität, also die Forderung nach der Möglichkeit Daten im Anschluss kleinteiliger untersuchen zu können, zum Beispiel nach dem Geschlecht. Denn es gibt eine Verzerrung zwischen der sozialen Realität und der Interpretation von Big Data: Frauen werden zum Beispiel als weniger produktiv und abhängiger dargestellt als sie sind, da die geleistete Care-Arbeit nicht erhoben wird und beispielsweise nicht im BIP gezählt wird (vgl. ebd., S. 34).

Data2X ist eine Organisation von der UN Foundation, die Wissenschaftler:innen unterstützt und ihre Reports für mehr Reichweite publiziert. Ihre Mission ist „to improve the availability, quality and use of gender data in order to make a practical difference in the lives of women and girls worldwide.” (Data2X. 2021). Im Report wurden fünf Bereiche identifiziert, in welchen Gender Data Gaps festgestellt wurden. Pro Bereich wird konkret analysiert, worin die geschlechtsspezifischen Lücken liegen und wie zur Schließung dieser gehandelt werden kann. Die identifizierten Bereiche sind Health, Education, Economic Opportunities, Political Participation und Security (vgl. Buvinic et al., 2014). Diese fünf Bereiche werden im folgenden Kapitel detailliert, mit verstärktem Fokus auf die Bereiche Politik, Economic Opportunities und Health.

4. Gender Data Gaps in fünf Bereichen

„No data – bad data“ (Buvinic & Levine, 2016, S. 34): Diese Aussage legt erneut den Fokus auf den Kern des hier behandelten Problems. Es wird nicht von einer aktiven und absichtlichen Bösartigkeit der Forschenden und Big Data-Fachleuten ausgegangen. Vielmehr werden Nicht-Erkennen und das Schweigen über den Gender Bias kritisiert.

Im Bereiche „Political Participation“ wird festgestellt, dass ein erheblicher Unterschied zwischen Männern und Frauen in der politischen Teilhabe (aktiv, passiv, im Amt oder durch Wahlen) vorliegt. Es stellt sich heraus, dass die nicht-geschlechtsspezifische Registrierung der Geburtenrate Auswirkungen auf die politische Teilhabe hat. In Ländern wie Nigeria gibt es teilweise keine nationalen Identitätsdokumente. So existieren manche marginalisierte Gruppen auf dem Papier nicht und können sich nicht an Wahlen beteiligen, sich zur Wahl aufstellen lassen oder grundliegende Rechte einfordern. Erfolgt eine Registrierung nach Geschlecht kann diese Lücke geschlossen werden (vgl. Buvinic et al, 2014, S. 2 ff.).

Barocas und Selbst zeigen des Weiteren auf, dass in politischen Entscheidungen Gender Data Gaps zu finden sind: “In short, because data mining relies on training or existing data as ground truth, when those inputs are biased, the system will produce unreliable or even outright discriminatory results.” (Barocas & Selbst, 2016, S. 685). Oft werden Analysen von Big Data-Sets eingesetzt, um politische Entscheidungen zu treffen. Wenn jedoch dabei die bestehenden Gender Data Gaps (siehe Secondary oder Hidden Data Gaps) in der Entscheidung nicht mitberücksichtigt werden, verstärken politische Entscheidungen (vgl. Giest und Samuels, 2020, S. 560 f.) diese Lücken und somit den Gender Bias.

Auch im zweiten Bereich „Economic Opportunities“ müssen durch mehr Daten die Erfahrung von Frauen in der Arbeitswelt verständlich gemacht werden. Es gibt nur wenige Daten zu unbezahlten Care-Arbeit, die weltweit zu über 75% Frauen erledigen (vgl. Criado-Perez, 2020; S. 39). Konkreter soll der Bereich anhand eines Beispiels zur Sprache veranschaulicht werden: Der Übersetzungsdienst Google Translate funktioniert auf Basis einer KI. Der Algorithmus hat durch Datensets und das alltägliche Verwenden der User:innen das Übersetzen „erlernt“. Sonnad machte 2017 einen Versuch mit der türkischen Sprache, die ohne Geschlechtsmarkierungen (u.a. binäre Pronomen) aufgebaut ist, und der englischen Sprache, die binäre Pronomen (he/she) aufweist. Die Worte „soldier, doctor, writer“ wurden dem männlichen Pronomen „he“ zugeordnet. Als weiblich (she) wurden folgende Begriffe vom Algorithmus identifiziert: teacher, nurse, nanny (vgl. Sonnad, 2017; siehe Anhang 2). Es stellte sich heraus, dass der Übersetzer den Gender Bias reproduziert, da dieser aus der Anwendung in der sozialen Realität lernt.

Dieses Ergebnis kann mit einer Studie von Martinez et al. (2020) gestützt werden. Sie führten eine Netzwerkanalyse mit Wordembedding durch. Es wurden also Wortpaare analysiert, nachdem einem Algorithmus ein Wörterbuch aus Wikipedia-Artikeln (deutsch, spanisch) implementiert wurde. Folgende Wortpaare wurden unter anderem gefunden: „Man is to work as woman is to mother“ (Direct Bias), „Man is to house as woman is to mother” (Semantic Bias). Diese direkten oder semantischen Zusammenhänge zeigen die Präsenz der Gender Bias in der Sprache.

Auch Spracherkennungssoftwares liegen einer KI zugrunde. Es wurde festgestellt, dass diese Softwares Stimmen von Frauen schlechter erkennen als die von Männern. Die Ursache dafür ist unklar, da die Datengrundlage für dieses Maschine-Learning nicht einsehbar ist (vgl. Criado-Perez, 2020, S. 163). Es kann vermuten werden, dass bei der Erstellung der Software mehr männliche als weibliche Stimmen analysiert wurde. Häufig werden solche Spracherkennungssoftwares in OPs oder Autos eingesetzt. Gerade im medizinischen Bereich kann diese Fehlfunktion gefährlich sein (vgl. Curran et al., 2019, S. 2) und erschwert die Arbeit von Ärztinnen.

In Anknüpfung daran soll nun auf den Bereich „Health“ eingegangen werden. Durch die Analyse von Big Data-Sets (z.B. Sentiment Analysis von Twitter-Posts) können bei sich wiederholenden Inhalten Menschen mit erhöhtem Suizid- oder Diabetesrisiko identifiziert werden (vgl. Herland et al., 2014). Big Data birgt hierbei viel Potential. Der Gender Bias ist jedoch häufig inhärent in den Daten und diese sind somit insuffizient (vgl. Tran et al., 2014). Der Bias lässt sich nur schwer erkennen und filtern. Er kann durch die nur niedrige Präsenz von Frauen in klinischen Studien entstehen. Es werden eher männliche Patienten untersucht und vom Mann auf allgemeine Gültigkeit geschlossen. Frauen haben bei einigen Herzerkrankungen eine höhere Sterblichkeit, da sich in den klinischen Studien auf Männer konzentriert wurde. Kommt es zu einer Herzkrankheit bei der Frau, gilt sie als asymptomatisch und wird falsch oder nicht behandelt (vgl. Pot et al., 2019, S. 175).

[...]

Ende der Leseprobe aus 15 Seiten

Details

Titel
Der Einfluss von Big Data auf den Gender Bias
Hochschule
Westfälische Hochschule Gelsenkirchen, Bocholt, Recklinghausen
Note
1,3
Autor
Jahr
2021
Seiten
15
Katalognummer
V1066505
ISBN (eBook)
9783346485991
ISBN (Buch)
9783346486004
Sprache
Deutsch
Schlagworte
gender bias, data gender gab, big data, bias, gender gap, sexismus, KI, AI, algorithmen
Arbeit zitieren
Daniela Scharf (Autor:in), 2021, Der Einfluss von Big Data auf den Gender Bias, München, GRIN Verlag, https://www.grin.com/document/1066505

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Der Einfluss von Big Data auf den Gender Bias



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden