Algorithmic Accountability. Wie werden Gerechtigkeit und Rechenschaftspflicht im Datenzeitalter verhandelt?


Hausarbeit, 2018

17 Seiten, Note: 1,3


Leseprobe

Inhaltsverzeichnis

1. Einleitung

2. Algorithmic Accountability
2.1. Aufkommen der Problematik
2.2. Das Problem
2.3. Lösungsvorschläge

3. Fazit

6. Literaturverzeichnis

Filmografie

Ein Hinweis vorab: Aus Gründen der besseren Lesbarkeit wird auf die gleichzeitige Verwendung männlicher und weiblicher Sprachformen verzichtet. Sämtliche Personenbezeichnungen gelten gleichermaßen für beiderlei Geschlecht.

1. Einleitung

Im Jahr 2018 werden mehr Lebensbereiche als je zuvor von digitalen Techniken, und somit von Algorithmen, bestimmt. Man kann außerdem die steigende Tendenz beobachten, dass Algorithmen menschliche Entscheidungen übernehmen. Algorithmen schlagen vor, welche Serie als nächste auf Netflix angeschaut werden soll. Sie erkennen automatisch, wer auf Fotos zu sehen ist. Sie personalisieren die Werbung in sozialen Netzwerken. Entscheidungen werden heutzutage immer weniger getroffen als vielmehr errechnet.

Denn das ist das Potenzial von Algorithmen: Sie schöpfen Sinn aus einem Überfluss an Daten. Sie erkennen Muster, die für das menschliche Auge unsichtbar sind. Sie generieren unerwartete Einsichten - Trends und Vorhersagen werden plötzlich sichtbar.1 Korrelationen zwischen Daten werden zur Quelle der Erkenntnis. Und das Ganze geschieht in einem rasenden Tempo.

Oft bleibt jedoch außen vor, dass Algorithmen den Ein- und Ausschluss von Menschen in immer mehr Lebensbereichen kontrollieren. Sie entscheiden, wer würdig ist, einen Kredit oder einen Arbeitsplatz zu erhalten, und wer nicht. Doch was passiert, wenn falsch entschieden wird? Nach welchen Kriterien wird überhaupt entschieden? Es steht die Annahme im Raum, dass Algorithmen wissenschaftlich und neutral sind, dass ihre Ergebnisse auf Fakten beruhen. Doch nur die Wenigsten verstehen, wie es zu ihren Entscheidungen kommt. Warum wird eine schwarze Person von einem Algorithmus als Gorilla identifiziert2 oder warum bombardiert eine Drohne unschuldige Menschen?

Wer trägt in diesen Fällen die Verantwortung? Der Programmierer? Das Unternehmen? Oft sind es doch lernende Maschinen, die nie von einem Menschen zu dieser konkreten Entscheidung programmiert wurden.

Diese Problematik wird unter dem Begriff der „Algorithmic Accountability“ (deutsch: algorithmische Rechenschaftspflicht) verhandelt.

Ziel dieser Hausarbeit ist es, durch die Auseinandersetzung mit der Algorithmic Accountability der Frage nachzugehen, wie Gerechtigkeit und Rechenschaftspflicht im Datenzeitalter verhandelt werden und werden könnten. Hierzu werde ich zuerst rückblickend illustrieren, wie die Problematik der Algorithmic Accountability aufgekommen ist. Darauf folgend soll aufgezeigt werden, was gegenwärtig überhaupt das Problem beziehungsweise die Probleme im Zusammenhang mit algorithmischer Entscheidungsfindung sind. Der Fokus soll hier auf diskriminierenden Handlungen liegen.

Anschließend werde ich verschiedene Lösungsansätze und Forderungen erörtern, die im aktuellen Diskurs vorgebracht werden. Diese Ansätze stammen sowohl von Wissenschaftlern, Juristen, Journalisten als auch von Künstlern.

Doch bevor Lösungsvorschläge gemacht werden, soll folgend erstmal in die Geschichte der Problematik eingeführt werden.

2. Algorithmic Accountability

2.1. Aufkommen der Problematik

Der Begriff der Algorithmic Accountability (ab hier kurz: AA) wurde von Nicholas Diakopoulos geprägt. Diakopoulos ist Informations- und Medienwissenschaftler und beschäftigt sich besonders mit Computer- und Datenjournalismus. Dieses Forschungsfeld bewegte ihn 2012 dazu, mehr über die Rechenschaftspflicht von Datenjournalisten nachzudenken. Journalisten sind seit jeher aufgefordert, sich an die publizistische Sorgfaltspflicht zu halten und sicherzustellen, dass ihre Quellen wahrheitsgetreu und verlässlich sind.

Datenjournalisten arbeiten vorwiegend mit Algorithmen, um an neue Erkenntnisse zu gelangen, sie vertrauen auf die Korrelationen in Big Data. Nicholas Diakopoulos konstatierte: „ Computational journalists in particular should get in the habit of thinking deeply about what the side effects of their algorithmic choices may be and what might be correlated with any criteria their algorithms use to make decisions. “3 Wie bereits in der Einleitung erwähnt, wächst der Einfluss von Algorithmen stetig. Es wird schnell ersichtlich, dass im derzeitigen Datenzeitalter neue Herausforderungen aufkommen. Um diesen Herausforderungen gerecht zu werden, schuf Nicholas Diakopoulos 2013 den Begriff und das Konzept der AA im Zusammenhang mit der Zensur von unangemessenen Suchmaschinenvorschlägen.

Es ist an dieser Stelle anzumerken, dass es schwer möglich ist, eine allgemein gültige Aussage darüber zu treffen, was Algorithmen sind. Viele Definitionen werden diskutiert, ich beziehe mich daher auf jene der World Wide Web Foundation: Ein Algorithmus ist ein strukturiertes Regelwerk zur Problemlösung, das von Computern ausgeführt wird.3 4 Im Verlauf der Arbeit werden auch die Begriffe Code, Programm und Software aufkommen. Diese bedeuteten informatorisch gesehen nicht genau das Gleiche, können aber für dieses Thema gleich behandelt werden. Accountability, also Rechenschaftspflicht, ist einfacher einzugrenzen: Es geht um die Pflicht, sich gegenüber denjenigen, deren Interessen man repräsentiert, haftbar zu machen, und zu rechtfertigen, wie Einfluss und Ressourcen genutzt wurden.5 Der AA steht die algorithmische Gerechtigkeit sehr nahe. Hierbei geht es jedoch mehr um die tatsächliche Wiedergutmachung von Schäden, wogegen AA mehr auf Prävention abzielt. Aber was genau soll vorausgesehen und verhindert werden?

2.2. Das Problem

Problem und Potenzial der algorithmischen Entscheidungsfindung haben letztlich den gleichen Ursprung: In Big Data werden Korrelationen von Daten zu Quellen der Erkenntnis. Es gibt aber auch falsche oder ungerechte Korrelationen. Heutzutage ist es prekärerweise die Regel, dass Algorithmen zur unerklärlichen Blackbox werden. Code entzieht sich in gewisser Weise der menschlichen Wahrnehmung.6 In den meisten Fällen operiert er in lernenden Maschinen, die sich selbst nach ihrer algorithmischen Logik unterrichten. Irgendwann ist nicht mehr nachvollziehbar, wie sie arbeiten und ihre Ergebnisse werden als „unergründlicher Ratschluss der algorithmischen Götter“7 wahrgenommen, wie es die Mathematikerin und Datenwissenschaftlerin (Original engl. „data scientist“) Cathy O’Neil in ihrem Buch „Angriff der Algorithmen“ formuliert. Entscheidungsprozesse werden verschleiert und oftmals ungeprüft hingenommen. Außerdem hat Code und somit auch die Algorithmen, die ihn nutzen, einen ungeklärten Existenzmodus. Er ist Text, Nullen und Einsen, und Prozess zugleich.8 Dementsprechend ist es schwer, sein Wesen zu klären, um davon ausgehend Verantwortlichkeiten zu verhandeln. Friedrich Kittler schrieb 1997 in „Es gibt keine Software“, dass wir (in diesem Fall Programmierer) einfach nicht wissen, was unser Schreiben bewirkt. Und in einigen Fällen ist es bereits dazu gekommen, dass ungeahnte Schäden entstehen.

Schäden

Charakteristisch für einen Schaden ist es, für jemanden von Nachteil zu sein und einen Verlust oder eine Beeinträchtigung darzustellen. Was als Schaden erachtet wird, hängt jedoch immer von den Werten der jeweiligen Gesellschaft ab. Es muss also sichergestellt sein, dass Algorithmen mit der Vielfalt an weltweiten Werten kompatibel sind, um Schäden zu verhindern. Nicholas Diakopoulos vertritt die Position, dass Algorithmen folgenschwere und anfechtbare Entscheidungen treffen, die aufgrund ihrer großen Bandbreite eine antreibende Kraft in der Gesellschaft sind und weiter werden können.9 Die bereits erwähnte Mathematikerin Cathy O’Neil nennt diese unheilvollen Systeme „Weapons of Math Destruction“ (kurz WMD), also Waffen der Mathe­Zerstörung, welche sich durch ihre Intransparenz, Größe und Schädlichkeit auszeichnen.

Vier Anklagepunkte

Im Zusammenhang mit den WMDs gibt es vier treibende Anklagepunkte. Sie sorgen dafür, dass nach Rechenschaft gestrebt wird.

Erstens sind Diskriminierung und Ungerechtigkeit zu nennen. Algorithmen sind nicht so neutral, wie sie es vorerst zu sein scheinen. Wie kann es sonst sein, dass in manchen Gesichtserkennungsprogrammen die Gesichter von weissen Personen problemlos erkannt werden, die von schwarzen Personen hingegen nicht und erst das Aufsetzen einer weissen Maske Abhilfe bietet?9 10 Zweitens gibt es immer wieder Fehler und Störungen von Filteralgorithmen, die Beiträge falsch kategorisieren und so dennoch beispielsweise Kinderpornografie auf sozialen Netzwerken zulassen. Drittens passieren immer wieder Verstöße gegen rechtliche und soziale Normen wie der Eingriff in die Privatsphäre oder schlimmstenfalls sterben Menschen, zum Beispiel bei einem programmgesteuerten Dronenanschlag. Solch fatale Ereignisse sollen im späteren Verlauf der Arbeit im Rahmen der Erörterung eines Film behandelt werden. Viertens und letztens kommt es auch immer wieder zu menschlichem Missbrauch: Die Zusammenarbeit von Menschen und Maschinen geschieht nicht reibungslos und Menschen gebrauchen die Algorithmen anders als ursprünglich von den Programmierern erdacht.

Diskriminierung

Ich möchte nun den Fokus etwas genauer auf die Diskriminierung durch Algorithmen legen. Das Wort stammt vom lateinischen Begriff „discriminare“ ab, was so viel wie unterscheiden heißt. Werden im Falle von Algorithmen zwei Gegenstände als nicht unterschiedlich erkannt und deshalb fälschlicherweise gleich behandelt oder zwei Dinge nicht als gleich erkannt und deshalb unterschiedlich behandelt, liegt eine

Diskriminierung im Wortsinn vor. Relevante Differenzen werden nicht bemerkt und somit kommt es zu unfairen Ergebnissen.

Algorithmen können existierende Diskriminierungsschemata reproduzieren und verstärken, das heißt Vorurteile übernehmen.

Dies geschieht vorwiegend durch schlechte beziehungsweise gefälschte, einseitige Inputdaten. Im bereits genannten Beispiel war das der Fall. Das Programm wurde nur mit weissen Gesichtern trainiert und hat die helle Hautfarbe somit als Kriterium für den Gegenstand „Gesicht“ übernommen. Ein schwarzes Gesicht kennt es nicht. Ähnlich ist es mit einem Gesichtserkennungsprogramm für Fotos, dass die Augen mancher Asiaten nicht als geöffnet registriert, weil der Öffnungswinkel nicht dem der europäischen Augen entspricht, mit denen es trainiert wurde.

Es wird an dieser Stelle sichtbar, dass häufig menschliche Vorurteile und Voreingenommenheit in Software einfließen. Es sind toxische Annahmen, die dann durch Daten „bestätigt“ werden.11 Mann könnte behaupten, dass Algorithmen in Programmcode formalisierte Meinungen sind.12 Außerdem sind sie Modelle für die Wirklichkeit, die jedoch immer auch vereinfachen und somit Richtigkeit und Wissen zugunsten von Effizienz opfern. Und „die Wissenslücken eines Modells reflektieren die Einschätzungen und Prioritäten der Menschen, die es geschaffen haben.“13

Eine weitere Ursache für die unkontrollierten, oft diskriminierenden Entscheidungen der Algorithmen liegt in der Tatsache, dass sie als lernende Maschinen agieren. Es wurde bereits erwähnt, dass die Maschinen zu Beginn trainiert werden. Sie bekommen Anweisungen, wie sie mit Daten umgehen sollen. Oft wird der darauf folgende Lernprozess aber nicht mehr beobachtet oder überwacht. Die Anfangsanweisungen sind oft zu rudimentär, sodass die Algorithmen sich auf die Menge an Daten stürzen und sie nach und nach, ihrer eigenen Logik folgend, verknüpfen. Statistische Systeme benötigen aber Feedback, da sie sonst ihre eigene Realität definieren. Anstatt die Wahrheit herauszufinden, werden errechnete Scores selbst zur Wahrheit.14 Ein Beispiel für solche negativen Feedbackloops sind die Scores des Assesment-Tools für Lehrer, IMPACT, in Washington D.C.. Das Tool sollte 2009 ermitteln, welche Lehrer nicht den Ansprüchen der Schulbehörden entsprachen. Der Algorithmus beruhte auf der Annahme, dass schlechte Schülerleistungen bedeuten, dass sie von schlechten Lehrern unterrichtet wurden. Die Daten, die zur Ermittlung des Scores herangezogen wurden, waren allerdings nur die Noten eines Klassensatzes Schüler, also sehr wenige. Die soziale Situation der Schüler wurde nicht mit eingerechnet. Lehrer mit einem schlechten Score wurden dann einfach entlassen. IMPACT erhielt allerdings nie Feedback, ob die entlassenen Lehrer tatsächlich „schlecht“ waren oder sich die Schülerleistungen bei „guten“ Lehrern dann verbesserten. Das System entschied aufgrund falscher oder ungeprüfter Annahmen, wer versagt hatte und ließ diese Personen dann auch karrieretechnisch versagen. Cathy O’Neil behauptet: „Algorithmen sorgen dafür, dass die, die für Verlierer gehalten werden, Verlierer bleiben.“15 Mangelndes positives Feedback sorgt dafür, dass die Algorithmen in negativen Feedbackschleifen hängenbleiben oder anders formuliert: „ A biased algorithm might reinforce its biases, in what could be deemed a self fulfilling prophecy loop.“16 Vielen Unternehmen ist der Profit jedoch Feedback genug.

Wer sind also die Opfer von solchen Algorithmen? Big Data ist auf Massen ausgelegt, auf große Bevölkerungsgruppen. Deshalb arbeiten die Algorithmen, wenn auch nicht absichtlich, auf Kosten von Randgruppen und Minderheiten, auf Kosten derer, die eh schon benachteiligt werden. Und diese Opfer müssen oft wesentlich stichhaltigere Argumente vorbringen als die Algorithmen selbst. Sie gelten als Kollateralschaden.17

Es wurde aus den bisher erbrachten Beispielen klar, dass oft die Wertvorstellungen der Programmierer oder Unternehmen unbewusst mitprogrammiert werden, zum Beispiel durch einseitige Inputdaten. Bei Algorithmen stehen sich oft zwei Konzepte entgegen: Gerechtigkeit und Effizienz. Echte Moral können nur Menschen haben, sie muss den Maschinen einprogrammiert werden, auch auf Kosten der Effizienz. Das Konzept von Gerechtigkeit ist nur sehr schwer in Code umzusetzen, weshalb dies auch selten geschieht.18 Es muss daher verschärft darüber nachgedacht werden, wie im Datenzeitalter Schuld zugewiesen und wie Gerechtigkeit aufrecht erhalten oder wiederhergestellt werden kann.

2.3. Lösungsvorschläge

Zuerst ist klarzustellen, dass es nicht den einen Lösungsweg gibt, genauso wenig, wie es nur das eine Problem gibt. Algorithmic Accountability ist ein aktuell laufender Diskurs, der stetig mit Vorschlägen und Ideen bereichert wird.

[...]


1 vgl. O’Neil, Cathy: Angriff der Algorithmen, S.293.

2 vgl. MulshineA major flaw in Google's algorithm allegedly tagged two black people's faces with the word ,gorillas‘. In: Business Insider. Unter: https://www.businessinsider.com/google-tags-black-people-as- gorillas-2015-7?IR=T [aufgerufen am 07.08.2018].

3 Diakopoulos: Understanding bias in computational news media. In: Niemanlab. Unter: http:// www.niemanlab.org/2012/12/nick-diakopoulos-understanding-bias-in-computational-news- media/. [aufgerufen am 17.08.2018].

4 vgl. World Wide Web Foundation: Algorithmic Accountability, S. 4.

5 vgl. Lister: Fostering Social Accountability, S.8.

6 vgl. Mackenzie: The problem of computer code, S. 10.

7 O’Neil: Angriff der Algorithmen, S. 18.

8 Mackenzie: The problem of computer code, S. 5.

9 Diakopoulos: The Algorithms Beat, In: Nickdiakopoulos. Unter: http://www.nickdiakopoulos.com/wp- content/uploads/2018/04/Diakopoulos-The-Algorithms-Beat-DDJ-Handbook-Preprint.pdf [aufgerufen am 17.08.2018].

10 vgl. Buolamwini: InCoding. In: Medium, Unter: https://medium.com/mit-media-lab/incoding-in-the- beginning-4e2a5c51a45d. [aufgerufen am 07.08.2018]

11 vgl. O’Neil: Angriff der Algorithmen, S. 17,36.

12 vgl. ebd. S. 75.

13 ebd. S. 33f.

14 vgl. ebd. S. 16f.

15 O’Neil: Angriff der Algorithmen, S. 71.

16 World Wide Web Foundation: Algorithmic Accountability, S. 10.

17 vgl. O’Neil: Angriff der Algorithmen, S. 21ff.

18 vgl. ebd. S. 32ff.

Ende der Leseprobe aus 17 Seiten

Details

Titel
Algorithmic Accountability. Wie werden Gerechtigkeit und Rechenschaftspflicht im Datenzeitalter verhandelt?
Hochschule
Fachhochschule Potsdam
Note
1,3
Autor
Jahr
2018
Seiten
17
Katalognummer
V975609
ISBN (eBook)
9783346320629
ISBN (Buch)
9783346320636
Sprache
Deutsch
Schlagworte
Künstliche Intelligent, Algorithmus, Medienrecht, Ethik
Arbeit zitieren
Judith Böttger (Autor), 2018, Algorithmic Accountability. Wie werden Gerechtigkeit und Rechenschaftspflicht im Datenzeitalter verhandelt?, München, GRIN Verlag, https://www.grin.com/document/975609

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Algorithmic Accountability. Wie werden Gerechtigkeit und Rechenschaftspflicht im Datenzeitalter verhandelt?



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden