Digitaler Paternalismus. Über Software und ihre Einflussnahme auf menschliche Entscheidungen


Tesis de Máster, 2017

83 Páginas, Calificación: 1,3

Markus Walzl (Autor)


Extracto


Inhaltsverzeichnis

Einleitung

Software
Was macht Software „soft?“
Soft- und Hardware: Der Leib-Seele Dualismus reloaded
Analog versus Digital
Algorithmus
Künstliche Intelligenz
Software als eigenständiger Akteur

Mensch und Software
Ubiquity
Interfaces
Ease and convenience
Digital Nudging
Habit Forming
Gamification

Diskussion
Bewusstsein und Freier Wille
Entscheidungen
Software und die epistemische Basis für Entscheidungen
Software und die unmittelbaren Bedingungen der Entscheidung
Software als technisches System und revolutionäre
Technologie

Konklusion

Danksagung

Literatur- und Quellenverzeichnis

Einleitung

„The file is a set of philosophical ideas made into eter­nal flesh.” Jaron Lanier (Lanier, 2009: 9) In dem kurz vor Fertigstellung dieser Arbeit erschienen Buch „World Without Mind“ argumentiert Franklin Foer, die als Frightful Five[1] bezeichneten Internetkonzerne würden unseren Freien Willen untergraben und nicht nur unser Verhalten, sondern auch unser Denken verändern. Er schreibt “Facebook would never put it this way, but algorithms are meant to erode free will, to relieve humans of the burden of choosing, to nudge them in the right direction.” (Foer, 2017)

Foers Mahnungen reihen sich ein in eine neue Welle der Digitalisierungskritik.[2] War es bis vor kurzem Pflicht für europäische Manager und Politiker ins Silicon Valley zu pilgern, so dürfen heute Warnungen vor der Übermacht der Internetgiganten und der vermeintlichen Allmacht der Algorithmen nicht fehlen. Auftrieb erhalten die Kritiker durch Aussagen von Silicon Valley Ikonen wie Elon Musk oder dem Napster-Gründers und Ex-Spitzenmanager von Facebook, Sean Parker, der in einem Interview Anfang November 2017 erklärt „Facebook was designed to exploit human "vulnerability"“ (Parker, 2017b) und „nur Gott weiß, was Facebook mit den Gehirnen unserer Kinder macht“ (Parker, 2017a, Übersetzung FAZ).

Sind wir auf dem Weg willenlose Kreaturen am Gängelband von Algorithmen zu werden, ihrerseits nur Vorstufen einer überlegenen künstlichen Intelligenz, die die Welt beherrschen und uns unterwerfen oder auslöschen wird?[3] (Musk, 2016)

Während die Warnungen der Kritiker immer lauter und schriller werden, versprechen die Proponenten einer ungebremsten Digitalisierung ungebrochen nichts weniger als die Lösung der größten Menschheitsprobleme.(Kurzweil, 2012)

Meine[MW1] Absicht ist es in dieser Arbeit einen nüchternen Blick auf die Software als eine Basiskomponente der Digitalisierung zu werfen und sie einer Kritik im Hinblick auf eine mögliche Beeinflussung der menschlichen Entscheidungsfreiheit und Autonomie zu unterziehen.

Software ist die Grundsubstanz der Digitalisierung. Sie ist in den meisten Fällen eingebettet in Objekte und Systeme und meist völlig intransparent, so dass sie häufig nur wahrgenommen wird, wenn sie nicht funktioniert. (Harman, 2010)

Konsequenterweise erscheint Software als automagisch in ihrer Natur, sie arbeitet für viele nicht nachvollziehbar und produziert komplexe Ergebnisse. Magie aber umgeht per definitionem unseren Verstand und erzeugt Euphorie oder Angst, erlaubt aber keine differenzierte Betrachtung.

Software ist eine Technologie, die sowohl begrifflich als auch im Erleben schwer fassbar ist. Sie ist Werkzeug und Sprache gleichzeitig und sie trägt Züge von Lebendigkeit, die sie in die Nähe des menschlichen Geistes rücken.

Im Kern ist Software eine Steuerungstechnologie, sie besteht aus Anweisungen und Entscheidungen. Diese Eigenschaft entfaltet sie auch uns gegenüber – sie steuert FÜR uns, aber auch uns selbst, weil es ihr Wesen ist zu steuern.

Die Bandbreite der Interaktion mit Software und des möglichen Einflusses auf unsere Lebenswelten ist groß.

Eine Beeinflussung findet auf mehreren Ebenen statt: Erstens ist Software ein Werkzeug, das von Menschen intentional eingesetzt wird in der Absicht, andere Menschen zu lenken, zweitens fungiert Software als (Über)Träger von Einstellungen, Vorurteilen und Entscheidungen ihrer Produktionsbedingungen, drittens beeinflusst sie durch ihre eigene Anweisungsstruktur die Ergebnisse, etwa durch die Selektion der zu verarbeitenden Daten und viertens wird ihr von einigen Autoren auch eine “aktive” Agentivität (Beck, 2016) zugeschrieben[MW2].

Die Erkenntnisse aus der Verhaltensökonomie und der Psychologie haben in der Softwareentwicklung zum Einsatz einer Reihe von Techniken zur Lenkung der Benutzer und Benutzerinnen geführt, die auf einem reduktionistischen, behavioristisch geprägten Menschenbild fußen. Diese weitverbreitete Idee, Menschen über die Gestaltung von Entscheidungssituationen durch Software zu lenken hat den Titel „Digitaler Paternalismus“ der Arbeit inspiriert. Für Gerald Dworkin ist jede „Interference with a person’s liberty for his own good“ (Dworkin, 2017) Paternalismus. In diesem Sinne können bereits die vielen Personalisierungen meines Anwenderverhaltens zum Zwecke einer besseren Benutzbarkeit oder angepasster Inhalte ohne meine Zustimmung bereits als Paternalismus betrachtet werden.

Paternalismus ist eng mit dem Begriff der Autonomie verwoben, ich verwende ihn als einen Ausgangspunkt meiner Arbeit im Sinne eines Versuches der Einschränkung unserer Autonomie durch Software, gehe also über die klassische Definition hinaus.

Da Software uns meistens angepriesen wird als Unterstützung oder Lösung unserer Probleme und Herausforderungen, unser persönlicher Nutzen also dabei herausgestrichen wird, ist die Verwendung des Begriffes gerechtfertigt. In der öffentlichen Debatte entsteht der Eindruck, dass wir kaum noch selbst entscheiden, sondern immer stärker gelenkt würden. Unsere Freiheit und Urteilskraft treten in den Hintergrund und es stellt sich die Frage, ob wir für unsere Handlungen überhaupt noch verantwortlich gemacht werden können. Ich vertrete die Meinung, dass „the algorithm made me do it“ niemals eine haltbare Entschuldigung sein kann.

Für diese Argumentation werde ich mich daher auch den Begriffen des Freien Willens und der Entscheidung beschäftigen, die als Voraussetzungen für Verantwortung gesehen werden müssen.

Ich werde argumentieren, dass mit der fortschreitenden Digitalisierung sich unsere Verantwortung im Prinzip nicht verringert, sondern vergrößert, werde aber auch darauf hinweisen, dass diese Aussage angesichts der Art und des Zeitpunktes der Beeinflussung durch Software in konkreten Situationen kritisch zu sehen ist.

Als Gegenposition zu einer Bevormundung kann Software auch als notwendiges Entscheidungswerkzeug in der Lebenswelt des 21. Jahrhunderts betrachtet werden.

Die Möglichkeiten, die Bedingungen unserer Entscheidungen zu gestalten, sind mit der beinahe ubiquitären Nutzung von Software im Vergleich zur analogen Welt stark gewachsen und damit auch die Möglichkeiten der Beeinflussung der Entscheidungen selbst. Die Technologie schafft mit den neuen Möglichkeiten auch neue Entscheidungssituation, die neue ethische Anforderungen mit sich bringen.

Weiters werde ich versuchen zu zeigen, dass mit der massiven Verbreitung und Nutzung von Software sich der Blick auf unser Menschsein durch unsere Interaktion mit Software auch substantiell verändert. Dies bleibt nicht ohne Einfluss auf unser individuelles und kollektives normatives Beurteilungsgerüst. Jede Analyse muss diesen Aspekt miteinbeziehen.

Derzeit gibt es keine umfassende Theorie der Software-Mensch Interaktion und diese könnte auch keine allgemeingültige Beurteilung liefern. Eine ethische Analyse muss auf einer Fall-zu-Fall Basis stattfinden.

Unter der Prämisse eines naturalistisch unterbestimmten Weltbildes bleiben wir auch unter dem Einfluss von Software selbstbestimmte Wesen und bleiben verantwortlich für unsere Entscheidungen und Handlungen.

Software

„Software is everything. In the history of human technology, nothing has become as essential as fast as software.” Charles Fishman (Fishman, 1996: 95)

Was macht Software „soft?“

“Software is a great combination between artistry and engineering.” Bill Gates

Software steht im Zentrum der Digitalisierung. Es sind nicht die Smartphones, nicht die Serverfarmen, Glasfaserkabeln und die ubiquitären Sensoren. All das ist tote Materie ohne Software.

Software ist eine Beschreibung der Welt in der wir leben und der Welt, von der wir träumen und über die wir nachdenken. Ihre Erfindung ist ähnlich bedeutsam wie die Erfindung der Schrift - konnten wir plötzlich Gedanken für die Nachwelt aufschreiben und mit vielen teilen, so scheint es plötzlich nichts zu geben, das wir mit Software nicht berechnen, beschreiben und simulieren können. Wir können uns unsere eignen Welten mit ihr erzeugen. Gleichzeitig ist sie die Sprache unserer elektronischen Geräte in der sie untereinander kommunizieren und in der wir unsere Anweisungen geben.

Unter dem Paradigma der vollkommenen Beschreibbarkeit der Welt trauen wir uns und unserem neuen Werkzeug Software Alles zu - uns unsterblich zu machen genauso wie die vollkommene Versklavung und Beherrschung der gesamten Menschheit.

Wie bei allen großen Erfindungen sehen wir uns in unseren Artefakten wider - wir sehen uns selbst als Maschinen, auf denen unser Bewusstsein wie ein Betriebssystem läuft und denken im Umkehrschluss, dass wir die von uns gebauten Maschinen unserem Abbild nach erschaffen hätten. (Liessmann, 2017)

Lange Zeit wurden die Netzwerkeffekte der Digitalisierung diskutiert, Begriffe wie Netzwerk-Gesellschaft standen im Vordergrund, die Theorien versuchten das Internet zu beschreiben. Erst mit der Diskussion um die Algorithmen in Social Media Anwendungen wurde die Software wieder stärker berücksichtigt.

Software ist kein einheitliches Regelwerk, aber doch wesentlich homogener als menschliche Sprachen. Wenige Programmiersprachen und Frameworks und noch weniger Betriebssysteme bestimmen, wie digitale Verfahrensanweisungen entwickelt und umgesetzt werden. In letzter Zeit werden Verfahren benutzt, die sich stark an der Neurobiologie und unserem Modell von menschlichem Gehirn orientieren, vor allem, wenn es darum geht, basale menschliche Fähigkeiten wie Mustererkennung oder Spracherkennung zu modellieren und so „selbstlernende Systeme“ geschaffen.

Es ist nicht Aufgabe dieser Arbeit, die Arbeitsweise von Computern zu beschreiben, dennoch möchte ich einige Begriffe, die ich zentral verwende, definieren und versuchen, dass Wesen von Software und ihre Eigenschaften im Hinblick auf das Thema zu beschreiben.

Alan M. Turing entwickelt in seinem Aufsatz „on computable numbers“ 1936 das Konzept der Turingmaschine (Turing, 1936). Dabei handelt es sich nicht um einen physischen Apparat, sondern um die Arbeitsweise aller seitdem gebauten Computer, die als „Universalmaschinen“ gedacht sind. Mit diesem Konzept lassen sich alle mathematischen Probleme, die sich algorithmisch lösen lassen, lösen.

Der Begriff Software ist bis heute nicht einheitlich und auch nicht eindeutig definiert. Software wird immer wieder beschrieben als die Gesamtheit der Anweisungen, die einem Computer vermitteln, was er zu tun hat. Software bestimmt, was ein softwaregesteuertes Gerät tut und wie es das tut (in etwa vergleichbar mit einem Manuskript) (Freund, 2006) . Die Bezeichnung Software wird im allgemeinen Sprachgebrauch meist nur auf Programme bezogen, zusammenfassend für die technische Definition lässt sich der Begriff Software grundsätzlich verstehen als „die Gesamtheit von Informationen, die man der Hardware hinzufügen muss, damit das so entstandene Computersystem für ein definiertes Aufgabenspektrum nutzbar wird“(Wikipedia, 2017a) .

Bis in die 1950er Jahren waren Software und Hardware noch verbunden und als Einheit wahrgenommen. Die Software war dabei Teil der Hardware und wurde als Programmcode bezeichnet. 1958 prägte der Statistiker John W. Tukey den Begriff Software [4] erstmals . (Freund, 2006)

Im Deutschen haben wir keine wirkliche Entsprechung für den Gattungsbegriff Software, erst auf der Ebene von Programmen werden wir fündig. Der Begriff der Verfahrensanweisung trifft die breite semantische Bedeutung des englischen Wortes „Software“ einigermaßen gut.[5]

Im Englischen wird mittlerweile meist der Begriff des „Codes“ verwendet, der speziell auf die Softwareteile, die eine bestimmte Verfahrensanweisung oder Problemlösung enthalten verweist.

Programme sind Bündel aus Code, aus einzelnen Verfahrensanweisungen, die für bestimmte Aufgaben zusammengestellt und aufeinander abgestimmt werden.[6]

Dieser äußerst kurze geschichtliche und etymologische Abriss wird uns noch im Laufe der Arbeit beschäftigen – vor allem die Trennung der Soft- von der Hardware, die damit verbundene Weltsicht und die Rückbindung auf unsere Sicht auf die Funktionsweise des Menschen insbesondere des menschlichen Gehirns.

Auch möchte ich zeigen, dass wir es nicht mit einem Phänomen des 21. Jahrhunderts zu tun haben. Die Digitalisierung und Modellierung der Welt durch Software auf Computern geht zurück bis zum 2. Weltkrieg und ihre Entwicklung geht Hand in Hand mit der Kybernetik.[7] Die Ressourcen für die gewaltigen Fortschritte kamen vom Militär. Das Brechen der deutschen Verschlüsselung und die Steuerung von Flugabwehrkanonen als Hauptanwendungen der Informatik (heute würde es wohl „Killerapplikationen“ heißen), die damals noch Mathematik war und erst später eine eigene Disziplin wurde (Information + Mathematik = Informatik) haben sich als Gründungsmythen tief verwurzelt.

Auch wenn es heute den Anschein erweckt, als könnten wir einer Maschine auf individuelle Art und Weise per Sprache eine Anweisung erteilen, die diese dann umsetzt – so entspricht dies nicht der Realität auf der Codeebene. Hier ist die Verwendung einer Programmiersprache obligatorisch, die fixen Regeln folgt.

Alle Programmiersprachen sind formale Sprachen zur Formulierung von Datenstrukturen und Algorithmen und folgen einer meist strengen Syntax. Die Liste von Programmiersprachen ist lang, eine Handvoll wenige Sprachen[8], die sich durchgesetzt haben, können aber als Grundlage gesehen werden[9]. (Harper, 2016)

Programmieren heißt, FÜR einen Computer zu schreiben, um Aktionen ausführen zu lassen.

„Programing involves a process of writing for machines, of inscribing in their functioning certain patterns, interfaces and logics which in turn condition its user’s possible interactions“ (Reigeluth, 2014: 245).

Damit verweist Reigeluth auf die komplexe, wechselweise Bedingung bei der Programmierung von Software, auf die ich noch eingehen werde.

Jaron Lanier, der selbst lange Zeit Entwickler war, ein Vorreiter von Virtual Reality und digitaler Musik, der auch Computer Sciences an verschiedenen Universitäten lehrte, sieht in der Software eine Reduktion der Optionen auf die Möglichkeiten der Programmiersprache selbst, das heißt auf eingeführte Repräsentationsmodelle und Standards. Aus seinem eigenen Bereich erwähnt er den Midi-Standard für digitale Musik, der schon seit vielen Jahren benutzt wird und eine echte Weiterentwicklung verhindert. (Lanier, 2009)

Wie Beck und Sedgewick (Sedgewick & Wayne, 2011) sieht er eine starke Strukturierung der Welt und ihrer Wahrnehmung durch Software. Er nennt die Festlegungen die getroffen werden und die für die Zukunft viele andere Optionen ausschließen „Lock-In“. Der Einfluss von digitalen Werkzeugen auf das Ergebnis sei in manchen Bereichen größer als der von analogen. (Lanier, 2009)

Die Verbreitung von Programmiersprachen ist mittlerweile global, es gibt keine lokalen Dialekte im herkömmlichen Sinn, wenn auch die großen Internetkonzerne aufgrund der hohen Performanceanforderungen in den letzten Jahren so etwas wie eigene Varianten entwickelt haben, die meist wieder als open source für alle zur Verfügung gestellt wurden.[10]

Tatsächlich ist die Weiterentwicklung dieser „Sprachen“ eine überraschend langsame im Vergleich zur Hardware.

Eine Grundstruktur von Software ist die Programmzeile, die in der Regel eine einzige Anweisung mit ihren Parametern enthält. Die Abarbeitung erfolgt Zeile für Zeile, daher wird als Annäherungsmaß für den Umfang und die Komplexität eines Softwareprojektes häufig die Anzahl der Programmzeilen angegeben. Das mobile Betriebssystem Android hat etwa 12 Millionen Zeilen Code, MacOS etwa 90 Millionen, Facebook etwa 70 Mio. in 2013, ein modernes Auto über 100 Millionen.(McCandless, 2015) Der gesamte Quellcode aller Google-Dienste umfasste im Jahr 2015 nach Angaben von Google selbst zwei Milliarden Programmzeilen und eine Größe von 86 Terabyte.[11] (Potvin, 2015)

„Coding“ – die Tätigkeit eines Programmierers - ist meist ein Prozess des „Assemblings“, also des Zusammenstellens von vorhandenen Programmzeilen – wenig Code wird komplett neu geschrieben, meistens ist es eine Assemblage von im Netz kursierenden bestehenden Modulen, die bestimmte Aufgaben lösen (das kann vom simplen Webformular bis zu Basisbestandteilen wie Protokollen und Schnittstellenanweisungen bis zu Lernanweisungen für ein neuronales Netzwerk alles sein) und die angepasst oder einfach nur miteingebunden werden in ein größeres Softwareprojekt. Es funktioniert wie das Sampeln Musik und Videodateien. (Lanier, 2009) So wie besonders gelungene Texte oder Musikstücke häufig weiterverwendet werden und ihren Kreatoren Anerkennung einbringen, so werden auch besonders effiziente und performante Codebruchstücke beinahe als „Kunstwerke“ gefeiert und für ihren Stil in den jeweiligen Milieus gelobt Die Möglichkeit, jederzeit an jedem Ort der Welt ein Stück Software zu verbessern und zu verändern, hat auch die Einstellung zum Softwaredesign grundlegend verändert. Die Produktionsbedingungen insbesondere für Consumer Software unterscheiden sich stark von denen der Produktion von realen Gütern. Software ist kein klassisches Produkt mehr, das in einem fertigen Endzustand ausgeliefert wird. Jeder Auslieferungsstand ist nur eine Momentaufnahme.[12]

Aufbauend auf dieser Beobachtung konstatiert Lanier einen Mangel an Bescheidenheit in der Softwareentwicklung. Ein Flugzeugingenieur würde niemals jemand in Flugzeug setzen, das auf ungetesteten Hypothesen beruhe, Softwareingenieure machten das andauernd. (Lanier, 2009)

Der Aufbau von Software ist geschichtet. Zwischen den Schichten findet immer wieder Übersetzung statt, von einer Programmiersprache in eine andere, vom sogenannten Quelltext bis zum ausführbaren Programmcode. Auch diese Schichtung findet sich wieder in der Betrachtung und Analogie mit dem Menschen. Wir vergleichen nicht mehr Computer mit uns Menschen, sondern umgekehrt benutzen wir Computer als Metaphern und Modelle für ein Verständnis des Menschen Das Gehirn sei die Hardware (Prozessoreinheit und Festplatte), der Geist die Software, unsere Sinnesorgane die Sensoren (daher kommt das Wort ja auch) und der Körper ist die elektromechanische Maschine, die die Steuerungsbefehle entgegennimmt.[13]

Software ist immateriell und besteht aus den Sprachen und Notationen, in denen sie formuliert ist. Software kann zwar auf bestimmten Medien gespeichert, gedruckt, angezeigt oder transportiert werden. Diese sind aber nicht die Software, sondern sie enthalten sie nur.

Es ist zwar vorstellbar, Bits sichtbar und greifbar auf einem Trägermedium zu hinterlegen, doch grundsätzlich ist ‚Software‘ ein abstrakter, von Trägermedien unabhängiger Begriff. Das trifft für den Gattungsbegriff ohnehin zu, aber auch für konkrete Ausprägungen wie ein bestimmtes Anwendungsprogramm.[14]

Die elektrischen Vorgänge, die einzelnen Bits in der Maschine haben keine Sichtbarkeit und keine Relevanz für uns. Sie sind nicht nachvollziehbar und nicht in Relation setzbar zu den Ergebnissen der Berechnung und den ausgeführten Anweisungen. (Kitchin & Dodge, 2011)

Dies ist fundamental different zur Mechanik, bei der auch bei komplexen Geräten die Verbindungen und Verkettungen (die für uns der Inbegriff der Kausalität sind) für uns nachvollziehbar sind.

Kaum jemand käme auf die Idee, aus dem Messen der Spannungsunterschiede auf der Computerplatine herauszulesen, welche Aufgaben die ausgeführte Software gerade erledigt.[15] Die Neurowissenschaften arbeiten so gesehen mit einem „reverse engineering“ des menschlichen Geistes über die Messung der Aktivität von Neuronen im Gehirn. (Kurzweil, 2012; vom Brocke, Riedl, & Léger, 2013)

Soft- und Hardware: Der Leib-Seele Dualismus reloaded

„You can mass-produce hardware; you cannot mass-produce software - you cannot mass-produce the human mind.” Michio Kaku (Kaku, 2011)

Obwohl Software generell unsichtbar ist, produziert sie sichtbare und greifbare Ergebnisse. Das rückt sie in die Nähe des menschlichen Geistes. Software verfügt wahrscheinlich nicht über Bewusstsein[16], sie zeigt aber Merkmale von Lebendigkeit. Und so wie Bewusstsein ist Software direkt nicht fassbar. Sie ist aber mehr als Sprache, wir können sie nur qua ihrer Ergebnisse erkennen beziehungsweise in der Interaktion mit uns.

Shaun French und Nigel Thrift beschreiben Software als “somewhere between the artificial and a new kind of natural, the dead and a new kind of living” mit einer “presence as ‘local intelligence’” (Thrift & French, 2002: 310).

Das ist bemerkenswert, denn es hieße, dass Software Dinge autonom erledigen kann, Capta[17] empfangen, verarbeiten, Situationen evaluieren, Entscheidungen treffen und ohne menschliche Aufsicht oder Autorisierung operieren könne.

In Adrian Mackenzies Augen ist Software sogar ein „sekundäres Agens“. (Mackenzie, 2006) Nicolas Negroponte sprach 1995 von „moving bits not atoms“ (Negroponte, 1995) und verfestigte damit die Gegenüberstellung von Bits und Atomen als essentiellen Bausteinen der Welt - einmal der physischen und einmal der digitalen - als Paradigma der Informatik. Dahinter steckt die Idee, dass digitale Information virtuell, ethereal sei, sich quasi den Gesetzen der physischen Welt entziehe und damit mehr dem Geist und der Seele ähnele. (Reigeluth, 2014)

Damit steht diese Idee in der Tradition eines ontologischen Dualismus, als dessen bekanntester Vertreter meist René Descartes genannt wird, und vor einem Problem das dem Leib-Seele Problem ähnelt: Gibt es Wechselwirkungen zwischen Körper und Geist bzw. Soft- und Hardware? Wie kommen diese zustande? Und wo genau in der Maschine oder im Gehirn passiert dies? (Beckermann, 2012)

Mit diesen Fragen beschäftigt sich die Philosophie des Geistes, deren Gegenstand mit der Diskussion um Künstliche Intelligenz und dem Fortschritt der Neurowissenschaften stark in den Fokus gerückt ist.

Die „Computational Theory of Mind“ beschäftigt sich damit, ob Maschinen denken können und ob der menschliche Geist nicht selbst auch eine denkende Maschine sei.[18]

Die Frage nach dem Bewusstsein wird uns noch beschäftigen, an dieser Stelle ist es mir wichtig darauf hinzuweisen, dass es erstens einer Analogie zwischen Mensch und Computer und zweitens der gedanklichen Trennung von Software und Hardware bedarf um überhaupt die Idee vertreten zu können, dass Maschinen ein menschliches Bewusstsein entwickeln könnten oder dass menschliches Bewusstsein als Software digital gespeichert werden könnte.[19]

Analog versus Digital

„Information systems need to have information to run, but information underrepresents reality“ (Lanier, 2009)

Eine weitere scheinbar unauflösliche Dichotomie durchzieht die Diskussion: Software mit ihrer digitalen Grundstruktur sei ein Unikum in der Natur, ein reines Kunstprodukt des Menschen des 20. Jahrhunderts.

Während für Jaron Lanier kein echter Gegensatz zwischen Analog und Digital besteht, für ihn dieser Dualismus konstruiert ist, da im Endeffekt auch Analoges auf einzelne, diskrete Teilchen oder Elemente zurückzuführen sei und er dafür die magnetisierten Moleküle eines Tonbandes oder die einzelnen Silbermoleküle eines analogen Films anführt (Lanier, 2009), argumentieren andere, dass der Dualismus konstitutionell für die Natur sei und berufen sich auf den Welle/Teilchen Dualismus in der Physik (Hürter, 2016).

Beide aber sehen viel mehr Digitalität in der analogen Welt als unser alltäglicher Sprachgebrauch es vermuten ließe. Es scheint uns und unserer lebensweltlichen Erfahrung nicht zu entsprechen, alles in 0 und 1 berechnen zu können.[20]

Laniers Argument, dass es im Inneren eines Computers „schmutzig“ zuginge, also eine ganze Reihe von unterschiedlichen Spannungszuständen herrschen und nicht nur keine oder eine genau definierte, geht ins Leere, denn das Entscheidende am Erfolg des digitalen ist die Abstraktion: Ein Schalter steht auf Aus, auch wenn eine geringe Spannung herrscht und es ist ein Schwellwert der zwischen 0 und 1 entscheidet, nicht eine komplett saubere analoge Implementierung.

Unsere DNA funktioniert ähnlich - auf der Grundlage von Basenpaaren ist sie auch ein digitales Medium - ein Code wie Software und auch sie braucht eine Laufzeitumgebung um exekutiert werden zu können. Tatsächlich ist es möglich mit DNA Rechenaufgaben zu lösen. Leonard Adleman baute 1994 einen Prototyp eines DNA-Computers in einem Reagenzglas. Die freie Reaktion der DNA konnte einfache mathematische Probleme lösen.[21]

Der binäre Charakter der Software auf der untersten Ebene setzt sich bis in die Ergebnisse und Repräsentationen durch: Es ist viel einfacher einem Programm zu sagen, es solle laufen oder nicht (to run or not), als zu sagen, es solle ein bisschen laufen.[22] Auch wenn wir als Anwender häufig das Gefühl haben, ein Programm laufe mehr schlecht als recht.

Genauso ist es einfacher, eine rigide Repräsentation von menschlichen Beziehungen in digitalen sozialen Netzwerken zu finden. Hier befindet sich jeder Nutzer in einem vordefinierten Status. Reduziert auf wenige Kategorien wird das, was kommuniziert wird, zur Realität. (Lanier, 2014) Software teilt immer in Kategorien und das meist anhand von virtuellen Attributen, die ein Mensch nicht individuell preisgibt oder herstellt, sondern aus multiple choice auswählt oder die berechnet wurden.

Algorithmus

„An algorithm is a space of possibilities transformed into a predictable and calculable temporal sequence.” (Reigeluth, 2014: 250)

Der Softwarebegriff dieser Arbeit geht über den Begriff des Algorithmus hinaus, der zu einem Synonym für lösungsorientierte Software geworden ist, Algorithmen sind aber zentral für die Argumentation für eine Bevormundung durch Software, weil sie aufgrund mathematischer Modellierung von analogen Entscheidungssituationen Lösungen berechnen können.

Ein Algorithmus[23] ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen. Algorithmen bestehen aus endlich vielen, wohldefinierten Einzelschritten. (Wikipedia, 2017b)

Algorithmen eignen sich sehr gut für eine Implementierung durch Software, ein Algorithmus muss aber per se nicht digital sein. Prozessanleitungen sind klassische Handlungsanleitungen in algorithmischer Form.

In unserem Fall löst ein Algorithmus ein mathematisches Problem und er beschreibt einen für den Computer korrekt interpretierbaren Lösungsweg, der für jede durch das mathematische Problem definierte mögliche Eingabe die korrekte Lösung in endlicher Zeit berechnet. (Zweig, 2016, 2017)

Algorithmen lösen unterschiedliche Klassen von Problemen, so zum Beispiel die Gruppe der Optimierungsprobleme. Sie errechnen eine Menge von grundsätzlichen Lösungen aus einem Set an Eingaben und definieren dann auf dieser Menge von Lösungen eine Kosten- oder Gewinnfunktion für jede mögliche Lösung. Danach wird dann die Lösung mit den geringsten Kosten gewählt (oder dem höchsten Gewinn).[24]

Die Determiniertheit von Algorithmen und die Erwartbarkeit der Ergebnisse suggerieren eine völlige Kontrollierbarkeit der Zukunft. Unter der Prämisse der völligen Berechenbarkeit der Welt wird die Zukunft reduziert auf die Möglichkeiten, die im Jetzt gelegt werden. Die Berechnung IST die Zukunft, so lautet die These. Bruno Bachimont sieht in der Software „un dispositif réglant un déroulement dans le temps, le calcul ou l’exécution du programme, à partir d’une structure spécifiée dans l’espace, l’algorithme ou programme. L’algorithme spécifie que, les conditions initiales étant réunies, le résultat ne peut manquer d’être obtenu, selon une complexité donnée. Le programme est donc un moyen de certifier l’avenir, d’en éliminer l’incertitude et l’improbable pour le rapporter à la maîtrise.“ (Bachimont, 2008: 10)

Diese Determiniertheit von Software bringt Probleme mit sich: auf einer Ergebnisebene innerhalb einer digitalen Umwelt bleibt kein Platz für nicht-erwartete Ergebnisse. Genau diese auszuschließen ist die Aufgabe von Ingenieuren. Wer sich in einer programmierten Umgebung bewegt, für den wirkt die Welt wie aus dem Film „Tron“ in den 1980er Jahren, Bewegung ist nur in vorgefertigten Bahnen möglich, Verhalten nur in einem genau definierten Rahmen.

Immer wieder wird Algorithmen in der öffentlichen Diskussion eine aktive Handlungsrolle zugeschrieben, vor allem wenn Entscheidungen auf ein algorithmisch berechnetes Ergebnis zurückzuführen ist. Die klassische Meinung ist, dass Algorithmen selbst nichts als Anweisungen sind, die ihre Entwickler auch selbst durchführen könnten, aber eben nicht in der Geschwindigkeit und in dem Umfang wie es Computer können. In diesem Sinne können Algorithmen bereits als eine Art Verbesserung des Menschen (Enhancement) angesehen werden, weil sie es jemandem erlauben, seine eigene Handlungsanweisung millionenfach potenziert ausführen zu lassen. Und das ohne physische Anwesenheit, ohne Ermüdung und die Möglichkeit eines menschlichen Fehlers.

Kathrin Zweig nennt Algorithmen „eingefrorene Handlungsanweisungen, basierend auf den Ideen einiger Individuen, die unabhängig von Zeit und Raum millionen- oder gar milliardenfach ausgeführt werden“ (Zweig, 2016).[25]

Sehr eindringlich drückt sie damit aus, das die Verantwortung bei den Menschen liegt, die Algorithmen entwickeln und bei denen, die diese Algorithmen dann als Bausteine in ihren Programmen implementieren und weiterbenutzen.

Algorithmen werden gerne ins Spiel gebracht, wenn objektive und gerechte Entscheidungen gefordert werden, insbesondere wenn Entscheidungen getroffen werden sollen, die viele Menschen betreffen, also zum Beispiel in Justiz, Sicherheit und Politik, überall dort, wo wir eine Gleichbehandlung erwarten. Dabei werden Algorithmen Eigenschaften zugeschrieben wie Neutralität, Objektivität, Unfehlbarkeit.

Entscheidungsfindung durch Software wird in der Literatur häufig mit ADM (für „Algorithmic Decision Making“) bezeichnet und setzt sich aus den folgenden Bestandteilen zusammen:

Erstens Prozesse zur Datenerfassung zu entwickeln, zweitens die Daten zu erfassen, drittens Algorithmen zur Datenanalyse zu entwickeln, die die Daten analysieren, viertens diese auf der Basis eines menschengemachten Deutungsmodells interpretieren, und fünftens automatisch handeln, indem die Handlung mittels eines menschengemachten Entscheidungsmodells aus dieser Interpretation abgeleitet wird. (Algorithm Watch, 2017)

In der Realität können sie selbstverständlich schon von Grund auf fehlerbehaftet sein: es kann durchaus vorkommen, das ein Algorithmus ein Problem nicht löst, sondern Lösungen berechnet, die der Spezifikation durch das mathematische Problem nicht entsprechen, der Algorithmus die Berechnung nicht beendet oder für einige Eingaben das falsche Ergebnis produziert.

Genauso kann die Implementierung fehlerhaft sein, wenn dem Algorithmus nicht die richtigen Eingaben geliefert werden oder auch ganz einfach der falsche Algorithmus für eine Aufgabe ausgesucht wird.

Ein Algorithmus muss auch immer zur gewählten Modellierung des Problems passen. Fragen und Aufgaben, die algorithmisch gelöst werden sollen, müssen zuerst mathematisch modelliert werden.

Diese Modellierung eines Problems wird von Menschen gemacht, die auch hier ihre eigene Weltsicht, Erfahrung und Fehlerquellen miteinbringen. Wie bereits beim Design und bei der Implementierung gibt es auch bei der Modellierung von Aufgaben und Problemen nicht nur eine mögliche Variante, sondern immer auch unterschiedliche Lösungsvarianten. Die dabei getroffenen Entscheidungen haben massive Auswirkungen auf die Ergebnisse und die Entscheidungen können nicht immer danach getroffen werden, ob die Modellierung die getreueste ist. (O’Neil, 2016) Ressourcenverbrauch bei der Berechnung, Laufzeiten, verfügbare Daten für die Modellierung sind nur wenige von vielen Parametern, die vor allem bei der kommerziellen Modellierung beachtet werden. Oft wählt man auch eine Modellierung, weil für diese Art und Weise bereits fertige Algorithmen vorhanden sind, die getestet und vertrauensvoll sind.[26]

Mathematische Modelle für spezifische reale Probleme sind nicht immer einfach zu entwickeln und oft ist es einfacher, ein bestehendes, für einen ganz anderen Zweck entwickeltes zu verwenden, weil es den gewünschten Zweck auch zufriedenstellend erfüllt - und die passenden Algorithmen gleich mit: Spam-Filter identifizieren in modifizierter Form AIDS Viren, Epidemiologische Forschungen bewähren sich für die Vorhersage von kommerziellem Erfolg von Filmen im Kino.(O’Neil, 2016: 32) Das ist per se weder gefährlich noch unerwünscht. Es sollte aber mitgedacht werden, dass mit jedem übertragenen Modell vielleicht auch etwas mitübernommen wird, dass unerwünschte Nebenwirkungen in der Zielanwendung haben kann.

Ob und in welchen Fällen der berechnete Wert falsch ist aufgrund der Modellierung zeigt sich oft erst später. Solange man davon ausgehen kann, dass keine rechnerischen Fehler passieren repräsentiert das Ergebnis eine Scheinobjektivität des Computers.

„To create a model, then, we make choices about what’s important enough to include, simplifying the world into a toy version that can be easily understood and from which we can infer important facts and actions. We expect it to handle only one job and accept that it will occasionally act like a clueless machine, one with enormous blind spots,“ schreibt Cathy O’Neal (O’Neil, 2016: 17) Ihre Schilderung der Modellierung zeigt, dass bei komplexen Fragestellungen viele subjektive Entscheidungen getroffen werden müssen, bevor ein Problem überhaupt algorithmisch gelöst werden kann. (O’Neil, 2016)

Der Benutzer[27], der weder die Modellierung, noch den Algorithmus oder die Implementierung kennt, sondern nur einen Wert oder sogar nur eine rote oder grüne Ampel sieht und danach seine Entscheidung ausrichtet, muss darauf vertrauen, dass in der gesamten Entwicklung keine gravierenden Fehler passiert sind.

Unter all den aufgeführten Gesichtspunkten - eine Kette von menschlichen, individuellen Entscheidungen über Design, Implementierung und Modellierung und deren Fehleranfälligkeit und Bias[28] und der Annahme, dass auch algorithmische Entscheidungen Abwägungen sind und oft zumindest heuristische Elemente beinhalten, muss die Hoffnung auf objektive und „gerechte“ Entscheidungen durch Algorithmen bereits in diesem ersten Kapitel zumindest kritisch gesehen werden.

ADM gehört unter einigen Definitionen bereits zur am meisten diskutierten Softwaredisziplin, der sogenannten Künstlichen Intelligenz.

Künstliche Intelligenz

"Sie ist überall. Künstliche Intelligenz wird alles durchdringen, beim Einkaufen, im Auto, beim Arzt" Sepp Hochreiter, Leiter des Instituts für Bioinformatik der Uni Linz Tatsächlich ist kaum mehr ein elektronisches Gerät im Verkauf, das nicht beworben wird damit, dass es von künstlicher Intelligenz gesteuert sei. Der Begriff ist nicht allgemein definiert, häufig verbreitet ist auch AI für Artificial Intelligence. Gemeint ist meistens ein Teil der Informatik, der sich damit befasst, Software eigenständige Problemlösungen zu ermöglichen. Dieser Ansatz wird auch als Schwache KI bezeichnet.

Wenn das Ziel dabei ist, ein menschenähnliches Bewusstsein zu erzeugen, dann hat sich der Begriff der starken KI eingeführt. Die Geburtsstunde der modernen KI-Foschung wird gerne in ein Sommerseminar in Dartmouth im Jahre 1956 gelegt, in dem Marvin Minsky, John McCarthy, Nathaniel Rochester und Claude Shannon in 2 Monaten grundsätzlich klären wollten, wie man menschliches Denken mit einem Computer simulieren könnte.

Im Gegensatz zur starken KI geht es der schwachen KI darum, konkrete Anwendungsprobleme des menschlichen Denkens zu meistern. Das menschliche Denken soll hier in Einzelbereichen unterstützt werden. Letztlich geht es der schwachen KI somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik. (Wikipedia, 2017a) In KI-Systemen muss die Lernfähigkeit ein integraler Bestandteil sein, der nicht erst nachträglich hinzugefügt werden darf. Auch muss es mit Unsicherheit und probabilistischen Informationen umgehen können. (Russel & Norvig, 2012)

Besonders die Weiterentwicklung von sogenannten neuronalen Netzen und den darauf aufbauenden Methoden des maschinellen Lernens („deep learning“), die sich an Modellen der Neurowissenschaften für das menschliche Gehirn und menschliches Lernen orientieren, brachte beachtliche Fortschritte in Disziplinen wie Muster- und Spracherkennung.[29]

Aus dem Feld der Künstlichen Intelligenzforschung am besten bekannt sind „lernende“ Algorithmen. Die Algorithmen selbst verändern sich nicht dabei, sie bauen eine Entscheidungsstruktur auf, die allerdings von den jeweils zur Verarbeitung verfügbaren Daten beeinflusst wird. Über diese Daten „lernt“ der Algorithmus, er wird „trainiert“ wie es im Informatikjargon heißt. Erst in einem zweiten Schritt werden dann die neuen Daten klassifiziert und kategorisiert. Bilderkennungsalgorithmen arbeiten auf diese Art und Weise. Sie lernen zuerst wie ein Auto aussieht und teilen dann die Objekte, die ihnen vorgelegt werden in „Autos“ und „Nicht-Autos“. Dabei passieren Fehler: Wenn Autos nicht erkannt werden, die welche sind, dann spricht man von „falsch negativen“ Fehlentscheidungen, werden Objekte als Autos klassifiziert, die keine sind, dann handelt es sich um „falsch positive“ Entscheidungen.

Der Fokus von solchen Algorithmen lässt sich steuern, je nachdem ob es wichtiger ist, alle Autos auch als solche zu erkennen oder eine Falsch-Detektion zu vermeiden. Die Entscheidung zwischen sensitiv (alle Autos) und spezifisch (keine Nicht-Autos) ist meist eine Abwägung, da häufig das eine auf Kosten des anderen geht.[30]

Künstliche Intelligenz ist in mehrerlei Hinsicht für das Thema relevant. Erstens weil sie in der schwachen Form die grundlegende Technologie für immer mehr Entscheidungs-, Vorschlags- und Beratungsanwendungen ist.

Zweitens, weil sie die Selbstwahrnehmung der Menschen verändert. Angesichts des Narrativs der den Menschen überlegenen Maschinen und einer nahenden Superintelligenz fühlen wir uns im Sinne einer Anderschen prometheiischen Scham gar nicht mehr in der Lage ohne Softwareunterstützung zu entscheiden und geben so unsere Autonomie auf.

Und drittens bildet KI die technologische Grundlage für die Simulation von humaner Kommunikation und Interaktion, die uns Vertrauen zu Software fassen lässt, als handle es sich um Menschen oder zumindest Lebewesen. Bereits eines der ersten Experimente mit noch sehr simpler Technologie, Joseph Weizenbaums Simulation einer Psychotherapie[31] zeigte die Tendenz des Vertrauens in Maschinen, ohne diese zu hinterfragen.

Softwaresimulierte Interaktion muss den Turingtest nicht bestehen, um als menschlich wahrgenommen zu werden, es genügen menschliche Elemente.

Software als eigenständiger Akteur

„Algorithms are conductors orchestrating interface happenings. They make things happen and affect change within machine processes and human behaviors.” Estee Beck (Beck, 2016: 8)

Die Frage, ob Software eine Agentivität zugeschrieben werden kann, ist strittig. Wird dafür ein bewusstes, intentionales Handeln vorausgesetzt[32], dann ist die Frage mit der Entwicklung der Starken KI beinahe identisch. Unter dieser Prämisse würde die Mehrzahl der Autoren derzeit eine Agentivität ablehnen. Wie steht es aber mit einer niederschwelligeren Definition? Schwache KI wird daraufhin entwickelt, Probleme zu lösen und für die Lösung dieses Problems alle Ressourcen einzusetzen, es gibt also ein klares Ziel auch wenn der Lösungsweg dahin zu Beginn noch nicht immer klar ist. Handelt es sich bei dieser Software um einen eigenständigen Akteur? Christopher Noessel sieht pragmatisch eine neue Klasse von Software, die im Auftrag des Nutzers eigenständig Aufgaben erledigt, während der Benutzer etwas Anderes tut.[33]

Estee Beck nähert sich der Thematik aus dem Blickwinkel der „Rhetorical Studies“ über die Frage, ob und welche Form der Beeinflussung durch Software überhaupt gegeben sein könnte. Diese Persuasivität ist für sie eine Voraussetzung, um Software als Agens zu sehen.

“Whatever views a person or organization holds about algorithms, make no mistake: Algorithms are conductors orchestrating interface happenings. They make things happen and affect change within machine processes and human behaviors”.

Vor dem Hintergrund der Linguistik und der Sprechakttheorie fasst sie Softwarecode als Sprachobjekte und als quasi-rhetorische Agenten mit persuasiven Fähigkeiten auf.

Sie vertritt die These, dass Computer-Algorithmen aufgrund ihrer performativen Natur und der kulturellen Werte und Überzeugungen, die in ihren linguistischen Strukturen eingebettet bzw. kodiert sind, persuasiv sind. Persuasiv nennt sie sie aufgrund der Assoziation mit der Fähigkeit Gedanken und Handlungen zu beeinflussen. Wie Lanier ist sie der Meinung, dass es sich bei Software um quasi-objektive ideologische Strukturen handelt, in der die Schaffung einer algorithmischen Struktur auf der Wissens- und Erfahrungsbasis des / der Schöpfer(s) beruht und ideologische Verzerrungen immer in die Struktur durchsickern würden.

Sie geht aber weiter, in dem sie Software mit Sprache vergleicht und Software eine im Vergleich wesentlich stärkere Performativität zuschreibt. In die gleiche Kerbe schlägt Hayles, wenn sie schreibt:

“When language is said to be performative, the kinds of actions it “performs” happen in the minds of humans, (…) these changes in the mind can and do result in behavioral effects, but the performative force of language is nonetheless tied to the external changes through complex chains of mediation. By contrast, code running in a digital computer causes changes in machine behavior and, through networked ports and other interfaces, may initiate other changes, all implemented in the transmission of code.”(Hayles, 2005: 49-50)

Gerade wegen der Funktionalität und der Performativität - nämlich Veränderung bei Menschen und Maschinen hervorzurufen - sei immer eine Bedeutung sowohl auf der maschinellen, wie auf der menschlichen Ebene miteingeschlossen. Genauso wie Sprache kann Software nicht ohne Kontext bestehen, auch Code kann nicht ohne Speichermedium, Laufzeitumgebung, Compiler und Hardware bestehen. Software und Sprache weisen Parallelen auf, Computercode aber hat Eigenschaften, die über das gesprochene Wort und Text hinausgehen. Gleichzeitig sind Ambiguitäten wie sie für die menschliche Sprache typisch sind, dem Softwarecode fremd - für die Maschine muss letztendlich alles auf 0 oder 1 reduziert werden können.

Dem Softwarecode eine aktive Agens-Rolle zuzuschreiben, scheint mir sehr weit zu gehen, und eine sehr anthropomorphe Betrachtungsweise, doch es als eine Extension der Agency-Rolle zu sehen (Introna, 2011: 117) ist für mich plausibel.

Im Beispiel der Entwicklung von Algorithmen, werden die Intentionen und Designs der Mathematiker und Programmierer weitertransportiert. Bei der Exekution des Codes werden dann diese miteingeschriebene „Agencies“ in den neuen Kontext mithineinverwoben. Introna spricht von „encoded agency“ (Introna, 2011). Diese Agentivität könnte sehr weit gehen und uns stärker beeinflussen, als das bisher theoretisiert wurde:

„We may become to think of algorithms as quasi-agents carrying forward the agency of human symbolic action. But, the changes algorithms produce and affect as a force go deeper than agency and cut at persuasive design.” (Beck, 2016: 7)

Aus dem bisher Geschriebenen lassen sich weitere drei Punkte als software-inhärente Aspekte in Bezug auf eine Beeinflussung unserer Entscheidungen zusammenfassen:

1. Logik als persuasives Element

Software kann als ein systematischer Weg, Information zu verarbeiten und zu organisieren um ein bestimmtes Ziel zu erreichen, gesehen werden. Diese Logik bestimmt mit, wie Menschen und Maschinen die Welt um sie erfahren. Weil Algorithmen logische Prozeduren für Aktionen vorgeben, verkörpern sie persuasive Funktionalitäten. Die Sequenzen bestimmen, wie und welche Daten eine Maschine oder ein Mensch sammeln und verarbeiten, damit sie in die Logik der Anweisung passen. Wie die Arbeit von Kevin Brock nahelegt, steuern Algorithmen das Denken und die Aktionen von Mensch und Maschine wie Syllogismen. (Brock, 2013)

Überhaupt ist Software darauf ausgelegt, Abläufe zu steuern und Veränderung zu bewirken - menschliches Verhalten inklusive. Software stellt selten etwas direkt her, sondern verarbeitet und verteilt Anweisungen. Software ist pure Manipulation, ohne hier normativ zu werten.

2. Inklusion/Exklusion

Software insbesondere Algorithmen haben ein grundlegendes Design von Inklusion und Exklusion eingebaut: Nur die Daten, die für die Operation notwendig sind, werden überhaupt akzeptiert, und diese nur in einer bestimmten Form.

3. Ideologie/Bias

Wie oben erwähnt, kann Software als quasi-ideologische Struktur aufgefasst werden. Eine andere, verhaltensökonomische Interpretation spricht vom „Software-Bias“ und meint damit dasselbe Phänomen, nämlich die Übernahme von Perspektiven und Einstellungen des Programmierers, Modellierers in die Software bzw. ihre Implementierung und ihr Fortwirken. In diesem Kontext wird meist davon ausgegangen, dass es sich um einen impliziten, nicht-intendierten Vorgang handelt. (Ziewitz, 2016)

Mensch und Software

„Software is a compelling urgency, the very stuff out of which man builds his world“ Joseph Weizenbaum (Weizenbaum, 1976: 20) In diesem Kapitel möchte ich zeigen, wie weit die Software mit all ihren Möglichkeiten, aber auch mit all ihren nicht unkritischen inhärenten Merkmalen unsere Lebenswelten erfasst hat. Erst werde ich anhand der Beschreibung von Einsatzfeldern und Anwendungen den Umfang der Mensch-Maschinen-Interaktion und der möglichen Beeinflussung, die im Zentrum der Arbeit steht, aufzeigen, danach die verbreitetsten Methoden beschreiben.

Kitchin und Dodge unterscheiden vier Klassen der Komplexität von Softwareeinsatz:

„Coded objects“ sind in ihren Augen Dinge, die entweder Software brauchen um selbst zu funktionieren oder Software brauchen um gelesen zu werden. Eine CD ist ein Beispiel dafür. Bei „Coded networks“ handelt es sich um Netzwerke die „Code objects“ verbinden oder Netzwerke, die von Software kontrolliert oder überwacht werden, also Telekom, Daten, Gas, Ampeln, bis hin zum lokalen Netzwerk eines Autos.

Als dritte Klasse betrachten sie ursprünglich analoge Prozesse, die digitalisiert wurden, zum Beispiel das Geldabheben. In diesem Fall sprechen sie von „coded processes“.

Wenn die kodierten Infrastrukturen und die kodierten Prozesse zusammen ein ganzes System ergeben, dann sprechen sie von „Coded assemblages“. Ein Beispiel dafür ist der Flugverkehr als Zusammenspiel der Prozesse und Netzwerke des Ticketverkaufes, der Sicherheitskontrollen, des Check-Ins, des Gepäckhandlings, der Flugüberwachung, Flugzeugsteuerungen und so weiter. (Kitchin & Dodge, 2011: 6-7)

Wenn wir alle vier Klassen des Softwareeinsatzes betrachten, dann zeigt sich sehr bald, dass wir Software und ihren Auswirkungen gegenüber stark exponiert sind, diese Exponiertheit uns jedoch nur in sehr spezifischen Fällen ein Thema ist.

Ubiquity

“If the computational system is invisible as well as extensive it becomes hard to know what is controlling what, what is connected to what, where information is flowing, [and] how it is being used.” (Weiser, 1999: 694)[34]

Die Forscher des berühmten Xerox Palo Alto Research Center, kurz PARC genannt, einem der Vorläuferinstitutionen des heutigen Silicon Valley meinten in den 1990er Jahren, dass die Digitalisierung dann wirklich fortgeschritten sei, wenn wir die Computer, die uns umgeben, nicht mehr bemerken, wenn wir sie unbewusst benutzen, um unsere Alltagstätigkeiten zu erledigen. Marc Weiser prägte dafür den Begriff des „ubiquitous computings“ (Weiser, 1999). Dieser Punkt scheint in 2017 zumindest für einen Teil der Bevölkerung Europas, der USA, Asiens und in den Metropolen der Welt erreicht.[35]

Tatsächlich gibt es kaum Teile unserer Lebenswelten, die nicht mit Software in Berührung stehen, wenn wir sie unter dem Blickwinkel inspizieren, wo wir direkt mit Software interagieren, Software uns oder unsere Tätigkeiten unterstützt beziehungsweise wir uns Produkten oder Dienstleistungen bedienen, die von Software gesteuert oder deren Produktion von Software gesteuert wurde.

Unsere Arbeitswelt ist ohne die Nutzung eines oder mehrerer Computer kaum mehr denkbar, wir schreiben, rechnen, lesen und kommunizieren softwaregestützt. Industrieroboter und Automatisierungsprozesse in der Produktion sind weitverbreitet. Entwicklungen der schwachen KI, Effizienz, fallende Kosten und Skalierbarkeit sind Merkmale, die dazu führen, dass Software nicht mehr nur unterstützt (etwa in der Berechnung, Kommunikation, Archivierung etc.), Arbeitsprozesse steuert (Disposition, Arbeitsvermittlung, Plattformen wie Uber oder Lieferando) sondern auch zunehmend selbstständig Aufgaben von Menschen übernimmt im Sinne eines Agenten. Software wird bereits als sogenannter „Cobot“ als Arbeitskollegin und Teammitglied diskutiert. (Frick, 2015) DiePersonalauswahl ist ein Beispiel dafür. Kandidaten und Kandidatinnen werden auch in Deutschland mittlerweile automatisiert über Web-Plattformen (Beispiele sind Jobspotting, talent.io) gesucht und kontaktiert. Die ganze Bandbreite der Kritik an der Algorithmischen Entscheidungsfindung wird in der Diskussion um tatsächliche Personalauswahl mittels Software deutlich:

Welche Daten eines Bewerbers oder einer Bewerberin werden erfasst zur Analyse und mit welcher Methode? Handelt es sich um freiwillig Angaben oder werden auch Daten, deren Herkunft nicht geklärt ist verwendet?[36]

Wie genau funktionieren die Auswahlalgorithmen? Welches mathematische Modell mit welchen Grundannahmen einer Entsprechung zu Persönlichkeit und Verhalten liegt dahinter? Handelt es sich um einen validierten Persönlichkeitstest oder bleiben die Selektionsmechanismen geheim? Wurde eigens etwas entwickelt oder Module aus anderen Bereichen übernommen? Auf Basis welcher Daten wurde die Software „trainiert“?

Die Literatur zitiert immer wieder Beispiele von sogenanntem „Softwarebias“. So würden auch bei der Personalauswahl durch Software ethnische Zugehörigkeit, Geschlecht und Wohnort eine Rolle spielen, insbesondere wenn die Software an Echtdaten kalibriert wurde ohne menschliche Korrektur. (Carr, 2015; Christl & Spiekermann, 2016),(Rid, 2016; Rosenberg, 2013)

Damit scheint zumindest eines der treibenden Argumente für den Einsatz von Rekruitierungssoftware - neben der Effizienz und Skalierbarkeit - nämlich die Ausschaltung der Vorurteile eines Rekruiters oder Rekruterin nicht völlig befriedigt. Zwar stützen Untersuchungen zur vorurteilsbehafteten Entscheidungsfindung von Menschen bei der Auswahl und der Beurteilung von anderen Menschen den Einsatz von ADM in der Hoffnung auf objektivere Entscheidungen.[37] (Meier, 2017) Diese Hoffnung kann jedoch bereits aufgrund des bisher Gesagten meiner Meinung nach nicht zufriedenstellend beantwortet werden. Überspitzt formuliert werden die Vorurteile eines einzelnen durch die Vorurteile und Interessen vieler ersetzt, deren Identität und deren genauer Einfluss auf die Entscheidung nicht mehr auszumachen ist, weil sie über die Prozesskette der Entstehung des Entscheidungswerkzeuges und des Einsatzes kaum mehr nachvollziehbar sind. Damit möchte ich nicht gegen den Einsatz von ADM argumentieren, sondern für eine realistische Erwartungshaltung und ein Bewusstsein für die damit einhergehenden Fragen plädieren.

Der Finanzsektor hatte immer eine Nähe zur Mathematik. Damit meine ich nicht nur die anspruchsvollen Risikomodelle für komplexe Finanzprodukte, sondern auch den normalen Zahlungsverkehr unter Banken und Privatleuten über Karten oder Zahlungsdienstleister wie Paypal, der wie selbstverständlich softwaregesteuert läuft. In Verruf geraten sind der Hochfrequenzhandel, bei der Hochleistungsrechner selbstständig oder mit Einwirken von Menschen innerhalb von Sekunden bis in den Mikrosekundenbereich nach den zuvor programmierten Algorithmen handeln. Diese reagieren auf Marktveränderungen und treffen daraufhin Handelsentscheidungen.[38] Ebenfalls in die Kritik geraten ist die automatisierte Kreditvergabe.[39] Hier wird immer wieder das gut dokumentierte Beispiel zitiert, in dem ein Afroamerikaner als Kunde für eine Autovermietung abgelehnt wurde, weil das Credit Rating aufgrund seiner Hautfarbe die Bonität gesenkt hatte. Dieselbe intransparente Kette von Vorurteilen wie oben am Beispiel Personalauswahl geschildert, finden wir auch hier. (Greenfield, 2017; Schlieter, 2015)

Software steuert medizinische Geräte in Diagnose und Therapie, verwaltet Patientenakte, optimiert Spitalsaufenthalte, steuert Rettungseinsätze und wickelt Versicherungsleistungen ab. Private Versicherungen haben begonnen, Vitaldaten ihrer Kunden zu sammeln und auszuwerten, um deren Erkrankungsrisiko besser erkennen zu können und dementsprechend die Prämien anzupassen. Die relativ geringen Kosten der Softwareentwicklung und die leichte Anwendung auf einen großen Markt lassen außerhalb des regulierten öffentlichen Gesundheitssektors medizinische und im weitesten Sinne mit Gesundheit assoziierte Softwarelösungen sprießen. Ein Beispiel dafür ist „Precire“, eine Software die anhand von Sprachproben den Charakter eines Menschen analysiert und die Ergebnisse in Form von prozentualer Übereinstimmung mit den fünf wesentlichen Persönlichkeitsdimensionen der Psychologie ausgibt. (Breit & Redl, 2017)

Einer Unmenge an algorithmischen Analysen unterziehen sich mittlerweile viele Menschen selbst und freiwillig als Benutzer von Fitnesstrackern, Smartwatches und anderen sogenannten „Wearables“, also kleinsten Sensoren oder auch mit Recheneinheit ausgestatteten Geräten, die am Körper oder in der Kleidung getragen werden können. Die persönliche Motivation dabei kann sehr unterschiedlich sein, von der gelegentlichen Benutzung eines GPS-Gerätes beim Wandern über das Tragen einer Smartwatch als Statussymbol bis hin zur völligen Selbstvermessung. Die Anhänger dieser „quantified self“ genannten Strömung beobachten und messen mittels Apps ihren Schlaf, ihre Bewegung, ihr Gewicht, jedes Gramm Nahrung, das sie zu sich nehmen – und sogar den CO2-Gehalt in der Luft, die sie atmen. Beweggründe sind die Optimierung (wobei das Optimum ein asymptotischer Begriff bleibt und daher der Begriff einer permanenten Weiterverbesserung angebrachter wäre) einer sportlichen oder einer anderen isolierten Tätigkeit bis hin zu einer umfassenden Verbesserung des eigenen Selbst und des eigenen Lebens. In diesem Fall spricht man von Lifehacking.[40]

Es ist ein permanentes Tüfteln an sich selbst, wer an Maschinen und Software immer weiterbastelt, der macht das auch bei sich selbst, wenn er sich selbst als eine verbesserungswürdige Maschine wahrnimmt. Durch die Vermessung des eigenen Körpers und dem Vergleich mit potentiell allen anderen Menschen, die Zugang zum Internet haben, ist es kaum möglich sich selbst nicht als ein suboptimales Reiz-Reaktions-System zu empfinden. (Pasquale, 2015)

Aus dieser auf den ersten Blick eher skurillen Praxis erwachsen handfeste Argumente für das Thema einer Bevormundung durch Software. Das erste bezieht sich auf die Interaktion mit der Auswertesoftware der Sensoren selbst: diese kommt meist als benuterfreundlich bunte App, die uns mit einfachen Grafiken, Bildern und Tönen Feedback zu „unseren“ Daten gibt. Alles bisher Gesagte gilt weiter – auch in diesen Anwendungen, die wie ein Verschnitt von Slotmachines und Spielzeug wirken, werken und wirken Algorithmen, deren Herkunft wir nicht kennen, deren Rückmeldungen wir aber meist sehr ernst nehmen und aufgrund derer wir unser Verhalten anpassen. Für uns stellen die bunten Bilder auf unserem Handy oft die Grundlagen für die Gründe dar, aufgrund derer wir Entscheidung treffen, die wesentlich weniger banal sind, als sie klingen: Wir gehen nicht ins Kino oder Theater, weil wir eine Trainingseinheit absolvieren wollen, um unser Tagespensum zu erfüllen. Wir lassen vielleicht unser Auto stehen und fahren mit dem Fahrrad, weil wir an einer „Challenge“ teilnehmen. Durch die Vernetzung wird aus der singulären Entscheidung ein Massenphänomen mit nicht abschätzbaren Auswirkungen.

Das zweite Argument geht in eine gesellschaftspolitische Richtung: Der Voluntarismus des Self-Trackings könne leicht in eine Pflicht oder gesellschaftliche Erwartung umschlagen, warnt Steffen Mau in seinem Buch „Das metrische Wir“. (Mau, 2017)

Die zentrale These, die Mau in seinem Buch entwickelt, ist, dass die "quantifizierenden Zuweisungen von Statusrängen" (Mau, 2017) die Ungleichheitsordnung verändern, weil bislang Unvergleichbares wie Gesundheit oder Attraktivität miteinander vergleichbar und in ein hierarchisches Verhältnis gebracht werde. Zahlen suggerieren ein Mindestmaß an Objektivität.

Es gehe jedoch nicht nur um eine scheinbare Objketivierung gesellschaftlichen Vergleiches, sondern zugleich um die "Stärkung eines kompetitiven Modus der Vergesellschaftung" (Mau, 2017). Gerade weil wir davon ausgehen, dass alle anderen den Statusdaten Relevanz zuschreiben, werden sie auch für uns wichtiger. Daher spiegeln diese Scores[41] nicht die soziale Ordnung, sondern sie erzeugen ein neue. Diese entwickelt einen normativen und politischen Druck.[42] In der westlichen Welt ist die Scoring Macht bei privaten Akteuren mit geheimen algorithmischen Autoritäten,[43] den Social Media Plattformen. Sowohl „social media“ als auch der Begriff der Plattform sind in der heutigen Bedeutung ohne die Existenz von Software nicht denkbar.

Das Konzept der Plattform ist heute zentral für Softwareeinsatz. Die Idee ist nicht neu und existierte bereits vor der Erfindung des Computers, im Prinzip ist es die Idee einer Börse. Die Kapazität von Softwareplattformen direkt zwischen Kunden und Lieferanten zu vermitteln wird auf viele Bereiche ausgedehnt: Streaming von Musik ist ein Beispiel aus der Kunst, Projekte um die direkte Demokratie wie die Piratenpartei oder liquid democracy zeigen, dass die Parole „kill the middleman“ sich überall anwenden lässt.

Das Ausschalten von Zwischeninstanzen - seien es Großhändler, Distributoren oder politische Parteien - wird oftmals als befreiend empfunden und eröffnet in vielerlei Hinsicht auch neue Perspektiven.[44] Die Stärke von Plattformen ist es, Transaktionskosten zu senken und Transparenz zu schaffen. Für Jeremy Rifkin stellen diese Plattformen eine große Chance dar, er sieht sie als Werkzeuge der Ermächtigung der Zivilgesellschaft und sieht großes Potential durch das Teilen von Besitz und das Wegfallen der Transaktionskosten. (Rifkin, 2014)

Software birgt wie jede Technologie Potentiale und Gefahren, mein Ziel ist es nicht eine Technikfolgenabschätzung für Software zu schreiben, sondern mich auf die Beeinflussung des Willens und der Entscheidungsbedingungen zu konzentrieren und zu beurteilen, ob hier eine signifikante Einschränkung der Autonomie gegeben ist oder sein kann.

Bei der Betrachtung von Social Media ist es daher wichtig zu betonen, dass es sich um software-mediierte Kommunikationsplattformen handelt. Jeder Teil der Interaktion ist mittlerweile durch Software geleitet: von der Eingabe über die Verarbeitung bis zur Anzeige.

Die Kritikpunkte hier sind erstens das Design der Schnittstellen, zweitens die Beschränkungen in der Kommunikation durch die Festlegungen und die Struktur des Mediums und drittens die Verarbeitung und Zustellung der Information durch nicht offen zugängliche Algorithmen.

Den ersten Punkt werde ich noch behandeln, der Zweite wurde bereits im Kapitel Software diskutiert: Die Beschränkung auf wenige Zeichen bei Twitter, die Normung von Emojis, der allzu simple Like-Button, das vorgefertigte Layout von Facebook und Instagram, die Struktur der „Timeline“ und des Newsfeeds – all das erleichtert auf einer Seite die Benutzung, normiert aber die darüber stattfindende Kommunikation.[45] Heikel sind die normativen, moralischen Festlegungen, die mit getroffen werden und die kulturelle Normen und Werte, die mitübernommen werden.[46]

Die kategorische Einschränkung von Nacktheit auf US-basierten Softwareplattformen macht es unmöglich für europäische Nutzer untereinander eine aus ihrer Sicht entspanntere Form des Umgangs zu pflegen: Nacktheit wird einfach entfernt. Dieses Beispiel zeigt meines Erachtens, dass es nicht nur die Benutzer sind, die die sogenannte „Netzkultur“ prägen, sondern dass normative Werte auch strukturabhängig sind. Renren.com, das größte chinesische Soziale Netzwerk hat ganz andere Regeln und Algorithmen als Facebook.

Der dritte Punkt betrifft erneut die ADM, die in diesem Kontext scheinbar banale Entscheidungen trifft, nämlich welche Beiträge welchem Benutzer oder welcher Benutzergruppe in welcher Priorität angezeigt werden. Ursprünglich entwickelt, um dem Benutzer das Lesen und Sichten der Beiträge zu erleichtern unter der psychologischen Prämisse, dass wir gerne mit Menschen ähnlicher Einstellung und Lebensumständen verkehren und Fremdes eher ablehnen, schaffen die Ranking Algorithmen mittlerweile sogenannte „Meinungsblasen“. (Greenfield, 2017)

Das Interesse von sozialen Netzwerken ist es, ihre Nutzer als möglichst kohärente Personen aus möglichst vielen Daten über diesen Nutzer zu konstruieren. Auch wir als Menschen haben ein Interesse daran, kohärente Lebensentwürfe zu leben. In der modernen Gesellschaft fällt uns das häufig gar nicht so leicht, so unterschiedlich sind die Rollen, in die wir schlüpfen müssen in den verschiedenen Kontexten und Lebensumwelten unserer Existenz. (Montag, 2016) Aber wir haben es auch zu schätzen gelernt, dass wir, wenn wir wollen, unterschiedliche Seiten unseres Selbst betonen können und es kaum mehr eine kontextübergreifende soziale Kontrolle der Kohärenz unseres Lebensentwurfes gibt.

Für den Wert der Daten für gezielte Werbung, Targeting genannt, ist es essentiell, dass die digitalen Profile mit realen Personen verknüpft werden können.[47] Der Wert liegt in der maximalen Vermessung einer Person für targeting, mehrere online Identitäten sind daher irritierend für den die digitale Rekonstruktion einer Person.

Konsequenterweise ermuntert Facebook seine Nutzer, unter anderem durch das Timeline Feature, ihr öffentliches Image als untrennbaren Teil ihrer Identität anzusehen. Die Nutzer erhalten alle ein uniformes Selbst, das sich in einem kohärenten Narrativ beginnend bei der Geburt ausdrückt. Das passt zur engen Konzeption des Selbst und dessen Möglichkeiten des Gründers von Facebook, Mark Zuckerberg: „you have one identity. The days of you having a different image for your work Friends or co-workers and for the other people you know are probably coming to an end quickly“. Er argumentiert auch „having two identities for yourself is an example of a lack of integrity.” (Kirkpatrick, 2011)

Kohärente Identitäten führen auch zu tendenziell vorhersagbaren Entscheidungen. Unsere Deliberationen sind in der Regel nicht arithmetischer Natur und sind daher nicht berechenbar. Der Mensch sei keine Turingmaschine, menschliche Probleme seien häufig nicht deterministisch und liessen sich eben nicht durch Algorithmen lösen, argumentiert Julian Nida-Rümelin. (Nida-Rümelin, 2011) Eben weil das so ist, lassen wir andere Elemente als die Maximierung unseres eigenen Nutzens in unsere Abwägungen miteinfliessen, unter anderem auch den Wunsch ein kohärentes Leben zu führen. So wie wir unsere Freunde einschätzen können, weil wir wissen, was ihnen wichtig ist und welche Grenzen sie nicht überschreiten würden auch wenn sie davon einen Vorteil hätten, so versuchen uns die Trackingmechanismen ebenfalls einzuschätzen.

Eine einzige Interaktion eines Verbrauchers, zum Beispiel ein Besuch einer Website, könnte eine Vielzahl von Datenflüssen und eine Reihe von versteckten Ereignissen über viele verschiedene Parteien hinweg auslösen. Profildaten, die über mehrere Dienste verteilt sind, werden dynamisch miteinander verknüpft und kombiniert, um viele automatische Entscheidungen über Menschen zu treffen, sowohl trivial als auch konsequent jeden Tag.[48]

Hier kommt zu den Plattformen und der ADM eine neue Komponente ins Spiel, die ohne Software undenkbar wäre, nämlich die statistische Analyse großer Datenmengen. Unter dem Schlagwort Big Data verbergen sich viele dedizierte Schritte der Datensammlung, Aufbereitung, Analyse und Anwendung. Big Data bringt einen probabilistischen Zug - es handelt sich bei Big Data Analysen nicht um kausale Erklärungen, sondern um statistische Korrelationen Chris Anderson schrieb 2008 das Ende des klassischen, kausalistischen Wissenschaftsansatzes herbei - Es gäbe bald genug Daten und die Werkzeuge zu ihrer statistischen Bearbeitung, dass der Zusammenhang der Welt aus Korrelationen und nicht als Kausalitäten dargestellt werden könnte. „Correlation supersedes causation, and science can advance even without coherent models, unified theories, or really any mechanistic explanation at all.”[49] (Anderson, 2008)

Bei Big Data geht es nicht so sehr um präzise Zahlen, als um Wahrscheinlichkeiten und Korrelationen. Korrelationen sind nicht immer kausal, die Interpretation ist oft schwierig, die Möglichkeiten für Fehler groß. Vorhersagen sind daher so wie Wettervorhersagen zu interpretieren, werden jedoch im weiteren Verlauf der Datenverarbeitung oft binär und exakt interpretiert.

Korrelationen als Inputparameter für Algorithem sind häufig, gemeinsam mit all den gesammelten, ohne unser wissentliches Zutun zu einer digitalen Identität interpretierten Datenspuren, sind sie die Basis für Vorhersagen von individuellem und Gruppenverhalten.

Die Treffgenauigkeit kennt niemand wirklich genau - sie bleiben Firmengeheimnis. Dass die angepriesene Genauigkeit im Echtbetrieb nicht erreicht wird ist anzunehmen. Ein Selbstversuch auf applymagicsauce.com war erschreckend - die Analyse war so weit daneben, dass die Angst nicht in der Genauigkeit der Berechnung, sondern vor ihrer Fehlerhaftigkeit liegt.[50]

Anwendungen zur Überwachung von Personen, Objekten oder ganzen Staaten sind spätestens seit WikiLeaks in der öffentlichen Debatte, der Umfang und die genaue Funktionsweise bleiben nach wie vor im Unklaren.

Generell staatliches Sicherheitshandeln immer öfter von kombinierten Big-Data und ADM-Systemen unterstützt, sei es in der „vorausschauenden Polizeiarbeit“ (predictive policing) oder bei der Entscheidung darüber, ob jemand am Flughafen besonders streng kontrolliert wird.

Das Thema des militärischen Einsatzes von Software für Aufklärung über den direkten Einsatz von Cyberwaffen aller Art bis zur Entwicklung von autonomen Waffensystemen (sogenannten LARs oder LAWS) lasse ich ebenso bewusst unbehandelt wie die dabei ungelösten ethischen Fragen.[51] Auch die Vulnerabilität von physischer Infrastruktur aufgrund der Abhängigkeit von Steuerungssoftware wie sie Bestseller vom Typ eines „Blackout“ aber auch sämtliche Szenarien für die digitale Kriegsführung beinhalten räume ich keinen Raum ein. Zwar sehe ich einen starken Einfluss auf den Menschen und unter katastrophalen Bedingungen sind auch unter Umständen Autonomie und Handlungsfreiheit eingeschränkt, diese Situationen aber fallen nicht in das Thema dieser Arbeit.

Der Softwaregebrauch in Schule und Bildungsinstitutionen ist weitreichend und wird meiner Meinung nach zurecht diskutiert.

Forschung kommt in den wenigsten Fällen ohne Software aus, viele Forschungsergebnisse sind ein Produkt von Software. Ein vielleicht launiges, aber zum nächsten Kapitel passendes Beispiel für die Fehleranfälligkeit im Einsatz von Software ist die Gehirnforschung. 2016 ging eine Welle der Verunsicherung durch die wissenschaftliche Gemeinde, weil bei der Visualisierung von Gehirnaktivität mit dem fMRT Verfahren beim Einsatz der gängigen Softwarepakete nicht sorgfältig genug gearbeitet wurde und daher die Ergebnisse von Studien verfälscht worden sei. Die Ergebnisse zeigten Aktivität im Gehirn wo gar keine war – die lange Kette von der Sensorik bis zur visuellen Ausgabe ist so komplex und intransparent für viele anwendende Neurowissenschaftler, dass ein Plausibilitätscheck ihnen nicht möglich war. (Charisius, 2016)

Wir vergessen häufig, dass Softwarevisualisierungen kein analoges Bild wie das eines Teleskopes sind, sondern ein Produkt von einer langen Kette von Softwareentscheidungen.

Interfaces

“In the electronic age we wear all mankind on our skin. We wear our brains outside our skulls andour nerves outside of our skin.” McLuhan (McLuhan, 1994)

In der Rückschau erscheinen viele Aussagen Marshall McLuhans, als hätte er die Weiterentwicklung der elektronischen Medien sehr genau vorausgesehen. Wenn er in „Understanding Media“ 1964 schreibt:

“By putting our physical bodies inside our extended nervous systems, by means of electric media, we set up a dynamic by which all previous technologies that are mere extensions of hands and feet and teeth and bodily heat-controls — all such extensions of our bodies, including cities — will be translated into information systems. (…) But there is this difference, that previous technologies were partial and fragmentary, and the electric is total and inclusive. An external consensus or conscience is now as necessary as private consciousness. With the new media, however, it is also possible to store and translate everything; and, as for speed, that is no problem. No further acceleration is possible this side of the light barrier.”(McLuhan, 1994: 57-58)

dann nimmt er wichtige Aspekte der aktuellen Digitalisierungskritik bereits vorweg: Die Ubiquität, die Veränderung des Verhältnisses von Privatheit und Öffentlichkeit, die Externalisierung von kognitiven Prozessen, das Beinahe-Verschmelzen von Mensch und Software, die Vernetzung und die Erweiterung des Menschen durch Technologie.[52] Letzteres ist bei McLuhan noch neutraler als Erweiterung („extension“) gedacht und weniger im Sinne einer Verbesserung der conditio humana im Sinne eines „Human enhancement“.

Wenn wir die Interaktion zwischen Mensch und Software genauer betrachten wollen im Hinblick auf eine Beeinflussung, dann müssen wir einerseits einen Blick auf die bestehenden Schnittstellen werfen und versuchen, ihre Form und Arbeitsweise zu verstehen und uns zweitens mit den philosophischen Aspekten dieser Interaktion befassen.

Wenn es zwischen diesen beiden Aspekten eine Beziehung gibt, dann muss auch diese auf Relevanz hin geprüft werden.

Wie interagieren wir also mit Software? Eine direkte „Verdrahtung“ von menschlichen Nervenzellen mit elektronischen Bauteilen ist möglich und wird auch im medizinischen oder künstlerischen Bereich eingesetzt. Letztlich sind es auch in diesen Fällen elektrische Spannungsimpulse, die sich nicht von denen eines Touchdisplays unterscheiden, die Verbindung erfolgt allerdings „in uns selbst“, sodass wir das gesteuerte Bauteil mehr als ein eigenes Organ erleben als eine Computertastatur. Diese Sonderfälle, so sehr sie auch die Diskussion über Cyborgs und die aufgeworfenen ethischen Fragen befeuern, lasse ich außer Acht und konzentriere mich auf die Schnittstellen mit der größten Verbreitung: Smartphones (multisensorisch durch Vibration, Display und Lautsprecher), klassische Computer, und Sprachassistenten wie Alexa von Amazon. Die hier angewandten Prinzipien gelten auch für die vielen Displays in Haushaltsgeräten, Automaten und Autos.[53]

Waren frühe Computerinterfaces entweder Kommandozeilen oder Metaphern, so haben neuere Oberflächen eine ganz eigene Ästhetik und visuelle Sprache entwickelt, die viel weniger an Metaphern orientiert ist.

Die Benutzbarkeit dadurch ist massiv gestiegen, kulturelle Vorbedingungen sind auf ein Mindestmaß geschrumpft.[54]

Eine eigene Disziplin der Psychologie widmet sich der Erforschung der Mensch-Maschinen-Interaktion und vermutet, dass auch die physische Beschaffenheit der Schnittstelle selbst bereits zu beeinflussen scheint, wie wir digitale Inhalte erleben, uns an sie erinnern und mit ihnen interagieren. Das ist nicht weiter verwunderlich, wenn wir von unserer lebensweltlichen Erfahrung ausgehen: natürlich erleben wir unsere Umwelt anders, je nachdem mit welchem Sinn und mit welchem Teil unseres Körpers wir sie erforschen: Einen Baum anzusehen oder ihn anzugreifen ist für uns ein kategorialer Unterschied. Niemand würde die Berührung eines Baumes mit der eigenen Hand oder mit einem Stock als gleichwertiges Erlebnis einstufen. Warum sollte es daher einerlei sein, ob wir ein Objekt auf einem Bildschirm mit einer Maus anklicken oder es mit unserem eigenen Finger berühren? Natürlich ändert sich das Objekt selbst nicht, aber auch der Baum bleibt gleich. Neu ist für uns, dass wir exakt die gleiche Manipulation des Objektes in der digitalen Umwelt durchführen können. Diese ist bestimmt durch die Möglichkeiten, die die Software repräsentieren kann und nicht durch die physische Beschaffenheit der Schnittstelle, auch wenn wir das vielleicht manchmal so empfinden. Es fällt uns leichter, den Baum mit dem Finger auf dem Bildschirm zu verschieben als mit der Maus. Die virtuelle Bewegung selbst aber wird durch die Software ausgeführt und für die macht es keinen Unterschied, ob die Impulse über einen Touchscreen oder die Maus kommen. Für die meisten Menschen ist ein physisches Feedback wichtig, auch wenn es sich dabei um eine Simulation handelt. Vibrierende Spielecontroller und Smartphone Tastaturen sind beliebt. Ein in der Literatur belegtes Beispiel ist die Steuerung von Verkehrsflugzeugen, bei der Airbus und Boeing unterschiedliche Wege gegangen sind.[55]

Die Vermutung, dass es einen Unterschied zwischen Maus und Touchscreen gibt erhärten Untersuchungen. Das Berühren eines Objekts auf einem Bildschirm ist eine direkte visuelle Metapher für den Akt des Berührens des Inhalts selbst, ähnlich wie beim Berühren eines Objekts in der realen Welt, verglichen mit der indirekten Berührung einer Maus oder eines Trackpads zum Steuern des Bildschirminhalts. Wenn man sich nur vorstellt, ein Objekt zu berühren, wird die Bildverarbeitung im Gehirn aktiviert, was wiederum die mentale Simulation des Verhaltens dieses Objekts anregt. (Schlosser, 2003) Im Wesentlichen erzeugt eine simulierte oder imaginierte Berührung Effekte, die der tatsächlichen Berührung sehr ähnlich sind.

Darüber hinaus erhöht die Interaktivität von Objekten die Lebhaftigkeit von mentalen Produktbildern (Schlosser, 2006) und die Lebendigkeit der Bilder erhöht die Wahrnehmung des Besitzens. (Brasel & Gips, 2015; Elder & Krishna, 2012) Die direkte Berührung von Inhalten auf einem Bildschirm ist ein direktes Analogon zur Interaktion mit Objekten in der realen Welt.

Studien mit Mäusen in einer virtuellen Umwelt legen jedoch nahe, dass nicht die volle Bandbreite der Hirnareale wie bei einer Bewegung in einer realen Umwelt aktiviert wird. Die Interaktion findet in einer Art „Zwischenwelt“ statt. (Aghajan et al., 2014)

Geräte mit Touchscreen werden auch wesentlich direkter mit dem „Extended Self“ eines Benutzers assoziiert (Hein, 2011) und werden viel stärker als Teil des eigenen Ich gesehen als Laptop oder klassischer Computer. Selbst wenn man nicht so weit gehen möchte, Smartphones und Tablets als Erweiterung des menschlichen Körpers zu sehen, so ist dennoch die Beziehung zu diesen Geräten stärker als zu TV-Geräten oder Standcomputern.

Auf diesen empirischen Indizien aufbauend, vertreten Brasel und Gips die Vermutung, dass wir Informationen, die wir auf Smartphones wahrnehmen, eher vertrauen, weil die Informationsquelle näher bei uns sei oder einem Partner, zu dem wir eine stärkere Beziehung haben, gleiche. Weitergehend legen ihre Experimente nahe, dass wir bei der Benutzung von Touchscreens mehr Wert auf emotionale und „greifbare“ Attribute legen als auf abstrakte Attribute wie Preise oder rationale Attribute wie Tests und Bewertungen. Ein noch stärkerer Effekt zeigt sich, wenn das Gerät mit dem Touchscreen direkt in der Hand gehalten wird. (Brasel & Gips, 2014)

Dieser Effekt des Verschwimmens der körperlichen Grenzen hat interessante Aspekte für das Zustandekommen unserer Entscheidungen:

Je näher und direkter wir mit Software interagieren umso stärker verschieben sich unsere Prioritäten hin zu emotionalen Parametern. Ich halte es daher für plausibel, dass sich damit die Bewertung und Gewichtung unserer Gründe verändert.

Smartphones, Tablets, „Wearables“, Smartwatches und google glass sind keine Gegenentwicklung zum Technozentrismus wie sie so oft gepriesen werden. Der Slogan, dass sie menschlicher seien, als die komplizierten Interfaces und die großen Bildschirme der Desktopcomputer geht meiner Meinung nicht auf, sondern am Kern der Digitalisierung vorbei. Diese Geräte ermöglichen es erst, viele unserer Lebensbereiche mit Software zu erschließen. Zusammen mit kostenlosen Apps und immer vernetzt, machen sie es um so viel leichter, Schritt-für-Schritt Navigationsanweisungen und algorithmische Empfehlungen für das nächste Mittagessen zu erhalten. Als Sensoren für unsere Körper erlauben sie es, unseren Aufenthaltsort, unsere Stimmung und Körperzustand in die Cloud zu speichern, um von dort wiederum Anweisungen zu erhalten. Sie sind Schnittstellen im wahren Sinne des Wortes, weil sie tief in unsere Leben eindringen und sie sind die Portale in eine digitale Welt. Ihre Designer sind daher darauf aus, sie möglichst gefällig zu machen. Es geht nicht darum, sie als Produkt zu verkaufen, sondern diese Geräte sind selbst in erster Linie Werbeträger. Auf einer Konferenz in Atlanta bezeichnete sie eine Vortragende als “Lockvögel” (Logg, 2017). Für die Kritiker der Digitalisierung sind sie in erster Linie Manipulationsinstrumente.[56] (Carr, 2017) Dass Smartphones ein „Repository of the self“ (Wegner & Ward, 2013) seien, scheint mir übertrieben. Ihr Einfluss und ihre Bedeutung für uns sind aber unübersehbar, die schiere Präsenz von Smartphones genügt, um uns abzulenken.[57]

Modernes Schnittstellendesign versucht, mit den Erkenntnissen der Verhaltenspsychologie zu arbeiten und dabei die menschlichen Eigenheiten (ich möchte sie bewusst nicht Schwächen nennen, denn in anderen Kontexten bewähren sie sich sehr gut) in Wahrnehmung und Verarbeitung von Informationen aus unserer Umwelt, sowie in der Art und Weise wie wir Entscheidungen treffen bewusst miteinzubeziehen. Das vordergründige Ziel ist es, die Benutzung zu erleichtern und uns Informationen mit möglichst geringer kognitiver Last aufzubereiten. Sogenannte Infografiken oder Cockpit-Diagramme lassen uns Sachverhalte auf einen Blick erfassen und blitzschnell Entscheidungen treffen. Design wird aber auch eingesetzt, um unsere Aufmerksamkeit zu binden, uns zu Entscheidungen zu animieren, die wir vielleicht bei reiflicher Überlegung nicht getan hätten oder uns „anzustupsen“[58], ein besseres Leben zu führen. Spätestens dann haben wir es mit Paternalismus zu tun. Die bekanntesten Designprinzipien sind „Ease“, „Habit Forming“ und „Digital Nudging“.

Ease and convenience

"Those who embrace ease may not be able to move past it" Dilger Bradley (Dilger, 2000) Bradley Dilger vergleicht das Konzept von „ease“ mit einer Ideologie und einem sich selbst genügenden Konzept, das für sich selbst ein Ziel sei. Da Konsumenten sich stärker auf einfach zu bedienende Objekte und Praktiken verlassen, wird die Bequemlichkeit immer wichtiger.[59] „Ease of use“, of auch „convenience“ genannt, spiele auch im Wettbewerb um die Aufmerksamkeit des digitalen Menschen eine Rolle - nur was noch etwas leichter zu bedienen ist als die Konkurrenz wird genutzt. „Ease“ würde aber immer erkauft:

“Ease is never free: its gain is matched by a loss in choice, security, privacy, health, or a combination thereof. This is well represented in deployment of a large quantity of Internet software”. (Dilger, 2000: 4)

In der Theorie können sich die Benutzer wieder mehr auf ihre eigentlichen Aufgaben konzentrieren und nicht auf die Bedienung eines Gerätes. Hintergrund ist ein mentaler Prozess, der „cognitive offloading“ genannt wird, also die Auslagerung von Denkprozessen oder Gedächtnisleistungen, um uns auf andere Dinge konzentrieren zu können. Aufbauend auf der Annahme, dass wir nur begrenzte Aufmerksamkeit und damit nur eine begrenzte Kapazität für bewusstes Denken haben, sollen wir entlastet werden. Für Erinnerungen an Jahrestage und Geburtstage sind wir alle dankbar, dass wir uns nicht mehr selbst daran erinnern müssen. Der Preis dafür, dass wir manches nicht mehr in unserem eigenen Bewusstsein verarbeiten, scheint es aber zu sein, dass es auch keine Spuren in unserem Gedächtnis hinterlässt und daher auch für zukünftige Operationen nicht zur Verfügung steht. (Heersmink, 2016) In kontrollierten Experimenten scheint einiges darauf hinzudeuten, dass wenn wir glauben, eine Information stünde uns immer zur Verfügung, wir sie weniger wahrscheinlich und gut merken, als wenn wir davon ausgehen, dass wir sie uns merken müssen, weil sie sonst verloren wäre. (B. Sparrow, Liu, & Wegner, 2011)

Das Auslagern von Informationen ist per se kein kritischer Vorgang, wenn wir voraussetzen, dass die ausgelagerte Information auch weiterhin verfügbar bleibt. Wir scheinen beim Verwenden von ausgelagerter Information auch nicht zu unterscheiden, ob es sich um gemerkte oder abgerufene Information handelt. In Experimenten zeigten sich viele Probanden davon überzeugt, dass sie die Information selbst „gewusst“ hätten, hielten sich als selbst für kognitiv leistungsfähiger als sie es tatsächlich waren. Wenn wir aber nicht unterscheiden können, zwischen Informationen, die wir uns selbst erarbeitet haben und denen, die wir einfach über Software abgerufen haben, dann stellt sich die Frage nach unserer Beeinflussbarkeit und unserer Urteilsfähigkeit. Das eigene Wissen ist immer in einem Kontext gespeichert und mit unserem Erleben verknüpft. Und es weist vieles darauf hin, dass wir zum Denken unser eigenes Wissen benötigen. Natürlich recherchieren wir, fragen oder lesen nach, doch „the art of remembering is the art of thinking“ (James, 1899, Chapter 12: Memory), wie der amerikanische Psychologe und Philosoph William James 1892 bereits sagte.

Nur aus dem, was wir bereits in unserem Denken zur Verfügung haben, können wir abwägen und Neues denken. Reine Daten sind Gedächtnis ohne Geschichte. Van Nimwegen liefert in seiner Dissertation „The paradox of the guided user“ Indizien dafür, indem er zwei Gruppen die gleichen Aufgaben erledigen lässt, einmal mit einer sehr benutzerfreundlichen, „mitdenkenden“ Softwareoberfläche mit möglichst hohem kognitiven Offloading und einmal mit sehr rudimentären, komplizierten Bedienerschnittstellen. Die Ergebnisse scheinen auf den ersten Blick kontraintuitiv und gehen gegen den Trend, der möglichst einfache Interfaces postuliert und möglichst hohes kognitives Offloading. Tatsächlich lösten die Gruppen, die mit den komplizierten Oberflächen arbeiten mussten, die Aufgaben besser, waren weniger abgelenkt und konnten die gewonnenen Fähigkeiten leichter auf neue Aufgaben anwenden. (van Nimwegen, 2008)

Wenig überraschend scheint die Annahme, dass die Qualität unserer Urteilskraft und unseres Denkvermögens von ihrer Anwendung profitiert und sich durch Schonung nicht verbessert.

Wenn wir unsere Fähigkeit zu rationalem Denken und Erinnerung an Software übergeben, dann opfern wir unsere Fähigkeit Information zu Wissen zu verarbeiten und einen Teil der epistemischen Basis für unsere autonomen Entscheidungen.

Digital Nudging

„Es ist nicht die Aufgabe des Konsumenten, zu wissen, was er will." Steve Jobs Der Mensch könne nicht optimal entscheiden - sei es durch kognitive Verzerrungen, die Teil der Conditio Humana seien, seine Biographie, seine Umwelt oder seine genetische Veranlagung. Daher müsse man ihm zu seinem Glück oft auch helfen. Das ist ein Grundgedanke des Paternalismus.

Nudging[60] als scheinbar sanfteste Form wählt nicht den Weg des Überzeugens oder der direkten Regelung durch Vorschriften oder Verbote, sondern nutzt eben diese psychologischen Unzulänglichkeiten, um ein bestimmtes Verhalten zu erreichen.

Die Libertären Paternalisten, wie sie sich selbst nennen, erkennen unser Spektrum kognitiver Fehler an und empfehlen, das Verhalten der Menschen nicht nur durch rationale Argumentation zu beeinflussen, da dies zu oft ineffektiv sei, sondern durch das Nutzen der eigenen Vorurteile (Biases), um sie zu vorteilhaften Entscheidungen zu bewegen. (Thaler & Sunnstein, 2009) Sie argumentieren, dass sie keine Optionen beseitigen würden, die Menschen also immer noch die Freiheit, schlecht zu wählen, hätten. Ergo respektierten sie die Autonomie der Menschen. Gleichzeitig entscheiden diese sich aufgrund der in die Auswahlsituationen eingeführten Nudges eher für das vorteilhafte Ergebnis. (Sunnstein, 2015) Die Gestaltung der Umwelt und der Entscheidungssituationen mit all den präsentierten Optionen und deren Darstellung gewinnt an Bedeutung und ist die Aufgabe von sogenannten „Choice-Architects“. Sunnstein geht eindeutig nicht so weit wie Sarah Conly, die offen für einen „Coercive Paternalism“ im Sinne von Zwangsmaßnahmen eintritt. (Conly, 2013)

Sie kritisiert das Nudging als relativ nutzlos und als den schlechtesten möglichen Kompromiss aus Zwang und Freiheit:

“I argue that insofar as libertarian paternalism is manipulative, it fails to capture the intuition that we should respect people’s capacity to make rational choices; at the same time, it fails to give us the results that we want, because people can still have the options to pursue bad courses of action – they can still smoke, or run up intractable debt, or fail to save any money. It gives us, in a sense, the worst of both worlds.” (Conly, 2013: 8)

Schon bevor der Begriff des Nudgings überhaupt geprägt wurde, fanden sich viele der Beeinflussungswerkzeuge in Marketing und Sales in Gebrauch. Tatsächlich haben Sunstein/Thaler die Methoden des Nugding nicht erfunden, sondern großteils aus der Privatwirtschaft entlehnt und vorgeschlagen, sie auch im öffentlichen Kontext anzuwenden.

Die psychologischen Grundlagen für die Arbeit von „Choice archtitects“ (Thaler & Sunnstein, 2009) liegen im Konzept der „bounded rationality“ (Simon, 1959). Heuristik und Vorurteile[61] beeinflussen unsere Entscheidungen. (Kahnemann, 2011) Auch Faustregeln spielen eine große Rolle, wenn wir entscheiden. (Gigerenzer, 2007)

Diese Mechanismen haben sich durchaus bewährt und sie vereinfachen uns das Entscheiden in vielen Situationen und erlauben uns, uns auf die wichtigsten Fakten zu konzentrieren und schneller entscheiden zu können. (Evans, 2006) Manchmal aber sind sie auch Quelle von systematischen Fehlern und Verzerrungen.[62] (Kahnemann, 2011)

Thaler selbst beschreibt sechs Mechanismen:

Des erste, „Incentive“ oder Anreiz ist einfach - hier geht es darum, den Benutzer zu belohnen für eine Entscheidung die er trifft. „Understanding/Mapping“ bedeutet die Aufbereitung von Information in einer Art und Weise, dass der Nutzer sie leicht in seine Erfahrungswelt einordnen kann. Infografiken können in diesem Sinn als Nudges verwendet werden, wenn sie bewusst eingesetzt werden. Ein Preis kann als niedrig oder hoch empfunden werden, je nachdem womit ein Vergleich stattfindet.[63]

„Defaults“, der dritte Mechanismus wurde bereits erwähnt im Beispiel der Organspende. Rote oder grüne Ampeln, Smileys und ähnliche Symbole, die im Verlauf der Interaktion dem Nutzer gezeigt werden als Ausdruck von erwartetem oder nicht erwartetem Verhalten sind Anwendungen von „Giving Feedback“. Der fünfte Mechanismus, Toleranz und die Erwartung von „Fehlern“ („Expecting Error“) in der Interaktion und deren Vermeidung durch Prozessdesign helfen, den Benutzer im Entscheidungsprozess zu halten und negative Erfahrungen zu verhindern. „Komplexe Prozesse zu strukturieren“ („structure complex choices“) scheint prima facie eine plausible pädagogische Formel, der viele ungeprüft zustimmen würden, die Frage, die sich in der Anwendung stellt, ist, welche Nuancen der Auswahl einer Vereinfachung zum Opfer fallen und ob die Vereinfachung bestimmte Optionen bevorzugt.

Das behavioristische Konzept mit libertären Zügen fügt sich gut in das deterministisch und kausalistisch geprägte Milieu der Softwareentwicklung, in dem der Mensch und sein Verhalten algorithmisch berechenbare Punkte für die Mensch-Maschine-Interaktion sind. Dadurch, dass das menschliche Verhalten konzeptuell zu einem maschinellen Verhalten wird, lässt sich die Interaktion wesentlich leichter modellieren.

Digital Nudging definieren Weinmann et al. als „the use of user interface design elements to guide people’s choices or influence users’ inputs in online decision environments“ (Weinmann, Schneider, & vom Brocke, 2015).

Standardmäßig aktivierte Optionen für Trinkgeld in Restaurantapps (Square) haben das Trinkgeld erhöht (Carr, 2015), Opt-out Mechanismen für Newsletter sind lästig und gleichzeitig sehr wirkungsvoll. Die Buchungsseiten von Billigfluglinien sind mittlerweile so berüchtigt, dass sie teilweise aus Verbraucherschutzgründen reguliert werden mussten. Sie sind nicht nur voll von Standardoptionen für Zusatzleistungen, sondern sie erhöhen die kognitive Belastung bewusst, um ein Erkennen der wahren Preisgestaltung möglichst zu erschweren.[64]

Auf mobilen Geräten funktionieren Nudges noch viel besser. Da die Bedienung intuitiver und mit dem Finger oder Sprache stattfindet, ist die emotionale Distanz geringer als auf einem klassischen PC, wie ich weiter oben erwähnt habe.

Erfahrungen legen nahe, dass digitale Nudges anders wahrgenommen werden als analoge und auch in anderem Umfang funktionieren: Menschen tendieren dazu, anders auf digitale Nudges zu reagieren als auf Offline-Nudges.[65] Während die Gründe für solche Verhaltensunterschiede noch nicht vollständig verstanden sind, konzentrieren sich potenzielle Erklärungen auf das Misstrauen der Webnutzer, das durch übermäßige Nudgingversuche mancher Websites geweckt wurde. Die Lernfähigkeit und die Urteilsfähigkeit des Menschen werden von den Verhaltenspsychologen und den Interface-Designern vielleicht stark unterschätzt.

Überdies seien die Grundlagen des Nudgings bei weitem nicht so sicher wie es häufig betont wird. Es werde ein Bild vermittelt von eindeutigen psychologischen Mechanismen, man solle aber bedenken, dass 60Prozent der wissenschaftlichen Resultate aus der Psychologie nicht reproduzierbar seien, warnt Dirk Helbing. (Helbing, 2015)

Daher fordert er mehr wissenschaftliche Fundierung, Transparenz, ethische Bewertung und demokratische Kontrolle bei Big Nudging. Die Maßnahmen müssten statistisch signifikante Verbesserungen bringen, die Nebenwirkungen müssten vertretbar sein, die Nutzer müssten über sie aufgeklärt werden (wie bei einem medizinischen Beipackzettel), und die Betroffenen müssten das letzte Wort haben. (Helbing, 2015)

Habit Forming

Alexa! Druck meine Masterarbeit aus... Eine weitere Zielsetzung zeitgenössischer Software-Schnittstellen ist das sogenannte „Habit Forming“, also die nachhaltige Beeinflussung des Verhaltens eines Benutzers. (Eyal, 2014) Motivation kann der Wunsch eines Nutzers sein, der mithilfe einer Software sein Verhalten ändern möchte, zum Beispiel Gewicht verlieren, gesünder leben, mehr Wasser trinken oder mit dem Rauchen aufhören.[66]

In vielen Fällen steckt die Absicht dahinter, die Aufmerksamkeit des Benutzers möglichst lange zu fesseln, vor allem bei Social Media, Medienstreaming und Spielen. Noch tiefer wollen die Sprachassistentinnen wie Alexa, Cortana oder Siri gehen - für deren Designer ist es das erklärte Ziel, dass sie nicht nur zum unverzichtbaren Bestandteil des Lebens werden, sondern auch die Entscheidungen - vor allem die Kaufentscheidungen - mitprägen und zur Gewohnheit werden zu lassen. „Alexa, bestelle Katzenfutter!“ ist die beinahe lächerlich klingende Einstiegsvariante. „Alexa, was gibt es Neues?“ schon eine Aufgabenstellung, deren Beantwortung komplexere Fragen aufwirft nach der Auswahl und Aufbereitung der Nachrichten.

Um das Interesse eines Benutzers für ein Produkt oder Serviceüberhaupt zu wecken, sei es primär erforderlich sogenannte „Hooks“[67], also (Angel-)Haken zu generieren: „experiences designed to connect the user’s problem with the company’s product with enough frequency to form a habit“ (Eyal, 2014) wie Nir Eyal es erklärt. Designer in der ganzen Welt folgen dem von Nir Eyal propagierten Vier-Stufen Modell:

Zuerst wird ein „Trigger“ benötigt, der uns zu einer Aktion animiert.[68] Der nächste Schritt ist die „Action Phase“ - damit ist die einfachste Handlung gemeint, die in der Erwartung der Lösung der vorhandenen Spannung möglich ist. Je simpler und einfacher, umso besser und umso weniger „kognitive Interferenz“. Das ist auch das Erfolgsgeheimnis von Sprachassistentinnen[69]: einfacher als „Alexa“ zu fragen, wäre es nur mehr, an den nächsten Schritt zu denken.[70]

Nach der Aktion des Benutzers muss jetzt die Belohnung folgen: Der Interne Trigger, das unangenehme Gefühl das überhaupt erst zur Aktion geführt hat, muss aufgelöst werden. Und sei es nur durch die ruhige Bestätigung von Alexa, dass das Licht abgedreht wird. Damit es aber mehr als ein normaler „Feedback Loop“ wird, sollte etwas Besonderes präsentiert werden, das nicht erwartet wird, oder nicht in der Form erwartet wird - eine variable Belohnung ganz wie in einer „Skinner Box“ (Skinner, 2014).[71]

In der letzten Phase, „Investment“ genannt, wird der Nutzer aufgefordert, selbst etwas zu geben - meistens, dass was der Designer wirklich will. Der Nutzer wird häufig aufgefordert, Daten einzugeben, etwas zu liken oder ein Foto hochzuladen. Solange das Gehirn noch in Dopamin schwimme, müsse der Preis bezahlt werden.[72] (Austin, 2017)

Die geschilderten Methoden sind Kern des „persuasive computing“, einer Entwicklung die von der Programmierung von Computern zur Programmierung von Menschen verlaufe. (Helbing et al., 2015)

Die bisher aufgeführten Techniken weisen viele Gemeinsamkeiten auf. Eine gemeinsame Grundintention ist es, die Affekte und Emotionen des Menschen anzusprechen und die Entscheidungen eher auf eine prä-deliberative Ebene zu verschieben. Im Idealfall des Softwaredesigners wägt der Mensch gar nicht ab, sondern folgt den Impulsen, die die Software und die jeweilige Schnittstelle setzen. Anstatt Gründe abzuwägen, Entscheidungen zu treffen und danach zu handeln wie Julian Nida-Rümelin es beschreibt (Nida-Rümelin, 2005, 2011), verhalten wir uns tendenziell im Modus des automatischen Systems im Modell von Daniel Kahnemann und Amos Tversky. (Kahnemann, 2011)

Diese Modi sind keine Gegensätze, wir benutzen beide in unserer Lebenspraxis. Ob Entscheidungen unter „Nudging“-Einfluß aber als intuitives Entscheiden im Sinne von Kahnemann und Gigerenzer, also aufgrund unserer Erfahrungen und unserer internen Heuristiken bezeichnet werden kann, halte ich für unwahrscheinlich. Zwar erhalten wir - wenn der Schnittstellendesigner gut gearbeitet hat, jedes Mal eine „Belohnung“, wenn wir uns im Sinne des Designers verhalten haben und wir stärken damit unsere eigenen Heuristiken, dass wir richtig entscheiden, wenn wir der Empfehlung folgen, wir entkoppeln aber tendenziell die wahre Auswirkung der Entscheidung vom Akt der Entscheidung in uns selbst.

Noch einen Schritt weiter gehen die Techniken des „Affective Computing.“ So nennt sich die Sparte, die sich mit der Entwicklung von Systemen beschäftigt, die menschliche Affekte erkennen, interpretieren, verarbeiten und simulieren soll. Von „affective Design“ spricht man, wenn es um die Schnittstellen zwischen Mensch und solchen affective computing Systemen handelt. Diese Schnittstellen sollen einerseits die menschlichen Emotionen korrekt messen und umgekehrt auch die gewollten Emotionen beim Menschen auslösen.

Unabhängig von der Kritik, dass hier Affekte und Emotionen als eine objektive, messbare Größe und nicht als das subjektive Erleben einer Person gesehen werden, macht das Feld große Fortschritte. Gemessen werden physiologische Werte wie Blutdruck, Herzschlag, Hautleitwert, und Ähnliches, je nach Verfügbarkeit.[73] Die Emotionserkennung aus Sprachmustern ist weit fortgeschritten und gehört mittlerweile bereits zum Standard in vielen Call Centers.[74]

Auch aus Keyboard Tipp Mustern können immer zuverlässiger Emotionen abgeleitet werden.[75] Bei der Emotionserkennung über Gesichter kommt meistens das aus vielen Kriminalserien bekannte „Facial Action Coding System“ als Grundlage für die maschinelle Erkennung zum Einsatz.

Auf Flughäfen, im Servicebereich, aber auch für die Personalauswahl wird solche Software eingesetzt. Das Hauptanwendungsgebiet derzeit aber ist die Spieleindustrie.

Gamification

"The thought process that went into building these applications, Facebook being the first of them, ... was all about: 'How do we consume as much of your time and conscious attention as possible?” Sean Parker, Ex-President von Facebook (Parker, 2017b) Die Zusammenarbeit von Verhaltenspsychologie und Softwareentwicklung ist im Spiele- und Wettbereich besonders weit gediehen und wird aufgrund der aktiven Ausnutzung eines bestimmten Suchtpotenziales auch sehr kritisch gesehen. (Christl & Spiekermann, 2016: 20)

Die in der Spielebranche gesammelten Erfahrungen und mit viel Aufwand entwickelten Techniken lassen sich leicht auf andere Anwendungsgebiete transferieren. Diese Anwendung von Elementen aus der Spielewelt in Spiel-fremden Kontexten, um das Nutzerverhalten zu beeinflussen wird „Gamification“ genannt. (Deterding, Rilla, Nacke, & Dixon, 2011; Whitson, 2013)

Ziel ist eine Motivationssteigerung der Benutzer, mit den Anwendungen verstärkt zu interagieren und erwünschtes Verhalten zu zeigen. Gamifizierung hilft, Inhalte und Prozesse für die Benutzer ansprechender zu machen und diese länger an eine Anwendung zu binden, indem sie klare Wege zur Beherrschung der Anwendung suggerieren und den subjektiven Eindruck von Benutzer-Selbstständigkeit und Entscheidungsfreiheit verstärken. Gamifizierte Anwendungen nutzen das Interesse von Menschen, sich an Spielen zu beteiligen und auf diese Weise Tätigkeiten zu verrichten, die normalerweise als langweilig betrachtet werden, wie etwa Steuererklärungen, Kostenberichte oder Umfragen zu beantworten, einzukaufen und vieles mehr. (Deterding et al., 2011; Wikipedia, 2017a)

War Gamification lange Zeit auf Marketing und Personalentwicklung beschränkt, so werden mittlerweile Designelemente aus Spielen auf viele Bereiche übertragen. So wie beim Design Thinking und bei anderen Innovationsmethoden werden bewusst „fremde“ bzw. „neue“ Elemente eingeführt, um Ideen zu generieren und die Beteiligten emotional stärker einzubinden und zu motivieren. Kaum eine Software Anwendung im Konsumentenbereich kommt ohne Gamification-Elemente aus.

Das Potential der Beeinflussung menschlichen Verhaltens durch spielerische Elemente ist sehr hoch, weil sie sehr stark auf Überraschung, Neugier und Wettbewerb setzen - allesamt stark emotional besetzte Faktoren. Um auch hier besser zu verstehen, welche Mechanismen zur Anwendung kommen, möchte ich wieder einige Beispiele geben[76]:

4. Feedback

Diese Mechanismen belohnen Benutzer für ihre Leistung, meistens durch Punkte (oder Äquivalente, die gesammelt werden können), Ebenen (als Zeichen der verbesserten Beherrschung von gewünschtem Verhalten), Abzeichen (ein gut sichtbarer, sozialer Aspekt der Gamifizierung ist es Benutzer für bestimmte Verhaltensweisen zu belohnen und eine Status-Steigerung zu simulieren), Boni (Extra-Belohnungen für die Fertigstellung einer Reihe von Aktionen, die eine ähnliche Funktion wie bei der Arbeit gewährte Prämien erfüllen) und Benachrichtigungen (um Benutzer über Änderungen ihres Status zu informieren, einschließlich der verdienten Punkte, Abzeichen und Boni).

5. Indikatormechanismen

Diese Mechanismen definieren eine relative Position des Benutzers in der Zeit oder in Relation zu anderen Benutzern, zum Beispiel Countdowns (geben Benutzern ein Gefühl der Dringlichkeit, um die Aktivität zu erhöhen oder um eine Aktion eines Benutzers auszulösen, der dies ursprünglich gar nicht wollte), Fortschrittsindikatoren helfen den Benutzern zu verstehen, wo sie sich im Verlauf eines Prozesses befinden und was noch auf sie zukommt.

6. Rankings

Bestenlisten (Liste der Top-Performer in bestimmten Bereichen) zeigen den Benutzern ihre Position relativ zu denen, die ihnen am nächsten liegen oder beliebigen anderen Gruppen. Alle diese Mechanismen sind bewährt aus dem physischen Leben und in der sozialen Praxis erprobt. Eine Hauptkritik an Gamification bezieht sich auf die Datensammel- und Analysepraxis. Jennifer Whitson sieht darin „eine neue treibende Logik in der technologischen Expansion und der öffentlichen Akzeptanz von Überwachung" (Whitson, 2013).

Mein Unbehagen bezieht sich auf einen vermuteten Effekt der Emotionalisierung von Entscheidungen. Mit spielerischen Elementen Motivation zu fördern und zum Lernen zu animieren kann eine pädagogisch wertvolle Maßnahme sein, den weitverbreiteten Einsatz für eine Emotionalisierung alltäglicher Prozesse unserer Lebenswelt halte ich für stark übertrieben und diskussionswürdig.

Ein Grund, warum Softwaredesign immer mehr auf Emotionen setzt, liegt auch darin, dass menschliche Entscheidungen prinzipiell offen sind und wir gerade dann, wenn wir Gründe für unsere Entscheidungen abwägen, oft für andere nicht erwartbare Entscheidungen treffen. Die Wahrscheinlichkeit mit einfachen Reiz-Reaktions-Ketten ein Verhalten zu induzieren ist größer als jemanden zu überzeugen. Das zeigen auch Arbeiten zum Umgang von Menschen mit algorithmischer Entscheidungsfindung. Ob Menschen Algorithmen vertrauen, hängt weniger von der Güte des Algorithmus oder dessen Ergebnis zusammen, als vom Kontext. (Logg, 2017; Yeomans, Shah, Mullainathan, & Kleinberg, 2017)

Es gibt kein klares Bild, ob und wann Menschen Algorithmen vertrauen. Einerseits weisen Studien darauf hin, dass wir einer Softwaresimulation eines Arztes ehrlicher gegenüber sind, andererseits dass Patienten eine persönliche Diagnose gegenüber einer computererstellten präferierten. (Promberger & Baron, 2006) Andere Experimente wieder scheinen zu belegen, dass Menschen den Empfehlungen von Entscheidungssystemen skeptisch gegenüberstehen, mit teils fatalen Folgen[77] (Bazerman, 1985; Dawes, 1979). Geht es um persönlichen Geschmack, scheinen wir unseren Freunden mehr zu vertrauen, als einer Softwareempfehlung. (Yeomans et al., 2017) Andererseits scheinen Menschen sich sehr wohl mehr auf Software zu verlassen, wenn es um logische Probleme geht. Auch benutzen sie Suchmaschinen für Wissen, über das sie eigentlich schon selbst verfügen.

Wir neigen generell dazu, unsere eigenen Einschätzungen über die von anderen zu stellen und vor allem, den Rat von anderen in die eigene Einschätzung miteinzubauen. (Logg, 2017) Bei Experimenten zur Mensch-Software-Interaktion wird manachmal übersimplifiziert und grundlegende Fehlannahmen getroffen, so zum Beispiel die Verwechslung von Selbsteinschätzung mit menschlicher Einschätzung.[78] Wenn das Selbst betroffen ist, scheinen Menschen ablehnender zu reagieren. Unsere eigenen Entscheidungen schätzen wir hoch ein, wie Arbeiten aus dem Bereich der „overconfidence“ zeigen, das Phänomen heißt „overprecision“.

Das umgekehrte Phänomen liegt vor, wenn wir lieber google maps fragen als einen Fremden, vor dem wir unsere Unwissenheit zugeben müssten.[79] (Logg, 2017)

Dies zeigt umso mehr, dass viele Faktoren in unsere Beurteilungen einfließen, die wir als Grundlage für unsere Einstellungen und Entscheidungen heranziehen.

Diskussion

Bewusstsein und Freier Wille

“The real problem is not whether machines think but whether men do.”

B.F. Skinner Um überhaupt diskutieren zu können, ob Software unseren Freien Willen und unsere Autonomie gefährdet, muss dieser vorausgesetzt werden. Um autonom zu sein, muss man die Fähigkeit haben, überhaupt eigene Entscheidungen zu treffen. Dies beinhaltet die Fähigkeit Schlüsse ziehen zu können und diese in die Tat umzusetzen.

Wie in der Einleitung erwähnt, gehe ich in meiner Analyse von einer naturalistischen Unterbestimmung aus. (Nida-Rümelin, 2005) Der Mensch kann den Gesetzen der Natur unterworfen sein und dennoch der Urheber und Autor seiner Handlungen sein.

Die Frage der Willensfreiheit, die die Philosophie, die Psychologie und auch die Neurowissenschaften beschäftigt, ist auch nach über zweitausend Jahren dokumentierter Anstrengung noch nicht beantwortet. Gerade durch die Dominanz der Computerwissenschaften und der Neuropyhsiologie hat die Debatte in den letzten Jahrzehnten eine neue Intensität gewonnen.

Die Naturwissenschaften operieren auf einer weitgehend kausalistischen Grundlage, die Vorstellung, dass Ereignisse nicht durch vorausgehende, determinierende Faktoren oder Ereignisse bestimmt werden könnten und ebenso nicht rein zufällig seien, ist nicht kompatibel mit dem vorherrschenden Wissenschaftsverständnis. Auch wenn dieses Wissenschaftsparadigma mittlerweile das streng kausale Element nicht mehr enthält, so macht dies die Idee eines menschlichen Willens, der sich nicht eindeutig auf messbare Vorgänge im Gehirn zurückführen lässt, nicht kompatibler. V

or allem auch deswegen nicht, weil auch die Fragen nach Existenz, Art, Substanz, Funktion und Sitz des Bewusstseins umstritten sind. Die Debatte ist mit der Diskussion über das Wesen von Software verbunden über die „Theory of Mind[80], die Theorie des Fremdpsychischen, wie sie zum Beispiel von Daniel Dennett verstanden wird. Er argumentiert, dass sich das Bewusstsein durch die Neuro- und Kognitionswissenschaften in Zukunft restlos erklären ließe. (Dennett, 2017) Jeder Bewusstseinsprozess sei an einen neurologischen Prozess gekoppelt.

Die Informatik bezieht ihrerseits einige ihrer Annahmen aus der Computational Theory of mind und umgekehrt basiert diese auf den Arbeiten von Informatikern, Kybernetikern und Mathematikern. Die weitverbreiteten Vorstellungen, dass unser Denken so strukturiert sei (oder sein müsste) wie das ideale Betriebssystem eines idealen Computers, beeinflusst in starkem Maße unser Denken über uns selbst und die Maschinen, die uns umgeben.

Dass der Ansatz, Computer und Software analog zu der vermuteten Arbeitsweise unseres Gehirnes zu entwickeln spektakuläre Erfolge hervorgebracht hat, lässt immer mehr in diese Richtung denken und forschen. Die Theorie der „computational theory of mind“ ist weiter gefasst als die bloße Metapher des Gehirnes als Computer, sie beschreibt auch mentale Zustände als „computational“, also berechnet. Das Gehirn würde ähnliche Mechanismen wie ein Computer benutzen, wobei Computer hier nicht als eine pyhsische Maschine zu betrachten ist, sondern als ein Konzept der Turing Maschine. (Dennett, 2013)

Diese Idee ist unter Informatikern und Softwareprogrammieren sehr verbreitet[81], auf ihr und dem Funktionalismus beruht im wesentlich auch die Idee, dass es sich bei hochentwickelten neuronalen Netzen um künstliche Intelligenzen im Sinne menschlicher Intelligenz handle.[82]

Die vorherrschende Analogie in der Betrachtung von Mensch und Computer lässt die Grenzen zusehends verschwimmen – wir schreiben Maschinen und Software Agentivität und Identität zu während wir im gleichen Schritt uns selbst als biologische Computer mit einer den Maschinen ähnlichen Funktionsweise betrachten. Autoren wie Marvin Minsky, Ray Kurzweil oder auch Nick Bostrom gehen soweit, dass sie überzeugt sind, ein menschlicher Geist könne auch unabhängig vom Körper als Softwarecode auf einer Computerplattform existieren[83] oder Software ein menschenähnliches oder emergentes Bewusstsein entwickeln. (Bostrom, 2003; Kurzweil, 2012)[84]

Das Bewusstsein ist für Neurowissenschaftler wie Gerhard Roth (Roth, 2003) und Wolf Singer (Nida-Rümelin & Singer, 2011) aber auch für Philosophen wie Thomas Metzinger nur eine nützliche Konstruktion des Gehirns. (Metzinger, 2004)

Sir Roger Penrose, seines Zeichens Physiker, kritisiert die Erwartung einer künstlichen Intelligenz auf Softwarebasis, auch er vermutet die physikalische Heimat des Bewusstseins im Gehirn und schlägt ein Modell für das Zusammenspiel von Gehirn und Bewusstsein vor, das auf quantenmechanischen Effekten beruht. (Penrose, 2009) In einem Vortrag vor Google-Ingenieuren verwies auch John Searle, bekannt für seine Kritik an den semantischen Fähigkeiten Künstlicher Intelligenz mit seinem berühmten „Chinese Room“-Argument, auf eine mögliche quantenmechanische Erklärung für den Freien Willen. (Searle, 2007)

Determinismus sei nicht universal, es sei ein Trugschluss, dass nur weil etwas auf einem Maßstab so funktioniere, es automatisch auf einem anderen auch so sein müsse. In der Physik sei das nichts Außergewöhnliches. Quantenmechanik sei die einzige Form des Indeterminismus die wir in der Wissenschaft kennen, sie nehme den Zufall aus der Epistemologie und bringe ihn in die Ontologie - das Universum bestehe auch aus Zufall. Aber auch für ihn ist Freier Wille nur mit Bewusstsein möglich. (Searle, 2007)

Für Thomas Metzinger ist der allergrößte Teil unseres Denkens ein subpersonaler Vorgang und nicht von attentionaler oder kognitiver Agentivität geprägt.

In seinen Ursprüngen sei das Ego ein neurokomputationales Instrument, um sich den Körper anzueignen und ihn zu kontrollieren – und zwar zuerst den physischen und dann den virtuellen. Es erzeuge nicht nur eine innere Benutzerschnittstelle, die es dem Organismus erlaube, sein Verhalten genauer zu kontrollieren und anzupassen, sondern es sei auch eine notwendige Bedingung für soziale Interaktion und kulturelle Evolution. (Metzinger, 2014: 136)

Die meisten Ereignisse in der physikalischen Welt sind für ihn nur Ereignisse, aber eine extrem kleine Teilmenge davon sind darüber hinaus auch noch Handlungen, also Ereignisse, die durch eine explizite Zielrepräsentation im bewussten Geist eines rationalen Agenten verursacht werden (Metzinger, 2014: 134)

Wenn Wolf Singer im Interview sagt: „eine Person tat was sie tat, weil sie im fraglichen Augenblick nicht anders konnte, sonst hätte sie anders gehandelt“ (Nida-Rümelin & Singer, 2006), dann meint er ganz ausdrücklich, dass der vorausgehende Zustand des Gehirns die Handlung kausal verursacht habe.

Diese Idee einer vollständigen Determiniertheit ist mit unserer lebensweltlichen Praxis nicht vereinbar und geht entgegen unserer Erfahrung und Intuitionen. Sich vorzustellen, diese Masterarbeit müsse genauso geschrieben werden wie es jetzt passiert, ohne dass ich tatsächlich einen Einfluss darauf hätte und die Entscheidungen, die ich dabei treffe, seien bloße Konstruktionen und Rechtfertigungen ex post meines Gehirnes scheint mir absurd.

In jedem Fall aber erleben wir uns selbst als handelnde Subjekte in einer begreifbaren, realen Umwelt. Denn bei aller Divergenz herrscht Einigkeit, dass Willensfreiheit nicht nur ein Thema in der Philosophie, im Gehirn oder in unserem Geist ist – sie ist auch eine soziale Institution. Die Annahme, dass es so etwas wie freies Wollen und Handeln gibt, und die Tatsache, dass wir uns gegenseitig als autonome Agenten behandeln, spiegeln sich begrifflich in den Grundlagen unseres Rechtssystems und in den Regeln, die unsere Gesellschaften beherrschen – Regeln, die auf der Vorstellung von Verantwortung, Zurechenbarkeit und Schuld beruhen.

Julian Nida-Rümelin bezieht klar Position gegen einen Determinismus. Für ihn bleibt er wie auch der naturalistische Probabilismus eine akademische Position, weil sie nicht in unsere lebensweltliche Praxis (Nida-Rümelin, 2005: 41) und die sie tragenden Überzeugungen integrierbar seien.

„Unsere interpersonalen Beziehungen (…) setzen voraus, dass Menschen für ihr Handeln verantwortlich sind, dass sie keine bloßen Objekte kausaler Beeinflussung allein - weder solche der Physik, der Biologie oder Neurophysiologie noch solche der Psychologie sind.“ (Nida-Rümelin, 2005: 27)

Sollten wir eines Tages gezwungen sein, eine vollständig andere Geschichte darüber zu erzählen, was der menschliche Wille ist oder was er nicht ist, so könnte dies unsere Gesellschaften in einer noch nie dagewesenen Weise beeinflussen. Wenn beispielsweise Zurechenbarkeit und Verantwortlichkeit nicht wirklich existieren, dann ist es sinnlos, Menschen für etwas zu bestrafen, das sie letztlich gar nicht unterlassen konnten. Vergeltung und Genugtuung würden dann endgültig als steinzeitliche Begriffe erscheinen, als etwas, was wir von den Tieren geerbt haben. Human wären dann nur noch Rehabilitationsmaßnahmen. (Metzinger, 2014)

Entscheidungen

"Subjektive Gewissheit bezüglich eigener zukünftiger Entscheidungen ist begrifflich ausgeschlossen. Das Ergebnis der Abwägung muss offen sein, damit überhaupt eine Entscheidung getroffen werden kann. Diese Feststellung ist logisch wahr." Julian Nida-Rümelin (Nida-Rümelin, 2005: 51)

Wir müssen also davon ausgehen, dass wir grundsätzlich frei sind und diese Freiheit als eine Bedingung für unsere Entscheidungen und Handlungen annehmen.

Für Julian Nida-Rümelin sind 3 Dinge wesentlich für Entscheidungen:

1. Eine Entscheidung markiert den Abschluss einer Abwägung
2. Bevor die Entscheidung getroffen ist, steht noch nicht fest, wie diese ausfällt, sie ist nicht determiniert, also „frei“
3. Eine getroffene Entscheidung realisiert sich in Handlungen (Nida-Rümelin, 2005: 45)

Von den beiden Fragen, die hier aufgeworfen werden, nämlich welche Rolle die Kausalität und welche Rolle das verfügbare Wissen spielt, habe ich die erste bereits behandelt. Ich gehe weiterhin von einer naturalistischen Unterbestimmtheit unserer Entscheidungen aus.

Bevor wir entscheiden, wägen wir Gründe ab. Wir fragen uns, welche Handlungsoptionen uns offenstehen und überlegen uns, welche Konsequenzen diese haben würden, welche Option kohärenter mit unseren Überzeugungen sind. Wir fragen uns wahrscheinlich auch nach unseren inneren Motiven und Wünschen, aber die Gründe für eine Entscheidung sind mehr als die Wünsche oder Neigungen. (Nida-Rümelin, 2005: 46)

Selbstverständlich spielen Wünsche und Neigungen eine Rolle und fließen in die Entscheidung mit ein. Gründe sind entweder praktische Gründe, wenn sie für oder wider eine Handlung sprechen. Sprechen sie für oder gegen eine Überzeugung, dann spricht man von theoretischen Gründen. (Nida-Rümelin, 2005: 46)

Praktische Gründe steuern Wünsche, Hoffnungen, Absichten, etc. (die konativen Einstellungen) und die theoretischen Gründe die Überzeugungen (die epistemischen Einstellungen) einer rationalen[85] Person.

Die Abwägung von Gründen ist eine Art des inneren Argumentierens.

„Die rationale Person lässt ihr Urteilen und Handeln von praktischen wie theoretischen Gründen leiten. Sie versucht, das Gesamt ihrer theoretischen und praktischen Gründe kohärent zu machen und, konfrontiert mit Handlungsoptionen und Vermutungen, dies möglichst passend einzufügen. Sie entscheidet sich gegen eine Handlungsoption, wenn die Abwägung praktischer Gründe negativ ausfällt, wie sie eine Vermutung zurückweist, wenn die Abwägung theoretischer Gründe negativ ausfällt.“ (Nida-Rümelin, 2005: 48)

Hier kommt auch klar zum Ausdruck, dass Gründe keine Gründe im kausalen Sinne sind. „Reasons are not causes, there is a fundamental difference“ stimmt auch Searle überein. (Searle, 2007)

Wir lassen uns von Gründen affizieren, wie Julian Nida-Rümelin es nennt, wir suchen nicht nach Erklärungen.

Auch unsere Wünsche und Neigungen sind keine Gründe. Motivierende Absichten sind bereits das Resultat und gleichzeitig die mentalen Repräsentanten akzeptierter Gründe. (Nida-Rümelin, 2005: 55)

Unserer Entscheidungen realisieren wir über Handlungen. Man könnte auch sagen, dass Entscheidungen Absichten[86] sind. Wenn wir handeln, handeln wir mit Absicht. Wenn wir also etwas mit Absicht tun, dann haben wir uns das überlegt, es ist kein bloßes Verhalten im automatischen Modus von System 1 im Modell von Daniel Kahnemann und Amos Tversky.

Um eine Handlung rational zu nennen, muss es Gründe dafür geben. Entscheidungen sind in diesem Sinne handlungsvorausgehende Absichten, die eine Abwägung - einen Deliberationsprozess abschließen.

Unsere Handlungen kontrollieren wir durch handlungsbegleitende Intentionalität. Das Verhalten wird im Prozess begleitet und gegebenenfalls modifiziert und gestoppt. Dieser Vorgang, der gleichzeitig ein physischer und ein mentaler ist, ist schwer vorzustellen und doch können wir uns es nicht anders vorstellen - ein Handeln ohne diese Kontrolle würden wir nicht als Handeln empfinden (und uns konsequenterweise dafür auch nicht verantwortlich fühlen).[87] (Nida-Rümelin, 2005: 58)

Gegen dieses Modell wird häufig eingewendet, dass es nicht der Lebensrealität entspreche. Diese Form der Abwägung sei zu komplex, zu aufwändig, zu langsam und damit zu weit von unserer Praxis entfernt. Dass dieses Modell eher dem normativen Wunschbild des rationalen Menschen entspräche, denn dem täglichen Handeln. Dieses sei viel „schmutziger“ und erfolge aufgrund des evolutionären energetischen Sparzwanges des Gehirns nur in Ausnahmefällen, ansonsten würden wir nicht bewusst abwägen, sondern bekannten Mustern folgen, ohne dass eine Abwägung von Gründen passiere.

Doch auch dieser Einwand ist kein grundsätzlicher Gegensatz - denn entweder erfolgt der beschriebene Prozess der Abwägung sehr rasch, weil die Umgebungsvariablen der Entscheidung - zumindest für uns selbst - so klar sind, dass die Gründe auf der Hand liegen, oder aber es handelt sich nicht um ein Handeln, sondern um ein Verhalten.

Letztere Möglichkeit schränkt das Bild unserer Autonomie nur sehr graduell ein - denn es stellt unsere grundsätzliche Fähigkeit der bewussten Abwägung von Gründen nicht in Frage. Für unseren gesellschaftlichen Umgang allerdings müssen wir auch für die Fälle, in denen wir „automatisch“ bekannten Mustern folgen, annehmen, dass es einen Abwägungsprozess gab und damit die volle Verantwortung zu tragen ist.

Dies stellt immer wieder Grenzfälle dar - wer kennt nicht die Situationen kognitiver Überforderung, in denen es aufgrund von Reizüberflutung, Übermüdung etc. nicht genügend Zeit für eine Überlegung gab und wir „aus dem Bauch“ heraus gehandelt haben.

Oft realisieren wir, dass eine sogenannte bewusste Entscheidung unbewusst motiviert war, das ist kein Problem des Freien Willens im Sinne der philosophischen Fragestellung, aber sehr wohl ethisch relevant.

Aus dem bisher Gesagten schließe ich, dass weder Software noch eine andere Schnittstelle, die nicht direkt unsere Fähigkeit uns von Gründen affizieren zu lassen verhindert, unseren Freien Willen im Prinzip beeinflusst und gefährdet.

Wir wägen unsere Gründe nicht in einem Vakuum ab, sondern auf der Basis unseres Wissens und unserer Erfahrungen, unter bestimmten psychischen, physischen und sozialen Bedingungen und immer eingebettet in einen gesellschaftlichen Kontext.

Diese Aspekte fließen in unsere Entscheidungen mit ein. Und an allen drei Punkten sehe ich das Potential einer Beeinflussung durch Software.

Software und die epistemische Basis für Entscheidungen

„Der Einfluss des Wissens auf unseren Hirnzustand und damit der Einfluss der Abwägung von Gründen auf unsere motivierenden Absichten, mithin der Erkenntnisabhängigkeit von Entscheidungen, zieht eine prinzipielle Grenze der Vorhersehbarkeit unseres Handelns.“ (Nida-Rümelin, 2005: 65)

Wir können niemals mit Sicherheit sagen, wie sich eine Entscheidung auswirken wird, entweder, weil es sich um reale zufällige Prozesse handele oder aufgrund von epistemischer Unvollkommenheit (Nida-Rümelin, 2005: 58).

Wenn wir in der modernen Welt gleichsam eine neue Schicht von Sinnesorganen und Filtern zwischen uns und unsere Umwelt legen, auf welcher Wissens- und Erkenntnisbasis treffen wir dann unsere Entscheidungen?

Eines meiner Hauptargumente für die Problematik der Software ist der breite Einfluss auf die epistemische Basis für Entscheidungen.

Wenn wir davon ausgehen, dass wir niemals hundertprozentig wissen können, welche Auswirkungen unsere Entscheidungen haben werden und wir auch nicht das Ergebnis unserer Handlungen für die moralische Beurteilung unserer Entscheidungen heranziehen wollen, dann ist es die vorhandene epistemische Basis auf der wir unsere Abwägung treffen. Genau hier präsentieren sich die vielen Softwareanwendungen, die uns Zugriff auf das gesamte Wissen der Welt und blitzschnelle, objektive Entscheidungshilfe anbieten, die versprechen, unsere Entscheidungen informierter zu machen. Wenn wir uns für ein Lokal für das Abendessen entscheiden müssen/wollen (ich füge das Wollen hier ein, denn wer hat nicht auch schon erlebt, dass Entscheidungsprozesse etwas Lustvolles sein können und als das Gegenteil von Mühsam und schwer(wiegend) empfunden werden, dass Entscheidungen uns auch das Gefühl der Autonomie und der Macht geben), dann greifen wir gerne auf Apps zurück, die uns eine Auswahl präsentieren. Diese Auswahl ist natürlich nicht ein 1:1 Abbild der Möglichkeiten, bereits die Selektion grenzt die Möglichkeiten ein, jede Anwendung eines Filters - sei es manuell oder bereits automatisiert grenzt weiter ein. Der Unterschied hier ist der, ob ich diese Einschränkung manuell im Interface selbst vornehme oder ob die Software aufgrund der Analyse meines Verhaltens (besser: Analyse der durch mein Verhalten erzeugten und gespeicherten Daten) diese Einschränkung der Möglichkeiten vornimmt.

In den meisten Fällen werden wir die Entscheidung danach beurteilen, ob das Essen gut war, der Preis angemessen und wir einen netten Abend mit Freunden verbracht haben. Nichts davon ist natürlich kausal auf die Empfehlung zurückzuführen und doch werden wir es bei der nächsten Auswahlentscheidung als eine Art Rückkoppelungsinformation in den Auswahlprozess miteinbeziehen.

Viele unserer täglichen Entscheidungen treffen wir mittlerweile online - Einkauf, Reisen buchen, Bücher bestellen, Nachrichten und Zeitungen lesen, Kommunizieren. Alle diese Prozesse sind softwaregesteuert und weisen damit die grundsätzlichen Probleme auf, über die ich weiter oben geschrieben habe. Einige dieser Prozesse sind auch so aufgebaut, dass wir bereits die Grundinformationen, das Wissen über die Produkte/Services online beziehen. Und bei einigen ist es auch bereits die präsentierte Auswahl, aus der wir entscheiden.

Für die meisten Anwendungen ist die Tatsache der Selektion durch Software unauffällig für die Fragestellung unserer Autonomie und Entscheidungsfreiheit.

Relevant sind die Breite und der Umfang der Softwareunterstützung. Das Problem hat eine prinzipielle und eine graduelle Dimension.

Die Veränderung unserer Erfahrungsbasis ändert langfristig wahrscheinlich auch unsere Einstellungen und lässt auch unsere Gründe nicht unbeeinflusst.

Jede Information über ein Softwareinterface ist kontaminiert und imprägniert mit Werten, Vorstellungen, Absichten und vorgetroffenen Entscheidungen, wie ich gezeigt habe, es ist immer eine geteilte Erfahrung, die wir machen. Entscheidungen werden für uns vorab getroffen, jede Information ist bereits gefiltert. Es gibt keine Unmittelbarkeit der Erfahrung und des Lebens.

Dies kann auch positiv gesehen werden – Software kann im Sinne eines Filter-Sinnesorganes uns in der Informations- und Kommunikationsflut schützen vor einem Überangebot oder unerwünschten Erfahrungen. Genau das ist das Argument von Social Media Plattformen, wenn für jeden Benutzer individuell vorsortiert wird. Und jeder von uns schätzt Kommunikationssoftware, die zuverlässig zwischen wichtigen und SPAM-Nachrichten unterscheiden kann.

Solange ich weiß, was die Software macht und ich die Optionen selbst parametrieren kann, sehe ich durchaus für Software als Schutzschild in einer digitalen Welt ihren Platz. Wer sich in der Infosphäre (Floridi, 2015) bewegt, der braucht meiner Meinung auch seine Softwareagenten an der Seite, vor allem auch um die vielen Versuche, auf uns einzuwirken zu erkennen und zu bewerten.

Software und die unmittelbaren Bedingungen der Entscheidung

„what is chosen often depends upon how the choice is presented.” Johnson et al. (Johnson, Shu, Dellaert, & Fox, 2012: 488)

Über unsere Wissen- und Erfahrungsbasis hinaus kann Software auch auf die unmittelbaren Bedingungen, unter denen wir Entscheidungen treffen, wirken.

Wie ich weiter oben gezeigt habe, können wir davon ausgehen, dass die Art und Weise, wie wir mit Entscheidungen konfrontiert werden, einen Einfluss auf unsere Entscheidungen haben können. Der tatsächliche Einfluss ist umstritten, es scheint mir übertrieben zu behaupten, dass die Gestaltung der Entscheidungssituation der ausschlaggebende Faktor sei und alle anderen Gründe sozusagen übersteuere. Da Entscheidungen als punktuelles Ereignis einer permanenten Abwägung verstanden werden können, halte ich es für plausibel, dass die im Moment der Entscheidung präsenten Einflüsse eine Rolle spielen sowohl auf einer bewussten, rationalen Ebene als auch auf einer spontaneren Ebene. Ich habe die vielfältigen Mechanismen beschrieben, die die Situationen, in denen wir entscheiden, versuchen so zu verändern, dass wir uns wahrscheinlicher auf eine bestimmte Art und Weise entscheiden. Noch viel kritischer sehe ich die in den vorangegangenen Kapiteln ausführlich beschriebenen Mechanismen, die verhindern sollen, dass wir rational und bewusst entscheiden.

Ich nenne es Überreden statt Überzeugen.

Julian Nida-Rümelin spricht von einer Grenze der Vorhersagbarkeit unserer Entscheidungen. Genau diese Vorhersehbarkeit aber soll so gut weit wie möglich hergestellt werden in der Mensch-Maschine-Kommunikation, denn nur so kann sie als berechenbarer Parameter miteinbezogen werden.

Einer meiner Kritikpunkte ist, dass unter dem Einfluss der Verhaltenspsychologie und der Gehirnforschung die Überzeugung anderer Menschen nicht mehr primär über Argumente, sondern über Neigungen und Emotionen zu laufen scheint. Von der Wahlkampagne bis zur Gaming App wird tendenziell versucht, die kognitive Kontrolle bewusst zu umgehen.

Zusätzlich wird mit dem Zweifel an der Freiheit des Willens und dem Postulat eines biologisch gesteuerten Verhaltens, das auch das Handeln miteinschließt, die rationale Überlegung per se abgewertet und der Wert einer logischen Argumentation in Zweifel gezogen.

In diesen Beeinflussungsversuchen kann man meiner Meinung nach bereits einen Verstoß gegen das Instrumentalisierungsverbot von Kant sehen.[88]

Damit wird auch ein Vorstoß gegen die Verantwortung des Menschen geführt und seine Autonomie untergraben.

Thomas Metzinger gibt eine Definition von Autonomie, die nahe an der Gehirnforschung ist: Für ihn hat Autonomie etwas mit Selbstimmunisierung zu tun, mit dem Aufbau eines Schutzschilds, das verhindert, dass man durch potenzielle Zielzustände in der Umwelt infiziert wird. Wenn unser Geist wandere, verlieren wir unsere geistige Autonomie. Geistige Autonomie sei die Fähigkeit, unsere eigenen inneren Handlungen zu kontrollieren und auch auf mentaler Ebene selbstbestimmt zu handeln.[89] (Metzinger, 2014: 136).

Die Folgen einer Argumentation, die Autonomie von Menschen sehr eng zu sehen, sind weitreichend:

Menschen, die nicht frei entscheiden können, die nicht rational abwägen, sollten dann auch keine weitgehenden politischen Entscheidungen treffen dürfen - überall dort, wo es auch um das Wohl der anderen geht, dürften wir diese Menschen nicht mitentscheiden oder abstimmen lassen. Ditto auch für ihr eigenes Leben - vor allem dann, wenn ihre persönlichen, privaten Entscheidungen auch die Allgemeinheit betreffen, wie in der gesunden Lebensführung, in der Wahl des Berufes oder der Freizeitaktivitäten. Dies fällt umso leichter, wenn nicht nur die individuelle Fähigkeit, rationale Entscheidungen zu treffen, sondern die Fähigkeit des Menschen generell angezweifelt wird.

Software als technisches System und revolutionäre

Technologie

„A technology is interiorized when its use becomes second nature to the majority of the culture in question. Interiorization of a new technology influences the way thoughts are structured.” (Calleja & Schwager, 2004: 8)

Der dritte Punkt ist die Einbettung unserer Entscheidungen in einen sozialen und gesamtgesellschaftlichen Kontext, der sich mit der neuen Technologie beständig und in Wechselwirkungen ändert.

In diesem Punkt kulminieren viele Bedenken der Technologiekritiker, die hinter der Softwareproduktion und des ihr eigenen Weltbildes stehen, die beherrschende Stellung von wenigen privaten Konzernen in der Anwendung und Weiterentwicklung der Technologien und der Kampf um globale Macht und Einfluss. Die Konzentration von Interessen, eine (zumindest postulierte) Steigerung der Machtmittel, ein scheinbar bedenkenloser Einsatz dieser und eine (ebenfalls zumindest empfundene) steigende Abhängigkeit des Einzelnen stellt uns vor neue ethische Herausforderung.[90] Die politische Sprengkraft von Software ist enorm. Sind auf der einen Seite Prozesse der direkten Demokratie, der Partizipation und der Transparenz in nie dagewesenem Umfang mit Software abbildbar, so sind wir in ebenfalls bisher nicht vorstellbarem Ausmaß mit Propaganda und der Verbreitung von sogenannten „Fake News“ konfrontiert. Die weitgehende Simulation einer „realen“ Welt, wie wir sie kennen und das Verschmelzen mit einer digitalen „virtuellen“ Umwelt[91], so wie die Unmöglichkeit einer physischen Verortung von Nachrichten und Meinungen[92] erzeugen ein Gefühl der Erosion der Basis unserer lebensweltlichen Epistemologie und eine ontologische Dissonanz. In dieser Unsicherheit fällt es uns schwer, informierte Meinungen und Einstellungen zu bilden, auf denen unsere Gründe aufsetzen können. Es fällt uns zum Beispiel schwer, den Wert eines Postings in einen Gesamtkontext zu stellen. Die Umgebung der Social Media Plattform stellt für uns in diesem Moment unsere soziale Realität dar, die Verteilung der vertretenen Ansichten empfinden wir als adäquate Verteilung der Standpunkte in der Gesamtbevölkerung. Gleichzeitig lässt die Struktur der Oberfläche eine differenzierte Diskussion nicht zu, mit ihren Mechanismen versucht sie, uns zu emotionalen, nicht zu rationalen Aussagen anzuregen.[93]

Derzeit das meiste Gehör erlangt die Kritik an der „Silicon Valley Ideologie“. (Rid, 2016; Schlieter, 2015; Turner, 2006)

Die Kritik am Silicon Valley steht meist stellvertretend für die Softwareentwicklung in der gesamten Welt und die Folgen einer Digitalisierung und eines Plattformkapitalismus. Die herausragende Stellung und die Mythen, die sich um das Silicon Valley ranken, machen es zu einer idealen Projektionsfläche für die gesellschafts- und herrschaftspolitischen Diskurse. Jaron Lanier etwa merkt an, dass ihn die Idee der vollkommenen Steuerbarkeit von Menschen und Gesellschaft mit einem Anspruch an Verteilungsgerechtigkeit an den Marxismus erinnere. Die Singularität, die Noosphäre oder die Idee, dass ein kollektives Bewusstsein der Webnutzer entstehen würde, erinnere ihn an Marxs Sozialen Determinismus. (Lanier, 2014)

Es handle sich um eine abgehobene Elite, die die Zukunft der Welt plane, um ein sehr homogenes „Biotop“ aus weißen, gut ausgebildeten Ingenieuren, ausgestattet mit beinahe unerschöpflichen finanziellen Ressourcen, die ihre Vorstellungen und Normen über die ganze Welt verbreite[94]. (Wajcman, 2017) Auch Lanier, Thomas Rid, Nicolas Carr und Frank Pasquale argumentieren, dass es nur eine vergleichsweise kleine Gruppe von Programmierern und Investoren sei, die heute festlegen, wie ein Großteil der Menschen die Welt erlebe. (Carr, 2015; Lanier, 2009; Pasquale, 2015; Rid, 2016)

Software aber stellt uns auch vor andere, ontologische Herausforderungen:

Plötzlich entscheiden Maschinen - für uns und über uns. Das Zusammenspiel zwischen Mensch und Maschine auf einer mechanischen Ebene ist gang und gäbe, auch dass Maschinen uns die Arbeit abnehmen. Dass Maschinen ohne uns in ganz engen Rahmen Entscheidungen treffen, die wir ihnen einprogrammiert haben, daran haben wir uns gewöhnt. Was aber, wenn sie nun uns Entscheidungen vorschlagen, ohne dass wir sie selbst darauf programmiert haben?

Das verunsichert uns. Die Gegenüberstellung von einer sauberen, perfekten, uns Menschen in scheinbar allen kognitiven Belangen überlegenen Künstlichen Intelligenz zu einem fehlerbehafteten in seinem sterblichen, alternden Körper gefangenen Mangelwesen schüchtert uns ein.

Der Diskurs um Künstliche Intelligenz und die sogenannte Singularität ist geprägt von antihumaner Rhetorik. Diese ist genauso faszinierend wie Selbst-Zerstörung. Sie verstört, aber fasziniert zugleich. Ein Ziel dieser Rhetorik sei es, die Menschen als obsolet zu zeichnen, damit Computer umso fortschrittlicher wirkten. Menschen würden in diesen Utopien entweder als hoffnungslos überholt und zurückgelassen oder als technologisch optimierte Organismen im Verbund mit der Technik als Übermenschen skizziert. (Hofstetter, 2015) Was können wir der Cloud - als wunderbare Metapher des Wohnortes unserer neuen Autorität[95] - schon entgegensetzen? Wir spüren einen Druck, Entscheidungen an Software abzugeben, weil diese um vieles exakter und objektiver entscheiden könne und gleichzeitig auch eine Erleichterung, dass wir die Komplexitätssteigerung in unseren Leben jemandem anvertrauen können.

Diese Kritik geht zurück auf Günter Anders, für den Technik kein wertneutrales Mittel zum Zweck war. Seine Annahme war, das die Vorgabe der Geräte ihre Anwendung bereits festlege und spezifische ökonomische, soziale und politische Verhältnisse eine Technologie produzieren, die ihrerseits spezifische ökonomische, soziale und politische Veränderungen nach sich zöge und dass Technik so vom Objekt zum Subjekt der Geschichte werde. Der Mensch könne die strukturelle Macht der Geräte nicht mehr erkennen, Sachzwänge emotional und kognitiv nicht mehr bewältigen und empfinde sich als mangelhaft. Der Mensch empfinde eine prometheische Scham vor seinen Erfindungen.

In der Ubiquität von Software sieht Andrew Feenberg ein technologisches System (Feenberg, 2016), in dem wir gefangen seien. Wir könnten uns auch gar nicht mehr außerhalb stellen. (Feenberg, 2017b)

Wenn wir einen Flughafen betreten - oder neuerdings bereits ab der Flugbuchung - sind wir in einem technischen System, das uns vollkommen umschlingt, uns sagt, was wir tun sollen, wohin wir gehen sollen. Jeder, der sich nicht daran hält, kommt in Schwierigkeiten, wie jeder von uns sicher bereits einmal erlebt hat.

Auch wenn das Bodenpersonal wie Menschen handelt, so ändert das nichts, dass wir in einem technischen System sind im “Gestell im Sinne Heideggers“. (Feenberg, 2009: 15)

Bisher sei ein deterministischer Blick auf die Technologie die Regel gewesen: Technologischer Fortschritt sei eine direkte Folge wissenschaftlicher Entwicklung. Diese Entwicklung fände außerhalb der Gesellschaft statt. Technologie präge und forme die Gesellschaft unter den Produktionsbedingungen des Kapitalismus. Doch die technologische Entwicklung sei wesentlich unterbestimmter und auch die Gesellschaft beeinflusse die Technik in Form einer CO-Produktion von Gesellschaft und Technik. (Feenberg, 2017a)

Anhand der Softwareentwicklung lässt sich die These sehr gut nachvollziehen, die Wechselwirkungen zwischen Forschung, Anwendung und Benutzung sind so stark, dass sie häufig nicht zu trennen sind und eine gegenseitige Beeinflussung auf einer Werte- und Strukturebene ist eindeutig gegeben.

Graham Harman greift in seiner Kritik an der Digitalisierung und am Internet der Dinge auf Heidegger zurück. (Harman, 2010)

Die Technik könne nicht als verlängertes Werkzeug des Menschen angesehen werden, sondern bringe vollkommen eigene Gesetzmäßigkeiten mit sich. Der Herrschaftscharakter, der von der modernen Technik ausgehe, bereite ihm Sorge. So bringe dieser aus sich heraus neue Ansichten und Notwendigkeiten hervor und ein dem entsprechendes Bewusstsein des Sieges: beispielsweise wenn die Fabrikation von Fabriken, in denen wiederum Fabriken fabriziert werden, als faszinierend empfunden wird. All dieses berge, Heidegger zufolge, die Gefahr, dass „die Nutzung eine Vernutzung“ (Heidegger; [145]GA 7: 87) wird und die Technik nur noch ihre eigene Ziellosigkeit zum Ziel hat.

Somit werde der Mensch einerseits zum Herrn der Erde, andererseits durch die Verkehrung des Zweck-Mittel-Verhältnisses vom Gestell entmachtet und zum bloßen Moment des alles umspannenden technischen Prozesses.[96] (Harman, 2005)

Dass dieser alles umspannende technische Prozess, dieses ubiquitäre System der Software trotz seiner Mächtigkeit kaum sichtbar sei, bemerkt Bruno Latour. Er bezeichnet das Verschwinden einer gut eingeführten Technologie aus unserem Fokus als eine “Optische Täuschung”. Sie überdecke, wie sehr wir uns selbst an diese Technologie angepasst hätten:

„if we fail to recognize how much the use of technique, however simple, has displaced, translated, modified or inflected the initial intention, it is simply because we have changed the end in changing the means, and because, through. A slipping of the will, we have begun to wish something quite else from what we at first desired.” (Latour, 2002: 250)

Marc Zuckerberg spricht vom Facebook als „Utility“ und signalisiert, dass Facebook so selbstverständlich in unseren Leben sein sollte wie das Telefon und das Wasserversorgungsnetz. Und das ist es wahrscheinlich auch schon für viele. Wenn Vic Gundotra, VP of social networking bei Google postuliert „Technology should get out of the way so you can live, learn and love“ (Constine, 2013), dann ist das prima facie attraktiv sowohl für die Hersteller als auch für die Benutzer. „When Technology gets out of the way, we are liberated from it“(Bilton, 2012), schreibt der New York Times Kolumnist Nick Bilton. Der Blick scheint beinahe naiv, denn die Technologien, die bisher so einfach verschwunden sind aus unserm Alltag, sind nicht 1:1 vergleichbar mit der Informationstechnologie. Strukturelle Merkmale sind ähnlich, das Ausmaß der Digitalisierung, die Vernetzung und die Interaktion gehen über das Elektrizitätsnetzwerk hinaus.

Wie weitgehend sich ein Paradigmenwechsel beinahe schleichend vollzieht, beschreibt Luciano Floridi, der in den vernunftbegabten Maschinen eine wissenschaftliche Revolution sieht. Für ihn handelt es sich um die vierte derartige nach der kopernikanischen Wende, der Evolutionslehre Darwins und der Freudschen Psychoanalyse. (Floridi, 2015)

Er führt den Begriff der Infosphäre ein[97], diese umfasst für ihn die digitale, die analoge und die Offline-Umgebung. Mehr und mehr Analoges werde digital. Im Digitalen seien die Werkzeuge (Programme) ebenso beschaffen wie das Verarbeitete (die Daten). Informationen hätten die Eigenschaften eines öffentlichen Gutes: Anders als zum Beispiel eine Pizza gingen Informationen nicht verloren, wenn man sie mit anderen teile. In der Infosphäre seien Menschen mit Maschinen über Schnittstellen verbunden – idealerweise ohne zu merken, dass es diese Schnittstellen überhaupt gibt oder wie viele Prozesse im Hintergrund laufen. Die Grenze zwischen Offline- und Onlinewelt verfließe, bis das Leben „onlife“ wird. Die Technologie würde Teil der Identität. Das soziale Selbst, das dabei entsteht, wirke zurück auf die Identität und das Selbstbild des Nutzers. (Floridi, 2007, 2015)

Auf den emotionalen Aspekt des Gebrauches von Software und dessen Bedeutung für unsere Normen und Moral im täglichen Leben verweist Frank Pasquale. (Pasquale, 2015)

Die Geschichte[98] ist auch voll von Technologiekritik, die Technologien falsch eingeschätzt hat, insbesondere wenn diese Technologien gleichzeitig einen gesellschaftlichen Paradigmenwandel mit sich gebracht haben, der auch den normativen Bezugsrahmen verändert hat.[99]

Alle zitierten Autoren betonen einen solchen tiefgreifenden Wandel der Bedingungen und unseres Selbstverständnisses in diesem neuen Kontext. Die massive Verbreitung von Software stellt uns vor völlig neue Situationen, für die wir noch über keine gefestigten normativen Wertegerüste verfügen. Software eröffnet uns neue Möglichkeiten und Optionen, die wir vorher nicht hatten.

Uns fehlt daher auch noch die Erfahrung, selbstbewusste Entscheidungen zu treffen. Durch die Simulation von analogen Situationen verlassen wir uns häufig auf unsere Erfahrungswerte aus der analogen Welt, in der wir diese Erfahrungen gesammelt haben. Das macht uns anfällig für Fehlentscheidungen, denn wir können die Folgen unseres Handelns oft noch nicht einschätzen und nicht bewerten.

Das betrifft sowohl die direkten kausalen Folgen als auch die Konsequenzen unserer Entscheidungen. Wir wissen oft gar nicht, was das Klicken eines Buttons auslöst und welche Verantwortung uns daraus erwächst. Die Simulation eines analogen, lokalen Vorganges lässt uns auch häufig in der Annahme, die Auswirkungen unserer Software-Interaktion blieben lokal und begrenzt. Dass dies nicht so ist und aus singulären, lokalen Akten sehr schnell globale Massenphänomene werden können, habe ich weiter oben gezeigt.[100]

Darüberhinausgehend ändert die Technologie die Art und Weise, wie wir über die Welt denken und ihr handeln. Sie verändert damit auch unsere normative Basis, wie Nikil Mukerji argumentiert:

“Just like the laws of physics are reasonably seen as eternal and changeless, the basic principles that underlie our moral duties may be supposed to be unalterable. Though that may in fact be true, the changes that our empirical world undergoes – and that includes technological changes – may nevertheless change the way we think about the issues that lie at the heart of normative ethics. (Mukerji, 2014: 34)

Es ändert sich durch unsere Interaktion mit Software nicht nur die Art und Weise, wie wir über die Welt denken, sondern auch, wie wir denken, dass wir handeln sollen.

Zudem bewegen wir uns vielfach in einem Bereich, der auch rechtlich noch nicht gefasst ist[101] und in dem noch vieles ausgehandelt werden muss.

Das macht uns das Entscheiden nicht einfacher.

Konklusion

„What makes something real is that it is impossible to represent it to completion” (Lanier, 2014) Mit fortschreitender Digitalisierung treffen wir immer mehr Entscheidungen unter digitalen Bedingungen[102], genauer gesagt unter digitalen Entscheidungsbedingungen.

Wie wir gesehen haben, sind unsere Entscheidungen nach wie vor frei und wir bleiben für sie verantwortlich.

Doch diese Freiheit ist bedingt - wir entkommen den Grenzen unserer Umwelt nicht. Nur innerhalb dieser Grenzen können wir wirksam werden. (Nida-Rümelin, 2011)

Jede Technologie gibt uns die Möglichkeiten, diese Grenzen zu erweitern oder zu verengen. Im Falle der Digitalisierung steigert diese unsere Handlungsoptionen enorm und damit auch unsere Entscheidungsmöglichkeiten. Mit jeder Optionssteigerung und zusätzlichen Handlungsoption aber steigert sich im Prinzip unsere Verantwortung.[103] Sie nimmt nicht ab, sondern wird umfangreicher. Das setzt uns unter Druck. Zur gleichen Zeit empfinden wir die epistemische Basis für diese Entscheidungen zunehmend als unsicherer und immer weniger in unserer eigenen Kontrolle.

Im selben Masse wie Software unsere Handlungsoptionen steigert, bietet sie uns aber auch an, diese für uns zu verringern und uns die Last von Entscheidungen abzunehmen. Es ist wiederum eine Entscheidung von uns selbst, wie sehr wir darauf vertrauen.

Software ist eine Technologie, die wir begrifflich und im Erleben noch nicht ganz fassen können. Sie ist Werkzeug und Sprache gleichzeitig und sie trägt Züge von Lebendigkeit, die sie in die Nähe des menschlichen Geistes rücken.

In jedem Fall ist Software im Kern eine Steuerungstechnologie, sie besteht aus Anweisungen und Entscheidungen. Diese Eigenschaft entfaltet sie auch uns gegenüber – sie steuert FÜR uns, aber auch uns selbst, weil es ihr Wesen ist zu steuern.

Die Interaktion mit uns Menschen ist mannigfaltig, wahrscheinlich haben noch nie in der Geschichte der Menschheit so viele unterschiedliche Interessen auf einen einzelnen Menschen eingewirkt. Software formuliert immer einen Anspruch an uns – wir sollen entscheiden, zusehen, bearbeiten. Software kennt keine physische Ermüdung. Sie verkörpert und produziert Phänomene, die wir als Rastlosigkeit und Beschleunigung empfinden.

Das stellt uns vor philosophische, psychologische, soziale und in der Folge ethische Herausforderungen, die uns in den kommenden Jahren beschäftigen werden. Für diese Herausforderungen gibt es keine allgemeingültige Antwort.

Wie bei jeder Technologie muss auch beim Einsatz von Software eine ethische Analyse auf einer Fall-zu-Fall Basis erfolgen, zu komplex und unterschiedlich sind die Szenarien.

Eine persönliche Schlussfolgerung ist eine altmodische und scheinbar nicht mehr in die Zeit passende:

Immanuel Kant stellt eine Verbindung zwischen Menschenwürde und Freiheit her. Der Mensch hat die Freiheit und eine Fähigkeit autonom, also nach selbstgewählten Grundsätzen zu handeln, das verleiht ihm seine Würde.

Wenn wir davon ausgehen, dass Ichstärke, Willenskraft und Urteilskraft die Fähigkeiten sind, die eigene Abwägung umzusetzen (Nida-Rümelin, 2005) und unsere Autonomie zu leben, dann brauchen wir eine Stärkung von Vernunft und Urteilskraft.

Ob es sich dabei um ein neurophysiologisches Trainingsprogramm für unser Selbstmodell oder ein humanistisches Bildungsprogramm handelt - es geht immer um das Erlernen der Steuerung unserer eigenen Gedanken, um das Lernen des Abwägens von Gründen und einer Stringenz im Handeln und Umsetzen unserer Entscheidungen.

Das wird eine zentrale Kompetenz für die Digitalisierung sein und nicht der mühelose Umgang mit Interfaces. Softwarekompetenz heißt nicht, jede Programmiersprache zu beherrschen, sondern zu verstehen, wie Software entsteht und welche Konzepte sie umsetzt, was sie ermöglicht und was sie ausschließt.

Auf Software als Schild gegen die Informationsflut und Beeinflussung und als Entscheidungshelfer werden wir uns in biographisch oder gesellschaftlich relevanten Entscheidungssituationen nicht immer verlassen wollen.

Ein Appell an eine neue Aufklärung erscheint mir zu pathetisch, das oft gebrauchte Kant-Zitat[104] aus der „Beantwortung der Frage: Was ist Aufklärung“ hat seine Bedeutung in den letzten 234 Jahren aber nicht verloren und beweist im Umgang mit Software seine Aktualität. Sapere aude! ist heute aktueller denn je.

Selbstvertrauen, Urteilskraft und Mündigkeit sind unsere persönliche Firewall in der Digitalisierung.

Danksagung

Bedanken möchte ich mich in erster Linie bei Professor Nida-Rümelin dafür, dass er dieses Thema für eine Masterarbeit akzeptiert hat. Mit seiner unvergleichlich klaren und strukturierten Art hat er mir geholfen das Thema zu schärfen und mir mit Literaturhinweisen weitergeholfen, auf die ich selbst nicht gekommen wäre.

Frau Professor Verena Mayer hat im Masterkurs wertvolle Hinweise und Hilfestellungen gegeben und Nikil Mukerji hat ebenfalls wertvolle Literaturhinweise beigesteuert. Mein besonderer Dank gilt meinen Kommilitonen und Kommilitoninnen aus dem PPW Studiengang, mit denen eine offene Diskussion der Masterarbeitsthemen immer möglich war.

Für ihre inhaltlichen Beiträge und ihre Bereitschaft auch über Firmeninterna und noch unveröffentlichte Forschungsbeiträge zu sprechen danke ich Martin Klein und anderen Arbeitskollegen.

Meiner Partnerin Sonja danke ich für ihr Verständnis für die Zeit, die wir aufgrund der Arbeit nicht gemeinsam verbringen konnten und für ihr Lektorat.

Markus Walzl

Wien, am 19.11.2017

Literatur- und Quellenverzeichnis

Académie française. (Ed.) Dictionnaire de l'Académie française, neuvième édition (neuvième édition ed.). Aghajan, Z. M., Acharya, L., Moore, J. J., Cushman, J. D., Vuong, C., & Mehta, M. R. (2014). Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience, 18, 121. doi:10.1038/nn.3884

https://www.nature.com/articles/nn.3884 - supplementary-information Algorithm Watch. (2017). Das ADM Manifest. Retrieved from https://algorithmwatch.org/de/das-adm-manifest-the-adm-manifesto/

Anderson, C. (2008). The end of theory: the data deluge makes the scientific method obsolete. Wired (23.6.2008).

Assheuer, T. (2017, 16.4.2017). Die Hippies sind schuld. Die Zeit. Austin, D. (2017). Alexa, what makes you so Habit-Forming. Retrieved from https://www.nirandfar.com/2017/06/how-amazons-alexa-hooks-you.html?utm_source=NirAndFar&utm_campaign=cf71bf38f5-alexa-habit-forming&utm_medium=email&utm_term=0_9f67e23487-cf71bf38f5-98001501&mc_cid=cf71bf38f5&mc_eid=22a81d7d51 - htv

Bachimont, B. (2008). Signes formels et computation numérique: entre intuition et formalisme. In H. Schramm & L. Schwarte (Eds.), Instrumente in Kunst und Wissenschaft - Zur Architektonik kultureller Grenzen im 17. Jahrhundert. Berlin: Walter de Gruyter Verlag.

Bard, A., & Söderqvist, J. (2012). The Futurica Trilogy. Stockholm: Stockholm Text. Baudrillard, J. (1981). Simulacres et Simulation. Paris: Éditions Galilée.

BEA. (2012). Final Report: On the Accident on 1st June 2009 to the Airbus A330-203, Registered F-GZCP, Operated by Air France, Flight AF447, Rio de Janeiro to Paris. Retrieved from www.bea.aero/docspa/2009/f-cp090601.en/pdf/f-cp090601.en.pdf

Beck, E. (2016). A theory of persuasive computer algorithms for rhetorical code studies. Enculturation, 23.

Beckermann, A. (2012). Aufsätze. Bd. 1: Philosophie des Geistes. Bielefeld. Bielefeld: Universitätsbibliothek Bielefeld.

Beebee, H., Hitchcock, C., & Menzies, P. (2012). The Oxford Handbook of Causation. Oxford: Oxford University Press.

Beland, L.-P., & Murphy, R. (2016). Communication: Technology, distraction & Student performance. Labour Economics, 41 (August 2016), 61-76.

Bilton, N. (2012). Disruptions. Next Step for Technology is becoming the background. New York Times.

Bostrom, N. (2003). Are you living in a computer simulation? Philosophical Quarterly, 53 (211), 243-255.

Bostrom, N. (2016). Superintelligenz. Szenarien einer kommenden Revolution. Frankfurt am Main: Suhrkamp.

Brasel, S. A., & Gips, J. (2014). Tablets, touchscreens, and touchpads: how varying touch interfaces trigger psychological ownership and endowment. Journal of Consumer Psychology, 24, 226-233.

Brasel, S. A., & Gips, J. (2015). Interface Psychology: Touchscreens Change Attribute Importance, Decision Criteria, and Behavior in Online Choice. Cyberpsychology, Behavior and Social Networking, 18, 534-538.

Breit, L., & Redl, B. (2017, 18.8.2017). Wir Selbstvermesser. Der Standard, p. 23. Brock, K. (2013). Engaging the Action-Oriented Nature of Computation: towards a Rhetorical Code Studies. Retrieved from NCSU Digital Repository. North Carolina State University: http://repository.lib.ncsu.edu/ir/handle/1840.16/8460.

Buchanan, M. (2015). Physics in finance: Trading at the speed of light. Nature, 518, 161-163. Calleja, G., & Schwager, C. (2004). Rhizomatic cyborgs: hypertextual considerations in a posthuman age. Technoetic Arts, 2 (1), 3-15. doi:10.1386/tear.2.1.3/0

Carr, N. (2015). The Glass Cage. London: The Bodley Head. Carr, N. (2017, 7.10.2017). How smartphones hijack our minds. The Wall Street Journal.

Charisius, H. (2016). Trugbilder im Hirnscan. Süddeutsche Zeitung (5.7.2016). Christl, W., & Spiekermann, S. (2016). Networks of Control. A Report on Corporate Surveillance, Digital Tracking, Big Data & Privacy. Retrieved from Wien:

Conly, S. (2013). Against Autonomy. Justifying coercive paternalism. Cambridge, MA: Cambridge University Press. Constine, J. (2013, 15.5.2013). Google Unites Gmail And G+ Chat Into “Hangouts” Cross-Platform Text And Group Video Messaging App. Techcrunch. Retrieved from https://techcrunch.com/2013/05/15/google-hangouts-messaging-app/ Dennett, D. (2013, 22.5.2013) You can make Aristotle look like a flaming idiot/Interviewer: J. Baggini. The Guardian, London.

Dennett, D. (2017). A History of Qualia. Topoi. Springer Science+Business Media B.V. Deterding, S., Rilla, K., Nacke, L., & Dixon, D. (2011). Gamification: Towards a Definition. Paper presented at the Workshop on Gamification at the ACM Intl. Conf. on Human Factors in Computing Systems (CHI).

Dilger, B. (2000). The Ideology of Ease. Journal of Electronic Publishing, 6 (1).

Dworkin, G. (2017). Paternalism. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy (Spring 2017 ed.): Metaphysics Research Lab, Stanford University.

Elder, R., & Krishna, A. (2012). The “visual depiction effect” in advertising: facilitating embodied mental simulation through product orientation. Journal of Consumer Research, 38, 988-1003.

Epp, C., Lippold, M., & Madryk, R. L. (2011). Identifying Emotional States Using Keystroke Dynamics. Paper presented at the Proceedings of the 2011 Annual Conference on Human Factors in Computing Systems (CHI 2011), Vancouver.

Evans, J. S. B. T. (2006). The heuristic-analytic theory of reasoning: Extension and evaluation. Psychonomic Bulletin & Review, 13 (3), 378-395. doi:10.3758/bf03193858 Eyal, N. (2014). Hooked: How to Build Habit-Forming Products (R. Hoover Ed.). New York: Penguin.

Feenberg, A. (2009). Function and Meaning: The Double Aspects of Technology. Paper presented at the Conference on Technology, the Media and Phenomenology, Stockholm.

Feenberg, A. (2016, February-April) Part of the Technical System/Interviewer: Z. Boang. New Philosopher (Vol Issue 11).

Feenberg, A. (2017a). A Critical Theory of Technology. In U. Felt, R. Fouché, C. A. Miller, & L. Smith-Doerr (Eds.), The Handbook of Science and Technology Studies (pp. 635-664). Cambridge Massachusetts: MIT Press.

Feenberg, A. (2017b). Technosystem: The social life of reason. Cambridge: Harvard University Press.

Fishman, C. (1996). They write the right stuff. FastCompany Magazine (December).

Floridi, L. (2007). A look into the future impact of ICT on our lives. The Information Society, 23 (1), 59-64.

Floridi, L. (2015). Die 4.Revolution: Suhrkamp.

Foer, F. (2017). World Without Mind. Jonathan Cape: Penguin.

Freund, T. (2006). Software Engineering durch Modellierung wissensintensiver Entwicklungsprozesse. Berlin: Gito-Verlag.

Frick, W. (2015). When Your Boss Wears Metal Pants. Harvard Business Review (June 2015), 84-89.

Gigerenzer, G. (2007). Bauchentscheidungen. Die Intelligenz des Unbewussten und die Macht der Intuition. München: Bertelsmann.

Google. (2017). Hack - Programing productivity without breaking things. Retrieved from http://hacklang.org/

Greenfield, A. (2017). Radical Technologies. London: Verso.

Hackett, R. (2016). Watch Elon Musk Divulge His Biggest Fear About Artificial Intelligence: Fortune Magazine.

Harman, G. (2005). Heidegger on Objects and Things. In B. Latour & P. Weibel (Eds.), Making Things Public: MIT Press.

Harman, G. (2010). Technology, Objects and Things in Heidegger. Cambridge Journal of Economics, 34 (1), 17-25.

Harper, R. (2016). Practical Foundations for Programming Languages. Cambride: Cambridge University Press.

Hayles, N. K. (2005). My Mother was a Computer: Digital Subjects and Literary Texts. Chicago: Univesity of Chicago Press.

Heersmink, R. (2016). The Internet, Cognitive Enhancement, and the Values of Cognition. Minds and Machines, 26 (4), 389-407.

Helbing, D. (2015). "Big Nudging" - zur Problemlösung wenig geeignet. Spektrum der Wissenschaft (12.11.2015).

Helbing, D., Frey, B. S., Gigerenzer, G., Hafen, E., Hagner, M., Hofstetter, Y., . . . Zwiter, A. (2015). IT-Revolution: Digitale Demokratie statt Datendiktatur. Das Digital Manifest. Spektrum der Wissenschaft, Hintergrund (17.12.2015).

Hofstetter, Y. (2015). Wenn intelligente Maschinen die digitale Gesellschaft steuern Spektrum der Wissenschaft (12.11.2015).

Hürter, T. (2016). Alles ist 0 und 1. Hohe Luft (01/2017. Sonderbeilage Digitalisierung: Schlauer als wir), 16-17.

Introna, L. D. (2011). The enframing of code: Agency, Originality and the Plagiarist. Theory, Culture and Society, 28 (6), 113-141.

James, W. (1899). Talks to Teachers on Psychology: and to Students on Some of Life's Ideals: Dover Publications 2001.

Johnson, E. J., Shu, S. B., Dellaert, B. G. C., & Fox, C. (2012). Beyond Nudges: Tools of a Choice Architecture. Marketing Letters, 23:2, 487-504.

Kahnemann, D. (2011). Thinking, Fast and Slow. London: Penguin.

Kaku, M. (2011). Physics of the Future: How Science Will Shape Human Destiny and Our Daily Lives by the Year 2100. London: Doubleday.

Kant, I. (1784). Beantwortung der Frage: Was ist Aufklärung?". erschienen 1784 in der "Berlinischen Monatsschrift".

Kirkpatrick, D. (2011). The Facebook effect. New York: Simon & Schuster.

Kitchin, R., & Dodge, M. (2011). Code/Space - Software and Everyday Life. Cambridge, Massachusetts: The MIT Press.

Kurzweil, R. (2012). How to create a Mind: the Secret of Human Thought Revealed. New York: Viking Books.

Lanier, J. (2009). You are not a gadget. London: Penguin Books

Lanier, J. (2014). Who owns the future. London: Penguin Books Ltd.

Latour, B. (2002). Morality and Technology: The End of the Means. Theory, Culture and Society, 19, 247-260.

Lessig, L. (2000). Code is law. On Liberty in Cyberspace. Harvard Magazine, 1.

Liessmann, K. P. (2017). Podiumsdiskussion. Paper presented at the 20. Philosophicum Lech, Lech.

Lobo, S. (2014, 12.1.2014). Das Ende der Utopie: Die digitale Kränkung des Menschen. Frankfurter Allgemeine Zeitung.

Logg, J. M. (2017). Theory of Machine: When do people rely on Algorithms? Paper presented at the AoM Annual Meeting 2017, Atlanta.

Ludewig, J., & Lichter, H. (2007). Software Engineering: dpunkt Verlag.

Mackenzie, A. (2006). Cutting Code: Software and Sociality: Peter Lang.

Manjoo, F. (2017, 10.5.2017). Tech’s Frightful Five: They’ve Got Us. The New York Times. Retrieved from https://www.nytimes.com/2017/05/10/technology/techs-frightful-five-theyve-got-us.html

Mau, S. (2017) Das metrische Wir/Interviewer: A. Lobe. (Vol 07), Die Zeit.

McCandless, D. (2015). Codebases. Millions of lines of code. : information is beautiful.

McLuhan, M. (1994). Understanding Media: The Extensions of Man. Cambridge: MIT Press.

Meier, c. (2017, 13.8.2017). Unser Freund, der Algorithmus. Welt am Sonntag. Retrieved from https://blendle.com/i/welt-am-sonntag/unser-freund-der-algorithmus/bnl-wams-20170813-53_1?sharer=eyJ2ZXJzaW9uIjoiMSIsInVpZCI6Im1heHdhbHpsIiwiaXRlbV9pZCI6ImJubC13YW1zLTIwMTcwODEzLTUzXzEifQ%3D%3D

Metzinger, T. (2004). Being no one: The self-model theory of subjectivity. Cambridge, MA: MIT Press.

Metzinger, T. (2014). Der Ego-Tunnel. Eine neue Philosophie des Selbst: von der Hirnforschung zur Bewusstseinsethik. Berlin: Piper Verlag.

Montag, C. (2016). Persönlichkeit. Auf der Suche nach unserer Identität. Berlin Heidelbert: Springer.

Mukerji, N. (2014). Technological progress and responsibility. In F. Battaglia, N. Mukerji, & J. Nida-Rümelin (Eds.), Rethinking Responsiblity in Science and Technology (Vol. RoboLaw series; 3, pp. 25-36). Pisa: Pisa University Press.

Musk, E. (2016, 15.7.2017) Elon Musk Says Artificial Intelligence Is the 'Greatest Risk We Face as a Civilization'/Interviewer: D. Z. Morris. Fortune.com, Fortune Magazine.

Negroponte, N. (1995). Being Digital. New York: Alfred A. Knopf.

Nida-Rümelin, J. (2001). Strukturelle Rationalität. Stuttgart: Reclam.

Nida-Rümelin, J. (2005). Über menschliche Freiheit. Stuttgart: Reclam.

Nida-Rümelin, J. (2011). Verantwortung. Stuttgart: Reclam.

Nida-Rümelin, J. (2014). On the concept of responsibility. In F. Battaglia, N. Mukerji, & J. Nida-Rümelin (Eds.), Rethinking Responsiblity in Science and Technology (Vol. RoboLaw series; 3, pp. 13-24). Pisa: Pisa University Press.

Nida-Rümelin, J., & Singer, W. (2006, 21.01.2006) Gehirnforscher sind doch keine Unmenschen" - "Aber vielleicht leiden sie an Schizophrenie?" - Julian Nida-Rümelin und Wolf Singer: Geist contra Großhirn/Interviewer: B. Mauersberg & C. Pries. Frankfurter Rundschau Magazin.

Nida-Rümelin, J., & Singer, W. (2011). Über Bewusstsein und Freien Willen. In T. Bonhoeffer & P. Gruss (Eds.), Zukunft Gehirn (pp. 253-277). München: C.H.Beck.

Noe, A. (2010). Out of our heads. New York: Hill and Wang.

Noessel, C. (2017). Designing Agentive Technology: AI That Works for People. New York: Rosenfeld.

O’Neil, C. (2016). Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy. London: Penguin Random House.

Oracle. (2016). Oracle Gamification Guidelines. Retrieved from http://www.oracle.com/webfolder/ux/Applications/uxd/assets/sites/gamification/phases.html

Parker, S. (2017a, 10.11.2017). Gott weiß, was Facebook mit den Gehirnen unserer Kinder macht. Frankfurter Allgemeine Zeitung. Retrieved from http://www.faz.net/aktuell/wirtschaft/diginomics/sean-parker-ueber-facebooks-nutzer-manipulation-15286051.html

Parker, S. (2017b, 9.11.2017) Sean Parker: Facebook was designed to exploit human "vulnerability"/Interviewer: M. A. Wednesday. Axios.

Pasquale, F. (2015). the Algorithmic Self. The Hedgehog Review, 17 (1).

Passig, K. (2009). Standardsituation der Technologiekritik. Merkur, 727, 1144-1150.

Penrose, R. (2009). Computerdenken. Die Debatte um künstliche Intelligenz. Bewußtsein und die Gesetze der Physik. Heidelberg: Spektrum Verlag.

Platon. (1979). Phaidros oder Vom Schönen. übertragen und eingeleitet von Kurt Hildebrandt (K. Hildebrandt, Trans.) Reclams Universal-Bibliothek 5789 (pp. 33). Stuttgart: PHILIPP RECLAM JUN.

Potvin, R. (2015). Why Google Stores Billions of Lines of Code in a Single Repository. DevTools@Scale.

Prinz, W. (2013). Selbst im Spiegel. Berlin: Suhrkamp.

Reigeluth, T. B. (2014). Why data is not enough: Digital traces as control of self and self-control. Surveillance & Society, 12 (2), 243-254.

Rid, T. (2016). Maschinendämmerung. Eine kurze Geschichte der Kybernetik. Berlin: Ulstein.

Rifkin, J. (2014). The Zero Marginal Cost Society. Palgrave: Macmillan.

Rosenberg, D. (2013). Data Before the Fact. In L. Gitelman (Ed.), “Raw Data” Is an Oxymoron. Cambridge, MA: MIT Press.

Ross, N., & Tweedie, N. (2012, 28.4.2012). Air France Flight 447: 'Damn it, we’re going to crash’. The Telegraph.

Roth, G. (2003). Fühlen, Denken, Handeln. Frankfurt am Main: Suhrkamp.

Russel, S., & Norvig, P. (2012). Künstliche Intelligenz. Ein moderner Ansatz (2.Auflage ed.). München: Pearson Education.

Saval, N. (2014, 22.4.2014). The Secret History of Life Hacking. PacificStandard. Retrieved from https://psmag.com/economics/the-secret-history-of-life-hacking-self-optimization-78748

Schade, O., Scheithauer, G., & Scheler, S. (2017). 99 Bottles of Beer - one program in 1500 variations. Retrieved from http://www.99-bottles-of-beer.net/

Schlieter, K. (2015). Die Herrschaftsformel: Westend Verlag.

Schlosser, A. (2003). Experiencing products in a virtual world: the role of goals and imagery in influencing attitudes versus intentions. Journal of Consumer Research, 30, 377-383.

Schlosser, A. (2006). Learning through virtual product experience: the role of imagery on true versus false memories. Journal of Consumer Research, 33, 377-383.

Searle, J. R. (2006). Social ontology: Some basic principles. Anthropological Theory, 6 (1), 12-29. doi:10.1177/1463499606061731

Searle, J. R. (2007). John Searle. Talks at Google. Authors@Google.

Sedgewick, R., & Wayne, K. (2011). algorithms (4th edition ed.). New-York: Addison-Wesley.

Simon, H. A. (1959). Theories of decision making in economics and behavioural science. American Economic Review., 49 (3), 253-283.

Skinner, B. F. (2014). Contingencies of Reinforcement: A theoretical analysis (J. S. Vargas Ed. Vol. Book 3): B.F. Skinner Foundation.

Sparrow, B., Liu, J., & Wegner, D. M. (2011). Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips. Science, 333 (6043), 776-778. doi:10.1126/science.1207745

Sparrow, J. (2014). Soylent, Neoliberalism and the Politics of Life Hacking. Retrieved from counterpunch.org/2014/05/19/solyent-neoliberalism-and-the-politics-of-life-hacking/

Suchman, L., & Sharkey, N. (2013). Wishful Mnemonics and Autonomous Killing Machines. AISB Quaterly, 136 (May), 14-22.

Sunnstein, C. R. (2015). Nudging and Choice Architecture: Ethical Considerations. SSRN Electronic Journal.

Thaler, R. H., & Sunnstein, C. R. (2009). Nudge. Improving Decisions about Health, Wealth and Happiness. London: Penguin.

Thrift, N., & French, S. (2002). The automatic production of space. Transactions of the Institute of British Geographers, 27 (3), 309-335. doi:10.1111/1475-5661.00057

Turing, A. (1936). On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42 (2), 230-265.

Turner, F. (2006). From Counterculture to Cyberculture: Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism. Chicago: University of Chicago Press.

van Nimwegen, C. (2008). The paradox of the guided user: assistance can be counter-effective. (PhD), Universiteit Utrecht, Utrecht.

Vinge, V. (1993). The Coming Technological Singularity: How to Survive in the Post-Human Era. Paper presented at the VISION-21 Symposium sponsored by NASA Lewis Research Center, Ohio Aerospace Institute.

VisuAlgo. (2017). Retrieved from https://visualgo.net/de

vom Brocke, J., Riedl, R., & Léger, P. M. (2013). Application Strategies for Neuroscience in Information Systems Design Science Research. Journal of Computer Information Systems (53), 1-13.

Wajcman, J. (2017). Automation: is it really different this time? The British Journal of Sociology, 68 (1), 119-127.

Ward, A. F., Duke, K., Gneezy, A., & Bos, M. W. (2017). Brain Drain: The Mere Presence of One’s Own Smartphone Reduces Available Cognitive Capacity. Journal of the Association for Consumer Research, 2 Number 2 April 2017 (The Consumer in a connected world), 140-154.

Wegner, D. M., & Ward, A. F. (2013). The Internet Has Become the External Hard Drive for Our Memories. Scientific American, Dec 1, 2013.

Weinmann, M., Schneider, C., & vom Brocke, J. (2015). Digital Nudging. Business & Information Systems Engineering, 58 (6), 433-436.

Weiser, M. (1999). The Origins of Ubiquitous Computing Research at PARC in the Late 1980s. IBM Systems Journal, 38 (no. 4), 693-696.

Weizenbaum, J. (1976). Computer Power and Human Reason: From Judgment to Calculation. New York: W.H.Freeman.

Whitson, J. (2013). Gaming the quantified self. Surveillance & Society, Futures 11(1/2) (Special Issue on Surveillance).

Wikipedia. (2017a). Wikipedia Retrieved 06.10.2017 https://de.wikipedia.org/wiki/Software Wikipedia. (2017b). Algorithmus. Wikipedia Retrieved 2.11.2017 https://de.wikipedia.org/wiki/Algorithmus Wimmer, M. (2014). Antihumanismus, Transhumanismus, Posthumanismus: Bildung nach ihrem Ende Menschenverbesserung - Transhumanismus. Jahrbuch für Pädagogik 2014 (pp. 237-265). Frankfurt am Main: Lang.

Yeomans, M., Shah, A. K., Mullainathan, S., & Kleinberg, J. (2017). Making Sense of Recommendations. Paper presented at the AOM Annual Meeting, Atlanta.

Ziewitz, M. (2016). Governing Algorithms: Myth, Mess, and Methods. Science, Technology & Human Values, 41(1), 3-16.

Zweig, K. (2016). 1. Arbeitspapier: Was ist ein Algorithmus? Retrieved from Berlin: https://algorithmwatch.org/de/arbeitspapier-was-ist-ein-algorithmus/

Zweig, K. (2017, 21.6.2017). Die Macht der Algorithmen. Paper presented at the Autonome Systeme. Wie intelligente Maschinen uns verändern. Jahrestagung des deutschen Ethikrates, Berlin.

[...]


[1] Damit sind die Konzerne Amazon, Apple, Alphabet, Facebook und Microsoft gemeint in Anlehnung an die Marvel Comic Charaktere der „Frightful Four“. Die Bezeichnung wurde von Farhad Manjoo in der New York Times geprägt. (Manjoo, 2017)

[2] vgl. dazu (Bostrom, 2016; Carr, 2015; Hofstetter, 2015; Lobo, 2014; Rid, 2016; Schlieter, 2015)

[3] Elon Musk hat mittlerweile präzisiert, dass er nicht glaubt, dass Künstliche Intelligenzen einen eigenen Willen entwickeln werden, dass sie aber von Menschen durchaus auch unabsichtlich so eingesetzt werden könnten, dass die Folgen gravierend seien.(Hackett, 2016)

[4] Anfang der 1970er(!) Jahre erlebte die Welt die erste Softwarekrise, erstmals war Software teurer als die Hardware, Großprojekte scheiterten. Die US Regierung verlangte von IBM auf ihren Rechnungen Programmcode als „Software“ getrennt aufzuführen und setzte damit einen Quasi-Standard.

[5] „Logiciel“ im Französischen weist stärker auf den Ursprung hin - eine Wortschöpfung aus „logique und materiel, qui concerne les aspects logiques d’un ordinateur ou d’un système de traitement de l’ information , par opposition aux aspects matériels .“ (Académie française)

[6] Das Paradebeispiel dafür ist wohl das Programm „Word“ mit dem ich gerade diese Arbeit schreibe und das sich zu einem Paradigma der „Textverarbeitung“ entwickelt hat, mit Funktionen, die weit über eine elektronische Schreibmaschine hinausgehen.

[7] Die Entwicklung der Kybernetik als Basis für die weite Verbreitung und Popularität von Software zur Lösung auch von nicht-technischen Problemstellungen wird von vielen Autoren beschrieben, zum Beispiel von Michael Wimmer (Wimmer, 2014). Eine sehr detaillierte, journalistische Schilderung findet sich bei Thomas Rid (Rid, 2016)

[8] in erste Linie sind dies JavaScript, Python, SQL, PHP, Ruby, Perl und deren Derivate

[9] Wer die ganze Bandbreite spielerisch erleben will, wird auf der deutschen Seite „99 Bottles of Beer“ fündig. Hier wird auf 1500 unterschiedliche Programmierarten der Text des Liedes „99 bottles of beer“ ausgegeben. (Schade, Scheithauer, & Scheler, 2017)

[10] ein Beispiel dafür ist Facebook mit seiner Weiterentwicklung von php, dem sogenannten „Hack“ auf hacklang.org. (Google, 2017)

[11] Ob das viel oder wenig ist, sei dahingestellt. Das deutsche Bürgerliche Gesetzbuch hat 184.000 Wörter, bei einer durchschnittlichen Satzlänge von 23 Wörtern in Gesetzestexten ergibt das also 8000 Sätze an „Verhaltensanweisungen“. Die US-amerikanische Verfassung kommt mit 4.400 Wörtern aus.

[12] was als Kunde nervig ist, denn mit Software erwirbt man immer auch ein Stück Hoffnung auf die Zukunftsfähigkeit. Daher ist die Entscheidung nicht nur aufgrund der aktuellen Güte der Software zu treffen, sondern auch in der Einschätzung der Fähigkeiten der Firma, die Software up-to-date zu halten in Bezug auf Sicherheit und Anpassung an die Anforderungen und die Fähigkeit, die versprochenen Features tatsächlich umzusetzen.

[13] Diese Betrachtungsweise legt eine Hierarchie nahe, vergleichbar mit den Schichten unseres Gehirns und Entsprechungen bei Tieren: Der sogenannte Hardware-Abstraction Layer entspräche dem Nervensystem und diese wiederum Einzellern im Tierreich. Das Stammhirn enthalte soetwas wie ein Betriebssystem und ermögliche Funktionen, die auch frühe Mehrzeller beherrschen. Erlernte Fähigkeiten wie Autofahren, Radfahren, etc. seien wie klassische Anwendungsprogramme eben für begrenzte Problemstellungen. Künstliche Intelligenz fände seine Entsprechung in der Großhirnrinde. (Nguyen, 2003 in Kitchin & Dodge, 2011)

[14] Als Analogie dazu ist es für den Begriff ‚Oper‘ oder ‚Zauberflöte‘ nicht begriffsbestimmend, ob sie im Theater aufgeführt, über Radio/TV übertragen oder als CD verkauft oder gehört wird. (Ludewig & Lichter, 2007: 34)

[15] Obwohl dies natürlich im begrenzten Maße möglich ist und als Methode angewendet wird um Verschlüsselung auszuhebeln.

[16] Zur ausgedehnten Debatte darüber verweise ich unter anderem auf die Beiträge von Sir Roger Penrose (Penrose, 2009), John Searle (Searle, 2006), Daniel Dennett (Dennett, 2013) oder Alva Noe (Noe, 2010)

[17] Kitchin und Dodge benutzen den Begriff ähnlich wie „Daten“ in diesem Zusammenhang. (Kitchin & Dodge, 2011)

[18] Im Zusammenhang mit der Softwarethematik sind u.a. die Beiträge John Searle (Searle, 2006), Alva Noe (Noe, 2010), Daniel Dennett (Dennett, 2013), Sir Roger Penrose (Penrose, 2009) und Thomas Metzinger (Metzinger, 2004) zu erwähnen.

[19] Auch wenn der Fokus auf der Software liegt, sollte nicht vergessen werden, dass Digitalisierung ein immens materieller Prozess ist - auch wenn die Chips immer kleiner werden und die Architekturen und Materialien unter dem Druck von Kosten, Miniaturisierung und Energieverbrauch sich verändern, so sind sie doch die materielle Basis für die Digitale Welt - Mobilfunkmasten, Überseeleitungen, Router und riesige Cloudfarmen sind alles andere als immateriell. Vom Internet der Dinge und Smartphones ganz zu schweigen.

[20] Schon Leibniz dachte, dass sich alles berechnen ließe und war im 17. Jahrhundert auf das Binärsystem gestoßen beziehungsweise hatte es beschrieben. Gleichzeitig war er aber auch der Erfinder der Infinitesimalrechnung, die die Welt als glatte Struktur ohne Stufen und Sprünge darstellt. (Hürter, 2016)

[21] https://de.wikipedia.org/wiki/DNA-Computer

[22] warum Software „läuft“ konnte ich leider nicht herausfinden

[23] Der Begriff soll auf den Namen eines arabischen Astronomen im 9. Jahrhundert und dessen Verballhornung im Laufe der Zeit zurückgehen.(Zweig, 2016)

[24] Sortieren oder Suchen sind weitere Anwendungsgruppen. Sehr anschauliche Beispiele auch für Nicht-Mathematiker gibt die Seite visualgo.net, auf der auch selbst Aufgaben algorithmisch gelöst werden können. (VisuAlgo, 2017)

[25] Diese Bezeichnung trägt bereits eine Erhöhung und ein klassisches Technologieversprechen in sich, nämlich das der Unsterblichkeit und den Mythos des schöpfenden Menschen: Eingefroren wie eine befruchtete Eizelle warte der Algorithmus nur auf seine Erweckung, um dann durch die rastlose - noch dazu von Zeit und Raum unabhängige (!) - Ausführung der Idee seines Schöpfers diesem ewiges Leben zu verschaffen. Mit diesem kurzen Interpretationsversuch wollte ich nur bereits an dieser Stelle aufzeigen, dass die Diskussion um Algorithmen und Software viele Elemente moderner Mythologie und auch Ideologie immer in sich trägt und bei weitem nicht so pragmatisch verläuft, wie es manchmal suggeriert wird.

[26] Als Beispiel wird hier immer wieder das Kürzeste-Wege-Beispiel genannt: Hier muss genau festgelegt werden, welche Art von Daten genutzt werden kann (aktuelle Verkehrsdichte, Kapazitäten der Straßen, Länge der Straßen, aktuelle Baustellen) und wie optimiert werden soll: denkbar ist die Minimierung der Gesamtlänge oder die Minimierung der erwarteten Fahrtzeit. Weitere Optimierungskriterien könnten sein: möglichst schöne Strecke, möglichst wenig Abbiegungen oder Vermeiden von Autobahnen etc. (Zweig, 2016)

[27] Ich verwende aufgrund der leichteren Lesbarkeit „Benutzer“ stellvertretend für „Benutzer und Benutzerinnen“. Dies gilt ebenso für verwendete Berufsbezeichnungen wie „Designer“ oder „Programmierer“.

[28] unter Software-Bias werden die Vorurteile, Wertvorstellungen und Einstellungen der Programmierer und ihrer Umwelt, die in und mit der Software abgebildet werden, verstanden.

[29] Die Verbindung von zwei Leitwissenschaften – der Informatik und der Neurowissenschaften - befeuert die Spekulation über die Möglichkeiten und Gefahren einer Künstlichen Intelligenz. Diese sind nicht Thema der Arbeit.

[30] umstrittene Beispiele dafür sind die Terrorüberwachung und das „predictive policing“: Soll die Überwachung wirklich jeden potentiellen Verbrecher erkennen und dabei auch viele unbescholtene ins Visier oder vielleicht sogar in Präventivhaft nehmen oder nur dann einschreiten, wenn die Wahrscheinlichkeit sehr hoch und niemand Unbescholtener behelligt wird?

[31] Ich verweise auf Weizenbaums ELIZA Versuchsanordnung (Weizenbaum, 1976)

[32] vgl. dazu Wolfgang Prinz, der Planen als ein Schlüsselmerkmal von Agentivität ansieht und sie als Fähigkeit betrachtet, „geeignete Mittel zur Erreichung gegebener Ziele auszuführen“ (Prinz, 2013: 187)

[33] Chris Noessel trifft eine meiner Meinung nach gut anwendbare Einteilung: Künstliche Allgemeine Intelligenz, Künstliche Superintelligenz (in diese Kategorie fiele die „Singularity“ (Vinge, 1993)) und Künstliche Enge Intelligenz. Bei letzterer unterscheidet er in Assistenten und Agenten, dazu später weiter unten.(Noessel, 2017)

[34] Er fügt dann noch an: “We’d have to place a whole lot of trust in the people and companies running the system.” (Weiser, 1999)

[35] Obwohl Software mittlerweile oft kostenlos ist, ist es die Nutzung in einer Gesamtbetrachtung nicht: Computer, Smartphones, Internetzugang und Strom als Mindestvoraussetzungen sind nicht für alle Menschen leistbar und stehen auch nicht überall zur Verfügung. Diesen Exklusionsaspekt der Digitalisierung möchte ich nur der Vollständigkeit halber erwähnen. Der physische Aspekt der Softwarenutzung ist eine große Herausforderung für die Expansion von Unternehmen wie Facebook und Google, dessen Überwindung stellt den Hintergrund für deren Projekte für Gratishardware und –internetzugang dar.

[36] in den USA ist der Zukauf von Profildaten von sogenannten Datenbrokern legal und Usus, wie diese ihre Daten generieren und auf Basis welcher Modelle diese bereits erste Schlüsse zur Bonität, Freundeskreis, politischer Einstellung, etc. getroffen haben unterliegt meist dem Firmengeheimnis. (Carr, 2015; Christl & Spiekermann, 2016)

[37] Untersuchungen etwa an Richtern und Lehrern. (Meier, 2017)

[38] 70 Prozent aller Finanztransaktionen werden von Algorithmen gesteuert, schätzt Mark Buchanan in seinem Artikel „Physics in finance: Trading at the speed of light“ (Buchanan, 2015)

[39] A typical credit report contains information about a consumer’s payment and debt history as provided by banks, lenders, collection agencies, and other institutions; this includes, for in-stance, the number and type of accounts, the dates they were opened, and information about bankruptcies, liens, and judgments. Consumer reporting agencies in turn provide these reports to creditors and potential creditors, including credit card issuers, car loan lenders, mort-gage lenders, but also to retailers, utility companies, mobile phone service providers, collection agencies, and any entities with a court order. Experian, the world’s largest credit reporting agency, and, next to Equifax and TransUnion, one of the three major agencies in the United States, has credit data on 918 million people.(Christl & Spiekermann, 2016: 57)

[40] Im Falle des Lifehackings ist es die Sisyphus-Arbeit des Zeitgewinnes. Sparrow beschreibt lifehacking as ‘freeing yourself up for whatever you’d rather be doing’(J. Sparrow, 2014). Das Ziel wird nie erreicht und die Produktivität zu einem Gut an sich. Nick Saval verortet den Zusammenhang der technologisch getriebenen Lifehacking Bewegung in Silicon Valley mit dem “Scientific Management” es frühen 20. Jahrhunderts.(Saval, 2014) Mit dem Unterschied das Taylor das Leben anderer Menschen “gehackt” hat, während es heute auf individueller, freiwilliger Basis seinen Erfolg feiert. Sparrow spricht von einer Internalisierung von Management Praktiken durch die Gemanagten selbst. Saval nennt es “Self-Taylorizing”. (Saval, 2014)

[41] Die Gesundheitsplattform dacadoo nennt zum Beispiel den von ihr entwickelten Gesundheitsindex „den eigenen Aktienkurs Ihrer Gesundheit“ (https://info.dacadoo.com/de/; abgerufen am 11.11.2017)

[42] Für Alexander Bard und Jan Söderquist ist Aufmerksamkeit überhaupt eine Art Währung, die Geld ersetzen werde und die in den Scores übernommen würde (Bard & Söderqvist, 2012)

[43] China möchte ein staatliches „social credit system“ 2020 verpflichtend für alle Bürger einführen.

[44] Ein Beispiel aus der Politik ist die italienische 5Stelle Bewegung des ehemaligen Komikers Beppe Grillo. Insbesondere wenn man bedenkt, dass das politische Konzept der 5Stelle von dem im Vorjahr verstorbenen ehemaligen Olivetti-Manager Gianroberto Casaleggio stammt, der manchmal als der „italienische Arm der kalifornischen Cyberkultur“ (Assheuer, 2017) bezeichnet wird.

[45] Eine normative Beurteilung Maße ich mir auch hier nicht an, Beschränkungen können zu außergewöhnlichen künstlerischen Leistungen führen, wie Haikus beweisen, und Normungen ermöglichen erst gewisse Formen der Kommunikation wie die der Schrift [46] Dass mit der Verbreitung von Software und zentral agierenden Algorithmen auch die Moralvorstellung der Hersteller und ihrer Kultur mitverbreitet werden, habe ich bereits argumentiert. War im 20.Jahrhundert CocaCola die Ikone des American Way of Life, so sind es heute Google und Facebook.

[47] Daher auch der immer stärkere Druck auf die Verwendung des echten Namens, die meisten Netzwerke akzeptieren keine fake-Profile mehr in ihren AGBs und versuchen auch immer wieder, dies durchzusetzen. Dabei ist die Angabe des Namens nicht mehr nötig, die Informationen reichen aus für Facebook um das selbst zu ergänzen.

[48] Zur detaillierten Beschreibung des Datensammelns verweise ich auf „Networks of Control. A Report on Corporate Surveillance, Digital Tracking, Big Data & Privacy” (Christl & Spiekermann, 2016)

[49] Statistical correlations describe the “relation existing between phenomena or things or between mathematical or statistical variables which tend to vary, be associated, or occur together in a way not expected on the basis of chance alone”. But “correlation does not imply causation”. If a statistical correlation is found between two variables and it is assumed to be a causal relationship by mistake it is called a spurious correlation. (Beebee, Hitchcock, & Menzies, 2012)

[50] Schlimm genug, würde ich wegen meiner Einstellung bestimmten Themen gegenüber mit Schwierigkeiten konfrontiert werden, was aber wenn es sich um einen Fehler im Berechnungsprozess handelt und ich in den falschen Cluster falle? Bei der Vernetzung der Datenbroker kann das beinahe unmittelbar negative Folgen haben. Und aufgrund der Komplexität der Algorithmen ist derjenige Input, der unkorrekterweise mein Scoring beeinflusst hat, möglicherweise nicht mehr zu lokalisieren und zu korrigieren.

Dies würde in den meisten Fällen einen humanen Eingriff und forensische Nachforschungen erfordern, die kaum eine der vielen involvierten Parteien auf sich nehmen würde.

[51] vgl. dazu einen exzellenten Beitrag von Lucy Suchman und Noel Sharkey (Suchman & Sharkey, 2013)

[52] Die Vorstellung, dass wir heute 24 Stunden mit unseren Smartphones fast verwachsen sind, wir mit persönlichen, digitalen Assistenten wie mit anwesenden Menschen sprechen, dass Sensoren und Kameras uns rund um die Uhr überwachen und beobachten, dass jeder Benutzer von Social Media mindestens einen eigenen Fernsehkanal betreibt, war in den 1960er in der Science-Fiction Literatur bereits vorhanden. Es scheint mir plausibler zu behaupten, dass in den letzten drei Jahrzehnten die Vorstellungen der Science-Fiction Literatur realisiert wurden, als dass deren Autoren oder auch McLuhan die die Entwicklung vorhergesehen hätten, als Prozess der Co-Kreation gewissermaßen. Der Einfluss der Science Fiction ist noch heute in der Software- und Hightechbranche sehr hoch (Greenfield, 2017)

[53] Physische Roboter stellen in der Diskussion meist eine eigene Kategorie dar und ihre multivarianten Erscheinungsformen beeinflussen unsere Wahrnehmung von ihnen und ob wir sie als lebende Wesen empfinden oder nicht. Visuelle, haptische und akustische Parameter sind wesentliche Aspekte für die Akzeptanz durch Menschen. Es lässt sich jedoch argumentieren, dass Smartphones bereits sehr wohl als Roboter bezeichnet werden können, wenn die Definition sich darauf bezieht, dass sie uns Arbeit abnehmen. Die übliche Definition beinhaltet die Fähigkeit des Roboters, physische Dinge handhaben zu können. (https://ifr.org; 13.11.2017)

[54] Desktop Systeme mit Bildschirm und Maus oder Touchpad erfordern eine weit höhere Abstraktionsleistung und im Prinzip die Erfahrung mit einem „echten“ Schreibtisch.

[55] Airbus Cockpits sind mit einem sogenannten Sidestick ausgestattet, der keinerlei haptisches Feedback bietet - die Auswirkungen der Steuerung durch den Piloten ist nur auf den Instrumenten abzulesen. Das entspricht der Logik und der Realität der technischen Abläufe: Die Sensoren des Sidestick übersetzen die Bewegung des Piloten in digitale Steuerimpulse, die vom Bordcomputer interpretiert werden und an die Aktoren in den Motoren und Klappen weitergegeben werden. Dazwischen liegt keine mechanische Verbindung, deren Widerstand der Pilot spüren könnte. Im Gegensatz dazu hat sich Boeing entschieden, einen zweiten digitalen Steuerungskreis einzubauen, der die ausgeführten Aktionen der Aktoren wiederum an den Steuerknüppel im Cockpit zurückleitet, der dem Piloten das Erlebnis einer direkten mechanischen Rückmeldung simuliert. bei Boeing spürt auch der Kopilot die Steuerungsbewegungen des Piloten in seinem traditionell geformten Steuerknüppel, bei Airbus muss auch der Kopilot immer die Anzeigen im Blick behalten und hat keinerlei direkte Informationen, welche Bewegungen der Kapitän mit seinem Joystick ausführt. Viele Piloten bevorzugen die Boeing Variante, weil sie einfacher und „intuitiver“ zu fliegen sei in schwierigen Situationen, andere lehnen sie ab, weil sie zu anstrengend sei in Standardsituationen. Die körperliche Rückmeldung befreit den Piloten von der kognitiven Aufgabe, die Instrumentenanzeige zu interpretieren und erlaubt ihm, sich auf Entscheidungen zu konzentrieren. Ob die kognitive Überforderung und die fehlende physische Rückmeldung an Pilot und Kopilot zum Absturz der Air France Maschine 447 in 2009 über dem Atlantik geführt hat, ist ungeklärt, wird in Luftfahrtkreisen aber diskutiert. ((BEA, 2012; Carr, 2015; Ross & Tweedie, 2012))

[56] Sprachlich eine bemerkenswerte Koinzidenz - verweisen die lateinischen Wurzeln des Wortes Manipulation doch auf „eine Handvoll” - und das ist genau das Idealmaß für das Format eines Smartphones.

[57] eine Studie an der University of Arkansas in Monticello behauptet, dass die Leistungen von Studenten bei Prüfungen um eine Note besser seien, wenn die Handies nicht in den Raum mitgenommen werden durften als wenn die Geräte zwar abgeschaltet, aber in der Jackentasche oder Tasche verstaut waren. Am schlechtesten seien die Resultate gewesen bei derjenigen Gruppe, die die Smartphones abgeschaltet direkt vor sich auf dem Tisch liegen hatten. (Beland & Murphy, 2016) Für ähnliche Ergebnisse vgl. auch (Ward, Duke, Gneezy, & Bos, 2017: 140)

[58] Das deutsche Wort „Anstupsen“ wird kaum verwendet, auch im Deutschen wird der Begriff des „nudging“ als Synonym für die Anwendung von Prinzipien des libertären Paternalismus verwendet. Geprägt haben den Begriff Cass Sunstein und der Nobelpreisträger Richard Thaler. (Thaler & Sunnstein, 2009)

[59] Bestimmte Skill-Sets (zum Beispiel die Erstellung eines Kuchens von Grund auf oder die anfängliche Konfiguration der Komponenten eines Computerprogramms) werden ersetzt durch viel spezialisiertere und weniger detaillierte Wissensstrukturen (mit einem Mix oder einem automatisierten Installationsprogramm).

[60] Vgl. 58

[61] besser ist hier der englische Begriff des Bias, weil er klarer eine Tendenz und nicht bereits eine vorgefasste Beurteilung zum Ausdruck bringt

[62] Als scheinbar contra-intuitives Beispiel erhöht die Limitierung der Anzahl der Produkte, die ein Kunden in einem Geschäft kaufen kann, die tatsächliche Anzahl der verkauften Artikel. Die Obergrenze fungiert als Anker und die Kunden nehmen eine nur unzureichende Korrektur nach unten vor. (Wansink et al., 1998)

[63] Eine Umrechnung auf die Währung vor dem Euro ist ein klassischer Nudge um zu hohe Preise zu suggerieren.

[64] Zeitdruck („das Angebot gilt nur mehr 5 Minuten“), simulierte Verknappung („nur mehr 4 Sitzplätze erhältlich“ oder „Fünf andere Benutzer evaluieren gerade gleichzeitig mit Ihnen das Angebot“) und scheinbar objektive Beratung („Die Erfahrung hat gezeigt, dass der Preis für diesen Flug in den nächsten 5 Tagen ansteigen wird“) sind ein Lehrbuchanwendungen für digital nudging. In beinahe allen Fällen kann der Benutzer auch anders entscheiden, objektiv hat er dadurch keinen Nachteil, sondern eher Vorteile, der Aufwand ist allerdings hoch und wie die Auswertungen des Userverhaltens zeigt, sind die eingesetzten Mechanismen durchaus zum Vorteil für die Betreiber.

[65] Ein gängiger Mechanismus ist es, die Verwendung von Standardwerten, der die Tendenz der Menschen nutzt, Veränderungen aufgrund des Status Quo Bias und des Inertia-Bias (Trägheit) zu verhindern (Kahneman et al. 1991; Santos 2011); In einem digitalen Kontext klicken Personen jedoch häufig die Voreinstellung weg (Benartzi und Lehrer 2015).

[66] die mir bisher extremste Variante stellt das Elektroschock Armband „Pavlok“ dar. Promotet wird er um schlechte Gewohnheiten abzugewöhnen, man könne sich aber auch Gutes angewöhnen verrät die Einführung in der App. Das Armband kann Stromschläge verteilen, wenn zulange gesurft wird, die falschen Seiten betrachtet werden, zu spät aufgestanden wird, zu lange geredet wird etc.

[67] Die verwendete Terminologie ist in diesem Bereich ausschließlich Englisch, Übersetzung existieren nicht. Ich werde sie daher auf Englisch wiedergeben.

[68] Externe Trigger sind zum Beispiel Benachrichtigungen oder Status Updates, die uns zum Smartphone greifen lassen. Externe Trigger seien aber nicht gut, um wirklich tief zu wirken, dazu seien Interne Trigger nötig, am besten negative Emotionen wie Langeweile, Stress, Ärger oder Einsamkeit. Denn dann schauen wir gerne auf Facebook, überprüfen unsere Nachrichteneingänge oder öffnen ein Spiel.

[69] Tatsächlich werden weibliche Stimmen und Namen in Europa und den USA bevorzugt. Das Vertrauen ist höher, wir erwarten mehr Empathie und begegnen ihnen tendenziell weniger aggressiv und respektvoller

[70] Schon das Smartphone ist vergleichsweise umständlich: zur Hand nehmen, entsperren, die App starten oder auf die Benachrichtigung klicken - das sind schon 2 Schritte mehr.

Dass die Benutzung von Amazons Assistentin in über 45% auch zu einem Kauf bei Amazon führt, obwohl die Benutzer ursprünglich das nicht wollten, zeigt die Wirksamkeit der Strategie.

[71] Das ganze Modell baut auf dem behavioristischen Modell Skinners auf, erweitert um Ergebnisse der Neurobiologie. Die Sichtweise, so die Kritik, auf den Menschen sei die einer trivialen Maschine und würde den Menschen wie eine Laborratte behandeln.

[72] Oft mit dem Hintergrund, dass Service zu verbessern für die nächste Runde, weil die Daten kompletter sind, neue Freunde eingeladen wurden etc. Im Fall von Alexa wird durch jede Interaktion die Erkennung besser und das digital Profil des Users kompletter.

[73] Wer sich gefragt hat, welchen Zweck eine sogenannte Smartwatch erfüllen könnte, merkt sehr bald, dass damit der körperliche Zustand des Benutzers, seine Bewegungen und physischen Gewohnheiten und daraus abgeleitet Rückschlüsse auf seinen emotionalen Zustand erfasst werden können. Herzschlag, Hauttemperatur und Hautleitwert können viele Modelle lesen, damit sie auch als Fitnessmessgerät dienen können. Die Mustererkennung aus den Bewegungen des Handgelenks ist mittlerweile so gut, dass nicht nur erkannt wird, ob jemand steht, sitzt oder liegt, sondern auch ob autogefahren wird oder mit dem Fahrrad unterwegs. Auch handwerkliche Tätigkeiten wie kochen, bügeln und putzen werden von einigen Modellen erkannt. Eingebaute GPS-Empfänger oder die Verbindung mit den Smartphone Daten ergeben eine sehr dichte digitale Repräsentation des Lebens einer Person

[74] Alle Anbieter von Kommunikationslösungen für Call Center bieten mittlerweile Emotionserkennung. Als Beispiel: https://www.aspect.com/solutions/workforce-optimization/analytics-for-speech-and-text/

[75] Ein kanadisches Forscherteam konnte schon 2011 mit einer Trefferquote von 88% sechs Gemütszustände aus der Schreibdynamik erkennen (Confidence, Hesitancy, Nervousness, Relaxation, Sadness and Tirade)(Epp, Lippold, & Madryk, 2011)

[76] Die Beispiele sind aus einem Ratgeber von Oracle für das Gelingen von Gamification Projekten. (Oracle, 2016) Oracle schlägt die Verwendung von Game-Design-Mechanismen für "größere Ziele und Belohnungszustände" vor und um „längerfristige Engagements" auszulösen. Diese Mechanismen beinhalten sogenannte Quests, Missionen und Herausforderungen (Challenges) (dabei geht es um die Vervollständigung einer Reihe von Aktionen, die einer bestimmten Reihenfolge folgen), Wettbewerbe (die auf Konkurrenz und Rivalität aufbauen, um die Nutzer zu motivieren, indem sie gegeneinander antreten) und virtuelle Ökonomien (Nutzern die Möglichkeit zu geben ihre Erfolge zu handeln und zu tauschen, in dem sie ihre erworbenen Punkte gegen Services und Produkte eintauschen können)

[77] Als Beispiel dient der Flug 604 Egyptian Airways, bei dem der Pilot explizit gegen die Steuerungssoftware gehandelt hat.

[78] Es macht einen Unterschied, ob die Software meinen Job machen soll und ob ich meine, dass diese es besser als ich kann oder ob ich mich auf die Empfehlung einer Maschine für eine Aufgabe einlasse. Experten lehnen algorithmischen Rat in ihrer Domäne wesentlich stärker ab als Laien.

[79] Weitere Beispiele sind Verwechslung des Beraters mit dem Rat: Der Arzt wird bevorzugt, weil er uns als Mensch sympathisch und kompetent erscheint, umgekehrt vertrauen Menschen auf „Experten-Systeme“ explizit wegen des Experten-Labels. Wiederholung der Interaktion: Es macht einen Unterschied, ob die Menschen vertraut sind mit dem Algorithmus oder das erste Mal in Kontakt kommen. (Logg, 2017)

[80] “Philosophical work on theory of mind considers how people infer intentionality and beliefs in other people and even in other non-humans, such as anthropomorphization of inanimate objects” (Dennett, 1987)

[81] Lanier erweitert den Begriff des Computationalism auf eine ganze Kultur der Software- und Technologieaffinität insbesonders im Silicon Valley.

[82] Eine klassische Kritik ist das Gedankenexperiment des Chinese Room von John Searle. https://en.wikipedia.org/wiki/Chinese_room,Searle, John (2009),"Chinese room argument", Scholarpedia, 4 (8): 3100, doi:10.4249/scholarpedia.3100

[83] Auch wenn immer die Rede von der Cloud ist, so ist diese nicht ethereal, sondern benutzt natürlich physische Hardware in Rechenzentren

[84] Für die meisten KI Forscher ist es völlig unerheblich, ob es sich um eine Simulation oder um ein echtes Bewusstsein handelt (Starke oder schwache KI, nicht zu verwechseln mit der Starken AI von Ray Kurzweil, der damit jede Form meint, die leistungsfähiger als der Mensch ist), im Wettlauf der Forschung geht es darum, leistungsfähige Programme zu entwickeln, die intelligent agieren können. Pragmatisch gesehen könnte es sich hier in erster Linie um einen akademischen Streit um des Kaisers Bart handeln, wie oft mit leichter Abschätzigkeit und Amüsement über philosophische Begriffsdefinitionen geurteilt wird, doch was wäre, wenn die Forschung nun doch „echte“ Intelligenz mit eigenen Ambitionen und Intention hervorbringt? Sozusagen als Abfallprodukt der Convenience AI von Alexa&Co?

[85] Julian Nida-Rümelin legt den Rahmen der rationalen Entscheidungstheorie als Grundlage für den Rationalitätsbegriff in seiner Beschreibung des Entscheidungsprozesses vgl. (Nida-Rümelin, 2001, 2005)

[86] Diese motivierenden Absichten können, aber müssen nicht auf die Maximierung des Nutzenerwartungswertes ausgerichtet sein. Es sind nicht die Absichten, die ich de facto habe im sinne mentaler Dispositionen und Einstellungen, sondern es ist die angemessene Abwägung von Gründen, die eine Entscheidung und die auf einer Entscheidung beruhende Handlung rational macht. (Nida-Rümelin, 2005: 55)

[87] [87] Die Idee des bewussten Vetos taucht auch in der Neurophysiologie und in der Psychologie auf - im Anschluss an die Versuche von Kühn und Brass wurde das Modell diskutiert, dass Entscheidungen zwar „unbewusst“ getroffen würden, diese Entscheidungen aber vor der Umsetzung in ein Handeln gewissermaßen zur „Prüfung“ ins Bewusstsein gespielt würden. Auch Kahnemanns Modell der beiden psychischen Systeme beinhaltet einen ähnlichen Mechanismus. (Metzinger, 2014)

[88] Bereits sehr niederschwellig könnte man das Instrumentalisierungsverbot von Kant in der Softwaredebatte einbringen. Sollte es stimmen, dass viele Apps in erster Linie Daten eines Menschen erzeugen und sein Verhalten dazu benutzen, diese zu generieren und weiterzuverkaufen, dann wäre hier ganz plakativ der Mensch wirklich zum Mittel gemacht.

[89] „Wir verlieren unsere geistige Autonomie immer dann, wenn ein bestimmter Teil unseres kognitiven Selbstmodells vorübergehend zusammenbricht – und die neuere Forschung zeigt, dass dies jedem von uns täglich viele hundert Male widerfährt. Wenn wir auf der Ebene des körperlichen Handelns so oft die Kontrolle verlieren würden wie auf der geistigen Ebene, dann würden wir, von außen betrachtet, sehr oft aussehen wie eine seltsame Mischung aus einer wachen Person und einem schlafwandelnden Zappelphilipp“ (Metzinger, 2014: 136)

[90] Die Liste der Kritiker ist lange, vgl. speziell auch Judy Wajcman „Automation. Is it really different this time?” (Wajcman, 2017)

[91] vgl. dazu Baudrillard: In Simulacra und Simulation postuliert er, dass die Virtualität und Realität verschmelzen. Wir seien so süchtig danach, die Welt immer perfekter zu kopieren, dass wir sie irgendwann einfach nicht mehr unterscheiden könnten, dann gebe es keine Trennung mehr und nur noch eine „Hyperrealität“. Der Weg dorthin führe über drei Stadien: Erst die Imitation, zum Beispiel eine Landkarte, gefolgt von der Produktion, damit meint er zum Beispiel die Fotografie. Ein Foto lässt sich gut vervielfältigen und verbreiten, verweist aber noch auf einen realen Gegenstand. Computer und Digitalisierung führen in die letzte Phase, die Simulation. Die Simulation verweist nicht mehr auf einen realen Gegenstand, sondern sie erzeugt eine eigene, neue Realität, die die alte verdrängt. (Baudrillard, 1981)

[92] Vgl. Frank Pasquale „The algorithmic self“ (Pasquale, 2015)

[93] Im Gegensatz zu den Mechanismen der repräsentativen Demokratie, die bewusst versucht, Geschwindigkeiten und Emotionen aus der Debatte zu nehmen, erreichen aktuelle Diskussionsplattformen im Internet aufgrund ihrer Struktur und ihres Designs das Gegenteil. Denkbar und machbar sind angepasstere Designs, die eine politische Deliberation eher ermöglichen.

[94] “The homogeneity of the Silicone Valley creators is a more dangerous threat to the future than any perceived robotic apocalypse. Too often these purveyors of the future have their backs to society, enchanted by technological promise and blind to the problems around them. It will require more than robots to ensure that the future really is different this time.” (Wajcman, 2017: 126)

[95] Gott musste gar nicht umziehen, er brauchte nur einen neuen Namen

[96] Heideggers Technikkritik war nicht auf Software oder Digitalisierung gemünzt und eine direkte Anwendung ist nicht unproblematisch, auch wenn seine Aussagen so wie die Marshal McLuhans prima facie sehr zutreffend scheinen.

[97] “Infosphere is a neologism I coined years ago on the basis of “biosphere”, a term referring to that limited region on our planet that supports life. It denotes the whole informational environment constituted by all informational entities (thus including informational agents as well), their properties, interactions, processes and mutual relations. It is an environment comparable to, but different from cyberspace (which is only one of its sub-regions, as it were), since it also includes off-line and analogue spaces of information.” (Floridi, 2007: 3)

[98] Jede Technologie hat ihre Kritiker und ihre spezifischen Formen der Technologiekritik hervorgebracht. Zu den berühmtesten Beispielen zählt sicher Platos Kritik der Schrift im Dialog „Phaidros“, in dem er unter anderem argumentiert, dass Schrift das Gedächtnis schwäche und zur Vermittlung von Wissen ungeeignet sei, weil die Schüler keine Rückfragen stellen könnten. Der Leser bilde sich ein, etwas begriffen zu haben, ohne dass er es wirklich verstanden habe, ein Text könne sich nicht gegen unberechtigte Kritik zur Wehr setzen und auch nicht auf die individuellen Bedürfnisse der Leser eingehen. (Platon, 1979: 33)

[99] vgl. Kathrin Passig „Standardsituationen der Technologiekritik (Passig, 2009)

[100] Shitstorms und die „virale“ Verbreitung im Internet sind die offensichtlichsten Hinweise dafür.

[101] Die rechtliche Situation bei der Verwendung von Software ist chaotisch, das Internet in vielerlei Hinsicht eine Wild-West Situation, in der jeder seinen Claim absteckt. (Lessig, 2000)

[102] digital hier im Sinne von softwarebasierten, elektronischen Schnittstellen, nicht im Sinne von Bedingungen, die nur ein Ja oder Nein erlauben würden

[103] Nikil Mukerji zeigt in “Technological progress and responsibility” die Rolle der Verantwortung im Zusammenhang mit neuen Technologien (Mukerji, 2014), aufbauend auf Julian Nida-Rümelins Beitrag „On the concept of responsibility“ (Nida-Rümelin, 2014)

[104] „Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Mutes liegt, sich seiner ohne Leitung eines anderen zu bedienen. (...) Faulheit und Feigheit sind die Ursachen, warum ein so großer Teil der Menschen, nachdem sie die Natur längst von fremder Leitung freigesprochen, dennoch gerne zeitlebens unmündig bleiben; und warum es anderen so leicht wird, sich zu deren Vormündern aufzuwerfen. Es ist so bequem, unmündig zu sein. Habe ich ein Buch, das für mich Verstand hat, einen Seelsorger, der für mich Gewissen hat, einen Arzt, der für mich die Diät beurteilt und so weiter, so brauche ich mich ja nicht selbst zu bemühen. Ich habe nicht nötig zu denken, wenn ich nur bezahlen kann; andere werden das verdrießliche Geschäft schon für mich übernehmen.“ (Kant, 1784) [MW1]Die Apokalypse ist eine beliebte rhetorische Figur im Journalismus und Heilsversprechen eine Garantie für den Absatz von sogenannten Bestsellern. In der Wissenschaft und ihren Teilgebieten wird ebenso erbittert, aber wesentlich differenzierter über die Aspekte der Digitalisierung diskutiert. Ich selbst arbeite im Digitalsektor und bin Berater und Mitinhaber von StartUps im Bereich des sogenannten „Internet der Dinge“ und war bekannt im Freundeskreis als „early adopter“ von elektronischen Geräten. [MW2]Die Psychologie spielt eine große Rolle in der Debatte um die Beeinflussung durch Software, nutzen die Programmierer doch viele Erkenntnisse aus der Verhaltensökonomie und der Neuropsychologie, ich werde die verwendeten Prinzipien nur kurz streifen, um ein Verständnis für ihre Mechanismen zu erzeugen und die Rolle von Software bei der Abwägung von Gründen für unsere Entscheidungen zu beleuchten.

Final del extracto de 83 páginas

Detalles

Título
Digitaler Paternalismus. Über Software und ihre Einflussnahme auf menschliche Entscheidungen
Universidad
LMU Munich
Calificación
1,3
Autor
Año
2017
Páginas
83
No. de catálogo
V389048
ISBN (Ebook)
9783668642546
ISBN (Libro)
9783668642553
Tamaño de fichero
671 KB
Idioma
Alemán
Palabras clave
Software, Ethik, Paternalismus, Digitalisierung, Philiosophy of mind, künstliche Intelligenz
Citar trabajo
Markus Walzl (Autor), 2017, Digitaler Paternalismus. Über Software und ihre Einflussnahme auf menschliche Entscheidungen, Múnich, GRIN Verlag, https://www.grin.com/document/389048

Comentarios

  • No hay comentarios todavía.
Leer eBook
Título: Digitaler Paternalismus. Über Software und ihre Einflussnahme auf menschliche Entscheidungen



Cargar textos

Sus trabajos académicos / tesis:

- Publicación como eBook y libro impreso
- Honorarios altos para las ventas
- Totalmente gratuito y con ISBN
- Le llevará solo 5 minutos
- Cada trabajo encuentra lectores

Así es como funciona