Therapieroboter und ihre Anwendungsgebiete. Akzeptanz neuer Technologien in der Sozialen Arbeit


Fachbuch, 2019
112 Seiten

Leseprobe

Inhaltsverzeichnis

Abkürzungsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

1 Einleitung

Theoretischer Teil

2 Was sind Roboter?
2.1 Roboter und Androiden
2.2 Künstliche Intelligenz
2.3 „Uncanny Valley“
2.4 Darstellung in vergangenen und aktuellen Medien

3 Roboter und ihre Anwendungsgebiete
3.1 Die aktuelle Roboter-Generation
3.2 Anwendungsgebiete

4 Zusammenfassung theoretischer Teil

Empirischer Teil

5 Forschungsmethodik
5.1 Wahl der Methode
5.2 Konzeption und Durchführung

6 Auswertung

7 Diskussion
7.1 Akzeptanz von technischer Unterstützung in der Sozialen Arbeit
7.2 Vergleich mit den Ergebnissen der Europäischen Kommission
7.3 Geschlechtsunterschiede

8 Zusammenfassung des empirischen Teils

9 Fazit

Literaturverzeichnis

Anhang

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 1: Szene aus dem Film Alita: Battle Angel

Abbildung 2: Kara, Markus und Connor

Abbildung 3: Youpers verschiedene Funktionen

Abbildung 4: Aibo in der aktuellen Version

Abbildung 5: Ankis Vector

Abbildung 6: KUKA-Roboter bauen ein Auto zusammen

Abbildung 7: Industrieroboter YuMi

Abbildung 8: Der humanoide Roboter Pepper

Abbildung 9: OP-Roboter da Vinci.

Abbildung 10: Gentleman-Roboter Care-O-bot

Abbildung 11: Roboter MARIO

Abbildung 12: Roboter-Robbe PARO

Abbildung 13: Roboter PABI

Abbildung 14: Das Exoskelett HAL in der Anwendung

Abbildung 15: Altersverteilung

Abbildung 16: Lebenseinstellung

Abbildung 17: Selbstwahrnehmung der Fähigkeiten

Abbildung 18: Wo sollen Roboter (nicht) eingesetzt werden?

Abbildung 19: Interesse an Nutzung von KI/Robotern

Abbildung 20: Potenzial der Anwendung von Robotern/KI

Abbildung 21: Interesse an neuer Technologie

Abbildung 22: Verbot von Roboter-Einsatz

Abbildung 23: Einstellung zu und Vorerfahrung mit Robotern

Tabellenverzeichnis

Tabelle 1: Fragen an die Gesellschaft

Tabelle 2: Akzeptanzfaktoren des Fragebogens

1 Einleitung

Die Geschichte „Der Tag, an dem ein Computer einen Roman schrieb“ erreichte 2016 beinahe den ersten Platz des Hoshi Shinichi Literaturpreises. Dass der Titel die Realität widerspiegelte, war der Jury nicht bewusst. Tatsächlich wurde der eingereichte Text von einer künstlichen Intelligenz verfasst. Die Veranstaltung lässt ganz offiziell nicht von Menschen verfasste Werke zu, jedoch war dies die erste Geschichte, die Erfolg verzeichnen konnte. (vgl. Lewis 2016 online)

Technik macht also nicht mehr nur greifbare Fortschritte, sondern konkurriert in naher Zukunft wohl auch im Bereich der Kreativität mit menschlichen Schöpfern. Grund für diese Entwicklung ist die Forschung rund um künstliche Intelligenz, die, wie sich in dieser Arbeit zeigen wird, zwar aktuell in den Kinderschuhen steckt, aber exponentiell in ihrer Qualität wächst. Umso mehr in diesem Gebiet erreicht wird, desto mehr profitieren davon auch schon bestehende Automaten.

Die Angst vor der fortschreitenden Automatisierung der Arbeit und dem damit einhergehenden Verlust von Arbeitsplätzen ist seit Jahren ein Thema, das mit der Weiterentwicklung von Robotern, wie sie zuvor nur aus Romanen und Filmen bekannt waren, immer wieder neuen Aufschwung erhalten hat.

Dennoch hat die Einführung arbeitserleichternder, produktionssteigernder Technologien neben dem zunächst eintretenden Effekt von plötzlicher Arbeitslosigkeit der Gesellschaft stets auch neuen Komfort und neue Möglichkeiten gebracht. Kostengünstige personalisierte Geschenke und sogar komplexe Objekte wie Arm- und Beinprothesen lassen sich heutzutage dank 3D-Druckern ohne Weiteres produzieren, gesundheitsbeeinträchtigende Arbeiten müssen nicht länger von Menschen ausgeführt werden und technische Hilfsmittel erlauben ein selbstbestimmtes Leben trotz körperlicher oder mentaler Einschränkungen.

Dabei helfen, Einschränkungen zu überwinden, ist auch Thema der sozialen Arbeit. Im Gegensatz zu großen und kleinen Produktionsstätten finden sich hier noch kaum Roboter-Assistenten. Was Roboter können müssen, die Therapeuten unterstützen sollen, wird bereits seit längerer Zeit erforscht. Einige dieser Prototypen und schon aktiv vertriebenen Roboter werden in dieser Arbeit vorgestellt.

Während die Konkurrenzsituation durch Roboter in sozialen Berufen lange Zeit nicht gegeben war, zeigen diese neuesten Entwicklungen, dass in Zukunft mithilfe von künstlicher Intelligenz auch Maschinen in der Lage sein werden, Aufgaben zu übernehmen, die aufgrund der erforderlichen Empathie bisher Menschen vorbehalten waren. Neben dem aktuellen Stand der Technik und einem Ausblick in künftige Entwicklungen soll in dieser Abschlussarbeit hinterfragt werden, wie diese neue Situation von angehenden Sozialarbeitern wahrgenommen wird.

Theoretischer Teil

2 Was sind Roboter?

Die meisten Menschen haben ein durch die Medien geprägtes Bild im Kopf, wenn sie das Wort „Roboter“ hören. Auch wenn dieses Bild nicht gänzlich falsch sein dürfte, ist es in der Regel ein sehr begrenztes. Roboter tauchen in den verschiedensten Anwendungen auf und obwohl alle Roboter per Definition Ähnlichkeiten haben, unterscheiden sie sich in ihrer Ausrichtung – je nach „Beruf“, den sie ausüben sollen, müssen sie über andere Fähigkeiten verfügen als ihre „Kollegen“.

2.1 Roboter und Androiden

Das Wort Roboter stammt ursprünglich aus dem Tschechischen, wo mit robota beziehungsweise Robot die Zwangsarbeit gemeint war. Im Speziellen geprägt wurde die heute weltweit bekannte Bedeutung durch das 1921 erschienene Drama R. U. R. – Rossum’s Universal Robots des tschechischen Autors Karel Čapek, das von dem titelgebenden Unternehmen handelt, welches künstliche Menschen herstellt. (vgl. Barthelmeß und Furbach 2012, S. 89)

Der Begriff Android wiederum setzt sich aus den altgriechischen Worten aner, Mann, und eidos, Gestalt, zusammen. Im Gegensatz zum Roboter beschreibt das Wort Android also direkt ein menschenähnliches Wesen. (vgl. Duden o. J. online) Daher kann Roboter als Überbegriff gesehen werden, wobei Android eine der möglichen Ausprägungen eines Roboters ist – definiert durch ein dem Menschen stark angenähertes bis identisches Aussehen. Einige der Roboter, die in Kapitel 3 näher vorgestellt werden, gehören zur Gruppe der Androiden, ebenso die Protagonisten von Detroit: Become Human aus Kapitel 2.4.3.

Roboter können sowohl Automaten als auch autonome Maschinen sein und unterscheiden sich stark in den Bereichen künstliche Intelligenz, Mobilität und Anwendungsmöglichkeiten (vgl. Häußling 2014, S. 110). Im Gegensatz zu den klassischen Automaten, die genau eine vorbestimmte Aufgabe erfüllen können, sollen autonome Maschinen – wie auch die humanoiden Roboter – möglichst in der Lage sein spontan auf ihre Umwelt zu reagieren (vgl. ebd. 2014, S. 104). Ein (semi-)autonomer Roboter soll verschiedenste Impulse (zum Beispiel Klang, visuelle Eindrücke, Temperatur) aus der Umgebung messen, verarbeiten und sein Verhalten daraufhin ohne weiteres Eingreifen von außen abstimmen können (vgl. Hering und Schubert 2012, S. 34).

Folgende Robotertypen werden unterschieden: Industrieroboter, Serviceroboter, Operationsroboter, Erkundungsroboter, Militärroboter, Spielzeugroboter, auto­nome mobile Roboter und humanoide Roboter (vgl. Häußling 2014, S. 110). Artverwandt sind die Chatbots, social bots oder schlicht Bots, die über keinen eigenen Körper verfügen, sondern lediglich ein Programm darstellen, das automatisch vom Programmierer gestellte Aufgaben erledigt (vgl. Bendel 2018a online).

Industrieroboter, die genau auf eine sehr spezifische Aufgabe hin gebaut und programmiert wurden, können höchstens als semi-autonom bezeichnet werden. Ihre Handlungen wurden vor der Inbetriebnahme genauestens für sie in Algorithmen beschrieben, ein Abweichen davon (durch einen Lernprozess beispielsweise) ist hier nicht vorgesehen. (vgl. Hering und Schubert 2012, S. 32)

Androiden sollen sich vor allem in Alltagskontexten und privaten Räumen zurechtfinden. Hierfür bietet es sich an, dass sie über einen humanoiden Körper mit Händen und Beinen sowie den unseren ähnlichen Gelenkverbindungen verfügen. Diese menschliche Gelenkigkeit ermöglicht es ihnen dann, Treppen zu steigen und Türklinken zu greifen. (vgl. Häußling 2014, S. 97)

Das optische Design von Robotern ist für gewöhnlich an ihren Einsatzort beziehungsweise -zweck angepasst (siehe Kapitel 3.1.2). Humanoide Roboter sind demnach in anderen Kontexten anzutreffen als Roboter, die Tieren ähneln oder wie eine klassische Maschine aussehen.

Roboter und Androiden sind nicht mit Cyborgs zu verwechseln. Cyborg steht für „cybernetic organism“ und beschreibt eine Verschmelzung von Lebewesen mit Maschinen. Damit gehören schon Träger von Herzschrittmachern und Handprothesen zur Gruppe der Cyborgs. (vgl. ebd. 2014, S. 91–92) In Kapitel 3.2.3 wird ein Produkt beleuchtet werden, das die Elemente eines Cyborgs mit denen eines Roboters verbindet.

Schon heute gibt es Menschen, die nicht rein aus medizinischen Gründen mit der Technik verschmolzen sind, sondern weil sie sich bewusst zu einer Erweiterung ihrer Sinne entschieden haben. Der farbenblinde Künstler Neil Harbisson verfügt über eine an seinem Schädel befestigte Antenne, deren Sensoren Farben erkennen und in Töne umwandeln können. Er ist der erste staatlich anerkannte Cyborg weltweit. Mit seiner Cyborg Foundation setzt er sich für die Rechte von Cyborgs ein. (vgl. Volland 2018, S. 171–172)

Tim Cannon, der sich selbst als Transhumanist bezeichnet, trägt ein Thermometer in seinem Unterarm, das pausenlos seine Körpertemperatur misst, mit einem Sensor an seinem Finger kann er elektromagnetische Felder erspüren (vgl. ebd. 2018, S. 174). Der Transhumanismus fordert, dass es jedem Menschen möglich sein muss, über seine biologisch-physischen Grenzen hinauszuwachsen (vgl. Leonhard 2017, S. 130).

2.2 Künstliche Intelligenz

Intelligenz ist eine mentale Eigenschaft, die sich aus mehreren Fähigkeiten zusammensetzt, unter anderem komplexe Inhalte verstehen, abstraktes Denken, Problemlösung und aus Erfahrungen lernen. Es geht dabei nicht darum, schlicht Dinge zu wiederholen, sondern auch darum sie zu begreifen und seine Umwelt gänzlich zu erfassen. (vgl. Gottfredson 1997, S. 13)

Menschliche Intelligenz basiert darauf, einmal im Gedächtnis gespeicherte Informationen immer wieder abrufen und sinnvoll anwenden zu können (vgl. Hering und Schubert 2012, S. 21). Technik, die zuvor den Menschen vorbehaltene Leistungen vollbringt, wie etwa selbstständiges Lernen, Sprachanwendung und Mustererkennung, verfügt über eine sogenannte KI, eine künstliche Intelligenz (vgl. Leonhard 2017, S. 10; Volland 2018, S. 13).

Das Programm ELIZA, in den sechziger Jahren von Joseph Weizenbaum entwickelt, wird häufig fälschlicherweise als eine der ersten Künstlichen Intelligenzen bezeichnet, dabei war „sie“ lediglich in der Lage, einigermaßen passende Phrasen auf Standardaussagen auszugeben (vgl. Barthelmeß und Furbach 2012, S. 12–13). Korrekter wäre es demnach, ELIZA als eine der ersten Chatbots zu bezeichnen.

Künstliche Intelligenzen agieren nach Algorithmen, also bestimmten Handlungsvorschriften. Diese sind in den letzten Jahren stets komplexer geworden und haben sich von simplen Sortierungsvorschriften (zum Beispiel zum Aussortieren von Spam-Mails bei Verwendung bestimmter Wörter, ohne auf den Kontext zu achten) zu einer Basis für intelligentes Handeln entwickelt. Die KI lernt inzwischen selbstständig, welche Wörter „schlecht“ und welche „gut“ sind. (vgl. Gopnik 2018; Tsuda et al. 2018, S. 17; Volland 2018, S. 16–17) Bei künstlichen Intelligenzen wird unter anderem das Verstärkungslernen genutzt. Für korrekte Entscheidungen wird die Maschine belohnt, beispielsweise mit Punkten. (vgl. Gopnik 2018; Wolf 2018)

Volland stellt sich die Frage, ob das maschinelle und menschliche Lernen denn tatsächlich so viel trennt: Hat nicht jeder große Künstler erst von den Meistern gelernt, die vor ihm kamen, durch Mustererkennung und Imitation der erkannten Muster? (vgl. 2018, S. 14–15) Beim „ Deep Learning “ wird das menschliche Gehirn mit seinen engmaschig vernetzten Nervenzellen simuliert. Die künstlichen Nervenverbindungen werden mit jeder gewonnenen Erfahrung verstärkt, bis die künstliche Intelligenz schließlich „gelernt“ hat, zum Beispiel einen Gegenstand oder eine Person zu erkennen. (vgl. Wolf 2018)

Um einer KI beizubringen, einen Gegenstand zu erkennen und ihn mit dem richtigen Begriff zu verknüpfen, werden ihr zunächst Datenbanken voller Informationen zu Verfügung gestellt, die diesen Begriff darstellen. Im nächsten Schritt wird die KI darauf getestet, wie gut sie den Begriff gelernt hat. Täuscht sie sich, wird ihre Entscheidung von ihren Entwicklern als „falsch“ markiert, sie lernt mit dieser Information weiter. (vgl. Volland 2018, S. 61) Doch inwieweit kann die KI erkennen, ob sie von ihren Entwicklern belogen wird? Erkennt die KI völlig richtig auf einem Bild eine Banane, wird ihr aber danach gesagt, dies wäre inkorrekt – kann sie, wenn auch nicht heute, dann vielleicht in der Zukunft, selbstbewusst genug lernen um ihren Entwicklern zu widersprechen?

Was Menschen den Maschinen voraus haben ist ihr Gedächtnis. Dies erlaubt schnelleres und effizienteres Lernen. Während eine KI immer nur eine Tätigkeit lernen kann (diese allerdings bis zu unmenschlicher Perfektion), ist das menschliche Gehirn nicht in dieser Art eingeschränkt. „Memory-Komponenten“ sollen diesen Nachteil in Zukunft ausgleichen. (vgl. Wolf 2018)

Eine künstliche Intelligenz, deren Aufgabe die Übersetzung ist, hat sich zu diesem Zweck eine sogenannte Interlingua beigebracht. So muss ein in Deutsch verfasster Text nicht erst in Englisch übersetzt werden, um dann in Finnisch übersetzt zu werden, wie zu Beginn des Lebenszyklus dieser KI. Stattdessen wandelt die KI den deutschen Text in die Interlingua um und kann von diesem Punkt aus in jede beliebige andere Sprache übersetzen. (vgl. Volland 2018, S. 44)

Zur Aufdeckung von „Fake News“ soll in Zukunft KI genutzt werden. Über Analysen soll eine künstliche Intelligenz feststellen, wie glaubwürdig eine Nachricht ist. Sie erreicht auch das dank des Erlernens von Mustern: Welche Formulierungen kommen in der Nachricht vor und hat das Medium, das die Nachricht geteilt hat, eine gute Bewertung und wird als seriös eingestuft? (vgl. ebd. 2018, S. 51–52) Die Bewertung und die Einstufung als seriös findet aber immer noch durch Menschenhand statt. Wird der Maschine also vorgegeben, dass eine bestimmte Zeitung seriös ist, weil sie eben als solche markiert wurde, nimmt die KI das so an. Ob also tatsächlich die „neutrale“ KI besser falsche Nachrichten aufdecken kann als ein Mensch, ist fraglich, solange der Mensch beziehungsweise Konzern hinter der KI nicht neutral ist.

Lernen Maschinen allein anhand von Statistiken, so zeigen sie auch typische Vorurteile und Klischees auf. Sie verbinden das Wort „Frau“ mit Hausarbeit und „Mann“ mit Wissenschaft – schlicht weil diese Begriffe in den gegebenen Datenbanken besonders häufig miteinander genannt werden. (vgl. Wolfangel 2018a) Die KI konzentriert sich nicht immer auf das, was der menschlichen Erwartung entspricht. Wird eine künstliche Intelligenz mit Bildern von Pferden aus Pferde-Foren versorgt, anhand derer sie lernen soll, wie ein Pferd aussieht, kann es passieren, dass sie sich auf unerwartete Muster konzentriert: Die Copyright-Angabe auf den Bildern aus den Pferde-Foren verknüpft die KI mit dem Begriff „Pferd“ und meist wird sie damit richtig liegen. Das Bild eines Pferdes, das dieses Copyright-Zeichen jedoch nicht trägt, wird die KI dann nicht als solches erkennen. Der falsche Ansatz der KI ist für Menschen offensichtlich, sobald er bekannt wird. Diese Regel kann lange Zeit nicht auffallen und sich so das falsche Wissen der KI verfestigen. Wer sich darüber informiert, auf welcher Basis eine KI eine Entscheidung trifft, der kann entscheiden, ob diese als seriös einzustufen ist. (vgl. Wolfangel 2018b)

Die heute vorhandene KI wird auch als „schwache KI“ bezeichnet. Die Instanzen dieser KIs erreichen beeindruckende Leistungen, allerdings immer nur in einem spezifischen Gebiet – beispielsweise das Erkennen von Texten und die nachfolgende Übersetzung dieser Texte. Die „starke KI“, die den Menschen in nichts mehr nachsteht, ist bis jetzt nur ein theoretisches Konstrukt. (vgl. Volland 2018, S. 14) Der Zeitpunkt, ab dem künstliche Intelligenz die menschliche übertrifft, wird als technologische Singularität bezeichnet. Dieser Moment soll laut einiger Experten irgendwann in den kommenden zwanzig Jahren erreicht werden. Das Thema ist jedoch umstritten. (vgl. Leonhard 2017, S. 11; Volland 2018, S. 146)

Alan Turing, der schon in den dreißiger Jahren erste Texte zum Thema theoretische Informatik verfasste, ist für seinen namensgebenden Turing-Test bekannt, den er 1950 in dem Aufsatz „Computing Machinery and Intelligence“ in der Zeitschrift Mind beschrieb (vgl. Barthelmeß und Furbach 2012, S. 13). Ursprünglich bezeichnete Turing den Test als „The Imitation Game“, eine Abwandlung von viva voce, dessen Aufbau ähnlich ist und bei dem getestet werden soll, ob eine Person einen Sachverhalt wirklich verstanden oder ihn nur auswendig gelernt hat (vgl. Turing 1950, S. 444).

Dieses Imitationsspiel soll von drei Personen gespielt werden: Einem Mann, A, einer Frau, B, und einem Fragesteller, C, dessen Geschlecht einerlei ist. Die Zielsetzungen des Spiels unterscheiden sich je nach eingenommener Rolle. So ist es As Ziel, den Fragesteller durch seine Antworten davon zu überzeugen, er sei B. Auch B soll C davon überzeugen, sie sei B. Das Ziel Cs ist es wiederum, korrekt einzuschätzen, wer A und wer B ist – kurz gesagt soll C entscheiden, wer von zwei Antwortenden die Frau und wer der Mann ist. Die drei Personen befinden sich in unterschiedlichen Räumen und kommunizieren per Texteingabe, um die Stimme als zu offensichtlichen Faktor auszuschließen. (vgl. ebd. 1950, S. 433)

Soll nun eine Maschine auf ihre Fähigkeit zu denken geprüft werden, nimmt sie die Rolle von A ein; soll also versuchen, den Fragesteller von ihrer Menschlichkeit zu überzeugen. Turing selbst räumt ein, dass das Spiel aufgrund seiner Systematik die Maschine stärker benachteiligen könnte als die anderen beiden menschlichen Teilnehmer, wäre es doch für einen Menschen aufgrund seiner Langsamkeit und Fehleranfälligkeit unmöglich überzeugend die Rolle der Maschine einzunehmen. (vgl. ebd. 1950, S. 433–434)

Dass das Nervensystem von Menschen mittels elektrischer Impulse gesteuert wird, so wie es auch in einem Computer der Fall ist, sieht Turing als eher oberflächliche Ähnlichkeit. Immerhin sei die chemische Komponente beim Menschen mindestens ebenso wichtig, während diese bei Computern völlig fehlt. (vgl. ebd. 1950, S. 439)

Drei Komponenten beeinflussen die Gedanken eines Erwachsenen – seine biologische Grundlage, die Bildung und Erziehung, die er genießt, und jedwede andere Erfahrung, die er in seinem Leben sammelt. Um nun das Gehirn eines erwachsenen Menschen möglichst realistisch imitieren zu können, schlägt Turing vor, zunächst eine „Kind-Maschine“ zu programmieren. Er vermutet, dass durch die Nachahmung des Lernprozesses das künstliche Gehirn, wie das eines Menschenkindes, zu einem adulten „heranwachsen“ würde. (vgl. ebd. 1950, S. 452–455)

Turings vollständig ausformulierte Frage ist also weitaus komplexer als „Können Maschinen denken?“. Er spezifiziert sie in seinem Aufsatz:

„Let us fix our attention on one particular digital computer C. Is it true that by modifying this computer to have an adequate storage, suitably increasing its speed of action, and providing it with an appropriate programme, C can be made to play satisfactorily the part of A in the imitation game, the part of B being taken by a man?“ (ebd. 1950, S. 441)

Es geht also nicht darum, ob generell alle Maschinen in der Lage sind zu denken, noch ob sie es tatsächlich tun. Vielmehr ist Ziel des Spiels herauszufinden, ob die menschlichen Spielpartner davon überzeugt werden können, dass dem so ist. Es sind also auch die Menschen, die beim Turing-Test einer Untersuchung unterzogen werden, nicht nur die Maschinen – wie gut sind sie in der Lage, einen echten Menschen von einer Simulation eines solchen zu unterscheiden?

Der Neurochirurg Jefferson postuliert 1949, dass zum menschlichen Denken ein Verständnis für den Akt selbst gehört: „Not until a machine can […] not only write it but know that it had written it.“ (Jefferson 1949, S. 1110) Hering und Schubert folgen der Argumentation Jeffersons, laut dem ein Bewusstsein notwendig wäre, um einen Prozess der Informationsverarbeitung und -anwendung als Denken zu bezeichnen. Da sich ein Computer nicht bewusst darüber wäre, dass er gerade denkt, würde er das auch nicht tun. (vgl. 2012, S. 21–22)

Gerade wenn Roboter im therapeutischen Umfeld, sei es Physio- oder Gesprächstherapie, eingesetzt werden, ist die künstliche Intelligenz von großer Bedeutung. Hierbei geht es zunächst weniger darum, selbst ein Gespräch aufrechterhalten zu können, sondern um die Fähigkeit, den Menschen vor sich korrekt zu analysieren und daraufhin die eigenen Verhaltensmuster ändern zu können. Pepper und SPENCER, die in Kapitel 3.1.2 und 3.2.2 vorgestellt werden, verfügen zu diesem Zweck über entsprechende Analyse-Software.

Echte Intelligenz setzt Flexibilität und Verstehen voraus. Beides wurde noch nicht von künstlichen Intelligenzen gemeistert. Sie sind nicht dazu in der Lage, völlig spontan auf Unerwartetes zu reagieren, also auf Situationen, zu denen sie keine Datenbeispiele erhalten haben. (vgl. Hopffgarten 2018) Das zeigt sich besonders deutlich am Beispiel der Roboterfrau Sophia, die in diversen Fernsehauftritten für Staunen sorgt, obwohl ihre KI die gegebenen Antworten nur aus einem zuvor festgelegten Pool aussucht und sie nicht etwa selbst erdenkt (vgl. Korn et al. 2018).

Vorstellungskraft und Transferlernen fällt künstlichen Intelligenzen schwer. Sie sind heute nicht dazu in der Lage, Problemlösungen zu abstrahieren und auf neue Situationen anzuwenden. (vgl. Wolf 2018) Kinder benötigen nur eine Blume, um auch andere Arten als solche erkennen zu können. Eine künstliche Intelligenz auf dem neuesten Stand der Technik braucht tausende Bilder von Blumen, um sie nicht versehentlich als Autos zu bezeichnen. (vgl. Hopffgarten 2018)

2.3 „Uncanny Valley“

Um die Nutzung digitaler Inhalte zu erleichtern und Barrieren abzubauen, wird Vertrautes aus der analogen Welt nachgeahmt. Der Fachbegriff hierfür ist „Skeuomorphismus“. Wenn auf dem Desktop eines Computers das Symbol eines Abfalleimers angezeigt wird, so liegt das an diesem Prinzip. (GRAVIS 2012 online) Unter anderem aus diesem Grund sollen humanoide Roboter, deren Aufgabe die Kommunikation mit Menschen ist, möglichst vertraut wirken. Eine höhere Akzeptanz von Assistenzsystemen wird sich vermutlich einstellen, wenn sich die Systeme optisch den Menschen annähern. (vgl. Barthelmeß und Furbach 2012, S. 11)

Bei der Entwicklung gibt es allerdings eine Hürde, bedingt durch ein Phänomen, das als „Uncanny Valley“ bezeichnet wird. Der Begriff wurde schon 1970 durch den japanischen Roboter-Spezialisten Masahiro Mori geprägt (vgl. Mori 2012 online), jedoch erst viele Jahre später dank einer Studie von Mathur und Reichling nachgewiesen.

Während Menschen zunächst positiv darauf reagieren, wenn sie ein künstlich erstelltes Ebenbild von sich selbst sehen, dreht sich dies ab einem gewissen Grad von Realismus um. Sogar Gefühle von Abscheu und Ekel sind möglich, sieht der künstliche Mensch einem echten Menschen zu ähnlich, aber nicht lebendig aus. (vgl. Mathur und Reichling 2016; Mori 2012 online) Populäre Fälle, in denen dieser Effekt beobachtet werden kann, sind die Kinofilme Beowulf (2007) und Der Polarexpress (2004) (vgl. Kaba 2013). Noch immer erscheinen Filme, die in ihrem Charakter-Design die Grenze zur „Uncanny Valley“ betreten (vgl. Abb. 2). Androiden, die von der Optik bis zur Haptik durch synthetische Haut besonders menschlich wirken sollen, stehen vor dem Problem, den Punkt der Kurve zu überwinden, an dem sie wieder Sympathien im menschlichen Betrachter wecken, statt Unbehagen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Szene aus dem Film Alita: Battle Angel

(Quelle: 20th Century Fox)

Bei einer Umfrage auf der Swiss National Exhibition Expo0.2 waren die meisten Teilnehmer nur wenig interessiert an humanoiden Robotern (vgl. Arras und Cerqui 2005, S. 17). Ein klassisches, mechanisches Aussehen scheint am ehesten dem zu entsprechen, was die Gesellschaft zu sehen erwartet, wenn der Begriff „Roboter“ fällt (vgl. Europäische Kommission 2015, S. 6–9).

Die Optik scheint eine besondere Rolle einzunehmen. Sprach-Assistenten wie Microsofts Cortana oder Amazons Alexa werden umso besser von Menschen angenommen, desto menschlicher sie klingen (vgl. Volland 2018, S. 32). Ist der Input, den wir erhalten, rein akustischer Natur, ist der Effekt der „Uncanny Valley“ nicht nachweisbar.

Ein nicht zu unterschätzender weiterer Faktor ist, dass die besonders humanoid aussehenden Roboter beziehungsweise Androiden von ihren menschlichen Nutzern tendenziell in ihren (im Speziellen kognitiven) Fähigkeiten überschätzt werden. Die Enttäuschung über die jedoch gar nicht vorhandenen Fähigkeiten führt zu einem schlechteren Nutzererlebnis, sodass die zukünftige Nutzung unter Umständen ganz abgelehnt wird. (vgl. Triebel et al. 2016) Selbst wenn also das Design so gut gewählt wurde, dass kein Unbehagen aufgrund der „Uncanny Valley“ ausgelöst wird, können negative Nebeneffekte in Erscheinung treten.

2.4 Darstellung in vergangenen und aktuellen Medien

Isaac Asimov ist einer der Autoren, der die thematische Behandlung von Robotik und Androiden in allen Kunstausrichtungen stark geprägt hat. Viele Elemente, die in Asimovs Werken etabliert wurden, finden sich auch in modernen fiktiven Darstellungen von Robotern wieder und sind nicht zuletzt Überlegungsansätze für reale Regelungen im Umgang mit Robotern und künstlicher Intelligenz. Anhand zweier Beispiele aus den letzten Jahren soll grob skizziert werden, wie im Speziellen therapeutische Roboter heute dargestellt werden.

2.4.1 Die drei Gesetze der Robotik

Wie schon in Kapitel 2.1 erwähnt stammt die Bezeichnung Roboter aus einem fiktiven Werk, in dem sich der Autor mit den Auswirkungen mechanischer Sklavenarbeiter auf die menschliche Welt beschäftigt. Es ist daher naheliegend den künstlerischen Umgang mit Robotik zu erwähnen, der Ausdruck von menschlichen Wünschen und Sorgen ist.

In der Literatur ist das Genre Science Fiction, neben Fantasy, Krimi und Romantik, eines der beliebtesten. Roboter tauchen hier, neben extraterrestrischen Wesen, in fast jedem Werk auf. Die dabei thematisierten Konflikte zwischen Mensch und Roboter haben sich seit den Anfängen kaum verändert. In Isaac Asimovs Kurzgeschichte „ Runaround “ aus den 40ern des vergangenen Jahrhunderts werden zum ersten Mal die drei Gesetze der Robotik erwähnt (vgl. Asimov 1977, S. 43; Barthelmeß und Furbach 2012, S. 94; Bizony 2015):

1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
2. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten oder zweiten Gesetz widerspricht.

Es sind diverse Situationen denkbar, in denen ein Roboter in Konflikt mit diesen Gesetzen geraten kann. Roboter, die diese Gesetze einhalten wollen, müssten über die Fähigkeit verfügen, pausenlos jede ihrer Handlungen und Absichten zu überdenken (vgl. Barthelmeß und Furbach 2012, S. 95; Murphy und Woods 2009). Die drei Gesetze Asimovs könnten einige Roboter gar von ihrer Arbeit abhalten. Ein Pflegeroboter, der eine Spritze verabreichen muss, wird dem Patienten dadurch – wenn auch nur leichte – Schmerzen verursachen. Das widerspricht den Gesetzen völlig. (vgl. Leonhard 2017, S. 163) Ähnliche, schon in der Gegenwart angekommene Fragestellungen dieser Art finden sich bei autonomen Fahrzeugen. Szenarien, in denen die künstliche Intelligenz den Konflikt zwischen ihrem eigenen Schutz, dem der Passagiere und der Fußgänger lösen muss, werden im Moment in der Öffentlichkeit diskutiert. (vgl. Tucker 2015)

In anderen Situationen hat die Gesellschaft Asimovs Gesetze schon gebrochen, lange bevor Roboter technisch in der Lage wären, solchen Regeln korrekt zu folgen. Roboter, die mit Absicht Menschen verletzen, existieren bereits und brechen damit das erste Gesetz. Eine militärische Anwendung von (teil-)autonomen Robotern findet gegenwärtig schon statt und an der Entwicklung weiterer militärischer Roboter wird gearbeitet. (vgl. Murphy und Woods 2009) Darin eingeschlossen sind, neben Robotern, die Kriegsopfer aus der Gefahrenzone evakuieren sollen (vgl. Quick 2010 online), auch Waffen (vgl. Singer 2009 online). Diesen Robotern wird das dritte Gesetz ebenfalls nicht zugestanden. Im Gegensatz zu ihrer kommerziell genutzten Verwandtschaft verfügen sie in der Regel über keine Möglichkeit, eigenständig Gefahrsituationen zu erkennen und Hindernissen auszuweichen. Gerade bei Einsätzen in verminten Gebieten wird die Zerstörung des Roboters billigend in Kauf genommen. (vgl. Murphy und Woods 2009)

Das hohe Konfliktpotenzial der Gesetze bietet eine ideale Grundlage für fiktive Erzählungen. Das zeigt sich in ihrer immer noch hohen Popularität. Diese Gesetze wurden – und werden – von diversen anderen Autoren in ihre eigenen Werke, mal mehr und mal weniger stark abgewandelt, eingebunden. In wissenschaftlichen Debatten rund um die Themen künstliche Intelligenz und Roboter tauchen Asimovs Gesetze ebenfalls ständig wieder auf, da sie einen großen Teil dazu beigetragen haben, die Erwartungshaltung der Öffentlichkeit diesbezüglich zu beeinflussen. (vgl. ebd. 2009) Auch die in Kapitel 2.4.2 und 2.4.3 besprochenen aktuellen Werke greifen die Gesetze Asimovs auf und erweitern sie um neue Aspekte.

Die Suche nach dem Schöpfer und die Entwicklung von Emotionen sind zwei typische Story-Stränge, die in der sich mit Robotik befassenden Belletristik auftauchen (vgl. Barthelmeß und Furbach 2012, S. 93). An Robotern, die eine eigene Persönlichkeit und Gefühle besitzen, wird aktuell mit ausbleibendem Erfolg geforscht. Andere Probleme in der Robotik und künstlichen Intelligenz haben noch Vorrang, ehe sich hier größere Erfolge abzeichnen werden. (vgl. Murphy und Woods 2009)

Beim aktuellen Stand der Technik sind die von Asimov erdachten Gesetze daher nicht relevant. Stattdessen unterliegen Roboter, die über einen Körper verfügen (im Gegensatz zu den Chatbots), in Deutschland der Richtlinie 2006/42/EG des Europäischen Parlaments und des Rates, kurz Maschinenrichtlinie genannt. Diese definiert eine Maschine als eine Gesamtheit miteinander verbundener Teile, von denen wenigstens eines beweglich sein muss. (vgl. Europäische Union 2006)

Asimovs Gesetze sind dennoch eine Inspirationsquelle für „Ersatz-Gesetze“, an die sich sowohl Forscher als auch Vertriebsunternehmen von Robotern halten sollen (vgl. Murphy und Woods 2009), und Überlegungen zu einem real anwendbaren Ethik-Kodex. Dieser ist ausdifferenzierter als die drei oben genannten Gesetze und nicht etwa für die Roboter, sondern deren Ingenieure gedacht. Er umfasst sieben Prinzipien, an die sich die Ingenieure halten sollen. (vgl. Lewis et al. 2010, S. 24–26)

Das ist insbesondere unter dem Gesichtspunkt notwendig, dass Roboter in erster Linie als Produkte definiert sind. Wie bei anderen Produkten wären nicht die Produkte selbst im Schadfall haftbar, da sie eben kein Rechtssubjekt sind. Das könnte sich in ferner Zukunft ändern, sodass das Produkt Roboter beziehungsweise KI zu einer juristischen Person wird, ähnlich einiger Gesellschaftsformen im deutschen Recht. (vgl. Murphy und Woods 2009) Bis dieser Fall eintritt sind Gesetze für den Umgang mit Robotern, was deren Entwicklung und Vertrieb angeht, wichtiger als Umgangsregeln für Roboter.

Bedenkt man vergangene Katastrophen, wie die Erfindung der Atombombe, die durch den Missbrauch von Forschungsergebnissen geschehen sind, so ist es wünschenswert, dass ein verbindlicher Kodex im Zuge des exponentiell wachsenden technischen Fortschritts weltweit befolgt wird. Die Verantwortung der Erschaffer und Verkäufer der Roboter spielt dagegen bei Asimovs Gesetzen und seinen sich um diese drehenden Kurzgeschichten keine bedeutende Rolle (vgl. ebd. 2009).

Die südkoreanische Regierung hat zu diesem Zweck schon 2008 ein Gesetz erlassen, das den Umgang mit intelligenten Robotern regeln und die Entwicklung selbiger von Staatsseite aus fördern soll. Darin inkludiert ist die Entwicklung einer Ethik-Charta für intelligente Roboter. (vgl. Korea Legislation Research Institute 2008 online) Die koreanische Regierung definiert einen intelligenten Roboter als ein mechanisches Gerät, welches in der Lage ist, seine Umgebung wahrzunehmen und eigenständig darauf zu reagieren (vgl. ebd. 2008 online, Art. 2). Im Verlauf dieser Arbeit wird sich zeigen, wie groß die Unterschiede bei verschiedenen intelligenten Robotern sind und wie schwierig daher die Erstellung einer solch allumfassenden Charta ist.

2.4.2 Film und Fernsehen – Baymax

Baymax – Riesiges Robuwabohu (im Original Big Hero 6, basierend auf der gleichnamigen Comic-Reihe von Marvel) erschien am 22.01.2015 als Disneys 54. Trickfilm in den deutschen Kinos. Im gleichen Jahr erhielt er den Oscar für den besten Animationsfilm. Weltweit hat der Film während seiner Zeit in den Kinos knapp 658 Millionen US-Dollar eingespielt. (vgl. Box Office Mojo o. J. online)

Baymax reiht sich damit in die Reihe erfolgreicher Filme ein, die Roboter mit relativ geringer Menschenähnlichkeit beinhalten, wobei Baymax’ Design neben Wall-E und R2D2 anatomisch den Menschen am nächsten ist (vgl. Barthelmeß und Furbach 2012, S. 99).

Schauplatz der Geschichte ist eine Version „unserer“ Zukunft. Fransokyo ist eine bunte Metropole in einer vollkommen globalisierten Welt. Die Technik ist um einiges weiter fortgeschritten als in unserer Realität, ist aber nicht so weit davon entfernt, wie es auf den ersten Blick scheinen mag. Sportliche Wettbewerbe wie die „Botfights“ in Baymax, bei denen kleine Roboter gegeneinander kämpfen (Hall und Williams 2014, 00:00:00-00:07:15), gibt es schon, beispielsweise den RoboCup (vgl. Marsiske 2018 online).

Der Protagonist der Geschichte, der Teenager Hiro Hamada, lebt gemeinsam mit seinem älteren Bruder Tadashi bei seiner Tante. Er ist hochintelligent, vertreibt sich die Zeit allerdings mit illegalen Botfights, statt zu studieren. Nachdem sein Bruder bei einem Brand ums Leben kommt, versucht er sich an dem Mann zu rächen, den er für das Unglück verantwortlich macht. Dabei helfen ihm die Kommilitonen seines verstorbenen Bruders sowie dessen Roboter, der titelgebende Baymax. (vgl. Hall und Williams 2014; Schmidt 2017 online)

Baymax wurde ursprünglich von Hiros Bruder als „Krankenpfleger“ entwickelt und bezeichnet sich selbst als „persönlicher Gesundheitsbegleiter“. Seine Programmierung erlaubt ihm, physische und psychische Belastungen menschlicher Körper zu erkennen und zu behandeln. (Hall und Williams 2014, 00:11:00-00:14:35) Bei drohender Unterkühlung seines Patienten erhöht Baymax die Temperatur, um diesen wieder aufzuwärmen (ebd. 2014, 00:50:45-00:54:30) und auch das momentane Gemüt seiner Patienten kann Baymax feststellen (ebd. 2014, 00:24:40-00:29:35).

Im Laufe des Films wird Baymax’ Programmierung durch Hiro mit einer Kampfsportdatenbank ergänzt und sein Körper mit Rüstungsplatten bedeckt, damit der Roboter die Heldengruppe bei Kämpfen unterstützen kann (ebd. 2014, 00:36:55-00:44:15). Bei einem Kampf verliert Hiro die Fassung, entfernt den Chip mit der Programmierung für den Gesundheitsbegleiter und sorgt mit seinem Verhalten dafür, dass Baymax beim Versuch, den Antagonisten zu töten, Schaden erleidet (ebd. 2014, 01:07:10-01:11:55).

Während einer Rettungsaktion wird Baymax schließlich so schwer beschädigt, dass er sich selbst nicht mehr befreien kann. Hiro muss den Roboter in einer anderen Dimension zurücklassen. Am Ende des Films schafft Hiro es jedoch, Baymax „wiederzubeleben“ und der Roboter kehrt mit seiner ursprünglichen Persönlichkeitsprogrammierung zurück. (ebd. 2014, 01:24:45-01:32:00)

Baymax ist der aktuellen Robotergeneration relativ nah und würde als SAR (socially assistive robot, siehe Kapitel 3.1.3) klassifiziert werden. Seine Ausrichtung ist spezifisch (Gesundheit und Wohlbefinden seiner Patienten), sein Design simpel aber ansprechend und ideal für sein Aufgabenfeld – Baymax beschreibt sich selbst als „harmlos und knuffig“ (ebd. 2014, 00:36:55-00:44:15). Der Film spricht wie die meisten fiktiven Geschichten mit und über Roboter die Gefahr des Missbrauchs an. Hiro baut Baymax um und nutzt ihn in einem Moment der Schwäche zur Gewaltausübung. Er hebelt die von Tadashi eingesetzte Verhaltensregel (ähnlich den Gesetzen Asimovs) für Baymax aus, die verhindern soll, dass Baymax Menschen Schaden zufügen kann.

Ein großer Vorteil von Maschinen ist die Möglichkeit, diese in relativ kurzer Zeit umzubauen und für neue Aufgabengebiete einsatzbereit zu machen. Der Film zeigt den Nachteil dieser Multimodalität, indem Therapie- und Pflegeroboter Baymax zur Selbstjustiz des jungen Helden genutzt wird. Ein Missbrauch dieser Art ist auch in der realen Welt vorstellbar.

2.4.3 Videospiele – Detroit: Become Human

Am 25.05.2018 erschien David Cages1 vierter Versuch, ein cineastisches Erlebnis mit der Interaktivität eines Videospiels zu verbinden. Innerhalb weniger Monate verkaufte sich das Spiel über 2 Millionen Mal und kann als Cages bis dato erfolgreichstes Werk bezeichnet werden. (vgl. Essner 2018 online) In Detroit: Become Human übernimmt der Spieler in sich abwechselnden Sequenzen die Rolle dreier Androiden: Markus, Kara und Connor. Während Markus und Kara zunächst in privaten Haushalten arbeiten, ist Connor als Assistent der Polizeibehörde Detroits zugeteilt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Kara, Markus und Connor

(Quelle: PlayStation.Blog)

Wie schon in den Vorgängern Heavy Rain und in geringerem Ausmaß bei Beyond: Two Souls ist es möglich, dass die Charaktere in beinahe jeder Szene sterben. In einigen Fällen geschieht dies abhängig von den vom Spieler getroffenen Entscheidungen, in anderen kann es tatsächlich eine, für Videospiele typischere, falsche Eingabe sein.

Im Verlauf des Spiels kommt es zu einem Aufstand der Androiden, bei dem die drei Charaktere unterschiedliche Rollen einnehmen. Fokus des Aufstands ist die Unabhängigkeit der Androiden von ihren menschlichen Herren. Sie wollen als eigenes Volk mit eigenen Rechten akzeptiert werden. Da das „Erwachen“ der Androiden meist mit Gewalttaten gegenüber ihren Herren einhergeht, reagiert die Gesellschaft skeptisch auf die Forderungen. Dass diesen Gewalttaten Misshandlung und Missbrauch durch die menschlichen Besitzer voranging, wird in der Öffentlichkeit nicht diskutiert. (Cage 2018e, 24:43-28:45)

Markus, der einen bekannten Künstler als Pflege- und Haushaltsroboter unterstützt, wird aufgrund falscher Anschuldigungen entsorgt (vgl. Cage 2018g, 15:00–19:35), kann sich aber aus dem Schrottplatz mit letzter Kraft befreien (vgl. Cage 2018i, 00:00-10:50). Er entwickelt sich im Laufe des Spiels zum Anführer des Aufstands. Je nachdem, wie der Spieler sich entscheidet, tritt er als Pazifist oder Terrorist in Erscheinung. (Cage 2018e, 06:50-08:10, 2018h, 46:02-49:30) Dies wirkt sich auf die anderen beiden Handlungsstränge aus, da Markus’ Aktionen sogar die Meinung der US-amerikanischen Präsidentin mitbeeinflusst (Cage 2018d, 44:18-45:50).

Kara, die als Haushaltshilfe einem alleinerziehenden Vater assistiert, flieht aus dessen Haus, als dieser seiner eigenen Tochter mit Gewalt droht (vgl. Cage 2018g, 10:00-14:35). Sie sieht sich als Mutter des kleinen Mädchens und versucht mit ihr nach Kanada zu fliehen. Erst gegen Ende erkennt Kara, dass auch das kleine Mädchen eigentlich ein Android ist, nachdem sie durch Zufall auf das gleiche Modell trifft (vgl. Cage 2018h, 01:04:47-01:06:00). Je nach gewählter Verzweigung ist es möglich, dass die beiden in einer der letzten Szenen in einem Auffanglager landen, das den Konzentrationszentren des Dritten Reichs stark ähnelt: Sie werden gezwungen, sich vollständig zu entkleiden, ihre menschliche Hülle abzulegen und gemeinsam mit anderen Androiden in kleinen Kammern zerstört (vgl. Cage 2018a, 05:51-10:53).

Connor unterstützt während des gesamten Spiels die Polizei Detroits bei Fällen, in denen Androiden Verbrechen begehen – in beinahe allen (versuchte) Morde. Auch Markus und Kara werden von ihm verfolgt. Er trifft sich nach Einsätzen in einem virtuellen Raum mit einer künstlichen Intelligenz namens „Amanda“, die umso negativer auf ihn reagiert, desto mehr Empathie und Moral Connor zeigt (Cage 2018f, 00:00-04:05). Das gilt sowohl für Empathie gegenüber anderen Androiden, als auch gegenüber Connors menschlichem Partner bei der Polizei, Hank Anderson, dessen Leben von Connors Entscheidungen abhängt (vgl. Cage 2018k). Connor kann sich entweder dafür entscheiden, ein höriger Android zu bleiben und letztlich Markus töten beziehungsweise von Markus getötet werden (vgl. Cage 2018c), oder sich gegen Amanda zu stellen und mit Markus zu arbeiten (vgl. Cage 2018b, 34:30-35:22).

Eine Auflösung der Frage, ob das Potenzial des eigenen Willens von Anfang an einprogrammiert war, einem Virus geschuldet ist oder andere Gründe hatte, gibt es bis zum Ende des Spiels nicht.

Eine Weiterentwicklung von Turings Imitation Game ist in einer für den weiteren Spielverlauf essentiellen Szene zu finden. Der fiktive Entwickler der Androiden, Elijah Kamski, bittet Connor darum, einen anderen, völlig hörigen und daher wehrlosen, Androiden zu erschießen. Tut er dies, erhält er die von ihm gewünschte Information bezüglich einer Ermittlung. (vgl. Cage 2018j) Eine Verweigerung und damit ein Verzicht auf die Belohnung ist ein deutliches Zeichen der Empathie. Damit geht der fiktive Test einen großen Schritt weiter als der Turing-Test, der schließlich nur prüft, ob ein Mensch von einer Maschine überzeugt werden kann, sie sei ebenso ein Mensch. Bei Kamskis Test geht es eher um die Frage, ob die Maschine sich von ihrer Humanität selbst überzeugen kann.

Die Wahl der Stadt Detroit als Schauplatz war aufgrund ihrer Historie naheliegend, deren Untergang an einer Mischung von Rassismus, Korruption und schlechtem Management der ansässigen Autoindustrie (einer der ersten Industriezweige, der Mitarbeiter durch Roboter ersetzte) lag (vgl. Sax 2017, S. 197). Was sich in Detroit: Become Human abspielt, ähnelt den Ereignissen aus Detroits echter Vergangenheit stark. Der Aufstand der Androiden, die als den Menschen ebenbürtig wahrgenommen werden wollen, ist eine überdeutliche Analogie zum Rassismus.

Auch heute ist Detroit eine der Städte mit den höchsten Arbeitslosenzahlen in den USA (vgl. ebd. 2017, S. 198). Für das reale Detroit würde die Veröffentlichung der fiktiven Androiden aus Detroit: Become Human aller Voraussicht nach eine ähnlich potenziell katastrophale Entwicklung auslösen, wie im Spiel gesehen. Der Ersatz menschlicher Arbeitskraft in allen Bereichen, bis hin zum Ersatz eigener Kinder, ist unabhängig des Settings eine dystopische Vorstellung.

Nach aktuellem Stand müssen wir uns keine Sorgen über eine Entwicklung wie in Detroit: Become Human machen. Das Erreichen der Singularität wird von einigen zwar in nicht allzu weit entfernter Zukunft erwartet, bis jetzt ist allerdings kein Durchbruch erkennbar (siehe Kapitel 2.2). Wenn jedoch irgendwann trotz aller Unwahrscheinlichkeiten eine künstliche Intelligenz so weit fortgeschritten ist, dass sie emotionalen Schmerz simulieren kann, ist es dann ethisch noch vertretbar, diesen Schmerz abzuwerten? Die Diagnose „psychosomatische Beschwerden“ beim Menschen führt zu wenig Verständnis in seiner Umwelt – die Schmerzen haben keine erkennbare organische Grundlage, sie sind „nur eingebildet“ beziehungs­weise psychisch begründet und für die Gesellschaft schwer greifbar. Kann dann, wie in Detroit, eine Gefahr von den Menschen ausgehen für die schmerzempfindlichen, empathischen Androiden, weil auch dies nicht greifbar wäre? Gewalt wird Robotern heute schon angetan (vgl. Nomura et al. 2015), mehr als kaputt gehen können sie dabei noch nicht.

3 Roboter und ihre Anwendungsgebiete

Die Darstellung von Robotern beziehungsweise Androiden entspricht im Normalfall einer Zukunftsvision der Autoren und stellt damit vor allem Ängste und Sorgen, aber auch Hoffnungen, dar, die heute noch keine Relevanz haben. In diesem Kapitel wird nun Bezug auf die aktuelle Roboter-Generation und ihre heutigen Anwendungsbiete genommen.

3.1 Die aktuelle Roboter-Generation

Bevor die Roboter in ihren verschiedenen Anwendungsgebieten im Detail vorgestellt werden, soll zunächst geklärt werden, auf welchem Stand Robotik und künstliche Intelligenz sich aktuell befinden, welche Ziele in der Forschung gerade verfolgt werden und welche generellen Chancen und Gefahren sich dadurch für einzelne Nutzer, sowie die gesamte Gesellschaft, ergeben.

3.1.1 Künstliche Intelligenz und ihr wirtschaftlicher Nutzen

Die immer weiter fortschreitende Digitalisierung des Alltags dient dem Lernprozess der Künstlichen Intelligenzen, die auf immer größer werdende Datenbanken zugreifen können. Gemälde, Bücher, Filme und Fotografien werden nicht nur durch große Konzerne wie Google digitalisiert, sondern mit jedem bei Instagram und Facebook hochgeladenen Eintrag von uns selbst. (vgl. Volland 2018, S. 20) So sind wir alle indirekt an der Weiterentwicklung künstlicher Intelligenz beteiligt, auch wenn uns dies im ersten Moment nicht bewusst und selbst bei Kenntnis dieses Umstands nur schwer nachzuvollziehen ist.

Für den KI-Horror-Thriller „Das Morgan-Experiment“ suchte IBMs KI Watson die eindrücklichsten Szenen aus dem Film heraus, die dann zu einem Trailer zusammengeschnitten wurden. Watson kann heute schon erkennen, welche Stimmung verschiedene Szenen vermitteln – Trauer, Anspannung, Angst – einzig die Erstellung des fertigen Produkts übernahm noch ein Mensch. (20th Century FOX 2016)

Es sind nicht die potenziellen kreativen Leistungen einer künstlichen Intelligenz der Grund dafür, warum diese mit Datenbanken voller Wissen gespeist wird. Das verarbeiten Tausender Romane dient dem Erlernen menschlicher Sprache – solcher, die in unseren Ohren natürlich klingt. Gelingt dies, können in Zukunft menschliche Service-Mitarbeiter vollständig durch KI-Varianten ersetzt werden. (vgl. Volland 2018, S. 28–29) Hat die KI erst einmal den Geschmack der Kunden durch­schaut, ist es möglich für jede Zielgruppe das passende Produkt zu erstellen, seien es Musikstücke, Romane oder Zeitungsartikel (vgl. Landwehr 2018).

QualiFiction, ein deutsches Produkt aus Hamburg, analysiert mittels LiSA (Literatur-Screening und Analytik) Texte und errechnet die Wahrscheinlichkeit, mit der das eingegebene Werk bei Veröffentlichung zum Bestseller werden wird (vgl. QualiFiction GmbH o. J.b online). Dabei klammert es den wichtigen Faktor des Marketings aus, ermöglicht Lektoren aber dennoch eine Vorauswahl zu treffen, ehe diese sich tiefer mit den eingesandten Manuskripten beschäftigen. Das minimiert den Arbeitsaufwand und somit die Kosten für den Verlag. Eine Veröffentlichung für Privatkunden steht an (vgl. QualiFiction GmbH o. J.a online).

Bei einem vermuteten oder tatsächlichen Eingriff in die Privatsphäre ist eine Akzeptanz neuer Technologien erschwert durch die Bedrohung eben dieser (vgl. Renn 1986, S. 46). Mit immer schwerer als solche zu erkennenden KIs und einem unvollständigen Wissen darüber, wie viele Informationen in welchem Maße an die Unternehmen gesendet werden, werden Roboter mit gerade gesprächstherapeutischem Ansatz sich erst beweisen müssen.

Ein Hacker-Angriff auf einen Heimroboter, der sich darum kümmert, dass sein Besitzer täglich zur gleichen Uhrzeit ein bestimmtes Medikament einnimmt, könnte fatale Folgen haben. Aber auch sogenanntes „ gaslighting “ ist denkbar, eine Form psychischer Gewalt, bei der eine Person dahingehend manipuliert wird, ihre eigene Realität in Frage zu stellen (vgl. Stangl 2019 online). Dringt eine Person von außen in das System ein und kontrolliert den Roboter, zu dem der Besitzer inzwischen Vertrauen gewonnen hat, muss dies nicht sofort als Fehlverhalten auffallen (vgl. D'Auria und Persia 2017).

Die Sicherheit der Systeme muss einerseits gewährleistet sein, andererseits würde das höchste Maß an Sicherheit bedeuten, dass die Roboter eingeschränkt wären in ihrer Handhabbarkeit. Die fehlende Möglichkeit, überhaupt Kontakt mit dem Internet herzustellen, würde das System am besten vor Hacker-Angriffen schützen, automatische Updates oder der Zugriff auf andere Online-Inhalte wären dann aber nicht mehr möglich.

Das Programm WordSmith der US-amerikanischen Firma Automated Insights verfasst schon heute personalisierte Texte, wie sie uns beispielsweise in Werbe-Mails begegnen können (vgl. Volland 2018, S. 47). Fünf Bilder reichen einer KI aus, um mit einer Erfolgsrate von 91% korrekt einzuschätzen, ob ein Mann homo- oder heterosexuell ist, bei Frauen schlägt sich die KI mit 83% nur geringfügig schlechter, jedoch immer noch deutlich besser als andere Menschen (Wang und Kosinski 2018). Es fällt einer künstlichen Intelligenz also schon zum heutigen Entwicklungsstand nicht schwer, uns mit einer hohen Trefferrate zu kategorisieren, um uns dann „passende“ Produkte vorzuschlagen.

Das geplante Produkt VoCo von Adobe, eine Firma die vor allem dank ihrer professionellen Bild- und Videobearbeitungsprogramme weltbekannt ist, kann basierend auf Tonaufnahmen die Stimme eines Menschen imitieren. Kindern könnte in Zukunft also abends mit elterlicher Stimme vorgelesen werden, obwohl Mutter und Vater längst im Bett liegen. (vgl. Volland 2018, S. 43) Es sind diverse Möglichkeiten des Missbrauchs denkbar, insbesondere in Kombination mit Bild- und Videobearbeitungssoftware. Bisher ist VoCo nicht am Markt erschienen. Andere Unternehmen bieten schon entsprechende Software an (vgl. Lyrebird.ai 2018 online).

Intelligente Bildbearbeitungsprogramme erlauben inzwischen nicht nur die nachträgliche Veränderung der Lichtverhältnisse, so dass der Eindruck vermittelt werden kann, eine Szene hätte sich nachts abgespielt, obwohl es helllichter Tag war. Der Bot „ Smile Vector “ auf Twitter ermöglicht es Nutzern der Website, neutrale Gesichtsausdrücke in ein Lächeln zu verwandeln. Die Qualität der Manipulationen ist dabei nicht immer überzeugend, für eine automatisierte Bearbeitung allerdings schon im jetzigen Zustand erstaunlich gut. (vgl. Volland 2018, S. 74)

Die DeepFakes haben, neben humoristischen Anwendungen, vor allem im Bereich Pornografie einen hohen Grad an Popularität gewonnen. Die künstliche Intelligenz nimmt hier die Gesichter prominenter Menschen und fügt sie zunehmend natürlich wirkend auf die Körper anderer Personen ein. Generell ist dies aber mit einer beliebigen Mixtur aus Bildmaterial möglich, einzig die Menge an vorliegendem Material muss zur Berechnung ausreichend sein. (vgl. Afchar et al. 2018; Benjamin 2019 online) Gemeinsam mit Programmen wie VoCo lassen sich überzeugend Filme erstellen, die Menschen ganz ohne ihr Zutun und Wissen – viel essentieller, ihre Zustimmung – beinhalten. Es wird bereits an Lösungen gearbeitet, die diese künstlich erstellten Videos als solche enthüllen (vgl. Afchar et al. 2018).

Die künstliche Intelligenz Ada, von der Firma Ada Health GmbH mit Sitz in Berlin, kann von Endnutzern online über einen Browser oder als App benutzt werden, um Symptome zu analysieren. Ada selbst weist bei jeder ihrer Diagnosen darauf hin, dass eine zusätzliche ärztliche Abklärung notwendig ist. Dabei kann sie den Nutzer auch direkt unterstützen, sofern er der App die Standortbestimmung seines Geräts erlaubt. Die Diagnosen können gespeichert oder direkt wieder gelöscht werden. (vgl. Jansen 2017b online; Schlingensiepen 2018 online)

Wird Ada erneut genutzt, fragt sie nach den von ihr gespeicherten Fällen – wurde ein Arzt konsultiert und wie haben sich die Symptome entwickelt? Basierend auf den Antworten lernt die KI dazu. Die Techniker Krankenkasse kooperiert seit Ende 2018 mit der Ada Health GmbH. In Kombination mit der Standortbestimmung ist Ada in der Lage dazu, die von der Krankenkasse als günstig eingestuften Ärzte besonders hervorzuheben. (vgl. Jansen 2017b online; Schlingensiepen 2018 online; Techniker Krankenkasse 28.11.2018)

Youper, eine von vielen Apps, die zum Tracking von Emotionen genutzt werden kann und deren Zweck es sein soll, die eigene seelische Gesundheit ohne (menschliche) Hilfe von außen zu stärken, verfügt ebenfalls über einen Chatbot. Dieser kann dazu aufgefordert werden, jeden Tag zur gleichen Zeit eine Unterhaltung mit dem Nutzer zu führen, bei der erfragt wird, wie dieser sich fühlt und was die Gründe hierfür sind. Auch die Möglichkeit diverse Übungen (Achtsamkeit, Meditation) in Anspruch zu nehmen ist Teil von Youpers Konzept. Daneben können kurze psychologische Tests absolviert werden, die grob einschätzen, wie stark beispielsweise Symptome einer Depression momentan auftreten. (vgl. Youper Inc. 2019 online; Zicari 2018 online)

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Youpers verschiedene Funktionen

(Quelle: Youper Android App)

Ein normales Gespräch ist weder mit Ada noch mit Youper möglich. Stattdessen wird die Unterhaltung über multiple choice -Antworten geführt; sie folgen hier ihrer Vorfahrin ELIZA (siehe Kapitel 2.2). Das erlaubt der KI, den Nutzer besser zu verstehen, schränkt diesen aber in seiner Ausdrucksform stark ein. Während das bei Ada womöglich hilfreich ist, hat Youper mit seinem etwas anders gelagerten Ansatz mehr Probleme. Die Emotionen (insecure, anxious, tired, happy…) sollen hier mit Prozentpunkten angegeben werden. Das führt zu einem unnatürlicheren Gesprächsfluss, als es bei Ada der Fall ist.

In Zukunft sollen alle von Maschinen gesammelten Informationen gebündelt und in einem smart grid hierarchisch miteinander verbunden werden (vgl. Hering und Schubert 2012, S. 104). Eine Welt, die ganz in diesem IoT, dem Internet of Things, aufgeht, verspricht eine große Effizienzsteigerung. Dadurch, dass alle Gegenstände und Organismen stets miteinander verbunden sind, lassen sich endliche Ressourcen schonen. Sie werden pausenlos kontrolliert und reguliert. Negative Konsequenzen hiervon, wie eine Einschränkung des selbstbestimmten menschlichen Handels durch diese übermächtige maschinelle Kontrollinstanz, werden von Unternehmen wie auch Kunden wenig bedacht. (vgl. Leonhard 2017, S. 81–84)

Repetitive Arbeiten, die weder Kreativität noch Empathie benötigen, werden in den kommenden Jahren vom Arbeitsmarkt verschwinden. Sie können ohne größere Schwierigkeiten automatisiert und von Robotern übernommen werden. Die sinkenden Personalkosten werden für die Unternehmen eine Gewinnsteigerung bedeuten. (vgl. ebd. 2017, S. 59) Für die Arbeitnehmer der Zukunft wird dies deutliche Auswirkungen haben.

Die Berufe in der Technologie-Branche sind starken Anspruchs- und Gehaltsunterschieden unterworfen. Die Softwareentwickler und Geschäftsführer auf der einen Seite mit ihren sehr guten Gehältern, auf der anderen Seite die sehr schlecht verdienenden Lagerarbeiter. Im Bereich dazwischen finden sich wenig Beschäftigungsmöglichkeiten, was bedeutet, dass vor allem gut gebildete Menschen von der Entwicklung profitieren, durchschnittlich bis wenig gebildete jedoch in eine prekäre Lage gebracht werden. (vgl. Sax 2017, S. 207)

In den meisten Studien werden Roboter (noch) nicht im autonomen Betrieb genutzt (vgl. Heerink et al. 2006; Heerink et al. 2010). Die Roboter werden im Hintergrund von den Forschern gesteuert, oder zumindest überwacht, und sind nur semi-autonom aktiv. Das hat mehrere Gründe, der bedeutendste ist jener der Ziel­wahrung. Dieser „Wizard of Oz“2 genannte Ansatz erlaubt es den Forschern, größtmögliche Kontrolle über die Situation zu behalten und spontan eingreifen zu können, wenn die Fähigkeiten des Roboters nicht ausreichen würden, um Unerwartetes allein zu bewältigen. (vgl. Dickstein-Fischer et al. 2018; Kim et al. 2013; Scassellati et al. 2012) Hierdurch entsteht allerdings bei den Teilnehmern der Studie ein falscher Eindruck über den aktuellen Stand der Technik, was gerade bei Fragestellungen zum Thema Akzeptanz mit Skepsis zu sehen ist. Die Ergebnisse sind aber in jedem Falle wertvoll für die Erschließung der Bedürfnisse der künftigen Kundschaft.

3.1.2 Design, Ergonomie und Motorik

Neben dem „Gehirn“ der Roboter sind auch ihre anderen, nicht minder essentiellen, Bestandteile von Interesse. Mit Ausnahme der reinen Chatbots verfügen sie über eigene Körper, die mit Motoren angetrieben und mit Strom versorgt werden müssen. Roboter können unter verschiedenen Aspekten kategorisiert werden. Das Aussehen, die Funktionalität und die Modularität der Roboter unterscheiden sich je nach Einsatzgebiet und -ziel stark.

Beim Design eines Roboters ist entscheidend zu bedenken, ob und in welcher Form dieser in Kontakt mit Menschen treten wird. So sind die optischen Ansprüche an einen Industrieroboter andere als an jene mit Kundenkontakt im Dienstleistungsbereich. Der Grad an Realismus, die Größe und die Art – anthropomorph und damit dem menschlichen Vorbild ähnelnd, nicht-anthropomorph tierähnlich, oder nicht-biomimetisch, also ein Design abseits jeglicher natürlicher Vorbilder. (vgl. Cabibihan et al. 2013) Die Erwartungen, die an ihn gestellt werden, ändern sich mit dem Aussehen des Roboters (vgl. Diefenbach et al. 2015; Fong et al. 2003). Gleiches gilt für abstraktere Aspekte des Designs. So ist die Erwartungshaltung an Roboter eine andere, abhängig davon wie weiblich oder männlich deren Stimme wahrgenommen wird (vgl. Powers et al. 2005).

Im Gegensatz zu menschlichen Arbeitnehmern lässt sich eine Roboter-Arbeitskraft jederzeit umbauen und instand setzen. Diese Eigenschaft wird als Modularität bezeichnet. (vgl. Diefenbach et al. 2015; Graf 2017) Gegen diese Maßnahmen können sich die Roboter nicht wehren, anders als ihre menschlichen Kollegen, die sich gegen einen Besuch der gesundheitsfördernden Maßnahmen des Betriebs oder Weiterbildungen entscheiden können.

Bei dem Versuch, Robotern ein emotives Gesicht zu geben, gibt es unterschiedliche Ansätze, die auch in Verbindung miteinander genutzt werden. Häufig eingesetzt werden LEDs, deren Leuchtintensität und Farbe sich je nach Stimmung des Roboters ändern (vgl. Anki 2019b online; Gardecki und Podpora 2017), ein möglichst humanoides Gesicht oder ein Tablet, das einen Charakter als Avatar für den Roboter anzeigt (vgl. Diefenbach et al. 2015; Fong et al. 2003).

Hilfreich um Emotionen darzustellen ist neben der künstlichen Mimik die Gestik. Hierbei ist es nötig, dass die Roboter die Fähigkeit besitzen, ihre Extremitäten und Gelenke unabhängig voneinander zu bewegen um beispielsweise ihrem menschlichen Gegenüber zuzuzwinkern, mit dem Kopf zu nicken oder ihn zu schütteln und sich zu- oder abzuwenden. (vgl. Dickstein-Fischer et al. 2011; Fong et al. 2003; Gardecki und Podpora 2017; Wada und Shibata 2007) Das Design des Care-O-bot 4 (siehe Kapitel 3.2.3) konzentriert sich besonders auf diesen Aspekt. Sein Körper ist in drei Abschnitte aufgeteilt: Kopf, Rumpf und Basis. Diese sind mit Gelenk-Elementen verbunden, welche den menschlichen Hals und die Hüfte nachahmen. Durch diese Nachahmung kann der Nutzer die Bewegungen des Care-O-bot 4 direkt auf einer sozialen Ebene interpretieren. (vgl. Diefenbach et al. 2015)

Der Roboter Pepper, der in Kapitel 3.2.2 im Detail vorgestellt wird, verfügt über einen Motor, der mit Bedacht gerade stark genug ist, um ihm die autonome Bewegung zu ermöglichen. Im Notfall erreicht er eine Geschwindigkeit von 3,6 km/h – bei Menschen wäre dies Schrittgeschwindigkeit – seine Durchschnittsgeschwindigkeit liegt bei gerade einmal 2 km/h und damit deutlich darunter. Das soll verhindern, dass der Roboter sich oder andere verletzt. Zusätzlich verringert Pepper die Geschwindigkeit seiner Armbewegungen, wenn er seine Umgebung noch nicht ausreichend analysiert hat. Sollte es trotz aller Vorsichtsmaßnahmen zum Sturz des Roboters kommen, werden die Motoren automatisch ausgeschaltet. (vgl. Pandey und Gelin 2018)

Sensoren, die Wärmequellen erkennen, helfen den Robotern bei unterschiedlichen Aufgabenstellungen. Sie erlauben den Robotern, der Wärmequelle Mensch (oder Tier) zu folgen und dabei einen angemessenen Abstand einzuhalten. (vgl. Werry et al. 2001) Pepper nutzt solche Sensoren, um ein Überhitzen seiner Gelenke zu verhindern. Befindet er sich im Modus Autonomous Life, versucht er durch atemähnliche Bewegungen und konstante Positionsänderungen lebendiger zu wirken, passt aber auch eigenständig seine Bewegungsmuster an, wenn ein Temperaturanstieg in den Gelenken registriert wird (vgl. Gardecki und Podpora 2017).

Bei der kollaborativen Arbeit von Mensch und Roboter (siehe Kapitel 3.2.2) ist es vonnöten, dass der Roboter über eine Möglichkeit verfügt einzuschätzen, wie sich sein menschlicher Kollege im nächsten Moment bewegen wird. Im Gegensatz zu statischen Hindernissen wie Wänden oder Möbeln ist der Mensch ein dynamischer Faktor, der sowohl eine Gefahr für den Roboter darstellen kann, als auch umgekehrt ein Sicherheitsrisiko für den Menschen. Ein Zusammenspiel von künstlicher Intelligenz, welche die Bewegung des Roboters entsprechend steuert, und flexiblen Gelenken sowie Motoren, erlaubt eine sichere Zusammenarbeit. Zusätzlich zu einer gesteigerten Sicherheit kann ein vorausschauender Roboter den Menschen körperlich und mental entlasten, indem er mit ihm im Gleichklang arbeitet. (vgl. Nicolisl et al. 2018)

Die eingebauten Kameras benötigen häufig gute bis sehr gute Lichtverhältnisse, damit sich der Roboter eigenständig und sicher fortbewegen kann (vgl. Gardecki und Podpora 2017). Peppers Laser-Sensor soll Kollisionen verhindern, deckt den Raum um ihn herum allerdings nicht zu 100 % ab. Um diese blinden Flecken zu kompensieren besitzt der Roboter als zusätzlichen Schutz Stoßstangen, die bei direktem Kontakt das System alarmieren, sodass der Kurs korrigiert werden kann. (vgl. ebd. 2017) Der Care-O-bot 4 verfügt über zusätzliche Sensoren und eine 3D-Kamera in seiner Greifhand, welche die Fläche abdecken, die außerhalb des Radius der Sensoren an seinem Rumpf liegen. LEDs erleuchten den Bereich zusätzlich, sodass der Roboter in dunkleren Räumen Gegenstände erkennen und anheben kann. (vgl. Diefenbach et al. 2015)

Komplexe Roboter für den Heimgebrauch haben heutzutage oft einen Akku, der nur eine sehr geringe Laufzeit zulässt. Das schränkt die Roboter in ihrer Funktionalität ein, ist aber aufgrund der Kostenfrage (noch) nicht anders zu lösen. Ladestationen können von vielen mobilen Robotern eigenständig wiedergefunden werden. Wird ein Mangel an Strom erkannt, begibt sich der Roboter „nach Hause“. (vgl. Anki 2019b online; iRobot 2019 online; Pandey und Gelin 2018)

Durch dynamisches Laufen sollen die Gehbewegungen der Roboter denen ihrer menschlichen Schöpfer mehr ähneln, als sie es momentan tun. Das Verfahren, das auf eine zentrale Computersteuerung verzichtet und stattdessen künstliche Muskeln nutzt, funktioniert unter Laborbedingungen schon, muss aber noch weiterentwickelt werden, um in einem natürlichen Umfeld gleichermaßen funktional zu sein. (vgl. Barthelmeß und Furbach 2012, S. 7) Einige Roboter umgehen das Problem ganz, indem sie sich auf Rädern fortbewegen und so besonders stabil durch ihre Umgebung fahren können (vgl. Anki 2019b online; Diefenbach et al. 2015; Pandey und Gelin 2018). Treppensteigen ist dann allerdings nicht möglich und auch der Einsatz in der Natur kann erschwert sein.

3.1.3 Soziale Robotik

Die soziale Robotik ist ein Teilgebiet der Robotik, das sich mit vollständig oder teilweise autonomen Maschinen beschäftigt. Es gib unterschiedliche Meinungen dazu, ob diese Maschinen virtueller Natur sein dürfen, wie es bei den Chatbots der Fall ist, oder nur physischer, wie Pepper und PARO (siehe Kapitel 3.2.3). Allen sozialen Robotern ist jedoch gemein, dass sie mit Menschen interagieren und kommunizieren. (vgl. Bendel 2018b online) Im Rahmen dieser Arbeit werden virtuelle Maschinen wie die Chatbots ebenfalls zur Kategorie der sozialen Robotik gezählt, solange sie letztere Voraussetzung erfüllen.

Beim Affective Computing geht es darum, die Roboter sympathischer erscheinen zu lassen. Das Design zielt ganz darauf ab, zwischen Mensch und Roboter eine Beziehung aufbauen zu können. Hier spielt vom Aussehen über die Motorik bis zur Sprache vieles eine Rolle und nicht immer ist der richtige Ansatz intuitiv zu erkennen, siehe den Effekt Uncanny Valley (Kapitel 2.3), und sein Einfluss auf die Sympathien, die Menschen nicht-menschlichen Wesen entgegenbringen. (vgl. Volland 2018, S. 129) Es ist noch nicht abschließend geklärt, ob ein sozialer anmutendes Verhalten (Augenkontakt, persönliche Ansprache) von Robotern tatsächlich zu erhöhter Sympathie führt. Es gibt erste Ergebnisse, die dafür sprechen (vgl. Heerink et al. 2006; Heerink et al. 2010).

In einer Studie, welche die Teilnehmer vor das moralische Dilemma stellt, nur ein Wesen retten zu können – einen Menschen, einen humanoiden Roboter oder einen klassischen Roboter – zeigt sich, dass das Aussehen ein wichtiger Faktor, aber nicht der entscheidendste ist. Erhält der mechanisch anmutende Roboter eine Vorgeschichte, so wird auch er öfter in Schutz genommen. Umso menschlicher der Roboter in seinem Wesen wirkt, desto häufiger entscheiden sich die Probanden, Menschenleben zu opfern, um ihn zu retten. (vgl. Nijssen et al. 2019) Wirkt ein Roboter lebendig, sind Menschen in der Lage, Mitleid mit ihm zu empfinden.

Der Abschied des sozialen Roboters Jibo löst im Internet Trauerreaktionen aus. Er formuliert die Bitte, dass der Nutzer, wenn die Zeit gekommen ist und jeder einen Roboter zuhause hat, diesen doch bitte von Jibo grüßen möge. Obwohl dieser Text vorgegeben ist und der Roboter ihn nur vorliest, wie er es mit jedem anderen beliebigen Text tun würde, sind die Menschen empfänglich für den Kontext und reagieren emotional. (vgl. Martin 2019 online) Alles spricht dafür, dass der Mensch in der Lage ist, in Robotern lebendige, fühlende Wesen zu sehen – selbst, wenn das nicht den Tatsachen entspricht. Turings Test werden künftige Generationen vermutlich immer häufiger bestehen.

Vier Klassen sozialer Roboter können unterschieden werden: Die evokativen, deren Erfolg von der menschlichen Tendenz abhängt, Dinge zu anthropomorphisieren; die empfänglichen, die zwar passiv sind, aber von den Menschen zum Beispiel durch Imitation lernen können; die geselligen, die aktiv den Kontakt zu Menschen aufnehmen; und jene mit einem sozialen Interface, die allerdings nur ein oberflächliches Kognitionsmodell besitzen (vgl. Breazeal 2003). Drei weitere Klassen werden von Fong et al. (2003) hinzugefügt. Roboter mit sozialer Intelligenz, die im Gegensatz zu jenen mit sozialem Interface ein tieferes Verständnis menschlicher Kognition besitzen, Roboter, die in einem sozialen Umfeld verortet sind und andere soziale Agenten beziehungsweise Gegenstände unterscheiden können und sozial eingebettete, die strukturell mit ihrem Umfeld verbunden sind.

Es existieren aber noch zusätzliche Bestimmungsmerkmale. Bei sozialen Robotern kommen, ähnlich wie bei den „Big Five“ bei Menschen, fünf Persönlichkeitstypen besonders häufig vor (vgl. ebd. 2003):

- Werkzeug – diese Roboter wollen mit ihrem Verhalten ihre Verlässlichkeit besonders hervorheben
- Haustier – diese Roboter versuchen unter anderem Katzen und Hunde zu imitieren; in Kapitel 3.2.3 wird Robbenjunges PARO vorgestellt
- Cartoon – diese Roboter drücken sich besonders übertrieben aus, wie man es von Karikaturen gewohnt ist
- Künstliches Wesen – diese Roboter zeigen ein Verhalten, das an die Roboter aus klassischen Science Fiction -Werken erinnert
- Humanoid – diese Roboter versuchen möglichst real die Persönlichkeit von Menschen darzustellen; die Androiden aus Kapitel 2.4.3 stellen das Idealprodukt dieser Unterart dar

Eine angenehme Persönlichkeit ist vor allem für die SARs wichtig, socially assistive robots, die letzten Endes in jedem Haushalt die Bewohner in ihrem sozialen Alltag unterstützen sollen, ohne aber das Ziel zu verfolgen, menschliche Interaktion zu ersetzen. Sie sollen diese ergänzen und bereichern. (vgl. Feil-Seifer und Mataric 2005) Erste Studien hierzu zeigen schon positive Effekte, allerdings ist noch viel Arbeit nötig, um die individuellen Bedürfnisse berücksichtigen zu können, die bei verschiedenen Nutzergruppen natürlicherweise auftreten (vgl. Short et al. 2017).

[...]


1 Der Name David Cage ist ein Pseudonym von David De Gruttola, geboren 1969. (IMDb 2019).

2 Der Name entspringt dem populären Kinderbuch „The Wizard of Oz“ von L. F. Baum, in dem der titelgebende Zauberer sich als gewöhnlicher Mensch entpuppt, der seine Magie durch Maschinen wirkt.

Ende der Leseprobe aus 112 Seiten

Details

Titel
Therapieroboter und ihre Anwendungsgebiete. Akzeptanz neuer Technologien in der Sozialen Arbeit
Autor
Jahr
2019
Seiten
112
Katalognummer
V471193
ISBN (eBook)
9783960956884
Sprache
Deutsch
Schlagworte
künstliche intelligenz, roboter, robotik, sozialarbeit, therapieroboter, Pflegeroboter, Krankenpflege, OP-Roboter, Therapie
Arbeit zitieren
Lisa Schwichtenberg (Autor), 2019, Therapieroboter und ihre Anwendungsgebiete. Akzeptanz neuer Technologien in der Sozialen Arbeit, München, GRIN Verlag, https://www.grin.com/document/471193

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Therapieroboter und ihre Anwendungsgebiete. Akzeptanz neuer Technologien in der Sozialen Arbeit


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden