Moralisches Handeln bei Robotern


Essay, 2017

6 Seiten, Note: 2,0


Leseprobe

Künstliche Intelligenz hat sich in den letzten Jahren enorm weiterentwickelt und ist somit zu einem häufig diskutierten Thema geworden. Vor allem die Frage, ob Roboter zu moralischem Handeln fähig sind, wirft einige Unklarheiten auf. Maschinelle Systeme werden technisch immer besser und ähneln dem Menschen in ihren Funktionsweisen immer mehr. Aber dürfen sie auch als vollwertige moralische Akteure betrachtet werden? Zu diesem Thema bilden sich viele verschiedene Meinungen. Das TrolleyProblem, ein Gedankenexperiment der britischen Philosophin Philippa Foot, setzt sich mit einem moralischen Dilemma auseinander. Es kann auf das Thema Roboterethik angewendet werden, wenn man sich eine Straßenbahn vorstellt, die autonom fährt. Diese droht fünf Personen zu überfahren, eine Weiche kann so umgestellt werden, dass die Straßenbahn ausweicht, jedoch befindet sich dort aber eine weitere Person (vgl. Foot: 1978). Wie soll das autonome System entscheiden, ob es das Leben der einen Person in Kauf nimmt, um das Leben der anderen fünf Personen zu retten und ist ein solches System überhaupt in der Lage moralische Entscheidungen wie diese zu treffen? Viele solcher Fragen stellen sich uns angesichts der zahlreichen Anwendungsmöglichkeiten, die für Maschinen entstehen. Vor allem in Bereichen, in denen moralische Urteilsfähigkeit gefragt ist, wie beispielsweise dem autonomen Fahren. Meiner Meinung nach, sprechen einige Argumente dafür, dass Roboter zu moralischem Handeln fähig sein können.

Um zu sagen, ob Roboter moralisch handeln können, sollte man zunächst erstmal klären, ob sie generell fähig sind zu handeln. Wer handeln kann, besitzt die Fähigkeit, sich in seinem eigenen Verhalten an bestimmten Gründen zu orientieren. Wenn jemand so verfährt, handelt er aus Überzeugung oder aus Motivation oder auf Grund einer bestimmten Meinung, die er hat. Solche Gründe können den Maschinen vorgestellt werden und man kann den Systemen Anweisungen geben, welche Verhaltensweisen oder Sachverhalte erstrebt oder vermieden werden sollen. Roboter, die man so konstruiert können dann nach diesen Gründen handeln und das kann man mit den mentalen Zuständen eines Menschen vergleichen. „Dies ist insbesondere bei künstlichen Systemen der Fall, die anhand des sog. BDI-Modells konstruiert werden" (Rötzer: 2016, 7). Hinzukommt die „Selbstursprünglichkeit". Artifizielle Systeme besitzen die Möglichkeit zur Autonomie, auf die später noch gründlicher eingegangen wird. Das heißt, sie können innere Zustände ohne Reize von außen verändern, außerdem können sie interaktiv und adaptiv sein. Sie sind also in der Lage, die Art und Weise zu verändern, wie auf einen Reiz reagiert wird (Floridi & Sanders: 2004). Da Roboter sowohl ihr Verhalten an bestimmten Gründen orientieren können, als auch eine solche Selbstursprünglichkeit aufweisen, ist es ihnen also möglich, zu handeln. Da diese Frage geklärt ist, geht es jetzt darum ob sie, da sie ja zu generellem Handeln fähig, auch moralisch handeln können. Wenn jemand moralisch handelt, tut er das aufgrund bestimmter Werte oder Vorstellungen. Die Gründe für sein Handeln haben also einen moralischen Ursprung. Solche Gründe können Robotern einprogrammiert werden. Der Roboter wird dann versuchen, nach diesen Werten zu handeln. Er wird also moralisch handeln.

Wie bereits klar wird, ist es also möglich Artifizielle Systeme so zu programmieren, dass sie eine moralische Handlungsfähigkeit besitzen. Durch verschiedene Herangehensweisen, wie Top-down-Ansätze, Bottom-up-Ansätze oder hybride Ansätze verknüpft man Vorgehensweisen aus der Informatik mit ethischen Ansätzen aus der Philosophie (vgl. Wallach & Allen: 2009). Um Maschinen moralisches Handeln und Urteilsvermögen zuzuschreiben, müssen sie in der Lage sein zu moralischem Lernen. Das kann man mit Hilfe von künstlichen neuronalen Netzwerken erreichen. Diese machen es möglich, dass Roboter ähnlich wie wir Menschen lernen. Das System kann Erfahrungen verarbeiten und diese in eine Art „Moral" umwandeln. Es führt bestimmte Handlungen aus und bewertet diese. Daraufhin leitet es daraus weitere Handlungen oder Entscheidungen ab. Je nachdem welche Erfahrungen das System mit einer bestimmten Handlung gemacht hat, wird es die Handlung für gut befinden und eventuell in einer ähnlichen Situation wiederholen oder die Handlung als eine schlechte Entscheidung zurückweisen und in Zukunft vermeiden. Meiner Meinung nach ist ein solcher Lernprozess, bei dem Moral sozusagen „erworben" wird völlig mit dem Erwerben unserer menschlichen Moral vergleichbar. Wenn wir Menschen falsche Entscheidungen treffen, versuchen wir sie bei einer nächsten Handlung zu vermeiden und wenn wir merken, dass durch unser Handeln etwas gutes oder positives bewirkt wird, so werden wir uns vielleicht noch einmal für eine solche Handlung entscheiden. Auf diese Weise bauen wir Menschen unsere Urteilsfähigkeit aus. Das selbe muss dann auch für Roboter gelte. Sie lernen und handeln schließlich nach denselben Prinzipien, wie wir. Wenn also uns Menschen Moral zugesprochen werden darf, so darf sie auch Maschinen zugesprochen werden, denen solche neuronalen Netze implementiert wurden.

Ein weiteres Argument dafür, dass Roboter als moralische Akteure angesehen werden können ist, dass man Programmierung mit einer starken Form der Erziehung gleichsetzen kann (vgl. Loh: 2017, 22). Wir werden durch unsere Erziehung determiniert und trotzdem wird uns Menschen Moral zugesprochen. Das heißt, dass es nicht zwangsläufig nötig ist eine eigene Moral zu entwickeln oder eigene moralische Vorstellungen zu haben, um ein moralisches Wesen zu sein. Moral kann auch übertragen oder angelernt werden. So wie wir die moralischen Werte und Vorstellungen unserer Eltern übernehmen, kann auch ein Roboter die Werte seines Entwicklers übernehmen und ihnen zu Folge Entscheidungen treffen oder auf bestimmte Weise handeln. Diesen Ansatz könnte man kritisieren, in dem man sagt, dass wir Menschen aber immer noch andere Vorstellungen entwickeln können als diejenigen, die uns durch unsere Erziehung mitgegeben werden und, dass wir auf Grund unseres freien Willens zu jeder Zeit anders handeln können als es uns angelernt wurde oder von uns erwartet wird. Man könnte auch behaupten, dass uns Menschen von den Maschinen unterscheidet, dass sich unsere moralischen Vorstellungen verändern können, zum Beispiel durch Einfluss von außen und durch unser soziales Umfeld, ein Roboter aber sobald ihm eine bestimmte Moral einprogrammiert wurde, keine Möglichkeit hat eine andere Moral zu entwickeln. Diese Kritikpunkte lassen sich aber widerlegen, da es Robotern sehr wohl möglich ist, andere Moralvorstellungen zu erlernen, nämlich durch die im Vorherigen bereits genannten Lernsysteme. Man kann einem Roboter dann Moral zusprechen, wenn man die Programmierung als Erziehung sieht, durch die er determiniert wird. Er ist aber dennoch in der Lage neue Werte zu entwickeln, ebenso wie wir Menschen trotz unserer Erziehung in der Lage sind Vorstellungen zu entwickeln, die von denen unserer Eltern abweichen.

Für Moralität in Robotern spricht meines Erachtens nach auch, dass sie als autonom betrachtet werden können. Sie werden zwar entwickelt um einen bestimmten Zweck zu erfüllen, aber können dann zur Verfolgung dieses Zweckes freigelassen werden. Sie müssen dann selbst zurechtkommen und eigenständige Entscheidungen treffen. Diese Selbstständigkeit ist bei höheren Artifiziellen Systemen möglich, die nicht vom Menschen abhängig sind und frei entscheiden, indem man ihnen Lernsysteme implementiert. Es lassen sich also bestimmte menschliche Kompetenzen, wie Entscheidungsfähigkeit und Autonomie auf Maschinen übertragen. Wieso dann nicht auch Moral? Ein autonomes Wesen, das selbstständig handelt und entscheidet muss doch fähig sein, diese Handlungen und Entscheidungen auf moralische Art und Weise abzuwägen. Wann immer jemand entscheidet, hat er bestimmte Gründe dafür. Ich studiere zum Beispiel, um später eine bessere Chance auf einen guten Beruf zu haben. Diese Gründe entstehen in uns beispielsweise durch Erziehung. Meine Eltern haben mir bereits als Kind beigebracht, dass es wichtig ist sich zu bilden, deswegen gehe ich studieren. Bei Maschinen können wir, wie bereits erwähnt die Programmierung mit Erziehung gleichsetzen. Die Gründe, die Maschinen für bestimmte Verhaltensweisen haben, entstehen also durch die Programmierung.

Da man Robotern unterschiedliche Denkmuster und Befehle einprogrammieren kann, ist es auch möglich, sie mit bestimmten ethischen Ansätzen zu versehen, wie zum Beispiel den Robotergesetzen des Science-Fiction-Autors Isaac Asimov, dem Kategorischen Imperativ von Kant oder dem Utilitarismus oder weiteren. Ist der Roboter nach diesen Ansätzen programmiert, so wird er auch nach ihnen handeln und ihnen folgen. Er wird zum Beispiel, wenn er den Robotergesetzen folgt, niemals einen Menschen verletzten oder töten. Wenn er sich nach dem Utilitarismus verhält, so wird er versuchen stets den größten Nutzen für die größte Zahl der Beteiligten zu erreichen. Meiner Meinung nach, handelt er dann in gewissem Sinne moralisch, auch wenn die Moral durch einen Codex determiniert wird. Es ist nämlich nicht gesagt, dass für moralische Urteilsfähigkeit ein freier Wille vorhanden sein muss. Es reicht, denke ich, nach bestimmten Regeln zu handeln, seien sie einprogrammiert, anerzogen oder erlernt. So ist es bei uns Menschen und so ist es auch bei den Maschinen. Wir handeln doch ebenfalls nach bestimmten ethischen Prinzipien, die möglicherweise durch Erziehung in uns vorliegen. Auch wenn wir uns dessen nicht immer bewusst zu sein scheinen und meinen wir würden aus völlig freiem Entschluss Entscheidungen treffen, sind diese durch bestimmte Faktoren determiniert. Menschen haben zwar die Möglichkeit, aus bestimmten Handlungen zu wählen, aber dieses Wählen geschieht doch meist nicht willkürlich. Es liegen uns immer irgendwelche ethischen Prinzipien zugrunde.

Abschließend lässt sich sagen, dass Roboter sehr wohl zu moralischen Entscheidungen und moralischem Handeln fähig sind. Selbst wenn dies noch nicht der Fall ist, so werden sie es in Zukunft sein. Sie orientieren sich an bestimmten Gründen, die durch die Programmierung gegeben sind. Die Technik ist inzwischen soweit fortgeschritten, dass man ihnen neuronale Netzwerke implementieren kann, mit denen sie dann ähnlich wie wir Menschen lernen und aufgrund von Erfahrungen moralische Standpunkte entwickeln. Außerdem lässt sich die Programmierung von Maschinen mit unserer menschlichen Erziehung vergleichen. Den Robotern wird also eine bestimmte Moral einprogrammiert, während sie uns Menschen durch Erziehung übermittelt wird. Genau wie wir sind solche Systeme zur Autonomie fähig und können deshalb eigene Entscheidungen treffen und alleine, ohne Abhängigkeit von ihrem Bediener oder Entwickler, handeln. All diese Gründe sprechen dafür, dass Roboter moralisch handeln können.

[...]

Ende der Leseprobe aus 6 Seiten

Details

Titel
Moralisches Handeln bei Robotern
Hochschule
Universität Regensburg
Note
2,0
Autor
Jahr
2017
Seiten
6
Katalognummer
V981217
ISBN (eBook)
9783346333858
Sprache
Deutsch
Schlagworte
moralisches, handeln, robotern
Arbeit zitieren
Jessica Baumtrog (Autor:in), 2017, Moralisches Handeln bei Robotern, München, GRIN Verlag, https://www.grin.com/document/981217

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Moralisches Handeln bei Robotern



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden