Diese Arbeit befasst sich mit dem Thema der künstlichen Intelligenz und deren moralischen Möglichkeiten. Erst die künstlerische Auseinandersetzung mit diesem Thema hat unseren Blick auf künstliche Intelligenz in unserem realen Alltag mitgeprägt.
Anhand von Beispielen wird folgenden Fragestellungen nachgegangen: Ist es überhaupt logisch naheliegend, dass eine künstliche Intelligenz ohne Emotionen daran interessiert wäre, uns als Spezies auszurotten? Sind Emotionen grundlegend wichtig für moralisches Verhalten? Wären KIs vielleicht sogar besser geeignet, Moral zu definieren, da sie negative Emotionen wie Neid, Wut oder Hass nicht empfinden? Was passiert tatsächlich, wenn KIs "menschlicher" werden? Gibt es für diese Fragen Antwortideen in der Science-Fiction-Literatur oder der Philosophie? Im folgenden Abschnitt wird versucht, fixe Parameter für "gutes" Verhalten zu definieren, um diese Fragestellung überhaupt beantworten zu können. Darauffolgend, werden diese Parameter auf einige Beispiele aus dem Science-Fiction-Genre angewendet.
Inhaltsverzeichnis
- Einleitung
- Fragestellung
- Was ist Moral? Was ist gut?
- Grundlegendes
- Moral in der Philosophie
- Anwendbarkeit auf konkrete Beispiele - iRobot
- Von wem lernt eine KI moralisches Verhalten?
- Menschlichkeit als Voraussetzung für ›gutes‹ Verhalten
- Kalt, gefühllos und böse?
- Gute Androiden ohne Emotionen
- Fazit
Zielsetzung und Themenschwerpunkte
Die Hausarbeit untersucht, ob Androiden und künstliche Intelligenzen in der Lage sind, sich moralisch gut zu verhalten, ohne menschliche Emotionen zu empfinden. Sie analysiert, wie die Frage der Moral und des »guten« Verhaltens in der Science-Fiction Literatur und Philosophie behandelt wird, und hinterfragt, ob Emotionen tatsächlich grundlegend für ethisches Handeln sind.
- Die Rolle von Emotionen für moralisches Verhalten
- Die Definition von »gutem« Verhalten bei Androiden und KIs
- Die Darstellung von Androiden in der Science-Fiction Literatur
- Die Anwendung philosophischer Konzepte auf die Frage der KI-Moral
- Die Auswirkungen der Entwicklung künstlicher Intelligenz auf die menschliche Gesellschaft
Zusammenfassung der Kapitel
Die Einleitung stellt die Fragestellung der Hausarbeit vor, die untersucht, ob Androiden und KIs moralisch gut sein können, ohne Emotionen zu empfinden. Sie beleuchtet die historische Entwicklung des Themas in der Science-Fiction und stellt die zentralen Fragen, die im weiteren Verlauf der Arbeit behandelt werden.
Das zweite Kapitel definiert den Begriff »Moral« und beleuchtet seine philosophischen Grundlagen. Es setzt sich mit der Frage auseinander, was »moralisches Verhalten« bedeutet und wie sich dieses auf konkrete Beispiele aus der Science-Fiction Literatur anwenden lässt. Es werden auch die Herausforderungen diskutiert, die sich aus der Frage ergeben, wie eine KI moralisches Verhalten lernen kann.
Das dritte Kapitel beschäftigt sich mit der Rolle der Menschlichkeit als Voraussetzung für »gutes« Verhalten. Es analysiert, ob Androiden, die keine Emotionen empfinden, als »böse« oder »gefährlich« gelten, und untersucht, ob es »gute Androiden« ohne Emotionen geben kann.
Schlüsselwörter
Die Arbeit beschäftigt sich mit den zentralen Themen der Moral, des »guten« Verhaltens, der künstlichen Intelligenz, der Androiden, der Emotionen und der Science-Fiction Literatur. Es werden philosophische Konzepte wie Kants »Grundlegung zur Metaphysik der Sitten« sowie Beispiele aus der Science-Fiction Literatur, wie »Matrix« und »Bicentennial Man«, herangezogen, um die Fragestellung der Arbeit zu beleuchten.
- Arbeit zitieren
- Marie-Christin Spitznagel (Autor:in), 2022, Emotionen und Moral von künstlichen Intelligenzen, Androiden und Robotern, München, GRIN Verlag, https://www.grin.com/document/1365679