Grin logo
de en es fr
Shop
GRIN Website
Texte veröffentlichen, Rundum-Service genießen
Zur Shop-Startseite › Philosophie - Philosophie der Gegenwart

Moralisches Handeln bei Robotern

Titel: Moralisches Handeln bei Robotern

Essay , 2017 , 6 Seiten , Note: 2,0

Autor:in: Jessica Baumtrog (Autor:in)

Philosophie - Philosophie der Gegenwart
Leseprobe & Details   Blick ins Buch
Zusammenfassung Leseprobe Details

Künstliche Intelligenz hat sich in den letzten Jahren enorm weiterentwickelt und ist somit zu einem häufig diskutierten Thema geworden. Vor allem die Frage, ob Roboter zu moralischem Handeln fähig sind, wirft einige Unklarheiten auf. Maschinelle Systeme werden technisch immer besser und ähneln dem Menschen in ihren Funktionsweisen immer mehr. Aber dürfen sie auch als vollwertige moralische Akteure betrachtet werden?

Zu diesem Thema bilden sich viele verschiedene Meinungen. Das TrolleyProblem, ein Gedankenexperiment der britischen Philosophin Philippa Foot, setzt sich mit einem moralischen Dilemma auseinander. Es kann auf das Thema Roboterethik
angewendet werden, wenn man sich eine Straßenbahn vorstellt, die autonom fährt. Viele Fragen stellen sich uns angesichts der zahlreichen Anwendungsmöglichkeiten, die für Maschinen entstehen. Vor allem in Bereichen, in denen moralische Urteilsfähigkeit gefragt ist, wie beispielsweise dem autonomen Fahren.

Leseprobe


Inhaltsverzeichnis

1. Einleitung

2. Handlungsfähigkeit von Maschinen

3. Moralische Handlungsfähigkeit durch Lernen

4. Programmierung als Erziehungsersatz

5. Autonomie und ethische Entscheidungsfindung

6. Fazit

Zielsetzung & Themen

Die Arbeit untersucht die philosophische Fragestellung, ob Roboter und künstliche Systeme als moralische Akteure betrachtet werden können, indem sie Konzepte wie Handlungsfähigkeit, autonomes Lernen und Programmierung als Form der moralischen Erziehung analysiert.

  • Vergleich zwischen menschlicher Erziehung und maschineller Programmierung
  • Anwendung des Trolley-Problems auf autonome Systeme
  • Rolle künstlicher neuronaler Netze beim moralischen Lernen
  • Diskussion der Handlungsfähigkeit und Autonomie von Robotern
  • Vergleich ethischer Ansätze (Kategorischer Imperativ, Utilitarismus) in der Robotik

Auszug aus dem Buch

Können Roboter moralisch handeln?

Künstliche Intelligenz hat sich in den letzten Jahren enorm weiterentwickelt und ist somit zu einem häufig diskutierten Thema geworden. Vor allem die Frage, ob Roboter zu moralischem Handeln fähig sind, wirft einige Unklarheiten auf. Maschinelle Systeme werden technisch immer besser und ähneln dem Menschen in ihren Funktionsweisen immer mehr. Aber dürfen sie auch als vollwertige moralische Akteure betrachtet werden? Zu diesem Thema bilden sich viele verschiedene Meinungen.

Das Trolley-Problem, ein Gedankenexperiment der britischen Philosophin Philippa Foot, setzt sich mit einem moralischen Dilemma auseinander. Es kann auf das Thema Roboterethik angewendet werden, wenn man sich eine Straßenbahn vorstellt, die autonom fährt. Diese droht fünf Personen zu überfahren, eine Weiche kann so umgestellt werden, dass die Straßenbahn ausweicht, jedoch befindet sich dort aber eine weitere Person (vgl. Foot: 1978). Wie soll das autonome System entscheiden, ob es das Leben der einen Person in Kauf nimmt, um das Leben der anderen fünf Personen zu retten und ist ein solches System überhaupt in der Lage moralische Entscheidungen wie diese zu treffen?

Zusammenfassung der Kapitel

1. Einleitung: Einführung in das Thema der Roboterethik und Vorstellung des zentralen Dilemmas anhand des Trolley-Problems.

2. Handlungsfähigkeit von Maschinen: Untersuchung der Grundlagen maschinellen Handelns im Vergleich zu menschlichen mentalen Zuständen und Autonomie.

3. Moralische Handlungsfähigkeit durch Lernen: Erörterung, wie künstliche neuronale Netze Maschinen ermöglichen, moralische Prinzipien durch Erfahrung zu erwerben.

4. Programmierung als Erziehungsersatz: Vergleich der Programmierung von Robotern mit der menschlichen Erziehung zur Vermittlung moralischer Werte.

5. Autonomie und ethische Entscheidungsfindung: Analyse der Übertragbarkeit von Autonomie auf Maschinen und der Anwendung ethischer Prinzipien wie des Utilitarismus.

6. Fazit: Zusammenfassende Einschätzung der moralischen Handlungsfähigkeit von Robotern und Ausblick auf zukünftige Entwicklungen.

Schlüsselwörter

Roboterethik, Künstliche Intelligenz, Moral, Autonomie, Trolley-Problem, Handlungsfähigkeit, neuronale Netzwerke, Programmierung, Erziehung, Utilitarismus, Ethik, Maschinen, Entscheidungsfindung, technischer Fortschritt, Moralische Akteure

Häufig gestellte Fragen

Worum geht es in dieser Arbeit grundsätzlich?

Die Arbeit behandelt die philosophische Untersuchung, ob moderne Roboter und künstliche Systeme als moralische Akteure fungieren können oder dies in Zukunft werden.

Welche Themenfelder stehen dabei im Fokus?

Im Zentrum stehen die Konzepte der Handlungsfähigkeit, der technischen Autonomie, des maschinellen Lernens sowie der Vergleich zwischen menschlicher Erziehung und maschineller Programmierung.

Was ist die zentrale Forschungsfrage?

Die Autorin geht der Frage nach, ob Roboter zu moralischem Handeln fähig sind, selbst wenn ihre Moral durch einen programmierten Codex bestimmt wird.

Welche wissenschaftlichen Methoden werden verwendet?

Es wird eine argumentationsanalytische Methode verwendet, die philosophische Gedankenexperimente (wie das Trolley-Problem) mit theoretischen Konzepten aus der Informatik und Ethik verknüpft.

Was wird im Hauptteil der Arbeit behandelt?

Der Hauptteil gliedert sich in die Untersuchung von Handlungsbedingungen, die Erläuterung moralischen Lernens durch neuronale Netze und die kritische Auseinandersetzung mit der Autonomie von Maschinen.

Welche Schlüsselwörter charakterisieren die Arbeit?

Die Arbeit lässt sich primär durch Begriffe wie Roboterethik, Autonomie, Moral, künstliche Intelligenz und maschinelles Lernen charakterisieren.

Wie argumentiert die Autorin bezüglich des freien Willens?

Sie vertritt die Auffassung, dass für moralische Urteilsfähigkeit kein strikter freier Wille erforderlich ist, da auch menschliches Handeln oft durch Erziehung und ethische Prinzipien determiniert ist.

Wie wird das "Trolley-Problem" in den Kontext eingeordnet?

Das Trolley-Problem dient als praktisches Beispiel, um die Herausforderung für autonome Fahrzeuge zu verdeutlichen, in dilemmatischen Situationen moralisch korrekte Entscheidungen zu treffen.

Ende der Leseprobe aus 6 Seiten  - nach oben

Details

Titel
Moralisches Handeln bei Robotern
Hochschule
Universität Regensburg
Note
2,0
Autor
Jessica Baumtrog (Autor:in)
Erscheinungsjahr
2017
Seiten
6
Katalognummer
V981217
ISBN (eBook)
9783346333858
Sprache
Deutsch
Schlagworte
moralisches handeln robotern
Produktsicherheit
GRIN Publishing GmbH
Arbeit zitieren
Jessica Baumtrog (Autor:in), 2017, Moralisches Handeln bei Robotern, München, GRIN Verlag, https://www.grin.com/document/981217
Blick ins Buch
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
Leseprobe aus  6  Seiten
Grin logo
  • Grin.com
  • Versand
  • Kontakt
  • Datenschutz
  • AGB
  • Impressum