Autonome Systeme sollen einerseits konsistent sein, keine öffentliche Empörung herbeiführen, und die potentiellen Käufer nicht davon abhalten, die Autos auch zu kaufen. Nun stellt sich allerdings die Frage, ob diese Ziele überhaupt vereinbar sind, und wenn ja, welche Ethik sie vereinbaren kann. Diese Ethik zu finden und die Algorithmen zu definieren ist eine äußerst schwierige Herausforderung. Im Folgenden werden verschiedene Möglichkeiten durchgesprochen. Der Fokus liegt dabei auf den Theorien, die bisher als am wahrscheinlichsten gehandelt werden. Diese sind der Utilitarismus, die deontologischen Ethiken und – eine der bekanntesten Varianten der deontologischen Ethiken – die Kantische Ethiken, und die Ethiken nach Smith. Nacheinander werden diese Möglichkeiten aufgeschlüsselt und analysiert, um dann ein Ende ein Fazit ziehen zu können.
Durch fahrerlose Autos werden Maschinen in eine Position gesetzt, in der sie in sekunden-schnelle Entscheidungen über Leben und Tod treffen müssen, und auch wenn diese Szenarien eher unwahrscheinlich zu sein scheinen, werden auch diese unausweichlich passieren, da tausende autonome Autos auf der Straße unterwegs sein werden. Es wird also auch zu Situationen kommen, in denen sich das Auto zwischen zwei Übeln entscheiden muss. Eine solche Entscheidung könnte sein, entweder einen Fußgänger zu überfahren oder den Insassen und sich selbst zu opfern, um den Fußgänger zu retten. Dieses Beispiel verdeutlicht, wieso es wichtig ist, autonome Autos moralisch zu programmieren. Allerdings stellt sich noch die Frage, nach welcher Ethik dies erfolgen soll. Laut Bonnefon, Shariff und Rahwann müssen die Hersteller versuchen, drei verschiedene, scheinbar nicht verknüpfbare, Ziele zu erreichen.
Inhaltsverzeichnis
1. Einleitung
2. Utilitarismus
3. Deontologische Ethiken
4. Kantische Ethiken
5. Ethik nach Smith
6. Fazit
Zielsetzung & Themen
Die Arbeit untersucht die ethischen Herausforderungen bei der Programmierung autonom fahrender Fahrzeuge und analysiert verschiedene moralphilosophische Ansätze hinsichtlich ihrer Eignung für sicherheitskritische Entscheidungssituationen.
- Analyse utilitaristischer Entscheidungsmodelle bei autonomen Systemen
- Untersuchung deontologischer Regelwerke und deren Grenzen
- Evaluation der Anwendbarkeit kantischer Ethiken auf KI
- Betrachtung einer empathiebasierten Ethik nach Adam Smith
- Diskussion über gesellschaftliche Akzeptanz und ethische Konsistenz
Auszug aus dem Buch
2. Utilitarismus
Die erste Form die betrachtet wird ist der Utilitarismus. Dieser ist eine Form des Konsequentialismus, also eine Ethik, die ausschließlich die Folgen einer Handlung betrachtet und beachtet. Der Utilitarismus besagt, dass eine Handlung moralisch am besten ist, die unter allen Handlungsalternativen den größtmöglichen Gesamtnutzen schafft beziehungsweise das Glück maximiert. Nur was bedeutet das jetzt im Fall der autonomen Autos? Kurz gesagt würde das bedeuten, dass die Autos in Krisensituationen Entscheidungen treffen müssten, die den größten Nutzen herbeiführt, also die Möglichkeit nehmen müsste, die die wenigsten Menschen tötet, und die meisten rettet. Ein Vorteil des Utilitarismus in der Debatte ist, dass es leichter kalkulierbar ist, als andere Ethiken.
Allerdings ist es schwer festzulegen, welche Aspekte bei der Berechnung welche Rolle spielen sollen. Berechnet man zum Beispiel auch Sachschäden, könnte das zu unfairen Ergebnissen führen, da das System nun sagen würde, dass es besser ist, einen Motorradfahrer zu rammen der einen Helm trägt, als einen der keinen Helm trägt, da bei diesem die Wahrscheinlichkeit, dass er eine kostspielige Kopfverletzungen davon trägt, geringer ist. Geht man davon aus, dass beide Motorradfahrer Verletzungen erleiden würden, es ihnen ähnlich schlecht gehen würde, und der einzige Unterschied wäre, dass die Kosten für den Fahrer ohne Helm teurer wären, zeigt das, dass hier der Kostenfaktor eine zu große Rolle spielen würde (vgl. Goodall 2014, 7). Dies verdeutlicht auch, dass die Gerechtigkeit nicht komplett gegeben wäre.
Zusammenfassung der Kapitel
1. Einleitung: Die Einleitung beleuchtet den technologischen Fortschritt autonomer Fahrzeuge und die Notwendigkeit einer moralischen Programmierung aufgrund unvermeidbarer Krisensituationen.
2. Utilitarismus: Das Kapitel erläutert den utilitaristischen Ansatz der Nutzenmaximierung und die damit verbundenen moralischen Dilemmata in Unfallszenarien.
3. Deontologische Ethiken: Hier werden regelbasierte moralische Ansätze diskutiert und deren Grenzen bei der Anwendung auf komplexe, menschlich geprägte Verkehrssituationen aufgezeigt.
4. Kantische Ethiken: Der Abschnitt untersucht, ob Kants kategorischer Imperativ auf KI übertragen werden kann, und stellt fest, dass eine praktische Umsetzung derzeit an der Komplexität scheitert.
5. Ethik nach Smith: Dieses Kapitel analysiert eine empathiebasierte Ethik, bei der Maschinen aus Daten lernen, das Wohlwollen der Menschen zu simulieren.
6. Fazit: Das Fazit fasst die Ergebnisse zusammen und schlägt eine Kombination aus Utilitarismus und dem Smith-Ansatz als vielversprechendsten Weg vor.
Schlüsselwörter
Autonom fahrende Autos, Moral, Ethik, Utilitarismus, Deontologie, Kantische Ethiken, Adam Smith, Künstliche Intelligenz, Entscheidungstheorie, Programmierung, Krisensituationen, soziale Akzeptanz, Robotik, Unfallvermeidung, Algorithmen.
Häufig gestellte Fragen
Worum geht es in der Arbeit grundlegend?
Die Arbeit beschäftigt sich mit der Frage, wie autonome Fahrzeuge ethisch korrekt programmiert werden können, um in unvermeidbaren Unfallszenarien moralisch vertretbare Entscheidungen zu treffen.
Welche moralphilosophischen Strömungen werden untersucht?
Es werden der Utilitarismus, verschiedene deontologische Ansätze, kantische Ethiken sowie die auf Adam Smith basierende empathieorientierte Ethik analysiert.
Was ist das primäre Ziel der Untersuchung?
Das Ziel ist es, eine geeignete ethische Grundlage für Algorithmen in autonomen Autos zu finden, die sowohl konsistent als auch gesellschaftlich akzeptiert ist.
Welche wissenschaftliche Methode kommt zum Einsatz?
Die Arbeit nutzt die Analyse und den Vergleich bestehender ethischer Theorien sowie die Auswertung relevanter Fachliteratur und empirischer Studien zum Verhalten in Krisensituationen.
Was bildet den Schwerpunkt des Hauptteils?
Der Hauptteil widmet sich der detaillierten Untersuchung, ob und wie verschiedene ethische Theorien die komplexen Anforderungen an autonome Systeme erfüllen können.
Was zeichnet die Arbeit besonders aus?
Die Arbeit zeichnet sich durch die Verknüpfung technischer Notwendigkeiten mit klassischen philosophischen Ethikdiskursen aus.
Warum reichen Asimovs Gesetze allein nicht aus?
Wie im Text dargelegt, sind diese Gesetze für die Realität des Straßenverkehrs zu starr und können unvorhersehbare, komplexe Situationen mit menschlichem Fehlverhalten nicht ausreichend abdecken.
Welche Kombination schlägt der Autor als Kompromiss vor?
Der Autor schlägt vor, den Utilitarismus als Übergangslösung zu nutzen, während die Systeme durch Datengenerierung langfristig eine Ethik nach Smith entwickeln, um menschliches Verhalten besser abzubilden.
- Arbeit zitieren
- Sarah Sailer (Autor:in), 2019, Autonomfahrende Autos. Warum sie moralisch programmiert werden sollten und welcher Moral sie folgen sollten, München, GRIN Verlag, https://www.grin.com/document/1176196