Autonomfahrende Autos. Warum sie moralisch programmiert werden sollten und welcher Moral sie folgen sollten


Hausarbeit, 2019

15 Seiten, Note: 2,7


Leseprobe

Inhaltsverzeichnis

1. Einleitung

2. Utilitarismus

3. Deontologische Ethiken

4. Kantische Ethiken

5. Ethik nach Smith

6. Fazit

7. Literaturverzeichnis

1. Einleitung

Wir leben in einer Welt, in der der technologische Fortschritt immer weiter voranschreitet. Daher ist es auch nur eine Frage der Zeit, bis es auch autonom fahrende Autos geben wird. Aktuell gibt es bereits verschiedene Techniken, die die Vorreiter von autonomen Autos darstellen, z.b. Einparkhilfen oder Mittelstreifen-Techniken. Es ist daher unausweichlich, dass es autonome Autos geben wird. Auch wenn eine Mehrheit der Ingenieure darauf bestehen dass autonome Autos sicher sind – sogar sicherer als menschliche Fahrer – ist die Öffentlichkeit weiterhin skeptisch (vgl. Wallah 2009, 14). Skeptisch darüber, wie sicher diese autonomen Systeme wirklich sind. Marchant und Lindor (2012, 1321) gehen davon aus, dass autonome Fahrzeuge nur dann legal und realisierbar wären, wenn sie statistisch gesehen in weniger oder weniger fatalen Unfällen verwickelt wären, wie standardmäßige Autos. Daher wären autonome Fahrzeuge, sofern sie auf den Markt kommen, auf jeden Fall sicherer als Autos, die von Menschen gesteuert werden. Hevelke und Nida-Rümelin (2014, 2) ergänzen, dass dies auch von einem moralischen, politischen und ökonomischen Gesichtspunkt zutreffend ist: stellt sich heraus, dass autonome Fahrzeuge weniger sicher sind als Autos, die von Menschen gefahren werden, würde es sie nicht geben.

Allerdings ist die Öffentlichkeit trotzdem noch nicht komplett überzeugt, da viele Menschen weiterhin denken, dass es Krisensituationen gibt, in denen menschliches Urteil bevorzugt werden würde, da diese wohl möglich über das Wissen oder den Umfang des programmierten Autos hinausgehen. Dieses Urteil müsste in manchen Situationen auch eine ethische Betrachtung benötigen, die autonome Autos nach jetzigem Stand nicht treffen können (vgl. Wallah 2009, 14). Dadurch wird deutlich, dass die Ängste der Bevölkerung noch nicht gelöst sind und weiterer Überlegungen bedarf. Wallah (2009, 15) verdeutlicht, warum es wichtig ist, dass autonome Autos moralisch programmiert werden sollten. Durch fahrerlose Autos werden Maschinen in eine Position gesetzt, in der sie in sekundenschnelle Entscheidungen über Leben und Tod treffen müssen, und auch wenn diese Szenarien eher unwahrscheinlich zu sein scheinen, werden auch diese unausweichlich passieren, da tausende autonome Autos auf der Straße unterwegs sein werden. Es wird also auch zu Situationen kommen, in denen sich das Auto zwischen zwei Übeln entscheiden muss. Eine solche Entscheidung könnte sein, entweder einen Fußgänger zu überfahren oder den Insassen und sich selbst zu opfern, um den Fußgänger zu retten. Dieses Beispiel verdeutlicht, wieso es wichtig ist, autonome Autos moralisch zu programmieren. Allerdings stellt sich noch die Frage, nach welcher Ethik dies erfolgen soll. Laut Bonnefon, Shariff und Rahwann (2016, 1573) müssen die Hersteller versuchen, drei verschiedene, scheinbar nicht verknüpfbare, Ziele zu erreichen. Autonome Systeme sollen einerseits konsistent sein, keine öffentliche Empörung herbeiführen, und die potentiellen Käufer nicht davon abhalten, die Autos auch zu kaufen. Nun stellt sich allerdings die Frage, ob diese Ziele überhaupt vereinbar sind, und wenn ja, welche Ethik sie vereinbaren kann. Diese Ethik zu finden und die Algorithmen zu definieren ist eine äußerst schwierige Herausforderung.

Im Folgenden werden verschiedene Möglichkeiten durchgesprochen. Der Fokus liegt dabei auf den Theorien, die bisher als am wahrscheinlichsten gehandelt werden. Diese sind der Utilitarismus, die deontologischen Ethiken und – eine der bekanntesten Varianten der deontologischen Ethiken – die Kantische Ethiken, und die Ethiken nach Smith. Nacheinander werden diese Möglichkeiten aufgeschlüsselt und analysiert, um dann ein Ende ein Fazit ziehen zu können.

2. Utilitarismus

Die erste Form die betrachtet wird ist der Utilitarismus. Dieser ist eine Form des Konsequentialismus, also eine Ethik, die ausschließlich die Folgen einer Handlung betrachtet und beachtet. Der Utilitarismus besagt, dass eine Handlung moralisch am besten ist, die unter allen Handlungsalternativen den größtmöglichen Gesamtnutzen schafft beziehungsweise das Glück maximiert. Nur was bedeutet das jetzt im Fall der autonomen Autos? Kurz gesagt würde das bedeuten, dass die Autos in Krisensituationen Entscheidungen treffen müssten, die den größten Nutzen herbeiführt, also die Möglichkeit nehmen müsste, die die wenigsten Menschen tötet, und die meisten rettet. Ein Vorteil des Utilitarismus in der Debatte ist, dass es leichter kalkulierbar ist, als andere Ethiken. Allerdings ist es schwer festzulegen, welche Aspekte bei der Berechnung welche Rolle spielen sollen. Berechnet man zum Beispiel auch Sachschäden, könnte das zu unfairen Ergebnissen führen, da das System nun sagen würde, dass es besser ist, einen Motorradfahrer zu rammen der einen Helm trägt, als einen der keinen Helm trägt, da bei diesem die Wahrscheinlichkeit, dass er eine kostspielige Kopfverletzungen davon trägt, geringer ist. Geht man davon aus, dass beide Motorradfahrer Verletzungen erleiden würden, es ihnen ähnlich schlecht gehen würde, und der einzige Unterschied wäre, dass die Kosten für den Fahrer ohne Helm teurer wären, zeigt das, dass hier der Kostenfaktor eine zu große Rolle spielen würde (vgl. Goodall 2014, 7). Dies verdeutlicht auch, dass die Gerechtigkeit nicht komplett gegeben wäre. Durch diese Berechnung würde die Personengruppe der Motorradfahrer mit Helm schlechter behandelt werden und schlechter dastehen als die Gruppe der Motorradfahrer ohne Helm, da sie eher in Unfällen verwickelt werden würden, egal ob sie den Unfall selbst zu verschulden hätten. Durch diese Berechnungen würden auch andere Personengruppen gegeneinander abgewägt werden, sodass es unweigerlich auch dazu kommen würde, dass verschiedene Personengruppen immer bevorzugt, und andere immer verlieren würden. Eine Benachteiligung aufgrund der Zugehörigkeit zu einer Gruppe ist nicht moralisch und daher nicht gewünscht.

Lässt man nun den Aspekt der Gruppenzugehörigkeit außer Acht und betrachtet nur die Anzahl der geretteten Leben, findet man interessante Ergebnisse. Bonnefon, Shariff und Rahwann (2016) gestalteten verschiedene Studien. Die Teilnehmer ihrer Studien stimmten darin überein, dass es moralischer wäre, wenn die autonomen Autos die eigenen Insassen „opfern“ würden, wenn dadurch mehr Leben gerettet werden könnten. Sie drücken eine moralische Präferenz für utilitaristische autonome Autos aus, die dazu programmiert sind, die Anzahl an Opfern zu verringern, auch wenn sie sich nicht sicher wären, ob autonome Autos auch wirklich utilitaristisch programmiert werden würden. Alles in allem stimmten sie also damit überein, autonome Autos utilitaristisch zu programmieren. Nun stellten sie den Teilnehmern aber auch die Frage, ob sie sich selbst ein utilitaristisch programmiertes Auto kaufen würden und damit fahren würden. Interessanterweise war die Mehrheit der Teilnehmer nicht dazu bereit, selbst ein utilitaristisches Auto zu besitzen, wollten aber dass andere diese kaufen. Für sich selbst bevorzugten sie also autonome Autos, die ihre Insassen auf alle Fälle schützen und zum Selbstschutz programmiert werden, obwohl sie sich auch einig waren, dass utilitaristische Autos am meisten moralisch wären. Bonnefon, Shariff und Rahwan schließen daraus, dass die Menschen Utilitarismus zwar anpreisen und utilitaristische autonome Autos auf der Straße willkommen heißen würden, sich aber nicht selbst ein autonomes Auto kaufen würden, wenn das bedeutet, dass das Auto sie opfern würde, um fremde Menschen zu retten. Dies ist ein klassisches soziales Dilemma, in dem jeder der Versuchung eines Freifahrtscheins unterliegt, statt selbst das Verhalten anzunehmen, das zum besten globalen Ergebnis führen würde.

Wie könnte man dieses Dilemma entgehen? Ganz einfach, in dem man die Verwendung dieser autonomen Autos zur Pflicht macht und Verordnungen entwickelt, die vorschreiben, dass alle autonome Autos utilitaristisch programmiert werden müssen. Es gäbe keine anderen autonome Autos, also auch keine anderen Systeme, die auf den Straßenverkehr Einfluss nehmen würden. Allerdings sind die Teilnehmer auch gegen solche Verordnungen und wären auch noch weniger bereit, ein autonomes Auto unter solchen Bedingungen zu kaufen. Dies zeigt wieder, dass die Bevölkerung noch skeptisch ist und aktuell noch nicht bereit für autonome Autos ist. Dafür muss noch viel geklärt und geregelt werden. Der Utilitarismus bietet bisher aber einen guten Ansatz, da utilitaristische Autos zumindest schon etwas Zuspruch finden.

Wie sieht es allerdings mit den Zielen aus, die von Bonnefon, Shariff und Rahwann (2016, 1573) etabliert wurden? Betrachtet man zwei Szenarien wird die Problematik deutlich. Man stellt sich vor, dass im ersten Fall das Auto die Entscheidung treffen muss, entweder einen Passanten oder eine Gruppe von fünf Passanten zu überfahren, und im zweiten Fall entweder eine Gruppe von Menschen zu überfahren, oder gegen eine Wand zu fahren und dadurch den einen Insassen zu töten. Befolgt das System das erste Ziel, und handelt in jeder Situation konsistent, müsste es in beiden Fällen die eine Person töten. Im ersten Szenario ist diese eine Person ein fremder Passant. In der zweiten Situation ist die Person jedoch der Insasse des Autos. Hier spiegelt sich wieder, was die Teilnehmer der Studie auch sagten. Ein Auto, dass seine Insassen opfert, hält Menschen davon ab solche Autos zu kaufen. Demnach kann das dritte Ziel hierbei nicht erfüllt werden. Auch das zweite Ziel stellt eine Schwierigkeit da, da der Tod des Insassen zu einem öffentlichen Aufruhr kommen würde. Der emotionale Aspekt wäre im zweiten Fall wahrscheinlich größer als im ersten, da Autounfälle, in denen Menschen überfahren werden, keine Seltenheit darstellen und für uns schon bekannt sind. Ein autonomes Auto, das seine Insassen tötet, würde jedoch eine Neuheit darstellen und einen größeren Aufruhr auslösen. Bonnefon, Shariff und Rahwen (2015, 2) verdeutlichen, dass die Vermeidung von öffentlichem Aufruhr der Schlüssel dazu ist, dass sich die Bevölkerung sicher mit autonomen Autos fühlt.. Der Utilitarismus scheint zwar eine vielversprechende Ethik zu sein, die zur Programmierung von autonomen Autos geeignet ist, aber noch viel Zeit braucht, um auch die Bevölkerung von sich zu überzeugen.

3. Deontologische Ethiken

In deontologischen Ethiken geht es um die Handlungen selbst, die in sich entweder moralisch gut oder schlecht sind. Der moralische Wert einer Handlung bemisst sich demnach allein nach dessen Motiv. Eine Lüge wäre moralisch stets abzulehnen, komplett unabhängig von dem möglichen positiven Konsequenzen, da es einen Menschen in seiner moralischen Integrität verletzt, wenn er angelogen wird. Daher sind deontologische Ethiken zwar neutral, allerdings auch gleichermaßen realitätsblind, da sich die moralischen Akteure und die moralischen Probleme nicht in ein strenges Regelwerk übersetzen lassen. Der Kontext, in welchem eine Entscheidung von einem Akteur getroffen wird, spielt nämlich eine große Rolle und ist oft der ausschlaggebende Grund dafür, wieso welche Entscheidung getroffen wird. Überträgt man diese Ethiken auf künstliche Intelligenzen und Maschinen, limitiert man deren Handlungsmöglichkeiten. Ein autonomes Auto würde zum Beispiel dahingehend programmiert werden, nie über eine rote Ampel oder ein Stoppschild zu fahren. Dem Auto wäre es daher nicht möglich, diese Regel zu brechen. Ein Argument, das man an dieser Stelle anbringen kann, ist, dass die Roboter dadurch keine moralische Akteure sind. Sie würden sich nur an ein Regelwerk halten, ohne eine eigene Moral anzuwenden und ohne die moralischen Aspekte dahinter verstehen oder verarbeiten zu können. Dies ist aber auch bei anderen Ethiktypen der Fall. Bisher sind Roboter keine moralisch handelnden Akteure, sondern nur Akteure, die einem strikten Regelwerk folgen. Dies verdeutlicht wie wichtig eine spezifische Formalisierung ist, da Roboter und autonome Autos keine eigene Moral besitzen.

Bei der Übertragung von deontologischen Ethiken auf ein System entsteht ein Problem. Die Anwendung der Regeln benötigen normalerweise einen gesunden Menschenverstand, Computer und Maschinen können aber nur das umsetzen, was ihnen wörtlich programmiert wurde. Dies könnte allerdings auch zu Fehlinterpretationen führen und dadurch auch zu unerwartetem Verhalten (vgl. Goodall 2014, 7). Es müssten also weitere Regeln hinzugefügt oder spezifiziert werden um verschiedene Situationen abzudecken, allerdings ist es unklar, ob es überhaupt ein Regelwerk geben kann, dass alle Situationen abdecken könnte.

Ein sehr bekanntes Beispiel einer deontologischen Ethik, die auf Roboter angewandt wurde, sind Asimovs drei Gesetze der Robotik (1942). Die erste Regel besagt, dass ein Roboter einem Menschen weder Schaden zufügen, noch durch Untätigkeit zulassen darf, dass ein Mensch zu Schaden kommt. Laut der zweiten Regel muss ein Roboter den Befehlen der Menschen gehorchen, außer solchen Befehlen, die ihn in Konflikt mit dem ersten Gesetz bringen, und laut der dritten Regel muss ein Roboter seine Existenz verteidigen, solange er dabei nicht in Konflikt mit dem ersten und zweiten Gesetz gerät. Was zunächst sehr vielversprechend klingt, um ein friedliches Zusammenleben von Menschen und Maschinen zu sichern, wirft selbst ein paar Probleme auf. So wäre es zum Beispiel denkbar, dass ein autonomes Auto kurz vor einem Zusammenstoß nicht bremst, da das abrupte Abbremsen dem Insassen ein Schleudertrauma zufügen könnte, wodurch er das erste Gesetz brechen würde. Dabei würde das System vielleicht nicht berechnen, dass der Zusammenstoß zu größeren Schaden führen könnte. Da nicht alle möglichen Situationen mitberechnet werden können, reichen die Gesetze eindeutig nicht aus, um autonome Autos deontologisch zu programmieren.

Bringsjord, Arkoudas und Bello (2006, 2) bestätigen ebenfalls, dass Maschinen nicht direkt mit natürlicher Sprache arbeiten können und es daher nicht ausreicht, Asimovs Gesetze zu programmieren. Sie schlagen vor, deontologische Formalisierungen der Regeln und Gesetze zu programmieren. Mit diesen Logiken könnte man zwei Bedingungen sicherstellen. Diese wären einmal, dass Roboter nur zulässige Handlungen tätigen, und dass Roboter alle verbindlichen Handlungen tätigen, die für sie relevant sind. Die Autoren argumentieren, dass diese Bedingungen allgemeiner wären als Asimovs Gesetze. Wenn eine Handlung für alle relevanten Roboter verboten ist, dann wird kein Roboter diese Handlung tätigen. Wenn es für alle autonomen Autos verboten ist, über eine rote Ampel zu fahren, würde kein Roboter über eine rote Ampel fahren. Dadurch wären die Bedingungen sehr verlässlich und in einer natürlicher Sprache verfasst, so dass menschliche Aufpasser genau verstehen könnten, was in den Maschinen vorgeht. Doch auch diese zwei Bedingungen haben Schwachstellen, die die Autoren sogar selbst erkennen. Im Folgenden werden ein Problem und eventuelle Lösungsmöglichkeiten genauer betrachtet.

[...]

Ende der Leseprobe aus 15 Seiten

Details

Titel
Autonomfahrende Autos. Warum sie moralisch programmiert werden sollten und welcher Moral sie folgen sollten
Hochschule
Universität des Saarlandes
Note
2,7
Autor
Jahr
2019
Seiten
15
Katalognummer
V1176196
ISBN (Buch)
9783346595959
Sprache
Deutsch
Schlagworte
autonomfahrende, autos, warum, moral
Arbeit zitieren
Sarah Sailer (Autor:in), 2019, Autonomfahrende Autos. Warum sie moralisch programmiert werden sollten und welcher Moral sie folgen sollten, München, GRIN Verlag, https://www.grin.com/document/1176196

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Autonomfahrende Autos. Warum sie moralisch programmiert werden sollten und welcher Moral sie folgen sollten



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden