Ethik und Künstliche Intelligenz

Denkansätze des Utilitarismus, der Tugendethik und der Deontologie


Essay, 2020

11 Seiten, Note: 1,0


Leseprobe

Inhaltsverzeichnis

Abkürzungsverzeichnis

Abbildungsverzeichnis

1 Einleitung
1.1 Problem
1.2 Zielsetzung
1.3 Vorgehensweise

2 Definitorische Grundladen
2.1 Definition von Ethik
2.2 Definition von Künstlicher Intelligenz
2.2.2 Starke Künstliche Intelligenz
2.2.3 Schwache Künstliche Intelligenz

3 Ethische Denkansätze zur Künstlichen Intelligenz
3.1 Utilitarismus
3.2 Tugendethik
3.3 Deontologie

4 Fazit

Literaturverzeichnis

Abkürzungsverzeichnis

Abb. Abbildung

KI Künstliche Intelligenz

AI Artificial Intelligence

Abbildungsverzeichnis

Abbildung 1: Analyseebenen der Ethik mit Bezug zum Untersuchungsobjekt der menschlichen Praxis

1 Einleitung

1.1 Problem

Der Begriff Künstliche Intelligenz ist in aller Munde. Nicht nur Unternehmen, sondern auch die Bürger beschäftigen sich stets mehr mit diesem Thema. Gezwungenermaßen könnte man schon fast sagen, da die KI kaum noch wegzudenken ist. Viele Abläufe in Unternehmen sind schneller und qualitativ besser geworden. Aber auch im privaten Umfeld erleben wir die Fortschritte der KI hautnah mit. Alexa und Google Home erleichtern den Alltag zuhause. Das Auto vor der Tür, das einen autonom von der Party nachhause fährt, wenn man nicht mehr hinter das Steuer darf, bis hin zum Roboter, der mich im Hotel eincheckt und mir mein Zimmer zuweist.

All dies bringt jedoch auch Fragen mit sich. Fragen, die sich Unternehmen und Menschen spätestens jetzt stellen müssen/sollten. Die ethischen Aspekte der Künstlichen Intelligenz werden genauer durchleuchtet und hinterfragt. Wer bezahlt die Rechnung, wenn Alexa auf Amazon eine Bestellung tätigt, ohne dass der Kunde den Befehl gegeben hat? Wer ist an dem Verkehrsunfall schuld, den mein autonom fahrendes Auto verursacht hat? Ich als Besitzer der Autos oder die Programmierer der Algorithmen? Dies sind nun wenige von vielen ethischen Fragen, die im Zuge der Künstlichen Intelligenz erklärt werden müssen und sollten.

1.2 Zielsetzung

In der vorliegenden Arbeit werden die theoretischen Grundbegriffe der Künstlichen Intelligenz, sowie der Grundbegriff der Ethik erklärt. Drei verschiedene ethische Denkansätze werden zudem die Künstliche Intelligenz durchleuchten und hinterfragen.

1.3 Vorgehensweise

Anfangs wird die Definition der Künstlichen Intelligenz, sowie die Definitionen von Ethik erklärt. Nachfolgend wird der Begriff Künstliche Intelligenz in Bezug auf die Ethik erläutert. Im Zuge dessen werden drei verschiedene Ethik-Denkansätze dargestellt und in Verbindung mit der Künstlichen Intelligenz an Beispielen erklärt.

Das letzte Kapitel schließt mit einem Fazit das Essay ab.

2 Definitorische Grundladen

2.1 Definition von Ethik

Das Wort Ethik hat seinen Ursprung aus dem griechischen Wort „Ethos“. Dies bedeutet „Sitte“ oder „Brauch“. Der Philosoph Aristoteles beschrieb erstmals die Disziplin des Menschen als Ethik.1 Die Ethik beschäftigt sich damit, ob die Handlung eines Menschen richtig oder falsch ist.2 Sie ist eine Disziplin der Philosophie. Sie wird auch die Wissenschaft der Moral bezeichnet. Die Ethik vermittelt die Moral, welche aus Werten und Normen besteht.3 Die moralischen Normen bezeichnen die Sachen, die wir als Menschen als Gut und Böse bezeichnen. Sie sind sozusagen die praktische Anwendung der Ethik.

Die Ethik ist aufgeteilt in drei verschiedene Unterkategorien, die sich mit der Moral beschäftigen: die normative, deskriptive und die Metaethik.

Die normative Ethik fragt nach der „richtigen“ Moral, sprich welche Handlungen richtig oder falsch sind. Somit bewertet die normative Ethik bestehende Moralsysteme und entwirft eigene Moralsysteme.4 Die deskriptive Ethik hingegen beschreibt moralische Systeme, ohne sie zu bewerten oder eine Stellung zu beziehen. Die Metaethik hinterfragt, wie Werturteile in einem moralischen System zustande kommen. Sie fragt sich wie eine Moral entsteht.5

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1: Analyseebenen der Ethik mit Bezug zum Untersuchungsobjekt der menschlichen Praxis, Robert Holzmann, Wirtschaftsethik Springer, S. 10, Wiesbaden 2015

2.2 Definition von Künstlicher Intelligenz

Künstliche Intelligenz ist ein Teilgebiet der Ingenieurswissenschaften und der Informatik. Künstliche Intelligenz wird in der englischen Sprache auch „Artificial Intelligence“ genannt. Der Begriff Künstliche Intelligenz beschreibt den Versuch menschliche Fertigkeiten durch Algorithmen nachzuahmen. Laut Wittpahl ist KI „... der Versuch, ein System zu entwickeln, das eigenständig komplexe Probleme bearbeiten kann“.6 Es soll also das menschliche Denken und Handeln simulieren. Vor allem Ingenieure und Informatiker sind auf der Suche nach einer intelligenten Maschine, die sich wie ein Mensch verhält.7

Da der Begriff „Intelligenz“ hier eine bedeutende Rolle spielt, ihn genau zu definieren jedoch schwierig ist, da sich „menschliches Denken“ und „menschliches Handeln“ nicht definieren lassen, ist folglich auch eine Definition der künstlichen Intelligenz nur bedingt möglich.8 Dies hat zweierlei Gründe. Erstens weil der Betriff „Intelligenz“ wie bereits beschrieben, schwer zu definieren ist. Zweitens da die „KI“ ein sehr großes Gebiet abdeckt und Wissenschaftler verschiedene Auffassungen davon haben, was zur Künstlichen Intelligenz zählt und was nicht. Einig ist man sich aber in der Sache, dass es zwei verschiedene Arten von KI gibt: die sogenannte starke sowie die schwache KI.

2.2.2 Starke Künstliche Intelligenz

Die Starke KI versucht eine Intelligenz zu erschaffen, die sich wie der Mensch verhält. Maschinen sollen somit die intellektuellen Fertigkeiten haben wie die Menschen.9 Bis dato haben es Forscher allerdings nicht geschafft dies zu verwirklichen.10

2.2.3 Schwache Künstliche Intelligenz

Bei der schwachen KI geht es mehr darum, den Menschen bei Anwendungsproblemen zu helfen. Es geht somit nicht darum, das menschliche Denken nachzubilden.11 Die schwache KI unterstützt, mithilfe von Algorithmen, Anwendungsprobleme zu meistern. In der Praxis findet dies zum Beispiel Anwendung bei Analysen des Aktienmarktes, Sprach- und Texterkennung oder der Fingerabdruck-Authentifizierung auf dem Smartphone.

3 Ethische Denkansätze zur Künstlichen Intelligenz

Durch die schnellen Fortschritte der Forschung im Bereich der KI kam zwangsläufig auch der Begriff Ethik stets häufiger vor. Dies hängt damit zusammen, dass die Algorithmen der KI schon längst in unserem Alltags- und Arbeitsleben angekommen und aus diesem auch nicht mehr wegzudenken sind, da sie uns diese immens erleichtern. Angefangen von der zielgerichteten Werbung auf Social-Media-Kanälen, die einfache Bezahlungen mithilfe des Fingerabdruckscans am Smartphone beim Online Shopping, der Elektronischem Fahrschein für Bus und Bahn und das Autonome Fahren mit dem Auto. Algorithmen sind ein Teil der KI. Roboter, wie wir sie auch aus dem Haushalt kennen, in Form von Staubsauger oder Rasenmäher, haben es mit der KI zu tun.

Der Nutzen von Künstlicher Intelligenz ist es, selbstständig Entscheidungen zu treffen, ohne dass der Mensch dabei eingreifen muss. Die Menschen bemerken die Einflüsse der KI und sieht der Sachen Skeptisch gegenüber. Wie wird mit meinen Daten umgegangen und was genau geschieht damit? Dies bringt bei den Menschen Skepsis auf. Wieweit die Maschinen gehen dürfen und wieweit sie es sollen.

Dabei wird grade daran gedacht, was die Konsequenzen sind und wer sie trägt, wenn KI Schäden verursacht oder gegen ebenjene Gesetze und Werte verstößt, die wir als Maßstab für uns als Menschenzu Grund legen.12 Dabei geht es nicht nur um potentielle Sachschäden, sondern auch Personenschäden. Was ist, wenn der Roboter, der meinen Rasen mäht, das Blumenbeet des Nachbarn beschädigt? Was passiert, wenn mein autonom fahrendes Auto einen Unfall verursacht und dabei im schlimmsten Fall eine Person zu Schaden oder sogar ums Leben kommt? Wer trägt in solchen Fällen die Verantwortung? Maschinen und Algorithmen sind keine juristischen Personen.

Am Fallbeispiel eines Unfalls, verursacht durch ein autonom fahrendes Auto, ist dieses Dilemma gut zu verdeutlichen. Ein Mensch, der auf dem Fahrersitz des Autos sitzt, es aber nicht bedient, hat im Moment des Unfalls keinen Einfluss auf die Entscheidung des Autos. Der Hersteller des Autos hat jedoch ebenso keinen Einfluss, da sich der Algorithmus, wie er es auch soll, weiterentwickelt und lernt.13 Nun stellt sich die Frage, wer letztendlich die Verantwortung trägt und für den entstanden Schaden aufkommt oder die Schuld übernimmt.

In diesem Zusammenhang trifft man auf drei verschiedene Ethiken, die sich mit der Künstlichen Intelligenz und Beispielszenarien wie dem autonomen Fahren beschäftigen. Dies sind ist die Deontologische Ethik, die Tugendethik und der Utilitarismus.

Die Deontologische Ethik, auch Dentologie, beschreibt, wie man Handeln, die Tugendethik, wie man sein und der Utilitarismus, was man anstreben soll. Letztendliche stellt sich die Frage, wie sich das Machtverhältnis zwischen der KI und dem Menschen aus.

3.1 Utilitarismus

Die Grundlage des Utilitarismus ist, dass man für eine ethische Bewertung einer Handlung herausfinden muss, welchen Nutzen diese Handlung hat. Vertreter und Begründer des Utilitarismus ist Jeremy Bentham. Er beschreibt den Nutzen als Glück. Bentham sagt, dass alle Handlungen richtig sind, deren Konsequenzen für das Glück aller Betroffenen den größten Zuwachs versprechen.14 Es gibt vier Grundprinzipien des Utilitarismus.

Das erste ist das Hedonismus-Prinzip. Dieses besagt, dass sich das Leben der Menschen verbessert, wenn sie bekommen was sie wollen. Das kann zum Beispiel Zufriedenheit sein.

Das zweite ist das Nutzen-Prinzip. Dieses besagt, dass der Maßstab der Beurteilung der Folgen einer Handlung der Zuwachs oder die Verringerung des Glücks ist.

Das dritte Prinzip ist das Konsequenz-Prinzip, welches aussagt, dass man nur an den Folgen der Handlung, sprich den Konsequenzen, herausfinden kann, ob etwas gut oder schlecht ist.

Das vierte und letzte Prinzip ist das Prinzip der Utiliät. Dieses besagt, dass die Folgen einer Handlung dann gut sind, wenn sie anstatt der alternativen Handlung, das Leben, also den Nutzen des Menschen, erhöht.15

Ein Beispiel in Bezug auf die KI ist das Trolly-Problem, welches seinen Ursprung in den 60er-Jahren hat und von Philippa Foot entwickelt wurde.16 Dabei handelt es sich um ein Szenario, in dem eine Straßenbahn auf fünf Menschen zurast und diese töten würde, solange eine andere Person, welche an einer Weiche steht, die Weiche nicht bedienen und die Straßenbahn somit auf ein anderes Gleis umlenken würde, auf dem wiederum eine andere, einzelne Person steht, die durch das Umleiten der Bahn ebenfalls getötet würde. Der Utilitarismus sieht hier vor, dass man die Weiche umleitet. Grund dafür ist, dass es laut dem Unitarismus besser ist, wenn nur ein Mensch stirbt anstatt fünf Menschen.

Wenn wir dieses Szenario nun auf das autonome Fahren mit einem Auto übertragen, ist das Dilemma das gleiche. Ob das Auto nun autonom fünf Menschen überfährt oder ausweicht und einen Menschen überfährt und tötet. Dem Auto kann man hier keine Schuld zuweisen. Aber wem dann? Den Programmierern oder dem Autohersteller? Es ist nicht geklärt, wie das autonom fahrende Auto ethisch korrekt handeln soll.

3.2 Tugendethik

Ein zentraler Begriff der Tugendethik ist die Tugend. Dies besagt, dass nur tugendhaftes Handeln richtig ist.17 Die Tugendethik legt den Schwerpunkt des moralischen Urteils auf den Handelnden. Eine ethische Tugend ist eine Eigenschaft des Charakters die Steuerung der menschlichen Triebe bezieht.18 Einer der wichtigsten Vertreter der Tugendethik ist Aristoteles mit der Mesotes-Lehre. Für Aristoteles ist eine Verhaltensweise dann als tugendethisch gerechtfertigt, wenn sie angemessen ist. Er teilt die Tugendethik in zwei Typen auf. Die erste ist die Verstandestugend. Dazu gehören die Klugheit, Weisheit und Auffassungsgabe. Die zweite Tugend ist die Charaktertugend. Diese beinhalten Mut und Besonnenheit. Laut der Mesotes-Lehre nach Aristoteles besteht eine Tugend in der Mitte zwischen zwei Extremen. Ein Beispiel wäre die Mitte zwischen den beiden Extremen Übermut und Feigheit, der Mut.19 Dies bezeichnet man dann als die Mesotes-Lehre. Ein Kritikpunkt ist allerdings, dass die Tugendethik sagt, man solle mutig sein. Wie man sich jedoch mutig verhält, wird durch die Tugendethik nicht beschrieben.

Um tugendethisch handeln zu können, müsste eine Künstlichen Intelligenz Millionen von Fällen analysieren, studieren und lernen, sodass sie die Mesotes-Lehre, sprich die goldene Mitte der beiden Extreme, finden kann. Zusammenfassend kann man sagen, dass eine Handlung dann tugendethisch gerechtfertigt ist, wenn sie angemessen ist und in der Mitte der Extremen liegt.

Nimmt man an, dass ein autonom fliegendes Flugzeug ohne Piloten, jedoch mit mehreren Passagieren an Bord, auf ein Bürogebäude zufliegt, was wären die beiden Extreme: 1. Das Flugzeug abschließen und 2. Das Flugzeug in das Gebäude fliegen lassen und nichts tun. Das Dilemma besteht offensichtlich darin, dass bei beiden Extremen Menschen ums Leben kommen. Die KI steht in der Tugendethik vor der Herausforderung, die Mitte der beiden Extreme zu finden. Dies gestaltet sich, wie am Beispiel zu sehen ist, als sehr schwierig. Dies kann man auch auf ein autonom fahrendes Auto oder Straßenbahnen beziehen.

[...]


1 Vgl. Buchenau, Peter, Chefsache Zukunft - Was Führungskräfte von morgen brauchen, 2019, S. 189 9

2 Vgl. Kersting, Kristian/Lampert, Christoph, Wie Maschinen lernen- Künstliche Intelligenz verständlich erklärt, 2019, S. 231

3 Vgl. Pieper, Annemarie, Einführung in die Ethik, 2007, S. 15

4 Vgl . Holzmann, Robert, Wirtschaftsethik,2015, S. 11

5 Vgl. Holzmann, Robert, Wirtschaftsethik, 2015, S. 21

6 Vgl. Wittpahl, Volker, Künstliche Intelligenz, Technologien | Anwendung | Gesellschaft, 2018, S. 21

7 Vgl. Ertel, Wolfgang, Grundkurs Künstliche Intelligenz, eine Praxisorietierte Einführung, 2016, S. 1

8 Vgl. Mainzer, Klaus, Künstliche Intelligenz – Wann übernehmen die Maschinen? 2016, S. 2

9 Vgl. Wittpahl, Volker, Künstliche Intelligenz, Technologien | Anwendung | Gesellschaft, 2018, S. 222

10 Vgl. Buxmann, Peter, Künstliche Intelligenz Mit Algorithmen zum wirtschaftlichen Erfolg, 2019, S. 6

11 Vgl. Buxmann, Peter, Künstliche Intelligenz Mit Algorithmen zum wirtschaftlichen Erfolg, 2019, S. 7

12 Vgl. Stubbe, Julian, Künstliche Intelligenz, Neue Intelligenz, neue Ethik? 2019, S. 240

13 Vgl. Stubbe, Julian, Künstliche Intelligenz, Neue Intelligenz, neue Ethik? 2019, S. 241

14 Vgl. Berbrich, Nicolas, Wie Maschinen lernen - Künstliche Intelligenz und Ethik, Nicolas Berbrich, 2019, S. 234

15 Vgl . Holzmann, Robert, Wirtschaftsethik, 2015, S. 49

16 Vgl. Rath, Matthias, Maschinenethik Normative Grenzen autonomer System, 2019, S. 257

17 Vgl . Holzmann, Robert, Wirtschaftsethik, 2015, S. 35

18 Vgl . Holzmann, Robert, Wirtschaftsethik, 2015, S. 37

19 Vgl . Holzmann, Robert, Wirtschaftsethik, 2015, S. 37

Ende der Leseprobe aus 11 Seiten

Details

Titel
Ethik und Künstliche Intelligenz
Untertitel
Denkansätze des Utilitarismus, der Tugendethik und der Deontologie
Hochschule
FOM Essen, Hochschule für Oekonomie & Management gemeinnützige GmbH, Hochschulleitung Essen früher Fachhochschule
Veranstaltung
Projektmanagement & IT-Grundladen
Note
1,0
Autor
Jahr
2020
Seiten
11
Katalognummer
V909609
ISBN (eBook)
9783346227423
Sprache
Deutsch
Schlagworte
Ethische Aspekte, Künstlichen Intelligenz, Ethik, KI, AI, Utilitarismus, Tugendethik, Deontologie, IT
Arbeit zitieren
Maximilian Fuchs (Autor), 2020, Ethik und Künstliche Intelligenz, München, GRIN Verlag, https://www.grin.com/document/909609

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Ethik und Künstliche Intelligenz



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden