Können und sollen wir künstlichen Systemen den Status als moralische Akteure zuschreiben? Welcher moralische Status darf einem künstlichen System überhaupt zugeschrieben werden? Die moderne Technik durchdringt beinahe jeden Lebensbereich, sowohl in individueller als auch gesellschaftlicher Hinsicht. Maschinen geraten bereits jetzt bisweilen in Situationen, die ethische Entscheidungen von ihnen verlangen. Das Gesundheitswesen wie auch das Militär stellen zwei exemplarische Einsatzbereiche, in denen künstliche Systeme mit ethischen Prinzipien in Berührung kommen, dar. Auch deshalb sieht sich jede fortgeschrittene technisierte Gesellschaft mit zunehmender Komplexität und Autonomie von künstlichen Systemen zwangsläufig mit dieser Problematik konfrontiert.
Diese Arbeit orientiert sich an zwei zusammenhängenden theoretischen Fragen, die systematisch nacheinander abgehandelt werden. Die erste Frage konzentrierte sich auf die notwendigen und hinreichenden Bedingungen von Bewusstsein und Moral, die wiederum für die Erlangung des Status als moralischer Akteur erfüllt sein müssen. Die zweite Frage ist praktischer Natur und soll darüber Aufschluss geben, inwiefern künstliche Systeme tatsächlich in der Lage sind, moralisch zu handeln. Es wird zudem ein Konzept des Autors, welches er unter dem Begriff der "situativen Freiheit" beschreibt, vorgestellt. Das Konzept der situativen Freiheit soll als ein anschauliches Abgrenzungskriterium zwischen Mensch und Maschine dienen, und darüber hinaus Bedingungen für verschiedene Stufen der Autonomie sowie der moralischen Handlungsfähigkeit von künstlichen moralischen Akteuren formulieren. .
Inhaltsverzeichnis
1. Einleitung
1.1. Aufbau und Formulierung der Forschungsfrage
1.2. Zentrale Begriffsbestimmungen
2. Kritik der starken KI
2.1. Philosophische Grundlagen der Bewusstseinsdebatte
2.1.1. Monistische Theorien
2.1.2. Dualistische Theorien
2.1.3. Vom Materialismus zur Theorie der starken KI
2.2. Einwände gegen die starke KI
2.2.1.Das Chinesische Zimmer - Ein paradigmatisches Beispiel
2.2.2. Kreativität, Irrationalität und Imagination
2.2.3 Der Loebner Preis – Ein weiteres paradigmatisches Beispiel
2.3. Maschinenbewusstsein als neue Bewusstseinsform?
2.4. Zwischenfazit
3. Moral in künstlichen Systemen
3.1. Philosophische Grundlagen der Moralimplementierung
3.1.1. Echte und künstliche Handlungsakteure
3.1.2. Künstliche Systeme als moralische Akteure
3.1.3. Autonomie und Verantwortung
3.1.4. Drei Ansätze der normativen Ethik
3.2. Zwischenfazit
3.3. Die praktische Seite der Moralimplementierung
3.3.1. Methoden der praktischen Moralimplementierung
3.3.2. Von guten und schlechten Robotern
4. Kritik der funktionalistischen Theorie
4.1. Potenziale und Probleme des Funktionalismus
4.2. Das Konzept der situativen Freiheit
5. Resümee
Zielsetzung & Themen
Diese Bachelorarbeit untersucht theoretisch die Möglichkeiten und Grenzen der Implementierung von Moral in künstlichen Systemen. Dabei wird kritisch hinterfragt, ob solche Systeme als moralische Akteure qualifiziert werden können, wobei insbesondere die These der starken KI sowie das Konzept der situativen Freiheit analysiert werden.
- Kritische Auseinandersetzung mit der These der starken KI
- Untersuchung der philosophischen Grundlagen von Bewusstsein und Moral
- Analyse praktischer Methoden der Moralimplementierung (Top-down, Bottom-up, Hybrid)
- Diskussion über Autonomie, Verantwortung und Handlungsfähigkeit technischer Entitäten
- Vorstellung des Konzepts der "situativen Freiheit" als Abgrenzungskriterium
Auszug aus dem Buch
2.2.1.DAS CHINESISCHE ZIMMER - EIN PARADIGMATISCHES BEISPIEL
Das Chinesische Zimmer ist ein weit über die Philosophie hinaus bekanntes und viel diskutiertes Gedankenexperiment. Searle hat es erstmals in seinem Artikel „Minds, Brains, and Programs“ aus dem Jahr 1980 präsentiert und in einer Reihe späterer Veröffentlichungen verteidigt. Das zentrale Argument, das Searle zur Wiederlegung der These der starken KI verwendet, besteht in der genauen Unterscheidung zwischen Syntax und Semantik. Sein Gedankenexperiment funktioniert folgendermassen:
Eine Person, die des Chinesischen nicht mächtig ist, wird in ein Zimmer eingeschlossen und erhält ein Handbuch, das die genaue Handhabung der chinesischen Symbole regelt. Diese Regeln sind rein formale Syntaxregeln und werden verwendet, um auf äusserlich eingereichte Symbole durch Bereitstellung anderer Symbole zu reagieren. Das Programm arbeitet dabei so exzellent, dass die "Antworten" der Person auf die hereingereichten "Fragen" von denen eines chinesischen Muttersprachlers nicht mehr unterscheidbar sind, gleichwohl begreift die den Prozessor symbolisierende Person nicht mehr als vielleicht den Umstand, dass sie auf den Input eines gekritzelten Zeichens hin den Output eines anderen gekritzelten Zeichens produziert. Das "Chinesische Zimmer" kann als ein Gedankenexperiment verstanden werden, das versucht, die Blackbox des Computers zu öffnen und dadurch eine interne Widerlegung der These der starken KI zu leisten, in dem diese logisch ad absurdum geführt wird. Es wird nämlich gezeigt, dass der Turing-Test bestanden werden kann, obwohl für die ausführende Person nur bedeutungslose Zeichen entsprechend einem Handbuch hin- und hergeschoben werden. Obwohl der Test bestanden wird, beweist er nicht, dass eine Person in der Lage dazu ist, chinesisch zu verstehen und zu sprechen. Searle benutzt sein Experiment um daraus den logischen Analogieschluss zu ziehen, dass künstliche Systeme in der Lage sein können, den Turing-Test erfolgreich zu absolvieren, ohne jedoch die Fähigkeit des Denkens und des bewussten Handelns zu besitzen.
Zusammenfassung der Kapitel
1. Einleitung: Die Einleitung beleuchtet die zunehmende Komplexität und Autonomie künstlicher Systeme und führt in das Kernproblem der Verknüpfung von Autonomie mit Verantwortung ein.
2. Kritik der starken KI: In diesem Kapitel werden philosophische Grundlagen der Bewusstseinsdebatte analysiert und zentrale Einwände gegen die "These der starken KI" mittels berühmter Gedankenexperimente wie dem "Chinesischen Zimmer" vorgebracht.
3. Moral in künstlichen Systemen: Dieses Kapitel ergründet die philosophischen Grundlagen der Moralimplementierung und untersucht die theoretischen sowie praktischen Bedingungen, unter denen künstliche Systeme als moralische Akteure agieren können.
4. Kritik der funktionalistischen Theorie: Die Stärken und Grenzen des funktionalistischen Ansatzes werden diskutiert und durch das vom Verfasser eingeführte Konzept der "situativen Freiheit" kritisch ergänzt.
5. Resümee: Die Arbeit schließt mit einer zusammenfassenden Bewertung, dass künstliche Systeme die Bedingungen für genuine moralische Handlungsfähigkeit nicht erfüllen und somit im Sinne der höchsten moralischen Akteursstufe ausgeschlossen bleiben.
Schlüsselwörter
Künstliche Intelligenz, Maschinenethik, starke KI, schwache KI, Moralimplementierung, Bewusstsein, Intentionalität, Autonomie, Verantwortung, situative Freiheit, Handlungsfähigkeit, Turing-Test, Funktionalismus, Roboterethik, normative Ethik.
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit untersucht, unter welchen Voraussetzungen künstliche Systeme moralisch handeln können und wo die Grenzen der technischen Moralimplementierung liegen.
Was sind die zentralen Themenfelder?
Die zentralen Themen umfassen die Debatte um künstliches Bewusstsein, die Definition von moralischen Akteuren, die Kritik am Funktionalismus sowie die ethische Programmierung von Systemen.
Was ist das primäre Ziel oder die Forschungsfrage?
Ziel ist es zu klären, ob künstliche Systeme jemals als vollumfänglich verantwortungsfähige, moralische Akteure qualifiziert werden können, oder ob ihre Moral stets limitiert bleibt.
Welche wissenschaftliche Methode wird verwendet?
Die Arbeit nutzt eine theoretisch-analytische Methode, die auf der kritischen Auseinandersetzung mit der einschlägigen Fachliteratur und philosophischen Gedankenexperimenten basiert.
Was wird im Hauptteil behandelt?
Der Hauptteil gliedert sich in eine philosophische Kritik der "starken KI", eine Untersuchung moralischer Handlungsfähigkeit und eine Analyse praktischer Methoden zur Implementierung von Moral.
Welche Schlüsselwörter charakterisieren die Arbeit?
Wichtige Schlüsselwörter sind Künstliche Intelligenz, Moralimplementierung, Bewusstsein, Autonomie, Verantwortung, situative Freiheit und Maschinenethik.
Was besagt das Konzept der "situativen Freiheit" des Verfassers?
Situative Freiheit ist ein vom Verfasser entwickeltes Abgrenzungskriterium, das die Fähigkeit beschreibt, sich bewusst auch gegen rationale Gründe zu entscheiden – eine Eigenschaft, die menschlich und nicht auf Maschinen übertragbar ist.
Wie bewertet der Autor das "Chinesische Zimmer"?
Der Autor nutzt Searles Gedankenexperiment, um zu belegen, dass die reine syntaktische Verarbeitung in Computern nicht mit dem semantischen Verständnis und Bewusstsein eines Menschen gleichzusetzen ist.
Welche Stufen moralischer Akteure unterscheidet James H. Moor?
Moor unterscheidet zwischen "ethical-impact agents", "implicit ethical agents", "explicit ethical agents" und "full ethical agents".
Warum lehnt der Autor die "These der starken KI" ab?
Der Autor lehnt sie ab, da künstlichen Systemen die Intentionalität, das Bewusstsein, die Intuition und die echte Freiheit fehlen, die für moralische Verantwortung zwingend notwendig sind.
- Citar trabajo
- Lukas Zwiefelhofer (Autor), 2022, Maschinen als moralische Akteure, Múnich, GRIN Verlag, https://www.grin.com/document/1215867