Können und sollen wir künstlichen Systemen den Status als moralische Akteure zuschreiben? Welcher moralische Status darf einem künstlichen System überhaupt zugeschrieben werden? Die moderne Technik durchdringt beinahe jeden Lebensbereich, sowohl in individueller als auch gesellschaftlicher Hinsicht. Maschinen geraten bereits jetzt bisweilen in Situationen, die ethische Entscheidungen von ihnen verlangen. Das Gesundheitswesen wie auch das Militär stellen zwei exemplarische Einsatzbereiche, in denen künstliche Systeme mit ethischen Prinzipien in Berührung kommen, dar. Auch deshalb sieht sich jede fortgeschrittene technisierte Gesellschaft mit zunehmender Komplexität und Autonomie von künstlichen Systemen zwangsläufig mit dieser Problematik konfrontiert.
Diese Arbeit orientiert sich an zwei zusammenhängenden theoretischen Fragen, die systematisch nacheinander abgehandelt werden. Die erste Frage konzentrierte sich auf die notwendigen und hinreichenden Bedingungen von Bewusstsein und Moral, die wiederum für die Erlangung des Status als moralischer Akteur erfüllt sein müssen. Die zweite Frage ist praktischer Natur und soll darüber Aufschluss geben, inwiefern künstliche Systeme tatsächlich in der Lage sind, moralisch zu handeln. Es wird zudem ein Konzept des Autors, welches er unter dem Begriff der "situativen Freiheit" beschreibt, vorgestellt. Das Konzept der situativen Freiheit soll als ein anschauliches Abgrenzungskriterium zwischen Mensch und Maschine dienen, und darüber hinaus Bedingungen für verschiedene Stufen der Autonomie sowie der moralischen Handlungsfähigkeit von künstlichen moralischen Akteuren formulieren. .
Inhaltsverzeichnis
- Einleitung
- Aufbau und Formulierung der Forschungsfrage
- Zentrale Begriffsbestimmungen
- Kritik der starken KI
- Philosophische Grundlagen der Bewusstseinsdebatte
- Monistische Theorien
- Dualistische Theorien
- Vom Materialismus zur Theorie der starken KI
- Einwände gegen die starke KI
- Das Chinesische Zimmer - Ein paradigmatisches Beispiel
- Kreativität, Irrationalität und Imagination
- Der Loebner Preis - Ein weiteres paradigmatisches Beispiel
- Maschinenbewusstsein als neue Bewusstseinsform?
- Zwischenfazit
- Moral in künstlichen Systemen
- Philosophische Grundlagen der Moralimplementierung
- Echte und künstliche Handlungsakteure
- Künstliche Systeme als moralische Akteure
- Autonomie und Verantwortung
- Drei Ansätze der normativen Ethik
- Zwischenfazit
- Die praktische Seite der Moralimplementierung
- Methoden der praktischen Moralimplementierung
- Von guten und schlechten Robotern
- Kritik der funktionalistischen Theorie
- Potenziale und Probleme des Funktionalismus
- Das Konzept der situativen Freiheit
- Resümee
Zielsetzung und Themenschwerpunkte
Die Bachelorarbeit „Maschinen als moralische Akteure“ setzt sich zum Ziel, die Möglichkeiten und Grenzen der Moralimplementierung in künstlichen Systemen zu untersuchen. Sie analysiert die philosophischen Grundlagen der Bewusstseins- und Moraldebatte und beleuchtet kritisch die Konzepte der starken KI und des Funktionalismus. Die Arbeit hinterfragt zudem die Delegierung von Autonomie und Verantwortung an künstliche Systeme und analysiert die ethischen Herausforderungen im Kontext der zunehmenden Technisierung der Gesellschaft.
- Möglichkeiten und Grenzen der Moralimplementierung in künstlichen Systemen
- Philosophische Grundlagen der Bewusstseins- und Moraldebatte
- Kritik der starken KI und des Funktionalismus
- Autonomie, Verantwortung und die ethischen Herausforderungen der Technisierung
- Delegation von Autonomie und Verantwortung an künstliche Systeme
Zusammenfassung der Kapitel
Die Einleitung stellt die Forschungsfrage und die zentralen Begriffe der Arbeit vor. Kapitel 2 analysiert die Kritik an der starken KI, indem es verschiedene philosophische Ansätze zur Bewusstseinsdebatte beleuchtet. Die Einwände gegen die starke KI, wie das Chinesische Zimmer und der Loebner Preis, werden diskutiert. Kapitel 3 erörtert die philosophischen Grundlagen der Moralimplementierung in künstlichen Systemen und beleuchtet die Konzepte von Handlungsakteuren, Autonomie und Verantwortung. Zudem werden drei Ansätze der normativen Ethik vorgestellt. Kapitel 4 widmet sich der Kritik der funktionalistischen Theorie und analysiert deren Potenziale und Probleme. Im Fokus steht das Konzept der situativen Freiheit.
Schlüsselwörter
Die Arbeit fokussiert auf die Schlüsselbegriffe künstliche Intelligenz, Moral, Autonomie, Verantwortung, Bewusstsein, Funktionalismus, Ethik, Moralimplementierung, starke KI, Chinesisches Zimmer, Loebner Preis, Handlungsakteure, situative Freiheit und Technisierung. Die Arbeit betrachtet die ethischen Herausforderungen im Kontext der zunehmenden Technisierung der Gesellschaft und analysiert die Möglichkeiten und Grenzen der Moralimplementierung in künstlichen Systemen.
- Quote paper
- Lukas Zwiefelhofer (Author), 2022, Maschinen als moralische Akteure, Munich, GRIN Verlag, https://www.grin.com/document/1215867