In der Unterrichtsstunde lernen die Schülerinnen vier zentrale Positionen der angewandten Ethik (Deontologie, Utilitarismus (klassisch, qualitativ), Christentum) in der Debatte um die Programmierung von selbstgesteuerten Autos kennen. Sie schlüpfen in die jeweilige Rolle, bereiten ihre Argumente vor und diskutieren anschließend die zentrale Frage in einer Talkshow.
Inhaltsverzeichnis
- 1 Legitimation des Stundenthemas
- 2 Kompetenzschwerpunkt der Unterrichtsreihe sowie vorliegender Unterrichtseinheit
- 3 Einordnung des Unterrichtsbesuchs in die Unterrichtsreihe
- 5 Didaktisch-methodische Entscheidungen
- 7 Literatur
- 8 Anhang und Materialien
- 8.1 Zum Stundeneinstieg
- 8.2 Zur Erarbeitungsphase
- 8.3 Zur Diskussionsphase
- 8.4 Zur Positionierungsphase
- 8.5 Zur Kompetenzentwicklung
Zielsetzung & Themen dieser Arbeit
Dieser Unterrichtsentwurf befasst sich mit der ethischen Programmierung autonomer Fahrzeuge in Dilemma-Situationen. Das primäre Ziel ist es, Lernende dazu zu befähigen, auf der Grundlage verschiedener philosophisch-ethischer Positionen (wie Utilitarismus, Deontologie und religiöse Ethik) ein begründetes moralisches Urteil zur Frage "Wie sollen autonome Fahrzeuge moralisch programmiert sein?" zu entwickeln und kritisch zu argumentieren.
- Ethik der Künstlichen Intelligenz und Technikethik
- Bearbeitung moralischer Dilemmata (Trolley-Problem) im Kontext autonomer Fahrzeuge
- Grundpositionen der normativen Ethik (Deontologie, Utilitarismus, religiöse Ethik)
- Förderung der Argumentations- und Urteilskompetenz in der Angewandten Ethik
- Auseinandersetzung mit den gesellschaftlichen und kulturellen Dimensionen ethischer Entscheidungsfindung
Auszug aus dem Buch
Einordnung des Unterrichtsbesuchs in die Unterrichtsreihe
Die Problemstellung, die der heutigen Unterrichtsstunde sowie der gesamten Lernreihe zugrunde liegt, entsprang der Anschlussbildung der Lerner. Diese wurden zunächst aufgefordert bei einem Online-Experiment des MIT, der sog. Moral Machine, mitzuwirken, bei dem es darum geht, zu erforschen, wie Menschen ethische Entscheidungen in Dilemma-Situationen treffen, die bei autonomen Fahrzeugen auftreten können. Bislang konnten über 40 Millionen Entscheidungen von Nutzern aus 233 Ländern und Territorien weltweit gesammelt werden, die sich an dem Online-Experiment beteiligten. Die Ergebnisse dieser Umfrage bieten Einblicke in moralische Präferenzen der Gesamtbevölkerung und zeigen unter anderem auch kulturelle Unterschiede auf, die bei der Entwicklung von ethischen Entscheidungs-algorithmen hilfreich sein können.
Als Ergebnis dieses Experiments erhält jeder Teilnehmer automatisiert eine ausgewertete Ergebnisübersicht, wie er in moralischen Dilemmasituationen primär agiert und welche Zielgruppe es nach ihm (intuitiv) zu beschützen oder zu „opfern" gilt. Die Ergebnisse des Experiments lösten eine kontroverse ethische Debatte innerhalb der Lerngruppe aus, in der immer wieder Begrifflichkeiten wie „moralisch richtig" oder „falsch" fielen. Daraus entsprang die Notwendigkeit, zunächst ethische Norm- und Werttheorien kennenzulernen (= Informieren), um sich in der heutigen Unterrichtsstunde mit ebendiesen moralischen Grundpositionen (= „richtig" oder „falschen" moralischen Handlungen nach deontologischer, utilitaristischer und religiöser Auffassung) kritisch auseinanderzusetzen, begründet argumentieren und letztlich auch differenziert urteilen zu können. Noch in der Anschlussbildung konzipierte die Lerngruppe dann eigens ein Trilemma, welches für sie kontroverser nicht sein könnte und als Lernsituation für die gesamte Unterrichtsreihe dient (M1).
In der anknüpfenden Informieren-Phase lernten die Schüler, vor allem auch in Anbetracht ihrer unterschiedlichen Vorkenntnisse, drei Grundpositionen der normativen Ethik in Form einer binnen-differenzierenden Lerntheke mit anschließender Besprechungssituation kennen. Dies geschah vor dem Hintergrund, dass eine ethische Argumentations- und Urteilskompetenz in der angewandten Ethik, wie zuvor beschrieben, die Kenntnis ethischer Norm- und Werttheorien voraussetzt. Damit einhergehend wurde den Lernenden in einem Arbeitsmodul der Lerntheke auch ein ethisches Argumentations- und Urteilsschema nähergebracht.
In der weiterführenden Informieren-Phase werden die Lernenden nun in vier Gruppen und, je nach Anwesenheit, ein bis zwei Moderator(en) unterteilt (mit dem Ziel, möglichst homogene Gruppen zu erlangen) und einer philosophischen Grundposition zugewiesen. Jede Gruppe erhält dazu auch einen weiterführenden Text. Mittels Rollenkarte sind die Lernenden in der Planen-/Entscheiden-Phase dazu angehalten, die ihnen vorliegende Norm- und Werttheorie auf ihre eingangs selbst erstellte Lernsituation (Trilemma der Technikethik) anzuwenden und eine Argumentationsstrategie zur Problemlösung innerhalb ihrer Gruppe auszuhandeln. In der Stunde des Unterrichtsbesuchs setzt sich die Lerngruppe
Zusammenfassung der Kapitel
1 Legitimation des Stundenthemas: Dieses Kapitel erläutert die Relevanz und Notwendigkeit des Themas der moralischen Programmierung autonomer Fahrzeuge im Rahmen des Ethikunterrichts, gestützt auf aktuelle Lehrpläne und gesellschaftliche Entwicklungen.
2 Kompetenzschwerpunkt der Unterrichtsreihe sowie vorliegender Unterrichtseinheit: Hier wird dargelegt, welche spezifischen Argumentations- und Urteilskompetenzen bei den Lernenden gefördert werden sollen und wie fächerübergreifende Teamarbeit in die Unterrichtseinheit integriert ist.
3 Einordnung des Unterrichtsbesuchs in die Unterrichtsreihe: Das Kapitel beschreibt, wie die Problemstellung der Unterrichtsreihe durch ein Online-Experiment (die "Moral Machine") entstand und wie darauf aufbauend ethische Norm- und Werttheorien als Grundlage für die Meinungsbildung eingeführt werden.
5 Didaktisch-methodische Entscheidungen: In diesem Abschnitt werden die pädagogischen und methodischen Ansätze detailliert, die zur Erreichung der Lernziele eingesetzt werden, insbesondere die Arbeit am Trolley-Problem und die Diskussion verschiedener philosophischer Positionen.
7 Literatur: Dieses Kapitel listet alle wissenschaftlichen und anderen Quellen auf, die für die Erstellung des Unterrichtsentwurfs herangezogen und zitiert wurden.
8 Anhang und Materialien: Der Anhang bietet konkrete Unterrichtsmaterialien wie ein Gedankenexperiment zum Stundeneinstieg, Rollenkarten für verschiedene philosophische Perspektiven und Aufgabenstellungen für die Gruppenarbeit.
Schlüsselwörter
Ethik, Autonome Fahrzeuge, Künstliche Intelligenz, Moral Machine, Trolley-Problem, Deontologie, Utilitarismus, Religiöse Ethik, Philosophische Ethik, Angewandte Ethik, Dilemma, Argumentationskompetenz, Urteilsbildung, Unterrichtsentwurf, Kompetenzorientierung
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Diese Arbeit ist ein detaillierter Unterrichtsentwurf für eine Ethikstunde in der Berufsoberschule II. Sie behandelt die hochaktuelle Frage der moralischen Programmierung autonomer Fahrzeuge und die damit verbundenen ethischen Dilemmata.
Was sind die zentralen Themenfelder?
Die zentralen Themenfelder umfassen die Technikethik im Bereich der Künstlichen Intelligenz, grundlegende normative Ethiktheorien wie Utilitarismus, Deontologie und religiöse Ethik sowie die praktische Anwendung dieser Theorien zur Entwicklung von Argumentations- und Urteilskompetenz bei den Lernenden.
Was ist das primäre Ziel oder die Forschungsfrage?
Das primäre Ziel des Unterrichts ist es, die Lernenden dazu zu befähigen, eine fundierte und begründete Antwort auf die Forschungsfrage "Wie sollen autonome Fahrzeuge moralisch programmiert sein?" zu finden, indem sie verschiedene ethische Perspektiven kritisch beleuchten und eigene Urteile entwickeln.
Welche wissenschaftliche Methode wird verwendet?
Im Kontext dieses Unterrichtsentwurfs wird eine diskursive Methode eingesetzt. Die Lernenden schlüpfen in die Rollen von Vertretern unterschiedlicher philosophischer Positionen (z.B. Utilitaristen, Deontologen, Christen) und diskutieren in einer simulierten Talkshow, um Argumente abzuwägen und ein differenziertes Urteil zu fällen.
Was wird im Hauptteil behandelt?
Der Hauptteil des Unterrichtsentwurfs beschreibt die didaktisch-methodischen Entscheidungen, die Einordnung der Stunde in eine längere Unterrichtsreihe, die Durchführung der verschiedenen Unterrichtsphasen (Informieren, Planen, Entscheiden, Durchführen) sowie die eingesetzten Materialien und Methoden zur Kompetenzentwicklung.
Welche Schlüsselwörter charakterisieren die Arbeit?
Schlüsselwörter, die diese Arbeit charakterisieren, sind Ethik, autonome Fahrzeuge, Künstliche Intelligenz, Moral Machine, Trolley-Problem, Deontologie, Utilitarismus, Angewandte Ethik, Argumentationskompetenz, Urteilsbildung und Technikethik.
Wie wird das "Trolley-Problem" im Unterricht eingesetzt?
Ein von der Lerngruppe selbst konzipiertes "Trolley-Problem" dient als zentrales Gedankenexperiment und Lernsituation. Es soll die ethischen Dilemmata autonomer Fahrzeuge anschaulich machen und die Lernenden zur kritischen Auseinandersetzung mit den unterschiedlichen moralischen Lösungsansätzen anregen.
Welche philosophischen Positionen werden im Rollenspiel diskutiert?
Im Rahmen der Talkshow werden die Positionen eines hedonistischen Utilitaristen (Jeremy Bentham), eines qualitativen Utilitaristen (Oliver Bendel), eines Deontologen (Immanuel Kant) und einer christlichen Perspektive (Joachim Mann) diskutiert, um die Vielfalt der ethischen Argumente abzubilden.
Welche Rolle spielt die "Moral Machine" in der Unterrichtsreihe?
Das Online-Experiment "Moral Machine" des MIT war der Ausgangspunkt der Unterrichtsreihe. Die Erfahrungen und Ergebnisse der Lernenden aus diesem Experiment führten zur Notwendigkeit, sich mit ethischen Norm- und Werttheorien auseinanderzusetzen, um begründete Urteile fällen zu können.
Wie wird die Kompetenzentwicklung der Lernenden am Ende der Stunde überprüft?
Die Kompetenzentwicklung der Lernenden wird am Ende der Stunde durch eine anonyme Mentimeter-Umfrage evaluiert. Diese ermöglicht eine Selbstreflexion über die erworbenen Fähigkeiten in der Argumentations- und Urteilsbildung im Vergleich zum Beginn der Lernreihe.
- Quote paper
- Lena Groß (Author), 2024, Talkshow "Code of Ethics". Wie sollen autonome Fahrzeuge moralisch programmiert sein?, Munich, GRIN Verlag, https://www.grin.com/document/1594543