Grin logo
de en es fr
Shop
GRIN Website
Publish your texts - enjoy our full service for authors
Go to shop › Didactics - Ethics

Talkshow "Code of Ethics". Wie sollen autonome Fahrzeuge moralisch programmiert sein?

Eine Unterrichtsstunde im Themenfeld der Angewandten Ethik

Title: Talkshow "Code of Ethics". Wie sollen autonome Fahrzeuge moralisch programmiert sein?

Lesson Plan , 2024 , 24 Pages , Grade: 1,0

Autor:in: Lena Groß (Author)

Didactics - Ethics
Excerpt & Details   Look inside the ebook
Summary Excerpt Details

In der Unterrichtsstunde lernen die Schülerinnen vier zentrale Positionen der angewandten Ethik (Deontologie, Utilitarismus (klassisch, qualitativ), Christentum) in der Debatte um die Programmierung von selbstgesteuerten Autos kennen. Sie schlüpfen in die jeweilige Rolle, bereiten ihre Argumente vor und diskutieren anschließend die zentrale Frage in einer Talkshow.

Excerpt


Inhaltsverzeichnis

  • 1 Legitimation des Stundenthemas
  • 2 Kompetenzschwerpunkt der Unterrichtsreihe sowie vorliegender Unterrichtseinheit
  • 3 Einordnung des Unterrichtsbesuchs in die Unterrichtsreihe
  • 5 Didaktisch-methodische Entscheidungen
  • 7 Literatur
  • 8 Anhang und Materialien
    • 8.1 Zum Stundeneinstieg
    • 8.2 Zur Erarbeitungsphase
    • 8.3 Zur Diskussionsphase
    • 8.4 Zur Positionierungsphase
    • 8.5 Zur Kompetenzentwicklung

Zielsetzung & Themen dieser Arbeit

Dieser Unterrichtsentwurf befasst sich mit der ethischen Programmierung autonomer Fahrzeuge in Dilemma-Situationen. Das primäre Ziel ist es, Lernende dazu zu befähigen, auf der Grundlage verschiedener philosophisch-ethischer Positionen (wie Utilitarismus, Deontologie und religiöse Ethik) ein begründetes moralisches Urteil zur Frage "Wie sollen autonome Fahrzeuge moralisch programmiert sein?" zu entwickeln und kritisch zu argumentieren.

  • Ethik der Künstlichen Intelligenz und Technikethik
  • Bearbeitung moralischer Dilemmata (Trolley-Problem) im Kontext autonomer Fahrzeuge
  • Grundpositionen der normativen Ethik (Deontologie, Utilitarismus, religiöse Ethik)
  • Förderung der Argumentations- und Urteilskompetenz in der Angewandten Ethik
  • Auseinandersetzung mit den gesellschaftlichen und kulturellen Dimensionen ethischer Entscheidungsfindung

Auszug aus dem Buch

Einordnung des Unterrichtsbesuchs in die Unterrichtsreihe

Die Problemstellung, die der heutigen Unterrichtsstunde sowie der gesamten Lernreihe zugrunde liegt, entsprang der Anschlussbildung der Lerner. Diese wurden zunächst aufgefordert bei einem Online-Experiment des MIT, der sog. Moral Machine, mitzuwirken, bei dem es darum geht, zu erforschen, wie Menschen ethische Entscheidungen in Dilemma-Situationen treffen, die bei autonomen Fahrzeugen auftreten können. Bislang konnten über 40 Millionen Entscheidungen von Nutzern aus 233 Ländern und Territorien weltweit gesammelt werden, die sich an dem Online-Experiment beteiligten. Die Ergebnisse dieser Umfrage bieten Einblicke in moralische Präferenzen der Gesamtbevölkerung und zeigen unter anderem auch kulturelle Unterschiede auf, die bei der Entwicklung von ethischen Entscheidungs-algorithmen hilfreich sein können.

Als Ergebnis dieses Experiments erhält jeder Teilnehmer automatisiert eine ausgewertete Ergebnisübersicht, wie er in moralischen Dilemmasituationen primär agiert und welche Zielgruppe es nach ihm (intuitiv) zu beschützen oder zu „opfern" gilt. Die Ergebnisse des Experiments lösten eine kontroverse ethische Debatte innerhalb der Lerngruppe aus, in der immer wieder Begrifflichkeiten wie „moralisch richtig" oder „falsch" fielen. Daraus entsprang die Notwendigkeit, zunächst ethische Norm- und Werttheorien kennenzulernen (= Informieren), um sich in der heutigen Unterrichtsstunde mit ebendiesen moralischen Grundpositionen (= „richtig" oder „falschen" moralischen Handlungen nach deontologischer, utilitaristischer und religiöser Auffassung) kritisch auseinanderzusetzen, begründet argumentieren und letztlich auch differenziert urteilen zu können. Noch in der Anschlussbildung konzipierte die Lerngruppe dann eigens ein Trilemma, welches für sie kontroverser nicht sein könnte und als Lernsituation für die gesamte Unterrichtsreihe dient (M1).

In der anknüpfenden Informieren-Phase lernten die Schüler, vor allem auch in Anbetracht ihrer unterschiedlichen Vorkenntnisse, drei Grundpositionen der normativen Ethik in Form einer binnen-differenzierenden Lerntheke mit anschließender Besprechungssituation kennen. Dies geschah vor dem Hintergrund, dass eine ethische Argumentations- und Urteilskompetenz in der angewandten Ethik, wie zuvor beschrieben, die Kenntnis ethischer Norm- und Werttheorien voraussetzt. Damit einhergehend wurde den Lernenden in einem Arbeitsmodul der Lerntheke auch ein ethisches Argumentations- und Urteilsschema nähergebracht.

In der weiterführenden Informieren-Phase werden die Lernenden nun in vier Gruppen und, je nach Anwesenheit, ein bis zwei Moderator(en) unterteilt (mit dem Ziel, möglichst homogene Gruppen zu erlangen) und einer philosophischen Grundposition zugewiesen. Jede Gruppe erhält dazu auch einen weiterführenden Text. Mittels Rollenkarte sind die Lernenden in der Planen-/Entscheiden-Phase dazu angehalten, die ihnen vorliegende Norm- und Werttheorie auf ihre eingangs selbst erstellte Lernsituation (Trilemma der Technikethik) anzuwenden und eine Argumentationsstrategie zur Problemlösung innerhalb ihrer Gruppe auszuhandeln. In der Stunde des Unterrichtsbesuchs setzt sich die Lerngruppe

Zusammenfassung der Kapitel

1 Legitimation des Stundenthemas: Dieses Kapitel erläutert die Relevanz und Notwendigkeit des Themas der moralischen Programmierung autonomer Fahrzeuge im Rahmen des Ethikunterrichts, gestützt auf aktuelle Lehrpläne und gesellschaftliche Entwicklungen.

2 Kompetenzschwerpunkt der Unterrichtsreihe sowie vorliegender Unterrichtseinheit: Hier wird dargelegt, welche spezifischen Argumentations- und Urteilskompetenzen bei den Lernenden gefördert werden sollen und wie fächerübergreifende Teamarbeit in die Unterrichtseinheit integriert ist.

3 Einordnung des Unterrichtsbesuchs in die Unterrichtsreihe: Das Kapitel beschreibt, wie die Problemstellung der Unterrichtsreihe durch ein Online-Experiment (die "Moral Machine") entstand und wie darauf aufbauend ethische Norm- und Werttheorien als Grundlage für die Meinungsbildung eingeführt werden.

5 Didaktisch-methodische Entscheidungen: In diesem Abschnitt werden die pädagogischen und methodischen Ansätze detailliert, die zur Erreichung der Lernziele eingesetzt werden, insbesondere die Arbeit am Trolley-Problem und die Diskussion verschiedener philosophischer Positionen.

7 Literatur: Dieses Kapitel listet alle wissenschaftlichen und anderen Quellen auf, die für die Erstellung des Unterrichtsentwurfs herangezogen und zitiert wurden.

8 Anhang und Materialien: Der Anhang bietet konkrete Unterrichtsmaterialien wie ein Gedankenexperiment zum Stundeneinstieg, Rollenkarten für verschiedene philosophische Perspektiven und Aufgabenstellungen für die Gruppenarbeit.

Schlüsselwörter

Ethik, Autonome Fahrzeuge, Künstliche Intelligenz, Moral Machine, Trolley-Problem, Deontologie, Utilitarismus, Religiöse Ethik, Philosophische Ethik, Angewandte Ethik, Dilemma, Argumentationskompetenz, Urteilsbildung, Unterrichtsentwurf, Kompetenzorientierung

Häufig gestellte Fragen

Worum geht es in dieser Arbeit grundsätzlich?

Diese Arbeit ist ein detaillierter Unterrichtsentwurf für eine Ethikstunde in der Berufsoberschule II. Sie behandelt die hochaktuelle Frage der moralischen Programmierung autonomer Fahrzeuge und die damit verbundenen ethischen Dilemmata.

Was sind die zentralen Themenfelder?

Die zentralen Themenfelder umfassen die Technikethik im Bereich der Künstlichen Intelligenz, grundlegende normative Ethiktheorien wie Utilitarismus, Deontologie und religiöse Ethik sowie die praktische Anwendung dieser Theorien zur Entwicklung von Argumentations- und Urteilskompetenz bei den Lernenden.

Was ist das primäre Ziel oder die Forschungsfrage?

Das primäre Ziel des Unterrichts ist es, die Lernenden dazu zu befähigen, eine fundierte und begründete Antwort auf die Forschungsfrage "Wie sollen autonome Fahrzeuge moralisch programmiert sein?" zu finden, indem sie verschiedene ethische Perspektiven kritisch beleuchten und eigene Urteile entwickeln.

Welche wissenschaftliche Methode wird verwendet?

Im Kontext dieses Unterrichtsentwurfs wird eine diskursive Methode eingesetzt. Die Lernenden schlüpfen in die Rollen von Vertretern unterschiedlicher philosophischer Positionen (z.B. Utilitaristen, Deontologen, Christen) und diskutieren in einer simulierten Talkshow, um Argumente abzuwägen und ein differenziertes Urteil zu fällen.

Was wird im Hauptteil behandelt?

Der Hauptteil des Unterrichtsentwurfs beschreibt die didaktisch-methodischen Entscheidungen, die Einordnung der Stunde in eine längere Unterrichtsreihe, die Durchführung der verschiedenen Unterrichtsphasen (Informieren, Planen, Entscheiden, Durchführen) sowie die eingesetzten Materialien und Methoden zur Kompetenzentwicklung.

Welche Schlüsselwörter charakterisieren die Arbeit?

Schlüsselwörter, die diese Arbeit charakterisieren, sind Ethik, autonome Fahrzeuge, Künstliche Intelligenz, Moral Machine, Trolley-Problem, Deontologie, Utilitarismus, Angewandte Ethik, Argumentationskompetenz, Urteilsbildung und Technikethik.

Wie wird das "Trolley-Problem" im Unterricht eingesetzt?

Ein von der Lerngruppe selbst konzipiertes "Trolley-Problem" dient als zentrales Gedankenexperiment und Lernsituation. Es soll die ethischen Dilemmata autonomer Fahrzeuge anschaulich machen und die Lernenden zur kritischen Auseinandersetzung mit den unterschiedlichen moralischen Lösungsansätzen anregen.

Welche philosophischen Positionen werden im Rollenspiel diskutiert?

Im Rahmen der Talkshow werden die Positionen eines hedonistischen Utilitaristen (Jeremy Bentham), eines qualitativen Utilitaristen (Oliver Bendel), eines Deontologen (Immanuel Kant) und einer christlichen Perspektive (Joachim Mann) diskutiert, um die Vielfalt der ethischen Argumente abzubilden.

Welche Rolle spielt die "Moral Machine" in der Unterrichtsreihe?

Das Online-Experiment "Moral Machine" des MIT war der Ausgangspunkt der Unterrichtsreihe. Die Erfahrungen und Ergebnisse der Lernenden aus diesem Experiment führten zur Notwendigkeit, sich mit ethischen Norm- und Werttheorien auseinanderzusetzen, um begründete Urteile fällen zu können.

Wie wird die Kompetenzentwicklung der Lernenden am Ende der Stunde überprüft?

Die Kompetenzentwicklung der Lernenden wird am Ende der Stunde durch eine anonyme Mentimeter-Umfrage evaluiert. Diese ermöglicht eine Selbstreflexion über die erworbenen Fähigkeiten in der Argumentations- und Urteilsbildung im Vergleich zum Beginn der Lernreihe.

Excerpt out of 24 pages  - scroll top

Details

Title
Talkshow "Code of Ethics". Wie sollen autonome Fahrzeuge moralisch programmiert sein?
Subtitle
Eine Unterrichtsstunde im Themenfeld der Angewandten Ethik
Grade
1,0
Author
Lena Groß (Author)
Publication Year
2024
Pages
24
Catalog Number
V1594543
ISBN (PDF)
9783389169575
ISBN (Book)
9783389169582
Language
German
Tags
talkshow angewandte ethik ki künstliche intelligenz selbstgesteuert auto programmiert kant deontologie religion utilitarismus
Product Safety
GRIN Publishing GmbH
Quote paper
Lena Groß (Author), 2024, Talkshow "Code of Ethics". Wie sollen autonome Fahrzeuge moralisch programmiert sein?, Munich, GRIN Verlag, https://www.grin.com/document/1594543
Look inside the ebook
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
Excerpt from  24  pages
Grin logo
  • Grin.com
  • Shipping
  • Contact
  • Privacy
  • Terms
  • Imprint