Angesichts der sich rasant entwickelnden Technologie stellt sich die Frage, ob und wie sich neueste Technologietrends in die Leitidee des gerechten Friedens integrieren lassen.
Die Gegenwart zeigt, dass Entwicklungen wie Privatisierung, Ökonomisierung, Monopolisierung sowie Digitalisierung vielmehr zunehmen als abnehmen. Zugleich zeichnen sich neue, diametral andere Formen der Kriegsführung ab, die sich nicht mit einer Leitidee decken lassen, die von den Erfahrungen zweier Weltkriege und der damit verbundenen Verantwortung herdenkt.
Dazu sollen zunächst terminologische Grenzbestimmungen autonomer Waffensysteme vorgenommen werden. Im Anschluss daran werden LAWs aufgrund ihrer völkerrechtlichen, sozial-ethischen und politischen Herausforderung als Friedensgefährdung eingestuft und die dadurch entstehenden Spannungen und Probleme mit dem friedensethischen Leitbild der EKD näher analysiert. Dabei soll deutlich werden, dass das Leitbild vom gerechten Frieden einer Aktualisierung und Erweiterung bedarf.
Inhaltsverzeichnis
1. Hinführung: Die Zukunft als Dystopie?
2. Friedensgefährdungen durch LAWs
2.1. Terminologische Grenzbestimmungen
2.2. LAWs als völkerrechtliche, sozialethische und politische Herausforderung
3. Von der Notwendigkeit einer Aktualisierung des Leitbildes
3.1. Anfragen an das Leitbild vom gerechten Frieden
3.2. Zur Verwässerung völkerrechtlicher Normen
3.3. Zur Rolle der kritischen Öffentlichkeit
Zielsetzung und Themenfelder
Diese Arbeit untersucht die Herausforderungen, die letale autonome Waffensysteme (LAWs) für das friedensethische Leitbild des gerechten Friedens darstellen. Ziel ist es, aufzuzeigen, dass die zunehmende Technologisierung und Autonomisierung der Kriegsführung eine kritische Auseinandersetzung und eine Aktualisierung der bisherigen friedensethischen Leitlinien erforderlich machen.
- Terminologische Abgrenzung und Klassifizierung autonomer Waffensysteme.
- Analyse der völkerrechtlichen, sozialethischen und politischen Herausforderungen durch LAWs.
- Kritische Überprüfung der Kompatibilität autonomer Systeme mit dem Leitbild des gerechten Friedens.
- Diskussion der Rolle von völkerrechtlichen Normen und deren möglicher Verwässerung.
- Bedeutung einer kritischen Öffentlichkeit für die Gestaltung zukünftiger Friedensordnungen.
Auszug aus dem Buch
2.1. Terminologische Grenzbestimmungen
Begriffe wie „autonome“ Waffensysteme oder „intelligente“ Kriegsroboter bestimmen nicht nur den wissenschaftlichen Diskurs, sondern sind auch zum Gegenstand öffentlicher Diskussion geworden. Dabei führte der öffentlich-alltagssprachliche Gebrauch zu einer terminologischen Unschärfe, die sich auch in akademischen Fachdebatten wiederfindet und nicht zuletzt Ursache für verschiedene Modelle und Ansätze ist. Das bisher am meisten auch in der Literatur verbreitete Modell stellt der dreistufige Ansatz der Nichtregierungsorganisation Human Rights Watch dar. Unbemannte Waffensysteme sind daher hinsichtlich ihres Grades an Autonomisierung zu unterscheiden.
Autonomie ist demnach der „Grad der Fähigkeit, nur anhand von Algorithmen und ohne menschliche Intervention entscheiden zu können.“ Die Organisation Human Rights Watch differenziert weiter zwischen nicht-autonomen (human in the loop), semi-autonomen (human on the loop) und autonomen (human out the loop) Systemen. Während nicht-autonome Waffensysteme eine menschliche Bedienung per Fernsteuerung benötigen, können bei semi-autonomen Waffensystemen Einsätze einerseits autonom ausgeführt, andererseits von Menschen kontrolliert und wenn nötig nachjustiert werden. So agieren semi-autonome Waffensysteme autonom, unterliegen dabei jedoch menschlicher Überwachungs- und Steuerungskontrolle. Ein Beispiel für „human in the loop“-Systeme sind die von den Vereinigten Staaten eingesetzten Drohnen in Pakistan, Afghanistan und Jemen, da diese von einer entfernten Kommandozentrale gesteuert werden und so den Einsatz nur durch menschliches Zutun ausführen können.
In Bezug auf „human on the loop“-Systeme merkte der UN-Sonderberichterstatter Christof Heyns jedoch an, dass die Möglichkeiten zum Eingriff fast unmöglich seien, da der Roboter Entscheidungen binnen Nanosekunden trifft. Insofern sei es nur eine überwachte Autonomie. Bei vollautonomen Waffensystemen (human out the loop) operieren die Systeme ohne menschliche Kontrolle oder Steuerung. Die Rolle der Künstlichen Intelligenz sowie maschinelles Lernen ist in „human out the loop“-Systemen unverkennbar. So verweisen Völkerrechtswissenschaftler wie Michael N. Schmitt darauf, dass in Zukunft Systeme „erfahrungsbasiert“ lernen, indem sie ihre Umgebung beobachten und mit ihr interagieren.
Zusammenfassung der Kapitel
1. Hinführung: Die Zukunft als Dystopie?: Das Kapitel beleuchtet die Digitalisierung des Krieges und die damit verbundenen Ängste, veranschaulicht durch Science-Fiction-Dystopien, und stellt die Frage nach der Vereinbarkeit dieser Entwicklung mit der kirchlichen Friedensethik.
2. Friedensgefährdungen durch LAWs: Hier werden die technischen Definitionen von Autonomie in Waffensystemen geklärt und die daraus resultierenden völkerrechtlichen sowie ethischen Problematiken analysiert.
3. Von der Notwendigkeit einer Aktualisierung des Leitbildes: Dieses Kapitel prüft, inwiefern das kirchliche Leitbild vom gerechten Frieden angesichts autonomer Waffensysteme und erodierender völkerrechtlicher Normen angepasst und erweitert werden muss.
Schlüsselwörter
Gerechter Friede, Autonome Waffensysteme, LAWs, Digitalisierung, Völkerrecht, Kriegsführung, Künstliche Intelligenz, Friedensethik, Human Rights Watch, Rüstungskontrolle, Drohnen, Mensch-Maschine-Verhältnis, EKD, Verantwortung, Friedensordnung.
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit analysiert die Auswirkungen letaler autonomer Waffensysteme auf das ethische Leitbild eines gerechten Friedens.
Was sind die zentralen Themenfelder?
Die zentralen Themen umfassen die Definition autonomer Systeme, ihre völkerrechtliche Bewertung sowie die friedensethische Reflexion aus christlicher Sicht.
Was ist das primäre Ziel der Untersuchung?
Das Ziel ist aufzuzeigen, dass die technologische Entwicklung eine Aktualisierung bisheriger friedensethischer Ansätze zwingend erforderlich macht.
Welche wissenschaftliche Methode wird verwendet?
Die Arbeit basiert auf einer theoretischen Diskurs- und Literaturanalyse, die aktuelle völkerrechtliche und friedensethische Debatten zusammenführt.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil gliedert sich in eine terminologische Klärung der Waffentechnik, eine Analyse der rechtlichen und ethischen Gefährdungen sowie eine Überprüfung des kirchlichen Leitbildes.
Welche Schlüsselwörter charakterisieren die Arbeit?
Die wichtigsten Begriffe sind gerechter Friede, Autonome Waffensysteme, Völkerrecht und Friedensethik.
Warum spielt die Rolle der Öffentlichkeit eine so große Rolle für den Autor?
Der Autor argumentiert, dass eine kritische Öffentlichkeit und eine geschärfte Urteilsfähigkeit der Gesellschaft essenziell sind, um die technologische Entwicklung im militärischen Bereich ethisch zu hinterfragen.
Wie unterscheidet sich die Einschätzung von „human in the loop“ zu „human out the loop“?
Während bei ersteren ein menschliches Eingreifen noch theoretisch möglich bleibt, operieren Systeme im „human out the loop“-Status vollkommen ohne menschliche Steuerung, was eine neue Qualität ethischer Verantwortungsprobleme schafft.
- Citar trabajo
- Svenja Hahn (Autor), 2020, Das Leitbild des gerechten Friedens vor dem Hintergrund letaler autonomer Waffensysteme, Múnich, GRIN Verlag, https://www.grin.com/document/1011167