Sollten automatisierte Waffensysteme reguliert oder verboten werden? Die Arbeit soll sich im Folgenden eingehend mit dieser Frage beschäftigen, um letztendlich eine begründete Antwort darauf geben zu können. Zuerst werden dafür die wichtigsten Begriffsdefinitionen, Klassifikationen sowie aktuellen Entwicklungen und Anwendungen im Hinblick auf automatisierte Waffensysteme erläutert. Im ethischen Teil werden die Bedingungen und Kriterien einer legitimen Gewaltanwendung aufgeführt, um anschließend die ethischen Aspekte automatisierter Waffensysteme analysieren zu können. Zuletzt werden im politischen Teil die völkerrechtlichen Aspekte automatisierter Waffensysteme erläutert und die bisherigen Regelungsversuche betrachtet.
Inhaltsverzeichnis
1. Einleitung
2. Grundlagen
2.1 Begriffsdefinitionen und Klassifikation automatisierter Waffensysteme
2.1.1 Zentrale Begriffsdefinitionen
2.1.2 Klassifikation automatisierter Waffensysteme
2.1.3 Aktueller Entwicklungsstand und Anwendung in der militärischen Praxis
2.2 Bedingungen und Kriterien für legitime militärische Gewalt
2.2.1 Tradition und Theorie des gerechten Krieges
2.2.2 Bedingungen für legitime militärische Gewalt
2.2.3 Kriterien für legitime militärische Gewalt
3. Ethische Aspekte zum Einsatz automatisierter Waffensysteme
3.1 Deontologische Ansätze
3.1.1 Moralische Verantwortung
3.1.2 Menschliches Handeln
3.1.3 Menschenwürde
3.1.4 Einhaltung des ius ad bellum
3.1.5 Fehlende Fairness
3.1.6 Selbstschutz der eigenen Streitkräfte
3.2 Konsequentialistische Ansätze
3.2.1 Die Gefahr eines Wettrüstens
3.2.2 Die Gefahr nichtstaatlicher Akteure
3.2.3 Technische Risiken
3.2.4 Mögliche Folgen einer geringeren Gefährdung der eigenen Streitkräfte
3.2.5 Fehlende Diskriminierung
3.2.6 Gezielte Tötungen und Signaturangriffe
3.2.7 Psychische Folgen für Zivilisten
3.2.8 Positive Konsequenzen zum Einsatz autonomer Waffensysteme
4. Völkerrechtliche Aspekte automatisierter Waffensysteme
4.1 Internationaler Menschenrechtsschutz
4.2 Humanitäres Völkerrecht
4.2.1 Unterscheidungsprinzip
4.2.2 Verhältnismäßigkeitsprinzip
4.2.3 Vorsorgeprinzip
4.3. Völkerstrafrecht
4.3.1 Rechtlicher Status
4.3.2 Rechtliche Verantwortung
4.4 Regelungsversuche im internationalen System
5. Gesamtfazit
Zielsetzung & Themen
Die vorliegende Arbeit untersucht die politisch-ethischen Probleme und völkerrechtlichen Herausforderungen, die durch den zunehmenden Einsatz von (teil-)automatisierten sowie autonomen Waffensystemen in modernen Kriegseinsätzen entstehen, mit dem Ziel, eine fundierte Antwort auf die Frage nach einer notwendigen Regulierung oder einem Verbot solcher Systeme zu formulieren.
- Grundlagen und Klassifikation unbemannter, automatisierter und autonomer Waffensysteme.
- Deontologische und konsequentialistische ethische Bewertung der Waffensysteme.
- Völkerrechtliche Einordnung hinsichtlich Menschenrechten und humanitärem Völkerrecht.
- Analyse der Verantwortungslücke und der Problematik der "strikten Verantwortlichkeit" bei Out-of-the-Loop-Systemen.
- Diskussion internationaler Regelungsversuche und des Konzepts der "meaningful human control".
Auszug aus dem Buch
3.1.1 Moralische Verantwortung
Das erste deontologische Argument betrifft die moralische Verantwortung beim Einsatz autonomer Waffensysteme. An dieser Stelle muss differenziert werden. So kann bei ferngesteuerten Human In-the-Loop-Systemen prinzipiell die moralische Verantwortung dem Bedienpersonal zugeschrieben werden, da dieses schließlich alle wesentlichen Entscheidungen des Systems trifft. Kritiker wie Robert Sparrow argumentieren nun damit, dass Maschinen per Definition moralisch nicht verantwortlich für Handlungen sein können. Da ab einer gewissen Komplexitätsstufe von On-the-Loop und Out-of-the-Loop Systemen weder der Programmierer noch der Befehlshaber die Handlungen eines autonomen Waffensystems klar vorhersehen können, entsteht eine Verantwortungslücke (vgl. Sparrow 2007, S. 67). Maschinen können zwar wie anfangs aufgeführt implizite moralische Akteure sein, jedoch haben sie keine intrinsischen Intentionen und können damit auch nicht zur Verantwortung gezogen, beziehungsweise bestraft werden.
Gegen die Verantwortungslücke ließe sich argumentieren, dass in dem Fall eine Art kollektive Verantwortung aller Beteiligten vom Entwickler bis zum Befehlshaber bestehen könnte. Dies wäre jedoch eine äußerst unzufriedenstellende Situation, da sie das Problem vieler Hände aufwirft. Die Beteiligung vieler Akteure an einem schlechten Ergebnis würde es unklar machen, wo die wirkliche Verantwortung liegt und damit wäre eine Bestrafung ebenso kaum möglich. (vgl. Thompson 1980). Betrachtet man jedoch die üblichen streng hierarchischen Strukturen beim Militär, kommt man zu einem anderen Aspekt, welcher gegen eine zwangsweise existierende Verantwortungslücke spricht. So wird im militärischen Kontext häufig eine „strikte Verantwortlichkeit“ angewendet. Dies bedeutet, dass ein militärischer Führer für das Handeln seiner Truppen verantwortlich gemacht werden kann, auch wenn dieser zum Zeitpunkt der Handlung nicht in die Kausalkette der Handlung involviert ist (vgl. Walzer 1982, S. 450–455). Auch wenn sich in Kapitel 4.3. zeigen wird, dass diese strikte Verantwortung völkerstrafrechtlich nicht immer eindeutig anwendbar ist, so ist sie in moralischer Hinsicht dennoch tragbar.
Zusammenfassung der Kapitel
1. Einleitung: Die Einleitung beleuchtet die zunehmende Bedeutung von Hochtechnologie in der Kriegsführung des 21. Jahrhunderts und führt die zentrale Fragestellung ein, ob automatisierte Waffensysteme reguliert oder verboten werden sollten.
2. Grundlagen: Dieses Kapitel liefert eine Definition der Kernbegriffe wie Waffensystem, Automatisierung und Autonomie sowie eine Klassifikation der Waffensysteme und eine Übersicht ihrer aktuellen militärischen Anwendung.
3. Ethische Aspekte zum Einsatz automatisierter Waffensysteme: Es werden die moralische Akteurschaft von Maschinen diskutiert sowie deontologische und konsequentialistische Argumente für und gegen den Einsatz autonomer Systeme analysiert.
4. Völkerrechtliche Aspekte automatisierter Waffensysteme: Das Kapitel untersucht die Vereinbarkeit der Systeme mit dem Menschenrechtsschutz, dem humanitären Völkerrecht sowie dem Völkerstrafrecht und betrachtet internationale Versuche zur Regulierung.
5. Gesamtfazit: Das Fazit fasst die ethischen und rechtlichen Bedenken zusammen und kommt zu dem Schluss, dass insbesondere der Einsatz von Out-of-the-Loop-Systemen kritisch zu bewerten ist und dringender politischer Handlungsbedarf besteht.
Schlüsselwörter
Autonome Waffensysteme, LAWS, Ethik, Völkerrecht, Humanitäres Völkerrecht, Moralische Verantwortung, Künstliche Intelligenz, Mensch-Maschine-Interaktion, Kriegsführung, Automatisierung, Diskriminierungsgebot, Verantwortungslücke, Deontologische Ethik, Konsequentialistische Ethik, Militärische Robotik
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit analysiert die ethischen und rechtlichen Problemstellungen, die sich aus der Entwicklung und dem Einsatz (teil-)automatisierter Waffensysteme in modernen bewaffneten Konflikten ergeben.
Was sind die zentralen Themenfelder?
Die Arbeit deckt die Begriffsdefinitionen, ethische Theorien (deontologisch und konsequentialistisch), das humanitäre Völkerrecht, das Völkerstrafrecht sowie aktuelle politische Debatten zur Regulierung ab.
Was ist das primäre Ziel oder die Forschungsfrage?
Die zentrale Frage lautet, ob automatisierte Waffensysteme aufgrund ihrer ethischen und völkerrechtlichen Risiken reguliert oder vollständig verboten werden sollten.
Welche wissenschaftliche Methode wird verwendet?
Die Arbeit stützt sich auf eine argumentative Analyse unter Einbeziehung von Expertenmeinungen, technischer Klassifizierungen, empirischer Daten und einer Auswertung des aktuellen völkerrechtlichen Rahmens.
Was wird im Hauptteil behandelt?
Der Hauptteil gliedert sich in die ethische Bewertung (Verantwortung, Menschenwürde, Fairness) und die völkerrechtliche Einordnung (Diskriminierungs- und Verhältnismäßigkeitsprinzip, Strafrecht).
Welche Schlüsselwörter charakterisieren die Arbeit?
Wichtige Begriffe sind unter anderem Autonome Waffensysteme (AWS), LAWS, Humanitäres Völkerrecht, Verantwortungslücke und Künstliche Intelligenz.
Wie unterscheidet die Arbeit zwischen verschiedenen Graden der Autonomie?
Die Arbeit greift auf eine dreistufige Einordnung der Systeme zurück, um die unterschiedliche Rolle des Menschen in der Kontrollschleife (z.B. Human-in-the-Loop bis Out-of-the-Loop) differenziert zu betrachten.
Warum ist das Argument der "Verantwortungslücke" für die Arbeit so wichtig?
Die Verantwortungslücke ist zentral, weil bei vollautonomen Systemen die direkte menschliche Zurechenbarkeit für Tötungshandlungen im Kriegsrecht unklar wird, was moralische und strafrechtliche Probleme aufwirft.
Wie bewertet der Autor die Wirksamkeit aktueller politischer Regulierungsversuche?
Der Autor bewertet diese als bisher wenig erfolgreich, da trotz intensiver Debatten bei Experten- und Staatentreffen bisher kein internationaler Konsens oder eine einheitliche Definition für ein klares Verbot erzielt werden konnte.
Welche Rolle spielt das Konzept der "meaningful human control"?
Es wird als mögliches Leitprinzip für zukünftige völkerrechtliche Verträge diskutiert, um eine klare Grenze zwischen ethisch vertretbaren Systemen und unzulässigen vollautonomen Waffen zu ziehen.
- Quote paper
- Robin Barton (Author), 2021, Politisch-ethische Probleme (teil-)automatisierter Waffensysteme in Kriegseinsätzen, Munich, GRIN Verlag, https://www.grin.com/document/1045421