Das Leitbild des gerechten Friedens vor dem Hintergrund letaler autonomer Waffensysteme


Essay, 2020

12 Seiten, Note: 1,7


Leseprobe


Inhalt

1. Hinführung: Die Zukunft als Dystopie?

2. Friedensgefährdungen durch LAWs
2.1. Terminologische Grenzbestimmungen
2.2. LAWs als völkerrechtliche, sozialethische und politische Herausforderung

3. Von der Notwendigkeit einer Aktualisierung des Leitbildes
3.1. Anfragen an das Leitbild vom gerechten Frieden
3.2. Zur Verwässerung völkerrechtlicher Normen
3.3. Zur Rolle der kritischen Öffentlichkeit

4. Literaturverzeichnis

Das Leitbild des gerechten Friedens vor dem Hintergrund letaler autonomer Waffensysteme

1. Hinführung: Die Zukunft als Dystopie?

Die Thematisierung der Digitalisierung als Gegenmodell zum Realen oder als alternativen Cyberspace ist längst überflüssig geworden. Die klassische Unterscheidung zwischen Virtuellem und Realem kann angesichts der alltäglichen Digitalisierung von Kultur nicht mehr vorgenommen werden. Das Digitale bestimmt nicht nur unsere gesamte Infrastruktur, sondern ist auch Teil unseres Wahrnehmungs-, Denk,- und Lernprozesses.1 „Die conditio humana ist elementar von der Digitalisierung betroffen.“2 Auch im Bereich der Waffenindustrie ist die Digitalisierung zu einem wichtigen machtpolitischen Akteur geworden. Dies zeigt nicht zuletzt der weltweite Trend zur Autonomisierung des Krieges durch letale autonome Waffensysteme, kurz LAWs, wie beispielsweise Kampfdrohnen. Digitale Kriegsführung als Charakteristikum der neuen Kriege führt gleichzeitig zu neuen sicherheitspolitischen Extremsituationen.3 Welches Ausmaß die steigende Autonomisierung der Kriegsführung annehmen könnte, zeigt der von Kritikern produzierte Science-Fiction-Kurzfilm „Slaughterbots“4 Verdichtet zu einer düsteren Zukunftsdystopie soll „Slaughterbots“ die verheerenden Folgen der außer Kontrolle geratenen LAWs zeigen, wobei die Rolle Künstlicher Intelligenz, die zunehmende Autonomisierung sowie deren Missbrauch thematisiert und problematisiert wird. Was von manchen Forschern als echte Revolution und Paradigmenwechsel im Bereich der Militärtechnologie bewertet wird, stellt Kritiker vor völkerrechtliche, sozialethische und politische Herausforderungen.5 Aber auch im Rahmen der Friedenssicherung ist die Digitalisierung der Waffensysteme als Friedensgefährdung einzustufen. 2007 hat die Evangelische Kirche in Deutschland (EKD) in ihrer Denkschrift „Aus Gottes Frieden leben - für gerechten Frieden sorgen“ mit der Leitidee des gerechten Friedens eine globale Friedensordnung gefordert. Bereits hier wurden auf die Gefährdungen des Friedens aufmerksam gemacht. Während auf der Ebene der Waffengewalt zwar auf wichtige Entwicklungen wie die Privatisierung, Ökonomisierung und Monopolisierung von1 2 3 4 5

Waffengewalt verwiesen wurde, war die Digitalisierung innerhalb der Militärtechnologie in Form von LAWs nicht Gegenstand der Denkschrift. Angesichts der sich rasant entwickelnden Technologie stellt sich daher die Frage, ob und wie sich neueste Technologietrends in die Leitidee des gerechten Friedens integrieren lassen. Die Gegenwart zeigt, dass Entwicklungen wie Privatisierung, Ökonomisierung, Monopolisierung sowie Digitalisierung vielmehr zunehmen als abnehmen. Zugleich zeichnen sich neue, diametral andere Formen der Kriegsführung ab, die sich nicht mit einer Leitidee decken lassen, die von den Erfahrungen zweier Weltkriege und der damit verbundenen Verantwortung her denkt. Dass es hier einer zeitgemäßen und notwendigen Aktualisierung bedarf, kann auch angesichts des ausgeweiteten Einsatzes bewaffneter Drohnen (unmanned aerial vehicles) durch die USA gegen Terrororganisationen wie Al Qaida in Afghanistan sowie Nordwestpakistan, Somalia und Jemen nicht geleugnet werden.6 Gleichzeitig fördern solche Einsätze sowie Verlautbarungen, die von einem Ausbau des Einsatzes autonomer Systeme handeln, das Vorantreiben der öffentlichen Debatte sowie das weitere Beschleunigen der Rüstungsspirale.7

Dazu sollen zunächst terminologische Grenzbestimmungen autonomer Waffensysteme vorgenommen werden. Im Anschluss daran werden LAWs aufgrund ihrer völkerrechtlichen, sozialethischen und politischen Herausforderung als Friedensgefährdung eingestuft und die dadurch entstehenden Spannungen und Probleme mit dem friedensethischen Leitbild der EKD näher analysiert. Dabei soll deutlich werden, dass das Leitbildes vom gerechten Frieden einer Aktualisierung und Erweiterung bedarf.

2. Friedensgefährdungen durch LAWs

2.1. Terminologische Grenzbestimmungen

Begriffe wie „autonome“ Waffensysteme oder „intelligente“ Kriegsroboter bestimmen nicht nur den wissenschaftlichen Diskurs, sondern sind auch zum Gegenstand öffentlicher Diskussion geworden. Dabei führte der öffentlich-alltagssprachliche Gebrauch zu einer terminologischen Unschärfe, die sich auch in akademischen Fachdebatten wiederfindet und nicht zuletzt Ursache für verschiedene Modelle und Ansätze ist. Das bisher am meisten auch in der Literatur verbreitete Modell stellt der dreistufige Ansatz der Nichtregierungsorganisation Human Rights Watch dar.8 Unbemannte Waffensysteme sind daher hinsichtlich ihres Grades an Autonomisie- rung zu unterscheiden. Autonomie ist demnach der „Grad der Fähigkeit, nur anhand von Algorithmen und ohne menschliche Intervention entscheiden zu können.“9 Die Organisation Human Rights Watch differenziert weiter zwischen nicht-autonomen (human in the loop), semi-autonomen (human on the loop) und autonomen (human out the loop) Systemen. Während nichtautonome Waffensysteme eine menschliche Bedienung per Fernsteuerung benötigen, können bei semi-autonomen Waffensystemen Einsätze einerseits autonom ausgeführt, andererseits von Menschen kontrolliert und wenn nötig nachjustiert werden. So agieren semi-autonome Waffensysteme autonom, unterliegen dabei jedoch menschlicher Überwachungs- und Steuerungskontrolle.10 Ein Beispiel für „human in the loop“-Systeme sind die von den Vereinigten Staaten eingesetzten Drohnen in Pakistan, Afghanistan und Jemen, da diese von einer entfernten Kommandozentrale gesteuert werden und so den Einsatz nur durch menschliches Zutun ausführen können.11 In Bezug auf „human on the loop“-Systeme merkte der UN-Sonderberichterstatter Christof Heyns jedoch an, dass die Möglichkeiten zum Eingriff fast unmöglich seien, da der Roboter Entscheidungen binnen Nanosekunden trifft. Insofern sei es nur eine überwachte Autonomie.12 Bei vollautonomen Waffensystemen (human out the loop) operieren die Systeme ohne menschliche Kontrolle oder Steuerung. Die Rolle der Künstlichen Intelligenz sowie maschinelles Lernen ist in „human out the loop “-Systemen unverkennbar. So verweisen Völkerrechtswissenschaftler wie Michael N. Schmitt darauf, dass in Zukunft Systeme „erfahrungsbasiert“ lernen, indem sie ihre Umgebung beobachten und mit ihr interagieren. „general artificial intelligence systems will exhibit human-like cognitive abilities, enabling them to make decisions in response to complex problems and situations.“13 Obwohl „human out the loop “-Systeme in dieser Form noch nicht existieren, sind die Autonomisierungstendenzen deutlich erkennbar. So soll der britische Drohnen-Prototyp BAE Taranis selbständig Ziele erkennen, auswählen und anvisieren können, wobei bisher der tatsächliche Befehl noch durch den Anwender er- folgt.14

2.2. LAWs als völkerrechtliche, sozialethische und politische Herausforderung

Während Befürworter in LAWs die nächste militärische Evolutionsstufe erreicht sehen und für eine Humanisierung der Kriegsführung durch autonome Waffensysteme plädieren, kritisieren Gegner nicht nur die Enthumanisierung moderner Kriegsführung, sondern fordern zugleich eine völkerrechtliche Überprüfung autonomer Waffensysteme.15 Militärisch gesehen können unbemannte Systeme hochkomplexe Datenstrukturen auswerten und anders als konventionelle Waffen durch genauere Präzision einen besseren Schutz von Zivilisten garantieren.16 Unterstützt wird diese Annahme durch Forschungsansätze der Roboterethik, deren bekanntester Vertreter Ronald C. Arkin ist. Die implementierte „künstliche Ethik“ sei demnach nicht nur völkerrechtskonform, sondern auch weniger emotionsgeleitet als menschliche Handlungsträger.17 Hauptargument der Politik ist jedoch der Schutz des Lebens der Soldaten und Soldatinnen und die Reduzierung eigener Verluste. Befürworter behaupten daher, dass der Einsatz von LAWs zu einer Humanisierung des Krieges beitrage.18

Dennoch sind unbemannte Waffensysteme nicht nur in der Forschung, sondern auch in der Öffentlichkeit hoch umstritten. Obwohl die vornehmlich militärfachlichen Gründe gewissermaßen ihre Berechtigung haben, bleibt die Mehrheit der völkerrechtlichen und sozialethischen sowie politischen Fachgebiete misstrauisch. Die vorgebrachten Gegenargumente überwiegen dabei nicht nur quantitativ, sondern auch qualitativ. Hauptdiskussionspunkt ist die Kompatibilität autonomer Waffensysteme mit dem humanitären Völkerrecht. Entscheidend für diese Fragestellung ist das erste Zusatzprotokoll der Genfer Konventionen 1977, in welchem vor allem drei Prinzipien, Unterscheidungsgebot, Verhältnismäßigkeitsprinzip und Vorsorgeprinzip, formuliert wurden, die als Maßstäbe im Umgang mit neuen Entwicklungen der Waffentechnologien gelten sollen. Als Beispiel für Inkompatibilitäten sei das Unterscheidungsgebot (Artikel 51) genannt, welches insbesondere die Unterscheidung zwischen Zivilisten und Kombattanten vorsieht. In Bezug auf autonome Waffensysteme beurteilen Experten einerseits, ob die Senso- motorik solcher Systeme in der Lage ist, die gebotene Unterscheidung jemals mit hinreichender Zuverlässigkeit treffen zu können.19 Der Robotiker Noel Sharkey beispielsweise zweifelt an einer Duplizierung der menschlichen Emotion. „Humans understand one another in a way that machines cannot. Cues can be very subtle, and there are an infinite number of circumstances where lethal force is inappropriate.“20 Andererseits wird die Einhaltung des Unterscheidungsgebots durch „asymmetrische Kriegführung“ und „urban warfare“ erschwert, da in solchen Konfliktsituationen irreguläre Kämpfer von der Zivilbevölkerung kaum bis nicht zu unterscheiden sind.21 Neben der völkerrechtlichen Dimension sind auch sozialethische Herausforderungen als sehr kritisch einzustufen. Kritiker befürchten nicht nur eine ethische Desensibilisierung der Soldaten und Soldatinnen durch den Einsatz autonomer Systeme, sondern auch die dadurch einhergehende Gefahr der Entgrenzung des Krieges. Gleichzeitig werden Grundmuster der ethischen Rechtfertigung des Tötens im Krieg aufgehoben, da gezieltes Töten (targeted killing) nicht mehr aufgrund von Notwehr oder dem solidarischen Schutz der Kameradschaft erfolgt.22 Auch das Problem der Verantwortlichkeit gleicht einem ethischen Dilemma. Obgleich autonome Waffensysteme als „intelligent“ bezeichnet werden, können sie nicht analog zum Menschen zur Rechenschaft gezogen werden.23 Diese Fragestellung tangiert das Spannungsverhältnis zwischen Mensch und Maschine und die daraus folgende Entpersonalisierung des Men- schenbildes.24 Auf politischer Ebene stellen LAWs eine Herausforderung für die Rüstungs- und Exportkontrolle dar. Nicht nur die Tatsache, dass autonome Waffensysteme in vielen Rüstungs- kontrollverträge nicht inbegriffen sind, sondern auch die Dual-Use-Problematik sowie Informationsflut technologischen Wissens machen eine gesicherte Rüstungs- und Exportkontrolle unmöglich. Experten sprechen daher auch von einem neuen Rüstungswettlauf zwischen den Staaten.25

[...]


1 Die Idee einer „Kultur der Digitalität“ stammt von dem Kultur- und Medienwissenschaftler Felix Stalder, der darunter die enorme Vervielfältigung kultureller Möglichkeit durch Digitalisierung zusammenfasst. Vgl. dazu Stalder F 2016, 10-17.

2 Hofhemz M 2019, 138.

3 Vgl. Münkler H 32007, 7-12.

4 Dieser Kurzfilm wurde von Stuart J. Russell, einem britischen Forscher für Künstliche Intelligenz, und der Outreach-Organisation Future of Life Institute (FLI) zum Verbot von LAWs produziert und veröffentlicht. Vgl. dazu. Russell SJ /FLI 2017.

5 Vgl. Geiss R 2015, 3-6.

6 Vgl. Oeter S 2014, 36.

7 Vgl. Geiss R 2015, 4.

8 Vgl. Human Rights Watch 2012, 2.

9 Geiss R 2015, 6.

10 Vgl. Werkner IJ 2019, 3-4.

11 Vgl. Geiss R 2015, 7.

12 Vgl. Geiss R 2015, 8.

13 Schmitt MN / Thurnher JS 2013, 239.

14 Vgl. Sauer F 2013, 50.

15 Vgl. König L 2017, 1.

16 Vgl. Statman D 2014, 47.

17 Vgl. Arkin RC 2014, 5-6.

18 Vgl. Werkner IJ 2019, 6-7.

19 Vgl. König L 2017, 1-3.

20 Sharkey N 2012, 118.

21 Vgl. Geiss R 2015, 14-15.

22 Vgl. Oeter S 2014, 39.

23 Vgl. Geiss R 2015, 21-24.

24 Vgl. Dickow M 2015, 5.

25 Alwardt C 2019, 85-86.

Ende der Leseprobe aus 12 Seiten

Details

Titel
Das Leitbild des gerechten Friedens vor dem Hintergrund letaler autonomer Waffensysteme
Hochschule
Friedrich-Alexander-Universität Erlangen-Nürnberg  (Institut für Systematische Theologie Lehrstuhl für Systematische Theologie II (Ethik))
Veranstaltung
HS: Friedensethik
Note
1,7
Autor
Jahr
2020
Seiten
12
Katalognummer
V1011167
ISBN (eBook)
9783346401489
ISBN (Buch)
9783346401496
Sprache
Deutsch
Schlagworte
Letale Autonome Waffensysteme, LAWS, Friedensgefährdungen, gerechter Friede, Völkerrecht, Digitalisierung, Kampfdrohnen, Digitale Kriegsführung, Autonomisierung der Kriegsführung, Künstliche Intelligenz, Privatisierung, Ökonomisierung und Monopolisierung, Kriegsroboter, human in the loop, human on the loop, human out the loop, Enthumanisierung moderner Kriegsführung, Roboterethik, Unterscheidungsgebot, Verhältnismäßigkeitsprinzip und Vorsorgeprinzip, Neue Kriege
Arbeit zitieren
Svenja Hahn (Autor:in), 2020, Das Leitbild des gerechten Friedens vor dem Hintergrund letaler autonomer Waffensysteme, München, GRIN Verlag, https://www.grin.com/document/1011167

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Das Leitbild des gerechten Friedens vor dem Hintergrund letaler autonomer Waffensysteme



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden