Politisch-ethische Probleme (teil-)automatisierter Waffensysteme in Kriegseinsätzen


Bachelorarbeit, 2021

62 Seiten, Note: 1,0


Leseprobe


Inhalt

1. Einleitung

2. Grundlagen
2.1 Begriffsdefinitionen und Klassifikation automatisierter Waffensysteme
2.1.1 Zentrale Begriffsdefinitionen
2.1.2 Klassifikation automatisierter Waffensysteme
2.1.3 Aktueller Entwicklungsstand und Anwendung in der militärischen Praxis
2.2 Bedingungen und Kriterien für legitime militärische Gewalt
2.2.1 Tradition und Theorie des gerechten Krieges
2.2.2 Bedingungen für legitime militärische Gewalt
2.2.3 Kriterien für legitime militärische Gewalt

3. Ethische Aspekte zum Einsatz automatisierter Waffensysteme
3.1 Deontologische Ansätze
3.1.1 Moralische V erantwortung
3.1.2 Menschliches Handeln
3.1.3 Menschenwürde
3.1.4 Einhaltung des ius ad bellum
3.1.5 Fehlende Fairness
3.1.6 Selbstschutz der eigenen Streitkräfte
3.2 Konsequentialistische Ansätze
3.2.1 Die Gefahr eines Wettrüstens
3.2.2 Die Gefahr nichtstaatlicher Akteure
3.2.3 Technische Risiken
3.2.4 Mögliche Folgen einer geringeren Gefährdung der eigenen Streitkräfte
3.2.5 Fehlende Diskriminierung
3.2.6 Gezielte Tötungen und Signaturangriffe
3.2.7 Psychische Folgen für Zivilisten
3.2.8 Positive Konsequenzen zum Einsatz autonomer Waffensysteme

4. Völkerrechtliche Aspekte automatisierter Waffensysteme
4.1 Internationaler Menschenrechtsschutz
4.2 Humanitäres Völkerrecht
4.2.1 Unterscheidungsprinzip
4.2.2 Verhältnismäßigkeitsprinzip
4.2.3 Vorsorgeprinzip
4.3. Völkerstrafrecht
4.3.1 Rechtlicher Status
4.3.2 Rechtliche Verantwortung
4.4 Regelungsversuche im internationalen System

5. Gesamtfazit

Literaturverzeichnis

1. Einleitung

Das Thema Krieg ist für sich genommen schon immer problematisch und umstritten. Durch die wissenschaftlichen Errungenschaften der letzten Jahrzehnte in den Bereichen Robotik und Informatik ist die Kriegsführung des 21. Jahrhunderts geprägt durch den wachsenden Einsatz von Hochtechnologie (vgl. Geiß 2015, S. 10). Eine militärische Anwendung dieser Hochtechnologie sind unbemannte automatisierte Waffensysteme. Diese, häufig auch als autonom bezeichneten Waffensysteme, werfen ein ganzes Spektrum an politischen und ethischen Frage- und Problemstellungen auf und gelten deshalb als höchst umstritten. Wie umstritten zeigt eine in 26 Ländern durchgeführte Umfrage aus dem Jahr 2019. Darin lehnten 61% der befragten Bürgerinnen und Bürger den Einsatz autonomer Waffensysteme klar ab, wohingegen lediglich 17% der Befragten noch Unentschlossenheit äußerten (vgl. Ipsos 2019). Auch unter den Experten sind die Meinungen diesbezüglich sehr kontrovers. Befürworter sehen in der zukünftigen Anwendung von autonomen Waffensystemen einen bedeutenden sicherheitspolitischen und ethischen Fortschritt (vgl. Statman 2014, S. 46; vgl. Arkin 2010, S. 333f.). Kritiker hingegen sehen darin immense ethische und politische Risiken und fordern deshalb eine gesetzliche Regulierung oder ein klares Verbot (vgl. Geiß 2015, S. 29; vgl. Koch 2019, S. 33). Die angesehene Nichtregierungsorganisation (NGO) Human Rights Watch sieht in der zukünftigen Anwendung autonomer Waffensysteme sogar das drohende Ende der Menschlichkeit und spricht sich deshalb entschieden für ein Verbot dieser aus (vgl. Human Rights Watch 2012). Doch in einem Punkt sind sich die Befürworter und Kritiker durchweg einig: Autonome Waffensysteme werden die Art der Kriegsführung nachhaltig verändern und markieren deshalb eine bedeutende militärtechnologische Zeitwende. Im Hinblick auf die zukünftigen politischen Entscheidungen drängt sich aufgrund der Aktualität und Kontroversität des Themas deshalb die wichtige Frage auf: Sollten automatisierte Waffensysteme reguliert oder verboten werden? Die Arbeit soll sich im Folgenden eingehend mit dieser Frage beschäftigen, um letztendlich eine begründete Antwort darauf geben zu können. Zuerst werden dafür die wichtigsten Begriffsdefinitionen, Klassifikationen sowie aktuellen Entwicklungen und Anwendungen im Hinblick auf automatisierte Waffensysteme erläutert. Im ethischen Teil werden die Bedingungen und Kriterien einer legitimen Gewaltanwendung aufgeführt, um anschließend die ethischen Aspekte automatisierter Waffensysteme analysieren zu können. Zuletzt werden im politischen Teil die völkerrechtlichen Aspekte automatisierter Waffensysteme erläutert und die bisherigen Regelungsversuche betrachtet.

2. Grundlagen

2.1 Begriffsdefinitionen und Klassifikation automatisierter Waffensysteme

Um die Thematik der automatisierten Waffensysteme in Kriegseinsätzen wirklich untersuchen und verstehen zu können, benötigt es zuallererst einige grundlegenden Begriffsdefinitionen, eine genaue Klassifizierung der verschiedenen Waffensysteme sowie eine Betrachtung der aktuellen Entwicklungen.

2.1.1 Zentrale Begriffsdefinitionen

Im Folgenden wird eine Klärung der Kernbegriffe dieser Arbeit vorgenommen, um somit eine Basis für die Argumentationsanalyse zu legen. Diese soll sich mit den ethischen und politischen Problemen zum Einsatz von automatisierten Waffensystemen in Kriegseinsätzen beschäftigen. An erster Stelle muss deshalb die Definition eines Waffensystems stehen. Eingehend stellt sich zunächst die Frage: Was ist überhaupt eine Waffe? Misselhorn beantwortet diese Frage damit, dass Waffen stets dazu entworfen oder verwendet werden, um einem Lebewesen Schaden zuzufügen oder es zu töten (vgl. Misselhorn 2018, S. 157). Daraus folgt, ein Waffensystem ist ein System aus verschiedenen Bestandteilen, in welchem eine oder mehrere Waffen enthalten sind, welches zum Zweck entworfen wurde, Schaden anzurichten oder zu töten. Auf Brockhaus findet sich dazu die Definition eines Waffensystems als „Bezeichnung für komplexe technische Kampfmittel unterschiedlicher Größe, die aus der eigentlichen Waffe (oder mehreren Waffen) sowie den zu ihrem Einsatz notwendigen Einrichtungen und Anlagen bestehen (...)“ (Waffensystem 2020). Wichtig ist also, dass nicht alle Bestandteile eines Waffensystems Waffen sind. Jedoch tragen die anderen Bestandteile, beispielsweise Sensoren oder ein Zielfernrohr, direkt oder indirekt zur Nutzung dieser Waffen bei und ermöglichen ihnen den effizienten Einsatz (vgl. Misselhorn 2018, S. 157). Waffensysteme sind deshalb ein Teil der militärischen Robotik (vgl. Koch 2019, S. 27). Mit militärisch ist hier die Anwendung der Robotik zu Kriegszwecken gemeint. Die Robotik ist nach Brockhaus ein „Zweig der Technik, der sich mit der Entwicklung und Fertigung, dem Betrieb und den Anwendungen automatisierter Maschinen (Roboter) befasst (...) (Robotik 2020).

Waffensysteme sind also Maschinen. Nun stellt sich die Frage, was, im Hinblick auf Maschinen, unter dem Begriff der Automatisierung verstanden werden kann. Dieser bezieht sich ursprünglich auf einen selbsttätigen Arbeits- und Produktionsprozess von Maschinen (vgl. Automatisierung 2020). Allgemeiner formuliert, sind automatisierte Systeme technische Systeme, welche selbstständig nach determinierten Schritten reagieren können (vgl. Hancock 2014). Da häufig ebenso der Begriff der Autonomie für Waffensysteme verwendet wird, sollte dieser Begriff noch zusätzlich erläutert werden. Generell sollte an dieser Stelle zuerst angemerkt werden, dass der Begriff der Autonomie im Hinblick auf Maschinen anders als im Hinblick auf Menschen verstanden werden muss. Im Allgemeinen existieren verschiedene Autonomiebegriffe, die nicht gleichermaßen anspruchsvoll sind. Der Philosoph Stephen Darwall hat vier verschiedene Formen der Autonomie herausgearbeitet. Personale Autonomie als Fähigkeit, individuelle Werte auszubilden. Moralische Autonomie als Fähigkeit, Handlungen nach den eigenen moralischen Überzeugungen auszurichten. Rationale Autonomie als Fähigkeit, verschiedene Gründe gegeneinander abzuwiegen. Und schließlich eine Handlungsautonomie, welche bereits vor-liegt, wenn eine Handlung einem bestimmten Akteur zugeschrieben werden kann (vgl. Darwall 2006). Ein erwachsener, gesunder Mensch kann die Bedingungen dieser vier Formen der Autonomie in der Regel erfüllen. Es scheint jedoch klar, dass die ersten drei anspruchsvolleren Formen der Autonomie für Maschinen, nach aktuellem Stand, nicht erfüllbar sein können. Primär, weil Maschinen keine eigenen Gründe für ihr Verhalten aufweisen können. Auch der Begriff der Handlung selbst ist in Bezug auf Maschinen umstritten. So argumentiert Searle beispielsweise damit, dass Maschinen nicht über intrinsische Intentionalität und Bewusstsein verfügen (vgl. Searle 1980, 418f.). Wird im Folgenden der Begriff der Handlung für Maschinen verwendet, so ist dieser nicht gleichbedeutend mit menschlichem Handeln zu verstehen, sondern vielmehr im Sinne eines aktiven maschinellen Verhaltens. Die beiden Philosophen Luciano Floridi und J.W. Sanders haben, aufgrund der zuvor aufgeführten Probleme bei der Anwendung eines menschlichen Autonomiebegriffs auf Maschinen, einen Autonomiebegriff mit weniger anspruchsvollen Bedingungen entworfen. So genügen laut ihrer Definition eine Interaktivität mit der Umwelt, die Fähigkeit einer Zustandsänderung ohne Einwirkung der Umwelt sowie eine Anpassungsfähigkeit des eigenen Verhaltens an die Umwelt als Bedingungen für autonome künstliche Systeme (vgl. Floridi und Sanders 2004, S. 358f.) Floridi und Sanders Definition der Autonomie erscheint generell passend für Maschinen, sie ist möglicherweise jedoch nicht spezifisch genug für Waffensysteme. Auch speziell für Waffensysteme wird der Begriff der Autonomie kontextabhängig in verschiedenen Auslegungen verwendet und die Schwierigkeit einer eindeutigen Definition stellt ein großes Problem im Umgang mit unbemannten Waffensystemen dar. In einer eher bescheidenen Auslegung wird unter Autonomie die Fähigkeit eines Systems verstanden, ohne menschlichen Bediener über einen längeren Zeitraum funktionieren zu können (vgl. Bekey 2005). In einer anspruchsvolleren Auslegung kann unter Autonomie jedoch auch die Fähigkeit eines Systems zum Selbstlernen verstanden werden (vgl. Koch 2019, S. 28). Dies wäre dann eine Fähigkeit, welche häufig auch als Künstliche Intelligenz (KI) bezeichnet wird. Generell muss jedoch an dieser Stelle angemerkt werden, dass auch zur KI keine allgemeingültige Definition und Klassifikation existiert. Kaplan und Haenlein definieren KI als ein System, das die Fähigkeiten besitzt, externe Daten korrekt zu interpretieren, aus diesen Daten zu lernen und diese zu nutzen, um spezifische Ziele und Aufgaben durch flexible Anpassung erreichen zu können (vgl. Kaplan und Haenlein 2019, S. 15-19). Zusätzlich teilt Searle KI in schwache und starke KI ein. Schwache KI kann nur vorher klar definierte und beschränkte Aufgaben und Probleme lösen. Starke KI hingegen können auch flexibel andere, nicht verwandte Probleme lösen und kämen damit den Fähigkeiten des menschlichen Verstandes ziemlich nahe (vgl. Searle 1980, S. 417-424). Die allermeisten aktuellen KI-Systeme können jedoch lediglich bereits bekannte Aufgaben in klar definierten Umgebungen lösen und fallen deshalb eindeutig in die Kategorie der schwachen KI (vgl. Bartneck et al. 2019, S. 10). Eine KI kann sowohl lediglich in digitaler Form als Software existieren oder Teil eines Roboters mit physischen Handlungseinheiten sein (vgl. Bartneck et al. 2019, S. 13). Allzu tief in die Thematik der Künstlichen Intelligenz einzutauchen wäre zwar interessant, jedoch im Hinblick auf die hier zu behandelnden Probleme nicht notwendig. Den Begriff der Autonomie generell an die Prämisse der Fähigkeit des Selbstlernens zur knüpfen erscheint für die weitere Betrachtung wenig sinnvoll. Primär deshalb, weil damit ein Großteil der aktuell entwickelten und eingesetzten automatisierten Waffensysteme nicht mit eingeschlossen wäre und zusätzlich, weil die politische und ethische Problematik nicht zwingend in der Fähigkeit des Selbstlernens wurzelt. Die Bedeutung des Selbstlernens sowie der nicht linearen Determination für ethische und politische Probleme soll dennoch im späteren Verlauf an manchen Stellen gesondert betrachtet werden. Wird der Begriff der Autonomie also im Sinne einer Fähigkeit zum Selbstlernen nach Hancock verwendet, so wird dies explizit dazu geschrieben (vgl. Hancock 2014).

Um den Begriff der Autonomie passend in Bezug auf Waffensysteme definieren zu können, kann ein Blick auf die Definitionen aus der militärischen und sicherheitspolitischen Praxis sinnvoll sein. Das United States Department of Defense definiert ein autonomes Waffensystem mit Folgendem: “A weapon that, once activated, can select and engage targets without further intervention by a human operator. This includes human-supervised autonomous weapon systems that are designed to allow human operators to override operation of the weapon system, but can select and engage targets without further human input after activation.^’ (United States Department of Defense 2012, S. 13) Autonomie wird in der militärischen Praxis also weder durch Selbstlernen noch durch fehlende lineare Determination definiert. Vielmehr wird der Begriff der Autonomie hier funktional dadurch gekennzeichnet, dass das Waffensystem Ziele auswählen und diese ohne eine menschliche Intervention verfolgen kann. Dass ein Waffensystem alle Funktionen oder gar eine ganze Operation ohne menschliche Intervention durchführen kann, ist hier keine notwendige Bedingung. Dieses funktionelle Verständnis der Autonomie scheint geeignet, um die kritischen Eigenschaften automatisierter Waffensysteme erfassen zu können. Da die ethische Problematik gerade in der Autonomie im Sinne einer Handlungsfähigkeit ohne menschliche Einflussnahme liegt, sollte dies die Kernprämisse für den Autonomiebegriff in Bezug auf Waffensysteme sein. Wird im Folgenden also ein Waffensystem als autonom bezeichnet, so ist damit die Autonomie im Sinne einer Selbstständigkeit in bestimmten Funktionsweisen gemeint. Diese Bezeichnung impliziert keine vollständige Autonomie in allen Funktionsweisen. Vielmehr kann die Autonomie auch nur bei einigen einzelnen Mechanismen und Funktionen vorliegen. Eine trennscharfe Abgrenzung der Begriffe Autonomie und Automatisierung wird damit schwierig. Bei näherer Betrachtung stellt sich zusätzlich heraus, dass die beiden Begriffe Waffensysteme auf unterschiedlichen Ebenen beschreiben. Automatisierung bezieht sich auf eine bestimmte technische Funktionsweise. Autonomie hingegen, bezeichnet ganz allgemein den Grad der Selbstständigkeit eines Systems in Bezug zum Menschen. Aus technischer Perspektive wird deshalb für teilweise autonome Funktionen auch immer eine (Teil-)Automatisierung benötigt. Der Begriff der Automatisierung umfasst damit verschiedenste Systeme, von begrenzter (Teil-)Autonomie bis hin zur Vollautonomie. Umgekehrt ist ein automatisiert funktionierendes System auch immer (teil-) autonom in den automatisierten Bereichen. Um den Begriff der Autonomie, im Hinblick auf dessen weitere Verwendung, endgültig klären zu können, bedarf es noch einer spezielleren Klassifikation. Im nächsten Kapitel sollen verschiedene Ansätze zur Klassifizierung der Waffensysteme in unterschiedliche Grade der Autonomie vorgestellt werden.

Da diese Arbeit sich auf die politisch-ethischen Probleme automatisierter Waffensysteme in Kriegseinsätzen bezieht, sollte zusätzlich noch die Definition von Krieg und Kriegseinsätzen erläutert werden. Auch die genaue Definition von Krieg ist alles andere als trivial. Meist wird der Begriff des Krieges als Gegensatz zum Begriff des Friedens verstanden. Demnach wäre die Abwesenheit des Friedens Krieg. Dies ist jedoch als genaue Beschreibung unzureichend. Im klassischen Verständnis könnte man Krieg als bewaffneten Konflikt zwischen zwei Staaten beschreiben. Diese Beschreibung würde jedoch die meisten heutigen bewaffneten Konflikte nicht inkludieren, da sich unter den Konfliktparteien häufig mindestens eine Gruppierung aus nichtstaatlichen Akteuren befindet (vgl. Knesebeck 2014, S. 63). Dennoch ist es nicht sinnvoll, alle bewaffneten Konflikte zwischen staatlichen und nichtstaatlichen Akteuren als Krieg zu bezeichnen. So ist es sinnvoll, einen bewaffneten Konflikt zwischen der Polizei und einer kriminellen Bande, von einem bewaffneten Konflikt zwischen staatlichen Militärs und militanten Separatisten abzugrenzen. Nach Knesebeck sind deshalb erst „großflächige bewaffnete Auseinandersetzungen“ als Kriege zu betrachten (Knesebeck 2014, S. 65). Neuere Bezeichnungen für unbewaffnete konkurrenzartige Auseinandersetzungen, wie beispielsweise Handelskriege oder Cyberkriege, sind damit von dieser Kriegsdefinition ausgeschlossen. Eine spezielle Form der hier genannten Kriegsdefinition stellen asymmetrische Kriege dar. Diese zeichnen sich durch das Definitionskriterium der qualitativen Ungleichartigkeit der Konfliktparteien aus (vgl. Münkler 2006, S. 209). Diese qualitative Ungleichartigkeit der Konfliktparteien, kann sich auf den politischen Status, die Professionalisierung, die Kampfmethoden oder auf die militärische Ausrüstung beziehen (vgl. Knesebeck 2014, S. 68). Eine rein quantitative Ungleichartigkeit der militärischen Stärke zweier Staaten ist demnach noch kein Kriterium für einen asymmetrischen Krieg. Aus der Definition folgt: Ein Kriegseinsatz ist ein Einsatz innerhalb einer großflächigen bewaffneten Auseinandersetzung.

Zuletzt kann es noch hilfreich sein, die Begriffe Ethik und Politik kurz zu erläutern. Beide Begriffe sind vielschichtig und komplex. Es soll hier dennoch jeweils eine kurze Definition aufgeführt werden. Diese soll jedoch keinen Allgemeingültigkeitsanspruch erheben, sondern lediglich zur Orientierung bei fehlendem Vorwissen dienen. Die Ethik ist eine philosophische Disziplin, welche sich mit der Moral beschäftigt (Misselhorn 2018, S. 45). Der Begriff der Moral bezieht sich „auf einen Komplex von Regeln, Werten und Normen“, die das Handeln von Menschen bestimmen (Bartneck et al. 2019, S. 23). Die Moral widmet sich also generell der Frage nach dem richtigen Handeln der Menschen. Es fallen jedoch nicht alle gesellschaftlichen Verhaltensregeln in den Bereich der Moral. So fallen Tischmanieren eher in den Bereich der sozialen Konventionen (vgl. Misselhorn 2018, S. 49). Innerhalb der Ethik kann 6 zwischen weiteren Teildisziplinen unterschieden werden. Auf diese soll hier jedoch aus Umfangsgründen nicht eingegangen werden. Der Begriff der Politik kann ganz allgemein als „die Gesamtheit der Verfahren und Handlungen von Einzelnen und Kollektiven, die auf die verbindliche Regelung öffentlicher Belange gerichtet sind“ bezeichnet werden (Politik 2020). Mit der verbindlichen Regelung öffentlicher Belange ist meist das Aushandeln, Erschaffen und Verändern eines verbindlichen Rechtssystems gemeint. Obwohl das Rechtssystem auch moralische Fragen aufwerfen kann und beides sich teilweise thematisch überschneiden kann, sollte dies jedoch nicht mit der Moral gleichgesetzt werden. Das Nichteinhalten von Normen innerhalb eines Rechtssystems ist meist mit klaren äußeren Sanktionen behaftet. Der Bruch moralischer Normen hingegen ist eher mit sozialen und inneren Sanktionen behaftet.

2.1.2 Klassifikation automatisierter Waffensysteme

Zur Strukturierung und Eingrenzung sollten die verschiedenen Arten von Waffensystemen nach ihren Attributen klassifiziert werden. Der Begriff des Waffensystems sowie dessen vorherige Definition implizieren bereits, dass es sich um eine gewaltorientierte Anwendung der militärischen Robotik handelt. Gewaltfreie Anwendungen könnten beispielsweise Minensuchroboter oder Sanitätsroboter sein (vgl. Koch 2019, S. 27). Diese gewaltfreien Anwendungen enthalten im Allgemeinen keine ethische Problematik und werden in dieser Arbeit deshalb nicht behandelt. Waffensysteme können bemannt und unbemannt sein. Bemannte Waffensysteme sind historisch betrachtet nichts Neues. Viele Panzer im zweiten Weltkrieg fallen bereits unter diese Kategorie. Bemannte Waffensysteme bringen zwar ein ebenso hohes Zerstörungspotenzial mit sich, sind jedoch in den meisten Fällen durch ihre ständige menschliche Kontrolle geprägt und werfen deshalb kaum neue ethische Fragen auf. Diese sollen deshalb in dieser Arbeit nicht betrachtet werden. Unbemannte Waffensysteme, welche die Definitionen der Automatisierung oder der Autonomie erfüllen, verursachen gerade deshalb einige ethische Probleme, weil der Mensch dadurch nicht mehr alle Operationen des Waffensystems ausführt und kontrolliert. Auf diese ethischen Probleme soll jedoch ausführlich in Kapitel drei eingegangen werden. Da unbemannte Waffensysteme in der Regel (teil-) automatisiert sind, wird im Folgenden auf den expliziten Begriff des Unbemannten verzichtet. Werden im Folgenden die Begriffe automatisiert oder autonom für Waffensysteme verwendet, so ist damit bereits impliziert, dass diese unbemannt sind. Eine weitere Unterscheidung wäre, ob sich die Gewalt gegen Menschen oder gegen Sachen richten. Gewalt gegen Sachen ist keinesfalls generell unproblematisch, da Menschen dadurch enorm geschädigt werden können. Noch problematischer ist allerding die direkte Gewalt gegen Menschen (vgl. Koch 2019, S. 27).

Als zusätzliche Unterscheidung können automatisierte Waffensysteme offensiv oder defensiv eingesetzt werden. Ein defensives, gegen Sachen gerichtetes Waffensystem wäre beispielsweise ein Raketenabwehrsystem (vgl. Koch 2019, S. 27-28). Ein defensives, gegen Menschen gerichtetes, automatisiertes Waffensystem wäre beispielsweise eine selbstschießende Grenzschutzanlage oder ein automatisiertes Flugabwehrsystem. Die letzte Unterscheidung wäre noch jene zwischen Automatisierung und Autonomie. Hier wurde jedoch in den Begriffsdefinitionen schon erläutert, dass beide Begriffe Waffensysteme auf verschiedenen Ebenen beschreiben. Die gegen Menschen eingesetzten autonomen Waffensysteme, auch als Lethal Autonomous Weapon Systems (LAWS) bezeichnet, stellen damit die Spitze der ethischen Problematik dar und sollen im Folgenden hauptsächlich betrachtet werden (vgl. Koch 2019, S. 28).

LAWS können noch zusätzlich dadurch differenziert werden, welche Rolle der Mensch in der Kontrollschleife übernimmt. In einer Publikationen des United States Department of Defense wird zwischen vier Stufen der Autonomie unterschieden (vgl. United States Department of Defense 2011, S. 46). Der Begriff der Autonomie wird hier in Bezug zu direkter menschlicher Kontrolle und Einflussnahme verstanden. In Stufe eins trifft der menschliche Bediener alle Entscheidungen und das System hat keinerlei eigenständige Kontrolle über seine Umgebung. Im Grunde bedeutet dies, das Waffensystem ist komplett durch einen menschlichen Bediener. ferngesteuert In Stufe zwei kann das System durch einen menschlichen Bediener so geschaltet werden, dass es spezielle Funktionen automatisiert ohne menschliche Steuerung ausführen kann. Dies könnte beispielsweise eine ferngesteuerte Drohne sein, welche in einen automatischen Flugmodus geschaltet werden kann. In Stufe drei kann das System eine Vielzahl von Aktivitäten selbstständig ausführen, wenn es von einem Menschen die entsprechenden Anweisungen erhält. Das System kann Verhaltensweisen auf Basis externer Daten selbstständig initiieren. Der Mensch kann jedoch in Verhaltensweisen oder Aufgaben jederzeit eingreifen und diese ändern. In Stufe vier ist das System vollständig selbstständig. Es erhält Aufgaben vom Menschen und setzt diese selbstständig in Ziele und entsprechende Verhaltensweisen um. Das Department of Defense verwendet hierfür den Begriff vollständig autonom. Dies wäre beispielsweise eine Drohne, welche nach Anweisung selbstständig Stellungen gegnerischer Kombattanten aufspüren und bekämpfen kann. Ein Eingreifen des Menschen ist hier nur noch in Notfällen vorgesehen und geschieht, aufgrund der Schnelligkeit des Systems, mit deutlicher Zeitverzögerung.

Die Nichtregierungsorganisation Human Rights Watch vereinfacht diesen Klassifikationsansatz nochmals auf drei Stufen. Human In-the-Loop-Systeme sind ferngesteuerte Systeme, bei welchen der Mensch sämtliche Entscheidungen fällt. Human On- the-Loop-Systeme können unabhängig vom Menschen operieren, der Mensch kann jedoch jederzeit in Handlungen eingreifen. Human Out-of-the-loop-Systeme operieren komplett selbstständig, ein Eingreifen des Menschen nach dem Start ist hier kaum mehr vorgesehen (vgl. Human Rights Watch 2012).

Es existieren noch weitere, komplexere Ansätze zur Klassifizierung. Beispielsweise hat das US- amerikanische National Institute of Standards and Technology für unbemannte Waffensysteme eine Skala von 0 (absolut ferngesteuert) bis 10 (vollständig intelligente Autonomie) nach den drei Kategorien Komplexität der Mission, Schwierigkeit der Umwelt sowie Mensch-Maschine­Interaktion erstellt (vgl. National Institute of Standards and Technology 2007). Diese komplexeren Ansätze eignen sich zwar gut, um einzelne Waffensysteme anhand ihrer technischen Details einzuordnen, für die weitere Betrachtung sind diese jedoch nicht erforderlich.

Zusätzlich kann die Autonomie eines Waffensystems noch nach der genauen Funktion differenziert werden. Ein Waffensystem kann eine (Teil-)Autonomie in folgenden tödlichen Funktionen haben. Kann ein Waffensystem ohne menschliche Einflussnahme entscheiden, welche Obj ektklassen es erfassen möchte, dann wäre es autonom bei der Definition seiner Ziele (vgl. Bartneck et al. 2019, S. 142) Kann ein Waffensystem mithilfe von Sensoren ohne menschliche Einflussnahme ein Ziel auswählen kann, dann verfügt dieses über Autonomie in der Zielauswahl (vg. Bartneck et al. 2019, S. 143). Kann eine Waffe ohne menschliche Einflussnahme auf ein Ziel schießen, dann verfügt dieses über Autonomie in der Einsatzfunktion der Waffe (vg. Bartneck et al. 2019, S. 143). Zusätzlich kann ein Waffensystem noch eine -(Teil-)Autonomie in diversen nicht tödlichen Funktionen haben. Es könnte beispielsweise in der Lage sein, ohne menschliche Einflussnahme zu starten, zu landen oder zu navigieren. Diese nicht tödliche Autonomie wird jedoch im Allgemeinen als moralisch wenig problematisch angesehen (vgl. Bartneck et al. 2019, S. 144).

Für die folgende ethische Betrachtung sind also hauptsächlich gegen Menschen eingesetzte automatisierte Waffensysteme mit tödlichen autonomen Funktionen relevant. Für die einfachere Darstellung sollen diese Art von Waffensystemen im Folgenden als Autonome Waffensysteme (AWS) bezeichnet werden.

Die Klassifizierung dieser Systeme nach ihrem Grad an Autonomie in drei Kategorien ist für die weitere genauere Betrachtung ausreichend (vgl. Human Rights Watch 2012).

2.1.3 Aktueller Entwicklungsstand und Anwendung in der militärischen Praxis

Generell kann gesagt werden, dass alle großen Militärnationen der Welt mehr oder weniger an der Entwicklung und Herstellung von autonomen Waffensystemen arbeiten. Zu den aktuellen Entwicklern gehören hauptsächlich die USA, Israel, China, Russland, Großbritannien, Frankreich, Südkorea und Deutschland (Grünwald und Kehl 2020, S. 60-66). Die Anzahl der potenziell nachfragenden Länder ist jedoch noch weit größer (vgl. Petermann und Grünwald 2011, S. 141-147). Weltweit werden erhebliche finanzielle Mittel und planerische Anstrengungen in die gezielte Fortentwicklung autonomer Waffensysteme investiert. So ergriff das Pentagon 2014 mit der Third Offset Strategy eine milliardenschwere Rüstungsinitiative, mit welcher die militärische Vormachtstellung der USA in den Bereichen der militärischen Robotik und KI gesichert werden sollte (vgl. Fiott 2016). Dies wird hauptsächlich getan, da man sich durch einen Entwicklungsvorsprung auch einen militärischen Vorteil gegenüber Konkurrenten und Gegnern erhofft (vgl. Singer 2019, S. 116). Im Umkehrschluss bedeutet dies auch, dass alle Militärnationen unter Druck stehen, nicht durch Untätigkeit in der Entwicklung und Beschaffung im internationalen Vergleich abgehängt zu werden. Dies wird mit hoher Wahrscheinlichkeit zu einem internationalen Wettrüsten führen und autonome Waffensysteme werden damit auch zu einem Mittel der Machtpolitik werden (vgl. Singer 2019, S. 116). Der hauptsächlich zu erwartende militärische Vorteil gegenüber vollständig ferngesteuerten oder bemannten Waffensystemen begründet sich auf einer signifikanten Geschwindigkeits- und Effizienzsteigerung eines autonomen Systems gegenüber eines menschlich gesteuerten Systems (vg. Singer 2019, S. 116). Zusätzlich sind jedoch noch einige weitere militärische Vorteile zu erwarten. Ein autonomes System kann unabhängig von äußeren Faktoren über sehr lange Zeit zuverlässig agieren, wohingegen ein menschlicher Akteur schnell unter Stress geraten oder durch Erschöpfung seine Leistungsfähigkeit einbüßen kann. Zusätzlich ist selbst der Betrieb eines ferngesteuerten Waffensystems aufgrund der Distanz immer kompliziert und störanfällig, deshalb bedeutet eine (Teil-) Autonomie auch meist eine Verringerung dieser Problemquellen (vgl. Singer 2019, S. 116). Prognostiziert wird im weiteren Entwicklungsverlauf auch eine generelle Kostenreduktion, sodass ein autonomes System günstiger sein kann als ein bemanntes oder ferngesteuertes System mit ähnlicher Funktion. Diese Kostenreduktion ist jedoch aufgrund der hohen Entwicklungs- und Anschaffungskosten in der Gegenwart noch nicht vorhanden, wird sich jedoch höchstwahrscheinlich durch weitere Fortschritte in der Forschung sowie durch höhere Stückzahlen in absehbarer Zeit einstellen (vgl. Petermann und Grünwald 2011, S. 12). Und selbstverständlich kann der Einsatz autonomer Waffensysteme dabei helfen, die eigenen menschlichen Verluste zu reduzieren. Dies ist sowohl ein militärischer als auch ein politischer Vorteil. So kann gerade für westliche Demokratien in militärischen Auslandseinsätzen jeder getötete Soldat potenziell die Akzeptanz des Einsatzes in der Bevölkerung gefährden (vgl. Singer 2019, S. 117).

Den genauen aktuellen Entwicklungsstand autonomer und automatisierter Waffensysteme zu benennen, gestaltet sich schwierig. Zum einen, weil, wie zuvor schon bemerkt, verschiedene Akteure aus verschiedenen Ländern an der Forschung und Entwicklung beteiligt sind. Zum anderen, weil militärische Forschung häufig einer gewissen Geheimhaltung unterliegt. In dieser Arbeit soll deshalb der Stand der Entwicklung anhand vergangener Entwicklungen sowie anhand der Anwendungen in der aktuellen militärischen Praxis abgeschätzt werden. Die bisherige Entwicklung zeigt zwei primäre Charakteristika auf. Einerseits werden Parameter wie Ausdauer, Reichweite, Präzision und Schnelligkeit fortwährend gesteigert. Des Weiteren wird eine immer höhere Autonomie der Systeme erreicht (vgl. Petermann und Grünwald 2011, S. 7). Aufgrund der daraus resultierenden, zuvor genannten militärischen Vorteile, ist deshalb mit einer weiteren Steigerung in allen Leistungsparametern und auch in punkto Autonomie zu rechnen.

Die aktuellen Anwendungsbereiche unbemannter Systeme lassen sich grob in drei Bereiche unterteilen. Diese sind: Unbemannte Systeme in der Luft (UAVs), Unbemannte Bodensysteme (UGVs) und Unbemannte Systeme zu Wasser (USVs) (vgl. Petermann und Grünwald 2011, S. 32-64). Unbemannte Systeme in der Luft sind die derzeit am häufigsten produzierten und eingesetzten Waffensysteme (vgl. Grünwald und Kehl 2020, S. 11f). Dies hängt wesentlich damit zusammen, dass Navigation, Orientierung und Funkkommunikation in der Luft am einfachsten umsetzbar sind (vgl. Grünwald und Kehl 2020, S. 47). Diese, meist als Kampfdrohnen bezeichneten Waffensysteme, sind bereits ein fester Bestandteil der modernen Kriegsführung. Experten gehen davon aus, dass inzwischen mindestens 30 Staaten über fortschrittliche Kampfdrohnen verfügen (vgl. Munich Security Conference 2019, S. 52). Laut den öffentlich vorliegenden Daten haben davon bereits 10 Länder Drohnen in Kampfhandlungen eingesetzt (vgl. New America 2020). Es muss jedoch hinzugefügt werden, dass die Autonomie sich bei den meisten bisher eingesetzten Drohnen auf nichtletale Funktionen wie die Flugkontrolle, Navigation und Aufklärung beschränkt. Die letalen Waffenfunktionen sind bisher meist vollständig ferngesteuert. Jedoch befinden sich bereits Systeme in fortgeschrittener Entwicklung und Stationierung, welche mit weitreichender Autonomie auch bei letalen Funktionen ausgestattet sind (vgl. Grünwald und Kehl 2020, S. 48). Zu diesen Systemen, welche über relativ weitreichende Autonomie in Angriffsfunktionen verfügen, gehört die israelische Kampfdrohne Harpy. Diese kann nach dem Start selbstständig über einem Gebiet kreisen, um autonom nach feindlich definierten Zielen, in ihrem Fall feindlichen Radarsignalen, zu suchen. Kann ein Ziel ausgemacht werden, so stürzt sich die Drohne auf das Angriffsobjekt, um mittels einer integrierten Sprengladung auf dem Ziel zu detonieren. Auch wenn sich die Komplexität des Systems sowie die Flexibilität noch sehr in Grenzen halten, so wirbt die Herstellerfirma Israel Aerospace Industries dennoch mit der Eigenschaft „fully autonomous“ (Israel Aerospace Industries). Diese Bezeichnung ist insoweit nachvollziehbar, dass die Kamikazedrohne nach ihrem Start tatsächlich komplett unabhängig vom Menschen agieren kann. Diverse Lenkflugkörper mit automatisierten und teilweise autonomen Funktionen sind schon seit längerer Zeit im Einsatz. Der britische Lenkflugkörper Brimstone der Firma MBDA ist ein solches Beispiel. Auch dieser kann, einmal gestartet, völlig eigenständig anhand von gespeicherten Zielsignaturen nach gepanzerten Fahrzeugen innerhalb eines definierten Zielgebietes suchen und diese zerstören (vgl. Matra BAe Dynamics Aérospatiale 2018). Interessant ist hier, dass beide aufgeführten Systeme technisch zwar noch ziemlich primitiv und damit relativ unflexibel sind, jedoch beide nach dem Start selbstständig nach Zielen suchen und diese bekämpfen können. Damit erfüllen beide Waffensysteme nach dem Start sowohl die anfängliche Definition des US Department of Defense eines autonomen Waffensystems als auch die Kategorie eines Human Out-of-the-loop-Systems.

Unbemannte Bodensysteme sind aktuell noch deutlich weniger im Einsatz. Dies liegt auch daran, dass diese auf dem Boden grundsätzlich mit deutlich komplexeren Anforderungen und Hindernissen konfrontiert sind, als Systeme in der Luft oder zu Wasser (vgl. Grünwald und Kehl 2020, S. 51). Deshalb sind diese Systeme meist stationär und defensiv. Ein Beispiel hierfür wäre der südkoreanische bewaffnete Roboter SGR-A1, welcher über alle technischen Voraussetzungen für einen autonomen Betrieb verfügt (vgl. Cavanaugh 2016). Dieser kann, nach Inbetriebnahme, alle Personen innerhalb seines Erfassungsradius komplett selbstständig ausmachen und bekämpfen. Ein weiteres Beispiel wäre das von Rheinmetall entwickelte Luftabwehrsystem MANTIS. Auch dieses ist hochautomatisiert und kann nach vorheriger Scharfstellung komplett selbstständig Ziele erfassen und bekämpfen (vgl. Bundeswehr 2020a). Bewaffnete Bodenfahrzeuge mit autonomen Funktionen sind aktuell noch nicht im Einsatz, jedoch wird intensiv an diesen gearbeitet und es sind auch aus diesem Bereich erste Entwicklungserfolge zu vermelden (vgl. Grünwald und Kehl 2020, S. 53). Ferngesteuerte bewaffnete Bodenfahrzeuge, wie beispielsweise das israelische Modell Guardium, sind schon seit einiger Zeit im Einsatz (vgl. Grünwald und Kehl 2020, S. 54).

Auch das Spektrum der unbemannten Systeme zu Wasser ist im Vergleich zum Spektrum der Drohnen aktuell noch recht klein. Dies liegt primär an den potenziell riesigen Einsatzräumen, die große Anforderungen an Energie und Kommunikation stellen (vgl. Dickow 2015, S. 15). Torpedos dürften wohl die ersten automatisierten Waffensysteme zu Wasser gewesen sein. Diese sind im Grunde vergleichbar mit den vorher aufgeführten Lenkflugkörpern und sind auch heute noch in hochtechnisierter Form im Einsatz (vgl. Torpedo 2020). Ein Beispiel für ein neueres teilautomatisiertes Waffensystem zu Wasser stellt das israelische Silver Marlin dar. Dieses ist ein bewaffnetes Schnellboot, welches autonom festgelegte Ziele anfahren und mittels menschlicher Fernsteuerung bekämpfen kann (vgl. Marsiske 2009). Da dem marinen Einsatzgebiet jedoch schon immer eine große strategische Bedeutung zukommt, ist auch in diesem Bereich in den kommenden Jahren mit weiteren Entwicklungen zu rechnen (vgl. Grünwald und Kehl 2020, S. 56).

Die Betrachtung der aktuell hergestellten und eingesetzten Waffensysteme hat gezeigt, dass Waffensysteme mit autonomen Funktionen keine ferne Zukunftsvorstellung mehr sind, sondern vereinzelt schon Realität in heutigen Kriegseinsätzen. Es ist zusätzlich davon auszugehen, dass die Entwicklung in vielen Bereichen technisch schon deutlich weiter ist, als die aktuell hergestellten Systeme vermitteln. Die exponentielle Zunahme der Drohneneinsätze in den letzten 10 Jahren zeigt die immer größer werdende strategische Bedeutung unbemannter Waffensysteme (vgl. New America 2020). Aufgrund des daraus resultierenden militärischen Vorteils ist mit einer weiteren Autonomisierung der Waffensysteme in vielen Teilbereichen zu rechnen. Bei der Fortentwicklung in Richtung weitergehender Autonomie werden neuere Methoden des maschinellen Lernens voraussichtlich eine entscheidende Rolle spielen. Künstliche Intelligenz wird deshalb in diesen Bereichen auch als „Schlüsseltechnologie“ bezeichnet (Grünwald und Kehl 2020, S. 34). Hier greifen Verteidigungsministerien und Rüstungskonzerne auch auf die Errungenschaften ziviler Unternehmen im Bereich KI zurück. So beteiligte sich der Konzern Google im Zeitraum von 2017-2019 mittels einer von Google entwickelten KI-Software an einem Projekt zur Bildanalyse für Drohnen des US- Verteidigungsministeriums. Wie umstritten diese Kooperationen im zivilgesellschaftlichen Bereich sind zeigt unter anderem die Tatsache, dass der Kooperationsvertrag nach dem Protest tausender Google Mitarbeiter nicht mehr verlängert wurde (vgl. Peitz 2018).

2.2 Bedingungen und Kriterien für legitime militärische Gewalt

Da autonome Waffensysteme zur Ausübung militärischer Gewalt angewendet werden, ist die grundlegende Legitimierung der militärischen Gewalt in gewisser Weise fundamental für deren ethische Betrachtung. Zum einen, weil der vermehrte Einsatz autonomer Waffensysteme die Einhaltung der Bedingungen legitimer militärischer Gewalt beeinflussen könnte. Zum anderen, weil autonome Waffensysteme in der Lage sein müssen, die Kriterien legitimer militärischer Gewalt einzuhalten, um innerhalb eines militärischen Einsatzes überhaupt legitim eigesetzt werden zu können. Die Grundlage hierfür stellt die Theorie des gerechten Krieges dar.

2.2.1 Tradition und Theorie des gerechten Krieges

Zu Beginn ist es sinnvoll, zwischen der Tradition des gerechten Krieges und der Theorie des gerechten Krieges begrifflich zu differenzieren. Die Tradition des gerechten Krieges stellt gewissermaßen das historische Fundament der Theorie dar (vgl. Rudolf 2018, S. 32). Die historische Lehre des gerechten Krieges geht ursprünglich auf römische Wurzeln zurück. So fanden sich zur Zeit Ciceros erstmals konkrete Bedingungen und Kriterien für den Einsatz militärischer Gewalt (vgl. Andrea Keller 2009, S. 24f.). Die Tradition des gerechten Krieges entwickelte sich mehrfach weiter, unter anderem auch entscheidend im Mittelalter durch Augustinus und Thomas von Aquin (vgl. Etzersdorfer 2007, S. 141-145). Viele Grundzüge der Tradition des gerechten Krieges, auf lateinisch bellum istum-Tradition, sind bis heute wirkungsvoll, bis in das aktuelle humanitäre Völkerrecht hinein (vgl. Rudolf 2014, S. 8). Auch der ehemalige US-Präsident Barack Obama ließ in seiner berühmten Rede zur Verleihung des Friedensnobelpreises erkennen, dass er seine Einstellung zum Einsatz militärischer Gewalt in der Tradition des gerechten Krieges verwurzelt sieht (vgl. Obama 2009). Die mindestens umstrittenen Einsätze militärischer Gewalt unter Obamas Regierung in Libyen und Afghanistan zeigen jedoch gut, dass eine Anlehnung an die Tradition des gerechten Krieges immer noch viel Interpretationsspielraum in der Praxis lässt (vgl. Paech 2012; Krajewski 2001).

Die Theorie des gerechten Krieges ist eine ethische Theorie, welche auf der Tradition des gerechten Krieges aufbauend „versucht, den Einsatz militärischer Gewalt systematisch und in sich konsequent zu beurteilen“ (Rudolf 2018, S. 33). Im Gegensatz zur Theorie des Pazifismus, welche die Anwendung von Gewalt und das Töten von Menschen grundsätzlich ablehnt, bildet die Theorie des gerechten Krieges eine „bereichsspezifische normative Ethik, die die Anwendung von Gewalt und das Töten von Menschen unter bestimmten Umständen für moralisch zulässig oder sogar für gefordert erachtet“ (Misselhorn 2018, S. 159). Sie grenzt sich 14 damit ebenso von einem generellen Realismus oder Amoralismus klar ab. Bei genauerer Betrachtung ist die Theorie des gerechten Krieges weder eine rein konsequentialistische noch eine rein deontologische Theorie. Vielmehr enthält sie Anteile aus beiden Bereichen. (vgl. Knesebeck 2014, S. 24-26). Zusätzlich schließt die Theorie des gerechten Krieges explizit nicht die Erörterung der Begriffe gerecht und Gerechtigkeit mit ein. Ebenso geht es nicht darum, mit militärischer Gewalt Gerechtigkeit zu erzwingen, sondern vielmehr darum, „wann es moralisch gerechtfertigt sein kann, militärische Gewalt anzuwenden“ (Rudolf 2018, S. 30). Rudolf verwendet deshalb primär den Begriff einer „Theorie legitimer militärischer Gewaltanwendung“, welcher jedoch synonym zur Theorie des gerechten Krieges verstanden werden kann (Rudolf 2014, S. 6). Zusätzlich lässt sich anmerken, dass die Theorie des gerechten Krieges zwar viele inhaltliche Gemeinsamkeiten mit dem humanitären Völkerrecht aufweist, jedoch ebenso einige gravierende Unterschiede. Das humanitäre Völkerrecht ist ein internationales Rechtssystem, welches zwischen legaler und illegaler militärischer Gewalt unterscheidet. Die Theorie des gerechten Krieges unterscheidet hingegen zwischen legitimer und nicht legitimer militärischer Gewalt. Es kann durchaus Anwendungen legitimer militärischer Gewalt geben, welche jedoch völkerrechtlich betrachtet illegal sind. Umgekehrt kann es auch legale Einsätze militärischer Gewalt geben, welche ethisch betrachtet nicht legitim sind (vgl. Rudolf 2018, S. 18-28). Auf die völkerrechtlichen Vorgaben zu militärischer Gewalt wird im späteren Verlauf noch einmal gesondert eingegangen.

Innerhalb der aktuellen Theorie wird meist zwischen drei Anwendungsbereichen unterschieden. Zwischen ius ad bellum (Recht zum Krieg), ius in bello (Recht im Krieg) und iuspost bellum (Recht nach dem Krieg) (vgl. Rudolf 2018, S. 33). Das ius ad bellum setzt fest, unter welchen Bedingungen der Einsatz militärischer Gewalt legitim sein kann. Das ius in bello hingegen setzt Kriterien fest, welche innerhalb militärischer Gewalt eingehalten werden müssen, damit diese als legitim gelten kann. Das ius post bellum setzt Prinzipien für die Zeit nach dem Krieg. Dieser neuere, noch relativ wenig entwickelte Teilaspekt enthält explizit auch die Frage nach einem gerechten Frieden (vgl. Rudolf 2018, S. 33-34).

[...]

Ende der Leseprobe aus 62 Seiten

Details

Titel
Politisch-ethische Probleme (teil-)automatisierter Waffensysteme in Kriegseinsätzen
Hochschule
Pädagogische Hochschule Ludwigsburg  (Institut für Philosophie)
Note
1,0
Autor
Jahr
2021
Seiten
62
Katalognummer
V1045421
ISBN (eBook)
9783346471079
ISBN (Buch)
9783346471086
Sprache
Deutsch
Schlagworte
Autonome Waffensysteme, Automatisierte Waffensysteme, Theorie des Gerechten Krieges, Völkerrechtliche Aspekte automatisierter Waffensysteme, Legitime militärische Gewalt, Maschinenethik
Arbeit zitieren
Robin Barton (Autor:in), 2021, Politisch-ethische Probleme (teil-)automatisierter Waffensysteme in Kriegseinsätzen, München, GRIN Verlag, https://www.grin.com/document/1045421

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Politisch-ethische Probleme (teil-)automatisierter Waffensysteme in Kriegseinsätzen



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden