Leseprobe
Inhaltsverzeichnis
1 Einleitung
2 Definition
2.1 Abgrenzung zu UAVs
2.2 Definition von autonomen Waffensystemen
2.3 Unterscheidung zwischen «automatisch» und «autonom»
3 Moralische Sicht
3.1 Aus Sicht der Ethik des Krieges
3.1.1 Argumente für LAWS
3.1.2 Argumente gegen LAWS
3.2 Aus Sicht der Menschenwürde
3.3 Aus Sicht der Verantwortungsethik
4 Politische Sicht
4.1 Internationale Meilensteine
4.2 Aktivitäten und Bemühungen der Öffentlichkeit
4.3 Möglicher Entwurf eines internationalen LAWS Verbotes
5 Fazit
Literatur
1 Einleitung
Künstliche Intelligenz, abgekürzt KI, taucht in verschiedenen Bereichen des Alltags auf:
Sprachassistenten, Google-Übersetzer, Gesichtserkennung, im Online-Handel in Form von personalisierten Werbungen und Co. [8]
Im Gegensatz zu bishergenannten «harmlosen» Beispielen von KI-Einsätzen, kann sie auch aus militärischen Zwecken verwendet werden. Sogenannte autonome Waffensysteme (AWS, oder auch LAWS), deren Autonomie durch die KI ermöglicht werden, sind ein immer stärker ernst zu nehmendes Thema. Anstatt eigene Soldaten auf ein Kriegsfeld zu schicken, werden stattdessen autonome Kampfroboter eingesetzt.
Was nach Science Fiktion klingt, kann Realität werden. Wie im 1. Abschnitt in [1] zu lesen ist, sind AWS schon längst Entwicklungs- und Forschungsthema in unterschiedlichen Ländern. Ferngesteuerte unbemannte Luftfahrzeuge, im engl. armed uninhabited air vehicles (UAVs) sind heutzutage weltweit verbreitet, in Besitz und in Einsatz. Werden AWS in Zukunft die Nachfolger von UAVs?
Wirtschaftliche, militärische und politische Interessen wie im 2. Abschnitt in [1] würden einen solchen Übergang vorantreiben:
Reduzierte Personalkosten bei fehlender menschlicher Kontrolle von AWS, günstigere Massenproduktion von AWS im Vergleich zu Soldateneinsätzen, leichtere politische Verteidigung von AWS Verlusten als von Soldatenleben gegenüber der Bevölkerung, etc.
In dieser Seminararbeit geht es um das Thema der autonomen Waffensysteme. Dabei wird das Thema näher aus ethischer und politischer Sicht beleuchtet. Im Abschnitt 2 werden AWS definiert und von anderen Kriegstechnologien abgegrenzt. Im 3. Abschnitt wird das Thema zum Gegenstand moralischer Diskussionen. Im Abschnitt 4 wird ein politisches Licht auf das Thema AWS geworfen, das international heftig diskutiert wird. Abschnitt 5 präsentiert eine Zusammenfassung.
2 Definition
Eine einheitliche Definition von autonomen Waffensystemen und eine klare Abgrenzung zu UAVs dienen als Grundlage, um ein einheitliches Verständnis für moralische, militärische und politische Diskussionen zu schaffen.
Es gibt unterschiedliche Auffassungen zu diesem Thema, auch im Hinblick auf den Aspekt der Autonomie.
Abschnitt 5 in [1] zeigt anhand ausgewählter Definitionen auf, dass Definitionen zu autonomen Waffensystemen sich inhaltlich unterscheiden können und dies auch zu Problemen führen kann.
2.1 Abgrenzung zu UAVs
In den Abschnitten 1 und 2 in [1] werden auf UAVs eingegangen, die heutzutage sehr weit verbreitet sind und auch eingesetzt werden.
Uninhabited air vehicles, auch kurz UAVs sind ferngesteuerte Drohnen, die unbemannt sind, d.h. in der Drohne befindet sich kein Soldat, dessen Leben gefährdet ist. UAVs können je nachdem mit autonomen Funktionen wie z.B. für die Landung, den Startflug, etc. ausgestattet sein, jedoch wird der Befehl zur Attacke ferngesteuert durch einen menschlichen Benutzer erteilt, der mithilfe von Kameraaufnahmen o.Ä. sein Ziel erkennt, auswählt und über einen gewissen Kommunikationslink an das UAV sendet.
Darin liegt auch der wesentliche Unterschied zu autonomen Waffensystemen:
Der Mensch entscheidet über die Attacke, die vom UAV ausgeführt wird und ist somit der Entscheidungs- und Verantwortungsträger über die ausgeführten Attacken. Der Übergang zu autonomen Waffensystemen ist klar abgegrenzt, jedoch kann ein bestehendes UAV zu einem autonomen Waffensystem erweitert werden.
2.2 Definition von autonomen Waffensystemen
Eine mögliche Definition ist von ICRC folgendermaßen formuliert:
„The ICRC’s working definition of an autonomous weapon system is: ,Any weapon system with autonomy in its critical functions. That is, a weapon system that can select (i.e. search for or detect, identify, track, select) and attack (i.e. use force against, neutralize, damage or destroy) targets without human intervention.'“ [7, S. 4]
Der wesentliche Unterschied zwischen den UAVs und den AWS (autonomous weapon systems) liegt in der Autonomie der Selektierung und Attacke des ausgewählten Ziels. Dabei sind Selektierung und Attacke abstrakte Funktionen, die per Definition konkret implementiert werden. Beide abstrakten Funktionen sind definitionsgemäß kritisch, Autonomie in anderen Funktionen wie z.B. Landung, o.Ä. werden nicht betrachtet.
Der Grad an menschlicher Kontrolle über AWS bzw. an Autonomie dieser Waffensysteme hängt davon ab, wie stark der Mensch in diesem Entscheidungsprozess involviert ist. Im 2. Abschnitt von [1] werden 3 Möglichkeiten erläutert:
Der Mensch entscheidet über die Attacke eines ausgewählten Ziels, was per Definition keinem AWS entspricht, sondern eher einem UAV. Er überwacht nur die Aktivitäten der AWS und kann evtl. intervenieren oder er kann weder die AWS überwachen noch auf irgendeine Weise Einfluss auf ihre Ausführungen nehmen.
2.3 Unterscheidung zwischen «automatisch» und «autonom»
Eine weitere Unterscheidung, die den Autonomie Aspekt von AWS weiter eingrenzt, wird im 5. Abschnitt in [1] aufgegriffen und bezieht sich auf den Unterschied zwischen Automatisierung und Autonomie. Erstere meint programmierte Waffensysteme, die sensorischen Input empfangen und basierend auf vordefinierten Regeln eine Antwort generieren. Letztere bezieht sich auf Waffensysteme, die dazu fähig sind, komplexere Absichten und Handlungen zu verstehen und eine von mehreren Handlungsalternativen auszuwählen und diese ohne einen menschlichen Einfluss auszuführen. Ein Beispiel für ein automatisches bzw. automatisiertes Waffensystem wären Luftabwehrsysteme, wie im Abschnitt 2 in [1] zuvor erwähnt.
3 Moralische Sicht
In diesem Kapitel werden moralische Argumente für und gegen autonome Waffensysteme aufgeführt. Jedoch muss untermauert werden, dass eine moralische Diskussion auf technischen Annahmen von autonomen Waffensystemen aufbaut. Die zentrale Frage, die aus moralischer Sicht diskutiert werden soll, ist, ob Maschinen das Recht haben sollen, Menschen das Leben zu nehmen.
3.1 Aus Sicht der Ethik des Krieges
3.1.1 Argumente für LAWS
Im TAB-Arbeitsbericht zu LAWS [6] werden Argumente für und gegen LAWS aus Sicht der Ethik des Krieges genannt, die sich auf die Lehre des gerechten Krieges und ihren Grundsätzen stützt. Dabei wird danach unterteilt, was vor, im und nach einem kriegerischen Konflikt gerecht ist. Von wesentlichem Interesse bei der Diskussion um LAWS ist ein gerechtes und völkerrechtskonformes Verhalten im Krieg. Dabei werden folgende Bedingungen gestellt:
„Erstens: Es dürfen nur Kombattanten, nicht jedoch die Zivilbevölkerung direkt angegriffen werden (Unterscheidungsgebot). Zweitens: Der Einsatz von Waffengewalt muss verhältnismäßig sein, d.h., tote Zivilisten und anderweitige Kollateralschäden müssen in einem angemessenen Verhältnis zum militärischen Nutzen stehen (Verhältnismäßigkeitsgebot). Und drittens: Alles Erforderliche muss getan werden, um die Zivilbevölkerung auch vorsorglich zu schützen (Vorsorgeprinzip). “ [6, S. 151]
Ein grundsätzlicher Einsatzgrund, der auch moralisch gesehen gerechtfertigt ist, LAWS Soldaten vorzuziehen, ist, dass das Leben von Soldaten im Krieg nicht riskiert wird und somit der Verlust an eigenen Soldaten kleiner oder komplett ausfällt. Der Maschinenethiker Ronald C. Arkin nennt weitere Gründe, die aus seiner Sicht für LAWS sprechen:
Das Verhalten des Soldaten in kriegerischen Konflikten kann ungerecht und somit völkerrechtswidrig sein, so dass LAWS im Gegensatz dazu eine moralisch bessere Alternative darstellen.
LAWS müssen nicht wie Soldaten ihr eigenes Leben beschützen und verteidigen, woraus eine mäßigere Kriegsführung resultiert und daraus folgend keine Unverhältnismäßigkeiten in der Gewaltausübung. Diese können auch nicht aus negativen Gefühlen, wie es bei Soldaten der Fall sein kann, resultieren, da LAWS gefühllos sind.
Es besteht aus technischer Sicht die Wahrscheinlichkeit, dass LAWS besser darin sind, ihre Umgebung wahrzunehmen als Menschen und sich ggf. besser an Kriegssituationen anpassen können.
Kognitiv gesehen sind sie den Menschen auch überlegen und zudem „leiden sie nicht an kognitiver Voreingenommenheit und Verzerrung, von der die menschliche Urteilskraft gerade in hierarchisch geprägten Entscheidungssituationen oftmals befallen ist.“ [6, S. 154] Ein humaneres Verhalten im Krieg kann im Vergleich zu Soldaten möglich sein, wenn LAWS eingesetzt werden. Die Argumentation von Arkin ist utilitaristisch d.h. folgen- bzw. nutzenorientiert, es wird somit auf Basis der technischen Versprechen von LAWS abgewägt, welche Alternative einen kleineren Schaden verursacht.
Ein weiterer Vorschlag von Arkin ist, dass LAWS sozusagen mit einem Gewissen implementiert werden, ethische Grundsätze werden in Code übersetzt. Dieses Gewissen dient als Überwachungsinstanz über die Handlungen von LAWS und verfügt über ein Veto Recht im Fall von Handlungen, die diese ethischen Regeln verletzen. Ergänzt kann dieses Gewissen durch einen Menschen, der die Handlungen des LAWS mit kontrolliert und ggf. mitentscheidet.
Die Vorstellung ist von LAWS, die ethisch korrekt handelnd implementiert werden.
[...]