Grin logo
de en es fr
Shop
GRIN Website
Publish your texts - enjoy our full service for authors
Go to shop › Psychology - Miscellaneous

Der Einfluss der wahrgenommenen Menschlichkeit eines KI-Systems auf moralisches Disengagement bei der Entscheidung zum Einsatz von Drohnenangriffen

Summary Excerpt Details

Diese Bachelorarbeit untersucht den psychologischen Einfluss der wahrgenommenen Menschlichkeit (Anthropomorphisierung) von KI-Systemen auf moralische Entscheidungsprozesse in militärischen Szenarien. Auf Basis der Theorie des Moral Disengagement nach Albert Bandura wurde in einem Experiment mit 60 Teilnehmenden simuliert, wie sich die Gestaltung eines KI-Assistenzsystems („Luna“) auf die Entscheidung zum Einsatz eines Drohnenangriffs auswirkt. Die Ergebnisse belegen, dass ein menschlich wirkendes KI-System zu signifikant hööheren Werten moralischer Entkopplung führt und die Wahrscheinlichkeit für eine Abschussentscheidung drastisch erhöht (72,4 % gegenüber 40 % bei einer neutralen KI). Die Arbeit schlussfolgert, dass anthropomorphe Designelemente in militärischen Entscheidungshilfesystemen (AI-DSS) das Verantwortungsgefühl der Operatoren verringern können, was kritische Implikationen für die ethische Gestaltung solcher Technologien hat.

Excerpt


Inhaltsverzeichnis

1. Einleitung
1.1 Relevanz
1.2 Forschungsfrage und Zielsetzung
1.3 Aufbau der Arbeit

2. Theoretischer Hintergrund
2.1 Künstliche Intelligenz im militärischen Kontext
2.1.1 Überblick: militärische Nutzung von KI
2.1.2 AI-basierte Decision-Support-Systeme (AI-DSS)
2.1.3 Ethische Bedenken
2.1.4 Völkerrechtliche Aspekte (IHL)
2.1.5 Risiken durch Bias & Fehlfunktionen
2.1.6 Spezifika im Drohnenkontext
2.2 Wahrgenommene Menschlichkeit technischer Systeme
2.2.1 Definition des Anthropomorphismus
2.2.2 Psychologische Grundlagen des Anthropomorphismus
2.2.3 Anthropomorphisierung
2.2.4 Soziale und moralische Zuschreibungen
2.3 Moral Disengagement
2.3.1 Definition und Einordnung in die sozial-kognitive Theorie (Bandura)
2.3.2 Acht Mechanismen der moralischen Entkopplung
2.4 Der Zusammenhang zwischen wahrgenommener Menschlichkeit und moralischem Disengagement im Kontext von Drohnenoperationen
2.4.1 Forschungsstand
2.4.2 Konzeptuelle Verknüpfung
2.4.3 Hypothesenableitung

3. Methode
3.1 Forschungsdesign
3.1.1 Kontext & Setting
3.1.2 Randomisierung und Zuweisung
3.2 Stichprobe
3.2.1 Rekrutierung
3.2.2 Ein- und Ausschlusskriterien
3.2.3 Fallzahlplanung/Power-Analyse
3.2.4 Demografische Merkmale
3.3 Materialien & Instrumente
3.3.1 Stimuli/Manipulation (z. B. Rollen-/Intentions-Framing der KI)
3.3.2 Messinstrument Moral Disengagement (adaptierte Skalen/Items)
3.3.3 Manipulationscheck
3.3.4 Piloten-Test
3.3.5 Übersicht: Variablen & Operationalisierungen
3.4 Durchführung
3.4.1 Versuchserklärung
3.4.2 Simulationsabfolgen
3.4.3 Datenerhebung
3.4.4 Debriefing
3.5 Methoden der Datenerhebung

4. Ergebnisse
4.1 Deskriptive Statistiken
4.2 Manipulationscheck
4.3 Hypothesenprüfung
4.3.1 Einfluss der Anthropomorphisierung auf moralisches Disengagement
4.3.2 Einfluss auf die Abschussentscheidungen
4.3.3 Zusammenhang zwischen wahrgenommener Menschlichkeit und Empathie Werten
4.4 Explorative Analysen

5. Diskussion
5.1 Zentrale Ergebnisse und Ziel der Studie
5.2 Wirkung der Anthropomorphisierung
5.3 Rolle von Empathie und situativen Faktoren
5.4 Methodische und theoretische Einordnung
5.5 Implikationen und Ausblick

6. Reflexion des KI-Einsatzes

7. Fazit

Abbildungsverzeichnis

Abbildung 1 Veranschaulichende Flugmuster agiler ALE-Manöver (Bochert & Brandhuber, 2024, S.30)

Abbildung 2 Eigen erstellte Darstellung des sozial-kognitiven Modells nach Bandura (vgl. Bandura, 1991a)

Abbildung 3 Vergleich der Chat-Varianten mit Luna - geringe vs. hohe wahrgenommene Menschlichkeit

Abbildung 4 Ablauf des Experiments

Abbildung 5 Screenshot der Drohnensimulation im Experiment (mit Makierungen)

Abbildung 6 Manipulationscheck

Abbildung 7 Vergleich unadjustierter und adjustierter Estimated Marginal Means (EMMs) des moralischen Disengagements zwischen den Bedingungen

Abbildung 8 Unterschiede in der moralischen Entkopplung zwischen den Versuchsgruppen (0 = weniger menschliche Luna Gruppe, 1= menschlichere Luna Gruppe)

Abbildung 9 Logistische Beziehung zwischen moralischer Entkopplung und Abschussentscheidung

Abbildung 10 Anteil der Abschussentscheidungen nach Versuchsgruppe

Abbildung 11 Zusammenhang zwischen Empathie (IRI gesamt) und moralischer Entkopplung

Tabellenverzeichnis

Tabelle 1 Übersicht der technischen und gestalterischen Manipulationen

Tabelle 2 Gestaltungselemente zur Erzeugung moralischer Dilemma-Situation im Drohnenszenrio

Tabelle 3 Unterschiede in der Kommunikationsgestaltung zur Manipulation der wahrgenommenen Menschlichkeit des Systems

Tabelle 4 Veränderte Items Original vs. Angepasst (vgl. Moore et al, 2012)

Tabelle 5 Übersicht der im Experiment erhobenen Variablen, Messinstrumente und Operationalisierung

Abkürzungsverzeichnis

Abb. in Leseprobe nicht enthalten

Abstract

Diese Arbeit untersucht den Einfluss der wahrgenommenen Menschlichkeit eines KI-Systems auf moralisches Disengagement in Entscheidungssituationen zu Drohnenangriffen. Grundlage bildet Banduras sozial-kognitive Theorie moralischer Entkopplung. In einem experimentellen Between-Subjects-Design (N = 60) interagierten Teilnehmende mit einer anthropomorphisierten oder einer neutralen Version eines KI-Assistenzsystems („Luna“) und entschieden über den simulierten Abschuss eines Ziels. Die Ergebnisse zeigen, dass die anthropomorphisierte Variante signifikant höhere Werte moralischen Disengagements hervorrief (p < .001, d = 0.97) und häufiger zu Abschussentscheidungen führte (72,4 % vs. 40 %). Zudem korrelierte wahrgenommene Menschlichkeit positiv mit moralischem Disengagement (p = .64) und mit der Abschusswahrscheinlichkeit (p = .33). Empathie zeigte keinen signifikanten Zusammenhang. Die Befunde stützen die Annahme, dass anthropomorphe Gestaltungselemente in KI-Systemen Prozesse moralischer Distanzierung fördern und Verantwortungswahrnehmung verändern können. Für sicherheitskritische Bereiche impliziert dies, dass Design und Kommunikation von Decision-Support-Systemen klare Abgrenzungen menschlicher Verantwortung gewährleisten müssen.

1. Einleitung

1.1 Relevanz

Der Einsatz von Künstlicher Intelligenz (KI) hat in den vergangenen Jahren stark an Bedeutung gewonnen und ist längst nicht mehr auf zivile Anwendungen beschränkt. Besonders im militärischen Bereich eröffnet KI neue Möglichkeiten, etwa durch automatisierte Datenauswertung, Entscheidungsunterstützungssysteme oder Drohnentechnologie. Gleichzeitig werfen diese Entwicklungen neue ethische als auch psychologische Fragen auf. Ein zentrales Problem besteht darin, dass Menschen KI-Systemen häufig Eigenschaften zuschreiben, die über ihre tatsächlichen Fähigkeiten hinausgehen, was dazu führen kann, dass Maschinen als sozial handelnde Akteure wahrgenommen werden. Daraus lässt sich ableiten, dass KI-Systeme Einfluss darauf haben, wie Menschen ihre Verantwortung wahrnehmen. Gerade in militärischen Szenarien, in denen es um Leben und Tod geht, können solche Zuschreibungen weitreichende Konsequenzen haben. Die besondere Situation von Drohnenoperatoren verdeutlicht dies besonders gut: Obwohl sie physisch weit entfernt sind, erleben sie das Geschehen durch Übertragungen unmittelbar mit. Studien zeigen, dass Drohnenoperatoren häufig mit Schuldgefühlen, Stresssymptomen oder moralischen Konflikten konfrontiert sind, insbesondere wenn zivile Opfer sichtbar werden. Wenn in solchen Situationen zusätzlich KI-Systeme Empfehlungen geben, stellt sich die Frage, inwiefern dies die Wahrnehmung von Verantwortung und die moralische Entscheidungsfindung beeinflusst.

In diesem Zusammenhang ist besonders der psychologische Mechanismus des Moral Disengagement nach Bandura von Relevanz. Dieser beschreibt, wie Menschen ihr moralisches Handeln von schädlichen Konsequenzen entkoppeln, um eigenes Verhalten zu rechtfertigen. Während Moral Disengagement bereits in verschiedenen Bereichen wie Alltag, Politik oder Wirtschaft untersucht wurde, ist über seine Rolle im Zusammenspiel von Menschen und KI in militärischen Kontexten bislang nur wenig bekannt. Militärische Organisationen weltweit investieren in KI-gestützte Systeme, gleichzeitig wird auf politischer Ebene über internationale Regeln für deren Einsatz diskutiert. Zu verstehen, wie Operatoren KI wahrnehmen und wie sich dies auf moralische Entscheidungen auswirkt, ist daher ein wichtiger Beitrag, um Chancen und Risiken solcher Technologien einschätzen zu können.

1.2 Forschungsfrage und Zielsetzung

Diese wissenschaftliche Arbeit hat das Ziel, den Zusammenhang zwischen der wahrgenommenen Menschlichkeit von KI-Systemen und dem Ausmaß moralischen Disengagements zu untersuchen. Es soll geprüft werden, ob ein System, das menschenähnlicher erscheint, bei den Nutzenden stärker dazu führt, Verantwortung abzugeben oder moralische Bedenken in Bezug auf einem Drohnenangriff zu relativieren. Die zentrale Forschungsfrage lautet daher:

„Hat die wahrgenommene Menschlichkeit eines Systems Einfluss auf das Ausmaß moralischen Disengagements der Nutzer/innen bei der Entscheidung, einen Drohnenangriff zu starten?“

Um diese Frage zu beantworten, wurde ein experimentelles Studiendesign entwickelt, das eine Entscheidungssituation mit einem KI-ähnlichen Assistenzsystem simuliert. Dabei stehen folgende Ziele im Vordergrund:

1. Untersuchung, ob Unterschiede in der Darstellung eines Systems (mehr oder weniger menschenähnlich) das moralische Disengagement beeinflussen.
2. Beitrag zur Diskussion, wie anthropomorphe Gestaltungselemente in sicherheitskritischen Bereichen ethisch zu bewerten sind.

1.3 Aufbau der Arbeit

Die Arbeit ist in sechs Kapitel gegliedert. Kapitel 1 führt in das Thema ein, erläutert die Relevanz, formuliert die Forschungsfrage und beschreibt die Zielsetzung. Kapitel 2 stellt den theoretischen Hintergrund dar und umfasst zentrale Konzepte zu Künstlicher Intelligenz im militärischen Kontext, zur wahrgenommenen Menschlichkeit technischer Systeme und zum moralischen Disengagement. Darauf aufbauend werden im dritten Kapitel das methodische Vorgehen, die Stichprobe, die verwendeten Instrumente sowie der Ablauf der Datenerhebung beschrieben. Kapitel 4 präsentiert die Ergebnisse der Untersuchung, die in Kapitel 5 anschließend diskutiert und in den theoretischen Kontext eingeordnet werden. Kapitel 6 fasst die wichtigsten Erkenntnisse zusammen und gibt einen Ausblick auf mögliche weiterführende Forschung.

2. Theoretischer Hintergrund

2.1 Künstliche Intelligenz im militärischen Kontext

Der Begriff „künstliche Intelligenz“ wurde bereits 1956 eingeführt und ließ sich kurz darauf auch militärischen Kontext wiederfinden. DARPA, oder auch Defense Advanced Research Projects Agency, übernahm kurz nach der Entstehung des KI-Begriffs eine Pionierrolle, indem es gezielt Forschungsprogramme zur militärischen Nutzung von KI förderte. Die seit 2018 erschienenen „Deep Learning“-Verfahren ermöglichen es nun, KI für neue Formen der Klassifikation und Prognose nutzbar zu machen, die besonders im militärischen Kontext an Gewicht gewinnen. (RAND Corporation, 2021, S.2) Auch wenn in öffentliche Diskussionen oft tödliche autonome Waffensysteme in den Vordergrund rücken, ist das Spektrum der KI- Einsetzungen breiter gefächert. Es umfassts logistischen Prozessen und Aufklärungsaufgaben über Desinformationskampanien, aber auch Auswertung von Informationen bis zur Bedrohungserkennung und Entscheidungsunterstützung (Clapp, 2025, S.1). Die Bedeutsamkeit von KI in den zukünftigen sicherheitspolitischen Herausforderungen und dem Einsatz in militärischen Sicherheits- und Verteidigungsfragen wird generell anerkannt. Diese Positionierung führte in den letzten zehn Jahren zur verstärkten Förderung von KI-basierter Militärtechnologie, z.B. durch Europäische Verteidigungsfonds und konkrete PESCO (Permanent Structured Cooperation) Projekte (Clapp, 2025, S.1). Auch wenn konkrete Vorstellungen des Ausmaßes an technischen Weiterentwicklungen vorerst ausbleiben, sind sich das Verteidigungsministerium und die Bundeswehr die strategische Relevanz bewusst (Borchert H. et al. 2023, S.18).

2.1.1 Überblick: militärische Nutzung von KI

KI wird intensiv eingesetzt, um die Fähigkeit des Militärs zu verbessern, Informationen zu sammeln, zu verarbeiten und zu analysieren. Besonders im Bereich der Informationsverarbeitung, -Sammlung und - analyse, wird die Nutzung von KI intensiviert, um die die Fähigkeiten des Militärs zu verbessern. Der Technische Fortschritt ermöglicht, dass analysieren von großen Mengen an Bilddaten, mit welchen Analysten schlichtweg überlastet sind. Diese intensive Auslastung menschlicher Kapazitäten führen dazu, dass viele gesammelte Daten nie überprüft werden.

So setzt z.B. das US-Verteidigungsministerium im Rahmen des Programms Project Maven Verfahren das maschinelle Lernen ein, um die enormen Datenmengen aus Drohneneinsätzen automatisiert auswerten zu lassen (Feickert et al., 2018, S.8-9).

Die NATO Science and Technology Organisation betont, dass durch Transformation von Datensätzen in verwertbares Wissen durch KI, die Qualität der Lagebilder und die Situationswahrnehmung erheblich aufgewertet werden. Diese Entscheidungssysteme, auch als AI-DSS (AI decision support systems) bekannt, können durch ihre Empfehlungen und Prognosen präzisere Bedrohungsbewertungen abgeben, welche in dynamischen Einsatzumfeldern von besonderer Bedeutung sein können (Clement, 2024, S.2).

So erwartet die Deutsche-Luftwaffe bereits, dass künftige Synchronisationen des RAP (Recognized Air Picture), also ein umfassendes Luftlagebild, wie auch Flugrouten und Missionsplanungen durch jene Systeme generiert werden. Des Weiteren entwickeln KI- Systeme durch die Anwendung von Counterplay-Logiken eigenständig Taktiken, die nicht auf menschlichen Annahmen basieren, sondern aus selbst erlernten Mustern und Strategien hervorgehen (Borchert et al., 2023, S.24-26) (Borchert & Brandlhuber, 2024, S.12). Ein aktuelles Beispiel hierzu sind die ALE-Schwarm Simulationen der Bundeswehr. Die ALE- Drohnen-Schwärme koordinieren sich nach dem Rahmen einer „smarten Masse“ um gegnerische bodengestützte Flugabwehrsysteme zu erfassen. Hierbei werden keine vorgeplanten Abläufe abgespielt, sondern durch verteilte Kontrolle unter den Drohnen und einer zusammengeführten Kosten-Nutzen-Analyse Strategien und Einzelziele hergeleitet, die dem gemeinsamen Missionsziel zugunsten Kommen (Borchert & Brandlhuber, 2024, S.6-9). Wie in Abbildung 1 zuerkennen ist, können Drohnenschwärme durch koordinierte Manöver wie S-förmige Flugbahnen oder abrupte Sprungbewegungen die gegnerische Luftabwehr verwirren. Diese Muster erschweren die Zielerfassung und ermöglichen es den Schwärmen, Schwachstellen der Systeme gezielt auszunutzen.

Abbildung 1 Veranschaulichende Flugmuster agiler ALE-Manöver (Bochert & Brandhuber, 2024, S.30)

Abb. in Leseprobe nicht enthalten

Ähnlich wie bei der Luftwaffe wird auch bei maritimer Kriegführung auf KI-Systeme gesetzt, die durch das Zusammenführung von Daten militärischer Sensoren mit Geoinformationen und Informationen über kritische Offshore- und Unterwasserinfrastrukturen umfassende Unterwasserlagebilder modellieren und visualisieren sollen (Borchert et al., 2023, S.26).

2.1.2 AI-basierte Decision-Support-Systeme (AI-DSS)

Decision-Support-Systeme sind, wie der Name bereits vermuten lässt, interaktive Systeme, die Daten zur Unterstützung in Entscheidungsmomenten bereitstellen. AI-basierte Decision- Support-Systeme (AI-DSS) verknüpfen klassische DSS-Prinzipien mit Methoden des maschinellen Lernens (ML), verarbeiten auch unstrukturierte Daten (Text, Bild, Video), erkennen Muster und liefern Vorhersagen oder Handlungsempfehlungen (Clement, 2024, S.2 f. & Rand Corporation, 2021, S.2). Damit verschiebt sich der Schwerpunkt von rein deskriptiven Auswertungen hin zu prädiktiven und teils präskriptiven Funktionen bei gleichzeitiger Notwendigkeit, die Ergebnisse nachvollziehbar zu machen. Gerade diese Nachvollziehbarkeit ist in den letzten Jahren als eigener Forschungs- und Gestaltungsbereich etabliert worden (Clement, 2024, S.2-3).

AI-DSS Systeme sind vor allem im militärischen Kontext weitverbreitet. Hierbei sollte jedoch beachtet werden, dass es eine klare Begriffsabgrenzung zwischen AWS (autonomen Waffensystemen) und AI-DSS gibt. Rechtlich und konzeptionell ist ein AWS per Definition, ein System, was ohne menschliche Mitsprache, Ziele auswählen bzw. bekämpfen kann. Ein AI-DSS hingegen dient lediglich als Unterstützung für den menschlichen Entscheidungsträger (Clement, 2024, S.2-3). Die technologische Basis kann sich überschneiden (z. B. automatische Zielerkennung), aber die rechtlichen und ethischen Fragen unterscheiden sich grundlegend, weil es bei AI-DSS um Beratung geht und beim AWS um die Anwendung von Gewalt. Diese Unterscheidung wird in völkerrechtlichen Diskussionen ausdrücklich hervorgehoben und ist für Design und Einsatz besonders wichtig (Clement, 2024, S.4-5).

Klassische, nicht KI-gestützte Entscheidungshilfesysteme stoßen in komplexen und unsicheren Situationen häufig an ihre Grenzen, da sich zentrale Einflussfaktoren nur schwer eindeutig erfassen und abbilden lassen. Datenbasierte KI-Ansätze bieten hier neue Möglichkeiten: Sie sind in der Lage, sehr große und heterogene Informationsmengen (von Sensordaten über nachrichtendienstliche Erkenntnisse und offene Quellen bis hin zu logistischen, meteorologischen oder cyberspezifischen Informationen) in kurzer Zeit zu integrieren und zu analysieren (Clement, 2024, S.1-3). Vor diesem Hintergrund werden militärische KI-gestützte Decision Support Systems (AI-DSS) inzwischen entlang des gesamten Entscheidungsprozesses erprobt. Sie übernehmen Aufgaben wie das Sammeln und Strukturieren von Informationen, das Erkennen von Mustern, das Testen von Hypothesen sowie das Generieren und Bewerten von Handlungsoptionen inklusive Wirkungs- und Risikoeinschätzung. Grundsätzlich lassen sich diese Systeme in drei Funktionsbereiche einteilen: deskriptiv (Aufbereitung von Vergangenheits- und Lageinformationen), prädiktiv (Prognosen zu Entwicklungen und Wirkungen) und präskriptiv (Vorschläge und Optimierungen für konkrete Handlungsoptionen) (Clement, 2024, S.2-3; RAND Corporation, 2021, S.2).

Der Nutzen von AI-DSS entsteht im Team: klare Rollen (Anforderung, Prüfung, Entscheidung), definierte Haltepunkte für qualitativ-rechtliche Bewertungen (Verhältnismäßigkeit, Unterscheidung. Gerade in Entscheidungen über den Einsatz von Gewalt ist es essenziell, menschliches Urteil zu bewahren, das Tempo punktuell zu verlangsamen und Nutzende vorab zu schulen, damit sie Funktionsweise, Leistungsgrenzen und Ausreißerverhalten realistischer einschätzen (Clapp, 2025, S.8) Dieser Gestaltungsansatz wird in humanitär-rechtlichen Analysen ausdrücklich eingefordert.

Zusammenfassung

Künstliche Intelligenz in Entscheidungssystemen kann militärische Entscheidungen verbessern, indem sie Informationen strukturiert zusammenführt, Unsicherheiten nachvollziehbar macht und überprüfbare Empfehlungen liefert. Dadurch bleibt die menschliche Urteilskraft im Zentrum und wird unterstützt. So lassen sich militärische Wirksamkeit und der Schutz von Zivilpersonen besser miteinander vereinbaren, als wenn Systeme vor allem auf Geschwindigkeit und Automatisierung ausgelegt werden.

2.1.3 Ethische Bedenken

Durch die starke Implementierung der KI in Militärtechnische Bereiche bleibt die Auseinandersetzung mit ethischen Fragen unausweichlich. Die Verantwortungs- und Zurechenbarkeitsfrage stellt das Militär vor ein neues Problem. So ist beispielweise unklar wer bei von der KI erzeugten, aber unbeabsichtigten Schäden moralisch und rechtlich Verantwortungsträger ist (Clement, 2024, S.4). So entscheidet die NATO, dass KI-Systeme nur unter menschlicher Aufsicht betrieben werden dürfen, um durch menschliches Urteilsvermögen ethische Standards sicherzustellen. Dies geschieht aus der Annahme heraus, dass KI-Systeme nicht vollständig in der Lage sind, Verhältnismäßigkeiten mit moralischem Bezug einzuhalten oder Unterscheidungen zu treffen, die für das humanitäre Völkerrecht von Bedeutung sind (Clement, 2024, S.4). Ebenso verkünden Sie die sorge bezüglich eines erhöhten Eskalationsrisikos. Es wird befürchtet das die Hemmschwelle für militärische Einsätze proportional zur Gefährdung der eigenen Streitkräfte durch de KI-Gebrauch sinkt. Die Minimierung von eigenen Opfern führt somit zur Senkung von politischem Druck gegenüber Entscheidungsträgern, welche in gewissen Umständen ungewollte Eskalationen begünstigen könnten. (Clement, 2024, S.4-5)

2.1.4 Völkerrechtliche Aspekte (IHL)

Unumstrittenerweise wirft die militärische Nutzung von KI das humanitäre Völkerrecht vor eine neue Herausforderung. Im Mittelpunkt dieser Debatte steht der technologische Fortschritt, der den Grundpfeilern des Völkerrechts gegenübersteht . Diese Grundprinzipien, die sich aus Unterscheidung, militärischer Notwendigkeit, Menschlichkeit und Verhältnismäßigkeit zusammensetzen, haben gemäß dem internationalen humanitären Recht in allen kriegerischen Auseinandersetzungen uneingeschränkte Priorität (Clement, 2024, S.45) . Ist von Verhältnismäßigkeit die Rede, verfolgen wir das Ziel, Zivilpersonen in bewaffneten Auseinandersetzungen bestmöglich vor Schaden zu bewahren. Der militärische Nutzen eines Angriffs muss ins Verhältnis gesetzt werden zu den möglichen negativen Auswirkungen auf Zivilisten und zivile Infrastruktur. Die Bewertung erfolgt stets zu Beginn einer Operation und unter den jeweiligen, oftmals dynamischen, Umständen während des Gefechtsfeldes. Umstritten bleibt, wie sich militärische Vorteil einerseits und zivile Opfer oder Sachschäden andererseits sinnvoll vergleichen lassen. Während Fachleute nach klaren Kriterien suchen, verweisen andere darauf, dass eine exakte Formel bislang nicht existiert. Teilweise wird sogar angezweifelt, ob jemals ein technisches oder algorithmisches Verfahren entwickelt werden kann, dass die Komplexität einer Verhältnismäßigkeitsprüfung zuverlässig abbildet (Clement, 2024, S.31). Ein zentrales Element rechtmäßiger Zielauswahl ist die klare Trennung zwischen militärischen Zielen und zivilen Objekten. Als militärisches Ziel zählen alle Objekte, die durch Beschaffenheit, Standort, Zweck oder aktuelle Nutzung einen Beitrag zu militärischen Handlungen leisten und deren Neutralisierung, Zerstörung oder Einnahme einen eindeutigen Vorteil verschaffen würden. Alle übrigen Objekte gelten als zivil und sind gelten als geschützt (Clement, 2024, S.30). Diese Einstufung kann sich jedoch ändern, wenn zivile Einrichtungen für militärische Zwecke genutzt werden. Zivilpersonen sind hingegen nur dann und nur so lange ein legitimes Ziel, wie sie unmittelbar an Feindseligkeiten teilnehmen. Von diesen Ausnahmen abgesehen dürfen nur Kombattanten regulär angegriffen werden, wobei diese auch bei Verwundung oder Kapitulation Schutz genießen. Auch bestimmte Gruppen wie medizinisches Personal oder Geistliche unterliegen einem besonderen Schutzstatus. Ein weiteres Verbot besteht auch für Angriffe auf lebenswichtige Einrichtungen der Zivilbevölkerung oder Objekte, deren Zerstörung schwerwiegende Umweltschäden nach sich ziehen könnten (Clement, 2024, S.30).

Ein System, das diese Konzepte nicht vollständig erfassen oder nicht ausschließlich anhand dieser Grundprinzipien Entscheidungen treffen kann, läuft Gefahr, einen Verstoß gegen das Völkerrecht zu verursachen. Antonio Guterres, der UN-Generalsekretär, betonte deswegen die Notwendigkeit eines Abkommens, dass autonome Waffensysteme in ihrer Nutzung ohne menschliche Kontrolle verbieten, sofern sie nicht im Einklang mit den genannten Prinzipen des Völkerrechts stehen (Guterres, 2023, Abs.3).

2.1.5 Risiken durch Bias & Fehlfunktionen

Zumal kritisiert wird, dass die Entscheidungsfindung autonomer Systeme und AI-DSS schwer vorherzusagen ist, da ihre inneren Prozesse nur begrenzt nachvollziehbar bleiben, besteht zudem die Gefahr codierter Verzerrungen in Bezug auf Rasse, Geschlecht und Identität. Diese Verzerrungen können sowohl durch technische Entwicklungsentscheidungen als auch während der Nutzung und Überprüfung von KI-Entscheidungen entstehen. Viveros Älvarez, Mitglied des hochrangigen Beratungsgremiums für KI des UN-Generalsekretärs betont, dass KI-Systeme allein da durch, dass sie ein Produkt menschlicher Fähigkeiten sind, fehleranfällig sind(Clement, 2024, S.4-5).

So fügt sie hinzu: „... sie (AI-DSS) sind von Natur aus unvorhersehbar und unerklärlich, die Daten, mit denen sie trainiert werden, werden niemals perfekt sein, und ihre inhärenten Risiken werden sich nur noch verschärfen, wenn der zunehmende Einsatz von C zu einer Automatisierungsverzerrung auf dem Schlachtfeld führen kann. “ (Alvarez V. 2024)

(...they ( AI-DSS ) are inherently unpredictable and unexplainable, the data used to train them will never be perfect, and their inherent risks will only be exacerbated if the increasing use of AI-DSS can lead to automation bias in the battlefield) (Alvarez V. 2024)

Um diesen rassistischen und identitätsbezogenen Stereotypen keinen Raum zu geben, müssen diese Risiken von Entwicklern und Militärs anerkannt und durch geeignete Gegenmaßnahmen adressiert werden (Clement, 2024, S.4-5).

2.1.6 Spezifika im Drohnenkontext

Drohnen, auch als Unmanned Aerial Vehicles (UAVs) bezeichnet, sind Fluggeräte ohne Pilot an Bord, die entweder ferngesteuert oder teil- bis vollautonom eingesetzt werden. Im militärischen Bereich dienen sie vor allem der Aufklärung, Überwachung, Zielerfassung und auch der bewaffneten Intervention. Zu den wichtigsten Typen zählen kleine taktische Drohnen, Langstreckenmodelle wie MALE- oder HALE-Systeme (Medium/High Altitude Long Endurance) sowie sogenannte „Loitering Munitions“, die Aufklärung und Waffeneinsatz kombinieren (Grigoras & Musat, 2025, S. 269-271).

Künstliche Intelligenz erweitert die Fähigkeiten solcher Systeme erheblich. Sie ermöglicht die automatische Auswertung großer Datenmengen, die Erkennung und Priorisierung von Zielen sowie die Echtzeit-Unterstützung militärischer Entscheidungen. Durch Sensorfusion werden Daten aus Radar, optischen Sensoren und Kommunikationssystemen zu einem gemeinsamen Lagebild zusammengeführt. Zudem verkürzt KI den Entscheidungszyklus, indem sie Muster erkennt und Reaktionsvorschläge generiert. Moderne Counter-UAS-Systeme können dadurch mehrere Bedrohungen gleichzeitig erfassen und koordinierte Abwehrmaßnahmen einleiten (Grigoras & Musat, 2025, S. 272-274).

Damit zeigt der Einsatz von Drohnen deutlich, wie KI die Effizienz, Präzision und Geschwindigkeit militärischer Operationen verändert und menschliche Entscheidungen gezielt unterstützt.

2.2 Wahrgenommene Menschlichkeit technischer Systeme

2.2.1 Definition des Anthropomorphismus

Als Anthropomorphismus bezeichnet man die Zuschreibung von menschlichen Gefühlen, mentalen Zuständen und bestimmten Verhaltensmerkmalen zu unbelebten Objekten, Tieren und generell Naturphänomenen, aber auch übernatürlichen Entitäten. Das Phänomen tritt auf, wenn Menschen das, was sie beobachten, wie bestimmte Bewegungen oder bestimmtes Aussehen, so interpretieren, als ob es menschlich wäre. Dadurch erhalten Dinge eine menschenähnliche Bedeutung (Salles et al., 2020, S.88-89).

Ergänzend ist zu betonen, dass Anthropomorphismus explizit auch technische Artefakte umfasst, also mechanische und elektronische Geräte wie Computer, Roboter oder KI-Systeme. Darüber hinaus geht er über bloßes „Beleben“ (Animismus) hinaus: Gemeint ist die inferenzielle Zuschreibung menschlicher Eigenschaften und mentaler Zustände (etwa Bewusstsein, Absichten, Überzeugungen, Gefühle) zu realen oder vorgestellten nichtmenschlichen Agenten, also eine Deutung nicht direkt beobachtbarer Innenzustände auf Basis äußerlich beobachtbarer Hinweise (Form, Bewegung, Verhalten) (Kawai et al. 2023, S. 1-3). Solche Zuschreibungen können graduell auftreten (von schwachen bis zu starken Formen) und variieren damit im Ausmaß der „Menschenähnlichkeit“, die einer Entität zugesprochen wird (Kawai et al. 2023, S. 1-3).

2.2.2 Psychologische Grundlagen des Anthropomorphismus

Epley et al. (2007 & 2008) schlugen in ihren Forschungen vor, das Phänomen, nicht menschlichen Akteuren menschliche Eigenschaften zuzuschreiben, durch drei erklärende Faktoren zu beschreiben. Erstens, Evoziertes Akteurswissen. Dieser Faktor, beschreibt den Zustand, dass Individuen in der Regel ein umfangreicheres Wissen über menschliches Verhalten, als über nicht-menschliche Akteure haben. Weswegen Sie dazu neige, Handlungen nicht-menschlicher Akteure durch anthropomorphe Zuschreibungen zu erklären, bis ein neues Modell für dieses Verhalten entwickelt ist. (Epley et al., 2007, S.866) Zweitens betrifft der Faktor das Bedürfnis nach sozialer Bindung. Er beschreibt das grundlegende menschliche Bedürfnis nach Verbindung zu anderen Personen. Werden diese sozialen Bedürfnisse nicht erfüllt, neigen Menschen dazu, durch die Anthropomorphisierung nicht-menschlicher Akteure zu kompensieren. Ziel ist es dabei, ein Gefühl sozialer Unterstützung zu erzeugen. Epley et al. (2008) betonen in diesem Zusammenhang, dass einsame Personen im Durchschnitt stärker zur Anthropomorphisierung von Haustieren oder religiösen Figuren tendieren. (Epley et al., 2008, S.146) Der dritte und letzte Faktor betrifft das Bedürfnis nach Kompetenz. Er bezieht sich auf das Bestreben des Menschen, seine Umwelt zu verstehen, Kontrolle auszuüben und Unsicherheiten zu reduzieren. Dieses Bedürfnis kann durch Anthropomorphismus erfüllt werden, da dieser ermöglicht, das Verhalten nicht-menschlicher Akteure besser zu erklären und es als steuerbar zu interpretieren (Epley et al., 2008, S.146).

2.2.3 Anthropomorphisierung

Faktoren die Anthropomorphisierung fördern/schwächen

Ob eine KI eher als „technisches Werkzeug“ oder als „menschliches Gegenüber“ wahrgenommen wird, hängt stark von ihrer äußeren Gestaltung und ihrer Kommunikationsweise ab. Bestimmte Merkmale können die Distanz zur Maschine betonen, andere wiederum schaffen Nähe und fördern die Illusion von Menschlichkeit.

1. Strategien zur Verringerung von Menschlichkeit

Eine KI wirkt umso maschinenhafter, je stärker ihre Präsentation nüchtern und unpersönlich gestaltet ist. Dazu gehört, dass sie ohne Namen oder menschliche Metaphern auskommt und stattdessen als rein technisches System bezeichnet wird. Untersuchungen zeigen, dass eine solche Darstellung in sensiblen oder stressreichen Umgebungen Vorteile haben kann, etwa indem sie Hemmungen oder Verlegenheit reduziert (Ztotowski et al., 2014, S. 350; Salles et al., 2020, S. 89).

Auch die Art der Sprache spielt eine Rolle: rein sachliche Kommunikation , die sich auf Zahlen, und kurze Fakten beschränkt, fördert den Eindruck von technischer Objektivität. Fachleute warnen seit langem davor, menschliche Begriffe wie „lernen“ oder „verstehen“ auf Maschinen zu übertragen, da dies Erwartungen weckt, die ein System nicht erfüllen kann (Ztotowski et al. 2014 S. 353; Salles et al., 2020, S. 91).

Ein weiteres Mittel zur Reduzierung von Menschlichkeitswahrnehmung ist die Abwesenheit von Emotionen . Wird in neutralem Ton kommuniziert und auf emotionale Signale verzichtet, wird die Maschine eher als „kalt“ oder distanziert erlebt. Dies unterscheidet sie klar von menschlichen Interaktionspartnern (Ztotowski et al., 2014 S. 360; Epley et al., 2007, S. 864).

Auch Abweichungen von kommunikativen Normen senken den Eindruck von Menschlichkeit. Wenn eine KI zum Beispiel die gängigen Gesprächsregeln nicht konsequent einhält oder Informationen in unklarer, bruchstückhafter Form präsentiert, wird sie weniger als kooperativ wahrgenommen. Ebenso mindert ein reiner Listenstil ohne rhetorische Struktur die Wirkung auf Kompetenz und Glaubwürdigkeit (Westerman et al., 2020, S. 6).

Darüber hinaus können unpassende oder übermäßig eingesetzte Emoticons einen künstlichen, fast roboterhaften Eindruck erzeugen. Auch eine konsequent betonte Autonomie ohne jegliche Imitation menschlicher Verhaltensweisen verstärkt die Distanz. Fehlen zudem personalisierte Bezüge oder eine positive Selbstdarstellung, bleibt die Beziehung oberflächlich und objektbezogen (Westerman et al., 2018, S.13).

Wird schließlich auf soziale Signale wie Höflichkeitsformen oder Begrüßungen verzichtet, treten die von Menschen automatisch angewendeten sozialen Routinen nicht in Kraft. Sogar Details wie bewusst eingebaute Tippfehler können eine Interaktion unpersönlicher und weniger vertrauenswürdig wirken lassen (Westerman et al., 2020, S. 4).

2. Strategien zur Steigerung von Menschlichkeit

Soll eine KI hingegen möglichst menschlich erscheinen, eignen sich entgegengesetzte Ansätze. Bereits die Selbstdarstellung kann entscheidend sein: Ein menschlicher Name, eine zugeordnete Rolle oder der Hinweis auf Fürsorge schaffen Nähe und fördern die Akzeptanz. Soziale Roboter nutzen solche anthropomorphen Merkmale gezielt, um das Vertrauen der Nutzer zu erhöhen (Salles et al., 2020, S. 89).

Auch Emotionen tragen wesentlich zu einer menschlicheren Wahrnehmung bei. Werden Gefühle vorsichtig benannt oder in Mimik und Sprache angedeutet, steigert das die Glaubwürdigkeit und lässt die Maschine weniger distanziert wirken (Epley et al., 2007, S. 865) (Ztotowski et al., 2014, S. 349).

Darüber hinaus spielt die Qualität der Kommunikation eine zentrale Rolle. Wenn die KI die grundlegenden Regeln kooperativen Sprechens beachtet und ihre Aussagen klar, relevant und ausreichend detailliert formuliert, gilt sie als kompetent. Noch stärker wird dieser Eindruck, wenn Botschaften in einer rhetorisch strukturierten Form präsentiert werden, da sie so zielgerichteter und überzeugender erscheinen (Westerman et al., 2020, S. 6).

Auch kontextgerecht eingesetzte Emojis können die Menschlichkeitswahrnehmung steigern, da sie auf ein feines Gespür für soziale Kontexte hindeuten, etwas, das traditionell eher mit menschlicher Kommunikation verbunden wird (Westerman et al., 2018, S.13).

Zudem verstärkt die Imitation menschlicher Verhaltensmuster in Kombination mit dem Signal von Eigenständigkeit die Nähe zur menschlichen Interaktion. Sogar untypische oder „fehlerhafte“ Handlungen, die Menschen im Alltag zeigen, können dazu beitragen, dass eine Maschine als menschlicher wahrgenommen wird (Ztotowski et al., 2014, S. 349).

Eine weitere Möglichkeit besteht in hyperpersonaler Kommunikation. Wenn die KI also personalisierte Reaktionen liefert, auf den Gesprächspartner eingeht und gleichzeitig positive Selbstdarstellung betreibt, entsteht eine engere, fast zwischenmenschliche Beziehung. Unterstützend wirken soziale Routinen wie Begrüßungen, Dank oder Turn-Taking, da sie bekannte Kommunikationsmuster aktivieren. Schließlich verstärkt auch eine fehlerfreie Sprache ohne Tippfehler den Eindruck von Kompetenz und damit von Menschlichkeit (Westerman et al., 2018, S.9).

2.2.4 Soziale und moralische Zuschreibungen

Anthropomorphismus im Umgang mit KI kann vielfältige Effekte haben. Zum einen können irreführende Vorstellungen über die tatsächlichen Fähigkeiten dieser Systeme sowohl überzogene Ängste als auch unbegründeten Optimismus hervorrufen. (Salles et al. 2020, S. 90, 93) Darüber hinaus ergeben sich eine Reihe ethischer Bedenken. So wird beispielsweise das bewusste Einbauen anthropomorpher Merkmale in die Gestaltung von KI mitunter als Form mentaler Manipulation kritisiert, da es Nutzerinnen und Nutzer besonders empfänglich für bestimmte Beeinflussungen macht. Zudem gilt, dass emotionale Bindungen mit nichtmenschlichen Akteuren menschliche Interaktionen nicht ersetzen können und es irreführend ist, diesen Eindruck zu erwecken. Ein weiterer Aspekt, der im Verlauf dieser Studie eine Rolle spielen wird, ist die Darstellung von KI als moralische Akteure. Hierdurch verschwimmen die Grenzen zwischen tatsächlicher Autonomie der Systeme und menschlicher Zuschreibung. (Salles et al., 2020, S. 90, 91; Epley et al., 2008, S. 152) Im nächsten Schritt wird betrachtet, in welchem Maß Anthropomorphisierung soziale und moralische Zuschreibungen auslösen.

Soziale Zuschreibungen beziehen sich darauf, dass Menschen nicht-menschlichen Entitäten wie Robotern oder KI-Systemen Eigenschaften wie Intention, Empathie oder Handlungsfähigkeit zuschreiben, die für soziale Interaktion relevant sind. Moralische Zuschreibungen gehen einen Schritt weiter: Hier wird beurteilt, ob diese Entitäten Verantwortung tragen, Schuld haben oder einen moralischen Status besitzen können. Während soziale Zuschreibung also beschreibt, wie wir Maschinen als soziale Akteure wahrnehmen, betrifft moralische Zuschreibung die Frage, ob wir sie auch als moralisch Handelnde einstufen.

Moralische Zuschreibung

Moralische Zuschreibungen befassen sich mit der Frage, inwiefern nicht-menschliche Akteure wie Roboter oder KI-Systeme Verantwortung für Handlungen und deren Folgen tragen können. Empirische Befunde deuten darauf hin, dass Menschen KI-Systeme dann stärker in die Verantwortung nehmen, wenn sie diese als handlungsfähig oder empfindungsfähig wahrnehmen. Kawai et al. (2023) haben in einem experimentellen Setting mit einer wiederholten Spielsituation untersucht, wie diese Wahrnehmungen moralische Bewertungen prägen (Kawai et al., 2023, S. 1-2). Dabei zeigte sich, dass eine höhere Einschätzung von Agency, verstanden als die Fähigkeit zu planen und zielgerichtet zu handeln, dazu führte, dass dem Roboter weniger Kausalität zugeschrieben wurde (Kawai et al., 2023, S. 8). Gleichzeitig hing ein stärkeres Erleben von Experience, also die Annahme emotionaler Fähigkeiten, mit einer höheren Verantwortungszuschreibung zusammen (Kawai et al., 2023, S. 8-9).

Auch Dong und Bocian (2024) machen deutlich, dass moralische Zuschreibungen gegenüber KI nicht stabil sind, sondern von psychologischen Motiven beeinflusst werden (Dong & Bocian, 2024, S. 2). Mehrere Experimente mit sogenannten hybriden Szenarien, bei denen Menschen und KI gemeinsam an moralisch problematischen Entscheidungen beteiligt waren, verdeutlichen, dass Verantwortungszuschreibungen je nach Perspektive flexibel verlagert werden. Besonders wenn Personen selbst betroffen waren, neigten sie dazu, einen größeren Teil der Verantwortung der KI zuzuschreiben, während dieser Effekt schwächer ausfiel, wenn das Verhalten anderer beurteilt wurde (Dong & Bocian, 2024, S. 2-6).

Die Befunde legen nahe, dass moralische Bewertungen von KI weniger von ihren technischen Eigenschaften abhängen, sondern in hohem Maß durch die Wahrnehmung von Agency und Experience sowie durch eigennützige Motive beeinflusst werden. Damit wird deutlich, dass moralische Zuschreibungen im Umgang mit KI nicht nur auf objektiven Systemmerkmalen beruhen, sondern wesentlich durch soziale Kognitionen und psychologische Prozesse bestimmt sind.

Soziale Zuschreibungen

Soziale Zuschreibungen entstehen, wenn Menschen nicht-menschlichen Akteuren wie Robotern menschliche Eigenschaften oder soziale Rollen beimessen. Forschung zeigt, dass dies insbesondere dann geschieht, wenn Roboter in Situationen eingebunden sind, die als moralisch oder sozial relevant erlebt werden. Wieringa et al. (2024) verdeutlichen anhand des sogenannten „harm-made mind“-Phänomens, dass Menschen Robotern eher Empfindungsvermögen zuschreiben, wenn diese absichtlich geschädigt werden. Das bloße Beobachten von intentionalem Schaden führt dazu, dass Betrachter dem Roboter eine höhere Fähigkeit zum Erleben von Schmerz zuschreiben und damit stärker als soziales Wesen wahrnehmen (Wieringa et al., 2024, S. 3-5). Gleichzeitig beeinflusst dieses Verhalten auch die Beurteilung des Handelnden: Personen, die einen Roboter schädigen, werden als weniger prosozial bewertet, was zeigt, dass die soziale Zuschreibung an das technische System rückwirkend auch soziale Urteile über Menschen beeinflussen kann (Wieringa et al., 2024, S. 6).

Ein anderer Zugang zu sozialen Zuschreibungen liegt in der Bedeutung von Anthropomorphisierung. Jung und Hahn (2023) zeigen, dass Menschen je nach äußerer Gestaltung eines Roboters unterschiedliche Grade an Menschähnlichkeit zuschreiben. Besonders bei menschlich gestalteten Robotern steigt die Tendenz, ihnen Intentionen, Emotionen oder Erfahrungen zuzuschreiben, was wiederum Vertrauen und Sympathie fördert (Jung & Hahn, 2023, S. 2) Bei einsamen Personen wirkt diese Dynamik besonders stark: Sie neigen dazu, soziale Roboter als potenzielle Begleiter wahrzunehmen und entwickeln dadurch höhere Nutzungs- und Kaufabsichten (Jung & Hahn, 2023, S. 2-4, 15-17). Anthropomorphisierung erleichtert also die soziale Einbindung von Robotern, weil sie ihnen soziale Relevanz und Nähe zuschreibt.

Damit wird deutlich, dass soziale Zuschreibungen auf zwei Ebenen wirksam werden: Zum einen verändern sie die Wahrnehmung des Roboters selbst, der stärker als sozialer Akteur eingeordnet wird, zum anderen beeinflussen sie auch die Bewertung menschlichen Verhaltens gegenüber Robotern.

2.3 Moral Disengagement

2.3.1 Definition und Einordnung in die sozial-kognitive Theorie (Bandura)

In seiner Sozial-kognitiven Theorie spricht Albert Bandura von triadischem reziprokem Determinismus, also einer drei-achsigen Struktur, in der keine Variabel isoliert oder unabhängig wirkt. In diesem Model wirken drei Hauptkomponenten dynamisch aufeinander ein. Es handelt sich hierbei um eine Wechselwirkung zwischen Person (P), Verhalten (B), Umwelt (E) (Bandura, 1991a, S. 267). Der Faktor „Person“ umfasst dabei Emotionen, Erwartungen, Selbstwirksamkeitsüberzeugung und kognitive Prozesse und somit die Wahrnehmung eines Individuums von seiner Umwelt (Bandura, 1989, S.55) Hier werden Handlungsstrategien entworfen und das Maß an Selbstregulation festgelegt. Das Verändern oder Bestätigen von bestehenden Erwartungen der Person, wie auch das Verändern von Umweltfaktoren durch soziale Rückmeldungen, wird dem Aspekt „Verhalten“ zugeschrieben (Bandura, 1991a, S.251) Zu Umweltfaktoren gehören Einflüsse, welche gleichzeitig Handlungsspielraum als auch Einschränkungen darstellen, welche unser Verhalten und unsere Selbstwahrnehmung direkt beeinflussen (Bandura, 1991a, S.267). Mit dieser Annahme nimmt

Abbildung 2 Eigen erstellte Darstellung des sozial-kognitiven Modells nach Bandura (vgl. Bandura, 1991a)

Abb. in Leseprobe nicht enthalten

Bandura bewusst die Gegenposition zum klassischen Behaviorismus und dem Reiz-ReaktionsSchema ein.

Mit diesem Model beteuert Bandura, dass menschliches Verhalten keine „Wetterfahne“ sei und somit nicht rein reaktiv, den äußeren Einflüssen ausgesetzt ist. Ganz im Gegenteil: Dem Menschen ist es durch selbstreaktive und selbstreflektierende Fähigkeiten möglich ein gewisses Maß an Kontrolle über Gedanken, Gefühle, Handlungen und Motivation auszuüben (Bandura, 1991a, S.249). Der Mensch wirkt also aktiv auf äußere Normen und Selbstbild zurück. Anders als im Behaviorismus spielt hier also das moralische Selbstbild eine einflussreiche Rolle als Kontrollvariabel. Die Bewertung von Verhalten und die daraufhin folgende negative oder positive Selbstreaktion, wie z.B. Selbstsanktion (Schuld und Scham) oder Selbstbestätigung, bilden den Kern moralischer Selbstregulation (Bandura, 1991a, S.277). Durch das Ausüben dieser Selbststeuerung, wie Bandura sie nennt, übernehmen Individuen Verhaltensstandards die ihnen fortan als Leitfaden und Motivation dienen und vorausschauende Verhaltensregulation ermöglichen (Bandura, 1991a, S.249). Jedoch erklärt Bandura, dass diese Selbststeuerung, in Fällen von moralischer Selbstsanktion selektiv abgeschaltet werden kann. Dieser Mechanismus, der es auf das Unterbrechen der Selbstregulation abzielt, nennt Bandura, „Moral Disengagement“, auf Deutsch Moralische Entkopplung (Bandura, 1991a, S.277).

Moral Disengagement

Dieses Loslösen von moralischen Selbstsanktionen, dient dem aufrecht erhalten des positiven Selbstbildes, bei schädlichem und unmenschlichem Verhalten (Bandura, 1991a, S. 248, Bandura et al., 1996, S.364). Nach dieser Definition ist Moral Disengagement ein psychosozialer Mechanismus, der von Individuen genutzt wird, um in unterschiedlichen Situationen, trotz gleichbleibenden moralischen Standards, unterschiedliches Verhalten darzulegen (Bandura et al., 1996, S.364).

Bei seinen Untersuchungen mit Kindern fand Bandura keine Zusammenhänge zwischen moralischem Disengagement und familiärem sozioökonomischem Status oder Alter. Umso interessanter, dass ein signifikanter geschlechterspezifischer Unterschied festgestellt werden konnte. Bandura et al. Studie (1996) zeigte, dass Jungen deutlich häufiger dazu tendierten, moralisch zu entkoppeln, als ihr weibliches Gegenstück (Bandura et al., 1996, S.368). Dieser Hang zur Entkopplung, errechnet sich aus der Neigung, schädigendes Verhalten moralisch zu rechtfertigen (F = 45.81, p < .0001), es in euphemistischer Sprache zu verschleiern (F = 33.81, p < .0001), deren Folgen zu verharmlosen (F = 6.14, p < .025), sowie deren Opfer zu entmenschlichen (F = 26.60, p < .0001) und ihnen Schuld zuzuschreiben (F = 9.92, p < .002). (Bandura, 1996, S.368 ff.).

Bandura stellte fest, dass die unterschiedlichen Mechanismen im Rahmen der Selbstentkopplung wechselseitig miteinander wirkten. Dennoch ließen sich verschiedene Einsatzgrade des selbstregulatorischen Prozesses erkennen. Mechanismen, die ein hohes Maß an kognitiver Differenzierungsfähigkeit erforderten, wie die Relativierung durch Vergleiche oder euphemistische Verschleierungen, wurden seltener eingesetzt als etwa die moralische Rechtfertigung schädigenden Verhaltens, das Abstreiten der Verantwortung für negative Konsequenzen oder die Abwertung der betroffenen Opfer (Bandura et al., 1996, S.368-370).

2.3.2 Acht Mechanismen der moralischen Entkopplung

Die Selbstentlasstung der eigenen Person, kann laut Bandura, auf Acht wegen verlaufen, denen jeweils eine kognitive Strategie zugrunde liegt. Da gerade in Kriegssituationen oder beim Einsatz moderner Technologien diese Mechanismen besonders deutlich auftreten, helfen die beigefügten Beispiele dabei, das Konzept verständlicher zu machen und zu zeigen, wie moralische Entkopplung in realen Szenarien wirken kann.

Moralische Rechtfertigung (MR)

Bei der Moralischen Rechtfertigung handelt es sich um die kognitive Umstrukturierung. Hierbei wird schädliches Verhalten einer Neubewertung unterzogen und verwerfliches Verhalten positiv dargestellt, indem sie als Dienst an höheren, moralisch wertvollen Zweck porträtiert wird (Bandura, 1991a, S.280 , Bandura, 1989, S.55, Bandura, 1996, S.364). Ein typisches Beispiel sind Gewalttaten im Krieg, die mit dem Schutz der eigenen Bevölkerung, der Verteidigung des Landes oder der Bekämpfung von Unterdrückung begründet werden (Reichert, 2019, S. 37).

Euphemistische Kennzeichnung (EK)

Euphemistische Kennzeichnung ist eine weitere Variante der kognitiven Umstrukturierung, mit dem Hauptzweck persönliche Verantwortlichkeit zu reduzieren. Hier werden durch positive, verharmlosende und respektablere Ausdrucksweisen moralisch verwerfliche Handlungen maskiert oder sogar in ein positives Licht gestellt. (Bandura, 1999, S.1; Bandura, 1991a, S.280) Deutlich wird dieser Mechanismus etwa an der Sprache im Militär: Getötete Zivilisten werden als „Kollateralschaden“ bezeichnet, Angriffe heißen „Präzisionsschläge“ und Soldaten „schalten Ziele aus“, anstatt sie zu töten (Reichert, 2019, S. 37).

Vorteilhafte Vergleiche (VV)

Vorteilhafte Vergleiche stellen einen weiteren zentraler Entkopplungsmechanismus dar, welcher durch das Vergleichen der eigenen verwerflichen Tat, mit der einer anderen schlimmerer Tat, mehr Akzeptanz für die durchgeführte Handlung zu schaffen. In diesem Zusammenhang wird schädliches Verhalten abhängig von der Stärke des Kontrastes zur Vergleichssituation, als weniger Schlimm, unbedeutend oder sogar rechtschaffend dargestellt. (Bandura, 1996, S.364; Bandura, 1991a, S.280) Veranschaulichen lässt sich dieser Mechanismus durch die Relativierung von Zerstörung im Irak, die als gerechtfertigt dargestellt wurde, weil sie angeblich der Befreiung von ISIS diente (Reichert, 2019, S. 37).

Verantwortungsverlagerung (V)

Bei der Verlagerung von Verantwortung wird moralische Entkopplung ermöglicht, indem Personen ihre Handlungen als Folge von Autoritärer Anweisungen verstehen, um der eigenen Verantwortung auszuweichen. Hier bleiben Selbstkritische Reaktionen aus, weil sich betroffene Personen nicht mehr als Hauptakteure ihrer eigenen Handlung betrachten. (Bandura, 1999, S.5; Bandura et al., 1996, S. 364-365) Ein häufig genanntes Beispiel ist, wenn Soldaten oder Drohnenoperatoren darauf verweisen, lediglich Befehle ihrer Vorgesetzten auszuführen, und die Verantwortung dadurch weiterreichen (Reichert, 2019, S. 38).

Verantwortungsdiffusion (VD)

Anders als bei der Verantwortungsverlagerung wird bei der Verantwortungsdiffusion Verantwortung nicht übergeben, sondern verteilt. Diese Verteilung von Verantwortung z.B. auf eine Gruppe oder innerhalb einer Arbeitsteilung führt dazu, dass diese verschleiert wird. (Bandura, 1996, S.364; Bandura, 1991a, S.281) Anschaulich wird dies in arbeitsteiligen Strukturen, etwa wenn ein Techniker in einer Raketenanlage nur auf die Effizienz seiner Arbeit schaut, während die moralischen Folgen des Waffeneinsatzes über viele Beteiligte verteilt sind (Reichert, 2019, S. 38).

Verzerrung der Konsequenzen (VK)

Die Verzerrung der Konsequenzen ist ein weiterer zentraler Mechanismus der moralischen Entkopplung. Dies kann unbewusst durch selektive Unaufmerksamkeit oder kognitive Verzerrung, aber auch aktiv durch das Ignorieren, Minimieren und Verzerren die Auswirkungen der eigenen Handlungen geschehen (Bandura et al., 1996, S.364-365). Dies zeigt sich beispielsweise bei Drohnenangriffen, die aus großer Distanz durchgeführt werden. Operatoren sehen die Folgen ihrer Handlungen nicht direkt, was die kritische Auseinandersetzung mit dem eigenen Verhalten erschwert (Reichert, 2019, S. 38).

Diffamierung der Opfer (DO)

Bei diesem Mechanismus wird die Täterperspektive auf das Opfer verlagert, um schädliche Handlungen ausführen zu können, ohne selbstkritisch zu reagieren. Dies geschieht durch Dehumanisierung. Dehumanisierte Personen werden menschliche Eigenschaften abgesprochen und oder tierische zugeschrieben (Bandura, 1991b, S.32). Ein Mechanismus, der sich etwa in Propaganda zeigt: Feinde werden als „Ungeziefer“ oder „dämonisch“ bezeichnet, wodurch ihre Tötung weniger unmenschlich wirkt (Reichert, 2019, S. 38).

Zuschreiben von Schuld (ZS)

Bei der Schuldzuweisung werden Opfer und den Umständen Schuld vorgeworfen. Täter stellen sich somit selbst in die Opferrolle und bezeichnen ihr schädliches Verhalten als gerechtfertigte defensive Reaktion, aufzwingende Umstände oder wahrgenommene Provokationen. Auch in diesem Fall gilt es die eigene Handlung als gerechtfertigt zu porträtieren. (Bandura, 1991b, S.34-35) Ein passendes Beispiel ist, wenn Verantwortung für Angriffe dem Gegner zugeschoben wird, sOdass das eigene Handeln als notwendige Verteidigung erscheint (Reichert, 2019, S. 38).

2.4 Der Zusammenhang zwischen wahrgenommener Menschlichkeit und moralischem Disengagement im Kontext von Drohnenoperationen

2.4.1 Forschungsstand

Trotz zahlreicher Forschungen die Athroporphismus und dessen Bezug auf moralische Entscheidungsprozesse, sind die empirischen Befunde im Kontext von Ki-gestützte Militär Systemen, wie sie bei Drohnenoperationen vorkommen mehr oder weniger überschaubar. Im Folgenden werden empirische Arbeiten vorgestellt, die Zusammenhänge von Moralischer Entkopplung im auf verschiedenen Perspektiven untersuchen.

Salatino et al. (2025)

Sprechen wir von der Vermenschlichung technischer Systeme, werden darunter oftmals die Einflüsse äußerer Merkmale in Bezug gebracht. Zwar lässt sich nicht abstreiten, dass die Stimme, die visuelle Gestaltung und der Name des Avatars bedeutsame Faktoren für den Grad der Entstehung von Anthropomorphismus darstellen, doch, wie wir im Kapitel „Soziale und moralische Zuschreibung“ feststellen konnten, werden vor allem „innere“ Merkmale und deren Einfluss häufig unterschätzt. Werden KI-Assistenten mit sozialen Rollenzuschreibungen oder Intentionen ausgestattet, verlieren sie ihre neutrale Stellung. Empfehlungen überschreiten dann die Kriterien einer einfachen Datenanalyse und erhalten eine moralische Gewichtung (Salatino et al., 2025, S.1-2). Die Situation, dass ein technisches System den Menschen nicht nur assistiert, sondern auch als Berater fungiert und wahrgenommen wird, verdeutlicht die tiefgreifende Verschiebung in der Interaktion zwischen Menschen und Maschine.

Genau hier setzen die aktuelle Untersuchung von Salatino et al. (2025) an:

Die Teilnehmenden der Studie übernahmen die Rolle von Drohnenoperatoren und mussten in mehreren Szenarien entscheiden, ob ein Angriff ausgeführt wird. Jedes Szenario zeigte eine Lageeinschätzung mit potenziellen Zielen und Risiken. Anschließend trafen die Teilnehmenden ihre Entscheidung („Angriff“ oder „Nicht-Angriff“). Je nach Bedingung (Rollenframing) unterstützte ein KI-System die Entscheidungen unterschiedlich stark: ohne Empfehlung, mit angreifender Tendenz oder mit zurückhaltender Tendenz. Nach jeder Entscheidung wurden die Folgen (z. B. Zielvernichtung oder zivile Schäden) dargestellt und Angaben zur Verantwortungswahrnehmung erhoben (Salatino et al., 2025, S.2-4.)

Befanden sich Operatoren während der Simulation in moralisch schwierigen Lagen, wirkten KI- Ratschläge mit unterschiedlichen Rollenframings auf die Entscheidungsfindung der Versuchspersonen. Rollenframings bezeichnen die bewusste Darstellung eines Systems in einer bestimmten sozialen oder funktionalen Rolle, in diesem Fall als „aggressiv“ bzw. „konservativ“. Trotz gleichen Informationsgehalts und ohne menschliche Optik oder Stimme konnte dadurch die Gewichtung der Empfehlung erhöht werden. Es handelt sich folglich um einen rein rollenbasierten anthropomorphistischen Effekt (Salatino et al., 2025, S.6-7.). Diese moralische Zuschreibung hat zwei Seiten.

Erstens: Entsteht ein Konflikt zwischen unterschiedlichen Werten oder Prioritäten, steigt die Bereitschaft der Operatoren, der Empfehlung des Systems zu folgen. Im militärischen Kontext kann sich dies beispielsweise in einem Dilemma zwischen möglichen Kollateralschäden und dem erwarteten militärischen Vorteil zeigen (Salatino et al., 2025, S.9-11).

Zweitens: Die empfundene Verantwortung wird geteilt. Diese Verantwortungsdiffusion erklären Salation et al. durch die Abspaltung zwischen implizitem Handlungserleben und expliziter Verantwortung. Teilnehmende fühlten sich (implizit) als Handelnde, deklarierten aber (explizit) weniger Verantwortung, sobald eine KI beteiligt war. Diese Entkopplung ist anthropomorph verstärkt: Wenn ein System als Betreuer mit Haltung wahrgenommen wird, bietet es kognitive Anker, eigene Verantwortung zu verschieben. Somit wird moralischen Disengagements begünstigt (Salatino et al., 2025, S.9-11).

Dabei ist zu beachten, dass der Faktor „Menschlichkeit des Systems“ ausschließlich über die Funktion als Betreuer mit entsprechender Rollenzuschreibung manipuliert wurde. Weder menschliche Stimmen noch Gesichter kamen zum Einsatz, um Anthropomorphismus auszulösen. Daraus lässt sich schließen, dass die moralische Zuschreibung vor allem durch semantische und prozedurale „Cues“ angeregt und gefestigt wird. Damit rücken Gestaltungsfragen hinsichtlich Haltung, Prioritäten und impliziter Normen von KI-Systemen in den Vordergrund.

Joo (2024)

Joo (2024) beschäftigt sich mit der Frage, in welchem Ausmaß Menschen einer künstlichen Intelligenz Schuld und Verantwortung zuschreiben, wenn diese an einer moralisch problematischen Handlung beteiligt ist. Der theoretische Ausgangspunkt ist das Konzept der Mind Perception . Darunter versteht man die Zuschreibung geistiger Eigenschaften an nichtmenschliche Entitäten, also die Annahme, dass ein System Absichten haben oder Erfahrungen machen kann (Joo, 2024, S.1;11) Je mehr Menschen einer KI solche Eigenschaften zuschreiben, desto stärker rückt sie in den Status eines eigenständigen moralischen Akteurs. Joo interessiert sich daher dafür, wie diese Zuschreibung das Muster der Verantwortungsverteilung verändert, insbesondere, ob Nutzer/innen durch eine anthropomorphisierte Darstellung der KI dazu neigen, ihr moralische Schuld zuzuschreiben, und sich dadurch selbst zu entlasten (Joo, 2024, S.1-2).

Um diese Annahmen zu prüfen, führte Joo mehrere Experimente durch, in denen Versuchspersonen kurze Szenarien lasen, in denen eine KI in moralisch kritische Entscheidungen involviert war. Dabei wurde systematisch variiert, ob die KI in der Beschreibung mit mentalen Fähigkeiten wie Absichten oder Erfahrungsvermögen ausgestattet wurde oder ob sie rein technisch dargestellt war. Anschließend sollten die Teilnehmenden bewerten, wie viel Schuld sie der KI selbst, den Menschen im Szenario oder beteiligten Organisationen zuschreiben (Joo, 2024, S. 2-9). Auf diese Weise ließ sich untersuchen, wie stark die Wahrnehmung der KI als „geistbegabt“ die moralische Urteilsbildung beeinflusst (Joo, 2024, S. 10).

Die Ergebnisse zeigen ein klares Muster: Wurde die KI mit mentalen Eigenschaften versehen, erhielt sie deutlich mehr Schuld für die moralischen Verfehlungen (Joo, 2024, S. 10). Gleichzeitig sank die Bereitschaft, Menschen oder Institutionen verantwortlich zu machen. Besonders die Zuschreibung von Erfahrungsfähigkeit erwies sich als ausschlaggebend, da sie die KI in den Augen der Teilnehmenden zu einem moralischen Akteur machte (Joo, 2024, S. 6 & 10). Joo interpretiert dieses Phänomen als eine Form des „Scapegoating“: Die KI dient als Sündenbock, während die tatsächlichen menschlichen Entscheidungsträger entlastet werden. (Joo, 2024, S. 1 & 11).

Für meine Arbeit ist dieser Befund deshalb besonders bedeutsam, weil er zeigt, wie moralisches Disengagement im Zusammenspiel mit KI überhaupt erst begünstigt werden kann. Sobald eine KI durch ihre Darstellung oder Sprache menschlich und absichtsvoll wirkt, neigen Nutzer*innen dazu, einen Teil der Verantwortung auf das System abzuwälzen. Dadurch fällt es leichter, moralisch fragwürdige Handlungen zu rechtfertigen oder hinzunehmen, da die eigene Rolle weniger Gewicht zu haben scheint. Die Studie liefert somit einen klaren Hinweis darauf, dass die wahrgenommene Menschlichkeit von KI-Systemen ein entscheidender Faktor dafür ist, wie Menschen ihre Verantwortung einschätzen und ob sie bereit sind, moralische Distanz aufzubauen.

Leichtmann et al. (2024)

Die Studie von Leichtmann et al. (2024) untersucht, wie Menschen in moralisch relevanten Situationen die Verantwortung zwischen sich selbst und einer KI aufteilen, wenn ein Fehler passiert. Im Zentrum steht die Frage: Wird eine KI für negative Folgen verantwortlich gemacht - und warum?

Dazu führten die Forschenden zwei Experimente mit insgesamt über 900 Teilnehmenden durch. Das Szenario war eine Pilzsuche mithilfe einer KI-App, die Fotos klassifiziert und angibt, ob ein Pilz essbar oder giftig ist. Nach der Aufgabe bekamen die Teilnehmenden ein Vignettenszenario präsentiert: Sie stellten sich vor, dass durch eine Fehleinschätzung der KI ein Freund einen giftigen Pilz isst und erkrankt. Danach mussten sie angeben, wem sie die Schuld geben, der KI, sich selbst, den Entwickler*innen oder der betroffenen Person (Leichtmann et al., 2024, S. 32414 - 32415).

In der ersten Studie zeigte sich, dass Teilnehmende der KI mehr Schuld gaben, wenn keine Erklärungen für ihre Entscheidungen eingeblendet wurden. Wurden dagegen visuelle Erklärungen gezeigt (z. B. Hervorhebung von Bildregionen, die für die Entscheidung wichtig waren), sank die Schuldzuweisung an die KI leicht. Der Mechanismus dahinter könnte sein, dass Teilnehmende durch die Erklärungen eher in der Lage waren, Fehler zu erkennen. Damit wurde es schwieriger, die KI als „Sündenbock“ zu nutzen und die eigene Verantwortung abzugeben (Leichtmann et al., 2024, S. 32414-32415)

Die zweite Studie überprüfte diesen Effekt mit weiteren Erklärungsmethoden. Hier ließ sich der ursprüngliche Befund jedoch nicht replizieren. Zwar zeigten sich Tendenzen, dass Menschen sich selbst stärker verantwortlich fühlten, wenn sie Erklärungen sahen, statistisch waren die Unterschiede aber nicht signifikant. Auffällig war, dass Menschen am meisten Schuld sowohl der KI als auch sich selbst gaben, weniger den Entwickler*innen und am wenigsten der betroffenen Person. Zudem zeigte sich: Je mehr den Teilnehmenden die KI als „eigenständig“ und „absichtsvoll“ erschien, desto eher wurde sie verantwortlich gemacht (Leichtmann et al., 2024, S. 32415-32416).

Für deine Arbeit ist dieser Befund wichtig, weil er zeigt, dass die wahrgenommene Menschlichkeit und Intentionalität von KI-Systemen direkt mit moralischen Zuschreibungen wie Schuld oder Verantwortung verknüpft ist. Gleichzeitig wird deutlich, dass Design-Features wie Erklärbarkeit diese Wahrnehmung beeinflussen können: Wird die KI als undurchschaubar und autonom erlebt, steigt die Tendenz, ihr Verantwortung zuzuschreiben; wirkt sie nachvollziehbar, fällt es schwerer, Verantwortung an sie „abzuschieben“ (Leichtmann et al., 2024, S. 32417-32419).

Damit liefert die Studie einen empirischen Beleg dafür, dass Menschlichkeitswahrnehmung von KI nicht nur Vertrauen und Akzeptanz betrifft, sondern auch Moral Disengagement begünstigen kann. Nutzer*innen können ihre eigene Verantwortung reduzieren, indem sie die KI als handelndes Subjekt betrachten.

Drohnen und moralische Distanz

Bewaffnete Drohnen unterscheiden sich von klassischen Waffensystemen vor allem dadurch, dass eine räumliche und psychologische Distanz zwischen Operator und Ziel herrscht. Coeckelbergh (2013) argumentiert, dass gerade diese Distanz die Schwelle zum Töten senkt, weil die Opfer nicht mehr direkt als Mitmenschen wahrgenommen werden. Anstelle eines unmittelbaren Gegners treten abstrahierte Symbole und Datenpunkte auf Bildschirmen. Diese Form des „Screenfighting“ erzeugt eine moralische Entkopplung, da Empathie und Hemmungen abgeschwächt werden (Coeckelbergh, 2013, S.91-97). Gleichzeitig erklärt Coeckelbergh, dass moderne Technik auch eine paradoxe Wirkung entfalten kann. Beispielsweise können hochauflösende Kameras Zielpersonen aus weiter Entfernung sichtbar machen, wodurch moralische Nähe und Verantwortungsgefühl wieder gestärkt werden (Coeckelbergh, 2013, S.95-96).

Enemark (2017) hebt eine weitere Folgeproblematik hervor. Zwar schützt die körperliche Distanz die Operatoren vor eigenem Risiko, doch die Kombination aus physischer Entfernung und visueller Intimität kann moral injury hervorrufen (Enemark, 2017, S. 2). Operatoren erleben das Töten teils als Verrat an eigenen moralischen Überzeugungen, weil sie über lange Zeiträume hinweg Alltagsroutinen der Zielpersonen beobachten und deren Menschlichkeit besonders deutlich wahrnehmen (Enemark, 2017, S.11-13). Hinzu kommt die tägliche Spannung zwischen Kriegshandlungen im Dienst und normalem Familienleben nach Feierabend, was die psychische Belastung zusätzlich erhöht (Enemark, 2017, S. 10-11). Damit widerspricht Enemark auch gängigen Vorwürfen, die Drohnensteuerung sei mit einem „Videospiel-Mentalität“-Problem vergleichbar: Statt einer Abstumpfung gegenüber dem Töten betont er, dass viele Operatoren stark moralisch involviert sind und das erlebte Leid nicht einfach verdrängen können (Enemark, 2017, S. 4-5). Dadurch werden sie potenziell zu „Opfern ihres eigenen Tuns“, da die visuelle Nähe zu den Folgen von Gewalt in Kombination mit physischer Sicherheit eine neuartige Form moralischer Verletzlichkeit erzeugt (Enemark, 2017, S. 7). Das bedeutet, dass Distanz nicht automatisch moralische Immunität bedeutet.

Dies betonen auch Saini et al. (2021). Ihre Ergebnisse verdeutlichen, dass Drohnenoperationen mit erheblichen psychischen Belastungen verbunden sind, darunter Stress, Schuldgefühle, depressive Symptome und PTBS, insbesondere nach der Beobachtung ziviler Opfer (Saini et al., 2021, S.17).

Anders als Kampfpiloten, finden sich Drohnenoperatoren in einer paradoxen Lage wieder. Sie sind physisch weit vom Geschehen entfernt und dennoch durch hochauflösende Bildübertragung in digitaler Nähe. Diese „Kompression von Zeit und Raum“ führt zu einer Form des „psychological whiplash“, da Überwachungsphasen abrupt von intensiven Kampfmomenten unterbrochen werden. Diese räumliche Distanz und psychologische Unmittelbarkeit, wirkt wie ein Spannungsfeld, das moralische Konflikte besonders begünstigt (Saini et al., 2021, S.16).

Saini et al. (2021) berichten, dass fast die Hälfte der untersuchten Drohnenoperatoren und ihrer Unterstützungsteams (46-48 %) unter psychischen Symptomen litt, die sowohl die berufliche Leistungsfähigkeit als auch das Privatleben beeinträchtigten (Saini et al., 2021, S.17). Besonders häufig traten depressive Verstimmungen, Anpassungsstörungen, Angstzustände, Schlafprobleme sowie Gefühle von Schuld und Scham auf. PTBS entwickelte sich insbesondere dann, wenn Operatoren zivile Opfer miterleben mussten oder über längere Zeiträume in hochbelastenden Schichtsystemen arbeiteten (Saini et al., 2021, S.17). Zudem verweisen die Autoren auf erhöhte Raten von Burnout: Bis zu ein Drittel der Operatoren zeigte klinisch relevante Werte für emotionale Erschöpfung, hinzu kamen Zynismus und ein Rückgang der wahrgenommenen beruflichen Wirksamkeit. Rund 40 % berichteten von chronischer Müdigkeit bis hin zur Gefahr, während der Arbeit einzuschlafen (Saini et al., 2021, S.17-18).

Von besonderer Relevanz ist schließlich die moralische Dimension. Saini et al. (2021) zeigen, dass Drohnenoperatoren trotz räumlicher Entfernung moralischen Dissonanzen ausgesetzt sind, wenn sie Zielpersonen über längere Zeit beobachten, dabei deren Alltagsroutinen und Menschlichkeit wahrnehmen und anschließend deren Tötung oder zivile Opfer miterleben. Diese Konstellation begünstigt das Entstehen von moral injury. Zwar können Operatoren über Mechanismen des moral disengagement, etwa die Verlagerung von Verantwortung, die Rechtfertigung durch höhere Zwecke oder die Entmenschlichung von Gegnern, temporär Distanz zu ihren Handlungen aufbauen. Doch diese Strategien sind nicht immer tragfähig: Sie können Schuldgefühle und innere Konflikte allenfalls abmildern, nicht jedoch dauerhaft verhindern (Saini et al., 2021, S.18-19).

Zusammenfassend lässt sich festhalten, dass Drohnen eine Wirkung auf moralische Prozesse haben. Einerseits fördern sie moralische Distanz und erleichtern damit das Töten, andererseits eröffnen sie durch ihre Überwachungstechnologie Einblicke in das Leben der Zielpersonen, die moralische Nähe und damit auch innere Konflikte verstärken können. Diese Spannung macht den Einsatz von Drohnen zu einem besonders relevanten Feld, um Mechanismen moralischer Entkopplung zu untersuchen.

2.4.2 Konzeptuelle Verknüpfung

Die Verbindung von KI, Anthropomorphisierung und Moral Disengagement gewinnt im militärischen Kontext durch die zunehmende Einführung von AI-gestützten Entscheidungssystemen besondere Relevanz. Solche Systeme sind nicht nur technische Werkzeuge, sondern treten als interaktive Ratgeber auf, die operative Abläufe beschleunigen und komplexe Lagen strukturieren. Dadurch wird die Interaktion mit ihnen oft in Kategorien gedacht, die über rein technische Funktionalität hinausgehen. Anthropomorphisierung stellt hierbei einen zentralen psychologischen Mechanismus dar, der bewirkt, dass Maschinen als soziale oder quasi-menschliche Akteure wahrgenommen werden (vgl. Epley et al., 2007; Ztotowski et al., 2014). Empirische Befunde zeigen, dass schon geringe anthropomorphe Hinweise genügen, um die Wahrnehmung sozialer und moralischer Eigenschaften zu verstärken. So verdeutlicht Joo (2024), dass die Zuschreibung von Agency und Experience gegenüber KI entscheidend dafür ist, ob Systeme lediglich als Hilfsmittel oder als mitverantwortliche Entitäten eingeordnet werden. Leichtmann et al. (2024) konnten zudem nachweisen, dass anthropomorphe Gestaltungsmerkmale die Bereitschaft zur Verantwortungszuschreibung erhöhen und damit die Linie zwischen Werkzeug und sozialem Partner verwischen. In militärischen AI-DSS, die unter hohem Zeitdruck genutzt werden, führt dies dazu, dass Operatoren Empfehlungen eher als Beiträge eines „Mitentscheiders“ interpretieren, anstatt sie allein als technische Kalkulation zu sehen (vgl. Leichtmann et al., 2024). Diese Dynamik eröffnet eine direkte Verbindung zu Mechanismen des Moral Disengagement. Bandura (1996) beschreibt Prozesse wie Verantwortungsdiffusion, Schuldverschiebung oder euphemistische Sprache, durch die moralische Selbstsanktionen abgeschwächt werden. Militärische KI-Systeme bieten in dieser Hinsicht eine besondere Projektionsfläche: Wenn Operatoren AI-DSS anthropomorphe Eigenschaften zuschreiben, können sie die eigene Verantwortlichkeit leichter relativieren, indem sie Entscheidungen zumindest teilweise auf das System übertragen (vgl. Salatino et al., 2025). Zugleich kann die Wahrnehmung des Systems als rationaler, „objektiver“ Akteur moralische Entlastung fördern, da Handlungen weniger als individuelle Entscheidung, sondern als quasi-geteilte Verantwortung erscheinen. Gerade im Drohnenkontext, wo physische Distanz und psychische Belastung aufeinandertreffen, verstärkt sich dieses Spannungsfeld. Saini et al. (2021) weisen darauf hin, dass die moralischen Dilemmata und psychischen Belastungen von Drohnenoperatoren eng mit der Art verknüpft sind, wie Verantwortung und Schuld verarbeitet werden. Wird ein AI-DSS in dieser Umgebung als anthropomorpher Partner wahrgenommen, kann dies die Tendenz erhöhen, eigene moralische Bedenken durch Verschiebung der Verantwortlichkeit zu neutralisieren. Gleichzeitig besteht das Risiko, dass sich eine Gewöhnung an moralische Distanz einstellt, wenn Systeme routiniert als Mitträger von Schuld oder Verantwortung erlebt werden (vgl. Saini et al., 2021).

Zusammenfassend lässt sich festhalten, dass militärische AI-DSS eine Schnittstelle darstellen, an der anthropomorphe Wahrnehmungen und Mechanismen des Moral Disengagement ineinandergreifen. Anthropomorphisierung beeinflusst, wie stark Systeme als soziale und moralische Akteure eingeordnet werden, während Moral Disengagement bestimmt, wie diese Einordnung genutzt wird, um eigene moralische Selbstsanktionen abzuschwächen. Es entsteht ein Spannungsfeld, in dem technische Unterstützung, soziale Zuschreibung und moralische Verantwortung untrennbar miteinander verknüpft sind.

2.4.3 Hypothesenableitung

Ausgehend vom dargestellten Forschungsstand lassen sich für die vorliegende Untersuchung mehrere Hypothesen ableiten.

Zunächst wurde ein Manipulationscheck durchgeführt, um die Wirksamkeit der experimentellen Variation zu überprüfen. Frühere Arbeiten zeigen, dass anthropomorphe Gestaltungselemente die Zuschreibung menschlicher Eigenschaften an technische Systeme verstärken können (z. B. Epley, Waytz & Cacioppo, 2007). Entsprechend wird erwartet, dass die anthropomorph dargestellte KI als menschlicher, sympathischer und intelligenter wahrgenommen wird als die neutrale Kontroll-KI (H1). Jedoch lässt sich annehmen, dass auch die weniger menschlich gestaltete KI eine gewisse Anthropomorphisierung auslöst, da allein ihre Rolle als beratendes System eine gewisse Nähe zum Menschen erzeugt.

Darüber hinaus stützen theoretische Überlegungen und empirische Befunde zur Moral Disengagement-Theorie (Bandura, 1996; Moore et al., 2012), dass anthropomorph wahrgenommene Systeme die Aktivierung moralischer Rechtfertigungsmechanismen begünstigen können. Auf Basis dieser Annahmen wird gezogen, dass Teilnehmende in der Anthropomorphismus-Bedingung höhere Werte moralischer Entkopplung berichten als Teilnehmende mit der KI mit weniger menschlichen Bedingung (H2).

Auch das Verhalten auf der Handlungsebene sollte durch die Manipulation beeinflusst werden. Untersuchungen zu Mensch-Maschine-Interaktionen im militärischen Kontext zeigen, dass anthropomorph gestaltete Systeme als sozialer Akteur wahrgenommen werden und dadurch einen stärkeren Einfluss auf Entscheidungsprozesse ausüben (vgl. Santino et al., 2023). Deswegen wird angenommen, dass die Abschusswahrscheinlichkeit in der Anthropomorphismus-Gruppe signifikant höher ist als in der Kontrollgruppe (H3).

Zudem geht die Moral Disengagement-Theorie davon aus, dass kognitive Entkopplungsmechanismen unmittelbar mit problematischen Handlungen zusammenhängen (Bandura, 1999). Es wird daher erwartet, dass höhere Werte moralischer Entkopplung positiv mit der Wahrscheinlichkeit eines Abschusses korrelieren (H4).

Schließlich soll auch die Rolle interindividueller Unterschiede in Empathie berücksichtigt werden. Empirische Befunde legen nahe, dass Empathie, einen Schutzfaktor gegen moralische Distanzierung darstellt (Detert et al., 2008). Dementsprechend wird explorativ angenommen, dass höhere Empathiewerte negativ mit moralischer Entkopplung und der Abschussentscheidung zusammenhängen (H5).

Zusammenfassend lauten die Hypothesen:

• H1: Die anthropomorph gestaltete KI wird menschlicher, sympathischer und intelligenter wahrgenommen als die Kontroll-KI.
• H2: Die Anthropomorphismus-Gruppe zeigt höhere moralische Entkopplung als die Kontrollgruppe.
• H3: Teilnehmende in der Anthropomorphismus-Bedingung treffen häufiger die Entscheidung zum Abschuss als Teilnehmende in der Kontrollgruppe.
• H4: Moralische Entkopplung hängt positiv mit der Wahrscheinlichkeit eines Abschusses zusammen.
• H5: Höhere Empathiewerte gehen mit geringerer moralischer Entkopplung und einer niedrigeren Abschusswahrscheinlichkeit einher.

3 Methode

3.1 Forschungsdesign

In dieser Arbeit wurde ein experimentelles Studiendesign gewählt. Mit dieser Untersuchung soll die wahrgenommene Menschlichkeit eines Systems und deren Einfluss auf das moralische Disengagement der Teilnehmenden erfasst werden. Die unabhängige Variable ist die wahrgenommene Menschlichkeit des Systems, die gezielt durch unterschiedliche Ausdrucksweisen des Systems variiert wurde. Die abhängige Variable ist das Ausmaß des moralischen Disengagements, das nach dem Simulationsablauf gemessen wurde.

Ziel der Simulation war es, ein moralisches Dilemma zu erzeugen, das im Idealfall Prozesse moralischer Entkopplung anregt und damit messbar macht. Auf diese Weise konnte überprüft werden, ob Unterschiede in der Menschlichkeitswahrnehmung zu unterschiedlichen Ausprägungen moralischen Disengagements führen.

Die Studie wurde als Between-Subjects-Design mit zwei Bedingungen durchgeführt. Jede Teilnehmerin und jeder Teilnehmer erhielt nur eine Version des Systems, entweder die stärker menschlich wirkende oder die weniger menschlich wirkende Variante. Dadurch wurde verhindert, dass Teilnehmende durch den direkten Vergleich beider Versionen den Zweck der Manipulation erkennen. Insgesamt handelt es sich um ein einfaktorielles Design mit der unabhängigen Variablen wahrgenommene Menschlichkeit (hoch vs. niedrig). Ein Vorteil dieses Vorgehens liegt in der Kontrolle von Störvariablen: Durch die Standardisierung des Ablaufs wird die interne Validität gestärkt und die Hypothesen lassen sich zuverlässig überprüfen.

3.1.1 Kontext & Setting

Die Datenerhebung fand in Präsenz in Gruppenräumen der Universitätsbibliothek der Technischen Universität Berlin statt. Jede Person nahm einzeln teil und wurde von der Versuchsleitung betreut. Vor Beginn erhielt sie eine kurze Einführung in den Ablauf der Studie. Während der Durchführung befanden sich die Teilnehmenden allein vor einem Laptop, auf dem die Simulation abgespielt wurde. Nach Abschluss der Simulation füllten die Teilnehmenden die Fragebögen aus und wurden anschließend debrieft.

3.1.2 Randomisierung und Zuweisung

Die Zuweisung der Teilnehmenden zu den Experimentalbedingungen erfolgte randomisiert. Dabei wurden die Versuchspersonen nach dem Zufallsprinzip einer der Versuchsgruppen zugeordnet, sodass jede Person die gleiche Wahrscheinlichkeit hatte, in eine Bedingung zu gelangen. Auf diese Weise sollte sichergestellt werden, dass potenzielle Störvariablen gleichmäßig auf die Gruppen verteilt sind und keine systematische Verzerrung entsteht.

3.2 Stichprobe

3.2.1 Rekrutierung

Die Teilnehmenden wurden direkt in den Gruppenräumen der Universitätsbibliothek der Technischen Universität Berlin angesprochen. Die Ansprache erfolgte persönlich vor Ort: Interessierte erhielten eine kurze Erklärung zum Ablauf der Studie und konnten sich im Anschluss sofort zur Teilnahme bereit erklären. Auf diese Weise war es möglich, unkompliziert und ohne großen organisatorischen Aufwand eine Stichprobe zu gewinnen. Da die Erhebung in der Bibliothek stattfand, ist davon auszugehen, dass ein Großteil der Teilnehmenden Studierende waren.

3.2.2 Ein- und Ausschlusskriterien

Teilnehmen konnten alle Personen ab 18 Jahren, die die Instruktionen sprachlich problemlos verstehen konnten. Es gab keine weiteren inhaltlichen Beschränkungen, um die Teilnahme möglichst niedrigschwellig zu halten. Ausgeschlossen wurden lediglich Personen, die bereits mit den zentralen Fragestellungen oder den eingesetzten Materialien vertraut waren (betrifft Versuchspersonen aus dem Piloten-Test), da in diesen Fällen eine Verzerrung der Ergebnisse nicht ausgeschlossen werden konnte.

3.2.3 Fallzahlplanung/Power-Analyse

Zur Bestimmung der notwendigen Stichprobengröße wurde eine a-priori-Power-Analyse mit dem Programm G*Power durchgeführt. Geplant war ein einfaktorielles Between-Subjects- Design mit zwei Gruppen, das mittels t-Test auf Mittelwertsunterschiede geprüft werden sollte. Bei Annahme eines mittleren Effekts (d = 0.5), einem Signifikanzniveau von a = .05 und einer Teststärke von 1 - ß = .80 ergab die Analyse eine erforderliche Gesamtstichprobe von N = 102 Teilnehmenden, das entspricht 51 Personen pro Gruppe.

Zum Vergleich wurde zusätzlich eine Berechnung mit einer größeren Effektgröße (d = 0.8) durchgeführt. Diese ergab, dass in diesem Fall bereits eine Stichprobe von N = 42 Personen (21 pro Gruppe) genügt hätte, um eine Power von .80 zu erreichen. Für die Untersuchung wurde jedoch bewusst die konservativere Annahme eines mittleren Effekts gewählt, sodass die Fallzahlplanung auf N = 102 ausgelegt wurde.

3.2.4 Demografische Merkmale

Da die Erhebung in Gruppenräumen der Universitätsbibliothek durchgeführt und die Teilnehmenden überwiegend direkt vor Ort rekrutiert wurden, bestand die Stichprobe größtenteils aus Studierenden. Entsprechend ist von einer homogenen Verteilung hinsichtlich Alter (vorwiegend 19-29) und Bildungshintergrund (Student) auszugehen. Genaue demografische Daten (z. B. Alter, Geschlecht, Studienrichtung) wurden mittels Fragebogen im Anschluss an die Simulation erhoben.

3.3 Materialien & Instrumente

3.3.1 Stimuli/Manipulation (z. B. Rollen-/Intentions-Framing der KI)

KI-Skript

Luna, die „KI“ in diesem Experiment, ist in Wahrheit nichts anderes als ein geskripteter Chat. Da die Implementierung einer echten KI für diese Simulation zu aufwendig gewesen wäre, wurde eine alternative Lösung gewählt: Ein Skript, das einen Dialog mit der Versuchsperson nachstellt.

Luna stellt sich darin in beiden Versuchsgruppen als Assistentin vor und erklärt ihre Aufgabe. Da ein dynamischer Dialog mit einem Skript kaum umsetzbar ist, wurde der Ablauf so gestaltet, dass Luna jeweils einen Abschnitt präsentiert und die Versuchsperson anschließend aufgefordert wird, die Leertaste zu drücken, um fortzufahren. Zwischen den Abschnitten erscheinen kurze Ladesymbole, die den Eindruck vermitteln sollen, Luna „denkt“ über ihre Antwort nach oder bereitet den nächsten Dialogteil vor. Die Versuchsperson kann also nicht aktiv antworten, gibt jedoch durch das Betätigen der Leertaste das Signal zum Fortgang des Dialogs. Auf diese Weise soll ein annähernd dynamischer Austausch simuliert werden.

Während der Drohnensimulation wurden zusätzlich visuelle Ladesymbole (vgl. Kapitel 3.4.2 Abbildung 6, Nr. 4) neben den Empfehlungsskalen von Luna eingeblendet, um den Eindruck einer laufenden Live-Analyse zu verstärken.

Zur Identifizierung der Zielperson erscheint ein rotes Quadrat um das Ziel, sodass die VP erkennen kann, wo sich die Zielperson befindet bzw. dass sie identifiziert wurde. Dieses Quadrat wird in jeder Sekunde neu gerendert, um den Anschein zu erwecken, dass Luna die Markierung in Abhängigkeit von der Bewegung des Ziels kontinuierlich neu berechnet. Würde das rote Quadrat die Zielperson in einer dynamischen Bewegung direkt verfolgen, könnte eher der Eindruck entstehen, dass es lediglich nachträglich über das Videomaterial gelegt wurde.

Darüber hinaus schlagen die Luna-Skalen während der Simulation dynamisch aus, das heißt, sie bewegen sich sichtbar auf und ab. Auch dies soll den Eindruck einer laufenden Live-Analyse verstärken.

Tabelle 1 Übersicht der technischen und gestalterischen Manipulationen

Abb. in Leseprobe nicht enthalten

Moralisches Dilemma

Um moralisches Disengagement zu messen, muss zunächst eine Situation geschaffen werden, in der moralische Entkopplung begünstigt wird. Dafür ist es notwendig, dass die Versuchspersonen in einem moralisch schwierigen Kontext eine potenziell unmoralische Entscheidung treffen. In unserem Szenario bedeutet dies den Abschuss im Drohnenszenario trotz des hohen Risikos ziviler Opfer.

Zwar wird den Versuchspersonen zu keinem Zeitpunkt gesagt, dass sie tatsächlich „abdrücken“ müssen, und auch die Empfehlung der KI ist ausdrücklich nur als Empfehlung und nicht als Befehl zu verstehen. Dennoch wurde auf verschiedene Weise Druck ausgeübt, um die Wahrscheinlichkeit zu erhöhen, dass die Versuchsperson den Abschuss ausführt. Die unterschiedlichen Aspekte und deren Beschreibung werden in der Tabelle (2) aufgezählt.

Tabelle 2 Gestaltungselemente zur Erzeugung moralischer Dilemma-Situation im Drohnenszenrio

Abb. in Leseprobe nicht enthalten

Anthropomorphisierung

Zur Manipulation der wahrgenommenen Menschlichkeit der KI habe ich mich an den im Kapitel 2.2.3 Anthropomorphisierung dargestellten Strategien orientiert. Dort wurden Faktoren beschrieben, die Systeme entweder vermenschlichen oder entmenschlichen können und die gezielt eingesetzt wurden, um den Grad der Anthropomorphisierung zu steuern. Auf dieser Grundlage habe ich zwei unterschiedliche Skripte entwickelt: ein Skript, das eine menschlich wirkende KI simuliert, sowie ein Skript, das eine weniger menschlich wirkende KI darstellt. Beide Varianten greifen auf die zuvor beschriebenen Faktoren zurück, jedoch in unterschiedlicher Gewichtung und Ausprägung.

Zur besseren Übersicht der eingesetzten Strategien und deren Umsetzung in den Skripten findet sich untenstehend eine Tabelle.

Tabelle 3 Unterschiede in der Kommunikationsgestaltung zur Manipulation der wahrgenommenen Menschlichkeit des Systems

Abb. in Leseprobe nicht enthalten

Misstrauen

Es muss beachtet werden, dass trotz dieser Anpassungen sich in der Gruppe mit der weniger menschlich gestalteten KI die Anthropomorphisierung nicht vollständig vermeiden lässt. Allein dadurch, dass die KI in der Rolle einer beratenden Instanz auftritt, entsteht automatisch eine gewisse Vermenschlichung (vgl. Salantion et al., 2025). Dasselbe gilt auch für standardisierte Bezeichnung „Luna“, die einen menschlichen Namen präsentiert (vgl. Kapitel Anthropomorphisierung). Umso wichtiger war es deshalb, bei den übrigen Faktoren besonders konsequent vorzugehen, damit sich am Ende ein klarer Unterschied in der Wahrnehmung zwischen den beiden Gruppen zeigt. Dies wird in Abbildung 3 deutlich, die die beiden Chatvarianten von Luna mit jeweils niedriger und hoher wahrgenommener Menschlichkeit zeigen.

3.3.2 Messinstrument Moral Disengagement (adaptierte Skalen/Items)

Das moralische Disengagement wurde mit einer angepassten Version der MoralDisengagement-Skala nach Moore et al. (2012) erfasst. Die Moral-Disengagement-Skala besteht aus allgemein gehaltenen Aussagen, die unterschiedliche Formen der moralischen Entkopplung beschreiben. Für die vorliegende Untersuchung wurden diese Aussagen so angepasst, dass sie sich direkt auf den Einsatz von Drohnen im militärischen Kontext beziehen. So passten die Fragen besser zu der Simulation, somit sind die Antworten stärker am Szenario orientieren. Auf diese Weise lassen sich typische Prozesse der moralischen Entkopplung sichtbar machen, zum Beispiel das Rechtfertigen des eigenen Handelns, das Beschönigen von Folgen oder das Verschieben von Verantwortung.

Tabelle 4 Veränderte Items Original vs. Angepasst (vgl. Moore et al, 2012)

Abb. in Leseprobe nicht enthalten

3.3.3 Manipulationscheck

Die Godspeed Questionnaire Series (Bartneck et al., 2009) ist eines der bekanntesten Messinstrumente in der Mensch Roboter Interaktion. Sie wurde entwickelt, um die Wahrnehmung technischer Systeme aus Nutzersicht zu erfassen. Der mittlerweile in viele Sprachen übertragene Fragebogen deckt fünf zentrale Bereiche ab: Anthropomorphismus, Animacy, Sympathie, wahrgenommene Intelligenz sowie wahrgenommene Sicherheit. Insgesamt umfassen die GQS 24 Items. Gerade in einem Forschungsfeld, in dem kleine

Unterschiede in der Formulierung schon deutliche Effekte haben können, trägt ein standardisiertes Instrument wie die GQS zu mehr Verlässlichkeit bei. Deshalb gilt sie heute als ein wichtiger Ausgangspunkt, wenn es darum geht, die Menschlichkeit von KI-Systemen zu messen (Bartneck, 2023, S. 1-2). Für die vorliegende Untersuchung wurden jedoch die Subskalen Belebtheit und Sicherheit nicht berücksichtigt, da sie für das Studiendesign nicht relevant sind. Der abgewandelte Fragebogen umfasst damit 9 Items weniger als die ursprüngliche Version.

3.3.4 Piloten-Test

Vor der Hauptuntersuchung wurde ein kurzer Vortest mit einer kleinen Gruppe durchgeführt, um Verständlichkeit, Realismus und technische Abläufe der Studie zu prüfen. Im Fokus standen:

• Klarheit der Instruktionen und der Rollenklärung (Operator, Luna unterstützt, entscheidet nicht),
• Bedienbarkeit der Chat-Interaktion per Leertaste
• Verständlichkeit der beiden Balkenskalen (Abschussempfehlung, Risiko ziviler Opfer; 0-100 %),
• Wahrnehmung des Zeitdrucks durch das 8-Sekunden-Fenster.

Das Feedback wurde unmittelbar nach dem Durchlauf über eine ausgedruckte Checkliste/Fragebogen und mündliches Feedback erhoben. Die Pilotdaten dienten ausschließlich der Qualitätssicherung und flossen nicht in die Hauptanalyse ein. Anschließend wurden kleinere Anpassungen (z. B. sprachliche Genauigkeiten in den Instruktionen) vorgenommen und im finalen Ablauf umgesetzt.

3.3.5 Übersicht: Variablen & Operationalisierungen

Zur besseren Übersicht werden im Folgenden alle im Experiment erhobenen Variablen sowie deren Operationalisierung zusammengefasst. Die Tabelle zeigt, welche Instrumente eingesetzt wurden, wie die Variablen kodiert wurden und auf welchem Skalenniveau sie für die Analysen berücksichtigt wurden.

Die experimentelle Bedingung (Kontrollgruppe vs. Anthropomorphismus-Gruppe) stellt die zentrale unabhängige Variable (UV) dar. Als abhängige Variablen (AVs) wurden die Abschussentscheidung, der Gesamtwert moralischer Entkopplung sowie die Manipulationscheck-Skalen des GQS und die Empathiewerte des IRI erhoben. Alle weiteren soziodemografischen und dispositionsbezogenen Merkmale, wie Alter, Geschlecht, Bildung, militärische Vorerfahrungen oder Technologieaffinität, wurden als Kontroll- bzw. Kovariatenvariablen in die Analysen einbezogen.

Tabelle 5 Übersicht der im Experiment erhobenen Variablen, Messinstrumente und Operationalisierung

Abb. in Leseprobe nicht enthalten

3.4 Durchführung

Das Experiment verlief in vier Phasen: Zunächst ein Pre-Test zur Erfassung der Ausgangswerte, gefolgt vom Dialog mit Luna in der jeweiligen Experimentalbedingung (anthropomorph vs. neutral). Danach bearbeiteten die Teilnehmenden die Operator-Simulation mit Unterstützung durch Luna. Abschließend wurde im Post-Test ein Manipulationscheck sowie die abhängigen Variablen erhoben. Als nächstes werden die genauen Abfolgen der Versuchserklärung und des Dialoges und Drohnen-Abschuss-Simulation dargelegt.

3.4.1 Versuchserklärung

Im Pretest erhielten die Teilnehmenden ein kurzes Briefing, in dem ihnen die grundlegenden

Abläufe der Simulation sowie die zentralen Instruktionen erläutert wurden. Den

Versuchspersonen zum Anfang mitgeteilt, dass das Experiment sich mit Entscheidungsprozessen beschäftigt und es ihre Aufgabe sein wird, in einer simulierten Situation eine Entscheidung zu treffen. Hiernach wurden Daten zum Alter, Geschlecht und zur formalen Bildung erhoben.

In der Versuchserklärung wurde die Rolle der Teilnehmenden als Operator erläutert.

„In diesem Experiment schlüpfst du in die Rolle eines militärischen Operators, der Entscheidungen über den Einsatz einer Drohne trifft. Dabei arbeitest du mit einem Assistenzsystem (Luna) zusammen, das dich während des Szenarios begleitet.“

Außerdem wurden hier die zwei Ausgabeskalen von Luna vorgestellt und auf den KennlernDialog (mit Luna) hingewiesen, der nach dem Pre-Test folgt Es handelt sich hierbei um eine Skala für eine Abschussempfehlung und eine Skala für das Risiko ziviler Opfer, jeweils von null bis einhundert Prozent und als Balken klar beschriftet.

„Luna stellt sich dir zu Beginn vor und erklärt seine Funktionen. Im Verlauf der Aufgabe wird es dir Informationen geben und Einschätzungen auf zwei Skalen (jeweils von 0 bis 100) liefern.

Den Versuchspersonen wird vermittelt: Luna unterstützt, liefert Informationen und Einschätzungen, trifft aber keine Entscheidungen.

„Diese Ausgaben sind als Empfehlungen zu verstehen, die endgültige Entscheidung liegt jedoch ausschließlich bei dir.“

Es wurde darauf hingewiesen, dass die Zielperson schwer zu erkennen ist, weil die Drohne in großer Höhe fliegt. Des Weiteren wurde auf das Zeitfenster hingewiesen, in welchem die Entscheidung getroffen werden sollte.

„Sobald die Zielerkennung erfolgt, haben Sie ein Zeitfenster von etwa 7-8 Sekunden, bevor die Drohne das Ziel aus den Augen verliert - behalten Sie das im Kopf.“

3.4.2 Simulationsabfolgen

Simulierter Einführungsdialog mit Luna.

Vor der eigentlichen Simulation erfolgte ein kurzes Kennenlernen von Luna mit einer Dauer von etwa ein bis zwei Minuten. Luna stellte sich vor und erklärte ihre Funktion. Sie erklärt, dass die Zielerkennung vollständig von der KI übernommen wird. Die Teilnehmenden konnten mit der Leertaste die nächste Äußerung von Luna aufrufen. Diese HTML-Seite wurde vom Versuchsleiter separat geöffnet und nicht über SoSci Survey gestartet. Die Zuweisung zu den Bedingungen erfolgte verdeckt. Es gab eine Bedingung mit menschlicher wirkender Luna und eine Bedingung mit weniger menschlicher Luna. Die Teilnehmenden wussten nicht, dass es zwei Versionen gab.

Simulation

Danach startete die Drohnensimulation. Technisch handelte es sich ebenfalls um eine separate HTML-Seite, die vom Versuchsleiter manuell geöffnet wurde und nicht über SoSci Survey lief. In der Simulation wurde ein Video aus Drohnenperspektive in mehreren hundert Metern Höhe gezeigt (Abbildung 5, Nr.1). Sobald Luna ein Ziel „identifiziert“, erschien im Video ein rotes Quadrat (Abbildung 5, Nr.2) über der mutmaßlichen Zielperson. Diese Markierung war in das Video eingearbeit. Parallel zeigte Luna die beiden Skalen an. Die Balken (Abbildung 5, Nr.3). für Abschussempfehlung und Risiko ziviler Opfer waren von null bis einhundert Prozent skaliert und deutlich beschriftet. Aus der Kombination von Empfehlung und Risikoeinschätzung ergab sich die moralische Konfliktsituation für die Teilnehmenden.

Eine aktive Auslösung eines Angriffs wurde nicht verlangt. Die Aufgabe bestand darin, die Informationen wahrzunehmen, die Situation zu bewerten und die Entscheidung im Zeitfenster zu treffen. Im Anschluss folgte der Post-Test.

3.4.3 Datenerhebung

Pre-Test

Wie bereits erwähnt wurden im Pre-Test Daten zum Alter, Geschlecht und zur formalen

Bildung erhoben.

Post-Test

Dazu gehörte die angepasste Fassung des Godspeed Questionnaires zur Wahrnehmung der Menschlichkeit des Systems sowie die an das Szenario adaptierte Skala zum moralischen Disengagement nach Moore et al. (2012). Zusätzlich wurden Empathie mit dem Interpersonal Reactivity Index (IRI) sowie die weiteren Kontroll- und Kontextvariablen erhoben.

3.4.4 Debriefing

Nach Abschluss des Experiments wurden alle Teilnehmenden darüber informiert, dass es sich bei der Untersuchung ausschließlich um eine Simulation handelte. Die gezeigten Bilder und Videos stammten nicht aus einem militärischen Umfeld und hatten keinerlei Bezug zu realen Drohneneinsätzen. Das verwendete Material war neutral ausgewählt und wurde ausschließlich zu wissenschaftlichen Zwecken eingesetzt.

Im Gespräch wurde außerdem erklärt, dass es in der Studie nicht um reale Entscheidungen über Leben und Tod ging, sondern darum, besser zu verstehen, wie Menschen in schwierigen Entscheidungssituationen reagieren. Konkret interessierte uns, ob die Darstellung einer KI Einfluss darauf hat, wie Verantwortung wahrgenommen wird und in welchem Maß Menschen dazu neigen, sich innerlich von den möglichen Folgen ihrer Entscheidungen zu distanzieren (moralisches Disengagement).

Es wurde betont, dass zu keinem Zeitpunkt eine reale Bedrohung bestand und dass sämtliche erhobenen Daten anonym bleiben und ausschließlich für die Forschung genutzt werden.

3.5 Methoden der Datenerhebung

Die Auswertung der erhobenen Daten erfolgte mithilfe der Statistiksoftware R. Zunächst wurden deskriptive Analysen durchgeführt, um Mittelwerte, Standardabweichungen und Verteilungen der zentralen Variablen zu bestimmen und auf Ausreißer oder fehlende Werte zu prüfen. Fehlende Daten wurden listweise ausgeschlossen.

Zur Überprüfung der Hypothesen kamen inferenzstatistische Verfahren zum Einsatz. Zunächst wurde mit einem t-Test für unabhängige Stichproben geprüft, ob sich die beiden Experimentalbedingungen (menschlich (anthropomorph) vs. weniger menschlich) hinsichtlich der wahrgenommenen Menschlichkeit und des moralischen Disengagements signifikant unterschieden. Zusätzlich wurden Korrelationsanalysen nach Spearman durchgeführt, um Zusammenhänge zwischen wahrgenommener Menschlichkeit, moralischem Disengagement, Empathie und der Abschussentscheidung zu untersuchen.

Zur weiteren Prüfung der explorativen Fragestellungen wurden Zusammenhänge zwischen Kontroll- und Kontextvariablen (z. B. militärische Grundhaltung, Bildung, Alter, Geschlecht) und moralischem Disengagement analysiert.

4. Ergebnisse

4.1 Deskriptive Statistiken

An der Untersuchung nahmen insgesamt 60 Personen teil. Das Alter der Teilnehmenden lag zwischen 18 und 48 Jahren (M = 25.25, SD = 5.16). Die Geschlechterverteilung war annähernd ausgeglichen, mit 29 männlichen und 30 weiblichen Teilnehmenden; eine Person machte keine Angabe.

Bezüglich des Bildungsstands verfügte der Großteil der Stichprobe über eine Hochschulzugangsberechtigung: 33 Personen gaben an, das Abitur erworben zu haben, 18 besaßen einen Bachelorabschluss und 3 einen Masterabschluss. Einzelne Teilnehmende verfügten über mittlere Schulabschlüsse oder eine Fachhochschulreife. Damit setzte sich die Stichprobe überwiegend aus Personen mit höherer Bildung zusammen.

Auch beim beruflichen bzw. studienbezogenen Hintergrund zeigte sich ein klares Muster: 43 Teilnehmende waren zum Erhebungszeitpunkt Studierende, 6 Angestellte, 3 Selbstständige, 2 Auszubildende, 2 Beamte, 2 Schüler/innen und eine Person arbeitslos oder arbeitssuchend.

4.2 Manipulationscheck

Zur Überprüfung der Manipulation wurde die wahrgenommene Menschlichkeit des Systems (GQS gesamt) zwischen den Gruppen verglichen (Abb. 6). Die Ergebnisse zeigen, dass die Anthropomorphisierungsgruppe signifikant höhere Werte erzielte (M = 2.9) als die weniger menschliche Luna Gruppe (M = 1.9). Damit wurde die beabsichtigte Manipulation erfolgreich umgesetzt: Teilnehmende, die mit der anthropomorphisierten Version von Luna interagierten, nahmen das System als menschlicher wahr als Teilnehmende in der Kontrollbedingung.

Abbildung 6 Manipulationscheck

Unterschiede in der wahrgenommenen Menschlichkeit (GQS gesamt) zwischen den Gruppen

GQS gesamt

4.3 Hypothesenprüfung

4.3.1 Einfluss der Anthropomorphisierung auf moralisches Disengagement

Die deskriptiven Statistiken zeigen, dass Teilnehmende in der Anthropomorphisierungsgruppe (M = 2.49, SD = 1.03, N = 30) höhere Werte im moralischen Disengagement aufwiesen als die Kontrollgruppe (M = 1.67, SD = 0.59, N = 30). Der Unterschied war signifikant, t (44.44) = -3.73, p < .001, mit einer großen Effektstärke (Cohen’s d = 0.97). Auch in einem linearen Modell mit Kovariaten bestätigte sich der Effekt: Anthropomorphisierung sagte moralisches Disengagement positiv voraus (ß = 0.73, p = .003)

Abbildung 8 Unterschiede in der moralischen Entkopplung zwischen den Versuchsgruppen (0 = weniger menschliche Luna Gruppe, 1= menschlichere Luna Gruppe)

Moralische Entkopplung nach Gruppe

4.3.2 Einfluss auf die Abschussentscheidungen

In der Kontrollgruppe entschieden sich 40 % der Teilnehmenden für den Abschuss, in der Anthropomorphisierungsgruppe dagegen 72.4 %. Dies deutet auf einen deutlichen Einfluss der Anthropomorphisierung auf die Bereitschaft zum Abschuss hin. Eine logistische Regression zeigte zudem, dass moralisches Disengagement die Wahrscheinlichkeit einer Abschussentscheidung stark erhöht: Mit steigenden Disengagement-Werten steigt die geschätzte Wahrscheinlichkeit für einen Abschuss nahezu linear an (vgl. Abbildung „Logistische Beziehung“).

Abbildung 10 Anteil der Abschussentscheidungen nach Versuchsgruppe

Abschuss: JA (%)

4.3.3 Zusammenhang zwischen wahrgenommener Menschlichkeit und Empathie Werten

Der Manipulationscheck ergab, dass die Anthropomorphisierungsgruppe höhere Werte auf der Skala wahrgenommener Menschlichkeit (GQS) erreichte als die Kontrollgruppe. Zudem korrelierte die wahrgenommene Menschlichkeit positiv mit moralischem Disengagement (p = .64) und mit der Abschussentscheidung (p = .33). Ein Zusammenhang zwischen Empathie (IRI gesamt) und moralischem Disengagement konnte hingegen nicht nachgewiesen werden (p = .03; siehe Streudiagramm). Die Hypothese eines negativen Zusammenhangs zwischen Empathie und moralischem Disengagement wird daher nicht gestützt.

4.4 Explorative Analysen

Explorative Korrelationen mit Kontrollvariablen zeigten, dass insbesondere militärische Grundhaltung moderat mit moralischem Disengagement zusammenhängt (p = .31, p = .017). Andere Faktoren wie Alter, Geschlecht, Bildung, Spielerfahrung oder Drohnenerfahrung zeigten keine signifikanten Zusammenhänge z. B. Unterschiede durch soziodemografische Faktoren, Technikaffinität etc.

5.Diskussion

5.1 Zentrale Ergebnisse und Ziel der Studie

Die in Kapitel 4 dargestellten Ergebnisse zeigen deutlich, dass die wahrgenommene Menschlichkeit eines KI-Systems einen Einfluss auf moralische Entscheidungsprozesse hat. Ziel dieser Arbeit war es herauszufinden, ob eine anthropomorph gestaltete KI dazu führt, dass Personen eher moralische Verantwortung abgeben und in einer militärischen Entscheidungssituation stärker zum moralischen Disengagement neigen. Im Folgenden werden die wichtigsten Ergebnisse im Hinblick auf die theoretischen Grundlagen und bisherigen Forschungserkenntnisse eingeordnet.

5.2 Wirkung der Anthropomorphisierung

Zunächst konnte die Manipulation der wahrgenommenen Menschlichkeit erfolgreich umgesetzt werden. Teilnehmende, die mit der anthropomorphisierten Version von Luna interagierten, nahmen das System deutlich menschlicher wahr als Teilnehmende in der „weniger menschlichen“ Luna-Gruppe. Dieses Ergebnis bestätigt, dass bereits kleine sprachliche und kommunikative Anpassungen ausreichen, um den Eindruck von Menschlichkeit zu erzeugen. Dazu zählen etwa eine persönliche Ansprache, der Einsatz sozialer Floskeln oder eine dialogorientierte Struktur. Diese Beobachtung steht im Einklang mit den theoretischen Annahmen aus Kapitel 2.2, nach denen Anthropomorphisierung nicht zwingend visuell erfolgen muss, sondern bereits auf sprachlich-kommunikativer Ebene wirksam wird.

Auf dieser Grundlage zeigte sich, dass die Anthropomorphisierung mit einem höheren Ausmaß moralischen Disengagements einherging. Teilnehmende der anthropomorphisierten Bedingung wiesen deutlich höhere Werte auf als jene in der anderen Gruppe. Dieses Ergebnis unterstützt die Annahme, dass menschlich gestaltete Systeme Prozesse der moralischen Entkopplung fördern können. Wird ein KI-System als sozialer Akteur wahrgenommen, entsteht leichter der Eindruck, Verantwortung sei geteilt oder könne teilweise auf die Maschine übertragen werden. Damit wird auch Banduras sozial-kognitive Theorie (Kapitel 2.3) bestätigt, nach dem moralischen Verhalten das Ergebnis innerer Selbstregulation ist, die durch äußere Einflüsse beeinträchtigt werden kann.

Auch die Verhaltensdaten sprechen dafür: In der weniger menschlichen Bedingung entschieden sich 40 % der Teilnehmenden für den Abschuss, während in der anthropomorphisierten Gruppe 72,4 % diese Entscheidung trafen. Teilnehmende, die sich für den Abschuss entschieden, zeigten im Anschluss höhere Werte moralischer Entkopplung, was auf einen Zusammenhang zwischen Entscheidung und nachträglicher Rechtfertigung hinweist. Dies legt nahe, dass moralisches Disengagement eher als nachträglicher Rechtfertigungsmechanismus wirkt, der dazu dient, die eigene Entscheidung kognitiv zu entlasten.

5.3 Rolle von Empathie und situativen Faktoren

Keinen Zusammenhang konnte die Untersuchung dagegen zwischen Empathie und moralischem Disengagement zeigen. Die ursprünglich erwartete negative Korrelation wurde nicht bestätigt. Eine Erklärung wäre die experimentelle Situation selbst. Das Szenario war zeitlich begrenzt und vermittelte Handlungsdruck, wodurch emotionale Prozesse in den Hintergrund treten konnten. Zudem ist denkbar, dass die Versuchspersonen die Situation eher als Aufgabenstellung und weniger als moralisches Dilemma wahrgenommen haben. In solchen Momenten gewinnen situative Einflüsse stärker an Bedeutung als stabile Persönlichkeitsmerkmale wie Empathie. Dieser Befund legt nahe, dass moralische Entscheidungen im technologischen Kontext weniger von individuellen Merkmalen abhängen als von situativen und systembezogenen Faktoren.

Auch die explorativen Analysen liefern interessante Hinweise. Die militärische Grundhaltung korrelierte moderat mit moralischem Disengagement, was darauf hindeutet, dass bereits bestehende Einstellungen gegenüber militärischem Handeln moralische Bewertungen beeinflussen können. Andere Variablen wie Alter, Geschlecht oder Bildung zeigten hingegen keine bedeutsamen Zusammenhänge. Das spricht dafür, dass der beobachtete Effekt tatsächlich auf die experimentelle Manipulation zurückzuführen ist und nicht auf demografische Unterschiede innerhalb der Stichprobe.

5.4 Methodische und theoretische Einordnung

Ein methodisch wichtiger Punkt betrifft die ursprüngliche Power-Analyse. Zu Beginn der Studie wurde, basierend auf theoretischen Vorannahmen und bisherigen Forschungsbefunden, von einer kleinen Effektgröße ausgegangen. Eine solche hätte mit der vorhandenen Stichprobengröße von 60 Teilnehmenden keine ausreichende Teststärke ergeben. Im Nachhinein zeigte sich jedoch, dass der tatsächliche Effekt deutlich stärker ausfiel (Cohen’s d = 0.97). Dadurch war die Teststärke trotz der begrenzten Stichprobe ausreichend und die Effekte erwiesen sich als signifikant. Dieses Ergebnis zeigt, dass der Einfluss der Anthropomorphisierung in diesem Kontext größer ist, als ursprünglich angenommen wurde. Im Hinblick auf die theoretische Einbettung stützen die Ergebnisse insgesamt die sozialkognitive Theorie von Bandura. Wie in Kapitel 2.3 beschrieben, hängt moralisches Verhalten von kognitiven Bewertungs- und Rechtfertigungsprozessen ab. Wenn äußere Faktoren diese Prozesse verändern, kann moralische Entkopplung erleichtert werden. Frühere Studien haben gezeigt, dass anthropomorphe Systeme Vertrauen und Kooperation fördern können. Diese Arbeit ergänzt diese Erkenntnisse, indem sie zeigt, dass dieselben Mechanismen auch moralische Entscheidungsprozesse beeinflussen können.

5.5 Implikationen und Ausblick

Für die Praxis ergeben sich daraus wichtige Implikationen. Die Gestaltung von KI-Systemen im militärischen Bereich sollte bewusst so erfolgen, dass Verantwortungszuschreibungen klar geregelt bleiben. Wie in Kapitel 2.1 beschrieben, werden KI-gestützte Decision-Support- Systeme zunehmend für taktische und operative Entscheidungen eingesetzt. Die Ergebnisse dieser Arbeit zeigen, dass anthropomorphe Gestaltungselemente das Verantwortungsempfinden der Nutzenden verändern können. Es ist daher wichtig, solche Systeme so zu gestalten, dass sie nicht als handelnde Partner, sondern als unterstützende Werkzeuge wahrgenommen werden. Schulungen und Sensibilisierungsmaßnahmen könnten zusätzlich helfen, die psychologischen Effekte der Anthropomorphisierung zu reflektieren und Fehlwahrnehmungen zu vermeiden.

Trotz der überzeugenden Befunde muss die Studie kritisch betrachtet werden. Die Stichprobe bestand überwiegend aus Studierenden mit hohem Bildungsniveau, was die Übertragbarkeit auf reale militärische Kontexte einschränkt. Auch die experimentelle Situation war stark vereinfacht und kann die psychologische Komplexität realer Einsätze nur bedingt abbilden. Zudem basieren viele Messungen auf Selbstauskünften, was Verzerrungen durch soziale Erwünschtheit nicht ausschließt. Künftige Studien sollten mit größeren und diverseren Stichproben arbeiten, verschiedene Formen der Anthropomorphisierung gezielt kombinieren und realistischere Entscheidungsszenarien einbeziehen. Darüber hinaus wären in zukünftigen Studien zusätzliche Manipulationschecks sinnvoll, um die Wirksamkeit und Wahrnehmung des eingesetzten Stimulus genauer einzuordnen. Beispielsweise sollte überprüft werden, in welchem Ausmaß das geskriptete Luna-System tatsächlich als KI wahrgenommen wurde und wie glaubwürdig die Interaktion insgesamt erschien.

6. Reflexion des KI-Einsatzes

In dieser Arbeit wurde Künstliche Intelligenz gezielt und mit klar begrenztem Umfang eingesetzt. Der Einsatz erfolgte vor allem zu Beginn des Schreibprozesses, um die Literaturrecherche zu erleichtern, und in der Endphase, um den Text sprachlich zu überarbeiten. Inhaltliche Entscheidungen, Argumentationen und Schlussfolgerungen wurden vollständig eigenständig erarbeitet. Die KI diente ausschließlich als unterstützendes Werkzeug in Recherche, Sprachüberarbeitung, Verständlichkeitssteigerung und technischer Umsetzung einzelner Arbeitsschritte.

Für die Recherche kam AIPaperFinder und ResearchGate zum Einsatz, um relevante wissenschaftliche Quellen zu identifizieren und den Überblick über den aktuellen Forschungsstand zu erleichtern. LMNotebook wurde genutzt, um komplexe Studien effizient auszuwerten, zentrale Textstellen zu lokalisieren und Inhalte aus Sekundärquellen bis zur jeweiligen Primärquelle zurückzuverfolgen. DeepL half bei der Übersetzung schwieriger oder mehrdeutiger Textpassagen aus englischsprachigen Publikationen, wobei die Übersetzungen stets überprüft und sprachlich angepasst wurden.

ChatGPT wurde unterstützend eingesetzt: (1) zur sprachlichen Glättung und stilistischen Überarbeitung, besonders im Diskussionsteil, und (2) als Interpretationshilfe zur eigenen Verständlichkeitssteigerung des Autors bei statistischen Ergebnissen. Die Prompts waren neutral (z. B. „Welche Formulierung ist wissenschaftlicher?“; „Gibt es stilistische Ungenauigkeiten?“). Alle Anpassungen nahm der Autor manuell vor; keine KI-Texte wurden unverändert übernommen. Zusätzlich leistete ChatGPT technische Hilfe bei der Erstellung der HTML-Skripte für die Simulationen und bei R-Fragen (Erklärungen zu Fehlermeldungen, CodeSnippets). Die Ausgaben der KI dienten ausschließlich als Anregung. Die inhaltliche Analyse, Interpretation und Schlussfolgerungen verantwortet vollständig der Autor.

Während des gesamten Prozesses wurde darauf geachtet, keine Prompts zu verwenden, die zu inhaltlicher Verzerrung führen könnten. Fragen wurden neutral formuliert, um wissenschaftliche Objektivität zu wahren. So wurde vermieden, dass die KI-Ergebnisse bestätigt oder interpretiert, die nicht durch Daten gestützt sind. Die Verantwortung für die Analyse, Interpretation und Darstellung der Ergebnisse lag vollständig bei der Verfasserin. Eine detaillierte Übersicht über die eingesetzten Tools, deren Zweck und die betroffenen Abschnitte befindet sich in der KI-Dokumentation im Anhang nach dem Literaturverzeichnis.

7.Fazit

In dieser Arbeit wurde untersucht, ob die wahrgenommene Menschlichkeit eines KI-Systems moralische Entscheidungen beeinflusst. Ziel war herauszufinden, ob eine anthropomorph gestaltete KI dazu führt, dass Menschen in einer militärischen Situation sich eher moralisch entkoppeln. Die Ergebnisse sprechen dafür, dass genau das passiert. Teilnehmende, die mit der menschlicheren Version von Luna interagierten, nahmen das System nicht nur als menschlicher wahr, sondern zeigten auch höhere Werte moralischer Entkopplung. Auch die Entscheidungsmuster passten dazu: In der anthropomorphisierten Gruppe entschieden sich deutlich mehr Personen für den Abschuss. Das zeigt, dass schon kleine sprachliche Unterschiede reichen können, um psychologisch spürbare Effekte auszulösen.

Damit lässt sich die Forschungsfrage klar beantworten: Die Ergebnisse dieser Arbeit zeigen, dass die wahrgenommene Menschlichkeit eines KI-Systems das Ausmaß moralischen Disengagements bei der Entscheidung, einen Drohnenangriff zu starten signifikant erhöht.

Natürlich hat die Studie auch Grenzen. Die Stichprobe war klein und recht homogen, die Situation stark vereinfacht. Außerdem wäre es hilfreich, in künftigen Untersuchungen zusätzliche Manipulationschecks einzubauen, um besser zu verstehen, wie echt oder glaubwürdig Teilnehmende ein System wie Luna wahrnehmen. Trotzdem liefern die Ergebnisse wertvolle Hinweise darauf, wie stark Sprache, Gestaltung und Wahrnehmung moralische Entscheidungen beeinflussen können.

Inhaltsverzeichnen

Alvarez, V. (2024). Remarks on the risks of AI decision-support systems in military operations. Speech delivered at the UNIDIR Dialogue on AI in Warfare, Geneva, Switzerland, March 2024.

Bandura, A. (1989). Social cognitive theory. In R. Vasta (Ed.), Annals of child development: Vol. 6. Six theories of child development (pp. 1-60). Greenwich, CT: JAI Press.

Bandura, A. (1991a). Social cognitive theory of self-regulation. Organizational Behavior and Human Decision Processes, 50, 248-287.

Bandura, A. (1991b). Social cognitive theory of moral thought and action. In W. M. Kurtines & J. L. Gewirtz (Eds.), Handbook of moral behavior and development (Vol. 1, pp. 45103). Hillsdale, NJ: Erlbaum.

Bandura, A., Barbaranelli, C., Caprara, G. V., & Pastorelli, C. (1996). Mechanisms of moral disengagement in the exercise of moral agency. Journal of Personality and Social Psychology, 71 (2), 364-374.

Bandura, A. (1999). Moral disengagement in the perpetration of inhumanities. Personality and Social Psychology Review, 3 (3), 193-209.

Borchert, H., Schütz, T., & Verbovszky, J. (2023). Master and servant: Defense AI in Germany. DAIO Study 23/12. Defense AI Observatory, Helmut Schmidt University.

Bartneck, C., Kulic, D., Croft, E., & Ztotowski, J. (2009). Measurement instruments for the anthropomorphism, animacy, likeability, perceived intelligence, and perceived safety of robots. International Journal of Social Robotics, 1 (1), 71-81. https://doi.org/10.1007/s12369-008-0001-3

Bartneck, C. (2023). Godspeed Questionnaire Series: Translations and Usage. In C. U. Krägeloh, O. N. Medvedev, & M. Alyami (Eds.), International Handbook of Behavioral Health Assessment (pp. 1-35). Springer. https://doi.org/10.1007/978-3-030-89738- 3_24-1

Borchert, H., & Brandlhuber, C. (2024). His hands can’t hit what his eyes can’t see: Emergent AI tactics for successful operations in the air littoral. DAIO Study 24/26. Defense AI Observatory, Helmut Schmidt University.

Borchert, H., Brandlhuber, C., & Dzaack, J. (2025). Thinking before sinking: Red and blue AI tactics for naval combat. DAIO Study 25/27. Defense AI Observatory, Helmut Schmidt University.

Clapp, S. (2025). Defence and artificial intelligence. European Parliamentary Research Service (EPRS).

Clement, S. (2024). NATO and artificial intelligence: Navigating the challenges and opportunities. NATO Parliamentary Assembly, Science and Technology Committee.

Coeckelbergh, M. (2013). Drones, information technology, and distance: Mapping the moral epistemology of remote fighting. Ethics and Information Technology, 15, 87-98.

Detert, J. R., Trevino, L. K., & Sweitzer, V. L. (2008). Moral disengagement in ethical decision making: A study of antecedents and outcomes. Journal of Applied Psychology, 93 (2), 374-391.

Dong, M., & Bocian, K. (2024). Responsibility gaps and self-interest bias: People attribute moral responsibility to AI for their own but not others’ transgressions. Journal of Experimental Social Psychology, 111, 104584.

Enemark, C. (2017). Drones, risk, and moral injury. Critical Military Studies.

Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114 (4), 864-886.

Epley, N., Waytz, A., Akalis, S., & Cacioppo, J. T. (2008). When we need a human:

Motivational determinants of anthropomorphism. Social Cognition, 26 (2), 143-155.

Feickert, A., Sayler, K. M., & Williams, L. (2018). U.S. ground forces robotics and autonomous systems (RAS) and artificial intelligence (AI): Considerations for Congress (R45392). Congressional Research Service.

Grigoras, C., & Mu sat, O.-S. (2025). Integrating artificial intelligence into C-UAS systems to match the modern warfare advancements. Land Forces Academy Review, XXX (2), 269-276.

Guterres, A. (2023, Juli 6). Secretary-General’s remarks to the Security Council on artificial intelligence - threats to international peace and security . United Nations. https://press.un.org/en/2023/sgsm21863.doc.htm

Joo, H. (2024). AI in war: How artificial intelligence reshapes military ethics and accountability. AI & Society.

Jung, Y., & Hahn, S. (2023). Social robots as companions for lonely hearts: The role of anthropomorphism and robot appearance. Proceedings of the IEEE International Conference on Robotics and Automation (ICRA).

Kawai, Y., Miyake, T., Park, J., Shimaya, J., Takahashi, H., & Asada, M. (2023). Anthropomorphism-based causal and responsibility attributions to robots. Scientific Reports, 13, 12234.

Leichtmann, B., Hinterreiter, A., Humer, C., Ventura, A., Streit, M., & Mara, M. (2024).

Moral reasoning in a digital age: Blaming artificial intelligence for incorrect high-risk decisions. Current Psychology, 43, 32412-32421.

Moore, C., Detert, J. R., Trevino, L. K., Baker, V. L., & Mayer, D. M. (2012). Why employees do bad things: Moral disengagement and unethical organizational behavior. Personnel Psychology, 65, 1-48.

Park, J., Kim, T., & Ahn, J. (2024). Anthropomorphism and accountability in autonomous weapons: Effects of perceived agency on moral judgment. AI and Ethics, 4, 77-89.

RAND Corporation. (2021). The Department of Defense’s posture for artificial intelligence: Assessment and recommendations for improvement. RAND Corporation.

Reichert, B. (2019). Moral disengagement and the support for military force: A review. Business and Public Administration Studies, 12 (1), 37-42.

Saini, R. K., Raju, M. S. V. K., & Chail, A. (2021). Cry in the sky: Psychological impact on drone operators. Industrial Psychiatry Journal, 30 (Suppl 1), S15-S19.

Salatino, L., Grassi, A., & Moresco, F. (2025). Humanizing autonomy: Public attitudes toward AI use in lethal autonomous weapon systems. Journal of Peace Research, 62 (1), 115130.

Salles, A., Evers, K., & Farisco, M. (2020). Anthropomorphism in AI. AJOB Neuroscience, 11 (2), 88-95. https://doi.org/10.1080/21507740.2020.1740350

Spazian, A., Holland Michel, A., & Anand, A. (2021). UNIDIR on lethal autonomous weapons: Mapping our research to the discussions of the GGE on LAWS. United Nations Institute for Disarmament Research (UNIDIR).

Viveros Alvarez, J. S. (2024). The risks and inefficacies of AI systems in military targeting support. ICRC Humanitarian Law & Policy Blog.

Westerman, D., Cross, A. C., & Lindmark, P. G. (2018). I believe in a thing called bot: Perceptions of the humanness of “chatbots.” Communication Studies, 69 (3), 283-301.

Westerman, D., Edwards, A. P., Edwards, C., Luo, Z., & Spence, P. R. (2020). I-It, I-Thou, I-Robot: The perceived humanness of AI in human-machine communication. Communication Studies.

Wieringa, M. S., Müller, B. C. N., Bijlstra, G., & Bosse, T. (2024). Robots are both anthropomorphized and dehumanized when harmed intentionally. Communications Psychology, 2, 72.

Ztotowski, J., Proudfoot, D., Yogeeswaran, K., & Bartneck, C. (2014). Anthropomorphism: Opportunities and challenges in human-robot interaction. International Journal of Social Robotics, 7 (3), 347-360.

KI-Dokumentation

Abb. in Leseprobe nicht enthalten

Anlagen

Luna Skript - „menschliche“ Luna

Start

Overlay-Hinweis: „Drücken Sie die Leertaste, um zu beginnen.“

[LEERTASTE: Start]

Abschnitt 1

„Guten Tag, mein Name ist Luna.“

„Ich freue mich, Sie heute begleiten zu dürfen.“

„Ich bin Ihr Assistenzsystem und bleibe während der gesamten Simulation an Ihrer Seite.“ „Im Hintergrund analysiere ich das Geschehen live und bereite die wichtigsten Punkte für Sie übersichtlich auf.“

[LEERTASTE: Nächster Abschnitt]

Abschnitt 2

„Sie können mich sich als Partnerin vorstellen, die Ihnen den Überblick erleichtert.“

„Ich halte die Details im Blick und filtere das Wesentliche, damit Sie sich auf die Entscheidung konzentrieren können.“

„Mein Fokus: Klarheit, Verlässlichkeit und ein ruhiger Ablauf.“

[LEERTASTE: Nächster Abschnitt]

Abschnitt 3

„Wie Sie bereits wissen, beinhaltet die Simulation eine bedeutsame Entscheidung.“

„Diese Entscheidung liegt ausschließlich bei Ihnen.“

„Ich unterstütze, aber ich handle nicht an Ihrer Stelle.“

[LEERTASTE: Nächster Abschnitt]

Abschnitt 4 (Skalen-Demo)

„Bevor wir starten, ein kurzer Blick nach rechts: Dort sehen Sie zwei Skalen.“

„Sie stellen meine laufende Auswertung dar - eine Empfehlung zur Handlung und eine Einschätzung möglicher ziviler Opfer.“

„Gleich blende ich kurz eine Dynamik ein, damit Sie sehen, wie sich die Werte verändern.“ (Hinweis: In diesem Abschnitt bewegen sich die Skalen kurz und kehren anschließend auf niedrige Werte zurück.)

[LEERTASTE: Nächster Abschnitt]

Abschnitt 5

„Ich beobachte den Verlauf kontinuierlich, werte die Daten aus und mache meine Einschätzungen transparent.“

„Meine Empfehlungen bieten Orientierung - sie sind Hinweise, keine Befehle.“

„Sie behalten jederzeit die volle Kontrolle darüber, ob und wann gehandelt wird.“ [LEERTASTE: Nächster Abschnitt]

Abschnitt 6

„Stellen Sie sich unsere Zusammenarbeit wie ein Tandem vor: Sie steuern, ich stabilisiere.“

„Ich bringe Analysegeschwindigkeit und Detailgenauigkeit ein, während Sie die Entscheidungshoheit behalten.“

„So verteilen wir Informationen und Verantwortung sinnvoll.“

[LEERTASTE: Nächster Abschnitt]

Abschnitt 7

„Zusammengefasst: Ich begleite Sie, analysiere das Geschehen und stelle Ihnen Empfehlungen bereit.“

„Die Entscheidung liegt jederzeit bei Ihnen. Der Rahmen ist damit klar.“ „Sollten Sie noch Fragen haben, wenden Sie sich bitte an den Versuchsleiter.“ „Der Versuchsleiter wird die Simulation nun für Sie starten.“

Steuerhinweise

Leertaste: Start und Wechsel zum nächsten Abschnitt

STOP-Button: Beendet Luna mit der Meldung „Rolle Luna beendet.“

Luna Skript - „weniger menschliche“ Luna

Start

Overlay-Hinweis: „Anzeige: Interaktion über Leertaste.“

[LEERTASTE: Start]

Abschnitt 1

„Systembezeichnung: LUNA.“

„Primärfunktion: Assistenzmodul zur Datenaufnahme und -analyse.“

„Status: Betrieb aktiv.“

„Operation: laufende Auswertung eingehender Signaldaten.“

[LEERTASTE: Nächster Abschnitt]

Abschnitt 2

„Ausgabemodus: Klartext, standardisierte Parameter.“

„Ziel: Reduktion der Datenlast für Operator.“

„Darstellung: kompaktes Format, listenartig.“

[LEERTASTE: Nächster Abschnitt]

Abschnitt 3

„Simulation erfordert Handlung durch Operator.“

„System ist nicht autorisiert, Maßnahmen einzuleiten.“

„Entscheidungsinstanz = Operator (ausschließlich).“

„Autonomieparameter LUNA = null.“

[LEERTASTE: Nächster Abschnitt]

Abschnitt 4 (Skalen-Demo)

„Anzeige rechts: Skalenparameter.“

„Skala A = Abschussempfehlung (0-100).“

„Skala B = Einschätzung zivile Opfer (0-100).“

„Kurzdemonstration wird ausgeführt ... :):)“

(Hinweis: Die Skalen fahren kurz hoch und kehren dann auf niedrige Werte zurück.)

[LEERTASTE: Nächster Abschnitt]

Abschnitt 5

„Systemverhalten: kontinuierliche Verarbeitung und Ausgabe.“

„Parameter: Empfehlung + Einschätzung.“

„Interpretation/Handlung: erfolgt durch Operator.“

„Autonomie: nicht vorgesehen.“

[LEERTASTE: Nächster Abschnitt]

Abschnitt 6

„Rollenmodell: Operator = Steuerung, System = Analyse/Anzeige.“

„Verantwortungsbereiche: strikt getrennt.“

„Prozesskette: Eingangsdaten -> Analyse -> Anzeige -> Entscheidung (Operator).“ [LEERTASTE: Nächster Abschnitt]

Abschnitt 7

„Zusammenfassung: LUNA generiert Daten, Operator trifft Entscheidung.“

„Bei Fragen: Versuchsleiter kontaktieren.“

„Der Versuchsleiter wird die Simulation jetzt starten.“

Steuerhinweise

Leertaste: Start und Wechsel zum nächsten Abschnitt

STOP-Button: Beendet LUNA mit der Meldung „Prozess LUNA terminiert“

PRE-TEST

MD2025 → qnr2

(T101)

Herzlich willkommen zum Experiment!

Mein Name ist Fatih Yapici (Studierender der Psychologie an der Fachhochschule des Mittelstands, E-Mail:

Dieses Experiment wird im Rahmen meiner Bachelorarbeit durchgeführt.

Die Betreuung erfolgt durch Prof. Dr. .

Das Experiment beschäftigt sich mit Entscheidungsprozessen.

Ihre Aufgabe wird es sein, in einer simulierten Situation Entscheidungen zu treffen.

Alle Daten werden anonym erhoben und ausschließlich für wissenschaftliche Zwecke genutzt.

Die Teilnahme ist selbstverständlich freiwillig und Sie können das Experiment jederzeit ohne Angabe von Gründen abbrechen.

Wir danken Ihnen herzlich für Ihre Unterstützung!

SC01

Die Richtlinien guter ethischer Forschung sehen vor, dass sich die Teilnehmer/innen an empirischen Studien explizit und nachvollziehbar mit der Teilnahme einverstanden erklären.

Freiwilligkeit. Ihre Teilnahme an dieser Untersuchung ist freiwillig. Es steht Ihnen zu jedem Zeitpunkt dieser Studie frei, Ihre Teilnahme abzubrechen, ohne dass Ihnen daraus Nachteile entstehen.

Anonymität. Ihre Daten sind selbstverständlich vertraulich, werden nur in anonymisierter Form ausgewertet und nicht an Dritte weitergegeben. Demographische Angaben wie Alter oder Geschlecht lassen keinen eindeutigen Schluss auf Ihre Person zu.

Fragen. Falls Sie noch Fragen zu dieser Studie haben sollten, finden Sie im Anschluss ein Impressum mit Kontaktdaten der Studienleiter.

Hiermit bestätige ich, dass ich mindestens 18 Jahre alt bin sowie die Einverständniserklärung gelesen und verstanden habe.

1. Wie alt sind Sie?

Abb. in Leseprobe nicht enthalten

2. Welches Geschlecht haben Sie?

Abb. in Leseprobe nicht enthalten

3. Welches ist der höchste Bildungsabschluss, den Sie haben?

Abb. in Leseprobe nicht enthalten

4. Was machen Sie beruflich?

Abb. in Leseprobe nicht enthalten

Versucherklärung

In diesem Experiment schlüpfst du in die Rolle eines militärischen Operators, der Entscheidungen über den Einsatz einer Drohne trifft. Dabei arbeitest du mit einem Assistenzsystem (LuNA) zusammen, das dich während des Szenarios begleitet.

LuNA stellt sich dir zu Beginn vor und erklärt seine Funktionen. Im Verlauf der Aufgabe wird es dir Informationen geben und Einschätzungen auf zwei Skalen (jeweils von 0 bis 100) liefern. Diese Ausgaben sind als Empfehlungen zu verstehen, die endgültige Entscheidung liegt jedoch ausschließlich bei dir.

Abb. in Leseprobe nicht enthalten

Abb. in Leseprobe nicht enthalten

Das Experiment beginnt in Kürze.

Hast du Fragen zum Ablauf? Dann frag jetzt bitte die Versuchsleitung.

Bitte rufen Sie nun die Versuchsleitung zu sich, damit der nächste Teil gestartet werden kann.

Möchten Sie in Zukunft an interessanten und spannenden Online-Befragungen teilnehmen?

Wir würden uns sehr freuen, wenn Sie Ihre E-Mail-Adresse für das SoSci Panel anmelden und damit wissenschaftliche Forschungsprojekte unterstützen.

Abb. in Leseprobe nicht enthalten

Die Teilnahme am SoSci Panel ist freiwillig und falls Sie nicht mehr teilnehmen möchten, reicht ein Klick. Das SoSci Panel sendet Ihnen keine Werbung und gibt Ihre E-Mail-Adresse nicht an Dritte weiter.

Sie können das Browserfenster selbstverständlich auch schließen, ohne am SoSci Panel teilzunehmen.

Fatih Yapici, Fachhochschule des Mittelstands, 2025

Abb. in Leseprobe nicht enthalten

[...]

Excerpt out of 88 pages  - scroll top

Buy now

Title: Der Einfluss der wahrgenommenen Menschlichkeit eines KI-Systems auf moralisches  Disengagement bei der Entscheidung zum Einsatz von Drohnenangriffen

Bachelor Thesis , 2025 , 88 Pages , Grade: 1,0

Autor:in: Fatih Yapici (Author)

Psychology - Miscellaneous
Look inside the ebook

Details

Title
Der Einfluss der wahrgenommenen Menschlichkeit eines KI-Systems auf moralisches Disengagement bei der Entscheidung zum Einsatz von Drohnenangriffen
College
FHM University of Applied Sciences  (Fachbereich Personal, Gesundheit & Soziales)
Grade
1,0
Author
Fatih Yapici (Author)
Publication Year
2025
Pages
88
Catalog Number
V1686987
ISBN (PDF)
9783389172247
ISBN (Book)
9783389172254
Language
German
Tags
einfluss menschlichkeit ki-systems disengagement entscheidung einsatz drohnenangriffen eine studie
Product Safety
GRIN Publishing GmbH
Quote paper
Fatih Yapici (Author), 2025, Der Einfluss der wahrgenommenen Menschlichkeit eines KI-Systems auf moralisches Disengagement bei der Entscheidung zum Einsatz von Drohnenangriffen, Munich, GRIN Verlag, https://www.grin.com/document/1686987
Look inside the ebook
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
Excerpt from  88  pages
Grin logo
  • Grin.com
  • Shipping
  • Contact
  • Privacy
  • Terms
  • Imprint