Kollektive Strategien zur Abwehr digitaler Desinformation. Resilienz und Abschreckung bei EU und NATO


Fachbuch, 2021

143 Seiten


Leseprobe


Inhaltsverzeichnis

Abkürzungsverzeichnis

Abbildungsverzeichnis

1 Einleitung und Fragestellung

2 Problematik
2.1 Terminologie: Schlagwörter im Überfluss
2.2 Desinformation im digitalen Raum

3 Wie der Kreml Desinformation einsetzt
3.1 Geschichtlicher Hintergrund
3.2 Funktionsweise russischer Desinformationskampagnen
3.3 Informationen als Waffe

4 Konzeptionelle Grundlage: Wie lässt sich digitale Desinformation bekämpfen?
4.1 Resilienz
4.2 Abschreckung
4.3 Überschneidungen, Abgrenzungen und Alternativen

5 Herangehensweise der EU
5.1 Entwicklung
5.2 Strategien
5.3 Einordnung

6 Herangehensweise der NATO
6.1 Entwicklung
6.2 Strategien
6.3 Einordnung

7 Gegenüberstellung und Diskussion der Ergebnisse

8 EU-NATO Kooperation

9 Fazit

Literatur

Bibliografische Information der Deutschen Nationalbibliothek:

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Impressum:

Copyright © Studylab 2020

Ein Imprint der GRIN Publishing GmbH, München

Druck und Bindung: Books on Demand GmbH, Norderstedt, Germany

Coverbild: GRIN Publishing GmbH | Freepik.com | Flaticon.com | ei8htz

Abkürzungsverzeichnis

CCD COE NATO Cooperative Cyber Defence Centre of Excellence

CIA Central Intelligence Agency

COE Centre of Excellence (von der NATO akkreditiert)

CSIS Canadian Security Intelligence Service

DSGVO Datenschutz-Grundverordnung

EAD Europäischer Auswärtiger Dienst

EFP Enhanced Forward Presence

ENISA EU Agency for Network and Information Security

ESTF East StratCom Task Force

EU Europäische Union

EU INTCEN EU Intelligence Analysis Centre

FSB ‚Föderaler Dienst für Sicherheit‘ (Федеральная служба безопасности Российской Федерации) – russischer Inlandsgeheimdienst

GASP Gemeinsame Außen- und Sicherheitspolitik

GRU ‚Hauptverwaltung für Aufklärung‘ (Главное разведывательное управление) – russischer Militärnachrichtendienst

GSVP Gemeinsame Sicherheits- und Verteidigungspolitik

Hybrid CoE European Centre of Excellence for Countering Hybrid Threats

IRA Internet Research Agency

JISD Joint Intelligence and Security Division

KGB ‚Komitee für Staatssicherheit‘ (Комитет государственной безопасности) – Geheimdienst der Sowjetunion

NATO North Atlantic Treaty Organization

NGO Nongovernmental organization

NIS Netzwerk- und Informationssicherheit

PACE Parallel and Coordinated Exercises

RAP Readiness Action Plan

RT Russia Today (bis 2009)

SSZ Ständige Strukturierte Zusammenarbeit

STRATCOM COE NATO Strategic Communications Centre of Excellence

US SSCI United States Senate Select Committee on Intelligence

USA United States of America

VJTF Very High Readiness Joint Task Force

Abbildungsverzeichnis

Abbildung 1: Abgrenzung von Desinformation anhand der Absicht der Irreführung

Abbildung 2: Ausprägungen von Desinformation im digitalen Raum

Abbildung 3: Typologie verschiedener Definitionen von fake news

1 Einleitung und Fragestellung

„Falsehood flies, and truth comes limping after it,1 so that when men come to be undeceived, it is too late; the jest is over, and the tale hath had its effect.“ (Jonathan Swift 1710)2

Die Präsidentschaftswahlen 2016 stellen nicht nur eine Zäsur in der politischen Geschichte der Vereinigten Staaten von Amerika (USA) dar, sondern auch auf internationaler Ebene. Spätestens mit der Veröffentlichung des Report On The Investigation Into Russian Interference In The 2016 Presidential Election des Special Counsel Robert Mueller (US DOJ 2019) wurde das Ausmaß und die Raffinesse der Desinformationskampagne deutlich, mit der der Kreml den Ausgang der Wahlen in seinem Sinne beeinflussen wollte. Auch wenn sich nicht mit Sicherheit feststellen lässt, ob und inwieweit sich die Einflussnahme des Kreml in den Wahlergebnissen niedergeschlagen hat, ist schon allein die Kühnheit der Operation bemerkenswert.3

Wenngleich Desinformationskampagnen kein neues Phänomen darstellen, bieten sich durch die zunehmende globale Vernetzung im Zuge der Digitalisierung beispiellose neue Möglichkeiten zur gezielten Beeinflussung demokratischer Prozesse. Die russische Einmischung in die US-Wahlen stellt somit nur einen vorläufigen Höhepunkt des strategischen Einsatzes von Desinformation zur außenpolitischen Einflussnahme dar. Russland nimmt zwar in Qualität und Quantität eine Vorreiterrolle ein, ist jedoch nicht der einzige Akteur in diesem Bereich. Besonders für autoritäre Regime eröffnen sich eine Vielzahl neuer Strategien, um öffentliche Meinungen im In- und Ausland zu manipulieren und ihre relative Machtposition auf internationaler Ebene zu stärken.4 Hierbei kommt ihnen eine Asymmetrie der Offenheit zwischen ihren restriktiven Systemen und den liberalen Systemen westlicher Demokratien entgegen, wodurch autoritäre Regime es wesentlich leichter haben, ihre Narrative in demokratischen Gesellschaften zu platzieren als umgekehrt.

Die Gefahr dieser Entwicklung für die Demokratie, Stabilität, Sicherheit und Souveränität westlicher Gesellschaften und Institutionen gewinnt zunehmend an politischer und medialer Aufmerksamkeit, wie sich etwa in Diskursen um fake news und hybrider Kriegsführung zeigt. Aufgrund des grenzüberschreitenden Charakters dieser neuen Herausforderungen stehen bei der politischen Bearbeitung der Problematik verstärkt kollektive Akteure im Mittelpunkt. Eine besondere Rolle kommt dabei der Europäischen Union (EU) und der Organisation des Nordatlantikvertrags (NATO) zu, da diese zu den bedeutendsten westlichen Akteuren kollektiver Sicherheit auf internationaler Ebene gehören und zugleich, bzw. auch deshalb, selbst Feindbilder und Ziele russischer Desinformationskampagnen darstellen. Für die Mitglieder dieser Organisationen bieten sich Antworten auf kollektiver Ebene an, da sie alleine meist nicht über die nötigen Fähigkeiten und Ressourcen verfügen, um der Problematik in ihrer Gesamtheit begegnen zu können.

Das Phänomen der digitalen Desinformation5 erstreckt sich über eine Reihe von Politikfeldern und Themen, zu denen sich unter anderem Demokratie und Wahlprozesse, Presse- und Meinungsfreiheit, Mediengesetze, Außen- und Sicherheitspolitik und Digitalpolitik zählen lassen. Diese Vielschichtigkeit stellt EU und NATO vor besondere Herausforderungen, da ihre Handlungsoptionen mit den begrenzten Kompetenzen und spezifischen Ermächtigungen vorgegeben sind, die ihnen durch ihre Mitglieder gewährt werden. Da sich beide Organisationen in Beschaffenheit, Evolution und Mandat grundlegend voneinander unterscheiden, können folglich auch ihre Instrumente und Strategien im Umgang mit Desinformation je nach Politikfeld variieren. Während die EU als Staatenverbund mit eigener Rechtspersönlichkeit und weitreichenden zivilen Kompetenzen sich als demokratisches Friedensprojekt und gemeinsamer Markt versteht, ist die NATO als Militärbündnis vor allem auf kollektive Sicherheit und Verteidigung ausgerichtet.

Diese Arbeit wird sich im Folgenden der zentralen Frage widmen, wie sich die Herangehensweisen der EU und der NATO zur Abwehr und Bekämpfung digitaler Desinformation unterscheiden und worauf diese Unterschiede zurückzuführen sind. Ein besonderes Augenmerk soll bei dieser Untersuchung darauf liegen, inwiefern die strukturellen Eigenarten beider Organisationen ihre Strategien im Umgang mit Desinformation beeinflussen und welche jüngeren historischen Entwicklungen dabei zu beobachten sind. Daran anschließend lassen sich Erkenntnisse dazu erhoffen, wie beide Akteure auf komplexe Herausforderungen reagieren, die über ihr spezifisches Spektrum an Fähigkeiten, Instrumenten und möglichen Strategien hinausgehen. Es wird zudem interessant sein zu beobachten, wie internationale Organisationen neue Konzepte angesichts geänderter äußerer Umstände adaptieren und institutionalisieren und welche Hindernisse dabei eine Rolle spielen. Für die Untersuchung ist dabei irrelevant, ob die tatsächliche Bedrohung durch Desinformation im digitalen Raum überschätzt sein sollte,6 da die politischen Antworten von EU und NATO durchaus real sind und es deshalb lohnenswert erscheint, sich mit den Strategien auseinanderzusetzen, die diesen Bemühungen zugrunde liegen.

Angesichts der Neuartigkeit und Komplexität der Thematik ist es für diese Arbeit zunächst erforderlich, eine eindeutige Terminologie zu etablieren und die wesentlichen Elemente der Problematik der digitalen Desinformation zu erörtern. In diesem Sinne bietet Kapitel 2 sowohl eine kritisch-explorative Übersicht zur Unterscheidung gängiger Begrifflichkeiten und Konzepte als auch eine grundlegende Erläuterung der Funktionsweise von Desinformation im digitalen Raum. Eine zentrale Rolle als game changer nehmen hierbei die sozialen Medien sowie die psychologischen und technischen Mechanismen ein, mit denen Desinformation im digitalen Raum verstärkt wird.

Kapitel 3 richtet daraufhin den Blick auf den staatlich organisierten Einsatz digitaler Desinformation zur außenpolitischen Einflussnahme und somit auf die Dimension der Problematik, die in Umfang und Zielsetzung die größte Bedrohung für EU und NATO darstellt. Am Beispiel russischer Desinformationskampagnen soll gezeigt werden, welche geschichtlichen Hintergründe vorliegen, wie staatlich organisierte Desinformation funktioniert und mit welchen Konzepten sie wissenschaftlich eingeordnet wird. In der Debatte um politische Antworten auf russische Desinformationskampagnen erfreuen sich Konzepte der hybriden Kriegsführung (hybrid warfare) und Informationskriegsführung (information warfare) sowohl bei EU und NATO als auch in der Wissenschaft hoher Beliebtheit, weshalb es sinnvoll ist, im Rahmen dieser Arbeit genauer auf sie einzugehen.

Die theoretische Grundlage zum Vergleich des Vorgehens von EU und NATO wird in Kapitel 4 gelegt. Hierzu werden geläufige und idealtypische Strategien im Umgang mit digitaler Desinformation beschrieben und operationalisiert, anhand derer die Antworten von EU und NATO anschließend eingeordnet werden sollen. Strukturiert sind die Strategien zur Bekämpfung von Desinformation entlang der grundlegenden Konzepte der Resilienz und Abschreckung, die repräsentativ für Ansätze nach der Logik der Schadensbegrenzung bzw. Prävention stehen.

Kapitel 5 und 6 widmen sich schließlich dem konkreten Vorgehen von EU und NATO im Detail. Hierzu wird zunächst ein Überblick über die historische Entwicklung des Vorgehens und der Problemwahrnehmung sowie über proklamierte Ansätze, getroffene Maßnahmen und Institutionalisierungen erstellt. Daran anschließend sollen die Herangehensweisen in das Spektrum der Strategien und Konzepte zur Bekämpfung digitaler Desinformation eingeordneten werden. Darüber hinaus gilt es, die Ursachen für die Auswahl der vorliegenden Strategien zu beleuchten, indem die Strukturen, Kompetenzen und das Rollenverständnis beider Organisationen als kollektive Akteure einbezogen werden.

Eine Erwartung kann hierbei lauten, dass die EU als Akteurin mit Schwerpunkt auf normativen und zivilen Machtressourcen eher eine Strategie verfolgt, die passiver ausgerichtet ist und auf Resi­lienz, Soft Power und Public Diplomacy vertraut. Die NATO, als Militärbündnis in der Tradition des Kalten Krieges, könnte hingegen womöglich stärker auf eine konfrontative Strategie setzen, die auf Abschreckung, Hard Power und Containment basiert.

Nach einer vergleichenden Gegenüberstellung und Diskussion der bisherigen Untersuchungsergebnisse in Kapitel 7 richtet Kapitel 8 abschließend den Fokus auf die Zusammenarbeit von EU und NATO im Bereich der hybriden Bedrohungen und der digitalen Desinformation. Von besonderem Interesse ist dabei, wie sich die Kooperation beider Organisationen konkret gestaltet und welche Auswirkungen sich daraus auf ihre jeweiligen Herangehensweisen ableiten. Auch wenn die Kooperation und Koordinierung zwischen EU und NATO eine trennscharfe Unterscheidung der jeweiligen Ansätze erschwert, ergeben sich zugleich interessante Einblicke sowohl in die Arbeitsteilung zwischen kollektiven Akteuren als auch in die daraus resultierende Evolution von Fähigkeiten, Instrumenten und Strategien beider Organisationen.

2 Problematik

Bevor im Detail auf die Vorgehensweisen von EU und NATO gegen Desinformation im digitalen Raum eingegangen werden kann, ist es notwendig, das Phänomen der digitalen Desinformation in seiner gesamten Komplexität zu erfassen und einzugrenzen. In diesem Sinne sollen die folgenden Unterkapitel eine Orientierung darüber geben, was unter dem Begriff der Desinformation zu verstehen ist, welche Erscheinungsformen dazugezählt werden können, wie sich Desinformation im digitalen Raum verhält, welche Gefahren von ihr ausgehen und welche psychologischen als auch technischen Aspekte bei der Problematik eine Rolle spielen. Bei diesem Vorhaben stellen die Neuartigkeit des Phänomens sowie die daraus resultierende Vielfältigkeit von Definitionen und Deutungsversuchen eine besondere Herausforderung dar. Aus diesem Grund zielt Kapitel 2.1 darauf ab, ein gemeinsames Verständnis der Problematik und Terminologie zu etablieren, indem zunächst die gängigen Begrifflichkeiten und Konzepte kritisch-explorativ erschlossen werden. Kapitel 2.2 wird daraufhin den Einfluss des digitalen Raums auf ihre Verbreitung diskutieren. Hierbei liegt ein besonderes Augenmerk auf der besonderen Rolle der sozialen Medien (Kapitel 2.2.1) sowie auf den psychologischen und technischen Aspekten, die zur Wirkungsweise von Desinformation im digitalen Raum beitragen (Kapitel 2.2.2).

2.1 Terminologie: Schlagwörter im Überfluss

„The words we choose to describe media manipulation can lead to assumptions about how information spreads, who spreads it, and who receives it. These assumptions can shape what kinds of interventions or solutions seem desirable, appropriate, or even possible.“ (Jack 2017: 1)

Der Einfluss problematischer Informationen auf Debatten und die öffentliche Meinungsbildung im Netz erfährt spätestens seit 2016 mit der Kampagne um den Austritt des Vereinigten Königreichs aus der EU und dem US-Präsidentschaftswahlkampf 2016 eine erhöhte Aufmerksamkeit. Die Diskussion beschränkt sich dabei längst nicht mehr auf wissenschaftliche Kreise, sondern hat bereits ihren Weg in die breite Öffentlichkeit und auf die Agenda politischer Entscheidungsträger*innen gefunden.

Im Zuge des gewachsenen wissenschaftlichen, politischen und öffentlichen Interesses explodierte schließlich auch die Vielfalt der Begrifflichkeiten, die versuchen, die neuen Phänomene zu beschreiben, zu analysieren und zu erklären. Unter der Fülle an gängigen Begriffen und Konzepten tut sich dabei eine Unmenge an Überschneidungen, Abweichungen und Widersprüchen auf, die sowohl die wissenschaftliche als auch die politische Auseinandersetzung mit der Thematik erschweren. Darüber hinaus besteht mit der undifferenzierten Vereinnahmung der Problematik durch Politik und Allgemeinheit das Risiko, dass Begriffe und Konzepte zu buzzwords verkommen, die zwar klangvoll sind, deren analytischer Nutzen jedoch vollends verpufft.

Der Anspruch dieser Arbeit kann es dabei nicht sein, eine allgemeingültige Terminologie aufzustellen, vielmehr soll eine begriffliche und konzeptionelle Grundlage geschaffen werden, mit der die Fragestellung unmissverständlich beantwortet werden kann. Ziel dieses Abschnittes wird es deshalb sein, ein eindeutiges Vokabular zu etablieren, mit dem das Phänomen der digitalen Desinformation in seiner Mannigfaltigkeit sinnvoll beschrieben und eingegrenzt werden kann.7

Im Sinne der Fragestellung dieser Arbeit ist es jedoch nicht nur wichtig, herauszustellen, welche Begriffe, Definitionen und Konzepte zu der Problematik existieren und verwendet werden (sollten), sondern auch, auf welche davon von EU und NATO Bezug genommen wird. Dies soll an späterer Stelle bei der Analyse der jeweiligen Akteure (Kapitel 5 und 6) im Detail vorgenommen werden. Mit Blick auf die angestrebte Untersuchung der Strategien von EU und NATO kann die Diskussion darüber, wie das Phänomen digitaler Desinformation korrekterweise einzuordnen und zu benennen ist, zunächst als nachrangig eingestuft werden. Von Interesse ist eher, welche Begriffe EU und NATO tatsächlich gebrauchen und welche Konsequenzen aus dieser Benennung für ihren Umgang mit Desinformation entstehen. Gleichwohl wird sich dieses Kapitel zunächst der allgemeinen Beschreibung der Problematik widmen, um einen Rahmen zu bilden, in den das Vorgehen beider Organisationen, ihr Problemzugang und ihre Bedrohungswahrnehmung schließlich eingestuft werden können.

Im Mittelpunkt dieser Arbeit steht der Begriff der Desinformation, aber was ist darunter konkret zu verstehen? Kurz gefasst lässt sich Desinformation als falsche oder irreführende Information beschreiben, die zudem auch die Funktion hat, in die Irre zu führen (vgl. Fallis 2015: 413). Nach Fallis (2015) zeichnet sich Desinformation demnach durch drei Merkmale aus:

1. Desinformation ist eine Form von Information: „information is something that represents some part of the world as being a certain way” (ebd.: 404, Hervorhebung im Original). Hierunter fallen demnach nicht nur Texte, sondern auch andere visuelle und akustische Informationen wie Bilder, Karten, Videos oder Audios.
2. Desinformation ist irreführende Information: „information that is likely to create false beliefs” (ebd.: 406, Hervorhebungen im Original). Die Irreführung muss dabei nicht zwingend erfolgreich sein.
3. Die Information muss vorsätzlich irreführend sein: „It is this feature that distinguishes disinformation from more innocuous forms of misleading information, such as honest mistakes and overly subtle satire.” (ebd.)

Die Ausformungen und Fälle von Desinformation, die Fallis (2015: 415) aus dieser Definition ableitet, gehen zwar zum Teil über das hinaus, was im politischen Kontext und im Rahmen dieser Untersuchung relevant ist,8 dennoch soll sie als Ausgangspunkt dienen, um die Problematik genauer zu erfassen. Fälle, die nach Fallis (2015: 415) nicht als Desinformation einzuordnen sind und dementsprechend in dieser Arbeit nicht berücksichtigt werden, umfassen wahrheitsgetreue Aussagen, unbeabsichtigte Falschaussagen, Witze, sarkastische Kommentare, unglaubwürdige Lügen und Satire (s. Abbildung 1).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Abgrenzung von Desinformation anhand der Absicht der Irreführung (Fallis 2015: 415).

Dass dieses Verständnis von Desinformation auch die vorsätzliche Verbreitung vermeintlich ‚gutartiger‘ Falschinformationen einschließt9, wird von Jeangène Vilmer et al. (2018) als Anlass genommen, den Begriff „information manipulation“ zu bevorzugen. Dieser sei demnach besser geeignet, um problematische Informationen zu beschreiben, da er den Schwerpunkt auf Informationen lege, die einen negativen Effekt haben oder zumindest mit bösartiger Absicht verbreitet werden (ebd.: 20). Diese Arbeit wird dennoch den Begriff der Desinformation im Mittelpunkt behalten, da sich dieser auch in den Diskursen in EU und NATO durchgesetzt hat (s. NATO 2018c; Europäische Kommission 2018b). Der Aspekt des bösartigen Vorsatzes wurde zudem auch in die Definitionen dieser Organisationen inkorporiert, wie sich im Bericht der unabhängigen High Level Group on Fake News and Online Disinformation zeigt:

„We define it as false, inaccurate, or misleading information designed, presented and promoted to intentionally cause public harm or for profit. The risk of harm includes threats to democratic political processes and values, which can specifically target a variety of sectors, such as health, science, education, finance and more. It is driven by the production and promotion of disinformation for economic gains or for political or ideological goals, but can be exacerbated by how different audiences and communities receive, engage, and amplify disinformation.“ (Europäische Kommission 2018b: 10)

Allgemein wird Desinformation meist in Abgrenzung zu Misinformation definiert (s. etwa Jack 2017; Jackson 2017; EPRS 2015; Jeangène Vilmer et al. 2018). Beide Begriffe beschreiben Informationen, die falsch, fehlerhaft oder irreführend sind, der Unterschied liegt jedoch darin, dass Desinformation vorsätzlich fehlerhaft bzw. irreführend ist, während Misinformation diese Mängel unabsichtlich aufweist (vgl. Jack 2017: 2). Wardle und Derakhshan (2017) ergänzen diese Abgrenzung zudem um die Kategorie der Malinformation10, wozu sie im digitalen Kontext leaks, harrassment und hate-speech zählen (vgl. ebd.: 20). Mis-, Des- und Malinformation ließen sich demnach nach Wahrheitsgehalt und Schadabsicht unterscheiden, während Mis- und Desinformation falsche Informationen beinhalten, basiert Malinformation meist auf der Realität (vgl. ebd.). Des- und Malinformation werden dabei jedoch mit der Absicht verbreitet, in die Irre zu führen und Schaden anzurichten, wohingegen die Verbreitung von Misinformation aus einem ehrlichen Fehler, Nachlässigkeit oder unbewusster Verzerrung resultieren kann (vgl. ebd.; Fallis 2015: 402). Als konkrete Ausprägungen von Desinformation im digitalen Raum werden im Schema von Wardle und Derakhshan (2017: 20) folgende genannt:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Ausprägungen von Desinformation im digitalen Raum (nach Wardle/Derakhshan 2017), Erläuterungen nach Wardle 2017, eigene Darstellung, eigene Übersetzung).

In einer früheren Analyse sortiert Wardle (2017) diese Variationen von Desinformation auf einer Ordinalskala anhand der Höhe der Täuschungsabsicht, dies kann jedoch als problematisch betrachtet werden, da es zum einen schwierig ist, die Täuschungsabsicht in eine Ordinalskala zu übertragen, und es zum anderen fraglich ist, ob sich die beschriebenen Arten von Desinformation zuverlässig in der Höhe der Täuschungsabsicht unterscheiden lassen. Beispielsweise kann nicht davon ausgegangen werden, dass „imposter content“ mit einer vermeintlich ‚geringeren‘ Täuschungsabsicht produziert und verbreitet wird als „manipulated content“ oder „fabricated content“ (alle Wardle 2017).

Der Begriff der Desinformation zur Beschreibung der Problematik konkurriert dabei mit einer Vielzahl weiterer Begriffe, die im politischen und wissenschaftlichen Kontext kursieren. Ein Begriff, der es im Zusammenhang mit problematischen Inhalten bzw. Desinformation im digitalen Raum zu besonders fragwürdiger Prominenz gebracht hat, ist fake news . Im Zuge des Wahlkampfes um die US-Präsidentschaft im Jahr 2016 hat sich fake news in Wissenschaft, Politik und Öffentlichkeit zum wahrscheinlich bekanntesten Schlagwort zum Phänomen digitaler Desinformation entwickelt. Die vielfältigen Bedeutungen von fake news gehen dabei über das hinaus, was im Deutschen schlicht als Falschmeldung bezeichnet wird, oder wie Gendreau (2017) formuliert: „a seemingly straightforward concept that has shattered into a kaleidoscope of easily manipulated meanings”.

In ihrer Typologie zum Gebrauch des Begriffes fake news in wissenschaftlichen Arbeiten haben Tandoc et al. (2018: 147) sechs verschiedene Definitionen ausgemacht: „(1) news satire, (2) news parody, (3) fabrication, (4) manipulation, (5) advertising, and (6) propaganda”. Diese Definitionen hätten dabei jeweils gemein, dass sich die Inhalte die Erscheinung realer Nachrichten aneignen, um ihre Glaubwürdigkeit zu erhöhen (vgl. ebd.). Wie in Abbildung 3 ersichtlich wird, lassen sich die genannten Definitionen anhand der Dimensionen Faktizität und Intention differenzieren.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Typologie verschiedener Definitionen von fake news (Tandoc et al. 2018: 148).

Die Notwendigkeit, den Begriff fake news eindeutig zu definieren, wird dadurch verstärkt, dass er mit zunehmender Verbreitung auch eine Politisierung erfuhr, bei der US-Präsident Donald Trump eine wesentliche Rolle einnahm.11 Diese Entwicklung äußert sich vor allem darin, dass fake news nicht mehr nur sachlich im Rahmen der Typologie von Tandoc et al. (2018) verwendet wird, sondern als Kampfbegriff zur Diskreditierung negativer Berichterstattung und zur Dämonisierung traditioneller Nachrichtenorganisationen instrumentalisiert wird (vgl. McManus/Michaud 2018: 19; Tandoc et al. 2018: 140; Sängerlaub et al. 2018: 9; Zuckerman 2017). Newman et al. (2017: 19) fassen die Schwierigkeiten dieses erweiterten Gebrauchs sowie die jeweiligen Motivationen dahinter folgendermaßen zusammen:

“Definitions of ‘fake news’ are fraught with difficulty and respondents frequently mix up three categories: (1) news that is ‘invented’ to make money or discredit others; (2) news that has a basis in fact, but is ‘spun’ to suit a particular agenda; and (3) news that people don’t feel comfortable about or don’t agree with.”

Mit der synonymen Verwendung von fake news für unliebsame Berichterstattung durch Trump (Chait 2018) wurde auch das akademische Verständnis des Begriffes so weit verwässert, dass die meisten Beobachter*innen und Beteiligten mittlerweile darauf verzichten, den Terminus überhaupt zu verwenden (s. Europäische Kommission 2018b: 10; House of Commons 2018: 2; Jeangène Vilmer et al. 2018: 19; Wardle/Derakhshan 2017: 16; Zuckerman 2017). Angesichts dieser Entwicklung und der Vernachlässigung des Begriffs durch EU und NATO, wird auch diese Arbeit versuchen, den Begriff fake news weitestgehend zu vermeiden. Gleichwohl scheint die Beständigkeit, mit der fake news im öffentlichen Diskurs behandelt werden, ein Indikator dafür zu sein, dass es sich dabei um ein spezifisches Phänomen handelt, das einen Namen benötigt (vgl. Jaster/Lanius 2018: 1). Aus diesem Grund soll hier dem akademischen Verständnis von fake news auf den Grund gegangen werden, da dieses Phänomen durchaus als interessanter Teilaspekt von Desinformation im digitalen Raum betrachtet werden kann.

Um wissenschaftliche Untersuchungen zu diesem Phänomen kohärent zu halten, sprechen sich Tandoc et al. (2018) dafür aus, die Definition von fake news auf die gängigste und vermeintlich gefährlichste Variante (fabrication) zu beschränken, die sich durch geringe Faktizität und eine hohe Täuschungsabsicht auszeichnet (vgl. ebd.: 148). In diese Richtung geht auch die Definition von Jaster und Lanius (2019: 31f.):

“Fake News sind also Berichterstattungen, die in zweierlei Hinsicht problematisch sind: Erstens sind sie entweder falsch oder irreführend. Und zweitens verfolgen ihre Verfasser entweder eine Täuschungsabsicht oder sind der Wahrheit der Behauptungen gegenüber gleichgültig.“

Unter Berichterstattungen (bzw. news) seien dabei „Berichte über typischerweise jüngste Ereignisse“ zu verstehen, die an „die Öffentlichkeit (oder eine Teilöffentlichkeit)“ adressiert sind und „über die traditionellen oder sozialen Medien verbreitet“ (alle Jaster/Lanius 2019: 26) werden. Zu diesem Verständnis von fake news lassen sich sowohl die Definition der Dudenredaktion (o.J.): „in den Medien und im Internet, besonders in den Social Media, in manipulativer Absicht verbreitete Falschmeldungen“ als auch die Definition von McManus und Michaud (2018: 19): „the dissemination of false information via media channels (print, broadcast, online)“ zurechnen.

Was bei diesen Definitionen deutlich wird, ist, dass die Signifikanz von fake news nur unter Einbeziehung ihrer Zirkulation im digitalen Raum verstanden werden kann (vgl. Bounegru et al. 2017: 8). Diese Beobachtung lässt sich auch auf das Phänomen der Desinformation ausweiten, das nach Ende des Kalten Krieges erst wieder im Zuge der Digitalisierung und mit dem Bedeutungszuwachs der sozialen Medien problematisiert wurde. Auch wenn der digitale Raum bei Aufkommen und Verbreitung von fake news eine wesentliche Rolle spielt, ist davon abzusehen, dieses Merkmal als konstituierendes Element einer möglichen Definition aufzugreifen (vgl. Gelfert 2018: 97f.). Vielmehr lässt sich das Ausnutzen und Manipulieren kognitiver Prozesse der Zielgruppe als systemisches Element von fake news betrachten (vgl. ebd.: 84), wie Gelfert (ebd.: 108) in seiner Definition betont: „Fake news is the deliberate presentation of (typically) false or misleading claims as news, where the claims are misleading by design. “ (Hervorhebungen im Original).

Ebenso wie Desinformation, existierten fake news bereits vor der Digitalisierung. Im Englischen ist der Begriff bereits seit den 1890er Jahren in Verwendung12, während Falschmeldungen in Zeitungen zuvor meist als false news bezeichnet wurden (vgl. Merriam-Webster 2017; McManus/Michaud 2018: 15). Die Motivation hinter der Verbreitung von fake news war ab den 1830er Jahren in erster Linie kommerzieller Natur, was sich in der Zunahme von Boulevardblättern und sensationsgierigen Falschmeldungen niederschlug (vgl. Uberti 2016). Mit zunehmender Professionalisierung der Medien und der Etablierung journalistischer Normen13 ab den 1930er Jahren nahm auch die Verbreitung von fake news ab (vgl. ebd.).

Auch moderne fake news können kommerzielle Motive verfolgen, wie die oft bemühte Geschichte verdeutlicht, wonach Jugendliche aus einer mazedonischen Kleinstadt während des US-Präsidentschaftswahlkampfs 2016 automatisierte Werbeeinnahmen generierten, indem sie möglichst polarisierende Nachrichtenbeiträge ohne jegliche faktische Grundlage14 in pro-Trump-Gruppen auf Facebook verbreiteten (s. Subramanian 2017). Auch wenn in diesem Fall politische Themen bemüht wurden, waren die Motive der Urheber*innen in erster Linie finanzieller Natur. Die Themenbereiche, in denen fake news mit finanziellen Motiven verbreitet werden, sind potenziell unbegrenzt, es scheint sich jedoch abzuzeichnen, dass politische Inhalte mit Parteiergreifung, Meinungsmache und besonders geringer Faktizität die ‚erfolgreichsten‘ Exemplare von fake news in den sozialen Medien bilden (vgl. Silverman et al. 2016). Erfolg kann in diesem Fall am engagement, also der Menge an Interaktionen des Publikums mit dem Inhalt (views, reactions, likes, shares …), gemessen werden. Vosoughi et al. (2018) stellen fest, dass sich Unwahrheiten in den sozialen Medien signifikant schneller, tiefer und weiter verbreiten als faktentreue Beiträge. Dieser Effekt sei dabei für politische fake news ausgeprägter als für fake news über Terrorismus, Naturkatastrophen, Wissenschaft, urbane Mythen oder Finanzgeschäfte (vgl. ebd.: 1146).

Wie die Definition der High Level Group on Fake News and Online Disinformation 15 bereits vorweggenommen hat, kann die Verbreitung von Desinformation und fake news neben kommerziellen Motiven auch im Sinne einer politischen oder ideologischen Agenda erfolgen (vgl. Europäische Kommission 2018b: 10). Wenngleich die Auswirkungen von kommerziell motivierter Desinformation mitunter ähnlich sein können, werden die Gefahren von politisch motivierter Desinformation im öffentlichen Diskurs als bedeutsamer angesehen, zumal diese durchaus intendiert sein können. Im Mittelpunkt dieses Diskurses stehen dabei Risiken für demokratische, politische Prozesse, Institutionen und Werte, wie die äußere Beeinflussung der öffentlichen Meinungsbildung (insbesondere im Rahmen von Wahlprozessen), das Untergraben des grundsätzlichen Vertrauens in politische Institutionen und Medien oder die Vertiefung gesellschaftlicher Spannungen.16

Wenn man die angeführten fake news Definitionen insbesondere nach Gelfert (2018) mit den Definitionen von Desinformation insbesondere nach Fallis (2015) abgleicht, lassen sich folgende Rückschlüsse auf das Verhältnis von fake news und Desinformation ziehen:

(1) In dem Maße wie Desinformation eine Form von Information darstellt (vgl. Fallis 2015: 404),17 stellen fake news eine Form von news, also Berichterstattungen bzw. Nachrichtenbeiträgen, dar (vgl. Jaster/Lanius 2019: 26; vgl. Gelfert 2018: 103, 108). Desinformation umfasst somit ein wesentlich größeres Spektrum an Inhalten und Erscheinungsformen (meist text-basiert, zunehmend visuell), die nicht nur auf vermeintliche Berichterstattungen beschränkt sein müssen. In diesem Sinne lassen sich fake news als Unterkategorie von Desinformation betrachten (vgl. McManus/Michaud 2018: 18), die vornehmlich in den sozialen Medien auftritt, während Desinformation als Kommunikationsprozess18 sowie als Teil einer größer angelegten Strategie oder (meist politischen) Agenda verstanden werden kann (vgl. Jackson 2017). Des Weiteren werden unter Desinformation Praktiken und Verhaltensmuster verstanden, die speziell bei der Zirkulation solcher Inhalte im digitalen Raum und den in den sozialen Medien zur Entfaltung kommen, wie etwa social bots, astroturfing, computational propaganda und targeted advertising.
(2) Sowohl fake news als auch Desinformation basieren auf Informationen, die falsch oder zumindest irreführend sind. Beide Phänomene sind dabei irreführend „ by design “ (Gelfert 2018: 108, Hervorhebung im Original), haben also die Funktion, in die Irre zu führen. Dies kann entweder bedeuten, dass die Quelle direkt beabsichtigt, dass die präsentierte Information in die Irre führt, oder dass sie ‚lediglich‘ systematisch von der Irreführung profitiert (vgl. Fallis 2015: 413), wie dies bei kommerziellen fake news der Fall ist.
(3) Die Motivationen hinter der Verbreitung von fake news und Desinformation sind vielfältig. Wardle (2017) nennt hierzu: „Poor Journalism, Parody, to Provoke or ‘Punk’, Passion, Partisanship, Profit, Political Influence or Power, and Propaganda“. In Abwesenheit einer Absicht der Irreführung werden satirische Inhalte und Parodien sowie auf journalistischen Fehlern basierende Falschmeldungen in den meisten Analysen nicht als Fälle von Desinformation bzw. fake news eingestuft (s. Fallis 2015: 408). Wardle und Derakhshan (2017: 25) kategorisieren die Motivationen treffender als finanziell, politisch, sozial und psychologisch. Von besonderem Interesse sind dabei problematische Inhalte, die zum Zwecke politischer Einflussnahme, Macht und Propaganda verbreitet werden.
(4) Genauso vielfältig wie die Motivationen hinter Desinformation und fake news sind auch die Urheber*innen und beteiligten Akteure. Sie können sowohl von individueller als auch von kollektiver Ebene ausgehen sowie private, nicht-staatliche oder staatliche Akteure involvieren. Da staatlich orchestrierter Desinformation von EU und NATO die größte Relevanz zugeschrieben wird, wird sich diese Arbeit primär diesem Typus widmen. Gleichwohl muss berücksichtigt werden, dass die Zuordnung der Urheberschaft durch den klandestinen Charakter von Desinformationskampagnen und die Bemühungen der Urheber*innen um plausible Abstreitbarkeit (plausible deniability) verkompliziert wird. Erschwerend kommt hinzu, dass bei der Verbreitung von Desinformation und fake news in der Regel eine Vielzahl von Akteuren auf allen Ebenen involviert sind und eine unmittelbare Urheberschaft nur mit hohem Aufwand nachzuweisen ist. Wie Desinformationskampagnen im Detail von staatlicher Seite lanciert und eingesetzt werden, soll in Kapitel 3 am Beispiel Russlands erläutert werden.

Ein weiterer Begriff, der im Zusammenhang mit problematischen Informationen im Netz allgegenwärtig ist, ist Propaganda. In welchem Verhältnis Desinformation und Propaganda zueinander stehen, ist dabei – wie auch bei einigen der zuvor genannten Begrifflichkeiten – aufgrund abweichender Verständnisse, Definitionen und Kontexte undurchsichtig19. Während manche Beobachter*innen Propaganda als eine Form der Desinformation betrachten (s. Fallis 2015), wird Desinformation von anderen als eine besonders hinterlistige Form der Propaganda eingestuft (z. B. Jowett/O'Donnell 2015). Teilweise scheinen die beiden Begriffe auch synonym verwendet zu werden (z.B. von der NATO, vgl. EPRS 2015: 2).

Der Begriff Propaganda stammt aus dem 17. Jahrhundert und ist damit wesentlich älter als der Begriff Desinformation, welcher erst im 20. Jahrhundert Verbreitung fand20 (vgl. Halloran 2007: 6). Unter Propaganda lässt sich im klassischen Sinn verstehen, was Lasswell (1927: 627) als „the management of collective attitudes by the manipulation of significant symbols“ definiert. Ziel dieser Art von Kommunikation ist es, die Wahrnehmungen, Einstellungen oder das Verhalten des Publikums zu beeinflussen, indem eine sachliche, informierte und rationale Beurteilung bzw. Entscheidungsfindung behindert wird (vgl. Marlin 2013: 12; Stanley 2015: 48).21 Stanley (2015: 52) betont, dass Propaganda im Wesentlichen auf politische, wirtschaftliche, ästhetische oder rationale Ideale rekurriere, die für einen politischen Zweck mobilisiert würden. Propaganda diene in diesem Kontext entweder der Unterstützung oder der Erosion der beschworenen Ideale (vgl. Stanley 2015: 52). Daraus abgeleitet unterscheidet Stanley (2015: 53) zwischen supporting propaganda und undermining propaganda:

Supporting Propaganda: A contribution to public discourse that is presented as an embodiment of certain ideals, yet is of a kind that tends to increase the realization of those very ideals by either emotional or other nonrational means.

Undermining Propaganda: A contribution to public discourse that is presented as an embodiment of certain ideals, yet is of a kind that tends to erode those very ideals.”

In diesem Rahmen ordnet Stanley (2017) Desinformation und fake news in ihrer heutigen Form als eine Art von undermining propaganda ein, für die es charakteristisch sei, an das Ideal der objektiven Wahrheit und Realität zu appellieren und zugleich auf dessen Zersetzung hinzuarbeiten (vgl. ebd.: 74). Desinformation stelle demnach in besonderer Weise eine Bedrohung für liberale Demokratien dar,22 da Wahrheit und Realität als Kernelement zur Aushandlung politischer Interessen in demokratische Gesellschaften betrachtet werden können (vgl. Stanley 2017: 74; Stanley 2015).

Ein Vielzahl von Definitionen des Begriffes Propaganda umfassen auch Bereiche und Kampagnen, die allgemein der strategischen Kommunikation zugeordnet werden, wie etwa Werbung (Unternehmen versuchen, die Öffentlichkeit zum Kauf ihrer Produkte zu überzeugen) Public Relations (Unternehmen, Non-Profit-Organisationen oder NGOs versuchen, die öffentliche Meinung in ihrem Sinne zu beeinflussen) und Public Diplomacy (Staaten versuchen, ihre öffentliche Wahrnehmung und Reputation in anderen Staaten zu verbessern) (vgl. Jack 2017: 15). Kampagnen zur Beeinflussung der öffentlichen Meinung, die nicht eindeutig einem Akteur zugeordnet werden können, werden unter anderem als information operations bezeichnet.23 Bei diesen Fällen wird auch das Spannungsfeld zwischen Überzeugung und Manipulation deutlich, in dem sich der Begriff der Propaganda bewegt. Manche Beobachter*innen sehen deshalb die Unterscheidung, was als Propaganda zu betrachten ist und was nicht, schlichtweg als Frage der Perspektive (vgl. ebd.). Welche Akteure der Produktion und Verbreitung von Propaganda zugeordnet werden, hängt dabei auch vom zugrundeliegenden Verständnis des Begriffes ab. Demnach kann das Spektrum vom individuellen, privaten bis zum staatlichen Akteur reichen oder ausschließlich auf staatliche Akteure beschränkt sein, wie McManus und Michaud (2018) betonen.

Folgt man der Definition von Jowett und O’Donnell (2015), wonach Propaganda den vorsätzlichen, systematischen Versuch darstellt, Wahrnehmungen und Verhalten des Publikums zu manipulieren, um eine vom Propagandisten gewünschte Reaktion zu erreichen (vgl. ebd.: 7), zeigen sich bereits die ersten Überschneidungen mit dem Konzept der Desinformation. Jowett und O’Donnell (2015) unterscheiden drei Varianten von Propaganda (white, black und gray), die sich hinsichtlich ihrer Quellenzuordnung und der Richtigkeit der präsentierten Informationen abgrenzen lassen. Unter white propaganda lassen sich demnach Inhalte verstehen, die von einer korrekt identifizierten Quelle stammen und deren Informationen der Wahrheit nahekommen (vgl. ebd.: 20). Im Gegensatz dazu kommt bei black propaganda das Element der Irreführung zum Tragen: die Quelle wird verschleiert oder falsch zugeordnet, die Informationen beinhalten Lügen, Fälschungen und Täuschungen (vgl. ebd.: 21). Gray propaganda beschreibt schließlich eine Mischform, bei der die Quelle möglicherweise korrekt zugeordnet ist und die Richtigkeit der Informationen ungewiss ist (vgl. ebd.: 24). Desinformation24 wird in diesem Spektrum der black propaganda zugeordnet, was mit der verdeckten Verbreitung irreführender Informationen begründet wird (ebd.: 28).

Angesichts der vielfältigen Begrifflichkeiten und Konzepte sowie Definitions-, Differenzierungs- und Interpretationsmöglichkeiten zu Desinformation, fake news und Propaganda, wird es im Verlauf dieser Arbeit interessant sein zu untersuchen, welche Perspektive die EU und die NATO in ihrer Wahrnehmung der Problematik einnehmen. Die Bevorzugung des Begriffes der (digitalen) Desinformation im Rahmen dieser Untersuchung fußt auf mehreren Argumenten, die in diesem Kapitel angeführt wurden. Erstens scheint der Begriff der Desinformation am besten geeignet, die Problematik zu beschreiben, mit der EU und NATO konfrontiert sind. Die häufig und stellenweise unterschiedslos verwendeten Begriffe fake news und Propaganda eignen sich weniger gut, da sie entweder nur einen Teilbereich der Problematik erfassen und zunehmend politisiert werden (fake news) oder einen zu weiten Bereich abdecken, zu dem auch verwandte Sozialtechniken der Überzeugung und Manipulation zählen können (Propaganda). Zweitens scheint sich diese Ansicht auch bei EU und NATO durchzusetzen, die den Begriff der Desinformation in ihren Strategiepapieren (mehr dazu in Kapitel 5 und 6) zunehmend anderen Beschreibungen vorziehen, wenngleich der Begriff der Propaganda aufgrund seiner Vielseitigkeit weiterhin Bestand hat.

Die zusammenfassende Erläuterung der geläufigen Terminologie im Bereich der digitalen Desinformation hat gezeigt, dass eine Vielzahl sich überschneidender, unscharfer Begriffe und Konzepte die wissenschaftliche Auseinandersetzung mit der Problematik erschwert. Im Rahmen dieser Untersuchung sollen die beschriebenen terminologischen Diskussionen als Referenz zur Einordnung der Vorgehensweisen von EU und NATO dienen.

2.2 Desinformation im digitalen Raum

Das Aufkommen des Internets und der sozialen Medien hat die Art und Weise, mit der Informationen produziert, kommuniziert und verbreitet werden, grundlegend verändert (vgl. Wardle/Derakhshan 2017: 11). Diese auch als „information revolution“ (Floridi 2009: 154) bezeichnete Entwicklung äußert sich unter anderem darin, dass Informationsinhalte kostengünstig, anonym sowie mit hoher Geschwindigkeit erstellt und weltweit verbreitet werden können, während sich der individuelle Informationskonsum von der analogen, privaten in die digitale, quasi-öffentliche Sphäre der sozialen Medien verlagert (vgl. Wardle/Derakhshan 2017: 11f.). In diesem komplexen, digitalisierten Informationsökosystem findet Desinformation einen idealen Nährboden.

Doch was zeichnet den digitalen Raum konkret aus, dass Desinformation in ihm eine Wirkung entfalten kann, die als Bedrohung für die Demokratie und Sicherheit westlicher Gesellschaft betrachtet wird? Die folgenden Kapitel widmen sich dieser Frage unter Berücksichtigung der besonderen Stellung sozialer Medien sowie der psychologischen und technischen Aspekte, die dem Phänomen der digitalen Desinformation zugrunde liegen oder diese zumindest begünstigen. Wie das vorherige Kapitel zur geläufigen Terminologie zielt auch dieser Teil der Arbeit darauf ab, die Problematik zu erfassen, mit der EU und NATO konfrontiert sind. Der Schwerpunkt liegt nun jedoch nicht mehr auf Diskursen zur Definition und Konzeptualisierung der Problematik, sondern auf der konkreten Wirkungsweise von Desinformation im digitalen Raum.

2.2.1 Soziale Medien

„Without amplification, dis-information goes nowhere.” (Wardle/Derakhshan 2017: 13)

Bei der Verbreitung von Desinformation muss den sozialen Medien eine zentrale Rolle eingeräumt werden. Unter sozialen Medien sind dabei Internet-Plattformen, Anwendungen oder Websites zu verstehen, die zurzeit auf Web 2.0 -Basis arbeiten, den Austausch von user-generated content ermöglichen sowie die Erstellung und Vernetzung individueller Profile erlauben (vgl. Obar/Wildman 2015: 2f.). Im Zuge der Digitalisierung gewinnen soziale Medien derart an gesellschaftlicher Bedeutung, dass sie mittlerweile gar als digitale Öffentlichkeiten verstanden werden können. Die Marktanteile konzentrieren sich dabei auf eine Handvoll Unternehmen, deren Plattformen monatlich aktive Accounts im Bereich der Milliarden verzeichnen: Facebook 2.375 Mio., YouTube 2.000 Mio. und Instagram 1.000 Mio. (Statista 2019).

Angesichts ihrer enormen Reichweite sind soziale Medien eine besonders interessante Umgebung für die Verbreitung von Nachrichten, Werbung, Propaganda und Desinformation, da sie die Möglichkeit bieten, eine große Anzahl von Menschen direkt anzusprechen, und gleichzeitig individuelle Nutzer*innen gezielt mit personalisierten Botschaften erreichen können (vgl. Bradshaw/Howard 2018: 4). Dieses Merkmal sozialer Medien bildet in der Regel auch die Grundlage ihres werbefinanzierten Geschäftsmodells. Zugute kommt ihnen dabei, dass der digitale Raum die Erfassung einer Unmenge an Metadaten ermöglicht, die Rückschlüsse auf das digitale Verhalten, persönliche Informationen, Vorlieben und Interessen sowie die politischen Einstellungen der Nutzer*innen gestatten. Unter Berücksichtigung dieser Präferenzen wird die Verbreitung von Inhalten in sozialen Medien zudem von plattformspezifischen Algorithmen und Automatismen unterstützt, die beeinflussen, welche Themen und Inhalte von den Nutzer*innen wahrgenommen werden und somit an Aufmerksamkeit und Bedeutung gewinnen. Der Fokus sozialer Medien auf nutzergenerierte Inhalte und der damit einhergehende Verzicht auf eine redaktionelle Überprüfung der verbreiteten Inhalte sowie die Verwendung nutzerdatenbasierter Algorithmen bieten somit beste Voraussetzungen für Akteure, die die Wahrnehmungen, das Verhalten oder die Meinungen der Nutzer*innen manipulieren wollen, sei es für finanzielle oder politische Zielsetzungen.

Unter den sozialen Medien haben sich vor allem Facebook und Twitter als Arenen zur Verbreitung von Desinformation hervorgetan.25 Besonders Facebook, als größtes soziales Netzwerk mit seinem zentralen newsfeed -Feature, stand bisher im Mittelpunkt der bekanntesten digitalen Desinformationskampagnen der vergangenen Jahre (vgl. Bradshaw/Howard 2019: 2). Die Geschehnisse im Zuge des US-Präsidentschaftswahlkampfes 2016 lassen sich in diesem Zusammenhang als den ‚Urknall‘ der Debatte um Desinformation im digitalen Raum betrachten. Wie der Report von Special Counsel Robert Mueller über die Untersuchung russischer Einflussnahme auf die US-Präsidentschaftswahl 2016 (US DOJ 2019) veranschaulicht, wurden sowohl Facebook als auch Twitter26 von der Kreml-nahen russischen Internet Research Agency (IRA) intensiv genutzt, um den Ausgang der Präsidentschaftswahl im Sinne des Kreml zu beeinflussen.27

Facebook fand sich zudem im Zentrum des Skandals um das Politikberatungs- und Datenanalyse-Unternehmen Cambridge Analytica, das Datensätze mit Informationen zu den Profilen von Facebook-Nutzer*innen in umfassenden Maße ansammelte, um Wahlprozesse durch extensives Mikrotargeting zugunsten ihrer Auftraggeber*innen zu entscheiden (Cadwalladr 2017). Zu den Auftraggeber*innen zählten dabei unter anderem die Vote Leave -Kampagne im Brexit -Referendum (Martin 2018) sowie das Wahlkampfteam von Donald Trump (Cadwalladr 2017). Facebook war bei diesen Prozessen sowohl die Quelle der millionenfach gesammelten Persönlichkeitsprofile als auch der Mechanismus, mithilfe dessen die individuellen Nutzer*innen massenhaft mit maßgeschneiderten Botschaften – darunter auch gezielte Desinformation – adressiert und beeinflusst werden sollten (vgl. ebd.).

Im Kontext der Rohingya-Krise seit 2017 in Myanmar wird Facebook vorgeworfen, ein wichtiges Instrument zur Verbreitung von Hassbotschaften und Desinformation darzustellen (vgl. OHCHR 2018: 14). Die fraglichen Facebook-Beiträge sind Teil einer aufwendig koordinierten Kampagne des myanmarischen Militärs, bei der bis zu 700 Angehörige des Militärs involviert waren (vgl. Mozur 2018) und die einen Konflikt befeuert, der auch als Genozid an der muslimischen Minderheit der Rohingya beschrieben wird und ethnische Säuberungen, Verbrechen gegen die Menschlichkeit und Kriegsverbrechen umfasst (vgl. OHCHR 2018: 1; Mozur 2018). Hinzu kommt, dass Facebook in Myanmar und Südostasien allgemein eine derart dominierende Position einnimmt, dass die Plattform für den Großteil der Nutzer*innen das gesamte Internet darstellt (vgl. OHCHR 2018: 14). Die Reaktionen Facebooks auf diesen und die zuvor genannten Fälle von digitaler Desinformation wurden gemeinhin als ungenügend aufgefasst (vgl. ebd.).

Darüber hinaus kommt Facebook eine wesentliche Rolle bei der Verbreitung kommerziell und politisch motivierter fake news zu (vgl. Silverman et al. 2016), wie der bereits erwähnte Fall der mazedonischen Jugendlichen aus Veles im Rahmen der US-Präsidentschaftswahl 2016 verdeutlicht (Subramanian 2017). Auch wenn soziale Medien zunächst auf die Pflege privater Netzwerke und Freundschaftsbeziehungen sowie den Austausch persönlicher Inhalte ausgerichtet war, entwickelten sie sich schnell zu digitalen Marktplätzen, auf denen Informationen und Inhalte aller Art um die Aufmerksamkeit der Nutzer*innen konkurrieren.

Einen nicht unerheblichen Anteil an den zirkulierenden Informationen nehmen dabei Nachrichtenbeiträge ein, die sowohl von der großen Reichweite der sozialen Medien als auch von der schnellen, kostengünstigen Erstellung und Verbreitung von Inhalten im digitalen Raum profitieren. Dieses Merkmal des digitalen Raums bedingt allerdings auch weitreichende Möglichkeiten, die Erscheinung traditioneller Nachrichtenbeiträge zu imitieren, womit sich auch teilweise der Erfolg von fake news erklären lässt. Das persönliche Teilen und Austauschen von Inhalten, das die Grundlage vieler sozialer Plattformen bildet, trägt schließlich dazu bei, dass das Konzept der Quellenzuordnung verwässert wird (vgl. Tandoc et al. 2018: 139), indem eindeutige, visuelle Kennzeichen des traditionellen Journalismus wegfallen (vgl. Gelfert 2018: 102).

Hinsichtlich der Problematik digitaler Desinformation haben die bekanntesten sozialen Plattformen, also Facebook, Twitter, Instagram und YouTube, seit 2016 den Großteil der Aufmerksamkeit auf sich gezogen. Dies bedeutet jedoch nicht, dass sie die einzigen sozialen Medien sind, in denen Desinformation produziert, zirkuliert und konsumiert wird. Verstärkt durch die zunehmende Selbstregulierung der größeren Netzwerke, verschieben sich Inhalte und Diskussionen zu besonders kontroversen Themen28 zu Nischenwebsites, Blogs, Onlineportalen oder Diskussionsforen, wie etwa 4chan, 8chan, Infowars oder Breitbart News, wo Desinformation ungehindert und größtenteils außerhalb öffentlicher Aufmerksamkeit wirken kann.

Für die digitale Verbreitung und den Austausch von Informationen und Nachrichten gewinnen zudem auch Sofortnachrichtendienste oder Voice over IP -Dienste wie WhatsApp, Telegram, Signal, Skype, Viber oder Discord stetig an Bedeutung. Im Zuge dieser Entwicklung und ihrer enormen Reichweite werden soziale Medien und Sofortnachrichtendienste zu einem immer wichtigeren Instrument der politischen Kommunikation, in demokratischen Prozessen und insbesondere bei Wahlkampagnen. Dementsprechend häufen sich auch die Fälle von Desinformationskampagnen, die über diese Kanäle lanciert werden (vgl. Wardle 2019). Dies ist vor allem in Ländern des globalen Südens zu beobachten, wo große Gruppen in Sofortnachrichtendiensten ein verbreitetes Phänomen darstellen (vgl. Bradshaw/Howard 2018: 6). Die Präsidentschaftswahlen in Brasilien 2018 (Isaac/Roose 2018; ITS Rio 2018) und Nigeria 2019 (Cheeseman 2019) sowie die Parlamentswahl in Indien 2019 (Harris 2019; Dwoskin/Gowen 2018) lassen sich dabei als konkrete Fälle anführen.

Als Spielfeld der politischen Meinungsbildung können soziale Medien in vielfältiger Weise zur Manipulation der Öffentlichkeit missbraucht werden. Das Verhältnis von Staaten zu sozialen Medien ist deshalb ambivalent, da sich ihnen auf der einen Seite ein nie dagewesener Kanal zur politischen Kommunikation und Propaganda bietet, auf der anderen Seite aber auch die interne oder externe Organisation von Opposition und Protest ermöglicht wird. Während soziale Plattformen in autoritären Staaten in erster Linie ein Instrument der sozialen Kontrolle im Alltag und in Krisenzeiten bilden, werden sie in liberalen Demokratien für computational propaganda (computergestützte Propaganda) genutzt, die entweder der allgemeinen Beeinflussung der öffentlichen Meinung dient oder bestimmte Teilgruppen der Öffentlichkeit anvisiert (vgl. Woolley/Howard 2019: 241).29 Dieser Unterschied zwischen der Instrumentalisierung sozialer Medien in autoritären und in demokratischen Staaten lässt sich auch auf ihre Wirkung in Hinblick auf neue soziale Bewegungen und politischen Protest zurückführen. Zum einen vereinfachen soziale Plattformen die praktische Koordination politischer Proteste, zum anderen ermöglichen sie den Austausch von Informationen sowie emotionaler und motivierender Inhalte (vgl. Jost et al. 2018), die wiederum Proteste und die Entstehung sozialer Bewegungen unterstützen können.

Dieses inhärente Mobilisierungspotenzial führte dazu, dass autoritäre Regime, etwa in China, dem Nahen Osten und Nordafrika, soziale Medien zu Beginn der 2000er Jahre zunächst als Bedrohung für die Stabilität ihrer politischen Systeme wahrnahmen und mit strengen Inhaltskontrollen und Zugangsbeschränkungen reagierten (vgl. Jeangène Vilmer et al. 2018: 46). Nach anfänglichem Misstrauen wurden autoritäre Regime jedoch schnell der neuen Möglichkeiten gewahr, die die Kontrolle des Internets und der sozialen Medien mit sich bringen (vgl. ebd.). Nach innen lässt sich mit den erhobenen Einschränkungen des digitalen Raums bestimmen, welche Informationen die Bevölkerung zu Gesicht bekommt und welche Informationen ihr vorenthalten werden und somit die eigene Macht konsolidieren. Nach außen bieten sich wiederum zahlreiche Möglichkeiten für autoritäre Staaten, die eigene Machtposition auf internationaler Ebene auszubauen, etwa durch die Beeinflussung der öffentlichen Meinung und politischen Prozessen in demokratischen Staaten durch digitale Desinformationskampagnen in den sozialen Medien. Hierbei profitieren sie von einer „asymmetry of openness” (Nye Jr. 2018) zwischen ihren restriktiven Systemen und demokratischen Gesellschaften, die Pluralismus und freie Meinungsäußerung gestatten (vgl. Walker/Ludwig 2017: 9). Der Einsatz staatlich organisierter Desinformation durch autoritäre Staaten im Rahmen von Kampagnen der außenpolitischen Einflussnahme wird in Abgrenzung zum Konzept der soft power auch als sharp power 30 eingeordnet.

Es lässt sich schließlich zusammenfassen, dass die sozialen Medien einen elementaren Baustein für das erfolgreiche Wiederaufkommen politischer Desinformationskampagnen bilden und sich als die wichtigsten Kanäle ihrer Produktion und Verbreitung etabliert haben (vgl. Hwang 2017a: 3). Es ist zudem davon auszugehen, dass parallel zu ihrer wachsenden Relevanz im Bereich der politischen Kommunikation, die Bedeutung der sozialen Medien für die Verbreitung von Desinformation in den kommenden Jahren weiter zunehmen wird (vgl. Bradshaw/Howard 2019). Die besondere Anfälligkeit sozialer Plattformen für Desinformationskampagnen wird dabei durch vier wichtige Aspekte beeinflusst, die Hwang (2017a: 4) als ideologische (Bekenntnis zu freier Meinungsäußerung), technische (Filtern von Inhalten nach Desinformation aufwendig bis unmöglich), rechtliche (rudimentäre Regulation) und finanzielle Einschränkungen (werbebasiertes Geschäftsmodell) beschreibt.

Die herausragende Stellung sozialer Medien als digitale Öffentlichkeiten und Räume gesellschaftlicher Diskurse rückt zudem die Problematik in den Mittelpunkt, dass die Zugänglichkeit und die Regeln dieser Räume von wenigen privaten Unternehmen vorgegeben werden. Dies wirft die Frage auf, ob die Grundprinzipien der demokratischen Beteiligung in diesen digitalen Öffentlichkeiten gewährleistet sind, da die Betreiber*innen sozialer Plattformen in erster Linie nach kommerziellen Gesichtspunkten handeln (vgl. Bendiek/Schulze 2019: 8).

„A strong democracy requires access to high-quality information and an ability for citizens to come together to debate, discuss, deliberate, empathize, and make concessions. Are social media platforms really creating a space for public deliberation and democracy? Or are they amplifying content that keeps citizens addicted, disinformed, and angry?” (Bradshaw/Howard 2019: 21)

Angesichts der Gefahren die von Desinformation für die Grundwerte demokratischer Gesellschaften ausgehen, werden zunehmend auch die Betreiber*innen sozialer Plattformen bei der Bekämpfung digitaler Desinformationskampagnen in die Verantwortung genommen. Entgegen der Selbstdarstellung ihrer Betreiber*innen seien diese Plattformen keine neutralen Kommunikationskanäle, sondern Medienunternehmen, die für die Inhalte verantwortlich sind, die in ihren Netzwerken verbreitet werden, wie Woolley und Howard (2019: 244) betonen. Merkmale wie trending features, algorithmische Kuration und personalisierte newsfeeds bedeuten schließlich, dass soziale Medien den Informationsfluss, dem die Nutzer*innen ausgesetzt sind, aktiv kontrollieren und steuern, weshalb es nötig sei, diese Plattformen ‚demokratiefreundlich‘ zu designen (vgl. ebd.). Bradshaw und Howard (2019) merken allerdings an, dass viele der Bereiche, die dem Phänomen digitaler Desinformation zugrunde liegen, etwa eine gesellschaftliche Polarisierung und die Vertrauenskrise der Demokratie, bereits vor dem Aufkommen sozialer Medien existierten. Lösungsansätze müssten aus diesem Grund auch diese anhaltenden, systemischen Herausforderungen berücksichtigen (vgl. ebd.: 21).

2.2.2 Psychologische und technische Aspekte

Die Verbreitung von Desinformation funktioniert in den sozialen Medien besonders gut, da sie eine Reihe kognitionspsychologischer Prozesse ausnutzt, die beeinflussen, wie Menschen Informationen konsumieren und verarbeiten.31 Dadurch, dass im Internet Informationen im Überfluss vorhanden sind, konkurrieren Inhalte um die begrenzte Aufmerksamkeit der Nutzer*innen. In dieser Aufmerksamkeitsökonomie (s. auch boyd 2017) haben es Inhalte und Informationen leicht, die starke Gefühle hervorrufen.

Ein erster Effekt ist dabei der Negativitätsbias, wonach Informationen im Netz besonders viel Aufmerksamkeit erfahren, wenn sie negative Emotionen wecken, also etwa Ängste und Sorgen bedienen oder Empörung hervorrufen (vgl. Jaster/Lanius 2019: 52).32 Diese selektive Exposition von Informationen wird ergänzt durch den Bestätigungsfehler (confirmation bias), wonach vermehrt „Informationen wahr- und ernst genommen, die in das eigene Weltbild passen“ (Seemann 2018: 11), um eine kognitive Dissonanz zwischen Wahrnehmung und Realität zu vermeiden. Politische Desinformationskampagnen sind demnach erfolgreicher, wenn sie negative Emotionen hervorrufen und bestehende Weltbilder, Überzeugungen und Vorurteile bedienen. Die Krise des Journalismus sowie ein geringes Vertrauen in demokratische Institutionen bieten Desinformationsinhalten dabei fruchtbaren Boden.

Auch Effekte auf sozialpsychologischer Ebene beeinflussen die Verbreitung und Wirkung von Desinformation. Der interaktive Charakter des Internets und insbesondere der sozialen Medien erleichtert die Entstehung sozialer Gemeinschaften und die Herausbildung von Zugehörigkeitsgefühlen und Identitäten (vgl. Nemr/Gangware 2019). Diese soziale Identität im digitalen Raum kann schließlich beeinflussen, welchen Informationen man Glauben schenkt und welchen nicht, welche Inhalte man weiterverbreitet und welche nicht (vgl. Stroud et al. 2017; Kahan 2017). Darüber hinaus können im Internet soziale Räume entstehen, in denen Gleichdenkende bewusst oder unbewusst unter sich bleiben und Desinformation unangefochten konsumiert und exponentiell verbreitet wird. Diese sogenannten Echokammern stellen Gemeinschaften von Gleichgesinnten dar, in denen korrigierende Einflüsse außen vor bleiben, sodass sich Informations- und Konformitätskaskaden (s. Jaster/Lanius 2019: 61-68) ungebremst entfalten können und polarisierte Meinungen vereinheitlicht und verstärkt werden (vgl. ebd.: 69f.).33

Ein ähnliches Phänomen steckt hinter der Idee der Filterblase, das maßgeblich von Pariser (2011) geprägt wurde und besagt, dass die Algorithmen, mit denen die Anzeige von Inhalten auf die Nutzer*innen personalisiert wird, dazu beitragen können, eine homogene Informationsblase aufzubauen, in der Desinformation multipliziert wird. Ob die Polarisierung und Fragmentierung politischer Inhalte in den sozialen Medien durch Filterblasen- und Echokammer-Effekte tatsächlich bestärkt werden kann, wird allerdings bezweifelt (Vuiderveen Borgesius et al. 2016; Seemann 2018). Trotz selektiver Algorithmen und Tendenzen zur Gruppenpolarisation werden Nutzer*innen demnach meist einem breiten Spektrum an Meinungen und Informationen ausgesetzt, sodass mehr Diversität als Eintönigkeit an Informationen herrscht (vgl. Nemr/Gangware 2019: 37f.).

Der digitale Raum bietet dennoch großes Potenzial für die Mobilisierung ideologischer Gemeinschaften, die sich in ihren Überzeugungen gegenseitig bestärken und polarisieren. Diese Gruppenpolarisation geht mitunter so weit, dass auch von netzwerktechnisch verwobenen, identitär eingebundenen und ideologisch abge­grenzten ‚digitalen Stämmen‘ die Rede ist, bei denen technische und sozialpsychologische Prozesse ineinander greifen (vgl. Seemann 2017).34 Innerhalb dieser ‚digitalen Stämme‘ entstehen und verbreiten sich Desinformationsinhalte umso schneller, da Stammesidentität gegenüber der faktischen Korrektheit der Inhalte überwiegen (vgl. ebd.). Im Gegensatz zum Konzept der Echokammer, basieren digitale Stämme nicht auf der räumlichen, sondern auf der ideologischen Abgrenzung zu Andersdenkenden und deren Meinungen. Demnach sind die Stammesmitglieder zwar diversen Inhalten ausgesetzt, bevorzugen und verbreiten jedoch jene, die ihre Stammesüberzeugungen widerspiegeln. Mit der zunehmenden Online-Radikalisierung dieser ‚digitalen Stämme‘ kann schließlich auch eine Polarisierung der Gesellschaft im Sinne der Urheber*innen der Desinformation einhergehen.

Desinformationskampagnen nutzen die beschriebenen Effekte systematisch aus, um ihre Inhalte effektiv zu verbreiten, kritisches Denken zu unterbinden und ihre Narrative zielgenau im Publikum zu verankern (vgl. Gelfert 2018: 112f.). Dieses Unterfangen wird durch die Funktionsweise der sozialen Medien erst ermöglicht und kann durch die technischen Möglichkeiten des digitalen Raums noch verstärkt werden. Hierzu lässt sich etwa die Verwendung von personalisierten Metadaten zum Verhalten der Nutzer*innen zählen, auf deren Grundlage Desinformationsinhalte mit den Instrumenten der Werbewirtschaft optimiert auf das Zielpublikum ausgerichtet werden können (vgl. Scott/Ghosh 2018). Unterstützt wird dieses Vorgehen dabei durch das werbebasierte Geschäftsmodell sozialer Plattformen, das einen kostengünstigen Zugang zu präzisen Verhaltensdaten in Echtzeit anbieten kann, anhand derer sich Desinformationskampagnen effektiver gestalten lassen (vgl. Hwang 2017a: 7).

Desinformation kann in den sozialen Medien zudem durch den koordinierten Einsatz von social bots verstärkt werden. Diese Programme imitieren meist ein genuines Nutzerprofil und können mithilfe automatisierter oder halb-automatisierter Prozesse zur effektiven Verbreitung von Desinformationsinhalten beitragen. Bots und Botnetzwerke bauen hierzu virtuelles soziales Kapital auf, um die Algorithmen sowie die kognitions- und sozialpsychologischen Mechanismen sozialer Medien auszunutzen und Diskurse im digitalen Raum zu manipulieren (Pamment et al. 2018: 59).35 Ergänzt wird der Einsatz komplett automatisierter bots durch hybride Accounts, die teilweise menschlich gesteuert werden, als auch durch sogenannte menschliche ‚Trollarmeen‘, die professionell organisiert (staatlich oder privatwirtschaftlich) und systematisch Desinformationsinhalte und -narrative in den sozialen Medien verbreiten (vgl. Bendiek/Schulze 2019: 3).

Zunehmend gewinnen auch künstliche Intelligenz und Prozesse des maschinellen Lernens bei der Verbreitung von Desinformation im digitalen Raum an Bedeutung. Der technologische Fortschritt in diesem Bereich ermöglicht eine Vielzahl neuer experimenteller Methoden, um menschliches Verhalten glaubwürdig zu simulieren und die Entlarvung von Desinformationsinhalten zu erschweren (vgl. Hwang 2017a: 7). Hierzu zählen etwa Instrumente zur machine-driven communication (MADCOM) und computational propaganda (vgl. Chessen 2017; Hwang 2017b; Woolley/Howard 2019).

Neben der Bereitstellung einer Arena zur Zirkulation von Desinformation mit den sozialen Medien hat der technologische Fortschritt auch neue und verbesserte Werkzeuge zur Produktion von Desinformation hervorgebracht. Die neuen Möglichkeiten der Manipulation von Text-, Bild-, Video- und Audiomaterial reichen dabei bis hin zur Einbindung künstlicher Intelligenz und künstlicher neuraler Netzwerke zur Erstellung sogenannter deepfakes. Das Potenzial dieser neuartigen Art von Fälschungen wurde bisher nur angedeutet,36 es ist jedoch anzunehmen, dass ausgereiftere deepfakes in naher Zukunft vermehrt und mit strategischer Täuschungsabsicht im politischen Kontext eingesetzt werden (vgl. Giles et al. 2019).

Es lässt sich schließlich zusammenfassen, dass die Verbreitung von Desinformation durch die Funktionsweise der sozialen Medien sowie durch psychologische und technische Faktoren verstärkt wird, die sich gegenseitig unterstützen. Wie Nemr und Gangware (2019: 3) hervorheben, erfordert eine effektive Antwort auf die Herausforderungen digitaler Desinformation deshalb ein umfassendes Verständnis der konvergierenden Faktoren von Technologie, Medien und menschlichem Verhalten.

3 Wie der Kreml Desinformation einsetzt

Nachdem nun die Terminologie und die Hintergründe der Problematik digitaler Desinformation erläutert wurden, wird sich dieser Abschnitt dem konkreten Auftreten digitaler Desinformation und den daraus entstehenden Konsequenzen widmen. Mit Blick auf die Fragestellung wird der Fokus dabei auf staatlich organisierter Desinformation liegen, da diese an Umfang und Zielsetzung die größte Bedrohung für EU und NATO darstellt und mitunter direkt gegen diese Organisationen gerichtet ist. Am Beispiel russischer Desinformationskampagnen soll dabei gezeigt werden, wie staatlich organisierte Desinformation funktioniert und mit welchen Konzepten sie sich wissenschaftlich einordnen lässt.

Kapitel 3.1 bietet hierzu zunächst einen kurzen Abriss zu den geschichtlichen Hintergründen russischer Desinformationskampagnen, die zu weiten Teilen in der Tradition sowjetischer Geheimdienstoperationen im Kalten Krieg stehen. Im nächsten Schritt wird Kapitel 3.2 anhand konkreter Fallbeispiele beschreiben, wie moderne russische Desinformationskampagnen aufgebaut sind, welche Akteure involviert sind und welche Zielsetzungen verfolgt werden. Daraufhin diskutiert Kapitel 3.3, inwieweit sich die Konzepte der hybriden Kriegsführung und information warfare eignen, um das Vorgehen des Kreml einzuordnen. In der Debatte um politische Antworten auf russische Desinformationskampagnen erfreuen sich diese Konzepte bei EU und NATO sowie in der Wissenschaft hoher Beliebtheit, weshalb es sinnvoll ist, im Rahmen dieser Arbeit genauer auf sie einzugehen.

Da der Kreml Desinformation nicht nur nach außen, sondern auch im Innern zur Konsolidierung der eigenen Macht und zur Sicherung des politischen Systems einsetzt, also zum Teil gegen die russische Bevölkerung, ist es unpräzise, von ‚russischen‘ Desinformationskampagnen zu sprechen. Gleichwohl liegt der Schwerpunkt der Gegenmaßnahmen von EU und NATO auf Kampagnen, die der Kreml nach außen einsetzt, weshalb im Sinne der Fragestellung und der allgemeinen Verständlichkeit in dieser Arbeit mitunter vereinfachend von ‚russischer‘ Desinformation gesprochen wird.37

[...]


1 Diese Arbeit hat den Anspruch, gendergerechte Sprache zu verwenden, die alle Geschlechtsidentitäten umfasst. Mitunter wird zwar das generische Maskulinum genutzt, dies betrifft allerdings nur Subjekte die keine explizite Geschlechtsidentität beanspruchen, wie etwa Staaten, Organisationen und sonstige Körperschaften.

2 In: The Examiner 14, 9. November 1710.

3 Angesichts des knappen Ausgangs der Wahl, ist dies nicht unwahrscheinlich.

4 So stellen Bradshaw und Howard (2019) fest, dass zwischen 2017 und 2019 staatlich organisierte Desinformationskampagnen zur außenpolitischen Einflussnahme auch durch China, Iran, Venezuela, Pakistan, Saudi-Arabien und Indien strategisch eingesetzt wurden (dies soll nicht heißen, dass all diese Länder als autoritär einzuordnen sind). Der weniger anspruchsvolle Einsatz von Desinformation in der Innenpolitik ist wesentlich weiter verbreitet, vor allem durch autoritäre Regime (vgl. ebd.), aber auch nicht staatliche Akteure.

5 Der Übergang zwischen dem digitalen und dem analogen Raum ist bei der Verbreitung von Desinformation fließend. Der Fokus dieser Arbeit auf den digitalen Aspekt der Desinformation entspringt der Anerkennung der zentralen Bedeutung des digitalen Raums, besonders in Gestalt der sozialen Medien, für die Renaissance des Phänomens der Desinformation.

6 In diesem Sinne argumentiert beispielweise Lanoszka (2019).

7 Bei Ermangelung gängiger deutscher Übersetzungen werden englische Begriffe im Original belassen.

8 Hierzu zählt beispielsweise „altruistic disinformation“ (Fallis 2015: 415) im individuell-sozialen Kontext, worunter auch Notlügen und falsche Komplimente fallen (vgl. ebd.: 412).

9 Jeangène Vilmer et al. (2018) nennen in diesem Zusammenhang die Radioinszenierung von Der Krieg der Welten durch Orson Welles und Howard Koch im Jahr 1938 als Beispiel, für ‚irreführende‘ Informationen, die ohne böse Absicht verbreitet wurden und letztlich Panik in der US-amerikanischen Bevölkerung verursacht hätten. Diese Darstellung des Geschehens wurde jedoch bereits als Mythos entlarvt (s. Campbell 2016).

10 Unter die Kategorie der Malinformation können zudem illegale Redeformen, wie etwa Diffamierung, Hassrede oder Aufstachelung zur Gewalt fallen.

11 Zur Bedeutungsevolution des Begriffes fake news seit dem US-Präsidentschaftswahlkampf 2016 bieten Gelfert (2018) und Gendreau (2017) eine detaillierte Übersicht.

12 Die Behauptung Donald Trumps, er habe den Begriff fake news erfunden (s. Cillizza 2017), erwies sich im Nachhinein als nicht sonderlich stichhaltig.

13 Zur Geschichte journalistischer Ethik, Normen und Regulation siehe auch Frost (2011).

14 Darunter zum Beispiel die Meldung, dass Papst Franziskus die Kandidatur Donald Trumps zur US-Präsidentschaft unterstütze (siehe Evon 2016)

15 Die Definition der High Level Group on Fake News and Online Disinformation kann durchaus als Versuch verstanden werden, die Definition von Desinformation so zu gestalten, dass der Begriff der fake news vermieden werden kann ohne dabei kommerzielle fake news von der Definition auszuschließen.

16 Eine tiefere Analyse der Funktionsweise von Desinformationskampagnen erfolgt in Kapitel 3.2.

17 Die Einordnung von Desinformation als Information wird auch kritisch betrachtet, siehe Dretske (1982: 45): „ false information and mis -information are not kinds of information – any more than decoy ducks and rubber ducks are kinds of duck“.

18 Zu Desinformation als Kommunikationsprozess siehe auch Jowett/O'Donnell (2015: 29ff.).

19 Eine umfassende Studie zur Entwicklung der Propagandaforschung im 20. Jahrhundert bietet Bussemer (2005).

20 Auf die Geschichte des Begriffs der Desinformation wird in Kapitel 3.1 näher eingegangen.

21 Eine ähnliche Definition von Propaganda lässt sich auch in der Joint Declaration on Freedom of Expression and “Fake News”, Disinformation and Propaganda (UN et al. 2017) finden.

22 Stanley (2015: 69) bezeichnet Propaganda, die die Ideale liberaler Demokratien missbraucht, auch als „ demagoguery “.

23 Etwa durch Facebook selbst, s. Weedon et al. (2017).

24 Jowett und O’Donnell (2015) beziehen sich auf ein Verständnis von Desinformation, das Praktiken des sowjetischen Geheimdienstes KGB im Kalten Krieg in den Mittelpunkt stellt (siehe auch Shultz/Godson 1984).

25 Welche technischen oder strukturellen Faktoren diese Entwicklung im Detail begünstigten, kann im Rahmen dieser Arbeit nicht vertieft werden, die Frage bietet jedoch Raum für weitere Untersuchungen.

26 In geringerem Ausmaß auch YouTube, Tumblr und Instagram.

27 Einen tieferen Einblick in die Funktionsweise russischer Desinformationskampagnen bietet Kapitel 3.2.

28 Die zugleich auch anfällig für Desinformation sind, wie etwa Verschwörungstheorien, ‚Männerrechte‘ und white supremacy.

29 Eine ausführliche Übersicht zum globalen Missbrauch sozialer Medien durch autoritäre Regime oder andere politische Akteure bietet der Freedom on the Net Report von Freedom House (2019).

30 Siehe hierzu auch National Endowment for Democracy (2017); Walker/Ludwig (2017); Walker (2018).

31 Für eine umfassende Übersicht zu den kognitions- und sozialpsychologischen Mechanismen hinter der Verbreitung von Desinformation siehe auch Pamment et al. (2018).

32 Allerdings können auch Humor und memes genutzt werden, um kontroverse Ideen und Meinungen im Rahmen von Desinformationskampagnen zu legitimieren, wie Pamment et al. (2018: 68) betonen.

33 Hierzu lässt sich auch das Phänomen der Gruppenpolarisation (risky shift) nach Sia et al. (2002) anführen.

34 Das Konzept des politischen Tribalismus gewinnt zunehmend auch in der internationalen Politik an Bedeutung, so sieht Chua (2018) darin einen wesentlichen Grund für den Wahlerfolg Donald Trumps 2016.

35 Zu unterschiedlichen Arten von bots zur Meinungsmanipulation siehe auch Pamment et al. (2018: 57f.) und Bradshaw/Howard (2018).

36 Etwa bei dem vermeintlichen Public Service Announcement von Barack Obama, das von Jordan Peele in Kooperation mit dem Medienportal BuzzFeed gefälscht wurde, um vor den Gefahren von deepfakes zu warnen (siehe Mack 2018).

37 Siehe hierzu auch Jeangène Vilmer et al. (2018: 50f.).

Ende der Leseprobe aus 143 Seiten

Details

Titel
Kollektive Strategien zur Abwehr digitaler Desinformation. Resilienz und Abschreckung bei EU und NATO
Autor
Jahr
2021
Seiten
143
Katalognummer
V538180
ISBN (eBook)
9783960959182
ISBN (Buch)
9783960959199
Sprache
Deutsch
Schlagworte
Desinformation, Hybride Kriegsführung, Abschreckung, Resilienz, Fake News, Europäische Union, NATO, Strategie, Propaganda, soziale Medien, digitaler Raum, Russland, digital warfare, fact-checking
Arbeit zitieren
Karl Moritz Heil (Autor:in), 2021, Kollektive Strategien zur Abwehr digitaler Desinformation. Resilienz und Abschreckung bei EU und NATO, München, GRIN Verlag, https://www.grin.com/document/538180

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Kollektive Strategien zur Abwehr digitaler Desinformation. Resilienz und Abschreckung bei EU und NATO



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden