Warum sind Fake News so erfolgreich? Digitaler Tribalismus und identitätsstiftende Informationsverarbeitung


Fachbuch, 2019
98 Seiten

Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

1 Einleitung

2 Theoretischer Hintergrund
2.1 Fake News
2.2 Digitaler Tribalismus

3 Wahrnehmung und Wirkung von Fake News
3.1 Nachrichtenqualität
3.2 Perzipierter Wahrheitsgehalt
3.3 Botschafts- und Kommunikatorglaubwürdigkeit
3.4 Anschlusskommunikation

4 Methodik
4.1 Untersuchungsanlage und Sample
4.2 Stimuli
4.3 Skalen
4.4 Exkurs: Forschungsethik

5 Ergebnisse und Diskussion
5.1 Nachrichtenqualität
5.2 Perzipierter Wahrheitsgehalt
5.3 Botschafts- und Kommunikatorglaubwürdigkeit
5.4 Anschlusskommunikation
5.5 Weiterführende Ergebnisse
5.6 Zwischenfazit

6 Fazit

7 Literatur- und Quellenverzeichnis

Abbildungsverzeichnis

Abbildung 1: Konzeptualisierung und Abgrenzung verschiedener Arten von Mis- und Desinformationen

Abbildung 2: Visualisierung des Twitter-Diskurses zur kolportierten Reisewarnung für Schweden

Abbildung 3: Anteile der Fake News-Verbreiter mit und ohne Richtigstellung

Abbildung 4: Ergebnisse des Kahan-Experiments zu Prozessen der „identity-protective cognition“

Abbildung 5: Beurteilung der Nachrichtenqualität verschiedener Artikel in Abhängigkeit von der politischen Orientierung der Probanden

Abbildung 6: Beurteilung des Wahrheitsgehalts verschiedener Artikel in Abhängigkeit von der politischen Orientierung der Probanden

Abbildung 7: Beurteilung der Botschaftsglaubwürdigkeit verschiedener Artikel in Abhängigkeit von der politischen Orientierung der Probanden. Quelle: Eigene Darstellung

Abbildung 8: Beurteilung der Glaubwürdigkeit des KFN in Abhängigkeit von der politischen Orientierung der Probanden

Abbildung 9: Betriebene Anschlusskommunikation

Tabellenverzeichnis

Tabelle 1: Untersuchungsanlage mit vier Experimentalgruppen

Tabelle 2: Mittelwerte der zum Mittelwertindex "Anschlusskommunikation" zusammengefassten Items

Tabelle 3: Übersicht der bestätigten und nicht-bestätigten Hypothesen dieser Studie

1 Einleitung

Eine riesige Bühne, ein gebanntes Auditorium und zwei prominente Persönlichkeiten im Dialog – mehr braucht es nicht für die Netflix-Show My next guest needs no introduction, dem neuen Format der amerikanischen Late-Night-Legende David Letterman. Zum Auftakt der ersten Staffel ist Barack Obama geladen und spricht – wie von einem Ex-Präsidenten nicht anders zu erwarten – über die großen Themen unserer Zeit. An einer Stelle kommt das Gespräch auf soziale Netzwerke, die in Obamas Präsidentschaftswahlkampf 2008 eine zentrale Rolle spielten.1 Er spricht dabei über Algorithmen, die Menschen in ihren Einstellungen bestätigten, über virtuelle Blasen, in denen Nutzer kaum noch mit konträren Ansichten konfrontiert würden und kommt schließlich sogar zu der These, dass soziale Netzwerke ein Hauptgrund seien, warum die Politik in den USA immer stärker polarisiere. Obama steht damit stellvertretend für eine Forschungsrichtung, die sich auf die technischen Besonderheiten und daraus folgenden Konsequenzen einer mittels sog. „ Recommender-Algorithmen “ vermittelten Online-Umgebung konzentriert (u.a. Pariser 2011; Sunstein 2001, 2017). Als eine dieser Konsequenzen gilt in jüngerer Zeit auch das Phänomen Fake News, das sich besonders in sozialen Netzwerken manifestiert (Allcott & Gentzkow 2017: 221ff.).2

Spätestens seit dem US-Wahlkampf und dem EU-Referendum in Großbritannien 2016 ist die Debatte um Fake News allgegenwärtig. Obwohl diese keineswegs neu sind und im Laufe der Jahre bereits unterschiedlich konzeptualisiert wurden (Tandoc, Zheng & Ling 2018), definiert aktuelle Forschung Fake News zumeist als „[…] news articles that are intentionally and verifiably false, and could mislead readers “ (Allcott & Gentzkow 2017: 213). Das Fake News das Potenzial besitzen, Leser zu täuschen, ist – zumindest für die USA – recht gut belegt. So ergab eine Studie im Auftrag der Nachrichten- und Unterhaltungsseite „BuzzFeed“, dass sich erwachsene US-Bürger in etwa 75 Prozent der Fälle von fehlerhaften oder nachweislich falschen Artikel-Überschriften täuschen lassen (Silverman & Singer-Vine 2016: Par. 1). In Deutschland glauben laut einer Befragung des Forschungsinstituts „YouGov“ zwar lediglich sechs Prozent der Wahlberechtigten, dass Fake News einen Einfluss auf sie selbst haben könnte, etwa die Hälfte sieht in ihnen jedoch „eine ernsthafte Gefahr für die Demokratie“ (Mannott & Kosboth 2017: 11ff.).

In der Tat bringen Fake News gravierende Implikationen für Gesellschaft und Demokratie mit sich. Bakir und McStay (2018: 159ff.) identifizieren in diesem Kontext drei Problemkomplexe: Erstens produzieren Fake News eine fehlinformierte Bürgerschaft, die zweitens durch sog. „ echo chambers “ sehr wahrscheinlich fehlinformiert bleibt und drittens durch die emotionale Beschaffenheit derartiger „Nachrichten“ weiter polarisiert wird. Einige Autoren konstruieren darüber hinaus bereits das Szenario einer „ post-truth era “, also einem Zeitalter in dem kollektive zugunsten individueller Wahrheiten zurücktreten und die Popularität in sozialen Medien zuweilen mehr zählt als wissenschaftlich abgesicherte Fakten (Lewandowsky, Ecker & Cook 2017: 354).

Akademische Untersuchungen von Fake News finden derzeit hauptsächlich im Kontext sozialer Medien statt (u.a. Allcott & Gentzkow 2017; Guess, Nyhan & Reifler 2018; Vosoughi, Roy & Aral 2018), da Nachrichteninhalte immer häufiger über diese konsumiert werden (Newman, Fletcher, Kalogeropoulos, Levy & Nielsen 2017: 10). In Bezug auf Fake News konkurrieren dabei bislang zwei maßgebliche Forschungsstränge. Während sich der erste Forschungsstrang auf die technologische Komponente einer durch Algorithmen determinierten Online-Wirklichkeit und deren Auswirkung auf den Nutzer konzentriert (Stichwort „ filter bubble “), stellt der zweite vielmehr den aktiven Nutzer und seine Auswahl und Verarbeitung von Informationen in den Mittelpunkt (Spohr 2017: 150).

Wie das einführende Beispiel Obamas zeigt, dominiert im öffentlichen Diskurs zumeist die Lesart ersterer Forschungsrichtung (siehe auch Behrens 2016), die postuliert, dass Nutzer online mit einem auf Basis eigener Präferenzen algorithmisierten Nachrichtenstrom konfrontiert werden, der sich konsonant zu ihren politischen Ansichten verhält (Flaxman, Goel & Rao 2016: 299). Man konsumiert letztlich – so die These – nur noch Nachrichteninhalte, die die eigenen Einstellungen bestätigen.3 Ohne die Existenz technologisch bedingter „filter bubbles“ und „echo chambers“ zu negieren, zeigen neuere Studien am Beispiel von Google jedoch, dass Prävalenz und Effekte der erwähnten Phänomene ersterer Forschungsrichtung möglicherweise überschätzt werden (Haim, Graefe & Brosius 2018: 339). Garrett (2017: 370) kommt sogar zu dem Schluss „ [that] there is ample evidence that echo chambers are not a typical part of Internet users’ experience “. Doch wie erklärt sich der Erfolg von Fake News online, wenn Algorithmen eine eher untergeordnete Rolle spielen?

Eine mögliche Erklärung bietet das Konzept des „ digitalen Tribalismus “, das die Entstehung virtueller Äquivalente zu vormals physischen sozialen Gruppen beschreibt (Seemann 2017a). Als wichtigster sozialer Bezugspunkt dient Menschen demnach der eigene „Stamm“ dessen Wertvorstellungen übernommen und verteidigt werden. Die Evaluation von eintreffenden Informationen findet dann nicht auf Grundlage von Fakten statt, sondern je nachdem, ob die Informationen dem Gruppeninteresse dienen (Roberts 2017: Par. 10). Bezogen auf Fake News bedeutet dies, dass diese besonders deswegen verbreitet werden, da sie ein Zeichen für die Mitgliedschaft in einer bestimmten sozialen Gruppe darstellen (Seemann 2017a: 1). „Die Leute ahnen häufig, dass eine geteilte Merkel-News so kaum stimmen kann – aber es ist nicht so wichtig, weil die Verbreitung eine soziale Funktion erfüllt: ein Symbol der Gruppenzugehörigkeit“ (Lobo 2017: Par. 20).

Als eine potenzielle psychologische Grundlage des digitalen Tribalismus kann die sog. „ identity-protective cognition thesis (ICT) “ gelten (Kahan, Peters, Dawson & Slovic 2013; Kahan 2017). ICT „ [is] a tendency to selectively credit and discredit evidence in patterns that reflect people’s commitments to competing cultural groups “ (Kahan 2017: 1). Die Forschung von Kahan und Kollegen (2013: 10) zeigt, dass vorhandene kognitive Fähigkeiten – bei kulturell aufgeladenen Themen – nicht dazu genutzt werden, ein möglichst evidenzbasiertes Bild der Welt zu formen, sondern dazu, den persönlichen Einstellungen widersprechende Interpretationen abzuwerten und so die eigene soziale Identität zu schützen. Mit der Untersuchung des Einflusses der Gruppenzugehörigkeit auf die Verarbeitung von Informationen schließt die ICT unter anderem an klassische Arbeiten zur „Social Identity Theory“ an (u.a. Tajfel 1974, 1982; Turner, Brown & Tajfel 1979), jedoch auch an neuere Forschung zum Thema „motivated reasoning“ (u.a. Epley & Gilovich 2016; Kahan 2013).

Um zur weiteren Erforschung des digitalen Tribalismus beizutragen sowie zu klären, inwiefern die Verarbeitung von Fake News von der Gruppenzugehörigkeit abhängt, wurde eine „Paper-and-Pencil-Studie“ durchgeführt, der ein 2x2-Experimentaldesign zugrunde liegt (für Details siehe Kapitel 4.1). In dieser wurden die zentralen Annahmen der ICT auf die Verarbeitung von Nachrichteninhalten übertragen und anhand des polarisierenden Themas „Flüchtlingskriminalität“ einem Test unterzogen. Sollte die Studie zu dem Ergebnis kommen, dass Individuen (fiktive) Nachrichteninhalte tatsächlich im Sinne einer „identity-protective cognition“ verarbeiten, hätte dies auch Implikationen für den Umgang mit Fake News. Rein technologische Lösungen zur Identifikation und dem anschließenden automatischen Herausfiltern von Fake News aus sozialen Medien (u.a. Conroy, Rubin & Chen 2015; Figueira & Oliveira 2017) würden dann vermutlich nur kurzfristig helfen, da das Problem in Wirklichkeit kognitionspsychologische Ursachen hätte.

Die Arbeit ist dabei wie folgt aufgebaut. Zunächst liefert ein ausführlicher theoretischer Block eine aktuelle Bestandsaufnahme zu Fake News, in dem ihre relevantesten Charakteristika sowie weitere zentrale Themen der Fake News-Forschung aufgearbeitet werden. Anschließend soll anhand des wissenschaftlichen Diskurses zu „filter bubbles“ und „echo chambers“ zum Phänomen des „digitalen Tribalismus“ übergeleitet werden. Nachdem dessen Prämissen erläutert wurden, soll es in einem zusätzlichen Kapitel um die psychologischen Grundlagen gehen, die für die Entstehung „digitaler Tribes“ wichtig sind. Das dritte Kapitel zeigt dann mögliche Wirkungen von Fake News und beschäftigt sich mit den in dieser Arbeit untersuchten Konstrukten sowie der Herleitung von Hypothesen. Im methodischen Teil geht es danach um das angewandte Untersuchungsdesign und das Erhebungsinstrument. Genauer wird diesbezüglich auf die Kreation der Stimuli sowie die eingesetzten Skalen eingegangen. Dieser Teil wird zudem um einen kurzen Exkurs zum Thema „Forschungsethik“ ergänzt, welche bei Untersuchungen zu Fake News besonders zu berücksichtigen ist. Zuletzt werden dann die Ergebnisse bezüglich der Hypothesen sowie weiterführende Ergebnisse präsentiert und diskutiert.

2 Theoretischer Hintergrund

2.1 Fake News

Wie später noch genauer zu erläutern sein wird, stehen Fake News selbst nur zum Teil im Mittelpunkt dieser Untersuchung. Vielmehr sollen die im Experiment gewonnen Erkenntnisse im Hinblick auf die Verarbeitung von Nachrichteninhalten zusammen mit den im Theorieteil erarbeiteten Prinzipien und Prozessen sozialer Gruppen auf das Phänomen übertragen werden. Trotzdem sollen Fake News an dieser Stelle ein eigenes Kapitel gewidmet werden, da sie den Startpunkt für diese Studie liefern. Dabei gilt es zunächst zu klären, was sich hinter dem Konstrukt konkret verbirgt, welche Erscheinungsformen es annimmt und wie es definiert wird. Anschließend soll aufgezeigt werden, wie verbreitet Fake News online tatsächlich sind. Zudem sollen mögliche Ursachen von Fake News erarbeitet sowie skizziert werden, inwiefern sich Fake News korrigieren lassen.

2.1.1 Erscheinungsformen und Definition

Wie bereits zu Anfang der Arbeit angeklungen ist, sind Fake News nicht gleich Fake News. Da der Terminus im öffentlichen Diskurs aktuell jedoch omnipräsent ist und häufig unreflektiert verwendet wird, gilt mittlerweile fast alles als Fake News, was entweder falsch ist oder auch nur den Anschein erweckt, falsch zu sein. Auch die politische Instrumentalisierung des Begriffs, in dem Argumente des politischen Gegners strategisch als Fake News denunziert werden (Dentith 2017: 75f.), hat zu diesem Umstand beigetragen. An dieser Stelle soll daher eine systematische Einordnung der verschiedenen Erscheinungsformen von Fake News erfolgen und definiert werden, was im Kontext dieser Studie unter Fake News zu verstehen ist.

Tatsächlich galten Fake News in der „Pre-Trump-Era“ lange als das Produkt von Satire-Sendungen wie etwa – den in den USA beliebten – The Daily Show with Jon Stewart oder The Colbert Report. Selbst viele wissenschaftliche Publikationen (u.a. Balmas 2014; Marchi 2012) verwiesen auf die Ursprünge von Fake News in derartigen Unterhaltungssendungen. So stellt etwa Balmas (2014: 432) fest: „Fake news genre represents programming where either the program’s central focus or a very specific and well-defined portion is devoted to political satire“. Marchi (2012: 253) betont darüber hinaus, dass Fake News zwar real existierende Nachrichtenformate imitiere, mittels Satire im Kern jedoch eine ernsthafte Diskussion über politische Themen anstoßen wolle. Dort liegt der Unterschied zur Parodie, einer weiteren Erscheinungsform von Fake News, die sowohl in Format als auch Inhalt fiktiv ist (Tandoc et al. 2018: 142). Beiden Fake News-Formen ist hingegen gemein, dass der Rezipient in der Regel nicht getäuscht wird, sondern sich bewusst ist, dass es sich nicht um „echte“ Nachrichten handelt (ebd.).

In den letzten Jahren hat der Begriff „Fake News“ jedoch einen Bedeutungswandel erfahren. Die wiederholte Verbreitung von Unwahrheiten im Zuge der Brexit-Kampagne und besonders auch des US-Wahlkampfs im Jahre 20164 hat dazu geführt, dass Fake News zunehmend im Kontext von Misinformationen und Desinformationen verortet werden (Wardle 2017). Misinformationen sind dabei falsche oder fehlerhafte Informationen, die jedoch auch versehentlich bzw. unbewusst produziert und verbreitet werden können, während Desinformationen die intentionale Täuschung des Lesers durch Manipulation von Inhalten bzw. durch Kreation fiktiver Inhalte bezeichnen (Lazer et al. 2018: 1094). Eine gute Orientierung bietet in diesem Zusammenhang die Systematisierung der „Stiftung Neue Verantwortung“ (Abbildung 1), die konkretisiert, was unter Misinformationen und Desinformationen zu verstehen ist und so Fake News von anderen Formen der Falschinformation abgrenzt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Konzeptualisierung und Abgrenzung verschiedener Arten von Mis- und Desinformationen

Quelle: Sängerlaub, Meier & Rühl 2018: 11.

Neben der bereits erwähnten Satire sowie der strategischen Verwendung des Labels „Fake News“ in der Politik („Poor Politics“) wird hier unter die Kategorie „Poor Journalism“ subsumiert, was sich als Misinformation klassifizieren lässt. Darunter fällt zum Beispiel die seit einigen Jahren prävalente (journalistische) Technik des „Clickbaitings“ (dt. „Klickködern“), die hauptsächlich darauf abzielt, Überschriften eines Teasers mittels linguistischer Techniken derart aufzubauen, dass potenzielle Leser zum Klicken auf eine Zielseite animiert werden (Rony, Hassan & Yousuf 2017). Zudem wird die klassische journalistische Falschmeldung, die sog. „Ente“, als Misinformation eingestuft. Diese entsteht, wie im Falle des angeblichen „Sex-Mobs“ in Frankfurt am Silvesterabend 2016 (für Details siehe Seemann 2017a), häufig aus einer ungenügenden journalistischen Prüfung von Informationen bzw. dem einseitigen Bezug auf unseriöse Quellen. Obwohl Misinformationen unter bestimmten Umständen zu Fake News mutieren können, sind sie definitorisch von diesen zu trennen, da eine bewusste Täuschung einerseits häufig nicht intendiert ist und Falschmeldungen andererseits in der Regel nachträglich richtiggestellt werden (siehe Abbildung 1).

In Anlehnung an die vorliegende Systematisierung werden Fake News in dieser Studie daher als bewusst gestreute Desinformationen verstanden, die das Ziel verfolgen, einer sozialen Gruppe, dem politischen Gegner und/oder gesellschaftlichen Institutionen zu schaden. Dabei kann es jedoch zu Abstufungen bezüglich der Intensität von Fake News kommen – von teilweise richtigen Darstellungen, die lediglich dekontextualisiert werden, über Bild-Manipulationen bis hin zu völlig frei erfundenen Inhalten (ebd.).5

Zwei weitere wichtige Dimensionen des Konstrukts lassen sich zudem ergänzen, in dem man gängige Definitionen von Fake News zu Rate zieht. Erstens handelt es sich bei Fake News um Inhalte, die sich nachweislich und auf Basis gesicherter Fakten, also intersubjektiv nachvollziehbar und möglichst objektiv, als falsch einstufen lassen (Allcott & Gentzkow 2017: 213). Zweitens spielt die Gestaltung von Fake News eine elementare Rolle wie Lazer et al. (2018: 1094) in ihrer Definition betonen:

We define “fake news” to be fabricated information that mimics news media content in form but not in organizational process or intent [Hervorhebung d. Verf.]. Fake-news outlets, in turn, lack the news media’s editorial norms and processes for ensuring the accuracy and credibility of information.

Der Umstand, dass Fake News die formale Gestaltung realer Nachrichtenseiten annehmen und darüber hinaus online häufig unter ähnlichen Domain-Namen (z.B. WashingtonPost.com.co) erscheinen (Allcott & Gentzkow 2017: 217), macht es für Internetnutzer besonders schwer, Fakt und Fiktion zu trennen. Wie Untersuchungen zur Zuschreibung von Glaubwürdigkeit in Online-Quellen gezeigt haben, spielen kognitive Heuristiken eine wichtige Rolle, wenn es darum geht, Inhalte im Internet zu evaluieren (Metzger & Flanagin 2013). Schreibt der Nutzer der Quelle als Ergebnis des heuristischen Prozesses Glaubwürdigkeit zu, steigt auch die Wahrscheinlichkeit, dass dem Inhalt vertraut und die Quelle nicht weiter hinterfragt bzw. geprüft wird (Tandoc et al. 2018: 7). Eine auf Basis der Heuristik „äußere Form“ angenommene Seriosität einer Seite muss sich jedoch nicht zwangsläufig auch in den inhaltlichen Arbeitsweisen der Betreiber widerspiegeln.

2.1.2 Prävalenz und Einfluss

Nachdem Fake News begrifflich genauer gefasst wurden, gilt es nun zu klären, wie weit verbreitet sie sind und wie stark ihr Einfluss tatsächlich ist. Wie bereits beschrieben, werden Fake News sowohl im gesellschaftlichen als auch im wissenschaftlichen Kontext recht prominent diskutiert. Doch haben sie das Potenzial, Wahlen zu beeinflussen, wie nach der Wahl Donald Trumps vereinzelt behauptet wurde (Jang & Kim 2018: 295)?

Zunächst muss man die zirkulierenden Zahlen zur Verbreitung von Fake News etwas relativieren, da es sich notwendigerweise stets um Schätzungen handelt. Die genaue Bestimmung des Einflusses von Fake News wird zudem durch automatisierte Verbreitungswege wie etwa sog. „ social bots “ erschwert.6 Diese täuschen eine Reichweite vor, die real nicht vorhanden ist und machen es damit wahrscheinlicher, dass auch echte Nutzer – im Sinne der „Bandwagon-Heuristik“ – den Beitrag weiterverbreiten (Tandoc et al. 2018: 3). Laut Lazer et al. (2018: 1095) sind beispielsweise auf dem Kurznachrichtendienst Twitter etwa 9–15 Prozent aller aktiven Accounts Bots. Obwohl unumstritten ist, dass Fake News online sehr große Reichweiten erzielen, bleibt somit bislang unklar, zu welchem Anteil es sich dabei um organische Reichweiten handelt.

Trotz aller Schwierigkeiten, Prävalenz und Einfluss von Fake News online exakt zu bestimmen, wurden spätestens seit 2016 einige wissenschaftliche Versuche in diese Richtung unternommen (u.a. Allcott & Gentzkow 2017; Guess et al. 2018; Vosoughi et al. 2018). Dabei konzentriert sich die überwiegende Mehrheit der Artikel auf Fake News in sozialen Medien, da diese nicht nur die massenhafte Verbreitung von Nachrichteninhalten beschleunigt haben, sondern mittlerweile über Zweidrittel (67%) der Amerikaner angeben, Nachrichten über soziale Medien zu beziehen (Shearer & Gottfried 2017: Par. 1).7 Die Verbreitungsmechanismen dieser Medien führen zudem dazu, dass Nutzer auf Inhalte – so auch Fake News – treffen nach denen sie überhaupt nicht aktiv gesucht hatten („ incidental news exposure “; Karnowski, Kümpel, Leonhard & Leiner 2017).

Schaut man nun zunächst auf die Zahlen der Betreiber selbst zur Verbreitung von Fake News auf ihren Plattformen, so scheint die Problematik insgesamt überschätzt zu werden. So berichten Lazer und Kollegen (2018: 1095): „Facebook has estimated that manipulations by malicious actors accounted for less than one-tenth of 1% of civic content shared on the platform […]“. Diese in einer Senatsanhörung zum Einfluss Russlands auf den US-Wahlkampf getroffene Aussage wurde von Facebook bislang jedoch nicht mit belastbaren Daten untermauert. In der Tat kommen unabhängige Analysen zu einem deutlich stärkeren Einfluss von Fake News. In einer Untersuchung8 zum US-Wahlkampf 2016 konstatieren die Autoren, dass über ein Viertel (27,4%) der Amerikaner älter als 18 Jahre in den letzten Wochen vor der Wahl mindestens eine pro-Trump bzw. pro-Clinton Fake News-Seite besucht hat (Guess et al. 2018: 4). Interessant ist zudem, dass ein eindeutiger Zusammenhang zwischen häufiger Facebook-Nutzung und dem Besuch von Fake News-Seiten festgestellt werden konnte (ebd.: 7ff.). Wie diesbezüglich eine URL-Analyse ergab, war Facebook in über 22 Prozent der Fälle unter den letzten drei Seiten vor dem Aufruf von Fake News-Inhalten (ebd.).

In einer weiteren Studie, die sich ebenfalls mit dem letzten US-Wahlkampf beschäftigt, wurden Teilnehmern in einer „Post-Election-Survey“ Überschriften verschiedener Kategorien vorgelegt – von tatsächlich veröffentlichten Überschriften großer Medienhäuser („Big True“) über „echte“ Fake News („Big Fake“) bis hin zu fiktiven „Placebo-Headlines“ (Allcott & Gentzkow 2017: 220f.). Anschließend sollten Teilnehmer zum einen angeben, ob sie sich an die Überschrift erinnern, zum anderen, ob sie diese im Wahlkampf für wahr gehalten hätten (ebd.). Insgesamt wurden wahre Überschriften signifikant häufiger erinnert und auch geglaubt als Fake News oder Placebos (ebd.: 225f.). Interessant war jedoch besonders, dass tatsächlich zirkulierende Fake News nur wenig mehr erinnert und geglaubt wurden als Placebos (Fake News: 15% erinnert, 8% geglaubt vs. Placebos: 14% erinnert, 8% geglaubt) (ebd.). Auf Basis der Befragung und in Kombination mit der Analyse von Fake News-Reichweiten auf Facebook kamen die Forscher letztlich zu dem Ergebnis, dass der durchschnittliche Erwachsene im US-Wahlkampf kaum mehr als eine Fake News gesehen und erinnert hat (ebd.: 227). Selbst wenn diese den gleichen Einfluss auf die Wahlentscheidung gehabt hätte wie ein politischer TV-Spot, wäre der Einfluss von Fake News im Wahlkampf marginal gewesen (ebd.: 232).

Während sich die zuvor zitierten Untersuchungen vorrangig im Kontext von Facebook bewegen, konzentriert sich eine aktuelle Studie auf Fake News bei Twitter. In einer Big-Data-Analyse von – zuvor mit unabhängigen Recherche- und Prüfungsinstituten – als „falsch“ und „wahr“ definierten Gerüchten auf Twitter im Zeitraum von 2006–2017 kommen die Autoren zu dem Ergebnis „that falsehood diffused significantly farther, faster, deeper, and more broadly than the truth […]“ (Vosoughi et al. 2018: 1147). Falsche Meldungen erreichen bei Twitter also nicht nur größere Reichweiten, sondern diffundieren – besonders durch deren virale Verbreitung in Peergroups – auch wesentlich schneller in weitere Bereiche des Netzwerks (ebd.: 1148). Interessant ist zudem, dass dies in stärkerem Maße für falsche „Nachrichten“ aus der Politik gilt und weniger für Falschmeldungen anderer Themenkomplexe (ebd.). Selbst bei Kontrolle verschiedener intervenierender Variablen stellten die Forscher abschließend fest, dass Fake News etwa 70 Prozent wahrscheinlicher „retweeted“ werden als wahrheitsgemäße Nachrichten (ebd.: 1149). Als einen Hauptgrund dafür machten sie das Kriterium der „Neuheit und Überraschung“ verantwortlich, das Fake News inhärent ist (ebd.: 1149f.).

Wie in diesem Kapitel deutlich wurde, sind die bisherigen Ergebnisse zur Online-Prävalenz von Fake News nur schwer vergleichbar. Dies liegt einerseits an der Komplexität der Messung derartiger Inhalte sowie unterschiedlichen methodischen Zugängen und Forschungszielen, andererseits daran, dass sich die erhobene Prävalenz je nach sozialem Medium und festgelegtem Untersuchungszeitraum (z.B. in Wahlkampfzeiten) unterscheidet. Ein weiterer wichtiger Hinweis ist zudem, dass die bloße Reichweite von Fake News noch kein Indikator für deren Wirkung darstellen muss. „[…] [K]nowing how many individuals encountered or shared a piece of fake news is not the same as knowing how many people read or were affected by it“ (Lazer et al. 2018: 1095).9 Zwar dürfte Prävalenz und Einfluss von Fake News sehr viel stärker ausgeprägt sein als von den Plattform-Betreibern selbst zugegeben, dass Fake News für die Wahl Donald Trumps entscheidend gewesen sein sollen mutet angesichts der präsentierten Befunde jedoch ebenfalls unrealistisch an.

2.1.3 Ursachen

Schaut man nun auf potenzielle Ursachen für das Aufkommen von Fake News, so wird schnell deutlich, dass es nicht die eine Erklärung für das Phänomen gibt, sondern es sich vielmehr um einen Ursachenkomplex handelt. Interessant ist in diesem Zusammenhang jedoch, dass aktuelle Forschung vor allem Ursachen identifiziert hat, die sich auf tieferliegende Probleme moderner Gesellschaften beziehen und weniger solche, die primär mit einer außer Kontrolle geratenen Online-Welt zu tun haben. Eine Analyse von Ursachen, die zur „post-truth era“ geführt haben, wurde von Lewandowsky und Kollegen (2017) vorgelegt. Im Folgenden sollen einige davon überblicksartig beleuchtet werden.10

Als erstes greifen die Autoren das schwindende soziale Kapital moderner Gesellschaften auf (Lewandowsky et al. 2017: 357). Soziales Kapital ist dabei definiert „as good will, fellowship, mutual sympathy, and social intercourse among a group of individuals and families who make up a social unit“ (Aldrich & Meyer 2015: 256). Vereinfacht gesagt geht es darum, wie soziale Beziehungen und Netzwerke sowie gesellschaftliche Partizipation (z.B. durch ehrenamtliches Engagement) einen positiven Einfluss auf Individuen und ganze „Communities“ haben können (ebd.). Bereits in den 1990er-Jahren beschrieb der renommierte Soziologe und Politikwissenschaftler Robert Putnam am Beispiel der USA jedoch, dass soziales Kapital schwindet. Er machte dies vor allem an Indikatoren des sozialen Engagements fest, in dem er darlegte, dass die Anzahl der Mitglieder in Parteien, Gewerkschaften, sozialen Verbänden, Vereinen und weiteren gesellschaftlichen Institutionen im Laufe der letzten Jahrzehnte signifikant abgenommen hatte (Putnam 1995: 67ff.).

Neuere Studien zeigen zudem, dass der Kreis der Personen im engsten sozialen Umfeld denen man persönliche Dinge anvertrauen würde unter Amerikanern kleiner wird (Lewandowsky et al. 2017: 357). Ein Viertel der Amerikaner gab im Jahr 2004 sogar an, über keine einzige vertraute Person im unmittelbaren Umfeld zu verfügen (Sander & Putnam 2010: 10). Bezogen auf Fake News könnte man hier argumentieren, dass dadurch die soziale Absicherung fehlt, um Mis- und vor allem Desinformationen evaluieren zu können. Individuen, die keine Bezugspersonen haben, um politische Themen und Sachverhalte diskutieren zu können, sind so eventuell anfälliger für Fake News.11

Die wachsende ökonomische Ungleichheit westlicher Gesellschaften wird als eine weitere Ursache für den „Erfolg“ von Fake News angesehen (Lewandowsky et al. 2017: 357–358). Besonders extrem ist dabei einmal mehr das Beispiel USA. Während im Jahre 2014 der Anteil des reichsten Prozents am nationalen Einkommen mehr als 20 Prozent betrug, kamen die unteren 50 Prozent der Bevölkerung lediglich auf einen Anteil von 12,5 Prozent (Piketty, Saez & Zucman 2018: 575). Die reichsten 0,1 Prozent verdienten sogar fast 10 Prozent des nationalen Einkommens und damit in einer ähnlichen Größenordnung wie die unteren 50 Prozent (ebd.). Auch wenn die ökonomische Komponente nur eine Facette von Ungleichheit ist, bringt sie weitere Folgeprobleme mit sich. Besonders problematisch ist der Befund, dass ökonomische Ungleichheit politische Polarisierung verstärkt (Lewandowsky et al. 2017: 358).

So ergab eine Untersuchung zum Thema Gruppen-Polarisierung am Beispiel von Parteien, dass das Ausmaß der politischen Gegnerschaft von Demokraten und Republikanern in den USA ähnlich stark ist wie die gesellschaftliche Polarisierung zwischen schwarzen und weißen US-Bürgern (Iyengar & Westwood 2015: 703ff.). Tatsächlich hat die politische Polarisierung in den USA im Laufe der letzten Jahrzehnte gravierend zugenommen, was sich auch an der durchschnittlichen Differenz der ideologischen Selbstverortung von Demokraten und Republikanern ablesen lässt, die sich von 1972 bis 2004 mehr als verdoppelt hat (Spohr 2017: 151). Zudem sinkt die Anzahl derer, die sich politisch zu den „moderates“ zählen, sich auf der ideologischen Links-Rechts-Achse also in der Mitte verorten, seit Jahren kontinuierlich (ebd.). Eine aktuelle Studie, die sich mit politischer Polarisierung in den USA befasst, weist zudem auf die Emotionalität des dadurch entstandenen politischen Klimas hin und zieht folgendes Fazit:

Americans may or may not be further apart on the issues than they used to be. But clearly what divides them politically is increasingly personal […]. We don’t just disagree politely about what is the best way to reform the health care system. We believe that those on the other side are trying to destroy America, and that we should spare nothing in trying to stop them (Gentzkow 2016: 20).

Die beschriebene Polarisierung politischer Fragen, die nur noch Extreme zu kennen scheint, schafft eine Atmosphäre, in der ein sachlicher Diskurs nicht mehr möglich ist. Bezogen auf die Rezeption von Fake News kann dies bedeuten, dass konträre Informationen a priori abgelehnt werden, wenn sie vom politischen Gegner stammen. Und andersherum Informationen – selbst wenn sie unseriös sind – weiterverbreitet werden, wenn sie aus der Eigengruppe kommen (siehe Kapitel 2.2.2).

Als einen weiteren Katalysator für die Verbreitung von Fake News sehen viele Autoren den Vertrauensverlust, den gesellschaftliche Institutionen in den letzten Jahren und Jahrzehnten erfahren haben (Lewandowsky et al. 2017: 358). Dieser manifestiert sich unter anderem in einer zunehmenden Skepsis gegenüber Ergebnissen faktenbasierter Wissenschaft (ebd.). Von der Realität eines sich vollziehenden Klimawandels bis hin zur Wirksamkeit von Impfungen werden wissenschaftliche Ergebnisse, selbst wenn sie auf akademischem Konsens beruhen, immer häufiger in Frage gestellt. Was „gefühlt“ wahr ist, das gilt auch ohne rationale Argumente oder gar empirische Daten, ein Umstand der in der Forschung als „ truthiness “ bezeichnet wird (McCright & Dunlap 2017: 390).

Auch das Vertrauen in die Massenmedien, die einstmals als „vierte Gewalt“ galten, hat erheblich gelitten. Laut dem aktuellen „Digital News Report“ vertrauen in den USA lediglich 38 Prozent der Befragten Nachrichtenmedien die meiste Zeit (Newman et al. 2017: 20f.). Bei politisch rechts-orientierten Menschen sind es sogar nur 20 Prozent (ebd.). Das „Edelman Trust Barometer“ kommt für das Jahr 2018 darüber hinaus zu dem Ergebnis, dass auch weitere Institutionen in den USA wie etwa die Regierung massiv an Vertrauen verloren haben (Ries, Bersoff, Adkins, Armstrong & Breuning 2018: 11).12 Vor dem Hintergrund dieses Vertrauensverlustes ist es wenig verwunderlich, dass sich ein Teil der Menschen „alternativen Institutionen“ zuwendet, die einerseits für die Verbreitung von Fake News, andererseits aber auch für die Entstehung digitaler Tribes eine wichtige Rolle spielen (Seemann 2017a: 22ff.).

Als letzten potenziellen Auslöser der beschriebenen Fake News-Expansion sehen Lewandowsky und Kollegen (2017: 359f.) die permanente Evolution des Mediensystems an. So differenzieren sich die Medienangebote im Internet immer weiter aus, was zu einer starken Fragmentierung der Leserschaft geführt hat (Napoli 2012: 81). Dominierten vor dem flächendeckenden Durchbruch des Internets noch einige wenige Medienanbieter das redaktionelle Angebot, können Leser heute aus einer beinahe unendlichen Fülle an Informationsangeboten wählen. Dies hat einerseits zu einem verstärkten Wettbewerb um Aufmerksamkeit und der Anwendung entsprechend boulevardesker Strategien geführt (Chen et al. 2015: 1), andererseits dazu, dass Leser nicht-konsonante Nachrichten hinsichtlich ihrer Weltanschauung aktiv vermeiden und sich konsonanten Inhalten zuwenden können (Lewandowsky et al. 2017: 359). Potenziell haben Menschen heute also die Option, sich im Internet in ihre bevorzugte „Echo-Kammer“ zu begeben (ebd.).

Zum Abschluss dieses Kapitels soll ein weiterer Aspekt, der zum „Erfolg“ von Fake News beiträgt, aufgegriffen werden. So muss differenziert werden, warum bestimmte Akteure Fake News verbreiten. Wie in der Forschung aufgearbeitet wurde, spielen finanzielle Gründe bei der Verbreitung von Fake News eine ebenso bedeutende Rolle wie ideologische (Tandoc et al. 2018: 2). Da Internetseiten, die Fake News publizieren, – besonders in Wahlkampfzeiten – hohe Klickzahlen generieren, sind diese auch für Werbetreibende interessant, die nicht selten pro Klick bezahlen (ebd.). Fake News werden also nicht nur produziert, um bestimmte politische Ansichten zu verbreiten, sondern auch, um Geld zu verdienen. Eine Gruppe mazedonischer Teenager verdiente während des US-Wahlkampfs einige zehntausend Dollar, indem sie mehr als hundert Seiten mit Pro-Trump- und Pro-Clinton-Fake News betrieben (Allcott & Gentzkow 2017: 217). Die auf Werbeeinnahmen basierenden digitalen Geschäftsmodelle der Betreiber von Fake News-Seiten zu unterbrechen, wird daher als ein probates Mittel angesehen, die Verbreitung von Unwahrheiten online einzudämmen (Bakir & McStay 2018: 166ff.).

2.1.4 Korrektur

Obwohl es sich bei Nutzern von Fake News-Seiten zumeist um Gruppen von „heavy usern“ handelt, die in Summe erheblich kleiner sind als die Nutzergruppen etablierter Medien (Nelson & Taneja 2018), sind sich die meisten Autoren einig, dass Fake News negative Auswirkungen auf Demokratie und Gesellschaft haben (u.a. Bakir & McStay 2018: 159ff.). Nicht verwunderlich ist daher, dass sich ein ganzer Forschungszweig damit beschäftigt, wie man derartige Mis- bzw. Desinformationen kontern kann (u.a. Chan, Jones, Jamieson & Albarracín 2017; De keersmaecker & Roets 2017; Lewandowsky et al. 2017). Ein in der Literatur vielfach diskutierter Ansatz ist dabei das sog. „ fact-checking “ bzw. „ debunking “, das entweder von unabhängigen Instituten (z.B. „PolitiFact“ oder „Snopes“), den Medienhäusern selbst oder sogar von Plattformbetreibern wie Facebook13 durchgeführt werden kann (Lazer et al. 2018: 1095). Ziel ist es, durch das faktenbasierte und unmittelbare Richtigstellen einer Fake News deren Wirkung auf den Leser abzuschwächen. Aktuelle Forschung zu dieser Praxis zeigt jedoch, dass es berichtigende Inhalte nur selten schaffen, die initiale Wirkung einer Mis- bzw. Desinformation aufzuheben (Lewandowsky et al. 2017: 355f.).

Das Phänomen des sog. „continued-influence effect“ besagt, dass der Einfluss einer Fehlinformation selbst dann weiterbesteht, wenn Individuen darauf hingewiesen werden, dass sie eine solche erhalten haben und diese anschließend korrigiert wird (ebd.: 355). Korrekturen können – sofern sie die Weltvorstellungen von Individuen angreifen – den Glauben in Fake News durch „backfire effects“ sogar noch steigern (ebd.). Manche Autoren kommen daher zu einem ernüchternden Fazit bezüglich der Wirksamkeit von Korrekturen: „In the post-truth era, countering each piece of misinformation will prove ineffective – we doubt it will be possible to sneak true but inconsistent information past someone’s activated worldview“ (Hyman & Jalbert 2017: 378). Ein zusätzliches Problem besteht darin, dass Korrekturen online nicht die gleiche Reichweite wie Fake News erzielen. Individuen, die eine Fake News rezipiert haben, bekommen also unter Umständen nie deren Korrektur zu sehen (Sängerlaub et al. 2018: 79ff.). Dies liegt unter anderem daran, dass die Faktenlage nicht immer eindeutig ist und es – für die kürzer werdenden Aufmerksamkeitszyklen online – zu lange dauern kann bis eine durch Fakten abgesicherte Korrektur verbreitet wird (ebd.).

Trotz der zuvor beschriebenen Herausforderungen sind Korrekturen nicht generell wirkungslos. In einer umfassenden Meta-Analyse von Effektstärken aus Experimenten zu Fehlinformationen und deren Korrekturen kommen die Autoren zu dem Ergebnis, dass „debunking“ durchaus starke Wirkungen erzielen kann (Chan et al. 2017: 1538). Zwar wurden ebenfalls starke Effekte für die Fehlinformation selbst sowie für das Festhalten an der Fehlinformation identifiziert, trotzdem können Korrekturen in bestimmten Kontexten funktionieren (ebd.). Auch weitere Untersuchungen zeigen, dass Individuen ihre Einstellungen durchaus anpassen, nachdem sie erkennen, dass eine zunächst präsentierte Information falsch ist (De keersmaecker & Roets 2017: 108f.). Die Stärke der Anpassung eigener Einstellungen ist dabei jedoch von ihren kognitiven Fähigkeiten abhängig (ebd.). Je stärker diese ausgeprägt sind, desto höher der Grad der Anpassung (ebd.).

2.2 Digitaler Tribalismus

In diesem Teil der Arbeit soll es nun um das Phänomen des „digitalen Tribalismus“ gehen, das zusammen mit seinen kognitionspsychologischen Komponenten die theoretische Basis für diese Studie darstellt. Dabei wird zunächst der wissenschaftliche Diskurs zu „Filterblasen“ und „Echo-Kammern“ aufgearbeitet, um thematisch zum digitalen Tribalismus überzuleiten. Anschließend sollen empirische Ergebnisse einer der Schlüsselstudien (Seemann 2017a) präsentiert und das Konzept genauer erläutert werden. Das Kapitel schließt mit der ausführlichen Darstellung der psychologischen Grundlagen, welche die Entwicklung hin zu einem digitalen Tribalismus verstärken. Dabei wird der Diskussion der ICT etwas mehr Raum gewidmet, da diese später für die Genese der Hypothesen besonders wichtig sein wird (siehe Kapitel 3).

2.2.1 Einführung: Zur Existenz von „Filterblasen“ und „Echo-Kammern“

Wie bereits angedeutet, stehen sich in der Forschung zu Fake News zwei maßgebliche Thesen gegenüber. Während die eine These einen starken Einfluss von Algorithmen auf das präsentierte Nachrichtenangebot und damit den Nachrichten­konsum postuliert, geht die andere These davon aus, dass Nutzer sich selbst – im Sinne eines „selective exposure“ – vermehrt solchen Inhalten zuwenden, die sie in ihren eigenen Einstellungen bestätigen (Spohr 2017: 150). Unabhängig davon, welche These man für schlüssiger hält, wären die Konsequenzen bezogen auf den Konsum von Nachrichteninhalten in beiden Fällen dramatisch. Schließlich hätte man es mit einer Online-Nutzerschaft zu tun, die nur noch mit Nachrichten konfrontiert wird, die ihrer persönlichen Weltanschauung entsprechen.14 In der ersten Variante ist der Nutzer dabei „Täter“ und „Opfer“ zugleich. Zwar formt er durch sein individuelles Klick-Verhalten seine eigene Online-Umgebung, intendiert dies jedoch nicht zwangsläufig bzw. ist sich dessen nicht bewusst (Bakir & McStay 2018: 161). In der zweiten Variante hingegen begibt sich der Nutzer aktiv in seine bevorzugte Online-Umgebung, in dem er sich konsonanten Inhalten zuwendet und nicht-konsonante Inhalte vermeidet.

Was zuvor beschrieben wurde, wird unter den Stichworten „filter bubble“ und „echo chamber“ bereits seit einiger Zeit in der Forschung diskutiert (u.a. Pariser 2011; Sunstein 2001, 2017). Den Konzepten liegen dabei zwei Prämissen zugrunde. Erstens wird davon ausgegangen, dass es online möglich ist, einen hermetisch abgeschlossenen Raum zu schaffen, der politisch konträre Informationen ausblendet (Freelon 2017: 39). Zweitens, so die These, entscheiden sich Nutzer, wenn sie online die Wahl haben zwischen einem solchen und einem aus diversen Inhalten zusammengesetzten Raum, tendenziell für ersteren (ebd.). Wie Lobo (2017: Par. 10–11) darlegt, kann die Schaffung eines persönlichen Schutzraumes ein mögliches Motiv für diese Wahl sein: „Filterblasen sind […] auch ein persönlicher Kontrollmechanismus, um soziale Medien überhaupt zu ertragen; Funktionen wie Ausblenden, Entabonnieren oder Blocken sind die Werkzeuge dieser Schutzblase“.

Um besser zu verstehen, was sich hinter den Konzepten verbirgt, muss man einen genaueren Blick auf Algorithmen bzw. auf Personalisierung im Internet werfen. Wie Haim und Kollegen (2018: 332f.) erläutern, erfüllen Algorithmen viele nützliche Funktionen, in dem sie beispielsweise aus einer gegebenen Masse an potenziell erreichbaren Informationen die relevantesten filtern. Damit dies gelingt, werden verschiedenste Informationen des suchenden Nutzers einbezogen – von individuellen Interessen über das Surf-Verhalten bis hin zu Kontextfaktoren wie etwa dem aktuellen Standort des Nutzers (ebd.). In diesem Zusammenhang unterscheidet man die explizite und die implizite Personalisierung (Thurman & Schifferes 2012: 776ff.). Während bei der expliziten Personalisierung bestimmte Informationen vom Nutzer selbst aktiv preisgegeben werden (z.B. bei der Anmeldung für einen Newsletter), werden bei der impliziten Personalisierung Präferenzen aus zuvor passiv gesammelten Nutzer-Daten abgeleitet (ebd.). Beide Personalisierungsstrategien zielen letztlich darauf ab, mittels technisch erhobener Präferenzen sog. „kuratierte Inhalte“ zu generieren, die dem Nutzer möglichst großen Mehrwert liefern sollen.

Entgegen einer relativ verbreiteten kulturpessimistischen Sichtweise sind Algorithmen also nicht per se schlecht. Tatsächlich bauen sie jedoch zukünftige Empfehlungen auf vergangenes Online-Verhalten auf. Was man in der Vergangenheit geklickt, kommentiert, gekauft oder bezogen auf soziale Medien mit einem „Like“ bzw. einem „Emoji“ versehen hat, bildet die Grundlage für künftig angezeigte Inhalte (Bakir & McStay 2018: 161). Die Algorithmen identifizieren in diesem Kontext ein „ match “ (Haim et al. 2018: 332), gehen also davon aus, dass sich der Nutzer für die geklickten Inhalte interessiert und die Wahrscheinlichkeit recht hoch ist, dass in Zukunft erneut mit ähnlichen Inhalten interagiert wird. Auch hier könnte man zunächst argumentieren, dass dies eine recht nützliche Funktion ist, da es ja prinzipiell sinnvoll erscheint, wenn Nutzer hauptsächlich Inhalte angezeigt bekommen, die sie auch interessieren. Gerade bezüglich des Konsums von Nachrichteninhalten ergibt sich hier aber ein Problem.

In der Forschung herrscht Konsens, dass es für eine funktionierende Demokratie von zentraler Bedeutung ist, dass von Bürgern konsumierte Nachrichteninhalte einen bestimmten Grad an Diversität aufweisen (u.a. Flaxman et al. 2016: 299; Haim et al. 2018: 331f.; Spohr 2017: 151). Algorithmen sind jedoch nicht spezifisch darauf programmiert, eine solche – gesellschaftlich wünschenswerte – Diversität zu gewährleisten (Haim et al. 2018: 333). Vielmehr geht es darum, das Engagement der Nutzer zu fördern, um sie – etwa im Falle sozialer Medien – möglichst lange auf der Seite zu halten (Lobo 2017: Par. 9) und so entsprechende Werbeeinnahmen zu erzielen (Hurtz & Tanriverdi 2017: Par. 15). Engagement lässt sich wiederum wahrscheinlicher durch konsonante Inhalte erreichen bzw. durch Inhalte, die in der Vergangenheit bereits zu Interaktionen geführt haben. Dies ist der Hauptvorwurf der Kritiker, die behaupten, dass eine solche Personalisierung im Netz schließlich dazu führe, dass sich Nutzer nur noch in ihrer eigenen Blase aufhielten umgeben von sie bestätigenden Inhalten und Menschen (Sunstein 2017).

Mittlerweile gibt es jedoch zahlreiche Gegenstimmen zu den diskutierten Konzepten der „Filterblase“ und „Echo-Kammer“ (u.a. Freelon 2017; Garrett 2017). Zum einen zweifeln viele Autoren am starken Einfluss von Algorithmen und betonen die individuellen Entscheidungen der Nutzer:

Algorithmen sind nur aneinandergereihte Handlungsanweisungen an ein Computerprogramm. Sie denken nicht selbst, entwickeln kein Eigenleben und spiegeln höchstens Vorurteile und Weltanschauung ihrer menschlichen Schöpfer wider (Hurtz & Tanriverdi 2017: Par. 17).

Zum anderen wird eingewandt, dass – selbst bei einem starken Einfluss – das von Algorithmen anvisierte Engagement auch durch andere als selbstähnliche Inhalte erreicht werden könne (Lobo 2017: Par. 9).

Neben diesen allgemeinen Einwänden haben sich auch empirisch bislang kaum Belege für die oben beschriebene These finden lassen. In einer von Facebook selbst in Auftrag gegebenen Studie konnten lediglich schwache Effekte einer Filterblase identifiziert werden (Bakshy, Messing & Adamic 2015: 1131). Politisch linksliberale Nutzer sehen demnach etwa acht Prozent weniger Inhalte der konträren politischen Seite als ohne den Einfluss des Facebook-Filters; bei Konservativen liegt der Wert sogar nur bei fünf Prozent (ebd.). Auch in einer weiteren Studie, die über soziale Medien hinaus zudem Suchmaschinen in ihre Analyse von Web-Browsing-Daten mit einbezogen hat, wurden lediglich marginale Effekte gefunden (Flaxman et al. 2016: 317f.). So fanden die Forscher heraus, dass Websites, die über soziale Medien oder Suchmaschinen aufgerufen werden, mit einer etwas stärkeren ideologischen Segregation einhergehen als von Nutzern direkt aufgerufene Seiten (ebd.). Gleichzeitig wurden jedoch auch Belege dafür gefunden, dass die Nutzung von sozialen Medien und Suchmaschinen dazu führen kann, dass Nutzer einer größeren Nachrichtenvielfalt ausgesetzt sind (ebd.).

Eine andere Untersuchung konzentrierte sich auf den Einfluss von Algorithmen auf die präsentierte Nachrichtenvielfalt im Kontext des am häufigsten genutzten News-Aggregators „Google News“ (Haim et al. 2018). Dabei wurde sowohl der Einfluss expliziter als auch impliziter Personalisierung einem Test unterzogen (zu den Termini explizit und implizit siehe weiter oben). Es fanden sich jedoch nur minimale Effekte einer expliziten Personalisierung auf die „content diversity“, also die Vielfalt der präsentierten Themen (ebd.: 339). Die simulierte implizite Personalisierung hatte diesbezüglich keinen Einfluss (ebd.).

Auch die Algorithmen – besonders im Kontext sozialer Medien – häufig angelastete politische Polarisierung der Gesellschaft (siehe Einleitung) hält einer genaueren Überprüfung nicht stand. Erstens begann der Trend hin zu einer zunehmenden gesellschaftlichen Polarisierung in den USA bereits in der 1970er-Jahren (Lewandowsky et al. 2017: 358; Spohr 2017: 151), also deutlich bevor das Internet flächendeckend verfügbar und vor allem genutzt wurde. Zweitens kommt eine aktuelle Studie zu dem Ergebnis, dass die Polarisierung ausgerechnet in denjenigen Altersgruppen am stärksten zugenommen hat, die am wenigsten wahrscheinlich soziale Medien bzw. das Internet nutzen (Boxell, Gentzkow & Shapiro 2017: 3). Auch wenn die Autoren dies nicht als Beleg der Wirkungslosigkeit sozialer Medien verstanden wollen wissen, muss angesichts der vorgestellten Befunde doch bezweifelt werden, ob die solchen Medien zugrunde liegenden Algorithmen tatsächlich den häufig postulierten Einfluss auf die Gesellschaft haben.

Obwohl die beschriebenen Studien die Existenz von Filterblasen teilweise belegen, wurde deutlich, dass die gefundenen Effekte bestenfalls schwach ausfallen. Dies steht im Gegensatz zur Präsenz der Thematik im öffentlichen Diskurs, der suggeriert, dass durch Algorithmen verstärkte oder gar verursachte Filterblasen und Echo-Kammern das Hauptproblem im Zusammenhang mit Konsum und Verbreitung von Fake News seien.

Bisher wurde lediglich konstatiert, dass die These ersterer Forschungsrichtung zu Fake News (siehe Beginn dieses Kapitels) nicht überzeugend scheint. Doch wie sieht es bezüglich der zweiten These aus? Wenden sich Individuen tatsächlich hauptsächlich Inhalten zu, die sie bestätigen und begeben sich so freiwillig in ihre – wenn auch nicht technologisch bedingte – Echo-Kammer? Empirische Forschung hat für die Richtigkeit dieser These einige Belege geliefert (u.a. Garrett 2009; Iyengar & Hahn 2009; Guess et al. 2018). Werden Individuen mit einem Nachrichtenangebot bestehend aus verschiedenen politischen Meinungen konfrontiert, wählen sie signifikant wahrscheinlicher solche Artikel, die ihre eigenen Ansichten bestätigen und befassen sich mit diesen auch länger (Garrett 2009: 279). Weiteren Studien zufolge spielen Selektionsprozesse im Sinne eines „selective exposure“ auch eine wichtige Rolle im Zuge zunehmender gesellschaftlicher Polarisierung. So wählten in einem Experiment Republikaner signifikant häufiger Nachrichten von Fox News zum Lesen aus und vermieden systematisch liberalere Quellen wie etwa CNN – der umgekehrte Fall ergab sich für Demokraten (Iyengar & Hahn 2009: 28f.).15

Eine aktuelle Untersuchung konnte zudem Hinweise auf die selektive Auswahl von Fake News identifizieren. Demnach besuchten Trump-Unterstützer deutlich häufiger Fake News-Seiten, die insgesamt hauptsächlich pro-Trump ausgerichtet waren, als Clinton-Unterstützer (Guess et al. 2018: 4f.). Auch bezogen auf Facebook ist belegt, dass die individuellen Entscheidungen der Nutzer großen Einfluss auf die Wahrscheinlichkeit haben, mit der sie nicht-konsonante Informationen zu sehen bekommen (Bakshy et al. 2015: 1130). Wie Spohr (2017: 153f.) ausführt, werden Effekte eines „selective exposures“ bereits seit den 1960er-Jahren erforscht und sind dementsprechend gut dokumentiert. Als Grundlage für den relativ stabilen Effekt wird in der Regel der „ confirmation bias “ herangezogen, der besagt, dass eintreffende Informationen so selektiert und interpretiert werden, dass sie persönliche Erwartungen oder Glaubensgrundsätze bestätigen (ebd.).

Trotz der beschriebenen Belege für eine derartige Auswahl von Informationen werden nachfolgend mögliche Einwände genauer beleuchtet, um zu einer differenzierteren Betrachtung zu gelangen. Wie Garrett (2017: 371) darlegt, ist der Umgang mit nicht-konsonanten Informationen wesentlich komplexer als der Ansatz des „selective exposure“ suggeriert. Werden Individuen beispielsweise mit einseitigen und zweiseitigen Nachrichtenartikeln konfrontiert, wählen sie häufig eben nicht den konsonant einseitigen Artikel zulasten des differenzierten zweiseitigen (ebd.). In der Tat ist das behauptete Phänomen des aktiven Vermeidens nicht-konsonanter Informationen keineswegs empirisch abgesichert (Freelon 2017: 39). Zwar geben im neuesten „Digital News Report“ immerhin 38 Prozent der befragten US-Bürger an, bestimmte Nachrichten „manchmal“ bzw. „oft“ zu vermeiden, in den meisten der untersuchten Länder liegt der Anteil jedoch deutlich darunter (Newman et al. 2017: 40ff.). Auch was die Polarisierung der Mediennutzung angeht ist die USA ein Extremfall. Interessant ist jedoch, dass selbst in den USA – und konträr zur These eines „selective exposures“ – sieben Prozent der Rechtskonservativen das tendenziell liberalere Medium New York Times nutzen und neun Prozent der Linksliberalen Fox News (ebd.: 37).

Aus der Tendenz, eher konsonante Informationen zu konsumieren, folgt also nicht der Automatismus einer vollständigen Ignoranz gegenüber nicht-konsonanten Inhalten. Im Gegenteil scheint es sogar so zu sein, dass die meisten Menschen eine Diversität an Nachrichteninhalten und Perspektiven bevorzugen. Garrett (2013: 248) fasst dies wie folgt zusammen:

Empirical evidence indicates that despite the steadily growing opportunities for news personalization, a large and stable majority of Americans maintain a diverse news diet, relying heavily on the relatively less partisan mainstream media and consuming smaller amounts of both pro- and counter-attitudinal partisan sources.

Darüber hinaus ignoriert der Ansatz des „selective exposure“, dass Individuen unter Umständen auch ein Interesse daran haben können, sich nicht-konsonanten Inhalten zuzuwenden (Knobloch-Westerwick & Kleinman 2011). Die Beschäftigung mit kontroversen Inhalten gilt sogar als Merkmal einer aufgeklärten Bürgerschaft (Chaffee, Saphir, Graf, Sandvig & Hahn 2001). Garrett (2009: 278) konnte zudem belegen, dass sich Individuen, die nicht-konsonante Nachrichten vorgelegt bekommen, länger mit dem Inhalt befassen.

Auch die Befürchtung, dass soziale Medien derartige Tendenzen weiter verstärken würden, scheint übertrieben. Zwar beziehen immer mehr Menschen Nachrichten über soziale Medien (Shearer & Gottfried 2017: Par. 1), der Anteil derjenigen, die Facebook, Twitter und Co. als „wichtigste Nachrichtenquelle“ bezeichnen, ist jedoch verhältnismäßig gering (Newman et al. 2017: 10; siehe auch Gentzkow 2016: 19). Vielmehr beziehen Menschen ihre Information aus den unterschiedlichsten Quellen, wobei traditionelle Medien – und hier besonders das Fernsehen – immer noch eine Schlüsselrolle spielen (z.B. in Deutschland; Newman et al. 2017: 69f.).

Schließlich ist anzumerken, dass es sich bei vielen der durchgeführten Studien zu „selective exposure“ um kontrollierte (Labor-)Experimente handelt, welche die Grundgesamtheit an Themen notwendigerweise nur unzureichend abbilden können und sich tendenziell durch einen Fokus auf Politik auszeichnen (Feldman, Stroud. Bimber & Wojcieszak 2013: 175).16 Entgegen der öffentlichen Wahrnehmung spielt Politik online jedoch nicht die überragende Rolle. Wie Flaxman und Kollegen (2016: 301) feststellten, führt beispielsweise in sozialen Medien nur jeder 300. Klick überhaupt zu einem (politischen) Nachrichtenartikel. Eine weitere Studie kam im Kontext des Kurznachrichtendienstes Twitter zu dem Ergebnis, dass sich bei Nutzerprofilen häufig überhaupt keine politische Richtung ausbildet und die Nutzer selbst nur selten mit politischen Inhalten in Kontakt kommen (Behrens 2016: Par. 5). Und auch in Bezug auf Fake News hat man es mit einer, wenn auch sehr loyalen, Minderheit zu tun, die mit diesen interagiert (Guess et al. 2018: 1; Nelson & Taneja 2018: 8ff.). Selbst wenn Individuen ihre Informationen online hauptsächlich im Sinne des „selective exposure“ beziehen würden, hätte dies also vermutlich nicht die behaupteten dramatischen Folgen.

Die vorherigen Ausführungen sollen nicht dazu verleiten, den Einfluss von Algorithmen oder den einer selektiven Auswahl von Individuen grundsätzlich zu negieren. Das Kapitel hat jedoch gezeigt, dass einige der diesbezüglich diskutierten Konzepte in ihrer Wirkung überschätzt werden. Die soziale Realität bezogen auf Konsum und Verbreitung von Fake News ist offensichtlich komplexer und die besprochenen Phänomene nur ein Teil der Erklärung. Doch wie ist der Erfolg von Fake News online dann zu erklären? Aktuelle Studien geben Hinweise darauf, dass nicht die Auswahl von Nachrichteninhalten hauptverantwortlich ist, sondern es bei Fake News vielmehr um eine fehlgeleitete kognitive Verarbeitung rezipierter Inhalte gehen könnte (Seemann 2017a; siehe auch Kahan 2017). Diese vollzieht sich demnach nicht atomisiert, sondern stets in Wechselwirkung mit anderen Individuen und vor dem Hintergrund sozialer Gruppen. Das Konstrukt der „sozialen Identität“ (Tajfel 1974) und dessen Einfluss auf die Verarbeitung von Informationen ist in der Fake News-Debatte bislang jedoch nur unzureichend gewürdigt worden. Mit dem „digitalen Tribalismus“ (Seemann 2017a) soll daher nun ein Konzept vorgestellt werden, das Fake News als Symptom einer übersteigerten Loyalität gegenüber der eigenen sozialen „ingroup“ und deren Werten versteht.

[...]


1 Der betreffende Teil der Talk-Show findet sich auch auf YouTube: https://www.youtube.com/watch?v=mORLFP7NOss [Stand: 08.05.2018].

2 Trotz vereinzelter Appelle Fake News als politischen Kampfbegriff zu vermeiden (Riley 2017), soll in dieser Arbeit am Originalbegriff festgehalten werden. Die Schreibweise folgt dabei dem entsprechenden Eintrag im aktuellsten Duden (2018a).

3 Ein Umstand, der in der Medien- und Kommunikationswissenschaft unter dem Begriff „ selective exposure “ bereits seit längerem diskutiert wird (u.a. Garrett 2009, 2013). Der Unterschied liegt hier jedoch darin, dass sich der Nutzer aus einer gegebenen Diversität an Nachrichteninhalten bewusst den politisch konsonanten Inhalten und Medien zuwendet. Die Filterblase hingegen sorgt durch die technologische Beschaffenheit von Empfehlungsalgorithmen dafür, dass die Grundgesamtheit an Nachrichteninhalten von vorneherein politisch konsonant ist.

4 So kam die unabhängige „Fact-Checking“-Organisation PolitiFact zu dem Ergebnis, dass etwa 70 Prozent der Aussagen Trumps im Wahlkampf „falsch“ bzw. „größtenteils falsch“ waren (http://www.politifact.com/truth-o-meter/article/2016/sep/26/trump-clinton-fact-check-2016-president/).

5 Der Vollständigkeit halber sei erwähnt, dass einige Autoren zudem Propaganda (Khaldarova & Pantti 2016) sowie teilweise sogar Werbung und Public Relations als Fake News konzeptualisieren. Eine tiefergehende Auseinandersetzung mit diesen Begriffen und Richtungen würde an dieser Stelle jedoch zu weit führen. Für Details sei auf die entsprechende Meta-Analyse (Tandoc et al. 2018) verwiesen.

6 Auch staatlich gelenkte „ Troll-Fabriken “ spielen in diesem Prozess eine wichtige Rolle. Die Existenz entsprechender Einrichtungen wurde im Falle Russlands bereits 2015 nachgewiesen, wie ein Bericht des Nachrichtenmagazins Der Spiegel zeigt: http://www.spiegel.de/netzwelt/netzpolitik/russische-trollfabrik-eine-insiderin-berichtet-a-1036139.html [Stand: 05.07.2018].

7 Der Umstand, dass immer mehr Menschen Nachrichten über soziale Medien beziehen, bedeutet jedoch nicht, dass soziale Medien auch die wichtigste Informationsquelle sind. Wie die Autoren der zitierten Studie selbst darlegen, nutzen Menschen heutzutage einen Medienmix aus „neuen“ und „alten“ Medienangeboten, um sich zu informieren (Shearer & Gottfried 2017: Par. 16).

8 In der betreffenden Untersuchung wurden Ergebnisse aus Befragungen mit passiv erhobenen Web-Traffic-Daten kombiniert (für Details zur Methode siehe Guess et al. 2018: 3f.).

9 Eine Erkenntnis, die unter dem Titel „ exposure vs. engagement “ längst auch in der Forschung zur Messung von „media audiences“ diskutiert wird (siehe Thurman 2017: 3f.).

10 Es sei darauf hingewiesen, dass sich viele der hier besprochenen gesellschaftlichen Trends auf die USA beziehen. Zwar mögen einige davon auch auf andere westliche Länder zutreffen, dennoch ist die USA sicherlich nicht als „Normalfall“ zu bezeichnen.

11 Natürlich ist auch der umgekehrte Fall denkbar: So können Bezugspersonen die Wirkung von Fake News auch verstärken.

12 An dieser Stelle sei angemerkt, dass sich ähnliche Tendenzen, wenn auch nicht so stark ausgeprägt, auch in anderen Industrieländern identifizieren lassen (siehe Ries et al. 2018: 6ff.).

13 In der Tat hat Facebook eine Zeit lang mit dem „tagging“ von Inhalten experimentiert. Dabei wurden umstrittene Berichte mit einem „Disputed“-Tag versehen, also dem Hinweis, dass der Inhalt von unabhängigen Instituten angezweifelt wird. Details zu diesen Warnhinweisen bei Facebook sowie Gründe für deren Abschaffung finden sich hier: https://www.heise.de/newsticker/meldung/Fake-News-Facebook-schafft-Warnhinweise-wieder-ab-3926027.html [Stand: 17.07.2018].

14 Dies könnte zudem zu einer Verstärkung des sog. „ False-Consensus-Effects “ (u.a. Marks & Miller 1987; Mullen et al. 1984) führen. Individuen überschätzen dabei systematisch die Zustimmung anderer Menschen zu persönlichen Einstellungen, Werten oder Verhaltensweisen.

15 Die gezeigten Nachrichteninhalte waren dabei stets identisch. Es wurde lediglich die Quelle variiert. Für Details siehe Iyengar und Hahn (2009: 23f.).

16 Tatsächlich macht es einen großen Unterschied für die Stärke der gefundenen Effekte, ob man die Probanden nur aus politischen Themen auswählen lässt oder zudem beispielsweise Unterhaltungsthemen inkludiert (Feldman et al. 2013: 182f.).

Ende der Leseprobe aus 98 Seiten

Details

Titel
Warum sind Fake News so erfolgreich? Digitaler Tribalismus und identitätsstiftende Informationsverarbeitung
Autor
Jahr
2019
Seiten
98
Katalognummer
V456012
ISBN (eBook)
9783960955368
ISBN (Buch)
9783960955375
Sprache
Deutsch
Schlagworte
Digitaler Tribalismus, Fake News, Identity-protective cognition, Echo chambers & Filter bubbles, Glaubwürdigkeit, Neuigkeit, Authentizität, Social Media, Kommunikation
Arbeit zitieren
Lars Urhahn (Autor), 2019, Warum sind Fake News so erfolgreich? Digitaler Tribalismus und identitätsstiftende Informationsverarbeitung, München, GRIN Verlag, https://www.grin.com/document/456012

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Warum sind Fake News so erfolgreich? Digitaler Tribalismus und identitätsstiftende Informationsverarbeitung


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden