Die vorliegende Hausarbeit fokussiert das Thema soziale Medien und Politik und untersucht die Frage, welchen Einfluss algorithmisierte Filterungsmechanismen auf die Nutzer digitaler sozialer Medien in Bezug auf die politische Einstellung haben. Ziel dieser Arbeit ist es, die Gefahren sozialer Medien deutlich zu machen und diesbezüglich Lösungsansätze zu finden. Es soll untersucht werden, wie Nutzer:innen sozialer Medien sich über Nachrichten informieren, wie oft sie soziale Netzwerke nutzen und ob sie die Beiträge auf Seriosität überprüfen.
Inhaltsverzeichni
1. Einleitung
2. Begriffsdefinitionen
2.1 Filterblase
2.2 Echokammern
2.3 Social Bots
2.4 Soziale Medien
2.5 Fake News
2.6 Alternative Medien
3. Forschungsstand
4. Soziale Medien als Gefahr
5. Medienkompetenz als mögliche Lösung
6. Methode
7. Ergebnisse
8. Fazit
Literaturverzeichnis
Fragebogen
Grundauswertung
Ehrenwörtliche Erklärung
1. Einleitung
Im Jahr 2020 ist die Zahl der Internetnutzer:innen in Deutschland erneut angestiegen und lag somit bei 88%. 77% nutzen laut Statista das Internet, um Online-Nachrichten zu konsumieren (Statista 2021). Nutzer:innen des Internets sind nicht mehr nur Emp- fänger von Nachrichten und Informationen, inzwischen sind sie auch Produzent:innen von ihnen. Die Stiftung Neue Verantwortung entwickelte einen Nachrichtenkompe- tenztest, um die Fähigkeiten von Internetnutzer:innen ermitteln zu können. Hier stellte sich heraus, dass die meisten über Grundkenntnisse verfügen, jedoch schnitten sie insgesamt eher mittelmäßig bis schlecht ab (Knoll 2021).
Funktionierende Demokratien sind auf gut informierte Bürger:innen angewiesen. Dies wird besonders während Pandemien oder Wahlkämpfen deutlich. Das verstehen von Nachrichten, diese einordnen zu können und zu hinterfragen ist ein wesentlicher Fak- tor, um weniger anfällig für Populist:innen zu sein und dadurch ggf. Falschnachrichten zu erkennen und das Vertrauen in Institutionen zu wahren. Die Nachrichten- und In- formationskompetenz der Gesellschaft ist durch einen radikalen Medienwandel zu ei- nem kritischen Faktor für die Demokratie geworden (Wintterlin 2019, S. 3).
Heiko Maas äußerte sich zu der Thematik folgendermaßen:
„Das Internet ist ein zwiespältiger Faktor der politischen Kultur geworden. Weil der Kontakt zum Gesprächspartner fehlt, sinken Empathie und steigt die sprachliche Ver- rohung. Individualisierte Suchergebnisse sorgen eher für die Bestätigung der eigenen Meinung als für die Auseinandersetzung mit Gegenpositionen. Debatten werden zu- dem durch die Fülle der Verschwörungstheorien und dreisten Lügen erschwert, die im Netz kursieren. Wer dank Internet ganz genau zu wissen glaubt, dass es Erder- wärmung gar nicht gibt, mit dem kann ich über Klimapolitik nicht sinnvoll diskutieren. Und wer aus dem Internet verlässlich erfahren haben will, dass Flüchtlinge systema- tisch deutsche Streichelzoos wildern, um Ziegen zu schlachten (ja, auch so was wird verbreitet!), mit dem wird eine Debatte über Integrationspolitik sehr schwierig.“ (Maas 2016)
Die vorliegende Hausarbeit fokussiert das Thema soziale Medien und Politik und un- tersucht die Frage, welchen Einfluss algorithmisierte Filterungsmechanismen auf die Nutzer digitaler sozialer Medien in Bezug auf die politische Einstellung haben. Ziel dieser Arbeit ist es, die Gefahren sozialer Medien deutlich zu machen und diesbezüg- lich Lösungsansätze zu finden. Es soll untersucht werden, wie Nutzer:innen sozialer Medien sich über Nachrichten informieren, wie oft sie soziale Netzwerke nutzen und ob sie die Beiträge auf Seriosität überprüfen.
2. Begriffsdefinitionen
2.1 Filterblase
Der Begriff der Filterblase ist ein Begriff der Medienwissenschaft. Der Internetaktivist Eli Pariser nutzt diesen in seinem Buch „Filter Bubble – Wie wir im Internet entmündigt werden“ (Pariser 2012). Er charakterisiert den Begriff folgendermaßen:
„ Die neue Generation der Internetfilter schaut sich an, was Sie zu mögen scheinen – wie Sie im Netz aktiv waren oder welche Dinge oder Menschen Ihnen gefallen – und zieht entsprechende Rückschlüsse. Prognosemaschinen entwerfen und verfeinern pausenlos eine Theorie zu Ihrer Persönlichkeit und sagen voraus, was Sie als Nächs- tes tun und wollen. Zusammen erschaffen diese Maschinen ein ganz eigenes Infor- mationsuniversum für jeden von uns – das, was ich Filter Bubble nenne – und verän- dern so auf fundamentale Weise, wie wir an Ideen und Informationen gelangen.“ (Pa- riser 2012, S. 17)
2.2 Echokammern
In den Kommunikationswissenschaften beschreibt der Begriff „Echokammer“, dass es durch einen verstärkten Umgang mit Gleichgesinnten in den sozialen Medien zu einer Verengung der Weltsicht und somit zu Bestätigungsfehlern kommen kann. Die Echokammer kann als sozialer Raum verstanden werden, in dem man nicht mit an- deren Meinungen konfrontiert wird. Im Gegenzug wird die eigene Meinung von ande- ren geteilt und bestätigt, wodurch es zur Meinungsverstärkung kommt (Echokammer- Effekt – Online Lexikon für Psychologie und Pädagogik 2021).
2.3 Social Bots
Social Bots kommen in den sozialen Medien vor und agieren dort als Softwareroboter. Sie haben die Fähigkeiten, Beiträge zu liken, retweeten, Kommentare zu verfassen und Nachrichten zu schreiben. Meist verstecken sie sich hinter Fake Accounts und wirken wie reale Menschen. Social Bots analysieren Postings in sozialen Netzwerken und reagieren automatisch, wenn sie beispielsweise einen Hashtag erkennen. Einge- setzt werden sie, um Aussagen und Meinungen zu Verstärken und sichtbar zu ma- chen (Prof. Dr. Oliver Bendel 2021).
2.4 Soziale Medien
Das Internet hat sich in den letzten zwanzig Jahren in der Gesellschaft durchgesetzt und weiterentwickelt. Hier rücken soziale Medien immer mehr in den Mittelpunkt (Taddicken und Schmidt 2015, S. 4).
Soziale Medien sind als Überbegriff, für „ Angebote auf Grundlage digital vernetzter Technologien, die es Menschen ermöglichen, Informationen aller Art zugänglich zu machen und davon ausgehend soziale Beziehungen zu knüpfen und/oder zu pflegen “ zu verstehen (Taddicken und Schmidt 2015, S. 8).
"Plattformen“ zählen zu einer bedeutsamen Subkategorie in den sozialen Medien. Um diese zu nutzen, beispielsweise um Dinge zu kommentieren oder auch um eigene Inhalte zu teilen, ist meist eine Registrierung notwendig. In Netzwerkplattformen ha- ben Nutzer*Innen die Möglichkeit, Kontakte aufzubauen oder zu pflegen, indem sie diese zu ihren „Freunden“ bzw. „Kontakten“ hinzufügen. Durch bestimmte Einstellun- gen wird den Nutzer*Innen ermöglicht, die eigenen Inhalte ausschließlich für bestä- tigte Kontakte sichtbar zu machen. Als Marktführer, der Netzwerkplattformen ist seit einigen Jahren Facebook zu nennen (Taddicken und Schmidt 2015, S. 9 f.).
2.5 Fake News
Unter Fake News versteht man Falsch- bzw. Fehlinformationen, die vor allem durch soziale Medien verbreitet werden. Diese können von einzelnen Personen aber auch von Gruppen ausgehen. Motive, für die Erstellung von Falschinformationen können einen persönlichen, politischen oder auch wirtschaftlichen Hintergrund haben. Bei der Verbreitung solcher Meldungen haben Algorithmen und social bots eine zentrale Be- deutung (Bendel 2019).
Fake News stellen ein unwahres Bild der Realität dar. Diese müssen nicht unbedingt falsch sein, jedoch sind sie meist irreführend (Jaster und Lanius 2019, S. 27). Über- wiegend stammen Fake News aus dem rechtspopulistischen Spektrum (Jaster und Lanius 2019, S. 87).
Bereits seit dem 19. Jahrhundert sind Falschnachrichten in Deutschland auch als „Zeitungsenten“ bekannt (Reuter 2016)
2.6 Alternative Medien
Alternative Medien sind Teil der Publizistik und erbringen somit keine journalistische Vermittlungsleistung. Oft lehnen sie das Qualitätskriterium der Ausgewogenheit ab und verbreiten bestimmte politische Richtungen. Die Urheber sind meist politisch mo- tivierte Bürger:innen, die ihre eigene Ideologie vertreten und keine neutralen Journa- listen (Schweiger 2017, S. 42 f.).
Unser Weltbild wird durch das eigene Erleben gebildet und durch Informationen und Meinungen, die wir aus den Medien erhalten erweitert. Wenn die dort wiedergege- bene Perspektive jedoch nicht mit der eigenen Einstellung übereinstimmt, kann es passieren, dass man sich eine Alternative zuwendet. Laut Kommunikationswissen- schaftler Dr. Christian Schwarzenegger wurden Alternative Medien lange Zeit als Oase der Demokratisierung bezeichnet. Die Nutzerinnen und Nutzer von Alternativen Medien werden heute in Berichten jedoch oft als sogenannte „Aluhutträger“ bezeich- net.
Die Algorithmen sozialer Netzwerke können die Verbreitung Radikaler Inhalte be- günstigen. Umso mehr Videos in eine bestimmte Richtung angeklickt werden, desto mehr Inhalte werden durch die Algorithmen in genau diese Richtung vorgeschlagen. Zudem setzt nach einer gewissen Zeit der sogenannte Sleeper-Effekt ein, sodass unser Gehirn nicht mehr zuordnen kann, woher wir verschiedene Informationen ha- ben. So können Alternative Medien fälschlicherweise mit traditionellen Medien gleich- gesetzt werden (Bernotat).
3. Forschungsstand
Empirisch konnte nachgewiesen werden, dass Menschen eher dazu neigen, Informa- tionen wahrzunehmen und in Erinnerung zu behalten, wenn diese mit ihrer eigenen Einstellung übereinstimmen (Donsbach/Mothes, 2012 zitiert nach (Hagen et al. 2017,
S. 1) . Erklären lässt sich dies mit der Theorie der kognitiven Dissonanz von Festinger (Raab et al. 2010, S. 42). Hierdurch kann die eigene Einstellung sich weiter stabilisie- ren oder sogar verstärken. Der sozialpsychologische Mechanismus der Homophilie verstärkt zudem die Neigung, sich eher mit Menschen zu vernetzen, die einem ähn- lich sind (Myers/Lamm, 1975 zitiert nach (Hagen et al. 2017, S. 2).
Wenn man traditionelle Massenmedien mit dem Internet vergleicht, erscheint es na- heliegend, dass das Internet und besonders Soziale Netzwerke die homophile Ver- netzung begünstigen, ebenso wie die Auswahl konsonanter Informationen. Begüns- tigt wird dies im Wesentlichen durch Kognitive Konsonanz und die Homophilie.
Gefördert wird die Kognitive Konsonanz dadurch, dass Algorithmen schon vor der Übernahme fremden Gedankenguts den Kontakt zu konsonanten Informationen be- günstigen. Dies geschieht, indem sie Inhalte selektieren, die den bisher angesehenen Inhalten ähneln und somit den geäußerten Interessen der Nutzer:innen entsprechen. Besonders charakteristisch sind solche Algorithmen für Soziale Medien und Suchma- schinen. Im Vergleich zu anderen Medien existiert in sozialen Netzwerken demnach eine größere Wahrscheinlichkeit, Informationen angezeigt zu bekommen, die der eig- nen Ideologie entsprechen. Dies kann dazu führen, dass Nutzer:innen keine Infor- mationen angezeigt werden, die der eigenen Meinung widersprechen. Sie werden so auf eine „Filterblase“ aus konsonanten Informationen beschränkt (Pariser 2012).
Das Internet fördert die Homophilie, indem es ohne größeren Aufwand, die Entste- hung von „Echokammern“ begünstigt. Dies ist besonders stark in sozialen Netzwer- ken der Fall. Durch bestimmte Algorithmen lassen sich dort schnell Gleichgesinnte finden. Durch selektive Zuwendung zu konsonanten Informationen, die durch Algo- rithmen verstärkt werden und durch die homophile Sortierung, die ebenfalls durch Algorithmen verstärkt wird, kann Polarisierung in den sozialen Netzwerken gefördert werden (Sunstein 2001, zitiert nach (Hagen et al. 2017, S. 3).
4. Soziale Medien als Gefahr
Über zwei Milliarden aktive Nutzer:innen verzeichnet Facebook monatlich. Dies ent- spricht einem Anteil von ca. 30% der Weltbevölkerung. Soziale Medien können somit eine sehr große Reichweite erreichen. Die Kommunikation in sozialen Netzwerken kann dadurch einen Einfluss auf die Politik bzw. die Demokratie nehmen. Die politi- sche Meinungsbildung kann vor allem durch Fake News, social bots und Filterblasen beeinflusst werden. Um Meinungen zu manipulieren, wissen Populisten genau dies zu nutzen und gewinnen so immer mehr an Reichweite.
Was durch soziale Medien möglich ist, zeigte die Firma Cambridge Analytica bei der US-Präsidentschaftswahl in der Vergangenheit. Mit Hilfe gesammelter Daten, konnte diese Persönlichkeitsprofile berechnen. US-Amerikanern wurden dadurch gezielt in- dividuelle, auf ihr Persönlichkeitsprofil abgestimmte Informationen angezeigt. Wie in- zwischen bekannt ist, wurde nicht nur die Wahl in den USA durch Cambridge Analy- tica beeinflusst. Die Firma hatte ebenfalls bei der Brexit-Abstimmung eine zweifel- hafte Rolle (Breyer et al. 2019).
Durch den veränderten Medienwandel trägt das Internet dazu bei, dass sich einige Bürger:innen besser informiert fühlen. Doch tatsächlich sind sie meist falsch bzw. desinformiert. Dies betrifft vor allem Menschen mit niedriger oder durchschnittlicher Bildung (Schweiger 2017, S. 182 f.).
Durch die Filterblase kann es zur Polarisierung kommen, da die eigene Meinung im- mer weiter bestärkt wird (Mdr.de 2019). Die Effekte von Filterblasen und Echokam- mern können zusätzlich durch Framing verstärkt werden. Damit ist eine Kommunika- tionsstrategie gemeint, bei der eine politische Nachricht durch eine ausgewählte Wortwahl entsprechend eingeordnet wird. Das menschliche Gehirn verarbeitet Infor- mationen vor allem über Bilder. Dadurch entsteht bei bestimmten Begriffen automati- siert ein mentales Bild. Donald Trump fiel bei den US-Wahlen 2016 besonders durch Framing auf. Über einen seiner Konkurrenten behauptete er beispielsweise, dass die- ser stark schwitzen würde. Automatisch empfinden die Menschen durch den Framing- Effekt ein Ekelgefühl (Breyer et al. 2019).
Social Bots können dazu beitragen, Meinungen als Mehrheitsmeinungen darzustel- len. Dies kann eine Gefahr darstellen, da Menschen dazu tendieren, sich der Mehrheit anzuschließen. Social Bots können in sozialen Medien zahlreiche Falschnachrichten verbreiten, die eventuell zur Grundlage für politische Entscheidungen werden und so- mit z.B. Wahlen beeinflussen könnten. Durch die veränderte Kommunikation in sozi- alen Medien wird die Verbreitung von Falschnachrichten begünstigt. Nutzer:innen le- sen häufig nur die Überschriften von Informationen statt dem kompletten Artikel da- hinter. Somit kann der Beitrag nicht auf Wahrheitsgehalt bzw. Seriosität überprüft wer- den. Die Überschrift der Nachrichten wird dann als Wahrheit akzeptiert. Ein weiteres Problem ist, dass sich die Menschen kaum noch für Fakten interessieren. In rechts- populistischen Kreisen nimmt das Vertrauen in die klassischen Medien immer weiter ab. Gemieden werden hier vor allem Medien wie zum Beispiel die Tagesschau oder Spiegel-Online. Verglichen damit, werden auf Facebook die Seiten von beispiels- weise Junge Freiheit oder Russia Today relativ oft besucht (Breyer et al. 2019).
In den sozialen Medien ist vor allem die AfD mit verschiedenen Profilen sehr präsent. Hierdurch gewinnt sie besonders vor beispielsweise Wahlen durch das generieren vielfacher Beiträge an Reichweite (Breyer et al. 2019).
5. Medienkompetenz als mögliche Lösung
„Medienkompetenz beschreibt die Fähigkeit, sowohl die verschiedenen Medienka- näle als auch deren Inhalte kompetent und vor allem kritisch zu nutzen sowie mit und in diesen Kanälen zu agieren“ (Prof. Dr. Ralf T. Kreutzer 2020).
Besonders in der Bildungspolitik zeigt sich die Vernachlässigung digitaler Fähigkei- ten. Die Themen digitale Nachrichten- und Informationskompetenzen gehören nicht zu den Bestandteilen der Lehrpläne. Vor allem in den Haupt- und Mittelschulen wird das Thema Medienkompetenz vernachlässigt. Gefährlich ist dies besonders, da jün- gere Menschen mit niedriger Schulbildung die geringsten Kompetenzen besitzen und der Politik und den Medien zudem nur geringes Vertrauen schenken. Der Bildungs- bedarf ist jedoch auch bei Erwachsenen und älteren Menschen nicht zu unterschät- zen. Digitale Informations- und Nachrichtenkompetenz sollte daher in der Erwachse- nenbildung gefördert werden, indem diese Themen beispielsweise in Lehrpläne be- ruflicher Weiterbildungen aufgenommen werden (Meßmer et al. 2021, S. 7).
6. Methode
In der vorliegenden empirischen Hausarbeit soll untersucht werden, inwiefern algo- rithmisierte Filterungsmechanismen in sozialen Medien einen Einfluss auf die politi- sche Einstellung haben können. Hierzu wurde ein Fragebogen erstellt. Um die Ziel- gruppe zu erreichen, wurde dieser auf www.umfrageonline.de (Erstellen Sie kosten- lose Online Umfragen mit UmfrageOnline 2021) erstellt und in sozialen Medien ver- breitet. Die Auswertung der Ergebnisse erfolgte im Anschluss durch GrafStat (Diener 2021).
Im Anredetext wird die Verfasserin des Fragebogens kurz vorgestellt und der Zweck erläutert. Die Teilnehmer:innen werde darauf hingewiesen, dass alle Daten vertrau- lich und anonym erhoben werden.
Zunächst wurden direkt zu Beginn des Fragebogens demographische Daten der Teilnehmer:innen erhoben wie das Alter und das Geschlecht. Auch der Bildungsab- schluss der Befragten wurde abgefragt, um festzustellen, ob es aufgrund des Bil- dungsniveaus Unterschiede gibt.
[...]
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.