Ist ein Bot noch vom Menschen zu unterscheiden? Eine Analyse von Tweets zum US-Wahlkampf


Facharbeit (Schule), 2021

20 Seiten, Note: 1,0

Anonym


Leseprobe

Inhaltsverzeichnis

1 Einleitung

2 Social Bots
2.1 Hybrid-Accounts
2.2 Intentionsbasierte Klassifizierung von Social Bots
2.2.1 Gutartige Bots
2.2.2 Bösartige Bots
2.3 Arten und Zwecke von Social Bots
2.4 Propaganda-Bots
2.4.1 Spam-Bots
2.4.2 Fake-Follower
2.4.3 News Bots

3 Methoden zur Erkennung
3.1 Menschenbasierte Erkennung
3.2 Maschinenbasierte Erkennung
3.2.1 BotOrNot
3.2.2 Click-Stream-Analyse

4 US-Präsidentschaftswahl 2016
4.1 Hintergrund
4.2 Einsatz von Social Bots während der Wahl
4.3 Prognose für zukünftige Wahlen

1 Einleitung

Social Media Plattformen, wie Twitter werden immer populärer und erreichen eine immer größere Menge an Nutzer:innen. Im Jahre 2018 verzeichnete Twitter zwischen 321 und 336 Millionen aktive Nutzer:innen weltweit.1 53,1 Millionen davon waren aus den USA,2 ein Nutzeranteil von ca. 16,24 %.23 Altersdemogra­fisch betrachtet verkehren hauptsächlich 18 bis 29-jährige auf der Plattform. Sie machen einen Anteil von 38 % aller Twitter-Nutzer:innen aus. Gefolgt werden sie von den 30 bis 49-jährigen, die 26 % der Nutzer:innen ausmachen.1 2 3 4 5 6

Doch neben menschlichen Akteuren in diesem Nachrichtenaustausch agieren auch immer mehr computergesteuerte Accounts auf Twitter. Während manche dieser Bots mit guten Absichten betrieben werden und beispielsweise nur be­stimmte Hashtags retweeten, gibt es auch Bots mit dem Ziel, Lesende bewusst in die Irre zu führen.

Im Folgenden soll daher erörtert werden, inwieweit Twitter Bots die US-Wahlen 2016 beeinflusst haben, und wie gut sie einen echten Menschen imitieren können. Dies ist für mich besonders interessant, da ich sowohl informationstechnisch, als auch politisch an dem Thema interessiert bin. Darüber hinaus hat das Thema in einer zunehmend globalisierenden und digitalen Gesellschaft, wie unserer, eine immer wachsende Relevanz. Denn mit steigendem technischen Fortschritt steigen auch die technischen Möglichkeiten jener, die Bots programmieren. Ein effektives Erkennungs- und Bekämpfungskonzept von Social Bots ist somit nicht nur un­ausweichlich, sondern auch notwendig. Nur so können faire Wahlen und echter, menschlicher Austausch in einer digitalen Gesellschaft gewährleistet werden.

Bevor mit der eigentlichen Analyse begonnen wird, soll zuerst der Begriff „Social Bots" näher eingegrenzt werden.

Das Wort „Bot" stammt aus dem Englischen, und ist eine Abkürzung für „Ro­bot" („Roboter").5 Bots sind in der Lage, automatisiert Aufgaben zu verrichten.5 Social Bots (im Englischen oft auch Sybils) sind eine Unterkategorie von Bots, die in sozialen Netzwerken Inhalte veröffentlichen.7 8 Sie arbeiten entweder passiv und sammeln lediglich Informationen (fachsprachlich Web Scraping) oder nehmen aktiv am Diskurs auf der Plattform teil. 6

Aktive Social Bots reagieren zumeist auf bestimmte Hashtags oder Schlagwörter, das heißt auf einen Auslöser. 6 Seltener auch werden General-Purpose Bots ver­wendet, wie beispielsweise Tay, ein Bot zur Forschung an künstlicher Intelligenz von Microsoft, die auf eine inhaltsunabhängige Konversation abzielen. 7

2.1 Hybrid-Accounts

Neben vollautomatisierten Social Bots, existieren auch Hybrid-Accounts, soge­nannte Cyborgs, die nur teilautomatisiert sind. Hierbei erstellt ein Mensch einen Twitter-Account und aktiviert Programme, wie automatische RSS-Feed Postings, die Newsartikel aus bestimmten Quellen tweeten. Dies wird z. B. häufig von Zei­tungen eingesetzt, um Follower über die neusten veröffentlichten Artikel zu infor­mieren. Von Zeit zu Zeit verwenden jedoch auch Menschen den Account, um mit anderen Nutzer:innen zu interagieren.9 Beispiele hierfür sind @washingtonpost oder @TheAtlantic.10

Um das Verhalten von Social Bots weiter verstehen zu können, ist oftmals die Intention des Bots, bzw. die des Erstellers oder der Erstellerin wichtig. Im Folgen­den werden daher Bots in gutartig und bösartig eingeteilt. Dies illustriert zudem, dass nicht jeder Einsatz von Social Bots schlecht sein muss und es viele sinn­volle oder zumindest harmlose Einsatzmöglichkeiten gibt. Selbstredend ist die Manipulation und Täuschung bei Wahlen somit bösartigen Bots zuzuordnen.

2.2.1 Gutartige Bots

Gutartige Social Bots sind all jene Bots, die nicht mit dem Interesse betrieben werden, den Nutzer oder die Nutzerin zu täuschen. Viele dieser Bots sind simpel gestaltet und existieren, um zu unterhalten oder zu helfen.10 Dies reicht vom simplen Retweeten bestimmter Hashtags, über Verbreitung von News,“ bis hin zur Koordinierung von ehrenamtlichen Tätigkeiten. 12 Zu beachten gilt jedoch, dass nur weil ein Social Bot in dieses Schema fällt, er nicht gleich gutartig ist. Lokot / Diakopoulos zeigten zum Beispiel, dass es Bots gibt, die sich als News- Bots tarnen, ihre Links aber auf mit Werbung verseuchte Webseiten leiten. 13

2.2.2 Bösartige Bots

Die Kategorie „Bösartige Bots" umschließt jene Bots, dessen Bestimmung es ist den Nutzer oder die Nutzerin zu täuschen oder fehlzuleiten. Dies kann entweder durch das gezielte Vortäuschen des Menschseins geschehen oder durch die Ver­breitung von Falschinformationen („Fake-News").M Auch künstlich den Schein zu erzeugen, dass bestimmte Themen außerordentlich relevant sind, ist in diese Kategorie zu zählen.11 12

Social Bots treten in verschiedenen Formen auf, um ihren Zweck effektiv erfüllen zu können. Im Folgenden werden häufige Formen in ihrem Einsatz und Auftreten kurz charakterisiert und ihr möglicher Einsatz im Kontext von Wahlen eingeord­net. Es gilt jedoch zu erwähnen, dass die folgenden Kategorien sich nicht gegensei­tig ausschließen. Beispielsweise kann es Propaganda-Bots geben, die Fake-News verbreiten.

2.4 Propaganda-Bots

Propaganda-Bots sind Bots die Propaganda z. B. politischer Art verbreiten. Sie werden genutzt, um unechte politische Unterstützung für einen Kandidaten zu erschaffen.13 Gleichzeitig kritisieren oder attackieren diese Bots oftmals auch po­litische Gegner 15 und verwenden somit ein Verhalten, dass schon häufiger in sozialen Netzwerken beobachtet wurde: Negativer Content verbreitet sich deut­lich schneller auf Social Media Plattformen. Dies geschieht sogar so stark, dass Tweets mit herablassenden Inhalt 2,5-mal so häufig retweetet wurden, wie Tweets mit positiven Inhalt.'14

2.4.1 Spam-Bots

Spam-Bots sind Bots, die genutzt werden, um bestimmte Themen künstlich tages­relevant zu machen. Hierzu wird eine Gruppe von Bots genutzt, ein sogenanntes Botnet, das in kurzer Zeit eine große Menge an Tweets zu einem bestimmten The­ma verfasst, um so den Anschein zu erzeugen, dass ein Thema stark diskutiert wird. Das diskutierte Thema muss dabei gar nicht faktisch korrekt sein, diesen Anschein erzeugt die große Menge an Tweets von selbst.

Ein Beispiel hierfür ist die Tech-Firma Cynk. Nachdem mehrere Social Bots auf Twitter den Anschein erzeugt hatten, es gäbe mehrere anhaltende Konversationen über jene Firma, kauften automatische Aktienhandelsalgorithmen die Aktien von Cynk. Dies führte zu einer 200-fachung des Werts der Firma auf 5 Milliarden US-Dollar. 17

2.4.2 Fake-Follower

Fake-Follower sind Bots, die die Zahl der Follower eines bestimmten Nutzers oder Nutzerin künstlich erhöhen sollen. Dies kann entweder das Ziel haben, eine Person als relevant und wichtig darzustellen oder kann das Wirken von Social Bots anderer Kategorien sein, die durch Folgen aktiver Accounts ihre Followerzahl vergrößern wollen.'15

2.4.3 News Bots

News-Bots sind Bots, die Links zu Nachrichten verbreiten. Wenngleich viele die­ser Bots harmlos sind, beispielsweise Cyborgs, können News Bots auch genutzt werden, um gezielt Falschinformationen zu verbreiten. '16

3 Methoden zur Erkennung

3.1 Menschenbasierte Erkennung

Wang u. a. analysierten die Möglichkeit der menschlichen Erkennung von Social Bots. Wenngleich sie zeigen konnten, dass Menschen effektiv in der Erkennung von solchen Bots sind und eine äußerst geringe Fehlerquote aufweisen, kamen die Autor:innen zu dem Schluss, dass diese Lösung kaum für große, bereits be­stehende Social Media Netzwerke anwendbar ist.17 Eine bereits bestehende Nut­zerbasis, wie die ca. 320 Millionen von Twitter,20 zu analysieren, ist mit großem Zeitaufwand verbunden und nur mit einer großen Menge an Analystinnen zu bewerkstelligen. Des Weiteren ist die Fehlerquote eines Menschen miteinzubezie- hen. Die Autor:innen konnten ihre geringe Fehlerquote nur dadurch erreichen, dass sie Profile mehrfach von unterschiedlichen Analystinnen prüfen ließen. Ein Profil brauchte dabei im Durchschnitt 6 Prüfungen.218 19 Sollte zusätzlich Crowd­sourcing, also eine Methode, bei der nicht auf geprüfte Mitarbeiter, sondern auf die Öffentlichkeit gesetzt wird, verwendet werden, so ist auch das Fälschen oder die inkorrekte Prüfung eines Profils ein Problem.22 Somit ist ein effektiver Einsatz ausgeschlossen.

3.2 Maschinenbasierte Erkennung

3.2.1 BotOrNot

Varol u. a. verwenden insgesamt sechs Datenkategorien, in denen sie ihre 1150 Charakterisierungsmethoden, sogenannte Features zusammenfassen. 23 Das auf diesen Kategorien basierende Programm BotOrNot derselben Autoren, wird in einer Vielzahl anderer Studien mit Erfolg verwendet, beispielsweise „News Bots".

Nutzerbasierte Features umfassen die Metadaten eines Nutzers oder einer Nutze­rin. Dies sind Dinge wie die Zahl der Follower, Gesamtzahl der verfassten Tweets, Beschreibung und öffentlich verfügbare Einstellungen.23

Follower Features sind Informationen die basierend auf den Follower-Freund- Relationen von Twitter-Nutzer:innen deduziert werden. Dabei werden die vier Relationen, Retweeten, Erwähnen, retweetet werden und erwähnt werden, auf и. a. Sprache, lokale Zeit und Popularität analysiert.23

[...]


1 iTwitter: Anzahl der monatlich aktiven Nutzer von Twitter weltweit vom 1. Quartal 2010 bis zum 1. Quartal 2019 (in Millionen).

2 2Ders.: Anzahl der monatlich aktiven Twitter-Nutzer in den USA im Jahr 2018 sowie eine Prognose bis 2023 (in Millionen).

3 IMF: USA: Gesamtbevölkerung von 1980 bis 2019 und Prognosen bis 2025 (in Millionen Einwohner).

4 Pew Research Center: Share of U.S. adults using social media, including Facebook, is mostly

5 nchanged since 2018.

6 Vgl. Dudenredaktion: „Bot".

7 Vgl. ProCon u. a.: „Social Bot".

8 Vgl. Microsoft: Meet Tay.

8 Vgl. Chu u. a.: „Detecting Automation of Twitter Accounts: Are You a Human, Bot, or Cy­borg?", S. 1.

10 Vgl. Lokot / Diakopoulos: „News Bots", S. 8.

11 0Vgl. Davis u. a.: „BotOrNot: A System to Evaluate Social Bots", S. 1.

12 Vgl. Lokot / Diakopoulos: „News Bots", S. 1-2.

13 Vgl. Savage u. a.: „Botivist: Calling Volunteers to Action using Online Bots", S. 1. i3Vgl. Lokot / Diakopoulos: „News Bots", S. 11.

14 Vgl. ebd., S. 14-15.

15 Vgl. Ferrara u. a.: „The Rise of Social Bots", S. 99.

16 Vgl. Ferrara: „How Twitter bots affected the US presidential campaign".

17 Vgl. Ferrara u. a.: „The Rise of Social Bots", S. 99.

18 Vgl. Lokot / Diakopoulos: „News Bots", S. 1.

19 Vgl. Wang u. a.: „Social Turing Tests: Crowdsourcing Sybil Detection", S. 15.

Ende der Leseprobe aus 20 Seiten

Details

Titel
Ist ein Bot noch vom Menschen zu unterscheiden? Eine Analyse von Tweets zum US-Wahlkampf
Note
1,0
Jahr
2021
Seiten
20
Katalognummer
V1042968
ISBN (eBook)
9783346463845
Sprache
Deutsch
Schlagworte
Digitalisierung, Twitter, Social Bots, Bots, Twitter Bots, Social Media, US-Wahl, US-Präsidentschaftswahl, US-Wahl 2016, BotOrNot, Bot Erkennung, US Präsidentschaftswahl 2016, Trump Bots, Clinton Bots, Wahlkampf USA 2016
Arbeit zitieren
Anonym, 2021, Ist ein Bot noch vom Menschen zu unterscheiden? Eine Analyse von Tweets zum US-Wahlkampf, München, GRIN Verlag, https://www.grin.com/document/1042968

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Ist ein Bot noch vom Menschen zu unterscheiden? Eine Analyse von Tweets zum US-Wahlkampf



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden