Du und deine Filter Bubble. Gefahren des personalisierten Internets für die eigene Identität


Seminararbeit, 2016

12 Seiten, Note: 1,3

Anonym


Leseprobe


Inhaltsverzeichnis

1 Ziel der Arbeit

2 Du und Deine Filter Bubble
2.1 Begriffserklärung
2.2 Identitäts- und Meinungsbildung auf Facebook
2.3 Die Gefahr der Algorithmen

3 Fazit

Anhang

Literaturverzeichnis

Abbildungsverzeichnis

Abb. 1: Vergleich zweier Suchergebnisse auf Google. Links: Person A. Rechts: Person B (TED 2011: 2:59).

Abb. 2: „Du“ und die unendlichen Möglichkeiten im Internet (TED 2011: 4:12).

Abb. 3: „Dein“ scheinbarer Informationsbedarf wird vorhergesagt (TED 2011: 4:25).

Abb. 4: Im Internet siehst „Du“ nicht alles, sondern nur scheinbar für „Dich“ interessante und relevante Dinge (TED 2011: 4:34).

1 Ziel der Arbeit

Das Internet bietet unzählige Möglichkeiten, mit anderen Menschen in Kontakt zu treten, sich zu informieren, Projekte zu verfolgen und Nachrichten aus aller Welt zu lesen. Die meisten Nutzer gehen davon aus, dass der enorme Informationsgehalt im Netz nach ihren Anfragen sortiert und unparteiisch angezeigt wird. Um den überdimensionalen Informationsfluss aber zu reduzieren und die Auswahl zu erleichtern, werden Personalisierungstechniken angewandt, die der private Nutzer möglicherweise nicht kennt oder nachvollziehen kann. Das personalisierte Internet, in dem sich der Nutzer dann bewegt, wird Filter Bubble genannt. Um ihn herum wird eine virtuelle Blase erbaut, die von Algorithmen ausschließlich mit solchen Dingen gefüllt wird, die scheinbar interessieren. Soziale Netzwerke, Shoppingseiten oder Suchmaschinen sind also keineswegs unparteiisch, sondern haben großen Einfluss darauf, was gesehen, gelesen und möglicherweise sogar gedacht wird (Siehe Beam 2014: 1020). Wie viel Macht wird den Algorithmen täglich eingeräumt, um die Menschen mit Informationen zu versorgen? In dieser Arbeit soll untersucht werden, ob die persönliche Filter Bubble mit Polarisierung und Manipulation eigene Meinungen oder sogar die Identität verändern kann. Hierzu soll der Begriff Filter Bubble und die Bildung der eigenen Identität im Internet erst erklärt und definiert werden. Anschließend wird der Einfluss der Algorithmen auf diese bewertet und ein Fazit gezogen. Die Literaturlage zu diesem Thema ist mäßig, da das Phänomen Filter Bubble erst seit einigen Jahren beleuchtet wird, aber nicht eindeutig wissenschaftlich behandelt werden kann, denn viele Unternehmen erlauben keinen Einblick in ihre Algorithmen und Auswahlsysteme. Eine wichtige Quelle sind Arbeiten und Vorträge des Polit-Aktivisten Eli Pariser (Siehe Pariser 2012 und TED 2011), da er der Entdecker und Namensgeber der Filter Bubble ist. Die Thematik ist allgegenwärtig und darf nicht unterschätzt werden, daher erscheint eine Analyse sehr interessant und aufschlussreich.

2 Du und Deine Filter Bubble

Eli Pariser hat das Phänomen Filter Bubble 2011 auf einem Vortrag durch ein einfaches Beispiel verdeutlicht. Er hat zwei Freunde gebeten, am selben Tag das gleiche Wort Egypt, also nach dem Land Ägypten zu googlen. Stellt man beide Ergebnisse nebeneinander, wird nicht nur deutlich, dass sich die Ergebnisse schon auf der ersten Seite optisch stark unterscheiden, sogar die Anzahl der Suchergebnisse unterscheidet sich.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1 (Ted 2011: 2:59)

Links bei Person A sind es 350 tausend und rechts bei Person B nur ca. 320 tausend Ergebnisse. Während bei der Google-Suche der Person A hauptsächlich politische Nachrichten und Lexikonartikel gezeigt werden, bekommt Person B vor allem touristische Informationen für Reisen und Bilder, wie man sich Ägypten als Urlauber vorstellt. Das lässt vermuten, dass Person A also im Internet generell politisch interessierter und engagierter auftritt während Person B vielleicht häufig Reiseblogs liest und die Suchergebnisse daher auf frühere Suchen angeglichen werden.

„Bis zu 60 Prozent der Verleihe bei Netflix kommen durch die personalisierten Vorhersagen zustande, die es zu den Filmvorlieben des einzelnen Kunden treffen kann – und anschließend kann Netflix auch noch bis auf einen halben Stern berechnen, wie ihm der ausgeliehene Film gefällt.“ (Pariser 2012: 16)

Es gibt viele verschiedene Faktoren, die Ergebnisse beeinflussen können. Sie werden jeweils von Algorithmen berechnet. Diese entscheiden also, welche Informationen oder Inhalte den Nutzer interessieren könnten und zeigen anschließend eine selektierte Auswahl. Wenn die Informationen des Internets für jeden Nutzer individuell personalisiert werden, kann keinesfalls mehr von einem unabhängigen und freien Netz gesprochen werden. Die Selektion kann maßgeblich die Wahrnehmung steuern. In folgendem Kapitel soll anhand des Beispiels Facebook analysiert werden, ob die Informationen, die der Nutzer auf dieser Plattform erhält, dessen Person und Identität beeinflussen können.

2.1 Begriffserklärung

Du siehst Dich im Netz täglich unendlichen, unterschiedlichen und auch disharmonischen Informationen gegenüber, die gar nicht alle erfasst werden können, wie in Abbildung 2 dargestellt. Eine Art Filterung der relevanten Meldungen und Informationen scheint also gar nicht verkehrt.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2 (Ted 2011: 4:12)

Diese geschieht erst über die eigene Auswahl der Website, anschließend aber auch durch die Websites selbst. Sie verwenden bestimmte Algorithmen, die aus über 50 Faktoren (Siehe Ted 2011: 2:20) wie dem Standort, dem Klick- und Suchverhalten, der Browser-Auswahl und vielen mehr, den scheinbaren „Informationsbedarf“ (Bendel 2016: 73) vorhersagen und anschließend für jeden Nutzer individuell ein Konstrukt aus Nachrichten, Meldungen, Suchergebnissen und Informationen hervorheben.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 3 (Ted 2011: 4:25)

Das ist deutlich in Abbildung 3 zu erkennen. Aus der bunten Vielfalt des Internets, haben hier beispielsweise die Websites Amazon, Google oder Netflix ausschließlich blaue Ergebnisse angezeigt, da sie scheinbar das Interesse des Nutzers widerspiegeln. Diese bildlich dargestellte Blase aus den personalisierten Suchergebnissen und Informationen stellt die eigene Filter Bubble dar. Es ist deutlich zu sehen, dass in der Filter Bubble nur Dinge angezeigt werden, die mit der Meinung und dem Interesse des Nutzers übereinstimmen. Ihm wird im Internet also primär nur angezeigt, was ihm gefällt. Viel wichtiger und auch gefährlicher ist aber, dass alles, was ihn scheinbar nicht interessiert, bewusst ausgeblendet wird, wie in Abbildung 4 zu sehen ist.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 4 (Ted 2011: 4:34)

Der Nutzer findet auch nach differenzierter Suche kaum oder sogar keine dissonanten Medieninhalte. Die Filter Bubble wird durch andere Phänomene begünstigst, so zum Beispiel durch Selective Exposure Online[1].

2.2 Identitäts- und Meinungsbildung auf Facebook

Spätestens seit 2009 haben Social Media Netzwerke große Bedeutung in der Gesellschaft gewonnen (Siehe Schlüter/Münz 2010: 9) und enormen Einfluss vor allem auf junge Erwachsene. Mit fast 52 Prozent ist mehr als die Hälfte der Facebook -Nutzer in einem Alter zwischen 18 und 34 Jahre alt (Siehe Anhang 1). In diesem Zeitraum festigen sich Meinungen stärker als in jedem anderen. Facebook trägt stark zu dieser Meinungsfindung bei. Grundsatz dabei ist, dass man „nicht zwingend selbst senden [muss], um empfangen zu können“ (Schlüter/Münz 2010: 10). Der Nutzer kann sich also mit Kommentaren und Likes zurückhalten und dennoch großen Einblick auf die Inhalte haben. Der Begriff Social besagt aber auch, dass es nicht nur ein Informations-Netzwerk ist, sondern eine gemeinschaftliche Plattform für Gruppen und Gleichgesinnte, die auch dem persönlichen Kontakt dient. Die Kombination hieraus bietet gute Chancen aber auch einige Gefahren. 57,1 Prozent der Nutzer geben an, sich auf Facebook über die politische Einstellung seiner Freunde zu informieren (Siehe Anhang 2) und sogar 68,4 Prozent bestätigen, sich nicht mehr direkt durch Fernsehsender oder Zeitungen, sondern durch die Fan-Pages dieser auf Facebook über aktuelle Geschehnisse zu informieren (Siehe Anhang 2). Ohne zu hinterfragen können Medieninhalte akzeptiert und in das eigene Meinungsbild übernommen werden. Ein weiterer kritischer Aspekt von Facebook ist, dass man einerseits zwar Prominenten, Nachrichtenseiten oder Fan-Seiten folgen kann, hauptsächlich aber mit Bekannten befreundet ist. Es wird eine virtuelle Nähe suggeriert, doch „[e]s gibt kein enges Zusammenleben ohne Klaustrophobie“ (Miller 2012: 87). Hierbei kann es entweder enge Übereinstimmungen in politischen Meinungen oder sozialen Überzeugungen und Verhaltensweise geben, denn man ist eher mit jemandem befreundet, dem man selbst ähnelt. Andererseits kann es auch vorkommen, dass man Freundschaften auf Facebook pflegt, in denen es keine menschliche Übereinstimmung gibt. Da man sich nicht persönlich gegenübersteht aber dennoch nahe ist, fehlt eine gewisse Hemmschwelle und es geschieht eine vermehrte Meinungsäußerung mit eigenem Halbwissen oder ganz nicht-faktischen Aussagen. Diese „[s]oziale Intensität“ (Miller 2012: 87) kann einen heftigen Meinungsaustausch zur Folge haben. Dieser kann wiederum entweder zur kritischen Reflexion der eigenen Meinung im Gegensatz mit der Opposition führen, oder aber zum Gegenteil: zu Polarisation und Engstirnigkeit.

[...]


[1] Selective Exposure Online beschreibt das eigenständige Auswählen bestimmter Websites oder das bewusste Folgen bestimmter Seiten auf Plattformen wie Facebook. Die Medienauswahl allein kann schon große Folgen für das eigene Empfinden und Empfangen von Nachrichten, Informationen oder Suchergebnissen haben. So hat ein Leser der Bild ein möglicherweise übertriebenes, unrealistisches Empfinden alltäglicher Geschehnisse und wird eher auf leichter bekömmliche, unpolitische oder sogar verzerrte Informationen hingewiesen, als wahrscheinlich ein FAZ -Leser. Wer konsequent negativ eingestellte Seiten selektiert und ausschließlich daraus seine Informationen sammelt, hat vermutlich oder bekommt dadurch verstärkt eine negative Sichtweite auf die angesprochenen, aktuellen Geschehnisse oder politisches Handeln (Siehe Knobloch/Patzig/Hastall 2002: 364-373).

Ende der Leseprobe aus 12 Seiten

Details

Titel
Du und deine Filter Bubble. Gefahren des personalisierten Internets für die eigene Identität
Hochschule
Hochschule Darmstadt
Veranstaltung
Onlinekommunikation
Note
1,3
Jahr
2016
Seiten
12
Katalognummer
V351279
ISBN (eBook)
9783668376250
ISBN (Buch)
9783668376267
Dateigröße
2027 KB
Sprache
Deutsch
Schlagworte
Filter, Bubble, Identität, Algorithmen, Eli Pariser, Onlinekommunikation
Arbeit zitieren
Anonym, 2016, Du und deine Filter Bubble. Gefahren des personalisierten Internets für die eigene Identität, München, GRIN Verlag, https://www.grin.com/document/351279

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Du und deine Filter Bubble. Gefahren des personalisierten Internets für die eigene Identität



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden