Vergleich von Prognose-Modellen im Internet anlässlich der Deutschen Bundestagswahl 2009


Diplomarbeit, 2009

98 Seiten, Note: 1,0


Leseprobe

Inhaltsverzeichnis

Abkürzungsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

1 Einleitung
1.1 Einführung in das Thema
1.2 Zielsetzung der Arbeit
1.3 Methodik und Aufbau der Arbeit

2 Entwicklungen und Trends im Internet
2.1 Rahmenbedingungen für den Einsatz von Online-Prognose-Modellen
2.2 Internetnutzung und -verbreitung
2.3 Medienkonsum und politische Meinungsbildung
2.3.1 Verdrängt das Internet andere Medien?
2.3.2 Politische Meinungsbildung im Internet
2.4 Mensch als Informationsproduzent und der Trend zum Social Networking
2.4.1 Onlinecommunitys
2.4.2 Web
2.5 Suchmaschinen als zentrale Web-Applikation
2.5.1 Wachstum der Informationsmenge
2.5.2 Prinzip des Long Tails

3 Konzepte und Methoden
3.1 Meinungsumfragen
3.1.1 Grundgesamtheit und Stichprobe
3.1.1.1 Zufallsstichprobe
3.1.1.2 Quotenstichprobe
3.1.2 Datenerhebung
3.1.2.1 Mündliche Interviews
3.1.2.2 Schriftliche Umfrage
3.1.2.3 Telefoninterviews
3.1.3 Frage und Fragebogen
3.1.3.1 Fragenformulierung
3.1.3.2 Fragebogen
3.1.4 Datenanalyse
3.1.4.1 Aggregat- und Individualdatenanalyse
3.1.4.2 Methoden der Datenauswertung
3.1.4.3 Zeitreihenanalyse
3.1.4.4 Wahlprognosen
3.2 Prognosemärkte
3.2.1 Informationseffizienz
3.2.2 Geschichte und Entwicklung
3.2.3 Wahlbörsen
3.2.3.1 Aufbau und Funktionsweise
3.2.3.2 Marktmodell und Handelsform
3.2.3.3 Händlertypen und -strategien
3.2.4 Qualitätskriterien
3.2.4.1 Rahmenbedingungen
3.2.4.2 Marktdaten
3.3 Wettmärkte
3.3.1 Geschichte der politischen Wette
3.3.2 Klassische Buchmacher
3.3.3 Aufbau und Funktionsweise
3.3.4 Prognosegenauigkeit
3.4 Das Market Scoring Rule-Modell
3.4.1 Prinzip
3.4.2 hubdub.com
3.4.2.1 Marktprognosen
3.4.2.2 Marktinitialisierung
3.4.2.3 Community
3.5 Social Network- und Monitoring Tools
3.5.1 Twitter
3.5.2 wahl.de
3.5.3 wahlradar.de
3.5.4 Google Insight
3.5.5 SISTRIX Sichtbarkeitsindex

4 Empirischer Teil: Die Bundestagswahl
4.1 Kennzahlensystem und Methodik
4.2 Daten und Ergebnisse
4.2.1 Bundestagswahl 2009 im Überblick
4.2.2 Meinungsumfragen vs. Prognosemärkte vs. Online Votings
4.2.2.1 Ungewichtete und gleich gewichtete Auswertungen
4.2.2.2 Regressions- und Korrelationsanalyse
4.2.2.3 Gewichtete Auswertungen nach Teilnehmer- und Befragtenzahlen
4.2.2.4 Sonstige Auswertungen
4.2.3 Social Media- und Monitoring Tools
4.2.3.1 Twitter
4.2.3.2 wahlradar.de
4.2.3.3 Google Insight
4.2.3.4 SISTRIX Sichtbarkeitsindex

5 Analyse und Optimierungsansätze
5.1 Stärken und Schwächen von Meinungsumfragen und Prognosemärkten
5.1.1 Forschungsfrage
5.1.2 Akquisition von Probanden und Teilnehmern
5.1.3 Kosten für Durchführung und Betrieb
5.1.4 Prognosegenauigkeit
5.1.5 Vermarktung
5.1.6 Fazit
5.2 Entwicklung modellübergreifender Prognose-Indizes
5.2.1 Grundidee
5.2.2 Definition und Anforderungen
5.2.3 Indextypen
5.2.4 Berechnung
5.2.4.1 Berechnungsformel und Gewichtung
5.2.4.2 Berechnungsintervalle
5.2.5 Indexmanagement
5.2.5.1 Komitee
5.2.5.2 Regelwerk und Anpassungen
5.2.6 Offene Punkte
5.2.7 Ergebnisse anhand der Bundestagswahl
5.3 Optimierungsansätze für Prognosemärkte
5.3.1 Heterogenität der Teilnehmer
5.3.2 Eindämmung von Manipulationsversuchen
5.3.3 Short selling
5.3.4 Kapitalverzinsung
5.3.5 Usability
5.3.6 Community Fund

6 Zusammenfassung

Literaturverzeichnis

Versicherung

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 1: Entwicklung der Onlinenutzung in Deutschland 1997 bis 2009

Abbildung 2: Durchschnittliche Mediennutzungsdauer (2000 - 2009)

Abbildung 3: Politische Informationsquellen im Internet

Abbildung 4: Politische Meinungsbildung durch das Internet

Abbildung 5: Exemplarisches Orderbuch einer Aktie

Abbildung 6: Orderbuch des Marktes zur Bundestagswahl 2009 auf Betfair

Abbildung 7: Betfair-Wettkurse des US-Präsidentschaftsmarktes 2008

Abbildung 8: Vergleich von Informationsmärkten und (Market) Scoring Rules

Abbildung 9: Prognoseabgabe auf Hubdub

Abbildung 10: Suche nach User auf Twitter

Abbildung 11: Movers & Shakers auf wahl.de

Abbildung 12: „Wahl Vision“: Deutschlandkarte mit Social Media Aktivitäten der Politiker

Abbildung 13: Karte des politischen Webs in Deutschland

Abbildung 14: Zweitstimmenanteile bei der Bundestagswahl 2009

Abbildung 15: Einfache Regression der Gruppe Meinungsumfrage

Abbildung 16: Einfache Regression der Gruppe Prognosemärkte

Abbildung 17: Stimmenanteilsmarkt für die Grünen auf Hubdub

Abbildung 18: Nachrichten von User „twibble“ auf Twitter

Abbildung 19: Politische Beiträge in Blogs und Social Media Plattformen

Abbildung 20: Politische Beiträge in klassischen Online Medien

Abbildung 21: Share of voice der Spitzenkandidaten

Abbildung 22: Share of voice der Spitzenkandidaten bei ausgewählten Themen

Abbildung 23: Suchanteile der Spitzenkandidaten auf Google im September 2009

Abbildung 24: Anteile der Parteien im Sichtbarkeitsindex

Abbildung 25: Prognose-Indexfamilie der Grünen

Tabellenverzeichnis

Tabelle 1: Meinungsumfragen zur Bundestagswahl 2009 im Vergleich

Tabelle 2: Wahlbörsen und Wettmärkte im Überblick

Tabelle 3: Prognosemärkte zur Bundestagswahl 2009 im Vergleich

Tabelle 4: Normalisierte Schlusskurse der Prognosemärkte im Vergleich

Tabelle 5: Online Votings zur Bundestagswahl 2009 im Vergleich

Tabelle 6: Gesamtranking der Prognosequellen

Tabelle 7: Gesamtranking nach Teilnehmerzahlen

Tabelle 8: Gewichtete Meinungsumfragen nach Befragtenzahlen im Vergleich

Tabelle 9: Gewichtete Prognosemärkte nach Teilnehmerzahlen im Vergleich

Tabelle 10: Prognoseergebnisse auf Hubdub

Tabelle 11: Suchanteile der Parteien auf Google im September 2009

Tabelle 12: Anzahl der Backlinks der Parteien-Websites

Tabelle 13: Legende zur adaptieren Indexformel nach Laspeyres

Tabelle 14: Werte für die Prognose-Indizes der Parteien

1 Einleitung

1.1 Einführung in das Thema

Im Jahre 1993 beauftragte die sächsische Landesregierung das EMNID Institut, die Bekanntheit des sächsischen Staatssekretärs Dieter Köstritz in der hiesigen Bevölkerung zu messen. Acht Prozent der Befragten gaben an, Köstritz zu kennen. Das Problem lag darin, dass Dieter Köstritz weder Sachse noch Staatssekretär, sondern eine reine Erfindung war. Dieses Beispiel ist im Übrigen kein Ausnahmefall und wird in der Literatur unter dem Begriff „Pseudo-Opinions“ geführt.1

Wenn derartige Ergebnisse möglich sind, ist die Kritik an der Meinungsforschung nicht verwunderlich. Besonders starker Kritik sind Wahlumfragen ausgesetzt, so auch bei der Bundestagswahl (BTW) 2005, als Meinungsforschungsinstitute deutlich am Ergebnis vorbei prognostizierten. Erschwerend kommt hinzu, dass Umfragen zumindest bei taktischen Wählern einen durchaus starken Einfluss auf die Wahlentscheidung ausüben können.2 Der Ruf nach alternativen Prognose-Methoden ist lauter geworden.

Neben den Methodenproblemen der Meinungsumfragen sieht sich dieses Instrument der empirischen Wahlforschung mit zahlreichen Herausforderungen unserer Zeit konfrontiert. So zeigen Untersuchungen, dass die Gruppe der Wechselwähler in den letzten Jahren deutlich wächst.3 Auch der hohe Anteil der Unentschlossenen, die erst knapp vor der Wahl ihre Entscheidung treffen, verursacht Probleme. Bei der BTW 2005 etwa waren unmittelbar vor der Wahl von jenen, die angaben Wählen zu gehen, fast 20 Prozent noch unentschlossen.4 Abgesehen davon führen bewusste Falschaussagen der Probanden zu Antwortverzerrungen, die selbst durch Kontrollfragen nicht immer aufgedeckt werden können.5

In dieser Situation treffen die Problemfelder der Wahlforschung auf den Megatrend Internet. Mit dem Aufkommen des Internets und der im Alltag immer öfter anzutreffenden Nutzung, ist ein markanter Wandel in der Gesellschaft beobachtbar. Die Menschen sind mittlerweile mit dem Umgang des neuen Mediums vertraut und suchen aktiv und gezielt nach Informationen im World Wide Web. Nutzer tauschen online Meinungen aus und stellen auch selbst Informationen der Öffentlichkeit zur Verfügung. Das Internet besitzt zweifellos eine hohe Akzeptanz und Relevanz und wird heute von den Jugendlichen bereits als Selbstverständlichkeit angenommen.

Vor diesem Hintergrund könnte nun die Chance neuer Prognose-Methoden im Internet liegen. Voraussetzung dafür wäre zunächst die Möglichkeit, Informationen und Meinungen zu aggregieren, um daraus gewonnene Prognosen über ein zukünftiges Ereignis transparent und anschaulich darstellen zu können. Gelingt es den Modellen dabei gleichzeitig auf Meinungsänderungen der Menschen rasch reagieren zu können, wäre ein wesentlicher Vorteil gegenüber herkömmlichen Meinungsumfragen gegeben.

1.2 Zielsetzung der Arbeit

Ein wesentliches Hauptziel der Arbeit ist es, dem Leser einen fundierten Überblick über OnlinePrognose-Modelle zu vermitteln. Im Zuge dessen sollen die zu Grunde liegenden Konzepte und Theorien vorgestellt werden. Neben den etablierten Wahlumfragen steht insbesondere der Prognosemarkt im Mittelpunkt, an dem „Informationen“ wie Aktien an der Börse gehandelt werden können. Anhand dieser Märkte wird erklärt, wie Teilnehmer einer virtuellen Börse durch den Handel von Partei-Aktien eine Prognose für den Wahltag „ermitteln“.

Die anschließende quantitative Auswertung anlässlich der BTW 2009 untersucht die Prognosegenauigkeit der Modelle im Vergleich zu Wahlumfragen. Sie soll die oft gestellte Frage beantworten, wie exakt Prognosemärkte Wahlausgänge vorhersagen können. Um die jeweiligen Vor- und Nachteile aufzeigen zu können, werden die wichtigsten Konzepte anschließend einer Analyse unterzogen. Ergänzend sollen interessante Websites und Plattformen im Bereich Social Media und Webanalyse-Tools erfasst werden, die das Potenzial besitzen, Trends für die Wahl darstellen zu können.

Abschließend wird nach einer modellübergreifenden Lösungsidee gesucht, die einen Parameter identifiziert, der für die Prognosegenauigkeit ausschlaggebend ist. Hierbei soll ein Weg gefunden werden, wie diese bestmöglich für ein umfassendes Prognosemodell genutzt werden können.

1.3 Methodik und Aufbau der Arbeit

Die Arbeit gliedert sich in drei Haupteile, einen theoretischen, einen empirischen und einen analytischen Teil. Die ersten Kapitel beinhalten den theoretischen Teil, dabei führt das zweite Kapitel die für diese Arbeit relevanten Entwicklungen und Trends im Internet an und soll untersuchen, ob wesentliche Voraussetzungen für den Einsatz von Online-Prognose-Modellen gegeben sind. Das Folgekapitel beschäftigt sich zu Beginn mit dem Instrument der Meinungsumfrage und später mit den einzelnen Prognose-Modellen, ebenso veranschaulicht es, wie das Aggregieren von Informationen ermöglicht wird. Daneben wird die Social Network Plattform Twitter vorgestellt, die zwar nicht aus Gründen der Prognose betrieben wird, aber deren Vorhersagen sich aus der Aktivität der Community ableiten lassen. Diese Aktivität wird auch durch zahlreiche Social Media- und Webanalyse Tools dokumentiert, die den ersten Hauptteil abschließen.

In Kapitel 4, dem empirischen Teil, kommt es zum quantitativen Vergleich der Methoden und zur Präsentation der Ergebnisse im Rahmen der BTW 2009. In diesem Abschnitt wird das Hauptaugenmerk auf die im Bundestag vertretenen Parteien gerichtet, wobei vereinzelt auch Analysen zu den Spitzenkandidaten der Parteien durchgeführt werden. Als wichtigste Kennzahl wird die Prognosegenauigkeit der einzelnen Modelle untersucht und in weiterer Folge einer Regressions- und Korrelationsanalyse unterzogen. Um etwaige Vorwahltrends herausfiltern zu können, werden dazu Auswertungen mittels Social Media- und Monitoring Tools durchgeführt.

Darauf folgend stellt das fünfte Kapitel den analytischen Teil dieser Arbeit dar. In einem ersten Schritt werden die bemerkenswertesten Methoden in einer Stärken und Schwächen-Analyse gegenüber gestellt. Dabei sollen entscheidende Punkte für das Gelingen oder Scheitern einer Prognose herausgearbeitet werden. Als zweites soll die Idee eines modellübergreifenden Prognose-Index skizziert werden, indem sämtliche Prognosequellen zu einem plakativen Prognosewert zusammengefasst werden. Anhand der vorliegenden Daten zur BTW 2009 können in der Folge konkrete Auswertungen für die Indizes präsentiert werden.

Abgeschlossen wird der letzte Abschnitt mit Optimierungsvorschlägen für das Modell der Prognosemärkte, die in Zukunft die Vorhersagekraft und den Nutzen dieses Tools noch stärker hervorbringen sollen.

2 Entwicklungen und Trends im Internet

2.1 Rahmenbedingungen für den Einsatz von Online- Prognose-Modellen

Für das grundlegende Verständnis der vorliegenden Arbeit ist vorab eine Betrachtung wichtiger Entwicklungen und Trends im Internet erforderlich. Hierbei sollen nur jene Aspekte beleuchtet werden, die für die spätere Diskussion der Online-Prognose-Methoden notwendig erscheinen. Dabei wird das Thema „Politik“ auf den folgenden Seiten nicht im Mittelpunkt stehen, da die später vorgestellten Modelle auf fundamentalen Erkenntnissen beruhen und themenunabhängig eingesetzt werden können.

Folgende Fragen stehen im Mittelpunkt:

- Wird das Internet tatsächlich von weiten Teilen der deutschen Bevölkerung genutzt?
ŸNur wenn weite Teile der Bevölkerung über das Internet auch erreichbar sind, können sie an Online-Prognosen aktiv teilnehmen.
- Wie stellt sich der aktuelle Medienkonsum dar und ist das Internet ein nennenswerter Faktor für die politische Meinungsbildung?
ŸNur wenn das Internet im Vergleich zu anderen Medien einen relevanten Nutzungsgrad aufweist, kann eine politische Meinungsbildung über das Web erfolgen. In diesem Fall hätten Online-Prognosen eine hohe Wahrscheinlichkeit auf Akzeptanz und Relevanz.
- In wie weit erstellen und verfassen User selbst Informationen und spielen virtuelle Interessensgemeinschaften - so genannte Communitys oder Social Networks - im Internet-Alltag überhaupt eine Rolle?
ŸNur wenn User aktiv Community-Angebote und -Anwendungen nutzen, besteht grundsätzlich die Chance, dass sie auch aktiv an Online-Prognosen teilnehmen, die das Ergebnis einer kollektiven Intelligenz sind.
- Werden Suchmaschinen im Web für das Finden von relevanten Informationen genutzt?
Nur wenn User Suchmaschinen nutzen, können sie auf umfassende Daten und zusätzliche Informationsquellen zugreifen, die potenziell für die Meinungsbildung und damit in weiterer Folge für eine akkurate Online-Prognose entscheidend sein können.

Die folgende Situationsanalyse wird zeigen, ob wichtige Rahmenbedingungen für den Einsatz von Online-Prognose-Modellen gegeben sind.

2.2 Internetnutzung und -verbreitung

Für das Funktionieren von Online-Prognose-Methoden ist ein bestimmter Nutzungs- und Verbreitungsgrad des Internets in der Bevölkerung ein wichtiges Kriterium. Nur wenn genügend Menschen über das Internet erreicht werden können, ist der Einsatz von Prognose-Modellen sinnvoll möglich. Entsprechende Informationen können, der seit 1997 durchgeführten ARD/ZDF-Onlinestudie, entnommen werden. Demnach sind laut aktueller Zahlen für das Jahr 2009 bereits 67,1 Prozent der deutschen Bevölkerung ab 14 Jahren gelegentlich im Internet unterwegs. Im Jahr 2000 - also am Höhepunkt des Internet Hypes - lag dieser Wert noch bei 28,6 Prozent.6 In Abbildung 1 wird die Entwicklung der Zahlen dargestellt, deren Wert durch die „Internet Facts 2009-II“ der Arbeitsgemeinschaft Online Forschung (AGOF) vom September 2009 bestätigt wird.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Entwicklung der Onlinenutzung in Deutschland 1997 bis 2009

Quelle: http://www.ard-zdf-onlinestudie.de/fileadmin/Online09/Eimeren1_7_09.pdf

Die Studie weist 66,6 Prozent oder 43,20 Millionen Deutsche ab 14 Jahren als Online-Nutzer der letzten 12 Monate aus.7 Zweifelsohne kann somit von einer weiten Verbreitung des Mediums Internet in der deutschen Bevölkerung gesprochen werden.

Wenngleich die Zuwachsraten zuletzt stark gesunken sind (siehe Abbildung 1), kann davon ausgegangen werden, dass die Gesamtzahl der Internetnutzer weiter steigen wird. Verantwortlich dafür ist in erster Linie die jüngere Generation. Laut ARD/ZDF Onlinestudie sind bemerkenswerte 95,5 Prozent der 14- bis 19-Jährigen bereits online.8

In diese Altersgruppe nachrückende Jugendliche werden künftig voraussichtlich ebenfalls zu fast 100 Prozent Online-Nutzer sein. Dies ist nicht verwunderlich, da für Jüngere der Umgang mit digitalen Technologien, insbesondere dem Internet, als selbstverständlich erachtet wird. Marc Prensky, Autor, Consultant und Unternehmer, prägte in diesem Zusammenhang den Begriff „Digital Natives“.9 Sicherlich trägt auch die ältere Generation zu dieser Entwicklung bei. Der wachsende Anteil der so genannten „Silver Surfer“ (Internetnutzer ab 50 Jahren), die das Internet immer öfter „entdecken“, lässt sich aber größtenteils wohl damit erklären, dass 50- Jährige, die vor ca. zehn Jahren erstmals mit dem Internet in Kontakt kamen, nunmehr als Silver Surfer in den Statistiken geführt werden und somit automatisch den Anteil der Internetnutzer in den folgenden Altersklassen erhöhen.

2.3 Medienkonsum und politische Meinungsbildung

2.3.1 Verdrängt das Internet andere Medien?

In wie weit hat das Internet andere Medien verdrängt bzw. beeinträchtigt? Diese Frage wurde gerade in den letzten Jahren immer häufiger aufgeworfen und ist Gegenstand kontroversieller Diskussionen. Auch in diesem Bereich wird die ARD/ZDF-Onlinestudie zu Rate gezogen. Waren früher Fernsehen und Tageszeitungen die unumstrittenen „Primär-Medien“, so hat nunmehr das Internet zumindest bei den Online-Affinen die Führung übernommen. 34 Prozent der Online-Nutzer bezeichnen laut Untersuchung das Internet als Primär-Medium. Das Fernsehen (25 Prozent), die Tageszeitungen (24 Prozent) und das Radio (16 Prozent) liegen bereits deutlich zurück.

Auf der Suche nach aktuellen Nachrichten bedienen sich bereits 33 Prozent der Onliner des Internets (2008: 24 Prozent). Dennoch bleibt für Internetnutzer das Fernsehen mit 71 Prozent (2008: 64 Prozent) das wichtigste Medium, wenn es um tagesaktuelle Top-Nachrichten geht. Nur Tageszeitungen weisen eine rückläufige Tendenz von 53 auf 50 Prozent auf.10

Bezüglich der durchschnittlichen Nutzung des Mediums Fernsehen wurde im ersten Halbjahr 2009 sogar ein leichter Anstieg auf 228 Minuten festgestellt (siehe Abbildung 2). Bemerkenswert ist, dass das Radio im Jahr 2000 eine ähnliche Nutzungsintensität aufwies, mittlerweile aber einen deutlichen Rückgang auf 182 Minuten verzeichnet. Auch in diesem Datenausschnitt wird die wachsende Bedeutung des Internets klar sichtbar.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Durchschnittliche Mediennutzungsdauer (2000 - 2009)

Quelle: http://www.ard-zdf-onlinestudie.de/fileadmin/Online09/Eimeren1_7_09.pdf

Die in diesem Bereich recht unterschiedlichen Trends und inhomogenen Entwicklungen lassen noch nicht das Fazit zu, dass es innerhalb der Medien zu einer ausgeprägten Kannibalisierung zu Gunsten des Internets gekommen ist. Vielmehr lässt sich beobachten, dass eine Konvergenz der Mediennutzung im Gange ist.11

2.3.2 Politische Meinungsbildung im Internet

Wurde der Fokus bisher auf die allgemeine Mediennutzung gerichtet, folgt nun der Blick auf die politische Meinungsbildung im Internet. Eine im Juni 2009 vom Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V. (BITKOM) in Auftrag gegebene Studie bei der forsa Gesellschaft für Sozialforschung und statistische Analysen mbH (FORSA) hat sich diesem Thema gewidmet. Demnach informieren sich bereits 45 Prozent der Wahlberechtigten im Web über politische Themen. Bei den 18- bis 29-Jährigen sind es gar 77 Prozent. Damit liegt die Informationsquelle Internet in dieser Altersklasse an erster Stelle.12

Abbildung 3 zeigt, dass vor allem klassische Medienhäuser und die Internetseiten der politischen Parteien als Quellen genutzt werden. Online-Netzwerke, Blogs (Online-Tagebücher) und Diskussionsforen werden immerhin von gut einem Fünftel frequentiert, wobei jüngere Wahlberechtigte diese Quellen etwas intensiver nutzen als der Durchschnitt. Dagegen schneiden die Webseiten von Politiker am schlechtesten ab.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Politische Informationsquellen im Internet

Quelle: http://www.bitkom.org/files/documents/BITKOM_Praesentation_PK_E- Democracy_19_08_2009_final.pdf

Das Internet spielt nicht nur als Informationsquelle eine Rolle, sondern beeinflusst bzw. verändert ganz erheblich die politische Meinungsbildung, wie aus einer im April 2009 von EARSandEYES durchgeführten Studie hervorgeht. Vor allem auf Jüngere (16 - 19 Jahre) wirken sich im Web erfasste politische Informationen prägend aus. Bei den 40- bis 49-Jährigen gibt immerhin noch ein Fünftel an, dass das Internet eine starke Veränderung ihrer politischen Meinung bewirkt hat (siehe Abbildung 4).13

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Politische Meinungsbildung durch das Internet

Quelle: http://de.statista.com/statistik/daten/studie/6558/umfrage/starke-veraenderung-der-politischen- meinungsbildung-durch-internet/

2.4 Mensch als Informationsproduzent und der Trend zum Social Networking

Die bisherige Geschichte der Massenmedien war geprägt vom passiven Medienkonsumenten. Ein Sender übermittelte seine Botschaft an viele Empfänger, wobei diese keine nennenswerten Möglichkeiten der Interaktion besaßen (monodirektionale Kommunikation). Das World Wide Web ist nun das erste interaktive Massenmedium und erlaubt jedem, Botschaften und Inhalte zu bewerten oder zu kommentieren und mit dem ursprünglichen Sender in Dialog zu treten.

Somit hat sich auch die Rolle des Menschen vom passiven Medienkonsumenten zum aktiven Meinungsmacher gewandelt. Durch die globale Vernetzungsstruktur des Internets können Nachrichten leichter und schneller übermittelt werden. Der Einzelne kann nun seine Meinung einem größeren Publikum als bisher kundtun und unter bestimmten Rahmenbedingungen virtuelle Massen sogar beeinflussen. Beispielhaft sollen die zahlreichen Bewertungs- und Kommentarmöglichkeiten bei eCommerce-Plattformen (amazon.com, ciao.com etc.) erwähnt werden.

Die Bereitstellung von (multimedialen) Inhalten und der Prozess des Gedankenaustausches können auf verschiedene Art und Weise im Internet erfolgen. An dieser Stelle werden die Begriffe Onlinecommunity und Web 2.0 aufgegriffen.

2.4.1 Onlinecommunitys

Im Mittelpunkt einer Onlinecommunity (Online-Gemeinschaft) steht ein bestimmtes Interesse oder Thema an dem sich alle Mitglieder orientieren. Die wesentlichsten Merkmale dieser Gemeinschaften sind die Interaktion und die Kommunikation der Mitglieder untereinander, sowie die Bindung der Mitglieder an ihre Community. Die Zusammensetzung der Online- Gemeinschaft ergibt sich in der Regel durch einen homogenen Mitgliederstamm und durch neu hinzukommende Teilnehmer. Die Mitglieder können sowohl eine aktive als auch passive Rolle einnehmen.14

Wie in herkömmlichen Gemeinschaften auch spielen in Onlinecommunitys soziale Kontakte, der Gedankenaustausch und das zur Verfügung stellen von eigenen Inhalten (user generated content) eine wichtige Rolle. Grundsätzlich verfolgen Menschen dabei das Ziel, persönlichen Nutzen zu generieren, wobei dieser von Mensch zu Mensch unterschiedlich definiert ist. Diesbezüglich ist das nach David P. Reed benannte Reedsche Gesetz zu nennen, das besagt, dass der Gesamtnutzen eines Netzwerks, welches interne Gruppenbildungen ermöglicht, bei steigender Mitgliederzahl exponentiell zunimmt.15

Auch hier zeigt die ARD/ZDF-Onlinestudie, dass bereits ein beträchtlicher Teil der Onliner (29 Prozent) Communitys nutzt und bei mindestens einem privaten Netzwerk angemeldet ist. Dazu zählen Social Networks wie Facebook, MySpace, StudiVZ und Wer-kennt-wen?16

2.4.2 Web 2.0

In den letzten Jahren hat sich der Begriff Web 2.0 immer stärker etabliert. Der vom Verleger Tim O’Reilly erstmals im Jahr 2004 verwendete Begriff soll die Weiterentwicklung des World Wide Web seit dem Platzen der Dotcom Blase skizzieren. Im Blickfeld stehen bewährte aber auch neue Konzepte wie das Nutzbarmachen kollektiver Intelligenz, und die Sichtweise, das Internet als Plattform zu verstehen.17

Eines der bemerkenswertesten Web 2.0-Projekte stellt „Wikipedia“ dar, ein laufendes Web- Projekt, mit dem Ziel, eine im Internet ständig erweiterbare Enzyklopädie in verschiedenen Sprachen anzubieten. Dabei können Inhalte von jedem Internetnutzer erstellt, immer wieder ergänzt oder aber auch korrigiert werden. Der Online-Start erfolgte 2001. Mittlerweile beinhaltet alleine die englischsprachige Version über drei Mio. Artikel.18

Die bereits weiter oben erwähnte ARD/ZDF-Onlinestudie belegt, dass immerhin für 13 Prozent (rund 5,5 Mio.) der Online-Nutzer die Möglichkeit sich aktiv einzubringen, sehr interessant ist. Weitere 18 Prozent zeigen sich etwas interessiert. Überdurchschnittlich oft wird dies für diese beiden Ausprägungen von den 14- bis 19-Jährigen angegeben (49 Prozent). Wenngleich die Masse der Nutzer passiv bleibt, weisen die Zahlen eine leicht steigende Tendenz auf.19

2.5 Suchmaschinen als zentrale Web-Applikation

2.5.1 Wachstum der Informationsmenge

Zu Beginn des Internet-Zeitalters wurden statische Informationen in das World Wide Web transferiert und dargestellt. Erst später wurden nicht zuletzt aufgrund der steigenden Popularität immer komplexere Anwendungen und Informationsstrukturen entwickelt. Für die vorliegende Arbeit ist insbesondere das Wachstum der Informationsmenge bedeutend. Zahlreiche Studien belegen, dass das Informationsvolumen exponentiell ansteigt. Stellvertretend soll eine Studie der IDC (Digital Universe, 2009) genannt werden. Gemäß dieser Untersuchung wurden 2008 weltweit 487 Milliarden Gigabyte digitaler Informationen erzeugt. Dieser Wert wuchs um 3 Prozent schneller als ursprünglich geschätzt und soll sich alle eineinhalb Jahre verdoppeln. Auch die Intensität der Kommunikation und Interaktion zwischen den Menschen wird um den Faktor acht zunehmen. Verantwortlich dafür sind unter anderem E-Mails, Instant-Messaging- Dienste und soziale Netzwerke.20

Daraus folgt, dass es in Zukunft noch wichtiger sein wird, den Suchenden geeignete Applikationen und Mechanismen zur Seite zu stellen, um Detailwissen und Nischeninhalte aus der Fülle an Informationen im Internet selektieren zu können.

2.5.2 Prinzip des Long Tails

Um in dieser Datenflut die gewünschten Informationen finden zu können, bedarf es effizienter und leistungsfähiger Suchmaschinen. Im August 2009 wurden alleine in den USA 10,8 Mrd. Suchanfragen abgesetzt. Die erfolgreichste Technologie - gemessen am Gesamtmarkt - bietet mit einem Anteil von 65 Prozent die Suchmaschine Google.21 Zuletzt gab Google im Juli 2008 die Gesamtzahl der erfassten URLs (Uniform Ressource Locator) mit einer Milliarde bekannt.22 Diese Zahl demonstriert abermals das enorme Datenvolumen im Web.

Suchmaschinen ermöglichen dem User, ausgehend von einem Suchbegriff (keyword), seine Suche zu verfeinern und immer tiefer in ein Thema vorzudringen. In diesem Zusammenhang ist das Prinzip des Long Tails - geprägt durch Chris Anderson, Chefredakteur des Wired Magazines - zu nennen. Dieses Prinzip zielt in erster Linie auf einen ökonomischen Zusammenhang zwischen Angebot und Nachfrage ab und soll kurz anhand eines Beispiels erläutert werden: Während ein klassischer Tonträger-Verkäufer durch beschränkte Lagerflächen seinen Kunden nur stark nachgefragte Produkte anbieten wird, ist ein Konkurrent, der sein Geschäft im Internet abwickelt und digitale Musikdateien verkauft, nicht durch Lagerflächen begrenzt, vom Standort unabhängig und somit auch für wesentlich mehr potenzielle Kunden erreichbar. Das Prinzip besagt ferner, dass in der Regel relativ wenige Produkte von vielen Kunden nachgefragt werden, jedes Nischenprodukt aber nur von jeweils wenigen Käufern gesucht wird. Dennoch ist die zuletzt genannte Gruppe in Summe gesehen weitaus größer.23

Auf die Informationssuche sinngemäß angewandt bedeutet dies, dass ein Mensch oftmals eine bestimmte, sehr spezielle Detailinformation im Internet sucht. Laut Google sind zwischen 20 und 25 Prozent der Suchanfragen zuvor in dieser Form noch nie abgesetzt worden.24

Abschließend soll auch an dieser Stelle die ARD/ZDF-Onlinestudie angeführt werden: 82 Prozent der Online-Nutzer ab 14 Jahren verwenden Suchmaschinen mindestens einmal wöchentlich.25 Dies unterstreicht die Wichtigkeit dieser Applikation.

3 Konzepte und Methoden

Im vorherigen Kapitel konnten zahlreiche Bestätigungen gefunden werden, die belegen, dass die wichtigsten Voraussetzungen für den Einsatz von Online Prognose-Modellen gegeben sind. Im nächsten Schritt muss die Frage gestellt werden, ob intelligente Mechanismen und Techniken vorhanden sind, um kollektives Wissen aggregieren und diese Informationen auch entsprechend filtern und darstellen zu können. Als erstes Instrument werden Meinungsumfragen vorgestellt, die später im empirischen Teil der Arbeit als Benchmark für die Prognose-Modelle dienen sollen.

3.1 Meinungsumfragen

3.1.1 Grundgesamtheit und Stichprobe

Wird ein Meinungsforscher mit einer Untersuchung beauftragt, muss er sich die Frage stellen, von welcher Grundgesamtheit auszugehen ist, und wie diese im Rahmen einer Befragung erreicht werden kann. Der Wahlforschung stehen als Auswahlverfahren die Vollerhebung und die Teilerhebung zur Verfügung. Letztere ist aus nahe liegenden Gründen in der Praxis wesentlich häufiger anzutreffen.

Für Wahlumfragen bilden alle Wahlberechtigen in Deutschland die Grundgesamtheit. An dieser Stelle tritt jedoch bereits das erste Problem auf: Wie können zu einem bestimmten Stichtag alle Wahlberechtigen tatsächlich erfasst werden? Trotz Wahlberechtigtenregister altern Daten, unter anderem aufgrund von Heirat, Umzügen oder Todesfällen, rasch. Es wird daher versucht eine Auswahlgesamtheit zu definieren, die der Grundgesamtheit recht nahe kommt. Die dann in der Umfrage tatsächlich befragten Personen werden als Inferenzpopulation bezeichnet.

Ziel der Stichprobe sollte es sein, ein repräsentatives Abbild der Gesamtheit zu produzieren. Nur unter dieser Voraussetzung ist eine vernünftige Grundlage für ein valides Ergebnis überhaupt erst gegeben. In diesem Zusammenhang sind die Begriffe overcoverage und undercoverage zu sehen. Von overcoverage spricht man, wenn Objekte in der Auswahlgesamtheit, aber nicht in der Grundgesamtheit zu finden sind, bzw. doppelt oder mehrfach angeführt werden. Undercoverage wiederum beschreibt, dass Objekte in der Grundgesamtheit fehlen und damit keine Chance haben letztendlich in die Auswahlgesamtheit aufgenommen zu werden.26

Eines der berühmtesten Beispiele für eine fehlerhafte Anwendung von Gesamtheiten stellt die im Zuge der US-Präsidentschaftswahlen im Jahre 1936 vorgenommene Probeabstimmung der Zeitschrift “Literary Digest“ dar. Von den etwa 10 Millionen befragten Lesern gaben 2,4 Millionen ihre Stimme ab, wobei die Mehrheit den republikanischen Kandidaten Landon stark favorisierte. Gleichzeitig führte George Gallup eine Umfrage mittels Quotenstichprobe mit nur 1.500 Befragten durch und ermittelte den Demokraten Roosevelt als Favoriten, der später die Wahl auch gewann. Während die Leser der Zeitschrift einen eher höheren sozialen Status aufwiesen, richtete sich die Gallup-Umfrage nach den Merkmalen der amerikanischen Wählerschaft aus. Dieses Beispiel zeigt, dass nicht die Zahl der Befragten entscheidend ist, sondern die Stichprobe, die ein möglichst genaues Abbild der Grundgesamtheit ergeben sollte.27

3.1.1.1 Zufallsstichprobe

Bei der einfachen Zufallsauswahl wird die Stichprobe nach einem vorgegebenen Auswahlplan gezogen, wobei jeder Wahlberechtigte mit gleicher Wahrscheinlichkeit gezogen werden kann (Urnenmodell). Da jedoch keine tagesaktuelle Liste der Wahlberechtigten existiert, werden bei Wahlumfragen mehrstufige Auswahlverfahren verwendet.28 Das Verfahren sieht in einem ersten Schritt die Einteilung der Grundgesamtheit in mehrere Primäreinheiten (Teilmengen, Schichten, Klumpen) vor. Nach dieser einfachen Zufallsauswahl wird nur eine begrenzte Anzahl von Einheiten ausgewählt und in einem zweiten Schritt erfolgt dann wiederum eine Zufallsauswahl von Untersuchungseinheiten (Sekundäreinheiten).29

Bei mündlichen Umfragen wird oftmals das Random-Walk-Verfahren (oder Random-Route- Verfahren) verwendet, eine Mischform der zufälligen und nicht-zufälligen Auswahlverfahren. Dabei werden in einem Zielgebiet (sample point) nach dem Zufallsprinzip ausgewählte Startpunkte (z. B. Kreuzungen) festgelegt. Zusätzlich wird exakt definiert, wie der Interviewer von diesem Ausgangspunkt aus weiter vorzugehen hat (z. B. Interviewer muss in jedem vierten Haus auf der rechten Straßenseite eine Person pro vorhandenen Haushalt befragen). An dieser Stelle kommt es zu einer bewussten (nicht-zufälligen) Auswahl von Untersuchungsobjekten.30

Bei Telefonstichproben wird oftmals das zweistufige Random Digital Dialing (RDD)-Verfahren eingesetzt. Da sich Telefonnummern aus einer Vorwahl (Regionalcode) und der eigentlichen Teilnehmernummer zusammensetzen, werden in einem ersten Schritt per Zufallsauswahl Regionalcodes ermittelt. Daraus werden dann wieder per Zufall Teilnehmernummern generiert.

Die Vorteile bei diesem Verfahren liegen darin, dass auch Teilnehmer mit Geheimnummern erreicht werden können und immer auf die tatsächlich vorhandenen Anschlüsse zurückgegriffen wird.31

3.1.1.2 Quotenstichprobe

Entgegen der Zufallsstichprobe werden beim Quotenverfahren die Zielpersonen entsprechend den demographischen Merkmalen wie Geschlecht, Alter, Beruf, Einkommen etc. im Verhältnis zur Grundgesamtheit ausgewählt. Es handelt sich hier um eine bewusste Auswahl von Personen. Der Nachteil dieses nicht zufallsgesteuerten Verfahrens liegt darin, dass streng statistisch gesehen nicht auf die Grundgesamtheit geschlossen werden kann. Weiters ist der Forschungsträger stark von der „korrekten“ Vorgehensweise des Interviewers abhängig. Zumindest in der empirischen Wahlforschung werden Quotenverfahren selten eingesetzt.32

3.1.2 Datenerhebung

3.1.2.1 Mündliche Interviews

Die Merkmale des mündlichen Interviews (face-to-face) sind durch einen unmittelbaren und persönlich-physischen Kontakt gekennzeichnet. Interviewer und Proband befinden sich somit am gleichen Ort, wobei die Beantwortung der Fragen ohne zeitliche Verzögerung erfolgt. Der Interviewer stellt die Fragen gemäß dem vorbereiteten Fragebogen, den die Auskunftsperson nicht einsehen kann. Die Vorteile dieses Verfahrens liegen in der zügigen Durchführung und in der Gewinnung aussagekräftiger und treffender Antworten. Nachteilig kann sich jedoch der Einfluss des Interviewers oder ein möglicher Zeitdruck seitens der Zielperson und den damit nur bedingt aussagekräftigen Antworten auswirken. Ebenfalls zu berücksichtigen sind die hohen Kosten für die Durchführung der Befragung.33

3.1.2.2 Schriftliche Umfrage

Bei der schriftlichen Befragung wird den Zielpersonen der Fragebogen in der Regel postalisch zugestellt. Der persönliche Kontakt fehlt völlig, da kein Interviewer vor Ort die Beantwortung des Fragebogens beobachtet oder die Befragung selbst durchführt. Die Befragungssituation ist somit nicht kontrollierbar. Positiv ist hingegen zu bewerten, dass ein Interviewereinfluss ausgeschlossen und somit mögliche Effekte der sozialen Erwünschtheit vermieden werden kann. Ein weiterer Vorteil ist die kostengünstige Durchführung dieser Methode. Der Proband kann ferner ohne Zeitdruck den Fragebogen ausfüllen. Demgegenüber stehen zahlreiche Nachteile: Durch die nicht kontrollierbare Befragungssituation können auch Dritte den Fragebogen beantworten. Prinzipiell besteht darüber hinaus die Gefahr des Zurückblätterns, wodurch Zielpersonen ihre zuvor gemachten Antworten abgleichen können. Problematisch ist die relativ geringe Rücklaufquote von meist nur 15 -20 Prozent und die auf mehrere Erhebungsstichtage verteilte Datensammlung.34

3.1.2.3 Telefoninterviews

Werden Telefoninterviews (voice-to-voice) durchgeführt, besteht zwischen Interviewer und Proband ein mittelbarer, persönlich-auditiver Kontakt. Wie bei der mündlichen Befragung findet das Interview für beide Seiten gleichzeitig statt und ist überdies ortsungebunden. Der Fragebogen kann bei Telefoninterviews von der Zielperson nicht eingesehen werden. Die Vorteile liegen in der schnellen und kostengünstigen Durchführung der Befragung (z. B. „Blitzumfragen“) und in der Kontrolle des Befragungsablaufs durch den Interviewer. Als gravierender Nachteil ist die hohe Abbrecherquote zu nennen. Zudem sind bei dieser Grundform der Befragung tendenziell weniger Fragen möglich.

Eine Sonderform der Telefonumfrage ist das Computer Assisted Telephone Interview (CATI). Bei dieser Variante übernimmt ein computergesteuertes Interviewprogramm die Speicherung und Wiedergabe des Fragebogens, die Antworten des Probanden sowie den gesamten Ablauf der Befragung. Ferner kann die Fragenreihenfolge randomisiert werden, was unerwünschte Reihenfolgeeffekte vermeidet. Wesentliche Vorteile von CATI-Umfragen sind laufende Zwischenauswertungen und zahlreiche Kontrollmöglichkeiten.35

3.1.3 Frage und Fragebogen

3.1.3.1 Fragenformulierung

Eine besondere Bedeutung in der Befragung kommt der Fragenformulierung und dem Fragebogen selbst zu. Das oberste Gebot ist hierbei, dass der Forscher sich auf den Kern der Untersuchung konzentrieren soll. Werden zu viele Fragen gestellt oder dauert das Interview zu lange an, wird die Aufmerksamkeit und das Interesse des Probanden rasch schwinden. Um das zukünftige Verhalten eines Individuums erforschen zu können, stehen grundsätzlich drei Fragearten zur Verfügung.

Dies sind Fragen nach

- dem Verhalten,
- den Einstellungen, Meinungen und Haltungen sowie
- den Bewertungen.36

Folgend sollen nur einige Hinweise zur richtigen Fragenstellung angeführt werden, da die Fülle an Regeln und Kriterien den Umfang dieser Arbeit sprengen würden. Prinzipiell können Fragen offen oder geschlossen formuliert werden, wobei beachtet werden muss, dass bei geschlossenen Fragen nur eindimensionale Sachverhalte abgefragt werden. Vorteilhaft sind kurze und verständlich formulierte Fragen. Dabei muss oft berücksichtigt werden, dass sich die Zielpersonen aus unterschiedlichen sozialen Schichten, Altersgruppen etc. zusammensetzen können. Hier kann es zu erheblichen sprachlichen Missverständnissen und Fehlinterpretationen kommen, die es zu vermeiden gilt. Des Weiteren sollten keine doppelten Negationen verwendet werden. Ebenso zu berücksichtigen ist, dass vordefinierte Antwortmöglichkeiten mit Bedacht ausgewählt werden.37

3.1.3.2 Fragebogen

Qualitativ gut formulierte Fragen alleine reichen noch nicht aus, da sie erst im Konnex bzw. im Fragebogen ihre Wirkung entfalten und bei unvorteilhafter Zusammenstellung negative Auswirkungen haben können. Als Beispiele für typische unerwünschte Effekte wären Platzierungs- und Ausstrahleffekte zu nennen. In weiterer Folge gilt dies auch für die Gruppierung von einzelnen Fragen zu Fragenkomplexen. Eine veränderte Reihenfolge der Fragen kann zu stark abweichenden Resultaten führen. Diesbezüglich spielt auch die Länge des Fragebogens bzw. die Interviewdauer eine entscheidende Rolle und wird unter anderem auch von der jeweils verwendeten Methode bestimmt (z. B. face-to-face Befragung vs. Telefoninterview).

Wie lange die Aufmerksamkeit bei der Zielperson im Interview gegeben ist, hängt sehr stark vom Thema ab. So hat beispielsweise die Forschungsgruppe Wahlen für politische Themen einen Richtwert von ca. 20 Minuten angegeben. Es wäre daher ratsam, die Wahlabsichtsfrage relativ früh zu stellen und erst danach andere Fragen wie etwa die Recall- oder die Koalitionsfrage folgen zu lassen. Um die Interviewdauer - ohne absinkendes Interesse des Probanden - verlängern zu können, gibt es unterschiedliche Gestaltungsmöglichkeiten. Einfach formulierte Fragen helfen dem Befragten gleich zu Beginn einen leichten Einstieg zu finden. Ferner kann eine abwechslungsreiche Positionierung der Fragenkomplexe die Aufmerksamkeit für einen längeren Zeitraum hoch halten.38

[...]


1vgl. REUBAND, "Pseudo-Opinions" in Bevölkerungsumfragen, http://www.za.uni- koeln.de/publications/pdf/za_info/ZA-Info-46.pdf, Mai 2000, Recherche: 03.10.2009

2vgl. BRETTSCHNEIDER, 2003, S. 271 ff.

3vgl. BRETTSCHNEIDER, NIEDERMAYER, WESSELS, 2007, S. 413

4vgl. GABRIEL, WESSELS, FALTER, 2009, S. 149

5vgl. FALTER, SCHOEN, 2005, S. 72

6vgl. VAN EIMEREN, FREES, Der Internetnutzer 2009 - multimedial und total vernetzt?, ARD/ZDF- Onlinestudie 2009, 07/2009, http://www.ard-zdf-onlinestudie.de/fileadmin/Online09/Eimeren1_7_09.pdf, Recherche: 20.09.2009, S. 335

7vgl. o. V., Internet Facts 2009-II, AGOF, http://www.agof.de/berichtsband-if2009-

ii.download.848e0b18fb27fa58bbe4541db0354a5c.pdf, September 2009, Recherche: 20.09.2009

8vgl. VAN EIMEREN, FREES, Der Internetnutzer 2009 - multimedial und total vernetzt?, ARD/ZDF- Onlinestudie 2009, 07/2009, http://www.ard-zdf-onlinestudie.de/fileadmin/Online09/Eimeren1_7_09.pdf, Recherche: 20.09.2009, S. 336

9vgl. PRENSKY, Digital Natives, Digital Immigrants, in: On the Horizon Vol. 9, 5/2001. http://www.marcprensky.com/writing/Prensky%20-%20Digital%20Natives,%20Digital%20Immigrants%20-%20Part1.pdf, Recherche: 20.09.2009

10vgl. VAN EIMEREN, FREES, Der Internetnutzer 2009 - multimedial und total vernetzt?, ARD/ZDF- Onlinestudie 2009, 07/2009, http://www.ard-zdf-onlinestudie.de/fileadmin/Online09/Eimeren1_7_09.pdf, Recherche: 20.09.2009, S. 337-338

11vgl. o. V., TNS CONVERGENCE MONITOR, TNS CONVERGENCE GROUP, August 2009, http://www.tns-infratest.com/presse/pdf/Presse/2009_08_20_TNS_CG_Medienkonvergenz- Zukunft.pdf, Recherche: 15.09.2009

12vgl. o. V., Das Internet wird wahlentscheidend, Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V. (BITKOM), 19.08.2009,http://www.bitkom.org/60710_60749.aspx, Recherche: 25.09.2009

13vgl. o. V., Statista.com, 14.05.2009, http://de.statista.com/statistik/daten/studie/6558/umfrage/starke- veraenderung-der-politischen-meinungsbildung-durch-internet/, Recherche: 25.09.2009

14vgl. BRUNOLD, MERZ, WAGNER, 2000, S. 24

15vgl. REED, Reed's Law: That Sneaky Exponential—Beyond Metcalfe's Law to the Power of Community Building, Context Magazine, 1999,http://www.contextmag.com/archives/199903/DigitalStrategyReedsLaw.asp, Recherche: 25.09.2009

16vgl. BUSEMANN, GSCHEIDLE, Web 2.0: Communitys bei jungen Nutzern beliebt, ARD/ZDF- Onlinestudie 2009, 07/2009, http://www.ard-zdf-onlinestudie.de/fileadmin/Online09/Busemann_7_09.pdf, Recherche: 20.09.2009, S. 358-359

17vgl. O'REILLY, What Is Web 2.0, O'Reilly Media, Inc., 09/2005, http://oreilly.com/web2/archive/what- is-web-20.html?page=1, Recherche: 22.09.2009

18vgl. o. V., Wikimedia Foundation Inc.,http://de.wikipedia.org/wiki/Wikipedia:Geschichte_der_Wikipedia, Recherche: 20.09.2009

19vgl. BUSEMANN, GSCHEIDLE, Web 2.0: Communitys bei jungen Nutzern beliebt, ARD/ZDF- Onlinestudie 2009, 07/2009, http://www.ard-zdf-onlinestudie.de/fileadmin/Online09/Busemann_7_09.pdf, Recherche: 20.09.2009, S. 357

20vgl. o. V., Das "Digitale Universum" wächst um 487 Milliarden Gigabyte, Network Computing, 19.05.2009, http://www.networkcomputing.de/das-digitale-universum-waechst-um-487-milliarden- gigabyte/, Recherche: 23.09.2009

21vgl. o. V., BING SEARCH INCREASES 22 PERCENT MONTH-OVER-MONTH IN AUGUST, ACCORDING TO NIELSEN, The Nielsen Company, 14.09.2009, http://en- us.nielsen.com/etc/medialib/nielsen_dotcom/en_us/documents/pdf/press_releases/2009/september.P ar.97659.File.pdf, Recherche: 25.09.2009

22vgl. ALPERT, HAJAJ, We knew the web was big..., The Official Google Blog, 25.07.2008, http://googleblog.blogspot.com/2008/07/we-knew-web-was-big.html, Recherche: 23.09.2009

23vgl. ANDERSON, 2007, S. 159

24vgl. AMMIRATI, Google's Udi Manber - Search is a Hard Problem, ReadWriteWeb, 21.06.2007, http://www.readwriteweb.com/archives/udi_manber_search_is_a_hard_problem.php#, Recherche: 04.10.2009

25vgl. VAN EIMEREN, FREES, Der Internetnutzer 2009 - multimedial und total vernetzt?, ARD/ZDF- Onlinestudie 2009, 07/2009, http://www.ard-zdf-onlinestudie.de/fileadmin/Online09/Eimeren1_7_09.pdf, Recherche: 20.09.2009, S. 340

26vgl. ROTH, 2008, S. 64-65

27vgl. ROTH, 2008, S. 61-62

28vgl. FALTER, SCHOEN, 2005, S. 73

29vgl. HESSE, NEU, THEUNER, 2007, S. 70-71

30vgl. HESSE, NEU, THEUNER, 2007, S. 71

31vgl. FALTER, SCHOEN, 2005, S. 74

32vgl. ROTH, 2008, S. 68-69

33vgl. HESSE, NEU, THEUNER, 2007, S. 80

34vgl. HESSE, NEU, THEUNER, 2007, S. 80-81

35vgl. HESSE, NEU, THEUNER, 2007, S. 80

36vgl. ROTH, 2008, S. 103

37vgl. FALTER, SCHOEN, 2005, S. 67-68

38vgl. ROTH, 2008, S. 128-130

Ende der Leseprobe aus 98 Seiten

Details

Titel
Vergleich von Prognose-Modellen im Internet anlässlich der Deutschen Bundestagswahl 2009
Hochschule
DDA Deutsche Dialogmarketing
Veranstaltung
Diplomlehrgang zum Fachwirt Online Marketing (BVDW)
Note
1,0
Autor
Jahr
2009
Seiten
98
Katalognummer
V142950
ISBN (eBook)
9783640532193
ISBN (Buch)
9783640532087
Dateigröße
2589 KB
Sprache
Deutsch
Schlagworte
Bundestagswahl, Wahl, Prognose, Wahlumfrage, Meinungsumfrage, Prognosemarkt, Web 2.0, Long Tail, Wahlbörse, Börse, Aktie, Wettmarkt, Wette, Market Scoring Rule, Twitter, Google Insight, Index, Community, Social Media, BTW, Politik, CDU, CSU, SPD, Die Grünen, FDP, Die Linke, Internet, Fachwirt Online Marketing, Angela Merkel, Guido Westerwelle, Peer Steinbrück, Oskar Lafontaine, Jürgen Trittin, Online Voting
Arbeit zitieren
Erwin Hof (Autor), 2009, Vergleich von Prognose-Modellen im Internet anlässlich der Deutschen Bundestagswahl 2009, München, GRIN Verlag, https://www.grin.com/document/142950

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Vergleich von Prognose-Modellen im Internet anlässlich der Deutschen Bundestagswahl 2009



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden