Personenforschung und Datensammlung im Internet


Hausarbeit, 2012

20 Seiten, Note: 1,0


Leseprobe


Inhaltsverzeichnis

1. Einführung: Gesellschaftlicher Wandel durch Internet

2. Personenforschung und Datensammlung mittels des Internets
2.1 Computer-und Internetentwicklungen seit
2.2 Technische Verfahren
2.2.1 HTML-Formulare
2.2.2 Clientseitige vs. Serverseitige Programmierung
2.2.3 Der eigene Server
2.2.4 Die Reizlieferung
2.3 Methodik
2.3.1 Verhindern der Mehrfach-Eingabe
2.3.3 Überwindung des „Dropout“-Problems
2.3.3 Die Anwerbung von Studienteilnehmern
2.3.4 Stichprobenverzerrung und Schichtanalyse
2.3.5 Mögliche Antwortverzerrungen
2.4 Pilotversuche im Labor
2.5 Vergleich der Datensammlung: Web vs. Labor

3. Zusammenfassung und Fazit

Literaturverzeichnis

1. Einführung: Gesellschaftlicher Wandel durch Internet

Höher, schneller, weiter - im Zeitalter von Schnelllebigkeit, Globalisierung und Ver- netzung nimmt das Internet eine besondere Stellung in der Gesellschaft ein. Es steht gleichbedeutend für unbegrenzte Möglichkeiten, denn im weltweiten Web ist im Prin- zip alles für jeden möglich. Ein Ende des Online-Booms ist hierbei noch lange nicht in Sicht.

Die heutige Generation hat sich längst daran gewöhnt, sämtliche Dinge von jedem Ort auf der Welt mit Freunden zu teilen. Musik kann als mp3 auf Smartphones, Ipods o.ä. überall hin mitgenommen werden, neueste Fotos werden instant auf dem eige- nen Blog veröffentlicht, private Dokumente werden auf virtuellen Festplatten im Netz gelagert, geteilt und in der ganzen Welt verbreitet. Vernetzung ist also das Schlüs- selwort unseres Zeitalters. Theoretisch kann jeder jeden erreichen und kontaktieren, sobald er nur mit dem Internet verbunden ist. So ließen sich sämtliche Inhalte mit jedem Menschen teilen und jeder könnte über dasselbe Wissen verfügen, wenn er gewillt dazu wäre. Doch hier ist die Entwicklung noch nicht so weit fortgeschritten, denn die globale Informationsflut konzentriert sich noch in kleineren, meist themen- zentrierten Einheiten wie Blogs oder Diskussionsforen. Ausnahmen davon sind Web- seiten wie die freie Enzyklopädie Wikipedia, die sich mit diversen Themen beschäf- tigt, dafür aber auch um den Anspruch eines wissenschaftlichen Nachschlagewerkes kämpft.

Erwartungsgemäß wird sich die Gesellschaft in Zukunft weiter auf die neusten tech- nischen Möglichkeiten einstellen und sie nach und nach noch effektiver und gemein- samer nutzen als bisher. Hier besteht sicher auch die Gefahr, dass der Mangel an Privatsphäre möglicherweise ausgenutzt werden könnte. Doch zweifellos ist die digi- tale Welt des Internets auf dem Weg, sich von der einstigen statischen Informations- quelle zu etwas zu entwickeln, das die Welt ein stückweise näher zusammenwach- sen lässt. Auch wenn dies auf keinen Fall völlig unkritisch betrachtet werden darf und sich hier durchaus neben all den Möglichkeiten und Chancen einige Gefahren und Beschränkungen verbergen.

Auch aus Sicht von Forschern ermöglicht das weltweite Web ungeahnte Möglichkei- ten. Das Übertragungsprotokoll HTTP verhilft zur Datensammlung rund um die Uhr und Welt, Umfragen und Experimente können weltweit jeden Web-User erreichen. Die dabei erhaltenen Daten werden automatisch in elektronischer Form gespeichert, wodurch Laborkosten, teures Equipment, Papier, Arbeitskräfte und der Post-Aufwand gespart werden (vgl. Birnbaum 2000b). Doch auch hier lauern zweifellos einige Gefahren und Probleme.

Im Folgenden werden zunächst relevante Entwicklungen im Bereich des Computers seit ca. 1990 dargestellt. Danach werden verschiedene Vorgehen zur Sammlung von Daten verglichen und hierbei auch die clientseitige der serverseitigen Programmie- rung gegenübergestellt. Zudem werden einige methodologische Probleme wie z.B. Dropouts erwähnt und mögliche Lösungswege diskutiert, gefolgt von den Pilotversu- chen im Labor vor der Veröffentlichung einer Web-Studie. Zuletzt wird auf Vor-und Nachteile sowie Unterschiede und Gemeinsamkeiten von Web- und Labor- Forschung eingegangen.

2. Personenforschung und Datensammlung mittels des Internets

2.1 Computer-und Internetentwicklungen seit 1990

Seit ca.1990 gibt es einige erwähnenswerte Computer-Entwicklungen, die wichtige Voraussetzungen für die aufstrebende Web-Forschung schaffen. So kann festgehalten werden, dass seitdem die Computer Hardware und Software so erheblich verbessert wurden, dass der Besitz eines PCs mit sehr viel weniger Kosten verbunden ist und dessen Nutzung und Bedienung immer leichter und benutzer- freundlicher wurde (vgl. Birnbaum 2001a). Durch derartige Vereinfachungen steigt in einer logischen Konsequenz daraus die Anzahl der PC-Nutzer immer noch und im- mer weiter kontinuierlich an und wird künftige Generationen wohl einheitlich mit Computer aufwachsen lassen, was noch vor einem Jahrzehnt nicht denkbar gewe- sen wäre. So wie die Nutzerzahl sich stetig erhöht, wächst auch die Fülle an Inhalten und Informationen im weltweiten Web fortwährend, so dass jeder Nutzer theoretisch denselben Wissensstand aufweisen könnte. Eine derartige Flut an Informationen kann zuweilen aber auch unübersichtlich und abschreckend wirken (ebd.). Zudem wird die Schnelligkeit und Stabilität der Internet-Verbindung stets verbessert und Elemente wie Java oder Java Script machen Webseiten grafisch immer ansprechba- rer und ansehnlicher, Browser können nun immer komplexere Inhalte darstellen. 1995 wird die Auszeichnungssprache HTML 2 eingeführt, die als Grundlage des World Wide Web gilt und es Nutzern ohne E-Mail-konfigurierten, aber internetfähigen PCs ermöglicht, an Umfragen teilzunehmen (ebd).

Diese speziellen und weitere Entwicklungen führten im Laufe der letzten zwei Jahrzehnte zu einem rasanten Anstieg der Online-Forschungsmethode.

2.2 Technische Verfahren

2.2.1 HTML-Formulare

Die wichtigste Technik der webbasierten Forschung stellt die Hypertest Markup Language (HTML) dar. Es handelt sich hierbei um eine textbasierte Auszeichnungssprache, welche Inhalte wie Texte, Bilder, Grafiken und Videos in Dokumenten strukturiert (vgl. Münz/Nefzger 2005).

Die Software zum Erstellen von Webseiten ist oftmals frei zugänglich, wie etwa FactorWiz (vgl. Birnbaum 2000c), WEXTOR (vgl. Reips/Neuhaus 2002), WWW Survey Assistant (vgl. Schmidt 1997b) oder Quiz-o-matic (vgl. White/Hammer 2000). Dennoch gibt es auch viel kommerzielle, auf Gewinn zielende, Software. Ob frei oder kommerziell, ein gewisses Verständnis der Tags (Schlagwörter zur Auszeichnung und Klassifizierung, z.B. Bilder, Tabellen) von HTML ist auf Seiten der Webforscher immer notwendig. Auch hier reichen die Tutorials von kostenlosen Anleitungen bis hin zu teuren Büchern (vgl. Birnbaum 2001a).

Erwähnenswert ist, dass deutschsprachige Psychologen die WebForschungsmethode rasch übernahmen. Bereits 1997 erscheint die erste Auflage des Buches Internet für Psychologen (Batinic 2000). Und auch die German On-line Research Society gründet sich in diesem Jahr (vgl. Batinic et al. 1999), die schnell neben deutschen auch etliche englische Texte veröffentlicht (vgl. Batinic et al. 2002, Reips 2001b, Reips/Bosnjak 2001).

2.2.2 Clientseitige vs. Serverseitige Programmierung

Wichtig zum Verständnis der jeweiligen Programmierung ist das Client-Server- Prinzip. Eine Anwendung (=Client) nimmt hierbei den Dienst eines Servers in Anspruch. Auf dem Server wartet das Programm auf das Client-Programm und tauscht danach Nachrichten mit ihm aus (vgl. Birnbaum 2001a).

Die clientseitige Programmierung umfasst also die Programme auf dem PC des Nut- zers (z.B. Forefox, Excel) sowie alle individuellen Einstellungen jedes Nutzers einer Homepage, während die serverseitige Programmierung alle Programme auf dem Webserver bezeichnet, die abhängig nur vom Server-PC sind. Programmiersprache der clientseitigen Programmierung ist das kostenlose Java Script, bei dem ein Quell- code in eine HTML-Seite eingebaut und durch den Browser interpretiert wird, was das Java Script zu einer völlig objektorientierten Sprache macht, deren Steuerung von Grafiken bisher überlegen ist. Java Script befindet sich jedoch ständig noch in der Entwicklung, weshalb von Seiten des Anwenders eine hohe Flexibilität gefragt ist (vgl. Baron/Siepmann 2000, Birnbaum/Wakcher 2002).

Vorteile der clientseitigen Programmierung sind zum einen die schnellen Ausführungen, da die Programme direkt auf dem PC des Clients sind. Zudem besteht kein Sicherheitsrisiko mehr für den Webserver, wodurch der Verwaltungsaufwand der serverseitigen Programmierung entfällt. Außerdem ist eine schnelle Interaktion mit dem Webbesucher möglich und Java und Javascript sorgen für dynamische Effekte und Gestaltungen statischer HTML-Seiten (vgl. Birnbaum 2001a).

Nachteilig sind dagegen die benötigten speziellen Fähigkeiten beim Client. Des Weiteren ist der Quelltext einsehbar und veränderbar. Die clientseitige Programmierung ist also eher nur geeignet für kleinere Aufgaben (ebd.).

Bei der serverseitigen Programmierung sind keine speziellen Kenntnisse beim Client notwendig, da die Programme auf dem Server laufen. Es gibt keine Inkompatibilitäten. Der Quelltext befindet sich auf dem Server, es ist nur ein generierter Code für den Besucher sichtbar, was die serverseitige Programmierung alles in allem sicherer macht, da auch keine Verbindung zwischen den Datenbanken und dem Client besteht. Sie ist demnach für anspruchsvollere Aufgaben als die clientseitige geeignet und liefert Daten zurück an den Webserver (ebd.).

Doch es gibt auch Nachteile der serverseitigen Programmierung. So ist jede Aktion des Nutzers erst bei erneutem Aufrufen der Seite erfassbar. Außerdem ist die Aus- führung aufgrund der Datenübertragung über das Netz langsam. Bei hoher Serverbe- lastung besteht also die Möglichkeit und die Gefahr, dass bei gleichzeitigem Zugrei- fen mehrerer Nutzer auf die Serverprogramme der Server komplett lahm gelegt wer- den kann (ebd.).

2.2.3 Der eigene Server

Einen eigenen Server betreiben kann viele Vorteile mit sich führen. Alles, was hierfür benötigt wird, ist ein internetfähiger Desktop-Computer und eine freie Software, die es ermöglicht, beispielsweise den freien Apache Webserver zu installieren (vgl. Schmidt et al. 1997). Am besten funktioniert das System, wenn eine feste IP-Adresse vorhanden ist, die aber nicht zwingend erforderlich ist. Ist der Server einmal instal- liert, können willkürlich Installationen durchgeführt werden und der Web-Forscher ist völlig unabhängig von sämtlichen Provider-Vorgaben, Beschränkungen und Kapazi- tätsbeschränkungen (vgl. Reips 1997). Das alles bringt deutlich mehr Freiheiten bei der Online-Forschung mit sich, das Betreiben eines eigenen Servers setzt allerdings sehr gute Kenntnisse und Flexibilität voraus, da man sich aufgrund technischer Ver- änderungen und Entwicklungen auch permanent auf dem Laufenden halten muss.

2.2.4 Die Reizlieferung

Wie erwähnt befinden sich PC-Hardware und -Software in ständiger Weiterentwick- lung. Das macht das Anbieten und Liefern von visuellen und auditiven Reizen im Web immer leichter, wobei es aber dennoch Grenzen bei der Reizlieferung gibt (vgl. Krantz 2001). So besitzen die Nutzer verschiedene PCs, Systeme, Browsers, Moni- tors und Lautsprecher, was dazu führt, dass die Reize unterschiedlich stark empfan- gen werden und eventuell auch anders wahrgenommen werden als es vom Forscher vorgesehen ist (ebd.). Um Langeweile und das Abbrechen eines Experiments zu verhindern, werden Download-und Übertragungsgeschwindigkeiten stets verbessert. Zudem werden Bilder, Grafiken und Sounds komprimiert, so dass sie bereits vor dem vollständigen Download angezeigt und abgespielt werden können (ebd.). Das kom- primierte Audio-Dateiformat mp3 ermöglicht das qualitativ hochwertige Senden klei- nerer Musik-oder Sprachaufnahmen (vgl. Birnbaum 2001a). Eine weitere sinnvolle Verbesserung sind die Streaming-Medien (z.B. das Internet-Videoportal Youtube), durch die der Beginn von Videos bereits abgespielt werden kann, während der Rest noch heruntergeladen wird (ebd.). Zukunftsträchtig ist die Idee des Live-TVs, wo über Windows Media Player, Flash Player und Real Player Plug-Ins Fernsehsender emp- fangen werden können, was sicher in ein paar Jahren noch eine wichtigere Rolle spielen wird und vielleicht den herkömmlichen Fernseher irgendwann ganz ablösen und verdrängen wird (ebd.).

All diese Veränderungen befinden sich immer noch in der Entwicklung und das Ende der Möglichkeiten ist längst nicht erreicht, so dass es interessant zu beobachten sein wird, wie sich die Techniken der Reizlieferung im Web in Zukunft weiter verändern und verbessern werden.

2.3 Methodik

2.3.1 Verhindern der Mehrfach-Eingabe

Auch in der Web-Forschung gibt es, wie in der Labor-Forschung auch, mögliche auf- tretende Probleme, die es zu lösen oder umgehen gilt.

[...]

Ende der Leseprobe aus 20 Seiten

Details

Titel
Personenforschung und Datensammlung im Internet
Hochschule
Otto-Friedrich-Universität Bamberg
Note
1,0
Autor
Jahr
2012
Seiten
20
Katalognummer
V281583
ISBN (eBook)
9783656759461
ISBN (Buch)
9783656838173
Dateigröße
651 KB
Sprache
Deutsch
Schlagworte
personenforschung, datensammlung, internet
Arbeit zitieren
Antonia Anzenhofer (Autor:in), 2012, Personenforschung und Datensammlung im Internet, München, GRIN Verlag, https://www.grin.com/document/281583

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Personenforschung und Datensammlung im Internet



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden