Internet als neue Datenerhebungsmethode in der Psychologie - Die Verwendung von Electronic Mail und dem World Wide Web zur Befragung im Internet


Diplomarbeit, 1997
195 Seiten, Note: sehr gut

Leseprobe

Inhaltsverzeichnis

1 Einleitung

2 Computerdiagnostik

3 Einsatz des Computers in der Umfrageforschung
3.1 Computer Assisted Data Collection (CADAC)
3.1.1 Computer Assisted Telephone Interviewing (CATI)
3.1.2 Computer Assisted Personal Interviewing (CAPI)
3.1.3 Computer Assisted Self Interviewing (CASI)
3.2 Computergestützte Datenerhebung
3.2.1 Computergestützte Befragungssysteme (CBS)
3.2.2 Bildschirmbefragungssysteme (BBS)

4 Datenqualität von Umfragen
4.1 Auswahlfehler
4.1.1 Statistischer Zufallsfehler
4.1.2 Nichterfassungsfehler
4.1.3 Ausfallsfehler
4.1.3.1 Nichterreichbarkeit
4.1.3.2 Kooperationsunwilligkeit - Verweigerung
4.1.3.3 Befragungsunfähigkeit
4.2 Meßfehler
4.2.1 Interviewerfehler
4.2.2 Meßmethodenfehler
4.2.3 Befragtenfehlern

5 Faktoren zur Erhöhung der Rücklaufrate
5.1 Methodische Einzelaspekte
5.1.1 Stichprobencharakteristika
5.1.2 Aufmerksamkeitswert des Untersuchungsthemas
5.1.3 Anzahl und Art der Kontakte
5.1.4 Umfang des Fragebogens
5.1.5 Persönliche Ansprache im Anschreiben
5.1.6 Art der untersuchenden Institution
5.1.7 Wirkung finanzieller Anreize und Geschenke
5.1.8 Anonymität und Vertraulichkeit
5.1.9 „Schwierige“ und „heikle“ Fragen
5.2 Total-Design-Methode (TDM)

6 Internet
6.1 Geschichte und Einführung
6.2 Internet-Organisation
6.3 Internet-Dienste
6.3.1 Electronic Mail
6.3.2 Mailing-Listen
6.3.3 News
6.3.4 Telnet
6.3.5 FTP - File Transfer Protocol
6.3.6 Gopher
6.3.7 IRC - Internet Relay Chat
6.3.8 WWW - World Wide Web
6.4 Internet-Demografie

7 Internet-Befragung
7.1 Befragungsinstrumente
7.1.1 Electronic Mail
7.1.1.1 Stichprobenrekrutierung
7.1.1.2 Auswertung
7.1.1.3 Computer-Monitored Data
7.1.2 NetNews
7.1.3 WWW
7.1.3.1 Stichprobenrekrutierung
7.1.3.2 Fremdplazierungen
7.1.3.3 Rücklaufquote
7.2 Beispiele für psychologische Internet-Untersuchungen
7.3 Stichprobenproblematik

8 Fragestellung und Hypothesen

9 Methodik
9.1 Versuchsplan
9.2 Stichprobe
9.2.1 Selektionskriterien
9.2.2 Rekrutierungsprozedur
9.2.3 Beschreibung der Stichproben
9.2.3.1 Email-Stichprobe
9.2.3.2 WWW-Stichprobe
9.3 Untersuchungsverfahren
9.4 Untersuchungsablauf
9.4.1 Email-Stichprobe
9.4.2 WWW-Stichprobe
9.5 Ethische und juristische Gesichtspunkte
9.6 Statistik
9.7 Kritische Diskussion der Versuchsplanung

10 Statistische Auswertung
10.1 Fragebogeneingang
10.2 Zuverlässigkeit
10.3 Email-Stichprobe
10.3.1 Rücklaufverteilungen über Untersuchungstage
10.3.2 Kumulierte prozentuale Rücklaufverteilungen
10.3.3 Bearbeitungsquote
10.3.4 Rücklaufunterschiede zwischen den zwei Fragebogenthemen
10.3.5 Entscheidung zwischen persönlichem Email und anonymem WWW
10.3.6 Rücklaufunterschiede zwischen Varianten und Themen
10.3.7 Unterschiede in den soziodemografische Merkmalen
10.3.7.1 Geschlecht
10.3.7.2 Alter
10.3.7.3 Familienstand
10.3.7.4 Studiensemester
10.3.7.5 Studienrichtung
10.3.7.6 Nationalität
10.3.8 Unterschiede in den Internet-Nutzungsmerkmalen
10.3.8.1 Zeitraum der Internet-Nutzung
10.3.8.2 Wöchentliche Nutzung des Internets
10.3.8.3 Wöchentliche Email-Nutzung
10.3.8.4 Privater Email-Verkehr
10.3.8.5 Internet-Kenntnisse
10.3.8.6 Fragebogenbewertung
10.3.8.7 Benutzte Internet-Dienste
10.3.8.8 Erster Zugang zum Netz
10.3.8.9 Gründe für die Internet-Nutzung
10.3.8.10 Befragungserfahrung
10.3.8.11 Dauer der Computerarbeit
10.4 WWW-Stichprobe
10.4.1 Rücklauf der WWW-Stichprobe
10.4.2 Unterschiede in den soziodemografischen Merkmalen
10.4.2.1 Geschlecht
10.4.2.2 Alter
10.4.2.3 Familienstand
10.4.2.4 Nationalität
10.4.2.5 Beruf
10.4.2.6 Bildungsabschluß
10.4.3 Unterschiede in den Internet-Nutzungsmerkmalen
10.4.3.1 Zeitraum der Internet-Nutzung
10.4.3.2 Wöchentliche Nutzung des Internets
10.4.3.3 Wöchentliche Email-Nutzung
10.4.3.4 Privater Email-Verkehr
10.4.3.5 Internet-Kenntnisse
10.4.3.6 Fragebogenbewertung
10.4.3.7 Benutzte Internet-Dienste
10.4.3.8 Erster Zugang zum Netz
10.4.3.9 Gründe für Internet-Nutzung
10.4.3.10 Befragungserfahrung und Dauer der Computerarbeit

11 Diskussion

12 Literatur

13 Anhang
13.1 Fragebogen Gesundheitseinstellung (Variante 1a und 1b, Email-Stichprobe)
13.2 Aufforderung Gesundheitsfragebogen (Variante 2, Email-Stichprobe)
13.3 Aufforderung Gesundheitsfragebogen (WWW-Stichprobe)
13.4 WWW-Gesundheitsfragebogen (Ausschnitt)
13.5 Fragebogen Einstellung zur Sexualität (Variante 1a und 1b, Email-Stichprobe)
13.6 Aufforderung Sexualitätsfragebogen (Variante 2, Email-Stichprobe)
13.7 Aufforderung Sexualitätsfragebogen (WWW-Stichprobe)
13.8 Kontrollfragenpaare

1 Einleitung

Das weltweite Netz der Netze, das Internet, wird immer mehr von psychologischen Forscherinnen und Forschern[1] als neues Betätigungsfeld entdeckt, da es aufgrund der rasanten Wachstumsraten und der medialen Präsenz nicht mehr aus dem Leben der westlichen Welt wegzudenken ist. Forschungsfragen sind beispielsweise die Auswirkungen von computervermittelter Kommunikation auf das Verhalten von Einzelpersonen oder Gruppen­entscheidungsprozesse (Kiesler & Sproull, 1992; Kneer, 1994) oder die Adaption von bewährten Methoden für diese neue Kommunikationstechnologie. Experimente werden für die Netzbenutzer entwickelt und Fragebogenerhebungen zu Internet- und fachspezifischen Themen werden durchgeführt.

In der vorliegenden Arbeit wird das Internet als neue Datenerhebungsmethode evaluiert, indem verschiedene Fragebogenvarianten an unterschiedliche Stichproben verwendet werden. Ziel dieser Arbeit ist es, die Möglichkeiten, die das Internet als Erhebungsmethode bietet, herauszuarbeiten und zu untersuchen. Zusätzlich wird der Rücklauf von zwei unterschiedlich problematischen Fragebogenthemen erhoben.

Die Idee zu dieser Diplomarbeit entstand aufgrund eines Vortrages von Dr. Batinic am Salzburger Institut für Psychologie über „Das Internet als psychologisches Erhebungsinstrument - Möglichkeiten, Probleme und Aussichten“.

Die ersten beiden Kapiteln des Literaturteils dieser Arbeit beschäftigen sich mit der geschichtlichen Einführung des Computers in die Psychologie und der Umfrageforschung. Schon sehr früh wurden die ersten Rechner zur Testung und Datenerhebung verwendet. Besonders in der Marktforschung verbreiteten sich die verschiedensten computergestützten Varianten der Befragung, die im einzelnen dargestellt werden. Im Kapitel 3 wird der Einfluß von computerunterstützten Verfahren auf die Datenqualität von Umfragen erarbeitet. Es wird deutlich, daß für spezifische Fragestellungen der Computer zuverlässigere und gültigere Ergebnisse ermöglicht. In Kapitel 4 werden die verschiedenen empirischen Forschungsergebnisse zur Rücklauferhöhung von schriftlichen Umfragen erörtert, die größtenteils für Internet-basierte Umfragen Geltung haben. Das Internet wird dem Leser im Kapitel 5 vorgestellt, in dem kurz auf die Geschichte und ausführlicher auf die einzelnen Dienste des Internets eingegangen wird. Die soziodemografische Zusammensetzung und der rasante Wachstum des Internets wird ebenfalls in diesem Kapitel abgehandelt. Diese kurze Internet-Einführung ist notwendig, um die weiteren Ausführungen verstehen zu können. Im Kapitel 6 wird die konkrete Umsetzung von Internet-Umfragen über Email, in den NetNews und im World Wide Web dargestellt mit den jeweils spezifischen Methoden der Stichprobenrekrutierung. Einige Internet-Befragungen werden beispielhaft angeführt und die grundsätzliche Stichprobenproblematik von Umfragen im Internet wird behandelt.

Die Fragestellungen und Hypothesen, die sich aus der Erarbeitung der vorgestellten Literatur ergeben, werden im Kapitel 7 vorgestellt. Grundsätzlich geht es um den Einfluß von verschieden variierten Versuchsbedingungen auf den Rücklauf und den Vergleich von soziodemografischen Variablen und Internet-Nutzungsmerkmalen zwischen den unterschiedlichen Stichproben. Im Kapitel 8, das sich mit der Methodik der Untersuchung beschäftigt, werden der Versuchsplan, die Stichprobenerhebung und der Untersuchungsablauf genauer dargestellt, um die Studie nachvollziehen zu können.

Die deskriptive Darstellung der Daten und die statistische Prüfung der Hypothesen folgt im Kapitel 9. Zuerst wird auf die Zuverlässigkeit der Fragebogendaten eingegangen, da versucht wurde, durch Inkonsistenz-Items absichtlich falsch ausgefüllte Bögen zu erkennen. In der Email-Stichprobe, in der nur Studierende der Universität Salzburg vertreten waren, zeigte sich, daß nur ein geringer Prozentsatz an der Internet-Umfrage teilnahmen. Die vermuteten Faktoren, worauf dies zurückzuführen ist, werden im Zusammenhang mit dem Fragebogenthema und der verwendeten Erhebungsmethode behandelt. In der WWW-Stichprobe, bei der jeder Internet-Nutzer mitmachen konnte, wird die soziografische Verteilung der Teilnehmer angeführt und gegebenenfalls von Unterschieden zwischen den beiden Themengruppen in den Internet-Nutzungsmerkmalen berichtet.

In der abschließenden Diskussion werden herausragende Ergebnisse der Untersuchung in Beziehung zu anderen Studien gesetzt und Interpretationen zur Erklärung der erhobenen Daten angeboten. Zuletzt schließt sich das Literaturverzeichnis und der Anhang mit den verwendeten Email-Fragebögen an.

2 Computerdiagnostik

Überraschenderweise wird heute das Feld der Computerdiagnostik von manchen als ein neues Gebiet für Psychologen betrachtet. Die Psychologen und Psychometriker waren aber unter den ersten Anwendern, als in den Mitfünfzigern in Amerika die ersten Computeranlagen auf den Universitäten entstanden (Fowler, 1985). Hierbei wurde schnell erkannt, daß die teilweise Jahre dauernde Analyse und Bearbeitung von großen Datenbeständen auf noch mechanischen Rechenanlagen mit Computerlochkarten beschleunigt, sowie neue diagnostische Möglichkeiten erschlossen werden konnten. Zu einer der ersten Anwendungen gehörte die computerunterstützte Auswertung von Eignungs- und Interessenstest für Studenten zur Entwicklung von Vorhersagemodellen des Studienerfolges. Etwa zur gleichen Zeit stellten die großen Testorganisationen von den mechanischen Berechnungsmaschinen auf Computertechnik um (Fowler, 1985).

In dieser Zeit spaltete die Kontroverse zwischen klinischer und statistischer Vorhersage das Lager der Psychodiagnostiker. Nach dem Erscheinen der Monografie „Clinical versus statistical prediction“ von Meehl (1954, zit. in Fowler, 1985) versuchte jede Seite die andere von der Überlegenheit der eigenen Vorgangsweise zu überzeugen. Bei der klinischen Vorgehensweise werden Informationen intuitiv, das heißt auf der Grundlage des Fachwissens und der Erfahrung des Diagnostikers ausgewertet und beurteilt und so Vorhersagen bezüglich eines bestimmten Kriteriums getroffen. Unter statistischer oder aktuarischer Vorhersage versteht man die Vorgangsweise, wenn die diagnostische Informationsauswertung und die darauf aufbauenden Vorhersagen allein auf der Basis expliziter, empirisch gewonnener und überprüfter Regeln und Gesetzmäßigkeiten vorgenommen wird (Hageböck, 1994).

Die Übertragung von standardisierten Fragebögen auf Computersysteme war damit ganz im Sinne der statistischen Vorgangsweise. Das erste computerunterstützte psychologische Testverfahren basierte auf den Minnesota Multiphasic Personality Inventory (MMPI) und wurde Anfang der sechziger Jahre in der Mayo-Klinik in Rochester für Screeningzwecke eingesetzt (Rome et al., 1962; zit. in Fowler, 1985). Aufgrund eines personellen Engpasses wurden den Patienten computerlesbare Karten mit den Testitems ausgehändigt, die dann ausgefüllt mit einem Scanner eingelesen wurden. Neben dem Skalenwert des Patienten gab dieses System auch eine Art Testinterpretation, indem von den 62 vorgefertigten verbalen Statements die passenden ausgewählt wurden.

Neben diesem System wurden zahlreiche weitere Anwendungen auf der Basis des MMPI mit dem Ziel einer möglichst vollständigen Automatisierung der Testdurchführung, -auswertung und -interpretation entwickelt. Zu erwähnen sind beispielsweise das Fowler-System (Fowler, 1964; zit. nach Fowler, 1985), mit welchem seit 1965 über 1.5 Millionen Gutachten erstellt wurden, das Finney-System (Finney, 1965; zit. nach Fowler, 1985) sowie das Caldwell-System (Cadwell, 1971; zit. nach Fowler, 1985), welches auch eine Beratung über mögliche Behandlungszuweisungen enthält.

Die Vorteile dieser Testergebnis-Interpretationsysteme, die zu einer breiten Nutzung führten, waren die relativ niedrigen Kosten pro Klient und die prinzipielle Erhöhung der Validität. Da die Fragebögen an kommerzielle Testzentren geschickt werden konnten, wurden Kliniker von der zeitraubenden und mühsamen Auswertung befreit. Die Validität der diagnostischen Urteilsbildung wurde dadurch erhöht, daß diese Testzentren Unmengen von Ergebnissen gesammelt haben und zur Interpretation heranziehen konnten. Ein einzelner Diagnostiker hatte bei seiner Beurteilung eines Falles nicht diese Möglichkeiten. Zusätzlich traten bei der maschinellen Auswertung weniger nicht-systematische Meßfehler auf, die bei der menschlichen Auswertung durch Unaufmerksamkeit, Überarbeitung usw. vorkommen konnten (Hageböck, 1994). Seit dem Einsatz dieser Computertests und Interpretationssystemen gab und gibt es kritische Stimmen, die darüber besorgt waren bzw. sind, ob nicht mit dieser Computertechnologie eine Art der Verarmung der psychologischen Diagnostik einhergehe, da dadurch die Diagnosen weniger intuitiv, inflexibel und weniger human werden. Dieses Unbehagen wurzelt wohl in der geringen Vertrautheit mit diesen Systemen und der Vorstellung einmal durch ein Computer ersetzt zu werden (Booth, 1988). Eine Entmenschlichung der diagnostischen Untersuchungssituation befürchten mehr die Kliniker als die Probanden (Fowler, 1985). Die Ergebnisse zahlreicher Studien zeigen, daß der Großteil der Teilnehmer von Computeruntersuchung diese akzeptieren, sowie motivierter und ehrlicher im Vergleich zu herkömmlichen Verfahren teilnehmen (Evans & Miller, 1969; Russell, Peace & Mellsop, 1986). In einer experimentellen Untersuchung (Watson, Manifold, Klett, Brown, Thomas & Anderson, 1990), in der der computerunterstützte MMPI mit der Papier-Bleistift-Version verglichen wurde, zeigte sich, daß die Computerversion hoch signifikant mehr bevorzugt wurde. Die Computerform wurde als schneller, persönlicher, unterhaltsamer und stressfreier bezeichnet.

Ein weiterer Kritikpunkt betrifft die Äquivalenz von herkömmlichen und computerisierten Versionen von Tests. Die meisten Fragebogentests wurden bisher einfach bzw. teils modifiziert auf Computersysteme übertragen und die Normen von herkömmlichen Test weiterverwendet. Gerade beim MMPI wurde eine Vielzahl von Vergleichsuntersuchungen durchgeführt, die teils zu recht unterschiedlichen Ergebnissen und Schlußfolgerungen kommen (Hageböck, 1994; Watson et al., 1990; Russel et al., 1986). Unter Äquivalenz versteht Watson et at., daß die Korrelation zwischen den Formaten gleich der Retestreliabilität ist und daß die verschiedenen Formate zu gleichen Mittelwerten, Varianzen und Profiltypen kommen sollten. Wenn Computerformate Papier-und-Bleistift-Versionen ersetzten sollen, müssen sie die gleiche oder bessere Retestreliabilität, Anwendungszeit und Klientenzufriedenheit vorweisen können. In den bisherigen Studien konnten erst zwei Bedingungen nachgewiesen werden. Die Klientenzufriedenheit ist einheitlich bei der Computerversion höher und die Varianz unterscheidet sich nicht zwischen den beiden Darbietungsformen. Aber aufgrund der Ergebnisse der Untersuchung von Watson et al. (1990) wird eine leichte Korrektur der Normen empfohlen, da die Computerform im Vergleich zur Paper-and-Pencil-Version die Skalenwerte unterschätzen. Grundsätzlich erscheint eine a priori angenommene Äquivalenz von herkömmlicher Modalität und Computertest-Version und die Verwendung der für die herkömmlichen Tests erstellten Normen als unangebracht (Hageböck, 1990).

Neben der Verwendung von Computern zur Testung von Personen wurden schon seit den Sechzigern Computer als Interviewpartner im klinischen Setting verwendet. Dabei übernimmt der Computer die Rolle des Interviewers und der Proband wählt entweder die Antwortvorgaben aus oder tippt eine Antwort ein. Ein großer Vorteil dieser Vorgangsweise ist die Strukturiertheit und die hohe Reabilität im Vergleich zum mündlichen Interview. Ein Computer vergißt nie eine Frage zu stellen, stellt die Fragen immer in der gleichen Art und Weise und zeigt die gleiche Reaktion auf Antworten eines Probanden (Erdman et al., 1985).

Eine Vielzahl von Studien berichten weiters davon, daß Computerinterviews für die Klienten weniger unangenehm oder weniger peinlich sein können, besonders wenn es um heikle Themen geht (Suizidgedanken, Sexualstörungen, Drogen- und Alkohlsucht oder andere psychologische Probleme). Jeder noch so neutrale Interviewer zeigt eine Reaktion auf Antworten bei solchen Themen, bzw. kann es dem Probanden peinlich sein jemand so etwas anzuvertrauen (Erdman et al., 1985). Die Furcht vor Achtungsverlust oder persönlicher Ablehnung hemmt offenbar das Mitteilen derart tabuisierter Informationen selbst gegenüber Personen, von denen ein Klient Hilfe erwartet (Bastine, 1992).

Daß sich dieser Computereffekt nicht bei jeder Population einstellt, zeigt eine Untersuchung von Skinner und Allen (1983), die keine Unterschiede in der Offenheit zwischen Computerinterview, mündlichem Interview und Papier-Bleistift-Methode fanden. Sie befragten ambulante Alkoholpatienten nach ihren Alkoholproblemen mittels verschiedener Verfahren (Michigan Alcoholism Screening Test, Alcohol Drug and Tobacco Use History). Die Alkoholmittelwerte unterschieden sich nicht zwischen den drei Varianten, was gegen die Annahme spricht, daß bei Computerbefragungen ehrlichere oder extremere Angaben gemacht werden. Die Studienautoren weisen darauf hin, daß „care must be exercised when generalizing the findings of this study to populations other than volunteer clients seeking treatment for alcohol/drug abuse“ (p. 273). Unterschiede ergaben sich aber bei der Bewertung der drei Varianten. Die Computervariante wurde auf einem semantischen Differential kürzer, entspannender, leichter, schneller und interessanter eingestuft als die anderen zwei. Auf der Achse „kalt-freundlich“ schnitt aber das mündliche Interview als deutlich freundlicher am besten ab.

Als weiterer Vorteil gegenüber der Papier-Bleistift-Methode ist die Flexibilität des Computers, der bis zu einem gewissen Grad einen menschlichen Interviewer in der Fragenabfolge imitieren kann. Durch diese Filterführung kann das Interview auf den Probanden angepaßt werden und damit können unnötige Fragen, die den Probanden nicht betreffen, übersprungen werden. Das Interviewprogramm kann so programmiert werden, daß der Proband daraufhin gewiesen wird, wenn er eine Frage nicht beantwortet hat und kann erst dann gegebenenfalls die Antwort auslassen. Somit können Flüchtigkeitsfehler vermieden werden. Mittels Validitätschecks können auch zufällige Antworten oder absichtlich falsche Angaben erkannt werden und den Probanden zur Neueingabe auffordern (Erdman et al., 1985).

Wenn ein Computerinterview vor einem mündlichen Interview durchgeführt wurde, zeigte sich ein „loosening up“-Effekt. Die Patienten gaben mehr Informationen beim Gespräch mit einem Psychiater, nachdem sie bei einem Computerinterview teilnahmen, als wenn das mündliche Interview vorher stattfand (Ferriter, 1993). Diese Kombination scheint auch dann sinnvoll, wenn z.B. ein Proband eine Frage nicht versteht und der Computer nicht so programmiert ist, um die Frage umschreiben zu können. Einem menschlichen Interviewer fällt es leichter sich auf das sprachliche Niveau des Gegenüber flexibel einzustellen.

Mit der Weiterentwicklung von leistungsstarken Computern konnte erstmals das adaptive Testen angewandt werden. Unter dem Begriff des adaptiven Testens werden Verfahren zusammengefaßt, bei denen die Probanden unterschiedliche Sätze von Testitems erhalten. Die Zusammenstellung der Testitems richtet sich jeweils nach den individuellen Fähigkeiten des Probanden in den zu messenden Testmerkmalen (Bastine, 1992). Die Idee dahinter ist, daß sich bei Leistungstests die Schwierigkeit der Fragen an den vorangegangenen Leistungen des Probanden orientieren und damit „adaptiv“ anpassen. Ein „schwächerer“ Teilnehmer wird dadurch nicht von zu schweren Items frustriert und ein „besserer“ nicht durch zu einfache gelangweilt. Damit sind auch validere Testergebnisse möglich, da das Ergebnis durch passendere Items viel enger eingegrenzt wird. Diese Testform benötigt aber einen großen Pool von homogenen Items und wird z.B. in Schulen (Wainer, 1990) und zur Personalselektion in der deutschen Bundeswehr (Wildgrube, 1990) eingesetzt.

Durch die Entwicklungen in der Computertechnologie reichen die heutigen Anwendungsmöglichkeiten von der Testentwicklung, Durchführung bis zur Auswertung und Interpretation (Jäger, 1990a; Jäger, 1990b; Fowler, 1985). In der Tabelle 1 sind einige Einsatzmöglichkeiten beispielhaft aufgeführt.

Tabelle 1

Einsatz des Computers für Teilaspekte der Computerdiagnostik

Abbildung in dieser Leseprobe nicht enthalten

Anmerkungen. Aus „Computerdiagnostik - ein Überblick“ von R.S. Jäger, 1990, Diagnostica, 36 (2), S.98.

Obwohl diese Menge von Einsatzmöglichkeiten den Eindruck erweckt, daß durch die Computerdiagnostik ein menschlicher Diagnostiker verdrängt wird, betonen einige Vertreter, daß immer die Hilfsfunktion im Vordergrund stehen muß (Jäger, 1990a). Booth (1988) sieht die Computerdiagnostik daher „als eine strategische Variante innerhalb der Diagnostik an, um psychologisch relevante Variablen zu erfassen, deren Auswahl zu steuern, die erhaltenen Informationen zu einem Urteil zu verdichten und gegebenenfalls schriftlich und/oder bildlich darzustellen“ (S.148). Die Technologie soll den Diagnostiker entlasten, indem sie ihm die wiederholenden und zeitaufwendigen Arbeiten abnimmt und ihm die systematische Analyse von vielschichtig miteinander verbundenen Variablen ermöglichen ohne ihn dabei zu ersetzten und ihm der Verantwortung zu entziehen.

3 Einsatz des Computers in der Umfrageforschung

Die Befragung ist die in den Sozialwissenschaften am häufigsten angewandte Methode (Bortz & Döring, 1995). Man unterscheidet zwischen der mündlichen Befragung in Form von Interviews und der schriftlichen Befragung über Fragebögen. Je nach konkreter Forschungsfrage ist die eine oder andere Form vorzuziehen. In den Sozialwissenschaften wurden Computer traditionellerweise zur statistischen Analyse von Daten verwendet. In neuerer Zeit werden Computer auch zur Datenerhebung verwendet (Jacobs, Cross & Smailes, 1994). Die rasche Weiterentwicklung des Computers ermöglicht immer neue Einsatzmöglichkeiten für die Forschung und Praxis. Mitunter wegen dieser schnellen Anwendung von neuen Systemen werden in der Literatur diese Techniken der computergestützten Befragung verschieden systematisiert und unterschiedlich bezeichnet (Bechtloff, 1993). Um die Übersicht zwischen den verschiedenen Begriffen zu bewahren, ist es sinnvoll einige Taxonomien näher darzustellen.

3.1 Computer Assisted Data Collection (CADAC)

Die bekannteste und vor allem in der amerikanischen Literatur am häufigsten verwendete Systematisierung versteht unter den Begriffen Computer Assisted Data Collection (CADAC), Computer Assisted Survey Information Collection (CASIS) und Computer Assisted Interviewing (CAI) folgende Methoden (de Leeuw, Hox & Snijkers, 1995):

- Computer Assisted Telephone Interviewing (CATI)
- Computer Assisted Personal Interviewing (CAPI)
- Computer Assisted Self Interviewing (CASI)

Charakteristisch für alle Formen der computergestützten Befragung ist, daß die Fragen von einem Computerbildschirm gelesen werden und daß die Antworten entweder vom Interviewer oder dem Befragten direkt in den Computer eingegeben werden (de Leeuw et al., 1995). Dabei ist zu beachten, daß dies keine neuen Methoden sind, sondern neue Techniken um traditionelle Formen der Umfrageforschung effektiver zu machen (Porst, Schneid & van Brouwershaven, 1994). In diesem Zusammenhang werden die herkömmlichen Papier-und-Bleistift-Verfahren oft als Paper-And-Pencil-Interviewing (PAPI) bezeichnet.

3.1.1 Computer Assisted Telephone Interviewing (CATI)

Unter CATI versteht man die computergestützte Telefonbefragung, bei der die Interviewer den Befragten die Fragen, die ihnen vom Computer vorgegeben werden, vorlesen und anschließend die Antworten direkt in den Computerterminal oder PC eingeben (Bechtloff, 1993). CATI ist eine der ältesten computergestützten Interviewarten (de Leeuw et al., 1995). Die Telefonnummern werden vom Computer gewählt und falls kein Kontakt zustande kommt, wählt der Computer automatisch zu einem späteren Zeitpunkt. Zusätzlich kann das Random-Digital-Dialing eingesetzt werden, bei dem die Telefonnummern nach dem Zufallsprinzip bestimmt werden (Böhler, 1992; Laatz, 1993). Damit sind auch Anschlüsse enthalten die nicht in Telefonbüchern veröffentlicht werden (z.B.: neue Anschlüsse oder Geheimnummern).

Je nach verwendeter Software sind Plausibilitätsüberprüfungen während dem Interview und komplexe Filterführungen möglich. Bei Quotenstichproben kann auch gleich aufgrund der soziodemografischen Daten entschieden werden, ob der gerade Interviewte dem Quotenplan entspricht. Meist sind Supervisoren anwesend die bei auftretenden Probleme den Interviewern zur Seite stehen und für die Qualitätskontrolle zuständig sind. Aufgrund der Weiterentwicklung der Technologie ist es auch möglich dezentralisierte Umfragen durchzuführen, bei denen z.B. die Interviewer von zuhause aus die Personen befragen.

3.1.2 Computer Assisted Personal Interviewing (CAPI)

Bei der CAPI-Methode besuchen die Interviewer die zu befragenden Personen mit einem tragbaren Computer (meist einem Notebook oder Laptop) und führen ein face-to-face Interview mit Hilfe des Computers durch. Die CAPI-Interviewsoftware funktioniert nach einem ähnlichen Prinzip wie die der CATI-Umfrage. Der Interviewer liest die Fragen vor und tippt die Antworten des Respondenten in den Computer ein. Verschiedene Mischformen des CAPI versuchen dem Befragten die Teilnahme zu erleichtern. Wenn der Fragebogen sehr heikle Fragen enthält und der Befragte Computergrundkenntnisse besitzt, kann er selbst einen Teil oder alle Fragen in den Computer eingeben, indem der Interviewer dem Befragten den Computer überläßt (Weeks, 1992). Diese Mischform wird als „self-administered CAPI“ bezeichnet.

3.1.3 Computer Assisted Self Interviewing (CASI)

Für den Begriff CASI steht die computergestützte Selbstbefragung, bei der die Befragten ohne Einsatz von Interviewern mit dem Computer direkt kommunizieren. Das Interviewprogramm steuert den Befragten interaktiv durch den Fragebogen und wartet auf die Antworteingaben. Diese Form wird auch als Computer Self Administered Questionnaires (CASQ) oder Prepared Data Entry (PDE) bezeichnet (Bechtloff, 1993; de Leeuw et al., 1995).

Unter „Audio CASI“ versteht man die Interviewform, bei der der Interviewer dem Befragten Köpfhörer und ein Eingabegerät (Tastatur, Keypad, etc.) aushändigt, die er an den tragbaren Computer anschließt. Der Befragte hört dann die Fragen und gibt die Antworten über das Eingabegerät ein. Der Computer speichert die Antwort und spielt die nächste Frage vor. Damit ist es auch möglich Personen zu heiklen oder selbstbelastende Themen (Drogen- und Alkoholkonsum, Sexualverhalten) zu befragen, die nicht lesen können (Weeks, 1992; Johnston & Walton, 1995).

Weitere etablierte computergestützte CASI-Varianten, die in ihrer Form an die schriftliche Umfrage erinnern, sind die Disk-by-Mail- (DBM) und die Electronic Mail Survey-Methode (EMS) (de Leeuw et al., 1995). Bei einer Disk-by-Mail Umfrage erhalten die Befragten eine Diskette, auf der ein Interviewprogramm abgespeichert ist. Mit Hilfe eines eigenen Computers starten sie das Interviewprogramm, welches dem Teilnehmer Fragen stellt. Nachdem der Fragebögen ausgefüllt ist, schickt man die Diskette mit den abgespeicherten Daten zurück. Diese Umfrageform kann aber nur in Spezialpopulationen durchgeführt werden, die einen Computer besitzen oder Zugang dazu haben (Porst et al., 1994; Dunnington, 1993).

Bei einem Electronic Mail Survey wird die Umfrage elektronisch (z.B. über Electronic Mail im Internet oder BTX ) an Teilnehmer mit einem Netzzugang geschickt. Auch diese Form der Befragung ist auf Spezialpopulationen beschränkt, die Zugang zu einem Computer haben und regelmäßige Email-Benutzer sind. (de Leeuw et al., 1995; Dunnington, 1993; Porst et al., 1994).

Neuere CASI-Verfahren, deren Evaluierung noch aussteht, sind News- und WWW-Umfragen im Internet, die sich an aktive Netzbenutzer wendet. Der ökonomische Vorteil dieser Verfahren ist die kostengünstige Erhebung von Daten, was aber mit einer stichprobentheoretischen Ungewißheit der Ergebnisse verbunden ist (Bortz & Döring, 1995).

Die Methoden CATI und CAPI kann man auch als „interviewer administered Questionnaire“ bezeichnen, im Gegensatz zur CASI bei der Befragte den Fragebogen selbst ausfüllt („self administered Questionnaire“).

3.2 Computergestützte Datenerhebung

Im deutschsprachigen Raum wird die computergestützte Datenerhebung häufig in

- Computergestützte Befragungssysteme (CBS) und
- Bildschirmbefragungssysteme (BBS)

unterteilt (Kroeber-Riel & Neibecker, 1983; Berekoven, Eckert & Ellenrieder, 1991).

Unter CBS werden alle die Möglichkeiten der computergestützten Befragung zusammengefaßt, bei denen im Prozeß der Informationsgewinnung Interviewer eingeschalten sind. Aufgabe der Interviewer ist es, Fragen an die Testpersonen zu stellen, die in Form eines Fragebogens vorliegen oder von einem Bildschirm abgelesen werden. Die Antworten werden durch die Testpersonen oder die Interviewer in den Computer eingegeben (Zentes, 1992; Böhler 1992).

Unter BBS faßt man entsprechend alle Möglichkeiten der computergestützten Befragung zusammen, bei denen kein Interviewer im Einsatz ist, sondern der Befragte direkt mit einem Computer in einer Art Befragter-Maschine-Dialog kommuniziert (Berekoven et al.,1993). Dieser Systematisierung zufolge wird das CATI und CAPI dem CBS zugeordnet und das CASI dem BBS. Beim CAPI und beim CASI wird eine Vielzahl weiterer Varianten in Abhängigkeit des Ortes, an dem die Befragung stattfindet, differenziert.

3.2.1 Computergestützte Befragungssysteme (CBS)

Die CAPI-Methode wird in folgende Varianten aufgegliedert (Berekoven et al.,1993; Kroeber-Riel & Neibecker; 1983):

- simultane Mehrpersonenbefragung
- unabhängige Mehrpersonenbefragung
- mobile Datenerfassung

Die simultane Mehrpersonenbefragung ist ein Verfahren, bei dem mehreren Personen, die sich in einem Raum (z.B. einem Teststudio) befinden, von einem Interviewer dieselben Fragen gestellt werden. Die Befragten, die mit Datenerfassungsgeräten ausgerüstet sind, beantworten die Fragen, indem sie die Antworten mit Hilfe einer numerischen Tastatur in ihre Datenerfassungsgeräte eingeben. Durch Betätigung der einzelnen Tasten werden die Antworten erfaßt und kodiert (Bechtloff, 1993).

Bei der unabhängigen Mehrpersonenbefragung handelt es sich um ein Verfahren, bei dem sich die zu befragenden Personen in einem mit separaten Computerräumen ausgestatteten Teststudio befinden. Dabei sitzt jeder Befragte neben einem Interviewer an einem Computerterminal oder PC. Die Interviewer lesen die jeweils angezeigten Fragen ab, die auch die Befragten lesen können, und geben die Antworten von den Befragten in die Rechner ein. Auf diese Weise ist eine zeitgleiche Befragung mehrerer Personen mit unterschiedlichen Fragen möglich (Berekoven et al., 1993).

Als mobile Datenerfasssung wird eine Methode bezeichnet, bei der die Interviewer Laptops oder Notebooks mitführen und den Befragten unabhängig vom Ort der Befragung die Fragen vorlesen und die Antworten direkt in den mitgeführten Rechner eingeben. Der Vorteil liegt darin, daß die Befragung in der natürlichen Umgebung stattfinden kann (Berekoven et al., 1993). Die mobile Datenerfassung entspricht damit dem CAPI.

3.2.2 Bildschirmbefragungssysteme (BBS)

Beim BBS bzw. CASI werden folgende Varianten unterschieden (Berekoven et al., 1993):

- Befragung mittels Videobildschirm
- Computerbefragung i.e.S
- Online-Befragung über Netzwerke (BTX, Internet)
- Online-Befragung über Kabelfernsehen

Bei Bildschirmbefragungen findet ein direkter Dialog zwischen Befragten und Computer statt: Der Befragte liest die Fragen vom Bildschirm ab und gibt die Fragen direkt in die Computereinheit ein. Ein Interviewer ist außer zur Einweisung und Hilfestellung nicht mehr notwendig (Schlottmann & Neibecker, 1994).

Bei der Befragung mittels Videobildschirm beantworten die Befragten die Fragen über einen Videobildschirm, indem sie die Antworten selbst über eine vom Videobildschirm getrennte Tastatur in den Computer eingeben.

Bei der als Computerbefragung i. e. S. definierten Variante erfolgt die Befragung über den Bildschirm eines Computers. Die Befragten geben auch hier die Antworten über Tastatur, Touchscreen-Bildschirm oder Lichtgriffel ein.

In Unterschied zu diesen beiden Varianten der computergestützten Selbstbefragung, bei denen sich Computer und Befragte am gleichen Ort befinden, kommunizieren die Befragten bei den Online-Befragungen mit einem Zentralcomputer. In einem Fall erfolgt die Datenübertragung über BTX (Dubke, 1984), im anderen über Kabelfernsehen mit Rückkanal (Pepels, 1996; Zentes, 1992). Bei den beiden letztgenannten Methoden wird darauf hingewiesen, daß aufgrund der geringen Verbreitung des BTX und des Kabelfernsehens mit Rückkanal Umfragen nur beschränkt repräsentativ sind (Berekoven et al., 1993; Böhler, 1992). Aufgrund der geringen und stagnierenden Verbreitung des Bildschirmtextes in Europa werden keine Hoffnungen mehr in Bildschirmtext-Umfragen gesetzt (Hansen, 1994). Stattdessen wird dem schnell wachsenden Internet mehr Aufmerksamkeit geschenkt (Hansen, 1995; Bauer & Schuster, 1996).

Insgesamt betrachtet führt die Systematisierung der computergestützten Befragung in computergestützte Befragungssyteme und Bildschirmbefragungssysteme jedoch leicht zu Mißverständnissen (Bechtloff, 1993), da in beiden Systemen Computer und Bildschirme verwendet werden. Teilweise werden die Begriffe auch vermischt, wie wenn z.B. Pepels (1996) „als Bildschirmbefragung (Computer Assisted Personal Interviewing CAPI) eine Form bezeichnet, bei der der Fragebogen durch ein PC-Display ersetzt wird und der Eintrag durch eine PC-Tastatur. Dabei liest der Interviewer Fragen vom Bildschirm ab und tippt die Antworten der Auskunftsperson über ein alphanumerisches Keyboard ein“ (S. 92). Um mögliche Mißverständnisse zu vermeiden, wird im weiteren Verlauf dieser Arbeit die amerikanische Terminologie verwendet, welche die computergestützte Befragung insgesamt als CADAC bezeichnet und zwischen den Methoden CATI, CAPI und CASI unterscheidet.

4 Datenqualität von Umfragen

Die sozialwissenschaftliche Befragung unterscheidet sich von natürlichen Befragungssituationen dadurch, daß es sich dabei um eine weitgehend standardisierte Interaktion handelt. Das heißt, die Fragestellung erfolgt in einer zuvor festgelegten systematischen Weise und ermöglicht so, anderen Befragten dieselbe Frage in derselben Form zu stellen. Ebenso muß die Antwort in einem zuvor festgelegten Format abgegeben werden, sodaß Antworten mehrerer Personen unmittelbar verglichen werden können. Solcherart standardisierte Befragungen haben meist die Funktion der „Messung“, d.h. einer Operation, die einem Objekt einen bestimmten Meßwert zuordnet. Die Idee der Messung impliziert Genauigkeit und damit auch ihr Gegenteil, Ungenauigkeit und Fehlerhaftigkeit (Strack, 1994). Die Fehlerquellen bei der standardisierten Befragung kann man grob in zwei Bereiche teilen (Laatz, 1993):

1. Auswahlfehler

2. Meßfehler

Alle Auswahlfehler haben einen gemeinsamen Aspekt. Sie entstehen dadurch, daß von verschiedenen Elementen der Zielpopulation, über deren Elemente wissenschaftliche Aussagen gemacht werden sollen, keine Messungen vorliegen („errors of nonobservation“). Die Gründe für das Fehlen von Messungen definieren drei unterschiedliche Arten von Auswahlfehlern (vgl. Költringer, 1993):

1.1 Statistischer Zufallsfehler (Sampling Error)

1.2 Nichterfassungsfehler (Noncoverage Error)

1.3 Ausfallsfehler (Nonresponse Error)

Meßfehler können unter die breite Kategorie der Beobachtungsfehler zusammengefaßt werden („errors of observation“). Interviewer, Befragte und Meßmethoden sind die wesentlichen Quellen für Meßfehler:

2.1 Interviewerfehler

2.2 Meßmethodenfehler

2.3 Befragtenfehler

In beiden Bereichen sind sowohl variable Fehler als auch Verzerrungen zu berücksichtigen. Variable Fehler oder Zufallsfehler beziehen sich auf die Abweichungen der Ergebnisse zwischen unabhängigen Wiederholungen eines Umfragedesigns. Verschiedene Stichproben aus ein und derselben Grundgesamtheit führen - unter sonst gleichen Bedingungen - nahezu mit Sicherheit zu unterschiedlichen Ergebnissen. Die Varianz dieser Ergebnisse ist ein Beispiel für variable Stichprobenfehler. Verzerrung oder Bias ist demgegenüber ein systematischer Fehlertyp, der die Ergebnisse einer Umfrage konstant über alle Wiederholungen hinweg beeinflußt (Költringer, 1993). Bildlich gesprochen tritt ein variabler Fehler auf, wenn z.B. ein Gummiband als Metermaß verwendet wird und ein Bias, wenn mit einem falsch geeichten Metermaß gemessen wird.

Diese Fehler und Verzerrungen treten auch bei der Verwendung von Computer in der Befragung von Personen auf. In verschiedenen Studien werden daher die Auswirkungen des Computereinsatzes auf die Erhebungsdauer, die Kosten und die Datenqualität untersucht. Die Datenqualität kann als Maß für die Richtigkeit und die Vollständigkeit erhobener Daten angesehen werden, die durch eine Vielzahl von Einflußfaktoren (Erhebungsmethode, Thematik, Interviewer, Zeitpunkt der Umfrage...) bestimmt ist (Bechtloff, 1993). Anhand der Anzahl und der Größe der auftretenden Erhebungsfehler kann man die Qualität der Daten beurteilen. Mit der Einführung des Computer in den Befragungsprozeß wird eine Verbesserung der Datenqualität versucht. Problematisch bei der Beurteilung ist aber, daß es nur bei Tatsachenverhalten (factual behavior) einfach ist, die Genauigkeit der Daten durch Beobachtung oder Heranziehen anderer Quelle zu überprüfen (de Leeuw et al., 1995, S. 329). Bei der Erhebung von subjektiven Phänomenen wie Einstellungen, Meinungen und Absichten ist diese Überprüfung nicht so leicht möglich, da entsprechende Daten und unstrittige Außenkriterien fehlen (Strack, 1994). Daher werden andere Kriterien zur Bestimmung der Umfragequalität herangezogen: Akzeptanz bei den Befragten, Rücklaufquote, fehlende Antworten, Antwortlänge (detail) und Anzahl der Antworten auf offene Fragen (completeness), soziale Erwünschtheit und Kostenüberlegungen (de Leeuw et al., 1995, S. 329).

Im folgenden werden die einzelnen Fehlerarten genauer vorgestellt und, falls dazu Studien über die Auswirkungen des Computereinsatzes vorhanden sind, diese beispielhaft aufgeführt.

4.1 Auswahlfehler

Alle Arten von Auswahlfehlern beruhen auf dem Umstand, daß für bestimmte Elemente der Grundgesamtheit keine Messungen vorliegen. Der Auswahlfehler setzt sich aus einem zufälligen und einem systematischen Anteil zusammen. Der zufällige Anteil (statistischer Zufallsfehler) läßt sich berechnen und verkleinern, der systematische ist dagegen nur vermeidbar (Hammann, 1994).

4.1.1 Statistischer Zufallsfehler

Wenn Stichproben aus einer Grundgesamtheit gezogen werden, kann man den Zufallsfehler berechnen. Die Abschätzung des Zufallsfehlers erfolgt mit Hilfe der Wahrscheinlichkeitstheorie, solange bei der Durchführung der Teilauswahl die Prämissen der Wahrscheinlichkeitstheorie zur Gewinnung einer Zufallsauswahl erfüllt werden. Der Zufallsfehler ist unvermeidbar bei einer Stichprobenerhebung und verkleinert sich durch Vergrößerung des Umfangs der Stichprobe. Die Verringerung des Zufallsfehlers läßt sich mit dem Gesetz der großen Zahlen erklären, da sich die bei der Erfassung der einzelnen Untersuchungseinheiten gemachten Fehler mit wachsender Zahl der Untersuchungseinheiten tendenziell ausgleichen (Hammann, 1994).

Der statistische Zufallsfehler wird durch die Einführung computergestützter Verfahren nicht beeinflußt. Computer können aber z.B. zur Berechnung von Zufallszahlen verwendet werden.

Bei Stichproben, die nicht der Zufallsauswahl entsprechen, wie bei der Passantenbefragungen oder auch News- oder WWW-Umfragen im Internet, kann kein Zufallsfehler berechnet werden und die Auskunftspersonen sind durch die willkürliche Auswahl nur bedingt für die zugrundegelegte Grundgesamtheit repräsentativ (vgl. Kurz, 1987).

4.1.2 Nichterfassungsfehler

Nichterfassungsfehler entstehen dadurch, daß Personen aus allen Stichproben einer Population ausgeschlossen werden. Wie alle Auswahlfehler resultieren auch Nichterfassungsfehler aus dem Umstand des vollständigen Fehlens von Beobachtung. Bei der Nichterfassung haben einzelne Elemente der Grundgesamtheit keine Auswahlchance in die Stichprobe aufgenommen zu werden, weil sie nicht in den Auswahllisten für die Stichprobenziehung enthalten sind. Wenn man eine für ganz Österreich repräsentative Telefonumfrage durchführen will, fehlen jedoch die Nicht-Telefonbesitzer in der Stichprobe, was das Ergebnis in gewisser Weise einschränkt. In den neuen Bundesländern Deutschlands sind deshalb telefonische Repräsentativerhebungen wegen der niedrigen Telefondichte von ca. 50% nicht durchführbar (Müller-Schroth, 1995). Je nachdem ob die nicht-erfaßten Elemente andere Merkmalsverteilungen als die erfaßte Elemente aufweisen, sind die Umfragestatistiken systematisch verzerrt. Weitere Erfassungsfehler sind die Fehlerfassung und die Überfassung (overcoverage). Bei der Fehlerfassung sind Fremdelemente in der Auswahlliste, die nicht Teil der Population sind (z.B. Adressen von Betrieben in Haushaltsbefragungen). Bei der Überfassung kommen Elemente öfters in der Auswahlliste vor und dadurch steigt die Auswahlwahrscheinlichkeit (z.B.: Haushalte mit mehreren Telefonanschlüssen in Telefonumfragen). Die Qualität und Aktualität des Adressenmaterials bestimmen diesen Erfassungsfehler, der durch die Verwendung von computergestützten Verfahren nicht bedeutend verringert werden kann. Die Adresslisten von Email-Umfragen sind bei weitem noch nicht in der Lage einen repräsentativen Querschnitt der Bevölkerung darzustellen. Aber auch die Beschränkung auf Teile der Grundgesamtheit, wie z.B. die Studierenden in Salzburg mit Email, unterliegt dem Problem der Dynamik des Internets (Batinic & Bosnjak, 1997). Laufend werden neue Emailaccounts vergeben und bestehende werden nicht mehr genutzt. Bis sich ein stabiler Benützerpool etabliert hat und vollständige Email-Adresslisten wie bei gängigen Telefonumfragen vorliegen, wird noch einige Zeit vergehen.

4.1.3 Ausfallsfehler

Wenn bei einer Umfrage ein gewisser Anteil der ursprünglich ausgewählten, geeigneten Stichprobenelementen nicht befragt werden kann, spricht man vom Ausfalls- oder Nonresponse-Fehler. Diese Verzerrung der Erhebungsergebnisse entsteht dadurch, daß einige Elemente der Stichprobe die Antwort verweigern oder nicht erreichbar sind (Hammann, 1994). Den Anteil der Nicht-Antwortenden an der Auswahlmenge bezeichnet man als Ausfallsrate (Nonresponserate) und komplementär dazu den Anteil der Antwortenden als Ausschöpfungs- oder Rücklaufquote (Responserate). Das Ausmaß der Verzerrung hängt von der Nonresponserate und der Differenz zwischen Nonrespondenten und Respondenten in den interessierenden Merkmalen ab. Im Falle einer sehr hohen Ausschöpfung, das heißt einer sehr niedrige Nonresponserate, können auch große Unterschiede zwischen Respondenten und Nonrespondenten nur zu kleinen Verzerrungen führen. Umgekehrt, wenn sich die Respondenten und Nonrespondenten kaum unterscheiden, dann führen auch hohe Ausfallsrate zu keiner Verzerrung (Költringer, 1993). In der Regel unterscheiden sich aber die Antwortreaktionen der nichterreichten Personen vom Antwortverhalten der erreichten und interviewten Personen. Die Ursachen für die Nichterreichbarkeit bzw. Unwilligkeit zur Mitarbeit hängen nämlich meist mit den untersuchten Einstellungs- und Verhaltensmustern zusammen (Kurz, 1987). Damit ergibt sich auch eine Auswirkung auf die Repräsentanz der Ergebnisse, da nur ein systematisch verzerrter Teil der Stichprobe erhoben wurde (Hammann, 1994).

Drei Faktoren bestimmen den Nonresponse-Fehler (vgl. Költringer, 1993; Cochran, 1972): die Nichterreichbarkeit, die Kooperationsunwilligkeit und die Befragungsunfähigkeit.

4.1.3.1 Nichterreichbarkeit

Die Ausfallswahrscheinlichkeit aufgrund Nichterreichbarkeit ist bei aktiven Personen mit jugendlichen Lebensstil, großer Mobilität und einem vergleichsweise umfangreichen, außerfamilären sozialen Netzwerk am höchsten, da sie seltener zuhause anzutreffen sind.

Durch den Einsatz von der CATI-Technologie konnte bei vergleichenden Studien überwiegend eine höhere Kontaktrate hergestellt werden, weil das Computersystem über eine automatische Anruf-, Termin und Kontaktverwaltung verfügte. Nach Meinung der Studienautoren lassen sich bei CATI mehr Kontakte innerhalb eines vorgegebenen Zeitraumes herstellen als bei konventioneller Vorgehensweise. Dadurch erhöht sich die Wahrscheinlichkeit, einen Befragten zu erreichen (Nicholls II & Groves, 1986).

Als problematisch für die herkömmliche und die computerunterstützte Telefonumfrage erweist sich beispielsweise die Verbreitung von Anrufbeantwortern im Amerika, die teilweise als Screening-Instrument, um unliebsame Anrufe zu erkennen, verwendet werden (Oldendick & Link, 1994; Tuckel & Feinberg, 1991).

Bei Electronic Mail Surveys (EMS) kann es vorkommen, daß angemailte Teilnehmer ihre Email-Post nicht im Untersuchungszeitraum lesen. Manche Email-Nutzer lesen selten oder sehr unregelmäßig Email, was sich auch teilweise in einem verzögerten Rücklaufverhalten von Fragebögen zeigt. Mittels Computer-Monitored Data kann man herausfinden, wieviel Personen den Email-Fragebogen zumindest angesehen haben. Anderson und Gansneder (1995) berichten in ihrer Studie, daß 19% der angeschriebenen Personen in den 3 Wochen kein Email benutzten. Zusätzlich können mit Hilfe von Filtereinstellungen in moderneren Email-Programmen unaufgeforderte Emails erkannt und gelöscht werden, was die Rücklaufquote weiter verringert.

4.1.3.2 Kooperationsunwilligkeit - Verweigerung

Problematisch bei der Untersuchung von Verweigern ist die Tatsache, daß diese auskunftsunwilligen Personen sehr schwer zu befragen sind (Költringer, 1993). Bei einigen Studien wurde der Einfluß von CATI auf die Anzahl der Gesprächsverweigerungen untersucht. Dabei konnten jedoch keine signifikanten Unterschiede zwischen CATI und herkömmlichen Telefonbefragungen festgestellt werden (Bechtloff, 1993), da sich die befragten Personen über den Unterschied in der Befragungsmethode nicht bewußt sein können. Die Befragten von CATI-Interviews schätzen zusätzlich die Zeitdauer der Erhebung deutlich niedriger ein als die CAPI- und PAPI-Befragten (Ostermeyer & Meier, 1994, S.29).

Wichtig bei der Teilnahmebereitschaft an einer Befragung ist die Akzeptanz der Methode. In einer vom Deutschen Statistischen Bundesamt durchgeführten CAPI-Studie verweigerte lediglich ein Prozent der Personen, die sich generell zur Beantwortung des Fragebogens bereit erklärt hatten, die Beantwortung, nachdem ihnen mitgeteilt worden war, daß das Interview mit Hilfe eines Notebooks durchgeführt werden sollte. Im Verlauf der Interviews gaben 74% der mit CAPI befragten Personen an, generell zu weiteren CAPI-Studien bereit zu sein und 68% erklärten, daß sie CAPI für zukünftige Befragungen gegenüber herkömmlichen persönlichen Interviews vorziehen (Bechtloff, 1993).

De Leeuw et al. (1995) nennt einige CAPI-Studien, die zum Ergebnis kommen, daß die meisten Befragten neutrale oder positive Reaktionen zeigen. Nur ein geringer Prozentsatz (1-4%) zeigen spontane negative Reaktionen auf diese Erhebungsform. Wenn Personen nach ihrer Meinung zur CAPI-Methode gefragt werden, finden sie diese Variante meist interessant, unterhaltend und bewerten diese Methode als professioneller. Die soziale Interaktion mit dem Interviewer wird allgemein als angenehm und entspannend bezeichnet. Diese Ergebnisse zeigen die hohe Akzeptanz der Computerinterviews bei den Befragten und läßt vermuten, daß sich der Einsatz von Computern zumindest nicht negativ auf die Anzahl der Auskunftsverweigerungen auswirkt.

Auch bei den CASI-Verfahren wird das Verhältnis des Befragten zum Computer als vorwiegend positiv beschrieben. Nach einer kurzen Eingewöhnungszeit von wenigen Minuten ist der Teilnehmer in der Lage die Computerbefragung alleine durchzuführen. (Kroeber-Kiel & Neibecker, 1983; De Leeuw et al., 1995). Diese Computerform wird signifikant interessanter (Erdman, Klein & Greist, 1983) als die PAPI-Methode bewertet, mache mehr Spaß (Glagow, 1984) und die Befragten sind nach ihrem subjektiven Empfinden auch schneller in der Bearbeitung (Hoepner, 1994) .

Bei Disk-by-Mail-Umfragen (DBM) reichen die Rücklaufquoten von 25% bis 70%, wobei es nicht unüblich ist, daß Ausschöpfungsquoten von 40-50% bei einmaliger Aussendung erreicht werden können. Dies mag daran liegen, daß es sich um eine Spezialpopulation (Computerbesitzer) mit Interesse am Forschungsgegenstand handelt (de Leeuw et al., 1995). Bei einer DBM-Umfrage unter Frauen in qualifizierten Berufen der Informations- und Kommunikationstechnologie konnte eine Rücklaufquote von 47% erzielt werden, da die angeschriebenen Frauen zusätzlich ein vermehrtes Interesse am der „emanzipatorischen“ Umfrage hatten (Waibel, 1992).

Bei EMS-Umfragen werden unterschiedliche Ausschöpfungsquoten berichtet, abhängig von der Stichprobenzusammensetzung, vom Thema, der Kontakthäufigkeit, dem Erhebungszeitpunkt und der Emailverbreitung in der Stichprobe. Schuldt und Totten (1994) erzielten in einer zweimal ausgesandten Email-Umfrage unter Wirtschaftsprofessoren eine Rücklaufrate von 19.3%, wobei der Befragungszeitpunkt für die Teilnehmer ungünstig gewählt wurde.

In einer Email-Studie unter den Salzburger Universitätsbediensteten konnte Wölfel (1996) nach zweimaliger Aussendung eine Rücklaufrate von 25.3% erzielen. Anderson und Gansneder (1995) erreichten unter 600 Freenet-Usern einen Rücklauf von 56%, nachdem dreimal nachgefaßt wurde. Bei der ersten Aussendung konnten bereits 27.8% zur Teilnahme motiviert werden. Bei einer Umfrage unter allen Universitätsangehörigen mit Email-Zugang (n=500) über ihre Nutzungsgewohnheiten nahmen 41% teil (Komsky, 1991). Eine Online-Umfrage mit einem Preisausschreiben und zwei Nachfaßaktionen erlangte unter 300 Teilnehmer eines Online-Dienstes einen Rücklauf von 76%, wobei Personen, die das Netzwerk öfters nützen, mit 86% häufiger bei der Umfrage teilnahmen (Walsh, Kiesler, Sproull & Hesse, 1992). Einige empirische Studien zur Ausschöpfungserhöhung werden im Kapitel Faktoren zur Erhöhung der Rücklaufquote ausgeführt.

4.1.3.3 Befragungsunfähigkeit

In seltenen Fällen kann es vorkommen, daß Elemente einer Stichprobe aufgrund ihres körperlichen Zustandes oder der Schulbildung nicht mit einer bestimmten Datenerhebungsmethode befragt werden können. Bei Computerbefragungen können bei einigen Teilnehmer Probleme wegen stark verminderter Sehfähigkeit auftreten (Kroeber-Kiel & Neibecker, 1983; Galgow,1984) oder einige Befragte klagen über medizinische Probleme, wie Augenüberanstrengung, bei längerer Bildschirmarbeit (de Leeuw et al., 1995). Voraussetzung für die CASI-Methode und andere schriftliche Befragungsformen ist, daß die Teilnehmer lesen und schreiben können. Abhilfe bieten hier das Audio-CASI-Verfahren, bei dem die Fragen über einen Lautsprecher ertönen und die Antworten über ein Mikrofon aufgenommen werden (Johnston & Walton, 1995; Knäuper, Trübestein & Pfister, 1994).

4.2 Meßfehler

Der Begriff Meßfehler bezieht sich auf Variabilität (Varianz) und Verzerrung (Bias) von Meßergebnissen über unabhängige Meßwiederholungen mit denselben Befragten und/oder denselben Meßinstrumenten (Költringer, 1993).

Der Meßfehler ist durch den Interviewer, den Befragtem, dem Meßinstrument und die Aufzeichnungsform beeinflußt (vgl. Porst et al., 1994). Die automatische Filterführung, Plausibilitäts- und Validitätskontrollen und die gleichzeitige Aufzeichnung der Daten während der Befragung verringern bei der computergestützten Befragung den Meßfehler (Bechtloff, 1993). Im folgenden werden die möglichen Einflußquellen auf den Meßprozeß genauer dargestellt.

4.2.1 Interviewerfehler

Der Interviewereinfluß kann analog zur Unterscheidung Zufallsfehler - systematischer Fehler in den Interviewer-Error und Interviewer-Bias aufgeteilt werden. Als Interviewer-Errors gelten dabei entsprechend solche Fehler (Irrtümer, Verwechslungen usw. ), von denen man annimmt, daß sie sich bei hinreichend großer Anzahl der Fälle gegenseitig ausgleichen (Berekoven et al., 1993, S. 83). Folgende Verzerrungen (Bias) können systematisch durch den Interviewer hervorgerufen werden:

1) absichtliches Fehlhandeln (Täuschen, Selbstausfüllen, nur Bekannte befragen, usw.)
2) äußere Merkmale des Interviewers haben Einfluß auf die Interviewer-Befragten-Interaktion (Geschlecht, Alter, Bildung, Ausstrahlung, usw.)
3) Variabilität der Befragungssituaiton (unterschiedliches Vorgehen, Betonen, suggestives Vorbringen von Fragen, usw.)
4) unterschiedliche Hilfestellungen bei Fragen des Interviewten

Ein großer Vorteil der CAPI-Methode ist die Standardisierung der Befragungssituation, was mit einer Verringerung des obengenannten Interviewer-Bias und -Error einhergeht. Durch den Einsatz von automatischen Filterführungen in CATI oder CAPI-Umfragen kann das nicht vorgesehene Auslassen oder Überspringen einzelner Fragen oder Antwortkategorien verhindert werden (Bechtloff, 1993; Porst et al., 1994).

Aufzeichnungsfehler seitens des Interviewers werden durch Plausibilitätkontrollen weniger und durch die direkte Dateneingabe während des Interviews fällt der Übertragungsfehler bei einer nachträglichen Dateneingabe weg (Bechtloff, 1993).

Neben diesem Potential zur Verringerung möglicher Fehler birgt der Einsatz computergestützter Befragungssysteme aber auch die Gefahr einer Erhöhung von Aufzeichnungsfehler und des Datenverlustes. Durch Interviewer mit geringen Schreibmaschinenkenntnissen können Tippfehler bei der direkten Dateneingabe, besonders bei offenen Fragen, auftreten. Durch unsachgemäße Programmierung der Filterführung können z.B. Teile der Befragung ausgelassen werden. Denkbar sind auch Systemabstürze, die unter Umständen den vollständigen Datenverlust nach sich ziehen (Bechtloff, 1993).

Der bedeutendste Vorteil der CASI-Methode und aller unpersönlicher Befragungsformen ist der Wegfall des Interviewereinflusses (Hoepner, 1994), der aber durch einen Computereffekt ersetzt werden kann (siehe Meßmethodenfehler). Sobald aber kein Interviewer mehr anwesend ist, ergibt sich ein Identitätsproblem, da es keine absolute Kontrolle darüber gibt, wer die Fragen wirklich beantwortet (Berekoven et al., 1993).

4.2.2 Meßmethodenfehler

Bei der Wahl der Fragenformulierung, der Fragebogengestaltung und der Datenerhebungsmethode stehen dem Forscher heute wenig aussagekräftige und teils widersprüchlicher Ergebnisse über den Einfluß auf die Meßqualität zur Verfügung (Költringer, 1993). Bei den sogenannten „split-ballot experiments“ werden z.B. diejenigen Fragenaspekte, die möglicherweise einen Einfluß auf die Antwort ausüben können, systematisch variiert. Einem zufällig ausgewählten Teil der Respondenten wird die Frage in der Form A vorgegeben und einem zweiten Teil in der Form B. Statistisch bedeutsame Unterschiede werden dann auf die Frageform zurückgeführt. Dabei wurden Reihenfolgeeffekte und der Einfluß von anderen Fragen (Kontexteffekt), der Unterschied zwischen offenen und geschlossenen Fragen und die Frageformulierung untersucht (Strack, 1994). Die Ergebnisse dieser Experimente sind jedoch meist fragenspezifisch und nicht generalisierbar. Erst neuere Modifikationen, die die Denkprozesse (Erinnerungs- und Urteilsprozesse) berücksichtigen, die den Antworten von Befragten zugrunde liegen, verbessern die Generalisierbarkeit (Költringer, 1993).

Die obengenannten Kontexteffekte können durch computergestützte Befragungssysteme vermindert werden, da mit Hilfe geeigneter Software Fragen oder Fragenkomplexen systematisch rotiert werden können (Bechtloff, 1993).

In mehreren Studien wurde der Einfluß von computergestützten Verfahren auf verschiedene Antworttendenzen (Response Sets) bei den Befragten untersucht. Unter Antworttendenzen versteht man Reaktionen, die mehr durch die spezifische Form der Fragebogenerhebung als durch die Ausprägung in dem jeweiligen Persönlichkeitsmerkmal bedingt sind (Jäger, 1988, S. 309). Einige Antworttendenzen sind z.B. die Tendenz zur konsistenten Selbstdarstellung, die Tendenz zur sozial erwünschten Antworten (social desirability), die Tendenz zur unkritischen Zustimmung (Ja-Sagen, acquiescence), die Tendenz zu extremen Antworten oder die Tendenz zur Mitte. Im folgenden werden Ergebnisse aus vergleichenden Studien angeführt, die den Einfluß der Computeradministration auf die verfälschenden Tendenzen untersuchen.

Kiesler und Sproull (1986) gingen in ihren Studien davon aus, daß in einem EMS die sozialen Kontextinformationen einer herkömmlichen Befragungen fehlen und daher die elektronische Form als anonymer und unpersönlicher erlebt wird. In ihrer Untersuchung konnte die Hypothese, daß bei der elektronischen Bearbeitung die Teilnehmer aufmerksamer sind, bestätigt werden, da bei der EMS weniger Beantwortungsfehler gemacht und weniger Antworten ausgelassen wurden. In einem Follow-Up, bei dem die Editorfunktion des Computerprogramms verbessert wurde, zeigte sich auch, daß die Antworten in der elektronischen Form doppelt so lange waren und die Teilnehmer mehr über sich erzählten als in der schriftlichen Umfrage. Kein Unterschied in der Tendenz zum Ja-Sagen und in der Tendenz zur Mitte konnte auf die Meßmethode zurückgeführt werden. Bei der Skala zur Erfassung der Tendenz zur sozialen Erwünschtheit zeigten sich jedoch signifikant geringere Werte bei der EMS-Gruppe, was dafür spricht, daß die Teilnehmer ehrlicher antworteten. Bei der Tendenz zur sozialen Erwünschtheit neigt eine Person nämlich dazu, nicht die für sie zutreffende Antwort als Ergebnis der Selbsteinschätzung zu geben, sondern diejenige von der sie erwartet, daß sie sozial gebilligt oder erwünscht ist (Dorsch, 1987).

Martin und Nagao (1989) verglichen in einem kontrollierten Laborexperiment die CASI-Methode mit einem mündlichen Interview und einem traditionellen Papier-Bleistift-Fragebogen in einer Bewerbungssituation. Dabei wurde die Crowne-Marlow Skala verwendet, um die soziale Erwünschtheit zu erfassen. Bei dem PAPI-Fragebogen fanden sie geringe soziale Erwünschtheitswerte und noch geringere Ausprägungen bei der CASI-Methode, was mit der nicht-sozialen Befragungssituation und einem „Big Brother“-Effekt erklärt wurde. Unter diesem Effekt verstehen die Autoren den Glauben der Versuchspersonen, daß der Computer ihre Angaben sofort auf Richtigkeit kontrollieren könnte (vgl. Porst et al., 1994).

Neuere Studien konnten diese Effekte der computergestützten Befragung auf die beschriebenen Tendenzen nicht mehr in diesem Maß (Booth-Kewley, Edwards & Rosenfeld, 1992) oder nur auf computerunerfahrene Personen beschränkt feststellen (Finegan & Allen, 1994). Whitener und Klein (1995) untersuchten die Effekte differenzierter, indem sie auch die Art der Präsentation der Fragebögen (allein oder in einer Gruppe) und Programmgestaltung (Möglichkeit des Vor- und Zurückblätterns, der Antwortänderung) einbezogen, wobei auf weitere Erforschung dieser Einfußquellen verwiesen wurde. Es ist auch zu bedenken, daß mit der zunehmenden Verbreitung des Computers im Alltag Computerängste abgebaut werden, realistischere Einschätzungen der Technologie vorgenommen werden, aber auch positive Neuigkeitseffekte gegenüber Computerbefragungen seltener werden.

4.2.3 Befragtenfehlern

Die Unterschiede in den kognitiven Fähigkeiten und in den Motiven zur Beantwortung der Fragen nehmen zusätzlich Einfluß auf die Datenqualität. Manche Fragen überstrapazieren das Erinnerungsvermögen oder den Intellekt der Auskunftsperson. Wenn Fragen das Selbstwertgefühl berühren oder gar tabuisierte Inhalten ansprechen, können sozial erwünschte Antworttendenzen ausgelöst werden (siehe oben) (Kurz, 1987). Bisher wurden hauptsächlich die Befragtenmerkmale Alter und Bildung auf die Meßqualität untersucht. Im Gegensatz zur gängigen Annahme antworten ältere Befragte größtenteils so zuverlässig wie jüngere auf Faktfragen und die Reliabilität der Einstellungsmessung nimmt nur tendenziell ab (Költringer, 1993). Ein deutlicher Zusammenhang besteht zwischen der zu erwartender Meßqualität und der Bildung der Befragten. Gebildetere Auskunftspersonen antworten im Durchschnitt zuverlässiger und gültiger als der Durchschnitt der Bevölkerung.

Bei Computerbefragungen können durch Plausibilitäts- und Validitätskontrollen inkonsistente Anworten vermindert werden, wenn jemand z.B. eine Frage überliest oder unabsichtlich eine ungültige Eingabe vornimmt (Bechtloff, 1993).

Allgemein kann aber gesagt werden, daß die Zuverlässigkeit und Gültigkeit von Umfragedaten stärker von formalen Charakteristika der Fragen und von Merkmalen des Datenerhebungsdesigns abhängt als von Merkmalen der Befragten (Költringer, 1993).

5 Faktoren zur Erhöhung der Rücklaufrate

Die großen Vorteile der schriftlichen Befragung sind, daß keine Interviewereinflüsse die Ergebnisse verfälschen und die Kosten der Durchführung sehr gering gehalten werden können (Hippler & Seidel, 1985). Aber „der große Nachteil der schriftlichen Befragung ist die außerordentliche Schwankungsbreite der Rücksenderate, die zwischen 10 und 90 Prozent liegen kann“ (Hippler, 1988, S.244).

Durch eine niedrige Rücklaufquote kann sich der Effekt des Nonresponse-Bias so verzerrend auf das Umfrageergebnis auswirken, daß dieses ungültig wird (siehe Kapitel Gültigkeit von Umfragedaten). Eine geringe Rücklaufrate impliziert aber nicht automatisch einen hohen Nonresponse-Fehler. Nur wenn zwischen den Antwortenden und den Verweigernden ein Unterschied in den interessierenden Variablen existiert, kann ein Nonresponse-Fehler auftreten (Kinnear, 1991). Wenn der Grund für die Verweigerung unabhängig ist von den interessierenden Schlüsselvariablen, dann sollte ein kleiner Unterschied zwischen den Teilnehmer und den Verweigern sein. Die zentrale Frage ist daher: „How different is the nonrespondent group from the respondent group?“ (Kinnear, 1991, S. 326).

Verschiedene Forschungsarbeiten versuchen die positiven Einflußfaktoren auf die Ausschöpfungsquote dingfest zu machen, um den Nonresponse-Fehler möglichst gering zu halten. Diese Studien erfassen aber nur Einzelaspekte unter bestimmten Bedingungen, sodaß diese methodischen Ergebnisse zum Teil sogar gegensätzliche Aussagen zulassen.

Im folgenden werden die Ergebnisse zu methodischen Einzelaspekten der schriftlichen Umfrageforschung dargestellt. Abschließend wird die Total-Design-Methode vorgestellt, die dem Forscher eine theoretisch begründete Methode zur Verfügung stellt, um den Rücklauf zu optimieren.

5.1 Methodische Einzelaspekte

5.1.1 Stichprobencharakteristika

Die Teilnahmebereitschaft an einer schriftlichen Befragung ist zu einem gewissen Teil abhängig von der soziodemografischen Zusammensetzung der Stichprobe. Höhere Rücksendequoten sind nur bei relativ homogenen Bevölkerungsgruppen zu erwarten und niedrige bei allgemeinen Bevölkerungsstichproben (Hippler & Seidel 1985). Studenten, Angestellte oder militärische Bedienstete antworten eher auf einen Fragebogen. Umfragen unter solchen speziellen Subgruppen erreichen höhere Rücklaufquoten, da sie z.B. über ein höheres Bildungsniveau verfügen als die Allgemeinbevölkerung (Heberlein & Baumgartner, 1978).

5.1.2 Aufmerksamkeitswert des Untersuchungsthemas

Die Thematik der Untersuchung wird als sehr wichtig für die Rücklaufquote erachtet. Bortz und Döring (1995, S. 235) meinen, daß „Fragebögen über aktuelle, interessante Inhalte schneller und vollständiger zurückgesandt werden, als Fragebögen, die sich mit langweiligen, den Befragten unwichtig erscheinenden Themen befassen“. Die Thematik der Umfrage soll daher für den Befragten besonders relevant, aktuell und interessant sein, um einen hohen Rücklauf zu erreichen. Heberlein und Baumgartner (1978) berichteten in ihrer Metastudie, daß Umfragen mit hohem Aufmerksamkeitswert durchschnittlich 77% Rücklauf, mit mittlerem Aufmerksamkeitswert 66% und mit sehr geringem Aufmerksamkeitswert 42% zu verzeichnen haben. Die Höhe des Aufmerksamkeitswertes eines Themas wurde in dieser Studie von Experten beurteilt, und läßt somit keine allgemeinen Aussagen über Themenbewertungen zu. Zudem hängt die Attraktivität eines Themas mit der zu untersuchenden Bevölkerungsgruppe und deren Merkmale zusammen. Bei einer Befragung von Absolventen einer Berufsakademie antworteten signifikant mehr jüngere Schulabgänger (88%) als ältere (77%), da diese aufgrund des geringen zeitlichen Abstandes noch intensiver mit ihrer Ausbildungseinrichtung verbunden sind (Thoma & Zimmermann, 1996). An einer Umfrage über die Umweltsituation in der Bundesrepublik und in der eigenen Stadt nahmen respektable 78% der Stichprobe teil, da unter anderem das Thema für die Befragten relevant war (Hippler & Seidel, 1985). Diese Interaktion zwischen Thema und Merkmalen der Stichprobe wird auch durch verschiedenartige Kulturkreise beeinflußt, sodaß z.B. Ergebnisse aus den USA nicht ohne weiteres für Österreich gelten. Da das Thema und die Stichprobencharakteristika einer Befragung durch die Fragestellung vorgegeben sind, lassen sich sowieso nur andere rücklauferhöhende Bedingungen variieren, die im folgenden dargestellt werden.

5.1.3 Anzahl und Art der Kontakte

Unbestritten in der Umfrageforschung ist, daß mit steigender Anzahl der Kontakte auch der Rücklauf zunimmt. In einer Metaanalyse von Umfragestudien wurde bei der ersten Aussendung durchschnittlich 49% Rücklauf erreicht. Bei der ersten Nachfaßaktion wurden zusätzlich durchschnittlich 20% Rücklauf erzielt, beim zweiten und dritten Follow-Up wurden 12% und 10% erreicht (Heberlein & Baumgartner, 1978). Uneinheitlich sind die Ergebnisse zum Einfluß von Vorkontakten und der letzten Nachfaßaktion. Nachgewiesen ist, daß Vorkontakte (schriftlicher oder telefonischer Natur) vor dem ersten Versenden des Fragebogens die Rücklaufgeschwindigkeit der Fragebögen erhöhen, dies aber bei mehreren Nachfaßaktionen nicht unbedingt zu einer Ausschöpfungserhöhung beiträgt (Hippler & Seidel, 1985). Die Arten des Vorgehens bei der letzten Nachfaßaktion reichen von eingeschriebenen Briefen, Eilbriefen, telefonische Ermahnungen bis zu deutlich im Mahnbrief ausgedrückten Drohgebärden verbaler Art (Hippler, 1988). Nicht ganz klar ist, ob man einem Erinnerungsschreiben einen Ersatzfragebogen mit einem neuen Freiumschlag beilegen muß oder ihn weglassen kann, womit Druck- und Portokosten gespart würden. Da die spezifischen Charakteristika der Verweigerer größtenteils unbekannt sind, scheint es sinnvoll auch mit oben geannten Mitteln zu versuchen die Rücklaufrate zu erhöhen. Durch die Analyse der Spätantwortenden konnte man erfahren, daß Bevölkerungsgruppen mit niedrigem Bildungsniveau und jüngere Befragte erst nach mehrmaligen Nachfassen zu erreichen sind (Blasius & Reuband, 1996).

5.1.4 Umfang des Fragebogens

Die Länge des Fragebogens scheint ausschöpfungsmindernd zu wirken, wenn eine bestimmte Seitenzahl (12-16 Seiten) überschritten wird (Hippler & Seidel, 1985). Als Faustregel gilt, daß ein Fragebogen nicht mehr als 12 Seiten umfassen sollte (Hippler, 1988). Die Studienergebnissen sind dazu widersprüchlich oder sehen keinen Einfluß auf die Rücklaufquote (Thoma & Zimmermann, 1996). Die Länge eines Fragebogen kann aber den Befragten auch mit der Wichtigkeit seines persönlichen Beitrages beeindrucken. Einen Fragebogen wegzuwerfen, der auf einer Seite Platz hat, ist relativ leicht geschehen. Einen 30-seitigen Fragebogen aus der Hand zu legen, beraubt den Forscher unzähliger Informationen. Wenn sich der Forscher also die Zeit genommen hat, 30 Seiten mit Fragen zu füllen, dann ist es eindeutig, welche Bedeutung dieser Umfrage zukommt. Die Länge des Fragebogens wird daher zum Signal für die Wichtigkeit der Studie (Thoma & Zimmermann, 1996).

5.1.5 Persönliche Ansprache im Anschreiben

Anhand eines umfassenden Literaturüberblickes konnte Wiesemann (1976, zit. nach Hippler, 1988) zeigen, daß die persönliche Ansprache, also die Namensnennung des/der Befragten im Anschreibebrief unterschiedliche Wirkungen hervorrufen kann. Die Ausschöpfungsrate variiert mit persönlicher Ansprache je nach untersuchter Gruppe zwischen plus und minus 15%. Als Erklärung wird angeboten, daß durch die persönliche Ansprache eine geringere Anonymität der Umfrage von den Befragten vermutet werden kann und dies ausschöpfungsmindernd wirkt (Hippler, 1988).

5.1.6 Art der untersuchenden Institution

Studien zum Einfluß der untersuchenden Institution erbrachten relativ eindeutige Ergebnisse. Die wissenschaftliche Umfrage (im besonderen von Universitäten) wird von den Befragten bevorzugt beantwortet im Vergleich zu kommerzieller Forschung (Hippler & Seidel, 1985). Eine amerikanische Marktforschungsstudie erhob einen Rücklauf von 24% bei einer kommerziellen und 44% bei einer universitären Variante (Faria & Dickinson, 1992). In einer Umfrage unter Berufsakademieabsolventen wurde ein Begleitschreiben der Schule mit Unterschrift des Direktors beigelegt, mit der Annahme die Rücklaufquote zu erhöhen. Bei der Gruppe ohne Begleitschreiben zeigte sich aber eine höhere Ausschöpfungsquote. Das mag möglicherweise daran gelegen haben, daß mit der Person des Direktors nicht nur angenehmes verbunden wurde (Thoma & Zimmermann, 1996). So zeigen sich auch kulturelle Unterschiede zwischen der Einstellung zu Umfragen von Regierungsbehörden. In Amerika erzielen Studien von „government organizations“ gleich hohe Ergebnisse wie universitäre Forschung. In Österreich und Deutschland hingegen findet sich ein verminderter Rücklauf bei Regierungsbehörden und Marktforschungsinstitute (Hippler, 1988).

5.1.7 Wirkung finanzieller Anreize und Geschenke

In einem Review der Methodenliteratur kommt Hippler (1988) zur Aussage, daß „in diesem Forschungsbereich, aus welchen Gründen auch immer, die meisten und zum Teil gleichzeitig erfolglosesten Untersuchungen zu verzeichnen sind“ (S. 245). Grundsätzlich wird die Rücklaufquote erhöht, wenn die Befragten die Geschenke oder finanziellen Anreize akzeptieren. Der symbolische Akt eines Entschädigungsversuches für die Befragtenbemühungen scheinen wichtiger zu sein als die tatsächliche Höhe der Belohnung, da eine adäquate Bezahlung in den seltensten Fällen möglich ist. Über die Höhe der Geldbeträge bzw. die Art der Geschenke gibt es wiederum unterschiedliche Ergebnisse (Hippler & Seidel, 1985). In einer experimentellen Studie (James & Bolstein, 1992) konnte mit $1 eine signifikante Steigerung der Rücklaufquote im Vergleich zur Kontrollgruppe erreicht werden (64% vs. 52%). Höhere Geldbeträge steigerten zusätzlich die Ausschöpfungsquote, wobei mit $20 die höchste Quote von 79% erlangt wurde. Die Autoren erklärten diesen Effekt damit, daß wenn der Versuchsleiter dem Teilnehmer einen Vertrauensvorschuß in Form eines Geschenkes gibt, beim Befragten eine soziale Verpflichtung für die Teilnahme auslöst im Sinne einer sozialen Austauschbeziehung. Als materielle Anreize können Lotterielose, Kugelschreiber (Willimack, Schuman, Pennell & Lepkowski, 1995), Kalender, Gutscheine oder die Zusendung der Untersuchungsergebnisse dienen (Hippler, 1988).

5.1.8 Anonymität und Vertraulichkeit

In der Umfrageforschung hat es sich eingebürgert die Teilnehmer der Anonymität und strengen Vertraulichkeit der Daten zu versichern. Einige Experimente überprüfen den Zusammenhang zwischen dem Ausmaß der Vertraulichkeitszusage und der Teilnahmequote. In einer Umfragen mit einem allgemeinen Thema (Hippler, Schwarz & Singer, 1990) nahmen mehr Personen an der Befragung teil, wenn sie keinen expliziten Vertraulichkeitshinweis mit einem Datenschutzblatt erhalten haben (42% ohne Hinweis vs. 22% mit ausführlichen Hinweis). Das Ergebnis zeigt, daß die Befragten Vertraulichkeitszusagen als Hinweis für eine sensible Thematik erleben, was sich negativ auf die Teilnahmebereitschaft auswirkt. In einer Metaanalyse kamen Singer, von Thurn und Miller (1995) zum selben Schluß: Vertraulichkeitszusicherungen bei nicht heiklen Themen üben einen geringfügig kleinen negativen Effekt aus. Wenn sensible Daten abgefragt werden, ist die Wirkung von Vertraulichkeitszusagen nicht besonders groß. Ungeklärt ist noch der Einfluß der Wahrnehmung des Befragten von der Sensibilität der Fragen. Einiges deutet darauf hin, daß ausführliche Vertraulichkeitsbekundigungen erst die Angst vor heiklen Fragen erzeugen. Wichtig scheint auch das Vertrauen des Teilnehmers in die Versicherungen des Untersuchungsleiters zu sein (Singer, von Thurn & Miller, 1995).

5.1.9 „Schwierige“ und „heikle“ Fragen

Die Antwortbereitschaft für eine Frage ist vom Tabuisierungsgrad des erhobenen Sachverhaltens abhängig. Zusätzlich gibt es Unterschiede zwischen den Befragungsmedien. Bisherige Forschungsarbeiten zeigen, daß bei Umfragen mit heiklen Themen wie Bankkredite, Einkommen oder Sexualverhalten die Datenqualität bei einer schriftlichen Befragung tendenziell besser ist als bei persönlichen Interviews (Kinnear, 1991). Unter der Annahme, daß höhere Werte für „abweichende“ Meinungen und Verhaltensweisen auch valider sind, können bei der postalischen Befragung die validesten Angaben erwartet werden, gefolgt von der Face-to-Face- und der telefonischen Befragung (Reuband & Blasius, 1996). Bei einer mündlichen Befragung kann es bei tabuisierten Fragen zu teilweisen Antwortverweigerungen kommen, die aber meist keine Auswirkungen auf das weitere Interview haben, da ein geschulter Interviewer den Kontakt zum Teilnehmer nicht abreißen läßt. Bei der schriftlichen Befragung kann es dagegen vorkommen, daß ein Proband aufgrund einer oder mehrerer unangenehmer Frage den gesamten Fragebogen unbeantwortet läßt (Hafermalz, 1976).

Welche Fragen als sensitiv bzw. „heikel“ anzusehen sind und welche am stärksten Erwünschtheitseffekten unterliegen, ist nicht immer eindeutig zu beantworten. Eine Möglichkeit ist erfahrene Interviewer zu befragen, bei welchen Themen sie bisher die größten Schwierigkeiten im Interview hatten. Scheuch (1973) nennt in diesem Zusammenhang eine amerikanische Untersuchung von Interviewer, die nach Themen gefragt wurden, die zu stellen ihnen besonders unangenehm wäre. Das Ergebnis zeigte, daß es Interviewer besonders schwierig finden, Fragen über Einkommen (38%), Sexualverhalten (25%) und politische Einstellung (16%) zu stellen. Auf einer Liste konkreter Fragen wurde die Frage nach dem genauen Familieneinkommen von nahezu doppelt so vielen Interviewern als schwierig bezeichnet als die nach dem Vorkommen geistiger Erkrankungen.

In einer experimentellen Studie (Koolwijk, 1968) wurden 14 Experten, die bereits Erfahrungen mit der Konstruktion von Fragebögen und der Durchführung von Befragungen gesammelt hatten, ein Fragebogen mit 31 verschieden unangenehmen Themen vorgelegt. Die Experten schätzten die vermutete Reaktion von Versuchspersonen, indem sie die erwartete Intensität der Unangenehmheit auf einer Skala auftrugen. Dieses Profil wurde mit einer Studentenstichprobe verglichen, die ebenfalls die Unangenehmheit der Themen auf einer Intensitätsskala beurteilten. Dabei zeigte sich eine hohe Übereinstimmung der beiden Profile, wobei jedoch die absoluten Reaktionswerte von den Experten generell überschätzt wurden. Bei dieser Bewertung von Themen zeigte sich wieder, daß sexuelle Aufklärung, väterliches oder persönliches Einkommen und überraschend die Kenntnis von Fachbüchern und die Ehe der Eltern als unangenehm eingestuft wurden. Auch Hafermalz (1976) nennt eine deutsche Untersuchung, in der erhoben wurde, über welche Themen sich Befragte nicht interviewen lassen würden. Über sexuelle Probleme, Schwierigkeiten in der Familie und Geldangelegenheiten (Einkommen, Ersparnisse) würde fast die Hälfte der Befragten nicht in einem Interview Auskunft geben wollen. Im Vergleich dazu würde sich die überwiegende Mehrheit über ihre Kauf- und Verbrauchsgewohnheiten oder die Freizeitgestaltung befragen lassen.

Neben der Bekundung, sich nicht zu bestimmten Themen zu äußern, kann auch die Verweigerungsquote herangezogen werden, um die Sensitivität eines Themas zu erfassen. Je höher der Anteil ist, desto größer ist der Widerstand gegen die Art der erfragten Information. Scheuch (1973) nennt eine deutsche Studie, die im Zeitraum von 1952-1958 drei Erhebungen durchführte, welche den Anteil von Verweigerungen zu verschieden schwierigen Verhaltensfragen in Interviews erhob. Dabei ist zu beachten, daß teilweise Studenten als Interviewer fungierten und bei einer Erhebung die Interviewer an fünf Stellen des Interviews auf die Möglichkeit der Verweigerung von Antworten hinwiesen. Bei der Frage nach der Selbstbefriedigung verweigerten mit 13% die meisten der Befragten. Die Frage nach dem persönlichen Einkommen und dem Familieneinkommen wollten jeweils 6.8% und 6.2% nicht beantworten. Die Häufigkeit des Kirchenbesuches, die Schulbildung oder das Alter stellen nur für eine Minderheit ein Problem dar.

Die Sensitivität eines Themas ist durch die Einschätzung von Interviewern, die Verhaltensbekundung von Befragten und die Verweigerungsquoten nur annähernd zu erfassen, aber zumindest sind Aussagen über die Rangordnung der Themen nach unterschiedlicher Sensitivität möglich (Reuband & Blasius, 1996). Fragen zum Freizeitverhalten, zum Medienverhalten, zu Konsumgütern, zur Häufigkeit des Kirchgangs, zu den Rauchgewohnheiten und zu den Trinkgewohnheiten gelten in Deutschland als wenig sensitiv. Bei Fragen zu den politischen Einstellungen sowie zum Einkommen und zum Vermögen ist die Quote der Verweigerer höher. Fragen zum eigenen Sexualverhalten gelten als besonders problematisch. Auf Fragen, die abweichendes Verhalten betreffen, welches einer rechtlichen Sanktionsandrohung unterliegen, wird restriktiv reagiert. Die Bereitschaft eigene Vorstrafen einzugestehen ist ebenfalls besonders gering (Reuband & Blasius, 1996). Zusätzlich kommt es auf die Art des Befragungsmedium (persönlich oder anonym erlebt) und der Plazierung der sensitiven Fragen im Fragebogen an, ob Antworten gegeben werden oder nicht.

5.2 Total-Design-Methode (TDM)

Die Total-Design-Methode von Dillman (1978) versucht diese einzelnen Aspekte in einer umfassenden theoretisch begründeten optimalen Vorgehensweise zu vereinen. Das theoretische Modell des Sozialen Austauschs, welches als erstes von Thibaut und Kelly (1959, zit. nach Thoma & Zimmermann, 1996) entwickelt wurde, wird von Dillman verwendet, um das Verhalten von Personen, die an einer Umfrage teilnehmen sollen, zu erklären. Die Theorie geht davon aus, daß sich Personen aktiv verhalten, wenn Belohnungen in Aussicht gestellt werden. Gleichzeitig sind diese Aktivitäten aber mit Kosten verbunden. Daher versuchen die Personen die entstehenden Kosten nicht über den Wert der zu erwartenden Belohnungen steigen zu lassen. Dillman betrachtet eine schriftliche Befragung als Spezialform des sozialen Austausches. Für eine Umfrage ausgewählte Personen werden dann am wahrscheinlichsten einen Fragebogen beantworten, wenn die wahrgenommenen Teilnahmekosten minimiert sowie die Belohnungen maximiert werden und wenn der Befragte darauf vertraut, daß er die versprochenen Belohnungen auch erhält. Damit kann das Verhalten einer Person in einer Funktion beschrieben werden, die aus einem Wechselspiel zwischen den erwarteten Kosten der Ausübung dieses Verhaltens und den Belohnungen, die man zu späterer Zeit dafür erwartet, besteht.

Die praktischen Schlußfolgerungen für die Erhöhung von Rücklaufquoten werden in der Total-Design-Methode (TDM) umgesetzt. Dabei handelt es sich um drei wesentliche Bedingungen (Hippler & Seidel, 1986):

1) die Kosten für die Befragten zu antworten, sind zu minimieren,
2) die erkennbaren Vorteile für den Befragten sind zu maximieren und
3) gleichzeitig ist ein Vertrauensverhältnis zwischen Forscher und Befragten zu schaffen.

Die Kosten können beispielsweise dadurch verringert werden, daß ein zunächst unhandlicher und schwierig auszufüllender Fragebogen vereinfacht und ein vorfranktierter Rückumschlag beigelegt wird. Eine soziale Belohnung erfährt der Befragte z.B. durch eine persönliche Ansprache im Anschreiben, durch eine Erklärung, warum die Teilnahme an der Studie für ihn wichtig ist, und indem man sich für seine Teilnahme bedankt. Das Vertrauensverhältnis zwischen dem Forscher und dem Befragten wird unterstützt indem auf die Anonymität der Daten hingewiesen wird oder durch die Verwendung von Briefköpfen von renommierten Sponsoren der Studie (Thoma & Zimmermann, 1996).

Die TDM gibt schrittweise genaue Anleitungen wie diese Forderungen je nach Population und Umfragethema umzusetzen sind, um hohe Rücklaufquoten zu erreichen, wobei auch die Interaktion zwischen den einzelnen Aspekten zu beachten ist (Hippler, 1988). Der Fragebogen sollte in Broschürenformat hergestellt werden, damit die Befragten auch bei einem längeren Fragebogen immer noch das Gefühl haben, nur eine kleine Aufgabe bewältigen zu müssen. Das Papier sollte hochwertig sein, um einen offiziellen Charakter bei dem Befragten zu hinterlassen. Zur Anordnung und zum Design der Fragen macht Dillman eine ganze Reihe von Aussagen. Grundsätzlich sollen die Fragen übersichtlich dargestellt werden, wobei mit leichteren begonnen werden sollte. Sensible und demografische Fragen sollten am Schluß des Fragebogens stehen. Im Anschreiben ist die persönliche Anschrift und der Name direkt auf dem Brief und dem Umschlag anzubringen. Eine Woche nach dem ersten Anschreiben sollten alle Personen der Stichprobe, d.h. sowohl Antworter wie Nicht-Antworter, eine Postkarte erhalten, die für den einen Teil der Population als „Danke-Schön“ und für den verbleibenden Rest als Erinnerungsschreiben gedacht ist. Drei Wochen nach dem Erstversand der Befragungsunterlagen erhalten die Nicht-Antworter einen neuen Fragebogen und wiederum ein Anschreiben des Forschers. Insgesamt nach sieben Wochen wird dieses Verfahren wiederholt, wobei allerdings die Sendung per Einschreiben zugestellt wird. Nach Dillman darf keine dieser Anweisung der TDM ausgelassen werden, um einen maximalen Rücklauf zu erzielen (Dillman, 1978). Mit dieser Methode werden nach Dillman Rücksenderate von im Durchschnitt 74% erzielt. Im deutschsprachigen Raum berichten Hippler und Seidel (1988) von einer Ausschöpfung von 78% bei einer allgemeinen Bevölkerungsumfrage. Thoma und Zimmermann (1996) konnten unter Anwendung der TDM einen 82 prozentigen Rücklauf bei einer homogenen Stichprobe von Berufsakademieabsolventen erreichen.

6 Internet

6.1 Geschichte und Einführung

In den 60er Jahren unterstützte das amerikanische Verteidigungsministerium verschiedene innovative Forschungsprojekte, um nach den russischen Weltraumerfolgen in der militärischen Entwicklung nicht zurückzubleiben (Musch, 1997). Die Forschungsbehörde ARPA (A dvanced R esearch P rojects A gency) wurde gegründet mit dem Ziel, daß Universitäten und die Wirtschaft in enger Zusammenarbeit neue Technologien entwickeln sollten. Ein Projekt der ARPA war die Errichtung eines nationalen Computernetzwerkes. Zu dieser Zeit wurden Time-Sharing Betriebssysteme entwickelt, bei denen mehrere Benutzer über Terminals an einem Großrechner gleichzeitig arbeiten konnten (Musch, 1997). Die vorherrschende Rechnertopologie war die Sternhierarchie, bei der in der Mitte der Großrechner mit den einzelnen Terminals zentral verbunden ist (siehe Abbildung 1 links). Diese Rechnerstruktur ist aber sehr störanfällig, da der Großrechner durch zuviele Termialzugriffe schnell überlastet werden kann oder beim Ausfall des Großrechner das ganze Netzwerk zusammenbricht. Als Alternative zu diesem Rechnerverbund wurde ein „distributed network“ entwickelt, welches gegen Ausfälle bei einem möglichen Nuklearschlag widerstandsfähiger ist (Nolden, 1996). Bei dieser verteilten Netzwerktypologie sind alle Rechner spinnennetzartig miteinander verbunden (siehe Abbildung 1 rechts).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1. Sternförmige und verteilte Netzwerktopologie (Musch, 1997, S.30 )

Zusätzlich wurde eine neue Form der Datenübertragung entwickelt. Beim sogenannten „packet switching“ werden die einzelnen Nachrichten in kleine Pakete zerlegt und so auf den Weg zur Zieladresse geschickt (Seidel & Haacker, 1996). Dabei suchen sie sich den kürzesten Weg und meiden gestörte Verbindungen. Beim Empfänger werden die einzelnen Pakete dann wieder zusammengesetzt. Falls Pakete fehlen sollten, werden sie beim Absender angefordert und nachgeschickt. Diese neue Struktur des verteilten Netzwerkes und die neue Übertragungsmethode der Paketvermittlung wurde im APRANET umgesetzt. Ziel war ein zuverlässiges, störungsresistentes Netz, das gemeinsam vorhandene Hardware-Ressourcen nutzt und den Datenaustausch zwischen Rechner verschiedener Hersteller ermöglicht. 1969 wurden die ersten vier Großrechner verbunden (Kyas, 1996). Die ersten Anwendungen waren Telnet (Tel ecommunications Net work), um auf entfernte Rechner arbeiten zu können und FTP (F ile T ransfer P rogram), um Daten zwischen den Rechner zu übertragen. Email, also der Nachrichtenaustausch zwischen Benutzer, entwickelte sich aber rasch zur der Anwendung mit dem größten Datenvolumen!

„Internet-Working“, also das Verbinden von verschiedenen Netzwerken war das nächste Ziel der ARPA-Forschungsbehörde (Musch, 1997). Mit einem neuen Netzwerkprotokoll namens TCP/IP (T ransfer C ontroll P rotocol/ I nternet P rotocol) konnten ganze Netzwerke zusammengeschalten werden. Das TCP/IP sorgt heute noch für den reibungslosen Paketaustausch zwischen den Rechnern der verschiedenen Netzwerke (Plate, 1996). Die zu übertragenden Informationen werden in Datenpaketen zu 1500 Byte zerlegt, über das Internet von Knotenrechner zu Knotenrechner weitergeleitet und schließlich dem Empfänger zugestellt. Am Empfangsort werden die einzelnen TCP-Pakete wieder in der richtigen Reihenfolge zusammengesetzt. Sollten einzelne Daten verlorengehen oder aufgrund von Störeinflüssen beschädigt worden sein, sorgt das TCP dafür, daß die fehlerhaften Teile erneut übertragen werden. Dabei übernimmt das Internet-Protocol (IP) die eindeutige Adressierung der Rechner. Die einzelnen Pakete werden mit der IP-Adresse des Zielrechners versehen. Aufgrund dieser IP-Adresse wissen die Router, das sind Rechner die für die Übertragung der Pakete eingerichtet sind, wohin die Pakete zu liefern sind. Eine IP-Adresse besteht aus einem 32 Bit langen Feld, von dem 4 Zahlen einen Wert zwischen 0 und 256 annehmen können (Klau, 1994). Die Adresse besteht aus vier Blöcken, die durch einen Punkt getrennt sind, z.B.:

Abbildung in dieser Leseprobe nicht enthalten

Jeder Rechner im Internet hat dadurch eine eindeutige IP-Adresse und wird auch Host (engl. Wirt) genannt. Da solche numerischen Adressen sehr unhandlich sind, gibt es den Domain Name Service (DNS) (Plate, 1996). Das DNS ordnet alle Internet-Rechner nach hierarchischen oder organisatorischen Strukturen in Domains (Gruppen) an. Obige IP-Adresse sieht dann folgendermaßen aus:

Abbildung in dieser Leseprobe nicht enthalten

Da die Namen hierarchisch aufgebaut sind, kann man aus den Adressen sehr leicht die Herkunft des Rechners ableiten: „edvz“ steht für den Rechnername des EDV-Zentrums, „sbg“ für den Subdomain Salzburg, „ac“ für einen akademischen Domain und „at“ für Österreich.

[...]


[1] Wenn in der Folge von Forschern, Studenten, Teilnehmern etc. die Rede ist, schließt dies immer die männliche und weibliche Form ein.

Ende der Leseprobe aus 195 Seiten

Details

Titel
Internet als neue Datenerhebungsmethode in der Psychologie - Die Verwendung von Electronic Mail und dem World Wide Web zur Befragung im Internet
Hochschule
Universität Salzburg  (Institut für Psychologie)
Veranstaltung
Diplomandenseminar
Note
sehr gut
Autor
Jahr
1997
Seiten
195
Katalognummer
V38050
ISBN (eBook)
9783638372381
ISBN (Buch)
9783638705493
Dateigröße
1796 KB
Sprache
Deutsch
Schlagworte
Internet, Datenerhebungsmethode, Psychologie, Verwendung, Electronic, Mail, World, Wide, Befragung, Diplomandenseminar
Arbeit zitieren
Dr. Andreas Fida-Taumer (Autor), 1997, Internet als neue Datenerhebungsmethode in der Psychologie - Die Verwendung von Electronic Mail und dem World Wide Web zur Befragung im Internet, München, GRIN Verlag, https://www.grin.com/document/38050

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Internet als neue Datenerhebungsmethode in der Psychologie - Die Verwendung von Electronic Mail und dem World Wide Web zur Befragung im Internet


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden