Internetdienste E-Mail und World Wide Web als Instrument der Panelforschung


Tesis, 2000

169 Páginas, Calificación: 1


Extracto

c_1

c_2

c_3

c_4

I. Einführung

II. Grundlagen

III. Internetdienste E-Mail und World Wide Web als Instrument der Panelforschung

IV. Beurteilung der Internetdienste E-Mail und WWW als Instrument der Panelforschung

V. Schlußfolgerung

A-1 – Marktforschungstypologie

Quellenverzeichnis


Abkürzungsverzeichnis

 

 

 

 

Abbildungsverzeichnis

 

 

I.   Einführung

 

I.1   Themenbegründung

 

Noch vor weniger als zehn Jahren wäre eine Diplomarbeit mit dem Thema 'Marktforschung im Internet' o.ä. beim überwiegenden Anteil der deutschen Bevölkerung auf eine Wand des blanken Unverständnisses getroffen. "Internet, was ist das?", hätte die unvermeidliche Reaktion auf Nennung des Titels der Arbeit gelautet.

 

Im heutigen Sprachgebrauch bezeichnet der Begriff 'Internet' die weltweite Verbindung von mehr als 56 Millionen Computern[1], bestehend aus Tausenden von LAN und WAN Netzwerken, die von Universitäten, Organisationen, Unternehmen und Privatpersonen betrieben werden. Obwohl bereits damals existent, war das Internet noch vor zehn Jahren ausschließlich einer begrenzten Gruppe von Nutzern, vornehmlich Militär, Wissenschaftlern und Studenten, zugänglich, welche die Exklusivität ihres Medium z.T. vehement verteidigten. Mit der unter Druck der US Regierung zustande gekommenen Öffnung des 'Netz der Netze' Anfang der 90er Jahre, begann eine Entwicklung, welche sowohl in zeitlichen als auch in quantitativen Ausmaßen ihresgleichen sucht.

 

Das amerikanische Magazin Newsweek erklärte 1995 zum 'Jahr des Internet'. Das ist insofern eine Untertreibung, als daß kaum eine andere Entwicklung die 90er Jahre ähnlich stark beeinflußt hat und gleichzeitig wegweisend für das kommende Jahrtausend sein dürfte wie das Internet. Bill Gates, Gründer und Präsident von Microsoft, traf mit seiner Äußerung, das Internet sei seit der Einführung des PC von IBM im Jahre 1981 die wichtigste Neuerung auf dem Computermarkt, schon eher die Realität.

 

Es ist inzwischen fast unmöglich geworden, sich diesem Medium, das in zunehmend mehr Bereiche des Privat- und Berufslebens eindringt, zu entziehen.

 

Im Zentrum dieser Entwicklung stehen dabei die Internetdienste E-Mail, eine Form von elektronischer Post, und das World Wide Web, welches mittels eines einheitlichen Benutzer-Interface verschiedene Internetdienste integriert und durch multimediale Einbindungen graphisch attraktiver macht.

 

Im Gegensatz zu den Anfangsjahren konzentriert sich die Internet-'Manie' inzwischen nicht mehr hauptsächlich auf den nordamerikanischen Raum.

 

Die Zahl deutscher Nutzer wächst jährlich um oft mehr als 50%[2], die Gesellschaft für deutsche Sprache ernannte 'Multimedia' zum Wort des Jahres 1995 und längst sind Begriffe wie 'E-Mail' und 'chatten' auch im heimischen Sprachgebrauch fest verankert. Die ACTA 1999 ermittelte für den Begriff 'Internet' einen Bekanntheitsgrad von 84% innerhalb der deutschen Bevölkerung.

 

GRAUMANN spricht in diesem Zusammenhang von einer "Online Gutenberg Revolution"[3].

 

Damit ist das Internet mehr als eine temporäre Erscheinung, oder, wie DODD sagt: "[...] it's big and it isn't going to go away"[4]. Auch BRONOLD stellt fest, daß angesichts der steil nach oben zeigenden Zuwachsraten der Internetnutzung "[...] nicht mehr von einem elitären Minderheiten-Medium gesprochen werden"[5] kann.

 

Parallel, obwohl bislang weitgehend unabhängig vom Internet, demonstrierte der Wirtschaftszweig der primären Marktforschung[6] in den vergangenen zehn Jahren eine große Progression.

 

Markt- und produktbezogene Informationen sind durch die Wandlung der Bundesrepublik Deutschland vom Verkäufer- zum Käufermarkt zum entscheidenden Schlüsselfaktor des Erfolgs jedes Unternehmens geworden. Als Folge daraus hat sich der Umsatz der Marktforschungsbranche seit 1989 mehr als verdoppelt[7] und setzt damit ein deutliches Zeichen hinsichtlich der Existenz eines Informationsmarktes.

 

Neben der Qualität und Relevanz der ermittelten Daten steht inzwischen in steigendem Maße der Zeitfaktor, d.h. wie schnell können die benötigten Informationen erhoben werden, im Fokus des Marktforschungsprozesses.

 

Dabei geben die Unternehmen den Wettbewerbsdruck, welchem sie sich im Streben nach möglichst hoher eigener Flexibilität ausgesetzt sehen, an die Marktforschungsinstitute, deren Dienste sie erwerben, weiter.

 

Angesichts dieser beiden, nebeneinander ablaufenden, Entwicklungen stellt sich zwangsläufig die Frage, ob das sich Internet als neues, modernes Instrument der Informationserhebung eignet, welches der primären Marktforschung sowohl auf dem Gebiet der Kosten als auch in Bezug auf die zeitliche Dimension Verbesserungspotentiale offeriert.

 

Laut einer auf der CeBIT 1999 durchgeführten Besucherumfrage des Psyma-Instituts sehen immerhin 65% der Teilnehmer in Internet-Umfragen ein wichtiges und zukunftsträchtiges Instrument.

 

In den Medien und in der (Fach-)Literatur hat der Internet-Boom seit langem seinen Niederschlag gefunden.

 

Doch während die Presse in zahlreichen Artikeln die verschiedensten Neuerungen technischer Art diskutiert und mit Berichten über virtuelle Firmen oder erfolgreiches Internet-Marketing aufwartet, führt die primäre Marktforschung, sowohl in der schriftlichen Abhandlung als auch in der reellen Anwendung, weiterhin ein Schattendasein. Dies ist angesichts der Forderung der Marktforschungsindustrie nach schnelleren, interaktiveren und weniger kostenintensiven Datenerhebungsmethoden schwer verständlich[8]. Zumindest die zur Erfüllung der Zeit- und Kostenansprüche benötigten Grundvoraussetzungen werden vom Internet, ohne an dieser Stelle eine Aussage über die Qualität treffen zu wollen, erfüllt.

 

Es gibt bereits eine Reihe von Befragungsaktionen, Erhebung von Kundendaten und Experimenten, welche über das Internet abgewickelt werden. Deren, durch die Systematik[9] bedingte, Validität und Repräsentativität ist in der überwiegenden Zahl der Fälle jedoch als fragwürdig einzustufen, selbst wenn bestimmte Umfragen, deren Ziel es i.d.R. ist, Informationen über die Nutzer des Internet zu erheben, teilweise bereits als 'etabliert' gelten[10].

 

Generell kann gesagt werden, daß die Einbeziehung des Internets als Erhebungsinstrument in die Angebotspalette professioneller Marktforschungsinstitute in Deutschland noch am Anfang steht, obwohl inzwischen, besonders angesichts der stetig wachsenden Nutzerzahlen, in der Branche zunehmend "Goldgräberstimmung"[11] herrscht.

 

I.2   Zielsetzung

 

Es ist das Ziel dieser Arbeit zu untersuchen, ob und, wenn ja, in welcher Form die Internetdienste E-Mail und World Wide Web in der Panelforschung als einem Teil der primären Marktforschung eingesetzt werden können. Dabei wird der Schwerpunkt auf den benannten Internetdiensten als potentielle Erhebungsinstrumente der Befragung liegen.

 

Obwohl das Netz gleichfalls neue Möglichkeiten im Bereich der Beobachtung bietet, soll diese Arbeit aus dem Blickwinkel eines Informationsanbieters, d.h. eines Marktforschungsinstituts, geschrieben werden. Laut BERNDT spielen "[...] Beobachtungen –im Vergleich zu Befragungen– nur eine untergeordnete Rolle im Rahmen der Marktforschung [...]"[12], weshalb sie hier, außer als gleichzeitigem Nebeneffekt von Befragungen, keine weitere Berücksichtigung finden.

 

Der gewählte Betrachtungsstandpunkt hat zur Folge, daß die Netzwerktechnik nur insoweit behandelt wird, wie sie für das Verständnis der Dienste notwendig ist. Außerdem wird der Fokus dieser Arbeit auf dem Bereich des Verbraucherpanels, dem Hauptgeschäftsbereich der überwiegenden Zahl der Panelinstitute in Deutschland, liegen.

 

Diese Arbeit konzentriert sich auf die Gründung eines Online Panels. Sämtliche Auswertungs- und Analyseverfahren der durch Panels gesammelten Daten werden daher keine Berücksichtigung finden. Es wird angenommen, daß die differente Erhebungsmethode nicht zu einer Charakterveränderung der gesammelten Informationen führt, solange nicht im Vorfeld ein systematischer Fehler begangen wird, der die Validität des Meßinstruments oder die Repräsentativität der konstruierten Stichprobe in Frage stellt.

 

Unter Einbeziehung zuvor gelegter Grundlagen und aus Theorie und Praxis herausgestellter Einflußfaktoren soll ein Vergleich zwischen den verschiedenen Erhebungsmethoden der Panelforschung gezogen sowie erörtert werden, ob ein Online Panel in der Praxis sinnvoll und effektiv umsetzbar ist und wie die korrespondierenden Schritte aussehen.

 

Die von der Verfasserin als wichtig erachtete Praxisnähe soll durch die Beschreibung der Umsetzung eines Online Panel Projekts bei der GfK in Nürnberg erzielt werden.

 

I.3   Gang der Untersuchung

 

Diese Arbeit wird im Abschnitt II. zunächst einen Grundlagenüberblick sowohl über die Marktforschung bzw. die in ihr angesiedelte Panelforschung als auch über das Internet, im speziellen über die zu betrachtenden Dienste E-Mail und World Wide Web, geben.

 

Innerhalb des Marktforschungsabschnittes wird dabei u.a. eine Beschreibung bisher in der primären Marktforschung genutzter Informationserhebungsmethoden erfolgen, um einen späteren Vergleich der Internetdienste E-Mail und World Wide Web mit diesen zu ermöglichen.

 

Im Zuge der Betrachtung des Internets wird die Struktur der Nutzer in Deutschland untersucht, da die Demographie der "Netizen"[13] von jener der deutschen Gesamtbevölkerung abweicht und somit voraussichtlich Probleme beim Errichten einer repräsentativen Stichprobe erzeugt.

 

Im Hauptteil (III.) der Arbeit wird zunächst in der Theorie illustriert, welche Komponenten auf den Einsatz der Internetdienste E-Mail und World Wide Web in der Panelforschung einwirken bzw. bei der Bildung eines Online Panels Berücksichtigung finden müssen. In diesem Abschnitt werden die möglichen Vorteile, welche der Panelforschung aus den Internetdiensten E-Mail und World Wide Web erwachsen könnten, diskutiert, aber auch, wo die durch den Charakter des Mediums bedingten Hindernisse und Restriktionen liegen.

 

In diese Betrachtung werden die Ergebnisse von zu dieser Thematik bereits in der Literatur vorhandener Studien und Experimenten einfließen.

 

Im Anschluß wird eine Übertragung der Erkenntnisse in die Praxis erfolgen.

 

Im Zuge dessen wird zunächst kurz der Unternehmenshintergrund und die bisherige Angebotspalette der GfK beleuchtet. Der Schwerpunkt wird jedoch auf der Darlegung jener, sich aus den theoretischen Überlegungen ergebenen, zu vollziehenden Umsetzungsphasen bei der Realisierung eines Online Panels liegen. Diese Ausführungen werden durch die Erfahrungswerte der bereits verwirklichten Stufen des Online Panels der GfK ergänzt.

 

Im Praxisteil erfolgt außerdem ein bewertender Überblick über bereits am Markt operierende Online Panels.

 

Der vierte Abschnitt wird die Überlegungen der vorangegangen Kapitel miteinander verbinden und eine abschließende Erörterung und Beurteilung der Internetdienste E-Mail und World Wide Web als Instrumente der Panelforschung vornehmen.

II.   Grundlagen

 

II.1   Marktforschung

 

II.1.1   Information als 4. Produktionsfaktor

 

Wie in der Einleitung kurz erwähnt, hat die Bundesrepublik Deutschland in ihrer Geschichte den Wandel vom Verkäufer- zum Käufermarkt, d.h. von einer Knappheitswirtschaft hin zur Überflußgesellschaft vollzogen. Aus dieser Entwicklung resultiert, daß, übereinstimmend mit dem von GUTENBERG[14] konzipierten 'Ausgleichsgesetz der Planung', der Absatz zum Engpaßbereich der Unternehmung wird und damit der Kunde und seine Wünsche zum alles entscheidenden Erfolgsfaktor.

 

Der Markt als Ort, an dem Angebot und Nachfrage zusammentreffen, definiert sich für jedes Unternehmen unterschiedlich. Die "zunehmende Verengung der Märkte"[15] und damit die Wandlung der Unternehmen von der Produktions- hin zum Verkaufsorientierung ist ein genereller Trend mit nur wenigen Ausnahmen[16].

 

Es gilt folglich, alle Unternehmensbereiche und deren Strategien dergestalt auszurichten, daß dem Kunden ein größtmöglicher Nutzen zuteil wird. Nur so kann sich das eigene Unternehmen im Wettbewerbsportfolio dauerhaft positiv von der Konkurrenz abheben.

 

Um dies zu erreichen, benötigt die Unternehmensführung "[...] Daten als Entscheidungsgrundlage für ihre Marktpolitik"[17]; d.h. die Erhebung ständig genauerer Informationen über Nachfragerwünsche und -verhalten wird zu einem der Schlüsselfaktoren des Unternehmenserfolgs, um im Zustand von Marktsättigung und Angebotsüberhangs konkurrenzfähig zu bleiben.

 

Damit sind Informationen, von ROGGE als zweckbezogenes Wissen definiert[18],  längst "[...] zum vierten Produktionsfaktor neben Boden, Arbeit und Kapital aufgestiegen"[19].

 

II.1.2   Begriffsabgrenzung: Marketing - Marktforschung

 

Die absolute Kundenorientierung als Stil der Unternehmensführung hat zu dem später als 'Marketing' bekannt gewordenen Konzept geführt, was sich ab den späten 70er Jahren auch in einer umfangreicheren Literatur zu diesem Thema niederschlug.

 

Im allgemeinen Sprachgebrauch wird der Ausdruck 'Marketing' inzwischen für ein breites Spektrum verschiedenster unternehmerischer Aktivitäten verwendet, und auch in der Literatur ist dieser Terminus je nach Autor unterschiedlich eng oder weit gefaßt.

 

Hinsichtlich der begrifflichen Eingrenzung soll auf BEREKOVEN et al. Bezug genommen werden:

 

"Unter Marketing wird [..] ein Unternehmensführungskonzept verstanden, welches zur Erreichung der (marktlichen) Unternehmensziele alle betrieblichen Aktivitäten konsequent auf die Erfordernisse der relevanten Absatzmärkte ausrichtet."[20]

 

WÖHE nennt die Marktforschung ein konstitutives Element des Marketing[21]. Gemäß HÜTTNER dient die Marktforschung zwar dem Marketing, ist aber nicht dieses selbst[22], d.h. es stellt die Informationsebene innerhalb des Marketing dar.

 

BEREKOVEN, ROGGE und WÖHE stimmen darin überein, daß die vorrangige Aufgabe der Marktforschung die Bereitstellung von Marktinformationen[23] zur Vermeidung von Fehlinvestitionen ist. Dieser Informationsbedarf wird seit den 80er Jahren zunehmend nicht mehr unternehmensintern sondern von professionellen Marktforschungsinstituten gedeckt.

 

Es sollen jedoch nicht sämtliche, nur denkbaren Informationen erhoben werden, sondern gemäß ROGGE ausschließlich jene, die im Hinblick auf ein zuvor determiniertes Marketingproblem von Relevanz für die Entscheidung[24] sind.

 

BEREKOVEN et al. formulieren die Maxime, daß "Informationen [..] dann bzw. soweit zu beschaffen (sind), wie deren Kosten geringer sind als die durch ihre Verwendung verursachten Erträge"[25], d.h. solange der Grenzerlös der Informationen die Grenzkosten übersteigt.

 

Analog zu diesen Sichtweisen kann die Begriffsdefinition von BERNDT verwendet werden:

 

"Die Marktforschung kann allgemein als Beschaffung und Verarbeitung von Informationen bezüglich der Unternehmensmärkte definiert werden."[26]

 

In der Praxis sind die sich der Marktforschung bietenden Ansatzpunkte, zahlreich. Eine Aufzählung der Typologie soll hier nicht betrieben werden, da sie bekannt ist bzw. in der Literatur in ausreichendem Maße behandelt wird. Eine kurze Übersicht bietet Anhang A-1.

 

II.1.3   Marktforschungsprozeß

 

Wie Abb. 1, welche den idealtypischen Verlauf eines Marktforschungsprozesses skizziert, zeigt, ist der Ausgangspunkt jedes Marktforschungsprozesses die Determinierung der zur Lösung eines Marketingproblems benötigten Informationen. Der Frage nach der Person des Kunden (Zielgruppe) und seinem Bedarf kommt in diesem Zusammenhang maximale Bedeutung zu.

 

Die einzelnen Stufen des Marktforschungsprozesses sollen an dieser Stelle nicht im Detail beschrieben werden, da das Thema dieser Arbeit die Modifikation einzelner Methoden und Instrumente innerhalb der Erhebungsphase und nicht den gesamten Vorgang betreffende Veränderungen behandelt.

 

Dennoch ist die Kenntnis des zugrunde liegenden Basisprozesses der primären Marktforschung unerläßlich für die sinnvolle Positionierung der Erhebungsphase innerhalb dieses Ablaufes.

 

Abb. 1 – Marktforschungsprozeß

 

 

frei nach:

 

Berekoven, Ludwig/Eckert, Werner/Ellenrieder, Peter: Marktforschung: Methodische Grundlagen und praktische Anwendung. 8. Auflage. Gabler Verlag. Wiesbaden 1999, Seite 36

 

Kamenz, Uwe: Marktforschung. Schäffer-Poeschel. Stuttgart 1997, Seite 11

 

II.1.4   Merkmalsdimensionen

 

Zentral für die Determinierung jener Informationen, die von entscheidungsrelevantem Charakter sind, ist die Festlegung einer Zielgruppe. Diese ist innerhalb des Marketing definiert als die homogene Nachfragerschicht, auf die sich die absatzpolitischen Bemühungen konzentrieren bzw. eine dementsprechend fixierte Grundgesamtheit[27].

 

Die Grundgesamtheit kann nach einer oder mehreren Merkmalsdimensionen abgegrenzt werden.

 

Abb. 2 – Merkmalsdimensionen

 

 

II.1.5   Teilerhebung

 

Ist die Grundgesamtheit sachlich, räumlich und zeitlich abgegrenzt worden, wird das Erhebungsverfahren festgelegt. Dabei gibt es in der primären Marktforschung prinzipiell die Wahl zwischen einer Voll- oder einer Teilerhebung nach verschiedenen, mehr oder weniger repräsentativen Verfahren (siehe Anhang A-2).

 

Bei Vollerhebungen werden alle hinsichtlich des am Anfang definierten Informationsbedarfs relevanten Daten jedes Elements der definierten Grundgesamtheit erhoben.

 

Aus praktischen Gründen (finanzieller, zeitlicher und organisatorischer Art[28]) werden Vollerhebungen sehr selten durchgeführt[29], so daß i.d.R. eine Teilauswahl (Stichprobe) vorgenommen wird. Eine Stichprobe ist repräsentativ, "[...] wenn sie in der Verteilung aller interessierenden Merkmale der Gesamtmasse entspricht, d.h. ein zwar verkleinertes, aber sonst wirklichkeitsgetreues Abbild der Gesamtheit darstellt"[30].

 

Das Ziel ist, mit einer begrenzten Zahl von Elementen Informationen über die Grundgesamtheit zu erhalten, ohne daß diese komplett überprüft werden muß. Das mit der Stichprobe kreierte Abbild soll letzten Endes auf die Grundgesamtheit hochgerechnet werden und diese möglichst gut widerspiegeln (Repräsentationsschluß)[31].

 

II.1.6   Auswahlverfahren

 

Im Zuge des Prozesses der Stichprobenziehung gilt es zu entscheiden, auf welche Art und Weise die zu befragenden Elemente der Grundgesamtheit entnommen werden sollen. Das Auswahlverfahren determiniert dabei weitgehend die Kosten der Stichprobe.

 

Es gibt kein Auswahlverfahren, welches in der Lage wäre, eine 100%ige Identität zwischen theoretischer Grundgesamtheit und praktischer Stichprobe zu realisieren. Dennoch bieten bestimmte, in der Praxis bewährte Methoden eine akzeptable Annäherung der Stichprobe an die Grundgesamtheit.

 

Im Allgemeinen werden zwei elementare Auswahlverfahren unterschieden: Verfahren der Zufallsauswahl (Random-Verfahren) und der bewußten, nicht zufälligen Auswahl.

 

Beim Random-Verfahren hat jedes Element der Grundgesamtheit eine statistisch berechenbare, von Null verschiedene Wahrscheinlichkeit, in die Stichprobe zu gelangen. Random-Verfahren haben den Vorteil, daß der sog. Zufallsfehler mathematisch bestimmbar ist.

 

Reine Random-Verfahren treten in der Panelforschung nicht auf, da diese, wie später dargelegt wird, stets mit denselben oder ähnlichen Untersuchungsobjekten arbeitet. Sie werden höchstens in Kombination mit Verfahren der bewußten Auswahl verwendet, weshalb sie hier nicht eingehender betrachtet werden.

 

II.1.6.1   Quota-Verfahren

 

Wie der Name bereits sagt, operieren Verfahren der bewußten Auswahl nicht mit mathematisch basierten Zufallsmechanismen. Vielmehr werden auf der Basis sachrelevanter Merkmale (siehe Abb. 2) bewußt Stichproben mit dem Ziel konstruiert, ein repräsentatives Abbild der betrachteten Grundgesamtheit darzustellen.

 

Wie BAUSCH[32] durch eine Befragung feststellte, ist das Quota-Verfahren, welchem der Abbildungsgedanke am deutlichsten zugrunde liegt, mit 92% das am meisten genutzte Stichprobenverfahren in der Praxis.

 

Das Quota-Verfahren beruht auf der Annahme, daß, wenn die Verteilung aller Merkmalsausprägungen einer Grundgesamtheit bekannt ist, ein 'Mustermodell', d.h. eine Stichprobe erstellt werden kann, die in allen Merkmalen für die Grundgesamtheit repräsentativ ist.

 

Die Praxis kann ihrer Komplexität wegen verständlicherweise nie alle möglichen Merkmalsdimensionen der Grundgesamtheit erfassen und auf die zu bildende Stichprobe übertragen.

 

Zum einen sind manche Merkmalsausprägungen nicht ohne weiteres bekannt bzw. gehören evtl. zu einem 'sensiblen' Bereich[33]; zum anderen würde eine 100%ig korrekte Stichprobe, vorausgesetzt, sie wäre realisierbar, zu kaum erfüllbaren Quotenvorgaben führen[34]. Man beschränkt sich daher beim Quota-Verfahren auf Dimensionen, deren Verteilung in der Grundgesamtheit bekannt sind und von denen man weiß oder annimmt, daß sie für den Untersuchungsgegenstand eine ausschlaggebende Rolle spielen, z.B. Alter, Einkommen etc.

 

Aus dieser Einschränkung ergeben sich besonders hinsichtlich der Repräsentativität Argumente gegen das Quota-Verfahren, welche im Nachfolgenden kurz Erwähnung finden sollen, da es sich bei einem Online Panel ebenfalls um eine konstruierte Stichprobe handelt, welche sich dementsprechend den dieser Art von Teilerhebung inhärenten Problemen stellen muß.

 

II.1.6.2   Probleme des Quota-Verfahrens

 

Selbst eine nach den besten wissenschaftlichen Verfahren zusammengestellte Stichprobe, kann nie alle tatsächlichen Ausprägungen der Grundgesamtheit erfassen. Es müssen damit zwangsläufig gewisse, jedoch bei akkuratem Vorgehen kontrollierbare, Abstriche hinsichtlich der Erhebungsqualität gemacht werden. Prinzipiell ist jede durch einer Teilerhebung erhobene Information mit einem Fehler behaftet, d.h. es liegt eine Abweichung zwischen den erhobenen Daten und der tatsächlichen Beschaffenheit der zu untersuchenden Objekte vor.

 

Die typischen Probleme jeder Teilerhebung bzw. der dafür zu bildenden Stichprobe sind die des sog. 'Zufallsfehlers', 'systematischer Fehler'[35] und der 'Selbst-Selektion'.

 

Der 'Zufallsfehler' ist jeder Art von Teilerhebung inhärent. Dies ist bedingt durch die Unklarheit inwieweit die Stichprobe wirklich der Grundgesamtheit entspricht. Eine mathematisch exakte Messung des Zufallsfehlers ist nur bei einer uneingeschränkten Zufallsauswahl und nicht bei Verfahren der bewußten Auswahl möglich. Zufallsfehler lassen sich nicht vermeiden, werden aber mit wachsendem Stichprobenumfang reduziert.

 

Eine zahlenmäßig unbekannte Größe sind die wesentlich ernster zu nehmenden 'systematischen' Fehler, da sie sich nicht per Saldo ausgleichen und somit das Ergebnis, quantitativ nicht bestimmbar, stark in die eine oder andere Richtung verzerren können. Systematische Fehler können in jeder Stufe des Marktforschungsprozesses auftreten, sind im Gegensatz zum Zufallsfehler bei sorgfältigem und objektivem Vorgehen jedoch vermeidbar[36].

 

Ein Problem aller Teilerhebungen, die nicht rein passive Verfahren, welche keine aktive Kooperation des Untersuchungsobjekts verlangen, anwenden, ist das der sog. 'Selbst-Selektion'. Diese tritt auf, wenn die Stichprobenelemente die Wahl haben zu partizipieren. Entscheidet eine bestimmte Gruppe, nicht an der Befragung teilzunehmen, reduziert dies die Wahrscheinlichkeit, daß sich die Ergebnisse auf die Grundgesamtheit hochrechnen lassen. Es besteht zumindest die theoretische Möglichkeit, daß die Personengruppe, welche nicht teilnimmt bzw. jene, die bereit ist, Fragen zu eventuell sehr privaten Aspekten zu beantworten, sich in irgendeiner Art und Weise von der Grundgesamtheit unterscheidet und diese somit nicht mehr realistisch abbildet.

 

Trotz dieser Einschränkungen hat sich das Quota-Verfahren in der Vergangenheit vielfältig bewährt und auch Vergleichstests mit Random-Verfahren bestanden.

 

II.1.7   Erhebungsmethoden in der primären Marktforschung

 

Als weiterer Schritt vor der eigentlichen Datenerhebung steht die Entscheidung, auf welchem Weg die benötigten Informationen erhoben werden sollen.

 

Die Primärforschung unterscheidet im Allgemeinen zwischen Befragung und Beobachtung. Laut BÖHLER werden "unter dem Begriff 'Befragung' [..] mehrere Datenerhebungsmethoden zusammengefaßt, deren Gemeinsamkeit darin besteht, daß die Auskunftspersonen durch verbale oder andere Stimuli (schriftliche Fragen, Bildvorlagen, Produkte) zu Aussagen über den Erhebungsgegenstand veranlaßt werden"[37].

 

Die Befragung ist laut HÜTTNER die bedeutendste Methode der primären Datengewinnung[38].

 

Beobachtungen, definiert als visuelle oder instrumentelle Erhebung von Daten[39], können hingegen weitgehend außer Acht gelassen werden, da diese Methode zwar in Randgebieten der Panelforschung Anwendung findet (z.B. Einschaltquotenmessung), aber verlangt, daß sich der Forscher "[...] gegenüber den Untersuchungsobjekten rezeptiv"[40] verhält.

 

E-Mail und World Wide Web eröffnen dieser Erhebungsmethode gleichfalls neue Möglichkeiten; allerdings ist dieses Spektrum im Hinblick auf die gängige Praxis der Marktforschungsinstitute eher begrenzt bzw. es gibt andere Dienste des Internets, welche sich besser für den Einsatz als Beobachtungsinstrument eignen.

 

Die Literatur nennt z.T. noch das Experiment als dritte Erhebungsart.

 

Gemäß HÜTTNER ist das Experiment als Methode zum Aufdecken kausaler Zusammenhänge jedoch keine eigenständige Erhebungsform, da es sowohl als Befragungs- als auch Beobachtungsexperiment Daten erheben kann[41].

 

II.1.7.1   Befragung

 

In der primären Marktforschung werden Befragungen nach verschiedenen Kriterien, z.B. Gestaltung[42], Art und Frequenz der Kommunikation etc. unterteilt. Da der spätere Fokus dieser Arbeit auf der Verwendbarkeit der Internetdienste E-Mail und World Wide Web als Befragungsinstrument liegt, soll die weitere Differenzierung anhand der Befragungsarten erfolgen.

 

Obwohl es im Hinblick auf die spezifischen Vor- und Nachteile der zur Wahl stehenden Befragungsmethoden ausreichend Literatur gibt, sollen die wichtigsten Aspekte der schriftlichen, mündlichen und telefonischen Befragung kurz umrissen werden. Dies dient dem späterem Vergleich dieser Erhebungsmethoden mit den Diensten des Internet.

 

II.1.7.1.1   Face-to-Face (mündliche) Befragung

 

Das Face-to-face, d.h. das persönliche Interview ist die am häufigsten angewandte Befragungsart. Das Interview kann bei den Teilnehmern zu Hause, in einem speziell eingerichteten Studio, auf der Straße oder in Einkaufszentren u.ä. stattfinden.

 

Die zentrale Schlüsselfigur und ursächlich verantwortlich für den Qualitätsgrad der Ergebnisse ist der Interviewer. Auf der einen Seite führt der persönliche Kontakt zwischen Interviewer und Proband i.d.R. zu relativ geringen Verweigerungsquoten (Antwortrate 75-90%) und damit innerhalb der Stichprobe zu einem relativ hohen Grad an Repräsentativität. Die Interviewsituation ist besser kontrollierbar als dies bei anderen Erhebungsmethoden der Fall ist, wodurch das Risiko unbewußt falscher Antworten reduziert und andererseits das Auftreten der erwünschten, spontanen Reaktionen forciert wird.

 

Auf der Schattenseite der Bilanz des Face-to-Face Interviews ist zu nennen, daß die Kosten höher sind als bei jeder anderen Interviewmethode, besonders wenn es gilt, die Daten einer räumlich möglichst repräsentativen Stichprobe zu erheben.

 

Ferner ist der Einfluß des Interviewers nicht prinzipiell positiv zu bewerten. Die Qualität der gewonnenen Ergebnisse steht oft in hoher Korrelation zum Niveau der Interviewerschulung[43]. Es besteht die Gefahr, daß Interviewer ihre Quotenvorgaben nicht einhalten[44] oder die Fragebögen sogar selbst ausfüllen. Es beruht somit ein hoher Grad der Reliabilität und Validität der gesammelten Daten auf der (unbekannten) Qualität des Interviews.

 

II.1.7.1.2   Telefonische Befragung

 

Der große Vorteil der telefonischen Befragung liegt im Zeitfaktor. Der Zeitraum zwischen dem festgestellten Informationsbedarfs und der Erhebung der relevanten Daten ist bei keiner anderen Methode kürzer. Der direkte, auditive Kontakt zwischen Interviewer und Befragtem führt, wie bei der persönlichen Befragung, zu einer geringen Verweigerungsquote und erlaubt eine gewisse Kontrolle bzw. notfalls, soweit im Rahmen der Objektivität vertretbar, Hilfestellung beim Beantworten der Fragen. Er vermindert aber durch die fehlende visuelle Komponente, über welche oft unbewußt eine Vielzahl non-verbaler Informationen kommuniziert werden[45], das Ausmaß des Interviewereinflusses.

 

Gegenüber der Face-to-Face Befragung existiert ein finanzieller Vorteil, hervorgerufen durch den kaum vorhandenen Kostenanstieg bei einer flächendeckende Befragung und die i.d.R. praktizierte direkte Eingabe der Antworten in den Computer (CATI, siehe II.1.7.1.4).

 

Als Nachteil ist anzuführen, daß die zeitliche Dauer des Interviews sehr begrenzt ist. Die Literatur empfiehlt, 15-20 Minuten nicht zu überschreiten[46].

 

Es ist außerdem nicht möglich, geschlossene Fragen mit einem breiten Antwortspektrum anzubieten, da dieses von den Probanden nicht erfaßt werden kann und u.U. zu einer Überforderung führt, worunter die Qualität der Antworten leidet. Das Kontaktmedium erlaubt ferner keinen Einsatz visueller Reize, Produktproben o.ä.

 

II.1.7.1.3   Schriftliche Befragung

 

Bei der schriftlichen Befragung werden den Probanden auf postalischem Weg Fragebögen geschickt mit der Bitte, diese auszufüllen und zurück zu senden[47].

 

Bei dieser Methode, deren Hauptvorteil die vergleichsweise geringen Kosten sind, existiert kein persönlicher Kontakt zwischen Fragendem und Befragtem. Dies unterdrückt jede Art von Interviewereinfluß gleich ob positiver oder negativer Natur und führt häufig zu Kritik an der geringen Kontrollierbarkeit der Befragungssituation. Es kann nicht verhindert werden, daß der Proband den gesamten Fragebogen einsieht, bevor er anfängt, ihn zu auszufüllen, und somit u.U. sorgfältig über eine Frage nachdenkt bzw. letztendlich jene Antwort wählt, die mehr einem Idealbild denn der Realität entspricht. Auch kann nicht sichergestellt werden, daß überhaupt die im Planungsvorfeld anvisierte Person den Fragebogen ausfüllt und nicht z.B. die Hausfrau diese Aufgabe für ihren Ehemann übernimmt. Dies gefährdet die Repräsentativität der Stichprobe.

 

Jene ist zusätzlich durch die geringe Rücklaufquote schriftlicher Befragungen beeinträchtigt. Je nach Untersuchungsgegenstand, Aufmachung des Begleitschreibens etc. liegt die Antwortrate zwischen 5-20%[48].

 

II.1.7.1.4    Computergestützte Befragung

 

Obgleich das Internet und die damit verknüpfte Überlegung, inwieweit dessen Dienste nutzbringend in der Marktforschung Anwendung finden können, eine Erscheinung der 90er Jahre ist, hat die konstant fortschreitende Entwicklung auf dem Gebiet der Informations- und Kommunikationstechnologie schon vorher, zunächst in der Datenanalyse später auch im Bereich der Informationsgewinnung ihren Eingang in die primäre Marktforschung gefunden.

 

Bei computergestützten Befragungen muß nach der Art der Verwendung des Computers unterschieden werden. Wie Abb. 3 verdeutlicht, kann er entweder dem Interviewer als unterstützendes Element bei einer der zuvor aufgelisteten Befragungsarten dienen oder aber ein eigenständiges Erhebungsinstrument bilden[49].

 

Abb. 3 – Computer-Befragungssysteme

 

 

eigene Abbildung

 

in Anlehnung an: Meffert, Heribert: Marktforschung. Gabler Verlag. Wiesbaden 1986, S. 59f.

 

Im ersten Anwendungsbereich, der in dieser Arbeit nicht vertieft werden soll, sind vor allem die Verfahren CAPI und CATI zu nennen. CAPI nutzt Laptops o.ä. in der Face-to-Face Befragung, wohingegen bei CATI die Dateneingabe während der telefonischen Befragung durch den Interviewer erfolgt.

 

Im Gegensatz dazu stehen Computer-Befragungssysteme, welche nicht bloß ein Hilfsmittel des Interviewers bilden, indem sie den üblichen Fragebogen durch einen Bildschirm ersetzen, sondern die als eigenständiges Instrument der Datenerhebung in der primären Marktforschung eingesetzt werden. Der Grad ihrer Interaktivität kann jedoch erheblich schwanken.

 

Bei der Bildschirmbefragung, in der Literatur auch Selbstbefragungssystem genannt, werden dem Probanden die jeweiligen Fragen über einen Bildschirm präsentiert.

 

Dies kann z.B. in einem Teststudio über den Bildschirm eines Personal Computers geschehen. Hierzu zählen auch jene Möglichkeiten, welche sich durch das digitale Fernsehen oder aufgestellte Selbstbefragungssysteme (CSAQ) z.B. bei Messen oder in Einkaufszentren, bieten. Die Antworteingabe läuft z.B. über Touchscreens, Tastatur, Maus oder ein Stimmerkennungsmodul.

 

Der Einsatz dieser Selbstbefragungssysteme ist z.Zt. noch sehr begrenzt, zumal sie marktforschungstechnisch gesehen nur sinnvoll sind, wenn die Meinung einer sehr kleinen Grundgesamtheit (z.B. Messebesucher) erfragt werden soll. Selbst hier ist die Repräsentativität zweifelhaft, da Selbst-Selektion in verstärktem Maße auftritt.

 

Die telefonische Computerbefragung (CATS), eine Weiterentwicklung des CATI-Systems, die heutzutage ihren Einsatz in der Praxis z.B. bei Kartenreservierungssystemen findet, kann nur mit akzeptablen Rücklaufquoten repräsentativer Stichproben rechnen, wenn im Vorfeld eine persönliche Kontaktaufnahme zwischen dem Probanden und dem Marktforschungsinstitut stattgefunden hat. Anderenfalls wird sich kaum ein Mensch von einer Computerstimme am Telefon Fragen zu evtl. sehr persönlichen Bereichen stellen lassen.

 

Bei der Computerbefragung auf dem Weg des Datenaustausches können die Informationen entweder via Post auf einer Diskette oder aber direkt über E-Mail (EMS) vermittelt werden.

 

Bei hochgradig standardisierten, regelmäßigen Befragungen ist ein Programm auf dem Rechner jedes Teilnehmers, der seine Eingaben auf Diskette speichert und an das Institut schickt, eine denkbare und z.T., vor allem im Bereich der Beobachtung[50], bereits praktizierte Methode.

 

Da sich diese Arbeit mit der Einsetzbarkeit von E-Mail und World Wide Web in der Panelforschung als einem Bereich der primären Marktforschung befaßt, soll auf EMS, genau wie auf die Online-Befragung, welche entweder über die Benutzeroberfläche eines Providers[51] oder direkt über einen der Dienste des Internets erfolgen kann, an dieser Stelle nicht im Detail eingegangen werden.

 

Aufgrund der Verschiedenheit der Eigenschaften und Einsatzprofile computergestützter Befragungssysteme werden sie keinen Eingang in den nachfolgenden Vergleich zwischen mündlicher, telefonischer und schriftlicher Befragung finden.

 

II.1.7.1.5   Vergleich der Befragungsarten

 

Wie aus den Beschreibungen hervorgeht, ist keine Befragungsmethode für sich genommen das non plus ultra. Die Nachteile der einen sind i.d.R. die Vorteile der anderen Erhebungsart.

 

Abb. 4 ermöglicht einen kurzen tabellarischen Vergleich der bisher beschriebenen Methoden nach ausgewählten Kriterien. In diesem Vergleich wird dabei vom Einsatz der benannten Erhebungsmethoden in der Panelforschung ausgegangen, d.h. die Antwortquote und andere Kriterien beziehen sich auf den Spezialfall selektierter, für die Befragung gewonnener Elemente.

 

Diese Abbildung ist insofern von Bedeutung, als daß sie im weiteren Verlauf dieser Arbeit noch einmal aufgegriffen und um die Erhebungsmethode der Befragung via E-Mail und World Wide Web erweitert wird.

 

Abb. 4 – Vergleich der Befragungsarten in der Panelforschung (1)

 

 

II.1.8   Panelforschung (Tracking-Forschung)

 

II.1.8.1   Begriffsabgrenzung

 

LEHMEIER definiert ein Panel als eine Art permanente Stichprobe[52]. Es handelt sich hierbei

 

um ausgesuchte Haushalte, Einzelpersonen, Unternehmen oder Händler, an denen in regelmäßigen Abständen zu einem i.d.R. gleichbleibenden Untersuchungsgegenstand Erhebungen vorgenommen werden.

 

Die Paneluntersuchung, ein Instrument der Primärforschung, wird allgemein als eine in regelmäßigen Abständen (Tracking-Forschung) an denselben oder vergleichbaren Untersuchungsobjekten durchgeführte Teilerhebung definiert, die sowohl Querschnitts-[53] als auch Längsschnittdaten[54] liefert[55].

 

Ein Panel kann in jeder Kombination der Erhebungsmethoden Befragung und Beobachtung und des Erhebungsdesigns experimentell und nicht experimentell eingesetzt werden[56]. Es bietet somit ein überaus breites Verwendungsspektrum.

 

Hinsichtlich der Typologie kommen bei Panels eine Reihe von Abgrenzungsmerkmalen in Betracht, welche das Panel z.B. vom Objekt (PKW Panel), von den Teilnehmern (Handelspanel) oder der Art der Informationsgewinnung (Telefon-Panel) her definieren.

 

Die Panelforschung ist i.d.R. ein deskriptives Untersuchungsdesign der Marktforschung, d.h. im Gegensatz zu anderen Forschungsarten, wie explorativen oder kausalanalytischen[57] Designs, stehen vor allem quantitative Marktdaten, wie z.B. Marktanteile und Absatzzahlen in ihrer zeitlichen Entwicklung (Längsschnittanalyse) im Vordergrund[58].

 

Trotz dieser relativ klaren Definition stellt das Panel in der primären Marktforschung eine Besonderheit dar, wodurch die gemachten Aussagen nicht grundsätzlich auf alle Arten von Panels zutreffen.

 

Definitionsprobleme ergeben sich besonders bei jenen Panels, wo entweder das Untersuchungsobjekt, z.B. bei den sog. Test-Panels, oder aber die Stichprobe, bei der sog. Wellenbefragung[59], variiert.

 

Streng genommen, handelt sich es bei diesen Grenzfällen nicht mehr um eine Panelerhebung, sondern um einen 'bequemen' Weg der ad-hoc Forschung.

 

Es wäre hier aus Sicht der Verfasserin korrekter anstatt von Panels von 'Pools' zu sprechen, aus welchen je nach Bedarf bzw. benötigter Merkmalsdimension eine bestimmte Stichgruppe rekrutiert wird. Dadurch, daß im Laufe der Befragung die Verteilung selbst exotischer Merkmale bekannt ist, können auf diesem Weg auch kleine Zielgruppen ohne Streuverluste heraus gefiltert werden. Ziel dieser Panels/Pools ist keine kontinuierliche Erhebung zur Messung von Veränderungen sondern die Vermeidung von Fehlkontakten bei der Erhebung kleiner Zielgruppen[60], zumal es laut HIPPLER und BECKENBACH eine zunehmende Tendenz zur Befragung von Spezialpopulationen gibt[61].

 

Obgleich es die Grenzkonturen bei der Definition eines Panels stark verwischt, sollen die genannten Spezialformen gemäß der Handhabung in Theorie[62] und Praxis in dieser Arbeit dem Bereich der Panelforschung zugeordnet werden.

 

II.1.8.2   Das Quota-Verfahren in der Panelforschung

 

In der Panelforschung findet normalerweise das Quota-Verfahren Anwendung. Dies hat den Vorteil, daß innerhalb der Stichprobe die zu befragenden Haushalte 'frei' gewählt werden können, solange diese die vorgegebene Quote erfüllen.

 

Das größte Plus dieser 'Panelpflege', d.h. gezieltes Aussuchen und Pflege der angeschlossenen Haushalte, liegt in den dadurch erzielten hohen Antwortquoten.

 

Panels bieten insoweit eine Aufwertung des Quota-Verfahrens, als daß innerhalb der nach den üblichen Merkmalsdimensionen gebildeten Stichprobe mit der Zeit ein Detailwissen hinsichtlich gewisser Merkmalsverteilungen gebildet wird. Da die Stichprobe unter der Prämisse, repräsentativ für die Grundgesamtheit zu sein, gebildet wurde, kann davon ausgegangen werden, daß nachfolgend aufgedeckte Merkmalsverteilungen ebenfalls hochgerechnet werden können.

 

II.1.8.3   Panelarten

 

Die Panelforschung unterscheidet im Groben zwischen Verbraucher- und Handelspanels.

 

Beim Handelspanel werden regelmäßig Daten von einer gleichbleibenden, repräsentativ ausgewählten Gruppe von Händlern (i.d.R. Einzelhandelsgeschäfte) zu dem gleichen Untersuchungsgegenstand durchgeführt. Dies liefert aufschlußreiche Längsschnittanalysen bzgl. der Absatzkanäle der (Markenartikel-)Industrie[63]. Handelspanels sind im Gesamtbild der Panelforschung jedoch eher eine Randerscheinung, da sie aufgrund des hohen Investitionsaufwands und dem entsprechend benötigten Fachwissen nur von wenigen Marktforschungsinstituten durchgeführt werden[64].

 

Unter Verbraucherpanels versteht man alle Datenerhebungen mittels Befragungen oder Beobachtungen, die –unabhängig von ihren Elementen (Individualpanels - Haushaltspanels) und ihren Untersuchungsgegenständen (Gebrauchsgüter - Verbrauchsgüter)– in regelmäßigen Abständen (eine Woche bis ein Jahr) am Endverbraucher durchgeführt werden.

 

Die genaue Stichprobenzusammensetzung und Größe jedes Panels richtet sich vornehmlich nach dem jeweiligen Auftraggeber bzw. der ausgewählten Grundgesamtheit.

 

Abb. 5 – Arten von Verbraucherpanels

 

 

eigene Abbildung

 

in Anlehnung an: Hüttner, Manfred: Grundzüge der Marktforschung. 5. Auflage. R. Oldenbourg Verlag. München et al. 1997, S. 184

 

Beim Haushaltspanel[65] ist der gesamte Haushalt Untersuchungsgegenstand. Diese Panelform eignet sich vor allem für Waren, deren Verbrauch besser dem gesamten Haushalt als den einzelnen Mitgliedern zugerechnet werden können. Das Verbrauchsgüterpanel untersucht Güter des 'täglichen Bedarfs', während Gebrauchsgüterpanels die Längsschnittdaten langlebiger Konsumgüter erfassen.

 

Individualpanels finden Anwendung wenn der Untersuchungsgegenstand nicht so sehr den gesamten Haushalt, sondern jeweils ein bestimmtes Haushaltsmitglied betrifft. Hierbei geht es häufig um Warengruppen, die i.d.R. von jeder Person für sich selbst gekauft werden.

 

Vor allem in der Meinungsforschung, wo die für jede Person individuellen Ansichten erfragt werden, finden Einzelpersonenpanels Anwendung. Als eines der wichtigsten Panels ist der sog. B2B[66]-Bereich zu nennen.

 

II.1.8.4   Befragungsperioden und -methoden

 

Sowohl die Art, wie bei einem Panel Daten erhoben werden, als auch die zeitlichen Abstände zwischen den einzelnen Erhebungen schwanken je nach Art des Panels bzw. des Untersuchungsgegenstandes, nach Kosten- und Zeitfaktor sowie dem Interesse der entsprechenden Auftraggeber stark und können daher kaum verallgemeinert werden.

 

Manche Haushaltspanels verlangen z.B. die wöchentlich exakte Ausfüllung eines Berichtsbogens hinsichtlich der gekauften Verbrauchsgüter. Diese Kalendermethode wurde dabei im Laufe der 80er Jahre zunehmend auf den Einsatz neuer Medien umgestellt[67].

 

Bei Untersuchungen langlebigerer Gebrauchsgüter, wie z.B. Elektrogeräte etc., werden hingegen aufgrund der Natur der Sache die Befragungen in größeren Abständen (monatlich, quartalsweise oder jährlich) vorgenommen. Hier sind die Befragungen i.d.R. weniger stark standardisiert als das bei den wöchentlichen Haushaltspanels der Fall ist.

 

Die Häufigkeit der Datenerhebung wirkt sich nicht selten auf die Methode der Informationsgewinnung aus. Bei wöchentlichen Einkaufspanels wird das entsprechende Marktforschungsinstitut aufgrund der Masse der Daten und den kurzen Abständen zwischen den Erhebungen kaum auf die telefonische Befragung als Methode zurückgreifen, was hingegen für Spezialpanels o.ä. schon attraktiver ist.

 

II.1.8.5   Panel-Probleme

 

Trotz bestimmter Vorteile, wie einer hohen Rücklaufquote oder der Abbildung von Spezialpopulationen ohne Streuverluste, impliziert das Panelverfahren gleichfalls gewisse Schwierigkeiten, die bei anderen Methoden der primären Marktforschung nicht unbedingt auftreten.

 

Durch das verwendete Quota-Verfahren ist das Problem der Repräsentativität ein ständiger Begleiter.

 

Die sog. 'Panelsterblichkeit' fordert insbesondere die Sorgfalt der Marktforscher. Dieser Ausdruck bezeichnet den ständigen Fluktuationsprozeß, welchem die partizipierenden Elemente eines Panels unterliegen. Diese Veränderungen können z.B. durch Heirat, Umzug, Scheidung, Tod oder Verweigerung zur Kooperation auftreten. Das Auffüllen ausgefallener Panelteilnehmer mit Ersatzhaushalten- und/oder personen, welche die gleichen Merkmale aufweisen, birgt das Risiko einer nachlassenden Repräsentativität. Es wäre z.B. möglich, daß sich in der Grundgesamtheit prinzipielle Veränderungsprozesse (z.B. berufstätige Frauen, Single-Haushalte etc.) abspielen, welche bei der Panelpflege berücksichtigt werden müssen. Anderenfalls läuft das Panel Gefahr, irgendwann die Grundgesamtheit eines bestimmten Stichtages in der Vergangenheit abzubilden, neuerliche Veränderungen aber nicht mehr zu berücksichtigen[68]. "Eine geringe Panelsterblichkeit ist ein wichtiges Qualitätsmaß für jedes Panel"[69].

 

Das bekannteste Problem der Panelforschung ist der sog. 'Paneleffekt'. Dieser Begriff bezeichnet das Phänomen, daß die an einer kontinuierlichen Befragung teilnehmenden Personen und/oder Haushalte dazu tendieren, ihr eigenes Verhalten in dem zu untersuchenden Bereich (z.B. Kaufverhalten) genauer zu beobachten, zu hinterfragen und letzten Endes eventuell zu modifizieren, wobei die Veränderung nicht ohne die Teilnahme an dem Panel stattgefunden hätte. Dies macht den Panel-Teilnehmer mit der Zeit nicht mehr repräsentativ für die Grundgesamtheit[70]. Generell ist der Paneleffekt umso größer, je kürzer die zeitlichen Abstände zwischen den Erhebungen sind. Auch die Relevanz des Untersuchungsgegenstandes für die befragte Person beeinflußt den Paneleffekt.

 

SCHÄFER/KNOBLICH stellen jedoch fest, daß sich bei Kontrollvergleichen zwischen Panels und ad-hoc Umfragen eine ausreichende Übereinstimmung der jeweils ermittelten Werte ergeben hat[71], so daß der Paneleffekt zwar bedacht werden sollte, aber nicht überbewertet werden muß.

 

Besonders bei den sog. Spezialpanels mit wechselnden Untersuchungsgegenständen und/oder variierenden Stichproben tritt er so gut wie gar nicht auf, da die wechselnden Themen einer 'Erinnerung', durch die das zukünftige Verhalten beeinflußt wird, vorbeugt.

 

Generell muß sich die Panelforschung genau wie die ad-hoc Forschung allen Problemen stellen, die durch die gewählte Erhebungsmethode auftreten können.

 

II.2   Internet[72]

 

Das Internet ist zweifelsohne die derzeit am meisten beachtete Ausprägung des sog. Informationszeitalters. Der Begriff 'Internet' beschreibt jedoch kein bestimmtes Netz, sondern es bezeichnet die Möglichkeit, verschiedene, voneinander unabhängige Netzwerke miteinander zu verbinden und deren jeweilige Ressourcen weltweit allen Nutzern zugänglich zu machen.

 

II.2.1.1   Geschichte & Grundlagen

 

Die Geschichte des Internet, welche nur in kurzen Abrissen dargelegt werden soll, läßt sich bis in die 60er Jahre zurückverfolgen. Damals, in einer kritischen Zeit des kalten Krieges mit einem nuklearen Angriff als möglichem Szenario, finanzierte ARPA, eine Abteilung des United States Pentagon, ein Forschungsprojekt, das Universitäten und 'Denkfabriken' des Landes mit der Entwicklung eines Kommunikationsnetzes beauftragte, welches auch bei stärksten Beschädigungen funktionsfähig bleiben sollte.

 

Diese Bedingung konnten die damals im Einsatz befindliche leitungsorientierte Datenübertragung nicht erfüllen. Ziel war es daher, den Transport so zu organisieren, daß sich die Daten eigenständig ihren Weg zum Empfänger suchen, und, wenn einzelne Kommunikationslinien zerstört sind, auf einen anderen Weg ausweichen.

 

Forscher aus dem militärischen Bereich[73] griffen dabei 1964 auf ein bereits zwei Jahre zuvor von Paul Baran präsentiertes Modell zurück: ein Konzept einer chaotischen Verbindung von vielen Computern an verschiedenen Standorten in den USA, wobei die paketorientierte Datenübertragung das wichtigste Charakteristika dieses Systems war. Der dezentrale Aufbau und die entsprechenden Kommunikationsprotokolle sollten die Betriebssicherheit des Netzes im Ernstfall gewährleisten.

 

1969 wurden die ersten vier Computer, jene der Universitäten Stanford, Santa Barbara, Los Angeles und Salt Lake City im Auftrag der ARPA miteinander verbunden, und schufen damit die Geburtsstunde des ARPANET, einem der direkten Vorgänger des Internets. Schon ein Jahr später waren über 30 Universitäten an das Netz angeschlossen und 1973 entstanden erste internationale Verbindungen zu Rechenzentren in England und Norwegen.

 

Parallel zum ARPANET entstanden Anfang der 80er Jahre weitere öffentliche und private Netzwerke[74], die jedoch nicht miteinander verbunden werden konnten, da sie, vor allem aufgrund ihrer Hardwarearchitekturen, sehr verschieden angelegt waren.

 

Ein wichtiger Meilenstein auf dem Weg der Entwicklung des Internet war daher im Jahre 1982 die Einführung des gemeinsamen Übertragungsstandards TCP/IP im ARPANET[75], welcher selbst unterschiedlichen Hard- und Software-Plattformen den Datenaustausch ermöglichte, wodurch der netzübergreifende Datenverkehr in den USA stetig zunahm.

 

Anfangs waren über diese Struktur nur Daten, d.h. Texte oder Bilder gemeinsam nutzbar, doch durch die von der amerikanischen Firma Sun Microsystems Anfang der 90er Jahre entwickelte Programmiersprache JAVA ist es inzwischen möglich, vom Betriebssystem unabhängige Programme zu schreiben und im Internet zu nutzen.

 

1982 kann damit als 'Geburtsstunde' des Internet betrachtet werden, "da seit dieser Zeit der Begriff Internet für das auf TCP/IP basierende ARPANET sowie für die daran angeschlossenen Netzwerke geläufig ist"[76].

 

Es wird deutlich, daß das Internet schon immer ein sehr offen konzipiertes Netz war. Durch den Zusammenschluß verschiedener Computernetzwerke, die den weltweiten Datenaustausch ermöglichen, ist es dezentral angelegt und somit anders aufgebaut als z.B. das Netz eines Online-Dienstes[77], bei welchem alle Leitungen letztendlich in einem Server zusammenlaufen.

 

Abb. 6 – zentralisiertes Netz (wie z.B. AOL)

 

 

Abb. 7 – dezentralisiertes Netz (wie z.B. das Internet, in dem die Daten auf ihrem Weg von einem Server zum anderen weiter gereicht werden)

 

 

 

Quelle: Emery, Vince: Internet im Unternehmen. dpunkt Verlag. Heidelberg 1996, S. 138

 

Da das Internet kein statisches, globales Netz ist, sondern aus Tausenden kleinerer Netzwerke besteht, hat es keinen Betreiber, es gehört folglich niemandem.

 

Auch die Internet Society, welche über die Firma Network Solutions Inc. die Internet Adressen bzw. Domain-Namen vergibt, übt lediglich eine gewisse, von den Inhalten der Kommunikation jedoch unabhängige Koordinierungsfunktion aus.

 

Das kann in vielen Fällen die Rechtslage problematisch gestalten. Trotz des Fehlens einer zentralen Organisation entstand im Laufe der Jahre ein gewisser Kodex, 'Netiquette' genannt, der bestimmte Verhaltensregeln im Internet beinhaltet[78], worauf in Verbindung mit der Marktforschung im Internet an späterer Stelle (III.1.2.2) eingegangen wird.

 

Die offene, viele Erweiterungen zulassende Architektur des Netzes, führte dazu, daß mit der Zeit zahlreiche Dienste, wie z.B. E-Mail, FTP, Usenet/Newsgroups, Gopher und andere, auf das Grundprotokoll aufgesetzt wurden und somit die Nutzungsmöglichkeiten des Internet vielfältiger machten.

 

Einen weiteren, wichtigen Entwicklungsschritt stellte im Jahr 1986 die Einführung des Domain-Adressen-Systems dar, welches jedem Netzteilnehmer eine eindeutige und unverwechselbare Internetadresse (IP[79]) zuordnet. Die IP enthält Angaben über den Rechner selbst, seinen Aufenthaltsort und den Weg dorthin. Im Laufe der Zeit wurde dieses System um die Verwendung von benutzerfreundlicheren Domains (z.B. www.spiegel.de) erweitert, welche bereits im Vorfeld etwas darüber aussagen, welchem Bereich, z.B. .com oder .edu[80], bzw. Land, z.B. .uk oder .de, ein Rechner zuzuordnen ist.

 

Unter dem Einfluß und Druck der US-Regierung und z.T. gegen den Widerstand alteingesessener Nutzer wurde das Netz Anfang der 90er Jahre für die kommerzielle Nutzung geöffnet.

 

Sein Siegeszug wurde dabei von dem am Kernforschungszentrum CERN in Genf entwickelten und 1992 erstmals implementierten World Wide Web (siehe II.2.3.2) bzw. durch die Entwicklung entsprechender Browser[81] Anfang der 90er Jahre begünstigt.

 

Diese beiden Entwicklungen haben das gesamte Erscheinungsbild des Internets grundlegend verändert.

 

Durch das World Wide Web bzw. die entsprechende Anwendungssoftware wurde das Netz, nun weniger technisch, für eine immer breitere Anzahl von Nutzern 'bedienfähig' und somit  für Unternehmen interessant. Die Zahl der Firmen, welche begannen, das World Wide Web als eine neue Marketingplattform zu nutzen, stieg und steigt weiterhin konstant an, zumal dieses Medium Interaktivitätsmöglichkeiten bietet, welche nicht mit klassischen Werbemitteln erreicht werden können.

 

Inzwischen haben längst die Web-Sites mit der Endung .com über das ehemals vornehmlich militärisch und wissenschaftlich genutzte Netz triumphiert (siehe Anhang A-4).

 

Speziell die Multimediafähigkeiten des World Wide Web und die Nutzungsmöglichkeiten der Browser sorgten in der Folge, zumindest in den USA, für eine anhaltend rasante Ausdehnung des Netzes.

 

Dieser Trend griff Anfang/Mitte der 90er Jahre auch auf Europa über, obwohl das Netz, wie Abb. 8 demonstriert, weiterhin klar von den nordamerikanischen Nutzern dominiert wird.

 

Abb. 8 – Nutzer nach geographischer Herkunft

 

 

Quelle: NUA Internet Surveys 1998

 

II.2.1.2   Internetdienste

 

Das Internet verfügt heutzutage über eine Reihe von Diensten[82], welche im Laufe der Jahre, orientiert an den Bedürfnissen der Nutzer, entwickelt wurden. Viele von ihnen haben mit der Zeit stark an Bedeutung verloren, so daß z.B. Telnet, Gopher u.a. heute nur noch eine untergeordnete Rolle spielen, da sie zum einen nicht über die Multimediafähigkeiten des World Wide Web verfügen und zum anderen, nur ein relativ geringer Prozentsatz der Nutzer mit ihnen umgehen kann, was ihre Attraktivität für die breite kommerzielle Nutzung stark reduziert[83].

 

Zu den am häufigsten genutzten Diensten des Internet gehören heute E-Mail und das World Wide Web.

 

Dies geht u.a. aus mehreren Internetstudien klar hervor; z.B. wies die Ende 1998 von Fittkau & Maaß Ende durchgeführte 7. W3B Studie einen Nutzungsanteil von 97,2% (E-Mail) bzw. 95,2% (World Wide Web) aus[84].

 

II.2.1.2.1   E-Mail

 

E-Mail, als Kurzform für Electronic Mail, gehört zu den ältesten und am häufigsten genutzten Diensten im Internet. Mit Hilfe dieses Dienstes kann jeder Internet-Nutzer, der über eine eigene E-Mail-Adresse verfügt[85], Nachrichten an andere Netzteilnehmer versenden.

 

Das grundsätzliche Vorgehen entspricht dabei dem herkömmlicher Briefpost. Der Sender schreibt mit Hilfe eines Mail-Programms[86] eine Nachricht, die er mit der E-Mail-Adresse des Empfängers versieht und absendet. Die E-Mail gelangt über den Mail-Server des Benutzers zum Mail-Server des Empfängers und wird dort solange aufbewahrt, bis sich der Empfänger anmeldet und seine Post abruft.

 

Genau wie bei der herkömmlichen Post enthält die E-Mail im Adressfeld detaillierte, für den Versand und Empfang wichtige Angaben, welche oft den Schreiber der E-Mail bereits genau identifizieren, z.B. <sabine.klaus@plymouth.ac.uk>. Vor dem @[87] steht eine Angabe zur Person des Nutzers dieser E-Mail Adresse, i.d.R. sein voller Name oder dieser in abgekürzter Form. Die nach dem @ folgende Domain ist vergleichbar mit dem Konzept der (Orts)Vorwahlen im Telefonnetz. Der jeweilige Mailserver wird genau benannt (plymouth), wobei angegeben wird, in welchem Land sich der Server befindet (.uk). Gelegentlich wird gleichzeitig noch eine Aussage über die Art der Einrichtung, die den Server betreibt, gemacht (.ac – academic).

 

Die meisten Mailprogramme erlauben mittlerweile nicht nur das Übermitteln von mit ihrer Hilfe geschriebener Nachrichten, sondern man kann in aller Regel einer E-Mail auch Dateien, wie z.B. Bilder, Programme, Excel-Tabellen oder Word-Dokumente, anhängen[88] und versenden.

 

Die Übertragung dauert je nach Größe der Nachricht, der angehängten Datei und der Netzauslastung zwischen wenigen Sekunden und einigen Minuten

 

Über Gateways[89] wurde inzwischen sogar die Möglichkeit geschaffen, aus dem E-Mail-System heraus Nachrichten an einen herkömmlichen Telefaxanschluß zu verschicken. Auch Mitteilungen in Form von SMS (Short Message System) an ein Mobiltelefon in eines der Funknetze (D1/D2/E-Netz) zu versenden, ist keine Schwierigkeit mehr.

 

Nicht nur für viele Privatpersonen stellt E-Mail inzwischen ein bevorzugtes und häufig genutztes Kommunikationsmittel dar. Aus dem Geschäftsleben ist dieser Dienst nicht mehr wegzudenken. Der United States Postal Service schätzt, daß seit 1988 etwa 30% des Postverkehrs zwischen Unternehmen auf Fax und E-Mail umgestellt wurde, wobei der E-Mail Anteil jeden Monat steigt[90].

 

Scott McNealy, Geschäftsführer von Sun Microsystems, sagte sogar: "Von den 300 bis 400 Programmen, die in unserer Firma eingesetzt werden, könnten sie ein beliebiges entfernen und wir können unsere Arbeit trotzdem fortsetzen – wenn sie uns aber das E-Mail-System nehmen, sind wir am Ende."

 

II.2.1.2.2   World Wide Web

 

Das World Wide Web, auch WWW oder Web genannt, wurde Anfang der 90er Jahre bei CERN, der europäischen Kernforschungsbehörde unter der Leitung von Tim Berners-Lee entwickelt, um Informationen in Form von Texten und Graphiken kombinieren zu können und diese auf dem internen Netz der CERN/Schweiz allen Mitarbeitern zugänglich zu machen.

 

Den Durchbruch im Internet schaffte das World Wide Web unter anderem, weil 1992 der WWW-Client Mosaic von der amerikanischen NCSA allen Internet-Nutzern frei zur Verfügung gestellt wurde. Heute werden vor allem die Browser, so nennt man WWW-Client-Programme, Netscape Navigator und Microsoft Internet-Explorer in verschiedenen Versionen genutzt.

 

Das World Wide Web ist in der breiten Öffentlichkeit inzwischen bereits vielfach zum Synonym für das gesamte Internet geworden, da es der neben E-Mail am häufigsten genutzte bzw. die anderen Anwendungen auf einer Software-Plattform integrierende Dienst des Netzes ist.

 

Daß dieser Dienst, neben E-Mail, zum beliebtesten des Internets wurde, erklärt sich aus der Einfachheit seiner Bedienung. Selbst Menschen, die sonst wenig von Computern und Technik verstehen, können sehr schnell lernen, mit dem World Wide Web umzugehen. 

 

Die Nutzung von Hyperlinks macht den Sprung von einer Informationsquelle zur anderen per Maus-Klick möglich ('surfen') und damit das Lernen von UNIX-Befehlsketten unnötig. Die großen Suchmaschinen wie Yahoo, Alta Vista, Lycos oder Spider lassen auch Anfänger schnell und einfach interessante Web-Seiten entdecken, zumal inzwischen kaum noch ein Fernsehsender, eine Zeitschrift oder ein Unternehmen Werbung betreibt, ohne gleichzeitig seine Internetadresse anzugeben.

 

Die große Popularität gerade dieses Dienstes hat jedoch auch seine Schattenseiten. Die Übertragung vieler Bilder und zunehmend auch Tondokumente belastet die Übertragungskapazität des Netzes teilweise bis an dessen Grenze. Überdies wird es durch das gewaltige Informationsangebot immer schwerer, die qualitativ guten und sinnvollen Informationen aus den größer werdenden Mengen von 'Datenmüll' herauszufiltern.

 

II.2.1.3   Verbreitung

 

Die Größe des Internet ist in zwei Dimensionen zu betrachten.

 

Über die geographische Verbreitung liegen aus technischen Gründen relativ genaue Daten vor, da ein Land, das einen oder mehrere Computer mit dem Internet verbinden möchte, im Regelfall eine eigene Top-Level-Domain anmeldet,. Im Jahr 1998 war in 212 Ländern der Erde Zugang zu allen Diensten des Internets möglich[91]. In den westlichen Industrieländern, vor allem in den USA, Kanada und Europa sowie in Japan kann davon ausgehen werden, daß jeder, der über einen Telefonanschluß verfügt, die Möglichkeit hat, seinen Rechner mit dem Internet zu verbinden (siehe Anhang A-5).

 

Wesentlich größere Schwierigkeiten bildet die quantitative Festlegung der Verbreitungsdimension hinsichtlich der Frage, wieviele Menschen z. Zt. Zugang zum Internet haben bzw. die von diesem gebotenen Dienste in der einen oder anderen Form bzw. Frequenz nutzen.

 

Das Problem besteht darin, daß es im Gegensatz zum Telefonnetz keine zentralen Register von E-Mail Adressen bzw. Internetnutzern im Allgemeinen gibt. Sämtliche in Zeitungen und im Web angegebenen Zahlen sind somit grundsätzlich nicht mehr als Annäherungswerte, basierend auf Schätzungen oder mehr oder weniger repräsentativen Befragungen.

 

Eines der bekanntesten Instrumente im Bereich der Nutzerschätzung arbeitet mit der Hosts-Erfassung. Bei diesem Verfahren werden alle zu einem bestimmten Zeitpunkt an das Internet angeschlossenen Computer, die eine eigene IP Adresse haben, erfaßt. Auf der Basis der gezählten Internet-Hosts läßt sich die Zahl der Internetnutzer schätzen, wobei davon ausgegangen wird, daß die Mehrzahl der Hosts von mehr als einem Teilnehmer zum Internetzugang genutzt werden.

 

Die geläufigen Methoden (Mark Lotter 1997, Network Wizard) variieren bezüglich des Multiplikatorfaktors. Je nach konservativer oder optimistischer Schätzvariante gehen die verschiedenen Verfahren von 4 bis 7,5 Anwendern pro Rechner aus.

 

Die Verwendung von Hostzahlen als Indikator für das Wachstum des Netzes und als Basis für die Anzahl der Nutzer ist nicht unumstritten. Dennoch soll dieses Verfahren hier als eine mögliche Schätzung Anwendung finden, da es im Gegensatz zu Studien über Internetnutzer, zumindest im Bereich der Host-Zahlen, nachprüfbare Werte liefert.

 

Im November 1999 wurden in Deutschland 1.590.311 Internet-Hosts gezählt[92], in Europa waren zum selben Zeitpunkt 10.021.898[93] Hosts ans Netz angeschlossen und weltweit etwa 56.218.000 Rechner.

 

Die rasante Host-Entwicklung in Deutschland, besonders ab dem Jahr 1995, wird in Abb. 9  illustriert.

 

Es ist jedoch nicht möglich, auf der Basis dieser Werte mit einem einheitlichen Umrechnungsfaktor, z.B. fünf, die Anzahl der Internetnutzer zu bestimmen, da davon ausgegangen werden muß, daß je nach Land ganz verschiedene Nutzer:Host Relationen vorherrschen.

 

Generell kann man daher lediglich sagen, daß das antizipierte Wachstum der Nutzerzahlen immens ist. Die regelmäßige von der irischen Consulting Firma NUA durchgeführte und wissenschaftlich anerkannte Internet Studie[94] geht im Juni 1999 von mehr als 179 Millionen Netizen weltweit aus und Matrix Information & Directory Services (MIDS) schätzen, daß bei einer Wachstumsrate von weit mehr als 100% pro Jahr[95], im Jahre 2001 weltweit mehr als 700 Millionen Menschen das Internet nutzen werden.

 

II.2.2   Nutzerstruktur und -demographie in Deutschland     

 

Da das Hauptaugenmerk dieser Arbeit auf dem Einsatz der Internetdienste E-Mail und World Wide Web in der Panelforschung in Deutschland liegt, sollen an dieser Stelle besonders die Zahlen bzw. die Struktur deutscher Netizen eingehender betrachtet werden.

 

Diese Daten sind von großer Bedeutung, da, wie im vorangegangen Grundlagenteil der Marktforschung erklärt wurde, die Repräsentativität der partizipierenden Panelteilnehmer ursächlich über die Qualität der gesammelten Daten und der daraus gezogenen Schlußfolgerungen entscheidet.

 

Es muß für die Gründung eines Online Panels daher festgestellt werden, ob zum einen bereits ausreichend Menschen das Netz regelmäßig nutzen; zum anderen, welche Verteilung der klassischen Merkmalsdimensionen (Geschlecht, Alter, Bildung, Einkommen) existiert, um festzustellen, für welche Grundgesamtheit u.U. eine valide Stichprobe realisiert werden kann.

 

Mehrere in Deutschland seit 1998 durchgeführte Befragungen haben versucht, verläßliche und repräsentative Daten über die Anzahl der Internetanwender zu ermitteln, wobei die Ansätze z.T. schon hinsichtlich des Begriffes 'Internetnutzer' auseinander gehen .

 

Der Online-Monitor der GfK definiert den Internetnutzer als eine Person zwischen 14 und 59 Jahre[96], die über einen Zugang zum Netz verfügt und gleichzeitig proprietäre Dienste eines Providers und/oder das World Wide Web zumindest gelegentlich nutzt.

 

Unterschieden wird zwischen sog. 'internetexternen' und 'internetinternen' Umfragen. Bei internetexternen Umfragen werden die Informationen über die Internetnutzer unter der Verwendung herkömmlicher Befragungsmethoden (CATI, CAPI) ermittelt. Internetinterne Umfragen nutzen das Netz selbst als Erhebungsinstrument.

 

Die größte 'internetexterne' Umfrage stellt derzeit der inzwischen halbjährlich durchgeführte Online-Monitor der GfK dar, welcher die Grundlage in der nachfolgenden Betrachtung der Demographie der Internetnutzer bilden wird. Der Online-Monitor arbeitet mit telefonischen Interviews (CATI) auf der Basis einer bevölkerungsrepräsentativen Stichprobe[97]. Mit Online-Nutzern wird ein 25- bis 30-minütiges Telefoninterview realisiert, in dem Themen wie Zugang, Nutzungsort, -frequenz und -intensität, Kosten für Online-Nutzung, Angebotspräferenzen, Nutzung ausgewählter Internet-Angebote sowie der Bereich des E-Commerce behandelt wird.

 

Im Gegensatz zu internetexternen Befragungen müssen offene World Wide Web, wie alle anderen Seiten in Netz, beworben werden. An 'internetinternen' Befragungen wird daher kritisiert, daß durch die auftretende Selbstselektion keine repräsentative Stichprobe befragt wird. BRONOLD bezeichnet sie daher als vollkommen ungeeignet, um valide und repräsentative Aussagen über Online-Nutzer treffen zu können[98].

 

Laut LANDER "[..] ist mehrfach festgestellt worden, daß Viel-Nutzer und Personen mit kostenlosen Internetzugängen häufiger an Befragungen teilnehmen"[99]. Dementsprechend haben die "Netizen, die besonders viel Zeit im Web verbringen, [..] natürlich auch besonders hohe Chancen, die Fragebögen zu finden"[100]. Hinzu kommt, daß auch innerhalb der Gemeinde der Netizen verschiedene Subgruppen existieren, deren Nutzungsprofile sich z.T. stark voneinander unterscheiden. Bedingt durch ihre jeweilige Art der Nutzung des World Wide Web werden daher die Fragebögen von bestimmten Gruppen gar nicht erst 'gefunden' oder die Beantwortung fällt nicht in ihr Nutzungsprofil[101]. Frauen und Männer weisen z.B. ein sehr unterschiedliches Nutzungsprofil auf, was zu Verzerrungen der Geschlechterverteilung bei offenen World Wide Web Befragungen im Vergleich zu internetexternen Studien führt[102].

 

Übereinstimmend mit dieser Kritik zeigte eine 1996 vom Internetprovider CompuServe zum einen telefonisch, zum anderen via Internet durchgeführte Studie z.T. starke Ergebnisabweichungen zwischen den Erhebungsmethoden[103]. Auch eine 1995 von CommerceNet/Nielsen realisierte Vergleichsstudie (Internet-Telefon) kam zu dem Ergebnis, daß Entschlüsse, die ausschließlich auf den Ergebnissen der World Wide Web Forschung beruhen, zu gravierenden Fehlentscheidungen verleiten können.

 

JOSSÉ bezeichnet bestimmte Ergebnisse der 5. W3B Studie gar als "dümmliches Gerücht"[104].

 

Entgegen dieser Einwände haben bestimmte internetinterne Studien, besonders in jüngster Vergangenheit, oft eine hinreichende Korrelation ihrer ermittelten Werte im Vergleich zu den Umfragedaten, die durch andere Methoden erhoben wurden, bewiesen. Diese konträren Aussagen erklären sich zum einen aus den steigenden Nutzerzahlen und einer damit einhergehenden Entzerrung der Demographika bei steigender Grundgesamtheit. Hinzu kommt eine verbesserte Methodik bei der Durchführung 'internetinterner' Studien, d.h. die breitere und repräsentativere Streuung der für den Fragebogen werbenden Banner.

 

Entgegen JOSSÈs Ansicht offeriert z.B. die alle sechs Monate durchgeführte World Wide Web Studie W3B der Hamburger Internet-Consulting Firma Fittkau & Maaß ein zumindest in Teilen hinreichend gute Abbildung, obwohl auch von dieser Seite inzwischen die Repräsentativitäts- und Selbstselektionsproblematik erkannt wurde und die internetinterne Befragung in naher Zukunft durch Telefoninterviews erweitert werden soll.

 

Die W3B Umfrage ist mit fast 18.000 ausgefüllten Fragebögen in der 8. Welle (April/Mai 1999) die z. Zt. größte, unabhängige deutschsprachige Meinungsumfrage im Internet[105]. Gerade in Hinsicht auf die deutsche Internetnutzerstruktur hat sich W3B als eine der zuverlässigsten internetinternen Studien entwickelt, auch wenn ihre Ergebnisse weiterhin mit Vorsicht betrachtet werden müssen, da Selbstselektion in erhöhtem Maße auftritt und auch sonst keine an den Gütekriterien klassischer Marktforschung meßbare Repräsentativität vorliegt.

 

Die Einbeziehung der Ergebnisse der W3B Studien in die anschließenden Ausführungen bzgl. der Demographie der Internetnutzer kann bzw. soll somit als Trendentwicklung gesehen werden, ohne daß den von Fittkau & Maaß ermittelten absoluten bzw. relativen Zahlen dabei der Anspruch einer realistischen Abbildung zugesprochen wird.

 

II.2.2.1   Anzahl der Internetnutzer

 

Wie bereits illustriert, stellt die Messung einer genauen Zahl an Internetnutzern im Gegensatz zur Hosts-Zählung ein schwierigeres Unterfangen dar, weswegen auch derzeit weder weltweit noch für Deutschland keine wirklich exakten Teilnehmerzahlen vorliegen.

 

Eine Beschränkung auf die bloße Zählung der Nutzer, die ihren Internetzugang über einen der in Deutschland i.A. fünf größten Internetprovider[106] beziehen, würde dabei zu einer krassen Verzerrung der tatsächlichen Zahlen führen, da bei dieser Methode nicht festgehalten wird, wieviele Nutzer (z.B. eine Familie mit vier Personen) diesen Zugang verwenden; noch würden die zahlreichen regionalen Provider, Zugänge über Universitäten, Internet-Cafés oder am Arbeitsplatz Berücksichtigung finden[107].

 

Obwohl sie keine exakten Nutzerzahlen liefert, vermittelt die Darstellung der Hostzahlen, besonders im zeitlichen Verlauf einen guten Eindruck hinsichtlich des Wachstums des Netzes in Deutschland in den letzten Jahren.

 

Abb. 9 – Hostrechner in Deutschland

 

 

Quelle: RIPE Hostcount NCC 1999 (eigener Graph)

 

Legt man entsprechend der von LOTTER[108] entwickelten Methode einen Multiplikatorfaktor von '6' zugrunde, würde das mit der letzten bekannten Anzahl der Hostrechner (1.590.311, November 1999) ein Nutzerpotential von 9,5 Millionen Personen in Deutschland ergeben. Das ist eine Zahl die, wie die folgenden Studien andeuten, als sehr realistisch angesehen werden kann.

 

Der 4. GfK-Online Monitor geht im August 1999 von 9,9 Millionen Menschen aus, die zumindest gelegentlich das Internet nutzen. Die Studie 'Online Offline 2' des "Spiegel" und des "manager magazin" ermittelte im Februar 1999 gut 9,0 Millionen Internetnutzer[109]. In Übereinstimmung zu diesen Werten verhalten sich die Ergebnisse des MGD Online Busses (Juni 1999) und der @facts Untersuchung (November 1999) mit 9,0 bzw. 9,5 Millionen Netizen[110]. Lediglich der Wert der bereits 1998 durchgeführten ersten ACTA weicht mit 11,5 Millionen Nutzern stark nach oben ab.

 

Geht man von diesen Resultaten der, mit repräsentativen Stichproben arbeitenden internetexternen Studien aus, können derzeit etwa 11% der deutschen Bevölkerung der Gemeinde der Internetnutzer zugerechnet werden[111].

 

WERNER und STEPHAN[112] schätzen, daß "mittelfristig, d.h. bis zum Jahr 2003, [..] 7,5 bis 10 Millionen Bundesbürger Online-Zugang haben" werden. Ausgehend von den derzeitigen Messungen und in Kombination mit den aktuellen, massiven Preissenkungen bzw. der Umwerbung des Kunden durch die Internet-Provider kann angenommen werden, daß dieser Wert bereits im Jahr 2000 erreicht sein wird.

 

II.2.2.2   Demographie der Internetnutzer

 

Qualität und Aussagekraft der gesammelten Daten eines Panels hängen ursächlich von der Sorgfalt ab, die auf die Zusammenstellung der Panelteilnehmer verwendet worden ist, d.h. wie gut es den Marktforschern gelungen ist, eine Stichprobe zusammenzustellen, die möglichst genau der Grundgesamtheit entspricht.

 

Die Untersuchung, ob zum Zeitpunkt eines spezifischen Online-Panels überhaupt schon ausreichend Mitglieder einer anvisierten Zielgruppe[113] im Internet sind, gerät damit zur Kernfrage.

 

Es gab in der Struktur der Internetnutzer in den letzten Jahren beachtliche Verschiebungen, weg vom in der Mehrheit männlichen, technisch versierten Anwender mit überdurchschnittlich hohem Bildungsniveau und Ausbildungsgrad, hin zu einer eher repräsentativen Abbildung verschiedener Gruppen deutscher Bundesbürger.

 

Dennoch ist die Gemeinde der Netizen längst noch nicht an dem Punkt, einen repräsentativen Querschnitt der deutschen Gesamtbevölkerung darzustellen. "Der Elfenbeinturm ist weiterhin hoch."[114]

 

Besonders die Merkmalsdimensionen Ausbildung und Einkommen indizieren eine Dominanz der, schon 1976 von der Yankee Group[115] entdeckten, sog. 'Taffies'[116], bei denen es sich um gut ausgebildete, überdurchschnittlich bezahlte und technisch interessierte Personen handelt.

 

Diese demographische Gruppe stellt, wie die Resultate verschiedener Studien indizieren, in Deutschland einen großen Anteil der Internetnutzer.

 

Zwar liegen auch hinsichtlich der Nutzerstruktur keine exakten Daten vor, dennoch gibt es einige Studien, die komparable Ergebnisse aufzeigen. Dennoch kann bereits an dieser Stelle gesagt werden, daß die Internetnutzer i.A. noch kein repräsentatives Abbild der deutschen Grundgesamtheit darstellen, auch wenn sich "[...] die soziodemographische Struktur des Publikums [...] der durchschnittlichen Struktur der Bevölkerung angleichen [..]"[117] wird. Dieser Prozeß ist je nach Demographika-Kriterium bereits mehr oder weniger weit fortgeschritten.

 

Man muß dabei berücksichtigen, daß sich aufgrund der enormen Wachstumsraten das Netz und damit gleichfalls die Struktur der Nutzer in einem konstanten Wandel befindet, so daß sämtliche ermittelten Werte eher als Indikator eines Trends denn als absolute Zahlen betrachtet werden sollten.

 

II.2.2.2.1   Alter

 

Noch 1997 waren die Internetanwender im Vergleich zur Gesamtbevölkerung überdurchschnittlich jung, d.h. im Großteil zwischen 20 und 39 Jahre alt[118].

 

Die Altersproportionen haben sich seitdem bereits signifikant verschoben und indizieren ein weiteres Abflachen der 'Alterspyramide'. Der 4. Online-Monitor zeigt für bestimmte Altersgruppen der Bevölkerung bereits eine deutliche Annäherung bzw. eine in bestimmten Sparten realistische Abbildung.

 

Abb. 10 -  Verhältnis Alter Internetnutzer/Gesamtbevölkerung

 

 

Quelle: 4. Online-Monitor GfK (August 1999)

 

Die 8. W3B Studie weist ebenfalls eine Nivellierung der Altersstruktur auf. Die jüngeren (unter 20 Jahre) und auch die älteren (über 50 Jahre) Nutzergruppen wachsen prozentual immer mehr an. Hingegen nimmt die Bedeutung der Altersgruppe der 20 bis 29-jährigen ab: Sie ist seit 1995 von 63% auf heute 28% gesunken[119]. Man kann annehmen, daß das Durchschnittsalter der älteren Anwender aufgrund der wachsenden kommerziellen Nutzung des Internet zunimmt.

 

II.2.2.2.2   Geschlecht

 

Der Online Monitor der GfK wies bereits in seiner ersten Welle 1997 einen Frauenanteil von 30% aus, der seitdem nur leichte Veränderungen (August 1999: 35%) erfahren hat und gut mit den Resultaten anderer Studien korreliert (MGD Online Bus: 32%; ACTA 08/99: 34%, @facts: 32%). Die Internetgemeinde setzt sich folglich in erster Linie aus männlichen Anwendern zusammen. In Anlehnung an die Entwicklung in den USA[120] kann aber angenommen werden, daß diese Verteilung rückläufig ist bzw. sich auf eine repräsentative Abbildung der Gesamtbevölkerung zubewegt.

 

II.2.2.2.3   Herkunft

 

Was die Herkunft der Internetnutzer anbelangt, so ist dies der Bereich, der bislang am ehesten ein realistisches Abbild liefert. Nach den Ergebnissen des 4. Online-Monitors der GfK besteht nur noch ein relativ geringer Überhang an Nutzern in Großstädten.

 

Abb. 11 – Verhältnis Herkunft Internetnutzer/Gesamtbevölkerung

 

 

Quelle: 4. Online-Monitor GfK (August 1999)

 

II.2.2.2.4   Ausbildung

 

Der Bereich der Schul- und Berufsausbildung zeigt die deutlichsten Deviationen zwischen den Internetnutzern und der deutschen Gesamtbevölkerung.

 

Abb. 12 – Verhältnis Ausbildung Internetnutzer/Gesamtbevölkerung

 

 

Quelle: 4. Online-Monitor GfK (August 1999)

 

Zwar gibt es auch hier einen Trend der Relativierung, welcher sich an den Längsschnittanalysen der verschiedenen W3B Studien[121] zeigt, dennoch ist die Struktur der Netizen hinsichtlich dieser Merkmalsdimension noch relativ weit von einem wirklichkeitsgetreuen Abbild entfernt.

 

II.2.2.2.5   Berufliche Tätigkeit & Einkommen

 

Den deutlichsten Indikator für eine Wandlung des Netzes weg vom 'Insider'-Medium hin zur Nutzung durch eine breite Öffentlichkeit liefert die Längsschnittanalyse über die berufliche Tätigkeit der Netizen (Abb. 13).

 

Wie bereits dargelegt, dürfen die über W3B ermittelten Daten lediglich als Trendindikatoren gesehen werden. Leider stehen für diesen Bereich keine Daten aus dem Online-Monitor zur Verfügung, weshalb zur Demonstration auf die Studie von Fittkau & Maaß zurückgegriffen wird.

 

Abb. 13 – Verhältnis Beruf Internetnutzer/Gesamtbevölkerung

 

 

 

 

Quelle: Quelle: 1., 4. und 8. W3B Studie (© Fittkau & Maaß 1995, 1997, 1999)

 

Es gibt es weiterhin Berufsgruppen, die entgegen ihrem tatsächlichen Anteil an der Bevölkerung der BRD im Netz überproportional hoch vertreten sind. Nichtsdestoweniger zeigt sich über die letzten vier Jahre bereits ein deutlicher Trend zur Angleichung, der besonders durch einen Blick auf die Einkommensverteilung bestätigt wird.

 

Abb. 14 – Verhältnis Einkommen Internetnutzer/Gesamtbevölkerung

 

 

Quelle: 4. Online-Monitor GfK (August 1999)

 

Mit Blick auf die Nutzerzahlen bzw. -strukturen kann die Aussage, daß "[...] aus dem Tummelfeld der Forscher, Studenten und der Computerinteressierten [..] ein Massenmedium geworden [..]"[122] ist, positiv bestätigt werden.

 

Bedingt wird dies durch die konstant fortschreitende Integration des Internet in den normalen Berufsalltag. Immerhin gaben bei der von Forsa durchgeführten @facts Studie der Mediagruppe München 41% der Befragten an, sich über die Firma bzw. ihren Arbeitgeber ins Internet einwählen zu können.

 

Diese Entwicklung spiegelt sich ebenfalls in der Online-Umfrage der Deutschen Fachpresse[123] wider, in der 80% der Befragten bestätigten, das Internet inzwischen mehrmals wöchentlich für professionelle Zwecke zu nutzen. Analog trat bei einer ComCult Studie[124] zutage, daß Neugier (53,3%) und Unterhaltung (59,1%) eine zunehmend geringere Rolle bei der Netznutzung spielen, sondern eindeutig die Informationsbeschaffung (91,9%) im Vordergrund steht.

 

Obgleich Fittkau & Maaß in ihrer Studieninterpretation titeln, daß "die 'studentischen Zeiten' des World Wide Web endgültig vorbei sind"[125], so heißt das dennoch nicht, daß damit das Internet zu einem Medium der Gesamtbevölkerung geworden ist.

 

Zwar ist ein Trend zur Angleichung unübersehbar, dennoch wird das Netz weiterhin stark von der Gruppe der Taffies dominiert. Dies ist eine Tatsache, die bei der späteren Bildung eines Online Panels nicht übersehen werden darf.

Final del extracto de 169 páginas

Detalles

Título
Internetdienste E-Mail und World Wide Web als Instrument der Panelforschung
Universidad
University of Applied Sciences Dortmund
Calificación
1
Autor
Año
2000
Páginas
169
No. de catálogo
V185468
ISBN (Ebook)
9783656980711
ISBN (Libro)
9783867463621
Tamaño de fichero
1234 KB
Idioma
Alemán
Palabras clave
internetdienste, e-mail, world, wide, instrument, panelforschung
Citar trabajo
Sabrine Klaus (Autor), 2000, Internetdienste E-Mail und World Wide Web als Instrument der Panelforschung, Múnich, GRIN Verlag, https://www.grin.com/document/185468

Comentarios

  • No hay comentarios todavía.
Leer eBook
Título: Internetdienste E-Mail und World Wide Web als Instrument der Panelforschung



Cargar textos

Sus trabajos académicos / tesis:

- Publicación como eBook y libro impreso
- Honorarios altos para las ventas
- Totalmente gratuito y con ISBN
- Le llevará solo 5 minutos
- Cada trabajo encuentra lectores

Así es como funciona