Das Internet als Instrument der Marktforschung


Tesis, 1999

125 Páginas, Calificación: 1


Extracto


1. Einleitung

1.1 Themenbegründung

Kein anderes Medium hat in den letzten Jahren für soviel Furore gesorgt wie das Internet. War es Anfang der 90er Jahre überwiegend Computerspezialisten bekannt, so ist heute ein atemberaubender Anstieg der Bekanntheit und der Nutzung festzustellen.

Nach neuesten Untersuchungen stieg die Zahl der Internetnutzer in Deutschland 1998 innerhalb eines halben Jahres um 33 % von 5,6 Millionen auf mittlerweile ca. 7,3 Millionen User.[1]

Eng mit diesen steigenden Nutzerzahlen verbunden ist die wachsende Relevanz des Internet als Marketinginstrument. Das Internet kann bspw. als Instrument der Kommunikationspolitik (z.B. Darstellung des eigenen Unternehmens im Internet) oder als Medium der Distributionspolitik (z.B. Verkauf von Produkten über das Internet) dienen.[2] Als dritten großen Einsatzbereich liegt es nahe, das Internet für die Zwecke der Marktforschung zu nutzen. Im Rahmen dieser Arbeit sollen die Einsatzmöglichkeiten und Grenzen des Internet aus Sicht der Marktforschung untersucht und aufgezeigt werden. Zu diesem Themenkomplex existieren bislang noch keine umfassenden Veröffentlichungen.

1.2 Vorgehensweise und Zielsetzung

Um die Grundlagen für das Kernthema dieser Arbeit zu schaffen, wird im folgenden Abschnitt 2 in die Theorie der klassischen Marktforschung eingeführt, die insbesondere die Informationsbereitstellungsfunktion der Marktforschung betont. Der dritte Abschnitt gibt zunächst einige grundlegende Informationen zum Internet. Neben einem kurzen geschichtlichen Abriß zur Entstehungsgeschichte steht dabei die Beschreibung der Hauptdienste des Internet im Vordergrund. Die Darstellungen in diesen beiden Abschnitten beschränken sich auf jene Grundlagen, die für die Internet-Marktforschung von Bedeutung sind. Notwendige Begriffsdefinitionen werden überwiegend in diesen Abschnitten gegeben.

Auf diesen Grundlagen aufbauend, wird im vierten Abschnitt dargestellt, wie die Sekundärforschung das Internet als Instrument nutzen kann. Das Internet stellt einerseits eine völlig neue Datenquelle dar und ist andererseits eine neues Instrument zur Nutzung von herkömmlichen Ressourcen, insbesondere von Datenbanken. Der fünfte Abschnitt widmet sich dem Internet als Instrument der Primärforschung. Hier wird untersucht, wie das Internet als Befragungs- und Beobachtungsmedium genutzt werden kann und welche technischen, methodischen und rechtlichen Probleme sich daraus ergeben.

Die Darstellung von technischen Einzelheiten des Internet ist in dieser Arbeit auf ein Mindestmaß reduziert worden, da der Fokus auf die anwendungsorientierten und kommunikativen Aspekte der Marktforschung per Internet gelegt wurde. Der Schwer­punkt der Betrachtung liegt auf dem jetzigem Stand des Internet im deutschsprachigem Raum.[3] Ebenfalls werden allgemeine Fragestellungen der Marktforschung nicht thematisiert, wie z.B. Probleme der Frageformulierung, Skalierung, Fragebogendesign oder Analysemethoden.[4]

Da das Internet in wesentlichen Punkten Unterschiede zu den traditionellen Instrumenten der Marktforschung erwarten läßt, werden diese Besonderheiten des Internet ein wichtiger Bestandteil der folgenden Untersuchungen sein. Weiterhin wird die Frage gestellt, ob und wie sich das Internet als Instrument für die Sekundär- und Primärforschung einsetzen läßt. Dabei wird kritisch beleuchtet, welche Probleme zu beachten sind und welche Voraussetzungen noch zu schaffen sind. Die zentralen Fragestellungen bezüglich des Marktforschungsinstrumentes "Internet" werden dabei explizit herausgearbeitet und Lösungsvorschläge bewertet. Dabei wird geklärt, ob und in welchem Ausmaß eine Nutzung des Internet als Standardinstrument der Marktforschung erwartet werden kann.

2. Marktforschung

2.1 Begriffsdefinition

Die beiden Komponenten des Begriffs 'Marktforschung' lassen intuitiv schon darauf schließen, daß es sich hier vereinfacht ausgedrückt um die Erforschung von Märkten handelt. So kann Marktforschung nach Meffert (1991, S. 178) als die "systematisch betriebene Erforschung der Märkte (Zusammentreffen von Angebot und Nachfrage), insbesondere die Analyse der Fähigkeit dieser Märkte, Umsätze hervorzubringen" bezeichnet werden. Böhler (1992, S. 17) definiert Marktforschung als "die systematische Sammlung, Aufbereitung, Analyse und Interpretation von Da­ten über Märkte ... zum Zwecke der Informations­gewin­nung für Marketing-Entscheidungen". Ähnliche Definitionen finden sich bei Hammann/Erichson und Weis/Steinmetz.[5]

Die Qualität einer Marketing-Entscheidung hängt unmittelbar von der Qualität der zur Verfügung stehenden Informationen ab. Die Entscheidungssituation läßt sich durch drei Ungewißheitspotentiale kennzeichnen[6]:

- die ungewisse Entwicklung der ökonomischen, technischen, sozialen und rechtlichen Rahmenbedingungen
- das ungewisse Verhalten der Marktteilnehmer (Käufer, Konkurrenz, Lieferanten)
- ungewisse Wirkung des Einsatzes der Marketing-Instrumente unter den wechselnden Marktbedingungen

Die Reduzierung dieser Ungewißheitszonen und somit die Minimierung des Entscheidungsrisikos ist die Aufgabe der Marktforschung und Gegenstand des folgenden Abschnittes.

2.2 Aufgaben und Ziele

Das Aufgabenspektrum der Marktforschung läßt sich nach vielen unterschiedlichen Gesichtspunkten strukturieren, wodurch sich jeweils eine andere Art von Marktforschung mit eigenem Informationsschwerpunkt ergibt. So kann nach dem Erhebungsobjekt zwischen ökoskopischer und demoskopischer Marktforschung unterschieden werden[7] oder nach den Marktteilnehmern können Konkurrenz-, Lieferanten- oder Käuferforschung ausgemacht werden. Eine Übersicht über die unterschiedlichen Kriterien gibt Weis/Steinmetz (1998), S. 18-20.

Allen Unterscheidungen ist gemein, daß sie auf die Funktion der Informationsbereitstellung für Marketing-Entscheidungen abstellen. Das Hauptziel der Marktforschung ist es somit, dem Marketing eine möglichst gute Informationsgrundlage für das jeweilige Entscheidungsproblem zu liefern. Die benötigten Informationen können äußerst vielfältig sein. Beispielsweise können Informationen über Märkte (Volumen, Potential, Zielgruppen, Trends), Wettbewerber (Größe, Traditionen, Produkte, Strategien), Umwelt (Konjunktur, Trends, Prognosen, Meinungen), Kunden (Struktur, Bedürfnisse, Einkommen, Preisreagibilität) oder Lieferanten (Größe, Angebot, Alternativen) benötigt werden.

Bei Feststellung eines bestimmten Informationsbedarfes setzt innerhalb der Marktforschung ein Prozeß zur Generierung der erforderlichen Informationen ein. Dieser sog. Marktforschungsprozeß läßt sich als Phasenschema darstellen:

Abbildung in dieser eseprobe nicht enthalten

Abbildung 2-1: Phasen des Marktforschungsprozesses, Quelle: Böhler (1992), S. 24

Die einzelnen Arbeitsschritte müssen nicht zwangsläufig durchlaufen werden. Vielmehr dient das Ablaufdiagramm einer sinnvollen Orientierung zu Beginn eines Marktforschungsprojektes.[8] Im Rahmen dieser Arbeit wird auf eine detaillierte Darstellung der sieben Arbeitsschritte verzichtet. Eine genaue Erläuterung dieser Phasen findet sich in Böhler (1992) S. 25-238. Die Abbildung dient vielmehr der Einordnung der zweiten Phase in den gesamten Marktforschungsprozeß, da mit dem Internet v.a. ein neues Instrument der Informationsgewinnung für die Marktforschung entstanden ist. Im folgenden Abschnitt werden die traditionellen Informationsquellen und Erhebungsmethoden genauer dargestellt.

2.3 Informationsquellen und Erhebungsmethoden

Bei den Informationsquellen unterscheidet man zwischen den innerbetrieblichen (internen) und den außerbetrieblichen (externen) Quellen. Wichtige interne Quellen sind z.B. Absatzstatistiken, Außendienstberichte und die Kostenrechnung. Als wichtige externe Quellen sind die amtlichen und andere Statistiken, die Marktinformationsdienste sowie die sonstigen Quellen (z.B. Konkurrenzkataloge, Tageszeitung, etc.) zu nennen.

Ein Überblick der traditionellen internen und externen Datenquellen findet sich in Böhler (1992), S. 55-59 und Weis/Steinmetz (1998), S. 65-68. Durch das Internet sind neue Informationsquellen für die Marktforschung entstanden. Als Beispiele können die Besuchsstatistik der eigenen Website oder relevante Informationen von Homepages der Konkurrenz angeführt werden.

Bei den Erhebungsmethoden unterscheidet man zwischen der Sekundär- und der Primärforschung. Kann man auf bereits vorhandenes Datenmaterial zurückgreifen, handelt es sich um Sekundärforschung. Bei der Primärforschung werden dagegen die interessierenden Daten neu erhoben. Häufig spricht man im Hinblick auf den Entstehungsort auch von " desk research" und " field research".[9] Auf diese beiden Arten der Informationsgewinnung soll aufgrund ihrer späteren Bedeutung in dieser Arbeit näher eingegangen werden.

2.3.1 Sekundärforschung

Als Sekundärforschung bezeichnet man den Versuch der Informationsgewinnung aus bereits vorhandenem Datenmaterial. Es handelt sich nach Böhler (1992, S. 55) und Weis/Steinmetz (1998, S. 63) um Daten, die entweder selbst oder von Dritten zu einem früheren Zeitpunkt für eine ähnliche oder vollkommen andere Fragestellung erhoben wurden. Nach Lescher (1995, S. 2-4) müssen die Daten allerdings nicht unbedingt aus einer anderen Primärerhebung stammen, sondern können auch aus anderen Gründen (z.B. Unternehmensdaten in einer Firmenbroschüre) zusammengestellt worden sein. Dieser Sichtweise einer weiteren Definition von Sekundärforschung wird in dieser Arbeit gefolgt. Sekundärforschung ist somit die Informationsgenerierung aus anderen Primärerhebungen, aus Datensammlungen und aus sonstigen Quellen, hier insb. dem Internet. Kurz gesagt bedeutet Sekundärmarktforschung die Nutzung von allen frei zugänglichen Informationsquellen.[10] Diese Sekundärdaten werden hinsichtlich des vorliegenden Marktforschungsproblems aufbereitet, analysiert und interpretiert.[11]

Der Vorteil der Sekundärforschung liegt zum einen in der kostengünstigen und schnellen Beschaffung von relevanten Daten. Zum anderen ist dies u.U. die einzige Möglichkeit der Datenbeschaffung, z.B. bei Bevölkerungsstatistiken und Daten der volkswirtschaftlichen Gesamtrechnung. In Bezug auf nachfolgende Marktforschungsprojekte unterstützen Sekundärdaten zudem die Planung und Durchführung von Primärerhebungen sowie die Interpretation von Primärdaten.[12]

Nachteilig sind die oft geringe Aktualität der Daten und das Problem der meist fehlenden Übereinstimmung mit der aktuellen Fragestellung. Bei gleichzeitiger Verwendung von Sekundärdaten aus verschiedenen Quellen sind unterschiedliche Erhebungseinheiten, Begriffsdefinitionen oder Maßeinheiten zu beachten. Ferner sind die Sekundärquellen sorgfältig auf Ungenauigkeiten, Vorgehensmängel, Irrtümer oder bewußte Verzerrungen zu untersuchen. Bei Nichtangabe der Methodik ist ebenfalls große Vorsicht angebracht.[13]

Im Rahmen der Sekundärforschung spielen in der Praxis sog. standardisierte Marktinformationsdienste eine große Rolle. Man kann grob drei Formen unterscheiden:

Erstens sind hierunter Werbeträgeranalysen für die Werbeplanung zu verstehen, z.B. die Mediaanalyse der "Arbeitsgemeinschaft MA", Infratest-Multi-Mediaanalyse oder die Allensbacher Werbeträgeranalyse. Es werden bestimmte, einheitliche Kontaktmaßzahlen der einzelnen Werbemedien ermittelt, die einen guten Vergleich ermöglichen, z.B. Auflage- und Verbreitungszahlen, Reichweitenwerte und Maße der Zielgruppenerreichung.[14] Zweitens sind sog. Paneldaten zu nennen. Nach Böhler (1992) ist ein Panel "eine über einen längeren Zeitraum gleichbleibende Teilauswahl von Erhebungseinheiten, die in regelmäßigen Abständen zum gleichen Untersuchungsgegenstand befragt bzw. beobachtet wird." Man kann beispielsweise eine ausgewählte Personengruppe (Verbraucherpanel) regelmäßig befragen oder die Absatzentwicklung in vorbestimmten Geschäften kontinuierlich verfolgen (Handelspanel). Die dritte Form von standardisierten Marktinformationen sind die Marktdatenbanken, von denen man benötigte Daten online, per CD-ROM oder via Informationsmakler abrufen kann. Die Datenbanken weisen z.Zt. den größten Zuwachs und die höchsten Zuwachsraten unter den Quellen der Sekundärforschung auf.[15]

Auf die Möglichkeit der Informationsbeschaffung via Online-Datenbanken, die Probleme mit Internet-Mediadaten und die Errichtung eines Internet-Panels wird im späteren Verlauf dieser Arbeit näher eingegangen.[16]

Es wird deutlich, daß es in der Praxis eine Vielzahl von sekundärstatistischen Informationsquellen gibt, deren Einsatz in jedem Einzelfall eine kritische Analyse erfordert. Die Sekundärforschung sollte immer am Anfang eines Marktforschungsprojektes stehen. Erst wenn die Informationen aus der Sekundärforschung für eine Lösung des Marketingproblems nicht ausreichen, sollten durch Primärforschung fehlende Informationen beschafft werden.

2.3.2 Primärforschung

Bei Primärerhebungen werden die für die Lösung des jeweiligen Marktforschungsproblems benötigten Daten neu erhoben. Die beiden dabei verwendeten Methoden sind die Beobachtung und die Befragung.

2.3.2.1 Befragung

Unter dem Begriff "Befragung" werden mehrere Datenerhebungsmethoden zusammengefaßt, deren Gemeinsamkeit darin besteht, daß die Auskunftsperson durch verbale oder andere Stimuli (schriftliche Fragen, Bildvorlagen, Produkte) zu Aussagen über einen Erhebungsgegenstand veranlaßt werden.[17]

Jede in der Praxis vorkommende Befragung läßt sich in Anlehnung an Böhler (1992, S. 77-89) durch die folgenden drei Kriterien beschreiben:

- Kommunikationsform (schriftliche, persönliche, telefonische Befragung, Computerbefragung, Internet-Befragung)
- Standardisierungsgrad (standardisierte, teil- oder nicht-standardisierte Befragung)
- Art der Fragestellung (direkte und indirekte Fragen)

Bei einer schriftlichen Befragung kann der Fragebogen per Post, per Fax oder per E-Mail zugestellt werden. Der Proband muß ihn selbständig ausfüllen und zurücksenden. Die mündliche Befragung kann sowohl persönlich als auch über das Telefon durchgeführt werden. Beide Möglichkeiten können durch den Einsatz eines Computers unterstützt werden (C omputer A ssisted T elephone I nterviewing und C omputer A ssisted P ersonal I nterviewing). Bei dieser sogenannten computerunterstützten Befragung werden die Daten vom Interviewer zeitgleich in den Computer eingegeben. Bei der Computerbefragung bzw. bei der Bildschirmbefragung tätigt der Befragte die Eingaben am Computer selbst.[18] Hier gibt es verschiedene Formen, z.B. Computerbefragung an öffentlich zugänglichen Terminals, Btx-Befra­gung, Disk-by-Mail-Befragung u.a.[19] Die relativ neue Form der Internet-Befra­gun­­g ist zentraler Gegenstand dieser Arbeit und wird ausführlich in Abschnitt 5.1 behandelt.

Die folgende Übersicht faßt die verschiedenen Kommunikationsformen zusammen:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-2: Kommunikationsformen der Befragung, Quelle: eigene Darstellung

Ein hoher Standardisierungsgrad der Befragung bedeutet eine vollständige Vorgabe der Fragen, der Formulierungen und der möglichen Antworten. Die Vorteile sind eine gute Vergleichbarkeit der Antworten und eine höhere Auswertungsschnelligkeit. Nachteilig ist die Einschränkung des möglichen Informationsgehaltes gegenüber einer individuellen Antwort.[20] Dieses Problem vermeidet man durch teil- bzw. nicht-standardisierte Befragungen, z.B. in Form von Tiefeninterviews, denen kein abzuarbeitender Fragebogen zugrunde liegt. Es wird hier eine mehr oder weniger freie Gesprächsführung bei Vorgabe eines Rahmenthemas angestrebt. Allerdings ist diese Befragungsform mit hohen Anforderungen an den Interviewer und mit einem hohem Zeit- und Kostenaufwand verbunden. Nachteilig ist ebenfalls der mögliche Interviewereinfluß auf die Antworten sowie die schlechte Quantifizierbarkeit der Antworten durch die Subjektivität der Antwortinterpretation.[21] Eine Variante der nicht-standardisierten Befragung ist die Gruppendiskussion mit Moderator.

Abschließend hat man noch die Wahl zwischen direkten und indirekten Fragestellungen. Eine direkte Befragung birgt gerade bei heiklen Themen die Gefahr von unwahren Antworten oder von einer Antwortverweigerung. Daher sollte diese Form nur bei feststehenden Tatsachen (z.B. persönliche Daten) gewählt werden. Die indirekte Befragung versucht hingegen, "auf Umwegen" oder mit Antwortspielräumen bestimmte Sachverhalte zu erfragen. Am einfachsten geschieht dies durch "entpersonifizierte" Frageformulierungen (z.B. "man" statt "Sie") oder durch Fragen über das Verhalten Dritter. Sehr häufig werden sog. projektive Tests angewendet, die Antworten begünstigen, die auf anderen Wegen vom Probanden nicht zu erhalten sind. Eine ausführlichere Darstellung dieser Thematik kann hier aus Platzgründen nicht gegeben werden und es wird auf die entsprechende Literatur verwiesen.[22]

2.3.2.2 Beobachtung

"Die Beobachtung ist eine Datenerhebungsmethode, die auf die planmäßige Erfassung sinnlich wahrnehmbarer Tatbestände gerichtet ist, wobei der Beobachter sich gegenüber dem Beobachtungsgegenstand rezeptiv verhält" (Böhler, 1992, S. 92).

Dabei sind grundsätzlich zwei Beobachtungsarten zu unterscheiden:

- teilnehmende Beobachtung
- nicht-teilnehmende Beobachtung

Im ersten Fall weiß der Teilnehmer, daß sein Verhalten beobachtet wird und man muß mit entsprechenden Verzerrungseffekten rechnen. Beim zweiten Fall ist sich der Proband der Beobachtung nicht bewußt, allerdings sind solche Situationen nur mit erhöhten Kosten und Aufwand realisierbar. Die nicht-teilnehmende Beobachtung ist die in der Praxis am häufigsten anzutreffende Form. Eine typische Fragestellung für ein Beobachtungsprojekt wäre die Analyse des Weges, den ein Konsument beim Durchschreiten eines Supermarktes wählt.

Ein Vorteil der Beobachtung gegenüber der Befragung ist die Unabhängigkeit von der Auskunftsbereitschaft und den Verbalisierungsfähigkeiten der Testpersonen. Zudem werden auch unbewußte Sachverhalte und Verhaltenssequenzen erfaßt. Nachteilig ist, daß viele interessante Sachverhalte nicht beobachtbar (z.B. psychische Zustände oder Einstellungen) oder nur schwer zu operationalisieren (soziodemographische Daten) sind. Ein weiterer Nachteil sind die hohen Kosten und die längere Zeitdauer. Ferner sind die Selektivität der Wahrnehmung und die Beschränkung auf relativ einfache Beobachtungssachverhalte problematisch.

Die obigen Ausführungen zu Informationsquellen und Erhebungsmethoden lassen sich zu folgender Grafik zusammenfassen:

Abbildung in dieser eseprobe nicht enthalten

Abbildung 2-3: Informationsquellen und Erhebungsmethoden,

Quelle: eigene Darstellung in Anlehnung an Böhler(1992), S. 54-97

3. Internet

Das Internet, oft auch als "das Netz" bezeichnet, ist internationales Netzwerk von Computern. Wörtlich übersetzt bedeutet der Begriff Internet "zwischen den Netzen" (lateinisch 'inter' = zwischen). Es handelt sich um ein Netz, das mehrere einzelne Netzwerke miteinander verbindet, die unabhängig voneinander arbeiten, aber untereinander Daten austauschen können.

Nach einer kurzen Darstellung der geschichtlichen Entstehung und der Funktionsweise des Internet werden die einzelnen Dienste vorgestellt, die das Internet dem Benutzer zur Verfügung stellt. Ferner wird in diesem Abschnitt auf die Nutzentwicklung und auf die Nutzerstruktur eingegangen.

Da bereits eine Vielzahl von Büchern zum Thema 'Internet' auf dem Markt ist, die sich intensiv mit technischen Aspekten des Internet auseinandersetzen, wird in dieser Arbeit auf eine ausführliche technische Beschreibung verzichtet.[23] Vielmehr wurde Wert auf eine anwendungsorientierte Darstellung gelegt. Im Vordergrund stehen alle relevanten Informationen, die im engeren Zusammenhang mit dem Einsatz des Internet als Instrument der Marktforschung zu sehen sind.

3.1 Geschichte und Funktionsweise des Internet

Die Geburtsstunde des Internet ist auf das Jahr 1969 zu datieren, als ein Computernetzwerk mit dem Namen ARPANET (Advanced Research Projekt Administration Net) ent­wickelt wurde, das ähnlich einem 'Spinnennetz' den Datenaustausch über mehrere alter­native Verbindungen ermöglichte. Der Auftraggeber war das US-Verteidigungs­minis­te­rium, das seinerzeit ein dezentrales Informationssystem anstrebte, welches auch bei Aus­fall einer bestimmten Datenleitung in der Lage war, die zu übermittelnden Informa­tionen über eine andere Verbindung an den gewünschten Zielort zu transportieren. Die Informationen wurden hierfür beim Sender in einzelne Datenpakete gepackt, über durch­aus verschiedene Wege verschickt und erst beim Empfänger wieder zur ursprünglichen Information zusammengesetzt.[24]

Das ARPANET verband zunächst drei Universitäten und ein Forschungsinstitut miteinander. Im Jahr 1970 wurden die Eliteuniversitäten Harvard und MIT an das Netzwerk angeschlossen und 1971 waren bereits mehr als 30 Netzwerkrechner (sog. Knoten) im APRANET vorhanden.[25]

Mit dem Aufkommen anderer Netzwerke und Systeme[26] wurde eine Standardisierung der Datenübertragung notwendig, damit alle Netze miteinander in Verbindung treten konnten. Zu diesem Zweck wurde 1983 das einheitliche Übertragungsprotokoll TCP/IP geschaffen, welches das Packen der Datenpakete, deren Adressierung und reibungslosen Transfer über zahlreiche Knoten und unterschiedliche Computersysteme sicherstellt.[27] Das Transmission Control Protocol (TCP) unterteilt die Daten für den Versand in Pakete und setzt diese dann beim Empfang wieder in der richtigen Reihenfolge zusammen. Fehlende bzw. defekte Datenpakete werden wiederholt angefordert.[28] Das Internet Proto­col (IP) ist für die eindeutige Adressierung dieser Datenpakete zuständig.[29] Durch eine IP-Adresse wird jeder Computer im Internet eindeutig charakterisiert. Eine IP-Adresse besteht aus vier Zahlen zwischen 0 und 255, die durch einen Punkt voneinander getrennt werden. Durch die Zahlenfolge 134.100.33.240 wird die Adresse des Computers mit der Homepage des Rechenzentrums der Universität Hamburg angegeben. Zur leichteren Auffindbarkeit einer Website gibt es die Möglichkeit, anstelle der IP-Adresse einen synonymen Namen (Domain-Name) einzugeben. In unserem Beispiel wäre das www.rrz.uni-hamburg.de. Dieser Domain-Name wird dann von sog. Domain-Name-Servern anhand von gespeicherten Tabellen in die Zahlenkombination der IP-Adresse 'übersetzt'.[30]

Auf der TCP/IP-Technologie basierend, gründete die National Science Foundation im Jahre 1984 das "NSFNet", um die Supercomputer der Universitäten quer durch die Staaten der USA miteinander zu verbinden. Die schnellen, hochleistungsfähigen Datenleitungen des NSFNet wurden später als Internet-Backbones (Hauptverkehrsstrecken) bezeichnet, da sie das Rückgrat des heutigen Internet bilden. Nach und nach schlossen sich immer mehr Regierungs- und Forschungseinrichtungen (NASA, Department of Energy, National Institute of Health) mit ihren eigenen Computernetzwerken dem Internet an. Der Datenaustausch auf diesen Netzwerken entwickelte sich immer rasanter und zunehmend schlossen sich nun auch kommerzielle Unternehmen den Netzwerken an und begannen, von den Vorzügen zu profitieren.

Vor dem Hintergrund dieser Ausführungen läßt sich das Internet als ein Netzwerk von Rechnern definieren, die mittels TCP/IP-Übertragungsprotokoll Daten austauschen können. Das Internet verbindet keine einzelnen Computer, sondern es verbindet die Netzwerke verschiedenster Organisationen, Unternehmen oder Privatpersonen und es ist somit ein Netzwerk von Netzwerken.

Kommunikationsbeziehungen im Internet werden nicht verbindungsorientiert (wie bspw. im Telefonnetz), sondern paketorientiert auf der Basis eines vermaschten Netzwerkes aufgebaut, vergleichbar mit dem Briefdienst der Post.[31] Pakete werden von Knoten zu Knoten des Netzwerkes geschickt und können auf verschiedenen Wegen ihren Empfänger erreichen. Dieser Vorgang (das sog. Routing) wird von Knotenrechnern (sog. Routern) im Netz vorgenommen.

Es lassen sich zentrale und dezentrale Netzwerke unterscheiden. Das Internet selbst ist dezentral aufgebaut, d.h. es gibt keinen zentralen Betreiber. Die Einzelnetzwerke hingegen haben einen zentralen Aufbau, d.h. für jedes Netzwerk gibt es einen Betreiber, der sog. Internet Service Provider bzw. Internet Provider, der sein eigenes Netz pflegt und die Anbindung zu anderen Netzen sicherstellt.[32] Die folgenden Abbildungen verdeutlichen zentrale und dezentrale Netzwerkstrukturen graphisch.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3-1: Zentrales Netzwerk; Quelle: Emery (1996), Seite 138

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3-2: Dezentrales Netzwerk; Quelle: Emery (1996), Seite 138

Der Begriff "Internet" wird vielfach als Synonym für den einzelnen Internet-Dienst "World Wide Web" verwendet. Tatsächlich impliziert das Internet aber eine Reihe von Diensten und stellt somit den Oberbegriff dieser dar. Die Internet-Dienste, die für die Marktforschung von übergeordnetem Interesse sind, sind in den Abschnitten 3.2.1 bis 3.2.3 dargestellt. Neben diesen drei Kategorien existieren weitere Dienste, die für die Marktforschung weniger bedeutungsvoll sind und daher im Abschnitt 3.2.4 nur kurz vorgestellt werden.

3.2 Die Internet-Dienste

Unter dem Begriff "Internet-Dienste" werden die verschiedenen Nutzungsmöglichkeiten zusammengefaßt, die das Internet den Benutzern auf Basis des Grundprotokolls TCP/IP zur Verfügung stellt. Es handelt sich um Softwarewerkzeuge, welche die Nutzung von Informationsressourcen, das Anbieten von Informationen und die Kommunikation mit anderen Nutzern ermöglichen.[33]

An dieser Stelle soll auf die sog. Online-Dienste, wie T-Online, AOL oder CompuServe, hingewiesen werden. Sie werden bislang häufig von Privatnutzern genutzt, um in den Genuß spezieller Zugangstarife und Dienste zu kommen. Zu den Serviceleistungen gehört i.d.R. eine Inhaltsgliederung in wenige Gruppen mit überschaubarem Inhalt, wobei der Schwerpunkt zumeist auf Unterhaltungsaspekte gelegt wird.[34] Beispielsweise gliedert T-Online seine Homepage in die Bereiche Nachrichten, Politik & Umwelt, Finanzen, Computer, Shopping, Reise, Lifestyle, Bildung & Beruf, Fun & Action, Sport und Service.[35] Diese Online-Dienste werden in dieser Arbeit nicht gesondert betrachtet, da sie im wesentlichen nur eine weitere Zugangsmöglichkeit zum Internet darstellen und keinen wesentlichen zusätzlichen Nutzen für die Marktforschung erbringen. Sie sollten allerdings bei der Auswahl des optimalen Internetzuganges hinsichtlich Kosten und Funktionalität berücksichtigt werden.

Zu den wichtigsten und zur Zeit am häufigsten genutzten Internet-Diensten gehören die elektronische Post (E-Mail) und das World Wide Web mit seiner graphischen Benutzeroberfläche und seinen multimedialen Ansätzen. Interessant für die Marktforschung sind ferner die themenbezogenen Kommunikationsdienste.

3.2.1 Das World Wide Web

Dieser Dienst wurde erst 1989 entwickelt und verhalf dem Internet zu der heutigen Popularität. Das World Wide Web, auch WWW oder Web genannt, wurde bei CERN (Conseil Européen pour la Recherche Nucléaire), der europäischen Kernforschungsbehörde, unter der Leitung von Tim Berners Lee entwickelt, um Informationen in Form von Texten und Grafiken kombinieren zu können und diese auf dem internen Netz der CERN allen Mitarbeitern zugänglich zu machen. Bislang konnte mit Hilfe der ASCII-Technik lediglich reiner Text in einer einheitlichen Schriftart, -größe und -format übertragen werden. Jetzt gelang mit der relativ einfachen Programmiersprache HTML (Hypertext Markup Language) die Integration von Grafiken, Audio- oder Videosequenzen.[36] Die HTML-Programmierung ist die Grundlage für die multimedialen Darstellungsmöglichkeiten von Websites im WWW. Diese Technologie löste den eigentlichen Boom des Internet, in Gestalt des WWW, aus.

Das gesamte WWW, wie auch das Internet, basiert auf einer sog. Client-Server-Architektur. Dabei ist der WWW- Server ein Rechner, der mit dem Internet verknüpft ist und der bei einem Zugriff dem Nutzer die ausgewählte Internetseite (Website) darstellt. Der Nutzer befindet sich an einem sog. Client -Rechner und kann den WWW-Server mit Hilfe eines sog. Browsers ansteuern. Jede Website ist mit einer sog. URL-Adresse (s.u.) versehen. Gibt der Client diese Adresse ein, so sorgt der auf dem Client-Rechner installierte Browser dafür, daß die entsprechende, sich auf dem Server befindende Website zum Client-Rechner überspielt wird.

Der Server- und der Client-Rechner werden als Host bezeichnet. Allgemein kann ein Host als ein Rechner eines Netzwerkes beschrieben werden, der zum Zwecke des Datenaustausches mit dem Netzwerk verbunden ist. Ein Host kann von mehreren Nutzern als Internet-Zugang verwendet werden.

Die URL -Adresse ist eine Art "Wegbeschreibung" zu der gesuchten Website (U niform R esource L ocator). Sie impliziert ein Protokoll[37] (meist http), die Server-Anschrift und das Quellenverzeichnis des gesuchten Dokumentes. Ein Beispiel wäre: http://www.heiland-marketing.de/diplomarbeiten/mafo_internet.htm

Hier würde der Zugriff auf das Dokument 'mafo_internet.htm' durch Ansprache des WWW-Servers 'heiland-marketing' in Deutschland (sog. Top-Level-Domain 'de') erfolgen, der das Dokument im Verzeichnis 'diplomarbeiten' bereitstellt.

Der Browser ist ein spezielles WWW-Client-Programm, das durch eine graphische Benutzeroberfläche in hohem Maße bedienerfreundlich gestaltet ist. Es sind keine tieferen Softwarekenntnisse zur Anwendung notwendig, so daß auch Computerunerfahrene die Leistungen des World Wide Web nutzen können. Heute werden in Deutschland vor allem die Browser-Software von Netscape (Navigator) und Microsoft (Internet Explorer) verwendet.

Das zweite herausragende Kennzeichen des WWW, neben der Bildschirmoberfläche, ist die Möglichkeit der logischen Datenanordnung. Die sog. Hypertext -Technik ermöglicht durch einfaches Anklicken von markierten Textteilen oder Grafiken die Herstellung einer Verbindung zu anderen WWW-Dokumenten. Diese sog. Links weisen den Benutzer auf Websites mit (meistens) weiterführenden Informationen hin. Diese Vorgehensweise des Hin- und Herspringens zwischen Dokumenten wird gemeinhin auch als "Surfen" bezeichnet. Das Surfen stellt dabei eine eher unsystematische Suche nach Informationen im World Wide Web dar. Für die gezielte Suche haben sich im WWW sog. Suchmaschinen durchgesetzt. Das sind spezielle Datenbanken, die nach der Eingabe bestimmter Suchkriterien auf jene WWW-Dokumente verweisen, welche die jeweilige Thematik behandeln. Zu den bekanntesten Suchmaschinen zählen "AltaVista", "Fireball" und "Yahoo!".[38]

Oben wurde bereits erwähnt, daß das WWW im großen Maße die große Zunahme der Benutzung des Internet gefördert hat. Diese breite Akzeptanz und Anwendung auch bei technisch weniger versierten Personen läßt sich durch die extreme Benutzerfreundlichkeit, den großen Informationsreichtum und durch die Möglichkeit zum 'Surfen' erklären. Ein vierter Grund und weiterer Vorteil des WWW liegt in der Integration von klassischen Internet-Diensten, die in den folgenden Abschnitten dargestellt werden. Ein WWW-Client kann aufgrund der komfortablen WWW-Browser nicht nur via HTTP-Protokoll mit dem WWW-Server kommunizieren, sondern auch die anderen Internetprotokolle und deren Dateitypen nutzen. Diese Integration anderer Dienste verdeutlicht die folgende Abbildung. Dabei sind die Kommunikationsprotokolle zu den jeweiligen Diensten angegeben.

Abbildung in dieser eseprobe nicht enthalten

Abbildung 3-3: Integration anderer Dienste durch das Internet,

Quelle: Alpar (1998), S. 103

Die große Popularität des WWW hat jedoch auch seine Schattenseiten. Durch die Übertragung von Grafiken, Dateien, Sounds und Programmen wird die Netzkapazität in Spitzenzeiten bis an ihre Grenze belastet. Das Ergebnis sind teilweise extrem lange Übertragungszeiten. Desweiteren wird es durch das gewaltige Informationsangebot zunehmend schwerer, die gesuchten Informationen zwischen den immer größer werdenden Mengen von uninteressanten Informationen herauszufiltern.

3.2.2 E-Mail

Der elektronische Schriftverkehr ist einer der ältesten und zugleich der wohl meistgenutzte Dienst im Internet. Mit Hilfe dieses Dienstes kann jeder Internetnutzer, der über eine eigene E-Mail-Adresse verfügt, Nachrichten an andere Netzteilnehmer versenden.

Der Sender schreibt mit Hilfe eines E-Mail-Programms eine Nachricht und versieht diese mit der E-Mail-Adresse des Empfängers. Diese Adresse enthält die Kennung des Empfängers vor dem sog. Klammeraffen und danach die Rechnerkennung des E-Mail-Providers (sog. Domain), bei dem sich der Empfänger angemeldet hat (ähnlich einem Postfach bei einem Postamt).[39] Ein Beispiel wäre c.sass@t-online.de .

Anhand der Adresse sorgt die E-Mail-Software dann für die Übermittlung der Nachricht auf den angegebenen E-Mail-Rechner. Jeder angemeldete E-Mail-Adressat hat auf seinem E-Mail-Server eine Art elektronisches Postfach, von dem er die eingegangene Post durch Einloggen abrufen kann.

Eine E-Mail besteht aus zwei Teilen:[40]

1. Sog. Header, in dem alle Versandinformationen (Adresse, Betreff, Kopien u.a.) abgespeichert werden.
2. Sog. Body, der die eigentliche Nachricht enthält.

Zusätzlich kann man heute mit den meisten Mail-Programmen auch Dateien, wie z.B. Bilder, Programme oder Sounds an eine E-Mail anhängen und versenden (sog. Attachment). Die Möglichkeit der problemlosen Versendung von Attachments besteht durch die Entwicklung des Multi-purpose Internet Mail Extensions (MIME)-Standards.[41] Die Attachments müssen unter Benutzung anderer Programme angesehen bzw. abgespielt werden.

Die größten Vorteile der "electronic mail" liegen in der Kostengünstigkeit und der Schnelligkeit der Zustellung. Bei der Übermittlung der E-Mail fallen lediglich die Telefongebühren zum Internet-Einwahlknoten an, der in der Regel innerorts liegt. Die Übertragung dauert je nach Größe der E-Mail und der Netzauslastung zwischen wenigen Sekunden und einigen Minuten. Ein weiterer Vorteil ist, daß eine ständige Empfangsbereitschaft und eine direkte Antwortmöglichkeit auf die elektronische Nachricht besteht.[42] Nachteilig ist, daß die Nachricht nur im ASCII-Code (American Standard Code of Information Interchange) geschrieben werden kann, was nur sehr eingeschränkte Gestaltungsmöglichkeiten im Textbereich bedeutet.

Die zum Verfassen einer E-Mail notwendige Software wird zumeist vom Internet-Provider (T-Online, AOL, Compuserve u.a.) mitgeliefert. Bei häufigem Gebrauch lohnt es sich, auf komfortablere E-Mail-Software umzusteigen. Verbreitete Programme (z.B. Eudora, Pegasus Mail) lassen sich zudem kostenfrei mittels "FTP" aus dem Internet downloaden.[43]

3.2.3 Themenbezogene Kommunikationsdienste

Der Oberbegriff zu diesem Abschnitt kann nicht ganz eindeutig gewählt werden, weil die vorgestellten Dienste relativ heterogen sind. Ein gemeinsames Kriterium dieser Dienste ist die Möglichkeit zur Themenauswahl. Die folgenden Dienste lassen sich in zeitversetzte Diskussions- bzw. Informationsgruppen und zeitgleiche Kommunikationsgruppen einteilen.

Die sog. Mailing-Listen bieten die Möglichkeit, sich zu ausgewählten Themen informieren zu lassen. Nach dem Eintrag in eine Mailing-Liste zu einem bestimmten Thema erhält man zukünftig via E-Mail alle entsprechenden Beiträge zugesandt.[44] Sog. Listserver übernehmen die Benutzerverwaltung sowie die Archivierung und weltweite Verteilung von Meldungen und Kommentaren per E-Mail.[45] Es steht jedem Nutzer frei, selber Beiträge zu verfassen, die wiederum an alle anderen Mitglieder der Liste verschickt werden. Als Beispiel für eine Mailing-Liste sei die German Online Research List (GIR-L) genannt, die sich mit der Thematik 'Umfragen im Internet' beschäftigt.[46] Ein Verzeichnis von Mailing-Listen befindet sich unter http://www.lisz.com. Nachteilig ist, daß i.d.R. keine vorherige Sichtung und Lenkung der Beiträge und Informationen erfolgt. Wenn allerdings ein Unternehmen einen Listserver bzw. eine Mailing-Liste betreibt, kann eine individuelle Selektion und Moderation der Beiträge durchgeführt werden.[47]

Bei den sog. Newsgroups, die auch NetNews, Usenet-Newsgroups oder einfach News genannt werden, handelt es sich ebenfalls um zeitversetzte Diskussionsforen, die sich jeweils mit einem bestimmten Thema beschäftigen. Dem Benutzer bleibt es freigestellt, ob er aktiv oder passiv an der Diskussion teilnehmen will. Anders als beim Listserver muß sich der Teilnehmer aber nicht anmelden. Ferner erhält er die Beiträge nicht automatisch, sondern muß sie aktiv von einem Newsserver abrufen. Die Themen der Newsgroups sind hierarchisch in Haupt- und Subthemen gegliedert.[48] Ein Großteil der Newsgroups beschäftigt sich mit Hard- und Softwareproblemen, so daß sie ein gutes Feedback-Forum für dort engagierte Unternehmen sind. In den meisten Newsgroups gibt es eine sogenannte FAQ-Datei (Frequently Asked Questions). Diese Dateien beinhalten eine Sammlung der häufigsten Fragen und zugehörigen Antworten, die in der jeweiligen Gruppe gestellt wurden. Bevor ein Benutzer eine Frage an eine Newsgroup stellt, soll dieser die Möglichkeit haben, die häufigsten Fragen vorab in der FAQ-Datei zu lesen, damit die regelmäßigen Leser einer Gruppe nicht immer wieder mit den gleichen Fragen konfrontiert werden. Ein Verzeichnis von Newsgroups findet man unter http://www.dejanews.com.

Während bislang zeitversetzte Dienste dargestellt wurden, widmet sich die Arbeit jetzt der zeitgleichen Kommunikation im Internet. Es lassen sich die klassische textuelle Kommunikation (IRC) und neuere Dienste mit Audio- oder Video-Systemen unterscheiden.

Der Internet-Relay-Chat (IRC) ist ein System, über das zwei oder mehrere Personen nahezu in Echtzeit kommunizieren können. Die Nachrichten werden in geschriebener Form übermittelt. Das sog. Chatten (engl. Plaudern) findet häufig in virtuellen Häusern statt, wo es unterschiedliche Räume mit bestimmten Themen (sog. "Channels") gibt, in denen sich Gleichgesinnte unterhalten können. Es besteht die Möglichkeit zur Moderation von Gesprächen, zum Ausschluß bestimmter Teilnehmer und zum Führen privater (für andere nicht sichtbarer) Gespräche.[49]

Die neueren Dienste sollen hier nur kurz vorgestellt werden, weil eine sinnvolle Nutzung für die Marktforschung z.Zt. aufgrund fehlender technischer Verbreitung oder fehlenden wissenschaftlichen Erfahrungen noch nicht sinnvoll erscheint.[50] Internet Phone und Internet Video ermöglichen die Durchführung einer Videokonferenz auf zwei und mehreren Rechnern, wenn die entsprechenden Hardwarevoraussetzungen (u.a. Kamera, Mikrofon) gegeben sind. Dabei kann man mit zwei oder mehreren Personen, die an entfernten Rechnern sitzen, sprechen und kann sich dabei gegenseitig sehen.

Eine andere Variante der zeitgleichen Kommunikation sind virtuelle Realitäten, bei denen die eigene Person in eine künstliche, dreidimensionale Wirklichkeit projiziert wird. So können reale Szenarien nachgebildet oder neue Szenarien geschaffen werden. Z.B. ist Alphaworld (http://www.activeworlds.com) eine künstliche Stadt mit rund 110.000 virtuellen Einwohnern.[51]

3.2.4 Sonstige Dienste: FTP, Telnet, Gopher, WAIS

FTP (File Transfer Protocol) ist ein Verfahren zum Dateitransfer im Internet und zumeist in den gängigen WWW-Browsern integriert. Auf FTP-Servern stehen zahllose Dateien zum Download bereit z.B. Anwendungsprogramme, Texte, Sounds, Treiber-Software, Spiele oder Betriebssysteme. Das Kontaktieren der FTP-Server ähnelt dem Aufrufen von Websites im WWW. In der Eingabezeile des Browsers wird der URL des FTP-Servers eingegeben. Dabei beginnt der URL anstelle mit 'http://www.' in der Regel mit 'ftp://ftp.'. Um die Adresse des FTP-Servers zu erfahren, der die gesuchte Software enthält, lassen sich spezielle Suchmaschinen (sog. Archies) befragen. Im Internet gibt es eine Vielzahl verschiedener Archie-Server, die aber alle auf den gleichen internationalen Datenbestand zurückgreifen.

Telnet ist der älteste aller Internet-Dienste und ermöglicht einen interaktiven Zugriff auf einen physisch entfernten Rechner. Es ist somit möglich, einen entfernten Rechner mit seiner eigenen Tastatur zu bedienen und somit dessen Rechenleistung zu nutzen. Heute wird dieser Dienst häufig aus einem WWW-Browser über einen URL aufgerufen und verschafft Zugang zu unzähligen elektronischen Bibliothekskatalogen und Datenbanken.[52]

Gopher stellt ein menü-orientiertes Navigationssystem im Internet dar, mit dessen Hilfe man Informationen von Gopher-Servern recherchieren und abrufen kann.[53] Der Vorteil liegt in einer hohen Bedienerfreundlichkeit und in einer hohen Leistungsfähigkeit bei äußerst geringen Hardware-Anforderungen. Der große Nachteil dieses Systems gegenüber dem World Wide Web ist die mangelnde Multimediafähigkeit und insbesondere die nur geringe Verbreitung.

WAIS (Wide Area Information Server) ist ein System, das die weltweite Volltextsuche in Datenbanken ermöglicht.[54] Volltextsuche heißt, daß die Dokumente vollständig nach einem Suchbegriff durchsucht werden. Es stehen z.Zt. über 500 WAIS-Server zur Verfügung mit einer extrem weit gefächerten Informationspalette. Die fortschreitende Integration von WAIS-Abfragen in andere Internet-Dienste (insb. WWW) mindert die Bedeutung eigenständiger WAIS-Programme immer weiter.[55]

An dieser Stelle soll auf eine interessante Unterscheidung nach altem und neuem Internet hingewiesen werden.[56] Die älteren Dienste wie FTP, Telnet, Gopher, WAIS waren bzw. sind UNIX-basierte Internet-Dienste.[57] Das UNIX-Betriebssystem des alten Internet hat eine rein textbasierte Benutzeroberfläche mit einer Vielzahl von einzugebenden Syntax-Befehlen. Für die Benutzung dieser Dienste sind tiefergehende technische Kenntnisse notwendig.[58] Das neue Internet wird durch das multimediale World Wide Web repräsentiert. Web-Browser mit graphischen Oberflächen machen ein höchst komfortables Navigieren bei geringsten technischen Kenntnissen möglich. Durch die zunehmende Integration der älteren Internet-Dienste in das WWW, wird die eigenständige Bedeutung dieser Dienste auch für Zwecke der Marktforschung immer weiter abnehmen. Aus diesem Grunde ist der Schwerpunkt dieser Arbeit auch auf das neue Internet als Marktforschungsinstrument gelegt worden.

3.3 Die Nutzer des Internet

Ausgelöst durch die HTML-Technologie, weist das neue Internet seit 1993 ein imposantes Wachstum auf. Der Internet Domain Survey (Network Wizards) schätzt die Anzahl der permanent an das Internet angeschlossenen Hostrechner weltweit auf über 40 Millionen (Stand 11.01.99).[59] Die folgende Abbildung 3-1 verdeutlicht das dynamische Wachstum und den derzeitigen Entwicklungsstand graphisch[60]:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3-4: Anzahl der an das Internet angeschlossenen Hostrechner; Quelle: Network Wizards, http://www.nw.com/zone/WWW/report.html(Zugriff 11.01.99)

In Deutschland sind es laut dem Deutschen Network Information Center (DE-NIC) ca. 1,45 Mio. Hostrechner. (Stand: 11.01.99).[61]

Die genaue Anzahl der Internet-Benutzer kann aufgrund der dezentralen Struktur und der dynamischen Entwicklung des Internet nicht ermittelt werden. Es bleibt nur die Möglichkeit, Hochrechnungen auf Basis der Hostzahl anzustellen. Hierbei handelt es sich um sehr grobe Schätzungen, da nicht eindeutig geklärt ist, wieviele Teilnehmer einem Host zuzuordnen sind.[62] Unterschiedliche Untersuchungen gehen von Faktoren zwischen 3 und 10 aus.[63] Wenn man von z.Zt. 40 Mio. Host ausgeht, lassen sich je nach Faktor zwischen 120 Mio. und 400 Mio. Nutzer ermitteln. Die Ergebnisse direkter Befragungen außerhalb des Netzes lassen einen Multiplikationsfaktor von 3 realistisch erscheinen.[64] Das würde bedeuten, daß heute weltweit ca. 120 Mio. Menschen einen Internet-Zugang haben. In Deutschland haben 7,3 Mio. Menschen einen Internet-Zugang (Stand Sept. 98).[65] Das entspricht bei Berücksichtigung der Hostzahl von DE-NIC einem Multiplikationsfaktor von ca. 5. Es muß bei diesen Zahlen zusätzlich berücksichtigt werden, daß nicht jeder, der einen Internet-Zugang hat, diesen auch wirklich nutzt. Es wird deutlich, daß die Ermittlung der Anzahl der Internetnutzer mit erheblichen Problemen verbunden ist.

Neben der Nutzerzahl ist die Nutzerstruktur von besonderem Interesse. Hierunter sind die soziodemographischen Eigenschaften, die Nutzungsgewohnheiten und -motive der Internetbenutzer zu verstehen. Beispielsweise weiß man, daß die Nutzung der einzelnen Dienste sehr stark differiert.[66] Um dieses Wissen um den "Internetler" zu fundieren, werden Erhebungen durchgeführt, die sich in internetexterne und internetinterne Untersuchungen unterscheiden lassen.

Die internetexternen Befragungen sind an die Gesamtbevölkerung gerichtet und werden mit den klassischen Marktforschungsinstrumenten durchgeführt. Für Nordamerika sei die Umfrageserie der Nielsen Media Research angeführt, die seit August 1995 per Telefon durchgeführt wird.[67] Es wurde bspw. ermittelt, daß 25,56% der Gesamtbevölkerung ab 16 Jahren Internetnutzer bzw. 21,15% WWW-Benutzer waren. Zudem waren 42% der Internetnutzer weiblich und 39% waren leitende Angestellte bzw. gut bezahlte Fachkräfte. 4,4 % der Gesamtbevölkerung ab 16 Jahren hat schon einmal einen Kauf über das Internet getätigt.[68] Für Deutschland gibt es eine vergleichbare Untersuchung der GfK (Gesellschaft für Konsumgüter-, Markt- und Absatzforschung, Nürnberg) mit Namen "GfK-Online-Monitor", in dessen Rahmen ca. 10.000 Bundesbürger zwischen 14 und 59 Jahren regelmäßig telefonisch befragt werden. Zu nennen ist außerdem die Academic-Data-Studie.[69] Nach diesen Untersuchungen sind 12% der betrachteten deutschen Gesamtbevölkerung Internetnutzer, von denen wiederum 30% Frauen sind. 22% der Online-Nutzer hatten ein Einkommen von über DM 6.000,-. Das Durch­schnitts­alter beträgt 36 Jahre. Bei den Nutzungsgewohnheiten ergaben sich ebenfalls interessante Unterschiede (Tendenziell surfen Männer, wogegen Frauen eher gezielt bestimmte Webseiten abrufen).[70] Problematisch bei diesen beiden und anderen Untersuchungen sind die unterschiedlichen Begriffsdefinitionen (z.B. was ist ein Internetnutzer ?) und variierende Grundgesamtheiten (z.B. welche Altersbegrenzung wird benutzt ?), die einen Vergleich von verschiedenen Studien äußerst problematisch machen.[71]

Die internetinternen Befragungen leiden unter mangelnder Repräsentativität aufgrund der Selbstauswahl der Teilnehmer.[72] Für Nordamerika soll die regelmäßige Untersuchung des Graphic, Visualization and Usability Center (GVU) angeführt werden, die als Trends ein Angleichen des Verhältnisses von Frauen und Männern sowie ein Absinken des Durchschnittsalters der Internetnutzer erkennen lassen. Das Internet wird zudem stark zur Informationsbeschaffung genutzt und zunehmende Käufe sind mit der Etablierung von sicheren Transaktionen beabsichtigt.[73] In Deutschland sind die Umfragewellen von W3B zu nennen. Die neueste W3B-Umfrage ergab bspw. mit 17,2% Frauenanteil und auffällig geringerem Durchschnittsalter Werte, die deutlich unterhalb des GfK-Wertes liegen.[74] Ein Erklärungsansatz dieser Differenz kann die Selbstauswahl der Teilnahme in Verbindung mit den unterschiedlichen Nutzungsgewohnheiten der Geschlechter sein. Dieser Problemkreis ist der Hauptkritikpunkt an netzinternen Befragungen und wird ausführlich in Abschnitt 5 untersucht. Hierbei wird deutlich werden, daß internetinterne Befragungen nur sehr eingeschränkt für repräsentative Erhebungen nutzbar sind. Eine gute Übersicht über deutsche Benutzerumfragen im Internet findet man auf der Website des Fachbereichs Psychologie der Universität Gießen.[75]

Zusammenfassend läßt sich sagen, daß sich die Charakteristik und die Anzahl der Internet-Bevölkerung schnell und fortwährend ändert. Aussagen zur Nutzerstruktur und -an­zahl können daher, wenn überhaupt, nur eine sehr kurze Gültigkeit haben. Aufgrund der hohen Dynamik des Internet können in kürzester Zeit sehr grundlegende Veränderungen stattfinden, die in anderen Bereichen mehrere Jahre brauchen.[76] Es ist zu erwarten, daß das Internet von immer breiteren Bevölkerungsschichten benutzt wird.

Es ist zu beachten, daß das Internet einerseits Untersuchungsgegenstand der Marktforschung ist, wie die obigen Ausführungen zeigen. Andererseits ist das Internet ein neues interessantes Erhebungsinstrument für die Marktforschung, wie die folgenden Abschnitte zeigen werden.

[...]


[1] Vgl. GfK Online Monitor (1998), URL.

[2] Vgl. Leach (1997), S. 186.

[3] Ein globale Betrachtung scheint nicht geeignet, da sich der deutsche Internet-Markt deutlich vom amerikanischen hinsichtlich Größe, Marktstadium und Nutzerstruktur unterscheidet. Vgl. Fittkau/Maass (1997), S. 12.

[4] Eine kurze Einführung zu den Problemen der Fragestellung und der Standardisierung gibt Abschnitt 2.3.2.1. Bei einem weitergehenden Interesse siehe u.a. Weis/Steinmetz (1998), S. 86-103 oder Böhler (1992), S. 89-93.

[5] Vgl. Hammann/Erichson (1978), S. 24 und Weis/Steinmetz (1998), S. 16.

[6] Vgl. Meffert (1991), S. 177.

[7] Erstere konzentriert sich auf die Erforschung ökonomischer Größen wie Marktanteile, Preise oder Umsätze. Die demoskopische Marktforschung widmet sich hingegen der Erforschung der äußeren (z.B. soziodemographischen) und inneren (z.B. psychischen) Merkmale von Marktteilnehmern.

[8] Vgl. Böhler (1992), S. 23-25.

[9] Vgl. Nieschlag, Dichtl, Hörschgen (1991), S. 636.

[10] Frei zugänglich bedeutet in diesem Zusammenhang nicht unbedingt kostenfrei!

[11] Vgl. Böhler (1992), S. 55.

[12] Vgl. Böhler (1992), S. 55.

[13] Vgl. Böhler (1992), S. 55f.

[14] Vgl. Schweiger/Schrattenegger (1995), S. 234ff.

[15] Vgl. Kamenz (1997), S. 65.

[16] Vgl. Abschnitt 4.2.

[17] Vgl. Böhler (1992), S. 77.

[18] Vgl. Böhler (1992), S. 83.

[19] Für weitere Information siehe Weis/Steinmetz (1998), S. 82-84.

[20] Vgl. Böhler (1992), S. 78-80.

[21] Vgl. Böhler (1992), S. 78-80.

[22] Siehe Böhler (1992), S. 80f; Hess (1968), S. 194f.; Kassarjian (1974), S. 3-86.

[23] Siehe statt dessen z.B. Alpar (1998), Kalmring (1996), Boni (1996), Krol (1995).

[24] Vgl. Hoffmann (1998), S 15-16.

[25] Vgl. Kyas (1994), S. 32.

[26] Neben dem APRANET entstanden bspw. das Ethernet, das Paketfunknetz oder das Satellitennetz, die mit anderen Übertragungsprotokollen arbeiteten. Vgl. Kyas (1994), S. 32-33.

[27] D.h. dieses Protokoll kann ohne Modifikation von UNIX-, Macintosh- oder Windows-Systemen verstanden werden.

[28] Vgl. Krol (1995), S. 30.

[29] Vgl. Krol (1995), S. 28.

[30] Vgl. Alpar (1998), S. 29-30.

[31] Vgl. Krol (1995), S. 26.

[32] Vgl. Grenz (1996), S. 328-329.

[33] Vgl. Hansen (1996b), S. 384.

[34] Vgl. Grenz (1996), S. 329.

[35] Vgl. Homepage von T-Online unter http://www.t-online.de (Zugriff: 06.01.99).

[36] Vgl. Grenz (1996), S. 328-329.

[37] Ein Protokoll (z.B. http, ftp, telnet, u.a.) zeigt an, in welcher Sprache die Kommunikation mit dem Server stattfinden soll.

[38] Vgl. ausführlich Abschnitt 4.1.2.

[39] Vgl. Alpar (1998), S. 57-59.

[40] Vgl. Alpar (1998), S. 57-58.

[41] Vgl. Alpar (1998), S. 59-60.

[42] Vgl. Hansen (1996a), S. 55.

[43] Zum Dateitransfer mittels FTP vgl. Abschnitt 3.2.5.

[44] Zu den Anmeldebefehlen vgl. Alpar (1998), S. 66-71.

[45] Vgl. Alpar (1998), S. 66.

[46] Das Archiv dieser Mailing-Liste befindet sich unter http://infosoc.uni-koeln.de/archives/gir-l/.

[47] Vgl. Alpar (1998), S. 71-73.

[48] Vgl. Alpar (1998), S. 74-75.

[49] Vgl. Alpar (1998), S. 89-91.

[50] Bei weitergehendem Interesse siehe z.B. Alpar (1998), S. 89-97.

[51] Vgl. Alpar (1998), S. 95-97.

[52] Vgl. Hansen (1996b), S. 392.

[53] Vgl. Hansen (1996b), S. 392.

[54] Vgl. Alpar (1998), S. 125.

[55] Vgl. Alpar (1998), S. 125.

[56] Vgl. Lescher (1995), S. 167-177.

[57] UNIX ist ein weitverbreitetes Betriebssystem, das es erstmals ermöglichte, mehrere PC an eine Computereinheit (sog. Workstation) anzubinden. Die einzelnen PC können unabhängig voneinander arbeiten und untereinander Daten austauschen. Bspw. kann so auch ein gemeinsamer Internet-Zugang geschaffen werden, der von vielen Anwendern genutzt wird. Vgl. Kyas (1994), S. 34-35.

[58] Vgl. Lescher (1995), S. 167.

[59] Vgl. Network Wizards (1998), URL. Da die Zahlen von Jan. 99 am 11.1.99 noch nicht vorlagen, wurde vom Autor durch einfache Trendextrapolation eine Hostzahl von über 40 Millionen per Jan. 99 geschätzt.

[60] Es muß angemerkt werden, daß das Zählverfahren im Januar 1998 geändert wurde (New). Die Zahlen von Jan-95 bis Jul-97 wurden entsprechend dem neuen Verfahren zurückgerechnet (Adjusted).

[61] Vgl. DE-NIC (1998), URL.

[62] Ein Host kann Netzwerke unterschiedlichster Größe, einen einzelnen User oder auch "dead-ends" repräsentieren. Zudem wurden diverse Hostadressen für einen erst späteren Gebrauch registriert. Vgl. auch Breiter (1997), S. 137.

[63] Vgl. Alpar (1998), S. 22.

[64] Vgl. Alpar (1998), S. 48.

[65] Vgl. GfK Online Monitor (1998), URL.

[66] Bspw. gebrauchen einige Anwender ihren Internet-Anschluß hauptsächlich für ihren privaten und geschäftlichen Schriftverkehr via E-Mail; andere User wiederum nutzen das Internet hauptsächlich zum Surfen im WWW. Vgl. auch Breiter (1997), S. 137.

[67] Siehe URL: http://www.nielsenmedia.com/interactive/commercenet (Zugriff: 6.1.99) oder http://www.commerce.net/research/stats/stats.html (Zugriff: 6.1.99).

[68] Vgl. Alpar (1998), S. 47-48.

[69] Vgl. Batinic (1998), URL und siehe http://www.academic-data.de/.

[70] Vgl. Batinic (1998), URL.

[71] Vgl. Alpar (1998), S. 47-50.

[72] Dieser Problemkreis wird in Abschnitt 5.3 ausführlich behandelt.

[73] Vgl. Alpar (1998), S. 51.

[74] Vgl. W3B (1998), URL.

[75] URL: http://www.psychol.uni-giessen.de/~Batinic/survey/fra_andr.htm (Zugriff: 27.12.98)

[76] Vgl. Schnurpfeil (1996), S. 23.

Final del extracto de 125 páginas

Detalles

Título
Das Internet als Instrument der Marktforschung
Universidad
University of Hamburg
Calificación
1
Autor
Año
1999
Páginas
125
No. de catálogo
V185356
ISBN (Ebook)
9783656999898
ISBN (Libro)
9783867462860
Tamaño de fichero
1247 KB
Idioma
Alemán
Palabras clave
internet, instrument, marktforschung
Citar trabajo
Christian Sass (Autor), 1999, Das Internet als Instrument der Marktforschung, Múnich, GRIN Verlag, https://www.grin.com/document/185356

Comentarios

  • No hay comentarios todavía.
Leer eBook
Título: Das Internet als Instrument der Marktforschung



Cargar textos

Sus trabajos académicos / tesis:

- Publicación como eBook y libro impreso
- Honorarios altos para las ventas
- Totalmente gratuito y con ISBN
- Le llevará solo 5 minutos
- Cada trabajo encuentra lectores

Así es como funciona