Das Internet scheint ein schier unendlicher Berg an Informationen zu sein. Ähnlich wie bei einem Micro- oder Macrocosmos lässt es sich ungemein schwer vorstellen geschweige denn beschreiben wie groß das Internet inzwischen tatsächlich ist, da es durch seine Form aus Bits und Bytes gleichermaßen unvorstellbar erscheint. Trotz seiner noch jungen Entstehungsgeschichte hat es bereits ein gigantisches Ausmaß erreicht. Ein paar Zahlen sollen an dieser Stelle näheren Aufschluss über die Größe der „Subkultur“ Internet geben.
Im Jahr 2000 gab es nach Schätzungen 407 Millionen Internetnutzer, davon 167,12 Millionen in den USA, in Europa waren es 113,14 Millionen und im gesamten asiatisch/pazifischen Raum 104,88 Millionen. Afrika bildet dabei mit 3,11 Millionen trauriges Schlusslicht. Zum Vergleich gab es im Jahr 2002, also nur zwei Jahre später, mit 840 Millionen schon knapp doppelt so viele Internetnutzer wie im Jahr 2000. Jeder dieser Benutzer ist dazu berechtigt selber am Internet mitzuarbeiten und Inhalte über eine persönliche Internetseite zur Verfügung zu stellen. Zudem gibt es keine klaren Kontrollstrukturen, die das Internet und dessen Qualität überwachen. Schnell wird klar, dass das Internet „[..] die letzte große Anarchie [ist], die durch organisiertes Chaos geprägt wird“. Das Internet organisiert sich selbstständig und wächst scheinbar unaufhaltsam weiter. Die Frage die sich dabei stellt ist, wie man dieser Lage Herr wird und aus den Unmengen an Informationen einen Mehrwert herausarbeitet. Aus der Not diese „Datenmasse“ Internet erfassen zu können entwickelte sich die Technik des Web-Minings, welche an sich nicht wirklich neu ist. Als Teilgebiet des Data-Minings dient diese Technik dazu Informationen zu sammeln, ihnen eine Struktur zu geben und daraus die wesentlichen Punkte herauszuarbeiten. Das Web-Mining gliedert sich in drei Teilgebiete, dem Web-Content-Mining, dem Web-Structure-Mining und dem Web-Usage-Mining. In erster Linie widmet sich diese Praxisarbeit dem Web-Usage-Mining, wobei sich jedoch die anderen Teilgebiete nie gänzlich ausschließen lassen. In dieser Arbeit soll geklärt werden wie sich die Internetnutzer auf einer Internetseite verhalten. Dabei werden etwa Fragen wie „Welche Kategorien surft der Nutzer ab?“ oder „Von welchen Seiten kommt der Benutzer?“ beantwortet. [...]
Inhaltsverzeichnis
1 Einleitung
2 Rechtsfragen zu Datenschutz und Anonymität
3 Techniken zur Erhebung relevanter Daten
4 Software zur Datenerhebung und -analyse
5 Auswertung des Benutzerverhaltens
6 Anwendungsmöglichkeiten und Umsetzung von Ergebnissen
7 Schlussbetrachtung
Zielsetzung & Themen
Die Arbeit untersucht das Potenzial von Web-Usage-Mining und User-Tracking, um das Verhalten von Internetnutzern zu analysieren, die Benutzerführung zu optimieren und E-Shop-Betreibern durch individualisierte Inhalte Wettbewerbsvorteile zu verschaffen.
- Grundlagen des Web-Usage-Minings und Abgrenzung zum User-Tracking
- Rechtliche Rahmenbedingungen (Datenschutz und Anonymität) bei der Datenanalyse
- Technische Verfahren der Datenerhebung (Logfiles, Sessions, Cookies)
- Analyse-Methoden und Software-Lösungen zur Verhaltensbeobachtung
- Praxisbeispiele zur Personalisierung und Optimierung von Online-Shops
Auszug aus dem Buch
Der Cookie
Der Cookie (dt. Keks) funktioniert ganz ähnlich zu den Sessions, bietet allerdings noch entscheidende Erweiterungen. Der Cookie ist nichts anderes als ein kleines Dokument mit einer maximalen Dateigröße von 4 KByte. Diese Datei bietet serverseitigen Verbindungen die Möglichkeit Informationen clientseitig, also beim Internetnutzer lokal auf dem Rechner, abzuspeichern. Wenn ein Server auf Grund einer Anfrage des Nutzers ein HTML-Dokument zurücksendet hat er die Gelegenheit ein zusätzliches Informationsstück zu übermitteln, welches den Browser des Nutzers veranlasst einen solchen Cookie anzulegen. Ab jetzt wird jeder weiteren Anfrage, die der Browser des Internetnutzers an den gleichen Server sendet, dieser Cookie beigefügt.
Der Betreiber des Servers und der darauf gespeicherten Internetseite hat jetzt die Möglichkeit jede erdenkliche Information in dieser kleinen Datei abzuspeichern, um sie somit auf Dauer abrufbar zu machen. Die Anwendung ist vielfältig. So lässt sich über einen Cookie der Benutzer jederzeit eindeutig identifizieren. Dadurch das es dauerhaft auf dem Rechner des Nutzers hinterlegt ist können auch Rückschlüsse darauf gezogen werden, in welchen zeitlichen Abständen der Nutzer die Internetseite aufsucht. Desweiteren könnte in einem Cookie gespeichert werden, wie oft der Nutzer die Seite schon aufgerufen hat. Jedoch ist es nicht ganz unproblematisch derartige Informationen im Cookie zu sichern. Zumindest sollten sie noch separat (etwa in einer Datenbank) abgespeichert werden, da Cookies vom Benutzer gelöscht oder vollständig geblockt werden können.
Zusammenfassung der Kapitel
1 Einleitung: Einführung in das Thema Web-Mining mit Fokus auf die Relevanz des Benutzerverhaltens im Internet und die Zielsetzung der Arbeit.
2 Rechtsfragen zu Datenschutz und Anonymität: Erörterung der rechtlichen Rahmenbedingungen unter Berücksichtigung des Bundesdatenschutzgesetzes beim Sammeln von Nutzerdaten.
3 Techniken zur Erhebung relevanter Daten: Darstellung technischer Grundlagen zur Datenerfassung wie Logfiles, Session-IDs und Cookies.
4 Software zur Datenerhebung und -analyse: Vorstellung verschiedener Software-Lösungen für Web-Usage-Mining und User-Tracking wie NetMind und ClickTracks.
5 Auswertung des Benutzerverhaltens: Analyse des linearen Prozesses, den ein Nutzer auf einer Webseite durchläuft, inklusive der Identifikation von Herkunftsquellen.
6 Anwendungsmöglichkeiten und Umsetzung von Ergebnissen: Untersuchung praktischer Einsatzszenarien für User-Tracking, beispielhaft dargestellt am Online-Händler Amazon.
7 Schlussbetrachtung: Zusammenfassendes Fazit über die Bedeutung von Web-Usage-Mining als Instrument zur Qualitätssicherung und Kundenbindung.
Schlüsselwörter
Web-Usage-Mining, User-Tracking, Datenschutz, Logfile, Session, Cookie, E-Commerce, Personalisierung, Benutzerführung, Datenanalyse, Web-Mining, Internetnutzer, Online-Shop, Amazon, Web-Entry-Factor
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit beschäftigt sich mit den Methoden des Web-Usage-Minings und wie diese genutzt werden können, um das Verhalten von Internetnutzern auf Webseiten besser zu verstehen und zu analysieren.
Was sind die zentralen Themenfelder der Analyse?
Im Zentrum stehen die technische Datenerhebung (Logfiles, Cookies), die rechtlichen Aspekte des Datenschutzes sowie die praktische Anwendung von Tracking-Software zur Optimierung der Benutzerführung.
Was ist das primäre Ziel der Untersuchung?
Das Ziel ist es aufzuzeigen, wie E-Shop-Betreiber durch das Wissen über das Nutzerverhalten ihre Webseiten verbessern und dem Kunden ein personalisiertes, komfortableres Einkaufserlebnis bieten können.
Welche wissenschaftliche Methode wird verwendet?
Es handelt sich um eine praxisorientierte Analyse, die technische Verfahren des Data-Minings mit rechtlichen Fragestellungen verknüpft und durch aktuelle Marktbeispiele wie Amazon illustriert.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil gliedert sich in technische Grundlagen der Datenerhebung, die Vorstellung spezieller Analyse-Software und die konkrete Auswertung des Benutzerverhaltens in E-Shop-Umgebungen.
Welche Schlüsselwörter charakterisieren die Arbeit am besten?
Die wichtigsten Schlagworte sind Web-Usage-Mining, User-Tracking, Datenschutz, E-Commerce, Logfile-Analyse und Personalisierung.
Warum ist das Thema Datenschutz laut Autor bei der Logfile-Analyse relevant?
Da Logfiles personenbezogene Informationen enthalten können, müssen Betreiber sicherstellen, dass diese Daten nicht unzulässig mit individuellen Identitäten verknüpft werden, um das Persönlichkeitsrecht der Nutzer zu schützen.
Wie unterscheidet sich die Software NetMind von ClickTracks?
NetMind zielt auf eine umfassende Personalisierung („Closed Loop“) ab, während ClickTracks seinen Schwerpunkt auf die grafische und selbsterklärende Darstellung von Analysedaten einzelner Seiten legt.
Welche Rolle spielt Amazon in dieser Praxisarbeit?
Amazon dient als Beispiel für den exzessiven und erfolgreichen Einsatz von User-Tracking, um personalisierte Produktempfehlungen und eine individualisierte Benutzerführung umzusetzen.
Was ist laut Autor ein kritisches Manko bei vielen E-Shops?
Ein häufiges Problem ist eine mangelhafte Benutzerführung im Bestellprozess, bei der Kunden erst spät im Verlauf über Zahlungsarten informiert werden oder wichtige Optionen fehlen, was zu hohen Abbruchraten führt.
- Quote paper
- Ole Fritz (Author), 2006, Web-Usage-Mining: Mehrwert für Internetnutzer, umsatzsteigernd für E-Shop-Betreiber, Munich, GRIN Verlag, https://www.grin.com/document/50368