Webmonitoring und Websitemonitoring


Seminararbeit, 2003

24 Seiten, Note: 3


Leseprobe


Inhalt

Abkürzungsverzeichnis

Abbildungsverzeichnis

1.Einleitung

2. Web Monitoring
2.2. Wesen des Web Monitoring
2.3. Die neuste Technologie

3. Web Site Monitoring
3.1. Unbewusste Datenübermittlung
3.2. Logfiles
3.3. Cookies
3.4. Web Bugs

4. Reaktive, bewußte Datenermittlung
4.1. Web Formulare und Auswertungen
4.2. Site-Screening, Suchmaschinenoptimierung
4.3. Real Time Monitoring; Site Monitoring
4.4. Vorteile für Unternehmen

5. Ausblicke

Literaturverzeichnis

Quellennachweis

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 1: Die Discovery Engine

Abbildung 2: Analyzer...11

Abbildung 3: Bestandteile eines Logfiles im Combined-Log-Format

1. Einleitung

Es ist nicht immer alles Gold was klickt, auch wenn viele Firmen auf den virtuellen Absatzmärkten ihre Zukunft sehen und das Internet zu Recht als unverzichtbaren Bestandteil einer vernünftigen Unternehmenskommunikation nutzen. Einen Aspekt unterschätzen die Wirtschaftsverantwortlichen aber seit Jahren. Das Internet entwickelt sich zu einem universalen Werkzeug der Wirtschaftskriminalität. Dem soll nun durch ein effektives Webmonitoring entgegengewirkt werden.

Auch das Websitemonitoring nimmt einen immer höheren Stellenwert im Marketingcontrolling ein, worauf im zweiten Teil dieses Referates noch ausführlicher dargestellt werden soll.

2. Web Monitoring

2.1. Wesen des Web Monitoring

Das Web-Monitoring wurde gerade durch die rasante Entwicklung des Internets in den letzten Jahren immer bedeutsamer, gerade durch die enorme weltweite Ausweitung des Netzes. Sehr schnell wird daher ersichtlich, dass das Internet nicht nur aus dem World Wide Web (www), sondern vielmehr auch aus Diensten, wie E-Mail, FTP Servern, Online-Foren jeglicher Art, sowie Peer-to-Peer Netzwerken besteht.

Nicht ohne Probleme ist jedoch, dass über die Hälfte der öffentlichen Informationen nicht im bekannten World Wide Web vorliegen, sondern gerade in den o. a. Diensten enhalten sind. Dies erschwert zunehmend einen genauen Überblick über das Internet zu erhalten, aber auch nur das Word Wide Web verbirgt an sich „ Das `Deep Web` … 400 bis 550-mal größer als das allgemein World Wide Web und soll 7500 Terabyte Information enthalten…“ (Bergmann, M. 2002).

Gerade an diesen Schwierigkeiten, setzt das Web-Monitoring an. Wie das englische Wort „web“ (dt.Netz, Gewebe) und „to monitor“ (dt. abören, überwachen) erkennen lässt, wird mit Hilfe des Web-Monitoring versucht, das Internet zu „Überwachen“.

Denn nicht all zu oft verbergen sich in diesem sehr schwer einsichtlichen Bereich, große Gefahren für Unternehmen, wie zum Beispiel Markenmissbrauch, Produktpiraterie oder Imageschädigung, um nur einige wenige zu nennen. Somit wird dem Web-Monitoring in vergangener Zeit immer mehr Aufmerksamkeit geschenkt. So zeigt das Beispiel „Imageschädigung“ sehr ausführlich, welche immense Schäden hierdurch für ein Unternehmen entstehen können. So ist „einem der größten Finanzstreiche der US-Netzwerkausrüster EUMULEX ausgeliefert gewesen. Bei dem durch Online-Betrug innerhalb weniger Minuten eine Abwertung von 2,5 Mrd. Dollar seines Aktienwertes erfolgt. Und dies nur, nachdem ein Student eine fingierte Pressemitteilung mit der Falschmeldung verbreitete, die Firma stelle ihre Erträge neu dar, stehe unter Beobachtung der Börsen- und Finanzaufsicht und Ihr Vorstandsvorsitzender sie ausgestiegen.“ (http://cert.uni-stuttgart.de /archive/isn/2000/09/msg00001.html)

Hierbei wird sehr deutlich, dass man das Internet nicht als rechtsfreien Raum betrachten darf. Denn gerade erst die Rechtsicherheit im Internet, gewährleistet die elementaren Grundsteine des E-Commerce, der Wirtschaftszweig der noch jung und relativ gebrechlich ist. Würde hier die Wirtschaftskriminalität Überhand gewinnen, hätte dies katastrophale Auswirkungen für diesen noch nicht ganzheitlich entfalteten Wirtschaftszweig.

Wie kann dem nun effektiv entgegen gewirkt werden?

2.2. Die neuste Technologie

Die neuste Technologie des Web-Monitoring wurde in Großbritannien entwickelt, genauer an der Eliteuniversität in Cambridge. 1999 gründete man schließlich das Unternehmen ENVISIONAL, das sich aus Cambridge-Absolventen zusammensetzte. Mittlerer Weile gehört das Unternehmen zu einer der weltweit führenden Unternehmen, das ein vollständig automatisiertes Verfahren, die „Discovery Engine“, ermöglicht. Dies beinhaltet ein skalierbares Softwaresystem ohne Leistungsbeschränkungen und ist somit dem umfangreichen Volumen der im Internet verfügbaren Informationen gewachsen. Darüber hinaus besteht sie für die automatisierte Informationsbeschaffung, aus einer komplexen Informations-Management-Architektur. (Abb.1)

Die 4 wesentlichen Komponenten dieses Systems bestehen aus: Ein modularisiertes Suchsystem, das auf die Verknüpfung von Rechnern statt auf Großrechner setzt. Die maximale Ausbaugröße der Rechner reichen bis zu 256x256 Stück (Cluster- Technologie).

Zweite Komponente ist das Monitoring System es legt fest welche Abfragen ausgeführt und in welchem Umfang gesucht wird. Für jeden Kunden konfiguriert ENVISIONAL individuell und ist jederzeit modifizierbar. Denn gerade dies ist das Problem der gängigen Suchmaschinen im Internet. Sie legen ein Inhaltsverzeichnis von den einzelnen Seiten im Internet an. Abfragen werden anhand dieses Inhaltsverzeichnisses erkannt. Dieser Abfrageprozess erfolgt sehr schnell, dennoch kann er mit dem Tempo, in dem das Internet wächst nicht mithalten. Es wäre unmöglich (z.Zt.), ein Inhaltsverzeichnis des gesamten Internets täglich auf den aktuellen Stand zu bringen. Die Discovery Engine funktioniert jedoch anders. Die Suche erfolgt zu dem Zeitpunkt, zu welchem der Nutzer eine Abfrage startet, womit Resultate auf dem aktuellsten Stand garantiert sind. Die intelligente Software trifft eine sorgfältige Auswahl der Links einer Seite und verfolgt solche Pfade, die mit der größten Wahrscheinlichkeit zu den gewünschten Informationen führen. Die Discovery Engine ist in der Lage kognitive (auf Erkenntnis beruhende) Verhaltensmuster des Menschen nachzuahmen.

Die dritte Komponente ist die Discovery Language durch Sie werden die Anfragen auf die zu überwachenden Bereiche übersetzt. Durch die Implementierung von verschiedener Komponenten der Wahrscheinlichkeitstheorie, Bayesian Belief Networks, regelbarer Methodik und Fuzzy Logic ermöglicht das automatische Scannen von Milliarden von Webseiten ohne nennenswerten Einsatz von menschlicher Kapazität. Jedoch sind die im Detail von ENVISIONAL entwickelten Algorythmen nur Mathematikern verständlich, deshalb rekrutiert das Unternehmen seine Mitarbeiter zum überwiegenden Teil aus Doktoranden der benachbarten Cambridge Universität.

Im Gegensatz zu den marktüblichen Suchmaschinen, analysiert die Discovery Engine nicht nur Suchbegriffe. Sondern untersucht außerdem die binären Codes von Download-Vörgangen. Das heißt dass beim Herunterladen Soundstrukturen, Programmelemente oder Bildbestandteile wieder erkannt und automatisch auf ihre Bedeutung und Relevanz gescannt werden.

Die vierte und letzte Komponente stellt die Ergebnisdatenbank dar. In ihr werden alle Treffer, die zur Anfrage passen, gespeichert.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Die Discovery Engine Quelle: www.envisional.com

Jedoch sollte man wie in der klassischen Wissenschaft nicht nur das Makrosystem analysieren, sondern auch seine Analyse im Mikrosystem. Was mit dem folgenden Web Site Monitoring der Fall sein soll.

3. Web- Site- Monitoring

Während mit Hilfe des Web- Monitoring versucht wird Imageschädigung aus dem Internet, die sich gegen das eigene Unternehmen richten, frühzeitig zu erkennen und aufzudecken, soll im nachfolgenden das Verfahren des „Web-Site-Monitoring“, das den eigentlichen Nutzen einer Internetpräsenz analysiert, näher dargestellt werden.

Hierbei sollen Methoden und Werkzeuge aufgezeigt werden, die sowohl die Nutzung einer Website dokumentieren und als auch deren Analyse ermöglichen, um nachzuvollziehen, wofür die Web Site, durch wen und in welchem Ausmaß genutzt wird. Somit kann die Ermittlung und die Analyse einer Web-Site-Nutzung unter dem Begriff „Web-Site-Monitoring“ zusammengefasst werden.

Aufgrund der Entwicklung in den vergangen Jahren hat sich die Bedeutung der eigenen Internet-Präsenz für die Unternehmen zunehmend verändert. Inzwischen werden mehr als 85% des Internets kommerziell genutzt, wodurch das Internet eine immer höhere Wettbewerbsrelevanz erreicht, als ein zusätzliches Kommunikations- und Vertriebsmedium (vgl. Heuer, Kai R.; Wilken, Markus: Ansätze zur Datengewinnung für das Controlling im Online-Marketing, S.309). Dadurch werden die Unternehmen zu nicht unerheblichen Investitionen veranlasst, um sich in diesem Sektor optimal zu positionieren, da nunmehr die Konkurrenz nur noch einen „mouse-klick“ weit entfernt ist.

Folglich entwickelt sich die Web-Site damit zu einem entscheidenden Kostenfaktor, der nur durch eine hinreichende Nutzenbegründung zu rechtfertigen ist. (vgl. Schwickert, Axel C.; Wendt, Peter: Web Site Monitoring in: Arbeitspapiere WI, Nr. 7/2000, S.1)

Hierfür ist das Verhalten der Web-Site-User, sowie deren Interaktivität genauer zu untersuchen, um zunächst eine Nutzungsanalyse durchzuführen und damit eine fundierte Nutzenbegründung zu ermöglichen.

3.1. Unbewusste Datenerübermittlung

Im ersten Schritt der Nutzenermittlung, werden hierzu die Daten der User benötigt, die eine betreffende Web-Site besuchen. Dabei kann zwischen unbewusster- und bewusster Datenermittlung unterschieden werden. Vorab soll jedoch die unbewusste Datenerfassung näher dargestellt werden.

Da eine Web Site normalerweise über Kontaktpunkte in Form von Hyperlinks zu anderen Web Seiten verfügt, sollten zuerst mögliche Schnittstellen, über die Besucher auf die Web-Site gelangen könnten, ermittelt werden, so z.B. Werbebanner, Suchmaschinen, Emails usw. Damit wird der Moment erkennbar, an dem der Nutzer die Web-Site betritt oder wieder verlässt, wodurch Rückschlüsse angestellt werden können, was z.B. ein User beim Betreten erwartete bzw. wo und warum er das Interesse wieder verlor. Doch alleine die Schnittstellenermittlung reichen für die Nutzenanalyse sicherlich noch nicht aus. So wird, wie in der u. a. Abbildung dargestellt, ein Tool benötigt, welches nicht nur in der Lage ist, den zurückgelegten Weg eines Users auf einer Web-Site nachzuvollziehen und abzubilden, sondern darüber hinaus, dessen Verhalten auf jener Site zu protokollieren und zusätzlich aus diesem Datenpool heraus Möglichkeiten bietet, die gesammelten Daten auszuwerten.

Abbildung in dieser Leseprobe nicht enthalten

[...]

Ende der Leseprobe aus 24 Seiten

Details

Titel
Webmonitoring und Websitemonitoring
Hochschule
Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt  (Bereich Betriebswirtschaftslehre)
Veranstaltung
Informationswirtschaft
Note
3
Autoren
Jahr
2003
Seiten
24
Katalognummer
V9646
ISBN (eBook)
9783638162913
ISBN (Buch)
9783638641180
Dateigröße
659 KB
Sprache
Deutsch
Schlagworte
Webmonitoring, Websitemonitoring
Arbeit zitieren
Markus Plieninger (Autor:in)C. Schapke (Autor:in)T. Falk (Autor:in), 2003, Webmonitoring und Websitemonitoring, München, GRIN Verlag, https://www.grin.com/document/9646

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Webmonitoring und Websitemonitoring



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden