Kundengenerierung durch Suchmaschinenoptimierung


Hausarbeit, 2004
23 Seiten, Note: unbenotet

Leseprobe

Inhaltsverzeichnis

Einführung

I. Suchmaschinen
1. Formen
2. Funktionsweise
3. Ranking
4. Besonderheiten von Suchmaschinen unter stärkerer Beachtung von Google

II. Suchmaschinenmarketing
1. Akteure im Suchmaschinenmarketing
2. Methoden zur Optimierung an der eigenen Website
2.1 Dokumententypen / Design
2.2 Schlüsselwörter
3. Methoden zur Optimierung des Umfelds der Website
3.1 Anpassung und Aktualisierung der Seite
3.2 Links
4. Unzulässige Methoden der Optimierung (Spam)
5. Anmeldung bei den Suchmaschinen
6. Bezahltes Ranking

III. Erfolgskontrolle und Controlling
1. Logfile-Analyse
2. Rangkontrolle

Fazit

Glossar:

Literatur- und Quellenverzeichnis

Abbildungsverzeichnis

Abbildung 1: Bedeutung der Eigenschaften eines Dokuments für das Ranking in Suchmaschinen

Abbildung 2: Nutzung von Suchmaschinen

Abbildung 3: Akteure im Suchmaschinenmarketing

Einführung

Nach der Boom-Phase der „New Economy“ zum Ende der 90er Jahre werden die Möglichkeiten des Internet im neuen Jahrtausend bei weitem realistischer gesehen. Nichtsdestotrotz bietet das Internet eine Vielzahl neuer Chancen für Unternehmen. Das ist nicht zuletzt bedingt durch die weiterhin zweistelligen Wachstumsraten der Nutzerzahlen: 2003 surften 33,1 Mio. Deutsche mindestens alle 4 Wochen durch das World Wide Web, das waren 17% mehr als noch im Vorjahr. Damit erreicht das Internet 51,5% aller Deutschen über 14 Jahren.[1]

Bei mittlerweile mehr als 3 Milliarden Internetseiten und weiterhin wachsendem Trend wird die Rolle der Suchmaschinen immer zentraler, sie nehmen im Netz damit eine „Gateway-Funktion“ ein. Verdeutlicht wird dies durch das Nutzerverhalten: 90% aller User benutzen zur Einkaufs- und Informationssuche eine Suchmaschine, 70% aller Online-Transaktionen beginnen laut Forrester Research mit einer Suchanfrage und Jupiter Media ermittelte, dass 40% aller Online-Käufe mit einer konkreten Suche nach einem bestimmten Produkt starten.[2] Dabei verlässt sich der Nutzer stark auf die Zuverlässigkeit der Suchhilfen. Nach einer Studie von Fittkau & Maas entscheiden sich über zwei Drittel der Suchenden für einen Link auf der ersten Trefferseite, nur 24% betrachten die weiteren Ergebnisse.[3]

Um als Unternehmen im Internet sichtbar zu bleiben, ist damit eine vordere Position im Ranking beinahe unabdingbar, um neue, unbekannte Kunden ansprechen zu können. Deshalb möchte ich im Folgenden erläutern, was ein Unternehmen tun kann, um sich einen guten Platz in den Suchmaschinen zu sichern. Dabei möchte ich zuerst die Formen und Mechanismen der Suchmaschinen aufzeigen und dann etwas genauer die führende Suchmaschine Google betrachten. Hierbei werde ich auch auf die verschiedenen Ranking-Systeme der Suchmaschinen eingehen, die auch im zweiten Kapitel, das sich mit der eigentlichen Optimierung beschäftigt, eine große Rolle spielen werden. Die Möglichkeiten zur Optimierung der Websites für Suchmaschinen (Suchmaschinenmarketing) werde ich in fünf Teilen darstellen. Zum einen die Optimierung der Seitengestaltung selbst und nachfolgend die Verbesserungsmöglichkeiten außerhalb der Website. Hiernach erläutere ich einige fragwürdige bzw. unzulässige Methoden (Spam) der Suchmaschinenoptimierung, die zu vermeiden sind. Der vierte Teil beschäftigt sich mit den Möglichkeiten der Anmeldung bei den Suchmaschinen. Im fünften und letzten Teil zum Suchmaschinenmarketing zeige ich kurz einige Möglichkeiten der Aufnahme in den Index gegen Bezahlung auf. Vor meinem Fazit, werde ich im letzten Teil noch die Möglichkeiten des Controllings der Optimierungsmaßnahmen erläutern.

I. Suchmaschinen

Um die Möglichkeiten der Optimierung einer Website für ihre Position in den Suchmaschinen besser verstehen, anwenden und weiterentwickeln zu können, sind zunächst einige Grundkenntnisse über Suchmaschinen nötig. Diese werde ich im Folgenden darlegen, mich dabei aber bei den technischen Teilen auf das nötigste beschränken.

1. Formen

Im Internet gibt es drei große Arten von Suchhilfen:

- (Spider-) Suchmaschinen
- Meta-Suchmaschinen
- Webkataloge

Der große Unterschied der Kataloge zu den Suchmaschinen besteht in der menschlichen Begutachtung und Bewertung einer Website vor der Listung. Damit werden zwar weit weniger Seiten als bei automatisierten Suchmaschinen aufgenommen, die Seiten werden jedoch genauer auf ihre Qualität geprüft. Allerdings dauert es dadurch auch von der Anmeldung der Seite beim Katalogbetreiber bis zur Eintragung eine gewisse Zeit, in der Regel vier bis sechs Wochen.[4] Die bekanntesten Kataloge sind weltweit Yahoo und in Deutschland zusätzlich web.de.

Suchmaschinen arbeiten dagegen mit einer Software. Bei der verbreitetsten Suchmaschinenform, den Spidersuchmaschinen (Google, Altavista, Fireball etc.), durchsucht ein Programm in gewissen Abständen das Netz und nimmt dann anhand einiger unterschiedlicher Kriterien die Indexierung (Aufnahme in die Ergebnisliste) und das Ranking vor. Die einzelnen Schritte erläutere ich genauer in den folgenden Abschnitten. Der Zeitraum bis zur Aufnahme in den Index ist dabei unterschiedlich und kann zum Teil durch die meist gebührenpflichtige Anmeldung der Seite beim Betreiber der Maschine etwas beschleunigt werden. Eine Sonderform dieser Suchmaschinen sind die Payed Listing Suchmaschinen. Hier können sich die Seiteninhaber in einem Auktionsverfahren einen bestimmten Listenplatz erkaufen (Bsp.: Overture, Qualigo). Dieses Verfahren wird zunehmend auch von Katalogen angeboten.[5]

Eine Weiterentwicklung der herkömmlichen bieten die Meta (= Über)-Suchmaschinen. Hierbei wird die Suchanfrage des Nutzers über ein Skript an mehrere Suchmaschinen geschickt und deren Ergebnisse gesammelt. Gleiche Ergebnisse und Websites werden nun gefiltert und die Resultate werden automatisiert in ein Ranking gebracht. Meist ist dabei ein gutes Ranking in den durchsuchten Maschinen auch mit einer vorderen Position in der Meta-Suchmaschine verbunden. Eine Unterscheidung nach bezahlten und unbezahlten Einträgen kann sie dabei zumeist nicht leisten.[6]

2. Funktionsweise

Die vier wesentlichen Kernfunktionen einer Suchhilfe (Oberbegriffe für –maschine und Katalog) sind:[7]

1. die Datenbeschaffung
2. die Dokumentenanalyse und –bewertung
3. der Aufbau und die Verwaltung von Datenstrukturen und
4. die Bearbeitung der Suchanfrage

Um diese Funktionen erfüllen zu können bestehen Suchmaschinen im Wesentlichen aus zwei Komponenten, einer Datenbank und einem Computerprogramm. Dieses Computerprogramm, das Robot, Spider oder Crawler Worms genannt wird, bewegt sich mehr oder weniger regelmäßig durch das Internet, folgt da-bei den einzelnen Verlinkungen (Hypertexten, also Verknüpfungen einzelner Dokumente) auf (intern) und zwischen (extern) den Websites und durchsucht damit theoretisch das gesamte Netz. Die mit dieser Methode gefundenen und geprüften Texte kopiert der Robot dann in die Datenbank. Dieser Vorgang heißt Indexierung. Durch die ständig steigende Zahl von Websites ist es den Robots allerdings nicht immer möglich mit dieser Methode alle neuen Dokumente zu finden, daher empfiehlt sich, besonders wenn die Seite noch nicht von Dritten verlinkt worden ist, für den Seitenbetreiber eine Anmeldung bei der Suchmaschine (s.a. Kap. 2.5).

Bei einer Suchanfrage eines Nutzers greift die Suchmaschine nun auf ihre Datenbank zurück und versucht durch bestimmte Algorithmen dem Suchenden eine möglichst relevante Ergebnisliste zur Anfrage zu präsentieren. Dabei benutzt die Suchmaschine eine Softwarelösung („information retrieval system“), die die Suchbegriffe und die Inhalte der gespeicherten Dokumente auf ihre Ähnlichkeit hin überprüft, die ähnlichen Seiten in eine Reihenfolge gemäß ihrer Relevanz bringt (s. 1.3 Ranking) und dem Nutzer dann dieses Ranking in Form einer Ergebnisliste anzeigt.[8]

3. Ranking

In diesem Abschnitt soll es darum gehen mit welchen Kriterien, die Suchmaschinen versuchen, die am besten zur Suchanfrage passenden Dokumente ihrer Datenbank auch an einer vorderen Position ihrer Ergebnisliste erscheinen zu lassen. Dafür nutzen die Betreiber unterschiedliche Methoden, wie sich auch an den un-gleichen Resultaten der einzelnen Suchmaschinen zeigt. Die jeweiligen Verfahren werden von den Unternehmen als Geschäftsgeheimnis behandelt, vor allem, da sie die Geschäftsgrundlage ausmachen und auch um besser vor Spam geschützt zu sein.[9] Die Bertelsmann-Stiftung befragte deshalb 27 Suchmaschinenanbieter nur allgemein nach der eingeschätzten Wichtigkeit (in vier Stufen) einzelner Kriterien, die in der Praxis natürlich in Kombination angewandt werden[10]:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Bedeutung der Eigenschaften eines Dokuments für das Ranking in Suchmaschinen

Als wichtigstes Relevanzkriterium wird damit von den heutigen Suchmaschinen wie schon bei den Pioniermaschinen die Existenz der Suchbegriffe auf den betreffenden Websites gewertet. Für die Platzierung dieser Schlüsselbegriffe („Keywords“) auf der Website gibt es unterschiedliche Orte und Möglichkeiten (u.a. URL, Titel und Beschreibung der Seite, Überschriften, Text), auf die ich im Rahmen des 2. Kapitels näher eingehen werde.

Durch die große Gewichtung der Keywords, die aber verhältnismäßig leicht zu manipulieren sind und die damit zu erhöhtem Spam in den Ergebnislisten führen kann, hat sich ein weiteres Konzept (link popularity) etabliert. Hierbei werden auch externe Faktoren einbezogen. Berücksichtigt eine Suchmaschine die link popularity-Konzeption, so wird eine Seite auf die viele Links verweisen, als relevanter betrachtet, als eine Seite, die wenige Links auf sich zieht. Das beruht auf der Vorstellung, dass Links eine Empfehlung der anderen Nutzer darstellen und damit ähnlich wie in der Literatur, oft verlinkte (zitierte) Quellen einen gewissen Qualitätsstandard besitzen. Diese damit erreichte gute Brauchbarkeit war auch einer der Erfolgsfaktoren des 1998 gegründeten Unternehmens Google (s.a. Abschnitt 1.4), das mit seiner PageRank-Verfahren einer der Vorreiter der Link-Systematik war. Dabei bewertet PageRank nur externe, also von anderen Seiten gesetzte Links, während bei Link Popularity auch interne Links (Verweise auf der eigenen Website) einbezogen werden. Eine Weiterentwicklung dieses Konzepts bezieht auch die Wichtigkeit der verlinkenden Seite mit ein. Dabei wird ein Link von einer thematisch verwandten Seite für die verlinkte Seite höher gewichtet als ein auf sie bezogener Link von einer inhaltlich weniger ähnlichen Seite. Eine starke Gewichtung für das Ranking erreichen auch in Webkatalogen verzeichnete Seiten, da hier durch die redaktionelle Bewertung der Seiten ebenfalls eine hohe Bedeutung der Seite unterstellt wird.[11]

Ein noch jüngeres Verfahren zur Relevanzmessung und damit zur Bildung des Rankings ist das click popularity Konzept. Hier wird das Verhalten der Nutzer in die Relevanzberechnung mit einbezogen. Das heißt, je öfter ein Dokument von den Suchenden angeklickt wird, desto höher bewertet die Software der Suchmaschine dessen Bedeutung und gibt ihm somit eine bessere Position. Damit hängt eine erfolgreiche Positionierung der eigenen Website bei Suchmaschinen, die dieses Konzept benutzen, stark von Titel und Beschreibung (s. Kap. 2.2.2) der Seite ab, die den Nutzer zu einem Click überzeugen muss. Dieses Verfahren hat sich bisher noch nicht so stark durchgesetzt wie die link popularity-Konzeption (s. Abbildung 1). Ein prinzipieller Nachteil ist beiden Konzepten gemein. Sie begünstigen beide tendenziell eher die Position bereits etablierter Seiten. Bei link popularity konnten sich die Seiten mit der älteren (Keyword-) Technik einen Namen machen und damit Links aufbauen, während bei click popularity, bedingt durch das Nutzerverhalten nur die ersten Ergebnisse zu betrachten, die Links dieser Seiten häufiger angeklickt werden.[12]

4. Besonderheiten von Suchmaschinen unter stärkerer Beachtung von Google

In diesem Abschnitt möchte ich die vorherigen Punkte am Beispiel einiger Suchmaschinen und dem Marktführer Google im Besonderen verdeutlichen. Dies ist insbesondere wichtig, da sich auch im Markt der Suchmaschinen ein Konzentrationsprozess beobachten lässt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Nutzung von Suchmaschinen[13]

Unter den sonstigen Anbietern sind noch Altavista, Lycos (beide 1,6%), Meta.Ger (1,2%) und Fireball mit 0,9% Anteil an der Gesamtnutzung von Bedeutung. Die Marktmacht von Google wird noch dadurch verstärkt, dass Google die Suchergebnisse für AOL und Netscape liefert. Bis 2003 erhielten auch Yahoo und web.de die Resultate von Google, doch diese wechselten bzw. wechseln im Laufe von 2004 zu Inktomi (2003 wie auch Overture von Yahoo übernommen), die auch MSN beliefern.[14] Durch den angekündigten Einstieg von Microsoft auf den Suchmaschinenmarkt könnten sich die Gewichte weiter verschieben, doch da Google in Deutschland derzeit über drei Viertel aller Suchanfragen bearbeitet, ist eine genauere Betrachtung sinnvoll.

Wie schon erwähnt, beruht der Erfolg von Google zu einem Großteil auf deren PageRank-Algorithmus, der als wichtigster Bestandteil von mehr als 100 Kriterien die Suchergebnisse ermittelt. Der Vorteil dieses Algorithmus besteht darin, dass eine manipulative oder falsche Angabe der Schlüsselwörter nicht zu einer Aufnahme in den betreffenden Index zur Suchanfrage (bzw. oftmalige Wiederholung dieser Keywords nicht zu einer hohen Position im Ranking) führt, sofern die externen Hyperlinks (Links) fehlen.[15]

Um das Verfahren des PageRank zu verdeutlichen, möchte ich hier einige diskutierte Möglichkeiten vorstellen, die nach Meinung einiger Experten für einen verbesserten PageRank und damit zu einer höheren Position bei Google führen (s.a.: 2.3.2).[16]

- je mehr Unterseiten eine Website hat, umso höher der anfängliche PageRank
- je höher der PageRank (Stufen von 0-10) der verlinkenden Seite, umso positiver für den PageRank der Seite, auf die der Link verweist
- je weniger Links eine Website hat, desto höher wird einer dieser Link im PageRank gewichtet
- ein Link, der von einer thematisch verwandten Seite ausgeht, wirkt sich fördernd für den Page Rank der verlinkten Seite aus (analog zum Katalog: Kap.: 1.3)

Damit ist nicht nur die reine Quantität der Links für eine gute Position entscheidend, es wird auch versucht Qualitätsgedanken zu beachten. Zwischen den oben genannten Faktoren besteht auch eine Wechselwirkung, so kann ein Link von einer im PageRank niedriger eingestuften Seite letztendlich für die verlinkte Seite mehr wert sein, sofern die Gesamtzahl der Links auf der verlinkenden Seite geringer ist. Dasselbe gilt, falls die Seite thematisch verwandter ist. Zur möglichst genauen Ermittlung der einzelnen PageRanks sind mehrere Durchläufe (iteratives Verfahren) der PageRank-Berechnung nötig. Da die Robots von Google auch nur ca. alle vier Wochen das Internet durchsuchen, lassen sich die Auswirkungen eines Links auf das Ranking erst nach einiger Zeit ablesen.

Eine große Schwierigkeit der Optimierung einer Website ist, neben der ungenauen Kenntnis der exakten Suchalgorithmen, die von Suchmaschine zu Suchmaschine unterschiedlichen Schwerpunkte beim Erstellen des Indexes. Daher gilt es sich auf einige wenige Suchmaschinen zu konzentrieren. So bietet sich z.B. anhand der Marktanteile eine Konzentration auf Google bzw. die aufstrebende Suchtechnologie Inktomi an. Bevor man die eigentliche Optimierung beginnt, sollte man sich also so weit wie möglich über die Bewertungsverfahren der Suchmaschinen informieren, so beachtet beispielsweise Google im Gegensatz zu Inktomi keine Meta-Keywords (Schlüsselwörter als Zusatzinformationen im Kopf (Head) von Internetseiten, für den Nutzer nicht sichtbar), während Google in die Relevanzberechnung auch Text im HTML-Code zu Grafiken (Alt-Text) einbezieht, was Inktomi nicht macht.[17] Somit lohnt es sich also bei Google Schlüsselwörter, die von den Nutzern häufig gesucht werden, in Grafiken zu hinterlegen, bei Inktomi sollte man sie dagegen als Meta-Keywords einsetzen.

[...]


[1] aus: von Eimeren/Gerhard/Frees 2003 (leicht veränderte Erhebungsmethode 2003 zu 2002: 2003: Nutzung des Internet in den letzten 4 Wochen, 2002: gelegentliche Nutzung des Internet)

[2] aus: Häberle 2003, S. 47

[3] aus: o.V.(d) 2003

[4] vgl. Wnendt 2000

[5] vgl. Werner 2003, S. 246

[6] vgl. Heinbocklel 2001

[7] vgl. Glöggler 2003, S. 4

[8] vgl. Biermann (a) 2003; o.V.(d) 2003 und Glöggler 2003, S. 95 f.

[9] vgl. o.V.(b)

[10] s. Machill/Welp 2003, S. 79

[11] vgl. o.V.(c); Machill/Neuberger/Schindler 2002, S. 29 ff. und @-web 2002 Thelwall 2002, S. 107

[12] vgl. Metamend, Sommergut 2003 S. 10 und o.V.(a)

[13] s. web hits vom 14.02.2004

[14] vgl. Schorow 2003, S. 35 und o.V.(e), 2004

[15] vgl. Google und Sommergut 2003, S. 10

[16] vgl. @-web, 2001 und Glöggler 2003, S. 81 ff.

[17] vgl. Sullivan 2002

Ende der Leseprobe aus 23 Seiten

Details

Titel
Kundengenerierung durch Suchmaschinenoptimierung
Hochschule
Hochschule für Angewandte Wissenschaften Hamburg
Note
unbenotet
Autor
Jahr
2004
Seiten
23
Katalognummer
V28941
ISBN (eBook)
9783638305853
ISBN (Buch)
9783638650045
Dateigröße
674 KB
Sprache
Deutsch
Anmerkungen
Analyse der legalen Möglichkeiten der Suchmaschinenoptimierung, um bei den Suchmaschinen (besonders Google) die ersten Plätzen der Ergebnisliste zu erreichen.
Schlagworte
Kundengenerierung, Suchmaschinenoptimierung
Arbeit zitieren
Florian Kaufmann (Autor), 2004, Kundengenerierung durch Suchmaschinenoptimierung, München, GRIN Verlag, https://www.grin.com/document/28941

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Kundengenerierung durch Suchmaschinenoptimierung


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden