Suchmaschinenoptimierung als wichtiges Marketinginstrument am Beispiel der Versicherungswirtschaft


Bachelorarbeit, 2006

92 Seiten, Note: 1.7


Leseprobe

Fachhochschule für Technik und Wirtschaft Berlin

image 5c31347dda67bbde8413d4c49c0a1985

Freie wissenschaftliche Arbeit zur Erlangung des akademischen Grades

Bachelor of Science in Wirtschaftsinformatik

„Suchmaschinenoptimierung als wichtiges Marketinginstrument am

Beispiel der Versicherungswirtschaft“

im Fachbereich Wirtschaftswissenschaften II

im Studiengang Wirtschaftsinformatik

der Fachhochschule für Technik und Wirtschaft Berlin

Abgabetermin: 24.03.2006

Einleitung

Suchmaschinenoptimierung ist die Summe von Methoden, eine Webseite erfolgreich in Suchmaschinen zu platzieren. Dabei soll die Seite möglichst weit oben im Ergebnisranking einer Suchanfrage stehen.

Das Geschäft im und mit dem Internet ist in den letzten 5 Jahren sprunghaft angestiegen. Nahezu alle Branchen und Firmen sind vertreten. War das Internet früher nur eine bessere Visitenkarte, stellt es heute für einen Großteil der Wettbewerber eine Plattform für Service rund um die Uhr dar. Das Angebot reicht von der einfachen Informationsmöglichkeit bis zum Onlineshop. Je höher eine Webseite im Suchranking einer Suchmaschine steht, desto wahrscheinlicher ist der Besuch dieser Seite. Jeden Besucher gilt es, mit möglichst optimalen Informationen und Service zu bedienen, denn jeder Besucher stellt einen potentiellen Kunden dar. Ein Großteil aller Besucher einer Webseite erreicht diese durch vorherige Suche in einer Suchmaschine. Durch die enorme Geschwindigkeit der Informationsverbreitung kann man sich jederzeit im Internet die neuesten Daten und Fakten über Produkte und Leistungen beschaffen. Vor jeder Kaufabsicht kann man suchen und vergleichen. Um ständig auf den vordersten Plätzen des gewünschten Gebietes der Suchanfragen zu stehen, ist die permanente Suchmaschinenoptimierung notwendig.

1.2 Ziele der Bachelorarbeit

Suchmaschinenoptimierung wurde als wichtiger Teil eines Internetauftrittes lange Zeit vernachlässigt. Diese Arbeit hat zum Ziel, eine Sensibilisierung für das Thema Suchmaschinenoptimierung zu schaffen und das große Potential im Marketingbereich aufzuzeigen. Sie soll als Leitfaden für das schnelle Verständnis dienen und eine Vorstellung für anfallende Arbeiten und Tätigkeiten geben.

Da es sich bei der Suchmaschinenoptimierung um eine sehr junge Disziplin im

Marketingbereich handelt, ist die Verwendung von Fachliteratur zur Erstellung der

Einleitung

Bachelorarbeit schwierig. Im Internet existieren zwar umfangreiche Publikationen zum Thema Suchmaschinenoptimierung, der Anteil unseriöser Veröffentlichungen zum Thema Suchmaschinenoptimierung ist sehr hoch. Es existieren zur Zeit lediglich vier 1 Bücher zum Thema, welche wissenschaftlichen Ansprüchen genügen und die Aufnahme in Bibliotheken gefunden haben. Zu einem großen Teil wurde auf vorhandenes Wissen, welches sich der Autor im Rahmen eines sechsmonatigen Praktikums aneignen konnte, zurückgegriffen. Die Arbeit entstand im engen Kontakt mit dem Geschäftsführer der transparent GmbH Herrn Axel Lehmann. In einem umfangreichen Interview im Anhang der Arbeit werden praktische Einsatzmöglichkeiten verdeutlicht.

Um Suchmaschinenoptimierung erfolgreich durchzuführen, ist es zunächst notwendig die Funktionsweise von Suchmaschinen zu verstehen. Aus diesem

Grund steht am Anfang eine generelle Einarbeitung in das Thema Suchmaschinen und ihre Funktionsweisen. Dabei wird eine Marktübersicht über bedeutende Suchmaschinen insbesondere dem Marktführer Google gegeben. Der zweite notwendige theoretische Schritt beschäftigt sich mir der Suchbegriffanalyse. Die Entscheidung auf welche Suchbegriffe optimiert werden soll, bildet die Voraussetzung für eine erfolgreiche Suchmaschinenoptimierung. Die praktischen Optimierungsansätze werden aufgrund der Marktführerschaft an der Suchmaschine Google erklärt. Dafür werden zunächst Eigenschaften und Funktionen von Google erläutert. Am Beispiel von Webseiten der transparent GmbH, einem Unternehmen der Versicherungsbranche, werden dem Leser konkrete Optimierungsmaßnahmen verdeutlicht.

Suchmaschinengrundlagen

Die Bedeutung und Funktionsweise von Suchmaschinenoptimierung hängt mit

dem Verständnis von Suchmaschinen im Internet zusammen. In diesem Abschnitt soll dem Leser ein grundlegendes Wissen über Suchmaschinen vermittelt werden.

2.1.1 Bedeutung von Suchmaschinen

„Ein Suchdienst bietet den Internet - Benutzern Unterstützung beim Auffinden gesuchter Informationen in Form von hierarchisch geordneten Sachgebietsverzeichnissen mit Hyperlinks, alphabetisch sortierten Stichwortverzeichnissen oder Information-Retrieval-Programmen für die Suche nach Stichworten.“ 2 Allein im Google-Index sind mehr als 8.000.000.000 Webseiten gelistet. Es wird schnell klar, dass diese unglaubliche Informationsflut nur von leistungsfähigen Suchhilfen zu überschauen ist. Suchmaschinen stellen demnach einem Benutzer eine Vorauswahl von Webseiten zur Verfügung. Dies muss durchaus kritisch betrachtet werden, da Suchmaschinenbetreiber nicht frei von externen Einflüssen sind.

Suchdienste werden nach der Qualität ihrer gelieferten Treffer in der Ergebnisliste beurteilt. Je höher Webseiten in Suchmaschinenergebnissen stehen, desto größer ist die Wahrscheinlichkeit eines Besuches. Eine Vielzahl von Webmastern versucht diese Positionen zu erreichen. Es entsteht ein regelrechter Kampf von Suchmaschinenbetreibern gegen Hacker und Spammer. Die Anbieter von Suchdiensten sind dazu gezwungen, ihre Suchalgorithmen ständig weiterzuentwickeln um Manipulationen vorzubeugen. Eine Suchmaschine konnte besonders hohe Qualität bei den Suchergebnissen erzielen, Google. Dies liegt vor

Suchmaschinengrundlagen

allem an dem neuartigen PageRank - Verfahren von Larry Page und Sergey Brin. Die Hauptwettbewerber von Google sind Yahoo und Microsoft MSN.

2.1.2 Probleme bei der Nutzung von Suchmaschinen

Mangelnde Vollständigkeit des Datenbestandes

Ein Problem von Suchmaschinen ist die fehlende Genauigkeit in der Abbildung der existierenden Webseiten. Es gibt Schätzungen, welche die Gesamtzahl aller Internetseiten, inklusive deepWeb 3 , auf über 550.000.000.000 4 angeben. Wie viele es genau sind, kann nicht geklärt werden. „Schätzungen zufolge ist selbst bei den größten Suchmaschinen nur eine Abdeckung von 30-40% zu erzielen.“ 5 Jedes Zählverfahren wird daran scheitern, dass die Geschwindigkeit vom Entstehen neuer Webseiten höher ist, als die Geschwindigkeit von Zählalgorithmen. Suchmaschinen können immer nur einen Teilbereich des Internets abbilden. „Da Aufgrund der enormen Datenfülle im world wide web die Suchmaschinen nur einen Teil derselben auswerten können, lässt sich durch die Anfrage an einen Suchdienst keine umfassende Antwort erzielen, vielmehr gibt dieser nur einen Bruchteil des gesamten Informationsangebotes wieder, der mit der ständigen Zunahme an Daten, die im world wide web verfügbar sind, noch geringer werden wird.“ 6

Fehlende Aktualität des Datenbestandes

Ein weiteres Problem liegt in der mangelnden Aktualität. Webseiten zu besonders aktuellen tages- bzw. stundengenauen Ereignissen, finden den Weg in den Index der Suchmaschine erst nach einiger Zeit. Genau in dieser Zeit hat das Ereignis

Technik von Suchmaschinen

seine Aktualität verloren. Ein Internetnutzer, der auf der Suche nach aktuellen Nachrichten ist, wird mit einer Suchmaschine keine guten Ergebnisse erzielen. Ein Projekt dem entgegenzuwirken ist GoogleNews, welches sich zur Zeit im Beta-Stadium befindet.

„Das schnelle Wachstum des world wide web und dessen Volatilität 7 bringen es gleichzeitig mit sich, dass neu veröffentlichte oder überarbeitete Seiten oft nicht sofort von den Suchmaschinen erkannt und erfasst werden... Die vielgerühmte Schnelligkeit und Aktualität des Internet relativiert sich in diesem Bereich auf ein für Medien normales Maß.“ 8 Fehlende Präzision der Suchbegriffe

Aufgrund der automatischen Indexierung von Webseiten, ist eine künstlich geschaffene Thematisierung des Inhaltes noch nicht zufriedenstellend realisiert. Suchmaschinenbetreiber sind ständig bemüht die Erkennung der Themen vom Webseiteninhalt zu verbessern. Dennoch gibt es dabei nach wie vor große Schwächen. Diese Problematik erschwert eine gezielte Suche, da in der Ergebnisliste immer wieder Positionen auftauchen, die nicht unmittelbar mit dem Suchwort korrespondieren.

2.2 Technik von Suchmaschinen

Die Fachliteratur unterscheidet zwei Arten von Suchmaschinen, die indexbasierten Suchmaschinen und die Meta-Suchmaschinen. Darüber hinaus existieren Mischformen, welche versuchen beide Techniken miteinander zu vereinen.

Technik von Suchmaschinen

Die indexbasierten Suchmaschinen stellen den überwiegenden Teil aller Suchmaschinen dar. Sie pflegen einen Index. In diesem werden alle bisher besuchten Internetseiten bzw. Keywords in den Seiten aufgenommen. Meta-Suchmaschinen unterscheiden sich wiederum in zwei Gruppen. Zum einen die Suchdienste, welche die Metainformationen 9 einer Webseite auswerten. Zum anderen Suchdienste, die mehrere andere indexbasierte Suchmaschinen abfragen und über deren Ergebnisse die eigene Suche laufen lassen.

2.2.1 Funktionsweise von indexbasierten Suchmaschinen

image 9303ba89b495aae5447044eba6bad8dc

Abbildung 1: Funktionsweise indexbasierter Suchmaschinen (H. Balzert 2005)

Funktionsweise von indexbasierten Suchmaschinen

Indexbasierte Suchmaschinen, siehe Abbildung 1, sind unmittelbar abhängig von ihren Indizes. Diese gewaltigen Verzeichnisse werden vollautomatisch aufgebaut. Mithilfe von sogenannten Robots bzw. Suchrobotern durchsuchen sie das Internet. Ein Robot - auch Spider genannt - stellt eine automatisierte Browsersoftware dar, die selbstständig Verweisen zu anderen Webseiten folgen kann. Über die URL gelangt der Robot auf Internetseiten. Durch zu erwartende Ladezeiten im Internet ruft der Robot viele hundert Webseiten gleichzeitig pro Sekunde auf. Eine gefundene Webseite gibt der Robot an eine Indizierungssoftware weiter. Der enthaltene Text wird von der Indizierungssoftware bzw. dem Parser analysiert und indiziert. Stößt der Robot auf einen Hyperlink, wird dieser verfolgt. Auf diese Art und Weise hangelt er sich durch das Internet. Webseiten, die nicht verlinkt sind, gelangen nicht oder nur manuell in den Suchindex. Diese Seiten - auch deepWeb genannt - machen den größten Teil des Internets aus. Die Betreiber haben in diesen Fällen oftmals kein Interesse, dass ihre Dokumente in Suchmaschinen auftauchen.

Selbstverständlich besteht die Möglichkeit, Webseiten bei Suchmaschinen anzumelden, um den Besuch eines Robots zu veranlassen. Ergänzend zum Suchindex werden Zusatzinformationen in einer Hitliste gespeichert. Jedes Wort im Index ist mit einer Referenz auf die gegebenenfalls vorhandenen Zusatzinformationen versehen. Abschließend wird eine komprimierte Version der Webseite im Repository abgelegt. Die Zusatzinformationen beinhalten wiederum eine Referenz auf die zugehörige Webseite im Repository. Bei einer Suchanfrage wird der Index nach passenden Seiten durchsucht. Die Url 10 , zusammen mit den Zusatzinformationen, wird auf der Ergebnisseite angezeigt. Gewöhnlicherweise existiert mehr als nur eine Webseite zum gewünschten Suchbegriff. Deswegen vollziehen Suchmaschinen ein automatisiertes Ranking über alle in Frage kommenden Webseiten. Der Rankingalgorithmus ist zentrales Element einer jeden Suchmaschine und wird am Beispiel Google im Kapitel 4.3 erläutert.

Funktionsweise von Meta-Suchmaschinen

Meta-Suchmaschinen genießen den Ruf, wesentlich präzisere Ergebnisse zu liefern. Meta-Suchmaschinen, welche die Metadaten einer Webseite auswerten, sind darauf angewiesen, dass diese Daten entsprechend gepflegt werden. Im Prinzip steht es jedem Webmaster frei, welche Informationen er dort hinein schreibt. Hacker 11 und Spammer 12 machen sich diesen Umstand zu nutze und manipulieren die Metadaten, um bessere Positionen in Suchmaschinen zu erhalten. Die meisten Autoren von Internetseiten haben ein Interesse daran, dass ihre Seiten von Benutzern gefunden werden, die sich genau für ihre Themen interessieren. Meta-Suchmaschinen funktionieren prinzipiell wie die indexbasierten Suchmaschinen, nur dass diese nicht den Text sondern die Metadaten durchsuchen.

image fedc0c47da9552a6678dd4850fbf6605

Abbildung 2: Funktionsweise Metasuchmaschinen (Quelle: HTW Chur 2006)

Funktionsweise von Meta-Suchmaschinen

Meta-Suchmaschinen, die Ergebnisse von vielen Suchmaschinen in sich vereinen (siehe Abbildung 2), können entsprechend große Indexbestände analysieren. Der abgebildete Teil des Internets wird bei der Suche vergrößert. Problematisch ist die Anzeige der Ergebnisreihenfolge, da die Treffer auf verschiedenen Suchmaschinen nicht ohne weiteres vergleichbar sind. „Der Vorteil von Meta-Suchmaschinen liegt klar auf der Hand, denn sie finden auch Seiten in eher entlegenden Gegenden des Internets. Aber auch ein Nachteil soll nicht verschwiegen werden: Sie können nur so gut (oder schlecht) sein, wie der kleinste gemeinsame Nenner aller von der Metamaschine abgesuchten normalen Suchmaschinen.“ 13

Jeder Suchmaschinenbetreiber setzt andere Maßstäbe bei der Bewertung der Relevanz eines Dokumentes ein. Unter Umständen wird die schlechteste Suchmaschine als gemeinsamer Nenner genommen.

2.3 Übersicht über wichtige Suchmaschinen am Markt

Marktanteile der 4 größten Suchmaschinen weltweit: 14 1. Google 56.9% 2. Yahoo 21.2% 3. MSN Search 8.9% 4. AOL Search 3.2%

Bei allen 4 Suchmaschinen handelt es sich um indexbasierte Suchmaschinen. Metasuchmaschinen nehmen nur einen kleinen Marktanteil ein. Zumeist in spezialisierten Themengebieten. Darüber hinaus gibt es eine unüberschaubare Anzahl von kleinen und spezialisierten Suchmaschinen, die zusammen lediglich

Übersicht über wichtige Suchmaschinen am Markt

ca. 10 % Marktanteile besitzen. Wenn von Marktanteilen gesprochen wird, ist der Anteil von Suchanfragen an der Gesamtzahl aller Suchanfragen gemeint. Die tatsächliche Anzahl aller Suchanfragen ist unmöglich zu bestimmen, da Suchmaschinenbetreiber die Anzahl an Anfragen nicht bekannt geben. „... werden die konkret eingesetzten Methoden bei fast allen Suchmaschinen vertraulich behandelt; veröffentlicht werden meist nur Angaben zu den Leistungsmerkmalen mit wenig detaillierten Angaben zum technischen Hintergrund.“ 15

Es existiert bis heute kein unabhängiges Vergleichsverfahren, welches die wirkliche Anzahl an Suchanfragen je Suchmaschine protokolliert. Informationen über spezialisierte Suchmaschinen sind im Anhang auf Seite XI zu finden.

2.4 Google als Marktführer

Allgemein durchgesetzt hat sich die Ansicht: „Was für Google gut ist, ist auch gut für die anderen Suchmaschinen.“ Dies ist auf die unangefochtene Marktführerschaft von Google zurückzuführen. Im täglichen Sprachgebrauch hat sich „googeln“ als Pseudonym für die Websuche etabliert. 2004 wurde das Wort „googeln“ 16 in den Wortschatz des deutschen Duden aufgenommen. Der Erfolg von Google stützt sich auf die überlegene Qualität der Suchergebnisse bei Suchanfragen. Unter der Qualität von Suchanfragen wird der inhaltliche Zusammenhang der gefundenen Webseiten zum Suchwort verstanden. Der entscheidende Fortschritt wurde mit der Einführung vom Link Popularity & Analysis Verfahren gemacht. Google führte diese Technik 1998, als sich die

Google als Marktführer

Suchmaschine noch in ihrem Betatest Stadium befand, als erster unter dem Namen PageRank - Verfahren ein.

„Die Gründer und Entwickler der Suchmaschine Google Sergey Brin und Larry Page entwickelten das hoch effiziente PageRank - Verfahren, das bei der Relevanzbewertung von Dokumenten explizit die Hyperlink-Verweise von Dokumenten zueinander analysiert und die Anzahl und Qualität der Hyperlink-Verweise als relevantes Gewichtungskriterium einsetzt.“ 17 Eine genaue Beschreibung des Verfahrens ist im Kapitel 4.3 zu finden. Google war damit auf Anhieb so erfolgreich, dass schon im Jahr 1999, ein Jahr nach der Gründung, AOL und Netscape eine Zusammenarbeit aufnahmen. Heute beliefert Google unter anderem T-Online im deutschsprachigen Raum. Nicht nur die Qualität der Ergebnisse auch die Geschwindigkeit, mit denen diese geliefert werden, ist hervorragend. Google betreibt keine Supercomputer mit extremen Rechenleistungen sondern setzt viele einfache Office-Rechner, die intelligent vernetzt sind (Rechnerclustering). Die Vernetzung basiert auf dem kostengünstigen Betriebssystem Linux. Google kauft alte Rechner auf und schließt diese zu immer größer werdenden Netzwerken zusammen, welche sich auf viele einzelne Rechenzentren verteilen. Der Vorteil liegt vor allem in der hohen Ausfallsicherheit begründet. Der Datenbestand ist mehrfach gespiegelt bzw. gesichert. Fällt ein Rechenzentrum aus, übernimmt ein anderes dessen Arbeit. Nach eigenen Angaben beläuft sich die Gesamtzahl der Rechner auf 10.000 Stück. Experten schätzen diese Zahl aber als weit untertrieben und rechnen mit mehr als 100.000 Computern.

„Über die Frage, wie viele Server in den verschiedenen Rechenzentren stehen, wird seit Jahren spekuliert. Mal werden 60.000, mal über 100.000 Server genannt.“ 18

Google als Marktführer

Einem Problem, welchem sich Google in den kommenden Jahren stellen muss, ist der Vorwurf der bewussten Monopolisierung des Suchmaschinenmarktes. Monopolisten haftet der Ruf von Beeinflussung der Kunden und Missbrauch in Form von gezielter Zurückhaltung von Informationen an. Aufgrund der Abschottung nach außen, bietet Google Kritikern genügend Anlass zur Spekulation und Vorwürfen. Konkrete Vorwürfe wurden im Zusammenhang mit dem von Google angebotenen Email - Service laut. Die Mails werden automatisch indexiert, um dem User personenspezifische Werbung zukommen zu lassen. Dass die Daten anonym behandelt werden, konnte Google noch nicht überzeugend belegen.

2.5 Marketingpotential von Suchmaschinen

„Egal, ob Sie Spezialist für spezielle Operationsmethoden sind, ausgefallene Maschinenelemente herstellen oder mit Schweinebäuchen handeln: Nicht nur für den Massenmarkt im Endkunden-Geschäft, sondern auch im B2B-Bereich sind Suchmaschinen das geeignetste Instrument, die Zielgruppe und potenzielle Kunden zu erreichen. Nie zuvor war es überhaupt möglich, aktiv Suchende so direkt anzusprechen.“ 19

Der neue Ansatz von Suchmaschinenmarketing und letztendlich das große Potential, ist der Umstand, dass jeder Nutzer einer Suchmaschine bereits ein Bedürfnis hat, welches mit Produkten oder Dienstleistungen befriedigt werden

Marketingpotential von Suchmaschinen

kann. Marketing im klassischen Sinn soll ein Bedürfnis wecken. Der potentielle Kunde muss davon überzeugt werden, dass er einen Bedarf an ihrer Leistung hat. Mit dieser Überzeugungsarbeit wird ein Großteil der Mittel im Marketing gebunden. Der Marketingnutzen von Suchmaschinenoptimierung kann anhand der Onlinebuchhändlerbranche verdeutlicht werden. Der Konkurrenzdruck war in den vergangenen Jahren enorm. Die wenigen verbliebenen Anbieter konnten sich über eine Meldung des Bundesverbandes des deutschen Versandhandels freuen. Demnach stieg der Umsatz des Onlinebuchhandels im Jahr 2005 auf 6,1 Milliarden Euro, etwa ein Viertel mehr als im Vorjahr. Diese Zahl verdeutlicht das enorme Potential des Internethandels. Nicht der gesamte Umsatz kann Besuchern, welche die Buchhändlerseite über Suchmaschinen gefunden haben, zugerechnet werden. Eine Analyse geht von 79,3% 20 der Besucher einer Internetseite aus, die ihren Weg über einen Suchdienst gefunden haben. Durch die Preisbindung im Buchhandel, ist oftmals der einzige Grund, warum ein Kunde bei Anbieter A und nicht bei Anbieter B bestellt, dass er einen von beiden schneller in einer Suchmaschine gefunden hat.

Fittkau & Maaß betreibt die, nach eigenen Angaben, größte kontinuierliche europäische WWW-Meinungsumfrage. In der 20. WWW-Benutzer-Analyse W3B vom 4. April bis 9. Mai 2005 bei der 101.385 Internet-Nutzer befragt wurden, konnten folgende regelmäßig genutzte Dienste ermittelt werden: 21

Marketingpotential von Suchmaschinen

image 35aa4cc61432bc9c37c7cbab156dcf07

Ein Internetnutzer ist ein potentieller Kandidat für die Nutzung einer Suchmaschine.

Kein Unternehmen, welches Geschäfte im Internet tätigen will, kann es sich leisten, Suchmaschinenoptimierung zu ignorieren. In der Praxis zeigt sich, dass diese Meinung bei längst nicht allen angekommen ist. „So gibt sich beispielsweise BMW gegenüber Suchmaschinen sehr verschlossen. Die Deutsche Bank macht sich noch weniger Mühe... . Die Beispiele sollen vor allem demonstrieren, dass in der Regel bei keinem Projekt an Suchmaschinen gedacht wird. Dies wird sich in naher Zukunft ändern, denn Unternehmen werden verstehen, dass sich ihre Zielgruppe im Internet bewegt und sucht.“ 23 Gerade bei alteingesessenen Firmen ist das Verständnis für die Suchmaschinenoptimierung noch nicht vollständig ausgereift. Das Ausruhen auf alten Marktanteilen und Marketingkapazitäten in klassischen Medien, verschafft neuen und kleineren Unternehmen einen Vorsprung im Suchmaschinenmarkt. Unternehmen, die einen Großteil des Umsatzes aus Geschäften im Internet

22 siehe Glossar

Marketingpotential von Suchmaschinen

generieren, wissen wesentlich besser das Potential von Suchmaschinen- als wichtiges Marketinginstrument zu nutzen.

Keyword - Analyse

3 Keyword - Analyse

„Primäres Ziel der Analyse von Textdokumenten ist es, diejenigen Begriffe in einem Dokument zu identifizieren, die dazu geeignet sind, ein Thema inhaltlich zu repräsentieren. D.h. aus der Gesamtmenge an Worten eines Textdokumentes müssen genau die Worte vom System erkannt werden, über die es möglich ist, den thematischen Inhalt eines Dokumentes darzustellen. Diese Teilmenge an Begriffen werden allgemein hin als Schlüsselwörter oder Keywords, aber auch als Deskriptoren bezeichnet.“ 24

Ein Hauptbestandteil der Suchmaschinenoptimierung liegt in der Analyse und Wahl der richtigen Suchbegriffe, auf welche die Webseite ausgerichtet werden soll. Auf diese Suchbegriffe gibt es drei verschiedene Sichten:

- die der Webseitengestalter

- die der Suchenden

- die der Suchmaschinenbetreiber Die Sicht der einflussreichsten Gruppe ist verständlicherweise die der Webseitengestalter. Den Webseitengestaltern ist es freigestellt, auf welche Wörter sie die Seite spezialisieren möchten. Es sollte einem bewusst sein, dass besonders häufig gebräuchliche Wörter auch von vielen anderen Webmastern zur Optimierung ausgewählt werden.

Die zweite Sicht ist die der Suchenden. Webseiten existieren, um von interessierten Suchenden gefunden zu werden. Nutzen diese dabei Suchmaschinen, sollte sich ein Webseitengestalter Gedanken machen, nach welchen Suchbegriffen am häufigsten gesucht wird. Da die Konkurrenz enorm hoch sein kann, ist es als Neueinsteiger wenig sinnvoll sich ein allgemeines Wort wie zum Beispiel „Sport“ auszuwählen. Hier wäre eine detailliertere Auswahl, wie eine Sportart (zum Beispiel Volleyball) sinnvoller. Es wird sich schnell zeigen, dass selbst diese Wahl ein immer noch zu hochgestecktes Ziel ist. Eine weitere

Keyword - Analyse

Möglichkeit der Spezialisierung des Keywords ist die Wahl einer Wortverbindung wie „Volleyball Hamburg“. Handelt es sich bei der Webseite um ein Portal einer Volleyballmannschaft aus Hamburg, so ist die Wahrscheinlichkeit, dass die Webseite relativ weit oben im Suchergebnis steht, wesentlich höher als ohne den Zusatz „Hamburg“. Es wird deutlich, dass die Wahl der richtigen Suchwörter ebenso wichtig wie die Suchmaschinenoptimierung selber ist. Die dritte Sicht ist die der Suchmaschinenbetreiber. Sie entscheiden darüber, welche Wörter zu Suchwörtern werden. Anhand der von ihnen entwickelten Algorithmen der Suchmaschinen werden vorgefundene Texte analysiert und Suchbegriffe extrahiert.

Alle drei Sichtweisen haben Einfluss. Der Webmaster orientiert sich am Suchverhalten der Suchmaschinenbenutzer, indem die Algorithmen der Suchmaschinen möglichst stark einem real Suchenden nachempfunden werden. Der Suchende steht demnach im Mittelpunkt der Webseitengestaltung. Dies wird von Suchmaschinenbetreibern den Webmastern immer wieder nah gelegt. Sie sollten sich am Suchverhalten echter Internetbenutzer orientieren.

3.1 Bedeutung von Keywords für Suchmaschinen

Wer vor der Wahl steht, die Entscheidung für ein Suchwort zu treffen zunächst verstehen, wie Suchmaschinen den einzelnen Webseiten Suchbegriffe zuordnen. Einer Webseite wird nicht einfach ein häufig vorkommendes Wort zugeordnet. Suchmaschinenbetreiber bedienen sich verschiedener statistischer Verfahren (z.B. Stoppwortlisten, Gewichtungsmodelle, Vektorraummodelle, relative Worthäufigkeiten oder Cluster - Bildung), um Webseiten bestimmte Themen (Keywords) zuzuordnen.

3.1.1 Deskriptorengewinnung

Wird eine Anfrage auf einer Suchmaschine gestellt, so werden nicht alle Einzeldokumente nach dem Suchbegriff durchforscht. Die Dokumente werden

Bedeutung von Keywords für Suchmaschinen

durch Wörter repräsentiert, die im Text vorkommen und den Inhalt am genauesten wiedergeben. Suchmaschinen führen große Indexlisten mit verschiedenen Suchbegriffen und ihnen zugeordneten Verweisen.

image c3def4ab8942981f993d80bb70696598

Abbildung 3: Indizierung von Wörtern bei der Volltextsuche (Quelle: H.C.Boos 2001) Abbildung 3 zeigt einen einfachen Ansatz der Wortindizierung mit Hilfe einer Matrix. Die Suchbegriffe werden in den Zeilen und die Dokumente in den Spalten angeordnet. Die Elemente der Matrix, hier symbolisch als Kreuze dargestellt, stellen die Worthäufigkeit im Dokument dar. Die meisten Volltextsuchmaschinen basieren auf solchen Matrixindizierungen. Dabei kann die Matrix wesentlich mehr Informationen beinhalten, um auch die Identifizierung eines Wortes anhand nur eines Bruchstückes zu gewährleisten.

Um nun an die relevanten Suchbegriffe zu gelangen, bedienen sich Suchmaschinen sogenannter Keyword - Relevanzfilter. Diese Filter durchsuchen ein Dokument, um die relevantesten Begriffe zu extrahieren. Dabei wird nicht zwangsläufig das gesamte Dokument durchsucht sondern häufig nur ein

Bedeutung von Keywords für Suchmaschinen

Teilbereich. Es gibt Möglichkeiten, bei der sich die Suche nur auf den HEAD-Tag 25 beschränkt, oder aus Performancegründen auf die ersten 100 bis 200 Wörter. Die Einführung von Deskriptoren ermöglicht die Verfolgung von folgenden 3 Zielen: 26 1. Suche nach Dokumenten, die relevant für eine Suchanfrage sind 2. Thematische Verknüpfung von Dokumenten 3. Relevanzbestimmung der gefunden Dokumente bezogen auf eine Suchanfrage Bei besonders langen Dokumenten ist eine Abbildung von allen behandelten Themen schwierig, da eine Vermeidung von Allgemeingültigkeit im Vordergrund steht. Es bietet sich für den Webmaster an, ein langes Dokument in mehrere spezifische Teile, auf mehrere Webseiten zu gliedern.

Wird ein Satz bezüglich Relevanz der Wörter untersucht, stellt man schnell fest, dass besonders Füllwörter nicht geeignet sind einen Text zu beschreiben. Vor allem Substantive spiegeln das Thema des Dokumentes am besten wieder. Dabei unterscheiden Suchmaschinen nicht zwischen der Art des Textes. Suchmaschinen können nicht unterscheiden, um was für ein Dokument es sich handelt. Ob es ein Zeitungsartikel, wissenschaftlicher Beitrag oder laienhafter Text ist, wird nicht berücksichtigt. Suchmaschinen sind nicht auf reine Html-Dokumente beschränkt. Es werden viele Arten von Dokumenten durchsucht (u.a. pdf, asp, jsp, html, shtml, xml, cfm, doc, xls, ppt, rtf, wks, lwp, wri, swf, cfm und php). Lediglich Texte, die in Bildern oder Flash -Animationen integriert sind, können nicht durchsucht werden.

Bedeutung von Keywords für Suchmaschinen

3.1.2 Häufigkeitsverteilung der Suchwörter

Als Basis der Entscheidung, ob ein Wort wichtig oder unwichtig für die Beschreibung des Textes ist, wird die einfache Häufigkeitsverteilung gesehen. Die allermeisten automatischen Indexgenerierungsverfahren bauen auf die Annahme, dass die Häufigkeit einzelner Begriffe in einem natürlichsprachigen Text, mit der Bedeutsamkeit dieser Wörter für die inhaltliche Repräsentation korreliert. Schon H.P. Luhn, einer der Pioniere der automatischen Indexierung, erkannte den Zusammenhang zwischen Worthäufigkeit und Wortbedeutung. 27

image 3201f9171460b0532272f557b3d7cb4e

Abbildung 4: Zusammenhang zwischen relativer Suchbegriffhäufigkeit und Wortrelevanz (Quelle:

Eigenanfertigung)

Aus empirischen Untersuchungen ist bekannt, dass häufig vorkommende Wörter ebenso ungeeignet als Keywords sind, wie selten vorkommende Wörter. Abbildung 4 zeigt, dass die Wörter mit einer relativen Suchbegriffshäufigkeit 28 zwischen 3 und 7% die höchste Wortrelevanz 29 besitzen und am geeignetsten für die Indexierung sind.

Dieser Umstand wird genutzt. Um der Suchmaschine vorzugaukeln, dass es sich um eine besonders relevante Seite zu diesem Thema handelt, werden gehäuft

Bedeutung von Keywords für Suchmaschinen

identische Wörter eingebaut. Suchmaschinen benutzen aus diesem Grund weit komplexere Verfahren der Häufigkeitsverteilung.

Ein linguistisch gebildeter Autor wird bemüht sein, die ständige Wiederholung eines Wortes zu vermeiden. Er verwendet stattdessen Synonyme. Dies erschwert einer Suchmaschine die Erkennung des Textes zum eigentlichen Thema. Zum Beispiel wird der Autor einer Kurzbiographie von Albert Einstein selten die ständige Wiederholung des Wortes „Einstein“ wählen. Er verwendet vielmehr Begriffe wie Genie, Physiker, Vorreiter oder großer Denker. Diese Begriffe müssen in Beziehung zueinander gebracht werden. Eine Methode dies zu ermöglichen ist die automatische Cluster-Bildung 30 .

3.1.3 Suchbegriff - Dichte

Suchbegriff-Dichte (Keyword Density), bezeichnet die relative Häufigkeit eines Suchwortes innerhalb einer Seite. Dazu wird die Anzahl des Wortes durch die Gesamtzahl aller Wörter geteilt. Ist der Faktor zu hoch, kann die Seite leicht als Spam interpretiert werden. Im Allgemeinen gilt: Beträgt die Suchbegriffdichte 3 - 7%, dann wird das entsprechende Wort als wichtiger Suchbegriff interpretiert. Werte darüber sind kritisch zu beurteilen. Liegt die Häufigkeit darunter, interpretieren Suchmaschinen diese Wörter als nicht relevant. Da kein Suchmaschinenbetreiber die tatsächlichen Grenzwerte der Keyworddichte preisgibt, sind diese Werte lediglich Richtgrößen. Es finden sich zahlreiche Beispiele, bei denen Webseiten mit einer Keyworddichte von weniger als 1% oder mehr als 10% sehr gute Positionen erreicht haben. Die Keyworddichte spielt heutzutage eine wesentlich geringere Rolle als noch Mitte der 90er Jahre.

Bewertung und Suche der geeigneten Keywords für eine Webseite

Ende der Leseprobe aus 92 Seiten

Details

Titel
Suchmaschinenoptimierung als wichtiges Marketinginstrument am Beispiel der Versicherungswirtschaft
Hochschule
Hochschule für Technik und Wirtschaft Berlin
Note
1.7
Autor
Jahr
2006
Seiten
92
Katalognummer
V186273
ISBN (eBook)
9783656998310
ISBN (Buch)
9783656998686
Dateigröße
7569 KB
Sprache
Deutsch
Schlagworte
suchmaschinenoptimierung, marketinginstrument, beispiel, versicherungswirtschaft
Arbeit zitieren
Jens Bretschneider (Autor:in), 2006, Suchmaschinenoptimierung als wichtiges Marketinginstrument am Beispiel der Versicherungswirtschaft, München, GRIN Verlag, https://www.grin.com/document/186273

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Suchmaschinenoptimierung als wichtiges Marketinginstrument am Beispiel der Versicherungswirtschaft



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden