Suchmaschinenoptimierung


Seminararbeit, 2008
18 Seiten, Note: 2,0

Leseprobe

Gliederung

1. Betrachtung der Relevanz von Webauftritten für Unternehmen

2. Blick auf die Entwicklung des Internets und dessen Funktionsweise

3. Überblick über Suchdienste im WWW und Betrachtung ihrer Arbeitsweisen
3.1. Genauere Betrachtung der Arbeitsweise von Suchmaschinen
3.1.1. Webcrawler
3.1.2. Ranking-Algorithmen

4. Optimierungsmaßnahmen
4.1. On-Page-Optimierung
4.1.1. Suchbegriffe
4.1.1.1. Keyword-Recherche
4.1.1.2. Einfügen der Suchbegriffe in die Domain bzw. URL
4.1.1.3. Einfügen der Suchbegriffe in den Website-Code
4.1.2. Aktualität
4.1.3. Optimierungsmaßnahmen zur Erhöhung der Verweildauer und des Traffic
4.1.3.1. Optische Optimierungsmaßnahmen
4.1.3.2. Optimierung der Usability
4.1.4. Validierung des Website-Codes
4.2. Off-Page-Optimierung
4.2.1. Eintragung in Suchmaschinen/ Webkataloge
4.2.2. Qualität der Backlinks
4.2.3. Domainmarketing
4.2.3.1. Domainstrategien
4.2.3.2. Domainregestrierung
4.2.4. Kostenpflichtige Optimierungsmöglichkeiten
4.2.4.1. Paid Submission
4.2.4.2. Pay For Inclusion
4.2.4.3. Paid Placement
4.2.4.4. Traditionelle Werbung

5. Fazit

1. Betrachtung der Relevanz von Webauftritten für Unternehmen

In der vorliegenden Arbeit möchte ich die verschiedenen Möglichkeiten der Suchmaschinen- optimierung betrachten. Das Internet hat in den letzten 15 bis 20 Jahren sowohl als interaktive Plattform für Kommunikation bzw. Datenaustausch und zur Präsentation multimedialer Inhalte, als auch als Marktplatz (e-commerce) äußerst stark an Bedeutung gewonnen. Deshalb spielt eine leicht auffindbare Webpräsenz für die meisten Unternehmen eine sehr wichtige Rolle. Zur Suche nach bestimmten Internetseiten nutzen die meisten Internetuser spezielle Suchdienste, wie z.B. Google. Damit die Adresse der unternehmens- eigenen Homepage unter den ersten Ergebnissen einer Suchanfrage vertreten ist, bedarf es bestimmter Optimierungsmaßnahmen. Dazu ist es wichtig die Funktionsweise von Internet- suchdiensten zu verstehen. Um dies zu erleichtern, sollte man sich zuerst die Entwicklung des Internets vor Augen führen und einige damit verbundene Technologien betrachten.

2. Blick auf die Entwicklung des Internets und dessen Funktionsweise

Das Internet, welches als Kommunikationsmittel des US-Verteidigungsministeriums Ende der sechziger Jahre ins Leben gerufen wurde, entwickelte sich bereits in den siebziger und achtziger Jahren zu einem von Unternehmen, Forschungsinstituten und Universitäten rege genutzten Netzwerk.1 Zu dieser Zeit diente es relativ einfach aufgebauten kommunikationstechnischen Zwecken. Gängige Übermittlungsprotokolle waren bis in die siebziger Jahre das auch noch heute genutzte FTP (File Transfer Protocol) und das Telnet- Protokoll (Telecommunication Network), eine 8-Bit-Übermittlungstechnik, die heute nicht mehr eingesetzt wird. 1974 wurde das TCP (Transmission Control Protocol) entwickelt, welches bis heute die Grundlage für viele andere Internetprotokolle darstellt. Erst als man Anfang der neunziger Jahre das WWW (World Wide Web) einführte, wurde das Internet auch Privatleuten zugänglich. Das WWW baut auf dem HTTP-Protokol (Hypertext Transfer Protocol) auf - ein Hypertextsystem, das es möglich macht, den in einem Webdokument enthaltenen Verweisen auf andere Webinhalte (Hyperlinks) zu folgen.2 Dies geschieht unabhängig davon, auf welchem Server sich die jeweiligen Dokumente befinden. Diese Technik ermöglicht es auch Suchmaschinen, die stetig wachsenden Webinhalte zu erfassen, indem sie auf den Websites nach Links suchen.

3. Überblick über Suchdienste im WWW und Betrachtung ihrer Arbeitsweisen

Man unterscheidet grundsätzlich vier verschiedene Typen von Suchdiensten, die auch in Mischformen im Netz vertreten sein können.

- Suchmaschinen
- Webkataloge
- Metasuchmaschinen
- Payed Placement-Suchmaschinen

Suchmaschinen, wie z.B. Google, setzen Web-Crawler (auch Spider, Robot oder Web Wanderer genannt) zur Suche nach neuen Webinhalten ein. Es handelt sich dabei um selbständig agierende Programme (sog. Bots), die das WWW in regelmäßigen Abständen durchkämmen und neuen Content in einen Suchindex aufnehmen. Die neu indexierten Daten werden nicht redaktionell geprüft, sondern die Aufnahme in den Index wird durch Filterkriterien der Robots gesteuert.3

Webkataloge hingegen nutzen keine Crawler. Die Erweiterung des Datenbestands erfolgt über die Eintragungen von Internetadressen durch Website-Betreiber. Die Daten werden meist einer redaktionellen Prüfung unterzogen.4

Metasuchmaschinen greifen auf den Datenbestand anderer Suchmaschinen und Webkataloge zurück. Sie verfügen über keinen eigenen Suchindex. Dafür sind die Suchergebnisse meist umfangreicher.5 Bei Payed Placement-Suchmaschinen handelt es sich eigentlich nicht um eigen-ständige Suchmaschinen. Vielmehr sind damit gekaufte Rangpositionen gemeint, die bei verschiedenen Suchmaschinen und Webkatalogen an eigens hierfür vorgesehenen Bereichen innerhalb der Suchergebnisliste erscheinen.6

3.1 Genauere Betrachtung der Arbeitsweise von Suchmaschinen

Die heutigen Suchmaschinen sind meist eine Mischform aus Suchmaschinen und Webkatalogen. Beispielsweise war Yahoo! lange Zeit ein reines Webverzeichnis, kooperierte ab dem Jahr 2000 mit Google und wurde erst 2004 mit einer eigenen Suchmaschinen- funktion ausgestattet.7 Google hingegen agierte erst als reine Suchmaschine, verfügt aber seit 2000 über ein Verzeichnis, das die Inhalte des Open Directory Project (kurz ODP, Adresse: www.dmoz.org) nutzt.8 Beim Open Directory Project handelt es sich um einen frei nutzbaren Webkatalog, der als der weltweit größte seiner Art gilt. Die folgende Tabelle gibt ein Überblick über die verschiedenen Abhängigkeiten einiger wichtiger Suchmaschinen voneinander:

Abbildung in dieser Leseprobe nicht enthalten

(Quelle: Erlhofer, Sebastian: Suchmaschinenoptimierung für Webentwickler, S.333)

In dieser Arbeit liegt der Fokus auf der Optimierung von Websites hinsichtlich ihrer Platzierung in Suchmaschinenergebnissen. Auf Optimierungsmaßnahmen bezüglich der Platzierung in reinen Webkatalogen oder Metasuchmaschinen wird nicht eingegangen. Um die Funktionsweise von Suchmaschinen zu verstehen, bedarf es einer genaueren Betrachtung der Datenbeschaffung (mittels Crawler) und der Berechnung von Relevanz- werten (Ranking-Algorithmen).

3.1.1 Web-Crawler

Web-Crawler - auch Spider oder Robots genannt - sind, wie bereits erwähnt, selbständig agierende Programme, die für Suchmaschinen das WWW nach Inhalten durchsuchen. Diese Crawler spüren anhand von Hyperlinks neue Websites auf. Theoretisch könnte annähernd das gesamte WWW erfasst werden. In der Praxis wird der Suchprozess aber nach einer bestimmten Zeit abgebrochen und die Suche von vorne begonnen. Auch werden nicht alle Ebenen einer Website durchsucht. Ein Spider erfasst nur eine Verzeichnistiefe von 6 bis maximal 10 Ebenen.9 Große, über Websites zugängliche Datenmengen, wie z.B. Datenbanken mit Webformularen, finden keine Berücksichtigung. Web-Crawler agieren außerdem grundsätzlich nur im frei zugänglichen Teil des Internets. Inhalte, die nur über passwortgeschützte Portale sowie kosten-pflichtige Suchmasken abrufbar sind oder mittels bestimmter Meta-Tags bzw. einer Robots.txt-Datei (siehe übernächster Absatz) von der Erfassung ausgeschlossen sind, werden nicht indiziert. All diese nicht in die Suche einbezogenen Bereiche bezeichnet man auch als „Deep Web“. Es gibt aber bereits erste Versuche auch das Deep-Web mit Crawlern zu durchforsten. Die Technologien sind aber noch unausgereift.10

Ein Robot kann in vier verschiede Komponenten unterteilt werden:

- Gatherer
- Loader
- URL-Datenbank
- Checker

Die einer Suchmaschine bereits bekannten Internetadressen, die nach neuen Links durch- sucht werden sollen, werden dem Loader übergeben, welcher den Suchvorgang organisiert. Der Loader verteilt Suchaufträge an die Gatherer (auch Downloader genannt), welche HTTP- Requests an die WWW-Server schicken. Die zurückgelieferten Daten werden an den Checker übergeben, der die Daten nach bestimmten Kriterien filtert. Werden nicht mehr existierende URLs erkannt, erfolgt eine Löschmeldung an die URL-Datenbank. Die Inhalte, die den Filter passieren, werden an das Information Retrieval System (Datenbank) der Suchmaschine übergeben. Neu gefundenen Adressen werden entweder sofort von den Gatherern verfolgt oder es erfolgt erst ein Eintrag in die URL-Datenbank und die Gatherer steuern die neuen Links in einem gesonderten Suchlauf an.11

Gatherer orientieren sich aber nicht allein an Hyperlinks, sondern auch anhand sogenannter, in den HTML-Code der jeweiligen Internetseite eingebetteter Robot-Meta-Tags. Der Website- Betreiber hat somit die Möglichkeit die Suche der Gatherer zu beeinflussen, um Webinhalte von einer Indizierung auszunehmen. Mittels der Robot-Meta-Tags kann der Betreiber bestimmen, ob die Seite von Robots in einen Suchindex aufgenommen werden soll oder nicht. Es besteht auch die Möglichkeit festzulegen, ob auf der Website enthaltene Links weiterverfolgt werden dürfen.12 Unter zur Hilfenahme einer robots.txt-Datei – das ist ein einfaches Textdokument, welches im Stammverzeichnis der Website auf dem Server gespeichert wird - können Unterverzeichnisse einer Website vor dem Zugriff von Crawlern geschützt werden.13 Doch einige Spider lesen heute die Robot-Meta-Tags und die robots.txt nicht mehr aus. Ein hundertprozentiger Schutz vor der Erfassung von Inhalten wird durch die beiden Methoden nicht gewährleistet. Hierfür bietet sich eher die Einrichtung passwortgeschützter Bereiche an.

3.1.2 Ranking-Algorithmen

Um zu bestimmen in welcher Reihenfolge die Ergebnisse einer Suchanfrage aufgelistet werden, bedienen sich die Suchmaschinen sogenannter Ranking-Algorithmen. Ziel ist es, die bezüglich einer Suchanfrage als äußerst relevant betrachteten Webinhalte in der Ergebnis- liste weit oben zu positionieren. Mittels der Algorithmen versucht man die Relevanz der Inhalte abzustufen und auf dieser Grundlage den Websites eine Platzierung (Pagerank) innerhalb einer Suchergebnissliste zuzuordnen. Man stützt sich dabei auf zwei Bewertungsverfahren:

- die Analyse des Seiteninhalts (On-Page-Faktoren) und
- die Analyse der Verlinkung (Off-Page-Faktoren).

Bei der Analyse des Seiteninhalts konzentriert man sich auf Schlagwörter (Keywords), die in die Website eingebunden werden. Genauer wird darauf im Abschnitt „ 4.1.1.2 Einfügen der Suchbegriffe in den Html-Code “ eingegangen. Bei der Analyse der Verlinkung ist die Anzahl der Links, welche auf eine Website verweisen, ausschlaggebend. Dazu wird der von einem Crawler ausgelesene Webinhalt nach der entsprechenden Internetadresse durchsucht. Je höher die Anzahl der gefundenen Backlinks ist, um so besser gestaltet sich der Pagerank.14 Die Anzahl der Backlinks bezeichnet man auch als Linkpopularität. Der reinen Anzahl der Links wird wegen häufigen Missbrauchsversuchen nicht mehr so viel Gewicht verliehen.

Sogenannte Linkfarmen, die keinen anderen Zweck verfolgen, als sich durch Hundertfache gegenseitige Verlinkung eine hohe Linkpopularität zu erschleichen, werteten die Aussagekraft der Linkpopularität immer mehr ab. Deshalb kommt heute der Domainpopularität eine größere Bedeutung zu. Diese unterscheidet, wie viele unterschiedliche Domains (IP-Adressen) auf eine Website linken, unabhängig von vielleicht mehreren Links von einer Domain zur anderen.15 Wie diese Faktoren in die Berechnung des Pagerank einfließen bzw. wie die Algorithmen im Detail aussehen ist, nicht bekannt. Die Suchmaschinenbetreiber halten die Algorithmen geheim und ändern diese von Zeit zu Zeit, um Missbrauch zu vermeiden.

4. Optimierungsmaßnahmen

Bei der Optimierung von Websites unterscheidet man simultan zu der On-Page- und Off- Page-Analyse der Suchmaschinen zwischen einer On-Page und einer Off-Page- Optimierung.

4.1 On-Page-Optimierung

4.1.1 Suchbegriffe

Den Kern der Optimierungmaßnahmen bildet die Auswahl passender Suchbegriffe. Diese sollten kurz und prägnant sein, das Thema bzw. den Inhalt der Website möglichst genau widerspiegeln und von Internetusern häufig benutzt werden. Man kann dabei unter allgemeinen und spezifischen Schlagwörtern unterscheiden. Beispielsweise stellen für die Website eines Hotels Begriffe wie Urlaub, Ferien, Reise oder eben Hotel allgemeine Suchbegriffe dar. Beim Namen der Stadt oder der Region, in welcher sich der Betrieb befindet, handelt es sich hingegen um spezifische Begriffe. Den allgemeinen Schlagwörtern kommt meist die größere Bedeutung zu, weil sie am häufigsten genutzt werden und User,Welche den Wbaufttitt bzw.

[...]


1 vgl. http://www.internet-manual.de/geschichte.htm (05.04.2008)

2 vgl. http://www.points.de/geschichte-des-internet.php (10.04.2008)

3 vgl. Göggler, Michael: Suchmaschinen im Internet, 1. Auflage, Berlin/ Heidelberg: Springer-Verlag, 2003, S.6

4 vgl. Göggler,M. S. 6

5 vgl. Göggler,M. S. 8

6 vgl. Göggler,M. S. 9

7 vgl. http://www.seo-solutions.de/artikel/geschichte-der-suchmaschine-yahoo.html ( 20.04.2008)

8 vgl. http://www.intern.de/news /420.html (25.04.2008)

9 vgl. Göggler,M. S. 155

10 vgl. http://www.linksandlaw.de/news1076-deep-web-aktiv.htm (01.05.2008)

11 vgl. Göggler,M. S.27-29

12 vgl. Fischer, Mario: Website Boosting, 1. Auflage, Heidelberg: mitp, 2006, S. 141

13 vgl. Fischer,M. S. 216

14 vgl. http://www.suchmaschinentricks.de/ranking/grundlagen (05.05.2008)

15 vgl. http://www.linkbuilding.de/warum-links-wichtig-sind.html (20.05.2008)

Ende der Leseprobe aus 18 Seiten

Details

Titel
Suchmaschinenoptimierung
Hochschule
Hochschule für angewandte Wissenschaften Ingolstadt
Veranstaltung
Seminar zum Studienschwerpunkt Wirtschaftsinformatik und Multimedia
Note
2,0
Autor
Jahr
2008
Seiten
18
Katalognummer
V123373
ISBN (eBook)
9783640291342
ISBN (Buch)
9783640291519
Dateigröße
474 KB
Sprache
Deutsch
Anmerkungen
Eine effektive Suchmaschinenoptimierung ist schon mit wenigen einfachen Maßnahmen realisierbar. Wenn passende Keywords gefunden und diese in die Website integriert wurden und einige Backlinks eingerichtet sind, werden in den meisten Fällen bereits gute Positionierungen in den Suchmaschinenergebnissen erreicht. Durch zusätzliche kostenpflichtige Maßnahmen ist eine Stabilisierung des Pageranks bzw. eine weitere Steigerung möglich.
Schlagworte
Suchmaschinenoptimierung, SEO, Suchmaschinen, Pagerank, Domainmarketing, Internet, Informationsmanagement
Arbeit zitieren
Dipl. Betriebswirt (FH) Michael Hettich (Autor), 2008, Suchmaschinenoptimierung, München, GRIN Verlag, https://www.grin.com/document/123373

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Suchmaschinenoptimierung


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden