Suchmaschinen. Optimierung und Marketing

Ein Überblick über die verschiedenen Technologien und Einsatzmöglichkeiten mit dem Schwerpunkt Google


Diplomarbeit, 2008
92 Seiten, Note: 1,0

Leseprobe

Inhalt

1 Einleitung
1.1 Ziel der Arbeit
1.2 Aufbau der Arbeit

2 Grundlagen von Suchmaschinen
2.1 Zeitliche Entwicklung der Suchmaschinen
2.2 Marktanteile
2.3 Arten von Suchmaschinen
2.3.1 Algorithmische Suchmaschinen
2.3.1.1 Indexsuchmaschine
2.3.1.2 Metasuchmaschinen
2.3.2 Manuelle Suchmaschinen
2.3.2.1 Webkataloge
2.3.2.2 Soziale Suchmaschine
2.4 Aufbau von Suchmaschinen
2.4.1 Web-Robot-System
2.4.2 Information Retrieval System
2.4.3 Query Prozessor
2.5 Aufbau von Ergebnisseiten

3 Suchmaschinen-Optimierung
3.1 Abgrenzung und Erklärung der wichtigsten Begriffe
3.1.1 Backlink
3.1.2 Keyword
3.1.3 Linkpopularität
3.1.4 Domainpopularität
3.1.5 IP-Popularität
3.1.6 PageRank
3.1.7 BadRank
3.1.8 TrustRank
3.2 Aufbau des Suchmaschinen-Algorithmus
3.3 On the Page - Optimization
3.3.1 Keyword- Optimierung
3.3.2 HTML Optimierung
3.3.3 Inhalt-Optimierung
3.3.4 Interne Verlinkung
3.4 Off the Page - Optimization
3.4.1 Struktur und Bezeichnung der URL
3.4.2 Aktualität
3.4.3 Link- und Klickpopularität
3.5 Negative Einflussfaktoren
3.5.1 Spam
3.5.1.1 Hidden Text und Hidden Links
3.5.1.2 Kommentarspam
3.5.1.3 Doorway-Pages
3.5.1.4 Cloaking
3.5.2 Duplicate Content
3.5.3 Session-IDs und Login
3.5.4 Frames
3.6 Grenzen der Optimierung
3.7 Tools für SEO
3.7.1 Google Keyword-Tool
3.7.2 Google Webmaster-Tools
3.7.3 LinkVendor SEO Tools
3.7.4 Copyscape

4 Suchmaschinen Marketing
4.1 Stärken des Online Marketing
4.1.1 Interaktivität
4.1.2 Hypermedialität
4.1.3 Räumliche und zeitlich Unbegrenztheit
4.2 Arten von Online Marketing
4.2.1 Suchmaschinen Marketing
4.2.2 E-Sponsoring
4.2.3 Banner/Button Marketing
4.2.4 E-Mail / Newsletter Marketing
4.2.5 Affiliate Marketing
4.3 Planung einer SEM-Kampagne
4.3.1 Zielgruppe
4.3.2 Keyword Auswahl
4.3.3 Anzeigentext
4.4 Überblick über Produkte für SEM
4.4.1 Google
4.4.1.1 AdWords
4.4.1.2 AdSense
4.4.2 Yahoo!
4.4.3 Baidu
4.4.4 Miva
4.5 Nachteile des SEM

5 Analyse von Praxisdaten
5.1 Ergebnisse des BVDW Fragegogens zu SEM und SEO
5.1.1 Allgemeine Fragen zum Unternehmen, Trends und Entwicklungen
5.1.2 Fragen zum Einsatz von SEM
5.1.3 Fragen zum Einsatz von SEO
5.2 Analysen zweier AdWords Kampagnen
5.2.1 Analyse des Klickverhaltens bei Anzeigen und Netzwerken
5.2.2 Analyse einer Keyword Optimierung einer Kampagne

6 Web-Controlling
6.1 Definition von Web-Controlling
6.2 Kennzahlen
6.3 Methoden
6.3.1 Logfile-Analyse
6.3.2 Clickstream-Analyse
6.3.3 Cookie-Tracking
6.3.4 Pixel-Tracking
6.4 Web-Controlling Software
6.4.1 Google Analytics
6.4.2 AdControl
6.4.3 ClickTracks

7 Fazit

Abkürzungsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Literatur

1 Einleitung

Im Internet gibt es viele Möglichkeiten Informationen zu finden, ohne Suchmaschinen wäre die Informationsmenge nicht mehr beherrschbar. Sie bieten eine einfache Möglichkeit, die gewünschten Informationen abzurufen, wofür früher Gelehrte, Bibliothekare oder Auskunftsbüros eingesetzt wurden. Suchmaschinen bieten das Ergebnis der Suchanfrage in einer übersichtlichen Reihenfolge an, diese ist nach relevanten jedoch geheimen Kriterien aufgebaut. Hier besteht eine oft gesehene Gefahr, dass die Suchmaschinenbetreiber Ergebnisse manipulieren und so den Informationsfluss beeinflussen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1 Das Bild des Google Masterplans welches im Foyer des Googleplex hängt[1]

Diese Einfachheit Informationen zu finden führt dazu, dass Suchmaschinen zu den meist besuchten Plätzen im Internet gehören. Einer ComScore Studie nach wurden im Dezember 2007 weltweit 66,2 Milliarden Suchanfragen getätigt.[2]

Somit sind Suchmaschinen für Websitebetreiber, insbesondere Firmen, wichtig um im Internet gefunden zu werden. Suchmaschinen bieten die Möglichkeit Anzeigen passend zum Suchwort auf der Ergebnisseite zu schalten. Die Vermarktung dieser Anzeigen ist ein schnell wachsender Markt. Google alleine hat 2008 einen geschätzten Umsatz in Höhe von 20 Mrd. USD, dieser kommt zu 2/3 aus Suchmaschinen-Werbung[3]. Trotz Finanzkrise wächst der Online Werbemarkt 2008 in Deutschland um 44,4% und das bei sinkendenden Werbeausgaben.[4] Deshalb sind Informationen wie eine Webseite für Suchmaschinen optimiert werden kann für Websitebetreiber genauso wichtig, wie das Wissen über Suchmaschinen-Marketing.

1.1 Ziel der Arbeit

Das Ziel dieser Diplomarbeit ist es, in das Thema Suchmaschinen-Optimierung und
-Marketing einzusteigen. Die einzelnen Kapitel bauen hierbei aufeinander auf und bieten jeweils einen Überblick über einen bestimmten Bereich. Hierbei werden die einzelnen Themen nicht bis ins Detail vertieft, da dies der Umfang der Arbeit nicht zulässt.

Bei allen Betrachtungen wird Google umfassender behandelt, da wegen des hohen Marktanteils viele Websitebetreiber andere Suchmaschinen vernachlässigen.

1.2 Aufbau der Arbeit

Es wird zu Beginn ein Einblick in die Geschichte, Marktanteile und Funktionsweise von Suchmaschinen gegeben. Dies wird abgerundet mit den Informationen zum Aufbau der Ergebnisseite. Im nächsten Kapitel wird gezeigt, was im Bereich Suchmaschinen-Optimierung möglich und zu beachten ist. Anschließend wird Suchmaschinen-Marketing im Bereich des Online Marketings eingeordnet und die wichtigsten Produkte beschrieben. In diesem Kapitel wird auch erläutert was bei der Planung einer Kampagne für Suchmaschinen-Werbung zu beachten ist. Durch Informationen aus der Praxis werden im nächsten Kapitel einige der theoretischen Grundlagen der vorherigen Kapitel verdeutlicht. Eine kurze Darstellung des Web-Controllings rundet den Überblick ab, denn für den langfristigen Erfolg sind aussagekräftige Informationen wichtig. Zum Schluss werden im Fazit die Erkenntnisse der Diplomarbeit mit einer Prognose für die Zukunft verknüpft.

2 Grundlagen von Suchmaschinen

Ein Überblick über die Geschichte und Funktionsweise von Suchmaschinen bildet die Grundlage zum Verständnis, wie wichtig Suchmaschinen im täglichen Leben geworden sind. Daher betrachten wir zuerst die geschichtliche Entwicklung des Suchmaschinenmarktes, und analysieren anschließend die aktuelle Situation. Eine Betrachtung der verschiedenen Kategorien und Funktionsweisen der Suchmaschinen wird durch eine Erläuterung des Aufbaus der SERP (Suchmaschinen Ergebnisseite engl. Search Engine Result Page) ergänzt. Dies bildet die Grundlage der Kapitel 3 und 4.

2.1 Zeitliche Entwicklung der Suchmaschinen

Die heutige Situation im Suchmaschinenmarkt lässt sich durch die folgenden chronologischen Ereignisse erklären, hierbei werden nur die wichtigsten Suchmaschinen und Ereignisse betrachtet.

1990

Der erste Suchdienst des Internets ist Archie, der von Alan Emtage 1990 an der McGill Universität in Montreal entwickelte wurde. Archie besteht aus einigen Skripts, die nachts Server automatisch nach Stichworten durchsuchten.

1992

Eine weitere frühe Suchmaschine ist Veronica (Very Easy Rodent-Oriented Network Index to Computerized Archives), die 1992 von Steven Foster und Fred Barrie an der Universität von Nevada entwickelt wurde. Da Gopher[5] die Boolschen Operatoren beherrscht war es möglich diese bei Veronica zu nutzen. Veronica ist eine Suchmaschine für das Gopher Protokoll, das heute kaum noch genutzt wird[6].

1993

Der erste Such-Roboter für das WWW (World Wide Web), der Wanderer (4W World Wide Web Wanderer), wurde von dem MIT[7] Studenten Mathew Gray entwickelt. Da dieser nur die WWW-Server zählte, wurde er von Michael L. Maudlin durch ein Programm mit dem Namen Wandex ergänzt. Ende 1993 sollten WWW-Server Dateien in einem Standard-Format ablegen. Diese wurden von Aliweb (Archie-Like Indexing of the Web) dann automatisch gelesen und daraus ein Index erstellt. Im Dezember kamen drei weitere Suchdienste dazu. Der World Wide Web Worm und Jumpstation, die den Titel und die URL indizierten. Bei RBSE Spider wurden die Trefferlisten erstmalig nach einem Ranking-System sortiert und angezeigt.

1994

Mit WebCrawler geht eine weitere Suchmaschine online, die die Ergebnisse auch nach einem Rankingverfahren anzeigt. Michael Mauldins geht mit Lycos im Juli online, wobei hier nicht nur die Worthäufigkeit auf einer Seite, sondern auch die Nähe der Suchbegriffe untereinander ausgewertet werden. David Filo und Jerry Yang von der Stanford University gehen mit ihrer Sammlung der besten Web-Adressen mit zwei Servern online (Yahoo!).

1995

Die ersten kommerziellen Firmen gehen mit Suchmaschinen online. Zu diesen gehören Infoseek, Architext und AltaVista. AltaVista ging aus einem Forschungsprojekt des Konzerns DEC (Digital Equipment Corporation) hervor. Architext ändert im Oktober seinen Namen in excite um. WebCrawler wird an AOL verkauft.

1996

Die Inktomi Corp. wird gegründet und ihre gleichnamige Suchmaschine wird von anderen Suchmaschinen wie Hotbot als Grundlage genutzt. AOL verkauft WebCrawler an excite[8]. Die erste deutsche Suchmaschine Flipper der TU Berlin geht online.[9] BackRub von Larry Page beginnt mit der Indizierung des Internets.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2 Google Startseite von 1998[10]

1997

Larry Page und Sergej Brin ändern den Namen von BackRub in Google um und starten die Beta Phase von google.com.

1998

Die Firma Google Inc. wird in Kalifornien gegründet und Microsoft nimmt mit MSN Search den Betrieb auf, die Ergebnisse der Suchmaschine Inktomi liefert. Mit alltheweb geht eine weitere Suchmaschine ans Netz.

1999

Das technische Team von AltaVista verlässt den Konzern, nach dem Compaq DEC übernommen hat. Mit Direct Hit wird die Klickpopularität zum ersten mal von Suchmaschinen für das Ranking genutzt.

2000

Yahoo lizensiert die Suche von Google und zeigt von nun an deren Ergebnisse. Dies führt zu dem Ende ihres Webkatalogs[11]. Die Firma Overture kauft Inktomi, AltaVista und alltheWeb und wird im gleichen Jahr von Yahoo übernommen. Mit dem Start von AdWords beendet Google den Werbefreien Suchdienst.

2004

Google Inc. geht mit großem Erfolg an die Börse. Yahoo beendet die Partnerschaft mit Google und bietet nun eine eigene Suchmaschine basierend auf Inktomi an. Die Suchmaschinen Altavista und alltheweb nutzen nun den Yahoo Suchdienst. Auch Microsoft verwendet eine eigene Suchmaschine für MSN Search im Beta Stadium.

2005

Die Betaphase von MSN Search ist zu Ende. Um besser gegen Spam vorgehen können, vereinbaren Google, Yahoo und Microsoft eine Zusammenarbeit.[12] Die chinesische Suchmaschine Baidu wird der Öffentlichkeit vorgestellt.

2.2 Marktanteile

Die Suchmaschinen verwenden unterschiedliche Algorithmen für den Aufbau der SERP und daher ist es wichtig zu wissen, welche Verbreitung eine Suchmaschine national und international hat. Der Zeit- und Kostenaufwand für die Optimierung einer Website, an eine bestimmte Suchmaschine ist groß. Mit diesen Informationen lassen sich Zeit- und Kostenaufwand für die Optimierung von Websites[13] für eine bestimmte Suchmaschine abschätzen.

Auch eine Entwicklung der Marktanteile[14] im Laufe der Zeit (siehe Abbildung 3 und Abbildung 4)[15] hilft, Tendenzen zu erkennen um frühzeitig eine Optimierung durchzuführen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3 Suchmaschinenmarkt 2002[16]

Google baut seine Marktdominanz stetig aus. Es erfolgt eine Steigerung des Anteils um ca. 15% innerhalb von 6 Jahren auf über 60% im US Markt[17]. Der Trend scheint sich zu verstärken, da Google innerhalb von 7 Monaten einen Marktanteil von 4,5% dazu gewonnen hat (siehe Abbildung 4).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4 Suchmaschinenmarkt USA 2008 Vergleich Januar mit August[18]

Alle relevanten regionalen Märkte einer Website sollten in dieser Analyse berücksichtigt werden, da sich der Suchmaschinenmarkt regional unterscheidet. Je nach Land, Region oder Sprache werden unterschiedliche Suchmaschinen genutzt. So ist die Suchmaschine Baidu[19] für den deutschsprachigen Raum schlecht nutzbar, da sie auf Webseiten[20] in chinesischer Sprache spezialisiert ist. Dies lässt sich durch einen Vergleich des deutschen mit dem asiatischen Markt belegen (siehe Abbildung 5 und Abbildung 7). Da von China ca. 40% der Suchanfragen und Nutzer kommen, ist der Marktanteil von Baidu dort sehr groß. NHN[21] als koreanische Suchmaschine hat nur einen Anteil von 4,6%, da die Suchanfragen aus Korea nur ca. 6,5% des asiatischen Marktes ausmachen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5 Suchmaschinenmarkt Asien / Pazifik Juli 2008[22]

Die große Anzahl von Produktsuchen in Verkaufsportalen ist in den Suchmaschinenmärkten erkennbar. In Asien ist es das B2B-Portal Alibaba.com und in Europa eBay. In Europa belegt eBay Platz 2 hinter Google mit 3,1% (6,1% in Deutschland) der Suchanfragen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6 Suchmaschinenmarkt Europa März 2008[23]

Die Unterschiede zwischen Europa und Deutschland sind gering, in beiden Gebieten hat Google einen Marktanteil von über 79% und eBay liegt auf dem 2. Platz. In Europa treten aber wieder einige sprachspezifische Suchmaschinen wie yandex.ru (2,2%) oder nasza-klasa.pl (1,3%) auf. Dies kommt durch die starke nationale Nutzung in den zugehörigen Ländern.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7 Suchmaschinenmarkt Deutschland Juli 2008[24]

2.3 Arten von Suchmaschinen

Suchmaschinen lassen sich nach Lewandowski[25] in zwei Kategorien einteilen. Diese Einteilung ergibt sich nach der Art, wie die Informationen des Internets indiziert werden. Es wird zwischen der automatischen und manuellen Erfassung der Inhalte unterschieden.

2.3.1 Algorithmische Suchmaschinen

Algorithmische Suchmaschinen basieren auf einem Algorithmus, der die Dokumente des Internets bewertet und indiziert. Bei Anfragen werden die Ergebnisse entsprechend der Bewertung ausgegeben.

2.3.1.1 Indexsuchmaschine

Bei den Indexsuchmaschinen indiziert ein Programm das Internet. Dieses Programm ist als Webcrawler oder Spider bekannt. Dabei scannt und speichert die Suchmaschine automatisch Internetinhalte. In Kapitel 2.4 wird diese Art von Suchmaschine genauer erläutert.

2.3.1.2 Metasuchmaschinen

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8 Aufbau Metasuchmaschine[26]

Metasuchmaschinen leiten die Suchanfrage an mehrere Suchmaschinen und/oder Webkataloge weiter. Die Ergebnisse werden zu einer SERP nach einem Algorithmus zusammengefasst, wobei doppelte Einträge nur einmal angezeigt werden. In Abbildung 8 wird der Ablauf einer Anfrage an eine Metasuchmaschine dargestellt, hierbei sind 1 bis 8 die einzelnen Schritte der Anfrage.

2.3.2 Manuelle Suchmaschinen

Bei Manuellen Suchmaschinen liegt der Schwerpunkt der Indexerstellung beim Menschen. In neuster Zeit wird die Soziale Suche immer wichtiger, welche mit dem Web 2.0 Einzug gehalten hat.

2.3.2.1 Webkataloge

Webkataloge oder Webverzeichnisse werden von Hand gepflegt. Die Informationen werden gesichtet, geprüft und katalogisiert. Hierbei wird die Information in eine Taxonomie eingeordnet. Die Pflege von Webkatalogen ist sehr zeitintensiv. Die meisten Kataloge sind Indexe zu Spezialgebieten oder Branchenverzeichnisse[27]. Das Open Directory Project [28] ist der größte Webkatalog, der sich nicht auf ein Spezialgebiet bezieht.[29]

2.3.2.2 Soziale Suchmaschine

Informationen und Erfahrungen von Benutzern werden bei einer sozialen Suchmaschine (engl. Social Search Engine) bei der Gewichtung der Ergebnisse mit berücksichtigt. Bei My Web 2.0 von Yahoo! werde die Bewertungen von registrierten Freunden in das Ranking mit einbezogen. Jeder kann Kommentare und Bewertungen zu jeder Webseite hinterlegen sobald er angemeldet ist. Diese werden bei einer Suche berücksichtigt, wenn sie von sogenannten Trusted Friends[30] stammen.[31]

2.4 Aufbau von Suchmaschinen

Suchmaschinenbetreiber halten genaue Informationen über den exakten Aufbau ihrer Suchmaschine zurück und geben nur allgemeine Daten an die Öffentlichkeit. Die meisten heutigen Suchmaschinen basieren auf dem Vektorraummodel nach Salton oder erweitern das Boolesche Modell um das relevance Ranking[32] des Vektorraummodels. Jeder Term (enthaltener Begriff oder indizierter Deskriptor) ist in diesem vieldimensionalen Vektorraum eine Dimension des Dokumentenvektors. Der Grad der Ähnlichkeit zwischen Dokumenten- und Suchanfragevektor wird durch die Korrelation dieser berechnet.[33] Alle Soft- und Hardwaremodule einer Suchmaschine lassen sich einer von drei Kategorien zuordnen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 9 Aufbau Suchmaschine[34]

In Abbildung 9 sind die Kategorien farblich unterschieden und die Daten- und Kommunikationswege zwischen ihnen dargestellt.

2.4.1 Web-Robot-System

Das System zur Datenbeschaffung wird als Web-Robot-System (in Abbildung 9 hellblau dargestellt) bezeichnet. Der Crawler ist das aktive Softwaremodul für die Erfassung von Dokumenten. Hierbei werden neue oder veränderte Dokumente erfasst. Heute werden nicht nur HTML-Dokumente verarbeitet, sondern es werden auch Microsoft-Dateien (z.B. .doc, .xls, .ppt), PDF-Dokumente, Rich-Text-Dateien und einfache Textdateien erfasst und verarbeitet. Die Restriktion auf bestimmte Dokumenttypen wird vorgenommen, damit ein höherer Verarbeitungsgrad beim Information-Retrieval-System erreicht wird. Der Crawler geht hierbei von einer Webseite aus und folgt allen Links und speichert dabei die Dokumente in einer URL-Datenbank dem sogenannten Page Repository.[35] Die Crawl Control steuert dabei die einzelnen Crawler, hierbei werden Informationen der Query Engine und der Indexe mit berücksichtigt.

2.4.2 Information Retrieval System

Die Aufgabe des Information Retrieval Systems (in Abbildung 9 blau dargestellt) ist es, die Inhalte auf das wesentliche zu reduzieren. Hierbei werden die Dokumente von dem Collection Analysis Modul in eine für die zukünftige Verarbeitung günstigere Form umgewandelt. Die Indizierung und Wichtung von Stichwörtern erfolgt in den Indexer Modulen. Beide Module füllen die Index Datenbank. Der Algorithmus, der den auf der Seite gefunden Stichwörtern die entsprechenden Relevanzwerte zuweist, ist für jede Suchmaschine geheim und variiert im Laufe der Zeit.[36]

2.4.3 Query Prozessor

Die Schnittstelle zum Nutzer ist das Webinterface der Query Engine, diese ist die Eingabeoberfläche des Query Prozessors (in Abbildung 9 dunkelblau dargestellt). Von dort gelangt die Suchanfrage an den eigentlichen Prozess, welcher anhand der eingegebenen Keywords aus dem Index des Information Retrieval Systems eine gewichtete Liste (meist nach Relevance Ranking Kriterien) erzeugt. Diese Liste wird um weitere Informationen ergänzt und an den Nutzer zurück übertragen.

2.5 Aufbau von Ergebnisseiten

Die SERP einer Suchanfrage besteht aus mehreren Eintragungen, die sich in zwei Kategorien einteilen lassen. Die Kategorien unterscheiden sich danach, ob für die Einträge bezahlt wurde oder nicht. In der Regel werden 10 generische Ergebnisse dargestellt, die durch bezahlte Ergebnisse ergänzt werden. Die SERP‘s lassen sich noch in erstes Bild (first screen)[37] und erste Seite (first page)[38] unterscheiden. Wobei die Auflösung einen großen Einfluss auf die Darstellung des ersten Bildes hat. Das prozentuale Verhältnis zwischen den beiden Kategorien unterscheidet sich je nach dem, ob man von dem ersten Bild oder der ersten Seite spricht. Über 40% der auf dem ersten Bild dargestellten Ergebnisse waren 2003 generische Einträge. Dieses Verhältnis hat sich heute wegen den größeren Bildschirmauflösungen zugunsten der generischen Ergebnisse verändert. Betrachtet man die erste Seite verändert sich das Verhältnis auf 67% der Ergebnisse.[39]

Generische Ergebnisse (Organic Listing)

Diese aus den meist kostenfreien Indexen erstellten Ergebnisse werden nach für jede Suchmaschine eigenen Algorithmen dargestellt. Da der Algorithmus, an welcher Position ein Ergebnis erscheint, geheim ist und regelmäßig modifiziert wird, gibt es keine Garantie auf welchem Platz der Ergebnisliste man sich befindet. In Kapitel 3 werden Möglichkeiten gezeigt, die Platzierung zu beeinflussen.

Bezahlte Ergebnisse (Paid Listing)

Diese meist eindeutig gekennzeichneten Ergebnisse (z.B. Anzeigen bei Google oder Sponsoren-Links bei Yahoo!) sind für den Werbenden kostenpflichtig. Über diese Ergebnisse ist es möglich, für Webseitenbetreiber auf der ersten Seite gelistet zu werden. Diese Art des Marketings heißt bei Google AdWords und wird in Kapitel 4 genauer beschrieben. Für Suchmaschinenbetreiber ist diese eine wichtige Einnahmequelle.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 10 Unterteilung der Suchergebnisse bei Google[40]

Die SERP‘s der verschieden Suchmaschinen unterscheiden sich. Abbildung 10 zeigt eine SERP zum Keyword[41] bmw. Das erste Bild lässt sich in drei Bereiche einteilen, wobei es keinen Unterschied zwischen erstem Bild und erster Seite gibt. Im Bereich 1 werden von Google die Anzeigen die einen hohen Qualitätsfaktor haben eingeblendet. Alle anderen Anzeigen sind im Bereich 2 zu finden. Sollte sich keine Anzeige für den Bereich 1 qualifizieren fällt dieser weg. Im Bereich 3 sind die generischen Ergebnisse zu finden.

Abbildung 11 und Abbildung 12 zeigen, wie eine Google Webseite von Besuchern bei verschieden Arten von Suchen wahrgenommen wird. Diese mit der Methode der Okulographie[42] gemachten Bilder zeigen, dass die SERP je nach Art der Suche anders betrachtet wird. Bei einer Transaktions-Suche ist der Schwerpunkt mehr bei den generischen Ergebnissen und nur die Top Anzeigen in Bereich 1 werden gut wahrgenommen. Anders ist es bei einer Informations-Suche, hier wird der gesamte obere Bereich des ersten Bildes betrachtet und auch beide Bereiche mit bezahlten Ergebnissen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 11 Wahrnehmung einer Transaktions-Suche bei einer Google SERP[43]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 12 Wahrnehmung einer Informations-Suche bei einer Google SERP[44]

Der als golden Triangle (siehe Abbildung 13) bezeichnete Bereich, in dem die Wahrnehmung am stärksten ist, stellt sich bei beiden Sucharten ähnlich dar. Die ersten drei Ergebnisse haben die beste Wahrnehmung und ab der Position 5 wird diese drastisch schlechter. Die Anzeigen auf der rechten Seite haben eine Wahrnehmung ähnlich der Position 5 der SERP, wobei sich diese von oben nach untern verschlechtert.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 13 Wahrnehmung einer Google Webseite mit golden Triangle[45]

In Abbildung 14 ist eine zusammengefasste SERP von Yahoo! dargestellt. Sponsoren-Links sind in den Bereichen 1, 2 und 3 zu finden, welche den Bereich 4 mit den generischen Ergebnissen einrahmen. Bei Yahoo! anders als bei Google werden auch am Ende der generischen Ergebnisse noch bezahlte Ergebnisse eingeblendet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 14 Unterteilung der Suchergebnisse bei Yahoo![46]

3 Suchmaschinen-Optimierung

Bei der Suchmaschinen-Optimierung (engl. Search Engine Optimization, SEO) geht es darum, durch Optimierung eine bessere Position der eigenen Website bei den generischen Ergebnissen zu erzielen. Diese Optimierung wird auf der einzelnen Webseite (On the Page Optimization) und im Umfeld der Website (Off the Page Optimization) gemacht. Bei der Optimierung gibt es sowohl positive Einflussfaktoren als auch negative. Das Wissen über diese negativen Faktoren, hilft die Optimierung nicht umzukehren oder den Aufwand zu groß werden zu lassen. Die Optimierungsarbeit lässt sich mit Tools erleichtern. Im Folgenden werden zuerst die wichtigsten Begriffe definiert und erklärt. Auf diesem Wissen basierend werden anschließend verschiedene Methoden zur Optimierung einer Website erläutert. Dies wird durch eine Erklärung der negativen Faktoren und der Grenzen der Optimierung sowie einiger ausgesuchter Tools zur Unterstützung der Arbeit abgerundet.

3.1 Abgrenzung und Erklärung der wichtigsten Begriffe

Wie jedes Spezialgebiet hat auch die Suchmaschinen Optimierung ihre eigenen Fachbegriffe oder spezielle Begriffsdefinitionen. Wobei Begriff in diesem Fall weit gefasst ist und auch Konzepte und Methoden umfasst.

3.1.1 Backlink

Als Backlink oder Rückverweis wird ein Textlink, der von einer anderen Website auf die eigene Website verweist, bezeichnet. Die Anzahl und die Qualität der Backlinks werden von Suchmaschinen für die Linkpopularität einer Webseite herangezogen. Über die Linkpopularität wird von Suchmaschinen auf die Qualität einer Website geschlossen, denn sie gehen davon aus, dass nur auf eine Website mit qualitativ guten Inhalt verlinkt wird. Hierbei wird der verlinkte Text als Keyword für die Website verwendet. Wenn viele Links[47] für die gleiche Website als verlinkenden Text einen negativ assoziierten Begriff verwenden, wird die Website unter diesem Begriff gefunden. Diese Methode ist als Google-Bombe bekannt und trat erstmals 1999 auf. Anfang 2007 änderte Google die Funktionsweise von Backlinks im Google-Algorithmus und entschärfte diese Missbrauchsmöglichkeit.[48]

3.1.2 Keyword

Als Keyword wird der Suchbegriff einer Suchanfrage bezeichnet, dieser kann aus einem oder mehreren Worten (Zeichen) bestehen. Ebenso wird der Begriff bezeichnet, zu dem man im Suchmaschinen Marketing die Werbung einblendet. Hierzu zählen nicht die sogenannten Stoppwörter wie Artikel, Pronomen und dergleichen, welche von Suchmaschinen gefiltert werden.[49]

3.1.3 Linkpopularität

Die Anzahl der Links, welche auf eine Webseite zeigen, wird als Linkpopularität bezeichnet. Daraus folgt, je höher die Anzahl der Links, desto höher die Linkpopularität. Die Linkpopularität wurde früher oft missbraucht und deshalb verwendet heute keine Suchmaschine mehr die reine Linkpopularität, sondern abgewandelte Konzepte.[50]

3.1.4 Domainpopularität

Die Domainpopularität ist eines dieser abgewandelten Konzepte. Hierbei zählen nicht mehr alle Links, sondern die Links einer Domäne werden einfach gezählt. Früher wurden von einer Domäne oft tausende von Links zu einer Webseite gemacht, um diese im Ranking der Suchmaschine nach oben zu bringen, diese tausenden von Links haben beim Konzept der Domainpopularität die Wertigkeit lediglich eines Links.

3.1.5 IP-Popularität

Da auch die Domainpopularität missbraucht werden kann, in dem man viele Domains auf einem Webserver bereit stellt, wurde das Konzept der IP-Popularität entwickelt. Hierbei werden alle Links auf die Webseite von der gleichen IP-Adresse über die Anzahl gewichtet. Das Vorgehen ist ähnlich der Domainpopularität, nur dass hier nicht der Domainname betrachtet wird, sondern die IP-Adresse. Dieses Vorgehen ist problematisch, da viele große Hoster (z.B. Strato) Domains auf dem gleichen Server hosten. Bei Einsatz dieses Verfahrens werden unabhängige Websites bestraft werden, da sie auf dem gleichen Server gehostet werden.[51]

3.1.6 PageRank

Der Google PageRank (PR) ist eine Verfeinerung des Linkpopularitätskonzeptes. Die Entwickler Larry Page und Sergey Brin argumentieren gegen das Konzept der einfachen Linkpopularität, da nicht jedes verlinkende Dokument gleichwertig ist und somit jeder Link entsprechend seiner Wichtigkeit gewichtet werden sollte. Da der PageRank Algorithmus schon lange im Einsatz ist, geht man davon aus, dass er von Google im Laufe der Zeit modifiziert wurde. Am Grundprinzip wird sich aber grundlegend nicht viel verändert haben, da das PageRank-Verfahren ein wichtiger Faktor des Erfolges von Google ist. Der Algorithmus ist recht einfach wenn man die Komplexität und den Umfang des Internets betrachtet.

Abbildung in dieser Leseprobe nicht enthalten

Hierbei ist:

- PR(A) der PageRank der Seite A,
- PR(Ti) der PageRank der Seiten Ti, von denen ein Link auf die Seite A zeigt,
- C(Ti) die Summe aller Links der Seite Ti und
- d ein Dämpfungsfaktor (damping factor, mit 0 ≤ d ≤ 1).[52]

Das bedeutet, dass der PageRank einer Seite sich rekursiv aus dem PageRank der Seiten mit einem Link auf diese ergibt. Somit bewertet die PageRank-Methode die Beziehung einzelner Webseiten zueinander.

Die Gogglegründer gaben in „The Anatomy of a Large-Scale Hypertextual Web Search Engine“[53] zwei intuitive Begründungen für den PageRank- Algorithmus:

1. In diesem Modell gibt es einen Zufallssurfer (engl. random surfer) welcher das Benutzerverhalten simuliert und sich zufällig Webseiten anschaut. Dabei folgt er den Links auf der Seite und geht niemals zurück. Auch interessieren ihn die Inhalte der Seite nicht. Der Dämpfungsfaktor gibt dabei die Wahrscheinlichkeit an, mit der es dem Surfer langweilig wird und er auf einer zufälligen Seite neu startet.

2. Eine Seite kann einen hohen PageRank haben, wenn viele Seiten oder wenige mit einem hohem PageRank auf sie verweisen. Dies begründet sich dadurch, dass es sich immer lohnt eine Seite zu besuchen, auf welche von vielen Plätzen im Netz verwiesen wird bzw. wenn von einer wichtigen Seite z.B. der Startseite von Yahoo! dort hin verlinkt wird.[54]

Aufgrund der Größe des Internets wird der PageRank iterativ berechnet, wobei jede Seite mit einem PageRank von 1 beginnt. In Abbildung 15 ist ein vereinfachtes Netz mit drei Seiten dargestellt. Die Seite A ist mit den Seiten B und C verlinkt. Die Seite B mit C und C mit der Seite A.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 15 Beispiel Netz mit drei Seiten[55]

In der Tabelle 1 sind die Berechnungen für 12 Iterationsschritte abgebildet, als Dämpfungsfaktor wird 0,5 gewählt, da die Berechnungen dann verständlicher sind. Es ist zu sehen, dass die Werte schnell konvergieren, so dass Google für das gesamte Internet mit ca. 100 Iterationen den PageRank berechnet.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1 Iteration des Beispielnetzes aus Abbildung 15[56]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 16 Google Toolbar[57]

Im Jahr 2000 erweitert Google seine Toolbar[58] für den Internet Explorer um eine Funktion zur Darstellung des PageRanks.[59] Wie in Abbildung 16 zu sehen ist, wird der PageRank als Balken dargestellt, dieser Balken hat 11 Abstufungen (0 bis 10). Somit gibt der PageRank der Google Toolbar nicht den regulären PageRank wieder.

Um den PageRank in den Abstufungen der Toolbar darzustellen, muss dieser skaliert werden. Google veröffentlicht die genaue Skalierung nicht. Wahrscheinlich ist eine logarithmische Skalierung mit der Basis 6 oder 7. In Tabelle 2 ist zur logarithmischen Basis 6 und dem Dämpfungsfaktor d=0,85 eine mögliche Skalierung dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2 PR-Darstellung in der Google Toolbar (logarithmische Basis 6 und d=0,85)[60]

Der maximale PageRank einer Seite lautet max(PR) = dN + (1-d) mit

- N als Anzahl aller Webseiten und
- d dem Dämpfungsfaktor.

Wenn man die Darstellung des PageRanks des Google Verzeichnisses[61] mit dem der Toolbar vergleicht (siehe Abbildung 17), sind Abschätzungen zum PageRank möglich, da das Google Verzeichnis den PageRank nur von 0 bis 7 abbildet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 17 Vergleich Google Toolbar (rot) mit Google Verzeichnis (blau)[62]

3.1.7 BadRank

BadRank ist eine Methode die parallel zum PageRank den negativen Einfluss einer Webseite misst. Es wird angenommen das Google diese oder ein ähnliche Methode benutzt, um den negativen Einfluss zu bewerten.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 18 Konzept BadRank:[63]

Das Verlinken zu schlechten Nachbarwebsites (engl. bad neighborhood) ist die Grundlage des BadRank. Dieser ist ähnlich dem PageRank aufgebaut, nur gibt hier nicht die verlinkende Seite (Seite A) PageRank an die empfangende Seite (Seite B) ab, sondern das Konzept funktioniert in entgegengesetzter Richtung (siehe Abbildung 18).

So lässt sich der BadRank ähnlich des PageRanks in einer Formel wiedergeben:

Abbildung in dieser Leseprobe nicht enthalten

Hierbei ist:

- BR(A) der BadRank der Seite A,
- E(A) ein numerischer Faktor[64],
- BR(Ti) der BadRank der Seiten Ti, auf welche Seite A verlinkt,
- C(Ti) die Summe aller eingehender Links der Seite Ti und
- d ein Dämpfungsfaktor (damping factor, mit 0 ≤ d ≤ 1).

Durch die Umkehr des PageRank Algorithmus ergibt sich, dass der BadRank immer nur erhöht werden kann, für jeden ausgehenden Link der Seite. So kann ein Link auf eine schlechte Seite schon große Folgen haben, da er nicht durch Links auf gute Seiten ausgeglichen werden kann. Dieses Problem wird relativiert, da sich der BadRank einer Seite, ähnlich dem PageRank, auf alle eingehenden Links gleichmäßig verteilt.

3.1.8 TrustRank

Der TrustRank ist der Wert den eine Suchmaschine vertrauenswürdigen Seiten gibt. Dieser Glaubwürdigkeitslevel berechnet sich aus dem Alter der Website und der Qualität der Backlinks, wobei gilt, je größer der Wert ist, desto besser ist er. Dieser Wert kann durch einen manuellen Faktor noch erhöht werden. Hier gilt ähnlich zum BadRank, dass der TrustRank vermutet wird, aber bisher noch nicht bestätigt wurde. Seiten mit einem hohen TrustRank kommen oft sehr hoch in die generische SERP. Ein Beispiel für eine Seite mit hohem TrustRank wäre Wikipedia.[65]

3.2 Aufbau des Suchmaschinen-Algorithmus

Jede Suchmaschine nutzt ihren eigenen Algorithmus für das Ranking, dieser wird geheim gehalten und regelmäßig geändert. Es lassen sich aber die Faktoren, welche einen Einfluss auf den Algorithmus haben, nennen. Diese Faktoren lassen sich in On the Page und Off the Page Faktoren unterteilen[66].

Die On the Page Faktoren stammen aus dem klassischen Information Retrieval und sind anfrageabhängig. Zu diesen zählen:

- Keyword-Dichte
- Reihenfolge der Suchbegriffe in der Anfrage
- Wortnähe (engl. Keyword Proximity)
- Auszeichnung der Keywords durch HTML-Tags
- Inverse Dokumenthäufigkeit (engl. Inverted Document Frequency)[67]
- Sprache des Dokumentes ist die Sprache des Länderinterfaces
- Geo-Targeting[68]
- Ankertext welcher auf das Dokument verweist
Die Anfrageunabhängigen oder Off the Page Faktoren wurden mit der Zeit immer wichtiger und sind heute das bedeutendste Kriterium bei den meisten Suchmaschinen.
- Linkpopularität
- Aktualität
- Dokumentlänge und –format
- Anzahl der Dokumente einer Website
- Klick Popularität
- Verzeichnisstruktur[69]

[...]


[1] Jurvetson (o.A.)

[2] Vgl. Lipsman (2008c)

[3] Ohne Content Netzwerk, siehe auch Kapitel 4.3.

[4] Vgl. BITKOM (2008b)

[5] Gopher ist ein Informationsdienst, der über das Internet abgerufen werden kann.

[6] Vgl. Koch (2007)

[7] Massachusetts Institute of Technology

[8] Vgl. Fortmann (2006)

[9] Vgl. Schönfeld (1996)

[10] Internet Archive (o.A.)

[11] siehe Kapitel 2.3.2.1

[12] Vgl. Lewandowski (2008)

[13] Unter Website werden alle Dokumente einer Domain verstanden.

[14] Es werden nur die Statistiken von ComScore ausgewertet, da diese ein Panel von über 2 Million User haben und die Abweichungen zu z.B. Nielsen-Netratings (www.nielsen-netratings.com) gering ist (Google USA 08/2008 ComScore 63% zu Nielsen-Netratings 60%)

[15] Bei allen Auswertungen aus 2008 sind die Sites einer Firma (z.B. Google) zusammengefasst

[16] In Anlehnung an: onestat.com (2008b)

[17] 2002 war das Internet in den USA am stärksten vertreten und so lassen sich die Daten von 2002 am besten mit dem US Markt von heute vergleichen.

[18] In Anlehnung an: Lipsman (2008a) & (2008b)

[19] www.baidu.com

[20] Unter Webseite wird ein einzelnes Dokument einer Website verstanden.

[21] www.naver.com ist die Suchmaschine von NHN

[22] In Anlehnung an: Radwanik (2008)

[23] In Anlehnung an: Gavin (2008b)

[24] In Anlehnung an: Gavin (2008a)

[25] Vgl. Lewandowski (2005) Seite 24

[26] In Anlehnung an: Meng et al. (2002) Seite 10

[27] Ein in Deutschland bekanntes Branchenverzeichnis ist www.gelbeseiten.de

[28] Das Open Source Projekt findet man unter www.dmoz.org

[29] Vgl. Komus et al. (2008) Seite 24

[30] Trusted Friends sind in einer Buddy Liste hinterlegt

[31] Vgl. Ku et al. (2005)

[32] Anordnung von Suchresultaten nach ihrer inhaltlichen Gewichtung, anstatt einer formalen Anordnung.

[33] Vgl. Lewandowski (2005)Seite 80ff.

[34] In Anlehnung an: Arasu et al. (2001) Seite 2

[35] Vgl. Glöggler (2003) Seite 25 ff.

[36] Vgl. Stock (2006) Seite 68ff.

[37] Unter first screen versteht man die Darstellung der Seite im Browser ohne zu scrollen.

[38] Hingegen wird unter first page die gesamte Seite verstanden.

[39] Vgl. Nicolson et al. (2006) Seite 15f.

[40] Eigene Darstellung

[41] Als Keyword wird das Wort nach welchem gesucht wird bezeichnet.

[42] Mit Okulographie, auch als Blickbewegungsregistrierung oder Eye Tracking bekannt, bezeichnet man das Aufzeichnen der Blickbewegungen einer Person.

[43] van Gisbergen et al. (2005)

[44] ebenda

[45] In Anlehnung an: Hotchlkiss et al. (2005) Seite 7

[46] Eigene Darstellung

[47] Auch als Hyperlink bekannt.

[48] Vgl. Schüler (2007)

[49] Vgl. Fischer (2006) Seite 95

[50] Vgl. Münz (2008) Seite 1093

[51] Vgl. Winkler et al. (2007) Seite 47f.

[52] Vgl. Koch (2007) Seite 51f.

[53] Brin et al. (1998)

[54] Vgl. Brin et al. (1998)

[55] Eigene Darstellung

[56] Koch (2007) S. 52f.

[57] Eigene Darstellung

[58] toolbar.google.de

[59] Vgl. Pakalski (2000)

[60] Sobek (2002/2003b)

[61] directory.google.de

[62] In Anlehnung an: Raimondi (2002)

[63] In Anlehnung an: Sobek (2002/2003a)

[64] Der während des crawlens der Webseite, entsprechend des Spams der Seite, zugewiesen wird.

[65] Winkler et al. (2007) Seite 21f.

[66] In den Kapitel 3.3 und 3.4 wird erläutert, wie man dies optimieren kann

[67] IDF ist die relative Häufigkeit eines Wortes zu allen Worten des gesamt Index

[68] Seiten die sich räumlich in der Nähe des Benutzers befinden werden bevorzugt.

[69] Vgl. Lewandowski (2005) Seite 90ff.

Ende der Leseprobe aus 92 Seiten

Details

Titel
Suchmaschinen. Optimierung und Marketing
Untertitel
Ein Überblick über die verschiedenen Technologien und Einsatzmöglichkeiten mit dem Schwerpunkt Google
Hochschule
FOM Essen, Hochschule für Oekonomie & Management gemeinnützige GmbH, Hochschulleitung Essen früher Fachhochschule  (Wirtschaftsinformatik)
Note
1,0
Autor
Jahr
2008
Seiten
92
Katalognummer
V119771
ISBN (eBook)
9783640232246
ISBN (Buch)
9783640232321
Dateigröße
3981 KB
Sprache
Deutsch
Schlagworte
Suchmaschinen-Optimierung, SEO, Suchmaschien-Marketing, SEM, Google, Suchmaschine, Web-Controlling, Online Marketing, AdWord
Arbeit zitieren
Holger Weber (Autor), 2008, Suchmaschinen. Optimierung und Marketing, München, GRIN Verlag, https://www.grin.com/document/119771

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Suchmaschinen. Optimierung und Marketing


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden