Das Ziel der Masterarbeit war es, zu untersuchen, ob Webseiten klassischer Medien von Google im Vergleich zu reinen Online- Portalen bevorzugt in die Suchergebnisse aufgenommen und besser platziert werden. Anhand von fünf Keywordsets aus dem Bereich Ernährung wurden klassische mit reinen Online-Medien verglichen und auf ihre Rankings sowie Onpage-Suchmaschinenoptimierung überprüft. Einzelne Faktoren mit maßgeblichem Einfluss auf die Suchergebnisse konnten dabei nicht festgestellt werden, im Laufe der Arbeit zeigte sich allerdings, dass die technischen Faktoren nicht vernachlässigt werden sollten und der Inhalt von Webseiten immer mehr an Bedeutung erlangt. Die Ergebnisse und Schlussfolgerungen sind vor allem für Betreiber von Webseiten mit journalistischen oder informativen Inhalten relevant.
Inhaltsverzeichnis
Zusammenfassung
Abkürzungsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
1 Einleitung
2 Forschungsstand und Forschungsfrage
2.1 Forschungsfrage
2.2 Forschungsstand
2.2.1 SEO-Faktoren
2.2.2 Nachrichtenwert-Theorie
3 Aufbau der empirischen Analyse
3.1 Testschema zur Textauswahl
3.1.1 Aktualität und Nachfrage
3.1.2 Nachrichtenwert
3.1.3 Journalistische Kriterien
3.2 SEO-Analyseverfahren
3.2.1 Verwendete SEO-Faktoren
3.2.2 Verwendete SEO-Analyse-Software
3.2.3 Erläuterung des Analyseverfahrens
3.3 Methodenkritik
3.4 Festlegen der Keywordsets und Textauswahl
3.4.1 Keyword sport essen und essen krafttraining
3.4.2 Keyword vegetarisch und vegan
3.4.3 Keyword rohkost und der champignon
3.4.4 Keyword richtige ernährung und ernährung umstellen
3.4.5 Keyword gesund kochen und diäten
4 Auswertung der Analyse
4.1 Analyse der Ergebnisse
4.2 Auswertung der SERPs
4.2.1 Verhältnis der Ergebnisse
4.2.2 Keywords in der Domain
4.3 Optimierungsrate nach Website Auditor
4.4 Korrekte Umleitung von www- und nicht-www-Version
4.5 Nutzung von HTTPS und Probleme mit HTTPS
4.6 Optimierung für Mobiltelefone
4.7 Dateigröße des Dokuments
4.8 Nicht komprimierte, minimierte und gecachte Elemente
4.9 Robots.txt und maschinenlesbare Sitemap
4.10 Ist die Seite von der Indexierung durch Suchmaschinen gesperrt?
4.11 Länge der URL
4.12 Keywords in der URL
4.13 Anzahl der Keywords im Titel
4.14 Länge des Webseitentitels
4.15 Anzahl der Keywords in der Meta Description
4.16 Länge der Meta Description
4.17 Titel und Meta Description sind Unikate
4.18 Summe der Wörter im HTML Body
4.19 Häufigkeit des Keywords im Text der Webseite
4.20 Keyworddichte
4.21 Summe der Links im Dokument
4.22 Defekte Links im Dokument
4.23 Keywords in Linktexten
4.24 Keywords in H1-Überschriften
4.25 Keywords in H2- bis H6-Überschriften
4.26 Keywords in Fett- und Kursivschrift
4.27 Keywords in Alt-Tags von Bildern
5 Diskussion
5.1 Bedeutung einzelner Onpage-SEO-Faktoren
5.2 Onpage gegen den Rest
5.3 Verhältnis von klassischen zu Online-Medien
5.4 Aufbauende Möglichkeiten für Forschung
5.5 Abschließende Zusammenfassung
Literatur
A Checkliste Textauswahl
B Exemplarischer Bericht zur Onpage Optimierung eines Textes auf sueddeutsche.de
C Exemplarischer Bericht zur seitenweiten Onpage Optimierung von sueddeutsche.de
D Übersicht der Domains mit Keywords
„My rule of thumb is build a site for a user not a spider."
Anmerkungen
Gendering
Aus Gründen der besseren Lesbarkeit wird auf die gleichzeitige Verwendung männlicher und weiblicher Sprachformen verzichtet. Sämtliche Personenbezeichnungen gelten gleichwohl für beiderlei Geschlecht.
Schreibweise von Keywords
Da Google keine Unterscheidung zwischen Groß- und Kleinbuchstaben macht, werden bei der Betrachtung der Keywordsets alle Wörter durchgehend mit Kleinbuchstaben eingegeben. Der besseren Lesbarkeit geschuldet sind sie kursiv geschrieben.
NEW MEDIA JOURNALISM
Zusammenfassung
Leipzig School of Media Im Externat an der Universität Leipzig
Master of Arts
Einfluss von Onpage-Suchmaschinenoptimierung auf
Suchmaschinenrankings journalistischer Texte von Josef Max Hajda
Das Ziel der vorliegenden Masterarbeit war es, zu untersuchen, ob Webseiten klassischer Medien von Google im Vergleich zu reinen OnlinePortalen bevorzugt in die Suchergebnisse aufgenommen und besser platziert werden. Anhand von fünf Keywordsets aus dem Bereich Ernährung wurden klassische mit reinen Online-Medien verglichen und auf ihre Rankings sowie Onpage-Suchmaschinenoptimierung überprüft. Einzelne Faktoren mit maßgeblichem Einfluss auf die Suchergebnisse konnten dabei nicht festgestellt werden, im Laufe der Arbeit zeigte sich allerdings, dass die technischen Faktoren nicht vernachlässigt werden sollten und der Inhalt von Webseiten immer mehr an Bedeutung erlangt. Die Ergebnisse und Schlussfolgerungen sind vor allem für Betreiber von Webseiten mit journalistischen oder informativen Inhalten relevant.
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
Abbildungsverzeichnis
1.1 Traffic von Facebook und Google
2.1 Angezeigter Treffer auf der SERP
3.1 HTTPS Fehlermeldung
3.2 Suchanfragen sport essen und essen krafttraining
3.3 Suchanfragen vegan
3.4 Suchanfragen ernährung umstellen
4.1 Optimierungsrate
4.2 Seitengröße
4.3 Nicht minimierte, komprimierte und gecachte Dateien
4.4 Länge des Titels
4.5 Anzahl Keywords in Meta Description
4.6 Keyworddichte
4.7 Keywords in Fettschrift
5.1 Rankingfaktoren 2013
5.2 Rankingfaktoren 2014
5.3 Image verschiedener Mediengattungen 2000 bis 2015
Tabellenverzeichnis
3.1 Tagesaktuelle klassische Medien beim Keyword sport essen
3.2 Tagesaktuelle klassische Medien beim Keyword essen krafttraining
4.1 Auflistung der analysierten Webseiten-Bereiche
4.2 Klassische Medien in den Top 50 Suchergebnissen, Teil 1
4.3 Klassische Medien in den Top 50 Suchergebnissen, Teil 2
D.1 Domains in Top 50 Ergebnissen, die Keywords enthalten, Teil 1
D.2 Domains in Top 50 Ergebnissen, die Keywords enthalten, Teil 2
Kapitel 1 Einleitung
Abhängig von Google?
Die in Deutschland marktbeherrschende Suchmaschine Google (vgl. Statista, 2016c) hat nach eigenen Angaben zu einer durchschnittlichen Suchanfrage
„Tausende, wenn nicht Millionen von Webseiten mit hilfreichen Informationen" (Google, 2016a)
in ihrer Datenbank. Um ein für den Nutzer besonders zufriedenstellendes Ergebnis zu garantieren und die - ihrer Meinung nach - für den Suchenden relevanten Informationen zuerst anzuzeigen, nutzt Google einen umfangreichen Algorithmus bestehend aus über 200 Faktoren, um die Ergebnisse vorzusortieren (vgl. ebd.). Unter anderem aus medienwissenschaftlicher Sicht wird dies durchaus als diskussionsbedürftig angesehen, da Suchmaschinen dadurch in die Rolle eines Gatekeepers aufsteigen - eine Position, die vorher den Journalisten vorbehalten war (vgl. Machill und Beiler, 2007, S. 131; Wolling, 2002, S. 15). An anderer Stelle wird vom Search Engine Manipulation Effect (SEME) gesprochen, welcher Suchmaschinen sogar die Macht zuspricht, die Meinung in der Bevölkerung so stark ändern zu können, dass durch sie z.B. eine Beinflus- sung von Wahlergebnissen möglich wäre (vgl. Epstein und Robertson, 2015, S. E4512). Neben dem eventuellen Verlust der Gatekeeper-Rolle, könnte für etablierte Medien auch die Gefahr bestehen, dass Weblogs bzw. Blogs und andere alternative Angebote mehr Aufmerksamkeit und Gehör finden, wenn die Internetnutzer sich auf der Suche nach Informationen an Suchmaschinen wenden. Der technologische Fortschritt im Internet macht es heute nahezu jedem Internetnutzer möglich, sich z.B. über Social Media zumindest potentiell ein Publikum zu erarbeiten. Die früheren strukturellen (Vertrieb) und finanziellen (Produktionskosten) Hürden sind zumindest im Internet weitestgehend gefallen. Mit dem Betrieb einer eigenen Webseite ist es für Einzelpersonen oder Gruppen unterdessen mit geringen Mitteln möglich, redaktionelle Inhalte anzubieten. Die Qualität kann sich dabei über das gesamte Spektrum vom Laien bis zum gelernten Journalisten erstrecken, alles in allem führt es aber zu einem Wachstum an Inhalten und Formaten wie etwa Videos, Podcasts etc. (vgl. Neuberger, Nuernbergk und Rischke, 2007, S. 96), die alle um die Aufmerksamkeit der Leser buhlen und für Suchmaschinen potentielle Treffer darstellen. Im Verhältnis zu den, teils seit Dekaden bestehenden Angeboten von Print und TV können die reinen Online-Angebote, die sich im großen Stil erst in den 2000er Jahren entwickelt haben durchaus noch als neu angesehen werden. Zuvor standen die Mediengattungen zwar im Wettbewerb und auch die einzelnen Anbieter innerhalb dieser Gattungen, doch den Web-Angeboten ist es nun möglich zu allen in direkte Konkurrenz zu treten. Der Text ist nun nicht mehr dem Print vorbehalten, ebensowenig wie das Bewegtbild dem TV. Im Web können all diese Formate kombiniert und zusätzlich um verschiedene Formen des Dialogs ergänzt werden, was wiederum Chancen bietet, die Nutzer besser an die Angebote zu binden. Die Rolle dieser neuen Gattung der reinen Online-Medien im Verhältnis zum etablierten Journalismus wird unterschiedlich betrachtet und diskutiert. Ein finales Urteil ist allerdings aufgrund der Vielzahl und der variablen Qualität der Angebote nicht möglich (vgl. ebd., S. 96). Unabhängig davon, ob sie nun in ihrer Qualität an den klassischen Journalismus heranreichen oder nicht, sollte doch im Auge behalten werden, ob Suchmaschinen die neuen Anbieter zu bestimmten Themen ähnlich gut im Ranking der Suchergebnisse positionieren wie die Online-Angebote der etablierten Medien - denn obwohl Suchmaschinen unterdessen von Facebook bei der Menge des vermittelten Traffics für Medienangebote eingeholt wurden, zeigen sie sich Ende 2015 dennoch für einen großen Teil der Besucher verantwortlich (vgl. Abb 1.1).
Dies legt den Schluss nahe, dass neben einem Engagement in sozialen Netzwerken die Suchmaschinenoptimierung (SEO) von Webseiten nicht vernachlässigt werden sollte, um diesen Kanal des Nutzerzuflusses nicht zusätzlich zum vorhandenen Rückgang weiter zu schwächen.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1.1: Verhältnis des von Google und Facebook vermittelten Traffics auf Webseiten von Medienhäusern (vgl. Parsely, 2015).
Im Rahmen dieser Arbeit wird untersucht, wie sich die Beiträge der klassischen Medien derzeit im Verhältnis zur Konkurrenz durch neuere Angebote in Suchergebnissen verhalten. Betrachtet wird, wer seine Seiten besser nach den gängigen Methoden der Onpage-Optimierung ausrichtet und ob zu erkennen ist, ob Google Präferenzen aufgrund des Typs der Webseite erkennen lässt.
Kapitel 2 Forschungsstand und Forschungsfrage
2.1 Forschungsfrage
Durch das eingangs beschriebene erhöhte Angebot wäre es denkbar, dass die Suchergebnisse unterdessen auch in größerem Maße von Inhalten, die ihren Ursprung nicht in den klassischen Medien (also kein Gegenstück in Print, TV oder Radio) haben, durchsetzt sind. Fraglich ist auch, ob erkennbar ist, dass eine der beiden Kategorien von Google bei der Auswahl bevorzugt wird. Die zentrale Forschungsfrage lautet demnach:
Haben Webportale ohne Offline-Pendant eine Chance, sich mittels in der Forschung als relevant betrachteten Onpage-SEO-Faktoren in Suchergebnissen ebenso gute Positionierungen zu erarbeiten wie die OnlineAuftritte klassischer Medien?
Betrachtet werden soll dabei, ob die neuen Angebote in den Suchergebnissen von Google Deutschland signifikante Ergebnisse (gleichwertige Positionierungen) erzielen und somit möglicherweise für einen Rückgang des Besucherstroms über Google bei klassischen Medien verantwortlich sind. Mittels softwaregestützter Webseitenanalyse werden ausschließlich onpage relevante SEO-Faktoren untersucht - also Optimierungen, die der Betreiber bzw. ein Programmierer an seiner Webseite selbst vornehmen kann. Andere Wege, das Publikum zu erreichen, wie die sozialen Netzwerke Facebook, Pinterest, YouTube und weitere, werden nicht betrachtet. Dies gilt auch für Offpage-Optimierungen, wie z.B. Backlinkaufbau.
Um eine Vergleichbarkeit der Texte sicherzustellen, wird exemplarisch das Thema Ernährung als Grundlage der Betrachtung gewählt, da hier davon ausgegangen wird, dass einerseits ausreichend Veröffentlichungen für die geplante Analyse vorhanden sind, die keinen aktuellen Bezug haben oder ereignisbezogen sind, andererseits aber von Konsumenten eine starke Nachfrage besteht (vgl. Statista, 2016b), was für eine Omnipräsenz im Journalismus und Web (journalistische und nichtjournalistische Seiten) sorgt.
Zur Eingrenzung des Forschungsgegenstands und für einen verstärkten Bezug zum Journalismus dient die Nachrichtenwert-Theorie als Hilfsmittel zur Auswahl der zu betrachtenden Texte. Zusätzlich sollen diese grundlegende journalistische Kriterien erfüllen. Hierdurch soll sichergestellt werden, dass die ausgewählten Testobjekte zwar journalistische Mindestanforderungen erfüllen, die Rankings aber nicht durch besondere Aktualität der Texte verfälscht werden. Eine ausführliche Beschreibung der gestellten Kriterien befindet sich in den Abschnitten 3.1.2 und 3.1.3 ab Seite 18.
2.2 Forschungsstand
Google selbst gibt an, die Faktoren, welche im Algorithmus für das Ranking der Ergebnisse verantwortlich sind, ständig zu ändern (vgl. Google, 2016a) und auch Untersuchungen von Wissenschaftlern (vgl. Pan u. a., 2007, S. 807; Grimmelmann, 2009, S. 944) wie Unternehmen (vgl. SISTRIX, 2016f; Tober u. a., 2015) bestätigen dies. Im Bereich der SEO- Faktoren ist es demnach äußerst wichtig, sich nach einem möglichst aktuellen Stand zu richten, um bei der Betrachtung keine falschen Schlüsse zu ziehen und valide Ergebnisse zu erzielen. Bezogen auf Webseiten von Nachrichtenanbietern und deren Verhältnis sowohl zu Suchmaschinen als auch zu den in dieser Arbeit betrachteten neuen Konkurrenten findet durchaus Forschung statt. So finden sich z.B. Arbeiten über den Einfluss von Blogs auf die öffentliche Meinung (vgl. Gill, 2004), die Auswirkungen von Design, Google Ranking und anderen Faktoren auf die Glaubwürdigkeit einer News-Webseite (vgl. Westerwick, 2013) oder Vergleiche, wie gut verschiedene Dienste Nachrichtenseiten indexieren (vgl. Weaver und Bimber, 2008). Konkrete Forschung zu den Rankings von Webseiten klassischer Medien im Vergleich zu neueren Angeboten, wie sie in dieser Arbeit betrachtet werden, konnte bei der Recherche nicht gefunden werden (weder allgemein, noch bezogen auf Onpage- SEO). Die Betrachtung der Nachrichtenwert-Theorie erfolgt zur Festlegung von Kriterien, welche für die Auswahl der zu analysierenden Texte herangezogen wird.
2.2.1 SEO-Faktoren
Die umfangreichste Quelle für aktuelle Beobachtungen des Google Algorithmus ist wohl die seit 2012 jährlich für unterschiedliche Regionen veröffentlichte Rankingfaktoren Studie des Such-Analyse-Software Anbieters Searchmetrics GmbH - nach eigenen Angaben Pionier und weltweit führender Anbieter (vgl. Tober, Hennig und Furch, 2013, S. 2). In den Recherchen konnte keine andere Veröffentlichung gefunden werden, die jährlich aktualisiert wird und einen so hohen Datenbestand als Grundlage der Analyse aufweist. Für Deutschland ist die Studie als Whitepaper für die Jahre 2012 bis 2015 verfügbar (vgl. Searchmetrics, 2016c). In einer vergangenen Ausgabe zählen die Autoren detailliert auf, welche Basis sie für ihre Analyse verwenden: Betrachtet werden die ersten drei Suchergebnisseiten (SERP) von 10.000 Keywords. Daraus ergeben sich 30.000 analysierte SERPs und 300.000 Webseiten, die im Detail betrachtet wurden. Diese Onpage-Daten (ergänzt um Milliarden von sogenannten Social Signals, also Likes, Shares, Kommentare etc. auf sozialen Netzwerken) ergeben in Summe 150 GB Daten, die als Grundlage für die Studie dienen (vgl. Tober, Hennig und Furch, 2013, S. 8). In den Folgejahren wurde zwar nicht so detailliert aufgeführt, welche und wie viele soziale Signale verwendet werden oder wie viel Speicherplatz die Daten ausmachen, doch wird betont, dass der Umfang der analysierten Keywords gleich groß ist und sich z.B. im Jahr 2014 erneut zu einem hohen Prozentsatz mit dem Vorjahr, hier zu 90%, deckt (vgl. Tober, Hennig und Furch, 2014, S. 10). Diese Kontinuität sorgt für eine gute Vergleichbarkeit. Die Studien teilen die relevanten Faktoren in die Kategorien Technik, Content, Backlinks und Social ein, wobei die ersten beiden für die Analyse von Onpage-Maßnahmen interessant sind. Im Jahr 2015 wurde die Studie um den Bereich User Experience ergänzt. In dieser Kategorie finden sich ebenfalls Bereiche, welche der Betreiber einer Webseite leicht beeinflussen und optimieren kann, um die Erfahrungen der Nutzer mit seiner Seite zu verbessern, weshalb sie zumindest teilweise aus Onpage-Sicht ebenfalls interessant sind. Im Folgenden sollen einzelne Faktoren näher betrachtet werden, um ihre derzeitige Bedeutung zu beurteilen. Technik
Im Bereich Technik finden sich die Punkte wieder, welche durch die Programmierung im Content Management System (CMS) verankert bzw. festgelegt werden. Als besonders relevant, weil häufig von SEO-Experten diskutiert, wurden davon in Anlehnung an die Studie von Searchmetrics folgende ausgewählt (vgl. Tober u. a., 2015, S. 3):
- Existenz einer Meta Description
- Existenz H1- und H2- bis H6-Überschriften
- Keyword in der Domain vorhanden
- Verwendung des verschlüsselten HTTPS-Protokoll statt dem unverschlüsselten HTTP
- Dateigröße und Ladezeit der Seite
- URL-Länge und Keywords in der URL
Bei den Faktoren Description (diese erscheint als Beschreibung in den Suchergebnissen bei Google) und Überschriften wird von einem geringen Einfluss auf das SERP-Ranking ausgegangen. Nahezu alle Seiten der Top 30 Suchergebnisse besitzen diese Elemente und achten sehr auf deren Pflege. Die Faktoren werden damit als Grundlage angesehen, bei denen höchstens das Fehlen zu negativen Einflüssen auf das Ranking führen kann, das Vorhandensein aber keinen positiven Einfluss hat (vgl. ebd., S. 6-8).
Der SEO-Toolbox Anbieter und Searchmetrics-Mitbewerber Sistrix empfiehlt in seiner Betrachtung ebenfalls, dass in einem Webdokument eine Überschrift der höchsten Hierarchie (bezeichnet als H1) und mehrere einer niedrigeren Hierarchie genutzt werden sollten, selbst wenn das Vorhandensein keinen großen positiven Einfluss auf SEO hat (vgl. SISTRIX, 2016e). Searchmetrics äußert sich nicht zur Auswirkung auf SEO, stellt aber fest, dass immer mehr Seiten dieses Element verwenden. Laut ihrer Auswertung besitzen 84% der Top 10 und 82% der Top 30 platzierten Webseiten H1-Überschriften (vgl. Tober u. a., 2015, S. 7).
Gleiches gilt für die Description - für das Ranking ist sie direkt nicht relevant, sollte aber vorhanden sein. Es wird darauf hingewiesen, dass die Description aufgrund ihrer Präsenz und Sichtbarkeit in den Suchergebnissen dafür entscheidend ist, ob die Nutzer sich wirklich für die Seite entscheiden und damit die Click Through Rate (CTR, Verhältnis wie oft eine Seite angezeigt wird zur Zahl der tatsächlichen Klicks auf das Ergebnis) positiv beeinflussen. Diese fließt dann wiederum als eigener Faktor in das Ranking ein (vgl. SISTRIX, 2016d).
Bezogen auf das Vorhandensein von Keywords in Domains scheint Google zu dem Schluss gekommen zu sein, dass sich dieser Faktor nicht als gutes Rankingkriterium eignet, das dem Nutzer zugute kommt. Seit einer Algorithmusänderung im Jahr 2012 sinkt der Anteil an Ergebnissen mit Keywords in der Domain kontinuierlich, was dafür spricht, dass dieses Element an Bedeutung verliert und damit nicht mehr als relevant und zukunftssicher angesehen werden kann (vgl. Tober u. a., 2015, S. 9). Als unstrittig kann angesehen werden, dass Google Seiten bevorzugt, die das verschlüsselte HTTPS Protokoll verwenden, um mit ihren Nutzern zu kommunizieren. Zum einen gab Google das in deren Blog offiziell bekannt (vgl. Bahajji und Illyes, 2014), zum anderen bestätigen es die Beobachtungen von Searchmetrics, die zeigen, dass die Zusammenhänge zwischen der Nutzung von HTTPS und der SEO-Sichtbarkeit unterdessen signifikant sind. Einschränkend muss gesagt werden, dass dieser Faktor von Searchmetrics erst seit 2015 betrachtet wird, da er vorher nicht als relevant galt (vgl. Tober u. a., 2015, S. 11). Aus Sicht von Google scheint das Vorgehen logisch, sorgt HTTPS doch für mehr Sicherheit beim Webseitenbesucher und damit zufriedenere Google-Nutzer, während der Aufwand der Umstellung auf den Webseitenbetreiber fällt. Mit dem von Google ausgeübten Druck auf Webmaster, Seiten zu verschlüsseln steigt sicher auch die Nachfrage nach Lösungen. Problematisch ist bisher vor allem die Tatsache, dass zur Nutzung von HTTPS kostenpflichtige Zertifikate notwendig waren. Dies will das OpenSource Projekt Let's Encrypt nun ändern. Hier sind kostenlose, selbsterneuernde Zertifikate möglich (vgl. Linux Foundation, 2016). Dies könnte die Verwendung von HTTPS vor allem im semiprofessionellen und privaten Bereich stark fördern.
Die Dateigröße einer Webseite an sich scheint kein Rankingfaktor zu sein - so sind kleinere Seiten nicht zwangsläufig besser gelistet als große (vgl. Tober u. a., 2015, S. 19). Dennoch gilt es, darauf zu achten, dass die Ladezeit sich dadurch nicht verschlechtert, denn diese ist durchaus von Bedeutung (vgl. Tober u. a., 2015, S. 21; Singhal und Cutts, 2010).
Um Webmaster dabei zu unterstützen, ihre Seiten möglichst schnell laden zu lassen, betreibt Google sogar ein kostenloses Tool, welches die Messung der Seitenladezeit ermöglicht und direkt priorisierte Hinweise zur Optimierung gibt (vgl. Google, 2016j).
Anzeichen dafür, ob kürzere URLs einen positiven Einfluss auf das Ranking haben, stellt Searchmetrics nicht fest - allerdings empfehlen sie, sprechende URLs zu verwenden, also reale Wörter und keine kryptischen Kombinationen aus Buchstaben und Zahlen (vgl. Tober u. a., 2015, S. 22). Eine Begründung für diese Empfehlung erfolgt allerdings nicht. Zu einem ähnlichen Schluss kommt auch der deutsche Anbieter von Onpage-Optimierungs-Software OnPage.org, empfiehlt jedoch, die URL kürzer als 74 Zeichen zu halten. Diese Empfehlung basiert auf Faktoren wie der CTR. Google stellt in seinen Suchergebnissen URLs mit bis zu 74 Zeichen dar, ohne diese zu verkürzen, was nach Auffassung von OnPage.org mehr Vertrauen beim Suchenden hervorruft und damit die Wahrscheinlichkeit erhöht, das Ergebnis anzuklicken (vgl. OnPage.org, 2016d). Die Empfehlung von OnPage.org deckt sich mit den Erkenntnissen der Studie von Searchmetrics: Hier liegen die Top 10 Ergebnisse im Schnitt bei 44,18, die Top 30 bei 48,30 Zeichen (vgl. Tober u. a., 2015, S. 22). Zu Problemen kann es bei mehr als 2.000 Zeichen kommen, da Browser dann eventuell nicht in der Lage sind, die URLs korrekt zu verarbeiten (vgl. OnPage.org, 2016d). Zum Vorhandensein von Keywords in der URL äußert sich Searchmetrics nicht, OnPage.org empfiehlt dies allerdings unter Berufung auf Google in begrenztem Ausmaß von maximal drei bis fünf Schlagwörtern in einer URL mit dem Hinweis, dass mehr Keywords negative Folgen haben könnten (vgl. ebd.).
Im Bereich der technischen Aspekte einer Webseite lässt sich zusammenfassend sagen, dass diese durchaus eine Bedeutung für SEO haben. Vor allem bei der Analyse von Searchmetrics zeigt sich, dass die meisten Seiten, die in den Suchergebnissen auf den ersten 30 Plätzen angezeigt werden, in diesem Bereich sehr gut optimiert sind. Der Bereich ist aus zweierlei Hinsicht von Bedeutung: Zum einen erleichtert ihre Pflege gemäß Googles Vorstellungen das Indexieren durch die Software der Suchmaschine, zum anderen haben sie Einfluss auf das Verhalten der User, welches von Google gemessen wird und dann wiederum in das Ranking einfließt. Damit können sie sich direkt oder indirekt auf den Erfolg einer Webseite auswirken.
Content
Wird vom Content einer Webseite gesprochen, ist der Inhalt - also Text, Bilder, Videos und sonstige für den Nutzer sichtbare Elemente - einer Webseite gemeint. Diese spielen neben der Indexierung durch Suchmaschinen auch eine Rolle, wenn es darum geht, ob der Nutzer auf der Seite die gesuchten Informationen findet. Im Rahmen dieser Arbeit werden folgende Aspekte des Contents aufgrund ihrer guten Messbarkeit näher betrachtet:
- Wortanzahl des Textes
- Keyword in Description und Titel
- Länge von Meta Description und Titel
- Keyword-Häufigkeit im Text
- Hervorhebung von Keywords im Text durch Formatierungen
Bei der Zahl der Wörter in den Top Suchergebnissen lässt sich der Trend erkennen, dass die Menge des Textes auf den angezeigten Seiten wächst. Von 2014 auf 2015 hat sich die durchschnittliche Zahl der Wörter laut Searchmetrics von 746 Wörtern um ca. 10% auf 829 gesteigert (vgl. To- ber u. a., 2015, S. 40). Nicht möglich ist allerdings, hieraus den Schluss zu ziehen, dass mehr Inhalt gleichbedeutend mit besseren Ergebnissen ist. Auch die Qualität muss stimmen - wie Google Mitarbeiter John Müller auf eine konkrete Anfrage nach der Textlänge in einem Google Produktforum antwortete:
„There's no minimum length, and there's no minimum number of articles a day that you have to post, nor even a minimum number of pages on a website. In most cases, quality is better than quantity. Our algorithms explicitly try to find and recommend websites that provide content that's of high quality, unique, and compelling to users. Don't fill your site with low-quality content, instead work on making sure that your site is the absolute best of its kind." (Müller, 2014)
Es bleibt allerdings die Messung von Searchmetrics, dass ein gutes Ranking mit mehr Text korreliert, weshalb die Länge des Textes nicht völlig außer Acht gelassen werden sollte.
Obwohl die Meta Description bereits im Bereich Technik angesprochen wurde, sollte sie gemeinsam mit dem Titel auch aus inhaltlicher Sicht betrachtet werden. Während das bloße Vorhandensein ein technischer Aspekt ist, fällt die textliche Gestaltung in den Bereich des Content. Hier stellt sich die Frage, ob das Vorhandensein von Keywords im Titel und in der Description einen positiven Einfluss auf das Ranking hat. Während Searchmetrics hier zu dem Schluss kommt, dass bei einer Häufigkeit von nur 50% das Vorhandensein von Keywords in der Description keine Rolle spielt (vgl. Tober u. a., 2015, S. 41), erwähnt es Sistrix gar nicht bei der Anleitung zur Optimierung der Seitenbeschreibung (vgl. SISTRIX, 2016d). Auch der ehemalige Leiter des Google Web Spam-Teams Matt Cutts betont in einem Video, mit dem er auf eine Nutzerfrage antwortet, ganz klar, dass der wichtigste Punkt bei beiden die Zufriedenheit der Nutzer ist. Wird ein Ergebnis auf der SERP angezeigt, ist es wichtig, dass die Nutzer angesprochen werden und die Seite anklicken, also dass die CTR gut ist (vgl. Cutts, 2009b).
Bei der Länge von Titel und Description geht es wiederum um die Anzeige in den Suchergebnissen. Beide sind maßgeblich für die Anzeige auf der SERP verantwortlich. In Abb. 2.1 ist ein Ergebnis der Google SERP dargestellt. Die Überschrift (blau) generiert sich dabei häufig aus dem Titel, die zwei Zeilen unten (schwarz) aus der Description.
Abbildung in dieser Leseprobe nicht enthalten
ABBILDUNG 2.1: Darstellung Titel und Description in der SERP (eigener Screenshot vom 23.07.2016)
Während der Titel im Beispiel offenbar die richtige Länge hat, übersteigt die Description die von Google angezeigte Länge und wird hier abgeschnitten und mit drei Punkten ersetzt. Von Google selbst existieren weder Angaben zur Länge des Titels, noch der Description. Vor allem beim Titel empfehlen SEO-Unternehmen durchaus unterschiedliche Werte. Erschwert wird die Situation zusätzlich dadurch, dass diese teils in Zeichen, teils in Pixeln angegeben werden. Sistrix spricht von 55 Zeichen ohne Leerzeichen bzw. 512 Pixel (vgl. SISTRIX, 2016b), Searchme- trics verzichtet auf die Angabe der Pixel und nennt ebenfalls die 55 Zeichen, allerdings inkl. Leerzeichen (Searchmetrics, 2016b). OnPage.org gibt sogar 70 Zeichen an, allerdings eingeschränkt durch den Hinweis mit der absoluten Zahl an Pixel (vgl. OnPage.org, 2016c). Für die Länge der Description werden Werte zwischen 150 und 160 Zeichen empfohlen (vgl. Searchmetrics, 2016a; SISTRIX, 2016g).
Auch die Ergebnisse bezüglich des Vorkommens von Keywords im Text deuten darauf hin, dass eine reine Häufung eines Keywords im Text nicht hilfreich für SEO ist. So ist die Häufigkeit der Keywords auf den Webseiten der Top Suchergebnisse gesunken, obwohl die Zahl der Wörter gestiegen ist (vgl. Tober u. a., 2015, S. 42). Dies unterstützt die These, dass Google unterdessen immer größere Schritte hin zur qualitativen Beurteilung von Texten macht, statt einfach nur einzelne Wörter zu zählen und die Webseiten nach deren Vorkommen zu ranken.
Für die Beurteilung der Wichtigkeit eines Keywords könnte es hilfreich sein, die in HTML verfügbaren Hervorhebungen, wie z.B. Fett- oder Kursiv-Schrift zu verwenden. Die Meinungen dazu, wie sehr Google diese Faktoren wertet, gehen allerdings auseinander, auch wenn Einigkeit darin besteht, dass zumindest die Aufmerksamkeit der Leser gelenkt werden kann, solange die Auszeichnungen nicht zu exzessiv genutzt werden (vgl. Bellinger, 2012; Dziki, 2014).
Zusammenfassend kann über den Inhalt von Webseiten gesagt werden, dass immer höhere Ansprüche an die Qualität gesetzt werden und der Google Algorithmus diese immer besser bzw. zutreffender aus Nutzersicht beurteilen kann. Google nutzt unterdessen Nutzersignale wie die CTR, um die reine Computeranalyse zu verfeinern und zu verbessern. Betreiber von Webseiten sind so immer mehr dazu angehalten, sich nicht in erster Linie damit zu beschäftigen, was Suchmaschinen mögen könnten, um Menschen auf ihre Seite zu bekommen, sondern müssen immer mehr Wert darauf legen, diejenigen zufrieden zu stellen, denen die Seite angezeigt wird bzw. die sie besuchen.
User Experience
Im Bereich der User Experience finden sich deutlich mehr Punkte als im Rahmen der Onpage-Analyse aus technischen Gründen betrachtet werden können. Die bereits mehrfach angesprochene CTR lässt sich z.B. bei einer externen Analyse nicht messen, da hier Daten von Google notwendig wären, die nicht veröffentlicht werden. Die Auswahl wird deshalb beschränkt auf:
- Anzahl interner und externer Links
- Anzahl von Bildern und Videointegration
- Responsive Design bzw. Optimierung für Mobiltelefone
Die Zahl der internen Links einer Seite ist von durchaus missverständlichem Charakter. Die Werte stiegen im Jahr 2015 zwar an, doch heißt dies laut Searchmetrics nicht, dass mehr Links ein erstrebenswerter Zustand sind. Links sollen dazu dienen, um wichtige Dokumente einer Webseite zu betonen und den Nutzer lange auf der Seite zu halten. Das Vorhandensein an sich und vor allem in hoher Zahl ist kein SEO-Faktor (vgl. To- ber u. a., 2015, S. 25). Aus einem Google-Patent (vgl. Dean, Anderson und Battle, 2012) lässt sich eher ableiten, dass wenige Links, die prominent platziert sind und entsprechende Schlagwörter in ihrer Umgebung haben, bedeutender wahrgenommen werden. Bei den ausgehenden Links, also Links zu anderen Webseiten, finden sich Angaben, dass eine Zahl von 100 nicht überschritten werden sollte (vgl. OnPage.org, 2016a), Matt Cutts von Google hat dies aber bereits 2013 negiert und empfiehlt „eine sinnvolle Zahl von Links ... die nicht nach Spam aussieht." (Cutts, 2013) Insofern kann davon ausgegangen werden, dass es nicht nachteilig ist, sich mit Links zurückzuhalten und sich auf das Wesentliche zu beschränken.
Bezogen auf Rich Media in Form von Bildern und Videos lässt sich sagen, die Seiten, die Top Ergebnisse erzielen, beinhalten immer mehr Bilder, während die Zahl der Videos zurückgegangen ist. Bei beiden ist wohl nicht das bloße Vorhandensein ausschlaggebend, sondern die Verweildauer der Nutzer auf der Seite, die dadurch verlängert wird. Bilder haben zusätzlich den Vorteil, dass die Seite neben der Textsuche auch über die Google Bildersuche gefunden werden kann und somit potentiell mehr Treffer erzielt. Es zeigt sich, dass ca. 90% der eingebundenen Videos in den Top Ergebnissen von der Google Tochter YouTube stammen (vgl. Tober u. a., 2015, S. 25 f.)
Aufgrund der weltweit steigenden Internetnutzung über Mobiltelefone (vgl. Statista, 2016a) änderte Google seinen Suchalgorithmus dahingehend, dass Webseiten, die auch für Mobilgeräte optimiert sind, bevorzugt angezeigt werden (vgl. Makino, Jung und Phan, 2015). Die Optimierung von Webseiten für Mobiltelefone macht für die Betreiber somit aus SEO- wie auch aus Kunden-Sicht Sinn. Recht klar zeigt sich in den Ergebnissen von Searchmetrics, dass der Anteil an Webseiten, die sich an die Bildschirmgrößen von Tablets und Mobiltelefonen anpassen unter den Top Suchergebnissen überdurchschnittlich hoch ist und Google die zuvor genannten Ankündigungen auch umsetzt (vgl. Tober u. a., 2015, S. 28).
Auch bei der User Experience zeichnet sich ein vergleichbares Bild ab wie bei den zuvor betrachteten Bereichen. Der Nutzer rückt in den Fokus und Google bewertet positiv, was diesem zuträglich ist bzw., ob dieser mit der besuchten Webseite zufriedengestellt wurde, soweit dies anhand der für Google ermittelbaren Daten messbar ist.
Bei der Betrachtung von SEO-Faktoren wird häufig eine große Menge von Schlagwörtern betrachtet, deren SERP-Ergebnisse dann analysiert werden. Dies ist auch in den bisher vorliegenden Studien von Search- metrics der Fall. Unterdessen schlägt der Anbieter aber einen anderen Weg ein und sieht Faktoren nicht mehr als allgemein gültig an. Laut Geschäftsführer Marcus Tober unterscheiden sich diese von Branche zu Branche. Erste Untersuchungen mit diesem Ansatz ergaben z.B., dass sich die Werte von Seiten mit guten Rankings durchaus stark voneinander unterscheiden - abhängig davon, ob diese thematisch z.B. im Bereich Gesundheit, Shopping oder Finanzen angesiedelt sind. Dementsprechend wird Searchmetrics seine Studien künftig anders aufbauen bzw. neben dem allgemeinen Überblick auch konkretere Werte für einzelne Branchen ermitteln und diese ebenfalls darstellen (vgl. Tober, 2016). Immer stärkeren Einfluss bei der Beurteilung der Ergebnisse gewinnen auch künstliche Intelligenz bzw. neue Möglichkeiten, die durch Machine Learning entstehen. Für Google ist seit dem Jahr 2015 das sogenannte Rankbrain eine wichtige Technologie, mit der eingeschätzt wird, was der Nutzer sehen will (vgl. ebd.). Im Gegensatz zur sonstigen Verschwiegenheit über Rankingmethoden erklärte Google Senior Research Scientist Greg Corrado offen, dass der Suchgigant unterdessen hunderte Leute beschäftigt, die Computern beibringen, nicht nur ihre Datenbanken nach Schlagwörtern zu durchsuchen, sondern wirklich zu verstehen, welche Bedeutung bzw. welchen Sinn die Anfrage für den Nutzer hat. Google macht also immer größere Schritte hin zu semantischem Verständnis - sowohl bei der Interpretation von Webseiten, die im Algorithmus landen, als auch bei der Interpretation der Anfragen. Dabei handelt es sich nicht mehr nur um Experimente - Rankbrain ist in vielen Sprachver- sionen der Suche bereits der drittwichtigste Rankingfaktor (vgl. Clark, 2015). Für Google könnte dies bedeuten, dass sie künftig noch besser mit den Suchanfragen umgehen können, die nicht alltäglich vorkommen oder für Computer in herkömmlichen Verfahren nur schwer zu verarbeiten sind. Es kommt durchaus vor, dass Anfragen gestellt werden, die vorher in dieser Form noch nicht da waren. In vielen Sprachen existieren mehrdeutige Begriffe (z.B. bank für Sitzgelegenheit und Geldinstitut), Umgangssprache, die sich auch innerhalb der Regionen und Generationen unterscheidet, sowie dialogische Suche, also die Verwendung von Suchphrasen statt Schlagwörtern - bei all diesen Problemen unterstützt das Rankbrain dabei, die optimalen Ergebnisse zu liefern. Kulturell gesehen liegt der bedeutendste Aspekt hier wohl in der Tatsache, dass nicht mehr die Ingenieure von Google darüber sinnieren, was die Nutzer meinen und wünschen könnten und dementsprechend Algorithmen entwickeln, sondern dass beim Machine Learning die Rechner unterdessen in der Lage sind, dies anhand von Beispielen selbst zu erlernen und immer weiter zu verfeinern (vgl. Wells, 2015).
2.2.2 Nachrichtenwert-Theorie
Die Grundüberlegung hinter der Nachrichtenwert-Theorie besagt, dass ein Ereignis verschiedene Faktoren besitzen kann, welche es für die Berichterstattung interessant machen. Je mehr dieser Faktoren es besitzt, desto intensiver und umfangreicher wird es sich voraussichtlich in der Berichterstattung wiederfinden. Durch den direkten Zusammenhang von Eigenschaft und Abdeckung in den Medien kann hier von einem Kausalmodell gesprochen werden. Die einzelnen Faktoren, welche als Grundlage der Beurteilung dienen, werden häufig als Nachrichtenfaktoren bezeichnet (vgl. Staab, 1998, S. 49). Die Grundidee der NachrichtenwertTheorie wird dem amerikanischen Journalisten Walter Lippmann zugeschrieben. In seinem Buch „Public Opinion" erwähnte er als Erster den Begriff News Value (vgl. Uhlemann, 2012, S. 114; Maier, Stengel und Marschall, 2010, S. 28). Auch in Europa wird das Thema seit den 1960er Jahren in unterschiedlichen Werken aufgegriffen (vgl. La Roche, 2013, S. 75 ff.; Östgaard, 1965, S. 40 ff.; Galtung und Ruge, 1965, S. 65 ff.). In der deutschen Publizistik sollte die Arbeit von Winfried Schulz nicht außer Acht gelassen werden, welcher den Katalog der Nachrichtenwert Faktoren von Galtung und Ruge nochmals überarbeitet und erweitert hat (vgl. Kepplinger, 2011, S. 61; Holtz-Bacha und Scherer, 1998, S. 19).
Als Hilfsmittel der Nachrichtenwert-Theorie dienen die Nachrichtenfaktoren. Diese haben an sich zwar keinen Nachrichtenwert, werden aber genutzt, um den Wert einer Nachricht zu bestimmen (vgl. Kepplinger, 2011, S. 61). Wie viele Faktoren Einfluss nehmen, hängt davon ab, welcher Theorie gefolgt wird. Verschiedene Modelle reichen von vier Faktoren (vgl. Östgaard, 1965, S. 45 ff.) bis hin zu 19 Faktoren geordnet in sechs Gruppen (vgl. Schulz, 1982, S. 146).
Die einzelnen Faktoren müssen dabei allerdings nicht alle vorliegen, sondern besitzen der Theorie von Galtung und Ruge nach einen komplementären Charakter, sodass eine besondere Bedeutung des einen die Ermangelung eines anderen ausgleichen kann. Ebenso schreiben sie ihnen einen additiven Faktor zu, sodass eine Meldung größere Chancen hat, zur Nachricht zu werden, je mehr Faktoren vorhanden sind und sich ergänzen (vgl. Galtung und Ruge, 1965, S. 72 ff.).
Als uneingeschränkt allgemein gültig und allumfassend können die Faktoren, die den Wert für die Berichterstattung nach der NachrichtenwertTheorie ausmachen, jedoch nicht angesehen werden. So kann z.B. eine Tageszeitung andere Kriterien für die Berichterstattung haben als ein Wochenmagazin oder ein TV-Sender. Die Nachrichtenfaktoren können also abhängig von der Mediengattung abweichenden Nachrichtenwert aufweisen. Nicht zu vernachlässigen ist auch die subjektive Meinung der auswählenden Mitarbeiter in Redaktionen, die ebenfalls einen Einfluss auf die Auswahl hat. (vgl. Kepplinger und Bastian, 2000, S. 465). Unterdessen gehen die Forschungen zur Nachrichtenwert-Theorie auch in die Richtung, dass nicht nur erklärt wird, weshalb gewisse Meldungen den Weg in die Medien geschafft haben. Es werden auch Versuche unternommen, mithilfe der Nachrichtenfaktoren zu prognostizieren, welche Meldungen es schaffen werden, in die Medien vorzudringen und wie groß die Resonanz sein wird (vgl. ebd., S. 472 ff.).
Im Rahmen dieser Arbeit ist der Nachrichtenwert ein Kriterium bei der Auswahl der Texte, die als Grundlage der Analyse dienen. Neben dem Ziel, eine möglichst hohe Vergleichbarkeit herzustellen, wird bei der Auswahl darauf geachtet, Texte zu wählen die über einen möglichst niedrigen Wert verfügen. So sollen verschiedene SEO relevante Rankingfaktoren ausgeschlossen werden, welche im späteren Verlauf näher erläutert werden.
Kapitel 3 Aufbau der empirischen Analyse
3.1 Testschema zur Textauswahl
Um eine möglichst hohe Vergleichbarkeit der analysierten Texte sicherzustellen, müssen diese gewisse Kriterien erfüllen, welche nachfolgend erläutert werden. Da die Betrachtung zum Ziel hat, Online-Plattformen mit dem Online-Auftritt klassischer Medien zu vergleichen, werden in dieser Kategorie ausschließlich Plattformen betrachtet, die rein online, also nicht in Print, Rundfunk etc., verfügbar sind. Zur effektiven Prüfung und korrekten Dokumentation wird eine eigens erstellte Checkliste verwendet, welche sich in Anhang A befindet. Neben dem Namen des Anbieters, dem Titel sowie der URL des analysierten Artikels und dem Datum der Veröffentlichung bzw. letzten Nachbearbeitung, werden hier auch die Sprache und das Ursprungsland der Webseite festgehalten. Zusätzlich werden die später genannten Ausschlusskriterien geprüft, wobei hier das Zutreffen eines einzigen Punktes bereits zum Ausschluss des Artikels führt. Abschließend wird eine Beurteilung des Nachrichtenwertes durchgeführt, um sicherzustellen, dass auch in diesem Bereich eine Eignung für die Analyse vorliegt.
3.1.1 Aktualität und Nachfrage
Der Fokus der Analyse soll auf der langfristigen Positionierung von Texten in Suchmaschinen liegen. Es ist also nicht Ziel zu betrachten, welcher Anbieter seine brandaktuellen Inhalte am besten positioniert, sondern wer über einen längeren Zeitraum auch nach der Veröffentlichung in der Lage ist, von den Suchenden in den SERP gesehen zu werden. In der Tat betrachtet Google bei jedem Thema die Menge an Suchanfragen, sowie die neu verfügbaren Inhalte und tendiert dazu, bei aktuellen Themen die neuesten Inhalte priorisiert anzuzeigen. Eine Suchanfrage nach olympia bringt Ergebnisse der aktuellen Spiele, nicht der vergangenen, auch wenn die Jahreszahl nicht in der Anfrage enthalten ist. Ein Rezept für tomatensoße ist weniger zeitkritisch, weshalb dieser Teil des Algorithmus hier nicht so stark eingreift (vgl. Singhal, 2011). Die Aussagen von Google (vgl Cutts, 2009a) zu diesem als Query Deserves Freshness (QDF) bezeichneten Algorithmus sowie die Interpretationen hierzu legen nahe, dass es bei entsprechender Aktualität durchaus möglich ist, auch als sonst nicht gut rankende Seite ohne langfristige SEO-Strategie kurzfristig auf die vorderen Positionen der SERP zu kommen (vgl. Altoft, 2007; SISTRIX, 2016c; Weltevrede, Helmond und Gerlitz, 2014, S. 135 ff.). Um noch näher am aktuellen Geschehen zu sein, hat Google auch das Abkommen mit dem Kurznachrichtendiest Twitter erneuert, welcher ihnen direkten Zugriff auf die Schnittstellen bietet, sodass die Webseite des Dienstes nicht erst per Software eingelesen werden muss (gecrawlt). Tweets können so wenige Sekunden nach der Veröffentlichung schon Teil der Suchergebnisse sein, was gerade in Verbindung mit den Geo- koordinaten des Absenders deutlich ausgeweitete Möglichkeiten bietet, wenn es z.B. um Nachrichten aus einem Krisengebiet geht (vgl. Frier, 2015). Dies ist allerdings vor allem bei Webseiten beschränkt auf den Zeitraum einer gesteigerten Nachfrage und der gleichzeitigen Ermangelung an anderem hochqualitativen Content. Um den Faktor Aktualität auszuschließen, wird zu jedem Text bzw. Keywordset überprüft, ob derzeit ein aktuelles Ereignis vorliegt, welches das Ranking positiv beeinflussen und damit das Ergebnis verfälschen könnte. Beispiel für solch ein aktuelles Ereignis könnte z.B. sein, dass eine prominente Person eine neue Art von Diät ausprobiert. In diesem Fall würde diese Diät vermutlich überdurchschnittlich stark gesucht werden.
3.1.2 Nachrichtenwert
Die Faktoren der Nachrichtenwert-Theorie werden herangezogen um eine Beurteilung zu ermöglichen, ob neben der Aktualität noch weitere Faktoren eines Textes für eine große Relevanz sprechen könnten und somit die Nachfrage erhöhen. Dadurch könnte das langfristige Ranking stark von dem im Zeitraum der Analyse abweichen und damit die Ergebnisse verfälschen, was durch den Ausschluss entsprechender Texte vermieden werden soll. Da das Ziel der Untersuchung nicht die Überprüfung oder Beurteilung der Nachrichtenwert-Theorie ist und über den Umfang des Katalogs der Nachrichtenfaktoren in Europa im Gegensatz zu den USA keine Einigkeit in der Forschung herrscht (vgl. Staab, 1998, S. 50), werden für die Beurteilung die Nachrichtenfaktoren nach den Ausarbeitungen von Schulz (vgl. Schulz, 1982, S. 146) herangezogen. Wie bereits in Abschnitt 2.2.2 auf Seite 15 ersichtlich, beziehen sich viele Forscher auf die Arbeit von Schulz und nutzen sie häufig als Grundlage für eigene Interpretationen. Da es nicht Ziel der Arbeit ist, verschiedene Ansätze der Nachrichtenwert-Theorie zu vergleichen, wird hier deren häufig verwendete Basis als adäquate Ausgangslage angesehen, um eine Beurteilung des Nachrichtenwertes der Texte anhand der folgenden Kriterien vorzunehmen.
Nähe
Allein durch die Auswahl deutschsprachiger Texte kann nicht automatisch auf einen Bezug zu Deutschland ausgegangen werden. Beiträge, welche zwar auf Deutsch verfasst sind, sich aber ausschließlich mit ausländischen Themen beschäftigen, wie z.B. über die Ernährung von indigenen Völkern in Südamerika, werden nicht in die Analyse aufgenommen. Beiträge zur Analyse müssen für ein deutschsprachiges Publikum räumlich oder kulturell relevant sein. Da ausschließlich Beiträge aus dem Bereich Ernährung analysiert werden, bedeutet Nähe hier auch, dass die Artikel in einem Zusammenhang zur Ernährung des Lesers stehen müssen.
Identifikation
Ähnlich wie auch beim Faktor Nähe, muss die zu analysierende Berichterstattung für den Betrachtungsraum Deutschland bzw. den deutschsprachigen Raum Identifikationsmerkmale aufweisen. Leser aus dem Gebiet müssen sich und ihre Ernährungsgewohnheiten mit dem Artikel identifizieren können. Das kann z.B. in Form von Tipps zur richtigen Ernährung oder zur Aufklärung über Nahrungsmittel geschehen, die im Zugriff des Lesers stehen.
Status
Die Beiträge sollen den Fokus auf dem Thema Ernährung haben. Es darf kein Nebenaspekt z.B. in einer Meldung über die Ernährungsgewohnheiten einer prominenten Person sein, um das Ranking nicht durch einen Promi-Faktor zu verfälschen. Gleiches gilt für einen großen Einfluss aus wirtschaftlicher oder politischer Sicht, z.B. bei der Berichterstattung über einen großen Konzern der Nahrungsmittelindustrie oder Gesetzesänderungen.
Dynamik
Themen, die sich sehr schnell verändern und bei denen viele aktuelle Informationen dargestellt werden, bleiben bei der Analyse unbeachtet. Ein denkbares Beispiel wäre die Berichterstattung über einen Lebensmittelskandal oder die Rückrufaktion einer Produktionscharge eines Artikels durch den Hersteller, weil Verunreinigungen Gesundheitsschäden beim Konsumenten hervorrufen können. Trends und Themen, die über Monate oder Jahre aktuell sind, wie z.B. Vegetarismus und Veganismus werden hingegen nicht ausgeschlossen.
Valenz
Themen, die durch eine negative Wertigkeit bestimmt sind, werden per se nicht ausgeschlossen, doch muss betrachtet werden, ob hierdurch das Thema Ernährung als Hauptmeldung bestehen bleibt oder ob es in den Hintergrund rückt. So wäre ein Artikel über die langfristigen Gesundheitsschäden durch einseitige Ernährung denkbar für die Analyse, ein Bericht über systematische Verstöße gegen Hygienevorschriften in der Systemgastronomie eher nicht.
Zeit
Das Thema Ernährung begleitet den Menschen von Geburt an bis zum Tod und hat somit keine unmittelbare zeitliche Komponente. Themen können aktuell sein, wie z.B. Verunreinigungen in bestimmten Nahrungsmitteln durch einen Produktionsfehler oder allgemein gültig wie z.B. eine ausgewogene Ernährung. Die Auswertung fokussiert sich auf die Themen, welche eine langfristige Gültigkeit haben, um so den Einflussfaktor Aktualität (bzw. die Auswirkungen des QDF Algorithmus) auf das Ranking auszuschließen.
Bei der Beschreibung der Faktoren wurde Deutschland bzw. der deutschsprachige Raum als Gebiet der Analyse genannt, obwohl die Auswirkungen der SEO-Faktoren ausschließlich auf die deutsche Seite Goo- gle.de betrachtet werden. Dies liegt daran, dass Google.de auch Ergebnisse anzeigt, die zwar in deutscher Sprache verfasst sind, sich aber auf Domains mit anderen Endungen als .de befinden, wie z.B. aus Österreich und der Schweiz, aber auch von Domains, die keinen unmittelbaren Rückschluss auf das Ursprungsland zulassen, wie z.B. .net oder .com. Ist der Text nicht in deutscher Sprache verfasst, ist dies allerdings ein Ausschlusskriterium. Denkbar wäre, dass Google bei einem Keyword wie vegan, welches in deutscher und englischer Sprache identisch ist, auch englische Texte anzeigt.
3.1.3 Journalistische Kriterien
Fraglich ist, ob es eine einheitliche Definition von Journalismus geben kann, sind die Facetten der Tätigkeit doch einfach zu umfänglich, um sie allgemeingültig zu erfassen. Die finale Entscheidung, ob ein Text journalistisch ist oder nicht, hängt immer auch vom Zusammenhang ab, vor allem in den Grenzbereichen. Zudem ist es explizit nicht das Ziel der Analyse, nur Werke zu betrachten, die journalistisch auf einem einheitlichen Niveau platziert sind, aber dennoch soll dieses Kriterium nicht außer Acht gelassen werden. Dementsprechend soll diese Überprüfung auch nicht dazu dienen, Texte nach verschiedenen Theorien bis ins letzte Detail zu analysieren oder gar eine allgemein gültige Definition von Journalismus zu erstellen, vielmehr soll aus Sicht der Konsumenten beurteilt werden, ob ein Text bei diesen am journalistischen Hintergrund Zweifel aufkommen lässt. Sie dient dazu, um z.B. Seiten heraus zu filtern, die offenbar Unwahrheiten verbreiten oder lediglich versuchen, Kunden zum Kauf von Produkten, wie Nahrungsergänzungsmittel etc., zu drängen. Als Basis der Betrachtung dient hier die Definition von Klaus Meier
„Journalismus recherchiert, selektiert und präsentiert Themen, die neu, faktisch und relevant sind. Er stellt Öffentlichkeit her, indem er die Gesellschaft beobachtet, diese Beobachtungen über periodische Medien einem Massenpublikum zur Verfügung stellt und dadurch eine gemeinsame Wirklichkeit konstruiert. Diese konstruierte Wirklichkeit bietet Orientierung in einer komplexen Welt." (Meier, 2013, S. 14) Meier leitet daraus die drei folgenden Eigenschaften ab, die Journalismus auszeichnen (vgl. ebd., S. 14):
Neuigkeit
Die Nachricht liegt nur einen gewissen Zeitraum zurück, der abhängig vom Erscheinungsintervall des Mediums ist. Darunter fallen allerdings auch Themen ohne konkreten Ereignisbezug, solange der Gegenwartsbezug gegeben ist. Beim Thema Ernährung, das die Menschheit alltäglich begleitet, kann hier zwar oft nicht von einem konkreten Ereignis gesprochen werden, dennoch ist das Thema durch den anhaltenden Gegenwartsbezug nicht per se ausgeschlossen für eine journalistische Aufbereitung. Da Google wie zuvor beschrieben ähnliche Faktoren in das sich stetig ändernde Ranking einfließen lässt, eignet sich der gewählte Bereich Ernährung umso mehr für die Analyse nach dem geplanten Testschema, da hier journalistische Produkte vorhanden sind, das Ranking aber nicht durch Aktualität beeinflusst wird.
Faktizität
Journalismus ist keine Fiktion, das heißt, er bearbeitet reale Ereignisse mit überprüfbaren Fakten. Aufgabe des Journalismus ist es, diese Fakten zu betrachten und zu überprüfen. Dieser Punkt wird mit in das Prüfschema für Texte aufgenommen. Es wird dabei untersucht, ob eine Berufung auf Quellen stattfindet und deren Überprüfung bzw. kritische Betrachtung ersichtlich ist.
Relevanz
Die Relevanz nennt Meier als Grundlage des Gesellschafts- und Publikumsbezugs des Journalismus. Sie ist dabei abhängig von der Bedeutung des Themas für die Zielgruppe des Mediums, aber auch für die gesamte Gesellschaft. Da Ernährung allgemein für die Gesellschaft ein relevantes Thema ist, wird hier die Relevanz für den Leser geprüft, indem der zu prüfende Text in Relation zu den gesuchten Keywords gestellt wird. Die Frage dabei ist, ob der Text wirklich Informationen zu dem gesuchten Thema bietet oder nur aufgrund einer Fehlinterpretation der Suchmaschine oder eine Doppeldeutigkeit des Begriffs in der SERP erscheint.
Die Frage, ob Journalismus im Internet überhaupt möglich ist, muss mit einem klaren Ja beantwortet werden - sind doch nahezu alle bekannten journalistischen Publikationen auch im Internet vertreten und teilweise sogar unter den ersten, die neue Möglichkeiten des digitalen Zeitalters für ihre Zwecke nutzen. Ein eigener Kanal für Videos auf YouTube oder eingebettete Videos in Artikeln sind im Jahr 2016 keine Besonderheit mehr, doch das Thema des Live-Videostreaming über Mobiltelefone kam 2015 zu neuer Beliebtheit, nachdem erst der Dienst Meerekat (vgl. Fiegerman, 2015) und danach Periscope (vgl. Twitter, 2015) online gingen. Hier war z.B. die Bildzeitung Vorreiter, die schon im September desselben Jahres umfangreiche Tests für den Einsatz von Periscope im journalistischen Alltag startete (vgl. Geisler, 2015).
Ebenso selbstverständlich ist aber nicht jede Publikation im Internet automatisch Journalismus, nur weil dies möglich ist oder sie diesen Status für sich erhebt. Jeder Text, jedes Video, jeder Podcast oder welches auch immer aktuell und zukünftig verfügbare Format muss sich der Beurteilung stellen, ob die darüber vermittelten Inhalte den Kriterien der journalistischen Berichterstattung gerecht werden können oder nicht.
Neben den beiden oben genannten, zumindest oberflächlich leicht zu beantwortenden Fragen eröffnen sich im Journalismus aber noch ganz andere Fragen und Blickwinkel für Medienhäuser, wie z.B. die Finanzierung im oder mit Hilfe des Internets. Während klassische Medien Erträge aus dem bestehenden Geschäft haben, ist noch lange nicht abschließend geklärt, wie Online-Angebote in ausreichendem Maße zur Unternehmensfinanzierung beitragen können. Noch dringlicher stellt sich diese Frage natürlich für Angebote, die rein online-basiert sind und nicht über eine Querfinanzierung verfügen. Ein gutes Beispiel aus Deutschland ist hierfür das Substanz Magazin1. Das von den Journalisten Georg Dahm und Denis Dilba im März 2014 gegründete und ausschließlich online erhältliche Magazin für Wissenschaftsjournalismus kann wohl in die Kategorie des Qualitätsjournalismus gezählt werden, geriet allerdings in finanzielle Schwierigkeiten und ist zum aktuellen Stand eingefroren (vgl. Dahm und Dilba, 2016). Ein Neustart ist geplant, aber nicht gesichert.
3.2 SEO-Analyseverfahren
Der umfangreichste Teil der Untersuchung betrachtet die Optimierung von SEO-Faktoren bei den ausgewählten Texten. Dementsprechend wird nachfolgend dokumentiert, welche Faktoren in die Betrachtung einfließen und weshalb. Ebenso wird betrachtet und dokumentiert, welche Software zur Analyse zum Einsatz kommt.1
3.2.1 Verwendete SEO-Faktoren
Die Beschränkung auf Faktoren der Onpage-SEO wurde aus bestimmten Gründen getroffen. In der Tat ist es so, dass diese nur einen Teil des Rankings ausmachen, doch sind sie diejenigen, die vollends in der Hand des Contentproduzenten bzw. Webseitenbetreibers liegen. Andere Faktoren, wie insbesondere die Struktur der Backlinks, folgen anderen Regeln und sind nur mit sehr großem Aufwand zu erfassen, weshalb diese Grenze dem Umfang der Arbeit geschuldet ist. Die Ergebnisse der Arbeit können aber dennoch hilfreich sein, um zu zeigen, ob der Inhalt der Seite wieder mehr in den Fokus rückt und eine ordentliche Struktur hier wieder mehr Bedeutung gewinnt, nachdem Backlinks einst das Maß aller Dinge darstellten. Konkret betrachtet werden folgende, teils bereits im Vorfeld beschriebene, Faktoren:
- Nutzung von HTTPS
- Optimierung für Mobiltelefone
- Anzahl der Keywords im Titel
- Länge des Titels
- Keywords in Meta Description
- Länge der Meta Description
- Summe der Wörter im HTML Body
- Häufigkeit der Keywords im Text der Webseite
- Länge der URL
- Keywords in der URL
- Summe der Links
- Defekte Links
- Dateigröße des Dokumentes
- Keywords in den H1- und H2- bis H6-Überschriften
- Hervorhebung von Keywords im Text durch Fettoder Kursivschrift
Details zur Bedeutung der genannten Faktoren finden sich in Abschnitt 2.2.1 SEO-Faktoren ab Seite 6. Darüber hinaus werden aber noch weitere, nicht im Forschungsstand betrachtete Faktoren, in die Analyse aufgenommen:
Probleme bei der Verwendung von HTTPS
Neben dem Vorhandensein von HTTPS spielt auch die korrekte Implementierung eine Rolle. Probleme können hier in einer fehlerhaften Umleitung von der unverschlüsselten auf die verschlüsselte Version der Webseite liegen, aber auch schlicht in einem ungültigen Zertifikat. Zum einen führt dies dazu, dass Suchmaschinen einen Fehler erkennen und damit nicht davon ausgegangen werden kann, dass die Rankingvorteile für die entsprechenden Anbieter gültig sind. Hier muss eher von einem negativen Einfluss ausgegangen werden. Zum anderen kommt eine indirekte Folge hinzu. Browser wie Chrome oder Firefox warnen ihre Nutzer teilweise sehr nachdrücklich vor Webseiten, die zwar behaupten, sicher zu sein, bei der Überprüfung aber Fehler aufweisen.
Abbildung in dieser Leseprobe nicht enthalten
ABBILDUNG 3.1: Firefox-Meldung bei fehlerhafter HTTPS- Verbindung (eigener Screenshot 06.11.2016)
Da dieses Muster auch bei Betrugsversuchen vorkommt, gehen beide Browser hier automatisch von unredlichen Motiven beim Betreiber aus und zeigen statt der Webseite eine Fehlermeldung an, die den Nutzer zu mehreren Klicks zwingt, um die Seite dennoch aufzurufen. Diese führen dazu, dass die Nutzer, die sich dafür entscheiden, die Seite nicht aufzurufen, schnell wieder zu Google zurückkehren und damit ein negatives User Signal setzen, was wiederum negativ für die Seite ausgelegt wird. Aus diesem Grund ist zusätzlich zu der Empfehlung, HTTPS zu verwenden, unbedingt darauf zu achten, dass die Einbindung korrekt erfolgt ist und Zertifikate zu jeder Zeit Gültigkeit haben.
Korrekte Umleitung von www- und nicht-www-Version Webseiten können vom Webserver mit oder ohne das Präfix www ausgeliefert werden. Im Regelfall sollten sich Programmierer für eine der beiden Versionen entscheiden und Anfragen der jeweils anderen Variante auf die ausgewählte weiterleiten. Geschieht das nicht, existiert die Seite sozusagen doppelt im Netz, was dann internem Duplicate Content entspricht, den es zu vermeiden gilt (vgl. SISTRIX, 2016a).
Besitzen die Bilder Alt-Texte und sind korrekt eingebunden? Zur Beschreibung von Bildern steht in der Auszeichnungssprache HTML der Alt-Tag zur Verfügung. Damit kann der Inhalt des Bildes auch in Textform beschrieben werden. Suchmaschinen sind in der Lage, diese Tags auszulesen und Google verwendet sie neben dem Dateinamen des Bildes für die Darstellung in der Bildersuche (vgl. Google, 2016c). Um Google die Indexierung zu erleichtern und über die Bildersuche zusätzliche Rankings und damit Besucher zu erreichen, sollten Bilder aussagekräftige Alt-Tags besitzen - idealerweise mit den gewünschten Keywords.
Vorhandensein von robots.txt
Die robots.txt Datei muss im Hauptverzeichnis einer Webseite liegen und exakt diesen Namen tragen. Ausnahmen jeglicher Art sind hier nicht möglich. Die Datei dient dazu, Suchmaschinen mitzuteilen, welche Bereiche der Webseite nicht indexiert werden sollen, wie z.B. Loginbereiche oder das Impressum (vgl. Google, 2016i). Dies kann dazu genutzt werden, um die Aufmerksamkeit der Suchmaschinen von den Bereichen, die für den Anbieter nicht wichtig sind, wegzuleiten. Dadurch wird der Aufwand für Suchmaschinen beim Indexieren der Inhalte reduziert, es sichert aber auch, dass Nutzer nicht auf Seiten landen, die uninteressant sind und durch ein schnelles Verlassen der Seite die User Signale negativ beeinflussen.
Maschinenlesbare Sitemap
Wie auch die robots.txt Datei dient die Sitemap ausschließlich dazu, Suchmaschinen Informationen mitzuteilen. Wichtig hierbei ist nicht nur das Vorhandensein der Datei an sich, sondern auch die klare Kommunikation mit Google und anderen Suchmaschinenanbietern. Sie stellt eine komplette Übersicht der Seite in maschinenlesbarer Form dar, die der Suchmaschine das Indexieren erleichtert und so deren Ressourcen spart (vgl. Google, 2016b; Jantz, 2012). Im Regelfall wird die Datei automatisch gefunden, wenn sie mit dem Dateinamen sitemap.xml im Hauptverzeichnis der Domain liegt, der Name kann aber auch in der robots.txt Datei vermerkt sein. Sollte beides nicht zutreffen, muss jeder Suchmaschine über eigene Programme der Anbieter mitgeteilt werden, wo sich die Datei befindet. Bei Google wird hierfür das Tool Search Console verwendet. Der Aufwand für den Betreiber ist hier allerdings deutlich höher, da er jedem einzelnen Anbieter diese Information separat übergeben muss.
Ist die Seite von der Indexierung durch Suchmaschinen gesperrt?
Neben einer Sperrung eines Dokumentes über die robots.txt oder Sitemap kann auch im oberen Bereich eines HTML Dokuments, dem sogenannten Head, eine Sperre eingetragen werden. Ist dies der Fall, sollten Suchmaschinen die Seite eigentlich nicht anzeigen, weshalb davon ausgegangen werden kann, dass solche Seiten nicht in den Ergebnissen von Google auftauchen und damit auch nicht Teil der Analyse werden. Dennoch wird der Faktor geprüft, um festzustellen, ob Google sich eventuell über die Anweisung hinweggesetzt hat. Der Befehl wird oft verwendet, um eine Seite, die zwar schon erreichbar, aber noch nicht fertiggestellt ist, vor Suchmaschinen zu verbergen, bis die Fertigstellung erfolgt. Gelegentlich wird dann vergessen, den Tag zu entfernen, sodass er längere Zeit auf der Seite verbleibt.
Nicht komprimierte, minimierte und gecachte Elemente
Bereits angesprochen wurde die Bedeutung der Ladegeschwindigkeit von Webseiten. Da die Ladezeit von der Menge der zu übertragenden Daten abhängig ist, empfiehlt es sich, die benötigten Ressourcen zum Aufbau der Seite komprimiert und minimiert zu übertragen (vgl. Baur, 2015). Die Komprimierung wird hier im Gzip Format durchgeführt. Dabei werden alle Dateien mit Kompression gespeichert und wenn der anfragende Browser Gzip unterstützt auch in diesem gepackten Format übertragen, was zu weniger Datenvolumen und damit einer kürzeren Übertragungszeit führt. Minimierung bedeutet, unnötigen Programmcode schon vor dem Verpacken zu entfernen, um so schon mit einer kleineren Ausgangsdatei zu arbeiten. Eine weitere Möglichkeit, die Anfragen und übertragenen Dateimengen zu reduzieren ist, sie per Browsercache für wiederkehrende Besuche im Browser des Nutzers abzulegen (vgl. Heijmans, 2016). Ruft ein Nutzer eine Seite innerhalb von vorgegebenen Abständen erneut auf, dann werden die benötigten Dateien nicht vom Server abgerufen, sondern aus dem lokalen Speicher geladen, was einen schnelleren Aufbau ermöglicht. Neben den Vorteilen bei der Suchmaschinenoptimierung besteht der zusätzliche Vorteil für die Betreiber darin, dass der Server weniger belastet wird und so mehr Nutzer gleichzeitig bedienen kann, bis seine Kapazitäten erweitert werden müssen.
Keyworddichte
Aus der Zahl der Keywords im Dokument und der Gesamtsumme an Wörtern lässt sich die Keyworddichte berechnen - also der Wert, wie viel Prozent des gesamten Textes aus Keywords besteht (vgl. OnPage.org, 2016b). Eine zu hohe Keyworddichte wird von Google allerdings nicht empfohlen, wobei konkrete Werte nicht genannt werden. Liegt sie im Ermessen von Google zu hoch kann das als Spam ausgelegt werden, was zu Abstrafungen in Form von schlechteren Platzierungen oder sogar zum Ausschluss aus den Suchergebnissen führen kann (vgl. Google, 2016k). Da eine Manipulation des Wertes durch den Webmaster durch Veränderung der Webseitentexte äußerst einfach ist, wird allerdings vermutet, dass dem Wert durch Suchmaschinen keine große Rolle mehr beigemessen wird. Ein anderer unterdessen verwendeter Ansatz bei der Optimierung der Keywords ist die sogenannte WDF*IDF Analyse, bei der ein Dokument mit anderen verglichen wird, die ebenfalls das Potential haben, relevant zu sein. Durch dieses Erhebungsverfahren soll die Relevanz optimiert werden, ohne für Suchmaschinen als spamrelevant zu gelten (vgl. OnPage.org, 2016e). Da die Analysesoftware nach einem ähnlichen Verfahren und mit ähnlichen Werten wie bei WDF*IDF arbeitet, um den Wert Optimierungsrate zu errechnen (siehe Abschnitt 4.3 auf Seite 47), wird eine gesonderte Betrachtung von WDF*IDF nicht durchgeführt. Das erscheint unnötig, da bei der Errechnung der Optimierungsrate deutlich mehr Faktoren einfließen. Als Vergleichsobjekte dienen hier die ersten zehn SERP-Einträge eines Keywords. Für diese Ergebnisse werden dann viele der bisher genannten Werte errechnet und für jeden einzeln ein Vergleich erstellt, wie gut die betrachtete Seite im Verhältnis zu den Mitbewerbern abschneidet und jeder Wert einzeln angegeben. Die Optimierungsrate stellt den Durchschnitt aller einzelnen Faktoren dar, womit eine sehr umfangreiche Konkurrenzanalyse möglich ist, welche die Keyworddichte berücksichtigt, aber weit über die WDF*IDF Analyse hinausgeht. Die Key- worddichte fließt somit zum einen in die Betrachtung der Gesamtoptimierung ein, wird zusätzlich aber auch einzeln betrachtet.
Zur Dokumentation werden die erhobenen Faktoren in Berichten festgehalten und in digitaler Form angehängt. Für jede Webseite werden zwei Berichte erstellt. Zum einen wird dabei der zu betrachtende Text analysiert. Hier werden die für Einzelseiten relevanten, weil individuellen Faktoren, mit aufgenommen. Das sind z.B. Titel, Description und Wortzahl (siehe Anhang B, Seite 92). Zum anderen wird ein seitenweites Audit durchgeführt, in dem die Faktoren Beachtung finden, die für alle Dokumente der Seite identisch sind, wie z.B. die Verwendung von HTTPS, die Optimierung für Mobiltelefone, aber auch robots.txt und Sitemap (siehe Anhang C, Seite 123). Die allgemeinen Daten werden dabei teilweise auf Basis einer Auswahl des Webseitencontents erhoben.
3.2.2 Verwendete SEO-Analyse-Software
Zur Erstellung der Analysen kommt die Software Website Auditor zum Einsatz, welche ein Teil der SEO Power Suite des weißrussischen Anbieters LinkAssistant.com ist. Begonnen haben die beiden Software-Entwickler Viktar Khamianok und Aleh Barysevich im Jahr 2004 mit dem Programm Link Assistant, es folgten weitere Tools und im Jahr 2008 wurde das Softwareangebot um den Website Auditor erweitert.
Das Unternehmen gibt an, dass die SEO Power Suite über eine Million Downloads verzeichnen kann und sie derzeit über 500.000 Kunden betreut (vgl. LinkAssistant, 2016b). Neben dem Funktionsumfang der Software, der sich mit vielen Lösungen auf dem Markt vergleichen lässt oder diesem nach eigenen Angaben sogar teils deutlich überlegen ist (vgl. LinkAssistant, 2016a), stellt es auch eine der günstigeren Lösungen dar, die auf dem Markt verfügbar sind. Zur Auswahl trug neben dem großen Funktionsumfang auch bei, dass die Software dem Autoren und Versuchsleiter aufgrund seiner beruflichen Tätigkeit im Bereich der Suchmaschinenoptimierung bestens bekannt ist und sie ohne Mehrkosten zur Verfügung stand.
Website Auditor geht zu Beginn der Analyse ähnlich vor wie Suchmaschinen. Nach Eingabe der Domain startet die Software einen sogenannten Crawl der Webseite, bei dem ein Computerprogramm (häufig Bot, Robot oder Spider genannt) allen internen Links der Webseite folgt und so alle erreichbaren Dokumente scannt und indexiert. Zusätzlich zu dieser Suche wird die sitemap.xml der Webseite betrachtet und auf weitere Dokumente abgesucht, die beim Crawl nicht gefunden wurden. Um ein möglichst vollständiges Bild der Webseite zu erstellen, werden zusätzlich die Indizes von Suchmaschinen nach Einträgen des Testobjektes durchsucht und zur Liste der zu analysierenden Seiten hinzugefügt. Nach dem Sammeln der Daten werden viele Faktoren wie Titel und Description für alle gefundenen Dokumente abgefragt, um Fehler zu finden. Hieraus resultiert der Bericht Site Audit (Anhang C). Einzelne Dokumente können in einem weiteren Schritt gezielt auf die Optimierung nach einzelnen Keywords analysiert werden. Hierbei findet auch die erwähnte vergleichende Betrachtung statt, bei der die Webseiten analysiert werden, welche die ersten zehn Suchergebnisplätze belegen (Anhang B). Dies ermöglicht eine Optimierung abhängig von den Werten der Konkurrenz und verringert das Risiko, die Seite so auffällig zu verändern, dass Google die Seite abstraft.
Dank der softwaregestützten Datenanalyse können viele der bekannten Onpage-SEO-Faktoren automatisiert und darüber hinaus sehr zuverlässig geprüft werden. Die Zeitspanne des Vorgangs ist hier allerdings relativ zur Größe der zu betrachtenden Webseite. Testobjekte mit vielen tausend Dokumenten können Laufzeiten von mehreren Tagen nach sich ziehen oder die Software überlasten. Diese Faktoren sind der Grund dafür, dass die Prüfung, wie im vorangegangenen Abschnitt erwähnt, auf eine Auswahl von Dokumenten beschränkt wird.
3.2.3 Erläuterung des Analyseverfahrens
Basis der Analyse sind fünf Keywordsets, bestehend aus je zwei Wörtern oder Wortgruppen zum Thema Ernährung. Betrachtet werden reine Online-Portale, die zu beiden Keywords mit mindestens einem Ergebnis in den Top 50 Suchergebnissen von Google.de erscheinen. Sind für ein Keyword mehrere Ergebnisse derselben Seite auf der SERP sichtbar, so wird das besser positionierte gewählt. Die Anforderung, dass mit mehr als einem Text ein gutes Ranking erzielt werden muss, basiert auf der Annahme, dass so vermieden werden kann, einzelne Texte in die Auswahl aufzunehmen, die durch andere Faktoren, wie z.B. eine besonders starke Verbreitung in Social Media oder außergewöhnlich viele Back- links auf das eine Dokument, deutlich besser rankt als der Rest der Domain. So sollen falsche Rückschlüsse von einem Dokument auf die Gesamtheit der Webseite vermieden werden, um die Qualität der Ergebnisse nicht zu kompromittieren. Bei der Abfrage der Keywords wird auch betrachtet, ob Ergebnisse von klassischen Medien in den Top 50 Suchergebnissen erscheinen und festgehalten, an welcher Stelle diese positioniert sind. Das jeweils am besten gerankte Ergebnis wird als Vergleich herangezogen. Da der Fokus der Untersuchung in der Konkurrenzfähigkeit der neuen Angebote liegt, gilt die Anforderung, bei beiden Suchanfragen eines Sets in den Ergebnissen zu erscheinen, nicht für die Webseiten der klassischen Medien. Nachdem eine Webseite mit demselben Text für beide Keywords innerhalb eines Keywordsets gerankt werden kann, ist es möglich, dass für ein Keywordset nur zwei Texte die Auswahlkriterien erfüllen. Die Suche nach passenden Texten erfolgt manuell ohne Unterstützung von zusätzlicher Software, außer einem Browser. Der Versuchsrechner ist ein Apple Macbook Air, als Browser kommt Firefox in der Version 47.0 zum Einsatz. Als Datenschutzeinstellungen wurde festgelegt, keine Chronik und Cookies anzulegen und Webseiten werden angewiesen, Nutzeraktivitäten nicht zu verfolgen. Darüber hinaus kommt das Plugin Ghostery zum Einsatz, um weiteren Schutz gegen Tracking und Wiedererkennung zu gewährleisten. Hierdurch soll verhindert werden, dass Google mit Hilfe von eigenen Daten und denen von Drittan- bietern die Suchergebnisse anpasst und Klicks auf Portale nachhaltig das Suchergebnis verändern. Zugangspunkt zum Internet ist ein Anschluss des Anbieters Kabel Deutschland. Die softwaregestützten Analysen der Texte werden von einem anderen Computer (ebenfalls vom Hersteller Apple, Modell MacMini) und von einem anderen Internetanschluss (Vodafone) durchgeführt. Die Abfragen sollen so den größtmöglichen Grad an Neutralität aufweisen, um die Ergebnisse allgemein gültig zu machen. Nachdem die Texte die Eignungsprüfung mittels Checkliste durchlaufen haben und als geeignet eingestuft wurden, werden sie nach oben beschriebener Methode analysiert. Sollte der Fall eintreten, dass bei einem Keywordset mehrere Anbieter mit geeigneten Texten gelistet werden, kann die Zahl der Analysepunkte erhöht werden. Sie wird allerdings auf acht Texte pro Keywordset begrenzt, damit einzelne Sets keine zu große Verschiebung des Gesamtergebnisses nach sich ziehen. Es erfolgt die beschriebene Analyse der Texte, wobei auch hier nochmals betont werden sollte, dass sich diese teils auf eine angemessene Auswahl beschränkt und nicht immer komplette Seiten als Datenbasis verwendet, da vor allem bei den Seiten von Zeitungen mit umfangreichem Archiv mit den gegebenen Untersuchungsmethoden stellenweise nicht garantiert werden kann, dass eine komplette Betrachtung der Webseite mit allen Dokumenten technisch möglich ist. Die daran anschließende Betrachtung der gewonnenen Ergebnisse erfolgt manuell anhand der Daten der Analysesoftware. Dabei wird jeder der genannten Faktoren einzeln betrachtet und bearbeitet. Die Kategorien online und klassische Angebote werden zusammengefasst, um einen Durchschnitt der Kategorie zu erhalten. Als weitere Auswertungsmethode werden die einzelnen Faktoren auch grafisch in Relation zu den SERP-Positionen gesetzt, um eine weitere Möglichkeit zu erhalten, Auffälligkeiten zu erkennen. Um zusätzlich zu den einzelnen Werten auch einen Gesamteindruck zu erhalten und zu vergleichen, wird auch die errechnete Optimierungsrate, bei der alle Faktoren verrechnet werden, nach der gleichen Methode zur Analyse herangezogen. Zusätzlich zur beschriebenen Software kommt Microsoft Office für die Auswertung zum Einsatz. Als Hilfsmittel zur Keywordrecherche wird ein weiteres Online-Tool verwendet (siehe 3.4 auf Seite 34). Inhalte des Dienstes Google News sind von der Betrachtung gänzlich ausgeschlossen. Da die Richtlinien des Dienstes Wert auf Aktualität legen, entsprechen die Ergebnisse nicht den geforderten Kriterien für die Analyse (vgl. Google, 2016e). Die Aufnahme in Google News ist nur für Seiten möglich, die Nachrichten veröffentlichen, was Seiten, die sich allgemein und langfristig mit dem Thema Ernährung beschäftigen ausschließt und so gerade den Webseiten von Tageszeitungen einen Vorteil gewähren würde, der in der Untersuchung nicht gewünscht ist.
3.3 Methodenkritik
Kritisch betrachtet werden könnte die Prüfung der Texte auf ihren journalistischen Gehalt. In der Tat wird bei der Auswahl der Texte nur rudimentär geprüft, ob die zu analysierenden Texte Grundzüge journalistischer Elemente enthalten. Die Entscheidung hierfür fiel, da das Ziel darin lag, zu betrachten, ob die Möglichkeit besteht, sich bei einzelnen Keywords gegen etablierte Medien in Suchmaschinen durchzusetzen. Die Überprüfung dient damit lediglich dazu, sicher zu stellen, dass keine Texte verglichen werden, die z.B. der Fiktion entstammen. Eine alternative Herangehensweise könnte darin bestehen, erst Online-Angebote zu definieren, die nach journalistischen Grundsätzen arbeiten bzw. als journalistische Angebote gesehen werden können und dann ausschließlich deren Texte zur vergleichenden Analyse zu verwenden. Bei diesem Ansatz der Untersuchung würden dann viele Texte eines Anbieters mit denen eines oder mehrerer Mitbewerber verglichen, um zu betrachten, wer online erfolgreicher ist. Hier würde sich allerdings eine engere Kooperation mit dem Anbieter (oder sogar mit allen Vergleichsseiten) empfehlen, um z.B. auf Besuchsdaten und Optimierungsstrategien zugreifen zu können.
Für die Analyse der SEO-Faktoren findet eine Beschränkung ausschließlich auf die Onpage-Faktoren statt. Da neben diesen z.B. die Backlinkstruktur, Signale aus sozialen Netzwerken und andere in das Ranking einer Seite einfließen, kann die Arbeit keinen umfassenden Überblick über das gesamte Spektrum der SEO-Maßnahmen liefern. Auch neue Faktoren werden nicht erforscht. Das definierte Ziel ist es jedoch herauszufinden, ob und inwieweit die (vor allem technische) Onpage-Optimierung eine Chance darstellt, sich in Suchmaschinen zu positionieren, weshalb dieser Bereich bewusst ausgewählt wurde und die Forschung bis hin zum Titel beeinflusst. Der Ansatz fokussiert sich auf einen Bereich, der aufgrund von Googles Fortschritt im Bereich Textanalyse und semantisches Verständnis wieder eine größere Bedeutung erlangen könnte und ist somit durchaus gerechtfertigt.
Verbleibt die Betrachtung der Analysesoftware bzw. die Beschränkung auf eine einzige Software zur Analyse der Daten. Der Markt bietet viele Angebote, die versprechen, eine Webseite für Suchmaschinen relevant zu machen. Grundlegend analysieren diese Lösungen aber ähnliche oder gar die gleichen Faktoren auf ähnliche oder gleiche Weise. Wichtiger als die Verwendung verschiedener Tools erschien es, eine möglichst hohe Vergleichbarkeit dadurch zu erzeugen, dass alle Texte identische Analysen erhalten. Andere Lösungen, die für eine Analyse dieser Größenordnung nötig gewesen wären und das Problem der Analyse sehr umfangreicher Seiten besser bewältigen könnten, sind allesamt cloudbasiert und berechnen die Kosten anhand der analysierten Domains und Dokumente. Dies hätte Kosten von teils mehreren tausend Euro pro Monat verursacht, ohne dafür nennenswerte Vorteile für die Arbeit zu liefern. Die häufig vorzufindenden kostenfreien Tools werden entweder nach einer bestimmten Anzahl an Analysepunkten kostenpflichtig, was dann das gleiche Problem darstellt wie bei den erwähnten Mitbewerbern oder beschränken die Analyse auf ein einzelnes Dokument ohne die Seite (oder eine definierte Auswahl) in Gänze zu betrachten. Zudem ist der Autor durch die Nutzung des Tools im täglichen Betrieb bestens vertraut mit dessen Handhabung und verfügt über einen entsprechenden Erfahrungsschatz, was der Qualität der Ergebnisinterpretation zuträglich ist.
3.4 Festlegen der Keywordsets und Textauswahl
Wie bereits beschrieben, bestehen die Keywordsets aus jeweils zwei Keywords, die einen Bezug zum Thema Ernährung haben. Zur Unterstützung bei der Recherche kommt das Online-Tool SEM Rush2 zum Einsatz. Ein Keyword, und damit ein Themenschwerpunkt, wird frei ausgewählt, woraufhin die Suchergebnisse betrachtet werden. Stellt sich heraus, dass zu diesem Keyword eines oder mehrere Dokumente ranken, welche die gesetzten Kriterien erfüllen, dann wird mit Hilfe des Tools eine Auswertung erstellt, welche Keywords für die Domain relevant sind. So können potentielle Keywords eingeschränkt werden. Eine Seite, die sich nur mit Sporternährung beschäftigt, wird z.B. für die Kombination sport essen gefunden werden, aber nicht für vegan backen. Die Auswahl der passenden Keywords, um das Set zu vervollständigen, erfolgt nicht durch die Software, sondern durch den Versuchsleiter, die Daten helfen lediglich bei der Entscheidung. Ohne die Nutzung einer Datenbank müssten die Daten manuell erhoben und ausgewertet werden, was im Rahmen der Kapazitäten und des Versuchszeitraums nicht möglich gewesen wäre.
3.4.1 Keyword sport essen und essen krafttraining
Betrachtet man die Anfragen bei Google zu diesen beiden Keywords, kann man feststellen, dass diese zwar periodisch schwanken und sich die absolute Zahl deutlich unterscheidet, Außergewöhnliches ist aber bei keinem der Keywords festzustellen.
Abbildung in dieser Leseprobe nicht enthalten
ABBILDUNG 3.2: Suchanfragen zu den Keywords sport essen (blau) und essen krafttraining (rot) (vgl. Google, 2016f)
Die erste Betrachtung der Suchergebnisse zeigt schnell, dass Google offenbar Probleme hat, dem Wort essen die richtige Bedeutung zuzuordnen, so tauchen hier teilweise die gesuchten Ergebnisse zu Ernährung auf, teilweise allerdings auch Angebote aus der Stadt Essen. Bei diesem Set rankt der Blog der Seite Original Bootcamp3 auf Platz vier bzw. 21. Beide Ergebnisse werden mit dem gleichen Text erzielt, der sich um die richtige Nahrungsaufnahme vor dem Training dreht4. Ebenfalls erscheint Marathonfitness5 auf Platz 30 und bei essen krafttraining sogar auf Platz 13 und 14. Beide Male erscheint ein Beitrag6, welcher sich um die Ernährung vor dem Training dreht, zusätzlich noch ein Beitrag7 über Abnehmen durch Krafttraining. Alle drei Texte wurden mittels der Checkliste überprüft, sie erfüllten dabei keine Kriterien, die zum Ausschluss geführt hätten. Damit dienen beide als Textbeispiele für reine OnlineMedien. Die Seite Frauenzimmer8 erscheint zwar ebenfalls bei beiden Keywords, wird allerdings trotz reinem Online-Auftritt nicht betrachtet, da es sich zum einen um eine von der RTL interactive GmbH betriebene Seite handelt, zum anderen liegt sie mit Platz acht und 33 bei beiden Keywords hinter den Ergebnissen von Original Bootcamp. Andere Seiten, wie z.B. fin.de, das bei sport essen zweimal mit Artikeln zum Essen vor und nach dem Sport9 erscheint, erfüllen auf den ersten Blick viele Kriterien, sind aber nur bei einem der Keywords in den Top 50 der SERP.
Die Zahl der tagesaktuellen klassischen Medienangebote ist in den Top 50 mit je vier Ergebnissen und damit unter 10% relativ niedrig.
TABELLE 3.1: Tagesaktuelle klassische Medien beim Key-word sport essen
Abbildung in dieser Leseprobe nicht enthalten
TABELLE 3.2: Tagesaktuelle klassische Medien beim Key-word essen krafttraining
Abbildung in dieser Leseprobe nicht enthalten
Die in größeren Perioden erscheinenden Medien sind u.a. mit Focus, Spiegel und Men's Health vertreten und hier schafft es fit for fun sogar in beiden Fällen auf die erste Seite (Position eins10 11 und acht11). Aufgrund der guten Rankings für beide Keywords wird fit for fun als Vergleichstext aufgenommen. Um auch ein tagesaktuelles Medium vergleichen zu können, wird zusätzlich ein Artikel von Die Welt12 in die Analyse mit aufgenommen. Die Analyse der Gesamtoptimierung der Webseite wird anhand einer Stichprobe der Kategorie Fitness im Ressort Sport durchgeführt.
3.4.2 Keyword vegetarisch und vegan
Bei den Suchanfragen zum Keyword vegetarisch sind, abgesehen von periodischen Schwankungen, keine Auffälligkeiten festzustellen. Das Keyword scheidet damit nicht aufgrund besonderer Brisanz aus. Bei vegan lässt sich ein Trend zur Steigerung der Anfragen erkennen. Die Suchanfragen in Deutschland haben sich im Laufe der letzten fünf Jahre verfünffacht. Der Anstieg fand in den Jahren 2011 bis 2014 statt, seither ist die Zahl relativ konstant. Daraus lässt sich folgern, dass das Interesse am Thema gestiegen ist und sich nun hält. Da hier kein offensichtliches aktuelles Ereignis vorliegt, ist der Anstieg damit kein Ausschlusskriterium.
Abbildung in dieser Leseprobe nicht enthalten
ABBILDUNG 3.3: Entwicklung der Suchanfragen in Deutschland zum Keyword vegan (blau) (vgl. Google, 2016g)
Bei beiden Keywords sticht die Seite des VEBU (Vegetarierbund Deutschland e.V.)13 geradezu heraus. Sie ist mit zwei unterschiedlichen Texten jeweils auf der ersten Seite vertreten. Bei vegan belegt sie Platz acht mit einem Bericht über Veganer und Vegetarier in Deutschland14, bei vegetarisch erreicht ein Text über vegetarische Ernährung15 sogar den zweiten Platz der Suchergebnisse, direkt hinter Wikipedia auf dem ersten Platz. Die Seite ist kein rein journalistisches Produkt, es handelt sich um eine Informationswebseite, deren Texte allerdings teilweise nicht den journalistischen Kriterien widersprechen, weshalb sie ins Ranking aufgenommen wird. Vor allem der Text zu vegan kann durchaus als journalistisch betrachtet werden, was die Auswahl rechtfertigt. Auffallend war bei diesem Set die Seite Vegpool16, die mit den Plätzen sieben und zwölf gute Ergebnisse erzielt, allerdings die journalistischen Kriterien nicht erfüllt. Zum Keyword vegan erscheinen keine klassischen Medien in den Top 10 Suchergebnissen (mit Ausnahme Google News). Das erste Ergebnis ist hier die Süddeutsche Zeitung auf Platz 1517 und auch bei vegetarisch ist die Süddeutsche Zeitung das am höchsten gerankte klassische Medium, mit Platz fünf18 sogar auf der ersten SERP-Seite. Beide Artikel drehen sich um entsprechende Restaurants. Insgesamt erscheinen bei vegan sieben, bei vegetarisch neun Medienangebote, die auch auf einem klassischen Vertriebskanal erhältlich sind. Trotz der Rankings der Süddeutschen Zeitung wird beim Keyword vegan das Ergebnis von Essen und Trinken auf Platz 2319 für die Betrachtung verwendet, da der Text der SZ aufgrund vieler eingebundener Java Script Dateien große Probleme bei der Analyse verursachte bzw. nicht analysierbar war.
3.4.3 Keyword rohkost und der champignon
Sucht man nach dem Keyword rohkost erscheint die Startseite von Roh- kost.de mit der entsprechenden Keyword-Domain auf dem ersten Platz noch vor Wikipedia. Die Analyse der Seite und ein entsprechender Abgleich mit Google zeigt, dass sie auch für die Keywords wie macht man smoothies, der champignon und keimling gute Rankings erzielt, also bei jedem dieser Keywords in den Top 50 Suchergebnissen zu finden ist. Aus diesen Möglichkeiten wurde der champignon ausgewählt (Platz 2320 ). Da es sich bei wie macht man smoothies um einen aus mehreren Wörtern zusammengesetzten Begriff handelt und die Seite bei der Suche alleine nach smoothies nicht in den Top 50 erscheint, fiel die Entscheidung gegen dieses Longtail-Keyword. Der Begriff keimling erschien erst vielversprechend, doch steht hinter rohkost.de die Keimling Naturkost GmbH, welche auch keimling.de, den zugehörigen Online-Shop, betreibt, weshalb die Gründe für das Ranking verschoben und damit nicht aussagekräftig sein könnten. Google Trends liefert für rohkost Daten bis zurück ins Jahr 2004, aus denen ersichtlich ist, dass die Suchanfragen erst zurückgegangen sind und seit Ende 2009 wieder moderat ansteigen, wobei sie noch unter dem Spitzenwert liegen. Bezogen auf die letzten zwei Jahre scheint die Tendenz eher rückläufig zu sein, die Zahl der Suchanfragen sinkt. Für das zweite Keyword der champignon liefert Google Trends keine Daten, was darauf hindeutet, dass die Anfragen generell niedrig sind. Beschränkt man sich auf champignon, so zeigen sich gleichmäßige Suchanfragen auf niedrigem Level mit leicht steigender Tendenz. Bei den klassischen Medien erscheint jeweils ein Angebot auf der ersten Seite der SERP. Diese sind bei rohkost Essen und Trinken mit einer Übersicht über Rezepte und Wissen zum Thema (Platz fünf21 ) sowie die taz (Platz acht22 ) bei der champignon mit einem Bericht über genmanipulierte Champignons. In Summe erscheinen bei den Anfragen acht bzw. sechs klassische Medien in den Top 50 Suchergebnissen.
3.4.4 Keyword richtige ernährung und ernährung umstellen
Um sich dem Thema Ernährung so weit wie möglich zu widmen, enthält dieses Keywordset zwei Kombinationen mit dem Wort Ernährung. Die Betrachtung der Suchanfragen via Google Trends zeigt, dass richtige ernährung einen leichten Rückgang, ernährung umstellen eine leichte Steigerung in der Nachfrage verzeichnen kann. Beim zweiten ist zu erkennen, dass in den ersten beiden Januarwochen 2016 erhöhte Suchanfragen bei Google eingegangen sind. Das Keyword wird deshalb allerdings nicht ausgeschlossen, da sich in diesem Zeitraum auch in den beiden Vorjahren Spitzen in der Statistik zeigen, wenn auch nicht so drastisch wie 2016 und der Zeitraum bereits acht Monate zurückliegt, in denen keine Auffälligkeiten zu verzeichnen waren.
In beiden Fällen erzielt das Zentrum der Gesundheit23 gute Rankings mit den Postionen eins und 15. Dabei wird in beiden Fällen derselbe Artikel von Google angezeigt24. Wie bei Ergebnissen in anderen Keyword- sets handelt es sich hier nicht um ein reines Online-Medium, sondern um eine Webseite, die einen informativen Teil hat, dessen Texte allerdings die Kriterien für die Auswahl erfüllen. Von klassischen Medien erscheinen zwölf bzw. zehn Ergebnisse, davon für den Vergleich ausgewählt
Abbildung in dieser Leseprobe nicht enthalten
ABBILDUNG 3.4: Entwicklung der Suchanfragen in Deutschland zum Keyword ernährung umstellen (blau) (vgl. Google, 2016h)
wurden fit for fun (Platz zwei bei richtige ernährung25) und EatSmarter! (Platz eins bei ernährung umstellen25 26
3.4.5 Keyword gesund kochen und diäten
Auch in diesem Keywordset zeigen sich Schwankungen am Jahresanfang. Für gesund kochen gehen die Google Trend Daten bis ins Jahr 2004 zurück und die höchsten Spitzen in den Suchanfragen ergeben sich fast ausschließlich im Monat Januar. Beim Keyword diäten sind die Ausschläge noch extremer, folgen aber dem gleichen Muster. Wie schon bei richtige ernährung scheint dies an den Jahreswechsel und die damit verbundenen guten Vorsätze geknüpft zu sein, weshalb die Keywords für eine Betrachtung geeignet sind. Als reines Online-Angebot kommt bei diesem Set nur das Gesundheitsportal lifeline27 in Betracht. Es belegt mit einem Artikel über Amaranth und mit einer Diäten-Übersicht Platz 31 bzw. zehn28 in den Suchergebnissen und erfüllt die Kriterien auch anderweitig. Einschränkend muss erwähnt werden, dass die Seite von der Gong Verlag GmbH betrieben wird und damit theoretisch einen Ursprung in den klassichen Medien haben könnte. Es handelt sich hier allerdings um ein Online-Portal, welches nicht offensichtlich auf eine klassische Publikation hinweist, weshalb es in die Auswahl aufgenommen wird. Die Seite zum Thema Diäten ist im Vergleich der bisherigen Ergebnisse eher eine Ausnahme. Sie stellt nur eine Übersicht in Listenform dar und beinhaltet kaum zusammenhängenden Text, dennoch erscheint sie für das entsprechende Keyword auf der ersten Seite der SERP. Fraglich ist, ob dieses eine Dokument als journalistisch angesehen werden kann. Ein Mangel würde zum Ausschluss des Dokumentes führen, woraufhin die Seite an sich die Voraussetzungen nicht mehr erfüllen würde. Da die Texte, die in der Liste verlinkt sind, die Kriterien erfüllen, bleibt die Seite allerdings in der Auswahl. Bei diesem Keywordset sind die klassischen Medien am stärksten in den Suchergebnissen vertreten. Es erscheinen 13 bzw. 15 Angebote, davon sechs bzw. vier auf der ersten Seite. Aufgrund der vielen Ergebnisse werden hier jeweils die ersten zwei Ergebnisse analysiert. Diese sind für gesund kochen Essen und Trinken mit einer Übersichtsseite (Platz zwei29 ) und die Startseite von EatSmarter! (Platz drei30 ), bei diäten Focus mit dem Artikel über den Test von 55 Diäten (Platz eins31 ) sowie fit for fun mit einem Diätenvergleich (Platz zwei32 ).
Kapitel 4 Auswertung der Analyse
4.1 Analyse der Ergebnisse
Alle als Versuchsobjekte genannten Dokumente wurden nach dem beschriebenen Prüfschema analysiert. Dabei wurde bei einigen Seiten allerdings nicht die Seite in ihrer Gesamtheit betrachtet, da dies mit den technischen Mitteln nicht möglich war. Viele der ausgewählten Versuchsobjekte beinhalten mehrere Hunderttausende, teilweise sogar Millionen von Einzeldokumenten, was die Analyse mit den gegebenen Mitteln an zeitliche und technische Grenzen brachte. Diese Anhäufung ist nicht nur bei Zeitungen aufgrund des Online-Archivs zu finden, sondern tritt z.B. auch bei Original Bootcamp auf. Die Seite ist eine Community Plattform, auf der viele Kurse in deutschen Städten angeboten werden, was ebenfalls zu einer immensen Menge an einzelnen Dokumenten führt. Dementsprechend wurde für jede Domain eine sinnvolle Auswahl getroffen, welche einen Schluss auf die Gesamtheit der Seite ermöglichen soll. Zusätzlich wurde die Tiefe der Analyse teilweise auf fünf bis zehn Klicks von der Ausgangsseite beschränkt. Aufgenommen in die Analyse wurden HTML-, CSS-, Java-Script sowie Bild-Dateien. Flash- und PDF- Dateien sowie unbestimmte weitere Dateitypen wurden ausgeschlossen. Die Einschränkung gilt nur für die umfangreiche Gesamtbeurteilung der Webseiten, nicht für die betrachteten Einzeldokumente. Jeder Artikel, welcher für die Auswertung herangezogen wurde, durchlief einen Check, auch wenn der Bereich der Webseite, in der er sich befindet, nicht in der Stichprobe enthalten war. Details zur Auswahl finden sich in Tabelle 4.1 auf Seite 43.
Die vollständige Tabelle, welche die Ergebnisse im Detail (seitenweit und für jedes einzelne betrachtete Dokument) enthält, ist in digitaler Form angehängt.
TABELLE 4.1: Auflistung der analysierten WebseitenBereiche
Abbildung in dieser Leseprobe nicht enthalten
4.2 Auswertung der SERPs
Das Prüfschema der empirischen Untersuchung hat hohe Hürden für die Aufnahme von Webseiten in die Analyse. Vor allem die Bedingung für Online-Angebote, bei beiden Keywords eines Sets zu erscheinen, schließt viele Seiten aus. Dementsprechend wurden weniger Kandidaten in die Auswahl aufgenommen und mittels Checkliste analysiert, um z.B. den journalistischen Aspekt zu untersuchen, als potentielle Ergebnisse nach einem anderen Schema vorhanden wären. Dennoch sollten die gewonnenen Daten, namentlich die Übersicht der Top 50 Sucherergebnisse für insgesamt zehn Keywords, nicht völlig unbeachtet bleiben. Dies gibt einen Ausblick auf größere Zusammenhänge über die reine Betrachtung von Onpage-SEO-Faktoren einzelner Webseiten hinaus.
4.2.1 Verhältnis der Ergebnisse
Betrachtet man ausschließlich die Positionen der analysierten Texte in der SERP, so werden die reinen Online-Medien im Schnitt auf Platz 13,3, die klassischen Medien auf Platz 6,1 und damit deutlich besser angezeigt. Eine Auswertung der gesammelten Daten nach diesem Muster ist aufgrund des Versuchsaufbaus allerdings nicht zu empfehlen. Das Auswahlverfahren bedingt, dass eine Seite zwar häufig für das erste Keyword eines Sets durch eine gute Position auffiel, bei dem zweiten Keyword dafür auf einem hinteren Platz in den Top 50 erschienen ist. So wird Original Bootcamp z.B. auf Platz fünf für sport essen angezeigt, für essen krafttraining aber nur auf Platz 21. Die Seite von Marathonfitness wurde nur als Vergleich aufgenommen und liegt in beiden Fällen hinter Original Bootcamp, was den Durchschnitt nochmals verschlechtert. Bei den klassischen Medien hingegen wurde im Regelfall das beste Ergebnis verwendet. Dementsprechend ist der Mittelwert nach dem verwendeten Analyseverfahren kein Beleg dafür, dass klassische Medien grundsätzlich bessere Rankings erzielen.
Betrachtet man alle Ergebnisse der SERP, so erscheinen neben den analysierten Texten bei allen Keywordsets noch weitere Angebote klassischer Medien in den Suchergebnissen. Hinzu kommen ebenfalls weitere Portale, die nicht den klassischen Medien entsprechen und ein reines Online-Informationsangebot darstellen. Darunter sind viele Blogs und (teils kommerzielle) Webseiten, welche dem Leser Tipps und Hilfestellungen zu den entsprechenden Keywords liefern. Dazu zählen unter anderem, aber nicht ausschließlich, Wikis, Online-Shops, soziale Netzwerke, Foren oder Seiten für Nutzerfragen, sowie Webseiten von Unternehmen. Alle Suchergebnisse wurden einer Sichtprüfung unterzogen, wobei die Kategorisierung als Online-Medium aufgrund des fehlenden Kriterienkatalogs hier nicht als valide angesehen werden kann. Als Grundlage dieser Auswertung dient daher nicht die Zahl der Online-Medien, sondern die Zahl der klassischen Medien in den Top 50 Suchergebnissen, welche genau bestimmt wurde.
Eine tabellarische Übersicht der Häufigkeit von klassischen Medien in den Suchergebnissen befindet sich auf der nächsten Seite. Eine ausführlichere Liste mit einer Benennung aller Suchergebnisse findet sich, ebenfalls in tabellarischer Form, auf einem digitalen Datenträger, welcher der Arbeit beiliegt.
TABELLE 4.2: Klassische Medien in den Top 50 Suchergebnissen, Teil 1
Abbildung in dieser Leseprobe nicht enthalten
Die Ergebnisse der ersten Seite gehen zwischen 0% und 60% zugunsten der klassischen Medien. Im Schnitt sind es 31%. Eine Tendenz ist hier nicht zu erkennen, da die klassischen Medien ebenso oft überwiegen wie die reinen Online-Medien. Es gibt Keywords, bei denen keine klassischen Medien erscheinen, genauso wie solche, bei denen keine reinen Online-Medien in den Ergebnissen vertreten waren. Gleichermaßen hält es sich die Waage, welche Art auf der ersten Seite häufiger vertreten ist. Betrachtet man die ersten 50 Ergebnisse, ergibt sich ein weniger breit gestreutes Feld. Klassische Medien kommen hier immer vor, die Häufigkeit liegt dabei zwischen minimal 12% und maximal 30%, im Schnitt sind es 20%. Da die Gesamtheit der Ergebnisse nicht nach festgelegten Kriterien untersucht wurde, lässt sich hier kein genaues Verhältnis von online zu klassischen Medien errechnen. Die oben beschriebene Sichtprüfung legt aber nahe, dass bei den meisten Keywordsets die Informationsportale den klassischen Medien, zumindest in der Zahl der Ergebnisse, überlegen sind. Damit kann hier festgehalten werden, dass anhand der SERP-Auswertung nicht festgestellt werden kann, dass Google klassischen Medien eine besondere Bevorteilung in den Suchergebnissen zukommen lässt.
4.2.2 Keywords in der Domain
Eine Überraschung stellt die Analyse dar, ob Keywords in der Domain oder Subdomain vorkommen. Bei Keywords, bestehend aus mehreren Wörtern wie ernährung umstellen, wurde auch das Vorhandensein eines der Begriffe als positives Ergebnis gewertet. Ausgehend von der eingangs beschriebenen Situation, dass Keywords in der Domain nicht als Rankingfaktor angesehen werden, war ein Ergebnis nicht abzusehen, bei dem der höchste Wert, den das Wort vegan erzielt, bei 68% liegt. Es folgen sport essen mit 40% und rohkost mit 28%. Die anderen Keywords konnten allerdings keine Werte über 20% erzielen. Stellenweise erscheint es so, dass eine gegensätzliche Korrelation zwischen den Keywords in einer Domain und der Zahl der klassischen Medien in den Suchergebnissen besteht. Vor allem bei den Keywords vegan, rohkost, richtige ernährung, ernährung umstellen, gesund kochen und diäten ist dies sichtbar. Hier erscheinen entweder viele Domains mit Keywords und wenig Medienseiten oder anders herum. Bei den Keywords sport essen und der champignon ist die Tendenz allerdings kaum vorhanden. sport essen liegt sowohl bei der Zahl der klassischen Medien im vorderen Feld, als auch bei der Zahl der Domains mit Keyword. Dies ist vermutlich der Tatsache geschuldet, dass Google, wie erwähnt, nicht klar zwischen Nahrungsaufnahme und der Stadt im Ruhrgebiet unterscheiden kann. Viele Sportvereine aus Essen erscheinen hier in den Suchergebnissen. Bei der champignon belegt eine Domain mit Keyword zwar die ersten drei Plätze, danach kommt der Begriff allerdings gar nicht mehr vor, es erscheinen eher Domains, welche den Begriff pilz beinhalten. Daraus lässt sich folgern, dass auffallend hohe Ergebnisse wie beim Wort vegan eher davon kommen, dass die Seiten aufgrund ihrer thematischen Spezialisierung und viel Text zum Keyword gelistet werden, nicht wegen des Vorkommens desselben in der Domain. Hier scheint es so, dass die Themenausrichtung so weit geht, dass sie sich sogar in der Adresse der Webseite widerspiegelt, nicht dass die Domain beim Thema erscheint, weil sie ein Keyword beinhaltet. Auch beim Thema Pilze liegt ein ähnlicher Schluss nahe. Seiten, die sich nicht nur mit dem Champignon, sondern allgemein mit Pilzen, aber eben auch mit dem Champignon, beschäftigen, werden aufgrund ihres Inhaltes oder anderer Faktoren gelistet. Die Webseite des Bund Deutscher Champignon- und Kulturpilzanbauer (BDC) e.V.33, die sich ausführlich, aber ausschließlich dem Champignon widmet, steht an der Spitze der Ergebnisse. Die Ergebnisse sind damit zwar für einige Begriffe unerwartet, aber erklärbar und stellen in ihrer Gesamtheit deshalb keine Anhaltspunkte dar, um davon auszugehen, dass Google Webseiten, welche Keywords in der Domain oder Subdomain haben alleine aufgrund dessen höhere Rankings zuordnet. Die Auswertung gibt damit keinen Anlass, die vorherrschende Meinung in Frage zu stellen. Die Gesamtübersicht der Domains mit Keywords befindet sich im Anhang D auf Seite 132.
4.3 Optimierungsrate nach Website Auditor
Bei der Analyse eines jeden Dokuments wird im Bericht an prominenter Stelle eine Optimierungsrate angegeben. Diese wird aus den verschiedenen Faktoren ermittelt, die von der Software geprüft werden. Wichtig ist zu betonen, dass dieser Wert keinem international oder zumindest branchenweit einheitlichen Muster folgt, sondern im Regelfall von jeder Software durch einen eigenen Algorithmus festgelegt wird. Im Gegensatz zu einzelnen Werten kann die Optimierungsrate, der SEO-Score, oder wie auch immer ein Anbieter diese Kumulation nennt, nicht zwischen verschiedenen Softwares verglichen werden, da sich die Grundlagen der Berechnung unterscheiden. Bevor die einzelnen Faktoren detailliert betrachtet werden, sollte geprüft werden, ob die Optimierungsraten, welche durch Website Auditor ermittelt wurden, vielleicht schon ein Indiz dafür sind, wie sehr sich die Onpage-Optimierung auf das Ranking in der SERP auswirkt. Hierfür wurden die beiden Werte im Diagramm in Abbildung 4.1 gegenübergestellt.
Abbildung in dieser Leseprobe nicht enthalten
ABBILDUNG 4.1: Verhältnis von Position in der SERP (X- Achse) zur Optimierungsrate (Y-Achse)
Hieraus lässt sich ablesen, dass 21 von 26 analysierten Dokumenten eine Optimierungsrate von über 50% aufweisen. Es scheint die Tendenz zu geben, dass eine höhere Optimierungsrate mit besseren Ergebnissen einhergeht, denn eine Konzentration der Messpunkte im linken oberen Quadranten ist ersichtlich. Im Bereich von über 50% Optimierungsrate mit einer SERP-Position von 15 oder besser befinden sich 16 von 26 Messpunkten. Widersprüchlich sind allerdings die Ergebnisse, die außerhalb dieses Bereichs liegen. So existieren sowohl Einträge, die bei guter Optimierung schlechte Ergebnisse erzielen, aber auch solche, die bei schlechter Optimierung dennoch gute Leistungen erreichen. Wünschenswert für eine klare Aussage wäre hier eine offensichtlichere Korrelation der Werte. Festzuhalten bleibt also, dass die Optimierungsrate von Website Auditor durchaus als erstes Indiz genutzt werden kann, um eine Abschätzung zu geben, wie gut eine Seite für ein Keyword gerankt werden wird, dennoch ist es keine Garantie und kann nicht als einziger zu prüfender Faktor angewendet werden. Betrachtet man das Verhältnis von klassischen zu reinen Online-Medien, so zeigt sich kein großer Unterschied in den Optimierungsraten. Dieser liegt bei den reinen Online-Medien leicht erhöht bei 63,19% im Vergleich zu 57,32% bei den klassischen Medien.
4.4 Korrekte Umleitung von www- und nicht-www-Version
Die korrekte Einrichtung dieser Umleitung gehört zu den Grundlagen eines jeden Webmasters. Eine Webseite darf immer nur entweder mit oder ohne dem Präfix www im Netz existieren. Die jeweils andere Version wird auf die richtige umgeleitet. Dieser Fehler tritt selten auf, wird aber aufgrund seiner umfangreichen Folgen bei jeder SEO-Überprüfung betrachtet. Falsch eingestellt kann es dazu führen, dass Google die betreffende Webseite stark in den Rankings reduziert, da es die Inhalte für Duplicate Content hält und diesen vermeiden will. Aufgrund dieses Verhältnisses von Aufwand zu Risiko wird gerade bei professionellen Webseiten gewissenhaft darauf geachtet, die Umleitung einzurichten. Überraschend ist deshalb, dass tatsächlich eine der betrachteten Webseiten diesen Fehler aufweist. Betroffen ist die Seite der Tageszeitung taz. Alle anderen betrachteten Angebote verfügen über eine korrekt eingerichtete Umleitung. Denkbar wäre der Rückschluss, dass Webseiten, die diesen Fehler aufweisen, von Google so sehr abgestraft werden, dass sie nicht in den Top 50 Suchergebnissen erscheinen, wobei dies wohl zu weit gegriffen wäre. Die Auswertung unterstützt diese These allerdings, da die taz im Gegenzug zu anderen Medien nur ein einziges Mal in den Ergebnissen erscheint. Um die Vermutung zur Bedeutung dieses Faktors zu untermauern, würde es sich anbieten, mehrere Seiten zu finden, die diesen Fehler aufweisen und diese mit ähnlichen Mitbewerbern zu vergleichen. Alternativ könnte auch die Entwicklung der Rankings betrachtet werden, nachdem der Fehler behoben wird. Konkrete Schlüsse für die Fragestellung dieser Arbeit lassen sich aus dem Ergebnis nicht ableiten.
4.5 Nutzung von HTTPS und Probleme mit HTTPS
Der Großteil der analysierten Webseiten richtet sich nach den Wünschen von Google und nutzt bereits das verschlüsselte HTTPS-Protokoll statt dem unverschlüsselten HTTP. Nur die Seiten EatSmarter!, Rohkost und Lifeline verzichten auf den neuen Standard bzw. haben Probleme mit der Umsetzung. Betrachtet man das Spektrum, in dem sich die Ergebnisse dieser Seiten befinden, so zeigt sich eine Schwankung von Position eins bis 31, was keinen Anlass dazu gibt, Rückschlüsse zu ziehen, dass ein Verzicht auf HTTPS automatisch ein schlechtes Ranking zur Folge hätte. Das arithmetische Mittel der Ergebnisse unterscheidet sich also deutlich, so liegen die HTTPS-Ergebnisse im Schnitt bei einem Ranking von 9,2, die HTTP-Ergebnisse bei 11,5, was nahelegt, dass Google seiner Forderung auch Taten folgen lässt. So ist selbst die erste Position der Suchergebnisse möglich, im Schnitt schneiden die Seiten allerdings schlechter ab. Wie bei den zuvor betrachteten Fehlern in der Umleitung von www- und nicht-www-Version würde es sich anbieten, diesen Faktor im Rahmen der Umstellung einer Webseite von HTTP auf HTTPS und die daraus eventuell entstehenden Ranking-Änderungen zu untersuchen. Mit diesem Versuchsaufbau könnte der Faktor isoliert betrachtet werden.
4.6 Optimierung für Mobiltelefone
Bei der Überprüfung auf die Optimierung für Mobiltelefone wurden bei der Seite Lifeline unterschiedliche Werte in Site und Page Audit ermittelt. Das Site Audit, also die Überprüfung der Domain, ergab ein positives Ergebnis, während die Betrachtung der zwei Texte im Rahmen des Page Audits negativ ausfiel. Im Rahmen einer manuellen Überprüfung (Android Smartphone) der beiden Dokumente zeigte sich keine Optimierung für Mobiltelefone. Zu diesem Schluss kommt auch der Google Mobile Friendly Test. Angemerkt werden sollte ebenfalls, dass eine Seite im Rahmen der Messung nur als für Mobiltelefone optimiert gilt, wenn sie ein sogenanntes responsive Design aufweist, sich also nahtlos an die Bildschirmgröße anpasst. Die Weiterleitung an eine ausschließlich für Mobiltelefone programmierte Seite, z.B. über eine Subdomain m.domain.de, gilt nicht als mobiloptimiert. Beide Kategorien von Webseiten hatten jeweils zwei Anbieter bzw. Domains, die auf Mobiloptimierung verzichten. Aus dem Pool der Testobjekte ergaben sich so insgesamt elf Texte, die nicht mobiloptimiert waren, die restlichen 15 der insgesamt 26 Testobjekte waren es. Das durchschnittliche Ranking der optimierten Seiten ist etwas besser, so liegt dieses hier bei 9,7 im Gegensatz zu 9,8 bei den nicht optimierten Seiten. In Summe deuten die Ergebnisse darauf hin, dass dieser Faktor keine große Rolle für die tatsächlichen Rankings spielt.
4.7 Dateigröße des Dokuments
Bei der Erhebung der Dateigröße der Einzelseiten stieß das Analyseprogramm bei drei Texten an seine Grenzen. Um dennoch Werte für die Analyse zu bekommen, wurde das Analysetool GTMetrix34 für die Analyse der Dateigröße verwendet und die Ergebnisse mittels bekannten Vergleichswerten korrigiert. Betroffen waren die Dokumente von Marathonfitness (zwei Dokumente) und Zentrum der Gesundheit (ein Dokument).
Es zeigt sich, dass zwar der Großteil der Webseiten offenbar Wert darauf legt, die Dateigröße gering zu halten, immerhin liegen 17 von 26 Testobjekte unter 1.000 kb Dateigröße, dennoch verteilen sich die Ergebnisse über ein größere Bandbreite.
Abbildung in dieser Leseprobe nicht enthalten
ABBILDUNG 4.2: Verhältnis von Position in der SERP (X- Achse) zur Seitengröße in Kilobyte (Y-Achse)
Wie in Abbildung 4.2 ersichtlich, zeigt sich eine Konzentration von Messpunkten im Bereich der Top 5 Suchergebnisse mit einer Dateigröße von 500 bis 1.500 kb. Aufgrund des Auswahlverfahrens wurden Seiten mit gutem Ranking bevorzugt, was mehrere Einträge im Bereich der Top 5 erklärt, dennoch ist ersichtlich, dass viele Seiten mit geringerer Dateigröße von Google auf schlechteren Plätzen gerankt werden. Ebenso werden Seiten, die sogar über 2.500 kb liegen, in den Top 10 Suchergebnissen gelistet. Betrachtet man die Dateigrößen von klassischen im Vergleich zu reinen Online-Medien so liegt die durchschnittliche Dateigröße bei den Online-Medien mit 945 kb um ca. 5% höher als bei den klassischen. Die Analyseergebnisse unterstützen damit die in Abschnitt 2.2.1 genannten Annahmen, dass die Dateigröße alleine keinen großen Einfluss auf das Ranking von Webseiten hat. Eine tiefergreifende Analyse könnte hier betrachten, worin die Unterschiede in der Dateigröße der einzelnen Seiten liegen und diese z.B. in Verbindung mit der Anzahl von Fotos und der Seitenladezeit setzen. Desweiteren könnte der Grund für das größere Volumen der Seiten darin liegen, dass diese einfach mehr Inhalt aufweisen, was einem guten Ranking zuträglich wäre. Eine Messung der Ladezeit wurde im Rahmen der Analyse nicht durchgeführt. Als weitere Möglichkeit würde sich anbieten, diese zu messen. Es wird angenommen, dass Google mehr Wert darauf legt, wie schnell die Seite lädt, als darauf, wie groß sie ist. Mittels gut optimierten Webservern könnten es die Anbieter so schaffen, mehr Inhalte in ihre Seiten einzubinden und dennoch schneller angezeigt zu werden als diejenigen, die zwar kleinere Seiten aber auch langsamere Server haben.
4.8 Nicht komprimierte, minimierte und gecachte Elemente
Die Ladezeit von Webseiten ist zum einen natürlich abhängig von der Verbindungsgeschwindigkeit von Server (Sender) und Client (Empfänger), aber auch von der zuvor besprochenen Seitengröße. Die Seiten werden dabei nicht als einzelne Dokumente übertragen, sondern aus einer Vielzahl von Dateien wie dem HTML-Code, Design Anweisungen im CSS, Java Scripten, Bildern etc. Neben der Optimierung der Serverleistung bestehen deshalb noch weitere Möglichkeiten, um die Ladegeschwindigkeit einer Webseite durch Größenreduktion zu optimieren, wie z.B. das Komprimieren von Dateien (z.B. der Versand als Gzip-Datei), das Minimieren des Codes durch Entfernen unnötiger Abschnitte oder das Cachen von Bildern auf dem Client, sodass diese nicht bei jedem Seitenaufbau erneut übertragen werden. Die Analyse legt den Schluss nahe, dass die reinen Online-Medien mehr Wert darauf legen, diese Möglichkeiten auszunutzen bzw. die Webseiten schlanker zu halten. Im Schnitt treten hier nur 50 Fehler pro Dokument auf, bei den klassischen Medien sind es mit 77 über die Hälfte mehr. Ein Fehler wird dabei von jeder Datei erzeugt, bei der es möglich wäre, eine der vorher genannten Maßnahmen anzuwenden, dies aber nicht geschah. Erstaunlich ist dies vor allem in Kombination mit der Beobachtung, dass die Seiten der OnlineMedien im Schnitt größer sind. Eine direkte Korrelation zwischen den nicht optimierten Dateien und dem Ranking ist aber auch hier nicht ersichtlich, wie Abbildung 4.3 deutlich zeigt.
Erkennbar ist, dass sowohl Seiten mit sehr wenigen Fehlern auf Spitzenpositionen liegen, aber auch die Seiten mit den meisten Fehlern im Testpool erzielen teilweise Rankings in den Top 5 der SERP-Positionen. Dies gibt einen Hinweis darauf, dass Google diesen Faktor wirklich nicht oder nur minimal in das Ranking einfließen lässt. Zusammen mit den Ergebnissen zur Seitengröße bleibt festzuhalten, dass diese technischen Möglichkeiten genutzt werden sollten, um die Größe der Seite gering zu halten, sie aber keinen negativen Einfluss haben, falls sie nicht ausgereizt
Abbildung in dieser Leseprobe nicht enthalten
ABBILDUNG 4.3: Verhältnis von Position in der SERP (X- Achse) zur Summe der Dateien, die nicht komprimiert, minimiert oder gecacht sind (Y-Achse) werden. Dennoch zeugt es von verlorenem Potential bei den klassischen Medien, denn diese könnten ihre Seiten vermutlich noch weiter in der Größe optimieren, als dies ohnehin schon geschieht.
4.9 Robots.txt und maschinenlesbare Sitemap
Da sich robots.txt und Sitemap auf die gesamte Webseite und nicht auf einzelne Dokumente beziehen, werden auch diese beiden Aspekte seitenweit betrachtet. Wie schon die Umleitung von www- und nicht-www- Version gehört der korrekte Umgang mit diesen beiden Dateien zum grundlegenden Handwerkszeug von Webseitenbetreibern. Viele CMS erstellen eine oder beide Dateien sogar automatisch und halten sie ohne Zutun des Betreibers aktuell. Versagt das CMS in seiner Grundversion ist häufig die Nutzung von kostenfreien Plugins möglich. Dementsprechend überrascht es nicht, dass ausnahmslos alle Seiten eine robots.txt Datei vorweisen können. Nur drei der betrachteten Webseiten hatten keine erkennbare Sitemap. Dies kann zum einen bedeuten, dass sie nicht vorhanden ist, lässt aber noch eine weitere Möglichkeit offen: Verwendet der Betreiber keinen gebräuchlichen Namen und trägt diesen nicht in die robots.txt-Datei ein, ist es schwierig bis fast unmöglich, die Datei zu finden, obwohl sie eventuell existent und funktional ist. Dennoch kann Google auf die Seite zugreifen, wenn die Sitemap über die zuvor genannte Search Console an Google gemeldet wurde. Die Sitemap fehlt bei Focus, Original Bootcamp und der taz. Während die beiden Erstgenannten bisher eher positiv auffielen (beide mobiloptimiert, beide Werte über 50% in der Optimierungsrate, Suchergebnisse in den Top 10 und bei Original Bootcamp auch die Nutzung von HTTPS), zeigte sich bei der taz schon bei der www-Umleitung ein Problem im Bereich der Seiteneinrichtung. Ob daraus die Prognose abgeleitet werden kann, dass die Sitemap komplett fehlt oder nur über die Search Console gemeldet wurde, ist fraglich. Vielleicht ist das ein weiterer Aspekt, der zu den beobachteten, eher schlechten Ergebnissen der taz beiträgt. Die beiden anderen Webseiten legen aber den Schluss nahe, dass gute Rankings auch ohne Sitemap möglich sind. Im Rahmen der Betrachtung konnte allerdings nur überprüft werden, ob es Indizien dafür gibt, dass bei einem Anbieter schon das Bereitstellen der Dateien scheitert. Eine umfangreiche Inhaltsanalyse der Sitemaps war im Rahmen der Bearbeitung nicht möglich, könnte aber vorgenommen werden. Diese könnte aufzeigen, ob die Betreiber der Seiten die Dateien nicht nur bereitstellen, sondern auch mit dem richtigen Inhalt füllen. Zu prüfen wäre, ob wirklich alle Seiten, die online zugänglich sind auch in der Sitemap auftauchen. Denkbar wäre ein Untersuchungsaufbau, in dem die Sitemap der einzige, sich ändernde Faktor ist und bei dem beobachtet wird, ob sich die Aufnahme oder der Ausschluss direkt auf das Ranking auswirken.
4.10 Ist die Seite von der Indexierung durch Suchmaschinen gesperrt?
Aus zwei Gründen war zu erwarten, dass keine der getesteten Seiten für die Indexierung durch Suchmaschinen gesperrt ist. Zum einen wird den Anbietern unterstellt, sie möchten, dass ihre Veröffentlichungen inde- xiert und gesehen werden, zum anderen wird angenommen, dass Seiten, welche gesperrt sind, beim angewandten Testschema nicht untersucht werden, weil sie nicht in den Top 50 Suchergebnissen vorhanden sind. Es zeigte sich allerdings, dass die Annahme falsch und die Betrachtung des Faktors durchaus sinnvoll war. So zeigt die Analyse, dass Artikel der Süddeutschen Zeitung via robots.txt oder dem speziellem no-IndexTag auf der Seite teilweise von der Indexierung durch Google ausgeschlossen sind. Um Messfehler zu vermeiden, identifiziert sich die Analysesoftware als üblicher Browser und nicht als SEO-Software, ebenso werden auch Seiten besucht, die für Suchmaschinen gesperrt sind. Zusätzlich wurde die Anfrage im Abstand mehrerer Tage wiederholt, um IP-Sperren durch zu viele Abfragen auszuschließen. Allgemein fällt bei der Betrachtung der Domain auf, dass viele URLs gesperrt sind. Eine gezieltere Überprüfung, wäre mittels Zugriff auf die Search Console möglich, dieser ist aber nicht vorhanden, was den Test ausschließt und hier zu der Annahme führt, dass tatsächlich eine Sperre und kein Messfehler vorliegt. Dies legt den Schluss nahe, dass es durchaus vorkommen kann, dass Google Webseiten in den Index aufnimmt, die explizit fordern, nicht aufgenommen zu werden. Dies offenbart einen Ansatz für weitere Untersuchungen, welche diese Möglichkeit gezielt auf die Probe stellen, um herauszufinden, ob Google sich wirklich über die Anweisung hinwegsetzt oder ob sie ausreicht, um Inhalte gezielt vor Suchmaschinen zu verbergen.
4.11 Länge der URL
Bei der Länge der URLs lassen sich keine Unterschiede feststellen. Klassische wie Online-Medien haben eine durchschnittliche URL-Länge von etwas über 67 Zeichen. Betrachtet man die einzelnen Ergebnisse, gibt es auch hier keine Besonderheiten. Dabei blieben 16 der Artikel unterhalb der Zahl von 74 Zeichen, welche als Obergrenze angesehen wird, damit die URL in den Suchergebnissen vollständig angezeigt wird. In der Tat erreichen elf Seiten, die diesen Wert unterschreiten, Top 10 Suchergebnisse, doch ist dies weniger als die Hälfte der analysierten Seiten. Die restlichen Seiten erreichen auch mit langer URL gute oder trotz kurzer URL schlechte Rankings. Damit kann auch über diesen Faktor gesagt werden, dass er sicher positiv zum Ranking beiträgt, mittelbar und wie zuvor beschrieben auch unmittelbar, doch kein Garant oder Ausschlusskriterium ist, bezogen auf eine gute SERP-Positionierung.
4.12 Keywords in der URL
Bis auf die taz verwenden alle betrachteten Seiten sogenannte sprechende URLs. Bei der Analyse zeigte sich, dass bis auf zwei URLs alle das Keyword (bei zusammengesetzten Suchanfragen mindestens eines) oder zumindest ein Wort mit ähnlichem oder gleichem Wortstamm beinhalteten. Wie in Abschnitt 2.2.1 ausgeführt, kann davon ausgegangen werden, dass das Vorhandensein des Keywords in der URL kein Kriterium ist, ohne das eine Webseite nicht in den Suchergebnissen erscheint, denn Suchmaschinen haben deutlich mehr Möglichkeiten, den Inhalt einer Webseite zu beurteilen als nur deren Web-Adresse. Dennoch macht es den Eindruck, als wäre es von Vorteil, wenn sprechende URLs verwendet werden und diese zusätzlich noch das Keyword beinhalten, für das die Seite optimiert werden soll. Somit haben Suchmaschinen ein zusätzliches Indiz, um den Fokus der Seite klar zu erkennen. Nicht außer Acht gelassen werden sollten auch die Auswirkungen der Keyword-URLs auf andere Faktoren, welche das Ranking beeinflussen. Adressen, aus denen einem Leser klar ersichtlich ist, mit welchem Thema sich ein Artikel beschäftigt, der in der SERP angezeigt oder in sozialen Medien geteilt wird, haben einen positiven Einfluss auf das Klickverhalten. Dies führt langfristig zu einer höheren CTR und mehr Likes und Shares, die als positive Signale interpretiert werden.
4.13 Anzahl der Keywords im Titel
Mit Ausnahme von drei Texten tragen alle Dokumente das gesuchte Keyword mindestens ein-, wenn nicht sogar zweimal im Titel. Dies ist ein weiteres Indiz dafür, dass die Seiten konkret für die Keywords optimiert wurden, bei denen sie in der Suche erschienen sind und dass Google das Vorhandensein der Keywords an entscheidender Stelle wirklich honoriert. Dennoch liegen alle drei Texte, die kein Keyword im Titel tragen auf der ersten Seite der Suchergebnisse, was zeigt, dass auch der Mangel kein absolutes Ausschlusskriterium ist. Bei allen drei handelt es sich um Angebote von klassischen Medien, woraus sich zum ersten Mal in der Analyse der Schluss ziehen lassen könnte, dass die klassischen Medien bevorzugt werden und auch ohne Beachtung von Keywords im Titel gute Rankings erzielen können. Ebenso ließe sich das Ergebnis allerdings auch mit der konsequenteren Optimierung der reinen Online-Medien an anderer Stelle erklären. Eine finale Aussage ist hier also nicht möglich, dies liefert allerdings einen Anhaltspunkt für weitere Untersuchungen. Wie auch zuvor müsste der Faktor separat betrachtet werden. So könnten z.B. bei der Webseite einer Zeitung mehrere Artikel eines Ressorts teils mit, teils ohne Keyword im Titel veröffentlicht werden, um zu beobachten, ob hier bei sonst ähnlicher Optimierung unterschiedliche Ergebnisse zutage treten. Um für die Forschungsfrage relevante Ergebnisse zu erzielen, müsste dazu nach dem gleichen Schema ein Vergleich mit einem reinen Online-Medium durchgeführt werden. Dies setzt allerdings die Zusammenarbeit mit mindestens zwei Anbietern voraus, die soweit gehen muss, dass diese aktiven Einfluss auf den Inhalt ihrer Seiten zulassen.
4.14 Länge des Webseitentitels
Betrachtet man die Anzahl der Zeichen im Titel der analysierten Webseiten, so zeigt sich, dass die Titel bei den Online-Medien mit 53,2 Zeichen deutlich kürzer sind als bei den klassischen Medien, welche im Schnitt 79,9 Zeichen im Titel tragen. Beeinflusst wird dieses Ergebnis allerdings massiv durch einen Artikel der Seite Essen und Trinken, die mit 262 Zeichen die Berechnung stark verschiebt. Lässt man diesen Messwert aussen vor, liegt auch der Wert der klassischen Medien deutlich niedriger bei knapp 60 Zeichen.
Abbildung in dieser Leseprobe nicht enthalten
ABBILDUNG 4.4: Verhältnis von Position in der SERP (X- Achse) zur Länge des Webseitentitels (Y-Achse)
Wie zuvor beschrieben herrscht keine Einigkeit über die optimale Länge des Titels, wobei 55 Zeichen, mit oder ohne Leerzeichen, Werte sind, die öfter genannt werden. Bei den analysierten Texten trugen zehn einen Titel, der kleiner oder gleich 55 Zeichen war, bei einer Ausweitung auf 60 Zeichen (angenommene fünf Leerzeichen) waren es zwei Seiten mehr, die in diesem Bereich lagen. Aus der Verteilung der Suchergebnisse, dargestellt in der Grafik in Abbildung 4.4, ist kein Wert ablesbar, ab dem sich die Suchergebnisse deutlich verbessern oder verschlechtern. Sogar die Seite, die 262 Zeichen im Titel trug, war in den Top 5 der Suchergebnisse zu finden, während andere, die unter der 55 bzw. 60 Zeichen Empfehlung lagen, nicht auf der ersten Seite erschienen. Damit unterstützt die Analyse die Behauptung von Searchmetrics, dass die Titellänge nicht unmittelbar mit dem Ranking korreliert.
4.15 Anzahl der Keywords in der Meta Description
Bei der Zahl der Keywords in der Description der analysierten Seiten ist die durchschnittliche Zahl der Wörter bei den klassischen Medien mit 0,9 um die Hälfte höher als bei den reinen Online-Medien. Eine bessere Optimierungsstrategie kann den vermeintlichen Internet-Spezialisten hier also nicht bescheinigt werden. Ebenso viele Seiten enthalten gar keine Keywords in der Description, wie bei den klassischen und falls sie welche enthalten, dann nur in niedrigerer Zahl.
Abbildung in dieser Leseprobe nicht enthalten
ABBILDUNG 4.5: Verhältnis von Position in der SERP (X- Achse) zur Zahl der Keywords in der Meta Description (Y- Achse)
Ein direkter Zusammenhang zwischen dem Vorhandensein von Keywords in der Meta Description und dem Ranking lässt sich nicht feststellen, so erreichen fünf von insgesamt zehn Testobjekten ohne Keywords einen Platz auf der ersten Seite von Google, die anderen fünf verteilen sich auf die weiteren Seiten. Lediglich bei den Seiten, welche ein Keyword in der Description aufweisen, scheint es so zu sein, dass diese häufiger auf der ersten SERP-Seite zu finden sind. Wie bereits beschrieben, liegt der Grund hierfür aber vermutlich nicht im reinen Vorhandensein des Keywords, sondern eher im Klickverhalten der Nutzer. Sehen diese das Wort, nach dem sie gesucht haben, bei einem der Suchergebnisse, vermuten sie eventuell eine höhere Wahrscheinlichkeit, das Gesuchte dort wirklich zu finden und klicken so vermehrt auf diese Ergebnisse, was die CTR erhöht und sich damit positiv auf das Ranking auswirkt. Es scheint sich also in der Tat weiterhin zu lohnen, das Keyword in der Description zu nutzen. Gepaart mit einem Call to Action kann es sich positiv auf das Ranking auswirken, wenn auch nur indirekt, was für das Ergebnis aber eine untergeordnete Rolle spielt.
4.16 Länge der Meta Description
Bis auf die Startseite von EatSmarter! legen alle Webseiten eine Meta Description fest und äußern so einen Wunsch, wie sie in Google angezeigt werden wollen. Wie eine zusätzliche Überprüfung der Seite ergeben hat, verzichtet EatSmarter! öfter auf die Description. Vor allem Übersichtsseiten weisen diese nicht auf, der analysierte Artikel hingegen beinhaltet sie. Dies deutet auf eine Fehleinstellung oder einen falschen Umgang mit dem Content Management System hin. Offenbar legen die Autoren der einzelnen Artikel durchaus Wert drauf, die Description zu bearbeiten und bereitzustellen. Bei den Seiten, die, wie bei Übersichtsseiten üblich, vermutlich automatisch generiert werden, ist sie nicht explizit eingestellt. Dies lässt vermuten, dass EatSmarter! zumindest seine Autoren nach SEO-Aspekten schult, bei den Kontrollen der Seite allerdings nachlässig ist, da dies sonst sicher schon aufgefallen wäre. Mit Ausnahme vom Zentrum der Gesundheit bleiben alle reinen Online-Angebote unter der empfohlenen Schwelle von 160 Zeichen, bei den klassischen Medien wird diese Hürde vier mal überschritten. Die durchschnittliche Länge der Description liegt hier bei 154 Zeichen, die Online-Medien weisen im Schnitt eine Länge von 187 Zeichen auf, allerdings fallen hier die beiden Dokumente vom Zentrum der Gesundheit mit je 460 Zeichen sehr stark ins Gewicht. Entfernt man diese aus der Berechnung, so liegt der Schnitt bei 137 Zeichen. Hier zeigt sich, dass die reinen OnlineMedien offenbar mehr Wert darauf legen, eine Description zu wählen, die sich innerhalb der empfohlenen Werte befindet und damit optimal angezeigt wird. Offensichtliche Auswirkungen auf die Suchergebnisse zeigen sich aber auch bei diesem Faktor nicht. Seiten mit deutlich höheren Werten liegen durchaus auf den ersten fünf Plätzen, ebenso erreichen einige analysierte Objekte nur Plätze auf den hinteren Seiten, obwohl die Description eine angepasste Länge hat.
4.17 Titel und Meta Description sind Unikate
Theoretisch ließe sich noch überprüfen, ob der Titel und die Description einmalig auf der gesamten Webseite vorkommen. Um hier eine fundierte Aussage zu treffen, müssten allerdings alle Einzeldokumente der Webseiten überprüft werden, was im ausgewählten Testschema nicht möglich war (siehe Tabelle 4.1 auf Seite 43). Dementsprechend lässt sich zwar feststellen, dass sowohl Lifeline als auch die SZ Duplikate in vierstelliger Höhe aufweisen, die anderen analysierten Seiten dagegen aber unauffällig sind. Lediglich ein analysierter Text von Welt.de zum Thema Kraftsport hatte laut Untersuchungsdaten keinen einzigartigen Titel, bei den Meta Descriptions trat überhaupt keine Doppelung auf. Schlüsse auf eine Beeinflussung des Rankings lassen sich damit nicht ziehen.
4.18 Summe der Wörter im HTML Body
Die durchschnittliche Zahl der Wörter übersteigt sowohl bei den OnlineMedien als auch bei den klassischen den Wert der Searchmetrics Studie. Die Texte bestehen aus über 3.600 bzw. über 1.500 Wörtern. Unter den Ergebnissen der Online-Medien befindet sich sogar ein Text mit annähernd 11.600 Wörtern. Rechnet man diesen heraus, senkt sich der Schnitt auf 2.173 Wörter, liegt damit aber immer noch fast um die Hälfte über dem der klassischen Medien. Es scheint also, als würden Medien, die ausschließlich online publizieren dazu tendieren, mehr Text zu schreiben, wobei dies auch historisch und technisch bedingt sein kann. Gerade Printmedien, die in der Auswahl stark vertreten sind, können Texte im Internet zweitverwerten, haben diese aber initial meistens mit konkreter, durch das Layout bestimmter Längenvorgabe erstellt. Ein Indiz dafür, dass die reine Menge an Text keine Garantie für gutes Ranking ist, zeigt sich klar in der Auswertung der Rankings. Nur in einem Fall schafft es einer der Texte mit über 2.500 Wörtern auf einen Platz in den Top 10 Suchergebnissen. Eine Aussage über ein Minimum an Wörtern im Text kann nicht getroffen werden, da selbst der kürzeste Text deutlich über 500 Wörter hatte, aber die Analyse unterstützt in Summe klar die Aussage, dass Text alleine kein Garant für ein Ranking ist, sondern Qualität immer wichtiger wird, um gute Rankings bei Google zu erzielen. Die Ergebnisse könnten auch dahingehend interpretiert werden, dass kürzere Texte keine Chance haben, überhaupt in das Ranking aufgenommen zu werden. TV-Sender z.B. nutzen Videodateien für die Zweitverwertung im Netz und haben dazu häufig nur wenig Text zur Verfügung. Um hierüber eine klare Aussage treffen zu können, müssten unterschiedliche Mediengattungen auf ihre SERP-Rankings zu einem Thema überprüft werden. Um mehr über den Faktor im Allgemeinen zu lernen, könnten Webseiten mit ähnlichem Stand bei Google genutzt werden, um zum gleichen Thema verschieden lange Texte zu veröffentlichen und anschließend die Ergebnisse zu vergleichen.
4.19 Häufigkeit des Keywords im Text der Webseite
Bei der Häufigkeit der Keywords in den analysierten Webseiten ähneln sich die beiden Arten von Medien erstaunlich. Die Online-Medien verwenden ein Keyword im Schnitt 17,8-mal, die klassischen 15,2-mal. Hierbei weisen beide Kategorien allerdings Ausreißer auf, so kommen die Wörter richtige ernährung und ernährung umstellen beim Zentrum der Gesundheit 42-mal vor, beim fit for fun das Wort diäten sogar 69-mal. Rechnet man diese beiden Seiten aus dem Schnitt heraus, liegt dieser bei 13,5 bzw. 10,7. Die reine Häufigkeit der Keywords lässt dabei allerdings keinen Rückschluss auf das Ranking zu. Zwar erzielen die Seiten, die das entsprechende Wort häufig nutzen, teilweise gute Ergebnisse, aber auf der ersten Seite sind durchaus auch Artikel gelistet, welche das Wort nur wenige Male aufweisen. Erstaunlich ist vor allem die Seite EatSmarter!. Diese wird von Google für ernährung umstellen auf Platz eins und für gesund kochen auf Platz drei gelistet, wobei keine der Zielseiten diese exakte Kombination aus Keywords aufweist. Hier zeigt sich schon, wie bei der Länge der Texte, dass Google offenbar immer besser in der Lage ist, verwandte Wörter, andere Schreibweisen und Kombinationen zu verstehen und entsprechend eine Relevanz herzustellen und Texte zu interpretieren, statt nur stumpf einzelne Wörter zu vergleichen. Ein Indiz für eine Bevorzugung einer der Kategorien ergibt sich daraus allerdings nicht, denn auch Marathonfitness wird für essen krafttraining gelistet, ohne das Wort essen überhaupt im Text zu haben, wenn auch nur auf Platz 13.
4.20 Keyworddichte
Aus der Betrachtung der gesamten Wortzahl und der absoluten Zahl an Keywords alleine lässt sich ablesen, wie oft ein Keyword im Verhältnis zum Gesamttext vorkommt. Hierfür wurde aus diesen Werten zusätzlich die Keyworddichte, also die prozentuale Häufigkeit der Keywords im Verhältnis zum Gesamttext berechnet. Dabei zeigt sich, dass das Zentrum der Gesundheit mit seinen 42 Keywords nur eine vergleichsweise niedrige Keyworddichte von 0,36% aufweist, vermutlich da es sich hier um den längsten Text mit knapp 11.600 Wörtern handelt. fit for fun mit 69 Keywords erreicht hingegen eine Dichte von 2,87%, was allerdings nur dem zweithöchsten Wert entspricht. Überboten wird dieser Text nur von einem unterdurchschnittlich langen Text (867 Wörter) von Essen und Trinken, welcher 30-mal das Wort rohkost enthält und somit eine Keyworddichte von 3,66% aufweist. Bisher entstand der Eindruck, dass die Online-Medien sich bei den meisten Faktoren darum bemühen, gute Werte zu erzielen und das auch bei Faktoren, die als nicht mehr relevant angesehen werden. Bei der Keyworddichte verhält es sich jedoch anders, denn diese liegt hier im Schnitt nur bei 0,82% im Gegensatz zu 1,02% bei klassischen Medien.
Der niedrigere Wert bei den Online-Medien erscheint umso außergewöhnlicher, da sich bei der Betrachtung der Ergebnisse zeigt, dass die Seiten, die einen Wert von über 1,5% aufweisen, ausnahmslos auf der ersten Seite gelistet werden. Seiten mit einem Wert von unter 1% sind in allen Bereichen der SERP anzutreffen, was darauf hindeutet, dass Google sich von einem hohen Wert immer noch beeindrucken lässt. Alleine aufgrund der Angaben von Google, dass ab einem gewissen Wert Spamming angenommen wird, was zu Abstrafungen führt, ist klar, dass dieser Effekt nicht unbegrenzt steigerbar ist, dennoch legt das Ergebnis
Abbildung in dieser Leseprobe nicht enthalten
ABBILDUNG 4.6: Verhältnis von Position in der SERP (X- Achse) zur prozentualen Keyworddichte (Y-Achse)
den Schluss nahe, dass dieser Faktor bei der Optimierung einer Webseite immer noch nicht außen vor gelassen werden kann. Da auch der höchste Wert offenbar noch nicht in den Bereich Spamming fällt, wäre eine Untersuchung möglich, ab wann Google hier wirklich anfängt, Seiten schlechter zu bewerten. Neben diesem quantitativen Ansatz bietet sich gerade im Bereich der Medien auch an, der Frage nachzugehen, ab welchem Wert sich die Keyworddichte negativ auf die Qualität und die Lesbarkeit des Textes auswirkt. Hier kann es dazu kommen, dass Nutzer die Seite meiden oder schnell wieder verlassen, wenn sie mit dem vorgefundenen Ergebnis nicht zufrieden sind, was sich als schlechtes User Signal wiederum nachteilig auf das Ranking auswirken kann. Zusätzlich kann es sich negativ auf das Image des Anbieters auswirken.
4.21 Summe der Links im Dokument
Bei der Analyse der Links wurde die absolute Anzahl betrachtet. Eine Bewertung nach Linktext und Zielseite fand nicht statt, da dies bei den insgesamt über 6.800 Links im Rahmen der Arbeit nicht möglich war. Es zeigte sich, dass die klassischen Medien mehr Links auf ihren Seiten haben. Im Schnitt sind es 277,5 im Vergleich zu 246,2 Links bei den reinen Online-Plattformen. Wie zuvor gezeigt, gibt es keine Grenze für Links, Empfehlungen gehen aber eher davon aus, dass die Zahl nicht zu hoch sein sollte. Die von SEO-Analysten empfohlene Grenze (Website Auditor und OnPage.org empfehlen maximal 100 Links) überschreiten beide Typen von Webseiten zumindest im Schnitt. Bei den Online-Medien sticht erneut das Zentrum der Gesundheit heraus, welches 780 Links auf dem Dokument aufweist. Nimmt man dieses aus der Durchschnittsberechnung heraus, sinkt dieser drastisch auf 149,2 und liegt damit nur noch die Hälfte über dem empfohlenen Wert und nicht beim fast 2,5-fachen. Die höchsten Werte bei den klassischen Medien sind auf der EatSmar- ter! Startseite (543) und im Focus (425) zu finden. In der Verteilung der Rankings zeigt sich kein Hinweis darauf, dass viele Links dem Ranking schaden würden. Alle Seiten in der Analyse, die über 300 Links beinhalten, sind mit einer einzigen Ausnahme in den Top 5 Suchergebnissen. Einzig das Zentrum der Gesundheit, welches zweimal mit demselben Text aufgefunden wurde, erreicht mit seinen 780 Links einmal die erste und einmal die 15. Position. Die Auswertung deutet also eher darauf hin, dass entgegen der Empfehlung von Suchmaschinenoptimierern viele Links positiv für das Ranking sind. Der Rest der Ergebnisse verteilt sich in einem ähnlichen Muster wie bei den bisher betrachteten Faktoren.
4.22 Defekte Links im Dokument
Die reinen Online-Medien haben nicht nur weniger Links in ihren Dokumenten, sie geben sich auch mehr Mühe mit der Wartung. In keinem der analysierten Texte wurde auch nur ein einziger defekter Link gefunden. Ihre Zahl hält sich auch bei den klassischen Medien größtenteils in Grenzen, doch weisen bis auf drei Seiten alle defekte Links auf. Meistens ist es nur ein einziger, doch EatSmarter!, eine der Seite mit vielen Links, weist auf der Startseite insgesamt 14 defekte Links auf. In der Analyse ist keine Auswirkung von defekten Links auf das Ranking ersichtlich. Die beiden Dokumente mit den höchsten Werten von sechs und 14 defekten Links sind bei den Keywords auf den ersten fünf Plätzen bei Google gelistet. Das Ergebnis deckt sich damit mit den Aussagen von Google, nach denen defekte Links sich im Regelfall nicht negativ auf das Ranking auswirken (vgl. Google, 2016d). Nichtsdestotrotz empfiehlt es sich, auf defekte Links zu achten, denn auch wenn Google sich daran offenbar nicht stört, so sind sie doch ärgerlich für Kunden, denn diese werden nur eine Fehlermeldung zu sehen bekommen, wenn sie einem der Links folgen, was das Nutzererlebnis mit der Seite schmälert.
4.23 Keywords in Linktexten
Nach den vorangegangenen Auswertungen im Bereich der Links ist es verwunderlich, dass die Online-Medien mehr Keywords in den Links haben. Der Schnitt liegt hier bei 5,8 pro Seite, bei den klassischen Medien sind es nur 3,3. Keywords in Links könnten als Signal gelten, dass es für dieses Wort eine relevantere Seite gibt und damit das Ranking der Seite schädigen, was den Schluss nahelegt, dass die zu optimierenden Begriffe in weiterführenden Links aus SEO-Sicht eigentlich vermieden werden sollten. Google scheint sich allerdings nicht zu sehr darauf zu verlassen, denn die Seiten mit über 15 Keywords in Linktexten erzielen durchaus gute Rankings, größtenteils unter den Top 5 Suchergebnissen, was eher davon zeugt, dass neben vielen Links auch viele Keywords in Links das Ranking positiv beeinflussen. Da die Ergebnisse gegenteilig zur gängigen Meinung sind, bietet sich dieser Faktor für eine genauere und gezielte Untersuchung an.
4.24 Keywords in Hl-Überschriften
Aufgrund der Prominenz der H1-Überschrift, die meistens die größte auf einer Seite ist und da diese Form der Auszeichnung meist nur ein einziges Mal pro Dokument vorkommt, wird diese separiert von den H2- bis H6-Überschriften betrachtet. Im Schnitt kommt das Keyword bei den Online-Medien 0,62-mal, bei den klassischen 0,69-mal in der H1- Überschrift vor. Die Werte schwanken dabei zwischen null und eins, lediglich fit for fun bringt diäten gleich dreimal in der Überschrift unter und erreicht damit eine Positionierung auf Platz zwei der SERP. Allgemein lässt sich kein Zusammenhang aus der Häufigkeit des Keywords in der Überschrift und dem Ranking erkennen, was darauf hindeutet, dass dieser Faktor keine große Bedeutung für die Suchmaschinenoptimierung hat.
4.25 Keywords in H2- bis H6-Überschriften
Während die Online-Medien allem Anschein nach weniger Wert auf die H1-Überschrift legen, zeigt sich bei den restlichen Überschriften auf den Seiten ein anderes Bild. Der Schnitt liegt hier mit 3,2 Keywords pro Seite in H2- bis H6-Überschriften deutlich höher als bei den klassischen Medien, wo er nur 1,2 erreicht. Rechnet man das Zentrum der Gesundheit heraus, welches mit einem Wert von elf einsam an der Spitze liegt, bleibt immer noch ein Durchschnitt von 1,7. Wie auch bei anderen Faktoren finden sich Seiten über die gesamte Bandbreite im Bereich der Top Ergebnisse. Das gleiche gilt aber auch für die hinteren Positionen. Ein Zusammenhang ist nicht erkenntlich, weshalb nicht davon ausgegangen werden kann, dass Google diesen Faktor sehr stark in das Ranking einfließen lässt.
4.26 Keywords in Fett- und Kursivschrift
In der Analyse zeigte sich, dass keine der Webseiten Kursivschrift verwendete, um Keywords auszuzeichnen. Fettschrift hingegen wurde eingesetzt. Die klassischen Medien haben im Schnitt 0,92 Keywords auf der Seite so hervorgehoben, bei den Online-Medien sind es nur 0,15. Gerade im Vergleich zur Häufigkeit, mit der Keywords auf den Seiten vorkommen, erscheint dieser Wert durchaus niedrig. Es macht den Eindruck, dass er von keinem der analysierten Anbieter umfangreich eingesetzt wird.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 4.7: Verhältnis von Position in der SERP (X- Achse) zur Zahl der Keywords in Fettschrift (Y-Achse)
Die Seiten, welche Fettschrift als Mittel nutzen, um Keywords hervorzuheben und dabei mehrere Wörter auf der Seite markieren, erzielen gute Ergebnisse im Ranking (siehe Abbildung 4.7), wobei die Seiten die völlig darauf verzichten, ihnen in nichts nachstehen. Es scheint nicht so, als wäre die Methode nachteilig, ob sie ein Garant für Erfolg ist, müsste allerdings in anderer Form getrennt betrachtet werden.
4.27 Keywords in Alt-Tags von Bildern
Bei der Nutzung von Alt-Tags zur Eingabe von alternativen Texten für Bilder wurde zuerst betrachtet, wie oft diese überhaupt genutzt werden. Hierbei zeigt sich, dass die Online-Medien im Schnitt nur bei 1,7 Bildern auf die Nutzung verzichten, klassische Medien hingegen bei 11,7. Dennoch weisen die Seiten der Online-Medien mit 2,3 Keywords in Alt-Tags einen niedrigeren Wert auf (2,9 bei den klassischen). Bei der Betrachtung der Rankings zeigt sich, dass die Seiten, welche sieben oder mehr Keywords in Alt-Tags aufweisen auf Position 15 oder besser ranken. Daraus zu schließen, dass der Faktor ein Garant für eine gute Positionierung in Suchmaschinen ist, wäre allerdings zu weit gefasst. Nicht außer Acht gelassen werden sollte hingegen, dass die Auswertung auf der Textsuche basiert. Keywords in Alt-Tags sind neben der korrekten Dateibenennung, welche ebenfalls ein Keyword enthalten kann, ein wichtiger Faktor, der Suchmaschinen dabei hilft, den Inhalt von Bildern korrekt zu bestimmen. Bis Google und Co. in der Lage sind, anhand der Pixel einer Datei deren Inhalt richtig einzuordnen, helfen diese Angaben bei der Auswahl von Bildern für die Bilder-Suche. Neben der Textsuche ist dies ein weiterer Weg, um Besucher auf eine Webseite zu leiten, was dafür spricht, von diesem Mittel Gebrauch zu machen, selbst wenn es nicht direkt für das Ranking in der Textsuche erheblich sein sollte.
Kapitel 5 Diskussion
5.1 Bedeutung einzelner Onpage-SEO-Faktoren
Alleine schon aufgrund der immensen Menge von über 200 Werten, die Google, wie zu Beginn erwähnt, verwendet, um eine Seite zu bewerten, kann ein einzelner Faktor statistisch gesehen nur wenig an der Gesamtwertung ausrichten. Zieht man in Betracht, dass die Onpage-Faktoren völlig in der Hand der Webseitenbetreiber liegen, wäre es nicht sinnvoll, diese besonders in der Wertung hervorzuheben. Google erzielte seine Erfolge schon von Beginn an damit, den Nutzern eine besonders hohe Qualität an Ergebnissen zu liefern, also Inhalt, der diesem einen Mehrwert bietet. Als einer der Erfolgsfaktoren galt dabei zu Beginn der Page Rank, ein Wert, der sich hauptsächlich aus Verlinkungen und damit Empfehlungen von anderen Webseiten errechnet. Dieser Schritt veränderte die Suche im Web und ging einen völlig neuen Weg, denn alle anderen, damals schon verfügbaren Suchmaschinen orientierten sich größtenteils an den Keywords, die Webseiten in den eigens dafür vorgesehenen MetaTags zur Verfügung stellten. Das ermöglichte es den Anbietern, festzulegen, wofür die Seite relevant war, bot allerdings auch Möglichkeiten zur Manipulation, was die Suchergebnisse für die Nutzer der Suchmaschinen verschlechterte.
Würden die technischen Onpage-Faktoren, die in dieser Arbeit hauptsächlich betrachtet wurden, auch heute noch alleine für das Ranking verwendet werden, wie es in der Zeit vor Google üblich war, so hätten die Anbieter mit ausreichenden finanziellen Mitteln und dem entsprechenden Know How einen entscheidenden Vorteil vor denen, die zwar gute und vor allem relevante Inhalte liefern, dafür aber Webseiten betreiben, die nicht in allen Bereichen dem Optimum entsprechen. Es kann deshalb davon ausgegangen werden, dass ein großer Teil der Faktoren, welche in der Hand der Webseitenbetreiber liegen, von Google zwar betrachtet und sogar vorausgesetzt, allerdings nicht positiv gewertet werden. Sie könnten als Hygienefaktoren bezeichnet werden, also Anforderungen, die gestellt werden, damit ein Ranking überhaupt möglich ist. Damit würde das Vorhandensein wahrgenommen, ein Mangel jedoch negativ bewertet werden und damit zu schlechten Ergebnissen führen. Die Ergebnisse der Auswertung unterstützen diese These. In der Analyse erscheinen in den Top 50 viele Seiten, welche entsprechend den Empfehlungen der kommerziellen SEO-Anbieter bzw. Berater und der Forschung aufgebaut sind. Solche hingegen, die stark davon abweichen, sind eher selten und scheinen die Ausnahme zu sein. Genauso zeigt sich aber auch, dass die Einhaltung der Werte keine Garantie dafür ist, Positionen auf der ersten Seite zu erzielen, denn hier sieht man zwar oft eine Konzentration von guten Seiten, ebenso waren diese Seiten aber auch auf den hinteren Plätzen vertreten.
Wie zu erwarten, konnte auch nicht festgestellt werden, dass einer der ausgewerteten Faktoren eine besonders starke Auswirkung hat. Die Analysen ergeben zwar an der einen oder anderen Stelle Ergebnisse, die von der vorherrschenden Meinung abweichen, es erscheint aber nirgends ein Wert, der den Eindruck erweckt, ein Garant dafür zu sein, dass sich das Ranking alleine durch diesen stark verändert oder gar entscheidend dafür wäre. Offen bleibt, ob die Abweichungen von den erwarteten Ergebnissen an der sehr fokussierten Auswahl der Testobjekte liegt oder einer Änderung der Google Algorithmen geschuldet ist. Hier könnten weitere Untersuchungen mit einem anderen Testpool angestellt werden, um festzustellen, ob sich die Beobachtungen dann halten lassen oder die Auffälligkeiten verschwinden. Ebenso bleibt bei der Auswertung auch das Verhältnis von Korrelation und Kausalität offen - ein Thema, welches auch von Searchmetrics in deren umfangreichen Untersuchen nicht abschließend eingeschätzt werden kann. Anhand von bereits in der SERP befindlichen Seiten lässt sich nicht zweifelsfrei belegen, ob die Faktoren überhaupt einen Einfluss auf das Ranking haben und ein Mangel auch schlechtere Ergebnisse nach sich ziehen würde. Durchaus denkbar wäre, dass zum einen die Content Management Systeme von sich aus häufig schon mehr SEO-Leistung erzielen als nötig wäre oder einfach die meisten Betreiber von Webseiten in vorauseilendem Gehorsam von sich aus vieles richtig einstellen und beachten, was eine gute Erklärung dafür wäre, wieso so viele Testobjekte in der Analyse gute Werte erzielten. Um dies näher zu untersuchen wäre es nötig, eigene Webseiten anzulegen und sich deren Rankings bzw. die Rankingentwicklung, abhängig von der Veränderung einzelner Faktoren, anzusehen.
Für die Bedeutung der technischen Onpage-SEO-Faktoren bleibt also festzuhalten, dass es ratsam für eine Webseite ist, sich an die Empfehlungen von Google und unabhängigen Experten zu halten, da sonst negative Folgen auftreten können, Vorteile gegenüber Mitbewerben können damit aber nicht gesichert werden. Einzelne Onpage-Faktoren, die eine besonders hohe Bedeutung haben, existieren offenbar nicht.
5.2 Onpage gegen den Rest
In den vergangenen Jahren erschienen immer neue Faktoren in der großen Auswertung von Searchmetrics. Salopp gesagt, wird jedes Jahr eine andere Sau durchs Dorf getrieben. Im Jahr 2013 waren es die Social Signals, also Signale aus jeder Art von sozialen Netzwerken, welche die Faktoren waren, denen die höchste Bedeutung zugemessen wurde. In Abbildung 5.1 ersichtlich, wird das Spitzenfeld von dieser Kategorie dominiert, wobei Facebook den größten Einfluss hatte. Wichtig zu beachten ist allerdings, dass bei der hier verwendeten Spearman- Korrelation selbst bei den höchsten Messwerten nur bedingt von einer maßgebliche Bedeutung ausgegangen werden kann, da diese sich nahe der Signifikanz-Grenze befinden.
Abbildung in dieser Leseprobe nicht enthalten
ABBILDUNG 5.1: Die bedeutendsten SEO-FaktorenimJahr 2013 (vgl. Tober, Hennig und Furch, 2013, S. 9)
Im darauf folgenden Jahr, verschiebt sich das Bild bereits wieder. Abbildung 5.2 zeigt die Verschiebung von den Social Signals hin zu den User Signals. Es geht nun also nicht mehr um bewusste Äußerungen in sozialen Netzwerken, welche mit genug Aufwand durch massenhaft angelegte unechte Profile durchaus beeinflusst werden könnten, sondern entwickelt sich hin zur Beobachtung der Nutzer. Welche Ergebnisse klicken sie wirklich an, wie lange bleiben sie auf der Seite und wann kommen sie mit der gleichen Suchanfrage zurück zu Google, wenn überhaupt. Auch Googles Fortschritte beim Machine Learning und dem besseren Verständnis der Semantik scheinen Einzug zu halten, denn mit dem Faktor Proofterms, neu in 2014, rückt wieder der Content und erstmals dessen Plausibilität verstärkt in den Fokus des Suchmaschinenriesen.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 5.2: Die bedeutendsten SEO-FaktorenimJahr 2014 (vgl. Tober, Hennig und Furch, 2014, S. 3)
Auch im Jahr 2015 setzt sich der Trend zur verstärkten Betrachtung der Nutzerinteressen weiter fort, wenn auch mit anderen Faktoren. Hier erscheint die User Experience zum ersten Mal und steht direkt an wichtiger Stelle. Dabei geht es darum, wie gut das Erlebnis ist, welches die Webseite dem Besucher bieten kann und ob Hindernisse bestehen, die dieses beeinträchtigen. Zu den Faktoren in dieser Kategorie gehören verstärkt die Mobiloptimierung, aber durchaus auch die Qualität des Contents und des allgemeinen Angebots auf der Seite, abhängig an der vom Rankbrain ermittelten User Intention. Nutzer, die nach Faschingskostümen suchen, erhalten nicht nur Shopping Ergebnisse, sondern verstärkt Seiten, welche umfangreiche Bildergalerien mit Inspirationen bieten, da diese in Googles Interpretation besser zu deren Bedürfnissen passen.
Weitere relevante Inhalte können z.B. Aufzählungen bei Rezepten, aber auch Vergleichsrechner bei Bankangeboten sein (vgl. Tober, 2016). Verständlich ist diese Entwicklung der Algorithmen durchaus. Zum einen schreitet die technische Entwicklung, vor allem im Bereich der künstlichen Intelligenz und damit auch der Möglichkeit, Computern semantisches Verständnis beizubringen, immer weiter voran und bietet nun vielleicht die Grundlage, Dinge umzusetzen, welche eventuell schon lange auf dem Wunschzettel standen. Zum anderen lebt Google zwar auch von der Menge an Daten, welche sie dem Suchenden zur Verfügung stellen können, bedeutend für den wirtschaftlichen Erfolg ist allerdings die Werbung, welche über den Dienst AdWords angeboten wird. Hieraus zieht Google den größten Teil seines Umsatzes (vgl. Weck, 2015) und der beruht ausschließlich auf dem Pay per Click Verfahren. AdWords Kunden bezahlen also nicht für das Einblenden von Werbung, sondern nur, wenn der Nutzer einen Klick ausführt und auf der beworbenen Webseite landet. Bleiben die Nutzer von Google aus, weil sie mit den Webseiten, die Google ihnen als Ergebnisse liefert, unzufrieden sind und sich deshalb anderen Suchmaschinen zuwenden, schwindet auch der Umsatz des Unternehmens. Unzufriedene Nutzer führen über kurz oder lang also zu leeren Kassen, weshalb es sich umso mehr lohnt, diese nicht zu verärgern und den Fokus der Ranking-Algorithmen nicht auf Faktoren zu legen, welche die Webseitenbetreiber nur allzu leicht beeinflussen könnten.
Dennoch bleiben einige Werte über die Jahre hinweg bestehen. Back- links, ehemals Wegbereiter von Googles Marktherrschaft sind nicht mehr so stark im Mix der Faktoren wie früher, doch sie finden sich immer noch an prominenter Stelle im Ranking. Geändert hat sich dabei allerdings die Art der Bewertung. So ist heute nicht mehr der Page Rank das Entscheidende, sondern auch die Qualität der Quellen. Ebenso sind die technischen Onpage-Faktoren immer mit in der Liste der Faktoren. Konstant ist aber ihr niedriger Platz im Ranking. Damit ist vor allem die technische Onpage-Optimierung durchaus eine Sache, die es nahezu zeitlich unabhängig beim Betrieb einer Webseite zu beachten gibt und bei der sich wenig an ihrer Bedeutung ändert. Diese ist allerdings nicht stark ausgeprägt im Vergleich zu anderen Werten, die Google heranzieht und die sich nahezu jährlich ändern. Der Trend zeigt also, dass Onpage-SEO keinesfalls der Vergangenheit angehört, sondern erneut erstarkt und an Bedeutung gewinnt. Mit neuen Methoden kann die Qualität des Inhaltes viel besser bewertet werden, weshalb es die Webseitenbetreiber durchaus in der Hand haben, ihre Inhalte auf ihrer eigenen Seite zu optimieren. Dabei reicht es aber nicht aus, technische Checklisten abzuarbeiten. Sie müssen sich in die Situation der Suchmaschinennutzer versetzen und ihre Inhalte nach deren Bedürfnissen ausrichten, um echte Relevanz abseits von der richtigen Keyworddichte oder dem passenden Titel zu erzeugen. Gute Inhalte, gepaart mit der richtigen Content Marketing Strategie, könnten also ein guter Weg sein, um sowohl Onpage- als auch Offpage-Optimierung im Rahmen einer Rundumbetrachtung gleichzeitig zu erledigen. Dies schafft Herausforderungen für Contentanbieter, steigert aber gleichzeitig die Qualität der Inhalte des Web.
5.3 Verhältnis von klassischen zu Online-Medien
In der Betrachtung der Suchergebnisse zeigte sich kein signifikanter Unterschied zwischen den Online-Angeboten klassischer Medien und denen von reinen Online-Angeboten. Beide Arten von Angeboten schaffen es, Spitzenpositionen für sich einzunehmen. Bezogen auf die anfangs gestellte, zentrale Forschungsfrage kann somit klar gesagt werden, dass die neuen Anbieter, die nicht über ein Pendant in den klassischen Medien verfügen, durchaus die Chance haben, ihre Inhalte vor denen der alteingesessenen Konkurrenz angezeigt zu bekommen. Es konnte in den Auswertungen nicht festgestellt werden, dass Google die klassischen Medien in irgendeiner Form bevorzugt und besser rankt, nur weil es sich um den Online-Auftritt eines bekannten und verbreiteten Massenmediums handelt. Suchergebnisse wurden teils von der einen, teils von der anderen Art von Seiten dominiert, manches Mal erschienen die Ergebnisse gut verteilt. Final beantworten lässt sich die zweite Frage, nämlich ob die neuen Mitbewerber (alleine) verantwortlich für den Besucherrückgang sind, den Medienhäuser hinsichtlich Suchmaschinen zu verzeichnen haben, allerdings nicht. Hier müssten umfangreichere Nachforschungen mit Zugriff auf die konkreten Besuchszahlen und das Klickverhalten über einen längeren Zeitraum angestellt werden. Dies scheint aber nur möglich, falls Google und mehrere Beteiligte Zahlen dafür bereitstellen. Dennoch erscheint es als logisch, dass zumindest ein Teil des Problems in den neuen Angeboten begründet liegt. Die Suchanfragen werden von Google mit einer Vielzahl von verschiedenen Seiten beantwortet. Darunter finden sich Foren, Wikis, Blogs, Shops und andere. Wenn Google an einer gewissen Ausgewogenheit gelegen ist, dann erscheint es nur logisch, diese teilweise sehr ähnlichen Angebote in einen Topf zu werfen und aus deren Summe die besten Angebote auszuwählen. Logisch betrachtet macht es mehr Sinn, den Beitrag einer Zeitung durch ein anderes journalistisches Produkt zu ersetzen als z.B. durch einen Shop. Das Angebot im Netz wächst und somit nahezu in allen Bereichen auch die Konkurrenz, gegen die man sich durchsetzen muss, um Spitzenrankings zu erzielen. Im Verhältnis von klassischen zu reinen Online-Medien kommt dieses Wachstum aber eher einem direkten Angriff nahe als einer allgemeinen Verschlechterung der Situation. Dementsprechend deuten die Ergebnisse an, dass die Online-Medien zumindest für einen überproportionalen Teil des ausbleibenden Traffics verantwortlich sind, wenn auch nicht alleine. Der Dienst Google News, der von den Betrachtungen dieser Untersuchung ausgenommen wurde, stellt als Anforderung auch die Aktualität der Ereignisse und Beiträge. Die Schwelle für die Verbreitung von Inhalten über diesen Dienst liegt also nicht in der Existenz eines an die Webseite angeschlossenen Massenmediums, sondern alleine in den Inhalten, weshalb auch hier die Online-Medien aus Sicht von Google den klassischen in keiner Weise nachstehen und ebenso Zugang erhalten.
Für die alten Medien stellt das Internet also nicht nur eine Chance dar, mit ihren Inhalten eine breitere Öffentlichkeit zu erreichen und mit wenig Aufwand über neue Kanäle die Profite zu erhöhen oder zumindest die Rückgänge des Offline-Werbemarktes abzufangen. Vielmehr ist es so, dass die Zahl der Mitbewerber hier stark wächst. Dies liegt mitunter daran, dass keine hohen Investitionen in eine Infrastruktur wie Druckmaschinen oder ein Vertriebsnetz nötig sind. Mit ein wenig Hardware für IT-Ausstattung und guten Journalisten können im Netz umfangreiche Angebote wachsen, die gute Inhalte produzieren. Die so stetig wachsende Konkurrenz lastet damit auf der Sichtbarkeit der etablierten Medien, die durch ihren Status als Massenmedium zwar über nicht zu verleugnende Bekanntheit verfügen, sich aber langfristig nicht alleine darauf verlassen können, um online erfolgreich zu sein. Hinzu kommt, dass diese, für sich alleine schon nicht positive Zukunftsaussicht, völlig außer Acht lässt, dass sich im weltweiten Netz der Informationen nicht nur journalistische Inhalte wiederfinden, sondern durchaus auch Seiten finden, welche der Aufmachung nach auf den ersten Blick wie gute Informationsquellen wirken, denen es aber an jeder Seriosität mangelt und deren Inhalte in vielen Faktoren nicht den journalistischen Kriterien entsprechen, obwohl sie dies vielleicht sogar behaupten. Der Erfolg dieser Seiten, die durchaus ebenso in Konkurrenz zu jeder Art von ordentlichem Journalismus stehen, ist stark abhängig von der Medienkompetenz der Rezipienten und damit nur schwer durch die Anbieter zu beeinflussen. Ebenso nicht in der Betrachtung enthalten ist die Erkenntnis, dass der Hauptgrund der Internetnutzung laut ARD/ZDFLangzeitstudie Massenkommunikation schon im Jahr 2010 für 91% der Nutzer in der Informationsbeschaffung lag (vgl. Ridder und Engel, 2010, S. 539), die Werte beim Image der öffentlich-rechtlichen wie privaten Anbieter über alle Kategorien hinweg aber eher gefallen als gestiegen sind, während die Tendenz in der Kategorie Internet hier steigt, wie in Abbildung 5.3 ersichtlich.
Basis: Alle Befragter, 2000; n=5 017; 2005: n^4 500; 2010: n=4 503j 2015:n=4 300.
Quelle: ARD/ZDF-UngzeitstudieMassenkommunikatm
Abbildung in dieser Leseprobe nicht enthalten
ABBILDUNG 5.3: Das Image der verschiedenen Medien gattungen (vgl. Breunig und Eimeren, 2015, S. 523)
Verstärkt werden könnte der Trend zusätzlich durch Bewegungen, welche die etablierten Medien als „Lügenpresse" bezeichnen und den Wechsel zu unseriösen Anbietern für eine Befreiung halten, wobei diese Betrachtung hier außen vor bleiben soll.
Wenn der Status alleine keine bevorzugte Stellung in den durchaus wichtigen SERPs der Suchmaschinen liefern kann, dann sind die klassischen Medien, ebenso wie alle anderen Anbieter im Internet, gezwungen, Inhalte entsprechend anzupassen. Alleine schon die unterschiedlichen Formen der Darstellung, die Google den Suchenden, abhängig von deren Endgerät (Desktop, Tablet oder Mobiltelefon) ausliefert, stellen teils hohe Hürden dar. Fällt die Entscheidung zugunsten einer Auswahl von Apps, so können nur Seiten angezeigt werden, welche auch Apps als Zusatzangebot haben. Marcus Tober zeigt in einem Vortrag sehr schön, dass die Zahl der Textergebnisse, also der direkten Links zu Webseiten, teilweise von zehn bei der Desktopansicht auf nur noch zwei bei der Betrachtung mit einem Mobiltelefon sinken kann (vgl. Tober, 2016). Hinzu kommen die vielen verschiedenen Darstellungsformen auf Webseiten, die in anderen Mediengattungen so vielleicht nicht verfügbar sind. Ein Fernsehsender könnte seine Videos vertextlichen, um mehr indexierba- ren Content zu erzielen, Zeitungsartikel könnten durch interaktive Elemente wie Videos, Bildergalerien und Votings angereichert werden. Die klassischen Anbieter haben zwar den Vorteil, dass auf Basis des täglichen Betriebs, abhängig von ihrer Mediengattung, viel Inhalt entsteht, es bedarf aber mitunter viel Arbeit, um diesen weiter aufzubereiten, damit er noch mehr Relevanz für die Online-Welt bietet und ideal zur User Intention passt. Fraglich ist, wie der Transfer geschafft werden kann. Langfristig scheint dies nur möglich zu sein, wenn jeder Journalist gen- reübergreifend denkt und nicht nur die Möglichkeiten seiner Mediengattung in die Produktion einfließen lässt, sondern gleich an die weitere Verwertung denkt und entsprechend produziert. Diese Art zu denken und zu produzieren könnte bei Journalisten reiner Online-Medien weiter verbreitet sein. Ein Beispiel hierfür wäre die Schweizer Online-Zeitung Watson1, die ihre Artikel häufig mit unterschiedlichsten Methoden, die im Netz zur Verfügung stehen, anreichert, um so den Kern des Interesses der Nutzer zu treffen.
5.4 Aufbauende Möglichkeiten für Forschung
Allgemein ist jede Forschung im Bereich der Suchmaschinenoptimierung von dem Problem der großen Intransparenz betroffen. Die enorme Zahl an unterschiedlichen Faktoren, die für das Ranking eine Rolle spielt herauszufinden, ist allein schon eine große Herausforderung, die exakte Gewichtung der Faktoren nochmal eine weitere. Erschwerend kommt hinzu, dass im Gegensatz zur Erforschung von z.B. physikalischen Phänomenen hier ständig Änderungen auftreten, welche die Ergebnisse teils einer extrem kurzen Halbwertszeit unterwerfen. Pessimistisch gesprochen kann man Grundlagenforschung mit dem Zweck des Reverse Engineerings von Googles Algorithmen gänzlich ausschließen, da die Dauer vom Erstellen des Forschungsdesigns über die Datensammlung und Auswertung vermutlich die Zeiträume übersteigen, in denen Google Änderungen am Algorithmus vornimmt, denn SEO dauert lange. Von der Optimierung einer Seite bis hin zu sichtbaren Änderungen in den SERPs können Wochen oder sogar Monate vergehen. Eine Methode, von Grund auf nach Faktoren zu suchen könnte sein, Webseiten mit dem Minimum des technisch notwendigen zu starten und dann einzelne Dinge zu ändern, von denen man ausgeht, dass Google sie für wichtig erachtet. Im Laufe dieser Arbeit sollte allerdings schon klar geworden sein, dass auch dieser Ansatz Schwächen aufweist, da eine Änderung alleine nur schwer ausreichen wird, um überhaupt eine signifikante Steigerung bei Google zu erzielen. Arbeitet man an mehreren Faktoren gleichzeitig, erschwert es die Falsifizierung der einzelnen Faktoren. Zusätzlich müsste man die Forschung an den Testobjekten geheim halten, um Google daran zu hindern, diese bewusst anders zu behandeln, um dadurch die Ergebnisse zu verfälschen, denn immerhin legt der Konzern großen Wert auf die Geheimhaltung seines wichtigsten Geheimnisses.
Aktuell basieren viele Ansätze und Auswertungen auf dem gleichen Schema. Keywords werden ausgewählt und die Ergebnisse dazu werden analysiert. Dabei werden die zu untersuchenden Faktoren betrachtet und inwieweit die Seiten diese erfüllen bzw. wie die Erfüllung dem Ranking zuträglich ist. Auch die große, hier mehrfach zitierte Studie von Searchmetrics geht nach diesem Muster vor. Es handelt sich dabei um eine reine Auswertung der vorgefundenen Daten. Ausbauen lässt sich dieser Ansatz mit der gezielten Optimierung vorhandener Seiten. Soll ein Faktor untersucht werden, wird er dabei isoliert geändert und die darauf folgende Verbesserung oder Verschlechterung des Rankings dokumentiert. Schwierig ist bei diesem Ansatz sicherlich das Finden von Testobjekten. Für zuverlässige Ergebnisse sollten Seiten verwendet werden, welche am realen Konkurrenzkampf um die Plätze bei Google teilnehmen und bei denen wird es schwierig sein, sie davon zu überzeugen, Dinge zu testen, die sich negativ auswirken könnten. Hinzu kommt der stark gesteigerte Aufwand. Eine Analyse von Webseiten, die frei zugänglich sind, lässt sich ohne die Information der Anbieter durchführen, wie auch in dieser Arbeit geschehen. Änderungen an der Seite bedürfen hingegen nicht nur der Zustimmung, sondern auch der aktiven Mitarbeit des Anbieters.
Sicher eine gute Methode, um die Qualität der Ergebnisse in der SEO- Forschung zu verbessern, ist der von Tober genannte Ansatz, die Analysen nicht mehr nur allgemein durchzuführen, sondern auch eine gezielte Betrachtung einzelner Branchen vorzunehmen. Ein Design, wie dies geschehen soll, ist dafür allerdings noch nicht veröffentlich und auch die Rankingfaktoren Studie für 2016 lässt Anfang November immer noch auf sich warten. Dies ist deshalb ungewöhnlich, da Tober zusammen mit dem neuen Ansatz betonte, dass die Faktoren für die Desktop-Suche normal im Frühjahr, die für die mobile Suche im Herbst veröffentlicht werden. Bezogen auf das Verhältnis von Medienhäusern zu Google, deren SERPs und vor allem zueinander, wäre Forschung mit genau der Fragestellung von Searchmetrics wünschenswert. Was sind die Faktoren, auf die Google bei den Nachrichten- und Informations-Webseiten besonders großen Wert legt? Forschung hierzu könnte helfen, exakt die Punkte gezielt zu optimieren, welche Vorteile verschaffen. Offen bleiben die Folgen, welche diese Optimierung auf die Qualität der Inhalte hätte. Im Netz finden sich viele kommerzielle Webseiten, welche eine sehr niedrige Textqualität aufweisen, was stellenweise eindeutig einer Optimierung der Keyworddichte geschuldet ist. Wäre bekannt, welche Art von Texten, Rich Media oder interaktiven Elementen das Ranking positiv beeinflusst, bestünde die Gefahr, dass die Individualität des Medienangebots sich stark in Richtung einheitlicher und abwechslungsloser Webseiten entwickelt. Interessant wäre auch die Frage, ob dies bereits geschehen ist. Untersucht werden könnte, ob die unterschiedlichen SEO-Strategien der letzten beiden Jahrzehnte sich vielleicht schon in der Gestaltung von Webseiten der Medienbranche widerspiegeln und SEO längst einen großen Einfluss darauf hat, wie Inhalte den Lesern präsentiert werden. Schon heute wählen Tageszeitungen die Inhalte der Printausgabe teils nach dem Erfolg der Themen auf der Webseite aus, soweit diese dort am Vortag schon veröffentlicht wurden. Überschriften werden angepasst, um mehr Klicks aus sozialen Medien zu erhalten. Wenn diese Fokussierung überhand nimmt, wäre sinkende Qualität durchaus denkbar.
Während diese Arbeit ausschließlich die technischen Onpage-Fakto- ren betrachtet, bietet auch der Inhalt von Medienangeboten eine große Menge an Ansatzpunkten für die Forschung. Untersucht werden könnte, ob und wie sich die journalistische Qualität des Content auf das Ranking auswirkt. Gerade zu einer Zeit, in der Google immer besser in der Lage ist, Semantik in seine Algorithmen zu integrieren, stellt dies ein spannendes Feld dar. Wird Google bald in der Lage sein, gut recherchierten Content, der dem Besucher einen Mehrwert bietet, von sinnfreien Fotostrecken zu unterscheiden? Und wird es diesen mit besseren Rankings und damit mehr Besuchern honorieren? Aber selbst, wenn diese Entwicklung noch länger andauern sollte, so kann auch jetzt schon verstärkt der Content betrachtet werden. Die zuvor geforderte Optimierung über die Nutzung aller zur Verfügung stehenden Mittel des Web, von interaktiven Elementen über Videos, gifs, hin zur grafischen Aufbereitung mittels Zeitstrahl, Bildergalerie, Infografik oder dem, was auch immer gerade passend erscheint (es gibt für jedes Bedürfnis ein Tool im Netz), kostet vor allem Zeit und damit Geld. Hier könnte betrachtet werden, ob sich dieser Aufwand aktuell überhaupt lohnt und ob Googles Rankbrain wirklich so starken Wert darauf legt, dass die Anbieter, die hier investieren, deutlich besser abschneiden. Doch wenn Geld ins Spiel kommt, reichen Rankings an sich natürlich als Bewertungsgrundlage nicht aus. Hier muss in Zusammenarbeit mit den Anbietern untersucht werden, ob sich der Mehraufwand am Ende auch auszahlt, z.B. in Form von erhöhten Werbeeinnahmen durch den Besucherzustrom.
5.5 Abschließende Zusammenfassung
Suchmaschinenoptimierung ist ein breites, undurchsichtiges Feld. Das gilt für alle Branchen, auch für den Journalismus. Allgemeine Studien sind aufgrund der intransparenten Algorithmen und dem hohen Tempo der Entwicklung nicht einfach bzw. ihre Bedeutung ist schwer zu erfassen und nicht allzu lange gültig. Hinzu kommt, dass Google die Faktoren offenbar immer mehr an Branchen anpasst, so ass nicht einmal mehr uneingeschränkt auf die existierende Forschung zurückgegriffen werden kann, sollte sie für eine andere Gattung von Webseiten erstellt worden sein. Dennoch bringen die Ergebnisse der Untersuchung, abhängig vom Blickwinkel, auch Positives hervor. So ist nicht zu erkennen, dass Google die Marken der Medienhäuser in seinen Ergebnissen bevorzugt. Aus Sicht der Medienhäuser, keine gute Nachricht, für unabhängigen Journalismus, der auch Randthemen bedient, eine große Chance. Wer nicht die Möglichkeit hat, seine Inhalte in bekannten Massenmedien unterzubringen, der kann dies im Netz tun. Dort stehen viele Möglichkeiten zur Verfügung, die Print und Rundfunk nicht bieten können und wer sich wirklich Mühe gibt, die Interessen und Bedürfnisse seiner Leser zu befriedigen, der hat auch gute Chancen, dass Google ihm diese vermittelt, denn der Nutzer ist es, der im Fokus steht. Mit den Fortschritten im Verständnis von Semantik durch Maschinen bleibt zu hoffen, dass Google immer besser in der Lage sein wird, die Qualität der Inhalte zu beurteilen und die hochwertigen zu belohnen, darauf deuten die gewonnen Erkenntnisse jedenfalls hin. Für etablierte Medienhäuser heißt es allerdings durchaus, dass sie sich vor dem Internet auch in Acht nehmen müssen. Nicht nur die Leser, die nach kostenfreier Unterhaltung verlangen sind ein Problem für die Finanzierung im Netz, auch die neu entstehende Konkurrenz kann zu einem weiteren Rückgang der Nutzerzahlen über Suchmaschinen führen. Wer im Internet erfolgreich sein will, der muss lernen es zu verstehen und zwar in all seinen Aspekten. Oft bleibt nur, sich den Spielregeln der Marktführer anzupassen und das ist bei den Suchmaschinen nach wie vor Google, so wie es Facebook unter den Social Media Netzwerken ist. Beide heben die Inhalte hervor, die ihren Nutzern gefallen und da besteht kein Bonus für die ehemals Mächtigen in der Meinungsbildung.
Literatur
Altoft, Patrick (2007). How to use the Google "Query Deserves Freshness" or QDF model to your advantage. Website. Online erhältlich unter https: //www.branded3.com/blog/using-google-query-deserves- freshness-model/; abgerufen am 10. August 2016.
Bahajji, Zineb Ait und Gary Illyes (2014). HTTPS as a ranking signal. Website. Online erhältlich unter https://webmasters.googleblog. com / 2014 / 08/https-as - ranking - signal . html; abgerufen am 21. Juli 2016.
Baur, Christoph (2015). Warum Code komprimieren? Website. Online erhältlich unter https : / / de . onpage . org / blog / abnehmen - fuer - seos - technische - methoden - der - code - komprimierung; abgerufen am 15. August 2016.
Bellinger, Katharina (2012). Formatieren - Den Text gestalten für SEO und das Auge. Website. Online erhältlich unter http://www.seo-united. de/blog/seo/formatieren-text-gestalten-seo . htm; abgerufen am 25. Juli 2016.
Breunig, Christian und Birgit van Eimeren (2015). „50 Jahre „Massen kommunikation": Trends in der Nutzung und Bewertung der Medien". In: Media Perspektiven 11.2015, S. 505-525.
Clark, Jack (2015). Google Turning Its Lucrative Web Search Over to AI Machines. Website. Online erhältlich unter https://www.bloomberg. com/news/articles/2015-10-26 / google-turning-its- lucrative-web - search- over - to - ai-machines; abgerufen am 09. Oktober 2016.
Cutts, Matt (2009a). "Query deserves freshness."Fact or fiction? Video. Online erhältlich unter https : / / www . youtube . com/ watch?v = QyFlIhruda4; abgerufen am 10. August 2016.
— (2009b). Should I tweak my titles and descriptions to improve my CTR? Video. Online erhältlich unter https://www.youtube.com/watch? v=THYguer_JrM; abgerufen am 23. Juli 2016.
Cutts, Matt (2013). How many links on a page should we have? Is there a limit? Video. Online erhältlich unter https://www.youtube.com/ watch?v=QHG6BkmzDEM; abgerufen am 25. Juli 2016.
Dahm, Georg und Denis Dilba (2016). Die Umfrage zum Neustart. Website. Online erhältlich unter https : / / de . surveymonkey . com / r / 5 9XQKKJ; abgerufen am 13. August 2016.
Dean, J.A., C. Anderson und A. Battle (2012). Ranking documents based on user behavior and/or feature data. US Patent 8,117,209, Online erhältlich unter http://www .google.com/patents/US81172 0 9; abgerufen am 25. Juli 2016.
Dziki, Julian (2014). 7 veraltete Rankingfaktoren. Website. Online erhältlich unter http://www.seokratie.de/veraltete-rankingfaktoren/ ; abgerufen am 25. Juli 2016.
Epstein, Robert und Ronald E. Robertson (2015). „The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections". In: Proceedings of the National Academy of Sciences of the United States of America PNAS, Proceedings of the National Academy of Sciences Proceedings of the National Academy of Sciences of the United States of America PNAS, Proceedings of the National Academy of Sciences Proceedings of the National Academy of Sciences of the United States of America 112.33, E4512-E4521.
Fiegerman, Seth (2015). Meerkat app shows the potential for live streaming on Twitter. Website. Online erhältlich unter http : / /mashable . com/ 2015 / 03 / 02 / meerkat - live - streaming/; abgerufen am 13. August 2016.
Frier, Sarah (2015). Twitter Reaches Deal to Show Tweets in Google Search Results. Website. Online erhältlich unter https://www. bloomberg . com / news / articles / 2015 - 02 - 05 / twitter -said-to- reach -deal-for - tweets - in - google - search - results; abgerufen am 23. Oktober 2016.
Galtung, Johan und Mari Holmboe Ruge (1965). „The Structure of Foreign News". In: Journal of Peace Research 2.1, S. 64-90.
Geisler, Hendrik (2015). Mediendschungel: Die ersten journalistischen Gehversuche mit Periscope. Website. Online erhältlich unter https : / / www . basicthinking . de/ blog / 2015 / 09 / 30 / periscope - journalismus/; abgerufen am 13. August 2016.
Gill, Kathy E. (2004). How can we measure the influence of the blogosphere? Website. Online erhältlich unter http://www.uvm.edu/pdodds / teaching / courses / 20090 8UVM- 300/docs/others/ everything/ gill2004a. pdf; abgerufen am 08. November 2016.
Google, Inc. (2016a). Algorithmen. Website. Online erhältlich unter https://www.google.com/insidesearch/howsearchworks/ algorithms.html?hl=de; abgerufen am 16. Juli 2016.
— (2016b). Allgemeine Informationen zu Sitemaps. Website. Online erhältlich unter https://support.google.com/webmasters/answer/156184? hl=de; abgerufen am 15. August 2016.
— (2016c). Bilder. Website. Online erhältlich unter https://support. google . com/webmasters/answer/ 114016 ?hl = de; abgerufen am 15. August 2016.
— (2016d). Crawling-Fehlerbericht für Websites. Website. Online erhältlich unter http://goo.gl/n8vyTb; abgerufen am 29. Oktober 2016.
— (2016e). Erfolgreiche Aufnahme in Google News. Website. Online erhältlich unter https : //support. google . com/news/publisher/ answer/40787?hl=de; abgerufen am 09. Oktober 2016.
— (2016f). Google Trends. Website. Online erhältlich unter https : / / goo.gl/fWnbSr; abgerufen am 22. August 2016.
— (2016g). Google Trends. Website. Online erhältlich unter https : / / goo.gl/5VOo8z; abgerufen am 27. August 2016.
— (2016h). Google Trends. Website. Online erhältlich unter https : / / goo.gl/rwB888; abgerufen am 27. August 2016.
— (2016i). Informationen zur robots.txt-Datei. Website. Online erhältlich unter https:/ / support. google . com/webmasters / answer/ 60 62 60 8?hl=de; abgerufen am 15. August 2016.
— (2016j). PageSpeed Tools. Website. Online erhältlich unter https : / / developers . google . com/ speed/pagespeed/; abgerufen am 21. Juli 2016.
— (2016k). Richtlinien für Webmaster. Website. Online erhältlich unter https://support.google.com/webmasters/answer/35769? hl=de; abgerufen am 01. Oktober 2016.
Grimmelmann, James (2009). „The Google Dilemma". In: NEW YORK LAW SCHOOL LAW REVIEW 53, S. 939-950.
Heijmans, Michiel (2016). DIY: Optimize your browser cache. Website. Online erhältlich unter https : / / yoast . com / diy - optimize - browser-caching/; abgerufen am 25. September 2016.
Holtz-Bacha, Christina und Helmut Scherer (1998). Wie die Medien die Welt erschaffen und wie die Menschheit darin lebt. Hrsg. von Norbert Waldmann. Opladen/Wiesbaden: Westdeutscher Verlag GmbH.
Jantz, Stephan (2012). SEO-Basics: Alles über XML-Sitemaps. Website. Online erhältlich unter http://blog . searchmetrics . com/ de / 2012 / 10 / 19 / seo-basics-alles - uber - xml - sitemaps/ ; abgerufen am 15. August 2016.
Kepplinger, Hans Mathias (2011). Journalismus als Beruf. Hrsg. von Hans Mathias Kepplinger und Simone Christine Ehmig. Wiesbaden: VS Verlag für Sozialwissenschaften | Springer Fachmedien Wiesbaden GmbH.
Kepplinger, Hans Mathias und Rouwen Bastian (2000). „Der prognostische Gehalt der Nachrichtenwert-Theorie". In: Publizistik 45.4, S. 462475.
La Roche, Walther von (2013). Einführung in den praktischen Journalismus. Hrsg. von Gabriele Hofacker und Klaus Meier. 19. Aufl. Wiesbaden: Springer Fachmedien.
LinkAssistant (2016a). Review of the best SEO tools. Website. Online erhältlich unter http://www.link-assistant.com/seo-software/ compare-seo-tools.html; abgerufen am 16. August 2016.
— (2016b). SEO PowerSuite Press Info. Website. Online erhältlich unter http://www. link-assistant .com/press/; abgerufen am 16. August 2016.
Linux Foundation, The (2016). Let's Encrypt - Free SSL/TLS Certificates. Website. Online erhältlich unter https : / / letsencrypt. org; abgerufen am 21. September 2016.
Machill, Marcel und Markus Beiler (2007). Die Macht der Suchmaschinen / The Power of Search Engines. Köln: Herbert von Halem Verlag.
Maier, Michaela, Karin Stengel und Joachim Marschall (2010). Nachrichtenwerttheorie. Baden-Baden: Nomos.
Makino, Takaki, Chaesang Jung und Doantam Phan (2015). Finding more mobile-friendly search results. Website. Online erhältlich unter https : // webmasters.googleblog.com/2015/02/finding-more- mobile-friendly-search.html; abgerufen am 23. Juli 2016.
Meier, Klaus (2013). Journalistik. Konstanz, München: UVK Verlagsgesellschaft mbH mit UVK/Lucius.
Müller, John (2014). does short content treat as low quality contnet. Website. Online erhältlich unter https://goo.gl/PDGToi; abgerufen am 23. Juli 2016.
Neuberger, Christoph, Christian Nuernbergk und Melanie Rischke (2007). „Weblogs und Journalismus: Konkurrenz, Ergänzung oder Integration". In: Media Perspektiven 2.2007, S. 96-112.
OnPage.org, GmbH (2016a). Ausgehender Link. Website. Online erhältlich unter https ://de . onpage . org / wiki / Ausgehender_Link; abgerufen am 25. Juli 2016.
— (2016b). Keyword Density. Website. Online erhältlich unter https : //de. onpage . org/wiki/Keyword_Density; abgerufen am 01. Oktober 2016.
— (2016c). Meta Title. Website. Online erhältlich unter https://de. onpage.org/wiki/Meta_Title; abgerufen am 25. Juli 2016.
— (2016d). URL Länge. Website. Online erhältlich unter https ://de. onpage.org/wiki/URL_L{ä}nge; abgerufen am 21. Juli 2016.
— (2016e). WDF*IDF. Website. Online erhältlich unter https ://de. onpage.org/wiki/WDF*IDF; abgerufen am 01. Oktober 2016.
Östgaard, Einar (1965). „Factors influencing the flow of news". In: Journal of Peace Research 2.1, S. 39-63.
Pan, Bing u. a. (2007). „In Google We Trust: Users Decisions on Rank, Position, and Relevance". In: Journal of Computer-Mediated Communication 12.3, S. 801-823.
Parsely, Inc. (2015). Facebook Continues to Beat Google in Sending Traffic to Top Publishers. Website. Online erhältlich unter http : / / blog . parsely.com/post/2855/facebook-continues-to-beat- google-in-sending-traffic-to-top-publishers/; abgerufen am 16. Juli 2016.
Ridder, Christa-Maria und Bernhard Engel (2010). „Massenkommunikation 2010: Funktionen und Images der Medien im Vergleich". In: Media Perspektiven 11.2010, S. 537-548.
Schulz, Winfried Friedrich (1982). „News structure and people's awareness of political events". In: International Communication Gazette 30, S. 139-153.
Searchmetrics, GmbH (2016a). Meta Description. Website. Online erhältlich unter http : / / www . searchmetrics . com / de / glossar / meta-description/; abgerufen am 25. Juli 2016.
— (2016b). Meta Title. Website. Online erhältlich unter http : / / www . searchmetrics . com / de / glossar / meta - title/; abgerufen am 23. Juli 2016.
— (2016c). Ranking-Faktoren: So sind die Karten 2015 gemischt. Website. Online erhältlich unter http://www. searchmetrics . com/ de / knowledge - base / ranking - faktoren/; abgerufen am 21. Juli 2016.
Singhal, Amit (2011). Giving you fresher, more recent search results. Website. Online erhältlich unter https : / / googleblog . blogspot . de / 2011/11/ giving - you - fresher - more - recent - search . html; abgerufen am 10. August 2016.
Singhal, Amit und Matt Cutts (2010). Using site speed in web search ranking. Website. Online erhältlich unter https : / / webmasters . googleblog . com/ 2010 / 04/ using- site- speed- in-web- search- ranking . html; abgerufen am 21. Juli 2016.
SISTRIX, GmbH (2016a). Einrichtung einer 301-Weiterleitung von nicht-www auf den www. Domainnamen. Website. Online erhältlich unter https://www.sistrix.de/frag-sistrix/onpage-optimierung/ http-statuscode/3xx-redirection/einrichtung-einer- 3 01-weiterleitung-von-nicht-www-auf-den-www-domainnamen/ ; abgerufen am 15. August 2016.
— (2016b). Title-Tag Optimierung: Wie sieht der optimale Title einer Webseite aus? Website. Online erhältlich unter https : / / www . sistrix . de/frag-sistrix/onpage-optimierung/title-element - title - tag / wie - sieht - der - optimale - title - einer - webseite-aus/; abgerufen am 23. Juli 2016.
— (2016c). Was ist unter Query Deserve Freshness (QDF) zu verstehen? Website. Online erhältlich unter https://www.sistrix.de/frag-sistrix/google-algorithmus- aenderungen/google-freshness-update/was-ist-unter- query-deserve- freshness-qdf- zu-verstehen/; abgerufen am 10. August 2016.
— (2016d). Welche Meta-Elemente (Meta-Tags) sind SEO relevant und welche nicht? Website. Online erhältlich unter https : / / www . sistrix . de / frag- sistrix/ onpage - Optimierung / meta - element - meta - tag / welche - metatags - sind- seo - relevant - und- welche-nicht/; abgerufen am 21. Juli 2016.
SISTRIX, GmbH (2016e). Welche Überschriften (Headlines) sind SEO relevant? Website. Online erhältlich unter https://www.sistrix.de/frag-sistrix/onpage-optimierung/ welche-ueberschriften-headlines-sind-seo-relevant/ ; abgerufen am 21. Juli 2016.
— (2016f). Wie haufig nimmt Google Algorithmus-anderungen vor? Website. Online erhältlich unter https : / / www . sistrix . de / frag- sistrix/google-algorithmus-aenderungen/google-page- layout - algorithm- update - ads - above -the-fold/wie- haeufig-nimmt-google-algorithmus-aenderungen-vor/ ; abgerufen am 20. Juli 2016.
— (2016g). Wie sieht die optimale Meta-Description aus? Website. Online erhältlich unter https://www. sistrix . de / frag-sistrix/ onpage-optimierung/meta-element-meta-tag/wie-sieht- die-optimale-meta-description-aus/; abgerufen am 25. Juli 2016.
Staab, Joachim Friedrich (1998). „Faktoren aktueller Berichterstattung". In: Fernsehnachrichten: Prozesse, Strukturen, Funktionen. Hrsg. von Klaus Kamps und Miriam Meckel. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 49-64.
Statista (2016a). Anzahl der Mobiltelefonnutzer, die das mobile Internet nutzen in den Jahren 2012 bis 2014 sowie eine Prognose bis 2019 (in Milliarden). Website. Online erhältlich unter http://de.statista.com/ statistik/daten/studie/172505/umfrage/anzahl-der- personen-weltweit - die-mobil- das - internet-nutzen/ ; abgerufen am 23. Juli 2016.
— (2016b). Interesse der Bevölkerung in Deutschland an gesunder Ernährung und gesunder Lebensweise von 2012 bis 2016 (Personen in Millionen). Website. Online erhältlich unter https : / / de . statista . com/ statistik / daten / studie / 170913 / umfrage / interesse - an-gesunder-ernaehrung-und-lebensweise/; abgerufen am 05. November 2016.
— (2016c). Marktanteile führender Suchmaschinen in Deutschland in den Jahren 2014 bis 2016. Website. Online erhältlich unter http://bit.ly/ 1fBoF5h; abgerufen am 16. Juli 2016.
Tober, Marcus (2016). [DE] Redundanz, RankBrain & Content-Relevanz: Teil II. Video. Online erhältlich unter https : / /www . youtube . com/ watch?v=5YGeAZwk_DU; abgerufen am 09. Oktober 2016.
Tober, Marcus, Dr. Leonhard Hennig und Daniel Furch (2013). SEO RankingFaktoren 2013 - Google Deutschland. Whitepaper. Online erhältlich unter http ://www.searchmetrics.com/de/knowledge-base/ ranking-faktoren-2013/; abgerufen am 20. Juli 2016.
— (2014). SEO Ranking-Faktoren und Rang-Korrelationen 2014 - Google Deutschland. Whitepaper. Online erhältlich unter http : / / www . searchmetrics . com / de / knowledge - base / ranking-faktoren-2014/; abgerufen am 20. Juli 2016.
Tober, Marcus u. a. (2015). Search Ranking-Faktroren und Rang-Korrelationen Google.de 2015. Whitepaper. Online erhältlich unter http : / / www . searchmetrics . com / de / knowledge - base / ranking-faktoren/; abgerufen am 20. Juli 2016.
Twitter, Inc (2015). Up Periscope. Website. Online erhältlich unter https:/ /medium .com/periscope /up-periscope - f0b0a4d2e486; abgerufen am 13. August 2016.
Uhlemann, Ingrid Andrea (2012). Der Nachrichtenwert im situativen Kontext. Wiesbaden: VS Verlag für Sozialwissenschaften | Springer Fachmedien Wiesbaden GmbH.
Weaver, David A. und Bruce Bimber (2008). „Finding News Stories: A Comparison of Searches Using Lexisnexis and Google News". In: Journalism & Mass Communication Quarterly 85.3, S. 515-530.
Weck, Andreas (2015). Womit Google am meisten Umsatz macht - und wo das Geld hinfließt. Website. Online erhältlich unter http : //t3n. de/news/womit-google-meisten-umsatz-macht-624118/; abgerufen am 29. Oktober 2016.
Wells, Tom (2015). RankBrain, künstliche Intelligenz und die Entwicklung der Google-Architektur. Website. Online erhältlich unter http://blog. searchmetrics .com/de/2015/11/19/rankbrain/; abgerufen am 09. Oktober 2016.
Weltevrede, Esther, Anne Helmond und Carolin Gerlitz (2014). „The Politics of Realtime: A Device Perspective on Social Media Platforms and Search Engines". In: Theory, Culture & Society 31.6, S. 125-150.
Westerwick, Axel (2013). „Effects of Sponsorship, Web Site Design, and Google Ranking on the Credibility of Online Information". In: Journal of Computer-Mediated Communication 18.2, S. 80-97.
Wolling, Jens (2002). „Suchmaschinen - Gatekeeper im Internet". In: Medienwissenschaft Schweiz 2.2002, S. 15-23.
Anhang A
Checkliste Textauswahl
Formular zur Prüfung, ob ein Text für die Analyse geeignet ist.
Checkliste für Textanalyse im Rahmen der Masterarbeit
Einfluss von Onpage Suchmaschinenoptimierung auf journalistische Texte.
Anbieter
Titel
Url
Veröffentlichungsdatum
Abbildung in dieser Leseprobe nicht enthalten
Beurteilung Nachrichtenwert:
Sind einer oder mehrere der folgenden Faktoren im Text besonders stark ausgeprägt, so dass dem Beitrag ein hoher Nachrichtenwert zugemessen werden kann?
Abbildung in dieser Leseprobe nicht enthalten
Anhang B
Exemplarischer Bericht zur Onpage Optimierung eines Textes auf sueddeutsche.de
Im nachfolgenden Bericht wurde die Seite http://www.sueddeutsche.de/thema/Ernährung auf das Keyword Ernährung geprüft.
Der Bericht zeigt eine Optimierungsrate von 77,9% und listet die betrachteten Aspekte im Detail auf.
Abbildung in dieser Leseprobe nicht enthalten
Anhang C
Exemplarischer Bericht zur seitenweiten Onpage Optimierung von sueddeutsche.de
Auf Basis der analysierten Unterseite http://www.sueddeutsche.de/thema/Ernährung wurde ein globaler Blick auf die Webseite geworfen.
Der Bericht zeigt verschiedene Onpage Faktoren, die nicht mit dem analysierten Text zusammenhängen, da sie im Regelfall vom CMS abhängig und damit für alle Unterseiten gleich sind.
Abbildung in dieser Leseprobe nicht enthalten
Anhang D
Übersicht der Domains mit Keywords
TABELLE D.1: Domains in Top 50 Ergebnissen, die Keywords enthalten, Teil 1
Abbildung in dieser Leseprobe nicht enthalten
TABELLE D.2: Domains in Top 50 Ergebnissen, die Keywords enthalten, Teil 2
Abbildung in dieser Leseprobe nicht enthalten
[...]
1 watson.ch
1 www.substanzmagazin.de
2 www.semrush.com
3 www.original-bootcamp.com/blog.html
4 goo.gl/VWtv7B
5 www.marathonfitness.de
6 goo.gl/Eo5aFS
7 goo.gl/5zj5eE
8 http://www.frauenzimmer.de
9 goo.gl/UfKiGg und goo.gl/fp5OJJ
10 goo.gl/bRPOJl
11 goo.gl/t2b15V
12 goo.gl/vW6Jwc
13 vebu.de
14 goo.gl/t7jJnI
15 goo.gl/OjzbIs
16 www.vegpool.de
17 goo.gl/3C0erx
18 goo.gl/ulccZg
19 essen-und-trinken.de/vegane-rezepte
20 goo.gl/7doyfD
21 goo.gl/RKPD9W
22 g°°.gi/C3Xjfg
23 www.zentrum-der-gesundheit.de
24 https://www.zentrum-der-gesundheit.de/gesunde-ernaehrung.html
25 goo.gl/a7APz9
26 http://eatsmarter.de/ernaehrung/news/ernaehrungsplan
27 http://www.lifeline.de
28 goo.gl/vAuegr und goo.gl/QxGguu
29 http://www.essen-und-trinken.de/topthemen/gesunde-ernaehrung
30 http://eatsmarter.de
31 goo.gl/AljsQZ
32 goo.gl/4GcWhH
33 http://www.der-champignon.de
Häufig gestellte Fragen
Was ist der Zweck dieser Arbeit: "Einfluss von Onpage-Suchmaschinenoptimierung auf Suchmaschinenrankings journalistischer Texte"?
Diese Masterarbeit untersucht, ob Webseiten klassischer Medien von Google im Vergleich zu reinen Online-Portalen bevorzugt in den Suchergebnissen aufgenommen und besser platziert werden. Es werden Rankings und Onpage-Suchmaschinenoptimierung anhand von Keywordsets aus dem Bereich Ernährung verglichen.
Welche Keywordsets werden in der Analyse verwendet?
Die Analyse basiert auf fünf Keywordsets aus dem Bereich Ernährung:
- sport essen und essen krafttraining
- vegetarisch und vegan
- rohkost und der champignon
- richtige ernährung und ernährung umstellen
- gesund kochen und diäten
Welche Medien werden in der Analyse verglichen?
Verglichen werden klassische Medien (mit Offline-Pendant wie Print oder TV) und reine Online-Medien (ohne Offline-Pendant). Beispiele für klassische Medien sind sueddeutsche.de, fit for fun und EatSmarter!. Die reinen Online-Medien sind unter anderem original-bootcamp.com, marathonfitness.de, zentrum-der-gesundheit.de und lifeline.de.
Welche SEO-Faktoren werden bei der Analyse der Webseiten berücksichtigt?
Die Analyse konzentriert sich auf Onpage-SEO-Faktoren, die vom Webseitenbetreiber selbst beeinflusst werden können. Dazu gehören unter anderem:
- Nutzung von HTTPS
- Optimierung für Mobiltelefone
- Anzahl der Keywords im Titel und in der Meta Description
- Länge des Titels und der Meta Description
- Summe der Wörter im HTML Body
- Häufigkeit der Keywords im Text
- Länge der URL
- Keywords in der URL
- Anzahl der internen und externen Links
- Vorhandensein einer robots.txt-Datei und einer Sitemap
Welche Software wird für die SEO-Analyse verwendet?
Die Software Website Auditor aus der SEO Power Suite von LinkAssistant.com wird für die Analyse der Webseiten verwendet. GTMetrix wird für die Überprüfung der Seitenladezeit verwendet.
Welche Rolle spielt die Nachrichtenwert-Theorie bei der Textauswahl?
Die Nachrichtenwert-Theorie dient als Hilfsmittel zur Auswahl der zu betrachtenden Texte. Es wird darauf geachtet, Texte mit möglichst niedrigem Nachrichtenwert auszuwählen, um verschiedene SEO-relevante Rankingfaktoren auszuschließen, die die Ergebnisse verfälschen könnten.
Welche journalistischen Kriterien werden bei der Textauswahl berücksichtigt?
Es wird geprüft, ob ein Text journalistischen Mindestanforderungen entspricht, um sicherzustellen, dass die ausgewählten Testobjekte valide sind und die Rankings nicht durch besondere Aktualität verfälscht werden. Die Texte sollen neu, faktisch und relevant sein.
Was ist die "Optimierungsrate" in dieser Analyse?
Die Optimierungsrate ist ein von Website Auditor berechneter Wert, der die Qualität der Onpage-Optimierung einer Seite widerspiegelt. Sie basiert auf verschiedenen Faktoren, die von der Software geprüft werden. Es ist kein international standardisierter Wert, sondern ein Software-spezifischer Wert. Die Optimierungsrate kann als erstes Indiz genutzt werden, um eine Abschätzung zu geben, wie gut eine Seite für ein Keyword rankt, ist aber keine Garantie.
Zeigt die Analyse, dass Google klassische Medien bei Suchergebnissen bevorzugt?
Nein. Die Analyse zeigt keinen signifikanten Unterschied zwischen den Online-Angeboten klassischer Medien und denen von reinen Online-Angeboten. Beide Arten von Angeboten können Spitzenpositionen erreichen.
Wie wird die Keyworddichte in den Texten analysiert?
Die Keyworddichte wird berechnet, indem die Häufigkeit der Keywords im Text durch die Gesamtzahl der Wörter im Text dividiert wird. Eine zu hohe Keyworddichte kann von Google als Spam gewertet werden.
Welche Empfehlungen werden bezüglich des Verhältnisses zwischen Klassischen Medien und Online-Medien bezüglich SEO gegeben?
Die analyse deutet daraufhin dass klassische und Online-Medien beide die gleichen Chancen haben mit guter Suchmaschinenoptimierung zu überzeugen und keine von beiden aufgrund Ihrer Art direkt bevorteilt werden.
Spielen Social Signals eine Rolle bei der Suchmaschinenoptimierung für diese Medien?
Social Signals sind eine der vielen Faktoren, die sich auf die Suchmaschinenoptimierung auswirken, jedoch ist dies nicht Teil der Kernausrichtung der Analyse.
- Arbeit zitieren
- Josef Max Hajda (Autor:in), 2016, Einfluss von Onpage-Suchmaschinenoptimierung auf Suchmaschinenrankings journalistischer Texte, München, GRIN Verlag, https://www.grin.com/document/355365