Einfluss von Onpage-Suchmaschinenoptimierung auf Suchmaschinenrankings journalistischer Texte


Thèse de Master, 2016

143 Pages, Note: 1,5


Extrait


Inhaltsverzeichnis

Zusammenfassung

Abkürzungsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

1 Einleitung

2 Forschungsstand und Forschungsfrage
2.1 Forschungsfrage
2.2 Forschungsstand
2.2.1 SEO-Faktoren
2.2.2 Nachrichtenwert-Theorie

3 Aufbau der empirischen Analyse
3.1 Testschema zur Textauswahl
3.1.1 Aktualität und Nachfrage
3.1.2 Nachrichtenwert
3.1.3 Journalistische Kriterien
3.2 SEO-Analyseverfahren
3.2.1 Verwendete SEO-Faktoren
3.2.2 Verwendete SEO-Analyse-Software
3.2.3 Erläuterung des Analyseverfahrens
3.3 Methodenkritik
3.4 Festlegen der Keywordsets und Textauswahl
3.4.1 Keyword sport essen und essen krafttraining
3.4.2 Keyword vegetarisch und vegan
3.4.3 Keyword rohkost und der champignon
3.4.4 Keyword richtige ernährung und ernährung umstellen
3.4.5 Keyword gesund kochen und diäten

4 Auswertung der Analyse
4.1 Analyse der Ergebnisse
4.2 Auswertung der SERPs
4.2.1 Verhältnis der Ergebnisse
4.2.2 Keywords in der Domain
4.3 Optimierungsrate nach Website Auditor
4.4 Korrekte Umleitung von www- und nicht-www-Version
4.5 Nutzung von HTTPS und Probleme mit HTTPS
4.6 Optimierung für Mobiltelefone
4.7 Dateigröße des Dokuments
4.8 Nicht komprimierte, minimierte und gecachte Elemente
4.9 Robots.txt und maschinenlesbare Sitemap
4.10 Ist die Seite von der Indexierung durch Suchmaschinen gesperrt?
4.11 Länge der URL
4.12 Keywords in der URL
4.13 Anzahl der Keywords im Titel
4.14 Länge des Webseitentitels
4.15 Anzahl der Keywords in der Meta Description
4.16 Länge der Meta Description
4.17 Titel und Meta Description sind Unikate
4.18 Summe der Wörter im HTML Body
4.19 Häufigkeit des Keywords im Text der Webseite
4.20 Keyworddichte
4.21 Summe der Links im Dokument
4.22 Defekte Links im Dokument
4.23 Keywords in Linktexten
4.24 Keywords in H1-Überschriften
4.25 Keywords in H2- bis H6-Überschriften
4.26 Keywords in Fett- und Kursivschrift
4.27 Keywords in Alt-Tags von Bildern

5 Diskussion
5.1 Bedeutung einzelner Onpage-SEO-Faktoren
5.2 Onpage gegen den Rest
5.3 Verhältnis von klassischen zu Online-Medien
5.4 Aufbauende Möglichkeiten für Forschung
5.5 Abschließende Zusammenfassung

Literatur

A Checkliste Textauswahl

B Exemplarischer Bericht zur Onpage Optimierung eines Textes auf sueddeutsche.de

C Exemplarischer Bericht zur seitenweiten Onpage Optimierung von sueddeutsche.de

D Übersicht der Domains mit Keywords

„My rule of thumb is build a site for a user not a spider."

Anmerkungen

Gendering

Aus Gründen der besseren Lesbarkeit wird auf die gleichzeitige Ver­wendung männlicher und weiblicher Sprachformen verzichtet. Sämtli­che Personenbezeichnungen gelten gleichwohl für beiderlei Geschlecht.

Schreibweise von Keywords

Da Google keine Unterscheidung zwischen Groß- und Kleinbuchstaben macht, werden bei der Betrachtung der Keywordsets alle Wörter durch­gehend mit Kleinbuchstaben eingegeben. Der besseren Lesbarkeit ge­schuldet sind sie kursiv geschrieben.

NEW MEDIA JOURNALISM

Zusammenfassung

Leipzig School of Media Im Externat an der Universität Leipzig

Master of Arts

Einfluss von Onpage-Suchmaschinenoptimierung auf
Suchmaschinenrankings journalistischer Texte von Josef Max Hajda

Das Ziel der vorliegenden Masterarbeit war es, zu untersuchen, ob Webseiten klassischer Medien von Google im Vergleich zu reinen Online­Portalen bevorzugt in die Suchergebnisse aufgenommen und besser plat­ziert werden. Anhand von fünf Keywordsets aus dem Bereich Ernäh­rung wurden klassische mit reinen Online-Medien verglichen und auf ihre Rankings sowie Onpage-Suchmaschinenoptimierung überprüft. Ein­zelne Faktoren mit maßgeblichem Einfluss auf die Suchergebnisse konn­ten dabei nicht festgestellt werden, im Laufe der Arbeit zeigte sich aller­dings, dass die technischen Faktoren nicht vernachlässigt werden soll­ten und der Inhalt von Webseiten immer mehr an Bedeutung erlangt. Die Ergebnisse und Schlussfolgerungen sind vor allem für Betreiber von Webseiten mit journalistischen oder informativen Inhalten relevant.

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

1.1 Traffic von Facebook und Google

2.1 Angezeigter Treffer auf der SERP

3.1 HTTPS Fehlermeldung

3.2 Suchanfragen sport essen und essen krafttraining

3.3 Suchanfragen vegan

3.4 Suchanfragen ernährung umstellen

4.1 Optimierungsrate

4.2 Seitengröße

4.3 Nicht minimierte, komprimierte und gecachte Dateien

4.4 Länge des Titels

4.5 Anzahl Keywords in Meta Description

4.6 Keyworddichte

4.7 Keywords in Fettschrift

5.1 Rankingfaktoren 2013

5.2 Rankingfaktoren 2014

5.3 Image verschiedener Mediengattungen 2000 bis 2015

Tabellenverzeichnis

3.1 Tagesaktuelle klassische Medien beim Keyword sport essen

3.2 Tagesaktuelle klassische Medien beim Keyword essen kraft­training

4.1 Auflistung der analysierten Webseiten-Bereiche

4.2 Klassische Medien in den Top 50 Suchergebnissen, Teil 1

4.3 Klassische Medien in den Top 50 Suchergebnissen, Teil 2

D.1 Domains in Top 50 Ergebnissen, die Keywords enthalten, Teil 1

D.2 Domains in Top 50 Ergebnissen, die Keywords enthalten, Teil 2

Kapitel 1 Einleitung

Abhängig von Google?

Die in Deutschland marktbeherrschende Suchmaschine Google (vgl. Sta­tista, 2016c) hat nach eigenen Angaben zu einer durchschnittlichen Such­anfrage

„Tausende, wenn nicht Millionen von Webseiten mit hilfrei­chen Informationen" (Google, 2016a)

in ihrer Datenbank. Um ein für den Nutzer besonders zufriedenstellen­des Ergebnis zu garantieren und die - ihrer Meinung nach - für den Suchenden relevanten Informationen zuerst anzuzeigen, nutzt Google einen umfangreichen Algorithmus bestehend aus über 200 Faktoren, um die Ergebnisse vorzusortieren (vgl. ebd.). Unter anderem aus medien­wissenschaftlicher Sicht wird dies durchaus als diskussionsbedürftig an­gesehen, da Suchmaschinen dadurch in die Rolle eines Gatekeepers auf­steigen - eine Position, die vorher den Journalisten vorbehalten war (vgl. Machill und Beiler, 2007, S. 131; Wolling, 2002, S. 15). An anderer Stelle wird vom Search Engine Manipulation Effect (SEME) gesprochen, wel­cher Suchmaschinen sogar die Macht zuspricht, die Meinung in der Be­völkerung so stark ändern zu können, dass durch sie z.B. eine Beinflus- sung von Wahlergebnissen möglich wäre (vgl. Epstein und Robertson, 2015, S. E4512). Neben dem eventuellen Verlust der Gatekeeper-Rolle, könnte für etablierte Medien auch die Gefahr bestehen, dass Weblogs bzw. Blogs und andere alternative Angebote mehr Aufmerksamkeit und Gehör finden, wenn die Internetnutzer sich auf der Suche nach Infor­mationen an Suchmaschinen wenden. Der technologische Fortschritt im Internet macht es heute nahezu jedem Internetnutzer möglich, sich z.B. über Social Media zumindest potentiell ein Publikum zu erarbeiten. Die früheren strukturellen (Vertrieb) und finanziellen (Produktionskosten) Hürden sind zumindest im Internet weitestgehend gefallen. Mit dem Be­trieb einer eigenen Webseite ist es für Einzelpersonen oder Gruppen un­terdessen mit geringen Mitteln möglich, redaktionelle Inhalte anzubie­ten. Die Qualität kann sich dabei über das gesamte Spektrum vom Laien bis zum gelernten Journalisten erstrecken, alles in allem führt es aber zu einem Wachstum an Inhalten und Formaten wie etwa Videos, Podcasts etc. (vgl. Neuberger, Nuernbergk und Rischke, 2007, S. 96), die alle um die Aufmerksamkeit der Leser buhlen und für Suchmaschinen potenti­elle Treffer darstellen. Im Verhältnis zu den, teils seit Dekaden bestehen­den Angeboten von Print und TV können die reinen Online-Angebote, die sich im großen Stil erst in den 2000er Jahren entwickelt haben durch­aus noch als neu angesehen werden. Zuvor standen die Mediengattun­gen zwar im Wettbewerb und auch die einzelnen Anbieter innerhalb die­ser Gattungen, doch den Web-Angeboten ist es nun möglich zu allen in direkte Konkurrenz zu treten. Der Text ist nun nicht mehr dem Print vorbehalten, ebensowenig wie das Bewegtbild dem TV. Im Web können all diese Formate kombiniert und zusätzlich um verschiedene Formen des Dialogs ergänzt werden, was wiederum Chancen bietet, die Nutzer besser an die Angebote zu binden. Die Rolle dieser neuen Gattung der reinen Online-Medien im Verhältnis zum etablierten Journalismus wird unterschiedlich betrachtet und diskutiert. Ein finales Urteil ist allerdings aufgrund der Vielzahl und der variablen Qualität der Angebote nicht möglich (vgl. ebd., S. 96). Unabhängig davon, ob sie nun in ihrer Quali­tät an den klassischen Journalismus heranreichen oder nicht, sollte doch im Auge behalten werden, ob Suchmaschinen die neuen Anbieter zu be­stimmten Themen ähnlich gut im Ranking der Suchergebnisse positio­nieren wie die Online-Angebote der etablierten Medien - denn obwohl Suchmaschinen unterdessen von Facebook bei der Menge des vermittel­ten Traffics für Medienangebote eingeholt wurden, zeigen sie sich Ende 2015 dennoch für einen großen Teil der Besucher verantwortlich (vgl. Abb 1.1).

Dies legt den Schluss nahe, dass neben einem Engagement in sozia­len Netzwerken die Suchmaschinenoptimierung (SEO) von Webseiten nicht vernachlässigt werden sollte, um diesen Kanal des Nutzerzuflus­ses nicht zusätzlich zum vorhandenen Rückgang weiter zu schwächen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.1: Verhältnis des von Google und Facebook vermittelten Traffics auf Webseiten von Medienhäusern (vgl. Parsely, 2015).

Im Rahmen dieser Arbeit wird untersucht, wie sich die Beiträge der klas­sischen Medien derzeit im Verhältnis zur Konkurrenz durch neuere An­gebote in Suchergebnissen verhalten. Betrachtet wird, wer seine Seiten besser nach den gängigen Methoden der Onpage-Optimierung ausrich­tet und ob zu erkennen ist, ob Google Präferenzen aufgrund des Typs der Webseite erkennen lässt.

Kapitel 2 Forschungsstand und Forschungsfrage

2.1 Forschungsfrage

Durch das eingangs beschriebene erhöhte Angebot wäre es denkbar, dass die Suchergebnisse unterdessen auch in größerem Maße von Inhalten, die ihren Ursprung nicht in den klassischen Medien (also kein Gegen­stück in Print, TV oder Radio) haben, durchsetzt sind. Fraglich ist auch, ob erkennbar ist, dass eine der beiden Kategorien von Google bei der Auswahl bevorzugt wird. Die zentrale Forschungsfrage lautet demnach:

Haben Webportale ohne Offline-Pendant eine Chance, sich mittels in der Forschung als relevant betrachteten Onpage-SEO-Faktoren in Such­ergebnissen ebenso gute Positionierungen zu erarbeiten wie die Online­Auftritte klassischer Medien?

Betrachtet werden soll dabei, ob die neuen Angebote in den Sucher­gebnissen von Google Deutschland signifikante Ergebnisse (gleichwerti­ge Positionierungen) erzielen und somit möglicherweise für einen Rück­gang des Besucherstroms über Google bei klassischen Medien verant­wortlich sind. Mittels softwaregestützter Webseitenanalyse werden aus­schließlich onpage relevante SEO-Faktoren untersucht - also Optimie­rungen, die der Betreiber bzw. ein Programmierer an seiner Webseite selbst vornehmen kann. Andere Wege, das Publikum zu erreichen, wie die sozialen Netzwerke Facebook, Pinterest, YouTube und weitere, wer­den nicht betrachtet. Dies gilt auch für Offpage-Optimierungen, wie z.B. Backlinkaufbau.

Um eine Vergleichbarkeit der Texte sicherzustellen, wird exempla­risch das Thema Ernährung als Grundlage der Betrachtung gewählt, da hier davon ausgegangen wird, dass einerseits ausreichend Veröffentli­chungen für die geplante Analyse vorhanden sind, die keinen aktuellen Bezug haben oder ereignisbezogen sind, andererseits aber von Konsu­menten eine starke Nachfrage besteht (vgl. Statista, 2016b), was für ei­ne Omnipräsenz im Journalismus und Web (journalistische und nicht­journalistische Seiten) sorgt.

Zur Eingrenzung des Forschungsgegenstands und für einen verstärk­ten Bezug zum Journalismus dient die Nachrichtenwert-Theorie als Hilfs­mittel zur Auswahl der zu betrachtenden Texte. Zusätzlich sollen diese grundlegende journalistische Kriterien erfüllen. Hierdurch soll sicher­gestellt werden, dass die ausgewählten Testobjekte zwar journalistische Mindestanforderungen erfüllen, die Rankings aber nicht durch beson­dere Aktualität der Texte verfälscht werden. Eine ausführliche Beschrei­bung der gestellten Kriterien befindet sich in den Abschnitten 3.1.2 und 3.1.3 ab Seite 18.

2.2 Forschungsstand

Google selbst gibt an, die Faktoren, welche im Algorithmus für das Ran­king der Ergebnisse verantwortlich sind, ständig zu ändern (vgl. Goo­gle, 2016a) und auch Untersuchungen von Wissenschaftlern (vgl. Pan u. a., 2007, S. 807; Grimmelmann, 2009, S. 944) wie Unternehmen (vgl. SISTRIX, 2016f; Tober u. a., 2015) bestätigen dies. Im Bereich der SEO- Faktoren ist es demnach äußerst wichtig, sich nach einem möglichst ak­tuellen Stand zu richten, um bei der Betrachtung keine falschen Schlüs­se zu ziehen und valide Ergebnisse zu erzielen. Bezogen auf Webseiten von Nachrichtenanbietern und deren Verhältnis sowohl zu Suchmaschi­nen als auch zu den in dieser Arbeit betrachteten neuen Konkurren­ten findet durchaus Forschung statt. So finden sich z.B. Arbeiten über den Einfluss von Blogs auf die öffentliche Meinung (vgl. Gill, 2004), die Auswirkungen von Design, Google Ranking und anderen Faktoren auf die Glaubwürdigkeit einer News-Webseite (vgl. Westerwick, 2013) oder Vergleiche, wie gut verschiedene Dienste Nachrichtenseiten indexieren (vgl. Weaver und Bimber, 2008). Konkrete Forschung zu den Rankings von Webseiten klassischer Medien im Vergleich zu neueren Angeboten, wie sie in dieser Arbeit betrachtet werden, konnte bei der Recherche nicht gefunden werden (weder allgemein, noch bezogen auf Onpage- SEO). Die Betrachtung der Nachrichtenwert-Theorie erfolgt zur Festle­gung von Kriterien, welche für die Auswahl der zu analysierenden Texte herangezogen wird.

2.2.1 SEO-Faktoren

Die umfangreichste Quelle für aktuelle Beobachtungen des Google Algo­rithmus ist wohl die seit 2012 jährlich für unterschiedliche Regionen ver­öffentlichte Rankingfaktoren Studie des Such-Analyse-Software Anbie­ters Searchmetrics GmbH - nach eigenen Angaben Pionier und weltweit führender Anbieter (vgl. Tober, Hennig und Furch, 2013, S. 2). In den Re­cherchen konnte keine andere Veröffentlichung gefunden werden, die jährlich aktualisiert wird und einen so hohen Datenbestand als Grundla­ge der Analyse aufweist. Für Deutschland ist die Studie als Whitepaper für die Jahre 2012 bis 2015 verfügbar (vgl. Searchmetrics, 2016c). In einer vergangenen Ausgabe zählen die Autoren detailliert auf, welche Basis sie für ihre Analyse verwenden: Betrachtet werden die ersten drei Such­ergebnisseiten (SERP) von 10.000 Keywords. Daraus ergeben sich 30.000 analysierte SERPs und 300.000 Webseiten, die im Detail betrachtet wur­den. Diese Onpage-Daten (ergänzt um Milliarden von sogenannten So­cial Signals, also Likes, Shares, Kommentare etc. auf sozialen Netzwer­ken) ergeben in Summe 150 GB Daten, die als Grundlage für die Studie dienen (vgl. Tober, Hennig und Furch, 2013, S. 8). In den Folgejahren wurde zwar nicht so detailliert aufgeführt, welche und wie viele soziale Signale verwendet werden oder wie viel Speicherplatz die Daten aus­machen, doch wird betont, dass der Umfang der analysierten Keywords gleich groß ist und sich z.B. im Jahr 2014 erneut zu einem hohen Prozent­satz mit dem Vorjahr, hier zu 90%, deckt (vgl. Tober, Hennig und Furch, 2014, S. 10). Diese Kontinuität sorgt für eine gute Vergleichbarkeit. Die Studien teilen die relevanten Faktoren in die Kategorien Technik, Con­tent, Backlinks und Social ein, wobei die ersten beiden für die Analyse von Onpage-Maßnahmen interessant sind. Im Jahr 2015 wurde die Stu­die um den Bereich User Experience ergänzt. In dieser Kategorie finden sich ebenfalls Bereiche, welche der Betreiber einer Webseite leicht beein­flussen und optimieren kann, um die Erfahrungen der Nutzer mit seiner Seite zu verbessern, weshalb sie zumindest teilweise aus Onpage-Sicht ebenfalls interessant sind. Im Folgenden sollen einzelne Faktoren näher betrachtet werden, um ihre derzeitige Bedeutung zu beurteilen. Technik

Im Bereich Technik finden sich die Punkte wieder, welche durch die Programmierung im Content Management System (CMS) ver­ankert bzw. festgelegt werden. Als besonders relevant, weil häu­fig von SEO-Experten diskutiert, wurden davon in Anlehnung an die Studie von Searchmetrics folgende ausgewählt (vgl. Tober u. a., 2015, S. 3):

- Existenz einer Meta Description
- Existenz H1- und H2- bis H6-Überschriften
- Keyword in der Domain vorhanden
- Verwendung des verschlüsselten HTTPS-Protokoll statt dem unverschlüsselten HTTP
- Dateigröße und Ladezeit der Seite
- URL-Länge und Keywords in der URL

Bei den Faktoren Description (diese erscheint als Beschreibung in den Suchergebnissen bei Google) und Überschriften wird von einem gerin­gen Einfluss auf das SERP-Ranking ausgegangen. Nahezu alle Seiten der Top 30 Suchergebnisse besitzen diese Elemente und achten sehr auf de­ren Pflege. Die Faktoren werden damit als Grundlage angesehen, bei denen höchstens das Fehlen zu negativen Einflüssen auf das Ranking führen kann, das Vorhandensein aber keinen positiven Einfluss hat (vgl. ebd., S. 6-8).

Der SEO-Toolbox Anbieter und Searchmetrics-Mitbewerber Sistrix emp­fiehlt in seiner Betrachtung ebenfalls, dass in einem Webdokument eine Überschrift der höchsten Hierarchie (bezeichnet als H1) und mehrere ei­ner niedrigeren Hierarchie genutzt werden sollten, selbst wenn das Vor­handensein keinen großen positiven Einfluss auf SEO hat (vgl. SISTRIX, 2016e). Searchmetrics äußert sich nicht zur Auswirkung auf SEO, stellt aber fest, dass immer mehr Seiten dieses Element verwenden. Laut ihrer Auswertung besitzen 84% der Top 10 und 82% der Top 30 platzierten Webseiten H1-Überschriften (vgl. Tober u. a., 2015, S. 7).

Gleiches gilt für die Description - für das Ranking ist sie direkt nicht relevant, sollte aber vorhanden sein. Es wird darauf hingewiesen, dass die Description aufgrund ihrer Präsenz und Sichtbarkeit in den Such­ergebnissen dafür entscheidend ist, ob die Nutzer sich wirklich für die Seite entscheiden und damit die Click Through Rate (CTR, Verhältnis wie oft eine Seite angezeigt wird zur Zahl der tatsächlichen Klicks auf das Ergebnis) positiv beeinflussen. Diese fließt dann wiederum als eige­ner Faktor in das Ranking ein (vgl. SISTRIX, 2016d).

Bezogen auf das Vorhandensein von Keywords in Domains scheint Goo­gle zu dem Schluss gekommen zu sein, dass sich dieser Faktor nicht als gutes Rankingkriterium eignet, das dem Nutzer zugute kommt. Seit ei­ner Algorithmusänderung im Jahr 2012 sinkt der Anteil an Ergebnissen mit Keywords in der Domain kontinuierlich, was dafür spricht, dass die­ses Element an Bedeutung verliert und damit nicht mehr als relevant und zukunftssicher angesehen werden kann (vgl. Tober u. a., 2015, S. 9). Als unstrittig kann angesehen werden, dass Google Seiten bevorzugt, die das verschlüsselte HTTPS Protokoll verwenden, um mit ihren Nut­zern zu kommunizieren. Zum einen gab Google das in deren Blog offizi­ell bekannt (vgl. Bahajji und Illyes, 2014), zum anderen bestätigen es die Beobachtungen von Searchmetrics, die zeigen, dass die Zusammenhän­ge zwischen der Nutzung von HTTPS und der SEO-Sichtbarkeit unter­dessen signifikant sind. Einschränkend muss gesagt werden, dass die­ser Faktor von Searchmetrics erst seit 2015 betrachtet wird, da er vorher nicht als relevant galt (vgl. Tober u. a., 2015, S. 11). Aus Sicht von Goo­gle scheint das Vorgehen logisch, sorgt HTTPS doch für mehr Sicherheit beim Webseitenbesucher und damit zufriedenere Google-Nutzer, wäh­rend der Aufwand der Umstellung auf den Webseitenbetreiber fällt. Mit dem von Google ausgeübten Druck auf Webmaster, Seiten zu verschlüs­seln steigt sicher auch die Nachfrage nach Lösungen. Problematisch ist bisher vor allem die Tatsache, dass zur Nutzung von HTTPS kosten­pflichtige Zertifikate notwendig waren. Dies will das OpenSource Pro­jekt Let's Encrypt nun ändern. Hier sind kostenlose, selbsterneuernde Zertifikate möglich (vgl. Linux Foundation, 2016). Dies könnte die Ver­wendung von HTTPS vor allem im semiprofessionellen und privaten Bereich stark fördern.

Die Dateigröße einer Webseite an sich scheint kein Rankingfaktor zu sein - so sind kleinere Seiten nicht zwangsläufig besser gelistet als große (vgl. Tober u. a., 2015, S. 19). Dennoch gilt es, darauf zu achten, dass die Ladezeit sich dadurch nicht verschlechtert, denn diese ist durchaus von Bedeutung (vgl. Tober u. a., 2015, S. 21; Singhal und Cutts, 2010).

Um Webmaster dabei zu unterstützen, ihre Seiten möglichst schnell la­den zu lassen, betreibt Google sogar ein kostenloses Tool, welches die Messung der Seitenladezeit ermöglicht und direkt priorisierte Hinweise zur Optimierung gibt (vgl. Google, 2016j).

Anzeichen dafür, ob kürzere URLs einen positiven Einfluss auf das Ran­king haben, stellt Searchmetrics nicht fest - allerdings empfehlen sie, sprechende URLs zu verwenden, also reale Wörter und keine krypti­schen Kombinationen aus Buchstaben und Zahlen (vgl. Tober u. a., 2015, S. 22). Eine Begründung für diese Empfehlung erfolgt allerdings nicht. Zu einem ähnlichen Schluss kommt auch der deutsche Anbieter von Onpage-Optimierungs-Software OnPage.org, empfiehlt jedoch, die URL kürzer als 74 Zeichen zu halten. Diese Empfehlung basiert auf Fakto­ren wie der CTR. Google stellt in seinen Suchergebnissen URLs mit bis zu 74 Zeichen dar, ohne diese zu verkürzen, was nach Auffassung von OnPage.org mehr Vertrauen beim Suchenden hervorruft und damit die Wahrscheinlichkeit erhöht, das Ergebnis anzuklicken (vgl. OnPage.org, 2016d). Die Empfehlung von OnPage.org deckt sich mit den Erkennt­nissen der Studie von Searchmetrics: Hier liegen die Top 10 Ergebnisse im Schnitt bei 44,18, die Top 30 bei 48,30 Zeichen (vgl. Tober u. a., 2015, S. 22). Zu Problemen kann es bei mehr als 2.000 Zeichen kommen, da Browser dann eventuell nicht in der Lage sind, die URLs korrekt zu ver­arbeiten (vgl. OnPage.org, 2016d). Zum Vorhandensein von Keywords in der URL äußert sich Searchmetrics nicht, OnPage.org empfiehlt dies allerdings unter Berufung auf Google in begrenztem Ausmaß von ma­ximal drei bis fünf Schlagwörtern in einer URL mit dem Hinweis, dass mehr Keywords negative Folgen haben könnten (vgl. ebd.).

Im Bereich der technischen Aspekte einer Webseite lässt sich zusam­menfassend sagen, dass diese durchaus eine Bedeutung für SEO haben. Vor allem bei der Analyse von Searchmetrics zeigt sich, dass die meis­ten Seiten, die in den Suchergebnissen auf den ersten 30 Plätzen ange­zeigt werden, in diesem Bereich sehr gut optimiert sind. Der Bereich ist aus zweierlei Hinsicht von Bedeutung: Zum einen erleichtert ihre Pfle­ge gemäß Googles Vorstellungen das Indexieren durch die Software der Suchmaschine, zum anderen haben sie Einfluss auf das Verhalten der User, welches von Google gemessen wird und dann wiederum in das Ranking einfließt. Damit können sie sich direkt oder indirekt auf den Erfolg einer Webseite auswirken.

Content

Wird vom Content einer Webseite gesprochen, ist der Inhalt - also Text, Bilder, Videos und sonstige für den Nutzer sichtbare Elemen­te - einer Webseite gemeint. Diese spielen neben der Indexierung durch Suchmaschinen auch eine Rolle, wenn es darum geht, ob der Nutzer auf der Seite die gesuchten Informationen findet. Im Rahmen dieser Arbeit werden folgende Aspekte des Contents auf­grund ihrer guten Messbarkeit näher betrachtet:

- Wortanzahl des Textes
- Keyword in Description und Titel
- Länge von Meta Description und Titel
- Keyword-Häufigkeit im Text
- Hervorhebung von Keywords im Text durch Formatierungen

Bei der Zahl der Wörter in den Top Suchergebnissen lässt sich der Trend erkennen, dass die Menge des Textes auf den angezeigten Seiten wächst. Von 2014 auf 2015 hat sich die durchschnittliche Zahl der Wörter laut Searchmetrics von 746 Wörtern um ca. 10% auf 829 gesteigert (vgl. To- ber u. a., 2015, S. 40). Nicht möglich ist allerdings, hieraus den Schluss zu ziehen, dass mehr Inhalt gleichbedeutend mit besseren Ergebnissen ist. Auch die Qualität muss stimmen - wie Google Mitarbeiter John Müller auf eine konkrete Anfrage nach der Textlänge in einem Google Produkt­forum antwortete:

„There's no minimum length, and there's no minimum num­ber of articles a day that you have to post, nor even a mini­mum number of pages on a website. In most cases, quality is better than quantity. Our algorithms explicitly try to find and recommend websites that provide content that's of high qua­lity, unique, and compelling to users. Don't fill your site with low-quality content, instead work on making sure that your site is the absolute best of its kind." (Müller, 2014)

Es bleibt allerdings die Messung von Searchmetrics, dass ein gutes Ran­king mit mehr Text korreliert, weshalb die Länge des Textes nicht völlig außer Acht gelassen werden sollte.

Obwohl die Meta Description bereits im Bereich Technik angesprochen wurde, sollte sie gemeinsam mit dem Titel auch aus inhaltlicher Sicht betrachtet werden. Während das bloße Vorhandensein ein technischer Aspekt ist, fällt die textliche Gestaltung in den Bereich des Content. Hier stellt sich die Frage, ob das Vorhandensein von Keywords im Titel und in der Description einen positiven Einfluss auf das Ranking hat. Während Searchmetrics hier zu dem Schluss kommt, dass bei einer Häufigkeit von nur 50% das Vorhandensein von Keywords in der Description keine Rol­le spielt (vgl. Tober u. a., 2015, S. 41), erwähnt es Sistrix gar nicht bei der Anleitung zur Optimierung der Seitenbeschreibung (vgl. SISTRIX, 2016d). Auch der ehemalige Leiter des Google Web Spam-Teams Matt Cutts betont in einem Video, mit dem er auf eine Nutzerfrage antwor­tet, ganz klar, dass der wichtigste Punkt bei beiden die Zufriedenheit der Nutzer ist. Wird ein Ergebnis auf der SERP angezeigt, ist es wichtig, dass die Nutzer angesprochen werden und die Seite anklicken, also dass die CTR gut ist (vgl. Cutts, 2009b).

Bei der Länge von Titel und Description geht es wiederum um die An­zeige in den Suchergebnissen. Beide sind maßgeblich für die Anzeige auf der SERP verantwortlich. In Abb. 2.1 ist ein Ergebnis der Google SERP dargestellt. Die Überschrift (blau) generiert sich dabei häufig aus dem Titel, die zwei Zeilen unten (schwarz) aus der Description.

Abbildung in dieser Leseprobe nicht enthalten

ABBILDUNG 2.1: Darstellung Titel und Description in der SERP (eigener Screenshot vom 23.07.2016)

Während der Titel im Beispiel offenbar die richtige Länge hat, über­steigt die Description die von Google angezeigte Länge und wird hier abgeschnitten und mit drei Punkten ersetzt. Von Google selbst existie­ren weder Angaben zur Länge des Titels, noch der Description. Vor al­lem beim Titel empfehlen SEO-Unternehmen durchaus unterschiedliche Werte. Erschwert wird die Situation zusätzlich dadurch, dass diese teils in Zeichen, teils in Pixeln angegeben werden. Sistrix spricht von 55 Zei­chen ohne Leerzeichen bzw. 512 Pixel (vgl. SISTRIX, 2016b), Searchme- trics verzichtet auf die Angabe der Pixel und nennt ebenfalls die 55 Zei­chen, allerdings inkl. Leerzeichen (Searchmetrics, 2016b). OnPage.org gibt sogar 70 Zeichen an, allerdings eingeschränkt durch den Hinweis mit der absoluten Zahl an Pixel (vgl. OnPage.org, 2016c). Für die Länge der Description werden Werte zwischen 150 und 160 Zeichen empfohlen (vgl. Searchmetrics, 2016a; SISTRIX, 2016g).

Auch die Ergebnisse bezüglich des Vorkommens von Keywords im Text deuten darauf hin, dass eine reine Häufung eines Keywords im Text nicht hilfreich für SEO ist. So ist die Häufigkeit der Keywords auf den Webseiten der Top Suchergebnisse gesunken, obwohl die Zahl der Wör­ter gestiegen ist (vgl. Tober u. a., 2015, S. 42). Dies unterstützt die These, dass Google unterdessen immer größere Schritte hin zur qualitativen Be­urteilung von Texten macht, statt einfach nur einzelne Wörter zu zählen und die Webseiten nach deren Vorkommen zu ranken.

Für die Beurteilung der Wichtigkeit eines Keywords könnte es hilfreich sein, die in HTML verfügbaren Hervorhebungen, wie z.B. Fett- oder Kursiv-Schrift zu verwenden. Die Meinungen dazu, wie sehr Google diese Faktoren wertet, gehen allerdings auseinander, auch wenn Einig­keit darin besteht, dass zumindest die Aufmerksamkeit der Leser ge­lenkt werden kann, solange die Auszeichnungen nicht zu exzessiv ge­nutzt werden (vgl. Bellinger, 2012; Dziki, 2014).

Zusammenfassend kann über den Inhalt von Webseiten gesagt wer­den, dass immer höhere Ansprüche an die Qualität gesetzt werden und der Google Algorithmus diese immer besser bzw. zutreffender aus Nut­zersicht beurteilen kann. Google nutzt unterdessen Nutzersignale wie die CTR, um die reine Computeranalyse zu verfeinern und zu verbes­sern. Betreiber von Webseiten sind so immer mehr dazu angehalten, sich nicht in erster Linie damit zu beschäftigen, was Suchmaschinen mögen könnten, um Menschen auf ihre Seite zu bekommen, sondern müssen immer mehr Wert darauf legen, diejenigen zufrieden zu stellen, denen die Seite angezeigt wird bzw. die sie besuchen.

User Experience

Im Bereich der User Experience finden sich deutlich mehr Punkte als im Rahmen der Onpage-Analyse aus technischen Gründen be­trachtet werden können. Die bereits mehrfach angesprochene CTR lässt sich z.B. bei einer externen Analyse nicht messen, da hier Da­ten von Google notwendig wären, die nicht veröffentlicht werden. Die Auswahl wird deshalb beschränkt auf:

- Anzahl interner und externer Links
- Anzahl von Bildern und Videointegration
- Responsive Design bzw. Optimierung für Mobiltelefone

Die Zahl der internen Links einer Seite ist von durchaus missverständli­chem Charakter. Die Werte stiegen im Jahr 2015 zwar an, doch heißt dies laut Searchmetrics nicht, dass mehr Links ein erstrebenswerter Zustand sind. Links sollen dazu dienen, um wichtige Dokumente einer Webseite zu betonen und den Nutzer lange auf der Seite zu halten. Das Vorhan­densein an sich und vor allem in hoher Zahl ist kein SEO-Faktor (vgl. To- ber u. a., 2015, S. 25). Aus einem Google-Patent (vgl. Dean, Anderson und Battle, 2012) lässt sich eher ableiten, dass wenige Links, die prominent platziert sind und entsprechende Schlagwörter in ihrer Umgebung ha­ben, bedeutender wahrgenommen werden. Bei den ausgehenden Links, also Links zu anderen Webseiten, finden sich Angaben, dass eine Zahl von 100 nicht überschritten werden sollte (vgl. OnPage.org, 2016a), Matt Cutts von Google hat dies aber bereits 2013 negiert und empfiehlt „eine sinnvolle Zahl von Links ... die nicht nach Spam aus­sieht." (Cutts, 2013) Insofern kann davon ausgegangen werden, dass es nicht nachteilig ist, sich mit Links zurückzuhalten und sich auf das Wesentliche zu beschrän­ken.

Bezogen auf Rich Media in Form von Bildern und Videos lässt sich sa­gen, die Seiten, die Top Ergebnisse erzielen, beinhalten immer mehr Bil­der, während die Zahl der Videos zurückgegangen ist. Bei beiden ist wohl nicht das bloße Vorhandensein ausschlaggebend, sondern die Ver­weildauer der Nutzer auf der Seite, die dadurch verlängert wird. Bilder haben zusätzlich den Vorteil, dass die Seite neben der Textsuche auch über die Google Bildersuche gefunden werden kann und somit poten­tiell mehr Treffer erzielt. Es zeigt sich, dass ca. 90% der eingebundenen Videos in den Top Ergebnissen von der Google Tochter YouTube stam­men (vgl. Tober u. a., 2015, S. 25 f.)

Aufgrund der weltweit steigenden Internetnutzung über Mobiltelefone (vgl. Statista, 2016a) änderte Google seinen Suchalgorithmus dahinge­hend, dass Webseiten, die auch für Mobilgeräte optimiert sind, bevor­zugt angezeigt werden (vgl. Makino, Jung und Phan, 2015). Die Opti­mierung von Webseiten für Mobiltelefone macht für die Betreiber somit aus SEO- wie auch aus Kunden-Sicht Sinn. Recht klar zeigt sich in den Ergebnissen von Searchmetrics, dass der Anteil an Webseiten, die sich an die Bildschirmgrößen von Tablets und Mobiltelefonen anpassen unter den Top Suchergebnissen überdurchschnittlich hoch ist und Google die zuvor genannten Ankündigungen auch umsetzt (vgl. Tober u. a., 2015, S. 28).

Auch bei der User Experience zeichnet sich ein vergleichbares Bild ab wie bei den zuvor betrachteten Bereichen. Der Nutzer rückt in den Fokus und Google bewertet positiv, was diesem zuträglich ist bzw., ob dieser mit der besuchten Webseite zufriedengestellt wurde, soweit dies anhand der für Google ermittelbaren Daten messbar ist.

Bei der Betrachtung von SEO-Faktoren wird häufig eine große Menge von Schlagwörtern betrachtet, deren SERP-Ergebnisse dann analysiert werden. Dies ist auch in den bisher vorliegenden Studien von Search- metrics der Fall. Unterdessen schlägt der Anbieter aber einen anderen Weg ein und sieht Faktoren nicht mehr als allgemein gültig an. Laut Geschäftsführer Marcus Tober unterscheiden sich diese von Branche zu Branche. Erste Untersuchungen mit diesem Ansatz ergaben z.B., dass sich die Werte von Seiten mit guten Rankings durchaus stark vonein­ander unterscheiden - abhängig davon, ob diese thematisch z.B. im Be­reich Gesundheit, Shopping oder Finanzen angesiedelt sind. Dement­sprechend wird Searchmetrics seine Studien künftig anders aufbauen bzw. neben dem allgemeinen Überblick auch konkretere Werte für ein­zelne Branchen ermitteln und diese ebenfalls darstellen (vgl. Tober, 2016). Immer stärkeren Einfluss bei der Beurteilung der Ergebnisse gewinnen auch künstliche Intelligenz bzw. neue Möglichkeiten, die durch Machi­ne Learning entstehen. Für Google ist seit dem Jahr 2015 das sogenannte Rankbrain eine wichtige Technologie, mit der eingeschätzt wird, was der Nutzer sehen will (vgl. ebd.). Im Gegensatz zur sonstigen Verschwiegen­heit über Rankingmethoden erklärte Google Senior Research Scientist Greg Corrado offen, dass der Suchgigant unterdessen hunderte Leute beschäftigt, die Computern beibringen, nicht nur ihre Datenbanken nach Schlagwörtern zu durchsuchen, sondern wirklich zu verstehen, welche Bedeutung bzw. welchen Sinn die Anfrage für den Nutzer hat. Google macht also immer größere Schritte hin zu semantischem Verständnis - sowohl bei der Interpretation von Webseiten, die im Algorithmus lan­den, als auch bei der Interpretation der Anfragen. Dabei handelt es sich nicht mehr nur um Experimente - Rankbrain ist in vielen Sprachver- sionen der Suche bereits der drittwichtigste Rankingfaktor (vgl. Clark, 2015). Für Google könnte dies bedeuten, dass sie künftig noch besser mit den Suchanfragen umgehen können, die nicht alltäglich vorkommen oder für Computer in herkömmlichen Verfahren nur schwer zu verar­beiten sind. Es kommt durchaus vor, dass Anfragen gestellt werden, die vorher in dieser Form noch nicht da waren. In vielen Sprachen existie­ren mehrdeutige Begriffe (z.B. bank für Sitzgelegenheit und Geldinstitut), Umgangssprache, die sich auch innerhalb der Regionen und Generatio­nen unterscheidet, sowie dialogische Suche, also die Verwendung von Suchphrasen statt Schlagwörtern - bei all diesen Problemen unterstützt das Rankbrain dabei, die optimalen Ergebnisse zu liefern. Kulturell gese­hen liegt der bedeutendste Aspekt hier wohl in der Tatsache, dass nicht mehr die Ingenieure von Google darüber sinnieren, was die Nutzer mei­nen und wünschen könnten und dementsprechend Algorithmen entwi­ckeln, sondern dass beim Machine Learning die Rechner unterdessen in der Lage sind, dies anhand von Beispielen selbst zu erlernen und immer weiter zu verfeinern (vgl. Wells, 2015).

2.2.2 Nachrichtenwert-Theorie

Die Grundüberlegung hinter der Nachrichtenwert-Theorie besagt, dass ein Ereignis verschiedene Faktoren besitzen kann, welche es für die Be­richterstattung interessant machen. Je mehr dieser Faktoren es besitzt, desto intensiver und umfangreicher wird es sich voraussichtlich in der Berichterstattung wiederfinden. Durch den direkten Zusammenhang von Eigenschaft und Abdeckung in den Medien kann hier von einem Kau­salmodell gesprochen werden. Die einzelnen Faktoren, welche als Grund­lage der Beurteilung dienen, werden häufig als Nachrichtenfaktoren be­zeichnet (vgl. Staab, 1998, S. 49). Die Grundidee der Nachrichtenwert­Theorie wird dem amerikanischen Journalisten Walter Lippmann zu­geschrieben. In seinem Buch „Public Opinion" erwähnte er als Erster den Begriff News Value (vgl. Uhlemann, 2012, S. 114; Maier, Stengel und Marschall, 2010, S. 28). Auch in Europa wird das Thema seit den 1960er Jahren in unterschiedlichen Werken aufgegriffen (vgl. La Roche, 2013, S. 75 ff.; Östgaard, 1965, S. 40 ff.; Galtung und Ruge, 1965, S. 65 ff.). In der deutschen Publizistik sollte die Arbeit von Winfried Schulz nicht außer Acht gelassen werden, welcher den Katalog der Nachrichtenwert Faktoren von Galtung und Ruge nochmals überarbeitet und erweitert hat (vgl. Kepplinger, 2011, S. 61; Holtz-Bacha und Scherer, 1998, S. 19).

Als Hilfsmittel der Nachrichtenwert-Theorie dienen die Nachrichtenfak­toren. Diese haben an sich zwar keinen Nachrichtenwert, werden aber genutzt, um den Wert einer Nachricht zu bestimmen (vgl. Kepplinger, 2011, S. 61). Wie viele Faktoren Einfluss nehmen, hängt davon ab, wel­cher Theorie gefolgt wird. Verschiedene Modelle reichen von vier Fak­toren (vgl. Östgaard, 1965, S. 45 ff.) bis hin zu 19 Faktoren geordnet in sechs Gruppen (vgl. Schulz, 1982, S. 146).

Die einzelnen Faktoren müssen dabei allerdings nicht alle vorliegen, son­dern besitzen der Theorie von Galtung und Ruge nach einen komple­mentären Charakter, sodass eine besondere Bedeutung des einen die Er­mangelung eines anderen ausgleichen kann. Ebenso schreiben sie ihnen einen additiven Faktor zu, sodass eine Meldung größere Chancen hat, zur Nachricht zu werden, je mehr Faktoren vorhanden sind und sich er­gänzen (vgl. Galtung und Ruge, 1965, S. 72 ff.).

Als uneingeschränkt allgemein gültig und allumfassend können die Fak­toren, die den Wert für die Berichterstattung nach der Nachrichtenwert­Theorie ausmachen, jedoch nicht angesehen werden. So kann z.B. eine Tageszeitung andere Kriterien für die Berichterstattung haben als ein Wochenmagazin oder ein TV-Sender. Die Nachrichtenfaktoren können also abhängig von der Mediengattung abweichenden Nachrichtenwert aufweisen. Nicht zu vernachlässigen ist auch die subjektive Meinung der auswählenden Mitarbeiter in Redaktionen, die ebenfalls einen Einfluss auf die Auswahl hat. (vgl. Kepplinger und Bastian, 2000, S. 465). Unter­dessen gehen die Forschungen zur Nachrichtenwert-Theorie auch in die Richtung, dass nicht nur erklärt wird, weshalb gewisse Meldungen den Weg in die Medien geschafft haben. Es werden auch Versuche unternom­men, mithilfe der Nachrichtenfaktoren zu prognostizieren, welche Mel­dungen es schaffen werden, in die Medien vorzudringen und wie groß die Resonanz sein wird (vgl. ebd., S. 472 ff.).

Im Rahmen dieser Arbeit ist der Nachrichtenwert ein Kriterium bei der Auswahl der Texte, die als Grundlage der Analyse dienen. Neben dem Ziel, eine möglichst hohe Vergleichbarkeit herzustellen, wird bei der Aus­wahl darauf geachtet, Texte zu wählen die über einen möglichst niedri­gen Wert verfügen. So sollen verschiedene SEO relevante Rankingfakto­ren ausgeschlossen werden, welche im späteren Verlauf näher erläutert werden.

Kapitel 3 Aufbau der empirischen Analyse

3.1 Testschema zur Textauswahl

Um eine möglichst hohe Vergleichbarkeit der analysierten Texte sicher­zustellen, müssen diese gewisse Kriterien erfüllen, welche nachfolgend erläutert werden. Da die Betrachtung zum Ziel hat, Online-Plattformen mit dem Online-Auftritt klassischer Medien zu vergleichen, werden in dieser Kategorie ausschließlich Plattformen betrachtet, die rein online, also nicht in Print, Rundfunk etc., verfügbar sind. Zur effektiven Prü­fung und korrekten Dokumentation wird eine eigens erstellte Checkliste verwendet, welche sich in Anhang A befindet. Neben dem Namen des Anbieters, dem Titel sowie der URL des analysierten Artikels und dem Datum der Veröffentlichung bzw. letzten Nachbearbeitung, werden hier auch die Sprache und das Ursprungsland der Webseite festgehalten. Zu­sätzlich werden die später genannten Ausschlusskriterien geprüft, wo­bei hier das Zutreffen eines einzigen Punktes bereits zum Ausschluss des Artikels führt. Abschließend wird eine Beurteilung des Nachrichtenwer­tes durchgeführt, um sicherzustellen, dass auch in diesem Bereich eine Eignung für die Analyse vorliegt.

3.1.1 Aktualität und Nachfrage

Der Fokus der Analyse soll auf der langfristigen Positionierung von Tex­ten in Suchmaschinen liegen. Es ist also nicht Ziel zu betrachten, wel­cher Anbieter seine brandaktuellen Inhalte am besten positioniert, son­dern wer über einen längeren Zeitraum auch nach der Veröffentlichung in der Lage ist, von den Suchenden in den SERP gesehen zu werden. In der Tat betrachtet Google bei jedem Thema die Menge an Suchanfragen, sowie die neu verfügbaren Inhalte und tendiert dazu, bei aktuellen The­men die neuesten Inhalte priorisiert anzuzeigen. Eine Suchanfrage nach olympia bringt Ergebnisse der aktuellen Spiele, nicht der vergangenen, auch wenn die Jahreszahl nicht in der Anfrage enthalten ist. Ein Rezept für tomatensoße ist weniger zeitkritisch, weshalb dieser Teil des Algorith­mus hier nicht so stark eingreift (vgl. Singhal, 2011). Die Aussagen von Google (vgl Cutts, 2009a) zu diesem als Query Deserves Freshness (QDF) bezeichneten Algorithmus sowie die Interpretationen hierzu legen na­he, dass es bei entsprechender Aktualität durchaus möglich ist, auch als sonst nicht gut rankende Seite ohne langfristige SEO-Strategie kurzfris­tig auf die vorderen Positionen der SERP zu kommen (vgl. Altoft, 2007; SISTRIX, 2016c; Weltevrede, Helmond und Gerlitz, 2014, S. 135 ff.). Um noch näher am aktuellen Geschehen zu sein, hat Google auch das Ab­kommen mit dem Kurznachrichtendiest Twitter erneuert, welcher ih­nen direkten Zugriff auf die Schnittstellen bietet, sodass die Webseite des Dienstes nicht erst per Software eingelesen werden muss (gecrawlt). Tweets können so wenige Sekunden nach der Veröffentlichung schon Teil der Suchergebnisse sein, was gerade in Verbindung mit den Geo- koordinaten des Absenders deutlich ausgeweitete Möglichkeiten bietet, wenn es z.B. um Nachrichten aus einem Krisengebiet geht (vgl. Frier, 2015). Dies ist allerdings vor allem bei Webseiten beschränkt auf den Zeitraum einer gesteigerten Nachfrage und der gleichzeitigen Erman­gelung an anderem hochqualitativen Content. Um den Faktor Aktuali­tät auszuschließen, wird zu jedem Text bzw. Keywordset überprüft, ob derzeit ein aktuelles Ereignis vorliegt, welches das Ranking positiv be­einflussen und damit das Ergebnis verfälschen könnte. Beispiel für solch ein aktuelles Ereignis könnte z.B. sein, dass eine prominente Person eine neue Art von Diät ausprobiert. In diesem Fall würde diese Diät vermut­lich überdurchschnittlich stark gesucht werden.

3.1.2 Nachrichtenwert

Die Faktoren der Nachrichtenwert-Theorie werden herangezogen um ei­ne Beurteilung zu ermöglichen, ob neben der Aktualität noch weitere Faktoren eines Textes für eine große Relevanz sprechen könnten und so­mit die Nachfrage erhöhen. Dadurch könnte das langfristige Ranking stark von dem im Zeitraum der Analyse abweichen und damit die Er­gebnisse verfälschen, was durch den Ausschluss entsprechender Texte vermieden werden soll. Da das Ziel der Untersuchung nicht die Über­prüfung oder Beurteilung der Nachrichtenwert-Theorie ist und über den Umfang des Katalogs der Nachrichtenfaktoren in Europa im Gegensatz zu den USA keine Einigkeit in der Forschung herrscht (vgl. Staab, 1998, S. 50), werden für die Beurteilung die Nachrichtenfaktoren nach den Ausarbeitungen von Schulz (vgl. Schulz, 1982, S. 146) herangezogen. Wie bereits in Abschnitt 2.2.2 auf Seite 15 ersichtlich, beziehen sich viele For­scher auf die Arbeit von Schulz und nutzen sie häufig als Grundlage für eigene Interpretationen. Da es nicht Ziel der Arbeit ist, verschiedene Ansätze der Nachrichtenwert-Theorie zu vergleichen, wird hier deren häufig verwendete Basis als adäquate Ausgangslage angesehen, um ei­ne Beurteilung des Nachrichtenwertes der Texte anhand der folgenden Kriterien vorzunehmen.

Nähe

Allein durch die Auswahl deutschsprachiger Texte kann nicht au­tomatisch auf einen Bezug zu Deutschland ausgegangen werden. Beiträge, welche zwar auf Deutsch verfasst sind, sich aber aus­schließlich mit ausländischen Themen beschäftigen, wie z.B. über die Ernährung von indigenen Völkern in Südamerika, werden nicht in die Analyse aufgenommen. Beiträge zur Analyse müssen für ein deutschsprachiges Publikum räumlich oder kulturell relevant sein. Da ausschließlich Beiträge aus dem Bereich Ernährung analysiert werden, bedeutet Nähe hier auch, dass die Artikel in einem Zu­sammenhang zur Ernährung des Lesers stehen müssen.

Identifikation

Ähnlich wie auch beim Faktor Nähe, muss die zu analysierende Be­richterstattung für den Betrachtungsraum Deutschland bzw. den deutschsprachigen Raum Identifikationsmerkmale aufweisen. Le­ser aus dem Gebiet müssen sich und ihre Ernährungsgewohnhei­ten mit dem Artikel identifizieren können. Das kann z.B. in Form von Tipps zur richtigen Ernährung oder zur Aufklärung über Nah­rungsmittel geschehen, die im Zugriff des Lesers stehen.

Status

Die Beiträge sollen den Fokus auf dem Thema Ernährung haben. Es darf kein Nebenaspekt z.B. in einer Meldung über die Ernäh­rungsgewohnheiten einer prominenten Person sein, um das Ran­king nicht durch einen Promi-Faktor zu verfälschen. Gleiches gilt für einen großen Einfluss aus wirtschaftlicher oder politischer Sicht, z.B. bei der Berichterstattung über einen großen Konzern der Nah­rungsmittelindustrie oder Gesetzesänderungen.

Dynamik

Themen, die sich sehr schnell verändern und bei denen viele ak­tuelle Informationen dargestellt werden, bleiben bei der Analyse unbeachtet. Ein denkbares Beispiel wäre die Berichterstattung über einen Lebensmittelskandal oder die Rückrufaktion einer Produkti­onscharge eines Artikels durch den Hersteller, weil Verunreinigun­gen Gesundheitsschäden beim Konsumenten hervorrufen können. Trends und Themen, die über Monate oder Jahre aktuell sind, wie z.B. Vegetarismus und Veganismus werden hingegen nicht ausge­schlossen.

Valenz

Themen, die durch eine negative Wertigkeit bestimmt sind, wer­den per se nicht ausgeschlossen, doch muss betrachtet werden, ob hierdurch das Thema Ernährung als Hauptmeldung bestehen bleibt oder ob es in den Hintergrund rückt. So wäre ein Artikel über die langfristigen Gesundheitsschäden durch einseitige Ernährung denkbar für die Analyse, ein Bericht über systematische Verstöße gegen Hygienevorschriften in der Systemgastronomie eher nicht.

Zeit

Das Thema Ernährung begleitet den Menschen von Geburt an bis zum Tod und hat somit keine unmittelbare zeitliche Komponen­te. Themen können aktuell sein, wie z.B. Verunreinigungen in be­stimmten Nahrungsmitteln durch einen Produktionsfehler oder all­gemein gültig wie z.B. eine ausgewogene Ernährung. Die Auswer­tung fokussiert sich auf die Themen, welche eine langfristige Gül­tigkeit haben, um so den Einflussfaktor Aktualität (bzw. die Aus­wirkungen des QDF Algorithmus) auf das Ranking auszuschlie­ßen.

Bei der Beschreibung der Faktoren wurde Deutschland bzw. der deutsch­sprachige Raum als Gebiet der Analyse genannt, obwohl die Auswir­kungen der SEO-Faktoren ausschließlich auf die deutsche Seite Goo- gle.de betrachtet werden. Dies liegt daran, dass Google.de auch Ergeb­nisse anzeigt, die zwar in deutscher Sprache verfasst sind, sich aber auf Domains mit anderen Endungen als .de befinden, wie z.B. aus Öster­reich und der Schweiz, aber auch von Domains, die keinen unmittel­baren Rückschluss auf das Ursprungsland zulassen, wie z.B. .net oder .com. Ist der Text nicht in deutscher Sprache verfasst, ist dies allerdings ein Ausschlusskriterium. Denkbar wäre, dass Google bei einem Key­word wie vegan, welches in deutscher und englischer Sprache identisch ist, auch englische Texte anzeigt.

3.1.3 Journalistische Kriterien

Fraglich ist, ob es eine einheitliche Definition von Journalismus geben kann, sind die Facetten der Tätigkeit doch einfach zu umfänglich, um sie allgemeingültig zu erfassen. Die finale Entscheidung, ob ein Text journa­listisch ist oder nicht, hängt immer auch vom Zusammenhang ab, vor al­lem in den Grenzbereichen. Zudem ist es explizit nicht das Ziel der Ana­lyse, nur Werke zu betrachten, die journalistisch auf einem einheitlichen Niveau platziert sind, aber dennoch soll dieses Kriterium nicht außer Acht gelassen werden. Dementsprechend soll diese Überprüfung auch nicht dazu dienen, Texte nach verschiedenen Theorien bis ins letzte De­tail zu analysieren oder gar eine allgemein gültige Definition von Jour­nalismus zu erstellen, vielmehr soll aus Sicht der Konsumenten beurteilt werden, ob ein Text bei diesen am journalistischen Hintergrund Zweifel aufkommen lässt. Sie dient dazu, um z.B. Seiten heraus zu filtern, die of­fenbar Unwahrheiten verbreiten oder lediglich versuchen, Kunden zum Kauf von Produkten, wie Nahrungsergänzungsmittel etc., zu drängen. Als Basis der Betrachtung dient hier die Definition von Klaus Meier

„Journalismus recherchiert, selektiert und präsentiert Themen, die neu, faktisch und relevant sind. Er stellt Öffentlichkeit her, indem er die Gesellschaft beobachtet, diese Beobachtungen über periodische Medien einem Massenpublikum zur Verfü­gung stellt und dadurch eine gemeinsame Wirklichkeit kon­struiert. Diese konstruierte Wirklichkeit bietet Orientierung in einer komplexen Welt." (Meier, 2013, S. 14) Meier leitet daraus die drei folgenden Eigenschaften ab, die Journalis­mus auszeichnen (vgl. ebd., S. 14):

Neuigkeit

Die Nachricht liegt nur einen gewissen Zeitraum zurück, der ab­hängig vom Erscheinungsintervall des Mediums ist. Darunter fal­len allerdings auch Themen ohne konkreten Ereignisbezug, solan­ge der Gegenwartsbezug gegeben ist. Beim Thema Ernährung, das die Menschheit alltäglich begleitet, kann hier zwar oft nicht von ei­nem konkreten Ereignis gesprochen werden, dennoch ist das The­ma durch den anhaltenden Gegenwartsbezug nicht per se ausge­schlossen für eine journalistische Aufbereitung. Da Google wie zu­vor beschrieben ähnliche Faktoren in das sich stetig ändernde Ran­king einfließen lässt, eignet sich der gewählte Bereich Ernährung umso mehr für die Analyse nach dem geplanten Testschema, da hier journalistische Produkte vorhanden sind, das Ranking aber nicht durch Aktualität beeinflusst wird.

Faktizität

Journalismus ist keine Fiktion, das heißt, er bearbeitet reale Ereig­nisse mit überprüfbaren Fakten. Aufgabe des Journalismus ist es, diese Fakten zu betrachten und zu überprüfen. Dieser Punkt wird mit in das Prüfschema für Texte aufgenommen. Es wird dabei un­tersucht, ob eine Berufung auf Quellen stattfindet und deren Über­prüfung bzw. kritische Betrachtung ersichtlich ist.

Relevanz

Die Relevanz nennt Meier als Grundlage des Gesellschafts- und Publikumsbezugs des Journalismus. Sie ist dabei abhängig von der Bedeutung des Themas für die Zielgruppe des Mediums, aber auch für die gesamte Gesellschaft. Da Ernährung allgemein für die Ge­sellschaft ein relevantes Thema ist, wird hier die Relevanz für den Leser geprüft, indem der zu prüfende Text in Relation zu den ge­suchten Keywords gestellt wird. Die Frage dabei ist, ob der Text wirklich Informationen zu dem gesuchten Thema bietet oder nur aufgrund einer Fehlinterpretation der Suchmaschine oder eine Dop­peldeutigkeit des Begriffs in der SERP erscheint.

Die Frage, ob Journalismus im Internet überhaupt möglich ist, muss mit einem klaren Ja beantwortet werden - sind doch nahezu alle bekannten journalistischen Publikationen auch im Internet vertreten und teilwei­se sogar unter den ersten, die neue Möglichkeiten des digitalen Zeital­ters für ihre Zwecke nutzen. Ein eigener Kanal für Videos auf YouTube oder eingebettete Videos in Artikeln sind im Jahr 2016 keine Besonder­heit mehr, doch das Thema des Live-Videostreaming über Mobiltelefone kam 2015 zu neuer Beliebtheit, nachdem erst der Dienst Meerekat (vgl. Fiegerman, 2015) und danach Periscope (vgl. Twitter, 2015) online gin­gen. Hier war z.B. die Bildzeitung Vorreiter, die schon im September desselben Jahres umfangreiche Tests für den Einsatz von Periscope im journalistischen Alltag startete (vgl. Geisler, 2015).

Ebenso selbstverständlich ist aber nicht jede Publikation im Internet au­tomatisch Journalismus, nur weil dies möglich ist oder sie diesen Status für sich erhebt. Jeder Text, jedes Video, jeder Podcast oder welches auch immer aktuell und zukünftig verfügbare Format muss sich der Beurtei­lung stellen, ob die darüber vermittelten Inhalte den Kriterien der jour­nalistischen Berichterstattung gerecht werden können oder nicht.

Neben den beiden oben genannten, zumindest oberflächlich leicht zu beantwortenden Fragen eröffnen sich im Journalismus aber noch ganz andere Fragen und Blickwinkel für Medienhäuser, wie z.B. die Finanzie­rung im oder mit Hilfe des Internets. Während klassische Medien Erträ­ge aus dem bestehenden Geschäft haben, ist noch lange nicht abschlie­ßend geklärt, wie Online-Angebote in ausreichendem Maße zur Unter­nehmensfinanzierung beitragen können. Noch dringlicher stellt sich die­se Frage natürlich für Angebote, die rein online-basiert sind und nicht über eine Querfinanzierung verfügen. Ein gutes Beispiel aus Deutsch­land ist hierfür das Substanz Magazin1. Das von den Journalisten Georg Dahm und Denis Dilba im März 2014 gegründete und ausschließlich on­line erhältliche Magazin für Wissenschaftsjournalismus kann wohl in die Kategorie des Qualitätsjournalismus gezählt werden, geriet allerdings in finanzielle Schwierigkeiten und ist zum aktuellen Stand eingefroren (vgl. Dahm und Dilba, 2016). Ein Neustart ist geplant, aber nicht gesi­chert.

3.2 SEO-Analyseverfahren

Der umfangreichste Teil der Untersuchung betrachtet die Optimierung von SEO-Faktoren bei den ausgewählten Texten. Dementsprechend wird nachfolgend dokumentiert, welche Faktoren in die Betrachtung einflie­ßen und weshalb. Ebenso wird betrachtet und dokumentiert, welche Software zur Analyse zum Einsatz kommt.1

3.2.1 Verwendete SEO-Faktoren

Die Beschränkung auf Faktoren der Onpage-SEO wurde aus bestimmten Gründen getroffen. In der Tat ist es so, dass diese nur einen Teil des Ran­kings ausmachen, doch sind sie diejenigen, die vollends in der Hand des Contentproduzenten bzw. Webseitenbetreibers liegen. Andere Faktoren, wie insbesondere die Struktur der Backlinks, folgen anderen Regeln und sind nur mit sehr großem Aufwand zu erfassen, weshalb diese Grenze dem Umfang der Arbeit geschuldet ist. Die Ergebnisse der Arbeit kön­nen aber dennoch hilfreich sein, um zu zeigen, ob der Inhalt der Seite wieder mehr in den Fokus rückt und eine ordentliche Struktur hier wie­der mehr Bedeutung gewinnt, nachdem Backlinks einst das Maß aller Dinge darstellten. Konkret betrachtet werden folgende, teils bereits im Vorfeld beschriebene, Faktoren:

- Nutzung von HTTPS
- Optimierung für Mobiltelefone
- Anzahl der Keywords im Titel
- Länge des Titels
- Keywords in Meta Description
- Länge der Meta Description
- Summe der Wörter im HTML Body
- Häufigkeit der Keywords im Text der Webseite
- Länge der URL
- Keywords in der URL
- Summe der Links
- Defekte Links
- Dateigröße des Dokumentes
- Keywords in den H1- und H2- bis H6-Überschriften
- Hervorhebung von Keywords im Text durch Fett­oder Kursivschrift

Details zur Bedeutung der genannten Faktoren finden sich in Ab­schnitt 2.2.1 SEO-Faktoren ab Seite 6. Darüber hinaus werden aber noch weitere, nicht im Forschungsstand betrachtete Faktoren, in die Analyse aufgenommen:

Probleme bei der Verwendung von HTTPS

Neben dem Vorhandensein von HTTPS spielt auch die korrekte Implementierung eine Rolle. Probleme können hier in einer fehler­haften Umleitung von der unverschlüsselten auf die verschlüssel­te Version der Webseite liegen, aber auch schlicht in einem ungül­tigen Zertifikat. Zum einen führt dies dazu, dass Suchmaschinen einen Fehler erkennen und damit nicht davon ausgegangen wer­den kann, dass die Rankingvorteile für die entsprechenden Anbie­ter gültig sind. Hier muss eher von einem negativen Einfluss aus­gegangen werden. Zum anderen kommt eine indirekte Folge hin­zu. Browser wie Chrome oder Firefox warnen ihre Nutzer teilweise sehr nachdrücklich vor Webseiten, die zwar behaupten, sicher zu sein, bei der Überprüfung aber Fehler aufweisen.

Abbildung in dieser Leseprobe nicht enthalten

ABBILDUNG 3.1: Firefox-Meldung bei fehlerhafter HTTPS- Verbindung (eigener Screenshot 06.11.2016)

Da dieses Muster auch bei Betrugsversuchen vorkommt, gehen bei­de Browser hier automatisch von unredlichen Motiven beim Be­treiber aus und zeigen statt der Webseite eine Fehlermeldung an, die den Nutzer zu mehreren Klicks zwingt, um die Seite dennoch aufzurufen. Diese führen dazu, dass die Nutzer, die sich dafür ent­scheiden, die Seite nicht aufzurufen, schnell wieder zu Google zu­rückkehren und damit ein negatives User Signal setzen, was wie­derum negativ für die Seite ausgelegt wird. Aus diesem Grund ist zusätzlich zu der Empfehlung, HTTPS zu verwenden, unbedingt darauf zu achten, dass die Einbindung korrekt erfolgt ist und Zer­tifikate zu jeder Zeit Gültigkeit haben.

Korrekte Umleitung von www- und nicht-www-Version Webseiten können vom Webserver mit oder ohne das Präfix www ausgeliefert werden. Im Regelfall sollten sich Programmierer für eine der beiden Versionen entscheiden und Anfragen der jeweils anderen Variante auf die ausgewählte weiterleiten. Geschieht das nicht, existiert die Seite sozusagen doppelt im Netz, was dann in­ternem Duplicate Content entspricht, den es zu vermeiden gilt (vgl. SISTRIX, 2016a).

Besitzen die Bilder Alt-Texte und sind korrekt eingebunden? Zur Beschreibung von Bildern steht in der Auszeichnungssprache HTML der Alt-Tag zur Verfügung. Damit kann der Inhalt des Bil­des auch in Textform beschrieben werden. Suchmaschinen sind in der Lage, diese Tags auszulesen und Google verwendet sie neben dem Dateinamen des Bildes für die Darstellung in der Bildersu­che (vgl. Google, 2016c). Um Google die Indexierung zu erleichtern und über die Bildersuche zusätzliche Rankings und damit Besu­cher zu erreichen, sollten Bilder aussagekräftige Alt-Tags besitzen - idealerweise mit den gewünschten Keywords.

Vorhandensein von robots.txt

Die robots.txt Datei muss im Hauptverzeichnis einer Webseite lie­gen und exakt diesen Namen tragen. Ausnahmen jeglicher Art sind hier nicht möglich. Die Datei dient dazu, Suchmaschinen mitzutei­len, welche Bereiche der Webseite nicht indexiert werden sollen, wie z.B. Loginbereiche oder das Impressum (vgl. Google, 2016i). Dies kann dazu genutzt werden, um die Aufmerksamkeit der Such­maschinen von den Bereichen, die für den Anbieter nicht wichtig sind, wegzuleiten. Dadurch wird der Aufwand für Suchmaschinen beim Indexieren der Inhalte reduziert, es sichert aber auch, dass Nutzer nicht auf Seiten landen, die uninteressant sind und durch ein schnelles Verlassen der Seite die User Signale negativ beeinflus­sen.

Maschinenlesbare Sitemap

Wie auch die robots.txt Datei dient die Sitemap ausschließlich da­zu, Suchmaschinen Informationen mitzuteilen. Wichtig hierbei ist nicht nur das Vorhandensein der Datei an sich, sondern auch die klare Kommunikation mit Google und anderen Suchmaschinenan­bietern. Sie stellt eine komplette Übersicht der Seite in maschinen­lesbarer Form dar, die der Suchmaschine das Indexieren erleichtert und so deren Ressourcen spart (vgl. Google, 2016b; Jantz, 2012). Im Regelfall wird die Datei automatisch gefunden, wenn sie mit dem Dateinamen sitemap.xml im Hauptverzeichnis der Domain liegt, der Name kann aber auch in der robots.txt Datei vermerkt sein. Sollte beides nicht zutreffen, muss jeder Suchmaschine über eigene Programme der Anbieter mitgeteilt werden, wo sich die Datei be­findet. Bei Google wird hierfür das Tool Search Console verwendet. Der Aufwand für den Betreiber ist hier allerdings deutlich höher, da er jedem einzelnen Anbieter diese Information separat überge­ben muss.

Ist die Seite von der Indexierung durch Suchmaschinen gesperrt?

Neben einer Sperrung eines Dokumentes über die robots.txt oder Sitemap kann auch im oberen Bereich eines HTML Dokuments, dem sogenannten Head, eine Sperre eingetragen werden. Ist dies der Fall, sollten Suchmaschinen die Seite eigentlich nicht anzeigen, weshalb davon ausgegangen werden kann, dass solche Seiten nicht in den Ergebnissen von Google auftauchen und damit auch nicht Teil der Analyse werden. Dennoch wird der Faktor geprüft, um festzustellen, ob Google sich eventuell über die Anweisung hin­weggesetzt hat. Der Befehl wird oft verwendet, um eine Seite, die zwar schon erreichbar, aber noch nicht fertiggestellt ist, vor Such­maschinen zu verbergen, bis die Fertigstellung erfolgt. Gelegent­lich wird dann vergessen, den Tag zu entfernen, sodass er längere Zeit auf der Seite verbleibt.

Nicht komprimierte, minimierte und gecachte Elemente

Bereits angesprochen wurde die Bedeutung der Ladegeschwindig­keit von Webseiten. Da die Ladezeit von der Menge der zu über­tragenden Daten abhängig ist, empfiehlt es sich, die benötigten Ressourcen zum Aufbau der Seite komprimiert und minimiert zu übertragen (vgl. Baur, 2015). Die Komprimierung wird hier im Gzip Format durchgeführt. Dabei werden alle Dateien mit Kompression gespeichert und wenn der anfragende Browser Gzip unterstützt auch in diesem gepackten Format übertragen, was zu weniger Da­tenvolumen und damit einer kürzeren Übertragungszeit führt. Mi­nimierung bedeutet, unnötigen Programmcode schon vor dem Ver­packen zu entfernen, um so schon mit einer kleineren Ausgangsda­tei zu arbeiten. Eine weitere Möglichkeit, die Anfragen und über­tragenen Dateimengen zu reduzieren ist, sie per Browsercache für wiederkehrende Besuche im Browser des Nutzers abzulegen (vgl. Heijmans, 2016). Ruft ein Nutzer eine Seite innerhalb von vorgege­benen Abständen erneut auf, dann werden die benötigten Dateien nicht vom Server abgerufen, sondern aus dem lokalen Speicher ge­laden, was einen schnelleren Aufbau ermöglicht. Neben den Vor­teilen bei der Suchmaschinenoptimierung besteht der zusätzliche Vorteil für die Betreiber darin, dass der Server weniger belastet wird und so mehr Nutzer gleichzeitig bedienen kann, bis seine Ka­pazitäten erweitert werden müssen.

Keyworddichte

Aus der Zahl der Keywords im Dokument und der Gesamtsum­me an Wörtern lässt sich die Keyworddichte berechnen - also der Wert, wie viel Prozent des gesamten Textes aus Keywords besteht (vgl. OnPage.org, 2016b). Eine zu hohe Keyworddichte wird von Google allerdings nicht empfohlen, wobei konkrete Werte nicht ge­nannt werden. Liegt sie im Ermessen von Google zu hoch kann das als Spam ausgelegt werden, was zu Abstrafungen in Form von schlechteren Platzierungen oder sogar zum Ausschluss aus den Suchergebnissen führen kann (vgl. Google, 2016k). Da eine Mani­pulation des Wertes durch den Webmaster durch Veränderung der Webseitentexte äußerst einfach ist, wird allerdings vermutet, dass dem Wert durch Suchmaschinen keine große Rolle mehr beigemes­sen wird. Ein anderer unterdessen verwendeter Ansatz bei der Op­timierung der Keywords ist die sogenannte WDF*IDF Analyse, bei der ein Dokument mit anderen verglichen wird, die ebenfalls das Potential haben, relevant zu sein. Durch dieses Erhebungsverfah­ren soll die Relevanz optimiert werden, ohne für Suchmaschinen als spamrelevant zu gelten (vgl. OnPage.org, 2016e). Da die Ana­lysesoftware nach einem ähnlichen Verfahren und mit ähnlichen Werten wie bei WDF*IDF arbeitet, um den Wert Optimierungsra­te zu errechnen (siehe Abschnitt 4.3 auf Seite 47), wird eine ge­sonderte Betrachtung von WDF*IDF nicht durchgeführt. Das er­scheint unnötig, da bei der Errechnung der Optimierungsrate deut­lich mehr Faktoren einfließen. Als Vergleichsobjekte dienen hier die ersten zehn SERP-Einträge eines Keywords. Für diese Ergeb­nisse werden dann viele der bisher genannten Werte errechnet und für jeden einzeln ein Vergleich erstellt, wie gut die betrachtete Sei­te im Verhältnis zu den Mitbewerbern abschneidet und jeder Wert einzeln angegeben. Die Optimierungsrate stellt den Durchschnitt aller einzelnen Faktoren dar, womit eine sehr umfangreiche Kon­kurrenzanalyse möglich ist, welche die Keyworddichte berücksich­tigt, aber weit über die WDF*IDF Analyse hinausgeht. Die Key- worddichte fließt somit zum einen in die Betrachtung der Gesamt­optimierung ein, wird zusätzlich aber auch einzeln betrachtet.

Zur Dokumentation werden die erhobenen Faktoren in Berichten fest­gehalten und in digitaler Form angehängt. Für jede Webseite werden zwei Berichte erstellt. Zum einen wird dabei der zu betrachtende Text analysiert. Hier werden die für Einzelseiten relevanten, weil individu­ellen Faktoren, mit aufgenommen. Das sind z.B. Titel, Description und Wortzahl (siehe Anhang B, Seite 92). Zum anderen wird ein seitenwei­tes Audit durchgeführt, in dem die Faktoren Beachtung finden, die für alle Dokumente der Seite identisch sind, wie z.B. die Verwendung von HTTPS, die Optimierung für Mobiltelefone, aber auch robots.txt und Si­temap (siehe Anhang C, Seite 123). Die allgemeinen Daten werden dabei teilweise auf Basis einer Auswahl des Webseitencontents erhoben.

3.2.2 Verwendete SEO-Analyse-Software

Zur Erstellung der Analysen kommt die Software Website Auditor zum Einsatz, welche ein Teil der SEO Power Suite des weißrussischen An­bieters LinkAssistant.com ist. Begonnen haben die beiden Software-Ent­wickler Viktar Khamianok und Aleh Barysevich im Jahr 2004 mit dem Programm Link Assistant, es folgten weitere Tools und im Jahr 2008 wur­de das Softwareangebot um den Website Auditor erweitert.

Das Unternehmen gibt an, dass die SEO Power Suite über eine Milli­on Downloads verzeichnen kann und sie derzeit über 500.000 Kunden betreut (vgl. LinkAssistant, 2016b). Neben dem Funktionsumfang der Software, der sich mit vielen Lösungen auf dem Markt vergleichen lässt oder diesem nach eigenen Angaben sogar teils deutlich überlegen ist (vgl. LinkAssistant, 2016a), stellt es auch eine der günstigeren Lösun­gen dar, die auf dem Markt verfügbar sind. Zur Auswahl trug neben dem großen Funktionsumfang auch bei, dass die Software dem Autoren und Versuchsleiter aufgrund seiner beruflichen Tätigkeit im Bereich der Suchmaschinenoptimierung bestens bekannt ist und sie ohne Mehrkos­ten zur Verfügung stand.

Website Auditor geht zu Beginn der Analyse ähnlich vor wie Suchma­schinen. Nach Eingabe der Domain startet die Software einen sogenann­ten Crawl der Webseite, bei dem ein Computerprogramm (häufig Bot, Robot oder Spider genannt) allen internen Links der Webseite folgt und so alle erreichbaren Dokumente scannt und indexiert. Zusätzlich zu die­ser Suche wird die sitemap.xml der Webseite betrachtet und auf weite­re Dokumente abgesucht, die beim Crawl nicht gefunden wurden. Um ein möglichst vollständiges Bild der Webseite zu erstellen, werden zu­sätzlich die Indizes von Suchmaschinen nach Einträgen des Testobjek­tes durchsucht und zur Liste der zu analysierenden Seiten hinzugefügt. Nach dem Sammeln der Daten werden viele Faktoren wie Titel und De­scription für alle gefundenen Dokumente abgefragt, um Fehler zu fin­den. Hieraus resultiert der Bericht Site Audit (Anhang C). Einzelne Do­kumente können in einem weiteren Schritt gezielt auf die Optimierung nach einzelnen Keywords analysiert werden. Hierbei findet auch die er­wähnte vergleichende Betrachtung statt, bei der die Webseiten analysiert werden, welche die ersten zehn Suchergebnisplätze belegen (Anhang B). Dies ermöglicht eine Optimierung abhängig von den Werten der Kon­kurrenz und verringert das Risiko, die Seite so auffällig zu verändern, dass Google die Seite abstraft.

Dank der softwaregestützten Datenanalyse können viele der bekannten Onpage-SEO-Faktoren automatisiert und darüber hinaus sehr zuverläs­sig geprüft werden. Die Zeitspanne des Vorgangs ist hier allerdings re­lativ zur Größe der zu betrachtenden Webseite. Testobjekte mit vielen tausend Dokumenten können Laufzeiten von mehreren Tagen nach sich ziehen oder die Software überlasten. Diese Faktoren sind der Grund da­für, dass die Prüfung, wie im vorangegangenen Abschnitt erwähnt, auf eine Auswahl von Dokumenten beschränkt wird.

3.2.3 Erläuterung des Analyseverfahrens

Basis der Analyse sind fünf Keywordsets, bestehend aus je zwei Wör­tern oder Wortgruppen zum Thema Ernährung. Betrachtet werden reine Online-Portale, die zu beiden Keywords mit mindestens einem Ergebnis in den Top 50 Suchergebnissen von Google.de erscheinen. Sind für ein Keyword mehrere Ergebnisse derselben Seite auf der SERP sichtbar, so wird das besser positionierte gewählt. Die Anforderung, dass mit mehr als einem Text ein gutes Ranking erzielt werden muss, basiert auf der Annahme, dass so vermieden werden kann, einzelne Texte in die Aus­wahl aufzunehmen, die durch andere Faktoren, wie z.B. eine besonders starke Verbreitung in Social Media oder außergewöhnlich viele Back- links auf das eine Dokument, deutlich besser rankt als der Rest der Do­main. So sollen falsche Rückschlüsse von einem Dokument auf die Ge­samtheit der Webseite vermieden werden, um die Qualität der Ergebnis­se nicht zu kompromittieren. Bei der Abfrage der Keywords wird auch betrachtet, ob Ergebnisse von klassischen Medien in den Top 50 Such­ergebnissen erscheinen und festgehalten, an welcher Stelle diese posi­tioniert sind. Das jeweils am besten gerankte Ergebnis wird als Vergleich herangezogen. Da der Fokus der Untersuchung in der Konkurrenzfähig­keit der neuen Angebote liegt, gilt die Anforderung, bei beiden Suchan­fragen eines Sets in den Ergebnissen zu erscheinen, nicht für die Websei­ten der klassischen Medien. Nachdem eine Webseite mit demselben Text für beide Keywords innerhalb eines Keywordsets gerankt werden kann, ist es möglich, dass für ein Keywordset nur zwei Texte die Auswahlkri­terien erfüllen. Die Suche nach passenden Texten erfolgt manuell ohne Unterstützung von zusätzlicher Software, außer einem Browser. Der Ver­suchsrechner ist ein Apple Macbook Air, als Browser kommt Firefox in der Version 47.0 zum Einsatz. Als Datenschutzeinstellungen wurde fest­gelegt, keine Chronik und Cookies anzulegen und Webseiten werden an­gewiesen, Nutzeraktivitäten nicht zu verfolgen. Darüber hinaus kommt das Plugin Ghostery zum Einsatz, um weiteren Schutz gegen Tracking und Wiedererkennung zu gewährleisten. Hierdurch soll verhindert wer­den, dass Google mit Hilfe von eigenen Daten und denen von Drittan- bietern die Suchergebnisse anpasst und Klicks auf Portale nachhaltig das Suchergebnis verändern. Zugangspunkt zum Internet ist ein Anschluss des Anbieters Kabel Deutschland. Die softwaregestützten Analysen der Texte werden von einem anderen Computer (ebenfalls vom Hersteller Apple, Modell MacMini) und von einem anderen Internetanschluss (Vo­dafone) durchgeführt. Die Abfragen sollen so den größtmöglichen Grad an Neutralität aufweisen, um die Ergebnisse allgemein gültig zu ma­chen. Nachdem die Texte die Eignungsprüfung mittels Checkliste durch­laufen haben und als geeignet eingestuft wurden, werden sie nach oben beschriebener Methode analysiert. Sollte der Fall eintreten, dass bei ei­nem Keywordset mehrere Anbieter mit geeigneten Texten gelistet wer­den, kann die Zahl der Analysepunkte erhöht werden. Sie wird aller­dings auf acht Texte pro Keywordset begrenzt, damit einzelne Sets kei­ne zu große Verschiebung des Gesamtergebnisses nach sich ziehen. Es erfolgt die beschriebene Analyse der Texte, wobei auch hier nochmals betont werden sollte, dass sich diese teils auf eine angemessene Aus­wahl beschränkt und nicht immer komplette Seiten als Datenbasis ver­wendet, da vor allem bei den Seiten von Zeitungen mit umfangreichem Archiv mit den gegebenen Untersuchungsmethoden stellenweise nicht garantiert werden kann, dass eine komplette Betrachtung der Websei­te mit allen Dokumenten technisch möglich ist. Die daran anschließen­de Betrachtung der gewonnenen Ergebnisse erfolgt manuell anhand der Daten der Analysesoftware. Dabei wird jeder der genannten Faktoren einzeln betrachtet und bearbeitet. Die Kategorien online und klassische Angebote werden zusammengefasst, um einen Durchschnitt der Katego­rie zu erhalten. Als weitere Auswertungsmethode werden die einzelnen Faktoren auch grafisch in Relation zu den SERP-Positionen gesetzt, um eine weitere Möglichkeit zu erhalten, Auffälligkeiten zu erkennen. Um zusätzlich zu den einzelnen Werten auch einen Gesamteindruck zu er­halten und zu vergleichen, wird auch die errechnete Optimierungsrate, bei der alle Faktoren verrechnet werden, nach der gleichen Methode zur Analyse herangezogen. Zusätzlich zur beschriebenen Software kommt Microsoft Office für die Auswertung zum Einsatz. Als Hilfsmittel zur Keywordrecherche wird ein weiteres Online-Tool verwendet (siehe 3.4 auf Seite 34). Inhalte des Dienstes Google News sind von der Betrach­tung gänzlich ausgeschlossen. Da die Richtlinien des Dienstes Wert auf Aktualität legen, entsprechen die Ergebnisse nicht den geforderten Kri­terien für die Analyse (vgl. Google, 2016e). Die Aufnahme in Google News ist nur für Seiten möglich, die Nachrichten veröffentlichen, was Seiten, die sich allgemein und langfristig mit dem Thema Ernährung be­schäftigen ausschließt und so gerade den Webseiten von Tageszeitun­gen einen Vorteil gewähren würde, der in der Untersuchung nicht ge­wünscht ist.

3.3 Methodenkritik

Kritisch betrachtet werden könnte die Prüfung der Texte auf ihren jour­nalistischen Gehalt. In der Tat wird bei der Auswahl der Texte nur rudi­mentär geprüft, ob die zu analysierenden Texte Grundzüge journalisti­scher Elemente enthalten. Die Entscheidung hierfür fiel, da das Ziel dar­in lag, zu betrachten, ob die Möglichkeit besteht, sich bei einzelnen Key­words gegen etablierte Medien in Suchmaschinen durchzusetzen. Die Überprüfung dient damit lediglich dazu, sicher zu stellen, dass keine Texte verglichen werden, die z.B. der Fiktion entstammen. Eine alter­native Herangehensweise könnte darin bestehen, erst Online-Angebote zu definieren, die nach journalistischen Grundsätzen arbeiten bzw. als journalistische Angebote gesehen werden können und dann ausschließ­lich deren Texte zur vergleichenden Analyse zu verwenden. Bei diesem Ansatz der Untersuchung würden dann viele Texte eines Anbieters mit denen eines oder mehrerer Mitbewerber verglichen, um zu betrachten, wer online erfolgreicher ist. Hier würde sich allerdings eine engere Ko­operation mit dem Anbieter (oder sogar mit allen Vergleichsseiten) emp­fehlen, um z.B. auf Besuchsdaten und Optimierungsstrategien zugreifen zu können.

Für die Analyse der SEO-Faktoren findet eine Beschränkung ausschließ­lich auf die Onpage-Faktoren statt. Da neben diesen z.B. die Backlink­struktur, Signale aus sozialen Netzwerken und andere in das Ranking ei­ner Seite einfließen, kann die Arbeit keinen umfassenden Überblick über das gesamte Spektrum der SEO-Maßnahmen liefern. Auch neue Fakto­ren werden nicht erforscht. Das definierte Ziel ist es jedoch herauszufin­den, ob und inwieweit die (vor allem technische) Onpage-Optimierung eine Chance darstellt, sich in Suchmaschinen zu positionieren, weshalb dieser Bereich bewusst ausgewählt wurde und die Forschung bis hin zum Titel beeinflusst. Der Ansatz fokussiert sich auf einen Bereich, der aufgrund von Googles Fortschritt im Bereich Textanalyse und semanti­sches Verständnis wieder eine größere Bedeutung erlangen könnte und ist somit durchaus gerechtfertigt.

Verbleibt die Betrachtung der Analysesoftware bzw. die Beschränkung auf eine einzige Software zur Analyse der Daten. Der Markt bietet vie­le Angebote, die versprechen, eine Webseite für Suchmaschinen relevant zu machen. Grundlegend analysieren diese Lösungen aber ähnliche oder gar die gleichen Faktoren auf ähnliche oder gleiche Weise. Wichtiger als die Verwendung verschiedener Tools erschien es, eine möglichst hohe Vergleichbarkeit dadurch zu erzeugen, dass alle Texte identische Analy­sen erhalten. Andere Lösungen, die für eine Analyse dieser Größenord­nung nötig gewesen wären und das Problem der Analyse sehr umfang­reicher Seiten besser bewältigen könnten, sind allesamt cloudbasiert und berechnen die Kosten anhand der analysierten Domains und Dokumen­te. Dies hätte Kosten von teils mehreren tausend Euro pro Monat ver­ursacht, ohne dafür nennenswerte Vorteile für die Arbeit zu liefern. Die häufig vorzufindenden kostenfreien Tools werden entweder nach einer bestimmten Anzahl an Analysepunkten kostenpflichtig, was dann das gleiche Problem darstellt wie bei den erwähnten Mitbewerbern oder be­schränken die Analyse auf ein einzelnes Dokument ohne die Seite (oder eine definierte Auswahl) in Gänze zu betrachten. Zudem ist der Au­tor durch die Nutzung des Tools im täglichen Betrieb bestens vertraut mit dessen Handhabung und verfügt über einen entsprechenden Erfah­rungsschatz, was der Qualität der Ergebnisinterpretation zuträglich ist.

3.4 Festlegen der Keywordsets und Textauswahl

Wie bereits beschrieben, bestehen die Keywordsets aus jeweils zwei Key­words, die einen Bezug zum Thema Ernährung haben. Zur Unterstüt­zung bei der Recherche kommt das Online-Tool SEM Rush2 zum Ein­satz. Ein Keyword, und damit ein Themenschwerpunkt, wird frei ausge­wählt, woraufhin die Suchergebnisse betrachtet werden. Stellt sich her­aus, dass zu diesem Keyword eines oder mehrere Dokumente ranken, welche die gesetzten Kriterien erfüllen, dann wird mit Hilfe des Tools ei­ne Auswertung erstellt, welche Keywords für die Domain relevant sind. So können potentielle Keywords eingeschränkt werden. Eine Seite, die sich nur mit Sporternährung beschäftigt, wird z.B. für die Kombination sport essen gefunden werden, aber nicht für vegan backen. Die Auswahl der passenden Keywords, um das Set zu vervollständigen, erfolgt nicht durch die Software, sondern durch den Versuchsleiter, die Daten hel­fen lediglich bei der Entscheidung. Ohne die Nutzung einer Datenbank müssten die Daten manuell erhoben und ausgewertet werden, was im Rahmen der Kapazitäten und des Versuchszeitraums nicht möglich ge­wesen wäre.

3.4.1 Keyword sport essen und essen krafttraining

Betrachtet man die Anfragen bei Google zu diesen beiden Keywords, kann man feststellen, dass diese zwar periodisch schwanken und sich die absolute Zahl deutlich unterscheidet, Außergewöhnliches ist aber bei keinem der Keywords festzustellen.

Abbildung in dieser Leseprobe nicht enthalten

ABBILDUNG 3.2: Suchanfragen zu den Keywords sport es­sen (blau) und essen krafttraining (rot) (vgl. Google, 2016f)

Die erste Betrachtung der Suchergebnisse zeigt schnell, dass Google offenbar Probleme hat, dem Wort essen die richtige Bedeutung zuzuord­nen, so tauchen hier teilweise die gesuchten Ergebnisse zu Ernährung auf, teilweise allerdings auch Angebote aus der Stadt Essen. Bei die­sem Set rankt der Blog der Seite Original Bootcamp3 auf Platz vier bzw. 21. Beide Ergebnisse werden mit dem gleichen Text erzielt, der sich um die richtige Nahrungsaufnahme vor dem Training dreht4. Ebenfalls er­scheint Marathonfitness5 auf Platz 30 und bei essen krafttraining sogar auf Platz 13 und 14. Beide Male erscheint ein Beitrag6, welcher sich um die Ernährung vor dem Training dreht, zusätzlich noch ein Beitrag7 über Ab­nehmen durch Krafttraining. Alle drei Texte wurden mittels der Check­liste überprüft, sie erfüllten dabei keine Kriterien, die zum Ausschluss geführt hätten. Damit dienen beide als Textbeispiele für reine Online­Medien. Die Seite Frauenzimmer8 erscheint zwar ebenfalls bei beiden Keywords, wird allerdings trotz reinem Online-Auftritt nicht betrachtet, da es sich zum einen um eine von der RTL interactive GmbH betriebe­ne Seite handelt, zum anderen liegt sie mit Platz acht und 33 bei beiden Keywords hinter den Ergebnissen von Original Bootcamp. Andere Sei­ten, wie z.B. fin.de, das bei sport essen zweimal mit Artikeln zum Essen vor und nach dem Sport9 erscheint, erfüllen auf den ersten Blick viele Kriterien, sind aber nur bei einem der Keywords in den Top 50 der SERP.

Die Zahl der tagesaktuellen klassischen Medienangebote ist in den Top 50 mit je vier Ergebnissen und damit unter 10% relativ niedrig.

TABELLE 3.1: Tagesaktuelle klassische Medien beim Key-word sport essen

Abbildung in dieser Leseprobe nicht enthalten

TABELLE 3.2: Tagesaktuelle klassische Medien beim Key-word essen krafttraining

Abbildung in dieser Leseprobe nicht enthalten

Die in größeren Perioden erscheinenden Medien sind u.a. mit Focus, Spiegel und Men's Health vertreten und hier schafft es fit for fun sogar in beiden Fällen auf die erste Seite (Position eins10 11 und acht11). Aufgrund der guten Rankings für beide Keywords wird fit for fun als Vergleichs­text aufgenommen. Um auch ein tagesaktuelles Medium vergleichen zu können, wird zusätzlich ein Artikel von Die Welt12 in die Analyse mit aufgenommen. Die Analyse der Gesamtoptimierung der Webseite wird anhand einer Stichprobe der Kategorie Fitness im Ressort Sport durch­geführt.

3.4.2 Keyword vegetarisch und vegan

Bei den Suchanfragen zum Keyword vegetarisch sind, abgesehen von pe­riodischen Schwankungen, keine Auffälligkeiten festzustellen. Das Key­word scheidet damit nicht aufgrund besonderer Brisanz aus. Bei vegan lässt sich ein Trend zur Steigerung der Anfragen erkennen. Die Suchan­fragen in Deutschland haben sich im Laufe der letzten fünf Jahre ver­fünffacht. Der Anstieg fand in den Jahren 2011 bis 2014 statt, seither ist die Zahl relativ konstant. Daraus lässt sich folgern, dass das Interesse am Thema gestiegen ist und sich nun hält. Da hier kein offensichtliches aktuelles Ereignis vorliegt, ist der Anstieg damit kein Ausschlusskriteri­um.

Abbildung in dieser Leseprobe nicht enthalten

ABBILDUNG 3.3: Entwicklung der Suchanfragen in Deutschland zum Keyword vegan (blau) (vgl. Google, 2016g)

Bei beiden Keywords sticht die Seite des VEBU (Vegetarierbund Deutsch­land e.V.)13 geradezu heraus. Sie ist mit zwei unterschiedlichen Texten jeweils auf der ersten Seite vertreten. Bei vegan belegt sie Platz acht mit einem Bericht über Veganer und Vegetarier in Deutschland14, bei vegeta­risch erreicht ein Text über vegetarische Ernährung15 sogar den zweiten Platz der Suchergebnisse, direkt hinter Wikipedia auf dem ersten Platz. Die Seite ist kein rein journalistisches Produkt, es handelt sich um eine Informationswebseite, deren Texte allerdings teilweise nicht den journa­listischen Kriterien widersprechen, weshalb sie ins Ranking aufgenom­men wird. Vor allem der Text zu vegan kann durchaus als journalistisch betrachtet werden, was die Auswahl rechtfertigt. Auffallend war bei die­sem Set die Seite Vegpool16, die mit den Plätzen sieben und zwölf gute Ergebnisse erzielt, allerdings die journalistischen Kriterien nicht erfüllt. Zum Keyword vegan erscheinen keine klassischen Medien in den Top 10 Suchergebnissen (mit Ausnahme Google News). Das erste Ergebnis ist hier die Süddeutsche Zeitung auf Platz 1517 und auch bei vegetarisch ist die Süddeutsche Zeitung das am höchsten gerankte klassische Medi­um, mit Platz fünf18 sogar auf der ersten SERP-Seite. Beide Artikel dre­hen sich um entsprechende Restaurants. Insgesamt erscheinen bei vegan sieben, bei vegetarisch neun Medienangebote, die auch auf einem klas­sischen Vertriebskanal erhältlich sind. Trotz der Rankings der Süddeut­schen Zeitung wird beim Keyword vegan das Ergebnis von Essen und Trinken auf Platz 2319 für die Betrachtung verwendet, da der Text der SZ aufgrund vieler eingebundener Java Script Dateien große Probleme bei der Analyse verursachte bzw. nicht analysierbar war.

3.4.3 Keyword rohkost und der champignon

Sucht man nach dem Keyword rohkost erscheint die Startseite von Roh- kost.de mit der entsprechenden Keyword-Domain auf dem ersten Platz noch vor Wikipedia. Die Analyse der Seite und ein entsprechender Ab­gleich mit Google zeigt, dass sie auch für die Keywords wie macht man smoothies, der champignon und keimling gute Rankings erzielt, also bei je­dem dieser Keywords in den Top 50 Suchergebnissen zu finden ist. Aus diesen Möglichkeiten wurde der champignon ausgewählt (Platz 2320 ). Da es sich bei wie macht man smoothies um einen aus mehreren Wörtern zu­sammengesetzten Begriff handelt und die Seite bei der Suche alleine nach smoothies nicht in den Top 50 erscheint, fiel die Entscheidung gegen dieses Longtail-Keyword. Der Begriff keimling erschien erst vielverspre­chend, doch steht hinter rohkost.de die Keimling Naturkost GmbH, wel­che auch keimling.de, den zugehörigen Online-Shop, betreibt, weshalb die Gründe für das Ranking verschoben und damit nicht aussagekräf­tig sein könnten. Google Trends liefert für rohkost Daten bis zurück ins Jahr 2004, aus denen ersichtlich ist, dass die Suchanfragen erst zurück­gegangen sind und seit Ende 2009 wieder moderat ansteigen, wobei sie noch unter dem Spitzenwert liegen. Bezogen auf die letzten zwei Jah­re scheint die Tendenz eher rückläufig zu sein, die Zahl der Suchanfra­gen sinkt. Für das zweite Keyword der champignon liefert Google Trends keine Daten, was darauf hindeutet, dass die Anfragen generell niedrig sind. Beschränkt man sich auf champignon, so zeigen sich gleichmäßi­ge Suchanfragen auf niedrigem Level mit leicht steigender Tendenz. Bei den klassischen Medien erscheint jeweils ein Angebot auf der ersten Sei­te der SERP. Diese sind bei rohkost Essen und Trinken mit einer Über­sicht über Rezepte und Wissen zum Thema (Platz fünf21 ) sowie die taz (Platz acht22 ) bei der champignon mit einem Bericht über genmanipulierte Champignons. In Summe erscheinen bei den Anfragen acht bzw. sechs klassische Medien in den Top 50 Suchergebnissen.

3.4.4 Keyword richtige ernährung und ernährung umstellen

Um sich dem Thema Ernährung so weit wie möglich zu widmen, enthält dieses Keywordset zwei Kombinationen mit dem Wort Ernährung. Die Betrachtung der Suchanfragen via Google Trends zeigt, dass richtige er­nährung einen leichten Rückgang, ernährung umstellen eine leichte Steige­rung in der Nachfrage verzeichnen kann. Beim zweiten ist zu erkennen, dass in den ersten beiden Januarwochen 2016 erhöhte Suchanfragen bei Google eingegangen sind. Das Keyword wird deshalb allerdings nicht ausgeschlossen, da sich in diesem Zeitraum auch in den beiden Vorjah­ren Spitzen in der Statistik zeigen, wenn auch nicht so drastisch wie 2016 und der Zeitraum bereits acht Monate zurückliegt, in denen keine Auf­fälligkeiten zu verzeichnen waren.

In beiden Fällen erzielt das Zentrum der Gesundheit23 gute Rankings mit den Postionen eins und 15. Dabei wird in beiden Fällen derselbe Ar­tikel von Google angezeigt24. Wie bei Ergebnissen in anderen Keyword- sets handelt es sich hier nicht um ein reines Online-Medium, sondern um eine Webseite, die einen informativen Teil hat, dessen Texte allerdings die Kriterien für die Auswahl erfüllen. Von klassischen Medien erschei­nen zwölf bzw. zehn Ergebnisse, davon für den Vergleich ausgewählt

Abbildung in dieser Leseprobe nicht enthalten

ABBILDUNG 3.4: Entwicklung der Suchanfragen in Deutschland zum Keyword ernährung umstellen (blau) (vgl. Google, 2016h)

wurden fit for fun (Platz zwei bei richtige ernährung25) und EatSmarter! (Platz eins bei ernährung umstellen25 26

3.4.5 Keyword gesund kochen und diäten

Auch in diesem Keywordset zeigen sich Schwankungen am Jahresan­fang. Für gesund kochen gehen die Google Trend Daten bis ins Jahr 2004 zurück und die höchsten Spitzen in den Suchanfragen ergeben sich fast ausschließlich im Monat Januar. Beim Keyword diäten sind die Ausschlä­ge noch extremer, folgen aber dem gleichen Muster. Wie schon bei richti­ge ernährung scheint dies an den Jahreswechsel und die damit verbunde­nen guten Vorsätze geknüpft zu sein, weshalb die Keywords für eine Be­trachtung geeignet sind. Als reines Online-Angebot kommt bei diesem Set nur das Gesundheitsportal lifeline27 in Betracht. Es belegt mit einem Artikel über Amaranth und mit einer Diäten-Übersicht Platz 31 bzw. zehn28 in den Suchergebnissen und erfüllt die Kriterien auch anderwei­tig. Einschränkend muss erwähnt werden, dass die Seite von der Gong Verlag GmbH betrieben wird und damit theoretisch einen Ursprung in den klassichen Medien haben könnte. Es handelt sich hier allerdings um ein Online-Portal, welches nicht offensichtlich auf eine klassische Publikation hinweist, weshalb es in die Auswahl aufgenommen wird. Die Seite zum Thema Diäten ist im Vergleich der bisherigen Ergebnis­se eher eine Ausnahme. Sie stellt nur eine Übersicht in Listenform dar und beinhaltet kaum zusammenhängenden Text, dennoch erscheint sie für das entsprechende Keyword auf der ersten Seite der SERP. Fraglich ist, ob dieses eine Dokument als journalistisch angesehen werden kann. Ein Mangel würde zum Ausschluss des Dokumentes führen, woraufhin die Seite an sich die Voraussetzungen nicht mehr erfüllen würde. Da die Texte, die in der Liste verlinkt sind, die Kriterien erfüllen, bleibt die Seite allerdings in der Auswahl. Bei diesem Keywordset sind die klassischen Medien am stärksten in den Suchergebnissen vertreten. Es erscheinen 13 bzw. 15 Angebote, davon sechs bzw. vier auf der ersten Seite. Auf­grund der vielen Ergebnisse werden hier jeweils die ersten zwei Ergeb­nisse analysiert. Diese sind für gesund kochen Essen und Trinken mit einer Übersichtsseite (Platz zwei29 ) und die Startseite von EatSmarter! (Platz drei30 ), bei diäten Focus mit dem Artikel über den Test von 55 Diäten (Platz eins31 ) sowie fit for fun mit einem Diätenvergleich (Platz zwei32 ).

Kapitel 4 Auswertung der Analyse

4.1 Analyse der Ergebnisse

Alle als Versuchsobjekte genannten Dokumente wurden nach dem be­schriebenen Prüfschema analysiert. Dabei wurde bei einigen Seiten aller­dings nicht die Seite in ihrer Gesamtheit betrachtet, da dies mit den tech­nischen Mitteln nicht möglich war. Viele der ausgewählten Versuchs­objekte beinhalten mehrere Hunderttausende, teilweise sogar Millionen von Einzeldokumenten, was die Analyse mit den gegebenen Mitteln an zeitliche und technische Grenzen brachte. Diese Anhäufung ist nicht nur bei Zeitungen aufgrund des Online-Archivs zu finden, sondern tritt z.B. auch bei Original Bootcamp auf. Die Seite ist eine Community Plattform, auf der viele Kurse in deutschen Städten angeboten werden, was eben­falls zu einer immensen Menge an einzelnen Dokumenten führt. Dementsprechend wurde für jede Domain eine sinnvolle Auswahl ge­troffen, welche einen Schluss auf die Gesamtheit der Seite ermöglichen soll. Zusätzlich wurde die Tiefe der Analyse teilweise auf fünf bis zehn Klicks von der Ausgangsseite beschränkt. Aufgenommen in die Analyse wurden HTML-, CSS-, Java-Script sowie Bild-Dateien. Flash- und PDF- Dateien sowie unbestimmte weitere Dateitypen wurden ausgeschlossen. Die Einschränkung gilt nur für die umfangreiche Gesamtbeurteilung der Webseiten, nicht für die betrachteten Einzeldokumente. Jeder Artikel, welcher für die Auswertung herangezogen wurde, durchlief einen Check, auch wenn der Bereich der Webseite, in der er sich befindet, nicht in der Stichprobe enthalten war. Details zur Auswahl finden sich in Tabelle 4.1 auf Seite 43.

Die vollständige Tabelle, welche die Ergebnisse im Detail (seitenweit und für jedes einzelne betrachtete Dokument) enthält, ist in digitaler Form angehängt.

TABELLE 4.1: Auflistung der analysierten Webseiten­Bereiche

Abbildung in dieser Leseprobe nicht enthalten

4.2 Auswertung der SERPs

Das Prüfschema der empirischen Untersuchung hat hohe Hürden für die Aufnahme von Webseiten in die Analyse. Vor allem die Bedingung für Online-Angebote, bei beiden Keywords eines Sets zu erscheinen, schließt viele Seiten aus. Dementsprechend wurden weniger Kandidaten in die Auswahl aufgenommen und mittels Checkliste analysiert, um z.B. den journalistischen Aspekt zu untersuchen, als potentielle Ergebnisse nach einem anderen Schema vorhanden wären. Dennoch sollten die gewon­nenen Daten, namentlich die Übersicht der Top 50 Sucherergebnisse für insgesamt zehn Keywords, nicht völlig unbeachtet bleiben. Dies gibt ei­nen Ausblick auf größere Zusammenhänge über die reine Betrachtung von Onpage-SEO-Faktoren einzelner Webseiten hinaus.

4.2.1 Verhältnis der Ergebnisse

Betrachtet man ausschließlich die Positionen der analysierten Texte in der SERP, so werden die reinen Online-Medien im Schnitt auf Platz 13,3, die klassischen Medien auf Platz 6,1 und damit deutlich besser ange­zeigt. Eine Auswertung der gesammelten Daten nach diesem Muster ist aufgrund des Versuchsaufbaus allerdings nicht zu empfehlen. Das Aus­wahlverfahren bedingt, dass eine Seite zwar häufig für das erste Key­word eines Sets durch eine gute Position auffiel, bei dem zweiten Key­word dafür auf einem hinteren Platz in den Top 50 erschienen ist. So wird Original Bootcamp z.B. auf Platz fünf für sport essen angezeigt, für essen krafttraining aber nur auf Platz 21. Die Seite von Marathonfitness wurde nur als Vergleich aufgenommen und liegt in beiden Fällen hinter Original Bootcamp, was den Durchschnitt nochmals verschlechtert. Bei den klassischen Medien hingegen wurde im Regelfall das beste Ergebnis verwendet. Dementsprechend ist der Mittelwert nach dem verwendeten Analyseverfahren kein Beleg dafür, dass klassische Medien grundsätz­lich bessere Rankings erzielen.

Betrachtet man alle Ergebnisse der SERP, so erscheinen neben den ana­lysierten Texten bei allen Keywordsets noch weitere Angebote klassi­scher Medien in den Suchergebnissen. Hinzu kommen ebenfalls weitere Portale, die nicht den klassischen Medien entsprechen und ein reines Online-Informationsangebot darstellen. Darunter sind viele Blogs und (teils kommerzielle) Webseiten, welche dem Leser Tipps und Hilfestel­lungen zu den entsprechenden Keywords liefern. Dazu zählen unter an­derem, aber nicht ausschließlich, Wikis, Online-Shops, soziale Netzwer­ke, Foren oder Seiten für Nutzerfragen, sowie Webseiten von Unterneh­men. Alle Suchergebnisse wurden einer Sichtprüfung unterzogen, wobei die Kategorisierung als Online-Medium aufgrund des fehlenden Kriteri­enkatalogs hier nicht als valide angesehen werden kann. Als Grundlage dieser Auswertung dient daher nicht die Zahl der Online-Medien, son­dern die Zahl der klassischen Medien in den Top 50 Suchergebnissen, welche genau bestimmt wurde.

Eine tabellarische Übersicht der Häufigkeit von klassischen Medien in den Suchergebnissen befindet sich auf der nächsten Seite. Eine ausführ­lichere Liste mit einer Benennung aller Suchergebnisse findet sich, eben­falls in tabellarischer Form, auf einem digitalen Datenträger, welcher der Arbeit beiliegt.

TABELLE 4.2: Klassische Medien in den Top 50 Suchergeb­nissen, Teil 1

Abbildung in dieser Leseprobe nicht enthalten

Die Ergebnisse der ersten Seite gehen zwischen 0% und 60% zuguns­ten der klassischen Medien. Im Schnitt sind es 31%. Eine Tendenz ist hier nicht zu erkennen, da die klassischen Medien ebenso oft überwie­gen wie die reinen Online-Medien. Es gibt Keywords, bei denen keine klassischen Medien erscheinen, genauso wie solche, bei denen keine rei­nen Online-Medien in den Ergebnissen vertreten waren. Gleichermaßen hält es sich die Waage, welche Art auf der ersten Seite häufiger vertreten ist. Betrachtet man die ersten 50 Ergebnisse, ergibt sich ein weniger breit gestreutes Feld. Klassische Medien kommen hier immer vor, die Häu­figkeit liegt dabei zwischen minimal 12% und maximal 30%, im Schnitt sind es 20%. Da die Gesamtheit der Ergebnisse nicht nach festgelegten Kriterien untersucht wurde, lässt sich hier kein genaues Verhältnis von online zu klassischen Medien errechnen. Die oben beschriebene Sicht­prüfung legt aber nahe, dass bei den meisten Keywordsets die Informa­tionsportale den klassischen Medien, zumindest in der Zahl der Ergeb­nisse, überlegen sind. Damit kann hier festgehalten werden, dass anhand der SERP-Auswertung nicht festgestellt werden kann, dass Google klas­sischen Medien eine besondere Bevorteilung in den Suchergebnissen zu­kommen lässt.

4.2.2 Keywords in der Domain

Eine Überraschung stellt die Analyse dar, ob Keywords in der Domain oder Subdomain vorkommen. Bei Keywords, bestehend aus mehreren Wörtern wie ernährung umstellen, wurde auch das Vorhandensein eines der Begriffe als positives Ergebnis gewertet. Ausgehend von der ein­gangs beschriebenen Situation, dass Keywords in der Domain nicht als Rankingfaktor angesehen werden, war ein Ergebnis nicht abzusehen, bei dem der höchste Wert, den das Wort vegan erzielt, bei 68% liegt. Es folgen sport essen mit 40% und rohkost mit 28%. Die anderen Keywords konnten allerdings keine Werte über 20% erzielen. Stellenweise erscheint es so, dass eine gegensätzliche Korrelation zwischen den Keywords in einer Domain und der Zahl der klassischen Medien in den Suchergebnissen besteht. Vor allem bei den Keywords vegan, rohkost, richtige ernährung, ernährung umstellen, gesund kochen und diäten ist dies sichtbar. Hier er­scheinen entweder viele Domains mit Keywords und wenig Medien­seiten oder anders herum. Bei den Keywords sport essen und der cham­pignon ist die Tendenz allerdings kaum vorhanden. sport essen liegt so­wohl bei der Zahl der klassischen Medien im vorderen Feld, als auch bei der Zahl der Domains mit Keyword. Dies ist vermutlich der Tat­sache geschuldet, dass Google, wie erwähnt, nicht klar zwischen Nah­rungsaufnahme und der Stadt im Ruhrgebiet unterscheiden kann. Viele Sportvereine aus Essen erscheinen hier in den Suchergebnissen. Bei der champignon belegt eine Domain mit Keyword zwar die ersten drei Plätze, danach kommt der Begriff allerdings gar nicht mehr vor, es erscheinen eher Domains, welche den Begriff pilz beinhalten. Daraus lässt sich fol­gern, dass auffallend hohe Ergebnisse wie beim Wort vegan eher davon kommen, dass die Seiten aufgrund ihrer thematischen Spezialisierung und viel Text zum Keyword gelistet werden, nicht wegen des Vorkom­mens desselben in der Domain. Hier scheint es so, dass die Themenaus­richtung so weit geht, dass sie sich sogar in der Adresse der Webseite widerspiegelt, nicht dass die Domain beim Thema erscheint, weil sie ein Keyword beinhaltet. Auch beim Thema Pilze liegt ein ähnlicher Schluss nahe. Seiten, die sich nicht nur mit dem Champignon, sondern allgemein mit Pilzen, aber eben auch mit dem Champignon, beschäftigen, werden aufgrund ihres Inhaltes oder anderer Faktoren gelistet. Die Webseite des Bund Deutscher Champignon- und Kulturpilzanbauer (BDC) e.V.33, die sich ausführlich, aber ausschließlich dem Champignon widmet, steht an der Spitze der Ergebnisse. Die Ergebnisse sind damit zwar für einige Begriffe unerwartet, aber erklärbar und stellen in ihrer Gesamtheit des­halb keine Anhaltspunkte dar, um davon auszugehen, dass Google Web­seiten, welche Keywords in der Domain oder Subdomain haben alleine aufgrund dessen höhere Rankings zuordnet. Die Auswertung gibt da­mit keinen Anlass, die vorherrschende Meinung in Frage zu stellen. Die Gesamtübersicht der Domains mit Keywords befindet sich im Anhang D auf Seite 132.

4.3 Optimierungsrate nach Website Auditor

Bei der Analyse eines jeden Dokuments wird im Bericht an prominenter Stelle eine Optimierungsrate angegeben. Diese wird aus den verschiede­nen Faktoren ermittelt, die von der Software geprüft werden. Wichtig ist zu betonen, dass dieser Wert keinem international oder zumindest bran­chenweit einheitlichen Muster folgt, sondern im Regelfall von jeder Soft­ware durch einen eigenen Algorithmus festgelegt wird. Im Gegensatz zu einzelnen Werten kann die Optimierungsrate, der SEO-Score, oder wie auch immer ein Anbieter diese Kumulation nennt, nicht zwischen ver­schiedenen Softwares verglichen werden, da sich die Grundlagen der Berechnung unterscheiden. Bevor die einzelnen Faktoren detailliert be­trachtet werden, sollte geprüft werden, ob die Optimierungsraten, wel­che durch Website Auditor ermittelt wurden, vielleicht schon ein Indiz dafür sind, wie sehr sich die Onpage-Optimierung auf das Ranking in der SERP auswirkt. Hierfür wurden die beiden Werte im Diagramm in Abbildung 4.1 gegenübergestellt.

Abbildung in dieser Leseprobe nicht enthalten

ABBILDUNG 4.1: Verhältnis von Position in der SERP (X- Achse) zur Optimierungsrate (Y-Achse)

Hieraus lässt sich ablesen, dass 21 von 26 analysierten Dokumenten eine Optimierungsrate von über 50% aufweisen. Es scheint die Tendenz zu geben, dass eine höhere Optimierungsrate mit besseren Ergebnissen einhergeht, denn eine Konzentration der Messpunkte im linken oberen Quadranten ist ersichtlich. Im Bereich von über 50% Optimierungsra­te mit einer SERP-Position von 15 oder besser befinden sich 16 von 26 Messpunkten. Widersprüchlich sind allerdings die Ergebnisse, die au­ßerhalb dieses Bereichs liegen. So existieren sowohl Einträge, die bei guter Optimierung schlechte Ergebnisse erzielen, aber auch solche, die bei schlechter Optimierung dennoch gute Leistungen erreichen. Wün­schenswert für eine klare Aussage wäre hier eine offensichtlichere Kor­relation der Werte. Festzuhalten bleibt also, dass die Optimierungsra­te von Website Auditor durchaus als erstes Indiz genutzt werden kann, um eine Abschätzung zu geben, wie gut eine Seite für ein Keyword ge­rankt werden wird, dennoch ist es keine Garantie und kann nicht als einziger zu prüfender Faktor angewendet werden. Betrachtet man das Verhältnis von klassischen zu reinen Online-Medien, so zeigt sich kein großer Unterschied in den Optimierungsraten. Dieser liegt bei den rei­nen Online-Medien leicht erhöht bei 63,19% im Vergleich zu 57,32% bei den klassischen Medien.

4.4 Korrekte Umleitung von www- und nicht-www-Version

Die korrekte Einrichtung dieser Umleitung gehört zu den Grundlagen eines jeden Webmasters. Eine Webseite darf immer nur entweder mit oder ohne dem Präfix www im Netz existieren. Die jeweils andere Ver­sion wird auf die richtige umgeleitet. Dieser Fehler tritt selten auf, wird aber aufgrund seiner umfangreichen Folgen bei jeder SEO-Überprüfung betrachtet. Falsch eingestellt kann es dazu führen, dass Google die be­treffende Webseite stark in den Rankings reduziert, da es die Inhalte für Duplicate Content hält und diesen vermeiden will. Aufgrund dieses Ver­hältnisses von Aufwand zu Risiko wird gerade bei professionellen Web­seiten gewissenhaft darauf geachtet, die Umleitung einzurichten. Über­raschend ist deshalb, dass tatsächlich eine der betrachteten Webseiten diesen Fehler aufweist. Betroffen ist die Seite der Tageszeitung taz. Alle anderen betrachteten Angebote verfügen über eine korrekt eingerichtete Umleitung. Denkbar wäre der Rückschluss, dass Webseiten, die diesen Fehler aufweisen, von Google so sehr abgestraft werden, dass sie nicht in den Top 50 Suchergebnissen erscheinen, wobei dies wohl zu weit ge­griffen wäre. Die Auswertung unterstützt diese These allerdings, da die taz im Gegenzug zu anderen Medien nur ein einziges Mal in den Ergeb­nissen erscheint. Um die Vermutung zur Bedeutung dieses Faktors zu untermauern, würde es sich anbieten, mehrere Seiten zu finden, die die­sen Fehler aufweisen und diese mit ähnlichen Mitbewerbern zu verglei­chen. Alternativ könnte auch die Entwicklung der Rankings betrachtet werden, nachdem der Fehler behoben wird. Konkrete Schlüsse für die Fragestellung dieser Arbeit lassen sich aus dem Ergebnis nicht ableiten.

4.5 Nutzung von HTTPS und Probleme mit HTTPS

Der Großteil der analysierten Webseiten richtet sich nach den Wünschen von Google und nutzt bereits das verschlüsselte HTTPS-Protokoll statt dem unverschlüsselten HTTP. Nur die Seiten EatSmarter!, Rohkost und Lifeline verzichten auf den neuen Standard bzw. haben Probleme mit der Umsetzung. Betrachtet man das Spektrum, in dem sich die Ergeb­nisse dieser Seiten befinden, so zeigt sich eine Schwankung von Position eins bis 31, was keinen Anlass dazu gibt, Rückschlüsse zu ziehen, dass ein Verzicht auf HTTPS automatisch ein schlechtes Ranking zur Folge hätte. Das arithmetische Mittel der Ergebnisse unterscheidet sich also deutlich, so liegen die HTTPS-Ergebnisse im Schnitt bei einem Ranking von 9,2, die HTTP-Ergebnisse bei 11,5, was nahelegt, dass Google sei­ner Forderung auch Taten folgen lässt. So ist selbst die erste Position der Suchergebnisse möglich, im Schnitt schneiden die Seiten allerdings schlechter ab. Wie bei den zuvor betrachteten Fehlern in der Umleitung von www- und nicht-www-Version würde es sich anbieten, diesen Fak­tor im Rahmen der Umstellung einer Webseite von HTTP auf HTTPS und die daraus eventuell entstehenden Ranking-Änderungen zu unter­suchen. Mit diesem Versuchsaufbau könnte der Faktor isoliert betrachtet werden.

4.6 Optimierung für Mobiltelefone

Bei der Überprüfung auf die Optimierung für Mobiltelefone wurden bei der Seite Lifeline unterschiedliche Werte in Site und Page Audit ermit­telt. Das Site Audit, also die Überprüfung der Domain, ergab ein positi­ves Ergebnis, während die Betrachtung der zwei Texte im Rahmen des Page Audits negativ ausfiel. Im Rahmen einer manuellen Überprüfung (Android Smartphone) der beiden Dokumente zeigte sich keine Opti­mierung für Mobiltelefone. Zu diesem Schluss kommt auch der Goo­gle Mobile Friendly Test. Angemerkt werden sollte ebenfalls, dass eine Seite im Rahmen der Messung nur als für Mobiltelefone optimiert gilt, wenn sie ein sogenanntes responsive Design aufweist, sich also nahtlos an die Bildschirmgröße anpasst. Die Weiterleitung an eine ausschließ­lich für Mobiltelefone programmierte Seite, z.B. über eine Subdomain m.domain.de, gilt nicht als mobiloptimiert. Beide Kategorien von Web­seiten hatten jeweils zwei Anbieter bzw. Domains, die auf Mobilopti­mierung verzichten. Aus dem Pool der Testobjekte ergaben sich so ins­gesamt elf Texte, die nicht mobiloptimiert waren, die restlichen 15 der insgesamt 26 Testobjekte waren es. Das durchschnittliche Ranking der optimierten Seiten ist etwas besser, so liegt dieses hier bei 9,7 im Ge­gensatz zu 9,8 bei den nicht optimierten Seiten. In Summe deuten die Ergebnisse darauf hin, dass dieser Faktor keine große Rolle für die tat­sächlichen Rankings spielt.

4.7 Dateigröße des Dokuments

Bei der Erhebung der Dateigröße der Einzelseiten stieß das Analysepro­gramm bei drei Texten an seine Grenzen. Um dennoch Werte für die Analyse zu bekommen, wurde das Analysetool GTMetrix34 für die Ana­lyse der Dateigröße verwendet und die Ergebnisse mittels bekannten Vergleichswerten korrigiert. Betroffen waren die Dokumente von Ma­rathonfitness (zwei Dokumente) und Zentrum der Gesundheit (ein Do­kument).

Es zeigt sich, dass zwar der Großteil der Webseiten offenbar Wert darauf legt, die Dateigröße gering zu halten, immerhin liegen 17 von 26 Test­objekte unter 1.000 kb Dateigröße, dennoch verteilen sich die Ergebnisse über ein größere Bandbreite.

Abbildung in dieser Leseprobe nicht enthalten

ABBILDUNG 4.2: Verhältnis von Position in der SERP (X- Achse) zur Seitengröße in Kilobyte (Y-Achse)

Wie in Abbildung 4.2 ersichtlich, zeigt sich eine Konzentration von Messpunkten im Bereich der Top 5 Suchergebnisse mit einer Dateigröße von 500 bis 1.500 kb. Aufgrund des Auswahlverfahrens wurden Seiten mit gutem Ranking bevorzugt, was mehrere Einträge im Bereich der Top 5 erklärt, dennoch ist ersichtlich, dass viele Seiten mit geringerer Da­teigröße von Google auf schlechteren Plätzen gerankt werden. Ebenso werden Seiten, die sogar über 2.500 kb liegen, in den Top 10 Suchergeb­nissen gelistet. Betrachtet man die Dateigrößen von klassischen im Ver­gleich zu reinen Online-Medien so liegt die durchschnittliche Dateigröße bei den Online-Medien mit 945 kb um ca. 5% höher als bei den klassi­schen. Die Analyseergebnisse unterstützen damit die in Abschnitt 2.2.1 genannten Annahmen, dass die Dateigröße alleine keinen großen Ein­fluss auf das Ranking von Webseiten hat. Eine tiefergreifende Analyse könnte hier betrachten, worin die Unterschiede in der Dateigröße der einzelnen Seiten liegen und diese z.B. in Verbindung mit der Anzahl von Fotos und der Seitenladezeit setzen. Desweiteren könnte der Grund für das größere Volumen der Seiten darin liegen, dass diese einfach mehr Inhalt aufweisen, was einem guten Ranking zuträglich wäre. Eine Mes­sung der Ladezeit wurde im Rahmen der Analyse nicht durchgeführt. Als weitere Möglichkeit würde sich anbieten, diese zu messen. Es wird angenommen, dass Google mehr Wert darauf legt, wie schnell die Sei­te lädt, als darauf, wie groß sie ist. Mittels gut optimierten Webservern könnten es die Anbieter so schaffen, mehr Inhalte in ihre Seiten einzu­binden und dennoch schneller angezeigt zu werden als diejenigen, die zwar kleinere Seiten aber auch langsamere Server haben.

4.8 Nicht komprimierte, minimierte und gecachte Elemente

Die Ladezeit von Webseiten ist zum einen natürlich abhängig von der Verbindungsgeschwindigkeit von Server (Sender) und Client (Empfän­ger), aber auch von der zuvor besprochenen Seitengröße. Die Seiten wer­den dabei nicht als einzelne Dokumente übertragen, sondern aus ei­ner Vielzahl von Dateien wie dem HTML-Code, Design Anweisungen im CSS, Java Scripten, Bildern etc. Neben der Optimierung der Server­leistung bestehen deshalb noch weitere Möglichkeiten, um die Lade­geschwindigkeit einer Webseite durch Größenreduktion zu optimieren, wie z.B. das Komprimieren von Dateien (z.B. der Versand als Gzip-Datei), das Minimieren des Codes durch Entfernen unnötiger Abschnitte oder das Cachen von Bildern auf dem Client, sodass diese nicht bei jedem Sei­tenaufbau erneut übertragen werden. Die Analyse legt den Schluss nahe, dass die reinen Online-Medien mehr Wert darauf legen, diese Möglich­keiten auszunutzen bzw. die Webseiten schlanker zu halten. Im Schnitt treten hier nur 50 Fehler pro Dokument auf, bei den klassischen Medi­en sind es mit 77 über die Hälfte mehr. Ein Fehler wird dabei von jeder Datei erzeugt, bei der es möglich wäre, eine der vorher genannten Maß­nahmen anzuwenden, dies aber nicht geschah. Erstaunlich ist dies vor allem in Kombination mit der Beobachtung, dass die Seiten der Online­Medien im Schnitt größer sind. Eine direkte Korrelation zwischen den nicht optimierten Dateien und dem Ranking ist aber auch hier nicht er­sichtlich, wie Abbildung 4.3 deutlich zeigt.

Erkennbar ist, dass sowohl Seiten mit sehr wenigen Fehlern auf Spit­zenpositionen liegen, aber auch die Seiten mit den meisten Fehlern im Testpool erzielen teilweise Rankings in den Top 5 der SERP-Positionen. Dies gibt einen Hinweis darauf, dass Google diesen Faktor wirklich nicht oder nur minimal in das Ranking einfließen lässt. Zusammen mit den Ergebnissen zur Seitengröße bleibt festzuhalten, dass diese technischen Möglichkeiten genutzt werden sollten, um die Größe der Seite gering zu halten, sie aber keinen negativen Einfluss haben, falls sie nicht ausgereizt

Abbildung in dieser Leseprobe nicht enthalten

ABBILDUNG 4.3: Verhältnis von Position in der SERP (X- Achse) zur Summe der Dateien, die nicht komprimiert, mi­nimiert oder gecacht sind (Y-Achse) werden. Dennoch zeugt es von verlorenem Potential bei den klassischen Medien, denn diese könnten ihre Seiten vermutlich noch weiter in der Größe optimieren, als dies ohnehin schon geschieht.

4.9 Robots.txt und maschinenlesbare Sitemap

Da sich robots.txt und Sitemap auf die gesamte Webseite und nicht auf einzelne Dokumente beziehen, werden auch diese beiden Aspekte sei­tenweit betrachtet. Wie schon die Umleitung von www- und nicht-www- Version gehört der korrekte Umgang mit diesen beiden Dateien zum grundlegenden Handwerkszeug von Webseitenbetreibern. Viele CMS er­stellen eine oder beide Dateien sogar automatisch und halten sie ohne Zutun des Betreibers aktuell. Versagt das CMS in seiner Grundversion ist häufig die Nutzung von kostenfreien Plugins möglich. Dementspre­chend überrascht es nicht, dass ausnahmslos alle Seiten eine robots.txt Datei vorweisen können. Nur drei der betrachteten Webseiten hatten keine erkennbare Sitemap. Dies kann zum einen bedeuten, dass sie nicht vorhanden ist, lässt aber noch eine weitere Möglichkeit offen: Verwen­det der Betreiber keinen gebräuchlichen Namen und trägt diesen nicht in die robots.txt-Datei ein, ist es schwierig bis fast unmöglich, die Da­tei zu finden, obwohl sie eventuell existent und funktional ist. Dennoch kann Google auf die Seite zugreifen, wenn die Sitemap über die zuvor genannte Search Console an Google gemeldet wurde. Die Sitemap fehlt bei Focus, Original Bootcamp und der taz. Während die beiden Erstge­nannten bisher eher positiv auffielen (beide mobiloptimiert, beide Werte über 50% in der Optimierungsrate, Suchergebnisse in den Top 10 und bei Original Bootcamp auch die Nutzung von HTTPS), zeigte sich bei der taz schon bei der www-Umleitung ein Problem im Bereich der Sei­teneinrichtung. Ob daraus die Prognose abgeleitet werden kann, dass die Sitemap komplett fehlt oder nur über die Search Console gemeldet wurde, ist fraglich. Vielleicht ist das ein weiterer Aspekt, der zu den be­obachteten, eher schlechten Ergebnissen der taz beiträgt. Die beiden an­deren Webseiten legen aber den Schluss nahe, dass gute Rankings auch ohne Sitemap möglich sind. Im Rahmen der Betrachtung konnte aller­dings nur überprüft werden, ob es Indizien dafür gibt, dass bei einem Anbieter schon das Bereitstellen der Dateien scheitert. Eine umfangrei­che Inhaltsanalyse der Sitemaps war im Rahmen der Bearbeitung nicht möglich, könnte aber vorgenommen werden. Diese könnte aufzeigen, ob die Betreiber der Seiten die Dateien nicht nur bereitstellen, sondern auch mit dem richtigen Inhalt füllen. Zu prüfen wäre, ob wirklich alle Sei­ten, die online zugänglich sind auch in der Sitemap auftauchen. Denk­bar wäre ein Untersuchungsaufbau, in dem die Sitemap der einzige, sich ändernde Faktor ist und bei dem beobachtet wird, ob sich die Aufnahme oder der Ausschluss direkt auf das Ranking auswirken.

4.10 Ist die Seite von der Indexierung durch Suchmaschinen gesperrt?

Aus zwei Gründen war zu erwarten, dass keine der getesteten Seiten für die Indexierung durch Suchmaschinen gesperrt ist. Zum einen wird den Anbietern unterstellt, sie möchten, dass ihre Veröffentlichungen inde- xiert und gesehen werden, zum anderen wird angenommen, dass Seiten, welche gesperrt sind, beim angewandten Testschema nicht untersucht werden, weil sie nicht in den Top 50 Suchergebnissen vorhanden sind. Es zeigte sich allerdings, dass die Annahme falsch und die Betrachtung des Faktors durchaus sinnvoll war. So zeigt die Analyse, dass Artikel der Süddeutschen Zeitung via robots.txt oder dem speziellem no-Index­Tag auf der Seite teilweise von der Indexierung durch Google ausge­schlossen sind. Um Messfehler zu vermeiden, identifiziert sich die Ana­lysesoftware als üblicher Browser und nicht als SEO-Software, ebenso werden auch Seiten besucht, die für Suchmaschinen gesperrt sind. Zu­sätzlich wurde die Anfrage im Abstand mehrerer Tage wiederholt, um IP-Sperren durch zu viele Abfragen auszuschließen. Allgemein fällt bei der Betrachtung der Domain auf, dass viele URLs gesperrt sind. Eine ge­zieltere Überprüfung, wäre mittels Zugriff auf die Search Console mög­lich, dieser ist aber nicht vorhanden, was den Test ausschließt und hier zu der Annahme führt, dass tatsächlich eine Sperre und kein Messfeh­ler vorliegt. Dies legt den Schluss nahe, dass es durchaus vorkommen kann, dass Google Webseiten in den Index aufnimmt, die explizit for­dern, nicht aufgenommen zu werden. Dies offenbart einen Ansatz für weitere Untersuchungen, welche diese Möglichkeit gezielt auf die Probe stellen, um herauszufinden, ob Google sich wirklich über die Anweisung hinwegsetzt oder ob sie ausreicht, um Inhalte gezielt vor Suchmaschinen zu verbergen.

4.11 Länge der URL

Bei der Länge der URLs lassen sich keine Unterschiede feststellen. Klas­sische wie Online-Medien haben eine durchschnittliche URL-Länge von etwas über 67 Zeichen. Betrachtet man die einzelnen Ergebnisse, gibt es auch hier keine Besonderheiten. Dabei blieben 16 der Artikel unterhalb der Zahl von 74 Zeichen, welche als Obergrenze angesehen wird, damit die URL in den Suchergebnissen vollständig angezeigt wird. In der Tat erreichen elf Seiten, die diesen Wert unterschreiten, Top 10 Suchergeb­nisse, doch ist dies weniger als die Hälfte der analysierten Seiten. Die restlichen Seiten erreichen auch mit langer URL gute oder trotz kurzer URL schlechte Rankings. Damit kann auch über diesen Faktor gesagt werden, dass er sicher positiv zum Ranking beiträgt, mittelbar und wie zuvor beschrieben auch unmittelbar, doch kein Garant oder Ausschluss­kriterium ist, bezogen auf eine gute SERP-Positionierung.

4.12 Keywords in der URL

Bis auf die taz verwenden alle betrachteten Seiten sogenannte sprechen­de URLs. Bei der Analyse zeigte sich, dass bis auf zwei URLs alle das Keyword (bei zusammengesetzten Suchanfragen mindestens eines) oder zumindest ein Wort mit ähnlichem oder gleichem Wortstamm beinhalte­ten. Wie in Abschnitt 2.2.1 ausgeführt, kann davon ausgegangen werden, dass das Vorhandensein des Keywords in der URL kein Kriterium ist, oh­ne das eine Webseite nicht in den Suchergebnissen erscheint, denn Such­maschinen haben deutlich mehr Möglichkeiten, den Inhalt einer Web­seite zu beurteilen als nur deren Web-Adresse. Dennoch macht es den Eindruck, als wäre es von Vorteil, wenn sprechende URLs verwendet werden und diese zusätzlich noch das Keyword beinhalten, für das die Seite optimiert werden soll. Somit haben Suchmaschinen ein zusätzli­ches Indiz, um den Fokus der Seite klar zu erkennen. Nicht außer Acht gelassen werden sollten auch die Auswirkungen der Keyword-URLs auf andere Faktoren, welche das Ranking beeinflussen. Adressen, aus denen einem Leser klar ersichtlich ist, mit welchem Thema sich ein Artikel be­schäftigt, der in der SERP angezeigt oder in sozialen Medien geteilt wird, haben einen positiven Einfluss auf das Klickverhalten. Dies führt lang­fristig zu einer höheren CTR und mehr Likes und Shares, die als positive Signale interpretiert werden.

4.13 Anzahl der Keywords im Titel

Mit Ausnahme von drei Texten tragen alle Dokumente das gesuchte Key­word mindestens ein-, wenn nicht sogar zweimal im Titel. Dies ist ein weiteres Indiz dafür, dass die Seiten konkret für die Keywords optimiert wurden, bei denen sie in der Suche erschienen sind und dass Google das Vorhandensein der Keywords an entscheidender Stelle wirklich hono­riert. Dennoch liegen alle drei Texte, die kein Keyword im Titel tragen auf der ersten Seite der Suchergebnisse, was zeigt, dass auch der Mangel kein absolutes Ausschlusskriterium ist. Bei allen drei handelt es sich um Angebote von klassischen Medien, woraus sich zum ersten Mal in der Analyse der Schluss ziehen lassen könnte, dass die klassischen Medien bevorzugt werden und auch ohne Beachtung von Keywords im Titel gu­te Rankings erzielen können. Ebenso ließe sich das Ergebnis allerdings auch mit der konsequenteren Optimierung der reinen Online-Medien an anderer Stelle erklären. Eine finale Aussage ist hier also nicht möglich, dies liefert allerdings einen Anhaltspunkt für weitere Untersuchungen. Wie auch zuvor müsste der Faktor separat betrachtet werden. So könn­ten z.B. bei der Webseite einer Zeitung mehrere Artikel eines Ressorts teils mit, teils ohne Keyword im Titel veröffentlicht werden, um zu be­obachten, ob hier bei sonst ähnlicher Optimierung unterschiedliche Er­gebnisse zutage treten. Um für die Forschungsfrage relevante Ergebnisse zu erzielen, müsste dazu nach dem gleichen Schema ein Vergleich mit ei­nem reinen Online-Medium durchgeführt werden. Dies setzt allerdings die Zusammenarbeit mit mindestens zwei Anbietern voraus, die soweit gehen muss, dass diese aktiven Einfluss auf den Inhalt ihrer Seiten zu­lassen.

4.14 Länge des Webseitentitels

Betrachtet man die Anzahl der Zeichen im Titel der analysierten Websei­ten, so zeigt sich, dass die Titel bei den Online-Medien mit 53,2 Zeichen deutlich kürzer sind als bei den klassischen Medien, welche im Schnitt 79,9 Zeichen im Titel tragen. Beeinflusst wird dieses Ergebnis allerdings massiv durch einen Artikel der Seite Essen und Trinken, die mit 262 Zei­chen die Berechnung stark verschiebt. Lässt man diesen Messwert aus­sen vor, liegt auch der Wert der klassischen Medien deutlich niedriger bei knapp 60 Zeichen.

Abbildung in dieser Leseprobe nicht enthalten

ABBILDUNG 4.4: Verhältnis von Position in der SERP (X- Achse) zur Länge des Webseitentitels (Y-Achse)

Wie zuvor beschrieben herrscht keine Einigkeit über die optimale Län­ge des Titels, wobei 55 Zeichen, mit oder ohne Leerzeichen, Werte sind, die öfter genannt werden. Bei den analysierten Texten trugen zehn einen Titel, der kleiner oder gleich 55 Zeichen war, bei einer Ausweitung auf 60 Zeichen (angenommene fünf Leerzeichen) waren es zwei Seiten mehr, die in diesem Bereich lagen. Aus der Verteilung der Suchergebnisse, dar­gestellt in der Grafik in Abbildung 4.4, ist kein Wert ablesbar, ab dem sich die Suchergebnisse deutlich verbessern oder verschlechtern. Sogar die Seite, die 262 Zeichen im Titel trug, war in den Top 5 der Suchergebnisse zu finden, während andere, die unter der 55 bzw. 60 Zeichen Empfeh­lung lagen, nicht auf der ersten Seite erschienen. Damit unterstützt die Analyse die Behauptung von Searchmetrics, dass die Titellänge nicht un­mittelbar mit dem Ranking korreliert.

4.15 Anzahl der Keywords in der Meta Description

Bei der Zahl der Keywords in der Description der analysierten Seiten ist die durchschnittliche Zahl der Wörter bei den klassischen Medien mit 0,9 um die Hälfte höher als bei den reinen Online-Medien. Eine bessere Op­timierungsstrategie kann den vermeintlichen Internet-Spezialisten hier also nicht bescheinigt werden. Ebenso viele Seiten enthalten gar keine Keywords in der Description, wie bei den klassischen und falls sie wel­che enthalten, dann nur in niedrigerer Zahl.

Abbildung in dieser Leseprobe nicht enthalten

ABBILDUNG 4.5: Verhältnis von Position in der SERP (X- Achse) zur Zahl der Keywords in der Meta Description (Y- Achse)

Ein direkter Zusammenhang zwischen dem Vorhandensein von Key­words in der Meta Description und dem Ranking lässt sich nicht feststel­len, so erreichen fünf von insgesamt zehn Testobjekten ohne Keywords einen Platz auf der ersten Seite von Google, die anderen fünf verteilen sich auf die weiteren Seiten. Lediglich bei den Seiten, welche ein Key­word in der Description aufweisen, scheint es so zu sein, dass diese häu­figer auf der ersten SERP-Seite zu finden sind. Wie bereits beschrieben, liegt der Grund hierfür aber vermutlich nicht im reinen Vorhandensein des Keywords, sondern eher im Klickverhalten der Nutzer. Sehen die­se das Wort, nach dem sie gesucht haben, bei einem der Suchergebnis­se, vermuten sie eventuell eine höhere Wahrscheinlichkeit, das Gesuchte dort wirklich zu finden und klicken so vermehrt auf diese Ergebnisse, was die CTR erhöht und sich damit positiv auf das Ranking auswirkt. Es scheint sich also in der Tat weiterhin zu lohnen, das Keyword in der Description zu nutzen. Gepaart mit einem Call to Action kann es sich positiv auf das Ranking auswirken, wenn auch nur indirekt, was für das Ergebnis aber eine untergeordnete Rolle spielt.

4.16 Länge der Meta Description

Bis auf die Startseite von EatSmarter! legen alle Webseiten eine Meta Description fest und äußern so einen Wunsch, wie sie in Google ange­zeigt werden wollen. Wie eine zusätzliche Überprüfung der Seite er­geben hat, verzichtet EatSmarter! öfter auf die Description. Vor allem Übersichtsseiten weisen diese nicht auf, der analysierte Artikel hingegen beinhaltet sie. Dies deutet auf eine Fehleinstellung oder einen falschen Umgang mit dem Content Management System hin. Offenbar legen die Autoren der einzelnen Artikel durchaus Wert drauf, die Description zu bearbeiten und bereitzustellen. Bei den Seiten, die, wie bei Übersichtssei­ten üblich, vermutlich automatisch generiert werden, ist sie nicht explizit eingestellt. Dies lässt vermuten, dass EatSmarter! zumindest seine Auto­ren nach SEO-Aspekten schult, bei den Kontrollen der Seite allerdings nachlässig ist, da dies sonst sicher schon aufgefallen wäre. Mit Ausnah­me vom Zentrum der Gesundheit bleiben alle reinen Online-Angebote unter der empfohlenen Schwelle von 160 Zeichen, bei den klassischen Medien wird diese Hürde vier mal überschritten. Die durchschnittliche Länge der Description liegt hier bei 154 Zeichen, die Online-Medien wei­sen im Schnitt eine Länge von 187 Zeichen auf, allerdings fallen hier die beiden Dokumente vom Zentrum der Gesundheit mit je 460 Zei­chen sehr stark ins Gewicht. Entfernt man diese aus der Berechnung, so liegt der Schnitt bei 137 Zeichen. Hier zeigt sich, dass die reinen Online­Medien offenbar mehr Wert darauf legen, eine Description zu wählen, die sich innerhalb der empfohlenen Werte befindet und damit optimal angezeigt wird. Offensichtliche Auswirkungen auf die Suchergebnisse zeigen sich aber auch bei diesem Faktor nicht. Seiten mit deutlich höhe­ren Werten liegen durchaus auf den ersten fünf Plätzen, ebenso erreichen einige analysierte Objekte nur Plätze auf den hinteren Seiten, obwohl die Description eine angepasste Länge hat.

4.17 Titel und Meta Description sind Unikate

Theoretisch ließe sich noch überprüfen, ob der Titel und die Description einmalig auf der gesamten Webseite vorkommen. Um hier eine fundierte Aussage zu treffen, müssten allerdings alle Einzeldokumente der Web­seiten überprüft werden, was im ausgewählten Testschema nicht mög­lich war (siehe Tabelle 4.1 auf Seite 43). Dementsprechend lässt sich zwar feststellen, dass sowohl Lifeline als auch die SZ Duplikate in vierstelli­ger Höhe aufweisen, die anderen analysierten Seiten dagegen aber un­auffällig sind. Lediglich ein analysierter Text von Welt.de zum Thema Kraftsport hatte laut Untersuchungsdaten keinen einzigartigen Titel, bei den Meta Descriptions trat überhaupt keine Doppelung auf. Schlüsse auf eine Beeinflussung des Rankings lassen sich damit nicht ziehen.

4.18 Summe der Wörter im HTML Body

Die durchschnittliche Zahl der Wörter übersteigt sowohl bei den Online­Medien als auch bei den klassischen den Wert der Searchmetrics Studie. Die Texte bestehen aus über 3.600 bzw. über 1.500 Wörtern. Unter den Ergebnissen der Online-Medien befindet sich sogar ein Text mit annä­hernd 11.600 Wörtern. Rechnet man diesen heraus, senkt sich der Schnitt auf 2.173 Wörter, liegt damit aber immer noch fast um die Hälfte über dem der klassischen Medien. Es scheint also, als würden Medien, die ausschließlich online publizieren dazu tendieren, mehr Text zu schrei­ben, wobei dies auch historisch und technisch bedingt sein kann. Gerade Printmedien, die in der Auswahl stark vertreten sind, können Texte im Internet zweitverwerten, haben diese aber initial meistens mit konkreter, durch das Layout bestimmter Längenvorgabe erstellt. Ein Indiz dafür, dass die reine Menge an Text keine Garantie für gutes Ranking ist, zeigt sich klar in der Auswertung der Rankings. Nur in einem Fall schafft es ei­ner der Texte mit über 2.500 Wörtern auf einen Platz in den Top 10 Such­ergebnissen. Eine Aussage über ein Minimum an Wörtern im Text kann nicht getroffen werden, da selbst der kürzeste Text deutlich über 500 Wörter hatte, aber die Analyse unterstützt in Summe klar die Aussage, dass Text alleine kein Garant für ein Ranking ist, sondern Qualität immer wichtiger wird, um gute Rankings bei Google zu erzielen. Die Ergebnisse könnten auch dahingehend interpretiert werden, dass kürzere Texte kei­ne Chance haben, überhaupt in das Ranking aufgenommen zu werden. TV-Sender z.B. nutzen Videodateien für die Zweitverwertung im Netz und haben dazu häufig nur wenig Text zur Verfügung. Um hierüber ei­ne klare Aussage treffen zu können, müssten unterschiedliche Medien­gattungen auf ihre SERP-Rankings zu einem Thema überprüft werden. Um mehr über den Faktor im Allgemeinen zu lernen, könnten Websei­ten mit ähnlichem Stand bei Google genutzt werden, um zum gleichen Thema verschieden lange Texte zu veröffentlichen und anschließend die Ergebnisse zu vergleichen.

4.19 Häufigkeit des Keywords im Text der Webseite

Bei der Häufigkeit der Keywords in den analysierten Webseiten ähneln sich die beiden Arten von Medien erstaunlich. Die Online-Medien ver­wenden ein Keyword im Schnitt 17,8-mal, die klassischen 15,2-mal. Hier­bei weisen beide Kategorien allerdings Ausreißer auf, so kommen die Wörter richtige ernährung und ernährung umstellen beim Zentrum der Ge­sundheit 42-mal vor, beim fit for fun das Wort diäten sogar 69-mal. Rech­net man diese beiden Seiten aus dem Schnitt heraus, liegt dieser bei 13,5 bzw. 10,7. Die reine Häufigkeit der Keywords lässt dabei allerdings kei­nen Rückschluss auf das Ranking zu. Zwar erzielen die Seiten, die das entsprechende Wort häufig nutzen, teilweise gute Ergebnisse, aber auf der ersten Seite sind durchaus auch Artikel gelistet, welche das Wort nur wenige Male aufweisen. Erstaunlich ist vor allem die Seite EatSmarter!. Diese wird von Google für ernährung umstellen auf Platz eins und für ge­sund kochen auf Platz drei gelistet, wobei keine der Zielseiten diese exakte Kombination aus Keywords aufweist. Hier zeigt sich schon, wie bei der Länge der Texte, dass Google offenbar immer besser in der Lage ist, ver­wandte Wörter, andere Schreibweisen und Kombinationen zu verstehen und entsprechend eine Relevanz herzustellen und Texte zu interpretie­ren, statt nur stumpf einzelne Wörter zu vergleichen. Ein Indiz für eine Bevorzugung einer der Kategorien ergibt sich daraus allerdings nicht, denn auch Marathonfitness wird für essen krafttraining gelistet, ohne das Wort essen überhaupt im Text zu haben, wenn auch nur auf Platz 13.

4.20 Keyworddichte

Aus der Betrachtung der gesamten Wortzahl und der absoluten Zahl an Keywords alleine lässt sich ablesen, wie oft ein Keyword im Verhältnis zum Gesamttext vorkommt. Hierfür wurde aus diesen Werten zusätz­lich die Keyworddichte, also die prozentuale Häufigkeit der Keywords im Verhältnis zum Gesamttext berechnet. Dabei zeigt sich, dass das Zen­trum der Gesundheit mit seinen 42 Keywords nur eine vergleichswei­se niedrige Keyworddichte von 0,36% aufweist, vermutlich da es sich hier um den längsten Text mit knapp 11.600 Wörtern handelt. fit for fun mit 69 Keywords erreicht hingegen eine Dichte von 2,87%, was aller­dings nur dem zweithöchsten Wert entspricht. Überboten wird dieser Text nur von einem unterdurchschnittlich langen Text (867 Wörter) von Essen und Trinken, welcher 30-mal das Wort rohkost enthält und somit eine Keyworddichte von 3,66% aufweist. Bisher entstand der Eindruck, dass die Online-Medien sich bei den meisten Faktoren darum bemühen, gute Werte zu erzielen und das auch bei Faktoren, die als nicht mehr re­levant angesehen werden. Bei der Keyworddichte verhält es sich jedoch anders, denn diese liegt hier im Schnitt nur bei 0,82% im Gegensatz zu 1,02% bei klassischen Medien.

Der niedrigere Wert bei den Online-Medien erscheint umso außerge­wöhnlicher, da sich bei der Betrachtung der Ergebnisse zeigt, dass die Seiten, die einen Wert von über 1,5% aufweisen, ausnahmslos auf der ersten Seite gelistet werden. Seiten mit einem Wert von unter 1% sind in allen Bereichen der SERP anzutreffen, was darauf hindeutet, dass Goo­gle sich von einem hohen Wert immer noch beeindrucken lässt. Allei­ne aufgrund der Angaben von Google, dass ab einem gewissen Wert Spamming angenommen wird, was zu Abstrafungen führt, ist klar, dass dieser Effekt nicht unbegrenzt steigerbar ist, dennoch legt das Ergebnis

Abbildung in dieser Leseprobe nicht enthalten

ABBILDUNG 4.6: Verhältnis von Position in der SERP (X- Achse) zur prozentualen Keyworddichte (Y-Achse)

den Schluss nahe, dass dieser Faktor bei der Optimierung einer Web­seite immer noch nicht außen vor gelassen werden kann. Da auch der höchste Wert offenbar noch nicht in den Bereich Spamming fällt, wäre eine Untersuchung möglich, ab wann Google hier wirklich anfängt, Sei­ten schlechter zu bewerten. Neben diesem quantitativen Ansatz bietet sich gerade im Bereich der Medien auch an, der Frage nachzugehen, ab welchem Wert sich die Keyworddichte negativ auf die Qualität und die Lesbarkeit des Textes auswirkt. Hier kann es dazu kommen, dass Nutzer die Seite meiden oder schnell wieder verlassen, wenn sie mit dem vor­gefundenen Ergebnis nicht zufrieden sind, was sich als schlechtes User Signal wiederum nachteilig auf das Ranking auswirken kann. Zusätzlich kann es sich negativ auf das Image des Anbieters auswirken.

4.21 Summe der Links im Dokument

Bei der Analyse der Links wurde die absolute Anzahl betrachtet. Eine Bewertung nach Linktext und Zielseite fand nicht statt, da dies bei den insgesamt über 6.800 Links im Rahmen der Arbeit nicht möglich war. Es zeigte sich, dass die klassischen Medien mehr Links auf ihren Seiten ha­ben. Im Schnitt sind es 277,5 im Vergleich zu 246,2 Links bei den reinen Online-Plattformen. Wie zuvor gezeigt, gibt es keine Grenze für Links, Empfehlungen gehen aber eher davon aus, dass die Zahl nicht zu hoch sein sollte. Die von SEO-Analysten empfohlene Grenze (Website Auditor und OnPage.org empfehlen maximal 100 Links) überschreiten beide Ty­pen von Webseiten zumindest im Schnitt. Bei den Online-Medien sticht erneut das Zentrum der Gesundheit heraus, welches 780 Links auf dem Dokument aufweist. Nimmt man dieses aus der Durchschnittsberech­nung heraus, sinkt dieser drastisch auf 149,2 und liegt damit nur noch die Hälfte über dem empfohlenen Wert und nicht beim fast 2,5-fachen. Die höchsten Werte bei den klassischen Medien sind auf der EatSmar- ter! Startseite (543) und im Focus (425) zu finden. In der Verteilung der Rankings zeigt sich kein Hinweis darauf, dass viele Links dem Ranking schaden würden. Alle Seiten in der Analyse, die über 300 Links beinhal­ten, sind mit einer einzigen Ausnahme in den Top 5 Suchergebnissen. Einzig das Zentrum der Gesundheit, welches zweimal mit demselben Text aufgefunden wurde, erreicht mit seinen 780 Links einmal die ers­te und einmal die 15. Position. Die Auswertung deutet also eher darauf hin, dass entgegen der Empfehlung von Suchmaschinenoptimierern vie­le Links positiv für das Ranking sind. Der Rest der Ergebnisse verteilt sich in einem ähnlichen Muster wie bei den bisher betrachteten Fakto­ren.

4.22 Defekte Links im Dokument

Die reinen Online-Medien haben nicht nur weniger Links in ihren Do­kumenten, sie geben sich auch mehr Mühe mit der Wartung. In keinem der analysierten Texte wurde auch nur ein einziger defekter Link gefun­den. Ihre Zahl hält sich auch bei den klassischen Medien größtenteils in Grenzen, doch weisen bis auf drei Seiten alle defekte Links auf. Meistens ist es nur ein einziger, doch EatSmarter!, eine der Seite mit vielen Links, weist auf der Startseite insgesamt 14 defekte Links auf. In der Analyse ist keine Auswirkung von defekten Links auf das Ranking ersichtlich. Die beiden Dokumente mit den höchsten Werten von sechs und 14 defek­ten Links sind bei den Keywords auf den ersten fünf Plätzen bei Google gelistet. Das Ergebnis deckt sich damit mit den Aussagen von Google, nach denen defekte Links sich im Regelfall nicht negativ auf das Ran­king auswirken (vgl. Google, 2016d). Nichtsdestotrotz empfiehlt es sich, auf defekte Links zu achten, denn auch wenn Google sich daran offen­bar nicht stört, so sind sie doch ärgerlich für Kunden, denn diese werden nur eine Fehlermeldung zu sehen bekommen, wenn sie einem der Links folgen, was das Nutzererlebnis mit der Seite schmälert.

4.23 Keywords in Linktexten

Nach den vorangegangenen Auswertungen im Bereich der Links ist es verwunderlich, dass die Online-Medien mehr Keywords in den Links haben. Der Schnitt liegt hier bei 5,8 pro Seite, bei den klassischen Medien sind es nur 3,3. Keywords in Links könnten als Signal gelten, dass es für dieses Wort eine relevantere Seite gibt und damit das Ranking der Seite schädigen, was den Schluss nahelegt, dass die zu optimierenden Begriffe in weiterführenden Links aus SEO-Sicht eigentlich vermieden werden sollten. Google scheint sich allerdings nicht zu sehr darauf zu verlassen, denn die Seiten mit über 15 Keywords in Linktexten erzielen durchaus gute Rankings, größtenteils unter den Top 5 Suchergebnissen, was eher davon zeugt, dass neben vielen Links auch viele Keywords in Links das Ranking positiv beeinflussen. Da die Ergebnisse gegenteilig zur gängigen Meinung sind, bietet sich dieser Faktor für eine genauere und gezielte Untersuchung an.

4.24 Keywords in Hl-Überschriften

Aufgrund der Prominenz der H1-Überschrift, die meistens die größte auf einer Seite ist und da diese Form der Auszeichnung meist nur ein einziges Mal pro Dokument vorkommt, wird diese separiert von den H2- bis H6-Überschriften betrachtet. Im Schnitt kommt das Keyword bei den Online-Medien 0,62-mal, bei den klassischen 0,69-mal in der H1- Überschrift vor. Die Werte schwanken dabei zwischen null und eins, le­diglich fit for fun bringt diäten gleich dreimal in der Überschrift unter und erreicht damit eine Positionierung auf Platz zwei der SERP. Allge­mein lässt sich kein Zusammenhang aus der Häufigkeit des Keywords in der Überschrift und dem Ranking erkennen, was darauf hindeutet, dass dieser Faktor keine große Bedeutung für die Suchmaschinenopti­mierung hat.

4.25 Keywords in H2- bis H6-Überschriften

Während die Online-Medien allem Anschein nach weniger Wert auf die H1-Überschrift legen, zeigt sich bei den restlichen Überschriften auf den Seiten ein anderes Bild. Der Schnitt liegt hier mit 3,2 Keywords pro Seite in H2- bis H6-Überschriften deutlich höher als bei den klassischen Me­dien, wo er nur 1,2 erreicht. Rechnet man das Zentrum der Gesundheit heraus, welches mit einem Wert von elf einsam an der Spitze liegt, bleibt immer noch ein Durchschnitt von 1,7. Wie auch bei anderen Faktoren finden sich Seiten über die gesamte Bandbreite im Bereich der Top Er­gebnisse. Das gleiche gilt aber auch für die hinteren Positionen. Ein Zu­sammenhang ist nicht erkenntlich, weshalb nicht davon ausgegangen werden kann, dass Google diesen Faktor sehr stark in das Ranking ein­fließen lässt.

4.26 Keywords in Fett- und Kursivschrift

In der Analyse zeigte sich, dass keine der Webseiten Kursivschrift ver­wendete, um Keywords auszuzeichnen. Fettschrift hingegen wurde ein­gesetzt. Die klassischen Medien haben im Schnitt 0,92 Keywords auf der Seite so hervorgehoben, bei den Online-Medien sind es nur 0,15. Gerade im Vergleich zur Häufigkeit, mit der Keywords auf den Seiten vorkom­men, erscheint dieser Wert durchaus niedrig. Es macht den Eindruck, dass er von keinem der analysierten Anbieter umfangreich eingesetzt wird.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4.7: Verhältnis von Position in der SERP (X- Achse) zur Zahl der Keywords in Fettschrift (Y-Achse)

Die Seiten, welche Fettschrift als Mittel nutzen, um Keywords hervorzu­heben und dabei mehrere Wörter auf der Seite markieren, erzielen gute Ergebnisse im Ranking (siehe Abbildung 4.7), wobei die Seiten die völ­lig darauf verzichten, ihnen in nichts nachstehen. Es scheint nicht so, als wäre die Methode nachteilig, ob sie ein Garant für Erfolg ist, müsste al­lerdings in anderer Form getrennt betrachtet werden.

4.27 Keywords in Alt-Tags von Bildern

Bei der Nutzung von Alt-Tags zur Eingabe von alternativen Texten für Bilder wurde zuerst betrachtet, wie oft diese überhaupt genutzt werden. Hierbei zeigt sich, dass die Online-Medien im Schnitt nur bei 1,7 Bildern auf die Nutzung verzichten, klassische Medien hingegen bei 11,7. Den­noch weisen die Seiten der Online-Medien mit 2,3 Keywords in Alt-Tags einen niedrigeren Wert auf (2,9 bei den klassischen). Bei der Betrachtung der Rankings zeigt sich, dass die Seiten, welche sieben oder mehr Key­words in Alt-Tags aufweisen auf Position 15 oder besser ranken. Daraus zu schließen, dass der Faktor ein Garant für eine gute Positionierung in Suchmaschinen ist, wäre allerdings zu weit gefasst. Nicht außer Acht gelassen werden sollte hingegen, dass die Auswertung auf der Textsu­che basiert. Keywords in Alt-Tags sind neben der korrekten Dateibenen­nung, welche ebenfalls ein Keyword enthalten kann, ein wichtiger Fak­tor, der Suchmaschinen dabei hilft, den Inhalt von Bildern korrekt zu bestimmen. Bis Google und Co. in der Lage sind, anhand der Pixel ei­ner Datei deren Inhalt richtig einzuordnen, helfen diese Angaben bei der Auswahl von Bildern für die Bilder-Suche. Neben der Textsuche ist dies ein weiterer Weg, um Besucher auf eine Webseite zu leiten, was dafür spricht, von diesem Mittel Gebrauch zu machen, selbst wenn es nicht direkt für das Ranking in der Textsuche erheblich sein sollte.

Kapitel 5 Diskussion

5.1 Bedeutung einzelner Onpage-SEO-Faktoren

Alleine schon aufgrund der immensen Menge von über 200 Werten, die Google, wie zu Beginn erwähnt, verwendet, um eine Seite zu bewerten, kann ein einzelner Faktor statistisch gesehen nur wenig an der Gesamt­wertung ausrichten. Zieht man in Betracht, dass die Onpage-Faktoren völlig in der Hand der Webseitenbetreiber liegen, wäre es nicht sinnvoll, diese besonders in der Wertung hervorzuheben. Google erzielte seine Er­folge schon von Beginn an damit, den Nutzern eine besonders hohe Qua­lität an Ergebnissen zu liefern, also Inhalt, der diesem einen Mehrwert bietet. Als einer der Erfolgsfaktoren galt dabei zu Beginn der Page Rank, ein Wert, der sich hauptsächlich aus Verlinkungen und damit Empfeh­lungen von anderen Webseiten errechnet. Dieser Schritt veränderte die Suche im Web und ging einen völlig neuen Weg, denn alle anderen, da­mals schon verfügbaren Suchmaschinen orientierten sich größtenteils an den Keywords, die Webseiten in den eigens dafür vorgesehenen Meta­Tags zur Verfügung stellten. Das ermöglichte es den Anbietern, festzule­gen, wofür die Seite relevant war, bot allerdings auch Möglichkeiten zur Manipulation, was die Suchergebnisse für die Nutzer der Suchmaschi­nen verschlechterte.

Würden die technischen Onpage-Faktoren, die in dieser Arbeit haupt­sächlich betrachtet wurden, auch heute noch alleine für das Ranking verwendet werden, wie es in der Zeit vor Google üblich war, so hät­ten die Anbieter mit ausreichenden finanziellen Mitteln und dem ent­sprechenden Know How einen entscheidenden Vorteil vor denen, die zwar gute und vor allem relevante Inhalte liefern, dafür aber Websei­ten betreiben, die nicht in allen Bereichen dem Optimum entsprechen. Es kann deshalb davon ausgegangen werden, dass ein großer Teil der Faktoren, welche in der Hand der Webseitenbetreiber liegen, von Goo­gle zwar betrachtet und sogar vorausgesetzt, allerdings nicht positiv ge­wertet werden. Sie könnten als Hygienefaktoren bezeichnet werden, also Anforderungen, die gestellt werden, damit ein Ranking überhaupt mög­lich ist. Damit würde das Vorhandensein wahrgenommen, ein Mangel jedoch negativ bewertet werden und damit zu schlechten Ergebnissen führen. Die Ergebnisse der Auswertung unterstützen diese These. In der Analyse erscheinen in den Top 50 viele Seiten, welche entsprechend den Empfehlungen der kommerziellen SEO-Anbieter bzw. Berater und der Forschung aufgebaut sind. Solche hingegen, die stark davon abweichen, sind eher selten und scheinen die Ausnahme zu sein. Genauso zeigt sich aber auch, dass die Einhaltung der Werte keine Garantie dafür ist, Posi­tionen auf der ersten Seite zu erzielen, denn hier sieht man zwar oft eine Konzentration von guten Seiten, ebenso waren diese Seiten aber auch auf den hinteren Plätzen vertreten.

Wie zu erwarten, konnte auch nicht festgestellt werden, dass einer der ausgewerteten Faktoren eine besonders starke Auswirkung hat. Die Analysen ergeben zwar an der einen oder anderen Stelle Ergebnisse, die von der vorherrschenden Meinung abweichen, es erscheint aber nir­gends ein Wert, der den Eindruck erweckt, ein Garant dafür zu sein, dass sich das Ranking alleine durch diesen stark verändert oder gar ent­scheidend dafür wäre. Offen bleibt, ob die Abweichungen von den er­warteten Ergebnissen an der sehr fokussierten Auswahl der Testobjekte liegt oder einer Änderung der Google Algorithmen geschuldet ist. Hier könnten weitere Untersuchungen mit einem anderen Testpool angestellt werden, um festzustellen, ob sich die Beobachtungen dann halten lassen oder die Auffälligkeiten verschwinden. Ebenso bleibt bei der Auswer­tung auch das Verhältnis von Korrelation und Kausalität offen - ein The­ma, welches auch von Searchmetrics in deren umfangreichen Untersu­chen nicht abschließend eingeschätzt werden kann. Anhand von bereits in der SERP befindlichen Seiten lässt sich nicht zweifelsfrei belegen, ob die Faktoren überhaupt einen Einfluss auf das Ranking haben und ein Mangel auch schlechtere Ergebnisse nach sich ziehen würde. Durchaus denkbar wäre, dass zum einen die Content Management Systeme von sich aus häufig schon mehr SEO-Leistung erzielen als nötig wäre oder einfach die meisten Betreiber von Webseiten in vorauseilendem Gehor­sam von sich aus vieles richtig einstellen und beachten, was eine gute Er­klärung dafür wäre, wieso so viele Testobjekte in der Analyse gute Werte erzielten. Um dies näher zu untersuchen wäre es nötig, eigene Websei­ten anzulegen und sich deren Rankings bzw. die Rankingentwicklung, abhängig von der Veränderung einzelner Faktoren, anzusehen.

Für die Bedeutung der technischen Onpage-SEO-Faktoren bleibt also festzuhalten, dass es ratsam für eine Webseite ist, sich an die Empfehlun­gen von Google und unabhängigen Experten zu halten, da sonst nega­tive Folgen auftreten können, Vorteile gegenüber Mitbewerben können damit aber nicht gesichert werden. Einzelne Onpage-Faktoren, die eine besonders hohe Bedeutung haben, existieren offenbar nicht.

5.2 Onpage gegen den Rest

In den vergangenen Jahren erschienen immer neue Faktoren in der gro­ßen Auswertung von Searchmetrics. Salopp gesagt, wird jedes Jahr ei­ne andere Sau durchs Dorf getrieben. Im Jahr 2013 waren es die So­cial Signals, also Signale aus jeder Art von sozialen Netzwerken, wel­che die Faktoren waren, denen die höchste Bedeutung zugemessen wur­de. In Abbildung 5.1 ersichtlich, wird das Spitzenfeld von dieser Ka­tegorie dominiert, wobei Facebook den größten Einfluss hatte. Wichtig zu beachten ist allerdings, dass bei der hier verwendeten Spearman- Korrelation selbst bei den höchsten Messwerten nur bedingt von einer maßgebliche Bedeutung ausgegangen werden kann, da diese sich nahe der Signifikanz-Grenze befinden.

Abbildung in dieser Leseprobe nicht enthalten

ABBILDUNG 5.1: Die bedeutendsten SEO-FaktorenimJahr 2013 (vgl. Tober, Hennig und Furch, 2013, S. 9)

Im darauf folgenden Jahr, verschiebt sich das Bild bereits wieder. Abbil­dung 5.2 zeigt die Verschiebung von den Social Signals hin zu den User Signals. Es geht nun also nicht mehr um bewusste Äußerungen in sozia­len Netzwerken, welche mit genug Aufwand durch massenhaft angeleg­te unechte Profile durchaus beeinflusst werden könnten, sondern entwi­ckelt sich hin zur Beobachtung der Nutzer. Welche Ergebnisse klicken sie wirklich an, wie lange bleiben sie auf der Seite und wann kommen sie mit der gleichen Suchanfrage zurück zu Google, wenn überhaupt. Auch Googles Fortschritte beim Machine Learning und dem besseren Verständnis der Semantik scheinen Einzug zu halten, denn mit dem Fak­tor Proofterms, neu in 2014, rückt wieder der Content und erstmals des­sen Plausibilität verstärkt in den Fokus des Suchmaschinenriesen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5.2: Die bedeutendsten SEO-FaktorenimJahr 2014 (vgl. Tober, Hennig und Furch, 2014, S. 3)

Auch im Jahr 2015 setzt sich der Trend zur verstärkten Betrachtung der Nutzerinteressen weiter fort, wenn auch mit anderen Faktoren. Hier er­scheint die User Experience zum ersten Mal und steht direkt an wich­tiger Stelle. Dabei geht es darum, wie gut das Erlebnis ist, welches die Webseite dem Besucher bieten kann und ob Hindernisse bestehen, die dieses beeinträchtigen. Zu den Faktoren in dieser Kategorie gehören ver­stärkt die Mobiloptimierung, aber durchaus auch die Qualität des Con­tents und des allgemeinen Angebots auf der Seite, abhängig an der vom Rankbrain ermittelten User Intention. Nutzer, die nach Faschingskostü­men suchen, erhalten nicht nur Shopping Ergebnisse, sondern verstärkt Seiten, welche umfangreiche Bildergalerien mit Inspirationen bieten, da diese in Googles Interpretation besser zu deren Bedürfnissen passen.

Weitere relevante Inhalte können z.B. Aufzählungen bei Rezepten, aber auch Vergleichsrechner bei Bankangeboten sein (vgl. Tober, 2016). Ver­ständlich ist diese Entwicklung der Algorithmen durchaus. Zum einen schreitet die technische Entwicklung, vor allem im Bereich der künst­lichen Intelligenz und damit auch der Möglichkeit, Computern seman­tisches Verständnis beizubringen, immer weiter voran und bietet nun vielleicht die Grundlage, Dinge umzusetzen, welche eventuell schon lan­ge auf dem Wunschzettel standen. Zum anderen lebt Google zwar auch von der Menge an Daten, welche sie dem Suchenden zur Verfügung stel­len können, bedeutend für den wirtschaftlichen Erfolg ist allerdings die Werbung, welche über den Dienst AdWords angeboten wird. Hieraus zieht Google den größten Teil seines Umsatzes (vgl. Weck, 2015) und der beruht ausschließlich auf dem Pay per Click Verfahren. AdWords Kun­den bezahlen also nicht für das Einblenden von Werbung, sondern nur, wenn der Nutzer einen Klick ausführt und auf der beworbenen Webseite landet. Bleiben die Nutzer von Google aus, weil sie mit den Webseiten, die Google ihnen als Ergebnisse liefert, unzufrieden sind und sich des­halb anderen Suchmaschinen zuwenden, schwindet auch der Umsatz des Unternehmens. Unzufriedene Nutzer führen über kurz oder lang al­so zu leeren Kassen, weshalb es sich umso mehr lohnt, diese nicht zu ver­ärgern und den Fokus der Ranking-Algorithmen nicht auf Faktoren zu legen, welche die Webseitenbetreiber nur allzu leicht beeinflussen könn­ten.

Dennoch bleiben einige Werte über die Jahre hinweg bestehen. Back- links, ehemals Wegbereiter von Googles Marktherrschaft sind nicht mehr so stark im Mix der Faktoren wie früher, doch sie finden sich immer noch an prominenter Stelle im Ranking. Geändert hat sich dabei allerdings die Art der Bewertung. So ist heute nicht mehr der Page Rank das Entschei­dende, sondern auch die Qualität der Quellen. Ebenso sind die techni­schen Onpage-Faktoren immer mit in der Liste der Faktoren. Konstant ist aber ihr niedriger Platz im Ranking. Damit ist vor allem die techni­sche Onpage-Optimierung durchaus eine Sache, die es nahezu zeitlich unabhängig beim Betrieb einer Webseite zu beachten gibt und bei der sich wenig an ihrer Bedeutung ändert. Diese ist allerdings nicht stark ausgeprägt im Vergleich zu anderen Werten, die Google heranzieht und die sich nahezu jährlich ändern. Der Trend zeigt also, dass Onpage-SEO keinesfalls der Vergangenheit angehört, sondern erneut erstarkt und an Bedeutung gewinnt. Mit neuen Methoden kann die Qualität des Inhaltes viel besser bewertet werden, weshalb es die Webseitenbetreiber durch­aus in der Hand haben, ihre Inhalte auf ihrer eigenen Seite zu optimie­ren. Dabei reicht es aber nicht aus, technische Checklisten abzuarbei­ten. Sie müssen sich in die Situation der Suchmaschinennutzer verset­zen und ihre Inhalte nach deren Bedürfnissen ausrichten, um echte Rele­vanz abseits von der richtigen Keyworddichte oder dem passenden Titel zu erzeugen. Gute Inhalte, gepaart mit der richtigen Content Marketing Strategie, könnten also ein guter Weg sein, um sowohl Onpage- als auch Offpage-Optimierung im Rahmen einer Rundumbetrachtung gleichzei­tig zu erledigen. Dies schafft Herausforderungen für Contentanbieter, steigert aber gleichzeitig die Qualität der Inhalte des Web.

5.3 Verhältnis von klassischen zu Online-Medien

In der Betrachtung der Suchergebnisse zeigte sich kein signifikanter Un­terschied zwischen den Online-Angeboten klassischer Medien und de­nen von reinen Online-Angeboten. Beide Arten von Angeboten schaffen es, Spitzenpositionen für sich einzunehmen. Bezogen auf die anfangs ge­stellte, zentrale Forschungsfrage kann somit klar gesagt werden, dass die neuen Anbieter, die nicht über ein Pendant in den klassischen Medien verfügen, durchaus die Chance haben, ihre Inhalte vor denen der altein­gesessenen Konkurrenz angezeigt zu bekommen. Es konnte in den Aus­wertungen nicht festgestellt werden, dass Google die klassischen Medi­en in irgendeiner Form bevorzugt und besser rankt, nur weil es sich um den Online-Auftritt eines bekannten und verbreiteten Massenmediums handelt. Suchergebnisse wurden teils von der einen, teils von der an­deren Art von Seiten dominiert, manches Mal erschienen die Ergebnisse gut verteilt. Final beantworten lässt sich die zweite Frage, nämlich ob die neuen Mitbewerber (alleine) verantwortlich für den Besucherrückgang sind, den Medienhäuser hinsichtlich Suchmaschinen zu verzeichnen ha­ben, allerdings nicht. Hier müssten umfangreichere Nachforschungen mit Zugriff auf die konkreten Besuchszahlen und das Klickverhalten über einen längeren Zeitraum angestellt werden. Dies scheint aber nur möglich, falls Google und mehrere Beteiligte Zahlen dafür bereitstellen. Dennoch erscheint es als logisch, dass zumindest ein Teil des Problems in den neuen Angeboten begründet liegt. Die Suchanfragen werden von Google mit einer Vielzahl von verschiedenen Seiten beantwortet. Dar­unter finden sich Foren, Wikis, Blogs, Shops und andere. Wenn Google an einer gewissen Ausgewogenheit gelegen ist, dann erscheint es nur lo­gisch, diese teilweise sehr ähnlichen Angebote in einen Topf zu werfen und aus deren Summe die besten Angebote auszuwählen. Logisch be­trachtet macht es mehr Sinn, den Beitrag einer Zeitung durch ein anderes journalistisches Produkt zu ersetzen als z.B. durch einen Shop. Das An­gebot im Netz wächst und somit nahezu in allen Bereichen auch die Kon­kurrenz, gegen die man sich durchsetzen muss, um Spitzenrankings zu erzielen. Im Verhältnis von klassischen zu reinen Online-Medien kommt dieses Wachstum aber eher einem direkten Angriff nahe als einer all­gemeinen Verschlechterung der Situation. Dementsprechend deuten die Ergebnisse an, dass die Online-Medien zumindest für einen überpropor­tionalen Teil des ausbleibenden Traffics verantwortlich sind, wenn auch nicht alleine. Der Dienst Google News, der von den Betrachtungen die­ser Untersuchung ausgenommen wurde, stellt als Anforderung auch die Aktualität der Ereignisse und Beiträge. Die Schwelle für die Verbreitung von Inhalten über diesen Dienst liegt also nicht in der Existenz eines an die Webseite angeschlossenen Massenmediums, sondern alleine in den Inhalten, weshalb auch hier die Online-Medien aus Sicht von Google den klassischen in keiner Weise nachstehen und ebenso Zugang erhalten.

Für die alten Medien stellt das Internet also nicht nur eine Chance dar, mit ihren Inhalten eine breitere Öffentlichkeit zu erreichen und mit wenig Aufwand über neue Kanäle die Profite zu erhöhen oder zumin­dest die Rückgänge des Offline-Werbemarktes abzufangen. Vielmehr ist es so, dass die Zahl der Mitbewerber hier stark wächst. Dies liegt mit­unter daran, dass keine hohen Investitionen in eine Infrastruktur wie Druckmaschinen oder ein Vertriebsnetz nötig sind. Mit ein wenig Hard­ware für IT-Ausstattung und guten Journalisten können im Netz um­fangreiche Angebote wachsen, die gute Inhalte produzieren. Die so ste­tig wachsende Konkurrenz lastet damit auf der Sichtbarkeit der etablier­ten Medien, die durch ihren Status als Massenmedium zwar über nicht zu verleugnende Bekanntheit verfügen, sich aber langfristig nicht alleine darauf verlassen können, um online erfolgreich zu sein. Hinzu kommt, dass diese, für sich alleine schon nicht positive Zukunftsaussicht, völ­lig außer Acht lässt, dass sich im weltweiten Netz der Informationen nicht nur journalistische Inhalte wiederfinden, sondern durchaus auch Seiten finden, welche der Aufmachung nach auf den ersten Blick wie gute Informationsquellen wirken, denen es aber an jeder Seriosität man­gelt und deren Inhalte in vielen Faktoren nicht den journalistischen Kri­terien entsprechen, obwohl sie dies vielleicht sogar behaupten. Der Er­folg dieser Seiten, die durchaus ebenso in Konkurrenz zu jeder Art von ordentlichem Journalismus stehen, ist stark abhängig von der Medien­kompetenz der Rezipienten und damit nur schwer durch die Anbie­ter zu beeinflussen. Ebenso nicht in der Betrachtung enthalten ist die Erkenntnis, dass der Hauptgrund der Internetnutzung laut ARD/ZDF­Langzeitstudie Massenkommunikation schon im Jahr 2010 für 91% der Nutzer in der Informationsbeschaffung lag (vgl. Ridder und Engel, 2010, S. 539), die Werte beim Image der öffentlich-rechtlichen wie privaten An­bieter über alle Kategorien hinweg aber eher gefallen als gestiegen sind, während die Tendenz in der Kategorie Internet hier steigt, wie in Abbil­dung 5.3 ersichtlich.

Basis: Alle Befragter, 2000; n=5 017; 2005: n^4 500; 2010: n=4 503j 2015:n=4 300.

Quelle: ARD/ZDF-UngzeitstudieMassenkommunikatm

Abbildung in dieser Leseprobe nicht enthalten

ABBILDUNG 5.3: Das Image der verschiedenen Medien gattungen (vgl. Breunig und Eimeren, 2015, S. 523)

Verstärkt werden könnte der Trend zusätzlich durch Bewegungen, welche die etablierten Medien als „Lügenpresse" bezeichnen und den Wechsel zu unseriösen Anbietern für eine Befreiung halten, wobei diese Betrachtung hier außen vor bleiben soll.

Wenn der Status alleine keine bevorzugte Stellung in den durchaus wichtigen SERPs der Suchmaschinen liefern kann, dann sind die klassi­schen Medien, ebenso wie alle anderen Anbieter im Internet, gezwun­gen, Inhalte entsprechend anzupassen. Alleine schon die unterschiedli­chen Formen der Darstellung, die Google den Suchenden, abhängig von deren Endgerät (Desktop, Tablet oder Mobiltelefon) ausliefert, stellen teils hohe Hürden dar. Fällt die Entscheidung zugunsten einer Auswahl von Apps, so können nur Seiten angezeigt werden, welche auch Apps als Zusatzangebot haben. Marcus Tober zeigt in einem Vortrag sehr schön, dass die Zahl der Textergebnisse, also der direkten Links zu Webseiten, teilweise von zehn bei der Desktopansicht auf nur noch zwei bei der Be­trachtung mit einem Mobiltelefon sinken kann (vgl. Tober, 2016). Hinzu kommen die vielen verschiedenen Darstellungsformen auf Webseiten, die in anderen Mediengattungen so vielleicht nicht verfügbar sind. Ein Fernsehsender könnte seine Videos vertextlichen, um mehr indexierba- ren Content zu erzielen, Zeitungsartikel könnten durch interaktive Ele­mente wie Videos, Bildergalerien und Votings angereichert werden. Die klassischen Anbieter haben zwar den Vorteil, dass auf Basis des tägli­chen Betriebs, abhängig von ihrer Mediengattung, viel Inhalt entsteht, es bedarf aber mitunter viel Arbeit, um diesen weiter aufzubereiten, da­mit er noch mehr Relevanz für die Online-Welt bietet und ideal zur User Intention passt. Fraglich ist, wie der Transfer geschafft werden kann. Langfristig scheint dies nur möglich zu sein, wenn jeder Journalist gen- reübergreifend denkt und nicht nur die Möglichkeiten seiner Medien­gattung in die Produktion einfließen lässt, sondern gleich an die weitere Verwertung denkt und entsprechend produziert. Diese Art zu denken und zu produzieren könnte bei Journalisten reiner Online-Medien weiter verbreitet sein. Ein Beispiel hierfür wäre die Schweizer Online-Zeitung Watson1, die ihre Artikel häufig mit unterschiedlichsten Methoden, die im Netz zur Verfügung stehen, anreichert, um so den Kern des Interesses der Nutzer zu treffen.

5.4 Aufbauende Möglichkeiten für Forschung

Allgemein ist jede Forschung im Bereich der Suchmaschinenoptimie­rung von dem Problem der großen Intransparenz betroffen. Die enor­me Zahl an unterschiedlichen Faktoren, die für das Ranking eine Rol­le spielt herauszufinden, ist allein schon eine große Herausforderung, die exakte Gewichtung der Faktoren nochmal eine weitere. Erschwe­rend kommt hinzu, dass im Gegensatz zur Erforschung von z.B. phy­sikalischen Phänomenen hier ständig Änderungen auftreten, welche die Ergebnisse teils einer extrem kurzen Halbwertszeit unterwerfen. Pessi­mistisch gesprochen kann man Grundlagenforschung mit dem Zweck des Reverse Engineerings von Googles Algorithmen gänzlich ausschlie­ßen, da die Dauer vom Erstellen des Forschungsdesigns über die Daten­sammlung und Auswertung vermutlich die Zeiträume übersteigen, in denen Google Änderungen am Algorithmus vornimmt, denn SEO dau­ert lange. Von der Optimierung einer Seite bis hin zu sichtbaren Ände­rungen in den SERPs können Wochen oder sogar Monate vergehen. Eine Methode, von Grund auf nach Faktoren zu suchen könnte sein, Websei­ten mit dem Minimum des technisch notwendigen zu starten und dann einzelne Dinge zu ändern, von denen man ausgeht, dass Google sie für wichtig erachtet. Im Laufe dieser Arbeit sollte allerdings schon klar ge­worden sein, dass auch dieser Ansatz Schwächen aufweist, da eine Än­derung alleine nur schwer ausreichen wird, um überhaupt eine signifi­kante Steigerung bei Google zu erzielen. Arbeitet man an mehreren Fak­toren gleichzeitig, erschwert es die Falsifizierung der einzelnen Fakto­ren. Zusätzlich müsste man die Forschung an den Testobjekten geheim halten, um Google daran zu hindern, diese bewusst anders zu behan­deln, um dadurch die Ergebnisse zu verfälschen, denn immerhin legt der Konzern großen Wert auf die Geheimhaltung seines wichtigsten Ge­heimnisses.

Aktuell basieren viele Ansätze und Auswertungen auf dem gleichen Schema. Keywords werden ausgewählt und die Ergebnisse dazu wer­den analysiert. Dabei werden die zu untersuchenden Faktoren betrach­tet und inwieweit die Seiten diese erfüllen bzw. wie die Erfüllung dem Ranking zuträglich ist. Auch die große, hier mehrfach zitierte Studie von Searchmetrics geht nach diesem Muster vor. Es handelt sich dabei um eine reine Auswertung der vorgefundenen Daten. Ausbauen lässt sich dieser Ansatz mit der gezielten Optimierung vorhandener Seiten. Soll ein Faktor untersucht werden, wird er dabei isoliert geändert und die darauf folgende Verbesserung oder Verschlechterung des Rankings do­kumentiert. Schwierig ist bei diesem Ansatz sicherlich das Finden von Testobjekten. Für zuverlässige Ergebnisse sollten Seiten verwendet wer­den, welche am realen Konkurrenzkampf um die Plätze bei Google teil­nehmen und bei denen wird es schwierig sein, sie davon zu überzeugen, Dinge zu testen, die sich negativ auswirken könnten. Hinzu kommt der stark gesteigerte Aufwand. Eine Analyse von Webseiten, die frei zugäng­lich sind, lässt sich ohne die Information der Anbieter durchführen, wie auch in dieser Arbeit geschehen. Änderungen an der Seite bedürfen hin­gegen nicht nur der Zustimmung, sondern auch der aktiven Mitarbeit des Anbieters.

Sicher eine gute Methode, um die Qualität der Ergebnisse in der SEO- Forschung zu verbessern, ist der von Tober genannte Ansatz, die Analy­sen nicht mehr nur allgemein durchzuführen, sondern auch eine gezielte Betrachtung einzelner Branchen vorzunehmen. Ein Design, wie dies ge­schehen soll, ist dafür allerdings noch nicht veröffentlich und auch die Rankingfaktoren Studie für 2016 lässt Anfang November immer noch auf sich warten. Dies ist deshalb ungewöhnlich, da Tober zusammen mit dem neuen Ansatz betonte, dass die Faktoren für die Desktop-Suche normal im Frühjahr, die für die mobile Suche im Herbst veröffentlicht werden. Bezogen auf das Verhältnis von Medienhäusern zu Google, de­ren SERPs und vor allem zueinander, wäre Forschung mit genau der Fragestellung von Searchmetrics wünschenswert. Was sind die Fakto­ren, auf die Google bei den Nachrichten- und Informations-Webseiten besonders großen Wert legt? Forschung hierzu könnte helfen, exakt die Punkte gezielt zu optimieren, welche Vorteile verschaffen. Offen blei­ben die Folgen, welche diese Optimierung auf die Qualität der Inhalte hätte. Im Netz finden sich viele kommerzielle Webseiten, welche eine sehr niedrige Textqualität aufweisen, was stellenweise eindeutig einer Optimierung der Keyworddichte geschuldet ist. Wäre bekannt, welche Art von Texten, Rich Media oder interaktiven Elementen das Ranking positiv beeinflusst, bestünde die Gefahr, dass die Individualität des Me­dienangebots sich stark in Richtung einheitlicher und abwechslungslo­ser Webseiten entwickelt. Interessant wäre auch die Frage, ob dies be­reits geschehen ist. Untersucht werden könnte, ob die unterschiedlichen SEO-Strategien der letzten beiden Jahrzehnte sich vielleicht schon in der Gestaltung von Webseiten der Medienbranche widerspiegeln und SEO längst einen großen Einfluss darauf hat, wie Inhalte den Lesern präsen­tiert werden. Schon heute wählen Tageszeitungen die Inhalte der Print­ausgabe teils nach dem Erfolg der Themen auf der Webseite aus, soweit diese dort am Vortag schon veröffentlicht wurden. Überschriften werden angepasst, um mehr Klicks aus sozialen Medien zu erhalten. Wenn diese Fokussierung überhand nimmt, wäre sinkende Qualität durchaus denk­bar.

Während diese Arbeit ausschließlich die technischen Onpage-Fakto- ren betrachtet, bietet auch der Inhalt von Medienangeboten eine große Menge an Ansatzpunkten für die Forschung. Untersucht werden könnte, ob und wie sich die journalistische Qualität des Content auf das Ranking auswirkt. Gerade zu einer Zeit, in der Google immer besser in der Lage ist, Semantik in seine Algorithmen zu integrieren, stellt dies ein span­nendes Feld dar. Wird Google bald in der Lage sein, gut recherchierten Content, der dem Besucher einen Mehrwert bietet, von sinnfreien Foto­strecken zu unterscheiden? Und wird es diesen mit besseren Rankings und damit mehr Besuchern honorieren? Aber selbst, wenn diese Ent­wicklung noch länger andauern sollte, so kann auch jetzt schon verstärkt der Content betrachtet werden. Die zuvor geforderte Optimierung über die Nutzung aller zur Verfügung stehenden Mittel des Web, von inter­aktiven Elementen über Videos, gifs, hin zur grafischen Aufbereitung mittels Zeitstrahl, Bildergalerie, Infografik oder dem, was auch immer gerade passend erscheint (es gibt für jedes Bedürfnis ein Tool im Netz), kostet vor allem Zeit und damit Geld. Hier könnte betrachtet werden, ob sich dieser Aufwand aktuell überhaupt lohnt und ob Googles Rankbrain wirklich so starken Wert darauf legt, dass die Anbieter, die hier inves­tieren, deutlich besser abschneiden. Doch wenn Geld ins Spiel kommt, reichen Rankings an sich natürlich als Bewertungsgrundlage nicht aus. Hier muss in Zusammenarbeit mit den Anbietern untersucht werden, ob sich der Mehraufwand am Ende auch auszahlt, z.B. in Form von erhöh­ten Werbeeinnahmen durch den Besucherzustrom.

5.5 Abschließende Zusammenfassung

Suchmaschinenoptimierung ist ein breites, undurchsichtiges Feld. Das gilt für alle Branchen, auch für den Journalismus. Allgemeine Studien sind aufgrund der intransparenten Algorithmen und dem hohen Tempo der Entwicklung nicht einfach bzw. ihre Bedeutung ist schwer zu erfas­sen und nicht allzu lange gültig. Hinzu kommt, dass Google die Faktoren offenbar immer mehr an Branchen anpasst, so ass nicht einmal mehr un­eingeschränkt auf die existierende Forschung zurückgegriffen werden kann, sollte sie für eine andere Gattung von Webseiten erstellt worden sein. Dennoch bringen die Ergebnisse der Untersuchung, abhängig vom Blickwinkel, auch Positives hervor. So ist nicht zu erkennen, dass Goo­gle die Marken der Medienhäuser in seinen Ergebnissen bevorzugt. Aus Sicht der Medienhäuser, keine gute Nachricht, für unabhängigen Jour­nalismus, der auch Randthemen bedient, eine große Chance. Wer nicht die Möglichkeit hat, seine Inhalte in bekannten Massenmedien unterzu­bringen, der kann dies im Netz tun. Dort stehen viele Möglichkeiten zur Verfügung, die Print und Rundfunk nicht bieten können und wer sich wirklich Mühe gibt, die Interessen und Bedürfnisse seiner Leser zu be­friedigen, der hat auch gute Chancen, dass Google ihm diese vermittelt, denn der Nutzer ist es, der im Fokus steht. Mit den Fortschritten im Ver­ständnis von Semantik durch Maschinen bleibt zu hoffen, dass Google immer besser in der Lage sein wird, die Qualität der Inhalte zu beur­teilen und die hochwertigen zu belohnen, darauf deuten die gewonnen Erkenntnisse jedenfalls hin. Für etablierte Medienhäuser heißt es aller­dings durchaus, dass sie sich vor dem Internet auch in Acht nehmen müssen. Nicht nur die Leser, die nach kostenfreier Unterhaltung verlan­gen sind ein Problem für die Finanzierung im Netz, auch die neu entste­hende Konkurrenz kann zu einem weiteren Rückgang der Nutzerzahlen über Suchmaschinen führen. Wer im Internet erfolgreich sein will, der muss lernen es zu verstehen und zwar in all seinen Aspekten. Oft bleibt nur, sich den Spielregeln der Marktführer anzupassen und das ist bei den Suchmaschinen nach wie vor Google, so wie es Facebook unter den Social Media Netzwerken ist. Beide heben die Inhalte hervor, die ihren Nutzern gefallen und da besteht kein Bonus für die ehemals Mächtigen in der Meinungsbildung.

Literatur

Altoft, Patrick (2007). How to use the Google "Query Deserves Freshness" or QDF model to your advantage. Website. Online erhältlich unter https: //www.branded3.com/blog/using-google-query-deserves- freshness-model/; abgerufen am 10. August 2016.

Bahajji, Zineb Ait und Gary Illyes (2014). HTTPS as a ranking signal. Web­site. Online erhältlich unter https://webmasters.googleblog. com / 2014 / 08/https-as - ranking - signal . html; abgerufen am 21. Juli 2016.

Baur, Christoph (2015). Warum Code komprimieren? Website. Online er­hältlich unter https : / / de . onpage . org / blog / abnehmen - fuer - seos - technische - methoden - der - code - komprimierung; abgeru­fen am 15. August 2016.

Bellinger, Katharina (2012). Formatieren - Den Text gestalten für SEO und das Auge. Website. Online erhältlich unter http://www.seo-united. de/blog/seo/formatieren-text-gestalten-seo . htm; ab­gerufen am 25. Juli 2016.

Breunig, Christian und Birgit van Eimeren (2015). „50 Jahre „Massen kommunikation": Trends in der Nutzung und Bewertung der Me­dien". In: Media Perspektiven 11.2015, S. 505-525.

Clark, Jack (2015). Google Turning Its Lucrative Web Search Over to AI Ma­chines. Website. Online erhältlich unter https://www.bloomberg. com/news/articles/2015-10-26 / google-turning-its- lucrative-web - search- over - to - ai-machines; abgerufen am 09. Oktober 2016.

Cutts, Matt (2009a). "Query deserves freshness."Fact or fiction? Video. On­line erhältlich unter https : / / www . youtube . com/ watch?v = QyFlIhruda4; abgerufen am 10. August 2016.

— (2009b). Should I tweak my titles and descriptions to improve my CTR? Vi­deo. Online erhältlich unter https://www.youtube.com/watch? v=THYguer_JrM; abgerufen am 23. Juli 2016.

Cutts, Matt (2013). How many links on a page should we have? Is there a limit? Video. Online erhältlich unter https://www.youtube.com/ watch?v=QHG6BkmzDEM; abgerufen am 25. Juli 2016.

Dahm, Georg und Denis Dilba (2016). Die Umfrage zum Neustart. Website. Online erhältlich unter https : / / de . surveymonkey . com / r / 5 9XQKKJ; abgerufen am 13. August 2016.

Dean, J.A., C. Anderson und A. Battle (2012). Ranking documents based on user behavior and/or feature data. US Patent 8,117,209, Online erhältlich unter http://www .google.com/patents/US81172 0 9; abgeru­fen am 25. Juli 2016.

Dziki, Julian (2014). 7 veraltete Rankingfaktoren. Website. Online erhältlich unter http://www.seokratie.de/veraltete-rankingfaktoren/ ; abgerufen am 25. Juli 2016.

Epstein, Robert und Ronald E. Robertson (2015). „The search engine ma­nipulation effect (SEME) and its possible impact on the outcomes of elections". In: Proceedings of the National Academy of Sciences of the United States of America PNAS, Proceedings of the National Academy of Sciences Proceedings of the National Academy of Sciences of the United States of America PNAS, Proceedings of the National Academy of Sciences Proceedings of the National Academy of Sciences of the United States of America 112.33, E4512-E4521.

Fiegerman, Seth (2015). Meerkat app shows the potential for live streaming on Twitter. Website. Online erhältlich unter http : / /mashable . com/ 2015 / 03 / 02 / meerkat - live - streaming/; abgerufen am 13. August 2016.

Frier, Sarah (2015). Twitter Reaches Deal to Show Tweets in Google Search Re­sults. Website. Online erhältlich unter https://www. bloomberg . com / news / articles / 2015 - 02 - 05 / twitter -said-to- reach -deal-for - tweets - in - google - search - results; abgerufen am 23. Oktober 2016.

Galtung, Johan und Mari Holmboe Ruge (1965). „The Structure of For­eign News". In: Journal of Peace Research 2.1, S. 64-90.

Geisler, Hendrik (2015). Mediendschungel: Die ersten journalistischen Geh­versuche mit Periscope. Website. Online erhältlich unter https : / / www . basicthinking . de/ blog / 2015 / 09 / 30 / periscope - journalismus/; abgerufen am 13. August 2016.

Gill, Kathy E. (2004). How can we measure the influence of the blogosphere? Website. Online erhältlich unter http://www.uvm.edu/pdodds / teaching / courses / 2009­0 8UVM- 300/docs/others/ everything/ gill2004a. pdf; ab­gerufen am 08. November 2016.

Google, Inc. (2016a). Algorithmen. Website. Online erhältlich unter https://www.google.com/insidesearch/howsearchworks/ algorithms.html?hl=de; abgerufen am 16. Juli 2016.

— (2016b). Allgemeine Informationen zu Sitemaps. Website. Online erhält­lich unter https://support.google.com/webmasters/answer/156184? hl=de; abgerufen am 15. August 2016.

— (2016c). Bilder. Website. Online erhältlich unter https://support. google . com/webmasters/answer/ 114016 ?hl = de; abgerufen am 15. August 2016.

— (2016d). Crawling-Fehlerbericht für Websites. Website. Online erhältlich unter http://goo.gl/n8vyTb; abgerufen am 29. Oktober 2016.

— (2016e). Erfolgreiche Aufnahme in Google News. Website. Online erhält­lich unter https : //support. google . com/news/publisher/ answer/40787?hl=de; abgerufen am 09. Oktober 2016.

— (2016f). Google Trends. Website. Online erhältlich unter https : / / goo.gl/fWnbSr; abgerufen am 22. August 2016.

— (2016g). Google Trends. Website. Online erhältlich unter https : / / goo.gl/5VOo8z; abgerufen am 27. August 2016.

— (2016h). Google Trends. Website. Online erhältlich unter https : / / goo.gl/rwB888; abgerufen am 27. August 2016.

— (2016i). Informationen zur robots.txt-Datei. Website. Online erhältlich unter https:/ / support. google . com/webmasters / answer/ 60 62 60 8?hl=de; abgerufen am 15. August 2016.

— (2016j). PageSpeed Tools. Website. Online erhältlich unter https : / / developers . google . com/ speed/pagespeed/; abgerufen am 21. Juli 2016.

— (2016k). Richtlinien für Webmaster. Website. Online erhältlich unter https://support.google.com/webmasters/answer/35769? hl=de; abgerufen am 01. Oktober 2016.

Grimmelmann, James (2009). „The Google Dilemma". In: NEW YORK LAW SCHOOL LAW REVIEW 53, S. 939-950.

Heijmans, Michiel (2016). DIY: Optimize your browser cache. Website. On­line erhältlich unter https : / / yoast . com / diy - optimize - browser-caching/; abgerufen am 25. September 2016.

Holtz-Bacha, Christina und Helmut Scherer (1998). Wie die Medien die Welt erschaffen und wie die Menschheit darin lebt. Hrsg. von Norbert Waldmann. Opladen/Wiesbaden: Westdeutscher Verlag GmbH.

Jantz, Stephan (2012). SEO-Basics: Alles über XML-Sitemaps. Website. On­line erhältlich unter http://blog . searchmetrics . com/ de / 2012 / 10 / 19 / seo-basics-alles - uber - xml - sitemaps/ ; abgerufen am 15. August 2016.

Kepplinger, Hans Mathias (2011). Journalismus als Beruf. Hrsg. von Hans Mathias Kepplinger und Simone Christine Ehmig. Wiesbaden: VS Verlag für Sozialwissenschaften | Springer Fachmedien Wiesbaden GmbH.

Kepplinger, Hans Mathias und Rouwen Bastian (2000). „Der prognosti­sche Gehalt der Nachrichtenwert-Theorie". In: Publizistik 45.4, S. 462­475.

La Roche, Walther von (2013). Einführung in den praktischen Journalismus. Hrsg. von Gabriele Hofacker und Klaus Meier. 19. Aufl. Wiesbaden: Springer Fachmedien.

LinkAssistant (2016a). Review of the best SEO tools. Website. Online erhält­lich unter http://www.link-assistant.com/seo-software/ compare-seo-tools.html; abgerufen am 16. August 2016.

— (2016b). SEO PowerSuite Press Info. Website. Online erhältlich unter http://www. link-assistant .com/press/; abgerufen am 16. August 2016.

Linux Foundation, The (2016). Let's Encrypt - Free SSL/TLS Certificates. Website. Online erhältlich unter https : / / letsencrypt. org; ab­gerufen am 21. September 2016.

Machill, Marcel und Markus Beiler (2007). Die Macht der Suchmaschinen / The Power of Search Engines. Köln: Herbert von Halem Verlag.

Maier, Michaela, Karin Stengel und Joachim Marschall (2010). Nachrich­tenwerttheorie. Baden-Baden: Nomos.

Makino, Takaki, Chaesang Jung und Doantam Phan (2015). Finding more mobile-friendly search results. Website. Online erhältlich unter https : // webmasters.googleblog.com/2015/02/finding-more- mobile-friendly-search.html; abgerufen am 23. Juli 2016.

Meier, Klaus (2013). Journalistik. Konstanz, München: UVK Verlagsgesell­schaft mbH mit UVK/Lucius.

Müller, John (2014). does short content treat as low quality contnet. Website. Online erhältlich unter https://goo.gl/PDGToi; abgerufen am 23. Juli 2016.

Neuberger, Christoph, Christian Nuernbergk und Melanie Rischke (2007). „Weblogs und Journalismus: Konkurrenz, Ergänzung oder Integrati­on". In: Media Perspektiven 2.2007, S. 96-112.

OnPage.org, GmbH (2016a). Ausgehender Link. Website. Online erhältlich unter https ://de . onpage . org / wiki / Ausgehender_Link; abgerufen am 25. Juli 2016.

— (2016b). Keyword Density. Website. Online erhältlich unter https : //de. onpage . org/wiki/Keyword_Density; abgerufen am 01. Oktober 2016.

— (2016c). Meta Title. Website. Online erhältlich unter https://de. onpage.org/wiki/Meta_Title; abgerufen am 25. Juli 2016.

— (2016d). URL Länge. Website. Online erhältlich unter https ://de. onpage.org/wiki/URL_L{ä}nge; abgerufen am 21. Juli 2016.

— (2016e). WDF*IDF. Website. Online erhältlich unter https ://de. onpage.org/wiki/WDF*IDF; abgerufen am 01. Oktober 2016.

Östgaard, Einar (1965). „Factors influencing the flow of news". In: Journal of Peace Research 2.1, S. 39-63.

Pan, Bing u. a. (2007). „In Google We Trust: Users Decisions on Rank, Position, and Relevance". In: Journal of Computer-Mediated Communi­cation 12.3, S. 801-823.

Parsely, Inc. (2015). Facebook Continues to Beat Google in Sending Traffic to Top Publishers. Website. Online erhältlich unter http : / / blog . parsely.com/post/2855/facebook-continues-to-beat- google-in-sending-traffic-to-top-publishers/; abge­rufen am 16. Juli 2016.

Ridder, Christa-Maria und Bernhard Engel (2010). „Massenkommunika­tion 2010: Funktionen und Images der Medien im Vergleich". In: Me­dia Perspektiven 11.2010, S. 537-548.

Schulz, Winfried Friedrich (1982). „News structure and people's awa­reness of political events". In: International Communication Gazette 30, S. 139-153.

Searchmetrics, GmbH (2016a). Meta Description. Website. Online erhält­lich unter http : / / www . searchmetrics . com / de / glossar / meta-description/; abgerufen am 25. Juli 2016.

— (2016b). Meta Title. Website. Online erhältlich unter http : / / www . searchmetrics . com / de / glossar / meta - title/; abgerufen am 23. Juli 2016.

— (2016c). Ranking-Faktoren: So sind die Karten 2015 gemischt. Website. Online erhältlich unter http://www. searchmetrics . com/ de / knowledge - base / ranking - faktoren/; abgerufen am 21. Juli 2016.

Singhal, Amit (2011). Giving you fresher, more recent search results. Website. Online erhältlich unter https : / / googleblog . blogspot . de / 2011/11/ giving - you - fresher - more - recent - search . html; abgerufen am 10. August 2016.

Singhal, Amit und Matt Cutts (2010). Using site speed in web search ranking. Website. Online erhältlich unter https : / / webmasters . googleblog . com/ 2010 / 04/ using- site- speed- in-web- search- ranking . html; abgerufen am 21. Juli 2016.

SISTRIX, GmbH (2016a). Einrichtung einer 301-Weiterleitung von nicht-www auf den www. Domainnamen. Website. Online erhältlich unter https://www.sistrix.de/frag-sistrix/onpage-optimierung/ http-statuscode/3xx-redirection/einrichtung-einer- 3 01-weiterleitung-von-nicht-www-auf-den-www-domainnamen/ ; abgerufen am 15. August 2016.

— (2016b). Title-Tag Optimierung: Wie sieht der optimale Title einer Websei­te aus? Website. Online erhältlich unter https : / / www . sistrix . de/frag-sistrix/onpage-optimierung/title-element - title - tag / wie - sieht - der - optimale - title - einer - webseite-aus/; abgerufen am 23. Juli 2016.

— (2016c). Was ist unter Query Deserve Freshness (QDF) zu verstehen? Web­site. Online erhältlich unter https://www.sistrix.de/frag-sistrix/google-algorithmus- aenderungen/google-freshness-update/was-ist-unter- query-deserve- freshness-qdf- zu-verstehen/; abgerufen am 10. August 2016.

— (2016d). Welche Meta-Elemente (Meta-Tags) sind SEO relevant und welche nicht? Website. Online erhältlich unter https : / / www . sistrix . de / frag- sistrix/ onpage - Optimierung / meta - element - meta - tag / welche - metatags - sind- seo - relevant - und- welche-nicht/; abgerufen am 21. Juli 2016.

SISTRIX, GmbH (2016e). Welche Überschriften (Headlines) sind SEO rele­vant? Website. Online erhältlich unter https://www.sistrix.de/frag-sistrix/onpage-optimierung/ welche-ueberschriften-headlines-sind-seo-relevant/ ; abgerufen am 21. Juli 2016.

— (2016f). Wie haufig nimmt Google Algorithmus-anderungen vor? Websi­te. Online erhältlich unter https : / / www . sistrix . de / frag- sistrix/google-algorithmus-aenderungen/google-page- layout - algorithm- update - ads - above -the-fold/wie- haeufig-nimmt-google-algorithmus-aenderungen-vor/ ; abgerufen am 20. Juli 2016.

— (2016g). Wie sieht die optimale Meta-Description aus? Website. Online erhältlich unter https://www. sistrix . de / frag-sistrix/ onpage-optimierung/meta-element-meta-tag/wie-sieht- die-optimale-meta-description-aus/; abgerufen am 25. Juli 2016.

Staab, Joachim Friedrich (1998). „Faktoren aktueller Berichterstattung". In: Fernsehnachrichten: Prozesse, Strukturen, Funktionen. Hrsg. von Klaus Kamps und Miriam Meckel. Wiesbaden: VS Verlag für Sozialwissen­schaften, S. 49-64.

Statista (2016a). Anzahl der Mobiltelefonnutzer, die das mobile Internet nut­zen in den Jahren 2012 bis 2014 sowie eine Prognose bis 2019 (in Milliar­den). Website. Online erhältlich unter http://de.statista.com/ statistik/daten/studie/172505/umfrage/anzahl-der- personen-weltweit - die-mobil- das - internet-nutzen/ ; abgerufen am 23. Juli 2016.

— (2016b). Interesse der Bevölkerung in Deutschland an gesunder Ernäh­rung und gesunder Lebensweise von 2012 bis 2016 (Personen in Millionen). Website. Online erhältlich unter https : / / de . statista . com/ statistik / daten / studie / 170913 / umfrage / interesse - an-gesunder-ernaehrung-und-lebensweise/; abgerufen am 05. November 2016.

— (2016c). Marktanteile führender Suchmaschinen in Deutschland in den Jah­ren 2014 bis 2016. Website. Online erhältlich unter http://bit.ly/ 1fBoF5h; abgerufen am 16. Juli 2016.

Tober, Marcus (2016). [DE] Redundanz, RankBrain & Content-Relevanz: Teil II. Video. Online erhältlich unter https : / /www . youtube . com/ watch?v=5YGeAZwk_DU; abgerufen am 09. Oktober 2016.

Tober, Marcus, Dr. Leonhard Hennig und Daniel Furch (2013). SEO Ranking­Faktoren 2013 - Google Deutschland. Whitepaper. Online erhältlich un­ter http ://www.searchmetrics.com/de/knowledge-base/ ranking-faktoren-2013/; abgerufen am 20. Juli 2016.

— (2014). SEO Ranking-Faktoren und Rang-Korrelationen 2014 - Google Deutsch­land. Whitepaper. Online erhältlich unter http : / / www . searchmetrics . com / de / knowledge - base / ranking-faktoren-2014/; abgerufen am 20. Juli 2016.

Tober, Marcus u. a. (2015). Search Ranking-Faktroren und Rang-Korrelationen Google.de 2015. Whitepaper. Online erhältlich unter http : / / www . searchmetrics . com / de / knowledge - base / ranking-faktoren/; abgerufen am 20. Juli 2016.

Twitter, Inc (2015). Up Periscope. Website. Online erhältlich unter https:/ /medium .com/periscope /up-periscope - f0b0a4d2e486; abgerufen am 13. August 2016.

Uhlemann, Ingrid Andrea (2012). Der Nachrichtenwert im situativen Kon­text. Wiesbaden: VS Verlag für Sozialwissenschaften | Springer Fach­medien Wiesbaden GmbH.

Weaver, David A. und Bruce Bimber (2008). „Finding News Stories: A Comparison of Searches Using Lexisnexis and Google News". In: Jour­nalism & Mass Communication Quarterly 85.3, S. 515-530.

Weck, Andreas (2015). Womit Google am meisten Umsatz macht - und wo das Geld hinfließt. Website. Online erhältlich unter http : //t3n. de/news/womit-google-meisten-umsatz-macht-624118/; abgerufen am 29. Oktober 2016.

Wells, Tom (2015). RankBrain, künstliche Intelligenz und die Entwicklung der Google-Architektur. Website. Online erhältlich unter http://blog. searchmetrics .com/de/2015/11/19/rankbrain/; abgerufen am 09. Oktober 2016.

Weltevrede, Esther, Anne Helmond und Carolin Gerlitz (2014). „The Po­litics of Realtime: A Device Perspective on Social Media Platforms and Search Engines". In: Theory, Culture & Society 31.6, S. 125-150.

Westerwick, Axel (2013). „Effects of Sponsorship, Web Site Design, and Google Ranking on the Credibility of Online Information". In: Journal of Computer-Mediated Communication 18.2, S. 80-97.

Wolling, Jens (2002). „Suchmaschinen - Gatekeeper im Internet". In: Me­dienwissenschaft Schweiz 2.2002, S. 15-23.

Anhang A

Checkliste Textauswahl

Formular zur Prüfung, ob ein Text für die Analyse geeignet ist.

Checkliste für Textanalyse im Rahmen der Masterarbeit

Einfluss von Onpage Suchmaschinenoptimierung auf journalistische Texte.

Anbieter

Titel

Url

Veröffentlichungsdatum

Abbildung in dieser Leseprobe nicht enthalten

Beurteilung Nachrichtenwert:

Sind einer oder mehrere der folgenden Faktoren im Text besonders stark ausgeprägt, so dass dem Beitrag ein hoher Nachrichtenwert zugemessen werden kann?

Abbildung in dieser Leseprobe nicht enthalten

Anhang B

Exemplarischer Bericht zur Onpage Optimierung eines Textes auf sueddeutsche.de

Im nachfolgenden Bericht wurde die Seite http://www.sueddeutsche.de/thema/Ernährung auf das Keyword Ernährung geprüft.

Der Bericht zeigt eine Optimierungsrate von 77,9% und listet die be­trachteten Aspekte im Detail auf.

Abbildung in dieser Leseprobe nicht enthalten

Anhang C

Exemplarischer Bericht zur seitenweiten Onpage Optimierung von sueddeutsche.de

Auf Basis der analysierten Unterseite http://www.sueddeutsche.de/thema/Ernährung wurde ein globaler Blick auf die Webseite geworfen.

Der Bericht zeigt verschiedene Onpage Faktoren, die nicht mit dem analysierten Text zusammenhängen, da sie im Regelfall vom CMS ab­hängig und damit für alle Unterseiten gleich sind.

Abbildung in dieser Leseprobe nicht enthalten

Anhang D

Übersicht der Domains mit Keywords

TABELLE D.1: Domains in Top 50 Ergebnissen, die Keywords enthalten, Teil 1

Abbildung in dieser Leseprobe nicht enthalten

TABELLE D.2: Domains in Top 50 Ergebnissen, die Keywords enthalten, Teil 2

Abbildung in dieser Leseprobe nicht enthalten

[...]


1 watson.ch

1 www.substanzmagazin.de

2 www.semrush.com

3 www.original-bootcamp.com/blog.html

4 goo.gl/VWtv7B

5 www.marathonfitness.de

6 goo.gl/Eo5aFS

7 goo.gl/5zj5eE

8 http://www.frauenzimmer.de

9 goo.gl/UfKiGg und goo.gl/fp5OJJ

10 goo.gl/bRPOJl

11 goo.gl/t2b15V

12 goo.gl/vW6Jwc

13 vebu.de

14 goo.gl/t7jJnI

15 goo.gl/OjzbIs

16 www.vegpool.de

17 goo.gl/3C0erx

18 goo.gl/ulccZg

19 essen-und-trinken.de/vegane-rezepte

20 goo.gl/7doyfD

21 goo.gl/RKPD9W

22 g°°.gi/C3Xjfg

23 www.zentrum-der-gesundheit.de

24 https://www.zentrum-der-gesundheit.de/gesunde-ernaehrung.html

25 goo.gl/a7APz9

26 http://eatsmarter.de/ernaehrung/news/ernaehrungsplan

27 http://www.lifeline.de

28 goo.gl/vAuegr und goo.gl/QxGguu

29 http://www.essen-und-trinken.de/topthemen/gesunde-ernaehrung

30 http://eatsmarter.de

31 goo.gl/AljsQZ

32 goo.gl/4GcWhH

33 http://www.der-champignon.de

34 https://gtmetrix.com

Fin de l'extrait de 143 pages

Résumé des informations

Titre
Einfluss von Onpage-Suchmaschinenoptimierung auf Suchmaschinenrankings journalistischer Texte
Université
Leipzig School of Media  (Leipzig School of Media im Externat an der Universität Leipzig)
Cours
New Media Journalism
Note
1,5
Auteur
Année
2016
Pages
143
N° de catalogue
V355365
ISBN (ebook)
9783668411791
Taille d'un fichier
1329 KB
Langue
allemand
Annotations
inkl. 43 Seiten Anhang
Mots clés
SEO, Journalismus, Suchmaschinenoptimierung
Citation du texte
Josef Max Hajda (Auteur), 2016, Einfluss von Onpage-Suchmaschinenoptimierung auf Suchmaschinenrankings journalistischer Texte, Munich, GRIN Verlag, https://www.grin.com/document/355365

Commentaires

  • Pas encore de commentaires.
Lire l'ebook
Titre: Einfluss von Onpage-Suchmaschinenoptimierung auf Suchmaschinenrankings journalistischer Texte



Télécharger textes

Votre devoir / mémoire:

- Publication en tant qu'eBook et livre
- Honoraires élevés sur les ventes
- Pour vous complètement gratuit - avec ISBN
- Cela dure que 5 minutes
- Chaque œuvre trouve des lecteurs

Devenir un auteur