Qualität der Suchmaschinen

Problemstellung: Trefferrelevanz


Hausarbeit (Hauptseminar), 2007

36 Seiten, Note: 2,3


Leseprobe

Inhalt

Einleitung

1. Suchmaschinenmarkt

2. Nutzersicht zur Qualität der Suchmaschinen

3. Relevanz und die Suchmaschinenbewertung

4. Parameter des Retrievaltests
- Aufbau des Retrievaltests
- Suchmaschinen im Retrievaltest
- Sucheinstellungen
- Definition der Nutzergruppe
- Suchanfragen
- Testdurchführung
- Ergebnisse des Retrievaltests
- Bewertung der Ergebnisse

5. Retrievaltests

6. Bewertung der Ergebnisse

Fazit

Literaturliste

Einleitung

Betrachtet man das Medienbild des zwanzigsten Jahrhunderts, entdeckt man eine rasante Entwicklungstendenz: vom Telefon über das Radio zum Fernsehen und Computer. Erst in den neunziger Jahren wurde das damals noch unbekannte, märchenhafte und geheimnisvolle Internet erfunden, das mit seinen vielfältigen Möglichkeiten ein derart selbstverständlicher Teil unseres alltäglichen Lebens geworden ist, dass man sich häufig gar nicht mehr bewusst ist, wenn man davon Gebrauch macht.

Der Informationsüberfluss trieb Medien dazu, einen ernsthaften Schritt einzugehen: die Informationen als Güter zu behandeln und diese zu digitalisieren. Somit startete die Kommerzialisierung des World Wide Web Mitte der neunziger Jahre und erreichte ein Wachstum, das bisher von keinem anderen Medium erzielt wurde. Das Hauptkriterium der enormen Entwicklung des WWW weltweit lag an der relativ einfachen und kostengünstigen Erstellung, Verwaltung und Veränderung von Informationsinhalten sowie deren Publizierung und den Zugriffsmöglichkeiten.[1]

Im Internet sind Antworten auf alle vorstellbaren Fragen vorhanden, doch stehen die Nutzer vor der Aufgabe, diese auch zu finden. Eine „Suchmaschine“ dabei zu umgehen ist sicherlich problematisch. Die Suchmaschinen erleichtern den gewünschten Zugang zu den strukturierten Informationsgütern und werden gerne von allen Altersgruppen in Anspruch genommen.

Heute konkurrieren die Internetanbieter mit den anderen Medien, haben jedoch einen kaum übersehbaren Vorsprung. „Die Zahl der Erwachsenen, die in Deutschland online sind, hat sich dabei seit 1997 versiebenfacht: Sie stieg von 4,1 Mio. auf 28,3 Mio. Nutzer im Jahr 2002. Damit surft heute praktisch jeder zweite bundesdeutsche Erwachsene im Netz.“[2]

Andererseits treten die mit dem Gebrauch von Internet sämtliche Probleme auf. „Der durchschnittliche User“ stellt sich folgende Fragen: Wo und wie soll man im Web nach den relevanten Informationen suchen? Welche ist die beste Suchmaschine?

Mit diesen Themenfeldern beschäftigt sich Information Retrieval, eine neue aber schnell vorangehende Wissenschaft, die sich auf das inhaltsorientierte Suchen konzentriert hat und die Suchdienste mit Hilfe von Retrievaltests, mit welchen die Qualität der Suchmaschinen und –Strategien gemessen werden kann, durchforscht.

Im Wintersemester 2006/07 hat das Seminar „Retrievaltests“ an der Heinrich-Heine-Universität Düsseldorf stattgefunden, im Rahmen dessen praktische Untersuchungen von Suchdiensten durch die Studierenden durchgeführt wurden. Hier sollte die Qualität der Trefferergebnissen von fünf ausgewählten Suchmaschinen (Ask.com, Google, MSN, Seekport, Yahoo) durch deren Recall und Precision verglichen werden. Ziel dieses Retrievaltests war es, praxisbezogen herauszufinden, welche der untersuchten Suchmaschinen die relevantesten Ergebnisse liefert.

In der vorliegenden Arbeit wird der aktuelle Stand des Suchmaschinenmarktes erörtert und dessen Verteilung dargestellt, welche von den Studenten der Informationswissenschaft diskutiert wurde. Die Resultate des praktischen Teils werden ergeben, dass die Nutzersicht und deren Verhalten dem Suchmaschinenmarkt gegenüber mit denen der Informationswissenschaftler in mehreren Punkten nicht übereinstimmen.

Vor der Durchführung einer Suchmaschinenanalyse ist es sinnvoll, sich zunächst einen Überblick über den entsprechenden Markt zu verschaffen. Dies ist deswegen besonders wichtig, weil der Suchmaschinenmarkt, abgesehen von den großen Anbietern, überfüllt ist.

1. Suchmaschinenmarkt

Die Geschichte der Suchmaschinen begann im Jahr 1994 mit WebCrawler, gefolgt von Lycos, Infoseek und Open Text. Im Jahr darauf wurden weitere kommerzielle Suchmaschinen entwickelt. Die Suchmaschine AltaVista war eine der erfolgreichen Repräsentanten der Zeit, welche auch bis vor wenigen Jahren noch einen großen Stellenwert eingenommen hat. Ende 1998 veröffentlichten Larry Page und Sergey Brin ihre innovative Suchmaschinen-Ranking-Technologie, worauf etwas später die Suchmaschine Google im Beta Status startete. Nach einem Jahr wurde Google kommerziell vertrieben, und seitdem erzielt diese Suchmaschine eine stetig steigende Nutzerzahl. Heute ist Google einer der ernsten Suchmaschinenkonkurrenten auf dem Informationsquellenmarkt, wobei es auf dem Suchmaschinenmarkt hunderte von Suchwerkzeugen gibt.[3]

Im März 2005 wurde eine Studie „Suchmaschinen: Das Tor zum Netz“[4] von der Bundestagsfraktion der Grünen veröffentlicht, in der sich die Politiker über die „Googlesierung“ der Gesellschaft und aktuelle Tendenzen im Suchmaschinenmarkt besorgt zeigen. Die Fraktion beschäftigte sich mit der Frage, welche Suchmaschine den größten Marktabteil besitz und aus welchen Gründen.

Das Web-Barometer von Webhits.de stellt uns in einer übersichtlichen Grafik die Anteile der Suchmaschinen auf dem heutigen Markt.[5]

Grafik 1: Markteinteil der Suchmaschinen

Abbildung in dieser Leseprobe nicht enthalten

Die Ergebnisse sind offensichtlich: Trotz der zahlreichen Suchalternativen beantwortet Google zurzeit ¾ aller deutschen Suchanfragen. Die anderen zahlreichen Konkurrenten teilen sich insgesamt nur 12% des gesamten „Informationskuchens“, von dem Yahoo mit 3,1% der stärkste Wettbewerber ist. Um die wachsende Dominanz von Google zu stoppen, wurde im Februar 2005 Microsofts Suchmaschine MSN gestartet. Das Ziel war es, die Vorherrschaft von Google zu beenden. Google seinerseits brachte auf den Markt kurz darauf zahlreiche neue Suchtools, die den guten Google-Ruf noch mehr gefestigt haben.

Gemessen an der Anzahl erfasster Dokumente, kann man heute davon sprechen, dass es drei große Suchmaschinen im Web gibt. Das sind neben Google und Yahoo! Search, welche sich im Frühjahr 2003 durch Aufkäufe mehrerer Suchmaschinen einen hohen Marktanteil sichern konnten, Microsofts MSN Search.[6] Ask Jeeves, bekannt seit 1997, bleibt auf dem europäischen Markt relativ unbekannt, versucht sich mit einer eigenen Methode durchzuschlagen. Es ist heute weder notwendig noch üblich, Suchen in Frageform zu formulieren. Und gerade das Publikum im englischsprachigen Raum hat sich durchaus daran gewöhnt, in "Ask.com" einen Konkurrenten zu Google, Yahoo und MSN zu sehen.

Eine als „jung“ zu bezeichnende Suchmaschine Seekport ist seit 2003 auf dem Markt vertreten und wird sowohl für Standardsuche als auch für Archivsuche von Zeitungen wie Die Welt, Berliner Morgenpost genutzt.[7] Leider hat die Suchmaschine keine besondere Anerkennung erreicht.

Wie lernen die Nutzer aber ihre Favoriten kennen?

Die Bertelsmann Studie „Wegweiser im Netz“ schildert die Ergebnisse der Userumfrage und stellt fest:

- 80 % der User lernten ihre Suchmaschine über Freunde und Bekannte kennen (so entdeckten 73% Google-User ihren Favoriten) – Mund-zu-Mund-Propaganda
- etwa 12% kennen die Suchmaschine durch Werbung in TV, Radio, Presse oder auf Plakaten (so erreichte die Lycos-Werbekampagne 12% der User)
- 9% fanden die Suchmaschine im Internet selbst
- 7% hörten über die Suchmaschine durch Beiträge in TV, Radio oder Presse (so wurde Lycos bei 21% der User bekannt)
- In einem Computerkurs kann man die Suchmaschine auch kennen lernen, so wie 8% der Yahoo-User.[8]

Damit die Suchmaschine ihr Popularitätsgrad beibehält, soll sie einige Kriterien erfüllen. Dabei spielen Popularität, Benutzerfreundlichkeit und Relevanz eine besondere Rolle. All diesen Kriterien entspricht laut der durchgeführten Studien die Suchmaschine Google, die durch Mund-zu-Mund-Propaganda einen unwahrscheinlich hohen Bekanntschaftsgrad erreicht hat. Ob auch die Qualität von Google den wissenschaftlichen Vorstellungen entspricht, wird im praktischen Teil dieser Arbeit untersucht.

„Auch wenn der Suchmaschinenmarkt noch nicht gefestigt ist und sich die Machtverhältnisse schnell verändern können, wird deutlich, dass es nur theoretisch unendlich viele Einstiegsmöglichkeiten in den Wissenspool WWW gibt. Für die „Durchschnittsnutzer“ existieren lediglich ein oder zwei Tore zum Netz, während die anderen geschlossen bleiben.“[9]

2. Nutzersicht zur Qualität der Suchmaschinen

Die Nutzung der Suchmaschinen ist heutzutage eine Selbstverständlichkeit. Etwa 91% aller Internet-Nutzer verwenden zumindest eine Suchmaschine[10]: sowohl privat als auch beruflich unabhängig von der Altersgruppe. Darüber hinaus stellt sich die Frage der Nutzerzufriedenheit mit dem einen oder dem anderen Suchdienst.

Die Qualität eines Suchdienstes wird nach mehreren Kriterien beurteilt.

Als erstes kommt die Qualität der Benutzeroberfläche zur Bewertung. Zwar beinhaltet das visuelle Erscheinungsbild nicht die tatsächliche Qualität des Suchsystems, jedoch zeigen viele Studien, dass Menschen sich bei der Qualitätsbewertung sehr stark an der grafischen Gestaltung orientieren. Die Aufgabe der Suchdienste hier besteht darin, dem Nutzer einen einfachen Einstieg zu ermöglichen. Ist das Suchfeld versteckt, verliert der User Zeit und Geduld und wechselt zu einem einfacheren Anbieter.

Das zweitwichtigste Qualitätskriterium bezieht sich auf die Suchanfragen selbst. „Das Wissen eines Nutzers und seine Einstellungen gegenüber einer Suchmaschine sind entscheidend dafür, ob er sie richtig bedienen kann, ob er versteht, wie sie funktioniert, und ob er den zurückgelieferten Suchtreffern vertraut oder sie kritisch hinterfragt.“[11] In der Regel haben die Nutzer Schwierigkeiten ihre Suchanfrage so zu formulieren, dass sie sinnvolle Ergebnisse erhalten. In den meisten Fällen geben die Nutzer in die Suchmaske eine Einwort- oder Zweiwortanfrage ein. Bei solchen Parametern bekommt man sehr oft invalide Informationsinhalte. Um die Suche zu präzisieren, bietet jede Suchmaschine unterschiedliche Hilfeeinstellungen (die so genannten Einschränkungsoperatoren) an.

Die allgemeine Sucheinstellung der meisten Suchmaschinen für die Websuche ist der UND-Operator, bei dem alle eingegebenen Worte automatisch verknüpft werden. Diese wird am häufigsten genutzt. Klare Funktionen und Schlichtheit ermöglichen dem Nutzer eine Übersicht und eine angenehme Suche. Denn auf der ersten Blick erscheint der Umgang mit Operatoren kinderleicht zu sein, es gibt jedoch eine Reihe von Strategien, durch deren Kenntnis der Sucherfolg erheblich verbessern werden kann. Wenn der User sich nicht im Klaren darüber ist, in welchem Zusammenhang der eine oder der andere Operator verwendet wird, verläuft die Suche ohne Erfolg.

Die häufigsten Schwierigkeiten eine präzise und aussagekräftige Suchanfrage zu stellen sind unter anderem folgende:

- Die Nutzer sind sich häufig über ihren eigenen Bedarf nicht im Klaren
- Sie kennen ihre eigenen Wissensdefizite nicht genau
- Sie haben Schwierigkeiten ihr Anliegen in eine Suchanfrage zu transformieren
- Sie wissen nicht genau, was sie als Antwort erwartet.[12]

Die wichtigsten meinungsbildende Faktoren für den User sind sicherlich die Trefferlisten und die Qualität der gefundenen Dokumente. Trefferlisten sind das Standardformat zur Darstellung von Suchergebnissen. Sie liefern die Grundinformationen zur gefundenen Seite und zeigen die Suchwörter in ihrem Kontext an. Die Darstellung der Ergebnisanzeige ist von Suchmaschine zu Suchmaschine leicht unterschiedlich. Die Gemeinsamkeit dieser besteht darin, dass die Suchdienste den Dokumenten einen gewissen Relevanzwert zuweisen. Die gefundenen Ergebnisse sind in absteigender Reihenfolge sortiert, so dass der relevanteste Treffer auf der ersten Stelle positioniert ist. Je übersichtlicher die Ergebnisliste gestaltet ist, desto einfacher ist es für den Nutzer die Qualität der Treffer zu bewerten. Dabei sind der Umfang der Treffermenge und ihre inhaltliche Präzision zu berücksichtigen. „In der Regel werden [von dem Nutzer] nicht mehr als zehn Treffer auf einer Liste angeklickt. Nur eine Minderheit geht über die ersten zwanzig Treffer hinaus.“[13] Wird innerhalb dieser ersten Seiten kein zufrieden stellendes Ergebnis gefunden, erfolgt eine neue, veränderte Suchanfrage.

Oft entsprechen die Suchergebnisse nicht den Erwartungen der Nutzer. Die User ärgern sich über die irrelevanten, über die „toten“ Links, über die Ergebnisse, die mit der Suchanfrage wenig zu tun haben und über die Treffer, deren Zielseite nicht mehr existiert. Benennenswert sind auch die bezahlten Treffer, die meistens nur in geringem Maße oder gar nicht von Bedeutung für die Suchanfrage erscheinen. Hier stellt sich das Zustandekommen der Suchergebnisse in Frage, welche Algorithmen verwendet werden, was sich hinter einem Suchsystem verbirgt.

Das Buch „The invisible Web“ von Chris Sherman und Gary Price offenbart, dass nicht alle digitalen Informationen gefunden werden können, die im und über das Internet eigentlich erreichbar wären. Dieser Teil des Internet wird von den Autoren als das unsichtbare Web bezeichnet.[14] Die Suchwerkzeuge ignorieren teilweise Informationen „bewusst“. Hier geht es um Spam und Informationsmüll, den keiner der Nutzer als Treffer haben möchte.

Alle der online erreichbaren digitalen Informationen kann man in zwei Klassen einteilen:

[...]


[1] Vgl.: Göggler, M. (2003): Suchmaschinen im Internet. Springer Verlag, Berlin, Heidelberg, S. 3-5

[2] Eimeren, B. (2002): ARD/ZDF-Online Studie: Entwicklung der Online-Nutzung in Deutschland: Mehr Routine, weniger Entdeckerfreude. In: Media Perspektiven 8, S.347

[3] Vgl.: http://www.seo-solutions.de/artikel/geschichte-der-suchmaschinen.html, Stand: 27.03.2007

[4] Dr. Neymanns, H. (Hrsg.); Bundesfraktion Bündnis 90 / Die Grünen (2005): Suchmaschinen. Das Tor zum Netz. Hintergrund und Informationen

[5] http://www.webhits.de/deutsch/index.shtml?webstats.html, Stand 9.04.2007

[6] Vgl.: http://www.seo-solutions.de/artikel/geschichte-der-suchmaschinen.html, Stand 27.03.2007

[7] Vgl.: http://de.wikipedia.org/wiki/Seekport, Stand 11.04.2007

[8] Vgl.: Machill, M.; Welp, C. (2003): Wegweiser im Netz. Qualität und Nutzung von Suchmaschinen. Verlag Bertelsmann Stiftung; Gütersloh, S.150-151

[9] Dr. Neymanns, H. (Hrsg.); Bundesfraktion Bündnis 90 / Die Grünen (2005): Suchmaschinen. Das Tor zum Netz. Hintergrund und Informationen, S.7

[10] Vgl.: Machill, M.; Welp, C. (2003): Wegweiser im Netz. Qualität und Nutzung von Suchmaschinen. Verlag Bertelsmann Stiftung; Gütersloh, S.135

[11] Machill, M.; Welp, C. (2003): Wegweiser im Netz. Qualität und Nutzung von Suchmaschinen. Verlag Bertelsmann Stiftung; Gütersloh, S.133

[12] Bertram, I. (2005): Einführung in die inhaltliche Erschließung. Grundlagen, Methoden, Instrumente. Irgon Verlag, Würzburg, S.20

[13] Machill, M., Welp, C. (2003): Wegweiser im Netz. Qualität und Nutzung von Suchmaschinen. Verlag Bertelsmann Stiftung, Gütersloh, S.96

[14] Stock, M., & Stock, W. G. (200). Internet- Suchwerkzeuge im Vergleich, Teil 1: Retrievaltests mit Known Item Searches. S. 100

Ende der Leseprobe aus 36 Seiten

Details

Titel
Qualität der Suchmaschinen
Untertitel
Problemstellung: Trefferrelevanz
Hochschule
Heinrich-Heine-Universität Düsseldorf  (Institut für Sprache und Information)
Veranstaltung
Retrievaltests
Note
2,3
Autor
Jahr
2007
Seiten
36
Katalognummer
V177359
ISBN (eBook)
9783640989942
ISBN (Buch)
9783640990276
Dateigröße
687 KB
Sprache
Deutsch
Schlagworte
qualität, suchmaschinen, trefferrelevanz, Informationswissenschaft, Retrieval, Suchmaschine, Google
Arbeit zitieren
Elena Kaznina (Autor), 2007, Qualität der Suchmaschinen, München, GRIN Verlag, https://www.grin.com/document/177359

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Qualität der Suchmaschinen



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden