WEB 3.0: Was ist das WEB 3.0? Grundlagen, Informationen und die wichtigsten Eckpunkte


Hausarbeit, 2007

11 Seiten, Note: 1,7


Leseprobe

Web 1.0 die erste Generation.

Die erste Generation des Internet begann wie ein großer Rausch, der dann in einem Kater

endete. Die faszinierende Vision war: Wissen und Informationen konnten online rund um die Uhr zur Verfügung gestellt werden. Kunden und Nutzer können ungeachtet von Öffnungszeiten, Beratungsterminen und ortsgebundenen Filialen jederzeit erreicht werden. Eine Homepage oder ein Portal genügt und die ganze (online)Welt steht offen. Online-Banken und Online-Versicherungen entstanden und sie hatten das Potential, die ganze Finanzbranche umzukrempeln. So lief vor dem Web 1.0 zum Beispiel in der Finanzbranche der Aktienhandel über so genannte Broker, die Kleinanleger gar nicht bedienten. Das Web 1.0 öffnete die Welt der Börse allen Anlegern, auch für Kleinstanlagebeträge.

Auch die Medienbranche wurde revolutioniert. Fast alle Zeitungen stellten online Ausgaben ins Netz, (die Geld kosteten, aber den Printausgaben der Zeitungen nur wenige neue Leser brachten). Die Netzeitung www.netzeitung.de ist die wohl bekannteste Online-Zeitung aus dieser Periode. In dieser großen Zeit der New Economy stiegen online Firmen über Nacht aus dem Nichts auf und brachten mit fantastischen Geschäftsstories Börsianer um den Verstand.

Web 1.0 war dennoch (besonders aus heutiger Sicht) von Passivität geprägt, was mit der damaligen Technologie zu tun hat: Die Modems waren langsam, die Websites bauten sich nur mühsam auf, das Surfen kostete Zeit, lohnte aber doch, weil man sich rund um die Uhr informieren konnte - über Reiseziele, Nachrichten, Theaterprogramme etc. Mehr als sich Information zu holen, war im Web 1.0 nicht drin.

Fast: Denn im Juli 1995 ging das von Jeff Bezos gegründete Online-Versandhaus amazon.com online (in Deutschland seit 1998 als amazon.de).1 Nach eigenen Angaben ist

Amazon heute weltweit Marktführer im Internet für Bücher, CDs und Videos und setzte 2006 10,7 Milliarden Dollar um. Amazon setzt eine auf Perl2 und HTML::Mason basierende Architektur ein und ließ sich den Vorgang der Bestellung mit nur einem Klick, die auf der Cookie-Technologie3 basiert, in den USA patentieren. Rund um die Uhr Bücher bestellen und aus einem „virtuellen Regal“ Bücher aussuchen und Autoren recherchieren zu können, das war schon mehr als jede noch so große Buchhandlung zu bieten hatte. Der Buchhandel reagierte auf Amazon bald sehr panisch. Ähnlich wie bei kleinen Reisebüros kam die Angst auf, dass zunehmend mehr Kunden den bequemen Weg über die Internet-Bestellung wählen.

10 bis 15 Prozent des Buchhandelsumsatzes gehen heute tatsächlich über den Online-Handel.

Amazon ist allerdings ein Beispiel dafür, wie sich der Übergang zu Web 2.0 schleichend vollzieht. Denn der Amazon Kunde ist nicht mehr passiv: Er kann die Bücher bewerten und Sterne als Qualitätssiegel abgeben. Er kann auch eigene, gebrauchte Bücher auf Amazon verkaufen, wie ein Antiquariat, und er kann über die Verlinkung der eigenen Homepage auf Amazon sogar Geld mit dem Verkauf von Büchern auf Amazon verdienen. Ebay, das weltgrößte Online-Versandhaus, das ebenfalls das Zerplatzen der dot.com Blase überlebte, funktioniert ähnlich: Die Käufer sind auch Verkäufer. Die Kunden-Bewertung ist das, was man user generated content nennt: Die Marktteilnehmer bewerten sich gegenseitig, was zusammengenommen eine von den Usern selbst hergestellte Information über die Seriosität der Anbieter liefert.

Web 2.0: das Web zum Mitmachen.

Web 1.0 war noch traditionell: Informationen gingen vom Sender zum Empfänger. Aber wieder sorgen insbesondere neue Technologien dafür, dass das Web 1.0 allmählich zum Web 2.0 heranwächst. Die Technologien sind: Das Breitband Internet (DSL, VDSL), der Browser, mp3, Streaming-Technologien, die Audio- und Videodaten über einen PC empfangbar machen (Web Radio und Web TV).

Wir schreiben das Jahr 2004, als der Internet-Pionier Tim O’Reilly auf einer Konferenz den Begriff Web 2.0 für diesen Wandel im Internet prägt. Web 2.0 steht für Mitmach-Internet.4 Jeder kann Produzent und Konsument von Informationen sein. Jedermann kann seine eigene Zeitung (Blog Tagebuch) oder seinen TV Sender (Podcast) etc. betreiben bzw. Bilder ins Netz stellen und sich mit seiner Peer-Group (Myspace, youtube) austauschen.

Dadurch gewinnt das Internet weiter an Attraktivität und wird für die Werbewirtschaft zunehmend interessant, die dort um Aufmerksamkeit wirbt, wo die potentiellen Käufer hinwandern. In der Web 1.0 Welt wurde die Online Werbung noch nach der Zahl der Seitenbesuche abgerechnet, ganz so, wie das bei den so genannten Tausender Kontaktpreisen (TKP) in der traditionellen Presse funktioniert. Ob der Betrachter die Werbung überhaupt registrierte, war egal, weil nicht überprüfbar. Das ist im Mitmach Web 2.0 anders, denn die Technologie ermöglicht es, die Kosten streng nach Klick abzurechnen. Ein Hersteller/Anbieter zahlt nur für Interessenten, die wirklich auf die Adwords oder Werbebanner des Werbenden klicken (und muss sie dann auf der eigenen Homepage zum Bleiben - und Kaufen überzeugen).

Teilnahme und Mitmachen lösen das alte Prinzip der Anbietens und Veröffentlichens ab. Das gilt auch für Wikis - benannt nach dem online Lexikon Wikipedia, wo User unentgeltlich die Lexikoneinträge schreiben und sich gegenseitig (bis zum Edit-War) korrigieren. In seinem Buch „The long Tail“ behauptet Anderson, dass das Entstehungsprinzip der Wiki-Beiträge nach dem Prinzip der Wahrscheinlichkeitsrechnung funktioniert wie auch der Google- Algoritmus zur Suche nach relevanten Treffern für ein Suchwort dieses Prinzip zugrunde liegt.

Heute sieht der Umfang der Online-Welt so aus:

- 1 Mrd. im Internet
- 200 Mio. bloggen weltweit
- 1,4 Mio. Blogger in Deutschland (TNS infratest)
- rd. 2 Mio. Mitglieder auf OpenBC Xing
- 3,8 Mio. Wikipedia-Artikel
- Technorati scannt rund 55 Mio. Blogs

Eine wichtige Rolle für die Medien (und auch für die Werbewirtschaft) spielt der Internet- Gigant Google. Die bekannteste und meistgenutzte Dienstleistung von Google ist die Volltextsuche von Dokumenten im World Wide Web. Das Web 1.0 war noch geprägt von vielen, vielen Websites, deren Qualität nur durch eigene Recherche erkennbar war. Google schuf mit seinem Such-Algorithmus einen Filter, der die Qualität von Websites automatisiert erkennt und wie ein Treffer-Ranking sortiert. Google kam bei den Usern gut an, weil andere Suchmaschinen wie Yahoo keine gleichwertigen Qualitätsfilter und somit Suchergebnisse bei der Eingabe von Suchbegriffen liefern konnten. Der Siegeszug von Google hat zudem mit der Geschwindigkeit zu tun, mit der Google hunderttausende „Treffer“ in Zehntelsekunden auswirft. Was Google bis heute der Konkurrenz voraus hat, ist eine unglaubliche Rechnerkapazität: Dateien und Dokumentenkopien, die Tausende Google-Robots auf

Milliarden von Websites indizieren, legt Google auf verschiedenen Rechnern ab und kann Anfragen deshalb sehr schnell beantworten, da die Einzelinformationen parallel gelesen werden.

Hauptfaktor bei der Gewichtung der Suchergebnisse ist die so genannte Linkpopularität.

Dahinter steht der Gedanke, dass interessante Websites öfter gelesen und verlinkt werden als schlechte. Die Linkpopularität wird im PageRank gemessen, benannt nach Google Mitgründer Larry Page. Je mehr Links existieren und je höher der PageRank der hierauf verweisenden Dokumente ist, desto höher fällt entsprechend der Wert des Dokuments aus, auf das verwiesen wird. Der vollständige Algorithmus zur Ermittlung der Linkpopularität wird jedoch von Google geheim gehalten (wie die Coca Cola Brauseformel), um erstens ein Kopieren der Dienstleistung zu verhindern und um zweitens das Geschäftsmodell der Werbevermarktung nicht zu gefährden. Denn jeder Website-Besitzer könnte seine Site den Auswahlkriterien von Google anpassen. Das machen heute professionelle Suchmaschinen Optimierer. Wer mit seiner Homepage nicht auf Seite eins bis drei beim Suchergebnis auftaucht, wird von 80 Prozent der User nicht mehr wahrgenommen. Beispiel: Ein Londoner Hotelier muss sich etwas einfallen lassen, um bei den Suchworten „London Hotel“ auch vom Kunden vorn unter den ersten 30 Treffer-Ergebnissen in Google gefunden zu werden.

Google, die wohl einzigartigste Börsenstory des Internet-Kapitalismus, versucht diese Optimierung an den Google-Algorithmus als „Manipulation“ in den Geruch des Unmoralischen zu rücken. Wer Googles Geschäftmodell unterläuft, soll ausgeschlossen (delisting) werden. Bei BMW ist dies vor einiger Zeit passiert. Der deutsche Autohersteller hatte so genannte Landing pages gebaut, (Linklisten von BMW-freundlichen Sites, die von den Google Robots nicht als solche erkannt wurden) und online gestellt, um sich im Suchmaschinen-Ranking vorn zu platzieren. Daraufhin nahm Google die BMW Homepage kurzfristig vom Netz. Dem BMW-Verkauf übers Internet drohte ein Umsatzverlust, solange die BMW-Homepege in Google nicht zu finden ist.

Die Streichung aus dem Google-Index wäre an sich hinzunehmen, denn Google ist ein privates Unternehmen, das seine allgemeinen Geschäftbedingungen selbst bestimmen kann. Da Google jedoch in Europa einen Marktanteil bei Suchmaschinen von nahezu 90 Prozent hält, droht die Gefahr, dass Google die Informationsbeschaffung im Internet monopolisiert.

Wer im Google-Ranking nicht unter den ersten 30 Treffern auftaucht, findet in der Online- Welt nicht statt. Viele User/Unternehmen nehmen deshalb den Google-Algorithmus nicht wie gottgegeben hin, sondern versuchen, die eigene Homepage zu optimieren (Suchbegriffe im Dokumententitel, Überschriften oder im Ankertext, Verlinkungen von gekauften Websites).

Das Google Monopol ist deshalb ein ernstzunehmendes Problem in der Web 2.0 Welt. Denn der von Google behauptet Qualitätsstandard seiner Suchergebnisse besteht nur scheinbar. Das gilt besonders für intellektuelle, wissenschaftliche und politische Inhalte. Die Popularität etwa eines Artikels eines Ökonomie-Professors über Inflation, der oft angelinkt wird, hat nichts mit der wissenschaftlichen Qualität dieser Arbeit zu tun. Eine Untersuchung des Handelsblatts zeigt, dass die Professoren mit dem höchsten wissenschaftlichen Renommé nicht automatisch die populärsten sind. Deshalb werden ihre Homepages auch nicht automatisch am meisten besucht - eher das Gegenteil ist der Fall: Die meiste Linkpower haben nicht die besten, sondern die populärsten Sites. Der Zusammenhang zwischen Popularität und Qualität ist zwar vorhanden, deckt sich aber nicht.

Ein Zugeständnis von Google an der Vorwurf der schlechten Qualität ist, dass das erste

Suchergebnis eines Suchwortes (etwa nach einer bestimmten Person) in der Regel dessen eigene Homepage ist, auch wenn diese weniger PageRank, also Linkpopularität, enthält als andere Seiten. Damit wird zugestanden, dass die meisten User sich zunächst für die Homepage ihrer Suche interessieren und dann für Sites drum herum. Diese Homepage ist aber nicht per Google-Algorithmus an die erste Ranking-Stelle gesetzt, sondern wird von Google unter Umgehung des eigenen Algorithmus dorthin gestellt.

Zudem hat die Google-Formel Schwierigkeiten mit dem Kriterium Neuigkeit, die aber wichtig für viele User ist. Die populärste Site muss nicht die aktuellste sein. Wer etwa den neuesten (und fundiertesten) Artikel über Inflation lesen will, wird mit dem populärsten (auf dem sich vielleicht Politiker äußern, die oft verlinkt werden) schlecht bedient. Wer das Theaterprogramm von heute haben will, fängt nichts an mit der populärsten Inszenierung dieses Theaters vor drei Jahren.

Bei Google News wird zwar in diesem speziellen Filter nach Aktualität gerankt, aber die Meinung der Web 2.0-Enthusiasten trügt bislang, Google könne den Print- Informationsbereich (Zeitungen, Zeitschriften) massiv ablösen oder mit Google News den etablierten Journalismus eliminieren. Es hat derzeit eher den Anschein, dass der online- Journalismus (also das Abwandern der Nachrichten, was mit einem Sterben der Verlags- und Zeitschriftenhäuser verbunden wäre) bei etablierten Medien wie spiegel-online, bild-online, welt-online etc seine Heimat behält.

Auch die Blogger-Szene tritt auf der Stelle. Zwar nehmen die Blogs zu, aber die wenigsten finden einmal den Weg in die etablierte Medienwelt, die die Themanagenda setzt und die Meinung bildet. Über Leser-Reporter und an die Redaktion gebundene Blogger bereichern manche Zeitungen (WAZ-Konzern) ihren redaktionellen online-Auftritt und wenn sich Meldungen wie beim Rücktritt von Kleinfeld als Siemens Vorstandsvorsitzender überschlagen, findet online ein packendes Wettrennen statt, wer eine News als erster hat - kein Blogger hat bei der Siemens Neubesetzung der Vorstands auch nur eine relevante News beigesteuert. Wie bei den meisten Nachrichten sind es immer noch die etablierten Journalisten, die die Top-Nachrichten liefern. Blogger bleiben marginal, machen das Nachrichtenwesen allerdings bunter und unberechenbarer - auch nutzbarer für PR-Strategien über Bloggs und für Manipulationen/Kampagnen. Eine Folge wird sein, dass die Qualitätsanforderungen für den Profijournalismus steigen, was dem Medium letztlich hilft.

Viele onlinejournalistische Angebote bestehen aus blankem Text und nutzen die breitbandigen Möglichkeiten des Web (DSL, Podcast etc) gar nicht. Oft sind sie nur Füllmasse für kommerzielle Internetportale, die wie Anzeigenblätter ihre Seiten mit Nachrichten füllen - was legitim ist, aber nicht unbedingt den Journalismus voranbringt. Der Copy and Paste Journalismus erfüllt oft die Kriterien für die Transparenz der Quellen nicht, Meinung wird mit unbelegten Tatsachenbehauptungen vermischt, Recherche weit mehr als beim Offline-Journalismus sträflich vernachlässigt. Oft stammen Informationen wie im klassischen Journalismus aus Agentur- und Pressemeldungen, werden unhinterfragt übernommen und spätere Richtigstellungen oder Dementis von diesen verpasst. Für die User intransparent ist auch die mehrfache Aktualisierung eines Online-Beitrags, sodass nicht mehr erkennbar ist, wie die ursprüngliche Information im Laufe des Tages verändert wurde und warum. Andererseits nutzen die Profi-Journalisten heute die Möglichkeiten des Web stärker denn je. Die Welt hat das Prinzip Online-first ausgegeben. Die Neue Nachricht wandert ins Web und dann je nach Bedeutung in die Tageszeitung. Dagegen stehen die Blogger insgesamt etwa bei Themen aus der Politik in der deutschen Blogger-Statistik unter ferner liefen.

[...]


1 URL: http://www2.t-online-business.de/dyn/c/48/45/04/4845042.html

2 = freie, plattformunabhängige und interpretierte Programmiersprache

3 = ist ein kurzer Eintrag in einer meist kleinen Datenbank

4 http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html

Ende der Leseprobe aus 11 Seiten

Details

Titel
WEB 3.0: Was ist das WEB 3.0? Grundlagen, Informationen und die wichtigsten Eckpunkte
Hochschule
Hochschule der Medien Stuttgart
Note
1,7
Autoren
Jahr
2007
Seiten
11
Katalognummer
V78909
ISBN (eBook)
9783638830935
Dateigröße
354 KB
Sprache
Deutsch
Schlagworte
Grundlagen, Informationen, Eckpunkte
Arbeit zitieren
Irina Kilimnik (Autor)D. Yildirim (Autor)N. Hosgören (Autor)G. Hosgören (Autor), 2007, WEB 3.0: Was ist das WEB 3.0? Grundlagen, Informationen und die wichtigsten Eckpunkte, München, GRIN Verlag, https://www.grin.com/document/78909

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: WEB 3.0: Was ist das WEB 3.0? Grundlagen, Informationen und die wichtigsten Eckpunkte



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden