Web 2.0 - Was kommt danach....?

Aktuelle und zukünftige Entwicklungen des World Wide Web


Trabajo Universitario, 2010

67 Páginas, Calificación: 1,0


Extracto


Inhaltsverzeichnis

Kurzfassung

Abstract

Abbildungsverzeichnis

1 Wo steht das World Wide Web?
1.1 Wohin geht es mit dem World Wide Web?
1.2 Aufbau und Ziele der Arbeit

2 Web 2.0 - Wie kam es zu Stande und wie ist es beschaffen?
2.1 Vom Web 1.0 zum Web 2.0
2.2 Anwendungen des Web 2.0
2.2.1 Weblogs
2.2.2 Wikis
2.2.3 Suchmaschinen - die Suche im Internet
2.3 Technologien des Web 2.0
2.3.1 Ajax als Technologiekonzept für Rich Internet Applications
2.3.2 Adobe Flash/Flex
2.3.3 RSS
2.3.4 Folksonomien
2.3.5 Content Syndication und Content Aggregation
2.3.6 Web-Services und Mashups

3 Entwicklungsszenarien des Web 2.0
3.1 Technische Entwicklungen
3.2 Soziale Entwicklungen

4 Konvergenz des Social Web mit dem Semantic Web
4.1 Technische Grundlagen des Semantic Web
4.2 Vom Social Web zum Social Semantic Web

5 Semantic Web Technologien und Anwendungsszenarien
5.1 Anreicherung von Webinhalten mit Semantik durch RDFa und Microformats
5.2 Semantische Suche
5.3 Visualisierung von Informationen aus Weblogs
5.4 Semantisches Wiki

6 Conclusio und Ausblick

Anhang A : Listings

A.1 Aufbau einer RSS Datei (Version RSS 2.0)

A.2 Verlinkung einer RSS-Datei

A.3 Beispiel für (X)HTML + RDFa

A.4 Beispiel für RDF Graph (in N3 Notation)

Literatur- und Quellenverzeichnis

Kurzfassung

Gegenstand der vorliegenden Arbeit ist die zukünftige Entwicklung des World Wide Web. Das bestehende Web 2.0 ist durch soziale Interaktion und Software begründet und ist in den letzten Jahren durch User-Generated-Content und die kollektive Intelligenz zu einer dynamischen Destination für Wissensgenerierung und Interaktivität geworden. Doch das Information Retrieval und die applikationsübergreifende Weitergabe von Da­ten und Information gestalten sich dennoch sehr umständlich. Abhilfe schaffen hier se­mantische Technologien, wie Ontologien und Regelsysteme, die applikationsübergrei- fend sicherstellen, dass die Inhalte mit Bedeutung versehen und maschineninterpretier­bar werden. Dadurch ergeben sich viele Vorteile für die Benutzung des Webs in der Zukunft, wie schnelleres Auffinden von Information und leichteres Erkennen von Zu­sammenhängen im dargestellten Wissensgebiet.

Schlagwörter: Web 2.0, Web 3.0, Semantische Technologien, Social Semantic Web, Information Retrieval, Ontologien, Entwicklung des Webs

Abstract

The present work focuses on the future development of the World Wide Web. The ex­isting Web 2.0 is motivated by social interaction and social software and has become a dynamic destination, in the recent years, for knowledge generation and interactivity due to User-Generated-Content and the Collective Intelligence. But information retrieval and cross-sharing of data and information, nevertheless, turns out very awkward. Se­mantic technologies such as ontologies and control systems promise to improve this situation. They ensure that the contents are machine-readable and provided with the indicated meaning. Many advantages arise from these developments for the use of the web in the future. Information will be found faster and easier and the detection of rela­tionships in the represented knowledge fields will be made possible.

Keywords: Web 2.0, Web 3.0, semantic technologies, Social Semantic Web, infor­mation retrieval, ontologies, development of the Web

Abbildungsverzeichnis

Abbildung 1: Die Web 2.0 Komponenten

Abbildung 2: PageRank - Google, Modell von 1998

Abbildung 3: Klassische vs. auf Ajax basierende Web-Anwendungen

Abbildung 4: The huge cloud lens bubble map Web 2.0

Abbildung 5: Immobiliensuche 2.0 mit HousingMaps

Abbildung 6: Semantic-Web-Architekturmodell

Abbildung 7: Visualisierung der "Linked Open Data Cloud” im Semantic Web

Abbildung 8: Konsumenten von Webinhalten

Abbildung 9: Übersicht Microformats

Abbildung 10: Ein FOAF Dokument mit RDFa

Abbildung 11: Explorative Videosuche im semantischen yovisto-Prototyp mit dem Suchbegriff "Stephen King" und einer Detailvergrößerung des explorativen Navigationselements

Abbildung 12: Das Zusammenspiel der einzelnen Architekturkomponenten

Abbildung 13: Beispielhafte Themenlandschaft der unscharfen Suchanfrage

Abbildung 14: Beispielhafte Suche mit einem Zugehörigekitslevel von 0,8

Abbildung 15: Architektur von SMWs Hauptkomponenten und ihr Zusammenspiel mit MediaWiki

Abbildung 16: Technologiezeitstrahl von der PC Ära zum Web 4.0

1 Wo steht das World Wide Web?

Während der letzten Jahre haben Themen wie Web 2.0 und Social Software eine er­staunliche breitenwirksame Beachtung gefunden. Doch weitestgehend abseits der öf­fentlichen Wahrnehmung vollzieht sich eine technologische Komplementärinnovation. Die wachsende Adaption semantischer Technologien zu Zwecken der strukturierten Erschließung von Web 2.0 Inhalten, aber auch der Einsatz von Social Software zur kol- laborativen Anreicherung von Web Content mit maschinenlesbaren Metadaten sind Ausdruck eines Trends in Richtung Web 3.0 oder Social Semantic Web. Bezeichnendes Merkmal dieser Entwicklung ist die voranschreitende Konvergenz von Web 2.0 An­wendungen und Semantic Web Technologien (Blumauer/Pellegrini, 2009). Grob ge­sprochen beinhaltet das Web 3.0 die Möglichkeit, dass Webseiten die Bedeutung ihrer Inhalte in einer eindeutigen, maschineninterpretierbaren Form mitteilen können, woraus sich vielfältige Chancen ergeben das Information Retrieval durch das automatische Auf­finden von Inhalten um ein vielfaches zu erleichtern und effektiver zu machen, wobei sicherlich auch neue Webdienste auf Basis dieser Technologien entstehen werden.

1.1 Wohin geht es mit dem World Wide Web?

Web 2.0 ruft ganz bewusst Assoziationen zu Software hervor, bei der sich die chronolo­gisch-inhaltliche Namensführung „Mac OS X Version 10.3.9“ oder „Internet Explorer 5.2.3“ eingebürgert hat. Dafür gibt es eine klare Notwendigkeit, denn bei Software ist es wichtig, dass man Versionen voneinander unterscheiden kann. Doch eigentlich ist der Begriff in Bezug auf das Web 2.0 schlecht gewählt und ist irreführend, denn „Web 2.0“ ist kein neues Internet. Es ist nicht plötzlich neu und anders und schon gar nicht ist es eine neue Version einer Software, von Protokollen oder technischen Spezifikationen. Dennoch scheint der Begriff gut gewählt zu sein, sonst hätte er sich nicht so inflationär verbreitet. Er ist ungefähr so aussagekräftig wie „Nichts ist unmöglich - Toyota“ aber genauso eingängig. Daraus ist ersichtlich, dass „Web 2.0“ als Marketing-Schlagwort entwickelt worden war und größtenteils auch noch als solches verwendet wird.

Dennoch waren die Entwicklungen, die mit dem „Web 2.0“ oder auch Social Web, wie es richtiger Weise genannt wird, einhergegangen sind, maßgeblich für die Zukunft des Internets. Die Entwicklungen vom sogenannten „Web 1.0“ oder Informationsweb, wel­ches 1989 von Tim Berners-Lee im Kernforschungszentrum in CERN in der Schweiz entwickelt wurde und nach dem Platzen der Dot-Com-Blase zum Mitmach-Web oder Web 2.0 geführt haben, waren signifikant, doch zugegebenermaßen nichts Neues. Viele Ideen oder Entwicklungen, die dem Web 2.0 zugerechnet werden, waren auch schon von Berners-Lee zur Zeit der Erfindung des WWW so angedacht (Berners-Lee/ Fischet- ti, 1999):

- Das Web editieren zu können ist genauso wichtig, wie durch das Web zu brow- sen.
- Computer können genutzt werden, um im Hintergrund Aufgaben zu erledigen, damit Gruppen besser zusammenarbeiten können.
- Sir Tim Berners-Lee sagte in diesem Zusammenhang in einem IBM Developer Works Podcast: “Web 1.0 was all about connecting people [...] it was designed to be as a collaborative space wherepeople can interact(Berners-Lee, 2006).

Das heißt Schlagworte wie User-Generated-Content und Social Software, die ja die Eckpfeiler des Web 2.0 sind, waren schon Ideen des Web 1.0.

Doch nun wird in wissenschaftlichen Kreisen bereits von der nächsten Evolutionsstufe gesprochen, der Entwicklung zum Web 3.0 (Wahlster, 2008/ ISWC, 2010). Schon wie­der ein neues Marketing Schlagwort?

Man könnte es meinen, doch wiederum sind die Ideen des Web 3.0 oder Semantic Web nichts völlig Neues und haben schon zu Zeiten des Web 1.0 bestanden. Bereits 2001 hat Sir Tim Berners-Lee et al. in Scientific American, die Vision der intelligenten Suche und virtueller Agenten, die in der Lage sind Informationen zu suchen, deren Relevanz zu bewerten und zu Antworten zu integrieren, beschrieben (Berners-Lee/ Hendler/ Las­sila, 2001). Eine Reihe von Technologien bieten die Möglichkeit Webinhalte „seman­tisch“ bzw. maschinenlesbar zu machen und sind auch schon heute umsetzbar in An­wendungen, die dem Nutzer einen sehr großen Mehrwert versprechen. Was die mögli­chen Entwicklungspfade des Social Webs sind und was der Nutzer in Zukunft erwarten kann, wird in den nächsten Jahren ein spannendes Themengebiet sein. Vor diesem Hin­tergrund beschäftigt sich die vorliegende Arbeit mit ausgewählten Aspekten der Ent­wicklung vom Web 2.0 zu Web 3.0, die im folgenden Kapitel vorgestellt werden.

1.2 Aufbau und Ziele der Arbeit

Die vorliegende Abhandlung ist inhaltlich an folgenden Leitfragenfragen aufgehängt:

- Welche Technologien und Ansätze begründen das Web 2.0 und das Semantic Web?
- Welche Nutzervorteile ergeben sich aus dem Web 3.0?
- Wie werden die Web 3.0 bzw. Semantic Web Technologien aktuell im Internet eingesetzt?

Dieser Beitrag hat das Ziel ein allgemeines Bewusstsein und Verständnis der oben ge­nannten Entwicklung zu schaffen, nähert sich diesem Phänomen aus technischer und nicht technischer Sicht und unternimmt damit den Versuch die genannten Fragestellun­gen zu beantworten. Hierzu werden im zweiten Kapitel die führenden Technologien des Web 2.0 in Kürze beschrieben und die Entwicklungen, die zum Web 2.0 geführt haben, rekapituliert. Im dritten Kapitel werden mögliche Entwicklungsszenarien des Web 2.0 analysiert. Das vierte Kapitel beschäftigt sich mit der möglichen Konvergenz des Social Webs mit dem Semantic Web zum Social Semantic Web und es werden die führenden Technologien des Semantic Web zusammenfassend beschrieben und die Art, wie sie auf die bestehenden Technologien aufsetzen, wird betrachtet. Darauf aufbauend beschäftigt sich das fünfte Kapitel mit semantischen Applikationen und in ihrer Funktionsweise, um verschiedenartige Anwendungsfelder von semantischen Technologien zu verdeutli­chen. Die im sechsten Kapitel dargelegten Ergebnisse sowie ein Ausblick auf die Poten­ziale zukünftiger Entwicklungsfelder schließen die Arbeit ab.

2 Web 2.0 - Wie kam es zu Stande und wie ist es beschaffen?

In diesem Abschnitt wird die Entwicklung von Tim Berners Lees Vision des World Wide Web der 1. Generation zum Web 2.0 oder Social Web beschrieben. Die gravie­renden Verhaltensänderungen der Nutzer nach dem Platzen der Dot-Com-Blase im Jahr 2000, die dazu geführt haben, dass überhaupt nach einem neuen Begriff für das WWW gesucht wurde, werden rekapituliert. In der Folge werden Anwendungen und Technolo­gien des Web 2.0 beschrieben, die die Möglichkeit bieten sich durch semantische Tech­nologien erweitern zu lassen. Diese Möglichkeiten werden zum Teil angerissen und in den weiteren Kapiteln näher betrachtet.

2.1 Vom Web 1.0 zum Web 2.0

Das Web entstand 1989 als Projekt am CERN bei Genf (Schweiz), an dem Tim Ber­ners-Lee ein Hypertext-System aufbaute. Das ursprüngliche Ziel des Systems war es, Forschungsergebnisse auf einfache Art und Weise mit Kollegen auszutauschen. Eine Methode dafür war das „Verflechten“ von wissenschaftlichen Artikeln - also das Erstel­len eines Webs. Tim Berners-Lee hat das Web so beschrieben: ”The World Wide Web (W3) is a wide-area hypermedia information retrieval initiative aiming to give universal access to a large universe of documents. ” (Berners-Lee/ Fischetti, 1999).

Das WWW wurde am 6. August 1991 weltweit zur allgemeinen Benutzung freigegeben. Die Technologien auf denen das WWW basierte, waren zum Teil schon vorhanden, wie zum Beispiel Hypertext-Systeme und verschiedene Netzwerk-Technologien, die durch das vom Militär betriebene Arpanet, ermöglicht wurden (Bächtle, 2006). Im Grunde basierte das WWW in der 1. Generation auf drei Kernstandards (Bächtle, 2006):

- HTTP (Hypertext Transfer Protocol) als Protokoll, mit dem der Browser Infor­mationen vom Webserver anfordern kann.
- HTML (Hypertext Markup Language) als Dokumentenbeschreibungssprache, die festlegt, wie die Information gegliedert ist und wie die Dokumente verknüpft sind (Hyperlinks).
- URLs (Uniform Ressource Locator) als eindeutige Adresse bzw. Bezeichnung einer Ressource (z. B. einer Webseite), die in Hyperlinks verwendet wird.

Später kamen noch andere Technologien dazu, die die bestehenden Standards um be­stimmte Funktionsweisen erweiterten:

- Cascading Style Sheets (CSS) legen das Aussehen der Elemente einer Webseite fest, wobei Darstellung und Inhalt getrennt werden.
- Hypertext Transfer Protocol Secure (HTTPS) ist eine Weiterentwicklung von HTTP, bei dem das Protokoll SSL (Secure Socket Layer) zwischen TCP (Trans­fer Control Protocol) und HTTP geschoben wird und in der Folge der Daten­transfer komplett verschlüsselt wird (Netplanet.org, 2010).

In den ersten Jahren wurde das Word Wide Web durch Universitäten und militärische Einrichtung zur Informationsverbreitung und -weitergabe genutzt. In den Jahren danach (1994 - 2004), also seiner breiten Nutzung, entwickelte sich das Internet zu einer welt­weiten Informationsquelle und kreierte für die Benutzer virtuelle und interaktive Desti­nationen in unterschiedlichster Form, wie zum Beispiel Onlinepräsenzen von Unter­nehmen, Online Communities oder E-Shops. Die Interaktivität war jedoch aus Sicht der möglichen Nutzerbeteiligung eingeschränkt (Bächtle, 2006). Die Interaktivität bezog sich fast ausschließlich auf Inhalte, die von Unternehmen, Content Providern oder Onli­ne Anbietern in Form von Portalen bereitgestellt wurden und bot begrenzte Möglichkei­ten und Formate für nutzerspezifische Beiträge. Nur wenige Anbieter räumten dem Nutzer Möglichkeiten ein, nutzerspezifische Inhalte auf ihren Internetseiten zu generie­ren. Zu diesen Vorreitern gehörten Unternehmen wie der Onlinehändler Amazon oder Ebay mit seiner Auktionsplattform. Dort konnten Kunden Rezensionen zu einzelnen Produkten schreiben oder gar Produkte selbst einstellen und durch eigene Beschreibun­gen attraktiver gestalten. Diese Unternehmen gehörten auch zu den wenigen großen Unternehmen der New Economy, die den Dot-Com-Hype überlebten. Das frühe Inter­net, heute als Web 1.0 bezeichnet, stellte somit mit wenigen Ausnahmen eine globale Informationsplattform dar, welche Interaktionen mit dem Kunden bzw. Nutzer haupt­sächlich über die bereitgestellten Inhalte ermöglichte (Cyganski/Haas, 2007).

In den letzten Jahren hat sich das Internet inkrementell von einer „Informationsplatt­form“ zu einer „Mittmach-Plattform“ gewandelt. Die Benutzer generieren heutzutage ihren eigenen Content und benutzen oder entwickeln Plattformen, bei denen sie in Ei­genregie in den Dialog zwischen Usern, Unternehmen und sonstigen Interessensgrup­pen treten.

Grundlage für Web 2.0 ist einerseits User-Generated-Content, d.h. Inhalte und Beiträge, die die Nutzer der jeweiligen Plattform selbst generieren, andererseits Social Software. Social Software sind neue informationstechnische Plattformen, welche sowohl Herstel­lung von User-Generated-Content als auch die menschliche Kommunikation und Kolla­boration unterstützen (Bächtle, 2006). Beispiele für Social Software sind Blogs, Wikis, Medien-Austauschplattformen oder auch in gewisser Weise Suchmaschinen; sie und deren technische Beschaffenheit werden in den nächsten Kapiteln noch genauer be­schrieben und es wird auf ihre potenzielle Rolle in Bezug auf das Semantic Web auf­merksam gemacht.

Wegen seiner vielseitigen Facetten ist es relativ schwer das Phänomen Web 2.0 mit we­nigen Worten zu beschreiben. Der Begriff Web 2.0 wurde von O'Reilly, einem Ver­lagsgründer und engagierten Softwareentwickler, 2005 in der gleichnamigen Konferenz geprägt, um auf die fortschreitenden Veränderungen des Webs hinzuweisen (O'Reilly, 2005). Im Allgemeinen werden mit dem Begriff Web 2.0 eine Reihe von Technologien und Anwendungen bezeichnet aber auch eine Reihe zum Teil ausschlaggebender Ver­haltensänderungen von Internetnutzern zusammengefasst (Cyganski/ Haas, 2007). Aus Anwendersicht begründet das Web 2.0 eine neue Philosophie der Internetnutzung sowie eine neue Umgangsform mit Inhalten und der gegenseitigen Kommunikation der Nutzer untereinander. Die Benutzer sehen das Internet zunehmend als „Mitmach-Plattform“ und weniger ausschließlich als Informationsquelle zentraler Anbieter (Cyganski/ Haas, 2007). Sie beteiligen sich aktiv an der Erstellung der Inhalte und dadurch schafft das Web 2.0 eine neue Art von Interaktivität, die die Benutzer und ihre Beiträge ins Zent­rum stellt. Inhalte können vom Benutzer frei generiert werden, online zur Verfügung gestellt werden und geändert werden. Individuelle Meinungen können in unterschiedli­cher Form geäußert werden, vernetzen sich mit den Beiträgen von Nutzern mit ähnli­cher oder gleicher Meinung und verdichten sich zu einflussreichen Meinungspools. Der Einfluss und die Macht der Benutzer und Konsumenten steigen dadurch enorm und ver­lagern das Machtverhältnis zunehmend auf die Seite des Konsumenten bzw. des Benut­zers.

Zusammenfassend zeichnet sich das Web 2.0 durch neue „Mitmach-Plattformen“ für User-Generated-Content, neue interaktive Kommunikationsinstrumente und durch die veränderte, aktive und extrovertierte Rolle der Benutzer aus (siehe Abb. 1).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Die Web 2.0 Komponenten (nach Stanoevska-Slabewa, 2008)

2.2 Anwendungen des Web 2.0

In diesem Unterkapitel werden die führenden Anwendungen bzw. Plattformen des Webs 2.0 in Kürze vorgestellt um Anwendungsfelder, der in der Folge beschriebenen Technologien zu verdeutlichen. Die Entwicklung und Anwendung dieser Plattformen sind die Grundlagen des Webs 2.0 und haben entscheidend dazu beigetragen, dass User ihre eigenen Inhalte generieren und über diese Plattformen kommunizieren.

2.2.1 Weblogs

Ein Weblog (aus dem Englischen: „Web“ und „log“, Kurzform „blog“) stellt eine Onli- ne-Publikation mit abwärts-chronologischen Einträgen dar und dient sowohl dem Aus­tausch von Informationen, Gedanken und Erfahrungen als auch der Kommunikation. Die ersten Blogs traten Mitte der 90er Jahre auf und nahmen die Form von einfachen Online-Tagebüchern an, in denen die Web-User in periodischen Abständen über ihr Leben berichteten. Für den Autor des Blogs, den so genannten Blogger, stellt der Blog ein einfach handhabbares Medium dar, um seine Leser mit Aspekten oder Meinungen zu bestimmten fachspezifischen Themen oder sein eigenes Leben betreffenden Themen zu erreichen. Blogs werden zudem gerne von der Leserschaft als eine besonders glaub­würdige interaktive Alternative zu den traditionellen Webportalen und klassischen Me­dien, wie Zeitungen oder Fernsehen, wahrgenommen und zeichnen sich meist durch einen reißerischen, emotionellen Kommunikationsstil aus (Stocker/Tochtermann, 2009).

Weblog-Publishing-Systeme stellen als technische Basis, Content-Management­Systeme zur Verwaltung von Weblogs dar. Kenntnisse im Webdesign sind für den Blogger unter Berücksichtigung der modernen Systeme zumeist nicht mehr notwendig. Bekannte Systeme basieren zumeist auf einer einfachen PHP-Lösung mit einer MySQL- Datenbank im Hintergrund und bieten teilweise anspruchsvolle Vorlagen (Templates) für eine individuelle Gestaltung, ohne technische Kenntnisse als Voraussetzung mit­bringen zu müssen. Die stark verbreitete Blog-Software „Wordpress“ lässt sich bei­spielsweise sowohl auf einem eigenen Serverrechner installieren, als auch als Dienst mittels application service providing (ASP) verwenden. Demgegenüber lässt sich Google Blogger lediglich als ASP verwenden.

Auf der technischen Seite stellen Blog-Inhalte so genannte „Microcontents“ dar, die über Permalinks (ein Kombinationswort aus „permanent“ und „link“) von anderen Stel­len dauerhaft verlinkt werden können. Ein Permalink bezeichnet einen Uniform Re­source Locator (URL), der direkt auf einen spezifischen Blog-Eintrag zeigt, unabhängig davon, an welcher Stelle sich dieser Inhalt im Blog befindet (Stocker/ Tochtermann, 2009).

Hingegen ermöglicht ein Trackback (Sixapart.com, o.J.) dem Autor eines Blogs festzu­stellen, ob ein anderer Blog auf seine Beiträge verlinkt. Wird die Trackback-Funktion verwendet, sendet die eigene Web-Site ein Netzwerksignal (Ping) an eine bestimmte URL der Ziel-Webseite. Die empfangende Webseite erstellt einen Link zur sendenden Seite zurück und definiert damit die Beziehung zwischen diesen beiden Seiten. Durch diesen Benachrichtigungsdienst können Weblogs automatisiert Informationen unterei­nander austauschen. Durch die Verwendung von Trackbacks entstand auch die Verlin­kung der Blogs untereinander zur „Blogosphäre“, welche die Gesamtheit aller Blogs als ein virtuelles soziales Netzwerk bezeichnet. Diese spezifische Verlinkung führt zur Ei­gendynamik der Blogosphäre und ist verantwortlich dafür, dass sich interessante oder brisante Blog-Einträge schneeballartig verbreiten können. Durch die Wechselwirkungen der Medien untereinander werden Informationen auch von traditionellen Medien aufge­nommen (Stocker/ Tochtermann, 2009), wobei oft Blogs als zusätzliche In formation s- quellen für den klassischen Journalismus verwendet werden.

Während ein Blog den Autor und seine subjektive Sichtweise in den Mittelpunkt stellt, führt bei einem Wiki, eine kollektive Autorenschaft dazu, dass die einzelne Meinung zugunsten der Meinung einer kollektiven Masse verschwindet. Dies bezeichnet O'Reilly im Web als „kollektive Intelligenz“ (O'Reilly, 2005). Ein weiterer großer Vor­teil von Blogs ist, dass Blogs mit Suchmaschinen besser gefunden werden können und dadurch schneller informieren als andere Medien.

Für Benutzer ist es trotz allem nach wie vor schwierig zwischen wesentlichen und un­wesentlichen Inhalten zu unterscheiden. Manchmal möchte der Benutzer sich selbst­ständig in ein Thema vertiefen und mittels Suchbegriffen verwandte Einträge angezeigt bekommen. Dabei kommt im Semantic Web die Suche mittels Ontologien ins Spiel. Im Semantic Web spielen Weblogs eine große Rolle für das Auffinden von Information und deren Darstellung. Diese Technik kann dem Benutzer, mittels Visualisierung der Inhalte durch Landkarten, eine grafische Orientierung geben, wodurch er Ergebnisse und verwandte Konzepte durch Heran- oder Herauszoomen erkennen kann. Ein mögli­ches Anwendungsszenario wird in Kapitel 5.3 skizziert.

2.2.2 Wikis

Die ursprüngliche Vision des Web-Pioniers Tim Berners-Lee das Web als ein Read- and-Write-Web erfahrbar zu machen und eine offene Kollaboration zu ermöglichen, kommt die Idee des Wiki am nächsten (Berners-Lee/ Fischetti, 1999). Ein Wiki, auch WikiWiki oder Wiki-Web genannt, bezeichnet Webseiten, deren Inhalte von Usern nicht nur gelesen, sondern auch online verändert werden können und mittels Querver­weisen (Hyperlinks) miteinander verbunden sind. Der Name Wiki stammt vom hawaii- anischen Wort „wikiwiki“ und bedeutet „schnell, schnell“, abgeleitet von den kleinen Bussen, die in hawaiianischen Städten verkehren (Stocker/Tochtermann, 2009). Das erste Wiki-System wurde 1995 von Ward Cunningham entwickelt ([o.V.] Wikipedia, 2010).

Wikis ähneln klassischen Content-Management-Systemen verfügen aber im Gegensatz zu ausgefeilteren Systemen über kein ausdifferenziertes Benutzermanagement und ein entsprechendes Rollenkonzept. In einem Wiki sind grundsätzlich alle Inhalte durch den User, aufgrund des elementaren Prinzips der Selbstorganisation, abänderbar und es wird aufgrund seiner speziellen Eigenschaften bevorzugt für Tätigkeiten eingesetzt, die im höchsten Maße kollaborativ sind. Beispielsweise sind das gemeinsame Erstellen eines Dokuments, oder das gemeinsame Planen einer Veranstaltung innerhalb eines Teams oder einer Gruppe geeignete Anwendungsbereiche. Eine sehr bekannte und weit ver­breitete Open-Source Wiki-Software ist MediaWiki, auf der auch die freie Online En­zyklopädie Wikipedia basiert. Neben der Installationsmöglichkeit auf einem eigenen Serverrechner kann MediaWiki auch als ASP verwendet werden (Stocker/Tochtermann, 2009).

Auf der technischen Seite stellt die Wiki-Software einen Typ kollaborativer Software dar, die ein Wiki-System betreibt. Für gewöhnlich wird das Wiki als serverseitiges Skript implementiert, welches auf einem oder mehreren Web-Servern läuft. Für das persönliche Wissensmanagement finden allerdings auch clientseitige Wikis, wie bei­spielsweise das von Jeremy Ruston entwickelte TiddlyWiki, Verwendung (Stocker/ Tochtermann, 2009).

Der von den Usern erstellte Content wird üblicherweise in einer Datenbank gespeichert. Die Wiki-Engine implementiert die eigentliche Wiki-Technologie, während „Wiki- Software“ die gesamte Software bezeichnet, die nötig ist, um ein Wiki zu betreiben wie z.B. Softwarekomponenten für den Betrieb eines Web Servers oder der dazugehörigen Datenbank. Mittlerweile existieren über 100 unterschiedliche Wiki-Engines (c2.com, o.J.), meist Open-Source. Allen gemeinsam ist die Tatsache, dass sie ein minimales Set an Wiki-Prinzipien integrieren. Beispielsweise ermöglichen Wikis die einfache Genera­tion von Hyperlinks, wodurch User befähigt werden, die entsprechenden Seiten auf dem Wiki zu besuchen. Wikis weisen zudem eine ähnliche, sehr einfach zu erlernende For­matierungssyntax auf (Stocker/ Tochtermann, 2009).

Da den Seiten eines Wikis eine Versionierung zu Grunde liegt, sind Änderungen von Seiten in einem Wiki stets nachvollziehbar, so können auch beispielsweise dem Vanda­lismus unterliegende Seiten in ihre anfängliche Form zurückgeführt werden. Dabei reicht die Historie an Änderungen teilweise bis zur ersten Version einer Seite zurück. Unterschiede zwischen zwei Versionen eines Artikels können anhand einer speziellen Ansicht, in der diese nach Zeilen geordnet hervorgehoben sind, festgestellt werden.

Wikis und insbesondere Wikipedia, wird für das automatische Zuweisen von Themen­gebieten zu beliebigen Dokumenten und das dafür notwendige „maschinelle Verständ­nis“ der Dokumente durch die thematisch vorsortierte Datenbank, die Wikipedia zu Grunde liegt, eine große Rolle spielen (Krötzsch/ Vrandecic, 2009). Dieser Ansatz wird in Kapitel 5.4 dargestellt.

2.2.3 Suchmaschinen - die Suche im Internet

Mit der beträchtlich steigenden Anzahl von Webseiten nach dem Aufschwung des WWW in den ersten Jahren (1993 bis 1996) gab es einen Anstieg der Webseiten von 130 auf über 600.000 (Stahlknecht/ Hasenkamp, 2005). Entsprechend wurde die Suche nach Inhalten ein sehr wichtiges Thema. Waren weder die Adresse (URL) einer Seite bekannt, noch eine Verlinkung durch eine andere direkt vorhanden, so glich die Suche der sprichwörtlichen Suche nach der Stecknadel im Heuhaufen.

Erste Abhilfe leisteten hier so genannte Web-Kataloge. Web-Kataloge ordnen Websei­ten bestimmten Kategorien zu, maschinell und manuell. Somit konnten User in einem laufend wachsenden Webkatalog nach den Seiten der jeweiligen Kategorie suchen und diese direkt über einen Link erreichen. Die manuelle Pflege der Kataloge versprach eine hohe Qualität und Relevanz der Verlinkungen, war jedoch auch mit einen hohen Auf­wand und dementsprechend hohen Kosten verbunden (Komus/ Wauch, 2008).

Suchmaschinen arbeiteten nach dem Prinzip der „Webcrawler“. Sie durchsuchen per­manent das Web, indem sie verschiedenen Links von Webseiten folgen, diese auslesen und so gefundene Stichworte mit Bezug auf die Adresse indexieren. Das Ausführen einer Suchanfrage mit einem bestimmten Suchbegriff löst lediglich eine Suche in der Datenbank aus, in der die Web-Suche des Webcrawlers vorher gespeichert wurde. Die Suche auf einer lokalen Datenbank führt zwar dazu, dass die Ergebnisse in kürzester Zeit bereitgestellt werden, aber auch zu einer entscheidenden Schwäche. Da die Anga­ben sich auf die Ergebnisse früherer Suchen beziehen und das Web sich stetig verän­dert, bekommt der Suchende immer wieder veraltete Suchergebnisse. Zudem ist die Anzahl der durchsuchten Webseiten begrenzt und deshalb können relevante Seiten oft außen vor bleiben (Komus/ Wauch, 2008).

Zwar wurde eine Vielzahl von potentiell geeigneten Treffern angezeigt doch konnte die Technologie nicht über die Relevanz der Treffer entscheiden. Das PageRank-Verfahren von Google brachte hier jedoch Abhilfe (Komus/ Wauch, 2008). Es basiert auf der An­nahme, dass die Anzahl und Qualität der Links, die auf die Webseite verweisen einen Hinweis auf die Relevanz der jeweiligen Seite geben. Um eine weitere Steigerung der Qualität der Sortierung der Suchergebnisse zu ermöglichen, kann die Bewertung dahin­gehend noch verfeinert werden, dass die Qualität der jeweiligen Links unterschiedlich bewertet wird, je nachdem wie viele Links wiederum auf diese Seite verweisen. Der PageRank wird also, abhängig von den Bewertungen der verweisenden Seite dividiert durch die Anzahl der von den jeweiligen Seiten ausgehenden Links, ermittelt (Komus/

Wauch, 2008). Die folgende Abbildung stellt die Funktionsweise noch einmal grafisch dar:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: PageRank - Google, Modell von 1998 (Quelle: Griesbaum/ Bekavac/ Rittberger, 2008)

Im weitesten Sinne nutzt der Suchalgorithmus von Google die zentralen Kennzeichen eines Social-Software-Systems: er basiert auf User-Generated-Content, die Inhalte wer­den durch die Nutzer - hier von den Webseitenautoren vorgenommenen Verlinkungen - bewertet und geben so Aufschluss über die Relevanz.

Dennoch stoßen die heutigen Suchmaschinen schnell an ihre Grenzen, weil heute kein Mensch mehr beurteilen kann, ob sich tatsächlich alle relevanten Ergebnisse in der Fülle der angebotenen Suchtreffer befinden. Ähnlich den Problemen, denen das Tagging sich gegenüber sieht (s. 2.3.4 Taxonomien), sind unter anderem die sprachlichen Mehrdeu­tigkeiten auf unterschiedlichen semantischen Abstraktionsebenen dafür verantwortlich. Ein Wort selbst kann unterschiedliche Bedeutungen besitzen (Homonymie), z.B. be­zeichnet „Golf ‘ eine Sportart oder einen Meeresarm. Diese unterschiedlichen Bedeu­tungen, können nicht alle der vom Suchenden intendierten Bedeutung entsprechen und erschweren somit die Suche ungemein. Ähnlich verhält es sich mit Synonymen, die denselben Begriff mit anderen Wörtern beschreiben. Sie können über eine einfache schlüsselwortbasierte Suche nicht gefunden werden. Somit liegt der Schluss nahe, dass die inhaltliche Bedeutung (Semantik) eines Dokuments und nicht die darin verwendeten Zeichenketten im Vordergrund einer inhaltsbasierten Suche stehen müssen (Sack, 2010).

Die Möglichkeiten und Technologien des Semantic Web versprechen hier Abhilfe zu schaffen und werden im Kapitel 5.2 näher in Bezug auf die Möglichkeiten der semanti­schen Suche beleuchtet.

2.3 Technologien des Web 2.0

Aus technologischer Perspektive bedeutet das Web 2.0 eine inkrementelle Innovation sowie konsequente Nutzung von teilweise schon verfügbaren Technologien, welche in den vorhergehenden Kapiteln bereits erwähnt wurden.

Internetangebote wurden durch neue Protokolle und Sprachen wie Ajax und Flash fle­xibler und benutzerfreundlicher gestaltet. Im selben Zuge ermöglichen Protokolle zum Austausch von Information wie RSS (Really Simple Syndication) und sogenannte Mashups, eine einfachere Vernetzung der Anwendungen untereinander. Zugleich wird durch gemeinsame Standards und Konventionen die Interoperabilität sichergestellt und damit die Zusammenarbeit räumlich und zeitlich verteilter Nutzer überhaupt ermöglicht. In der Folge werden die führenden Technologien in Kürze vorgestellt und ihre Funkti­onsweise erläutert.

2.3.1 Ajax als Technologiekonzept für Rich Internet Applications

In der Regel versteht man unter dem Begriff der Rich Internet Applications Internetan­wendungen, welche eine reiche (vielfältige) Menge an Interaktionsmöglichkeiten mit ihrer Benutzeroberfläche bieten (Stocker/ Tochtermann, 2009). Insbesondere RIAs, die in Webbrowsern laufen, ähneln eher dynamischen Desktopanwendungen als klassischen (statischen) Webseiten. Rich Internet Applications sind in hohem Maße verantwortlich für den Siegeszug von Web 2.0 und bieten durch ihren Einsatz vielfältige Möglichkeiten für den Nutzer.

[...]

Final del extracto de 67 páginas

Detalles

Título
Web 2.0 - Was kommt danach....?
Subtítulo
Aktuelle und zukünftige Entwicklungen des World Wide Web
Universidad
Stuttgart Media University
Calificación
1,0
Autor
Año
2010
Páginas
67
No. de catálogo
V164144
ISBN (Ebook)
9783640789818
ISBN (Libro)
9783640789306
Tamaño de fichero
1697 KB
Idioma
Alemán
Palabras clave
Web 2.0, Web 3.0, Semantische Technologien, Social Semantic Web, Information Retrieval, Ontologien, Entwicklung des Webs
Citar trabajo
Waldemar Spomer (Autor), 2010, Web 2.0 - Was kommt danach....?, Múnich, GRIN Verlag, https://www.grin.com/document/164144

Comentarios

  • No hay comentarios todavía.
Leer eBook
Título: Web 2.0 - Was kommt danach....?



Cargar textos

Sus trabajos académicos / tesis:

- Publicación como eBook y libro impreso
- Honorarios altos para las ventas
- Totalmente gratuito y con ISBN
- Le llevará solo 5 minutos
- Cada trabajo encuentra lectores

Así es como funciona