Kurzfassung
Gegenstand der vorliegenden Arbeit ist die zukünftige Entwicklung des World Wide Web. Das bestehende Web 2.0 ist durch soziale Interaktion und Software begründet und ist in den letzten Jahren durch User-Generated-Content und die kollektive Intelligenz zu einer dynamischen Destination für Wissensgenerierung und Interaktivität geworden. Doch das Information Retrieval und die applikationsübergreifende Weitergabe von Daten und Information gestalten sich dennoch sehr umständlich. Abhilfe schaffen hier semantische Technologien, wie Ontologien und Regelsysteme, die applikationsübergreifend sicherstellen, dass die Inhalte mit Bedeutung versehen und maschineninterpretierbar werden. Dadurch ergeben sich viele Vorteile für die Benutzung des Webs in der Zukunft, wie schnelleres Auffinden von Information und leichteres Erkennen von Zusammenhängen im dargestellten Wissensgebiet.
Schlagwörter: Web 2.0, Web 3.0, Semantische Technologien, Social Semantic Web, Information Retrieval, Ontologien, Entwicklung des Webs
Abstract
The present work focuses on the future development of the World Wide Web. The existing Web 2.0 is motivated by social interaction and social software and has become a dynamic destination, in the recent years, for knowledge generation and interactivity due to User-Generated-Content and the Collective Intelligence. But information retrieval and cross-sharing of data and information, nevertheless, turns out very awkward. Semantic technologies such as ontologies and control systems promise to improve this situation. They ensure that the contents are machinereadable and provided with the indicated meaning. Many advantages arise from these developments for the use of the web in the future. Information will be found faster and easier and the detection of relationships in the represented knowledge fields will be made possible.
Keywords: Web 2.0, Web 3.0, semantic technologies, Social Semantic Web, infor-mation retrieval, ontologies, development of the Web
Inhaltsverzeichnis
Kurzfassung
Abstract
Abbildungsverzeichnis
1 Wo steht das World Wide Web?
1.1 Wohin geht es mit dem World Wide Web?
1.2 Aufbau und Ziele der Arbeit
2 Web 2.0 - Wie kam es zu Stande und wie ist es beschaffen?
2.1 Vom Web 1.0 zum Web 2.0
2.2 Anwendungen des Web 2.0
2.2.1 Weblogs
2.2.2 Wikis
2.2.3 Suchmaschinen - die Suche im Internet
2.3 Technologien des Web 2.0
2.3.1 Ajax als Technologiekonzept für Rich Internet Applications
2.3.2 Adobe Flash/Flex
2.3.3 RSS
2.3.4 Folksonomien
2.3.5 Content Syndication und Content Aggregation
2.3.6 Web-Services und Mashups
3 Entwicklungsszenarien des Web 2.0
3.1 Technische Entwicklungen
3.2 Soziale Entwicklungen
4 Konvergenz des Social Web mit dem Semantic Web
4.1 Technische Grundlagen des Semantic Web
4.2 Vom Social Web zum Social Semantic Web
5 Semantic Web Technologien und Anwendungsszenarien
5.1 Anreicherung von Webinhalten mit Semantik durch RDFa und Microformats
5.2 Semantische Suche
5.3 Visualisierung von Informationen aus Weblogs
5.4 Semantisches Wiki
6 Conclusio und Ausblick
Anhang A : Listings
A.1 Aufbau einer RSS Datei (Version RSS 2.0)
A.2 Verlinkung einer RSS-Datei
A.3 Beispiel für (X)HTML + RDFa
A.4 Beispiel für RDF Graph (in N3 Notation)
Literatur- und Quellenverzeichnis
Kurzfassung
Gegenstand der vorliegenden Arbeit ist die zukünftige Entwicklung des World Wide Web. Das bestehende Web 2.0 ist durch soziale Interaktion und Software begründet und ist in den letzten Jahren durch User-Generated-Content und die kollektive Intelligenz zu einer dynamischen Destination für Wissensgenerierung und Interaktivität geworden. Doch das Information Retrieval und die applikationsübergreifende Weitergabe von Daten und Information gestalten sich dennoch sehr umständlich. Abhilfe schaffen hier semantische Technologien, wie Ontologien und Regelsysteme, die applikationsübergrei- fend sicherstellen, dass die Inhalte mit Bedeutung versehen und maschineninterpretierbar werden. Dadurch ergeben sich viele Vorteile für die Benutzung des Webs in der Zukunft, wie schnelleres Auffinden von Information und leichteres Erkennen von Zusammenhängen im dargestellten Wissensgebiet.
Schlagwörter: Web 2.0, Web 3.0, Semantische Technologien, Social Semantic Web, Information Retrieval, Ontologien, Entwicklung des Webs
Abstract
The present work focuses on the future development of the World Wide Web. The existing Web 2.0 is motivated by social interaction and social software and has become a dynamic destination, in the recent years, for knowledge generation and interactivity due to User-Generated-Content and the Collective Intelligence. But information retrieval and cross-sharing of data and information, nevertheless, turns out very awkward. Semantic technologies such as ontologies and control systems promise to improve this situation. They ensure that the contents are machine-readable and provided with the indicated meaning. Many advantages arise from these developments for the use of the web in the future. Information will be found faster and easier and the detection of relationships in the represented knowledge fields will be made possible.
Keywords: Web 2.0, Web 3.0, semantic technologies, Social Semantic Web, information retrieval, ontologies, development of the Web
Abbildungsverzeichnis
Abbildung 1: Die Web 2.0 Komponenten
Abbildung 2: PageRank - Google, Modell von 1998
Abbildung 3: Klassische vs. auf Ajax basierende Web-Anwendungen
Abbildung 4: The huge cloud lens bubble map Web 2.0
Abbildung 5: Immobiliensuche 2.0 mit HousingMaps
Abbildung 6: Semantic-Web-Architekturmodell
Abbildung 7: Visualisierung der "Linked Open Data Cloud” im Semantic Web
Abbildung 8: Konsumenten von Webinhalten
Abbildung 9: Übersicht Microformats
Abbildung 10: Ein FOAF Dokument mit RDFa
Abbildung 11: Explorative Videosuche im semantischen yovisto-Prototyp mit dem Suchbegriff "Stephen King" und einer Detailvergrößerung des explorativen Navigationselements
Abbildung 12: Das Zusammenspiel der einzelnen Architekturkomponenten
Abbildung 13: Beispielhafte Themenlandschaft der unscharfen Suchanfrage
Abbildung 14: Beispielhafte Suche mit einem Zugehörigekitslevel von 0,8
Abbildung 15: Architektur von SMWs Hauptkomponenten und ihr Zusammenspiel mit MediaWiki
Abbildung 16: Technologiezeitstrahl von der PC Ära zum Web 4.0
1 Wo steht das World Wide Web?
Während der letzten Jahre haben Themen wie Web 2.0 und Social Software eine erstaunliche breitenwirksame Beachtung gefunden. Doch weitestgehend abseits der öffentlichen Wahrnehmung vollzieht sich eine technologische Komplementärinnovation. Die wachsende Adaption semantischer Technologien zu Zwecken der strukturierten Erschließung von Web 2.0 Inhalten, aber auch der Einsatz von Social Software zur kol- laborativen Anreicherung von Web Content mit maschinenlesbaren Metadaten sind Ausdruck eines Trends in Richtung Web 3.0 oder Social Semantic Web. Bezeichnendes Merkmal dieser Entwicklung ist die voranschreitende Konvergenz von Web 2.0 Anwendungen und Semantic Web Technologien (Blumauer/Pellegrini, 2009). Grob gesprochen beinhaltet das Web 3.0 die Möglichkeit, dass Webseiten die Bedeutung ihrer Inhalte in einer eindeutigen, maschineninterpretierbaren Form mitteilen können, woraus sich vielfältige Chancen ergeben das Information Retrieval durch das automatische Auffinden von Inhalten um ein vielfaches zu erleichtern und effektiver zu machen, wobei sicherlich auch neue Webdienste auf Basis dieser Technologien entstehen werden.
1.1 Wohin geht es mit dem World Wide Web?
Web 2.0 ruft ganz bewusst Assoziationen zu Software hervor, bei der sich die chronologisch-inhaltliche Namensführung „Mac OS X Version 10.3.9“ oder „Internet Explorer 5.2.3“ eingebürgert hat. Dafür gibt es eine klare Notwendigkeit, denn bei Software ist es wichtig, dass man Versionen voneinander unterscheiden kann. Doch eigentlich ist der Begriff in Bezug auf das Web 2.0 schlecht gewählt und ist irreführend, denn „Web 2.0“ ist kein neues Internet. Es ist nicht plötzlich neu und anders und schon gar nicht ist es eine neue Version einer Software, von Protokollen oder technischen Spezifikationen. Dennoch scheint der Begriff gut gewählt zu sein, sonst hätte er sich nicht so inflationär verbreitet. Er ist ungefähr so aussagekräftig wie „Nichts ist unmöglich - Toyota“ aber genauso eingängig. Daraus ist ersichtlich, dass „Web 2.0“ als Marketing-Schlagwort entwickelt worden war und größtenteils auch noch als solches verwendet wird.
Dennoch waren die Entwicklungen, die mit dem „Web 2.0“ oder auch Social Web, wie es richtiger Weise genannt wird, einhergegangen sind, maßgeblich für die Zukunft des Internets. Die Entwicklungen vom sogenannten „Web 1.0“ oder Informationsweb, welches 1989 von Tim Berners-Lee im Kernforschungszentrum in CERN in der Schweiz entwickelt wurde und nach dem Platzen der Dot-Com-Blase zum Mitmach-Web oder Web 2.0 geführt haben, waren signifikant, doch zugegebenermaßen nichts Neues. Viele Ideen oder Entwicklungen, die dem Web 2.0 zugerechnet werden, waren auch schon von Berners-Lee zur Zeit der Erfindung des WWW so angedacht (Berners-Lee/ Fischet- ti, 1999):
- Das Web editieren zu können ist genauso wichtig, wie durch das Web zu brow- sen.
- Computer können genutzt werden, um im Hintergrund Aufgaben zu erledigen, damit Gruppen besser zusammenarbeiten können.
- Sir Tim Berners-Lee sagte in diesem Zusammenhang in einem IBM Developer Works Podcast: “Web 1.0 was all about connecting people [...] it was designed to be as a collaborative space wherepeople can interact(Berners-Lee, 2006).
Das heißt Schlagworte wie User-Generated-Content und Social Software, die ja die Eckpfeiler des Web 2.0 sind, waren schon Ideen des Web 1.0.
Doch nun wird in wissenschaftlichen Kreisen bereits von der nächsten Evolutionsstufe gesprochen, der Entwicklung zum Web 3.0 (Wahlster, 2008/ ISWC, 2010). Schon wieder ein neues Marketing Schlagwort?
Man könnte es meinen, doch wiederum sind die Ideen des Web 3.0 oder Semantic Web nichts völlig Neues und haben schon zu Zeiten des Web 1.0 bestanden. Bereits 2001 hat Sir Tim Berners-Lee et al. in Scientific American, die Vision der intelligenten Suche und virtueller Agenten, die in der Lage sind Informationen zu suchen, deren Relevanz zu bewerten und zu Antworten zu integrieren, beschrieben (Berners-Lee/ Hendler/ Lassila, 2001). Eine Reihe von Technologien bieten die Möglichkeit Webinhalte „semantisch“ bzw. maschinenlesbar zu machen und sind auch schon heute umsetzbar in Anwendungen, die dem Nutzer einen sehr großen Mehrwert versprechen. Was die möglichen Entwicklungspfade des Social Webs sind und was der Nutzer in Zukunft erwarten kann, wird in den nächsten Jahren ein spannendes Themengebiet sein. Vor diesem Hintergrund beschäftigt sich die vorliegende Arbeit mit ausgewählten Aspekten der Entwicklung vom Web 2.0 zu Web 3.0, die im folgenden Kapitel vorgestellt werden.
1.2 Aufbau und Ziele der Arbeit
Die vorliegende Abhandlung ist inhaltlich an folgenden Leitfragenfragen aufgehängt:
- Welche Technologien und Ansätze begründen das Web 2.0 und das Semantic Web?
- Welche Nutzervorteile ergeben sich aus dem Web 3.0?
- Wie werden die Web 3.0 bzw. Semantic Web Technologien aktuell im Internet eingesetzt?
Dieser Beitrag hat das Ziel ein allgemeines Bewusstsein und Verständnis der oben genannten Entwicklung zu schaffen, nähert sich diesem Phänomen aus technischer und nicht technischer Sicht und unternimmt damit den Versuch die genannten Fragestellungen zu beantworten. Hierzu werden im zweiten Kapitel die führenden Technologien des Web 2.0 in Kürze beschrieben und die Entwicklungen, die zum Web 2.0 geführt haben, rekapituliert. Im dritten Kapitel werden mögliche Entwicklungsszenarien des Web 2.0 analysiert. Das vierte Kapitel beschäftigt sich mit der möglichen Konvergenz des Social Webs mit dem Semantic Web zum Social Semantic Web und es werden die führenden Technologien des Semantic Web zusammenfassend beschrieben und die Art, wie sie auf die bestehenden Technologien aufsetzen, wird betrachtet. Darauf aufbauend beschäftigt sich das fünfte Kapitel mit semantischen Applikationen und in ihrer Funktionsweise, um verschiedenartige Anwendungsfelder von semantischen Technologien zu verdeutlichen. Die im sechsten Kapitel dargelegten Ergebnisse sowie ein Ausblick auf die Potenziale zukünftiger Entwicklungsfelder schließen die Arbeit ab.
2 Web 2.0 - Wie kam es zu Stande und wie ist es beschaffen?
In diesem Abschnitt wird die Entwicklung von Tim Berners Lees Vision des World Wide Web der 1. Generation zum Web 2.0 oder Social Web beschrieben. Die gravierenden Verhaltensänderungen der Nutzer nach dem Platzen der Dot-Com-Blase im Jahr 2000, die dazu geführt haben, dass überhaupt nach einem neuen Begriff für das WWW gesucht wurde, werden rekapituliert. In der Folge werden Anwendungen und Technologien des Web 2.0 beschrieben, die die Möglichkeit bieten sich durch semantische Technologien erweitern zu lassen. Diese Möglichkeiten werden zum Teil angerissen und in den weiteren Kapiteln näher betrachtet.
2.1 Vom Web 1.0 zum Web 2.0
Das Web entstand 1989 als Projekt am CERN bei Genf (Schweiz), an dem Tim Berners-Lee ein Hypertext-System aufbaute. Das ursprüngliche Ziel des Systems war es, Forschungsergebnisse auf einfache Art und Weise mit Kollegen auszutauschen. Eine Methode dafür war das „Verflechten“ von wissenschaftlichen Artikeln - also das Erstellen eines Webs. Tim Berners-Lee hat das Web so beschrieben: ”The World Wide Web (W3) is a wide-area hypermedia information retrieval initiative aiming to give universal access to a large universe of documents. ” (Berners-Lee/ Fischetti, 1999).
Das WWW wurde am 6. August 1991 weltweit zur allgemeinen Benutzung freigegeben. Die Technologien auf denen das WWW basierte, waren zum Teil schon vorhanden, wie zum Beispiel Hypertext-Systeme und verschiedene Netzwerk-Technologien, die durch das vom Militär betriebene Arpanet, ermöglicht wurden (Bächtle, 2006). Im Grunde basierte das WWW in der 1. Generation auf drei Kernstandards (Bächtle, 2006):
- HTTP (Hypertext Transfer Protocol) als Protokoll, mit dem der Browser Informationen vom Webserver anfordern kann.
- HTML (Hypertext Markup Language) als Dokumentenbeschreibungssprache, die festlegt, wie die Information gegliedert ist und wie die Dokumente verknüpft sind (Hyperlinks).
- URLs (Uniform Ressource Locator) als eindeutige Adresse bzw. Bezeichnung einer Ressource (z. B. einer Webseite), die in Hyperlinks verwendet wird.
Später kamen noch andere Technologien dazu, die die bestehenden Standards um bestimmte Funktionsweisen erweiterten:
- Cascading Style Sheets (CSS) legen das Aussehen der Elemente einer Webseite fest, wobei Darstellung und Inhalt getrennt werden.
- Hypertext Transfer Protocol Secure (HTTPS) ist eine Weiterentwicklung von HTTP, bei dem das Protokoll SSL (Secure Socket Layer) zwischen TCP (Transfer Control Protocol) und HTTP geschoben wird und in der Folge der Datentransfer komplett verschlüsselt wird (Netplanet.org, 2010).
In den ersten Jahren wurde das Word Wide Web durch Universitäten und militärische Einrichtung zur Informationsverbreitung und -weitergabe genutzt. In den Jahren danach (1994 - 2004), also seiner breiten Nutzung, entwickelte sich das Internet zu einer weltweiten Informationsquelle und kreierte für die Benutzer virtuelle und interaktive Destinationen in unterschiedlichster Form, wie zum Beispiel Onlinepräsenzen von Unternehmen, Online Communities oder E-Shops. Die Interaktivität war jedoch aus Sicht der möglichen Nutzerbeteiligung eingeschränkt (Bächtle, 2006). Die Interaktivität bezog sich fast ausschließlich auf Inhalte, die von Unternehmen, Content Providern oder Online Anbietern in Form von Portalen bereitgestellt wurden und bot begrenzte Möglichkeiten und Formate für nutzerspezifische Beiträge. Nur wenige Anbieter räumten dem Nutzer Möglichkeiten ein, nutzerspezifische Inhalte auf ihren Internetseiten zu generieren. Zu diesen Vorreitern gehörten Unternehmen wie der Onlinehändler Amazon oder Ebay mit seiner Auktionsplattform. Dort konnten Kunden Rezensionen zu einzelnen Produkten schreiben oder gar Produkte selbst einstellen und durch eigene Beschreibungen attraktiver gestalten. Diese Unternehmen gehörten auch zu den wenigen großen Unternehmen der New Economy, die den Dot-Com-Hype überlebten. Das frühe Internet, heute als Web 1.0 bezeichnet, stellte somit mit wenigen Ausnahmen eine globale Informationsplattform dar, welche Interaktionen mit dem Kunden bzw. Nutzer hauptsächlich über die bereitgestellten Inhalte ermöglichte (Cyganski/Haas, 2007).
In den letzten Jahren hat sich das Internet inkrementell von einer „Informationsplattform“ zu einer „Mittmach-Plattform“ gewandelt. Die Benutzer generieren heutzutage ihren eigenen Content und benutzen oder entwickeln Plattformen, bei denen sie in Eigenregie in den Dialog zwischen Usern, Unternehmen und sonstigen Interessensgruppen treten.
Grundlage für Web 2.0 ist einerseits User-Generated-Content, d.h. Inhalte und Beiträge, die die Nutzer der jeweiligen Plattform selbst generieren, andererseits Social Software. Social Software sind neue informationstechnische Plattformen, welche sowohl Herstellung von User-Generated-Content als auch die menschliche Kommunikation und Kollaboration unterstützen (Bächtle, 2006). Beispiele für Social Software sind Blogs, Wikis, Medien-Austauschplattformen oder auch in gewisser Weise Suchmaschinen; sie und deren technische Beschaffenheit werden in den nächsten Kapiteln noch genauer beschrieben und es wird auf ihre potenzielle Rolle in Bezug auf das Semantic Web aufmerksam gemacht.
Wegen seiner vielseitigen Facetten ist es relativ schwer das Phänomen Web 2.0 mit wenigen Worten zu beschreiben. Der Begriff Web 2.0 wurde von O'Reilly, einem Verlagsgründer und engagierten Softwareentwickler, 2005 in der gleichnamigen Konferenz geprägt, um auf die fortschreitenden Veränderungen des Webs hinzuweisen (O'Reilly, 2005). Im Allgemeinen werden mit dem Begriff Web 2.0 eine Reihe von Technologien und Anwendungen bezeichnet aber auch eine Reihe zum Teil ausschlaggebender Verhaltensänderungen von Internetnutzern zusammengefasst (Cyganski/ Haas, 2007). Aus Anwendersicht begründet das Web 2.0 eine neue Philosophie der Internetnutzung sowie eine neue Umgangsform mit Inhalten und der gegenseitigen Kommunikation der Nutzer untereinander. Die Benutzer sehen das Internet zunehmend als „Mitmach-Plattform“ und weniger ausschließlich als Informationsquelle zentraler Anbieter (Cyganski/ Haas, 2007). Sie beteiligen sich aktiv an der Erstellung der Inhalte und dadurch schafft das Web 2.0 eine neue Art von Interaktivität, die die Benutzer und ihre Beiträge ins Zentrum stellt. Inhalte können vom Benutzer frei generiert werden, online zur Verfügung gestellt werden und geändert werden. Individuelle Meinungen können in unterschiedlicher Form geäußert werden, vernetzen sich mit den Beiträgen von Nutzern mit ähnlicher oder gleicher Meinung und verdichten sich zu einflussreichen Meinungspools. Der Einfluss und die Macht der Benutzer und Konsumenten steigen dadurch enorm und verlagern das Machtverhältnis zunehmend auf die Seite des Konsumenten bzw. des Benutzers.
Zusammenfassend zeichnet sich das Web 2.0 durch neue „Mitmach-Plattformen“ für User-Generated-Content, neue interaktive Kommunikationsinstrumente und durch die veränderte, aktive und extrovertierte Rolle der Benutzer aus (siehe Abb. 1).
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1: Die Web 2.0 Komponenten (nach Stanoevska-Slabewa, 2008)
2.2 Anwendungen des Web 2.0
In diesem Unterkapitel werden die führenden Anwendungen bzw. Plattformen des Webs 2.0 in Kürze vorgestellt um Anwendungsfelder, der in der Folge beschriebenen Technologien zu verdeutlichen. Die Entwicklung und Anwendung dieser Plattformen sind die Grundlagen des Webs 2.0 und haben entscheidend dazu beigetragen, dass User ihre eigenen Inhalte generieren und über diese Plattformen kommunizieren.
2.2.1 Weblogs
Ein Weblog (aus dem Englischen: „Web“ und „log“, Kurzform „blog“) stellt eine Onli- ne-Publikation mit abwärts-chronologischen Einträgen dar und dient sowohl dem Austausch von Informationen, Gedanken und Erfahrungen als auch der Kommunikation. Die ersten Blogs traten Mitte der 90er Jahre auf und nahmen die Form von einfachen Online-Tagebüchern an, in denen die Web-User in periodischen Abständen über ihr Leben berichteten. Für den Autor des Blogs, den so genannten Blogger, stellt der Blog ein einfach handhabbares Medium dar, um seine Leser mit Aspekten oder Meinungen zu bestimmten fachspezifischen Themen oder sein eigenes Leben betreffenden Themen zu erreichen. Blogs werden zudem gerne von der Leserschaft als eine besonders glaubwürdige interaktive Alternative zu den traditionellen Webportalen und klassischen Medien, wie Zeitungen oder Fernsehen, wahrgenommen und zeichnen sich meist durch einen reißerischen, emotionellen Kommunikationsstil aus (Stocker/Tochtermann, 2009).
Weblog-Publishing-Systeme stellen als technische Basis, Content-ManagementSysteme zur Verwaltung von Weblogs dar. Kenntnisse im Webdesign sind für den Blogger unter Berücksichtigung der modernen Systeme zumeist nicht mehr notwendig. Bekannte Systeme basieren zumeist auf einer einfachen PHP-Lösung mit einer MySQL- Datenbank im Hintergrund und bieten teilweise anspruchsvolle Vorlagen (Templates) für eine individuelle Gestaltung, ohne technische Kenntnisse als Voraussetzung mitbringen zu müssen. Die stark verbreitete Blog-Software „Wordpress“ lässt sich beispielsweise sowohl auf einem eigenen Serverrechner installieren, als auch als Dienst mittels application service providing (ASP) verwenden. Demgegenüber lässt sich Google Blogger lediglich als ASP verwenden.
Auf der technischen Seite stellen Blog-Inhalte so genannte „Microcontents“ dar, die über Permalinks (ein Kombinationswort aus „permanent“ und „link“) von anderen Stellen dauerhaft verlinkt werden können. Ein Permalink bezeichnet einen Uniform Resource Locator (URL), der direkt auf einen spezifischen Blog-Eintrag zeigt, unabhängig davon, an welcher Stelle sich dieser Inhalt im Blog befindet (Stocker/ Tochtermann, 2009).
Hingegen ermöglicht ein Trackback (Sixapart.com, o.J.) dem Autor eines Blogs festzustellen, ob ein anderer Blog auf seine Beiträge verlinkt. Wird die Trackback-Funktion verwendet, sendet die eigene Web-Site ein Netzwerksignal (Ping) an eine bestimmte URL der Ziel-Webseite. Die empfangende Webseite erstellt einen Link zur sendenden Seite zurück und definiert damit die Beziehung zwischen diesen beiden Seiten. Durch diesen Benachrichtigungsdienst können Weblogs automatisiert Informationen untereinander austauschen. Durch die Verwendung von Trackbacks entstand auch die Verlinkung der Blogs untereinander zur „Blogosphäre“, welche die Gesamtheit aller Blogs als ein virtuelles soziales Netzwerk bezeichnet. Diese spezifische Verlinkung führt zur Eigendynamik der Blogosphäre und ist verantwortlich dafür, dass sich interessante oder brisante Blog-Einträge schneeballartig verbreiten können. Durch die Wechselwirkungen der Medien untereinander werden Informationen auch von traditionellen Medien aufgenommen (Stocker/ Tochtermann, 2009), wobei oft Blogs als zusätzliche In formation s- quellen für den klassischen Journalismus verwendet werden.
Während ein Blog den Autor und seine subjektive Sichtweise in den Mittelpunkt stellt, führt bei einem Wiki, eine kollektive Autorenschaft dazu, dass die einzelne Meinung zugunsten der Meinung einer kollektiven Masse verschwindet. Dies bezeichnet O'Reilly im Web als „kollektive Intelligenz“ (O'Reilly, 2005). Ein weiterer großer Vorteil von Blogs ist, dass Blogs mit Suchmaschinen besser gefunden werden können und dadurch schneller informieren als andere Medien.
Für Benutzer ist es trotz allem nach wie vor schwierig zwischen wesentlichen und unwesentlichen Inhalten zu unterscheiden. Manchmal möchte der Benutzer sich selbstständig in ein Thema vertiefen und mittels Suchbegriffen verwandte Einträge angezeigt bekommen. Dabei kommt im Semantic Web die Suche mittels Ontologien ins Spiel. Im Semantic Web spielen Weblogs eine große Rolle für das Auffinden von Information und deren Darstellung. Diese Technik kann dem Benutzer, mittels Visualisierung der Inhalte durch Landkarten, eine grafische Orientierung geben, wodurch er Ergebnisse und verwandte Konzepte durch Heran- oder Herauszoomen erkennen kann. Ein mögliches Anwendungsszenario wird in Kapitel 5.3 skizziert.
2.2.2 Wikis
Die ursprüngliche Vision des Web-Pioniers Tim Berners-Lee das Web als ein Read- and-Write-Web erfahrbar zu machen und eine offene Kollaboration zu ermöglichen, kommt die Idee des Wiki am nächsten (Berners-Lee/ Fischetti, 1999). Ein Wiki, auch WikiWiki oder Wiki-Web genannt, bezeichnet Webseiten, deren Inhalte von Usern nicht nur gelesen, sondern auch online verändert werden können und mittels Querverweisen (Hyperlinks) miteinander verbunden sind. Der Name Wiki stammt vom hawaii- anischen Wort „wikiwiki“ und bedeutet „schnell, schnell“, abgeleitet von den kleinen Bussen, die in hawaiianischen Städten verkehren (Stocker/Tochtermann, 2009). Das erste Wiki-System wurde 1995 von Ward Cunningham entwickelt ([o.V.] Wikipedia, 2010).
Wikis ähneln klassischen Content-Management-Systemen verfügen aber im Gegensatz zu ausgefeilteren Systemen über kein ausdifferenziertes Benutzermanagement und ein entsprechendes Rollenkonzept. In einem Wiki sind grundsätzlich alle Inhalte durch den User, aufgrund des elementaren Prinzips der Selbstorganisation, abänderbar und es wird aufgrund seiner speziellen Eigenschaften bevorzugt für Tätigkeiten eingesetzt, die im höchsten Maße kollaborativ sind. Beispielsweise sind das gemeinsame Erstellen eines Dokuments, oder das gemeinsame Planen einer Veranstaltung innerhalb eines Teams oder einer Gruppe geeignete Anwendungsbereiche. Eine sehr bekannte und weit verbreitete Open-Source Wiki-Software ist MediaWiki, auf der auch die freie Online Enzyklopädie Wikipedia basiert. Neben der Installationsmöglichkeit auf einem eigenen Serverrechner kann MediaWiki auch als ASP verwendet werden (Stocker/Tochtermann, 2009).
Auf der technischen Seite stellt die Wiki-Software einen Typ kollaborativer Software dar, die ein Wiki-System betreibt. Für gewöhnlich wird das Wiki als serverseitiges Skript implementiert, welches auf einem oder mehreren Web-Servern läuft. Für das persönliche Wissensmanagement finden allerdings auch clientseitige Wikis, wie beispielsweise das von Jeremy Ruston entwickelte TiddlyWiki, Verwendung (Stocker/ Tochtermann, 2009).
Der von den Usern erstellte Content wird üblicherweise in einer Datenbank gespeichert. Die Wiki-Engine implementiert die eigentliche Wiki-Technologie, während „Wiki- Software“ die gesamte Software bezeichnet, die nötig ist, um ein Wiki zu betreiben wie z.B. Softwarekomponenten für den Betrieb eines Web Servers oder der dazugehörigen Datenbank. Mittlerweile existieren über 100 unterschiedliche Wiki-Engines (c2.com, o.J.), meist Open-Source. Allen gemeinsam ist die Tatsache, dass sie ein minimales Set an Wiki-Prinzipien integrieren. Beispielsweise ermöglichen Wikis die einfache Generation von Hyperlinks, wodurch User befähigt werden, die entsprechenden Seiten auf dem Wiki zu besuchen. Wikis weisen zudem eine ähnliche, sehr einfach zu erlernende Formatierungssyntax auf (Stocker/ Tochtermann, 2009).
Da den Seiten eines Wikis eine Versionierung zu Grunde liegt, sind Änderungen von Seiten in einem Wiki stets nachvollziehbar, so können auch beispielsweise dem Vandalismus unterliegende Seiten in ihre anfängliche Form zurückgeführt werden. Dabei reicht die Historie an Änderungen teilweise bis zur ersten Version einer Seite zurück. Unterschiede zwischen zwei Versionen eines Artikels können anhand einer speziellen Ansicht, in der diese nach Zeilen geordnet hervorgehoben sind, festgestellt werden.
Wikis und insbesondere Wikipedia, wird für das automatische Zuweisen von Themengebieten zu beliebigen Dokumenten und das dafür notwendige „maschinelle Verständnis“ der Dokumente durch die thematisch vorsortierte Datenbank, die Wikipedia zu Grunde liegt, eine große Rolle spielen (Krötzsch/ Vrandecic, 2009). Dieser Ansatz wird in Kapitel 5.4 dargestellt.
2.2.3 Suchmaschinen - die Suche im Internet
Mit der beträchtlich steigenden Anzahl von Webseiten nach dem Aufschwung des WWW in den ersten Jahren (1993 bis 1996) gab es einen Anstieg der Webseiten von 130 auf über 600.000 (Stahlknecht/ Hasenkamp, 2005). Entsprechend wurde die Suche nach Inhalten ein sehr wichtiges Thema. Waren weder die Adresse (URL) einer Seite bekannt, noch eine Verlinkung durch eine andere direkt vorhanden, so glich die Suche der sprichwörtlichen Suche nach der Stecknadel im Heuhaufen.
Erste Abhilfe leisteten hier so genannte Web-Kataloge. Web-Kataloge ordnen Webseiten bestimmten Kategorien zu, maschinell und manuell. Somit konnten User in einem laufend wachsenden Webkatalog nach den Seiten der jeweiligen Kategorie suchen und diese direkt über einen Link erreichen. Die manuelle Pflege der Kataloge versprach eine hohe Qualität und Relevanz der Verlinkungen, war jedoch auch mit einen hohen Aufwand und dementsprechend hohen Kosten verbunden (Komus/ Wauch, 2008).
Suchmaschinen arbeiteten nach dem Prinzip der „Webcrawler“. Sie durchsuchen permanent das Web, indem sie verschiedenen Links von Webseiten folgen, diese auslesen und so gefundene Stichworte mit Bezug auf die Adresse indexieren. Das Ausführen einer Suchanfrage mit einem bestimmten Suchbegriff löst lediglich eine Suche in der Datenbank aus, in der die Web-Suche des Webcrawlers vorher gespeichert wurde. Die Suche auf einer lokalen Datenbank führt zwar dazu, dass die Ergebnisse in kürzester Zeit bereitgestellt werden, aber auch zu einer entscheidenden Schwäche. Da die Angaben sich auf die Ergebnisse früherer Suchen beziehen und das Web sich stetig verändert, bekommt der Suchende immer wieder veraltete Suchergebnisse. Zudem ist die Anzahl der durchsuchten Webseiten begrenzt und deshalb können relevante Seiten oft außen vor bleiben (Komus/ Wauch, 2008).
Zwar wurde eine Vielzahl von potentiell geeigneten Treffern angezeigt doch konnte die Technologie nicht über die Relevanz der Treffer entscheiden. Das PageRank-Verfahren von Google brachte hier jedoch Abhilfe (Komus/ Wauch, 2008). Es basiert auf der Annahme, dass die Anzahl und Qualität der Links, die auf die Webseite verweisen einen Hinweis auf die Relevanz der jeweiligen Seite geben. Um eine weitere Steigerung der Qualität der Sortierung der Suchergebnisse zu ermöglichen, kann die Bewertung dahingehend noch verfeinert werden, dass die Qualität der jeweiligen Links unterschiedlich bewertet wird, je nachdem wie viele Links wiederum auf diese Seite verweisen. Der PageRank wird also, abhängig von den Bewertungen der verweisenden Seite dividiert durch die Anzahl der von den jeweiligen Seiten ausgehenden Links, ermittelt (Komus/
Wauch, 2008). Die folgende Abbildung stellt die Funktionsweise noch einmal grafisch dar:
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2: PageRank - Google, Modell von 1998 (Quelle: Griesbaum/ Bekavac/ Rittberger, 2008)
Im weitesten Sinne nutzt der Suchalgorithmus von Google die zentralen Kennzeichen eines Social-Software-Systems: er basiert auf User-Generated-Content, die Inhalte werden durch die Nutzer - hier von den Webseitenautoren vorgenommenen Verlinkungen - bewertet und geben so Aufschluss über die Relevanz.
Dennoch stoßen die heutigen Suchmaschinen schnell an ihre Grenzen, weil heute kein Mensch mehr beurteilen kann, ob sich tatsächlich alle relevanten Ergebnisse in der Fülle der angebotenen Suchtreffer befinden. Ähnlich den Problemen, denen das Tagging sich gegenüber sieht (s. 2.3.4 Taxonomien), sind unter anderem die sprachlichen Mehrdeutigkeiten auf unterschiedlichen semantischen Abstraktionsebenen dafür verantwortlich. Ein Wort selbst kann unterschiedliche Bedeutungen besitzen (Homonymie), z.B. bezeichnet „Golf ‘ eine Sportart oder einen Meeresarm. Diese unterschiedlichen Bedeutungen, können nicht alle der vom Suchenden intendierten Bedeutung entsprechen und erschweren somit die Suche ungemein. Ähnlich verhält es sich mit Synonymen, die denselben Begriff mit anderen Wörtern beschreiben. Sie können über eine einfache schlüsselwortbasierte Suche nicht gefunden werden. Somit liegt der Schluss nahe, dass die inhaltliche Bedeutung (Semantik) eines Dokuments und nicht die darin verwendeten Zeichenketten im Vordergrund einer inhaltsbasierten Suche stehen müssen (Sack, 2010).
Die Möglichkeiten und Technologien des Semantic Web versprechen hier Abhilfe zu schaffen und werden im Kapitel 5.2 näher in Bezug auf die Möglichkeiten der semantischen Suche beleuchtet.
2.3 Technologien des Web 2.0
Aus technologischer Perspektive bedeutet das Web 2.0 eine inkrementelle Innovation sowie konsequente Nutzung von teilweise schon verfügbaren Technologien, welche in den vorhergehenden Kapiteln bereits erwähnt wurden.
Internetangebote wurden durch neue Protokolle und Sprachen wie Ajax und Flash flexibler und benutzerfreundlicher gestaltet. Im selben Zuge ermöglichen Protokolle zum Austausch von Information wie RSS (Really Simple Syndication) und sogenannte Mashups, eine einfachere Vernetzung der Anwendungen untereinander. Zugleich wird durch gemeinsame Standards und Konventionen die Interoperabilität sichergestellt und damit die Zusammenarbeit räumlich und zeitlich verteilter Nutzer überhaupt ermöglicht. In der Folge werden die führenden Technologien in Kürze vorgestellt und ihre Funktionsweise erläutert.
2.3.1 Ajax als Technologiekonzept für Rich Internet Applications
In der Regel versteht man unter dem Begriff der Rich Internet Applications Internetanwendungen, welche eine reiche (vielfältige) Menge an Interaktionsmöglichkeiten mit ihrer Benutzeroberfläche bieten (Stocker/ Tochtermann, 2009). Insbesondere RIAs, die in Webbrowsern laufen, ähneln eher dynamischen Desktopanwendungen als klassischen (statischen) Webseiten. Rich Internet Applications sind in hohem Maße verantwortlich für den Siegeszug von Web 2.0 und bieten durch ihren Einsatz vielfältige Möglichkeiten für den Nutzer.
[...]
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.