Die Zukunft des World Wide Web- Semantic Web und Web 2.0


Examensarbeit, 2007

55 Seiten, Note: 1,3


Leseprobe


Inhaltsverzeichnis

Abbildungsverzeichnis

Abkürzungsverzeichnis

1 Einleitung

2 Semantic Web
2.1 Grundlagen
2.1.1 Semantik
2.1.2 Metadaten
2.2 Definition
2.3 Architektur
2.3.1 Unicode und Uniform Resource Identifier
2.3.2 Extensible Markup Language und Namespaces .
2.3.3 Resource Description Framework
2.3.4 Ontologien
2.3.4.1 Definition
2.3.4.2 Resource Description Framework-Schema .
2.3.4.3 Web Ontology Language
2.3.5 Logic, Proof und Trust
2.4 Chancen und Risiken

3 Web 2.0
3.1 Entstehung des Begriffs
3.2 Definition
3.3 Prinzipien
3.3.1 Der Netzwerkeffekt
3.3.2 Die Kollektive Intelligenz
3.3.3 The Long Tail
3.4 Technologien
3.4.1 Asynchronous Javascript and Extensible Markup Language .
3.4.2 Really Simple Syndication
3.5 Chancen und Risiken

4 Analyse und Bewertung der beiden Initiativen
4.1 Gegenüberstellung der Ansätze
4.1.1 Gemeinsamkeiten
4.1.2 Unterschiede
4.2 Metadaten als Bindeglied
4.2.1 Folksonomie versus Taxonomie
4.2.2 Microformats
4.3 Bisherige Erfolge und Probleme
4.4 Ausblick

5 Fazit

Literaturverzeichnis

Abbildungsverzeichnis

1 Architektur des Semantic Web

2 Aufbau eines RDF-Statements

3 Quellcode: RDF eingebettet in XML

4 Nutzenpotentiale semantischer Technologien

5 Web 2.0 Mindmap

6 Der Netzwerkeffekt

7 The Long Tail

8 Quellcode: Microformats

9 Vergleich der Googleanfragen von Semantic Web und Web 2.0

10 Die Zukunft des WWW

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

”IBMbringtWeb2.0indieUnternehmen“1, und titelt die Computerwoche am 02.02.2007 ”SemanticWebimKommen“2 lauteteineSchlagzeilebeidenHeiseOnlineNewsam 29.11.2006. Das World Wide Web (WWW) verändert sich und sein Vokabular gleichermaßen, was Anlass ist für die vorliegende Abschlussarbeit. Sie untersucht die Konzepte des Semantic Web und des Web 2.0 ausführlich und soll aufgrund einer Analyse der beiden Ansätze einen Ausblick auf die Zukunft des WWW geben.

Der Erfinder des WWW ist der Brite Tim Berners-Lee, der 1989 dem Conseil Européen pour la Recherche Nucléaire (CERN) Labor3 das Papier ”InformationManagement:A Proposal“ einreichte.4 Seine grundsätzliche Idee ist, dass jeder Benutzer sowohl Informationen abrufen als auch selbstständig Inhalte anbieten kann.“5

Das WWW wurde zunächst jedoch ausschließlich von Hochschulen und Computerspezialisten genutzt und konnte sich nicht auf Anhieb in der breiten Öffentlichkeit mit den angedachten Funktionen durchsetzen. Der Masseneinstieg der Bevölkerung als Produzenten blieb aufgrund der Komplexitität der Technologien ein Wunschtraum und der Grundgedanke des WWW von Tim Berners-Lee konnte zunächst nicht verwirklicht werden. In den folgenden Jahren nahm das WWW jedoch eine rasante Entwicklung. Die technische Infrastruktur und Hardware wurde deutlich verbessert. Die Entwicklung ist seit Jahren steigend und es ist kein Ende in Sicht. Laut Netcraft6 sind im Februar 2007 über 108 Millionen Hosts im WWW erreichbar. Auch wenn die Qualität bezüglich des Informationsgehalts stark variiert, muss sich der Mensch heute einem übermächtigen Informationsangebot oder sogar einem Informationsüberfluss stellen.

Um dieses Problem zu lösen, soll der Computer mehr Arbeit zur Informationsrecherche erfüllen. Software wie Suchmaschinen sind jedoch nicht in der Lage die Inhalte von Webseiten zu verstehen und deren Bedeutung weiterzuverarbeiten. Die dargestellten Informationen können meist mehrere Bedeutungen haben. Dieses Problem löst das Semantic Web, die Art und Weise wird zu Beginn der Arbeit erklärt. Als Einführung sollen zuvor die Begriffe Semantik und Metadaten detailliert definiert werden, um eine Sensibilität für diesen Themenbereich zu erzeugen.

Auf die Vision des Semantic Web folgt eine Darstellung des Web 2.0. Ende des Jahres 2004 ist im Internet der Begriff Web 2.0 aufgetaucht. Besonders in Weblogs7 wird der Be- griff häufig diskutiert und es werden verschiedene Ansichten veröffentlicht. Es soll geklärt werden, wie dieser Begriff entstanden ist. Damit der Leser sich einen Gesamteindruck über die momentanen Diskussionen im Internet machen kann, soll ein Überblick über die verschiedenen Ansichten des Begriffs Web 2.0 gegeben werden. Der Schwerpunkt im Kapitel Web 2.0 soll auf der Partizipation der Benutzer des Internets erfolgen. Es soll ergründet werden, worauf dieses Prinzip der Partizipation beruht.

In dieser Arbeit sollen zunächst die Ungereimtheiten auf begrifflicher Ebene beim Semantic Web und Web 2.0 beseitigt werden. Es soll bei beiden Konzepten ein Einblick in die Technik gegeben werden, um sich ein Urteil darüber bilden zu können. Dabei sollten zum besseren Verständnis die Grundlagen in HTML vorhanden sein. Weiterführend in Verbindung mit Ontologien sind Kenntnisse der Objektorientierung von Vorteil.

2 Semantic Web

2.1 Grundlagen

2.1.1 Semantik

Die Semantik ist die Bedeutungslehre als Teilgebiet der Linguistik. Sie untersucht den Sinn und die Bedeutung von Sprache, genauer gesagt von sprachlichen Gebilden wie Wor- ten oder ganzen Sätzen. Hervorzuheben ist, dass Semantik sich nicht mit der Bedeutung von Handlungen beschäftigt, sondern ausschließlich mit sprachlichen Gebilden.8 Das ”Ziel der Semantik besteht darin, unser Wissen über die Bedeutung der einzelnen Wörter und Sätze aufzudecken und zu beschreiben, worin dieses Wissen eigentlich besteht.“9

Die Semantik ist neben der Syntax und der Pragmatik ein Teilgebiet der Semiotik. Die Syntax beschäftigt sich mit den Beziehungen zwischen den Zeichen. Die Pragmatik mit der Beziehung zwischen den Zeichen und den Agenten, der die Zeichen verwendet.10

Jeder Mensch hat einen gewissen Interpretationshintergrund, mit Hilfe dessen er die Be- deutung eines Wortes erzeugt. Diese kann sich bei jedem Mensch für jedes Wort bzw. sprachliches Gebilde unterscheiden. Deutlich wird das an einem Beispiel: Eine 80-jährige Person definiert das Verb ”surfen“alsWellenreitenaufdemMeer,ein18-jährigerhat jedoch eine andere Bedeutung vor Augen. Für ihn ist ”surfen“dasVerhaltenderCom- puterbenutzer im Internet. Die Bedeutung eines sprachlichen Gebildes hängt demnach stark vom Interpretationshintergrund und Äußerungskontext sowohl vom Sender als auch Empfänger ab. Außerdem nehmen Zeitpunkt und Ort Einfluss auf die Semantik von Wör- tern.11

Es treten aufgrund der Ungenauigkeit der Sprache Schwierigkeiten bei der Interpretation von Wörtern auf. Die semantische Unschärfe:

- Homonyme sind Wörter, die verschiedene Bedeutungen in verschiedenen Zusam- menhängen haben können, wie das Verb ”surfen“.
- Synonyme sind verschiedene Wörter mit derselben bzw. ähnlichen Bedeutung, wie z.B. Streichholz und Zündholz.
- Hyponyme und Hyperonym kennzeichnen Unterbegriffe bzw. Oberbegriffe von Begriffen.12

Lösungsansätze dieser Probleme mit denen auch die WWW-Suchmaschine Google zu kämpfen hat, konnten die Situation bisher lediglich verbessern, jedoch nicht lösen:

Der erste Ansatz ist die nachträgliche Erschließung von implizit vorhandener Bedeutung, wie es bei der Künstlichen Intelligenz (KI) praktiziert wird. Durch die Kombination von Wörtern wird versucht den Bedeutungszusammenhang zu schließen bzw. zu erraten. Der zweite Ansatz ist die Auswertung explizit vorhandener, semantischer Informationen. Hier wird vom Verfasser die Bedeutung in Form von Metadaten explizit erläuternd hin- zugefügt.13 Der Einsatz von Metadaten wird im folgenden Kapitel näher betrachtet.

2.1.2 Metadaten

Für den Begriff Metadaten gibt es verschiedene Definitionen, die sich in ihrer Wortwahl unterscheiden, aber inhaltlich überschneiden. Die Einen sagen es seien bzw. ”DatenüberDaten“ ”InformationenüberInformationen“anderedefinieren,dassMetadatendieBedeu- tung von Daten erläutern oder eine Verknüpfung zu einer weiteren Information seien können.14

Bei der Vielzahl von Definitionen ist es hilfreich, die Vorsilbe ”Meta“zunächstexplizitzu definieren. Das Präfix Meta hat griechischen Ursprung und bedeutet übersetzt soviel wie ”inmitten,dazwischenbzw.außerdem“.UmgangssprachlichlässtderBegriffMeta ”eine höhere Ebene, eine Stufe darüber anklingen.“15 Meta deutet also auf eine Erweiterung und Vertiefung auf einer anderen Ebene hin.

Eine umfassende Definition des Begriffs Metadaten formuliert Krasemann: Metadaten sind ”Daten,dienachDaten,zuDatenoderüberDatenvorliegenoderzusammengestellt werden, die darauf verweisen und ihr Verständnis verbessern.“16

Die Metadaten lassen sich in verschiedene Aufgabenbereiche gliedern:

- Es gibt die inhaltsunabhängigen Metadaten, die nicht direkt mit dem Inhalt in Beziehung stehen. Sie beschreiben den groben Kontext oder das Umfeld. Sie werden vom Autor hinzugefügt.
- Die inhaltsabhängigen Metadaten lassen sich direkt von den Informationen ab- leiten, aber beschreiben nicht den Inhalt selbst, wie Seitenzahlen und Größe eines Dokuments.
- Die inhaltsbasierenden Metadaten, die sich direkt mit dem Inhalt selbst befassen und zudem eine effiziente Nutzung des Inhalts ermöglichen. Inhaltsbasierende Metadaten sind z.B. Volltextindizes.
- Die inhaltsbeschreibenden Metadaten liefern eine abstrakte Beschreibung oder auch eine Zusammenfassung wie z.B. eine Schlüsselwörterliste.17

Die Aufgabe der Metadaten ist weniger der Neuaufbau komplexer Umweltinformationssys- teme, sondern eher alte Datensammlungen aufzubereiten und in eine gemeinsame Struktur zu bringen. Besonders geeignet sind die Metadaten, wenn unterschiedliche, jeweils von- einander unabhängige Stellen unter verschiedener Zielsetzung Informationen bereitstellen ohne die Absicht einer späteren Integration in ein Informationssystem.18

Der Einsatz von Metadaten bewirkt demnach bessere Erschließungsmechanismen, weil sich Beziehungen zwischen Ressourcen herstellen lassen und diese dadurch besser auffindbar werden. Der Nachteil beim Einsatz von Metadaten ist ein gewisser Standardisierungsgrad bei der Angabe von Metadaten, weil sich auf ein gemeinsames Vokabular geeinigt werden muss.

Eine eindeutige Trennung zwischen Metadaten und Daten lässt sich nicht vornehmen. Es ist vielmehr eine Frage des Standpunkts und der Sichtweise. Daten, wie das Abgabeda- tum, der Verfasser und der Seitenumfang über eine Abschlussarbeit, sind Metadaten. Der gleiche Verfasser kann aber ebenso ein Datum sein und wiederum Metadaten besitzen wie ein Geburtstag oder die Körpergröße. Das gleiche Wort ist also einmal den Daten und einmal den Metadaten zuzuweisen. Abhängig von der Fragestellung können Daten Metadaten sein und andersrum.19

Im Zusammenhang mit dem Semantic Web definiert Tim Berners-Lee den Begriff Meta- daten wie folgt: ”Metadataismachineunderstandableinformationaboutwebresources or other things.“20 Daran orientiert sind Metadaten in dieser Arbeit Daten über Ressourcen, die durch beschreibende Informationen die Bedeutung der Ressourcen erläutern bzw. übertragen oder auf eine andere Ressource verknüpfen bzw. verweisen.

2.2 Definition

Das Semantic Web ist eine Vision des britischen Informatikers Tim Berners-Lee. Der Er- finder des WWW hat das Konzept ”SemanticWeb“fürdiezukünftigeEntwicklungdes WWW definiert. Die Grundlage des Konzepts sind der Einsatz von maschineell verarbeit- baren Informationen im WWW. Weil bisher die Informationen lediglich von Menschen interpretiert werden können, sollen mittels semantischen Metadaten, Ontologien und logischen Rückschlüssen die Informationen maschinenverständlich aufbereitet werden.21 Das Ziel des Semantic Web ist es schwierige Aufgaben zu bewältigen, etwa Daten aus vielen verschiedenen Webseites zu einem konkreten Zweck zusammenzuführen.22

Die ausführliche Betrachtung des Semantic Web soll aus zwei Richtungen erfolgen. Es wird zwischen der anthropologischen Betrachtungsweise mit dem Menschen im Mittel- punkt und der technikzentrierten Betrachtungsweise unterschieden. Bei der anthropologischen Betrachtungsweise des Semantic Web steht nicht die Technik, sondern der Mensch im Mittelpunkt. Diese Ansicht wird in einer Definition der Initia- toren der Semantic Web-Idee verdeutlicht, die in dem Artikel ”TheSemanticWeb“von Tim Berners-Lee, James Hendler und Ora Lassila in der amerikanischen Fachzeitschrift ”ScientificAmerican“veröffentlicht wurde:

”TheSemanticWebisnotaseparateWebbutanextensionofthecurrentone, in which information is given well-defined meaning, better enabling computers and people to work in cooperation.“23

Es soll laut Definition ausdrücklich kein neues Web entstehen, sondern das bisher existierende erweitert werden. Die Erweiterung soll eine zusätzliche Bedeutungsdimension enthalten, die von Menschen aufgespannt wird und zu jeder Information eine maschinenlesbare Bedeutung, die explizite Semantik, enthalten soll. Dies soll die Zusammenarbeit zwischen Computern und Menschen deutlich verbessern. Es soll eine Unterstützung in Form einer Entlastung des Menschen stattfinden. Im Mittelpunkt der technikzentrierten Betrachtungsweise stehen zum einen gemeinsame Formate zum Datenaustausch und zum anderen die Sprachen zum modellieren der Zusammenhänge zwischen den Daten.

”TheSemanticWebisabouttwothings.Itisaboutcommonformatsfor interchange of data.(...) Also it is about language for recording how the data relates to real world objects.“24

Das World Wide Web Consortium (W3C) entwickelt Spezifikationen für den Einsatz des Semantic Web. Das Ziel ist nicht die Verschmelzung der Daten mit Ziel der KI, sondern das Verbessern der Kommunikation zwischen Maschine und Maschine. Durch die technischen Spezifikationen wie Resource Description Framework (RDF), Resource Description Framework Schema (RDFS) und Web Ontology Language (OWL) soll es ermöglicht werden, die Bedeutung der Wörter in maschinenverwertbarer Form darzustellen.

In dieser Arbeit wird auf beide Ansichten des Semantic Web näher eingegangen werden. Es soll ein Einblick in die technischen Spezifikationen des W3C gegeben werden, um ein grundsätzliches Verständnis für die Potentiale und Risiken bei der Umsetzung des Semantic Web zu entwickeln. Deshalb wird im weiteren Vorgehen auf ein von Tim BernersLee entwickeltes Schichtenmodell über die Architektur des Semantic Web zurückgegriffen werden, das die Zusammenhänge der einzelnen Bestandteile verdeutlicht:

illustration not visible in this excerpt

Abbildung 1: Architektur des Semantic Web

Quelle: Berners-Lee, T. (2005), http://www.w3.org/2005/Talks/1110-iswc-tbl/#(12).

Die verschiedenen Stufen der Semantic Web Architektur sind so angeordnet, dass die obere Ebene jeweils eine Teilmenge der unteren ist. Deshalb ist es unerlässlich, diese Reihenfolge umzusetzen, damit ein stabiles Semantic Web aufgebaut werden kann. Jede Stufe macht von der unteren Gebrauch und ist sozusagen eine Erweiterung.25 Im weiteren Verlauf wird auf die wesentlichen Begriffe der Stufenarchitektur eingegangen. Die Abfragesprache SPARQL Protocol And RDF Query Language (SPARQL) dient zum Informationsgewinn aus RDF-Graphen.26 Auf eine explizite Behandlung wird in dieser Arbeit verzichtet.

Bei der reinen Betrachtung des Begriffs Semantic Web müsste sich das dahinterstehende Konzept lediglich mit der Semantik befassen. Da diese sich jedoch nach Definition in 2.1.1 ausschließlich der Bedeutung von sprachlichen Gebilden widmet und nicht die Syntax und die Pragmatik umfasst, ist für Kritiker wie John F. Sowa der Begriff ”SemanticWeb“zu eng gefasst. Nach ihren Vorstellungen müsste es es sich nach Definition des Begriffs ”SemioticWeb“heißen.Denndannwürde ”Semiotic“nebenderSemantikauchmitderSyntax und der Pragmatik befassen, wie es das Semantic Web tatsächlich macht.27

2.3 Architektur

2.3.1 Unicode und Uniform Resource Identifier

Die erste Ebene der Architektur des Semantic Web besteht aus Unicode und dem Uniform Resource Identifier (URI), auch bekannt als Universal Resource Identifier. Sie bilden das Fundament und ihr Einsatz ist unerlässlich.

Unicode ist ein vom Unicode Consortium28 eingeführter internationaler Standard, der eine einzigartige Zahl bzw. einen einzigartigen Code für jedes Zeichen festlegt. Dabei ist es egal auf welcher Plattform, für welches Programm oder in welcher Sprache das Zeichen einge- setzt wird. Vor der Einführung von Unicode wurden vermehrt verschiedene Zeichensätze eingesetzt, was häufig aufgrund der inkompatiblen Kodierungen zu Konflikten führte. Die erste Version Unicode 1.0.0 wurde 1991 eingeführt und die aktuelle Version Unicode 5.0.0 erschien im Juli 2006.29

Neben einem standardisierten internationalen Zeichensatz besteht die Basis des Semantic Web aus dem URI, einer Zeichenfolge zur Identifizierung einer Ressource. Dieser allge- meine Bezeichner unterscheidet zwischen konkreten und abstrakten Ressourcen. Für die konkrete Ressource wird der Uniform Resource Locator (URL) eingesetzt. Eine konkrete Ressource ist immer über ein Netzwerk wie das Internet erreichbar und existiert im Netzwerk tatsächlich. Eine URL identifiziert und lokalisiert eine Ressource.30 Ein Bei- spiel für die URL ist die Internetadresse http://www.heidrich.de.

Die abstrakten Ressourcen werden mit dem Uniform Resource Name (URN) identifiziert. Sie ist ebenfalls global einzigartig und zudem anhaltend und ortsunabhängig. URNs kön- nen sich auch auf Ressourcen beziehen, die im Internet nicht erreichbar sind wie eine Theorie oder ein Tier. Obwohl sie der URL ähnlich sehen, ist es aber wichtig zu unter- scheiden, dass die URN auch Dinge beschreibt, die nicht mit dem Computer erreichbar sind. Eine URN dient somit ausschließlich der Identifikation und nicht der Lokalisierung von Ressourcen.31 Die allgemeine Syntax der URL und der URN ist gleich und besteht aus drei Teilen: <schema>:<schema-specific-part>#<fragment>

- <schema>: Mit dem Schema kann ein Namensraum32 festgelegt werden, für den die URI gültig ist.
- <schema-specific-part>: Der Schema-Spezific-Part beschreibt den Teilbereich innerhalb dieses Namenraums.
- <fragment>: Der letzte Teil wird relativ zum vorherigen schemaspezifischen Anteil interpretiert.33

Im Semantic Web wird die URI zur Identifizierung von Ressourcen eingesetzt. Dies ist die Grundlage für die Verknüpfung von verschiedenen Ressourcen untereinander bzw. von Ressourcen mit einem Konzept.

2.3.2 Extensible Markup Language und Namespaces

In den Anfängen des WWW wurde zunächst ausschließlich die Hypertext Markup Langua- ge (HTML) zur Darstellung von Inhalten auf den Internetseiten eingesetzt. Jedoch kann HTML den Daten keine Struktur geben, da die HTML-Tags34 zum großen Teil aussagelos und frei von Semantik sind. Zudem stehen die verschiedenen Tags in keiner Verbindung zueinander. Deshalb wurde XML als eine ”erweiterbareAuszeichnungssprache“entwickelt, um selbst Tags definieren zu können. XML ist eine Untermenge der Standard Generali- zed Markup Language35 (SGML), die 1986 spezifiziert wurde. Mit diesen selbstgestalteten Tags von Extensible Markup Language (XML) ist es möglich, den Inhalt typisierend zu kennzeichnen. Durch diese beschreibenden Tags kann der Computer die Inhalte zwischen den Tags erkennen und weiterverarbeiten. Dadurch kann den Daten eine lesbare Struktur gegeben werden, die einen Datenaustausch in einem strukturierten Weg ermöglicht.36

Im Jahr 2000 wurde die Erweiterung XML Schema als eigene Definitionssprache für Da- tenstrukturen hinzugefügt. XML Schema ist eine Spezifikation der W3C zum Schreiben von wohlgeformten37 XML-Dokumenten. Sie schreibt die Syntax vor, die beim Erstellen von XML-Dokumenten eingehalten werden muss. XML-Schema kann durch die Document Type Definition (DTD) erweitert werden. Eine DTD spezifiziert Elemente mit Start- und Endtags, die ausschließlich in einem XML Dokument vorhanden sein dürfen. Im Doku- ment können diese Elemente dann mit Attributen bestehend aus einem Namen und einem Wert ergänzt werden. Ein XML Dokument ist dann gültig, wenn es diese grammatikali- schen Vorschriften der DTD erfüllt.38

Jedes Dokument verwendet eigene Schemata und DTDs. Dokumentenübergreifendes Ar- beiten erfordert einzigartige Namen, damit gleiche Elemente und Attribute miteinander verbunden werden können. Diese Definitionen der gemeinsam verwendeten Namen werden Namespaces (deutsch: Namensräume) genannt.39 Eine genaue Definition liefert das W3C: ”XMLnamespacesprovideasimplemethodforqualifyingelementandattributenames used in Extensible Markup Language documents by associating them with namespaces identified by URI references.“40 Im XML-Dokument werden die Element- und Attributnamen mit dem verwendeten Namensräumen verknüpft.

Zusammenfassend ist XML ein Austauschformat für schwach strukturierte Daten41, in dessen Hintergrund Datenmodelle in Form eines Schemas definiert werden. Diese Schema- ta können Beziehungen zwischen den Daten herstellen. Der Einsatz von XML hat jedoch auch Schwächen. XML ist in der Natur lediglich syntaktisch bzw. strukturell und kodiert häufig ein anwendungsspezifisches Datenmodell. Um Metadaten zu integrieren und die expliziete Semantik von Tags beschreiben zu können, wird RDF benötig.42

2.3.3 Resource Description Framework

Der XML basierte Standard RDF wurde als Basis für das Semantic Web vom W3C entwickelt. RDF ist ein Framework, das die Beschreibung von Ressourcen mittels Metadaten für das WWW ermöglicht. Die erste Spezifikation des W3C zum RDF wurde im Jahre 1997 veröffentlicht. Diese Spezifikation stellt einen überschaubaren, abstrakten Satz von Vokabeln für verschiedene Anwendungsgebiete (auch Domänen genannt) bereit, welche zur Beschreibung mit Metadatren benutzet werden dürfen.43 Dadurch wird die Beziehung zwischen Ressourcen und Konzepten eindeutig und maschinenlesbar.

Es können nicht nur Stichwörter aufgelistet werden, sondern ganze Aussagen formulieren, die von Maschinen verstanden werden können. Eine Aussage ist ein so genanntes RDFTripel. Ein RDF-Tripel oder auch RDF-Statement besteht aus drei Teilen:

- Das Subjekt besteht aus einer Ressource, die durch eine URI identifiziert wird. Über das Subjekt wird die Aussage formuliert. Alle Entitäten in RDF, eine ganze Webseite oder auch einzelne XML-Elemente können eine Ressource darstellen.
- Das Prädikat beschreibt die Eigenschaften, die Attribute oder Beziehungen, die das Subjekt hat.
- Das Objekt enthält den Wert der Eigenschaft bzw. der Beziehung und erzeugt so eine Aussage.44

Verdeutlicht wird dieser Aufbau an einer beispielhaften Aussage:

illustration not visible in this excerpt

Abbildung 2: Aufbau eines RDF-Statements

Quelle: eigene Darstellung.

Durch solche Tripel können Programme, so genannte Software Agents45, logische Annahmen und Rückschlüsse mit Hilfe der Assoziationen zwischen Subjekt und Objekt ziehen. Die oben gewählte Darstellungsform heißt Notation3-Tripel. Neben dieser TripelDarstellung gibt es noch die graphische Darstellung, die stark an Entity-Relationship- Diagramme46 erinnert und das eingebettete RDF in XML, das RDF/XML:

illustration not visible in this excerpt

Abbildung 3: Quellcode: RDF eingebettet in XML

Quelle: eigene Darstellung.

RDF liefert zwar ein Modell in Form einer Syntax zum Beschreiben der Ressourcen einer Domäne, aber es gibt keine Informationen über die Semantik aller Ressourcen im Web. Es basiert nicht auf einem einheitlichen Vokabular, dessen Beziehungen und Bedeutungen allgemein festgehalten sind. Zur Definition der Semantik und Beziehungen benötigen wird zusätzlich der Einsatz von Ontologien benötigt.

2.3.4 Ontologien

2.3.4.1 Definition

”Peoplecan’tshareknowledgeiftheydon’tspeakacommonlanguage.“47 DiesesZitat verdeutlicht die Anforderungen an Ontologien. Es muss eine gemeinsame Sprache als Basis zur Kommunikation untereinander definiert sein.

Für den Begriff der Ontologie existiert eine Vielzahl von Definitionen. Je nach Kontext und wissenschaftlichem Teilbereich wird der Begriff differenziert interpretiert. Der Ursprung des Begriffs stammt aus der Philosophie. Er bezeichnet eine philosophische Disziplin, die sich mit der Erforschung ”dessen,wasist“beschäftigt.Sieuntersuchtdie Bedeutung und Beschreibung der Realität.48 In der Informatik stammt die meist zitierteste Definition von T. Gruber:

“‘An ontology is an explicit specification of a conceptualization.“49

Eine Konzeptualisierung beschreibt ein gemeinsames Verständnis, ein abstraktes Modell eines Anwendungsbereiches, das von einer Gruppe von Menschen getragen wird. Sie verdeutlicht, dass eine Ontologie konsensuelles Wissen aufbringt. Das Wissen ist demnach nicht auf ein Individuum begrenzt, sondern wird von einer ganzen Gruppe vertreten. Eine Spezifikation soll aus einem eindeutigen Modell bestehen. Mit Explizit soll verdeutlicht werden, dass sowohl die Art der verwendeten Konzepte wie auch die Bedingungen ihrer Verwendung ausdrücklich und vollständig definiert sind.50

Eine Definition des W3C definiert die Ontologie wie folgt: ”Anontologyformallydefinesa common set of terms that are used to describe and represent a domain.“51 Auch hier wird die Ontologie als beschreibendes und repräsentatives Modell eines Anwendungsgebietes gesehen. Das W3C hat die Arbeitsgruppe WebOnt eingerichtet, die sich mit der Erstel- lung von Ontologien im Semantic Web beschäftigt. Sie erweitert u.a. das RDF-Schema um komplexe Beziehungen zwischen den Entitäten und Modellen zur Vererbung.52 Das RDF hat keinerlei vokabulare Einschränkungen in seiner Sprache. Daher entstehen heterogene Beschreibungsinseln, weil jeder seinen eigenen Wortschatz anwendet. Die On- tologien versuchen zusammengehörige Begriffe zu sammeln und zu strukturieren, indem sie die Begriffe ordnen, hierarchisieren und Beziehungen definieren. Dadurch erzeugt eine Ontologie ein Netzwerk der Begriffe. Zu den Ontologien zählt auch die Taxonomie, die eine Hierarchie der Begriffe aufstellt.

Die verbreitesten Ontologie-Beschreibungssprachen im Semantic Web sind die RDF Er- weiterung RDFS, DAML+OIL und OWL. Die OWL ist der offizielle Nachfolger von DAML+OIL. Im weiteren Verlauf der Arbeit werden das RDFS und das OWL näher vor- gestellt. Auf die nicht weiter entwickelte Beschreibungssprache DAML+OIL wird nicht weiter eingegangen. Sie ist ein Zusammenschluss der Defense Advanced Research Pro- gram (DARPA) Agent Markup Language und der Ontology Inference Layer. DAML ist ursprünglich von einem im Jahr 2000 gesponserten Forschungsprogramm des Verteidigungsministeriums der United States of America gegründet worden. Die OIL hingegen wurde von der Europäischen Union entwickelt und gefördert.53

Im weiteren Verlauf der Arbeit ist die Ontologie als ein Modell einer Verwendung einer gemeinsamen Sprache zu verstehen, die sich durch ein wohldefiniertes Vokabular auszeich- net. Als wohldefiniert wird ein Vokabular definiert, wenn ein einheitliches Verständnis innerhalb eines Vokabular über Begriffe und deren Beziehungen zueinander vorliegt.

2.3.4.2 Resource Description Framework-Schema

Das RDF-Schema, offiziell RDF Vocabulary Description Language, ist eine W3C Emp- fehlung vom Februar 2004. RDFS ist die Beschreibungssprache für das RDF-Vokabular und ist nicht anolog zum XML Schema zu verstehen. XML Schema definiert die Struktur von XML Dokumenten und RDFS legt das Vokabular für RDF fest. RDFS definiert die möglichen Eigenschaften und die Werte, die diese annehmen können.54

Das RDF-Schema ist eine Erweiterung zum RDF. Das RDF-Datenmodell bietet keine Möglichkeit, Eigenschaften oder Beziehungen in einem Dokument eine Bedeutung zu hin- terlegen. Metadaten können nicht näher beschreiben und somit keine Semantik festlegen. Das RDF-Schema wurde zur Lösung dieses Problems entwickelt. In jedem Schema kann festgelegt werden, welche Arten von Ressourcen mit ihm beschrieben werden dürfen. Die Grundidee des RDFS ist das Klassenmodell. Es können sowohl Klassen als auch Ei- genschaften modelliert werden. Die Ressourcen werden als Instanzen von den Klassen definiert. Dieses Klassenkonzept ermöglicht es, eine Spezifikation der Semantik der ver- wendeten RDF-Ressourcen vorzunehmen. Die Schema-Spezifikation stellt keine Attribute zur Verfügung, sondern legt nur Regeln für die Definition von Attributen und Klassen von Ressourcen fest. Das RDF-Schema ist vergleichbar mit der DTD für XML.55 Wie beim RDF wird das Tripel-Modell beim RDFS eingesetzt. Ein RDFS-Tripel besteht aus einer Klasse, einer Klasseneigenschaft und einem Wert, der die Klassen und Bezie- hungen zwischen den Ressourcen in einem Anwendungsgebiet festlegen.

Im Semantic Web können mit RDFS bereits erste Konzepte von Ontologien entwickelt werden. Für das Reasoning, das intelligente Schlussfolgern zum Informationsgewinn, ist die Ausdrucksstärke jedoch zu gering, da unter anderem keine Kardinalitäten abgebildet werden können und keine Möglichkeit besteht, Eigenschaften als disjunkt56 zu definieren. Hierzu wird der Einsatz von OWL benötigt.57

2.3.4.3 Web Ontology Language

Zum jetzigen Zeitpunkt ist die Web Ontology Language, auch als Ontology Web Language bezeichnet, die Sprache mit dem stärksten Ausdruck aller Ontologiesprachen, die bisher für das Semantic Web definiert worden sind. Sie baut auf RDF und RDFS auf und ist der Nachfolger vom DAML+OIL. Im Gegensatz zu DAML+OIL ist OWL eine Spezifika- tion vom W3C, das im Jahr 2001 eine Arbeitsgruppe hierfür bildete und 2003 die erste Spezifikation veröffentlichte. OWL definiert die Arten von Beziehungen, die mittels RDF ausgedrückt werden können. Diese Beziehungen dienen zum Definieren der Hierarchien zwischen den verschiedenen Ressourcen. Die OWL hat drei verschiedene Ebenen, unter denen ein Entwickler je nach Komplexität und Detailliertheit seines semantischen Modells auswählt:58

- OWL Full: OWL bietet die maximale Ausdruckskraft ohne Einschränkungen, weil es sämtliche OWL Sprachkonstrukte und syntaktische Freiheiten von RDF erlaubt. Wegen der hohen Komplexität können Fälle auftreten, die für die Ontologie unent- scheidbar sind.
- OWL DL: OWL DL (description Logic) ist eine Teilmenge von OWL Full und hat die selben Sprachkonstrukte, allerdings mit einigen Einschränkungen. OWL DL ist wie OWL Lite entscheidbar, d.h. in endlicher Zeit können Schlüsse gezogen werden.
- OWL Lite: die einfachste Ausprägung der Sprache. Sie ist wiederum eine Teilmenge von OWL DL. OWL Lite dient zum Erstellen von einfachen Ontologien. Owwohl es nur wenige Sprachkonstrukte für kardinale Bedingungen gibt, ist sie immer noch ausdrucksstärker als RDFS.59

Aufgrund der weiteren Komplexität bei der Erstellung und des Aufbaus einer Ontologie wird auf eine tiefergehende Betrachtung verzichtet. Sie dient nicht dem weiteren Vergleich zum Web 2.0 und würde den Rahmen der Arbeit sprengen.60

2.3.5 Logic, Proof und Trust

Bis zu dieser Ebene der Semantic Web Architektur ist das Semantic Web bereits ent- wickelt. Es gibt zahlreiche Spezifikationen für die bisher eingesetzten Technologien. Die Forschung beschäftigt sich momentan mit den Ontologien und noch nicht mit den drei höheren Ebenen. Daher sind sie auch kaum in konkreten Anwendungen konkretisiert und umgesetzt. Für die letzten Ebenen Logic, Proof und Trust stehen noch keine Technologien bereit und deshalb wird in dessen Zusammenhang nur ein generelles Konzept diskutiert: Auf der Logic Ebene soll aus einfachen Daten mittels der Ontologiesprachen ein maschi- neninterpretierbares Vokabular werden. Der Computer kennt alle eingesetzten Vokabeln und kennt die Beziehungen zwischen den Vokabeln. Dadurch können logische Schlussfolgerungen (das Reasoning) vollzogen werden.61 Auf dieser Ebene geht es um das Gewinnen neuer Informationen aus dem bereits Bekannten. Durch diese logischen Schlussfolgerungen werden neue Fakten erzeugt, wie z.B.:

-”JanisteinStudentderLeibniz-Akademie“.
-”StudentenderLeibniz-AkademiemüsseneineAbschlussarbeitschreiben“.
- Schlussfolgerung: ”JanmusseineAbschlussarbeitschreiben“.

Der nächste Schritt ist die Proof Ebene. Sobald Schlussfolgerungen auf der Logic Ebene möglich sind, liegt es nahe diese auch nach dem Wahrheitsgehalt zu hinterfragen bzw. diese zu beweisen. Auf der Proof Ebene werden die Schritte des logischen Schließens nachverfolgt und die Aussagen verifiziert. Es wird die Gesamtheit der Zusammenhänge betrachtet, um evtl. einzelne Falschaussagen auszuschließen. Es werden Statements gesucht, die das bisherige widerlegen bzw. bekräftigen.

Die oberste Ebene ist die Trust Ebene. Sie dient zur Identifikation und Verifikation der Daten und deren Ersteller durch Verwendung der gewonnenen Informationen aus den Ebenen Logic und Proof. Es ist erst möglich den Wert einer Information zu beurteilen, wenn alle Ebenen bis hierher durchlaufen sind. Wo wird die gewonnene Information bestä- tigt? Ist der Herausgeber vertrauenswürdig? Um die verschiedenen Informationen sicher beurteilen zu können, ist der Einsatz von Digitalen Signaturen62 geplant. Sie geben die Sicherheit, dass eine Information oder auch nur ein RDF-Statement von einer bestimm- ten Person geschrieben wurde.63 Durch diese Sicherheit und dieses Vertrauen entsteht das so genannte ”WebofTrust“.EinBegriff,derdendezentralenAustauschvonVertrau- ensbeziehungen beschreibt. Ich vertraue meinen Freunden, die wiederum ihren Freunden vertrauen. Dadurch entsteht ein Netzwerk des Vertrauens.64

2.4 Chancen und Risiken

Zum Abschluss des Kapitels Semantic Web sollen die Chancen und Risiken erläutert wer- den. Da das Konzept des Semantic Web noch nicht komplett entwickelt und umgesetzt ist, werden hier neben den bekannten auch zukünftige Situationen beurteilt. Die Chancen bzw. die Potentiale, die das Semantic Web ermöglicht sind gewaltig. Wenn das Semantic Web vollkommen umgesetzt ist, werden die Inhalte von Webseiten mit einer Struktur und Bedeutung versehen sein, so dass sich die Software Agenten65 von Datei zu Datei eigenständig bewegen und komplizierte Anfragen erledigen können.66 Dies wäre ein riesiger Schritt für die Suchmaschinenentwicklung. Wenn im Semantic Web eine Frage in eine Suchmaschine eingegeben wird, liefert sie genau die eine richtige Antwort und liefert nicht wie bisher hundert Seiten, auf denen sich die Antwort befinden könnte. Durch die kontextbasierte Suche, die das Wissen der verwendeten Konzepte bei der Auswertung der Quellen miteinbezieht, werden die Ergebnismengen qualitativ verbessert.

Auch die Navigation profitiert von der Verknüpfung von Konzepten. Visualisierte Wis- senslandkarten (Concept Maps) verbinden die herkömmlichen Landkarten mit Wissen aus anderen Quellen. Diese Wissensvernetzung kann auch helfen verschiedene Datensätze, bei denen ähnliche semantische Konzepte zu Grunde liegen, zu einem konsistenten Daten- bestand abzugleichen.67 Die Möglichkeiten des Semantic Web werden erst dann richtig entfaltet, wenn Programme in der Lage sein werden die Informationen aus dem WWW zu sammeln, zu verarbeiten und auszutauschen.68 Einen Überblick über die zahlreichen Einsatzmöglichkeiten und Potentiale gibt der folgende Auszug einer Grafik:

illustration not visible in this excerpt

Abbildung 4: Nutzenpotentiale semantischer Technologien

Quelle: Auszug aus Pellegrini, T. / Blumauer, A. (2006), S. 6.

Mittels dieses Auszugs wird verdeutlicht, dass das Semantic Web in vielen Bereichen Potentiale hervorruft, die bisher noch nicht als möglich erschienen.

Auf der anderen bestehen Zweifel, ob die Konzepte der Technologien auf die Größe des jetzigen WWW skaliert werden können. Ein Modell der Realität und deren kom- plexen Beziehungen in Form von Ontologien darzustellen, scheint unmöglich. Überhaupt wird die Umsetzung des Semantic Web generell bezweifelt, weil es zu komplex erscheint. Momentan ist das Entwickeln einer Ontologie noch nicht standardisiert, was dazu führt, dass zahlreiche heterogene Ordnungssysteme in Form von Ontologien nebeneinander exis- tieren. Die semantische Interoperabilität erfordert zudem eine Transparenz der Wissens- und Geschäftsprozesse, die bisher zum einen aufgrund von technischer Barrieren unmöglich und zum anderen nicht erwünscht ist.69

Hinzu kommt der Aufwand zur Modellierung, Gewinnung und Pflege von Daten. Die Semantik muss mittels Metadaten aufwendig eingebunden werden. Matthias Brake schreibt in einem Telepolis-Artikel über die Grenzen des Semantic Web. Er führt die arbeitsintensive Annotierung durch RDF und die eingeschränkte Aussagekraft von Metadaten an, um die Grenzen aufzuzeigen. Komplexere Auswertungsmöglichkeiten von öffentlichen Webinhalten stehen noch aus. Eine allgemeine Definition von Freiheit oder Gerechtigkeit lässt sich nur mit dem Verständnis der Inhalte selbst erschließen.70 Auch Tim Berners-Lee ist sich des Verwaltungsaufwandes des Semantic Web bewusst, denn je mehr ein solches System wie das Semantic Web an Größe und Anwendungsbereich umfasst, desto aufwändiger und komplexer wird ebenfalls seine Verwaltung.“71

Die Umsetzung des Semantic Web könnte zwar ein Quantensprung für die Suchmaschinenentwicklung sein, aber zugleich bringt der Einsatz auch Risiken mit sich:

- Sinkende Ergebnisbreite: Durch die wenigen, genauen Suchergebnisse bleiben so genannte Zufallsfunde aus. Die Webrecherche muss viel gezielter erfolgen. Es muss mehr Vorwissen vorhanden sein, um eine Suche zu formulieren.
- Sinkende Vertraulichkeit: Mit der eineindeutigen Referenzierung verschwindet die Anonymität der natürlichen Sprache, die semantische Unschärfe. Alles ist durch URI eindeutig identifizierbar und zuweisbar. Die Unschärfe in der Auswertung des Anwenderverhaltens geht verloren.
- Sinkende Verlässlichkeit: Die Maschine entscheidet eigenständig über die Relevanz von Informationen. Dieser Automatismus kann zu Missbrauch führen.72

Auch Google-Mitbegründer Sergey Brin übt Kritik am Vorgehen zum Einsatz des Seman- tic Web. ”I’drathermakeprogressbyhavingcomputersunderstandwhathumanswrite, than by forcing humans to write in ways that computers can understand.“73 Deshalb hat sich Google auch an keinen Spezifikationen für das Semantic Web beteiligt, weil es nicht die Menschen verändern möchte, die Web-Inhalte einstellen, sondern vielmehr zur Steige- rung der Qualität der Suchergebnisse seinen PageRank-Algorithmus74 an die Web-Inhalte anpasst. Dies birgt ein Risiko, wenn sich Google, der Suchmaschinen Marktführer mit 87,2 % (Stand: 04.01.07)75, nicht an der Verwirklichung des Semantic Webs beteiligt.

[...]


1 Sommergut, W. (2007), S. 1.

2 Braun, H. (2006), http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/ 81747&words=Semantic%20Web.

3 Europäische Organisation für Kernforschung.

4 Vgl. Berners-Lee, T. (1989), http://www.w3.org/History/1989/proposal.html.

5 Vgl. Fraunfelder, M. / Berners-Lee, T.(2004), http://www.technologyreview.com/read article.aspx?id= 13784\&ch=infotech.

6 siehe http://www.netcraft.com.

7 Webseiten mit persönlichen Einträgen in Form eines Tagesbuches.

8 Vgl. Löbner, S. (2003), S. 3.

9 Löbner, S. (2003), S. 4.

10 Vgl. Erdmann, M. (2001), S. 126.

11 Vgl. Löbner, S. (2003), S. 10.

12 Vgl. Dostal et al. (2004), S. 32.

13 Vgl. Dostal et al. (2004), S. 32.

14 Vgl. Geroimenko, V. (2003), S. 94.

15 Kremers, H. / Krasemann, H.L. (1996), S. 9.

16 Kremers, H. / Krasemann, H.L. (1996), S. 11.

17 Vgl. Stuckenschmidt, H. / van Harmelen, F. (2003), S. 70.

18 Vgl. de Lange, N. (2006), S. 207.

19 Vgl. Kremers, H. / Krasemann, H.L. (1996), S. 11.

20 Berners-Lee, T. (1997a), http://www.w3.org/DesignIssues/Metadata.html.

21 Vgl. Antoniou, G. / van Harmelen, F. (2004), S. 19.

22 Vgl. Berners-Lee, T. / Hendler, J. / Lassila, O. (2001), S. 39.

23 Berners-Lee, T. / Hendler, J. / Lassila, O. (2001), S. 36.

24 Herman, I. (2007), http://www.w3.org/2001/sw/.

25 Vgl. Tusek, J. (2006), S. 17.

26 Vgl. o. V. (2006e), http://www.w3.org/TR/rdf-sparql-query/.

27 Vgl. Sowa, J.F. (2000), http://www.jfsowa.com/ontology/ontometa.htm.

28 Liste der Mitglieder unter: http://www.unicode.org/consortium/memblogo.html.

29 Vgl. o.V. (2006f), http://www.unicode.org/standard/WhatIsUnicode.html.

30 Vgl. Powers, S. (2003), S. 22.

31 Vgl. Geroimenko, V. (2003), S. 171f.

32 bekannte Namensräume sind das Hypertext Transfer Protocol (HTTP) zur Übertragung von Internetsei- ten und das File Transfer Protocol (FTP) zur Dateiübertragung im WWW.

33 Vgl. Dostal et al. (2004), S. 33.

34 Tags sind in Kleiner- und Größerzeichen eingeschlossene Formatierungselemente, die in HTML zur Gestaltung und Positionierung dienen.

35 SGML wurde in der ISO-8879 im Jahre 1986 definiert. Einzusehen unter http://www.din.de/.

36 Vgl. Eckstein, R. / Casabianca, M. (2001), S. 5ff.

37 Das Adjektiv wohlgeformt beschreibt XML-Dokumente, die die Regeln von XML erfüllen.

38 Vgl. Stuckenschmidt, H. / van Harmelen, F. (2003), S. 4f.

39 Vgl. Eckstein, R. / Casabianca, M. (2001), S. 11f.

40 Bray, T. et al. (2006), http://www.w3.org/TR/REC-xml-names/.

41 Schwach strukturierte Daten weisen in sich eine gewisse Struktur auf, sind aber nicht einheitlich standardisiert und von Maschinen auswertbar.

42 Vgl. Stuckenschmidt, H. / van Harmelen, F. (2003), S. 6f.

43 Vgl. Powers, S. (2003), S. 14.

44 Vgl. Powers, S. (2003), S. 17f.

45 Ein Software Agent ist ein nahezu autonom arbeitendes Computerprogramm, das Routineaufgaben wie die Informationsrecherche durchführt. Es kann sowohl agieren und auf Änderungen reagieren als auch mit anderen Agenten kommunizieren.

46 Diagramme zur Datenmodellierung von Entinitäten und deren Beziehungen meist für Datenbankschema- ta.

47 Davenport, T. H. / Prusak, L. (1997), S. 45.

48 Vgl. Fensel, D. / Hendler, J. A. / Lieberman, H. (2003), S. 96f.

49 Gruber. T (1993), http://ksl-web.stanford.edu/kst/what-is-an-ontology.html.

50 Vgl. Gruber. T (1993), http://ksl-web.stanford.edu/kst/what-is-an-ontology.html.

51 Heflin, J. (2004), http://www.w3.org/TR/webont-req/.

52 Vgl. Koivunen, M. R. / Miller, E. (2001), http://www.w3.org/2001/12/semweb-fin/w3csw.

53 Vgl. Daconta, M. / Obrst, L. / Smith, K. (2003), S. 232f.

54 Vgl. Powers, S. (2003), S. 86.

55 Vgl. Powers, S. (2003), S. 118ff.

56 eine disjunkte Eigenschaft ist z.B. das Geschlecht. Eine Person ist entweder männlich oder weiblich. Nicht jedoch beide Ausprägungen gleichzeitig.

57 Vgl. Powers, S. (2003), S. 229.

58 Vgl. Daconta, M. / Obrst, L. / Smith, K. (2003), S. 234f.

59 Vgl. Powers, S. (2003), S. 233.

60 Weitere Informationen zur Erstellung und zu dem Aufbau einer Ontologie mit Hilfe von OWl ist unter http://www.w3.org/TR/2004/REC-owl-guide-20040210/ zu finden.

61 Vgl. Tusek, J. (2006), S. 18.

62 Laut des Signaturgesetzes (SigG 2001) dient die Elektronische Signatur zur Feststellung der Authentizität von elektronischen Daten.

63 Vgl. Koivunen, M. R. / Miller, E. (2001), http://www.w3.org/2001/12/semweb-fin/w3csw.

64 Vgl Berners-Lee, T. (1997b), http://www.w3.org/1998/02/Potential.html.

65 Software Agenten sind Programme die eigenständig ohne Hilfe von Menschen arbeiten, um spezifische Probleme zu lösen.

66 Vgl. Berners-Lee, T. / Hendler, J. / Lassila, O. (2001), S. 39.

67 Vgl. Fraunhofer First (2006), S. 27.

68 Vgl. Berners-Lee, T. / Hendler, J. / Lassila, O. (2001), S40.

69 Vgl. Fraunhofer First (2006), S. 28f.

70 Vgl. Brake, M. (2005), http://www.heise.de/bin/tp/issue/r4/dl-artikel2.cgi?artikelnr= 21498&zeilenlaenge=72&mode=html.

71 Vgl. Berners-Lee, T. / Hendler, J. / Lassila, O. (2001), S. 36.

72 Vgl. Dostal et al. (2004), S. 35.

73 Nee, E. (2005), http://www.cioinsight.com/article2/0,1397,1817758,00.asp.

74 Der PageRank-Algorithmus dient zum Bewerten von Internetseiten für die Suchmaschine Google. Grundlage sind hier u.a. die internen und externen Hyperlinks.

75 o.V. (2007c), http://www.webhits.de/deutsch/index.shtml?webstats.html.

Ende der Leseprobe aus 55 Seiten

Details

Titel
Die Zukunft des World Wide Web- Semantic Web und Web 2.0
Hochschule
Leibniz Akademie Hannover - Berufsakademie Hannover  (Leibniz Akademie)
Veranstaltung
E-Commerce
Note
1,3
Autor
Jahr
2007
Seiten
55
Katalognummer
V82692
ISBN (eBook)
9783638881166
Dateigröße
763 KB
Sprache
Deutsch
Schlagworte
Zukunft, World, Wide, Web-, Semantic, E-Commerce
Arbeit zitieren
Jan Reßmeyer (Autor:in), 2007, Die Zukunft des World Wide Web- Semantic Web und Web 2.0 , München, GRIN Verlag, https://www.grin.com/document/82692

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Die Zukunft des World Wide Web- Semantic Web und Web 2.0



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden