Peer-to-Peer Architekturen und Applikationen für Kollaboration und Kooperation. - Eine kritische Analyse des State of the Art.


Diplomarbeit, 2001

120 Seiten, Note: 1


Leseprobe


Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1 Einleitung
1.1 Ziele und Motivation der Arbeit
1.2 Von der Problemstellung zu Fragestellungen
1.2.1 Problemstellung
1.2.2 Fragestellungen
1.3 Abgrenzung des Themas
1.4 Vorgehen und Aufbau der Arbeit

2 Internetarchitekturen
2.1 Dezentrale Client-Server-Architektur
2.1.1 Vorteile
2.1.2 Nachteile
2.2 Zentrale Client-Server-Architektur
2.2.1 Vorteile
2.2.2 Nachteile
2.2.3 Die Metcalfe-Gilder-Problematik
2.3 Drei Internetgenerationen
2.3.1 Internet 1.0 – Der Beginn war dezentral und symmetrisch
2.3.2 Internet 2.0 – Der Wechsel zur asymmetrischen Client-Server-Architektur
2.3.3 Internet 3.0 – Zurück zum dezentralen Modell

3 Peer-to-Peer-Systeme
3.1 P2P-Definitionen
3.2 Heterogene Peers
3.3 Hybride und pure Peer-to-Peer-Architekturen
3.3.1 Pures P2P
3.3.2 Hybrides P2P
3.4 ANDI(S) – Dimensionen der Informationsverarbeitung
3.4.1 Atomistisches Modell
3.4.2 Nutzerzentriertes Modell
3.4.3 Datenzentralisiertes Modell
3.4.4 Integriertes Modell
3.4.5 Spezialfälle

4 Computer Supported Cooperative Work
4.1 Grundlagen von CSCW
4.1.1 CSCW
4.1.2 Groupware
4.1.3 Workflow-Management und Workgroup-Computing
4.2 Mechanismen der Interaktion
4.2.1 Kommunikation
4.2.2 Koordination
4.2.3 Kooperation
4.2.4 Kollaboration
4.2.5 Dreieck Kommunikation-Kooperation-Koordination
4.3 Proprietäre und webbasierte Groupware

5 Peer-to-Peer-Architekturen und -Applikationen für Kollaboration und Kooperation
5.1 Dezentrales kooperatives Arbeiten
5.2 Marktübersicht bestehender Peer-to-Peer-Architekturen und -Applikationen nach ANDI(S)
5.3 Peer-to-Peer-Funktionen für kooperatives Arbeiten
5.3.1 Kommunikative Funktionen
5.3.2 Koordinierende Funktionen
5.3.3 Kooperative Funktionen
5.3.4 Zusammenfassung der Funktionen
5.4 Funktionsübersichten der bestehenden Peer-to-Peer-Applikationen
5.5 Kriterienkatalog
5.5.1 Architektonische Kriterien
5.5.2 Technologische Kriterien
5.5.3 Benutzerspezifische Kriterien
5.5.4 Gesellschaftliche Kriterien
5.5.5 Produktstatus
5.5.6 Kriterienbewertungsraster
5.6 Kriterienmatrices der bestehenden Peer-to-Peer-Applikationen...

6 Auswertung der Analyse und kritische Betrachtung
6.1 Globale Positionierung der Applikationen
6.2 Bewertung und Vergleich der P2P-Groupware-Tools
6.2.1 Atomistische Modelle
6.2.2 Nutzerzentrierte Modelle
6.2.3 Datenzentrierte Modelle
6.2.4 Integrierte Modelle
6.2.5 Spezialfälle
6.3 Anforderungen
6.4 Standardproblematik
6.5 Einsatzgebiete für P2P-Groupware-Tools

7 Ausblick und Schlussfolgerungen
7.1 Ausblick
7.2 Schlussfolgerungen

Literaturverzeichnis

Internetliteratur

Internetlinks

Anhang A – Profile der P2P-Unternehmen und Applikationen

Anhang B – Die CD zur Diplomarbeit

Abbildungsverzeichnis

Abbildung 1-1: Betrachtete P2P-Einsatzgebiete

Abbildung 1-2: Betrachtete CSCW-Forschungsgebiete

Abbildung 1-3: Vorgehensweise

Abbildung 2-1: Ressourceneinsparung bei der dezentralen Architektur

Abbildung 2-2: Unterschiedliche Belastung des Servers

Abbildung 2-3: Wertzunahme in Netzwerken nach Metcalfe

Abbildung 2-4: Metcalfe und Gilder – Die Gesetze der Netzwerk-Dynamik

Abbildung 2-5: Asymmetrie im Datenfluss

Abbildung 2-6: Abgeschottete Intranets

Abbildung 3-1: Einteilung von P2P in die cC-S- und dC-S-Architektur

Abbildung 3-2: cC-S vs. P2P

Abbildung 3-3: pP2P-Architektur

Abbildung 3-4: hP2P-Architektur

Abbildung 3-5: ANDI(S)

Abbildung 3-6: Instant Messaging Architektur

Abbildung 4-1: Intensität des Informationsflusses in einer Gruppe

Abbildung 4-2: Anytime-Anyplace-Matrix

Abbildung 4-3: Informationsaustausch bei Kooperation und Kollaboration

Abbildung 4-4: Klassifikation von CSCW-Systemen – Der 3-Ecks-Ansatz

Abbildung 4-5: Führende Anbieter von proprietären Groupwarelösungen

Abbildung 5-1: Vorgehensweise im analytischen Teil der Arbeit

Abbildung 5-2: Shared Spaces

Abbildung 5-3: Einordnung von Gruppen nach Interaktion und Identität

Abbildung 5-4: Klassifizierung von Internet Geschäftsmodellen

Abbildung 5-5: Message-Board von Filetopia

Abbildung 5-6: P2P-Lite-Chat Client von Groove.net

Abbildung 5-7: VoIP wird geschäftsfähig

Abbildung 5-8: Videokonferenzsysteme

Abbildung 5-9: Groove-Kalender

Abbildung 5-10: Statusfeld bei Groove und MSN

Abbildung 5-11: P2P- vs. Server Storage

Abbildung 5-12: Verteiltes Groove-Archiv

Abbildung 5-13: NewsClient von Groove

Abbildung 5-14: Gemeinsames Browsen bei Groove

Abbildung 5-15: Gemeinsames Betrachten von Office Dokumenten

Abbildung 5-16: Interactives Whiteboard von eZmeeting

Abbildung 5-17: Funktionsübersicht

Abbildung 6-1: Positionierung nach Interaktionsart und Professionalität

Abbildung 6-2: Werteverteilung in den Funktions- und Kriterienmatrices

Abbildung 6-3: Verteilung der Applikationen gemäss der Gesamtperformance

Abbildung 6-4: Gesamtüberblick der untersuchten P2P-Groupware-Tools

Abbildung 6-5: Beispiel Vier-Ecknetz für den AIM von AOL

Abbildung 6-6: Vier-Ecknetze für Hotline und BadBlue

Abbildung 6-7: Vier-Ecknetze für ICQ und WorldStreet Net

Abbildung 6-8: Vier-Ecknetze für 1stWorks und Nextpage

Abbildung 6-9: Vier-Ecknetze für Ecocys, Omniprise von Ikimbo und Groove

Abbildung 6-10: P2P-Stapel

Tabellenverzeichnis

Tabelle 5-1: Applikationen nach dem Atomistischen Architekturmodell

Tabelle 5-2: Applikationen nach dem Nutzerzentrierten Architekturmodell

Tabelle 5-3: Applikationen nach dem Datenzentrierten Architekturmodell

Tabelle 5-4: Applikationen nach dem Integrierten Architekturmodell

Tabelle 5-5: Spezielle Architekturmodelle

Tabelle 5-6: Funktionsübersicht 01-12

Tabelle 5-7: Unternehmen und Produktnamen 01-12

Tabelle 5-8: Funktionsübersicht 13-24

Tabelle 5-9: Unternehmen und Produktnamen 13-24

Tabelle 5-10: Bewertungsraster für die Kriterienmatrices

Tabelle 5-11: Kriterienmatrix 01-06

Tabelle 5-12: Kriterienmatrix 07-12

Tabelle 5-13: Kriterienmatrix 13-18

Tabelle 5-14: Kriterienmatrix 19-24

Tabelle 6-1: Anforderungen an P2P-Groupware-Systeme

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Die Informations- und Kommunikationstechnologie (IKT) hat sich in den letzten drei Jahrzehnten seit ihrer Entstehung mit der Aufgabe auseinan-dergesetzt, leistungsfähigere Prozessoren zu entwickeln und schnelleren Zugang zu aktuellen Informationen zu schaffen. Diese beiden fundamen-talen Ziele rücken im dritten Jahrtausend zugunsten einer neuen Ent-wicklung in den Hintergrund. Es scheint, dass die transformierende Dyna-mik dieser Epoche in der neuentdeckten Fähigkeit liegt, Beziehungen unter-einander aufzubauen und zu unterhalten, ob zu gleichen oder zu unter-schiedlichen Zeiten, an den selben oder an unterschiedlichen Orten. Dieses Beziehungszeitalter ist im Begriff, das Computer- oder Informationszeitalter abzulösen.[1]

Über Jahrzehnte hinweg wurde angenommen, dass man in einem kom-plexen, exponentiell wachsenden und konkurrenzbetonten Umfeld nur durch Struktur, Kontrolle und Vorhersehbarkeit überleben könne. Sukzes-sive beginnt man nun zu realisieren, dass die Prozesse und Strukturen in allen Beziehungen und Bereichen der Interaktion und Zusammenarbeit ra-dikal überdacht werden müssen.

“We should distrust any elaborately planned, centrally developed, and carefully deployed business system or process. Successful systems and processes will be agile and dynamically adaptive: they will grow and evolve as needed over time in support of multi-dimensional collabo-ration.”[2]

In diesem Zusammenhang kommen Peer-to-Peer- (P2P-) Architekturen und -Applikationen ins Spiel. P2P-Technologie wird das Internet und die Art und Weise, wie Menschen privat und geschäftlich Beziehungen pflegen und zu-sammen arbeiten, fundamental verändern. Beim Peer-Computing werden, durch direkte Interaktion zwischen Menschen und Systemen, Computer-ressourcen ausgetauscht. Dabei wird dem Umstand Rechnung getragen, dass die Computer am Rande der Netzwerke in den vergangenen Jahren wesentlich leistungsfähiger geworden sind.

"Peer-to-peer is really the opportunity to use the Internet for its real, underlying architecture – an ad hoc, resilient, worldwide network of re-sources, all being able to directly communicate and interact with each other."[3]

Die vorliegende Arbeit beschäftigt sich mit dieser neuen Technologie und untersucht, inwiefern sie für Zusammenarbeit eingesetzt werden kann.

1.1 Ziele und Motivation der Arbeit

Ziel dieser Arbeit ist es, den State of the Art von P2P-Architekturen und -Applikationen für Kollaboration und Kooperation zu analysieren und kritisch zu betrachten. Dabei sollen z.T. isolierte Wissensbereiche und verteilte In-formationsquellen integriert und verschiedene Lösungsansätze identifiziert werden. Im empirischen Beitrag der Arbeit wird der Stand der Technik auf-grund eines eigens entwickelten Kriterienkataloges bewertet werden. Der spezifische Beitrag der eigenen Arbeit besteht aus diesem theoretischen Modell und der qualitativ empirischen Untersuchung und Bewertung des State of the Art von P2P-Architekturen und -Applikationen für kooperatives Arbeiten.

Die Entwicklung im Beziehungszeitalter schreitet noch schneller voran, als dies im Informationszeitalter der Fall war. In einem solch dynamischen Um-feld soll diese Arbeit eine Momentaufnahme darstellen. Der Verfasser ist der Ansicht, dass es wichtig ist zu wissen, welche Mittel überhaupt zur Ver-fügung stehen, um die Zusammenarbeit zwischen verschiedenen Aufgaben-trägern zu verbessern.

1.2 Von der Problemstellung zu Fragestellungen

Für das Verständnis der Thematik ist es wichtig, einfache und klare Fragen zu stellen. Mit der Problemstellung soll die wissenschaftliche und praktische Relevanz aufgezeigt werden. Durch die Fragestellungen wird der Arbeit eine Struktur gegeben.

1.2.1 Problemstellung

Der Verfasser interpretiert das Thema „P2P-Architekturen und -Applikati-onen für Kollaboration und Kooperation. – Eine kritische Betrachtung des State of the Art“ folgendermassen:

Das Internet wird wieder dezentraler. Proprietäre, zentrale Architekturen bekommen durch P2P-Technologie Konkurrenz. Mit P2P kann die Inter-aktion zwischen Menschen verbessert werden. Unter dem Oberbegriff der Computer Supported Cooperative Work (CSCW) und Groupware werden Architekturen und Applikationen für unternehmensinterne und -externe Kommunikation, Koordination und Kooperation verstanden. Es stellt sich also erstens die Frage, welche P2P-Applikationen für diese Bereiche existie-ren und zweitens, ob durch diese mehr Flexibilität, eine höhere Kosten-Effektivität und persönliche und organisationale Effizienzsteigerungen er-zielt werden können. Dabei sollen bestehende Architekturen und Applika-tionen beschrieben, bewertet und untereinander verglichen werden.

Mit dieser empirischen Analyse hat die Arbeit neben einer wissenschaft-lichen auch eine praktische Relevanz.

1.2.2 Fragestellungen

Aus der Problemstellung ergeben sich folgende zehn Fragestellungen, die im Laufe der Arbeit beantwortet werden sollen.

1. Was versteht man unter dezentralen und zentralen Netzwerken und wo liegen die Vor- und Nachteile dieser beiden Architekturen?
2. Welche Internetgenerationen können unterschieden werden und wo stehen wir heute?
3. Was bedeutet „peer-to-peer“ und welche Arten von P2P-Architekturen gibt es?
4. Was versteht man unter Kollaboration und Kooperation im Zusammen-hang mit CSCW und Groupware und wo liegen deren Unterschiede?
5. Welche vier Mechanismen der Interaktion existieren und welche Rolle spielt dabei die Kommunikation?
6. Was für P2P-Architekturen und -Applikationen für Kollaboration und Kooperation gibt es? – Was ist der State of the Art?
7. Wie können die verschiedenen Applikationen bewertet und verglichen werden?
8. Welche Modelle eignen sich gut für Zusammenarbeit, welche weniger?
9. Welche Anforderungen werden an Systeme für kooperative Arbeit ge-stellt und wo sind deren Haupteinsatzgebiete?
10. Was sind die Chancen und Grenzen von solchen P2P-Applikationen?

Unter 1.4 Vorgehen und Aufbau der Arbeit werden die Fragen den einzelnen Kapiteln zugeordnet.

Um eine fokussiertere Betrachtung der Problemstellung zu erreichen und um Unklarheiten zu vermeiden, muss das Thema in seinem Kontext abge-grenzt werden. Dieser Schritt erfolgt im nächsten Abschnitt.

1.3 Abgrenzung des Themas

Um das Themengebiet zu positionieren und das Schwergewicht der Arbeit im Kontext zu verdeutlichen, werden zwei Abgrenzungen vorgenommen.

Abbildung 1-1 zeigt die verschiedenen P2P-Einsatzgebiete. Dabei fokussiert diese Arbeit auf aktive P2P-Applikationen und speziell auf dezentralisiertes kooperatives Arbeiten[4]. Gaming[5] ist auch bis zu einem gewissen Grad ko-operativ. Da es aber nicht mit der hier verwendeten Definition von CSCW vereinbar ist, wird es nicht behandelt werden.[6] Bei Applikationsinteraktions-formen wie EDI oder B2B -Diensten findet keine direkte Kommunikation zwischen Menschen statt, weshalb sie ausgegrenzt werden.

Abbildung 1-1: Betrachtete P2P-Einsatzgebiete

Abbildung in dieser Leseprobe nicht enthalten

Passive Applikationen werden ganz ausgeschlossen. Verteilte Netzwerk-dienste, sog. Edge Services, wie z.B. McAfees AsAP[7], unterstützen das Tau-schen von Antivirus Updates. Dies hat nur am Rande etwas mit koopera-tivem Arbeiten zu tun. Beim verteilten Processing, auch Distributed Com-puting genannt, werden viele Computer am Rande des Internets zusam-mengefasst, um z.B. aufwendige Aufgaben effizienter und billiger zu be-rechnen. Dabei werden eine grosse Zahl von Clients[8] via P2P-Protokolle zu einer Art Superrechner verbunden. Verteilte Speicherdienste finden grund-sätzlich auch keinen Eingang in diese Arbeit. Distributed Storage Services dienen dazu, zentrale Serverkosten und Downloadzeiten in grossen Organi-sationen zu optimieren. Der Begriff des verteilten Speicherdienstes taucht bei den Funktionen in Kapitel 5 wieder auf. Dann wird er aber als ein Ele-ment, resp. eine Funktion eines Groupware-Tools[9] verstanden.

Das grosse Forschungsgebiet der CSCW muss auch abgegrenzt werden:[10]

Im Hinblick auf das Thema widmet sich das Kapitel 4 dem Verständnis der Zusammenarbeit zwischen Menschen und Kapiel 5 der Bewertung von P2P-Architekturen und -Applikationen. Auf den in Abbildung 1-2 dargestellten dritten CSCW-Bereich, die Entwicklung von Konzepten für die Unterstüt-zung arbeitsteiliger Prozesse, wird verzichtet, da das Ziel der Arbeit eine State of the Art-Analyse ist. Im Zusammenhang mit der kritischen Betrach-tung von P2P-Architekturen und -Applikationen wird zudem eine eingehen-de Analyse des Ist-Zustandes von proprietären und webbasierten Lösungen ausgegrenzt.[11]

Abbildung 1-2: Betrachtete CSCW-Forschungsgebiete

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Darstellung[12]

Es sollen schwergewichtig dezentralisierte Groupware für den privaten und geschäftlichen Bereich untersucht werden. Auf die Betrachtung von Supply/ Demand Chain, B2C- und B2B-Kooperationsformen muss weitgehend ver-zichtet werden, da in diesem Bereich im Zusammenhang mit P2P-Techno-logie noch praktisch keine Applikationen existieren. Aus dem gleichen Grund werden Einkaufsgemeinschaften à la Letsbuyit.com ausser Betracht gelassen.

Um die Verständlichkeit zu erleichtern sollen nach der Diskussion der Pro-blem- und Fragestellungen und nach der Themenabgrenzung das gewählte Vorgehen und der Aufbau der Arbeit beschrieben werden.

1.4 Vorgehen und Aufbau der Arbeit

Abbildung 1-3 veranschaulicht den Aufbau der Arbeit. Sie kann grob in vier Hauptelemente gegliedert werden. Dies ist im rechten Diagrammfluss in Abbildung 1-3 zu sehen. Beginnend mit der Ausführung von Grundlagen wird das Problemfeld strukturiert. Dabei beschäftigt sich Kapitel 2 mit den ersten beiden Fragestellungen, Kapitel 3 mit der dritten und Kapitel 4 mit der vierten und fünften Fragestellung. Zuerst werden die dezentrale und die zentrale Internetarchitektur (dC-S und cC-S) beschrieben, bevor in einem geschichtlichen Abriss die drei Internetgenerationen dargestellt werden. Es folgt der Übergang zu Kapitel 3: P2P-Systeme. Hier werden u.a. die ver-schiedenen Dimensionen der Informationsverarbeitung erklärt, anhand wel-cher die Applikationen kategorisiert werden sollen. Im darauffolgenden vie-rten Kapitel beschäftigt sich die Arbeit mit CSCW, Groupware und den vier verschiedenen Mechanismen der Interaktion: Kommunikation, Koordina-tion, Kooperation und Kollaboration. Damit sind die Grundlagen abgeschlos-sen. Im zweiten Hauptteil werden die verschiedenen Applikationen anhand der fünf Dimensionen der Informationsverarbeitung kategorisiert und auf-gelistet. Dies findet in Kapitel 5 statt. Es folgt die Modellierung eines 20-Punkte-Funktionen- und eines 30-Punkte-Kriterienkataloges. Dabei werden die Fragestellungen sechs und sieben beantwortet. Die Analyse von 24 Applikationen anhand der Funktionsübersicht und der Kriterienmatrix ist ebenfalls im fünften Kapitel eingebettet. Dies stellt das dritte Hauptele-ment, die qualitative, empirische Analyse dar. In Kapitel 6 sollen die ge-wonnen Daten kritisch hinterfragt, die verschiedenen Architekturen und Ap-plikationen bewertet und untereinander verglichen werden. Dabei werden die drei letzten Fragestellungen beantwortet. Die Arbeit endet mit Schluss-folgerungen und einem Ausblick. Aus Platzgründen befinden sich die Kurz-profile der untersuchten Softwareanbieter im Anhang A. Die verwendete In-ternetliteratur ist offline auf der CD zur Diplomarbeit verfügbar.[13]

Abbildung 1-3: Vorgehensweise

Abbildung in dieser Leseprobe nicht enthalten

2 Internetarchitekturen

Das Internet ist heute eine Zweiklassengesell-schaft.[14] Einerseits gibt es Server-Computer[15], die im Adressbuch des Internets, dem Domain Name System (DNS), einen ei-genen Eintrag haben und ständig online sind. Andererseits gibt es Rechner, die in diesem Netz nur Gast sind, Client-Rechner, und nur temporär über eine IP-Adresse verfügen, die sie als Teil des Netzwerks identifizierbar macht. Mit der Erfindung von Mosaic[16] begannen die Internet Service Pro-viders (ISPs) dynamische IP-Adressen zu verteilen, wodurch verhindert wurde, dass PC-Benutzer Daten hosten können.[17] Somit spielen bei allen wichtigen Kommunikationsdiensten des Internets die Server die aktive Rol-le. Sie verteilen die Post, speichern sie und lagern die Webseiten, bis sich ein Client bei ihnen meldet und danach verlangt. Dies war nicht immer so und soll sich in Zukunft wieder ändern, wie im folgenden gezeigt wird.

Abbildung in dieser Leseprobe nicht enthalten

Diese Clients und Servers bilden in zwei unterschiedlichen Konstellationen die beiden wichtigsten Netzwerktopologien. Es sind dies die zentrale Client-Server- (cC-S-) Architektur und die dezentrale Client-Server- (dC-S-) Ar-chitektur. Sie werden in den Abschnitten 1.1 und 1.2 beschrieben und ver-glichen. Abschnitt 1.3 widmet sich den drei Internetgenerationen. Es soll der Wechsel vom dC-S- über das cC-S- wieder zurück zum dC-S-Modell aufgezeigt und damit die Überleitung zu P2P-Architekturen ermöglicht wer-den.

2.1 Dezentrale Client-Server-Architektur

Die dC-S Architektur oder ein dC-S System kann wie folgt definiert werden:

„[...] where network architecture shifts or extends the focus to the nodes along the network edge and where resources are virtualised in a distri-buted manner.“[18]

“[...] Intelligence in terminals is a substitute for intelligence in networks; switching and routing functions migrate from the center of the Web to the increasingly powerful computers on the fringe.“[19]

dC-S-Systeme machen den Router[20], und nicht den Server, zum zentralen Punkt im Netzwerk und zwingen die peripheren Clients, die Rechenaufga-ben zu lösen und Daten zu speichern. Die Clients nehmen somit im dC-S-Modell auch die Funktion des Servers wahr. Weiter unten soll gezeigt wer-den, dass die einzelnen Knoten des Netzwerkes, also die Clients, dadurch auch wesentlich vermehrt untereinander kommunizieren.

Es sollen nun die Vor- und Nachteile dieser Architekturform aufgezeigt wer-den, wobei z.T. mit dem zentralen Pendant verglichen wird. Dieses wird im Anschluss erläutert werden.

2.1.1 Vorteile

- Einer der wichtigsten Grundsätze und Vorteile der dC-S-Architektur ist das Primat des Besitzes und der Kontrolle über Daten und Ressourcen. Der Schöpfer sollte über seine Schöpfungen verfügen können. Dies ist in einem cC-S-System häufig nicht möglich, da eine zentrale Admini-stration die Netzwerk-Ressourcen verwaltet.
- In einem dezentralen Netzwerk kann im Vergleich zum cC-S-Modell die benötigte Bandbreite bis zu zehn mal verringert werden, indem der Da-tenfluss an den Enden des Systems stattfindet und nicht mehr via Ser-ver.[21]
- In einem dC-S-Netzwerk gibt es keinen Single-Point-of-Failure, d.h. wenn ein Client ausfällt, kann das Netzwerk weiterhin funktionieren. Dies ist beim zentralen Pendant anders. Das beste Beispiel stellt das WWW dar, welches das grösste dezentrale System darstellt.[22] Indivi-duelle Knoten können ausfallen, aber das Ganze wird weiterhin durch die „Netzwerkfabrik“ unterstützt.
- Daten sind lokal auf den Clients abgelegt und damit einfacher und von überall her zugänglich.
- Das Gerüst für dC-S-Architekturen und -Applikationen steht bereits. Die Clients an der Peripherie des Netzwerkes haben zum Teil enorme Res-sourcen brachliegen. Werden diese ausgenützt, entfallen die hohen Kos-ten, welche bei cC-S-Systemen alleine durch die Anschaffung von Ser-vern entstehen.

2.1.2 Nachteile

Natürlich können nicht alle Applikationen effizient mit einem dezentralen Modell verwirklicht werden.

dC-S-Systeme sind für manche Netzwerkapplikationen ungeeignet, weil:

- sie z.T. noch über niedrige Sicherheitslevels verfügen,
- die Verbindungen zwischen den Peers noch nicht überall auf das grosse Datenvolumen bei dC-S-Systemen eingerichtet sind[23],
- die meisten Suchmaschinen am effizientesten und effektivsten arbeiten, wenn sie eine zentrale Datenbank durchsuchen können[24] und weil
- elektronische Marktplätze das Angebot und die Nachfrage an einem Ort und zu einer Zeit zusammenbringen, so dass ein Preis ausgehandelt werden kann.

Ein Unternehmen, welches viel Wert auf Sicherheit legt oder in kurzer Zeit grosse einmalige Datenbestände durchsuchen muss, wird von der cC-S-Ar-chitektur profitieren.

2.2 Zentrale Client-Server-Architektur

Die zentrale Client-Server- (cC-S-) Architektur ist definitionsgemäss direkt-ional und hierarchisch aufgebaut. Sie ist direktional, da ein Client-Rechner Daten von einem Server herunterlädt und Daten auf einem Server abspei-chern kann. Sie ist hierarchisch, da ein Client die Verbindung mit einem Server aufnimmt und dadurch der Kontrolle und Administration der Server-Ressourcen unterstellt ist. Diese Architektur bringt Vor- und Nachteile mit sich.

2.2.1 Vorteile

- Das Netzwerk kann alle Daten filtern, da alles durch den Server fliessen muss. Dies ist ein grosser Sicherheitsvorteil im Vergleich zur dezentra-len Architektur, da der Router alleine Daten nicht anhand von deren Typ (Voice, Streaming Video, Word Dokumente, etc.) filtern kann.[25]
- Zugriffsrechte und Sicherheitseinstellungen können in einem cC-S-Netz-werk äusserst effektiv verwaltet werden.
- Datenverwaltung kann von dauerhaftem und sicherem zentralen Man-agement enorm profitieren.
- Zentrale Speichermittel erlauben schnelle Backups und effizienteres Fehler-Management.
- Thin-Client-Architekturen erlauben das rasche Auswechseln deffekter Clients, da alle Daten und Programme auf dem Server liegen.

2.2.2 Nachteile

- cC-S-Systeme sind sehr teuer und verlangen viel Pflege. Der Unterhalt von Servern ist noch kostspieliger als die eigentliche Anschaffung der Hard- und Software. Oracle z.B. erzielt über 70% ihres Umsatzes durch Dienstleistungen und nicht mit ihrer Datenbanksoftware oder ihren Ap-plikationen.[26] Dem Marktforschungsinstitut IDC[27] zufolge sind die Aus-gaben für Speicherverwaltung vier mal höher als die Ausgaben für die Hardware.[28]

- In einem cC-S-Netzwerk handhabt ein zentraler Administrator die Zu-griffsrechte. Dieser muss allen Clients im Netzwerk gerecht werden und etabliert deshalb breite Richtlinien, welche für alle Benutzer gelten müs-sen. Individuelle Konfigurationen sind im Normalfall nicht möglich.
- cC-S-Systeme kreieren Single-Points-of-Failure. Auch mit einem Back-up-System kommt es bei Fehlern des zentralen Servers oder Speicher-Systems oft zu grossen Verzögerungen, im schlimmsten Falle zum Zu-sammenbruch des Netzwerkes. Bei Unternehmen können immense Kos-ten durch Server-Auszeiten entstehen.
- cC-S-Systeme sind geografisch isoliert. Es ist nicht einfach, von unter-wegs, von einem Satellitenbüro oder von zuhause aus auf einen zen-tralen Server zuzugreifen. Die zentrale Netzwerkarchitektur hat in den letzten 10 Jahren nicht mit diesen neuen Bedürfnissen Schritt gehalten.

Zusammenfassend kann erahnt werden, dass Dezentralisation und das da-mit verbundene User Empowerment zu grösserer Produktivität führt.

Dienstleistungen am Rande des Internets erlauben einen effektiveren Um-gang mit den Ressourcen, als es beim cC-S-Modell der Fall ist. Dies soll im folgenden Abschnitt verdeutlicht werden.

2.2.3 Die Metcalfe-Gilder-Problematik

Ein Netzwerk kann also anhand des oben erwähnten Umganges mit Res-sourcen analysiert werden. In einem Netzwerk sind dies Prozessorleistung, Speicherkapazität und Bandbreite. Ein effizienterer Umgang mit diesen Ressourcen verbessert insgesamt die Effizienz des Systems. Abbildung 2-1 zeigt, wie eine simple Transaktion in der cC-S-Architektur verläuft, nämlich vom Client zum Server zum Client, von A nach S nach B. Im dezentralen Modell wird der Server entfernt, wodurch die beiden Clients direkt mit-einander kommunizieren. In diesem einfachen Modell wird dadurch 50% der benötigten Bandbreite eingespart. Daraus folgt, dass cC-S-Systeme Ressourcen verschwenden.

Abbildung 2-1: Ressourceneinsparung bei der dezentralen Architektur

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Darstellung[29]

Abbildung 2-2 verdeutlicht dies, indem die durchschnittliche Belastung ei-nes Servers mit der von zwei verschiedenen dC-S-Architekturen, einem pu-ren Peer-to-Peer- (pP2P-) und einem hybriden Peer-to-Peer- (hP2P-) Sys-tem, verglichen wird. Die beiden unterschiedlichen P2P-Modelle werden in Kapitel 3 ausführlich beschrieben.

Abbildung 2-2: Unterschiedliche Belastung des Servers

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Darstellung[30]

Nun soll anhand der Gesetze von Metcalfe und Gilder gezeigt werden, dass dies schwerwiegende Konsequenzen haben kann. Unter der Metcalfe-Gil-der-Problematik soll die wachsende Gefahr des stetig steigenden Verhält-nisses zwischen der Anzahl Hosts und der verfügbaren Bandbreite in Zu-sammenhang mit dem Ressourcenverschleiss von cC-S-Systemen aufge-zeigt werden.

Das Gesetz von Metcalfe[31] stipuliert, wie in Abbildung 2-3 veranschaulicht ist, dass der Wert eines Netzwerkes proportional zum Quadrat der Einhei-ten im Netzwerk ist, d.h. umso mehr Host-Computer[32], desto mehr Verbin-dungen unter ihnen und damit einen umso höherern Wert des Netzwerkes.

Abbildung 2-3: Wertzunahme in Netzwerken nach Metcalfe

Abbildung in dieser Leseprobe nicht enthalten

Das Gesetz kann also stellvertretend für die Dichte der Knoten in einem Netzwerk genommen werden, da der Wert direkt proportional zu der Anzahl Rechnern im Netz ist. Das zweite Gesetz der Netzwerk-Dynamik ist jenes von George Gilder. Gilder hat vorausgesagt, dass sich die Netzwerkkapa-zität, welche in Bandbreite gemessen wird, alle 12 Monate verdreifacht. Wenn man nun auf einer logarithmischen Skala diese Bandbreitenkapazität der Anzahl von Hosts nach Metcalfe über die Zeit gegenüberstellt, so kann sofort eine enge Beziehung festgestellt werden.[34]

Abbildung 2-4: Metcalfe und Gilder – Die Gesetze der Netzwerk-Dynamik

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Darstellung[35]

Mit der Zeit hat das Verhältnis von Hosts zu Bandbreite zugenommen. Am Anfang waren etwa 100 Hosts am 50 Kbit/s NSFNET, dem Nachfolger des ARPANET, angehängt.[36] Das Verhältnis war 2:1. Um 1985 wuchs das Ver-hältnis auf 7:1 an, wo es auch bis 1995 blieb, bis es abrupt auf 12:1 an-stieg. Somit hat jeder Host immer weniger Bandbreite zur Verfügung. Das Internet als Ganzes wird damit tendenziell „langsamer“. Grund für die star-ke Zunahme waren die Einführung des WWW 1993 und in jüngerer Zeit die starke Verbreitung von mobilen Geräten.[37]

Die Metcalfe-Gilder-Problematik wird sich in den nächsten 5-10 Jahren noch verstärken, da neue Applikationen noch mehr Datenfluss provozieren wer-den.[38]

Für das Verständnis der Bedeutung und der Überlegenheit von dezentralen Architekturformen ist es hilfreich, deren Entwicklung im Zusammenhang mit der Geschichte des Internets aufzuzeigen.

2.3 Drei Internetgenerationen

Nachdem die beiden Netzwerkarchitekturen vorgestellt wurden, sollen nun die drei Internetgenerationen beschrieben werden. Das Internet 1.0 war dezentral und symmetrisch. Mit der Explosion des Internets durch die Ein-führung des WWW in den 1990er Jahren wurde es zu einem asymme-trischen cC-S-Netz (Internet 2.0). Mit der Rückkehr zu dezentralen Formen beginnt das Internet 3.0 und damit die Ära der P2P-Netzwerke.

2.3.1 Internet 1.0 – Der Beginn war dezentral und symmetrisch

In den späten 1960er Jahren wurde das Internet entwickelt. Was in der Re-trospektive als Internet 1.0 bezeichnet werden kann, hat mit einer Gruppe von Akademikern und Technikern begonnen. Diese haben zusammen mit Hilfe der Pentagon's Advanced Research Projects Agency, kurz ARPA, die UCLA in Los Angeles, die UCSB in Santa Barbara, das Stanford Research Institute in Palo Alto und die Universität von Utah in Salt Lake City zum AR-PANET verbunden. Das ursprüngliche ARPANET hatte zum Ziel, freie Com-puterressourcen auszutauschen und war architektonisch ein pures, dezen-trales P2P-System. Grundsätzlich konnte jeder Host Pakete erhalten und senden. Mit TCP/IP, den beiden fundamentalen Netzwerk- und Transport-protokollen, wurde das symmetrische Internet 1.0 formalisiert.[39]

Die ersten „killer apps“ des Internets, FTP und Telnet, waren zwar bereits Client-Server-Applikationen, aber das Verwendungsmuster war als solches nach wie vor symmetrisch – mit einem FTP-Client können Daten von einem File Server herunter- und auf diesen Daten hochgeladen werden.

“Version 1 was the pre-Web Internet, the playground of techies and geeks and professors and programmers. newsgroups, FTP, email, Go-pher.”[40]

Im Folgenden werden zwei alteingesessene dezentralisierte Netzwerkkom-ponenten vorgestellt: Usenet und DNS.

2.3.1.1 Netnews und Usenet

Usenet News baut auf einem dC-S-Architekturmodell auf und stellt sozu-sagen den Grossvater der heutigen, neuen P2P-Applikationen wie Gnutella[41] oder Freenet[42] dar. Usenet wurde 1979 die erste Community von Netnews[43] und stellt heute mit mehr als 35.000 Diskussionsgruppen, den sogenannten Newsgroups, und über 650 Mio. Nachrichten die grösste Gemeinschaft auf dem Internet dar.[44] Netnews ist ein System, das ohne zentrale Kontrolle Daten zwischen Computern hin- und herkopiert. Ursprünglich war es auf dem Unix-to-Unix-copy-Protokoll (UUCP) aufgebaut. UUCP ist ein dyna-mischer Mechanismus, bei welchem eine Unix-Maschine automatisch eine andere anruft, mit ihr Daten austauscht und die Verbindung wieder trennt.[45] Unter Daten kann von einer kurzen Notiz bis zu einem ganzen Pro-gramm alles verstanden werden, was auf einem in diesem Informations-system teilnehmenden Host postiert wird. Heute verwendet das Usenet das Network News Transport Protocol (NNTP), ein TCP/IP-basiertes Protokoll, welches das Auffinden von Newsgroups effizienter macht und das Aus-tauschen von Nachrichten vereinfacht. Das Usenetmodell bietet lokale Kontrolle und benötigt relativ wenig Administration.[46] Jeder teilnehmende Host kann die eigenen lokalen Richtlinien festlegen, d.h. definieren, welche Newsgroups abonniert werden und für wie lange einzelne Nachrichten ge-speichert bleiben sollen.

2.3.1.2 DNS

Der Domain Name Service (DNS) ist ein Beispiel für ein System, welches ein dezentrales Architekturmodell mit einem zentralen, hierarchischen Mo­dell verbindet. Das erstaunliche am DNS ist, wie gut es skaliert hat, von ein paar tausend Hosts in 1983 zu den über 120 Millionen Hosts, welche heute im Internet sind.[47] Es wurde als Lösung auf das File-Sharing Problem ein-gerichtet. Um den menschenfreundlichen Namen unisg auf die IP-Adresse 130.82.151.30 abzubilden, wurde früher eine einzige Datei namens hosts.txt periodisch im Internet hin- und herkopiert. Deren Inhalt wurde zentral vom Network Information Center (NIC) des Stanford Research In-stitute (SRI) verwaltet. Als das Netz zu Tausenden von Hosts angewachsen war, wurde es unmöglich, diese Datei weiterhin zu unterhalten. Die erste Version von DNS wurde 1984 entwickelt.[48] Es ist als verteilte Datenbank angelegt, welche in einer hierarchischen Form ähnlich einem hierarchischen Dateisystem in einzelne Segmente aufgeteilt ist. Jedes Segment erhält einen eindeutigen Namen. Dieser entspricht dem umgekehrten Pfad von der Wurzel zum entsprechenden Knoten im „DNS-Baum“. Die Daten der einzelnen Segmente werden nach dem cC-S-Prinzip global verfügbar ge-macht.

Im DNS gibt es verschiedene Schlüsselelemente, die in heutigen dezen-tralen Systemen wiedergefunden werden können. Erstens fungieren Hosts als Client und als Server. Das zweite Element ist die natürliche Methode, Datenanfragen im Internet zu propagieren. Grundsätzlich kann jeder DNS-Server jeden anderen anfragen, wenn er selber die Antwort auf eine an ihn gerichtete Frage nicht kennt.[49]

Das Usenet und das DNS verdeutlichen, dass das Internet ursprünglich nach dezentralen Kommunikationsmustern aufgebaut war. Die Probleme, welche heute mit neuen P2P-Applikationssystemen, wie z.B. File Sharing, auftauchen, sind sehr ähnlich wie die Probleme dieser beiden alteingesesse-nen Netzwerkkomponenten vor 15-20 Jahren.

2.3.2 Internet 2.0 – Der Wechsel zur asymmetrischen Client-Server-Architektur

Mit der Explosion des Internets 1994, durch die Einführung des Web Brows-ers, kamen neben den Wissenschaftlern, welche an den Details von kom-plexen Computernetzwerken interessiert waren, nun auch „ordinary folks“ ins Netz. Sie interessierte das Internet als ein Medium um E-Mails zu ver-senden, Webseiten anzuschauen und Sachen zu kaufen.

“Version 2 was the Web, surfing and email. Broad adoption. You can buy movie tickets on the Web. Internet kiosks and cafes are everywhere. URLs on all business cards. Who needs the Yellow Pages when we have Yahoo!?”[50]

Der Webbrowser ist universell zugänglich und einfach zu bedienen. Er ist entscheidend, um im Web „surfen“ zu können und er ist gratis. Er wurde um ein einfaches C-S-Protokoll herum gebaut: Der Client initialisiert eine Verbindung mit einem bekannten Server, lädt Daten herunter und trennt sich wieder. Wenn der Benutzer die Pakete erhalten hat, beginnt der Prozess von vorne. Das Modell ist simpel und unkompliziert – und es ist asymmetrisch, wie der Abbildung 2-5 entnommen werden kann. Computer, welche einen Web Browser benutzen, um Daten im Internet zu erreichen, brauchen weder eine permanente noch eine bekannte Adresse. Alles was die Maschine beherrschen muss, ist Fragen stellen und auf Antworten war-ten.[51]

Abbildung 2-5: Asymmetrie im Datenfluss

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Bear, Stearns & Co., Inc.[52]

Im Gegensatz zum Browser waren Server nicht gratis erhältlich. Server wurden als gute, zukünftige Einnahmequellen betrachtet und waren in der Entwicklung noch nicht so weit wie Browser. Bis zur Einführung des ersten Servers für Windows[53] 1995 waren lediglich Unix-Server erhältlich, obwohl bereits 95% aller Internetbenutzer ein Windows-Betriebssystem verwen-deten. Der Markt war von der Aufgabe des Servers als eines zentralen Pub-lishing Tools überzeugt.[54] Dies ist einer der Hauptgründe für den Paradig-mawechsel vom Two-Way- zum One-Way-Netz.

Während das Internet 1.0 auf dem Prinzip der Kooperation beruhte und alle Teilnehmer das Ziel verfolgten, ein zuverlässiges, effizientes und lei-stungsfähiges Netzwerk zu bauen, brachte die kommerzielle Explosion was am besten unter dem Begriff der Tragedy of the Commons[55] beschrieben werden kann. Die fehlende Verantwortlichkeit in der neuen zentralen Inter-netarchitektur, unkooperative Leute und Spam[56] haben zur Folge, dass sich Clients und Server immer weiter voneinander entfernen. Neue, bandbrei-tenhungrige Protokolle, wie das UDP-basierte Protokoll, welche sich nicht nach der TCP rate equation[57] verhalten, führen zu einer ungleichen Vertei-lung der Netzressourcen. Dies demonstriert, dass der ordentliche Betrieb des Internets zerbrechlich ist und die Kooperation und Mitverantwortung von jedermann verlangt.

Im folgenden sollen vier Neuerungen des Internet 2.0 und deren Auswir-kungen aufgezeigt werden. Es sind dies: Firewalls, NATs, dynamisches IP und ADSL.

2.3.2.1 Firewalls und NATs

Die Netzwerkarchitektur hat sich mit dem kommerziellen Internet signifi-kant geändert. Modemverbindungsprotokolle wie das Serial Line Internet Protocol (SLIP) und das Point-to-Point Protocol (PPP) wurden üblich und Unternehmen haben damit begonnen, ihre Netzwerke mit Firewalls und Network Address Translation (NAT) zu regeln. Heute ist das Internet eine Sammlung von vielen einzelnen und verteilten „Netzinseln“. Diese Inseln isolieren Computer oder Cluster von Computern voneinander. Ein gutes Beispiel dafür stellt die Zunahme von Intranets mit Proxy Servern und an-deren Sicherheitseinrichtungen wie dem Dynamic Host Configuration Proto-col (DHCP[58] ) dar. Sie unterstützen die Trennung und Fragmentierung von Netzwerken wesentlich. Firewalls tauchten in den 1990er-Jahren auf, weil man das Risiko von dezentraler Symmetrie, d.h. freien Datenverkehrs, wie er im Internet 1.0 die Regel war, nicht mehr eingehen konnte oder wollte. NAT-Router stellen noch eine grössere Barriere auf, indem sie die IP-Adressen der Clients verstecken. Dadurch sind die Hosts in Intranets nicht mehr erreichbar.

Abbildung 2-6: Abgeschottete Intranets

Abbildung in dieser Leseprobe nicht enthalten

Die Computer in solchen abgeschotteten Intranets profitieren aber weiter-hin vom öffentlichen Internet, während sie typischerweise nichts dazu bei-tragen, wie in Abbildung 2-5 dargestellt ist. Daten fliessen somit zum gros-sen Teil nur noch uni-direktional, also asymmetrisch, was nach Metcalfe den Wert des Netzwerkes schmälert.

2.3.2.2 Dynamisches IP und ADSL

Mit dem enormen Wachstum an Modembenutzern war es nicht mehr mö-glich, allen Internet Hosts eine fixe IP-Adresse zuzuteilen, da das 32-bit IPv4 schlicht nicht mehr genug Nummern zum Verteilen bot. Die dyna-mische IP-Adresszuteilung ist heute die Norm im Internet, was wiederum grösstenteils zu One-Way-Datenfluss führt.

Ein letzter Internettrend der späten 1990er-Jahre, der zusätzlich eine He-rausforderung für P2P-Applikationen darstellt, ist der Anstieg von asym-metrischen Netzwerkverbindungen durch ADSL und Kabelmodems, welche drei bis acht mal mehr Bandbreite beim Empfangen von Daten, als beim Senden erlauben, und somit Client- vor Serveranwendung favorisieren.

„Things such as firewalls, NAT translation and dynamic IP addresses vio-late the fundamental promise of the Internet both at the protocol level, by breaking the implicit contract of TCP/IP (two nodes can always con-tact each other) and on a social level (the Internet has no second-class citizens).”[59]

2.3.3 Internet 3.0 – Zurück zum dezentralen Modell

Wir befinden uns inmitten eines Transformationsprozesses der Netzwerk-architekturen und -topologien, welcher langsam das Landschaftsbild von Computern, Netzwerken und Kommunikation verändert. Distribution und Dezentralisation, diesmal mit XML als Basis, bilden den Kern dieses Pro-zesses, welcher das Internet zurück zu einem interaktiveren, flacheren und symmetrischeren Two-Way-Netz führen wird.[60],[61] Im Internet 3.0 wird der PC, wie auch andere Geräte, sowohl Client als auch Server sein.[62] Das Internet 1.0 stand im Zeichen des Netzwerkes, das Internet 2.0 im Zeichen der Clients und Server, die auf diesem Netzwerk „lebten“. Im Internet 3.0 wird die Software zentral sein, welche die Geräte auf diesem Netzwerk mit-einander verbindet, und die Frage, wie die Computer zur Kommunikation, Koordination und Kooperation benutzt werden.[63] XML wird voraussichtlich die lingua franca für das ganze Internet und das DNS wird nicht mehr län­ger das einzige Adresssystem sein, wie auch der Browser nicht mehr länger der einzige Zugang zum Internet sein wird. Internet 3.0 ist kein Geschäfts-modell oder eine technische Spielerei. Es ist eine neue Art und Weise Ver-bindungen zu knüpfen, Daten zu organisieren und zusammen zu arbeiten.

“There are too many efficiencies in distributed and decentralized systems to ignore.”[64]

Im Internet 3.0 wird die Groupware-Vision der späten 1980er-Jahre reali-siert werden.

“[…] Shared writing spaces with good boundaries. Structures that link to each other but are capable of managing greater complexity than the page-oriented metaphor of the Web.”[65]

In Version 2.0 wurde der Perfomance Monitor[66] flacher und flacher, als die CPU-Leistung die Moore’sche Kurve[67] hinaufwanderte, aber die zentrale Architektur hat verhindert, diesen Umstand auszunutzen. In Version 3.0 wird das CPU wieder mehr arbeiten und die lokale Festplatte wird Backup-Kopien der auf Servern gespeicherten Daten enthalten.[68]

Das P2P-Modell ist per Definition nach dem dC-S-Muster aufgebaut und kann dabei helfen, den IT-Flaschenhals, welcher mit der cC-S-Architektur entstanden ist, zu brechen. Im nächsten Kapitel wird auf die verschiedenen P2P-Architekturen eingegangen.

3 Peer-to-Peer-Systeme

Das Peer-to-Peer-Konzept ist also nicht neu.[69] Wie im Kapitel 2 gezeigt wurde, haben die Gründerväter des Internets das Netzwerk der Netzwerke[70] ursprünglich nach einem P2P-Modell aufgebaut. NetMeeting, eine Echtzeit-Kollaborationssoftware von Mi-crosoft und Internet Relay Chat (IRC) sind vom Benutzerstandpunkt aus auch p2p und haben lange vor der Erfindung des Begriffes „Peer-to-Peer“ bestanden.[71] Die Neuerung von Applikationen wie Napster liegt darin, dass der Schwerpunkt von one-to-one Sharing zu one-to-many gewechselt hat und dass sie in kürzester Zeit enorm populär wurden. Napster hatte inner-halb von bloss 20 Monaten 65 Mio. registrierte Benutzer.[72]

Abbildung in dieser Leseprobe nicht enthalten

P2P-Technologie wird heute grob zu je einem Drittel für verteiltes Proces-sing, Groupwarefunktionalitäten und passive Applikationsinteraktionen für B2B-Commerce und EDI eingesetzt.[73] P2P ist kein kurzfristiges Phänomen und beschäftigt sich auch nicht bloss mit File Sharing und Copyright-Kämp­fen, wie z.T. angenommen wird.[74]

3.1 P2P-Definitionen

In Kapitel 2 wurde der Unterschied von cC-S- zu dC-S-Architekturen erläu-tert. Nun soll P2P in diesen Kontext eingegliedert werden.

Abbildung 3-1: Einteilung von P2P in die cC-S- und dC-S-Architektur

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Darstellung

Grundsätzlich gibt es zwei unterschiedliche Formen von P2P-Architekturen. Es sind dies die reine oder pure P2P-Form (pP2P) und die hybride Archi-tektur (hP2P). Abbildung 3-1 zeigt, dass die hybride Form sowohl aus cC-S,

als auch aus dC-S-Elementen besteht, während die pure Form voll dezen-tral ist. Diese beiden Stile werden unter 3.3 vertieft betrachtet.

P2P ersetzt asymmetrische cC-S-Beziehungen mit symmetrischen, in wel-chen alle Peers gleichzeitig Client und Server sind und untereinander Dienstleistungen austauschen. Dies erlaubt implizit das Konsumieren und das Publizieren von Daten. Darum spricht man im Internet 3.0 wieder von einem Two-Way-Netz. Abbildung 3-2 veranschaulicht den Unterschied zwi-schen cC-S und P2P gra­fisch. Während beim cC-S-Modell jeder Datenaus-tausch und jede Kommunikation via den zentral verwalteten Server läuft, kommunizieren im P2P-Modell die Clients direkt. Dadurch verschieben sich die Ressourcen nach aussen.[75] hP2P-Systeme benutzen für gewisse Aufga-ben die Hilfe eines Servers.

Abbildung 3-2: cC-S vs. P2P

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Intel DeveloperUPDATEMagazine[76]

P2P-Technologie ermöglicht also eine Klasse von Applikationen, die Nutzen aus Speicher, Rechenleistung und Datenbanken am Rande des Internets zieht. Weil diese freien Ressourcen nur in einem Umfeld von instabiler Ver-bindung und ständig wechselnden IP-Adressen vorliegen, müssen die P2P-Knoten ausserhalb des DNS-Systems operieren und geniessen dadurch eine signifikante Autonomie vor zentralen Servern.[77],[78] Um dies zu realisieren, werden spezielle Applikationen benötigt. Falls folgender Lackmustest[79] für ein dC-S-Modell erfüllt ist, handelt es sich um solche P2P-Applikationen:

1. Does it treat variable connectivity and temporary network addresses as the norm, and
2. does it give the nodes at the edges of the network significant auto-nomy?[80]

3.2 Heterogene Peers

Die Mainframe- und IBM AS/400 Mini-Computer zur Zeit des Internet 1.0 waren untereinander wirkliche Peers. Die Revolution des Peer-Computing ersetzt diese physische Äquivalenz durch eine erstaunliche physische Dis-parität. Es können heute neben PCs auch PDAs und Mobiltelefone in einem P2P-Netz vorkommen. Im Internet 3.0 muss deshalb der Begriff Peer neu definiert werden. Es ist üblich, jedes System, in welchem viele, autonome Hosts miteinander interagieren, als p2p zu beschreiben. So wird es in naher Zukunft keinen Unterschied mehr machen, ob mit einem PDA oder einem Mainframe kommuniziert wird. Unter der Voraussetzung, dass sich das Ge-rät den P2P-Protokollen unterstellt, dass die Kommunikation aufrechterhal-ten und die Fragen beantwortet werden können, wird die tatsächliche Gleichheit der Peers unwichtig. Heterogenität hat somit die Äquivalenz der früheren P2P-Architekturen ersetzt. Die drei Hauptgründe für diesen Trend sind die Verbesserung des Netzwerkzugangs und die Zunahme der zur Ver-fügung stehenden Bandbreite und Rechenkapazität.

3.3 Hybride und pure Peer-to-Peer-Architekturen

In diesem Abschnitt sollen die beiden P2P-Hauptklassen beschrieben wer-den. Hybride Formen kommen in der datenzentrierten und der nutzerzen-trierten Variante vor, welche unter 3.4 erläutert werden.

3.3.1 Pures P2P

Im vollkommenen dezentralen Modell ist jeder Host ein gleichberechtigter Teilnehmer und es gibt keine Hosts mit speziellen, administrativen Rollen. Es wird kein zentraler Server benötigt, um die Verbindung zwischen Peers zu kontrollieren oder zu koordinieren. Dies macht solche Systeme überaus fehlertolerant. In einem pP2P-Netzwerk sind die Daten über viele ver-schiedene Rechner oder Peers verstreut. Jeder Computer ist sowohl ein Peer, als auch ein potentieller Host, und kann somit direkt Daten austau-schen. Dies führt dazu, dass Daten und Ressourcen über das ganze Netz-werk hinweg verteilt und somit zentrale Speicherkosten eliminiert werden.

Im pP2P-Modell sind Informationen tausendfach auf Tausenden von Com-putern gespeichert. Diese Redundanz, so sagen es P2P-Puristen voraus, werde dazu führen, dass in naher Zukunft weder Disketten noch irgend ein anderes Backup-System mehr benötigt werde. Tim O’Reilly proklamierte an der Eröffnung der ersten P2P-Netzwerk-Konferenz in San Francisco im Fe-bruar 2001:

„I predict that in a certain finite number of years, the whole notion of ‚backup’ will not exist.”[81]

Freenets Ian Clarke sagte im gleichen Zusammenhang, dass P2P zu „place-less data“ führen werde.

Reine P2P-Architekturen existieren bis heute hauptsächlich im Bereich des File Sharing. Das bekannteste Beispiel für ein solches pP2P-Netzwerk ist Gnutella[82]. Die Software wurde ursprünglich von Nullsoft[83], einer Tochter-firma von AOL[84], programmiert.

Abbildung 3-3: pP2P-Architektur

Abbildung in dieser Leseprobe nicht enthalten

Quelle: CenterSpan Communication Corporation[85]

Das Gnutella-Protokoll legt fest, wie Gnutella-Applikationen miteinander über das Internet via HTTP kommunizieren. Das Protokoll wurde öffentlich zugänglich gemacht. Heute bestehen über 30 verschiedene Clientprogram-me, wodurch Gnutella das erste grosse P2P-Netzwerk nach dem ARPANET darstellt.

Abbildung 3-3 zeigt, wie in einem Netzwerk ohne zentralen Server oder In-dex die angeschlossenen Computer, die sogenannten Servents[86], unterei-nander Suchanfragen austauschen und diese beantworten. Um in einem solchen Netzwerk Anschluss zu finden, muss man mindestens ein Mitglied kennen, dessen IP-Adresse man beim ersten Mal ansteuert.[87] Hat man eine Verbindung, ist man sofort mit einem Teil des Netzes verbunden. Wird eine Suchanfrage gestartet, so leitet der eigene Servent diese an alle mit ihm verbundenen Servents weiter, die dann entweder antworten oder wiederum alle mit ihnen verbundenen Servents anfragen. Es entsteht eine Art Ket-tenbrief von Suchanfragen. Damit das Netz nicht überlastet wird und eine Suche auch einmal zu Ende ist, wird jede Suchanfrage mit einem Zähler, einer sogenannten Time-To-Live (TTL) versehen. Jeder angefragte Servent zieht vom Zähler 1 ab, bis dieser auf Null ist.[88] Somit existiert bei diesem Broadcasting-Modell eine natürliche Barriere für den Zugriff auf das P2P-Netzwerk. Dieser Horizont liegt bei Gnutella mit einem TTL von sieben bei ca. 10.000 Hosts, d.h. die Anfrage eines Computers gelangt an durch-schnittlich 10.000 andere Computer im Netzwerk.[89]

Das grösste Problem solcher pP2P-Modelle ist das „Freeriding“ oder das „Freeloading“. Diese Begriffe bedeuten, dass Nutzer mehr herunterladen, als sie selbst dem Netz zur Verfügung stellen. Eine Analyse des Gnutella-Netzwerkes hat gezeigt, dass 70% der Nutzer keinerlei Ressourcen mit anderen teilen.[90] Ein weiteres Problem stellt das schier endlose PINGing dar. Um andere Knoten im Netzwerk zu erreichen, müssen alle Teilnehmer im Horizont „angepingt“ werden, was zu Überlastungen des Netzwerkes führen kann. PINGs können bis zu 50% des Datenverkehrs ausmachen. Deshalb muss die TTL tief gehalten werden. Freenet’s Theodor Hong hat nachgewiesen, dass bereits ein TTL von zehn zu einem Kollaps von Sys-temen wie Gnutella führen würde.[91] Das Gnutella-Protokoll hat deshalb ein TTL von sieben.

3.3.2 Hybrides P2P

In der Praxis ist es recht schwierig, vollkommen dezentrale Systeme zu bauen, weshalb viele P2P-Applikationen einen hybriden Ansatz verfolgen. Wie bereits gezeigt wurde, ist das DNS zwar p2p im Protokolldesign, hat aber einen eingebauten Sinn für Hierarchie. Es gibt viele weitere Beispiele für Systeme, die p2p im Kern, aber semi-zentralisiert organisiert in der Ap-plikation sind, wie z.B. das Usenet, Napster und Instant Messaging[92]. Semi-zentralisiert organisiert bedeutet im Falle von P2P, dass zwar ein Server im System vorhanden ist, dieser jedoch bloss eine vermittelnde Rolle ein-nimmt. In Situationen, wo Kosteneffizienz und/oder die Kontrolle über die ausgetauschten Daten wichtig sind, kann eine hP2P-Architektur, welche die Vorteile von einem zentralen Server und pP2P verbindet, die optimale Lö-sung darstellen.[93] Solche koordinierten P2P-Modelle sind im Vergleich zu pP2P wesentlich einfacher im Umgang. In einem hP2P-Netzwerk halten die Server einen Index der Daten oder ein Verzeichnis der Benutzer mit den In-formationen, wo die Daten oder Benutzer gefunden werden können.[94] Wenn der Server eine Anfrage erhält, wird der gesuchte Peer identifiziert und ver-mittelt. In Abbildung 3-4 ist dies grafisch dargestellt.

Abbildung 3-4: hP2P-Architektur

Abbildung in dieser Leseprobe nicht enthalten

Quelle: CenterSpan Communications Corporation[95]

Die Vorteile des hybriden Modells sind der zentrale Index, welcher das schnelle und effiziente Auffinden von Daten erlaubt, und der Umstand, dass alle individuellen Benutzer, resp. Clients, auf einem Server registriert sein müssen. Dadurch erreicht eine Suchanfrage alle aktuell eingewählten Netz-werkteilnehmer, und nicht wie beim pP2P-Modell bloss den TTL-Horizont. Die Single-Point-of-Failure-Problematik ist bei hP2P-Netzwerken weit weni-ger problematisch, als bei den zentralen Modellen, da der Datenfluss vom Volumen her via Server gering ist.

[...]


[1] vgl. Anderson, Bob: Peer-to-Peer Commerce. In: Fingar, Peter: The Death of e. Tampa, USA: Meghan-Kiffer Press 2001, Kapitel 8, S.149ff. Bob Anderson beschreibt “the Connection Age” – das Beziehungszeitalter.

[2] ebenda, S.149

[3] o.V. [Intel.com]: Pat Gelsinger, Vice President und CTO, Intel Architecture Group. http://www.intel.com/pressroom/archive/speeches/pg20010228idf.htm, Erstellt: 28.02.2001, Zugriff: 12.08.2001

[4] Unter dezentralisiertem kooperativem Arbeiten versteht man „Zusammenarbeit in einem Netzwerk ohne Server mittels P2P-Applikationen“; vgl. für eine Umschreibung von Kollaboration:

4.2.3 Kooperation, 4.2.4 Kollaboration und 5.1 Dezentrales kooperatives Arbeiten

[5] Gemeint ist hier ‚verteiltes’ Gaming über Netzwerke oder Internet

[6] vgl. 4.1.1 CSCW und 4.1.2 Groupware

[7] vgl. McAffee, http://www.mcafeeasap.com/, Zugriff: 12.08.2001

[8] Def. Client: „A computer or program that can download files for manipulation, run applications, or request application-based services from a file-server.“ (dictionary.com)

[9] Software für CSCW. vgl. 4.1.2 Groupware

[10] Eine detailliertere Abgrenzung findet im Kapitel 4 Computer Supported Cooperative Work statt

[11] Ihnen ist im Kapitel 4 unter 4.3 ein Abschnitt gewidmet

[12] vgl. Gasser, Les: DAI Approaches to Coordinatin. In: Avouris, Nicholas: Distributed Artificial Intelligence: Theory and Practice, Kluwer Academic Publishers, 1992, S.31-52

[13] siehe Anhang B: Die CD zur Diplomarbeit

[14] vgl. Betschon, Stefan: An den Rändern des Netzwerks. In: Neue Zürcher Zeitung, 222. Jahrgang, Nr. 102, S.82

[15] Def. Server: “a. A file server; b. A computer that processes requests for HTML and other documents that are components of web pages.” (dictionary.com)

[16] Mosaic war der erste Webbrowser, vgl. o.V. [The National Center for Supercomputing Applications (NCSA)]: http://archive.ncsa.uiuc.edu/SDG/Software/mosaic-w/index.html,

Erstellt: 02.05.1999, Zugriff: 18.07.2001 und Schreiber, Christian: Die Geschichte des Internet und seiner Dienste, http://xputers.informatik.uni-kl.de/~c_schrei/GdI/1_5.html,

Erstellt: 05.1996, Zugriff: 11.07.2001

[17] vgl. Shirky, Clay(1) [O’Reilly Network]: What Is P2P… And What Isn’t? http://www.oreillynet.com/pub/a/p2p/2000/11/24/shirky1-whatisp2p.html,

Erstellt: 24.11.2000, Zugriff: 01.06.2001

[18] vgl. Kwak, Chris/Fagin, Robert [Bear, Stearns & Co, Inc.]: Internet Infrastructures & Services. http://www.bearstearns.com/supplychain/infrastructure.htm, S.49,

Erstellt: 05.2001, Zugriff: 22.06.2001

[19] vgl. George Gilder zitiert in: Kwak/Fagin, 2001, S.49

[20] Def. Router: vgl. o.V. [Intelliga, Inc.]: http://www.intellegia.com/courses/ntc/NTCC3.html#Routers

[21] vgl. 2.2.3 Die Metcalfe-Gilder-Problematik und o.V. [CenterSpan Communication Corporation(1)]: An Overview of P2P. http://www.centerspan.com/solutions/index.cfm?fuseaction=whitepapers,

Zugriff: 21.07.2001

[22] „Internet is basically a peer-to-peer architecture for communication.“ Hummel, Johannes/Lechner, Ulrike [TU München]: Communities – The Role of Technology, http://www.aib.wiso.tu-muenchen.de/lehre/ss01/telekoop/mcm2.pdf, S.2, Erstellt: 07.2001, Zugriff: 18.08.2001

[23] obwohl dagegen gesagt werden kann, dass die Verbreitung von Breitband und die dadurch bessere Erschliessung der letzten Meile zügig voran geht.

[24] vgl. Shirky, Clay: Listening to Napster. In: Oram, Andy: Peer-to-Peer Harnessing the Power of Disruptive Technologies. Sebastopol: O’Reilly&Associates, Inc., 2001, S.28

[25] Router operieren im OSI-Modell auf den Layern 2-3. Deren Beitrag zur Netzwerkintelligenz ist damit beschränkt. vgl. Sheldon, Tom: LAN Times Encyclopaedia of Networking. Berkeley: McGraw-Hill, 1994, S.58-62

[26] Bei DV-Projekten von IBM fallen 15% auf Hardware, 35% auf Software und 50% auf Dienstleis-tungen; vgl. Siegele, Ludwig: Der Veteran als Vorbild. In: Die Zeit, Nr. 33, 09.08.2001, S.19

[27] IDC, http://www.idc.com/, Zugriff: 22.07.2001

[28] vgl. Kwak/Fagin, 2001, S.41

[29] vgl. ebenda, S.45/46

[30] vgl. o.V. [CenterSpan Communication Corp.(1)]: http://www.centerspan.com/solutions/index.cfm?fuseaction=whitepapers

[31] „The Power of the network increases exponentially by the number of computers connected to it […].” Bob Metcalfe, Erfinder des Ethernet 1973, Gründer von 3Com. vgl. o.V. [Jones Digitalcentury]: http://www.digitalcentury.com/encyclo/update/metcalfe.html, Zugriff: 21.07.2001

[32] Def. Host: “A computer containing data or programs that another computer can access by means of a network or modem.” (dictionary.com)

[33] Kwak/Fagin, 2001, S.41

[34] Man könnte denken, dass ein Vergleich zwischen Anzahl Hosts und Bandbreite einem Vergleich von Äpfeln und Birnen entspricht. Da aber im vorliegenden Fall vom Internet als dem gesamten und einzigen Netzwerk gesprochen wird, ist ein solcher Vergleich legitim.

[35] Kwak/Fagin, 2001, S.3

[36] vgl. 2.3.1 Internet 1.0 – Der Beginn war dezentral und symmetrisch

[37] vgl. Kwak/Fagin, 2001, S.39

[38] Angenommen, man hätte Napster auf einem cC-S-Modell aufgebaut, so wären zu Spitzenzeiten 5.000 NetApp F840 Enterprise Filers à $110.000 notwendig gewesen, um alle angebotenen MP3-Files zu hosten und es hätte 45 OC-12 Leitungen à ca. $150.000 oder 25.000 T1 Leitungen à $1.000 pro Monat gebraucht, um die benötigte Bandbreite für 3 Mia. Songs pro Monat zu erreichen. Diese Kosten sind mit dem dezentralen Modell erspart geblieben. vgl. Kwak/Fagin, 2001, S.47

[39] vgl. Kwak/Fagin, 2001, S.9.

[40] Winer, Dave: Internet 3.0. In: DaveNet, http://davenet.userland.com/2001/02/19/internet30, Erstellt: 19.02.2001, Zugriff: 18.07.2001

[41] vgl. Wego Systems, Inc., http://gnutella.wego.com/, Zugriff: 21.06.2001

[42] vgl. Freenetproject, http://freenetproject.org/, Zugriff: 21.06.2001

[43] vgl. Spencer, Henry/Lawrence, David: Managing Usenet. Sebastopol, USA: O’Reilly&Associates, Inc., 1998, S.1

[44] vgl. ehem. Deja.com, http://www.deja.com, Deja’s Usenet Archiv wurde von Google gekauft: http://groups.google.com/googlegroups/deja_announcement.html

[45] vgl. Minar, Nelson/Hedlund, Marc: A Network of Peers. In: Oram, Andy: Peer-to-Peer Harnessing the Power of Disruptive Technologies. Sebastopol, USA: O’Reilly&Associates, Inc., 2001, S.5

[46] vgl. ebenda, S.6

[47] vgl. 21.08.2001 @400: 120,035,522 Hosts: vgl. Telcordia Technologies, http://www.netsizer.com/, Zugriff: 19.07.2001

[48] vgl. Schärtel, Markus: So funktioniert DNS. In: internet world, 03.2001, S.72-76

[49] vgl. Minar/Hedlund, 2001, S.8

[50] Winer, http://davenet.userland.com/2001/02/19/internet30

[51] vgl. Minar/Hedlund, 2001, S.9

[52] Kwak/Fagin, 2001, S.33

[53] vgl. O’Reilly Website, http://website.oreilly.com/, Zugriff: 18.07.2001. Website von Tim O’Reilly war der erste Server für Windows.

[54] vgl. O’Reilly, Tim: Remaking the Peer-to-Peer Meme. In: Oram, 2001, S.54

[55] „Therein is the tragedy. Each man is locked into a system that compels him to increase his herd without limit – in a world that is limited. Ruin is the destination toward which all men rush, each pursuing his own best interest in a society that believes in the freedom of the commons. Freedom in a commons brings ruin to all.” Hardin, Garrett: The Tragedy of the Commons. Science, 1968, Volume 162, S.1243-1248. WWW: http://dieoff.com/page95.htm.

[56] Def. Spam: “Unsolicited e-mail, often of a commercial nature, sent indiscriminately to multiple mailing lists, individuals, or newsgroups; junk e-mail” (dictionary.com)

[57] Def. TCP rate equation, engl.: TCP-Quoten-Gleichung: Die Leistung einer individuellen TCP-Verbin-dung ist umgekehrt proportional zur Quadratwurzel der packet loss rate, d.h. umso mehr Pakete beim Senden/Empfangen verloren gehen, desto niedriger wird der Datenfluss, resp. die Bandbreite.

[58] Def. DHCP: Das Dynamic Host Configuration Protokoll ist Software, welche den Clients, die in ein TCP/IP-Netzwerk eingewählt sind, dynamisch IP Adressen zuteilen. Der Hintergedanke von DHCP und NAT ist, dass IP-Adressen knappe Ressourcen darstellen.

[59] Shirky, Clay(2) [O’Reilly Network]: P2P Smuggled In Under Cover of Darkness. http://openp2p.com/lpt/a/623, Erstellt: 14.02.2001, Zugriff: 18.06.2001

[60] Mit XML und den dazugehörigen Protokollen, wie dem Simple Object Access Protocol (SOAP), wird das Web organisierter und „ordentlicher“ werden. Das war bereits die Vision von Berners-Lee, als er das Konzept des „Semantischen Webs”, eines Webs, in welchem die zugrundeliegende Sprache alle Objekte im Netzwerk kodifiziert und wo alle Daten logisch definiert sind, vorstellte.

[61] vgl. Kwak/Fagin, 2001, S.20

[62] vgl. ebenda, S.50

[63] Obwohl die Software einen höheren Stellenwert haben wird, stellt der menschliche Anpassungswille an neue Arbeitsweisen eine Voraussetzung dar: “[…] Technology ‘just’ enables the community platform and the services for communities. These services shape […] the communication within a community.” Hummel/Lechner, http://www.aib.wiso.tu-muenchen.de/lehre/ss01/telekoop/mcm2.pdf

[64] Kwak/Fagin, 2001, S.21

[65] Winer, http://davenet.userland.com/2001/02/19/internet30

[66] damit ist der Windows Task Manager gemeint, welchem man die aktuelle CPU- und Speichernutzung des eigenen PCs entnehmen kann.

[67] o.V. [Internet.com]: http://webopedia.internet.com/TERM/M/Moores_Law.html, Zugriff: 20.07.2001. 1965 sagte Gordon Moore voraus, dass sich die Prozessorendichte alle 12-18 Monate verdoppeln wird. Diese Beobachtung stimmte für die letzten 35 Jahren erstaunlich genau. Moore ist der Gründer von Intel.

[68] Winer, http://davenet.userland.com/2001/02/19/internet30

[69] vgl. Patrizio, Andy [Wired News]: Peer-to-Peer Goes Beyond Napster. http://www.wired.com/news/technology/0,1282,41768,00.html, Erstellt: 14.02.01, Zugriff: 15.07.01

[70] vgl. The Economist Tech Quarterly: Profit from peer-to-peer. Volume 359, Nummer 8227, S.21-23

[71] Microsoft NetMeeting ist vom technischen Standpunkt aus nicht p2p, vgl. o.V. [Microsoft Corporation]: http://www.microsoft.com/windows/netmeeting/ und 3.1 P2P-Definitionen

[72] Im Vergleich dazu der E-Mail Dienst Hotmail: 30 Mio. Benutzer in 3 Jahren oder Anzahl installierter Netscape Navigator Browser: 38 Mio. Installationen in 20 Monaten.

[73] Menzefricke, Kristina [Frost & Sullivan]: Telefoninterview zum Thema “Eropäischer Markt für P2P-Lösungen”, 03.08.2001 und 1.3 Abgrenzung des Themas

[74] vgl. Batchelder, Robert [Gartner Group]: Peer-to-Peer – Something Old, Something New. http://www3.gartner.com/DisplayDocument?id=329216&acsFlg=accessBought,

Erstellt: 10.04.2001, Zugriff: 14.07.2001

[75] vgl. Hummel/Lechner, http://www.aib.wiso.tu-muenchen.de/lehre/ss01/telekoop/mcm2.pdf

[76] Barkai, David [Intel DeveloperUPDATEMagazine, 10.2000]: An Introduction to Peer-to-Peer Computing, S.4. http://developer.intel.com/update/contents/it02012b.htm, Zugriff: 19.07.2001

[77] vgl. Shirky(1), http://www.oreillynet.com/pub/a/p2p/2000/11/24/shirky1-whatisp2p.html

[78] vgl. o.V. [Endeavors Technology]: Introducing Peer-2-Peer. http://www.endtech.com/pdfs/ETI%20P2P%20white%20paper.pdf, Zugriff: 21.07.2001

[79] Def. Lackmustest: Der Lackmustest stammt aus der Chemie, wo mit einem Papierstreifen festge-stellt werden kann, ob eine Lösung sauer (Papier verfärbt rot) oder basisch ist (Papier verfärbt blau). (vgl. dictionary.com, http://www.dictionary.com/cgi-bin/dict.pl?term=litmus)

[80] vgl. Stolte, Etzard: Vorlesung “Ubiquitäres Computing”. IKS Group/ETH Zürich, 24.01.2001

[81] Manjoo, Farhad [Wirednews]: Peer-to-Peering Into the Future. http://www.wired.com/news/technology/0,1282,41813,00.html,

Erstellt: 15.02.2001, Zugriff: 12.07.2001

[82] vgl. Gnutellanews.com, http://www.gnutellanews.com/information/what_is_gnutella.shtml,

Zugriff: 22.07.2001

[83] vgl. Nullsoft, Inc., http://www.nullsoft.com/, Zugriff: 18.07.2001

[84] vgl. AOL Time Warner, Inc., http://www.aoltimewarner.com/index_flash.adp, Zugriff: 22.07.2001

[85] o.V. [CenterSpan Communication Corporation(1)], http://www.centerspan.com/solutions/index.cfm?fuseaction=whitepapers

[86] Def. Servents: Der Begriff setzt sich zusammen aus Ser ver und Cli ent. (LimeWire.com)

[87] Für Gnutella-Neulinge werden auf verschiedenen Homepages Listen mit IP-Adressen von Servents angeboten, siehe z.B. http://www.zeropaid.com/gnutella/ips.php, Zugriff: 22.07.2001. Einige Programme bieten Auto-Connect Features an, d.h. sie suchen sich direkt einen sicheren Host, siehe z.B. Limewire, http://www.limewire.com/, Zugriff: 18.07.2001

[88] vgl. Truelove, Kelly [O’Reilly openp2p.com]: Gnutella and the Transient Web. http://www.openp2p.com/pub/a/p2p/2001/03/22/truelove.html,

Erstellt: 22.03.2001, Zugriff: 22.07.2001

[89] vgl. Gnutellanews.com, http://www.gnutellanews.com/information/what_is_gnutella.shtml

[90] vgl. Adar, Eytan/Huberman, Bernardo [Xerox Research]: Free Riding on Gnutella. http://www.firstmonday.dk/issues/issue5_10/adar/index.html,

Erstellt: 08.08.2000, Zugriff: 18.07.2001

[91] vgl. Kwak/Fagin, 2001, S.176

[92] vgl. 3.4.2 Nutzerzentriertes Modell

[93] vgl. o.V. [CenterSpan Communication Corporation(1)], http://www.centerspan.com/solutions/index.cfm?fuseaction=whitepapers

[94] vgl. o.V. [LimeWire]: Modern Peer-to-Peer File-Sharing over the Internet. http://www.limewire.com/index.jsp/p2p, Zugriff: 14.07.2001

[95] o.V. [CenterSpan Communication Corporation(1)], http://www.centerspan.com/solutions/index.cfm?fuseaction=whitepapers

Ende der Leseprobe aus 120 Seiten

Details

Titel
Peer-to-Peer Architekturen und Applikationen für Kollaboration und Kooperation. - Eine kritische Analyse des State of the Art.
Hochschule
Universität St. Gallen  (Institute for Media and Communicationsmanagenent (MCM-ITM HSG))
Note
1
Autor
Jahr
2001
Seiten
120
Katalognummer
V991
ISBN (eBook)
9783638106115
Dateigröße
9778 KB
Sprache
Deutsch
Schlagworte
P2P, P-to-P, Peer-to-Peer, Kooperationen, Groupware, GW, Kollaboration
Arbeit zitieren
Simon Michel (Autor:in), 2001, Peer-to-Peer Architekturen und Applikationen für Kollaboration und Kooperation. - Eine kritische Analyse des State of the Art., München, GRIN Verlag, https://www.grin.com/document/991

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Peer-to-Peer Architekturen und Applikationen für Kollaboration und Kooperation. - Eine kritische Analyse des State of the Art.



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden