Peer-to-Peer - "Technologie und Anwendungen" oder Das Netz im Netz


Travail d'étude, 2005

36 Pages


Extrait


Inhaltsverzeichnis

1. Einleitung

2. Technischer Ansatz
2.1 Begriffserklärung Peer-to-Peer
2.2 P2P - Modelle
2.2.1 dezentrale Architektur (pures P2P)
2.2.2 zentrale Architektur (assistiertes P2P)

3. Möglichkeiten im P2P-Netzwerk
3.1 Kommunikation/Instant Messaging
3.2 File Sharing/Ressource Sharing
3.3 Distributed Computing/ Grid Computing
3.4 Collaborative Computing/ P2P - Groupware

4. Vor- und Nachteile dieser Technologie
4.1 Vorteile
4.2 Nachteile

5. Die BBC plant "flexibles Fernsehen"
5.1 Der Sender BBC
5.2 Ausweitung des Fernsehens auf das Internet
5.3 Problem der Verbreitung - Lösungsansatz (File-Sharing)
5.4 BitTorrent
5.5 Auswirkungen, Ausblick, Neuland

6. Skype -the Global P2P Telephony Company™-
6.1 Skype, eine kurze Einführung
6.2 Was kann Skype ?
6.3 Das Erfolgsrezept - P2P macht es möglich
6.4 Die Vermarktung - kommerzielle Aspekte
6.5 Ein paar Zahlen - Resümee

7. Markt, Chancen und ökonomische Aspekte

8. Fazit

Anhang: Begriffserläuterungen

Quellenverzeichniss

1. Einleitung

In dieser Hausarbeit geht es um eine Technologie, deren Entstehungsgeschichte bis an die Anfänge des Internet zurückreicht. Im Internet von morgen werden Netzwerk- Technologien eine zunehmend grössere Rolle spielen. Die Peer-to-Peer Technologie stellt einen alternativen Ansatz zur heute vorherrschenden Server/Client Struktur dar. Es handelt sich um eine Technologie die noch am Anfang ihrer Entwicklung steht. Dies war einer der wesentlichen Beweggründe warum ich mich für dieses Themengebiet entschieden habe.

Zur Jahrtausendwende, also in den Jahren 2000/2001 wurde den Peer-to-Peer Netz- werken ein regelrechter Boom vorrausgesagt. In diesem Zusammenhang sei auf die Musik- Tauschbörse Napster verwiesen, die sich rasend schnell zu einer der gefragtesten und meistfrequentiertesten Internet-präsenzen entwickelte. Im Fahrwasser dieser Entwicklung schossen weitere Tauschbörsen wie Pilze aus dem Boden (Gnutella, Freenet etc.) jedoch stellte keines dieser Modelle ein tragbares wirtschaftliches Modell dar und es kam im weiteren Verlauf dieser Entwicklung zu erheblichen Diskrepanzen zwischen den Tauschbörsenbetreibern und den Major-Labels (Musik und später auch Film) bezüglich Copyright und Urheberrechtsverletzungen. So schnell wie die Tauschbörsen kamen verschwanden sie auch wieder...und auch der prophezeite Hype um die Technologie Peer-to-Peer blieb bis zum heutigen Tage mehr oder weniger aus.

An dieser Stelle soll die Arbeit ansetzen, handelt es sich trotz der kontroversen Auseinandersetzungen doch um eine Technologie die das Potential hat weitreichende sozioökonomische und auch wirtschaftliche Veränderungen herbeizuführen. Die Arbeit gliedert sich wie folgt, am Anfang soll dem Leser ein kurzer, verständlicher Einstieg in das Wesen der Technologie gegeben werden. Im weiteren Verlauf werden die Anwendungsmöglichkeiten sowie die Vor- und Nachteile aufgeschlüsselt. Den eigentlichen Kern bildet die Auseinandersetzung mit zwei Marktmodellen in denen die Technologie zum Einsatz kommt (Flexibles Fernsehen - BBC, Internettelephonie - Skype) und das nachfolgende Kapitel "Markt, Chancen und ökonomische Aspekte" in dem nocheinmal speziell auf betriebswirtschaftliche und ökonomische Zusammenhänge eingegangen werden soll.

Es handelt sich bei der Auseinandersetzung mit diesem Thema um ein sehr komplexes Gebiet, worin auch der Reiz dieser Ausarbeitung lag, daher ist nicht davon auszugehen das dieses Themengebiet vollständig abgehandelt wird, es soll eine in sich geschlossene Arbeit werden welche die Impulse und Möglichkeiten der Technologie Peer-to-Peer aufgreift und sich mit der Frage auseinandersetzt wie/wo diese Technologie gewinnbringend bzw. vorteilhaft eingesetzt werden kann.

Am Anfang der Arbeit stand eine grobe Gliederung und ich machte mich alsbald an die Recherche, musste jedoch feststellen das in den Bibliotheken ("öffentliche Bücherhallen" , "FH-Bibliothek") eher wenig Literatur zu diesem Thema zu finden war ... im Internet wurde ich nach Eingabe der entsprechenden Suchbegriffe jedoch relativ schnell fündig. Aus diesem Grund sind die Quellen grösstenteils PDF`s, Artikel und Beiträge aus dem Internet. So sammelte ich ersteinmal jegliches Material das zu finden war und ordnete alles, im weiteren Verlauf nahm ich dann eine feinere Gliederung vor und begann mit der Arbeit...

Michael Sturm Hamburg, den 11.01.2005

2.1 Begriffserklärung Peer-to-Peer

"Peer-to-Peer ist ein System zum direkten Austausch von Ressourcen zwischen vernetzten Rechnern. Der Name kommt aus dem englischen (peer = Gleicher) und bedeutet soviel wie "von gleich zu gleich". Er beschreibt die Architektur, die diesem Netzwerktyp zu Grunde liegt." (1 )

Als Peer werden grundlegend alle Geräte in einem geschichteten Kommunikationsnetzwerk bezeichnet, die auf der gleichen Protokollebene arbeiten, dies können auch Mobiltelephone, PDA`s, Notebooks etc. sein.

Alle an das Netz angeschlossenen Rechner (Peers) sind gleichberechtigt, sie können gleichermaßen als Client und als Server agieren (s. Abb. 1). Anders als im klassischen Server- Client-Modell (s. Abb. 2) können dadurch Ressourcen, also Programme, Dateien oder auch Rechenleistung und Festplattenplatz, direkt unter den Peers ausgetauscht bzw. verteilt werden. Dabei bestimmt jeder User selbst, welche Ressourcen er in dem P2P-Netz zur Verfügung stellt.

"In der Informationstechnik ist der Gegensatz zum Peer-to-Peer-Prinzip das Client-Server- Prinzip. Hier gibt es den Server, der einen Dienst anbietet, und den Client, der diesen Dienst nutzt. Der Kern des Begriffes liegt in der Rollenverteilung: Wenn man im Internet surft, ist der Browser kein Webserver und mit dem Webserver kann man nicht browsen." (2 )

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1 Abb. 2

Das P2P-Konzept ist nicht neu. Der Vorläufer des heutigen INTERNET ist das ARPANET, welches im Auftrag der US-Luftwaffe in den späten 1960er Jahren entwickelt wurde. Anfänglich waren durch das Netzwerk lediglich vier Forschungseinrichtungen vernetzt: das Stanford Research Institute, die University of Utah, die University of California in Los Angeles und die University of California in Santa Barbara. (3 )

Das ursprüngliche ARPANET hatte zum Ziel, freie Computerressourcen auszutauschen und war architektonisch ein pures, dezentrales P2P-System. Grundsätzlich konnte jeder HostRechner Pakete erhalten und senden. Als P2P-Strukturen des frühen Internet seien in diesem Zusammenhang “Usenet” und “DNS” genannt. Man könnte diese frühe Form als “Internet der 1. Generation” bezeichnen.

Somit galt das Internet lange Zeit als Kommunikationsmedium, bevor es durch viele Anwendungen eine Server-Client-Struktur erhielt. Bis 1994 dominierte die Art von Vernetzung, bei der jedem Teilnehmer, unterstützt durch das DNS-System, eine statische IPAdresse zugeteilt wurde.

Die Erfindung des Browsers und die daraus resultierende Kommerzialisierung bzw. Erschließung des Internet durch zahlreiche User führte zu einem Wandel.

Von nun an bestand die Möglichkeit, z.B. per Modem kurzzeitig dem Verbund von „festvernetzten“ Rechnern beizutreten. Es kam zu einem Mangel an fest zuteilbaren IPAdressens.Anh.1 ). PC`s konnten nicht mehr direkt miteinander kommunizieren, sondern mussten sich an einen zentralen Server wenden, der ihnen bei jedem Zugang zum Internet eine temporäre Adresse zuwies.

Im Verlauf dieser Entwicklungen etablierte sich das “Internet der 2.Generation”, welches den derzeitigen Entwicklungsstand repräsentiert.

Diese Entwicklung ist jedoch noch nicht abgeschlossen und das Verlangen und der Bedarf hin zu einer dezentralen Struktur des Internet wächst...vgl.(4 )

“Wir befinden uns inmitten eines Transformationsprozesses der Netzwerkarchitekturen und - topologien, welcher langsam das Landschaftsbild von Computern, Netzwerken und Kommunikation verändert.

Distribution und Dezentralisation, diesmal mit XML als Basis, bilden den Kern dieses Prozesses, welcher das Internet zurück zu einem interaktiveren, flacheren und symmetrischeren TwoWay-Netz führen wird.”(5 )

Anmerkend:

(eine andere Interpretation von P2P ist auch Person to Person, welche sich auf die zwischenmenschliche computergestützte Kommunikation bezieht oder auch Programm to Programm - die Kommunikation zwischen "intelligenten Agenten" )

2.2 P2P - Modelle

Grundsätzlich gibt es zwei unterschiedliche Formen von P2P-Architekturen. Es sind dies, die reine oder pure P2P-Form (dezentrale Architektur) und die zentrale Architektur (assistiertes P2P). Desweiteren gibt es noch hybride Formen. Es sollen nun einmal die wesentlichen Unterschiede veranschaulicht werden.

2.2.1 dezentrale Architektur (pures P2P)

Ein dezentrales Peer-to-Peer System stellt eine völlig autarke Einheit zum Austausch von Ressourcen dar. Alle Rechner sind Peers, die miteinander kommunizieren. Jeder Nutzer benötigt eine entsprechende Client-Software, um als Knotenpunkt im Netz zu fungieren. Die einzelnen Knoten werden auch Servents genannt, da sie Server und Client zu gleich sind. Jeder Servent sucht sich einen Knoten, der wiederum mit anderen Knoten verbunden ist, was dann insgesamt ein Netzwerk aufspannt. Die Daten befinden sich auf den einzelnen Rechnern der Teilnehmer und werden der gesamten Gemeinschaft zur Verfügung gestellt.

Der Vorteil dieser Systeme ist die fehlende zentrale Komponente (Server), wodurch die Robustheit des Netzwerkes gewährleistet wird. Der Ausfall eines Knotens hat keine Auswirkung auf den Rest des Netzes.

Um in einem solchen Netzwerk Anschluss zu finden, muss man mindestens ein Mitglied kennen, dessen IP-Adresses.Anh.1 ) man beim ersten Mal ansteuert. Hat man eine Verbindung, ist man sofort mit einem Teil des Netzes verbunden.

Wird eine Suchanfrage gestartet, so leitet der eigene Servent diese an alle mit ihm verbundenen Servents weiter, die dann entweder antworten oder wiederum alle mit ihnen verbundenen Servents anfragen. Es entsteht eine Art Kettenbrief von Suchanfragen (s. Abb. 3) .

Damit das Netz nicht überlastet wird und eine Suche auch einmal zu Ende ist, wird jede Suchanfrage mit einem Zähler, einer sogenannten Time-To-Live (TTL) versehen. Jeder angefragte Servent zieht vom Zähler 1 ab, bis dieser auf Null ist.

der Suche in solch einem Netzwerk ist, dass Knoten die sich nicht permanent im Netz befinden, sich jedes mal einen erneuten Zugang suchen müssen.

Das grösste Problem solcher P2P-Modelle ist wohl das sogenannte “Freeriding” oder auch “Freeloading”, was bedeutet, dass Nutzer mehr herunterladen, als sie selbst Abb. 3 (6 ) dem Netz zur Verfügung stellen. Einen der bekanntesten Vertreter für dezentrales P2P stellt die File-Sharing-Software “KaZaA” dar.

2.2.2 zentrale Architektur (assistiertes P2P)

Zentrale Peer-to-Peer-Systeme, auch assistiertes P2P genannt, stellen keine P2P-Technologie im eigentlichen Sinne dar. Denn sie beruhen auf einer zentralen Komponente, die als Verwaltungsinstanz agiert. Dieser zentrale Server indexiert die verbundenen Computer und die verfügbaren Dateien. Ein somit erstelltes Verzeichnis dient den Clients dann als Übersicht über die verfügbaren Ressourcen. Bei einer Anfrage, oder der Suche nach einer bestimmten Datei generiert der Server eine Liste mit Dateien, die dieser Anfrage entsprechen. Aus dieser Liste wählt sich der Client die gewünschte Datei aus und stellt eine direkte Verbindung mit dem Rechner her, auf dem sich die Datei befindet. Der Download wird auf direktem Wege zwischen beiden Anwendern vollzogen, deshalb zählt man diese semizentralen Systeme auch zum Peer-to-Peer.

Der Vorteil dieser Architektur ist das zentrale Verzeichnis, was sich schnell und regelmäßig aktualisieren lässt und somit eine effiziente Suche nach Dateien ermöglicht. Bei dieser Topologie sind alle Client-Rechner mit dem Netz des Servers verbunden, wodurch die Anfrage alle angeschlossenen User erreicht und die Suche erfolgreicher wird. Allerdings stellt der zentrale Server auch einen bedeutenden Nachteil dar, da nur er den zugang zum Netz gewährt und somit die Gefahr eines „Single Point of Failure“s.Anh.2 ) besteht. Mit anderen Worten: fällt der Server aus blockiert das auch alle weiteren Anfragen und Anwendungen.

Einen Anwendungsbereich des zentralen P2P stellt das “Distributed Computing” dar, auf das im Kapitel 3. noch einmal ausführlicher eingegangen werden soll. Auch die Musiktauschbörse "Napster" stellt einen Vertreter für assistiertes P2P dar.

3. Welche Möglichkeiten erschliessen sich mit P2P-Netzwerken

Im folgenden sollen die vier grundsätzlich unterscheidbaren Anwendungsbereiche, die sich durch eine P2P - Architektur ergeben, kurz beschrieben werden.

3.1 Kommunikation/Instant Messanging

Unter dem Begriff Instant Messaging können sämtliche Anwendungen zusammengefasst werden die eine zeitnahe - direkte Kommunikation zwischen mehreren Teilnehmern ermöglichen.

Der aktuell angemeldete Benutzer eines solchen Dienstes bekommt beispielsweise eine Nachricht auf den Bildschirm sobald sich ein weiterer Benutzer anmeldet bzw. online geht. Neben dieser Komponente, wie man sie beispielsweise eingebettet in den Netscape Browser, unter dem Nahmen AIM (AOL Instant Messanger) findet, ergeben sich eine Reihe weiterer Komponenten. Zu nennen wären hier: Das Versenden einfacher Textnachrichten als auch die Möglichkeit Dateien auszutauschen und "Chatrooms" die somit eine Kommunikation mit Live-Charakter ermöglichen. Darüber hinaus ergibt sich die Möglichkeit Telefongespräche oder sogar Videokonferenzen zwischen weltweit operierenden Team`s zu realisieren. Kurzum kombinieren diese Dienste die Möglichkeiten von E-mail, Chat, FTP u.a., mit einer jederzeitigen Verfügbarkeitsinformation.

Auf dem Markt sind mehrere konkurrierende Systeme vertreten, beispielsweise von den Firmen AOL, ICQ und Microsoft (MSN). Ein Nachteil besteht wohl darin, dass sich hier bisher noch kein einheitlicher Industriestandard durchsetzen konnte und die Benutzer somit gezwungen sind, ein System desselben Herstellers zu nutzen.

Als besonderes Beispiel hier noch zu nennen die Instant Messaging Plattform Jabber . Jabber ist ein Open-Source Projekt und versucht eine Brücke zwischen den verschiedenen inkompatiblen Instant Messaging Protokollen zu schaffen. Gleichfalls wird versucht auch mobile Geräte zu berücksichtigen (PDA, Notebook, etc). (7 )

3.2 File Sharing/Ressource Sharing

Der Begriff File Sharing, was frei übersetzt soviel bedeutet wie Datei-austausch (engl. Sharing

- übersetzt: teilen, teilhaben) ist wohl spätestens mit dem Erscheinen der Musiktauschbörse "Napster" im Jahre 1999 zum Modewort erhoben worden und seitdem auch nicht mehr aus der Begrifflichkeit des Internet wegzudenken...

Eine Definition könnte man wie folgt formulieren: "File Sharing Systeme dienen dem Austausch und der gemeinsamen Nutzung von Dateien zwischen zwei oder mehreren Teilnehmern/Rechnern im Internet oder einem lokalen Netzwerk. Dabei muss festgelegt sein, auf welche Dateien, Verzeichnisse oder Datenträger zugegriffen werden darf. " Ein betriebswirtschaftlich interessanter Aspekt ist, dass diese Technologie die Möglichkeit in Aussicht stellt: im betrieblichen Umfeld kostenintensive, zentrale Massenspeicher-Lösungen gegen eine dezentrale Datenhaltung auf bereits vorhandenen Desktop PC`s zu ersetzen. Damit würden typische Single-Point-of-Failure Schwachstellen elemeniert.vgl.(8 ) Es gibt verschiedene Möglichkeiten wie dieser Austausch organisiert wird, insbesondere beim File-Sharing muss unterschieden werden zwischen der dezentralen Netzwerk-Architektur und der zentral gestützten Architektur (assistiertes P2P), siehe auch Kap. 2.2.

Wer Teil eines solchen Tauschnetzwerkes werden möchte, besorgt sich eine entsprechende Client-Software aus dem Internet - nach der Installation werden dann ein oder mehrere Verzeichnisse auf der lokalen Festplatte freigegeben und alle sich darin befindlichen Dateien stehen nun allen anderen Usern desselben Netzwerkes zur Verfügung. Man bietet also Daten zum Tausch an und lädt sich selbst Daten herunter.

Prinzipiell gesehen also eine Philosophie des "Geben und Nehmen".

Im Bereich des File Sharing existieren zahlreiche Protokolle, auf die die verschiedenen Applikationen aufbauen. Als drei der prominentesten (nichtkommerziellen) Vertreter seien hier einmal Gnutella, Freenet und BitTorrent genannt.

Auf rechtliche Streitigkeiten bezüglich des Urheberrechts zwischen der Musik- bzw. Filmindustrie und den entsprechenden Betreibern von File-Sharing Netzen (Internet-Tauschbörsen) sei an dieser Stelle einmal verwiesen, jedoch würde eine Ausseinandersetzung mit diesem Thema den Rahmen der Arbeit sprengen.

Interessant in diesem Zusammenhang der Beschluss eines US-Gerichts am 26.03 des Jahres 2003: "...die Tauschbörsen-Anbieter Grokster und Streamcast Networks mit ihrer Software nicht gegen geltende Copyright-Gesetze verstoßen. In der Urteilsbegründung heißt es,die dezentrale Architektur der P2P-Netzwerke mache es den beiden Firmen unmöglich, die Taten ihrer Nutzer zu kontrollieren." (9 )

3.3 Distributed Computing/Grid Computing

Ein weiterer, überaus interessanter und vielversprechender Ansatz ist das "Distributed Computing" (aus dem engl.: verteiltes rechnen) auch bekannt unter der Bezeichnung "Grid Computing", wobei letztere Bezeichnung als Analogie zum herkömmlichen Stromnetz (engl.: Power Grid) verstanden werden kann. Unter diesen Begriffen versteht man, kurz gesagt: die koordinierte Nutzung geographisch verteilter Rechenressourcen.

Es wird hierzu ein Verbund aus unabhängigen, vernetzten Rechnern geschaffen.

"Die Idee besteht darin, dass Rechnergrenzen nicht mehr wahrnehmbar sind und die Gesamtheit der vernetzten Knoten, zu einem logischen Rechner zusammengefasst wird." (10 )

Ungenutzte Ressourcen verteilter Rechner, wie Speicherplatz und Prozessorkapazität, werden verbunden und bilden auf diese Weise einen "virtuellen Supercomputer". Aufgrund weitreichender und flexibler Vernetzungsmöglichkeiten ermöglicht diese Technologie ausergewöhnlich hohe Rechenkapazitäten.

Je mehr Rechner sich bei einem Distributed-Computing-Projekt anschliessen, desto leistungsstärker wird der Supercomputer. Die Arbeit der einzelnen Rechner läuft hierbei entweder im Hintergrund, oder ist in einen Screensaver ("Bildschirmschoner") verpackt. Meistens existiert bei einem solchen Projekt ein zentraler Server, der die gesamten Daten, die zur Berechnung ausstehen, in kleine "Datenstücke" zerteilt und an die entsprechen- den Client`s verteilt. Es gibt bereits zahlreiche solcher Projekte aus den unterschiedlichsten Bereichen.

Angefangen bei Projekten zur Atom-und Elementarphysik über die Genforschung, Krankheits- bekämpfung, u.v.m. Gerade für kleinere Firmen mit geringem Budget bietet das Distributed Computing eine günstige Alternative gegenüber der Anschaffung eines realen "Supercomputers".

Eine Plattform für das Distributed Computing ist die Internetseite:

http://www.rechenkraft.de - hier bekommt man alle notwendigen Informationen wenn man Interesse hegt sich an einem derartigen Projekt zu beteiligen.

Die Teilnahme an solchen Projekten ist freiwillig und in den meisten Fällen ohne Kostenvergütung für Strom o.ä. , dafür ist man stets auf dem neuesten Stand des jeweiligen Projektes und hat vielleicht das Gefühl etwas für eine gute Sache getan zu haben.

Eines von vielen Projekten die sich dort finden ist das Projekt "Climate Prediction" aus dem Bereich der Meteorologie. Es handelt sich hierbei um ein nicht kommerzielles Projekt, dass sich zum Ziel gesetzt hat eine komplette Wetterprognose bis zum Jahr 2050 zu erstellen.

Projektbeschreibung:

"Dieses Projekt möchte eine Monte- Carlo-Simulation für das Wetter des

20. und 21. Jahrhunderts vornehmen. Dazu wird ein Klimamodell erstellt, das jeder Teilnehmer auf seinen Computer laden kann und mit verschiedenen Parametern startet. Zuerst wird mit diesem Modell versucht, das Wetter der letzten Jahre zu simulieren. Sollten dabei zu große Abweichungen auftreten, dann kann man wahlweise neue Parameter ausprobieren oder aber Modellparameter von anderen Teilnehmern kopieren.

Wenn auf diesem Weg ein brauchbares Modell mit akzeptablen Parametern gefunden

wurde, dann beginnt die eigentliche Klimavorhersage. Mit leichten Varianten wird dieses Modell von den Teilnehmern im zweiten Teil des Projekts zur Vorhersage des Wetters bis 2050 genutzt."(11 )

3.4 Collaborative Computing/P2P- Groupware

Unter der Bezeichnung engl.: Collaborative Computing - was übersetzt in`s deutsche "Zusammenarbeit" bedeutet, kann jene Software zusammengefasst werden, die die Zusammenarbeit von mehreren Nutzern über ein Netzwerk ermöglicht. Auch als Groupware bezeichnet, versteht man darunter die Integration von Anwendungen wie E- mail, Terminplaner, gemeinsame Dokumentbearbeitung, To-Do-Listen usw. P2P - Groupware ermöglicht die Zusammenarbeit von Team`s über grössere Entfernungen, in Form von Kommunikation und Koordination.

Die Arbeit an einem Projekt bzw. einer Datei ist damit "weltweit" und vergleichbar mit der Arbeit, in einem gemeinsamen Büro. Dabei ist jegliche Kommunikation, beispielsweise via Chat, innerhalb einer Gruppe verschlüsselt. Unter gleichzeitiger Verwendung von File-Sharing Technologie ist eine völlig dezentrale Datenhaltung möglich. Das bedeutet also, daß die Speicherung auf herkömmlichen Medien wie CD, DVD oder einem Server nicht mehr notwendig ist, da die entsprechende Datei jederzeit, auf allen Rechnern vorliegt.

Als Beispiel für eine P2P - Groupware Lösung soll hier einmal die Plattform Groove etwas näher betrachtet werden.

Groove ist ein kommerzielles Produkt das mit einem Preis von ca. 230 ,- US Dollar für die Project Edition zu Buche schlägt. Die Software vereinigt eine ganze Reihe von collaborativen Anwendungen wie z.B. Filesharing, Diskussionsforen, Messaging in Form von Chats, gemeinsame Kallender und Terminplaner. Groove dient gleichzeitig als Grundlage für Projektmanagement.

Anwender der Software können auf ihrem Desktop virtuelle "Räume" ,beispielsweise einen Dateiordner, einrichten und diesen für andere Nutzer freigeben. In diesen "Räumen" lassen sich nun Daten ablegen, wobei alle Mitglieder einer Gruppe auf ihrem lokalen Rechner über den gleichen Inhalt verfügen. Wird eine Datei verändert, wird sie automatisch auch auf den anderen Rechnern erneuert - synchronisiert ... dieses Prinzip funktioniert natürlich auch bei Terminplanern, gemeinsamen Kalendern etc.

Mit der Möglichkeit, auf einen Server zu verzichten, will man vor allem kleinen Unternehmen entgegenkommen, die auf diesem Wege ihre Groupware dezentral organisieren können. siehe auch (12 ) und (13 )

4. Vorteile und Nachteile dieser Technologie

Worin nun eigentlich die Vorteile und Nachteile von P2P-Netwerken liegen, soll im folgenden hinsichtlich technischer und ökonomischer Aspekte aufgeschlüsselt werden. Ein Grundgedanke vorweg: Wie schon im Kapitel 2.1 erwähnt, war das Internet am Anfang noch dezentraler Form, es sollte gleichberechtigte Teilnetze miteinander verbinden. Erst in den Neunziger Jahren als das Internet zum Massenmedium wurde, fand eine Verschiebung der Aufgaben statt. In der Folge entstand eine vergleichsmässig hohe Anzahl an Client Rechnern, die nur als Konsumenten von Inhalten auf das Netz Zugriff hatten. Demgegenüber stand/steht eine nur geringe Zahl an Servern, die um die Gunst der User ringen und um sich zu finanzieren, neben eigentlichen Inhalten zunehmend mehr Werbung integrieren. Das Internet wurde so zu einer Art "interaktivem Fernsehen", bei dem es eine strikte Trennung zwischen Produzenten und Konsumenten gibt/gab.

Im Peer to Peer Modell existiert diese Rollenaufteilung so gesehen nicht mehr. Die Art der Kommunikation entspricht zudem eher der zwischenmenschlichen Kommunikation. Auch ein Telefongespräch ist eine P2P - Verbindung. Die Weiterentwicklung von Bluetooth, PDA´s, Mobiltelefonen etc. legt genau solch eine Architektur nahe. Somit könnte das Internet zu dem werden was es einmal war: Ein Netz von gleichberechtigten Partnern.

4.1 Vorteile

Ein sehr wichtiger Vorteil der sich daraus für die P2P-Architektur ergibt, ist nun das Primat des Besitzes und der Kontrolle über Daten und Ressourcen, was im Client-Server Modell häufig nicht der Fall ist, da eine zentrale Administration die Netzwerk-Ressourcen verwaltet. Dies fordert vom Nutzer, am Beispiel eines File-Sharing Netzes, natürlich auch eine gewisse Eigenverantwortlichkeit, bezüglich der zur Verfügung gestellten Inhalte...

Ein weiterer unmittelbarer Vorteil, der sich aus einer dezentralen Organisation des Netzes ergäbe, wäre dann auch der Wegfall und somit die Einsparung hoher Anschaffungskosten für teure Server-Rechner.

Oftmals besitzen Server nur eine beschränkte Skalierbarkeit, greifen zu viele Clients gleichzeitig auf einen Sever zu, kommt es häufig vor, dass nicht mehr alle bedient werden können. In der unmittelbaren Netzwerkumgebung des Servers kann es dann zu einem erhöhtem Datenverkehr kommen...der nur schwer zu bewältigen ist.

Wenn also eine "Information" erfolgreich angepriesen wurde und plötzlich Millionen von Clients gleichzeitig auf dieses Angebot zugreifen möchten, ergibt sich eine Art Flaschenhals. Eine Client-Server Architektur ist zudem immer gebunden, an die Verfügbarkeit eines Servers. Fällt dieser zentrale Punkt aus, ist das gesamte System lahmgelegt.

Im Gegensatz dazu kommen Peer-to-Peer Netze, s.a Kapitel 2.2.1 ohne diese zentrale Stelle aus und sind damit erheblich robuster. Der Ausfall eines Peer`s beeinträchtigt die Funktionsweise des Netzes im Allgemeinen nicht. Ist ein Peer/Knoten im Netz nicht mehr verfügbar, versucht das System auf den nächsten verfügbaren zuzugreifen und bezieht die entsprechende "Information" dann von dort.

Im schlimmsten Falle kommt es dann vor, dass eine Suchanfrage erfolglos bleibt. "Die P2P-Technologie macht dabei also die Vorteile von Konzepten zunutze, die die Natur seit Urzeiten bei Schwarmvölkern wie Ameisen, Bienen oder Vögeln erfolgreich anwendet." (14 )

Dieser Vorteil ergibt sich allerdings ausschliesslich bei einem dezentralen P2P-Netz. Da bei einer zentralen-Architektur (assistiertes P2P) weiterhin ein Server als zentrale Anlaufstelle existiert, ist ein solches Modell nicht vor Serverabstürzen sicher. (s.a. Kapitel 2.2.2)

Weiterhin droht beim Ausfall eines Servers auch der Datenverlust der dort abgelegten "Information", wie es oft auch in kleineren Unternehmen der Fall sein kann: plötzlich sind alle Rechnungen, die an irgendeiner Stelle zentral gelagert waren -durch einen Serverabsturz- verschwunden.

In einem Peer to Perer Netz hingegen, sind die Informationen in kleine Teile zerlegt und über das Netz verteilt. Damit reduziert sich die Gefahr, dass Informationen verloren gehen. Oder auch, um nochmal auf das Beispiel Groupware (Groove) zurückzugreifen: hier existiert dann beispielsweise ein Ordner für Rechnungen, als "virtueller Ordner" und ist somit auf allen Rechnern vorhanden und auch ständig verfügbar. Fällt ein Rechner aus, sind die Rechnungen immer noch auf den anderen Rechnern vorhanden.

P2P gewährleistet auch einen schonenderen Umgang mit Ressourcen, da Daten nur untereinander ausgetauscht werden. Damit kann die Netzlast (Datenverkehr) deutlich geringer werden und die zur Verfügung stehende Bandbreite wird effektiver genutzt. "In einem dezentralen Netzwerk kann im Vergleich zum zentralen Modell die benötigte Bandbreite bis zu zehn mal verringert werden, indem der Datenfluss an den Enden des Systems stattfindet und nichtmehr via Server." (15 )

Es ist relativ einfach ein P2P Netzwerk aufzubauen. Man benötigt lediglich zwei oder mehr Rechner die mit Netzwerkkarten ausgestattet sind und mit Netzwerkkabeln untereinander verbunden sind. Das Gerüst für eine dezentrale Architektur steht bereits. Es liegen zum Teil enorme Ressourcen brach, die bei entsprechender Ausnützung bares Geld sparen können.

[...]


(1) Artikel: "Mein Netz, dein Netz" Autor: Joachim Frhr. v. Lüninck

(2) http://de.wikipedia.org/wiki/Peer-to-Peer

(3) http://de.wikipedia.org/wiki/ARPANET

(4) Diplomarbeit: Peer-to-Peer Architekturen und Applikationen für Kollaboration und Kooperation. Autor: Simon Michel

(5) Diplomarbeit: Peer-to-Peer Architekturen und Applikationen für Kollaboration und Kooperation. Seite: 18

(6) Artikel: "Gnutella und Co: Ein Praxisbericht über aktuelle Peer-to-Peer-Systeme" S.5

(7) http://www.jabber.org/

(8) "Peer-to-Peer Anwendungsbereiche und Herausforderungen" von Detlef Schoder und Kai Fischbach S.6

(9) http://www.heise.de/tp/r4/html/result.xhtml?url=/tp/r4/artikel/14/14685/1.html&words=P2P%20Netzwerke

(10) "Peer-to-Peer Anwendungsbereiche und Herausforderungen" von Detlef Schoder und Kai Fischbach S.7

(11) http://www.rechenkraft.de/ Â

(12) http://www.groove.net

(13) http://www.golem.de/0403/30301.html

(14) Peer-to-Peer - eine „verteilte Technologie auf der Suche nach einem „zentralen“ Verständnis" von Claus Eikemeier / Ulrike Lechner S.4

(15) Diplomarbeit: Peer-to-Peer Architekturen und Applikationen für Kollaboration und Kooperation. Autor: Simon Michel S.11

Fin de l'extrait de 36 pages

Résumé des informations

Titre
Peer-to-Peer - "Technologie und Anwendungen" oder Das Netz im Netz
Université
Hamburg University of Applied Sciences
Cours
Medienbetriebswirtschaft und Management
Auteur
Année
2005
Pages
36
N° de catalogue
V74160
ISBN (ebook)
9783638695398
Taille d'un fichier
705 KB
Langue
allemand
Annotations
In dieser Hausarbeit geht es um eine Technologie, deren Entstehungsgeschichte bis an die Anfänge des Internet zurückreicht. Im Internet von morgen werden Netzwerk-Technologien eine zunehmend grössere Rolle spielen. Die Peer-to-Peer Technologie stellt einen alternativen Ansatz zur heute vorherrschenden Server/Client Struktur dar. Es handelt sich um eine Technologie die noch am Anfang ihrer Entwicklung steht...
Mots clés
Peer-to-Peer, Technologie, Anwendungen, Netz, Medienbetriebswirtschaft, Management
Citation du texte
Dipl. Ing. Michael Sturm (Auteur), 2005, Peer-to-Peer - "Technologie und Anwendungen" oder Das Netz im Netz, Munich, GRIN Verlag, https://www.grin.com/document/74160

Commentaires

  • Pas encore de commentaires.
Lire l'ebook
Titre: Peer-to-Peer -  "Technologie und Anwendungen" oder Das Netz im Netz



Télécharger textes

Votre devoir / mémoire:

- Publication en tant qu'eBook et livre
- Honoraires élevés sur les ventes
- Pour vous complètement gratuit - avec ISBN
- Cela dure que 5 minutes
- Chaque œuvre trouve des lecteurs

Devenir un auteur