Distributed Computing - Eine wirtschaftswissenschaftliche Analyse des verteilten Rechnens


Seminararbeit, 2001

16 Seiten, Note: 0,7


Leseprobe

Inhaltverzeichnis

A - Einleitung

B – Hauptteil
I - Volkswirtschaftliche Analyse
Allokation
Das gesamtwirtschaftliche Angebot
II - Individuelle Anreize
Angebot
Nachfrage
Dienstleistung

C - Konklusion

Verzeichnis der Tabellen und Diagramme:

Diagramm1: Angebot – Nachfrage für 2 Wirtschaftobjekte

Tabelle 1: Internetfähige Computer in Abhängigkeit des Baujahrs

Tabelle 2: Spreadsheetanwendung des Amdahl´schen Gesetzes in Abhängigkeit von a und n

Tabelle 3: weitere Entscheidungskriterien der Unternehmung

A - Einleitung

Im Mai 1999 startete die Universität von Berkeley (USA) mit Seti@home[1] ein weltweit einzigartiges Projekt. Seitdem können sich über das Internet verbundene Besitzer internetfähiger Computer mithilfe eines kleinen Programms an der Suche nach ausserirdischen Signalen beteiligen. Das Programm rechnet auf dem privaten PC im Hintergrund oder als Bildschirmschoner, so daß die Leistungskraft des Computers nicht beeinträchtigt wird. Über die gebündelte Rechenkraft von Millionen herkömmlicher PCs entstand ein weltweiter Supercomputer, der die Leistung eines jeden existierenden Großrechners übertrifft. Seitdem hat die Idee des verteilten Rechnens (engl.: distributed computing) neuen Auftrieb bekommen. Verschiedene wissenschaftliche und private Institutionen versuchen Seti@home nachzuahmen. Neue Firmen sind gegründet worden, mit dem Ziel die Rechenkraft von Haushalts-

PCs kommerziell zu vermarkten.[2] Die Idee dieser Firmen ist es, als Dienstleister zwischen Unternehmen, welche Rechenkraft nachfragen (im folgenden auch Nachfrager), und Computerbesitzern (im folgenden auch Anbieter) zu fungieren. Insbesondere in den Bereichen der Chemie, Pharma, Physik aber auch in der Filmanimation ist der Bedarf nach Computerleistung gewaltig.

Erst eine Vernetzung ermöglicht den einfachen Datenaustausch zwischen geo- graphisch verteilten Computern. Deshalb ist das „distributed computing“ in seiner neuen Form ein Kind des World Wide Webs.[3] In den letzten Monaten haben sich viele dieser neuen Internetideen als unwirtschaftlich erwiesen. Start-ups konnten die eigenen Erwartungen nicht erfüllen. Die Börsenkurse des neuen Marktes befinden sich zur Zeit auf einem Tiefstand. Grund genug, die Idee des verteilten Rechnens wirtschaftswissenschaftlich zu analysieren. Neben der gesamtökonomischen Betrachtungsweise finden auch betriebswirtschaftliche Argumente Eingang. Untersucht wird der individuelle Anreiz auf Angebotsseite, sowie die Entscheidungs- kriterien, die Unternehmen veranlassen könnten, ein eigenes verteiltes Rechenprojekt zu starten bzw. an einen Dienstleister zu übergeben.

B – Hauptteil

I - Volkswirtschaftliche Analyse

Allokation

Im Jahre 2000 gab es schätzungsweise über 300 Millionen[4] Computer weltweit, die über Internetzugang verfügen. Der weitaus größte Teil dieser Computer wird für Standardbüroanwendungen verwendet (z.B.: Wordprocessing, Tabellenkalkulation, Dateneingabe, Internet und Graphik). Diese Applikationen lasten die vorhandene Prozessorkapazität nicht aus. Eigene Messungen, an einem 18 Monate alten

Computer ergaben eine gemittelte Auslastung unter 0,05%.[5] Die Auslastung ist somit vernachlässigbar. In der verbleibenden Zeit läuft der Prozessor im sogenannten Idle- Modus. Der Computer wartet dann auf weitere Benutzereingaben.[6]

De facto wird im Idle-Modus vorhandene Rechenkapazität nicht genutzt. Vielleicht gibt es aber Wirtschaftsobjekte, die diese Rechenkraft nutzen würden, hätten sie nur die Möglichkeit. Es stellt sich die Frage, ob die vom Markt vorgenommene Ressourenallokation perfekt ist, oder ob es möglicherweise zu Marktversagen kommt. Hilfreich ist die graphische Analyse des Wirtschaftsverhaltens in einem Angebot-Nachfragediagramm (Diagramm 1).

Zur Vereinfachung existieren nur 2 Wirtschaftssubjekte. GV1 bezeichnet den Grenzvorteil für den Computerbesitzer in Abhängigkeit der Ausnutzung (X) seines Computers. Weiterhin wird angenommen, daß ein zweites Wirtschaftsubjekt einen Vorteil von der Mitbenutzung des Computers von Wirtschaftssubjekt 1 hätte. GV1+2 bezeichnet den aggregierten Grenzvorteil von Nutzer 1 und 2. (Der Grenzvorteil von Nutzer 2 ergibt sich aus der Differenz von GV1+2 und GV1 ). Der Besitzer des Computers wird seinen Computer verwenden, bis der Grenzvorteil den Grenzkosten (GK – z.B. Stromkosten) entspricht, was im Punkt A der Fall ist.

Abbildung in dieser Leseprobe nicht enthalten

Diagramm1: Angebot – Nachfrage für 2 Wirtschaftobjekte.

Ausgehend vom Homo economius berücksichtigt Nutzer 1 anfangs nicht den Grenzvorteil von Nutzer 2, da kein Anreiz dazu existiert. Vielleicht liesse sich 1 von 2 noch zu einer Mitbenutzung des Prozessors überreden, solange 1 kein Nachteil dadurch entstände. Nutzer 2 hätte dann bereits den Vorteil der Fläche EFAD. Aber rechts von Punkt A würde 1 den Computer ausschalten, obwohl der Punkt nicht dem Wohlfahrtsoptimum entspricht. Denn in Punkt C hätte Nutzer 1 zwar einen Verlust entsprechend der Fläche ABC, aber der Gewinn von Nutzer 2 (= DHIC) ist größer. Gäbe es jetzt einen Markt, dann könnte von 2 den Verlust von 1 kompensieren. Die Zahlung müßte größer sein als der Schaden, den 1 erleidet, so daß sich beide verbessern, ohne daß sich einer verschlechtert, entsprechend der Definition der Paretoverbesserung. Erst in Punkt C ist eine Verbesserung nicht mehr möglich.

In der ökonomischen Theorie spricht man in diesem Falle von einer positiven Externalität. Hat ein Individuum einen Vorteil aus der Handlung eines anderen Individuums und existiert kein Markt dafür, dann ist die Güterbereitstellung nicht paretooptimal und es kommt zu einem Wohlfahrtsverlust (= ACD). Ein Markt hätte wohlfahrtsökonomische Vorteile.

Das gesamtwirtschaftliche Angebot

Für den Fall, daß eine Nachfrage nach externer Rechenleistung existiert, wäre es interessant das Angebot in Zahlen zu fassen. Für ein Unternehmen stellt sich die Frage, ob es einen eigenen Computer anschafft, oder ob es diesen durch „distributed computing“ substituiert. Die Kosten eines Computerneukaufes sind für Unternehmen und Privatanwender bei gleicher Ausstattung identisch. Dem Unternehmen ist es egal, ob die Berechnungen auf einem sehr schnellem (neuen) Computer durchgeführt werden oder auf einem etwas langsameren (alten) Computer.[7] Was zählt ist die Rechenleistung. Die Rechenleistung erhöht sich wiederum fast täglich aufgrund des technologischen Fortschritts. Durch Einführung eines Index, welcher auf ein bestimmtes Jahr genormt ist, kann die Leistung zwischen altem und neuen Computer verglichen werden.

Im März 2000 gab es die schon genannten 300 Mio vernetzten Computer. Doch insbesondere privat genutzte Computer sind häufig noch älteren Datums. Allerdings stossen Privatanwender inzwischen an Probleme, wenn sie Computer, die älter als 5

Jahre sind an das Internet anschliessen wollen[8]. Unterstellt man 5 Jahre als

Altersgrenze und berücksichtigt man ein 10%iges jährliches Wachstum auf dem Markt für Personal Computer, dann ergibt sich folgende Verteilung nach Alter (Zeile 2 in Tabelle 1).

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Internetfähige Computer in Abhängigkeit des Baujahrs .[9]

Über die Berechnung eines Leistungsfähigkeitsindex läßt sich die Gesamt- leistungsfähigkeit der 300 Mio. internetfähigen Computer mit einem typischen Computer aus dem Jahre 2000 vergleichen. Demnach entspricht die Gesamtrechenleistung etwa 158 Mio. Pentium III Prozessoren mit 800Mhz. Ein derartiger PC kostet heute etwa 1000 Euro. Folglich existiert eine Gesamtrechenkraft von 158 Mrd. Euro, welche größtenteils nicht genutzt wird. Eine, wenn auch nur geringe Anzahl von Computern ist stärker ausgelastet und steht somit für verteiltes Rechnen nicht zur Verfügung. Andererseits würde über Kompensationszahlungen für Rechenkraft die private Nachfrage nach PC´s steigen, da sich der PC einen Teil der Kosten „verdienen“ könnte. Dieser indirekte Effekt würde die Anzahl verfügbarer PC´s erhöhen.

[...]


[1] Informationen dazu finden sich unter: http://www.setiathome.ssl.berkeley.edu

[2] z.B.: http://www.entropia.com/

[3] Die Idee des verteilten Rechnens ist älter. Bereits die ersten Computer wurden für komplexe Aufgaben vernetzt. Seit Jahren kann man sich unter www.distributed.net an der Dekodierung von Verschlüsselungsalgorithmen beteiligen. Jedoch haben diese Projekte niemals zu einer Popularität wie Set@home geführt.

[4] aus http://www.nic.at/german/geschichte.html

[5] Die Messung fanden während des Schreibens dieser Arbeit statt. Es liefen zum Teil gleichzeitig die Programme Word 97, Exel 97, IE 4.0, Outlook express, Paint. Außerdem liefen auf dem Computer noch verschiedenste Systemdienste. U.a. ein Internetproxy (incl. kleiner Firewall), DFÜ-Netzwerk, Webserver und Netzwerkdienste für das wohnungsinterne Netz. Die Messung fand unter Windows NT 4.0 WKS (Service Pack 5) mittels SNMP auf einem 450 MHz PIII mit 128 MB RAM statt. Der Messzeitraum betrug ca. 2 mal 6 Stunden. Zwar variiert die Auslastung mit den verwendeten Programmen und in Abhängigkeit des Prozessors, aber die Messung dürfte repräsentativ für den durchschnittlichen Arbeitscomputer sein.

[6] Grund dafür, daß überhaupt noch Bedarf nach schnelleren Prozesoren existiert, ist die Call- Response Zeit, die Zeit die zwischen Aktion des Benutzers und der Reaktion des Programmes. Diese Zeit wird durch Einsatz eines schnelleren Prozessors für den Nutzer immer noch merklich verkürzt

[7] Ausnahme wäre eine Echtzeitanforderung an die berechneten Daten. Aber für Echtzeit- anforderungen ist das Internet sehr schlecht geeeignet und dementsprechend auch das distributed computing.

[8] 1995 war der Pentium 100 mit 16MB RAM Standard. Die Prozessorgeschwindigkeit ist heutzutage zwar für das Internet noch ausreichend, aber der Arbeitsspeicher liegt unterhalb einer vernünftigen Grenze. Das Aufrüsten des Arbeitsspeichers ist teuer und wird i.d.R. nicht mehr vorgenommen, weil die damaligen Speicherbausteine nicht mehr für den Massenmarkt produziert werden. Die Rentabilität und Anforderung ist unabhängig vom Betriebssystem und gilt neben Microsoftbetriebsystemen ebenso für MacIntosh wie für Linuxrechner.

[9] Anzahl Computer in Mio. unterstellt ein 10%iges Wachstum in Computerneukäufen. Zwar war das jährliche Wachstum in Internetanschlüssen teilweise weitaus höher, jedoch werden darin auch Neuanschlüsse von bereits vorhandenen Computern berücksichtigt. Leistungsfähigkeitsindex im Vergleich zum Jahr 2000 unterstellt eine Verdoppelung der Prozessorleistung alle 18 Monate nach dem Moore´schen Gesetz. Die von Moore aufgestellte These der Verdoppelung der Prozessorleistung über konstante Zeiträume hat sich über die letzten Jahrzehnte empirisch bestätigt und kann als gute Annäherung dienen. (Die Festplattenkapazität verdoppelt sich sogar alle 12 Monate, dieser Faktor ist aber irrelevant für verteiltes Rechnen). Der Index ist auf das Jahr 2000 genormt. Äquivalent ist die technische Bezeichnung eines für das entsprechende Jahr typischen Prozessors. Gewählt wurde die Pentium Baureihe, da dieser Prozessor in jedem Jahr des Zeitraumes am häufigsten verkauft wurde. Die Wahl beruht auf eigenen Erfahrungen und soll nur als Richtwert dienen. Anzahl PC´s mit Leitungsfähigkeitsindex gewichtet ergibt die Anzahl PC´s eines Jahrganges ausgedrückt in der Leitungsfähigkeit eines PC´s aus dem Jahre 2000. Die Gesamtanzahl von 158 Mio. sagt aus, daß die 300 Millionen internetfähigen Computer eine Rechenleistung von 158 PC´s aus dem Jahre 2000 besitzen. Anmerkung: Die Schätzung dient nur als Richtwert und unterliegt Ungenauigkeiten. Das Wachstum der PC-Käufe ist mit 10% gemittelt. 1998 lag das weltweite Wachstum bei ca. 11%, während es 2000 geringer war. Die Wachstumszahlen und der Leistungsfähigkeitsindex wurden anschliessend mit einzelnen Jahresangaben quergeprüft und vom Autor für plausibel befunden.

Ende der Leseprobe aus 16 Seiten

Details

Titel
Distributed Computing - Eine wirtschaftswissenschaftliche Analyse des verteilten Rechnens
Hochschule
Ludwig-Maximilians-Universität München
Veranstaltung
Internetökonomie
Note
0,7
Autor
Jahr
2001
Seiten
16
Katalognummer
V104688
ISBN (eBook)
9783640029990
ISBN (Buch)
9783656065654
Dateigröße
515 KB
Sprache
Deutsch
Anmerkungen
Eigentlich war der Umfang auf 10 Seiten begrenzt. Ich habe versucht einen günstigen Trade-Off zwischen Detail und Masse zu finden. Dennoch musste ich leider am Ende kürzen. Bei Verwendung bitte kurze Mitteilung an mich.
Schlagworte
Distributed, Computing, Eine, Analyse, Rechnens, Internetökonomie
Arbeit zitieren
Kai Kress (Autor), 2001, Distributed Computing - Eine wirtschaftswissenschaftliche Analyse des verteilten Rechnens, München, GRIN Verlag, https://www.grin.com/document/104688

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Distributed Computing - Eine wirtschaftswissenschaftliche Analyse des verteilten Rechnens



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden