Leseprobe
Inhaltsverzeichnis
II Abkürzungsverzeichnis
III Abbildungsverzeichnis
IV Tabellenverzeichnis
1 Einführung
1.1 Aufbau der Arbeit
1.2 Vorgehensweise, Methodik
2 Was ist Cloud Computing?
2.1 Eigenschaften und Merkmale
2.1.1 Standardisierte Multi-Tenant-Dienstleistungen
2.1.2 Ergebnisorientierte IT-Leistung
2.1.3 Massive Skalierbarkeit
2.1.4 Transaktionsbezogene Abrechnung
2.1.5 On-Demand
2.1.6 Netzwerk-zentrierter, globaler und universaler Zugang
2.2 Vorteile von Cloud Computing
2.3 Historische Entwicklung
2.3.1 Outsourcing
2.3.2 Hosting
2.3.3 ASP
2.3.4 Grid Computing
2.3.5 Utility Computing
2.3.6 Cloud-Entstehung
3 Basistechnologien
3.1 Hardware
3.1.1 Client
3.1.2 Rechenzentrum
3.2 Serviceorientierte Architekturen
3.2.1 Web Services
3.2.2 Beispiel SOA und Web Services
3.3 Virtualisierung
4 Architektur und Typologien
4.1 Software as a Service
4.2 Platform as a Service
4.3 Infrastructure as a Service
4.4 Human as a Service
4.5 Cloud-Typologien
5 Cloud-Anwendungen in der Praxis
5.1 Anwendungsmöglichkeiten
5.2 Cloud Computing und E-Business
5.3 Praxisbeispiele
5.3.1 Salesforce.com
5.3.2 Praxisbeispiel: W.C. Heraeus
5.3.3 Microsoft Azure
5.3.4 Fallbeispiel Advanced Telemetry
5.3.5 Amazon EC
5.3.6 Fallbeispiel Zoopla.co.uk
6 Supply Chain Management mit Cloud Computing
6.1 Theoretische Überlegungen
6.2 Praxisbeispiel SupplyOn
6.3 Kollaborationsdienste
7 Anforderungen der Unternehmen
7.1 Sicherheit
7.1.1 Cloud Computing-Bedrohungen
7.1.2 Chance: Erhöhte Sicherheit durch Zentralisierung?
7.2 Rechtliche Rahmenbedingungen
7.2.1 Datenschutz
7.2.2 SLA
7.3 Cloud Management
7.4 Technische Leistungsanforderungen
7.5 Preismodelle
7.6 Standardisierung und Integration
8 Cloud-Einführung
8.1 Planung
8.2 Analyse
8.3 Test
8.4 Auswahl der Zielplattform und Vertragsgestaltung
8.5 Migration
9 Ökonomische Betrachtung
9.1 Auslastung
9.2 Datentransfer
9.3 Fazit
10 Schlussbetrachtung
10.1 Studien
10.2 Chancen
10.3 Risiken
10.4 Fazit und Ausblick
V Literaturverzeichnis
II Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
III Abbildungsverzeichnis
Abb.1 Cloud Computing VS. Traditionelle IT-Bereitstellung
Abb.2 Meilensteine der Internet-Technologien
Abb.3 Vorläufertechnologien
Abb.4 Google Trend
Abb.5 Datenaustausch
Abb.6 Dienstorientiertes Architektur- Grundmodell
Abb.7 Web Services-Dreieck
Abb.8 Kundenbestellungsprozess mit Hilfe von SOA und Web Services
Abb.9 Architekturmodell
Abb.10 Cloud-Landkarte
Abb.11 Cloud Arten
Abb.12 Anbieteranalyse
Abb.13 IT-Architektur mit Hilfe von Cloud Computing
Abb.14 CRM- Ablösung durch Salesforce.com
Abb.15 SaaS-Kollaboration mit SupplyOn
Abb.16 Verfügbarkeit Salesforce
Abb.17 Zielkonflikt: Standardisierung - Individualisierung
Abb.18 Auslastungssituationen
Abb.19 Umsatzentwicklung von Cloud Computing in Westeuropa
IV Tabellenverzeichnis
Tabelle 1 Outsourcing vs. Cloud Computing
Tabelle 2 Anwendungsmöglichkeiten
Tabelle 3 Vor- und Nachteile Salesforce.com
Tabelle 4 Vor- und Nachteile von Microsoft Azure Platform
Tabelle 5 Vor- und Nachteile Amazon Web Services
Tabelle 6 Aufbau SLA
Tabelle 7 Latenzzeiten
Tabelle 8 Abrechnungsmodelle
Tabelle 9 TCO Framework
1 Einführung
Die vorliegende Arbeit befasst sich mit dem neuartigen Konzept des Cloud Computing und mit der Frage, wie dieses für das E-Business eingesetzt werden kann. Unter E-Business versteht man die Abfolge aller elektronisch und automatisiert abge- wickelten Geschäftsabläufe. Um solche elektronischen Geschäftsprozesse durchzufüh- ren, benötigen die Unternehmen eine IT-Infrastruktur. Diese stellt das Fundament dar, auf dem dann die verschiedensten elektronischen Geschäftsanwendungen betrieben werden können. War es bisher erforderlich, diese Infrastruktur in Form von Hardware und Software zu kaufen, wurde in den letzten Jahren ein neuer Pfad beschritten. Das kommt einem Paradigmenwechsel gleich. Die Rede ist von Cloud Computing. Das Konzept steht für die revolutionäre Idee, die benötigte IT einfach von einem Anbieter anzumieten.
Dadurch ist es möglich, eine komplette IT-Infrastruktur fremd zu beziehen. Alternativ werden von den Anbietern auch einzelne Geschäftsanwendungen angeboten. Abbildung 1 zeigt den kontroversen Vergleich zwischen dem Konzept des Cloud Computing und der traditionellen IT-Bereitstellung. Eine Unternehmens-IT-Architektur besteht aus zahlreichen Bausteinen, die miteinander in Beziehung stehen. Die folgende Abbildung (s. Abb.1) macht diese Komplexität deutlich.
Abb.1 Cloud Computing VS. Traditionelle IT-Bereitstellung
Abbildung in dieser Leseprobe nicht enthalten
1 Einführung
1.1 Aufbau der Arbeit
Die vorliegende Arbeit ist in zwei Teile gegliedert. Die Kapitel 1-4 stellen die Grundla- gen dar, während der Praxisbezug in den Abschnitten 5-10 erörtert wird. Zu Beginn der Arbeit wird der Leser an die Thematik herangeführt. Dieser Teil umfasst die Begriffsde- finitionen, die Entwicklungsgeschichte und welche Basistechnologien eine Rolle spie- len. Anschließend werden die wesentlichen Cloud-Konzepte und die Cloud-Typologien vorgestellt. Der nachfolgende Teil umfasst die praxisrelevanten Themen. Welche An- wendungen werden bereits erfolgreich in der Praxis umgesetzt? Welche Fragen sind aus Unternehmenssicht wichtig? Wie kann man Cloud Computing einführen und was ist dabei zu beachten? Eine ökonomische Kostenbetrachtung soll den monetären Nut- zen von Cloud Computing aufgezeigt. Den Abschluss der Arbeit bildet ein Ausblick über die zukünftige Entwicklung von Cloud Computing.
1.2 Vorgehensweise, Methodik
Cloud Computing steht erst am Anfang seiner Entwicklung, und als Wissenschaftsge- biet ist es noch relativ überschaubar. Speziell die Grundlagen werden noch sehr unter- schiedlich definiert und der Aufbau der wenigen Fachbücher unterscheidet sich zum Teil deutlich. Eine intensive Sichtung von aktuellen Fachquellen soll aus diesem Ge- misch meine Interpretation des Themas ergeben. Das beinhaltet die Auswahl an aktu- ellen Zeitschriften und eine Verdichtung der Expertenmeinungen, um daraus eine klare und auch für Einsteiger verständliche Darstellung zu gewinnen. Durch die Aktualität des Themas und aufgrund des großen öffentlichen Interesses, besitzt das Thema aber auch eine hohe Schnelllebigkeit. So wurden nach Anschluss dieser Arbeit neue interessante Ansätze in den Medien angesprochen, denen aus zeitlichen Gründen leider keine Beachtung mehr geschenkt werden kann.
Auch wenn Unternehmen oder Verbände häufig eigene Interessen verfolgen, eignen sich deren Whitepaper sehr gut, bestimmten Ideen nachzugehen. Weitere interessante Informationen oder Hinweise können aus Blogs gewonnen werden. Deren Ersteller sind meist Experten und besitzen eine besondere Affinität in Bezug auf Internettechnologien. Die Arbeit soll dem Leser einen ersten komprimierten Eindruck über das Thema geben. Auf komplizierte Technische Anleitungen und Detail-Erläuterungen wird in dieser Arbeit weitestgehend verzichtet.
2 Was ist Cloud Computing?
Cloud Computing (z. Dt. sinngemäß etwa die „Rechnende Wolke“) steht metamorphorisch für eine IT-Wolke1, die sich aus bestimmten Technologien zusam- mensetzt. Somit ist das Cloud Computing nicht als eigenständige Technologie zu be- trachten, sondern vielmehr als eine Kombination aus bereits mehreren bestehenden Lösungen. Der Grundgedanke besteht darin, Informationstechnologien in Echtzeit über die Infrastruktur von Netzwerken zu beziehen. Selbst die Leistung physikalischer Hardware (z.B. Datenspeicher, Arbeitsspeicher) kann sich zunutze gemacht und auf Abruf bestellt werden. Damit wird Cloud Computing zu einem IT-Bezugsmodell. Zu- sätzlich erlaubt das Cloud Computing den Betrieb von vollständigen und komplexen Geschäftsprozessen.2
IT-Anwendungen, gar komplette IT-Infrastrukturen sollen ähnlich dem Verbrauchsgut Strom zu einem Utility Grid werden, welches sich nutzungsvariabel von einem Provider beziehen lässt. Software und Hardware werden dadurch zu einem Mietgegenstand. Man zahlt nur für die Leistung, die man tatsächlich in Anspruch nimmt. Um das kom- plexe Grundkonzept des Cloud Computing genauer verstehen zu können, müssen zu- erst die Basismerkmale und Eigenschaften exakt definiert werden. Die Komplexität des Cloud Computing-Modells wird besonders dadurch deutlich, dass sich bis heute keine einheitliche und standardisierte Definition durchsetzen konnte. So sehen beispielsweise die Experten von Forrester Research im Cloud Computing „einen Pool aus abstrahierter, virtualisierter und hochskalierbarer IT-Infrastruktur, die in belie- biger Größenordnung bezogen und nach Verbrauch abgerechnet wird“. Gartner formu- liert den Begriff etwas abstrakter und beschreibt Cloud Computing als „skalierbare IT- Services, die über das Internet für eine potenziell große Zahl externer Kunden bereit- gestellt werden“.3
Die zahlreichen Definitionsversuche des Cloud Computing Journals machen die unter- schiedlichen Auslegungen und die Vielzahl von verschiedenen Interpretationen beson- ders deutlich.4
Repräsentativ dafür mag die folgende Definition stehen:
„Unter Ausnutzung virtualisierter Rechen- und Speicherressourcen und moderner WebTechnologien stellt Cloud Computing skalierbare, netzwerk-zentrierte, abstrahierte ITInfrastrukturen, Plattformen und Anwendungen als On-Demand-Dienste zur Verfügung. Die Abrechnung dieser Dienste erfolgt nutzungsabhängig.“5
2.1 Eigenschaften und Merkmale
Um die Fülle an Definitionen gewichten zu können, soll der Versuch unternommen werden, einzelne Merkmale und Funktionen genauer zu betrachten, um deren wesent- liche Eigenschaften herauszufiltern. Zuerst werden die Leistungsmerkmale angespro- chen.6
Es lassen sich sechs primäre Cloud-Eigenschaften definieren, welche im Folgenden dargestellt werden.
2.1.1 Standardisierte Multi-Tenant-Dienstleistungen
Die Grundleistung, die ein Cloud-Anwender von einem Anbieter bezieht, ist stark stan- dardisiert und für jeden Anwender erst einmal gleich. Da eine Anwendung für eine Vielzahl von Nutzern ausgelegt ist, kann der Anbieter Skaleneffekte erzielen und seine Leitungen günstiger zur Verfügung stellen.7 Man spricht hierbei auch von dem Multi- Tenant-Ansatz oder dem One-to-Many-Ansatz. Dadurch wird der Grad der Leistungs- individualisierung eingeschränkt, kann aber durch benutzerspezifische Anpassungen in den Anwendungen selber wieder erhöht werden. Obwohl die Cloud-Leistungen sehr unterschiedlich ausfallen können, erhöhen einheitliche Schnittstellen die Interoperabili- tät zwischen den verschiedenen Diensten.8 Das spielt besonders bei komplexeren Ge- schäftsprozessen eine wichtige Rolle, um Geschäftsanwendungen flexibel einzubin- den.
2.1.2 Ergebnisorientierte IT-Leistung
Ohne einen hohen Aufwand zu betreiben, nimmt der Kunde nur das Ergebnis des Cloud-Computing-Services in Anspruch.9
So kann beispielsweise der Ressourcenaufwand erheblich minimiert werden, da typische Vorgänge, die im Zusammenhang mit traditionellen IT-Prozessen stehen, stark reduziert werden. Aufwändige Prozesse wie Consulting, Installationen oder Anpassungen können vermieden werden. Probleme, die im Zusammenhang mit Implementierungen stehen, werden verringert. Es müssen keine zusätzlichen technischen Komponenten (Software, Hardware) beschafft werden.10
Dadurch entsteht eine neue Form von einfach zu nutzenden IT-Architekturen, die die Wertschöpfung der IT-Prozesse erhöhen kann.
Es handelt sich bei den Cloud Computing-Leistungen um eine Form von Dienstleis- tung. Diese besitzen die Eigenschaften der Intangibilität. Der Kunde kann die Leistung vorher nicht testen. Da der Kunde den Service nur über das Ergebnis definieren und bewerten kann, muss dieser im Vorfeld exakt festgelegt sein. Die Leistungsbeschaf- fenheit wird mittels Service Level Agreements (SLA) [s. Kapitel 7.2.2] definiert. Diese werden zwischen dem Anbieter und Anwender vor der Leistungsinanspruchnahme vereinbart.
2.1.3 Massive Skalierbarkeit
Die Skalierbarkeit11 von IT-Ressourcen12 ist ein wesentliches Merkmal des Cloud Computings. Hierdurch können ganze IT-Ressourcen (z.B. Datenspeicher, Rechenleistung) zeitnah und dynamisch an den tatsächlichen Nutzungsgrad des Anwenders angepasst werden.
Diese IT-Ressourcen-Disposition erfolgt je Auslastungssituation nach oben oder unten; ganz an die Bedürfnisse des Kunden angepasst.13 Hierbei spricht man auch von Elas- tizität.14
Hat ein Kunde beispielsweise einen zeitkritischen Auftrag, der viel Rechenleistung be- nötigt (z.B. Digitale Archivierung - Dokumentenmanagement), kann er sich von einem Cloud-Anbieter zusätzliche Rechenleistung anmieten. Durch diese Auslagerung extre- mer rechenaufwändiger Funktionen, kann der Nutzer seinen Aufwand minimieren und gleichzeitig den Nutzen erhöhen.15 Theoretisch ist es möglich, dass dem Nutzer binnen weniger Minuten die Rechenkraft von mehreren tausend Rechnern zu Verfügung gestellt wird. Hierdurch eröffnen sich völlig neue Möglichkeiten, wie z.B. Data Mining- Prozesse für KMUs.16
Die Nützlichkeit dieser Eigenschaft beruht darauf, dass Unternehmen Schwierigkeiten haben, die Auslastung von Servern im Vorfeld exakt zu prognostizieren. Daher sollte es stets ein angestrebtes Ziel sein, diese Server-Über- und Unterauslastungen zu ver- meiden17.
Das kann mit Hilfe der Cloud-Lösungen realisiert werden, da sich hier die Kapazitäten nur dem tatsächlichen Bedarf anpassen. Die theoretisch grenzenlose Skalierbarkeit muss sich aber im Rahmen der Kapazitäten des Rechenzentrums des Providers be- wegen.18
Es ist anzumerken, dass nicht jede Cloud Computing-Leistung skaliert werden muss, da es in der Cloud auch die Möglichkeit gibt, simple Applikationen zu beziehen (SaaS).
2.1.4 Transaktionsbezogene Abrechnung
Die Abrechnung lehnt sich an das Prinzip des Utility Computing (z. Dt. etwa ver- brauchsabhängiges Rechnen) an.19 Da die Leistung dem Nutzer proportionsgerecht angeboten wird, ist es möglich, auch die Zahlung transaktionsbedingt erfolgen zu las- sen. Das bedeutet, dass der Nutzer nur für die tatsächlich erhaltene Leistung zahlt. Diese Eigenschaft ist ein entscheidendes Merkmal, mit der die Cloud-Anbieter um po- tentielle Kunden werben.
In diesem Kontext lässt sich der Begriff „pay-per-use“ definieren, der die Kosten in Abhängigkeit der tatsächlichen Leistung setzt.20 Die Abrechnungseinheiten und Abrechnungsmethoden können hierbei vielfältiger Natur sein [s. Kapitel 7.5].
2.1.5 On-Demand
On-Demand bedeutet so viel wie „Auf Abruf“. Damit wird der zeitnahe Zugriff auf die
Leistung beschrieben. Die benötigte Leistung wird in dem Moment geliefert, in dem sie tatsächlich benötigt wird. Der Anwender kann dadurch auf lange Lieferzeiten, wie bei- spielsweise bei Hardware (Festplatten, Rechner etc.), verzichten. Auch der Zugriff auf die Daten erfolgt stets in Echtzeit. Es wird immer auf einen aktuellen Datensatz zu- rückgegriffen. So können Geschäftsreisende stets Anwendungen mit aktuellen Inhalten nutzen. Mittlerweile ist dieser Begriff durch das aktuellere Schlagwort „as a Service“ ersetzt worden.
2.1.6 Netzwerk-zentrierter, globaler und universaler Zugang
Der Cloud Computing-Anbieter verwaltet seine IT-Ressourcen zentral. Dies geschieht in Form von Rechenzentren, die zum Teil über den gesamten Globus verteilt sind. Die Cloud-Leistungen werden aus diesen Rechenzentren bezogen. Der Zugriff erfolgt über das Internet. Durch die weitreichende Vernetzung des Internets (Infrastrukturnutzung) kann von jedem Ort aus auf diese Rechenzentren zugegriffen werden.21 In der inter- nen Unternehmensform, der Private Cloud, wird das Intranet als Kommunikationsnetz- werk genutzt.
Neben dem Vorteil dieser weltweiten Verfügbarkeit ergeben sich dadurch auch neue Anforderungen an die Unternehmen. Da der Dienst die physischen und virtuellen Grenzen der Unternehmung verlässt, ergeben sich neue Sicherheitsanforderungen an die Unternehmen. (z.B. müssen Unternehmens-Firewalls überwunden werden).22 Auch müssen andere Identifikationssysteme und Authentifizierungsregeln eingerichtet werden, um vor fremden Zugriffen zu schützen [s. Kapitel 7].
Der Zugang erfolgt meist über einen Internet Browser, der die Verbindung zum Internet herstellt23 und als Schnittstelle zwischen Client und Anwendung fungiert.
2.2 Vorteile von Cloud Computing
Durch Cloud Computing ergeben sich verschiedene Vorteile.
Niedrigere IT-Gesamtkosten
Ausgehend von Massendegressionseffekten bei den Anbietern, können diese ihre Kostenvorteile an den Anwender weitergeben.24 Das Leistungsangebot ist günstiger als lokal ausgeführte IT. Es wird eine Substitution von Fixkosten zu variablen Kosten erreicht. Unternehmen müssen nicht in teure Software, Hardware oder gar ein eigenes Rechenzentrum investieren, sondern können die vorhandenen IT-Strukturen und das Know-How der großen Anbieter nutzen. Desweiteren entfallen Kosten für SoftwareLizenzen, die häufig je Arbeitsplatz berechnet werden. Auch teure Instandhaltungskosten müssen nicht berücksichtigt werden [s. Kapitel 9].
Verringertes Risiko von Fehlinvestitionen
Da Cloud Computing ein Mietmodell ist und man keine Hardware oder Software kaufen muss, minimiert sich auch das Risiko von Fehlinvestitionen. IT, die infolge falscher Planung bezogen wird, kann einfacher wieder abgestoßen werden. Zuzüglich können Leistungen im Vorfeld getestet werden, dadurch kann ein potentielles Risiko weiter eingedämmt werden.25
Bessere Kalkulierbarkeit
In Bedarfsspitzenzeiten wird schnell zusätzliche Kapazität herangezogen, während bei einer Unterauslastung keine IT-Ressourcen unnötig verschwendet werden.26 Dadurch wird auch der Nachteil einer auf psychologischen Tatbeständen beruhenden Fehlprognose von benötigten Datenvolumen minimiert. Durch die Skalierbarkeit kann exakt die Menge an Ressourcen bezogen werden, die tatsächlich benötigt wird. Beispielsweise können saisonale Schwankungen besser berücksichtigt werden. Größenmäßig falsch ausgelegte Rechenzentren gehören der Vergangenheit an.
Konzentration auf die Kernkompetenzen
Unternehmen streben nach IT-Lösungen, die es ermöglichen, sich voll auf das Kernge- schäft zu konzentrieren.27 Dabei soll die IT die Geschäftsprozesse unterstützen und die Geschäftslogik abbilden. Eine starre IT-Architektur macht es für Unternehmen schwie- rig, die Geschäftsprozesse wunschgemäß durchzuführen. Cloud Computing-Lösungen lassen Unternehmen dagegen sehr flexibel auf Umweltänderungen reagieren. In au-ßerplanmäßigen Situationen können die IT-Infrastruktur oder spezielle Geschäftsanwendungen schneller angepasst werden. Desweiteren kümmern sich Spezialisten des Providers um zusätzliche administrative Aufgaben, wie z.B. Wartung. Für das nutzende Unternehmen lässt sich ein indirekter Know-How-Gewinn erzielen. Die Mitarbeiter können sich mehr auf das operative Geschäft konzentrieren.
Kürzere Einführungszeiten
Darüber hinaus kann bei speziellen Geschäftsanwendungen der Funktionsumfang schneller angepasst werden, indem die benötigten „Features“ On-Demand geliefert werden. Das führt zu einer drastischen Verkürzung der Anpassungs- und Einrichtungs- zeiten. Traditionelle IT-Lösungen besitzen hier einen deutlich höheren Wartungs- und Implementierungsaufwand.28 Die Cloud-Lösungen sind besonders für junge und Start- up-Unternehmen höchst interessant. Hier kann sehr schnell eine IT- und Ressourcen- infrastruktur ähnlich der eines großen Unternehmens erschaffen werden, ohne ein ho- hes Startkapital aufbringen zu müssen. Die Umsetzung von innovativen Ideen in die Realität kann mit einer schneller bereitgestellten technischen Infrastruktur effizienter realisiert werden. So können insbesondere Entwicklungsphasen zügiger gestaltet wer- den, da keine bei Investitionsprojekten typischen zeitaufwendigen Budgetprüfungen oder Genehmigungen durchgeführt werden müssen.
IT-Konsolidierung
Das Konzept führt zu einer schlanken IT. Die Hardware und Software findet sich ge- bündelt in den Rechenzentren der Provider wieder. Die lokal betriebenen Rechner werden auf das Wesentliche reduziert (z.B. ein Thin-Client [s. Kapitel 3.1.1]). Komplexe und je Unternehmen spezifische Programmierungen von Software Codes entfallen.
Datenverfügbarkeit
Die Dienste sind rund um die Uhr verfügbar und das von jedem Ort weltweit. Das kann besonders für Außendienstmitarbeiter von Vorteil sein, da keine Abhängigkeiten mehr zu fest installierter Hardware bestehen. Zusätzlich wird auch die Nutzung von Home Office-Lösungen begünstigt.29
Bessere globale Zusammenarbeit durch Web Collaboration
Über die Infrastruktur des Internets ist es möglich, dass mehrere Personen zur selben Zeit an den gleichen Daten arbeiten können (Echtzeit-Bearbeitung).30 Die Bearbeitung von Projekten, an denen verschiedene Personen regional verteilt arbeiten, kann durch diese effektivere Form der Zusammenarbeit erhöht werden.
Kein Verlust von IT-Know-How bei Mitarbeiterfluktuationen
Unternehmens-Software kann von unterschiedlichen Mitarbeitern unterschiedlich inter- pretiert werden. Programmierer können bevorzugte Programmiersprachen oder spezi- fische Lösungskompetenzen besitzen. Dadurch können sich Programmcodes in Unter- nehmen häufig unterscheiden. Wenn einer dieser Programmierer das Unternehmen verlässt, kann es schwierig werden, diesen Kompetenzverlust aufzufangen. Beim Cloud Computing wird fertige Software mit einem standardisierten Quellcode bezogen.
Bessere Leistungen
Bei vergleichbaren Kosten bieten die Cloud-Leistungen höhere Service-Levels als die hausinterne IT. Hier kann besonders vom Know-How der Anbieter profitiert werden. In der aktuellen Diskussion um Cloud Computing werden häufig Sicherheitsbedenken geäußert. Hierbei muss aber beachtet werden, dass bestimmte etablierte Cloud Provi- der über ausgereifte Sicherheitsmöglichkeiten verfügen und sich diese mittels glaub- hafter Zertifikate bestätigen lassen. Diese Sicherheitsvorkehrungen können zum Teil weitaus höher sein als vom Anwenderunternehmen. So ergibt sich insbesondere für kleine und mittlere Unternehmen die Möglichkeit, komplette und voll funktionsfähige Sicherheitslösungen über die Cloud zu nutzen, anstatt eine eigene aufwändige Sicherheitsinfrastruktur errichten zu müssen.31
Ökologische Vorteile
Cloud Computing kann einen Schritt in Richtung Green IT machen. Unter dem Konzept von Green IT versteht man eine Ressourcen schonendere Gestaltung der IT.32 Cloud Computing trägt durch die technologische Konsolidierung und den Einsatz von effizienten Technologien, wie die z.B. Virtualisierung, dazu bei.
Die Nachteile sollen im Kapitel 7 (Anforderungen der Unternehmen) dargestellt wer- den.
2.3 Historische Entwicklung
Hinter dem Cloud-Gedanken steckt keine gänzlich neue Idee. Cloud Computing ist nämlich das Produkt eines längeren Evolutionsprozesses und stellt deswegen keine neuartige technologische Revolution dar.
Betrachtet man Cloud Computing im Kontext der Entwicklung von IT-Technologien, so lässt sich der Werdegang in Richtung Cloud Computing besser nachvollziehen. Die Abbildung 2 „Meilensteine der Internet-Technologien“ zeigt auf, dass der Trend in Richtung einer mobilen und einfach zu nutzenden IT-Technologie geht.
Abb.2 Meilensteine der Internet-Technologien33
Abbildung in dieser Leseprobe nicht enthalten
Die nachfolgende Abbildung 3 „Vorläufertechnologien“ auf Seite 12 macht die histori- sche Entwicklung des Cloud Computing ersichtlich. Es lassen sich zwei ursprüngliche Trends definieren, aus denen Cloud Computing entstanden ist. Diese Basis- Technologien lassen sich unterteilen in die Konzepte der Infrastrukturvirtualisierung und der Applikationsbereitstellung. Wie die Grafik zeigt, beinhalten beide Quellen je- weils zwei weitere wichtige Technologien. Diese besitzen spezifische Eigenschaften, von denen das Cloud Computing einige übernommen hat. Diese Technologien werden von dem Grundmuster des Outsourcings gestützt. Diese Form der Auslagerung kann als Antreiber für das Cloud Computing betrachtet werden.
Abb.3 Vorläufertechnologien34
Abbildung in dieser Leseprobe nicht enthalten
Im Folgenden werden die wichtigsten Entwicklungen kurz skizziert.
2.3.1 Outsourcing
Unter Outsourcing versteht man die Auslagerung bestimmter Aufgaben an einen Drit- ten. Dieser Grundgedanke spiegelt sich auch im Cloud Computing wieder, denn es erfolgt ein Outsourcing des IT-Betriebs. Dennoch gibt es Unterschiede zwischen den beiden Konzepten. Beim Cloud Computing wird die Leistung weiterhin vom Anwender ausgeführt, während beim Outsourcing komplette Geschäftsprozesse oder Anwendun- gen extern vergeben werden (s.Tab.1). Die Ressourcenverteilung bei Cloud Computing ist im Gegensatz zum klassischen Outsourcing nicht vollständig fest zugeordnet. Wei- terhin erweist sich Outsourcing häufig als eine kurzfristige, nicht strategisch wirksame Kostensenkungsmaßnahme.
Abbildung in dieser Leseprobe nicht enthalten
Tabelle 1 Outsourcing vs. Cloud Computing
2.3.2 Hosting
Ein Namensvorläufer des Cloud Computing ist das Hosting. Hier werden ebenfalls IT- Ressourcen durch eine externe Auslagerung von einem Dritten bezogen. Ein Provider stellt dabei verschiedenste, individuell konfigurierbare Services zur Verfügung (Do- mains, Web-Sites, Mail-Server, virtueller und dezidierter Server). Dabei bezieht sich das Hosting meist auf die Bereitstellung von Speicherplatz, der für den Betrieb einer Webseite erforderlich ist.35 Im Gegensatz zum Cloud Computing ist die Menge der IT- Ressourcen aber vorab festgelegt, so dass extreme kurzfristige Erweiterungen nicht möglich sind. Auch kann die Leistung nicht verbrauchsabhängig bezahlt werden. Ob- wohl der Anwender Einfluss auf die Serverkonfiguration ausüben kann, besitzt die IT- Architektur nicht die „Elastizität“ der Cloud-Modelle, um eine flexible Skalierbarkeit zu ermöglichen. Für Erweiterungen muss der Hosting-Anbieter zusätzliche Hardware in- stallieren, dadurch wird auch das Angebot der möglichen Mengen begrenzt.36 In den traditionellen Hosting-Modellen erwirbt der Käufer eine Software und lässt diese dann im Rechenzentrum des Providers ausführen. Cloud-Lösungen basieren dagegen auf dem „Miet-Modell“, welches dem Cloud-Anwender eine höhere Kontrolle der An- wendung ermöglicht37
2.3.3 ASP
Ausgelöst durch weltweite, positive Prognosen über die „Dienstleistung aus der Steck- dose“, entstand um die Jahrtausendwende der so genannte „ASP-Hype“. Unter ASP (Application Service Provider) versteht man einen Dienstleister, der vorkon- figurierte serverbasierte Anwendungssoftware gegen eine Nutzungsgebühr an Kunden vermietet. Demnach ist ASP ein Software-Mietmodell mit Outsourcing-Charakter. Der Kunde hat keinerlei Administrationsaufwand, da der komplette Service vom Provider gemanagt wird.38
Um das Jahr 2000 investierten viele Start-up-Unternehmen und Branchenneulinge in die dafür benötigten technischen Infrastrukturen. In den Jahren 2002-2004 fand dieser Hype aber ein jähes Ende. Die Branchenneulinge hatten die Komplexität von ASP un- terschätzt. Der Zeitaufwand, um eine voll funktionsfähige Infrastruktur zu errichten, war in der damaligen Zeit zu hoch. Auch führte die Menge an unterschiedlichen technischen Begriffen und Definitionen zu einer Intransparenz bei den Marktteilnehmern. Desweiteren beklagten Kunden die mangelhaften Sicherheitsstandards.39 Besonders schwer wogen die externen negativen Effekte, wie das „Platzen der Internetblase“40 oder Probleme bei der technischen Infrastruktur.41
ASP-Leistungen galten auch als äußerst unflexibel, da die meist vorgefertigten Applikationen eine Standardisierungsquote von 90-100% besitzen und demnach nur schwer an benutzerspezifische Bedürfnisse angepasst werden konnten.42 Wiedergeboren wurde das ASP-Konzept im Jahr 2006 unter dem Namen Software as a Service (SaaS). Diesmal wurde das Leistungsangebot auch an die Bedürfnisse von kleinen und mittleren Unternehmen angepasst43
Da das SaaS-Prinzip fundamentaler Bestandteil der Cloud-Architektur ist, wird im Kapitel „Architektur und Typologien“ [s. Kapitel 4] näher darauf eingegangen.
2.3.4 Grid Computing
Das Grid Computing steht für eine Anhäufung von Rechnern, die über eine Netzwerk- infrastruktur zur gleichen Zeit an einem Projekt arbeiten können. Hierdurch entsteht eine Art von „Supercomputer“44 der die Leistung geographisch verstreuter Rechner bündelt.45 Die Projekte sind meist wissenschaftlicher oder technischer Natur und benö- tigen gewaltige Mengen IT-Ressourcenkapazitäten. Ein Beispiel stellt SETI46 dar. Grid Computing ähnelt dem Cloud Computing, da auch in diesem Modell die Infrastruk- tur des Internets genutzt wird, um IT-Leistung zu transferieren. Ein entscheidender Unterschied zwischen den beiden Modellen ist aber der, dass das Grid Computing auf eine dezentrale Ressourcenkontrolle zielt. Dadurch kann eine spezielle Anwendung auf mehrere Rechner verteilt und kooperativ ausgeführt werden. Dagegen zielt Cloud Computing auf eine zentralisierte und gebündelte Datenbereitstellung, in der eine Vielzahl von kleineren Anwendungen zur selben Zeit betrieben werden kann.47 Das Grid stellt Rechen- und Speicherkraft zur Verfügung, mit der hauptsächlich Forschung betrieben wird. Dagegen bietet das Cloud Computing meist eine Symbiose mit einem betrieblichen Geschäftsmodell.48
Auf betrieblicher Ebene konnte sich das Grid Computing nicht durchsetzen. Ein Grund könnten die damals zu hohen Start-Investitionen für eine Teilnahme und eine zu hohe Komplexität gewesen sein. Ein weiterer Grund ist, dass die Grid-Struktur relativ unfle- xibel und für einen längeren Zeitraum ausgelegt ist. Cloud Computing-Anwendungen können sich dabei schon bei kleineren Projekten als wirtschaftlich erweisen.
2.3.5 Utility Computing
Bereits 1961 sprach der Experte John McCarthy von der visionären Vorstellung, dass Rechenkapazitäten eines Tages möglicherweise durch öffentliche Versorgungsunter- nehmen bereit gestellt werden können, ähnlich wie das heute bereits mit Telefonsys- temen oder der Wasserversorgung der Fall ist. Den Wunsch, von der „IT aus der Steckdose“ konnte das Utility Computing nicht erfüllen. Die Abgrenzungen zu Cloud Computing sind in der Fachliteratur nur schwammig definiert. Die Ähnlichkeit zu Cloud Computing macht folgende Definition deutlich: „Utility Computing beschreibt eine grundlegende Transformation der Bereitstellung und des Managements von IT- Services - von einem technologieorientierten zu einem geschäftsorientierten Ansatz. Diese Umstellung erfordert eine äußerst flexible und effizient verwaltete dynamische IT-Infrastruktur mit vollständiger Kostenkontrolle, flexibler Kostenverrechnung und akti- vem SLA-Management.49
Utility Computing dient in Verbindung mit Software as a Service als eine Grundlage für das Cloud Computing. Beiden Vorläufer-Entwicklungen ist gemeinsam, dass sie das On-Demand-Konzept nutzen.50
Es ist anzunehmen, dass der Markt nach dem ASP-Verfall noch nicht bereit war, die- ses Modell umfassend umzusetzen. Dadurch konnte sich die Wiedereinführung des Utility Computing zu Beginn des 21.Jahrhunderts nicht durchsetzen. Ein weiterer mög- licher Grund für den mangelnden Erfolg aller Vorgängertechnologien lag auch in der nicht ausreichend ausgereiften Leistungsfähigkeit, der technischen Infrastruktur begründet. Die Kommunikationsbandbreiten waren nicht leistungsstark genug, um die riesigen Datenmengen zeitgerecht zu transferieren.
Dieses Dilemma machen die Aussagen des Intel-Ingenieurs Gordon Moore deutlich, der 1965 ein wichtiges Gesetz formulierte. Er erklärte, dass sich die Leistungsfähigkeit der Mikroprozessoren alle 18 Monate verdoppeln würde. 1990 stellte sein Kollege An- dy Grove eine gegenteilige These auf. Er sprach davon, dass sich die Telekommunika- tionsbandbreite nur jedes Jahrhundert verdoppeln würde. Diese Diskrepanz zwischen den beiden Gesetzen macht deutlich, dass die technologischen Eigenschaften der Inf- rastruktur immens wichtig sind, um das Cloud Computing-Konzept durchzusetzen.51
Durch den Einzug des Glasfaserkabels konnte das Manko einer unzureichenden IT- Leistungsfähigkeit behoben werden. Zusätzliche wichtige Schlüsseltechnologien, wie z.B. die Virtualisierung, sind ebenfalls erst in letzter Zeit technisch vollständig ausge- reift.52
Anscheinend gastierte der Utility Computing-Begriff zu lange in der Branche, so dass dieser keine Schubwirkung mehr entfalten konnte. Das könnte ein Grund sein, warum nun das Schlagwort Cloud Computing genutzt wird.
2.3.6 Cloud-Entstehung
Man kann davon ausgehen, dass Cloud Computing aus allen Fehlern der Vorläufer- technologien gelernt hat und deren beste Eigenschaften übernommen hat. Hier sind insbesondere die kurzfristige elastische und grenzenlose Skalierbarkeit, die Lösung von langfristigen vertraglichen Bindungen und die Möglichkeit der verbrauchsabhängi- gen Bezahlung zu nennen. Cloud Computing steht für eine Vereinigung dieser Merk- male.53
Doch das Cloud Computing-Konzept kann noch einen weiteren mächtigen Antreiber für sich nutzen: die private Benutzergemeinde des Internets. Als Vorläufer können daher Plattformen wie Facebook.com54 oder YouTube.com55 angesehen werden.
Diese basieren auf dem Web 2.0-Prinzip, welches von der Interaktion mit den Usern lebt. [Stichwort: Social Networking]. So konnte sich ein gewisses Vertrauen in die Basis-Technologien aufbauen, das von den privaten Nutzern bis in die Unternehmen getragen wurde. Für die privaten Nutzer gibt es mittlerweile eine Vielzahl an Diensten und Services, die elementare Eigenschaften des Cloud Computing beinhalten. Die Möglichkeit, über Facebook.com eine unbegrenzte Anzahl von Fotos hochzuladen, deutet auf die Cloud Computing-Eigenschaft der unbegrenzten Skalierbarkeit. Dazu bietet die Facebook.com-Plattform alle Tools an, um die Umgebung benutzerspezifisch zu gestalten. Diese Eigenschaft ist gleichzusetzen mit dem Merkmal der standardisier- ten Dienstleistung von Cloud Computing. Es wird nur eine standardisierte Leistung als Basis angeboten, die aber ausreichend flexibel ist, um benutzerspezifisch angepasst zu werden.
Auch einfache öffentliche Single-Anwendungen wie z.B. Google Maps API56 existieren schon seit längerem und werden vielfach genutzt. Mittlerweile binden Unternehmen diese Anwendungen in ihre Homepages ein, um die Anfahrtsbeschreibung zu visualisieren. Solche Anwendungen funktionieren gänzlich ohne Software und ebnen den Weg, den das Cloud Computing bis zu seiner vollständigen Verbreitung noch vor sich hat. Das Angebot von kostenlosen Internet-Applikationen ist mittlerweile sehr gestiegen und deckt viele Bereiche ab, wie z.B. Bürosoftware.57
Auf den 24.August 2006 könnte die Geburtsstunde des Cloud Computing datiert wer- den. An diesem Tag führte Amazon eine Testversion ihrer Elastic Compute Cloud ein [Busi- ness World 2006]. Wikipedia verzeichnet den ersten Eintrag am 23.März 2007.58 Mit- tels Google-Trend, ebenfalls einer über das Internet bereitgestellten Anwendung, ist es möglich, das Sucherverhalten der Internetnutzer zu analysieren. Die Abbildung 4 „Google Trend“ auf Seite 18 zeigt das Google-Suchverhalten nach dem Begriff „Cloud Computing“.
Dadurch lässt sich die steigende Nachfrage nach dem Cloud Computing anschaulich dokumentieren.
Abb.4 Google Trend59
Abbildung in dieser Leseprobe nicht enthalten
3 Basistechnologien
3.1 Hardware
Abb.5 Datenaustausch
Abbildung in dieser Leseprobe nicht enthalten
Die Abbildung 5 „Datenaustausch“ zeigt im groben, wie die Daten zwischen Anwender und Anbieter transferiert werden und welche wesentliche Hardware für diesen Vorgang benötigt wird. Hierfür ist auf der Seite des Anwenders ein Client-Endgerät notwendig, das auf dem der Browser installiert ist.
Der Browser stellt die Verbindung zum Internet her, mit dem die IT-Leistung aus dem Rechenzentrum des Anbieters bezogen werden kann.
3.1.1 Client
Auf dem Client-Endgerät wird die notwenige Software betrieben, so auch der InternetBrowser, der die Verbindung zum Cloud Provider herstellt. Basiert die traditionelle Unternehmensarchitektur auf dem Betrieb von Client/Server-PCs, die eine komplette Hardware für einen eigenständigen Betrieb beinhalten, ermöglicht das Cloud Computing eine Form der Hardware-Konsolidierung.
Hierbei verläuft die Tendenz in Richtung von Thin Clients. Ein Thin Client ist im Cloud Computing-Konzept ein End-Gerät, in dem das komplexe Hardware-Innenleben eines traditionellen Rechners zum größten Teil überflüssig wird.60
Da ein Thin Client ohne Prozessor, Speicher, Betriebssystem und Software auskom- men kann, fällt der Betreuungsaufwand geringer aus. Auch aus ökologischer Sicht er- geben sich Vorteile, denn die Thin Clients arbeiten besonders energiesparend. So stellt eine Studie des Fraunhofer-Institutes fest, dass Thin Client Computing nur halb so viel Energie benötigt wie PC-basierte Client/Server-Netzwerke.61
Voraussetzung für eine Client-Infrastruktur sind virtualisierte Desktop-Betriebssysteme, die auf einem zentralisierten Server betrieben werden.62
Dieser virtualisierte Host Desktop kann sich in einem Rechenzentrum befinden, auf den der Gast in Form des Thin Clients zugreift.
Weitere Client-Endgeräte, die mit Cloud Computing konform gehen, können mobile Endgeräte sein.
Mittels dieser mobilen Endgeräte kann, neben der Konsolidierung, der Vorteil der ortsunabhängigen Nutzung ausgespielt werden. Hierdurch wird ein Mobilitätsgewinn erzielt, da der Nutzer nun nicht mehr auf stationär eingerichtete Rechner angewiesen ist. Als mobile Endgeräte können so zum Beispiel Laptops, Notebooks oder Mobil- Telefone zum Einsatz kommen.63
3.1.2 Rechenzentrum
Das Kernstück, sozusagen die zentrale Komponente des Cloud Computing-Spektrums, befindet sich in den Rechenzentren. Damit Eigenschaften, wie die massive Ressour- cen-Skalierbarkeit genutzt werden können, wird immense Rechenstärke benötigt. Die- se wird in den Rechenzentren in zentralisierter Form für die Anwender bereitgestellt. Grundsätzlich lassen sich die Rechenzentren unterteilen in die Rechenzentren der ex- ternen Provider für Public Cloud-Lösungen und interne unternehmenseigene Rechen- zentren für Private Cloud-Anwendungen. Besonders die externen Provider- Rechenzentren tragen das Cloud Computing-Konzept.
Carr spricht in seinem Buch „The Big Switch“ von gewaltigen Datenverarbeitungsfabriken oder Serverfarmen, die von den großen IT-Riesen wie Google erschaffen wurden, um die geforderten Leistungen anzubieten.64
Vereinfacht lässt sich sagen, dass ein Rechenzentrum aus einer Vielzahl von einzel- nen Server-Systemen besteht, die wiederum an die Infrastruktur eines Netzwerkes angebunden sind. Hierbei ist das Netz in unterschiedliche, redundante Segmente un-terteilt, um bei möglichen Netz-Ausfällen dennoch eine Grundversorgung zu garantie- ren.
Mittels Hochleistungs-Switches und Routern wird dann der Kundenzugriff geregelt. Zählt man alle für eine Kostenanalyse notwendigen Bestandteile auf, können zwei Komponenten unterschieden werden. In der „Computerraum“-Komponente ist die Standardausstattung enthalten. Diese besteht aus den Elementen des Computer- raums, wie Boden, Beleuchtung und Brandmeldeanlagen. Eine zweite Komponente beinhaltet die technisch komplexere Zusatzausstattung. Hierunter sind Klimaanlage, Generatoren, Pumpen und die unterbrechungsfreie Stromversorgung zu verstehen.
Aufbau und Güte dieser Elemente können sich je nach Anforderung stark unterscheiden.65 Die Qualität eines RZ drückt sich in der Server- und Netzwerkleistung und der Tier-Leistung aus66.
Die Funktionsweise eines Rechenzentrums lässt sich modellartig in drei Ebenen unter- teilen: Auf der untersten Schicht befindet sich die reine Hardware. Diese Ansammlung von Servern stellt nur Basisfunktionen in Form von Recheneinheiten mit Speicher bereit. Auf dieser Ebene setzt die Technik der Virtualisierung (s. Kapitel 3.3) auf. Von dort werden die Applikationen und auch die Ressourcennachfrage auf die Hardware der untersten Schicht verteilt.
Auf der obersten Ebene treffen die Anfragen der Anwender ein und werden dort an die untere Virtualisierungsebene weiter verteilt.67
Für einen optimalen Betrieb sind folgende Eigenschaften eines RZ unumgänglich:
- unterbrechungsfreie Stromversorgung inklusive Notstromversorgung
- ein Klimatisierungssystem, welches die Rechner vor dem Überhitzen schützt
- virtuelle Sicherheitsmaßnahmen; Zugangssicherheit über SSL-Lösungen68 ; Firewall, Intrusion Detection Systeme69 und Virenscanner
- physikalische Sicherheitsmaßnahmen: Zugangskontrollen, Sicherheitsdienste und Überwachung70
3.2 Serviceorientierte Architekturen
Eine fundamentale Voraussetzung für Cloud Computing sind die Service-orientierten Architekturen.71
„Serviceorientierte Architekturen (SOA) sind Architekturen, deren Komponenten vonei- nander unabhängige Dienste (Services) sind. Diese können flexibel gebunden und orchestriert72 werden, und sie können lose gekoppelt über Nachrichten kommunizie- ren.“73
Durch den hohen Grad der Abstraktionsmöglichkeiten und der Möglichkeit Anwendun- gen zu zerlegen, tragen SOA so zu einer Verringerung der Komplexität von IT- Lösungen bei.
Ein Grundsatz von SOA ist die Modularisierung und die Kapselung.
Diese Kombinationsfähigkeit erlaubt es, die IT schnell und flexibel an die sich dyna- misch verändernde Geschäftswelt anzupassen. Das Konzept verspricht einen Wandel weg von der „Black-Box“-Manier74 hin zu einer transparenten Software nach dem „Baukasten Steck“-Prinzip.75 So lässt sich die SOA-Architektur quasi als ein Gerüst ansehen, auf dem die gesamte IT-Infrastruktur eines Unternehmens abgebildet ist. Hierbei sind die Applikationen in einzelne Services zerlegt. Diese Services sind durch standardisierte Schnittstellen austauschbar und beliebig kombinierbar. Im Mittelpunkt steht das Konzept vom „Anbieten, Suchen und Nutzen von Diensten“. Diese werden über ein Netzwerk zu Verfügung gestellt.76
Die architektonische Bauweise des SOA-Konzepts basiert auf dem Zusammenspiel von mehreren Elementen. Diese sind:
1. Dienst: Der Dienst ist ein Programm, welches eine fachliche Funktion ausführt.77
Diese findet in einem Geschäftsprozess Anwendung, oder stellt selbst einen Ge- schäftsprozess dar. Der Dienst wird durch die IT abgebildet, automatisiert und in einem „Vertrag78 “ definiert.
[...]
1 Das Symbol der Wolke wird schon seit längerer Zeit für Netzwerk Diagramme benutzt. Es stellt eine „Black Box“ dar, in der nur die äußeren Schnittstellen bekannt sind. Die internen Abläufe und Bearbeitungsprozesse sind für die Nutzer aber nicht ersichtlich. Der Grad der Komplexität bleibt verborgen. Sinngemäß aus RHOTON,J (2009), S.8.
2 Vgl. SEMPERT, F.
3 Vgl. ERIKSDOTTER (2008)
4 Vgl. CLOUD COMPUTING JOURNAL (2008)
5 Zt. BAUN, C. ET AL. (2010), S.4
6 Das häufig genannte Merkmal der Virtualisierung wird wegen seiner technischen Komplexität im Kapitel „Basistechnologien“ ausführlicher dargestellt.
7 Vgl. GROHMANN, W. (2007), S.18
8 Vgl. RHOTON, J. (2009), S.9
9 Vgl. GÜNTHER, L. (2010), S. 237
10 Vgl. ZEITLER, N. [A] (2008)
11 „Übertragen auf verteilte Architekturen bedeutet der Begriff der Skalierbarkeit die Möglich- keit, ein System im laufenden Betrieb zu erweitern, auszubauen beziehungsweise unter Um- ständen auch zu verkleinern, also zu skalieren. Vgl. MELZER, I. ET AL (2010), S.174ff. aus [You96]:“The ability to retain performance levels when adding additional processor“.
12 IT-Ressourcen = Alle Formen von Hard-, Software eines Unternehmens.
13 Vgl. BITKOM-LEITFADEN (2010), S.50
14 Vgl. RHOTON, J. (2009), S.9
15 Beispiel: Die Washington Post nutzte 200 EC2 Einheiten (1.407 Stunden Serverleistung) um 17.481 Seiten von Hillary Clinton`s Terminplan für die Online-Ausgabe zu digitalisieren. Hierfür wurden nur 9 Stunden Arbeitszeit benötigt. Vgl. [online], Washington Post Case Study: Amazon Web Services URL:www.aws.amazon.com/solutions/case-studies/washington-post/. In ARMBRUST, M. ET AL. (2009), S.7
16 Vgl. MICROSOFT - CASE STUDIES (2009)
17 Überlastung = zu hohe Kosten; Unterauslastung = mangelnde Leistungsfähigkeit
18 Vgl. GÜNTHER, L. (2010), S. 238
19 Vgl. CLOUDUSER - EXPERT, [C]
20 Vgl. GÜNTHER, L. (2010), S. 238
21 Vgl. RHOTON, J. (2009), S.9
22 Vgl. RHOTON, J. (2009), S.9
23 Vgl. GÜNTHER, L. (2010), S. 237
24 Vgl. HERMANN, W. (2009)
25 Vgl. SIRTL, H. (2010), S.311
26 Vgl. HERRMANN, W. (2009), S.14
27 Vgl. SCHULTE, W. (2009) S. 31
28 Vgl. BITKOM-LEITFADEN (2010), S.66
29 Vgl. SEMPERT; F.
30 Vgl. CLOUDUSER EXPERT
31 Vgl. COMPUTERWOCHE (2009)
32 Vgl. GREEN IT
33 Vgl. BITKOM-LEITFADEN (2010), S.20ff.
34 Vgl. T-SYSTEMS, S.4
35 Vgl. FÖCKELER, C. (2009), S.31. i. V. m. ITWissen
36 Vgl. BITKOM-LEITFADEN (2010), S.25ff.
37 Vgl. GROHMANN, W. (2007), S.18
38 Vgl. CLOUDUSER - EXPERT [B]
39 Vgl. SPITH, E. (2009), S.16
40 Unternehmen der New Economy konnten die erwarteten Gewinnprognosen nicht erfüllen. Nachdem im Jahr 2000 die ersten Unternehmen Zahlungsunfähigkeit anmeldeten, entwickelte sich an der Börse eine Sogwirkung, die die Kurse weltweit zum einstürzen ließ. Vgl. FRENTZ,
C. VON. (2010)
41 Vgl. GROHMANN, W. (2007), S.7ff.
42 Vgl. SANDER, P. (2009)
43 Vgl. SPITH, E. (2009), S.16
44 Hochleistungsrechner mit extrem hoher Verarbeitungsleistung. Durch das Array von Prozes- soren verfügt er über eine erhöhte Arbeitsgeschwindigkeit. Vgl. CLOUDUSER - EXPERT [A].
45 Vgl. KÖHLER-SCHULTE (2009), S.155ff.
46 SETI = SEARCH for Extraterrestrial Intelligence @Home project. Hierbei stellen die Teilneh- mer ihre ungenutzten Rechnerressourcen zur Verfügung, um tausende von Stunden an aufge- zeichneten Radiodaten nach Außerirdischen Tonspuren zu durchsuchen. VELTE, A. T. (2010) , S.8
47 Vgl. VELTE, A. T. (2010) , S.8 i. V. m. WEINHARDT, C. ET AL. (2009), S.454
48 Vgl. KUNZE, M. (2010), S.66
49 Vgl. CLOUDUSER - EXPERT, [C]
50 Vgl. SCHULTE, W. (2009)
51 Vgl. CARR, N. (2009), S.73 ff.
52 Vgl. HERMANN, W. (2008)
53 Vgl. ARMBRUST, M ET AL. (2009), S.5
54 Facebook.com wurde im Februar 2004 gegründet und ist ein kostenfreies soziales Netzwerk, auf dem sich Menschen aus der ganzen Welt miteinander vernetzen können. Hierdurch wird ein globaler Informationsaustausch angeregt. [www.facebook.com]
55 Youtube.com wurde im Februar 2005 gegründet und ist die weltweit größte Online-Video- Community. Hier können die Nutzer beliebig viele Videos hochladen und bewerten. [www.Youtube.com]
56 Mit Hilfe von Google Maps-API kann Google Maps mittels JavaScript auf die eigene Website eingebettet werden. Google Maps ist eine interaktive Karte, die zusätzliche Optionen und Infor- mationen bietet.
57 So wurden die Grafiken dieser Diplomarbeit mit Hilfe von www.pixlr.com erstellt. Hier wird ein vollständiges und leistungsstarkes Grafikprogramm als kostenlose Anwendung über das Internet bereit gestellt.
58 Vgl. T-SYTEMS, S.4.
59 Google-Trend [http://google.de/trends?q=Cloud+Computing], Abruf: 12.08.2010
60 Vgl. IGEL TECHNOLGIE (2010). S.3 aus [http://it.umsicht.fraunhofer.de/TCecology]
61 Vgl. IGEL TECHNOLOGIE, S.2, aus http://it.umsicht.fraunhofer.de/TCecology
62 Vgl. KRETSCHMER, B. (2010), S.92ff.
63 Für rechenaufwendige Anwendungen muss diese Technik aber noch weiter entwickelt werden, da es durch die kabellose Übertragung im Mobilfunk zu Übertragungsstörungen kommen kann. Vgl. HILL, J. (2010), S.14
64 Vgl. CARR, N. (2010)
65 Vgl. CHRISTMANN, C. ET AL. (2010), S.9
66 Der Tier-Level gilt als ein Standard für die Leistung eines RZ. Er drückt die Verfügbarkeit
eines RZ aus. Es lassen sich vier verschiedene Levels unterscheiden. Level I = Verfügbarkeit 99,671%; Level II= Verfügbarkeit 99,741%; Level III = Verfügbarkeit 99,982%; Level IV = Verfügbarkeit = 99,995%. Aus CHRISTMANN, C. ET AL. (2010), S.9
67 Vgl. SPIETH, E. (2009) S.21ff.
68 SSL = Secure Socket Layer. Sichere Datenübertragung mittels Verschlüsselungsprotokolls.
69 Systeme die Angriffe erkennen können.
70 Vgl. GROHMANN, W. (2007), S.20ff.
71 Vgl. BAUN, C. ET AL. (2010), S.16
72 Z.B. Über BPEL (WS-Business Process Execution Language).
73 Zt. BAUN, C. ET AL. (2010), S.4
74 Intransparente Softwareentwicklung. Software kann sich im Laufe ihrer Entwicklungszeit im- mer weiter aufblähen. Verschiedene Entwickler benutzen zum Teil ihren eigenen Stil. So wird die Software immer komplexer und Wartungen sind schwerer realisierbar. Vgl. DEWAL, S. (2010), S.80
75 Vgl. DEWAL, S. (2010), S.80
76 Vgl. MELZER, I. ET AL. (2010), S.9
77 Vgl. MELZER, I. ET AL. (2010), S.14
78 Schnittstelle, diese wird zwischen den Elementen des Dienstanbieters und dem Dienstnutzer definiert. Vgl. ASSMANN, M. (2010), S.100