Ein wichtiger IT-Trend der vergangenen und wohl auch der kommenden Jahre ist Cloud-Computing. Nach einer Umfrage des BITKOM in der ITK-Branche, belegt Cloud-Computing zum dritten Mal in Folge den Spritzenplatz der wichtigsten Technologie- und Markttrends. Der Umsatz alleine in Deutschland beträgt im Jahr 2012 5,3 Milliarden Euro. Dies stellt gegenüber dem Vorjahr eine Steigerung um 47 % dar. Bis 2016 soll der Markt vorrausichtlich auf 17 Milliarden Euro wachsen.
Obwohl Cloud-Computing offensichtlich ein wichtiges und viel diskutiertes Thema darstellt, gibt es hiervon viele Interpretationen und Definitionen. Zudem steigen das Angebot und die Vielfalt der Cloud-Computing-Lösungen stetig an. Aufgrund des großen Interesses an diesem Thema, sowohl auf Anbieter- als auch auf Nutzerseite, stellt sich auch für Universitäten die Frage, welche Einsatz-möglichkeiten sich daraus ergeben.
Im Universitätsalltag arbeiten Mitarbeiter und Studenten häufig zusammen. Dabei werden zahlrei-che Dokumente bearbeitet und ausgetauscht. Welche Cloud Lösungen und -Produkte können die Studenten und Mitarbeiter hierbei unterstützen? Zudem betreiben Universitäten eine größere IT-Infrastruktur. Welche Möglichkeiten bietet Cloud-Computing, den Nutzern und Betreibern einer solchen IT-Infrastruktur?
Das Ziel dieser Arbeit ist es, bekannte und verbreitete Kollaborationslösungen in der Public Cloud und Softwareplattformen für die Private Cloud zu diskutieren. Darüber hinaus sollen die Chancen und Risiken für Universitäten im Kontext von Cloud-Computing untersucht werden.
Inhaltsverzeichnis
1. Einleitung
2. Cloud-Computing
2.1 Begriffsdefinition
2.2 Abgrenzung
3. Grundlagen
3.1 Techniken
3.1.1 Serviceorientierte Architektur (SOA)
3.1.2 Web-Services
3.1.3 Virtualisierung
3.2 Dienstverträge
3.2.1 Datenschutz
3.2.2 Sicherheit
3.2.3 Verträge und Service Level Agreements (SLAs)
3.2.4 Kosten
3.3 Betriebsmodelle
3.3.1 Private Cloud
3.3.2 Public Cloud
3.3.3 Community Cloud
3.3.4 Hybrid Cloud
3.4 Dienstklassen
3.4.1 Software as a Service – SaaS
3.4.2 Platform as a Service – PaaS
3.4.3 Infrastructure as a Service – IaaS
4. Kollaboration in der Public Cloud
4.1 Dropbox
4.1.1 Funktionen und Möglichkeiten
4.1.2 Sicherheit
4.2 Google Apps
4.2.1 Funktionen und Möglichkeiten
4.2.1.1 Kollaboratives Arbeiten
4.2.2 Sicherheit
4.3 Microsoft Office
4.3.1 Funktionen und Möglichkeiten
4.3.1.1 Kollaboratives Arbeiten
4.3.2 Sicherheit
5. Softwareplattformen für Private Clouds
5.1 VMware
5.1.1 VMware vSphere
5.1.2 VMware vCenter Server
5.1.3 VMware vCloud Director
5.1.4 VMware View
5.1.5 Weitere Plattformen
5.2 Microsoft Private Cloud
5.2.1 Microsoft System Center
5.3 Eucalyptus
6. Chancen und Risiken für Universitäten
7. Zusammenfassende Diskussion
Literaturverzeichnis
1. Einleitung
Ein wichtiger IT-Trend der vergangenen und wohl auch der kommenden Jahre ist Cloud-Computing. Nach einer Umfrage des BITKOM in der ITK-Branche, belegt Cloud-Computing zum dritten Mal in Folge den Spritzenplatz der wichtigsten Technologie- und Markttrends. Der Umsatz alleine in Deutschland beträgt im Jahr 2012 5,3 Milliarden Euro. Dies stellt gegenüber dem Vorjahr eine Steigerung um 47 % dar. Bis 2016 soll der Markt vorrausichtlich auf 17 Milliarden Euro wachsen [1] [2].
Obwohl Cloud-Computing offensichtlich ein wichtiges und viel diskutiertes Thema darstellt, gibt es hiervon viele Interpretationen und Definitionen. Zudem steigen das Angebot und die Vielfalt der Cloud-Computing-Lösungen stetig an. Aufgrund des großen Interesses an diesem Thema, sowohl auf Anbieter- als auch auf Nutzerseite, stellt sich auch für Universitäten die Frage, welche Einsatzmöglichkeiten sich daraus ergeben.
Im Universitätsalltag arbeiten Mitarbeiter und Studenten häufig zusammen. Dabei werden zahlreiche Dokumente bearbeitet und ausgetauscht. Welche Cloud Lösungen und -Produkte können die Studenten und Mitarbeiter hierbei unterstützen? Zudem betreiben Universitäten eine größere IT-Infrastruktur. Welche Möglichkeiten bietet Cloud-Computing, den Nutzern und Betreibern einer solchen IT-Infrastruktur?
Das Ziel dieser Arbeit ist es, bekannte und verbreitete Kollaborationslösungen in der Public Cloud und Softwareplattformen für die Private Cloud zu diskutieren. Darüber hinaus sollen die Chancen und Risiken für Universitäten im Kontext von Cloud-Computing untersucht werden.
In Kapitel 2 wird der Begriff Cloud-Computing für ein einheitliches Verständnis definiert und abgegrenzt. Kapitel 3 stellt anschließend die nötigen Grundlagen vor. Diese werden für ein besseres Verständnis der nachfolgenden Kapitel benötigt. Zu den Grundlagen gehören sowohl technische als auch rechtliche Aspekte des Cloud-Computings. Ebenso wird das Thema Sicherheit behandelt. In Kapitel 4 werden die Produkte Dropbox, Google Apps und Office 365 diskutiert. Dabei werden sowohl Funktionen und Möglichkeiten als auch Sicherheitsaspekte erörtert. Der Fokus liegt auf dem Austausch von Dokumenten und den kollaborativen Möglichkeiten. Im Anschluss daran werden in Kapitel 5 Softwareplattformen für den Betrieb einer Private Cloud untersucht. Der Fokus liegt hier auf den Produkten und Lösungen von VMware. Ferner werden Produkte von Microsoft und die Open-Source-Software Eucalyptus untersucht. In Kapitel 6 werden die Chancen und Risiken von Cloud-Computing für Universitäten diskutiert. Weiterhin werden bereits bestehende Cloud-Computing-Projekte an anderen Universitäten untersucht und in die Diskussion mit einbezogen. Schließen wird diese Abhandlung in Kapitel 7 mit einer zusammenfassenden Diskussion.
2. Cloud-Computing
2.1 Begriffsdefinition
Für den Begriff Cloud-Computing konnte sich bisher keine allgemeingültige Definition durchsetzen. Dies liegt darin begründet, dass ein starkes Wachstum von Cloud-Diensten stattfindet und somit eine große Anzahl von Anbietern auf diesen Markt drängt. Die Produktvielfalt und die Verwendung des Wortes Cloud in der Produktbezeichnung führen zu unterschiedlichen Auslegungen und Interpretationen dieses Begriffes. Das Cloud Computing Journal veröffentlichte hierzu 2009 einen Artikel mit 21 Expertendefinitionen [3]. In vielen Definitionen werden aber nur einzelne Aspekte des Cloud-Computings beschrieben. Analysiert man jedoch die verschiedenen Begriffsdefinitionen, so ergibt sich zusammenfassend ein kohärentes Bild, welches sich in der häufig verwendeten Definition des NIST (National Institute of Standards and Technology) wieder findet [4]. Diese Definition findet zunehmend Akzeptanz. Hierbei werden die verschiedenen Eigenschaften von Cloud-Systemen bestimmt und charakterisiert:
„Cloud computing is a model for enabling ubiquitous, convenient, on-demand network access to a shared pool of configurable computing resources (e.g., networks, servers, storage, applications, and services) that can be rapidly provisioned and released with minimal management effort or service provider interaction. This cloud model is composed of five essential characteristics , three service models, and four deployment models“ [4].
Weiterhin beschreibt das NIST die fünf wesentlichen Charakteristika seines Cloud-Modells, welche im Folgenden übersetzt und gekürzt wieder gegeben werden:
1. Diensterbringung nach Anforderung: Der Nutzer kann selbstständig automatisierte Dienste und Ressourcen[1] anfordern. Dieses verlangt keine manuellen Eingriffe auf der Anbieterseite.
2. Netzwerkbasierter Zugang: Angebot und Nutzung erfolgen netzwerkbasiert unter Verwendung von Standardtechnologien.
3. Ressourcen-Pooling: Um eine parallele und dynamische Zuteilung von Ressourcen zu ermöglichen, werden diese in Pools zusammengefasst und können nach Bedarf bereitgestellt werden.
4. Schnelle Elastizität: Dienste und Ressourcen können kurzfristig nach Bedarf des Nutzers dynamisch zur Verfügung gestellt werden. Aus Sicht des Nutzers erscheinen die Ressourcen des Anbieters häufig als unerschöpflich.
5. Messbare Dienstqualität: Cloud-Systeme bieten Mess- und Monitoringfunktionen, um die Ressourcennutzung messen und überwachen zu können. Zusätzlich wird so eine optimierte Ressourcennutzung ermöglicht.
Ergänzt werden die fünf Charakteristika des Cloud-Modells zum einen durch die Einführung von Betriebsmodellen (Deployment Models): Private Cloud, Public Cloud, Hybrid Cloud und Community Cloud. Zum anderen werden folgende Dienstklassen (Service Models) unterschieden: Infrastructure as a Service (IaaS), Platform as a Service (PaaS) und Software as a Service (SaaS). Die Betriebsmodelle werden in Kapitel 3.3 und die Dienstklassen in Kapitel 3.4 näher beschrieben.
2.2 Abgrenzung
Die Verwendung und Bedeutung des Begriffes Cloud-Computing ist oftmals noch unscharf. Dies führt dazu, dass insbesondere etablierten Begriffe wie IT-Outsourcing und Grid-Computing nicht ausreichend von Cloud-Computing unterschieden werden.
Grid-Computing vs. Cloud-Computing:
Sowohl Cloud-Computing als auch Grid-Computing ermöglichen die ortsunabhängige Nutzung von verteilten Ressourcen über ein Netzwerk. Hierbei gibt es beim Cloud-Computing eine zentrale Kontrollinstanz, während das Grid-Computing dezentral organisiert ist. Ein weiterer Unterschied liegt darin, dass Grid-Computing vorzugsweise in wissenschaftlichen Bereichen eingesetzt und entwickelt wird, Cloud-Anwendungen hingegen in der Regel durch Unternehmen mit wirtschaftlichem Interesse entwickelt und angeboten werden. Aufgrund der verschiedenen Einsatzbereiche gibt es damit verbunden auch Unterschiede bei der Benutzerfreundlichkeit, den Benutzerschnittstellen und dem Geschäftsmodell. Eine ausführliche Diskussion findet sich in [5].
IT-Outsourcing vs. Grid-Computing:
In beiden Dienstleistungsformen geht es darum, Ressourcen von externen Dienstleistern zu nutzen oder dorthin auszulagern. Das klassische IT-Outsourcing hält die Ressourcen entweder beim Anbieter selbst oder beim Kunden vor. Dies gleicht im Allgemeinen dem Betriebsmodell des Cloud-Computings. Jedoch sieht das IT-Outsourcing für den Kunden eine exklusive Nutzung der Ressourcen vor. In der Regel werden hierbei die Verträge über längere Laufzeiten abgeschlossen. Cloud-Computing hingegen bietet die Möglichkeit, Ressourcen auch spontan, dynamisch und automatisiert bei Bedarf zu nutzen, sogar eine einmalige Nutzung wäre möglich. Zudem besteht bei vielen Anbietern die Option, die Dienste selbstständig zu steuern und zu administrieren. Ein weiterer Unterschied liegt in der wirtschaftlicheren Nutzung der Ressourcen. Falls möglich, soll die Cloud-Infrastruktur von mehreren Usern gemeinsam genutzt werden. Dieses ermöglicht eine bessere Auslastung der Systeme und versursacht somit niedrigere Kosten. Eine weiterführende Diskussion findet sich in [6].
3. Grundlagen
In diesem Kapitel werden die Grundlagen beschrieben, welche für die nachfolgenden Kapitel relevant sind. In Grundzügen orientieren sich die Grundlagen an folgenden Büchern: Cloud-Computing: Praxisratgeber und Einstiegsstrategien [7] und Cloud-Computing: Web-basierte dynamische IT-Services [8]. Darüber hinaus werden wichtige Punkte behandelt, um einen besseren Einstieg in die nachfolgenden Kapitel zu ermöglichen.
3.1 Techniken
Serviceorientierte Architekturen (SOA), Web-Services und Virtualisierung gelten als technische Grundlagen für Cloud-Computing. In diesem Kapitel werden diese Techniken kurz vorgestellt.
3.1.1 Serviceorientierte Architektur (SOA)
Es handelt sich bei SOA um einen Architekturstil der Informationstechnik, dieser definiert das Anbieten und Nutzen von Diensten. Die Grundidee ist eine lose Kopplung einzelner Dienste, diese können sowohl von Benutzern als auch von anderen Diensten genutzt werden. Hierbei orientiert man sich häufig direkt an den Geschäftsprozessen, indem diese autonom, isoliert und entkoppelt auf einzelne Dienste abgebildet werden. Komplexere Geschäftsprozesse verlangen häufig eine Orchestrierung mehrerer autonomer Dienste. Hierdurch wird ein hoher Grad an Flexibilität und Wiederverwendbarkeit erreicht. Ferner ermöglicht die lose Kopplung der Dienste mit definierten Schnittstellen eine plattform- und sprachunabhängige Nutzung.
3.1.2 Web-Services
Damit Interoperabilität in der verteilten und heterogenen Cloud-Systemlandschaft gewährleistet werden kann, benötigt man hierfür eine plattformunabhängige Möglichkeit, um Informationen und Daten auszutauschen. An dieser Stelle verwendet man häufig eine nachrichtenorientierte Kommunikation über Web-Services, welche durch den Austausch von XML-Dokumenten kommunizieren. Das World Wide Web Consortium (W3C) definiert einen Web-Service wie folgt: „A Web service is a software system identified by a URI [RFC 2396], whose public interfaces and bindings are defined and described using XML. Its definition can be discovered by other software systems. These systems may then interact with the Web service in a manner prescribed by its definition, using XML based messages conveyed by Internet protocols“ [9] .
Um Interoperabilität zu gewährleisten, verwendet man die folgenden auf XML basierenden Standards: zum Nachrichtenaustausch das Simple Object Access Protocol[2] (SOAP) und die Web Services Description Language (WSDL) zur Dienst- und Schnittstellenbeschreibung.
Ein alternativer weit verbreiteter Ansatz ist die zustandslose Kommunikation über REST (Representational State Transfer). Der Begriff REST wurde in der Dissertation von Roy Fielding erstmals erwähnt und geprägt [10]. Bei REST handelt es sich um einen Architekturstil mit einer an HTTP angelehnten Semantik. Die Ressourcen können über URIs eindeutig adressiert und angesprochen werden. In der Regel verwendet man hierfür die Operationen: GET, POST, PUT, DELETE und HEAD. Sowohl REST als auch Web-Services nutzen im Kontext von Cloud-Computing als Trägerprotokoll üblicherweise HTTP. Während Web-Services für den Aufruf von Funktionen in verteilten Systemen konzipiert wurden, stehen bei REST der Zugriff und die Manipulation von Ressourcen im Vordergrund. Die zustandslose Kommunikation bei REST-konformen Anwendungen ermöglicht eine gute Skalierbarkeit ( [10], Kapitel 5.1.3). Trotz der konzeptionell unterschiedlichen Basiskonzepte werden beide Techniken von einem großen Teil der Cloud-Anbieter für den Informationsaustausch angeboten.
3.1.3 Virtualisierung
Für viele Cloud-Architekturen bietet die Virtualisierung eine wichtige Grundlage. Hierbei lassen sich die physischen Ressourcen Server, Datenspeicher und Netzwerke in Pools zusammenfassen und verwalten. Mit diesen Ressourcen lassen sich bei Bedarf virtuelle Maschinen erstellen. Hierdurch kann eine bessere Auslastung der Ressourcen erreicht werden. Dies führt zu einem niedrigeren Energie- und Platzverbrauch in den Rechenzentren. Zudem können virtuelle Maschinen zwischen Ressourcenpools verschoben werden. Dadurch wird eine bessere Verfügbarkeit erreicht. Die Virtualisierungsebene bietet zudem eine Isolierung der virtuellen Maschinen und somit die Basis für eine Multi-Mandanten-Architektur (Multi-Tenancy-Architektur). Bei der Virtualisierung werden folgende Konzepte unterschieden:
Betriebssystemvirtualisierung: Diese Form der Virtualisierung wird auch als Partitionierung, Container oder Jails bezeichnet. Mehrere identische Laufzeit- oder Systemumgebungen laufen hierbei voneinander abgeschottet auf einem Host-Betriebssystem. Alle Anwendungen innerhalb dieser Umgebungen nutzen den gleichen Betriebssystemkern. Dadurch können keine unterschiedlichen Betriebssysteme verwendet werden.
Plattformvirtualisierung: Diese erlaubt die Nutzung beliebiger Betriebssysteme. Zwischen den virtuellen Maschinen und der Hardware liegt ein Metabetriebssystem, der Hypervisor. Hierbei gibt es zwei Modelle, vollständige- und Para-Virtualisierung. Bei der vollständigen Virtualisierung wird ein kompletter virtualisierter Rechner simuliert. Der Zugriff auf Prozessor und Hauptspeicher wird direkt an die physischen Komponenten durchgereicht. Dadurch wird eine hohe Verarbeitungsgeschwindigkeit erreicht. Laufwerke und Netzwerkkarten werden hingegen emuliert. Dadurch können unveränderte Gast-Betriebssysteme verwendet werden. Das Gast-Betriebssystem der Para-Virtualisierung nutzt anstelle der emulierten Hardware eine Anwendungsschnittstelle. Die Gast-Betriebssysteme müssen entsprechend modifiziert werden, um alle Hardwarezugriffe durch den Aufruf der Schnittstelle ersetzen zu können. Im Vergleich zur vollständigen Virtualisierung werden dadurch höhere I/O-Durchsatzraten erreicht.
Speichervirtualisierung: Bei der Speichervirtualisierung wird der physische Speicher in Pools zusammengefasst. Dadurch kann der Speicher dynamisch und skalierbar als Speicherdienst angeboten werden. Oftmals werden die Datenspeicher in Speicherhierarchien organisiert (Tier-Konzept). Hierbei werden die Speicher nach Verfügbarkeit und Bandbreite klassifiziert.
Netzwerkvirtualisierung: Netzwerkressourcen werden hierbei zu logischen Einheiten zusammengefasst. Dienste lassen sich damit über eine virtuelle IP-Adresse erreichen. Darüber hinaus können mit dieser Technik Lastausgleich (Load-Balancing), automatische Ausfallbehandlung (Failover), virtuelle lokale Netzwerke (VLAN) und virtuelle Switches realisiert werden.
Anwendungsvirtualisierung: Die Anwendungsvirtualisierung erlaubt die zentrale Verwaltung und Bereitstellung von Anwendungen über ein Netzwerk. Die Anwendungen laufen in einer virtuellen Umgebung und müssen daher nicht lokal installiert werden. Hierbei wird die Anwendung entweder über ein Streaming-Protokoll zum Anwender transportiert (Hostet Application) oder heruntergeladen und auf einem lokalen Rechner betrieben (Virtual Appliance).
3.2 Dienstverträge
Dieses Kapitel stellt eine erste grundlegende Annäherung an die Themen Datenschutz, Sicherheit, Service Level Agreements und Kosten dar. Die nachfolgenden Kapitel dieser Arbeit knüpfen an diese Basis an und erweitern bzw. konkretisieren diese Themen entsprechend. Da dieses Kapitel nur eine erste allgemeine Übersicht über die Themen gibt, empfiehlt es sich im konkreten Fall einer Nutzung von Cloud-Dienstleistungen die einzelnen Aspekte situativ und in vollem Umfang zu betrachten. Dies sollte in der Regel mit Hilfe einer rechtlichen Unterstützung erfolgen.
3.2.1 Datenschutz
Die folgende datenschutzrechtliche Betrachtung des Cloud-Computings orientiert sich an der Orientierungshilfe – Cloud-Computing [11]. Das Europäische Parlament hat hierzu 1995 die Richtlinie 95/46/EG veröffentlicht [12]. Diese soll sicherstellen, dass alle Mitgliedsstaaten in Bezug auf den Datenschutz ein ähnliches Rechtssystem haben. Die Richtlinien des Europäischen Parlaments werden dann von den jeweiligen Mitgliedsstaaten entsprechend umgesetzt. In Deutschland kommt hierbei das Bundesdatenschutzgesetz (BDSG) zur Geltung [13].
Das Bundesdatenschutzrecht kommt zur Anwendung bei der Erhebung, Verarbeitung und Nutzung personenbezogener Daten. Diese können beispielsweise von Mitarbeitern des Cloud-Nutzers stammen, sowie von Lieferanten oder Kunden. Falls es dem Nutzer des Cloud-Dienstes nicht gelingt, die personenbezogenen Daten durch Anonymisierung oder Verschlüsselung hinreichend zu schützen, dürfen diese Daten nur bei Einwilligung der Betroffenen oder bei Sicherstellung aller Datenschutzanforderungen gemäß BDSG verwendet werden. In der Regel handelt es sich bei der Beauftragung eines Cloud-Anbieters durch einen Cloud-Nutzer um eine Auftragsdatenverarbeitung nach § 11 des Bundesdatenschutzgesetzes. „Erhebung, Verarbeitung oder Nutzung personenbezogener Daten im Auftrag (1) Werden personenbezogene Daten im Auftrag durch andere Stellen erhoben, verarbeitet oder genutzt, ist der Auftraggeber für die Einhaltung der Vorschriften dieses Gesetzes und anderer Vorschriften über den Datenschutz verantwortlich. […] (2) Der Auftragnehmer ist unter besonderer Berücksichtigung der Eignung der von ihm getroffenen technischen und organisatorischen Maßnahmen sorgfältig auszuwählen. […]“ ( [13], § 11). Weiterhin muss eine schriftliche Vereinbarung mit einem bestimmten Mindestgehalt getroffen werden, so dass auch der Cloud-Anbieter eine entsprechende Pflicht besitzt, Datensicherheit zu gewährleisten. Der Cloud-Anwender bleibt aber weiterhin verantwortlich für den Datenschutz und muss entsprechende Maßnahmen treffen, damit die Anforderungen an den Datenschutz eingehalten werden. Der Cloud-Anwender darf sich hierbei nicht alleine auf Zusicherungen des Anbieters verlassen und muss selbst hinreichende Prüfungen vornehmen. Dies wird regelmäßig nur eingeschränkt möglich sein. Eine zusätzliche Unterstützung könnte hierbei eine unabhängige und anerkannte Zertifizierungsstelle für Datenschutz und Datensicherheit sein (vgl. Kapitel 3.2.2).
Findet die Datenverarbeitung außerhalb Deutschlands, aber innerhalb der Europäischen Union (EU) statt, so ergeben sich keine weiteren Besonderheiten aufgrund der datenschutzrechtlichen Anforderung nach der Richtlinie 95/46/EG. Erfolgt eine Verbreitung außerhalb des Europäischen Raums, so müssen zusätzlich die Vorschriften zum Drittstaatentransfer eingehalten werden. Diese Anforderungen werden in §§ 4b, 4c BDSG geregelt. Letztlich trägt wieder der Cloud-Nutzer die volle Verantwortung. Auch hier müssen die genannten Vorgaben aus §11 BDSG eingehalten werden und das Datenschutzniveau des Landes, in dem der Cloud-Anbieter sitzt, muss europäischen Datenschutzstandards entsprechen. Es gilt: „Falls in dem Drittstaat kein angemessenes Datenschutzniveau besteht, müssen daher durch den Cloud-Anwender als verantwortliche Stelle ausreichende Garantien zum Schutz des allgemeinen Persönlichkeitsrechts und der Ausübung der damit verbundenen Rechte vorgewiesen werden.“ ( [11], S. 10)
Sitzt der Cloud-Anbieter oder Unteranbieter in den USA, hat dieser die Möglichkeit, sich freiwillig zur Einhaltung der Safe-Harbor-Grundsätze zu verpflichten. Hierbei handelt es sich um eine Vereinbarung zum Datenschutz zwischen der EU und den USA. Diese soll es ermöglichen, personenbezogene Daten sicher in die USA zu übermitteln. Schwierigkeiten ergeben sich hierbei allerdings bei der flächendeckenden Kontrolle der Selbstzertifizierungen durch die Kontrollbehörden in Europa. Dies führt dazu, dass der Cloud-Anwender wieder die Verantwortung trägt und hier zusätzliche Sicherheiten durch schriftliche Vereinbarungen sicherstellen muss.
Eine weitere Herausforderung zur Einhaltung des Datenschutzes stellen spezielle landesspezifische gesetzliche Regelungen dar, wie z.B. der Patriot Act. Hierbei handelt es sich um ein amerikanisches Bundesgesetz, welches amerikanischen Behörden unter bestimmten Umständen den Zugriff auf in Clouds gespeicherte Daten ermöglicht. Betroffen sind nicht nur in den USA ansässige Cloud-Anbieter, sondern eine sonstige Konzernverbindung in die USA reicht hierzu aus. Somit können auch europäische Unternehmen zur Herausgabe personenbezogener Daten verpflichtet werden, wenn beispielsweise der Mutterkonzern in den USA sitzt [14].
Die Regelungen der Datenschutzgesetze sind wie anfangs erwähnt nur bei personenbezogenen Daten anwendbar. Andere Daten wie z.B. Finanzdaten, Forschungsdaten oder weitere kritische Unternehmensdaten fallen nicht darunter. Diese Daten sind aber in der Regel genauso schutzwürdig. An dieser Stelle sind die Themen Sicherheit und SLAs von großer Bedeutung und werden daher in den folgenden beiden Kapiteln behandelt.
3.2.2 Sicherheit
Damit Cloud-Dienste auf sichere Weise sogar für sensible Daten genutzt werden können, müssen einige sicherheitsrelevante Anforderungen erfüllt werden. Hierzu hat das Frauenhofer-Institut für sichere Informationstechnologie im Jahr 2010 eine Studie veröffentlicht in der die Sicherheit der Cloud-Computing-Systeme mit traditionellen „On-Premise“ IT-Systemen verglichen wird [15].
Zunächst wird in der Studie der Begriff Informationssicherheit für ein einheitliches Verständnis definiert: „Informationssicherheit hat zum Ziel, die Generierung, Verarbeitung, Speicherung, Kommunikation und Vernichtung von Informationen so zu gestalten, dass die Vertraulichkeit, Verfügbarkeit und Integrität der Informationen und Systeme in ausreichendem Maße sichergestellt wird. Informationssicherheit bezeichnet in diesem Zusammenhang das Ziel, Systeme vor Gefahren bzw. Bedrohungen zu schützen, Schaden zu vermeiden und Risiken zu minimieren.“ ( [15] ,S. 4)
Anschließend betrachtet die Studie das Thema Sicherheit aus zwei unterschiedlichen Blickwinkeln. Zum einen gibt es die betriebswirtschaftliche und zum anderen eine technische Sicht. Aus der betriebswirtschaftlichen Sicht ist das Thema Sicherheit wirtschaftlich motiviert, mit dem Ziel der Kostensenkung, gesteigerter Innovationskraft oder Anpassung von Geschäftsprozessen. Die Cloud-Anbieter orientieren sich mit ihren Sicherheitsstandards in der Regel an Großkunden, hierdurch profitieren vor allem kleine und mittelgroße Unternehmen besonders von den hohen Sicherheitsstandards in der Cloud. Die hohen Sicherheitsanforderungen, welche an die Cloud-Anbieter gestellt werden, ermöglichen es sogar strategisch wichtige Geschäftsprozesse in der Cloud zu betreiben. Hierzu werden hohe Anforderungen an Performance und Verfügbarkeit gestellt, welche der Cloud-Anbieter mit gespiegelten, weltweit verteilten und skalierbaren Rechenzentren erfüllen kann. Für einzelne, insbesondere kleinere Unternehmen stellen diese Anforderungen oft zu hohe Kosten dar, um eine gleichwertige Infrastruktur bereitzustellen. Die anfallenden Kosten für den Cloud-Betreiber können aufgrund von Skaleneffekten auf alle Nutzer verteilt werden. In der Regel ergeben sich folgende Ausgaben für die Betreiber: Rechenzentrumssicherheit bestehend aus Gebäudeüberwachung, Zutrittskontrollen, Brandschutz, unterbrechungsfreier Stromversorgung, Klimatisierung und Notfallmanagement sowie Anschaffungs-, Administrations- und Instandhaltungskosten, Letztere in Form von Personalkosten. Hinzu kommen die Kosten für Datenspeicherung verbunden mit einem Backupmanagement und Kosten für die komplexe Sicherheitsarchitektur bestehend aus Firewalls, Sicherheitssoftware und Monitoringsystemen. Für all diese Leistungen ist der Cloud-Anbieter verantwortlich. Der Nutzer muss dafür nur die anfallenden Nutzungsgebühren tragen (siehe Kapitel 3.2.4).
Jedoch ergibt sich durch das Auslagern von wichtigen Geschäftsprozessen in die Cloud auch eine gewisse Abhängigkeit vom Cloud-Anbieter, häufig als „Vendor-Lock-in“ bezeichnet. Die Gefahr besteht darin, dass der Zugriff auf die Cloud-Dienste durch Störungen oder sogar durch einen Bankrott des Betreibers plötzlich nicht mehr möglich ist. Hierzu sollte vorab unbedingt darauf geachtet werden, dass eine gewisse Portabilität und Plattformunabhängigkeit gegeben ist, so dass die Daten und Anwendungen kurzfristig umgezogen werden können. Für diesen Fall stellen die Anbieter in der Regel entsprechende Schnittstellen bereit. Bei sehr großen Datenmengen kann es allerdings auch hier zu zeitlichen Engpässen kommen. In diesem Fall sollten die Daten gegebenenfalls vorab zu anderen Anbietern übertragen oder die Möglichkeit geprüft werden, ob die Daten auf Speichermedien über dem Postweg verschickt werden können. Hinzu kommt, dass der Anbieter eine zuverlässige Löschung der Daten sicherstellen muss; hierzu müssen die Daten, die in der Regel redundant vorgehalten werden, auf allen Speichermedien einschließlich der Backups gelöscht werden. Ein späteres Wiederherstellen der Daten darf in diesem Fall nicht mehr möglich sein. Aus Anwendersicht lässt sich dieser Vorgang in der Regel nicht überprüfen. Deswegen sollte der Cloud-Anwender darauf achten, dass es vertragliche Regelungen gibt, die sowohl den Zeitpunkt des Löschens als auch die Art und Weise festlegen, wie die Daten zuverlässig gelöscht werden müssen.
Laut der Studie des Fraunhofer-Instituts ergibt sich jedoch zusammenfassend, „dass die betriebswirtschaftliche Motivation zur Sicherung strategisch bedeutsamer Geschäftsprozesse unter Einsatz von Cloud-Services somit zu einem gesteigerten Sicherheitsgrad führt“ ( [15], S. 7).
Aus technischer Sicht gilt es die drei klassischen Schutzziele Vertraulichkeit, Integrität und Verfügbarkeit sicherzustellen, hinzu kommen noch Authentizität und Verbindlichkeit. Hierzu werden in der Studie zunächst unterschiedliche Bedrohungsklassen eingeführt: Spoofing (Maskierungsangriff), Tampering (Datenmanipulation), Informationsoffenlegung (Information Disclosure), Elevation of Privilege (Rechteerhöhung) und Repudiation (Bestreitbarkeit). Diese können in der Regel sowohl auf klassische IT-Systeme als auch auf Cloud-Computing-Systeme angewendet werden. Kleine und mittelständische Unternehmen verfügen häufig nicht über die technischen Maßnahmen wie Monitoring und revisionssichere Protokollierung ( [11], S. 22) um solche Bedrohungen abzuwehren und die Verletzung von Schutzzielen erkennbar zu machen. Größere Unternehmen haben hingegen den Nachteil, dass sie zwar über ein entsprechendes Instrumentarium verfügen, welches jedoch anwendungs- oder abteilungsspezifisch über das Unternehmen verteilt ist, sodass sie im Gegensatz zum Cloud-Anbieter keine integrierte Überwachung aufweisen. Ein weiterer Unterschied liegt in der Art und Weise, wie technische Vorkehrungen getroffen werden. Da die IT-Sicherheit in der Regel nicht Teil des Geschäftszwecks ist, werden Sicherheitsvorkehrungen häufig erst reaktiv getroffen. Bei Cloud-Anbietern ist Sicherheit jedoch Teil der Geschäftsstrategie und sollte somit zur Kernkompetenz gehören. Die Sicherheitsvorkehrungen werden daher bereits präventiv getroffen. Hinzu kommt, dass der Fokus bei traditionellen IT-Systemen häufig auf dem internen Netzwerk (Intranet) liegt und entsprechende Sicherheitsvorkehrungen dann auf lokaler Netzwerkebene vorgenommen werden. Bestandteil von Cloud-Architekturen hingegen ist es, Daten über das unsichere Internet auszutauschen, und somit bringen Cloud-Computing-Angebote a priori entsprechende Techniken mit, um eine sichere Datenübertragung zu ermöglichen. Falls man beispielsweise mit einem externen Partner in einem gemeinsamen Projekt zusammenarbeiten möchte, stellt es häufig ein Sicherheitsrisiko dar, wenn man die Prozesse auf internen Ressourcen abbildet und somit die Netzwerk- bzw. Sicherheitskonfiguration entsprechend anpassen muss. Würde man in diesem Fall auf die Dienstleistung eines Cloud-Anbieters zurückgreifen, könnte man dort gegebenenfalls entsprechende Sicherheitseinstellungen vornehmen, ohne die eigenen Sicherheitsrichtlinien zu kompromittieren.
[...]
[1] In diesem Kontext wird der Begriff Ressourcen synonym für Speicherplatz, Rechenzeit, Arbeitsspeicher und Netzwerkbandbreite verwendet.
[2] SOAP wird mittlerweile als eigenständiger Name und nicht mehr als Akronym verwendet. [167]
- Arbeit zitieren
- Kai Hencke (Autor:in), 2012, Cloud-Computing, München, GRIN Verlag, https://www.grin.com/document/215630