Virtualisierung. Chancen für eine dynamische IT


Seminararbeit, 2013

26 Seiten, Note: 1,0


Leseprobe


Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1 Einführung

2 Grundlagen der Virtualisierung
2.1 Definition
2.2 Historische Betrachtung
2.3 Prozessortheorie
2.4 Prinzip der Virtualisierung
2.5 Ansätze der Virtualisierung

3 Analytische Begutachtung der Virtualisierungstechnologien
3.1 Einsatzmöglichkeiten und Einsatzgebiete
3.2 Marktübersicht
3.3 Untersuchung der betriebswirtschaftlichen Effekte

4 Bewertung und Verbesserungsvorschläge
4.1 Stand der Entwicklung
4.2 Nutzerpotenzial der Virtualisierung
4.3 Problemfelder und Grenzen
4.4 Ableitung von Verbesserungsoptionen

5 Zusammenfassung und Ausblick

Literaturverzeichnis

Glossar

Abbildungsverzeichnis

Abbildung 1: Ring-Modell Quelle: http://arstechnica.com/security/2009/03/storm-over-intel-cpu-security-could- be-tempest-in-a-teapot/

Abbildung 2: Derzeitige Marktanteil der Virtualisierungshersteller 10 Quelle: http://www.idicos.de/Style%20Library/idicos/goVirtual/v1.swf

Tabellenverzeichnis

Tabelle 1: Rechenbeispiel Anschaffungskosten; konventionelle vs. virtualisierte Lösung Quelle: Scheiber, A. (2012), S.30

Tabelle 2: Rechenbeispiel Energieverbrauch, Quelle: Scheiber, A. (2012), S.32

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einführung

Die technologische Vergangenheit im Bereich der Informationstechnologie zeigt bereits einen außergewöhnlich schnelllebigen Fortschritt. Der Mensch kam öfter an die bestehenden Grenzen der Physik, der Informatik und seiner Möglichkeiten. Dabei gilt die Virtualisierung als alternative Lösung um die bestehenden Gesetzte zu umgehen. Das bereits seit 1960 existierende Prinzip der Virtualisierung entwickelte sich in kürzester Zeit zu einem der wichtigsten Schlagwörter für Skalierbarkeit, Wirtschaftlichkeit und Optimierung der Struktur. Besonders in Zeiten dynamischer globalisierter Geschäftsumgebungen ist eine Wettbewerbsfähigkeit unabdingbar für den Erfolg.1

Die Virtualisierung ist ein geeignetes Mittel in vielen Kernbereichen der IT, welches die Weiterentwicklung fördern kann. In der Literatur wird bereits von einer Revolution in der IT durch die Virtualisierung gesprochen.2 Sie wird daher das bestimmende Thema für eine moderne dynamische IT-Infrastruktur sein.

Ziel dieser Seminararbeit ist ein analytischer Blick auf die pluralistischen Virtualisierungstechnologien zu werfen und welche Rolle diese in einer heutigen ITStruktur einnimmt. Dabei soll aufgezeigt werden, ob eine Virtualisierungslösung augenblicklich nur ein kurzanhaltender Trend ist, und ob aktuelle Schwächen in der Infrastruktur, beispielsweise eines mittelständischen Unternehmens, konservativ oder durch Virtualisierung gelöst werden können.

Die Seminararbeit umfasst insgesamt fünf Kapitel. Im Grundlagenteil in Kapitel zwei wird die Definition, die technologische Basis, der historische Hintergrund, sowie das Prinzip der Virtualisierung beleuchtet. Das Kapitel drei fokussiert die Einsatzmöglichkeiten und -gebiete, Marktübersicht, Vor- und Nachteile und eine Untersuchung unter Berücksichtigung der wirtschaftlichen Ziele. Das Kapitel vier befasst sich mit einer Bewertung und weiterführenden Verbesserungsvorschlägen auf Grundlage des dritten Kapitels. Abschließend folgt in Kapitel fünf eine Zusammenfassung und ein Fazit der Seminararbeitsthese.

2 Grundlagen der Virtualisierung

2.1 Definition

Eine weitreichende Definition des Begriffs ist in der Informatik nicht möglich, da er in den vielschichtigen Anwendungsbereichen anders verstanden wird. Eine in der Fachliteratur deklarierte Definition ist wie folgt dargestellt: „Der Begriff Virtualisierung beschreibt eine Abstraktion von HW-Ressourcen hin zu einer virtuellen Maschine. Dabei wird die tatsächlich vorhandene HW so weit abstrahiert, dass sie zu einzelnen Anteilen zu virtuellen Maschinen zusammengefasst werden kann, die sich ihrerseits wie ein eigenständiger Computer verhalten und die in ihr ausgeführten Operationen auf die tatsächlich vorhandene HW abbilden.“3 Eine sehr visuelle Darstellung, projiziert auf den Alltag, veranschaulicht die simple Idee der Virtualisierung:

Betrachtet man eine ganz herkömmliche Waschmaschine und bestückt diese mit unterschiedlicher Kleidung. Weiße T-Shirts, bunte Socken, seidene Bettwäsche und ölverschmierte Blaumänner werden durcheinander in die Luke der Waschmaschine hineingelegt. Von außen nicht zu erkennen drehen im Inneren scheinbar verschiedene Trommeln, eine für jede Wäscheart und jede gerade so bemessen, dass sie ihre Charge bequem aufnehmen könnte. Die unterschiedlichen (virtuellen) Trommeln hielten die weißen T-Shirts von den bunten Socken fern und würden verhindern, dass die einzelnen Kleidungsstücke durch das Kochwaschprogramm einlaufen.4

Die Virtualisierung ist nach der Definition in zwei Lösungen unterteilt. Einerseits können viele native HW-Systeme zu einem sehr leistungsfähigen virtuellen System verknüpft werden und andererseits können die gegebenen HW-Systeme in viele kleinere VM’s unterteilt werden. Diese kleinen virtuellen Instanzen können völlig autonom voneinander unterschiedlichste Aufgaben bearbeiten oder von verschiedenen Anwendern zum Arbeiten genutzt werden.5

2.2 Historische Betrachtung

Die Virtualisierung als neues Trendthema wurde erst zu Beginn des 21. Jahrhundert, besonders durch die weltgrößte Computermesse CeBit getragen, populär. Gemeinsam mit dem Schlagwort Green IT wurde von der IT-Branche ein neues technologisches Zeitalter eingeläutet, was hohe Effizienz, Kostenreduzierung und vereinfachte Administrierung versprach.6 Jedoch entstand die Grundidee bereits Ende der fünfziger Jahre. Christopher Strachey arbeitete an einer optimalen Ausnutzung der wertvollen Rechenzeit. Strachey’s erfand den Ansatz eines logischen Prozessors, auf der Applikationen wie auf einem physikalischen Prozessor ausgeführt werden können.7

Infolge solcher epochalen Erfindungen und die Vermarktung der ersten kommerziell erhältlichen Maschine, gab es erstmals die Aussicht auf Basis der Virtualisierung ein Mehrbenutzersystem zu schaffen.8 Hierfür wurde die vorhandene Prozessorzeit des verfügbaren Prozessors unterteilt und den Benutzern als sogenannte Timeslots zugewiesen. Der Prozessor konnte somit nach einem vordefinierten Plan die Aufgaben abarbeiten.

Es folgte der Schritt in den Massenmarkt durch die Veröffentlichung des Produktes VMware Workstation der Firma VMware im Jahre 1999. Damit konnte VMware bereits früh die dominierende Rolle einnehmen und bis heute behaupten.9 Gemessen am Erfolg des Produktes VMware Workstation entwickelten auch andere Hersteller weitgreifende Virtualisierunglösungen.

2.3 Prozessortheorie

Um das Verständnis der Virtualisierung zu verinnerlichen ist eine Betrachtung der Prozessorarchitektur erforderlich. Nach Gübeli et al. bilden Prozessoren, als die zentrale Recheneinheit, den Kern eines Computersystems. Sie lesen und verarbeiten die notwendigen Informationen einer Operation.10 Ähnlich dem OSI-Schichtenmodell arbeitet ein Prozessor beim Ausführen von Befehlen und Aktionen mit einem sog. Ring-Modell. Es beschreibt die hierarchische Beziehung bei der unterschiedlichen Kommunikation zwischen Computersystemen.11 Hierbei verwendet der Prozessor privilegierte und nicht privilegierte Bereiche, um die anstehenden Operationen zu verarbeiten. Mittels der Beziehung zwischen Applikationen, Betriebssystem und HW ist alles strikt hierarchisch geregelt. Folglich hat eine Applikation vorerst nur einen eingeschränkten Zugriff auf die HW-Ressourcen. Der Zugriff wird erst durch das Betriebssystem geregelt. Betrachtet man das Ring-Modell, wird zwischen vier Berechtigungsstufen unterschieden, wobei die Privilegierung vom inneren Kern zum äußeren Kern abnimmt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Ring-Modell

Wie anhand der Abbildung 1 zu sehen ist, besteht das Modell aus vier Ringen. Der innerste Ring, Ring 0, besitzt dabei den höchsten privilegierten Zugriff auf die Ressourcen. Man bezeichnet diese Stufe auch als Kernel-Mode. Das Betriebssystem arbeitet auf dem Ring 0 und verfügt so über den absoluten Zugriff auf die HW- Ressourcen wie Speicher, Netzwerk und Rechenkapazität.12 Ring 1 und 2 sind heute nicht mehr relevant und werden selten genutzt. Der äußerste Ring (3) ist die Applikationsstufe. Man spricht hier vom User-Mode.13 Sollte eine Anwendung eine Operation ausführen wollen, die außerhalb der im User-Mode verfügbaren Rechte und Ressourcen hinausgeht muss zuvor ein Systemaufruf, der sogenannte Syscall, durch die Anwendung initiieren werden. Der Syscall ist zuständig dafür, dass das Betriebssystem weiter die Kontrolle über das Rechnersystem beibehält, den Prozessor in den Kernel-Mode schaltet und die von der Anwendung geforderte Operation ausführt.14

2.4 Prinzip der Virtualisierung

In Bezug auf die Virtualisierung ist das Verständnis des Ring-Modells insofern notwendig, als dass das eigentliche Kernstück der Virtualisierung zum Bestandteil des Ring-Modells wird. Insofern muss eine weitere Schicht zwischen dem Betriebssystem und der HW platziert werden. Diese Virtualisierungsschicht stellt eine dünne Schicht an Code dar, welche sämtliche Befehle für die einzelnen, auf dieser Schicht aufsetzenden Betriebssysteme, abfängt, prüft und ggf. verändert, so dass die Befehle unter den Vorgaben der VM ausgeführt werden. Dieses Betriebssystem ist übergeordnet zu sehen und hat demnach privilegierte Kontrolle über die gesamten

HW-Ressourcen.15 Je nach Arbeitsweise wird diese Virtualisierungsschicht als Hypervisor oder Virtual Machine Monitor, kurz VMM, bezeichnet. Der Begriff des Hypervisors hat sich mittlerweile etabliert. Die Begrifflichkeit stammt aus dem Griechischen und Lateinischen. Dabei steht das griechische Wort hyper für über, während visor eine lateinische Ableitung des Wortes videre ist und so viel wie sehen bedeutet. Picht beschreibt diese Wortzusammensetzung folgendermaßen. „Dieses zweideutige Wort ist hier nicht als ü bersehen im Sinne von nicht sehen gemeint, sondern im Sinne von die Aufsichtüber etwas haben bzw. etwas zuüberwachen, zuüberblicken.“16

Es beschreibt schon sehr genau das Aufgabenspektrum dieser Abstraktionsschicht. Der Hypervisor als eigenständiges Betriebssystem wird in Ring 0 platziert und hat somit einen totalen Zugriff auf die Ressourcen. Die sonstigen Betriebssysteme laufen als virtuelle Gastsysteme in höher befindlichen Ringen.17 Bei diesen Gastsystemen spricht man von virtuellen Maschinen (VM). Durch die beschriebene Verlagerung des Hypervisors in den Ring 0 ist es nun möglich beliebig viele weitere Betriebssysteminstanzen auf höheren Ringen zu betreiben. Die HW-Ressourcen bilden hierbei die Limitierung für die Anzahl der VM’s. Nach Larisch liegt der Nutzen einer solchen Lösung in besonders in guten Performancewerten und einer nachhaltigen Minimierung der Gesamtbetriebskosten der Rechenzentrumsinfrastruktur.18

2.5 Ansätze der Virtualisierung

Aufgrund der Historie entstanden im Laufe der Zeit unterschiedlichste Strategien für eine virtualisierte Umgebung. Inzwischen existieren zahlreiche Lösungen, die für unterschiedlichste Einsatzmöglichkeiten implementiert werden können. Zu differenzieren sind die Emulation, die HW-gestützte Virtualisierung und die Paravirtualisierung.19

Bei der Emulation wird eine Software zur detailgetreuen Realisierung eines vollständigen Computersystems angewendet. Der Unterschied zu anderen Virtualisierungsformen ist dabei, dass die VM’s in einem nicht nativen Prozessor ausgeführt werden. Der Emulator erlaubt die Ausführung von Software auf Systemtypen, für die sie im Ursprung nicht entwickelt wurde und auf nicht verifizierten Systemen.20 Trotz des technologischen Alters ist die Emulation in Hinsicht auf Flexibilität nicht zu vernachlässigen. Denn es kann eine Vielzahl an Emulatoren parallel ausgeführt werden, um verschiedenste Maschinenlandschaften auf einem System zu verwirklichen.

Ein weiterer Ansatz bietet die HW-Virtualisierung der klassischen Virtualisierung. Dabei werden physikalische Computersysteme in VM’s oberhalb der Ring-Schicht 0 abstrahiert. Eine VM wird daraufhin aus Software-Komponenten, z.B. einen Prozessor, einem virtuellen Speicherzugriff oder eine virtuelle Festplatte nachgebildet und der VM wird es als nativ imitiert.21 Durch diesen Ansatz können mehrere VM’s auf der Computer-HW parallel betrieben werden. Diese nutzen gemeinsam die native HW des Hostsystems und sind voneinander autark. Dadurch beeinflussen sich die virtuellen Systeme nicht gegenseitig. Ferner ist es möglich unterschiedlichste Betriebssystemstrukturen(Windows, Unix, Linux, MacOS etc.) auf einer HW-Plattform zu betreiben. Hier ist zu beachten, in welcher Form das System auf dem Speichermedium vorliegt. Wenn dabei Dateien in einem Ordner sind spricht man von Containervirtualisierung. In der Literatur wird hierbei nicht mehr von virtueller Maschine gesprochen, sondern von Containern oder Jails.22 Als Koordinator dient hier der bereits beschriebene Hypervisor. Dieser kümmert sich um eine homogene Skalierung und steuert den Zugriff.

Die Paravirtualisierung beschäftigt sich mit dem Grundgedanken, eine spezielle Softwareschicht zwischen Host-HW und Gast-Betriebssystemen zu schieben, die die gegebenen Ressourcen über spezielle Schnittstellen den Gastsystemen zur Verfügung stellt.23 Der Begriff para kommt aus dem Griechischen und steht für neben bzw. darüber. Auch hier wird ein Hypervisor bzw. ein VMM als Softwareschicht verwendet. Dieser übersetzt die Aufrufe der Gastsysteme für die reale HW.24 Marktführer für paravirtulisierte Lösungen sind vor allem die beiden Hersteller Citrix und VMware mit Ihren Produkten Citrix Xen und VMware ESX. Inzwischen haben sich Mischformen aus HW-gestützten und paravirtualiserten Lösungen gefestigt und durchgesetzt.

Die Ansätze verdeutlichen, wie unterschiedlich manche Begriffe durch die wissenschaftliche Fachwelt verwendet werden. Am Beispiel der Containervirtualisierung wird der Begriff nach Thorns im Rahmen der Paravirtualisierung eingesetzt.25 Während Picht die VM als emulierte Laufzeitumgebung für Anwendungen in der Containiervirtualisierung versteht.26

Die Wirklichkeit zeigt, dass es keine konkrete Abgrenzung dieser Ansätze gibt. Vielmehr profitieren die Ansätze mit ihren Technologien und Verfahren voneinander und ermöglichen so ein individuelles Einsatzszenario.

3 Analytische Begutachtung der Virtualisierungstechnologien

3.1 Einsatzmöglichkeiten und Einsatzgebiete

Die Virtualisierung sollte als Ausgangspunkt für weitere Anwendungen, wie bspw. für eine Hochverfügbarkeit oder ein umfassendes Backupsystem, appliziert werden. Das Potenzial der Virtualisierung ist aktuell bereits größer, als es die wissenschaftliche Diskussion im Rahmen dieser Seminararbeit ermöglicht. Dennoch haben sich einige Szenarien herauskristallisiert, die im besonderen Maße die Stärken der Virtualisierung ausspielen. Es werden einige Use Cases im Virtualisierungsumfeld erläutert.

Der stark in der Virtualisierung vorkommende Begriff der Systemkonsolidierung beleuchtet Umwandlungen physikalischer Systeme in virtuelle Systeme. Hierbei wird in der Literatur von P2V gesprochen.27 Nach Thorns existieren in den heutigen Rechenzentren, beschleunigt durch den raschen Anstieg von Systemen in den neunziger Jahren, noch unzählige Altlasten, die einerseits geschäftskritische Dienste erbringen, anderseits aber aufgrund ihres Alters technologisch über wenig Rechenleistung verfügen und im Vergleich zu aktuellen Systemen pro Leistung deutlich mehr Energie verbrauchen.28 Besonders durch den technologischen Fortschritt sinkt der Energieaufwand pro Rechenleistung. Mit Hilfe der Konsolidierung lässt sich also die Mehrleistung der heutigen Systeme gegenüber älteren Systemen effizient nutzen.29

[...]


1 Vgl. Xu, J. (2009), S.1

2 Vgl. Brendel, J. (2006), S.3

3 Thorns, F. (2008), S.19

4 Vgl. Chroust, M. et al.,(2006), S.7

5 Vgl. Thorns, F., S.19 (2008)

6 Vgl. Stelzhammer, P. (2009), S.31

7 Vgl. Sturm, Ch. Et al (2009), S. 53

8 Vgl. Scheiber, A., S.13 (2012)

9 Vgl. Kofler, M. (2008), S.1049

10 Vgl. Gübeli,R. et al. (2004), S. 21

11 Vgl. Conrad,E. (2012), S.259f

12 Vgl. Picht, H. (2009), S. 116

13 Vgl. Achilles, A. (2006), S. 11

14 Vgl. Thorns, F. (2008), S.24

15 Vgl. Van Wasen, T. (2010), S. 15

16 Picht,H. (2009), S.12f

17 Vgl. Thorns, F. (2008), S.27

18 Vgl. Scheiber, A. (2012), S.16

19 Vgl. Weyergraf, T. (2009), S.8

20 Vgl. Radonic, A. et al. (2006), S.59

21 Vgl. Meinel,C. et al. (2011), S.13

22 Vgl. Meinel, C et.al (2011), S.17f

23 Vgl. Weyergraf, T. (2009), S.10

24 Vgl. Kofler, M. (2011), S. 270

25 Vgl. Thorns, F. (2008), S.32

26 Vgl. Picht,H. (2009), S.16

27 Vgl. Picht, H. (2009), S.190

28 Vgl. Thorns, F. (2008), S.47

29 Vgl. Lampe,F. (2010), S.12

Ende der Leseprobe aus 26 Seiten

Details

Titel
Virtualisierung. Chancen für eine dynamische IT
Hochschule
Leibniz Akademie Hannover - Verwaltungs- und Wirtschaftsakademie Hannover
Note
1,0
Autor
Jahr
2013
Seiten
26
Katalognummer
V295733
ISBN (eBook)
9783656945697
ISBN (Buch)
9783656945703
Dateigröße
658 KB
Sprache
Deutsch
Schlagworte
Virtualisierung, dynamische IT, Rechenzentrum, Cloud Computing, VM, virtuelle Maschine, Citrix, VMware, Hyper, Hypervisor, Hyper-V, ESX, XenServer, Definition, Grundlagen
Arbeit zitieren
Wojtek Procek (Autor:in), 2013, Virtualisierung. Chancen für eine dynamische IT, München, GRIN Verlag, https://www.grin.com/document/295733

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Virtualisierung. Chancen für eine dynamische IT



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden