Kostenvorteile mit VMware Virtual Infrastructure 3


Diplomarbeit, 2009

65 Seiten, Note: 1,7


Leseprobe

Inhaltsverzeichnis

1 Einleitung und Problemstellung
1.1 Problemstellung
1.2 Abgrenzung

2 Virtualisierung
2.1 Prozessor Virtualisierung (x86-Architektur)
2.2 Speichervirtualisierung
2.3 Input/Output (I/O) Virtualisierung
2.4 Anbieter
2.5 Ausblick

3 Controlling
3.1 Informations Technologie (IT)-Controlling
3.2 Investitionscontrolling
3.3 Investitionsrechnung
3.3.1 Statische Verfahren
3.3.2 Dynamische Verfahren
3.3.3 Vollständiger Finanzplan
3.3.4 Total Cost of Ownership
3.3.5 Balanced Scorecard
3.4 Übersichtstabelle

4 Methodenauswahl
4.1 Kennzahlen
4.1.1 Balanced Scorecard (BSC) Perspektiven
4.2 Kennzahlenauswahl

5 Wirtschaftlichkeitsuntersuchung
5.1 Projektbeschreibung
5.2 Berechnung
5.2.1 Finanzperspektive
5.2.2 Kundenperspektive
5.2.3 Prozessperspektive

6 Zusammenfassung

7 Ausblick

8 Literaturverzeichnis

Abbildungsverzeichnis

2.1 Platzierung des Virtual Machine Monitors

2.2 x86 Ring System [2]

2.3 Speicherverwaltung in modernen Betriebssystemen

2.4 Überblick der Anbieter [3]

3.1 Investitionsarten

3.2 Dynamische Methoden

3.3 Balanced Scorecard

3.4 Beispiel einer Balanced Scorecard [4]

3.5 Beispiel eines IT-Cockpits [12]

5.1 Installationsprozess Projekt 1

5.2 Installationsprozess Projekt 2

Tabellenverzeichnis

2.1 Produktübersicht Virtualisierungslösungen

3.1 Vollständiger Finanzplan

3.2 Methoden Übersicht

5.1 Administrationskosten

5.2 Administrationskosten über 5 Jahre

5.3 Anschaffungskosten Projekt 1

5.4 Anschaffungskosten Projekt 2

5.5 Netzwerkkosten

5.6 Hardwarekosten über 5 Jahre

5.7 Rackkosten

5.8 Rackkosten über 5 Jahre

5.9 Storage Area Network (SAN) Kosten

5.10 SAN Kosten über 5 Jahre

5.11 Hardwarekosten Projekt 1

5.12 Hardwarekosten Projekt 2

5.13 Hardwarekosten über 5 Jahre

5.14 Lizenzkosten für VMware

5.15 Lizenzkosten VMware über 5 Jahre

5.16 Schulungskosten

5.17 TCO

5.18 Abarbeitungsdauer

5.19 Prozesskennzahlen

6.1 Auswertung Finanzperspektive

6.2 Auswertung Kundenperspektive

6.3 Auswertung Prozessperspektive

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung und Problemstellung

Die Datenverarbeitung unterliegt dem ständigen Wandel und Weiterentwicklung der Technik und Technologien. IT-Abteilungen haben sich in den letzten Jahren immer mehr zu einem integralen Bestandteil der Wertschöpfungsketten vieler Unternehmen entwickelt. IT Systeme sind nicht mehr nur "nice-to-have" und nur erschwinglich für große Unternehmen wie in den 60 ziger Jahren des letzten Jahrhunderts, sondern für nahezu jeden verfügbar. In vielen Unternehmen erfüllt die IT-Abteilung nicht mehr nur eine Querschnittsaufgabe, sondern ist zu einem kritischen Erfolgsfaktor für die Generierung von zusätzlichem Umsatz geworden.

Vor diesem Hintergrund ist es nicht verwunderlich, dass ein nicht unerheblicher Teil der Herstellungskosten IT-Kosten sind. Um in Zeiten sinkender, beziehungsweise stagnierender, Preise den Gewinn weiter steigern zu können, müssen die Herstellungskosten reduziert werden. Dabei macht der Sparzwang nicht vor der IT-Abteilung halt. Die IT-Verantwortlichen sind gezwungen, neue Wege zu finden, um den geforderten Service zu geringeren Kosten, aber gleichbleibender Qualität zur Verfügung zu stellen. Neben Outsourcing und dem Einsatz von Leiharbeitskräften gibt es auch technische Möglichkeiten die Kosten zu senken und die Produktivität der Mitarbeiter zu erhöhen.

Kosten können unter anderem durch die Reduzierung von benötigten Ressourcen, wie zum Beispiel Platz und Energie, eingespart werden. Energie kann zum Beispiel durch die Verwendung von Rechnersystemen, die einen geringeren Stromverbrauch bei gleichbleibender Leistung haben, eingespart werden. Ein weiteres Einsparpotential liegt bei der Verwendung effizienterer Kühlsysteme. Doch beiden Einsparmöglichkeiten sind technische und physikalische Grenzen gesetzt.

Die Produktivitätssteigerung der Mitarbeiter läßt sich durch eine Verkürzung von Prozesslaufzeiten erreichen, so dass die Mitarbeiter in gleichbleibender Zeit leistungsfähiger sind.

Servervirtualisierung verspricht beide Ziele zugleich zu erreichen, ohne dass dadurch die Servicequalität und Kundenzufriedenheit negativ beeinflusst wird. Der Grundgedanke der Virtualisierung von Serversystemen ist die Beobachtung, dass viele Server im Durchschnitt zu lediglich 30% ausgelastet sind. Das heißt, dass sie die meiste Zeit Ressourcen verbrauchen, die nicht benötigt werden. Um die vorhandenen Server besser auszulasten, könnten mehrere Anwendungen auf ein und dem selben System laufen. Dies ist aber oftmals entweder vom Kunden nicht gewünscht, da hier Performanceeinbußen befürchtet werden, oder aus technischen Gründen nicht möglich. An dieser Stelle ermöglicht die Virtualisierung, dass mehrere Systeme, von einander unabhängig, auf ein und dem selben physischen System laufen und jeder Kunde seine eigene Umgebung zur Verfügung gestellt bekommt.1 Dabei stellt die zugrunde liegende Virtualisierungsschicht, eine optimale Verteilung der physischen Ressourcen zwischen den einzelnen virtuellen Maschinen ohne Performanceeinbußen gegenüber vergleichbarer physischer Systeme.

Durch automatisiertes Deployment von neuen virtuellen Maschinen für neue Kundenanforderungen und den Wegfall der Hardwarebeschaffung, können zum einen Kundenwünsche schneller umgesetzt werden. Zum anderen die internen Prozesslaufzeiten bei der Einrichtung neuer Serversysteme erheblich reduziert und damit die Produktivität erhöht werden.

1.1 Problemstellung

In wie weit der Einsatz von Virtualisierungslösungen zu einer Kostenreduktion bei den Betriebskosten eines Rechenzentrums führt, wird untersucht. Dafür ist eine geeignete Methode zu identifizieren, um eine solche Kostenminderung feststellen zu können. Diese Arbeit beschäftigt sich nur mit der wirtschaftstheoretischen Seite des Problems. Die Betrachtung und Auswahl der am Markt verfügbaren Virtualisierungslösungen ist nicht Bestandteil dieser Diplomarbeit. Um trotzdem die identifizierte Methode an einem Fallbeispiel anwenden zu können, wird "VMware Virtual Infrastructure 3"als vorgegeben angenommen.

Projekte

Im praktischen Teil dieser Arbeit soll mit Hilfe der gewählten Methode eine Entscheidung für eins von zwei Projekten getroffen werden. Projekt 1 soll ein Rechenzentrum komplett physisch aufbauen, wohingegen Projekt 2 dasselbe Rechenzentrum mit virtuellen Maschinen und nur wenigen physischen Systemen realisieren soll. Der Begriff Rechenzentrum beinhaltet in diesem Zusammenhang nicht den Aufbau der technischen Infrastruktur wie Kühlung, Notstromaggregat und ähnliches. Diese Infrastruktur wird als vorhanden angenommen. Die beiden Projekte mieten sich in ein vorhandenes Rechenzentrum ein und müssen Kosten für die Infrastruktur anteilig tragen. Der Aufbau der aktiven Netzwerkkomponenten zur Verbindung der Server mit dem Local Area Network (LAN) sind wiederum Bestandteil der Betrachtung und müssen bei den Anschaffungskosten berücksichtigt werden. Eine detaillierte Beschreibung der benötigten Hard- und Software erfolgt in Kapitel 5.

1.2 Abgrenzung

Im Rahmen dieser Arbeit wird keine komplett neue Methode zur Berechnung von Einsparpotentialen erarbeitet. Es sollen bestehende Methoden angewendet und bei Bedarf angepasst werden.

2 Virtualisierung

Virtualisierung ist keine neue Erfindung der letzten Jahre. Erste Implementierungen gab es bereits im IBM System Z/VM in den 1960iger Jahren [1]. Seit die Leistungsfähigkeit moderner Serversysteme die Anforderungen der meisten Anwendungen übersteigt, wird der Einsatz virtueller Maschinen für viele Endanwender immer interessanter. Viele Server sind im Durchschnitt zu 5% - 40% ausgelastet. Beim Betrieb einer grösseren Anzahl von Servern bleibt so der größte Teil der Leistung ungenutzt. Diese Leistungsreserven können durch den Einsatz von Virtualisierungslösungen nutzbar gemacht und Kosteneinsparungen realisiert werden.

Virtualisierung ist die Separierung der Ausführung einer Dienstanfrage von der zugrunde liegenden physischen Ausführung des Dienstes. In Bezug auf Rechnervirtualisierung erfolgt die Separierung durch die Einführung einer Virtualisierungsschicht, die die virtuelle Maschine von der physischen Hardware trennt. Dadurch können mehrere virtuelle Systeme parallel auf ein und dem selben physischen Rechner ausgeführt werden. Die Virtualisierungsschicht steuert die dynamische Verteilung der physischen Ressourcen auf die virtuellen Systeme. Virtuelle Maschinen, die vollständig von der zugrunde liegenden physischen Hardware abstrahiert sind, ermöglichen zusätzliche Features, die mit normalen Systemen nicht möglich sind. Viele heute verfügbare Produkte zur Virtualisierung von Computern ermöglichen den Aufbau einer extrem Ausfall toleranten Umgebung. Ausfallzeiten für Backup oder Wartung können teilweise bis auf Null reduziert werden.

Alle Virtualisierungslösungen verwenden entweder einen Hypervisor oder eine gehostete Lösung. Diese realisieren die Virtualisierungsschicht als Anwendung die in einem Betriebssystem läuft. Dadurch können sehr viele unterschiedliche Hardwarekonfigurationen als physische Grundlage verwendet werden. Hypervisor basierte Lösungen installieren die Virtualisierungsschicht direkt auf dem physischen System (baremetal). Hypervisor unterstützen nur eine kleine Auswahl an physischen Systemen, sind aber auf diese speziell angepasst. Da die Hardwarezugriffe des Hypervisors direkt erfolgen können und nicht erst durch ein Betriebssystem umgesetzt werden müssen, bieten Hypervisor eine bessere Performance und eine grössere Robustheit als gehostete Produkte.

Abbildung 2.1 zeigt beispielhaft den Aufbau der verschiedenen Ansätze der Virtualisierung. Der, in der Mitte dargestellte, Hypervisor verwaltet die Virtual Machine Monitor (VMM), welche wiederum dem Gast-Betriebssystem die Hardware der virtuellen Maschine zur Verfügung stellt.

Die Abstraktion der physischen Hardware kann in drei Bereiche aufgeteilt werden.

- Prozessor Virtualisierung ( x86-Architektur )

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.1: Platzierung des Virtual Machine Monitors

- Speicher Virtualisierung
- I/O Virtualisierung

2.1 Prozessor Virtualisierung ( x86-Architektur )

Betriebssysteme die für x86 Prozessoren entwickelt werden, gehen im Allgemeinen davon aus, dass die gesamte physische Hardware ihnen gehört. Die Ressourcenzugriffe und die damit verbundenen Zugriffsrechte werden in vier sogenannten Ringen verwaltet. Normale Anwendungen werden im Ring 3 ausgeführt, Betriebssystemaufrufe in Ring 0. Beim Einsatz eines Hypervisors muss die Virtualisierungsschicht unterhalb des Betriebssystems im Ring 0 ausgeführt werden, um den direkten Zugriff auf die physische Hardware gewährleisten zu können. Erschwerend kommt hinzu, dass einige Zugriffe nicht virtualisiert werden können, da sie eine andere Bedeutung haben, wenn sie in einem höheren Ring als Ring 0 ausgeführt werden.

VMware zum Beispiel hat das Problem durch die Verwendung von Binary Translation gelöst. Dies ermöglicht die VMMs im Ring 0 auszuführen und die Betriebssysteme in einen höheren Ring unterhalb des Anwender-Rings 3 zu verschieben.

Um das Problem der Betriebssystemaufrufe in Ring 0 zu lösen, gibt es derzeit drei mögliche Ansätze

1. Vollständige Virtualisierung mit Binary Translation

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2: x86 Ring System [2]

2. Betriebssystem unterstützte Virtualisierung ( Paravirtualisierung )

3. Hardware unterstützte Virtualisierung

Vollständige Virtualisierung mit Binary Translation wurde von VMware entwickelt und verwendet eine Kombination aus Binärübersetzung und direkten Aufrufen. Dabei werden nicht virtualisierbare Instruktionen des Betriebssystemkerns durch neue virtualisierbare Instruktionen zur Laufzeit ersetzt. Instruktionen aus dem Benutzerring 3 werden direkt auf dem physischen Prozessor ausgeführt, um die bestmögliche Performance zu erreichen.

Die Vorteile der vollständigen Virtualisierung sind zum Einen, dass das Gastbetriebssystem nicht angepasst werden muss, um lauffähig zu sein und dass zum Anderen Instruktionen aus dem Anwenderbereich mit nativer Geschwindigkeit des zugrunde liegenden physischen Prozessors ausgeführt werden. Bei der Paravirtualisierung werden nicht virtualisierbare Instruktionen des Betriebssystemkerns durch sogenannte Hypercalls ersetzt. Dazu wird der Kern des Betriebssystems direkt angepasst. Das heißt der Quelltext des Kernels muss modifiziert werden. Diese Anpassungen sind nur bei Linux beziehungsweise Unix basierten Betriebssystemen möglich, da dafür Zugriff auf den Quelltext des verwendeten Kernels benötigt wird, um die nötigen Anpassungen vornehmen zu können. Bei proprietären Betriebssystemen, wie zum Beispiel Microsoft Windows, ist ein solcher Zugriff nur wenigen Entwicklern vorbehalten.

Die eingefügten Hypercalls kommunizieren direkt mit der Virtualisierungsschicht. Die Verwendung von Paravirtualisierung reduziert den Mehraufwand im Vergleich mit der vollständigen Virtualisierung. Der Performancegewinn in der virtuellen Maschine ist aber stark vom Workload der Virtual Machine (VM) abhängig.

Hardware unterstützte Virtualisierung beruht auf einer Erweiterung der Ringstruktur um einen neuen Root Mode der unterhalb von Ring 0 eingefügt wird. Sämtliche kritische Aufrufe des Betriebssystems in Ring 0 werden an den Root Mode weitergereicht und erst dann ausgeführt. Das heißt der VMM kann im Root Mode ausgeführt werden und ohne Binary Translation oder Paravirtualisierung die kritischen Instruktionen abfangen und entsprechend ausführen.

Die Virtualisierungstechniken im Prozessor stehen noch am Anfang ihrer Entwicklung, werden aber in Zukunft an Bedeutung gewinnen und eine weitere Performancesteigerung der virtuellen Maschinen ermöglichen.

2.2 Speichervirtualisierung

Ein weiteres Problemfeld bei der Virtualisierung physischer Systeme ist die Speicherverwaltung. In modernen Betriebssystemen wird der Speicher den Anwendungen als ein zusammenhängender Adressraum zur Verfügung gestellt. Dieser Adressraum muss nicht zwangsläufig auch so physisch vorhanden sein. Das Betriebssystem verwaltet die Zuordnung von virtueller Seitennummer zu physischer Seitennummer in Seitentabellen. Um die Verwaltung des virtuellen Speichers zu optimieren, besitzen aktuelle Prozessoren eine Memory Management Unit (MMU) und einen Translation Lookaside Buffer ( TLB ).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.3: Speicherverwaltung in modernen Betriebssystemen

Damit mehrere virtuelle Maschinen gleichzeitig auf einem physischen System laufen können muss die Speichervirtualisierung noch weiter abstrahiert werden. Das heißt auch die MMU muss virtualisiert werden. Das Gast-Betriebssystem verwaltet dabei auch weiterhin die Zuordnung von virtuellen Adressen zu physischen Adressen des der VM zur Verfügung stehenden Speichers, bekommt aber keinen direkten Zugriff auf den tatsächlichen physischen Speicher. Die Zuordnung zwischen VM Speicher und dem zugrunde liegenden physischen Speicher des Host-Systems wird durch die VMM verwaltet. Diese verwendet dafür Shadow Pagetables und die TLB Hardware, um den virtuellen Speicher der VM direkt auf den physischen Speicher des Hosts zu mappen, um die doppelte Adressumwandlung zu vermeiden. Wenn das Betriebssystem die Zuordnung des virtuellen Speichers auf den VM Speicher ändert, passt der VMM die Shadow Pagetables entsprechend an.

Alle Ansätze zur Speichervirtualisierung erzeugen zusätzlichen Aufwand und kosten Performance. Die zukünftige Einführung und Nutzung von Hardware unterstützter Virtualisierung verspricht auch hier einen Performancegewinn und eine Reduzierung des Overheads.

2.3 I/O Virtualisierung

I/O Virtualisierung ist die Voraussetzung für die Abstraktion der virtuellen Hardware von der physisch vorhandenen Hardware. Die, zum Beispiel in Software realisierte, I/O Virtualisierung verwaltet die Umsetzung der Zugriffe auf die Hardware der virtuellen Maschinen auf die physische Hardware. Erst diese Zwischenschicht ermöglicht es den virtuellen Maschinen, eine einheitliche virtuelle Hardware zu präsentieren; unabhängig von der verwendeten physischen Plattform.

I/O Virtualisierung ist die Voraussetzung für den Betrieb ein und der selben virtuellen Maschine auf unterschiedlichen physischen Systemen ohne in der VM neue Treiber installieren zu müssen. Dieses eröffnet neue Möglichkeiten bezüglich Ausfallsicherheit und Verfügbarkeit. So ist es in den heute verfügbaren Virtualisierungslösungen möglich, eine virtuelle Maschine im laufenden Betrieb von einem physischen Host auf einen anderen zu verschieben, ohne dass der Anwender davon etwas mitbekommt. Dadurch können Ressourcen optimal auf die vorhandenen VMs verteilt werden.

2.4 Anbieter

In den letzten Jahren ist das Angebot an Produkten sowohl für die Server- als auch für die Desktopvirtualisierung beständig gewachsen. Neben dem Marktführer im Serverbereich VMware gibt es ernst zu nehmende Angebote unter anderem von Microsoft, Cirtrix, SUN und IBM. Teilweise sind die Produkte mit reduzierter Funktionalität auch kostenlos zu bekommen. Darüber hinaus gibt es auch Open Source Projekte wie zum Beispiel XEN.

Abbildung 2.4 zeigt eine Eingruppierung der einzelnen Angebote je nach verwendeter Technologie.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.4: Überblick der Anbieter [3]

VMware

VMware wurde 1998 mit dem Ziel gegründet, Software zur Virtualisierung von x86 Rechnersystemen zu entwickeln. Heute bietet VMware eine breite Produktpalette, angefangen von der Applikationsvirtualisierung mit ThinApp, über Desktopvirtualisierung mit VMworkstation und Virtual Desktop Infrastructure bis hin zur Virtualisierung ganzer Rechenzentren mit vSphere 4. Darüber hinaus entwickelt VMware Software zur Verwaltung virtueller Umgebungen. VMware ist seit Jahren Marktführer im Unternehmensbereich und bietet eine der ausgereiftesten Produkte für den Einsatz virtueller Systeme im Rechenzentrum. Das Topprodukt vSphere 4 unterstützt unter anderem die Live Migration virtueller Maschinen von einem physischen Knoten auf einen anderen, ohne dass der Endanwender davon etwas bemerkt. Mithilfe von vCenter 4 können Funktionalitäten wie dynamische Resourcenverteilung (Distributed Resource Scheduling (DRS)) und erhöhte Ausfallsicherheit (High Availability (HA)) realisiert werden. Damit bietet VMware nicht nur Einsparpotential bei den Betriebskosten, sondern auch eine Erhöhung der Servicequalität. Die Baremetal Version ESXi ist nur wenige Megabyte groß und kann von einem Flashspeicher gebootet werden. Viele Server-Hersteller bieten Server mit vorinstalliertem Flashspeicher und ESXi an. Wie andere Anbieter auch, offeriert VMware den Hypervisor ESXi in einer kostenlosen Version.

Microsoft

Microsoft bietet seit längerem Produkte für die Rechnervirtualisierung an. Im Desktopbereich sind dies VirtualPC 2007 und Windows Virtual PC für Windows 7. VirtualPC wurde ursprünglich von der Firma Connectix entwickelt, die 2003 von Microsoft gekauft wurde. Für den Einsatz im Rechenzentrum wurde mit der Vorstellung des Windows Server 2008 ein neuer Hypervisor, genannt Hyper-V, vorgestellt. Mit Hyper-V sollen ganze Rechenzentren virtualisiert werden können, zudem lassen sich virtuelle Maschinen während des laufenden Betriebs von einem physischen Host auf einen anderen physischen Host verschieben, ohne dass der Endanwender davon etwas bemerkt. Eine Baremetal Version, wie sie VMware anbietet, gibt es von Hyper-V nicht. Microsoft bietet nur eine abgespeckte Windows Server 2008 Version, genannt Server Core, an. Diese Kerninstallation belegt aber immer noch 1,6 GB Festplattenplatz.

Sun

Mit Solaris Container bietet Sun ebenfalls seit längerem ein Produkt zur Servervirtualisierung an. Dabei steht aber die Isolierung von einzelnen Anwendungen im Vordergrund und weniger die virtuelle Umsetzung ganzer Rechenzentren. Solaris Container können auch nur mit Solaris genutzt werden. Andere Betriebssysteme sind damit nicht installierbar. Mit der Einführung von Logical Domains ist es nun auch möglich, mehrere Linux und Solaris Systeme auf einem physischen Host parallel zu betreiben. Windows wird hierbei nicht unterstützt, da ähnlich wie bei Xen die Betriebssystemkerne angepaßt werden müssen.

Um auch Windows Betriebssysteme in virtuellen Maschinen unterstützen zu können, entwickelt Sun derzeit xVM. xVM baut auf Xen auf und ist als Betaversion in OpenSolaris verfügbar. Der Verwaltungsserver Sun xVM Ops Center bietet ähnlich wie VMware und Microsoft unter anderem Live Migration und intelligente Resourcenverteilung. VirtualBox ist das kostenlose Angebot für die Desktopvirtualisierung und wurde von der, von Sun 2008 aufgekauften, Firma Innotek entwickelt.

Xen

Der Virtual Machine Monitor Xen entstand an der Univeristät von Cambridge. Die Weiterentwicklung wurde unter dem Dach von XenSource koordiniert, dass 2007 von Citrix aufgekauft wurde. Da Xen als Open Source verfügbar ist, gibt es Implementationen und Weiterentwicklungen von verschieden Firmen. Darunter Sun, Oracle und VirtualIron. Die Angebote unterscheiden sich meistens in der angebotenen Verwaltungsoberfläche und den damit realisierten Funktionalitäten. Stellvertretend für die Produkte der anderen Firmen soll hier das Angebot der Firma Citrix betrachtet werden. Xen unterstützt, wie auch die bereits genannten Produkte, die von Intel und AMD entwickelten Virtualisierungsfunktionen aktueller Prozessoren1.

Bis zur aktuellen Version 3 konnten nur Linux und Unix Betriebssysteme als Gast Operating System (OS) betrieben werden, da eine Anpassung des Betriebssystemkerns nötig war. Seit Version 3 ist auch Windows ohne Anpassungen als Gastbetriebssystem verwendbar. Voraussetzung dafür ist allerdings ein Prozessor der Intels VT unterstützt. Neben der Desktopvirtualisierung mit XenDesktop bietet Citrix auch den kostenlosen XenServer für die Rechenzentrumsvirtualisierung an. Viele der für den Enterprise-Bereich interessanten Funktionalitäten, wie zum Beispiel die dynamische Verteilung von Ressourcen, bieten aber erst die kostenpflichtigen Versionen des Verwaltungstools Essentials for XenServer.

Andere

Die zuvor genannten Anbieter stellen nur eine Auswahl der verfügbaren Produkte dar. Die Auswahl beschränkt sich auf die am häufigsten genutzten Lösungen. Neben den genannten Anbietern gibt es auch noch weitere Hersteller mit Angeboten zur Virtualisierung von Rechenzentren. Dazu gehören IBM mit z/VM, Oracle mit den aufgekauften Angeboten von VirtualIron und SUN, sowie Parallels. Diese werden hier nicht weiter betrachtet, da sie entweder für spezielle Bereiche, zum Beispiel Großrechner im Falle von IBM, gedacht sind oder nur geringe Verbreitung im Enterprise-Umfeld, wie im Falle von Parallels, haben. Rund um Xen gibt es viele Anbieter die Verwaltungstools entwickeln, um die Administration und Installation von Xen zu erleichtern. Auch diese wurden hier nicht betrachtet, da deren Funktionsumfang für den Enterprisebereich derzeit zu gering ist.

2.5 Ausblick

In den letzten Jahren war der Focus der Hersteller von Virtualisierungslösungen auf den Einsatz in der Servervirtualisierung gerichtet, dieser erweitert sich immer mehr in Richtung der Virtualisierung von Desktops und greift dabei die Idee der Thin-Clients wieder auf. Wobei die Umsetzung vom Terminalserver bis zur virtuellen Maschine für jeden Anwender reichen. Dass heißt der Anwender greift über seinen Thin Client entweder auf einen Terminalserver oder auf eine virtuelle Maschine zu. Im Gegensatz zum Terminalserver steht die virtuelle Maschine exclusiv einem einzigen Anwender zur Verfügung. Ziel ist die Kostenreduktion der Verwaltung einer großen Anzahl von ähnlichen Desktop-Systemen.

Aber auch im Serverbereich bleibt die Entwicklung nicht stehen, auch wenn sich die Entwicklung gegenüber den Anfangsjahren verlangsamt hat. Mittlerweile gibt es für die verschiedensten Anforderungen eine breite Palette von Angeboten der unterschiedlichsten Hersteller. Der Vergleich und die Auswahl des geeigneten Produktes wird schwieriger und zeitaufwendiger. Ein Trend, der zu beobachten ist, ist die Reduzierung der Grösse und des Ressourcenbedarfs des Hypervisors und die Integration des Hypervisors in Hardware-Angebote verschiedenster Hersteller wie zum Beispiel HP.

Die grundlegenden Virtualisierungssysteme, das heißt die Hypervisor und VMMs sind bereits von den großen Anbietern kostenlos verfügbar. In Zukunft wird die darüber liegende Verwaltungsschicht immer wichtiger werden. Neue Funktionalitäten werden dort implementiert und sind nur in den kostenpflichtigen Angeboten verfügbar. Diese Strategie ermöglicht es kleineren Unternehmen, mit geringeren Anforderungen, eigene Serversysteme zu virtualisieren und möglicherweise Kosten zu sparen.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2.1: Produktübersicht Virtualisierungslösungen

3 Controlling

In diesem Kapitel sollen die wirtschaftstheoretischen Grundlagen und Methoden zur Bewertung verschiedener Investitionsprojekte vorgestellt und hinsichtlich ihrer Verwendbarkeit für die gegebene Problemstellung untersucht werden.

"Controlling hat das Ziel, Führungskräfte aller Ebenen bei Ihren Entscheidungen zu unterstützen."[15]

Controlling soll Kennzahlen zur Verfügung stellen, die den aktuellen Zustand der Unternehmung darstellen. Anhand der Kennzahlen lassen sich Trends ablesen und Planungen anpassen. Das Controlling dient damit nicht nur der kurzfristigen Überwachung der Zielerreichung, sondern auch der langfristigen Planung. Dass heißt, Controlling dient nicht nur der Aufdeckung von Abweichungen zwischen Ist und Soll, sondern auch der Vorbereitung von Entscheidungen, zum Beispiel über zukünftige Investitionen. Die Controllingabteilung versorgt die Unternehmensführung mit Informationen bezüglich des operativen als auch des strategischen Managements der Unternehmung.

Die Einführung eines Controllings ermöglicht es Entscheidungen auf Grund fundierter und belegbarer Fakten zu treffen und nicht nur basierend auf einem Bauchgefühl. Damit werden Entscheidungen nachvollziehbar. Es trägt auch dazu bei, die anfallenden Kosten transparenter zu machen und Kostentreiber zu identifizieren.

Die Teilbereiche des Controlling umfassen das operative und das strategische Controlling. Operatives Controlling beschäftigt sich mit der Überwachung des Tagesgeschäftes. Strategisches Controlling unterstützt die langfristige Planung einer Unternehmung. Das, in dieser Diplomarbeit zu betrachtende Investitionsproblem, gehört zum Bereich des strategischen Conttrolling, da es Auswirkung auf den weiteren Erfolg der Unternehmung hat.

3.1 IT-Controlling

IT-Controlling ist kein Teilbereich des Controlling im Sinne von strategischem oder operativen Controlling. Es ist eine Sonderform, die speziell auf die Bedürfnisse des IT Bereiches angepasst ist. IT-Controlling geht insbesondere auf die Verrechnung und Planung von IT Dienstleistungen ein. Um die technische Seite der IT-Dienste beurteilen zu können, sollte ein Controller tiefer gehende Kenntnisse im IT-Bereich besitzen. IT-Controlling stellt in vielen Unternehmen eine Querschnittsaufgabe dar. Das heißt sie wird in allen Bereichen benötigt und ist deshalb von zentraler Bedeutung für den Unternehmenserfolg.

Das IT-Controlling umfasst mehrere Bereiche, die sich mit den speziellen Anforderungen der und an die IT beschäftigen. Dazu gehören das Portfoliomanagement, Projektcontrolling, Produktcontrolling und das Beschaffungscontrolling.

Mit Hilfe des Portfoliomanagements werden zukünftige Projekte, beziehungsweise Projektideen, ermittelt und anhand des Kosten-/Nutzenverhältnisses priorisiert. Ziel ist es die Optimierung der IT Investitionen um Fehlinvestitionen zu verringern und Projekte erfolgreich durchführen zu können. Laut einer Studie von Bearing Point lassen sich durchschnittlich 7% eines IT-Budgets und 20% der IT Investitionen durch den Einsatz des Portfoliomanagements einsparen.

Projektcontrolling überwacht Projekte hinsichtlich ihrer Zielerreichung und des Ressourcenverbrauchs. Es soll sicherstellen, dass keine überraschenden Probleme, zum Beispiel Finanzierungsengpässe oder Zeitverzug, auftreten. Projektcontrolling trägt zur Transparenz eines Projektes bei.

Beim Produktcontrolling steht die Erfassung, Verrechnung und Weiterentwicklung der von der IT angebotenen Leistungen im Zentrum der Betrachtungen. Dies umfasst nicht nur die angebotene Software, sondern auch die zugrundeliegende Hardware. Teilgebiete des Produktcontrolling sind das Controlling der Infrastruktur, der Anwendungssysteme und des Anwendungsbetriebs. Ziel ist auch hierbei die Optimierung des Einsatzes des IT Budgets um einen optimalen und möglichst ausfallsicheren Betrieb sicher zu stellen.

Beschaffungscontrolling beschäftigt sich mit der Neu- oder Ersatzanschaffung von Hardware, Software und Personal. Es untersucht ebenfalls alternative Konzepte wie zum Beispiel Outsourcing einzelner oder aller Dienstleistungen. Ziel ist die Optimierung des Ressourceneinsatzes der IT.

Die Vorteile der Einführung des IT-Controlling liegen in der höheren Transparenz der ITKosten und einer verursachungsgemäßen Zuordnung der anfallenden IT-Kosten. Die mit dem IT-Controlling eingeführten Kontrollmechanismen sorgen für eine Verminderung der Verschwendung der vorhandenen Ressourcen.1

3.2 Investitionscontrolling

Investitionscontrolling ist ein Teilbereich des Controlling. Es bechäftigt sich mit der Planung und Kontrolle von Investionen. Es stellt Werkzeuge zur Verfügung, die es ermöglichen, zwischen verschiedenen Investitionsalternativen, die bestmögliche auszuwählen. Investitionen werden hinsichtlich ihrer Rentabilität und Anwendbarkeit bewertet.

Eine Unternehmung steht mit anderen Teilnehmern am Wirtschaftsleben in ständiger Wechselwirkung. Diese Wechselwirkungen können sowohl rein finanzieller als auch materieller Art sein. Das Ziel eines Unternehmens besteht darin, durch die Erbringung von Dienstleistungen oder den Verkauf von Produkten an andere Marktteilnehmer, einen Gewinn zu erwirtschaften.

[...]


1 Details zur Virtualisierung siehe Kapitel 2

1 bei Intel VT und bei AMD AMD-V genannt

1 Eine Studie der Gartner Group zeigt, dass 20% des IT-Budgets verschwendet werden[15]

Ende der Leseprobe aus 65 Seiten

Details

Titel
Kostenvorteile mit VMware Virtual Infrastructure 3
Hochschule
Hochschule Wismar
Note
1,7
Autor
Jahr
2009
Seiten
65
Katalognummer
V145824
ISBN (eBook)
9783640590070
ISBN (Buch)
9783640589890
Dateigröße
1130 KB
Sprache
Deutsch
Schlagworte
vmware, vsphere, kostenvorteile, tco
Arbeit zitieren
Dipl. Wirtschaftsinfromatiker (FH) Sven Kirmse (Autor), 2009, Kostenvorteile mit VMware Virtual Infrastructure 3, München, GRIN Verlag, https://www.grin.com/document/145824

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Kostenvorteile mit VMware Virtual Infrastructure 3



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden