Total Cost of Ownership-basierte Kosten-Nutzen-Analyse bei Virtualisierung


Hausarbeit, 2007

36 Seiten, Note: 1,3


Leseprobe

Inhaltsverzeichnis

Zusammenfassung

Abstract

Abkürzungsverzeichnis

Vorwort

1. Einleitung

2. Virtualisierung
2.1 Warum wird virtualisiert und was versteht man unter diesem Begriff
2.2 Wie funktioniert Virtualisierung
2.3 Welche Anbieter gibt es am Markt
2.4 Womit virtualisiert die <<Energiediensleister AG>>

3. Total Cost of Ownership (TCO)
3.1 Entwicklungstendenzen
3.2 Kritische Betrachtung von TCO
3.3 Aufbau eines TCO- Modells
3.4 Anpassung des Modells an die Problematik
3.5 Auswertung des Vergleichs von physischen und virtuellen Servern

4. Nutzwertanalyse
4.1 Beweggrund einer Nutzwertanalyse
4.2 Aufbau einer Nutzwertanalyse
4.3 Implementierung

5. Fazit

Literaturverzeichnis

Zeitschriftenartikel

Internetquellen

Verzeichnis der Abbildungen im Anhang

Anhang

Zusammenfassung

Unternehmen investieren jährlich mehrere Milliarden Dollar in ihre IT. Ein Großteil davon findet sich in den Serverfarmen wieder. Die Möglichkeit Server zu virtualisieren und somit mehrere Server auf einer physischen Maschine laufen zu lassen ist noch nicht alt, doch bereits jetzt machen sich viele Unternehmen die Virtualisierung zu Nutze, um Investitionen im Bereich der Server einsparen zu können.

Unterschiedliche Umgebungen und Workloads können auf viel weniger Server verteilt und die Ressourcen besser genutzt werden. Einer der Hauptantriebsmomente für die Server- Virtualisierung ist die Tatsache, dass die meisten Server chronisch unausgelastet sind. Die Begründung findet sich darin, dass Server oft für Spitzenleistungen ausgelegt sind, diese aber nur sehr selten auftreten. Unter Normallast liegen die Ressourcen brach. Die Kostenreduktion stellt aber nur einen Aspekt dar, der für eine Serverkonsolidierung spricht; die Virtualisierungstechnik bringt noch einige andere Vorteile mit sich, zum Beispiel bessere Nutzwerte für Mitarbeiter des Unternehmens. Der End-User wird kaum bemerken, ob im Unternehmen mit einer virtuellen Serverfarm gearbeitet wird oder nicht. Allerdings ergibt sich eine Vielzahl an Nutzenpotentiale für Techniker, Consultants, Administratoren und Programmierer.

Die Durchführung einer Total Cost of Ownership-Analyse in Kombination mit einer Nutzwertanalyse bot sich in dieser Arbeit an, um sich der Problemstellung quantitativ und qualitativ nähern zu können. Für den Vergleich von physischen und virtuellen Servern wurden direkte und indirekte Kosten erfasst. Ebenfalls wurden Nutzenelemente bestimmt, die speziell für <<Energiedienstleister AG>> beim Serverbetrieb von maßgeblicher Bedeutung sind. Im Ergebnis zeigte sich die Virtualisierungslösung im Vergleich zur konventionellen Serverlandschaft als die eindeutig bessere Alternative.

Abstract

Billions of dollars are annually spent on IT by companies all over the place. The majority of it relocates at server architecture. The opportunity to run various virtual servers on one substantial server by using virtualization is not very old yet. Still it is one perceived way to effect economy, which has already been considered by many companies.

Diverse environments and workloads can be allocated and run on very few servers in order to spare resources. One of the big time incentives of virtualization is the fact of having servers that are not working to full capacity. Basically because the servers are built for top-rate performance that only occurs every now and then. On regular duty the resources will always lie idle. The reduction of the expenses just makes up one facet over all. This is one striking credit for a server consolidation. But there are ample advantages of virtualization solutions: For instance a better efficiency and utility value for the employees. The end user will hardly notice a difference whether he is working with virtual servers or physical ones. However, using virtualization potential values for technicians, consultants, authorization administrators and software engineers will come along.

For this particular set of problems the most appropriate approach was a combination of a Total Cost of Ownership and a value benefit analysis for the purpose of acquiring the quantitative and qualitative aspects. Hence the entire consisting direct and indirect measurable costs needed to be gathered for a concluding comparison of virtual and pure physical servers. Likewise the most significant beneficial elements for <<Energiediensleister AG>> regarding their server architecture have also been captured. As a result of this suitable comparison the virtualization clearly composes the better solution over the conventional server architecture.

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Vorwort

Die hier vorliegende Arbeit entstand im Wintersemester 06/07 an der Hochschule für Technik, Wirtschaft und Kultur zu Leipzig im Diplomstudiengang Betriebswirtschaft; Fachrichtung Wirtschaftsinformatik.

An dieser Stelle möchte ich den Personen danken, die zu der Entstehung dieser Arbeit beigetragen haben:

Frau X, ohne die das Erfassen der Kosten nie so genau möglich gewesen wäre,

Herrn Y, der mir in einigen Gesprächen mit Rat und Tat zur Seite stand und die Thematik somit für mich greifbar gemacht hat,

Herrn Z, der mir mit seinen Ausführungen ein sehr genaues Bild des Ist-Zustandes der Serverfarm der <<Energiediensleister>> AG vermitteln konnte, mir grundlegende Denkanstöße gab für die Ergebnisorientierung der Arbeit und jederzeit ein offenes Ohr für mich hatte, in Gesprächen bei der <<Energiediensleister AG>>, via Telefon oder E-mail,

und denjenigen, die hin und wieder einen Blick, zur Korrektur, auf die Arbeit geworfen haben.

1. Einleitung

Diese Arbeit beschäftigt sich mit der Serverkonsolidierung, denn traditionelle Rechenzentren stehen vor einem gravierenden Wandel. Heutzutage fahren sie meist nur noch niedrige Serverauslastungen. „Die Hardware ist mittlerweile sehr leistungsfähig geworden…“[1] Kaum ein Server ist heute noch mehr als 10-15 Prozent ausgelastet[2]. Zukünftig sollen sie flexibel sein und dynamisch reagieren können. Eine Möglichkeit der Umsetzung bieten gemeinsam nutzbare virtuelle Ressourcen.[3]

Ziel einer Serverkonsolidierung ist sowohl die Reduzierung physikalischer Server und damit verbundener Peripherie, als auch das Erreichen besserer Verfügbarkeit, höherer Flexibilität und Erweiterbarkeit. Für Kaufleute stehen hier die Begriffe TCO und ROI, deren Ergebnisse sich positiv durch eine Serverkonsolidierung beeinflussen lassen.[4] Inwiefern das der Fall ist, soll am Beispiel der <<Energiedienstleister AG>> anhand einer TCO-Analyse gezeigt werden.

Seit einigen Jahren gibt es Virtualisierungstechniken am Markt. Bereits in den 70er Jahren virtualisierte IBM die komplette Hardware einer physikalischen Maschine. Es konnten Logical Partitions (LPAR) erzeugt werden und der Zugriff wurde durch einen Hypervisor (VM) überwacht. Heute ist Virtualisierung in aller Munde und benutzerfreundlicher denn je in der Durchführbarkeit. Doch wozu wird virtualisiert? Es soll Energie, Platz und Klimatechnik gespart werden. Diese Arbeit entstand vor dem Hintergrund, aufzuzeigen was tatsächliche Kostentreiber sind. Zudem soll ein Vergleich der konventionellen Systeme mit Systemen, bei denen Virtualisierung zum Einsatz kommt, am praktischen Beispiel der Serverfarm der <<Energiedienstleister AG>>, aufgestellt werden.[5] Zudem werden qualitative Aspekte, die für eine Virtualisierung sprechen, im Verlauf dieser Arbeit erörtert.

2. Virtualisierung

2.1 Warum wird virtualisiert und was versteht man unter diesem Begriff

Programme, die den Bildschirm kontrollieren, heißen Server. Sie verwalten lokale Daten für alle Anwendungsprogramme, den so genannten Clients, die den Bildschirm verwenden sollen.[6] Server sind sozusagen Diensterbringer, eine Komponente, die Aufträge von Clients entgegennimmt, diese bearbeitet und an den Client zurücksendet.[7] Im Rechenzentrum der <<Energiedienstleister AG>> sichtet man vielzählige Servermodelle, angefangen vom Proliant DL 380 bis hin zum Proliant DL 585. Diese Modelle werden hier nur der Vollständigkeit halber genannt, aber auf Produkterläuterungen in Bezug auf Rechenleistung und andere Produktdaten wird in dieser Arbeit aber verzichtet.

In einem konventionellen, nicht virtualisierten Umfeld, werden meist zahlreiche Server betrieben, mit jeweils nur einigen wenigen Diensten. Auf einem Server läuft somit oft ein einziger Dienst oder eine einzige Applikation, weil der Parallelbetrieb Gefahren birgt. Ist ein Dienst fehlerhaft, kann das gesamte System mit allen anderen Anwendungen abstürzen. Um das Ausfallrisiko zu mindern, unter dem Credo der Verfügbarkeit, lohnt es sich daher Dienste getrennt zu betreiben. Wird zum Beispiel auf einem wenig ausgelasteten Server ein Dienst installiert, auf dem bereits ein wichtiger Dienst läuft (DHCP- oder DNS-Server), können bei einer fehlerhaften Installation im schlechtesten Fall alle Dienste gemeinsam ausfallen. Des Öfteren werden auch Testsysteme genutzt um Wartungsarbeiten oder Updates durchzuführen, um diese anschließend zu testen, bevor dies auf das Produktivsystem gespielt werden. Denn auch hier gilt, dass Änderungen an Konfigurationsdateien oder Pfaden den Systemabsturz herbeiführen können. Ein weiterer Grund Dienste unabhängig voneinander zu betreiben ist das Vermeiden von Chaos. Viele Administratoren können verschiedene Meinungen vertreten, wie ein System aussehen soll. Um zu verhindern, dass sie sich ins Gehege kommen, werden zum Beispiel für einzelne administrative Einheiten eigene Serversysteme eingereichtet. Das alles kann dazu führen, dass kritische Dienste auf separaten Servern zur Verfügung gestellt werden, obgleich die Hardwareleistung in keinem Verhältnis zur eigentlichen Anforderung steht. Man kann also davon ausgehen, dass Leistung verschenkt wird, welche das Unternehmen unnötig Geld kostet. Kostentreiber sind hierbei allerdings nicht nur die Anschaffungskosten, sondern auch Kosten für die Wartung, Strom und USV, Klimatisierung der Rechenzentren, sowie die Stellplätze, aber auch Netzwerk- und SAN-Anschlüsse.[8]

An diesem Punkt kommen die Virtualisierungstechniken ins Spiel. Das Bestreben geht dahin, statische Verbindungen von logischen Systemumgebungen, in denen Dienste und Anwendungen laufen, aufzuheben, um möglichst viele Dienste und Anwendungen auf einem Rechner zu betreiben. Allerdings sollen dabei die Applikationen in eigene Systeme gekapselt werden. Man spricht hier von der Entkoppelung von Anwendung und System. Wobei physische Systeme zu Ressourcenpools zusammengefasst werden und daraus virtuelle Maschinen entstehen. Somit wird gewährleistet, dass Diensten und Anwendungen nur noch benötigte Ressourcen zugeteilt werden und keine Leistung mehr unnötig gebunden wird. Virtuelle Maschinen lassen sich flexibel verwalten, in kürzester Zeit kann ein neues System bereitgestellt werden, während die Neubeschaffung echter Hardware mehr Zeit in Anspruch nehmen würde. Für Leistungsspitzen eines Dienstes können Ressourcen erhöht an eine virtuelle Maschine gegeben werden. Nach dem Entfernen dieses Dienstes, werden die freien Ressourcen wieder in den Pool gestellt. Fällt nun ein Server, auf dem virtualisiert wird, aus, fallen natürlich in Summe mehr Anwendungen aus als in einem konventionellen Umfeld. Allerdings ist die redundante Absicherung einiger weniger Maschinen mit großer Rechenleistung nicht so kostenintensiv, wie bei etlichen Einzelsystemen. Mit der Virtualisierung eröffnet sich die Möglichkeit einer dynamischeren Disposition. Virtuelle Maschinen können zwischen physischen Hostsystemen im laufenden Betrieb umgezogen werden, da die Virtualisierungslösung auch auf einem unterschiedlichen Hostsystem gleich bleibt. Das heißt: VMs lassen sich während in ihnen Server-Software läuft ohne Unterbrechung von einem Rechner auf einen anderen verlagern[9]. Dies kann an Bedeutung gewinnen, wenn Wartungsarbeiten an einem Server vollzogen werden müssen oder Ressourcen für die Leistungsspitze eines Servers einer anderen virtuellen Maschine bereitgestellt werden sollen. Virtuelle Maschinen verhalten sich wie echte Rechner. Auf ihnen kann genauso ein Betriebssystem installiert werden und Programme, sowie Logins eingerichtet werden. Dem Endbenutzer fällt in aller Regel nicht auf, ob er auf ein virtuelles oder echtes System zugreift.[10]

2.2 Wie funktioniert Virtualisierung

„Eine VM ist ein nachgebildeter Rechner, der in einer abgeschotteten Umgebung auf einer realen Maschine läuft.“[11] Vereinfacht ausgedrückt ist die virtuelle Maschine lediglich ein Prozess, der innerhalb eines Betriebssystems läuft.[12] Die VM kann als vollwertiger Computer gesehen werden mit eigenen Komponenten, wie CPU, RAM, VGA-Adapter, Netzwerkkarten und auch Festplatten. Auf bestimmte physikalische Bauteile darf die VM kontrolliert zugreifen, wie etwa CPU und RAM; hingegen können andere Geräte komplett emuliert werden, ohne dass echte Hardware dahinter steht. In einer VM lassen sich Betriebsysteme installieren. Die Software meint dabei auf einem richtigen Computer zu laufen. Bestehende Anforderungen des Gastsystems, wie das Schreiben auf die Festplatte oder Netzwerkkommunikation, werden von der Virtualisierungssoftware abgefangen und an die echte oder emulierte Hardware geleitet.[13]

In der praktischen Umsetzung funktioniert dies folgender Maßen: Nach dem Öffnen des Administrationswerkzeugs wählt man ´neue virtuelle Maschine´. Im darauf folgenden Menü kann die komplette Hardware eingerichtet werden. Die sich ergebende Datei, in der die Größe des Arbeitsspeichers und der Festplatte bestimmt ist, wird im normalen Dateisystem auf dem physikalischen Server abgelegt. Ebenso wird dort eine Konfigurationsdatei hinterlegt. Es ist schwer vorstellbar, aber es handelt sich hier um einen kompletten Rechner, deswegen muss auch eine BIOS-Datei abgelegt werden, falls Änderungen im BIOS der VM vorgenommen werden, wie zum Beispiel die Änderung der Bootreihenfolge. Um den Status einer VM lückenlos zu protokollieren wird häufig noch eine Protokolldatei für jede VM auf dem Wirt-System hinterlegt. Startet man nun die virtuelle Maschine, startet ein neuer Rechner im Rechner, beginnend mit dem BIOS. Über das Administrationstool der Virtualisierungssoftware kann nun eine Betriebssystem-CD in das CD-ROM-Laufwerk der VM eingelegt werden und die Installation kann beginnen. Auch weitere Konfigurationen erfolgen über das Administrationstool, zum Beispiel ob eine VM das Hostsystem oder andere VMs im virtuellen Netzwerk sehen darf.[14]

Der Host ist ein realer Rechner mit Betriebssystem und gewohnter Arbeitsoberfläche. Auf ihm laufen als Anwendung einige virtuelle Maschinen. Nach diesem Prinzip arbeiten VMware Server und Microsoft Virtual Server. Der VMware ESX Server läuft im Gegensatz dazu direkt auf der Hardware und benötigt dabei kein Wirtsbetriebssystem.

Eine VM wird auch als Gast bezeichnet. Die Software, die sich zwischen das Gastsystem und die reale Hardware schiebt, nennt sich Virtualisierungslayer. Der Virtualisierungslayer bestimmt die für den Gast verfügbare virtuelle Hardware. Je nach Virtualisierungslösung ist diese virtuelle Hardware immer typgleich. Auch hier gilt: Bei VMware Server[15] und Microsoft Virtual Server läuft der Virtualisierungslayer auf dem Wirtsbetriebssystem, während beim VMware ESX Server[16] der Virtualisierungslayer direkt auf die physische Hardware zugreift.[17] Hier wird sich eines so genannten VMkernels bedient, mit dem Vorteil eine deutlich höhere Geschwindigkeit zu erzielen, mit der die VM auf physikalische Hardware zugreifen kann, da weniger Komponenten beteiligt sind und folglich weniger Ressourcen verschwendet werden.[18] Auf fortführende Erläuterungen der Funktionsweisen wird hier verzichtet, da dies nicht Hauptbestandteil dieser Arbeit sein soll.

2.3 Welche Anbieter gibt es am Markt

Die Spanne der erhältlichen Lösungen reicht von kostenlosen Produkten für kleinere Umgebungen bis zu großen unternehmensweiten Konfigurationen. Für virtuelle Test-, Demo- oder Schulungsumgebungen stehen diverse Anbieter mit einer wachsenden Anzahl von Produkten bereit. Es gibt Desktop-Produkte wie VMware Workstation und Virtual PC, außerdem bieten kostenlose Serverprodukte, wie VMware Server, Microsoft Virtual Server und Xen, Werkzeuge zur Virtualisierung. Bei Systemen mit großen Benutzerzahlen und zunehmenden Variationen sollte auf eine High-End-Lösung abgestellt werden, in Verbindung mit dem Einsatz eines Lab Managers, für gute Überschau- und Handhabbarkeit. An dieser Stelle ist VMware´s Flaggschiff, der ESX Server, zu nennen. Ein weiteres kommerzielles Produkt ist Xen Enterprise 3.1. Alternativen dazu sind Parallels Workstation oder die Open-Source- Kandidaten Qemu und Bochs, die jedoch unter die Kategorie Emulatoren fallen[19]. Das ist sozusagen die totale Virtualisierung, denn es wird ein kompletter Rechner inklusive Prozessor nachgebildet[20]. Jedoch fehlen hier Bedienoberflächen für umfangreiche Testumgebungen und Verwaltungswerkzeuge. Virtuozzo, OpenVZ und Suns Solaris Container sind ebenfalls Kandidaten die sich nur bedingt für Testumgebungen eignen, da sie immer nur mehrere Instanzen ein und desselben Betriebssystems darstellen. VMware und Microsoft bieten Windows-Versionen an, unter Linux sind aber nur die VMware-Produkte praktikabel.[21]

2.4 Womit virtualisiert die <<Energiediensleister AG>>

Die <<Energiedienstleister AG>> nutzt das wohl derzeit fortschrittlichste Servervirtualisierungsprodukt am Markt. Die Rede ist vom VMware ESX Server. Trotz einschlägig hoher Lizenzkosten liegen die Vorteile eindeutig auf der Hand. VMware ESX bringt sein eigenes Wirtsbetriebssystem mit und kann somit die zur Verfügung gestellte Leistung im Vergleich zum VMware GSX Server um einiges erhöhen. Während der GSX Server 70-90 Prozent der Wirtsleistung an die VM weitergibt, sind es beim ESX Server 83-98 Prozent. Das Manko dieses Mehr an Geschwindigkeit ist, dass deutlich weniger Geräte auf dem Wirtsbetriebssystem unterstützt werden. Verwendet man aber VMware ESX zertifizierte Hardware, steht man auf der sicheren Seite. Ein weiterer Pluspunkt des ESX Servers ist das Beschränken der Ressourcen der VMs, wenn nötig. Außerdem können den VMs unterschiedliche Prioritäten zugewiesen werden. Die komplette Konfiguration des ESX Servers und der virtuellen Maschinen kann über das Management User Interface, die Webschnittstelle, erfolgen. Als nützlich erweist sich auch das Virtual Center, mit dem Templates zentral verwaltet werden können, zur Realisierung mehrerer neuer Server in kürzester Zeit[22]. Durch die Integration in das Virtual Center sind weitere Funktionalitäten möglich, wie VMotion[23], die Fernsteuerung kann mittels VMware Remote Console geschehen.[24] Dies kommt hier nur der Vollständigkeit halber zur Erwähnung. Die Erläuterung weiterer umfassender Funktionalitäten des VMware ESX Servers, ebenso wie eine tiefgründigere, technischere Erklärung findet in dieser Arbeit nicht statt.

3. Total Cost of Ownership (TCO)

3.1 Entwicklungstendenzen

Investitionen in der Informationstechnologie stehen in Konkurrenz und vergleichsweise in zunehmend ökonomisch schwierigen Zeiten zu anderen Investitionen eines Unternehmens. Traditionelle Bewertungsmethoden der Betriebswirtschaft auf die IT zu übertragen hat sich als unzureichend erwiesen, ebenso stellt die nicht hinreichende Kostenorientierung auf diesem Sektor ein Problem dar. Für diese Kostenorientierung steht das 1987 ins Leben gerufene Modell der Total Cost of Ownership (TCO) der Gartner Group.

[...]


[1] Zimmer, D.: VMware und Microsoft Virtual Server, Bonn 2005, S. 42.

[2] Vgl. Energie Effiziente IT Produkte.

[3] Vgl. Dynamic Data Center: Befreiungsschlag für Rechenzentren.

[4] Vgl. Zimmer, D.: S. 26.

[5] Vgl. Spath, D. et. al. (Hrsg.): IT Virtualisierung und Grid-Computing, Präsentation in: Tagungsband, Stuttgart 2006, S. 119-125.

[6] Vgl. Rechenberg, P./Pomberger, G.: Informatik Handbuch, 4. Aufl., München 2006, S. 896.

[7] Vgl. Schneider, U./Werner, D.: Taschenbuch der Informatik, 5. neubearbeitete Aufl, München 2004, S. 400.

[8] Vgl. Thorns, F.: Das Virtualisierungs-Buch, 1. Aufl, Böblingen 2007, S. 20-21.

[9] Vgl. Unbekannter Verfasser: VMWare verschenkt den GSX Server, Artikel in: CT – Magazin für Computertechnik, 2/2006, S. 60.

[10] Vgl. Thorns, F.: Das Virtualisierungs-Buch, 1. Aufl, Böblingen 2007, S. 21-23.

[11] Ahnert, S.: Virtuelle Maschinen mit VMware und Microsoft, München 2007, S. 22.

[12] Vgl. Zimmer, D.: VMware und Microsoft Virtual Server, Bonn 2005, S. 31.

[13] Vgl. Ahnert, S.: Virtuelle Maschinen mit VMware und Microsoft, München 2007, S. 22.

[14] Vgl. Zimmer, D.: S. 31-32.

[15] siehe Abbildung 1.

[16] siehe Abbildung 2.

[17] Vgl. Ahnert, S.: Virtuelle Maschinen mit VMware und Microsoft, München 2007, S. 36f.

[18] Vgl. Zimmer, D.: VMware und Microsoft Virtual Server, Bonn 2005, S. 34.

[19] Vgl. Ahnert, S.: S. 38.

[20] Vgl. Spath, D. (Hrsg.) et. al.: IT Virtualisierung und Grid-Computing, Präsentation in: Tagungsband, Stuttgart 2006, S. 120.

[21] Vgl. Ahnert, S.: Seinsfragen – virtuelle Maschinen für Test, Demo und Schulung, Artikel in: Magazin für Professionelle Informationstechnik, 2/2007, S. 44-47.

[22] Vgl. Zimmer, D.: VMware und Microsoft Virtual Server, Bonn 2005, S. 45.

[23] VMotion meint das Verschieben laufender virtueller Maschinen zwischen ESX-Systemen.

[24] Vgl. Zimmer, D.: S. 74.

Ende der Leseprobe aus 36 Seiten

Details

Titel
Total Cost of Ownership-basierte Kosten-Nutzen-Analyse bei Virtualisierung
Hochschule
Hochschule für Technik, Wirtschaft und Kultur Leipzig
Veranstaltung
Studieschwerpunkt Wirtschaftsinformatik
Note
1,3
Autor
Jahr
2007
Seiten
36
Katalognummer
V121424
ISBN (eBook)
9783640258321
ISBN (Buch)
9783640259847
Dateigröße
1740 KB
Sprache
Deutsch
Anmerkungen
Es handelt sich hierbei um eine praktische Hausarbeit. Der Unternehmensname wurde durch Energiedientsleister AG ersetzt.
Schlagworte
Total, Cost, Ownership-basierte, Kosten-Nutzen-Analyse, Virtualisierung, Studieschwerpunkt, Wirtschaftsinformatik
Arbeit zitieren
Lars Schmidt (Autor), 2007, Total Cost of Ownership-basierte Kosten-Nutzen-Analyse bei Virtualisierung, München, GRIN Verlag, https://www.grin.com/document/121424

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Total Cost of Ownership-basierte Kosten-Nutzen-Analyse bei Virtualisierung



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden