Diese Arbeit befasst sich mit der Virtualisierung von Betriebssystemen im Server- und PC-Bereich zur Unterteilung der real vorhandenen Hardwareressourcen in unabhängige logische Systeme und damit zur Entkopplung der Betriebssysteme von konkreter Hardware. Ziel ist es, eine höheren Flexibilität der Betriebssysteme und eine höhere Auslastung der realen Hardware durch Parallelbetrieb mehrerer Betriebssysteme zu ermöglichen.
Zu Beginn soll definiert werden, was Virtualisierung im Kontext dieser Arbeit ist, um anschließend die grundlegenden Chancen und Risiken dieser Idee zu beschreiben. Nach einem Überblick über die Entwicklung der Virtualisierung von den Anfängen bis hin in die Gegenwart sollen die verschiedenen Virtualisierungsverfahren und -techniken theoretisch und anhand ihrer Umsetzung in konkreten Produkten dargestellt und kritisch gewürdigt werden.
Im Anschluss sollen diese Ansätze verglichen, eine Auswahlhilfe geboten und eine Prognose der zukünftigen Entwicklungen gewagt werden.
Inhaltsverzeichnis
1. Ziel und Motivation der Arbeit
2. Definition Virtualisierung
3. Chancen der Virtualisierung
4. Risiken der Virtualisierung
5. Geschichtliche Entwicklung
6. Virtualisierungsverfahren und technische Ansätze
6.1. Emulation
6.1.1. Funktionsweise
6.1.2. Beispiel: VICE - Versatile Commodore Emulator
6.1.3. Beispiel: DOSBox
6.1.4. Bewertung
6.2. Betriebssystem-Container
6.2.1. Funktionsweise
6.2.2. Beispiel: Solaris Zones
6.2.3. Bewertung
6.3. Native Virtualisierung
6.3.1. Funktionsweise
6.3.2. Beispiel: VMware Workstation und VMware Server– Hypervisor Ebene 2
6.3.3. Beispiel: Microsoft Virtual PC / Virtual Server – Hypervisor Ebene 2
6.3.4. Bewertung
6.4. Paravirtualisierung
6.4.1. Funktionsweise
6.4.2. Beispiel: Xen
6.4.3. Beispiel: VMware ESX Server
6.4.4. Beispiel: Microsoft Hyper-V
6.4.5. Bewertung
6.5. Hardwareunterstützung zur Virtualisierung
7. Kriterien zur Verfahrensauswahl
8. Zusammenfassender Ausblick
9. Zukunftsprognose
Zielsetzung & Themen
Diese Arbeit zielt darauf ab, ein fundiertes Verständnis für die Virtualisierung von Betriebssystemen zu schaffen, indem sie die grundlegenden Definitionen, Chancen und Risiken analysiert sowie verschiedene technische Virtualisierungsverfahren anhand ihrer praktischen Umsetzung in konkreten Produkten kritisch würdigt.
- Grundlagen und Definition der Virtualisierung in der Informatik.
- Analyse der Chancen (z.B. Hardwareauslastung) und Risiken (z.B. Komplexität).
- Detaillierte Untersuchung technischer Ansätze: Emulation, OS-Container, native Virtualisierung und Paravirtualisierung.
- Methodische Kriterien zur Auswahl geeigneter Virtualisierungsverfahren.
- Prognose zur zukünftigen Marktentwicklung und Trends im Bereich Virtualisierungssoftware.
Auszug aus dem Buch
6.3.1. Funktionsweise
Native Virtualisierung (in der Literatur oft synonym verwendet: Full Virtualization) kann als Weiterentwicklung der Emulation betrachtet werden, bei der eine zusätzliche Abstraktionsschicht genutzt wird, der Hypervisor (Synonyme: Virtual Machine Monitor (VMM), Virtualization Layer). Dieser stellt virtuelle Hardware für die Gäste bereit und dient im Hintergrund als transparente Schnittstelle zwischen den Host und den Gästen. Erreicht werden soll, dass die Gastsysteme in der virtuellen Umgebung weiterhin ohne Modifikationen lauffähig sind und ihr Kernel nicht an die virtuelle Umgebung angepasst werden muss. Die reale Hardware des Hostsystems wird teilweise, wo dies möglich ist, aus Geschwindigkeitsgründen von den Gästen direkt benutzt. Ebenso wird durch den Hypervisor versucht, einen möglichst großen Teil der CPU-Instruktionen der Gäste direkt und ohne Konvertierung auf der realen CPU auszuführen, hauptsächlich privilegierte Befehle müssen abgefangen und konvertiert werden. Goldberg und Popek formulierten diese Grundanforderung in einer ihrer Arbeiten wie folgt:
„ For any conventional third generation computer, a virtual machine monitor may be constructed if the set of sensitive instructions for that computer is a subset of the set of privileged instructions.“
Dies bedeutet, dass eine Computerarchitektur grundsätzlich genau dann mittels eines Hypervisors virtualisiert werden kann, wenn alle Befehle, die zur Aufrechterhaltung der Isolation der Gäste vom Hypervisor abgefangen werden müssen, Teil der privilegierten Instruktionen sind. Bei der x86-Architektur ist dies nicht immer der Fall, so dass der Hypervisor den Code der Gäste vor der Ausführung noch analysieren und diejenige privilegierten Befehle, die keine CPU-Exception auslösen, durch entsprechende Aufrufe ersetzen, die ihn in die Lage versetzen, den Befehl abfangen und vor der realen Ausführung anpassen zu können. Trotzdem bleibt eine Konsequenz aus dem angeführten Ansatz, dass Host- und Gastsystem für die gleiche Prozessorarchitektur geschrieben sein müssen.
Zusammenfassung der Kapitel
1. Ziel und Motivation der Arbeit: Diese Einführung erläutert die Zielsetzung, Betriebssysteme von konkreter Hardware zu entkoppeln, um die Flexibilität und Hardwareauslastung zu erhöhen.
2. Definition Virtualisierung: Dieses Kapitel nähert sich dem Begriff Virtualisierung im Informatikkontext an und definiert diesen als das Betreiben von Systemkomponenten in einer abstrakten, von Basisgeräten abgehobenen Umgebung.
3. Chancen der Virtualisierung: Es werden die wesentlichen Vorteile wie bessere Hardwareauslastung, Reduzierung von Hardwareausfällen, vereinfachte Verwaltung und verbesserte Malware-Erkennung dargelegt.
4. Risiken der Virtualisierung: Hier werden die Herausforderungen wie erhöhte Systemkomplexität, Performanceeinbußen durch die Verwaltungsebene sowie Sicherheitsrisiken durch böswillige Hypervisoren beleuchtet.
5. Geschichtliche Entwicklung: Das Kapitel zeichnet die historische Entwicklung von den ersten Ansätzen in den 1960er Jahren über die Arbeit von Goldberg und Popek bis zum heutigen Trend der PC-Virtualisierung nach.
6. Virtualisierungsverfahren und technische Ansätze: Dieser Hauptteil analysiert detailliert die verschiedenen Verfahren (Emulation, Container, Native, Paravirtualisierung) anhand ihrer Funktionsweise, spezifischer Produkte und einer kritischen Bewertung.
7. Kriterien zur Verfahrensauswahl: Dieses Kapitel bietet einen Leitfaden zur Auswahl der passenden Methode, wobei technische Leistungskriterien und der geplante Einsatzzweck gegenübergestellt werden.
8. Zusammenfassender Ausblick: Der Abschnitt fasst die Popularität der Virtualisierung zusammen und diskutiert aktuelle Trends, wie die Integration von Virtualisierung direkt in Betriebssysteme.
9. Zukunftsprognose: Basierend auf Marktberichten wird das Wachstum des Virtualisierungsmarktes analysiert und die zukünftige Rolle von Akteuren wie Microsoft sowie die wirtschaftliche Bedeutung der Technologie bewertet.
Schlüsselwörter
Virtualisierung, Hypervisor, Emulation, Betriebssystem-Container, Native Virtualisierung, Paravirtualisierung, Hardwareauslastung, IT-Infrastruktur, VMware, Microsoft Hyper-V, Xen, Systemisolation, Prozessorarchitektur, Serverkonsolidierung, Root-Server
Häufig gestellte Fragen
Worum geht es in dieser Projektarbeit grundsätzlich?
Die Arbeit behandelt die Virtualisierung von Betriebssystemen, insbesondere deren Definition, verschiedene technische Ausprägungen und deren Funktionsweisen in aktuellen Server- und PC-Umgebungen.
Welches sind die zentralen Themenfelder der Arbeit?
Die zentralen Themen umfassen die theoretischen Grundlagen der Virtualisierung, die Abwägung von Chancen und Risiken sowie eine detaillierte technische Analyse verschiedener Virtualisierungsverfahren wie Emulation, Container und Hypervisor-basierte Lösungen.
Was ist das primäre Ziel der Untersuchung?
Ziel ist es, Virtualisierungstechniken theoretisch und anhand von konkreten Marktprodukten darzustellen, kritisch zu bewerten und eine Entscheidungshilfe für die Auswahl des geeigneten Verfahrens zu bieten.
Welche wissenschaftlichen Methoden werden angewandt?
Die Arbeit stützt sich auf eine fundierte Literaturrecherche, den Vergleich technischer Konzepte sowie die Analyse von Fallbeispielen in Form von Softwareprodukten und Industrieprozessen.
Was wird im Hauptteil der Arbeit primär behandelt?
Der Hauptteil widmet sich intensiv der Kategorisierung der Virtualisierungsverfahren, wobei die technische Funktionsweise, konkrete Beispiele (z.B. VMware, Xen, DOSBox) und eine jeweils kritische Bewertung der Methoden im Fokus stehen.
Welche Schlüsselbegriffe charakterisieren diese Arbeit?
Die Arbeit wird maßgeblich durch Begriffe wie Hypervisor, native Virtualisierung, Paravirtualisierung, Hardwareabstraktion und Serverkonsolidierung charakterisiert.
Worin unterscheidet sich die native Virtualisierung von der Paravirtualisierung?
Bei der nativen Virtualisierung laufen Gastsysteme ohne Modifikationen, während bei der Paravirtualisierung die Gastbetriebssysteme an den Hypervisor angepasst werden müssen, um eine höhere Performance zu erzielen.
Wie bewertet der Autor den Einfluss von Microsoft auf den Virtualisierungsmarkt?
Der Autor prognostiziert, dass Microsoft aufgrund seiner Monopolstellung im Betriebssystembereich durch die Integration von Virtualisierungsfunktionen "ab Werk" langfristig zum Marktführer aufsteigen könnte, vergleichbar mit dem historischen "Browser-Krieg".
- Quote paper
- Michael Rongen (Author), 2009, Virtualisierung von Betriebssytemen im Server- und PC-Bereich. Definition, Ausprägungen und Funktionsweisen, Munich, GRIN Verlag, https://www.grin.com/document/135401