Konsolidierung, Zentralisierung & Virtualisierung von Rechenzentren


Hausarbeit, 2009

20 Seiten, Note: 1,0


Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Abkürzungsverzeichnis

1. Einleitung

2. Geschichtliche Entwicklung im Ansatz

3. Die Idee
3.1 Steigerung der Systemverfügbarkeit
3.2 Die Vereinfachung

4. Hardware (Server und Client Architektur)
4.1 Virtualisierung. Was ist das?
4.2 Virtualisierung von Client/Server Systemen
4.3 Client Virtualisierung durch „Thin Clients“

5. Kosten-Nutzen Betrachtung

6. Fazit

Literaturverzeichnis

Abbildungsverzeichnis

Abb. 1-1 Beispiel einer Virtualisierung

Abb. 3.1-1 Aufbau eines Hochverfügbaren Servers

Abb. 4-1 Klassifikation von Serverrechner

Abb. 4-2 Funktionaler Aufbau eines Rechners

Abb. 4.1-1 Schichtmodell ohne Virtualisierung

Abb. 4.1-2 Schichtmodell mit Virtualisierung

Abb. 4.1-3 Detail Virtualisierungsschicht

Abb. 4.1-4 Anwendungssicht bei Virtualisierung

Abb. 4.2-1 Klassischer Client/Server Aufbau

Abb. 4.3-1 Anbindung von Thin Clients an eine VM-Landschaft

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

Kosten, Zeit und Qualität sind die betriebswirtschaftlichen Aspekte, die ein CIO in der heutigen Zeit gerecht werden muss. Um diesem Druck entgegen treten zu kön-nen, werden andere neue Technologien entwickelt, und andere alte Technologien weiter entwickelt. Software-Anwendungen stehen deshalb im Focus der CIO´s. Die Abhängigkeit der Unternehmen von diesen Anwendungen ist enorm. Workflows innerhalb eines Unternehmens, aber auch die Abläufe mit den Kunden und Part-nern setzen in der heutige Zeit hohe Maßstäbe an die Leistungsfähigkeit der Re-chenzentren. Jederzeit und an jedem Ort einen zuverlässigen Zugang zu den Daten und den Anwendungen zu haben, ist eine Herausforderung, der die Administration gerecht werden muss.

Die Virtualisierung durch VMware, Konsolidierung durch Main-Frams (Großrechner) und die Zentralisierung durch die Zusammenführung von Rechenzentren können in einem Unternehmen zur Verbesserung des Return on Investment (ROI) führen. Diese Themen sind nicht neu und haben eine ca. 50 jährige Geschichte hinter sich. Um eine optimale Ressourcennutzung zu ermöglichen, kommt es in vielen Fällen zur Konsolidierung oder zur Virtualisierung von Client-Server Farmen.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1-1 Beispiel einer Virtualisierung

Zurzeit erlebt die Virtualisierung eine starke Nachfrage, doch ist die Virtualisierung alles andere als ein neues Thema - auf Basis der Main-Fram existiert diese bereits seit ca. 50 Jahren.

Ein weiteres stark diskutiertes Thema im Kontext zur Virtualisierung ist die Green IT. Durch die Konsolidierung und Virtualisierung von Hardware und Software nimmt auch in der IT das Umweltbewusstsein zu. Durch Einsparungen beim Energiever-brauch und des Materialverbrauchs soll auch hier ein nicht unerheblicher Beitrag zur Verringerung des CO2 Ausstoßes gemacht werden und damit dem Klimawandel entgegen gewirkt werden. Viele große Firmen greifen dieses Thema auf und wagen den Schritt in Richtung Virtualisierung, Konsolidierung und Zentralisierung.1

So wurde auch bei der Kölner Verkehrs Betriebe AG im Jahr 2007 die Idee zur Vir-tualisierung und Konsolidierung im Bereich der Prozesstechnik als Lösung für ein HA (High-Ability) Problem gebildet.2

2. Geschichtliche Entwicklung im Ansatz

Wie in der Einleitung erwähnt, wurden in den 50er Jahren in Amerika das „Conver-sational Time Sharing System“ an der University of Cambridge entwickelt. Mit dem CTSS wurde eine Ressourcenaufteilung für verschiedene Aufgaben ermöglicht. Da-mit wurde der erste Schritt in Richtung Virtualisierung getan. In den 60er Jahren hat IBM diese Entwicklung aufgegriffen und weiter geführt. Ende der 60er Jahre hat IBM mit dem IBM/370 System ein Main-Fram System entwickelt, das schon erste Merkmale der Virtualisierung aufwies. Dieses System wurde vom IBM als Produkt akzeptiert und ist heute noch als z/VM auf den Großrechnern vorhanden. In vielen großen Daten-Centern wird dies eingesetzt.3 Erst Ende der 90er hielt die Virtualisie-rung Einzug in die Unternehmen. Dies lässt sich durch die steigende Leistungsfähig-keit der Server und PCs erklären, aber auch durch den massiven Preisverfall, den man am Markt beobachten kann. Der PC (Personal Computer) hat Unternehmen revolutioniert, so dass ein Leben ohne ihn unvorstellbar wäre.

3. Die Idee

In Rechenzentren heutiger Unternehmen stehen eine Vielzahl von dedizierten Ser-vern. Das Wort Konsolidierung kommt ursprünglich aus der Finanzwirtschaft und steht in der IT für die Zusammenführung und Vereinheitlichung von Computertech-niken. Die Idee die hier vorliegt, ist z.B. die Zusammenführung von gleichen Soft-wareanwendungen z.B. von Exchange Server, File-Server und Backupsystemen. Aber auch das Bestreben nach einer einheitlichen Hardwarelandschaft wird unter Konso-lidierung verstanden.

Rechenzentren platzen aus allen Nähten, historisch gewachsene Serverlandschaft machen den administrativen Aufwand sehr hoch. Auf zwei wesentliche Punkte muss bei Entscheidungen zur Virtualisierung, Konsolidierung und Zentralisierung muss geachtete werden:

- Applikationsperformance
- Verfügbarkeit

Diese wesentlichen Punkte der Performance und der Verfügbarkeit sollten mög-lichst gleichzeitig betrachtet werden. Bei einer nicht gleichzeitigen Betrachtungs-weise besteht die Gefahr, dass eines dieser Merkmale zu Ungunsten des anderen ausfällt.

Die Client-Server-Architektur basiert auf der Überlegung, Server und Clients nahe beieinander zu haben, um höhere Applikationsperformance zu erzielen. Verfolgt man das Thema der Konsolidierung, so wird man feststellen, dass dies mit dem Punkt der Applikationsperformance antizipiert. Viele Unternehmen, die sich für eine Konsolidierung entscheiden, erhöhen die Bandbreite um diesen Effekt abzufe-dern. Oft liegt die Problematik nicht an der Performance des WANs, viel eher an einer Unzulänglichkeit im Applikationsprotokoll. Eine Bandbreitenerweiterung ist sehr kostspielig und lässt den Kostenvorteil, den man sich durch eine Konsolidierung erhofft, schmelzen.

3.1 Steigerung der Systemverfügbarkeit

Die Folgen eines Systemausfalls steigen mit der Anzahl der Anwender, die von die-sen Servern bedient werden. Die bisher vorhandene Downtime einzelner Systeme entfällt mit der Konsolidierung. Deshalb ist es erforderlich eine umfassende Strate-gie für die Bereiche des Disaster Recovery und des Business Continuity zu entwi-ckeln. Hilfsmittel, die einem Unternehmen zur Verfügung stehen, sind Technologien wie Data Replication oder Continous Data Protection bei dezentralen Standorten usw.. Bei Konsolidierung von Serverlandschaften, sowie bei der Zentralisierung steht zwar die Rechnerleistung im Vordergrund, doch sollte man die Verfügbarkeit nicht vernachlässigen.

Server Hoch-Verfügbar machen: Aber wie?

Dieser Fragestellung kann man entgegnen mit einer Cold-Standby- oder Hot-Standby- Lösung. Bei einer Cold-Standby- Lösung wird ein Twin-Server (Zwilling) erstellt, der beim Ausfall des aktiven Servers, durch z.B. das Tauschen der Netz-werkkarte oder der Festplatte in Betrieb genommen wird. Bei dieser Lösung kann nicht sichergestellt werden, ob auch wirklich alle Daten dem Anwender wieder zur Verfügung stehen. Eine weitere Möglichkeit zur Sicherstellung einer Hochverfüg-barkeit ist die Hot-Standby-Lösung. Hierbei handelt es sich um zwei Server, die über den gleichen Informationsstand verfügen.4

Wie in der Abbildung unten gezeigt wird, betreibt man bei einer solchen Lösung eine zusätzliche Netzwerkkarte an beiden Rechnern, über den der Abgleich der Da-ten läuft.5

Abbildung in dieser Leseprobe nicht enthalten

Abb. 3.1-1 Aufbau eines Hochverfügbaren Servers

Ein Grund, warum bei der Kölner Verkehrs- Betriebe AG ein ganzes System virtuali-siert wurde, war, wie in der Einleitung erwähnt, die Bereitstellung einer ausfallsi-cheren Hardware. Die Hochverfügbarkeit dieser Anlage wurde durch den Aufbau eines METRO-CLUSTERs erreicht. Hierzu wurden 4 ESX-Server über Fiberchanel an zwei von einander getrennten Rechenzentren aufgebaut.

Ein METRO-CLUSTER ist eine integrierte Storage-Lösung, die über eine standort-übergreifende synchrone Datenspiegelung verfügt. Daten des primären Standortes werden für den entfernten Standort repliziert, um dessen vollständige Aktualität zu gewährleisten. Die Kombination aus Failover und Datenreplizierung stellt sicher, dass Notfallwiederherstellungen ohne Datenverluste innerhalb von Minuten, ans-tatt von Stunden oder Tagen, möglich sind. Bei einem Ausfall, sei es durch ein be-grenztes Hardware-Problem oder einen standortweiten Notfall, erweitert Metro-Cluster die Vorteile der Cluster-Servertechnologie (Microsoft Cluster, Unix-Cluster, etc.) auf weit entfernte Standorte.

3.2 Die Vereinfachung

Durch den Aufbau eines solchen Clusters in Kombination einer VM Umgebung er-reichten die Kölner Verkehrs-Betriebe AG nicht nur eine Hochverfügbarkeit der Ser-verlandschaft. Sondern durch den Einsatz des Virtual Centers bekam die Administra-tion ein Werkzeug in die Hand mit dem alle Server dieser Umgebung gemanagt werden können. Über das Virtual Center lassen sich Leistungsmerkmale abrufen, aber auch die Rechtevergabe von Servern managen. Ein weiterer Aspekt besteht in der vereinfachten Anpassung von Hardwareressourcen, an die Leistungsanforde-rung. Da VM „nur“ ein Stück Software ist, kann diese besser an die Leistungsmerk-male angepasst werden, als die Hardware selbst.6

[...]


1 Vgl. Anonymus. (2009). White Paper Im Focus: Citrix 20 Jahre Erfahrung in der Virtualisierung. SearchDataCenter.de. S. 1 ff

2 Vgl. Anonymus. (2009). White Paper Im Focus: Citrix 20 Jahre Erfahrung in der Virtualisierung. SearchDataCenter.de. S. 1 ff

3 Vgl. Tanenbaum, A. (2009). Moderne Betriebssysteme (Bd. Auflage 3). München: Pearson Studium. S.105

4 Vgl. Lorentz, C. (10. 06 2009). Von Searchdatacenter:

puspushttp://searchdatacenter.de/thmenbereiche/virtualisierung/strategien/articels/190861

5 Vgl. Lorentz, C. (10. 06 2009). Von Searchdatacenter:

puspushttp://searchdatacenter.de/thmenbereiche/virtualisierung/strategien/articels/190861

6 Vgl. Herbst, R. (09. 06 2009). Der Computer als Applikation. Berlin.

Ende der Leseprobe aus 20 Seiten

Details

Titel
Konsolidierung, Zentralisierung & Virtualisierung von Rechenzentren
Hochschule
FOM Hochschule für Oekonomie & Management gemeinnützige GmbH, Köln
Veranstaltung
Hardware/Betriebssysteme
Note
1,0
Autor
Jahr
2009
Seiten
20
Katalognummer
V138784
ISBN (eBook)
9783640482559
ISBN (Buch)
9783640482658
Dateigröße
790 KB
Sprache
Deutsch
Schlagworte
Konsolidierung, Zentralisierung, Virtualisierung, Rechenzentren
Arbeit zitieren
Günter Weißelberg (Autor), 2009, Konsolidierung, Zentralisierung & Virtualisierung von Rechenzentren, München, GRIN Verlag, https://www.grin.com/document/138784

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Konsolidierung, Zentralisierung & Virtualisierung von Rechenzentren



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden