Die Zukunft der Datenspeicherung. Welche neuen Arten haben es geschafft, sich auf dem Markt zu etablieren?


Seminararbeit, 2016

18 Seiten, Note: 2,0


Leseprobe

Inhaltsverzeichnis

1. Einführung und Rückblick

2. Zentral und dezentrale IT

3. HDD vs. SSD
3.1. Vor und Nachteile
3.2. Die weitere Entwicklung

4. In-Memory
4.1. Stärken und Schwächen
4.2. Die Lösung für Big-Data?

5. Software-Defined-Storage, die Virtualisierung des Speichers

6. Cloud Computing
6.1. Ebenen und Arten der Cloud
6.2. Private vs. Public Cloud
6.3. Chancen und Risiken
6.4. Bandbreite als Flaschenhals

7. Warum wirken diese Techniken disruptiv?

8. Ausblick über die weitere Entwicklung

9. Fazit

10. Literaturverzeichnis

1. Einleitung

Die Techniken der Datenspeicherung schreiten immer schneller voran, am Anfang der Entwicklung stand lange Zeit die Lochkarte, seit diesem Zeitpunkt wurden Entwicklungen in immer kürzeren Abständen vorgestellt. Über Disketten, Festplatten und USB-Sticks gab es immer neuere Möglichkeiten, die steigende Flut an Daten zu speichern.

In dieser Arbeit werde ich die neuen Arten der Datenspeicherung vorstellen, die es geschafft haben, sich auf dem Markt zu etablieren. Am Anfang werde ich mich mit der Thematik von zentraler oder dezentraler Datenspeicherung beschäftigen und die Vor- und Nachteile dieser Art der Speicherung beleuchten. Anschließend werde ich verschiedene Techniken des Speicherns aufzeigen, wie die rotierende Festplatte von der SSD abgelöst wird und wie In-Memory-Speicher es möglich machen, riesige Datenmengen in kurzer Zeit zu analysieren und somit Big-Data völlig neue Türen öffnet. Darauf aufbauend werde ich auf Software-defined-Storage eingehen und aufzeigen, welche Möglichkeiten sich daraus ergeben, mit dieser Software verschiedenste Hardwarekomponenten effektiv zu nutzen.

Danach wird die Cloud mit all ihren Facetten erklärt und Pro und Kontra diskutiert. Wie sich die Chancen und Risiken auf die Entwicklung der Cloud auswirken, welche Hürden überwunden werden müssen, damit sich die Cloud durchsetzen kann und was Unternehmen bei der Umstellung auf CloudComputing zu beachten haben. Ich werde in diesem Zusammenhang auch auf das Problem der Bandbreite bei der Nutzung von Cloud-Services eingehen, da dies ein zentrales Thema bei der erfolgreichen Einführung der Cloud in Unternehmen ist. Denn wenn die Verbindung zwischen Cloud und Unternehmen träge ist, nützen auch die besten Cloud-Services wenig.

Anschließend werde ich darlegen, warum diese Techniken Bestehendes verdrängen und zu einem technologischen Fortschritt führen. Zum Schluss ziehe ich mein Fazit und lege meine Einschätzung zur weiteren Entwicklung dar. Ziel der Arbeit ist es, die Richtung aufzuzeigen, in welche sich die digitale Datenspeicherung am wahrscheinlichsten entwickelt. Nicht in diese Arbeit mit einbezogen wurden Speichertechniken, die wirtschaftlich betrachtet keinen Anwendungsbereich aufweisen, da sie bislang nur Nischen bilden und eine breite Anwendung noch in zu weiter Zukunft liegt.

2. Zentrale und dezentrale IT

Zentrale oder dezentrale Datenspeicherung haben beide Vor- und Nachteile. Die Vorteile zentraler Speicherung sind ein einheitlicher Standard und einfache Kommunikation zwischen den einzelnen Abteilungen und gegebenenfalls verschiedenen Standorten. Schnittstellenprobleme werden schnell erkannt und es kann sichergestellt werden, dass die Systeme untereinander kompatibel sind. Dadurch hat man einheitliche Daten vorliegen, wodurch Big-Data-Analysen deutlich vereinfacht werden. Ein weiterer Vorteil zentraler IT sind Skaleneffekte sowie die Datensicherheit, da sie einfach verwaltet werden kann. Dies spart Kosten.

Dezentrale Datawarehouses haben die Stärke, dass sie nicht so schnell überlastet werden können, da das DWH in viele kleine Data-Marts eingeteilt wird und jede Einheit nur von einer Abteilung beansprucht wird.

Dezentrale IT hat den Vorteil, dass es einfacher ist, spezielle Lösungen zu entwickeln und anzuwenden. Abstimmung mit der zentralen IT fällt weg, die Dienstwege verkürzen sich, da sich Lösungen schneller und flexibler einsetzen lassen. Dadurch sind Mitarbeiter einzelner Abteilungen zufriedener, weil sie ihre eigenen Anwendungen nutzen können. Außerdem ist der Informationsverlust bei der Vergabe von Aufträgen an andere Firmen geringer. Allerdings entstehen dadurch auch viele verschiedene „Insellösungen“, die sich nur schwer mit der IT anderer Abteilungen synchronisieren lassen. Oft hat man auch das Problem, dass die einzelnen Abteilungen nicht an dem gemeinsamen Ziel arbeiten, wodurch wiederum individuelle Excel-Tabellen entstehen.

Dezentrale IT kann allerdings nur bestehen, wenn ein Echtzeitdatenaustausch der Geräte untereinander gewährleistet werden kann. Wenn man sich allerdings die Trends wie Industrie 4.0, BigData und Bring-your-own-Device (BYOD) ansieht, ist es unter Umständen sinnvoller auf eine zentrale IT zu setzen und die Sicherheit dieses Systems zu gewährleisten.1

Wollen Nutzer überhaupt eine zentrale Speicherung?

Mittlerweile hört man aus jeder Ecke, dass die Cloud und damit die zentrale Speicherung die Zukunft ist. Doch eigentlich ist das Internet dezentral aufgebaut. Die Nutzer speichern Daten auf ihren eigenen Rechnern, auf denen sichergestellt ist, dass nur sie auf ihre Daten zugreifen können. Dies bliebe auch für die Zukunft eine Option, wenn Nutzer kein Vertrauen zur Cloud aufbauen. Ebenso könnten Daten des Nutzers, wie z.B. seine Fitness-Daten, nur lokal auf dem Smartphone gespeichert werden, anstatt sie an den Server des Herstellers zu senden. Diesen Datenschutz müssten sich die Hersteller, die sich auch durch den Verkauf dieser Daten refinanzieren, vom Nutzer entgelten lassen.

3. HDD vs. SSD

3.1. Vor und Nachteile

Herkömmliche Hard Drive Disks (HDD) sind mittlerweile sehr preiswert geworden und haben große Speicherkapazitäten, die Technik ist verlässlich und man kann sie fast unendlich oft wiederbeschreiben, wenn man den natürlichen Verschleiß durch die Rotation außer Acht lässt. Die neuen Generationen werden durch die Weiterentwicklung der Technik immer größere Speicher hervorbringen und haben akzeptable Lese- und Schreibgeschwindigkeiten. Die HDD-Industrie geht davon aus, noch ca. 4 Jahre mit steigender Speicherkapazität produzieren zu können und dabei einen Kostenvorteil im Gegensatz zu SDD aufrechterhalten. So hat Western Digital eine Technik entwickelt, die durch den Einsatz von Helium eine größere Anzahl an Disks in der Festplatte ermöglicht und somit mehr Speicherplatz bietet. Gleichzeitig wird weniger Energie verbraucht und geringere Wärme erzeugt, da Helium eine geringere Dichte und damit weniger Reibung erzeugt. Eine andere Technik ist die des Heat-Assisted-Magnetic-Recordings (HAMR), bei dieser Entwicklung wird der Teil der zu beschreibenden Disk vor dem Schreibvorgang mit einem Laser stark erhitzt, somit ist es möglich ist bis zu 60 Terabyte auf einer Festplatte zu speichern.

Solid State Drive (SSD) ist deutlich schneller und etwas energiesparender, haben im Moment jedoch geringere Speicherkapazitäten und dadurch einen höheren Gigabytepreis. Zudem kann man sie nur ca. 10.000 Mal neu beschreiben, wodurch sich ihre Lebensdauer je nach Einsatz deutlich verkürzt. Die Hersteller arbeiten aber an immer besseren Techniken wie zum Beispiel 3D NAND, wodurch es möglich ist, die SSD etwa 30.000 Mal neu zu beschreiben und 1 Terabyte Speicher in einem Smartphone unterbringen zu können.2 3

Ein Problem der SSD ist die Datenrettung, falls das Modul beschädigt wird oder ein Firmwarefehler auftritt, da viele Hersteller die Rohdaten auf den Speicherchips automatisch verschlüsseln, ohne dass dafür ein Passwort eingegeben werden muss. Einen Mehrwert hat der Benutzer dadurch nicht, denn solange die SSD funktioniert kann jeder ganz normal darauf zugreifen. Wenn sie aber nicht mehr funktioniert, können selbst Spezialisten die Daten nicht mehr retten, da sie nicht herausfinden können welche Algorithmen die Controller der einzelnen Module der SSD haben. Die Hersteller der SSD müssten sicherstellen, dass es einheitliche Algorithmen für die Controller gibt, um dieses Problem zu beheben. Trotz alledem ist der Aufwand der Datenrettung bei SSD um ein vielfaches höher als bei normalen Hard Drive Disks, was sich aber auch daraus ableiten lässt, dass die Technik der HDD bereits lange am Markt etabliert ist.4

Unternehmen werden in der nächsten Zeit weiterhin auf ein geeignetes Mittelmaß zwischen günstigem und schnellem Speicher setzen. Daten, die häufig gebraucht werden, werden auf SSD gespeichert, andere Daten auf HDD. Durch Software-defined-Storage- Lösungen können Datenbank-Management- Systeme erkennen, welcher Speicher für welche Programme und Daten geeignet ist. Diese werden dann in den entsprechenden Speicher geladen und gewährleisten so eine optimale und vor allem schnelle Verfügbarkeit. Das In-Memory-Datenbanksystem verfügt über einen noch schnelleren Speicher als SSD, jedoch wird die breite Masse auf die Symbiose SSD/HDD zurückgreifen, da sie kostengünstiger ist. Diese Technik kann entweder in der eigenen IT angewendet werden oder wird von der Cloud bezogen.

3.2. Die weitere Entwicklung

In absehbarer Zukunft ist es fraglich, ob es weitere disruptiven Innovationen in dieser Richtung geben wird, welche die Symbiose zwischen HDD und SSD ersetzen, da der Markt für Speicher äußert hart umkämpft ist. Es gibt keine Möglichkeit, neue Produkte zu einem akzeptablen Preis/Leistungsverhältnis innerhalb einer angemessenen Zeitspanne am Markt zu positionieren, sodass sie mit den vorhandenen Produkten konkurrieren könnten. Die künftige Generation von SSD wird weniger fehleranfällig, haltbarer und energieeffizienter als die HDD sein. In ferner Zukunft wird das höhere Angebot der SSD den Preis fallen lassen und somit den rotierenden Speicher komplett verdrängen.5

4. In-Memory-Speicher

4.1. Stärken und Schwächen

In-Memory-Speicher nutzt den Arbeitsspeicher wie eine herkömmliche Festplatte. Das Problem dabei ist, dass die Daten bei einem Stromausfall nicht gespeichert werden. Abhilfe schafft hier die Möglichkeit, umfangreiche Replikationen einzurichten, um Datenverlust zu vermeiden. In-Memory eignet sich vor allem für die Analyse großer Datenmengen, da alle Daten bereits im schnellen Hauptspeicher vorhanden sind und somit direkt verarbeitet werden können. Diese Eigenschaft ist für die Business Intelligence eine gute Möglichkeit schnelle Ergebnisse zu erhalten. Außerdem werden die Daten nicht mehr wie früher in Zeilen gespeichert, sondern es wird ein Mix zwischen Zeilen und Spalten orientierter Speicherung angestrebt, um schneller Daten schreiben und lesen zu können. Die Vorteile dieser Technik liegen im Entfall des Auslagerns der Prozesse, dadurch werden Schnittstellen vermieden und der Prozessor kann sein volles Potenzial ausreizen. Dadurch wird die Zeit des Speicherprozesses, des Lesens und Schreibens deutlich verkürzt, Big-Data-Analysen können so in kürzester Zeit erledigt werden und Unternehmensentscheidungen mit beeinflussen. Auch ist zu erwähnen, dass auf die Unterscheidung zwischen Analyse- und Transaktionsdaten verzichtet werden kann, da diese in Echtzeit ausgewertet werden können. Es sollten aber auch die Nachteile nicht außer Acht gelassen werden. Dazu gehört, dass es sich bei In-Memory um einen flüchtigen Speicher handelt, somit muss ein hoher Aufwand für Back-Ups betrieben werden. Um bei einem Datenverlust schnell Daten wieder laden zu können, müsste man beispielsweise ein zweites Rechenzentrum mit derselben Kapazität betreiben, wodurch weitere hohe Kosten entstehen. Ein festplattengestütztes Datenbanksystem ist trotz alledem von Nöten, um historische Daten zu archivieren.

Die In-Memory-Technik ist schon eine Weile am Markt und durch den Preisverfall der Hardware wird es in Zukunft günstiger werden, diese einzusetzen. In Unternehmen, in denen Analysen zu viel Zeit in Anspruch nehmen, sollte man über In-Memory nachdenken, es wird auch die Möglichkeit geben, diese Technik zur Beschleunigung schon vorhandener Datenbanken zu nutzen und dadurch effektiver zu gestalten.

Eines der größten sozialen Netzwerke plant ebenfalls mittelfristig, ein In-Memory-Speichersystem zu installieren um die Performance der Anfragen nochmals zu erhöhen und schnellere Latenzzeiten zu garantieren.

4.2. Die Lösung für Big-Data?

Um die heutigen riesigen Datenmengen zu speichern und zu organisieren bedarf es viel und schnellen Speicher, um rechenintensive Analysen der Daten ad-hoc bereitstellen zu können. Für diese Aufgabe setzen Unternehmen leider zu selten auf die Möglichkeiten, die In-Memory-Speicher an Rechenleistung für solche anspruchsvolle Analysen bereithält.

[...]


1 (http://www.com-magazin.de/praxis/business-it/zentrale-versus-dezentrale-it-infrastruktur- 968695.html?page=2_der-goldene-mittelweg-an-stelle-von-patentrezepten, zuletzt geprüft am 03.12.2015) (http://www.computerwoche.de/a/logistik-it-besser-zentral,2551308, zuletzt geprüft am 18.11.2015)

2 (http://www.zdnet.com/article/the-future-of-storage-2015-and-beyond/, zuletzt geprüft am 03.12.2015) (http://www.infostor.com/disk-arrays/future-of-data-storage-8-technologies-changing-storage-1.html, zuletzt geprüft am 03.01.2016)

3 (http://www.notebookcheck.com/SSD-versus-HDD-im-Vergleich.18732.0.html)

4 (http://www.computerwoche.de/a/die-geheimen-schwaechen-der-ssd,2501912,5, zuletzt geprüft am 09.12.2015)

5 (http://www.pc-magazin.de/ratgeber/ssd-oder-hdd-hybrid-vorteile-nachteile-festplatten-ratgeber- 1472408.html)

Ende der Leseprobe aus 18 Seiten

Details

Titel
Die Zukunft der Datenspeicherung. Welche neuen Arten haben es geschafft, sich auf dem Markt zu etablieren?
Hochschule
Hochschule Aschaffenburg
Note
2,0
Autor
Jahr
2016
Seiten
18
Katalognummer
V321033
ISBN (eBook)
9783668203327
ISBN (Buch)
9783668203334
Dateigröße
677 KB
Sprache
Deutsch
Schlagworte
Datenspeicherung, Software
Arbeit zitieren
Christopher Gondermann (Autor), 2016, Die Zukunft der Datenspeicherung. Welche neuen Arten haben es geschafft, sich auf dem Markt zu etablieren?, München, GRIN Verlag, https://www.grin.com/document/321033

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Die Zukunft der Datenspeicherung. Welche neuen Arten haben es geschafft, sich auf dem Markt zu etablieren?



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden