Diese Arbeit befasst sich mit der Bedeutung von IT-Architektur für Unternehmen vor dem Hintergrund von Big Data.
Heutzutage stehen viele Unternehmen angesichts enorm wachsender Datenmengen vor großen Herausforderungen. Veränderte Kundenbedürfnisse, wie 24/7 Verfügbarkeit von Anwendungen und schnelle Verarbeitung von Daten, aber auch neue dynamische Geschäftsmodelle, zwingen Unternehmen zu einer schnellen, fehlerfreien und sicheren Verarbeitung von Daten in mobil und online genutzten Anwendungen.
Bestehende IT Systeme sind oft auf Zuverlässigkeit, Beständigkeit sowie Effizienz ausgerichtet und stehen losgelöst vom Kunden sehr starr IT-zentrisch. Zusammengestrickte Software bedingt schlecht vernetzte Systeme mit schlecht strukturierten Datenbanken, Nutzeroberflächen sowie Produktinformationen und alte Computer sind oft ein Sicherheitsrisiko. Für die Unternehmen stellt sich die Grundsatzfrage, inwiefern und auf welchem Weg sie sich für die Zukunft wappnen und im digitalen Zeitalter erfolgreich sein können. Gleichzeitig kämpfen Unternehmen mit Kostendruck, veralteten IT-Strukturen und knappen Budgets sowie regulatorischen Anforderungen. Eine gut durchdachte, moderne IT-Architektur ist deswegen heutzutage eine wesentliche Investition für ein Unternehmen, um wettbewerbsfähig zu sein und den veränderten Anforderungen und Bedürfnissen der Kunden gerecht zu werden.
In dieser Arbeit wird erörtert, ob neue IT-Architekturen diesen Anforderungen in der Praxis gerecht werden und einen Mehrwert für Unternehmen generieren können.
Inhaltsverzeichnis
Zukunft der IT-Architektur
Big Data
Definition
Bedeutung für Unternehmen
Charakteristiken von Big Data
Neue Anforderungen an IT-Strukturen
Serverless Computing
Entwicklung und Prinzip
Limitationen und Vorteile
Lambda Architektur
Anforderungen an eine Big Data Architektur
Entwicklung
Die Anwendung von Funktionen
Struktur
Ausblick
Zielsetzung & Themen
Die vorliegende Arbeit untersucht, wie moderne IT-Architekturen den wachsenden Anforderungen durch Big Data gerecht werden können und ob sie in der Lage sind, für Unternehmen einen messbaren Mehrwert zu generieren, indem sie Flexibilität, Skalierbarkeit und Schnelligkeit bei der Datenverarbeitung vereinen.
- Transformation klassischer IT-Architekturen im digitalen Zeitalter
- Herausforderungen und Charakteristiken von Big Data für Unternehmen
- Einsatzmöglichkeiten und Prinzipien von Serverless Computing
- Methodik und Aufbau der Lambda Architektur zur Datenverarbeitung
- Integration von Event-gesteuerten Anwendungen (AWS Lambda)
Auszug aus dem Buch
Charakteristiken von Big Data
Oftmals werden in der Literatur sogenannte 3Vs beschrieben, welche Big Data charakterisieren:
Volume: Das Datenvolumen, welches jeden Tag generiert wird, ist big
Velocity: Die Geschwindigkeit, mit welcher Daten generiert, produziert und erschaffen werden, ist sehr hoch und schnell
Variety: Es gibt nicht nur strukturierte, sondern zunehmend mehr semi- oder unstrukturierte Daten, welche verarbeitet werden müssen. Dies sind beispielsweise Wetterdaten.
In der Praxis lassen sich noch weitere Charakteristiken feststellen:
Variability: Verschiedene Datendimensionen und unterschiedliche Längen der Datenverarbeitungszeit
Veracity: Die Richtig- und Wahrhaftigkeit von Daten ist zu hinterfragen
Validity: Die Genauigkeit und Korrektheit von Daten, gute Datenqualität ist die Voraussetzung für gute Analysen
Volatility: Wie lange sind Daten heutzutage aktuell und nutzbar für Analysen
Visualization: Big Data ist schwer zu visualisieren
Value: In Daten kann ein Mehrwert gefunden werden, wenn diese unternehmensspezifisch analysiert werden
Zusammenfassung der Kapitel
Zukunft der IT-Architektur: Einführung in die Problematik veralteter Enterprise-IT-Systeme und die Notwendigkeit einer flexiblen Architektur zur Bewältigung steigender Datenmengen.
Big Data: Erläuterung der Bedeutung von Big Data für Unternehmen sowie Definition der zentralen Charakteristiken, die neue Anforderungen an IT-Strukturen stellen.
Serverless Computing: Untersuchung des Konzepts der serverlosen Infrastruktur als evolutionärer Schritt, inklusive dessen Funktionsprinzipien, Vorteile und Limitationen.
Lambda Architektur: Detaillierte Analyse eines universellen Ansatzes zur Datenverarbeitung, der Batch- und Speed-Layer kombiniert, um sowohl Genauigkeit als auch Echtzeitfähigkeit zu erreichen.
Ausblick: Fazit der Arbeit, das die Lambda Architektur als tragfähige Grundlage für agile IT-Anforderungen im digitalen Zeitalter bestätigt.
Schlüsselwörter
Big Data, IT-Architektur, Serverless Computing, Lambda Architektur, AWS Lambda, Datenspeicherung, Skalierbarkeit, Microservices, Cloud-Computing, Datenanalyse, Echtzeitverarbeitung, Batch Layer, Speed Layer, digitale Transformation, Unternehmensstrategie.
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit behandelt die Notwendigkeit der Umstrukturierung klassischer Unternehmens-IT, um den Herausforderungen durch Big Data zu begegnen.
Was sind die zentralen Themenfelder der Analyse?
Die Schwerpunkte liegen auf der Flexibilisierung der IT-Infrastruktur durch Serverless Computing und die Implementierung der Lambda Architektur.
Was ist das primäre Ziel der Untersuchung?
Das Ziel ist zu erörtern, ob moderne IT-Architekturen wie die Lambda Architektur den Praxisanforderungen an Datenverarbeitung und Mehrwertgenerierung gerecht werden.
Welche wissenschaftliche Methode kommt zum Einsatz?
Es erfolgt eine theoretische Analyse und Literaturarbeit basierend auf aktuellen IT-Konzepten, Cloud-Standards und Architektur-Frameworks.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil gliedert sich in die Untersuchung von Big Data Charakteristiken, die Erläuterung von Serverless Computing Prinzipien und eine tiefgehende Analyse der Lambda Architektur mit ihren drei Layern.
Welche Schlagworte charakterisieren das Dokument am besten?
Besonders prägend sind die Begriffe Big Data, Lambda Architektur, Serverless Computing und IT-Infrastruktur-Transformation.
Was versteht man im Kontext der Arbeit unter der „Complexity Isolation“ in der Lambda Architektur?
Damit wird das Prinzip beschrieben, die systemische Komplexität in den Speed Layer zu verlagern, sodass dieser temporäre Echtzeit-Daten verarbeitet, die bei Bedarf durch den robusten Batch Layer korrigiert oder abgelöst werden.
Warum wird AWS Lambda als Beispiel für eine eventgesteuerte Anwendung gewählt?
AWS Lambda dient als praxisnahes Beispiel für eine Functions-as-a-Service (FaaS) Plattform, die direkt auf Ereignisse (Events) reagiert und somit die Anforderungen an eine flexible, ereignisgesteuerte Architektur verdeutlicht.
- Arbeit zitieren
- Lea Renders (Autor:in), 2018, Anforderungen und Herausforderungen von IT-Architekturen im Umfeld von Big Data, München, GRIN Verlag, https://www.grin.com/document/446807