Ziel dieser Arbeit ist es, anhand der vorhandenen Fachliteratur die Grundlagen der Hadoop-Technologie darzustellen. Sie erläutert die mögliche Erweiterbarkeit der Data Warehouse Architektur sowie die Einsatzmöglichkeiten durch Hadoop. Im Fazit der Arbeit werden die Hadoop Technologie und ihre Einsatzmöglichkeiten kritisch hinterfragt.
Inhaltsverzeichnis
- Einleitung
- Einleitung
- Problemstellung
- Ziel
- Vorgehensweise
- Grundlagen zu Hadoop
- Technische Einführung Hadoop
- Hadoop Distributed File System (HDFS)
- MapReduce
- Yarn (Yet another Resource Negotiator)
- Einsatzmöglichkeiten von Hadoop
- Einleitung für Einsatzmöglichkeiten Hadoop
- Data Staging
- Datenarchivierung
- Polystrukturierte Daten
- Integration von Hadoop in ein Data Warehouse
- Integration von Hadoop in ein Data Warehouse
- Standalone
- Pseudodistributed
- Fully Distributed
- Fazit
- Quellenangaben
- Onlinequellen
- Literaturverzeichnis
Zielsetzung und Themenschwerpunkte
Diese Arbeit befasst sich mit der Integration von Hadoop in die Data-Warehouse-Architektur. Sie analysiert die Grundlagen der Hadoop-Technologie und untersucht deren Einsatzmöglichkeiten zur Erweiterung der Data-Warehouse-Architektur. Darüber hinaus werden die Vorteile und Herausforderungen der Integration von Hadoop in Data Warehouses diskutiert.
- Grundlagen der Hadoop-Technologie
- Einsatzmöglichkeiten von Hadoop
- Integration von Hadoop in Data Warehouses
- Vorteile und Herausforderungen der Hadoop-Integration
- Kritische Reflexion der Hadoop-Technologie
Zusammenfassung der Kapitel
Die Einleitung beleuchtet die Problemstellung des traditionellen Data Warehouses bei der Verarbeitung großer Datenmengen. Sie erläutert die Notwendigkeit einer Erweiterung der Data-Warehouse-Architektur mithilfe der Hadoop-Technologie. Das Kapitel "Grundlagen zu Hadoop" führt die wichtigsten Komponenten der Hadoop-Technologie, wie HDFS, MapReduce und Yarn, ein. Im Kapitel "Einsatzmöglichkeiten von Hadoop" werden verschiedene Anwendungsbereiche von Hadoop für Data Staging, Datenarchivierung und die Verarbeitung polystrukturierter Daten vorgestellt. Das Kapitel "Integration von Hadoop in ein Data Warehouse" diskutiert verschiedene Integrationsmodelle, wie Standalone, Pseudodistributed und Fully Distributed. Das Fazit fasst die wichtigsten Erkenntnisse der Arbeit zusammen und reflektiert kritisch die Hadoop-Technologie.
Schlüsselwörter
Die Arbeit konzentriert sich auf die Themen Data Warehouse, Hadoop, Big Data, Datenintegration, Skalierbarkeit, Performance, Datenarchivierung, Polystrukturierte Daten, Distributed File System, MapReduce und Yarn. Diese Schlüsselwörter verdeutlichen die zentralen Aspekte der Arbeit und ihre Relevanz für die Erweiterung der Data-Warehouse-Architektur im Kontext von Big Data.
Häufig gestellte Fragen
Was ist Hadoop?
Hadoop ist ein Open-Source-Framework zur Speicherung und Verarbeitung sehr großer Datenmengen auf Computer-Clustern.
Was bedeutet HDFS?
HDFS steht für Hadoop Distributed File System, ein verteiltes Dateisystem, das Daten über viele Rechner hinweg redundant speichert.
Wie ergänzt Hadoop ein klassisches Data Warehouse?
Hadoop kann für das Data Staging, die Archivierung großer Datenmengen oder die Analyse polystrukturierter Daten genutzt werden, die in SQL-Datenbanken schwer zu verarbeiten sind.
Was ist MapReduce?
MapReduce ist ein Programmiermodell von Hadoop, das Aufgaben in Teilaufgaben zerlegt und diese parallel auf verschiedenen Knoten im Cluster verarbeitet.
Was sind polystrukturierte Daten?
Das sind Daten ohne festes Schema, wie z. B. Logfiles, Social-Media-Texte oder Sensordaten, für deren Verarbeitung Hadoop besonders geeignet ist.
- Arbeit zitieren
- Martin Sünder (Autor:in), 2015, Integration von HADOOP in die Data-Warehouse-Architektur, München, GRIN Verlag, https://www.grin.com/document/306618