Grin logo
en de es fr
Shop
GRIN Website
Texte veröffentlichen, Rundum-Service genießen
Zur Shop-Startseite › Informatik - Wirtschaftsinformatik

Integration von HADOOP in die Data-Warehouse-Architektur

Titel: Integration von HADOOP in die Data-Warehouse-Architektur

Studienarbeit , 2015 , 16 Seiten , Note: 2.3

Autor:in: Martin Sünder (Autor:in)

Informatik - Wirtschaftsinformatik
Leseprobe & Details   Blick ins Buch
Zusammenfassung Leseprobe Details

Ziel dieser Arbeit ist es, anhand der vorhandenen Fachliteratur die Grundlagen der Hadoop-Technologie darzustellen. Sie erläutert die mögliche Erweiterbarkeit der Data Warehouse Architektur sowie die Einsatzmöglichkeiten durch Hadoop. Im Fazit der Arbeit werden die Hadoop Technologie und ihre Einsatzmöglichkeiten kritisch hinterfragt.

Leseprobe


Inhaltsverzeichnis

  • Einleitung
    • Einleitung
    • Problemstellung
    • Ziel
    • Vorgehensweise
  • Grundlagen zu Hadoop
    • Technische Einführung Hadoop
      • Hadoop Distributed File System (HDFS)
      • MapReduce
      • Yarn (Yet another Resource Negotiator)
  • Einsatzmöglichkeiten von Hadoop
    • Einleitung für Einsatzmöglichkeiten Hadoop
    • Data Staging
    • Datenarchivierung
    • Polystrukturierte Daten
  • Integration von Hadoop in ein Data Warehouse
    • Integration von Hadoop in ein Data Warehouse
      • Standalone
      • Pseudodistributed
      • Fully Distributed
  • Fazit
  • Quellenangaben
    • Onlinequellen
    • Literaturverzeichnis

Zielsetzung und Themenschwerpunkte

Diese Arbeit befasst sich mit der Integration von Hadoop in die Data-Warehouse-Architektur. Sie analysiert die Grundlagen der Hadoop-Technologie und untersucht deren Einsatzmöglichkeiten zur Erweiterung der Data-Warehouse-Architektur. Darüber hinaus werden die Vorteile und Herausforderungen der Integration von Hadoop in Data Warehouses diskutiert.

  • Grundlagen der Hadoop-Technologie
  • Einsatzmöglichkeiten von Hadoop
  • Integration von Hadoop in Data Warehouses
  • Vorteile und Herausforderungen der Hadoop-Integration
  • Kritische Reflexion der Hadoop-Technologie

Zusammenfassung der Kapitel

Die Einleitung beleuchtet die Problemstellung des traditionellen Data Warehouses bei der Verarbeitung großer Datenmengen. Sie erläutert die Notwendigkeit einer Erweiterung der Data-Warehouse-Architektur mithilfe der Hadoop-Technologie. Das Kapitel "Grundlagen zu Hadoop" führt die wichtigsten Komponenten der Hadoop-Technologie, wie HDFS, MapReduce und Yarn, ein. Im Kapitel "Einsatzmöglichkeiten von Hadoop" werden verschiedene Anwendungsbereiche von Hadoop für Data Staging, Datenarchivierung und die Verarbeitung polystrukturierter Daten vorgestellt. Das Kapitel "Integration von Hadoop in ein Data Warehouse" diskutiert verschiedene Integrationsmodelle, wie Standalone, Pseudodistributed und Fully Distributed. Das Fazit fasst die wichtigsten Erkenntnisse der Arbeit zusammen und reflektiert kritisch die Hadoop-Technologie.

Schlüsselwörter

Die Arbeit konzentriert sich auf die Themen Data Warehouse, Hadoop, Big Data, Datenintegration, Skalierbarkeit, Performance, Datenarchivierung, Polystrukturierte Daten, Distributed File System, MapReduce und Yarn. Diese Schlüsselwörter verdeutlichen die zentralen Aspekte der Arbeit und ihre Relevanz für die Erweiterung der Data-Warehouse-Architektur im Kontext von Big Data.

Häufig gestellte Fragen

Was ist Hadoop?

Hadoop ist ein Open-Source-Framework zur Speicherung und Verarbeitung sehr großer Datenmengen auf Computer-Clustern.

Was bedeutet HDFS?

HDFS steht für Hadoop Distributed File System, ein verteiltes Dateisystem, das Daten über viele Rechner hinweg redundant speichert.

Wie ergänzt Hadoop ein klassisches Data Warehouse?

Hadoop kann für das Data Staging, die Archivierung großer Datenmengen oder die Analyse polystrukturierter Daten genutzt werden, die in SQL-Datenbanken schwer zu verarbeiten sind.

Was ist MapReduce?

MapReduce ist ein Programmiermodell von Hadoop, das Aufgaben in Teilaufgaben zerlegt und diese parallel auf verschiedenen Knoten im Cluster verarbeitet.

Was sind polystrukturierte Daten?

Das sind Daten ohne festes Schema, wie z. B. Logfiles, Social-Media-Texte oder Sensordaten, für deren Verarbeitung Hadoop besonders geeignet ist.

Ende der Leseprobe aus 16 Seiten  - nach oben

Details

Titel
Integration von HADOOP in die Data-Warehouse-Architektur
Note
2.3
Autor
Martin Sünder (Autor:in)
Erscheinungsjahr
2015
Seiten
16
Katalognummer
V306618
ISBN (eBook)
9783668045002
ISBN (Buch)
9783668045019
Sprache
Deutsch
Schlagworte
HADOOP Data Warehouse
Produktsicherheit
GRIN Publishing GmbH
Arbeit zitieren
Martin Sünder (Autor:in), 2015, Integration von HADOOP in die Data-Warehouse-Architektur, München, GRIN Verlag, https://www.grin.com/document/306618
Blick ins Buch
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
Leseprobe aus  16  Seiten
Grin logo
  • Grin.com
  • Versand
  • Impressum
  • Datenschutz
  • AGB
  • Impressum