Grin logo
de en es fr
Shop
GRIN Website
Texte veröffentlichen, Rundum-Service genießen
Zur Shop-Startseite › Informatik - Wirtschaftsinformatik

Grundlagen, Lösungsansätze und Technologien von Big Data

Big Data und Smart Services

Titel: Grundlagen, Lösungsansätze und Technologien von Big Data

Hausarbeit (Hauptseminar) , 2023 , 28 Seiten , Note: 1,3

Autor:in: Anonym (Autor:in)

Informatik - Wirtschaftsinformatik
Leseprobe & Details   Blick ins Buch
Zusammenfassung Leseprobe Details

Die vorliegende Arbeit hat das Ziel, den Lesenden ein Verständnis für die Grundlagen von Big Data zu vermitteln und mögliche Lösungsansätze aufzuzeigen. Dabei liegt der Schwerpunkt auf den Herausforderungen im Umgang damit sowie den dazugehörigen Anforderungen und Technologien.

Im ersten Kapitel der Ausführungen werden die grundsätzlichen Herausforderungen erläutert. Es werden im Anschluss die wesentlichen nicht-funktionalen Anforderungen an eine Big Data Architektur beleuchtet, die eine effektive Datenverarbeitung gewährleisten sollen. Anschließend wird das CAP-Theorem vorgestellt, welches bei der Gestaltung von Big Data Architekturen eine wichtige Rolle spielt. Konkrete Beispiele verdeutlichen den Lesenden, inwiefern das CAP-Theorem in der Praxis Anwendung findet.

Fünf Lösungsansätze zum Umgang mit Big Data werden im Anschluss dargelegt. Hierbei werden unterschiedliche Möglichkeiten zur Datenverarbeitung und Analyse aufgezeigt, welche den Einsatz von Big Data in Unternehmen möglichst einfach und effizient gestalten.

Diesbezüglich werden im letzten Kapitel verschiedene Technologien vorgestellt, die in der Regel Anwendung finden. Zusätzlich werden die wesentlichen Schritte einer Datapipeline erläutert, um ein besseres Verständnis für die Datenverarbeitung und -analyse im Kontext von Big Data zu schaffen.

Die Lesenden sollen durch diese Arbeit mit einer soliden Grundlage ausgestattet werden, die dazu befähigt, Herausforderungen zu verstehen sowie Potenziale und Technologien zu kennen. Dadurch wird die Fähigkeit verbessert, Big Data effektiv zu handhaben und Nutzen daraus zu ziehen.

Leseprobe


Inhaltsverzeichnis

1 Einleitung

2 Grundlagen

2.1 Herausforderungen für Unternehmen im Umgang mit Big Data

2.2 Nicht-funktionale Anforderungen an eine Big Data Architektur

2.3 Das CAP Theorem

2.3.1 Beispiele AP

2.3.2 Beispiele CA

2.3.3 Beispiele CP

3 Lösungsansätze

3.1 Vertikale Skalierung

3.2 Horizontale Skalierung

3.3 Grafikprozessoren für die Datenverarbeitung nutzen

3.4 Verarbeitung und Speicherung der Daten trennen

3.5 Daten in einem zweckmäßigen Format speichern

4 Datapipelines und notwendige Technologien

4.1 Datapipelines

4.2 Taxonomie von Big Data-Technologien

5 Fazit

6 Ausblick

Zielsetzung & Themen

Diese Arbeit vermittelt ein grundlegendes Verständnis für die Herausforderungen und technologischen Lösungsansätze von Big Data, um Unternehmen eine effiziente Datenverarbeitung und -nutzung zu ermöglichen.

  • Charakterisierung von Big Data mittels der 5Vs
  • Analyse nicht-funktionaler Anforderungen an Big Data Architekturen
  • Untersuchung des CAP-Theorems in der praktischen Anwendung
  • Evaluation von Skalierungsmethoden und Prozessoroptimierungen
  • Strukturierung von Datapipelines und relevanten Technologietaxonomien

Auszug aus dem Buch

2.3 Das CAP Theorem

Das CAP Theorem ist ein Konzept, das besagt, dass es nicht möglich ist, ein verteiltes System konsistent (Consistency), verfügbar (Availability) und ausfalltolerant (Partiton Tolerance) zu gestalten. Es können nur maximal zwei der drei genannten Eigenschaften parallel erfüllt werden.28 Unter einem verteilten System versteht man die „Datenverarbeitungsumgebung, in der sich zahlreiche Komponenten auf mehrere Computer (oder andere Computing-Geräte bzw. Knoten) in einem Netzwerk verteilen. Diese Geräte teilen die Arbeit auf, indem sie ihre Kapazitäten koordinieren, um Aufgaben effizienter zu erledigen als ein einzelnes Gerät.“29

Consistency bedeutet vereinfach ausgedrückt: Alle Knoten im System liefern identische Ergebnisse. Jeder Knoten hat zum selben Zeitpunkt die gleiche Sicht auf die Daten, unabhängig davon, welcher darauf zugreift. Availability beschreibt die Fähigkeit jedes Knotens in einem verteilten System, auf Anfragen zu antworten, selbst wenn andere Knoten eine Fehlfunktion haben bzw. ausgefallen sind. Partiton Tolerance bezieht sich darauf, es dem System zu ermöglichen, betriebsfähig zu bleiben, selbst wenn es Kommunikationsfehler zwischen verschiedenen Knoten im System gibt.30

Zusammenfassung der Kapitel

1 Einleitung: Die Einleitung beleuchtet die zunehmende Datenmenge und die Notwendigkeit für Unternehmen, Big Data strukturiert zur Gewinnung von Wettbewerbsvorteilen einzusetzen.

2 Grundlagen: In diesem Kapitel werden die 5Vs als Merkmale von Big Data definiert und die zentralen Herausforderungen sowie nicht-funktionale Architektur-Anforderungen und das CAP-Theorem erläutert.

3 Lösungsansätze: Das Kapitel stellt verschiedene Strategien vor, wie Unternehmen durch Skalierung, Hardwareoptimierung und eine klare Trennung von Verarbeitung und Speicherung Big Data effizient handhaben können.

4 Datapipelines und notwendige Technologien: Hier werden die Schritte einer Datapipeline detailliert beschrieben und eine taxonomische Übersicht über die für die Datenverarbeitung notwendigen Technologien gegeben.

5 Fazit: Das Fazit fasst die Relevanz der behandelten Architekturen und Strategien zusammen und betont die Notwendigkeit spezifischer Technologien für eine erfolgreiche Big-Data-Strategie.

6 Ausblick: Der Ausblick diskutiert zukünftige Entwicklungen, insbesondere die Rolle der künstlichen Intelligenz und die Integration von Big Data in IoT- und Industrie 4.0-Umgebungen.

Schlüsselwörter

Big Data, Datapipeline, Datenorchestrierung, CAP-Theorem, Skalierbarkeit, Datenanalyse, Datenhaltung, Datenintegration, Datenbanken, Datensicherheit, Datenmanagement, Cloud, Informatik, Effizienz, Unternehmensstrategie

Häufig gestellte Fragen

Worum geht es in dieser Arbeit grundsätzlich?

Die Arbeit befasst sich mit den Grundlagen von Big Data sowie den technologischen und prozessualen Anforderungen, die für eine effiziente Datenhaltung und -analyse in Unternehmen notwendig sind.

Welche zentralen Themenfelder werden abgedeckt?

Die Kernbereiche umfassen die Definitionsebenen von Big Data, die nicht-funktionalen Anforderungen an Systemarchitekturen, das CAP-Theorem sowie konkrete technische Lösungsansätze für die Datenverarbeitung.

Was ist das primäre Ziel der Arbeit?

Das Ziel ist es, den Lesenden ein fundiertes Verständnis für die Herausforderungen im Umgang mit Big Data zu vermitteln und Wege aufzuzeigen, wie diese durch moderne Technologien und organisatorische Ansätze bewältigt werden können.

Welche wissenschaftliche Methode wird verwendet?

Die Arbeit basiert auf einer fundierten Analyse fachwissenschaftlicher Literatur, durch die theoretische Konzepte (wie die 5Vs oder das CAP-Theorem) mit praktischen Lösungsmodellen verknüpft werden.

Was wird im Hauptteil behandelt?

Der Hauptteil analysiert die Herausforderungen wie Datenvolumen, Anforderungen an die Systemarchitektur, Methoden wie horizontale und vertikale Skalierung sowie den Aufbau von Datapipelines.

Welche Schlüsselbegriffe charakterisieren die Arbeit?

Zentrale Begriffe sind Big Data, Datapipeline, Skalierbarkeit, Systemarchitektur, Datenorchestrierung, Datenqualität und die verschiedenen Storage-Konzepte.

Wie unterscheidet sich laut Arbeit ein CP-System von einem AP-System?

Ein CP-System priorisiert Konsistenz und Ausfalltoleranz (z. B. im Online-Shopping), während ein AP-System die Verfügbarkeit und Ausfalltoleranz in den Vordergrund stellt, was oft bei Streaming-Diensten oder in der Blockchain-Technologie der Fall ist.

Warum wird im Dokument die Datentransformation als kritischer Schritt hervorgehoben?

Die Transformation ist notwendig, um Rohdaten aus heterogenen Quellen (wie JSON oder XML) in definierte Formate zu überführen, die für Analysewerkzeuge und spezifische Geschäftsentscheidungsprozesse verwertbar sind.

Welche Bedeutung misst die Arbeit der Datenorchestrierung bei?

Die Datenorchestrierung fungiert als steuernde Instanz für Datenflüsse und stellt sicher, dass die einzelnen Schritte einer Datapipeline in der korrekten Reihenfolge und zeitlichen Planung vollautomatisiert ablaufen.

Warum ist das Kundenvertrauen laut der Arbeit ein maßgeblicher Faktor?

Da der Erfolg von Big Data eng mit kundenorientierten Ansätzen verknüpft ist, können Unternehmen nur dann langfristig Wettbewerbsvorteile erzielen, wenn Kunden bereit sind, ihre Daten freiwillig zu teilen.

Ende der Leseprobe aus 28 Seiten  - nach oben

Details

Titel
Grundlagen, Lösungsansätze und Technologien von Big Data
Untertitel
Big Data und Smart Services
Hochschule
SRH Fernhochschule
Note
1,3
Autor
Anonym (Autor:in)
Erscheinungsjahr
2023
Seiten
28
Katalognummer
V1369081
ISBN (PDF)
9783346900852
ISBN (Buch)
9783346900869
Sprache
Deutsch
Schlagworte
Big Data Smart Services CAP Theorem Datenverarbeitung Datenhaltung Datenspeicherung Datapipeline Datapipelines Big Data Technologien Daten
Produktsicherheit
GRIN Publishing GmbH
Arbeit zitieren
Anonym (Autor:in), 2023, Grundlagen, Lösungsansätze und Technologien von Big Data, München, GRIN Verlag, https://www.grin.com/document/1369081
Blick ins Buch
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
Leseprobe aus  28  Seiten
Grin logo
  • Grin.com
  • Versand
  • Kontakt
  • Datenschutz
  • AGB
  • Impressum