Trotz all der vielversprechenden Potenziale wird in der Literatur an vielen Stellen deutlich, dass das Eintreten dieser Potenziale angezweifelt wird. Zudem ist auffällig, dass an den im Zuge der Big Data Projekte eingesetzten Verfahren kaum Kritik geäußert und nicht auf deren Grenzen eingegangen wird. Deswegen besteht die akute Gefahr, dass sich der „Gartner’s Hype Cycle“ bewahrheitet und in wenigen Jahren zahlreiche Akteure im Smart Grid Sektor zur Einsicht gelangen, dass sich große Teile ihrer Investitionen in die Datenanalyseprojekte nicht auszahlen werden. Da der Markt für entsprechende Technologien als Milliardenmarkt an-gesehen wird, dürften diese Fehlinvestitionen beträchtliche finanzielle Folgen haben.
Dieser Entwicklung Rechnung tragend wird in dieser Seminararbeit auf die Potenzi-le und Probleme von Big Data im Smart Grid Bereich eingegangen und zudem dargestellt, welche Arten von Daten sich in der Praxis herauskristallisiert haben.
Inhaltsverzeichnis
1. EINLEITUNG
1.1 GANG DER ARBEIT
2. SMART GRID
2.1 BEGRIFFSERKLÄRUNG
2.2 PROBLEME UND ANFORDERUNGEN DER DREI GRUPPEN
3. BIG DATA IN SMART GRIDS
3.1 BEGRIFFSERKLÄRUNG
3.2 TOOLS ZUR ANALYSE VON BIG DATA
3.2.1 Das Apache Hadoop Framework
3.3 POTENZIALE VON BIG DATA IN SMART GRIDS
3.4 POTENZIELLE ARTEN VON DATEN
3.5 PROBLEME VON BIG DATA IN SMART GRIDS
3.5.1 Statistische Probleme
3.5.2 Datenschutzbedenken
3.5.3 Weitere Probleme aus Praxisprojekten und Studien
4. KRITISCHE WÜRDIGUNG, FAZIT UND AUSBLICK
Zielsetzung & Themen
Das Hauptziel dieser Arbeit ist die Untersuchung der Potenziale und Risiken von Big Data Technologien im Kontext von intelligenten Stromnetzen (Smart Grids), um eine kritische Auseinandersetzung mit der aktuellen Entwicklung und den bestehenden Herausforderungen zu ermöglichen.
- Definition und Strukturierung der Akteure im Smart Grid
- Analyse der Rolle von Big Data zur Bewältigung von Smart Grid Anforderungen
- Evaluierung technischer Lösungen wie dem Apache Hadoop Framework
- Kritische Betrachtung statistischer Probleme und Datenschutzrisiken
Auszug aus dem Buch
3.2.1 Das Apache Hadoop Framework
Als Grundlage zur Realisierung dieser Anforderungen werden in der Literatur nahezu ausschließlich die beiden Frameworks „Apache Hadoop“ und „Google MapReduce“ erwähnt (Mayer-Schönberger & Cukier, 2013, S. 5). Anscheinend ist Hadoop im Energiesektor aber wesentlich stärker verbreitet, was sich daraus schließen lässt, dass sämtliche gefundenen Erfahrungsberichte auf diesem Framework aufbauen und es zudem von IT Konzernen wie IBM und Intel genutzt wird (Tetpon, 2011; Haskell, 2013, S. 3). Aus diesen Gründen wird dieses Framework an dieser Stelle kurz beschrieben.
Hadoop stellt ein Framework bereit, dass eine ausfallsichere, skalierbare und verteilte Berechnung riesiger Datenmengen ermöglicht, wobei die Anzahl der beteiligten Computer von einem bis mehreren Tausend betragen darf (The Apache Software Foundation, 2013). Hierbei kann die Datenverarbeitung auch dann noch fortgesetzt werden, wenn zahlreiche Rechner zeitnah ausfallen (Rouse, 2010). Die Beschreibung der Umsetzung dieser Anforderungen basieren auf den Ausführungen von Bayer (2013, S. 1-5).
Die Ausfallsicherheit und Parallelverarbeitung wird dadurch sichergestellt, dass Hadoop auf dem Master-Slave-Prinzip funktioniert. Der Masterrechner wird hierbei als „NameNode“ und die Slaves als „DataNode“ bezeichnet. Ein solcher Master kümmert sich dabei um die Verwaltung von Metadaten zum Dateisystem, Verzeichnisstrukturen und Dateien. Fernerhin sorgt der NameNode für die Verteilung der zu verarbeitenden Daten auf die Slaves, sodass jeder solche Datenblock in der Standardkonfiguration auf 3 DataNodes vorhanden ist. Fällt ein Slave aus, kann der Master auf die Back-ups der anderen beiden Slaves zurückgreifen, sodass keine Daten verloren gehen und stets genug Replikationen der Datenblöcke vorhanden sind. Falls der NameNode selbst ausfallen sollte, gibt es zusätzlich noch einen sogenannten „SecondaryNameNode“, der ein Back up der Metadaten bereithält, mit deren Hilfe sich der Master wiederherstellen lässt.
Zusammenfassung der Kapitel
1. EINLEITUNG: Einführung in die Thematik der Smart Grids und Skizzierung des Aufbaus der Seminararbeit sowie der Problemstellung.
2. SMART GRID: Erläuterung des Smart Grid Begriffs und Identifikation der drei zentralen Stakeholdergruppen sowie deren Anforderungen an das Stromnetz.
3. BIG DATA IN SMART GRIDS: Untersuchung von Big Data als Technologie zur Lösung von Smart Grid Problemen, inklusive der Analyse technischer Tools, Potenziale, Datenarten und Risiken.
4. KRITISCHE WÜRDIGUNG, FAZIT UND AUSBLICK: Zusammenfassende Bewertung der Ergebnisse sowie Aufzeigen von Forschungsbedarf hinsichtlich der Methoden und Unternehmensstrukturen.
Schlüsselwörter
Smart Grid, Big Data, Energiewende, Apache Hadoop, Datenanalyse, Stakeholdergruppen, Prosumer, Smart Meter, Datenschutz, Datensicherheit, Korrelationsanalyse, Scheinkorrelation, Echtzeit, Virtual Power Plants, Demand Side Management
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit behandelt die Potenziale und Risiken des Einsatzes von Big Data Technologien im Bereich intelligenter Stromnetze (Smart Grids).
Was sind die zentralen Themenfelder?
Die Arbeit fokussiert sich auf die Anforderungen verschiedener Stakeholdergruppen, die Rolle der Datenanalyse für die Effizienz und die kritische Beleuchtung der Risiken durch statistische Verzerrungen und Datenschutzbedenken.
Was ist das primäre Ziel der Untersuchung?
Ziel ist es, ein Verständnis dafür zu entwickeln, wie Big Data zur Optimierung von Smart Grids eingesetzt werden kann, während gleichzeitig die kritischen Grenzen dieser Technologie aufgezeigt werden.
Welche wissenschaftliche Methode wurde verwendet?
Die Autorin nutzt eine Literaturanalyse, wobei aufgrund der Marktdominanz wirtschaftlicher Akteure mehrere Quellen kritisch verglichen werden, um eine objektive Sichtweise zu gewährleisten.
Was wird im Hauptteil detailliert behandelt?
Der Hauptteil gliedert sich in die Definition von Big Data, die Darstellung technischer Tools wie Hadoop, die Analyse der Potenziale entlang der Akteursgruppen und eine kritische Auseinandersetzung mit statistischen sowie rechtlichen Risiken.
Welche Schlüsselwörter charakterisieren die Arbeit am besten?
Smart Grid, Big Data, Datenanalyse, Datenschutz, Energiewende, Apache Hadoop und Stakeholder-Anforderungen.
Warum wird das Apache Hadoop Framework so hervorgehoben?
Hadoop wird als zentrales Framework beschrieben, da es im Energiesektor am weitesten verbreitet ist und ausfallsichere sowie skalierbare Berechnungen für riesige Datenmengen ermöglicht.
Welche Rolle spielen Smart Meter in diesem Kontext?
Smart Meter fungieren als primäre Datenquelle, die Informationen über den Energieverbrauch in Echtzeit liefern, aber gleichzeitig erhebliche Datenschutzbedenken aufwerfen.
Wie kritisch bewertet der Autor die Korrelationsanalyse?
Die Arbeit warnt vor einer unkritischen Interpretation, da Korrelationen oft keine Kausalitäten darstellen, was bei Big Data Systemen zu falschen Handlungsempfehlungen für das Management führen kann.
- Quote paper
- Jurij Weinblat (Author), 2013, Potenziale und Risiken von Big Data in Smart Grids, Munich, GRIN Verlag, https://www.grin.com/document/265690