Smart Data. Macht Qualität den Unterschied?


Hausarbeit, 2019

22 Seiten, Note: 2,0


Leseprobe


Inhaltsverzeichnis

Abbildungsverzeichnis

1. Einleitung
1.1 Problemstellung
1.2 Ziel der Arbeit

2. Definition zentraler Begriffe
2.1 Big Data
2.2 Smart Data

3. Big Data wird zu Smart Data

4. Herausforderungen an Smart Data
4.1 Datensicherheit
4.2 Rechtlicher Rahmen

5. Potenzielle Anwendungsbereiche
5.1 Smart Energy
5.2 Smart Mobility
5.3 Industrie 4.0

6. Handlungsempfehlung .

7. Schluss

Literaturverzeichnis.

Abbildungsverzeichnis

Abbildung 1: Augmented Reality

Abbildung 2: Mixed Reality

Abbildung 3: Big Data wird zu Smart Data

Abbildung 4: Smart Watts Bedienoberfläche

Abbildung 5: Fahrkombination UbiGo

Abbildung 6: Sensorik BMW Group

1. Einleitung

Ob es die Fehlermeldung einer Maschine, ein Suchbegriff im Internet oder ein Like in einem Sozialen Netzwerk ist, jede noch so kleine Spur an Daten wird in dem heutigen Zeitalter aufgesogen und abgespeichert. Was früher das Öl darstellte, sind im 21. Jahr- hundert die Daten (vgl. Bräutigam, Daten sind das Öl des 21. Jahrhunderts, 2014). So werden Unmengen an Daten, sogenannte Big Datas abgespeichert und weiterverwendet. Um jedoch diese riesige Menge an Daten effektiv einsetzen zu können, muss zwischen wichtigen und unwichtigen Informationen unterschieden werden. Die sogenannte Smart Data wird hierbei als Endprodukt angestrebt. So verhält es sich mit den Daten wie bei der Ölgewinnung. Erst durch zahlreiche Verarbeitungsschritte kann ein Nutzen erzeugt wer- den.

So wurde der Umsatz für das Jahr 2017 mit Big-Data-Lösungen auf weltweit 50 Milliar- den Euro abgeschätzt (vgl. BMWi, Smart Data–Innovationen aus Daten, 2017). Bietet man dem Unternehmen eine Steigerung des Nutzens in Form von Smart Data an, wird eine weitaus höhere Umsatzzahl zu erwarten sein. Experten gehen davon aus, dass im Jahr 2025 Smart-Data-Lösungen einen Umsatz von 85 Milliarden Euro erzielen werden. Ganz zu schweigen von dem enormen Nutzengewinn, der entstehen wird (vgl. BMWi, Smart Data–Innovationen aus Daten, 2017, S. 3).

In dieser Hausarbeit wird das Thema Smart Data beleuchtet. Zu Beginn wird die Prob- lemstellung sowie das Ziel dieser Hausarbeit aufgezeigt. Um dem Leser ein fundamenta- les Wissen über die Begriffe Big Data und Smart Data anzueignen, werden diese als zent- rale Begriffe definiert und erläutert. Nachdem sich der Leser ein Grundwissen angeeignet hat, geht es in die Entstehung von Smart Data. Hier wird der Weg von Big Data zu Smart Data in 4 Schritten aufgezeigt. Diese 4 Stufen setzen sich aus der Datenerhebung, dem Datenmanagement, der Datenanalyse und der Datenvisualisierung zusammen. Nachdem der Leser das Wissen über die Entwicklung von Smart Data erlangt hat, werden die Her- ausforderungen in Bezug auf die Datensicherheit und den Rechtlichen Rahmen von Smart Data aufgezeigt. Anschließend werden 3 potenzielle Anwendungsbereiche von Smart Data aufgeführt. Diese sind Industrie 4.0, Smart Energy und Smart Mobility. Hierbei wird ein Überblick über den Bereich verschafft und je ein Praxisbeispiel aufgeführt. Zuletzt wird noch eine Handlungsempfehlung in Bezug auf Smart Data entwickelt und die Haus- arbeit anschließend mit einem Schluss beendet.

1.1 Problemstellung

Das Problem von Big Data steckt schon im Namen. Too Big to use trifft es ganz gut. Die Sammelleidenschaft der Konzerne im Bereich von Big Data stellt insoweit ein Problem dar, dass mehr als 80 Prozent der Daten keine Relevanz besitzen, unstrukturiert sind und bei der eigentlichen Big Data Analyse zum Verstopfen der Data Lakes und Datenbanken führt (vgl. Beier, Von Big Data zu Smart Data, 2018). Wesensmerkmale von Big Data sind eine sehr große Datenmenge, ein großes Datenwachstum und eine geringe Informa- tionsdichte bei einer großen Vielfalt an Datenformaten und Datenquellen (vgl. Meinel/ Schneiss, Smart Data – Potenziale und Herausforderungen, 2015, S. 3). Hier liegt auch das Problem von Big Data. Es werden zwar riesige Mengen an Daten gesammelt, die einen enormen Erkenntniswert für ein Unternehmen erzielen könnten, jedoch ist die ef- fektive Informationsausbeute ziemlich gering. Nun kommt Smart Data ins Spiel. Es soll dieses Problem aushebeln und den Umgang und den Einsatz der Daten smarter gestalten.

1.2 Ziel der Arbeit

In dieser Hausarbeit soll aufgezeigt werden, wie aus Big Data mit dem Einsatz von An- wendungen Smart Data wird und für welche Anwendungsbereiche sich ein Potenzial da- für ergeben kann. Außerdem wird auf die möglichen Hürden in Bezug auf Smart Data Anwendungen eingegangen. Die zentrale Leitfrage für die Arbeit lässt sich so formulie- ren, ob Smart Data einen höheren Nutzenwert erzielen kann als Big Data und ein quali- tativ hochwertigeres Nutzen für Industrie und Wirtschaft darstellen kann.

2. Definition zentraler Begriffe

Um ein Grundverständnis über die Begriffsthematik zu erhalten, werden die zentralen Begriffe dieser Hausarbeit definiert. Diese setzen sich aus Big Data und Smart Data zu- sammen.

2.1 Big Data

Der Begriff Big Data feiert seine Herkunft aus dem Englisch sprachigen Raum. Der zu Anfang als Hype wahrgenommene Begriff umfasst zwei Aspekte. Zum einen die riesigen digitalen Datenmengen und zum anderen die Analyse und Auswertung dieser Daten. Big Data umfasst kurz gesagt alle Daten, die nicht manuell ausgewertet werden können. Je- doch gibt es nicht wirklich eine wissenschaftliche Definition für den Begriff, die sich bislang etabliert hat (vgl. Radtke/ Litzel, Was ist Big Data?, 2019).

Der Begriff Big bezieht sich in dem Kontext auf vier Dimensionen. Die erste Dimension ist Volume, was für den Umfang und die Datenmenge steht. An zweiter Stelle platziert sich der Begriff Variety. Er bezeichnet die Bandbreite der Datenquellen und -typen. Dann folgt die Dimension Veracity. Sie ist für die Glaubwürdigkeit und Wahrhaftigkeit der Daten zuständig. Die letzte Dimension bildet hierbei Velocity, was für die Geschwindig- keit der Datengenerierung und -transferierung steht (vgl. Christl, Kommerzielle Digitale Überwachung im Alltag, 2014, S. 12).

Außerdem gibt es noch zwei weitere Dimensionen, die jedoch mehr Anwendung im un- ternehmerischen Sinn finden. Dies sind die Dimensionen Value, der unternehmerische Mehrwert und Validity, was die Sicherstellung der Datenqualität umfasst (vgl. Salzig, Was ist Big Data?, 2016).

Das Ziel von Big Data ist es, mit neuen Technologien die gewonnenen Daten zu spei- chern, zu clustern und so weiter zu verarbeiten, dass man diese Daten sinnvoll darstellen und nutzen kann (vgl. o.A., Smart Data, 2017).

2.2 Smart Data

Smart Data ist die Weiterentwicklung, beziehungsweise eine Erweiterung des Big Data Bereiches. Hier liegt nicht mehr die Menge der Daten im Vordergrund, sondern das Smarte aussuchen dieser Daten. Also einen Nutzen daraus zu ziehen und sie auf intelli- gente Weise zu verarbeiten, um unmittelbar Wissen ableiten zu können und weiter zu verwenden. Hierbei wird der Fokus auf das Verstehen der Daten gesetzt und die anschlie- ßende sinnvolle Verwendung der Daten. Der Unterschied ergibt sich daraus, dass Big Data nur bestehende Daten analysiert. Smart Data geht einen Schritt weiter. Es sagt zu- sätzlich noch Daten vorher, versucht Zusammenhänge zu erklären warum etwas gesche- hen ist und ob es so nochmal eintreffen könnte. Effektiv bedeutet Smart Data, dass eine riesige Datenmenge anhand von intelligenter Filterung eingeschränkt und anschließend so strukturiert wird, dass es sinnvoll für die jeweilige Anforderung eingesetzt werden kann (vgl. o.A., Smart Data, 2017)(vgl. Smart-Data-Begleitforschung, Smart Data-Smart Pirvacy?, 2015, S. 4)

3. Big Data wird zu Smart Data

Der Weg von Big Data zu Smart Data beginnt bei der Datenerhebung. Hierbei werden riesige Datenmengen von Milliarden an Geräten erzeugt. Ob nun die Daten vom Smart- phone, Social Media, Internet of Things oder der Industrie 4.0 erzeugt werden ist unrele- vant. Ein Mehrwert kann nur dann geschaffen werden wenn es gelingt, die Daten preis- wert zu speichern, auf flexible Weise zu befragen um Erkenntnisse zu gewinnen und zeit- nah zur Verfügung zu stellen (vgl. Meinel/ Schneiss, Smart Data – Potenziale und Her- ausforderungen, 2015, S. 9). Sofern die Daten nicht eigenständig erhoben werden, kann die Datenbeschaffung ebenfalls durch unterschiedliche Open-Data-Repositorien erfol- gen. Hierbei kann man zwischen globalen, kontinentalen, landesbezogenen und bereichs- bezogenen Repositorien oder Portalen differenzieren. Als globales Repositorium kann für Forschungszwecke Re3data genannt werden. DBpedia fungiert als semantisches Netz und Datenbank für alle wikipedia.org Inhalte. Bezogen auf Deutsche Datenerhebungen ist beispielsweise RADAR zu erwähnen. Es ist ein Portal zur Veröffentlichung und Archi- vierung der Daten aus Forschungsprojekten. Die Herausforderung, die sich im Bereich der Datenerhebung ergibt, sind die unterschiedlichen Formate aus den unterschiedlichen Datenquellen. Dies macht es schwierig, Daten aus einer Vielzahl von Quellen für den Analyseprozess zu vereinen. Als Trend in der Datenerhebung zeichnen sich die In-Me- mory Datenspeicherung, sowie das NOMAD Repositorium ab (vgl. Smart Data Forum, Datenerhebung, 2017)

Der nächste Schritt in Richtung Smart Data ist das Datenmanagement. Dessen Aufgabe ist es, die unterschiedlichen Daten zu organisieren und die nötige Qualität zu generieren und zu erhalten. Die Wahl der Infrastruktur hat hierbei einen großen Einfluss auf die Da- tenqualität. Um die richtige Datenanalyse-Software auszuwählen müssen Volume, Ve- locity, Veracity und Variety der Big Data berücksichtigt werden. Die Datenverarbeitung über Open-Source-Instrumente kann entweder durch die Batch-Verarbeitung oder die Da- tenstromverarbeitung, auch als Streamverarbeitung bekannt, erfolgen. Bei der Batch-Ver- arbeitung werden große Datenmengen in Stapeln analysiert und über einen längeren Zeit- raum gesammelt und anschließend zusammen verarbeitet. Der Zeitraum beträgt einige

Sekunden. Bei der Streamverarbeitung erfolgt die Datenverarbeitung in Echtzeit und so- mit der augenblickliche Erkenntnisgewinn für den Anwender. Hierbei fließen die Daten direkt nach der Generierung in das Analysesystem ein. Die Herausforderung in diesem Bereich stellt die Infrastruktur selbst dar. Schwierigkeiten für die Analyse ergeben sich entweder durch die mangelnde Skalierbarkeit oder die schwankenden Datenströme. Wer- den nun zusätzliche Netzwerkkapazitäten freigesetzt, so werden die vorangegangen Prob- leme gelöst. Diese neuen Funktionen führen jedoch zu einer steigenden Anforderung an die Systemleistung und dies führt wiederum zu anderen, neuen Herausforderungen (vgl. Smart Data Forum, Datenmanagement, 2017).

Die Datenanalyse stellt auf dem Weg zur Smart Data die vorletzte Station dar. Sie befasst sich damit, aus den zuvor erhobenen und gemanagten heterogenen Daten, wertvolle und sinnvolle Erkenntnisse zu gewinnen. Nach der Analyse werden die Ergebnisse ausführ- lich visualisiert, um schlussendlich aussagekräftige und anwendungsfähige Informatio- nen darzustellen. In diesem Schritt wird zum ersten Mal ein Potential aus den Daten her- ausgearbeitet. Dieses Wissen und Potenzial dienen den Unternehmen dazu, intelligentere Entscheidungen treffen zu können. Dies soll in allen Bereichen die Effizienz der Ent- scheidungen erhöhen sowie Kosten senken. Das Erstreben einer höheren Produkt- und Dienstleistungsqualität steht ebenfalls im Fokus. Bei der Datenanalyse ist der Begriff Ma- chine Learning zu erwähnen. Hier ist es das Ziel, das Maschinen selbstständig Entschei- dungen treffen, ohne einen menschlichen Eingriff (Programmierung). Dies ist möglich, indem Computer Muster erkennen und Informationen extrahieren. Diese Algorithmen müssen durch Datenrepositorien trainiert werden. Das sogenannte Deep Learning ist in diesem Bereich einer der wichtigsten Anwendungen und benötigt diese Datenreposito- rien, welche beispielsweise Caffe, Theano oder auch Torch sind. Ziel des Machine & Deep Learnings ist es, dass Maschinen sich selbstständig weiterentwickeln und verbes- sern. Anwendungsbereiche des Machine Learning Prozesses können Stimmungsanaly- sen, personalisierte Medizin oder auch autonom fahrenden Autos sein. Herausforderun- gen in Bezug zur Analyse der Daten stellen in diesem Bereich die Skalierbarkeit und die unstrukturierten Daten dar. Die Skalierbarkeit ist in der Analyse ein Problem, da es schwierig ist zu definieren und festzulegen, wie verschiedene Aufgaben ausgeführt wer- den sollen. Die Umformung sämtlicher unstrukturierten Daten in strukturierte Daten ist bislang nur Teils möglich. Diese Datenhomogenität kann zu fehlerhaften Schlussfolgerungen führen. Um Abhilfe zu schaffen, müsste ein System entwickelt wer- den was sich adaptiv verhält, sich somit an die verändernden Bedingungen selbstständig anpasst (vgl. Smart Data Forum, Datenanalyse, 2017). Als Trends erweist sich in diesem Bereich das Knowledge Discovery. Das Knowledge Discovery, kurz KDD, soll bislang unbekannte fachliche Zusammenhänge aus symbolischen Daten verschiedener Katego- rien sowie physikalischen Daten erkennen und herstellen. Die Teilschritte des KDD-Pro- zesses sind die Bereitstellung von Hintergrundwissen, die Definition der Data-Mining- Aufgabe, die Datenvorverarbeitung, die Codierung, das Data-Mining, die Modellvalidie- rung, die Decodierung, die Filterung und schlussendlich die Präsentation der Ergebnisse (vgl. Siepermann, Knowledge Discovery in Databases, 2018).

Der letzte Schritt zu Smart Data ist die Datenvisualisierung und die anschließende Benut- zerinteraktion. Im Fokus steht in diesem Schritt eine Verknüpfung des analytischen Po- tenzials zwischen Mensch und Computer. Dies ist nur durch eine Kombination aus einer rechnergestützten Datenanalyse und einer interaktiven Visualisierungstechnik möglich. So ist Augmented Reality (AR) ein perfektes Beispiel für die Schnittstelle zwischen Mensch und Computer. Bisher ist es eher im Privatbereich bekannt, so spielt aber Aug- mented Reality in allen anderen Bereichen eine große Rolle (vgl. Smart Data Forum, Da- tenvisualisierung und Benutzerinteraktion, 2017). So sind die mittlerweile im Premium- Autobereich als Standard eingebauten Head-Up-Displays die Schnittstelle der Interaktion des Menschen mit dem Computer. Zudem gibt es auch die Mixed Reality, was bislang aber noch eher als Zukunftsvision gilt. Hier ist die Schnittstelle ein Headset, was dauer- haft getragen wird und Informationen sowie Gegenstände in das Sichtfeld des Nutzers einblenden soll. Hierbei soll eine Verschmelzung der physischen und digitalen Elemente entstehen. Diese Mixed Reality wird bereits von Microsoft oder Magic Leap eingesetzt. Die Microsoft HoloLens ist ein Vorreiter dafür, wie Mixed Reality in Zukunft aussehen und funktionieren kann (vgl. Tißler, Augmented und Mixed Reality, 2018).

[...]

Ende der Leseprobe aus 22 Seiten

Details

Titel
Smart Data. Macht Qualität den Unterschied?
Hochschule
FOM Hochschule für Oekonomie & Management gemeinnützige GmbH, Nürnberg früher Fachhochschule
Note
2,0
Autor
Jahr
2019
Seiten
22
Katalognummer
V541231
ISBN (eBook)
9783346159540
ISBN (Buch)
9783346159557
Sprache
Deutsch
Schlagworte
Smart Data, Big Data, Digitalisierung, Macht Qualität den Unterschied, Datensicherheit, Rechtlicher Rahmen, Smart Energy, Smart Mobility, Industrie 4.0, 4.0
Arbeit zitieren
Janik Loges (Autor:in), 2019, Smart Data. Macht Qualität den Unterschied?, München, GRIN Verlag, https://www.grin.com/document/541231

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Smart Data. Macht Qualität den Unterschied?



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden