Big Data und Data Analytics. Erstellung eines digitalen Pilotprojektes zur Effizienzsteigerung in der Fertigung


Hausarbeit, 2020

18 Seiten, Note: 2,3


Leseprobe


I Inhaltsverzeichnis

I Inhaltsverzeichnis

II Abbildungsverzeichnis

III Abkürzungsverzeichnis

1. Einleitung
1.1 Aufbau/Vorgehensweise
1.2 Projektvorstellung
1.3 Problemlösung
1.4 Zieldefinition

2. Theoretische Grundlagen
2.1 Big Data und IoT
2.2 Data Mining

3. Digitale Lösungsansätze

4. Erweiterung der IT-Infrastruktur

5. Projektplan

6. Zusammenfassung und Ausblick

IV. Literaturverzeichnis

V Anhänge und Materialien

II Abbildungsverzeichnis

Abbildung 1-

Abbildung 2-

Abbildung 3-

III Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

In einer immer größer werdenden Welt voller Daten, egal ob personenbezogene, maschinelle oder informationstechnische, ist es wichtig, eine gewisse Ordnung der Informationen zu bekommen und somit den Überblick zu behalten. Diese riesigen Datenmengen bezeichnet man als Big Data. Es genügt nicht mehr die Daten in einfachen Tabellen, wie beispielsweise mit Hilfe von Excel zu speichern und keinen Nutzen daraus zu ziehen. Der Wert von Daten wird im KDD Prozess1 erst nach der fünften Phase erreicht. Besonderes Thema in diesem Prozess ist das Data Mining. „Data Mining ist ein breites Forschungsfeld und nutzt zur Mustererkennung in Datenbeständen verschiedene Algorithmen aus der Mathematik, Statistik und Informatik“ (Wuttke, 2020). Data Mining hilft mit den verschiedenen Methoden wie der Assoziationsanalyse, Korrelationsanalyse, Prognose, Clusteranalyse oder der Klassifikation dabei, die Informationen zu strukturieren, Muster zu erkennen, Klassen zuzuordnen oder Zusammenhänge zwischen Variablen zu ermitteln.

Gerade für Unternehmen ist es wichtig vorhandene Daten nicht nur in Datenbanken zu „lagern“, sondern auch das Potential daraus zu schöpfen und das entstehende Wissen zu nutzen. Somit können beispielsweise Wettbewerbsvorteile im Marketing, Qualitätsmanagement oder Design erzielt werden.

“ Big Data sind hierbei ein wunderbares Tool um Prozesse zu optimieren und Kosten zu senken. Dadurch dass Big Data in allen Unternehmensbereichen anfallen und leistungsstarke Analysesysteme in der Lage sind, alle dieser Informationen zu verarbeiten und miteinander in Verbindung zu bringen, können viele Prozesse effizienter gestaltet werden“ (Laroque, o.J).

Allerdings lassen sich Big Data Anwendungen nicht ohne dazugehörige und dafür ausgelegte IT- Infrastruktur implementieren. So muss eine ausreichende Menge an Speicherkapazität, Echtzeitanwendungen oder auch entsprechende Software verfügbar sein, um analytisch arbeiten zu können. In der folgenden Fallstudie wird an einem konkreten Beispiel sichtbar, unter welchen Gegebenheiten und den damit verbunden Systemen Big Data Analytics angewendet werden kann.

1.1 Aufbau/Vorgehensweise

Unter einer Fallstudie versteht man eine empirische Forschungsmethode, bei der ein bestimmtes Fallbeispiel aus unterschiedlichen Blickwinkeln betrachtet wird. Mit Hilfe von Literaturrecherche wurde ein für das Thema spezifisches Konzept erarbeitet und dokumentiert.

Im ersten Gliederungspunkt wird das Projekt kurz vorgestellt und Möglichkeiten zur Problemlösung aufgezeigt. Abschließend findet sich die Zieldefinition.

Der zweite Punkt stellt allgemeine theoretische Grundlagen zur Fallstudie dar. Dabei wird Big Data und die Entstehung bzw. Verarbeitung der Daten erläutert. Auch wird auf Data Mining eingegangen.

Im dritten Gliederungspunkt werden digitale Lösungsansätze erarbeitet und auf die Problemstellung angepasst. Darunter fällt das Konzept Machine Learning. Auch wird dieser Teil durch Predictive Maintenance2 ergänzt.

Kapitel vier zeigt die Erweiterung der IT-Infrastruktur auf und vermittelt mit Hilfe einer neuen Architektur die gewonnen Erkenntnisse. Weiterhin wird speziell auf Data Lake und Data Warehouse eingegangen, da diese sich als geeignete Werkzeuge zur Basis der Datenanalyse entwickeln.

Das fünfte Kapitel erläutert den Projektplan und stützt sich dabei auf den Projektstrukturplan.

Der Letzte Teil der Arbeit fasst vorausgegangene Untersuchungen abschließend zusammen und gibt einen kurzen Ausblick in die Zukunft der Big Data Verwendungen.

1.2 Projektvorstellung

Im Rahmen dieser Fallstudie wird bei dem Unternehmen Q-Automobile AG untersucht, wie die Effizienz der Produktion gesteigert werden kann, um Kosten zu sparen und die Qualität zu erhöhen.

Bei dem Unternehmen Q Automobile wurden bereits technologische Strategien der Industrie 4.0 entwickelt. Nun steht die Durchführung eines digitalen Projektes zur Analyse von Sensordaten der Fräs- und Hohnmaschinen an.

Dabei soll ein Projektvorschlag mit Lösungsbeschreibung ausgearbeitet werden. Inhaltlich sind digitale Lösungsansätze und deren Anwendungsfälle zu identifizieren, eine Erweiterung der IT-Infrastruktur zu dokumentieren und geeignete Werkzeuge darzustellen. Dies wird mit einem Projektplan gestützt.

1.3 Problemlösung

Eine der vielversprechendsten Möglichkeiten, um mit der Analyse von Sensordaten einen Effizienzgewinn zu generieren, ist die Technologie des Machine Learnings (dt. maschinelles Lernen). Weitere Möglichkeiten zur Effizienzsteigerung stellen Predictive Maintenance und Condition Monitoring dar.

Die von den Sensoren gewonnen Daten sollen nun mit Hilfe der Einführung eines Data Warehouses beziehungsweise eines Data Lakes gespeichert und systematisch geordnet werden. Anschließend sollen die digitalen Informationen, nachdem sie den KDD Prozess durchlaufen haben, in Wissen umgewandelt werden. Dieses Wissen stellt dann den Ausgangspunkt dar, um die Effizienzsteigernden Maßnahmen anwenden zu können.

1.4 Zieldefinition

Ziel dieses Projektes ist es, die gewonnen Sensorinformationen systematisch auszuwerten und in wertvolle Ressourcen in Form von Wissen umzuwandeln. Hierbei sollen dann, vor allem in der Feinbearbeitung der Komponenten, die Stillstandzeiten der Produktionsanlagen verkürzt werden. Somit kann die Produktivität gesteigert werden. Weiterhin soll die IT- Infrastruktur um digitale Tools erweitert werden, um beispielsweise Sensordatenanalysen durchführen zu können.

2. Theoretische Grundlagen

In diesem Gliederungspunkt werden die wichtigsten Grundlagen zur Fallstudie dargestellt. Zum einen werden die Themen Big Data und IoT2 zusammen erörtert und zum anderen wird auf den Begriff Data Mining näher eingegangen.

Big Data und IoT stehen in starker Verbindung zueinander, denn durch die vielen vernetzten und intelligenten Objekte im Internet der Dinge entsteht eine Vielzahl an Daten. Diese werden wiederum in Big Data Anwendungen gespeichert und analytisch ausgewertet.

Im Data Mining werden mathematische Verfahren angewendet, um aus den Daten unbekannte Muster zu erkennen, welche dann zur Entstehung von Wissen beitragen. So entsteht nach der Interpretation aus den Ergebnissen des Data Minings ein Mehrwert der Datenanalyse.

2.1 Big Data und IoT

Der Begriff Big Data bezeichnet die heutzutage immer größer werdenden Datenmengen. Der Begriff wird geprägt durch die drei Merkmale: Volume (Menge), Variety (Vielfalt) und Velocity (Geschwindigkeit).

Die Merkmale beschreiben somit die enormen Mengen an Daten (Volume), die in Unternehmen produziert werden. Einfache Datenbanken und herkömmliche Systeme können diese Datenflut nicht mehr effizient speichern oder analysieren.

Die Vielfalt der Daten wird durch Variety beschrieben und bezeichnet die hohe Anzahl an strukturierten und unstrukturierten Daten.

Das dritte Merkmal (Velocity) steht für die Geschwindigkeit, mit der die Daten generiert und verarbeitet werden. Ein Beispiel hierfür wären die Datenströme von Sensordaten.

Der Begriff Big Data zielt aber auch auf die neuen, leistungsstarken IT-Lösungen und Systeme, mit denen die Menge an Informationen in Unternehmen verarbeitet werden. (Vgl. Ratke, Litzel. 01.02.2019)

Die Einsatzgebiete der Big Data Technik ist sehr vielfältig und wird in Zukunft nahezu in allen Wirtschaftsbereichen genutzt. Einige Branchenpunkte davon sind die Produktentwicklung, Produktion, Logistik, Vertrieb und die Forschung.

Mit Hilfe neuer Technologien kann den konkreten Anforderungen unterschiedlicher Fachbereiche Lösungen entgegengebracht werden.

„Wir können davon ausgehen, dass das Datenvolumen zumeist eine der Herausforderungen von Big Data Projekten ist. Dadurch kann die Wahl der passenden Technologie auf die Dimensionen Variety und Velocity beschränkt werden" (Bitkom 2014, S.22).

Die Technologie lässt sich zur groben Orientierung in vier Segmente aufteilen.

1. Standard SQL: Geeignet für Anwendungen mit geringer Datenvielfalt und Verarbeitungsgeschwindigkeit. Beispielsweise für BI Anwendungen.
2. In Memory Technologie kommt zum Einsatz, wenn Analysen schneller erfolgen müssen.
3. NoSQL Datenbanken sind besonders bei großer Datenmenge und dementsprechender Vielfalt geeignet.
4. Bei Echtzeitanwendungen empfiehlt sich das Streaming und Complex Event Processing (CEP) zum Auswerten der Daten. Diese Art ist besonders bei diesem Projekt wichtig, da die Sensordaten als Stream gesendet werden.

Als großer Treiber der Big Data ist das Internet of Things (IoT) zu nennen." Das Internet of Things (IoT) - auf Deutsch "Internet der Dinge" - bezeichnet ein System von miteinander vernetzten Maschinen, Anlagen und Geräten über und mit dem Internet" (Moßner, Bergmann, 08.11.2019).

Die vernetzten, intelligenten Geräte stehen in ständiger Kommunikation mit anderen Teilnehmern des IoT und somit ist ein hoher Datenaustausch unabdingbar.

2.2 Data Mining

Data Mining ist der eigentliche Teilschritt der Datenanalyse im KDD-Prozess (Knowledge Discovery in Databases). Im deutschen versteht man darunter die Wissensentdeckung in Datenbanken). Dieser ist ein nichttrivialer Prozess, mit mehreren Stufen.

Abb. 1. KDD-Prozess

Abbildung in dieser Leseprobe nicht enthalten

Quelle: In Anlehnung an Fayyad, U., Piatetsky-Shapiro, G., Smyth, P.

Der Prozess gliedert sich in folgende Punkte:

1. Selection: Datenerhebung und Selektion finden statt
2. Preprocessing: Datenbereinigung, z.B. durch Entfernen /Ergänzen von unvollständigen Datensätzen
3. Transformation: Merkmale werden diskretisiert, abgleitet und relevante Merkmale selektiert
4. Data Mining: der eigentliche Analyseschritt. Mit Hilfe mathematischer Verfahren werden neue Muster erkannt und generiert.
5. Interpretation/ Evaluation: Evaluation und Kontrolle der Datenanalyse, Validierung

Hierbei gibt es unterschiedliche Methoden wie mit den Maschinendaten umgegangen wird.

Im Folgenden die wichtigsten Punkte zur Sensordatenanalyse:

- Clusteranalyse: Ähnliche Datensätze/Objekte werden zu Gruppen gebündelt
- Klassifikation: Daten/Elemente werden den bestimmten Klassen zugeordnet
- Assoziationsanalyse: Hierbei werden Zusammenhänge und Beziehungen erkannt
- Ausreißererkennung: Ungewöhnliche bzw. unpassende Datensätze werden aufgespürt.

Im nächsten Schritt wird aufgezeigt, wie die Methoden praktisch am Beispiel der Assoziationsanalyse funktionieren und wertvolle Informationen in Form von Wissen generieren. Die Assoziationsanalyse entwickelt Regeln, welche die Beziehungen zwischen Datensätzen vorkommender Elemente beschreiben. Ein Element ist also eine Ausprägung eines Wertes des Datensatzes.

Beispiel: Die Schwingungssensoren zeigen ungewöhnlich hohe Werte auf. Bei Werten ab 5 kHz (Kilo Herz) folgt innerhalb der nächsten 10s ein konstanter Rückfall der Drehgeschwindigkeit der Maschine. Daraus kann gefolgert werden, dass die Maschine bei hohen Werten zum Ausfall führt.

3. Digitale Lösungsansätze

Mit Hilfe der Daten lassen sich an den Maschinen auch mögliche Standzeiten, oder kommende Wartungen vorhersagen. „Im Kern geht es darum, den Zustand von Maschinen kontinuierlich zu überwachen und darauf aufbauend Betrieb und Wartungsintensität zu optimieren. Damit das gelingt, müssen die gesammelten Messdaten automatisch interpretiert werden" (Mehne.09.10.2020).

[...]


1 KDD-Prozess: Knowledge Discovery in Databases (deutsch: Wissensentdeckung in Datenbanken) ist ein übergeordneter Prozess, der den Verlauf der Entdeckung von Wissen darstellt.

2 Unter IoT versteht man das Internet of Things (zu Deutsch „Internet der Dinge"). Hierbei geht es um die Vernetzung von intelligenten Objekten (z.B. Maschinen) mit dem Internet.

Ende der Leseprobe aus 18 Seiten

Details

Titel
Big Data und Data Analytics. Erstellung eines digitalen Pilotprojektes zur Effizienzsteigerung in der Fertigung
Note
2,3
Autor
Jahr
2020
Seiten
18
Katalognummer
V993002
ISBN (eBook)
9783346367013
ISBN (Buch)
9783346367020
Sprache
Deutsch
Schlagworte
Facharbeit Hausarbeit wissenschaftliche Arbeit Big data data mining data analytics machine learning
Arbeit zitieren
Marcel Mailli (Autor:in), 2020, Big Data und Data Analytics. Erstellung eines digitalen Pilotprojektes zur Effizienzsteigerung in der Fertigung, München, GRIN Verlag, https://www.grin.com/document/993002

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Big Data und Data Analytics. Erstellung eines digitalen Pilotprojektes zur Effizienzsteigerung in der Fertigung



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden