Data Mining und Industrie 4.0. Moderne Verfahren der Datenanalyse


Ausarbeitung, 2015
22 Seiten, Note: 1,3

Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

1. Einführung

2.Hauptteil
2.1 Grundlagen
2.1.1 Internet der Dinge und Dienste
2.1.2 Das Konzept der digitalen Fabrik
2.1.3 Umsetzung Industrie 4.0
2.1.4 Big Data
2.1.5 Data Mining
2.2 Verbindung zwischen Data Mining und Industrie 4.0
2.2.1 Big Data wird zu Smart Data
2.2.2 Digitale Echtzeitabbildungen
2.2.3 Mobile Computing
2.2.4 Cyber-physische Systeme
2.2.5 Interaktion Mensch-Maschine
2.2.6 Intelligente Produktion

3. Ausblick

4. Literaturverzeichnis

Abbildungsverzeichnis

Abbildung 1:Die vier Stufen der industriellen Revolution

Abbildung 2: Internet der Dinge und Dienste

Abbildung 3: Referenzarchitektur für die moderne Automation

1. Einführung

Die Welt wandelt sich stetig und entwickelt sich weiter. Durch den zunehmenden Wettbewerbsdruck muss sich die Industrie den Veränderungen ständig anpassen.

Rückblickend gab es bisher 3 industrielle Revolutionen. Die Industrialisierung begann um 1750 nach der Entwicklung der Dampfmaschine. Man spricht heute von der ersten industriellen Revolution. Mit der zweiten Revolution etwa im Jahre 1870 begann die Massenproduktion mit Hilfe von elektrischer Energie. Während dieser Zeit wurden elektrische Antriebe und Verbrennungsmotoren entwickelt. Hervorzuheben ist das Fließband von Henry Ford, das kennzeichnend für diese Entwicklung steht. Die dritte Revolution begann in den 60er Jahren. Zu dieser Zeit wurde durch Elektronik und Information- und Kommunikationstechnologien die Produktivität in den Fabriken erhöht.1

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1:Die vier Stufen der industriellen Revolution

Quelle: In Anlehnung an Schlick, Stephan, Zühlke (2012), in Spath et al (2013), S. 23.

Hier sieht man die 4 Stufen der industriellen Revolution, und die damit verbundene zunehmende Komplexität (Vgl. Abb.1).

Industrie 4.0 wurde als Zukunftsprojekt und strategischem Leuchtturm von der deutschen Innovationspolitik vorgeschlagen und entwickelt. Der Anteil der industriellen Produktion wird inzwischen als einer der bedeutenden Faktoren von Volkswirtschaften gesehen. Um den Standort Deutschlands in der Weltspitze zu verteidigen, versucht man diese industrielle Revolution zu verstehen und zu beschleunigen.2

Der Markt verlangt immer individuellere und komplexere Produkte. Es steigen die Anforderungen für Funktionalität, Lieferfähigkeit und Verfügbarkeit. Zudem steigt die Variantenvielfalt der Produkte stark an. Gleichzeitig müssen Unternehmen immer flexibler agieren. Dies ist begründet durch ungewisse Absatzprognosen und den notwendigen schnellen Reaktionszeiten.3 Bei immer ähnlicheren Produkten kann Flexibilität zum entscheidenden Wettbewerbsvorteil werden. In einer Studie des Frauenhofer-Instituts für Arbeitswirtschaft und Organisation (IAO) über die Erwartungshaltung der Produktionsarbeit der Zukunft, ist Flexibilität in allen Bereichen der Arbeit ein zentraler Punkt und wird als Schlüsselfaktor genannt. Man wird in Zukunft immer kurzfristiger reagieren müssen, und dafür benötigt man idealerweise verdichtete und aufbereitete Daten. Für zukünftige Wettbewerbsvorteile wird die Beherrschung der Komplexität betont. Unter dem Blick, dass Just in Time und Just in Sequence Prinzipien zukünftig immer weiter an Bedeutung gewinnen werden, verschärft sich diese Problematik zusätzlich. Da die Produktvielfalt steigt und die Losgrößen immer weiter sinken, wird ein dezentrales System gefordert um die Komplexität in Prozessen zu reduzieren.4

Gerade in Einzel- und Kleinserienfertig steigen die Anforderungen an die Produktion. Um dieser und der zunehmenden Komplexität zu begegnen, gehen immer mehr Unternehmen in ihren Datenbergen auf Schatzsuche. Die Möglichkeiten sind immens. Wer Rohdaten in Wissen verwandelt und richtig nutzt, kann sich einen großen Wettbewerbsvorteil verschaffen.5 Doch was bringen die Daten für die einzelnen Fachbereiche und welche Herausforderungen müssen gemeistert werden? Man sucht in den Daten nach Mustern, Abhängigkeiten und Zusammenhängen, mit denen man Prognosen treffen kann. Beispielsweise möchte man das Verhaltensmuster eines Kunden vorhersagen.6

Die Informationen in den Datenbanken der Unternehmen steigen mit der Zeit immer weiter an. Die Komplexität der vielfältigen Daten aus Produktion und Prozessen müssen soweit reduziert werden, dass sie echte Entscheidungshilfen oder andere Services bieten können. Zusätzlich sollen die Daten auch mobil abrufbar sein, ohne dass man die IT-Sicherheit vernachlässigen sollte. IT-Sicherheit und das Ownership of Data sind die großen Herausforderungen zu denen Lösungen erarbeitet werden müssen. Es bestehen die Chancen auf neue Geschäftsmodelle in diesen Bereichen.7

2.Hauptteil

2.1 Grundlagen

2.1.1 Internet der Dinge und Dienste

Das Internet der Dinge bezeichnet die Verknüpfung physischer Objekte untereinander. Beispielweise können Gegenstände dabei selbstständig untereinander kommunizieren.8 Durch diese Vernetzung soll die Produktion zukünftig intelligent aufgebaut sein und über mehr Informationen verfügen.9 Das Internet der Dinge wird in allen Bedarfsfeldern einer intelligenten und vernetzen Welt Einzug halten.10 Es wird davon ausgegangen, dass die Vernetzung sich ausgehend von dem Internet über Social- Media und Social-Web weiter ausdehnen wird, bis hinein in die Unternehmensumfelder.11 So werden zukünftig neben den Prozessen im Unternehmen auch Kunden und anderen Geschäftspartnern vernetzt sein und sie werden durch das Internet der Dienste voneinander profitieren.12 Bis 2020 sollen rund sieben Dinge pro Person an das Internet angeschlossen sein.13 Man spricht in diesem Zusammenhang auch von einer smarteren – schlaueren Welt. Auf nachfolgenden Abbildung sieht man, die Version die hinter einer smarten Welt steht (Vgl. Abb.2). Es entstehen intelligente Produkte und neue Verfahren und Prozesse in einer Smart Factory.14

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Internet der Dinge und Dienste

Quelle: Kagermann et al S. 23.

2.1.2 Das Konzept der digitalen Fabrik

Kernelement von Industrie 4.0 ist das Zukunftsbild der Smart Factory, einer digitalen Fabrik, in der viele cyber-physischen Systeme zusammenwirken.15 Cyber-physische Systeme sind Systeme, die durch mechatronische, elektrische und über Software miteinander verbunden sind.16 Sie erfassen durch Sensoren selbstständig Informationen und tauschen diese über digitale Dienste aus. Dadurch sind sie in der Lage, sich gegenseitig dynamisch selbstständig zu steuern. Durch den übergreifenden Datenaustausch und der Vernetzung dabei, lassen sich eine Menge vielfältiger Prozesse grundlegend verbessern.17 Es entsteht eine lernende Fabrik, die sich selbst optimieren kann und ein lernendes Produktionssystem hat.18

Die Smart Factory hat die Komplexität der Produktion unter Kontrolle, ist weniger störanfällig und effizienter. Produkte verfügen über das Wissen ihres Produktionsdurchlaufes und ihres künftigen Einsatzes. Sie können sich quasi selbstständig durch die Produktion steuern. Mit ihren Schnittstellen zu Smart Mobility und Smart Logistics bilden diese einen wichtigen Bestandteil der intelligenten Infrastrukturen.19 Nach der Fertigung bleibt das Smart Product über das Internet mit den Backend-Service-Prozessen der jeweiligen Unternehmen verbunden.20 In Hinblick auf die digitale Fabrik entstehen viele Vorteile, aber auch Nachteile.

2.1.3 Umsetzung Industrie 4.0

Die Revolution geht über den Herstellungsprozess hinaus und erstreckt sich über die gesamte Produktionskette. Es werden 5 Hauptinnovationen genannt, die signifikant zu dieser Revolution beitragen: Mobile Computing, Social Media, Internet der Dinge, Big Data und die Analyse & Optimierung einschließlich der Vorhersagbarkeit von Daten.21

Der Prozess dorthin ist ein langfristiges Vorhaben und wird nur Stück für Stück zu realisieren sein. Die Umsetzung der Industrie 4.0 lässt sich in vertikale und horizontale Integration unterteilen. Bei der horizontalen Integration geht es um die Einbindung der verschiedenen IT-Systeme und Produktions- und Automatisierungstechnik mit den Prozessschritten der Produktion und der Planung für Material-, Energie-, und Informationsfluss zu einer durchgängigen Lösung. Bei der vertikalen Ebene versteht man die Integration der verschiedenen IT-Systeme und Produktions- und Automatisierungstechnik mit den Hierarchieebenen – von der Aktor- Sensorebene über die Steuerungsebene und Produktionsleitebene bis hin zur Unternehmensleitebene, zu einer durchgängigen Lösung. Dabei kann man Data Mining in der vertikalen als auch horizontalen Integration verwenden, um Optimierungspotenziale offenzulegen. Es ist ein ganzheitlicher Ansatz für die Optimierung von Produktion, Lieferlogistik bis hin zum Service beim Kunden notwendig. So wird in Zukunft nicht nur das Produkt an dem Computer entwickelt, sondern auch gleich der komplette Produktionsdurchlauf simuliert. Die Markteinführung verkürzt sich so deutlich um bis zu 50 % und es werden Ressourcen gespart, sowie die Energie und die Qualität verbessert.22

Der Mensch wird auch weiterhin in der Smart Factory ein wichtiger Produktionsfaktor bleiben. Denn mit Industrie 4.0 wird der Mitarbeiter auch weiterhin eine zentrale Rolle in der Gestaltung und Anwendung neuer Produktionstechnologien einnehmen. Natürlich wird es Auswirkungen auf die Arbeitsinhalte, Arbeitsaufgaben und Organisation sowie der Arbeitsumgebung geben. Hinzu kommt, dass sich die fachliche, räumliche und zeitliche Flexibilität der Mitarbeiter erhöhen wird. Um diesen Anforderungen gerecht zu werden, ist das lebenslange Lernen eine Voraussetzung für die Beherrschung der Systeme.23

Experten formulieren die Ziele des fertigen Produktes. Sie teilen den Assistenzsystemen Informationen mit, in denen sie deren möglichen Handlungsrahmen vorgeben. Die IT-Infrastruktur muss dazu angepasst werden, da die Wissensverarbeitung und -auswertung stärker in den Fokus rückt.24

2.1.4 Big Data

Unter Big Data versteht man die Ansammlung von sehr großen Datenmengen. Sie entstehen in analogen oder digitalen Quellen.25 Die Informationen stammen aus den IT-Systemen, Auftragserfassungs- und Logistik-Planungssystemen, den Produktionsanlagen und aus intelligenten Produkten.26 Datenmengen können sehr unterschiedlich aufgebaut sein, da sie unterschiedliche Datenstrukturen, -strömen, -flussgeschwindigkeiten haben. Hinzu kommt, dass sie verschiedenen Korrelation- oder Auswertungsmethoden durchlaufen. Aus diesem Grund werden strukturierte Informationsarchitekturen benötigt, um die Daten zu erfassen, zu speichern, zu integrieren und um sie zu verwalten.27

Bereits heute liegt Big Data in Unternehmen vor. Allerdings sind die Informationsquellen häufig voneinander isoliert, eine Nutzung kann nur dann funktionieren wenn die verschiedenen Systeme zusammengeführt werden.28 Neben den beliebten 3 Vs, Velocity (Geschwindigkeit), Volume (Umfang), Variety (Vielfalt) werden auch noch Chaos, Geographie, diverse innerbetriebliche Rahmenbedingungen und Datenschutz als wichtige Themengebiete auf dem Weg von Big Data zu Smart Data genannt.29

Ergänzend hierzu kann man sagen, dass es wohl in Zukunft eine immer größere Datenflut geben wird. Gleichzeitig werden auch immer leistungsfähigere Rechner entwickelt.

2.1.5 Data Mining

Data Mining ist dem Business Intelligence unterzuordnen.30 „Der Begriff Data Mining beschreibt allgemein die Analyse umfangreicher Datenbestände (Big Data) zur Aufdeckung nicht-trivialer, geschäftsrelevanter und verständlicher Muster in Daten.“31 Die Daten liegen in einem Data Warehouse oder in verteilten Datenbanken vor. Es werden bereinigte und vorverarbeitete Daten verwendet um dann mit geeigneten Algorithmen Datenmuster zu gewinnen. Die Anwendungsbereiche sind dabei vor allem Klassifikation, Clustern von Daten und Aufdecken von Abhängigkeiten. Dies geschieht überwiegend mit Clusterverfahren, Visualisierungstechniken zur Aufbereitung der Daten, Entscheidungsbaumverfahren, Zeitreihenanalysen und Assoziationsanalyse.32 Data Mining überprüft nicht nur manuell aufgestellte Hypothesen sondern erstellt auch eigene Hypothesen.33

Data Mining-Verfahren agieren weitgehend selbstständig.34 Data Mining-Verfahren stellen Hypothesen über Zusammenhänge in Daten her, welche sich durch einen höheren Automatisierungsgrad auszeichnen.35 Das heißt, es ist keine intensive Interaktion mit dem Benutzer mehr notwendig. Nach der Hypothesenerzeugung erfolgt eine Hypothesenvalidierung. Im Anschluss daran werden die als gültig erkannten Ergebnisse zurückgegeben. Es gibt viele verschiedene Data Mining-Verfahren. Um die Analyse effizient zu gestalten, laufen die Verfahren oft auf Grundlage von bereits gewonnen Informationen ab. Es wird diverses Hintergrundwissen genutzt und früher errechnete Hypothesen verwendet, um den Rechenaufwand zu minimieren.36 Errechnete Hypothesen haben den Vorteil, dass man nicht die kompletten alten Daten benötigt.37 Bei der Hypothesenvalidierung kommt es zu einfachen Ja/Nein Entscheidungen oder auch zu Berechnungen von umfangreichen komplexeren Sachverhalten. Zum Schluss wird das errechnete Ergebnis zurückgegeben. So können durch Data-Mining-Verfahren mit Hilfe von Korrelationskoeffizienten verschiedene Abhängigkeiten im Big Data aufgedeckt werden. Je nach Verfahren werden die Ergebnisse dann mit gewissen Zuverlässigkeitsgraden hinterlegt. Beispielsweise kann man diese Informationen benutzen, um Kundenbestellverhalten zu analysieren und vorherzusagen.38 Es ist aber auch möglich, Fehler in Daten zu erkennen.39

[...]


1 Vgl. Bauernhansl (2014), S. 5 - 7.

2 Vgl. Hartmann (2015), S. 9.

3 Vgl. Bauernhansl (2014), S.14.

4 Vgl. Spath et al (2013), S. 6, 9, 21.

5 Vgl. CeBIT (o.J.).

6 Vgl. Cleve/Lämmel (2014), S. 2.

7 Vgl. CeBIT (o.J.).

8 Vgl. Baum (2013), S. 42.

9 Vgl. Spath et al (2013), S. 45.

10 Vgl. Kagermann et al (2013), S. 23.

11 Vgl. Spath et al (2013), S. 44.

12 Vgl. Kleinhempel, Satzer, Steinberger (2015), S. 3 - 5.

13 Vgl. Watson/Schneider (2014), S. 64.

14 Vgl. Kagermann et al (2013), S. 23.

15 Vgl. Becker (2015) S. 24 - 25.

16 Vgl. Lackes (o.J.).

17 Vgl. Becker (2015), S. 24 - 25.

18 Vgl. Kampker/Deutkens/Marks (2015), S. 83.

19 Vgl. Kagermann et al (2013), S. 23 - 25.

20 Vgl. Baum (2013), S. 50.

21 Vgl. Baum (2013), S. 38 - 40.

22 Vgl. Russwurm (2013), S. 24 - 26.

23 Vgl. Becker (2015), S. 25.

24 Vgl. Niggemann/Jasperneite/Vodencarevic (2014), S. 175.

25 Vgl. Baum (2013), S. 47.

26 Vgl. Schlick (2014), S. 62.

27 Vgl. Baum (2013), S. 47 - 48.

28 Vgl. Schlick (2014), S. 79.

29 Vgl. Baron (2013), S. 23 - 25.

30 Vgl. Cleve/ Lämmel (2014), S. 3 - 4.

31 Baron (2013), S. 2.

32 Vgl. Gluchowski/Gabriel/Dittmar (2008), S. 193 - 195.

33 Vgl. Lackes (o.J.).

34 Vgl. Freimut (2006), S. 46.

35 Vgl. Lessmann (2007), S. 2.

36 Vgl. Bodendorf (2006), S.46 - 48.

37 Vgl. Baron (2013), S. 71.

38 Vgl. Freimut (2006), S. 46 - 48.

39 Vgl. Runkler (2010), S. 3.

Ende der Leseprobe aus 22 Seiten

Details

Titel
Data Mining und Industrie 4.0. Moderne Verfahren der Datenanalyse
Hochschule
Hochschule Heilbronn; Künzelsau
Veranstaltung
Wahlpflichtfach
Note
1,3
Autor
Jahr
2015
Seiten
22
Katalognummer
V309891
ISBN (eBook)
9783668082625
ISBN (Buch)
9783668082632
Dateigröße
648 KB
Sprache
Deutsch
Schlagworte
Industrie 4.0, Internet der Dinge, Big Data, Smart Data, CPS, Cyber-physische Systeme, Intelligente Produktion, Zukunftsvision, Data Mining, digitale Fabrik, Hypothesenerzeugung, Informationsauswertung, industrielle Revolution
Arbeit zitieren
Simon Hemmrich (Autor), 2015, Data Mining und Industrie 4.0. Moderne Verfahren der Datenanalyse, München, GRIN Verlag, https://www.grin.com/document/309891

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Data Mining und Industrie 4.0. Moderne Verfahren der Datenanalyse


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden