Industrie 4.0, Big Data und Business Intelligence. Die Möglichkeiten der Digitalisierung der Produktion im Hinblick auf Datensammlung und -auswertung


Studienarbeit, 2018
47 Seiten, Note: 1,7

Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Abstract

1. Einleitung
1.1. Problemstellung und Ziel
1.2. Inhalt der Arbeit
1.3. Abgrenzung der Arbeit

2. Grundlagenwissen I4.0, Big Data und Bl
2.1. Industrie 4.0
2.1.1. Zeitlicher und geschichtlicher Hintergrund
2.1.2. Das Konzept Industrie 4.0 und die beteiligten Technologien
2.1.2.1. Die 5 Paradigmen der Industrie 4.0
2.2. Big Data
2.3. Business Intelligence

3. Big Data und Business Intelligence in Industrie 4.0
3.1. Abgrenzung
3.2. Beziehung

4. Industrie 4.0 in der Anwendung
4.1. Das Internet der Dinge- Potenziale
4.1.1. Predictive Maintenance
4.1.2. Echtzeitreaktion auf Produktionsdaten
4.1.3. Steuerung der Produktion
4.2. Unterstützung des Menschen in CPPS
4.3. Möglichkeiten von Big Data und Bl im Umfeld I4.0
4.3.1. Schwachstellen in deutschen Unternehmen

5. Fazit und Ausblick

Literaturverzeichnis

Sonstige Quellen

Abbildungsverzeichnis

Abbildung 1: Unternehmensbereiche, die von I4.0 beeinflusst werden (Kemper 2015).

Abbildung 2: Realisierung von CPS durch Digital Twins (Uhlemann 2017)

Abbildung 3: Bl im Überblick (Müller 2013)

Abbildung 4: Data Warehousing (Müller 2013)

Abbildung 5: Unterschied zwischen Bl und Big Data (https://thinkincredible.intraway.com/wp-

content/uploads/sites/3/2017/09/Dif_BI_BIGDATA.jpg)

Abbildung 6: Big Data Bl Referenzarchitektur (Saracus 2017)

Abbildung 7: Schichtenmodell nach DIN ISO 62264 (Bauernhansl 2015)

Abbildung 8: Schichtenmodell, erweitert um Cloud (Sigmatek 2017)

Abbildung 9: CPS-basierte Automation (http://netzkonstrukteur.de/wp-

content/uploads/2014/01 /Automatisierunqspvramide-Automatisierunqscloud.ipq)

Abbildung 10: HMI, Genesis64 von Iconics

(http://www.iconics.eom/Home/Products.aspx#.WiEyYnmDPIU)

Abbildung 11: Datenverarbeitungsprozesse in Industrie 4.0 (Gölzer2016)

Abbildung 12: Wertschöpfungskette ohne Maschinenkommunikation (C.Neth)

Abbildung 13: Wertschöpfungskette mit Maschinenkommunikation (C.Neth)

Abbildung 14: AR in der Produktion

(https://www.heise.de/newsticker/meldung/Virtuelle-Realitaet-haelt-Einzug-in-die-

Produktion-3025909.html)

Abbildung 15: Big Data-Analytics: Datenquellen, Verdichtung und Analyse (Roth etai

2016, S.57)

Abbildung 16: Analysemethoden und Fragestellungen (Dorschei 2015, S.56)

Abstract

This work shows a broad overview of the concept Industry 4.0 and it’s components Big Data, Business Intelligence and Internet of Things. The just mentioned elements are described in detail in the beginning. Industry 4.0 is presented in its historical context and will be defined by five paradigms. Further there is explained, what the differences of Big Data and Business Intelligence are, how their relationship can be described and how they’re shared to support the operative and tactical decision making in an organization. The main emphasis of the work is about the use of Industry 4.0 in today’s organizations and how the different analytics are used in detail. In the end, there is a conclusion about how the potentials of I4.0 can be used better and what needs to be improved in the next few years.

1. Einleitung

1.1. Problemstellung und Ziel

Aufgrund der fortschreitenden Digitalisierung und den immer größer werdenden Datenmengen im betrieblichen Bereich ist es für erfolgreiche Unternehmen des 21. Jahrhunderts unabdingbar, sich mit den Themen ?Big Data“ und ?Business Intelligence“ im Rahmen der Industrie 4.0 auseinanderzusetzen und diese beiden als Werkzeuge zur Datensammlung bzw. Datenauswertung in die Supply Chain zu integrieren, um Prozesse entlang der Wertschöpfungskette effizienter und agiler zu gestalten. Diese Arbeit soll die Kernfrage beantworten, wie durch die Auswertung von Big Data und den Einsatz von Business Intelligence die Effizienz der Produktion gesteigert werden kann und wo die Grenzen von Big Data und Business Intelligence liegen.

1.2. Inhalt der Arbeit

Im zweiten Kapitel dieser Arbeit wird zunächst erklärt, wodurch der Begriff ?Industrie 4.0“ entstanden ist und wie er in den geschichtlichen Zusammenhang einzuordnen ist. Außerdem wird Industrie 4.0 anhand von 5 Paradigmen erklärt und die Besonderheiten der Industrie 4.0 aufgezeigt. Ebenso werden im folgenden Kapitel die Begriffe ?Big Data“, ?Business Intelligence“ und ?Internet of Things“ erläutert und es wird ein Überblick über die Gesamtthematik gegeben.

Das dritte Kapitel beschreibt, welche Rolle Big Data und Business Intelligence in der Industrie 4.0 einnehmen und welche Beziehung zwischen beiden existiert. Darüber hinaus wird auch eine Abgrenzung der beiden voneinander vorgenommen und zuletzt werden die Grenzen für Big Data und Business Intelligence in der Industrie 4.0 aufgezeigt.

In Kapitel 4 werden aktuelle Produktionssysteme und Wertschöpfungsketten, die durch die Auswertung von Live-Daten und Nutzung von Bl-Tools bereits eine Steigerung der Effizienz verzeichnen konnten, beschrieben. Erweiternd

werden die verschiedenen Analytics-Methoden charakterisiert. Durch diese Anwendungsbeispiele soll transparent gemacht werden, an welchen stellen der Supply Chain Big Data und Bl genutzt werden, um Produktionssysteme hinsichtlich der Datenintegration zu optimieren. Am Ende des Kapitels erfolgt eine kritische Betrachtung, wo noch Verbesserungspotenziale bei der Nutzung des Konzepts 14.0 vorhanden sind.

Das letzte Kapitel ist ein Fazit über die dargestellten Sachverhalte und nennt Möglichkeiten, wie man die Potenziale des Konzepts 14.0 zukünftig noch besser ausnutzen kann.

1.3. Abgrenzung der Arbeit

Die Arbeit befasst sich mit dem Aufzeigen der Konzepte Big Data und Business Intelligence im Rahmen der Industrie 4.0 und stellt in diesem Zusammenhang auch Anwendungsbeispiele aus der Praxis dar. Der Prozess der Datenauswertung und Datensammlung wird daher aus der anwendungs­bezogenen Sicht erläutert, d.h. es werden keine Erklärungen über Datentypen oder andere Informatik-spezifische Sachverhalte gemacht.

2. Grundlagenwissen 14.0, Big Data und Bl

ln den folgenden Unterkapiteln wird durch Grundlagenwissen ein Überblick über die Gesamtthematik der Industrie 4.0 gegeben und es werden die zum Verständnis notwendigen Begriffe Big Data und Business Intelligence in einem jeweils eigenen Unterkapitel charakterisiert.

2.1. Industrie 4.0

Industrie 4.0 ist aus Sicht eines Unternehmens ein organisationsspezifischer Gesamtansatz zur vernetzten, digitalisierten, lebenszyklusorientierten Leistungserstellung von materiellen, immateriellen oder hybriden Produkten (Vgl. Hans-Georg Kemper 2015).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Unternehmensbereiche, die von I4.0 beeinflusst werden (Kemper 2015)

Abbildung 1 stellt dar, dass Industrie 4.0 eine Schnittmenge zwischen den Unternehmensbereichen Engineering (Produktion und Entwicklung), Management (Unternehmensführung) und IT bildet. Dem ist auf Basis der oben genannten Erklärung zu entnehmen, dass Prozesse der Produktion und sogar die Managementprozesse durch den sinnvollen Einsatz IT-basierter Daten verändert bzw. verbessert werden können. Im weiteren Verlauf dieses Kapitels

wird zunächst auf den historischen Kontext der Industrie 4.0 eingegangen, bevor Industrie 4.0 dann anhand von fünf Paradigmen definiert wird.

2.1.1. Zeitlicher und geschichtlicher Hintergrund

Dem Begriff ?Industrie 4.0“ geht die 4. Industrielle Revolution, die Digitalisierung, voraus. Der industrielle Wandel der letzten 250 Jahre ist von Bedeutung, um die Auswirkungen der bisherigen industriellen Revolutionen darzustellen und somit die Besonderheiten der Industrie 4.0 aufzeigen zu können.

Als erste industrielle Revolution, im Nachhinein als Industrie 1.0 bezeichnet, versteht man die um das Jahr 1750 beginnende Industrialisierung, die durch die Entwicklung der Dampfmaschine und anderen Arbeits- und Kraftmaschinen, wie Z.B. Webstühlen oder mechanischen Produktionsanlagen, charakterisiert werden kann. Der Industrie 1.0 hatten die Menschen der damaligen Zeit zu verdanken, dass sie mit ausreichend Kleidung und Nahrung versorgt werden konnten, was auf den nun entstandenen Transportsystemen wie Dampfschifffahrt und Eisenbahn aber auch der gestiegenen Produktivität in der Landwirtschaft beruhte.

Die zweite industrielle Revolution begann Ende des 19. Jahrhunderts mit der Nutzung der Elektrizität und der daraus resultierenden Fließbandarbeit, welche eine arbeitsteilige Massenproduktion ermöglichte. In dieser Zeit schritten vor allem die Chemie-, Elektro- und Automobilindustrie sowie der Maschinebau stark voran. Der Ausbeutung der Fabrikarbeiterschaft aus der Zeit der Industrie

1.0 wich nun einem Wohlstand, der aufgrund der kostengünstigen Produktion durch Skaleneffekte ermöglicht wurde (Vgl. Thomas Bauernhansl et al. 2014, S.5).

In den 1960er Jahren, der Zeit des Wirtschaftswunders in Deutschland, startete auf Basis des von Konrad Ernst Otto Zuse 1941 entwickelten, ersten programmgesteuerten und vollautomatischen Computers Z3, die durch Automatisierung, Elektronik und IT geprägte 3. Industrielle Revolution (Vgl. Thomas Frick 2017). Die neuen Informations- und Kommunikationstechnologien im Zusammenspiel mit der fortschreitenden Automatisierung von

Produktionsprozessen ermöglichten eine variantenreiche Serienproduktion, aus der die heute verbreitete Mass Costumization hervor ging. Der Markt wandelte sich also von einem Verkäufermarkt, in dem alles was man produzierte sowieso verkauft wurde, zu einem Käufermarkt, in dem die individuellen und differenzierten Wünsche der Kunden maßgeblich das Produktionsprogramm der Anbieter bestimmen (Vgl. Thomas Bauernhansl et al. 2014, S.7).

Diese individuelle Nachfrage schnell und effizient zu bedienen, ist eines der Ziele der heutigen Industrie 4.0. Der Fokus liegt hierbei auf der Nutzung der zunehmenden Digitalisierung und der Integration von möglichst vielen Informationen in den eigenen Wertschöpfungsprozess. Durch die Digitalisierung werden Fabriken ?smart“, deren technische Grundlage intelligente, digital vernetzte Systeme bilden, sodass Maschinen, Anlagen, Logistik, Produkte und Menschen direkt miteinander kommunizieren und kooperieren (Vgl. Bundesministerium für Wirtschaft und Energie 2017). Die dabei anfallende, sehr große Datenmenge, die es in Echtzeit auszuwerten gilt, nennt sich Big Data und wird in Kapitel 2.2 dieser Arbeit detailliert erläutert.

2.1.2. Das Konzept Industrie 4.0 und die beteiligten Technologien

Nach der Definition des Lenkungskreises der Plattform Industrie 4.0 steht die vierte industrielle Revolution für eine neue stufe der Organisation und Steuerung der gesamten Wertschöpfungskette über den Lebenszyklus von Produkten. Die Verfügbarkeit aller relevanten Informationen in Echtzeit durch eine vernetzte Wertschöpfungskette bildet hierfür die Basis (Vgl. Bundesministerium für Wirtschaft und Energie 2017). Diese Datenflut (Big Data) gilt es nun richtig zu interpretieren, d.h. relevante von irrelevanten Informationen zu unterscheiden und nur die zuerst genannten zur Auswertung zu nutzen. Die Analyse der Daten erfolgt über Business Intelligence-Tools, deren Aufgabe es ist, aus den verfügbaren Daten jederzeit den optimalen Wertschöpfungsfluss abzuleiten (Vgl. Bundesministerium für Wirtschaft und Energie 2017).

Philipp Gölzer 2017 S.31 nennt und beschreibt folgende Themenfelder, die das Konzept Industrie 4.0 und die Zielsetzung für die Produktion von morgen charakterisieren:

Horizontale Integration

Die horizontale Integration bedeutet Integration über Wertschöpfungsnetz­werke, d.h. Vernetzung entlang der gesamten Wertschöpfungskette, also auch über die Unternehmensgrenzen hinaus. Erst diese Art der Vernetzung ermöglicht eine stabile Unternehmensposition durch die flexible Anpassung an veränderte Marktanforderungen (Vgl. Kagermann et al. 2013). Durch die Anbindung externer Informationen, wie Maschinendaten aus der Datenbank der Maschinenhersteller, Lieferdaten aus der Datenbank von Lieferanten oder aber Bedarfsdaten aus der Datenbank des Kunden/Abnehmers (Big Data) lassen sich innerbetriebliche Prozesse und Abläufe verbessern, wenn diese Daten vom entsprechenden Bl-Tool richtig ausgewertet werden.

Vertikale Integration

Die Vernetzung von intelligenten Produktions- und IT-Systemen innerhalb eines Unternehmens wird als vertikale Integration verstanden. Die flexible Anpassung der Produktion an aktuelle Zustände und Bedarfssituationen, sowie die Echtzeitsteuerung und -Optimierung von Produktionsprozessen sind hierbei das Ziel (Vgl. Kagermann et al. 2013). Sensorik liefert im Wertschöpfungsprozess den aktuellen Zustand von Produkten und Produktionssystemen durch eine große Menge an Echtzeit-Daten. Diese gilt es zu sammeln, nach Relevanz zu sichten und anschließend durch Business Intelligence zu analysieren, sodass eine optimierende Regelung durch Rückführung der Sensordaten entsteht (Vgl. Gölzer 2017, S.38).

Durchgängiges Engineering

Durchgängiges Engineering im Zusammenhang mit Industrie 4.0 bedeutet, dass die Produkte von ihrer Entwicklung bis zum Verkauf und Service durch Cyber­physische Produktionssysteme unterstützt werden. Jedes Produkt verfügt über ein digitales Abbild im System, in welchem alle für den Produktlebenszyklus relevanten Daten, der sogenannte Produktdatenlebenszyklus, hinterlegt ist. Diese fachbereichs- und unternehmensübergreifenden Daten unterstützen Entscheidungsprozesse in allen Phasen des Lebenszyklus; bspw. können

Erkenntnisse aus der Betriebsphase dazu beitragen, Entwicklungsprozesse zu verändern (Vgl. Gölzer2017, S.37).

2.1.2.1. Die 5 Paradigmen der Industrie 4.0

Das Konzept Industrie 4.0 besteht im Kern aus fünf zentralen Paradigmen, die folgend erklärt und anhand von Beispielen verdeutlicht werden.

Paradigma 1: Integration von Prozessen und IT-Systemen

Der unternehmensübergreifende Datenaustausch, d.h. die Vernetzung von IT- Systemen mehrerer Unternehmen einer Wertschöpfungskette, bspw. Automobilhersteller und Zulieferer, ist ein Kernpunkt der Industrie 4.0. Durch diese Verbindung kann gewährleistet werden, dass ein Teilnehmer innerhalb einer Supply Chain durch ständigen Informationsfluss immer abfragen kann, wie weit ein bestimmter Prozess bei einem anderen Teilnehmer dieser Supply Chain ist (Vgl. Sandra Lucia Merz 2015). Dies muss nicht zwingend unternehmensübergreifend passieren, sondern auch die Vernetzung von verschiedenen innerbetrieblichen IT-Systemen, Z.B. Vertriebssystem und Produktionssystem, bringt bereits den Vorteil, dass allen Beteiligten dieser Wertschöpfungskette durch die gewonnene Transparenz mehr Informationen zur Verfügung stehen. Auf die beiden Beispiele bezogen bedeutet das, dass der Automobilhersteller die Produktionsauslastung seines Zulieferers und der Vertriebsmitarbeiter die Auslastung der eigenen Produktion unkompliziert und schnell erfahren kann und diese Information für sich nutzt. Um das zu ermöglichen, sind im Voraus eine Analyse der verschiedenen Prozesse, sowie eine Optimierung der Schnittstellen notwendig (Vgl. Roth et al. 2016, S.38).

Paradigma 2: Vernetzung der Produktionsanlagen durch das Internet of Things

Unter dem Begriff ?Internet of Things“ (kurz: I0T) ist ein Verbund technischer Subkomponenten, die über eine internetbasierte Dateninfrastruktur miteinander kommunizieren, zu verstehen (Vgl. Sabina Jeschke 2014, S.13). Roth et al. 2016 S.39 benennt das zweite Paradigma mit dem Titel ?Dezentrale Intelligenz“,

welche er als Grundvoraussetzung für eine dezentrale Steuerung ansieht. Diese Maschine-zu-Maschine-Kommunikation ermöglicht es, dass alle Sensoren und Aktoren einer Produktion Daten untereinander austauschen und sie ist ausschlaggebend für den Betrieb einer ?Smart Factory“.

Bearbeitungsstationen und Montagelinien sind in einer Smart Factory als ?Social Machines“ digital miteinander vernetzt; sie nutzen diese neuartigen Kommunikationsmöglichkeiten aus und werden die Informationsaufbereitung und -darstellung in der Produktion stark beeinflussen (Vgl. Thomas Bauernhansl 2014, S.298). Durch diesen Austausch und den zusätzlichen Einsatz von Radio Frequency Identification-Chips (kurz: RFID) wissen Produktionsteile und Maschinen genau, an welchem Ort sie sich befinden, wie viele Produktionsteile sich in einem Behälter befinden und welche Produktionsstufen den jeweiligen Einzelteilen noch zum fertigen Produkt fehlen. Eine dezentrale Produktionssteuerung eines Lackherstellers ist ein sehr gutes Beispiel dafür, wie diese Vernetzung der Maschinen einen direkten Nutzen erzeugt. Sobald ein Kunde einen Lack bestellt, wird dessen Bestellung anhand von Menge und Farbmischung gruppiert und durch eine Produktionsplanungs­Software eine optimale Bearbeitungsreihenfolge festgelegt. Anschließend wird ein leerer Behälter mit einem Funkchip versehen, der alle nötigen Informationen enthält und diese über das Netzwerk an die in der Produktion vorhandenen Maschinen weiterleitet. Der Lackbehälter wird also vollautomatisch durch die Abfüllanlage manövriert und der Chip erhält an jeder Abfüllstation neue Informationen über das aktuelle Mischverhältnis und noch fehlende Farben. Diese Selbstständigkeit der intelligenten Produktion steigert durch Reduktion der Durchlaufzeit die Gesamtproduktion, was wiederum eine Senkung der Stückkosten hervorruft (Vgl. Roth et al. 2016, S.39).

Paradigma 3: Nutzung dezentraler Intelligenz

Einzelne Maschinen einer automatisierten Fertigung können ohne zentrale Steuerung miteinander kommunizieren und sich teilweise sogar selbstständig organisieren. Dieses Produktionssystem erkennt selbstständig Optimierungs­potentiale innerhalb oder zwischen Prozessen und nutzt diese auch aus (Vgl. Sandra Lucia Merz 2015). Beispielsweise lassen sich Wartungszyklen von Maschinen dahingehend optimieren, dass keine, in festem Rhythmus erfolgenden, wiederkehrenden Prüfungen oder Wartungen vorgenommen werden, sondern eine Maschine auf Grundlage ihrer eigenen Daten, Z.B. der Schnitttiefe, einen in naher Zukunft auftretenden Verschleiß selbstständig erkennt und eine automatisch eine Meldung mit allen nötigen Informationen an einen zuständigen Mitarbeiter sendet (Vgl. Roth et al. 2016, S.40).

Paradigma 4: Digital durchgängiges Engineering

Wie bereits zu Anfang dieses Kapitels beschrieben, bezeichnet digital durchgängiges Engineering die digitale Abbildung des kompletten physischen Produktionsprozesses (Vgl. Roth et al. 2016, S.41). Durch die Vernetzung verschiedener Abteilungen sowie der zugehörigen Maschinen kann die gesamte Supply Chain effizienter gestaltet werden, da die Maschinen in der Produktion ihr Produktionsprogramm auf Basis der von Materiallager und Warenausgang (Versand) übermittelten Daten hinsichtlich der Bearbeitungsreihenfolge von Aufträgen so optimieren, dass Engpässe bestmöglich ausgenutzt werden. Roth et al. 2016 s.41 beschreibt als Möglichkeit der Nutzung des digital durchgängigen Engineerings, dass reale Anwendungsfälle digital simuliert werden können und dadurch das Verhalten einzelner Systemkomponenten im Zeitverlauf analysiert werden kann. Entsteht Z.B. ein Engpass aufgrund der vollständigen Auslastung des Warenausgangs und damit verbundener Wartezeiten, ist die intelligente Produktionssteuerung in der Lage, das Produktionsprogramm entsprechend anzupassen. Im Falle dieses beschriebenen Engpasses bedeutet das konkret, dass Arbeitsgänge, die viel Rüstzeit in Anspruch nehmen, ausgeführt werden, um den Warenausgang zu entlasten. Sobald der Engpass überwunden ist, erkennt dies das System und passt das Produktionsprogramm erneut an.

Paradigma 5: Einbettung cyber-physischer Produktionssysteme

Cyber-physische Systeme (kurz: CPS) definiert Bauernhansl 2014 s.15f. wie folgt:

?Es werden sogenannte cyber-physische Systeme (CPS) entwickelt, das sind Objekte, Geräte, Gebäude, Verkehrsmittel, aber auch Produktionsanlagen, Logistikkomponenten etc., die eingebettete Systeme enthalten, die kommunikationsfähig gemacht werden. Diese Systeme können über das Internet kommunizieren und Internetdienste nutzen. Cyber-physische Systeme können ihre Umwelt unmittelbar mit ihrer entsprechenden Sensorik erfassen, sie mit Hilfe weltweit verfügbarer Daten und Dienste auswerten, speichern und sie können mit Hilfe von Aktoren auf die physikalische Welt einwirken. “

Unter CPS versteht man also intelligente Sensorik und Aktorik, die miteinander kommunizieren und mit Hilfe des Menschen eigenständig Probleme lösen kann. Roth et al. 2016, S42f. führt auf, dass CPS erweiternd reale und virtuelle Welt miteinander kombinieren, sodass jedes Objekt der realen Welt einen sogenannten ?Digital Twin“, d.h. ein exaktes Abbild im System, besitzt. Durch die vollständige Abbildung aller Maschinen, Roboter, Fertigungshallen und Produktionswege lassen sich Produktions- und Instandhaltungsabläufe optimieren, indem man sie simuliert. Fertigungsabläufe werden sozusagen virtuell nachgestellt und während dieser Simulation werden alle relevanten Parameter dahingehend verändert, dass sich Durchlaufzeiten, Materialverbräuche und Verschleiß minimieren lassen. Werden nun die Parameter in die realen Maschinen und Prozesse eingepflegt, läuft die reale Produktion nach denen in der Simulation ermittelten optimalen Einstellungen. Abbildung 2 und Tabelle 1 verdeutlichen, wie die Optimierungspotentiale durch Simulation der realen Produktion in einer virtuellen Umgebung genutzt werden können.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Realisierung von CPS durch Digital Twins (Uhlemann 2017)

Tabelle 1: Legende bzw. Erklärung zu dem Konzept-Schema in Abb. 1 (Uhlemann 2017)

Abbildung in dieser Leseprobe nicht enthalten

Industrie 4.0 bietet also die Möglichkeit, reale Produktionsabläufe nahezu in Echtzeit auszuwerten, darzustellen und auf vollkommen neue Art und Weise zu optimieren. Erweiternd unterstützt ein abteilungs- und unternehmensübergreifender Informationsfluss entlang der gesamten Supply Chain von immenser Datengröße die Menschen und Maschinen, die an ihr beteiligt sind, wodurch neue Produktionsmethoden und Wertschöpfungsnetze entstehen können.

2.2. Big Data

Big Data ist die Bezeichnung für Daten, die aufgrund ihrer Datenmenge, der Heterogenität der Daten und der Frequenz des Datenanfalls klassische Datenhaltung, Verarbeitung und Analyse auf konventioneller Hardware übersteigen (Daniel Faser 2016, S.5). Big Data lässt sich anhand von 5 V’s, die auf Adrian Merv und das McKinsley Global Institute zurückgehen, sehr gut charakterisieren: •

Daten dieser Komplexität bringen klassische, relationale Datenbanken an ihre technischen und architektonischen Grenzen (Vgl. Daniel Fasel 2016, S.7). Relationale Datenbanken, auch SQL-Datenbanken genannt, speichern die Daten in mehreren Tabellen, die miteinander verknüpft sind. Diese bestehen aus Zeilen (Tupel) und Spalten (Attribute). Jedes Tupel in der Tabelle ist ein Datensatz und besteht aus einer Reihe von Attributen. Dies bezeichnet man als Relationsschema, welches die Anzahl und den Typ der Attribute einer Tabelle festlegt. Jeder Datensatz innerhalb dieser Datenbank muss eindeutig identifizierbar sein. Dafür sind ein oder mehrere Schlüssel definiert, die sich in einer konsistenten Datenbank nicht ändern und immer auf Datensätze beziehen. Konsistenz und Redundanzfreiheit werden sichergestellt, indem die Datensätze auf verschiedene Tabellen verteilt und untereinander verknüpft werden, sodass sie eindeutig zu identifizieren und alle Daten jeweils nur einmal in der Datenbank erfasst und gespeichert sind. Da diese Datenbanken keine unstrukturierten Daten (Bilder oder Dokumente) speichern können, sich nicht beliebig skalieren lassen und Probleme damit haben, große Datenmengen zu speichern und schnell zu verarbeiten, sind sie für das Auswerten von Big Data eher ungeeignet. (Nico Litzel 2017). Daniel Fasel 2016 s.7 begründet dies folgendermaßen:

?Die Restriktion relationaler Datenbanken, alle Datenvorkommen in Tabellen zu fassen und jede Transaktion konsistent zu halten, ist nicht immer möglich und wünschenswert (Fasel 2014). So können Daten von externen Quellen, wie beispielsweise Webservices, ihre Formate flexibel gestalten und schnell ändern, teils sogar bei jeder Anfrage. “

Bei Big-Data-Anwendung muss die relationale Datenbank durch No-SQL- Technologien ergänzt werden (Vgl. Daniel Fasel 2016, S.11). Deren Vorteil liegt darin, dass sie eine hohe Verarbeitungsgeschwindigkeit bieten und zudem fast beliebige Arten von Daten speichern können (Nico Litzel 2017).

Zusammenfassend lässt sich sagen, dass Big Data, wenn die Qualität der Daten gegeben ist und diese richtig ausgewertet werden, den Unternehmen im 21. Jahrhundert eine Grundlage dazu bietet, Prozesse und Arbeitsweisen neu zu definieren und letztendlich aus den gewonnen Daten zu lernen und den Unternehmenswert zu steigern. Flerausforderung hierbei ist die Komplexität der

Daten durch die Heterogenität, die Datenmenge und die oben angesprochene Real-Time-Analysis, weshalb relationale Datenbanken mit No-SQL-Technologie erweitert werden müssen, um den massiven Datenstrom bewältigen zu können.

2.3. Business Intelligence

Unter Business Intelligence (kurz: Bl) versteht man alle Aktivitäten eines Unternehmens, die der Integration, der qualitativen Verbesserung, der Transformation und der statistischen Analyse der operativen und externen Daten dienen. Weiter haben diese Aktivitäten das Ziel, Informationen bzw. Wissen aus einem vorgebeben Planungs-, Entscheidungs- und Controllingrahmen zu generieren (Vgl. Roland Müller 2013, S.3). Bl lässt sich nach Müller 2013 mit folgender Formel zusammenfassen:

Bl = 50% BWL/OR + 25% Data Mining/Statistik + 25% Data Warehouse

Business Intelligence ist demnach die Verbindung von internen und externen Daten im Data Warehouse[2] mit OLAP[3] -Abfragen für Data Mining[4]. Hinzu kommen die Methoden der BWL und quantitative betriebswirtschaftliche Verfahren (Operations Research). Kemper 2010 s. 8 beschreibt Business Intelligence als einen integrierten, unternehmensspezifischen, IT-basierten Gesamtansatz zur betrieblichen Entscheidungsunterstützung. Folgend wird der von Müller 2013 beschriebene Prozess beleuchtet, wie Bl Informationen bzw. Wissen generiert.

Um die oben genannte Aufgabe zu bewältigen, benötigt man zuerst Daten. Diese bestehen aus operativen, d.h. gegenwartsbezogenen Daten (z.B. Rechnungsdaten) und analytischen Daten. Analytische Daten werden aus operierenden Daten gewonnen, haben statistischen Bezug, Z.B. zeitliche Entwicklung von Marktanteil oder Eigenkapitalquote, und werden im Data Ware- house in sogenannten Cubes als betriebliche Aggregate gespeichert. Diese erfassten Daten werden durch Auswerteverfahren wie Statistik, Data Mining oder maschinellem Lernen auf Korrelationen und andere interessante Strukturen analysiert. Die Erkenntnisse dieser Analyse werden anschließend visualisiert und Planern, Entscheiden?!, Controllern und Topmanagern in geeigneter Form bereitgestellt (Vgl. Roland Müller 2013, S.4).

Dabei bezieht sich Bl nicht nur auf einen speziellen Funktionsbereich eines Unternehmens, sondern dient der funktionsbereichsübergreifenden Informationsgewinnung, wie Abbildung 3 zeigt.

Abbildung 3: BI im Überblick (Müller 2013)

Abbildung in dieser Leseprobe nicht enthalten

Der Bl-Kern besteht aus einer funktionell einheitlichen Daten-, Methoden- und Modellbank welche Werkzeuge beinhaltet, um unternehmensweite, interne ERP-Daten übernehmen zu können. Ferner dient er der Integration verteilter, heterogener Daten aus externen Quellen in das Data Warehouse oder in Data Marts[5]. Um Bl am einfachsten nachvollziehen zu können, wird häufig die Drei- Schichten-Sicht, wie in Abbildung 3 dargestellt, angewendet. Die innerste Schicht steht für die Datenbereitstellung, welche durch Data Warehousing erfolgt (Vgl. Roland Müller 2013, S.5). Wie in Abbildung 4 zu erkennen ist, wird Data Warehousing als ein Geschäftsprozess definiert, der die Datenbeschaffung aus internen und extern zugänglichen Quellen, die Datentransformation und -aufbereitung, die Qualitätssicherung der Daten, die Speicherung im Data Warehouse bzw. in Data Marts sowie die auf OLAP basierende Datenanalyse umfasst (Vgl. Roland Müller 2013, S.11).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Datawarehousing (Müller 2013)

Die zweite Schicht besteht aus den einzelnen ?Bl-Werkzeugen“, zu denen die Hauptbereiche Data Mining und die Methoden der Unternehmenssteuerung zählen. Die Methoden der Unternehmenssteuerung stellen dem Management aller Funktionsbereiche die gewünschten Daten und Informationen, zugehörige betriebliche Modelle und die spezifischen Methoden zur Verfügung, um es bei Planungs-, Entscheidungs- und Kontrollaufgaben zu unterstützen (Vgl. Roland Müller 2013, S.121). Die äußerste Schicht stellt die Informationsverteilung dar, welche benutzerfreundliche, personalisierte Dashboards zur Visualisierung von Ergebnissen und Berichten, sowie auch mobiles Bl beinhaltet.

Abschließend lässt sich sagen, dass Business Intelligence Unternehmen die Möglichkeit bietet, auf Grundlage interner und externer Daten Data Mining und Methoden der Unternehmenssteuerung durchzuführen, um Prognosen,

Planungen, die Entscheidungsunterstützung, das Risikomanagement, das Controlling und die Fehlerrückverfolgung zu verbessern oder sogar zu optimieren.

3. Big Data und Business Intelligence in Industrie 4.0

ln den nachfolgenden Unterkapiteln wird zunächst dargestellt, wie sich Big Data und Business Intelligence charakteristisch voneinander unterscheiden lassen. Anschließend wird die Beziehung bzw. das Zusammenwirken der beiden im Rahmen der Industrie 4.0 beleuchtet.

3.1. Abgrenzung

Bei Business Intelligence-Lösungen werden einzelne Geschäftsprozesse untersucht und anhand von sehr genauen, weit heruntergebrochenen Daten dargestellt. Dabei werden selbst kleinste Datenelemente analysiert und aus diesen genauen Angaben einzelne Schritte herausberechnet, wie Z.B. einzelne Kunden oder Produkte. In einer Bl-Umgebung ist es daher sehr wichtig, dass alle Datensätze relevant und korrekt sind (Vgl. Thomas Joos 2016). Nur durch ein konsistentes Data Warehouse kann also erfolgreiches Data Mining betrieben werden, wodurch wiederum Prozesse und Arbeitsweisen verbessert werden können. Die Ziele des Bl-Systems sind sehr exakt formuliert und die Informationen, die es liefern soll, spielen schon bei der Planung eine wichtige Rolle. Im oberen Abschnitt von Abbildung 5 ist zu erkennen, dass das Unternehmen bei klassischen Bl-Anwendungen Fragen stellt, welche es durch strukturierte und wiederholbare Analyse zu beantworten gilt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Unterschied zwischen BI und Big Data (https://thinkincredible.intraway.com/wpcontent/uploads/sites/3/2017/09/Dif_BI_BIGDATA.jpg)

Bei Big Data-Umgebungen werden hingegen zuerst alle Daten durch die IT erfasst. Dafür werden zu Anfang alle verfügbaren Datenquellen inventarisiert. Dabei werden die Daten, im Gegensatz zu Bl-Anwendungen, nicht bis ins Detail heruntergebrochen, sondern es werden überwiegend übergeordnete, gruppierte Informationen und Trends abgeleitet. Dies erfolgt durch Filterung und das Analysieren und Erstellen von Beziehungen zwischen den Daten, was Informationen generiert, die mit Bl-Systemen nicht erreichbar sind (Vgl. Thomas Joos 2016).

Wie in Abbildung 5 zu sehen ist, stehen bei Bl-Anwendungen die Fragen, die beantwortet werden sollen, am Anfang des Prozesses. Durch Analysen werden die Daten so strukturiert, dass am Ende die anfangs gestellten Fragen beantwortet werden können. Bei Big Data bilden jedoch die verfügbaren Daten den Anfang, wodurch ein sehr hohes Datenvolumen verursacht wird. Diese Daten werden analysiert und daraus entstehen dann neue Informationen, welche Möglichkeiten zu Optimierungen bieten. Weiterer Unterschied zwischen Bl und Big Data sind die dahinterliegenden Datenbanken. Bl-Anwendungen arbeiten mit strukturierten Daten, welche sich für relationale Datenbanken eignen. Big Data ist hingegen meist heterogen und unstrukturiert und stellt der Datenbank die Aufgabe, große Mengen an Information schnell zu verarbeiten. Deshalb werden für Big Data-Anwendungen, wie bereits in Kapitel 2.2. beschrieben, No-SQL-Datenbanken verwendet (Vgl. Thomas Joos 2016).

3.2. Beziehung

Ziel des Konzepts Industrie 4.0 ist es, dass Big Data und Business Intelligence zusammenwachsen. Dabei bleibt die klassische Bl-Struktur erhalten; in allen Schichten wird jedoch eine Erweiterung um neue Technologien erfolgen. Unternehmen mit klassischen ERP-Systemen und Bl-Tools erschließen durch die Nutzung von Big Data neue Informationsquellen, indem sie ihr bisheriges ERP-System und das Data Warehouse mit einem verteilten Dateisystem verbinden (Vgl. Saracus 2017). Abbildung 6 zeigt die Architektur einer zukünftig integrierten Big Data Business Intelligence Plattform (kurz: BDBI-Plattform).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Big Data Bl Referenzarchitektur (Saracus 2017)

Das dargestellte verteilte Dateisystem liefert der BDBI-Plattform Daten aus externen Quellen, wie soziale Netzwerke, und internen Quellen, wie den CPS in der Produktion, wodurch der Nutzer sehr viele Informationen über aktuelle

Prozesse in Echtzeit abrufen kann. Potenziale, die daraus für die Produktion entstehen, werden in Kapitel 4.1. detaillierter erklärt. Die Integration von Big Data in Business Intelligence-Anwendungen erfolgt dabei fließend auf mehreren Schichten, wobei der einfachste Weg die Integration auf der ETL-Schicht ist (Vgl. Saracus 2017). ETL steht für ?Extract, Transport, Load“ und beschreibt den Prozess, bei dem mehrere, auch unterschiedlich strukturierte Datenquellen Daten in eine Zieldatenbank übertragen. Das könnten in einer Produktion nach dem Konzept der I4.0 verschiedene Sensoren und Maschinen sein, deren immense Datenmenge verschieden strukturiert ist (Biga Data) und in einer Zieldatenbank von den entsprechenden Bl-Anwendungen genutzt werden, um potentielle Verbesserungsmöglichkeiten aufzudecken. Ein Zusammenwachsen der Datenbestände ist demnach unumgänglich.

4. Industrie 4.0 in der Anwendung

Aufbauend auf den Erkenntnissen aus dem Grundlagenteil der Arbeit werden in den folgenden Unterkapiteln 4.1. und 4.4. konkrete Anwendungsbereiche dargestellt, in denen Big Data und Bl im Rahmen der Industrie 4.0 eingesetzt werden, um Produktionsprozesse effizienter zu gestalten. Unter 4.2. wird das Zusammenwirken von Mensch und CPS beleuchtet. Dabei wird auf die Rolle des Menschen in der Industrie 4.0 eingegangen, aber auch die Auswirkungen der neuen Technologien auf den Menschen werden aufgezeigt. Ein Aspekt, der bei fortschreitender Digitalisierung und damit verbundener Transparenz stark an Bedeutung gewinnt, ist die IT-Sicherheit.

4.1. Das Internet der Dinge- Potenziale

Als Internet der Dinge (kurz: I0T) wird die Ausweitung des Internets zu alltäglichen Objekten und physischen Gegenständen verstanden. Dabei sind diese mit der virtuellen Welt gekoppelt; sie agieren als physische Zugriffspunkte auf Internetdienste (Vgl. Thomas Bauernhansl 2015, S.544). Im I0T haben Objekte Netzwerkzugriff und sind somit adressierbar, was eine eindeutige Identifikation dieser ermöglicht. Bauernhansl 2015 stellt zwei Ausprägungen des I0T im Konzept I4.0 dar, auf die nun näher eingegangen wird.

[...]


[1] Volume: Sehr große Datenmenge im Tera- bis Zetabytebereich; Daten aus der Fertigung (z.B. Sensor- oder Prozessdaten)

- Variety: Englisch für Vielfalt; in dem Zusammenhang mit Big Data versteht man darunter die Speicherung von strukturierten, semi­strukturierten und unstrukturierten Daten. Das bedeutet, dass die Daten unterschiedlichste Datenquellen und Formate besitzen.
- Velocity: Englisch für Geschwindigkeit; das Auswertung und Analyse der während eines Prozesses angefallenen Daten muss in Echtzeit erfolgen
- Veracity: Die Qualität der Daten in Bezug auf Richtigkeit und Zuverlässigkeit muss gegeben sein, da große Datenbestände nicht automatisch eine bessere Auswertungsqualität garantieren
- Value: Die Auswertung dieser großen Datenmengen soll dazu führen, den Unternehmenswert zu steigern. D.h. nur wenn die gewonnenen Informationen verwertbar sind, ist es sinnvoll, Big Data Methoden einzusetzen.

?Ein Data Warehouse ist ein subjektorientierter, integrierter, zeitraumbezogener und nicht- volatiler Datenbestand, um die Entscheidungs-, Planungs- und Controllingprozesse des Managements zu unterstützen“ (Müller 2013, S.14)

[3] ?Online Analytical Processing (OLAP) ist eine Vorgehensweise, die schnelle und flexible Ad-Hoc-Analysen von multidimensionalen Daten für einen breiten Nutzerkreis ermöglicht“ (Müller 2013, S.50)

[4] Data Mining ist das Aufdecken von Mustern durch Datenanalyse-Verfahren in großen Datenbeständen; auch Datenmustererkennung genannt

[5] Data Marts sind dezentrale Benutzersichten des Data Warehouse, Z.B.

Ende der Leseprobe aus 47 Seiten

Details

Titel
Industrie 4.0, Big Data und Business Intelligence. Die Möglichkeiten der Digitalisierung der Produktion im Hinblick auf Datensammlung und -auswertung
Hochschule
Duale Hochschule Baden-Württemberg Mannheim, früher: Berufsakademie Mannheim
Note
1,7
Autor
Jahr
2018
Seiten
47
Katalognummer
V423724
ISBN (eBook)
9783668694187
ISBN (Buch)
9783668694194
Dateigröße
1550 KB
Sprache
Deutsch
Schlagworte
Industrie 4.0, Big Data, Business Intelligence, Predictive Maintenance, CPPS, Internet of Things, IoT, Descriptive, Prescriptive, Analytics
Arbeit zitieren
Christopher Neth (Autor), 2018, Industrie 4.0, Big Data und Business Intelligence. Die Möglichkeiten der Digitalisierung der Produktion im Hinblick auf Datensammlung und -auswertung, München, GRIN Verlag, https://www.grin.com/document/423724

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Industrie 4.0, Big Data und Business Intelligence. Die Möglichkeiten der Digitalisierung der Produktion im Hinblick auf Datensammlung und -auswertung


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden