Data Analytics und Big Data. Ein Pilotprojekt zur Effizienzsteigerung in der Fertigung


Hausarbeit, 2020

14 Seiten, Note: 2


Leseprobe

Inhaltsverzeichnis

1. Einleitung

2. Digitale Lösungsansätze

3. Möglichkeiten zur Erweiterung der IT-Infrastruktur
3.1 IT-Architekturen
3.2 Datenspeicherung, -analyse und -auswertung

4. Geeignete Werkzeuge

5. Der Projektplan (Gantt-Diagramm, Zeitplan)

6. Fazit

I. Literaturverzeichnis

II. Abbildungsverzeichnis

III. Abkürzungsverzeichnis

Data Analytics und Big Data Fallstudie: „Q-Automobile AG“

1. Einleitung

Als Projektingenieur in der Fertigung im Unternehmen „Q-Automobile AG" soll das erste digitale Pilotprojekt zur Effizienzsteigerung in der Fertigung durchgeführt werden. Hierfür soll der Lösungsansatz beschrieben und ein Projektplan erstellt werden. Dazu wurden erste Interviews mit dem Fertigungsleiter und IT-Verantwortlichen geführt. Es konnte festgestellt werden, dass besonders in der Feinbearbeitung (Zerspanung) hohe Stillstandzeiten der Produktionsanlagen verzeichnet wurden. Die Schwingungssensoren der fünf Jahre alten Maschinen messen hochfrequent die Vibration der Maschinen, die für die Ausfälle verantwortlich sind. Die Ausfälle treten in unterschiedlichen Zeitspannen auf, die Gründe dafür sind undeutlich. Hierfür sollen also Gründe und Lösungsansätze entwickelt werden.

Im ersten Gespräch mit dem IT-Leiter konnte festgestellt werden, dass eine typische IT- Infrastruktur für Business Intelligence gegeben ist, und deswegen die Erweiterung der IT- Architektur durchführbar ist. Nun sollen die verschiedenen Möglichkeiten zu dem Ausbau der IT- Infrastruktur dargelegt werden.

Bei diesem digitalen Pilotprojekt geht es vor allem um die Optimierung und Effizienzsteigerung der Maschinen in der Feinbearbeitung. Zuerst müssen Ziele festgelegt werden, was sich durch die Veränderung positiv auswirken wird. Des Weiteren bestimmt man einen Bereichsrahmen, damit das Projekt nicht zu komplex wird. Auch ein Zeitraum sollte festgelegt und genügend Zeit eingeplant werden, sodass alle Mitarbeiter sich an die Erneuerung gewöhnen können. Das zuständige Team für das Projekt sollte bestimmt sein, sowie die einzusetzenden Ressourcen. Wichtig ist auch die Planung der Weiterbildung der Mitarbeiter, außerdem müssen Kommunikationsstrategien festgelegt und Feedback organisiert werden. Zu guter Letzt sollen die Messwerte ermittelt und dokumentiert werden.

2. Digitale Lösungsansätze

Die vierte industrielle Revolution basiert auf der exponentiell wachsenden Entwicklungs- bzw. Innovationsgeschwindigkeit. Sie ist besonders den cyberphysischen Systemen und Internet of Things (IoT) gewidmet.

Bei cyberphysischen Systemen handelt es sich um intelligente Dinge, die im Internet mit Daten und Diensten vernetzt sind. Mithilfe von Sensoren können Daten erfasst und mit Aktoren auf die Daten reagiert werden.

Die Rolle des „Internet der Dinge" wurde durch Proctor&Gamble mit der Warenverfolgung durch RFID erstmals in der Logistik eingeführt. Das Internet wird nun für die Vernetzung von Alltagsgegenständen erweitert.

Dabei können vielzählige Effizienzsteigerungen durch die Analyse von Sensordaten im Alltag festgestellt werden.

Aufgrund der zusätzlichen Informationen von Sensoren in Echtzeit können also Optimierungen an Maschinen und anderen Geräten durchgeführt und so die Produktivität gesteigert werden.

Insbesondere profitieren die Produktion, Logistik und andere Bereiche davon, da Sensoren für einen sorgfältigen und effizienten Materialfluss sorgen, und hier oft die Daten so schnell wie möglich an Ort und Stelle untersucht werden müssen. Die Daten, die von Sensoren stammen, werden analysiert, um diese gewinnbringend zu verwenden. Diese Daten sind zum Zeitpunkt der Datenerfassung sehr komplex und nicht geordnet, es fehlen Werte und viele irrelevante Werte sind enthalten. Diesbezüglich ist es wichtig, über Zeitbedarf und Kosten zu entscheiden und so eine Wertschöpfung zu generieren.

Zufällige Prognosen zu erstellen, ist ziemlich herausfordernd, daher ist die Beurteilung von IoT- Daten in Echtzeit notwendig. Außerdem erfordert die schnelle Reaktion auf Sensordaten, die Verfügbarkeit der Produktkonfiguration in Echtzeit.

Also ist sowohl die Vernetzung technischer Systeme in Echtzeit, die Kommunikation und Datenhaltung per Internet-Technologien als auch das exponentielle Wachstum der Rechenleistung das Revolutionäre.

Durch die weitere Entwicklung der Datenauswertung (Data Analytics) und Verwendung großer Datenmengen (Big Data) können neue Optionen und Potenziale zum Entwurf der Geschäftsmodelle wahrgenommen werden. Die Verarbeitung dieser Daten haben drei wichtige Charakteristiken, die wären Umfang (Volume), Geschwindigkeit (Velocity) und Vielfalt (Variety). Manche Experten nennen noch zusätzlich eine vierte Charaktereigenschaft: die Relevant (Veracity).

Ein Big-Data-Projekt ist ein iterativer Prozess und beginnt mit der Datensammlung. Danach werden die Daten organisiert, integriert, analysiert, und darauf wird mit Maßnahmen reagiert. Dieser Zyklus ist mehrmals zu durchlaufen.

3. Möglichkeiten zur Erweiterung der IT-Infrastruktur

Unter IT-Infrastruktur versteht man die Gesamtheit aller Gebäude, Kommunikationsnetzwerke, Maschinen (Hardware) und Programme (Software), die einer übergeordneten Ebene durch eine untergeordnete Ebene zur automatischen Informationsverarbeitung zur Verfügung gestellt wird.

Da alle Unternehmen in Deutschland immer mehr Fokus auf die Digitalisierung legen, wird künstliche Intelligenz, Internet of Things und Big Data zunehmend wichtiger.

Die Anwendungsgebiete der Veränderungen sind vielfältig. Zur Unterstützung und Planung von betriebswirtschaftlichen Abläufen gibt es die Möglichkeit Enterprise Resource Planning (ERP)- Systeme einzusetzen, und mit Computer-Aided-Design (CAD)-, Computerized-Numerical-Control (CNC)- und Computer-Aided-Manufacturing (CAM)-Programmen können Fertigungstechniken präzise gestaltet werden. Darüber hinaus findet eine zunehmende Vernetzung der horizontalen Wertschöpfungskette bis zum komplexen Wertschöpfungsnetzwerk statt.

Klassische Technologien wie zum Beispiel traditionelle Datenbanken, Business Intelligence und Data Warehouse reichen nicht mehr aus.

Sensor- und andere IoT-Daten benötigen innovative, analytische Technologien und eine neue Methodik, um aus diesen neuartigen Daten relevante Zusammenhänge ziehen zu können.

Vor allem in der Automobilindustrie hat sich durchgesetzt, eine digitale Fabrik einzurichten. Bei DF handelt es sich um einen Netzwerk von digitalen Modellen, die alle produktbezogene Prozesse und Ressourcen planen, steuern und weiterentwickeln.

Viele Vorteile konnten mit der Einführung von DF festgestellt werden, wie ein Effizienzanstieg der Planung und Produktion, höhere Auslastung der Produktionsstätte, niedrige Abweichungen zwischen Plan- und Sollkosten, Qualitätserhöhung, Kostensenkung und Planung durch exaktere Prognosen. Es können mittlerweile sogar Werke im Ausland voll virtuell geplant und betrieben werden. Dennoch wird die komplette Einführung von ungelösten Problemen bei der Integration älterer Softwareversionen verhindert.

Im Datenmanagement muss einiges im Änderungsmanagement und der Datenpflege überarbeitet werden. Beim Änderungsmanagement geht es um die systematische Erfassung und Pflege von Planungsänderungen, sowie das Informieren an alle Betroffenen. Es müssen klare Zuständigkeiten bezüglich der Bestandsdatenpflege bestimmt werden und alle Planungsdaten und Betriebsdaten an die digitale Welt weitergeleitet werden.

3.1 IT-Architekturen

Eine IT-Architektur dient als eine Leitlinie für alle an der Planung und Betrieb von IT-Infrastrukturen beteiligten Personen. Hierzu gehören alle statischen und dynamischen Aspekte der IT in einem Unternehmen.

Bei großen Datenmengen und der entsprechenden Reaktionsgeschwindigkeit ist es wichtig, dass die nötige Rechenleistung und Speicherkapazität der technischen Architektur vorhanden sind. Um eine Echtzeit-Analyse durchführen zu können und Ausfallzeiten durch Systemfehler so gut es geht zu vermeiden, muss die Breite des Systems realisiert werden.

Die Architektur eines Big-Data-Systems ist folgendermaßen aufgebaut:

Das Big-Data-System ist auf der linken und rechten Seite mit den Datenströmen verknüpft. Diese Verknüpfung zum Rest der Welt ist sehr wichtig, weil die Datenintegration aus vielen unterschiedlichen Quellen erfolgt. Alle anzubindenden Datenquellen sollten über eine offene Schnittstelle oder eine Application Programming Interface (API) verfügen. Neben diesen Schnittstellen gibt es auch Schnittstellen innerhalb des Systems. Die Existenz eines Big-Data- Systems ohne Datenintegration ist nicht möglich. Auch die physische Infrastruktur, also die Entwicklung des Arbeitsplatzes der Zukunft, spielt eine wichtige Rolle, ohne die Big-Data nicht das wäre, was sie heute ist.

3.2 Datenspeicherung, -analyse und -auswertung

Um diese großen Daten (Big Data) erstmal speichern zu können, werden verschiedene Technologien eingesetzt. Die Daten sind zwischen strukturierten, semistrukturierten und unstrukturierten zu unterscheiden. Ungefähr 85% der Daten sind unstrukturiert oder semistrukturiert und nur ca. 15% sind strukturierte Daten.

Die meisten Datenbankanwendungen, also die klassischen Datentypen, bauen auf dem rationalen Datenbanksystem auf, und damit ist es einer der meist verwendeten Alternativen. Hier können strukturierte Daten gespeichert werden.

Darüber hinaus gibt es neue Datentypen, wie zum Beispiel geographische Daten, Graphen, Dokumente und Spaltendatentypen. Diese werden den NoSQL-Datenbanken zugeordnet. NoSQL-Datenbanken sind besonders für große Datenmengen, die in unstrukturierter Form vorliegen, geeignet. Hierzu zählen beispielsweise spaltenorientierte Datenbanken, die geschaffen sind, um Kennzahlen in Data-Warehouse- bzw. Business-Intelligence-Anwendungen zu aggregieren.

Die eben genannten Datenbanken können entweder von dem Cloud-Anbieter zur Verfügung gestellt oder auf dem eigenen Server gespeichert werden.

Wenn die Daten schon in strukturierter Form vorliegen, kann eine Microsoft SQL-Datenbank verwendet werden. Der Vorteil bei dieser Datenbank ist, dass das gesamte Back-up vom Anbieter heruntergeladen und lokal verwendet werden kann.

Zur Verarbeitung dieser Daten können folgende neue Technologien eingesetzt werden:

MapReduce wurde von Google entwickelt, um Funktionen effizient auf eine extrem große Datenmenge in der Batchverarbeitung anwenden zu können. Hierbei werden Daten sequenziell, automatisch und vollständig verarbeitet. Die „Map" verteilt dabei die Aufgabe auf verschiedene Systeme und verwaltet diese so, dass die Last verteilt wird, und auch im Fall, dass sich Fehler einschleichen, seine Funktion aufrecht erhalten bleibt. Danach wird die „Reduce"-Komponente verwendet, und die Ergebnisse der Einzelknoten zu einem Ergebnis zusammengefasst.

Big Table wurde ebenso von Google entwickelt. Sie steht für ein verteiltes Speichersystem für große Mengen an strukturierten Daten. Diese Daten werden in Tabellen gespeichert. Im Gegenzug zur klassischen, rationalen Datenbank ist Big Table ein dünn besetztes, persistentes und verteiltes, multidimensionales Speicherkonstrukt, das den Zweck erfüllt, große Datenmengen auf viele Server zu verteilen.

Bei Hadoop handelt es sich um ein Software-Framework, das auf Apache (Webserver Software) basiert. Es implementiert das MapReduce und Big Table und verteilt das MapReduce auf große Cluster, die sich aus Standardhardware zusammensetzt. Es dient der Verteilung der Daten auf viele Knoten, in denen schnelle Berechnungen durchführt werden zu können, um Wartezeiten zu verkürzen. Hadoop besteht zum einen aus einem hoch skalierbaren, verteilten Dateisystem, indem mehrere Petabyte Daten gespeichert werden können. Zudem besteht es aus einer stark skalierbaren MapReduce- Engine, welche die benötigten Berechnungen auf eine Menge Knoten verteilen kann.

Die Erkennung von unbekannten Zusammenhängen erfolgt über das Knowledge Discovery in Databases (KDD).

Die Phase Data Mining des KDDs erkennt unbekannte Muster und wendet dafür mathematische Verfahren an. In diesen letzten Schritten des KDD-Vorgehensmodells wird die Modellbildung ausgeführt. Für die Instandhaltung der Fertigungsmaschine werden unterschiedliche Data-Mining- Methoden betrachtet und geprüft, ob diese für diesen konkreten Fall geeignet sind. Zum Beispiel könnte man ein Unsupervised-Anomaly-Detection-Verfahren anwenden, das die Daten durchgehend analysiert und bei einer Verhaltensänderung den Alarm auslöst.

Außerdem besteht die Möglichkeit Ausreißer zu erkennen, indem fehlerhafte Messwerte gefiltert werden. „Edge Analytics" funktioniert als intelligenter Filter, der potenzielle Gefahren umgeht, indem eine Maßnahme eingeleitet wird, wie zum Beispiel das Auslösen eines Alarms oder Ausschalten einer Maschine.

Besonders in der Produktion kommt dies zum Einsatz, um die Qualität der Produkte zu sichern.

Die Sensordaten können mit Streaming-Technologien und Hadoop verarbeitet werden. StreamingTechnologien können speziell die immer schneller generierten Sensordaten verarbeiten und auswerten.

Nachdem die Daten analysiert und verarbeitet wurden, werden Lösungsvorschläge und alternative Handlungsoptionen konzipiert, wie auf Planabweichungen zu reagieren ist.

[...]

Ende der Leseprobe aus 14 Seiten

Details

Titel
Data Analytics und Big Data. Ein Pilotprojekt zur Effizienzsteigerung in der Fertigung
Hochschule
Internationale Fachhochschule Bad Honnef - Bonn
Note
2
Autor
Jahr
2020
Seiten
14
Katalognummer
V998571
ISBN (eBook)
9783346403308
Sprache
Deutsch
Schlagworte
data, analytics, pilotprojekt, effizienzsteigerung, fertigung
Arbeit zitieren
Gianna Griesbaum (Autor), 2020, Data Analytics und Big Data. Ein Pilotprojekt zur Effizienzsteigerung in der Fertigung, München, GRIN Verlag, https://www.grin.com/document/998571

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Data Analytics und Big Data. Ein Pilotprojekt zur Effizienzsteigerung in der Fertigung



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden