Ziel dieser Arbeit ist die Darstellung von Big Data und Prozessmanagement im Unternehmenseinsatz. Zunächst wird in Kapitel 1.1 die Relevanz dieses Themas dargelegt. Innerhalb der theoretischen Grundlagen werden in Kapitel 2.1 zunächst Big Data definiert und deren Merkmale beschrieben. Anschließend wird in Kapitel 2.2 auf die Definition und die Arten der Prozesse eingegangen, gefolgt von einer Betrachtung der Entwicklung in chronologischer Reihenfolge. Die Integration von Big Data und Geschäftsprozessmanagement in einen betrieblichen Zusammenhang wird in Kapitel 2.3 beschrieben unter besonderer Betrachtung der Risiken und Chancen. Kapitel 2.4 zeigt den aktuellen Forschungs-stand, welcher aufgrund des beschränkten Umfanges dieser Arbeit exemplarisch an zwei Konzepten vorgestellt wird. In Kapitel 3 wird anhand eines Beispiels ein konkreter Anwendungskontext erörtert, um Potenziale von Big Data im Geschäftsprozessmanagement im Unternehmenseinsatz aufzuzeigen. Kapitel 4 fasst die Ergebnisse zusammen und reflektiert diese kritisch.
Die fortschreitende Digitalisierung erzeugt eine immer größere Menge an Daten. Gemäß einer Berechnung des Magazins Forbes werden mittlerweile täglich ungefähr 2,5 Trillionen Bytes an digitalen Daten produziert. Jedoch werden von den global zugänglichen Daten lediglich 0,5% analysiert und verwendet. Bereits heute hat Big Data großen Einfluss auf unser tägliches Leben. So kann beim Einkaufen im Internet ein Anbieter einem Kunden zusätzliche Produkte vorschlagen, da der Kunde dem Anbieter durch die regelmäßige Nutzung des Onlineshops seine Vorlieben preisgibt.
Inhaltsverzeichnis
1 Einleitung
1.1 Relevanz des Themas
1.2 Aufbau und Aufgabenstellung
2 Theoretische Grundlagen
2.1 Big Data
2.2 Prozessmanagement
2.2.1 Definition und Arten von Prozessen
2.2.2 Entwicklungen im Prozessmanagement
2.2.2.1 Phase 1: Arbeitszerlegung
2.2.2.2 Phase 2: Aktionsorientierte Datenverarbeitung
2.2.2.3 Phase 3: Prozessorientierung
2.2.2.4 Phase 4: Digitalisierung
2.3 Integration von Big Data in das Geschäftsprozessmanagement
2.3.1 Relevanz von Big Data für das Geschäftsprozessmanagement
2.3.2 Herausforderungen und Möglichkeiten
2.4 Aktueller Forschungsstand
2.4.1 Cloud Computing
2.4.2 Industrie 4.0
3 Anwendungskontext: Predictive Maintenance in Industrieunternehmen
3.1 Traditionelle Wartungsmethoden
3.2 Merkmale und Potenziale von Predictive Maintenance
4 Zusammenfassung und kritische Reflexion
Zielsetzung und Themen der Arbeit
Ziel dieser Arbeit ist die Untersuchung des Einflusses von Big Data und modernem Prozessmanagement auf den Unternehmenseinsatz, wobei insbesondere die Potenziale zur Effizienzsteigerung durch digitale Konzepte beleuchtet werden. Die Forschungsfrage fokussiert dabei auf die strategische Integration von Datenanalysen in Geschäftsprozesse.
- Theoretische Grundlagen von Big Data und Prozessmanagement
- Entwicklung und Phasen des Prozessmanagements im Zeitverlauf
- Wechselwirkungen zwischen Big Data und Geschäftsprozessen
- Aktueller Forschungsstand zu Cloud Computing und Industrie 4.0
- Anwendungsbeispiel Predictive Maintenance zur Prozessoptimierung
Auszug aus dem Buch
2.3.2 Herausforderungen und Möglichkeiten
Die Risiken, die mit dem Thema Big Data und deren Auswirkungen auf Geschäftsprozesse einhergehen, sind vielschichtig. Dennoch ist es zwingend notwendig, dass Big Data im Prozessmanagement berücksichtigt wird, denn „Die größten Risiken bei Big Data beinhaltet wohl die Unterlassung, also das schlichte Ausblenden des Themas ohne konkrete Auseinandersetzung.“ Sich den Herausforderungen zu stellen und Lösungen zu suchen, ist der Schlüssel zum Erfolg von Big Data.
Als Kategorien von Barrieren zu nennen sind Daten, Ethik, Gesellschaft/Kultur, Organisation, Rechtslage und Technologie. Jede einzelne Kategorie wiederum beinhaltet zahlreiche Aspekte. Bei den Daten beispielsweise sind Punkte wie Qualität und Sinnhaftigkeit zu hinterfragen und sicherzustellen. Rechtlich muss den Themen Datenschutz und Datenrechte Rechnung getragen werden. Im Bereich Technologie muss in Hard- und Software inklusive dem entsprechenden Know-How-Aufbau investiert werden. Sowohl die Datenspeicherung als auch die Datenaufbereitung sind betroffen. Sind diese Herausforderungen überwunden, so bestehen noch weitere Risiken, denn „Insbesondere besteht ohne die tiefgreifenden Kenntnisse mathematisch-statistischer Zusammenhänge und Effekte die Gefahr von Scheinkorrelationen, Fehlinterpretationen und Fehlentscheidungen.“
Den Herausforderungen gegenüber steht der erzielbare Nutzen. Große Schlagworte werden eingesetzt, um die Chancen von Big Data und damit verbesserter Möglichkeiten und neuer Geschäftsprozesse zu beschreiben.
Zusammenfassung der Kapitel
1 Einleitung: Die Einleitung beleuchtet die Relevanz von Big Data in einer zunehmend digitalisierten Welt und beschreibt den methodischen Aufbau der Arbeit.
2 Theoretische Grundlagen: Dieses Kapitel definiert die zentralen Konzepte Big Data und Prozessmanagement, analysiert deren historische Entwicklung und diskutiert die Herausforderungen bei ihrer Integration.
3 Anwendungskontext: Predictive Maintenance in Industrieunternehmen: Hier wird anhand der vorausschauenden Wartung aufgezeigt, wie datengetriebene Prozesse in der Praxis zur Effizienzsteigerung und Kostenreduktion beitragen.
4 Zusammenfassung und kritische Reflexion: Das abschließende Kapitel resümiert die Potenziale von Big Data und unterstreicht die Notwendigkeit einer bewussten Auseinandersetzung mit den damit verbundenen Risiken für eine zukunftsfähige Unternehmensstrategie.
Schlüsselwörter
Big Data, Prozessmanagement, Digitalisierung, Predictive Maintenance, Industrie 4.0, Cloud Computing, Prozessoptimierung, Wertschöpfung, Datenanalyse, Unternehmenseinsatz, Datensicherheit, Workflowmanagement, Geschäftsprozessmanagement, Effizienzsteigerung, Sensortechnik.
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit behandelt die Integration von Big Data in das Prozessmanagement und untersucht, wie Unternehmen diese Technologien zur Optimierung ihrer Geschäftsprozesse nutzen können.
Welche zentralen Themenfelder werden bearbeitet?
Die zentralen Schwerpunkte liegen auf den theoretischen Grundlagen von Big Data und Prozessmanagement, deren historischer Entwicklung sowie aktuellen technologischen Trends wie Cloud Computing und Industrie 4.0.
Was ist das primäre Ziel der Untersuchung?
Das Ziel ist es, das Potenzial von Big Data im Unternehmenseinsatz aufzuzeigen und die Wechselwirkung zwischen Datenverfügbarkeit und Prozessgestaltung herauszuarbeiten.
Welche wissenschaftliche Methode kommt zum Einsatz?
Die Arbeit basiert auf einer Literaturanalyse, die theoretische Konzepte strukturiert darstellt und diese anhand eines konkreten Praxisbeispiels (Predictive Maintenance) veranschaulicht.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil gliedert sich in die theoretische Herleitung der Konzepte, die Diskussion von Chancen und Risiken bei der Datenintegration sowie die praktische Analyse industrieller Wartungsmethoden.
Welche Schlüsselbegriffe charakterisieren die Publikation?
Besonders prägend für die Arbeit sind Begriffe wie Big Data, Prozessmanagement, Digitalisierung, Predictive Maintenance und Industrie 4.0.
Wie unterscheidet sich Predictive Maintenance von traditionellen Wartungsmethoden?
Während traditionelle Ansätze starr auf festgelegten Intervallen basieren, ermöglicht Predictive Maintenance eine bedarfsorientierte Wartung durch die Echtzeitanalyse großer Datenmengen, was unnötige Ausfallzeiten reduziert.
Welche Rolle spielt der Datenschutz laut Autor?
Der Autor identifiziert Datenschutz und Datenrechte als essenzielle Herausforderungen, deren Nichtbeachtung ein erhebliches Risiko für den Unternehmenserfolg darstellen kann.
- Quote paper
- Marcel Köpfer (Author), 2021, Big Data und Prozessmanagement im Unternehmenseinsatz unter Berücksichtigung des aktuellen Forschungsstands, Munich, GRIN Verlag, https://www.grin.com/document/1021595