Predictive Analytics im Controlling

Eine Analyse des Einsatzpotentials im Rahmen von operativen Planungsprozessen


Bachelorarbeit, 2020

51 Seiten, Note: 2,7


Leseprobe

Inhaltsverzeichnis

I. Abbildungsverzeichnis

1 Problemstellung

2 Predictive Analytics
2.1 Einführung in Predictive Analytics
2.2 Einflussgröße: Big Data
2.3 Data Mining
2.4 Machine Learning

3 Predictive Analytics im Planungsprozess
3.1 Planung als Bestandteil des Controllings
3.2 Operative Planungsprozesse des Controllings
3.3 Berührungspunkte im Planungsprozess
3.4 Praxisorientierte Implementierungsansätze von Predictive Analytics
3.5 Nutzungspotentiale und Herausforderungen von Predictive Analytics

4 Fazit

5 Literaturverzeichnis

I. Abbildungsverzeichnis

Abb.1: Hype Cycle for Analytics and Business Intelligence 2019

Abb.2: Technologien und deren Auswirkungen auf das Controlling

Abb.3: Einordnung Advanced Analytics

Abb.4: Analysekategorien: Zugehörigkeit nach Machine Learning Art

Abb.5: Algorithmen: Zugehörigkeit nach Machine Learning Art

Abb.6: Künstliches, neuronales Netz

Abb.7: Funktionen einer Planung

Abb.8: Planungsprozess nach Behringer

Abb.9: Planungsprozess nach Mäder

1 Problemstellung

Durch den technologischen Fortschritt und der voranschreitenden Digitalisierung stehen Unternehmen, Geschäftsmodelle und traditionelle Prozesse vor einem grundsätzlichen Wandel und einer Neuausrichtung. Dieser Wandel wird maßgeblich durch innovative, disruptive Technologien gefördert sowie beschleunigt. Das bekannte Marktforschungsunternehmen Gartner spezialisiert sich auf die Erforschung von Trends und Entwicklung innerhalb der Innformationstechnik und bündelt neue Technologien in dem sogenannten Hype Cycle nach Gartner1, welcher folglich dargestellt ist.

Abbildung in dieser Leseprobe nicht enthalten

Hype Cycle for Analytics and Business Intelligence 2019 Abb. 1: Gartner Inc. (2019): o.S.

Dieser Zyklus setzt innovative Technologien in Relation zu entsprechenden Erwartungen und erwarteter Einführungsdauer. Die Phasen reichen von der Einführung der Technologie über den Höhepunkt sowie den Tiefpunkt der Erwartungen bis hin zur allgemeinen Akzeptanz des Technologieeinsatzes. Eine Studie des Beratungsunternehmens Pierre Audoin Consultants verweist hierbei auf eine vielversprechende Technologie, die sich als eine zukünftige Schlüsseltechnologie in Unternehmen positionieren kann. Die Rede ist von Predictive Analytics.2 Anhand des Hype Cycles wird deutlich, dass Predictive Analytics sich in der Phase „Slope of Enlightenment“ positioniert. Dies bedeutet, dass der Einsatz von Predictive Analytics keine Neuheit mehr in der Praxis darstellt und zunehmend vom Marktumfeld adaptiert wird.3 Predictive Analytics findet bereits in unterschiedlichen Ausprägungen in Unternehmen ihren Einsatz, beispielsweise in Form von Predictive Quality oder Predictive Maintenance in Produktionsbereichen.4 Nichtsdestotrotz ist das Potential von Predictive Analytics bei weitem nicht ausgeschöpft und in diversen Unternehmensbereichen wenig behandelt. Einer dieser Bereiche ist das Controlling. Im Rahmen einer empirischen Erhebung von Ulrich und Stier aus dem Controller Magazin, bestehend aus 200 Teilnehmer inklusive Führungskräfte, Experten und Chief Financial Officers, wird die Bedeutung von Predictive Analytics sowie anderer Technologien und deren Auswirkung auf das Controlling konkretisiert (Abb. 2).

Abbildung in dieser Leseprobe nicht enthalten

Technologien und deren Auswirkungen auf das Controlling Abb. 2: Ulrich u. Stier. In: Controller Magazin (2020): S. 12

Das Controlling ist eine breitgefächerte Unternehmensfunktion und verfügt über ein breit diversifiziertes Aufgabenportfolio, welches sich vom Berichtswesen, Ergebnisrechnungen, Analysetätigkeiten bis zur Planung erstreckt. Ulrich und Stier führen innerhalb ihrer empirischen Erhebung eine weitere Erkenntnis hervor, dass diverse Aufgabenbereiche durch den Technologieeinsatz an Bedeutung verlieren, insbesondere einfache, wiederkehrende Aufgabenbereiche. Hingegen steigt die Relevanz von planerischen oder analytischen Aufgabenbereichen.5 Deshalb empfiehlt es sich den Fokus von Predictive Analytics auf die letztgenannten Bereiche zu legen. Hierbei eignet sich besonders die Planung als Anwendungsfeld für Predictive Analytics, denn diese positioniert sich als ein wichtiges Steuerungsinstrument für das Controlling.6 Des Weiteren beinhaltet die Planung eine gewisse Anzahl an Problemfeldern, wie dessen Inflexibilität oder mangelnde Planungsqualität, die sich als Anwendungsfelder eignen. Die Problemfelder verkörpern daher gleichzeitig Ansatzpunkte für Predictive Analytics, um eine Verbesserung zu erzeugen.7 Das Marktforschungsunternehmen BARC bekräftigt zudem, dass die Relevanz einer prädiktiven Planung für viele Unternehmen steigen wird und dessen Einsatz großes Einsatzpotential verspricht.8

Diese Erkenntnisse verleiten zu der Themenstellung dieser Abschlussarbeit. Die Zielsetzung ist es Berührungspunkte und Einsatzmöglichkeiten von Predictive Analytics anhand operativer Planungsprozesse zu analysieren. Dazu erfolgt in Kapitel 2 der Einstieg in die Themenwelt von Predictive Analytics, welche Data Mining, Machine Learning oder auch Big Data umfasst. Kapitel 3 beschäftigt sich mit der Beschreibung der originären Planung sowie der Vorstellung von drei, controllingseitigen und operativen Planungsprozessen. Diese Prozesse werden in Verbindung mit Predictive Analytics gesetzt und analysiert. Das Bilden von Implementierungsansätzen und Ableiten von Potentialen sowie Herausforderungen von Predictive Analytics runden schließlich dieses Kapitel ab. Abschließend werden innerhalb des Fazits die behandelten Thematiken beidseitig reflektiert und die Erkenntnisse evaluiert.

2 Predictive Analytics

Wie in der Problemstellung beschrieben, wird sich dieses Kapitel mit der thematischen Auseinandersetzung rund um die Themenwelt von Predictive Analytics befassen. Trotz der hohen Komplexität von Predictive Analytics wird ein Themeneinstieg geschaffen, der die grundlegenden Aspekte abdeckt. Zunächst wird mit einer Einordnung von Predictive Analytics in Advanced Analytics eingeführt bis im nächsten Schritt eine bedeutsame Einflussgröße von Predictive Analytics, die Rede ist von Big Data, und dessen Relevanz thematisiert wird. Hiernach wird der Fokus auf die beiden zentralen Bestandteile, Data Mining und Machine Learning, gelegt, indem Grundlagen und Analysekategorien erläutert werden. Die Vorstellung von algorithmischen Methoden aus dem Machine Learning vollendet den Einstieg in das Themengebiet von Predictive Analytics.

2.1 Einführung in Predictive Analytics

Im Zeitalter der Digitalisierung ist die Transformation von analogen Objekten oder Prozessen in digitale Formate sowohl in Unternehmen als auch in der Gesellschaft stets präsent. Oftmals wird im Kontext der Digitalisierung auch von Industrie 4.0 gesprochen. Unter diesem Begriff versteht sich grundsätzlich die intelligente Konnektivität von Maschinen und Prozessen mit der Unterstützung von innovativen Informations- und Kommunikationstechnologien. Diese Vernetzung generiert wesentliche Vorteile, um u.a. Produktionsabläufe zu optimieren oder Produkte mittels Datenanalysen zu verbessern.9 Des Weiteren kennzeichnen weitere Komponenten die Charakteristik der Industrie 4.0. Das Internet der Dinge und Dienste, Big Data, cyberphysische Systeme, Smart Factory, Wertschöpfungsnetzwerke und individualisierte Produkte umfassen einige Inhalte, die im Zusammenhang mit Industrie 4.0 stehen.10 Besonders die Komponente Big Data, welche in Kapitel 2.2 näher betrachtet wird, kristallisiert sich hier als ein bedeutendes Themenfeld heraus. Infolge der wachsenden Datenmengen steigt die Bedeutung von Datenanalysen an, weil diese wesentliche Nutzungspotentiale generieren können. An dieser Stelle kann mithilfe von Predictive Analytics ein Ansatzpunkt bestimmt werden. Predictive Analytics ist eine Technologie, die in vielen Bereichen bisher nicht vollständig ausgeschöpft ist und in anderen Bereichen bereits Anwendung findet. Wie in der Problemstellung erwähnt, findet Predictive Analytics bereits in Produktionen unter dem Ausdruck „Predictive Maintenance“ Anwendung. Dabei werden Sensordaten ausgewertet, um den aktuellen Ist-Zustand einer Maschine zu bestimmen und zukünftig fortzuschreiben. Anhand dessen werden Störungen (z.B. Verschleiß oder Wartungen) im gewöhnlichen Betriebsablauf frühzeitig identifiziert und es können entsprechende Gegensteuermaßnahmen eingeleitet werden, um schließlich Produktionsausfälle zu vermeiden.11 In dem Sinne lässt sich Predictive Analytics wie folgt definieren:

"Predictive Analytics macht sich statistische Methoden und Anwendungen der Künstlichen Intelligenz zunutze, um darauf aufbauend zukünftige Ereignisse abzuleiten und deren Ursachen zu analysieren. Insbesondere bei der Analyse von großen Datenmengen sind diese Methoden von Relevanz. Sie können Strukturen und Muster in Daten identifizieren, die für Menschen regelmäßig verborgen bleiben."12

Nach Schlatter et al. liegt der grundsätzliche Fokus bei Predictive Analytics große Datenmengen auszuwerten und dabei Erkenntnisse zum Vorschein zu bringen, welche zunächst unbekannt waren. Ebenfalls ist erkennbar, dass sich Predictive Analytics in zwei Bereiche einteilt, welche Data Mining und die Künstliche Intelligenz respektive Machine Learning einschließen. Diese Bereiche werden in den folgenden Kapiteln erneut thematisiert. Gartner führt anschließend eine weitere Definition von Predictive Analytics auf:

“Predictive Analytics is a form of advanced analytics which examines data or content to answer the question “What is going to happen?” or more precisely, “What is likely to happen?”, and is characterized by techniques such as regression analysis, forecasting, multivariate statistics, pattern matching, predictive modeling, and forecasting.”13

Anhand der Auffassung nach Gartner ist Predictive Analytics ein Teilgebiet von Advanced Analytics und beschäftigt sich mit der grundlegenden Frage „Was wird geschehen?“. Advanced Analytics teilt sich hierbei in mehrere Schichten ein, welche anhand Abb. 3 ersichtlich sind.

Abbildung in dieser Leseprobe nicht enthalten

Einordnung Advanced Analytics Abb. 3: eigene Darstellung

Die erste Schicht beinhaltet Descriptive Analytics. Descriptive Analytics beschäftigt sich mit der Frage „Was ist geschehen?“ und setzt den Fokus auf die Ist-Analyse von Vergangenheitsdaten. Diese wird ebenfalls mit Business Intelligence in Verbindung gesetzt, welches im Anschluss beschrieben wird. Als letzte Schicht folgt nach Predictive Analytics Prescriptive Analytics. Unter Prescriptive Analytics wird die Frage aufgeworfen „Was können wir tun, damit Szenario X eintritt?“. Dabei verläuft die Tendenz bereits dahin Handlungsempfehlungen abzuleiten und somit einen Schritt weiter als die Erstellung von Vorhersagen oder Wahrscheinlichkeiten zu gehen.14 Diese drei Analytics Formen bilden somit Advanced Analytics. Wie zuvor angedeutet steht der Begriff um Business Intelligence im Kontext von Predictive Analytics. Müller und Lenz definieren hierzu was unter diesem Begriff zu verstehen ist:

„Business Intelligence – kurz BI – wird so umschrieben, dass hierunter alle Aktivitäten in einer Unternehmung zusammengefasst werden, die der Integration, der qualitativen Verbesserung, der Transformation und der statistischen Analyse der operativen und externen Daten mit dem Ziel dienen, Informationen und letztendlich Wissen innerhalb eines vorgegebenen Planungs-, Entscheidungs- und Controllingrahmens zu generieren.“15

Diese abstrakte Definierung nach Müller und Lenz vernachlässigt jedoch, dass es sich hierbei um einen vergangenheitsorientierten Ansatz handelt, welcher Ist-Datenzustände abbildet. Predictive Analytics kann hierbei eine ergänzende Wirkung leisten. Durch die Nutzung von Predictive Analytics kann das Anwendungsgebiet von Business Intelligence durch den prädiktiven Charakter ergänzt und effektiver werden.16 Daraus resultiert, dass der Unterschied zwischen Business Intelligence und Predictive Analytics in ihrer historischen bzw. zukunftsgerichteten Ausrichtung sowie in der reinen Ist- bzw. Wird-Betrachtung liegt.

Um die Einführung von Predictive Analytics abzuschließen, wird nun noch auf die Aufgabenbereiche von Predictive Analytics verwiesen. Bereits in der Definition von Predictive Analytics wurden einzelne Bereiche angedeutet. Iffert ergänzt dazu weiterführend. Predictive Analytics teilt sich in fünf verschiedene Aufgabenbereiche ein. Diese umfassen die Segmentierung, die Identifikation von Assoziationen, die Klassifikation, die Regressionsanalyse und die Erstellung von Prognosen.17 Da große Ähnlichkeiten zwischen den hier beschriebenen Aufgabenbereichen und den Aufgabenbereichen sowie den Analysekategorien des Data Minings existieren, werden diese später erneut aufgegriffen und spezifiziert.

Mit der Beschreibung der Aufgabenbereiche endet dieses Kapitel. Hier wurde deutlich, dass Predictive Analytics neben anderen Analytics Formen als Teilgebiet von Advanced Analytics fungiert. Wie zu Beginn bereits angesprochen, geht die Präsenz solcher Analyseformen mit steigenden Datenmengen einher. Hierbei steht „Big Data“ für einen Sammelbegriff steigender Datenmengen. Aus diesem Grund wird diese Thematik und auch die Ressource „Daten“ im Folgenden aufgegriffen, um dessen Relevanz und Bedeutung hervorzuheben und zu spezifizieren.

2.2 Einflussgröße: Big Data

Wie im vorherigen Kapitel erwähnt, nimmt Big Data eine wichtige Rolle in der Themenwelt derartiger Analysen ein. Mit stetig wachsenden Datenmengen und dem technologischen Fortschritt der Auswertungsmethoden wächst Big Data als eine wichtige Einflussgröße von Predictive Analytics heran.18 Daten sind der wichtigste Rohstoff für Predictive Analytics-Anwendungen, denn ohne dessen ausreichendem Vorhandensein verlieren die Ergebnisse an Aussagekraft. Unter dem Begriff Big Data wird grundsätzlich die Menge an Massendaten verstanden, die bei der Benutzung von digitalen Technologien erzeugt wird und sich durch traditionelle Auswertungsmethoden kaum mehr verarbeiten lässt. Spezifizierter handelt es sich hierbei um eine strukturierte Speicherung von kontextabhängigen Inhalten, welche zu unterschiedlichen Zeitpunkten generiert und in diversen, inkompatiblen Datenformaten erhoben werden.19 Weiterhin charakterisiert das amerikanische Unternehmen IBM Big Data nach vier Eigenschaften, den sogenannten „The Four V’s of Big Data“. Demnach teilt sich Big Data in Variety, Velocity, Veracity und Volume ein.20 Variety steht für die Vielfalt der Datentypen und Formate, die verarbeitet werden. Velocity bezieht sich hingegen auf die Aktualität und Geschwindigkeit, mit welcher die Daten erzeugt werden. Veracity verweist auf die Herkunft der Daten bzw. auf die Datenquellen und prüft die Validität der Daten. Schließlich steht Volume für das hohe Datenvolumen, welches im Verlauf der Datenerhebung entsteht.21 Anhand der Eigenschaften von Big Data wird erst dessen Vielfalt deutlich. Auf der einen Seite steht der Umgang mit Big Data einer Vielzahl an verschiedenen Datenformaten und einem hohem Aktualitätsgrad der Daten gegenüber. Auf der anderen Seiten steht es einem hohen Datenvolumen sowie einer zu prüfenden Validität der Daten gegenüber. Daher stellt das Datenmanagement eine essenzielle Aufgabe dar. Die Zuordnung dieses Aufgabenbereiches ist heutzutage in Diskussion. Einerseits soll aus der Controlling-Perspektive die Hoheit über das Management der finanziellen und nicht-finanziellen Roh- und Stammdaten in der Obhut des Controllings liegen. Andererseits wächst das Interesse an Data Science Centern, in welchen Mathematiker, Physiker und Informatiker an der Verarbeitung von Daten arbeiten und somit einen großen Anteil der Daten zentral bündeln.22 Diese Experten können auch als Data Scientist beschrieben werden. Ein Data Scientist nutzt statistische Anwendungen, Methoden aus dem maschinellen Lernen oder der explorativen Datenanalyse, um Daten in wertvolle Informationen zu transformieren.23 Zwar bietet die Auseinandersetzung zwischen dem Controlling und dem Data Scientist viel Diskussionsbedarf, jedoch wird dies hier aufgrund dessen Komplexität nicht weiterverfolgt.

Wie dem auch sei stehen dem Datenmanagement eine Vielzahl an Aufgaben gegenüber. Zum einen besteht die Aufgabe darin die heterogenen, gesammelten Daten aus den verschiedenen internen und externen Datenquellen zu konsolidieren. Zum anderen spielt eine sichere, effektive und ökonomische Datenhaltung eine sehr wichtige Rolle im Aufgabenspektrum des Datenmanagements. Des Weiteren ist das Datenmanagement auch für die Bereitstellung von Schnittstellen zur Analyse und Weiterverarbeitung der Daten verantwortlich, damit diese in nachgelagerte Prozesse integriert werden können.24 Nichtsdestotrotz hat das Datenmanagement auch mit Herausforderungen zu kämpfen, welche mit einer steigenden Datenmenge einhergehen. Das Datenmanagement wird nicht nur durch die Bereitstellung von granularen, fehlerfreien Roh- und Stammdaten gefordert, sondern auch durch die Prüfung der Konsistenz und Kompatibilität der verschiedenen Daten- und Analysemodellen. Letzteres lässt sich dabei am ehesten dem Controlling zuordnen.25 Besonders die Sicherstellung der richtigen Datenqualität bleibt unerlässlich für eine erfolgreiche Anwendung von Datenanalysen wie Predictive Analytics. Dabei lässt sich die Datenqualität nach ihrer Vollständigkeit, Richtigkeit, Aktualität, Zuverlässigkeit und Eindeutigkeit messen. Beispielsweise werden Daten aus heterogenen Datenquellen bezogen und dabei ist es von großer Bedeutung die Zuverlässigkeit der Datenquellen zu quantifizieren, um Erkenntnisse über die Richtigkeit der Daten zu erlangen. Die Anwendung von statistischen Algorithmen kann die Qualitätskontrolle verstärken, indem durch den Einsatz von Expertenwissen Trainingsgrundlagen oder Initialisierungshilfen gebildet werden.26 Sofern ein Qualitätsstandard der Daten nicht erreicht wird, so weniger qualitativ sind schließlich auch die Ergebnisse. Daher eignet sich der „Garbage-in, Garbage-out“- Ansatz, welcher grundsätzlich auf die Nicht-Speicherung bzw. Aussortierung von unrelevanten Daten abzielt, als eine gute Vorgehensweise den Überblick zu bewahren und einen notwendigen Qualitätsstandard zu sichern.27 Folglich kann festgehalten werden, dass bei der Diskussion über Big Data bzgl. der Datenmengen der Besitz von großen Datenmengen nicht gleich für eine höhere Ergebnisqualität steht, sondern, dass die Qualität der Daten im Vordergrund steht. Weniger Daten können daher auch einen größeren Nutzen stiften, um einer hohen Datenqualität gerecht zu werden und eine angemessene Ergebnisqualität zu sichern.

Durch dieses Kapitel ist deutlich geworden wie sehr Big Data Einfluss auf Predictive Analytics nimmt und wie Daten als wesentlicher Rohstoff fungieren. Besonders die Datenqualität erfordert eine genauere Betrachtung. Dabei kann Big Data sogar ein zweischneidiges Schwert darstellen. Einerseits ist eine Mindestmenge an Daten notwendig, um Analysen durchführen zu können, andererseits kann eine zu hohe Datenmenge die Ergebnisqualität negativ beeinflussen. Daher ist eine Diskussion über Daten stets präsent. Im weiteren Verlauf dieser Arbeit wird nun der Fokus auf die beiden wesentlichen Bestandteile von Predictive Analytics gelegt: Data Mining und Machine Learning.

2.3 Data Mining

Dieses Kapitel behandelt die Themenwelt von Data Mining und stellt wesentliche Grundlagen vor. Zunächst werden Grundbegriffe vorgestellt sowie einzelne Aufgabenbereiche beschrieben. Schließlich endet dieses Kapitel damit, dass konkrete Analysekategorien des Data Minings präsentiert werden.

"Data Mining befasst sich mit der Analyse von Massendaten. Das Ziel des Data Minings ist es aus Massendaten - wie beispielsweise Kunden- oder Unternehmensdaten, Unternehmenskennzahlen und Prozessdaten - nützliches Wissen zu extrahieren [..].“28

So lässt sich zunächst die Zielsetzung von Data Mining festhalten. Weiterhin versucht Data Mining in einem Suchprozess Korrelationen, Muster und Trends aus vorhandenen, gespeicherten Massendaten zu gewinnen und nutzt dazu Techniken aus der Mathematik, der Statistik und der Mustererkennung.29 Oftmals wird Data Mining mit dem Begriff „Knowledge Discovery“ gleichgesetzt, jedoch unterscheiden sich diese. Knowledge Discovery befasst sich im Gegensatz zum Data Mining mit einem Suchprozess von potentiell nützlichen Informationen anhand einer ausgewählten Datenmenge. Darüber hinaus umfasst es alle möglichen Datentypen und involviert hingegen keine analytische Modellierung, welche u.a. das Data Mining nutzt.30 Daher wird das Knowledge Discovery auch als ein ergänzendes Feld von Data Mining betrachtet.

Des Weiteren beruht Data Mining auf Annahmen, um eine effektive Nutzung zu gewährleisten. Einerseits muss eine ausreichende, repräsentative Anzahl an Daten verfügbar sein, um den eigentlichen Suchprozess zu ermöglichen. Andererseits muss die Datengültigkeit nicht nur auf die Vergangenheit anwendbar, sondern auch auf die Gegenwart und Zukunft übertragbar sein. Außerdem müssen die zu extrahierenden Informationen in den Daten überhaupt vorhanden sein. Als letzte Annahme wird vorausgesetzt, dass die vorhandenen Daten keinen rechtlichen Restriktionen unterliegen und somit nicht gegen Datenschutzrichtlinien o.ä. verstoßen.31 In der Praxis gelten diese als fixe Annahmen für Data Mining-Projekte. Darüber hinaus sind während einem Data Mining-Projekt drei wesentliche Stakeholder mit diesen Voraussetzungen konfrontiert. Zunächst setzen sich vor allem die Datenanalysten sowie IT-Spezialisten mit dieser Thematik auseinander. Die Datenanalysten entwickeln die notwendigen Modelle und die IT-Spezialisten sind für die Bereitstellung einer angemessen IT-Infrastruktur sowie der Versorgung mit Daten verantwortlich. Als letzte Interessensgruppe reiht sich die Geschäftsperson ein. Diese versorgt die anderen Stakeholder mit dem notwendigen Problemverständnis, liefert weitere, kontextabhängige Geschäftsinformationen und antizipiert das gewünschte Zielresultat.32 Bei der Geschäftsperson kann es sich hierbei um das Controlling handeln, da diese in dieser Konstellation eines Data Mining-Projektes auch die Koordinationsaufgabe übernehmen würden und das Projekt mit Informationen versorgen.

Um die Grundlagen des Data Minings abzuschließen, werden nun noch die Aufgabenbereiche und anschließend die Analysekategorien betrachtet. Müller und Lenz listen dazu folgende Aufgabenfelder auf:

Segmentierung: Bildung von Clustern, welche innerlich homogen und äußerlich möglichst unähnlich zu anderen Clustern sind. Beispiel: Kundengruppen nach Einkommen.

Abweichungsanalyse: Suche nach Datensätzen, die sich vom Gesamtdatensatz stark differenzieren. Beispiel: Identifikation von betrügerischem Kreditkartengebrauch.

Klassifikation: Durch das Bilden von klassenbezogenen Trainingsdaten soll ein Klassifikationsmodell erlernt werden, um dies schließlich auf neue Objekte ohne Klassenzugehörigkeit bzw. Testdaten anzuwenden. Beispiel: Die SPAM-Markierung von E-Mails.

Prognose: Vorhersage von Werten eines numerischen Attributs aufgrund historischer Werte. Beispiel: Prognose des monatlichen Absatzes von Autos im nächsten Quartal.

Assoziationsanalyse: Identifikation von Assoziationsregeln nach Musterverhalten. Beispiel: Warenkorbanalyse. Wenn Produkt A und B gekauft werden, wird auch C gekauft.

Sequenzanalyse: Ähnlichkeit zur Assoziationsanalyse, da üblich Sequenzmuster gesucht werden. Beispiel: Web-Marketing. Welche Klick-Pfade werden am häufigsten benutzt?33

Die Analysekategorien fallen als nächster Aspekt an. Diese bilden das Instrumentarium des Data Minings und ermöglichen das Anwenden von unterschiedlichen Methoden zur Analyse großer Datenmengen. Diese ähneln sehr stark den Aufgabenbereichen von Predictive Analytics und beinhalten deckungsgleiche Aspekte. Grundsätzlich werden die Kategorien in Klassifikation, numerische Vorhersage, Clustering, Assoziationsanalyse, Text Mining und Web Mining unterteilt. Die Klassifikation versucht, wie bereits angedeutet, Objekte mit verschiedenen Attributen vorher festgelegten Klassen zu zuordnen. Diese wird beispielsweise im Rahmen der Bewertung der Kreditwürdigkeit eines Kunden angesetzt. Dabei wird auf Grundlage der historischen Daten über das Rückzahlungsverhalten früherer Kredite ein Klassifikator ermittelt, welcher Kunden in eine Klasse einteilt.34 Der Klassifikation werden unter anderem der K-Nearest-Neighbour-Algorithmus, Decision Trees, der Naive-Bayes-Algorithmus oder Support Vector Machines als algorithmisches Verfahren zugeordnet.35 Als nächste Kategorie reiht sich die numerische Vorhersage, oder auch Regressionsanalyse genannt, ein. Die numerische Vorhersage zielt darauf ab einen beliebigen numerischen Wert zu prognostizieren. Die Vorhersage erfolgt in der Regel durch eine Annäherung einer Funktion mithilfe von Beispielen. Die zukünftigen Werte der Datensätze werden aufgrund von Trainingsdaten, wie bisherige Datensätze und zugehöriger Funktionswerte, berechnet. Dadurch lässt sich eine Funktion bestimmen, die den tatsächlichen Verlauf der Daten approximiert. Praxisbeispiele der numerischen Vorhersage können die Temperaturprognosen oder die Vorhersage von Aktienkursen sein. Dieser Kategorie lassen sich die lineare Regression, Regressionsbäume, neuronale Netze oder auch der K-Nearest-Neighbour-Algorithmus zuordnen.36 Die Klassifikation und die numerische Vorhersage unterscheiden sich grundsätzlich darin, dass die Klassifikation vorhersagt, ob etwas der Fall ist, und die Regressionsanalyse im Gegensatz prognostiziert, in welchem Ausmaß dies eintritt.37 Das Clustering gliedert sich als nächste Analysekategorie ein und handelt davon, dass Objekte gemäß ihrer Ähnlichkeit oder Vergleichbarkeit in verschiedene Cluster eingeteilt werden. Dies wird mit einem Distanz- oder Ähnlichkeitsmaß bestimmt. Darüber hinaus versucht das Clustering auf eine Menge an Objekten, ohne vorhandene Systematik, eine Struktur zu legen und kann dabei die Objekte in umfangreichere Kategorien als „gut“ oder „schlecht“ einteilen. Clusteringalgorithmen, wie u.a. der K-Means-Algorithmus, kommen beispielsweise bei der Kundensegmentierung zum Einsatz und können die Kundenwertigkeit von Unternehmen vorhersagen. Die Assoziationsanalyse bildet anhand einer Datenmenge Regeln, welche die Abhängigkeiten gemeinsamer Sachverhalte oder Elemente beschreibt und auf andere Ereignisse anwendbar ist. Diese Analyse nutzt diverse statistische Filterkriterien, um die Menge der möglichen Assoziationsregeln in einer signifikanten Menge einzugrenzen. Als typisches Beispiel reiht sich die Warenkorbanalyse ein, bei welcher die Einkäufe bei einem Onlinehändler analysiert und daraufhin eine Kaufempfehlung für Produkte ausgeschrieben werden, die auf dem Kaufverhalten historischer Einkäufe beruhen.38 Als algorithmisches Mittel lässt sich beispielhaft das A-Priori-Verfahren auflisten.39 Text Mining folgt nun als vorletzte Kategorie des Analysespektrums und zielt darauf ab unstrukturierte Textdokumente zu analysieren. Diese Analyse kann einerseits durch eine Klassifizierung eines Dokuments nach ausgewählten Begriffen erfolgen oder andererseits durch eine Quantifizierung der Ähnlichkeiten der Dokumente. An letzter Stellen reiht sich das Web Mining ein. Web Mining ist sowohl eine Anwendung des Data Minings als auch des Text Minings, welche das Internet als Datenquelle heranzieht, um Muster zu erkennen. Dieses teilt sich dabei in Web Content Mining und Web Usage Mining ein. Auf der einen Seite behandelt das Web Content Mining die Analyse von vorhandenen Daten wie textuelle und multimediale Informationen sowie Verbindungen zu anderen Webseiten, die im World Wide Web vorhanden sind. Auf der anderen Seite behandelt Web Usage Mining die Analyse des Verhaltens von Internet-Nutzern, wobei Data Mining Methoden auf die Protokolldaten eines Web-Servers angewandt werden und dabei Rückschlüsse sowie Verhaltensmuster der Online-Kunden identifizieren.40

[...]


1 Vgl. Gartner Inc. (2019): o.S.

2 Vgl. Schalla et al. (2014): S. 4ff.

3 Vgl. Gartner Inc. (2020b): o.S.

4 Vgl. Ayaz (2017): S. 254f.

5 Vgl. Ulrich u. Stier (2020): S. 13.

6 Vgl. Schäffer u. Weber (2016b): o.S.

7 Vgl. Fuchs u. Wyszogrodzki (2015): S. 17.

8 Vgl. Tischler et al. (2018): S. 4.

9 Vgl. Bundesministerium für Wirtschaft und Energie et al. (2019): o.S.

10 Vgl. Steven (2019): S. 16.

11 Vgl. Huber u. Oppermann (2017): S. 222.

12 Schlatter et al. (2020): S. 58.

13 Gartner Inc. (2020a): o.S.

14 Vgl. Gartner Inc. (2020a): o.S.

15 Müller u. Lenz (2013): S. 3.

16 Vgl. Iffert (2016): S. 17.

17 Vgl. Iffert (2016): S. 17.

18 Vgl. Doerfner u. Kläsener (2018): S. 177.

19 Vgl. Steven (2019): S. 73.

20 Vgl. IBM Inc. (2018): o.S.

21 Vgl. Huber (2016): S. 55.

22 Vgl. Schäffer u. Weber (2016a): S. 9f.

23 Vgl. Huber u. Oppermann (2017): S. 228.

24 Vgl. Villa (2016): S. 357.

25 Vgl. Schäffer u. Weber (2016a): S. 9.

26 Vgl. Villa (2016): S. 364f.

27 Vgl. Schäffer u. Weber (2016a): S. 9.

28 Cleve u Lämmel (2016): S. 2.

29 Vgl. Gartner Inc. (2020a): o.S.

30 Vgl. Leventhal (2018): S. 23.

31 Vgl. Cleve u. Lämmel (2016): S. 3.

32 Vgl. Leventhal (2018): S. 23.

33 Vgl. Müller u. Lenz (2013): S. 80f.

34 Vgl. Kramer et al. (2016): S. 132.

35 Vgl. Cleve u. Lämmel (2016): S. 61.

36 Vgl. Cleve u. Lämmel (2016): S. 61f.

37 Vgl. Provost u. Fawcett (2017): S. 45f.

38 Vgl. Kramer et al. (2016): S. 132f.

39 Vgl. Cleve u. Lämmel (2016): S. 65.

40 Vgl. Cleve u. Lämmel (2016): S. 65f.

Ende der Leseprobe aus 51 Seiten

Details

Titel
Predictive Analytics im Controlling
Untertitel
Eine Analyse des Einsatzpotentials im Rahmen von operativen Planungsprozessen
Hochschule
Hochschule Osnabrück
Note
2,7
Autor
Jahr
2020
Seiten
51
Katalognummer
V1244782
ISBN (Buch)
9783346669483
Sprache
Deutsch
Schlagworte
Predictive Analytics, Controlling, Planung, Prozesse
Arbeit zitieren
Malte Dammeyer (Autor:in), 2020, Predictive Analytics im Controlling, München, GRIN Verlag, https://www.grin.com/document/1244782

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Predictive Analytics im Controlling



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden