Predictive Analytics im Controlling deutscher Unternehmen. Auswirkungen auf Planungsprozesse

Auswertung von teilstrukturierten Experteninterviews


Masterarbeit, 2020

70 Seiten, Note: 2,0


Leseprobe


Inhaltsverzeichnis

Abkürzungsverzeichnis

Symbolverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

1 Einleitung

2 Konzeptionelle Grundlagen
2.1 Controlling und operative Planungsprozesse
2.1.1 Begriff und Konzeption
2.1.2 Operative Planung und Kontrolle
2.1.3 Forecast
2.1.4 Systematische Planungsfehler
2.2 Predictive Analytics
2.2.1 Big Data
2.2.2 Einordnung von Predictive Analytics in den Kontext der IT-basierten Entscheidungsunterstützung
2.2.3 Theoretische Anwendungsfelder
2.2.4 Analysemethoden

3 Stand der Forschung

4 Empirische Analyse zum Einsatz von Predictive Analytics im Controlling
4.1 Forschungsdesign
4.1.1 Grundlagen Qualitative Forschung
4.1.2 Datenerhebung
4.1.3 Datenanalyse
4.2 Ergebnisse
4.2.1 Aktueller Stand der Umsetzung in der Praxis
4.2.2 Konkrete Anwendungsgebiete
4.2.3 Prozessausgestaltung
4.2.3.1 Projektplanung
4.2.3.2 Datenauswahl und Datenaufbereitung
4.2.3.3 Modellgenerierung
4.2.3.4 Planungsprozess
4.2.3.5 Monitoring
4.2.4 Nutzenpotenziale
4.2.4.1 Automatisierung und Ressourceneffizienz
4.2.4.2 Prognosegenauigkeit und Objektivierung
4.2.5 Herausforderungen und Lösungsansätze
4.2.5.1 Datenbasis und IT-Systemlandschaft
4.2.5.2 Akzeptanz im Betrieb und Transparenz
4.2.5.3 Technisches Know-How der Mitarbeiter
4.2.5.4 Marktdynamik und disruptive Entwicklungen
4.2.6 Ausblick auf zukünftige Entwicklungen
4.3 Abschließende Würdigung

5 Schlussbetrachtung

Anhang

Literaturverzeichnis

Abkürzungsverzeichnis

Abb. - Abbildung

AG - Aktiengesellschaft

ARIMA - Autoregressive integrated moving average

Aufl. - Auflage

BA - Business Analytics

BI - Business Intelligence

Bspw. - beispielsweise

bzw . - beziehungsweise

CEO - Chief Executive Officer

CFO - Chief Financial Officer

CRM - Customer Relationship Management,

DAX - Deutscher Aktienindex

Dr. - Doktor

et al. - et alii

ERP - Enterprise Resource Planning

EU - European Union

EBIT - Earnings before Interest and Taxes

f. - folgende

geb . - geboren

GmbH - Gesellschaft mit beschränkter Haftung

GuV - Gewinn- und Verlustrechnung

Hrsg. - Herausgeber

i.d.R. - in der Regel

IT - Informationstechnologie

Jg. - Jahrgang

KNN - künstliche neuronale Netze

MAPE - Mean absolute Percentage Error

Mrd. - Milliarden

MSc. - Master of Science

Nr. - Nummer

OLAP - Online-Analytical-Processing

Prof. - Professor

QDA - Qualitative Data Analysis

RMSE - Root Mean Square Error

Rn. - Reihennummer

S. - Seite

SCM - Supply Chain Management

SQL - Structured Query Language

Sog. - sogenannte

Tab. - Tabelle

ua. - unter anderem

URL - Uniform Resource Locator

vgl. - vergleiche

z.B. - zum Beispiel

z.T. - zum Teil

Symbolverzeichnis

xi - unabhängige Variable

yi - abhängige Variable

& - und

# - Nummer

+ - Plus

- - Minus/Bindestrich

. - Punkt

, - Komma

Abbildungsverzeichnis

Abb. 1: Analysespektrum von Business Intelligence und Analytics

Abb. 2: Predictive Analytics Rahmenkonzept

Abb. 3: Top-down Planungsprozess mit Middle-Up Validierung

Tabellenverzeichnis

Tab. 1: Strukturprüfende multivariate Verfahren

Tab. 2: Fallauswahl

Tab. 3: Übersicht der Anwendungsgebiete im Controlling

Tab. 4: Übersicht der genannten Nutzenpotenziale

Tab. 5: Übersicht der genannten Herausforderungen

1 Einleitung

Im Rahmen des globalen Trends der Digitalisierung steht den Unternehmen eine immer größere Datenmenge und Datenvielfalt zur Verfügung.1 Durch die stetige Verbesserung von IT-Infrastruktur und Auswertungssoftware gewinnt die Datenanalyse zunehmend an Relevanz im Bereich der Unternehmensplanung und -steuerung.2 Während die Auswertung vergangenheitsbezogener Daten bereits seit längerer Zeit in Literatur und Praxis bekannt ist, rücken nun zunehmend Konzepte zur Prognose zukünftiger Entwicklungen auf Basis von Vergangenheitsdaten in das Zentrum der Diskussion.3 Diese unter dem Begriff Predictive Analytics bekannten Modelle ermöglichen es dem Management mithilfe von quantitativ-statistischen Methoden, nähere Einblicke in zukünftige Entwicklungen des Geschäftsmodells oder Marktumfeldes ihres Unternehmens zu erhalten.4

Das Controlling, welches traditionell die Planungs- und Informationsversorgungsfunktion in einem Unternehmen einnimmt, wird durch die zunehmende Digitalisierung und Verbreitung von Predictive Analytics in den kommenden Jahren einen Wandel erleben.5 Besonders die häufig komplexen und kostenintensiven Planungsprozesse stehen in der Kritik, eine zu geringe Genauigkeit im Verhältnis zu dem geleisteten Aufwand aufzuweisen.6 Die in Abstimmungsrunden gewonnenen Plandaten basieren zumeist auf Expertenmeinungen und unterliegen daher oft systematischen Fehlern.7 Predictive Analytics stellen in diesem Zusammenhang eine Chance dar, Planungsprozesse in Zukunft automatisierter, schneller und objektiver zu gestalten sowie gleichzeitig die Qualität der prognostizierten Daten zu erhöhen.8 Während die allgemeinen Potenziale von Predictive Analytics in der Literatur bereits umfassend diskutiert werden, gibt es bislang relativ wenige Ausführungen zur konkreten praktischen Anwendung im Controlling.9

Ziel dieser Arbeit ist es daher, die momentanen Entwicklungen bezüglich der Anwendung von Predictive Analytics im Controlling deutscher Unternehmen offenzulegen und die Frage zu klären, wie sich der vermehrte Einsatz von Predictive Analytics auf die Unternehmensplanung auswirkt. Dabei sollen insbesondere operative Planungsprozesse hinsichtlich der Anwendungsmöglichkeiten, prozessualen Ausgestaltung sowie Nutzenpotenziale und Herausforderungen in Bezug auf den Einsatz von Predictive Analytics untersucht werden.

Zunächst werden dafür die theoretischen Grundlagen zu Controlling und insbesondere operativen Planungsprozessen sowie zu Predictive Analytics vorgestellt. Anschließend werden bisherige Studien zum Einsatz von Predictive Analytics im Controlling untersucht, um die Forschungslücke zu identifizieren. In der folgenden empirischen Analyse wird nach einer vorrausgehenden Vorstellung des Forschungsdesigns die Forschungsfrage beantwortet. Das Zentrum der Untersuchung stellt die Auswertung von zehn teilstrukturierten Experteninterviews dar. Aus den Ergebnissen wird im Anschluss der momentane Umsetzungsstand und die konkrete prozessuale Ausgestaltung von Predictive Analytics im Controlling hergeleitet. Zudem erfolgt eine Analyse der berichteten Herausforderungen sowie Nutzenpotenziale im Zusammenhang mit der neuen Technologie. Die Arbeit wird mit einem Fazit sowie einem Ausblick auf den zukünftigen Forschungsbedarf geschlossen.

2 Konzeptionelle Grundlagen

2.1 Controlling und operative Planungsprozesse

2.1.1 Begriff und Konzeption

Das Controlling unterliegt im Gegensatz zum externen Rechnungswesen keinen gesetzlichen Vorgaben und wird in der Literatur in verschiedene Konzeptionen und Ansätze untergliedert.10 Im Folgenden wird die Controlling Definition auf Basis des systemtheoretischen Ansatzes nach Horváth hergeleitet. Das Controlling ist demnach ein Teilsystem der Unternehmensführung, welches durch die Kernaufgaben Planung, Kontrolle sowie Informationsversorgung eine strategieorientierte Entscheidungsfindung gewährleistet.11 Die übergeordnete Controlling Funktion stellt dabei die Koordination, also das Abstimmen einzelner Entscheidungen auf ein übergeordnetes Gesamtziel, dar.12 Die International Group of Controlling legte folgende allgemeine Definition fest: „Controlling ist der gesamte Prozess der Zielfestlegung, der Planung und der Steuerung im finanz- und im leistungswirtschaftlichen Bereich“.13 Das moderne Leitbild versteht den Controller dabei als Business Partner, der die Unternehmensleitung bei Entscheidungsprozessen unterstützt.14 Dafür sind nicht nur die traditionellen Kenntnisse im Bereich des Rechnungswesens, sondern zunehmend auch fundierte Kenntnisse der Branche sowie des Geschäftsmodells eines Unternehmens notwendig.15

Grundlegend lassen sich zwei Arten von Controlling unterscheiden. Das eher langfristig orientierte strategische Controlling umfasst die langfristige Planung und Sicherstellung einer wertsteigernden Geschäftsentwicklung.16 Der Fokus liegt dabei auf der Sicherung und Weiterentwicklung von bestehenden Erfolgspotenzialen, sowie der Identifikation möglicher Chancen und Risiken.17 Dabei werden sowohl das Unternehmen als auch das Marktumfeld untersucht.18 Wesentliche Gegenstände der strategischen Planung sind z.B. Produktportfolio, Wettbewerb, Innovationen, Märkte, Ressourcen.19 Die verwendeten Erfolgsgrößen sind eher qualitativer Natur.20 Das operative Controlling unterstützt die Sicherstellung des wirtschaftlichen Erfolges durch Planung und Steuerung der Geschäftsabläufe.21 Dabei konzentriert es sich auf einen kurz- bis mittelfristigen Planungshorizont und verwendet vorrangig quantitative, unternehmensbezogene Erfolgs- oder Liquiditätskennzahlen.22 Wesentliche Gegenstände sind unter anderem Bilanz, GuV, Cashflow, Umsatz, Kosten, Projekte sowie Investitionen.23 Der Einsatz von Predictive Analytics wird im Folgenden vor allem in Bezug auf das operative Controlling betrachtet.

2.1.2 Operative Planung und Kontrolle

Die zielorientierte operative Planung stellt ein wesentliches Koordinationsinstrument der Unternehmensführung dar und zählt zu den wichtigsten Aufgaben im operativen Controlling.24 Im Zuge der Planung wird ein vereinfachtes Modell der sich dynamisch verändernden Realität erarbeitet (Komplexitätsreduktion), welches möglichst präzise Prognosen zu zukünftigen Entwicklungen herzuleiten versucht (Abbau von Unsicherheiten).25 Der Erfolg eines Unternehmens hängt dabei in großem Maße davon ab, wie erfolgreich es seine Geschäftstätigkeit an die dynamischen Umweltbedingungen anpassen kann.26

Mit der Planung werden zwei grundsätzliche Ziele verfolgt. Zum einen werden auf Basis der Plandaten Budgets erstellt, welche unter Berücksichtigung von Annahmen zu Geschäftstreibern finanzielle Handlungsrahmen festlegen.27 Budgets sind wertmäßige, formalzielorientierte Pläne, die für eine festgelegte Zeit (für gewöhnlich jahresbezogen) mit einem zugewiesenen Verbindlichkeitsgrad für bestimmte Entscheidungseinheiten vorgegeben werden.28 Hier steht die Koordination von Ressourcen sowie die Quantifizierung für das Unternehmen und seine Teilbereiche im Vordergrund.29 Des Weiteren hat die Planung eine Anreizfunktion für die gesamte Organisation, die aus der Festlegung eines Zielergebnisses resultiert.30

Planung und Kontrolle stehen in einer wechselseitigen Beziehung und sind daher immer im Zusammenhang zu betrachten.31 Kontrolle stellt den Vergleich zwischen geplanten (Soll) und realisierten Werten dar und ist somit das Gegenstück zur Planung.32 Über diese Soll-Ist Vergleiche bzw. Abweichungsanalysen wird die Zielausrichtung des Unternehmens kontrolliert.33 Die Kontrolle dient dabei der Verhaltensbeeinflussung von zuständigen Managern, welche mögliche Abweichungen von geplanten Ergebnissen erklären und verantworten müssen.34

Die Zielvorgaben der operativen Planung können zentral vom Management (Top-down ) oder dezentral in den einzelnen Unternehmensbereichen bzw. -funktionen (bottom-up ) festgelegt werden.35 In der Praxis kommt zudem häufig das Gegenstromverfahren zum Einsatz.36 Hierbei werden zunächst vorläufige Oberziele durch die Führungsebene festgesetzt, welche daraufhin von den untergeordneten Ebenen in realisierbare Teilziele heruntergebrochen werden. Anschließend erfolgt ein Rücklauf zurück in die Führungsebene, wo die endgültige Festlegung von Zielen und Plänen erfolgt.37 Zudem kann die Prognoseerstellung qualitativ und meinungsorientiert (etwa Delphi Methode oder Expertenmeinung) oder quantitativ und datengetrieben (etwa mithilfe von statistischen Methoden) erfolgen.38

2.1.3 Forecast

Aufgrund von immer schnelleren Veränderungen in der heutigen dynamischen Unternehmensumwelt, sind die zu Beginn des Planjahres getroffenen Annahmen in der operativen Planung häufig überholt.39 Daher wird der Forecast, als zusätzliches Instrument der operativen Planung immer bedeutender.40 Dieser ist definiert als die Vorhersage von zukünftig zu erwartenden, wirtschaftlichen Entwicklungen auf Basis von aktuell vorliegenden IST-Daten sowie festgelegten Planungsprämissen.41 Während bei der Planung die Fragestellung Was soll erreicht werden? im Vordergrund steht, soll der Forecast die Frage Was kann erreicht werden? beantworten.42 Im Gegensatz zur jährlich durchgeführten operativen Planung wird der Forecast entweder zu festgelegten unterjährigen Zeitpunkten (Standard Forecast), oder bei besonderen Anlässen (Ad-hoc- Forecast) durchgeführt.43 Eine flexible Form stellt der rollierende Forecast dar, bei welchem die Treiber regelmäßig mit einem festen Zeithorizont angepasst werden.44

Der Forecast kann sich dabei je nach Bedarf auf das ganze Unternehmen, Teileinheiten oder einzelne Projekte beziehen.45 Auf Basis der erhaltenen Plandaten können Auswirkungen auf Ziele und Budgets abgeschätzt werden. Darauf aufbauend lassen sich Gegensteuerungsmaßnahmen und Ressourcenanpassungen rechtzeitig implementieren.46 Wesentlich für den Prozess des Forecast s ist die Ermittlung einer einheitlichen Datenbasis sowie die Abstimmung der wesentlichen Ergebnistreiber (z.B. Absatzmengen, Kapitalmarktkosten und Beschaffungs-/Verkaufspreise) mit dem Management im Vorfeld der Forecast Erstellung.47 In diesem Zusammenhang werden mithilfe von Szenario Analysen alternative Geschäftsverläufe simuliert (Best-/Worst-/Base Case), um somit finanzielle Belastungen im Fall von nachteiligen Zukunftsentwicklungen besser abschätzen zu können.48 Sensitivitätsanalysen zeigen den Einfluss einzelner Ergebnistreiber auf das Unternehmensergebnis.49

Die Qualität von Prognosen kann anhand von vier Dimensionen charakterisiert werden: Sie sollte über eine hohe Prognosegenauigkeit verfügen, zeitgerecht erstellt werden, kosteneffizient sein und die relevanten Geschäftstreiber realitätsgerecht und nachvollziehbar darstellen.50 Die Relevanz der verschiedenen Dimensionen ist je nach Unternehmen unterschiedlich. Unternehmen in wenig dynamischen Geschäftsumfeldern planen aus Gründen der Kosteneffizienz etwa seltener, als solche in volatilen Umfeldern.51

Traditionelle, oftmals meinungsorientierte Planungsprozesse, stehen seit längerem in der Kritik, trotz eines hohen Detailierungsgrades sowie Ressourceneinsatzes nur eine relativ geringe Prognosequalität aufzuweisen.52 Zudem wird die geringe Aktualität und Flexibilität der Planung bemängelt, wodurch nicht schnell genug auf sich ändernde Umweltbedingungen eingegangen werden kann.53 Ein weiterer Negativfaktor ist der große Einfluss von menschlichen Annahmen in der Planung von Wertreibern. Dies birgt die Gefahr, dass Plandaten aufgrund von unternehmenspolitischen Interessen oder menschlichen Fehleinschätzungen verzerrt werden.54 Im folgenden Kapitel werden wesentliche systematische Fehler in der traditionellen Unternehmensplanung und deren negativen Auswirkungen vorgestellt.

2.1.4 Systematische Planungsfehler

Der Einfluss von psychologischen Faktoren auf den Planungs- und Budgetierungsprozess konnte empirisch bereits nachgewiesen werden.55 Ein wesentliches Problem ist in diesem Zusammenhang die Selbstüberschätzung der Planungsbeteiligten bezüglich ihrer Fähigkeit, zukünftige Entwicklungen prognostizieren zu können.56 Ein bekanntes Resultat stellt der Hockeystick-Effekt dar. Darunter versteht man Prognosen, welche ein anfangs moderates, plausibles Wachstum aufweisen, während für die späteren Planungsjahren ein überproportionales, unrealistisches Wachstum vorhergesagt wird. Dies führt dazu, dass die Pläne meist Jahr für Jahr neu angepasst werden müssen, was Ineffizienzen und Mehrkosten zur Folge hat.57

Gemäß Kahnemann/Tversky verwenden Menschen bei Entscheidungen unter Unsicherheit Heuristiken, die häufig zu systematischen Planungsfehlern führen.58 Beim Ankereffekt richtet der Entscheider sich an einer numerischen Information als Ausgangspunkt (Anker) aus und passt seine Entscheidung dann ausgehend von diesem Punkt unbewusst an (Anpassungsheuristik).59 Dies ist der Fall, wenn bspw. bei der Prognose zukünftiger Kosten die aktuellen Kosten sowie die Veränderung zur Vorperiode als Ausgangspunkt genommen werden. Ausgehend von diesem Punkt werden die zukünftigen Kosten dann unter Missachtung von veränderten Umweltfaktoren und anderen Einflüsse fortgeschrieben, was zu Fehleinschätzungen führt.60 Der Verfügbarkeitseffekt führt dazu, dass Entscheidungen eher auf der Grundlage von vorhandenen oder leicht verfügbaren Daten getroffen werden.61 Da aus Aufwandsgründen oft keine tiefergehende Datenanalyse durchgeführt wird, besteht die Gefahr, dass bestimmte Informationen durch Interessengruppen gezielt präsenter dargestellt werden, um die Entscheidungsfindung zu beeinflussen.62

Bei der Festlegung von Planungsprämissen in gruppenbasierten Entscheidungsprozessen lässt sich häufig Gruppendenken feststellen. Dabei halten die Mitglieder einer Gruppe ihre persönliche Einschätzung häufig zurück und passen sich den Aussagen weniger Meinungsführer an, sodass erfolgsversprechende Alternativen nicht in ausreichendem Maße Relevanz finden.63 In Bezug auf den klassischen Budgetierungsprozess lässt sich bei vielen Unternehmen das Phänomen Budget Gaming beobachten.64 Dies bezeichnet die Tatsache, dass Manager bei der Festlegung des Budgets bewusst gewisse Puffer einbauen, die für das Unternehmen keinen wirtschaftlichen Mehrwert generieren.65 Besonders schwerwiegend sind Planungsfehler, wenn sie in Kombination mit dem Rückschaufehler auftreten. Dies beschreibt die Problematik, die Qualität der getroffenen Annahmen im Planungsprozess rückwirkend nicht objektiv genug beurteilen zu können.66 Durch die mangelhafte Evaluierung können keine angemessenen Optimierungspotenziale für den Planungsprozess hergeleitet werden.67

Das Auftreten systematischer Planungsfehler wird verstärkt durch die zunehmende Komplexität der Unternehmensumwelt. Gemäß der These der begrenzten Rationalität können Menschen aufgrund ihrer limitierten kognitiven Verarbeitungskapazitäten nicht immer alle relevanten Variablen bei der Entscheidungsfindung berücksichtigen.68 Gleichzeitig stehen dem Controlling durch die zunehmende Digitalisierung immer mehr Informationen in Form von Daten zur Verfügung.69

2.2 Predictive Analytics

2.2.1 Big Data

Der globale Megatrend Big Data bezeichnet „die Erhebung, Speicherung und Auswertung großer Datenbestände mittels digitaler Technologien.“70 Big Data lässt sich anhand von drei Dimensionen definieren, welche die Beschaffenheit der Daten beschreiben.71 Die erste Dimension beschreibt die Datenmenge (volume ).72 Der einfache und kostengünstige Zugang zu Rechenkapazitäten macht die Vorteile von Big Data heutzutage für eine breite Masse verfügbar.73 Die zur Auswertung verfügbaren Daten nehmen bei den Unternehmen durch die verbesserten Speicherkapazitäten (etwa durch Cloud Computing) und neuen Datenquellen stetig zu.74 Schätzungen zufolge verdoppelt sich das weltweite Datenvolumen alle zwei Jahre.75

Die zweite Dimension beschreibt die Geschwindigkeit (velocity) , mit der Daten generiert, ausgewertet und weiterverarbeitet werden können.76 Sogenannte In-Memory-Datenbank-Technologien wie SAP® HANA haben hier in jüngster Zeit zu einer erheblichen Verbesserung der Rechengeschwindigkeit beigetragen.77 Mithilfe der dadurch ermöglichten Auswertung der Daten in Echtzeit können Unternehmen besonders schnell auf Veränderungen reagieren.78

Weiterhin zeichnet Big Data eine große Vielfalt (variety ) der Datentypen und -quellen aus.79 Besonders an Big Data ist, dass auch unstrukturierte Daten wie Bilder, Videos oder Textdateien gespeichert und ausgewertet werden.80 Im Gegensatz zu strukturierten Daten können unstrukturierte Daten aufgrund ihrer nicht identifizierbaren Datenstruktur in keiner zeilen- und spaltenorientierten SQL-Datenbank gespeichert werden.81 Diese Daten benötigen spezielle Big Data Anwendungen (sog. NoSQLs), um sie für das Unternehmen im Rahmen von Analysen nutzbar machen zu können.82 Neben unternehmensinternen Daten werden zunehmend auch externe Daten, etwa aus sozialen Netzwerken oder Marktstudien, verwertet.83 Dazu kommen Sensordaten, die aus der zunehmenden Vernetzung von Maschinen im Rahmen von Industrie 4.0 bzw. Internet der Dinge gewonnen werden.84

Das Datenmanagement von Big Data stellt die Grundlage für moderne Systeme der IT-basierten Entscheidungsunterstützung dar.85 Erst durch die Nutzung effektiver Analyseinstrumente kann der Nutzen von Big Data für die Planung und Steuerung eines Unternehmens wirtschaftlich verwertbar gemacht werden.86

2.2.2 Einordnung von Predictive Analytics in den Kontext der IT-basierten Entscheidungsunterstützung

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1 : Analysespektrum von Business Intelligence und Analytics 87

Um die konzeptionellen Grundlagen zu Predictive Analytics herleiten zu können, wird der Begriff zunächst in den Kontext des Oberbegriffs der IT-basierten Entscheidungsunterstützung eingeordnet und von benachbarten Teilgebieten abgegrenzt. Zu den im Folgenden vorgestellten Begriffen finden sich in der Literatur viele verschiedene Definitionen. Zudem werden die Begriffe aufgrund ihrer inhaltlichen Dependenzen oft verschieden interpretiert.88 Der folgende Abschnitt soll ein einheitliches Grundverständnis der Begriffe für die weitere Diskussion schaffen.

Die IT-basierte Entscheidungsunterstützung kann in zwei Teilgebiete aufgeteilt werden (siehe Abb. 1). Unter Business Intelligence (BI) versteht man die Gewinnung, Aufbereitung und Vereinheitlichung interner- und externer Unternehmensdaten mithilfe leistungsfähiger IT-Methoden zur Unterstützung bei Managemententscheidungen.89 Der Fokus liegt auf bereits vorhandenen, strukturierten Daten, welche in einem Data Warehouse gesammelt werden.90 Dabei handelt es sich um eine zentrale Datenbank, welche Daten aus verschiedenen Quellen91 aggregiert und transformiert, um diese für Analysen zugänglich zu machen.92 Ziel ist die Schaffung eines Single Point of Truth, also eines allgemeingültigen Datenbestandes, der im ganzen Unternehmen verwendet wird.93 Werden die Daten unternehmensweit in ihren Quellsystemen in einem nicht transformierten Rohzustand gespeichert, spricht man von einem Data Lake.94

Im Zentrum von BI stehen die Fragestellungen was ist passiert? (descriptive analytics) und warum ist etwas passiert? (diagnostic analytics) .95 Dafür werden vergangenheitsbezogene Daten mit Hilfe von Data Mining systematisch auf bisher unbekannte Zusammenhänge abgefragt, um neue Erkenntnisse für den Einfluss auf Geschäftsvorfälle zu gewinnen.96 Für eher hypothesengetriebene Fragestellungen kann mithilfe von Online-Analytical-Processing (OLAP) Abfragen eine spezifische, multidimensionale Ad-hoc Datenanalyse durchgeführt werden.97 Auf Basis der Analyse erfolgt die Erzeugung periodischer Standardreports oder in Echtzeit aktualisierter Dashboards zur Unterstützung von Managemententscheidungen.98

Business Analytics (BA) 99 stellt eine Erweiterung der klassischen BI dar und ist der zweite Teilbereich der IT-basierten Entscheidungsunterstützung.100 Im Gegensatz zu den vergangenheitsorientierten Reportingsystemen (BI) liegt der Fokus von BA auf der Steigerung des Unternehmenserfolges durch die datenbasierte Erschließung zukünftiger Entwicklungen.101 Die explorative Analyse möglicher Zusammenhänge (Data Mining) stellt dabei eine Überschneidung der Einsatzgebiete von BI und BA dar, da diese als Ausgangspunkt für die Herleitung zukünftiger Trends benötigt werden.102 Big Data und BI bilden somit die Grundlage für BA.103 BA ist als eine Schnittstelle zwischen Data Science und Betriebswirtschaftslehre zu verstehen. Data Science bezeichnet einen interdisziplinären Ansatz, bei dem Methoden der Statistik und der künstlichen Intelligenz mit dem technischen Wissen aus Data- und Software Engineering verknüpft werden, um Daten zielgruppengerecht aufzubereiten und zu kommunizieren.104

Das meist diskutierte Teilgebiet von BA stellt Predictive Analytics dar.105 Die unter diesem Begriff zusammengefassten Modelle haben das Ziel, mittels explorativer Verfahren aus internen sowie externen Datenquellen erfolgsrelevante Prognosen für zukünftige Ereignisse herzuleiten.106 Dies erfolgt durch Verwendung von quantitativen bzw. statistischen Verfahren wie Simulationen, Zusammenhangsanalysen und Forecasts.107 Die zentrale Fragestellung der Predictive Analytics ist: was wird passieren? .108 Der Predictive Analytics Prozess setzt sich dabei grob aus der Datenbereitstellung/-analyse, der Modellerstellung sowie der Erstellung und Interpretation des Forecast zusammen.109 Durch Verknüpfung der Vorhersagemodelle mit Simulations- und Optimierungsverfahren oder semantischen Regeln können IT-Systeme aus den Ergebnissen der Analyse direkt Empfehlungen zu Maßnahmen herleiten.110 Diese als Prescriptive Analytics bezeichneten Modelle beantworten die Frage was ist zu tun?.111 Der Fokus dieser Arbeit liegt auf den vorhersagenden, nicht präskriptiven, Analysemethoden der Predictive Analytics und deren Einsatzmöglichkeiten im Controlling.

2.2.3 Theoretische Anwendungsfelder

Im Folgenden werden die Anwendungsfelder von Predictive Analytics aus einer Perspektive des fachlichen Controllings hergeleitet. Die Aufteilung in Analyse, Digital Forecast s sowie Simulation ist angelehnt an Mehanna et al. (2016).112

Die Analyse verfügbarer und relevanter Datenbestände (Data Mining) stellt die Grundlage für eine weitergehende Anwendung von Predictive Analytics Methoden dar.113 Hierbei kommen multivariate Analysemethoden zum Einsatz, um Erkenntnisse über Regelmäßigkeiten, Strukturen sowie Zusammenhängen zu gewinnen.114

Forecast s, die im mithilfe von Predictive Analytics Methoden erstellt wurden, werden als Digital Forecasts bezeichnet.115 Bei der Erstellung von Digital Forecasts werden quantitative Treibermodelle hergeleitet, die kontinuierlich auf Richtigkeit geprüft werden.116 Diese stehen im Zentrum der Steuerung und dienen als Grundlage für die Quantifizierung strategischer Optionen sowie von Szenario Planungen.117 Die Planung kann dabei für einzelne Gebiete wie Absatz, Preis oder Kosten erfolgen.118 Möglich ist aber auch, dass aus den operativen Detailmodellen ein vollständiger finanzieller Forecast hergeleitet wird.119

Die Simulation verschiedener Szenarien einer möglichen Unternehmensentwicklung ist bereits seit längerem möglich, war aber bisher mit hohem Ressourceneinsatz verbunden.120 Durch die Verknüpfung von Kennzahlen kann eine multidimensionale Berechnung der Auswirkungen einer Unternehmensentscheidung erfolgen und die Entscheidung an einem gewünschten Zielwert hergeleitet werden.121 Die Digital Forecasts können dabei mit Expertenschätzungen zu möglichen Eintrittswahrscheinlichkeiten verknüpft und mittels statistischer Verfahren (z.B. Monte-Carlo-Simulation) zu einem Erwartungswert verdichtet werden.122

2.2.4 Analysemethoden

Im Rahmen von Predictive Analytics werden vorrangig multivariate Analysemethoden eingesetzt.123 Dabei werden die gegenseitigen Beziehungen zwischen mindestens zwei Variablen analysiert, wobei zwischen abhängigen und unabhängigen Variablen unterschieden wird.124 Liegt ein kausaler Zusammenhang vor, so wird der Wert der abhängigen Variablen vom Wert der unabhängigen Variablen beeinflusst.125 Die multivariaten Methoden lassen sich dabei laut Backhaus et al. (2018) gemäß ihres Anwendungsbezugs in strukturprüfende und strukturentdeckende Analysemethoden aufteilen.126 Im Folgenden werden die verbreitetsten Analysemethoden kurz vorgestellt.

Tab. 1 : Strukturprüfende multivariate Verfahren 127

Abbildung in dieser Leseprobe nicht enthalten

Strukturprüfende Verfahren betrachten die kausale Abhängigkeit einer interessierenden Variablen von einer bzw. mehreren unabhängigen Variablen.128 Der Anwender hat dabei bereits eine sachlogische oder theoretische Vorüberlegung und möchte seine Theorie mithilfe der folgenden multivariaten Verfahren überprüfen.129 Das wesentliche Abgrenzungsmerkmal der Methoden stellt das Skalenniveau der unabhängigen Variable xi sowie der abhängigen Variable yi dar (siehe Tab. 1).130 Die Regressionsanalyse ist die meistverbreitete multivariate Analysemethode und kommt sowohl bei der Beschreibung und Erklärung von Zusammenhängen als auch bei der Erstellung von Prognosen zum Einsatz.131 Mit ihrer Hilfe können Wirkungsbeziehungen zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen analysiert und in Form einer Regressionsgleichung quantifiziert werden.132 Neben der konventionellen linearen Regression können mit der nichtlinearen Regression auch willkürliche (bspw. logistische oder exponentielle) Beziehungen zwischen abhängigen und unabhängigen Variablen beschrieben werden.133

Eine Sonderform der Regressionsanalyse stellt die Zeitreihenanalyse dar. Diese beschreibt und erklärt die zeitliche Entwicklung einer Variablen über mehrere Phasen oder Perioden unter Einbeziehung von Trends und Saisonalitäten.134 Ein besonders verbreitetes Modell zur statistischen Analyse von Zeitreihen ist das ARIMA-Modell. Dieses bildet lineare stochastische Prozesse in Form von linearen Differenzengleichungen ab und dient der Vorhersage zukünftiger Werte der Variablen.135 Solche dynamischen Zeitreihenmodelle sind besonders geeignet für die Erstellung von Prognosen zur Unterstützung bei Entscheidungsproblemen.136

Strukturentdeckende Verfahren dienen der Exploration möglicher neuer Zusammenhänge zwischen Variablen oder Objekten, wobei der Anwender zu Beginn der Auswertung noch keine konkreten Vorstellungen über mögliche Abhängigkeiten im zu untersuchenden Datensatz hat.137 Daher erfolgt im Vorfeld der Analyse auch keine Aufteilung der Variablen in abhängige und unabhängige Variablen wie etwa bei den strukturprüfenden Verfahren.138 Im Rahmen der Faktorenanalyse kann eine Vielzahl abgefragter Variablen auf die zentralen Faktoren reduziert werden. Durch die Bündelung ähnlicher Variablen werden die wesentlichen Einflussfaktoren für einen Sachverhalt bestimmt, was die Komplexität stark reduziert.139 Ein Beispiel dafür ist die Zusammenfassung verschiedener Ertragskennzahlen zu einem Faktor Rentabilität bei der Untersuchung von Unternehmenseigenschaften. Im Gegensatz dazu dient die Clusteranalyse der Aggregation von Objekten zu Gruppen (Clustern).140 Die Objekte innerhalb einer Gruppe sollten dabei hinsichtlich ihrer Merkmalsausprägung möglichst homogen sein und zugleich möglichst große Unterschiede zu den Merkmalen anderer Gruppen aufweisen.141 Ein Beispiel dafür ist die Bildung von Marktsegmenten (Teilmengen des Marktes) auf Basis von Käufermerkmalen (Merkmalsausprägungen).142

Das maschinelle Lernen ist eine Methode der künstlichen Intelligenz, bei der Wissen aus Erfahrungen generiert wird.143 Auf Basis vorhandener Daten werden Modelle zur Erklärung und Beschreibung von Datenmustern entwickelt, welche sich über neue Daten selbstständig und fortlaufend optimieren.144 Eine besondere Form des maschinellen Lernens sind künstliche neuronale Netze (KNN), also dem menschlichen Gehirn nachempfundene Informationsverarbeitungsprozesse.145 Diese kommen bei der Klassifikation von Objekten, Prognosen von Zuständen, oder Bildung von Clustern zum Einsatz.146 Sie bilden sich aus künstlichen Neuronen (Nervenzellen) die in Schichten organisiert sind, wobei jedes Neuron mit der nachgelagerten Schicht verknüpft ist.147 Der besondere Vorteil von KNN besteht darin, dass sie auch bei sehr schlecht strukturierten Daten komplexe (nicht-lineare) Zusammenhänge erkennen können und selbstständig aus Erfahrungen lernen.148

3 Stand der Forschung

Nachdem die theoretischen Grundlagen zum Einsatz von Predictive Analytics im Controlling erläutert wurden, wird folgend der aktuelle Stand der empirischen Forschung untersucht. Ausgehend davon soll eine Forschungslücke identifiziert werden, welche durch die in Kapitel 4 folgende empirische Analyse geschlossen wird.

Nann und Eichenberger (2018) leiten anhand von Fachliteraturrecherche sowie Experteninterviews ein grobes Rahmenwerk für die Anwendung von Predictive Analytics in operativen Planungsprozessen her. Dieses Rahmenwerk gliedert den Prozess in die Phasen Datenbereitstellung und -analyse, Predictive Modelling sowie Forecasting.149 Zudem werden wesentliche Eignungskriterien hergeleitet, anhand derer die Erfolgswahrscheinlichkeit für die Einführung von Digital Forecasts beurteilt werden kann. Diese umfassen die bestehende Marktdynamik, die Anzahl der Einflussfaktoren auf die Planung sowie die Prognosefrequenz.150

Tischler et al. (2018) führten von Mai bis Juni 2018 eine Online Befragung von 308 Mitarbeitern mit Planungshintergrund bei Unternehmen aller Größenklassen durch.151 Ziel war es, den Reifegrad, Nutzenpotenziale und Chancen sowie Herausforderungen und Grenzen hinsichtlich des Einsatzes von Predictive Analytics in der Unternehmensplanung zu erschließen. Zudem wurden konkrete Handlungsanweisungen im Hinblick auf die Integration von Predictive Analytics in den Planungsprozess aus den Ergebnissen hergeleitet.152 Die Studie zeigt, dass das Thema Predictive Analytics in der Unternehmensplanung eine hohe Relevanz, aber noch eine geringe Verbreitung hat. Nur etwa jedes fünfte Unternehmen verwendet Predictive Analytics Modelle bereits produktiv. Als wesentliche Nutzenpotenziale werden eine höhere Planungsgenauigkeit, die Reduktion des Planungsaufwands sowie zeitnähere und schnellere Planungsprozesse identifiziert.153 Wesentliche Herausforderungen stellen Aufbau und Pflege von Kompetenzen, mangelnde Ressourcen sowie eine mangelhafte Verfügbarkeit und Qualität der Daten dar.154 Insgesamt kommt die Studie zu dem Ergebnis, dass Predictive Analytics die Planung zwar auf die nächste Stufe heben wird, ein voll-automatisierter Planungsprozess aber kein wahrscheinliches Zukunftsszenario für einen Großteil der Unternehmen darstellt.155

Bley et al. (2019) haben 49 Leiter Controlling bzw. CFOs hinsichtlich des Implementierungsgrades von Predictive Analytics Methoden in deutschen Unternehmen befragt. Zusätzlich wurden Fragen zum Planungsprozess gestellt und die Zufriedenheit der Unternehmensvertreter mit diesen untersucht. Die Ergebnisse zeigen, dass das Interesse am Thema Predictive Analytics in der Unternehmensplanung erheblich ist. 156 Die Unternehmensvertreter erwarten Nutzenpotenziale in Form einer Steigerung der Planungsqualität und -objektivität, kürzeren Planungszyklen sowie einer effektiveren Top-down Planung durch den vermehrten Einsatz der neuen Technologie.157 Das starke Interesse begründet sich auch in der empirisch belegten großen Unzufriedenheit mit den momentanen Planungsprozessen. So gaben 37 Prozent der Befragten an, mit der Qualität der Planung nicht zufrieden zu sein. Vor allem die berichtete lange Planungsdauer erhöht den Wunsch nach einem automatisierten und zeitnahem Planungsprozess.158 Als wesentliche Herausforderungen, die dem vermehrten Einsatz momentan noch entgegenstehen, wurden fehlendes Know-how im Bereich IT-Infrastruktur sowie die erheblichen Anschaffungs- und Implementierungskosten identifiziert. Eine weitere Erkenntnis der Studie ist, dass Predictive Analytics Lösungen im Controlling momentan eher bei größeren Unternehmen diskutiert bzw. geplant werden, als bei kleineren.159

Schlatter et al. (2020) führten teilstrukturierte Experteninterviews mit Controllern und Data Scientists von sechs Unternehmen durch. Die Fälle wurden hinsichtlich der Dimensionen Daten, Methoden, Wirkung & Prozesse, Organisation, IT-Systeme und Implementierung untersucht, um die kritischen Erfolgsfaktoren bei der Einführung von Predictive Analytics Methoden herzuleiten.160 Ein wesentlicher Erfolgsfaktor ist demnach die Datenverfügbarkeit, sowohl im Sinne einer Zugangsberechtigung zu internen Daten, als auch in Bezug auf das Vorhandensein geeigneter externer Daten. Weiterhin ist eine hohe Qualität der Daten entscheidend. Bezüglich der verwendeten Methoden ist es ratsam, verschiedene Algorithmen zu testen, um anschließend das Modell mit der höchsten Prognosegüte auszuwählen.161 Das verwendete Softwaretool sollte dabei möglichst auf die Fähigkeiten und Bedürfnisse der Anwender zugeschnitten sein. Eine Integration in die bestehende IT-Systemlandschaft ist ratsam, um den Zugriff auf interne Datenquellen zu erleichtern. Entscheidend bei der Implementierung von Predictive Analytics Lösungen ist, dass die Unternehmenskultur und vor allem das Top-Management die digitale Transformation aktiv fördert. Um im Zuge der Prozessneugestaltung das Vertrauen in das neue System zu fördern, bietet sich eine Übergangsphase an, in der der neue Digital Forecast parallel zum traditionellen Forecast erstellt wird. Agile Ansätze, bei der kleine Projektteams erste Pilotprojekte im Konzern vorantreiben, können helfen, mit geringem Risiko und Ressourcenaufwand erste Expertisen im Einsatz von Predictive Analytics aufzubauen.162

4 Empirische Analyse zum Einsatz von Predictive Analytics im Controlling

4.1 Forschungsdesign

4.1.1 Grundlagen Qualitative Forschung

Die Auswertung der Literatur zum Thema Predictive Analytics im Controlling hat gezeigt, dass es noch wenige Erkenntnisse bezüglich der Anwendung von Predictive Analytics in Praxis gibt. Um die konkreten Anwendungsfelder, Nutzenpotenziale sowie Herausforderungen beim Einsatz von Predictive Analytics zu bestimmen, wurden leitfadengestützte Experteninterviews durchgeführt. Zudem wurden die Auswirkungen auf den Planungsprozess anhand der Expertenaussagen hergeleitet. Im Folgenden werden die Grundlagen qualitativer Forschung erläutert und die Wahl der empirischen Methodik begründet.

Grundsätzlich lässt sich die empirische Forschung in die qualitative und quantitative Forschung unterteilen.163 Während sich die quantitative Forschung durch große Stichprobenmengen und die Nutzung von statistischen Methoden zur vergleichenden Auswertung auszeichnet, werden bei der qualitativen Forschung vorrangig interpretierende Auswertungen vorgenommen, bei denen die subjektive Wahrnehmung des Forschers entscheidend ist.164 Im Rahmen von Fallstudien werden aufgrund des komplexen Untersuchungsfeldes eine begrenzte Anzahl an Untersuchungsobjekten mit hoher Untersuchungsintensität betrachtet.165 Dabei werden interpretative oder hermeneutische Analysemethoden angewandt, um nicht standardisierte Daten wie etwa Gespräche auszuwerten.166 Wird nur ein einzelnes Untersuchungsobjekt gewählt, so handelt es sich um eine Einzelfallstudie.167 Diese stellt in der qualitativen Forschung das idealtypische Forschungsdesign dar.168

Um ein Tiefenverständnis für komplexe Prozesse in Organisationen zu erlangen, bieten sich Fallstudien mit einem offenen und flexiblen Ansatz an.169 Im vorliegenden Forschungsfall sollen Erkenntnisse darüber gewonnen werden, wie und warum Predictive Analytics im Controlling deutscher Unternehmen eingesetzt wird und welche Herausforderungen damit verbunden sind. Die durchgeführten Fallstudien haben damit einen hypothesengenerierenden und beschreibenden Charakter.170 Weiterhin werden wenige, miteinander vergleichbare Fallstudien durchgeführt. So können ähnliche oder gegensätzliche Ergebnisse festgestellt werden.171

Die Datenerhebung in Fallstudien kann generell in Form von Beobachtungen, Befragungen und durch Inhaltsanalysen erfolgen.172 Da für Beobachtungen ein Zugang zum Untersuchungsfeld notwendig ist, das in dieser Arbeit deutsche Unternehmen bilden, kommt diese Methodik aufgrund der fehlenden Berechtigung nicht in Frage. Inhaltsanalysen, etwa von Geschäftsberichten oder anderen Textdokumenten, sind im vorliegenden Fall ebenfalls schwer möglich, da Informationen zu diesen unternehmensinternen Prozessen in der Regel nicht veröffentlicht werden.173 Zur Erhebung der benötigten Daten bieten sich letztendlich persönliche Befragungen von unternehmensinternen Experten an.

Das sogenannte Experteninterview ist ein Ansatz der Befragung, bei dem Personen mit speziellem und andernfalls schwer zugänglichem Fachwissen hinsichtlich des zu erforschenden Sachverhaltes befragt werden.174 Während bei anderen Varianten des qualitativen Interviews der Befragte als Person im Zentrum der Untersuchung steht, liegt der Fokus bei einem Experteninterview eher auf den Kenntnissen und Erfahrungen des Befragten bezüglich des Forschungsthemas.175 Experteninterviews eignen sich besonders für den vorliegenden Forschungsschwerpunkt, da sie ermöglichen, eine Variation an offen formulierten Antworten zu einem bisher noch wenig erforschtem Untersuchungsfeld zu erhalten.176 Da qualitative Experteninterviews einen geringen Grad an Standardisierung aufweisen, wird im Folgenden zur Erreichung der intersubjektiven Nachvollziehbarkeit das systematische Vorgehen hinsichtlich der Datenerhebung und Datenanalyse detailliert erläutert.177

4.1.2 Datenerhebung

Die empirischen Ergebnisse der Arbeit wurden durch Einzelbefragungen im Rahmen von Experteninterviews mit leitenden Controlling Mitarbeitern deutscher Unternehmen sowie führenden Unternehmensberatern erhoben.178 Im Folgenden werden die Kriterien der Datenerhebung und die Motivation dahinter näher erläutert.

Die Auswahl der Unternehmen richtete sich an der Verfügbarkeit geeigneter Experten aus und folgte keinen vorher fest vorgegebenen Kriterien. Es wurde jedoch versucht möglichst verschiedene Branchen abzudecken. Weiterhin wurden große Unternehmen kontaktiert, da diese gemäß den theoretischen Vorüberlegungen eine Vorreiterrolle in der zu untersuchenden Thematik einnehmen. Die befragten Experten lassen sich in zwei Oberkategorien unterteilen. Zum einen erfolgte die Befragung von Controlling Mitarbeitern und Data Scientists in vorrangig leitenden Positionen deutscher Unternehmen. Es wurden sowohl Konzerncontroller als auch Controller operativer Geschäftseinheiten hinsichtlich der Prozesse und dem Vorgehen innerhalb ihres Unternehmens befragt. Weiterhin wurden Unternehmensberater interviewt, welche sich auf die Einführung von Predictive Analytics Konzepten bei ihren Mandanten spezialisiert haben. Diese können durch ihre Projekterfahrungen den allgemeinen Reifegrad der Technologie beurteilen und einen ersten Querschnittsvergleich hinsichtlich der Umsetzung in verschiedenen Unternehmen vornehmen.

Die Durchführung der Experteninterviews folgt einer theoriegeleiteten Vorgehensweise. Anhand der für den Grundlagenteil dieser Arbeit notwendigen Literaturrecherche wurde theoretisches Vorwissen zu der Forschungsthematik erworben, an welches die empirischen Ergebnisse der Analyse anknüpfen sollen.179 Mithilfe des Vorwissens konnte ein teilstrukturierter Interviewleitfaden entworfen werden, anhand dessen der Ablauf des Experteninterviews strukturiert und gesteuert wird.180 Dies ermöglicht die Erhebung ähnlicher Informationen und macht die Experteninterviews vergleichbar.181 Der Interviewleitfaden umfasst dabei 11 Leitfragen, die jedem Interviewpartner gestellt werden. Diese sind in thematisch aufeinanderfolgende Themenblöcke gegliedert, um so einen natürlichen Gesprächsverlauf zu simulieren.182 Der Leitfaden wurde gemäß dem Prinzip so offen wie möglich, so strukturierend wie nötig gestaltet.183 Die Fragen sprechen alle relevanten Bereiche des Themas an, sind dabei aber so offen formuliert, dass die Experten eigene Schwerpunkte bei der Beantwortung der Fragen wählen können.184 Es wurden zwei Versionen des Interviewleitfadens verfasst, einer für die unternehmensinterne Sichtweise der Controlling Mitarbeiter und einer für die unternehmensexterne Sichtweise der Unternehmensberater.185

Die zuständigen Experten wurden per E-Mail oder über das Karrierenetzwerk LinkedIn kontaktiert und um einen Interviewtermin gebeten. Es wurde ein Forschungsteaser beigefügt, der das Ziel der Arbeit sowie die wichtigsten Informationen inklusive der Forschungsmethodik zusammenfassend erläutert.186 Wenige Tage vor den Interviewterminen wurde den Experten der Interviewleitfaden zugeschickt.187 Die Interviews wurden aufgrund der herrschenden COVID-19 Pandemie ausschließlich fernmündlich im Zeitraum vom 06.09.-08.10.2020 durchgeführt.

Tab. 2 : Fallauswahl 188

Abbildung in dieser Leseprobe nicht enthalten

Es wurden insgesamt zehn Interviews durchgeführt, Tab. 2 gibt einen Überblick über die Fallstudien. Zu Beginn der Interviewdurchführung wurden alle Experten gebeten, sich und ihre Rolle im Unternehmen vorzustellen sowie der Aufzeichnung und Anonymisierung der Gesprächsinhalte zuzustimmen.189 Alle Experten waren mit der Aufnahme und Transkription des Gesprächs zu Forschungszwecken einverstanden. Zu Beginn des Interviews wurde zudem geklärt, was der Experte grundlegend unter Predictive Analytics versteht, um mögliche Missverständnisse zu vermeiden. Die Interviewführung erfolgte explorativ, bzw. thesengenerierend.190 Bei ausweichenden oder missverständlichen Antworten wurden klärende Verständnisfragen gestellt.191 Ebenso wurden je nach Bedarf tiefergehende Detailfragen zu bestimmten Themen gestellt, sofern der Experte in einem bestimmten Themenbereich besonders starke Fachkenntnisse vermuten ließ.192 Bei den Fragestellungen standen die Prinzipien Klarheit, Neutralität und Einfachheit im Vordergrund.193 Zum Abschluss der Interviews wurde eine offene Ergänzungsfrage gestellt, die den Experten ermöglichte, zusätzliche relevante Informationen einzubringen.194 Die Dauer der Interviews betrug zwischen 23 und 38 Minuten mit einem Mittelwert von 29 Minuten, bei einer im Vorfeld geplanten Interviewdauer von 30 Minuten.

4.1.3 Datenanalyse

Die Inhalte des Experteninterviews wurden vor der Datenanalyse unter Verwendung der Transkriptionsregeln für die computergestützte Auswertung nach Kuckartz (2018) transkribiert.195 Dabei handelt es sich um einfache Transkriptionsregeln, die eine Glättung der Sprache vorsehen und den Fokus auf den Inhalt des Interviews legen. Im nächsten Schritt erfolgte eine inhaltlich strukturierte qualitative Inhaltsanalyse der transkribierten Interviewtexte.196 Zur Kodierung wurde die QDA-Software MAXQDA verwendet.197 Dafür erfolgt zunächst eine initiierende Textarbeit, bei der wichtige Textstellen markiert werden und Bemerkungen sowie kleine Fallzusammenfassungen verfasst werden.198 Gemäß der subsumptiven Kodierung 199 wurden vor der Datenanalyse anhand des theoretischen Vorwissen inhaltliche Oberkategorien definiert.200 Diese Oberkategorien sind empirisch gehaltlos und dienen einer ersten Strukturierung der Textbausteine, was die anschließende inhaltliche Auswertung stark vereinfacht.201 Im Verlauf der Kodierung wurden zusätzliche Subkategorien, die in Zusammenhang mit den Forschungsfragestellungen stehen, induktiv anhand der Interviewinhalte hergeleitet.202 Diesen Kategorien wurden inhaltlich zugehörige Textabschnitte aller Experteninterviews zugeordnet. So wurde eine inhaltliche Gegenüberstellung der Aussagen verschiedener Experten zu den inhaltlichen Subkategorien ermöglicht.203 Auf Basis der kategorialen Zusammenfassung erfolgte anschließend die Identifikation der für die folgende Analyse relevanten Kernaussagen.204 Sowohl bezüglich der Datenerfassung, Transkription sowie der inhaltsanalytischen Auswertungstechnik wurden die Gütekriterien der qualitativen empirischen Forschung wie etwa Reliabilität, Validität, Objektivität sowie intersubjektive Nachvollziehbarkeit beachtet.205

[...]


1 Vgl. McAfee/Brynjolfsson (2012), S. 4 f.; Internationaler Controller Verein (2016), S. 1.

2 Vgl. Baars (2016), S. 174 f.; Agarwal/Dhar (2014), S. 444; Satzger et al. (2017), S. 27.

3 Vgl. Chen et al. (2012), S. 1165; Baars (2016), S. 174 f.

4 Vgl. Holsapple et al. (2014), S. 132; Delen/Demirkan (2013), S. 361.

5 Vgl. Internationaler Controller Verein (2016), S. 5; Behringer (2018), S. 111.

6 Vgl. Burow et al. (2017), S. 48; Bley et al. (2020), S. 48.

7 Vgl. Kappes/Leyk (2018), S. 4; Burow et al. (2017), S. 48.

8 Vgl. McAfee/Brynjolfsson (2012), S. 7 f.; Burow et al. (2017), S. 48; Schlatter et al. (2020), S. 59.

9 Vgl. Bley et al. (2020), S. 45.

10 Vgl. Weber/Schäffer (2020), S. 1; Küpper et al. (2013), S. 8; Lorson et al. (2013), S. 13-15.

11 Vgl. Horváth et al. (2019), S. 13; Weber/Schäffer (2020), S. 40. Controlling ist ein im deutschsprachigen Raum geprägter Begriff, daher wird im Folgenden die deutsche Controlling Definition aufgegriffen. Diese ist abzugrenzen vom anglophonen Management Accounting.

12 Vgl. Horváth et al. (2019), S. 46-48; Weber/Schäffer (2020), S. 25 f.

13 Vgl. International Group of Controlling (2011), S. 15.

14 Vgl. International Group of Controlling (2011), 23, 56; Weber/Schäffer (2020), S. 40.

15 Vgl. Behringer (2018), S. 3.

16 Vgl. International Group of Controlling (2011), S. 23; Lorson et al. (2013), S. 25.

17 Vgl. Lebefromm (2018), S. 2; International Group of Controlling (2011), S. 23.

18 Vgl. Horváth et al. (2019), S. 123.

19 Vgl. International Group of Controlling (2011), S. 23.

20 Vgl. Horváth et al. (2019), S. 123.

21 Vgl. Lorson et al. (2013), S. 185.

22 Vgl. Lebefromm (2018), S. 2 f.; Horváth et al. (2019), S. 123.

23 Vgl. International Group of Controlling (2011), S. 25.

24 Vgl. Horváth et al. (2019), S. 74 f.; Friedl (2019), S. 36.

25 Vgl. Küpper et al. (2013), S. 132; Horváth et al. (2019), S. 75.

26 Vgl. Schlatter et al. (2020), S. 59.

27 Vgl. Kappes/Leyk (2018), S. 4.

28 Vgl. Horváth et al. (2019), S. 134; Küpper et al. (2013), S. 433.

29 Vgl. International Group of Controlling (2011), S. 25.

30 Vgl. Horváth et al. (2019), S. 74 f.

31 Vgl. Horváth et al. (2019), S. 77 f.

32 Vgl. Behringer (2018), S. 101; Lorson et al. (2013), S. 222 f.

33 Vgl. Friedl (2019), S. 36; Schön (2018), S. 52-55.

34 Vgl. Behringer (2018), S. 102.

35 Vgl. International Group of Controlling (2011), S. 27; Behringer (2018), S. 87.

36 Vgl. Horváth et al. (2019), S. 108; Bley et al. (2020), S. 47 f.

37 Vgl. Behringer (2018), S. 87; Steiner (2012), S. 5.

38 Vgl. Schlatter et al. (2020), S. 59.

39 Vgl. Weber/Schäffer (2020), S. 325 f.; Kappes/Leyk (2018), S. 4.

40 Vgl. Isbruch et al. (2016), S. 762.

41 Vgl. Nann/Eichenberger (2018), S. 5; International Group of Controlling (2011), S. 28.

42 Vgl. Kappes/Leyk (2018), S. 4.

43 Vgl. International Group of Controlling (2011), S. 29 f.; Schön (2018), S. 49 f.

44 Vgl. Dillerup et al. (2020), S. 50.

45 Vgl. International Group of Controlling (2011), S. 29.

46 Vgl. Nann/Eichenberger (2018), S. 5; International Group of Controlling (2011), S. 28.

47 Vgl. International Group of Controlling (2011), S. 29.

48 Vgl. Internationaler Controller Verein (2012), S. 16.

49 Vgl. Internationaler Controller Verein (2012), S. 16.

50 Vgl. Morlidge/Player (2010), S. 45.

51 Vgl. Schlatter et al. (2020), S. 59.

52 Vgl. Internationaler Controller Verein (2016), S. 5; Tischler et al. (2018), S. 13 f.

53 Vgl. Kappes/Leyk (2018), S. 4; Bley et al. (2020), S. 48.

54 Vgl. Schlatter et al. (2020), S. 59.

55 Vgl. Steiner (2012), S. 28-33.

56 Vgl. Tversky/Kahneman (1974), S. 1124 Für eine umfassende Übersicht aller möglichen kognitiven Verzerrungen im Controlling vgl. Internationaler Controller Verein (2012), IX-XIII.

57 Vgl. Lies/Weger (2013), S. 39 f.

58 Vgl. Tversky/Kahneman (1974), 1124-1131.

59 Vgl. Tversky/Kahneman (1974), S. 1128 f.; Internationaler Controller Verein (2012), S. 17.

60 Vgl. Internationaler Controller Verein (2012), S. 14 f.

61 Vgl. Tversky/Kahneman (1974), S. 1127 f.

62 Vgl. Internationaler Controller Verein (2012), S. 12.

63 Vgl. Lies/Weger (2013), S. 43.

64 Vgl. Steiner (2012), S. 29. Teilweise auch als Sandbagging bezeichnet.

65 Vgl. Jensen (2003), S. 379-406.

66 Vgl. Fischhoff/Beyth (1975), S. 1-6.

67 Vgl. Lies/Weger (2013), S. 42 f.

68 Vgl. Internationaler Controller Verein (2012), S. 2; Ghavami (2020), S. 89.

69 Vgl. Satzger et al. (2017), S. 27.

70 Otte et al. (2018), S. 14; vgl. dazu ähnlich Baars/Kemper (2015), S. 222.

71 Vgl. Meier (2018), S. 6 f.; Baars/Kemper (2015), S. 224; Schön (2018), S. 418 f. Zum Teil werden auch die Dimensionen Wertbeitrag (Value) und Ergebnisgüte (Veracity) zusätzlich genannt.

72 Vgl. McAfee/Brynjolfsson (2012), S. 4; BITKOM (2014), S. 12; Schön (2018), S. 418.

73 Vgl. Agarwal/Dhar (2014), S. 444; McAfee/Brynjolfsson (2012), S. 5.

74 Vgl. Davenport et al. (2012), S. 24; Delen/Demirkan (2013), S. 360; Gleich et al. (2017a), S. 32.

75 Vgl. Otte et al. (2018), S. 14.

76 Vgl. BITKOM (2014), S. 12; Davenport et al. (2012), S. 23; Schön (2018), S. 419 f.

77 Vgl. Kappes/Leyk (2018), S. 5; BITKOM (2014), S. 127 f.; Buhl et al. (2013), S. 65.

78 Vgl. McAfee/Brynjolfsson (2012), S. 5; Ereth/Kemper (2016), S. 461.

79 Vgl. BITKOM (2014), S. 12; Otte et al. (2018), S. 15; Schön (2018), S. 419.

80 Vgl. Davenport et al. (2012), S. 23 f.; Otte et al. (2018), S. 15; Agarwal/Dhar (2014), S. 444.

81 Vgl. Meier (2018), S. 9-12. SQL-Datenbanken sind sogenannte relationale Datenbanken.

82 Vgl. Otte et al. (2018), S. 248; Meier (2018), S. 43-47; Ghavami (2020), S. 22 f.

83 Vgl. McAfee/Brynjolfsson (2012), S. 5; BITKOM (2014), S. 12; Buhl et al. (2013), S. 64.

84 Vgl. Ereth/Kemper (2016), S. 461; Chen et al. (2012), S. 1168.

85 Vgl. Chen et al. (2012), S. 1166; Chamoni/Gluchowski (2017), S. 9; Gleich et al. (2017a), S. 31.

86 Vgl. Horváth et al. (2019), S. 190; Buhl et al. (2013), S. 65; Chamoni/Gluchowski (2017), S. 9.

87 Eigene Darstellung, in Anlehnung an Ereth/Kemper (2016), S. 459.

88 Vgl. Baars/Kemper (2015), S. 222; Gluchowski et al. (2008), S. 89-93; Schön (2018), S. 405 f.

89 Vgl. Gluchowski et al. (2008), S. 93; Ghavami (2020), S. 14 f.

90 Vgl. Schön (2018), S. 408 f.; Bley et al. (2020), S. 45; Chamoni/Gluchowski (2017), S. 9.

91 Die Datenquellen umfassen betriebliche Informationssysteme wie CRM = Customer Relationship Management, SCM = Supply Chain Management, ERP = Enterprise Resource Planning sowie unternehmensexterne Quellen wie Nachrichten oder Online Dienste. Vgl. Baars (2016), S. 178.

92 Vgl. Ghavami (2020), S. 20 f.

93 Vgl. Baars/Kemper (2015), S. 224 f.; Bley et al. (2020), S. 45; Schön (2018), S. 442.

94 Vgl. Otte et al. (2018), S. 253-255; Baars/Kemper (2015), S. 225; Schön (2018), S. 429 f.

95 Vgl. Ereth/Kemper (2016), S. 459; Mehanna et al. (2016), S. 503; Gleich et al. (2017a), S. 35.

96 Vgl. Schön (2018), S. 380; Ereth/Kemper (2016), S. 459 f.; Otte et al. (2018), S. 8 f.

97 Vgl. Ereth/Kemper (2016), S. 459; Bley et al. (2020), S. 46; Baars et al. (2010), S. 99 f.

98 Vgl. Baars et al. (2010), S. 99-101; Mehanna et al. (2016), S. 503; Gleich et al. (2017a), S. 33.

99 Teilweise werden die Begriffe Big Data Analytics oder Advanced Analytics synonym verwendet.

100 Vgl. Ereth/Kemper (2016), S. 458; Chen et al. (2012), S. 1174.

101 Vgl. Gronau et al. (2016), S. 473; Bley et al. (2020), S. 45; Chamoni/Gluchowski (2017), S. 9.

102 Vgl. Ereth/Kemper (2016), S. 460; Baars (2016), S. 174; Delen/Demirkan (2013), S. 361.

103 Vgl. Gleich et al. (2017a), S. 31.

104 Vgl. Mehanna et al. (2016), S. 502.

105 Vgl. Holsapple et al. (2014), S. 132.

106 Vgl. Schön (2018), S. 380; Holsapple et al. (2014), S. 132; Iffert (2016), S. 16 f.

107 Vgl. Gronau et al. (2016), S. 475.

108 Vgl. Ereth/Kemper (2016), S. 460; Iffert (2016), S. 17; Delen/Demirkan (2013), S. 361.

109 Vgl. Nann/Eichenberger (2018), S. 6 f.; Chamoni/Gluchowski (2017), S. 12.

110 Vgl. Delen/Demirkan (2013), S. 361; Chamoni/Gluchowski (2017), S. 13.

111 Mehanna et al. (2016), S. 505; Delen/Demirkan (2013), S. 361.

112 Vgl. Mehanna et al. (2016), S. 502-508.

113 Vgl. Internationaler Controller Verein (2016), S. 8.

114 Vgl. Mehanna et al. (2016), S. 503; Internationaler Controller Verein (2016), S. 8.

115 Vgl. Mehanna et al. (2016), S. 504; Chamoni/Gluchowski (2017), S. 15.

116 Vgl. Schön (2018), S. 437.

117 Vgl. Mehanna et al. (2016), S. 504.

118 Vgl. Möller et al. (2016), S. 509-518.

119 Vgl. Schön (2018), S. 437; Mehanna et al. (2016), S. 504; Gleich et al. (2017a), S. 35.

120 Vgl. Bley et al. (2020), S. 47.

121 Vgl. Schön (2018), S. 437.

122 Vgl. Mehanna et al. (2016), S. 505; Schön (2018), S. 437.

123 Vgl. Stoetzer (2020a), S. 22 f.; Otte et al. (2018), S. 18.

124 Vgl. Otte et al. (2018), S. 18.

125 Die im Folgenden vorgestellten Methoden können nur einen Zusammenhang zweier Variablen feststellen. Um die Richtung der Ursache-Wirkung Beziehung festzustellen, werden sogenannte statistische Kausalanalysen bzw. sachlogische Kenntnisse über den Zusammenhang der Variablen benötigt. Vgl. weiterführend dazu Stoetzer (2020a), S. 3-20.

126 Vgl. Backhaus et al. (2018), S. 15; Otte et al. (2018), S. 18-20.

127 Eigene Darstellung, in Anlehnung an Otte et al. (2018), S. 18.

128 Vgl. Internationaler Controller Verein (2016), S. 8; Backhaus et al. (2018), S. 15.

129 Vgl. Backhaus et al. (2018), S. 15; Otte et al. (2018), S. 18.

130 Metrische Skalenniveaus bilden Merkmale ab, deren Ausprägungen sich mittels reeller Zahlen darstellen lassen. Dadurch können Rangunterschiede und Abstand sinnvoll interpretiert werden. Nominale Skalenniveaus bilden keine logische Reihenfolge zwischen den Merkmalen ab, sondern liefern lediglich Informationen über Gleich- oder Ungleichheit der Merkmalsausprägungen.

131 Vgl. Backhaus et al. (2018), S. 16; Stoetzer (2020a), S. 30.

132 Vgl. Stoetzer (2020a), S. 2; Backhaus et al. (2018), S. 16; Ghavami (2020), S. 45.

133 Vgl. Stoetzer (2020a), S. 32-37; Backhaus et al. (2018), S. 19; Ghavami (2020), S. 46.

134 Vgl. Backhaus et al. (2018), S. 17; Schön (2018), S. 56 f.

135 Vgl. Backhaus et al. (2018), S. 128 f.; Stoetzer (2020b), S. 174-181.

136 Vgl. Stoetzer (2020a), S. 110.

137 Vgl. Backhaus et al. (2018), S. 15; Stoetzer (2020a), S. 2 f.; Otte et al. (2018), S. 19.

138 Vgl. Backhaus et al. (2018), S. 20; Otte et al. (2018), S. 19.

139 Vgl. Backhaus et al. (2018), S. 11; Otte et al. (2018), S. 19.

140 Vgl. Internationaler Controller Verein (2016), S. 11.

141 Vgl. Otte et al. (2018), S. 19.

142 Vgl. Backhaus et al. (2018), S. 21.

143 Vgl. Friedl (2019), S. 35; BITKOM (2014); Ghavami (2020), S. 25.

144 Vgl. Chen et al. (2012), S. 1174 f.; Friedl (2019), S. 35; Otte et al. (2018), S. 20.

145 Vgl. Internationaler Controller Verein (2016), S. 12; Chen et al. (2012), S. 1174 f.

146 Vgl. Backhaus et al. (2018), S. 21; Ghavami (2020), S. 94.

147 Vgl. Internationaler Controller Verein (2016), S. 12; Ghavami (2020), S. 155 f.

148 Vgl. Backhaus et al. (2018), S. 21; Ghavami (2020), S. 94.

149 Vgl. Nann/Eichenberger (2018), S. 6 f.

150 Vgl. Nann/Eichenberger (2018), S. 8 f.

151 Vgl. Tischler et al. (2018), S. 31.

152 Vgl. Tischler et al. (2018), S. 5.

153 Vgl. Tischler et al. (2018), S. 23-25.

154 Vgl. Tischler et al. (2018), S. 29 f.

155 Vgl. Tischler et al. (2018), S. 11 f.

156 Vgl. Bley et al. (2020), S. 45.

157 Vgl. Bley et al. (2020), S. 49 f.

158 Vgl. Bley et al. (2020), S. 48 f.

159 Vgl. Bley et al. (2020), S. 51.

160 Vgl. Schlatter et al. (2020), S. 60 f.

161 Vgl. Schlatter et al. (2020), S. 61.

162 Vgl. Schlatter et al. (2020), S. 62 f.

163 Für eine Gegenüberstellung der Forschungsrichtungen vgl. Lamnek/Krell (2016), 16–38, 44-45.

164 Vgl. Baur/Blasius (2014), S. 46 f.

165 Vgl. Albers (2007), S. 6 f.; Kaiser (2014), S. 4. Neben Fallstudien kommen in der empirischen Forschung noch Feldstudien und Experimente zum Einsatz.

166 Vgl. Kuckartz (2018), S. 16-20.

167 Vgl. Lamnek/Krell (2016), S. 285-305.

168 Vgl. Lamnek/Krell (2016), S. 283.

169 Vgl. Borchardt/Göthlich (2007), S. 34 f.; Kaiser (2014), S. 4.

170 Vgl. Kuckartz (2018), S. 292 f.; Borchardt/Göthlich (2007), S. 35.

171 Vgl. Borchardt/Göthlich (2007), S. 37 f.

172 Vgl. Eisenhardt (1989), S. 534.

173 Vgl. Lamnek/Krell (2016), S. 463.

174 Vgl. Kaiser (2014), S. 5 f.

175 Vgl. Kaiser (2014), S. 2; Borchardt/Göthlich (2007), S. 38.

176 Vgl. Bogner et al. (2002), S. 37; Borchardt/Göthlich (2007), S. 38 f.

177 Vgl. Kaiser (2014), S. 6.

178 Die Interviews wurden sowohl mit Experten als auch Expertinnen geführt. Im Folgenden wird zur besseren Lesbarkeit ausschließlich die männliche Schreibweise verwendet.

179 Vgl. Kaiser (2014), 6-7, 92.

180 Vgl. Borchardt/Göthlich (2007), S. 39; Kaiser (2014), S. 5; Helfferich (2014), S. 560.

181 Vgl. Gläser/Laudel (2010), S. 143; Kaiser (2014), S. 52-54.

182 Vgl. Gläser/Laudel (2010), S. 146; Helfferich (2014), S. 567.

183 Vgl. Helfferich (2014), S. 560.

184 Vgl. Helfferich (2014), S. 566 für die Vor- und Nachteile einer starken Interviewstrukturierung.

185 Vgl. Anhang I (Controlling Mitarbeiter) sowie Anhang II (Unternehmensberater). Der wesentliche Inhalt der Fragen ist bei beiden Interviewleitfäden identisch.

186 Vgl. Anhang III. Zur Systematik eines Forschungsteaser vgl. Kaiser (2014), S. 77 f.

187 Dies ermöglichte den Befragten sich thematisch auf das Thema vorzubereiten und etwa relevante Informationen zu Prozessen in anderen Unternehmensbereichen zu erfragen.

188 Das Pseudonym richtet sich nach den Branchen der Unternehmen und dient der Anonymisierung der Ergebnisse, die Gesellschaftsformen sind zufällig gewählt.

189 Vgl. Gläser/Laudel (2010), S. 144.

190 Vgl. Bogner et al. (2002), S. 37.

191 Vgl. Lamnek/Krell (2016), S. 373-375.

192 Vgl. Eisenhardt (1989), S. 539. Die Zielsetzung der Fragen war vorrangig die Gewinnung neuer Erkenntnisse (Thesengenerierung) und nur nachrangig der zwischenbetriebliche Vergleich.

193 Vgl. Gläser/Laudel (2010), S. 135-142.

194 Vgl. Gläser/Laudel (2010), S. 148 f.

195 Für die Transkriptionsregeln vgl. Kuckartz (2018), S. 167 f.

196 Vgl. Kuckartz (2018), S. 101-110 für eine detaillierte Übersicht des Ablaufprozesses einer inhaltlich strukturierten qualitativen Inhaltsanalyse.

197 Vgl. Kelle/Kluge (2010), S. 60; Kuckartz (2018), S. 177-184.

198 Vgl. Kuckartz (2018), S. 101; Eisenhardt (1989), S. 539.

199 Beim subsumptiven Kodieren werden im Unterschied zum abduktiven Kodieren bereits vor der Kodierung inhaltliche Kategorien festgelegt. Die Methode ist besonders geeignet, um eine große Menge an qualitativen Daten effizient zu vergleichen und zu analysieren. Vgl. Kelle/Kluge (2010), 61-63, 68-70 für das Vorgehen bei der subsumptiven Kodierung.

200 Vgl. Kuckartz (2018), S. 176 f. Das Vorgehen wird auch A-priori Gruppenbildung genannt.

201 Vgl. Kelle/Kluge (2010), S. 68 f.; Mayring/Fenzl (2014), S. 548

202 Vgl. Kelle/Kluge (2010), S. 70; Kuckartz (2018), S. 97.

203 Vgl. Kelle/Kluge (2010), S. 76 f.; Mayring/Fenzl (2014), S. 548; Kaiser (2014), S. 105 f.

204 Vgl. Kaiser (2014), S. 108.

205 Vgl. Kuckartz (2018), S. 204 f.; Baur/Blasius (2014), S. 412 f.

Ende der Leseprobe aus 70 Seiten

Details

Titel
Predictive Analytics im Controlling deutscher Unternehmen. Auswirkungen auf Planungsprozesse
Untertitel
Auswertung von teilstrukturierten Experteninterviews
Hochschule
Universität Münster  (Lehrstuhl für BWL, insb. Internationale Unternehmensrechnung)
Note
2,0
Autor
Jahr
2020
Seiten
70
Katalognummer
V1064380
ISBN (eBook)
9783346478023
ISBN (Buch)
9783346478030
Sprache
Deutsch
Schlagworte
Predictive Analytics, Controlling, Business Analytics, Forecasting, Unternehmensplanung, Digitalisierung, Digital Finance
Arbeit zitieren
Florian Dick (Autor:in), 2020, Predictive Analytics im Controlling deutscher Unternehmen. Auswirkungen auf Planungsprozesse, München, GRIN Verlag, https://www.grin.com/document/1064380

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Predictive Analytics im Controlling deutscher Unternehmen. Auswirkungen auf Planungsprozesse



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden