Wertschöpfung durch Big Data und Analytics


Bachelorarbeit, 2018
46 Seiten, Note: 1,3

Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Abkürzungsverzeichnis

1. Motivation
1.1. Einführung
1.2. Ziel der Arbeit

2. Grundlagen im Big Data und Analytics Bereich
2.1. Begriffserklärung Big Data
2.2. Begriffserklärung Analytics
2.3. Die Datenstromanalyse
2.4. Einsatzgebiete von Big Data Analytics

3. Daten und deren Analysen als Mittel zur Wertschöpfung im Un- ternehmen
3.1. Datenanalysen im Unternehmen
3.2. Wertschöpfung durch Big Data im Allgemeinen
3.3. Wertschöpfung mithilfe der Datenstromanalysen und dem IoT

4. Quantifizierung der Wertschöpfung von Big Data und Analytics
4.1. Werterhebung im Unternehmen im Allgemeinen
4.2. Methoden zur Werterhebung von Datenanalysen

5. Fazit

Appendix

Literaturverzeichnis

Abbildungsverzeichnis

2.1. Big Data Charakteristik vgl. [Dou]

2.2. the process of knowledge discovery in databases [TLCV15, S.3]

2.3. Die drei Phasen eines digitalen Datenstroms [PP13]

3.1. Darstellung eines Projekt Dashboards [sma18]

3.2. BI&A Übersicht: Entwicklung, Einsatzgebiet und Forschungsfel- der vgl. [CCS12]

3.3. Datenstrom Wertschöpfung Grundtypen vgl. [PPW16]

4.1. Direkte und indirekte IT-Kosten [GM10, S.111]

4.2. Die Quantifizierungs Technik vgl. [Pow95]

4.3. Messgrößen für die wirtschaftliche Rentabilität vgl. [GP14]

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Motivation

1.1. Einführung

Im Zuge des Cambridge Analytica Skandals, der sich Ende März dieses Jahres zugetragen hat, wurden unerlaubterweise von etwa 87 Millionen Facebook Konten Daten benutzt, um potenzielle Wähler in den USA zu beeinflussen. [Tag18]. Als Konsequenz dessen haben viele Nutzer und Stakeholder des bekannten sozialen Netzwerks ihr Vertrauen in eben dieses verloren, was sich sofort negativ an der Börse für das Unternehmen bemerkbar machte. Im Zeitraum von nur wenigen Tagen nach Bekanntmachung des Datenmissbrauchs sank der Börsenwert von Facebook um ca. 50 Billionen Dollar [RF18]. Über die ethische Verwendung von Datenanalysen insbesondere von Nutzerdaten lässt sich streiten jedoch ist am Bei- spiel von Cambridge Analytica ersichtlich, dass es eine Gradwanderung zwischen signifikanten Nutzen für die Anwender und negativen rechtlichen Konsequenzen aus Gründen wie des Nichteinhaltens des Datenschutzes ist. Allerdings bietet das Sammeln, Aufbereiten und Analysieren von Daten ein beträchtliches Poten- zial zur Wertschöpfung für immer mehr Unternehmen, die sich mögliche neue Einsichten aus den Daten nicht entgehen lassen wollen. Die Möglichkeiten zur Wahlmanipulation wie im Falle von Cambridge Analytics zeigen deutlich, dass man durch die richtige Aufbereitung von wertvollen Daten und deren geschickter Verwendung sogar in gewisser Weise Macht erhalten kann. Es lässt sich nicht von der Hand weisen, dass den Daten aufgrund dieser Tatsache ein Wert zugrunde liegen muss, der womöglich sogar messbar ist. Die Messbarkeit eines spezifischen Wertes für Daten würde es ermöglichen schon im Vorhinein zu entscheiden, ob es gewinnbringend wäre eine Analyse durchzuführen oder ob man sich doch gegen eine Analyse entscheidet, da die potenziellen Kosten den Nutzen der Daten überwiegen. Aber auch eine Kennzahl, die im Nachhinein möglichst genau an- geben kann, wie hoch die Rendite einer Analyse ist, hat Aussagekraft und kann zukünftige Investitionsentscheidungen unterstützen. Aus diesen Gründen wäre eine Messgröße zur Bestimmung des Wertes einer Datenanalyse sehr sinnvoll und würde mehr Klarheit in Bereichen wie dem Controlling bringen. ein denkbarer Bachelorarbeit Daniel Kapferer, 2018 Begriff dafür, angelehnt an den Return On Investment (ROI), könnte ein Return On Analytics Investment (ROAI) sein.

1.2. Ziel der Arbeit

Damit das Thema „Wertschöpfung durch Big Data und Analytics“ und seine Facetten erläutert werden können, werden in Kapitel II zunächst die Grundlagen gelegt, wobei die Begriffe „Big Data“, „Analytics“ und die Datenstromanalyse erklärt werden. Des Weiteren sollen die Einsatzgebiete beschrieben werden, in denen Big Data & Analytics verwendet werden. Kapitel III widmet sich dabei explizit dem Themenkomplex Daten und deren Analysen. Darin werden ver- schiedene gängige Analyseformen aufgezeigt, welche schon in Unternehmen Verwendung finden und signifikant zur Wertschöpfung beitragen können. Die Datenstromanalyse soll dabei besondere Beachtung finden. Ziel dieses Kapitels ist es herauszufinden, wie die Wertschöpfung durch Big Data in verschiedenen Bereichen ermöglicht wird und welche Voraussetzungen dafür vorliegen müssen. In Kapitel IV sollen zunächst gängige dynamische und statische Methoden zur Quantifizierung der Wertschöpfung im Unternehmen veranschaulicht werden. Um die besondere Kostenstruktur im IT Bereich zu berücksichtigen, wird die Total Cost of Ownership (TCO) mit eingebunden. Der zweite Abschnitt des Kapitels beschäftigt sich speziell mit der Quantifizierung von Datenanalysen. Es soll dabei aufgezeigt werden, inwieweit Maßzahlen zur Quantifizierung von Datenanalysen bereits existieren und welche Herausforderungen bei der Quantifizierung zu über- winden sind. Ferner soll ein Ansatz gefunden werden, wie man einen möglichen „Return on Analytics“ erstellen könnte. Abschließend sollen die Erkenntnisse zusammengetragen werden und geklärt werden, ob bzw. wie Big Data und Ana- lytics zur Wertschöpfung beitragen können und inwiefern diese Wertschöpfung messbar gemacht werden kann.

2. Grundlagen im Big Data und Analytics Bereich

2.1. Begriffserklärung Big Data

Laut einer Prognose des Marktforschungsunternehmens IDC wird sich die Menge der weltweit jährlich generierten Daten von etwa 16,1 Zettabyte im Jahr 2016 auf 163 Zettabyte (ZB) im Jahr 2025 mehr als verzehnfachen. Würde man versuchen wollen die Datenmenge im Jahr 2016 auf handelsübliche Festplatten mit einer Größe von 1 Terrabyte (TB) zu speichern, bräuchte man ca. 17 Milliarden davon 1. Dieses Datenvolumen kann eine Fülle von Möglichkeiten eröffnen, wenn man es mit Techniken der Big Data Analyse brauchbar macht. Doch was versteht man zunächst einmal genau unter dem Begriff „Big Data“?

Es gibt keine eindeutige Definition für Big Data, vielmehr gibt es eine Vielzahl an Definitionen, die von den jeweiligen Interessengruppen, seien es Hochschulen oder Unternehmen wie Oracle, IBM oder Microsoft geprägt wurden [WB13]. Allerdings umfasst eine der meist zitierten Definitionen des Analysten Dough Laney die Charakteristiken Volume, Velocity und Variety. Big Data zeichnet sich demnach dadurch aus, dass die Daten sehr groß sind, schnell generiert und übermittelt werden und in unterschiedlichen Formaten bestehen sowie aus zahlreichen Quellen erfasst werden [Dou].

Im Laufe der Zeit haben sich neben den ursprünglichen 3 Vs Volume, Velocity und Variety noch weitere Charakteristiken eingebürgert, wie u.A. Veracity, welcher von IBM [IBM] in Verbindung mit Gartner [BL] sowie NIST geprägt wurde und die Genauigkeit und den Wahrheitsgehalt der Daten beschreibt. Da sich diese Bachelorarbeit mit der Wertschöpfung von Big Data und Analyticsc befasst, soll insbesondere die Value Komponente von Big Data beleuchtet werden. Unter Value versteht man demnach den Wert, der sich aus ökonomischer und sozialer Hinsicht aus den Daten ergibt [Cha17]. Der Wert kann aber auch als „Fähigkeit aus den Daten wertvolle Informationen zu extrahieren, die Erkenntnisse für das Unternehmen erzielen und bei der Entscheidungsfindung nützlich sind “ verstanden werden [SFGJ15]. Eine weitere bedeutende Charakteristik ist Variabi- lity, welche die Veränderung des Datensatzes an sich in Form von abweichender Struktur, Größe oder Übertragungsrate bezeichnet. Darüber hinaus finden auch noch die Begriffe Validity, Volatility und Visualization in Verbindung mit Big Data Verwendung, auf diese soll aber im Folgenden nicht das Hauptaugenmerk gelegt werden. [Cha17]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.1.: Big Data Charakteristik vgl. [Dou]

Neben diesen Charakteristiken von Big Data ist es noch wichtig zu wissen, dass sich Big Data sowohl aus strukturierten Daten als auch semi- bzw. unstrukturier- ten Daten zusammensetzt. Der Großteil der verwendeten Daten hat sich historisch gesehen aus strukturierten Daten zusammengesetzt, welche in Datenbanken in Tabellenform gespeichert und mit eindeutigen Werten versehen wurden. [FV16, S.237]. Unstrukturierte Daten hingegen können hingegen Bilder, Videos, Texte sein oder auch andere Formen annehmen. Wichtig bei der Unterscheidung ist, dass diese Daten nicht auf eine vordefinierte Art und Weise organisiert sind und auch nicht in einem bereits definierten Datenmodell verwendet werden [Cha17, S.10]. Semistrukturierte Daten hingegen haben mit unstrukturierten Daten gemeinsam, dass sie ebenfalls nicht in einem vordefinierten Datenmodell vorzufinden sind, je- doch werden sie mit sogenannten Tags oder Markern versehen, die es ermöglichen Daten Elemente von einander zu trennen [MCB+, S.33]. Diese Separierung der Daten kann dann dabei helfen nur für die Verarbeitung relevante Datentypen zu analysieren. Sie treten in Formaten wie Extensible Markup Language (XML) oder Java Script Object Notation (JSON) auf, die den Vorteil gegenüber unstrukturier- ten Daten besitzen, dass eine übergreifende Struktur aufweisen, die nachfolgende Bearbeitung erleichtert [Cha17, S.10].

Nachdem die Grundbegriffe im Big Data Bereich geklärt wurden, werden im Fol- genden notwendige Begriffe im Bereich Analytics erläutert, die zum Verständnis beitragen sollen. Gleichzeitig soll die Verknüpfung von Big Data und Analytics geliefert werden.

2.2. Begriffserklärung Analytics

„Analytics is the synthesis of knowledge from information.”[Cha17, S.15]. Diese Definition bietet zwar einen ersten Anhaltspunkt, jedoch kann man sich darunter noch nichts genaues vorstellen. Zum Zweck des besseren Verständnisses werden wichtige Begrifflichkeiten geklärt und Probleme mit Big Data Analytics aufge- zeigt.

Traditionell besteht „Knowledge discovery in databases“ (KDD) aus den Teilpro-

zessen Gathering, Selection, Preprocessing, Transformation, Data Mining, Evalua- tion und Interpretation [Fay96]. Dabei werden zunächst in der Input-Phase Daten aus den zusammengetragenen Quellen ausgewählt. Anschließend werden die Da- ten vorverarbeitet, indem die bisherigen Daten mithilfe von Filtern von unnötigen, inkonsistenten oder nicht vollständigen Daten bereinigt werden. So entstehen erste brauchbare Daten. Daraufhin werden die Daten, welche sich noch durch eine hohe Variety auszeichnen, transformiert in eine leichter zu verarbeitende Form. Dadurch verringert sich zwangsläufig das Datenvolumen, wodurch die Da- tenanalyse vereinfacht wird und genauere Resultate erreicht werden. [TLCV15] „[...] Jeglicher Versuch die Rohdaten anzusehen, würde von dem Volumen der verfügbaren Information überwältigt werden, aufgrund der untragbaren Größe von Big Data “ [GL17, S.4f], zeigt deutlich, dass der Schritt der Vorverarbeitung für die Big Data Analyse unabdingbar ist.

Im nächsten Schritt der Datenanalyse werden durch das sogenannte Data Mi- ning die versteckten Informationen oder Muster aus den Daten durch das KDD sichtbar gemacht. Im letzten Schritt dem sogenannten Output werden die Infor- mationen aus dem vorherigen Schritt evaluiert und interpretiert (2.2). Im Kapitel

3.1 wird auf die Datenanalyse nochmal ausführlich eingegangen und es werden

verschiedene Formen der Datenanalyse präsentiert [TLCV15].

Während man vor einigen Jahren noch einzig und alleine mit einfachen sta- tistischen Analysen aus Datenbanken zuvor eingetragene, strukturierte Daten auswertete, bieten sich heute neue Möglichkeiten durch das Ausschöpfen von nie zuvor dagewesenen Mengen an Daten, die vor 10-20 Jahren noch nicht denkbar

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2.: the process of knowledge discovery in databases [TLCV15, S.3]

gewesen wären [CCS12]. Big Data hat jedoch seine Tücken bei der Verarbei- tung denn es zeichnet sich dadurch aus, dass es „sehr groß, hochdimensional, heterogen, komplex, unstrukturiert, unvollständig und mit Fehlern behaftet ist, sowie bedeutungslos “ sein kann [MZW14]. Mit dieser Beschreibung ist es leicht sich vorzustellen, dass sich eine Analyse solcher Daten mit herkömmlichen Ana- lysemöglichkeiten als schwierig erweisen kann und auf andere Weise als bei strukturierten Daten ausgewertet werden muss. Klassische Datenbank Manage- ment System (DBMS) haben vor Allem Probleme darin die Daten in adäquater Zeit in ein System zu importieren und es scheitert an er Skalierbarkeit, welche für solch große Datenmengen nötig ist [Mad12, S.4]. Aus diesem Grund müssen neue Lösungen gefunden werden, welche es ermöglichen die Daten effektiv und effizient zu verarbeiten um wertvolle Information zu erhalten. Einen Teil tragen dabei Methoden wie das Sampling und Compression bei. Diese Datenredukti- onsmethoden erlauben es die Größe der Daten merklich zu reduzieren, was eine schnellere und vor Allem Kostengünstigere Methode ist. [TLCV15]

2.3. Die Datenstromanalyse

Nachdem die Grundlagen zu Analytics gelegt worden sind, sowie auf die Proble- me der Verarbeitung eingegangen wurde, beschäftigt sich der folgende Abschnitt mit der Definition eines Datenstroms, der Einordnung in die Big Data Datenverar- beitung und den möglichen Einsatzgebieten. „Unter einem "Datenstrom"versteht man kontinuierlich übersandte Datensätze, deren Größe, Menge sowie schnelles Aufkommen verbieten, sie vor der Verarbei- tung zu speichern.“ [BFO04, S.1] Es lässt sich klar erkennen, dass sich zunächst zwei der typischen Eigenschaften von Big Data, nämlich das Datenvolumen und die Geschwindigkeit bei Datenströmen wiederfinden. Die Kategorisierung der Datenströme in strukturierte- sowie semi- und unstrukturierte Daten macht er- sichtlich, dass auch eine weitere Eigenschaft von Big Data - Variety - anzutreffen ist.[AGT14, S.46]

Auch wenn typische Eigenschaften von Big Data bei Digitalen Datenströ- men (DDSs) anzutreffen sind, ist es nötig diese beiden klar voneinander abzugren- zen. Bei Big Data werden i.d.R. enorme Mengen an statischen Daten verwendet, um daraus neue Informationen abzuleiten. DDSs sind dagegen dynamischer Natur, d.h. die Datenquellen können sich im Laufe der Zeit verändern, wodurch man in Echtzeit auf bestimmte Sachverhalte reagieren kann. Digitale Datenströme durchlaufen grundsätzlich drei Phasen, die im Folgenden dargestellt werden (3.1). In der ersten Phase werden die Daten erzeugt, z.B. in der Form von Standortdaten, Social Media Posts, Sucheingaben oder Sensordaten. Um die Voraussetzung eines Datenstroms zu erfüllen, dürfen diese Ereignisse jedoch nicht einzeln betrachtet werden, sondern es muss zwangsläufig eine Abfolge dieser einzelnen Ereignis- se bestehen. Die zweite Phase wird Stream"genannt und zeichnet sich dadurch aus, dass die "Daten verfügbar [sind], kanalisiert und als kontinuierlichen Strom übertragen"werden. Es können dabei bestimmte Technologien zur Generierung des Kanals verwendet werden, in dem die Daten gespeist werden. Des Weiteren können die Daten aus einer konkreten Quelle fließen und der Inhalt kann eine spezielle Form aufweisen. Zuletzt kann der Datenstrom anhand seines rechtlichen Status charakterisiert werden. In der letzten Phase der sogenannten "Datenerfas- sung"werden die Daten in den Datenströmen schließlich herangezogen, um damit letztendlich einen Wert zu schaffen. Dazu müssen die Daten zuvor jedoch mit weiteren kontextbezogenen Informationen angereichert werden. [PP13]

Bei der Analyse von Stromdaten können jedoch Probleme aufgrund der charak- teristischen Merkmale wie etwa dem hohen Volumen oder der Geschwindigkeit auftreten [GGR16, S.1]. Eine große technische Herausforderungen besteht dem- nach darin, in möglichst kurzer Zeit aus der Fülle der Informationen brauchbare Informationen herauszufiltern, um die Aktualität der Daten zu gewährleisten [JGL+14]. Traditionelle DBMS sind schlicht nicht dafür entworfen worden Da- tenströme mit deren speziellen Eigenschaften in das System zu laden [Bri02, S.1], da diese auf dem Konzept aufbauen, dass Daten persistent gespeichert werden, d.h. deren Zustand bleibt über einen längeren Zeitraum gleich [GGR16, S.1].

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.3.: Die drei Phasen eines digitalen Datenstroms [PP13]

Aus diesem Grund wurden in den letzten Jahren neue Methoden wie etwa Algo- rithmen, komprimierte Daten Erfassung oder Datenstrom Management Systeme entwickelt um die Komplikation bei der Verarbeitung von Datenströme zu lösen [Mut11]. Diese Entwicklungen kommen natürlich der Datenstromanalyse zugute, die mittlerweile in vielen Bereichen eingesetzt werden.

2.4. Einsatzgebiete von Big Data Analytics

Die möglichen Einsatzgebiete von Big Data Analytics sind aufgrund der im- mer größer werdenden Datenmengen in beinahe allen Bereichen unseres Lebens mannigfaltig. Zunächst wird auf die Relevanz der Datenstromanalyse in den verschiedenen Einsatzgebieten eingegangen der. Danach sollen exemplarisch die Einsatzgebiete aufgezeigt werden, die potenziell eine hohe Wertschöpfung versprechen. Darunter fallen die Bereiche Cyber Security, Social Media Analytics und Internet of Things (IoT), die in dieser Reihenfolge genauer betrachtet werden.

Das Ausschöpfen von Datenströmen und ihrem konstanten und sehr umfang- reichem Fluss an Daten sind zwar eine große Herausforderung, jedoch bieten sich enorme Wertschöpfungsmöglichkeiten. Dabei reichen die Einsatzgebiete von Festnetz- sowie Internetprovidern, die den Datenverkehr ihrer Nutzer analysieren [GGR16, S.1], über die Auswertung von Kreditkarten Transaktionsdetails [CFPR], bis hin zu Systemüberwachung und -Steuerung von Verkehr, Logistik oder Netz- werken. Auch in der Astronomie oder Meteorologie finden Datenstromanalysen statt, um mit den gewonnen Informationen rechtzeitig auf Umwelteinwirkungen vorbereitet zu sein [BFO04, S.1].

In dem Bereich Cyber Security können beispielsweise mithilfe von High- Performance Computing Cluster (HPCC), einer Analytics Plattform, forensische Analysen durchgeführt werden, die in diesem Ausmaß mit gängigen Analyse Me- thoden und ohne der Zuhilfenahme von Big Data so nicht denkbar wären. Möglich gemacht wird das dadurch, dass zunächst die Qualität und Genauigkeit der Daten erhöht wird, indem die Daten, die mit Tags versehen wurden mit historischen Da- ten verglichen werden. So lassen sich "falsche negative"Befunde minimieren, d.h.

scheinbar unschädliche Aktivitäten ,die dennoch eine größere Gefahr sein können, werden aufgedeckt. Außerdem erlaubt HCCP eine sehr schnelle Verarbeitung von Rohdaten wie etwa Protokolldateien , die hunderte Terrabyte übersteigen können. [FV16, S.335]

Widmet man sich dem Einsatzgebiet Social Media, finden sich zahlreiche Anwen- dungsbeispiele für Big Data Analytics. Unter Social Media versteht man Online Plattformen, welche es den Benutzern ermöglichen Inhalte zu erstellen und zu teilen. Darunter fallen soziale Netzwerke, Blogs, Media-Sharing Plattformen, Mikroblogs, Wikis und viele weitere. Was dieses Einsatzgebiet so interessant macht, ist die Grundeigenschaft, dass Social Media stark auf Daten aufbaut und somit eine ideale Voraussetzung für Big Data Analytics schafft. Die Analysen können sich einerseits auf die Inhalte beziehen, die Benutzer posten, wie etwa Texte, Bilder, Videos, oder Produktrezensionen. Andererseits kann aber auch die Struktur eines sozialen Netzwerks unter die Lupe genommen werden. Dabei können Erkenntnisse aus den Beziehungen der Benutzer untereinander gewonnen werden. [GH15]

Der Trend geht dabei immer mehr in Richtung Verfügbarkeit von Inhalten in Echzeit und Personalisierung, was Datenstromanalysen in zunehmendem Maße notwendig macht [KKKG14].

Ein weiteres wichtiges Einsatzgebiet für Big Data und Analytics ist das Internet of Things. Darunter versteht man ein globales Netzwerk von Maschinen und Geräten, die untereinander interagieren können [LL15]. Diese können z.B. PCs, Smartphones, internetfähige Sensoren, Smartwatches oder Smarthome Geräte sein, wobei deren Menge von 22.9 Milliarden im Jahr 2016 laut Schätzungen auf bis zu 50 Milliarden Geräte im Jahr 2020 steigen wird [AYH+17]. Die überwäl- tigende Menge an Daten, die von diesen Apparaten übertragen werden, bieten ein enormes Wertschöpfungspotenzial z.B. bei der Bestimmung des Kunden Verhaltens oder im Gesundheitssektor zur Überwachung der gesundheitlichen Verfassung der Benutzer [LL15].

Wie sich die Wertschöpfung in dem Teilbereich IoT in Kombination mit der Da- tenstromanalyse genau ergeben kann, wird ausführlich in Kapitel 3.2 diskutiert.

3. Daten und deren Analysen als Mittel zur Wertschöpfung im Unternehmen

Nachdem mögliche Einsatzgebiete von Big Data Analytics offengelegt worden sind, ist es an der Zeit sich mit der Wertschöpfung in diesen Bereichen zu befas- sen. Hierbei soll die Value Komponente von Big Data besonders berücksichtigt werden. Doch zuvor sollen in Kapitel 3.1 die verschiedenen Formen der Daten- analyse im Unternehmen vorgestellt werden, die nötig sind um Wertschöpfung zu betreiben. Außerdem werden elementare Begriffe erläutert, die im Verlauf dieser Arbeit benötigt werden, um auf die Quantifizierung der Wertschöpfung eingehen zu können. In Kapitel 3.3 wird insbesondere auf die Wertschöpfung durch die Datenstromanalyse eingegangen, wobei das IoT eine tragende Rolle spielt.

3.1. Datenanalysen im Unternehmen

Um die gesammelten und/oder erzeugten Daten im Unternehmen nutzen zu kön- nen, werden im im Rahmen der Geschäftsanalytik im Unternehmen generell drei verschiedene Analyseformen verwendet, auf die im folgenden näher eingegangen werden soll.

Die deskriptive Analyse identifiziert, klassifiziert und zählt Dateien aus der Ver- gangenheit mit dem Ziel herauszufinden wie sich das Unternehmen aktuell schlägt.

Es lässt sich somit z.B. darstellen wie hoch der Gewinn in der vergangen Peri- ode war und wie hoch dieser im Vergleich zu vorherigen Perioden ist [CRC14, Kapitel 2, S.1]. Die deskriptive Analyse bietet außerdem Analysewerkzeuge wie Berichte, Dashboards oder sogenannten Scorecards an, um die Analyse zu erleichtern[CRC14, Kapitel 2, S.1]. Dashboards stellen unter Anderem Key Pe- formance Indicator (KPI)s, also wichtige Kennzahlen dar, „[...] die sich auf den Erfolg, die Leistung oder Auslastung des Betriebes, seiner einzelnen organisatori- schen Einheiten oder einer Maschine bezieh[en]. “[Gab18]. (Balanced) Scorecards dagegen ergänzen klassische finanzielle Kennzahlen um weitere Perspektiven, die zur Strategiefindung des Unternehmens beitragen [Web18]. Mithilfe dieser Analysewerkzeuge können die Informationen aus den Analysen so übersichtlich dargestellt und zusammengefasst werden, dass für Entscheidungsträger ersichtlich wird, was zu tun ist [AGT14, S.186]. Ohne dieser aufschlussreichen und essentiell wichtigen Visualisierung könnten die Resultate aus den Analysen somit nicht ihr volles Potential entfalten oder womöglich gar keinen Mehrwert bieten [AGT14, S.186]. Bei der Analyse von Datenströmen kommt dabei erschwerend dazu, dass die zugrunde liegenden Analysetechniken dauerhaft Berechnungen durchführen müssen, die dann anschließend wieder visualisiert werden. [AGT14, S.343].

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3.1.: Darstellung eines Projekt Dashboards [sma18]

Die nächste Form ist die sogenannte Predictive Analytics, die die Trends der Daten analysiert und aus diesen historischen Werten Prognosen für die zukünftige Entwicklung aufstellt. Somit kann präziser für die Zukunft geplant werden und verstanden werden, was passiert ist. [CRC14, Kapitel 2, S.1] Dabei werden einerseits empirische Methoden zur Vorhersage benutzt und andererseits wird die Vorhersagekraft der Modelle anhand von speziellen Methoden geprüft [SK11]. Die Prescriptive Analytics geht noch einen Schritt weiter und ermöglicht es neben der Vorhersage auch die optimale Entscheidung zu treffen [CRC14, Kapitel 2, S.1]. Entscheidungsträgern werden hierbei potenzielle Ausgänge unter der Beachtung diverser Szenarien gezeigt, die Entscheidungen erleichtern sollen. Hilfestellungen geben Optimierungen, Simulationen oder Was-wäre-Wenn-Analysen, die sich stets an neue Inputs anpassen. [SSY18]

[...]


1 Umrechnung von 16.1 Zettabyte ergibt 17 287 243 366.4 Terrabyte

Bachelorarbeit Daniel Kapferer, 2018

Ende der Leseprobe aus 46 Seiten

Details

Titel
Wertschöpfung durch Big Data und Analytics
Hochschule
Universität Regensburg  (Informationssysteme)
Note
1,3
Autor
Jahr
2018
Seiten
46
Katalognummer
V446066
ISBN (eBook)
9783668827424
ISBN (Buch)
9783668827431
Sprache
Deutsch
Schlagworte
Wertschöpfung, Big Data, Analytics, Internet of things, IoT, Stream Processing, Volume, Veracity, Value, Variety, Velocity, Datenstrom, Analyse, BWL, Wirtschaftsinformatik, Computer Science
Arbeit zitieren
Daniel Kapferer (Autor), 2018, Wertschöpfung durch Big Data und Analytics, München, GRIN Verlag, https://www.grin.com/document/446066

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Wertschöpfung durch Big Data und Analytics


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden