Big Data im Controlling. Techniken zum Umgang mit großen Datenmengen


Seminar Paper, 2014

17 Pages, Grade: 1,3


Excerpt


Inhaltsverzeichnis

Abkürzungsverzeichnis

A Schafft Big Data das Controlling ab?

B Wie beeinflusst Big Data das Controlling?

C... Techniken zum Umgang mit Big Data
I. Technische Ansätze – die technologischen Voraussetzungen zur Informationsverarbeitung von Big Data
1. Serverlösungen durch Cloud Systeme
2. Neue Architekturen mit Hadoop und MapReduce
II. Methodische Ansätze – die analytische Informationsverarbeitung von Big Data
1. Data Mining
2. Vorhersagen
3. Optimierung
III. Visualisierung – Die Spitze des Eisberges
IV. Herausforderungen für das Controlling in Bezug auf Big Data

D... Die Zukunft des Controlling

Literaturverzeichnis

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

A. Schafft Big Data das Controlling ab?

Das weltweite Aufkommen elektronischer Daten nimmt in einem überwältigenden Ausmaß zu. Führt man sich dabei die Funktion des Controlling vor Augen, so scheint sich eine nie dagewesene Chance zu bilden. Der Controller hat unter anderem die Aufgabe, den Manager durch geeignete Informationen in seiner Entscheidungsfunktion zu unterstützen (insbesondere Reichmann [Controlling] 45). Allerdings zeichnet sich durch Big Data ein Trend ab, der diese Funktion des Controlling gefährden könnte. Big Data – verstanden als die effiziente Speicherung und Nutzung großer Datenmengen – ermöglicht in vielen Bereichen eine verstärkt quantitative Entscheidungsfindung mit, im Gegensatz zur bestehenden Praxis, vorhersagenden bzw. prädiktiven Informationen (vgl. McAfee/Brynjolfsson [Big Data] 62). Die Darstellung der Informationen wird dabei von Software übernommen. Verknüpft mit der Tatsache, dass die zugrunde liegenden Datenbestände nun in nahezu Echtzeit verarbeitet werden können, liefert Big Data dem Manager ein Werkzeug, welches bei ausreichender Sachkunde aufseiten des Managers die Informationsbereitstellung durch den Controller überflüssig macht. So betrachtet, kann Big Data das Controlling in seiner Informationsfunktion stark verändern (vgl. Weber [Controlling & IT] 27).

B. Wie beeinflusst Big Data das Controlling?

Big Data bezeichnet die Verwendung von Daten, die in bisher ungekanntem Ausmaß vorliegen, um diese in Geschäftsnutzen zu verwandeln (vgl. BITKOM [Praxiseinsatz] 5). Zur Definition von Big Data dienen die 3 V’s – Volume, Velocity und Variety – der Gartner Group (siehe Laney [3-D] 1ff).

Volume kennzeichnet die hohe elektronische Datenmenge, die einerseits generiert wird und andererseits abgespeichert werden muss. Die exponentielle Entwicklung diesem Feld wurde unter anderem in einer Studie von Hilbert und López nachgewiesen (Hilbert/Lopez [Kapazität] 63ff.). Sehr stark sinkende Preise für Speichermedien tragen zu der Entwicklung bei (vgl. Russom [Big Data] 9), dass vielen Unternehmen heutzutage Daten im Petabyte-Umfang zur Verarbeitung bereit stehen. Diese großen (verfügbaren) Datenmengen bilden die Basis für Big Data.

Velocity bezeichnet Geschwindigkeit und bezieht sich einerseits auf die Geschwindigkeit mit der Daten generiert werden und andererseits auf die Geschwindigkeit mit der Daten ausgewertet werden können. Ein Großteil der heutzutage entstehenden Daten ist bereits in Echtzeit verfügbar. So werden bspw. nach Fischermann und Hamann ([Datengold] 17) Daten über den Zustand einer Flugzeugturbine, permanent an deren Hersteller übersandt, um Unregelmäßigkeiten bereits in der Luft feststellen zu können und das Bodenpersonal über eventuelle Reparaturen zu informieren während die Maschine noch in der Luft ist). Der diesbezüglich limitierende Faktor war bisher vielmehr die Rechenleistung gängiger IT-Lösungen, um die großen Datenmengen auszuwerten bzw. zu bearbeiten. Dabei muss die Verarbeitungszeit mit der Datenmenge schritthalten (vgl. BITKOM [Praxiseinsatz] 21). Eine Auswertung der Daten der Flugzeugturbine über Stunden wäre nicht ausreichend, um das Bodenpersonal zu verständigen. Big Data Anwendungen machen eine derart schnelle Auswertung großer Datenmengen möglich und bilden die Basis für die Anwendbarkeit von Big Data.

Variety bezieht sich als Merkmal auf die Vielfalt der Daten. Große Datenmenge bestehen heute aus völlig unterschiedlichen Datenformaten. Die Daten kommen dabei bspw. von Sensoren, GPS-Signalen oder von Mitteilungen, Videos und Fotos aus dem Social Media (McAfee/Brynjolfsson [Big Data] 63). Dies kennzeichnet den eigentlichen Unterschied zwischen dem traditionellen Umgang mit großen Datenmengen und Big Data. Bisher wurde in Datenbanken, d. h. in tabellarisch organisierten Speicherlösungen wie Data Warehouse nach den zugrunde liegenden Zusammenhängen der Daten gesucht. Big Data Anwendungen machen eine Analyse verschiedener auch unstrukturierter Datentypen möglich.

Abbildung 1 zeigt drei wichtige Controlling-Instrumente, deren Verständnis und den Einfluss von Big Data auf das jeweilige Instrument. Es stellt sich nun die Frage wie Big Data das Controlling beeinflusst. Da Big Data sich auf die Datenebene bezieht, ist dort ein großer Einfluss zu erwarten, wo der Controller auf Daten und Informationen angewiesen ist bzw. mit diesen arbeitet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung1: Wichtige Instrumente des Controlling (in Anlehnung an Troßmann [Controlling] 123, 189, 159) und Einfluss von Big Data

C. Techniken zum Umgang mit Big Data

Die nachfolgend aufgezeigten Techniken im Umgang mit Big Data bilden einen Ausschnitt wichtiger Möglichkeiten Big Data zu verarbeiten. Abbildung 2 soll deren Zusammenspiel verdeutlichen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung2: Model zur Beschreibung des Umgangs mit Big Data

I. Technische Ansätze – die technologischen Voraussetzungen zur Informationsverarbeitung von Big Data

Wie aus Abbildung 2 deutlich wird, bilden die technischen Möglichkeiten Daten in großem Umfang zu verarbeiten die Basis für alle weiteren Überlegungen. Da in die Leistung der IT erheblich zugenommen hat, können heute Daten in großem Umfang (Volume) in nahezu Echtzeit (Velocity) gespeichert und bearbeitet werden. Eine besondere Herausforderung ist der Umgang mit unstrukturierten Daten (Variety), welche später genauer zu beschreiben ist.

1. Serverlösungen durch Cloud Systeme

Bei Server- bzw. Speicherlösungen ist Big Data nur sinnvoll mit sogenannten Cloud Systemen anwendbar. Diese vereinen zwei elementare Voraussetzungen für Big Data: Hohe Skalierbarkeit über verteilte Systeme. Skalierbarkeit bezeichnet die möglichst unkomplizierte Anpassbarkeit der Speichergröße an die Anforderungen der Unternehmen. Verteilte Systeme ermöglichen einzelne Rechenschritte auf unterschiedliche Systeme zu verteilen und so wesentlich schnellere Rechenzeiten zu erzielen (ähnlich zum Grid-Computing). Kombiniert mit sogenannten In-Memory Datenbanken kann aus technischer Sicht, die für Big Data notwendige hohe Geschwindigkeit der Datenverarbeitung erreicht werden. Die Kosten dieser Systeme können einerseits durch flexible Anpassung der vorzuhaltenden Speicherkapazität minimiert werden, andererseits bietet sich die Verteilung des Gesamtsystems auf verschiedene Subsysteme an, da das Grosch’sches Gesetz (dieses besagte, dass ein PC zum Preis von zwei einzelnen PCs mehr Leistung liefert als die beiden einzelnen PCs zusammen) nicht mehr gilt.

2. Neue Architekturen mit Hadoop und MapReduce

Wie vorangegangen beschrieben wurden bisher für große Datenmengen Data Warehouse Systeme eingesetz. Diese basieren auf sogenannten RDBMS (Relationalen Datenbank Managementsystemen), d. h. auf einer Tabellenstruktur. Abgerufen bzw. bearbeitet werden Daten mit Hilfe von SQL-Befehlen (Structured Query Language). Geeignet sind diese lediglich zur Verwaltung und Analyse strukturierter Daten, wobei Big Data (Variety) die übergreifende Arbeit mit strukturierten, semistrukturierten und unstrukturierten Daten erfordert (vgl. Kemper/Mehanna/Unger [BI] 117f.). Die state of the art Technologie bildet dabei Hadoop von Apache als Open Source System, welches die Möglichkeit liefert verschiedene Datenformate anzusprechen (Magnetic), flexibel die Servergröße an die Anforderungen von Big Data anzupassen (Apply) und gleichzeitig tiefe analytische Verfahren zulässt (Deep) – ein sogenanntes MAD System (vgl. Cuzzocrea [Revolution] 102). Hadoop wird auch als NoSQL-DB (Not only SQL Database) bezeichnet. MapReduce stellt dabei das zentrale Programmierparadigma dar um die Daten zu bearbeiten bzw. zu analysieren. Alternative kommerzielle Anbieter sind bspw. SAP mit HANA oder Komplettlösungen wie Oracle Big Data Appliance.

Excerpt out of 17 pages

Details

Title
Big Data im Controlling. Techniken zum Umgang mit großen Datenmengen
College
University of Hohenheim  (Fg. BWL insb. Controlling (510C))
Course
Controlling
Grade
1,3
Author
Year
2014
Pages
17
Catalog Number
V272582
ISBN (eBook)
9783656647775
ISBN (Book)
9783656647744
File size
533 KB
Language
German
Keywords
Big Data, Controlling, Einfluß, Techniken, Technologien, MapReduce, Hadoop, Business Analytics, Analytics, Business Inteligence, 3 Vs
Quote paper
B.Sc. der Wirtschaftswissenschaften Mark Mayer (Author), 2014, Big Data im Controlling. Techniken zum Umgang mit großen Datenmengen, Munich, GRIN Verlag, https://www.grin.com/document/272582

Comments

  • No comments yet.
Look inside the ebook
Title: Big Data im Controlling. Techniken zum Umgang mit großen Datenmengen



Upload papers

Your term paper / thesis:

- Publication as eBook and book
- High royalties for the sales
- Completely free - with ISBN
- It only takes five minutes
- Every paper finds readers

Publish now - it's free