Big Data im Talent Management. Eine systematische Analyse


Bachelor Thesis, 2014

53 Pages, Grade: 2,0

Anonymous


Excerpt

1. Einleitung

1.1 Allgemeine Problemstellung

1.2 Zielsetzung der Arbeit

2. Theoretische Grundlagen

2.1 Big Data – ein neuer Megatrend

2.1.1 Digitale Daten und deren Rolle in der Vergangenheit

2.1.2 Big Data als neue Kernkompetenz

2.1.3 Big Data in Zusammenhang mit aktuellen IT-Megatrends

2.2 Die vier V

2.2.1 Volume

2.2.2 Velocity

2.2.3 Veracity

2.2.4 Variety

2.3 Anforderungen an Big Data

2.4 Personenbezogene Daten

2.4.1 Relevante Daten für den Personalbereich

2.4.2 Big Data versus Datenschutz – unüberbrückbare Gegensätze

3. Untersuchungsrahmen

3.1 Mentales Modell

3.2 Methodik

4. Untersuchung

4.1 Data Scientist und Data Artist

4.2 Business Intelligence als Basis für prognostizierende Analytik

4.2.1 Business Intelligence-Lösungen

4.2.2 Self-Service-BI

4.2.3 In-Memory-Datenbanken

4.2.4 Der MapReduce-Ansatz

4.2.5 Data Mining

4.3 Predictive Analytics

4.3.1 Ein Blick in die Zukunft

4.3.2. Das Reifegrad-Modell

4.4 Einsatzmöglichkeiten im Talent Management

4.4.1 Personalplanung

4.4.2 Personalrekrutierung

4.4.3 Personalentwicklung

4.4.4 Personaleinsatz

5. Ergebnisse

5.1 Zusammenfassung

5.2 Limitationen

5.3 Implikationen für die Forschung

5.4 Implikationen für die Praxis

5.5 Ausblick

Literaturverzeichnis


1. Einleitung

 

1.1 Allgemeine Problemstellung

 

In den meisten Unternehmen werden heutzutage immer noch wichtige und risikobehaftete Entscheidungen rein nach dem Bauchgefühl getroffen. Eine Untermauerung mit Daten und Fakten findet häufig erst im Anschluss statt.[1] Die Zukunft sieht allerdings anders aus. Das sogenannte „guesswork“ – definiert als das reine Handeln nach Erfahrung, gutem Gefühl oder der Intuition[2] - wird bald größtenteils der Vergangenheit angehören. Grund dafür ist die ansteigende Technisierung in allen Lebensbereichen. Die moderne Welt ist durch eine zunehmende Vernetzung ihrer Akteure gekennzeichnet, was wiederum in eine aktivere Kommunikation mündet. Dadurch kommt es zu einer springflutartigen Vermehrung von vielfältigen Daten, die intern in Unternehmen oder extern im Internet anfallen. Jene Daten, gepaart mit der Dynamik unserer Umwelt, ergibt eine Fließgeschwindigkeit, die mit herkömmlichen Formen der Informationsverarbeitung nicht mehr zu bewältigen ist.[3] Doch wo besteht der Sinn bei solch einer massiven Ansammlung von zunächst nutzlosen Informationen in den jeweiligen Unternehmen? Die Antwort liefert Big Data: Wenn man diese Datenflut mittels intelligenten Technologien sinnvoll in Echtzeit sammeln, aufbereiten, korrelieren und analysieren könnte, würde das Management mehr Sicherheit bei der Entscheidungsfindung bekommen und könnte einen Mehrwehrt generieren, der großen Einfluss auf den Erfolg sämtlicher Unternehmensbereiche hätte. Dieses Szenario ist seit einigen Jahren nicht mehr Wunschdenken, sondern aktuell und greifbar nah. Fakten ersetzen das Bauchgefühl, Big Data gilt als der Trend der nächste Jahre.[4] Momentan befinden sich die meisten klassischen Unternehmen in der Situation den Begriff Big Data bloß einmal gehört zu haben. Um jedoch auf den Geschmack gezielter Auswertung großer Mengen an unstrukturierten Daten zu kommen, sind jedoch spezielle Expertise und Impulse von Nöten.[5] Die Unternehmen müssen sich ihr Know-how zunächst extern beschaffen, um letztendlich unternehmensintern zu analysieren, wie die neuen intelligenten Technologie- und Softwaremöglichkeiten effizient genutzt werden können. Die Informationsverarbeitung komplexer Datenmassen gilt als einer der größten Herausforderungen für Wirtschaft und Gesellschaft. Während in der Vergangenheit noch klassische Business Intelligence-Lösungen dafür zuständig waren, historische Daten präzise auszuwerten und vergangene Zusammenhänge aufzudecken, so werden in der Zukunft eher prognostizierende Modelle erforderlich sein. Laut den Experten von Gartner Inc., sollen bis 2014 rund 30% aller analytischen Anwendungen proaktive, vorhersagende Funktionen enthalten.[6] Doch was hat das alles mit datenbasiertem Arbeiten im Human Ressource Management zu tun? Gerade im Personalbereich finden sich immer mehr Szenarien, die mithilfe von Big Data-Analysen sinnvoll unterstützt werden können. Heutzutage dreht sich ein großer Teil der Personalarbeit um die Beschaffung und die Qualifizierung notwendiger Mitarbeiter. Daher steht vor allem das Talent Management und insbesondere das Recruiting im Mittelpunkt der Betrachtung. Diese beiden Bereiche können am ehesten von Big Data profitieren. Darüber hinaus findet Big Data Analytik jedoch auch in der Personalplanung, in der Personalentwicklung und in der Leistungsmessung konkrete Einsatzperspektiven. Daher bezeichnet Josh Bersin, Geschäftsführer und Gründer des auf die Erforschung innovativer HR-Themen spezialisierten Unternehmen Bersin by Deloitte, den Schwerpunkt des Umgangs mit Big Data innerhalb von HR treffend als Talent Analytics.[7]

 

1.2 Zielsetzung der Arbeit

 

Wie schon eingangs erläutert, spielen Daten heutzutage eine wesentliche Rolle für den Unternehmenserfolg, weshalb die intensive Nutzung von Big Data auch als fundamental bezeichnet wird. Laut dem Harvard Business Review, schneiden datenbasierte Unternehmen bei objektiven Messungen im Hinblick auf finanzielle und operationelle Ergebnisse besser ab, als jene Unternehmen, die nicht so viel Wert auf datengeschützte Entscheidungsprozesse legen. Insbesondere Betriebe, die bezüglich informationsverarbeitender Analyse im oberen Drittel lagen, waren im Durchschnitt fünf Prozent produktiver und erzielten sechs Prozent mehr Gewinn als ihre Mitbewerber.[8] Grade daher sollte es vor allem für größere Unternehmen ein Ansporn sein, evidenzbasierte Entscheidungsalternativen für die gesamte Unternehmensebene zu installieren. Vor dem Hintergrund, dass Big Data bereits vorhanden und auch Möglichkeiten zur Implementierung gewährleistet sind, gilt es nun herauszuarbeiten, wie man diese Möglichkeiten der intelligenten Datenverarbeitung speziell in den einzelnen Unternehmensbereichen anwenden kann. Ziel dieser Arbeit ist es, dem Leser zunächst einen generellen Überblick über die vorhandenen Forschungsansätze von Big Data zu geben. Dabei soll bereits zu Beginn die Komplexität von Datenanalysen aufgezeigt und anstehende Herausforderungen umfangreich dargestellt werden. Im Untersuchungsteil liegt der Fokus auf Big Data im Talent Management und wie aus vorhandenen Forschungsansätzen gezielte Schlüsse deduziert werden können. Einführend werden die technischen Möglichkeiten vorgestellt, die für ein evidenzbasiertes Personalmanagement effektiv genutzt werden können. Es gilt herauszuarbeiten, inwiefern man Business Intelligence-Lösungen und prognostizierende Analytik miteinander verknüpfen kann, um die Zusammenhänge zwischen Big Data und dem Talent Management zu erkennen und sie praxisorientiert einzusetzen. Die personalwirtschaftlichen Felder Rekrutierung, Planung, Entwicklung und Einsatz gehören dabei zu den Kernentscheidungen jedes Unternehmens. Hierbei gilt es für das HRM bessere Entscheidungsgrundlagen zu schaffen, um mithilfe von Digitalisierung und intelligenten Technologien die eigene Position im Unternehmen zu stärken und möglicherweise eine Erweiterung des Aufgabengebietes über die Grenzen der Personalabteilung herbeizuführen.[9]

 

2. Theoretische Grundlagen

 

2.1 Big Data – ein neuer Megatrend

 

2.1.1 Digitale Daten und deren Rolle in der Vergangenheit

 

Gespeicherte Daten galten in der Vergangenheit als ein digitales Abbild von vorhandenen analogen Speichern wie beispielsweise Akten oder Belege, welche durch das IT-System verwaltet wurden. Dadurch konnte ein schneller, ortsunabhängiger und maschineller Zugriff auf die gespeicherten Informationen des Unternehmens sichergestellt werden. Es bestand eine unmittelbare Beziehung zwischen gespeicherten Daten und deren Greifbarkeit im Unternehmensalltag. Dies lag zum einen an der noch einfachen Struktur und zum anderen an der Überschaubarkeit der Menge an gespeicherten Informationen. Die Frage, ob man den vorhandenen Daten eventuell mehr oder andere Informationen hätte entnehmen können, als aus den Originaldateien, hatte man sich zunächst nicht gestellt. Ab den neunziger Jahren wurde die Rolle der gespeicherten Daten nach und nach weiter modifiziert. Dies wird häufig als der Übergang von der reinen Datenverarbeitung hin zu einer Informationsbereitstellung verstanden.[10] Zunächst lag der Fokus noch auf der Implementierung von Data Warehouse Technologien, dessen Ziel es war, alle Dateien einer Datenbank auf ein gewisses Standardformat zu formatieren.[11] Das Wesen der Informationsverarbeitung hat sich seit Anfang der Jahrtausendwende jedoch kontinuierlich weiterentwickelt.

 

2.1.2 Big Data als neue Kernkompetenz

 

Heutzutage stellen Informationen aus betriebswirtschaftlicher Sicht immaterielle Güter dar, die mehrfach genutzt werden können, ohne verbraucht zu werden. Hinzu kommt, dass, anders als bei materiellen Gütern, die Vervielfältigungskosten niedrig und die Verbreitungsmöglichkeiten groß sind.[12] Allerdings gelten Informationen erst als nutzbringend, wenn das Handling gelingt und sie in einem speziellen Kontext betrachtet werden. Unternehmen, die Big Data verarbeiten und interpretieren können, haben einen entscheidenden Vorteil gegenüber ihren Wettbewerbern, wenn sie nicht nur das Potential der Datenmassen erkennen, sondern diese auch gezielt filtern. Dadurch können nützliche Kunden-, Mitarbeiter- oder Produktinformationen gewonnen werden, die letztendlich dazu beitragen analytisch fundierte Entscheidungen zu treffen.[13] Die Unternehmensberatung Experton fasst die Relevanz von Big Data in Zahlen. Die weltweiten Umsätze von Big Data-Lösungen sollen von 4,5 Milliarden Euro im Jahr 2012 bis auf 16 Milliarden Euro im Jahr 2016 ansteigen. Allein in Deutschland befassen sich bereits 57 Prozent der befragten Unternehmen mit dem neuen Trendbegriff. Manche Unternehmen sind bereits dabei, konkrete Projekte mit Big Data-Lösungen umzusetzen, andere informieren sich noch über die Hintergründe, um sich möglicherweise in Zukunft dem vielversprechenden Trend anzuschließen.[14] Die große Herausforderung liegt dabei allerdings nicht nur in der Menge, sondern vor allem in der Komplexität der Daten, die zum Teil in strukturierter, größten Teils jedoch in unstrukturierter Form vorliegen. Unstrukturierte Daten, welche hauptsächlich aus dem Web vorliegen und nicht als typische Datenbankbestandteile identifiziert werden können, stellen Unternehmen vor massive Probleme.[15] Laut einer Aussagen von Gartner Inc. werden weltweit 85 Prozent der Top 500 Unternehmen aufgrund der unübersichtlichen Vielfalt an Aufgaben und Möglichkeiten von Big Data nicht einmal in der Lage sein, einen wirtschaftlichen Vorteil aus ihren vorhandenen Daten zu ziehen.[16] Dabei fällt es Führungskräften vor allem schwer, angesichts der Fülle von Informationen Wichtiges von Unwichtigem zu unterscheiden und sich auf das Wesentliche zu konzentrieren. Voraussetzung für die Erstellung eines faktenbasierten Entscheidungspools ist, dass die verantwortlichen Mitarbeiter die richtigen Fragen stellen, um gezielt die Antworten präsentiert zu bekommen, die bei der Entscheidungsfindung wirklich weiterhelfen.[17] Zudem gibt es vielzählige Datentypen, die aus verschiedenen Quellen stammen und mit zeitkritischem Hintergrund betrachtet werden müssen, da nur dann ein Nutzen erzeugt wird, wenn eine Verarbeitung in Echtzeit erfolgt.[18] Der Bundesverband für Informationswirtschaft und Telekommunikation BITKOM definiert den Begriff Big Data daher als eine „wirtschaftlich sinnvolle Gewinnung und Nutzung entscheidungsrelevanter Erkenntnisse aus qualitativ vielfältigen und unterschiedlich strukturierten Informationen, die einem schnellen Wandel unterliegen und in bisher ungekanntem Umfang anfallen. Big Data stellt Konzepte, Methoden, Technologien, IT-Architekturen sowie Tools zur Verfügung, um die geradezu exponentiell steigenden Volumina vielfältiger Informationen in besser fundierte und zeitnahe Management-Entscheidungen umzusetzen und so die Innovations- und Wettbewerbsfähigkeit von Unternehmen zu verbessern.“[19]

 

2.1.3 Big Data in Zusammenhang mit aktuellen IT-Megatrends

 

Big Data bezeichnet, neben generellen Datenmassen, auch die Methoden und Technologien, die für die hochskalierbare Erfassung, Speicherung und Analyse dieser polystrukturierten Daten von Nöten sind.[20] Dabei steht der Begriff häufig im Zusammenhang mit anderen aktuellen IT-Megatrends. Dazu gehören beispielsweise das Cloud Computing, das Social Web und auch mobile IT-Anwendungen, welche allesamt erheblichen Einfluss auf das Volumen und die Struktur der Daten haben. Unter Cloud Computing versteht man die dezentrale Bereitstellung von IT-Dienstleistungen über das Internet.[21] Interaktive Anwendungen aus dem Social Web (Facebook, Xing, Twitter, YouTube etc.) und mobile IT-Anwendungen, die aus dem zunehmenden Einsatz von Smartphones resultierten, lassen die Datenberge zunehmend explodieren. In den letzten Jahren haben sich bezüglich der Datencharakteristika neue Strukturen entwickelt, die mit herkömmlichen Datenanalysemethoden nicht mehr zu bewältigen sind. Big Data gilt als eine Welt, die massiv von Software und Technik getrieben wird. Dabei geht es nicht nur um Hardware, bei der mithilfe von Massive Parallel Processing und In-Memory-Computing riesige Datenmengen verarbeitet werden können, sondern auch um eine Vielzahl von Werkzeugen, Software, Datenbank- und andere Technologien, ohne die selbst die cleversten Datenwissenschaftler mit ihren Modellen und Fragestellungen gar nichts anfangen können.[22]

 

2.2 Die vier V

 

Um die Vielfalt und Komplexität dieser Daten zu verstehen, muss man sie bestimmten Gruppierungen, Quellen und Eigenschaften unterziehen. Der neue Trendbegriff lässt sich mit vier V-Wörtern charakterisieren.

 

2.2.1 Volume

 

2,7 Milliarden Likes, 300 Millionen Fotos und 70.000 Datenbankabfragen. Das sind Informationen, welche der Internetgigant Facebook tagtäglich bewältigen muss. Daten in dieser Größenordnung sind jedoch nicht nur bei Vorreitern wie Facebook oder Amazon zu finden.[23] Auch an anderen Stellen stehen Unternehmen vor der Herausforderung, den neuen, stetig zunehmenden Umfang der Daten in den Griff zu kriegen. Allgemein sind Big Data sehr große Datenmengen, die in den letzten Jahren getrieben durch Informationstechnologie explosionsartig exponentiell angestiegen sind. Orte dieser Anhäufung von Datenmassen sind Unternehmen, Organisationen, aber vor allem das Internet, in dem wohl eine Fülle wertvoller, meist ungenutzter Informationen vor sich hin schlummert.[24] Um das gigantische Ausmaß anhand eines bildhaften Beispiels zu erklären, muss man sich alle zurzeit gespeicherten Daten als Buchstaben und Zeichen vorstellen. Würde man nun extrem viele Schreibmaschinenseiten einseitig damit füllen und aneinanderlegen, dann könnte man in etwa die gesamte Fläche Russlands, der Mongolei und Kasachstans bedecken. Es handelt sich um sagenhafte 3 Billionen Tonnen einseitig bedrucktes Papier.[25] Bis zum Jahre 2003 wurden weltweit nur fünf Exabyte, das heißt fünf Milliarden Gigabyte an digitalen Daten erstellt. Bemerkenswert ist, dass im Jahre 2011 die gleiche Menge an Daten in nur zwei Tagen erreicht wurde. Diese Zeitspanne soll in der Zukunft noch weiter schrumpfen.[26] Laut Ex Google CEO Eric Schmid, wurden im Jahre 2009 mehr Daten generiert, als alles, was seit Anbeginn der Menschheit bis 2008 erzeugt wurde. Täglich werden laut IBM 2,5 Trillionen Gigabyte an Daten produziert, was bedeutet, dass 90 Prozent der auf der Welt heute existierenden Daten allein in den letzten zwei Jahren erzeugt wurden. Bis 2020 soll sich diese Menge nahezu verzwanzigfacht haben.[27] Um wenigstens einen Teil des Informationsberges bewältigen zu können, kommen neue Softwarearten zum Einsatz, die parallel auf einer hohen Anzahl von Prozessoren, Servern oder gar in einer Cloud zusammenagieren. Nach Ansicht der Marktforscher von IDC ist heutzutage allerdings erst ein Prozent der weltweiten Daten analysiert worden.[28] Ein weiteres Problem ist, dass große Datenmengen auch immer zahlreiche unbrauchbare Informationen liefern. Doch hier ist Vorsicht geboten, denn “today’s noise, can be tomorrow’s news.“[29] Auch Daten, die auf den ersten Blick nutzlos erscheinen, können im Laufe der Zeit an Bedeutung gewinnen. „Je mehr unstrukturierte Daten sich aus den Geschäftsprozessen extrahieren lassen und je interaktiver die Analysen das heißt Echtzeitanalysen sein sollen, desto mehr Möglichkeiten ergeben sich, Big Data zu nutzen.“[30]

 

2.2.2 Velocity

 

Unter Big Data versteht man die Verarbeitung sehr großer Datenmengen in Echtzeit. Die Geschwindigkeit kann hier in zwei Aspekte unterteilt werden, zum einen der Durchlaufleistung der Daten und zum anderen deren Latenz.[31] Vor allem der Anstieg der mobilen Datennutzung verlangt neue und bessere Bedingungen der Datenerfassung und Analyse. Die Daten müssen so schnell wie möglich, im Idealfall in Echtzeit verarbeitet werden, da sie nur dann optimal genutzt werden können. Außerdem sind viele Big Data-Vorhersagen nur dann sinnvoll, wenn sie auf topaktuellen Zahlen beruhen.[32] Neueste Technologien und Methoden ermöglichen es, Analysen in kürzester Zeit durchzuführen und den zuständigen Personen ad-hoc Informationen zu aktuellen Fragestellungen zu liefern.[33] Somit ist man nicht mehr auf vorkonfigurierte Data Marts, Dashboards und Reports angewiesen, da ohne detaillierte Eingabe und Suche bereits Hinweise oder Vorschläge generiert werden. Das entstandene Wissen gelangt somit zur rechten Zeit zur rechten Person an den rechten Ort.[34] Dennoch steigen die Anforderungen an Technologie und Wissen immer weiter an. Die moderne analytische Unternehmensinfrastruktur sucht daher immer größere Pipes um die Datenflut in den Griff zu bekommen und eine flächendeckende Parallelverarbeitung zu ermöglichen.[35]

 

2.2.3 Veracity

 

Die absolute Datenmenge erhöht sich weltweit jede Sekunde um zahlreiche Bytes. Dies hat zur Folge, dass sich auch die Redundanzen der einzelnen Datenbanken mit zunehmendem Volumen äquivalent erhöhen. Was beispielsweise auf dem Speicher eines Smartphones oder Tablets liegt, das liegt meistens auch auf den Festplatten von Notebooks, auf mehreren Desktop PCs oder auf den Unternehmensservern.[36] Mangelnde Datenqualität verfälscht Analyseergebnisse und verursacht hohe Kosten. Eine Studie des Data Warehousing Institute ergab, dass allein in den USA jährlich Wirtschaftsschäden von rund 600 Milliarden Dollar durch mangelhafte Datenqualität entstehen. Hauptgründe dafür sind die Entstehung von Dubletten in klassischen Data Warehouse, die durch Schreibfehler, verschiedene Schreibweisen, Hörfehler, Vertauschungen oder Abkürzungen herbeigeführt werden. Umso wichtiger ist es, durch Anwendung von etablierten Werkzeugen und Technologien die Qualität der Unternehmensdaten bereits vor Übertragung in den Hauptspeicher zu sichern. Dieser Prozess kann durch die Teilschritte Formatprüfung, Duplikatüberprüfung und Duplikatbereinigung erfolgen. Dennoch ist es nicht sinnvoll, alle Daten mit Tools oder anderen Werkzeugen zu bereinigen. Wenn beispielsweise eine sehr hohe Datenqualität erforderlich ist, ist meist eine manuelle Entscheidung durch den Menschen sinnvoller. Dafür gibt es wiederum Softwareprogramme, die, anhand von Maximal- und Minimalwerten, Grenzwerte festlegen, bis wohin das Tool entscheidet oder ab wann der Mensch miteinbezogen wird. Bei unstrukturierten Daten sieht das Problem deutlich komplizierter aus. Laut IBM- Experte Frank Gröger sollte man sich genau überlegen, welche Datenqualität man benötigt und wie viel Aufwand man investieren will. Vor allem die Textanalyse spielt bei der Kennzeichnung von Social Media-Daten eine bedeutende Rolle, da man generell erst einmal analysieren muss, was mit einem Blog, einer E-Mail oder eines Klicks überhaupt ausgesagt werden kann. Auf keinen Fall sollte man Social Media-Daten in das Data Warehouse übertragen, ohne im Vorlauf eine Qualitätsbereinigung durchgeführt zu haben.[37] Nur nutzbringende Daten gelten als eine neue Art von Wirtschaftsvermögen, wobei deren Wertschätzung neuerdings sogar mit einer Währung oder Gold gleichgesetzt wird.[38] Werden abschließend die relevantesten Daten für die Fachabteilungen valide und transparent in größtmöglicher und nachvollziehbarer Qualität, und grafisch unterstützt für Reports bereitgestellt, erhöht dies die Glaubwürdigkeit der Daten und erzeugt ein vertrauensvolles Arbeitsklima.[39]

 

2.2.4 Variety

 

 

Abb.1: Typische Datenquellen von Big Data[40]

 

Generell bezeichnet Big Data alle großen Datenmengen, die für die Entscheidungsprozesse eines Unternehmens herangezogen werden können. Diese können bereits intern im Unternehmen vorliegen, oder müssen aus externen Quellen beschafft werden. Dabei kann es sich um strukturierte Daten aus konventionellen Unternehmensdatenbanken oder um unstrukturierte Daten wie automatisch generierte Rohdaten, Daten aus Unternehmensanwendungen wie E-Mail und Textverarbeitungsprogramme sowie Multimedia-Daten aus Sozialen Netzwerken handeln.[41] Abb.1 gibt einen Überblick über aktuelle Datenquellen, die im Rahmen von Big Data-Szenarien zu verarbeiten sind. Informationen werden hauptsächlich in strukturierter Form in Unternehmensdatenbanken abgelegt und überwiegend durch betriebswirtschaftliche Informationssysteme genutzt. Deshalb bezeichnet man diese Form von Informationen auch als strukturierte Daten, die dauerhaft in relationalen Datenbanken gespeichert und mittels Structured Query Language (SQL) angezeigt, geändert oder gelöscht werden. Die Verarbeitung der Daten wird als statisch bezeichnet.[42] Während vor einigen Jahren Tabellen nur die notwendigsten Attribute zur Beschreibung eines wirtschaftlichen Objekts enthielten, sind aktuell meist große, zentrale, relationale Datenbanken auf den Unternehmensservern vorhanden. Die darin gespeicherten Daten bilden dabei in vielen Unternehmen den Kern der Datenhaltung und werden als Datenquellen den klassischen, transaktionsverarbeitenden Systemen zugerechnet.[43] Inhalte dieser strukturierten Daten können zum Beispiel Warenströme, Bestellungen oder klassische Produkt-, Personen- und Kundendaten sein, die aus Enterprise Ressource Planning Systemen (ERP), Supply-Chain-Management-Systemen (SCM) oder Customer-Relationship-Management-Systemen (CRM) geliefert werden.[44] Neben strukturierten Datensätzen, die hauptsächlich aus ERP-Datenbanken stammen, sind es dennoch vor allem die zahlreichen Informationen in unstruktureller Form, die das Datenvolumen so rapide ansteigen lassen. Im Gegensatz zu den statischen, klassischen Verarbeitungsmethoden, besteht bei der dynamischen Big Data-Verarbeitung die Herausforderung darin, eine Vielzahl von externen Quellen mit ganz unterschiedlichen Datenformaten von der unstrukturierten in die strukturierte Form zu überführen, um sie anschließend mit den internen Informationen aus Unternehmensdatenbanken zu korrelieren.[45] Doch was charakterisiert solche unstrukturierten Daten und wie sehen sie aus? Mithilfe von Beispielen aus dem Internet kann man diese Frage beantworten. Aus E-Mail-Verzeichnissen, sozialen Netzwerken, Callcenter-Aufzeichnungen oder Diskussionsforen lassen sich unstrukturierte Text, Video-, Sound- und Bilddateien herauskristallisieren.[46] Allerdings erhält man daraus nicht immer nutzbare Erkenntnisse, sodass eine vollkommene Analyse des Datenvolumens nur teilweise möglich ist.[47] Wie aus Abb.1 hervorgeht, handelt es sich bei den unstrukturierten Daten meist um Informationen aus neuen Datenquellen wie Sensor- oder Logdaten, die beispielsweise laufende Daten aus der Produktion erzeugen oder Wetterdaten aufzeichnen. Klassische Bewegungsdaten aus Logistiksystemen oder Verkehrsdaten können zudem mithilfe von RFID-Technologien für mobile Anwendungen genutzt werden. Hinzu kommen noch Social-Web-Anwendungen wie Facebook, Twitter oder Youtube, die ebenfalls große Datenströme in Form von Social Web Daten generieren.[48]

 

2.3 Anforderungen an Big Data

 

Die große Herausforderung von Big Data liegt, wie bereits erwähnt, in der Komplexität der Daten verbunden mit dem großen Appetit nach immer leistungsfähiger Hardware, mit denen die Datenmassen verarbeitet werden können. Die Vielzahl neu angebotener Werkzeuge, Software, Datenbanken und Technologien bieten für Unternehmen eine komplett neue Programmierumgebung und setzten ein Know-how voraus, das bei den meisten Unternehmen bei weitem noch nicht vorhanden ist.[49] Deshalb stellt sich die Frage, inwiefern für Big Data bereits bekannte Business Intelligence-Lösungen genutzt werden können. Die strukturierten Daten in unternehmensinternen Datenbanken können mit Unterstützung von BI-Lösungen relativ gut verarbeitet werden. Sie lassen sich meist ohne Schwierigkeiten erheben und analysieren. Somit können Prognosen erstellt werden, die für einfache Fragestellungen herangezogen wurden.[50] Bei der dynamischen Big Data-Verarbeitung liegt allerdings die Herausforderung darin, eine geschickte Verknüpfung herzustellen, die nicht nur Analysen und Prognosen ableitet, sondern gleichzeitig auch zuvor gestellte, mehrdimensionale Fragen präzise und wenig umfangreich beantwortet. Aufgrund von unterschiedlichen Datenschutzregelungen sind die Anforderungen an solche Datenabfragen zum Teil landesspezifisch. Zudem herrschen unterschiedliche Ausgangsvoraussetzungen und Rahmenbedingungen bei den Unternehmen hinsichtlich der Vorstellung, Umsetzung und der Erfahrung mit Analytics-Lösungen.[51] Datenanalyseprojekte dürfen nicht nur aus technischer Sicht vom Personal- und Organisationsbereich betrachtet werden. Vielmehr müssen die Firmen auch Strukturen und Prozesse verändern, sowie die benötigten Kompetenzen schaffen.[52] Laut MIT-Forschern muss bei einer gekonnt geplanten Umsetzung von Big Data-Lösungen großer Wert auf die fünf Punkte Leadership, Talent Management, Decision-Making, Technology und Company culture gelegt werden. Führungskräfte müssen zunächst klare Ziele formulieren, den Erfolg im Auge behalten und die richtigen Fragen stellen. Des Weiteren müssen professionelle ausgebildete Fachleute wie der Data Scientist oder der Data Artist vorhanden sein, die mit den großen Datenmassen zielgerecht umgehen können. Schließlich gilt es ein Kompetenzzentrum zu schaffen, in dem die entsprechenden Informationen und Entscheidungsrechte zusammengeführt werden. Spezifische Technologien können dabei helfen, das Volumen, die Geschwindigkeit und die Vielfalt der Daten zu bewältigen. Alle diese Aspekte unterstehen einer neu angelegten Unternehmenskultur, in der das Wissen im Vordergrund steht, nicht die Meinung. Wenn jene Voraussetzungen erfüllt sind und folglich eine datenbasierte Entscheidungsgrundlage geschaffen ist, dann ist wiederum eine Kombination der Daten mit individueller Erfahrung und Expertise sinnvoll.[53]

 

2.4 Personenbezogene Daten

 

2.4.1 Relevante Daten für den Personalbereich

 

Big Data spielte in der Vergangenheit hauptsächlich in Bereichen des Marketings und des Vertriebs eine herausragende Rolle.[54] Um den Fokus jedoch auf die Analyse personalbezogener Daten zu beschränken, bleibt zunächst zu definieren, welche Daten überhaupt für eine Analyse im Human-Ressource-Management in Frage kommen. Laut Thomas Otter, Research Vice President für HCM bei Gartner Inc. kommt es in HR-Abteilungen in erster Linie einmal auf Small Data an, da die meisten Unternehmen mangels fehlender Mitarbeiterdaten gar nicht in der Lage sind, qualitativ hohe Datenbestände bereit zu stellen. Zudem wissen einfache Personaler überwiegend nicht, wie und wofür sie Daten sammeln können, welche Business Cases daraus resultieren, oder welche Ersparnisse generell möglich sind. Sie sind es gewohnt Daten in strukturierter Form zu organisieren, mit der Folge, dass sie bei Flut an Web-Daten, an ihre persönlichen Grenzen stoßen.[55] Grundsätzlich sind alle personenbezogenen und ein großer Teil an externen Daten – der zunächst keine Verbindung zum Personalwesen vermuten lässt – für die Big Data Analytik geeignet. Abb.2 gibt eine detaillierte Übersicht über Daten, die in Personalabteilungen anfallen können, wobei die Betrachtung der individuellen Person und deren Qualitätsmerkmale ganz klar im Vordergrund stehen. Diese können beispielsweise, neben demografischen Daten, Informationen aus den Bereichen Arbeitsplatz-, Leistungs-, Entgeltdaten, Daten über Qualifikationen und Mitarbeiterentwicklung, Stammdaten, Daten aus der Zeiterfassung, aus Recruiting-Aktivitäten und vor allem Daten aus dem Social Media-Bereich sein. Auch Wetterdaten, Straßenzustandsberichte für die Routen- und damit die Personaleinsatzplanung oder auch Rohstoffdaten können zur Lösung der Aufgabe, die es im Personalumfeld zu bewältigen gilt, miteinbezogen werden. Hat man diese relevanten Daten erfasst, so kann der gesamte Inhalt aus dem Datenpool in unterschiedlichsten Variationen miteinander in Relation gebracht werden. Die Vielfalt der Kombinationen ist hier faktisch unbegrenzt. Ein- oder auch multidimensionale Relationen werden anschließend in Rahmen von Big Data Projekten ausgewertet und deren Ergebnisse sowohl an die Personalabteilung, als auch an die Unternehmensführung weitergeleitet.[56]

 

 

Abb. 2: Eine Übersicht über personalbezogene Daten[57]

 

2.4.2 Big Data versus Datenschutz – unüberbrückbare Gegensätze

 

Big Data steht für einen positiven Trend, der vielen Bereichen im Leben enorme Möglichkeiten bietet. Durch die Analyse kundenspezifischer Daten können Unternehmen beispielsweise präzise Schlussfolgerungen über das Kaufverhalten von Konsumenten generieren. Die Produkte lassen sich dadurch genau am Kundennutzen ausrichten, wodurch individuelle Bedürfnisse optimal befriedigt werden. Doch Big Data wird nicht nur in der Wirtschaft eingesetzt, um die Performancesteigerung von Unternehmen zu verbessern. Auch in Politik und Forschung werden Datenerhebungen zur Terrorismusbekämpfung, Volkszählung und medizinischer Weiterentwicklung verwendet. Die zunehmende Jagd auf Daten beinhaltet allerdings auch negative Aspekte, die in Zukunft einen immer größeren Brandherd darstellen könnten. Dabei eröffnen vor allem das Internet und mobile Endgeräte ein gewaltiges Potential für staatliche und kommerzielle Datensammler. Via Internet, mobile Data oder internetfähiger Geräte werden die Spuren eines jeden Bürgers auf Schritt und Tritt tagtäglich gesammelt. Vor allem vor dem Hintergrund der zunehmenden Offenbarungstendenzen in sozialen Netzwerken wie Facebook inklusive WhatsApp, Twitter, Xing und Co. zeigt sich der individuelle Bürger heutzutage sehr viel freizügiger im Hinblick auf den Umgang mit seinen persönlichen Daten. Die Grenze zwischen Datensammlung und Datenschutz verschwimmt dabei immer mehr. Durch die Entwicklung neuer Technologien und der Verwässerung von Ländergrenzen wird die Überwachung von Big Data und damit der Schutz der Privatsphäre weiter erschwert. Auch die Personalabteilung eines Unternehmens wird im Hinblick auf Big Data mit dieser Problematik konfrontiert. Wie zuvor beschrieben, stellen Mitarbeiterdaten, Telefongespräche, sowie der E-Mail-Verkehr Daten in unstrukturierter Form dar, die für Big Data-Analysen dennoch relevant sind. Das unerlaubte Abhören oder Mitlesen jener Konversationen ist ein massiver Eingriff in die Privatsphäre der Mitarbeiter. Es gilt demnach individuelle Grenzen zu ziehen, die sowohl durch den Betroffenen, als auch das Unternehmen vereinbart werden können, um den Schutz der Daten eines jeden Einzelnen zu respektieren und zu bewahren.[58]

 

3. Untersuchungsrahmen

 

3.1 Mentales Modell

 

 

Abb.3: Mentales Modell

 

Die systematische Analyse von Big Data im Talent Management wird mithilfe eines „Mentalen Modells“ (Abb.3) durchgeführt, welches eine grafische Form des Untersuchungsrahmens darstellt. Ziel des Modells ist es, die Komplexität von Big Data, sowohl in Bezug zu dem Talent Management, als auch in Relation zu allgemeinen Problemstellungen, präzise zu formulieren und bereichsübergreifend darzustellen. Das Hauptaugenmerk der Untersuchung liegt vor allem auf der mithilfe von intelligenten Technologien durchgeführten Analysemöglichkeiten der Datenmengen, die seit neustem mit Methoden wie Business Intelligence oder Predictive Analytics ermöglicht wird. Die Frage ist, inwiefern man solche Methoden nutzen kann, um einen präzisen Ergebnis- und Interpretationsrahmen zu gewährleisten, der möglicherweise sowohl für die Personalabteilung, als auch für die Unternehmensführung einen Mehrwehrt generiert. Die Gliederung des Modells erfolgt in den drei Abschnitten Ausgangssituation – Gestaltungsfeld – Erfolgskriterien. Nachdem die Ausgangsituation bereits in den vorherigen Kapiteln erläutert wurde, stellt sich im Abschnitt Gestaltungsfeld nun die Frage, mit welchen technischen Möglichkeiten diese Daten analytisch aufbereitet und für das Talent Management implementierbar gemacht werden können. Dazu werden vorhandene Beispiele von Big Data im Talent Management beschrieben, die vor allem in Bereichen wie der Mitarbeiterrekrutierung, der Personalplanung oder Personalentwicklung schon Anwendung gefunden haben. Die Anwendungsmöglichkeiten im Personalmanagement können also in Form eines Prozessstrahls – von der Personalplanung über die Rekrutierung und Entwicklung bis hin zur Einsatzplanung der jeweiligen Mitarbeiter dargestellt werden. Abschließend gilt es im Ergebnis anhand der Erfolgskriterien den Prozess zu bewerten. Dazu werden Kosten und Nutzen solcher Implementierungsmöglichkeiten miteinander verglichen um zu guter Letzt zu beurteilen, ob die vorhandenen Forschungssätze effektiv und in der Praxis umsetzbar sind.

 

3.2 Methodik

 

Die vorliegende, systematische Untersuchung basiert auf einem deduktiven Denkverfahren, das vom Allgemeinen auf das Besondere, vom Abstrakten auf das Konkrete und vom Umfassenden auf das Einzelne schließen soll.[59] Dabei werden Konklusionen aus Prämissen oder allgemeingültig erkannten Tatbeständen abgeleitet, die anschließend theoretisch auf ihre Richtigkeit hin überprüft werden.[60] Das zugrunde liegende Phänomen von Big Data in Unternehmen hat schon viele Wissenschaftler dazu gebracht, sich intensiv mit dem Thema auseinander zu setzen. Vor dem Hintergrund, dass Big Data bereits bei vielen Unternehmen auf die Tagesordnung gerückt ist, gilt es im Folgenden herauszufinden, inwiefern die vorhandenen Forschungsansätze auch gezielt im Talent Management eingesetzt werden können. Anhand allgemeiner Literatur zu dem Thema Big Data und dessen Komplexität im Zuge der vorangegangenen Recherche, sollen relevante Informationen über technische Möglichkeiten und deren Verbindung mit dem Trendbegriff im HR-Bereich eingegrenzt und genauer betrachtet werden. Als Hauptquellen dienen meist Zeitschriftenartikel aus der universitätsinternen Zeitschriftendatenbank, sowie spezielle Unternehmenswebsites. Ziel ist es, unter Verwendung von neuen Technologien und Anwendungsmöglichkeiten realitätsnahe Theorien zu entwickeln, die die Komplexität von Big Data im Talent Management durchleuchten und gewonnene Erkenntnisse für die Praxis anwendbar machen.

 

4. Untersuchung

 

4.1 Data Scientist und Data Artist

 

Eine Studie zum Thema „Data Science“ hat ergeben, dass die größten Barrieren für die Anwendung von Datenwissenschaften sowohl im Fehlen von entsprechenden Fertigkeiten (32%), als auch in Budget- oder Ressourcenproblemen (32%), in der falschen Organisationsstruktur (14%) und im Fehlen von Werkzeugen und entsprechender Technologie (10%) liegen.[61] Damit Unternehmen die vorhandene Datenflut in den Griff bekommen können, sind, wie bereits schon bei der Thematik zu den Herausforderungen von Big Data angedeutet wurde, spezielle Datenwissenschaftler vor allem für große Unternehmen von enormer Bedeutung. Dabei ist zwischen dem Berufsfelder des Data Scientist und des Data Artist zu unterscheiden. Zuständig für die gezielte Datenaufbereitung ist der Data Scientist. Er gilt als derjenige, der die Fähigkeit besitzt, mit den Daten zu „jonglieren“ und sie gezielt in struktureller und klassifizierter Form dem Data Artist zur Verfügung zu stellen. Dieser ist anschließend für die Visualisierung der relevanten Daten verantwortlich, indem er den anfragenden Mitarbeitern diese in Form von Tools oder Dashboards auf bestimmten Plattformen zur Verfügung stellt.[62] Die Qualifikationsmerkmale, die für die neuen Datenberufe gefordert werden, sind vielfältig und daher bislang auf dem Arbeitsmarkt kaum vorhanden. Laut Bersin by Deloitte verlangt die Big Data-Analyse im HR-Bereich unterschiedliche Fertigkeiten in Mathematik und Statistik, Betriebswirtschaftslehre, Wirtschafts- und Organisationspsychologie, Organisationsdesign, Talent Management sowie IT-, Datenbanken- und Programmierkenntnisse.[63] Die meisten Unternehmen verfügen jedoch kaum über die finanziellen Mittel sich externe Fachkräfte zu besorgen, die all diese Qualifikationen mitbringen. Das McKinsey Global Institute vermutet, dass allein in den nächsten Jahren massenhaft viele Tätigkeiten im Analysebereich neu entstehen werden.[64] Daher ist es zunächst sinnvoll, im eigenen Haus das benötigte Fachwissen zu trainieren, beziehungsweise mit externen Technologieanbietern wie Mercer, SAP, Oracle oder SHL zu kooperieren, um auch in Zukunft gegenüber der Konkurrenz Wettbewerbsvorteile im durch Data Analytics zu erzielen.[65]

 

4.2 Business Intelligence als Basis für prognostizierende Analytik

 

4.2.1 Business Intelligence-Lösungen

 

Durch das rapide anwachsende Datenvolumen steigen auch die Anforderungen an Datenanalyse- und Reportingsysteme.[66] Eine Untersuchung zu aktuellen und künftigen IT-Themen hat ergeben, dass sich die meisten Unternehmen derzeit hauptsächlich mit Business Intelligence, Compliance, Prozessintegration und Automatisierung auseinandersetzen. Big Data gilt dabei als die Grundlage für Business Intelligence, Echtzeit- und Prozessanalysen.[67] Die klassische Business Intelligence machte es Unternehmen möglich, historische Daten präzise auszuwerten und somit vergangene Zusammenhänge zu entschlüsseln.[68] Sie liefert einen 360-Grad-Blick auf alle personalbezogenen Maßnahmen, Kosten und Ergebnisse, indem sie sämtliche personalrelevanten Informationen aus den HR-Informationssystemen, Datenbanken und Fachanwendungen zusammenführt, bereinigt und analysiert. Der Prozess dorthin ist durch verschiedene Schritte gekennzeichnet: Zunächst müssen die Personal-Manager aus den übergeordneten Unternehmensstrategien die HR-Strategie und konkrete Maßnahmen ableiten. Danach ist es notwendig, Kennzahlen zu definieren, anhand derer sich der Erfolg der Maßnahmen steuern lässt, um abschließend festzulegen, welche Daten aus welchen Systemen für diese Kennzahlen benötigt werden.[69] Allerdings waren in der Vergangenheit Business Intelligence-Werkzeuge häufig schwer zu handhaben. Nur eine Handvoll Experten waren in der Lage, aus den traditionellen Werkzeugen die richtigen Informationen herauszuziehen. Die Folge war, dass Management-Entscheidungen häufig eher nur aufgrund von Vermutungen getroffen wurden, weniger aufgrund von Fakten.[70] Neuerdings gibt es jedoch BI-Lösungen, deren Handhabung in den letzten Jahren stark vereinfacht worden sind. Es wurden technische Möglichkeiten geschaffen, die die klassische Datenaufbereitung unterstützen und in Zukunft als ein zentraler Bestandteil von Datenanalyseumgebungen angesehen werden können.[71] In Kombination mit Analysen aus dem Predictive Analytics-Bereich ist es möglich, mit diesen technologischen Möglichkeiten das Human Ressource Management zu einem evidenzbasierten Unternehmensbereich weiter zu entwickeln. Um jedoch herauszufinden, inwiefern die technologischen Neuerungen in der Praxis implementiert werden können, ist es zunächst notwendig einen kurzen Überblick zu gewähren. Daher sollen im Folgenden die Big Data-Innovationen kurz vorgestellt werden.

 

4.2.2 Self-Service-BI

 

Heute soll Self-Service Business Intelligence es ermöglichen, dass auch Nutzer, die nur gelegentlich mit Analytik und Performance Management konfrontiert werden, jene Informationen bekommen, die sie benötigen. Mithilfe von Self-service-BI soll zum einen die IT entlastet, gleichzeitig aber auch die Nachfrage der Anwender nach mehr Unabhängigkeit, Flexibilität und Benutzerfreundlichkeit bei der Nutzung und Analyse von Informationen befriedigt werden. Ein praktikables Self-Service-BI-Tool muss Anwendern die Erstellung und Modifikation von Berichten, Analysen und Dashboards ermöglichen, ohne dabei vielfache Interventionen mit der IT-Abteilung auszulösen. Voraussetzungen dafür sind intuitive, benutzerfreundliche Werkzeuge und vordefinierte Berichts- und Dashboard-Objekte, die für einen Fachbereichsanwender in verständlicher Form zur Verfügung stehen und ihn zu einem Modellierer befähigen. Ebenfalls müssen unterschiedliche Wege zur selbstständigen Integration privater und lokaler Daten aufgezeigt werden. Die Möglichkeiten der Datenintegration sollten von der einheitlichen Überführung in einen zentralen Datenspeicher, beispielsweise Data Warehouse, über die Kombination aus lokaler und zentraler Verfügbarkeit in Form von semantischen Layers bis hin zur Verknüpfung der Daten über sogenannte Schlüssel rangieren. Die Verknüpfung von Daten- und Prozessmodellen ist zwar im Rahmen einer Self-Service-Philosophie essentiell wichtig, kann aber auch Schwierigkeiten hervorrufen. Durch die unternehmensübergreifende Anwendung, kann es beispielsweise mehrfach zu unterschiedlich aufbereiteten Daten, Analysefehlern, sinkender Datenqualität, Datensilos, inkonsistenter Unternehmenszahlen oder zu einem Reporting-Chaos kommen. Ziel ist es den Datenaustausch strukturiert zu gestalten, um die Datenqualität nicht zu verschlechtern und infolgedessen die Aussagekraft von gezielten Abfragen falsch zu interpretieren. Deshalb ist eine zentral verankerte, einheitlich akzeptierte Data Governance, die für die Überwachung der Verwaltung und Änderung von Daten sorgt, im Unternehmen unverzichtbar.[72]

Excerpt out of 53 pages

Details

Title
Big Data im Talent Management. Eine systematische Analyse
College
University of Siegen
Grade
2,0
Year
2014
Pages
53
Catalog Number
V387243
ISBN (eBook)
9783668614710
ISBN (Book)
9783668614727
File size
1080 KB
Language
German
Keywords
Big Data, Talentmanagement, systematische Analyse, Mentales Modell, Daten
Quote paper
Anonymous, 2014, Big Data im Talent Management. Eine systematische Analyse, Munich, GRIN Verlag, https://www.grin.com/document/387243

Comments

  • No comments yet.
Look inside the ebook
Title: Big Data im Talent Management. Eine systematische Analyse



Upload papers

Your term paper / thesis:

- Publication as eBook and book
- High royalties for the sales
- Completely free - with ISBN
- It only takes five minutes
- Every paper finds readers

Publish now - it's free