Big Data und künstliche Intelligenz (KI) im Marketing

Chancen und Herausforderungen für kleine und mittlere Unternehmen


Tesis (Bachelor), 2021

82 Páginas, Calificación: 1,3


Extracto


Inhaltsverzeichnis

Abstract

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1 Einleitung
1.1 Problemstellung
1.2 Zielsetzung
1.3 Methodik

2 Theoretische Grundlagen
2.1 Wissenschaftlicher Erkenntnisstand
2.2 Big Data
2.2.1 Definition Big Data
2.2.2 Zentrale Charakteristika
2.2.3 Abgrenzung Big Data Analytics und Business Intelligence
2.2.4 Datenerhebung und Datenquellen
2.3 Künstliche Intelligenz
2.3.1 Maschinelles Lernen - Machine Learning
2.3.2 Lernmethoden
2.3.3 Auswertungsmethoden

3 Big Data und KI im Marketing
3.1 Eignung
3.2 Einsatz
3.2.1 Mögliche Anwendungen
3.2.2 Auswirkung von KI im Marketing-Mix

4 Methodik der Sozialforschung
4.1 Ablauf
4.1.1 Vorgehen
4.1.2 Auswertungsmethode
4.2 Auswertung der Experteninterviews
4.2.1 Relevanz
4.2.2 Stärken
4.2.3 Schwächen
4.2.4 Chancen
4.2.5 Risiken
4.2.6 Lösungsansätze

5 Auswertung und Diskussion
5.1 Herausforderungen für KMU in Bezug auf KI im Marketing
5.2 Potenziale von KI-basiertem Marketing in KMU
5.3 Realisierung von KI-basiertem Marketing in KMU
5.4 Ergebnisdarstellung anhand der SWOT-Analyse
5.5 Kritische Beurteilung

6 Fazit

Abstract

Die vorliegende Bachelorarbeit beschäftigt sich mit den Herausforderungen und Po­tenzialen, die künstliche Intelligenz im Marketing für kleine und mittlere Unterneh­men mit sich bringt. Unter anderem wird sich auf die Realisierung von künstlicher Intelligenz in KMU konzentriert. Aufgrund der wirtschaftlichen Bedeutung kleiner und mittlerer Unternehmen, fokussiert sich die vorliegende Arbeit auf den Sammel­begriff „KMU". Durch den ernüchternden Einsatz von KI in Unternehmen dieser Grö­ßen wird dies exemplarisch auf den Einsatzbereich Marketing in KMU untersucht.

Ein theoretisches Konstrukt leitet die inhaltsbezogenen Ausführungen in Kapitel 2 ein, in dem das Grundwissen zu Big Data und Künstlicher Intelligenz erläutert wird. Darüber hinaus wird die Eignung für das Marketing in Kapitel 3 dargestellt und mit Experteninterviews untermauert. Die Auswertung soll einen Überblick über Heraus­forderungen, Chancen und Realisierungsmöglichkeiten für KMU aufzeigen. Mit ei­ner SWOT-Analyse wird sowohl ein Überblick als auch ein Ausblick zu den Ergeb­nissen geschaffen. Weiterer Forschungsbedarf wurde in KMU im B2B Markt deut­lich. Hierbei stellt sich die Frage, ob Marketing das geeignete Handlungsfeld für KI darstellt.

Key Words: Big Data, Künstliche Intelligenz (KI), Kleine und mittlere Unternehmen (KMU), Marketing-Mix, SWOT-Analyse

Abbildungsverzeichnis

Abbildung 1: Unternehmensverteilung (D) nach Unternehmensgröße 2018

Abbildung 2: 5-V-Merkmale von Big Data

Abbildung 3: Big Data, Big Data Analytics, Business Intelligence

Abbildung 4: Künstliche Intelligenz und ihre Bestandteile

Abbildung 5: Analytik Reifegradmodell

Abbildung 6: Customer Journey im Data-driven Marketing

Abbildung 7: Kernaufgaben im Marketing und die Verfügbarkeit von KI-Tools

Abbildung 8: KI im Marketing nach den 4 P (Marketing-Mix)

Abbildung 9: Fokus von Unternehmen auf Big Data und KI

Abbildung 10: Schwächen KMU

Abbildung 11: Kapazität nach der Dokumentenhäufigkeit

Abbildung 12: Bewertungsweise von KI in KMU

Abbildung 13: Herausfordernde Unternehmensfaktoren intern oder extern

Abbildung 14: Chancen von KMU

Abbildung 15: Risiken für KMU

Tabellenverzeichnis

Tabelle 1: Expertenübersicht und Kompetenz

Tabelle 2: Codierleitfaden

Tabelle 3: SWOT-Analyse

Abkürzungsverzeichnis

Google, Amazon, Facebook, Apple, Microsoft

Customer-Relationship-Management

Enterprise-Resource-Planning

Globales Navigationssatellitensystem zur Bestimmung der Position

Künstliche Intelligenz

Kleine und mittlere Unternehmen

Software as a Service

Search Engine Optimization

Anwender

1 Einleitung

Daten können als Kern der digitalen Transformation und als Herzstück des Digitali­sierungsprozesses angesehen werden. Der Großteil der heutigen Wirtschaft ist ab­hängig von Daten und deren Informationswert. Unternehmen erfassen und katalo­gisieren große Datenmengen bei jedem Schritt der Lieferkette, um Kundenerfah­rungen zu verbessern, neue Märkte zu erschließen und Prozesse produktiver zu gestalten. Das Hauptziel der digitalen Transformation liegt in der Digitalisierung der Kundenzufriedenheit, während das größte Hemmnis im unsicheren Umgang mit entsprechenden Technologien und Services gesehen wird.1 Eine von vielen Tech­nologien, die in den vergangenen Jahren Bedeutung gewonnen hat, wird Big Data genannt. Big Data ermöglicht die Analyse von großen Datenmengen. Anhand von Algorithmen der Künstlichen Intelligenz können Trends und Entwicklungen sowie Verbindungen und Beziehungen in Bezug auf die Verhaltensweisen und die Inter­aktionen zwischen Unternehmen und den Kunden erkannt und persönliche Konsu­mentenbedürfnisse befriedigt werden.2 Infolgedessen steigt über die Jahre parallel zum Datenwert auch der Datenumfang. Beide Aspekte betreffen mittlerweile Orga­nisationen in allen Branchen und Größenordnungen.

1.1 Problemstellung

Das Ergebnis einer Bitkom-Umfrage ergab, dass deutsche Unternehmen nach ei­gener Einschätzung noch hohen Nachholbedarf im Thema Digitalisierung verspü- ren.3 Einige Unternehmen sind der Meinung, dass sie den Anschluss an die Digita­lisierung gänzlich verpasst haben könnten.4 Geschäftsführer und Vorstände verge­ben sich für den Digitalisierungstand des eigenen Unternehmens im Durchschnitt die Note „Befriedigend", während kleine und mittlere Unternehmen (KMU) sich ein „Ausreichend" erteilen.5 Besonders das Jahr 2020, welches von der Corona-Pan­demie geprägt wurde, verändert die Gesellschaft verstärkt in Richtung Digitalisie­rung. Unternehmen, die einen höheren Digitalisierungsgrad aufweisen, können mit­tels digitaler Lösungen flexibel und schnell reagieren sowie höhere Umsätze, Absätze und/oder Produkt- und Service-Qualitäten schaffen.6 Die Erhebung von Bit- kom zeigt auf, dass digitale Technologien wie Big Data und Datenanalysen sehr bedeutsam für die Wettbewerbsfähigkeit deutscher Unternehmen sind.7 8 9 Auf dieser Grundlage nimmt auch das Thema Big Data und Künstliche Intelligenz (KI) im in­dustriellen und kommerziellen Zusammenhang immer mehr an Bedeutung zu. Digi­talisierung wird seit einiger Zeit als Megatrend angesehen. Die „Individualisierung" ergänzt neben der Konnektivität die aktuellen Megatrends. Das Zukunftsinstitut de­finiert einen Megatrend mit der Beeinflussung aller Ebenen (Gesellschaft, Unterneh­men, Institutionen und Individuen).89 Dieser Megatrend verkörpert den Wandel der Massenkommunikation in die individuelle Ansprache. Insbesondere Marketing ist ein datenlastiger Unternehmensbereich, der auf Kunden- und Produktdaten ange­wiesen ist und sich auf die Kundenansprache fokussiert. Große Unternehmen wie die „Big Five" (Google, Amazon, Facebook, Apple, Microsoft) profitieren bereits von den Potenzialen großer Datenmengen und KI-Anwendungen und dominieren den Markt. Das Thema KI konnte sich jedoch nicht in allen Branchen, Regionen und Unternehmensgrößen etablieren. Organisationen scheitern an den Barrieren zur Implementierung von KI-Projekten und können keinen erheblichen Mehrwert daraus schöpfen, während die Konkurrenz einen entscheidenden Wettbewerbsvorteil dar­aus zieht.

1.2 Zielsetzung

Ziel der vorliegenden Bachelorarbeit ist es daher, Möglichkeiten aufzuzeigen, wie KI im Marketing realisiert werden kann. Dabei wird die Relevanz von KI im Einsatz­gebiet Marketing fokussiert und speziell auf die Hindernisse und Potenziale kon­zentriert, die sich KMU im Hinblick auf KI im Marketing stellen müssen.

1.3 Methodik

Die wirtschaftliche Bedeutung von kleinen und mittleren Unternehmen ist unumstrit­ten. Ebenso wird deutlich, dass auch kleinere Unternehmen sich der Digitalisierung schwer entziehen können. Aus diesem Grund konzentriert sich die Arbeit auf diese Unternehmensgrößen. Aufgrund der Schwierigkeiten in kleinst-, kleinen und mittleren Unternehmen erfolgt keine größenbezogene Differenzierung, sodass kleine und mittlere Unternehmen als Mittelstand (KMU) zusammengefasst werden.

In den bisherigen Studien lag der Schwerpunkt auf der Relevanz von KI-Lösungen für Unternehmen und den geeigneten Einsatzgebieten. Die Recherche ergab ein Ungleichgewicht zwischen dem Nutzen von KI, der Relevanz und dem tatsächlichen Einsatz in KMU. Des Weiteren wurde deutlich, dass Chancen und Herausforderun­gen, auf die KMU in Bezug auf KI im Marketing treffen, nicht im Detail untersucht wurden. Aufgrund dessen widmet sich die vorliegende Arbeit der Beantwortung fol­gender Fragen:

- Auf welche Potentiale und Herausforderungen treffen kleine- und mittlere Unternehmen in Bezug auf KI im Marketing?
- Wie können KMU den Barrieren entgegenwirken um KI im Marketing zu realisieren?

Für ein umfangendes Verständnis der Datenerhebung und der Auswertung, wird in Kapitel 2 ein theoretisches Grundwissenskonstrukt gefertigt. Zu Beginn steht die Technologie Big Data als Voraussetzung für KI im Mittelpunkt. Dabei werden die Bestandteile und die Abgrenzung von Big Data fokussiert. Im Anschluss wird KI inklusive ihrer Lern- und Auswertungsmethoden vorgestellt. Aufbauend auf Big Data und KI wird in Kapitel 3 das Marketing anvisiert, sowie die Eignung und Anwendung von Algorithmen in dem Bereich erschlossen. Um ein tiefergehendes Verständnis zu erlangen, zeigt die empirische Studie in Kapitel 4, Stärken und Schwächen von KMU, wobei Chancen und Risiken deutlich werden, denen KMU mit KI im Marketing ausgesetzt sind. Das Kapitel 5 widmet sich der Auswertung der Experteninterviews und stellt mit einer SWOT-Analyse einen Einblick in die Ergebnisdarstellung dar.

2 Theoretische Grundlagen

2.1 Wissenschaftlicher Erkenntnisstand

Gemäß dem Bayrischen Staatsministerium für Wirtschaft, Landesentwicklung und Energie (StMWi) ist KI der Treiber der fortschreitenden Digitalisierung. Das StMWi spricht KI die Stärkung der Wettbewerbsfähigkeit sowie die Resilienz von Wirt­schaftssystemen zu.10 Resilienz bedeutet in diesen Zusammenhang ein Prozess, in dem auf Herausforderungen und Veränderungen mit angepasstem Verhalten re­agiert wird. Die Studie der Wirtschaftsprüfgesellschaft PwC argumentiert ähnlich und prognostiziert ein Wirtschaftswachstum dank KI. Das Bruttoinlandsprodukt könnte in Deutschland laut dieser Prognose im Jahr 2030 um 11,3 % steigen.11 Für den Ausbau der deutschen Wirtschaft fördert die Bundesregierung Projekte zum Thema „Erforschung, Entwicklung und Nutzung von Methoden der Künstlichen In­telligenz in KMU".12 Staatliche Förderungen im Rahmen der KI-Strategie der Bun­desregierung konzentrieren sich die politischen Handlungen besonders auf die Ver­mittlung von KI-Kompetenzen an KMU.13 Die Begleitforschung „Mittelstand-Digital" ergänzt diese Haltung und zeigt auf, dass 77 % der Befragten KI als bedeutend für die Zukunft des deutschen Mittelstands halten.14 Dem Zukunftspanel vom Mittel­stand 2020 kann entnommen werden, dass die Sicherung der Innovations- und Wettbewerbsfähigkeit aktuell und auch in der Zukunft die größten Herausforderun­gen für KMU darstellt. Dabei stand die Forschung teilweise vollständig unter dem Einfluss der Corona-Pandemie.15 Unter anderem wurde das Einkaufsverhalten eu­ropäischer Verbraucher durch die Pandemie beschleunigt und deutlich ins Digitale verschoben.16

Nach dem Institut für Mittelstandsforschung (IfM) zählt ein Unternehmen zu einer KMU, wenn es nicht mehr als 500 Beschäftigte und einem Jahresumsatz von maxi­mal 50 Millionen Euro erwirtschaftet. Es wird unterschieden zwischen Kleinst-, klei­nen und mittleren Unternehmen. Dabei haben Kleinstunternehmen höchstens 9 Be­schäftigte bei einem Jahresumsatz von maximal 2 Millionen Euro. Kleine Unternehmen beschäftigen bis 49 Angestellte bei einem Jahresumsatz von maximal 10 Millionen Euro. Mittlere Unternehmen erwirtschaften bis 50 Millionen Euro im Jahr und haben höchstens 499 Beschäftigte.17 Im Jahr 2018 zählen dem IfM zufolge 3,47 Millionen Unternehmen zu KMU, das waren 99,4 % aller Unternehmen mit dem Umsatz aus Lieferungen und Leistungen in Deutschland.18 Mit einem Beitrag von 61 % zur gesamten Netto-Wertschöpfung aller Unternehmen ist der Mittelstand sehr bedeutend für die deutsche Wirtschaft.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Unternehmensverteilung (D) nach Unternehmensgröße 2018 (Quelle: Zusammenstellung in Anlehnung an Statista, 2018)

Die im Jahr 2020 veröffentlichte Studie der Bundesregierung zeigt, dass nur 6 % aller befragten Unternehmen KI einsetzen. Dieser Prozentsatz verdeutlicht, dass KI bislang nur von wenigen Unternehmen genutzt wird. Ein geringer KI-Einsatz wurde im Bereich Marketing und Vertrieb erhoben,19 obwohl die artegic AG den KI-Einsatz zu einem der Haupttrends erklärt, die das Marketing bis zum Jahr 2022 treiben wer­den.20 Auch die Europäische Marketingagenda 2020/2021 wird vom Deutschen Marketingverband mit klar definierten Trends beschrieben, die deutlich in Richtung Transformation in das Data-diven Marketing gehen.21 Schließlich zeigt die Erhebung von der Mittelstand-Digital Begleitforschung auf, dass der Marketing und Vertrieb Bereich mit 72 % der Befragten, als ein geeigneter Einsatzbereich von KI betrachtet wird.22 Jedoch liegt der Einsatz von KI-Anwendungen in Unternehmen häufig in den Bereichen IT, Produktion, Cybersecurity und Finanzen, während Mar­keting einen hinteren Rang in der Nutzung einnimmt.23

2.2 Big Data

Im Jahr 2017 wurde das Potenzial von Daten als Ressource mit Öl verglichen und als Rohstoff der Zukunft bezeichnet, der einen vergleichbaren Einfluss auf die Welt zeige.24 Drei Jahre später verglich die Süddeutsche Zeitung Daten bereits mit einer „ökonomischen Naturgewalt“, deren Einsatz auch Risiken mitbringt, die kontrolliert werden müssen. Im Jahr 2020 hat der Informationswert das Öl an der Ressourcen­spitze ersetzt und wird nun mit Bedeutung von Plutonium gleichgesetzt.25 Der Ver­gleich hochwertiger Güter mit Daten zeigt zum einen, wie wertvoll Informationen für die Gesellschaft geworden sind. Zum anderen sollte dieser Vergleich mit Vorsicht begegnet werden, denn letztlich ist sowohl Gold als auch Öl ein knappes Gut, dass in der Zukunft aufgebraucht sein wird. Datenmengen dagegen nehmen rasant und in starkem Ausmaß zu. Die „International Data Corporation“ prognostiziert, dass die globale Datensphäre bis 2025 auf 175 Zettabytes wachsen wird, 2018 betrug die Menge noch 33 Zettabytes.26

Um den Mehrwert und die Herausforderungen von Big Data und KI im Marketing herauszufinden, muss zunächst die Bedeutung dieses Begriffs verstanden werden. Big Data ist ein Begriff, der in letzter Zeit populär geworden ist, doch bleibt er zu­gleich diffus und vielfältig, sodass seine genaue Definition nicht auf Anhieb erfasst werden kann.27 Der Psychologe und Verhaltensökonom Dan Ariely (Duke Univer­sity, North Carolina, USA) verglich im Jahr 2014 Big Data mit einem Phänomen von dem jeder spricht, jedoch keiner das genaue Verständnis dafür aufweist: „Mit Big Data ist es wie mit Sex im Teenager-Alter: Jeder spricht darüber. Keiner weiß wirk­lich, wie es geht. Alle denken, dass die anderen es tun, also behauptet jeder, dass er es auch tut."28 Während des Verfassens vorliegender Arbeit fiel auf, dass einige Autoren Ariely zitieren, womit das Unwissen über den Begriff repräsentiert wird. Es scheint so, als ob sich seit dem Jahr 2014 nicht viel verändert hat. Im Zuge der Recherche konnte festgestellt werden, dass der Begriff bis heute unterschiedlich definiert wird.

2.2.1 Definition Big Data

Big Data unterliegt vielfältigen Begriffsbestimmungen. Einige Quellen sehen den Begriff als abstrakt oder allgemein. Es gibt keine universelle Definition in Bezug auf das, was Big Data ausmacht. Big Data wird eher in Relation zu den verfügbaren Technologien und Ressourcen definiert. Obwohl Big Data mittlerweile zum allge­meinen Sprachgebrauch zählt, ist der Begriff wissenschaftlich noch nicht verbindlich definiert. Generell werden darunter die Erzeugung und Verarbeitung zunehmend großer Datenmengen verstanden. Big Data beschreibt eine große Menge entweder geordneter oder ungeordneter Daten, die analysiert werden müssen, um eine infor­mierte Entscheidung oder Bewertung zu treffen.29 Bei der entstehenden Daten­menge wird von einem Datenstrom gesprochen, der aufgrund der Heterogenität un­strukturiert und komplex ist. Die Herausforderung von Big Data besteht jedoch nicht in der Sammlung und Archivierung großer Datenmengen, sondern in deren Ana­lyse, Verarbeitung und Verwertung in Echtzeit.30 Letztlich kann der Begriff Big Data zu einem Oberbegriff zusammengefasst werden, der für große digitale Datenvolu­men steht, die durch den ansteigenden Einsatz von digitalen Werkzeugen und In­formationssystemen erzeugt wird. Big Data wird verwendet, wenn die Datenmenge, die ein Unternehmen zu verwalten hat, ein kritisches Volumen erreicht, das neue technologische Ansätze in Bezug auf Speicherung, Verarbeitung und Nutzung er­fordert. Volumen, Geschwindigkeit und Vielfalt sind üblicherweise die drei Hauptkri­terien, die verwendet werden, um eine Datenbank als „Big Data" zu qualifizieren.31 Gelegentlich werden Begriffe verwendet, die mit Big Data konkurrieren und den spe­zifischen Mehrwert hervorheben sowie Smart Data oder Fast Data, diese definieren die intelligente Datenverwendung und die Verarbeitungsgeschwindigkeit.32 Um fest­stellen zu können, ob und welche Unternehmen sich das Big-Data-Konstrukt zunutze machen können, ist es sinnvoll, Bestandteile von Big Data zu analysieren, um sie von gewöhnlichen Daten abgrenzen zu können.

.2.2 Zentrale Charakteristika

Die meisten Datenexperten berufen sich auf mindestens drei V für die Bestandteile von Big Data: Volume (Menge), Velocity (Geschwindigkeit) und Variety (Vielfalt). In der Definition der Gartner Group wird von Informationskapital oder Vermögenswert gesprochen, weshalb einige Quellen zwei weitere V hinzufügen, die Big Data ver­körpern sollen.33 Veracity (Richtigkeit) und Value (Wertigkeit). Der Bitkom-Leitfaden von 2012 ergänzt die Hauptdimensionen um Analytics und die damit erzeugenden Zusammenhänge und Muster.34 Auf diese Auswertungsmethoden wird in Kapitel

2.2.3 f. näher eingegangen.

Volume (Datenmenge) beschreibt die großen Datenmengen, die von Big Data auf­genommen, analysiert und verwaltet werden. Die Datenmenge ist das namensge­bende Merkmal dieses Begriffs. Der Datenumfang steigt mit der Anzahl der Daten­quellen, höheren Auflösungen und der Bittiefe.35 Big Data sollte in der Lage sein, jede Datenmenge zu verarbeiten, selbst wenn sie erwartungsgemäß exponentiell wächst. Gemäß dem Moore’schen Gesetz wird das Wachstum dieser Datenmen­gen durch technologische Entwicklungen in der Datenerzeugung, -verarbeitung und -speicherung unterstützt.36 Mittlerweile wird davon ausgegangen, dass bei Big Data Datenmengen in ungewöhnlichen Umfängen, also von mindestens Terabyte- Größen vorliegen.37 Die Einführung neuer Datenquellen - insbesondere Internetda­ten - führt dazu, dass inzwischen in Terabytes = 1012 Bytes, Petabytes = 1015 Bytes, Exabytes = 1018 Bytes und Zettabytes = 1021 Bytes, gemessen wird. In einigen amt­lichen Organisationen liegt die anfallende Datenmenge bereits bei „Yottabytes", was einer Zahl mit 24 Nullen entspricht.38

Velocity (Datengeschwindigkeit) ist als Merkmal von Big Data nicht einheitlich defi­niert und beschreibt zwei Teilaspekte. Zum einen werden Daten mit sehr hoher Ge­schwindigkeit produziert und zum anderen bezieht sich die Schnelligkeit auf33 34 35 36 37 38 Systeme, die in der Lage sein müssen, Informationen in Echtzeit speichern, verar­beiten und analysieren zu können. Dies fordert sowohl die Hardware, beispiels­weise mit hohen Memory-Technologien heraus als auch die Software, die geeignete Algorithmen benötigt.39 Somit bezeichnet die Schnelligkeit sowohl die Geschwindig­keit, mit der sich Daten wandeln, als auch den Zeitraum, in dem auf diese reagiert werden muss. Die Datengeschwindigkeit wird von der Quellenanzahl sowie der ge­stiegenen Rechenleistung von datengenerierten Geräten beeinflusst. Durch Re­chengeschwindigkeit werden immer mehr Daten in kürzerer Zeit produziert, sodass durchaus behauptet werden kann, dass die Merkmale „Volume" und „Velocity" in unmittelbarem Verhältnis zueinanderstehen. Darüber hinaus steht die Datenge­schwindigkeit für eine kurze Wertdauer des Erkenntniswertes der Daten, denn die beschriebenen Sachverhalte digitaler Daten ändern sich rasant. Somit müssen dem vorhandenen Datenbestand stets veränderte oder neue Daten hinzugefügt wer­den.40

Variety (Datenvielfalt) bezieht sich auf die Heterogenität der Datentypen, deren Dar­stellung und deren semantische Interpretation.41 Datenformate und deren Inhalte sind ebenso unterschiedlich wie deren Strukturierungsgrad. Es gibt strukturierte, semistrukturierte und unstrukturierte Daten. Strukturierte Daten bereiten Datenban­kensystemen keine Probleme und werden in herkömmlichen Datenbanken gespei­chert. Beispiele dafür sind Daten aus dem Enterprise Resource Planning (ERP), Customer Relationship Management (CRM) und Transaktionsdaten. Semistruktu­rierte Daten sind teilweise strukturiert, beinhalten dennoch unstrukturierte Ele­mente, die von standardisierten Systemen nicht verarbeitet werden können und komplexere Verfahren erfordern. E-Mails zählen beispielsweise zur Semistruktur, wobei der Header eine Struktur aufweist und der Inhalt variiert und unstrukturiert ist. Textverarbeitungsdokumente, Leistungsbewertungen, Umfragen und Weblogs zäh­len ebenfalls zu dieser Kategorie. Unstrukturierte Daten sind in Form und Struktur nicht konsistent und erfordern neue Techniken, um diese sammeln, verarbeiten, evaluieren und filtern zu können. Zu dieser Datengruppe gehört ein Großteil der Internetdaten wie Kundenrezensionen, Blogs, Kommunikation über soziale Netz­werke, Wetterdaten, Audio-Daten in natürlicher Sprache und Videos. Aufgrund der verschiedenen Strukturen sind relationale Datenbanken nicht in der Lage, diese Da­ten zu verarbeiten. Verschiedene Formate und Quellen für übergreifende Feststel­lungen und Erkenntnisse zu nutzen, ist eine der Kernaufgaben von Big Data.42

Veracity (Richtigkeit) bezieht sich auf die Qualität der aufgenommenen Daten, die von der Glaubwürdigkeit, Vollständigkeit und Sinnhaftigkeit der Daten beeinflusst wird. Darüber hinaus bestimmen die folgenden Dimensionen die Informationsquali­tät der Daten (Korrektheit, Vollständigkeit, Konsistenz und Aktualität).43 Während die Hauptmerkmale Volume, Velocity, Variety mithilfe von Technologien, Methoden und den Einsatz ausreichender Mittel kontrollierbar sind, stellt das Merkmal „Vera­city" Unternehmen oft vor Herausforderungen.44 Subjektive Empfindungen und un­terschiedliche zeitliche und inhaltliche Kontexte sind Bestandteil von Social-Media- Netzwerken. Die Objektivität von usergenerierten Texten ist nicht sicher messbar. Für Big-Data-Anwendungen ist es kennzeichnend, die Faktoren Verlässlichkeit und Widerspruchsfreiheit bei der Verarbeitung der Daten nachzuvollziehen und zu be­rücksichtigen.45 Neben statistischen Auswertungsverfahren und der binären Logik, in der entweder der Zustand 0 oder 1 angenommen werden kann, gibt es „un­scharfe" Auswertungsmethoden. Diese können einem Resultat einen Wahrheits­wert zwischen 0 (falsch) und 1 (wahr) zuordnen.46

Value (Wertigkeit) bestimmt den Wert der Daten, die für die Analyse genutzt wer­den. Die Nutzung von Big Data ist aufgrund der hohen Investitionen in Hard- und Software sowie in das Personal kostspielig und sollte im Idealfall den Wert des Un­ternehmens steigern. Diese Investitionen sollten sich durch den Wertzuwachs, der dem Unternehmen durch die Datenerkenntnisse entsteht, amortisieren.47 Leistungs­kennzahlen von Unternehmen sollten erreicht werden, jedoch bezieht sich das Merkmal nicht ausschließlich auf monetäre Werte. Der Datenbesitz als solcher kann einem Unternehmen den Eintritt in gewisse Märkte eröffnen. Selbst indirekte Effekte auf wirtschaftliche und gesellschaftliche Datennutzungen können werterbringend sein. Die genaue Wertbestimmung ist jedoch schwierig und noch subjektiv.

Unternehmen stehen weiterhin vor der Schwierigkeit zu bestimmen, wie hoch der tatsächliche Wert ihrer gesammelten Daten ist. Doch allein das Bauchgefühl, dass gewisse Daten in Zukunft einen Wert haben könnten, verleitet Organisationen dazu, diese zu sammeln, um sie bei Bedarf auswerten zu können.48

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: 5-V-Merkmale von Big Data (Quelle: eigene Darstellung)

2.2.3 Abgrenzung Big Data Analytics und Business Intelligence

Big Data Analytics verfolgt das Ziel, unstrukturierte große Datenmengen mithilfe neuer Softwarelösungen und automatisierter Analysemethoden auszuwerten.49 Dieser Mehrwert wird durch das Erkennen versteckter Muster und Zusammenhänge generiert, die für Entscheidungen genutzt werden. Die Herausforderung wird im Da­tenimport, in der Verarbeitung in Echtzeit und im parallelen Abruf diverser Informationstypen gesehen.50 Dabei lässt sich behaupten, je weiter die Analyse in die Zukunft reicht, desto höher der Bedarf an intelligenten Algorithmen ist.51

Der Begriff Business Intelligence (BI) umfasst viele Bedeutungen, jedoch zeichnet sich laut Schwarz (noch) keine allgemeingültige Definition ab.52 Der Autor be­schreibt BI mit einem Gesamtkonzept innerhalb der IT, das entfaltet wird, wenn Sys­teme zur Entscheidungsfindung angeschlossen sind. Systemkomponenten sind ein Teil der BI, wenn sie die geschäftsumfassende Datensammlung und Aufarbeitung von Daten unterstützen.53 Wierse argumentiert ähnlich und definiert BI als diverse Tools und Ansätze, um ein Unternehmen kennzahlenbasiert zu führen.54 Er fasst BI mit der Möglichkeit der Auskunft zusammen, ob im Unternehmen alles gut ver­läuft.55 Um Schlüsse für die Unternehmenssteuerung ziehen zu können, bildet BI Aggregationen diverser Datenquellen. In diesem Ansatz sind Business Intelligence und Big Data einander ähnlich. Jedoch sind BI-Lösungen aufgrund ihrer definierten Datenbankstruktur für die Verarbeitung unstrukturierter Daten ungeeignet.

Laut Holland können die Unterschiede zwischen Business Intelligence und Big Data an drei Aspekten aufgezeigt werden.56 Einer zeigt sich in dem unterschiedlichen Umgang mit den Daten. Big Data sammelt und speichert Daten, auf Grundlage die­ser Rohdaten suchen Unternehmen nach Erkenntnissen und Zusammenhängen. Die BI ist vom internen Datenbestand geprägt, wobei Berichte aus Fakten definiert werden und der Prozess der Datenaggregation daran ausgerichtet wird. Laut King bezeichnet BI eine Managementstrategie, die eine Entscheidungsfindung auf Basis von Fakten generieren soll.57 Dabei befasst sich BI ausschließlich mit strukturierten Daten, die in einer speziellen Datenbank aus verschiedenen Quellen (Data Wa­rehouse) abgelegt und zusammengefasst werden. Grundlage hierfür sind unterneh­mensinterne Systeme, wie beispielsweise das Enterprise-Resource-Planning (ERP) und Customer-Relationship-Management (CRM).58 Während BI ein starrer Prozess ist, der sich für das Berichtswesen eignet, ist Big Data agiler.

Big Data kann durch zielgerechtes Handeln die Entwicklung eines Geschehens be­stimmen und Situationen hervorrufen. Wenn das Unternehmen vor einer Frage steht, können Daten auf allen Ebenen des Unternehmens in Echtzeit abgefragt wer­den. Daher betont Holland, dass Big Data im Unternehmen und in dessen Kultur tiefer verwurzelt ist als BI. Letztlich liegt der Unterschied in der Betrachtung der zeitlichen Differenz. Während Big Data sich auf die zukünftige Sichtweise bezieht, indem sich mit statistischen Wahrscheinlichkeiten Ereignisse vorhersagen und Handlungsmöglichkeiten bewerten lassen, ist BI analytisch ausgerichtet. BI erstellt Reports, welche die aktuelle Situation von Unternehmen betreffen und Unterneh­mensentscheidungen unterstützen. Die Sichtweise ist somit auf der Gegenwart und die Vergangenheit gelenkt.59 Dabei finden im Unternehmenskontext klassische de­skriptive Verfahren Anwendung.60 Business Intelligence und Big Data bilden die Ba­sis für Business Analytics.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Big Data, Big Data Analytics, Business Intelligence (Quelle: In Anlehnung an Gleich, 2017, S. 31)

2.2.4 Datenerhebung und Datenquellen

Die Menge an neuen Daten steigt exponentiell weiter und hat eine nie endende Zunahme der globalen Datensphäre zur Folge. Die zunehmende Vernetzung von bisher getrennten Bereichen des menschlichen Lebens mithilfe zunehmender digi­taler Kontaktpunkte (Touchpoints), beispielsweise durch Sensoren und mobile Endgeräte, ermöglicht die Sammlung digitaler Daten.61 Gleichzeitig werden Daten wirtschaftlich zu einem Kerngeschäft, denn der Vermögenswert einer Organisation speist sich aus zwei Bereichen: interne Daten und externe Daten.62 Interne Daten bezeichnen den Datenumfang, der innerhalb des Unternehmens generiert wird. Ex­terne Daten sind öffentlich und werden außerhalb des Unternehmens generiert.

Das jfc Medienzentrum beschreibt Datenquellen mit der Fähigkeit. Signale aus Sen­soren zu digitalisieren und diese zu verarbeiten, wobei das Smartphone aufgrund seiner zahlreichen Sensoren hervorgehoben wird. Der große Umfang von Online­Aktivitäten und der Smartphone-Nutzung tragen zur Sammlung von großen Daten­mengen bei. Das jfc merkt an, das auf der nicht staatlichen Seite Facebook, WhatsApp, Instagram, Amazon, Apple und Google die größten Big-Data-Akteure seien. Eine weitere Datenquelle stellt das Internet der Dinge (IoT) aufgrund der stei­genden Zahl der Geräte, die auf der Welt vernetzt sind und Daten generieren, dar. Statista weist auf, dass Ende 2018 geschätzte 22 Milliarden IoT-Geräte im Einsatz waren. Bis 2030 werden durch die zunehmende Entwicklung 50 Milliarden IoT-Ge- räte prognostiziert, zu denen Maschinen, Haushaltsgeräte, Verkehrsinfrastruktur In­dustrieanlagen zählen. Chipkarten gehören ebenfalls zur Kategorie IoT, beispiels­weise Payback sowie Bank- und Gesundheitskarten. Als letzte Datenquelle nennt das jfc das Tracking im öffentlichen Raum. Tracking beschreibt alle Schritte zur Ver­folgung von Objekten. Dafür werden Daten von Trackinginstrumenten gesammelt, die beispielsweise in Fahrzeugen integriert sind wie das GPS, aber auch das Fahr­verhalten. Durch Mikrofone und Videokameras werden Daten im Gesundheitssys­tem und in Verkehrsmitteln sowie durch Drohnen und Satelliten gesammelt.63 King argumentiert ähnlich und fasst externe Datenquellen in sechs Hauptkategorien zu­sammen, Online-Geschäftsprozesse, Social Media, mobile Anwendungen, Sensor­daten, Geodaten und Suchmaschinendaten.64 Für die Auswertung und Analyse von Big Data werden KI-Algorithmen eingesetzt. Im folgenden Unterkapitel werden die Synergieeffekte von Big Data und KI erläutert.

2.3 Künstliche Intelligenz

Unabhängig von der Art und Größe schaffen Daten von sich aus keinen Mehrwert. Laut Gentsch sind es Algorithmen, die im Gegensatz zu Big Data Daten wertvoll machen. Algorithmen werden damit immer relevanter für die Analyse der stark wachsenden Datenmengen und stehen somit im Mittelpunkt des digitalen Geschäfts.65 66 67 68 Zunächst ist es notwendig zu klären, was unter Künstlicher Intelligenz (KI) bzw. Artificial Intelligence (AI) zu verstehen ist und welche Ziele sich durch KI erreichen lassen. Kreuzer definiert KI mit der folgenden Definition: „Künstliche Intelligenz bezeichnet die Fähigkeit einer Maschine, kognitive Aufgaben auszuführen, die wir mit dem menschlichen Verstand verbinden. Dazu gehören Möglichkeiten zur Wahrnehmung sowie die Fähigkeiten zur Argumentation, zum selbstständigen Lernen und damit zum eigenständigen Finden von Problem­lösungen.“66 Kreutzer zufolge sollte KI in schwach und stark unterteilt werden. Starke KI beschreibt eine bis heute inexistente Nachbildung des menschlichen Bewusstseins. Schwache KI dient demgegenüber nicht der Imitierung menschlicher Fähigkeiten, sondern der Problemlösung und Optimierung komplexerer Aufgaben.6768 Laut Wennker werden die Bestandteile von KI selten trennschaft genutzt.69 In Abbildung 4 wird die Trennung grafisch visualisiert.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Künstliche Intelligenz und ihre Bestandteile (Quelle: eigene Darstellung)

2.3.1 Maschinelles Lernen - Machine Learning

Maschinelles Lernen ist ein Teil der KI und heute schon realisiert. Laut Gentsch findet der Begriff Verwendung, um durch Anwendungen und Methoden die Gene­rierung von Wissen aus „Erfahrung" zu beschreiben.70 Auch Wennker teilt diese Definition und erklärt, dass ein System aus vorhandenen Datensätzen und Zusam­menhängen lernt und auf neue Daten anwenden kann.71 Die Algorithmen lernen somit kontinuierlich und können ihre Performance eigenständig optimieren. Deep Learning (mehrschichtiges Lernen) bezeichnet laut Kreutzer ein Teilgebiet des Ma­chine Learning, das durch spezielle Algorithmen (neuronale Netze) Informationen mit zahlreichen Zwischenschichten verarbeitet. Dabei legen Algorithmen die Basis für die Entwicklung neuer Algorithmen. Wenn sich diese im Lernprozess als aussa­gekräftiger herausstellen, arbeitet Machine Learning selbstständig mit diesen wei­ter.72 Zusammenfassend ist Machine Learning ein lernender Prozess. Dieser er­möglicht es einem System, aus Daten und Erfahrungen zu lernen und optimierte Ergebnisse auszugeben, ohne dass das System zuvor auf das Ergebnis program­miert wurde. Somit können Anomalien in der Datenstruktur erkannt, Prognosen zu bestimmten Mustern getroffen und logische Zusammenhänge modelliert werden. Laut IBM erfordert Machine Learning eine Sammlung richtiger Daten, die im Lern­prozess angewendet werden sollen. Um Machine Learning anzuwenden, benötigen Unternehmen nicht zwingend Big Data. Jedoch wird hervorgehoben, dass Big Data die Genauigkeit der Verfahren erhöht.73

2.3.2 Lernmethoden

Maschinelles Lernen wird in unterschiedliche Lernarten unterteilt, die im Folgenden vorgestellt werden. Lernmethoden sind Verfahren, die Machine Learning für die Ver­besserung der Vorsagegenauigkeit benötigt. Mittlerweile liegen unterschiedliche Ansätze mit verschiedenen Zielen vor und somit diverse Arten der Lösung von Ge­schäftsproblemen.

- Supervised Learning (überwachtes Lernen): Das überwachte Lernen ermöglicht das Erkennen von Mustern in Daten, die auf einen Analyseprozess angewendet
-erden können. Das Ziel des Algorithmus ist bei dem überwachtem bzw. beaufsichtigten Lernprozess bereits bekannt. Laut Wagener soll der Weg dorthin „trainiert" werden.74 Die Aufgabe des KI-Systems liegt in der Anpassung des Algorithmus, sodass die Ausgabe aus dem vorhandenen Datensatz, möglichst genau abgeleitet werden kann. Hierbei muss die menschliche Ressource alle Elemente der eingegebenen Daten kennzeichnen und die Ausgabevariablen definieren.75
- Semi-Supervised Learning (halbüberwachtes Lernen): Bei dem halbüberwachten Lernen sind in vielen Fällen Daten vorhanden. Diese sind nur nicht gekennzeichnet. Laut Wennker ist die Datenkennzeichnung in manchen Bereichen, wie zum Beispiel in der Pharmazeutik, mit hohen Kosten verbunden. Bei diesem Lernprozess wird somit nur ein kleiner Teil der Daten mit der Ergebnisvariable markiert. Die Kennzeichnung wird durch Experten im jeweiligen Bereich meist händisch erledigt. Der kleine gekennzeichnete Datenanteil wird mit ungekennzeichneten Daten als Trainingsdatensatz verwendet. Hierbei wird davon ausgegangen, dass Datensätze, die dicht beieinander liegen, mit einer gewissen Wahrscheinlichkeit die gleiche Kennzeichnung besitzen.76
- Unsupervised Learning (unüberwachtes Lernen): Im Gegensatz zum überwachten Lernprozess erfordert diese Lernmethode eine hohe ungekennzeichnete Datenmenge. Somit verfügt das unüberwachte Lernen keine vordefinierten Zielwerte und muss Relationen und Muster in den Datensätzen selbstständig identifizieren. Die Zusammenhänge sind dem Anwender vorab unbekannt. Der Algorithmuss muss auf dieser Grundlage Datengruppen identifizieren, die ähnliche Merkmale bzw. Verhalten aufweisen. Die gewonnenen Erkenntnisse können auch auserhalb der menschlichen Vorstellung liegen.77 Gentsch teilt diese Definition und ergänzt, dass unüberwachte Lernalgorithmen für Kunden oder Marktsegmentierung geeignet sind.78
- Reinforcement Learning (verstärkendes Lernen): Beim verstärkenden Lernen liegt zu Beginn kein optimaler Lösungsweg vor. Das System muss eigenständig durch ein Trial-and-Error-Prozess Lösungswege erproben. Ein Trial-Error- Prozess beschreibt die Arbeit mit „Belohnungen", also guten Lösungsvorschlägen oder „Bestrafungen", schlechten Ansätzen. Somit wird das System durch erfolgreiche Ausgänge bestärkt. Laut Kreutzer kommt dieser Lernprozess zum Einsatz, wenn nur wenige Daten vorliegen oder das beste Ergebniss nicht klar definiert ist. Des Weiteren wird verstärkendes Lernen verwendet, wenn ausschließlich durch das Interagieren mit der Umwelt etwas gelernt werden kann. Die Aktionen werden vom Algorithmus selbstständig optimiert und stetig korrigiert.79

2.3.3 Auswertungsmethoden

Die vier Auswertungsmethoden der Datenanalyse können in beschreibende, diagnostische, vorausschauende und vorschreibende Analyse unterteilt werden. Dabei lassen sie sich kombiniert oder isoliert voneinander anwenden. Die Analysearten verkörpern die Schritte der Analysereife, wobei jeder weitere Schritt zu einer höheren Wertschöpfung sowie einem höheren Reifegrad führt.80

- Deskriptive Analytik (Descriptive Analytics) fragt nach dem „Ist“ und fokussiert sich auf die Problemstellung.
- Diagnostische Analytik (Diagnostic Analytics) fragt nach dem „Warum“ und beschreibt den Ereignisgrund.
- Prädiktive Analytik (Predictive Analytics) fragt nach dem „Wird“ und sagt zukünftige Entwicklungen voraus.
- Präskriptive Analytik (Prescriptive Analytics) fragt nach dem „Was“ und empfiehlt eine Handlung.81

Die Deskriptive Analytik beschreibt, was bereits geschrehen ist, und ist somit die einfachste Analyseart. Diagnostische Analytik liefert Informationen und zeigt die Auslöser der ermittelten Muster. Diese Methoden konzentrieren sich auf den Rückblick und die Gegenwart und bilden somit die Basis für traditionelle Business- Intelligence-Methoden. Die Prädiktive und Präskriptive Analytik werden mit zukunfsorientierten Analyseverfahren zusammengefasst. Diese Methoden setzen dort an, wo die Möglichkeiten von Business Intelligence enden. Prädiktive Analytik kann die Entscheidungsfindung anhand von Prognosen optimieren. Hierbei werden verschiedene Szenarien simuliert und abgewogen. Amann eränzt, dass die Prädiktive Analyse einer der bedeutendsten Big-Data-Trends der Gegenwart ist.82 Präskriptive Analytik stellt laut Garnter die höhste Stufe dar. Auf Basis der Prädiktive Analytik erstellt sie nicht nur Prognosen, sondern gibt Hinweise auf die Beeinflussung der Ergebnisse. Dabei werden verschiedene Szenarien simuliert und abgewogen.83 Methoden, die diagnostische, prädiktive und präskriptive Analyseverfahren beinhalten, werden Advanced-Analytics-Methoden genannt. Deren Zielsetzung liegt in tiefergehender Erkenntnisgewinnung, Vorhersagen und Empfehlungen.

[...]


1 Vgl. Susan Rönisch 2019: Was die Digitalisierung in deutschen Unternehmen ausbremst.

2 Vgl. Del Toro Barba 2018: Marktmacht durch Big Data in der künstlichen Intelligenz.

3 Vgl. BITKOM BITKOM 2019: Digitalisierung kommt in den deutschen Unternehmen an.

4 Vgl. Amerland 2020: Deutsche Firmen lahmen bei der digitalen Transformation.

5 Vgl. BITKOM 2020: Deutsche Unternehmen geben sich eine Drei im Fach „Digitales".

6 Vgl. Deutsche Telekom AG 2020: Corona beschleunigt Digitalisierung der Industrie: Mobile und flexible IT hilft Unternehmen durch die Krise.

7 Vgl. BITKOM 2020: Deutsche Unternehmen geben sich eine Drei im Fach „Digitales".

8 Zukunftsinstitut 2021: Megatrend Individualisierung.

9 Vgl. HANNOVER MESSE 2020: AI & Machine Learning: Megatrend Individualisierung: Mit KI auf dem Weg zu Losgröße 1.

10 Vgl. StMWi (2020): Bekanntmachung - Künstliche Intelligenz - Big Data, S. 1.

11 Vgl. PwC Deutschland 2018: Auswirkungen der Nutzung von KI in Deutschland, S. 4.

12 Bundesministerium für Bildung und Forschung (BMBF) 2020: Bekanntmachung.

13 Vgl. Die Bundesregierung 2020: Strategie Künstliche Intelligenz der Bundesregierung, S. 19.

14 Vgl. WIK GmbH 2019: Künstliche Intelligenz im Mittelstand, S. 6.

15 Vgl. Siegrun Brink/Britta Levering/Annette Icks: Das Zukunftspanel Mittelstand 2020, S. 5.

16 Vgl. PwC Deutschland 2020: Neue Normalität beim Einkauf.

17 Vgl. ifM Bonn: KMU-Definition des IfM Bonn.

18 Vgl. IfM: Mittelstand im Überblick.

19 Vgl. Bundesministerium für Wirtschaft und Energie (BMWi) 2019: Einsatz von künstlicher Intelligez in der Deutschen Wirschaft, S. 12.

20 Vgl. artegic AG 2020: Trendreport: 5+1 digitale Marketing-Trends 2020-2022.

21 Vgl. Deutscher Marketing Verband e.V. 2021: Marketing Agenda.

22 Vgl. WIK GmbH 2019: Künstliche Intelligenz im Mittelstand, S. 12.

23 Vgl. Deloitte Deutschland 2021: KI-Studie 2020: Wie nutzen Unternehmen Künstliche Intelligenz?.

24 Vgl. The ECONOMIST 2017: The world’s most valuable resource is no longer oil, but data.

25 Vgl. Andrian Kreye 2020: Daten sind das neue Plutonium.

26 Vgl. Reinsel/Gantz/Rydning 2018: The Digitization of the World - From Edge to Core, S. 3.

27 Vgl. Kolany-Raiser et al. 2018: Big Data und Gesellschaft, S.2.

28 Ulrich Clauß 2014: „Big Data ist wie der Sex bei Teenagern“.

29 Vgl. König/Schröder/Wiegand 2018: Big Data, S.150-151.

30 Vgl. Kolany-Raiser et al. 2018: Big Data und Gesellschaft, S.6.

31 Vgl. IBM Big Data & Analytics Hub 2019: Die vier Vs von Big Data.

32 Vgl. Gadatsch/Landrock 2017: Big Data für Entscheider, S. 2.

33 Vgl. Gartner 2021: Definition of Big Data - Gartner Information Technology Glossary.

34 Vgl. BITKOM: Big-Data-Technologien, S. 13-23.

35 Vgl. King 2014: Big Data, S. 35.

36 Vgl. Klausnitzer 2013: Das Ende des Zufalls, S. 89.

37 Vgl. Albrecht/Schlüter 2020: Erfolgsmodell Data Analytics, S. 32.

38 Vgl. Bachmann 2014: Big Data - Fluch oder Segen?, S. 24.

39 Gentsch 2019: AI in Marketing, Sales and Service, S.14.

40 Vgl. Albrecht/Schlüter 2020: Erfolgsmodell Data Analytics, S. 32.

41 Vgl. King 2014: Big Data, S. 35.

42 Vgl. Dorschel 2015: Praxishandbuch Big Data, S.7-8.

43 Vgl. Kreutzer/Sirrenberg 2019: Künstliche Intelligenz verstehen, S. 79.

44 Vgl. Gentsch 2019: AI in Marketing, Sales and Service, S.14.

45 Vgl. Dorschel 2015: Praxishandbuch Big Data, S. 8.

46 Vgl. Meier et al. 2017: The Application of Fuzzy Logic for Managerial Decision Making Processes, S.89-95.

47 Vgl. Knorre/Müller-Peters/Wagner 2020: Die Big-Data-Debatte, S. 67.

48 Vgl. Kolany-Raiser et al. 2018: Big Data und Gesellschaft, S. 395.

49 Vgl. Dorschel 2015: Praxishandbuch Big Data, S. 63.

50 Vgl. Gleich et al. 2017: Strategische Unternehmensführung mit Advanced Analytics, 31-33.

51 Vgl. Mittelstand heute 2020: Was Business Intelligence, Business Analytics und Big Data Analytics unterscheidet.

52 Vgl. Torsten Schwarz 2015: Big Data im Marketing, 68.

53 Vgl. Torsten Schwarz 2015: Big Data im Marketing, S. 68-69.

54 Vgl. Wierse/Riedel 2017: Smart Data Analytics, S.35.

55 Vgl. Wierse/Riedel 2017: Smart Data Analytics, S. 35-36.

56 Vgl. Holland 2014: Digitales Dialogmarketing, S. 256.

57 Vgl. Holland 2014: Digitales Dialogmarketing, S. 255-257.

58 Vgl. King 2014: Big Data, S. 37-38.

59 Vgl. Holland 2014: Digitales Dialogmarketing, S. 255-256.

60 Vgl. Boßow-Thies/Hofmann-Stölting/Jochims 2020: Data-driven Marketing, S.12.

61 Vgl. Gentsch 2019: Künstliche Intelligenz für Sales, Marketing und Service; Torsten Schwarz 2015: Big Data im Marketing, S.19-20.

62 Vgl. Mohanty/Jagadeesh/Srivatsa 2013: Big Data Imperatives, S. 2.

63 Vgl. Statista Research Department 2021: IoT-verbundene Geräte weltweit 2030.

64 Vgl. King 2014: Big Data, S. 41-55.

65 Vgl. Gentsch 2019: AI in Marketing, Sales and Service, S. 14.

66 Kreutzer/Sirrenberg 2019: Künstliche Intelligenz verstehen, S. 3; Kursivsatz von N. B.

67 Vgl. Kreutzer 2015: Digitale Revolution, S. 20.

68 Vgl. Wagener 2019: Künstliche Intelligenz im Marketing - ein Crashkurs, S.18.

69 Vgl. Wennker 2020: Künstliche Intelligenz in der Praxis, S. 9.

70 Vgl. Gentsch 2019: AI in Marketing, Sales and Service, S. 31.

71 Vgl. Wennker 2020: Künstliche Intelligenz in der Praxis, S. 10-15.

72 Vgl. Wennker 2020: Künstliche Intelligenz in der Praxis; Kreutzer/Sirrenberg 2019: Künstliche Intelligenz verstehen,S. 20.

73 Vgl. IBM 2021: Data Science und Machine Learning.

74 Vgl. Wagener 2019: Künstliche Intelligenz im Marketing - ein Crashkurs, S. 44.

75 Vgl. Kreutzer/Sirrenberg 2019: Künstliche Intelligenz verstehen, S. 6-8.

76 Vgl. Wennker 2020: Künstliche Intelligenz in der Praxis, S. 14.

77 Vgl. Kreutzer/Sirrenberg 2019: Künstliche Intelligenz verstehen, S. 4-7.

78 Vgl. Gentsch 2019: AI in Marketing, Sales and Service, S. 32.

79 Vgl. Kreutzer/Sirrenberg 2019: Künstliche Intelligenz verstehen, S. 7-8.

80 Vgl. Intel 2021: Was versteht man unter Datenanalyse?.

81 Vgl. Gartner Inc.: Analytics-Aufstiegsmodell.

82 Vgl. Amann/Petzold/Westerkamp 2020: Management und Controlling, S. 252-254.

83 Vgl. Amann/Petzold/Westerkamp 2020: Management und Controlling, S. 252-254.

Final del extracto de 82 páginas

Detalles

Título
Big Data und künstliche Intelligenz (KI) im Marketing
Subtítulo
Chancen und Herausforderungen für kleine und mittlere Unternehmen
Universidad
University of Applied Sciences Neu-Ulm
Calificación
1,3
Autor
Año
2021
Páginas
82
No. de catálogo
V1059788
ISBN (Ebook)
9783346471987
ISBN (Libro)
9783346471994
Idioma
Alemán
Palabras clave
Big Data, KI, Künstliche Intelligenz, AI, Marketing, SWOT, SWOT-ANALYSE, KMU, Kleine und mittlere Unternehmen, Mittelstand
Citar trabajo
Bachelor of Arts Nicoli Bernhardt (Autor), 2021, Big Data und künstliche Intelligenz (KI) im Marketing, Múnich, GRIN Verlag, https://www.grin.com/document/1059788

Comentarios

  • No hay comentarios todavía.
Leer eBook
Título: Big Data und künstliche Intelligenz (KI) im Marketing



Cargar textos

Sus trabajos académicos / tesis:

- Publicación como eBook y libro impreso
- Honorarios altos para las ventas
- Totalmente gratuito y con ISBN
- Le llevará solo 5 minutos
- Cada trabajo encuentra lectores

Así es como funciona