Wie gut akzeptieren Kunden KI im Marketing? Potenziale der Künstlichen Intelligenz und Vorbehalte von Konsumenten


Bachelorarbeit, 2022

95 Seiten, Note: 1,0


Leseprobe

Inhaltsverzeichnis

Abkürzungsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Symbolverzeichnis

1 Einleitung

2 Definitionen
2.1 Definition „Künstliche Intelligenz‘‘
2.2 Entwicklungen der Künstlichen Intelligenz von den ersten Schritten bis heute
2.3 Schnittstellen
2.3.1 Definition Schnittstelle
2.3.2 Definition Verbraucher
2.3.3 Schnittstelle Künstliche Intelligenz und Verbraucher

3 Künstliche Intelligenz im Marketing
3.1 Datengewinnung, -verarbeitung und Anwendungen
3.1.1 Big Data, Data Analytics und Data Mining
3.1.2 Data Maturity Modelle
3.1.3 Das TAM-Modell
3.1.4 Einsatz von Marketing-Algorithmen und die Veränderung von Entscheidungsprozessen
3.1.5 Customer Experience
3.1.6 Voice-Marketing
3.1.7 Spielbasiertes Marketing
3.2 Potential und Grenzen beim Einsatz Künstlicher Intelligenz im Marketing
3.3 Ethische Leitlinien
3.4 Zukünftige Entwicklung

4 Die Kunden-/Nutzerseite
4.1 Vorbehalte der Verbraucher gegenüber Künstlicher Intelligenz
4.2 Konzeption einer Verbraucherumfrage
4.3 Online-Befragung, Bewertung, Analyse und Ergebnis
4.4 Schlussfolgerungen für Unternehmen

5 Fazit

Literaturverzeichnis

Anhang

[Hinweis: Die Zeitungsartikel im Anhang mussten aus urheberrechtlichen Gründen von der Redaktion entfernt werden.]

Abkürzungsverzeichnis

AI Artificial Intelligence

ASI Artificial Superintelligence

CEM Customer Experience Management

CRISP-DM Cross-Industry Standard Process for Data Mining

DL Deep Learning

EU Europäische Union

IGA In-Game-Advertising

KI Künstliche Intelligenz

LSTM Long Short-Term Memory

ML Machine Learning

TAM Technologieakzeptanzmodell

VR Virtual Reality

WAZ Westdeutsche Allgemeine Zeitung

Abbildungsverzeichnis

Abbildung 1: Arten der Auswertung von Kompetenzen

Abbildung 2: Methoden der Künstlichen Intelligenz

Abbildung 3: Entwicklungsweg der Künstlichen Intelligenz von 1940 bis heute

Abbildung 4: Darstellung eines neuronalen Netzes mit zwei Hidden Layers

Abbildung 5: Phasen bei der Konstruktion eines Modells nach dem CRISP-DM Schema

Abbildung 6: Die vier Stufen der Analytik-Fähigkeiten

Abbildung 7: Das Technologieakzeptanzmodell TAM 1

Abbildung 8: Das Technologieakzeptanzmodell TAM II

Abbildung 9: Das Technologieakzeptanzmodell TAM III

Abbildung 10: Messmodell für die Faktoren "Wahrgenommener Nutzen" und "Wahrgenommene einfache Bedienbarkeit"

Abbildung 11: Grad der Personalisierung von Unternehmen in Relation zu den Einnahmen

Abbildung 12: Übersicht Nutzung von Voice Assistenten

Abbildung 13: Herausforderungen des Voice-Marketings

Abbildung 14: Blockchain-Transaktion

Tabellenverzeichnis

Tabelle 1: Geschlecht der Teilnehmenden

Tabelle 2: Alter der Teilnehmenden

Tabelle 3: Größe des Wohnortes der Teilnehmenden

Tabelle 4: Bildungsabschluss der Teilnehmenden

Tabelle 5: Häufigkeit der Internetnutzung

Tabelle 6: Bedenken hinsichtlich Manipulation von Menschen

Tabelle 7: Bedenken hinsichtlich des Treffens von Entscheidungen

Tabelle 8: Einstellung zu Fahrdatenerhebung

Tabelle 9: Bedenken zu Hacker-Angriffen, Massenüberwachung, Datenmissbrauch

Tabelle 10: Gesichtserkennung im öffentlichen Raum

Tabelle 11: Beeinträchtigung des Datenschutzes

Tabelle 12: Gesichtserkennung im persönlichen Umfeld

Tabelle 13: Gesichtserkennung im öffentlichen Umfeld

Symbolverzeichnis

d Stichprobenfehler

n Stichprobenumfang

Gender-Disclaimer

Das in dieser Arbeit gewählte generische Maskulinum bezieht sich zugleich auf die männliche, die weibliche und andere Geschlechteridentitäten. Zur besseren Lesbarkeit wird auf die Verwendung männlicher und weiblicher Sprachformen verzichtet. Alle Geschlechteridentitäten werden ausdrück­lich mitgemeint, soweit die Aussagen dies erfordern.

1 Einleitung

„Jeder Versuch eines Einzelnen, für sich zu lösen, was alle angeht, muß scheitern.“1

Dieses vorangestellte Zitat soll aufzeigen, dass die Anwendung von Entwicklungen gleich wel­cher Art ohne die Sicht und das Verständnis der Benutzer nicht gelingen kann. Immer dann, wenn neue Technologien genutzt werden sollen, muss nach der Akzeptanz bei den potentiellen Anwen­dern gefragt werden. Ohne hinreichende Informationen zur Nützlichkeit und zum Schutz der Da­ten bei neuen Techniken ist die Akzeptanz beim Verbraucher nicht gewährleistet.

Das ist ein grundlegendes Thema der vorliegenden Bachelorarbeit, die den Einsatz von Künstli­cher Intelligenz (KI) an der Service-Schnittstelle im Marketing untersucht. Dabei soll insbeson­dere auf das Potential, das sie bietet, aber auch auf mögliche Unsicherheiten von Nutzern bei Kontakt mit KI eingegangen werden. Nur wenn Neues dem Nutzer transparent und verständlich dargebracht wird, kann das Potential auf beiden Seiten, dem Nutzer und den Unternehmen, voll ausgeschöpft werden.

An zweiter Stelle ist aber auch zu betrachten, inwieweit Datenmissbrauch und Manipulation durch KI möglich ist. Zahlreiche Berichte in Zeitungen, Fachzeitschriften und anderen Medien weisen auf Sicherheitslücken in der Software von Sprachassistenten, Fernsehern und sogar Spielzeug hin. Smartassistenten wie zum Beispiel Alexa, Siri und Cortana sind in der Lage mitzuhören. Außer­dem lauschen auch Fernseher in heimischen Wohnzimmern oder Spielzeugpuppen zeichnen Ge­spräche von Kindern auf.

Zu diesem Thema wurde am 26.04.2022 ein Artikel mit dem Titel „Smarte Technik mit Tücken“ (Anhang I) in der WAZ veröffentlicht. In diesem Bericht wird beschrieben, dass Smarttechnolo­gien mit teils erheblichen Sicherheitslücken in Wohnbereiche eindringen. Sie machen das Leben leichter, sammeln aber auch unaufhörlich Daten unter anderen über unsere Lebensgewohnheiten, Wohnungsgrößen, Anwesenheit und Vorlieben. Diese Daten werden analysiert und können viel über die Nutzer aussagen. Als Ergebnis erhält man zum Beispiel personalisierte Werbung auf den Smart-TV oder das Smartphone. Neben diesen vielleicht positiven Effekten können Dritte über unsichere Geräte in die privaten Netzwerke eindringen und beispielsweise Überwachungskame­ras und Schließsysteme übernehmen, aber auch Schadsoftware in Computer einschleusen. Dar­über hinaus gilt es mit dieser Arbeit herauszufinden, inwieweit Verbraucher sich dieser Risiken bewusst sind und welche Konsequenzen dies im Hinblick mit dem Umgang von Technologien mit KI im Alltag hat.2

Diese Arbeit gliedert sich zur Behandlung dieser Thematik in fünf Kapitel. In diesem ersten Ka­pitel wird zunächst in das Thema „Künstliche Intelligenz an der Service-Schnittstelle im Marke­ting“ eingefuhrt. Des Weiteren werden Forschungsfragen formuliert und die Motivation und Ziel­setzung der Arbeit beschrieben. Abgeschlossen wird die Einleitung mit einer Skizzierung der Vorgehensweise.

Die Entwicklung neuer Technologien im Zusammenhang mit der Digitalisierung hat in den letz­ten Jahren zunehmend an Bedeutung gewonnen. Dabei ist auch das Thema KI in den Fokus ge­rückt. Zahlreiche Unternehmen setzen inzwischen in unterschiedlichen Bereichen auf KI-Tech- nologien. Sie sollen dazu dienen, Prozesse zu automatisieren und Probleme zu lösen. Neben der Kommunikation an verschiedensten Stellen ändern sich auch die Arbeitswelten. Es entstehen durch diese Technologien neue Chancen, es sind aber auch Herausforderungen zu überwinden. Bereits seit einigen Jahren wird versucht, durch den Einsatz von KI das Leben und Arbeiten der Menschen zu optimieren. Wir nutzen auf KI basierende Anwendungen im Alltag beispielsweise mit Amazons Alexa oder Apples Siri. Auch die Unternehmen erkennen inzwischen die sich aus der Technologie ergebenden Vorteile. Neben diesen Vorteilen darf man aber auch Probleme, die damit entstehen nicht vernachlässigen. Hierzu gehören in erster Linie Verbraucherängste hin­sichtlich der Nutzung privater Daten, deren Missbrauch durch Hacking oder Manipulation.

Zum Thema Manipulation wurde in der WAZ vom 01.06.2022 ein Artikel mit der Überschrift „Fastjede populäre Webseite oder App manipuliert den Nutzer“ (Anhang II) veröffentlicht. Diese Darstellung basiert auf einer von der EU-Kommission in Auftrag gegebenen Studie. Als häufigste Ausprägungen wurden versteckte Informationen, Vorauswahlen, Bedrängen durch Zeitlimits für Abschlüsse, schwierige Stornierungen sowie Zwangsregistrierungen genannt. Die Schaltflächen für einen besseren Datenschutz und die Einschränkung von Cookies sind oft unauffällig platziert. Laut Studie ist die Fähigkeit des Verbrauchers, alle diese Vorgänge zu erkennen, begrenzt. Dies zieht auch nachteilige Auswirkungen auf Wettbewerb, Transparenz und Vertrauen nach sich. Ge­mäß der Studie sind vor allem ältere Menschen und Menschen mit niedrigem Bildungsniveau von diesen Vorgängen betroffen.3

Auf Grundlage der zuvor beschriebenen Problemstellungen ist es das Ziel dieser wissenschaftli­chen Arbeit, eine qualitative Analyse hinsichtlich der Akzeptanz von KI beim Konsumenten durchzuführen. Mit Hilfe einer Online-Umfrage werden Daten zu diesem Thema erhoben und ausgewertet. Zudem soll daraus im Folgenden ermittelt werden, welche Konsequenzen sich für Unternehmen aus den Antworten der Teilnehmenden ergeben können.

Hierzu werden die nachfolgenden Forschungsfragen aufgestellt.

F1: Existieren Vorbehalte oder sogar Ängste bei Nutzern gegenüber KI?

F2: Wird die Anwendung von KI in Unternehmen durch Konsumenten ausgebremst?

F3: Können Konsumenten die Vorbehalte durch zielgerichtete Informationen bezüglich KI in An­wendungen genommen werden?

Nach der Einleitung sowie der Benennung der zentralen Fragestellungen werden in den Kapiteln zwei und drei zunächst mit Hilfe von Literatur und zitierfähigen Internetquellen die theoretischen Grundlagen erarbeitet. Dazu gehören in Kapitel zwei die Definitionen von KI, von Schnittstellen, hier speziell den Kundenkontaktpunkten und dem Verbraucher. Außerdem wird noch die histori­sche Entwicklung von KI betrachtet. Als nächstes werden in Kapitel drei Fragen zur KI beant­wortet. Zur Erklärung der Technologie werden zunächst die Begriffe Big Data, Data Analytics, Data Mining sowie Machine Learning und Deep Learning mit Inhalt gefüllt. Nachfolgend wird eine Darstellung zur Datenreife von Unternehmen mit Maturity Modellen vorgenommen, da KI in Unternehmen oft noch sehr zurückhaltend eingesetzt wird. Außerdem erfolgt eine Übersicht über verschiedene Modelle, mit deren Hilfe die Akzeptanz neuer Technologien bei Kunden ge­testet wird. Weiterhin erfolgt eine Betrachtung von Marketing-Algorithmen und deren Potential für Veränderungen in Entscheidungsprozessen. Darüber hinaus werden Begriffe wie Customer Experience, Voice- und spielbasiertes Marketing erläutert. Abschließend werden Potential und Grenzen von KI im Marketing verdeutlicht sowie ethische Fragen und die zukünftige Entwick­lung erarbeitet. Die in diesen Kapiteln gewonnen Erkenntnisse sind für den weiteren Verlauf der Arbeit und der Ergebnisbewertung unerlässlich.

Anhand dieser Erkenntnisse lassen sich die nachstehenden Hypothesen ableiten:

H1: Es existieren geschlechtsspezifische Unterschiede bezüglich der Forschungsfragen.

H2: Es existieren altersspezifische Unterschiede bezüglich der Forschungsfragen.

H3: Es existieren wohnortspezifische Unterschiede bezüglich der Forschungsfragen.

H4: Es existieren Unterschiede bei verschiedenen intellektuellen Voraussetzungen der Nutzer.

H5: Weiß der Verbraucher wenig über KI, so sind seine Vorbehalte stark ausgeprägt.

H6: Weiß der Verbraucher viel über KI, so sind seine Vorbehalte schwach ausgeprägt.

H7: Eine maximale Transparenz bei Prozessen und Anwendungen mindert die Vorbehalte.

H8: Missbrauch persönlicher Daten ist ein zentraler Grund für Vorbehalte.

H9: Kontrollen der durch KI gestützten Anwendungen nützen nichts.

H10: Im privaten Umfeld wird KI mehr akzeptiert als in öffentlichen Bereichen.

In Kapitel vier werden dann zunächst die Vorbehalte der Nutzer gegenüber KI herausgearbeitet und im Weiteren das Konzept der Online-Umfrage erläutert. Nachfolgend werden die Ergebnisse analysiert und auf neue Erkenntnisse hin geprüft. Daraus abgeleitet, ergeben sich ergebnisge­stützte Handlungsempfehlungen für Unternehmen. Den Schlussteil dieser Arbeit bildet Kapitel fünf mit dem Fazit, welches mit der Zusammenfassung der Ergebnisse beginnt. Hier wird die Erreichung der Zielsetzung dieser Arbeit überprüft und versucht, eine Antwort auf die zentrale Fragestellung im Titel zu geben. Ebenfalls werden die in der Einleitung aufgestellten Forschungs­fragen beantwortet. An dieser Stelle ist es auch notwendig die Grenzen, dieser Arbeit aufzuzeigen sowie die Vorgehensweise zu reflektieren.

2 Definitionen

2.1 Definition „Künstliche Intelligenz“

Versuche, die Weisheit und Intelligenz des Menschen zu beschreiben, gehen bis in die Antike zurück und umfassen heute die Bereiche Philosophie, Mathematik, Psychologie, Neurowissen­schaft und Informatik. Die Erforschung der KI ist hingegen ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens befasst.4

Als Frage daraus stellt sich, was eigentlich Intelligenz ausmacht. Menschliche Intelligenz wird durch menschliches und rationales Denken und Handeln geprägt. In der Psychologie wird Intel­ligenz als ein hypothetisches Konstrukt dargestellt, das keine direkt beobachtbaren Phänomene aufweist. Es umfasst die erworbenen kognitiven Fähigkeiten wie Lernen, Denken und Erkennen ebenso wie Kreativität, Gedanken und Erinnerungen einer Person, die ihr zu einem bestimmten Zeitpunkt zur Verfügung stehen. Intelligenz bedeutet, Beziehungen erfassen zu können sowie sprachliche Fähigkeiten, Raumvorstellung und Rechenfertigkeiten zu haben. Hinzu kommt die Gabe der Induktion, die Wahrnehmungsgeschwindigkeit und das mechanische Gedächtnis. Unter Induktion versteht man hier die Fähigkeit, aus beobachteten Phänomenen abstrahierte Schlüsse zu ziehen. Das mechanische Gedächtnis ist zudem in der Lage, sich Input durch permanentes Wiederholen einzuprägen.5 6 Der Duden hingegen definiert Intelligenz „als ,die Fähigkeit [des Menschen], abstrakt und vernünftig zu denken und daraus zweckvolles Handeln abzuleiten‘ “.6

KI oder auch im Englischen Artificial Intelligence stellt dagegen einen Oberbegriff für viele un­terschiedliche Ausprägungen dar. Hierzu zählen zum Beispiel Big Data Analytics, Machine Lear­ning, Deep Learning, digitale Transformation und Bots. Aus der Definition von menschlicher Intelligenz folgt für die KI von Maschinen, dass sie einen Bereich der Informatik abdeckt, der sich mit dem Erwerb kognitiver Fähigkeiten, wie Lernen, Problemlösung und Mustererkennung beschäftigt.7 Bei KI handelt es sich „um den Versuch, menschliches Lernen und Denken auf den Computer zu übertragen“.8

Diese vordergründige Ambivalenz von menschlicher und künstlicher Intelligenz führt dazu, dass es je nach Betrachtungsweise unterschiedliche Definitionen für KI gibt, die im Folgenden näher aufgezeigt werden.

Rich definierte 1983 KI als die Lehre, wie man Computer dazu bringt, Dinge zu tun, die Menschen momentan noch besser können.9 Görz und Wachsmuth gingen 1995 bereits weiter: „Künstliche Intelligenz (KI) ist eine wissenschaftliche Disziplin, die das Ziel verfolgt, menschliche Wahrneh- mungs- und Verstandsleistung zu operationalisieren und durch Artefakte, kunstvoll gestaltete technische - insbesondere informationsverarbeitende - Systeme verfügbar zu machen.“10 Eine aktuelle Definition stammt von Heinrich und Stühler aus dem Jahr 2018: „KI beschreibt im All­gemeinen die Fähigkeit einer Maschine, komplexe Probleme eigenständig zu interpretieren, zu lösen und von diesem Prozess zu lernen.“11

Zudem lässt sich KI über die folgenden Kompetenzfelder definieren. Dazu gehören Wahrneh­mungsvermögen, die Fähigkeit zur Argumentation, die Kompetenz des selbstständigen Lernens und das eigenständige Finden von Problemlösungen. Diese Kompetenzen führen jeweils zu drei Arbeitsschritten.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Arten der Auswertung von Kompetenzen.

Quelle: eigene Darstellung.

Am Anfang ist die Frage „Was liegt vor?“, die sogenannte Description. Danach steht die Frage nach dem „Was wird passieren?“, der Prediction, im Fokus. Zuletzt wird die Preception mit der Arbeitsfrage „Was ist zu tun?“ behandelt.12

KI kann darüber hinaus auch in Gruppen aufgeteilt werden. Zum einen in vorprogrammierte Sys­teme, die nicht lernen, den Menschen aber unterstützen oder vollautomatisiert ablaufen und zum anderen in adaptive Systeme, die während der Arbeit lernen und von Menschen unterstützt wer­den und in solche, die ohne Hilfe von Menschen lernen.13

Diese Aufteilung findet man auch in den Begriffen der starken und schwachen KI wieder. Unter schwacher KI versteht man, wenn nur wenige Merkmale der menschlichen Intelligenz vorliegen. Die meisten der heutigen Anwendungen liegen im Bereich der schwachen Intelligenz. Beispiele hierfür sind Sprachassistenten, Navigationssysteme, Chat- und Socialbots. Bei der starken KI sind Maschinen in der Lage, genauso gut oder besser als die menschliche Intelligenz zu agieren und ihr erworbenes Wissen in Kombinationen anwenden zu können.14 15 Die höchste Form der KI ist die von Bostrom beschriebene Artificial Superintelligence, kurz ASI. Diese stellt im Moment noch eine Hypothese dar und soll dem intelligentesten Menschen noch überlegen sein, ,, einschließlich wissenschaftlicher Kreativität, allgemeiner Lebensweisheit und sozialer Fähigkeiten “15 Zentrale Begriffe bei der Betrachtung von KI sind Machine Learning, Deep Learning und das Cognitive Computing. Sie unterscheiden sich in der Klarheit der Anwendung und dem Grad der Autonomie. Das heißt, je klarer der Zweck ist, desto geringer ist die Autonomie und umgekehrt.16 KI wird befähigt, aus strukturierten und unstrukturierten Daten Informationen zu extrahieren, die ein Mensch nur schlecht oder gar nicht erfassen kann.

In der folgenden Abbildung wird noch einmal verdeutlicht, dass Deep Learning als ein vertiefen­der Teil des Machine Learning verstanden wird. Beide Arbeitsfelder sind Teil des Oberbegriffs Künstliche Intelligenz.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Methoden der Künstlichen Intelligenz.

Quelle: Kirste, M./Schürholz, M. (2019), S. 22, in Anlehnung an Copeland, M. (2016).

Das Machine Learning (ML) erlaubt eine sinnvolle Verarbeitung großer Datenmengen und benö­tigt dafür eine Zielfunktion. Mit einem solchen Ziel und unter Zuhilfenahme von selbstlernenden Algorithmen wird die KI trainiert, um Muster oder immer wiederkehrende Merkmale zu erken­nen. Unter einem Algorithmus versteht man ,,[e]ine präzise ... Beschreibung eines allgemeinen Verfahrens unter Verwendung elementarer Verarbeitungsschritte zur Lösung einer gegebenen Aufgabe.“17 Das Ergebnis wird dann zur Analyse und Findung richtiger Schlussfolgerungen bei neuen Daten und unbekannten spezifischen Problemstellungen genutzt. Mit ML können bereits bei kleinen Datenmengen unter Verwendung geringer Rechenleistungen brauchbare Ergebnisse erreicht werden, ohne dass speziellere Algorithmen dafür entwickelt werden müssen.18 Es werden so „im Rahmen des maschinellen Lernens Datenmodelle erzeugt, die zukünftige Szenarien auf Grundlage der vorhandenen Datenbasis prognostizieren können“.19 Dies bezeichnet man auch als Predictive Analytics. Im Einsatz von selbstlernenden Algorithmen, die Prognosen aus neuen Da­tensätzen erstellen, liegt der Unterschied zum reinen Data-Mining, mit dem nur Muster in beste­henden Datensätzen erkannt werden.20 Beispiele für ML sind Spam-Filter, Content-Personalisie­rung, Kundenmigrationsprognosen, Erkennung von Transaktionsbetrug, allgemeine und medizi­nische Diagnosesysteme, Chat-Bot-Anwendungen und persönliche Assistenten, wie Siri und Alexa.21

Das Deep Learning (DL) hingegen ist eine höher spezialisierte Form des ML, bei der statistische Datenanalysen zur Auswertung der Input-Daten verwendet werden. DL basiert auf künstlichen neuronalen Netzen. Die Struktur dieser Netze beruht auf der biologischen Vernetzung im Gehirn von Säugetieren, bei dem Synapsen Nervenzellen zur Informationsübertragung verbinden. Neu­ronale Netzwerke lernen, ohne dafür speziell programmiert worden zu sein.22

In diesem Forschungsbereich findet man Konzepte des sogenannten Cognitive Computing. Hier­unter versteht man Systeme, die Aufgaben und Entscheidungen von Menschen übernehmen, die bisher durch diese durchgeführt wurden. Diese Systeme können bereits mit Doppeldeutigkeit und Unschärfe umgehen. „Von wirklicher Künstlicher Intelligenz spricht man, wenn Maschinen über vollständige kognitive Fähigkeiten verfugen.“23 Sie treffen dabei eigene Entscheidungen, legen eigenständige Strategien fest und bestimmen Art und Weise ihres Kommunikations- und Lernverhaltens. Das führt dazu, dass sich Mensch und Maschine von außen nicht mehr unter­scheiden lassen.24

Wenn Maschinen oder Computer kognitive Fähigkeiten zeigen, die ähnlich denen des Menschen sind, spricht man von KI. Um festzustellen, ab wann es sich aber bei einer Maschine um KI han­delt, wird der Turing-Test angewendet, der 1950 erstmals von Alan Turing vorgeschlagen wurde. Hierbei kommuniziert ein Prüfer mit einem Computer und einem intelligenten menschlichen Ex­perten. „Wenn der Prüfer nach ausgiebiger Kommunikation mit beiden Kommunikationspartnem [zu einem bestimmten Sachverhalt] nicht entscheiden kann, wer Computer und wer Mensch ist, ... kann man den Computer als intelligent bezeichnen.“25

Zusammenfassend kann man sagen, dass der Begriff der Künstlichen Intelligenz kein klar defi­niertes Themenfeld darstellt, sondern lediglich beschreibt, welche kognitiven Fähigkeiten Ma­schinen oder Computer im Vergleich zum Menschen aufweisen. Die Aufteilung in schwache und starke Intelligenz ist dabei nur eine technologische Leitlinie mit gleitenden Übergängen. Das ge­samte Forschungsgebiet entwickelt sich zurzeit rasant und rückt mit all seinen Facetten immer mehr in den Fokus zahlreicher Anwendungen.

2.2 Entwicklungen der Künstlichen Intelligenz von den ersten Schritten bis heute

„Künstliche Lebewesen, die zu formellem Denken fähig sind, beschäftigen Philosophen und frühe Naturwissenschaftler in fast allen Kulturen und Gesellschaften.“26 Der Weg dahin sollte jedoch ein langer werden. In den 1940er Jahren begannen die ersten Forschungen dazu. Grundlagen wur­den entwickelt und erste Anwendungen und Methoden konzipiert.27

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Entwicklungsweg der Künstlichen Intelligenz von 1940 bis heute.

Quelle: Gentsch, P. (2019), S. 25.

McCarthy - lisp Rosenblatt - Perceptron 1943 veröffentlichten McCulloch und Pitts erstmals primäre Gedanken und Ideen, die man dem Bereich der KI zuordnen kann. Sie erläutern das sogenannte McCulloch-Pitts-Neuron, das auf Kenntnissen aus den Fachbereichen Neurologie, Mathematik und Programmiertheorie basiert und beschreiben erstmals modellhaft, wie die Struktur künstlicher neuronaler Netze aussehen sollte, die einem menschlichen Gehirn nachempfunden sind. Sie stellten heraus, dass solche Strukturen lernfähig sind und Daten speichern können.28 Die Ideen konnten zu dieser Zeit jedoch wegen fehlender technologischer Möglichkeiten nicht umgesetzt werden, da die Rechenleistungen der vorhandenen Hardware zu gering war und nicht genügend gespeicherte Daten Vorlagen.29

Mitte des 20. Jahrhunderts wurden erste programmierbare Computer entwickelt und Forscher dachten darüber nach, ob diese KI aufweisen können. Im Jahr 1955 wurde dann durch den Ma­thematiker McCarthy ein Forschungsprojekt zur KI angestoßen. Er stellte dazu die Vermutung auf, „dass jeder Aspekt des Lernens oder jedes andere Merkmal der Intelligenz im Prinzip so genau beschrieben werden kann, dass eine Maschine zur Simulation eingesetzt werden kann.“30

Als eigentlichen Startschuss für die KI wird das von McCarthy und Minsky durchgeführte Dart­mouth Summer Research Project of Artificial Intelligence im Jahr 1956 angesehen.31 Hier ver­sammelten sich führende amerikanische Forscher und Vordenker der KI-Technologie, die ihre Ideen zu den Themen neuronale Netze, automatische Computer und Spracherkennung austausch­ten. Dies galt als ein Meilenstein, der jedoch keine konkreten Durchbrüche erzielte.32

1957 entwickelte Rosenblatt erste Ansätze zu einem Perzeptron. Dies ist ein neuronales Netz, das darauf trainiert werden kann, einfache Muster zu erkennen.33 In den nächsten Jahren wurden Pro­jekte entwickelt, die bis dahin nicht für möglich gehalten wurden. Hierzu gehört z.B. ELIZA, ein 1966 von Weizenbaum entwickeltes Computerprogramm, das die Möglichkeit der Kommunika­tion zwischen Mensch und Maschine in menschlicher Sprache in einfacher Form möglich machte.34 Ein weiteres Programm stellt STRIPS dar, einen von Fikes und Nilsson entwickelten Problemlöser.35

Auf der Basis dieser Erfolge investierten zahlreiche Regierungsorganisationen Millionen in die Erforschung von KI. In den 1960er Jahren während des „kalten Krieges“ wurden vor allem Über­setzungsprogramme erforscht, die zum Beispiel die Übersetzung vom Russischen ins Englische ermöglichen sollten. Auch hierbei, dem sogenannten Language Processing, stieß man jedoch schnell an Grenzen, weil die Rechenleistungen der zur Verfügung stehenden Computer zu gering waren. Als weiteres Problem stellten sich die fehlenden Datenbanken dar, die das notwendige Hintergrundwissen nicht zur Verfügung stellen konnten. Um erfolgreich Übersetzungspro­gramme umzusetzen, muss ein System nicht nur auf einen großen Wortschatz zugreifen, sondern auch mit Umschreibungen, Idiomen und dem Auflösen von Mehrdeutigkeiten umgehen können. Da die Ergebnisse der Versuche für Anforderungen in der realen Welt unbrauchbar waren, wur­den Forschungsgelder gestoppt und die weitere Entwicklung zunächst aufgegeben.36

Parallel begann allerdings die Entwicklung der sogenannten Expertensysteme. 1965 wurde durch Feigenbaum das Expertensystem DENDRAL vorgestellt, das „mithilfe von Regeln Probleme der organischen Chemie lösen konnte.“37 Dies wurde in den 1970er Jahren so weiterentwickelt, dass in abgegrenzten Fachbereichen spezifische Kenntnisse und Vorgehensweisen genutzt wurden. Zu den Expertensystemen gehörte auch MYCIN der Stanford University, das für medizinische An­wendungen entwickelt wurde.38

Die Expertensysteme enthalten in ihren Programmen sogenannte Interferenzmaschinen, die dazu genutzt werden konnten, mit anderen Daten auch beliebige Anwendungen durchzuführen. Dies führte zu einem neuen Ansatz, der erste kommerzielle Verwendungen zuließ.39 Eine Interferenz­maschine ist ein „Bestandteil eines wissensbasierten Systems, [das] die Aufgabe hat, mithilfe von Inferenzregeln ... Schlussfolgerungen aus der Wissensbasis abzuleiten, die zur Lösung des zu bearbeitenden Problems beitragen.“40 Unter dem Namen R1/XCON wurde durch die Firma DEC das erste produktive Expertensystem vorgestellt. Es wurde für Bestellvorgänge von Hardware­komponenten, wie Treiber, Kabel und Platinen entworfen. Da diese Bestellungen sehr fehleran­fällig waren, führte dieses automatisierte System, das auf 2500 Regeln basierte, zu einer sehr niedrigen Fehlerquote, was mit erheblichen Einsparungen einherging.41 1969 wurde dazu parallel durch Minsky und Papert aufgezeigt, dass einfache einlagige Perzept- rons nicht in der Lage sind, komplexe Probleme zu lösen. Dies war für die Expertensysteme nicht weiter hinderlich, bremste aber die Forschung in vielen Bereichen wieder aus.42 Erst 1982 wurde in Japan wieder in Computer investiert, die Bilder erkennen, Übersetzungen liefern und in der Lage waren, zu argumentieren. Dieses 5th Generation Computer Project führte dazu, dass auch andere Staaten wieder in diese Technologie investierten.43

Jahre später wurde gezeigt, dass mehrlagige neuronale Netze nötig waren, um komplexe Aufga­benstellungen nicht durch Programmierung, sondern durch Training zu lösen.44 Unter einem mehrlagigen neuronalen Netz versteht man mehrere durch Kommunikationskanäle verbundene Verarbeitungseinheiten, den sogenannten Layern.45 Neuronale Netze bestanden in der Anfangs­phase nur aus zwei bis drei Layern, heute können es bis zu Hunderte sein.46

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Darstellung eines neuronalen Netzes mit zwei Hidden Layers.

Quelle: Wennker, P. (2020), S. 19.

In dieser Darstellung wird der Aufbau eines neuronalen Netzwerks beschrieben. Ausgehend von den, dem Input-Layer zur Verfügung stehenden Daten werden schrittweise über nicht sichtbare Ebenen Informationen zu Schlussfolgerungen verarbeitet, die dann über den Output-Layer aus­gegeben werden. Jede Stufe erfüllt dabei eine einzige Aufgabe. Dieses Ergebnis dient dabei als Input für die nächste Stufe. Mit hochwertigen Trainingsdaten sind solche Strukturen lernfähig.47

Ein entscheidender Fortschritt gelang 1986 Rumelhardt, Hinton und Williams. Sie zeigten, dass sich solche Systeme mit dem sogenannten Backpropagation-Algorithmus trainieren lassen. Die­ser Algorithmus stellt ein überwachtes, sehr effizientes Lernverfahren dar, das auf verschiedene Probleme der Informatik angewendet werden konnte. Dieser Schritt in der Entwicklung belebte die Forschung an neuronalen Netzen wieder.48

Ende der 1980er Jahre wandte man sich endgültig von reinen Expertensystemen ab. IBM und Apple entwickelten erste eigenständige leistungsfähige Systeme, die allen bekannten Experten­systemen deutlich überlegen waren. Ab 1990 entstanden spezielle Gattungen intelligenter Ma­schinen, die auch in der breiteren Öffentlichkeit bekannt wurden. Hierzu gehörten die Schach­matches von Kasparov mit dem IBM Computer Deep Blue. In dieser neuen Gattung „wurden Systeme zusammengefasst, die ihre Umgebung wahrnehmen und Handlungen vornehmen, die ihre Chancen auf Erfolg erhöhen.“49

1997 schlugen Hochreiter und Schmidthuber das Long Short-Term Memory vor. Dieses LSTM stellt ein künstliches, auf Wiederholungen basierendes neuronales Netzwerk dar. Damit konnten wesentlich bessere Ergebnisse bei der Modellierung von Sequenzen zur Text- und Spracherken­nung erzielt werden.50

Ab 1990 wurde man auch im Bereich Marketing und Vertrieb auf diese neuen Technologien auf­merksam. In dieser Zeit, in der erste gespeicherte Datensätze verfügbar waren, entstand der Be­griff Data-Mining. Dieser sollte in den weiteren Jahrzehnten immer mehr an Bedeutung gewin- nen.51

Ende der 1990er Jahre wurde erstmals ein System entwickelt, das auf der Basis einer einheitli­chen, mathematischen Notation es ermöglichte, zahlreiche komplexe Probleme kleinschrittig zu lösen.52

Auch Mitte der 1990er Jahre war die Erforschung der KI noch deutlich von ihrem Ziel der den­kenden Maschine entfernt, das heißt, dass es Maschinen gibt, die ihre Aufgaben besser oder min­destens genauso gut wie Menschen erledigen können.53

Dies änderte sich erst Ende der 1990er Jahre. Der Bereich der Neuroinformatik, zu der auch neu­ronale Netze gehören, machte unter dem Einfluss von Psychologie, Linguistik, Neurobiologie und Kognitionswissenschaften erhebliche Fortschritte.54 Parallel dazu nahm die Digitalisierung in Ar­beitswelt und Privatleben stark zu. Durch das sich immer mehr durchsetzende Internet und die progrediente Vernetzung vieler Bereiche entstanden ungeahnte Datenmengen, die mit den vor­handenen Methoden nicht mehr analysiert werden konnten.55 Begriffe wie Machine Learning und Deep Learning gewannen deshalb immer mehr an Bedeutung.

2015 wurde durch He ein neuronales Netz mit 152 Layern vorgestellt, das in der Lage war, Bilder besser als der Mensch zu erkennen. Auch in den Bereichen der Sprach- und Texterkennung sowie bei Übersetzungsprogrammen werden deutliche Fortschritte erzielt.56

Viele Systeme werden heute unter dem Begriff „Artificial Narrow Intelligence“ zusammenge­fasst. Das bedeutet, dass man zwar das Ziel der umfassenden KI noch nicht erreicht hat, diesem aber deutlich nähergekommen ist. Solche Systeme findet man häufig im Rahmen von Suchma­schinen im Internet, Crawlern oder Empfehlungssystemen. Hier reicht die Vielfalt von einfachen Skripten bis hin zu ausgereiften Chatbots, die menschliche Intelligenz simulieren.57 Unter Craw­lern versteht man intelligente Suchmaschinen, die selbstständig das Internet durchsuchen und gleichzeitig analysieren. Somit gehen sie über das Ziel der reinen Stichwortsuche hinaus.58

Grundsätzlich sind die Methoden noch sehr ähnlich. Die fortschreitende Digitalisierung hat neue Kommunikations- und Vertriebskanäle in Unternehmen erschlossen und jede Interaktion von Kunden mit Unternehmen an den diversen Schnittstellen führt zur Entstehung neuer Daten, die gesammelt und gespeichert werden.59

Heutzutage findet man oft unbemerkt immer mehr Anwendungen von KI in unserem Alltag. Vo­rangetrieben wird diese Entwicklung durch Konzerne wie Google, Apple, Facebook oder Ama­zon. Die meisten dieser Anwendungen basieren auf neuronalen Netzen, die Aufgaben ähnlich dem Menschen erledigen und werden als schwache KI bezeichnet. Darüberhinausgehende Fähig­keiten erwarten Forscher erst im Zeitraum von 2030 bis 2060. Zweifel bestehen jedoch, ob man mit den zurzeit verwendeten Algorithmen und zur Verfügung stehenden Datenmengen überhaupt eine solche generelle, dem Menschen grundsätzlich überlegene KI, erschaffen kann.60 In diesem Zusammenhang versucht ein neues Softwareprojekt, Brain Simulation II, „Module für Sicht, Ge­hör, Kontrolle eines Roboters, Lernen, Modellierung sowie Planung und Vorstellung“61 für die nächste Phase der KI zu entwickeln.

Die KI ist inzwischen nicht nur ein akademisches Thema, sondern erlebt eine neue große Innova­tions- und Wachstumsphase. KI ist aus dem Bereich der Forschung herausgewachsen und findet inzwischen breite Anwendung in vielen Lebensbereichen. Dazu gehören unter anderem Sprach­assistenten, digitale Helfer in Form von Bots, autonomes Fahren und Krankheitsdiagnostik. In zahlreichen Fällen verläuft dabei der Übergang zwischen Mensch und Maschine gleitend. All diese Prozesse sind nur durch steigende Rechenleistung, Cloud-Anwendungen und durch die Ver­fügbarkeit riesiger Datenmengen möglich geworden.62

2.3 Schnittstellen

2.3.1 Definition Schnittstelle

Schnittstellen entstehen bei der Teilung von Aufgaben und stellen dabei sogenannte Transfer­punkte, also Übergabestellen, dar. An diesen Punkten werden Informationen zwischen Funkti­onsbereichen, Projekten, Unternehmen oder Personen übergeben. „Eine Schnittstelle stellt eine vermittelnde, informationsflussbezogene Verbindung zwischen Elementen und/oder Subsyste­men eines Systems her.“63 Sie koppelt für den Anwender oft unbemerkt zum einen interne Infor­mationssysteme und zum anderen auch Systeme des Unternehmens mit der Umwelt.64

An den Schnittstellen werden unterschiedliche Ebenen der Datenintegration beschrieben. Als Da­tenintegration versteht man die gemeinsame und wiederholte Nutzung von Datenbeständen. Auf den beiden unteren Ebenen steht die manuelle Eingabe von Daten an der Erfassungsschnittstelle. Die Eingabe kann per Hand, aber auch schon in digitaler Form durch Datenträger erfolgen. Diese Systeme sind in der Regel nicht miteinander verknüpft und arbeiten nur in abgegrenzten Berei­chen, so dass Informationen oft manuell in Form von Listen an andere Abteilungen übergeben werden. Bei der automatischen Datenübergabe findet der Datenaustausch nun über Rechnernetze statt. Auf der höchsten Stufe findet die Datenverarbeitung mit einer für alle Abteilungen und Anwendungen gemeinsamen Datenbasis statt. Das heißt, dass einmal eingegebene Daten allen Nutzern sofort zur Verfügung stehen.65

Eine weitere Einteilung bezieht sich auf die Integrationsreichweite. Schnittstellen erster Ordnung sind Verknüpfungen von Systemen des Warenwirtschaftssystems, die zweiter Ordnung beschrei­ben Beziehungen der Unternehmensintegration von einem oder mehreren Standorten und mit der dritten Ordnung werden externe Beziehungen zwischen Unternehmen und Umwelt beschrieben.66 Im Rahmen dieser Arbeit sind vor allem diese externen Schnittstellen von Interesse. Als Schnitt­stellen zwischen Unternehmen und Kunden sind zum Beispiel die In-Store Kontaktstellen, wie der direkte Kontakt zwischen Mitarbeiter und Kunden, Texteingabesysteme, Werbeflyer und Pla­kate genauso zu nennen, wie sprachgestützte Dateneingabe, die Kommunikation auf Online-Platt­formen und Mobile Payment-Systeme.

Als wichtigste Schnittstelle sind aktuell die sprachgestützten Kommunikationsschnittstellen zu nennen. Diese werden heute als Mensch-Maschine-Schnittstelle immer wichtiger. Hinzu kom­men noch diverse Benutzerschnittstellen, wie beispielsweise die in Kraftfahrzeugen oder Smart­phones, welche über Touchscreens bedient werden.67 Eine weitere Entwicklung ist die Nutzung künstlicher Implantate, wie das Gehirn-Computer-Interface, das bei der Rehabilitation gelähmter Menschen zum Einsatz kommt.68

Zu Beginn der Entwicklung an der Unternehmen-Kunden-Schnittstelle gab es rein textbasierte Eingabeschnittstellen zur Kommunikation. Dabei mussten die Nutzer eine Frage eintippen und erhielten die Antwort als Text in einem Textausgabefeld. Mit der Entwicklung von Chatbots wur­den die ersten sprachbasierten Schnittstellen, die sogenannten Conversational Interfaces realisiert. Hier war die Kommunikation ohne Bildschirm, Tastatur oder Maus möglich.69

Unter Chatbots versteht man Computerprogramme, die als Dialogsystem mit natürlicher Sprache fungieren und mit entsprechenden Algorithmen auch Kunden beraten der Produkte bewerben können. Im weitesten Sinne gehören hierzu auch reine Sprachassistenten, wie man sie bei Cortana oder Alexa findet. „Ein Chatbot untersucht die Eingaben der Benutzer und gibt Antworten und (Rück-)Fragen aus.“70 Auch können Chatbots nach vorgegebenen Regeln handeln und sie können u.a. mit Suchmaschinen verbunden werden.71

Chatbots werden heute von Unternehmen so kreiert, dass sie sowohl im Einklang mit den Corpo­rate Images des Unternehmens korrespondieren als auch durch eine natürliche Sprachqualität eine als angenehm wahrgenommene Schnittstelle zu Kunden darstellen. Ziel ist es dabei, den Nutzer durch die Persönlichkeit der Chatbots zu einer fortlaufenden Interaktion mit dem Unternehmen 72 zu animieren.72

2.3.2 Definition Verbraucher

Gemäß §13 des Bürgerlichen Gesetzbuches ist der Verbraucher oder auch Konsument eine „na­türliche Person, die ein Rechtsgeschäft zu einem Zweck abschließt, der weder ihrer gewerblichen noch ihrer selbstständigen beruflichen Tätigkeit zugerechnet werden kann“.73 Er ist demzufolge Endverbraucher, der Waren wie Lebensmittel oder Güter zur privaten Verwendung oder zur Ver­wendung im eigenen Haushalt im Einzelhandel erwirbt, aber er ist ebenso Kunde bei Online­Händlern, Versicherungen, Banken oder auch bei Liefer- oder Streamingdiensten. Darüber hinaus konsumiert ein Verbraucher auch die permanent im Internet oder über diverse Werbeträger zur Verfügung gestellten Informationen.

Im Gegensatz dazu sind Unternehmen, Kommunen, Staaten, Organisationen, Banken oder Stif­tungen keine Verbraucher im Sinne des §13 BGB.

2.3.3 Schnittstelle Künstliche Intelligenz und Verbraucher

„Die Schnittstelle zum Kunden und die Art und Weise, wie Unternehmen mit den Kunden umge­hen, sind heute ein entscheidender Faktor für den Erfolg und ein Wettbewerbsvorteil.“74 Bei op­timalen Kunden-Unternehmen-Schnittstellen fühlt sich der Kunde vom Unternehmen begleitet, individuell wertgeschätzt und wahrgenommen. Dieser Gedanke ist auch ein zentraler Gegenstand der Forschung. Ziel ist es dabei, den Kunden hinsichtlich seiner Interaktionswünsche zu verstehen und so die Schnittstellen zu verbessern.75

Erwähnenswert sind in diesem Zusammenhang aber auch sogenannte In-Store-Technologien. Händlern und Unternehmen stehen immer mehr digitale Technologien in ihren Ladenlokalen zur Verfügung, um Abläufe zu optimieren und die Einkaufserlebnisse der Kunden, also die Customer Journey, zu verbessern. Diese Schnittstellen bilden wichtige Kontaktpunkte mit den Kunden im Laden und können Mitarbeiter bei der Befriedigung von Kundenwünschen unterstützen. Hierbei müssen zwei Dimensionen berücksichtigt werden. Zum einen handelt es sich um die soziale Präsenz, bei der Kunden durch die digitale Technologie die Anwesenheit anderer Personen wahr­nehmen können und zum anderen geht es um die dadurch erzeugte Bequemlichkeit beim Einkauf. Soziale Präsenz kann „durch soziale Netzwerke und gemeinsame Online-Aktivitäten mit anderen Menschen ... oder eine Vermenschlichung der Technologie (z.B. menschliche Stimmen bei Sprachausgaben oder eine humanoide Erscheinungsform)“76 entstehen. Konsumenten unterschei­den sich deutlich im Rahmen der folgenden zwei Dimensionen. Auf der einen Seite legen Ver­braucher starken Wert auf die soziale Präsenz beim Einkauf, auf der anderen Seite schätzen sie hingegen die Bequemlichkeit, z.B. schnell Produkte zu finden, gut informiert zu werden, oder auch automatische Kassensysteme, um insgesamt weniger Zeit aufzuwenden. Zu den In-Store­Technologien zählen unter anderem digitale Preisschilder, Roboter, die Regale auffüllen, Projek­tionssysteme für Social Media Spots und Smart-Displays zur Kundeninformation.77

Insgesamt kann festgehalten werden, dass KI im Handel weiter fortgeschritten ist als zunächst vermutet wird. Auch im Hintergrund steuern Systeme Abläufe, die für den Verbraucher einen großen Mehrwert schaffen. Diese Mehrwerte kann KI in Form von Entscheidungshilfen bei der Bedarfsplanung und der Vorhersage der Nachfrage schaffen. Dies hat für den Verbraucher den direkten Nutzen, dass gewünschte Waren vorhanden sind und Wünsche individuell erfüllt werden können. Automatische Systeme zu Preisanpassungen, die mit automatisierten Kassen, dem soge­nannten Self-Checkout, verknüpft sind, führen zu erheblicher Zeiteinsparung sowohl für die Un­ternehmen als auch für die Verbraucher.78 Noch weitergehend sind die Just-Walk-Out Technolo­gien, die Wartezeiten im Check-out Bereich völlig überflüssig machen. Diese basieren auf einer durch Kameras gestützten Warenkorbverfolgung. Interaktions- und Artikelidentifizierung greifen ineinander, sobald der Kunde einen Artikel aus dem Regal entnimmt. Der Bezahlvorgang wird beim Verlassen des Geschäftes oft handygestützt automatisch ausgeführt. Amazon eröffnete 2016 erstmalig einen Shop mit dieser Technologie in Seattle und erweist sich somit als Pionier auf diesem Gebiet.79

Darüber hinaus hat die intelligente Sprachsteuerung in Form von Voice-Assistenten heute unseren Alltag in breiter Form erreicht. Wir sprechen mit unseren Smartphones über die besten Routen, geben Mitteilungen über Messenger-Dienste im Auto ein, fragen Smart-Speaker-Systeme wie Cortana oder Siri nach Wettervorhersagen oder bestimmter Musik. Auch können im Bereich der Smart-Home-Services Lampen oder Elektrogeräte per Sprachsteuerung bedient werden. Immer intensivere Vernetzung der Sprachassistenten mit Unternehmen liefern eine ständig wachsende Zahl von Anwendungen, die dem Verbraucher Vorteile, wie zum Beispiel Komfort, Flexibilität und Personalisierung bieten.80 Den dazu eingesetzten Chatbots kommen in diesem Zusammen­hang eine große Bedeutung zu. Einerseits muss ihre Persönlichkeit mit dem Corporate Image der Unternehmen harmonisieren, andererseits müssen sie der Maschine einen menschlichen, komple­xen Charakter verleihen. Kunden nehmen diese Anwendungen in erster Linie wegen einer be­stimmten Funktionalität in Anspruch. Dabei ist es das Ziel, den Nutzer durch die Persönlichkeit des Bots zu einer fortlaufenden Interaktion zu bewegen.81 Wichtig ist zudem auch der Aufbau von Vertrauen gegenüber einem vom Chatbot gestützten System. Studien zeigen, dass Menschen eher bereit sind, Technik zu vertrauen, wenn diese eine empathische Benutzerschnittstelle aufweist. Diese muss neben einer gewissen Menschlichkeit auch mit den eigenen sozio-kulturellen Normen korrespondieren.82 Dies gilt besonders an Schnittstellen, die Bestellungen, Zahlungen und Finanz­transaktionen durchführen. Hier ist es besonders wichtig, dass der Kunde die Maschine als Partner ansieht.83

Der generelle Vorteil von Sprachschnittstellen ist die schnelle, für den Menschen natürliche In­teraktion durch Sprache. „Aus kommerzieller Sicht bieten Sprachassistenten eine neue, innova­tive Plattform zur Interaktion mit Kunden und zur Vermarktung von Produkten und Dienstleis- tungen.“84 Ein Treiber für den Einsatz von KI an der Unternehmen-Kunden-Schnittstelle ist E­Commerce. Online-Plattformen wie Amazon, Ebay und andere sind heute Vorreiter in Sachen Optimierung von Kunden-Schnittstellen. Auf diesen Plattformen werden Kaufempfehlungen und Werbebotschaften durch lernende automatische Systeme generiert.85 Durch das sogenannte Re­Targeting können Unternehmen personalisierte Empfehlungen und Werbebotschaften direkt an den Konsumenten weitergeben, sobald er zur Webseite zurückkehrt. KI wird an dieser Stelle be­nutzt, um zugeschnittene Vorhersagemodelle zu erstellen.86

Anhand dieser Ausführungen ist schnell erkenntlich wie wichtig die Kunden-Unternehmen- Schnittstelle ist. Unzureichende Personalisierung oder schlechte technische Umsetzung führen zu einem Verlust von interessierten Verbrauchern. Auch durch KI gestützte Auswertungen von Kun­dendaten, die an diesen Kontaktpunkten genutzt werden können, sind für ein Bestehen von Un­ternehmen im Wettbewerb zwingend notwendig.

3 Künstliche Intelligenz im Marketing

3.1 Datengewinnung, -Verarbeitung und Anwendungen

3.1.1 Big Data, Data Analytics und Data Mining

Data Mining, Data Analytics und Big Data sind zwar eng miteinander verknüpft, stellen aber keine Synonyme dar. Die Grundlage aller auf Künstlicher Intelligenz beruhender Technologien ist die Fähigkeit von Systemen, große Datenmengen zu speichern, was als Big Data bezeichnet wird. Dieser Begriff wird durch vier Eigenschaften charakterisiert. Zum einen wird Big Data durch eine große Datenmenge, deren Datentypen und -quellen heterogen sind und zum anderen durch die Geschwindigkeit der Datenerhebung und Datenverarbeitung in Echtzeit gekennzeich­net. Darüber hinaus müssen noch die Qualität und Vertrauenswürdigkeit der Datensätze gesichert 87 sein.87

Data Analytics und Data Mining sind dagegen Analysemethoden unterschiedlicher Intensität zur Erkennung relevanter Zusammenhänge. Bei Data Analytics werden die großen Datenmengen des Big Data analysiert und gegebenenfalls durch weitere Datensätze ergänzt und in einem neuen Kontext dargestellt.88 Data Analytics extrahiert dazu aus unterschiedlichen Datenquellen zielge­richtet Informationen. Aufgrund der stetig wachsenden Datenmengen und der Komplexität der Datenbeschaffung werden zunehmend auch komplexere Technologien nötig, um zielgerichtete Aktivitäten aus der Datenanalyse abzuleiten.89 Dies ist möglich geworden, weil sich die Rechen­geschwindigkeit der vorhandenen Systeme signifikant erhöht hat, die Auswertungsmöglichkeiten durch bessere Algorithmen verbessert haben und man die Möglichkeiten besitzt, auf externe Da­ten einfacher zuzugreifen.90 „Data Analytics ... hat das Ziel, Unternehmen durch Daten zu bes­seren geschäftlichen Entscheidungen zu verhelfen.“91

Data Mining hingegen entwickelt aus den gewonnenen Daten Prognosen, die in verschiedensten Anwendungsfeldern verwendbar sind.92 Dazu nutzt Data Mining verschiedene „Methoden und Algorithmen zur möglichst automatischen Extraktion empirischer Zusammenhänge“.93 Dies wird auf die durch Big Data zur Verfügung gestellte, breite Datenbasis angewendet. Data Mining stellt somit ein Teilgebiet der KI dar, das aus allen den für die Fragestellung verfügbaren Daten, die aus verschiedenen Systemen stammen können, nutzbare Informationen zieht. Diese können dann für strategische Unternehmensentscheidungen eingesetzt werden. Durch Data Mining wird Wis­sen generiert, „das über die im Controlling üblichen Kennzahlen als Aggregate großer Datenmen­gen hinausgeht.“94 Durch diese Analyseverfahren können gezielt Informationen aufgespürt und daraus resultierende Prognosen erstellt werden, die für spezielle Fragestellungen notwendig sind.

Dazu nutzt Data Mining Methoden der statistischen Datenanalyse, wie zum Beispiel das Erken­nen von Mustern und das Filtern von Informationen, um aus dem gewonnenen Wissen einen Mehrwert zu generieren. Dazu werden zunächst die Rohdaten ausgewählt und auf Vollständigkeit geprüft. Muster, die durch Data Mining-Algorithmen erkannt werden, sind überwiegend statisti­sche Modelle, die auf der Basis der genutzten Daten erzeugt werden. Hieraus lassen sich dann Sachlagen beschreiben oder Prognosen erstellen.95

Grundsätzlich liegt die Schwierigkeit beim Data Mining aber zunächst auf der Organisation der anfallenden Menge unstrukturierter Daten und Metadaten.96 Metadaten beschreiben Daten, die zum Beispiel aus Bildern oder Videos gewonnen werden. In der Anfangsphase des Data Mining lag der Fokus vor allem auf Spracherkennung, Bildklassifikation und der Optimierung von Spiel­strategien. Data Mining diente zu dieser Zeit noch nicht der Prognose und sollte auch nicht vor­dergründig menschliches Denken nachahmen.97 Heute werden jedoch dazu sechs Aufgabenge­biete unterschieden. Hierzu zählen die Anomalie Detektion, die inkonsistente Objekte in Daten­mengen aufspürt, die Assoziationsregelanalyse, bei der nach Korrelationen zwischen Objekten gesucht wird, um daraus eine Regel abzuleiten und die Regressionsanalyse, die eine „Funktion mit der geringsten Abweichung zum jeweiligen Datensatz für verschiedene Attribute model- liert.“98 Zu den sechs Aufgabengebieten kommen dann noch die Clusteranalyse, bei der Gruppen und Strukturen mit Ähnlichkeiten aufgedeckt werden und das Klassifikationsverfahren, mit dem Daten aus einem Datensatz in Gruppen oder Klassen geordnet werden. Zuletzt schließen sich noch die Zusammenfassung und Aufbereitung der Daten an, die so für den Benutzer in Modellen visualisiert werden, dass er einen Informationsgewinn daraus ziehen kann.99

Bei der Analyse und der Suche nach geeigneten Modellen können jedoch auch Fehler auftreten oder es können wichtige Aspekte vergessen werden. Deshalb wurde für den gesamten Prozess eine Leitlinie durch den Cross-Industry Standard Process for Data Mining, dem sogenannten CRISP-DM, entwickelt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Phasen bei der Konstruktion eines Modells nach dem CRISP-DM Schema.

Quelle: Paaß, G./Hecker, D. (2020), S. 110.

Die Abbildung 5 verdeutlicht noch einmal den Prozess der Modellierung nach CRISP-DM. Aus einem vorhandenen Datensatz wird ein Modell konzipiert, das auf einer konkreten Fragestellung basiert. Diese wird dabei immer wieder mit den sich ergebenden Daten verglichen. Anschließend werden die Daten vorverarbeitet und ein Modell konstruiert, um dies weiteren Evaluationsschrit­ten zu unterziehen. Im Schema des CRISP-CM wird eine ständige Evaluation der Modellfindung beschrieben, die erst nach Abschluss dieses Prozesses zur Anwendung kommt.100

3.1.2 Data Maturity Modelle

Neben der Analyse von Daten und der Aufbereitung für Anwendungen in Unternehmen ist auch die Fähigkeit eines Unternehmens oder einer Organisation zu nennen, mit diesen Daten effektiv umzugehen. Mit dieser Thematik beschäftigen sich die sogenannten Maturity Modelle. Diese beschreiben die sogenannte Datenreife eines Unternehmens.101

[...]


1 Dürrenmatt, F. (1998), S. 93.

2 Vgl. Böhme, A. (2022).

3 Vgl. o.V. (2022).

4 Vgl. Kirste, M./Schürholz, M. (2019), S. 21.

5 Vgl. Maier, G.W. (2018).

6 Bünte, C. (2018), S. 5, mit einem Zitat von Duden (2018).

7 Vgl. Bünte, C. (2018), S. 5.

8 Herrmann, M./Horstmann, M./Kaper, N. (2021), S. 506.

9 Vgl. Richter, A. et al. (2019), S. 35.

10 Richter, A. et al. (2019), S. 35.

11 Richter, A. et al. (2019), S. 36.

12 Vgl. Kreutzer, R.T. (2022), S. 120.

13 Vgl. Bünte, C. (2018), S. 5 f.

14 Vgl. Richter, A. et al. (2019), S. 37.

15 Gausling, T. (2020), S. 13, mit einem Zitat von Bostrom, N. (1998).

16 Vgl. Richter, A. et al. (2019), S. 38.

17 Lackes, R./Siepermann, M./Lübbecke, M. (2018).

18 Vgl. Richter, A. et al. (2019), S. 39.

19 Gausling, T. (2020), S. 15.

20 Vgl. Gausling, T. (2020), S. 15.

21 Vgl. Richter, A. et al. (2019), S. 39.

22 Vgl. Wennker, P. (2020), S.15.

23 Richter, A. et al. (2019), S. 40.

24 Vgl. Richter, A. et al. (2019), S. 40.

25 Paaß, G./Hecker, D. (2020), S. 12.

26 Wennker, P. (2020), S. 2.

27 Vgl. Wuttke, L. (2021), S. 9.

28 Vgl. Gentsch, P. (2019), S. 24.

29 Vgl. Wuttke, L. (2021), S. 9.

30 Richter, A. et al. (2019), S. 33.

31 Vgl. Wennker, P. (2020), S. 2.

32 Vgl. Gentsch, P. (2019), S. 26.

33 Vgl. Paaß, G./Hecker, D. (2020), S. 10.

34 Vgl. Überland, L. (2016).

35 Vgl. Fikes, R.E./Nilsson, N.J. (1971), S. 189; Wennker, P. (2020), S. 2.

36 Vgl. Wennker, P. (2020), S. 3.

37 Paaß, G./Hecker, D. (2020), S. 11.

38 Vgl. Gentsch, P. (2019), S. 27.

39 Vgl. Gentsch, P. (2019), S. 27.

40 Lackes, R./Siepermann, M. (2018a).

41 Vgl. Wennker, P. (2020), S. 4.

42 Vgl. Paaß, G./Hecker, D. (2020), S. 11.

43 Vgl. Wennker, P. (2020), S. 4.

44 Vgl. Paaß, G./Hecker, D. (2020), S. 12.

45 Vgl. Lackes, R./Siepermann, M. (2018b).

46 Vgl. Gentsch, P. (2019), S. 271.

47 Vgl. Richter, A. et al. (2019), S. 40.

48 Vgl. Paaß, G./Hecker, D. (2020), S. 11 f.

49 Wennker, P. (2020), S. 6.

50 Vgl. Paaß, G./Hecker, D. (2020), S. 12.

51 Vgl. Wuttke, L. (2021), S. 9.

52 Vgl. Wennker, P. (2020), S. 6.

53 Vgl. Gentsch, P. (2019), S. 28 f.

54 Vgl. Gentsch, P. (2019), S. 28 f.

55 Vgl. Wennker, P. (2020), S. 6.

56 Vgl. Paaß, G./Hecker, D. (2020), S. 12.

57 Vgl. Gentsch, P. (2019), S. 29.

58 Vgl. Lackes, R./Siepermann, M. (2018c).

59 Vgl. Wuttke, L. (2021), S. 9.

60 Vgl. Wennker, P. (2020), S. 7.

61 Wennker, P. (2020), S. 8.

62 Vgl. Richter, A. et al. (2019), S. 32.

63 Brenig, H. (1990), S. 30.

64 Vgl. Rotthowe, T. (1998), S. 33.

65 Vgl. Rotthowe, T. (1998), S. 42.

66 Vgl. Rotthowe, T. (1998), S. 49.

67 Vgl. Holland, H. (2019), S. 88.

68 Vgl. Dettmann, U./Kopecz, J. (2020), S. 15.

69 Vgl. Kreutzer, R.T. (2022), S. 134.

70 Bendel, O. (2021a).

71 Vgl. Bendel, O. (2021a).

72 Vgl. Lehmann, J. (2021), S. 314.

73 Kirchgeorg, M. et al. (2018).

74 Schulze, M. (2022), S. 182.

75 Vgl. Schulze, M. (2022), S. 182.

76 Lasarov, W. (2021), S. 246 f.

77 Vgl. Lasarov, W. (2021), S. 247.

78 Vgl. Gläß, R. (2018), S. VII.

79 Vgl. Gläß, R. (2018), S. 16 f.

80 Vgl. Paluch, S./Wittkop, T. (2020), S. 510.

81 Vgl. Lehmann, J. (2021), S. 314.

82 Vgl. Gläß, R. (2018), S. 19.

83 Vgl. Gentsch, P. (2019), S. 157.

84 Paluch, S./Wittkop, T. (2020), S. 511.

85 Vgl. Gläß, R. (2018), S. 38.

86 Vgl. Richter, A. et al. (2019), S. 45.

87 Vgl. Gausling, T. (2020), S. 14.

88 Vgl. Bär, U. (2020), S. 107.

89 Vgl. Schulze, M. (2022), S. 180.

90 Vgl. Schulze, M. (2022), S. 182.

91 Schulze, M. (2022), S. 181.

92 Vgl. Bär, U. (2020), S. 107.

93 Lackes, R. (2018).

94 Lackes, R. (2018).

95 Vgl. Gentsch, P. (2019), S. 33 f.

96 Vgl. Büching, C. et al. (2019), S. 151.

97 Vgl. Paaß, G./Hecker, D. (2020), S. 78.

98 Gentsch, P. (2019), S. 34.

99 Vgl. Gentsch, P. (2019), S. 34.

100 Vgl. Paaß, G./Hecker, D. (2020), S. 110.

101 Vgl. Luber, S. (2021).

Ende der Leseprobe aus 95 Seiten

Details

Titel
Wie gut akzeptieren Kunden KI im Marketing? Potenziale der Künstlichen Intelligenz und Vorbehalte von Konsumenten
Hochschule
Hochschule Bochum
Note
1,0
Autor
Jahr
2022
Seiten
95
Katalognummer
V1318969
ISBN (Buch)
9783346795854
Sprache
Deutsch
Anmerkungen
Mit Academic Plus bietet GRIN ein eigenes Imprint für herausragende Abschlussarbeiten aus verschiedenen Fachbereichen. Alle Titel werden von der GRIN-Redaktion geprüft und ausgewählt. Unsere Autor:innen greifen in ihren Publikationen aktuelle Themen und Fragestellungen auf, die im Mittelpunkt gesellschaftlicher Diskussionen stehen. Sie liefern fundierte Informationen, präzise Analysen und konkrete Lösungsvorschläge für Wissenschaft und Forschung.
Schlagworte
KI, Marketing, Künstliche Intelligenz, Big Data, Data Analytics, Data Mining, Ethik, Verbraucher, Customer Experience, Algorithmen
Arbeit zitieren
Marc Bäumer (Autor:in), 2022, Wie gut akzeptieren Kunden KI im Marketing? Potenziale der Künstlichen Intelligenz und Vorbehalte von Konsumenten, München, GRIN Verlag, https://www.grin.com/document/1318969

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Wie gut akzeptieren Kunden KI im Marketing? Potenziale der Künstlichen Intelligenz und Vorbehalte von Konsumenten



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden