Digitale Sprachassistenten am Arbeitsplatz und ihr Weg zur Nutzerakzeptanz. Hindernisse und Treiber beim Anwender


Masterarbeit, 2020

136 Seiten, Note: 1,3


Leseprobe


Inhaltsverzeichnis

Abkürzungsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

1 Einleitung
1.1 Motivation und Ausgangslage
1.2 Aufbau und Inhalt der Arbeit

2 Theoretischer Teil
2.1 Digitale Sprachassistenten
2.1.1 Historische Entwicklung
2.1.2 Technische Funktionsweise
2.1.3 Hindernisse und Treiber am Arbeitsplatz
2.2 Akzeptanzforschung
2.2.1 Diffusionstheorie
2.2.2 Einordnung des Akzeptanzbegriffes
2.2.3 Akzeptanzmodelle
2.3 Modelle zur Erklärung der Technologieakzeptanz
2.3.1 Verhaltenstheorien
2.3.2Technology Acceptance Model
2.3.3 Unified Theory ofAcceptance and Use of Technology
2.3.4Task-Technology Fit Modell

3 Modellentwicklung und Hypothesenbildung
3.1 Forschungsmodell
3.2 Ableitung von Hypothesen

4 Empirischer Teil
4.1 Literaturrecherche
4.2 Erhebungsinstrument
4.2.1 Gestaltung des Fragebogens
4.2.2 Festlegung der Stichprobe
4.2.3 Pretest und Güterkriterien
4.3 Datenanalyse

5 Darstellung der Ergebnisse
5.1 Deskriptive Auswertung der Stichprobe
5.2 Datennormalität
5.3 Faktoren- und Reliabilitätsanalyse
5.4 Regressionsanalyse
5.4.1 Darstellung der überprüften Hypothesen
5.4.2 Auswertung des Forschungsmodells

6 Diskussion
6.1 Beantwortung der Forschungsfragen
6.2 Interpretation der Ergebnisse

7 Fazit
7.1 Zusammenfassung der Ergebnisse
7.2 Kritische Würdigung und Ausblick

Anhang

Literatur- und Quellenverzeichnis

Abkürzungsverzeichnis

ASR Automatic Speech Recognition

Bl Behavioral Intention

EE Effort Expectancy

FC Facilitating Conditions

IT Informationstechnologie

Kl Künstliche Intelligenz

KMO Kaiser-Meyer-Olkin

ML Machine Learning

MMI Mensch-Maschine-Interaktion

NLP Natural Language Processing

PE Performance Expectancy

SI Social Influence

TAC Task Characteristics

TAM Technology Acceptance Model

TEC Technology Characteristics

TPB Theory of Planned Behavior

TRA Theory of Reasoned Action

TTF Task-Technology Fit

UB Use Behavior

UTAUT Unified Theory of Acceptance and Use of Technology

Abbildungsverzeichnis

Abbildung 1: Meilensteine der Spracherkennung

Abbildung 2: Kernprozess digitaler Sprachassistenten

Abbildung 3: Raumstatus per Sprachsteuerung prüfen ein Anwendungsbeispiel .

Abbildung 4: Entscheidungsprozess zur Übernahme von Innovationen

Abbildung 5: Zweidimensionale Skala der Einstellungs- und Handlungsebene

Abbildung 6: Akzeptanzprozess nach Kollmann

Abbildung 7: TRA-Modell

Abbildung 8: TPB-Modell

Abbildung 9: TAM-Modell

Abbildung 10: TAM-Modell 2

Abbildung 11: UTAUT-Modell

Abbildung 12: TTF-Modell

Abbildung 13: Forschungsmodell für digitale Sprachassistenten

Abbildung 14: Altersverteilung der Teilnehmer

Abbildung 15: Häufigkeit der Nutzung digitaler Sprachassistenten

Abbildung 16: Ausgewertetes Forschungsmodell

Abbildung 17: Zusammenhang zwischen TAC und TTF

Abbildung 18: Zusammenhang TEC und TTF

Abbildung 19: Zusammenhang zwischen TTF und PE, sowie UB

Abbildung 20: Zusammenhang zwischen PE und Bl

Abbildung 21: Zusammenhang zwischen EE und Bl (Moderationseffekt)

Abbildung 22: Zusammenhang zwischen Sl und Bl

Abbildung 23: Zusammenhang zwischen FC und UB

Abbildung 24: Zusammenhang zwischen Bl und UB

Abbildung 25: Begrüßung der Online-Umfrage

Abbildung 26: Einführung in die Online-Umfrage

Abbildung 27: Fragen zur Kenntnis und Nutzung

Abbildung 28: Fragen überAufgabenmerkmale

Abbildung 29: Fragen über Technologiemerkmale

Abbildung 30: Fragen zur Leistungserwartung

Abbildung 31: Fragen zur Aufwandserwartung

Abbildung 32: Fragen zum sozialen Einfluss

Abbildung 33: Fragen zu unterstützenden Rahmenbedingungen

Abbildung 34: Fragen zur Technologierelevanz am Arbeitsplatz

Abbildung 35: Fragen zur Verhaltensabsicht

Abbildung 36: Fragen zur tatsächlichen Nutzung

Abbildung 37: Abfrage des Alters und Geschlechts

Abbildung 38: Fragen zur Abteilungs- und Branchenzugehörigkeit

Abbildung 39: Branchenzugehörigkeit der 230 Teilnehmer

Abbildung 40: Tätigkeitsbereich der 230 Teilnehmer

Abbildung 41: Grafische Normalverteilung - Aufgabenmerkmal

Abbildung 42: Grafische Normalverteilung-Technologiemerkmal

Abbildung 43: Grafische Normalverteilung - Leistungserwartung

Abbildung 44: Grafische Normalverteilung-Aufwandserwartung

Abbildung 45: Grafische Normalverteilung - Sozialer Einfluss

Abbildung 46: Grafische Normalverteilung - Rahmenbedingungen

Abbildung 47: Grafische Normalverteilung - Task-Technology fit

Abbildung 48: Grafische Normalverteilung - Verhaltensabsicht

Abbildung 49: Grafische Normalverteilung-Tatsächliche Nutzung

Tabellenverzeichnis

Tabelle 1: Abgeleitete Suchbegriffe

Tabelle 2: Aussagen zur Technologieakzeptanz in der Online-Befragung

Tabelle 3: Fragen zur Technologieakzeptanz der Online-Befragung Teil2

Tabelle 4: Übersicht möglicher uni-, bi und multivariater Analyseverfahren

Tabelle 5: Normalverteilung der Untersuchungsvariablen

Tabelle 6: KMO- und Bartlett-Test

Tabelle 7: Reliabilitätsprüfung der Konstrukte des Forschungsmodells

Tabelle 8: Ergebnis der Regressionsanalyse für TACa und TTFb

Tabelle 9: Ergebnis der Regressionsanalyse für TECa und TTFb

Tabelle 10: Ergebnis der Regressionsanalyse für TTFa und UBb

Tabelle 11: Ergebnis der Regressionsanalyse für TTFa und PEb

Tabelle 12: Ergebnis der Regressionsanalyse PEa und Blb

Tabelle 13: Regressionsanalyse PE und Bl (Moderationseffekt)

Tabelle 14: Ergebnis der Regressionsanalyse EEa und Blb

Tabelle 15: Regressionsanalyse EE und Bl (Moderationseffekt)

Tabelle 16: Ergebnis der Regressionsanalyse Sla und Blb

Tabelle 17: Regressionsanalyse Sl und Bl (Moderationseffekt)

Tabelle 18: Ergebnis der Regressionsanalyse FCa und UBb

Tabelle 19: Regressionsanalyse FC und Bl unter Einfluss des Alters

Tabelle 20: Ergebnis der Regressionsanalyse Bla und UBb

Tabelle 21: Stichprobenverteilung nach Alter und Geschlecht

Tabelle 22: Kenntnis digitaler Sprachassistenten nach Alter und Geschlecht

Tabelle 23: Nutzung digitaler Sprachassistenten nach Alter und Geschlecht

Tabelle 24: Analytische Normalverteilung - Aufgabenmerkmal

Tabelle 25: Analytische Normalverteilung - Technologiemerkmal

Tabelle 26: Analytische Normalverteilung - Leistungserwartung

Tabelle 27: Analytische Normalverteilung - Aufwandserwartung

Tabelle 28: Analytische Normalverteilung - Sozialer Einfluss

Tabelle 29: Analytische Normalverteilung - Rahmenbedingungen

Tabelle 30: Analytische Normalverteilung - Task-Technology fit

Tabelle 31: Analytische Normalverteilung - Verhaltensabsicht

Tabelle 32: Analytische Normalverteilung - Tatsächliche Nutzung

Tabelle33: Reliabilitätsstatistik-Aufgabenmerkmal

Tabelle34: Auswertung der Itemstatistiken-Aufgabenmerkmal mit2 Items

Tabelle 35: Reliabilitätsstatistik - Technologiemerkmal

Tabelle 36: Auswertung der Itemstatistiken - Technologiemerkmal mit 4 Items

Tabelle 37: Reliabilitätsstatistik - Leistungserwartung

Tabelle 38: Auswertung der Itemstatistiken - Leistungserwartung mit 4 Items

Tabelle39: Reliabilitätsstatistik-Aufwandserwartung

Tabelle40: Auswertung der Itemstatistiken-Aufwandserwartung mit4 Items

Tabelle 41: Reliabilitätsstatistik - Sozialer Einfluss

Tabeile 42: Auswertung der Itemstatistiken - Sozialer Einfluss mit 4 Items

Tabelle43: Reliabilitätsstatistik - Rahmenbedingungen

Tabelle 44: Auswertung der Itemstatistiken - Rahmenbedingungen mit 3 Items

Tabelle 45: Reliabilitätsstatistik - Task-Technology fit

Tabelle 46: Auswertung der Itemstatistiken - Task-Technology fit mit 2 Items

Tabelle 47: Reliabilitätsstatistik - Verhaltensabsicht

Tabelle 48: Auswertung der Itemstatistiken - Verhaltensabsicht mit 2 Items

Tabelle49: Reliabilitätsstatistik - Nutzung

Tabelle 50: Auswertung der Itemstatistiken - Nutzung mit 2 Items

Tabelle 51: Regressionsanalyse - TAC und TTF

Tabelle 52: Regressionsanalyse - TEC und TTF

Tabelle 53: Regressionsanalyse - TTF und UB

Tabelle 54: Regressionsanalyse - TTF und PE

Tabelle 55: Regressionsanalyse - PE und Bl

Tabelle 56: Multiple Regressionsanalyse - PE und Bl moderiert

Tabelle 57: Regressionsanalyse - EE und Bl

Tabelle 58: Multiple Regressionsanalyse-EE und Bl

Tabelle 59: Regressionsanalyse - Sl und Bl

Tabelle60: Multiple Regressionsanalyse-Sl und Bl

Tabelle 61: Regressionsanalyse - FC und UB

Tabelle 62: Multiple Regressionsanalyse - FC und UB

Tabelle 63: Regressionsanalyse - Bl und UB

Tabelle 64: Mittelwertvergleich der Variablen unter Einbezug des Alters

Tabelle 65: Mittelwertvergleich der Variablen unter Einbezug des Geschlechts .

Tabelle 66: Mittelwertanalyse der evaluierten Variablen

1 Einleitung

1.1 Motivation und Ausgangslage

Als Ergebnis von Big Date und der zunehmenden Vernetzung von Maschinen ist die künstliche Intelligenz (kurz: Kl) zu einem wichtigen Treiber für die fortlaufende Digi­talisierung in sämtlichen Bereichen der Gesellschaft und Wirtschaft geworden.1 Der Gebrauch der natürlichen Sprache wird in diesem Zusammenhang zu einem immer populäreren Kanal für die Mensch-Maschine-Interaktion (kurz: MMI). In zahlreichen Szenarien ist die Sprachinteraktion herkömmlichen Benutzerschnittstellen vorzu­ziehen, deren Benutzung unbequem oder sogar gefährlich sein kann, wie beim Auto­fahren.2 Viele Menschen haben bereits weltweit Erfahrungen mit sprachgesteuerten digitalen Assistenten wie Alexa und Cortana sammeln können, die viele nützliche Funktionen für den Alltag bieten. Mittlerweile sind auch Szenarien für den Arbeits­alltag möglich. Dadurch das digitale Sprachassistenten Routineaufgaben über­nehmen, kann Freiraum für Mitarbeiter im Büroalltag geschaffen werden, damit diese kreativeren Aufgaben nachgehen können.3 Laut einer Studie von Tractica sollen bis 2021 weltweit 1,8 Milliarden Nutzer Zugang zu digitalen Assistenten haben.4 Da die Erkennungsgenauigkeit der natürlichen Sprache innerhalb dieser Systeme be­deutend zu nimmt und Gespräche immer flexibler und humaner werden, verringern sich zunehmend die damit verbundenen Barrieren und Nutzer finden vermehrt An­wendungen, die ihr tägliches Leben erleichtern. Bisher werden digitale Sprachassis­tenten jedoch hauptsächlich im privaten Bereich eingesetzt und dienen als Sprach- schnittstelle, z. B. zur Beantwortung von Fragen, zur Bedienung des Lichts oder zum Musikhören. Aus der Arbeitswelt ist daher häufig die Wahrnehmung zu vernehmen, dass Sprachassistenten wenig oder keinen Einfluss auf die Wertschöpfung eines Unternehmens haben. Das Leistungspotenzial von Sprachassistenten wird dabei gänzlich unterschätzt. So wie mit dem Aufkommen aller neuen Technologien müssen sich die Anwender vorerst mit den Funktionen von digitalen Sprachassis­tenten vertraut machen und sich daran gewöhnen, diese im Alltag einzubinden.5

Die fortschreitende Entwicklung von Informationssystemen weisen die Richtung ins Informationszeitalter, in dem ein signifikantes Wachstum an innovativen Produkten zu beobachten ist. Die Einführung dieser Technologien stellen jedoch neue Anfor­derungen an bestehende Schnittstellen der Informationstechnologie (kurz: IT) und indizieren Verhaltensänderungen bei denjeweiligen Endnutzern. Bei der Einführung neuer Technologien besteht daher Bedarf an einer Erfolgsprognose und der damit unmittelbar verknüpften Messung der Nutzerakzeptanz. In diesem Zusammenhang wird der Begriff der Akzeptanz häufig innerhalb der sozial- und wirtschaftswissen­schaftlichen Forschung diskutiert. Diese Diskussionen zeigen auf, dass der Begriff der Akzeptanz einen wichtigen Indikator für die Erfolgsmessung einer technologi­schen Innovation darstellt. Dies wird mit der Tatsache begründet, dass die erfolgrei­che Einführung neuer Produkte und der damit verbundene ökonomischen Gewinn nicht nurvon dertechnischen Möglichkeit, sondern auch von der Akzeptanz derAn- wender beeinflusst wird.6 Dabei wird die Einführung neuer IT-Systeme mit hohen Erwartungen verbunden, die sich von der Verbesserung von Geschäftsprozessen bis hin zu Kostensenkungen und Produktivitätssteigerungen erstrecken. Insbeson­dere wird der Erfolg bei der Einführung von IT-Systemen primär durch den Grad der Akzeptanz bestimmt. Zur Erfüllung dieser Ansprüche muss das neue Informations­system jedoch von der jeweiligen Zielgruppe zunächst akzeptiert werden.7 Somit wird Akzeptanz als ein wesentlicher Indikator für den Erfolg neuer Informationssys­teme gesehen, um Auskunft darüber zu schaffen, inwiefern diese Innovationen von der jeweiligen Zielgruppe aufgefasst werden. Zur Verringerung der Risiken und für eine erfolgreiche Einführung dieser Produkte ist daher eine vorausgehende empiri­schen Studie zur Evaluierung der Nutzerakzeptanz erforderlich.8

In den letzten Jahren haben digitale Assistenten, die mit Hilfe der natürlichen Spra­che die Interaktion zwischen Menschen und Maschine vorantreiben, Endverbraucher auf vielen Ebenen erreicht. Auch im Unternehmensumfeld ist dieser Trend zu be­obachten. Bei der aktuell erreichten Qualität der Kl ist es möglich, Systeme zu ent­wickeln, die sich personalisieren lassen und mittels natürlicher Sprache, Anwender bei Geschäftsprozessen systemübergreifend unterstützen.9 Mit dem dynamischen Wandel der Technologielandschaft im IT-Umfeld ändert sich auch die Akzeptanz der Anwender entsprechend. Die Nutzerakzeptanz von Technologien wird von vielen Faktoren bestimmt, z. B. von der Benutzerfreundlichkeit, der Verfügbarkeit, den Nut­zerbedürfnissen und den sozialen Aspekten, die Menschen miteinander interagieren lassen.10 Zu verstehen, warum Individuen ein System akzeptieren oder ablehnen, hat sich als eine der größten Herausforderungen in der IT-Forschung erwiesen.11 Neue technologiebasierte Produkte können aus technischer Sicht noch so gewinn­bringend sein, wenn der Menschen diese Innovationen nicht akzeptiert, findet keine Anwendung statt. Um mögliche Hindernisse und Treiber in einem frühen Entwick­lungsstadium zu ermitteln, ist es wichtig, eine sozio-ethische Evaluierung der Tech­nologie anzustreben. Damit können die Bedürfnisse und Meinungen der betroffenen Personengruppen hinsichtlich der neuen Technologie, in einem frühen Entwick­lungsstatus berücksichtigt werden.12 Dabei wird mit dem Stand der Forschung deut­lich, wie umfangreich das Einsatzfeld der digitalen Sprachassistenten ist. Beim der­zeitigen Forschungsstand sticht hervor, dass dieser sich vorwiegend mit den Chan­cen und Möglichkeiten befasst, die sich mit der Implementierung und Nutzung von digitalen Sprachassistenten auftun. Die daraus resultierenden Effekte aufdas Kom- munikations- und Nutzungsverhalten der Menschen als Individuen bleiben allerdings weitgehend unberücksichtigt. Die vorliegende wissenschaftliche Arbeit knüpft an diese Feststellung an und dient primär der Untersuchung von Hindernissen und Trei­bern, die die Nutzerakzeptanz von digitalen Sprachassistenten am Arbeitsplatz be­einflussen.

In diesem Kontext soll folgende Forschungsfrage behandelt werden:

F1: Welche Einflussfaktoren beeinflussen die Nutzerakzeptanz von di­gitalen Sprachassistenten am Arbeitsplatz?

Zur Beantwortung der Forschungsfrage F1 wird vorausgesetzt zunächst eine Antwort auf folgende Forschungsfrage zu finden:

F2: Welches Technologieakzeptanzmodell aus der Literatur eignet sich zur Messung der Akzeptanz von digitalen Sprachassistenten am Arbeitsplatz?

1.2 Aufbau und Inhalt der Arbeit

Für die Beantwortung der gestellten Forschungsfragen und damit zur Erreichung des Forschungsziels befasst sich diese Arbeit im Wesentlichen mit der Erarbeitung des Themenfeldes der digitalen Sprachassistenten. Darüber hinaus soll als weiteres For­schungsfeld die Akzeptanzforschung mit dem Fokus auf innovative Technologien vertieft werden. Die Literaturanalyse wird in dieser Arbeit als wissenschaftliche Me­thode zur Unterstützung dieses Vorhabens eingesetzt. Im Rahmen dieser Arbeit sol­len die Inhalte der Literaturrecherche systematisch interpretiert und aufbereitet wer­den. Die vorliegende Arbeit ist dazu zusammen mit der Einleitung in sieben Kapitel gegliedert. In dem zweiten Kapitel werden digitale Sprachassistenten zunächst his­torisch und technisch eingeordnet. Dabei werden theoretische Grundlagen und prak­tische Beispiele aus der Literaturrecherche anhand der verwendeten Quellen aufge­listet und Hindernisse sowie Treiber verglichen, um Transparenz über die aktuelle Situation der digitalen Sprachassistenten am Arbeitsplatz zu schaffen. Der Schwer­punkt dieser Arbeit liegt auf der Evaluierung der Akzeptanz von digitalen Sprachas­sistenten, weshalb an dieser Stelle auch verschiedene Aspekte der Akzeptanz vor­gestellt werden. Im Vordergrund steht die Aufarbeitung bestehender Theorien und Modelle, die versuchen, die Akzeptanz einer Technologie zu beschreiben. Basierend auf den Ergebnissen der Literaturrecherche wird im dritten Kapitel ein Forschungs­modell entwickelt, das die Technologieakzeptanz von digitalen Sprachassistenten am Arbeitsplatz erklären soll. Ausgehend von diesem Forschungsmodell werden zur Unterstützung des Forschungsziels verschiedene Hypothesen abgeleitet. Im vierten Kapitel folgen die Planung und Durchführung einer Online-Umfrage zur Erhebung der notwendigen Daten. Diese Umfrage zielt darauf ab, Daten für das Modell zu sammeln, um die gesammelten Daten zielführend auszuwerten und die aufgestellten Hypothesen zu überprüfen. Im fünften Kapitel werden die Ergebnisse der Umfrage demografisch ausgewertet und durch den Einsatz von quantitativen Analysemetho­den analysiert. Daraufhin werden die Ergebnisse im sechsten Kapitel interpretiert. Abschließend befasst sich das letzte Kapitel kritisch mit dem Aufbau und den Ergeb­nissen dieser Arbeit.

2 Theoretischer Teil

2.1 Digitale Sprachassistenten

Bei digitalen Sprachassistenten handelt es sich um eine Software, die durch den Einsatz von Spracherkennung ausgewählte Informationen auswertet oder bestimmte Aufgaben abarbeitet. Die bekanntesten Vertreter von digitalen Sprachassistenten sind Alexa von Amazon, Bixby von Samsung, Cortana von Microsoft, Google As­sistant von Google und Siri von Apple. Mit Siri ist es Apple gelungen, die Art der Kommunikation zwischen Menschen und Maschine effektiv zu realisieren und damit dafür zu sorgen, dass die wichtigsten Wettbewerber nachziehen mussten. Durch die zunehmende Möglichkeit, Sprachsteuerung in unterschiedlicher Hardware zu imple­mentieren und somit Alternativen für das Smartphone zu schaffen, wird der Erfolg der digitalen Sprachassistenten weiter gefördert. Aktuell trägt besonders Amazon durch das breite Hardware-Angebot und einem erfolgreichen Marketing dazu bei, dass diese technologische Innovation immer mehr Anwender abholt.13 Zu den we­sentlichen Bestandteilen eines digitalen Sprachassistenten gehören die computer­generierte Sprache, die wahrgenommene Persönlichkeit des Assistenten, die Algo­rithmen, die das Gespräch ermöglichen, sowie Informationen, die überdas Internet abgerufen und gespeichert werden. Alternativ zum Smartphone können digitale Sprachassistenten dabei in unterschiedliche Objekte eingebettet werden wie z. B. Lautsprecher, Uhren und Fernbedienungen.14 Die prinzipielle Idee eines digitalen Sprachassistenten beschränkt sich aber nicht auf die reine Befehlsausführung, so­wie die damit verbundene Erkennung der gesprochenen Sprache und den Ersatz eines physischen Bedienelementes auf einem Gerät. Stattdessen sollen Assistenz­dienste erbracht werden, um den Anwender zu entlasten und zu unterstützten.15

2.1.1 Historische Entwicklung

Die Entwicklung heutiger digitaler Sprachassistenten ist grundlegend auf das Jahr 1952 zurückzuführen. In diesem Jahr wurde Audrey, die erste maschinelle Sprach­erkennung vorgestellt, mit der es möglich war gesprochene Zahlen zu erkennen. Bis zu den 1960er Jahren war es nur möglich eine geringe Anzahl von Wörtern zu ver­arbeiten. In den 1970er Jahren wurde dann mittels Spracherkennung ermöglicht, das Vokabular eines 3-Jährigen abzudecken, was ungefähr einem Wortschatz von 1000 Wörtern entspricht. Die 1980er Jahre wurden durch die Entwicklung des stochasti­schen Modells Hidden-Markov-Modell geprägt. Mit dem Einsatz dieses Modells war es innerhalb der Spracherkennung möglich, eine größere Anzahl von Wortzusam­menhängen effizient auszuwerten und zu verarbeiten. Durch die Entwicklung weite­rer stochastischer Methoden, wurde die Genauigkeit bei der Spracherkennung in den 1990er Jahren gesteigert.16 Der Fortschritt in der Spracherkennung wurde vor allem durch den Einfluss verschiedener Institutionen und Unternehmen, wie dem amerika­nischen Verteidigungsministerium und IBM gefördert. Somit wares in den neunziger Jahren möglich, die ersten sprachgesteuerten Anwendungen für den öffentlichen Gebrauch zugänglich zu machen. Die Spracherkennungssysteme konnten am PC z. B. für Diktieraufgaben in Anwaltskanzleien oder Arztpraxen genutzt werden. Zur Markteinführung des iPhone 4s im Jahr 2011, brachte Siri dann neuen Aufschwung in den Markt. Zu Beginn konnte Siri die Sprachen Englisch, Deutsch und Französisch verstehen, sowie Telefonate starten. Mittlerweile ist es für Siri möglich komplexe Re­chenaufgaben zu lösen oder Vorträge über bestimmte Themen zu halten. Im Jahr 2014 folgten auch Amazon mit Alexa und M icrosoft mit Cortana diesem Trend. Heute funktionieren digitale Sprachassistenten bereits zufriedenstellend, sie befinden sich jedoch noch in einem frühen Entwicklungsstadium und werden fortlaufend weiterent­wickelt. Sprachgesteuerte Assistenten integrieren sich dabei zunehmend im menschlichen Alltag.17

Abbildung in dieser Leseprobe nicht enthalten

Quelle: In Anlehnung an Karla et al. (2019), S. 29. Abbildung 1: Meilensteine der Spracherkennung

2.1.2 Technische Funktionsweise

Spracherkennung stellt ein Teilgebiet der Computerlinguistik, Informatik und Inge­nieurswissenschaften dar, mit dem Ziel Verfahren zu entwickeln, die gesprochene Sprache dem Computer zugänglich zu machen.18 Je nach Betriebssystem und Platt­form können Anwenderzwischen mehreren Sprachassistenz-Systemen wählen. Ei­nige sind spezialisiert auf Smartphones oder Lautsprecher, andere sind wiederum auf einer Vielzahl von Plattformen kompatibel. Außerdem variiert der Umfang der möglichen Anfragen und Funktionen von Anbieter zu Anbieter. Dennoch weisen diese Systeme eine grundsätzlich vergleichbare Struktur auf. Am Anfang des Pro­zesses erfolgt die Spracheingabe, die digitalisiert und von Störgeräuschen bereinigt wird. Im nächsten Schritt wird die Intention der gewählten Aussage gedeutet. Aller­dings ist die digitalisierte Sprache in vielen Situationen allein nicht ausreichend, um die Intention vollständig zu verstehen. Deshalb wird zusätzlich zur Sprachanfrage eine Auswahl weiterer Informationen wie frühere Anfragen, Käufe, Standortsdaten und andere Quellen zum Sprachverständnis herangezogen, um gezielt auf die An­frage zu reagieren. Dieser Informationszugang variiert je nach System und wirkt sich auf die wahrgenommene Intelligenz der digitalen Sprachassistenten aus. Nach Be­arbeitung der Anfrage erfolgt die Formulierung einer passenden Rückmeldung z. B. in Form eines Textes, die an den Anwender übermittelt wird.19 Der eigentliche Kern eines Sprachassistenten befindet sich im Rechenzentrum des jeweiligen Anbieters. Die verwendeten Geräte, die sich in Büros, Küchen oder Wohnzimmern befinden, fungieren im Grunde nur als Gehör und Mund für digitale Sprachassistenten wie Alexa, Cortana oder Siri. Die Software im Rechenzentrum des Anbieters verwendet komplexe Algorithmen und maschinelle Lernverfahren, um Störgeräusche von der eigentlichen Nachricht zu trennen und in Maschinensprache umzuwandeln. Im nächsten Schritt wird die Nachricht analysiert und verarbeitet, um die konkrete Inten­tion und damit verbundene Parameter des Anwenders zu ermitteln. Um die jeweilige Anfrage zu bearbeiten und eine Rückmeldung zu erzeugen, wird als nächstes ein passender Softwareprozess gestartet. Das daraus resultierende Ergebnis wird vom zentralen Rechenzentrum über das Internet zurück zum Eingabegerät übertragen und dort, z. B. über die integrierten Lautsprecher, ausgegeben.20 Innerhalb dieses Kernprozesses wird für den ersten Schritt auf die Methode Automatic Speech Recog­nition (kurz: ASR) zurückgegriffen, die es ermöglicht die Spracheingabe in Textform zu konvertieren. Um den einzelnen Textbausteinen eine Bedeutung zu verleihen, wird dann die Methode Natural Language Processing (kurz: NLP) eingesetzt. In der Folge werden durch den sogenannten Dialogmanager die erforderlichen Arbeits­schritte zur Beantwortung der Anfrage veranlasst und durchgeführt. Auf die erfolg­reiche Abwicklung der vorangehenden Prozessschritte folgt dann die Rückmeldung. Für die Verarbeitung der in diesem Kernprozess anfallenden Daten sind Cloud-Lö- sungen vorteilhaft. Damit haben digitalen Sprachassistenten im Vergleich zu rein off­line agierenden Systemen stets Zugriff auf aktuelle Informationen und größere Da­tenmengen lassen sich effizienter verarbeiten.21 22

Abbildung in dieser Leseprobe nicht enthalten

Quelle: In Anlehnung an Wege et al. (2018), S. 16.

Abbildung 2: Kernprozess digitaler Sprachassistenten

Dabei werden im Rahmen des ASR folgende Anwendungsziele adressiert:22

- Sprecherunabhängige Spracherkennung: Hierbei handelt es sich um Anwen­dungen, bei denen jeder potenzielle Anwender das jeweilige Produkt verwen­den kann. Diese Art der Sprachinteraktion findet z. B. bei smarten Spielzeu­gen ihren Einsatz. Dabei haben Kinder die Möglichkeit ihre Spielzeuge durch den Gebrauch der natürlichen Sprache zu Bewegungsaktionen zu verleiten, ohne dass irgendwelche Schalter oder Knöpfe betätigt werden müssen.
- Sprecherspezifische Spracherkennung: Dies bezieht sich auf Anwendungen, bei denen das Endprodukt auf eine bestimmte Person abgestimmt sind. Diese Art der Anwendung könnte z. B. für Autofahrer von Nutzen sein. Die Einstellung des Audiosystems, das Einschalten der Scheibenwischer und die Steuerung der Klimaanlage sind als unkritische Fahrzeugfunktionen zu se­hen, können aus Sicherheitsaspekten jedoch ablenkend für den Fahrer sein. Durch die Integration der Sprachsteuerung zur Ausführung dieser Funktionen kann das Gefahrenpotenzial durch Ablenkung gesenkt werden und der Fah­rer sich auf das Fahren konzentrieren. Da ein Auto in der Regel einer be­grenzten Anzahl an Fahrern zur Verfügung steht, könnte die Sprachsoftware auf die individuelle Aussprache dieser Personen trainiert und somit effizienter eingesetzt werden.
- Verifizierung des Sprechers: Im Gegensatz zu den beiden vorangehenden Anwendungsgebieten, liegt der Schwerpunkt der Verifizierung eines Spre­chers im Sicherheitsaspekt und nicht auf Kontrollfunktionen. Dabei handelt es sich im Wesentlichen um eine Art biometrischer Mustererkennung. An die­ser Stelle werden Merkmale der Stimme einer Person analysiert, um den Zu­gang zu einem System zu ermöglichen oder zu verweigern. Als typische Bei­spiele sind hier persönliche Geräte wie das Smartphone oder Laptops zu nen­nen, bei denen die Stimme einer Person als Passwort genutzt werden kann, um das Gerät einzuschalten oder sich anzumelden.
- Identifikation des Sprechers: Die Sprachidentifikation steht im engen Zusam­menhang mit der Sprachverifizierung. Jedoch wird hier die Äußerung des Sprechers mit denen weiterer Sprecher verglichen, um den Sprecher aus ei­nem Pool möglicher Anwender zu identifizieren. Vereinfacht ausgedrückt kann das Ziel darin bestehen, den Anwender aus einer Vielzahl von berech­tigen Nutzern zu erkennen.

Die im Hintergrund eines digitalen Sprachassistenten verborgene NLP-Software stellt ein Teilgebiet der Kl dar.23 Mit NLP wird der Prozess und die Fähigkeit von Computern beschrieben, gesprochene oder geschriebene Texte zu erkennen und deren Bedeutung zu extrahieren, sowie lesbare und grammatikalisch richtige Texte zu erzeugen. Mittels NLP-Systemen werden Computer in die Lage versetzt auf na­türliche Sprachen wie Deutsch und Englisch zu reagieren. Die kommunizierte Be­deutung des Gesagten ist allerdings oft von der Semantik abhängig. Ein Mensch ist in der Lage, die Bedeutung von Wortzusammenhängen intuitiv richtig zu erkennen, was für Maschinen auch heute noch eine große Herausforderung darstellt. So ist die Semantik der menschlichen Sprache nicht einheitlich und richtet sich beispielsweise nach der jeweiligen Grammatik, Intention und der kulturellen Prägung. Um diesen Herausforderungen entgegenzuwirken werden beim NLP verschiedene Methoden des Machine Learnings (kurz: ML) kombiniert. Indem ein System mit großen Daten­mengen trainiert wird, steigt die Wahrscheinlichkeit bestimmte Wortdeutungen bes­ser zu identifizieren.24

Ein Dialogmanager repräsentiert einen Prozess, der die von den verschiedenen Ein­gabemodalitäten gelieferten Daten analysiert und die nächsten Aktionen des digita­len Sprachassistenten bestimmt, z. B. die Bereitstellung von Informationen für den Anwender. Für die Umsetzung dieses Prozesses können in der Literatur eine Reihe von Modellen gefunden werden. Ein Beispiel stellt das Finate-State-Modell dar, bei dem zur Verarbeitung von Anfragen auf eine Netzwerkstruktur zurückgegriffen wird, die eine endliche Anzahl an Zuständen aufweist. Die Nutzeranfrage wird strukturiert anhand eines festgelegten Prozesspfads bearbeitet. Diese Art des Dialogmanagers kommt häufig bei unkomplizierten Aufgabenstellungen zum Einsatz. Der wesentliche Vorteil dieses Ansatzes ist die einfache Handhabung, die die Entwicklung eines Dia­logmanagers erleichtert. Als Hauptnachteil ist festzuhalten, dass diese Methode auf­grund der mangelnden Flexibilität für die Bearbeitung komplexer Anfragen ungeeig­net ist.25

Mit Bezug auf die natürliche Sprache sind in Abhängigkeit der Eingabemodalität grundsätzlich folgende Ein- und Ausgabevarianten zu unterscheiden:26

- Speech-to-Text: Bei diesem Format wird das gesprochene Wort umgehend in einen digitalen Text übersetzt. Dies ist z. B. der Fall, wenn Siri zum Diktie­ren von Notizen im Smartphone genutzt wird.
- Speech-to-Speech: In diesem Konzept folgt auf eine Spracheingabe eine Sprachausgabe. Ein Frage-Antwort-Szenario, das bei der Verwendung von digitalen Sprachassistenten wie Alexa auftritt, stellt hierzu ein typisches Bei­spiel dar.
- Text-to-Text: An dieser Stelle wird ein digitaler Text mit Hilfe eines Pro­gramms wie DeepL in eine andere Sprache übersetzt und in Textform ausge­geben.
- Text-to-Speech: Mit diesem Anwendungsbereich können digitale Textinfor­mationen akustisch abgespielt bzw. vorgelesen werden. In diesem Zusam­menhang hat z. B. das chinesische Unternehmen Baidu die Anwendung Deep Voice entwickelt, mit der es möglich ist, die Stimme einer Person in wenigen Sekunden auf der Grundlage von Trainingsdaten zu klonen. Nach dem Klonen ermöglicht die Anwendung die Wiedergabe eines beliebigen Textes mit der zuvor geklonten Stimme und einer gewünschten Intention.27

Um in diesem Prozess basierend auf der MMI, die Inhalte der natürlichen Sprache zu analysieren und kontextbasiert zu bewerten, sind Lösungen aus dem Gebiet der Kl notwendig. In den letzten Jahren hat sich das Verständnis zu Fragen im Gebiet der Kl weit entwickelt. Mit diesem Fortschritt hat sich der Computer vom reinen Spei­cher- und Rechenmedium zum intelligenten Analyseinstrument entwickelt. Durch den Einsatz der Kl werden die Anwendungsbereiche, die auf die natürliche Sprache zurückzuführen sind, weiter ausgebaut. In der klassischen Form der Spracherken­nung werden Anwendungen auf der Grundlage eines definierten Vokabulars imple­mentiert. Im Kontext der Kl ist ein definiertes Vokabular nicht notwendig, da die Kl aus Gesprächen lernt und das Vokabular selbstständig weiterentwickeln kann. Um ein natürliches Gespräch führen zu können, ist somit nicht eine vollständige Defini­tion jedes einzelnen Wortes erforderlich, sondern nur ein Grundvokabular und Trai­ningsdaten, mit denen die Kl die Sprache selbst erlernt. Das hier verfolgte Ziel ist letztlich die Entwicklung einer Maschine, die sich verhält, als Verfüge sie über Intel­ligenz.28 Kl stellt dabei einen Zweig der Informatik dar und beschreibt in erster Linie, wie rechnergesteuerte Systeme die kognitiven Fähigkeiten von Menschen imitieren. Die Anwendung von Kl-Systemen soll Softwaresysteme, Maschinen oder Roboter in die Lage versetzen, mit und ohne menschliches Eingreifen vielfältige Aufgabenstel­lungen in bisher unbekannten Umgebung zu lösen.29 ML ist ein Zweig der Kl, der in den letzten Jahren von einem rasanten technologischen Wachstum geprägt ist. Beim ML werden Algorithmen verwendet, die auf Grundlage von Daten verschiedene Mus­ter erkennen und entsprechende Informationen ableiten. Auf diese Weise wird künst­liches Wissen generiert.30 Dabei wird grundlegend zwischen den ML-Konzepten Su­pervised ML (zu Deutsch: überwachtes ML), Unsupervised ML (zu Deutsch: unbe­aufsichtigtes ML) und Reinforcement Learning (zu Deutsch: bestärktes ML) unter­schieden.31 Der Zweck des überwachten ML besteht darin, durch beispielhafte Ein- gabe-Ausgabe-Paare zunächst ein Modell aufzustellen, das es ermöglicht eine Be­ziehung zwischen vorgegebenen Eingabewerten und bekannten Zielwerten herzu­stellen. Damit soll ein Computer befähigt werden, auch eigenständig Prognosen über bisher unbekannte Ein- und Ausgaben zu erstellen. Zur Validierung der Leistungsfä­higkeit eines Modells werden Testdaten herangezogen, die dem Modell bisher un­bekannt sind.32 Beim unbeaufsichtigten ML werden hingegen keine Regeln vorge­geben, die die Beziehung zwischen Ein- und Ausgabewerten bestimmten. Bei die­sem Ansatz teilt der Algorithmus die Eingangsdaten anhand der vorhandenen Daten selbstständig in Kategorien ein, um Muster zu identifizieren. Mit dem bestärkenden ML-Ansatz wird der Fokus daraufgelegt, eine wirksame Strategie für ein konkretes Problem zu erlernen. Innerhalb der Strategie erhält der Algorithmus in Abhängigkeit der gewählten Handlungen eine Belohnung oder Strafe. Somit muss der Algorithmus anhand dieser Erfahrungen beschließen, mit welcher nächsten möglichen Handlung eine optimale Entscheidung getroffen werden kann.33

2.1.3 Hindernisse und Treiber am Arbeitsplatz

Immer mehr Bereiche der Gesellschaft und Wirtschaft werden durch potenzielle An­wendungsmöglichkeiten von digitalen Sprachassistenten durchdrungen. Neben der privaten Nutzung finden sich zunehmend auch berufliche Einsatzbereiche. So wer­den digitale Sprachassistenten im privaten Umfeld häufig eingesetzt, um Informatio­nen aus dem Internet abzurufen, z. B. die Wettervorhersage oder Nachrichten und um Haushaltsgeräte wie Küchengeräte oder Beleuchtungen zu steuern. Im Ar­beitsalltag ergeben sich durch Sprachsteuerung weitere intelligente Anwendungs­möglichkeiten wie für das Büro oder zur Maschinensteuerungen.34 Diese Assistenz­systeme können Mitarbeiter bei täglich anfallenden Aufgaben wie bei der Planung oder zur Aufbereitung und Bereitstellung benötigter Informationen unterstützten. So können Assistenzsysteme z. B. zur Terminkoordination zwischen verschiedenen Projektmitgliedern und zur Belegung von Besprechungsräumen eingesetzt werden oder den jeweiligen Organisator bei sonstigen anfallenden Tätigkeiten entlasten. Sie können aber auch außerhalb von organisatorischen Szenarien sinnvoll eingesetzt werden. Mit ihrer Hilfe kann z. B. die Zustandserfassung von einzelnen Komponen­ten eines Systems erfolgen und damit Wartungspersonal auf kritischen Stellen eines Betriebsprozesses hingewiesen werden. Dort könnten Assistenzsysteme den zu­ständigen Mitarbeiter anleiten und entsprechende Hinweise zur Lösung des Prob­lems liefern. In Abhängigkeit vom Verwendungszweck zeigen Assistenzsysteme so­mit verschiedene Vorteile auf und erleichtern alltägliche Aufgaben der jeweiligen An­wender. Durch das Delegieren von Aufgaben kann der Anwender Kosten und Zeit sparen und Ressourcen gezielter einsetzen.35

Abbildung in dieser Leseprobe nicht enthalten

Quelle: In Anlehnung an Schaber et al. (2019), S. 10.

Abbildung 3: Raumstatus per Sprachsteuerung prüfen ein Anwendungsbeispiel

Dabei hat das Interesse an Assistenzsystemen wie Alexa for Business oder Cortona Skills Kit for Enterprise, die für den Arbeitsplatz entwickelt wurden, in den letzten Jahren zugenommen. Allerdings bedarf es noch weiterer Untersuchungen, wie digi­tale Sprachassistenten erfolgreich am Arbeitsplatz etabliert werden können. Hinzu kommt, dass der Einsatz von digitalen Sprachassistenten für arbeitsbezogene Auf­gaben noch begrenzt ist und die Entwickler dieser Assistenzsysteme dementspre­chend Probleme haben, in den Arbeitsbereich vorzudringen. Um die Akzeptanz die­ser Systeme für den Arbeitsplatz zu erhöhen, muss daher ein besseres Verständnis dafür geschaffen werden, auf welche Weise digitale Sprachassistenten einen Mitar­beiter unterstützen können.36 Aktuell agieren Assistenzsysteme generell passiv und werden nur beim Öffnen von bestimmten Apps, beim Drücken einer Taste oder wenn eine Begrüßung ausgesprochen wird aktiv. Hingegen könnten Assistenzsysteme, die aktiv agieren sich potenziell auch selbstständig in eine Situation einbringen und mit den Anwendern interagieren, indem z. B. Ratschläge gegeben oder Missver­ständnisse aufgeklärt werden. Jedoch könnte dies auch als Nachteil gesehen wer­den, da das Assistenzsystem auch innerhalb einer Situation aktiv unerwünschte Aus­sagen treffen könnte.37 Für das Verständnis der Bedeutung einer Äußerung ist in­nerhalb einer bestimmten Situationen eine Interpretation notwendig, bei der der Kon­text, in dem sie getroffen wurde und weitere Zusatzinformationen berücksichtigt wer­den. Dies lösen Menschen meist intuitiv. Für digitale Sprachassistenten stellt dies jedoch weiterhin eine Herausforderung dar und hängt von der vorliegenden Rechen­leistung und den eingesetzten ML-Methoden ab.38 Diese Herausforderungen haben die Anbieter erkannt und bemühen sich, die Verständigung mit ihren digitalen Sprachassistenten an die menschliche Kommunikation weiter anzunähern. Des Wei­teren herrscht ein Trend in Richtung einer tieferen Personalisierung der digitalen Sprachassistenten auf der Grundlage des Stimmprofils des jeweiligen Anwenders. Ferner ist somit auch denkbar, dass aus der Anfrage die Stimmung eines Anwenders erkannt und dies mit in die Antwort einbezogen wird. Neben der menschlichen Stimme können diese Systeme aber auch weitere Umgebungsgeräusche wahrneh­men. Damit könnte ein digitaler Sprachassistent auch unter Sicherheitsaspekten ein­geführt werden, um in der eingesetzten Umgebung vorhandene Alarmsysteme ef­fektiver zu gestalten.39 Damit die zuvor genannten Vorteile auch in Unternehmen ausgeschöpft werden können, muss dem Wissensmanagement eines Unterneh­mens zunächst eine wichtige Rolle zugeschrieben werden. Dazu ist es notwendig jegliches Wissen von und über ein Unternehmen in elektronischer Form, für den di­gitalen Assistenten zur Verfügung zu stellen. Der Schwerpunkt liegt hier vor allem in der elektronischen Aufbereitung des Wissens, das in den Köpfen der Mitarbeiter vor­liegt. Die erfolgreiche Implementierung eines digitalen Assistenten kann damit z. B. auch die Automatisierung des unternehmensweiten Wissensmanagement vorantrei­ben und die jeweiligen Anwender durch eine effiziente Bereitstellung von Informati­onen bei Entscheidungen unterstützen.40

Die beim Einsatz von digitalen Sprachassistenten entstehenden und vorhandenen Daten werden auf die Server der Anbieter übermittelt, dort gesammelt und verarbei­tet. Somit werden zu der eigentlichen Nutzeranfrage auch zusätzliche Metadaten wie Benutzerkennung, Gerätekennung, Kontextinformationen, Standort und Zeitpunkt übertragen. Falls die Suchhistorie aktiviert ist, werden alle vom Anwender gestellten Anfragen auf den Server der Anbieter gespeichert. Zudem werden häufig Berechti­gungen für Kalender- und Kontaktdaten angefordert, die dann ebenfalls auf den Ser­vern der Anbieter gesichert werden. Sollten diese Berechtigungen nicht erteilt wer­den, können digitale Sprachassistenten nur mit einer hohen Einschränkung einge­setzt werden. Die erhobenen Daten dienen neben der Abwicklung von Anfragen auch zur allgemeinen Optimierung der Sprachmodule des jeweiligen Anbieters. So erklärt Google, dass das Unternehmen die gesammelten Daten nicht ausschließlich zur Bereitstellung der Dienste verwendet, sondern auch zur kontinuierlichen Verbes­serung bestehender Dienste oder zur Personalisierung von Werbung einsetzt. Sämt­liche Anbieter liefern dabei eher ungenaue Informationen über den Ort der Daten­speicherung.41 Wenn ein Arbeitgeber einen digitalen Sprachassistenten für berufli­che Ziele einführen möchte, ist es somit notwendig, die Einhaltung von Datenschutz­bestimmungen zu beachten.42 Ergänzend nimmt auch die Informationssicherheit im Umgang mit digitalen Sprachassistenten eine besondere Rolle ein. Grundlegend sind digitale Sprachassistenten so konzipiert, dass sie Anfragen zügig beantworten. Daher wird häufig keine Authentifizierung des Anwenders verlangt. Infolgedessen ist es für Unbefugte möglich z. B. auf die Kontaktdaten des eigentlichen Anwenders zuzugreifen oder E-Mails im Namen des Anwenders perSprachbefehl zu versenden. Inzwischen bieten die meisten Anbieter deshalb die Erstellung von Stimmprofilen an, um den Zugang für Unbefugte zu erschweren. In diesem Zusammenhang kann sich das umfassende Aufnahmespektrum der Sprachassistenten ebenso nachteilig aus­wirken, da auch Frequenzen außerhalb des hörbaren Bereichs erfasst werden kön­nen. Damit ist es z. B. möglich verschiedene Befehle für einen digitalen Sprachas­sistenten in harmlos erscheinenden Musikstücken unterzubringen, die der Mensch nicht wahrnehmen kann. Auf diese Weise könnte z. B. ein vernetztes Türschloss den Befehl zum Öffnen einer Wohnungstür annehmen. Zudem können lokale Sicher­heitslücken zu unberechtigtem Abhören von Gesprächen führen. Zuvor konnten An­greifer unter anderem eine Sicherheitslücke im Bluetooth-Protokoll nutzen, um un­bemerkt die Kontrolle über Alexa zu erhalten. Mittlerweile ist diese Sicherheitslücke beseitigt worden, es ist jedoch durchaus möglich, auch künftig ähnliche Schwach­stellen vorzufinden.43

2.2 Akzeptanzforschung

Die Akzeptanzforschung hat sich laut Kollmann in den 1970er bis 1980er Jahren etabliert. In diesem Zeitraum wurde vor allem die Erschließung von Kriterien zur An­nahme und Ablehnung von innovativen Produkten fokussiert. Einen Schwerpunkt stellte die Untersuchung der Einführung neuer Technologien im Büroumfeld dar. Kollmann beschreibt die Akzeptanzforschung als eine Fusion von Arbeitswissen­schaft und Betriebswirtschaftslehre, die um kognitive Ansätze und soziologische Er­kenntnisse erweitert wird und somit eine Synthese aus ökonomischen und soziolo­gischen Konzepten bildet.44 Die Akzeptanzforschung beschäftigt sich dabei mit der Erschließung von Gründen und Verhaltensmustern auf der Anwenderseite, um Gründe für Treiber und Hindernisse zur Annahme und auch für die ablehnende Hal­tung gegenüber einem Akzeptanzobjekt zu ermitteln. Damit sollen Barrieren bei der Einführung innovativer Produkte gelöst und Indikatoren für den Markterfolg prognos­tiziertwerden. Zur Ermittlung der Nutzerakzeptanz werden dazu auf unterschiedliche Theorien und Ansätze zurückgegriffen.45 Die Technologieakzeptanz ist ein Teilbe­reich der Akzeptanzforschung und umschließt ebenso unterschiedliche Forschungs­felder. Dabei wird sowohl die individuelle Akzeptanz von Anwendern als auch die gesellschaftliche Akzeptanz gegenüber einer Technologie behandelt. In der Literatur ist ein umfassender Überblick, welches den Anspruch auf Vollständigkeit erhebt, das gesamte Spektrum der Akzeptanzforschung oder der Technologieakzeptanz abzu­decken, nicht zu finden.46 Zur Erklärung der individuellen Nutzerakzeptanz von Technologien, können daher aus wissenschaftlicher Sicht eine Vielzahl an Akzep­tanztheorien, die sich forschungsübergreifend ergänzen und auch überschneiden, herangezogen werden. In diesem Zusammenhang stellt die Diffusionstheorie den ältesten Forschungszweig dar, die als Quelle für darauffolgende Konzepte der Ak­zeptanzforschung gedient hat. Dazu zählen theoretische Konzepte aus dem ameri­kanischen Raum zur Forschung von IT-Systemen und Konzepte der Wirtschaftsin­formatik, die überwiegend dem deutschsprachigen Raum zuzuordnen sind.47

2.2.1 Diffusionstheorie

Die Erkenntnisse der Diffusionstheorie sind auf die Veröffentlichung Diffusions of In­novations von Rogers zurückzuführen. Das darin hervorgebrachte Untersuchungs­ziel beschäftigt sich mit der Ermittlung von Erklärungsansätzen für den Ausbreitungs­verlauf von Produktinnovationen im Markt. Dabei wird der Neuheit eines Produktes eine relative Gewichtung zugeschrieben, da sie nicht durch objektive Produkteigen­schaften, sondern durch die subjektive Produktbewertung der Nachfrager resultiert. Die Zusammensetzung der Adoptions- und Diffusionsforschung wird im Allgemeinen als Diffusionstheorie deklariert.48 Auf der Individualebene betrachtet die Diffusions­theorie ebenso den Mehrwert des Nutzungsentscheidungsprozesses, welches die Adoption einer Innovation beeinflussen kann. Dazu stellt Rogers in seiner Ausarbei­tung ein Fünf-Phasen-Modell auf, das auf der Individualebene einen allgemeingülti­gen Entscheidungsprozess zur Nutzung einer Innovationen darstellt. In der ersten Phase erfolgt zunächst die Kenntnisnahme über eine Innovation. Dabei erlangt der Anwender das Wissen darüber, wie eine Innovation funktioniert und nimmt sie ent­weder aktiv oder passiv wahr.49 In der darauffolgenden Phase wird die Bildung der Einstellung gegenüber einer Innovation fokussiert. Innerhalb dieser Phase werden die Determinanten relativer Vorteil, Kompatibilität, Komplexität, Ausprobierbarkeit sowie Beobachtbarkeit aufgeführt, die einen Einfluss auf die Bewertung einer Inno­vation ausüben. Mit dem relativen Vorteil wird der Gedanke hervorgehoben, dass die jeweilige Innovation aufgrund ökonomischer und sozialer Aspekte einen besse­ren Nutzen als bisher genutzte Konzepte bietet. Die Kompatibilität steht für den Ab­gleich der individuellen Erwartungshaltung und der Wahrnehmung einer Innovation. Mittels der Komplexität wird die Schwierigkeit eine Innovation zu verstehen und ein­zusetzen beschrieben. Durch die Ausprobierbarkeit erhält ein potenzieller Anwender die Möglichkeit erste Erfahrungen im Umgang mit der Innovation zu sammeln. In der Phase Beobachtbarkeit wird die Sichtbarkeit einer Innovation nach außen behandelt. Darauf aufbauend wird in der dritten Phase die Entscheidung getroffen, ob eine In­novation akzeptiert oder abgelehnt wird. Innerhalb der Implementierungsphase wird die zuvor erworbene Innovation genutzt. Um eine Innovation fortlaufend zu nutzen, wird in der letzten Phase nach einer Bestätigung für die getroffene Entscheidung gesucht. Dabei besteht auch nach der Bestätigungsphase die Möglichkeit, bei Auftritt von nicht lösbaren Konflikten, die Innovation im Nachgang abzulehnen.50

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Entnommen aus Rogers (2003), S. 170.

Abbildung 4: Entscheidungsprozess zur Übernahme von Innovationen

Innerhalb der Diffusionstheorie ist zusätzlich eine Unterscheidung der grundlegen­den Theorie der Adoptions- und Diffusionsforschung aufzuführen, die zwar miteinan­der verwandt aber zum Verständnis voneinander zu unterscheiden sind. Als Unter­suchungsgegenstand beschäftigen sich beide Forschungsstränge mit Innovationen, betrachten diese jedoch aus unterschiedlichen Blickwinkeln. Die Adoptionsfor­schung beschäftigt sich mit der Bewertung von Faktoren, die den Adoptionsprozess von Individuen beeinflusst. Als Adoption wird die Entscheidung eines Individuums zur Übernahme einer Innovation verstanden, welches den finalen Schritt des Adop­tionsprozesses darstellt. Die Diffusionsforschung bewertet unter Einbezug der ku­mulierten Faktoren, die die Adoption einer Innovation beeinflussen, die zeitliche Ent­wicklung der Übernahme im Gesamtmarkt. Zusätzlich zur Innovation und dem Zeit­aspektwerden an dieser Stelle unterschiedliche Kommunikationskanäle als zentrale Elemente des Adoptionsprozesses gesehen, die es ermöglichen Informationen über eine Innovation, zwischen den Mitgliedern eines sozialen Systems zu verbreiten.51

2.2.2 Einordnung des Akzeptanzbegriffes

Der BegriffAkzeptanz findet seinen Ursprung im lateinischen Begriff acipere wieder und bedeutet so viel wie annehmen, billigen oder erhalten52 und umschreibt nach Lucke in erster Linie „die Chance, für bestimmte Meinungen, Maßnahmen, Vor­schläge und Entscheidungen bei einer identifizierten Personengruppe ausdrückliche oder stillschweigende Zustimmung zu finden und unter angebbaren Bedingungen aussichtsreich auf deren Einverständnis rechnen zu können“.53 Die Akzeptanz nimmt als Instrument zur Messung des Erfolges bzw. des Misserfolges einer tech­nologischen Innovation eine wichtige Rolle ein. Daher führt die Wissenschaft erheb­liche Untersuchungen durch, um zu ermitteln welche Faktoren die Akzeptanz einer technologischen Innovation bei Konsumenten oder von Mitarbeitern eines Unterneh­mens beeinflussen. Jedoch wird dieser Begriff sowohl in der Literatur als auch im alltäglichen Wortschatz interdisziplinär eingesetzt und in Abhängigkeit des Untersu­chungsziels unterschiedlich definiert. Trotz unterschiedlicher Begriffsdefinition ist sich die Akzeptanzforschung weitestgehend darüber einig, dass die Akzeptanz kei­nen binären Beschluss darstellt, dem nur ein Attribut wie Kauf oder Nicht-Kauf zuge­wiesen werden kann.54 Die Akzeptanz stellt ein Ergebnis dar, hinter dem sich ein komplexer Prozess verbirgt. Dabei wird die Akzeptanz vor allem von individuellen Erfahrungs- und Lernprozessen beeinflusst.55 Aus wissenschaftlicher Sicht werden dem Akzeptanzbegriff daher eine Vielzahl von differierenden Definitionen zuge­schrieben.56 Müller-Böling und Müller haben alleine aus der betriebswirtschaftlichen Literatur, zur Verdeutlichung der Vielfältigkeit des Akzeptanzbegriffes, eine Liste von 20 unterschiedlichen Akzeptanzdefinitionen aufgestellt.57 In der Literatur finden sich auch verschiedene Ansichten zur Definition der Nicht-Akzeptanz wieder. Die Nicht­Akzeptanz kann, sowohl aktiv als auch passiv erfolgen. Eine genauere Festlegung dieser Begrifflichkeit hängt vom jeweiligen Untersuchungsziel ab.58 Lucke schlägt ei­nen Definitionsansatz vor, bei der Nicht-Akzeptanz beschrieben wird als „die Wahr­scheinlichkeit, mit Meinungen, Maßnahmen etc. bei einer identifizierbaren Personen­gruppe auf ausdrückliche oder stillschweigende Ablehnung zu stoßen und unter an- gebbaren Bedingungen mit Widerspruch und Widerstand signalisierenden Handlun­gen und dementsprechenden Meinungsäußerungen rechnen zu müssen“.59

Für eine differenziertere Betrachtung des Begriffs der Akzeptanz ist es zunächst not­wendig, zwischen dem Akzeptanzsubjekt, dem Akzeptanzobjekt und dem Akzep­tanzkontext zu unterscheiden.60 Der Prozess des Akzeptierens ist von diesen drei Elementen abhängig.61 Die Instanz Akzeptanzsubjekt stellt dabei die Einheit dar, die einen Gegenstand akzeptiert bzw. ablehnt. Beim Akzeptanzobjekt handelt es sich um den Gegenstand der akzeptiert oder abgelehnt wird. Mit dem Akzeptanzkontext werden weitere Faktoren, wie soziokulturelle oder politische Rahmenbedingungen beschrieben, die sich zusätzlich zum Subjekt und Objekt auf den Akzeptanzprozess auswirken.62 Unter Berücksichtigung individueller und äußerlicher Einwirkungen stellt Akzeptanz auf der Subjektseite die aktive Wahrnehmung und Verarbeitung des Akzeptanzobjektes dar. In diesem Sinne wird ein rational handelndes Individuum vo­rausgesetzt, welches sich am Handlungskontext orientiert.63 Akzeptanzsubjekte können sowohl einzelne Personen, Gruppen aber auch eine Gesamtgesellschaft darstellen. Des Weiteren sind sie dahingehend zu klassifizieren, ob es sich um An­wender, Betroffene oder Entscheider handelt. Ein Akzeptanzobjekt kann einen tat­sächlichen Gegenstand, eine Einstellung, Person oder auch ein Thema darstellen. Im Rahmen der Technologieakzeptanz kann das Akzeptanzobjekt in drei Kategorien unterteilt werden. Die Kategorie Haushalts-, Freizeit und Produkttechnik bezieht sich auf die Nutzung von Technologien im Alltag. Das Akzeptanzsubjekt wird hier als Pri­vatperson gesehen und ist sowohl Anwender einer Technologie als auch Entschei­den ob diese Technologie zum Einsatz kommt, wie bei der Nutzung eines Laptops oder Smartphones. Die Kategorie Technik am Arbeitsplatz bezieht sich auf Techno­logien, mit denen Menschen auf der Arbeit in Berührung kommen. Dazu zählen so­wohl Bürotechniken, als auch Maschinen in der Industrie, die unternehmerische Pro­zesse unterstützten. Die dritte Kategorie externe Technik steht in Verbindung mit dem Akzeptanzbereich Akzeptanz als Nachbar. In diesem Szenario sind Anwohner ungewollt Betroffene einer Technologie, bei der sie z. B. nicht über den Standort einer Mobilfunkantenne entscheiden können.64

2.2.3 Akzeptanzmodelle

Um die Vielfältigkeit von möglichen Definitionen des Akzeptanzbegriffs nachvollzie­hen und voneinander abgrenzen zu können, ist es notwendig zwischen den einzel­nen Ausprägungen der Akzeptanz zu differenzieren.65 Zur näheren Beschreibung des Akzeptanzbegriffs wird im Kontext der Einführung IT-gestützter Innovationen, daher meist auf das Akzeptanzverständnis von Rengelshausen und Kollmann ver­wiesen.66 Rengelshausen unterscheidet zwischen einer einstellungsbezogenen und der verhaltensbezogenen Ebene der Akzeptanz. Nach dieser Definition liegtAkzep- tanz nur dann vor, wenn zur selben Zeit sowohl die Einstellungsakzeptanz als auch die Verhaltensakzeptanz vorliegt. Dazu muss zunächst eine positive Einstellung ge­genüber der Technologie herrschen, die zur Nutzungsbereitschaft führt. Zusätzlich muss im Rahmen der handlungsorientierten Akzeptanz eine aufgabenbezogene An­wendung der Technologie stattfinden.67 Die Einstellungsakzeptanz wird in Anleh­nung an das sogenannte Drei-Komponenten-Modell mittels einer affektiven, kogniti­ven und konativen Komponente dargestellt.68 Innerhalb der affektiven Komponente wird der emotionale Zustand eines Konsumenten gegenüber dem Akzeptanzobjekt festgelegt. Mittels der kognitiven Komponente wird das Wissen eines Konsumenten, im Bezug zum Akzeptanzobjekt aufgefasst. Die konative Komponente resultiert zu­nächst durch das Zusammenwirken der beiden vorangehenden Komponenten und nimmt ersten Bezug zur Handlungsebene.69 Somit stellt die Einstellungsakzeptanz ein mehrdimensionales Konstrukt dar, welches sich aus emotionalen, gelernten und verhaltensorientierten Elementen zusammensetzt. Hingegen wird mittels der Verhal­tensakzeptanz die tatsächliche Nutzung dargestellt.70

Auch Kollmann greift in seinen Arbeiten auf diese Ebenen zurück, führt sie jedoch weiter aus. Dabei lässt sich der Akzeptanzprozess in einem dreistufigen Phasenmo­dell abbilden. Dazu wird zwischen der Einstellungs-, Handlungs- und Nutzungs­ebene unterschieden. Durch diese Differenzierung teilt sich die Akzeptanzbetrach­tung einer Innovation, in zeitlicher Reihenfolge, in die Einstellungsphase mit dem Zeitraum vor der Übernahme, in die Handlungsphase mit dem Zeitraum während der Übernahme und die Nutzungsphase nach der Übernahme auf. Jeder dieser Ebenen führt dabei zu einer Zwischenakzeptanz. Zur Bildung der Zwischenakzeptanz wer­den innerhalb dieser Ebenen verschiedene Teilstufen identifiziert. Folglich führt die Zwischenakzeptanz der einzelnen Ebenen aggregiert zur Gesamtakzeptanz. Aller­dings können alle Phasen nur dann durchlaufen werden, wenn auf jeder Ebene ein positives Akzeptanzergebnis gebildet wird. Sobald auf einer Ebene eine negative Zwischenakzeptanz hervorgebracht wird, wird der Akzeptanzprozess unterbrochen und daraus resultiert eine ablehnende Haltung gegenüber einer Innovation.71 Die Einstellungsdimension ist auf Basis der Einstellungstheorie nach Trommsdorff, als eine latente Zusammenstellung emotionaler und kognitiver Merkmale eines Individu­ums zu verstehen, die die Bereitschaft der Akzeptanz gegenüber einer Innovation darstellt.72 Innerhalb der Einstellungsphase kann die Akzeptanzentwicklung des po­tenziellen Anwenders in unterschiedliche Stufen aufgeteilt werden. Dazu zählen die Stufen Bewusstsein, Interesse und Erwartungshaltung. Bei der ersten Teilstufe Be­wusstsein, werden vom Anwender erste Informationen über das Akzeptanzobjekt wahrgenommen und verarbeitet ohne sich explizit um eine Informationssuche be­müht zu haben. Beim anschließenden Interesse tritt eine affektive Komponente hinzu. Dabei rücken mögliche Einsatzmöglichkeiten des Akzeptanzobjektes in das Bewusstsein des Anwenders ein und führen gegebenenfalls dazu, dass der Anwen­der eine eigenständige Informationssuche durchführt. Im Anschluss werden Chance und Risiken der Neuerung gegenübergestellt. Dabei stellt der Anwender individuelle Ansprüche gegenüber der Technologie auf und nimmt eine Bewertung vor.73 In De­finitionen, die der Akzeptanz ausschließlich die Einstellungsebene zuweisen, be­schreibt Akzeptanz die positive Annahme eines Akzeptanzobjektes. Dabei können bestimmte Intentionen einfließen, jedoch nicht das Handeln selbst. Dies erfolgt in­nerhalb der Handlungsebene, wobei eine Handlung möglich aber nicht zwingend ist, da die individuelle Einstellung z. B. auch durch Enthaltung eine Zustimmung impli­zieren kann.74

Die folgende Visualisierung, die die Einstellungs- und Handlungsebene in einer zwei­dimensionalen Skala darstellt, fasst das Verhältnis beider Ebenen zusammen:

Abbildung in dieser Leseprobe nicht enthalten

Quelle: InAnlehnung an Schäfer, Keppler (2013), S. 13.

Abbildung 5: Zweidimensionale Skala der Einstellungs- und Handlungsebene

Auch zur Bildung der Handlungsakzeptanz durchläuft der Anwender unterschiedli­che Teilstufen. Innerhalb der Teilstufe Versuch bzw. Erfahrung wird die technologi­sche Innovation vom potenziellen Anwender getestet. Die daraus gewonnenen In­formationen beeinflussen die Erwartungshaltung des Anwenders, daraus resultiert eine abschließende Bewertung der Nutzungsinnovation. Die nächste Teilstufe be­zieht sich dann auf die Übernahme bzw. den Kauf der Innovation. Eine Übernahme findet nur dann statt, wenn die subjektive Erwartungshaltung des Anwenders erfüllt wird. In der Regel ist die Handlungsphase mit einer Übernahme der Nutzungsinno­vation abgeschlossen. Oftmals ist jedoch nach der Übernahmeentscheidung ein wei­terer Teilschritt notwendig. Dieser Schritt ist die Implementierung, die den Einsatz der Nutzungsinnovation erst ermöglicht. Somit kann der Implementierungsschritt als eine Verlängerung der Handlungsebene interpretiert werden.75 An dieser Stelle ist jedoch zu erwähnen, dass die jeweilige Handlungsweise des Anwenders nur bedingt Aufschluss über die subjektive Einstellung zur Nutzungsinnovation gibt. Zum einen können im privaten als auch im beruflichen Kontext die Nutzung einer Technologie erzwungen werden. Anderseits lässt sich eine Nichtnutzung des Akzeptanzobjektes, nicht ausschließlich mit einer negativen Einstellung begründen, da dem Akzeptanz­subjekt unter anderem das Know-how zur Nutzung der Technologie fehlen kann.76 Nach der Bildung der Handlungsakzeptanz folgt die Nutzungsphase. Innerhalb des Akzeptanzprozesses dient diese Ebene zur Ermittlung von konkreten Anwendungs­feldern, in der die Nutzungsinnovation eingesetzt wird. Die Nutzungsphase teilt sich dabei in die Teilstufen Einsatzbestimmung und Nutzung auf. Im Anschluss auf die Implementierung wird hierbei ein Anwendungsfeld spezifiziert, zu deren Problemlö­sung die Technologie angeschafft wurde. Damit werden die Rahmenbedingungen des Einsatzes festgelegt, woraufhin die einsatzfähige Technologie genutzt wird.77 Nach Kollmann hängt der Markterfolg einer innovativen Technologie im Wesentli­chen von der kontinuierlichen Nutzung ab. Dabei kann die Vernachlässigung der Nutzungsphase, bezüglich der Diffusion einer Technologie zu immensen Fehlein­schätzungen führen. In diesem Zusammenhang stellt die sogenannte Nutzungslücke ein fortlaufendes Problem dar, da die Entscheidung der Nicht-Nutzung eines Pro­duktes beim Anwender sowohl am Anfang, aber auch künftig zu jeder anderen Zeit erfolgen kann. Eine Nutzungslücke entsteht, wenn potenzielle Anwender das jewei­lige System nutzen können, jedoch nur eine geringe Anzahl an Personen auf diese Möglichkeit zurückgreifen. Damit wird deutlich, dass nicht nur der Verkauf oder die erfolgreiche Implementierung eines neuen Systems zur Übernahme führt, sondern dass auch eine kontinuierliche Nutzung notwendig ist.78

Abbildung in dieser Leseprobe nicht enthalten

Quelle: In Anlehnung an Kollmann (2000), S. 36.

Abbildung 6: Akzeptanzprozess nach Kollmann

2.3 Modelle zur Erklärung der Technologieakzeptanz

Im Kontext der Technologieakzeptanz versucht die Akzeptanzforschung psychologi­sche und soziologische Determinanten der Nutzerakzeptanz auf der individuellen Ebene zu verstehen und mit verschiedenen Modellen darzustellen. Während die Dif­fusionstheorie eine Grundstruktur für die Beschreibung der Diffusion einer innovati­ven Technologie innerhalb eines sozialen Systems im Zeitablauf liefert und die Grundlage für Erkenntnisse über die Charakteristika verschiedener Nutzergruppen bildet, bietet sie wenig Informationen über den jeweiligen Entscheidungsprozess von Individuen bezüglich der Übernahme einer Technologie. Aus diesem Grund sind Mo­delle der Akzeptanzforschung, die emotionale, kognitive und soziale Faktoren im menschlichen Entscheidungsprozess berücksichtigen, besser geeignet, ein tiefes Verständnis der individuellen Einstellungen zu einer Technologie zu gewinnen, um den Adoptionsprozess effektiv zu unterstützen. Zu diesem Zweck gibt es in der Lite­ratur verschiedene Modelle der Technologieakzeptanz, die sich mit der Beschrei­bung der menschlichen Akzeptanzfaktoren bei der Entscheidung für oder gegen den Nutzen einer Technologie befassen.79

2.3.1 Verhaltenstheorien

Ajzen und Fishbein haben das Modell Theory of Reasoned Action (kurz: TRA) ent­wickelt.80 Die Theorie dazu leitet sich aus dem sozialpsychologischen Forschungs­feld zur Untersuchung von Einstellungen und Verhalten von Personen ab und ver­folgt das Ziel deren Handlungen zu erklären und vorherzusagen. Dabei geht hervor, dass die Verhaltensabsicht einzelner Menschen auf die Annahme zurückzuführen ist, wie sie annehmen, dass andere in einer bestimmten Situation handeln würden. Das Modell wird durch das Verhältnis der Einheiten individuelle Einstellung, subjek­tive Norm und die Verhaltensabsicht aufgestellt.81 Die Einstellung wird durch persön­liche Ansichten und Emotionen gegenüber einer Handlung bestimmt, unter der Be­rücksichtigung möglicher Auswirkungen. Den Druck, den eine Person aus dem so­zialen Umfeld auf die erwartete Ausführung oder Nichtausführung einer Handlung wahrnimmt, wird als subjektive Norm bezeichnet. Ausgehend von der Einstellung und der subjektiven Norm wird eine Bewertung möglicher Folgen vorgenommen, die zur Verhaltensabsicht führt.82 Laut der TRA führen Menschen ein Verhalten dann tatsächlich aus, wenn sie es selbst positiv bewerten und denken, dass Personen, die ihnen wichtig sind dasselbe tun.83

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Entnommen aus Ajzen, Fishbein (1980), S. 100.

Abbildung 7: TRA-Modell

Im Jahr 1985 wurde das TRA-Modell von Ajzen erweitert. Dies hat zur Aufstellung des Modells Theory of Planned Behavior (kurz: TPB) geführt.84 Die Verhaltensab­sicht wurde im vorangehenden Modell durch die Einstellung und subjektive Norm dargestellt. Innerhalb des TPB-Modells wird dieser Ansatz um einen dritten Faktor, der wahrgenommenen Verhaltenskontrolle erweitert.85 Dieser Faktor umfasst die Wahrnehmung eines Individuums, inwiefern es sich mit eigenen Mitteln dazu in der Lage sieht ein Verhalten wie gewünscht auszuführen.86 Anders als die individuelle Einstellung und die subjektive Norm wird mit diesem Konstrukt zusätzlich zur Ver­haltensabsicht auch das tatsächliche Verhalten direkt beeinflusst.87 Diesem Modell wird zugeschrieben Intentionen und Verhalten besser als sein Vorgänger auswerten zu können.88

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Entnommen aus Ajzen (1991), S. 182.

Abbildung 8: TPB-Modell

2.3.2 Technology Acceptance Model

Auf der Grundlage des TRA-Modells entwickelte Davis 1985 das Technology Accep­tance Model (kurz: TAM).89 Es wird weithin eingesetzt, um die Verhaltensabsicht des Menschen in Bezug auf neue Informationssysteme zu erforschen.90 In der Literatur wird beschrieben, dass die TRA allgemein gehalten ist, wodurch es praktisch auf jedes menschliche Verhalten anwendbar ist. Das TAM-Modell hingegen greift zwar auf die Theorie der TRA zurück, ist aber durch die Integration weiterer Forschungen aus dem IT-Sektor spezifischer und damit geeigneter, das menschliche Verhalten in Bezug auf digitale Technologien zu bewerten.91 Genau wie die TRA geht auch das TAM-Modell davon aus, dass die tatsächliche Nutzung einer Technologie durch die Verhaltensabsicht bestimmt wird. Sie unterscheidet sich jedoch dadurch, dass die Verhaltensabsicht durch die Determinanten wahrgenommener Nutzen und wahrge­nommene Benutzerfreundlichkeit bestimmt wird.92 Der wahrgenommene Nutzen be­schreibt den Umfang, in dem der Einzelne seine Leistung durch den Einsatz neuer Technologien verbessert sieht. Die wahrgenommene Benutzerfreundlichkeit be­schreibt den mangelnden Aufwand, den ein Anwender beim Erlernen und im Um­gang mit einer neuen Technologie empfindet.93 Laut dem TAM-Modell wird der wahr­genommene Nutzen durch die wahrgenommene Benutzerfreundlichkeit beeinflusst, denn je einfacher das System zu benutzen ist, desto nützlicher kann es sein. Im TAM-Modell wird ebenso argumentiert, dass der Einfluss externer Variablen, wie Systemeigenschaften oder Schulungsprozesse, sich über diese beiden Determinan­ten auf die Verhaltensabsicht auswirken.94 Jedoch wird in diesem Modell, die sub­jektive Norm ausgeschlossen.95

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Entnommen aus Venkatesh, Davis (1996), S. 453.

Abbildung 9: TAM-Modell

Das TAM-Modell wurde bereits vielfach in Untersuchungen als Konzeptmodell ver­wendet, um die Verhaltensabsichten von potenziellen Anwendern einer Technologie zu untersuchen.96 Kritiker des Modells weisen jedoch darauf hin, dass die ausge­wählten Einflussfaktoren nicht genügen, um einen Akzeptanzprozess adäquat abzu­bilden. Im Jahr 2000 haben Venkatesh und Davis ausgehend von der Kritik, das TAM-Modell 2 aufgestellt. Das Vorgängermodell wurde um soziale und kognitiv-in- strumentelle Elemente erweitert. Der soziale Einfluss wird dabei mittels der subjek­tiven Norm abgebildet, die auf eine freiwillige Nutzung und auf das Image des Infor­mationssystems zurückzuführen ist. Zu den kognitiv-instrumentellen Prozessele­menten zählen die Einheiten Arbeitsplatzrelevanz, Ergebnisqualität und Nachweis­barkeit der Ergebnisse.97 Dieses Modell weist darauf hin, dass sich die Einstellung eines Individuums gegenüber einer Technologie über die Zeit verändern kann. Er­fahrungen, die ein Individuum macht, können mit der subjektiven Norm und dessen Einfluss auf das Image, den wahrgenommenen Nutzen und indirekt die Verhaltens­absicht beeinflussen. Mit dem Image wird der Grad definiert, in dem die Nutzung einer Innovation als eine Erhöhung des sozialen Status wahrgenommen wird. So wie die sozialen Prozesselemente beeinflussen auch die kognitiv-instrumentalen Ele­mente den wahrgenommenen Nutzen und damit auch die Verhaltensabsicht.98

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Entnommen aus Venkatesh, Davis (2000), S. 188.

Abbildung 10: TAM-Modell 2

2.3.3 Unified Theory of Acceptance and Use of Technology

ln dem Bemühen, die Nachteile bisheriger Modelle zu überwinden und um ein um­fassendes Verständnis für die Nutzerakzeptanz von neuen Technologien zu schaf- fen, schlugen Venkatesh et al. 2003 ein einheitliches Modell vor, das den Titel Uni­fied Theory of Acceptance and Use of Technology (kurz: UTAUT) trägt." Dieses Modell wurde durch den empirischen Vergleich verschiedener Akzeptanzmodelle aufgestellt. Es basiert auf den vier Kerndeterminanten Leistungserwartung, Auf­wandserwartung, sozialer Einfluss und erleichternde Faktoren, sowie den vier Kon- trollvariablen Geschlecht, Alter, Erfahrung und freiwillige Nutzung.99 100 Mittels der Kon- trollvariablen wird es ermöglicht die Verhaltensunterschiede verschiedener Nutzer­gruppen zu erklären.101 Die Verhaltensabsicht wird durch die Leistungserwartung, die Aufwandserwartung und den sozialen Einfluss bestimmt. Mit der Leistungserwar­tung wird definiert, inwieweit ein Individuum durch die Nutzung eines Systems eine Steigerung der Leistungsfähigkeit bei der Arbeit erreicht, dies zeigt parallelen zum Konstrukt wahrgenommener Nutzen aus dem TAM-Modell auf. Ebenso entspricht der erwartete Aufwand der wahrgenommenen Benutzerfreundlichkeit aus dem TAM. Die sozialen Einflüsse werden wiederum aus dem TPB abgeleitet. Dem Modell zu­folge wird die tatsächliche Nutzung durch die Verhaltensabsicht und unterstützende Rahmenbedingungen erklärt. Als unterstützende Rahmenbedingung gilt, inwieweit ein Individuum davon ausgeht, dass ein System übereine organisatorische und tech­nische Infrastruktur verfügt, die den Einsatz der Technologie unterstützt.102

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Entnommen aus Venkatesh et al. (2003), S. 447. Abbildung 11: UTAUT-Modell

[...]


1 Vgl. Wess (2019), S. 156 f.

2 Vgl. Feng etal. (2017), S. 343.

3 Vgl. Schenk (2019), S. 58 f.

4 Vgl. Budzinski etal. (2018), S. 2.

5 Vgl. Hörner (2019), S. 9.

6 Vgl. Kollmann (2000), S. 28.

7 Vgl. Jockisch (2010), S.236.

8 Vgl. Silberer, Wohlfahrt (2001), S. 164.

9 Vgl. Leukert et al. (2019), S. 56 f.

10 Vgl. Allam et al. (2019), S. 154.

11 Vgl. Money, Turner (2004), S. 1.

12 Vgl. Schmitt-Rüth, Simon (2020), S. 1.

13 Vgl. Kollhorst (2019), S. 187.

14 Vgl. Parviainen, S0ndergaard (2020), S. 2.

15 Vgl. Hörner (2019), S. 7 f.

16 Vgl. Karla etal. (2019), S. 29 f.

17 Vgl. Kruse Brandäo, Wolfram (2018), S. 262 ff.

18 Vgl. Kruse Brandäo, Wolfram (2018), S. 264.

19 Vgl. Schaber et al. (2019), S. 9 f.

20 Vgl. Hörner (2019), S. 10 ff.

21 Vgl. Wege et al. (2018), S. 16 f.

22 Vgl. Sinha (2010), S. 144 ff.

23 Vgl. Kreutzer, Vousoghi (2020), S. 1.

24 Vgl. Gentsch (2019), S. 31 f.

25 Vgl. Löpez-Cözar et al. (2011), S. 229 f.

26 Vgl. Kreutzer, Sirrenberg (2019), S. 28 f.

27 Vgl. Wittpahl (2019), S. 8 f.

28 Vgl. Karla et al. (2019), S. 30 f.

29 Vgl. Müller-Quade etal. (2019), S. 5.

30 Vgl. Awad, Khanna (2015), S. 1.

31 Vgl. Welsch et al. (2019), S. 7.

32 Vgl. Lanquillon (2019), S. 96 f.

33 Vgl. Buxmann, Schmidt (2019), S. 10 f.

34 Vgl. Wege et al. (2018), S. 13.

35 Vgl. Wagner (2020), S. 29 f.

36 Vgl. Trippas et al. (2019), S. 5 ff.

37 Vgl. Gentsch (2019), S. 108 f.

38 Vgl. Schaber et al. (2019), S. 15.

39 Vgl. Schaber et al. (2019), S. 21 f.

40 Vgl. Jaksch (2020), S. 151 ff.

41 Vgl. Schaber et al. (2019), S. 23 ff.

42 Vgl. Jaksch (2020), S. 159.

43 Vgl. Schaber et al. (2019), S. 35 ff.

44 Vgl. Kollmann (1998), S. 54 ff.

45 Vgl. Scheuer (2020), S. 25.

46 Vgl. Schäfer, Keppler (2013), S. 7.

47 Vgl. Königstorfer (2008), S. 19 f.

48 Vgl. Weiber (1992), S. 1 ff.

49 Vgl. Königstorfer (2008), S: 21.

50 Vgl. Klosa (2016), S. 76 ff.

51 Vgl. Staufer(2015), S.82ff.

52 Vgl. Lucke, Hasse (1998), S. 17.

53 Lucke (1995), S. 104.

54 Vgl. Königstorfer (2008), S. 10.

55 Vgl. Lang (2017), S. 27.

56 Vgl. Niklas (2015), S. 15.

57 Vgl. Müller-Böling, Müller (1986), S. 20 f.

58 Vgl. Wisser (2018), S. 51 f.

59 Lucke (1995), S. 105.

60 Vgl. Schäfer, Keppler (2013), S. 16.

61 Vgl. Lang (2017), S. 25 f.

62 Vgl. Kudlacek (2015), S. 38.

63 Vgl. Lang (2017), S. 28.

64 Vgl. Wisser(2018), S. 46 ff.

65 Vgl. Schäfer, Keppler (2013), S.11.

66 Vgl. Niklas (2015), S. 15.

67 Vgl. Rengelshausen (2000), S. 72.

68 Vgl. Silberer, Wohlfahrt (2001) S. 164.

69 Vgl. Hoffmann, Akbar (2019), S. 91.

70 Vgl. Müller-Böling, Müller (1986), S. 25 ff.

71 Vgl. Kollmann (2000), S. 36 ff.

72 Vgl. Trommsdorf (1975), S. 8.

73 Vgl. Kollmann (1998), S. 92 f.

74 Vgl. Schäfer, Keppler (2013), S. 11 ff.

75 Vgl. Kollmann (1998), S. 98 f.

76 Vgl. Rengelshausen (2000), S. 73.

77 Vgl. Kollmann (1998), S. 102 f.

78 Vgl. Kollmann (2000), S. 32 ff.

79 Vgl. Fazel (2014), S. 102 f.

80 Vgl. Graf (2007), S. 34.

81 Vgl. Passos et al. (2013), S. 2 ff.

82 Vgl. Fazel (2014), S. 105.

83 Vgl. Prein (2011), S: 27.

84 Vgl. Altpeter (2017), S. 20.

85 Vgl. Kalch (2019), S. 34.

86 Vgl. Hoffmann, Akbar (2019), S. 93.

87 Vgl. Fazel (2014), S. 108.

88 Vgl. Graf (2007), S. 34f.

89 Vgl. Davis (1985), S. 15.

90 Vgl. Han, Jin (2009), S. 28.

91 Vgl. Davis et al. (1989), S. 982 f.

92 Vgl. Kwon, Chidambaram (2000), S. 1.

93 Vgl. Davis (1989), S. 320.

94 Vgl. Venkatesh, Davis (2000), S. 187.

95 Vgl.Zhuet al. (2009), S. 141.

96 Vgl. Shrestha, Vassileva (2019), S. 204.

97 Vgl. Jockisch (2010), S. 237 f.

98 Vgl. Scheuer (2020), S. 42.

99 Vgl. Venkatesh et al. (2003), S. 425 f.

100 Vgl. Alharbi (2014), S. 132.

101 Vgl. Qingfei et al. (2008), S. 259.

102 Vgl. Altpeter (2017), S. 24 f.

Ende der Leseprobe aus 136 Seiten

Details

Titel
Digitale Sprachassistenten am Arbeitsplatz und ihr Weg zur Nutzerakzeptanz. Hindernisse und Treiber beim Anwender
Hochschule
FOM Essen, Hochschule für Oekonomie & Management gemeinnützige GmbH, Hochschulleitung Essen früher Fachhochschule
Note
1,3
Autor
Jahr
2020
Seiten
136
Katalognummer
V1041566
ISBN (eBook)
9783346462664
ISBN (Buch)
9783346462671
Sprache
Deutsch
Schlagworte
Akzeptanz, sprachassistent, digitale sprachassistenten, digitaler sprachassistent, empirische studie, IT-Management, Akzeptanzforschung, Diffusionstheorie, Akzeptanzmodelle, Technologieakzeptanz, Verhaltenstheorien, Technology Acceptance Model, tam, Unified Theory of Acceptance and Use of Technology, UTAUT, Task-Technology Fit, TTF, Fragebogen, Reliabilitätsanalyse, Faktorenanalyse, Regressionsanalyse, Automatic Speech Recognition, ASR, KI, Künstliche Intellgenz, Machine Learning, Natural Language Processing, NLP, ML, Spracherkennung, Online-Umfrage, KMO-Test, Bartlett-Test, Bixby, Siri, Alexa, Facebook, apple, Microsoft, samsung, Android, IOS, Cortana, Google, Cloud, Dialogmanager, Text to Speech, speech to speech, speech to text
Arbeit zitieren
Onur Güldali (Autor:in), 2020, Digitale Sprachassistenten am Arbeitsplatz und ihr Weg zur Nutzerakzeptanz. Hindernisse und Treiber beim Anwender, München, GRIN Verlag, https://www.grin.com/document/1041566

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Digitale Sprachassistenten am Arbeitsplatz und ihr Weg zur Nutzerakzeptanz. Hindernisse und Treiber beim Anwender



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden