Diese Thesis untersucht, welche Faktoren einen Einfluss auf die Akzeptanz von Business Intelligence (BI)-Lösungen haben. Das Tiefbauamt des Kantons Zürich (TBA) hat vor kurzem eine BI-Lösung eingeführt, welche von den Nutzerinnen und Nutzern unterschiedlich akzeptiert und genutzt wird. Bei der rasanten Entwicklung und Einführung neuer Innovationen kann man fast vergessen, dass Software für Menschen entwickelt und von Menschen genutzt wird.
Zur Erklärung der Akzeptanz von Innovationen bestehen in der Literatur diverse bewährte Technologieakzeptanzmodelle. Anhand qualitativer Experteninterviews auf Basis der UTAUT (unified theory of acceptance and use of technology) wird die Akzeptanz der Power BI-Lösung im TBA untersucht. Die erhobenen Daten werden mittels qualitativer Inhaltsanalyse analysiert und ausgewertet..
Inhaltsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
Anlagenverzeichnis
1 Einleitung
1.1 Problemstellung und Relevanz
1.2 Forschungsfragen und Zielsetzung
1.3 Abgrenzung
1.4 Aufbau der Arbeit
2 Theoretische Grundlagen
2.1 Businesss Intelligence
2.1.1 Definition und Bedeutung
2.1.2 Architektur und Bausteine einer BI-Lösung
2.1.3 BI-Anwendungen
2.1.4 BI-Strategie und Business Intelligence Competence Center
2.1.5 Reifegradmodelle zur Standortbestimmung von BI-Lösungen
2.1.6 Aktuelle Themen
2.1.7 Magischer Quadrant für BI Plattformen von Gartner
2.2 Technologieakzeptanz
2.2.1 Definition und Bedeutung
2.2.2 Akzeptanzforschung
2.2.3 Kritik an der Akzeptanzforschung
2.3 Technologieakzeptanzmodelle
2.3.1 Theory of Reasoned Action (TRA)
2.3.2 Technology Acceptance Model (TAM)
2.3.3 Unified Theory of Acceptanced and Use of Technology (UTAUT)
2.3.4 Limitation der Technologieakzeptanzmodelle
2.4 Präzisierung der Problemstellung und Ableitung der Forschungsfragen
3 Forschungsmethodik
3.1 Anwendung von Akzeptanzmodellen am Beispiel des Tiefbauamt des Kantons Zürich
3.1.1 Tiefbauamt Kanton Zürich (TBA)
Strasseninspektorat
Projektieren und Realisieren
GE VII - Nationalstrassenunterhalt
Stab
3.2 Einführung Power BI-Lösung im TBA
3.3 Qualitative Experteninterviews
3.4 Auswahl der Experten
3.5 Konzeption des Interviewleitfadens
3.6 Interviewleitfaden
3.6.1 Informationsphase
3.6.2 Aufwärmphase
3.6.3 Hauptphase
3.6.4 Abschlussphase
3.7 Vorgehensweise bei Datenerhebung
3.8 Kritische Betrachtung
3.9 Durchführung der qualitativen Experteninterviews
3.10 Datenanalyse mittels qualitativer Inhaltsanalyse
4 Empirische Erkenntnisse
4.1 Erkenntnisse aus den qualitativen Experteninterviews
4.1.1 Nutzung / Fortschritt der Power BI-Lösung im TBA
4.1.2 Leistungserwartung
4.1.3 Benutzerfreundlichkeit
4.1.4 Sozialer Einfluss
4.1.5 Unterstützende Bedingungen
4.1.6 Alter
4.1.7 Geschlecht
4.1.8 Erfahrung
4.1.9 Freiwilligkeit der Nutzung
4.1.10 Homeoffice/Digitalisierung
5 Diskussion
5.1 Bewährte Technologieakzeptanz-Modelle
5.2 Gestaltung von Erhebungsinstrumenten zur Identifikation der Akzeptanz
5.3 Stärken und Schwächen der Modelle für den Einsatz im TBA
5.4 Einführung der Power BI-Lösung im TBA
5.5 Handlungsempfehlungen
5.6 Kritische Reflexion des Vorgehens
5.7 Ausblick und Fazit
Anlagen
A Experteninterviews
A.1 Experteninterview mit B1
Aufwärmphase
Hauptphase
A.2 Experteninterview mit B2
Aufwärmphase
Hauptphase
A.3 Experteninterview mit B3
Aufwärmphase
Hauptphase
A.4 Experteninterview mit B4
Aufwärmphase
Hauptphase
A.5 Experteninterview mit B5
Aufwärmphase
Hauptphase
Abstract
Das Tiefbauamt des Kantons Zürich (TBA) hat vor kurzem eine Business Intelligence (BI)-Lösung eingeführt, welche von den Nutzerinnen und Nutzern unterschiedlich akzeptiert und genutzt wird. Bei der rasanten Entwicklung und Einführung neuer Innovationen geht fast vergessen, dass Software für Menschen entwickelt und von Menschen genutzt wird. Diese Thesis untersucht, welche Faktoren einen Einfluss auf die Akzeptanz von BI-Lösungen haben. Zur Erklärung der Akzeptanz von Innovationen bestehen in der Literatur diverse bewährte Technologieakzeptanzmodelle. Anhand qualitativer Experteninterviews auf Basis der UTAUT (unified theory of acceptance and use of technology) wurde die Akzeptanz der Power BI-Lösung im TBA untersucht. Die erhobenen Daten wurden mittels qualitativer Inhaltsanalyse analysiert und ausgewertet. Die vier wesentlichen Faktoren der UTAUT, die Leistungserwartung, die Aufwandserwartung, den sozialen Einfluss sowie weitere, unterstützende Bedingungen konnten in dieser Untersuchung bestätigt werden. Bei der Freiwilligkeit der Nutzung kann ein signifikanter Einfluss auf die vier primären Faktoren der UTAUT festgestellt werden. Die Faktoren Alter, und Erfahrung wirken sich nur geringfügig auf die Akzeptanz aus, der Faktor Geschlecht zeigt gar keine Auswirkungen. Daraus folgt die Erkenntnis, dass die digitale Transformation die öffentliche Verwaltung erreicht hat und somit der Weg für weitere digitale Innovationen offensteht.
Schlagworte:
UTAUT, Akzeptanz, BI, Business Intelligence, öffentliche Verwaltung
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
Abbildungsverzeichnis
Abbildung 1: Aufbau und Vorgehen der Bachelor-Thesis
Abbildung 2: Bausteine einer BI-Lösung
Abbildung 3: Perspektiven einer BI-Strategie
Abbildung 4: Magischer Quadrant für BI Plattformen von Gartner
Abbildung 5: Theory of Reasoned Action (TRA)
Abbildung 6: Technology Acceptance Model (TAM)
Abbildung 7: UTAUT Research Model
Abbildung 8: Organigramm TBA
Abbildung 9: Navigation Power BI Reports Server
Abbildung 10: Projektportfolioreport
Abbildung 11: Projektportfolioreport Register Termine
Abbildung 12: Projektblatt
Abbildung 13: Strukturbaum Interviewkonzeption
Abbildung 14: Ablaufschema einer inhaltlich strukturierenden Inhaltsanalyse
Tabellenverzeichnis
Tabelle 1: Forschungsfragen
Tabelle 2: Verkehrsinfrastruktur und Verkehrstechnik TBA
Tabelle 3: Formaler Teil Interviewleitfaden
Tabelle 4: Sampling
Tabelle 5: Handlungsempfehlungen
Anlagenverzeichnis
Anlage A.1: Experteninterview mit B1
Anlage A.2: Experteninterview mit B2
Anlage A.3: Experteninterview mit B3
Anlage A.4: Experteninterview mit B4
Anlage A.5: Experteninterview mit B5
1 Einleitung
Schon der britische Schriftsteller Sir Arthur Conan Doyle wusste: „Gute Informationen sind schwer zu bekommen. Noch schwerer ist es, mit ihnen etwas anzufangen.“1
Im Zeitalter der Digitalisierung sind Daten erfolgskritisch für Unternehmen. Unternehmen transformieren sich immer mehr zu datengetriebenen Organisationen und setzen dazu vermehrt auf den Einsatz von Business Intelligence (BI)-Lösungen. Durch BI erhalten Organisationen die Möglichkeit, datenbasierte Entscheidungen zu treffen.2 Dass BI-Lösungen jedoch für Menschen entwickelt und eingeführt werden, geht beim Eifer zur Digitalisierung oftmals fast vergessen. Im Rahmen dieser Arbeit wird untersucht, welche Faktoren Einfluss auf die Akzeptanz einer neu eingeführten BI-Lösung im Tiefbauamt des Kantons Zürich haben. Die Akzeptanzforschung bietet dazu bewährte Akzeptanz- und Nutzungsmodelle, welche als theoretische Grundlage herangezogen werden können.
1.1 Problemstellung und Relevanz
Die technischen Neuerungen in der Softwareentwicklung folgen Schlag auf Schlag und in immer kürzeren Abständen. Dass Softwaresysteme letzten Endes für Menschen entwickelt werden, geht dabei oftmals vergessen. Je mehr Funktionen neue Technologien bieten, umso eher muss der User zur Nutzung dieser eine Bedienungsanleitung konsultieren, was die Akzeptanz gegenüber der neuen Technologie nicht gerade fördert oder wie es die Bundeskanzlerin Angela Merkel auf der CeBIT 2006 beschrieben hat: „Wir brauchen einfache und bequeme Sachen, die dem gesunden Menschenversand einleuchten. Denken Sie (Ingenieure) es nicht so sehr von der Technik, sondern denken Sie es immer von dem, der dann voller Hoffnung in den Laden geht und zu Hause plötzlich mutterseelenallein mit der Gebrauchsanweisung steht.“3 Um eine höhere Akzeptanz von neuer Software bei den Usern zu erzielen, ist es generell wichtig, dass bereits beim Anforderungsmanagement auf den Beizug von Fachvertretern geachtet wird. Die Grundidee ist, die Fachvertreter von Betroffen zu Beteiligten zu machen und ihnen somit ihren Expertenstatus zu belassen, welchen sie bei Befragungen zu betriebsinternem Spezialwissen in gewissem Masse abgegeben hätten und wichtige Informationen vermutlich nicht im selben Umfang preisgegeben hätten.4 Damit eine Software bei der Einführung eine gute Akzeptanz durch ihre Nutzer erfährt, ist es wichtig, dass insbesondere bei größeren Projekten ständig und parallel zu sämtlichen anderen Aktivitäten adäquate Akzeptanzmaßnahmen laufen. In diesem Zusammenhang ist es unabdingbar, in allen Phasen der Einführung Kennzahlen über die Akzeptanz der Software zu erfassen und sofern erforderlich weitere akzeptanzschaffende Maßnahmen einzuführen.5 Doch wie wird die Akzeptanz der Nutzer einer neuen Software gegenüber ermittelt und welche Faktoren haben einen Einfluss auf diese? Die Akzeptanzforschung im Bereich der Informationstechnologie verfügt bereits über verschiedene Akzeptanzmodelle mit unterschiedlichen Determinanten, welche für die Untersuchung der Akzeptanz von neuen Technologiesystemen herangezogen werden können und in dieser Arbeit vorgestellt werden.
1.2 Forschungsfragen und Zielsetzung
Die Zielsetzung dieser Arbeit ist es, zu erforschen, welche Faktoren sich auf die Akzeptanz und die tatsächliche Nutzung von neuer Informationstechnologie (insbesondere von BI-Lösungen) auswirken. Als Nebenziele gelten die Identifikation und Wahl geeigneter Modelle, um die relevanten Faktoren für die Akzeptanz von neuer Technologie am Beispiel der Einführung der Software „Power BI“ im Tiefbauamt des Kantons Zürich (TBA) zu definieren. In qualitativen Experteninterviews werden Entscheidungsträger und Anwender der neuen Power BI-Lösung auf die relevanten Akzeptanzfaktoren hin befragt. Dabei sollen möglichst alle relevanten Aspekte erforscht werden. Neben empirischen Ergebnissen werden aus den Ergebnissen auch Handlungsempfehlungen zuhanden des Managements ausgearbeitet. Die Forschungsleitfragen dieser Arbeit lauten demzufolge:
Abbildung in dieser Leseprobe nicht enthalten
Tabelle 1: Forschungsfragen (Quelle: Eigene Darstellung)
1.3 Abgrenzung
Die vorliegende Arbeit beschäftigt sich mit den Modellen der Akzeptanzforschung in Bezug auf die Einführung der Software „Power-BI“ im Tiefbauamt des Kantons Zürich. Sie erforscht die entscheidenden Faktoren, welche sich auf die Akzeptanz und das tatsächliche Nutzungsverhalten der neu eingeführten BI-Lösung auswirken. Anschließend folgt eine kritische Betrachtung der Einführung der BI-Lösung im Tiefbauamt des Kantons Zürich. Daraus folgen Erkenntnisse und „lessons learned“, welche bei einer erneuten Einführung beachtet werden sollten, um die Akzeptanz und das Nutzerverhalten positiv zu beeinflussen.
1.4 Aufbau der Arbeit
Nach der Beschreibung der Problemkonstellation, der Zielsetzung der Arbeit und ihrer Abgrenzung erfolgt die Darstellung der theoretischen Grundlagen. Diese beschreiben die Modelle der Akzeptanzforschung von neuer Informationstechnologie und beurteilt ihre Stärken und Schwächen zur Erforschung der Akzeptanz der BI-Lösungen im Tiefbauamt des Kantons Zürich. Anschliessend werden die Problemstellung und die Zielsetzung vertieft sowie die Forschungsleitfragen überarbeitet und konkretisiert. Die Arbeit gliedert sich als nächstes in zwei aufeinander aufbauende Teile bzw. Arbeitsschritte. Der erste Arbeitsschritt ist die Identifikation der geeignetsten validen Akzeptanz- und Nutzungsmodelle für die Forschungsfragen. Das geeignetste Modell wird anschliessend wo nötig adaptiert und um weitere valide Determinanten ergänzt. Das methodische Vorgehen des ersten Arbeitsschrittes bedient sich Verfahren der Sekundärforschung. Für den ersten Arbeitsschritt erfolgt eine Literatur-, Quellen- und Inhaltsanalyse von Aufsätzen, Arbeitspapieren, Studien, Stellungnahmen, Konferenzpräsentationen, etc., die hauptsächlich durch eine Internetrecherche (Desk Research) identifiziert werden. Der Zugang zu Fachbüchern erfolgt mit Hilfe verschiedener Hochschulbibliotheken und Online-Datenbanken (EBSCO, Google Scholar etc.).
Zuerst erfolgt eine ausführliche Literaturrecherche zum Thema Technologieakzeptanzmodellen sowie zum Thema Business Intelligence. Der Fokus liegt auf den relevanten Faktoren für die Akzeptanz und die tatsächliche Nutzung von Informationstechnologie, insbesondere von BI-Plattformen. Die gewählten Modelle werden anschliessend wo nötig adaptiert, damit diese für den zweiten Arbeitsschritt im Umfeld des Tiefbauamtes des Kantons Zürich sinnvoll und valide eingesetzt werden können. Es folgt die Darstellung der Resultate in einem Ergebnis- und Interpretationsteil, der gleichzeitig die kritische Reflexion des methodischen Vorgehens von Arbeitsschritt eins enthält. Im zweiten Arbeitsschritt wird das gewählte Technologieakzeptanzmodell mittels von qualitativen Experteninterviews bei Entscheidungsträgern und Anwendern der neuen Power BI Lösung im TBA angewendet. In diesem Arbeitsschritt werden die Daten mittels Primärdatenforschung im eigenen Unternehmen erhoben. Als nächstes wird der Ergebnis- und Interpretationsteil kurz beschrieben. Dort findet auch die kritische Reflexion der Methodik und das Aufzeigen der Stärken, Schwächen und Verbesserungs- bzw. Adaptionspotenziale statt. Der Ausblick stellt erforderliche Schritte für weitere Forschung zu diesem Thema bereit. Die Arbeit wird mit einem Fazit fertiggestellt. In Abbildung 1 ist der Aufbau und das Vorgehen der Bachelorarbeit grafisch dargestellt.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1: Aufbau und Vorgehen der Bachelorarbeit (Quelle: Eigene Darstellung)
2 Theoretische Grundlagen
In den theoretischen Grundlagen beschäftigt sich die vorliegende Arbeit mit BI, dem BI-Produkt „Power BI“ der Firma Microsoft und den bewährten Technologieakzeptanzmodellen der Akzeptanzforschung. Die theoretischen Grundlagen werden anhand einer Literaturrecherche zu den genannten Themen erarbeitet.
2.1 Business Intelligence
2.1.1 Definition und Bedeutung
Für den Begriff BI bestehen verschiedene Definitionen, wir folgen generell der Definition von Kemper et al. (2006). Kemper definiert BI als betriebliche Entscheidungsunterstützung mittels einem unternehmensbezogenen IT-basierten Gesamtansatz.6 BI unterstützt somit Entscheidungsträger in Organisationen in ihren Entscheidungen, indem es Wissen bereitstellt, welches aus konsolidierten Informationen gewonnen wird. Die Informationen wiederum werden in der Regel aus verschiedenen betrieblichen Datenquellen bezogen. Obwohl BI kein neuer Begriff ist, so ist er derzeit hochaktuell und die Nachfrage nach BI-Spezialisten auf dem Arbeitsmarkt ist riesig. Die Bedeutung des BI-Trends unterstreichen auch die milliardenschweren Übernahmen von BI-Produkt-Herstellern durch große Technologiekonzerne wie SAP und IBM.7
2.1.2 Architektur und Bausteine einer BI-Lösung
BI-Lösungen bestehen aus fünf Bausteinen, welche in Abbildung 2 dargestellt sind.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2: Bausteine einer BI-Lösung (Quelle: Eigene Darstellung in Anlehnung an Grünwald/Taubner 2009, S. 399)
Die Grunddaten einer BI-Lösung kommen aus verschiedenen Quellsystemen. Quellsysteme können sowohl interne Systeme als auch externe Systeme (oftmals eine Kombination davon) sein. Als externe Daten können beispielsweise Daten von externen Marktforschungsunternehmen oder Daten von Partnerunternehmen genannt werden. Interne Daten können beispielsweise Daten aus dem internen ERP-System oder einem internen Lohnbuchhaltungssystem stammen. Die Daten aus den Quellsystemen müssen nun syntaktisch und semantisch harmonisiert werden, da beispielsweise noch Mängel wie Formatinkompatibilitäten vorhanden sein können, welche im Baustein Datenversorgungen möglichst automatisiert bereinigt werden. Diese automatische Harmonisierung der Daten erfolgt nach fachlich definierten Bereinigungsregeln.8 Oftmals ist neben einer automatisierten Korrektur der Daten zusätzlich eine manuelle Korrektur durch einen Aufgabenträger in den operativen Quellsystemen erforderlich. Im Baustein der Datenversorgung erfolgt auch eine Vereinheitlichung der zusammenzuführenden Daten hinsichtlich ihrer fachspezifischen, betriebswirtschaftlichen und zeitlichen Bedeutung.9 Der nächste Baustein, das Datenmanagement beinhaltet den zentralen, integrierten Datenpool mit dem Data Warehouse (DWH-Kern). Im DWH-Kern sind sämtliche (bereinigten) Daten in einer einheitlichen Struktur abgespeichert. Diese Daten stammen in der Regel aus einem längeren, historischen Zeitraum und stellen die Basis für die Auswertungen und die weiteren Verarbeitungsschritte dar.10 Für die Daten im DWH-Kern ist wesentlich, dass sie dauerhaft gespeichert, thematisch strukturiert, integriert und zeitlich korrekt sind.11 Die Daten im DWH-Kern sollten nicht abhängig von einzelnen Berichtsanforderungen strukturiert, sondern möglichst anwendungsneutral modelliert werden. Für die Strukturierung sollten die relevanten Geschäftsobjekte und deren Beziehungen als Orientierung verwendet werden. Um eine flexible Verwendung der Daten sicherstellen zu können, ist eine Datenstruktur zu wählen, welche möglichst nahe an der dritten Normalform liegt.12 Ebenfalls im Baustein Datenmanagement befindet sich die Datenversorgung Data Marts. In ihr findet eine nach fachbereichs- oder anwendungsspezifische Anforderungen definierte Auswahl und Verarbeitung von Daten statt. Grünwald/Taubner (2009) merken an, dass oftmals aus den Basisdaten neue Datenelemente berechnet werden, etwa aus Kombinationen bereits vorhandener Datenelemente. Wie die Datenversorgung Data Marts befindet sich auch die Auswertungsorientierte Schicht (Data Marts) im Datenmanagement. Die Data Marts verwalten ausgewählte und zusammengeführte Daten anwendungsfallspezifisch aufbereitet und für den Endbenutzer in einer verständlichen Struktur. In der auswertungsorientierten Schicht wird auch Wert auf die Performance gelegt. Dazu werden gezielte Maßnahmen hinsichtlich der Optimierung der Abfrageperformance geprüft und gegebenenfalls umgesetzt. Als Beispiel können dazu Denormalisieren oder der Einsatz von multidimensionalen Datenbanken genannt werden. Im Baustein Metadatenmanagement werden die bestehenden Daten, ihre jeweilige Verfügbarkeit sowie die Rückverfolgung sämtlicher Transformationen bereitgestellt. Im Baustein Warehouse Management wird die BI-Infrastruktur verwaltet. Der letzte Baustein stellen die BI-Anwendungen dar. Auf der Ebene der BI-Anwendungen stehen den Endanwendern verschiedene Komponenten zur Analyse und Präsentation zur Verfügung. Auf die verschiedenen BI-Anwendungen wird in den kommenden Kapitel detailliert eingegangen.13
2.1.3 BI-Anwendungen
BI-Anwendungen können je nach Zielsetzung und Funktionalität in die folgenden Kategorien eingeteilt werden:
- Reporting und Analyse: In diese Kategorie fällt das Standardreporting in Form von regelmäßigen, standardisierten Berichten mit Listen, Tabellen und Grafiken. In dieser Kategorie sind auch weitere Aspekte wie Informationsportale, komplexe Berechtigungskonzepte sowie automatische Verteilung angesiedelt. Zusätzlich gehören die ad-hoc Berichte in diese Kategorie, mit welchen Benutzer selbst anforderungsgetriebene Berichte initiieren können.14
- Performance Management: Im Performance Management wird die Unternehmensstrategie und die Unternehmensleistung kombiniert betrachtet. Dazu werden aus den strategischen Unternehmenszielen Kennwerte (Key Performance Indicators) definiert. Bei Abweichungen können geeignete Maßnahmen geplant und umgesetzt werden.15
- Analytische Anwendungen: Mittels Standardsoftwarekomponenten werden am Markt geschäftslogikspezifische Analysen angeboten. Beispiele für solche Anwendungen sind Anwendungen zur Missbrauchserkennung bei Kreditkartenunternehmen oder Risikomanagement bei Finanzdienstleistern. Für analytische Anwendungen wird oft auf Techniken des Data Minings und der Wissensentdeckung gesetzt.
- Planung und Simulation: Für die Planung und Simulation werden zusätzliche Sollzahlen als Grundlage der Istwerte einer vergangenen Zeitperiode verwendet. Für die Unterstützung des Planprozesses wird eine Workflowkomponente benötigt, welche zum einen die Erfassung und Genehmigung der Plandaten ermöglicht, zum anderen aber auch eine gesamtheitliche Betrachtung über den Fortschritt der Planung gewährt.16
BI-Anwendungen können mit verschiedenen Benutzerprofilen verwendet werden und sind in der Regel an das Intra- oder Internet angebunden. Je nach Anwendungsgebiet kommen im Zusammenhang mit BI-Anwendungen verschiedene Technologien und Instrumente zum Einsatz. Dazu gehören einfache Berichtsgeneratoren, Komponenten für Online Analytical Processing (OLAP) zur multidimensionalen Analyse von Daten sowie das Data Mining.17
2.1.4 BI-Strategie und Business Intelligence Competence Center
Eine BI-Strategie bestimmt die grundsätzliche Ausrichtung der BI-Landschaft eines Unternehmens aus einer übergeordneten und langfristigen Sicht. Ziel der BI-Strategie ist es, die notwendigen Entscheidungen und Maßnahmen durchzusetzen, um den langfristigen Erfolg von BI im Unternehmen sicherzustellen. Eine BI-Strategie orientiert sich an den Unternehmens- und IT-Zielen und beschreibt alle notwendigen Entscheide und Maßnahmen, um durch eine optimale Informationsversorgung den Unternehmenserfolg zu ermöglichen.18 Eine BI-Strategie besteht aus verschiedenen Betrachtungsperspektiven. Die drei relevanten Perspektiven sind Fachlichkeit, Architektur/Technologie sowie Organisation. In Abbildung 3 sind die jeweiligen Themen pro Perspektive abgebildet.19
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3: Perspektiven einer BI-Strategie (Quelle: Eigene Darstellung in Anlehnung an Chamoni und Gluchowski 2004, S. 120)
Für die Umsetzung der BI-Strategie wird oftmals ein Business Intelligence Competence Center (BICC) geschaffen, welches mit der BI-Strategieumsetzung beauftragt wird. Grünwald beschreibt ein BICC als «eine funktionsübergreifende Einheit mit bestimmten Aufgaben, Rollen, Verantwortlichkeiten und Prozessen, die den effizienten Einsatz von Business Intelligence im Unternehmen unterstützt und vorantreibt.» Grünwald merkt an, dass BI kein rein technologisches Thema darstellt, da die Herausforderungen für erfolgreiches BI in den Bereichen «Daten, Technologie, Prozesse, Unternehmensstrategie, Benutzerakzeptanz und Unternehmenskultur» liegen. Der erwartete Nutzen der BI-Lösung wird dann erreicht, wenn sämtliche erwähnten Themenbereiche in die Betrachtung mit einbezogen und entsprechend berücksichtigt werden.20 21
2.1.5 Reifegradmodelle zur Standortbestimmung von BI-Lösungen
Viele Unternehmen haben bereits BI-Lösungen eingeführt und betreiben diese teilweise schon über mehrere Jahre hinweg. Der Reifegrad dieser BI-Lösungen ist jedoch sehr unterschiedlich. Zur Standortbestimmung eigenen sich bewährte Reifegradmodelle wie beispielsweise das Maturity-Modell des The Data Warehouse Institiute (TDWI). Das Maturity-Modell differenziert zwischen sechs Reifegradstufen: Pränatal, Kleinkind, Kind, Jugendlicher, Erwachsener und Weiser. Je nach Eigenschaften der vorhandenen BI-Umgebung lässt sich diese einer Reifegradstufe zuordnen. Neben Inhalt und Umfang sind auch Analysearten und Analysestrukturen sowie die eingesetzte Technologie relevante Faktoren für die Einstufung in das Reifegradmodell. Je weiter eine BI-Lösung im Reifegradmodell fortgeschritten ist, umso höher ist der geschäftliche Nutzen der BI-Lösung. BI ist längst nicht mehr nur ein Thema für große Unternehmen, auch für kleine und mittlere Unternehmen wird eine datenbasierte Entscheidungsgrundlage immer wichtiger. Hersteller von BI-Produkten haben diesen Trend erkannt und bieten entsprechend kompaktere und preisgünstigere Produkte für die jeweiligen Kundensegmente an.22
2.1.6 Aktuelle Themen
Laut Grünwald kann derzeit in der Praxis festgestellt werden, dass sich in vielen Organisationen historisch gewachsene Insellösungen auflösen und aufgrund neuer BI-Strategien konsolidieren und zentralisieren. Das klassische BI wertet auch heute noch vorwiegend vergangenheitsbezogene Daten aus (Ex-post-Analyse). Eine derzeitige Aktualität ist, dass dieses Anwendungsgebiet um die zukunftsgerichtete Auswertung (Analyse) ergänzt wird, also die Schlussfolgerung zukünftigen Verhaltens auf Basis und mit Hilfe der zur Verfügung stehenden Vergangenheitsdaten. Unter dem Begriff „BI 2.0“ wird laut Grünwald/Taubner (2009) „bereits die nächste Generation von BI entwickelt. Wesentliche Themen sind BI als Service in einer serviceorientierten Architektur, Open Source BI, Embedded BI, anspruchsvolle und komplexe Visualisierungs- und Analysetechniken, BI-Suche und BI-Mashups.“23
2.1.7 Magischer Quadrant für BI Plattformen von Gartner
Die Firma Gartner untersucht jedes Jahr die führenden BI Plattformen weltweit und stuft Microsofts Power BI bereits das 13. Jahr in Folge als die führende BI Plattform ein. Im Magic Quadrant for Analytics and BI Platforms wird sowohl untersucht wie groß die Visionen der BI Plattformen sind, als auch wie groß die Fähigkeit der jeweiligen Unternehmen ist, diese Visionen umzusetzen.24 In Abbildung 4 ist ersichtlich, dass Microsoft mit ihrem Produkt Power BI von Gartner als führende BI-Lösung angesehen wird. Power BI schließt die Lücke zwischen Daten und Entscheidungsfindung und beindruckt mit ihren Datenerlebnissen.25
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 4: Magischer Quadrant für BI Plattformen von Gartner (Quelle: Gartner 2020)
2.2 Technologieakzeptanz
2.2.1 Definition und Bedeutung
Der Begriff Akzeptanz stammt von dem Lateinischen accipere ab, was annehmen, billigen oder gutheissen bedeutet. Er meint demnach eine positive Handlungstendenz bzw. Haltung zu einer Alternative gegenüber Handlungsalternativen. Der Begriff Technologie stammt von den griechischen Wörtern techne (= Kunst, Handwerk) und lógos (= Wort) ab.26
Die seit der zweiten Hälfte des 20. Jahrhunderts rasant fortschreitende Technologieentwicklung stellt Unternehmen vor die Herausforderung, diese Technologieentwicklung gewinnbringend einzusetzen. Insbesondere seit dem Aufkommen der ersten zivil nutzbaren Computer sind Unternehmen und ihre Mitarbeitenden in der Lage, ortsunabhängig und in Echtzeit miteinander zu kommunizieren und kooperativ zusammenzuarbeiten. Diese Entwicklung bedeutet grosse Effektivitäts- und Effizienzsteigerungen. Heute kann beispielsweise mittels einer Webkonferenz der Reiseweg in eine Zweigniederlassung in einem anderen Land eingespart werden.27 Mit der ab etwa dem Jahr 2000 begonnenen vierten industriellen Revolution, hat diese Entwicklung neue, zuvor nahezu unvorstellbare Dimensionen angenommen. Das inzwischen weit verbreitete Internet ermöglicht eine medienbruchfreie Kommunikation zwischen Unternehmen, Menschen und Behörden. Cyber-physische Systeme ermöglichen, Maschinen mit der Produktionswirtschaft und den Haushalten zu vernetzen.28 Weitere Bausteine und Treiber der Industrie 4.0 sind Augmented Reality, Semantic Web, die Robotik, das Internet der Dinge und Dienste (IoT) sowie die künstliche Intelligenz. 29
Bereits in den 1980er Jahren zeigte die intensive Anwendung von IT, welche mit massiven Investitionen auf Branchenebene einherging, nicht die erwartete Produktivitätssteigerung. Vielmehr vollzog sich das Wachstum der Produktivität in diesen Branchen (insbesondere im Dienstleistungsbereich) langsam. Dieser Effekt wurde als das Produktivitätsparadoxon des IT-Einsatzes bekannt und wurde seitdem immer wieder untersucht.30 Wie kann es sein, dass es trotz der Einführung der neusten Informationstechnologien mit ihren großen Potentialen zum Produktivitätsparadoxon kommt? Sichel (1997) macht insbesondere die suboptimale Nutzung der eingeführten IT-Systeme für dieses Paradoxon verantwortlich.31 Wie Oye et al. (2014) feststellen, ist das volle Ausschöpfen des Potentials einer neuen Technologie nur dann möglich, wenn die Akzeptanz und die tatsächliche Nutzung gegeben sind.32 Daraus stellt sich die Frage, welche konkreten Faktoren relevant sind, um die Akzeptanz der Mitarbeitenden einer neuen Technologie oder Innovation gegenüber zu fördern.33
2.2.2 Akzeptanzforschung
Die Akzeptanzforschung fokussiert sich auf die Bereitschaft und der potenziell daraus folgenden tatsächlichen Nutzung einer innovativen Technologie durch Nutzerinnen und Nutzer.34 Die zur Akzeptanzforschung angrenzenden Forschungsdisziplinen der Diffusions- und Adoptionstheorie sind eng mit der Akzeptanzforschung verbunden, werden in dieser Arbeit jedoch nicht explizit behandelt. Charakteristisch für die Akzeptanzforschung ist, dass sie sich auf die zeitliche Vorhersage von Innovationen und die Identifikation der Erklärungsursachen für das Scheitern oder Gelingen von technologischen Innovationen konzentriert.35 Die Akzeptanzforschung hat zum einen eine analytische und andererseits eine gestaltende Zielsetzung. Die analytische Zielsetzung möchte die Wechselbeziehungen zwischen der Einführung einer Innovation und den damit in Verbindung stehenden Auswirkungen erklären. Die Akzeptanzforschung hat laut Simon (2001) aber auch „eine gestaltende Zielsetzung, die auf eine Beeinflussung der Ausgestaltung von Innovationen im Hinblick auf ihre Nutzung durch die Anwender ausgerichtet ist.“36 Die zentralen Elemente der Akzeptforschung sind der Akzeptanzbegriff (Was ist die Bedeutung der Akzeptanz einer Innovation?), die Anwender (Wer akzeptiert eine Innovation, wie?) sowie die Innovation (Was soll überhaupt akzeptiert werden?).37
Die unterschiedlichen Ansätze der betriebswirtschaftlichen Akzeptanzforschung können im Rahmen eines zweidimensionalen Konzepts in die Einstellungs- und Verhaltensakzeptanz unterteilt werden.38 Gemäß Simon (2001) fasst „die Einstellungsakzeptanz die affektive (gefühlsmäßige) und kognitive (verstandesmäßige) Komponente zusammen. Die affektive Komponente berücksichtigt motivational-emotionale mit der Innovation verbundene Zustände (affektive Komponente). Die kognitive Komponente der Einstellungsakzeptanz bedingt die Gegenüberstellung von Kosten und Nutzen einer Innovation unter Berücksichtigung des persönlichen Kontexts.“39 Die Einstellungsakzeptanz kann von Anwendern nicht direkt beobachtet werden. Die Verhaltensakzeptanz beinhaltet den Aktivitätsaspekt. Eine Verhaltensakzeptanz ist beispielsweise bei einer beobachtbaren Nutzung einer Innovation gegeben.40 Die Ablehnung und die Akzeptanz von Innovationen erfolgt stufenweise. Helmreich (1980) identifizierte insgesamt 14 verschiedene Akzeptanzniveaus, welche sich zwischen „Ablehnung“ und „Zustimmung“ befinden. Diese sind laut Helmreich (1980) „besonders bei der Einführung von neuen organisatorischen Strukturen zutreffend.“41
2.2.3 Kritik an der Akzeptanzforschung
Die Akzeptanzforschung wird in der Literatur auch kritisch betrachtet. Hinsichtlich der gestalterischen Zielsetzung der Akzeptanzforschung werden vor allem die Annahme einer unfreiwilligen Nutzung sowie die Problematik mit der Ex-post-Betrachtung (Untersuchungszeitpunkt) genannt.42 Die ersten Akzeptanzuntersuchungen der Wirtschaftsinformatik nahmen an, dass Innovationen grundsätzlich innerhalb von Herrschaftsstrukturen eingeführt wurden und eine freiwillige Nutzung der Innovation (wie sie etwa in marktähnlichen Strukturen oder an Hochschulen häufig vorkommt) nicht existieren.43
Der Untersuchungszeitpunkt der Akzeptanzforschung ist zumeist eine Ex-post-Betrachtung, die Akzeptanzforschung bezieht sich also auf eine zum Untersuchungszeitpunkt bereits implementierte Innovation. Somit können die aus den Untersuchungen abgeleiteten Maßnahmen immer nur in zukünftige Entwicklungen von Innovationen einfließen. Damit auch bereits bei der Entwicklung einer Innovation gestalterische Maßnahmen gesetzt werden können, wäre eine Akzeptanzerhebung bereits in der Entwicklungsphase notwendig. Eine weitere Kritik am Untersuchungszeitpunkt liegt darin, dass Innovationen von Nutzern oft mehrmals genutzt werden und sich der Nutzen über mehrere Anwendungen hinweg verändern kann, etwa durch Lerneffekte. Dass die Akzeptanzforschung oftmals nur einen bestimmten Zeitpunkt untersucht, scheint in diesem Zusammenhang problematisch. In der Regel findet daher auch keine Differenzierung zwischen Erstnutzung und Folgenutzung statt und deren Rückkopplungseffekte bleiben somit unberücksichtigt.44
In Untersuchungen konnte eine Diskrepanz zwischen der erhobenen Einstellungsakzeptanz und der beobachteten Verhaltensakzeptanz beobachtet werden.45 Es scheint laut Simon (2001) somit problematisch, aufgrund der erhobenen Einstellungsakzeptanz Schlüsse hinsichtlich dem Nutzungsverhalten zu ziehen. Somit ist es in der Akzeptanzforschung sehr schwierig, zukünftig zu erwartendes Nutzungsverhalten zu prognostizieren. Auch die Akzeptanzmodelle liefern keine Ansätze für diese Problematik. Ansätze finden sich hingegen in der sogenannten verhaltenswissenschaftlichen Entscheidungstheorie. Zusammengefasst zeigt diese auf, dass beim Entscheidungsprozess nicht nur rationale, kognitive Prozesse im Nutzer ablaufen, sondern dass auch viele durch Reize ausgelöste, sensorisch gesteuerte Prozesse stattfinden. Diese werden durch Motivationen und Emotionen maßgeblich beeinflusst. Daraus kann gefolgert werden, dass der erwartete Nutzen einer Innovation durch das Individuum nicht korrekt beurteilt werden kann, weil es Entwicklungen nicht prognostizieren kann, zumeist nicht über sämtliche entscheidungsrelevanten Informationen verfügt und auch nur beschränkt fähig ist, sämtliche Informationen ideal zu verarbeiten.46
2.3 Technologieakzeptanzmodelle
Technologieakzeptanzmodelle können in zwei Modellkategorien eingeteilt werden. Zum einen existieren nach Kollmann (1998) sogenannte „Input-Output-Modelle“, welche sich in der Akzeptanzforschung auf die Identifikation der relevanten Einflussgrößen auf das Verhalten potenzieller Nutzer konzentrieren und die Konsequenzen auf spätere Akzeptanzentscheidungen (Rückkopplungen) ausklammern. Des Weiteren existieren „Rückkopplungsmodelle“, welche neben den relevanten Einflussgrößen auch die Auswirkungen auf das Verhalten und die zukünftige Akzeptanz berücksichtigen.47
Die zentralen Modelle der Technologieakzeptanzforschung in chronologischer Reihenfolge nach Veröffentlichungsdatum sind nachfolgend aufgeführt:48
- Theory of Reasoned Action (TRA) nach Fishbein und Ajzen (1975)
- Ajzen und Fishbein (1980)
- Akzeptanzmodell nach Degenhardt (1986)
- Technology Acceptance Model (TAM) nach Davis (1985); Davis (1989); Davis et al. 1989)49
- Theory of Planned Behavior (TPB) nach Ajzen (1991)
- Akzeptanzmodell nach Filipp (1996)
- Akzeptanzmodell nach Kollmann (1998)
- Technology Acceptance Model 2 (TAM2) nach Venkatesh und Davis (2000)
- Unified Theory of Acceptance and Use of Technology (UTAUT) nach Venkatesh et al. (2003)50
- Technology Acceptance Model 3 (TAM3) nach Venkatesh und Bala (2008)
- Unified Theory of Acceptance and Use of Technology (UTAUT 2) nach Venkatesh et al. (2012)
In den nachfolgenden Kapiteln werden drei der bedeutendsten Modelle im Detail vorgestellt. Auf sämtliche weiteren, oben genannten Modelle wird im Rahmen dieser Bachelorarbeit nicht vertieft eingegangen.
2.3.1 Theory of Reasoned Action (TRA)
Die «Theory of Reasoned Action» (TRA) nach Fishbein und Ajzen (1975)51 und Ajzen und Fishbein (1980)52 bedeutet übersetzt «Theorie des überlegten Handelns» und gilt als Ausgangsbasis für die Technologieakzeptanzmodelle nach der Theorie der Einstellungs- und Verhaltensakzeptanz.53 54 Ziel der TRA ist es zu erklären und prognostizieren, wie individuelle Handlungen zustande kommen und zählt daher zu einer der relevantesten Theorien in der Sozialpsychologie.55 Die TRA geht davon aus, dass es nur einen einzigen Faktor gibt, welcher dazu führt, dass ein Individuum ein spezifisches Verhalten auch tatsächlich ausführt. Dieser Faktor ist die Intention des Individuums. Daraus lässt sich ableiten, dass das Verhalten die Folge bzw. das Resultat eines auf Vernunft und Rationalität fussenden Entscheidungsprozesses ist und daher prognostiziert werden kann.56 In Abbildung 5 ist das Modell visualisiert dargestellt. Die Verhaltensabsicht wird durch die individuelle Einstellung zum Verhalten (Attitude toward behavior) und der subjektiven Norm (subjective Norm) definiert. Die individuelle Einstellung zum Verhalten bezieht sich auf ein spezifisches Verhalten und berücksichtigt die durch die Handlung zu erwartenden Konsequenzen (sowohl positive als auch negative Gefühle des Individuums) und deren Eintrittswahrscheinlichkeit.57 Die subjektive Norm meint die Wahrnehmung des Individuums, wie die meisten für das Individuum wichtigen Personen über die Handlung denken. Vereinfacht gesagt handelt es sich bei der subjektiven Norm um eine Art gesellschaftlichen bzw. sozialen Druck, sich an den empfundenen bzw. wahrgenommenen sozialen Regeln zu orientieren und eine Handlung somit zu forcieren oder sein zu lassen.58 Ajzen und Fischbein definieren nicht, ob die Einstellung zum Verhalten oder die subjektive Norm einen grösseren Einfluss auf die Verhaltensabsicht hat, weisen jedoch darauf hin, dass dies von Individuum zu Individuum und auch je nach Untersuchungsgegenstand variieren kann.59
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 5: Theory of Reasoned Action (TRA) (Quelle: Kittl, in Anlehung an Ajzen und Fishbein)60 61
Die TRA ist sehr simpel aufgebaut und kann in fast allen Lebensbereichen bzw. Verhaltensentscheidungen herangezogen werden. Diese Simplizität und Generalisierbarkeit des Modells sind zentrale Vorteile, werden jedoch gleichzeitig auch als grösste Nachteile der TRA genannt.62 Ajzen und Fishbein weisen darauf hin, dass weitere externe Einflussgrössen existieren können und die TRA kein zwingend abgeschlossenes System darstellt.63
Davis modifizierte die TRA, indem er die Idee des Modells nahm und auf einen konkreten Anwendungsfall umlegte. Die Untersuchung des Endnutzerverhaltens in Bezug auf Informationssysteme resultierte im bekannten «Technology Acceptance Model» (TAM), welches im nächsten Abschnitt beschrieben wird.
2.3.2 Technology Acceptance Model (TAM)
Das TAM gilt als das wohl bekannteste und am häufigsten zitierte Akzeptanzmodell und wurde insbesondere für die Anwendung im Kontext von Informationssystemen im organisationalen Umfeld entwickelt.64 Das Ziel des TAM beschreibt Davis (1989) als die Erklärung von individuellem Nutzungsverhalten von Computersystemen auf freiwilliger Basis: „The goal of TAM is to provide an explanation of the determinants of computer acceptance that is general, capable of explaining user behavior across a broad range of end-user computing technologies and user populations, while at the same time being both parsimonious and theoretically justified.”65 Wie in Abbildung 6 ersichtlich ist, sind die beiden Faktoren «Percived Usefullness» (wahrgenommene Nützlichkeit) und «Perceived Ease of Use» (wahrgenommene Benutzungsfreundlichkeit) zentral für das TAM und haben einen direkten Einfluss auf die «Attitude Toward Using» (Nutzungsabsicht), welche im TAM als einzige Determinante von «Actual System Use» (Tatsächliche Systemnutzung) definiert ist.66
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 6: Technology Acceptance Model (TAM) (Quelle: Davis et al. (1989, 985))
Davis definiert die wahrgenommene Nützlichkeit als den Grad, zu welchem ein Individuum denkt, dass die tatsächliche Nutzung eines definierten Systems seine eigene (individuelle) berufliche Leistung verbessern würde.67 Auch extrinsische Anreize, wie etwa eine Lohnerhöhung können die wahrgenommene Nützlichkeit umfassen, weshalb im TAM auch eine direkte Auswirkung der wahrgenommenen Nützlichkeit auf die Nutzungsabsicht abgebildet ist.68
Die wahrgenommene Benutzungsfreundlichkeit beschreibt Davis (1985) als den Grad, zu welchem ein Individuum davon ausgeht, dass die Nutzung eines spezifischen Informationssystems frei von physischer und mentaler Anstrengung sei.69 Da eine vereinfachte Nutzung des Informationssystems die Leistung des jeweiligen Individuums steigert, ist im TAM ein direkter Einfluss auf die wahrgenommene Nützlichkeit skizziert.70 Die «Attitude Toward Using» (grundlegende Einstellung gegenüber Innovationen) bestimmt gemeinsam mit der wahrgenommenen Nützlichkeit die «Behavioral Intention to Use» (Nutzungsabsicht).71 Die Nutzungsabsicht ist der einzige Faktor im TAM, welcher eine direkte Auswirkung auf die tatsächliche Systemnutzung hat.
Zusammengefasst sagt das TAM aus, dass potenzielle Anwenderinnen und Anwender Innovationen (insbesondere Informationssysteme im organisationalen Umfeld) eher nutzen, wenn die wahrgenommene Nützlichkeit und die wahrgenommene Benutzungsfreundlichkeit des Systems vom Individuum als hoch wahrgenommen werden.72
Mit dem TAM, welches Davis Ende der 80er Jahre auf Basis der TRA entwickelte, wurden in den darauffolgenden Jahren diverse empirische Untersuchungen durchgeführt. Dabei wurde festgestellt, dass der für das TAM relevante Faktor „Perceived Ease of Use“ (wahrgenommene Benutzungsfreundlichkeit), eine vergleichsweise geringe Relevanz für die Akzeptanzforschung hat. Aus dieser Erkenntnis leiteten Venkatesh/Davis (2000) ein Ziel für die damals aktuelle Akzeptanzforschung ab: „Therefore, the goal of the present research is to extend TAM to include additional key determinants of TAM’s perceived usefulness and usage intention constructs, and to understand how the effects of these determinants change with increasing user experience over time with the target system.”73 Aus diesem Überlegungen entstand das TAM2, auf welches in dieser Arbeit nicht explizit eingegangen wird.
2.3.3 Unified Theory of Acceptanced and Use of Technology (UTAUT)
Die UTAUT (Unified Theory of Acceptance and Use of Technology) gilt als Meta-Modell der Technologieakzeptanz, da es sich aus dem Item-Katalog vieler Akzeptanzmodelle bedient.74 Für die Entwicklung der UTAUT wurden insgesamt acht bekannte Akzeptanzmodelle sowie die Zusammenführung von einzelnen Elementen dieser Modelle untersucht. Die untersuchten Modelle sind neben den in dieser Arbeit bereits vorgestellten Modellen TRA und dem TAM auch die Folgenden:75
- „Theory of Planned Behavior (TPB)“ nach Ajzen (1991)
- „Motivational Model (MM)“ nach Davis et al. (1992),
- „Combined TAM and TPB (C-TAM-TPB)” nach Taylor und Todd (1995),
- “Model of PC Utilization (MPCU)” nach Thompson et al. (1991),
- “Social Cognitive Theory (SCT)” nach Compeau und Higgins (1995); Compeau et al. (1999) und
- die Einflussgrößen der „Innovation Diffusion Theory“ insbesondere nach Rogers (2003).
[...]
1 Sir Arthur Conan Doyle (1859-1930), britischer Arzt und Schriftsteller
2 Vgl. Reinkemeyer et al. (2019), S. 45.
3 Vgl. Detlef/Zühlke (2012), S. V.
4 Vgl. Stang (2002), S. 51.
5 Vgl. Heßeler et al. (2004), S. 237.
6 Vgl. Kemper et al. (2006), S. 1–11.
7 Vgl. Grünwald/Taubner (2009), S. 398.
8 Vgl. Grünwald/Taubner (2009), S. 398–399.
9 Vgl. Kemper et al. (2010), S. 24–26.
10 Vgl. Grünwald/Taubner (2009), S. 399–400.
11 Vgl. Inmon (2002).
12 Vgl. Kemper et al. (2006), S. 53–55.
13 Vgl. Grünwald/Taubner (2009), S. 400–401.
14 Vgl. Grünwald/Taubner (2009), S. 400–401.
15 Vgl. Rausch et al. (2013), S. 6–8.
16 Vgl. Grünwald/Taubner (2009), S. 400–401.
17 Vgl. Grünwald/Taubner (2009), S. 400–401.
18 Vgl. Totok (2016), S. 36.
19 Vgl. Chamoni/Gluchowski (2004), S. 120.
20 Vgl. Miller et al. (2006).
21 Vgl. Grünwald/Taubner (2009), S. 400.
22 Vgl. Grünwald/Taubner (2009), S. 401–402.
23 Vgl. Grünwald/Taubner (2009), S. 402–403.
24 Vgl. Gartner Magic Quadrant for Analytics and Business Intelligence Platforms (2020).
25 Vgl. Microsoft (2021).
26 Vgl. Fischbach (2019), S. 36.
27 Vgl. Fischbach (2019), S. 36.
28 Vgl. Heuermann et al. (2018), S. 10–11.
29 Vgl. Brühl (2015), S. 61–62.
30 Vgl. Hermeier et al. (2019), S. 89.
31 Vgl. Sichel (1997).
32 Vgl. Oye et al. (2014), S. 251–270.
33 Vgl. Fischbach (2019), S. 36.
34 Vgl. Kornmeier, S. 76.
35 Vgl. Kittl (2009), S. 51.
36 Vgl. Simon (2001), S. 85–86.
37 Vgl. Simon (2001), S. 85–86.
38 Vgl. Ginner, S. 146–147.
39 Vgl. Simon (2001), S. 87.
40 Vgl. Simon (2001), S. 87.
41 Vgl. Helmreich (1980), S. 21–44.
42 Vgl. Simon (2001), S. 89–90.
43 Vgl. Lucas (1975).
44 Vgl. Kollmann (1998), S. 59–61.
45 Vgl. Davis (1989), S. 319–339.
46 Vgl. Simon (2001), S. 90.
47 Vgl. Kollmann (1998), S. 74–86.
48 Vgl. Ginner, S. 153–154.
49 Vgl. Davis (1989).
50 Vgl. Venkatesh et al. (2003).
51 Vgl. Fishbein/Ajzen (1975).
52 Vgl. Ajzen/Fishbein (1980).
53 Vgl. Reichardt (2008), S. 84.
54 Vgl. Kittl (2009), S. 54.
55 Vgl. Kornmeier, S. 124.
56 Vgl. Ajzen/Fishbein (1980), S. 54.
57 Vgl. Fishbein/Ajzen (1975), S. 216.
58 Vgl. Fishbein/Ajzen (1975), S. 16.
59 Vgl. Ajzen/Fishbein (1980), S. 54.
60 Vgl. Kittl (2009), S. 55.
61 Vgl. Ajzen/Fishbein (1980), S. 84.
62 Vgl. Ajzen/Fishbein (1980), S. 4.
63 Vgl. Ajzen/Fishbein (1980), S. 82.
64 Vgl. Ginner, S. 156–157.
65 Vgl. Davis (1989), S. 985.
66 Vgl. Davis (1989), S. 985–989.
67 Vgl. Davis (1985), S. 26.
68 Vgl. Ginner, S. 159.
69 Vgl. Davis (1985), S. 26.
70 Vgl. Davis (1989), S. 986.
71 Vgl. Kittl (2009), S. 54.
72 Vgl. Kittl (2009), S. 53.
73 Vgl. Venkatesh/Davis (2000), S. 187.
74 Vgl. Fischbach (2019), S. 37.
75 Vgl. Venkatesh et al. (2003), S. 427–436.
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.