Künstliche Intelligenz. Der Einfluss regulativer Rahmenbedingungen auf das Innovationspotenzial

Eine branchenübergreifende Untersuchung


Thèse de Master, 2020

93 Pages, Note: 2,0


Extrait


I Inhaltsverzeichnis

I Inhaltsverzeichnis

II Abkürzungsverzeichnis

III Abbildungsverzeichnis

IV Tabellenverzeichnis

1 Einleitung
1.1 Problemstellung
1.2 Zielstellung und Forschungsfrage
1.3 Aufbau der Arbeit

2 Methodisches Vorgehen

3 Innovations- und Technologiemanagement
3.1 Der Innovationsbegriff
3.2 Innovationsmanagement
3.3 Technologiemanagement

4 Grundlagen der Künstlichen Intelligenz
4.1 Grundauffassungen
4.1.1 Intelligenz
4.1.2 Bewusstsein
4.1.3 Vertrauen
4.1.4 Entscheidungstheorie
4.1.5 Ethik und digitale Ethik
4.2 Künstliche Intelligenz
4.2.1 Technologische Entwicklung und Stand der Technik in der IT
4.2.2 Definition von Künstlicher Intelligenz
4.2.3 Abgrenzung Machine-Learning, Deep-Learning, neuronalen Netzen und KI
4.2.4 Anwendungsfelder von Künstlicher Intelligenz
4.2.5 Unterschied zwischen schwacher und starker KI
4.2.6 KI als autarker Entscheidungsträger und technologische Singularität

5 Status Quo Branchenüberblick über den Einsatz von KI in Unternehmen
5.1 Branchenübergreifende KI-Systeme
5.2 KI-Systeme in der Energiewirtschaft
5.3 KI-Systeme in der Automobilindustrie
5.4 KI-Systeme bei Finanzdienstleistungen
5.5 KI-Systeme in der Medizin
5.6 Lessons Learned der Anwendungsbeispiele

6 Kriterienkatalog für eine nutzenstiftende KI-Entwicklung
6.1 Verwandte Arbeiten
6.2 Dokumentenanalyse
6.2.1 Grundlagen der Dokumentenanalyse
6.2.2 Ergebnisse der Häufigkeitsanalyse
6.2.3 Regierungen
6.2.4 Institutionen und Universitäten
6.2.5 Privatwirtschaftliche Unternehmen
6.3 Zusammenfassung der diskutierten Rahmenbedingungen für KI

7 Diskussion
7.1 Ergebnisevaluation
7.2 Branchenspezifische Differenzierung von Kriterien
7.3 Einfluss auf das Innovationspotenzial von Unternehmen

8 Fazit

9 Literaturverzeichnis

10 Anhang

II Abkürzungsverzeichnis

AGI Artificial General Intelligence

AI Künstliche Intelligenz

CPU zentrale Prozessoreinheit (Central Processing Unit)

CSR Corporate Social Responsibility

CNN Convolutional Neural Network

EU Europäische Union

FLI Future of Life Institute

HLEG High Level Expert Group

IBE Institute for Business Ethics

IQ Intelligenzquotient

KI Künstliche Intelligenz

KNN Künstliches Neuronales Netz

LCAI Leverhulme Center for the future of Intelligence

MIT Massachusetts Institute for Technology

NLP Natural Language Processing

OECD Organisation for Economic Co-operation and Development

PAI Partnership on AI

PC Personal Computer

RNN Recurrent Neural Networks

TPU Tensor Processing Unit

III Abbildungsverzeichnis

Abbildung 1: Technologielebenszyklus-Modelle

Abbildung 2: Gartner Hype Cycle for Emerging Technologies

Abbildung 3: Abgrenzung KI, ML und Deep Learning

Abbildung 4: Zeitliche Entwicklung Menschlicher zu Künstlicher Intelligenz

Abbildung 5: KI-Anwendungspotenziale nach Einsatzgebieten

Abbildung 6: Branchensortierung nach Datenarten

Abbildung 7: Werte, welche KI respektieren muss

Abbildung 8: Unternehmerische Wertschöpfungskette

IV Tabellenverzeichnis

Tabelle 1: Konzepte von Vertrauen

Tabelle 2: Kriterienkatalog zum Aufbau von Vertrauen in die KI-Technologie

Tabelle 3: Häufigkeitsverteilung der Untersuchungskriterien

Tabelle 4: Vergleich der Anforderungen ausgewählter Regierungen

Tabelle 5: Vergleich der Anforderungen ausgewählter Institutionen

Tabelle 6: Vergleich der Anforderungen ausgewählter Unternehmen

Tabelle 7: Kriteriennennung in ausgewählten Kriterienkatalogen

Tabelle 8: Kriterienkatalog zur Entwicklung vertrauenswürdiger KI

Tabelle 9: Branchenanforderungen für KI-Systeme

Tabelle 10: Suchkriterien für die Häufigkeitsanalyse (deutsch/englisch)

1 Einleitung

1.1 Problemstellung

Der technologische Fortschritt und die zunehmende Digitalisierung lassen auch das Thema „Künstliche Intelligenz“ (KI) vermehrt an Aufmerksamkeit gewinnen. Durch KI-Systeme entstehen neue Möglichkeiten zur sinnvollen Verarbeitung von unstrukturierten Informationen in Form von Daten. Anwendungen breiten sich in allen Wirtschafts- und Lebensbereichen aus und werden laut einer PWC-Studie in Deutschland bis 2030 einen prognostizierten Einfluss von 11,3% auf das Bruttoinlandsprodukt haben (vgl. Kirschniak 2018). Durch das hohe wirtschaftliche Potenzial und die zunehmende Dynamik des Wettbewerbs nimmt die Bedeutung von KI auch als zu berücksichtigende Technologie für das Management von Innovationen in Unternehmen zu. Große Technologieunternehmen, wie Google und IBM, haben bereits eine “AI-First“-Strategie ausgerufen (vgl. Mellya 2016). Die ersten Anwendungsmöglichkeiten haben die Produktivitätsstufe erreicht. Weitere stehen kurz davor (vgl. Gartner 2018, S. 5).

Der zentrale Nutzen von KI ergibt sich aus der Fähigkeit selbstständige Entscheidungen treffen zu können. Während der Mensch dabei auf Erfahrungen und Gefühle vertraut, setzen KI-Algorithmen bei ihren Entscheidungen im Wesentlichen auf Daten in Form von Zahlen, Text, Sprache und Bildern. Egal ob Handlungen von Bank-Transaktionen durch Social-Media-Live-Meldungen beeinflusst (Finanzindustrie), Fahrzeuge autonom fahren (Verkehr/Logistik), Informationen über MRT-Bilder automatisch ausgewertet (Gesundheit) oder Versicherungspolicen individuell berechnet werden sollen (Versicherungen), die Algorithmen verarbeiten Informationen und leiten Empfehlungen ab oder treffen sogar eigenständig Entscheidungen. Wie genau die Daten verarbeitet werden, wird durch den programmierten Algorithmus und die zum Anlernen verwendeten Eingabeinformationen beeinflusst (vgl. Siau/Wang 2018). Die Ergebnisse von KI-Systemen können menschliche Experten übertreffen (vgl. Heinrich 2018, S. 288). Die Art und Weise wie der Algorithmus die zur Verfügung gestellten Daten nutzt und interpretiert, laufen allerdings häufig in einer „Black Box“ ab und sind schwer nachvollziehbar (vgl. Holm 2019). Das wirft die Frage auf, wie sichergestellt werden kann, dass die Algorithmen nur zum Wohle der Allgemeinheit entwickelt und eingesetzt werden. Der KI-Forscher Toby Walsh stuft das Missbrauchspotenzial von KI als sehr hoch ein (vgl. Krichmayr 2018). Bereits heute greifen Algorithmen in Medien ein und manipulieren so den politischen Diskurs. Die Gesellschaft könnte sich weiter spalten, Reiche immer reicher werden und die Anzahl der Arbeitslosen steigen (vgl. Ebenda). Durch den hohen Einfluss der technologischen Entwicklung entsteht die Notwendigkeit die sozialen Folgen für die Gesellschaft in die Überlegungen aufzunehmen (vgl. Floridi et al. 2018). Vor diesem Hintergrund stellt sich die Frage nach Rahmenbedingungen für KI’s und dem Umgang mit dieser Technologie im Management von Innovationen.

Wenn die Auswirkungen aller möglichen Entscheidungsoptionen negativ sind, wird der Transfer der Entscheidung zu Maschinen als kritisch angesehen. In diesem Zusammenhang spricht man auch vom Trolley-Problem (vgl. Stubbe/Wessels/Zinke 2018, S. 241). Die Verantwortlichkeit und das Rollenverständnis zwischen Menschen und Maschinen muss für KI-Systeme geklärt werden. Damit stellt sich die ethische Frage, ob und wie autonome Entscheidungen von Maschinen grundsätzlich zustande kommen sollen (vgl. Ebenda). Sowohl Regierungen als auch Forschungseinrichtungen und private Unternehmen widmen sich diesem Thema. Die daraus resultierenden Regelwerke für KI-Entwicklungen listen i. d. R. branchenübergreifende Bestimmungen für Algorithmen auf. Da jeder Anwendungsfall individuell zu bewerten ist, fordern unter anderem Buyx, Fiske und Henningsen von der TU München dringend fachspezifische Richtlinien aufzubauen (vgl. Fiske/Henningsen/Buyx 2019). Möglich sind unterschiedliche Anforderungen für verschiedene Anwendungsfälle und Besonderheiten in verschiedenen Branchen.

Problematisch wird es, wenn bspw. Vorurteile in den Algorithmen berücksichtigt werden. So gab es bereits nachgewiesene Beispiele von KFZ-Leasing-Verträgen oder Versicherungen, welche sich von den Vornamen des Antragstellers beeinflussen ließen (vgl. Steinharter/Maisch 2018). Zur Vermeidung von solch diskriminierenden Entscheidungen fehlt es an klaren, evtl. branchenspezifischen, Regeln, welche über die Anforderungen der Datenschutzgrundverordnung (DSGVO) hinausgehen. Bei innovativen Startups wird der Einfluss der DSGVO bereits als sehr groß wahrgenommen und schränkt diese ein. Bestenfalls dürfen die Rahmenbedingungen also nicht zu einer Minderung der Innovationskraft führen (vgl. Kollmann 2018).

1.2 Zielstellung und Forschungsfrage

Wenn „intelligente“ Maschinen existieren, führt dies zu Veränderungen im Umgang mit Technologien. Der Science Fiction Autor Isaac Asimov war 1942 der erste, der Regeln für Roboter aufgestellt hat. So darf ein Roboter (1) keinen Menschen verletzen oder Hilfe unterlassen, (2) muss der Roboter den menschlichen Befehlen folgen, es sei denn die erste Regel wird dadurch gebrochen und (3) muss er seine eigene Existenz beschützen, solange dadurch nicht eine der ersten beiden Regeln gebrochen wird (vgl. Russell/Norvig 2010, S. 1038f).

Für KI-Systeme, auch unabhängig von Robotern, bestehen bisher keine global einheitlichen Rahmenbedingungen (vgl. AlgorithmWatch 2020_1). Die existierenden Studien und verwandten Arbeiten beschäftigen sich mit der grundsätzlichen Einstellung der Bevölkerung gegenüber KI, gesellschaftlichen Folgen sowie mit allgemeinen Rahmenbedingungen als notwendige, globale Kriterien aus Sicht von KI-Experten. Eine Übersicht über die Unterschiede und Gemeinsamkeiten in den Anforderungen der verschiedenen Institutionen und Unternehmen gibt es bisher nicht.

Weiter ist davon auszugehen, dass es unterschiedliche Anforderungen in unterschiedlichen Branchen gibt und eine Forschungslücke im Abgleich der allgemein definierten Kriterien existiert. Ziel der vorliegenden Arbeit ist es daher zunächst Rahmenbedingungen aus den verwandten Themenfeldern abzuleiten. Dabei konzentriert sich die Arbeit primär auf die technischen, philosophischen und naturwissenschaftlichen Zusammenhänge und erläutert die Strategien einzelner Akteuere. Die Betrachtung von allgemeinen politischen Rahmenbedingungen, die Veränderung der Arbeitswelt und der Einfluss von Religionen werden dabei ausgeschlossen.

Die Ergebnisse einer Dokumentenrecherche der diskutierten Anforderungen sollen in einer branchenspezifischen Untersuchung verglichen und synthetisiert werden. Die Kernfrage der Arbeit lautet:

Inwiefern bestehen branchenspezifisch unterschiedliche Anforderungen an die Rahmenbedingungen für innovative KI-Anwendungen?

Zur Beantwortung dieser Frage sollen zunächst folgende Unterfragen beantwortet werden, um sich der Kernfrage anzunähern:

I. Welche Kriterien haben einen signifikanten Einfluss auf die Entwicklung von KI-Systemen mit Entscheidungsmacht?
II. Welche Kriterien werden in den allgemeinen, regulatorischen Anforderungen im Zusammenhang mit KI-Anwendungen diskutiert?
III. Welche Einflussfaktoren beeinträchtigen das Vertrauen in KI?
IV. Für welche Kriterien müssen die Unternehmen der unterschiedlichen Branchen sensibilisiert werden?
V. Wie wichtig sind die diskutierten Rahmenbedingungen für die unterschiedlichen Branchen?
VI. Welche Chancen und Herausforderungen können für die sinnvolle Anwendung von KIs im Innovationskontext identifiziert werden?

1.3 Aufbau der Arbeit

Im Einleitungsteil werden die aktuellen Herausforderungen für Rahmenbedingungen in der Entwicklung von KI-Systemen identifiziert. Die Zielstellung wird beschrieben und die Forschungsfragen formuliert. Im zweiten Kapitel wird der zur Lösungsfindung verwendete, gestaltungsorientierte Forschungsansatz beschrieben.

Das dritte Kapitel widmet sich dem Innovations- und Technologiemanagement und schildert den Umgang mit technischen und geschäftsfeldbezogenen Innovationen in Unternehmen. Dabei wird das Management von datengetriebenen Prozessen und Produkten in einem dynamischen Umfeld analysiert und die Notwendigkeit von Innovationen diskutiert.

Im anschließenden Kapitel folgt eine Systematisierung theoretischer und begrifflicher Grundlagen, aufgeteilt in philosophische Grundauffassungen und technische Rahmenbedingungen. Hier werden insb. die Begrifflichkeiten Künstliche Intelligenz, die Abgrenzung zu verwandten Themengebieten, wie Machine- und Deep-Learning sowie Neuronale Netze und die mögliche Entwicklung aufgezeigt. Weiter folgt im fünften Kapitel eine kurze Status Quo Übersicht von KI-Entwicklungen in ausgewählten Branchen.

Das sechste Kapitel stellt die Forschungsstrategie mit einer Dokumentenanalyse dar. Das Kapitel beginnt mit einer Darstellung der Erkenntnisse aus verwandten Arbeiten und leitet damit eine Analyse bestehender Regelwerke für KI-Systeme ein. Im nächsten Schritt werden wichtige Kriterien aus der Theorie abgeleitet, ausgewählte Institutionen und Regelwerke abgeglichen und die Ergebnisse gegenübergestellt. Das Kapitel endet mit einer Zusammenfassung der Erkenntnisse in einem allgemeinen Kriterienkatalog.

Im siebten Kapitel werden die Ergebnisse der Untersuchung analysiert und Zusammenhänge zwischen Theorie und Praxis interpretiert. Dafür werden die zuvor beschriebenen Anwendungsfallbeispiele der unterschiedlichen Branchen diskutiert und miteinander verglichen. Anschließend erfolgt eine branchenspezifische Evaluierung des zuvor erarbeiteten Kriterienkatalogs. Diese werden diskutiert und in Handlungsempfehlungen formuliert. Dabei wird der Einfluss auf das Innovationspotenzial von Unternehmen kritisch hinterfragt.

Das letzte Kapitel schließt mit einem Fazit und einer Zusammenfassung der Forschungsergebnisse ab. Es werden Erkenntnisse herausgearbeitet und ein Ausblick auf mögliche Fragestellungen für zukünftige Forschungsfragen gegeben.

2 Methodisches Vorgehen

Für die empirische Forschungsarbeit wird in der vorliegenden Arbeit die von Hans-Peter Litz und Gerald Rosemann vorgeschlagene, zehnstufige Vorgehensweise angewendet (vgl. Röbken 2018, S. 10):

1. Entwicklung der Problemstellung
2. Theoretischer Rahmen
3. Konzeptionelle Phase
4. Operationalisierung
5. Auswahl der Untersuchungseinheit
6. Datenerhebung
7. Datenaufbereitung
8. Datenauswertung
9. Dateninterpretation
10. Publikation der Forschungsergebnisse

Die Problemstellung ist bereits im ersten Kapitel umfangreich beschrieben worden und setzt bei dem mangelhaften Überblick von KI-Rahmenbedingungen und der fehlenden Differenzierung zwischen unterschiedlichen Branchen an. Der theoretische Rahmen soll dem Leser ein Vorverständnis zur Thematik geben und beschreibt sowohl das Themenfeld des Innovationsmanagements, philosophische und naturwissenschaftliche Grundauffassungen, als auch technische Rahmenbedingungen im Zusammenhang mit KI. Er schließt ab mit einem Überblick über den Status Quo der KI-Entwicklung in unterschiedlichen Branchen.

Anschließend stellt sich die Frage nach dem methodischen Zugang zu den Forschungsfragen. Es besteht die Möglichkeit die Fragestellung qualitativ, quantitativ oder mit einer Mischform zu untersuchen. Da der Gesamtumfang der möglichen Antworten nicht oder noch nicht bekannt ist und die Antworten einen subjektiven Charakter haben können und interpretativ zu beantworten sind, bietet sich eine qualitative Forschungsrichtung an. Die Unterfragen der Forschung bauen teilweise aufeinander auf, sodass die qualitative Forschung in einem mehrstufigen Design durchgeführt wird. Die Datenerhebung, -auswertung und -aufbereitung der allgemeinen Kriterien mit signifikantem Einfluss auf die Entwicklung von KI-Systemen lassen sich bereits aus dem Theorieteil ableiten und führen zu einem ersten Kategoriensystem. Aufgrund der bereits existierenden Vielzahl an Kriterienkatalogen bietet sich zur Beantwortung der weiteren Forschungsfragen eine qualitative Inhaltsanalyse an (vgl. Häder 2010, S. 449f.).

Als relevante Untersuchungseinheit gelten alle Dokumente mit bestehenden Regelwerken, welche einen Kriterienkatalog definiert haben. Im nächsten Schritt werden dafür alle Dokumente deduktiv in einer Häufigkeitsanalyse auf die Existenz der aus dem Theorieteil abgeleiteten Kriterien des ersten Kategoriensystems geprüft. Dieser Schritt dient der Interpretation der Kriteriengüte sowie der weiteren Eingrenzung von zu untersuchenden Dokumenten auf eine übersichtliche Größe.

Die ausgewählten Kriterienkataloge werden anschließend qualitativ mit allen aus der Theorie abgeleiteten und über die Häufigkeitsanalyse verifizierten Kriterien verglichen. Ergänzende Punkte in den Katalogen werden gesondert aufgelistet. Die resultierenden Informationen werden in tabellarischer Form gegenübergestellt und interpretiert. Als Zwischenergebnis wird ein allgemeiner Kriterienkatalog mit regulatorischen Anforderungen im Zusammenhang mit KI-Anwendungen abgeleitet. Zur Beantwortung der übrigen Unterfragen werden die bereits erhobenen Ergebnisse in Verbindung zur Status Quo Betrachtung der unterschiedlichen Branchen aus dem Theorieteil gesetzt, ausgewertet und interpretiert. Mit der Abgabe der Arbeit erfolgt die Publikation der Forschungsergebnisse und damit der letzte Schritt des Litz-Rosemann-Modells.

Da die Arbeit auch einen Blick auf den Einfluss für Managemententscheidungen geben soll, wird für die Annäherung an das innovative Thema KI im folgenden Kapitel zunächst ein Überblick über Innovationen, Innovationsmanagement und Technologiemanagement geschaffen.

3 Innovations- und Technologiemanagement

3.1 Der Innovationsbegriff

Der Begriff „Innovation“ ist fest in der Umgangssprache verankert, wird aber unterschiedlich verstanden. Nur eine Idee zu haben ist noch keine Innovation. Der Ausdruck leitet sich aus den lateinischen Wörtern novus („neu“) und innovatio („etwas neu Geschaffenes“) ab. Eine Innovation ist nicht nur „neu“ sondern auch neuartig und weist einen erkennbaren Unterschied zu bisher bekannten Produkten und Lösungen in Qualität, Funktionalität oder Ablauf auf (vgl. Weis 2014, S. 37).

In die Wirtschaftswissenschaften eingeführt wurde der Begriff durch den Ökonomen Joseph A. Schumpeter. In seiner „Theorie der wirtschaftlichen Entwicklung“ aus dem Jahr 1911 erwähnt er den Begriff erstmals. Für ihn sind Innovationen die Durchsetzung neuer Kombinationen mit einem disruptiven Charakter (vgl. Schnaas 2017). Schumpeters Auffassung nach ist eine Innovation erst dann erreicht, wenn eine neue technische, marktliche oder organisatorische Lösung nicht nur erfunden, sondern auch durchgesetzt wurde (vgl. Hauschildt et al. 2016, S. 3f).

Unterschieden wird in der Literatur zwischen Inventionen, als Erfindung oder Entdeckung, Durchsetzung einer Neuerung sowie der Diffusion und Imitation, als Verbreitung einer Neuerung. Eine einheitliche Definition für den Begriff existiert nicht, da es verschiedene Dimensionen und Betrachtungsweisen gibt. Prof. Dr. Klaus Fichter definiert Innovation als die „…Entwicklung und Durchsetzung einer technischen, organisatorischen, geschäftsbezogenen, institutionellen oder sozialen Problemlösung, die als grundlegend neu wahrgenommen, von relevanten Anwendern akzeptiert und von Innovatoren in der Erwartung eines Erfolgs betrieben wird.“ (Fichter 2019, S. 15).

Innovationen unterscheiden sich in ihrem Charakter von kontinuierlicher Weiterentwicklung durch die hohe Dynamik und Sprunghaftigkeit. Die Durchsetzung einer Innovation stellt Innovatoren vor Herausforderungen. So zeigt auch der Umgang mit diesen im Management von Innovationen einige Besonderheiten.

3.2 Innovationsmanagement

Der zunehmende globale Wettbewerb zwingt Unternehmen dazu innovativer denn je zu sein. Es ist nicht mehr ausreichend nur über den Preis zu konkurrieren. Marktteilnehmer müssen sich mit neuen und aufregenden Ideen von der Masse abheben, um neue Kunden zu gewinnen und Wettbewerbsvorteile zu erreichen (vgl. Spellman/Ruth 2015, S. 145).

Dafür ist ein gewisses Innovationsbewusstsein bei den Entscheidern in Unternehmen notwendig. Das Management von Innovationen wird von Hauschildt et al. als stark unterschiedlich zum Management von Routineentscheidungen beschrieben. Aufgrund der aus Innovationen resultierenden Veränderungen wird einer innovativen Problemlösung eine andere Aufmerksamkeit und Akzeptanz im Unternehmen beigemessen, als einer nicht innovativen Lösung. Bei Innovationen gibt es daher i. d. R. auch größere Widerstände innerhalb des Unternehmens (vgl. Hauschildt et al. 2016, S. 25f). Das Innovationsmanagement geht über die Forschung und Entwicklung im Unternehmen hinaus und betrachtet zudem organisationale, institutionelle und soziale Durchsetzung von Innovationen im Betrieb und am Markt (vgl. Hauschildt et al. 2016, S. 68).

Für die Entwicklung von Innovationen innerhalb des Unternehmens gibt es verschiedene Strategien. Eine wichtige Facette im Innovationsmanagement ist die Unternehmenskultur. Entscheidet man sich für Innovationen, muss das Management als klare Botschaft kommunizieren, dass Innovationen in der Organisation geschätzt, gefördert und belohnt werden. Gleichzeitig muss der Belegschaft die Akzeptanz des Scheiterns glaubhaft verdeutlicht werden. Das kulturelle Umfeld muss es zulassen neue Ideen zu marktfähigen Produkten zu entwickeln. Der Faktor „Mensch“, also das Humankapital des Unternehmens, spielt eine entscheidende Rolle bei der erfolgreichen Umsetzung von Innovationen. Das Management hat die Aufgabe Innovationsbarrieren abzubauen (vgl. Spellman/Ruth 2015, S. 146).

Das Bekenntnis des Managements für Innovationen stärkt das Innovationspotenzial von Unternehmen. Im Promotorenmodell von Witte werden, neben dem Management als sog. Machtpromotor, auch Fach-, Prozess und Beziehungspromotoren als hilfreiche Unterstützer bei Innovationsprozessen genannt (vgl. Vahs/Burmester 2005, S. 341).

Neben dem zielgerichteten Einsatz des vorhandenen Humankapitals hat das Innovationsmanagement die Aufgabe eine Strategie für Investitionen von Realkapital im Zusammenhang mit Innovationen zu entwickeln. Neben Akquisitionen und Kooperationen als zwischenbetriebliche Innovationen gilt es eine Struktur mit klaren Zielen und Rahmenbedingungen aufzubauen, in welchen Grenzen sich die Innovatoren im Unternehmen bewegen können. Diese reichen von einem Ideenmanagement bis zu einem Intrapreneurship-Ansatz und bspw. einem Stage-Gate-Modell (vgl. Hauschildt et al. 2016, S. 85f & Szinovatz/Müller 2014, S. 96).

Das Innovationsmanagement umfasst zudem auch grundsätzliche Strategieentscheidungen. So kann sich das Management für eine von vier Markteintrittsstrategien oder auch bewusst gegen eigene Innovationen entscheiden. Bestimmt das Management als Vorreiter und Innovationsführer auf den Markt zu gehen, spricht man von einer „Pionierstrategie“. Diese können Markteintrittsbarrieren aufbauen und damit Vorteile vor später einsteigenden Marktteilnehmern haben. Kurz nach den Pionieren reihen sich die „Frühen Folger“ ein. Sie haben weniger Unsicherheit bei der Marktentwicklung und können auf dem aktuellen Stand der Technik aufbauen. Welche der beiden Strategien erfolgreicher ist hängt von Rahmenbedingungen, wie Unternehmensgröße, internes Know-How, Dynamik des Marktes und dem Innovationsgrad des Produktes ab. Als dritte Strategie bietet sich die „Imitation“ an. Imitatoren entscheiden sich bewusst für die Nachahmung einer bestehenden Innovation. Sie beobachten die Konkurrenz, nutzen weitgehend die gleichen Technologien und entwickeln schnell die entsprechenden Produkte. Die vierte Möglichkeit ist die „ Übernahme durch Innovationseinkauf und Lizenznahme“ (vgl. Hauschildt et al, S. 81ff).

Für die Wahl der richtigen Innovationsstrategie ist eine Auseinandersetzung mit dem Markt und mit möglichen Technologien unausweichlich. Da sich die vorliegende Arbeit mit der Technologie KI beschäftigt, wird im folgenden Kapitel das Technologiemanagement als Aufgabe des Unternehmens beschrieben.

3.3 Technologiemanagement

Während das Innovationsmanagement einen übergreifenden Blick auf die Erreichung von Wettbewerbsvorteilen durch Real- und Humankapital sowie der Nutzung von technologischem Wissen wirft, beschäftigt sich das Technologiemanagement mit dem resultierenden Potenzial und Strategien zum Umgang mit technologischem Fortschritt (vgl. Schuh 2011, S. 6). So kann das Technologiemanagement auch als Teil des Innovationsmanagements verstanden werden.

Mit Technologie wird das anwendungsorientierte Wissen über Wirkungszusammenhänge beschrieben, welche zur Lösung von technischen Problemen verwendet werden können. Die konkrete Ausgestaltung in Prozessen und Produkten wird als Technik bezeichnet (vgl. Klein 1998, S. 28). Durch die zunehmend schneller werdenden technologischen Entwicklungen, mit immer kürzeren Produktlebenszyklen, ist eine Strategie im Umgang mit neuen Technologien und neuer Technik ein entscheidender Faktor, um die Wettbewerbsfähigkeit zu erhalten. Das Management von Technologien gibt eine Struktur entlang des Lebenszyklus und betrachtet neben den technischen auch ökonomische, ökologische und soziale Einflüsse, welche aus dem Einsatz neuer Technologien resultieren (vgl. Schuh 2011, S. 15).

Im Zusammenhang mit Technologien existieren verschiedene Lebenszyklus-Modelle zur Beschreibung des Reifegrades von Technologien. Die meist diskutierten Modelle sind die Performance S-Curve (vgl. Fisher/Pry 1971), der Technology Adoption Curve (vgl. Beal/Bohlen, 1956, S. 115ff) und der Gartner Hype Cycle (vgl. Linden/Fenn 2003, S. 5). Die verschiedenen Lebenszyklus-Ansätze beschreiben den zeitlichen Verlauf von technologischen Entwicklungen von der Idee über die Vermarktung bis zur Sättigung des Marktes. Abbildung 1 zeigt den Zusammenhang dieser drei Lebenszyklusansätze:

Abbildung 1: Technologielebenszyklus-Modelle

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Linden/Fenn 2003, S. 6

Die Performance S-Curve beschreibt den zeitlichen Verlauf der Marktperformance einer Technologie. Zu einem bestimmten Zeitpunkt kommt es demnach bei technologischen Entwicklungen zu einem sog. „Take-Off“ innerhalb der Wachstumsphase, bei welchem das ansonsten lineare Wachstum für einen bestimmten Zeitraum exponentiell verläuft (vgl. Weis 2014. S. 51). Die Technology Adoption Curve beschreibt den Verlauf der Marktpenetration und damit die Akzeptanz neuer Technologien in der Gesellschaft. Die Verteilung verläuft dabei in einer Glockenkurven-Verteilung nach bestimmten psychografischen Profilen. Innovationen werden demnach erst von den ca. 2,5% der Innovatoren, dann von den ca. 13,5% frühen Anwendern (engl. Early Adopters) und anschließend von der ca. 34% starken frühen Mehrheit (engl. Early Majority) akzeptiert. Damit ist die Technologie bei der Hälfte der Gesellschaft angekommen. Anschließend folgen die ca. 34% der späten Mehrheit (engl. Late Majority) und zum Schluss die ca. 16% der Nachzügler (engl. Leggards) (vgl. Rogers 1983, S. 246). Die S-Curve stellt eine Kumulation der Adoption Curve im Zeitverlauf dar.

Das Hype Cycle Modell von Gartner setzt die Zeit ins Verhältnis zu den Erwartungen an die Technologie und spielt sich hauptsächlich vor der Marktreife ab. Eine Übersicht über den Reifegrad von Technologien liefert der „Hype Cycle for Emerging Technologies.“ Die amerikanische Beratung Gartner veröffentlicht jedes Jahr eine Übersicht von relevanten Technologien mit einer Bewertung über die aktuelle Lage in ihrem selbst entwickelten fünf-Phasen-Modell sowie einem Zeithorizont von maximal zehn Jahren, in welchem die Technologie die Marktreife erreicht. Die fünf Phasen starten mit dem Innovationsauslöser. In der zweiten Phase beginnt die rasante Entwicklung in einem positiven Hype, welcher überzogene Erwartungen auslöst. Phase drei ist geprägt von einem Absturz der Erwartungen in einem negativen Hype und damit einer Desillusionierung. In der vierten Phase erfährt die Technologie wieder einen langsamen Erwartungsanstieg und entwickelt ihr volles Potenzial bis zur Produktivität in der letzten Phase. Abbildung 2 zeigt das Modell des Jahres 2019:

Abbildung 2: Gartner Hype Cycle for Emerging Technologies 2019

Quelle: Gartner 2019

Abbildung in dieser Leseprobe nicht enthalten

In der Übersicht befinden sich diverse Technologien im Zusammenhang mit KI. So sind Technologien wie „Explainable AI“, „Flying Autonomous Vehicles“, „Edge AI“ und „AI Platform as a Service“ auf dem Weg zum Hype und „Autonomes Fahren, Level 4“ bereits auf dem Weg zur Desillusionierung.

Das folgende Kapitel beschäftigt sich mit den psychologischen, philosophischen, naturwissenschaftlichen und technischen Rahmenbedingungen für KI-Technologien, um eine Grundlage für die empirische Forschung zu schaffen.

4 Grundlagen der Künstlichen Intelligenz

4.1 Grundauffassungen

4.1.1 Intelligenz

Intelligenz entsteht laut aktueller Hirnforschung durch die Verknüpfung der verschiedenen Hirnregionen. In der Regel weisen Menschen mit besser verknüpften Strukturen einen höheren Intelligenzquotienten (IQ) auf (vgl. Gaschler 2014). Im Zusammenhang mit „Intelligenz“ werden Begriffe wie „geistige Fähigkeit, „mentale Fähigkeit“ oder „intellektuelle Begabung“ genannt. Weiter wird die kognitive Leistungsfähigkeit und kognitive Ausdifferenzierung von Lebewesen erwähnt. Diese werden beeinflusst von der Anlage bzw. den Genen und der Umwelt, in welcher das Individuum lebt (vgl. Zentall 2011). Intelligenz unterscheidet sich auf der visuellen, sprachlichen, rationalen und emotionalen Ebene. Die visuelle Intelligenz befähigt Lebewesen dazu Muster zu erkennen, zu analysieren und zu bewerten. Die sprachliche Intelligenz ermöglicht es zu kommunizieren, die rationale Intelligenz sich Wissen anzueignen und die emotionale Intelligenz zu reflektieren und situativ individuell zu handeln (vgl. Bosley/Kasten 2018, S. 42).

Da eine Vielzahl verschiedener Definitionen für den Begriff „Intelligenz“ existieren, sind Intelligenzforscher sich bis heute nicht über eine globale Definition einig. Bereits im Jahr 1923 suchte Boring einen Ausweg, indem er den Begriff mit der Definition „Intelligenz ist, was ein Test misst“ formulierte (vgl. Jenkins/Paterson 1961, S. 210). Andere Definitionen aus dem vergangenen Jahrzehnt lauten: „Fähigkeit […], sich schnell und flexibel an neue Gegebenheiten der Umwelt anzupassen und diese zu verändern sowie Neues zu lernen.“ (Kray/Schäfer 2012, S. 221) oder etwas umfangreicher „Eine sehr allgemeine geistige Kapazität, die – unter anderem – die Fähigkeit zum schlussfolgernden Denken, zum Planen, zur Problemlösung, zum abstrakten Denken, zum Verständnis komplexer Ideen, zum schnellen Lernen und zum Lernen aus Erfahrung umfasst. Es ist nicht reines Bücherwissen, keine enge akademische Spezialbegabung, keine Testerfahrung. Vielmehr reflektiert Intelligenz ein breiteres und tieferes Vermögen, unsere Umwelt zu verstehen, „zu kapieren“, „Sinn in Dingen zu erkennen“ oder herauszubekommen, was zu tun ist.“ (Gottfredson 1997, S.13).

Das Konzept der Intelligenz genießt seit vielen Jahren eine hohe öffentliche Aufmerksamkeit und durch die Einführung des IQ im Jahr 1912 wurde eine Möglichkeit geschaffen die Leistungsfähigkeit mess- und vergleichbar zu machen. Aus dem schwer greifbaren Begriff wird durch den IQ eine scheinbar exakte Messgröße für sprachliche und visuelle Intelligenz (vgl. Bergmann 2016, S. 119f.).

In den vergangenen Jahren erfährt auch der 1990 von Salovey und Mayer entwickelte Begriff „emotionale Intelligenz“ ein stark wachsendes Interesse in der anwendungsorientierten Psychologieforschung (vgl. Mayer/Salovey 1990, S. 189). Anders als bei der klassischen, kognitiven Intelligenz beschreibt diese Form die Fähigkeit die eignenen Emotionen zu reflektieren und situativ anzupassen. Es geht also darum die eigenen Emotionen bewusst wahrzunehmen, zu verstehen und anderen gegenüber ausdrücken zu können. Gerade in der immer digitaler werdenen Welt scheinen Eigenschaften wie Empathie und soziale Kompetenz zunehmend an Bedeutung zu gewinnen und wichtige Kernkompetenzen für die Arbeitswelt der Zukunft darzustellen (vgl. Gölzner/Meyer 2018, S. 29).

In diesem Zusammenhang stellt sich auch die Frage, ob für Intelligenz ein Gehirn notwendig ist. Für Kognitionswissenschaftler laufen im menschlichen Gehirn nur Algorithmen ab, welche theoretisch auch über eine Software abgebildet werden könnten. Die „Wetware“ in Form des organischen Gehirns könnte demnach in Zukunft durch eine „Hardware“ ersetzt werden (vgl. Langton 1996, S. 54f). In diesem Kontext soll im nächsten Kapitel der Begriff des Bewusstseins beschrieben werden.

4.1.2 Bewusstsein

Der Begriff „Bewusstsein“ ist in der Forschung nicht eindeutig abgegrenzt und wird in der Philosophie und den Naturwissenschaften unterschiedlich verstanden und erklärt. Thematisch verbunden sind Begriffe wie „Geist“, „Gewissheit“, „Verstand“ und „Willensfreiheit“. Auch ist der Sitz eines Bewusstseins aus neurologischer Sicht nicht eindeutig geklärt wodurch die Existenz, Art und Funktion angezweifelt werden.

Für den Professor für Theoretische Philosophie, Thomas Metzinger, zeichnet sich die Existenz eines Bewusstseins durch die Tatsache Dinge erleben zu können aus (vgl. Metzinger 2019). Seiner Auffassung nach setzt sich das Bewusstsein aus verschiedenen Bestandteilen zusammen. Die wichtigsten drei sind das Vorhandensein eines einheitlichen Weltmodels, in welchem sich gehörte, gesehene und gefühlte Erlebnisse zusammenfügen, zweitens ein gemeinsames Verständnis der Gegenwart und drittens die Existenz einer Wirklichkeit, in welcher Dinge unmittelbar erfahren werden. Durch diese Komponenten erscheint Tieren und Menschen eine erlebbare Welt (vgl. Ebenda).

Neben diesem philosophischen Ansatz gibt es in der Wissenschaft verschiedene Erklärungsversuche aus den Bereichen Neurologie und Naturwissenschaften. Diese versuchen das Bewusstsein durch kausale Zusammenhänge und Subjekt-Objekt-Beziehungen zu erklären. Demnach müssen alle Ereignisse durch vorausgehende, determinierende Faktoren bestimmt werden können. Zufällige, spontane Entwicklungen sind mit dem Naturwissenschaftsverständnis nicht vereinbar. Die Idee, der menschliche Wille ließe sich nicht auf eindeutig messbare Vorgänge im Gehirn zurückführen, passt nicht in diese Gedankenwelt. Der amerikanische Kognitionswissenschafttler Daniel Dennett geht davon aus, dass sich das Bewusstsein durch Neuro- und Kognitionswissenschaften in der Zukunft vollständig erklären lässt, da jeder Bewusstseinsprozess an einen neurologischen Prozess gekoppelt ist. Das Bewusstsein ist demnach ein ähnliches physikalisches und biologisches Phänomen wie der Stoffwechsel und die Reproduktionsfähigkeit (vgl. Dennett 2007, S. 37 & S. 72).

Ob eine Handlung bewusst oder unbewusst ausgeführt wird, hat einen fließenden Übergang und kann nicht eindeutig identifiziert werden. Durch Routine werden bewusste zu unbewussten Handlungen. Psychologen beschäftigen sich schon lange mit der Frage, wann Menschen bewusst oder unbewusst handeln. So wurde vielfältig untersucht, wann sich das Bewusstsein einschaltet. Unser Körper reagiert z. B. bewusst auf Hunger, Kälte und Schmerz, sobald eine individuelle Schwelle überschritten wird. Bis zu dieser Schwelle handelt das vegetative Nervensystem unbewusst. Auch die unbewusst wahrgenommenen Erlebnisse können einen Einfluss auf das Verhalten und die Entscheidungen von Menschen haben (vgl. Kara, S. 2018, S. 31f). Unbewusste Handlungen werden auch als intuitiv bezeichnet. So ging man lange davon aus, dass bestimmte Informationen und Intuitionen nicht greifbar sind und damit die Übersetzung für eine Maschine unmöglich sei. Diese Informationen werden auch als implizites Wissen (engl. Tacit Knowledge) oder Bauchgefühl bezeichnet. Der Philosoph Michael Polanyi beschrieb diesen Widerspruch mit der Aussage „Wir wissen mehr als wir sagen können!“. Der Widerspruch wird als „Polanyi Paradox“ bezeichnet und ist in der Entwicklung von KI von Bedeutung (vgl. McAfee/Brynjolfsson 2017, S. 3). Als Beispiel galt das stark von Intuition und Instinkt geprägte Spiel „Go“ lange Zeit als zu komplex für Software. Go-Spieler sagen sie würden Spielzüge nach „Bauchgefühl“ auswählen. Die Anzahl der möglichen Spielpositionen beträgt 2170 im Vergleich zu Schach mit 1043 (Faktor 150 Mio. mehr). Seit 2017 ist bewiesen, dass auch diese Informationen von KI’s erlernt und angewendet werden können. Googles KI AlphaGo bezwang den Weltmeister mit 3:0 (vgl. Burkert 2017).

Als besondere Form des Bewusstseins gilt das Selbstbewusstsein, also die erlebbare Form des Selbstbildes, welche sich zum Großteil im Kindesalter von null bis vier Jahren prägt. Beschrieben wird es als das Erlebnis eine Daseinsberechtigung für sich zu erkennen, ohne Rücksicht auf das äußerliche Erscheinungsbild oder materielle Werte. So steht das Selbstbewusstsein nicht in Verbindung zu anderen Individuen und wird als eine Art Kommandozentrale aus dem Inneren des Körpers beschrieben (vgl. Juul 2003, S. 7). Es stellt sich in diesem Zusammenhang die Frage, ob nur Lebewesen ein Bewusstsein haben können, bzw. sich selbst bewusst sein können, oder ob dies auch von künstlichen neuronalen Netzen (KNN) möglich ist. Wie auch beim menschlichen Gehirn können durch gezieltes Training komplexe Situationen angelernt und durch neuronale Vernetzungen immer komplexere Reaktionen erzeugt werden. Ob Maschinen dann zur Selbstreflexion in der Lage sind und eine eigene Identität entwickeln ist bisher nicht zu erwarten. Auch wird ein Algorithmus aus heutiger Sicht keine Informationen unbewusst verdrängen, wie es menschliche Gehirne aus Schutz tun (vgl. Grimm et al. 2019, S. 158).

Im engen Zusammenhang mit dem Bewusstsein und bewussten Entscheidungen steht das Vertrauen, welches im folgenden Kapitel näher beschrieben wird.

4.1.3 Vertrauen

Die Voraussetzung zur Bildung von Vertrauen sind Ehrlichkeit und Zuverlässigkeit. Dies gilt sowohl im privaten als auch beruflichen Kontext. Als ehrlich wahrgenommene Mitarbeiter bekommen daher auch mehr Verantwortung (vgl. Bosley/Kasten 2018, S. 94). Aus Erfahrungen mit Individuen entwickelt sich ein Anerkennungsverhältnis, über welches sich vertraute, selbstbewusste, begründete Urteile als Grundlage für Entscheidungen und Handlungen bilden (vgl. Abdelhamid 2018, S. 17).

Die Summe der Erfahrungen eines Menschen leiten ihn zur individuellen Wahrnehmung seiner Umwelt. Vertrauen ist eine stark subjektive Einschätzung in die Richtigkeit von Handlungen oder Aussagen von Interaktionspartnern. Eine Auswahl unterschiedlicher Definitionen des Vertrauensbegriffs zeigt Tabelle 1:

Tabelle 1: Konzepte von Vertrauen

Abbildung in dieser Leseprobe nicht enthalten

Quelle: in Anlehnung an Gefen et al. 2003

Ob eine Vertrauensbeziehung vorliegt, hängt den verschiedenen Definitionen nach stark von den Erfahrungen, der Sozialisierung, der Persönlichkeitsstruktur und dem Wissen der Vertrauenspartner ab. Es gibt unterschiedliche Theorien aus den Bereichen der Ökonomie, Soziologie, Politologie und Psychologie.

Vertrauen wird als primärer Grund für Akzeptanz angesehen und beeinflusst Beziehungen zwischen Individuen sowie den Aufbau des Gefühls von Sicherheit entscheidend. Sowohl bei Sozialbeziehungen, Geschäftsbeziehungen, Käufer-Verkäufer-Beziehungen, als auch der Beziehung zu Technologien ist Vertrauen eine wichtige Grundlage. Dabei wird zwischen Vertrauen aus Überzeugung, als Resultat aus Wohlwollen, Kompetenz und Integrität sowie Vertrauen aus der Erwartung zur richtigen Handlung eines anderen Individuums in einer riskanten Situation, unterschieden (vgl. Siau/Wang 2018, S. 47).

Zum Aufbau von Vertrauen sind einheitliche, ethische Werteelemente in Systemen hilfreich. Batneck et al. beschreiben in diesem Zusammenhang die Nicht-Nachteiligkeit, Vorteilhaftigkeit, Autonomie, Gerechtigkeit und Erklärbarkeit für bestimmte Handlungen. Hält sich ein Interaktionspartner an die eigenen Erwartungen, kann sich Vertrauen entwickeln (vgl. Bartneck et al. 2019, S. 40ff).

Die Philosophin Abdelhamid beschreibt zwei weitere grundsätzlich unterschiedliche Sichtweisen auf den Begriff des Vertrauens. Zum einen gibt es das Vertrauen als Trigger für Handlungen, welche sich in zwischenmenschlichen Beziehungen auf einer rationalen Argumentationsebene abspielen, zum anderen wird Vertrauen beschrieben im ökonomischen Entscheidungsverhalten zur Begründung bzw. Legitimation eine bestimmte Alternative als vertrauenswürdiger zu bewerten als eine andere (Abdelhamid, M. I. 2018, S. 73).

Menschliches Vertrauen resultiert aus den Erfahrungen mit Anderen. Wenn man z. B. mit einem Flugzeug fliegt, vertraut man dem Piloten, da man gelernt hat, sich in der „unsicheren“ Situation des Fliegens auf ihn verlassen zu können. Für die Interaktion mit KI müssen diese Erfahrungen erst gemacht werden. Für eine hohe Benutzerakzeptanz ist das Vertrauen in die Technologie sehr wichtig, denn Menschen werden es vermeiden Systeme zu nutzen, welchen sie nicht vertrauen (vgl. Bartneck et al. 2019, S. 38). In diesem Zusammenhang werden auch die qualitative Zuverlässigkeit sowie die Robustheit als technische Zuverlässigkeit des Algorithmus gegenüber Angriffen von außen als relevant erachtet. Wenn, wie im eben beschriebenen Beispiel, eine KI einen Piloten ersetzt, darf diese nicht angreifbar sein.

Zur Messbarkeit von Selbst- und Fremdvertrauen gibt es verschiedene Ansätze. Für die Messung des Fremdvertrauens hat Butler ein Skalensystem mit zehn Kategorien zur Voraussetzung von Vertrauen entworfen (Wunderer 2004, S. 462):

- Konsistenz und Vorhersehbarkeit
- Erfüllung von Versprechen
- Faires Verhalten
- Loyales und wohlmeinendes Verhalten
- Ehrlich und integer
- Diskret und verschwiegen
- Für Ideen ansprechbar
- Offener Meinungsaustausch
- Fach- und Sachkompetenz
- Ist da, wenn er/sie gebraucht wird

Die Gesellschaft der führenden PR- und Kommunikationsagenturen (GPRA) hat 2009 den „Vertrauensindex“ zur Messung des Vertrauens in deutschen Unternehmen eingeführt. Bei der vierteljährlichen Messung werden folgende Bewertungskategorien verwendet (Divisi 2014):

- Umgang mit Kunden
- Umgang mit Mitarbeitern
- Ehrlichkeit der Unternehmensaussagen
- Kompetenz und Qualität
- Übernahme gesellschaftlicher Verantwortung

Wie beim Bewusstsein gibt es auch beim Vertrauen eine Form der Selbstwahrnehmung. Die Begriffe Selbstvertrauen und Selbstbewusstsein werden im allgemeinen Sprachgebrauch oft synonym verwendet. Der Begriff Selbstbewusstsein steht in Verbindung zu „was wir sind“, während das Selbstvertrauen, beschreibt „was wir machen oder können“. So ist es möglich ein hohes Selbstvertrauen und gleichzeitig ein geringes Selbstbewusstsein zu haben (vgl. Juul 2003, S. 5).

Durch Intelligenz, Bewusstsein und Vertrauen interagieren Menschen und andere Lebewesen mit ihrer erlebbaren und erfahrenen Umwelt. Die geistigen Fähigkeiten, das Wissen und die Erfahrungen sind auch für Entscheidungen relevant, welche im folgenden Kapitel näher beschrieben werden.

4.1.4 Entscheidungstheorie

Die Psychologieforschung beschäftigt sich schon lange mit der Frage, warum sich Menschen für eine bestimmte Alternative entscheiden. In diesem Zusammenhang wird von Entscheidungstheorien, Spieltheorie, Heuristiken und Nutzenfunktion gesprochen.

Bei der Entscheidungsfindung wird davon ausgegangen, dass die Entscheidung grundsätzlich „frei“ getroffen und die Handlungen nicht von außen beeinflusst werden. Julian Nida-Rümelin beschreibt die wesentlichen Charakteristika von Entscheidungen als das Resultat einer Abwägung bei welcher es mehrere Optionen gibt, zwischen welchen „frei“ entschieden wird und sich nach der Entscheidung in einer Handlung äußert (vgl. Nida-Rümelin, 2005, S. 45).

Entscheidungen werden allerdings häufig durch vorher unbekannte Faktoren beeinflusst. Für viele Entscheidungen können Wahrscheinlichkeiten von möglichen Konsequenzen prognostiziert werden. Bei einer neuen Entscheidung werden dann die tatsächlichen Konsequenzen retrospektiv als Grundlage für neue rationale Entscheidungen verwendet (vgl. Nida-Rümelin, 2005, S. 115). Alltagsentscheidungen werden durch Heuristiken, wie z. B. eigene Moral- und Wertevorstellungen, beeinflusst und finden zwischen einer bewussten und unbewussten Ebene statt. Heuristiken führen mit einem geringen Informationsgrad, also begrenztem Wissen und Zeit, zu einer vertretbaren Lösung. Die Intuition eines Menschen beruht auf Erfahrungswerten und dem daraus resultierenden Vertrauen. In einem vertrauten Umfeld handelt man dadurch eher intuitiv und beruft sich auf sein assoziiertes Wissen (vgl. Betsch et al. 2011, S. 44).

In der Neurowissenschaft spricht man bei aus Erfahrungen und Erlebnissen resultierenden Handlungen von sog. somatischen Markern, welche sich im präfrontalen Cortex des Gehirns befinden sollen. Der Theorie nach werden emotionale Erfahrungen des Menschen physisch gespeichert und das Gehirn sendet, in Situationen welche schon einmal ähnlich erlebt wurden, Informationen für bestimmte Entscheidungen (vgl. Kara 2018, S. 32). Intuitionen und Instinkte können allerdings auch irreführend sein bei der Suche nach der bestmöglichen Entscheidung. In der Entscheidungstheorie wird daher auch untersucht, welche psychologischen Faktoren Menschen bei Entscheidungen von der „vernünftigen“ Entscheidung abhalten. Vorurteile können z. B. dazu verleiten bestimmte Entscheidungen zu treffen. Menschen suchen nach Bestätigungsfehlern (engl. confirmation bias), welche ihre vorurteilbehafteten Meinungen durch Fakten stützen. Wenn es keine Fakten gibt, werden diese teilweise sogar geschafffen, wie in aktuellen Debatten über „Alternative Fakten“ deutlich wird. Informationen, welche konträr zur eigenen Meinung sind, werden in den gleichen Diskussionen als „Fake News“ betitelt (vgl. Spohr 2017, S. 150).

Während bei menschlichen Entscheidungen viele Einflussfaktoren zu einem unterschiedlichen Ergebnis führen können, ist dies bei Computerprogrammen bisher nachvollziehbarer, denn sie entscheiden nicht von Grund auf selbst, sondern werden von Menschen beeinflusst, von denen sie programmiert werden. Die Rahmenbedingungen, nach welchen Entwickler handeln, spielen daher eine entscheidende Rolle. In einer Zeit mit einer sehr großen Informationsflut wird ein reflektierter Umgang mit Meinungen für jeden besonders wichtig. Entscheidungen sollten immer mehr hinterfragt werden (vgl. Dräger/Müller-Eiselt 2019). Man spricht dabei auch von algorithmischen Prozessen zur Entscheidungsfindung (engl. algorithmic decision making, ADM). Dies führt auch zur Frage nach Ethik und einem einheitlichen Wertesystem, welches im folgenden Kapitel beschrieben wird.

[...]

Fin de l'extrait de 93 pages

Résumé des informations

Titre
Künstliche Intelligenz. Der Einfluss regulativer Rahmenbedingungen auf das Innovationspotenzial
Sous-titre
Eine branchenübergreifende Untersuchung
Université
Carl von Ossietzky University of Oldenburg
Note
2,0
Auteur
Année
2020
Pages
93
N° de catalogue
V1128274
ISBN (ebook)
9783346488756
ISBN (Livre)
9783346488763
Langue
allemand
Mots clés
Ethik, KI, AI, Künstliche Intelligenz, Machine Learning, Neural Network, Deep Learning
Citation du texte
Moritz Winkel (Auteur), 2020, Künstliche Intelligenz. Der Einfluss regulativer Rahmenbedingungen auf das Innovationspotenzial, Munich, GRIN Verlag, https://www.grin.com/document/1128274

Commentaires

  • Pas encore de commentaires.
Lire l'ebook
Titre: Künstliche Intelligenz. Der Einfluss regulativer Rahmenbedingungen auf das Innovationspotenzial



Télécharger textes

Votre devoir / mémoire:

- Publication en tant qu'eBook et livre
- Honoraires élevés sur les ventes
- Pour vous complètement gratuit - avec ISBN
- Cela dure que 5 minutes
- Chaque œuvre trouve des lecteurs

Devenir un auteur