Leseprobe
Inhaltsverzeichnis
Abkürzungsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
1.1 Einleitung
1.2 Motivation bzgl. der Themenwahl
1.3 Problemstellung
1.4 Zielsetzung des Kompendiums und Leitfragen
1.5 Übersicht über die Arbeit
2.1 Potenziale und Restriktionen der künstlichen Intelligenz
2.1.1 Künstliche Intelligenz, Explikation und Stand der Gegenwart (IoT)
2.1.2 Künstliche Neuronale Netze als Grundlage für Künstliche Intelligenz
2.1.3 Maschinelles Lernen und Mustererkennung durch C. Computing
2.1.4 Verschiedene Architekturen von neuronalen Netzen (Deep learning)
2.1.5 Die Rasante Entwicklung von AI und ihre aktuellen Einsatzfelder
2.1.6 Ethik und Moral für die Künstliche Intelligenz
2.2 Kryptographie und AI in der Informationssicherheit resp. Cyber Security
2.2.1 Daten und Informationen sind zumeist vernachlässigte Vermögens- Werte/ Rechte
2.2.2 Entwicklungen im Markt der Informationssicherheit resp. Cybersecurity
2.2.3 Zunehmende Gefährdungslage im Cyberspace mit teils neuen Techniken
2.2.4 Die Relevanz von Kryptografischen Verfahren im Historischen Kontext
2.2.5 Sicherheitsziele, Arten und Funktionsweisen von Kryptografischen Verfahren
2.2.6 Das RSA-Verschlüsselungsverfahren als Standard der asymmetrischen Verfahren
2.2.7 Die Rolle der AI in der Cybersecurity und der globalen Ordnung
2.2.8 Meist genutzte AI Angriffs- und Verteidigungsstrategien in der AI-Security
2.2.9 Herausforderungen einer zeitgemäßen Cybersecurity
2.3 Einführung in die Quantenphysik und das Quantencomputing
2.3.1.1 Unterschiede der klassischen hin zur neuen Physik
2.3.1.2 Die Urväter der Quantenphysik und ihre wesentlichen Beiträge
2.3.1.3 Neumanns Postulate der Quantensysteme
2.3.2 Funktionsweise von Quantencomputern und Qubits
2.3.3 Potenzialträchtige Quantencomputer-Architekturen
2.3.4 Weiterentwicklungpotenzialbehafteter Quantencomputer-Architekturen
2.3.5 Potenziale und Restriktionen der Quantencomputertechnologie
2.3.6 Quanten Gitter zur Verbindung von Logischen und Physikalischen Qubits
2.3.7 Empfehlenswerte Programmiersprachen für Quanten Development
2.3.8 Quanten Teleportation als Grundlage der Quantentelekommunikation
2.3.9.1 Algorithmen zur Dechiffrierung von asymmetrischen Verfahren
2.3.9.2 Big Data 2.0 mittels Grover Algorithmus
2.4 Spezielle Anwendungsgebiete der Quantentechnologie
2.4.1 Revolution der Narrow-AIhin zur GAI/SAIdurch Quanten machine-learning
2.4.2 Konstruktion von abhörsicheren Anwendungen mittels Quantenkryptographie
2.4.3 Die Auswirkungen von Quantencomputer auf Blockchain Technologien
2.4.4 Integration von Quantentechnologie in die Satellitentechnik für Quanteninternet
2.4.5 Anforderungen einer Quantencomputer-made-in-Germany und EU-Strategie
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
Abbildungsverzeichnis
1. Abb. Leistungsbestandteile der Künstlichen Intelligenz. Quelle: Kreutzer, R. T. Sirrenberg, M. (2019), 1. Kap. 1. Abs
2. Abb. Trendanalyse von avancierten Suchbegriffen des gewählten Themenbereiches. Quelle: eigene Darstellung nach Google Trends (2021) 1. Kap. 1. Abs
3. Abb. a) Neuron als b) Schaltelement mit Aktionspotenzial (Perceptron). Quelle: Spitzer, M. (1997) S. 23
4. Abb. Minimales KNN mit einer versteckten Ebene. Quelle: Weber, F. (2020), 2. Ka. 1.5. Abs
5. Abb. Regressions und Klassifikations Graphen. Quelle: Kirste, M. Schürholz, M. (2019), S. 27
6. Abb. Clustering durch k-means-Algorithmus. Quelle: Kirste, M. Schürholz, M. (2019), S. 29
7. Abb. Der Digitale Scheideweg. Quelle: Helbing, D. Frey, B. S. Gigerenzer, G. et al. (2015), 8. Kap. 1. Abs
8. Abb. Breaches i am Pwned in. Quelle: Eigene Darstellung in Anlehnung an Have i been pwned (2021), 1. Kap. 1. Abs
9. Abb. Betroffene Unternehmen nach Betriebsgrößenklasse. Quelle: Bitkom (2002), S. 8
10. Abb. Visualisierung der symmetrischen Verschlüsselung einer Nachricht. Quelle: Schwenk, J. (2020), 2. Kap. 2. Abs
11. Abb. Visualisierung der asymmetrischen bzw. Public-Key-Verschlüsselung als Einwurf einer Nachricht in einen Briefkasten. Quelle: Schwenk, J. (2020), 2. Kap. 2. Abs
12. Abb. Beweisskizze zur Korrektheit der Entschlüsselung im RSA- Verfahren. Quelle: Schenk, J. (2020), 2. Kap. 4.1. Abs
13. Abb. How AI is Transforming the Threat Landscape. Quelle: Schmidt, E. Work, R. et al. (2021), S. 45
14. Abb. Echtzeit Beispiel eines Manipulierten Stop Schildes. Quelle: Gu, T. Liu, K. Dolan- Gavitt, B. Garg, S. (2019), 8. Fig
15. Abb. Vergleich der Information zwischen Bit und Qubit: Ein Bit befindet sich immer in genau einem der Zustände 0 oder 1, während ein Qubit auch einen Zustand annehmen kann, der aus einer Überlagerung beider Werte resultiert. Quelle: Bauckhage, C. Brito, E. Daase, I. (2020), S. 12
16. Abb. Evolution der Hauptplattformen des Quantencomputing. Quelle: BSI (c). (2020), S. 25; BSI (d). (2018), S. 24
17. Abb. Auflistung der Quantencomputerarchitekturen und Konzerne. Quelle: Martonosi, M. Roetteler, M. (2018), S.12
18. Abb. Lineare Ionenfalle. Quelle: Böltau, M. (1999), S. 43
19. Abb. Chronologische Entwicklungsplanung der IBM Prozessoren. Quelle: IBM Think Summit (2019)
20. Abb. Fähigkeiten, Anwendung und Branchen resp. Beispiele möglicher Anwendungsfelder von Quantencomputing. Quelle: Bauckhage, C. Brito, E. Daase, I. (2020), S. 35-36
21. Abb. Darstellung der eines Schaltkreises für die Quantenteleportation. Quelle: Eigene Darstellung in Anlehnung an: Bernhardt, C. (2019), S. 132-133; IBM Quantum Composer (2021), 1. Kap. 1. Abs
22. Abb. Vergleich der klassischen Suche des Grover-Algorithmus in einer unsortierten Datenbank. Quelle: Bauckhage, C. Brito, E. Daase, I. (2020), S. 28
23. Abb. Vier neue Kombinationsmöglichkeiten für das Zusammenwirken von klassischen und quantenmechanischen Daten und Algorithmen. Quelle: Bauckhage, C. Brito, E. Daase, I. (2020), S. 26
24. Abb. AI-Architekturen/Algorithmen und Methoden des Quantum Computings. Quelle: Bauckhage, C. Brito, E. Daase, I. (2020), S. 32
25. Abb. Ablauf des BB84- Protokolls in fünf Schritten innerhalb von drei Phasen. Quelle: Humboldt Universität zu Berlin (2016), S. 7
26. Abb. Übermittlung eines Quanten-Schlüssels von n Länge. Quelle: Schmidt, M. (2003), S. 8
27. Abb. Zufällige Messung der Quanten Polarisation. Quelle: Schmidt, M. (2003), S. 8
28. Abb. Top 5 der Kryptografischen Währungen nach ihrer Marktkapitalisierung. Quelle: CoinMarketCap (2021), 1. Kap. 1. Abs 124 29. Abb. Zwei Angriffspfade auf den privaten ECDSA-Signaturschlüssel. Quelle: BSI (f). (2019), S. 38
Tabellenverzeichnis
1. Tab. Verschiedene Arten des Maschinellen Lernens Quelle: Weber, F. (2020), 2. Kap. 1. 4. Abs.; Craglia, M. (2018), S. 20- 21
2. Tab. Einsatzfelder der Künstlichen Intelligenz Quelle: Eigene Darstellung
3. Tab. Der Digitale Scheideweg (1). Quelle: Helbing, D. Frey, B. S. Gigerenzer, G. et al. (2015), 8. Kap. 6. Abs
4. Tab. Der Digitale Scheideweg (2). Quelle: Helbing, D. Frey, B. S. Gigerenzer, G. et al. (2015), 9. Kap. 3. Abs
5. Tab. OWASP Top 10 Kritischsten Sicherheitsrisiken für Webanwendungen. Quelle: Eigene Darstellung in Anlehnung an OWAP (2017), S. 8-17
6. Tab. Verfahren nach Sicherheitsniveau und Bits. Quelle: [BSI] (b). (2020), S. 15
7. Tab. Gefährdungstaxonomie der ENISA Quelle: Eigene Darstellung in Anlehnung an Malatras, A. Dede, G. (2020), S. 27-29
8. Tab. Grundlegende F-RCNN und Bad Net Treffgenauigkeit (in %) für saubere und Manipulierte Bilder, versehen mit mehreren Triggern bei einer Einzelziel Attacke. Quelle: Gu, T. Liu, K. Dolan-Gavitt, B. Garg, S. (2019), 4. Tab
9. Tab. Wesentliche Beiträge zur Quantenmechanik. Quelle: Eigene Darstellung in Anlehnung an Akama, (2015), S. 7- 16; Anton, C. Ranade, K. S. (2015), S. 9
10. Tab. Sicherheit von Kryptografischen Verfahren. Quelle: Funny, W. (2017), S. 14
11. Tab. Gruppen Quanten Resistenter Public Key Mechanismen. Quelle: Eigene Darstellung in Anlehnung an Funny (2017), S. 14; BSI (e). (2020), S. 5
12. Tab. Wiederholung zu priorisierenden Eckdaten der Blockchain-Technologie Quelle: BSI (f). (2019), S. 14-75
13. Tab. Ausgewählte Förderprogramme zur Quantentechnologie-Forschung. Quelle: Bauckhage, C. Brito, E. Daase, I. (2020), S. 9
14. Tab. Von dem National Science and Technology Council Subcommittee on Quantum Information Science priorisierte Entwicklungsfelder. Quelle: THE WHITE HOUSE NATIONAL QUANTUM COORDINATION OFFICE (2020), S. 3
15. Tab. Kurzfristige Forschungsschwerpunkte des Quantum Flagship Programm Initiative der EU 0 bis 5 Jahre. Quelle: Eigene Darstellung in Anlehnung an Quantum Flagship (2016), S. 17
16. Tab. Mittelfristige Forschungsschwerpunkte des Quantum Flagship Programm Initiative der EU 5 bis 10 Jahre. Quelle: Eigene Darstellung in Anlehnung an Quantum Flagship (2016), S. 17
17. Tab. Mittelfristige Forschungsschwerpunkte des Quantum Flagship Programm Initiative der EU 5 bis 10 Jahre. Quelle: Eigene Darstellung in Anlehnung an Quantum Flagship (2016), S. 17
1.1 Einleitung
1.2 Motivation bzgl. der Themenwahl
Meine Motivation Bezüglich der Themenwahl ist zunächst intrinsisch begründet und fundiert auf meinem großen Interesse Rund um das Verständnis von Artificial Intelligence und anderen sich hierfür als nützlich herauskristallisierenden Technologien. Die Quantenphysik und das auf den Gesetzen der Natur einhergehende Quanten Computing- stellten für mich schon lange attraktive Thematiken dar- nicht nur weil diese derzeit einen weiteren industriellen Wandel hervorrufen, welchen ich gerne bis ins Detail verstehen möchte- sondern weil ich meiner Natur her ein sehr neugieriger Mensch bin. Es ist immer interessant zu sehen, wenn sich wissenschaftliche Disziplinen Kreuzen. Meine Bestrebung ist es ein Fundament für meine weitere wissenschaftliche Laufbahn zu kreieren, welche sich auf mehrere (MINT) Fächer erweitern wird. Diese Arbeit legt den Grundstein für tieferes Verständnis unter welchem Anwendungsbezug die Technologie effizient- in die sich derzeit rapide verändernden Wirtschaftskreislaufsysteme zu integrieren sind. Der Anwendungsbezogene Teil zur Programmierung über Cloud- Plattformen wie IBM- über die neue Programmiersprache Qiskit über die Brandneuen Fraunhofer Prozessoren wird wahrscheinlich leider nur am Rande Erwähnung finden und stellt genug Stoff für eine Masterthesis mit Methodenteil für sich selbst dar. Dennoch geht es mir darum eine Interessante Lektüre für Technologie affinen Inventors und in der Cybersecurity beschäftigte zu kreieren, um deren Verstand für die sich andeutenden disruptive Potenziale zu schärfen. Die von mir aufgegriffenen Thematiken, werden in den kommenden Jahrzehnten wohl das wirtschaftliche und gesellschaftliche miteinander ausschlaggebend mitbestimmen. Mein gesamtes bisheriges Studium war eine Vorbereitung darauf, dass ich jetzt über das schreiben kann, was mir wirklich am Herzen liegt.
1.3 Problemstellung
Unserer Gesellschaft steht ein globaler Umbruch bevor, welcher seiner Dynamik und Reichweite nach mit großen historischen Geschehnissen vergangener Epochen zu vergleichen ist. Hervorgerufen durch Ereignisse, wie etwa der Beginn des Industriezeitalters (1.0) zu Beginn des 19 Jahrhundert- und seiner Bedeutung nicht weniger wichtig zu nehmen ist als die nachfolgenden anderen drei Epochen der Entwicklung besagter wirtschaftlichen Neuzeit. Wichtig zu verstehen ist, dass sich technologischer Fortschritt nicht linear, wie das menschliche Denken- also geradenförmig (y=mx+b), sondern nunmehr exponentiell (xA2) vollzieht.1 Das Resultat besteht darin, dass die wenigsten Menschen dazu fähig sind, sich ein akkurates Bild von Besagtem zu imaginieren, um die tatsächliche Geschwindigkeit und die Diversität der Erscheinungsformen zu verstehen- mit welcher sich dieser im alltäglichen sozioökonomischen miteinander implementiert.2 Diese Disposition des nicht Wissens wäre unter psychologischen Aspekten mit dem Begriff begrenzten Rationalität zu assoziieren, wohingegen durch den Begriff des Ereignishorizont, welcher aus der Physik (Relativitätstheorie) stammt- und im Kern eine Grenzfläche in der Raumzeit, bestehend aus geografischen Koordinaten des Längen- und Breitengrades, sowie der genauen Uhrzeit meint, eher dafür geeignet scheint eine Beziehung zur Digitalisierung der Gesellschaft zu knüpfen.3 Für einen solchen digitalen Ereignishorizont gilt, dass Ereignisse jenseits dieser Grenze nichtmehr sichtbar für Beobachter zu be- bzw. umschrieben sind, eher dafür geeignet ist um das sich andeutende Dilemma zu beschreiben so Mutschler.4 Diesbezüglich besteht eine enge Verbindung zum von Kurzweil geprägten Begriff der Singularität, worunter kein fester Zeitpunkt zu versteht ist, sondern ein Prozess, welcher sich bis zur vollständigen Implikation eines 6-stufigen Phasenmusters bedient. Die Singularität ist aber mehr als Eine Grenze in der Raumzeit, wenn einmal erreicht nicht zu Durchschauen. Einige Forscher sehen diese als Narrativ- hin zu dem, was ein menschlicher Verstand maximal in der Lage ist sich zu imaginieren (Kreativität) und zu Verstehen (Intellekt). Nun sind gewiss nicht alle Menschen gleich „intelligent“ und die Tatsache, dass es verschiedene Modelle dieses Konstrukt zu eruieren gibt- Bsp. IQ (Spearman, Cattell etc.), EQ (Coleman) uvm.- hilft uns zwar eine gültige Norm zu bestimmen um Menschen, die keine Psychologie studiert haben, einen gewissen Leitfaden zu geben, um sich im gesellschaftlichen Miteinander zurecht zu finden. Dennoch steht die Menschheit gerade vor einer Barriere, welche all diese Konstrukte von richtig und falsch, links oder rechts, arm oder reich, intelligent oder selbiges Gegenteil in Frage stellt. Die Barriere ist dadurch definiert, dass eine Maschine den Turing Test besteht.5 Benannt nach Alan Turing (das Gesicht auf dem 50 Pfund schein- zu diesem Herren Unten mehr)- definiert dieser Test- die Grenze hin zu einer Maschine, welche so intelligent ist, dass sie in einer Konversation mit mindestens drei Teilnehmern- nicht mehr von einem eingeweihten Versuchsleiter (dem menschlichen Konterpart) zu unterscheiden ist.6 Der Grundgedanke hinter dieser Annahme ist, dass eine Maschine, welche schlau genug ist einem Menschen glaubhaft zu machen sie selbst sei ein Mensch (Persönlichkeit, Komplexe Kognitionen, Empathie..)- auch schlau genug ist sich selbst zu reproduzieren. Anders als bei Menschen dauert dieser Vorgang im Schnitt nicht neun Monate, sondern kann je nach relativer Abhängigkeit zur Größe des Zielsystems und der Übertragungsgeschwindigkeit binnen Stunden oder Minuten geschehen. Wobei die theoretisch erreichbare Transport- und Reisegeschwindigkeit dieser Entitäten sich im Bereich der Lichtgeschwindigkeit (299.792.458 m/s) bewegt. Angenommen der menschliche Konterpart bekommt diesen Vorgang der Selbstreproduktion- genau wie die Täuschung im Gespräch nicht mit- kann dies unerwartete, vielleicht sogar Kataklastische Folgen nach sich ziehen (richtig schlechte vibes). Alan Turing, welcher oft als der Vater der Künstlichen Intelligenz bezeichnet wird und darüber hinaus im zweiten Weltkrieg durch das Entschlüsseln der von der Deutschen U-Boot Waffe unter Flottenadmiral Karl Dönitz und dem NS Regime als nicht dechiffrierbar propagierten Enigma, wesentlich zum positiven Kriegsausgang für die Alleierte beitrug, fand bereits 1951 deutliche Worte für besagtes Ereignis- „It seems probable that once the machine thinking method had started, it would not take long to outstripe our feeble powers. They would be able to converse with each other to sharpen their wits. At some stage therefore, we should have to expect the machines to take control.“7 Deshalb ist es wichtig- den Aktuellen Stand der Technologischen Entwicklungen zu verstehen und auf dem Laufenden zu bleiben, was Schutz-wie Schulungsmaßnahmen bedarf, um die menschliche Spezies mit den Maschinen in einer Lebensfördernden Symbiose wachsen zu lassen (kritischer-Quantum und AI-Goodwill). Wann der Turing Test von einer Maschine bestanden wird und die Exponentialfunktion der Technologischen Entwicklung zu einer die X- Achse schneidenden Geraden wird, ist sicherlich nicht mehr weit entfernt Bsp. generative pretrained transformer (GPT3) - wenn diese nicht schon erreicht ist- was einige neuzeitliche Phänomene erklären würde, wie etwa das Auseinanderdriften der analog gelebten Wirklichkeit und den viral bestehenden Identitäten. Es ist darauf zu verweisen, dass sich die Menschheit derzeit in der fünfter der Sechs Etappen von Kurzweils Evolutionsmodel nähert, welche durch die Meisterung der biomedizinischen Interventionen durch die Entschlüsselung und Kontrolle über das menschliche Genom definiert gekennzeichnet ist.8 In dieser Thesis geht es jedoch in erster Linie nicht um die Debatte, ob dieser Zustand als erreicht oder nicht erreicht gilt, sondern um das Gerät, welches mit Hilfe der (AI) artificial intelligence und des maschinellem lernen, besagten Zustand wohl früher als später herbeiführen wird. Denn eigentlich sind Quantencomputer genau das. Unglaublich Leistungsstarke Rechenmaschinen, welche sich anders als ihre 1956 entwickelten (Konterparts basierend auf (Transistoren Halbleiter Technologie die sog. von Neumann Architekturen) - den Mechanismen des Universums (Quantenmechanischen Prinzipien) um somit sog. Quanten Bits gezielt zu Steuern. Und sehr spezielle Rechenaufgaben schon jetzt mit einem sehr effizienten Kosten-Nutzenverhältnis betreiben.
1.4 Zielsetzung des Kompendiums und Leitfragen
Die Arbeit bildet eine Brücke resp. Schnittstelle zwischen dem Fachgebiet der Wirtschaftspsychologie und jener der angewandten Computerwissenschaften im Bereich der Informationssicherheit resp. Cybersecurity- worunter seit neuestem auch AI und Quantenphysikalische Systeme zählen-womit explizit das (Quantencomputing) gemeint ist. Der Themenschwerpunkt forciert die Funktionsweise angeführter Technologien- sowie die Explikation in ausgewählten Anwendungsbereichen der Artificial Intelligence und Quantentechnologien. Das Buch erörtert das State of the Art Wissen- der Führenden IT-Dienstleister und Forschungsinstitute und spricht im Fazit Handlungsempfehlungen für Praxisbezogene Quanten Projekte hinsichtlich ihrer Notwendigkeit auf Grundlage des erarbeiten Wissens aus. Der Sinn und Zweck der Explikation von Quanten Projekten, ist diese in einem für den Industriellen Zweig der Informationsdienstleistungen praktisch nutzbaren narrativ abzubilden. Im Rahmen dieser Ausarbeitung ergeben sich somit die Implikationen von vier Zielstellungen, welche trotz teilweiser Konvergenz jeweils differenziert, voneinander zu eruieren sind.
(I). Erörterung von Grundlegendem Wissen im Bereich der AI und des damit einhergehenden Maschinellem Lernen und der Neuronalen Netzwerke. Bezug schaffen zur Psychologie (Neurologie, Cognitive Computing). Berücksichtigung von verschiedenen Arten des Maschinellen Lernen.
- Was ist AI? Wie wirken Künstliche Neuronale Netze? In welchen Bereichen ist diese Dominant. Welche Implikationen sind diesbezüglich zu erwarten. (Trennung von Realität und Fiktion). Eruierung von ethisch- Gesellschaftlichen Implikationen.
(II). Informationssicherheit (Cybersecurity)^ Erörterung von Daten im Kontext von Rechtlichen Konventionen und deren Gefährdungslage, sowie weitere Entwicklungen im Kontext des Cyberspace. Was sind die gültigen Standards (AES, RSA) von Kryptografischen Verfahren, weshalb sind diese Relevant und wie funktionieren diese Berücksichtigung der Sicherheitsziele.
- Wie hilft AI dabei die kryptografischen Verfahren (Informationssicherheit) zu gewährleisten? (Anwendungsgebiet in der Cyber-Security) - Rolle in der Globalen Ordnung.
- Welches Angriffs und Verteidigungsmöglichkeiten bestehen in der sog. AI- Security.
- Implikation der gesammelten Erkenntnisse für die Konzeption von Herausforderungen einer zeitgemäßen Cybersecurity.
(III). Vermittlung der Grundlage der Quantenmechanik. Wie funktionieren Quantencomputer und welchen physikalischen Gesetzen bedienen sich diese. Ausführung der (Hardware und Software-Komponenten). Was ist mit Post Quantum Kryptografie gemeint? Funktionsweise und Innovationspotenzial.
- Differenzierung der klassischen hin zur neuen Physik und Erwähnung wesentlicher Forscher und deren wesentlichen Beiträge.
- Was ist Quanten Computing- Gesetzmäßigkeiten (Quantenphysik, Physik, Superposition etc. Historischer Abriss)? Welche Potenziale und Restriktionen liegen in dieser Technologie?
- Beschreibung verschiedener Quantencomputer- Architekturen (Hybride zukünftige Konstruktionen) Potenziale- Restriktionen.
- Anführung der Wichtigsten Quantenbasierten Algorithmen (Shor, Grover, etc.)
- Erklärung des Kosten-Nutzen Dilemmas der Halbleiter Transistoren Technologie.
- Wie wirkt sich die Quantenrevolution auf Bestehende Technologien aus. Evaluation bestehender Netzwerke und deren Sicherheit.
(IV). Vermittlung industriebezogener Innovationspotenziale und Evaluation von strategischen Aspekten im Geopolitischen Kontext. USA/EU/DE.
- Welche Branchen sind von den Technologischen Innovationen besonders betroffen, wie gestaltet fördern solche Branchen ggf. ihre Resilienz gibt es mittlerweile Verbände?
- Wie können die Potenziale optimal branchenspezifisch gefördert werden?
- Wo können sich Unternehmen ausgiebig zur Thematik der Quantenrevolution beraten lassen? Wie lange noch bis die Daten unsicher sind.
1.5 Übersicht über die Arbeit
Das Kompendium fundiert auf den Methoden des Kritischen Rationalismus. Eine intensive Literaturrecherche bildet das Fundament dieses Buches, welche somit als Literaturarbeit zu verstehen ist. Sinn ist es somit den aktuellen Stand eines bestimmten Forschungsgebietes zu erarbeiten (Literaturüberblick) und vereinzelt tiefere Einblicke zu gewähren, sowie aus diesen Ansätzen zur Beantwortung der unter 1.2 Ziele und Leitfragen aufgeworfenen Fragestellungen abzuleiten resp. diese chronologisch akkurat zu beantworten. Hierdurch wird ein besseres und umfangreiches Verständnis des Betrachteten Forschungsstandes ermöglicht bzw. der die Innovationen sowie neue Betrachtungsweisen fördert. Die inhaltlichen und Branchenbezogenen Komponenten der Kompendium- sind die Themengebiete zu welcher mich mein Selbststudium auf Wirtschschaftspsychologischer Basis und meine Intuition führten. Um die oben angeführten Fragen den wissenschaftlichen Gütekriterien angemessen zu beantworten sind Studien von Verschiedensten Staatlichen Bundesämter und privaten Organisationen, jedoch auch privaten Personen umfänglich berücksichtigt. Zu Beginn wird die Frage beantwortet, was AI denn eigentlich ist wie diese Algorithmen funktionieren, jedoch auch welche Potenziale die hierunter zu verstehenden (Narrow-AI) -Algorithmen derzeit in der Lage sind zu akquirieren. Das Anwendungsspektrum und das damit einhergehende Maschinelle lernen wird mit der Schwerpunktsetzung zur Hilfe der Generierung von Daten und Informationssicherheit (Kryptografie) und des weiteren Einsatzes im Bereich von Quantencomputersystemen angeführt. Hierfür wird dem Lesenden ein Einblick zur Differenzierung der Physik in klassisch und Modern gewährt gem. i. die Vermittlung von Grundlegenden Physikalischen Wissen- dies ist ein kurzer und notwendiger Abriss, um das spätere Verständnis hinsichtlich der Funktionsweise eines Quantencomputers zu vereinfachen. Die Funktionsweise und Architektur eines Quantencomputers ausgiebig zu beschreiben- scheint mir solange notwendig, wie die Ausführung dem höheren Ziel dient, durch besagte Technologie entstehenden Auswirkungen- branchenspezifisch zu differenzieren. Denn hierauf fundiert die eigentliche Aufgabe der Thesis- (welche Ereignisse Treten wann ein?)
2.1 Potenziale und Restriktionen der künstlichen Intelligenz
2.1.1 Künstliche Intelligenz, Explikation und Stand der Gegenwart (IoT)
Wenige wissenschaftliche Themen bekommen auch außerhalb ihres eigentlichen Fachbereiches so viel Aufmerksamkeit wie das derzeitige Forschungsfeld der Künstlichen Intelligenz für sich beansprucht. Buxmann und Schmidt verweisen darauf, dass der Begriff der Künstlichen Intelligenz in der Forschung aus zweierlei Gründen- bisher keine einheitliche Normierung erfuhr. Erstens subsumieren sich immer mehr wissenschaftliche Fachrichtungen unter diesem Begriff, was die Breite des zu definierenden Begriffes einer umsichtigen Berücksichtigung der jeweiligen Fachspezifischen Notationen bedingt und zweitens, impliziert der Begriff der Intelligenz ja eigentlich- Psychologische Domäne, was nicht weiterhilft, da im Laufe der Zeit unzählige Modelle entstanden sind - es gibt nicht das eine Intelligenz Modell.9 Eine Grundlegende Differenzierung welche sich die Leistungsstärke besagter Systeme für eine Differenzierung zunutze macht- geht auf Searle zurück. Durch ihn kam es zur Unterscheidung in die Lager (weak) und (strong), schwache AI-Systeme kennzeichnen sich demnach dadurch, dass sie darauf limitiert sind, eine einzige eng definierte Aufgabe zu bewältigen. Unter besagtes Lager fallen die meisten heute in der Praxis anzutreffenden AI.10 In einem Akademischen Sinne sind diese noch weiter zu differenzieren, dazu unten mehr. Konträr zu der schwachen AI, umschreibt Searl starke AI folgend „The appropriately programmed computer with the right inputs and outputs would thereby have a mind in exactly the same sense human beings have minds“. Nach Kaufmann und Servatius dient der Begriff der Artificial Intelligence somit als Oberbegriff unter welchem jeweils- differenziert zu betrachtende Technologien, die bereits in den 1950er-Jahren entwickelt wurden, angeführt werden. Die bekanntesten hierunter geführten Technologien sind nach ihnen folgende. „Statistical Machine Learning, Deep Learning, Rule-Based Expert Systems, Natural Language Processing (NLP), Physical Robots und Robotic Process Automation.11 Jede dieser Technologien hat ihr eigenes Praxisbezogenes Anwendungsgebiet, wobei sich die Thesis vor allem auf die Bereiche der Neuronalen Netzwerke, das Maschinelle Lernen und auf das Deep-Learning forciert, da diese didaktisch als grundlegend gelten. Die von Kreutzer und Sirrenberg erstellte 1. Abb. dient als Grundlage um die Systematischen Zusammenhänge und den Aufbau von AI zu verstehen und hält uns im Folgenden als chronologischer Leitfaden her.
Abbildung in dieser Leseprobe nicht enthalten
1. Abb. Leistungsbestandteile der Künstlichen Intelligenz. Quelle: Kreutzer, R. T. Sirrenberg, M. (2019), 1. Kap. 1. Abs.
Sucht der Forschende in Google Trends, einem mittlerweile anerkannten Tool für Datenwissenschaftler und Marketeers zum Zwecke einer Trendanalyse nach dem Begriff (Artificial intelligence) und vergleicht besagten Begriff mit anderen Technologien (machine learning, Deep learning etc.) fällt ihm, wenn er das Diagramm holistisch seit dem Jahr 2004 bis jetzt ins Jahr 2021 betrachtet, direkt ins Auge, dass die einzelnen Begriffe teils heftigen Schwankungen unterliegen. So ist der Begriff der Artificial Intelligence (AI), nicht zum ersten Mal dabei einen Wert über 70 zu erreichen, wohingegen sich jener des Maschinellem Lernens, von einem einzigen Nischendasein, im Jahr 2004 (25) hin zu einer der Haupt Domänen, der unter dem Begriff der Künstlichen Intelligent kurz (AI) geführten Synonyme entwickelt hat (80-100). Ebenfalls an dieser Stelle festzuhalten ist der niedrige Wert, welcher das Quantencomputing generiert, dieser hält sich seit dem Jahr 2004 bis in die Gegenwart konstant zwischen (0-1). Und dies obwohl von diesem in den nächsten Jahren die größten technologischen Innovationen zu erwarten sind. Wissenschaftlich relevant und Mainstream sind zwei Paar Schuhe.
Abbildung in dieser Leseprobe nicht enthalten
2. Abb. Trendanalyse von avancierten Suchbegriffen des gewählten Themenbereiches.
Quelle: eigene Darstellung nach Google Trends (2021)
McCorduck führt an „AI began with an ancient wish to forge the gods.“12 Und genau das passiert derzeit- einige Wissenschaftler vorwiegend aus dem Bereich Big Tech, Big Pharma und Big Government gehören einer in der Szene als unheilig bezeichneten Allianz an- welche es zum Sinn hat den Technologischen Fortschritt um jeden Preisvoranzutreiben, hierfür findet unter angeführten Branchen ein durch Regierungen nicht mehr, oder nur bedingt regulierter Informationsaustausch statt. Sprich, diese sind von dem exponentiell verlaufenden Technologischem Fortschritt im Sinne der adäquaten Regulierung zunehmend überfordert, was das bestehende Machtmonopol in Richtung der privaten Technologieunternehmen verschiebt und Politische Würdenträger absehbar zu den Herolden dieser degradiert.13 Befürchtungen einer solchen Entwicklung sind nichts neues und wurde bereits in einem Executive Summary des Department of Defence, sowie Chiefs of Staff als inländische Bedrohung aufgefasst.14 Die jüngsten Entwicklungen in Kombination mit den oben von McCorduck angeführten Aussage- erinnern stark an die von Goethe geschriebene Ballade der Zauberlehrling. „Hat der alte Hexenmeister sich doch einmal wegbegeben! Und nun sollen seine Geister auch nach meinem Willen Leben. Seine Wort und Werke merkt ich und den Brauch, und mit Geistesstärke tu ich Wunder auch. Walle! Walle Manche Strecke, daß, zum Zwecke, Wasser fließe und mit reichem, vollem Schwalle zu dem Bade sich ergieße.“15 Um es vorweg zu nehmen, der Treiberder Digitalisierung und der Entwicklungen im Bereich der Künstlichen Intelligenz sind Daten-wohlgemerkt sehr viele, immer komplexer werdende Daten.16 Neben diesen führt Berkley an, dass ebenso die Entwicklung von skalierbaren Computersystemen, sowie deren rasche Ausbreitung und allgemeine Verfügbarkeit für diesen Anstieg und Differenzierung an AI- Systemen verantwortlich ist.17 Doug Laney führte 2000 sein 3-V- Modell ein, in welchem er Big Data durch die Determinanten Volume (Masse) gemeint ist hiermit das Sammeln von Daten aus diversen Quellen und anschließender Verwahren dieser auf Speicherplattformen wie Data Lakes und Backend Speicherprogrammen wie Hadoop meint. Velocity (Geschwindigkeit), welche mit IoT einhergeht und die Zeitnahe Verarbeitung (in-time) von riesigen Datenströmen umfasst und Variety (Vielfalt) diese bezieht sich auf die Kompatibilität, welche durch die unterschiedlichsten Formate, Bsp. Strukturierte- und numerische Daten aus strukturierten Datenbanken resp. unstrukturierten Textdokumenten wie z.B. Textdokumente, E-Mails, Videos, etc. stammen beschreibt.18 Nach Red Hat umschreibt der Begriff Internet of Things (IoT) einen kontinuierlichen Trend, welcher sich darin äußert, beliebige physische Objekte mit dem Internet zu verbinden, worunter nicht nur Geräte fallen, von denen dies zu erwarten wäre. Gemeint ist jedes elektronische Gerät vom Kühlschrank über den Staubsauger- bis hin zur intelligenten Stadt (smart City). Im weitesten Sinne bezieht sich dies also aufjedes System bestehend aus einem physischen System, welches es ermöglicht Daten über kabellose Netzwerk- ohne das Eingreifen eines Menschen zu senden resp. zu empfangen.19 Es ist darauf zu verweisen, dass sich das IoT am besten, in einem mittlerweile 8-stufigem Multilayer-Modell erklärt. Die oben angeführten Beispiele, bilden dabei lediglich die erste (1. Perception-Ebene) besagter 8-Stufen. Gemeint sind damit die Objekte und deren Datenaufnahme- mittels Sensorik und Aktorik. Ebene (2. Connectivity) bezieht sich auf die Anschlussfähigkeit der Modelle, wobei die verwendete Netzwerktechnologien und deren Kommunikation berücksichtigt werden. (3. Edge) meint die Lokale Datenspeicherung und Verarbeitung, worunter auch das Edge Computing zu verstehen ist. (4. Data Storage) beschäftigt sich mit der Speicherung von großen Datenmengen, hierfür werden die Technologien Big Data und Cloud Computing akquiriert. (5. Data Abstraction) meint die Zusammenfassende Datenverarbeitung von Datenströmen, Aggregation und Vorverarbeitung, nicht selten greifen hier AI-Systeme. (6. Application) bezieht sich auf mobile und stationäre Anwendungen, welche durch Zugriff auf die unteren Ebenen, wo diverse Apps und Analysen Laufen, welche einen gewissen Aussagegehalt über die Kundenspezifische Nutzung ermöglichen. (7. Collaboration und Processes) meint die Integration von betrieblichen Prozessen, welche die Wartung, Instandhaltung, Service, Qualitätsprüfung und Produktion meinen, was dieser zu einer Schnittstelle für API-Technologien macht. Die letzte ebene (8. BusinessModel) ist weniger technologisch, als wirtschaftlich orientiert. Sie beschreibt die fundamentalen Bausteine, welche ein IoT-Geschäftsmodell, für eine gelungene Implikation in den Wirtschaftskreislauf zu beinhalten hat, Bsp. Wertversprechen, Schlüsselprozesse, Strategische Partner, Kostenstruktur und zu erwartende Umsatzströme- letztens ist es eben diese Ebene, welche über den monetären Erfolg eines IoT Systems entscheidet, so Kaufmann und Servatius.20
2.1.2 Künstliche Neuronale Netze als Grundlage für Künstliche Intelligenz
Künstliche Neuronale Netzwerke (KNN) fundieren nach Weber, als Grundlage der meisten Innovationen im Bereich der AI und des Maschinellen Lernens, Bsp. selbstfahrende Autos, Chatbots wie Siri oder komplexeren Interaktionspartnern wie Gpt3. Er führt weiter an, dass KNN als eine Reihe von Algorithmen zu bezeichnen sind, welche lose nach dem Vorbild des menschlichen Gehirns emulieren, wobei ihre grundsätzliche Funktion darin besteht, Muster zu erkennen. Dafür interpretieren sie sensorische Daten mittels maschineller Wahrnehmung, Beschriftung oder Clustering von Rohdaten.21 Unter einem Algorithmus verstehen wir nach Kreutzer und Sirrenberg eine programmierte Anweisung, welche die eingegebenen Daten in vordefinierter Form verarbeitet und zur Ausgabe von darauf basierenden Ergebnissen führt.22 Ein besonderes Merkmal von KNN ist nach Kreutzer und Sirrenberg, dass Informationen in den Netzen nicht über lineare Funktionen verarbeitet werden, sondern eine Parallele Verarbeitung stattfindet- was es ermöglicht sehr komplexe lineare Abhängigkeiten einer Ursprungsfunktionen abzubilden. Als entscheidendes Faktum bezeichnen sie den Umstand, dass KNN diese Abhängigkeiten selbständig erlernen, dazu unten mehr.23 Der Prozess der Nachbildung kognitiver Fähigkeiten und Funktionsweisen des Menschen, wozu auch dessen Verstand gehört- in technische Systeme, sowie die Nutzung besagter Systeme in soziotechnischen Prozessen, wird als Cognitive Computing bezeichnet.24 Nach Bitkom (dem deutschen Digitalverband) definieren sich Kognitive Systeme durch zu folgende Kernmerkmale.
1. Lernfähigkeit bei verändertem Umfeld (Adaptivität). 2. Die komfortable Interaktion mit Nutzern (Interaktivität). 3. Die Präzision von Zielen und Problemen (Iterativität). sowie 4. Das Verständnis für die reale und virtuelle Umgebung einer Situation (Kontextualität).25 Spitzer bezeichnet Neuronale Netzwerke (NN) als mathematische Konstruktionen informationsverarbeitender Systeme, welche aus einer großen Anzahl sehr einfacher Einheiten zusammengesetzt sind. Die Grundbausteine nennt er (biologische) Neuronen. Die Verarbeitung von Informationen vollzieht sich in KNN, wie auch in biologischen Neuronalen Netzwerken, welche als Archetyp ersterer fungieren, durch die Aktivierung resp. Hemmung beanspruchter Neuronen. Das Menschliche Gehirn besteht aus ca.1010 Neuronen, welche nach von der Hude, mal mehr und mal weniger stark miteinander verbunden sind. Jedes einzelne dieser Neuronen weist Strukturelle Merkmale für Inputs und Outputs auf.26 Wobei ein Neuron in der Praxis mal mehr mal weniger Inputs aufweist so Nielsen27. Bei dem Vorgang der Informationsverarbeitung ist dem Begriff des Aktionspotenzials eine gewisse Priorität zu gewähren. Gemeint ist hiermit, dass die Aktivierung eines Neurons in Abhängigkeit verschiedener Faktoren bsph. die Stärke der einlaufenden Signale, der Beschaffenheit des gewählten Inputs und der Stärke der Synaptischen Verbindung dependiert. Eben genannte, ergeben ein sog. Synaptisches Gewicht (weight, w), welches an jeder einzelnen Synapse in Form eines Zahlenwertes repräsentiert ist. Dieser nimmt entweder positive- oder negativen numerische Werte an und entscheidet in der Folge, ob es zu einer Aktivierung, bedingt durch die bereits an der Eingangsseite summierte Gewichtung der Gewichte (w) und den an der Ausgangsseite zu erreichendem Schwellenwert kommt, bzw. dieser überschritten wird, was die Neuronen zum Feuern bewegt, oder ob dieser nicht erreicht wird, was die Neuronen in Untätigkeit verweilen lässt.28
Abbildung in dieser Leseprobe nicht enthalten
3. Abb. a) Neuron als b) Schaltelement mit Aktionspotenzial (Perceptron). Quelle: Spitzer, M. (1997) S. 23
Weber verweist darauf, dass mit jedem Neuron eines KNN drei Dinge passieren. 1 wird jede Eingabe mit einem Gewicht multipliziert, dh. (x1 -> x1 * w1 bzw. x2 -> x2*w2). Ist dies erledigt, folgt die Addition aller gewichteten Eingänge mit dem sog. bias (b), worunter eine Verzerrung zu verstehen ist, (x1 * w1) + (x2 * w2) + b. Zuletzt ist die Summe durch eine Aktivierungsfunktion zu leiten, welche verwendet wird, um einen unbegrenzten Eingang in einen Ausgang zu verwandeln, der eine vorhersehbare Form behält y = f(x1 *w1) + (x2 * w2) + b. Eine der häufigsten verwendeten Aktivierungsfunktionen ist die Sigmoid-Funktion, welche Werte im Bereich von (0, und 1) liefert. Wobei 0 als „nicht feuern“ und 1 als „feuern“ zu verstehen ist. Gleichzeitig ist besagte Funktion dazu fähig, Zahlen aus Mathematischen Grenzbereichen (-»,+») auf oben genannten logische Aussagen zu komprimieren29 Um das didaktische Verständnis des Lernprozesses innerhalb dieser Netzwerke voran zu treiben, hilft die Hebbsche Lernregel, welche seit den 1949er Jahren mit der Aussage „Neurons that fire together, wire together“ einen wesentlichen Beitrag zum Verständnis des biologisch fundierten Lernvorgangs und dessen maschinellem äquivalent beiträgt.30 Einzelne Ausnahmen bestätigen diesbezüglich die Regel. Die Lernprozesse in einem KNN sind somit, jenen der NN sehr ähnlich. Die Übertragung der Informationen obliegt in solchen Systemen den Synapsen mit den oben angeführten Gewichtungen, welche über die Stärkung und Schwächung der Verbindungen verfügen.31
Abbildung in dieser Leseprobe nicht enthalten
4. Abb. Minimales KNN mit einer versteckten Ebene. Quelle: Weber, F. (2020), 2. Ka. 1.5. Abs.
Neben der Eingangsschicht (Input-Layer) und der Ausgangsschicht (Output-Layer), sind in den meisten KNN noch zusätzliche Schichten zwischen diese Ebenen geschalten. Die Anzahl dieser Hidden-Layer nimmt simultan mit der Komplexität und dem avancierten Verwendungszweck besagter Netzwerke zu oder ab. So führt Weber an, dass die meisten praktischen KNN nicht selten über mehrere hundert dieser versteckten Ebenen verfügen.32 Er führt weiter an, dass der Entscheidende Umstand, welcher einzelne Neuronen zu einem Neuralen Netzwerk verknüpft- darin dependiert, dass die Inputs der im Einzelfall verwendeten Eingänge Ausgabeschicht (01), die von den Synapsen gewählten Ausgänge der Neuronen, Bsp. h1, h2, bis hn darstellen. KNN finden indessen auf zwei Arten Einsatz so Weber, diese sind erstens beim Lernen selbst bzw. dem Training und zweitens beim Normalen praxisbezogenen Einsatz, welcher nach der Lernphase stattfindet. Es ist darauf zu verweisen, dass die Neuronen (Informationsmuster), welche über die Inputschichten in das Netzwerk eingespeist werden, die verborgenen Schichten aktivieren, welche ihrerseits wiederum zu den Ausgabeeinheiten gelangen. Das Design eben benannten Vorgangs, ist als FeedforwardNetzwerk zu bezeichnen.33 Die Hidden Layer verarbeiten dabei immer die Daten der jeweils vorhergehenden Schicht und nicht mehr die Daten, die in den vorgelagerten Schichten verarbeitet wurden, so Kreutzer und Sirrenberg.34 Die Art wie KNN nun lernen orientiert sich nach ihm sehr stark an der Art wie Kinder dies tun (Aktion und Reaktion). Ein Typischer Feedbackprozess in KNN ist Backpropagation. Hierbei kommt es zum Vergleich des Input mit dem Output in Abhängigkeit des vorgegebenen Leitmaßes. Dabei dient die Differenz der Gewichte (w) zwischen den beiden Zuständen als Änderungsmaß.
Dieser inverse Prozess, sorgt über die Zeit für eine Anpassung durch Lernen. Die Differenz zwischen tatsächlicher und beabsichtigter Ausgabe, wird dabei so lange reduziert (approximiert), bis die angegebenen Werte übereinstimmen. Stimmen die Punkte überein, kann das Netzwerk mit einem neuen Satz von Inputs genutzt werden.35 Ein Problem, welches eben solche Trainierten AI-Systeme mit sich bringen ist jenes, dass diese von Natur aus die Charakteristiken einer Blackbox aufweisen, so Deckert und Meyer.36 Unter einer Blackbox verstehen Wiener „I shall understand by a black box a piece of apparatus [...] which performs a definite operation [...], but for which we do not necessarily have any information of the structure by which this operation is performed.“37 Klimczak, Petersen und Schilling führen an, dass die Wissenschaft ein reges Interesse daran hat, die Opazität besagter AI Systeme zu beseitigen- jedoch werden KNN im gegenwärtigen Diskurs gerade deshalb als Black Box bezeichnet, da diese (überhaupt) nicht zu öffnen sind.38 Nach ihnen stellt dies ein nicht zu vernachlässigendes Problem in der aktuellen Diskussion um den Einsatz von Künstlicher Intelligenz dar. Mit Verweis auf die verschiedenen Einsatzfelder ist darauf hinzuweisen, dass die Gefährlichkeit einer ausgeprägten Opazität mit der Wichtigkeit, der dem Algorithmus zugetragenen Aufgabe steigt. Oder um es mit den Worten von Klimczak und Servatius et al. zu formulieren, „So ist es natürlich eine Sache, wenn KNN-basierte Algorithmen Konsumenten mit falschen Filmempfehlungen enttäuschen, aber wenn AI-Systeme (mit) über Leben und Tod entscheiden, zum Beispiel im Bereich der medizinischen Diagnostik, dann ist die Sachlage offenbar eine andere“. Anschließend verweisen sie auf eine Aussage von Knight „Weather ist's an investment decission, a medical decission, or maybe a military decision, you don't want to just rely on a, black box'method.39 Die Anforderungen welche somit an KNN-Verfahren gestellt sind, bestehen demnach einerseits in einer Gewährleistung der Präzision der gestellten Vorhersagen und andererseits in der Minimierung der Opazität, was den Forschenden die Möglichkeiten offeriert die getätigten Entscheidungen nachzuvollziehen und ggf. zu revidieren.40 Was nach Klimczak und Petersen et al. bei den KNN aufgrund ihrer spezifischen Merkmale eben grundsätzlich eine gegebene Problematik darstellt, und derzeit deutet nach ihnen nichts darauf hin, dass sich dieser Umstand in absehbarer Zeit ändert. Jedoch halten sie fest, dass anders als bei biologischen NN, die Prozesse bis ins kleinste Detail aufzuzeichnen, beobachten und messen sind. Was es zukünftigen Technologien mitunter erlaben könnte aus den bis dato bezogenes Daten zu lernen.41
2.1.3 Maschinelles Lernen und Mustererkennung durch C. Computing
Der Begriff maschinelles Lernen prägte Samuel 1959 im Rahmen seiner Tätigkeit bei IBM.42 Maschinelles Lernen (ML), stellt eine Form resp. Unterkategorie der Künstlichen Intelligenz dar, wobei es sich nach Brynjolfsson und McAfee, beide vom MIT um die wichtigste Basistechnologie unserer Zeit handelt. In den letzten Jahren konnte eine signifikante Entwicklung der Künstlichen Intelligenz in dieser speziellen Richtung beobachtet werden so Buxmann und Schmidt.43 Als Basis dieser Technologie dienen die oben beschriebenen KNN, wobei sich ML mit der Generierung und Implikation von Algorithmen beschäftigt. Es ist darauf zu verweisen, dass es sich nach Kreutzer und Sirrenberg um eine spezielle Art von Algorithmen handelt, die sog. selbst-adaptive Algorithmen. Was es den Maschinen erlaubt eigenständig zu lernen, ohne dass ein Programmierer in den laufenden Lernprozess einzugreifen hat.44 Diese Algorithmen sammeln Informationen (Erfahrungen), indem sie sich mit einer Klasse von Aufgaben auseinandersetzen und durch diesen Vorgang Erfahrung durch Feedback sammeln, welcher dann so Bartneck und Lütge, zur Anpassung des Systems führt.45 Nicht selten wird diesbezüglich die Definition von Mitchel angeführt. „a computer program is said to learn from experience E with respect to some class of tasks T and performance mearure P, if ist performance at tasks in T, as measured by P, improves with experience E“.46 gemeint ist hiermit nichts geringeres, als ein Verweis auf den oben angeführten Umstand, dass die Fähigkeit einer Maschine, gewisse Aufgaben zu lernen- darauf beruht, dass besagte auf der Grundlage von Erfahrungen (Daten)-trainiert wird. Für einen Softwareengineer bedeutet dies, dass dieser sein Wissen nun nichtmehr zu codieren und expliziert in die Maschine einzugeben hat. Sondern einfach die Daten, welche für die Umsetzung des Projektes benötigt werden in die Datenbank einfügt, Bsp. Audiosysteme mit Sound Daten, oder bei einem Bild Erkennungs- bzw. Differenzierung Algorithmus, der dazu bestimmt ist, Chihuahuas von Muffins zu unterscheiden ggf. Bilddateien woraufhin der Algorithmus die Regeln erstellt.47 Die Möglichkeiten, welche dies eröffnet sind lediglich durch die eigene Kreativität und die für ein Projekt benötigten Daten beschränkt.48 Kaggle ein US-Amerikanisches Startup aus dem Valley, welches sein Geschäftsmodell auf der Bereitstellung eben solcher Datensets fundiert- schrieb erst kürzlich eine ML Challenges in Form eines Einführungstutorial für Data Science Beginner aus. Das Tutorial begann am 14. April- also zum Jahrestag des Untergangs der Titanic und hatte es zum Sinn, einen Algorithmus zu Trainieren welcher anhand der von Kaggle bereitgestellten Passagierliste und einiger deterministischer Variablen Bsp. Alter, Klasse, Überlebt, etc. die Überlebenswahrscheinlichkeit der einzelnen Passagiere berechnet.49 Es sind grundlegend drei Unterkategorien des maschinellen Lernens voneinander zu differenzieren. Diese sind das überwachte (supervised-), unbewachte (unsupervised-) und bestärkende (reinforcement) Lernen (learning-), so Bartneck und Lütge.50 Der Bereich des supervised- learning fokussiert Methoden der (linearen-) Regression, Diskriminanzanalyse und Klassifikationsverfahren resp. das Entscheidungsbaumverfahren zum Einsatz (sehe 1. Tab.). Für die Lösung solcher Klassifizierungsprobleme werden die oben angeführten Daten in Bezug auf eine vorher determinierte Zielkategorisierung gekennzeichnet und anhand des Feedbacks bewertet.51 Bsp. Titanic = Daten (Passagierliste), Zielkategorisierung (wahrscheinliche Überlebenschance). Beim unsupervised-learning hingegen, bekommt der Algorithmus kein Feedback durch back Propagation. Der Algorithmus versucht einfach, Daten basierend auf ihrer verborgenen Struktur zu Kategorisieren. Das reinforcement -learning ähnelt dem überwachten Lernen, da der Algorithmus ebenfalls Feedback bezieht, dies jedoch nicht für jeden Eingang oder Zustand der Fall ist so Weber.52
Abbildung in dieser Leseprobe nicht enthalten
1. Tab. Verschiedene Arten des Maschinellen Lernens Quelle: Weber, F. (2020), 2. Kap. 1. 4.
Abs.; Craglia, M. (2018), S. 20- 21
Überwachtes Lernen (supervised Learning): Hartmann bezeichnet diese Art des Lernens als „Das relativ- am einfachsten handhabbare, am besten verstandene und deswegen auch am häufigsten eingesetzte Lernparadigma“.53 Bei dieser Art des Lernens kennt das AI-System bereits die richtigen Antworten, bezogen auf das was von dem System bei der Ausgabe erwartet ist- wobei sich die Algorithmen nur noch so anzupassen haben, dass die Antworten möglichst präzise aus dem vorhandenen Datensatz abgeleitet werden können.54 Um dies zu gewährleisten sind den Algorithmen während des Trainings die Ausgabeforderungen bekannt.55 Nach Kirste und Schürholz ist es Ziel des überwachten Lernen, generelle Regeln zu finden, welche die bekannten Eingabedaten mit den Gewünschten Ausgabe Daten verbinden- woraufhin im Anschluss daran, mittels neuen Eingabedaten- neue Ausgaben zu erstellt werden.56 Des Weiteren haben Menschen bei diesem Lernansatz jedes Element der Input-Daten zu kennzeichnen und die Output Variablen zu definieren. Ist dies getan wird der Algorithmus mittels der eingegebenen Daten trainiert, um die Verbindung zwischen den Eingangsgrößen und den OutputVariablen zu finden. Sie führen weiter aus, dass hierfür die oben bereits angeführten Verfahren zum Einsatz kommen. Ein Beispiel für solch ein Lernmodell könnte es sein, die Immobilienpreise anhand von vorgegebenen Determinanten Bsp. (Quadratmeter für das Grundstück, Anzahl Zimmer, Lage (Vorstadt oder Downtown), Kriminalstatistik etc.).57 oder wie bei dem von Kirste und Schürholz angeführten Beispielen zur linearen- resp. nicht linearen Regression- die Körpergröße zur Schuhgröße. Nach ihm ist die Regression das einfachste Verfahren und dient dazu die Parameter der Funktion zu ermitteln aus welche sich dann Vorhersagen, bestehend aus Körpergröße (x, Eingangsvariable) und Schuhgröße (y, Ausgangsvariable) ableiten lassen. Beim Prozess der Klassifikation kommt es während des Lernprozesses zur Differenzierung mehrerer Werte als Klassen. Besagte Werte werden bei einer späteren Vorhersage bestimmten Klasse zugeordnet. Als Beispiel für unser Fuß Beispiel ist nach Kirste und Schürholz eine Klassifikation, in die in die Kategorien linke und rechte Füße als sinnvoll zu bezeichnen. In der Praxis kann durch ein solches Model z.B. die Kreditwürdigkeit beurteilt werden.58 Drogkaris und Bourka führen bsph. einen Algorithmus an, welcher das englische Alphabet als Trainingsdatensatz verwendet- wobei das Ziel darin besteht die Erkennung der Englischen Handschrift möglichst genau zu gewährleisten. Der Algorithmus steht somit vor der Aufgabe bei einer Reihe von Dokumenten die Handschrift korrekt vorherzusagen. Während der Trainingsphase werden nun verschiedene handgeschriebene Alphabete zusammen mit dem gewünschten Ausgabealphabet als Eingabe in den Algorithmus gegeben- das Resultat könnte ein Algorithmus sein, der im autonomen Fahren zum Einsatz kommt und z.B. Schilder auf der Autobahn in Echtzeit auswertet.59
Abbildung in dieser Leseprobe nicht enthalten
5. Abb. Regressions und Klassifikations Graphen. Quelle: Kirste, M. Schürholz, M. (2019), S. 27
Unbewachtes Lernen (Unsupervised Learning): Ist mehr darauf fokussiert Datenbestände und Verbindungen zu verstehen als Vorhersagen über zukünftige Ereignisse zu treffen.60 Bei dieser Lernform verfügt das AI-System nach Kreutzer und Sirrenberg über keine vordefinierten Zielwerte und muss Ähnlichkeiten und damit Muster in den eingefütterten Daten eigenständig erkennen. Da dem Anwender solche Muster im Vorfeld folglich nicht bekannt sind und der Algorithmus diese selbständig zu erkennen hat, können die durch das System gewonnen Erkenntnisse folglich auch außerhalb eines zu erwartenden Ergebnisrahmens liegen.61 Nach Weber ist es das Ziel des Unbewachten Lernens eine Mappingfunktion aufzubauen, welche die Daten in Klassen Kategorisiert, diese Kategorien basieren auf den in den Daten enthaltenen verborgenen Merkmalen.62 Dieser Vorgang ist wie jener des beaufsichtigten Lernens in zwei Phasen zu unterteilen. Die Erste Phase segmentiert nach Weber die Mapping Funktion eines Datensatzes in Klassen, wobei jeder Eingangsfektor Teil einer solchen wird, ohne dass der Algorithmus besagten Klassen eine Bezeichnung geben kann. Diese Daten sind somit anders als beim Beaufsichtigten Lernen nicht beschriftet. Da die Algorithmen die Datenstrukturen selbst identifizieren müssen, ist das unbewachte Lernen somit in zwei Algorithmen aufzuteilen.63 Als Standardverfahren des Unbewachten Lernens, gilt das Clustering. Clustering ähnelt der oben bereits angeführten Klassifikationsmethode mit den Unterschieden, dass die Klassifikationsklassen beim Clustering dadurch entstehen, dass Ähnlichkeiten in den Gruppen erkannt werden, so Kirste und Schürholz.64 Als Beispiel nennt Weber die Identifizierung einer Gruppierung von Kunden, basierend auf ihrem Kaufverhalten. Weiterführend umschreibt er die Anwendung von Association unter der Prämisse, dass ein Problem auftritt, welches das Festsetzen von Regeln für die Beschreibung eines großen Teils der vorhandenen Daten zu finden. Ein Beispiel hierfür sind Personen, die eher dazu tendieren ein sowohl, als auch Kaufverhalten zu haben.65
Abbildung in dieser Leseprobe nicht enthalten
6. Abb. Clustering durch k-means Algorithmus. Quelle: Kirste, M. Schürholz, M. (2019), S. 29
Bestärkendes Lernen (Reinforcement Learning): Dieser Lernprozess ist dadurch gekennzeichnet, dass zu Beginn der Lernphase zwar ein klar definiertes Erreichungsziel- jedoch kein vorgegebener Lösungsweg vorliegt. Deshalb hat das System sich einen durch einen iterativen Trial- and-Error-Prozess eigenständig zu erarbeiten. Dieser Prozess ist durch Belohnungen (für gutes Verhalten) und Bestrafungen (für schlechtes Verhalten) gekennzeichnet. Nicht selten wird aufgrund der Nähe zur Operanden Konditionierung durch Maslow der Algorithmus als dressiertes Tier bezeichnet. Für den praktischen Ablauf des Lernprozesses bedeutet dies, dass der Algorithmus eine Entscheidung trifft indessen folge er entsprechend handelt.66 Nach Hartmann fundiert der Charme dieses Lernparadigmas, gerade darin, dass dem System nicht viel vorgegeben werden muss, was es diesem ermöglicht- ganz eigene Wege zur Lösung zu finden. Jedoch birgt dieser Vorteil auch Nachteile, welche sich vor allem in einem sehr hohen Energieverbrauch, bzw. hohem Datenspeicheraufwand und einer relativ langsamen Prozessbearbeitungsgeschwindigkeit, also mit einem sehr hohen Aufwand an Zeit verbunden ist. Als praxisnahes Beispiel für einen solchen Algorithmus dient z.B. Alpha Go, welcher mit seinem Spielzug 37 öffentlichkeitswirksam den amtierenden Weltmeister lee-Sedol besiegte.67 Teil eines solchen reinforcement-Lernsystems ist wie oben bereits angeführt ein Lernalgorithmus, dessen Ergebnis wie oben angeführt eine Handlungsstrategie darstellt. Einer der bekanntesten Algorithmen, welche bereits seit Jahrzehnten zum Einsatz kommt, ist Q-Learning. Dieser Arbeitet nach Hartmann nicht mit aufgabenspezifischen Regeln und Fakten oder ein-Ausgabe - Beispielen, sondern mit der Reward-Funktion.
2.1.4 Verschiedene Architekturen von neuronalen Netzen (Deep learning)
Nach Arel und Rose stellt das Deep learning eine spezielle Ausgestaltung der neuronalen Netzte und somit eine zu berücksichtigende Teilmenge des Machine-Learnings dar.68 Die Wortherkunft „deep“ bezieht sich dabei auf die große Anzahl der Schichten des Neuronalen Netzes, welche als speziell angesehen werden können, da die Schichten eigens dafür angelegt werden, um sehr große Mengen an Eingabedaten aufzunehmen und diese über besagte Schichten hinweg zu verarbeiten. Eine solche (tiefere-) Verarbeitung bedarf nach Kreutzer und Sirrenberg eine umfangreichere innere Struktur als jene, welche die oben als Beispiel angeführten KNN aufweisen. Dieses Netzwerk greift auf tief liegende Muster und Korrelationen zurück, welche die vorhandenen Datenpunkte miteinander verbindet.69 Wenn KNN also sehr tief werden, dann ist unter dem Begriff Deep Learning ein Konglomerat an speziellen Techniken zu verstehen, welche speziell für das Training solcher Architekturen zum Einsatz kommt so Selle.70 Drogkaris und Bourka sehen in den KNN eine signifikante Möglichkeit sog. autonome Agenten zu Kontrollieren- welche den wissenschaftlichen Hintergründen entspricht die (Intelligenz)- und Interaktionen der Agenten mit ihrer Simulierten Umgebung besser zu verstehen, als dies auf einer rein rechnerischen Ebene zu verstehen möglich wäre. Anders als andere Algorithmen, wird bei diesen nicht in die Trainings- und Anwendungsphasen differenziert. Die an diese Agenten gestellten Ansprüche haben somit den Paradigmen von inkrementellem und kontinuierlichem Lernen zu entsprechen.71 Da wir uns oben bereits mit der Ausgestaltung und der grundlegenden Funktionsweise von KNNs beschäftigten, gilt es nun die verschiedenen Arten von KNNs zu erörtern. Im Wesentlichen unterscheidet die Forschung zwischen folgenden Arten von (Deep-) Neural Networks: -Convolutional Neural Networks (CNN), Recurrent Neural Networks (RNN), -Restricted Boltzmann Machine (RBM), Deep Belief Networks (DBN) und den Autoencoders. Dabei offeriert jede der eben genannten Netzwerk Architekturen ihre eigenen Potenziale.72
Das Perceptron und Feed bzw. (Deep-) Feed Foreward Neural Network wurden bereits oben angeführt und finden deshalb im Weiteren keine Erwähnung. Die angeführten Architekturmodelle stellen zudem keine vollständige Liste und ausführliche Explikation der mathematischen Vorgänge beim Lernen und Trainieren dar, sondern diesen dazu das Themengebiet im weitesten Sinne zu überblicken um sich mit den praktischen Anwendungsmöglichkeiten vertraut zu machen.
Convolutional Neural Networks (CNN): Diese Art von Neuronalen Netzen können besonders effizient mit 2D (Bild, Audio), bzw. 3D (Video). Eingabedaten arbeiten. Anwendung findet es somit im Bereich der Objektdetektion in Bildern oder zur Differenzierung von Handschriften. Die Architektur unterscheiden sich stark von einem klassischen KNN, z.B. Feed Forward. Die spezielle Architektur enthält den sog. Convolutional und Poolinglayer, welche den Zweck haben, den Input der Schichten aus verschiedenen Perspektiven heraus zu untersuchen.73 Der Name Convolution, womit Faltung gemeint ist, woher die Namensgebung des Netzwerkes stammt, bezieht sich auf den Vorgang der Verarbeitung selbst, bei welchem ein sogenannter Glättungskern (Kernel) über die Daten geschoben während simultan eine Faltung gerechnet wird. Besagter Vorgang ist mit einer Multiplikation zu vergleichen und entspricht folgender Gleichung f g) (X) = f (r)g (x - r) dr. Bei diesem Vorgang werden die Neuronen aktualisiert wonach anschließend ein Poolinglayer dafür Sorge trägt, die Ergebnisse zu vereinfachen, was die wichtigen Informationen als einzige erhält. Dieser Prozess reduziert die Daten bis auf einen Vektor, welcher sich in der Ausgabenschicht befindet, womit der „fully connected layer“ gemeint ist. Dieser bewertet die Wahrscheinlichkeit der verteilten Zuordnung, was bei der Klassifizierung eine entscheidende Rolle einnimmt so Wuttke.74 Bevor jedoch der fully connected layer zum Einsatz kommt, haben die Inputs eine sich wiederholende Kombination aus convolutional layer und pooling layer zu durchlaufen, was es hilft Features zu erlernen, welche im Laufe des Prozesses immer präziser werden. Als Bsp. nennt Selle die zunehmende Präzisierung im Prozess der Bildverarbeitung, welche zunächst Grobe Umrisse erkennt und sich dann immer weiter verfeinert.74 75
Recurrent Neural Networks (RNN): Diese Netzwerkarchitektur eignet sich besonders gut für die Analyse von sequenziellen Daten, wie etwa Sprache, Text oder Zeitreihendaten. Dies ist deshalb der Fall, da es dem Netzwerk aufgrund seiner Beschaffenheit möglich ist, zeitlich weit auseinanderliegende Observationen im Training mit zu berücksichtigen. Die Neuronen, welche ihre Signale in einem abgeschlossenen Kreis weitergeben geben den Output einer Schicht auch an die gleiche Schicht als Input wieder. Das wohl bekannteste RNN ist das Long short Term Memory (LSTM), welches zusätzliche Parameter darauf trainiert den eben beschriebenen Input / Output Prozess der Iterationen zu speichern bzw. zu verwerfen, auf diese weiter können gleichzeitig mehrere Auftretende Signale über die zeitlichen Signale gespeichert und zu einem späteren Zeitpunkt verwendet werden, was das Netzwerk zum erfolgreichen Einsatz im Bereich des NLP (Natural Language Processing) verhilft- gemeint ist das Anfertigen von Übersetzungen von Texten und dem Trainieren von Chatbots so Heinz.76 Die LSTM Einheiten tragen zusätzlich zur Reduzierung der Speichervolatilität bei indem sie die RNN stabilisieren was es wie oben angeführt erlaubt die Abhängigkeiten, über eine längere Zeit zu identifizieren. Grundlegend basiert dieses Netzwerk auf der Idee, dass die Entscheidungen aus vergangenen Iterationen oder Problemen, maßgebliche Auswirkungen auf die aktuellen hat und es sinnvoll ist so weit wie möglich zur Lösungsfindung zurückblicken zu können so Wuttke.77
Restricted Boltzmann Machine (RBM): Ist nach Larochelle, Mandel, Pascanu und Bengio als ein energiebasiertes Model zur Definition einer Eingangsverteilung zu bezeichnen. Verwendung findet diese nicht selten bei der Extrahierung von latenten Merkmalen. Die Architektur verwendet eine Kombination aus unbeaufsichtigtem lernen zur Merkmalsmodellierung, und überwachtem Lernen zur Klassifizierung. Dies sorgt dafür, dass es zwei Trainingsschritte resp. Phasen benötigt, um die Architektur angemessen zu trainieren. Das sog. Pre-Training, welchen den ersten Schritt darstellt, bezieht sich auf die Modellierung für die Klassifizierung der verwendeten Merkmale. Die Feinabstimmung stellt den zweiten Schritt dar, welcher darin besteht, einen separaten Klassifikator, basierend auf den aus den im ersten Schritt entnommenen Merkmalen zu trainieren.78 Als Klassifizierungen Unter dieser Architektur verstehen Hebbo und Won Kim ein stochastisches RNN mit Stochastischen binären Einheiten und nicht zugewiesenen Enden zwischen den Einheiten. Das Lernen in einer solchen Architektur ist nicht einfach, da nicht selten, während der Trainingsphase Skalierungsprobleme auftreten. Um diesem unpraktischen Problem entgegenzutreten, wurden die neueren Boltzmann Maschinen (RBM) mit einem versteckten Layer ausgestattet, welcher die versteckten Verbindungen beschränkt verbindet, was der Architektur mehr Effizienz beim Lernen verleiht.79 Hierbei wird auf eine Verbindung zwischen den Eingabe- und den versteckten Neuronen verzichtet. Praxisbezogen kommen besagte Architekturen z.B. in der Sprachverarbeitung zum Einsatz, wobei das Training genau, wie bei FeedforwardNetzen, mittels Backprobagation stattfindet.80
Deep Belief Networks (DBN): Diese Architektur setzt sich im Wesentlichen aus einzelnen, beschränkten Boltzmann Maschinen zusammen, welche zu einem DBN Konstrukt aufgestapelt werden.81 Das Training der Architektur ist genau wie jenes der Boltzmann Maschinen zweistufig.82 Dabei sind DBN Architekturen als graphische Modelle zu versehen, welche es ermöglichen eine tiefe hierarchische Extraktion von Trainingsdaten vorzunehmen.83 In der Praxis kommt ihnen derzeit nur wenig Aufmerksamkeit zu.
Autoencoders: Ein Autoencoder ist ein neuronales Netz, welches die Eingangsinformationen komprimiert und die Informationen im Ausgang im Prozess der Verarbeitung wieder korrekt nachbildet. Eben benannte Prozesse geschehen simultan. Wie erwähnt, reduziert der Encoder die Dimensionen der Eingangsfunktion. Dieser Prozess wird auch mit dem Synonym Der Dimensionsreduktion umschrieben. Nach der Dimensionsreduktion sind die Daten Komprimiert- gleichzeitig werden nur die wichtigsten gem. i. der allg. Durchschnitt der komprimierten Informationen weitergeleitet. Bei dem anschließenden Prozess der Rekonstruktion, wird durch Fehlerrückführung die Gewichte des Netzes angepasst.84
2.1.5 Die Rasante Entwicklung von AI und ihre aktuellen Einsatzfelder
AI kann als eine Reihe fortschrittlicher Technologien bezeichnet werden oder wie oben angeführt als ein Konglomerat an von Werkzeugen, welche dazu in der Lage sind, die Produktivität in verschiedenen Geschäftsbereichen zu steigern so Abele und D‘Onofrio.85 Nach Deckert und Meyer wächst die Zahl der Anwendungsfelder in denen AI- Technologie zum Einsatz kommt stetig an, was eine sehr bedingte Überschaubarkeit zu Folge hat. Seiner Aussage „Nichts war so vergänglich wie das, was wir für selbstverständliche hielten“86, folgt die Forderung, dass es nicht ausreiche die Nutzer nur mit Blick auf die Möglichkeiten ihres Datenschutzes aufzuklären, da ein wesentlicher Teil des Interaktionsgeschehens von dem für die Interaktion determinierten Algorithmus ausgeht, was diese ebenso ins Zentrum einer genaueren Betrachtung rücken sollte. Es muss festgestellt werden, welcher Nutzen ein solcher Algorithmus für den Rezipienten hat. Eine grundlegende Kategorisierung geschieht nach ihnen in die Felder der Verbraucher und Unternehmen bzw. Organisationen. Sie bezeichnen das Smartphone als meist verwendetes digitales Endgerät und Kontaktpunkt von Verbrauchern mit AI.87 Die oben bereits angeführten Differenzierung durch starke und schwache AI-Systeme- gilt es nun weiter zu Präzisieren. was die Kategorien Narrow AI (NAI): (Intelligent behavior within a defined scope), womit eine eingeschränkte AI in einem speziell für diese vorgesehen Anwendungsgebiet gemeint ist. General AI (GAI): (Intelligent behavior in any new context), was eine universell, auf jede Applikation und jede Art von Nutzen anwendbare AI meint und Super (SAI): (Alive and able to choose context), worunter ein AI-System zu verstehen, welches der menschlichen Intelligenz als überlegen zu bezeichnen ist, so Hildesheim und Michelsen.88 Die Autoren führen weiter an, dass sich die meisten derzeit in der praktischen Anwendung befindenden AI-Systeme, der Kategorie Narrow unterordnen- was besagte Algorithmen auf ein relativ begrenztes Einsatzfeld beschränkt. Es ist darauf zu verweisen, dass GAI-AI derzeit zwar Gegenstand einiger aktueller Forschungen sind, bisher jedoch kein praxistaugliches System dieser Kategorie existiert.89 Nach Bünte reflektiert sich dies in der Wirtschaft, so sind derzeit wenige Standardlösungen der etablierten Anbieter zu beobachten, welche es z.B. einem Manager erlauben, den Marketing Alltag zu vereinfachen. Jedoch sind nach Bünte klare Tendenzen zu beobachten. So versuchen die großen Anbieter (SAP, Microsoft, Adobe, IBM) -etc. neue Produkte so zu kreieren, dass diese in Verbindung mit AI stehen.90 Hildesheim und Michelsen führen diesbezüglich an, dass IBM seid Jeopardy! Milliarden von US-Dollar in die Weiterentwicklung von AI investiert und ein großes Kontingent seiner Wissenschaftler, mit dem Ziel zur Demokratisierung der AI beizutragen, auf dieses Thema ansetzt. Die Ergebnisse lassen sich sehen, so wurde das Watson System für Jeopardy! Zu einer allgemein verfügbaren- Cloud-basierten-Plattform, mit vielfältigen Tools zur breiten Nutzung weiterentwickelt. Nach ihnen wird sich die Kernkompetenz von IBM in absehbarer Zeit immer mehr in Richtung AI verschieben.91 IBM gilt nicht als einzige Organisation, welche die erheblichen Potenziale in diesem Segment wahrnimmt.
Abbildung in dieser Leseprobe nicht enthalten
2. Tab. Einsatzfelder der Künstlichen Intelligenz Quelle: Eigene Darstellung
Es ist darauf hinzuweisen, dass die oben angeführte 2. Tab. nicht alle, sondern nur die derzeit wohl populärsten Anwendungsmöglichkeiten der AI aufzählt. Sinn ist es zu verdeutlichen, dass sich besagte Technologie auf einem nicht zu revidierenden Siegeszug befindet. Wobei festzustellen ist, dass sie sich in jedem Bereich des alltäglichen-sozio- ökonomischen Lebens erfolgreich etabliert hat. Dies offeriert einen großen Raum für Diskussionen, welche die aktuellen Entwicklungen nicht selten als sehr kritisch beurteilen. Als Beispiel führt Hanke die Ereignisse im Legal Tech Sektor an, womit AI im Einsatzgebiet der Rechtsprechung gemeint ist. Er sieht in der AI sowohl ein Mittel zur Demokratisierung der Gesellschaft, wobei sie ebenso, wenn von Staatlicher Seite missbraucht- als Kontrollsystem Autoritärer Staaten dienen kann. Er verweist diesbezüglich auf die Entwicklungen des chinesischen Sozialkreditsystems (SCS), welches sich derzeit noch in der Entwicklung befindet und Personenspezifische Informationen über Bürger sammelt. Diese anschließend in ein undurchsichtiges Ratingsystem überführt und Personen mittels einer Echtzeit Evaluierung an, die von den Machtausübenden Parteilinie mittels Konditionierungstechniken anpasst.88 Dieses auf großen Daten gestütztes Sozialkredit-System wird von Hanne und vielen anderen demokratisch geprägten Wissenschaftlern, als ein System zur Massenüberwachung resp. als ein riesiges soziales Experiment bezeichnet- welches allem Anschein nach tief in das chinesische Rechtsystem eingebettet sein wird.89 Erwähnenswert an dieser Stelle anzuführen ist es, dass der letzte kalte Krieg, seitens der UDSSR nicht durch Waffen und Macht verloren wurde, sondern die Sowjetunion dadurch implodierte, da es das System nicht mehr schaffe seine Bevölkerung mit dem nötigsten zu versorgen, worauf es immer mehr an Legitimität verlor so Freedman.90 Wie bereits erwähnt ist es nicht die Vorstellung eines solchen AI-Systems, welches die Wissenschaftlern tangiert, Recht und Ordnung muss es geben ! Aber die Geschichte mahnt uns an dieser Stelle- eine Grenze zu ziehen, denn viel zu oft in dieser hat eine Hand voll weniger, darüber entschieden- was Recht und was Unrecht ist. Und wenn wir Recht darüber definieren, wer die größeren Speichermedien und die Leistungsstärkeren Algorithmen besitzt, dann gleicht das der neo-liberalen Agenda „Money-talks“. Es ist die Vorstellung eines solchen Systems in den Händen von Autoritären Staaten und Technokraten, welche als einziges Maß die Optimierung kennen, was einer moralisch geprägten AI-Forschung sorgen bereiten sollte. Die Sanktionen, welche ein von einer Parteilinie abweichender Bürger in einem solchen System zu erwarten hat- werden wir uns nur langsam bewusst. Beispiele gibt es genügend. Angefangen bei dem Verbot das Land zu verlassen, indem einem der Zugang zu Flügen oder Hochgeschwindigkeitszügen verwehrt wird, über den Ausschluss von Privatuniversitäten- bis hin zur Drosslung der Internetgeschwindigkeit und ein offenkundiges negatives Stigma, welches die betroffene dann sogar in einer Online Kontaktbörse heimsucht. Die Derzeitige Lage, in welcher sich die AI-Forschung befindet, ist nach Freedman mit der Situation zur Zeit des Kalten Krieges zu vergleichen. Die Demokratie befindet sich wie damals in einem ideologischen Wettstreit, diesmal wird es schwieriger, da China immense Unsummen an Geld in die soziale Kontrolle steckt und generell sehr viele Ressourcen in die AI Forschung investiert. Während die liberale Demokratie durch unpopuläre Kriege und finanziellen Krisen, sehr viel ihrer Attraktivität einbüßt. Die Herausforderungen ist es die neuen Technologien zu nutzen, ohne seine Werte zu verraten.91
[...]
1 Vgl. Mutschler, B. (b). (2018), 1. Kap. 1. Abs. bis 2. Kap. 2. Abs.
2 Vgl. Mutschler, B. (a). (2018), 1. Kap. 1. Abs.
3 Vgl. Von Kirschner, J. (2016), S. 95
4 Vgl. Mutschler, B. (c). (2018), 4. Kap. 5 Abs. bis. 6. Abs.
5 Vgl. Wright, N. D. (2018), S. 13; Mutschler, B. (c). (2018), 5. Kap. 1. Abs. bis. 2. Abs.
6 Vgl. Bartneck, C. Lütge, C. Wagner, A. Welsh, S. (2021), 2. Kap. 1.1. Abs.
7 Turing, A. (1951), S. 1. Kap. 1. Abs.
8 Vgl. Mutschler, B. (a). (2018), 3. Kap. 2. Abs. bis 3. Abs.
9 Vgl. Buxmann, P. Schmidt, H. (2019), 1. Kap. 1. Abs.
10 Vgl. Bartneck, C. Lütge, C. et al. (2021), 2. Kap. 1.2. Abs.; Scheuer, D. (2020), 14-17
11 Vgl. Kaufmann, T. Servatius, H. G. (2020), 1. Kap. 2. Abs.
12 McCorduck, P. (1979), S.
13 Vgl. Hannan, D. (2020), 1. Kap. 9. Abs.-10.Abs.
14 Vgl. Wright, N. D. (2018), (v)
15 Goethe, J. W. (1882), 1. Kap. 1. Abs.
16 Vgl. Thalheimer, M. (2018), 1. Kap. 2.-3. Abs.
17 Vgl. HUAWEI (2018), S. 2
18 Vgl. SAS (2021), 1. Kap. bis 2. Kap. 2. Abs.; Wright, N. D. (2018), S. 2
19 Vgl. Red Hat (2021), 1, Kap. 2.- 3.Abs.
20 Vgl. Kaufmann, T. Servatius, H. G. (2020), 1. Kap. 2. Abs.
21 Vgl. Weber, F. (2020), 2. Kap. 1.5. Abs.
22 Vgl. Kreutzer, R. T. Sirrenberg, M. (2019), 1. Kap. 1. Abs.
23 Vgl. ebd. (2019), 1. Kap. 1. Abs.
24 Vgl. Portmann, E. D‘Onofrio, S. (2020), 0. Kap. Einleitung. 1. Teil.
25 Vgl. Scherk, J. Pöchhacker-Tröscher, G. Wagner, K. (2017), S. 23-24
26 Vgl. Von der Hude, M. (2020), 14. Kap. 0. Abs.
27 Vgl. Nielsen, M. (2019), S. 3
28 Vgl. Spitzer, M. (1997), S. 21-22
29 Vgl. Weber, F. (2020), 2. Kap. 1.4. Abs. bis 1.5. Abs.
30 Birnbaumer, N. Schmidt, R. E. (2010), S. 630
31 Vgl. Von der Hude, M. (2020), 14. Kap. 0 bis 1. Abs.
32 Vgl. Weber, F. (2020), 2. Kap. 1.4. Abs. bis 1.5. Abs.
33 Vgl. ebd. F. (2020), 2. Kap. 1.4. Abs. bis 1.5. Abs.
34 Vgl. Kreutzer, R. T. Sirrenberg, M. (2019), 1. Kap. 1. Abs.
35 Vgl. ebd. F. (2020), 2. Kap. 1.4. Abs. bis 1.5. Abs.
36 Deckert, R. Meyer, E. (2020), 3. Kap. 3. 5. Abs.
37 Vgl. Wiener, N. (1996), S. xi
38 Vgl. Klimczak, P. Petersen, C. Schilling, S. (2020), 10. Kap. 3. Abs.
39 Knight, W. (2017), 1. Kap. 5. Abs.
40 Vgl. Klimczak, P. Petersen, C. et al. (2020), 10. Kap. 3. Abs.
41 Ebd. et al. (2020), 10. Kap. 3. Abs.
42 Vgl. Kaufmann, T. Servatius, H. G. (2020), 1. Kap. 2. Abs.
43 Vgl. Buxmann, P. Schmidt, H. (2019), 1. Kap. 1. Abs.
44 Vgl. Kreutzer, R. T. Sirrenberg, M. (2019), 1. Kap. 1. Abs.
45 Vgl. Bartneck, C. Lütge, C. et al. (2021), 2. Kap. 2. 2. Abs.
46 Mitchell, T. (1997), S. 2
47 Vgl. Craglia, M. (2018), S. 20
48 Vgl. Buxmann, P. Schmidt, H. (2019), 1. Kap. 1. 2. Abs.
49 Vgl. Cook, A. (2021), S.1
50 Vgl. Bartneck, C. Lütge, C. et al. (2021), 2. Kap. 2. 2. Abs.; McKinsey (2018), S. 2-6; Drogkaris, P. Bourka, A. (2018), S. 9
51 Vgl. Portmann, E. D‘Onofrio, S. (2020), 3. Kap. 2. Abs.; Kreutzer, R. T. Sirrenberg, M. (2019), 1. Kap. 1. Abs.; Bartneck, C. Lütge, C. et al. (2021), 2. Ka. 2. Abs.
52 Vgl. Weber, F. (2020), 2. Ka. 1. Abs.
53 Vgl. Hartmann, M. (2020), 1.2 Kap. 2.1. Abs.; Weber, F. (2020), 2. Kap. 1.1. Abs.
54 Vgl. Kreutzer, R. T. Sirrenberg, M. (2019), 1. Kap. 1. Abs.; Kirste, M. Schürholz, M. (2019), S. 25
55 Vgl. Drogkaris, P. Bourka, A. (2018), S. 9
56 Vgl. ebd. et al. (2019), 1. Kap. 1. Abs.; Kirste, M. Schürholz, M. (2019), S. 25; Weber, F. (2020), 2. Kap. 1.1. Abs.; Phillipson, F. (2020), S. 52
57 Vgl. ebd. et al. (2019), 1. Kap. 1. Abs.
58 Vgl. Kirste, M. Schürholz, M. (2019), S. 26
59 Vgl. Drogkaris, P. Bourka, A. (2018), S. 9
60 Vgl. Bartneck, C. Lütge, C. et al. (2021), 2. Ka. 2. Abs.
61 Vgl. Kreutzer, R. T. Sirrenberg, M. (2019), 1. Kap. 1. Abs.; Drogkaris, P. Bourka, A. (2018), S. 9
62 Vgl. Weber. F. (2020), 2. Kap. 1.2. Abs.; Phillipson, F. (2020), S. 52
63 Vgl. ebd. (2020), 2. Kap. 1.2. Abs.
64 Vgl. Kirste, M. Schürholz, M. (2019), S. 29
65 Vgl. Weber, F. (2020), 2. Kap. 1.2. Abs.
66 Vgl. Kreutzer, R. T. Sirrenberg, M. (2019), 1. Kap. 1. Abs.; Drogkaris, P. Bourka, A. (2018), S. 9
67 Vgl. Hartmann, M. (2020), 1.2. Kap. 2.2. Abs.; Kirste, M. Schürholz, M. (2019), S. 42
68 Vgl. Arel, I. Rose, D. C. (2010), S. 13; S. Wright, N. D. (2018), S. 2
69 Vgl. Vgl. Kreutzer, R. T. Sirrenberg, M. (2019), 1. Kap. 1. Abs.
70 Vgl. Selle, S. (2018), S. 30
71 Vgl. Drogkaris, P. Bourka, A. (2018), S. 9
72 Vgl. Wuttke, L. (2020), 1, Kap. 1. Abs. bis 3. Abs.; Heinz, S. (2017), 7. Kap. 1. Abs.
73 Vgl. Heinz, S. (2017), 6, Kap. 1. Abs.
74 Vgl. Wuttke, L. (2020), 5. Kap. 3. Abs.
75 Vgl. Seele, S. (2018), S. 30
76 Vgl. Heinz. S. (2017), 6. Kap. 2. Abs.
77 Vgl. Wuttke, L. (2020), 5. Kap. 4. Abs.
78 Vgl. Larochelle, H. Mandel, M. Pascanu, R. Bengio, Y. (2012), S. 643-644
79 Vgl. Hebbo, H. Won Kim, J. (2013), S. 6
80 Vgl. MLE TUHH (2020), 8. Kap. 1. Abs.
81 Vgl. Hebbo, H. Won Kim, J. (2013), S. 7
82 Vgl. Yepes, A. J. MacKinlay, A. Bedo, J. Garvani, R. Chen, Q. (2014), S. 124
83 Vgl. ebd. et al. (2014), S. 124
84 Vgl. Nguyen, H.T. (2020), 3. 1. Abs. bis 5. Kap. 1. Abs.
85 Vgl. Abele, D. D‘Onofrio, S. (2020), 3. Kap. 1. Abs.
86 Deckert, R: Meyer, E. (2020), 3. Kap. 1. Abs.
87 Vgl. ebd. (2020), 3. Kap. 1. Abs.
88 Vgl. Hanke, P. (2020), 6. Kap. 1. Abs. bis 2. Abs.
89 Vgl. ebd. et al. 6. Kap. 3. Abs. bis 4. Abs.; Freedman, L. (2018), (iii)
90 Vgl. Freedman, L. (2018), (iii)
91 Vgl. Freedman, L. (2018), (iii)