Chancen und Risiken der künstlichen Intelligenz. SWOT-Analyse und Anwendungsgebiete der Technologie


Trabajo de Seminario, 2021

30 Páginas, Calificación: 0,67

Simon Anthofer (Autor)


Extracto


Inhaltsverzeichnis

1 Einleitung

2 Abgrenzung von Intelligenz und künstlicher Intelligenz
2.1 Definition von „Intelligenz“
2.2 Definition von „künstlicher Intelligenz“

3 Geschichte und Entwicklungslinien von künstlicher Intelligenz
3.1 Geschichte und Entwicklungslinien der KI
3.2 TuringTest

4 SWOT Analyse der Verwendung von künstlicher Intelligenz
4.1 Chancen (opportunities) und Stärken (strengths) von KI mit Praxisbeispielen
4.2 Risiken (threats) und Schwächen (weaknesses) von KI mit Praxisbeispielen

5 Zukunftsprognose und Schlussbetrachtung
5.1 Zukunftsprognose
5.2 Fazit

Abkürzungsverzeichnis

Quellen und Literaturverzeichnis

1 Einleitung

Der Begriff künstliche Intelligenz wird heutzutage oftmals für Marketingzwecke instrumentalisiert. Aber warum ist das so und weshalb findet der Begriff bei uns oftmals Anklang? Mit dem Thema künstliche Intelligenz beschäftigen wir uns sowohl in der Gegenwart, als auch mit ziemlicher Wahrscheinlichkeit noch in der Zukunft. Daher habe ich mich mit diesem Bereich intensiv auseinandergesetzt, um möglichst viele Chancen und Risiken, die mit der Technologie einhergehen, zu erläutern. Ferner soll diese Arbeit für den Leser als Anreiz dienen, sich mehr mit der Angelegenheit auseinanderzusetzen, da sie in Zukunft von größter Bedeutung sein wird. Um Laien das Thema etwas näherzubringen, werde ich am Anfang auf die Definition, die verschiedenen Arten mit deren grundlegenden Funktionsweise und die unterschiedlichen Teilgebiete von künstlicher Intelligenz näher eingehen. Um die Technologie von allen Seiten zu beleuchten, habe ich mich für eine SWOT Analyse entschieden. Somit wird sowohl auf die Chancen/Stärken als auch auf die Risiken/Schwächen eingegangen. Da diese Seminararbeit in einem gewissen Rahmen bleiben soll, können nicht alle Vor/ und Nachteile zum Thema KI erwähnt werden. Nichtsdestotrotz habe ich mich, um ein möglichst großes Spektrum von Ansichten unterzubringen, für eine Reihe von Quellen entschieden, deren Autoren sich mit der Angelegenheit künstliche Intelligenz intensiv befassten. Im weiteren Verlauf werde ich eine meiner Meinung nach realistische Zukunftsprognose abgeben. Diese enthält unter anderem Schätzungen, was die durch KI beeinflussten Arbeitsmarktdaten in der Zukunft angeht. In diesem Zuge werde ich auf einige der wegfallenden beziehungsweise dazukommenden Arbeitsstellen und deren Branche genauer eingehen. Das daraus resultierende Verhältnis zur Arbeitslosenquote bleibt ebenfalls nicht unerwähnt.

Im letzten Teil dieser Arbeit, dem Fazit, werde ich meine eigene subjektive Meinung zum Thema KI mit der davon ausgehenden Beeinflussung unseres Alltagslebens in der Gegenwart und Zukunft kundtun. Auch wie man die Weiterentwicklung von KI in Zukunft handhaben sollte, um daraus einen allgemeinen Nutzen zu schlagen, werde ich im Fazit erläutern.

2.1 Definition von „Intelligenz“

Was versteht man unter dem Begriff Intelligenz überhaupt? Seit vielen Jahren beschäftigen sich zahlreiche Wissenschaftler mit dieser Frage und versuchen sich auf eine Definition zu einigen. Jedoch ist das gar nicht so einfach. Aus verschiedenen Bereichen der Wissenschaft kommen verschiedenste Meinungen und Ansichten. So ist die Divergenz eines gemeinsamen Nenners aus Sicht von Psychologen, Neurowissenschaftler, Neurobiologen und eine Reihe anderer Wissenschaftler eine recht große. Der bekannte Wissenschaftler und Professor Stuart Russell teilt Intelligenz in vier verschiedene Kategorien auf: das menschliche Denken, das menschliche Handeln, das rationale Denken und das rationale Handeln (vgl. Russell/Norvig/Davis, 2010, 15). Der TuringTest (siehe 3.3 TuringTest) beispielsweise gehört zu dem Bereich menschliches Handeln, denn bei diesem Test versucht eine KI das menschliche Handeln zu reproduzieren. Hingegen gelten moderne Programme zur Bilderkennung und die damit verbundenen Entscheidungen (z. B. Einordnung von Merkmalen eines Bildes) zu der Kategorie rationales Handeln. (vgl. Wittpahl 2019, 21).

In einer anderen, heutzutage gängigen Betrachtungsweise lässt sich Intelligenz medizinisch gesehen in zwei Aspekte unterteilen: Der kristallinen (festen) Intelligenz, welche das gesamte Wissen eines Menschen umfasst und der fluiden (flüssige) Intelligenz, die jene Fähigkeit beschreibt, sich Wissen schnell anzueignen. Somit ist die fluide Intelligenz die Grundlage, sich neues Wissen anzueignen. Ferner lässt sich diese auch ein Leben lang verbessern, indem man regelmäßig anspruchsvolle Denkaufgaben übt und löst.

Nun stellt sich die Frage, ob man Intelligenz als solches messen kann. Bereits in der Antike hat man erkannt, dass Intelligenz in erster Form die Bildung und Erfahrung eines Menschen umfasst und in zweiter Form die Fähigkeit eines Menschen, sich diese anzueignen. Die ersten wissenschaftlichen Ansätze, Intelligenz zu messen, kamen von dem französischen Psychologen Alfred Binet (18571911). Dieser führte zusammen mit Théodore Simon 1905 die BinetSimonTests ein, welcher das „geistige Alter“ des Anwenders widerspiegeln soll.

Der Test galt somit als erster Test des Intelligenzquotienten, kurz IQTest (vgl. Lamberti 2006, 2632).

2.2 Definition von „künstlicher Intelligenz“

„AI is the new electricity”, so der chinesischUSamerikanische Informatiker Andrew Ng. Übersetzt heißt das so viel wie: „Künstliche Intelligenz ist die neue Elektrizität“. Mit dieser Aussage sorgte der geborene Brite 2017 auf der O'Reilly Artificial Intelligence Conference in San Francisco für Schlagzeilen. Damit prognostiziert er, dass keine Technologie in den nächsten Jahren zu so vielen exponentiellen Fortschritten führen kann, wie es die künstliche Intelligenz könnte (vgl. Stanford Business 2017).

Was ist künstliche Intelligenz und wie funktioniert sie? Die KI ist ein Teilgebiet innerhalb der Computerwissenschaften. Hierbei versucht man die kognitiven Funktionen eines Menschen in Computern abzubilden. Der Computer soll mit diesen Funktionen eigenständig komplexe Probleme bearbeiten. Jedoch soll die Maschine nicht nur die menschlichen Funktionen abbilden, sondern auch intelligente Einheiten erstellen (vgl. Russell/Norvig 2003, 1). Zusammengefasst kann man sagen, dass ein System dann intelligent heißt, wenn es effizient und selbstständig Aufgaben lösen kann. Der Grad der Intelligenz hängt vom Grad der Komplexität einer Aufgabe, dem Grad der Selbstständigkeit und dem Grad der Effizienz des Aufgabenlösungsverfahrens ab. In vielen Bereichen unseres Alltags hat die KI die menschliche Intelligenz weit überholt. Zum Beispiel die Schnelligkeit bei Datenverarbeitung oder Speicherkapazitäten. Hierfür ist menschliches Bewusstsein nicht einmal notwendig. Oftmals arbeiten KIForscher wie Ingenieure, um solche Problemlösungen unabhängig von der Vorlage aus der Natur zu finden. Beispielsweise war das Fliegen auch erst dann erfolgreich, als die Gesetze der Aerodynamik verstanden wurden und Düsenflugzeugen als Alternative entwickelt werden konnten. Diese Art des Fliegens findet man nicht in der Natur (vgl. Mainzer 2019, 15).

Da sich Forscher wie so oft uneins über die genaue Definition von künstlicher Intelligenz sind, lässt sich jedoch folgendes über das Fachgebiet der Computerwissenschaften eindeutig sagen: Wenn ein Computer gewisse menschliche Aktivitäten wie zum Beispiel das Planen einer kombinierten BahnAutoreieise, das Verstehen einer natürlicher gesprochenen Sprache, das Beweisen eines mathematischen Satzes oder das Sehen und Erkennen bestimmter Objekte nachbildet, dann spricht man von künstlicher Intelligenz unabhängig von der Definition des Begriffs (vgl. Bibel/Eisinger 1987, 12).

3. Geschichte und Entwicklungslinien von künstlicher Intelligenz

3.1 Geschichte und Entwicklungslinien der KI

Als Geburtsjahr der künstlichen Intelligenz gilt im weiteren Sinne das Jahr 1950 mit dem TuringTest (Siehe 3.2 TuringTest). Der Begriff „Artificial Intelligence“, auf Deutsch „Künstliche Intelligenz“ tauchte zum ersten Mal 1956 in New Hampshire USA auf. Eine Gruppe amerikanischer Wissenschaftler, darunter der Professor des Dartmouth College John McCarthy, prägen den Begriff „AI“ und erforschten in einem von der RockefellerStiftung geförderten Sommerprojekt, wie Computer Denkaufgaben eigenständig lösen und Sprachen verstehen können. Die Wissenschaftler kamen zwar vorerst nicht weit, gründeten aber das neue Forschungsgebiet „künstliche Intelligenz“.

Aufgrund der in den 1960er/1970er begrenzten Rechnerkapazität konzentrierte sich die Wissenschaft zunächst auf enger definierte Anwendungsfälle. Diese bezeichnet man als schwache KI (auf Englisch: „narrow AI“). Es entstanden die ersten Schachcomputer und Chatbots. Letztere waren mithilfe von verschiedenen Wortdatenbanken in der Lage, einfache Gespräche mit Menschen zu führen.

Nebst der schwachen KI gibt es noch die „starke“ oder auch „generelle KI“ (auf Englisch: „strong/general AI“). Diese soll Aufgaben oder Probleme ebenso gut wie der Mensch lösen und in der Lage sein, sich flexibel an neue Gegebenheiten anzupassen. Allerdings ist bis heute nicht bekannt, wie ein solches System aufgebaut sein könnte. Bislang existieren lediglich schwache KI, die mit Algorithmen arbeiten und nur für genau definierte Aufgaben trainiert sind (vgl. Thelen 2020, 6569).

Ein Algorithmus ist eine vorher festgelegte Vorgehensweise, in der eine definierte Aufgabe nach einem bestimmten Schema gelöst werden muss. Zum Beispiel kann ein Algorithmus genutzt werden, um das kleinste gemeinsame Vielfache von drei Zahlen zu bestimmen. In den Algorithmus würden in diesem Beispiel die erforderlichen Rechenregeln vorprogrammiert werden. Es gibt natürlich auch viel komplexere Algorithmen (vgl. Burkov 2019, 15).

Die höchste Form der künstlichen Intelligenz ist die „künstliche Superintelligenz“ (auf Englisch: „Artificial Superintelligence“). Einer der führenden Philosophen und Visionäre auf dem Gebiet der KI, Nick Bostrom, definiert die Superintelligenz als eine Intelligenz, „welche den kognitiven Fähigkeiten eines menschlichen Gehirns in nahezu allen wichtigen Bereichen überlegen ist“. Dazu gehören vor allem die wissenschaftliche Kreativität, allgemeine Weisheit und soziales Geschick (vgl. Bostrom 2014, 22).

In den 1980erJahren entstand ein Untergebiet der KIForschung, „Machine Learning“ oder kurz „ML“. Dieses Teilgebiet der Informatik befasst sich mit der Entwicklung von Algorithmen, welche eine Vielzahl von Beispielen benötigen, um auf ein nützliches Ergebnis zu kommen. Die Forschung von ML besteht darin, wie Computer mit eingegebenen Datensätzen (Inputs) Dinge selbst erlernen und daraus Folgerungen erschließen können. Mit einer genau definierten Aufgabe muss der Computer dann eigene Algorithmen kreieren. Ein Beispiel hierfür wäre die Spracherkennung von dem AmazonSmart Speaker „Alexa“. Wenn der Anwender des Geräts „Hey Alexa..sagt, wandelt der Smart Speaker diese Schallwellen in ein digitales Muster um. Diese Wellenmuster unterscheiden sich natürlich je nach Tonlage, Akzent, Hintergrundgeräuschen und Wort sehr stark. Da es unmöglich ist, alle Kombinationen dieser Kriterien vorher einzuprogrammieren, greift man auf den MLAnsatz zurück. Dafür lässt man eine Vielzahl von Menschen bei verschiedenen Hintergrundgeräuschen das Wort „Hey“ sprechen. Diese Datensätze gibt man dem Computer, welcher dann eine Vorstellung daraus bekommt, wie die Wellenmuster für bestimmte Worte aussehen. Diesen Ansatz nennt man „supervised learning“ (auf Deutsch: „überwachtes Lernen“), da der Computer vorher weiß, was die Wellenmuster der verschiedenen „Hey“s bedeuten. Im Anschluss werden nicht vorprogrammierte Wörter getestet. Der Algorithmus funktioniert dann, wenn der Computer die „Hey“s von anderen Wörtern unterscheiden kann. Der Gegensatz von „supervised learning“ ist „unsupervised learning“ (auf Deutsch: „unüberwachtes Lernen“). In diesem Fall muss der Computer innerhalb der Daten von sich aus Cluster oder Muster finden, in die sie sich kategorisieren lassen. Auf das letzte Beispiel bezogen hieße das, dass der Computer mithilfe der Wellenmuster der „Hey“s andere gesprochene Wörter kategorisieren und zuordnen kann. Daraus lässt sich konstatieren, dass Computer wie Alexa immer intelligenter werden, da sie mit immer mehr Daten gefüttert werden (vgl. Thelen 2020, 6569). Diese riesigen Datenmengen, welche zur Steigerung der Leistungsfähigkeit eines künstlich intelligenten Systems benötigt werden, nennt man in der Fachsprache auch „Big Data“. Ohne die Datenmengen wären KI nicht in der Lage, Lernerfolge zu erzielen (vgl. Schlieter 2015, 38).

In der weiteren Entwicklung der KIForschung entstand der Bereich „Tiefes Lernen“ (auf Englisch: „Deep Learning, DL). Seit circa 2010 gehört dieses Gebiet der Computerwissenschaften zu dem Teilgebiet des ML. Der aktuelle KIBoom beruht weitestgehend auf dem tiefen Lernen mit künstlichen neuronalen Netzen. Als künstliches neuronales Netz bezeichnet man die künstlich mithilfe von Computern nachgebildeten Netzstrukturen von Nervenzellen eines menschlichen Gehirns. Jedoch gibt es deutliche Unterschiede zwischen dem künstlichen neuronalen und dem biologischen Netz. Tiefes Lernen ist demzufolge das Lernen mit Algorithmen mithilfe von künstlichen neuronalen Netzen. Bei der Bild und Spracherkennung beispielsweise setzt man in das neuronale Netz Trainingsdaten ein, welche dann, ähnlich wie bei den Neuronen im menschlichen Gehirn, gefiltert werden. Die neuronalen Netze passen sich dabei selbst an, indem sie beim Lernen neue Knotenpunkte im Netz erstellen. Dadurch werden neue Verbindungen zwischen diesen Knoten geschaffen, welche das Netz erweitern (vgl. Wittpahl 2019, 2233). Um das Ganze etwas zu veranschaulichen, betrachten wir das Beispiel der Bilderkennung etwas genauer. Bei der Disziplin der Bilderkennung geht es darum, dass die künstliche Intelligenz Bilder eigenständig Kategorien und Definitionen zuordnen kann. Diese Methode kommt mitunter bei der Entsperrung von Handys per Gesichtserkennung vor. Aber auch beim autonomen Fahren von Autos oder Lastkraftwagen ist sie eine der Schlüsseltechnologien. Man sprich bei dieser Technologie von „Machine Vision“, da der Computer visuelle Informationen erfasst. Bei einem Menschen funktioniert das Erkennen von Bildern über den Sehnerv. Dieser Nerv leitet die Bilder ans Gehirn weiter, welches das Gesehene mit etwas verknüpft, das wir bereits kennen. Bei einem Computer hingegen ist das etwas aufwendiger, denn dieser kann zunächst einen Kreis nicht von einem Loch unterscheiden. Es könnte sich um einen Autoreifen oder auch um einen Donut handeln. Für eine funktionierende Bilderkennung sind also nicht nur die Pixel in einem Bild von Nöten, sondern auch ein Set von Trainingsdaten mit vordefinierten (auf Englisch: „labeled“) Bildern von Autoreifen und Donuts. Der Algorithmus fungiert als ein Filter, indem er die Bilder in unterschiedliche Ebenen zerlegt und so die Unterschiede zwischen den Autoreifen und Donuts erlernt. Dieses Verfahren wird Deep Learning genannt. Im Anschluss gibt man dem „gelernten“ Algorithmus neue noch nicht gezeigte (auf Englisch: „unlabeled“) Bilder von Autoreifen und Donuts. Der Algorithmus ordnet dann die neuen Bilder mithilfe der erlernten Strukturen zu. Im Anschluss wertet man die Ergebnisse aus und gibt dem Algorithmus ein Feedback, ob es sich um einen Donut oder einen Autoreifen gehandelt hat (vgl. Thelen 2020, 6773). So lernt der Algorithmus immer weiter dazu, bis er nur noch wenige bis keine Fehler beim selbstständigen Lösen aufweist.

3.2 TuringTest

Der britische Mathematiker Alan Turing (19121954) veröffentlichte im Jahr 1950 den Aufsatz „Computing Machinery and Intelligence“, welcher die 59. Ausgabe der Reihe „Mind: A Quarterly Review of Psychology and Philosophy” ist (vgl. Turing 1950, 1460). Jenes Jahr gilt im engeren Sinn als Geburtsjahr der KIForschung (vgl. Mainzer 2019, 10). Der Mathematiker war in die frühe Entwicklung des Computers involviert. Er war einer der ersten Menschen, die sich ernsthaft mit der Frage beschäftigten, ob man Computer so programmieren kann, dass sie Aufgaben, welche menschliche Intelligenz benötigen, lösen können. Ein Schachspiel würde zu einer dieser Aufgaben zählen. Es war zwar klar, dass Computer lediglich das tun können, wofür sie programmiert wurden, jedoch war und ist es noch immer unklar, wie wir Computer programmieren können. Alan Turing war vermutlich bereits gelangweilt von philosophischen Diskussionen, ob Maschinen jemals „denken und verstehen“ können. Hingegen aller Argumente, warum ein Computer niemals wie ein Mensch agieren kann, treibt er sein Projekt voran. In einem seiner veröffentlichten Werke schlägt er vor, man solle sich weniger damit beschäftigen, wie eine Maschine aussieht oder aus welchem Material sie ist, sondern eher das äußere sichtbare Verhalten beobachten. So hatte er die Idee, eine völlig offene Diskussion zwischen einem Menschen und einem Computer führen zu lassen. Das Besondere dabei war, dass die Teilnehmer der Diskussion lediglich über einen Monitor und eine Tastatur kommunizieren durften. Sie konnten sich dabei auch nicht sehen. Die Diskussionen gingen über alltägliche Themen, welche von einem Fragesteller eingeleitet wurden. Laut Turing würde der Computer dann gewinnen, wenn der Fragesteller anhand der Antworten nach unbegrenzter Zeit nicht den Computer von dem Menschen unterscheiden kann. Nach dem Ergebnis dieses TuringTests war Turing davon überzeugt, dass Computer eines Tages wie Menschen denken können. Der Satz „Intelligent is as intelligent does“, was übersetzt so viel heißt wie „Intelligent ist der, der Intelligentes tut“ bringt Turings Meinung auf den Punkt. Dies ist eine Anspielung auf das Zitat aus dem Film „Forest Gump“, in welchem die Hauptfigur sagt: „Stupid is as stupid does“. Auf Deutsch: „Dumm ist der, der Dummes tut“. In anderen Worten sollte man, anstatt zu fragen, „ob eine Maschine denken kann“ sich die Frage stellen: „Kann eine Maschine sich wie eine denkende Person verhalten?“ (vgl. Levesque 2017, 710).

4. SWOT Analyse der Verwendung von künstlicher Intelligenz

4.1 Chancen (opportunities) und Stärken (strengths) von KI mit Praxisbeispielen

Sowohl für die Wirtschaft, als auch für den einzelnen Menschen bringt die künstliche Intelligenz eine Vielzahl von Chancen. Manche Experten sprechen sogar von der wichtigsten Erfindung der Menschheit, denn die KI verbindet sämtliche Technologien miteinander und schafft eine exponentielle Beschleunigung im technologischen Fortschritt (vgl. Thelen 2020, 81).

Zu einer allgemeinen Chance der KI gehört die Möglichkeit, menschliche Intelligenz dabei näher erforschen zu können. Denn um etwas simulieren zu können, bedarf es zuerst einer Forschung und anschließend einem Verständnis. Der Nachbau von neuronalen Netzen (siehe Seite 8) ist ein treffendes Beispiel hierfür. Mit der Forschung an KI geht also automatisch die Erforschung der menschlichen Intelligenz einher, was wiederum zu neuen Erkenntnissen führt.

[...]

Final del extracto de 30 páginas

Detalles

Título
Chancen und Risiken der künstlichen Intelligenz. SWOT-Analyse und Anwendungsgebiete der Technologie
Calificación
0,67
Autor
Año
2021
Páginas
30
No. de catálogo
V1044779
ISBN (Ebook)
9783346465436
ISBN (Libro)
9783346465443
Idioma
Alemán
Palabras clave
Künstliche Intelligenz, SWOT Analyse, KI, Artificial Intelligence, Machine Learning, Turing Test, Maschinen, AI, Künstliche Neurale Netzwerke, Absatzprognose, Prognosemodelle, Absatzprognoseverfahren, Prognoserechnung, Perzeptron, Expertensysteme, Human Resources, Personalmanagement, Society 5.0, künstliche, intelligenz, zukunft, denkens, Mensch, KI-Kritik, Symbolismus, Konnektionismus, Robotik, Philosophie, Biologismus, Physikalismus, Materialismus, Metaphysik, Seele, Geist, Bewusstsein, Selbstbewusstsein, Wille, Denken, Erkennen, Gefühl, Leben, Roboter, Technik, Technikphilosophie, Quantenphysik, Menschenlehre, Anthropologie, Realismus, Gehirn, Evolution, Tier, Maschine, Gott, robo advice, FinTech, Digitalisierung, Bank, Robo Advisor, Bankgeschäft, Geldanlage, Robo Advicory, MIFID, Anlagegeschäft, Retail Banking
Citar trabajo
Simon Anthofer (Autor), 2021, Chancen und Risiken der künstlichen Intelligenz. SWOT-Analyse und Anwendungsgebiete der Technologie, Múnich, GRIN Verlag, https://www.grin.com/document/1044779

Comentarios

  • No hay comentarios todavía.
Leer eBook
Título: Chancen und Risiken der künstlichen Intelligenz. SWOT-Analyse und Anwendungsgebiete der Technologie



Cargar textos

Sus trabajos académicos / tesis:

- Publicación como eBook y libro impreso
- Honorarios altos para las ventas
- Totalmente gratuito y con ISBN
- Le llevará solo 5 minutos
- Cada trabajo encuentra lectores

Así es como funciona