Die Notwendigkeit von ethischen Richtlinien für künstliche Intelligenz. Eine kurze Darstellung


Trabajo Escrito, 2021

17 Páginas, Calificación: 1,0


Extracto


Inhaltsverzeichnis

1 Einleitung und Motivierung
1.1 Definition Künstliche Intelligenz
1.2 Motivierung des Themas

2 Betrachtung von Ethik in KI und Robotik
2.1 Was ist (Maschinen-)Ethik?
2.2 KI und Vertrauen
2.3 KI und Privatsphäre
2.4 Die Haftungsfrage
2.5 Autonomes Fahren
2.6 Militärische KI
2.7 KI im Bereich Human Enhancement und Medizin
2.8 KI und Bildung
2.9 Bias und Diskriminierung

3 Abschließende Worte

Literaturverzeichnis

Abbildungsverzeichnis

Kapitel 1

Einleitung und Motivierung

1.1 Definition Künstliche Intelligenz

Es gibt viele Definitionen des Begriffs „Künstliche Intelligenz" (KI). Genauso gibt es auch für die menschliche Intelligenz mehrere Definitionen. Man kann Intelligenz kurz als „Problemlösefähigkeit" zusammenfassen. In dem Abschlussbericht der EnqueteKommission zu KI 4 verzichten die Autoren bewusst auf eine Definition, sondern formulieren stattdessen eine Begriffserklärung und verweisen auf die Definition der „High-Level Expert Group on Artificial Intelligence" der Europäischen Kommission 2. Deren Definition ist mehrere Zeilen lang und beinhaltet auch die regelbasierte / symbolische KI. Wenn man heutzutage in den Medien von KI und ihren Fortschritten hört, handelt es sich nahezu ausschließlich um (selbst-)lernende KI. Diese Art der KI bezeichnet man auch als Machine Learning (dt. „maschinelles Lernen") und in einer Spezialform als Deep Learning (wird üblicherweise nicht ins Deutsche übersetzt), bei der „tiefe", also mehrschichtige, Neuronale Netze zum Einsatz kommen. Ein technisches Verständnis ist für das Verständnis der vorliegenden Arbeit nicht notwendig. Es reicht zu wissen, dass diese lernende KI anhand von Daten lernt. Dies wird auch Training genannt und die Daten bestehen meistens entweder aus Bildern, Texten, Tönen (z.B. Sprachaufnahmen) oder quantifizierten Messungen (Alter, Größe, Gewicht, etc.). Nah verbunden mit der KI ist auch die Robotik. Diese kann in manchen Bereichen als Schnittstelle zwischen Mensch und KI dienen, indem der Mensch mit einem Roboter, der von KI gesteuert ist, interagiert. Ein KI-System kann so definiert werden:

„KI-Systeme sind von Menschen konzipierte, aus Hardware- und/oder Softwarekomponenten bestehende intelligente Systeme, die zum Ziel haben, komplexe Probleme und Aufgaben in Interaktion mit der und für die digitale oder physische Welt zu lösen. "4

Dies lässt sich in einem Schaubild (siehe Abbildung 1.1) zusammenfassen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.1: Visuelle Darstellung der KI. Eigene Darstellung, inspiriert von 2

1.2 Motivierung des Themas

Zunächst soll das Thema motiviert werden. Warum ist es wichtig, sich jetzt mit den ethischen Fragen bezüglich der KI und Robotik zu beschäftigen?

Dafür gibt es mehrere gute Gründe. Erstens, sind die Fortschritte in diesen Technologien allgegenwärtig, rasant und richtungsweisend. Einige Beispiele dazu sollen im Folgenden aufgeführt werden.

In der Verarbeitung natürlicher - das heißt menschlicher - Sprache (engl. Natural Language Processing, NLP) herrschten bis vor einigen Jahren regelbasierte Ansätze. Heutzutage wird nahezu jedes industrielle sowie akademische Projekt durch die Verwendung Neuronaler Netze realisiert. Diese Entwicklung begann aber erst etwa 2013. In diesem Jahr wurde von Google das „word2vec" Verfahren veröffentlicht, bei dem es darum geht die Wörter eines Textes in Zahlenvektoren abzubilden und dadurch sogenannte Word-Embeddings zu erstellen. Inzwischen besteht der Trend darin, riesige Sprachmodelle auf enormen Datenmengen zu trainieren und diese später für einzelne spezielle Anwendungsfälle zu optimieren. Lange war das von Google 2018 veröffentlichte Modell „BERT" der Standard dafür, nur zwei Jahre später veröffentlichte OpenAI die inzwischen dritte Iteration ihres Konkurrenzproduktes, das GPT-3 Modell, das noch größer ist. Google verwendet für alle englischen Suchanfragen und auch teilweise andere Sprachen seit 2019 BERT 8. Damit verwenden Millionen Menschen jeden Tag ein KI-gestütztes Produkt ohne es zu wissen.

Ein weiterer großer Anwendungsbereich von KI liegt in der Bildverarbeitung. Ende der 1990er Jahre gelang dem Forscherteam um Yann LeCun dabei der große Durchbruch durch den Einsatz einer neuen Art Neuronaler Netze, den sogenannten Convolutional

Neural Networks (CNNs), den sie in ihrem Paper „Gradient Based Learning Applied to Document Recognition" veröffentlichten. Ein weiterer großer Durchbruch gelang 2014 als Ian Goodfellow sein Paper zu Generative Adversarial Networks veröffentlichte, mit denen nicht nur Bilder erkannt, sondern auch generiert werden können. Vor wenigen Wochen gelang der Firma DeepMind ein weiterer Coup: Ihr AlphaFold Projekt kann erfolgreich aus einer Proteinsequenz die 3-D Struktur des Moleküls vorherzusagen 10. An diesem „protein folding problem" haben zahlreiche Forscher über Jahrzehnte geforscht - gelungen ist es am Ende durch Neuronale Netze. Dieser Erfolg hat weitreichende Implikationen, gerade im medizinischen Bereich, da die 3-D Struktur die Funktionalität des Moleküls bestimmt.

Diese kurze Auflistung einiger Beispiele zeigt, dass die Erfolgsgeschichte Neuronaler Netze zwar vor etwa 20 Jahren, viele große Durchbrüche aber erst in den letzten fünf Jahren stattgefunden haben und die heutigen Auswirkungen sowie zukünftigen Visionen die Menschheit insgesamt betreffen und verändern. Aber die Beispiele zeigen noch mehr. word2vec und BERT stammen von Google, GPT-3 von OpenAI. Yann LeCun arbeitete zum oben genannten Zeitpunkt für die Bell Labs und wurde später zum „Chief AI Scientist" bei Facebook 7. Ian Goodfellow war für Google und OpenAI tätig und ist aktuell Director of Machine Learning bei Apple 6.

Wie man sieht, ist die KI-Forschung sehr stark durch Unternehmen getrieben. Zudem kommen die Fortschritte größtenteils aus den USA. Und ganz generell gilt, dass diese KI Daten zum Trainieren braucht. Daher werden Daten oftmals als Rohstoff der vierten industriellen Revolution bezeichnet. Es ist unabdingbar, möglichst schnell Gesetze und Regularien zu formulieren, die sowohl verhindern, dass es erneut zu einer sozialen Frage kommt, und gleichzeitig der Forschung so viel Freiraum ermöglichen, dass die Vorteile der KI - die ohne Frage immens sein können, siehe AlphaFold - der Menschheit nutzen können. Dies zeigt auf, dass die Betrachtung ethischer KI immer auch eine politische Dimension beinhalten sollte. Denn die nötigen Regularien müssen zwingend multilateral erreicht werden. Außerdem muss wie bei anderen physischen Produkten selbstverständlich auch hier die „Produktionskette" berücksichtigt werden. Der Bundestag hat am 26.06.2018 mit der Drucksache 19/2978 einen Antrag zur Einsetzung der Enquete-Kommission „Künstliche Intelligenz - Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale". Diese Enquete-Kommission hat mit der Drucksache 19/23700 am 28.10.2020 ihren Bericht vorgelegt 4, der hier abgerufen werden kann:

Dieser Bericht beschäftigt sich breitflächig mit dem Thema KI und analysiert dabei nicht nur den q quo und den Entwicklungsperspektiven, sondern gibt auch konkrete Handlungsempfehlungen. Die Themenliste umfasst unter anderem die Bereiche „KI und Daten", „KI und Umgang mit Bias/Diskriminierung", „KI und Recht", „Ethische Perspektiven der KI", „KI und Gesellschaft" und auch „KI und SARS-CoV-2". Sowohl der Bericht als auch die Thematik ist demnach höchst aktuell. Aufgrund des Umfangs kann hier nicht ausführlich auf den Bericht der Enquete-Kommission eingegangen werden. Allen interessierten Lesern sei es aber durchaus empfohlen, sich genauer in die Kommissionsergebnisse einzulesen.

Kapitel 2

Betrachtung von Ethik in KI und Robotik

2.1 Was ist (Maschinen-)Ethik?

Es gibt viele verschiedene Definitionen für „Ethik". Man kann vereinfacht sagen, dass die Ethik versucht, die Frage „Was soll ich tun?" zu beantworten. Allerdings ist die Antwort darauf immer subjektiv, womit sich eine neue Frage auftut: Wie lassen sich allgemeine Regeln ableiten? Hier sei auf die Verbindung zu Kants kategorischem Imperativ hingewiesen. In 3 wird unter Ethik die Theorie der Moral verstanden, wobei die Moral wiederum die Theorie über gesellschaftliche Regeln, Normen und Werte ist. Dabei ist die Moral ein allgemeineres Konzept. Löst man diese Verkettung auf, ist die Ethik die subjektive Empfindung über gesellschaftliche Regeln, Normen und Werte und beschreibt damit tatsächlich die Frage nach Handlungsanweisungen in einem sozialen Kontext. Die Autoren übertragen dieses menschliche Verständnis auf die Welt der Technologie, indem sie die Maschinenethik über die Frage definieren: „Wie kann eine ethische KI geschaffen werden?" Das Kommissionsgutachten formuliert diesbezüglich die Frage: „Was ist unsere Idee vom Menschsein in einer von KI-Technologie durchdrungen Welt?" Außerdem weisen die Autoren darauf hin, dass über Ethik nicht nur Grenzen des Handelns definiert werden, sondern auch Ziele, die man durch den Einsatz der KI erreichen möchte.

Nachdem nun klar sein sollte, was man unter Maschinenethik versteht, sollte noch geklärt werden, warum es sinnvoll ist, sich damit zu beschäftigen. Ein wichtiger Punkt dabei ist, dass Maschinen eben kein Bewusstsein haben! Wenn wir von KI sprechen, meinen wir zunächst die sogenannte „schwache" KI. Also jene Systeme, die auf einer bestimmten, abgegrenzten Aufgabe oder Materie funktionieren. Das „Lernen" entspricht dann lediglich dem besser werden auf dieser Aufgabe. Dabei kann aber noch lange nicht von einem menschenähnlichen Bewusstsein oder einer allgemeinen KI, die oft auch als „starke" KI bezeichnet wird, die Rede sein. Die Enquete-Kommission macht darauf aufmerksam, dass es wichtig ist, sich dessen bewusst zu sein. Denn die menschlichen metaphorischen Formulierungen wie „die KI lernt" können schnell zu einem falschen Verständnis führen. Wenn es nun also so ist, dass die KI kein Bewusstsein hat, kann sie auch nicht aus sich selbst heraus eine Ethik entwickeln. Es kommt hinzu, dass die Maschine keine Gefühle, keine Intuition und keinen „inneren Wertekompass" hat. Während den „Algorithmen" (dieser Begriff wird im allgemeinen Sprachgebrauch sehr oberflächlich und pauschalisierend verwendet) also dadurch Leitplanken in ihrem Handeln fehlen, können sie zusätzlich noch nicht einmal für ihre Handlungen bestraft werden oder Reue empfinden. Wir haben also auf der einen Seite eine Entität („die KI"), die sich stetig weiterentwickelt, an Bedeutung, Kompetenzen und Zuhörern gewinnt. Auf der anderen Seite aber keine Verantwortung übernehmen kann. Ziel der Maschinenethik muss es sein, diese Verantwortung von außen vorweg zu nehmen. In 4 wird zudem festgestellt, da aufgrund dessen, dass die ethischen Regeln, denen ein System folgt, von außen „hinein programmiert" werden, diese Aufgabe bei den Produzenten des Systems liegt. Auch deswegen ist es wie oben beschrieben keine Option, die Entwicklung von KI ausschließlich Anderen zu überlassen - besonders, wenn es keine multilateralen Übereinkommen gibt.

2.2 KI und Vertrauen

Nun klingt das für einige Leser vielleicht so, als ob man bei den ganzen Risiken vielleicht einfach keine KI erlauben sollte? Zunächst ist es nicht so einfach technologischen Fortschritt aufzuhalten. Des Weiteren sollte das nicht das Ziel sein. Schließlich kann KI auch in nahezu jedem Bereich große Vorteile für die Gesellschaft mit sich bringen. Wer dennoch zweifelt, dem fehlt sichtlich das Vertrauen in den Einsatz von KI. Das Vertrauen ist ein zentraler Stützpfeiler für die gelungene Integration von KI in unser Leben. Dabei geht es einerseits um die Zuversicht, dass das KI-System nach seiner Spezifikation funktioniert, demnach also keine Software-Fehler beziehungsweise sogenannte „Bugs" auftreten. Andererseits bezieht sich das auf das Vertrauen des Menschen, dass die Maschine ethisch richtig und gut handelt - was auch immer das subjektiv bedeuten mag. Die Autoren von 3 haben einige Punkte zusammengetragen, die für dieses Vertrauen äußerst wichtig sind:

1. Die KI darf den Menschen nicht schaden: Das ist sicherlich einer der grundlegendsten Aspekte, der auch an die bekannten Regeln von Isaac Asimov erinnert. Dies betrifft unter anderem, aber nicht ausschließlich, den Einsatz von autonomen Militärsystemen.
2. Die KI muss für den Menschen vorteilhaft sein: Wenn dies nicht so wäre, hätte es selbstverständlich wenig Sinn, diese KI überhaupt einzusetzen. Allerdings stellt sich hier die Frage des Blickpunktes. Auch heute schon gibt es ganz allgemein „Dinge", die nur für gewisse Individuen oder Gruppen beispielsweise finanziell vorteilhaft sind.
3. Die KI muss die Entscheidungen des Menschen respektieren: Auch diese Aussage erinnert an Asimov und muss dahingehend eingeschränkt betrachtet werden, dass die Entscheidungen nur dann berücksichtigt werden sollten, wenn die KI dadurch gegen keine andere Regel verstößt.
4. Die KI muss gerecht und fair handeln: Dafür ist es zunächst nötig, ein „gerechtes" Handeln zu definieren und unfaires Handeln auch erkennen zu können. Ungerechtes Handeln kann unter anderem durch Bias in den Daten, mit denen die KI trainiert wurde erzeugt werden. Darauf wird in einem späteren Abschnitt genauer eingegangen. IBM hat mit „AI Fairness 360" ein Toolkit entwickelt, das in der Lage sein soll, solchen Bias in KI auszugleichen 11.
5. Das KI-System sollte verständlich sein: Dabei geht es nicht darum, dass jeder den tatsächlichen Code nachvollziehen soll. Vielmehr sollte es eine abstrahierte Vermittlung der Funktionsweise geben, sodass der Entscheidungsprozess verständlich wird.
6. Das KI-System sollte einen Manipulationsschutz besitzen: Wie eigentlich jedes (Software-)Produkt sollte es idealerweise einen hundertprozentigen Schutz gegen Manipulation geben. Leider ist es so, dass solche Schutzmaßnahmen nie hundertprozentig sicher sein können. Man könnte dies vielleicht ähnlich betrachten wie die Verwendung von Kreditkarten oder Passwörtern.

In 3 schlagen die Autoren außerdem vor, dass humanoide Roboter, also solche, deren äußere Erscheinung der eines Menschen ähnelt, die Akzeptanz erhöhen könnte. Des Weiteren sollte man sich bewusst sein, dass die Fortschritte in der KI auch das Vertrauen der Menschen in die Medien schädigen können. Die meisten haben sicherlich schon von sogenannten „Deep Fakes" gehört. Dabei werden Videos mittels KI manipuliert und es können beispielsweise Politikern Worte in den Mund gelegt werden, die sie nie gesagt haben. Während man ähnliche Manipulation bei Bildern schon seit einigen Jahren kennt, galten Videos bisher als sicherer Beweis - zukünftig könnte sich das ändern. Sicherlich wird es aber auch Gegenmaßnahmen geben, beispielsweise in Form von digitalen Wasserzeichen.

Aus zwischenmenschlichen Beziehungen kennt man es, dass man mit wachsendem Vertrauen in eine andere Person, auch mehr aus dem privaten Leben teilt. Die Akzeptanz von Eingriffen in die Privatsphäre ist also an das Vertrauen in den gegenüber gekoppelt. Daher betrachten wir im Folgenden kurz den Aspekt der Privatsphäre bezüglich der KI.

2.3 KI und Privatsphäre

KI benötigt Daten. Je mehr, hochqualitativer und vielfältiger, desto besser. Leider ist es jedoch so, dass diese Daten je nach Anwendungsbereich durchaus in die Privatsphäre derer eingreifen, die die Daten - vielleicht sogar unwissentlich(?) - generiert haben. Während das einigen sicherlich prinzipiell schon missfällt, gibt es zudem noch dystopische Bilder inklusive staatlicher Überwachung, die oft auch von den Medien gezeichnet werden.

Laut 3 lässt sich in Umfragen oft eine Ambivalenz feststellen. Die Befragten wollen sowohl ihre Privatsphäre schützen, als auch Geräte oder Gadgets verwenden, die ihre Privatsphäre verletzen (können). Man nimmt die Überwachung also in Kauf, solange der dadurch gewonnene Vorteil groß genug ist.

[...]

Final del extracto de 17 páginas

Detalles

Título
Die Notwendigkeit von ethischen Richtlinien für künstliche Intelligenz. Eine kurze Darstellung
Universidad
University of Applied Sciences Amberg-Weiden
Calificación
1,0
Autor
Año
2021
Páginas
17
No. de catálogo
V999701
ISBN (Ebook)
9783346378415
ISBN (Libro)
9783346378422
Idioma
Alemán
Palabras clave
Ethik, Ethische KI, Human-centered AI, AI, KI, Künstliche Intelligenz
Citar trabajo
Sebastian Steindl (Autor), 2021, Die Notwendigkeit von ethischen Richtlinien für künstliche Intelligenz. Eine kurze Darstellung, Múnich, GRIN Verlag, https://www.grin.com/document/999701

Comentarios

  • No hay comentarios todavía.
Leer eBook
Título: Die Notwendigkeit von ethischen Richtlinien für künstliche Intelligenz. Eine kurze Darstellung



Cargar textos

Sus trabajos académicos / tesis:

- Publicación como eBook y libro impreso
- Honorarios altos para las ventas
- Totalmente gratuito y con ISBN
- Le llevará solo 5 minutos
- Cada trabajo encuentra lectores

Así es como funciona