Leseprobe
Inhaltsverzeichnis
KURZFASSUNG
GENDER-ERKLÄRUNG
ABKÜRZUNGSVERZEICHNIS
ABBILDUNGSVERZEICHNIS
1. EINLEITUNG
1.1. Thema und Ziel der Arbeit
1.2. Methodik
1.3. Gliederung der Abschlussarbeit
2. KÜNSTLICHE INTELLIGENZ
2.1. Definition von künstlicher Intelligenz
2.2. Geschichte der künstlichen Intelligenz
2.3. Bedeutung der künstlichen Intelligenz
3. ETHIK DER KÜNSTLICHEN INTELLIGENZ
3.1. Ethik beim maschinellen Lernen
3.2. Superintelligentes moralisches Denken
3.3. Rechtsschutz für Maschinen
3.4. Zukunft der künstlichen Intelligenz in Bezug auf Ethik
4. BEISPIELE FÜR KÜNSTLICHE INTELLIGENZ UND ETHIK IN DER HEUTIGEN GESELLSCHAFT
4.1. Ethische Fragen im Gesundheitssystem
4.2. Ethische Fragen in der Automobilindustrie
4.3. Ethische Fragen zur Beschäftigung
4.4. Ethische Fragen zu Waffensystemen
5. ZUKÜNFTIGE LÖSUNGEN
5.1. Emotionale Künstliche Intelligenz
5.2. Chatbots - Freund oder Feind?
6. ZUSAMMENFASSUNG UND AUSBLICK
6.1. Schlussbetrachtung
6.2. Ansätze für weitere wissenschaftliche Arbeiten
QUELLENVERZEICHNIS
Kurzfassung
Mit auf künstlicher Intelligenz (KI) basierender Technologie wurden bereits beeindruckende Errungenschaften erzielt, bspw. Gesichtserkennung, medizinische Diagnose und selbstfahrende Autos. Von künstlicher Intelligenz werden enorme Vorteile für das Wirtschaftswachstum, die soziale Entwicklung und die Verbesserung des menschlichen Wohlbefindens und der Sicherheit erwartet. Geringe Interpretierbarkeit, Datenverzerrung, Datensicherheit, Datenschutz und ethische Bedenken von KI-basierten Technologien stellen jedoch erhebliche Risiken für Benutzer, Entwickler und die Gesellschaft dar. Mit fortschreitender KI stellt sich die Schlüsselfrage, wie die mit KI verbundenen ethischen und moralischen Herausforderungen angegangen werden können. Obwohl das Konzept der ,Maschinenethik‘ um 2006 eingeführt wurde, steht die KI-Ethik noch am Anfang. Die Ethik der künstlichen Intelligenz ist ein Bereich, in dem ethische Fragen der künstlichen Intelligenz untersucht werden.
Um das Thema anzugehen, sollten die KI-Ethik und der Aufbau einer ethischen KI berücksichtigt werden. Im Bereich KI-Ethik werden die ethischen Grundsätze, Regeln, Richtlinien und Vorschriften im Zusammenhang mit künstlicher Intelligenz untersucht. Ethische KI ist eine künstliche Intelligenz, die nach ethischen Grundsätzen arbeitet. Es müssen die potenziellen ethischen und moralischen Probleme erkannt und verstanden werden, die durch die KI verursacht werden können, um die notwendigen Prinzipien, Regeln, Richtlinien und Vorschriften für KI (d. h. KI-Ethik) zu formulieren. Mit diesen kann eine KI gebaut werden, die ethischem Verhalten entspricht (d. h. eine ethische KI).
In dieser Arbeit wird die KI-Ethik diskutiert, indem sie untergliedert und untersucht wird. Welche ethischen Probleme gibt es bei der künstlichen Intelligenz? Was sind die allgemeinen und gemeinsamen ethischen Grundsätze, Regeln, Richtlinien und Vorschriften, mit denen diese ethischen und moralischen Probleme der KI angegangen oder zumindest gemildert werden können? Was sind einige der notwendigen Merkmale einer ethischen KI? Wie kann der Mensch sich an diese halten, um eine ethische KI aufzubauen?
Gender-Erklärung
In dieser Arbeit wird aus Gründen der besseren Lesbarkeit die Sprachform des generischen Maskulinums verwendet. Es wird an dieser Stelle darauf hingewiesen, dass die ausschließliche Verwendung der männlichen Form geschlechtsunabhängig verstanden werden soll. Weibliche und anderweitige Geschlechteridentitäten werden dabei ausdrücklich mitgemeint, soweit es für die Aussage erforderlich ist.
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
Abbildungsverzeichnis
Abbildung 1: Komponenten der KI
Abbildung 2: Nutzung von KI in der Operation
Abbildung 3: Teilnehmende Länder an der Studie
Abbildung 4: Dilemma des autonomen Fahrens
Abbildung 5: Ergebnis der Studie
Abbildung 6: Sozial fortgeschrittener Roboter
Abbildung 7: Killerroboter oder KI-Helfer
Abbildung 8: Leonardo, der ausgeklügelte soziale Roboter
Abbildung 9: Die emotionalen Ausdrücke des Roboceptionist-Roboters
1. Einleitung
1.1. Thema und Ziel der Arbeit
Systeme für maschinelles Lernen und künstliche Intelligenz werden in Wirtschaft und Gesellschaft schnell eingeführt. Die anfängliche Begeisterung über die Vorteile dieser Systeme wurde allmählich durch Bedenken gegenüber den damit verbundenen Risiken gedämpft. Zu diesen gehören ein möglicher Mangel an algorithmischer Fairness, was zu diskriminierender Entscheidungsfindung führt, eine potenzielle Benutzermanipulation, die Schaffung von ,Filterblasen‘, ein potenzieller Mangel an Inklusion, Verletzungen der Privatsphäre der Verbraucher und damit verbundene Sicherheits- und Cybersicherheitsrisiken.
Es hat sich gezeigt, dass die Öffentlichkeit - einschließlich Produzenten und Verbrauchern sowie Politikern und Fachleuten aus allen Gesellschaftsschichten - nicht versteht, wie diese Algorithmen funktionieren. Aber auch vielen KI-Experten ist bewusst, dass sie die Entscheidungsfindung von Algorithmen auf der Grundlage von Deep Learning und neuronalen Netzen nicht erklären können. Folglich sind auch KI-Experten besorgt über die unbekannten Auswirkungen dieser Technologien, was Fragen nach internen ethischen Dilemmata aufwirft.
Im Hinblick auf ethische Herausforderungen wirft die Implementierung von KI und Robotik noch nie gestellte Fragen auf. Angesichts der zunehmenden Autonomie und Intelligenz dieser Systeme wird von gesellschaftlichen Auswirkungen gesprochen, die nicht nur neue ethische und rechtliche Rahmenbedingungen erfordern.1
Da die Grenzen zwischen menschlichen Subjekten und technologischen Objekten in der KI nahezu verschwinden, beeinflussen diese Technologien unser grundlegendes Verständnis menschlicher Handlungsfähigkeit und moralischer Verantwortung. Wer für die Handlungen von KI verantwortlich ist, ist eine komplexe ethische Frage. Der Zweck dieser Arbeit ist es, die Ethik der KI im Detail zu erklären und deren große Relevanz sowie alle Vor- und Nachteile aufzuzeigen, aber auch darzustellen, wie einfach es ist, künstliche Intelligenz zu verletzen und zu missbrauchen.
Auch die Geschichte, Bedeutung und Zukunft der künstlichen Intelligenz werden behandelt. Darüber hinaus wird diese Arbeit zeigen, wie sich ethische Fragen auf verschiedene Bereiche der Gesellschaft auswirken, darunter das Gesundheitswesen, die Automobilindustrie, die Beschäftigung und zuletzt das Waffensystem. Es werden die wichtigsten Fakten über KI und KI-Ethik sowie einige Lösungen für die zukünftige Entwicklung präsentiert.
1.2. Methodik
Um die erklärten Ziele dieser Masterthesis zu erfüllen, wurden die folgenden Methoden verwendet: umfassende Analyse, Präsentation, Deduktion, Literaturrecherche (Primär- und Sekundärdaten) sowie mathematische und grafische Methoden zur Diskussion der festgestellten Ergebnisse. Die Dokumentation zu dieser Arbeit ist online in Form von Büchern, Artikeln sowie wissenschaftlichen Arbeiten und Studien verfügbar.
1.3. Gliederung der Abschlussarbeit
In Kapitel 2 dieser Arbeit werden Definition, Geschichte, Bedeutung und aktuelle Entwicklungen der künstlichen Intelligenz behandelt. Es werden die Hauptthemen dieser KI-Ethikarbeit vorgestellt und es wird in die Maschinenethikforschung eingeführt. Anschließend werden maschinelles Lernen, Superintelligenz, ethisches Denken und gesetzliche Rechte besprochen sowie zukünftige und mögliche Verbesserungen in Kapitel 3 aufgezeigt. In Kapitel 4 der Arbeit werden die Auswirkungen von KI auf die Gesellschaft durch ethische Fragen im Gesundheitswesen, in der Automobilindustrie, in der Beschäftigung und im Waffensystem diskutiert. Danach werden zukünftige Lösungen für die ethischen Fragen der Implementierung künstlicher Intelligenz im Alltag aufgezeigt. Im letzten Kapitel dieser Masterthesis werden Schlussfolgerungen auf der Grundlage der wichtigsten Punkte, Ergebnisse und Daten gezogen, die durch die Umfrage gesammelt wurden.
2. Künstliche Intelligenz
2.1. Definition von künstlicher Intelligenz
Künstliche Intelligenz ist die Simulation menschlicher Intelligenzprozesse durch Maschinen, insbesondere Computersystemen. Zu diesen Prozessen gehören Lernen (Regeln für die Beschaffung von Informationen und die Verwendung von Informationen), Argumentation (Verwendung von Regeln zur Annäherung oder Bestimmung eines Fazits) und Selbstkorrektur. Spezifische Anwendungen der KI umfassen Expertensysteme, Spracherkennung und maschinelles Sehen. Die KI kann als schwach oder stark eingestuft werden. Schwache KI, auch als Narrow AI bekannt, ist ein KI-System, das für bestimmte Aufgaben entwickelt und trainiert wurde. Virtuelle persönliche Assistenten wie Siri von Apple sind schwache künstliche Intelligenzen. Starke KI, auch bekannt als allgemeine KI, ist ein künstliches Intelligenzsystem mit verallgemeinerter menschlicher kognitiver Fähigkeit. Bei ungewohnten Aufgaben finden leistungsstarke KI-Systeme Lösungen ohne menschliches Zutun.2 Nachfolgend wird die Untergliederung der Komponenten der KI gezeigt.
Anmerkung der Redaktion:
Diese Abbildung wurde aus urheberrechtlichen Gründen entfernt.
Abbildung 1: Komponenten der KI3
Arend Hintze, Assistenzprofessor für integrative Biologie und Informatik und Ingenieurwesen an der Michigan State University, teilt KI in vier Typen ein, die von heute existierenden künstlichen Intelligenzsystemen bis hin zu noch nichtexistierenden Wahrnehmungssystemen reichen. Seine Kategorien sind:
Typ 1 Reaktive Maschinen: Ein Beispiel ist Deep Blue, das Schachprogramm von IBM, das in den 1990er Jahren Garry Kasparov besiegte. Deep Blue kann Figuren auf dem Brett erkennen und Vorhersagen treffen, aber es hat kein Gedächtnis und kann vergangene Erfahrungen nicht nutzen, um zukünftige zu machen. Es analysiert mögliche Züge - seine eigenen und die seiner Gegner - und wählt die strategischsten Züge aus. Deep Blue und Alpha GO von Google wurden für enge Zwecke entwickelt und können nicht einfach auf andere Situationen angewendet werden.
Typ 2 Maschinen mit begrenztem Speicher: Diese KI-Systeme können Erfahrungen aus der Vergangenheit nutzen, um zukünftige Entscheidungen zu treffen. Einige Funktionen in selbstfahrenden Autos sind so gestaltet. Beobachtungen werden verwendet, um über Aktionen zu informieren, die in naher Zukunft stattfinden, bspw. Autos, die die Fahrspur wechseln. Diese Beobachtungen werden nicht dauerhaft gespeichert.
Typ 3 Theory of Mind: Dies ist ein psychologischer Begriff. Er bezieht sich auf das Verständnis, dass andere ihre eigenen Überzeugungen, Wünsche und Absichten haben, die ihre Entscheidungen beeinflussen. Eine solche künstliche Intelligenz existiert noch nicht.
Typ 4 Selbstbewusstsein: In dieser Kategorie sind KI-Systeme selbstbewusst. Sie kennen ihren aktuellen Zustand und können daraus schließen, wie es anderen geht. Diese Art von künstlicher Intelligenz existiert ebenfalls noch nicht.4
In vielen Bereichen ist KI-Technologie bereits präsent, bspw. in der medizinischen Versorgung. Die größten Vorteile bestehen in der Verbesserung der Patientenergebnisse und der Senkung der Kosten. Unternehmen wenden maschinelles Lernen an, um bessere und schnellere Diagnosen als Menschen zu stellen. Eine der bekanntesten Gesundheitstechnologien ist Watson von IBM. Das System versteht die natürliche Sprache und ist in der Lage, gestellte Fragen zu beantworten. Es durchsucht Patientendaten und andere verfügbare Datenquellen, um eine Hypothese zu bilden, die dann in einem Vertrauensbewertungsmodus präsentiert wird. Andere KI-Anwendungen umfassen Chatbots, d. h. Computerprogramme, die verwendet werden, um Fragen zu beantworten und Kunden online zu unterstützen, um Folgetermine zu vereinbaren oder Patienten durch den Abrechnungsprozess zu führen, und virtuelle Gesundheitsassistenten, die grundlegendes medizinisches Feedback geben.
Künstliche Intelligenz ist eine Art von technologischer Intelligenz auf technischen Maschinen. Für die künstliche Erzeugung jeglicher Art von Intelligenz ist die menschliche kognitive Intelligenz das entscheidende Modell, da diese (und derzeit nur diese) technisch replizierbar ist.
Künstliche Intelligenz ist der Versuch, rationale oder kognitive menschliche Intelligenz auf einer Maschine zu simulieren, um sie für den Menschen gewinnbringend einzusetzen.5
Starke und Schwache KI
Künstliche Intelligenz lässt sich in schwache und starke KI unterscheiden. Starke KI ist ein Begriff für ein System, das künstliches Bewusstsein, Willen oder sogar Emotionen ausdrücken kann. Es ist in keiner Weise realistisch, so etwas heute technisch herzustellen. Irrationale Ängste vor starker KI sind es daher unangebracht. Starke KI ist Science-Fiction.
Machine Learning und neurale Netze
Viele moderne KI-Anwendungen sind auf das Lernen (Induktion) konzentriert. Ein großer Teil der aktuellen Erfolge der KI basiert auf dem sogenannten maschinellen Lernen. Dabei geht es darum, Algorithmen auf Maschinen zu erstellen, die selbstständig und völlig autonom aus vorhandenen Daten lernen können. Es gibt symbolische Lernverfahren wie Entscheidungsbäume oder Assoziationsregeln und subsymbolische Lernverfahren.
Künstliche neuronale Netze (KNN) stellen eine der wichtigsten Basistechnologien des subsymbolischen maschinellen Lernens dar. Das neuronale Netz ist der Informationsverarbeitungseinheit und dem Speichermechanismus des biologischen Gehirns nachempfunden. Eine Vielzahl einfacher Verarbeitungselemente, sogenannte Neuronen, sind über sogenannte Synapsen (Gewichte) mit einer Vielzahl benachbarter Neuronen verbunden. Neuronale Netze sammeln Informationen und berechnen Ergebnisse in sehr einfachen Rechenschritten. Die Leistungsfähigkeit neuronaler Verfahren liegt nicht in der Berechnung eines einzelnen Neurons, sondern in der parallelen Datenverarbeitung von Millionen einzelner Elemente.6
Obwohl die Informationsverarbeitung eines einzelnen Neurons im Prinzip einfach ist, lässt sich die enorme Leistungsfähigkeit des Gesamtsystems durch einen hohen Vernetzungsgrad zwischen Neuronen erreichen. Seit den späten 1980er Jahren ist bekannt, dass neuronale Netze mit drei oder mehr Schichten verwendet werden können, um jede kontinuierliche Beziehung zwischen Eingabe- und Ausgabevariablen mit beliebiger Genauigkeit zu approximieren. Dies ermöglicht universellen Approximatoren mit neuronalen Netzwerken ein breites Anwendungsspektrum in Industrie und Gesellschaft.
Empirische Inferenz
Der Einsatz neuronaler netzbasierter maschineller Lernverfahren führt in der Praxis jedoch auch zu grundsätzlichen Schwierigkeiten, da neuronale Netze nur statistische, keine kausalen Zusammenhänge finden können. Daher ist es notwendig, basierend auf Methoden der empirischen Inferenz, Aussagen über die Wahrscheinlichkeit zu treffen, dass es sich bei dem beobachteten Zusammenhang tatsächlich um einen kausalen Zusammenhang handelt. Es gibt Verfahren, die den beobachteten statistischen Zusammenhang einem kausalen Schluss näherbringen können, aber es ist nicht akzeptabel, aus statistischen auf kausale Zusammenhänge zu schließen, insbesondere wenn diese nicht deduktiv verifiziert werden können. Da eine solche deduktive Validierung aus Kostengründen in der Praxis selten durchgeführt wird, werden viele unlogische oder sogar fehlerhafte Schlussfolgerungen aus der Datenanalyse mit induktiven KI-Methoden gezogen.
Cognitive Computing - die KI der Gegenwart
Ziel der KI ist es, die beiden Intelligenzformen .induktives Lernen' und .schlussfolgerndes Denken' - die der Mensch leicht verbinden kann - technisch nachzubilden und zu kombinieren. Ist dies in technischen Systemen gelungen, wird häufig von Cognitive Intelligence, Cognitive Computing oder Cognitive Technical Systems gesprochen.7
Hardware und die KI der Zukunft
Auch die Hardwaregrundlage der KI wird weiterentwickelt. Während die meisten KI- Systeme heute entweder Standard-Digitalcomputer oder spezielle Grafikprozessoren verwenden, auf denen die Mathematik von Neuronen effizient durchgeführt werden kann, werden derzeit, kaum beachtet von der Öffentlichkeit, neuromorphe Computer entwickelt, mit denen eine neue Ära der künstlichen Intelligenz beginnt. Neuromorphe Computer stehen am Anfang eines Megatrends in der KI, der die Leistungsfähigkeit zukünftiger KI- Systeme um ein Vielfaches verbessern wird.8
Langfristig werden Quantencomputer und Ansätze der KI vereint werden; die daraus resultierenden technologischen Systeme können noch nicht hinsichtlich ihrer Leistungsfähigkeit bewertet werden. Da viele Experten die Hypothese aufstellen, dass auch das menschliche Bewusstsein auf Quantenprozessen in neuronalem Hirngewebe beruht, ist davon auszugehen, dass eines Tages in ferner Zukunft Systeme mit Grundbewusstsein durch neuronale Quantencomputer geschaffen werden könnten.
Risiken und Gefahren
Künstliche Intelligenz ist eine grundlegende Innovation, die in den nächsten 30 Jahren große Auswirkungen auf Technologie und Gesellschaft haben wird. Für ein Land wie Deutschland ist KI eine der bedeutendsten Technologien, um den eigenen Lebensstandard auch in Zukunft im Wettbewerb mit anderen Ländern zu sichern. Allerdings gehen von künstlicher Intelligenz mittlerweile erhebliche Gefahren aus. Aufgrund der einfachen Bedienbarkeit von KI nutzen immer mehr Laien KI-Methoden, ohne zu wissen oder gar zu ahnen, wie sehr und grundlegend fehlerhaft KI sein kann. Dies hat zu einer Fülle falscher Ergebnisse oder ,Pseudowissenschaften‘ in der Gesellschaft geführt. Die Folgen sind inkorrekte Kontrollen, Ineffizienzen und sogar unvorstellbare Schäden für Menschen. Allerdings drohen derzeit viele Gefahren nicht nur durch unkritische Nutzung der Technologie selbst, sondern auch durch diverse KI-Anwendungen etwa im Bereich der menschlichen Überwachung oder in den sozialen Medien.9
Regeln und Gesetze für KI
Deshalb ist es an der Zeit, dass Menschen KI-Gesetze erlassen und diese weltweit durchsetzen, um die Technologie zum Wohle aller zu nutzen. Das Festlegen von Richtlinien, ob national oder privat, reicht nicht mehr aus. Der Gesetzgeber muss rechtsverbindliche Gesetze erlassen. Um dies tun zu können, sollte er ein gutes Verständnis für KI haben. Künstliche Intelligenz steht derzeit ebenso am Scheideweg wie die Atomkraft. Es ist wichtig, sie friedlich zu benutzen und gleichzeitig einzugrenzen.10
2.2. Geschichte der künstlichen Intelligenz
In der Literatur (vgl. McCorduck 1979) gilt eine Konferenz von 1956 am Dartmouth College in Hanover, New Hampshire, USA, als Geburtsstunde der KI.11 John McCarthy, der Organisator der Konferenz, gilt als Gründungsvater der neuen Disziplin. Diese Ehre gebührt laut McCarthy jedoch Alan Turing (McCarthy 1994), der 1947 auf einem Symposium in Manchester die zentrale Frage der künstlichen Intelligenz formulierte: „Können Maschinen denken?“12
In einem historischen Rückblick beschrieb Whinston (MIT) das erste Jahrzehnt seit den späten 1950er Jahren als den Beginn der künstlichen Intelligenz (Whinston 1984). Charakteristisch für die damalige Aufbruchstimmung waren die Vorhersagen des späteren Turing-Preisträgers für Informatik und Nobelpreisträgers für Wirtschaftswissenschaften Herbert A. Simon (vgl. Simon und Newell 1958) Sie lauteten sinngemäß:
1. Innerhalb der nächsten zehn Jahre wird ein Computer Schachweltmeister.
2. Innerhalb der nächsten zehn Jahre wird ein Computer einen wichtigen neuen mathematischen Satz entdecken und beweisen.
3. Innerhalb der nächsten zehn Jahre wird ein Computer Musik von hohem ästhetischem Wert komponieren.
4. Innerhalb der nächsten zehn Jahre werden die meisten Theorien in der Psychologie die Form von Computerprogrammen oder qualitativen Aussagen über Computerprogramme annehmen.
Die Vorhersagen wurden als Hybris angesehen und zogen Kritiker an, die das Forschungsprogramm der neuen Disziplin als Ketzerei (Taube 1961) oder Alchemie (Dreyfus 1965) bezeichneten. Pamela McCorduck bezeichnete Mortimer Taube als den ersten Extremisten unter den KI-Kritikern, während sie den Aufstieg des Philosophen Hubert L. Dreyfus in Anlehnung an den historischen Fall als ,Dreyfus-Affäre‘ katalogisierte.13
Als Mitte der 1970er-Jahre die erhofften Ergebnisse der KI noch nicht sichtbar waren, kamen auch bei den Anhängern der neuen Disziplin Zweifel auf. Weizenbaum, der sich mit seinem Programm ELIZA (Simulation eines Psychotherapeuten) über die klinische Intelligenz hinaus einen Namen gemacht hatte, distanzierte sich mit wohlwollender Kritik von seinen Kollegen (Weizenbaum 1976). Weizenbaums Kritik schmerzte, weil sie von einem Experten kam, dem nicht vorgeworfen werden konnte, nicht zu wissen, worüber er schrieb. Der „Künstlichen Intelligenz“, wie er die führenden Köpfe der Zukunft nannte, warf er technokratisches Fehldenken vor.14
Trotz gescheiterter Vorhersagen, Rückschläge und bitterer Kritik wurde die künstliche Intelligenz in den USA zu einer zwar umstrittenen, aber wichtigen akademischen Disziplin. Zögerlicher verlief die Entwicklung in Deutschland. Konrad Zuse war schon beim Bau seines ersten Computers davon überzeugt, dass er auch für nicht numerische Aufgaben eingesetzt werden konnte. In seinen Memoiren schrieb er: „Ich weiß aus schmerzlicher Erfahrung, dass neue Ideen selten ein interessiertes Publikum finden. In den 1930er Jahren wagte ich es nur, meinen engsten Freunden und Kollegen zu sagen, dass ich dachte, Computer könnten eines Tages einen Schachgroßmeister schlagen. In der Öffentlichkeit werde ich ein Träumer genannt.“ (Zuse 1984).15
Zuses Beziehung zur künstlichen Intelligenz wurde sehr deutlich in seiner Arbeit über Plankalkül, die er 1945 schrieb und erst 1972 veröffentlichte (Zuse 1972). Zuse erklärte, dass die erste Programmiersprache Plankalkül auch für Algebra- und Logikaufgaben sowie Schachprogrammierung geeignet sei. Symbolische Berechnung und Computerschach gehören zur künstlichen Intelligenz (vgl. Nilsson 1974).16
Die Kybernetik17 war ein Vorläufer der künstlichen Intelligenz in Deutschland. Insbesondere Karl Steinbuch (TH Karlsruhe) hat dem neuen Wissenschaftszweig hervorragende Dienste geleistet (Steinbuch 1965). Gegenstand der Kybernetik - der Begriff geht auf Norbert Wiener zurück (vgl. Wiener 1948) - sind nicht Materie und Energie, sondern Informationsprozesse. Steinbuch folgte Turings Position und berief sich auf Turings Grundlagenwerk (Turing 1950) zur Kybernetik.18
2.3. Bedeutung der künstlichen Intelligenz
Im Januar 2016 veröffentlichte das World Economic Forum eine in der deutschen Presse vielfach zitierte Studie19, in der vorausgesagt wurde, dass Industrie 4.0 in den kommenden fünf Jahren mehr als fünf Millionen Arbeitsplätze in den Industrieländern vernichten würde. Diese Prognose verwundert nicht, denn die Automatisierung von Fabriken, Büros, Verwaltung, Verkehr, Haushalten und vielen anderen Bereichen führt seit vielen Jahren dazu, dass Computer, Maschinen und Roboter immer mehr Arbeit leisten. Seit etwa 2010 ist künstliche Intelligenz zu einem der wichtigsten Faktoren dieser Entwicklung geworden.20
Die meisten Menschen werden wahrscheinlich zustimmen, dass harte, schmutzige und ungesunde Arbeit besser von Maschinen erledigt wird und dass zumindest diese Arbeit an Maschinen abgegeben werden sollte. Automatisierung ist also sicherlich eine Errungenschaft, zumindest wenn sie keine schädlichen Nebenwirkungen wie Umweltschäden hat. Viele unangenehme Arbeiten werden von Maschinen schneller, genauer und vor allem wirtschaftlicher erledigt. Die Menschen haben dadurch mehr Zeit für die schönen Dinge des Lebens.
Und das bei gleichzeitigem, vielleicht sogar wachsendem Wohlstand. Denn die Wirtschaft würde diese Maschinen nicht nutzen, wenn sie nicht die Effizienz deutlich steigern würden. Seit vielen Jahrzehnten arbeiten Menschen oft mehr als 40 Stunden pro Woche, sind überlastet, leiden an Burnout und anderen Krankheiten, während die Reallöhne trotz steigender Effizienz sinken. Als Ursache nennen viele Ökonomen den Wettbewerbsdruck. Dieser führt dazu, dass Unternehmen billiger produzieren müssen und deshalb Mitarbeiter entlassen. Um zu verhindern, dass ihr Bargeldumsatz aufgrund niedrigerer Produktpreise sinkt, müssen sie mehr Produkte produzieren und verkaufen, damit die Wirtschaft wächst.
Wenn die Wirtschaft in einem Land wie Deutschland (und in den meisten anderen Industrienationen wie China) weiterwächst, die Bevölkerung aber nicht zunimmt, muss jeder Bürger zwangsläufig mehr konsumieren. Dafür müssen neue Märkte geschaffen werden21, und Werbung ist dazu da, die Menschen davon zu überzeugen, dass sie neue Produkte wollen. Nur so lässt sich - scheinbar - .nachhaltiger' Wohlstand sichern. Anscheinend gibt es keinen Ausweg aus dieser Wachstums- und Konsumspirale. Das hat zwei fatale Folgen: Einerseits werden Menschen durch mehr Konsum nicht glücklicher, im Gegenteil, psychische Erkrankungen nehmen zu. Noch offensichtlicher und vor allem verheerender sind die Auswirkungen des Wachstums auf unsere Lebensbedingungen.19
3. Ethik der künstlichen Intelligenz
So vertraut und spielerisch wie der Kindergartenroboter NAO einem Vierjährigen im Rahmen eines Forschungsprojekts20 eine neue Sprache beibringt, lässt es sich kaum glauben, dass KI eine Bedrohung darstellen könnte. Elon Musk, der Mann, der Tesla leitet und an KI-Systemen arbeitet, ist jedoch besorgt, bspw. angesichts eines Features, das „dem Fahrer die Wünsche vom Mund abliest“.21 22 23 Warum sieht er künstliche Intelligenz jetzt als „grundlegendes Risiko für die Existenz der menschlichen Zivilisation", wie er kürzlich bei einem Treffen des Staatsrates von Rhode Island vor US-Politikern erklärte? Musk warnte, dass dies „die größte Bedrohung ist, der wir als Zivilisation ausgesetzt sind“ 25.
Tage später erfuhren seine Twitter-Follower, dass er es mit seinen Warnungen ernst meinte. Dort knüpfte er an und verglich das Risiko der Entfesselung von KI mit dem aktuellen Risiko aus Nordkorea: „Wenn Sie sich nicht bereits Sorgen um die KI-Sicherheit machen, sollten Sie dies tun. Viel gefährlicher als Nordkorea. “26 Könnte künstliche Intelligenz also einen lebensgefährlichen Konflikt auf der Straße auslösen, der das Leben der Verkehrsteilnehmer gefährdet? „Natürlich nicht“, antwortete Professor Hermann Hauser. Seiner Meinung nach werden selbstfahrende Autos, die mit KI ausgestattet sind, viel sicherer sein als Menschen. „Das ist kein besonders hohes Niveau und kein großes Problem“, erklärte der ATZ-Physiker in einem Interview.24
3.1. Ethik beim maschinellen Lernen
Ethik ist eine Reihe von moralischen Prinzipien, die das Verhalten einer Gruppe oder eines Individuums regeln.25 „Wenn Menschen genetisch getäuscht werden, zu denken, dass sie an ein altruistisches moralisches Ziel gebunden sind, dann funktionieren sie besser, und alle sollten sich daran halten“, so E. O. Wilson.26
Das Mildernde ist, dass Moralkodizes viel gemeinsam haben, von der Kultur bis zur Kultur der „tiefen moralischen Struktur“. Die Moralkodizes, die verschiedene Kulturen gemeinsam haben, sind:27
- Gegenseitigkeit, einschließlich Aggression und Interessen
- Ranking, Rang, Status, Autorität
- Rahmen der Universalität der ethischen Grundregeln
- Wertschätzung von Ehrlichkeit und Vertrauenswürdigkeit
- Diskreditierung von nicht provozierter Aggression
- Regelrangfolge, bspw. ,Mord ist schlimmer als Stehlen'
Die Schlussfolgerung ist, dass ein Moralkodex eine Reihe von Regeln ist, die sich unter dem Druck entwickelt haben, dass die Befolgung dieser Regeln gegen das individuelle Interesse dazu geführt hat, dass Gesellschaften gedeihen, insbesondere zahlreicher, beneidenswerter, militärisch mächtiger und widerstandsfähiger werden und ihre Ideen auf andere Weise verbreiten.28 Die Frage, ob Maschinenethik existiert oder in Zukunft existieren könnte, ist schwer zu beantworten, wenn keine Einigung darüber herrscht, was als Maschinenethik gilt. Einige mögen argumentieren, dass Maschinenethik offensichtlich existiert, weil Maschinen von Menschen gemacht sind und Menschen Ethik haben. Andere könnten argumentieren, dass Maschinenethik nicht existiert, weil Ethik ein emotionaler Ausdruck ist und Maschinen keine Emotionen haben können.29 Vielfältige Positionen zur Ethik von Maschinen sind möglich. Wenn Menschen über T echnologie und Werte sprechen, denken sie oft an ethische Werte. Aber nicht alle Werte sind ethisch. Praktische, wirtschaftliche und ästhetische Werte basieren bspw. nicht unbedingt auf ethischen Erwägungen. Ein technisches Produkt, wie ein neues Segelboot, könnte praktisch, langlebig, teuer und ästhetisch ansprechend sein, unabhängig von ethischen Werten.30 Ein typisches Theorem zeigt, dass es sich um einen normativen, aber keinen ethischen Akteur handelt.31
Computertechnologie kann nicht nur anhand von Designstandards (d. h. ihrer Funktionalität), sondern auch anhand ethischer Standards bewertet werden. Ein Beispiel für eine ethische Norm gibt das Magazin „ wired“: Katar ist ein ölreiches Land am Persischen Golf, westlich orientiert und beeinflusst und gleichzeitig von islamischer Tradition durchdrungen. In Katar vermischen sich kulturelle Traditionen manchmal ohne Zwischenfälle - bspw. können Frauen westliche Kleidung oder einen vollständigen Schleier tragen. Es gibt auch Kulturkonflikte, wie die Kamelrennen beweisen, die seit Jahrhunderten die Unterhaltung der wohlhabenden Region darstellen. Kameljockeys müssen leicht sein - je leichter der Jockey, desto schneller das Kamel. Kamelbesitzer fesseln sehr kleine Jungen aus ärmeren Ländern, um auf ihren Kamelen zu reiten. Die Besitzer haben in der Vergangenheit junge Sklaven misshandelt, einschließlich der Einschränkung ihrer Nahrung, um sie leicht zu halten. Die Vereinten Nationen und das US-Außenministerium wandten sich gegen Menschenhandel und verhängten Wirtschaftssanktionen gegen Katar. Die Lösung bestand darin, Roboter-Kameljockeys zu entwickeln. Diese sind etwa zwei Fuß groß und wiegen 35 Pfund. Die rechte Hand des Roboterjockeys hält die Peitsche und die linke Hand hält die Zügel. Das System läuft unter Linux, kommuniziert mit 2,4 GHz und verfügt über einen GPS-fähigen Kamel-Herzfrequenzmesser.32
In diesem Beispiel ist die implizit positive Seite der Computertechnologie erkennbar, da Kinder aus ärmeren Ländern aus der Sklaverei befreit wurden und neue Möglichkeiten erhielten. Dies ist auch für die katarische Gemeinschaft positiv, da sie keinen Wirtschaftssanktionen ausgesetzt sein wird. Aber auch die künstliche Intelligenz hat zwei Seiten und einige Philosophen befürchten, dass sie uns an der Spitze der Nahrungskette ersetzen wird.
Keith Frankish, Professor an der University of Cambridge und Autor des Cambridge Handbook of Artificial Intelligence, erklärt es so: „Nehmen wir an, dass die KI nicht nur schlau ist, sondern dass sie als Teil des Systems ungehinderten Zugriff auf ihren eigenen Quellcode hat, Prozess der Verbesserung ihrer eigenen Intelligenz: Sie kann sich selbst umschreiben, was sie will, aber das bedeutet nicht, dass sich die KI in eine feindliche Form umschreiben muss.“33
Menschliche Dominanz hängt von menschlicher Intelligenz ab, aber was geschieht, wenn Menschen künstliche Intelligenzen schaffen, die klüger sind als sie? Das Konzept ist als „Singularität“ bekannt: der Punkt, an dem Menschen nicht mehr die intelligentesten Kreaturen der Erde sind.34
Das erinnert an Isaac Asimovs „Drei Gesetze der Robotik“:
1. Roboter dürfen Menschen nicht schaden oder zulassen, dass Menschen durch Untätigkeit geschädigt werden.
2. Roboter müssen menschlichen Befehlen gehorchen, es sei denn, diese Befehle stehen im Widerspruch zum ersten Gesetz.
3. Roboter müssen ihre Existenz schützen, solange dieser Schutz nicht gegen das erste oder zweite Gesetz verstößt.35
Die Singularität wird diese Regeln aufheben. Der britische Mathematiker und Kryptograf I.J. Goode warnte erstmals vor der Singularität, als er 1965 in seiner Arbeit „Conjectures on the First Superintelligent Machine“ den Begriff „Intelligenzexplosion“ prägte. Wenn Menschen erfolgreich künstliche allgemeine Intelligenz (AGI) aufbauen, kann es zu einer Intelligenzexplosion kommen, die es Systemen ermöglicht, sich selbst rekursiv zu verbessern, was schließlich zu künstlicher Superintelligenz (ASI) führt.36 Die KI würde ihr eigenes Design verstehen, würde sich selbst umgestalten oder ein Nachfolgesystem schaffen, das sich dann selbst umgestalten würde - ein wiederholbarer Prozess mit unbekannten Grenzen.37
Wie anhand von Beispielen zu sehen ist, haben sowohl die positive als auch die negative KI in Bezug auf die Ethik noch einen langen Weg vor sich, um zu definieren, was genau ein ethischer Standard ist, dem gefolgt werden muss.
3.2. Superintelligentes moralisches Denken
J. Good stellte 1965 die klassische Hypothese über Superintelligenz auf: Eine KI, die intelligent genug ist, um ihr eigenes Design zu verstehen, kann sich selbst neu entwerfen oder ein nachfolgendes System erstellen, das intelligenter ist, und sich dann beliebig oft selbst neu entwerfen, um intelligenter zu werden, wodurch ein positives Bild entsteht. Yudkowsky (2008) listet drei Metaphern auf, um die Fähigkeit der KI zu visualisieren, klüger als Menschen zu sein:38
Metaphern, die von individuellen Unterschieden in der menschlichen Intelligenz inspiriert sind: KI wird neue Erfindungen patentieren, bahnbrechende Forschungsarbeiten veröffentlichen, Geld an der Börse verdienen oder politische Machtgruppen anführen.
Metaphern, inspiriert von W issensunterschieden zwischen vergangenen und gegenwärtigen menschlichen Zivilisationen: Schnelle KI wird die Fähigkeit erfinden, die Futuristen normalerweise in einem Jahrhundert oder in tausend Jahren von heute für die menschliche Zivilisation prognostizieren, bspw. molekulare Nanotechnologie oder interstellare Reisen.
Metaphern, die von Unterschieden in der Gehirnstruktur zwischen Menschen und anderen Organismen inspiriert sind: So schrieb Vinge (1993): „Stellen Sie sich den Verstand eines Hundes vor, der mit sehr hoher Geschwindigkeit läuft. Würden tausend Jahre Hundeleben zu irgendeiner menschlichen Einsicht beitragen?“ Das heißt, Änderungen in der kognitiven Architektur können Einsichten hervorbringen, die der Verstand auf menschlicher Ebene nicht finden kann.
Selbst wenn wir uns auf historische Metaphern beschränken, ist klar, dass übermenschliche Intelligenz beispiellose ethische Herausforderungen darstellt. Ein hypothetischer Moment, in dem KI und andere Technologien so weit fortgeschritten sind, dass die Menschheit dramatische und irreversible Veränderungen erfährt, wird als Singularität bezeichnet.39 Der Begriff Singularität wurde erstmals von Vernor Vinge in seinem Science-Fiction-Roman „Imprisoned in Real Time“ eingeführt und später in seinem Artikel „The Coming Technological Singularity“ entwickelt.40
Seine Definition der Singularität ist weithin als das Ereignishorizont-Argument bekannt, das im Wesentlichen besagt, dass transhumanes oder posthumanes Denken eine Zukunft implizieren wird, die noch seltsamer ist, als wir uns vorstellen können: „In dreißig Jahren werden wir die technischen Mittel haben, bald danach geht das Zeitalter der Menschheit zu Ende. [...] Ich denke, es ist fair, dieses Ereignis als Singularität zu bezeichnen. An diesem Punkt muss unser Modell verworfen werden, und die neuen Regeln der Realität. Je näher wir diesem Punkt kommen, desto umfassender werden menschliche Angelegenheiten verhüllt, bis das Konzept alltäglich wird. Wenn es jedoch endlich passiert, kann es immer noch eine große Überraschung und eine noch größere Unbekannte sein."41
Die ,moralische Singularität' bezieht sich darauf, wie Moral - ein bestimmtes System von Werten und Verhaltensprinzipien - aussehen wird, sobald (a) die menschliche Intelligenz und die kognitiven Fähigkeiten zunehmen und (b) mit Auftreten der künstlichen allgemeinen Intelligenz (AGI) Änderungen stattfinden. Ein Ethikkodex ist eine Zusammenstellung von Regeln, die auf einer moralischen Analyse basieren und sich mit dem intellektuellen und moralischen Fortschritt weiterentwickeln, wenn auch langsamer. Moral und moralischer Fortschritt sind grundlegende Bestandteile der intellektuellen Singularität.42 Bessere Urteile sind möglich, wenn die Fähigkeit des Menschen zunimmt, ethische Entscheidungen zu analysieren und folglich auch die Fähigkeit, die Bemühungen zum Sammeln von Informationen genau zu priorisieren und diese Informationen zu analysieren und zu verarbeiten. Dies wird zu einem zyklischen Prozess mit positiver Rückkopplung, der ihn in Richtung einer hyperbolischen Wachstumskurve treibt.43 Intelligenz fördert moralisches Denken, dieses wiederum fördert Intelligenz. Eine moralisch kaskadierende positive Rückkopplungsschleife wird eine intelligente Singularität erzeugen.44
3.3. Rechtsschutz für Maschinen
In der Science-Fiction wird ein Roboter häufig als eine autonome Maschine beschrieben, die in der Lage ist, eigene Entscheidungen zu treffen und ihre eigene Persönlichkeit zum Ausdruck bringt. Wenn eine Maschine denken, entscheiden und handeln kann, wie sie will, wenn sie Schaden nehmen oder für ihre Handlungen verantwortlich sein kann, sollten wir dann nicht aufhören, sie als Eigentum zu sehen, sondern sie als jemanden mit Rechten zu betrachten?45
[...]
1 Vgl. Smith, Y. (2018) Ethics and Artificial Intelligence. Naked capitalism https://www.nakedcapitalism.com/2018/12/ethics-artificial-intelligence.html, aufgerufen am 01.07.2022
2 Vgl. Rouse, M. (2018) Predictive storage analytics, AI deliver smarter storage. AI (artificial intelligence). https://searchenterpriseai.techtarget.com/definition/AI-Artificial-Intelligence, aufgerufen am 09.06.2022
3 Vgl. Definition AI (2022). https://searchenterpriseai.techtarget.com/definition/AI-Artificial-Intelligence, aufgerufen am 09.06.2022
4 Vgl. Artificial Intelligence https://exploreai.org/p/ai-definition, aufgerufen am 09.06.2022
5 Vgl. Lenzen, M.: »Künstliche Intelligenz«, C. H. Beck, 2018, S. 12
6 Vgl. Otte, Ralf: Allgemeinbildung Künstliche Intelligenz. Risiko und Chance für Dummies, 1., Weinheim, Deutschland: Wiley-VCH, 2021.
7 Vgl. Atkinson, R. D. (2016). "It's going to kill us!" and Other Myths About the Future of Artificial Intelligence.
8 Vgl. Otte, Ralf: Allgemeinbildung Künstliche Intelligenz. Risiko und Chance für Dummies, 1., Weinheim, Deutschland: Wiley-VCH, 2021.
9 Vgl. RAND. (2017). An Intelligence in our Image. The Risks of Bias and Errors in Artificial Intelligence.
10 Ebd.
11 Die Themen der Dartmouth-Konferenz waren: Automatisierung heuristischer Prozesse und regelbasierter Fertigkeiten sowie der Fahigkeit Schach auf hohem Niveau zu spielen. Dem Schachspiel wurde spater (1966) von McCarthy die Rolle einer Drosophila der Kunstlichen Intelligenz zugewiesen (vgl. McCarthy 1990).
12 Später veröffentlicht in der philosophischen Zeitschrift "Mind" (Turing 1950).
13 Vgl. Stadtler, E. D. K. S. H. S. P. (1998). Sozialgeschichte der Informatik: Kulturelle Praktiken Und Orientierungen (Studien Zur Wissenschafts- Und Technikforschung) (German Edition) (1998. Aufl.). Deutscher Universitätsverlag.
14 Vgl. Stanford University. (2016). One Hundred Year Study on Artificial Intelligence (AI100)
15 Vgl. H.D. Hellige, “Die Genese von Wissenschaftskonzepten der Computerarchitektur: Vom "System of Organs" zum Schichtenmodell des Designraums,” Geschichten der Informatik: Visionen, Paradigmen, Leitmotive, Berlin and Heidelberg: Springer, 2004
16 Vgl. J.W. Haanstra et al., “Processor Products—Final Report of the SPREAD Task Group, December 28, 1961,” Annals of the History of Computing, vol. 5, no. 1, 1983, p. 7.
17 Der Fachbereich Informatik der TU Berlin hieß noch bis Mitte der siebziger Jahre "Fachbereich Kybernetik".
18 Vgl. Aguis, C. (2017) Evolution of AI: Past, Present, Future. Medium.
19 Vgl. Accenture. (2017) https://www.accenture.com/ acnmedia/pdf-54/accenture-artificial-intelligence- ai-overview.pdf, aufgerufen am 01.07.2022
20 Vgl. Burkert, A.: Der Kindergarten-Roboter. Online: https://www.springerprofessional.de/link/13337220, aufgerufen am 01.07.2022
21 Ebd.
22 Vgl. Elon Musk at NGA - AI Killing People? Model 3. Online: https://www.youtube.com/watch?v=mUeYyc-4qK8, aufgerufen am 02.07.2022
23 Vgl. Tweet vom 12. August 2017, 02:29. Online: https://twitter.com/elonmusk/status/896166762361704450, aufgerufen am 02.07.2022
24 Vgl. Burkert, A.: „Künstliche Intelligenz kann auch intuitiv handeln“, Interview mit Hermann Hauser. Online: https://www.springerprofessional.de/link/14894584, aufgerufen am 02.07.2022
25 Vgl. TechTerms. Computer Ethics https://techterms.com/definition/computerethics, aufgerufen am 02.07.2022
26 Vgl. Richards, R.J. Darwin‘s evolutionary ethics. The Empirical and Normative Justification. Chapter eight. http://home.uchicago.edu/~rjr6/articles/Moral%20Justification%20of%20Darwinian%20Ethics.pdf, aufgerufen am 02.07.2022
27 Vgl. Anderson, M.; Anderson, S.L. (2011) Machine Ethics. Cambridge University Press 2011. Cambridge Massachusetts.
28 Vgl. Storrs Hall, J. (2000) Ethics for Machines. https://autogeny.org/ethics.html, aufgerufen am 02.07.2022
29 Vgl. Gunkel, D.J.G. (2012) The Machine Question: Critical Perspectives on AI, Robots, and Ethics, The MIT Press. Cambridge, Massachusetts. London, England
30 Vgl. Anderson, M. Leigh Anderson, S. (2011) Machine Ethics. Cambridge University Press. United States of America.
31 Vgl. Moore, J.H. (2006) Machine Ethics The Nature, Importance, and Difficulty of Machine Ethics. Dartmouth College. Hanover, New Hampshire.
32 Ebd.
33 Vgl. Bostrum, N.; Yudkowsky, E. (2011) The Ethics of Artificial Intelligence Draft for Cambridge Handbook of artificial Intelligence. Cambridge University Press.
34 Vgl. Sysiak, P. (2016) AI Revolution 101 AI Revolution. Medium.com https://medium.com/ai- revolution/ai, aufgerufen am 03.07.2022
35 Vgl. De Spiegeleire, S. (2017) ARTIFICIAL INTELLIGENCE AND THE FUTURE OF intelligence and the future of defense: strategic implications for small- and medium-sized force providers
36 Vgl. De Spiegeleire, S. (2017) ARTIFICIAL INTELLIGENCE AND THE FUTURE OF intelligence and the future of defense: strategic implications for small- and medium-sized force providers
37 Vgl. Dubber, M. D., Pasquale, F., & Das, S (Eds.). (2020). The oxford handbook of ethics of AI the oxford handbook of ethics of AL. Oxford University Press.
38 Vgl. Bostrum, N.; Yudkowsky, E. (2011) The Ethics of Artificial Intelligence Draft for Cambridge Handbook of artificial Intelligence. Cambridge University Press.
39 Vgl. Ahlberg, L. (2018) THE EFFECTS OF THE TECHNOLOGICAL SINGULARITY https://pawsthetics.files.wordpress.com/2018/05/lanna-ahlberg--the-singularity.pdf, aufgerufen am 02.07.2022
40 Vgl. What is the best definition of Singularity? http://www.singularitysymposium.com/definition-of- singularity.html, aufgerufen am 04.07.2022
41 Ebd.
42 Vgl. Faggella, D. (2018) Moral Singularity. Faggella https://danfaggella.com/moral-singularitv/, aufgerufen am 04.07.2o22
43 Vgl. Fink, O. (2012) Ethical Cascade Singularity. HackingTheUniverse http://www.hackingtheuniverse.com/singularity/ethics/ethical-cascade-singularity, aufgerufen am 04.07.2022
44 Ebd.
45 Vgl. Bowyer, K. (2017) Robot rights: at what point should an intelligent machine be considered a =person'? The conversation. http://theconversation.com/robot-rights-at-what-point-should-an- intelligent-machine-be-considered-a-person-72410, aufgerufen am 04.07.2022