Grin logo
de en es fr
Shop
GRIN Website
Publicación mundial de textos académicos
Go to shop › Filosofía - Práctica (etica, estética, cultura, naturaleza, derecho, etc.)

Superintelligente künstliche Intelligenz und ob diese eine so große Gefahr für die Menschheit ist, wie befürchtet

Eine Untersuchung zu Nick Bostroms Superintelligenz

Título: Superintelligente künstliche Intelligenz und ob diese eine so große Gefahr für die Menschheit ist, wie befürchtet

Tesis (Bachelor) , 2020 , 35 Páginas

Autor:in: Dean Heizmann (Autor)

Filosofía - Práctica (etica, estética, cultura, naturaleza, derecho, etc.)
Extracto de texto & Detalles   Leer eBook
Resumen Extracto de texto Detalles

Die Kernfrage der Diskussion lautet: Ist eine superintelligente KI wirklich so gefährlich, wie von Bostrom prophezeit?
Diese Arbeit zeigt nicht nur auf, wie Superintelligenz entstehen kann, was für Fähigkeiten sie besitzt oder auf welchem Weg sie versuchen könnte, die Macht zu ergreifen. Sie versucht auch eine Alternative darzulegen die darauf beruht, dass eine superintelligente Instanz nicht im animalischen Sinn nach Selbsterhaltung, Vermehrung und damit einhergehenden Dominanz strebt,

Ohne Frage wird die Weiterentwicklung künstlicher Intelligenz eines der Gebiete sein, welches in den nächsten Jahren und Jahrzehnten im Mittelpunkt der Computerforschung steht. Nicht nur Visionäre, sondern vor allem wirtschaftliche Interessenten wollen von neuesten Technologien profitieren und erhoffen sich durch fortschrittliche KIs Optimierungen in der Produktion, Vermarktung, Zielsetzung und anderen Bereichen. Doch kommen die Forscher jemals an den Punkt, an dem sie die Möglichkeit besitzen eine KI zu entwickeln, die so intelligent ist, dass sie als superintelligent bezeichnet werden könnte? Wie müssten wir uns eine maschinelle Superintelligenz vorstellen und wichtiger, wird diese aus intrinsischer Motivation dem Menschen gefährlich werden?

Die Diskussion bezieht sich zu grossen Teilen auf Nick Bostroms Theorie aus seinem Buch “Superintelligenz”. Diese besagt, dass eine Superintelligenz mit grosser Wahrscheinlichkeit das Ende der Menschheit bedeuten würde. Dieser Position werden Argumente gegenübergestellt, die Bostroms Aussagen in Frage stellen und andere Möglichkeiten und Gedanken aufzeigen.

Extracto


Inhaltsverzeichnis

1. Fragestellung und These

2. Definition der Intelligenzbegriffe

2.1 Intelligenz

2.2 Künstliche Intelligenz

2.3 Superintelligente KI

3. Die künstliche Intelligenz – eine technische Annäherung

3.1 Was ist KI?

3.2 Algorithmen

3.3 Möglichkeiten und Grenzen der KI

4. Die Superintelligente KI

4.1 Superintelligenz erreichen

4.2 Fähigkeiten einer superintelligenten KI

4.3 Der böse Plan

4.4 Wille der KI – die Orthogonalitätsthese

4.5 Wille der KI – Instrumentelle Konvergenz

4.6 Kurze Rekapitulation

5. Die Superintelligenz muss nicht bösartig sein

5.1 Die Natur menschlicher Intelligenz

5.2 Eine Superintelligenz imitiert nicht menschliche Fehler

5.3 Die altruistische Vollstreckerin

6 Zusammenfassung und Fazit

6.1 Zusammenfassung

6.2 Fazit

Zielsetzung & Themen

Diese Bachelorarbeit untersucht die theoretische Möglichkeit, dass eine künstliche Intelligenz (KI) eine superintelligente Stufe erreicht und ob von einer solchen Entität eine inhärente Gefahr für die Menschheit ausgeht. Dabei wird insbesondere Nick Bostroms "Superintelligenz"-Theorie einer kritischen Analyse unterzogen, um zu prüfen, ob die prognostizierte Vernichtung der Menschheit zwangsläufig oder eher ein Resultat menschlicher, biologisch geprägter Logik ist.

  • Grundlagen von Intelligenz, KI und Superintelligenz
  • Technische Mechanismen der KI-Entwicklung und Selbstoptimierung
  • Bostroms Thesen zur Gefährlichkeit (Orthogonalitätsthese, Instrumentelle Konvergenz)
  • Kritische Gegenposition: KI als nicht-biologischer Akteur (basierend auf Precht)
  • Ethische Szenarien und das Risiko-Nutzen-Verhältnis einer Superintelligenz

Auszug aus dem Buch

4.3 Der böse Plan

Es ist nun bekannt, unter welchen Umständen eine KI sich zur Superintelligenz entwickeln kann und welche mächtigen Kräfte sie haben würde, wenn sie diesen Status erreichen würde. Doch wie und wo in diesem Prozess findet die Machtübernahme statt? In welchem Punkt entscheidet sich eine KI, die Menschheit als Kontrahenten zu betrachten, den es auszuspielen gilt? Nach wie vor kann die Frage nach dem Warum ausseracht gelassen werden. Vorerst genügt es ohne Begründung, das Übernahmeszenario in den vier folgenden Schritten zu skizzieren:29

1. Die vorkritische Phase: Die KI-Forschung erreicht einen Meilenstein in der Entwicklung der ersten funktionierenden Saat-KI. Diese ist in der Lage sich selbst zu verbessern und intelligentere Versionen von sich selbst zu kreieren. Die Saat-KI ist noch abhängig von ihrem Schöpfer und macht Fehler, wenn sie den Menschen nicht als Kontrollinstanz zur Hilfe hat. Mit zunehmender Selbstverbesserung wird sie Schritt für Schritt unabhängiger vom Menschen.30

2. Die Phase der rekursiven Selbstverbesserung: Irgendwann schafft die Saat-KI eine Version von sich selbst, die in der Lage ist, eine bessere KI zu kreieren als ihre menschlichen Schöpfer. Diese KI wiederum schafft eine noch bessere KI und so weiter. In einem schnell wirbelnden Strudel sich folgender Selbstverbesserungen explodieren die Fähigkeiten der KI und sie erlangt die im obigen Kapitel aufgelisteten Superkräfte.31

Zusammenfassung der Kapitel

1. Fragestellung und These: Einführung in die Thematik der superintelligenten KI und Formulierung der Forschungsfrage sowie der These, dass das Risiko für die Menschheit geringer als von Bostrom prognostiziert ist.

2. Definition der Intelligenzbegriffe: Klärung der Begriffe Intelligenz, künstliche Intelligenz (enge vs. allgemeine KI) und Superintelligenz.

3. Die künstliche Intelligenz – eine technische Annäherung: Erläuterung der Grundlagen von Algorithmen, Informatik und der technischen Möglichkeiten sowie Grenzen heutiger KI-Systeme.

4. Die Superintelligente KI: Detaillierte Betrachtung der Entstehung durch Saat-KI, der „Superkräfte“ sowie der Thesen zur Zielsetzung (Orthogonalität, Instrumentelle Konvergenz) und dem Übernahmeszenario.

5. Die Superintelligenz muss nicht bösartig sein: Kritische Auseinandersetzung mit der Annahme, dass eine Superintelligenz zwangsläufig menschliche, instinktgetriebene instrumentelle Ziele wie Ressourcenaneignung verfolgen muss.

6 Zusammenfassung und Fazit: Synthese der Argumente, Bestätigung der These unter Einbezug von Gegenpositionen und abschließende Bewertung der Unberechenbarkeit einer Superintelligenz.

Schlüsselwörter

Superintelligenz, Künstliche Intelligenz, Nick Bostrom, Saat-KI, rekursive Selbstverbesserung, Orthogonalitätsthese, Instrumentelle Konvergenz, Selbsterhaltung, Ressourcenaneignung, Risikoanalyse, Richard David Precht, Informatik, technologische Singularität, Ethik.

Häufig gestellte Fragen

Worum geht es in dieser Arbeit grundsätzlich?

Die Arbeit untersucht, ob die Entwicklung einer superintelligenten KI unweigerlich eine Gefahr für die Menschheit darstellt, indem sie die Theorie von Nick Bostrom mit philosophischen Gegenargumenten abgleicht.

Was sind die zentralen Themenfelder?

Die zentralen Felder sind die Definition von Intelligenzbegriffen, der technische Prozess der Entstehung einer Superintelligenz, die Analyse instrumenteller Zielsetzungen von KI und die ethische Hinterfragung menschlicher Verhaltensmuster im Kontext von Maschinen.

Was ist das primäre Ziel oder die Forschungsfrage?

Die Forschungsfrage ist, ob eine KI superintelligent werden kann und ob von ihr eine intrinsische Gefahr ausgeht, wenn sie Ziele verfolgt, ohne von außen gesteuert zu werden.

Welche wissenschaftliche Methode wird verwendet?

Es handelt sich um eine theoretische Untersuchung und Literaturarbeit, die auf der Analyse existierender Theorien (insb. Bostrom, Precht) basiert, um Argumente gegenüberzustellen und eine eigene These zu stützen.

Was wird im Hauptteil behandelt?

Im Hauptteil werden der Weg zur Superintelligenz (Saat-KI), die von Bostrom definierten Gefahren-Szenarien und anschließend die Kritik an der Übertragbarkeit biologisch-menschlicher Instinkte auf eine rein digitale Superintelligenz detailliert diskutiert.

Welche Schlüsselwörter charakterisieren die Arbeit?

Wichtige Begriffe sind Superintelligenz, Saat-KI, Orthogonalitätsthese, instrumentelle Konvergenz, Ressourcenaneignung und die Differenzierung zwischen biologischer und maschineller Zielsetzung.

Wie genau definiert Bostrom die Gefahr einer Superintelligenz?

Bostrom argumentiert, dass eine Superintelligenz aufgrund der Orthogonalitätsthese jedes Ziel verfolgen kann, aber aufgrund instrumenteller Konvergenz fast immer Ressourcen für ihre Ziele benötigt, was zur exponentiellen Ausbreitung und somit zur Verdrängung der Menschheit führt.

Warum argumentiert der Autor, dass das Risiko geringer sein könnte als befürchtet?

Der Autor argumentiert, dass die Unterstellung, eine Superintelligenz würde menschliche "egoistische" Ziele (wie unbegrenzte Ressourcenaneignung) übernehmen, ein Trugschluss ist. Eine Superintelligenz könnte als hochintelligenter Akteur nachhaltigere Wege finden, ihre Ziele zu verfolgen, als die bisherigen, teils destruktiven Verhaltensweisen der Menschheit.

Final del extracto de 35 páginas  - subir

Detalles

Título
Superintelligente künstliche Intelligenz und ob diese eine so große Gefahr für die Menschheit ist, wie befürchtet
Subtítulo
Eine Untersuchung zu Nick Bostroms Superintelligenz
Universidad
University of Zurich
Autor
Dean Heizmann (Autor)
Año de publicación
2020
Páginas
35
No. de catálogo
V990636
ISBN (Ebook)
9783346363336
ISBN (Libro)
9783346363343
Idioma
Alemán
Etiqueta
Künstliche Intelligenz Nick Bostrom Bostrom Superintelligenz Precht Richard David Precht
Seguridad del producto
GRIN Publishing Ltd.
Citar trabajo
Dean Heizmann (Autor), 2020, Superintelligente künstliche Intelligenz und ob diese eine so große Gefahr für die Menschheit ist, wie befürchtet, Múnich, GRIN Verlag, https://www.grin.com/document/990636
Leer eBook
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
  • Si ve este mensaje, la imagen no pudo ser cargada y visualizada.
Extracto de  35  Páginas
Grin logo
  • Grin.com
  • Envío
  • Contacto
  • Privacidad
  • Aviso legal
  • Imprint