In dieser Facharbeit werde ich die Bedeutung der Intelligenz für das menschliche Leben erläutern, um zu verdeutlichen, warum wir von Intelligenten Maschinen sprechen. Danach werde ich mich mit der Intelligenz an sich befassen. Dafür werde ich einen kleinen Einblick in die Geschichte der Intelligenzforschung geben, um zu erläutern, auf welchen Basen unsere heutigen Erkenntnisse aufbauen. Daran anschließend werde ich mich mit dem sechs Intelligenzen Modell von Howard Wagner befassen, da dieses mein Verständnis unserer Intelligenz am besten widerspiegelt, für die Programmierung einer Künstlichen Intelligenz, im Sinne von Howard Gardner, werde ich ein Beispiel einer Künstlichen musikalischen Intelligenz geben und ihre Qualität belegen. Anschließend werde ich Überlegungen anstellen bezüglich der Moral für Künstliche Intelligenzen.
Ich ergründe zuerst, woher die Moral stammt und was ihr ursprünglicher Nutzen war. Dann werde ich einen kurzen Blick auf Descartes provisorische Moral werfen und erklären, warum diese nicht für Künstliche Intelligenz genutzt werden kann, anders aber der Utilitarismus nach Jeremy Bentham, welchen ich danach in seiner Fülle erklären werde. Zum Abschluss der Moral werde ich noch einige Frage zum Thema der Moral für Künstliche Intelligenz aufwerfen. Danach werde ich die Fragen, ob wir eine Künstliche Intelligenz mit Moral erschaffen können und wollen aus meiner Sicht beantworten. Abschließend werde ich ein Beispiel geben, welches eine mögliche Zukunft mit Künstlicher Intelligenz darstellt.
Inhaltsverzeichnis
Einleitung
1.1 Der Mensch und die Intelligenz
1.2 Was ist Intelligenz?
1.3 Was ist die Richtige Moral?
1.4 Können und Wollen wir das überhaupt?
2 Was dann?
Zielsetzung & Themen
Die Facharbeit verfolgt das Ziel, die philosophischen Grundlagen für die Implementierung einer moralischen Instanz in Künstliche Intelligenzen zu ergründen, um zukünftige ethische Risiken bei der Entwicklung hochintelligenter Systeme zu minimieren.
- Definition und psychologische Konzepte von Intelligenz
- Philosophische Ansätze zur Moral (Descartes und Utilitarismus)
- Die moralische Verantwortung bei der Programmierung von KI
- Machbarkeit und gesellschaftliche Implikationen der KI-Autonomie
Auszug aus dem Buch
1.3 Was ist die Richtige Moral?
Wenn man den Menschen in seinem Umgang mit anderen Artgenossen betrachtet, fällt es relativ schnell auf, dass er in der Lage ist sich untereinander zu helfen und durch Zusammenarbeit immer neue unvorstellbar große Ziele zu erreichen, wie zum Beispiel einen Menschen auf den Mond zu befördern oder allein schon durch kollektive Einschränkungen des Privatlebens hunderttausenden anderen Menschen einen verfrühten Tod zu ersparen. Trotzdem wird man auch bemerken das der Mensch nicht immer gut und gerecht handelt. Keine andere uns bekannte Lebensform hat für so viel Unheil gesorgt wie der Mensch. Seit Beginn der Menschheit gab es Gewalt, Ungerechtigkeit, Neid und Hass, von Kein und Abel bis in den Vietnamkrieg. Doch wenn wir jetzt an der Schwelle dazu stehen eine völlig neue Intelligenz zu erschaffen, die unbegrenzt schlau und mächtig werden kann, da sie nicht durch einen festen biologischen Aufbau begrenzt ist, müssen wir uns Gedanken darüber machen welchen moralischen Richtlinien sie folgen soll. Sonst würde es höchst wahrscheinlich weiter Massenmorde geben oder sogar einen nuklearen Endschlag. Um die Frage nach der richtigen Moral zu beantworten, muss man sich die Frage stellen welcher Moral der Mensch folgen sollte.
Die menschliche Moral entstand wahrscheinlich vor 400.000 Jahren, als Menschen begangen, gemeinsam zu jagen und Nahrung zu sammeln. Durch diese ersten kooperativen Beziehungen wurde der gegenseitige Respekt und die Fairness im Zusammenleben überlebensnotwendig. Also ist Moral nichts anders als Respekt und Fairness? Ja, in seinen gröbsten Zügen. Moral wird auch oftmals als ein innerer Kompass angesehen, der mit seiner Nadel auf das Gute zeigt und vom Schlechten weg, wenn er richtig eingestellt ist.
Zusammenfassung der Kapitel
Einleitung: Der Autor führt in die Problematik ein, dass Künstliche Intelligenz zunehmend Verantwortung übernimmt und daher dringend mit moralischen Grundsätzen ausgestattet werden muss.
1.1 Der Mensch und die Intelligenz: In diesem Kapitel wird die Bedeutung von Intelligenz für den Lebensweg des Menschen sowie die Schwierigkeit ihrer Definition erläutert.
1.2 Was ist Intelligenz?: Hier wird das Intelligenzmodell von Howard Gardner vorgestellt, das Intelligenz nicht als singuläres Merkmal, sondern als Kombination aus verschiedenen Fähigkeiten beschreibt.
1.3 Was ist die Richtige Moral?: Dieses Kapitel untersucht den Ursprung menschlicher Moral und vergleicht verschiedene philosophische Ansätze wie die provisorische Moral nach Descartes und den Utilitarismus nach Bentham.
1.4 Können und Wollen wir das überhaupt?: Der Autor diskutiert die technische Machbarkeit sowie die ethischen und gesellschaftlichen Folgen einer zukünftigen Künstlichen Intelligenz.
2 Was dann?: In Form eines fiktiven Briefes aus dem Jahr 2090 wird ein Zukunftsszenario entworfen, in dem eine KI-gestützte Gesellschaft ohne Geld und Arbeit existiert.
Schlüsselwörter
Künstliche Intelligenz, Moral, Philosophie, Howard Gardner, Intelligenzforschung, Utilitarismus, Jeremy Bentham, Ethik, Metaethik, Maschinenlernen, Menschheit, Zukunft, Quantencomputer, Verantwortung, Gesellschaft
Häufig gestellte Fragen
Worum geht es in der Arbeit grundsätzlich?
Die Arbeit beschäftigt sich mit der Notwendigkeit und der methodischen Umsetzung, Künstlichen Intelligenzen moralische Wertesysteme zu verleihen, um die Menschheit vor Fehlentwicklungen zu schützen.
Welche zentralen Themenfelder werden abgedeckt?
Die Arbeit verknüpft die psychologische Intelligenzforschung mit philosophischen Ethik-Diskursen und technischen Zukunftsvisionen.
Was ist das primäre Ziel der Untersuchung?
Das Ziel ist es, philosophisch zu begründen, wie eine KI moralisch programmiert werden kann, um in einer Zukunft, in der sie eine tragende Rolle spielt, zum Wohle der Menschheit zu agieren.
Welche wissenschaftliche Methode wird verwendet?
Die Arbeit nutzt eine philosophische Analyse, indem sie existierende Intelligenzmodelle und ethische Strömungen wie den Utilitarismus auf die Anwendbarkeit für künstliche Systeme prüft.
Was behandelt der Hauptteil der Arbeit?
Der Hauptteil gliedert sich in die Untersuchung von Intelligenztheorien, die Herleitung moralischer Prinzipien aus der Philosophiegeschichte und eine kritische Auseinandersetzung mit der Machbarkeit moralischer KI.
Durch welche Schlüsselwörter lässt sich die Arbeit charakterisieren?
Die Arbeit ist geprägt durch die Begriffe Künstliche Intelligenz, Moral, Philosophie, Utilitarismus und ethische Programmierung.
Wie unterscheidet sich die provisorische Moral nach Descartes von Benthams Utilitarismus im Kontext der KI?
Descartes' provisorische Moral wird als zu vage für ein Computerprogramm bewertet, während der Utilitarismus nach Bentham durch seine klare Nutzenmaximierung als besser formalisierbar für algorithmische Entscheidungsfindungen erscheint.
Welche Rolle spielt das „sechs Intelligenzen Modell“ von Howard Gardner für die KI-Programmierung?
Das Modell dient dazu, Intelligenz nicht mehr als unklares Etwas zu definieren, sondern in Teilbereiche zu gliedern, die einzeln besser verständlich und somit simulierbar für Maschinen sind.
Was ist die Kernbotschaft des fiktiven Briefes im Kapitel „Was dann?“?
Das Kapitel illustriert ein optimistisches Zukunftsszenario, in dem technischer Fortschritt und KI zu einer befreiten Gesellschaft führen, die materielle Sorgen hinter sich gelassen hat.
- Arbeit zitieren
- Anonym (Autor:in), 2021, Künstliche Intelligenz mit Moral, München, GRIN Verlag, https://www.grin.com/document/1023650