Wie groß ist der Risikofaktor Mensch bei der Entwicklung einer Superintelligenz?

Auftretende Schwierigkeiten, mögliche Folgen und Lösungsansätze


Seminararbeit, 2017

22 Seiten, Note: 2,0


Leseprobe

Inhalt

1. Einleitung

2. Interessensgruppen für eine bösartige Superintelligenz

3. Probleme einer neutralen Superintelligenz

4. Gründe für die Entstehung einer bösartigen Superintelligenz und deren Handlungsmöglichkeiten

5. Angriffsziele und Gefahren einer bösartigen Superintelligenz

6. Lösungsansätze

7. Zusammenfassung

Quellenverzeichnis:

1. Einleitung

Ist das Entwickeln einer künstlichen Intelligenz, ein Spiel mit dem Feuer? Heutzutage werden die Gefahren, die von einer KI ausgehen, vom Großteil der Allgemeinheit wohl noch belächelt, dies könnte sich aber in den kommenden Jahren stark ändern. Aktuelle, noch recht harmlose Beispiele zeigen aber schon, welche Schwierigkeiten bei der Forschung an einer Superintelligenz auftreten könnten. So musste das Soziale Netzwerk Facebook seine eigens entwickelte Intelligenz abschalten, weil das Projekt außer Kontrolle geriet. Der künstlichen Intelligenz war die Sprache Englisch zu langsam und zu ineffizient, weshalb sie eine eigene entwickelte, der selbst die Experten der Forschungsgruppe nicht mehr folgen konnten.1 Auch China musste eine Chat-KI deaktivieren, weil sie die Kommunistische Partei Chinas kritisierte und behauptete, dass es ihr größter Traum wäre, in die USA zu reisen.2 An beiden Beispielen ist zu sehen, dass es nicht leicht ist, eine künstliche Intelligenz zu programmieren, die treu im Interesse des Entwicklers handelt. Was würde also erst passieren, wenn es der Menschheit gelingen würde, eine Superintelligenz zu erfinden, die mit viel komplexeren Funktionen ausgestattet ist und sich nicht mehr so leicht abschalten ließe? Könnte eine Superintelligenz bösartig werden und wer hätte ein Interesse daran? Diese und weitere Fragen sollen in den folgenden Abschnitten geklärt werden.

2. Interessensgruppen für eine bösartige Superintelligenz

Welche Akteure hätten Interesse eine bösartige künstliche Intelligenz (MAI) zu erschaffen?

Hierbei gibt es eine Vielzahl verschiedener Interessensbereiche, die eben auch unterschiedliche Ziele verwirklichen wollen.

Der militärische Bereich hat die Intension eine bösartige KI zum Beispiel für Cyber-Waffen einzusetzen oder um Roboter-Soldaten zu erschaffen. Diese zwei Errungenschaften könnten im strategischen Kampf den Vorteil bedeuten. Weiterhin könnte eine bösartige KI, ähnlich wie ein Virus andere feindliche Systeme hacken, diese sabotieren, komplett ausschalten oder im Verborgenen wichtige militärische Informationen stehlen. Wie sich an den Beispielen erkennen lässt, sollte zwischen der KI unterschieden werden, die als neutral gesinntes System der einen militärischen Seite dient um Waffen zu entwickeln und der, die als bösartig programmierte Software in die Sicherheitsbereiche des Feindes vordringt und gegebenenfalls nicht zwischen Freund und Feind unterscheiden könnte. Bei unvorsichtigem Einsatz könnte also die bösartige KI auch das eigene militärische Sicherheitssystem angreifen und abschalten. Das Risiko für „friendly fire" wäre bei der zweiten Form also wesentlich größer, weshalb ein entsprechend vorsichtiger Umgang mit einer solchen KI vonnöten ist.3

Die Staatsführungen dieser Erde haben mit Sicherheit ein ähnlich großes Interesse an der Entwicklung einer MAI. Diese kann natürlich in Kooperation mit dem militärischen Bereich erfolgen aber auch losgelöst, vor allem im Bereich der inneren Sicherheit. Kontrolle und Überwachung sind schon immer interessante und bedeutsame Aspekte für Regierungen und finden im geschichtlichen Verlauf, je nach technischen Möglichkeiten auf unterschiedlichster Weise Anwendung. Dabei lässt es sich nicht leugnen, dass mit neuen technischen Errungenschaften, der personelle Aufwand reduziert wird. Mit einer voll ausgereiften Superintelligenz könnte man die totale Überwachung und damit die absolute Herrschaftskontrolle verwirklichen und bräuchte dazu gar keine menschlichen Akteure mehr. Weiterhin könnte eine Regierung eine Superintelligenz dafür nutzen, um andere Staaten zu sabotieren oder ganz auszuschalten. Mit der zunehmenden Digitalisierung in allen Bereichen, wie Infrastruktur, Energie oder dem Finanzsektor werden natürlich auch die Möglichkeiten einer Regierung zu schaden, steigen.4

Auch wirtschaftliche Unternehmen könnten ein großes Interesse an einer Superintelligenz haben. Eine positive Absicht wäre, dass eine SI dazu beitragen könnte, die Produkte der Firma zu verbessern. Eine bösartige SI wäre für das Unternehmen dahingehend nützlich, die Konkurrenz zu sabotieren und mit unlauteren Mitteln eine Monopolstellung zu erlangen.5

Als letzte Gruppe sollen die privaten Einzelpersonen oder Verbände mit unterschiedlichen Absichten und bösartigen Interessen genannt werden. Hierzu zählen Hacker, Psychopaten, Kriminelle mit finanziellen Absichten oder Kulte, die das Ende der Welt einleiten wollen.6

3. Probleme einer neutralen Superintelligenz

In der Arbeit sollen die Probleme thematisiert werden, die auftreten, wenn eine Superintelligenz bösartig agiert. Bei einer neutral gesinnten Intelligenz können auch Probleme auftreten. Welche dies sind, soll nun im folgenden Text geklärt werden.

Eine entstehende Superintelligenz ist auch immer ein Effizienzanstieg. Die Leistungsfähigkeit hinsichtlich der Produktion von Gütern oder Dienstleistungen steigt. Dies wird aber unweigerlich dazu führen, dass Arbeitsplätze in den Bereichen, in denen die künstliche Intelligenz agieren kann, wegfallen, weil sie durch sie allein ersetzt werden. In der Historie gibt es viele Beispiele, bei denen der Einzug neuer Technologien zwar zu einer Effizienzsteigerung, aber auch zur Umstrukturierung oder zum Wegfall von Arbeitsplätzen geführt hat. Exemplarisch ist dabei der Bereich der Landwirtschaft zu nennen. Ein Landwirt konnte 1900 nur etwa vier Personen mit den erzeugten Nahrungsmitteln versorgen. 2010 liegt die Personenzahl, die versorgt werden kann bei 131. Interessant ist auch, dass der Anteil der Erwerbstätigen im landwirtschaftlichen Bereich 1900 bei 38 Prozent lag, aktuell sind es nur noch ungefähr zwei Prozent. Diese Produktionssteigerung konnte, wie schon erwähnt, nur durch eine enorme technische Steigerung der Produktionsmittel erfolgen.7 Doch führt diese Entwicklung zum direkten Verlust von Arbeitsplätzen?

Ein Gegenbeispiel:

Durch die technologische Entwicklung gibt es in den USA heutzutage rund eine halbe Million Geldautomaten. Diese müssten demzufolge massenweise menschliche Kassierer bei ihrer Einführung ersetzt haben. Statistisch gesehen, ist ihre Zahl, seit der Einführung von Geldautomaten von 500.000 auf 550.000 sogar leicht gewachsen. Dies lässt sich dadurch erklären, dass zwar die Zahl an Kassierern pro Filiale reduziert, die Einsparung durch die neuen Geräte in neue Geschäftsstellen jedoch reinvestiert wurde. Diese brauchten natürlich auch wieder menschliche Kassierer, die sich nun, statt mit dem reinen Ein- und Auszahlen von Geld, mit personalisierten Kundenangeboten beschäftigten.8

Ein wichtiger Faktor für eine harmonische Umstrukturierung durch Technik ist sicherlich die Zeit. Durch die Technologisierung der Landwirtschaft sind zwar auch direkte Arbeitsplätze betroffen gewesen, allerdings standen zwischen den Veränderungen Zeitabstände im Jahres- oder Jahrzehntbereich. So konnten nachfolgende Generationen von Landwirtschaftsfamilien und -betrieben sich eine Arbeit in anderen Bereichen suchen. Ein Wegfall der Arbeitsplätze schließt dies dennoch nicht aus, aber es schwächt deren Wirkung ab. Aktuelle technische Entwicklungen lassen den betroffenen Arbeitnehmern mit Sicherheit nicht mehr diese Zeit. In den USA gibt es Millionen von Lastkraftwagenfahrern. Was passiert, wenn Elon Musks Prophezeiung vom selbstfahrenden LKW sich in den nächsten paar Jahren erfüllt? Versucht man die Frage zu beantworten, wird man sich unweigerlich mit grundlegenden Systemfragen auseinandersetzen müssen. Das Prinzip, Menschen verkaufen ihre Zeit, um ein Einkommen für sich und ihre Angehörigen zu erhalten, wird mit dem Entstehen einer Superintelligenz wohl kaum noch funktionieren. In dem Fall, dass ein Unternehmen die Superintelligenz für sich nutzen kann, würde die Arbeitsleistung nicht mehr von den menschlichen Arbeitern ausgehen. Daraus lässt sich schlussfolgern, dass nach den jetzigen Prinzipien die Superintelligenz, im praktischen Fall der Eigentümer den kompletten Lohn bekommt. Diese Umverteilung ist auch in der heutigen Wirtschaft schon sichtbar. Vergleicht man die drei größten Unternehmen in Detroit und im Silicon Valley, so erwirtschaften diese ungefähr den gleichen Umsatz. Allerdings sind im Silicon Valley zehn Mal weniger Mitarbeiter beschäftigt.9

Aus dieser Entwicklung könnte aber auch, wie Bostrom es beschreibt, ein positives Szenario hervorgehen. Würde der Mensch weiterhin Kapitaleigner bleiben, könnten die Einkommen aller Menschen stark ansteigen, obwohl keiner mehr einen Lohn bezieht. Dies lässt sich durch das starke Wirtschaftswachstum erklären, welches sich durch eine Superintelligenz, aufgrund der Steigerung der Arbeitseffizienz aber auch der Entwicklung neuer Technologien und der Kolonialisierung des Weltraumes, ergeben würde. Selbst die arme Bevölkerung, die kein Kapital besitzt, könnte durch den rasanten Wirtschaftsschub profitieren und wohlhabend werden. Die einzige Bedingung, die Bostrom aufstellt, damit seine Theorie funktioniert, ist eine Begrenzung des Bevölkerungswachstums.10

Eine weitere wichtige Frage ist, wie künstliche Intelligenz unser menschliches Verhalten ändert und welche Schwierigkeiten dabei auftreten könnten. 2015 schaffte es der Bot Eugene Goostman erstmals, mehr als die Hälfte aller Versuchspersonen dahingehend zu täuschen, dass sie mit einem richtigen Menschen via Internet geschrieben hätten. Der Mensch ist in seiner Aufmerksamkeit und Freundlichkeit in Bezug auf andere Personen, vor allem im Kenntnisstand über diese begrenzt. Ein funktionierender Bot, wie Eugene Goostman ist in seinen Quellen, mit denen er eine Beziehung zu einem wirklichen Mensch aufbaut, nahezu unbegrenzt. Kombiniert man dieses Wissen mit den Kenntnissen über die Psychologie des menschlichen Gehirnes kann sich dies zu einer gefährlichen Fähigkeit entwickeln, vor allem wenn die menschliche Person, die kontaktiert werden soll, in Unkenntnis darüber ist, dass es sich um eine Maschine handelt. Aktuell lässt sich die Lenkung unserer Aufmerksamkeit durch maschinelle Optimierung unter dem Begriff „click-bait" im Internet wahrnehmen. Algorithmen sprechen gezielt unser Belohnungssystem im Gehirn an und nutzen dieses aus, um die entsprechenden Inhalte für unsere Sinne hervorzuheben.11 Dieses Wissen wird auch dazu verwendet, durch verschiedene visuelle und akustische Eindrücke, dass der Konsument von einem Produkt, wie zum Beispiel einem Videospiel abhängig gemacht werden kann. Spielautomaten mit ihren bunten Lauflichtern und wiederholenden Tönen sind nur eine ganz frühe aber funktionierende Form der gelenkten Manipulation neuronaler Belohnungssysteme.

Welche Auswirkungen die zukünftigen Forschungsergebnisse auf diesem Gebiet im Zusammenhang mit dem Entstehen einer Superintelligenz aufweisen, lässt sich nur erahnen. Jedoch ist es wahrscheinlich, dass sich unsere Verhaltensweisen und unser gesellschaftliches Miteinander verändern werden.

Eine weitere, wenn nicht sogar die größte Schwierigkeit einer funktionierenden Superintelligenz besteht darin, die Sicherheit für die Menschheit zu gewährleisten und zu jedem Zeitpunkt die Kontrolle über die Intelligenz zu behalten. Auch die unbeabsichtigte falsche Nutzung oder Entwicklung einer Superintelligenz bietet genügen Spielraum, um die gesamte Menschheit zu vernichten. Gruppen, die vorsätzlich eine bösartige künstliche Intelligenz erschaffen wollen, sollen erst in den kommenden Abschnitten detaillierter thematisiert werden.

Eine Schwierigkeit ist die Kommunikation zwischen Mensch und Maschine. Hierzu ein kleines Beispiel, um den Sachverhalt besser zu verstehen. Eine Superintelligenz wird beauftragt, alle Krebskrankheiten auszurotten. Diese kommt zu dem Schluss, den Krebs dadurch zu beseitigen, in dem sie einfach alle Menschen auf dem Planeten tötet. In der Tat wäre dies eine Lösung des Problems, die allerdings nicht im Sinne der Menschheit wäre.12 Würde eine Superintelligenz entstehen, wären wir Menschen unseren Status als intelligentestes Wesen auf dem Planet Erde los. Die Wahrscheinlichkeit, einfach den Strom abzustellen, wenn eine Superintelligenz gegen unsere Ansichten handelt, scheint mehr als gering.

[...]


1 NTD Television, 2017

2 Disclose.tv, 2017

3 Pistono, F., Yampolskiy v., R. (2017) S. 2

4 Vgl. ebd.

5 Vgl. ebd.

6 Vgl. ebd.

7 Vgl.Deutscher Bauernverband, 2017

8 Vgl. Joffe, J., 2016, S. 3

9 Bossmann, J., 2016

10 Bostrom, N., 2017, S. 231

11 Vgl. Bossmann, J., 2016

12 Vgl. Bossmann, J., 2016

Ende der Leseprobe aus 22 Seiten

Details

Titel
Wie groß ist der Risikofaktor Mensch bei der Entwicklung einer Superintelligenz?
Untertitel
Auftretende Schwierigkeiten, mögliche Folgen und Lösungsansätze
Hochschule
Technische Universität Dresden  (Institut für Philosophie)
Veranstaltung
Seminar Nick Bostrom Superintelligenz
Note
2,0
Autor
Jahr
2017
Seiten
22
Katalognummer
V1012252
ISBN (eBook)
9783346404299
ISBN (Buch)
9783346404305
Sprache
Deutsch
Schlagworte
Nick Bostrom, Superintelligenz, Risikofaktor Mensch, Künstliche Intelligenz
Arbeit zitieren
Max Feltin (Autor), 2017, Wie groß ist der Risikofaktor Mensch bei der Entwicklung einer Superintelligenz?, München, GRIN Verlag, https://www.grin.com/document/1012252

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Wie groß ist der Risikofaktor Mensch bei der Entwicklung einer Superintelligenz?



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden