Wie groß ist der Risikofaktor Mensch bei der Entwicklung einer Superintelligenz?

Auftretende Schwierigkeiten, mögliche Folgen und Lösungsansätze


Seminararbeit, 2017

22 Seiten, Note: 2,0


Leseprobe


Inhalt

1. Einleitung

2. Interessensgruppen für eine bösartige Superintelligenz

3. Probleme einer neutralen Superintelligenz

4. Gründe für die Entstehung einer bösartigen Superintelligenz und deren Handlungsmöglichkeiten

5. Angriffsziele und Gefahren einer bösartigen Superintelligenz

6. Lösungsansätze

7. Zusammenfassung

Quellenverzeichnis:

Ende der Leseprobe aus 22 Seiten

Details

Titel
Wie groß ist der Risikofaktor Mensch bei der Entwicklung einer Superintelligenz?
Untertitel
Auftretende Schwierigkeiten, mögliche Folgen und Lösungsansätze
Hochschule
Technische Universität Dresden  (Institut für Philosophie)
Veranstaltung
Seminar Nick Bostrom Superintelligenz
Note
2,0
Autor
Jahr
2017
Seiten
22
Katalognummer
V1012252
ISBN (eBook)
9783346404299
ISBN (Buch)
9783346404305
Sprache
Deutsch
Schlagworte
Nick Bostrom, Superintelligenz, Risikofaktor Mensch, Künstliche Intelligenz
Arbeit zitieren
Max Feltin (Autor:in), 2017, Wie groß ist der Risikofaktor Mensch bei der Entwicklung einer Superintelligenz?, München, GRIN Verlag, https://www.grin.com/document/1012252

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Wie groß ist der Risikofaktor Mensch bei der Entwicklung einer Superintelligenz?



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden