Denkende Maschinen? Eine Untersuchung zu den ontologischen Grundlagen der "Künstlichen Intelligenz"


Bachelorarbeit, 2018

40 Seiten, Note: 1,0


Leseprobe

Inhaltsverzeichnis

1. Einleitung
1.1 Ausgangssituation und Problemstellung
1.2 Fragestellung und Zielsetzungen
1.3 Aufbau der Arbeit

2. Begriff der „Künstlichen Intelligenz“ (KI)
2.1 Vorgeschichte
2.2 Begriffsdefinitionen
2.3 Starke und schwache KI

3. Kann es eine starke KI geben?
3.1 Ist ein Mensch von einer KI unterscheidbar?
3.2 Kann eine KI ein Karzinom diagnostizieren?
3.3 Kann eine KI lernen?
3.4 Kann das Denken modelliert werden?
3.5 Kann sich eine KI Ziele geben?

4. Zusammenfassung, Fazit und Ausblick
4.1 Zusammenfassung
4.2 Fazit
4.3 Ausblick

Literaturverzeichnis

1. Einleitung

1.1 Ausgangssituation und Problemstellung

Die ontologische und metaphysische Bestimmung der starken „Künstlichen Intelligenz“ (KI) stellt eine Schlüsselrolle für zahlreiche Fragestellungen sowohl in den Technikwissenschaften als auch innerhalb der Philosophie dar. Nichtsdestotrotz wird in vielen wissenschaftlichen und populär-wissenschaftlichen Texten die Bestimmung des Phänomens sowie die Möglichkeit einer starken KI unhinterfragt vorausgesetzt. Bisher herrschte hier wenig Sensibilität bezüglich der metaphysischen Frage, ob es eine starke KI überhaupt geben kann. Oft beruhen die Theorien nur auf einem impliziten und oberflächlichen Common-Sense-Verständnis des Begriffs. Die Prüfung der metaphysischen Voraussetzungen und der ontologischen Bestimmung des Phänomens der KI kann zudem wesentliche wissenschaftliche sowie praktische Auswirkungen haben:

Die metaphysische und ontologische Bestimmung der (starken) KI spielt insbesondere eine Schlüsselrolle für viele weitere philosophische Fragen in der Moralphilosophie (z. B. Autonomie, Handlungsfähigkeit, „moral agent“/„moral patient“), Rechtsphilosophie (Sollen Roboter als Rechtssubjekte angesehen werden?) oder Anthropologie (Ist der Mensch nur eine Apparatur mit Funktionen? Was ist der Mensch abseits seiner Funktionen?). Viele Fortschrittsprognosen und -theorien von Technikwissenschaftlern, wie Raymond Kurzweil, Hans Peter Moravec, Marvin Lee Minsky, Frank Jennings Tipler, Vernor Steffen Vinge oder Irving John Good, basieren auf spezifischen und oftmals nicht explizierten metaphysischen sowie ontologischen Grundlagen des Phänomens der KI. Auch betriebswirtschaftliche Theorien hängen von der Frage ab, ob ein KI-System tatsächlich kalkulieren, denken und lernen kann: z. B. zur richtigen Beurteilung des Einsatzes von KI in einem Betrieb (Sollte ein Unternehmen einen Menschen durch eine Maschine ersetzen?). Analog dazu haben die metaphysischen Voraussetzungen einer starken KI auch im medizinischen Bereich eine große Bedeutung, z. B. in den Fragen, ob ein KI-System ein Karzinom diagnostizieren oder tatsächlich kompetenter als ein Radiologe sein kann. Aus Sicht der Gesellschaft ist die kritische Reflexion der ontologischen Bestimmung des Phänomens für die richtige Einordnung der positiven und negativen Effekte von (starker) KI bedeutend: Beispielsweise finden sich in einem Ranking der „most urgent global issues“ der Non-Profit-Organisation „80.000 Hours“ die „Risks from artificial intelligence“ auf Platz 1 (!), also noch vor globalen Herausforderungen, wie „Developing world health“, „Climate change“ und „Nuclear security“. (Vgl. Todd 2017.) Demnach hat dies auch Auswirkungen auf die adäquate Bestimmung der negativen und positiven Effekte von KI im Rahmen von politische Entscheidungen, z. B. ob eine Maschinensteuer oder ein bedingungsloses Grundeinkommen eingeführt werden sollen. Die Schlagwörter „Digitalisierung“ und „KI“ gehören nunmehr zum Standard-Vokabular einer modernen Politiker-Rede, womit auch ganz gezielt Ängste der Bevölkerung geschürt und Hoffnungen geweckt werden. In diesen Bereich werden auch immer mehr öffentliche Forschungsgelder investiert: 100 Millionen Euro jährlich fließen derzeit in Österreich über die Forschungsförderungsgesellschaft FFG in den Bereich Robotik und KI. Deutschland will im Zuge einer KI-Strategie bis zum Jahr 2025 sogar rund 3 Milliarden Euro investieren. (Vgl. Kugler 2018, 33.)

1.2 Fragestellung und Zielsetzungen

Das Ziel der Bachelorarbeit ist eine kritische Reflexion der ontologischen Bestimmungen des Phänomens der KI sowie das Aufdecken und Hinterfragen der zugrundeliegenden metaphysischen Voraussetzungen. Der Fokus wird dabei auf das Phänomen der starken KI (Begriffsdefinition siehe 2.2) gelegt. Diesbezüglich werden insbesondere die Positionen von Vertretern einer starken KI herangezogen. Dabei werden die impliziten ontologischen Bestimmungen und metaphysischen Voraussetzungen einer starken KI aufgedeckt, systematisiert sowie kritisch hinterfragt. Die ontologische („Was ist eine starke KI?“) sowie metaphysische Forschungsfrage der Arbeit („Kann es eine starke KI geben?“) wird dabei in fünf Teilfragen bearbeitet:

1. Ist ein Mensch von einer KI unterscheidbar?
2. Kann eine KI ein Karzinom diagnostizieren?
3. Kann eine KI lernen?
4. Kann das Denken modelliert werden?
5. Kann sich eine KI Ziele geben?

Das Ziel der Arbeit ist also keine anthropologische Beantwortung der Teilfragen (z. B. „Was ist der Mensch im Vergleich zur Maschine?“; „Was ist künstliche Intelligenz im Vergleich zur menschlichen Intelligenz?“). Das Phänomen der KI soll möglichst losgelöst vom anthropologischen Diskurs analysiert werden.

1.3 Aufbau der Arbeit

In einem ersten Schritt wird die Vorgeschichte zum Beginn der wissenschaftlichen Forschung nach KI dargestellt (vgl. 2.1). Das Verständnis über die historische Entwicklung erleichtert es, das den Theorien zugrundeliegende Denken nachzuvollziehen. Infolgedessen werden auch die für diese Arbeit relevanten technologischen Entwicklungen in diesem Bereich (z. B. Expertensysteme, Robotertechnologie) thematisiert und voneinander abgegrenzt.

In einem zweiten Schritt wird der Begriff der „Künstlichen Intelligenz“ anhand mehrerer wissenschaftlicher Quellen definiert (vgl. 2.2). Insbesondere wird auf die für diese Arbeit wichtige begriffliche Unterscheidung zwischen schwacher und starker KI eingegangen. Die Struktur des argumentativen Teils der Arbeit (vgl. 3.) basiert auf den im Kapitel 1.2 dargestellten fünf Teilfragen. Diese Gliederung basiert auf folgenden Gründen:

Die wissenschaftlichen sowie außerwissenschaftlichen (z. B. TV-Dokumentationen, Zeitungsartikel, persönliche Diskussionen) Recherchen im Vorfeld der Arbeit haben gezeigt, dass die Argumentationsstrukturen von Vertretern einer (starken) KI häufig eine ähnliche Struktur aufweisen. Am Beginn wird meist auf die nunmehrige Ununterscheidbarkeit von Maschine und Menschen Bezug genommen (z. B. Chatbots). (Vgl. 3.1 Ist der Mensch noch von KI unterscheidbar?) Dies wird gerne mit dem Hinweis auf die bisherigen großartigen „Siege“ der Maschinen über die Menschen begründet (vgl. 3.2 Kann eine KI ein Karzinom diagnostizieren?). Zukünftige mögliche Fortschritte werden meist mit dem Hinweis auf die Methode von „Machine Learning“ oder „Neural Networks“ verstärkt (vgl. 3.3 Kann eine KI lernen?). Kritische Einwände werden mit dem Hinweis auf eine zukünftige vollständige Modellierung des Denkens abgewehrt (vgl. 3.4 Kann das Denken modelliert werden?). Insbesondere von IT-Experten wird dann als letztes Argument meist gebracht, dass es auch schon Forschungen in Richtung KI gäbe, welche selbständig deren Programmcode ändern können („Seed AI“). Diese könnten sich dadurch irgendwann einmal selbst Ziele geben. (Vgl. 3.5 Kann sich eine KI selber Ziele geben?) Es fällt bei dieser Argumentationsstruktur auf, dass im Falle von kritischen Einwände stets auf eine nächsthöhere technologische Entwicklungsstufe verwiesen wird. Die Arbeit ist also auch gemäß der jeweiligen (hypothetischen) technologischen Fortschritte aufgebaut. Es wird sich zeigen, dass diese Fortschritte immer tiefere metaphysische Fragestellungen aufwerfen, wobei die Argumente der „niederen“ Ebene (z. B. 3.1) grundsätzlich auch für die höheren Ebenen (z. B. 3.5) gelten. Schlussendlich werden die explizit gemachten metaphysischen Voraussetzungen und Kritikpunkt zusammengefasst und systematisiert (4.1). Nach einem abschließenden Fazit (4.2) erfolgt im letzten Kapitel ein kurzer Ausblick auf die möglichen Auswirkungen des Forschungsergebnisses auf andere Wissenschaften und Fragestellungen (4.3).

2. Begriff der „Künstlichen Intelligenz“ (KI)

Für eine angemessene kritische Reflexion der starken KI ist zunächst darzustellen, was derzeit unter dem Begriff der „Künstlichen Intelligenz“ (KI) verstanden wird. Davor wird in Grundzügen auf die Vorgeschichte und wichtigsten historischen Meilensteine zur Entwicklung der Wissenschaft der KI eingegangen:

2.1 Vorgeschichte

Als Vorgeschichte zur Entwicklung der wissenschaftlichen Disziplin der KI kann ein Richtungsstreit innerhalb der im Jahr 1879 von Wilhelm Wundt begründeten Disziplin der wissenschaftlichen Psychologie angesehen werden. Bis zum Beginn des Ersten Weltkriegs wurde die Introspektion als wichtigste Methode der Psychologie angesehen. Die Introspektion als „nach innen gerichtete Aufmerksamkeit“ soll es ermöglichen, die eigenen Bewusstseinsinhalte wahrzunehmen. Nachteile dieser Methode sind, dass dadurch nicht alle kognitiven Vorgänge zugänglich gemacht werden können, nur gerade vergangene Bewusstseinszustände erfasst werden und wissenschaftliche Nachprüfbarkeit nicht gewährleistet ist. Zudem lassen sich keine Einblicke in „das Funktionieren des Geistes“ gewinnen. Als Gegenrichtung kam in den 1920ern der Behaviorismus auf, der auf einem S-R-Modell (Stimulus-Response-Modell) basierte, das die internen Vorgänge als irrelevant ausblendete. Auch diese Position, die den Organismus als „Black Box“ betrachtete, stellte sich bald als keine zufriedenstellende Erklärung des Verhaltens heraus, da komplexes Verhalten der realen Welt nicht einfach durch ein Reiz- und Reaktions-Schema erklärbar sei. (Vgl. Lenzen 2002, 11f.)

Dieser Richtungsstreit wurde in den 1940er Jahren – aufbauend auf den Arbeiten des Elektroingenieurs Claude Shannon – durch die Informationstheorie ergänzt, welche in den nächsten Jahrzehnten das Fundament der Informatik bilden sollte. Das Ziel der Informationstheorie ist die quantitative Bestimmung des „Informationsgehalts von Nachrichten“ durch eine mathematische Formulierung. Der Begriff der Information ist unabhängig vom Inhalt anzusehen und wird als „Entscheidung zwischen zwei Alternativen“ definiert. Die Einheit ist das „bit“, welches jene Informationsmenge darstellt, die benötigt wird, um sich „zwischen zwei gleich wahrscheinlichen Alternativen zu entscheiden.“ (Lenzen 2002, 12f.) Schließlich baute im Jahr 1941 Konrad Zuse den weltweit ersten programmierbaren Digitalcomputer Z-3 mit einem Speicher von 1408 Bits (vgl. Lenzen 2002, 17; Kurzweil 1993, 176). Forscher gingen davon aus, dass dieses mechanistische Paradigma der Informationsverarbeitung auch auf lebende Systeme und den Menschen übertragen werden könne. Schließlich wurde die Terminologie der Informationstheorie (z. B. Information, Input, Output, Speicher) auf den menschlichen Geist und in die wissenschaftliche Psychologie übertragen. In dieser Phase entstand auch die neue psychologische Richtung des Kognitivismus, welche kognitive Phänomene in Analogie zu technischer Informationsverarbeitung untersucht. (Vgl. Lenzen 2002, 13.)

Norbert Wiener, der Begründer der Kybernetik, welcher die Steuerung, Regelung und Nachrichtenübertragung in Lebewesen und Maschinen wissenschaftlich erforschte, schrieb 1943 einer rückgekoppelten Maschine – also einer Maschine, deren Ausgangssignal ihr als Input wieder zugeführt wird – „zielgerichtetes Verhalten“ zu. (Vgl. Lenzen 2002, 13.)

Im Jahr 1956 wurden auf einer Konferenz in Dartmouth die Möglichkeiten und Potentiale dieser neuen Digitalcomputer diskutiert. Teilnehmer waren unter anderem John McCarthy, Marvin Minsky, Allen Newell und Herbert Simon. (Vgl. Siekmann 1994, 20f.) Die Teilnehmer waren unter anderem von Turings Vision einer denkenden Maschine (siehe 3.1) überzeugt (vgl. Mainzer 2006, 80). Der Begriff der „ Artificial Intelligence “ – welcher in weiterer Folge als „Künstliche Intelligenz“ ins Deutsche übersetzt wurde – wurde von John McCarthy ins Leben gerufen. Der Begriff diente ursprünglich nur als Arbeitstitel während der Konferenz. Nichtsdestotrotz war dies die Geburtsstunde der wissenschaftlichen Forschung nach „ Künstlicher Intelligenz“ (KI) als Teilgebiet der Informatik. In den nächsten Jahren entwickelte sich die KI zu einer eigenständigen Wissenschaft. (Vgl. Siekmann 1994, 20f.)

In den 1960er Jahren forschten KI-Forscher nach einem „universellen Computerprogramm“ (General-Problem-Solver/GPS-Programm) zur „symbolischen Darstellung von Wissen“ und zur „Lösung von Problemen aller Art“ (Mainzer 2006, 80). Die Entwicklungen in den darauffolgenden Jahrzehnten innerhalb dieser neuen Wissenschaft lassen sich in fünf Hauptgebiete einteilen, welche unterschiedliche Methoden und Verfahren verwenden: Expertensysteme, natürlichsprachliche Systeme, Deduktionssysteme, Robotertechnologie sowie Bilderkennung (vgl. Siekmann 1994, 13-14): Das Ziel von Expertensystemen ist es, das Grundwissen (Sachwissen und Erfahrung) eines ganzen Berufs oder einer Wissenschaft in einem Programmpaket zu codieren (vgl. Penrose 1991, 10). Die ersten wissensbasierten Expertensysteme entwickelten sich in den 1970er und 1980er im Bereich der medizinischen Diagnostik. Im Wesentlichen werden in diesen Systemen Schlussverfahren, Methoden und Heuristiken aus Logik und Philosophie angewandt. (Vgl. Mainzer 2006, 80f.) Es steht also eine Datenbasis über ein bestimmtes Fachgebiet zur Verfügung, aus der anhand von kodifizierten Regeln Schlussfolgerungen gezogen werden können (vgl. Kurzweil 1993, 15). Das Ziel von „ Natürlichsprachlichen Systemen“ liegt im Verstehen und in der Produktion von natürlicher Sprache. Diese Systeme sind aus einem Syntaxbaum sowie einem Wörterbuch für die semantische Analyse aufgebaut. Das Verstehen gesprochener Sprache erfolgt durch die Schallwellen eines gesprochenen Wortes, welches mit dem „Schallmuster eines gespeicherten Wortes verglichen“ wird. (Vgl. Siekmann 1994, 13f.) Deduktionssysteme werden in der Informatik beispielsweise zur Programmverifikation verwendet oder in der Mathematik zum Beweisen von mathematischen Sätzen (vgl. Siekmann 1994, 16). Roboter entwickelten sich vorrangig aus einem praktischen Bedarf der Industrie nach mechanischen Geräten heraus, welche „intelligente“ Tätigkeiten besser, schneller, zuverlässiger, sicherer und günstiger als Menschen ausführen sollen. Bilderkennung hat zum Ziel, Gegenstände auf einem aufgenommenen Bild zu erkennen. Dies wird durch verschiedenste Techniken erreicht: z. B. wird eine Grauwertmatrix erstellt und jedem Pixelpunkt ein Helligkeitswert zugeordnet. Das System versucht danach, Kanten eines Objekts finden, indem dieses die Daten bereinigt, um gerade Linien zu erhalten. Schlussendlich wird interpretiert, welche Linien zusammengehören und Körper repräsentieren sollen. (Vgl. Penrose 1991, 10f.).

2.2 Begriffsdefinitionen

Nach Siekmann fasst der Begriff „Künstliche Intelligenz“ jene „bisher dem Menschen vorbehaltenen kognitiven Fähigkeiten als informationsverarbeitende Prozesse auf und macht sie naturwissenschaftlichen Untersuchungsmethoden (und ingenieurmäßiger Verwendung) zugänglich.“ (Siekmann 1994, 11) Auch Holzer stellt den Begriff der KI in Bezug zum Menschen: Die Wissenschaft der KI sei mit dem Ziel beschäftigt, „Computer gerade jene Tätigkeiten ausüben zu lassen, die der Mensch mit seinem Geist ausführen kann.“ (Holzer 1998, 10) Weide definiert die „Künstliche Intelligenz“ als ein Teilgebiet der Informatik mit dem Ziel, „Verstehen, Denken und Handeln des Menschen auf dem Computer nachzubilden“ und „den Computer als denkfähigen Assistenten einzusetzen.“ (Weide 1993, 13)

Kurzweil versteht „Künstliche Intelligenz“ als „nichtbiologischen Teil unserer Zivilisation“, welcher die Stärken von Mensch und Maschine vereint. Das Gegensatzpaar von künstlicher und natürlicher Intelligenz ist somit so zu verstehen wie nichtbiologische und biologische Intelligenz. In seinem Buch „Menschheit 2.0” prophezeit Kurzweil das Szenario einer „Verschmelzung des biologischen Denkens mit nichtbiologischer Intelligenz“. (2013, 27) In einem früheren Werk (1993) bezog er sich noch auf die „übliche“ Definition, dass KI die Kunst sei, „Maschinen zu [er]schaffen, die Aufgaben lösen, zu deren Lösung Intelligenz notwendig ist, wenn sie von Menschen ausgeführt werden.“ Durch die Nachbildung der menschlichen Intelligenz durch eine Maschine lasse sich ein besseres Verständnis des Gehirns und seiner Funktionsweise erzielen. (Kurzweil 1993, 13f.) Die Wissenschaft der KI charakterisiere sich nach Kurzweil durch die „immer höher gesteckten Ziele“, da die „Probleme aus der Computerwelt“ nur so lange in das Forschungsgebiet der KI fallen, bis sie gelöst seien. (Kurzweil 1993, 13f.)

2.3 Starke und schwache KI

An den Definitionen in der wissenschaftlichen Literatur lässt sich als zentrale Gemeinsamkeit feststellen, dass sich der Begriff der „Künstlichen Intelligenz“ meist auf den Menschen bezieht. Unterschiede ergeben sich lediglich darin, wie „stark“ dieser Bezug hergestellt wird. In der Forschungsliteratur weitgehend durchgesetzt hat sich die Unterscheidung zwischen der sogenannten starken KI und der schwachen KI. Deshalb wird auch in der weiteren Arbeit diese in der Forschungsliteratur gebräuchlichste Unterscheidung verwendet:

Vertreter einer „schwachen KI” behaupten, dass Maschinen intelligent handeln können bzw. so handeln können, als wären sie intelligent (vgl. Russell/Norvig 2003, 947). Diesen Vertretern genügt die „Simulation spezifischer Kompetenzen in artifiziellen Systemen“ (Loh 2017, 23), um von einer schwachen künstlichen Intelligenz sprechen zu können. Die künstlichen Prozesse seien also stets nur eine Simulation der natürlichen kognitiven Prozesse (vgl. Lenzen 2002, 16).

Vertreter einer „ starken KI” behaupten, dass es Maschinen gibt bzw. geben kann, welche tatsächlich „im genuinen Sinne des Wortes mit Intelligenz, Bewusstsein und Autonomie ausgerüstet sind“ (Loh 2017, 23). Nach Searle ist die allgemeine Auffassung einer starken KI, dass eine Analogie zwischen dem „Funktionieren des menschlichen Hirns und dem Funktionieren digitaler Computer“ bestehe. Das Hirn sei demnach nichts anderes als ein digitaler Computer und der Geist ein Computerprogramm. Für Searle ist ein System dann eine starke KI, wenn sich der Geist zum Gehirn so verhält wie die Software zur Hardware eines Computers. (Vgl. Searle 1989, 27.) Zu den Vertretern einer starken KI zählen beispielsweise der Robotiker Hans Peter Moravec, der Technikwissenschaftler Raymond Kurzweil, der KI-Forscher und Informatiker Marvin Lee Minsky, der Philosoph Nick Bostrom sowie der Informatiker und Science-Fiction-Autor Vernor Vinge. Diese Wissenschaftler werden auch der Strömung des technologischen Posthumanismus zugeordnet, welche u. a. nach der Entwicklung einer artifiziellen Superintelligenz streben (vgl. Loh 2018, 94-98).

Der nachfolgende argumentative Teil wird sich großteils auf die genannten Vertreter einer starken KI beziehen. Die Denkweisen und Theorien beruhen auf bestimmten ontologischen Grundlagen sowie metaphysischen Prinzipien, welche nun explizit gemacht und kritisch hinterfragt werden.

3. Kann es eine starke KI geben?

Zur Beantwortung der Forschungsfrage(n) wird im ersten Kapitel (vgl. 3.1) insbesondere auf den Turing-Text eingegangen. Dieser Test hat nicht nur in wissenschaftlichen Auseinandersetzungen eine starke Wirkung erzeugt, sondern auch in außerwissenschaftlichen Diskursen. Für viele stellt es schließlich ein überzeugendes Argument dar, dass KI-Systeme (z. B. Chatbots) oftmals nicht mehr von Menschen unterscheidbar sind.

3.1 Ist ein Mensch von einer KI unterscheidbar?

Der Computerwissenschaftler Ray Kurzweil behauptet, dass es gegen Ende der 2020er Jahre den ersten Computer geben werde, der den „Turing-Test“ besteht. Dies deute darauf hin, dass „Computerintelligenz nicht mehr von der Intelligenz biologischer Menschen unterscheidbar“ sei (Kurzweil 2013, 26). Dieser Test gelte also als ein experimenteller Beweis, dass es eine starke KI geben könnte:

Der „ Turing Test “ ist ein behavioristischer Intelligenztest, welcher von Turing auch „Imitationsspiel“ genannt wird (vgl. Turing 1967, S. 106; Russell/Norvig 2003, 948). Dieser Test besteht in der ersten Ausgangsvariante aus drei Spielern: einem Mann (A), einer Frau (B) und einem Fragesteller (C). A und B befinden sich zu zweit in einem Raum und der Fragesteller in einem zweiten Raum. Die Aufgabe von C ist nun, durch Fragen herauszufinden und zu bestimmen, welcher der beiden Personen der Mann und die Frau ist. Die Kommunikation zwischen den Räumen erfolgt in Schriftform. Die Aufgabe von A besteht nun darin, den Fragesteller „zur falschen Identifizierung“ zu veranlassen, indem er Fragen beispielsweise falsch oder irreführend beantwortet. Die Aufgabe von B besteht dementsprechend darin, dem Fragesteller zu helfen, indem sie Fragen beispielsweise wahrheitsgetreu beantwortet und auf die falschen Aussagen von Person A hinweist. Person A wird natürlich ebenso beteuern, dass die Aussagen von Person B falsch seien und ihre wahr. Die zweite Variante des Spiels besteht nun neben dem Fragesteller (C) und der Frau (B) aus einer Maschine (KI), welche die Rolle von A in der ersten Ausgangsvariante übernimmt. C müsste nun versuchen herauszufinden, wer die Maschine und wer der Mensch ist. Turing setzt voraus, dass die beste Strategie von KI wohl darin liege, C derartig „zur falschen Identifizierung“ zu veranlassen, indem KI so antworte, wie es normalerweise ein Mensch tut. Sollte C sich in dieser Variante ebenso oft falsch entscheiden, wie wenn das Spiel von zwei Menschen gespielt würde, dann könne zur Schlussfolgerung gelangt werden, dass Maschinen denken können. (Vgl. Turing 1967, 106-109.)

Turing sieht den Vorteil in diesem Experiment in der klaren Trennung zwischen der „physischen“ und den „intellektuellen“ Fähigkeiten. Es gehe weder darum, ob die Maschinen ähnliche physische Eigenschaften wie Menschen besitzen (z. B. Stimme, Aussehen), noch darum, ob Menschen ähnliche physische Fähigkeiten wie Maschinen (z. B. ein Flugzeug) besitzen. Diese Aspekte werden in dem Experiment ausgeklammert. Betrachtet wird lediglich die intellektuelle Dimension von Mensch und Maschine. (Vgl. Turing 1967, 108.)

Nichtsdestotrotz kann eingewandt werden, dass selbst ein Bestehen des Turing-Tests nicht beweise, dass die Maschine tatsächlich ebenbürtige oder bessere intellektuelle Fähigkeiten – im Sinne einer starken KI – als ein Mensch besitzt. Bestenfalls zeigt dieser Test, dass die Maschine die intellektuellen Fähigkeiten des Menschen im Sinne einer schwachen KI simulieren kann. (Vgl. Russell/Norvig 2003, 952.) Diesbezüglich erfand John R. Searle ein Experiment, welches die Unmöglichkeit einer starken KI beweisen soll: In Anlehnung an das Turing-Experiment ist in diesem „ Chinese-Room-Experiment “ eine Person (A) in einem Raum mit Körben mit chinesischen Symbolen eingesperrt. Diese Person A versteht kein Wort Chinesisch, hat aber ein auf Deutsch formuliertes Regelwerk für die Handhabung chinesischer Symbole und zusätzliche Regeln zur Verfügung. In diesem Regelwerk wird rein formal – nur mit Rückgriff auf die Syntax und nicht auf die Semantik der Symbole – angegeben, was mit den Symbolen gemacht werden soll: z. B. „Wenn Zeichen X, dann nimm Zeichen Y“. Von einer anderen Person (B) werden in das Zimmer Symbole hereingereicht, welche „Fragen“ genannt werden. A reicht wiederum Symbole aus dem Zimmer, welche „Antworten“ genannt werden. Wenn die Aufgabe von A gut erledigt wird, werden diese Antworten schon bald nicht mehr von dem eines chinesischen Muttersprachlers unterscheidbar sein. Person A verhält sich also aus Sicht von Person B so, als verstünde er Chinesisch, obwohl A natürlich in Wahrheit kein einziges Wort Chinesisch versteht. Die Schlussfolgerung von Searle ist nun folgende: Wenn dies bei Person A also nicht ausreicht, um Chinesisch zu verstehen, dann reicht dies auch bei keinem digitalen Computer aus. Schließlich hat kein Computer etwas, das A nicht hat. Ein Computer hat nichts außer einem „formalen Programm für die Handhabung uninterpretierter chinesischer Symbole.“ Programmierte Computer verfügen per definitionem nur über formale Symbole ohne semantischen Gehalt. Hätte A allerdings Fragen auf Deutsch erhalten, hätte er diese Fragen natürlich ohne Rückgriff auf syntaktische Regeln beantworten können, z. B. welche Farbe die Blume in dem Zimmer habe oder wie alt der Mann sei. A kennt die Bedeutung der Symbole und antwortet mit Symbolen, welche für ihn eine Bedeutung haben. Bei den Fragen auf Chinesisch werden einfach formale Symbole manipuliert, welche keinerlei Bedeutung für A besitzen. (Vgl. Searle 1989, 30ff.)

[...]

Ende der Leseprobe aus 40 Seiten

Details

Titel
Denkende Maschinen? Eine Untersuchung zu den ontologischen Grundlagen der "Künstlichen Intelligenz"
Hochschule
Universität Wien  (Department of Philosophy)
Veranstaltung
Seminar Roboterethik
Note
1,0
Autor
Jahr
2018
Seiten
40
Katalognummer
V496767
ISBN (eBook)
9783346005687
ISBN (Buch)
9783346005694
Sprache
Deutsch
Schlagworte
denkende maschinen, KI, künstliche Intelligenz, starke ki, schwache ki, starke künstliche intellilgenz, kurzweil, bostrom, minsky, searle, turing, turing test, roboterethik, maschinenethik, denken, maschine
Arbeit zitieren
Alexander Hölzl (Autor), 2018, Denkende Maschinen? Eine Untersuchung zu den ontologischen Grundlagen der "Künstlichen Intelligenz", München, GRIN Verlag, https://www.grin.com/document/496767

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Denkende Maschinen? Eine Untersuchung zu den ontologischen Grundlagen der "Künstlichen Intelligenz"



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden