Computer als Lehrpersonen. Der Einsatz von künstlicher Intelligenz im Grundschulunterricht des 21. Jahrhunderts


Thèse de Master, 2016

82 Pages, Note: 1,0


Extrait


Inhaltsverzeichnis

1. Der Wunsch nach Unsterblichkeit

2. Lehrer- Schüler-Beziehungen: Grundbausteine von Lehr-, Lern- und Persönlichkeitsprozessen in der Schule

3. Die Künstliche Intelligenz im Grundschulunterricht des 21. Jahrhunderts
3.1 Digitale Medien
3.2 Zum Einsatz der Künstlichen Intelligenz in der Grundschule

4. Fazit

Literaturverzeichnis

Einleitung

In dieser Arbeit mit dem Titel „Computer als Lehrpersonen? – Ein Beitrag zum Einsatz von künstlicher Intelligenz im Grundschulunterricht des 21. Jahrhunderts.“ soll der grundlegenden Fragestellung nachgegangen werden, wie der Einsatz von künstlicher Intelligenz in der Grundschule die Lehr- und Lernaufgaben der Schüler- und Lehrerschaft unterstützen kann und welche Einsatzgebiete es in der Schule gibt. In diesem Kontext soll jedoch auch die Frage geklärt werden, weshalb künstliche Intelligenz überhaupt in der Schule bzw. in Ausbildungsstätten genutzt werden soll und welche Vor- und Nachteile ein Einsatz von dieser mit sich bringt. Ein wesentlicher Bestandteil in dieser Diskussion wird dabei die Rolle der Beziehungen im Kontext des Lernens und Lehrens in der Grundschule einnehmen, die jedoch unweigerlich von der Frage begleitet werden, wie das menschliche Selbstbild gegenüber Maschinen und Computerprogrammen bestehen bzw. sich weiter entwickeln kann.

Um diesen Fragestellungen gerecht zu werden, wird im ersten Themenbereich daher der Blick zuerst allgemein auf die Anfänge und die Entwicklung von Maschinen gelenkt, aus deren Mitte, sich längerfristig die Künstliche Intelligenz entwickelt hat. In diesem Kapitel wird im Wesentlichen den Fragen nachgegangen, warum der Mensch überhaupt Maschinen baut, welche Hoffnungen und Ängste er damit verbindet und wie die zukünftige Entwicklung zwischen Mensch und Maschine aussehen könnte, die schlussendlich zu der Diskussion führen, was den Mensch zum Menschen macht.

Anknüpfend an diese Diskussion wird sich im zweiten Themenbereich eingehend der Lehrer-Schüler Beziehung gewidmet, die die Identität eines Menschen wesentlich für sein gesamtes Leben prägt und das Fundament des Lernens und Lehrens darstellt. Ergänzend soll in diesem Kapitel analysiert werden, welche komplexen Beziehungsmuster beim Lernprozess auftreten, welche Aufgaben der Lehrer bzw. der Schüler in dieser Rollenbeziehung wahrnimmt und auf welche Traditionen sich Lehrer-Schüler Verhältnisses beruhen und zum nächsten Themenfeld überleiten, welches sich theoretisch mit dem Einsatz von künstlicher Intelligenz in der Grundschule beschäftigt.

Das dritte Themenfeld dieser Arbeit analysiert dabei die schon heute gängigen Einsatzmöglichkeiten von Computern und Maschinen im Grundschulunterricht. Sie stellt den Einsatz von digitalen Medien dar und die neuen Konzepte des spielerischen Lernens, die schon heute einen anderen Lernansatz für den Schulunterricht eröffnen. Gleichzeitig wird der Blick jedoch auch darauf gelenkt, inwieweit die Maschinen bereits als normaler Bestandteil unseres Alltagslebens in die Schülerwelt eingedrungen sind und eventuell Beziehungsschemata, wie sie im Lehrer-Schüler Verhältnisses vorkommen, imitieren können. Zudem wird sich der Frage angenähert, ob eine Maschine ohne ethische, allein mit rational-logischen Grundzügen überhaupt erfolgreich unterrichten kann. Interessant wird dabei die Sicht auf gerade die Schüler sein, die Lernschwierigkeiten aus sozialen, motorischen oder kognitiven Gründen haben oder sonst im Lernen benachteiligt sind. Der Höhepunkt wird jedoch ein wissenschaftlich fundierter Blick in die Zukunft sein, wie das zukünftige Lernen in der Grundschule aussehen könnte.

Letztendlich werden aus allen Erkenntnissen der drei Themenbereiche eine abschließende Auswertung vorgenommen, ob es überhaupt möglich ist, dass Maschinen bzw. Künstliche Intelligenz in Form von digitalen Medien im Grundschulalltag einsetzbar sind und welche Position diese im zukünftigen Grundschulunterricht des 21. Jahrhunderts haben werden.

1. Der Wunsch nach Unsterblichkeit

Mitte März 2016 war es die Sensation in Presse, Rundfunk und Fernsehen: Das Computersystem Alpha Go schlägt den Weltklassespieler Lee Sedol in dem mathematisch komplexen Brettspiel Go. Ein Raunen ging durch die Gesellschaft, deren Blick einmal mehr auf die Leistungsfähigkeit von Künstlicher Intelligenz gelenkt wurde, die die Menschen seit der Mitte des letzten Jahrhunderts gleichzeitig ängstigt und fasziniert. Eine alte Diskussion brach wieder auf, die die Möglichkeiten, aber auch die Gefahren solcher Maschinen betreffen. Doch was ist Künstliche Intelligenz überhaupt und warum treibt der Mensch deren Entwicklung überhaupt permanent voran? (vgl. Görz 2014, S. 1)

Nüchtern gesehen, besteht die Begrifflichkeit der „Künstlichen Intelligenz“ aus zwei Wörtern, von denen die Wissenschaft bis heute nicht genau weiß, was unter ihm zu verstehen ist. Der Begriff ist historisch zu verstehen und wurde aus dem Englischen durch die Begrifflichkeit „artificial intelligence“ geprägt. Görz sagt hierzu in seinem Handbuch Künstliche Intelligenz, dass die Übersetzung Missverständnisse produziere, indem sie eine Definition von Intelligenz suggeriere, die es in dieser Form jedoch gar nicht gibt. Die Auseinandersetzung mit der Begrifflichkeit der „Künstlichen Intelligenz“, führt den Menschen daher immer wieder zu den grundlegenden Fragen, wer oder was der Mensch überhaupt ist, wie sein Gehirn funktioniert und was Intelligenz überhaupt ist. (vgl. Ertel 2013, S. 1)

Der Psychologen William Stern stellte einmal die Defintion auf: „Intelligenz ist die allgemeine Fähigkeit eines Individuums, sein Denken bewusst auf neue Forderungen einzustellen. Sie ist allgemeine geistige Anpassungsfähigkeit an neue Aufgaben und Bedingungen des Lebens.“(vgl. Görz 2014, S. 3)

Basierend auf dieser Aussage kann als Konsens der Intelligenzbegriff zusammengefasst werden, der Intelligenz als Erkenntnisvermögen, Urteilsfähigkeit und das Erfassen von Möglichkeiten versteht. Intelligenz wird dabei besonders deutlich, wenn es darum geht Probleme zu lösen, zu denken, zu rechnen oder sich an etwas zu erinnern. Grundsätzlich weckt diese Aussage über Intelligenz bei den meisten Menschen eine positive Assoziation aus. (vgl. Görz 2014, S. 4)

Anders verhält es sich bei dem Attribut „künstlich“. Künstlich ist etwas, was von jemand anderem geschaffen wurde und als nicht natürlich gilt. Die Begrifflichkeit weckt Assoziationen an Science Fiction Romane, in deren Geschichten Roboter die Menschheit ausrotten wollen und die Menschen überflügeln könnten. Obwohl der Bau von Flugzeugen und Schiffen mittlerweile bei vielen Menschen auf Begeisterung stößt, spalten sich bei der Künstlichen Intelligenz seit ihrer Entwicklung die Geister. (vgl. Ertel (2013, S.1); Görz (2014, S.1)

Die Vorstellung, dass Menschen versuchen die menschliche Intelligenz gottähnlich zu erschaffen und somit etwas menschenähnliches zu schaffen, finden manche anmaßend, andere wiederum ein faszinierendes Unterfangen, dass bis zu der literarischen Figur des Frankenstein zurückreicht und philosophische Fragen aufwerfen wie, ob Computer eine Seele haben. (vgl. Görz 2014, S.1)

Das Ziel der Künstlichen Intelligenz ist es daher die Imitation von mentalen Prozessen und Verhaltensweisen des Menschen möglich zu machen, die meist durch Computer und Roboter realisiert werden. Die Künstliche Intelligenz ist dabei jedoch nur Mittel zum Zweck, die Berechnungsverfahren untersucht, die es dem Computer ermöglicht, Dinge wahrzunehmen, Schlussfolgerungen zu ziehen und nach diesen zu handeln. Görz bringt die Funktion der KI in seinem 2014 erschienenen Handbuch für Künstliche Intelligenz sehr treffend auf den Punkt. Demnach ist die Künstliche Intelligenz nichts weiter sei als ein Computerprogramm, welches für Problembereiche weiterentwickelt wird, die bislang nur von Menschen lösbar waren. (vgl. Görz 2014, S. 1)

Eine fast gleiche Charakterisierung der Künstlichen Intelligenz bietet Wolfgang Ertel in seinem Buch „Grundkurs Künstliche Intelligenz“. Dort zeigt er anhand der Entwicklungsgeschichte der Künstlichen Intelligenz nachvollziehbar, welche Bedeutung der Begriff heute hat. Demnach wurde das erste Mal der Begriff Künstliche Intelligenz von dem KI-Pionier John Mc Carthy im Jahre 1955 gebraucht, der es folgendermaßen gebrauchte: Ziel der Künstlichen Intelligenz ist es, Maschinen zu entwickeln, die sich verhalten, als verfügten sie über Intelligenz. (vgl. Ertel 2013, S. 1-2)

Nach dieser Definition war jedoch jedes noch so einfach konstruierte Vehikel, das zum Beispiel einem Licht folgen konnte oder Gegenständen auf einem Spielfeld auswich, eine intelligente Maschine. Die Grenzen dieser Definition wurden daher bald sichtbar, die in Anbetracht der immer größer werdenden Leistungen der Künstlichen Intelligenz und der komplexen Probleme, die diese bereits lösen konnte, zu ungenau wurde und zu weit gefasst war. (vgl. Ertel 2013, S. 2)

Eine neue Definition wurde gebraucht, die nach der Encyclopedia Britannica wäre: Die Künstliche Intelligent ist die Fähigkeit digitaler Computer oder computergesteuerter Roboter, Aufgaben zu lösen, die normalerweise mit den höheren intellektuellen Verarbeitungs-fähigkeiten von Menschen in Verbindung gebracht werden. (vgl. Ertel 2013, S. 2)

Diese Theorie war schon etwas genauer, ließ jedoch auch einen normalen Computer intelligent wirken, der bereits einen langen Text abspeichern kann. Nach Ertel hat daher Elaine Rich eine bis heute passende Definition geliefert, die dieses Problem zusammenfasst und auf das Gleiche abzielt, was Görz bereits weiter oben darlegt: „Artificial Intelligence is the study of how to make computers do things at which, at the moment, people are better.“ Die Künstliche Intelligenz ist die Wissenschaft, Computer das tun zu lassen, was Menschen zurzeit noch besser machen. (vgl. Ertel 2013, S. 2)

Beide Definitionen beschreiben dabei einen Zustand sehr treffend. Die intelligente Maschine kann in innerhalb von kurzer Zeit Berechnungen ausführen oder Daten speichern und wieder zur Verfügung stellen. Hier ist die Maschine dem Menschen überlegen.

Betritt die intelligente Maschine jedoch einen fremden Raum oder bekommt er Daten, die er nicht zuordnen kann, versagt das Computersystem. Der Mensch hingegen kann sich binnen Sekundenbruchteilen in einem Raum zurecht finden und sich neuen Situationen anpassen. Ähnlich schnell kann er Entscheidungen treffen und Aktionen umsetzen. Jeff Hawkins beschreibt dies in seinem Buch „Die Zukunft der Intelligenz“, dass der Mensch in Sekundenbruchteilen die Struktur der Welt erkennen und begreifen kann. (vgl. Ertel 2013, S. 3; Hawkins 2006, S. 215 ff.)

Der nächste Entwicklungsschritt der Definition nach Rich (und Görz) dürfte daher jetzt sein, den Maschinen Ohren und Augen zu geben, um Informationen selbstständig aufnehmen zu können. Das maschinelle Lernen wird in Zukunft ein zentrales Teilgebiet der Künstlichen Intelligenz und ein Meilenstein in der Entwicklung von menschenähnlichen Robotern sein. Denn die besondere Stärke der menschlichen Intelligenz liegt in ihrer Adaptivität, die den Menschen in die Lage versetzt sich an verschiedene Umweltbedingungen anzupassen. Entscheidend ist dabei auch das wichtige Merkmal der Art, der Effizienz und der Geschwindigkeit, mit der sich der Mensch bei der Problemlösung an die Umwelt anpasst (Adaption) oder sich der Umwelt angleicht (Assimilation). (vgl. Ertel 2013, S. 3; Görz 2014, S. 4)

In diesem Zusammenhang wird in der Forschung der Künstlichen Intelligenz schon lange zwischen dem Zusammenhang von Computer und Gehirn gestritten. Günter Ewald beschreibt dabei in seinem Buch „Gehirn, Seele und Computer“ aus dem Jahre 2006, dass die grundlegende Frage dabei ist, ob ein Computer nur Anweisungen menschlichen Denkens befolgen kann oder ob er diese Vorgänge wiederspiegelt und somit ein eigenes Bewusstsein entwickeln kann. (Günter Ewald 2006, S. 21)

Grundlegend hat sich die Forschung darauf geeinigt, dass Gehirn und technische Computer bei grundsätzlichen Gemeinsamkeiten sehr verschieden gebaut sind, aber jedoch auch erstaunliche Analogien zueinander vorweisen. Dies lässt sich nach Ewald hervorragend an dem Denksystem der Kybernetik festmachen, die auf den zwei Prinzipien der Verschaltung und der Rückkopplung beruhen und auf lebende sowie technische Systeme anwendbar sind. (Günter Ewald 2006, S. 21)

Die Verschaltung ist dabei ein Zusammenschluss aus Signalen, die nach festen Regeln neue Signale produzieren, egal welche Auswirkungen diese Produktion hat. Das kontinuierlich mechanische Ausstanzen einer bestimmten Form in einer Fabrik stellt hier ein praktisches Beispiel dar. Die Maschine stanzt solange die Form aus (selbst, wenn kein Material mehr vorhanden ist) bis der Mensch diese Maschine ausschaltet. (Günter Ewald 2006, S. 21)

Die Rückkopplung hingeben nimmt Einfluss auf die Stanzmaschine. Das Ergebnis in Form der gestanzten Formen beeinflusst die Ursache, also die Produktionsschnelligkeit der Formen. Konkret würde dies bedeuten, dass die Maschine automatisch in ihrer Arbeit abgebremst oder beschleunigt wird bis die Maschine eine kontinuierliche Produktionsgeschwindigkeit gefunden hat, um eine bestimmte Anzahl von Formen herzustellen. Dieses Beispiel stellt einen klassischen Fall des Prinzips Versuch und Irrtum dar, auf dem die wesentlichen Lernvorgänge auch des menschlichen Gehirns beruhen. ( Günter Ewald, S. 21)

Die revolutionäre Bedeutung der Rückkopplung lag somit darin, dass die technischen Prozesse nun auch nutzbar für soziale und biologische Systeme wurden. Die Betrachtung des Menschen als technische Maschine wurde somit vorangetrieben und ermöglichte es den menschlichen Geist ebenfalls als Maschine zu verstehen. (vgl. Künkler 2011, S. 94/95)

Warren S. Mc Culloch formulierte zu diesem Sachverhalt als erster eine Theorie mit dem Ziel zu verstehen, wie der Mensch Konzepte in seinem Gehirn entwickelt, besitzt und einsetzt. Grundlegend stellte er dabei die These auf, dass die Operationen des menschlichen Geistes und die von Rechenmaschinen auf spezifische Weise ähnlich sind. Zusammen mit Walter Pitts entwickelte er in seinem Aufsatz „A logical Calculus of the ideas immanent in nervous activity“ das einfache Modell des menschlichen Gehirns anhand eines neuronalen Netzwerkes, welches ausschließlich auf binären Signalen aufgebaut ist. ( Künkler 2011, S. 92)

McCulloch und Pitt betrachteten jedoch nicht nur das Gehirn, sondern auch den Geist als eine Maschine, deren Annahme auf der Aussage von Alan Hodges fußte, dass ein Gehirn immer nur das tut, was es tut, weil es seiner Struktur und dem logischen System entspricht und ebensogut in einem anderen Medium physikalischer Maschinerie dargestellt werden. Diese Auffassung brachte die Wissenschaftler dazu, den Geist bzw. die Software unabhängig von dem Gehirn, der Hardware, zu betrachten und ermöglichte es sich auf geistige Prozesse zu fokussieren. (Künkler 2011, S. 92)

Erst auf diesen Grundlagen konnte sich im 20. Jahrhundert die Künstliche Intelligenz herausbilden, die den Menschen nach seinem Erfinder Marvin Minsky, ersetzen oder zumindest gleichwertig sein sollte. Dass dieses Ziel bis heute nicht erreicht wurde, ist den Menschen heute bewusst, dennoch hat die Entwicklung der KI, die Maschinen und Roboter am Fließband dazu befähigt, den Menschen nach Richs und Görz Definition dort abzulösen. (Günter Ewald, S. 28)

Die Weiterentwicklung der Künstlichen Intelligenz kann daher nur gelingen, wenn die Ingenieure, die aktuell nur die Imitation des menschlichen Verhaltens zugrundlegen, ein tieferes Verständnis des menschlichen Schließens und Denkens bekommen, da Computer und Gehirn viele Gemeinsamkeiten besitzen. Die Entwicklung der Künstlichen Intelligenz hat eindrucksvoll gezeigt, dass erst mit den Erkenntnissen der noch jungen Hirnforschung die Weiterentwicklung von intelligenten Maschinen möglich wurde. (vgl. Ertel 2013, S. 3)

Die Fragen, was das Bewusstsein ist oder woher die menschliche Vorstellungskraft kommt, zielen genau in diese Richtung, wenn der Mensch sich wie zu anfangs bereits erwähnt mit der Begrifflichkeit der Intelligenz auseinander setzt. Jeff Hawkins geht diesen Fragen in einer anderen Richtung nach, in dem er die Welt in Strukturen einteilt.

Jedes Gesicht hat Augen und jedes Auge hat meistens auch eine Pupille. Die Welt ist weder zufällig noch einheitlich. Der Mensch bräuchte in einer Welt ohne Strukturen kein Gedächtnis oder Vorstellungskraft. Sein Verhalten wäre bedeutungslos. Das Ziel des Menschen ist es jedoch, sich fortzupflanzen und das eigene Überleben zu sichern. Dies kann der Mensch am erfolgreichsten, in dem er Strukturen abspeichert und auf andere Umstände variieren kann. (vgl. Hawkins 2006, S. 215)

Nach Hawkins hat sich genau aus diesem Grund das menschliche Gehirn entwickelt. Bei Pflanzen oder Einzellern übernimmt die Gedächtnisfunktion die DNA. Die DNA hat jedoch den Nachteil, dass sie Umwelteinflüsse oder Veränderungen erst an die nächste oder übernächste Generation weitergeben kann. Die Nervenstränge des Gehirns hingegen haben sich als effiziente Daten- und Informationsübertragungsalternative entwickelt, die Veränderungen in der Umwelt sofort erkennen und umsetzen kann. Dies ermöglicht es dem Mensch das eigene Verhalten innerhalb der Lebensspanne zu verändern. Der Einsatz von Sprache unterstützt dabei die schnelle Weitervermittlung der eigenen Erfahrungen an die nächste Generation. (vgl. Hawkins 2006, S. 215-217)

Doch der Mensch bekommt durch das Gehirn nicht nur die Möglichkeit Strukturen zu erkennen, Lösungen dafür zu erarbeiten und diese abzuspeichern. Diese Eigenschaft des Gehirns ist durch intelligente Maschinen und maschinelles Lernen heute ebenfalls schon möglich. Das Gehirn gibt dem Menschen jedoch auch die Möglichkeit, sich etwas vorzustellen, kreativ zu denken und Empathie fähig zu sein. Die Reflexionskraft des menschlichen Gehirns stellt für Hawkins eines der wesentlichsten Unterscheidungsmerkmale von Mensch und Maschine dar, welches letzten Endes jedoch an der Frage entschieden wird, ob eine Maschine irgendwann ein Bewusstsein entwickeln kann oder nicht. (vgl. Hawkins 2006, S. 215-217)

Hier setzt Wolfgang Ertel ein, der sagt, dass die Hirnforschung bis heute jedoch noch nicht genau weiß, was unser Bewusstsein überhaupt ist. Eine gültige Definition ist daher schlichtweg nicht zu formulieren, sodass die Weiterentwicklung der Künstlichen Intelligenz an diesem Punkt ins Stocken gerät, da viele Ideen und Konzepte von intelligenten Maschinen erst durch die Erkenntnisse der Hirnforschung ermöglicht wurden. (vgl. Ertel 2013, S. 3)

Ein Paradebeispiel stellt hier die Kognitionswissenschaft dar, die sich mit dem menschlichen Denken auseinandersetzt. Im September 1956 wurden auf einer Konferenz die Grundlagen der Kognitionswissenschaften gelegt, die als zentrale Annahme sahen, dass das bewusste menschliche Handeln auf der Basis von Informationsverarbeitung basiert und nicht wie bisher angenommen lediglich auf der behavioristischen Konditionierung des Menschen nach Pawlow. Es wurde ein Vergleich hergestellt, der das Gehirn mit Speichern, Prozessoren und Steuerstrukturen eines Computers verglich, welches Informationen verarbeitet. Eine kognitive Wende wurde eingeleitet, die die psychologische Erforschung des Geistes erst möglich machte. (vgl. Görz 2014, S. 3; Ewald 2006, S. 31; Künkler 2011, S. 85)

Die Euphorie über die Entwicklung von Computern war zu dieser Zeit ins Stocken geraten. Kurt Gödel und Alan Turing hatten durch ihre Forschungen bewiesen, dass es eine Grenze innerhalb der symbolverarbeitenden Programme gab, die nicht überwunden werden kann. (vgl. Ertel 2013, S. 6)

In dieser Phase der Ernüchterung konnten Fachleute aus den Bereichen Informatik, Physik und der neu aufkommenden Kognitionswissenschaft mit Hilfe von leistungsfähigeren Computern zeigen, dass mathematisch modellierte neuronale Netze ähnlich dem menschlichen Gehirn in der Lage sind Aufgaben zu lernen, die heutzutage als Gesichts- oder Unterschriftenscanner im Alltag zum Einsatz kommen. Die Kognitionswissenschaft gab somit einen entscheidenden Entwicklungsimpuls, der in zwei verschiedene Denkweisen mündete, die sich in der symbolisch computationalen und der kybernetisch-dynamischen Sichtwiese niederschlugen und in ihrer Folge zu der Entwicklung der Künstlichen Intelligenz und des Konnektionismus führen. (vgl. Ertel 2013, S. 6-11; Künkler 2011, S. 96)

Auf Grundlage dessen fassten die Entwickler der Künstlichen Intelligenz das Ziel ins Auge, die Logik und die Repräsentation von Wissensbeständen als Kernaufgabe der KI zu sehen. Die Künstliche Intelligenz entwickelte sich somit zu einem System, das als Problemlöser agieren kann, welcher die Effizienz von Produktionsabläufen steigert und intelligente Lösungen anbietet. Die KI ist somit ein Werkzeug, welches wie in einem Werkzeugkoffer eines Handwerkers seinen jeweiligen Zweck erfüllt. (vgl. Ertel 2013, S. 6-11)

In Anbetracht dieser Entwicklung, stellt sich die Frage, was die Künstliche Intelligenz überhaupt im Stande ist zu leisten und welche Prozesse des menschlichen Gehirns operationalisierbar bzw. imitierbar sind. Die Befürworter einer starken KI-These sagen, dass die KI Prozesse wie Kreativität und Bewusstsein imitieren und entwickeln könnte, da das menschliche Gehirn nichts anderes als ein Computer ist, der Berechnungsprozesse vollzieht. (vgl. Görz 2014, S. 4)

Die gemäßigten Vertreter einer KI These sagen jedoch, dass gerade diese Fähigkeiten sich einer Operationalisierung entziehen. Sie sagen nach Görz, dass Maschinen kein Gespür, keine Intuition wie der Mensch haben, die auch irrationale Entscheidungen zulassen. Gerade diese irrationalen Entscheidungen machen jedoch erst Erfahrungen möglich, die es dem Menschen und dem Gehirn erlauben zu wachsen, Theorien aufzustellen und diese zu überprüfen. (vgl. Görz 2014, S. 7-8)

Intuitionen oder irrationales Handeln werden meist von Emotionen ausgelöst, die nicht operationalisierbar sind. Maschinen können ihrer Aufgabe gemäß wunderbar Probleme lösen, jedoch können sie niemals die Angst vor dem Tod fühlen oder ein Bewusstsein dafür entwickeln. (vgl. Görz 2014, S. 7-8)

Es ist die grundlegende Frage, wo der Unterschied zwischen der menschlichen und der künstlichen Intelligenz liegt. Daher ist es egal, welcher Argumentation wir den Vorzug geben, da diese Diskussion unweigerlich auf den Punkt hinausläuft, was der Mensch überhaupt ist und was ihn überhaupt zum Menschen macht. Die Aussage des Aristoteles „Ich denke, also bin ich“ wird unter diesem Aspekt eine ganz neue Konnotation gegeben. (vgl. Görz 2014, S. 4; Ertel 2013, S. 4)

Die Forschung der KI hat aus diesem Grund einen stark interdisziplinären Charakter zur Philosophie, die über die grundsätzlichen Fragen des menschlichen Fühlens, Denkens und Handelns nachdenkt. Die Frage, ob eine Maschine denken und ein Bewusstsein entwickeln kann, führt den Menschen zu der Problematik, ob eine Seele an den Körper gebunden ist oder nicht. Viele Neurologen und Philosophen glauben heute, dass die Seele und das Bewusstsein an die Materie, also an unser Gehirn gebunden sind. (vgl. Görz 2014, S. 4; Ertel 2013, S. 4)

In Anbetracht dessen kommt in der Diskussion um die KI daher unweigerlich die zu Anfang dieses Kapitels gestellte Frage auf, was der Mensch gegenüber der Maschine eigentlich ist?

Ewald Günter meint hierzu in seinem Buch „Gehirn, Seele Computer“, dass die Einbildung des Menschen als wirbelförmiges Lebewesen auf diesem Staubkorn namens Erde die Krone der Schöpfung sei und im Mittelpunkt dieser Existenz des Universums stehe, schlichtweg lächerlich anmutet. (vgl. Ewald 2006, S. 15)

Er sieht, dass die Angst und die Skepsis mancher Menschen gegenüber der Künstlichen Intelligenz davon herrührt, dass die lernenden Maschinen uns zeigen, wie klein und unwichtig der Mensch mit seinem Gehirn eigentlich ist. Der Mensch wird zu einem Kümmerling, eine vernachlässigbare Größe in Anbetracht der Weite des Weltganzen. (vgl. Ewald 2006, S. 15)

Der erste Schock dieser Art erfuhr die Menschheit bereits durch die Entdeckungen der Astronomie. Die Sonne und nicht die Erde mit ihren Menschen waren das Zentrum des Universums. Die Erde wurde zu einem Staubkorn im Kosmos degradiert, welches verloren am Rand einer Galaxie existiert. Die Folge war eine tiefe Demütigung des stolzen menschlichen Selbstbewusstseins, dem der neuzeitliche Mensch nur eines entgegenzusetzen hatte: Das menschliche Gehirn. (vgl. Ewald 2006, S. 15)

Millionen von Gehirnzellen, Synapsen und Neuronen, die mit etwa hundert Milliarden genau so groß sind wie das Universum selbst, konnten den Minderwertigkeitskomplex des Menschen ausgleichen und ihm einen neuen besonderen Stellenwert innerhalb der Welt geben. Jeder Mensch lebt somit in einer Art „Mezokosmos“ zwischen Weltall und Neurouniversum. In Anbetracht der Milliarden von Gehirnen spürt der Einzelne somit den Hauch eines universalen, im Einzelmenschen repräsentierten Geistes (oder Bewusstseins), der allem Raumzeitlichen innewohnt und für jeden Menschen einzigartig ist. (vgl. Ewald 2006, S. 15-16)

Die Vorstellung, dass dieser „innere Kosmos“ nicht an die neuronalen Netzwerke des Gehirns geknüpft ist und durch Stromimpulse und Kabel eventuell imitierbar oder übertragbar ist, versetzt die Menschheit nun abermals in Schrecken. Auch, wenn diese Theorie heute noch als verrückt abgetan wird, so zeigt das Beispiel der Quantenphysik, dass schwarze Löcher einst ebenso verrückt abgetan wurden und ein passables Beispiel dafür sind, wie das menschlichen Wissen und Sein über sich hinauswachsen kann. (vgl. Ewald 2006, S. 17)

Urs Widmers beschreibt in diesem Zusammenhang nach Wolf-Andreas Liebert und Uta Schaffers in seinem Buch „Die gelben Männer“ von 1976 einen technischen Albtraum. Der menschliche Körper verschmilzt mit dem Technischen. Maschinen sind in der Zukunft zu einem Teil der Alltagskultur geworden und werden serienmäßig im menschlichen Körper verbaut. In dem Buch betrifft dies vor allem die Japaner, die sich Fotokameras implantieren lassen und deren Fotoausdruck aus dem Hintern kommen. (vgl. Liebert/Schaffers 2014, S. 31)

Die Implantation von Maschinen in den Körper geschieht daher nicht aus medizinischen Zwecken, sondern um den Konsum von Eindrücken und Erfahrungen zu optimieren. Das technische Erleben tritt an die reale Erfahrung und wirft somit eindrucksvoll die Frage auf, inwieweit die Allianz von Körper und Maschine den Verheißungen von (Selbst-)Optimierung und maschineller Substitution gehen kann bzw. gehen sollte. (vgl. Liebert/Schaffers 2014, S. 31)

Widmers beschriebene Maschinenkörper (oder schlicht Roboter) begegnen den Menschen inzwischen omnipräsent in Literatur, Film und Kunst als utopische oder dystopische Entwürfe, die auf der technischen Kreation einer zweiten Natur beruhen, die potentiell immer Vernichtung bedeutet und auf den beunruhigenden Entwicklungen von Androiden des 19. Jahrhunderts beruhen. Bis heute reichen diese metaphysischen Verunsicherungen und sind wie Raymond Kurzweil nach Liebert und Schaffers beschreiben als Trans- und Posthumanismus zu sehen, die Technologie nicht nur für regenerative Medizintechnologie nutzt, sondern eine neue Evolutionsstufe in Form von Klonen und Cyborgs bereitstellen könnte. (vgl. Liebert/Schaffers 2014, S. 33; Meyer-Drawe 2007, S. 29)

Meyer-Drewe macht dies in ihrem Buch „Menschen im Spiegel ihrer Maschinen“ aus dem Jahre 2007 am Beispiel des Prometheus deutlich. Prometheus wird immer wieder gerne bemüht, um die Allmachtphantasien des Menschen zu versinnbildlichen. Nach der Erschaffung des Sterblichen durch die Götter, wurde Epimethos und Prometheus der Auftrag erteilt, den Wesen Geschenke für ihr Leben zu machen. (vgl. Meyer-Drawe 2007, S. 11-12)

Epimethos wollte jedoch unbedingt den Vortritt bei der Verteilung der Geschenke und Eigenschaften, sodass Prometheus ihm diesen gewährte. Doch zum Schluss musste er feststellen, dass sein Bruder Epimethos nur den vernunftlosen Wesen ein bequemes und umsorgtes Leben gegeben hatte. Kein Geschenk war mehr für die Menschen übrig geblieben, sodass Prometheus aus Verzweiflung und aus vor Furcht vor den Göttern das Feuer der Athene stahl. Dieses brachte er unter die Menschen, sodass Prometheus bis heute als derjenige gilt, der die Technik unter die Menschen gebracht hat und die Wissenschaft begründete. (vgl. Meyer-Drawe 2007, S. 11-12)

Dass Prometheus sich damit den Zorn der Götter aufhalste, versteht sich wohl von selbst, machte er doch den Weg dafür frei, dass der Mensch durch Technik sich das Leben einfacher machen konnte. Der Mensch begnügte sich nicht mehr den Demiurgen nachzueifern, die Ordnung stifteten, sondern wurde selbst „göttlich-schöpferisch“ tätig, welches in der Literatur mit dem Bildnis des Frankensteins Niederschlag fand. (vgl. Meyer- Drawe 2007, S. 12; Liebert/Schaffers 2014, S. 32 ff)

Liebert/Schaffers und Meyer-Drawe sind sich einig darin, dass der Mensch sich in unmittelbarer Nähe zum Schöpfergott wähnt. Er schafft durch Schaltkreise und Blech eine eigene elektronische Nachkommenschaft, die den Befehlen des Lichtes folgt oder tanzt. Dass diese Schöpfereinstellung die Menschen fasziniert, könnte im biblischen Sinne die Argumentation nach einem 8. Schöpfungstag zulassen, an dem der Mensch die intelligente Maschine schaffte, Gott beseitigte und nach dem Glaubensverlust an die Götter einen neuen Mythos schaffte: Die Ewigkeit des Menschen durch wissenschaftliche und technische Perfektion. (vgl. Meyer-Drawe 2007, S. 13; Liebert/Schaffers 2014, S. 32 ff).

Die Frage des Zarathustras kam auf, wie kann der Mensch überwunden werden. Gleichzeitig kam jedoch neben der Thematik des ewigen Lebens, auch die Diskussion auf, ob der Tod nicht auch ein Privileg sei, welches zu erhalten gelte. Längst geht es bei dieser Diskussion nicht mehr um die Einweihung des Menschen in die Geheimnisse der Natur, sondern darum die Natur bzw. das Leben mit Hilfe der Maschinen zu verändern und dieses selbst zu erschaffen. (vgl. Liebert/Schaffers 2014, S. 33)

Doch diese Konstellation wirft die Fragen auf: Wann kann ich vom Leben sprechen? Leben digitale Pflanzen und Roboterinsekten? Was ist es, was im Menschen denkt? Können Computer denken? (vgl. Liebert/Schaffers 2014, S. 33)

Diese begriffliche Frage nach dem Leben lässt sich nicht so einfach beantworten, wie mancher es gerne hätte. Es kommen eine Vielzahl an Definitionsmöglichkeiten in Frage wie das gesellschaftliche Leben, eine Biografie oder die Unterscheidung von Zelle und totem Material in Erwägung. Verwunderlich ist es daher nicht, dass es Anfang des 20. Jahrhunderts einen Streit darüber gab, ob „Leben“ auf einer nichtmateriellen „Lebenskraft“ beruht oder ob Leben letztlich immer auf materiellen und physikalischen Vorgängen basiert. Merkmale wurden gesucht, die ein lebendes System von einem toten System unterscheiden. (vgl. Ewald 2006, S. 18)

Ähnliches geschieht aktuell für die Bereiche Bewusstsein, Geist und Wille. Es wird versucht eine Merkmalsliste zu erstellen, die einen Sachverhalt deuten und einen Begriff charakterisieren soll, damit eine Maschine diesen erfassen. Diese Merkmalslisten machen es erst möglich, dass Naturvorgänge in Maschinen angewendet werden und Roboter den Menschen imitieren können. (vgl. Ewald 2006, S. 19)

Weitere Erkenntnisse aus der Hirnforschung, der Mechanik und der Mathematik beflügeln diese Diskussion, die letzten Endes zu der Vorstellung vom Menschen als Maschine führen. Der Mensch möchte die Herausforderung bewältigen den menschlichen Geist in Apparate zu transferieren, die dem Auge nach keine Ähnlichkeit mehr mit Maschinen haben. (vgl. Meyer-Drawe 2007, S. 13)

Es wird dabei ein Raum erzeugt, in dem die Grenzen zwischen Mensch und Maschine immer kleiner werden und letzten Endes zu einer vollkommenen Verschmelzung von Mensch und Maschine führen, die zu der bereits weiter oben gestellten Frage „Wer oder was ist der Mensch?“ zur Identität und Personalität des Menschen führen. Die Frage nach dem Bewusstsein des Lebens ist somit genuin auch eine Frage nach dem Tod. (vgl. Liebert/Schaffers 2014, S. 34)

Der Tod erscheint nach Liebert/Schaffers somit zunächst als ein Privileg des Organischen. Ein schönes Beispiel bietet hier das Buch von Isaac Asimovs „Der Zweihundertjährige“ von 1976, in dem das Ziel der Maschine „ Andrew“ es ist, das begehrte Privileg des Sterbens zu erreichen und als ein Mensch identifiziert zu werden. Für dieses Ziel lässt Andrew zahlreiche Neuerungen an sich verbauen, sodass er so organisch wie möglich werden kann wie es ihm möglich ist. In diesem Zusammenhang zitieren Liebert/Schaffers seine Frage: „Wie ist dieses Nicht-Menschsein begründet? Ich habe die Gestalt eines Menschen und besitze Organe, die menschlichen Organen entsprechen. Meine Organe sind identisch mit denen, die sich in prothetisierten Menschen befinden. Ich habe künstlerisch, literarisch und wissenschaftlich gearbeitet und der Kultur des Menschen mehr beigesteuert als je ein Mensch. Was kann man denn mehr verlangen?“ (vgl. Liebert/Schaffers 2014, S. 34)

Andrews Frage nach der Existenz und des Seins des Menschen wird in dem darauf folgenden Gerichtsprozess damit beantwortet, dass die Personalität des Menschen im biologischen Gehirn sitze, welches dem Verfall und dem Sterben preisgegeben ist. Ist also der wesentlichste Punkt der Persönlichkeit, dass dieses in einem biologischen Gehirn steckt, was langsam abstirbt? Ist dies Scheidelinie zwischen Mensch und Maschine? (vgl. Liebert/Schaffers 2014, S. 37/38)

Byung Chul Han sieht dies nach Ansicht von Liebert/Schaffers von einer eher thanatologisch-philosophischen Sichtweise. Nicht das sterbliche Gehirn, sondern die das Todesbewusstsein stehen im Mittelpunkt der Persönlichkeit und des menschlichen Bewusstseins. Todesbewusstsein ist dabei nicht das Wissen oder Kennen des Todes, sondern vielmehr das Bewusstsein der Vergänglichkeit des Menschen und der Gewissheit dem Tode nicht entgehen zu können. Diese Todesgewissheit stellt das eigentliche Privileg des Menschen dar und nicht der Tod bzw. das Absterben des Organischen. Dieses Privileg würde selbst bei einem endlosen Leben nicht preisgegeben werden. (vgl. Liebert/Schaffers 2014, S. 37/38)

Nach Meyer-Drawe spiegelt jedoch die Entwicklung von Maschinen nur das wieder, was der Mensch gerne sein oder erreichen würde. Der Mensch bewundert die Privilegien, die die Maschinen zu eigen haben. Sie besitzen gegenüber dem Menschen in den Bereichen des Körperlichen und des algorithmischen Denkens erhebliche Vorteile. Maschinen übertreffen das Können der Menschen. (vgl. Meyer-Drawe 2007, S. 14, 15)

Unter diesem Licht wird das Leben als etwas rätselhaftes, der Tod als etwas Berechenbares und gesetzmäßiges angesehen. Der Leib wird zu einem Kadaver degradiert, der austauschbar ist. Er wird zum Opfer von durchgeregeltem Wissen. Die Transplantationsmedizin schafft neue Möglichkeiten und lassen Körperteile zur Ware werden, die auf der Welt zirkulieren. Die Differenz von Natur und Technik wird immer diffuser. Der Gegensatz Maschinen versus Organismus löst seine suggestive Kraft ein. Die Grenzen beginnen zu verschwimmen. (vgl. Meyer-Drawe 2007, S. 14, 15)

Als Folge daraus wird der Körper zum Gegenstand von Entscheidungen, da es die Möglichkeiten gibt, Dinge wie eine Maschine vorauszuberechnen oder Ersatzteile einzubauen. Eine Diskussion tritt in Kraft, die zwischen der Pflicht zum Wissen und dem Recht der Unwissenheit wankt. Eine Entwicklung, die schon heute an Gesundheits- und Fitnessarmbändern zu sehen ist. Der Körper, das natürliche Bollwerk in der Geschichte des Selbstbildnisses des Menschen wird brüchig. Telepräsent ist ein Stichwort, das markiert, dass es Technik gibt, die unser Bewusstsein fernab unserer Körper funktionswirksam werden lassen können. Der Mensch empfindet seinen organischen Körper als unzureichend gegenüber den Maschinen. (vgl. Meyer-Drawe 2007, S. 15)

Aus diesem Grund versucht die Industrie menschenähnliche Maschinen herzustellen, die im Handeln und Denken uns so ähnlich wie möglich sind und längerfristig vielleicht irgendwann unseren Geist aufnehmen sollen. Der dafür im 20. Jahrhundert entwickelte Turing Test zielt dabei genau auf dieses Ziel ab. (vgl. Liebert/Schaffers 2014, S. 40)

Die Geburtsstunde dieses Tests ist mit der Erfindung des Computers eng verbunden. Durch die militärischen Entwicklungen innerhalb des zweiten Weltkrieges, bedurfte es einer erhöhten Menge an leistungsfähigen analogen Rechenmaschinen. Menschen, die zum Beispiel ballistische Tabellen für Artilleriegeschosse erstellten, benötigten zahlreiche solcher Maschinen, mit deren Hilfe die Berechnungen vollzogen wurden. Die Menschen, die diese Rechenmaschinen einst zur Hilfe nahmen, wurden als Computer bezeichnet. (vgl. Künkler 2011, S 89)

Allan Turing zeigte in diesem Zusammenhang auf, dass die Rechenleistungen dieser Menschen vollständig automatisierbar seien, wenn es gelänge die Tätigkeit der „Computer“ in kleinste Einheiten zu zerlegen, die dann von einer Maschine durchführbar seien. Um diese Theorie zu verdeutlichen schuf er die Turing Maschine, ein theoretisches Modell des mathematisch arbeitenden Menschen, dessen Tätigkeit formalisiert und in Standardlogik formuliert ist. Dieser Maschine sollte es möglich sein, alle standardmäßigen arithmetischen Operationen automatisiert durchzuführen. (vgl. Künkler 2011, S. 89-90)

Neben dieser Maschine schuf Turing jedoch noch ein weiteres Modell, in dem alle anderen Turing Modelle imitiert werden, sofern diese abgespeichert werden können. Später entwickelte Turing im aufstrebenden Computerwesen aus diesem Ansatz heraus die Theorie, dass es keine stichhaltigen Argumente geben könne, einem Computer nicht den Anspruch eines Bewusstseins zuzugestehen sofern er von der Performanz des Menschen nicht zu unterscheiden ist. (vgl. Künkler 2011, S. 90)

Aus diesen beiden Modellen entwickelte Turing einen Test, der eine Reihe von selbstgewählten Fragen sowohl einem Menschen als auch einem Computer gestellt werden. Für den Fragesteller ist dabei unklar, ob es sich um einen Computer oder einen Menschen handelt, da er schlussendlich entscheiden muss, wer Computer und wer Mensch ist. Nach Turing besitzt ein Computer dann ein eigenes Bewusstsein, wenn der Mensch diesen nicht mehr von einem anderen Menschen unterscheiden kann. Künstliche Intelligenz und Computer können somit menschliches Verhalten nicht nur imitieren, sondern funktionieren wie das menschliche Gehirn. Die Forschung der Künstlichen Intelligenz geht daher in die Richtung künstliche Menschen herzustellen. Doch sollte die Menschheit sich das antun? (vgl. Künkler 2011, S. 90-91; Liebert/Schaffers 2014, S. 40; Meyer-Drawe, S. 17)

Liebert/Schaffers wollen diesen Mythos entzaubern, indem sie den Maschinen ihre Privilegien von Wissensleistung und Rechenkapazität hinwegnehmen. Von den Maschinen bleiben ohne diese Privilegien nichts weiter als Todlosigkeit, Geschichtslosigkeit, Herzlosigkeit, Leiblosigkeit und Würdelosigkeit. Doch argumentativ könnte hier entgegengesetzt werden, was ist würdevoll und vor allem welcher Tod ist es? Ist ein Verstorbener nicht mehr als ein würdeloser Zellhaufen ohne Seele? (vgl. Liebert/Schaffers 2014, S. 40)

Die Beantwortung dieser Fragen liegt wohl in der Natürlichkeit des Sterbens. Der langsame Verfall von Gewebe und schlussendlich der organische Tod kann nicht künstlich geschaffen. Es ist eine Gesetzmäßigkeit, die der Mensch zwar abbremsen, aber nicht ausschalten kann. Ein würdevoller Tod besteht jedoch nicht nur aus dem Verfall des Körpers, sondern auch aus der emotionalen Beziehung zu anderen Menschen und einer erfolgreichen Interaktion mit der Umwelt. Gerade die Interaktion und das Reagieren von Maschinen, die den Anschein des Todesbewusstseins imitieren können, stellen die bisherigen Grundannahmen von Würde in Frage. (vgl. Liebert/Schaffers 2014, S. 40)

Verwunderlich ist es daher nicht, dass Menschen nachweislich zögerten, nachdem sie eine erfolgreiche Interaktionsgeschichte zum Beispiel mit einer Roboterkatze hatten, die vor ihrer Ausschaltung um ihr Leben flehte. Diese parasoziale Interaktion lässt die Frage aufkommen, ob das von dem Philosophen Byung Chul Han definierte Todesbewusstsein nicht doch von Maschinen entwickelt werden könnte und somit von einem Maschinenleben gesprochen werden kann. (vgl. Liebert/Schaffers 2014, S. 49)

Meyer-Drawe argumentiert an dieser Stelle weiter, dass die Maschinen dieses Verhalten nur imitieren würden, jedoch nichts dabei konkret fühlen. Es fehlt ihnen die Seele bzw. nach Liebert/Schaffers das Herz, welches die Angst vor dem Tod und das daraus resultierende Todesbewusstsein erst zu dem macht, was es ist. Die perfekte Simulation von Sozialität, die schlussendlich im Alltag nicht mehr unterschieden werden kann, bleibt jedoch nur eine Simulation. Hier sind sich Meyer-Drawe und Libert/Schaffers einig. (vgl. Liebert/Schaffers 2014, S. 49; Meyer-Drawe 2007, S. 23ff. )

Meyer-Drawe geht jedoch noch ein Stück weiter. Forschung ist nicht per se segensreich, sie ist zugleich auch immer Verhängnis. Technik und Maschinen sind nicht mehr nur noch Simulationen bzw. Schatten, die Bewegungen und Prozesse nachahmen oder benutzt werden können in Form eines Herzschrittmachers oder Buches. Durch die Interaktion mit den Maschinen gibt uns diese Technik einen neuen Möglichkeitsraum. Durch die Berechenbarkeit des menschlichen Lebens wie bei Liebert/Schaffers bereits weiter oben beschrieben, wird der Mensch durch die Vielzahl der Möglichkeiten überfordert, da die Maschinen dem Menschen suggerieren, dass nahezu alles möglich sei. (vgl. Meyer-Drawe 2007, S. 17)

In Anbetracht dieser Fülle an Möglichkeiten wird der Mensch nach dem Unkalkulierbarem seiner Existenz gefragt. Menschlichkeit oder Gefühle sind daher das Einzige, was beim Menschen übrig bleibt, da dies unberechenbare Komponenten sind. Diese Entwicklung führt uns zu dem anfangs beschriebenen Konflikt Mensch gegen Maschine, der den Kritikern und Gegnern der Künstlichen Intelligenz Angst macht. (vgl. Meyer-Drawe 2007, S. 19)

In diesem Konflikt würde nach der Argumentation von Liebert/Schaffers die Maschine gewinnen, da lediglich das Todesbewusstsein den Menschen von der Maschine unterscheidet. Zudem schreibt die Maschine die Regeln vor und gewinnt ganz klar in den Bereichen Kapazität, Wissen und Schnelligkeit. Doch der Mensch besteht noch aus mehr als nur aus seiner Sterblichkeit wie bei Hawkins bereits weiter oben ausgeführt wurde. Der Mensch hat den Vorteil, sich in Sekundenschnelle auf neue Situationen einrichten zu können. (vgl. Meyer-Drawe 2007, S. 20)

Andreas, Schmetzstorff fasste den Menschen in sieben universalen Gaben zusammen, die aus Körper, Seele, Geist, Vernunft, geistiges Wissen und Gewissen bestehen. Meyer-Drawe würde diese wohl noch um die Wahlfreiheit, das Selbstbewusstsein die Spontaneität und die Kreativität hinzufügen, wobei die Kreativität wohl bereits durch den Geist abgedeckt wäre. (vgl. Schmetzstoff 2010, S. 48; Meyer-Drawe 2007, S. 20)

Der Mensch besteht dabei nicht aus dem, was er weiß, sondern aus den Erfahrungen, Erkenntnissen und den Einsichten, die er durch die Welt gewinnt und erfährt. Dabei spielt sein organischer Körper eine besondere Rolle, der durch Motorik, Sexualität, Gesundheit, Aus- und Eindrucksvermögen, Sinneswahrnehmung, Nahrungsaufnahme, Bewegungsmittel und die Kommunikation die Erfahrungen des Menschen bzw. dessen Menschlichkeit prägt. (vgl. Schmetzstoff 2010, S. 48)

Der Mensch kann sich in der Diskussion Mensch versus Maschine nur halten, in dem er sich von all den Dingen differenziert und Grenzen zieht, die ihn als etwas anderes auszeichnen. Hierzu gehören neben den von Schmetzstoff genannten Aspekten auch die Reinheit der Natur, die Animalität, die Ursprünglichkeit und die Kindheit des Menschen. Jede Annäherung an diese Grenzen wird als eine tödliche Bedrohung angesehen. (vgl. Meyer-Drawe 2007, S. 22)

Aus diesem Grund wird die Diskussion um die Künstliche Intelligenz gerne in die Richtung gedrängt, dass dies etwas Unnatürliches sei und die Erfahrungen des Menschen beschränken. Der Konflikt Mensch versus Maschine wird als ein Zweikampf dargestellt, in dem es nur einen Sieger geben kann, welcher im Sieg des Natürlichen über das Künstliche oder der Sieg des Künstlichen über das Natürliche geben kann.

Benjamin Stein von der Softwarefirma Ivorix sieht nach Günter Ewald darin den Hauptgrund für eine gewollte Entwicklungsbremsung der Künstlichen Intelligenz, die die kleinen Fortschritte auf diesem Gebiet erklären. Maschinen, deren Programme neuronale Netze imitieren und dem menschlichen Denken und Entscheiden auf die Spur kommen, werden mit Missmut gesehen. Es herrscht die Angst im Raum, eventuell die Kontrolle verlieren zu können und ein künstliches Ich zu erschaffen, was eventuell Probleme besser zu lösen vermag als der Mensch selbst. (vgl. Ewald 2006, S. 28-29)

Ewald sieht in dieser Argumentation jedoch nur eine ethisch gefärbte Ablenkung, die von schwer lösbaren technischen Problemen ablenken soll, wie zum Beispiel, dass ein Computer wie Meyer-Drawe ebenfalls sagt, nie mitfühlen wird. Darin besteht aber tatsächlich eine gewisse Gefahr, falls Computer ähnlich dem Menschen eine Unvorhersagbarkeit der Gedanken entwickelt. Das digitale Modell des menschlichen Denkens, das ebenso hochkomplexe Denkmuster erzeugen könnte wie das menschliche Gehirn, würde eine gewisse Eigendynamik entwickeln, die nicht festlegbar wäre. (vgl. Ewald 2006, S. 28-29)

Diese Entwicklung würde die Frage nach Computerrechten und einem Grundgesetz für Computer aufwerfen und die Diskussion entfachen, wie viel Identität eine Maschine besitzt, die schon bei Liebert/Schaffers im Zusammenhang der Todesbewusstseins aufkam. (vgl. Ewald 2006, S. 28-29; Liebert/Schaffers 2014, S. 49)

Aus diesem Wissen heraus, stellt der Sieg eines Computers über einen GO-Weltklassespieler ein so einschneidendes Erlebnis dar, da die Forschung (und auch Günther Ewald) ausgeschlossen haben, dass ein Computer in diesem mathematischen Spiel gewinnen könnte, dessen Züge nicht programmiert werden können und im Wesentlichen auf Intuition beruhen. (vgl. Ewald 2006, S. 29)

Meyer-Drawe sieht in diesem Szenario jedoch keine Gefahr. Insgesamt betrachtet sie die Entwicklung zwischen Mensch und Maschine als einen Möglichkeitsraum für die Menschheit, nachgestellte Strukturen und Prozesse in Form von Organen auszulagern und sich frei zu machen für die Frage, was der Mensch außer seinem verfallenden Körper eigentlich noch ist. (vgl. Meyer-Drawe 2007, S. 20)

Diese biologische Kränkung, dass der Mensch nicht die einzigartige Krone der Schöpfung ist, führt eventuell dazu, dass der Mensch zu einem Objekt unter Objekten wird. Der metaphysische Stolz des Menschen wird nicht nur verletzt, sondern regt im Sinne von Darwins Evolutionstheorie zum Nachdenken über die Sonderstellung des Menschen innerhalb der Natur an. Eine vergleichbare Diskussion entbrennt heute wohl im biogenetischen Fortschritt, der uns die Frage aufdrängt, ob wir alles auch tun sollten, was machbar ist. (vgl. Meyer-Drawe 2007, S. 21-22)

Nach Liebert/Schaffers imitieren die Maschinen uns lediglich. Sie zeigen dem Menschen seine Grenzen und Schwächen auf. Maschinen werden von Gegenständen zu etwas, was den Menschen übertrumpft. Der nächste evolutionäre Schritt sollte daher sein, dass der Mensch sich seines zweifelhaften Privileg der Leiblichkeit bewusst wird und sich selbst als endliches Wesen annimmt, deren rationalistischer Traum es ist Unsterblichkeit zu erlangen, welcher er durch die Entwicklung von Maschinen erhofft. (vgl. Meyer-Drawe 2007, S. 23)

Die Entdeckung der offensichtlichen Sperrigkeit und der Undurchdringlichkeit des menschlichen Geistes bei dieser Entwicklung gibt dem Menschen dabei eine neue Rolle innerhalb der Welt, die die biologische Kränkung ausgleicht und unserer körperlichen Seite der menschlichen Existenz zu neuem Ansehen verhilft. (vgl. Meyer-Drawe 2007, S. 28)

Die Bemühungen der künstlichen Intelligenz oder künstlichen Lebens spiegeln somit die Befassung des Menschen mit sich selbst wieder. Der Mensch, der animal rationale, will sich frei von der Sterblichkeit machen oder sich als intelligente Materie interpretieren, die in unendliche Möglichkeiten mündet und die nur dem Zweck der Negierung seiner endlichen Existenz durch die Maschinen dienen. (vgl. Meyer-Drawe 2007, S. 29)

Sonnemann sagt hierzu in seinem Werk “Technik als Provokation“, dass im Umkehrschluss dem Menschen die Maschinen jedoch gerade seine Sterblichkeit aufzeigen, die er selbst nicht ausgleichen wird. Erst diese Provokation wirft unweigerlich die Frage auf, was es eigentlich heißt zu denken und existent zu sein. Die beunruhigende Bedeutung der Maschine als zweite Natur des Menschen wird oftmals nur durch eine Abwehr unterdrückt, die darauf basiert, dass der Mensch der Konstrukteur der Maschine ist. (vgl. Meyer-Drawe 2007, S. 30)

Die größte Herausforderung wird daher in Zukunft sein, welches Verhältnis der Mensch zu Maschinen und Körpern finden wird, die nicht im Gegensatz, sondern im Einklang miteinander und der menschlichen Identität stehen. Maschinen als Kooperation von menschlichem Geist und Natur bilden eine Zwischenwelt, die uns bis heute noch völlig unbekannt ist. (vgl. Meyer-Drawe 2007, S. 37)

Zusammenfassend kann für das erste Kapitel folgendes festgehalten werden. Die Entwicklung der Künstlichen Intelligenz fußt auf der Sehnsucht des Menschen Unsterblichkeit zu erreichen. Die Künstliche Intelligenz als intelligente Maschine ist dabei nur Mittel zum Zweck, um mentale Prozesse ähnlich dem Gehirn zu imitieren bzw. zu entwickeln, um in der Zukunft die geistigen Prozesse bzw. die Identität eines Menschen in sich aufnehmen zu können. Der heutige Entwicklungsstand der Künstlichen Intelligenz lässt sich auf zahlreiche Entwicklungen seit dem 2. Weltkrieg zurückführen und hatten stets das Ziel Probleme zu lösen, die bislang nur von Menschen lösbar waren. Beeindruckend sind dabei die großen Datenmengen, die Rechenleistung und die logische Kombinatorik, die die Systeme bis heute hervorgebracht haben und die Leistungen des Menschen in diesen Bereichen übertrumpfen.

Der nächste Schritt in der Entwicklung der Künstlichen Intelligenz dürfte daher sein eine richtige Interaktion von Maschinen und Umwelt herzustellen, um das maschinelle Lernen in Form von eigenständigen Datensammlungen und deren Verarbeitung zu ermöglichen. Die Anpassung bzw. Adaptivität der Maschine an seine Umwelt, die ein wesentliches Merkmal der menschlichen Intelligenz darstellt, wird der nächste große Meilenstein sein, den die Forschung der Künstlichen Intelligenz zu bewältigen haben wird.

Doch selbst, wenn dieser Schritt gelänge, wird die Künstliche Intelligenz immer noch vor großen Herausforderungen stehen. Der Mensch mit seinem komplexen Gehirn besteht nicht nur aus der Datenerfassung und deren Verarbeitung bzw. Speicherung. Dies können Maschinen heutzutage bereits wesentlich besser. Das menschliche Gehirn gibt dem Menschen die Möglichkeit sich auch etwas vorzustellen, kreativ zu denken und sein Verhalten zu reflektieren. Die große Frage wird daher sein, ob eine Maschine jemals ein Bewusstsein entwickeln wird oder nicht, die ihr diese Prozesse erlauben werden.

Doch gerade diese Frage versetzt viele Menschen in Angst und Schrecken, da sie die Diskussion beginnt, was der Mensch gegenüber der Maschine in diesem Fall eigentlich noch ist. Der Mensch wird wie bei der Entdeckung des Universums in seinem Stolz gekränkt die Krone der Schöpfung zu sein, die ihn zum Herrscher über die Welt erhebt. Er wird zu einem Objekt unter Objekten, welches in Anbetracht der Weite des Weltganzen eine vernachlässigbare Größe ist.

Der Mensch, der sich am Anfang der Entwicklung der Künstlichen Intelligenz als Schöpfergott wähnt, wird sich in diesem Zusammenhang seiner Vergänglichkeit wieder bewusst, die auf der einen Seite mit einem sterblichen Körper ein Nachteil, jedoch im Gegensatz zu intelligenten Maschinen sein einziges Privileg ist, welches er in die Waagschale zu werfen hat. In Anbetracht der Vielzahl an Möglichkeiten, die dem Menschen durch die Entwicklung von intelligenten Maschinen gegeben werden, wird dieses Todesbewusstsein zum Kern seiner Existenz und somit zum Kriterium von Menschlichkeit.

Diese Angst des Menschen eine vergängliche Größe in dieser Welt zu sein und gegenüber den Eigenschaften der Maschinen zu verblassen, die er selbst gerne zu eigen hätte, führt zu dem Konflikt Mensch versus Maschine, der suggestiv nur mit einem Sieg der Maschine über den Menschen oder dem Menschen über die Maschine enden kann.

Die Maschinen zeigen dem Menschen jedoch nur seine Grenzen und Schwächen auf, die den Menschen dazu ermutigen sollten seine Angst zu überwinden und seine Vergänglichkeit mit dem zweifelhaften Privileg der Leiblichkeit zu akzeptieren. Die Maschinen bieten dabei dem Menschen eine Möglichkeit sich selbst neu zu entdecken, in dem er Strukturen und Prozesse des Körpers an die Maschinen abgibt, die diese übernehmen können.

[...]

Fin de l'extrait de 82 pages

Résumé des informations

Titre
Computer als Lehrpersonen. Der Einsatz von künstlicher Intelligenz im Grundschulunterricht des 21. Jahrhunderts
Université
University of Koblenz-Landau  (Institut für Grundschulbildung)
Note
1,0
Auteur
Année
2016
Pages
82
N° de catalogue
V992297
ISBN (ebook)
9783346361301
ISBN (Livre)
9783346361318
Langue
allemand
Mots clés
Künstliche Intelligenz, Lehrer-Schüler-Beziehung, Computer als Lehrpersonen, Hologramm, Neue Raumgestaltung Grundschule, Digitalisierung
Citation du texte
Thomas Napp (Auteur), 2016, Computer als Lehrpersonen. Der Einsatz von künstlicher Intelligenz im Grundschulunterricht des 21. Jahrhunderts, Munich, GRIN Verlag, https://www.grin.com/document/992297

Commentaires

  • Pas encore de commentaires.
Lire l'ebook
Titre: Computer als Lehrpersonen. Der Einsatz von künstlicher Intelligenz im Grundschulunterricht des 21. Jahrhunderts



Télécharger textes

Votre devoir / mémoire:

- Publication en tant qu'eBook et livre
- Honoraires élevés sur les ventes
- Pour vous complètement gratuit - avec ISBN
- Cela dure que 5 minutes
- Chaque œuvre trouve des lecteurs

Devenir un auteur