KI/ AL und das Denken - Der in-formierte Leib


Magisterarbeit, 2004
92 Seiten, Note: 1,7

Leseprobe

Inhaltsverzeichnis

1 Einleitung

2 Die KI/AL und das Denken
2.1 Die In-formierung des Denkens
2.2 Symbolische KI
2.2.1 Algorithmische Maschinen
2.2.2 Physikalische Symbolsysteme
2.2.3 Symbol: Repräsentation
2.2.4 Denkprozeduren
2.2.5 Das Selbst als „seltsame Schleife“
2.3 Subsymbolische KI
2.3.1 Konnektionismus
2.3.2 Netztopologien
2.3.3 Lernen: Autoregulation und Anpassung
2.3.4 Zerstreute Symbole
2.3.5 Emergenz: Sprünge zum Selbst

3 Zwischenspiel im Dunklen

4 Übergang: Die In-Formation des Denkens

5 Lyotard: Das Andere Denken
5.1 Körperanalogien
5.2 Exkurs: Gedächtnisse
5.3 In memoriam: Das Vergessen
5.4 Das Begehren der Maschinen
5.5 Ereignis - Zeit – Information
5.5.1 Entzug: Es geschieht
5.5.2 Zeitenwende: Verweigerte Ankunft

6 Epilog: Das künstliche Denken

1 Einleitung

Wenn wir die Frage aufgreifen um zu erörtern, wie wir Denken wenn wir Denken, dann kreisen unseren Bemühungen um einen Topos, der in der geisteswissenschaftlichen Tradition zumeist innerhalb der Philosophie selbst thematisiert und reflektiert wurde.[1] Die Philosophie hat sich immer schon auf Ansprüche und Erwartungen, die von außen, also exoterisch, an sie herangetragen wurden, mehr oder wenigerbereitwillig eingestellt, hat sich mit Positionen außerhalb ihrer eigenen fachlichen Horizonte kritisch auseinandergesetzt.

Diesem Anspruch zeigt sich vorliegende Text deshalb verpflichtet, weil die modernen Computerwissenschaften einen wesentlich technischen Zugang zu philosophischen Begrifflichkeiten pflegen und damit ein konflikthaftes, dialogisches Feld eröffnen, in das verschiedene wissenschaftliche Ansprüche hineinspielen. An Fragwürdigkeit gewonnen hat der Begriff des Denkens, um dessen mögliche Mathematisierung es uns gehen wird, maßgeblich durch die Heraufkunft klassischer bzw. transklassischer Maschinen.[2]

Alte Grenziehungen zwischen Mensch und Maschine, natürlichem und künstlichem Denken, vorgenommen zumeist innerhalb philosophisch-theologischer Diskurse, scheinen vor allem durch die Entwicklung moderner Computer zu verschwimmen oder doch zumindest an Überzeugungskraft einzubüßen. Deren Technizität bzw. vielmehr die Art und Weise, wie Soft- und Hardware zusammenspielen, war bereits in den Anfängen der Computerforschung als ungemein provozierende Metaphorik erkannt, weil sich eine bestimmte Vorstellung von Vernunft bzw. Denken in diesem Angewiesenheitsverhältnis gleichsam materialisiert. Man kann die Gabe des Denkens als „sehr menschliches Privileg“ (Penrose 2002:3) ansehen, ohne allzu viel Gegenrede erwarten zu müssen. Abwehrende Haltungen jedoch, die einklagen, dass sich digitale Rechenmaschinen „mit unserem Menschsein in keiner Weise vergleichen“ (Klawitter 1992:47) lassen, sind symptomatisch für die Annahme, dass es sehr wohl Gemeinsamkeiten gibt und gesichert geglaubte Differenzen durch deren Thematisierung aufbrechen.[3]

Die Forschungen zur Künstlichen Intelligenz (KI), denen sich diese Arbeit widmet, reformulieren die Frage nach dem Denken auf ihre Weise. Nicht mehr geht es um eine Klärung, was Denken ist, sondern welche Funktion es für den Menschen besitzt. Die mit dieser Annahme einhergehende Überführung philosophischer Probleme in empirische Fragestellungen ist jedoch keineswegs unproblematisch. Spricht man von Intelligenz und macht sich die Diffusität dieses Begriffes insofern zunutze, als dass er problemlos Denken mitumfasst[4], meidet man die Konfrontation mit einer philosophisch hochbrisanten Terminologie und arbeitet mit vielleicht unzulässigen Bedeutungsverengungen.

Was die kognitionswissenschaftliche KI von anderen Zugängen zur Informatik unterscheidet, ist ihre grundlagentheoretische Ausrichtung.[5] Als Cognitive Science ist sie um die Generierung von Erklärungsmodellen für das Denken bemüht, fragt nach der Möglichkeit einer technischen Realisierung intellektueller Vermögen und lotet damit im Idealfall zugleich Grenzen der Berechenbarkeit aus.[6] Meist ist von solch nüchternem Pragmatismus wenig zu lesen: Fehlt die Bereitschaft zur philosophischen Begriffsarbeit, entwickelt die Verlockung, in Hard- und Software die physikalische Manifestation des Leib-Seele-Dualismus anzunehmen, eine merkwürdige Eigendynamik, die nicht selten zu bizarren „Variationen zum Thema des Denkens“ (Hofstadter 1985:361) anregt bzw. sich in mythologischen Erzählungen über den Niedergang des endlichen Menschen niederschlägt.[7]

Mit dem hochgesteckten Ziel einer Durchkreuzung cartesischer Altlasten bewegt sich die KI auf unsicherem Grund.[8] Das Diskussionsfeld, das sie betritt, ist inhaltlich überaus voraussetzungsreich und hochbelastet, geht es doch um nichts geringeres als um grundlegende Positionen/Differenzen, die in der Geschichte der Philosophie bedeutsam waren und noch sind. Bestrebungen, formale Methoden zur Beschreibung geistiger Prozesse zu entwerfen wie auch der Versuch, das Denkvermögen durch algebraische Logik zu erklären, legen nahe, dass es der KI womöglich um die Marginalisierung und Codierung des Leibes gehen könnte.

Kritische Stimmen, die die „Einheit des Menschen“ (Kaltenborn 2001:9) beschwörend darauf aus sind, den unbequemen Antworten, die von den Diskursen der KI hervorgebracht wurden, etwas entgegenzuhalten, was sich der Funktionalisierung nicht ohne weiteres fügt, geraten schnell in dogmatische Verstrickungen. Schlüsse, die im Hinblick auf jene „kybernetische Kränkung“ (Meyer-Drawe) über den Status menschlichen Denkens gezogen wurden, sind bisweilen genauso unglücklich formuliert, wie die Aussagen der KI-Apologeten in Bezug auf die Leistungsfähigkeit künstlicher Systeme: Was „wishful mnemonics“[9] (McDermott 1988:144) mit den Holismus-Thesen eines etablierten Kritikers der KI, Hubert Dreyfus, verbindet, ist, dass sie beide mit einer Sprache arbeiten, die aufgrund stellenweiser Uneindeutigkeit dazu neigt, alles oder eben nichts erklären zu können.[10] Kritiker wie Verfechter der KI schmücken sich unbemerkt mit einer „mystical aura“ (Bechtel 1993:158), die wenig segensreich dem Dialog der Disziplinen eher geschadet hat, wenn er überhaupt stattfindet.

Wie jede moderne Naturwissenschaft, so hat auch die KI ihre eigenen Begleitdiskurse hervorgebracht, die überaus empfindlich und bisweilen ausfallend auf kritische Stimmen reagieren. Da werden die Schriften „Eden Weizenbaum(s)“[11] (McCorduck 1979:326) als religiös motivierte Fehlgriffe gedeutet, weil er aufgrund seiner hebräischen Herkunft das pessimistische Nein dem Ja vorziehe und Dreyfus wird, wenn auch scherzhaft, den „holistisch beseelten“ (Hofstadter 1985:612) zugeordnet.[12] Damit wird die Qualität der vorgebrachten Einwände, auf die wir in späteren Passagen zurückkommen werden, nicht sonderlich geschmälert.

Leitfrage dieser Arbeit wird sein, in welcher Weise Kognitionswissenschaftler bzw. KI-Theoretiker die subjektiv-phänomenale Seite des Denkens berücksichtigen. Insistiert man darauf, dass die Leistungsfähigkeit künstlichen Denkens bloß ein „quantitatives Problem der Rechenpower“ (Broy 1990:63) ist, dann verliert man womöglich den Modellcharakter der KI aus dem Blick: Das zu Simulierende ist immer schon an die Bedingungen dessen, was da simuliert, angepasst. Nahe liegt, dass vor dem Hintergrund dieser Annahme nicht-formalisierbare Aspekte des Denkens ignoriert bzw. in ein künstliches Schema gezwängt werden, um sie einer computationalen Modellierung zu öffnen.

Wenn wir uns die Fragen stellen, inwiefern menschliches Denken regelhaft ist und darin wie eine überkomplexe Software funktioniert und ob „mentale Prozesse ... den Prozessen, die man in Computerprogrammen findet,“ (Minsky, zit. nach Dreyfus 1989a:144) tatsächlich ähneln, ist es nötig, vor ihrer Beantwortung zu untersuchen, wie in den Diskursen der KI über das Denken gesprochen wird. Zu diesem Zweck ist das folgende Kapitel zweigliedrig konzipiert, weil die Entwicklung der KI als Wissenschaft diesen Schnitt notwendig macht: Dominierte in ihren Anfängen die klassische Auffassung des Denkens als Verarbeitung diskreter Symbole, veranlasste die Heraufkunft konnektionistischer Netze zur teilweisen Revision bis dato kaum hinterfragter Ansichten über kognitive Vermögen.[13]

Ziel der Lektüre zentraler Texte aus beiden Diskursgruppierungen ist es, die informatischen Grundlagen künstlichen Denkens darzulegen und herauszuarbeiten, um ein Verständnis um die Grenzen beider Modellarten zu erhalten. In einem ersten Übergang wird versucht, Verbindungen von Konnektionismus und Behaviorismus aufzuschlüsseln in dem Bemühen, die Funktionsweise neuronaler Netze in ihrer Angewiesenheit auf physiologienahe Psychologiekonzepte deutlich zu machen. Damit wird zugleich die Frage nach der Relevanz des Körpers und der Eigengeltung personalen Zur-Welt-Seins ein erstes Mal explizit aufgeworfen.

Douglas Hofstadter bringt die Leithypothese des zweiten Teiles (ab Kapitel 3) der Arbeit genau zum Ausdruck: „Gewisse Dinge, die das Gehirn verrichten kann, können auf einem Computer annähernd simuliert werden, die meisten jedoch nicht und ganz gewiß nicht die interessantesten.“ (Hofstadter 1985:612; kursiv von mir.) Es kann nicht darum gehen, jegliche Leistungen der KI beurteilen zu wollen, das wäre anmaßend. Ihre Erfolge sind nach ingenieurswissenschaftliche Maßstäben nicht zu bezweifeln. Wenn sie ihre Berechtigung als Teildisziplin der Psychologie aber daraus zieht, nicht allein technologische Innovationen zu generieren, sondern sich die Frage nach dem Denken stellt, muss sie solche Aspekte nachbilden, die diesem vielleicht auf den ersten Blick nur sekundär diesem Vermögen zugehören.

Anschließend und vorbereitend wird der Versuch unternommen, die Annahmen der KI über das Denken aus einer phänomenologischen Perspektive zu kritisieren. Dieser soll kenntlich machen, dass in der leiblichen Verankerung des Denkens, wie es sich uns in seiner Alltäglichkeit von sich aus zeigt, die cartesisch-rationalistische Tradition, der die KI implizit folgt, der Vernunft wahrscheinlich zuviel zumutet oder der Phänomenalität des Denkens in seiner Komplexität, in seiner Angewiesenheit auf die Wahrnehmung, nicht gerecht wird.

Diese Erweiterung des Blickfeldes ist die Grundlage für die eigentliche Entfaltung unserer Kritik. Wenn Jean-Francois-Lyotard in seiner voraussetzungsreichen Schrift „Ob man ohne Körper denken kann“ (Lyotard 1989a:23ff.) nach der Situiertheit des Denkens fragt und betont, dass es gerade die paradoxalen Vermögen des Körpers sind, die dem Denken Nahrung geben, dann scheint es lohnenswert, seinen Gedanken ein Stück weit zu folgen. Die Fäden seiner Analysen werden aufgenommen, wobei sie für sich genommen wichtige Denkanstöße liefern. Einer systematischen Erarbeitung der Momente, die als Ambiguitäten im Denken normale Logiken sprengen, geben seine Beschreibungen aus sich heraus etwas zu wenig Nahrung. Ausgehend von Lyotards phänomenologischen Versatzstücken spreizt sich das letzte Kapitel thematisch auf: Analoge, nicht-digitale Leiberfahrungen zählen ebenso wie Vergessen und Begehren zum Denken in seiner Zeitlichkeit dazu, ohne damit identisch zu sein.

Ob durch dieses Vorgehen defizitäre Eigenheiten des Menschseins bzw. nicht-simulierbarer Aspekte der Existenz eine Aufwertung, sei dahingestellt.[14] Fest steht, dass künstliches Denken, sofern es nicht auf rationale Berechungbegrenzt sein soll, allein am Maßstab des Körpers möglich ist. Verfehlungen sowie tyrannische Aspekte des Sinnlichen spielen in die einst königliche Vernunft je hinein. Damit wäre das Denken selbst als Grenzfigur zwischen strikten Alternativen anzusiedeln, als Vermögen, dass sich in einer dialektischen Verstrickung zwischen Aktivität und Passivität, zwischen Leere und Fülle, zwischen Eigenem und Fremden bewegt, ohne sich in eine der Seiten zurückziehen zu können.

Es wird nicht primär darum gehen, der Fragwürdigkeit, ob Maschinen denken können (werden), zu entgehen, indem man sich um zweideutige, verlegene Antworten bemüht, die alte Grenzen wieder errichten. Wir lesen die KI als Mitspielerin innerhalb einer postmodernen Krise der Vernunft, die diese maßgeblich mitgestaltet, ohne ihren philosophischen Implikationen zu folgen. Den Computer als Lehrmeister für das Denken begreifen meint, der durch ihn getragenen Doktrinen nicht einfach zu folgen, sondern, um dem Feld der Rationalität neue Konturen geben zu können, seine Denkanstösse anzunehmen, die uns „wie ehemals ein transmundaner Gott anfeuern (können), das Scheitern des rationalistischen Traums, so zu werden wie sie, zu verstehen als Möglichkeit endlicher Existenz.“ (Meyer-Drawe 1993:690)

2 Die KI/AL und das Denken

2.1 Die In-formierung des Denkens

Sowohl der Konnektionismus als auch die klassische KI definieren kognitive Vorgänge als informationsverarbeitende Prozesse.[15] Die Rede ist jedoch nicht davon, das sich jemand über etwas informiert. Die Reformulierung von Information im Rahmen kybernetischer wie nachrichtentheoretischer Ansätze blendet die reichhaltige Begriffsgeschichte ebenso aus, wie Gedanken an eine Erkenntnis, die sich informiert bzw. bildet.[16]

Shannon und Weavers mathematische Theorie der Kommunikation (1948) lieferte frühen KI-Forschern ein Programm, das die Nutzung von Information in der KI zu legitimieren schien. Dieser informationstheoretische, mathematische Zugang bot die Möglichkeit der Bestimmung des Neuigkeitswertes von Nachrichten und liefert Verfahren zur Meßbarkeit, Selektion und Weiterverarbeitung von Information. Vor diesem Hintergrund ist der Informationsbetrag allein dadurch exakt bestimmbar, dass pragmatische wie inhaltliche Aspekte außen vor bleiben.[17] Der Neuigkeitswert einer Nachricht ist definiert durch ein exaktes Maß H, welches auf binären Entscheidungen basiert. Information fungiert als diskrete Mitteilung, die als Abfolge von Ja/Nein-Entscheidungen dargestellt wird.[18] (Vgl. Michels 1991:27)

Diese mathematische Diskretisierung von Information deutet schon an, dass die Integration in eine Theorie der Semantik ausgeschlossen ist. Wird erst die Differenz zwischen kommunizierenden Körperzellen und einem Gespräch unter Menschen nivelliert bzw. durch binäre Kodierung eingeebnet, bleibt nichts weiter als eine mengenlogisch verifizierbare „Information ohne Kommunikation“.[19] (Kaltenborn 2001:24) Für die technische Problemstellung sind semantische bzw. sprachpragmatische Aspekte von Kommunikation irrelevant.[20]

Die Annahme kleinster, elementarer informationstheoretischer Einheiten (BIT, binary digits) lieferte beiden Ansätzen der KI den Hinweis, dass Menschen funktional informationsverarbeitende Systeme sein könnten und zumindest in dieser Beschaffenheit Computern ähnlich sind: Komplexes Verhalten wird als Ergebnis einfacher Mechanismen vorgestellt.[21]

Wenn auch der Ansatz der KI-Forscher im Hinblick auf die Bestimmung des Denkens ein naturalistisch-positivistischer ist, wird die Konsequenz dieser Haltung, vor allem in Theorien der Symbolverarbeitung, oft untergraben: „It would be called the information processing level of modelling, quite distinct from information theory, and its central idea would be the manipulation of symbols, as opposed to mere feedback, or on-off technology.“ (McCorduck 1979:47, vgl. 79; kursiv i. O.)[22] Die Nutzung eines derart unscharfen Informationsbegriffs kann als ausgezeichnetes Beispiel dienen, den problematischen Zugang der KI im Hinblick auf Subjektivität bzw. Denken zu veranschaulichen.[23] Fraglich ist nicht nur der wissenschaftstheoretische Wert eines Informationsbegriffes, der gleichgesetzt wird mit bedeutungshaltiger Symbolstruktur, auch die Eigengeltung der Erfahrung steht auf dem Spiel[24]: Der Versuch, einem physikalistischen Informationsbegriff[25] dadurch Dignität zu verleihen, indem auf die Bewußtheit bzw. Erfahrbarkeit dieser Information hingewiesen wird (vgl. Metzinger 2001:88) ist phänomenologisch kaum haltbar, verbleibt aber innerhalb gängiger wissenschaftlicher Praxis.[26]

Die axiomatische Annahme einer Ebene der Informationsverarbeitung suggeriert die Möglichkeit, menschliche Denkprozesse gänzlich formalisieren zu können und gibt damit Apologeten positivistischer Subjektkonzepte ein ausgearbeitetes, theoretisches Instrument in die Hand, dass zudem auf informatischem Wege überprüfbar scheint. Für den weiteren Gang der Untersuchung sind damit die entscheidenden Ansatzpunkte markiert: Wir fragen nach der Formalisierbarkeit bzw. Kalkülisierbarkeit des Denkens und prüfen, ob es sich tatsächlich in einem „Flußdiagramm der Operationen“ (Dreyfus 1989:112) bzw. in Form mehrschichtiger Netzwerke einfangen oder anordnen lässt.[27] Weiterhin wird zu bedenken sein, ob der Informationsbegriff und in eins damit die KI-Forschung dazu beitragen können, auf blinde Flecken in unserem Denken hinzuweisen, die sich einer formallogischen Beschreibung widersetzen. Ist der metaphysische Leib-Seele Dualismus informationstheoretisch auflösbar[28] oder stellt die KI eher eine technisch induzierte Rehabilitation cartesischer Dogmen dar? Diese These scheint angesichts einer Egalisierung der Materialität im Hinblick auf die Instantiierung informationsverarbeitender Prozesse an Gewicht zu gewinnen.[29]

Die folgenden Ausführungen stehen zunächst in dem Bemühen jene Fragen zu beantworten. Dort, wo Klärungen, die den Rahmen dieser Arbeit sprengen würden, ausbleiben (müssen) gilt es, den Spannungsreichtum der Zusammenhänge zumindest ausreichend differenziert darzustellen, um von diesem Punkt aus neue Frageperspektiven gewinnen zu können. Die Bestimmung des Begriffs der Information als Fundament von KI und Konnektionismus gleichermaßen dient dabei als Ausgangspunkt und Leitfaden der folgenden Analysen. Sinnvoll ist diese Bestimmung, weil gemäß einem Diktum von Martin Heidegger der Informationsbegriff, „allererst den zureichenden Grund für die Konstruktion von Denkmaschinen“ (Heidegger, 1957:203) liefert. Die in-formierung des Denkens gewinnt erste Konturen vor dem Hintergrund des klassischen Ansatzes der KI.

2.2 Symbolische KI

In den Anfängen der künstlichen Intelligenz-Forschung wurden elementare Informationsverarbeitungsprozesse als Transformationen symbolischer Entitäten verstanden, die in physikalischen Systemen manifestiert sind. Nicht nur bot dieser Zugang die bequeme Möglichkeit, eine Theorie des Denkens unter Verzicht auf rein numerische Darstellung von Variablen auszuarbeiten: Seine diskursbestimmende Macht gewann der symbolische Ansatz durch seine ambitionierte, starke Variante, die eine prinzipielle Modellier- bzw. Abbildbarkeit der Denkprozesse suggerierte. Diese provozierend-verlockende These garantierte nicht nur üppige finanzielle Zuwendungen, die zum Teil von amerikanischen Militärs zur Verfügung gestellt wurden, sie übte auch maßgebenden Einfluss auf die kognitionspsychologische Theoriebildung der Nachkriegszeit aus.[30]

Diese frühe Ausprägung der KI mitsamt ihrer Unterstellung der Existenz von Maschinen, „die denken, lernen und schöpferisch tätig sind“ (Newell/Simon zit. nach Weizenbaum 1978:187) wird allein über eine Darstellung ihres ideen- bzw. technikgeschichtlichen Horizontes als spezifisch historische Gestalt hinreichend verständlich: Erst Allan Turings Operationalisierung der Frage nach der Möglichkeit maschinellen Denkvermögens legte die Vermutung nahe, dass sich das philosophische Problem des Denkens selbst verlagert. Jenseits von solipsistisch - metaphorischen Spielarten der Bewusstseinsphilosophie forcierte insbesondere der Turing-Test die Idee einer technisch-computationalen Behandlung philosophischer Grundphänomene; ungelöste Erkenntnisprobleme schienen gänzlich in empirische Fragestellungen überführbar zu sein.

2.2.1 Algorithmische Maschinen

Algorithmen gelten gemeinhin als Bestandteile herkömmlicher Programmiertechniken.[31] Unser Versuch einer näheren Begriffsbestimmung dient jedoch nicht allein der Skizzierung funktionaler Eigenschaften moderner Software: Denken unter dem Siegel der Berechenbarkeit aufzufassen bedeutet zugleich, seine Funktionen als Ablauf algorithmischer Prozesse zu begreifen. Insofern bietet es sich an, Turings Spezifizierung eines effektiven Verfahrens kenntlich zu machen. Dieser Zugang empfiehlt sich, um die theoretischen Grundannahmen der symbolischen KI an die Konzeption universeller Turingmaschinen rückbinden zu können.

Wie bereits angedeutet, gelten Algorithmen als effektive Verfahren zur Lösung mathematischer Problemstellungen. Zur Veranschaulichung ziehen wir ein klassisches Beispiel aus der griechischen Antike heran: Der euklidische Algorithmus zur Bestimmung des größten gemeinsamen Teilers zweier Zahlen zählt zu den arithmetischen Grundprozeduren, die an deutschen Schulen gelehrt werden. Dieses systematische Verfahren gilt allgemein für Zahlen jeder Größe und ist in endlich vielen Ausdrücken beschreibbar.[32] Trotz einer übergroßen Menge an (Spezial-)Beispielen gelang erst im Laufe des Frühlings des letzten Jahrhunderts die begriffliche Fixierung eines allgemeinen Algorithmus.[33]

Der Entwurf einer mathematisierten, idealen und rein formalen Maschine diente Turing als Beweisverfahren dafür, dass algorithmische Prozesse in einfachste Schritte binärer Notation zerlegbar, maschinell ausführbar wie auch mathematisch beschreibbar sind. Der schematische Aufbau ähnelt dem eines alterwürdigen Tonbandgerätes: Er besteht aus einem Kopf, durch den ein unbegrenzt langer Papierstreifen gleitet. Dieser Streifen ist in Felder eingeteilt, wobei jedes Feld ein Symbol (aus einer endlichen Menge) enthält oder leer ist. Der Kopf ´liest´ jeden Abschnitt, löscht bzw. druckt ein Zeichen ab und verschiebt den Streifen um eine Position nach vorn oder hinten.[34] Mittels dieser Konstruktion konnte Turing das Entscheidungsproblem[35] als Halteproblem reformulieren. Entscheidend wird die Frage, ob „die n-te Turingmaschine jemals anhält oder nicht, wenn sie auf die Zahl m einwirkt?“ (Penrose,2002:55; kursiv i. O.) Die konzisen Analysen des britischen Mathematikers zeigten, dass ein algorithmisches Verfahren das Halteproblem prinzipiell nicht lösen kann.[36]

Universalität kommt einer Turingmaschine aufgrund ihrer Fähigkeit zu, eine Simulation seiner selbst ausführen zu können. Der Anfangsteil des Inputbandes versorgt bzw. programmiert die Maschine dergestalt, dass sie das Verhalten jeder beliebigen Turingmaschine mit diskreten Zuständen imitieren kann. Im Gegensatz zu modernen Computern, die nahezu ausschließlich nach dem turingschen Prinzip gebaut sind, besitzt der ursprüngliche Idealentwurf unbeschränkte Speicherkapazität: Sein Band ist endlich, bei Bedarf jedoch verlängerbar.[37] (vgl. Vollmer 1990:152)

Nicht allein der Entwurf einer Turingmaschine begründete den Rang Turings als zentralen Impulsgeber für die Erforschung künstlicher Intelligenz.[38] Sein vieldiskutiertes Imitationsspiel (später: Turing-Test) überführt in bezeichnender Weise die philosophisch voraussetzungsreiche Frage "‘Können Maschinen denken?"’ (Turing 1994:39) in eine Versuchsanordnung zur meßbaren Bestimmung und Beobachtung des Denk verhaltens. Eine solche rein operationale, auf äußeren Reaktionen beruhende Annäherung an das Denken blendet deskriptiv-subjektiv Verfahren aus.[39] Die Frage, ob die simulative Täuschung des Menschen durch eine Maschine gelingt sei damit als funktionale Äquivalenz zur ursprünglichen Fragehaltung Turings zu verstehen. Damit weicht er einer vermeintlich streng solipsistischen Position aus, die von einer reinen Selbstbezüglichkeit intentionaler Akte ausgehend nicht mehr unterscheiden könne, ob Denken jenseits des egologischen Feldes stattfindet. Die Lösung ist bloße Konvention: Den Vorzug erhält die "‘höfliche Übereinkunft..., daß jedermann denkt."’ (ebd., 57).[40]

Eine Rekonstruktion der üppigen Diskussionsgeschichte des Imitationsspiels kommt für uns nicht in Betracht. Kritische Stimmen aus sprachphilosophischen wie phänomenologischen Denkschulen weisen aus unterschiedlichen Perspektiven auf die Problematik einer an behavioristischen Modellen orientierten Versuchsanordnung hin.[41] Wir greifen im folgenden die Position John Searles nicht etwa deshalb heraus, weil der Einfallsreichtum der Argumentation sein Gedankenexperiment des Chinesischen Zimmers absichert und auszeichnet, sondern aufgrund der eigentümlichen Stellung seiner Kritik innerhalb der KI. Leidlmair weist dezidiert darauf hin, dass sowohl Turing als auch Searle bei aller Gegensätzlichkeit dem gleichen Erkenntnismodell folgen (Leidlmair 1991:186).

Auffällig ist zunächst die verblüffende Parallelität der jeweiligen Versuchsanordnung.[42] Searles Einwand gegenüber Turing beruht auf der Annahme eines uneinholbar-materialen sowie originär personalen Denkvermögens, da „kein Programm, für sich genommen, für Intentionalität ausreicht.“ (Searle 1994:264)[43] Die Gemeinsamkeit beider Position ist die unhinterfragte Suggestion einer genau benennbaren Grenzlinie von Subjekt und Objekt, bedingt durch die Versuchskonfiguration selbst.[44]

Searles Einwand gegenüber Turing operiert mit dem Postulat einer Eigengeltung unbeobachtbarer wie verkörperter mentaler Eigenschaften handelnder Personen. Intentionalität wie auch Sprachverhalten könnten zwar technisch simuliert und dargestellt werden. Das Fehlen komplementärer innerer Zustände erhärte die Annahme, dass „kein Programm für sich genommen für Intentionalität ausreicht.“ (ebd.,264) Die regelhafte Befolgung formaler Schritte fordere daher allein syntaktische Plausibilität und berühre keineswegs die semantische Ebene des (Sprach-)Verstehens.

Die Gemeinsamkeit beider Positionen gründet in der starken Suggestion einer festen Grenze, die den Übergang von Beobachter- und introspektiver Perspektive markiert (vgl. Leidlmair 1991:184). Für die Frage nach dem Denken zeichnen sich nunmehr entscheidende Wegmarken ab. Wird Subjektivität als hintergehbarer Unsicherheitsposten gebrandmarkt schleppt diese Verkennung den kaum spürbaren Ballast eines wuchernden Rationalismus mit sich, der sich in der Theoriebildung der KI-Forscher mitunter wohnlich einrichtet. Ebenso wie die Anordnung oben genannter Gedankenexperimente die daraus ableitbaren Schlussfolgerungen präformiert und in antithetische Szenarien einordnet, könnte der informationsverarbeitende Ansatz von vornherein das Untersuchungsfeld unzulänglich verkleinern.

Ein Denken, das dergestalt als überkomplexe algorithmische Prozedur gedacht wird, kann als Symptom einer solchen Verkürzung aufgefasst werden. Unterstellt man, Bewusstsein sei das Ergebnis körperloser Berechnungen, so scheint eine technologische Verdopplung oder, weniger stark, eine Abbildung dessen, möglich. Die logische Struktur eines Algorithmus müsse lediglich einen „kritischen Grad der Kompliziertheit“ (Penrose 2002:9) aufweisen, um als Geist anerkannt zu werden.[45] Symbolistische Theorien bauen auf den von uns hergeleiteten Prämissen auf: Denken ist eine algorithmische Funktion, die einer Introspektion verschlossen bleibt, aber informatisch eingeholt werden kann.[46]

2.2.2 Physikalische Symbolsysteme

Der Gedanke, das Symbolische diesseits von Bewusstsein und Körper sei immer halb verstanden, kann keine Theorie die sich empirisch nennt, als summa ratio gelten lassen (vgl. Cassirer 1985:XIX). Der Hinweis auf den fehlenden Leibbezug mathematischer Zeichen (ebd.,14) wird auch von Kant gesehen. Es kursiere in der modernen Logik ein „unrechter Gebrauch“ des Symbolbegriffes, da ihre Vordenker aus Gründen der Möglichkeit von Evidenz symbolische Vorstellungen der Intuition einfach gegenübergestellen, wo doch die eine „nur eine Art“ der anderen sei (Kant 1997:295).

Newell und Simon setzen einen Symbolbegriff ganz anderer Konnotation zur Charakterisierung menschlichen Denkens und Verhaltens ein.[47] Sinnverstehen gilt nicht wie noch bei Merleau-Ponty als leiblich fundiertes Geschehen, sondern als hirninterne regelgeleitete Manipulation naturwissenschaftlich fassbarer Symbolstrukturen. Definitorisch schlägt sich diese Ansicht im zentralen KI-Paradigma der Physical Symbol System Hypothesis nieder: „A physical symbol system has the necessary and sufficient means for intelligent action."[48] (Newell/Simon 1988:41) Intelligentes Verhalten wird allein physikalischen Symbolsystemen zugeordnet, wobei jedes System hinreichender Komplexität als potentiell denkfähig aufzufassen ist. Die durch den Informationsbegriff ohnehin brüchig gewordene Grenze zwischen menschlichem- und maschinellem Denken wird durch diese These weiter verwischt. Sowohl Gehirnen als auch Digitalrechnern wird die Fähigkeit universaler Symbolmanipulation, vermittelt über Input-Output-Kanäle zu geschrieben.[49]

Informationsverarbeitende Systeme verfügen über eine festgelegte Anzahl dieser „physical patterns“ (Newell/Simon 1990:109), die über die Aktivität von Prozessoren (Regeln) Symbole erschaffen, ordnen und ersetzen (Vgl. McCorduck 1979:230).[50] Die sequentielle Anwendung logischer Operationen auf Symbolgruppen generiert neue Information, die allein durch beliebige Einheiten, die sogenannten symbol tokens, nicht realisierbar wäre.[51] Durch innere wie äußere Systemzustände modifizierbare Symbole werden durch ihre Assoziationen als zweistellige Relationen aufgefasst, die wiederum in größeren listenartigen Strukturen z.B. Alphabeten zusammengestellt sind.[52]

Auffällig ist hier die Nähe zu schematischen Suchbäumen als bloßer Sonderform jener „elegant strukturierten symbolischen Kunstgebilde, die... das Menschliche an uns ausmachen“ sollen (Feigenbaum/McCorduck 1984:73) und in heuristischen Programmen zum Zuge kommen. Bedeutung ist keine inhärente Eigenschaft physikalisch fassbarer Zeichen: Die syntaktische Ebene der regelgerechten Verknüpfung sprachlicher Einheiten ist unabhängig von ihrer materialen Basis denkbar. Gleiches gilt für die Differenz von formalen Abläufen und ihrer jeweiligen semantischen, bedeutungshaften Auslegung. Denken ist allein deshalb zuschreibbar, weil die „physikalisch realisierten Symbolketten eine semantische Interpretation erfahren.“[53] (Leidlmair 1991:30) Wie genau arbiträre Zeichenvorkommnisse Bedeutung erlangen können, wird stillschweigend als schon beantwortete Frage hingenommen. Die zuschreibende Instanz ist der Beobachter des Computersystems selbst, was den Gedanken einer bloß „geborgten Semantik“ (ebd.,29) aufkommen lässt. Sinnhafte Unterscheidungen wurden als Code einprogrammiert und spiegeln syntaktische Strukturen wieder. Dies impliziert, das die PSSH ein mehr-Ebenen-Modell der wissenschaftlichen Erklärung verwendet.[54]

Sprünge zwischen Hierarchien als technische Genesis eines sich beständig iterierenden Selbstes spielen nicht nur in emergenztheoretischen Ansätzen eine gewichtige Rolle.[55] Die unterschiedliche materiale Darstellbarkeit liefert funktionalistischen Systemen ihr zentrales Grunddogma: Informatische ´Software´, die auf physikalischer ´Hardware´ läuft, kann überspielt, vervielfältigt und konserviert werden.[56] udem verliert, bedingt durch diese Annahme, ein vielzitierter Einwand seine Durchschlagskraft. Die Behauptung, das Gehirn sei keine von-Neumann-Maschine, greift als Kritik nur eingeschränkt. Die PSSH lässt offen, wie das Gehirn Symbole speichert, organisiert und mit ihnen arbeitet, sie thematisiert unbeobachtbare Entitäten.[57] Vgl.

Simon/Newell 1994:116) Sie operiert mit hypothetischen, noch auszufüllenden Unbekannten (´unknowns´, vgl. Copeland 1998:194) und erscheint als schematische Theorie, deren Erklärungslücken und Inexaktheiten noch bereinigt bzw- erhärtet werden müssen.[58] Da sich die Theorie symbolischer Informationsverarbeitung abzusichern gedenkt über zukünftige Entwicklungen in Neurologie bzw. Hirnphysiologie, ordnet sie sich umstandslos in ein Progressionsmodell wissenschaftlichen Fortschritts ein und immunisiert sich so gegen mögliche Kritik. Sie ist in einem strengen Sinne nicht falsifizierbar, ihr eigenartiger Metastatus platziert sie jenseits „of either refutation or confirmation by empirical means.“[59] (Copeland 1998:195) Die Theorie beansprucht keineswegs, sämtliche prozessualen Aktivitäten modellieren zu können, behauptet jedoch eine durchgängige Mathematisierbarkeit der Hirnvorgänge. (Vgl. Hofstadter 1985:596)

Denken als algorithmisch beschreibbare Symboltransformation beruht auf einer hierarchischen Wechselwirkung verschiedener Symbolstufen, so dass es als eine „Beschreibung hoher Stufe eines Systems verstanden werden kann, das auf einer tieferen Stufe von ... formalen Regeln beherrscht wird.“[60] (ebd.) Wie vollzieht sich im Hirn des homo cogitans (Newell/Simon) der Sprung von symbolischer Syntax zur Semantik?[61] Symbolstrukturen, die als Repräsentationen von etwas gedacht werden, scheinen die Ehre der Abbilder wiederherzustellen. Ursprüngliche Bedeutung wird vor dem Hintergrund einer Stellvertretung gedacht. Ein mentaler Zustand entspricht einem Objekt der Wahrnehmung.

2.2.3 Symbol: Repräsentation

Repräsentationen als symbolische Rekonstruktionen sollen in formalisierten, algorithmischen Ausdrücken die Kontextualität des Weltbezuges gewährleisten. Denken als durch logische Entitäten evozierte, mentale Repräsentation aufzufassen ist gleichbedeutend nicht nur mit der reduktionistischen Annahme eines isomorphen Welt bestandes.[62] Unerheblich für die symbolische Repräsentation ist die Weise ihrer materialen Realisierung (Vgl. Siekmann 1992:83). Computergestützte Modellierungen gelten demzufolge als zulässige analoge Spiegelungen hirninterner Vorgänge: „Die kombinatorische Struktur einer Repräsentation (ist) ein Ebenbild der strukturellen Beziehungen zwischen den physikalischen Eigenschaften des Gehirns. ... Die Beziehung ´ist Teil von´ zwischen einem... einfachen und einem komplexen Symbol (korrespondiert) mit physikalischen Beziehungen zwischen den Gehirnzuständen.“ (Fodor/Pylyshyn zit. nach Lenz 1995:169)[63]

Die computationale Theorie des Geistes begreift die intentionale Beziehung zu etwas als internes Verhältnis eines Systems zu rein syntaktisch strukturierten Symbolkonfigurationen: „...Mental processes have access only to formal (nonsemantic) properties of the mental representations over which they are defined. ... (They) can be viewed as relations to representations and all such processes as operations defined on representations.” (Fodor 1988:308) Zeichen oder Symbole gewinnen ihren Realitätsbezug über symbolische Bedeutung in begrifflich-propositionaler Form. Die kombinatorische Struktur derartiger Repräsentationen wird durch Syntaxregeln modelliert, wobei der Inhalt mentaler Repräsentationen beim Menschen unbelichtet bleibt. Nötig scheint eine “semantic theory for mental representations: a theory of how mental representations represent.” (Fodor 1981:31)

Aufgrund des linguistischen Charakters symbolischer Repräsentationen und der Annahme einer syntaxgetriebenen Bewusstseinsmaschine (Fodor), der, wie gezeigt werden konnte, die Sinnhaftigkeit des Weltbezuges verborgen zu bleiben scheint, wird als Verlegenheitslösung die biologistische Annahme einer sprachähnlichen language of thought inszeniert, die als eine Art atomarer, psychophysischer brain code (Copeland) keiner gesprochenen Sprache entspricht.[64] Wörter sind dem Gehirn nicht gleichsam eingeschrieben, vielmehr sind sie als ´einfache´ „sentence-like strings of symbols“ physikalisch realisiert, wobei über das Wie nur spekuliert werden könne.[65] (Copeland 1998:196)

Die Übersetzung von syntaktisch prozessierten Hirnvorgängen auf die Ebene menschlicher Erfahrung wird über den Umweg unbewusster formaler Strukturen vorgenommen, durch die das System Mensch immer schon hindurchschaut. Die Mittel der Darstellung gelten als subphänomenal, ebenso die Formalität der Repräsentationen.[66] (Vgl.ebd.) Nicht plausibel ist jedoch die Annahme einer „formale(n) Struktur des Bewusstseins“ (Pöppel 1992:96), die zugunsten des Inhaltes intentionaler Vollzüge nicht einmal \textit{potentiell} bewusst werden können. Man mag dies als „semantische Transparenz“ (Metzinger 1994:50) bezeichnen, jedoch mündet diese Verklärung der Erfahrung in in eine totale Modellage von Selbst und Welt.[67] Auch wird nicht deutlich, wie „die jeweiligen Repräsentanda ... teilweise als Elemente der aktuellen Systemumwelt gegeben“ sein können. (ebd.,45; Herv. von mir) In diesem Falle wären sie zumindest in potentio erfahrbar und ihre unterstellte Formalität phänomenologisch zugänglich.

Diese Problematik bleibt in anderem Kontext unter wenig geänderten Vorzeichen erhalten: Das erlebte Denken soll als formal determinierte und wohlberechnete Prozedur durch Beispiele menschlicher Erfahrung erklärt werden um den Nachweis der möglichen Konstruktion semantischer Maschinen zu erbringen. Die folgenden Analysen zur Prozeduralität des Denkens beziehen einerseits ein, wie gedacht wird (heuristische Suche) und andererseits, auf was dieses Denken inhaltlich bezogen ist (Wissen).

[...]


[1] Den einzelnen Kapiteln der Arbeit wurden teilweise eigene, kurze Einleitungen vorangestellt, um diese einführenden Sätze hinsichtlich ihrer Länge begrenzt zu halten. Zudem erlaubt dieses Vorgehen, inhaltsnah auf zentrale Denkfiguren hinzuweisen, die für das Verständnis der jeweiligen Kapitel bedeutsam sind und auf diese Weise nicht zu schnell in Vergessenheit geraten. Mag es im Titel der Arbeit auch teilweise kryptisch angeklungen sein: Die Forschungsvorhaben zum künstlichen Leben (artificial life; kurz: AL) decken sich zu großen Teilen mit Ansätzen des Konnektionismus. Aus diesem Grunde wird dieser seit kurzem wieder intensiv diskutierte Forschungszweig nicht eigens thematisiert. Die Studie von Mainzer (1995) zeigt auf, inwiefern die AL-Forschung zunächst Vorläuferin des Konnektionismus war und welche Merkmale sie gesondert auszeichen.

[2] Vgl. zur Differenzierung der Begriffe die Studie von Meyer-Drawe 1996.

[3] Gäbe es sie nicht, wäre das von Klawitter mitherausgegebene Buch nie entstanden.

[4] Eine solche Parallelisierung findet sich, stellvertretend für viele andere, in Brooks 2001: „Dabei wird Intelligenz durch die Begriffe Denken und Vernunft definiert.“ (ebd.,15) Damit ist nicht gesagt, dass alle KI-Forscher gleichartig verfahren. Operationale Fassungen des Intelligenz-Begriffes finden sich in einschlägigen Schriften zuhauf. Für unser Anliegen genügt es, wenn wir die meist nicht vorhandenen Abgrenzungen der Begriffe mitmachen.

[5] Vgl. ebd., 129ff.

[6] Vgl. ebd., 129ff.

[7] Zu solchen Versuchen können bedenkenlos die Schriften von Hans Moravec gezählt werden, allen voran die Monografie Mind Children (1990), in denen die Idee einer vollständigen, technologischen Verfügung bzw. Indienstnahme eines reinen Denkens als Heilsversprechen indoktriniert wird.

[8] Vgl. Capurro 1978:257.

[9] Gemeint ist damit die Angewohnheit, über eine bestimmte Kennzeichnung von Hauptschleifen oder Subroutinen, z.B. "‘Understanding"’, Leistungsmerkmale der Software suggestiv nahezulegen. In den Beispielkatalog ebenfalls aufzunehmen wären wenig bescheidene Programmtitel wie etwa "‘GPS"’ (General Problem Solver). Vgl. McDermott 1988:144f.

[10] Damit soll die Arbeit von Dreyfus in keiner Weise zerredet oder in ihrer Bedeutung als differenzierte Kritik und historische Verortung der KI marginalisiert werden. Teilweise beziehen sich unsere eigenen Ausführungen auf seine phänomenologisch orientierten Analysen. An dieser Stelle kann nur angedeutet werden, dass vor allen Dingen seine Gegenentwürfe neueren Datums den Befürwortern der KI in bemerkenswerter Weise zuarbeiten oder doch zumindest berechtigten Anlass zu einer kritischen Reflexion seiner Argumente liefern. Wir kommen darauf zurück.

[11] Gemeint ist Joseph Weizenbaum, dessen Schrift „Die Macht der Computer und die Ohnmacht der Vernunft“ (1978) gegen den durch die Forschungen zur künstlichen Intelligenz mitgetragenen „Imperialismus der instrumentellen Vernunft“ (ebd.,337) argumentiert. Dreyfus kann zeigen, dass Weizenbaum selbst einer Vorstellung von Vernunft anhängt, die nicht-explizierbare Momente im Denken ausblendet. Vgl. Dreyfus 1989:331.

[12] Vgl. McCorduck 1979:323.

[13] Dies ist nicht als ein Bruch zu verstehen, der eine alte Denkform zugunsten einer neuen, effizienteren verabschiedet. Konnektionistische Modelle koexistieren neben symbolischen Ansätzen, geraten aber zusehends in eine diskursbestimmendePosition.

[14] Vgl. Meyer-Drawe 1993.

[15] Vgl. dazu auch Becker 1992:29 sowie Lossau 1991:27. Konnektionistische Ansätze lehnen die Computeranalogie ab und bedienen sich eher einer Neurometaphorik. Vorbild ist nunmehr die computationale Architektur des Gehirns und nicht die von-Neumann-Maschine mit adressierbaren Speichereinheiten, einem zentralen Prozessor, Ein- und Ausgabegeräten sowie einem seriellen Bus-System zur Datenleitung. Vgl. hierzu Kapitel 2.3. Der Informationsbegriff feiert nicht nur in den Computerwissenschaften Rezeptionserfolge: In der Genetik gilt die Anordnung der Basenpaare der DNA bzw. das Gen selbst als „Informationspaket“. Überhaupt kann „Information“ als eine universelle Formel abgesehen werden, deren Nutzung elektronische, physikalische und biologische Phänomene unter dem Siegel der Gleichartigkeit beschreibt. Die Rede von „Materie“ ist in diesem Kontext verworfen. Vgl. Williams 1996:52f.

[16] Capurro weist nach, dass Information in etymologischer Hinsicht mit voraussetzungsreichen Begriffen wie typos, morphe und eidos verwandt ist und damit in einen platonisch-aristotelischen Kontext eingelassen ist. Vgl. ebd. 1978:245f.

[17] Das Problem der Kapazität von Kommunikationskanälen im Hinblick auf rausch- bzw. störungsfreie Datenübertragung stellt sich allererst vor dem Hintergrund einer ständig expandierenden Nachrichtentechnik. Vgl. Michels 1991:27

[18] Wie diese reduzierte Fassung des Informationsbegriffs noch „...Parallelen zum Alltagsbegriff der Information“ aufweisen soll, ist fraglich. Vgl. ebd., 29

[19] Diese Argumentation machen sich konstruktivistische Ansätze zunutze: Kann Bedeutung dergestalt nicht übertragen werden, muss das System sie selbst erzeugen.

[20] Beide Ansätze der KI gehen vom Begriff des Systems aus. Die insbesondere auf Wiener und Bertalanffy zurückgehende Systemtheorie beschäftigt sich mit der Erfoschung der dynamischen Beziehungen zwischen den Elementen eines Systems, zwischen Elementen und Gesamtsystem sowie zwischen Strukturen und Funktionen der Elemente. (Vgl. Pospeschill 2004:48) Bleibt hinzuzufügen, dass die Ansätze einer semantischen Informationstheorie von Dretske (vgl. ebd.) und Bar-Hillel (vgl. Kaltenborn 2001:25) überaus problematisch sind. Ähnlich dem symbolistischen Paradigma wird nicht deutlich, wie die Erfahrung von Bedeutungen aus rein syntaktisch-formalen Prozessen hervorgeht.

[21] Die Bedingungen, unter denen ein System als informationsverarbeitend qualifiziert wird, erhärtet diese Annahme: Das Vorhandensein sensorischer Eingangskanäle, berechnender wie transformierender Prozeduren als auch (motorischer) Ausgangskanäle ist nicht allein ein Vorzug humanoider Systeme. (Vgl. Pospeschill 2004:49.) Ähnlich argumentiert einer der Mitbegründer der symbolischen KI, Herbert Simon. Ausdrücklich setzt er Denken und Rechnen gleich. (Vgl. Simon in McCorduck 1979:127.) Ein aufgrund seiner Extension provokanter und vieldeutiger, in der gängigen Literatur aber selten genutzter Begriff ist der der ´Datenverarbeitung.´ Vgl. Searle 1994:260ff.

[22] Shannon/Weaver differenzieren nicht zwischen Signal, Zeichenund Information. Der Symbolbegriff spielt in ihrer Theorie keine Rolle. Vgl. Pospeschill 2004:48.

[23] Differenzen sollen nicht unterschlagen werden: Ansätze der klassischen KI begreifen den Vorgang der Informationsverarbeitung als Erzeugung/Umstrukturierung von Symbolen, während in konnektionistischen Theorien dieser eher die Transformation von Mustern elementarer Zustände bezeichnet. Vgl. Pospeschill 2004:48.

[24] Vgl. Kap. 3.2.2 dieser Arbeit. Aussagen, die ein empirisches Vorgehen für die KI einzuklagen versuchen, unterliegen starker Kritik, da "‘... empirische Subjektivität bzw. reale Menschen ... im empirischen Verfahren der Computersimulation gänzlich ausgeschlossen (sind). ... Die Computersimulation kann, im Gegensatz zum Experiment, keinesfalls als ein empirisches Verfahren der Psychologie bezeichnet werden, da keinerlei empirische Wirklichkeit in das Prüfverfahren mit eingeht."’ (Michels 1991:124)

[25] Eine eingehende Diskussion dieses Themas erfolgt im nächsten Kapitel.

[26] Selbst H. L. Dreyfus, seinerseits renommierter Kritiker des KI-Programmes, neigt dazu, Beschreibungsebenen zu vertauschen: Denken als Spielart einer Registratur von Daten zu begreifen ist innerhalb seines phänomenologischen Zuganges wenig plausibel (Vgl. Dreyfus 1989:112). In einer späteren Schrift, in der seine einst überaus kritische Position an Argumentationskraft eingebüßt hat, wird Informationsverarbeitung als Teilfunktion des Hirns propagiert, die dem holistischen Erkennen von etwas stets vorausgeht und allein auf neue Erfahrungen eingeschränkt ist, die von jemandem ("‘Sie"’) gemacht werden (Vgl. Dreyfus, Dreyfus 1987:44).

[27] Strukturelle Unterschiede zwischen Computer- und Hirnarchitektur aufzudecken ist ein empirisches Unterfangen. Dessen Lösung soll an dieser Stelle nicht vorweggenommen werden.

[28] Die Prognose stammt von G. Günther. (Vgl. Capurro 1978:257) Kognitionswissenschaftler reformulieren den erkenntnistheoretischen Dualismus als Geist-Gehirn-Problem.

[29] Diese Vermutung wird in Anlehnung an John Searle auch von R. Penrose geteilt. Vgl. ebd. 2002:19

[30] Wenig verwunderlich ist, dass zahlreiche Informatiker der KI zugleich eine psychologische Ausbildung absolviert haben. Zu ihnen zählen auch Allan Newell und Herbert Simon, beide entschiedene Vertreter des symbolistischen Ansatzes.

[31] In Diskursen der Neurologie ist die Rede von Algorithmen als Kennzeichnung bestimmter Hirnfunktionen bzw. Bereichen neuronaler Architektur. Die Situierung bzw. Modularisierung von Hirnvorgängen ist für unsere Arbeit jedoch von geringer Bedeutung. Vgl. dazu ausführlich Pöppel, 1992:97.

[32] Die Entwicklung unterschiedlichster Algorithmen entspricht der Vielfältigkeit der zu lösenden Problemstellungen bzw.Problemklassen. Als Beispiele seien etwa Teilbarkeitskriterien, Siebverfahren zur Primzahlsuche und auch Methoden zum Auflösen von Gleichungen angeführt. Vgl. Vollmer 1990:146; Penrose 2002:28.

[33] Dieser Verdienst kommt nicht allein Allan Turing zu. Der Entwurf seiner Turing-Maschine beweisst zwar, dass das Hilbertsche Entscheidungsproblem, ob ein allgemeines mechanisches Verfahren zur Lösung aller mathematischer Fragen existiert, nicht lösbar ist. Der österreichische Logiker Kurt Gödel bewies jedoch einige Jahre vor Turing (1931) einen Satz, demzufolge Axiomensysteme Aussagen einschließen, die mit systeminternen Mitteln weder beweis- noch widerlegbar sind. Die Gültigkeit von Algorithmen ist mit externen Mittel zu beweisen. Vgl. exemplarisch Penrose 2002:44f.,99.

[34] Sehr genaue Darstellungen finden sich sowohl in Penrose 2002 als auch in Mainzer 1995.

[35] Vgl. Anmerkung 33.

[36] Beispiele anderer Problemstellungen, die universale Turingmaschinen (Computer) nicht lösen werden, gibt Vollmer 1990:159.

[37] Die Gleichwertigkeit von Algorithmen und Turingmaschinen wird in der Church-Turing-These festgehalten. Diese lässt sich zwar nicht streng beweisen, jedoch ließ sich bis dato jeder Algorithmus in Form einer Turingmaschine darstellen. Vgl. Vollmer 1990:153. Turing skizziert die technische Umsetzung eines Digitalrechners im Rahmen seines klassisch zu nennenden Aufsatzes "‘Computing Machinery and Intelligence"’. Vgl. Turing 1994:44ff.

[38] Die Themen Endlichkeit und Unendlichkeit im Kontext einer idealen Maschine, die ihre Rolle als Stadthalter des Geistes so vorzüglich spielt, scheint ein reizvolles theologisches Thema zu sein. Im übrigen nimmt schon Turing den prognostischen Habitus zahlreicher KI-Forscher vorweg, der sich immer wieder in kühnen Zukunftsvisionen äußert. Dies dient nicht allein der finanziellen Absicherung von Forschungsprogrammen: Dreyfus weist an verschiedenen Stellen auf die übertrieben optimistische Haltung von KI-Futuristen hin. Vgl. Dreyfus 1989.

[39] Dennett greift zur Metapher der "‘introspective trap"’, um reflexive Einstellungen gänzlich zu disqualifizieren. Vgl. Dennett 1969:132.

[40] Vor ein ähnliches Dilemma sah sich schon Rene Descartes gestellt. In seinen Meditiationen heisst es: "‘Doch da sehe ich zufällig vom Fenster aus Menschen auf der Straße vorübergehen, von denen ich ebenfalls, genau wie vom Wachse, gewohnt bin zu sagen: ich sehe sie, und doch sehe ich nichts als die Hüte und Kleider, unter denen sich ja Automaten verbergen könnten!"’ (Descartes 1993:28) Die Zuschreibung von Denkfähigkeit im turingschen Sinne ist nicht explizit wie der cartesische Zweifel an den rationalen Einsatz der Urteilskraft gebunden.

[41] Wir werden später darauf eingehender zu sprechen kommen.

[42] Übersichten zum Chinesischen Zimmer geben Searle 1994:234ff., Leidlmair,1991:181f. und, in überaus kritischer Lesart, Penrose 2002:17f. Der Versuchs des Imitationsspiels ist nachzulesen in Turing 1994:39ff.

[43] Wenige Zeilen zuvor wird dem Gehirn unumwunden zugestanden, funktional einem Digitalrechner zu entsprechen, zumal "‘ausschließlicheiner Maschine zu denken möglich"’ sei. Inwiefern dies eventuell die Schlüssigkeit der Kritik untergräbt, kann an dieser Stelle nicht ausgeführt werden. Vgl. Searle 1994:263f. Dramaturgisch geschickt inszeniert und in der Literatur wenig beachtet ist die thematische Einführung einer homunkulären Ich-Doppelung: Das die für weite Teile der KI geltende Annahme einer interpretierenden Instanz, die dem Subjekt vorarbeitend Datenan die Hand gibt, von Searle geschickt eingeführt wird, lässt sich unschwer anhand des Spielprotokolls rekonstruieren.

[44] "‘Im Falle von Searle ist es die Lade, die den im Zimmer Eingeschlossenen mit der Außenwelt verbindet, im Falle von Turing erfüllt diese Funktion der Fernschreiber, der den Befrager von der Innenwelt der Maschine fernhält. Vertauscht sind in beiden Spielen nur die Rollen."’ (Leidlmair 1991:184)

[45] Die Attribuierung algorithmischer Eigenschaften ist jedoch wenig einheitlich, wie sich zeigen wird. Vgl. in distanzierter Anlehnung an die starke KI Penrose 2002:16. Duplikate des Selbst scheinen allein an den kapazitären Grenzen der Hardware gescheitert zu sein.

[46] Euphorische Behauptungen, man könne den induktiven Algorithmus ähnlich einem vierblättrigen Kleeblatt einfach entdecken, gehören zu den seltenen Fundstücken. Vgl. Boden 1992:230.

[47] Die symbolische Theorie begleitete die Entstehung der Computer in den vierziger Jahren des zwanzigsten Jahrhunderts und ist in vielen Bereichen auch der anwendungsorientierten weichen KI nach wie vor gültig. Vgl. Becker 1992:11 und 162.

[48] Nur am Rande sei auf Differenzierungen hingewiesen, die auf die Behauptung zweier unterschiedlich starker Hypothesen abzielen. Die physikalische Variante der Symbol-System-Hypothese wird als eine Konzeption neben anderen anerkannt. Zu diesen näherhin der S(trong)SSH zugeordneten Theorien zählt die language of thought des G. Fodor. Vgl. Copeland 1998:80ff. und 273 Anm. 1 sowie das nächste Kapitel.

[49] Vgl. Newell 1987:113 bzw. Dreyfus/Dreyfus 1985:82. Dieses zumeist als bedrohlich empfundene Szenario Bedrohung wird üblicher Weise mit dem Hinweis auf die bloße Künstlichkeit computationaler Intelligenz abgewendet. Dabei wird unterstellt, dass das menschliche Denkvermögen ursprünglich, einzig und wesentlich ungeschaffen ist.

[50] Die Existenz Daten- und Regelrepräsentierender Symbole wie auch der Hinweis, es müsse „Metaregeln geben, um die ´ganz einfachen´ zu modifizieren, dann `Metametaregeln´, um die Metaregeln zu modifizieren"“(Hofstadter 1985:29) kündigen einen infiniten Regress an. Offen bleibt, was die Regel regelt.

[51] Newell betont, das token Teile oder Regionen einer Struktur bzw. eines Ausdrucks bezeichnen: „Number, letter, and operation-mark tokens are part of an equation. And so on.” (Newell 1987:72) Ähnlich argumentiert Copeland: “All computing depends on the fact that two basic symbols can be combined to form compound symbols, just as letters of the alphabet are combined to form words and sentences.” (Copeland 1998:60; kurs. von mir)

[52] Komplexe Situationen fordern demzufolge die Nutzung langer, verschachtelter Ausdrücke bzw. Listen. Dies ist einer der beliebten wie unsinnigen Gründe, der zur Rechtfertigung des symbolischen Ansatzes herangezogen wird. Hofstadter bemerkt, dass Betrachter eines postimpressionistischen Bildes nicht gleich die darin eingelassene stilisierte Person erkennen und wertet dies als Hinweis auf Symbolverarbeitung. Dreyfus gesteht, wenn auch reichlich spekulativ, dieser Erklärung zu, plausibel zu sein: Das Unerwartete, unvertraute verlange vom Gehirn entweder, "`unterschiedliche Aspektmengen auf ihre Signifikanz (zu) testen"', bevor es zu angemessenen Assoziationen kommen könne oder es operiere tatsächlich über längere Zeiträume mittels Symbolmanipulation. Vgl. Dreyfus/Dreyfus 1985:134f.

[53] Newell weist darauf hin, dass die Attribuierung „physisch“ nur die Herkunft der Theorie aus der KI näher kennzeichnet. Vermutlich ist dies eine Reaktion auf neurologisch orientierte Einwürfe, die das symbolistische Vokabular in biophysikalischen bzw. biologischen Zusammenhängen als unplausibel ansehen. (Vgl. Newell 1987:76.) Hofstadters Hinweis, dass Neuronen keine Symbolfunktion übernehmen, zielt in eine ähnliche Richtung. Vgl. ebd. 1985:375.

[54] Krämer bemerkt sehr genau: "`Auf der ´oberen´, der semantischen Ebene, gelten die Symbole als interpretierbare Zeichen ... und die Operationen mit ihnen als regelhafte Aktionen wie addieren ... Auf der ´mittleren´, der syntaktischen Ebene, gelten die Symbole als bedeutungslose Elemente eines Kalküls, dessen Ausdrücke ... umgebildet werden. Auf der ´untersten´, der physikalischen Ebene, sind die Symbole elektrische Zustände, die den Gesetzmäßigkeiten integrierter Schaltkreise gehorchen."' (Krämer 1994:104) Wichtig ist der Hinweis, dass der Semantik-Begriff im Rahmen der KI einen gänzlich anderen Bedeutungsgehalt besitzt, als in linguistischen Diskursen und insofern die Nähe zur Syntax nicht etwa als denkerische Entgleisung einiger weniger KI-Apologeten gelten kann. Vgl. Lenz 1995:75.

[55] Siehe Kapitel 2.3.5.

[56] Jean-Francois Lyotard bemerkt vor dem Hintergrund dieser Differenz, dass die Schaffung von Hardware primäre Aufgabe der Experten aus Kernforschung, Elektronik und Informatik sei. Im Gegenzug bzw. als Mitspieler hätten sich die Forschungen zur künstlichen Intelligenz mit der Ausgestaltung der Software als neuzeitlicher res cogitans zu begnügen. Vgl. Lyotard 1989a:32f.

[57] “The SSSH leaves it entirely open how the brain stores its symbols and how it organizes its operations on them.” (Copeland 1998:194)

[58] Copeland 1998:195. Auf das Problem der vermeintlichen Empirizität kognitionspsychologischer Theoriebildung wurde an früherer Stelle hingewiesen.

[59] Vgl. Simon/Newell 1994:114. Dieses Verfahren ist als Beweislastumkehr bekannt.

[60] Aspekte einer Architektur symbolverarbeitender Systeme versammelt Newell 1987:83. Diese Darstellung vermeidet partikuläre Anordnungen eines computationalen Systems in Routinen und Subroutinen, dass sich aber in diesen Schematismus nahtlos einfügen lässt.

[61] Dieses für die gesamte KI zentrale Problem fasst Newell prägnant zusammen: “How does it ever happen that a symbol actually refers to or denotes or designates or stands for or is about something outside the system?” (Newell 1987:78; kursiv i. O.)

[62] Abbildtheorien wie auch jene des symbolistischen KI setzen immer noch eine eigensinnig strukturierte Realität voraus und stehen damit einem metaphysischen Realismus überaus nahe. Die Unterstellung eines notwendigen Korrespondenzverhältnisses zwischen Wissen und einer Wirlichkeit-an-sich wird aus den Reihen des radikalen Konstruktivismus zurecht kritisiert. Ob allerdings traditionelle Erkenntnistheorien durch einen ontischen Agnostizismus, der das Gehirn als kognitiven Begründungsort aller Realität feiert, ersetzbar sind, muss als Frage unbenantwortet bleiben. (Vgl. Glasersfeld 1987:217) Konstruktion als ein Begriff zweiter Ordung betrifft nie das was der Erfahrung. Darin ähnelt der Konstruktions- dem Repräsentationsbegriff. (Vgl. Waldenfels 1998:206 und die folgenden Seiten)

[63] Diese angenommene Art der Verarbeitung von immer schon in Bezügen angeordneten Welt-Daten gewährleiste die Unnötigkeit einer je vollständig neuen Konstruktion dessen, was einer informatischen Gabe entstammt. (Vgl. McCorduck 1979:89)

[64] Begründet wird die Annahme einer codierten (Maschinen-)Sprache mit dem Hinweis, dass trotz lingualer Defizite das Verhalten Neugeborener auf die Nutzung mentaler Repräsentationen hinweist. (Vgl. Copeland 1998:196)

[65] Damit erlebt die bei Linguisten überholte Frage nach einer Sprache des Geistes \textit{hinter} dem Vollzug des Sprechens eine Renaissance. Vgl. Schneider 2002

[66] Die Vereinnahmung wie Besetzung unbewusster leiblicher Geschehen als eines (Denk-)Bereiches, der nicht ohne weiteres zugänglich ist und damit als Fundgrube bzw. Sammelstelle KI-Theoretischer Mutmaßungen fungiert, wird später eingehend thematisiert.

[67] So betont Metzinger, dass „unser Gehirn die Tatsache, daß unser mentales Modell der Welt und des Selbst nur ein Modell ist, nicht innerhalb desselben noch einmal darstellt.“ (Vgl. ebd., 1994:50; kursiv i. O.) Dies führt mitunter zu absurden Vorstellungen wie der, dass das homunkuläre System Gehirn seinen zur Vollfunktion nötigen Piloten, das Ich, einfach abschaltet, wenn es für einen Zeitraum, z.B. die Periode des Schlafens, nicht mehr benötigt wird.

Ende der Leseprobe aus 92 Seiten

Details

Titel
KI/ AL und das Denken - Der in-formierte Leib
Hochschule
Ruhr-Universität Bochum  (Institut für Pädagogik)
Note
1,7
Autor
Jahr
2004
Seiten
92
Katalognummer
V39512
ISBN (eBook)
9783638382571
Dateigröße
650 KB
Sprache
Deutsch
Anmerkungen
Diese Arbeit versucht, in zwei Schritten die zentralen Merkmale der KI-Forschung, d.h. ihre zentralen Paradigmen kritisch vorzustellen, ihre Metaphorologie zu markieren, um in einem anschließenden Schritt mit Jean-Francois Lyotard dafür zu plädieren, dem Leib als Doppel von Subjekt und Objekt mehr Gewicht zu geben. Seine Philosophie ist weit entfernt von technizistischer Beliebigkeit, sie imaginiert aber auch kein körperliches Himmelreich. Themen: Vergessen, Gedächtnis, Denken, Behaviorismus
Schlagworte
Denken, Leib, Künstliche Inzelligenz, Informatik, Kognition, Leben, Wahrnehmung, Tod, Philosophie, Kognitionswissenschaft, Lernen, Subjekt, KI
Arbeit zitieren
Marcus Reiß (Autor), 2004, KI/ AL und das Denken - Der in-formierte Leib, München, GRIN Verlag, https://www.grin.com/document/39512

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: KI/ AL und das Denken - Der in-formierte Leib


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden