Thematische Entwicklung der Künstlichen Intelligenz


Diplomarbeit, 2002

59 Seiten, Note: 1.0


Leseprobe

Inhaltsverzeichnis

Teil 1 Ans$tze und Geschichte der KI
1. Einleitung
2. Der symbolischer Ansatz
3. Der konnektionistischer Ansatz
4. Die Geschichte des symbolischen Ansatzes
5. Die Geschichte des konnektionistischen Ansatzes
6. Zusammenfassung

Teil 2 Die Probleme der KI
7. Einleitung - Die Probleme der KI
8. Das Problem des Unterschieds zwischen Bedeutung und Zeichen
9. Das Problem der Au&enwelt
10. Das Problem der Subjektivit$t
11. Das Problem des Verstehens
12. Das Problem der Urelemente

Teil 3 Zusammenfassung und Ausblick
13. Zusammenfassung
14. Ausblick
Anlagenteil:
15. Versicherung
16. Literaturverzeichnis

1. Einleitung

Bereits zu den Zeiten der Entstehung des Computers in der Mitte des zwanzigsten Jahrhunderts, wurde erkannt, da& man mit diesen Ger$ten mehr machen kann, als nur Rechenaufgaben zu l'sen. So wurde der Computer im Laufe der Zeit zu einem vielseitigen Hilfsmittel f!r den Menschen. Mit der fortschreitenden Entwicklung der Hard- und Software stiegen auch die M'glichkeiten seiner Einsatzgebiete. Ebenfalls wurde seit den Anf$ngen der Entwicklung versucht die Computer mit Intelligenz, bzw. mit intelligenten Verhaltensweisen auszustatten. In der Informatik hei&t dieser Bereich )K!nstliche Intelligenz* (KI). Die vorliegende Diplomarbeit soll die thematische Entwicklung der KI betrachten. Da diese Entwicklung ihr Ziel noch nicht erreicht hat, soll der Schwerpunkt dieser Arbeit auf den Problemen die in dieser Entwicklung auftauchen, gelegt werden.

Die zwei verschiedenen Ans$tze der Informationsverarbeitung von Computer sind der symbolische- und der konnektionistische Ansatz. Da das Wissen !ber diese Ans$tze sowie deren Entwicklung an manchen Punkten in dieser Arbeit relevant sein werden, soll im folgenden die beiden Ans$tze und deren Entwicklungen erl$utert werden. Danach soll im zweiten Teil auf die Probleme im einzelnen eingegangen werden. Der dritte Teil fa&t die Resultate des zweiten Teils zusammen und endet mit einem Ausblick in die Zukunft der KI.

2. Der Symbolische Ansatz

Da beide Ans$tze im Computer auf eine untere Software-Ebene aufbauen, soll hier erst auf diese eingegangen werden:

Vereinfacht besteht der Softwarebereich eines Computers aus Programmen und Daten. Beide werden im Speicher oder in Speichermedien, die zur Hardware des Computers z$hlen, gespeichert. Dort besteht ein Computer aus )Schalter*, die 2 Zust$nde, 0 oder 1, einnehmen k'nnen. Diese einfache Einheit wird )Bit* genannt. Durch Zusammenf!gen mehrerer Zust$nde ergeben sich Zahlen, die so nur aus Nullen und Einsen bestehen. Diese werden Bin$r-Zahlen genannt. Da man mit einem Bin$rsystem alle anderen Zahlensysteme, wie das hexadezimale, oktale, nat!rliche etc. sie abbilden bzw. umrechnen kann, sind diese Bin$r-Zahlen auf der untersten Ebene, die Daten oder Informationen mit denen alle Befehle und damit alle Programme arbeiten. Doch nicht nur die Daten bestehen aus diesen Zahlen, sondern auch die Befehle selber: Bestimmte Bin$rzahlen werden bestimmten Maschinensprachebefehlen zugeordnet.

Durch Ansammlungen von solchen Werten, bzw. Befehlen, entstehen Befehlsketten, die dann, mit zus$tzlichen Daten, Programme genannt werden. Diese werden von der CPU (Central Processing Unit, der Hauptprozessor) des Computers, der f!r die Verarbeitung der Befehle zust$ndig ist, schrittweise hintereinander ausgef!hrt. Die Befehle sind gr'&tenteils Speichermanipulations-, Vergleichs- und Sprungbefehle. Sie werden beim Programmieren, damit die Programmierer nicht in Zahlen programmieren m!ssen, in lesbare W'rter codiert. Diese )Sprache* hei&t Assembler. Beim Ausf!hren der so geschriebenen Programme werden die eingegebenen Befehle wieder zur!ckcodiert in Bin$rzahlen, welche dann Maschinensprache genannt wird, damit die CPU sie verarbeiten kann, da dies somit dann die einzige erkennbare Form von Befehlen ist. Da Assembler sehr komplex und schwierig ist da sehr viele Befehle ben'tigt werden um einfache Dinge zu programmieren, programmiert man in Assembler wiederum andere Programmiersprachen, mit denen viel leichter zu programmieren ist. Dies ist z.B. dadurch erreichbar, wenn unter einem Befehl einer dieser )h'heren* Programmiersprache viele Assemblerbefehle ablaufen. So bauen alle anderen Programmiersprachen auf Assembler, in uncodierter Form Maschinensprache, auf. Wenn ein Programm in einer dieser )h'heren* Programmiersprachen wie )Pascal* oder )C* geschrieben wird, wird am Ende ein Proze& gestartet, der Compilierung hei&t. Dort wird, wie oben bei der Umwandlung von Assembler in Maschinensprache, jeder einzelne Befehl der Programmiersprache in Maschinensprache umgewandelt und man erh$lt ein Programm, das die CPU verarbeiten kann. Es bestehen also die Programme und die Daten auf der untersten Ebene aus zusammengesetzten Nullen und Einsen.

Der symbolische Ansatz, aus denen die bisherigen konventionellen Programme, wie beispielsweise Textverarbeitung, Tabellenkalkulation oder auch Betriebssysteme bestehen, verarbeitet oder manipuliert Informationen. Diese Informationen oder Daten sind, wie eben beschrieben, auf der untersten Informationsebene als Bin$rzahlen und auf oberen Ebenen als jegliche Art von Buchstaben, Zeichen oder Zahlen codiert. Nicht nur die Befehle der Programme, sondern auch bestimmte Formen von Eingaben: Z.B. besteht ein Wort innerhalb eines Dokumentes einer Textverarbeitung auf der untersten Informationsebene des Computers wiederum nur aus einer Bin$rzahl. W!rde ein Mensch so eine Bin$rzahl lesen, z.B. )0101001011010*, w!rde sie ihm nichts bedeuten, weil Bin$rzahlen als Transportmedium f!r Bedeutungen in der Sprache nicht benutzt werden. Der Unterschied zwischen Informationen der beiden Softwareebenen ist also die Art der Codierung. Das bedeutet f!r den Menschen, da& f!r ihn nur bestimmte Arten von Codierung oder Transportmedien wie Buchstaben oder Zeichen auch genannt werden, Bedeutung haben. Daraus folgt, da& die Bedeutung nicht an das Wort oder Medium fest gebunden ist. Das zwischen Bedeutung/Symbol und Transportmedium wie Zahlen, Buchstaben oder Zeichen also streng differenziert werden mu&, ergibt sich auch, wenn die M'glichkeit der +bersetzung in verschiedenen Sprachen betrachtet wird: )Baum* und )Tree* sind beispielsweise unterschiedliche W'rter, bedeuten dennoch dasselbe. Lenz und Meretz (1995, S. 66) differenzieren deswegen: )

Wir hatten gerade festgehalten, da& Begriffe Symbolbedeutungen sind. Und wir hatten geschrieben, da& Symbolbedeutungen von verschiedenen Zeichen getragen werden k'nnen. Das bedeutet aber, da& die Zeichengestalt der Begriffe wechseln kann. Begriff als Inhalt und Wort als Form m!ssen demnach scharf voneinander unterschieden werden.*

Den Unterschied zwischen Bedeutung und Zeichen wurde in der KI lange ignoriert und stellte ein gro&es Problem da, auf das sp$ter noch eingegangen werden soll. Im symbolischen Ansatz wird mit Informationen gearbeitet, die f!r den Menschen ab einer bestimmten Ebene eine bestimmte Bedeutung haben. Die Ebenen darunter sind nur f!r den Computer relevant, da in diesen Ebenen die eigentliche Informationsverarbeitung stattfindet.

Die Art und Weise wie Informationen von Programmen verarbeitet werden, ist vom Zweck des Programms abh$ngig. Ein Rechenprogramm arbeitet beispielsweise mit den Regeln der Mathematik. Eine Textverarbeitung verarbeitet ihre Daten anders als z.B. eine Tabellenkalkulation. Das Postulat der Anh$nger des symbolischen Ansatzes war nun, da& der Geist beim Menschen auf einer bestimmten Ebene auch mit einem Symbolsystem arbeitet:

,,Newell und Simon stellten die Hypothese auf, da& das menschliche

Gehirn und der digitale Computer trotz ihrer v'lligen Verschiedenheit in Struktur und Mechanismus auf einer bestimmten Abstraktionsebene eine gemeinsame funktionale Beschreibung haben. Auf dieser Ebene k'nnen sowohl das menschliche Gehirn, als auch der entsprechend programmierte digitale Computer als zwei verschiedene F$lle einer einzigen Maschine betrachtet werden einer Maschine, die durch die Verarbeitung von Symbolen mittels formaler Regeln intelligentes Verhalten erzeugt.* (Dreyfus und Dreyfus, 1989, S. 2)

Der Mensch verarbeitet nach dieser These die Elemente oder Symbole mit bestimmten Regeln und erzeugt dadurch intelligentes Verhalten. Die Anh$nger dieser These kamen zu dem Vergleich, da& auch das Denken nichts anderes als Rechnen sei; nur mit anderen Elementen und einer anderen Logik. Diese Annahme wurde in der Philosophie schon lange vor der Existenz von Rechnern gemacht:

,,...[Es] hatte au&erdem Hobbes implizit vermutet, da& diese Elemente formale Komponenten seien, die durch rein syntaktische Relationen verbunden sind, soda& sich Denken auf Rechnen zur!ckf!hren l$&t.

,,Wenn ein Mensch denkt, so tut er nichts anderes, als eine Gesamtsumme !ber den Teilsummen einzelner Posten zu bilden,* schrieb Hobbes, )denn DENKEN ... ist nichts als Rechnen...*6 * (Dreyfus und Dreyfus, ebd., S. 3) Etwas sp$ter als Hobbes war auch Leibniz dieser Auffassung. Bertrand Russell der sp$ter mit Whitehead das )Principia Mathematica* schreiben sollte, das )bis heute als Standardwerk der formalen Logik* (H!gli, 1991, Digitales Philosophielexikon, Stichwort: Russell, Bertrand Arthur William) gilt, )indem sie versuchten zu beweisen, da& alle Arithmetik eine Erweiterung der Grundprinzipien der Logik ist*1 (Palmer, 1994, S. 297) schreibt !ber ihn: )Trotzdem hegte er zeit seines Lebens die Hoffnung, eine Art allgemeiner Mathematik erfinden zu k'nnen, die er Charakteristica Universalis nannte und mit deren Hilfe Denken durch Rechnen ersetzt werden k'nnte.* (Russell, 1999, S. 600) Demnach w$re, wenn man das Denken wie Hobbes mit Rechnen gleichsetzt, das Denken Anwendungen der Logik. Die Theorie, die mit Hobbes und Leibniz ihren Anfang nahm, wird heutzutage *Computational Theory of Mind (CTM)* genannt.

Da man einem Rechner die Logik und die Elemente der Mathematik erfolgreich einprogrammieren konnte, hoffte man, da& dies auch mit dem menschlichen Denken m'glich sein m!&te. So wurde versucht die Regeln und Elemente zu finden und diese zu formalisieren, damit man sie auf einem Computer einsetzen konnte, um damit das gew!nschte k!nstliche intelligente Verhalten zu erzeugen.

3. Der konnektionistische Ansatz

,,Das Ziel des Konnektionismus ist, grob gesprochen, durch Analogie zur Struktur des (menschlichen) Gehirns die vermuteten Leistungen des Gehirns zu erreichen.* (Lenz und Meretz, ebd., S. 9) Beim konnektionistischen Ansatz wird nicht mit Symbolen oder Zeichen operiert, es wird statt dessen mit k!nstlichen Neuronalen Netzwerken gearbeitet. Die )Neuronale Netzwerke werden so genannt, weil sie der neuronalen Struktur des Gehirns nachgebildet sind: Beide bestehen aus zahlreichen hochgradig vernetzten Neuronen.*

(Stanley/Bak, 1991, S. 19) Man kann demnach die k!nstlichen Neuronalen Netzwerke als Abstraktionen der Grundprinzipien von Informationsverarbeitungsprozessen biologischer Netze auffassen. Ein Neuron ist ein bestimmter Zelltyp, der sich durch besondere Erregbarkeit und Leitf$higkeit auszeichnet. Im Gehirn sind ungef$hr 50 Milliarden Nervenzellen, die untereinander mehrfach miteinander verkn!pft sind und so Informationen, und nicht Energie, wie man noch bis 1943 dachte, untereinander austauschen und verarbeiten. Deshalb sind )Neuronale Netzwerke (...) informationsverarbeitende Systeme, die aus einer gro&en Zahl einfacher Schalteinheiten zusammengesetzt sind.* (Spitzer, 2000, S. 19) Die Lokalit$t und Art des Speicherns der Informationen geschieht jedoch anders als bei Programmen des symbolverarbeitenden Ansatzes: Wissen wird bei den Neuronalen Netzwerken nicht durch Symbole oder Codes repr$sentiert, sondern durch Netzwerkverkn!pfungen. Deswegen )geht man bei konnektionistischen Modellen von einer >verteilten< Repr$sentation von Wissen aus. Die Vorstellungen dar!ber differieren jedoch. Bisherige begriffliche Fassungen gehen einerseits von einer am biologischen Vorbild orientierten r$umlichen oder neuronalen Verbreitung (>spreadout-ness<) und andererseits von einer Vervollst$ndigung funktionaler >equipotentiality< (gleichgewichtiger Teile) aus..." (Lenz und Meretz, ebd., S. 175) Die differenzierten Vorstellungen betreffen die k!nstlichen Neuronalen Netzwerke sowie die biologischen, wo weder die einzelne Zelle, noch das Verhalten bisher komplett verstanden werden. Die Komplexit$t geht z.B. so weit, da& im Kern jeder Zelle des menschlichen K'rpers eine Informationsmenge gespeichert ist, die etwa der auf einer CD gespeicherten Menge an Informationen entspricht. Aufgrund dieser gewaltigen Datenmenge mu& die Verarbeitung sehr schnell geschehen und wird durch massive Parallelverarbeitung der Informationen erreicht. So k'nnen die Neuronenverbunde auf eine andere Art und Weise Informationen verarbeiten, n$mlich parallel, wie ein symbolisches Computerprogramm, das nur seriell arbeitet, d.h. Schritt f!r Schritt seine Instruktionen ausf!hrt, es nicht kann.

Die k!nstlichen Neuronalen Netzwerke basieren darauf, da& die Neuronen und deren Verhalten simuliert werden; nicht auf der biologischen Ebene sondern auf der Informationsebene:

,,Abstrahiert man von biologischen Gegebenheiten wie Form, mikroskopischer Struktur, Zellphysiologie und Neurochemie, so l$&t sich ein Neuron als Informationsverarbeitungselement verstehen. In dieser informationstheoretischen Hinsicht besteht die Funktion eines Neurons in der Bildung von mathematischen Produkten (Input mal Synapsengewicht), der Summation dieser Produkte und dem Vergleich der Summe mit einem Schwellenwert. (Spitzer, ebd., S. 38)

Durch Bildung eines Netzwerkes das aus solchen Neuronen besteht, kann man es als )Abbildungssystem auffassen, dessen Eing$nge und Ausg$nge vorgegeben werden und dessen Aufgabe darin besteht, den Zusammenhang zwischen Eingang und Ausgang herauszufinden. Das Netz gewinnt dadurch Eigenschaften eines Detektionssystems.* (Ewert, 1998, S. 247) Dadurch gewinnt es im Vergleich zu seriellen Programmen eine gr'&ere Flexibilit$t: Neuronale Netze k'nnen dort eingesetzt werden wo die Eingabeparameter und die zugeordneten Ausgabewerte nicht explizit vollst$ndig definierbar sind. Da das Ziel noch nicht vorliegt, mu& ein Neuronales Netzwerk vor der Arbeitsphase f!r die Aufgabe antrainiert werden. In dieser Phase wird das Netz mit vorab aufgenommenen Beispieldaten konfrontiert, welche dann das gew!nschte Verhalten beschreiben. Die Lernphase ist abgeschlossen, wenn das erw!nschte Verhalten erreicht wird.

Die Art der Verarbeitung weist jedem Ansatz seinem Anwendungsbereich zu.

Bilderkennung kann z.B. von konnektionistischen Programmen mit sehr guten Ergebnissen realisiert werden. Auch )in der Astronomie helfen neuronale Netzwerke, galaktische Sternennebel nach ihrer Form zu klassifizieren. Die Flut der t$glichen gewonnenen Bilder erfordert eine zuverl$ssige und rasche Einordnung all der Haufen, Spiralen und Wolken.* (Spitzer, ebd., S. 7) Desweiteren interpretieren sie )beispielsweise EEGs, Schlaf-EEGs, R'ntgenthoraxbilder, mikroskopische Bilder von Abstrichen im Bereich der Frauenheilkunde bzw. von Gewebeproben oder klinische Befunde bzw. R'ntgenbilder bei Krebspatienten. Selbst im Bereich der Psychiatrie werden neuronale Netzwerke bereits eingesetzt, um !ber die station$re Aufnahme, die Diagnose oder die L$nge des Aufenthaltes zu entscheiden.* (Spitzer, ebd., S. 8) Serielle Programme des symbolischen Ansatzes dagegen k'nnen solche Aufgaben, wenn !berhaupt, nur sehr begrenzt und mit extrem mehr Rechenaufwand bew$ltigen. Neben solchen verschiedenen Praxisanwendungen wird versucht, mit dem konnektionistischen Ansatz geistige Funktionen des Menschen zu simulieren. Seit den achtziger Jahre werden k!nstliche Netzwerke auch benutzt um, erforschte Prinzipien der Neurobiologie zu verifizieren. Ein aktuelles Neurobiologisches Lehrbuch: )Modelle von Neuronennetzwerken simulieren neurobiologisch erforschte Prinzipien von Informationsverarbeitungsprozessen. Sie treffen Voraussagen, die im Experiment pr!fbar das Modell der Realit$t n$her bringen. Ihre Aufgabe besteht darin, Hirnfunktionen zu verstehen und Verarbeitungsprinzipien zum Beispiel technologisch zu nutzen.* (Ewert, ebd., S. 247)

4. Die Geschichte des symbolischen Ansatzes

Die beiden Ans$tze haben also unterschiedliche Grundlagen, haben aber das gleiche Ziel: K!nstliche Intelligenz erschaffen.

Bevor im folgenden die Geschichte der beiden Ans$tze kurz umrissen werden soll, um danach intensiver auf die Probleme und deren Hintergr!nde einzugehen, soll kurz zur Definition auf den Begriff Intelligenz, sowie das Ziel in der KI-Forschung eingegangen werden.

Bis heute gibt es in keiner Wissenschaftsrichtung eine klare Definition von Intelligenz. Im folgenden einige Beispiele von verschiedenen Definitionen:

,,- )Intelligenz ist )die allgemeine F$higkeit, das Denken bewu&t auf neue

Forderungen einzustellen, die allgemeine geistige Anpassungsf$higkeit an neue Aufgaben und Bedingungen des Lebens.* (Stern 1928)

-,,Intelligenz ist eine zusammengesetzte oder globale F$higkeit

zielgerichtet zu handeln, rational zu denken und sich wirkungsvoll mit seiner Umwelt auseinanderzusetzen.* (Wechsler 1944)

-,,Intelligenz ist die F$higkeit, )Beziehungen und Sinnzusammenh$nge zu erfassen, anzuwenden, zu deuten und herzustellen.* (Hofst$tter 1958)

-,,Intelligenz ist die F$higkeit, sich unter zweckm$&iger Verf!gung !ber

Denkmittel auf neue Forderungen einzustellen.* (Huber 1974)

Es gibt fast so viele Intelligenzdefinitionen wie es Forscher gibt, die sich mit dem Problem der Intelligenz befa&t haben-* (Funkkolleg P$dagogische Psychologie 1974)) (Landesinstitut f!r Erziehung und Unterricht, 1988, S. 5)

Trotz dieser unterschiedlichen Definitionen ist ein allgemeiner Nenner sichtbar:

Intelligenz dr!ckt sich immer in Verhalten aus. Weizenbaum (1994, S. 43) h$lt die Bedeutung von Intelligenz erst in einem Kontext f!r sinnvoll:

"F!r sich allein betrachtet ist Intelligenz ein sinnloser Begriff. Er erfordert einen Bezugsrahmen, die Definition eines Bereichs im Denken und Handeln, um ihm einen Sinn zu geben."

Alan Turing sah ebenfalls die Unklarheit bzw. die verschiedenen Interpretationsm'glichkeiten, die sich hinter diesem Begriff befinden und schlug deswegen im Jahre 1950 ein )Imitationsspiel* vor:

,,Ein Fragesteller ist mit einem Mann und einer Frau !ber eine Fernschreibleitung verbunden. Durch Fragen versucht er herauszubekommen, mit wem er verbunden ist. Dabei versucht eine der befragten Personen den Fragesteller zu t$uschen, indem sie die andere Person darstellt, w$hrend die andere Person alles daransetzt, um dem Fragesteller zu helfen. Wird der Fragesteller ebenso oft get$uscht werden, wenn eine der Personen durch einen Computer ersetzt wird?* (Landesinstitut f!r Erziehung und Unterricht, ebd., S. 4)

Dieser Test wurde sp$ter unter dem Namen )Turing-Test* bekannt. John McCarthy pr$zisierte etwas sp$ter Turings Aufgabe und konzeptualisierte damit zum ersten Mal ein k!nstliches intelligentes System:

*Ein intelligentes System mu& eine Repr$sentation der Welt besitzen, d.h. auf eine Menge von Fakten zugreifen, sie manipulieren und erweitern k'nnen (metaphysisches Postulat). Zur Repr$sentation von Fakten wird ein Formalismus verwendet, der Probleml'sungen als Folgerungen enth$lt, z.B. die mathematische Logik (erkenntnistheoretisches Postulat). Die Implementation dieses Formalismus mu& das Auffinden der Probleml'sung bzw. der Folgerung gestatten, d.h. eines Beweises und einer Suchstrategie (heuristisches Postulat).* (zitiert aus: Landesinstitut f!r Erziehung und Unterricht, ebd., S. 4)

In der Literatur verflachten nach anf$nglichen Diskussionen allm$hlich die Debatten !ber solche Definitionen, was sich wohl darin begr!ndete, da& die Ans$tze in der Praxis nicht ann$hrend solche Ebenen oder Leistungen von solchen Definitionen erreichten, sondern mit schweren Problemen in ihren Anf$ngen konfrontiert wurden.

Die Entwicklung der KI kann nach Dreyfus und Dreyfus (ebd.) in 3 Phasen eingeteilt werden. Die erste Phase verlief von 1957 bis 1962. Um 1957 gelang es Newell und Simon, Vordenker des symbolischen Ansatzes, ein Programm zu erstellen, da& unter Verwendung symbolischer Repr$sentationen )einfache R$tsel l'sen und Theoreme der Aussagenlogik beweisen konnte. Das Programm wurde )General Problem Solver* (GPS) genannt, einen )Allgemeine Probleml'ser*, der menschliches Denken simulierend, mit jeglichen Problemen fertig werden sollte.* (Ebeling, 1988, S. 202) Motiviert durch diese raschen Anfangserfolge verk!ndete damals Simon: )Es ist nicht meine Absicht, Sie zu !berraschen oder schockieren...Aber die einfachste Zusammenfassung lautet, da& es nun in der Welt Maschinen gibt, die denken, lernen und kreativ sind. Noch mehr: Ihre F$higkeit, diese Dinge zu tun wird rasch zunehmen, bis sie in absehbarer Zukunft eine ebenso gro&e Vielfalt an Problemen bew$ltigen k'nnen werden wie der menschliche Geist.*14 * (zitiert aus: Dreyfus und Dreyfus, ebd., S. 5) Ebeling (ebd., S. 20) beurteilt diese ersten Zeiten wie folgt:

,,Der Anfang, oder die erste Phase der KI (nach Dreyfus von 1957 bis 1962) kennzeichnete sich durch )beeindruckende Anfangserfolge bei allerdings schlichten Problemstellungen; die Versuche jedoch, die erfolgreichen Verfahren auch auf komplexe Situationen zu !bertragen, versagten allenthalben, entgegen der !beraus optimistischen Voraussagen.* Auch Ahrweiler (1995, S. 34) beurteilt $hnlich:

"KI wurde als Super-Technologie dargestellt, deren Produkte den Menschen in Bereichen geistiger Arbeit ersetzen sollten: KI-Systeme als k!nstliche Richter, /rzte oder Manager. Diese Leitbilder sind nicht nur von der kritischen Begleitdiskussion sondern auch von der tats$chlichen Entwicklungspraxis zun$chst verabschiedet worden."

Am Anfang standen also Anfangserfolge bei schlichten Problemstellungen: )Dame*, )Tic/Tac/Toe*, spezielle Denksport oder Mathematikaufgaben, dies waren Probleme, die Erfolg brachten. Doch wollte man die Programme auf komplexere Themengebiete anwenden, blieb der vorausgesagte Erfolg aus. Um das Bet$tigungsfeld der Programme zu erweitern, brauchte man vor allen Dingen die Sprache als Kommunikation und als Repr$sentation von Symbolen und Bedeutungen. Daher waren in der zweiten Phase (1963 1967) Programme zur semantischen Informationsverarbeitung vorherrschend. Gerade die Sprache und die Repr$sentation zeigten sich aber als Problemfelder, die nicht so einfach zu l'sen waren. 1967 wurde der GPS deswegen endg!ltig )ad acta* gelegt. Ebeling (ebd., S. 203) fa&t zusammen: )Auf speziellen Gebieten hat man in diesen Jahren interessante

Programme entwickelt, die aber, an den Anspr!chen der KI-Propheten

gemessen, in k!rzester Zeit !ber Weihnachten einen )denkenden

Automaten* zu erschaffen, allesamt als gescheitert bewertet m!ssen.*

Dreyfus und Dreyfus (ebd.) bezeichnen die dritte Phase von 1967-1972 unter der +berschrift )Die Bearbeitung von Mikrowelten*:

,,In diesen Jahren entstehen hochspezialisierte Programme wie

MACSYMA von Joel Moses, das mit mathematischen Symbolen

umgehen kann, DENDRAL von Buchanan, Suterland und Feigenbaum, das Spektren von Massenspektrometern interpretiert und deren

Molek!lstrukturen mit einer hohen Wahrscheinlichkeit erschlie&t.*

(Ebeling, ebd., S.203)

Diese Spezialprogramme machten dort Fortschritte wo bestimmtes Wissen sich

ad$quat in programmierbare Regeln !bersetzen lie&. Gleichzeitig entfernten sich aber diese Programme von dem universalen Anspruch der KI, allgemeine Denkvorg$nge nachzubilden.

Die n$chste Phase, die sich von 1972 bis heute hinzieht, ist nach Dreyfus und Dreyfus davon gekennzeichnet, da& die KI sich mit dem Problem des Alltagswissen

()Commonsense*) besch$ftigt. Die vorherigen Phasen waren )durch den Versuch gekennzeichnet, das Problem des Alltagswissen zu umgehen: Man untersuchte, wieviel, mit so wenig Wissen wie m'glich, erreicht werden konnte. In der Mitte der 70er Jahre mu&te das Problem des Alltagswissens jedoch aufgegriffen werden. Verschiedene Datenstrukturen wie Minskys Frames und Schanks Scripts wurden ohne Erfolg erprobt. Das Commonsense-Problem verhindert, da& die KI, Simon1s vor 20 Jahren gemachte Prophezeiung, )innerhalb von 20 Jahren werden Maschinen in der Lage sein, jede Arbeit zu erledigen, die ein Mensch machen kann*, auch nur ansatzweise einl'sen kann.55 * (Dreyfus und Dreyfus, ebd., S. 20) Das Commonsense-Problem war, wie im folgenden gezeigt wird, nicht das einzige Problem der KI-Forschung. Doch die Erkenntnis, die man stillschweigend anerkannte, da& man mit schwierigeren Problemen als gedacht zu tun hatte, verlagerte die Forschung in, mittlerweile aus den Forschungen selber entstandene, Randgebiete. Diese Gratwanderung, an manchen Stellen auch schon vierte Phase oder die )neue KI* genannt, ist sicherlich dadurch begr!ndet, da& bisher nur diese Teilbereiche industriell verwertet werden k'nnen. Das deutsche Forschungsinstitut f!r KI z.B., da& sich )zu den weltweit wichtigsten "Centers of Excellence") (zitiert nach der Internetseite des DFKI) z$hlt, besch$ftigt sich fast nur mit Projekten, die sich industriell verwerten lassen. Als weiteren Grund f!r die Konzentration der Forschung auf die Randgebiete z$hlt sicherlich das begrenzte qualifizierte Personalpotential.2

5. Die Geschichte des konnektionistischen Ansatzes

Frank Rosenblatt hie& der Pionier, der die damals noch neuen Theorien !ber Funktionsweisen von Neuronen als Grundlage f!r einen neuen Ansatz der KI- Forschung nahm. Damit wich er vom symbolverarbeitenden Ansatz ab, da er nicht als ersten Schritt das Verhalten vom Menschen simulieren, sondern mit der Simulation des physischen Systems beginnen wollte:

,,Die implizierte Annahme [des symbolverarbeitenden Forschungsprogramms] besteht darin, da& es relativ einfach ist, das vom System gew!nschte Verhalten zu spezifizieren, und da& die Herausforderung darin besteht, eine Maschine oder einen Mechanismus zu konstruieren, der dieses Verhalten effektiv ausf!hrt... Es ist sowohl einfacher als auch erfolgsversprechender, das physische System zu axiomatisieren und dann dieses System analytisch zu untersuchen, um sein Verhalten zu bestimmen und dann erst das Verhalten zu axiomatisieren und ein physisches System mit den Techniken der logischen Synthese zu konstruieren.12 * (zitiert nach Dreyfus und Dreyfus, ebd., S. 4)

Es war damals schon bekannt, da& die Axiome dieses )physischen Systems* die Neuronen sind, !ber die Funktionsweise oder die Leistung gab es aber nur Spekulationen. Die Umsetzung dieses theoretischen Wissens in die Praxis, woraus dann k!nstliche Neuronale Netzwerke entstanden, dauerte nicht lange: Rosenblatt stellte 1956 ein Programm namens Perzeptron vor, das bekannte Muster von unbekannten Muster unterscheiden konnte: Das erste Mustererkennungprogramm. Das war ein Erfolg, da der symbolverarbeitende Ansatz auf diesem Gebiet so etwas nicht leisten konnte. Es gab jetzt also Gebiete, f!r die jeweils der eine Ansatz dem anderen !berlegen war. Da allerdings beide Ans$tze zu Ihren Anf$ngen Erfolge aufzuweisen hatten und sich beide selbst als den einzig richtigen Ansatz ansahen, artete es zwischen den beiden Forschungsprogrammen zu einem Wettstreit um das Ansehen, um Studienprogramme und vor allen Dingen um die Forschungsgelder, aus. Inhaltlich hatten beide Richtungen ihre Kritiker die jeweils auf dieselben Resultate kamen:

,,Jeder Ansatz hatte gezeigt, da& er bestimmte einfache Probleme l'sen konnte, da& es aber keinen Grund zu der Annahme gab, da& die Methoden zur Komplexit$t der realen Welt extrapoliert werden k'nnten. Es gab Indizien, da& der Rechenaufwand bei komplexeren Problemen in beiden Ans$tzen exponentiell anwachsen und damit nicht mehr handhabbar sein w!rde.* (Dreyfus und Dreyfus, ebd., S. 7) In den fr!hen Siebziegern hatte der symbolverarbeitende Ansatz in fast allen Bereichen einen gro&en Vorsprung. F!r Dreyfus und Dreyfus war ein Buch von Minsky, einem Vordenker des symbolischen Ansatzes, daf!r verantwortlich, da& den Konnektionismus in Mi&kredit brachte, indem es falsche Aussagen !ber seine Grenzen, bzw. !ber die Grenzen von nur einem speziellen, einfachen Typ des Netzwerkes machte. Rummelhart und McClelland (1986, zitiert aus Dreyfus und Dreyfus, ebd., S. 10) dazu:

,,Minskys und Paperts Analyse der Grenzen des Einschicht-Perzeptrons sowie einige fr!he Erfolge des Symbolverarbeitungsansatzes in der KI reichten aus, um eine gro&e Mehrheit der Forscher davon zu !berzeugen, da& perzeptronartige Computersysteme in der k!nstlichen Intelligenz und Kognitionspsychologie keine Zukunft haben.* Auch Zaun (1999, S. 57) gibt diesen Grund an:

,,Infolge dieser Aussage[von Minsky], durch die schl!ssig nachgewiesen wurde, da& ein Perzeptron nur eingeschr$nkte Klassifikationsaufgaben wahrnehmen kann, lie& das Interesse an k!nstlichen neuronalen Netzwerken schlagartig nach. Die meisten Wissenschaftler sahen keinen Sinn mehr darin, sich mit einem derart eingeschr$nkten Ansatz weiter zu besch$ftigen. Minsky r$umte sp$ter !ber die Kritik von 1969 ein: *I now believe the book was overkill...**

Die Resultate beschrieben Dreyfus und Dreyfus (ebd., S. 10) folgenderma&en: )Rosenblatt wurde zusammen mit hunderten weniger prominenten Netzwerk-Forschungsteams, die auf der Grundlage seiner Arbeit entstanden waren diskreditiert. Seine Geldquellen versiegten, und er hatte Schwierigkeiten, seine Arbeiten zu ver'ffentlichen. Um 1970 waren Neuronennetze, soweit sie die KI betrafen, gestorben.*

Da der Symbolverarbeitende Ansatz aber auch an bestimmten Problemen nicht weiterkam, wechselten viele Forscher Anfang bis Mitte der 80er Jahre zu dem konnektionistischen Ansatz. Die Anziehungskraft von Letzteren wurde noch dadurch unterst!tzt, da& einmal die Forschung !ber die Grundlagen der biologischen neuronalen Netzen und zweitens auch die Forschung in der Praxis mit den k!nstlichen Netzwerken sich weiter entwickelt hatte. Forschungen in der Praxis mit k!nstlichen Netzwerken waren aufgrund von fehlenden Kenntnissen und wegen der unvorhersagbaren Natur der Netzwerke notwendig. Dies beruht darauf, da& es innerhalb diesen keine statischen Befehle als ausf!hrende Instanz gibt, sondern eine Grundlage, die Informationen mit einer anderen Art und Weise verarbeitet. Wegen dem Fehlen dieser Statik und der damit ausgehenden Vorhersehbarkeit, ist es nicht ohne weiteres nachzuvollziehen, wie die Informationen genau verarbeitet werden. Desweiteren gibt es noch einige andere Probleme, bzw. Unkenntnis; Gelder (zitiert aus: Meretz und Lenz, ebd., S. 175) kommt beispielsweise )Verteilung* auf den Schlu&:

"...Verteilung ist gegenw$rtig eines der ungekl$rtesten Konzepte in der gesamten Kognitionswisssenschaft."

Desweiteren wurde auch die Kritik des oben genannten Buches bald richtig interpretiert; da& sie sich wirklich nur auf ein einfaches Modell beschr$nkte. Zaun (ebd., S. 59) dazu:

,,Entscheidend ist aber, da& diese Kritik tats$chlich nur f!r das einfache Modell mit einer modifizierbaren Schicht gilt. Nimmt man eine weitere zwischen Ein- und Ausgabeschicht gelegene Zwischenschicht an, dann ist das Netzwerk in der Lage, auch linear nicht separierbare Muster zu erkennen.*

Zu diesem Aufschwung des konnektionistischen Ansatzes kam auch die weitere Erforschung der biologischen Neuronalen Netzwerke, die Mitte der 80er Jahre einen starken Aufschwung erlebte. Auch in den 90er Jahren zeigte sich ein $hnliches Bild. Die Forschungen !ber die k!nstlichen sowie auch die biologischen Neuronalen Netzwerke drangen und dringen immer mehr in die Tiefe vor und unterst!tzten die Umsetzung des theoretischen Wissens in industrielle Anwendungen. Trotz dieses Aufschwunges des konnektionistischen Ansatzes, gab und gibt es immer noch die Anh$nger des symbolischen Ansatzes und damit den Streit, welches denn der leistungsf$higere Ansatz w$re. Lenz und Meretz (ebd., S. 168ff.) dazu: "Beide Forschungseinrichtungen postulieren, das angemessene Konzept zur Modellierung mentaler Prozesse zu vertreten, wobei die Verfahren, mit denen dies geleistet werden soll, sich grunds$tzlich voneinander unterscheiden Um Bedeutungserh'hung scheint es uns in den Auseinandersetzungen zwischen klassischem KI-Ansatz und Konnektionismus zu gehen. Nicht anders sind die von unsinnigen Entgegensetzungen gepr$gten Debatten !ber das >symbolische< und >subsymbolische< Paradigma, !ber die Formen der Repr$sentation sowie die gegenseitigen Vorw!rfe !ber die Unzul$nglichkeiten der jeweils anderen Modelle zu erkl$ren Der Streit zwischen den Richtungen mutet manchmal dem zweier Kinder an, die jeweils !ber ihr Spielzeug behaupten, es sei das Sch'nere." Ahrweiler (ebd., S. 31) zu diesem Streit :

[...]


1 Thomas Hobbes: Leviathan. New York: Library of Liberal Arts, 1985. S.45

2 Originaltext: *-in which they tried to prove that all of arithmetic is an extension of the basic principles of logic..

3 Herbert Simon, Allen Newell: Heuristic Problem Solving: The Next Advance in Operations Research. In: Operations Research 6, Jan./Feb. 1958, S.6

4 Herbert Simon: The Shape of Automation for Men and Management. New York: Harper and Row, 1965. S. 96

5 weitere Informationen siehe: Ahrweiler, 1995: KI Forschung in Deutschland

6 Frank Rosenblatt: Strategic Approaches to the Study of Brain Models. In: H. Von F

Ende der Leseprobe aus 59 Seiten

Details

Titel
Thematische Entwicklung der Künstlichen Intelligenz
Hochschule
Frankfurt University of Applied Sciences, ehem. Fachhochschule Frankfurt am Main
Veranstaltung
Informatik
Note
1.0
Autor
Jahr
2002
Seiten
59
Katalognummer
V36680
ISBN (eBook)
9783638362313
ISBN (Buch)
9783638705158
Dateigröße
842 KB
Sprache
Deutsch
Schlagworte
Thematische, Entwicklung, Künstlichen, Intelligenz, Informatik
Arbeit zitieren
Florian Becker (Autor), 2002, Thematische Entwicklung der Künstlichen Intelligenz, München, GRIN Verlag, https://www.grin.com/document/36680

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Thematische Entwicklung der Künstlichen Intelligenz



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden