Der Mensch und die 'Künstliche Intelligenz' - Eine Profilierung und kritische Bewertung der unterschiedlichen Grundauffassungen vom Standpunkt des gemäßigten Realismus


Doktorarbeit / Dissertation, 2002

365 Seiten


Leseprobe

Inhaltsverzeichnis

1 . Einleitung
1.1 Problematik
1.2 Vorgehen der Arbeit

2 . Stand der Technik
2.1 Gliederung in Teilgebiete
2.2 Wissensbasierte und damit verwandte Systeme
2.2.1 Expertensysteme
2.2.2 Intelligente Assistenten
2.2.3 Intelligente Agenten
2.2.4 Sonstige
2.3 Konnektionistische Systeme
2.4 Bildverarbeitende Systeme
2.5 Sprachverarbeitende Systeme
2.6 Robotik und Künstliches Leben
2.7 Zwischenfazit zum Stand der Technik

3 . Grundauffassungen
3.1 Symbolismus
3.1.1 Grundzüge
3.1.2 Symbolistische Informationsverarbeitung
3.1.3 Intelligenz und Geist
3.1.4 Denken und Erkenntnis
3.1.5 Wille
3.1.6 Bewußtsein und Selbstbewußtsein
3.1.7 Gefühle
3.1.8 Leben
3.1.9 Zwischenfazit zum Symbolismus
3.2 Konnektionismus
3.2.1 Grundzüge
3.2.2 Konnektionistische Informationsverarbeitung
3.2.3 Intelligenz und Geist
3.2.4 Denken und Erkenntnis
3.2.5 Wille
3.2.6 Bewußtsein und Selbstbewußtsein
3.2.7 Gefühle
3.2.8 Leben
3.2.9 Zwischenfazit zum Konnektionismus
3.3 Biologismus
3.3.1 Grundzüge
3.3.2 Biologische Informationsverarbeitung
3.3.3 Intelligenz und Geist
3.3.4 Denken und Erkenntnis
3.3.5 Wille
3.3.6 Bewußtsein und Selbstbewußtsein
3.3.7 Gefühle
3.3.8 Leben
3.3.9 Zwischenfazit zum Biologismus
3.4 Physikalismus
3.4.1 Grundzüge
3.4.2 Quantenphysikalische Informationsverarbeitung
3.4.3 Intelligenz und Geist
3.4.4 Denken und Erkenntnis
3.4.5 Wille
3.4.6 Bewußtsein und Selbstbewußtsein
3.4.7 Gefühle
3.4.8 Leben
3.4.9 Zwischenfazit zum Physikalismus
3.5 Resümee der Grundauffassungen

4 . Philosophische Kritik
4.1 Philosophische Betrachtung
4.1.1 Notwendigkeit der philosophischen Betrachtung
4.1.2 Wesen der Philosophie
4.1.3 Gemäßigt-kritischer Realismus
4.1.4 Vorgehen der philosophischen Kritik
4.2 Erkenntnistheorie
4.2.1 Bedeutung und Vorgehen
4.2.2 Logik
4.2.3 Erkenntniskritik
4.2.4 Wahrheit
4.2.5 Zwischenfazit zur Erkenntnistheorie
4.3 Metaphysik
4.3.1 Bedeutung und Rechtfertigung
4.3.2 Ontologie
4.3.3 Natürliche Theologie
4.3.4 Zwischenfazit zur Metaphysik
4.4 Naturphilosophie
4.4.1 Bedeutung und Grundbegriffe
4.4.2 Anorganisches
4.4.3 Pflanzen
4.4.4 Tiere
4.4.5 Zwischenfazit zur Naturphilosophie
4.5 Anthropologie
4.5.1 Bedeutung und Vorgehen
4.5.2 Leib
4.5.3 Seele und Geist
4.5.4 Intelligenz, Denken und Erkenntnis
4.5.5 Wille und Freiheit
4.5.6 Bewußtsein und Selbstbewußtsein
4.5.7 Gefühle
4.5.8 Leben
4.5.9 Der Mensch – Zwischenfazit zur Anthropologie

5 . Fazit und Ausblick
5.1 Fazit
5.2 Ausblick

Literaturverzeichnis

Gedruckte Quellen

Elektronische Quellen und weiterführende Adressen

1. EINLEITUNG

1.1 Problematik

Bezüglich der „Künstlichen Intelligenz“ (KI) sowie ihrem Verhältnis zum Menschen herr- schen stark divergierende Auffassungen. Hierbei lassen sich zunächst zwei grundverschiedene Positionen unterscheiden: Während nach der einen Auffassung KI im wörtlichen Sinne prin- zipiell unmöglich ist, hält die andere Auffassung KI für bereits erreicht oder zumindest für grundsätzlich erreichbar. Unter denjenigen, die KI für möglich halten, scheiden sich wieder- um die Einschätzungen, auf welchem Wege sie zu erreichen sei. Wie sich zeigen wird, sind es insbesondere Ansätze aus der Informatik, Biologie und Physik bzw. Quantenphysik, die für sich beanspruchen, die natürliche Intelligenz erklären und eine künstliche Intelligenz herstel- len zu können.

Hinsichtlich der Auswirkungen einer etwaigen KI stehen vereinfacht gesagt optimistischen Betrachtungen und Visionen pessimistische Einschätzungen und Szenarien gegenüber.1 Die Optimisten versprechen sich von der KI beispielsweise die Erfüllung des alten Mensch- heitstraumes, von der Notwendigkeit der Arbeit befreit zu werden und sich unbeschwert den Freuden des Lebens widmen zu können.2 Auch andere Probleme der Menschheit sind nach ih- rer Meinung künftig nicht mehr alleine vom Menschen zu lösen, sondern können mit Hilfe der KI bewältigt werden.3 In der Öffentlichkeit bekannt wurden aber auch die – nicht selten sehr drastischen – Ansichten der Pessimisten. Nach ihnen werden sich die KIen verselbstän- digen und so sehr und schnell weiterentwickeln, daß die Menschen ihnen unterlegen sein werden.4 Man hält KI in diesem Sinne für die zukünftige Lebensform und Intelligenz über- haupt, die sich gegen andere durchsetzen wird, oder sieht sie zumindest als neuen Evolutions- schritt.5

Um beurteilen zu können, welche der genannten Ansichten die angemessene Einschätzung des Verhältnisses der KI zum Menschen ist, muß geklärt werden, ob es möglich ist, Systeme zu konstruieren, die leben, intelligent sind, erkennen können, einen Willen und Selbstbewußt- sein haben etc.6 Bevor diese Fragen nach den anthropologischen Grundbegriffen jedoch auf die KI bezogen werden können, gilt es zu untersuchen, was die einschlägigen Grundbegriffe an sich bzw. in bezug auf den Menschen bedeuten. Damit ist die Notwendigkeit einer philo- sophischen Untersuchung des Themas gegeben.7 Philosophische Reflexion ist auch deshalb gefordert, weil sich das herrschende Bild vom Menschen durch die Forschungsergebnisse und Theorien der Naturwissenschaften wie der Informatik, Biologie und Physik sowie der ver- meintlichen und wahren Erfolge der KI-Forschung (siehe Kapitel 2 und 3) radikal zu wandeln droht. Der Mensch sieht sich vermehrt als ein rein naturwissenschaftlich zu verstehendes stoffliches System. „Die eigentliche Frage lautet, ob wir, in einem entsprechend abstrakten Sinn, nicht selbst Computer sind.“8 Eine – etwaige – KI hat also enorme Auswirkungen auf das Selbst- und Weltverständnis des Menschen; „[…] es wäre sicher von einschneidender, über das rein Akademische weit hinausreichender existentieller Bedeutung, wenn so etwas wie ‚Künstliche Intelligenz‘ im Wortsinn realisierbar wäre.“9 Durch eine KI erhielte die Fra- ge, ob der Mensch sich vom Rest der Welt wesentlich unterscheidet, ob er, mit anderen Wor- ten, eine Sonderstellung einnimmt, eine deutliche Wendung.10 Es ist also keine Übertreibung zu sagen: „Im Grund drehen sie [die Fragen bzgl. der KI; Anmerkung R. E. ] sich um nichts weniger als um den Ort, den der Mensch innerhalb des Universums einnimmt.“11 Diese – nur philosophisch zu leistende – Einordnung des Menschen in das gesamte Sein ist wesentliches Ziel der nachfolgenden Untersuchungen, insbesondere des Kapitels 4. Erst im Rahmen dieser Einordnung läßt sich die Frage lösen, ob es dem Menschen grundsätzlich möglich ist, den- kende, erkennende, wollende, selbstbewußte, fühlende und lebende Systeme zu erschaffen.

Bevor in Kapitel 1.2 das Vorgehen der vorliegenden Arbeit dargestellt wird, sind an dieser Stelle einige Bemerkungen zu Geschichte, Begriff und Motivation der KI zu machen.

Wie ein Blick zurück zeigt, zieht sich der Traum von der KI durch die gesamte abendländi- sche Geistesgeschichte, angefangen bei Homer und den von Hephaistos gebauten dreifüßigen Gehilfen mit goldenen Rädern, die „von selbst“ zum Versammlungsplatz der Götter laufen, über die Vorstellung eines Golem und Homunkulus bis zu modernen Versionen à la Franken- steinmonstern und Science-fiction-Robotern in kommerziellen Spielfilmklassikern wie etwa

„Star Wars“.12 Als eine Art Vorläufer der heutigen KI-Forschung kann die auf Norbert Wiener zurückgehende Kybernetik gelten.13 Darunter versteht man die Wissenschaft von der Struktur und dem Verhalten dynamischer Systeme. Die Verwendung des Begriffes „Künstliche Intelli- genz“ (eigentlich: Artificial Intelligence14) geht zurück auf das Jahr 1956, in dem die legendä- re Dartmouth-Konferenz stattfand. Der Begriff KI meint in der Regel die wissenschaftliche Disziplin der KI-Forschung, kann aber genausogut deren Produkte, also die „intelligenten“ Systeme, bedeuten.15 Die KI-Forschung wird in der Hauptsache von zwei Zielen geleitet: Er- stens will man künstliche Systeme bauen, die intelligent (und alles, was damit zusammen- hängt) sind, und zweitens will man verstehen lernen, was Intelligenz im allgemeinen und die menschliche Intelligenz (und die damit zusammenhängenden Fähigkeiten) im besonderen sind.16 Ein häufig mitschwingendes, aber unausgesprochenes Ziel der KI ist es, Geisteswis- senschaften und speziell die Philosophie größtenteils überflüssig zu machen oder zumindest auf die Naturwissenschaften zurückzuführen.17 In diesem Sinne hält sich die KI-Forschung nicht selten für die Wissenschaft von Intelligenz, Erkennen, Wissen und dergleichen.18 Hieran wird die vorliegende Arbeit, besonders in Kapitel 4.2 und 4.5, deutliche Kritik üben.

Die KI-Forschung ist eine verhältnismäßig junge Wissenschaft, die häufig im Bereich der In- formatik angesiedelt wird. Wegen der immer deutlicher werdenden Zusammenhänge mit an-

deren Wissenschaften wie etwa der Neurobiologie, der Psychologie sowie der Physik ist KI jedoch mittlerweile ein multidisziplinäres Forschungsprogramm.

Innerhalb der KI-Forschung unterscheidet man vor allem „starke“ und „schwache“ KI.19 Nach der Auffassung der schwachen KI sind künstliche Systeme, insbesondere Computer, bei der Erforschung des menschlichen Geistes bzw. der menschlichen Intelligenz ein hilfreiches Werkzeug. Trotz der äußeren Ähnlichkeit des Verhaltens der KI mit dem des Menschen bleibt jedoch stets ein grundsätzlicher, unüberbrückbarer Unterschied zwischen natürlicher und si- mulierter bzw. künstlicher Intelligenz.20 Nach der Auffassung der starken KI dagegen ist es möglich, daß künstliche Systeme, insbesondere Computer, Intelligenz und die damit zusam- menhängenden Leistungen nicht nur simulieren, sondern buchstäblich und in demselben Sin- ne wie Menschen über diese verfügen. Zwischen Mensch und KI bestehe kein wesentlicher, sondern allenfalls ein gradueller Unterschied. Nach der starken KI gibt es darüber hinaus – angeblich – keine prinzipiellen Grenzen der KI. Die Grenzen werden allenfalls durch den je- weiligen technologischen Stand und die Umsetzbarkeit von Experimenten etc. abgesteckt.21

Der Unterschied zwischen der Sichtweise der schwachen und der starken KI läßt sich auch an den verschiedenen Bedeutungen des Wortes „künstlich“ erläutern. Zwei Beispiele sollen das verdeutlichen: Man spricht etwa von einer künstlichen Blume und von künstlichem Licht. Im ersten Fall ist gemeint, daß etwas einem anderen in gewisser Weise ähnelt, also etwa wie je- nes aussieht, sich jedoch grundsätzlich von ihm unterscheidet. Die künstlichen Blumen sehen nur aus wie Blumen; sie sind aber aus Stoffen wie Plastik oder Papier und wesensmäßig keine Blumen. Spricht man jedoch von künstlichem Licht, dann bezieht sich das Wort künstlich auf den Ursprung. Es wurde künstlich hergestellt, aber es leuchtet und verhält sich in jeder Bezie- hung wie Licht. Es ist, was es zu sein scheint; es ist wesensmäßig Licht.

Die Problematik bei der Einschätzung der KI und ihres Verhältnisses zum Menschen ist, daß Intelligenz und die damit zusammenhängenden Begriffe nicht so leicht zu erkennen sind wie das physikalische Licht im obigen Beispiel. Die Untersuchung zur KI muß deshalb sehr weit ausholen, um zum Wesen der jeweiligen Begriffe vorzudringen und nicht bei ähnlichen oder gleichen Merkmalen stehen zu bleiben.

1.2 Vorgehen der Arbeit

An dieser Stelle gilt es, die Gliederung der Arbeit bzw. deren Vorgehen zu erläutern. Wie aus dem Titel und dem bisher Gesagten hervorgeht, ist das Ziel eine Profilierung und kritische Bewertung der unterschiedlichen Grundauffassungen des Menschen, der KI und ihres Ver- hältnisses zueinander.

In Kapitel 2 wird zu diesem Zweck zunächst ein Überblick über den Stand der KI-Technik gegeben. Dieser Überblick erleichtert das Verständnis für die Herausforderungen und Philo- sophie der KI und vermittelt gleichzeitig wichtige Grundbegriffe. Sowohl für dieses wie auch das folgende Kapitel gilt in diesem Zusammenhang: Es müssen sich einige „an die Zusam- menschau von Tatsachen und Theorien wagen, auch wenn ihr Wissen teilweise aus zweiter Hand stammt und unvollständig ist […]“22. Dabei geht es der philosophischen Reflexion der Grundauffassungen vom Menschen und der KI um grundsätzliche Möglichkeiten und Gren- zen sowie allgemeine Prinzipien. Der jeweils aktuelle Forschungsstand bzw. der Stand der Technik kann dazu immer nur Anhaltspunkte geben.23

In Kapitel 3 werden vier verschiedene naturwissenschaftliche Theorien vom Menschen und der KI anhand wesentlicher anthropologischer Grundbegriffe profiliert. Rein technische bzw. naturwissenschaftliche Aspekte werden dabei in der Regel zurückgestellt. Durch den bewußt gewählten, genügend großen Abstand zur Methode und Terminologie der Naturwissenschaf- ten zeigen sich erhebliche Schwachstellen dieser Theorien, die häufig den Zugang zum Men- schen und seinen Fähigkeiten sowie zur KI verstellen. Wo es nötig und sinnvoll ist, wird be- reits in diesem Kapitel auf fragwürdige bzw. widersprüchliche Aussagen und nicht genügend reflektierte Prämissen hingewiesen. Die im weiteren Verlauf der Arbeit zu leistende philoso- phische Lösung wird an vielen Stellen bereits hier angedeutet.

Kapitel 4 greift die Probleme und Widersprüchlichkeiten der vier profilierten Grundauffas- sungen auf und stellt sie in den Zusammenhang der Gesamtwirklichkeit. Wie der Titel der Arbeit bereits anzeigt, wird dabei die Position des gemäßigten und kritischen Realismus ver- treten, dessen besondere Stärken implizit und explizit verdeutlicht werden. Es wird sich zei- gen, daß es zur Würdigung und vor allem zur philosophischen Kritik der Grundauffassungen nötig ist, erkenntnistheoretische, fundamentalphilosophische und anthropologische Untersu- chungen durchzuführen. Nur so ist die Klärung des Wesens des Menschen und damit eine

Abgrenzung von der KI möglich. Im Mittelpunkt steht dabei vor allem der Begriff des Gei- stes.

Kapitel 5 wird die Arbeit mit einem ausführlichen Fazit und einem Ausblick abrunden, aus denen noch einmal hervorgeht, daß die von der KI aufgeworfenen Wesensfragen letztlich nur durch die Philosophie gelöst werden können.

2. STAND DER TECHNIK

Bevor in Kapitel 3 die verschiedenen Theorien vom Menschen und der KI kategorisiert und dargestellt werden, ist es sinnvoll, zunächst einen Überblick über den Stand der Technik zu gewinnen. Dieser Überblick erleichtert das Verständnis für die Herausforderungen und Philo- sophie der KI sowie die Spannweite der Probleme und vermittelt gleichzeitig wichtige Grund- begriffe.

Viele der im weiteren Verlauf dieser Arbeit vorgestellten Einschätzungen der Künstlichen Intel- ligenz werden erst vor dem Hintergrund der aktuellen Möglichkeiten der KI verständlich. Zu- dem können anhand des gegenwärtigen Technikstandes die Prognosen vergangener Jahre und Jahrzehnte überprüft und beurteilt werden. Dabei wird sich auch die Wechselwirkung zwischen der Technik bzw. dem experimentell Beobachtbaren und der wissenschaftlichen, insbesondere philosophischen Erklärung derselben andeuten. Wie jede Wissenschaft ist auch die Philosophie auf die genaue Beobachtung der Wirklichkeit angewiesen, ohne jedoch dabei stehenzubleiben.24

Eine repräsentative Darstellung der aktuellen KI-Forschung bzw. -Technologie zu geben, stellt sich als besonders schwierig heraus. Dies liegt erstens an der hohen Komplexität und zuneh- menden Verzweigung der KI-Teilgebiete, die es nahezu unmöglich machen, das gesamte Gebiet zu überschauen. Hinzu kommt zweitens, daß die Entwicklung der KI mit exponentieller Ge- schwindigkeit voranschreitet, da die erzielten Fortschritte häufig direkt auf ihre eigene Weiter- entwicklung rückwirken. Die herkömmlichen, d.h. in der Regel gedruckten Publikationen25 können mit dieser Geschwindigkeit teilweise nicht mehr Schritt halten. Aus diesem Grund wird im folgenden öfters auf elektronische Quellen wie Internetadressen zurückgegriffen und verwie- sen,26 bei denen sich häufig auch fortlaufend aktualisierte Daten und Erkenntnisse finden las- sen. Die Entwicklung der wissenschaftlichen KI-Theorien (vgl. Kapitel 3) ist naturgemäß etwas weniger stürmisch, da sie auf übergeordnete Prinzipien gestützt ist und deren Anzahl und Kom- binationsmöglichkeiten im Verhältnis zu den technischen Anwendungsmöglichkeiten begrenzter sind.

Im Sinne des Themas dieser Arbeit konzentriert sich die folgende Darstellung vor allem auf diejenigen Bereiche und Beispiele, die für die Theorienbildung der KI besonders interessant sind.

2.1 Gliederung in Teilgebiete

Angesichts der Größe und Vielfalt der Leistungen der menschlichen Intelligenz ist es nötig, die Erforschung der KI in überschaubare Teilgebiete aufzugliedern. Wie so oft in den Wissen- schaften ist man sich nicht durchweg einig über die sinnvollste Aufteilung und Benennung.27 Aus Gründen, die sich im weiteren Verlauf der Arbeit, insbesondere im Rahmen der Anthro- pologie (Kapitel 4.5), noch deutlicher zeigen werden, wird sich die hier verwendete Einteilung an der Konstitution und den Vermögen des Menschen orientieren. Geschichtlich entstandene Besonderheiten werden dabei gegebenenfalls mit berücksichtigt.

Analog zur leiblich-geistigen Verfassung des Menschen läßt sich die KI zunächst in zwei Berei- che teilen: der eine beschäftigt sich mit den leiblichen, speziell den sinnlichen Vermögen des Menschen, der andere mit den geistigen. Weil die sinnliche „Intelligenz“ des Menschen jedoch aufs Engste mit seiner geistigen Intelligenz verbunden ist, läßt sich eine strenge Aufteilung nicht immer durchhalten, ist jedoch zunächst einmal sinnvoll.

Da Intelligenz im engen Sinne ein geistiges Vermögen ist, geht das Hauptinteresse der KI in Richtung der technischen Annäherung an die geistigen Fähigkeiten des Menschen, insbesondere diejenigen, die auf Wissen gründen. Hauptanwendung dieses Teilgebietes sind die wissensba- sierten Systeme. Die weiteren Verzweigungen innerhalb dieses Teilgebietes werden in Kapitel

2.2 besprochen.

Das Teilgebiet konnektionistische Systeme beschäftigt sich mit dem Verständnis und Bau von künstlichen neuronalen Netzen. Diese sind dem biologischen Vorbild Gehirn nachempfundene, mehrschichtige Systeme mit einfachen Elementen, die sich nach einem entsprechenden Training für vielfältige Aufgaben eignen, insbesondere für Mustererkennung.

Bezüglich der leiblichen „Seite“ des Menschen ergeben sich entsprechend den Sinnen (Gesicht, Gehör, Gefühl, Geschmack, Geruch) zunächst einmal fünf Teilgebiete. Weil sie für das Leben des Menschen und speziell für seine intellektuelle Entwicklung besonders wichtig sind, hat sich die KI-Forschung vorzugsweise auf die ersten beiden konzentriert: Es entstand das Gebiet der bild- und das der sprachverarbeitenden Systeme. Gefühl, Geschmack und Geruch wurden in der Regel nicht als eigene Teilgebiete betrieben, sondern waren Teil von Automatisierungsanla- gen und Robotern. Dies lag vor allem daran, daß sie naturwissenschaftlich deutlich weniger er- forscht waren, was sich etwa daran zeigt, daß es vor den ersten Computern bereits Rundfunk- und Fernsehübertragung, aber bis heute kaum komplexe und realitätsnahe Gefühls- und noch viel weniger Geschmacks- und Geruchsübertragung gibt. Es existiert zwar eine Vielzahl hoch- sensibler Sensoren und Detektoren für Druck, Temperatur, Flüssigkeits- und Gasbestandteile etc., an die Komplexität der menschlichen Organe reicht die moderne Technologie jedoch nicht heran.

Entsprechend der menschlichen Fähigkeit, zu handeln und insbesondere sich sinnvoll und intel- ligent durch den Raum und das Leben zu bewegen, ist das Teilgebiet Robotik der Versuch, Ma- schinen zu bauen, die sich selbständig in der realen Welt zurechtfinden. Sie kann als eine Art Integration der bisher genannten Teilgebiete aufgefaßt werden, da zur Konstruktion eines mög- lichst „menschlichen“ Roboters sowohl leibliche wie geistige Komponenten nötig sind. Im Zu- sammenhang mit der Robotik steht auch das Teilgebiet Künstliches Leben. Dieses bemüht sich um die Erschaffung oder wenigstens Simulation von Leben oder lebensähnlichen Organismen und Systemen in Computern oder biologisch-technischen Hybridformen.

Im folgenden werden in der Form eines Überblicks Ziele, Beispiele, Methoden und Probleme aus den verschiedenen Gebieten der KI dargestellt.28 Dabei lassen sich die aufgeführten An- wendungen gelegentlich nicht eindeutig oder ausschließlich einem Teilgebiet zuordnen. So kann ein Textanalyseprogramm etwa als Teil eines Expertensystems, eines sprach- oder auch eines bildverarbeitenden Systems funktionierten. Auch eine Vollständigkeit der möglichen und tat- sächlichen Zweige der KI und ihrer exemplarischen Verwirklichungen ist nicht angestrebt. Vielmehr geht es um die Vermittlung der grundsätzlichen Vorgehensweise der KI-Forschung sowie eine Heranführung an die dahinterliegende Philosophie der KI.

2.2 Wissensbasierte und damit verwandte Systeme

Der Begriff „wissensbasierte Systeme“ wird für Computersysteme verwendet, die – wie ihr Name bereits sagt – auf Wissen basieren und mit diesem umgehen. Insofern das Wissen im Gegensatz zu konnektionistischen Ansätzen ausdrücklich in Form von Symbolen angelegt und verarbeitet wird, spricht man auch von symbolverarbeitenden Systemen.29 Die wissensbasierten Systeme sollen in diesem Kapitel in einem sehr weiten Sinn verstanden werden, so daß alle Versuche, die nicht direkt sinnensgebundenen geistigen Tätigkeiten künstlich zu reproduzieren, darunter fallen. In diesem Sinne werden neben den klassischen Expertensystemen u.a. auch die folgenden, in der Fachliteratur meist als getrennt aufgeführten, Gebiete zugeordnet: Maschinel- les Lernen, Beweisen von mathematischen Sätzen, Spiele und Automatisches Programmieren30,

d.h. daß man die Funktionalität des gewünschten Programmes eingibt und der Computer das entsprechende Programm selbständig erstellt. Ebenfalls zugehörig seien Planung, Entschei- dungsfindung und Problemlösung, d.h. die Eingabe von Ist- und Soll-Zuständen eines Systems sowie dessen Verhalten und Randbedingungen, so daß der Computer den möglichst optimalen Weg von Ist zu Soll oder einen optimalen Zustand des Systems findet.

2.2.1 Expertensysteme

Durch das exponentielle Wachstum des Weltwissens stehen die Menschen vor dem Problem, wie sie die ungeheuren Informations- und Wissensmengen schnell, sicher und angemessen ab- speichern, auswerten und anwenden sollen. Hilfe dazu versprechen u.a. die „Experten- systeme“. Unter einem solchen Expertensystem versteht man ein Computersystem „mit der Fä- higkeit, Fachwissen (Expertenwissen) eines begrenzten Spezialgebietes aufzunehmen, darzu- stellen, zu verarbeiten und zu erklären – insbesondere durch formallogisches Schließen“31. Ih- ren Namen verdanken solche Systeme dem Wunsch, daß ihre Leistung der eines menschlichen Experten vergleichbar sein soll, wobei die Systeme zudem nicht selten auch von Experten be- nutzt werden. Ein Expertensystem besteht aus den folgenden Komponenten: Wissensbasis, Wissenserwerb-, Inferenz- sowie Dialog- und Erklärungskomponente. Die Wissensbasis be- steht aus digital abgespeicherten Fakten und Regelwissen sowie ggf. heuristischen oder sta- tistischen Erfahrungswerten. Zur Wissensrepräsentation werden verschiedene Methoden be- nutzt wie etwa Frames, Produktionsregeln oder Semantische Netze,32 da das meiste Wissen nicht einfach aus isolierten, kleinen „Informationspaketen“ besteht, sondern ein komplexes

„Gebilde“ ist. Die Wissensbasis wird über die Wissenserwerbskomponente durch einen Wis- sensingenieur mit dem Wissen von menschlichen Experten gespeist. Über die Dialogkompo- nente richtet der Nutzer dann später seine Fragen an das System, welches mit Hilfe der Infe- renzkomponente33 aus der Wissensbasis eine Lösung ableitet. Dazu stellt das System falls nötig Rückfragen an den Nutzer. Ist die Lösung gefunden, so wird sie dem Nutzer präsentiert und auf Wunsch erläutert, d.h. die verwendeten Fakten und das Vorgehen der Lösung werden schrittweise dargelegt.

Die Anwendungsgebiete für Expertensysteme sind sehr vielfältig. Sie reichen von der Analyse und Interpretation über Entwurf, Planung, Prognose, Diagnose und Beratung bis hin zur Steue- rung und Reparatur.34 KI-Systeme werden mittlerweile in sehr vielen Bereichen menschlichen Lebens eingesetzt, u.a. in der Industrie, beim Militär, in der Medizin, in der behördlichen Ver- waltung und der Hochschulforschung. Im folgenden sollen einige Anwendungen exemplarisch vorgestellt werden.

Zu den frühesten Expertensystemen gehören neben den militärischen Anwendungen die medizi- nischen Diagnosesysteme.35 Diese helfen dem Arzt bei der Krankheitsdiagnose, etwa indem sie Mikroskopaufnahmen von Blutproben auswerten. Die Systeme untersuchen die Proben u.a. auf Leukämie oder bewerten und hinterfragen kritisch bereits vorliegende ärztliche Diagnosevor- schläge.36 Das Expertensystem „Mycin“ beispielsweise berät bei der Diagnose und der Be- handlung von Meningitis und bakteriellen Infekten, nachdem es die Laborergebnisse sowie körperlichen Symptombeschreibungen und andere Informationen über den Patienten erhalten hat. „Für eine Bewertung von Mycin ist folgendes Ergebnis interessant: Bei einem Vergleich mit menschlichen Diagnostikern brachte Mycin nach der Meinung von Fachexperten in ca. 65 Prozent aller Fälle akzeptable Therapien, die menschlichen Diagnostiker schnitten dagegen nur in zwischen 42.5 und 62.5 Prozent aller Fälle richtig ab.“37

Bei vielen realitätsnahen Entscheidungsfindungen – etwa ob eine medizinische Situation in die eine oder andere Klasse eingeordnet werden soll – ist die klassische Mengenlehre, nach der ein Element entweder zugehörig ist oder nicht, nur sehr bedingt einsetzbar. Die modernen Inferenz- komponenten mußten deshalb über starren „Wenn (z.B. x=a), dann ... “-Regeln hinauswach- sen. Durch Systeme mit „qualitative reasoning“ wird dementsprechend versucht, das qualitative Argumentieren und Schließen des Menschen technisch nachzuahmen. Dies geschieht z.B. mit

„relation algebra“, die neue logische Operatoren einführt wie „a fördert/erzeugt b“, „a hin- dert/verhindert b“, „a hat ambivalente Auswirkung auf b“ etc.38 oder durch logische Verknüp- fung der neu eingeführten Wahrheitswerte „sicher“, „beinahe sicher“, „sicher genug“, „sehr un-

sicher“, „völlig unsicher“.39 Das auch als Fuzzy-Logik40 bzw. Fuzzyfizierung bezeichnete Ver- fahren, mathematisch zunächst nicht korrekt einzuordnende, unscharfe Alltagsaussagen einer numerischen Bearbeitung zugänglich zu machen, hat sich mittlerweile in vielen Bereichen be- währt.41 Es hilft überdies, das System robust zu machen gegen ungenaue Eingangsdaten, die bei konventioneller Programmierung nicht selten zu keinem oder einem widersinnigen Ergebnis führen können. Um auch mit unvollständigen Daten arbeiten zu können, werden für die Infe- renzkomponenten darüber hinaus auch z.B. „Probabilistic Graphical Models“ und „Possibilistic Graphical Models“ benutzt.42 Diese wurden beispielsweise erfolgreich eingesetzt, um aus un- vollständigen Blutmerkmalen von Rindern deren exakte Blutgruppe zu bestimmen.

Erwartungsgemäß benutzt auch die Raumfahrtindustrie verstärkt Expertensysteme, die bei der Planung, Kontrolle und Steuerung der Flüge helfen. Diese Systeme machen die Flüge vorher- sagbarer und erfassen Wissen, das ohne sie verloren gehen würde. Als Beispiel dient hier das vom „Howard University Center for Energy Systems and Control“ entwickelte Expertensystem zur Verwaltung der Energieversorgung während des Fluges.43 Das System optimiert die Bedin- gungen und Abläufe der Energieversorgung und beinhaltet verschiedene komplexe Interaktio- nen zwischen den einzelnen Belastungen. So werden beispielsweise Notfallsituationen sowie das Auf- und Entladen von Batterien durch Solarzellen beachtet. Das System wertet während des gesamten Fluges alle zehn Minuten die aktuellen Energieverbräuche aus. Durch das Exper- tensystem wird nicht nur der Flug selbst sicherer, effektiver und effizienter, sondern auch seine gesamte Vorbereitung inklusive der Zuweisung der jeweils benötigten Energiemengen.

Eines der Probleme bei Expertensystemen ist das des Wissenserwerbs oder mit anderen Worten der Wissensaquisition.44 Da es für einen Experten in der Regel nicht möglich ist, sein eigenes Wissen als solches möglichst vollständig zu erkennen und vor allem, dieses computergerecht zu formalisieren, bedarf es eines Wissensingenieurs. Dieser muß dem Experten in seinem Fach entgegenkommen und insbesondere die vermeintlich selbstverständlichen oder „intuitiven“45 Vorgehensweisen so aufdecken, daß sie für eine spätere Inferenzkomponente nutzbar sind. Oft sind die zu erfassenden Fachgebiete so weit, daß es nötig ist, über lange Zeiträume (iterativ oder parallel) eine Vielzahl von Experten einzubeziehen. Durch die enorme Größe und Komplexität der ständig erweiterten Wissensbasen kann es dann leicht zu Redundanzen und – wesentlich schwerwiegender – zu Inkompatibilitäten kommen. Während die Komplexität des Wissens auf menschlicher Seite Teamwork fordert, führt sie auf technischer Seite zur „agent technology“,

also zu verteilten Systemen. Beispiele finden sich etwa bei medizinischen Diagnosesystemen, die aus mehreren Wissensbasen bestehen und zudem von mehreren Ärzten genutzt werden.46

Ebenfalls schwierig ist die Wieder- und Weiterverwendung von Wissen in neuen Systemen, da dieses oft sehr kontext- und problembezogen gespeichert wurde.47 Die Übersetzung bzw. Übertragung in neue Zusammenhänge stellt sich als ausgesprochen schwer dar. Ein Beispiel da- für ist die Nutzung einer Datenbank bzw. eines Expertensystems zur Konstruktion eines Sy- stems für dessen spätere Wartung und Reparatur. Dies alles zeigt, wie wichtig und gleichzeitig schwierig, ja teilweise unmöglich die Pflege und insbesondere die Standardisierung von Wis- sensbasen ist.48 Die genannte Thematik ist Aufgabe des seit gut zwei Jahrzehnten betriebenen

„Knowledge Engineering“ bzw. des moderneren und umfassenderen „Knowledge Manage- ment“. Dabei geht es auch um die Fragen, wie man an das gelangt, was an verstecktem (Welt-)Wissen bereits abgespeichert ist („Data Mining“) und wie man neues Wissen entspre- chend sachgerecht, langfristig, modular und interoperatibel anlegt.

Die Wissensaquisition ist mittlerweile soweit fortgeschritten, daß sie teilweise schon automa- tisch oder semi-automatisch geschieht. Ein Beispiel dafür ist das automatische Texterfassungs- und -analyseprogramm TANKA (Text ANalysis for Knowledge Acquisition).49 Es besteht aus einem syntaktischen und einem semantischen Modul (vgl. zur Textanalyse auch das Kapitel 2.5). Nachdem der Satzbau durch das erste Modul erkannt ist, ist es Aufgabe des zweiten Mo- duls, dessen Bedeutung zu erkennen. In günstigen Fällen kann bei redundanten Texten trotz unvollständiger Satzerkennung der größte Teil der Bedeutung erkannt werden. Sowohl beim Training als auch bei der Kontrolle der vorgeschlagenen Ergebnisse wird das System durch ei- nen Experten jeweils bestätigt oder verbessert und „lernt“ dabei hinzu, so daß Korrekturen mit der Zeit weniger nötig werden. Die Ergebnisse hängen stark vom Training, den vorgelegten Texten, deren Redundanz, Stil, Inhalt etc. ab und können nur sehr schwer verallgemeinert wer- den. Es kann festgehalten werden, daß das System tatsächlich „lernte“, d.h. ihm bis dahin un- bekannte Eingaben richtig klassifizierte. Das Wissen aus den mehr als 500 Sätzen eines Textes konnte so innerhalb weniger Tage extrahiert werden. Ca. 80-90 % der automatischen Ergebnis- se wurden richtig zugeordnet. Allerdings ist dabei der sehr begrenzte Einsatzbereich (engl. do- main) zu beachten. Getestet wurden nur sehr wenige, ausschließlich streng technische Texte, die dementsprechend einen abgegrenzten Inhalt, keinen Humor, keine beabsichtigten Doppel- deutigkeiten und keine übermäßig komplexe Struktur etc. enthielten.

2.2.2 Intelligente Assistenten

Obwohl im Grunde alle Expertensysteme bereits „Assistenten“ sind, sollen die intelligenten As- sistenten hier noch einmal kurz getrennt betrachtet werden. Während die Expertensysteme im engen Sinne dem Nutzer bei seiner eigentlichen Aufgabe, insbesondere dem Umgang mit Wis- sen, helfen, bieten intelligente Assistenten zusätzliche Informationen an, übernehmen unterge- ordnete Routinearbeiten oder erleichtern die Hauptaufgabe, die weiterhin vom Menschen erle- digt wird.

Ein gutes Beispiel hierfür ist eine intelligente Assistenzfunktion eines Anwendungsprogram- mes, das die Nutzeroberfläche, also z.B. die Anordnung der Menüs, kontinuierlich an den je- weiligen Nutzer anpaßt.50 Das System wertet beispielsweise das Verhalten, die Fähigkeiten oder auch den angenommenen Zeitdruck des Nutzers aus und optimiert die Ergonomie der An- wendungsoberfläche entsprechend. Dazu nötig ist ein flexibles und lernfähiges Modell des Nut- zers51, das nicht nur Situationen und Handlungen, sondern auch Nutzerziele erkennt und unter- stützt. Geforscht wird dabei etwa an Modellen, die mit Hilfe des Bayes-Theorems dem Nutzer die wahrscheinlich nützlichste Option respektive Hilfe anbieten. Der Nutzer kann in der Regel mit einem Parameter einstellen, inwieweit er überhaupt ein Eingreifen des Systems wünscht.

Zu den bekanntesten Assistenten gehören vermutlich die (interaktiven) Hilfefunktionen, wie die der verbreiteten Office-Software. Während die Haupttätigkeit, etwa die Texterstellung, beim Nutzer liegt, kann der Assistent zu formalen Fragen, wie denen nach der Einstellung bestimmter Layoutparameter, herangezogen werden.

Wer – um ein weiteres Anwendungsbeispiel zu nennen – eine große Menge von Emails bear- beiten muß, kann gegebenenfalls auf einen intelligenten Mailassistenten52 zurückgreifen. Dieser kann die elektronischen Briefe nach gewissen Kriterien ordnen oder bestimmte Absender, The- men oder Umfänge „ausfiltern“. Je mehr ein Dokument von vornherein strukturiert und forma- lisiert ist, desto wahrscheinlicher ist es, daß Assistenten brauchbare Ergebnisse liefern. Im Falle der Email lassen sich meist viele Erkenntnisse leicht aus der vereinheitlichten äußeren Form ab- lesen: Name, Organisation und Land des Absenders, Priorität, Betreff, Länge des Textdoku- mentes und der Anhänge, Absendedatum und -uhrzeit, Rücksendeadresse sowie, ob es sich um einen Rundbrief handelt. Doch selbst für den Fall des Emailassistenten bleiben eine Menge Unwägbarkeiten wie etwa irreführende Betreffsangaben. Auch automatische Textanalyse und

-paraphrasierung53 bieten keinen hundertprozentigen Schutz gegen Fehlklassifizierungen.

Schließlich gilt es noch die zunehmende Zahl von intelligenten Assistenten zu nennen, die dem Menschen körperlich bzw. mechanisch helfen. In der Medizin sind beispielsweise Operations- systeme im Einsatz, die der ärztlichen Hand helfen, indem sie etwa ihr Zittern „herausfiltern“.

2.2.3 Intelligente Agenten

Unter einem Agenten versteht man im herkömmlichen Sinne jemanden, der im Auftrag eines anderen in dessen Interesse tätig ist. Bezogen auf die KI meint man damit ein System, das im Dienste eines anderen Systems oder des Menschen mehr oder weniger autonom handelt. Der Begriff Agent kann dabei sowohl einen ganzen Roboter als auch miteinander kooperierende Prozesse bzw. Programme bezeichnen.54 Agenten werden hauptsächlich in verteilten Systemen (Distributed Systems) eingesetzt.

Als Beispiel für das durch Agenten vollzogene „Distributed Problem-Solving“ (DPS) sei hier ein in Betrieb befindliches dezentrales Verkehrsmanagementsystem genannt, das mit Hilfe einer Vielzahl „selbständiger“ Verkehrsagenten den Straßenverkehr einer ganzen Region entscheidend verflüssigt.55 Hierbei „verhandeln“ die Agenten entsprechend der von ihnen gemessenen aktu- ellen Verkehrssituation mit anderen Agenten über mögliche Umleitungen der Fahrzeugströme auf andere Straßen. Dazu müssen jeweils neben der Beachtung der globalen Randwerte die grundsätzlich erlaubten Alternativen bewertet sowie beispielsweise auch die Folge eines „Zu- sammenschlusses“ anderer Agenten im Fall einer ständigen Ablehnung von Lasten abgewogen werden. Zur Berechnung der maximalen Nützlichkeit für den jeweiligen Agenten wird dabei beispielsweise auf die Verhandlungstheorie von J. Nash zurückgegriffen.

Ein weiteres Beispiel für Software-Agenten sind „personal communication agents“.56 Das sind Programme, die einen Teilnehmer in den weltweiten heterogenen Kommunikationsnetzen (Tele- fon, Pager, Laptop, Desktop etc.) aufsuchen und nur die jeweils von ihm als relevant angege- benen Daten oder Personen durchschalten.

Als letzte Beispielanwendung aus dem Bereich Agenten seien die persönlichen Internet- Suchagenten57 genannt. Diese ähneln den bekannten Online-Suchmaschinen. Der Unterschied besteht jedoch darin, daß die Agenten – nachdem sie ggf. bei der Formulierung der Anfragen geholfen haben – „selbständig“ auf Datensuche durch das Netz gehen und Relevantes zusam- mentragen. Dabei berücksichtigen einige von ihnen neben den explizit angegebenen Vorgaben des Nutzers auch dessen „Vorgeschichte“.58

Sowohl im Bereich Agenten als auch im Bereich Assistenten kommen zunehmend sog. „Avata- re“ zum Einsatz.59 Dies sind virtuelle und mehr oder weniger animierte Figuren, die als Bild- schirm-„Personen“ die Kommunikation mit einer abwesenden Person oder einem technischen System erleichtern sollen, insbesondere im Bereich E-Business. Dabei wird versucht, den Avataren ein möglichst menschliches Aussehen und Auftreten zu verleihen.

2.2.4 Sonstige

Besonders interessant zum Thema wissensbasierte Systeme ist die bereits angedeutete Frage nach der Lernfähigkeit von Maschinen. Was Erkennen, Deduzieren, Induzieren, Lernen und ähnliche Begriffe genau bedeuten, und ob man bei der KI im echten Sinne davon reden kann, gilt es im späteren Verlauf der Arbeit (insbesondere in Kapitel 4.2 und 4.5.4) zu untersuchen. Hier soll zunächst nur vom technischen Stand bzw. Aspekt der Lernsysteme die Rede sein.

Das KI-Teilgebiet „Maschinenlernen“ (Machine Learning) beschäftigt sich mit der Erforschung und dem Bau von Computersystemen, deren Ziel es ist zu lernen und das heißt insbesondere, aus Beispielen, Erfahrung, Einzeltatsachen oder einzelnen Begriffen selbständig Regeln und mehr oder weniger allgemeingültiges Wissen zu ermitteln. Man spricht in diesem Zusammen- hang von „induktiver Inferenz“.

Beim maschinellen Lernen kann man überwachtes und unüberwachtes Lernen unterscheiden. Überwachtes Lernen geschieht z.B. durch Vorgabe bereits klassifizierter Beispiele oder durch interaktive Kommentierung und Bewertung der durch das System vorgeschlagenen neuen „Er- kenntnisse“. Als überwachtes Lernen können auch Formen des Trainierens konnektionistischer Netze gelten (vgl. Kapitel 2.3). Unüberwachtes Lernen geschieht beispielsweise beim Cluster- ing, d.h. wenn eine Anzahl von Elementen „selbständig“ so in Gruppen geordnet wird, daß die Ähnlichkeit der Elemente innerhalb einer Gruppe maximal und über die Gruppengrenze hinweg minimal ist. Dies kann etwa durch Vergleich der Redundanzwerte der zugehörigen Attributwerte geschehen.60 Auffällig ist, daß die Ansätze des maschinellen Lernens im Gegensatz zum Vor- gehen der meisten Menschen sehr stark an der Mathematik orientiert sind. Während dies beim alltäglichen, induktiven Lernen keineswegs so nahe liegt, ist es bei einem klassischen Dedukti- onssystem direkt zu erwarten: Die Rede ist von (lernenden) Theorem-Beweisern61. Aus einer endlichen Menge von Axiomen und Ableitungsregeln werden neue Sätze bzw. Theoreme ge- schlußfolgert. Auf diesem Gebiet erzielten Computersystem eine Reihe nicht unerheblicher Er- folge. „Eines der berühmtesten Programme, geschrieben von E. Gelernter, dreht sich um das Finden von Beweisen von Sätzen in der euklidischen Geometrie. Eines Tages produzierte das Programm einen von Originalität geradezu funkelnden Beweis für einen der grundlegenden Sät- ze der elementaren euklidischen Geometrie – den sogenannten ‘pons asinorum’ oder die ‘Esels- brücke’.“62 Um die Leistung des Programmes richtig einzuordnen, müßte jedoch noch einiges gesagt werden, u.a. daß der Beweis bereits vom antiken griechischen Mathematiker Pappus ge- funden wurde.

Als letzte Anwendung aus dem weiten Gebiet der wissensbasierten Systeme sei hier das KI- Teilgebiet Spiele bzw. Computerspiele angeführt. Daß Spiele neben dem Vergnügen und Zeit-

vertreib tatsächlich Gegenstand der naturwissenschaftlichen Forschung sind63, liegt an einer Reihe höchst interessanter technischer Anforderungen, die sie stellen, und an Nebenprodukten, die wesentliche Erkenntnisse über Mensch und Maschine vermitteln können. So läßt sich aus der Erforschung der Spiele beispielsweise einiges über das menschliche Problemlöseverhalten lernen, was für die Simulation möglichst „menschlicher“ Gegner oder noch allgemeiner

„menschlicher“ Computer sehr nützlich ist. Es gibt darüber hinaus viele Parallelen, Verknüp- fungen und Übertragungsmöglichkeiten zu anderen Gebieten der KI wie etwa Sprach- und Bildverarbeitung. Für Spiele mit dem Ziel einer möglichst realistischen Simulation der Wirk- lichkeit oder anderen Formen der „virtual reality“ gilt es, neben den Modellbildungsfragen auch problematische Echtzeitanforderungen zu meistern.

Eines der am intensivsten erforschten und entwickelten Computerspiele ist das Schachspiel. Da man die Fähigkeit des Schachspielens für einen Intelligenzgradmesser hielt, ließ man schon seit den Anfängen der KI Computer gegen Menschen Schach spielen, um zu zeigen, wer wem überlegen ist.64 Als besonderer Erfolg der KI-Forschung galt vielen deshalb das Programm

„Deep Blue“, welches vor einigen Jahren den Weltmeister Kasparov schlug. Dies geschah je- doch größtenteils durch „brute force“, d.h. mit roher Rechengewalt: 512 parallele Prozessoren analysierten 200 Millionen Positionen pro Sekunde.65 Wirklich alle möglichen Positionen bzw. Stellungen zu berechnen und zu analysieren, wird jedoch aufgrund der „kombinatorischen Ex- plosion“ stets unmöglich bleiben. Immer gilt es deshalb, eine begründete Auswahl zu treffen und diese weiter zu betrachten, wie es im übrigen die echten Schachspieler auch tun.

Es sind vor allem die klassischen, auch ohne Computer durchführbaren Spiele, welche die KI- Forschung reizten und nicht selten vorantrieben. Arthur Samuel schrieb beispielsweise ein Computerprogramm, das auf Weltklasseniveau Dame spielte.66 Der Kern des Programms be- stand in einer sowohl statischen als auch dynamischen Bewertung der jeweiligen Spielstellung. Die statische Bewertung wurde für jede Stellung direkt aus einer mathematischen Funktion ver- schiedener charakteristischer Größen berechnet. Die dynamische Bewertung beurteilt die baum- artig sich verzweigenden, denkbaren Spielmöglichkeiten bis zu einer gegebenen Suchtiefe, in- dem sie diese letztlich auf eine statische Beurteilung „herunterdrückt“, da auch bei Dame nicht alle Spielstellungen bis zum Ende durchgerechnet werden können.

Erst seit kurzem ist auch das Pokerspiel Gegenstand der KI-Forschung.67 Es ist deshalb bei weitem nicht so entwickelt, wie das bei Schach der Fall ist. Das über das „Internet Relay Chat“

gegen menschliche Spieler getestete Programm „Loki“ beispielsweise erreichte durchschnittliche bis gute Spielstärke. Die technische Beherrschung des Pokerspielens ist jedoch sehr interessant und vielversprechend, da es ein gutes Beispiel für unvollständiges Wissen, mehrere miteinander wettstreitende Parteien, Risikomanagement, Modellierung von Agenten und Betrug bzw. unzu- verlässige Informationen ist. All dies erwies sich als überaus wichtig für technische Hilfen im Finanz- und Verhandlungswesen sowie für politische oder klimatische Vorhersagen, Diagno- sen, Lösungsvorschläge und viele andere Gebiete des täglichen Lebens.

Soweit zur Auswahl einiger wissensbasierter Anwendungen, die den Stand der Technik und die Breite des Themas verdeutlichen sollen. Um die Problematik der KI und ihrer Anwendungen vor der ausführlichen Besprechung im weiteren Verlauf dieser Arbeit zu verdeutlichen, sei be- reits hier einiges zum Für-und-Wider angedeutet. Für den Einsatz von KI- bzw. Experten- systemen68 spricht, daß man weniger abhängig von einzelnen Personen und insbesondere deren Schwächen wird. Die Computersysteme sind keinen Launen unterworfen, liefern gleichblei- bende und nachvollziehbare Leistungen, streiken nicht (wenn man einmal von Softwareabstür- zen absieht), vergessen nicht und können an mehreren Orten gleichzeitig genutzt werden. Au- ßerdem vorteilhaft ist, daß Expertensysteme verteiltes Wissen in einem System vereinigen und menschliche Experten entlastet werden können.

Gegen Expertensysteme (und auch andere KI-Systeme wie die aus den folgenden Kapiteln) spricht, daß ihnen nach einem stets aktuellen Vorwurf der „common sense“ und wahre Kreati- vität fehlen. „Ein menschlicher Experte löst nicht nur Probleme, er erklärt die Ergebnisse in ei- ner Weise, die nicht aus dem Aufzählen der Regeln besteht. Er lernt und strukturiert sein Wis- sen neu, weiß, wann er die Regeln zu verletzen hat, wann eine Entscheidung besonders folgen- schwer ist und wann unwichtig. Ein guter Experte erkennt insbesondere die Grenzen seines Könnens, wann er also Hilfe holen muß und wann er mit vertretbarem Risiko experimentieren darf oder das Problem von einer ganz anderen Ebene betrachten muß. Ihn interessiert nicht der Buchstabe eines Gesetzes, sondern dessen Geist.“69 Das Problem ist, ob und wenn ja, wie man das allgemeine Welt- bzw. Hintergrundwissen des Menschen dem Rechner vermitteln kann, wie es repräsentiert und ob es vom Computer gar im echten Sinne gelernt werden kann. Zur Beurteilung der eigenen Zuständigkeit und Kompetenz ist letztlich ein Wissen um sein Wissen und sich selbst, also Selbstbewußtsein nötig. Dazu wird später noch Entscheidendes zu sagen sein.

Ein allgemeineres, nicht technisches Problem der Expertensysteme besteht darin, daß der Nut- zer durch den ständigen Umgang mit dem System nicht dequalifiziert werden sollte. Es gilt vielmehr, die menschlichen Fähigkeiten durch die Technik zu unterstützen und zu fördern und sie nicht durch Passivität und Rückzug stückweise zu verlieren.

2.3 Konnektionistische Systeme

Als eine Art Konkurrenz zu den klassischen symbolverarbeitenden Systemen entstand bereits sehr früh innerhalb der KI das Teilgebiet „Konnektionistische Systeme“. Vorbild für diese Sy- steme ist das menschliche Gehirn, das stark vereinfacht als riesiges Netz aus durch Synapsen verbundenen Neuronen gesehen wird.70 Sie werden deshalb auch „Künstliche Neuronale Net- ze“ oder kürzer „Neuronale Netze“ (NN) genannt. Im Gegensatz zu symbolverarbeitenden Sy- stemen, welche sich am kalkülgeleiteten Rechnermodell von Neumanns orientieren und von ei- nem globalen Algorithmus gesteuert werden,71 bestehen die neuronalen Netze aus einer sehr großen Zahl einfacher aber stark parallelgeschalteter Einheiten. Diese werden in einer sehr weit gefaßten Analogie zum Gehirn „Neuronen“ oder technisch gesprochen „Prozessoren“ ge- nannt.72 Ihr Verhalten wird ausschließlich durch sehr wenige und einfache innere Regeln sowie den numerischen Eingang ihrer Verbindungen bestimmt. Es läßt sich also weitgehend unabhän- gig voneinander und somit auch asynchron und parallel berechnen.

Die Neuronen werden in der Regel in mehreren Schichten hintereinandergeschaltet, wie dies ex- emplarisch in der weiter unten befindlichen Abbildung 1 zu sehen ist, wobei es sich um ein sehr einfaches Netz mit nur drei Schichten handelt. Reale Netze bestehen nicht nur aus mehr Schichten und vor allem mehr Neuronen, sondern weisen ggf. auch Asymmetrien und vielfälti- ge Rückkopplungen auf. Hat das Netz nur Verbindungen der Neuronen zur nächst höheren Schicht, d.h. in Richtung Ausgang, spricht man von einem „Mitkopplungsnetz“ (engl. feed- forward net). Existieren zudem auch Verbindungen zu niedrigeren Schichten oder innerhalb ei- ner Schicht, so heißen sie „Rückkopplungsnetz“ (engl. feedback net).

Der Ausgang jedes Neurons wird durch die gewichteten Eingänge und eine jeweils festgelegte – häufig nichtlineare – Ausgangsfunktion73 bestimmt. Verwendet man beispielsweise die Sprung- funktion bedeutet dies, daß das Neuron nur dann ein konstantes Ausgangssignal erzeugt („feu- ert“), wenn die Summe der Eingänge eine festgelegte Schwelle überschreitet. Die Gewichtung der Eingänge, d.h. wie sehr ein Eingang auf den Ausgang wirkt oder mit andern Worten mit welchem Faktor er multipliziert wird, ist – zumindest während des Lernprozesses – variabel und kann auch negativ sein („Hemmung“). Sie ändert sich in Abhängigkeit etwa von der Häu-

figkeit oder Stärke der jeweiligen Eingänge und bei rückgekoppelten Systemen insbesondere in Abhängigkeit von der Richtigkeit der Ausgangssignale bzw. des Ausgangsmusters.74

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1:

Einfaches neuronales Netz mit einer verdeckten Schicht und ohne Rückkopplung

Auf eine bestimmte „Frage“ oder Situation in Form eines Eingangsmusters reagiert das System mit einem entsprechenden Ausgangsmuster, das als „Antwort“ bzw. Folgesituation gedeutet werden kann. Das „Wissen“ des Systems steckt in dem Verknüpfungsmuster der einzelnen Neuronen, mit anderen Worten in der Netztopologie sowie der Verteilung der Gewichte und Schwellenwerte. Es befindet sich also im Gegensatz zu klassischen KI-Systemen in der Regel nicht an lokalisierbaren Stellen bzw. Programmteilen, sondern steckt implizit in der verteilten Gesamtheit der Verbindungen und Neuronen.75 Deshalb spricht man auch von „Verteilter KI“ (VKI) bzw. englisch „Distributed AI“ (DAI) oder „Parallel Distributed Processing“ (PDP). Aus dieser Verteilung ergeben sich mehrere Vorteile. Zunächst folgt aus der Tatsache, daß jedes ein- zelne Neuron nur minimal zum Ergebnis beiträgt, daß der Ausfall einzelner Neuronen die Funktionsfähigkeit des Gesamtsystems in aller Regel nicht oder nur sehr unwesentlich beein- flußt.76 Zudem kann aufgrund der redundanten Vernetzung ein beschädigtes Eingangssignal trotzdem alle Ausgangsneuronen erreichen. Ein vom ursprünglichen Reiz abweichender Ein- gang kann so meist noch die richtige „Reaktion“, d.h. den gewünschten Ausgang liefern. Die Leistung konnektionistischer Systeme bricht also nicht abrupt ab, sondern verschlechtert sich stetig.

Der große Nachteil dieser verteilten und impliziten „Intelligenz“ besteht darin, daß die Lösungen bereits ab einer nicht mehr ganz trivialen Komplexität der Vernetzung für den Menschen in der Regel nicht mehr nachvollziehbar sind. Ein damit zusammenhängendes Problem ist, daß die Anzahl der Neuronenebenen sowie die Start- und Grenzwerte der Gewichte sich – wenn über- haupt – nur sehr schwer im vorhinein bestimmen lassen. Meist ist man auf Experimente ange-

wiesen.77 Trotzdem hat der Entwurf eines konnektionistischen Systems auch Vorteile gegen- über dem klassischen Verfahren, denn der Designer „braucht keine präzise, logische Beschrei- bung, nur ein informelles Verstehen der Komplexitäten des gewünschten Verhaltens, das aus- reicht, um die Gesamtarchitektur eines angemessenen neuronalen Netzes zu konstruieren“78. Neuronale Netze kommen daher besonders dort zum Einsatz, wo die Zusammenhänge zwi- schen Einzeltatsachen bzw. einzelnen Daten sehr komplex oder weitgehend unbekannt sind.79 Sie eignen sich zudem zur Funktionsapproximation, zur Klassifikation und für unscharfe Ein- gangsdaten. Sehr wenig bis gar nicht sind neuronale Netze geeignet für Probleme, die Symbol- verarbeitung und Speicher benötigen, wie etwa Ver- und Entschlüsselung oder die Faktorisie- rung von Zahlen, um nur einige zu nennen.80

Einen Versuch der wechselseitigen Ergänzung bzw. der Überwindung zwischen den Gegensät- zen der klassischen und der konnektionistischen Systeme bildet die hybride Kombination von beiden. Mit Hilfe von neuronalen Netzen werden anhand von bereits klassifizierten Beispielen und wenigen Grundregeln die neuen Regeln zu einer komplexen Datenmenge gesucht. Diese werden daraufhin in einem klassischen regelbasierten Expertensystem implementiert, welches dann die gefundenen Lösungen dokumentieren und erklären kann.81

Konnektionistische Systeme werden weniger programmiert (im konventionellen Sinne) als vielmehr trainiert. Dabei unterscheidet man überwachtes und unüberwachtes Lernen.82 Beim überwachten Lernen werden die Gewichte für vorgegebene beispielhafte Eingangsmuster so- lange „eingestellt“, bis sie das gewünschte Ausgangsmuster ergeben. Dabei gibt der „Lehrer“ entweder (exemplarisch) korrekte Antworten bzw. Ziele vor oder teilt dem Netz mit, inwieweit es sich richtig verhält. Beim unüberwachten Lernen ordnet das System die angelegten Ein- gangsmuster bestimmten, oft aktivierten Merkmalsklassen zu und kann so zunehmend auch dann noch richtige Klassenzuordnungen treffen, wenn die Merkmale nicht mehr vollkommen typisch bzw. nur noch teilweise vorhanden sind. Ein Grundprinzip des Lernens ist die

„Hebb’sche Lernregel“, nach der die Verbindung zwischen Neuronen verstärkt wird, wenn beide gleichzeitig feuern oder anders ausgedrückt ein Zusammenhang um so besser gelernt wird, je größer die Aktivierung der beteiligten Neuronen ist. Unüberwachtes Lernen bietet sich

z.B. an, um große Datenmengen systematisch zu verdichten, etwa in Form von visuellen Dar-

stellungen. Häufig werden hierzu die dimensionsreduzierenden, topologieerhaltenden „selfor- ganising maps“ von Kohonen verwendet.83

Eines der verbreitetsten überwachten Lernverfahren für Mitkopplungsnetze ist die „Backpro- pagation“.84 Hierbei wird nach der Propagierung85 eines Musters durch das Netz das erhaltene Ausgabemuster mit der erwarteten Lösung verglichen und der relative Fehler jedes Ausgabeneu- rons berechnet. Dieser wird nun rückwärts, also in Richtung Eingang in das Netz eingespeist, um mittels der Gradientenabstiegsmethode die Gewichte der einzelnen Neuronen sukzessive zu optimieren. Bei zu großen Schritten („Lernraten“) ist die Konvergenz der Fehlerfunktion nicht mehr gewährleistet, bei zu kleinen Schritten kann die Anzahl der nötigen Trainingsläufe sehr groß werden. Beim Einstellen der Gewichte kann es unglücklicherweise passieren, daß die Op- timierung in einem lokalen Minimum steckenbleibt. Auch die Wiederholung der Methode mit jeweils wechselnden, zufällig verteilten Anfangswerten der Gewichte verspricht nicht immer die Lösung, da oft eine astronomisch hohe Zahl lokaler Minima existiert. Aus der Not, diese und weitere Schwierigkeiten zu überwinden, wurde eine große Zahl verschiedener und sehr spezi- eller Lernverfahren entwickelt, da es die Lösung für neuronale Netze nicht gibt.86

Neuronale Netze eignen sich wie bereits angedeutet dazu, aus einer begrenzten Anzahl vorgege- bener und meist „verrauschter“ Einzel- bzw. Trainingsfälle zu generalisieren,87 d.h. von zufäl- ligen und unwesentlichen Merkmalen abzusehen. Dies geschieht jedoch keinesfalls automatisch in jedem neuronalen Netz, sondern ist an eine Reihe von Bedingungen geknüpft. Die Eingangs- daten müssen genügend Informationen enthalten, die auf die Ausgangsdaten verweisen, um auf einen tatsächlichen (mathematischen) Zusammenhang schließen zu können. Die Eingangsfunk- tion muß im weiten Sinne „glatt“ sein, also z.B. nicht aus pseudo-zufälligen Reihen bestehen. Es muß genügend viele und vor allem „repräsentative“ Trainingsfälle geben. Sind diese not- wendigen, jedoch nicht auch hinreichenden Bedingungen erfüllt, ist es möglich, mit einem ge- eigneten Netz durch Interpolation oder Extrapolation auf Ergebnisse außerhalb der Trainings- fälle zu schließen.

Mit neuronalen Netzen ist es also möglich, Wissen, insbesondere experimentelles Wissen, zu erwerben, zu speichern und vielfältig nutzbar zu machen. Mittlerweile werden neuronale Netze in sehr vielen verschiedenen Anwendungsgebieten eingesetzt wie etwa in der Chemie, dem Fi- nanzwesen, der Medizin, der Energieversorgung oder der Robotik.88 Einige Beispiele sollen dies im folgenden verdeutlichen, wobei es nicht verwundern darf, daß sich die Anwendungen der symbolorientierten und der konnektionistischen Systeme überschneiden.

Wie aus der Formulierung „Ein- und Ausgangs muster“ bereits zu ahnen war, sind neuronale Netze besonders gut zur optischen und akustischen Mustererkennung geeignet.89 Eine Anwen- dung ist die Kriminalistik. Dort geht es beispielsweise um die Überprüfung der Übereinstim- mung von Personen auf verschiedenen Fotos oder den Vergleich von Phantombildern mit Fo- tos. „Auf dem Gebiet der Bilderkennung lassen sich mit Hilfe von PDP Probleme lösen, die mit konventionellen Methoden zu überwältigenden Rechenzeiten führen: bekannte, gelernte Muster können zuverlässig auch in Variationen wiedererkannt und bei Unvollständigkeit ergänzt wer- den.“90 Das gleiche gilt natürlich auch für akustische Muster, etwa wenn der Nachweis gefragt ist, daß zwei u.U. beschädigte oder entstellte Sprachproben von derselben Person stammen.

Eine besonders naheliegende Anwendung ist die automatische Handschriftenerkennung. Als Beispiel kann hier die schweizerische Helvetia Krankenkasse dienen.91 Sie ist eine der landes- weit größten und bearbeitet an jedem Arbeitstag etwa 25.000 Anträge. Um dieser Flut von An- trägen gerecht zu werden, wurde ein automatisches Handschriftenerkennungssystem auf der Basis eines neuronalen Netzes eingerichtet und einem intensiven Training mit unzähligen Hand- schriften unterzogen. Das System erkennt die in das Formular eingetragenen Buchstaben und Zahlen so gut, daß nur etwa 3 von 10.000 nicht (richtig) erkannt werden und manuell nachge- bessert werden müssen. Die Bearbeitungsgeschwindigkeit pro Angestelltem stieg von 150 auf 400 Anträge pro Stunde, so daß keine Anträge mehr außer Haus gegeben werden müssen und die gesamte Anlage sich innerhalb von nur acht Monaten bezahlt machte.

Ein weiteres Beispiel für den erfolgreichen Einsatz von neuronalen Netzen ist das größte Was- serkraftwerk Österreichs, die Tauernkraft AG in Salzburg. Aufgrund der riesigen Wassermen- gen kommt es bei Staudämmen zu dynamischen Deformationen, die u.a. von der Wasserhöhe und der Temperatur abhängen. Um die Sicherheit zu gewährleisten, ist es wichtig, die Verfor- mungen und Verschiebungen frühzeitig zu erkennen und soweit möglich zu prognostizieren.92 Dazu wurden Modelle entwickelt und mit tatsächlichen Meßdaten verglichen. Wenn die Werte signifikant voneinander abweichen, sind – u.U. kostspielige – Untersuchungen nötig. Um die- se Kosten zu reduzieren wurde ein neuronales Netz installiert, welches die Deformationen an- hand der verfügbaren Eingangsgrößen wie insbesondere Wasserhöhe und Lufttemperatur mo- delliert und vorhersagt. Dabei stellte sich eine deutliche Verbesserung der Ergebnisse gegenüber den konventionellen statistischen Methoden (wie z.B. „multiple regression“) heraus.93 Der ab- solute Fehler betrug, abhängig vom Vorhersagezeitraum, zwischen 0,1 und 1 % im Gegensatz zu 2-3 % bei den bisher verwendeten statistischen Modellen. Dies zeigt die Leistungsfähigkeit von neuronalen Netzen, durch Extrapolation verläßliche Prognosen zu erstellen.

Die Möglichkeiten, mit neuronalen Netzen Roboter zu steuern und sie aus Beispielen lernen zu lassen, demonstriert u.a. ein Projekt des Deutschen Zentrums für Luft- und Raumfahrt (DLR).94 Es galt die Genauigkeit von Roboterbewegungen angesichts hoher Geschwindigkei- ten und dynamischer Effekte wie beispielsweise Überschwingen zu verbessern. Die dazu ent- wickelte Methode HLCR (Hierarchically Learning Control of Robots) wurde in konventionellen Industrierobotern wie dem Manutec R2 implementiert. Nachdem dem lernenden Feedforward- Controller die auszuführenden Wege einige Male vorgegeben wurden, konnten die mittleren Abweichungen der Bewegung um den Faktor 20 gegenüber der herkömmlichen Programmie- rung reduziert werden.

Schließlich sei noch eine interessante Anwendung der neuronalen Netze aus dem Bereich der Kunst genannt. An der Universität von Colorado (USA) wurde in Zusammenarbeit der Com- puterwissenschaft und der Kognitionswissenschaft ein konnektionistisches System namens CONCERT entwickelt.95 Das „recurrent autopredictive connectionist network“ wird mit klassi- scher Musik trainiert und kann daraufhin fehlende Noten oder Passagen ergänzen sowie mehr oder weniger neue Stücke erzeugen. Zum Lernvorgang und einigen Ergebnissen heißt es:

„Learning the examples involves predicting a total of 1,260 notes altogether. CONCERT was trained with 40 hidden units, 35 with t = 0 and 5 with t = .8, for 3000 passes through the training set. The learning rate was gradually lowered from .0004 to .0002. By the completion of training, CONCERT could correctly predict about 95 % of the pitches and 95 % of the dura- tions correctly.“96 Die Stücke waren gelegentlich „angenehm“ und wurden von Testpersonen gegenüber den mit herkömmlichen Übergangswahrscheinlichkeitstabellen erzeugten Verglei- chen bevorzugt.97 Sie erwiesen sich jedoch insgesamt als sehr beschränkt, u.a. weil es ihnen an einer globalen Kohärenz mangelte.

2.4 Bildverarbeitende Systeme

Unter bildverarbeitenden Systemen versteht man technische Systeme, die stehende oder be- wegte Bilder von einer Darstellungsform in eine andere überführen können, insbesondere um sie inhaltlich verändern oder auswerten zu können.98 Am Anfang der Entwicklung standen Sy- steme der Bild be arbeitung. Sie dienten der Konstruktion, Rekonstruktion und verschiedenen Bildmanipulationen wie etwa der Farb-, Kontrast- und Qualitätsveränderung. Als wichtiges Teilgebiet der KI haben die bild ver arbeitenden Systeme von heute das ehrgeizige Ziel, den menschlichen Gesichtssinn zu reproduzieren, befassen sich also mit dem künstlichen Sehen. Dabei geht es hauptsächlich um die Extraktion und Analyse sowie Erkennung und ggf. Inter- pretation bestimmter Objekte, Muster oder Szenen aus stehenden oder bewegten Bildern. Diese ist erst durch die Digitalisierung, d.h. zahlenmäßige Erfassung und Beschreibung eines Bildes möglich geworden, die insbesondere mathematische Analysemethoden erlaubt.99

Für die Bilderkennung wurden verschiedene Methoden entwickelt. Man kann diese in klassi- sche, hierarchische Bottom-up-Methoden100 und „ganzheitliche“ konnektionistische Methoden (vgl. Kapitel 2.3) unterteilen. Bei den Bottom-up-Methoden arbeitet sich die Software von un- ten stückweise an das Ergebnis des zu erkennenden Inhaltes heran. Zuerst wird dabei das Bild in viele kleine Segmente eingeteilt, die sich aus markanten Punkten, Kanten oder anderen Berei- chen ergeben. Einzelne Bildelemente werden sukzessive erkannt und ggf. zu einem größeren zusammengefaßt. Mit Hilfe des Wissens über mögliche Objektteile sowie mittels eines Situa- tions- und wenn nötig Weltmodells geschieht dann letztlich die Erkennung bzw. Interpretation des vorgelegten Bildes oder der Szene. Dazu werden auch „Verfahren der Iteration zwischen Hypothesenbildung und Verifikation“101 verwendet.

Je nach der Vielfalt und Art der zu erwartenden Bild- und Szenenelemente sowie der Anwen- dung der Ergebnisse sind unterschiedliche Erkennungs- bzw. Zuordnungsverfahren entstanden. Neben dem direkten Vergleich mit bereits vorliegenden Mustern oder der Hugh-Trans- formation, die beide sehr rechenzeitintensiv sind, besteht auch die Möglichkeit der heuristischen Suche. Diese birgt allerdings die Gefahr, nur ein lokales und nicht das globale Optimum der Zuordnung zu einem Ergebnis zu finden. Diese Nachteile versucht man z.B. durch den Ansatz der „genetic algorithms“102 bzw. des „Evolutionary Computing“ zu minimieren. Dieser Ansatz, der für verschiedenste Optimierungsprobleme verwendet wird, besteht in der Abbildung der (vermeintlichen) natürlichen Evolution auf die Computertechnik. Die einzelnen Teile einer mög-

lichen Lösung werden durch Mutation und Cross-Over bzw. Rekombination immer wieder ver- ändert und bewertet, bis schließlich eine genügend „starke“ bzw. gute Lösung übrigbleibt.

Zu den allgemeinen Problemen der Bildverarbeitung gehört, daß riesige Datenmengen (trotz Kompressionsalgorithmen im Bereich von einigen MB/s) so reduziert bzw. verdichtet werden müssen, daß sie, insbesondere vom Menschen, sinnvoll interpretiert und weiterverarbeitet wer- den können. Obwohl die Realität farbig ist, wird deshalb zur Komplexitätsreduzierung u.a. auf Graustufenmodelle zurückgegriffen. Da eine Kamera nur ein zweidimensionales Bild liefert, ist es für dreidimensionale Anwendungen wie etwa Robotersteuerungen notwendig, analog dem menschlichen Sehen mehrere Bilder aus verschiedenen Perspektiven bzw. Kameras zu verglei- chen und in ein entsprechendes 3D-Modell der Wirklichkeit umzurechnen. Dabei treten weitere Schwierigkeiten auf, wie die der Unschärfe, Verdeckung, Verzerrung, Perspektive, Schatten, Zoom, Wackeleffekte und dergleichen. Inwieweit Bilderkennung eine Erkenntnis der Welt – etwa elementarer physikalischer Gesetze – voraussetzt, soll später besprochen werden. An die- ser Stelle gilt es, aktuelle Anwendungen vorzustellen.

Ein gutes Beispiel für die Möglichkeiten moderner bildverarbeitender Systeme ist die automati- sche Erkennung von Straßen- und Verkehrszeichen.103 Dies ist eine wichtige Komponente für etwaige spätere semi-automatische Fahrzeuge. Die hierzu verwendete Methode besteht in einer Zuordnung der – glücklicherweise gut bekannten und beschriebenen – Straßenschilder in be- stimmte Klassen. Die Entscheidung, um welches Schild es sich handelt, wird anhand eines hierarchischen Baumes der Schilderklassen getroffen. Dieser unterscheidet zwischen Farben bzw. Farbkombinationen, Art der Beschriftung sowie Form des Schildes und der ggf. darauf befindlichen Symbole. Dabei besteht eines der Hauptprobleme darin, das Schild als solches in dem gegebenen Straßenbild zu erkennen, d.h. es vom Hintergrund zu trennen. Das System be- findet sich allerdings noch im Pilotstadium, so daß über die Erkennungsquoten keine Angaben gemacht werden können. Ein ähnliches Anwendungsbeispiel ist die automatische Erkennung von Verkehrssituationen aus Videosequenzen.104 Das System erfaßt und prognostiziert die Po- sition, Orientierung sowie die Geschwindigkeit und den Winkel der Geschwindigkeit105 von Fahrzeugen. Dabei greift es auf Videoaufnahmen zurück, die von einem festen Standpunkt oberhalb einer Kreuzung geliefert werden. Die Methode besteht in der Einordnung der Situation in Situationsgraphen mit Hilfe von Fuzzy-Logik.

Seit längerer Zeit im Einsatz sind bildverarbeitende Systeme in der Qualitätsprüfung der Indu- strie. Die von ihnen gesteuerte automatische Prüfung betrifft zum Beispiel produzierte Oberflä- chen. Diese werden auf Unebenheiten, Kratzer, Inhomogenitäten etc. hin untersucht.106 Eben- falls bewährt haben sich die Systeme zur automatischen Müllsortierung, etwa im Rahmen des

„Grünen Punktes“. Die auf einem Band vorbeilaufenden Müllteile werden zur späteren Wieder- verwertung teilweise automatisch nach verschiedenen Materialien sortiert. Hauptkriterien sind neben dem Gewicht die Größe und Form, aus denen man auf Grund der Erfahrung meist auf das Material schließen kann. Dabei stellt sich bei der Auslese nach dem Kriterium Form oft das sog. „bin-picking problem“.107 Es betrifft all jene Körper, die aus verschiedenen Blickrichtun- gen eine stark unterschiedliche Gestalt aufweisen und deshalb schwer zu identifizieren sind. So hat etwa ein Zylinder aus gewissen Perspektiven eine runde und aus anderen eine rechteckige Form. Als Lösung zu diesem Problem werden z.B. mehrere Kameras eingesetzt.

Als abschließendes Beispiel für ein bildverarbeitendes System soll hier die automatische Erfas- sung und Klassifizierung von Fotos und Zeichnungen aufgeführt werden.108 Mit dem in Java und C++ entworfenen System SISTER (System for Image Storage and Retrieval) können Ent- wurfszeichnungen und Fotos von Modedesignern in einer Datenbank anlegt und nach verschie- denen Kriterien durchsucht werden. Zu den Kriterien gehören Merkmale wie beispielsweise farbig oder schwarzweiß, kurzes oder langes Kleid sowie von welchem Zeichner die Bilder stammen. Bei der Erfassung werden die Bilder dazu auf Farbe, Farbverteilung, Helligkeit, Sät- tigung, Granularität, Varianz u.ä. untersucht und schrittweise in einzelne Segmente wie Hinter- grund, Körper, Kopf, Haare, etc. unterteilt. Die automatische Klassifizierung geschieht u.a. durch einen induktiven Algorithmus anhand einer Reihe von Trainingsbeispielen. Die durch- schnittliche Fehlerrate bei der Zuordnung einer Zeichnung zu einem Designer lag beim vorlie- genden System bei erstaunlich niedrigen 2 %.109

Das nächste Kapitel widmet sich den sprachverarbeitenden Systemen. Diese weisen eine Reihe von Ähnlichkeiten zu den bildverarbeitenden Systemen auf. Zudem gibt es einige Teilgebiete, die beiden Systemen zugeordnet werden können, wie beispielsweise die Erkennung gedruckter und handgeschriebener Schrift bzw. Schriftsprache, die im übrigen eine längere Tradition als die Bilderkennung hat.

2.5 Sprachverarbeitende Systeme

Die Definition und Erläuterung von sprachverarbeitenden Systemen kann analog zu dem in Ka- pitel 2.4 über Bildverarbeitungssysteme Gesagten geschehen. Unter sprachverarbeitenden Sy- stemen versteht man dementsprechend technische Systeme, die Sprache von einer Darstellungs- form in eine andere überführen können, insbesondere um sie inhaltlich auswerten oder verän- dern zu können.110 Als wichtiges Teilgebiet der KI hat die Sprachverarbeitung, die auch unter dem Begriff „Computerlinguistik“, „Linguistische Informatik“ oder englisch „Natural Language Processing“ (NLP) bekannt ist, das ehrgeizige Ziel, den menschlichen Gehörsinn, das Sprach- verständnis sowie die Spracherzeugung zu reproduzieren. Dafür gibt es vor allem zwei Gründe. Zunächst würde dies die Mensch-Maschine Interaktion i.d.R. wesentlich erleichtern und be- schleunigen. Die Devise ist: Weil die Menschen nicht die Programmiersprachen lernen wollen, muß der Computer die Umgangssprache lernen. Entscheidender dürfte sein, daß die Sprache von vielen für das entscheidende Merkmal der (menschlichen) Intelligenz gehalten wird.111 Ihre Beherrschung wäre demnach ein Meilenstein auf dem Weg zur wahren „künstlichen Intelli- genz“, ja zum „künstlichen Menschen“ (vgl. Kapitel 2.6). Subgebiete der Sprachverarbeitung sind das Verständnis zusammenhängender Sprache, im besonderen der Umgangssprache, die Umsetzung von Sprache in Schrift und andersherum, die Spracherzeugung sowie Sprach- bzw. Textanalyse und -bearbeitung z.B. Paraphrase oder Übersetzung.

Das zu den Methoden der Bildverarbeitung Aufgeführte gilt in analoger Weise für die Sprach- verarbeitung, da es beiden um die Analyse der – in der Regel digitalisierten – Sinneseindrücke geht. Auch für die Spracherkennung gibt es klassische und konnektionistische Verfahren, wo- bei der Schwerpunkt hier auf den ersten liegt. Auf den ersten Blick könnte es scheinen, daß die Spracherkennung einfacher als die Bilderkennung ist, da es für die Sprache im Gegensatz zu den Bildern eine einheitliche Grammatik gibt. Dieser Eindruck täuscht jedoch, da die Gramma- tik erstens komplexer ist als sie scheint, und da vor allem zweitens das Hauptproblem nicht bei der Grammatik und Syntax sondern der Semantik liegt. Dabei ist die Tatsache der im Vergleich zu Videodaten wesentlich geringeren Datenraten von Audiosignalen nur bedingt hilfreich. Er- hebliche Schwierigkeiten bereiten z.B. wechselnde Tonhöhen, Dialekte, Hintergrundgeräusche, Mehrdeutigkeiten112, Metaphern, Wortspiele und Reime oder die Frage, worauf sich Prono- men, relative Adjektive etc. beziehen. Ebenfalls ungelöst ist im allgemeinen das Problem, auf welche vorherigen Sätze und mehr noch auf welches implizite Metawissen Bezug genommen wird. Echte Kommunikation zeigt zudem häufig eine gewisse Kontextabhängigkeit und basiert

i.d.R. auf einem Wissen über den „Sender“ und den „Empfänger“.113

Trotz der genannten Schwierigkeiten gibt es mittlerweile eine weite Palette von Anwendungs- beispielen. Der Kern der Spracherkennung, die den Schwerpunkt der Sprachverarbeitung bil- det, ist der sog. „Parser“114. Dieser ist für die Zerlegung der Sätze und deren (formale) Inter- pretation zuständig. Die Parser arbeiten sich meist stufenweise von der Wort- über die Satzteil- und Satz- bis zur Bedeutungsebene herauf.115 Wie weit der Stand der Technik bereits ist, zeigt sich auch daran, daß nicht nur akademische, sondern bereits eine Reihe kommerzieller Spra- cherkennungssysteme für PCs existieren. Als bekanntestes Beispiel kann das System „Via- Voice“ von IBM gelten.116 Es umfaßt einen erweiterbaren 30.000 Wörter starken Grundwort- schatz und weist nach eigenen Angaben recht hohe Erkennungsraten (ca. 94 %) auf. Dazu ist allerdings eine nicht unerhebliche Trainingsphase mit 265 vorzulesenden Sätzen nötig, in der das System sich auf den Nutzer „einschießt“.

Oft liegt die Sprache bereits in geschriebener Form, d.h. als Text vor, so daß es „nur“ noch um deren Erkennung geht. Als Beispiel hierfür kann das lernende Texterkennungssystem des

„Knowledge Engineering Lab“ an der Universität Freiburg gelten.117 Dieses versucht, unbe- kannte Wörter z.B. dadurch zu erkennen, daß sie auf Kompatibilität mit gegebenen linguisti- schen und strukturellen Regeln und Mustern verglichen werden. Sie werden in Form von plau- siblen Hypothesen verschiedenen Kategorien zugeordnet, von denen schließlich die wahr- scheinlichste (u.a. durch heuristische Methoden, d.h. vereinfacht gesagt „Faustregeln“) heraus- gesucht wird. Ein ähnliches Beispiel ist das automatische Einscannen, Erkennen, Einordnen und Verarbeiten von Dokumenten wie etwa Geschäftsbriefen, das sich hauptsächlich an deren Layout orientiert.118

Auch der umgekehrte Fall, d.h. die Umwandlung von Text in Sprache, ist eine wichtige An- wendung im Bereich der sprachverarbeitenden Systeme.119 Ein Beispiel ist das an der Univer- sity of Western Ontario in Kanada entwickelte, automatische Vorlesesystem. Es lernt, neue Wörter auszusprechen und bietet sich für vielfältige Nutzungen, wie etwa die Abfrage von schriftlichen Nachrichten über mobile Telefone, an. Das Problem besteht darin, aus den er- kannten Buchstaben die richtigen Phoneme und Silben zu bilden und sie entsprechend zu beto- nen. Benutzt werden dazu u.a. Tabellen mit erlaubten Buchstabenkombinationen und deren Häufigkeit sowie ein Zuordnungsalgorithmus, der auf einem Entscheidungsbaum basiert. Das System von Ling und Zhang erreicht dabei nach einer Trainingsphase mit 80 % der Wörter bei den unbekannten anderen 20 % der Wörter auf der Phonemebene zu 95 % und auf der Wor- tebene zu 80 % richtige Aussprache.

Wie stark an sprachverarbeitenden Systemen geforscht wird, zeigt auch das internationale, in- terdisziplinäre Langzeitprojekt „Verbmobil“, dessen Ziel die sprecherunabhängige Erkennung spontaner Sprache, die Übersetzung in eine andere Sprache (z.B. Englisch-Deutsch) und die Pronouncierung bzw. Ausgabe der Übersetzung ist. Problematisch ist u.a. das bisher noch sehr stark eingeschränkte Vokabular, da es folgendes Ziel zu erreichen gilt: „Processing time that is less than six time the length of the input signal“120. Von einer Echtzeit-Dolmetschung kann also bisher nur geträumt werden. Aktuelle Zahlen und Ergebnisse finden sich im Internet auf den Seiten des „Deutschen Forschungszentrums für Künstliche Intelligenz“.121

Bereits im Einsatz befinden sich Übersetzungsprogramme, die z.B. abgelesene Wettervorhersa- gen mit ihrem sehr beschränkten Wortschatz von einer Sprache in die andere übersetzen. Mitt- lerweile existieren auch automatische Textübersetzungsprogramme für PCs. Besonders interes- sant ist das von Alta Vista kostenlos zur Verfügung gestellte Übersetzungsprogramm, mit dem online von und in Deutsch, Englisch, Französisch und andere Sprachen übersetzt werden kann.122 Dieser Service, der sogar ganze Internetseiten übersetzt, liefert jedoch teilweise nur mäßige Übersetzungen, die es ggf. noch nachzubessern gilt. Microsofts „Word“ bietet – zu- mindest für die englische Sprache – eine Grammatikprüfung an. Dabei wird der Benutzer auf mögliche Inkonsistenzen, etwa im Kasus oder Tempus, hingewiesen, oder es werden ihm mögliche, eventuell passendere synonyme Ausdrücke angeboten. Die Qualität befindet sich al- lerdings noch lange nicht auf dem wünschenswerten Niveau.

[...]


1 Damit soll nicht gesagt werden, daß nicht auch Ansätze vertreten werden, die beide Seiten berücksichtigen.

2 Diese übertriebenen Erwartungen bzw. Hoffnungen erinnern an eine frühe Einschätzung der Atomkraft, nach der diese angeblich alle Energieprobleme lösen sollte.

3 „Die Bemühungen um die KI bringen uns vielleicht so weit, daß wir eines Tages Intelligenzen gegenüber- stehen, die über die ihrer Schöpfer hinausragen und eingreifen können, um einige der dauernden, sogar lethalen Probleme zu lösen, die sich die Menschen selbst geschaffen haben, wozu sie aber nicht schlau ge- nug sind, sie zu lösen. [...] Eine weniger optimistische Anschauung besagt, daß wir in der Tat wohl Proble- me schaffen können, die zu lösen wir nicht schlau genug sind, daß aber eine KI vielleicht genau zu dieser Kategorie gehört.“ McCorduck 116.

4 In dem bekannten Science-fiction-Film „Matrix“ (USA 1999, Regie: Andy und Larry Wachowski) geht es soweit, daß die KIen gegen die Menschen Krieg führen und sie versklaven.

5 Vgl. zur vermeintlichen künftigen (evolutionären) Überlegenheit die teilweise kritischen Darstellungen in McCorduck 322 ff.; McCorduck in: Graubard 87; Moravec 1999; Weizenbaum 1978, 97 ff., 105 f., 187 ff. und 268 ff.; Schäfer 105 f.; Leidlmair 161; Dreyfus/Dreyfus in: Graubard 19 und Hofstadter 723 f.

6 Die Frage, ob Computer denken können, ist vor allem durch Alan Turing bekannt geworden. Vgl. Turing in: Boden 1990, 40 ff.

7 Siehe zu Gründen für die philosophische Beschäftigung mit dem Thema KI auch Daiser 75 ff.

8 Haugeland 9.

9 Wandschneider in: Kerner 119. Vgl. zu den möglichen Auswirkungen auf das Weltverständnis auch Schank 274.

10 Vgl. zum Wandel des Weltbildes in dem Sinne, daß der Mensch nicht mehr im Zentrum steht und nicht mehr die einzige Intelligenz ist, etwa McCorduck 319.

11 Weizenbaum 1978, 21.

12 Zu einer Zusammenfassung der Geschichte der KI-Forschung siehe McCorduck; Leidlmair 28; Weide 19 ff.; Dreyfus/Dreyfus in: Graubard sowie Hofstadter 640 ff. Meilensteine der KI-Entwicklung finden sich auch unter ftp://ftp.cs.ucla.edu/AI/timeline.txt.

13 Zur Kybernetik siehe Beck in: Schauer/Tauber, Hesse 129 und Brugger in: Brugger 211 f.

14 Die Übersetzung von „Intelligence“ in das deutsche Wort „Intelligenz“ ist zwar umstritten, trifft jedoch letztlich den Kern des KI-Projektes. Zum Begriff der KI siehe Haugeland 2; Gitt 1989, 1 ff.; Schäfer 103 ff.; Leidlmair 13; Bruns 1 f.; Soko- lowski in: Graubard 45 ff. und Simon 3 ff.

15 Im folgenden wird das Wort „intelligent“ zur Verbesserung des Leseflusses nicht jedesmal in Anführungs- striche gesetzt, obwohl das Ergebnis der philosophischen Kritik an der KI dies im allgemeinen nahelegen würde.

16 Vgl. Boden 1990, 1 ff.; Leidlmair 34; Daiser 8 ff. und Foerst 150 ff. Fernziel ist der Bau eines künstlichen Menschen und das vollständige Verständnis des Menschen und seiner – insbesondere geistigen – Fähigkei- ten.

17 Für den Fall der Biologie heißt es bei Herbig und Hohlfeld in diesem Zusammenhang treffend: „Die evoluti- onsbiologische Erforschung des Menschen beansprucht, mit einer ‚Evolutionären Ethik und Erkenntnistheo- rie‘ Philosophie und Ethik auf ein naturwissenschaftliches Fundament zu stellen.“ Herbig/Hohlfeld 17.

18 Vgl. Hofstadter 744 f., Haugeland 2 und kritisch Degele 224 ff.

19 Vgl. zu den beiden Begriffen Kapitel 2.6 und 3 sowie Schäfer 104 f.; Searle in: Boden 1990 und Penrose 1995, 14 ff.

20 Dementsprechend kann schwache KI den menschlichen Geist und seine Fähigkeiten wie die Intelligenz letztlich nicht erklären und ist somit keine Konkurrenz für die Philosophie.

21 Vgl. Daiser 70.

22 Schrödinger 1987, 29 f.

23 Vgl. Penrose 1995, 55 ff.

24 Siehe Kapitel 4.1.2 und 4.2.

25 Einen Überblick über rund 100 aktuelle deutsche KI-Forschungsprojekte inklusive vorläufiger Ergebnisse, ausgewählter Literaturempfehlung und Kontaktadressen gibt Herzog/Günter 251 ff.

26 In der Regel wird in Klammern angegeben, wann die Seiten aufgerufen wurden. Sollten sie nicht mehr unter der angegebenen Adresse zu finden sein, bietet es sich an, die Adresse sukzessive von hinten jeweils bis zum nächsten „/“ zu verkürzen oder unter dem entsprechenden Schlagwort auf dem genannten Server zu suchen. Zu den besten Einstiegspunkten zum Thema KI gehören die Seiten der American Association for Artificial In- telligence (AAAI). Sie sind zu finden unter www.aaai.org/pathfinder/pathfinder.html.

27 Zu möglichen Aufteilungen siehe Bruns 5 ff., Hofstadter 641 ff., Hesse 126 ff. und www.aaai.org.

28 Eine sehr große Zahl von KI-Programmen zu den im folgenden genannten Gebieten der KI kann für die ver- schiedensten Plattformen über ftp aus dem Internet – oft kostenlos – heruntergeladen werden. Für die entspre- chenden Adreßangaben siehe das FAQ (Frequently Asked Questions) „WWW & FTP Resources“ der Internet- Newsgroup „comp.ai“. Die neueste Version ist auffindbar unter www.faqs.org.

29 Zum Vergleich konnektionistischer und symbolischer Informationsverarbeitung siehe Kapitel 3.1 und 3.2 sowie Helm.

30 Siehe dazu etwa Aida/Ohsuga in: Mira et al. 47 ff.

31 Hesse 70.

32 Vgl. Brewka et al. 159-194, Hesse 257 und Hofstadter 655 ff. Zur meist empiristischen Verkürzung des Be- griffes Wissen und einer kritischen Klarstellung siehe Kapitel 4.5.4. Zum „Frame Problem“, nach dem ein System letztlich nicht das für eine Situation relevante Wissen herausfinden kann, weil es dazu immer bereits die relevanten Regeln kennen müßte, siehe Dennett in: Boden 1990, 147 ff. und Churchland 392 ff.

33 Abgeleitet vom engl. inference, d.h. Schlußfolgerung. Meist ist damit das deduktive Schlußfolgern gemeint.

34 Zum Thema Expertensysteme siehe Leidlmair 18 ff., Weide 33 ff., Gitt 8 ff. und Bruns 5 ff. Zu soziologi- schen Aspekten von Expertensystemen siehe Degele.

35 Siehe zu Diagnosesystemen z.B. Puppe oder Hucklenbroich/Toeller.

36 Vgl. Herzog/Günter 201 ff.

37 Leidlmair 20.

38 Vgl. Mercer/Neufeld 322 ff.

39 Vgl. Mira et al. 377 ff. Für die mathematische Umsetzung umfaßt der Wertebereich dann beispielsweise nicht mehr die binären Zahlen 0 oder 1, sondern kontinuierlich Werte zwischen 0 und 1.

40 Von engl. fuzzy, d.h. vage, undeutlich, unscharf.

41 Vgl. dazu auch Kapitel 2.4.

42 Vgl. Kruse/Borgelt in: Herzog/Günter 3 ff.

43 Vgl. den Beitrag „Expert Systems Couple with Spacecraft for more Reliable Flights“ by Darrell Schuh, www.cbu.edu/~pong/engm624/624dws1.htm (aufgerufen im Dezember 1999).

44 Vgl. hierzu Bruns 59 ff.

45 Zur philosophischen und insbesondere erkenntnistheoretischen Bedeutung der Intuition siehe Kapitel 4.2.3 und 4.5.4.

46 Vgl. dazu und zum Problem der Integration mehrerer dezentraler Wissensbasen Brewka et al. 325 ff.

47 Vgl. Wielinga/Schreiber in: Mira et al. 1 ff., wo dies am Beispiel einer Ölplattform erläutert wird. Die Pro- blematik liegt nebenbei bemerkt mit daran, daß die Naturwissenschaften die Welt nicht unter dem einen We- sensaspekt betrachten, sondern unter vielen Einzelaspekten, was zwar berechtigt und meistens auch gefordert, aber eben nicht ohne Nebenwirkungen ist.

48 Vgl. Schlese in: Rammert 359 ff.

49 Vgl. Barker et al. in: Mercer/Neufeld 60 ff.

50 Vgl. Weis in: Brewka et al. 361 ff.

51 Vgl. Brown et al. in: Mercer/Neufeld 378 ff. und Pohl in: Herzog/Günter 93 ff. Zur dynamischen Nutzermo- dellierung siehe auch Ardissono/Torasso in: Horn 621 ff.

52 Vgl. Lamprecht 27 ff.

53 Siehe dazu Abu-Hakima et al. in: Mercer/Neufeld 111.

54 Vgl. Hesse 5.

55 Vgl. Ossowski et al. in: Herzog/Günter 105 ff.

56 Vgl. Abu-Hakima et al. in: Mercer/Neufeld 99 ff.

57 Vgl. Lamprecht 57 f. und Walke in: Kerner/Kegler 282 ff.

58 Vgl. Shin/Chu in: Mercer/Neufeld 45 ff. und www.suchfibel.de (Suchagenten).

59 Siehe zu Avataren: www.ccon.org und www.vplaces.net.

60 Vgl. Mercer/Neufeld 273 ff. Zu einer weiteren Methode der „lernenden“ Klassifikation von – teilweise inkon- sitenten – Daten siehe auch Mercer/Neufeld 426 ff. Zu möglichen Induktionsalgorithmen siehe Mercer/ Neu- feld 442 ff. und 455 ff.

61 Siehe dazu Brewka et al. 63-122.

62 Hofstadter 645.

63 Die „games“ haben immerhin ihre eigene Newsgroup als eine von elf Untergruppen der internationalen wis- senschaftlichen Newsgroup „comp.ai“ (Abkürzung für Computer.Artificial Intelligence).

64 Wenn die verwendete Theorie bzw. Strategie (wie etwa brute force) jedoch nicht der menschlichen Strategie entspricht, kann man von erfolgreichen Algorithmen und Implementationen nur wenig über Intelligenz ler- nen. Vgl. Marr in: Boden 1990, 143 f. Zur Kritik der Schachspielintelligenz der Rechner siehe neben der phi- losophischen Untersuchung der Intelligenz in Kapitel 4.5.4 auch Weizenbaum 1993, 48 f.

65 Vgl. Katsenelinboigen 64 ff.

66 Vgl. Hofstadter 644 f.

67 Vgl. Billings et al. in: Mercer/Neufeld 228 ff.

68 Vgl. Leidlmair 20.

69 Bruns 65.

70 Zu den Anfängen des Konnektionismus, seinen Zielen und dem durch ihn eingeleiteten Paradigmenwechsel siehe Leidlmair 192 ff.

71 Vgl. Hesse 122.

72 Von einem vollständigen Verständnis der Struktur und Leistung des Gehirns ist man noch sehr weit entfernt. Die künstlichen „Neuronen“ stellen in vielen Hinsichten eine so große Vereinfachung der natürlichen Ver- hältnisse dar, daß Parallelen und Rückschlüsse stets mit großer Vorsicht zu betrachten sind. Vgl. dazu auch Kapitel 3.3.

73 Eine vorteilhafte Ausgangsfunktion ist – insbesondere für die verdeckten Schichten – die Funktion tanh(x), da sie beschränkt und differenzierbar ist und zudem sowohl positive als auch negative Werte liefert. Dies ermög- licht gute Trainingsergebnisse beim (weiter unten beschriebenen) Trainieren des Netzes, etwa durch „Back- propagation“. Auch (pseudo-)zufälliges und stochastisches Feuern ist durch entsprechende Algorithmen bzw. Funktionen erzeugbar. Für Fuzzy Logik mit neuronalen Netzen siehe Braun 69 ff. und Hoffmann 8 ff.

74 Zum Prinzip der „Kompetition“, bei dem sich einzelne Muster gegen anfangs ähnliche „starke“ Alternativmu- ster auf deren Kosten durchsetzen, siehe Dorffner 55 ff. und Hoffmann 65 ff. Zu „Winner-takes-all“-Prinzipien siehe auch Braun 38 ff.

75 Vgl. Bruns 80 ff. Zur expliziten Wissensrepräsentation in neuronalen Netzen siehe Kapitel 3.2.

76 Darauf wird in analoger Weise zurückgeführt, weshalb der Tod von ca. tausend Gehirnzellen pro Tag die Funk- tion des menschlichen Hirns nicht gefährdet. Vgl. Bruns 80 und Cowan/Sharp in: Graubard 86 ff.

77 Vgl. Draghici in: Mercer/Neufeld 285 ff. und für einige Faustregeln zum Entwurf das FAQ der Internet- Newsgroup comp.ai.neural-nets (Teil 3). Dieses läßt sich aus dem Internet laden, z.B. unter www.faqs.org oder direkt ftp://ftp.sas.com/pub/neural/FAQ.html (September 1999). Zu einem computergestützten evolu- tionären Netzwerkoptimierer siehe Braun.

78 Cowan/Sharp in: Graubard 117.

79 Vgl. Brasil et al. in: Mira et al. 408 ff.

80 Vgl. das FAQ der Internet-Newsgroup comp.ai.neural-nets (Teil 1).

81 Vgl. Brasil et al. in: Mira et al. 408 ff. sowie Hsu/Ho in: Mira et al. 503 ff. und siehe zum Verhältnis von konnektionistischen Systemen und Expertensystemen auch Dorffner 404 ff. sowie 422 ff.

82 Vgl. Dorffner 29 ff. und Hoffmann 57 ff.

83 Siehe dazu Speckmann 15 ff. und Braun 43 ff.

84 Vgl. Hesse 22 sowie Dorffner 33 ff. und 122 ff. Zum Lernen neuronaler Netze siehe auch Helm 92 ff. und Braun 99 ff.

85 Propagierung bedeutet Fortpflanzung, Ausbreitung, Verbreitung.

86 Vgl. hierfür und für das folgende das FAQ comp.ai.neural-nets (Teil 2) sowie Braun 16 ff.

87 Dabei ähneln sie sehr stark statistischen Methoden und hängen oft auch mit ihnen zusammen.

88 Zu Anwendungsbeispielen siehe besonders Speckmann.

89 Siehe zu konnektionistischen Prinzipien und Beispielen der akustischen und visuellen Mustererkennung Dorffner 291 ff. und Speckmann 33 ff.

90 Bruns 87.

91 Vgl. www.mbfys.kun.nl/snn/siena/cases/helvetia.html (Januar 2000).

92 Zu einer auf konnektionistischen Methoden beruhenden Prognose des Energieverbrauchs, den ein Kraftwerk decken soll, siehe Speckmann 102 ff.

93 Vgl. www.mbfys.kun.nl/snn/siena/cases/tauern.html (Januar 2000).

94 Vgl. www.robotic.dlr.de/Friedrich.Lange/path_accuracy.html (Januar 2000).

95 Vgl. Michael C. Mozer: Neural network music composition by prediction: Exploring the benefits of psy- choacoustic constraints and multiscale processing. ftp://ftp.cs.colorado.edu/users/mozer/papers/music.ps (Ja- nuar 2000).

96 a.a.O. Seite 23.

97 „Twelve musically-untrained listeners were asked to state their preference for the CONCERT compositions or the transition table compositions. Two representative examples of each technique were played. Order of pres- entation was counterbalanced across listeners. All twelve chose CONCERT, some with ambivalence others with a strong preference. Listeners commented that the CONCERT compositions were more coherent and had a more consistent beat.“ (a.a.O. Seite 24, Hervorhebung nicht im Original) Wegen der mangelnden Kompe- tenz der Testpersonen ist dieses Ergebnis allerdings nicht besonders aussagekräftig. Das eigentliche Wesen der Musik, nämlich die bewußte Darstellung und das Aufleuchtenlassen der Ideen (vgl. Lotz in: Brugger 209 ff.) ist durch diese Art der Musikerzeugung in keiner Weise erreicht.

98 Vgl. Hesse 28 ff.

99 Vgl. Bruns 28 ff.

100 Die Programmierung geschieht jedoch entsprechend dem klassischen Paradigma Top-down, d.h. von obersten Konzepten hin zu einzelnen Teilaspekten und Einzelregeln. Vgl. Kapitel 3.1.1 f.

101 Bruns 29.

102 Vgl. Bhandarkar et al. in: Mira et al. 647 ff. Siehe auch Kapitel 2.6 und 3.1.8. Zu genetic bzw. evolutionary programming siehe www.genetic-programming.org.

103 Vgl. Mineau et al. in: Mercer/Neufeld 72 ff.

104 Vgl. Haag et al. in: Brewka et al. 301 ff.

105 Zur Geschwindigkeitsschätzung aus aufgezeichneten Videosequenzen siehe auch Mira et al. 687 ff.

106 Dazu und zum Problem der Koordination und Integration von optischer und elektromagnetischer Inspektion siehe Mira et al. 657 ff.

107 Vgl. Hesse 31.

108 Vgl. Poggi/Golinelli in: Pobil et al. 628 ff.

109 Das lag vermutlich an der geringen Zahl der möglichen Designer oder ihrer großen Verschiedenheit, über wel- che die angegebene Quelle leider schweigt.

110 Zu sprachverarbeitenden Systemen vgl. Leidlmair 23 ff.; Gitt 1989, 16 ff.; Bruns 20 ff. und siehe auch Bre- wka et al. 243 ff.

111 Zum Verhältnis von Intelligenz und Sprache siehe Kapitel 4.5.4.

112 Zu Mehrdeutigkeiten von Wörtern und den entsprechen Lösungsversuchen siehe z.B. Brewka et al. 393 ff.

113 Siehe dazu z.B. Weizenbaum 1978, 248 ff.

114 Der Begriff Parser kommt vom lateinischen pars orationis, d.h. Teil der Rede. Vgl. zum Parser Bruns 20 ff.

115 Zu fuzzylogischen Methoden der Sprach- und Texterkennung siehe Mira et al. 200 ff.

116 Vgl. www-4.ibm.com/software/speech. Leider muß der Nutzer für das genannte System über 300 MB Fest- plattenspeicher zur Verfügung stellen. Zum Problem der Spracherkennung vgl. auch Reischl/Sundt 21 ff., wo zudem erste Versuche des elektronischen Lippenlesens erwähnt werden.

117 Vgl. Hahn/Schnattinger in: Mercer/Neufeld 169 ff. und Schnattinger/Hahn in: Brewka et al. 255 ff.

118 Vgl. Walischewski in: Brewka et al. 409 ff.

119 Vgl. Ling/Zhang in: Mercer/Neufeld 184 ff. und siehe auch Zhang/Hamilton in: Mercer/Neufeld 246 ff.

120 Herzog/Günter 345.

121 Siehe www.dfki.de/verbmobil.

122 Vgl. http://babelfish.altavista.com.

Ende der Leseprobe aus 365 Seiten

Details

Titel
Der Mensch und die 'Künstliche Intelligenz' - Eine Profilierung und kritische Bewertung der unterschiedlichen Grundauffassungen vom Standpunkt des gemäßigten Realismus
Hochschule
Rheinisch-Westfälische Technische Hochschule Aachen
Autor
Jahr
2002
Seiten
365
Katalognummer
V108759
ISBN (eBook)
9783640069538
Dateigröße
1959 KB
Sprache
Deutsch
Anmerkungen
Die Arbeit ist nur als Druckversion verfügbar. Schlagwörter: KI-Kritik, Anthropologie, Metaphysik, Materialismus-Kritik, Symbolismus, Konnektionismus, Biologismus, Physikalismus, Quantenphysik, gemäßigt-kritischer Realismus, Mensch, Tiere, Pflanzen, Philosophie, philosophia perennis, Erkenntnistheorie, Ontologie, natürliche Theologie, Gott, Naturphilosophie, Leib, Gehirn, Seele, Geist, Wille, Denken, Intelligenz, Freiheit, Bewußtsein, Selbstbewußtsein, Gefühle, Leben, Evolutionismus, Evolutionstheorie, Emergenz, Epiphänomen, Funktionalismus
Schlagworte
Mensch, Künstliche, Intelligenz, KI, AI, Artificial Intelligence, KI-Kritik, Symbolismus, Konnektionismus, Robotik, Philosophie, Biologismus, Physikalismus, Materialismus, Metaphysik, Seele, Geist, Bewusstsein, Selbstbewusstsein, Wille, Denken, Erkennen, Gefühl, Leben, Roboter, Technik, Technikphilosophie, Quantenphysik, Menschenlehre, Anthropologie, Realismus, Gehirn, Evolution, Tier, Maschine, Gott
Arbeit zitieren
Rolf Eraßme (Autor), 2002, Der Mensch und die 'Künstliche Intelligenz' - Eine Profilierung und kritische Bewertung der unterschiedlichen Grundauffassungen vom Standpunkt des gemäßigten Realismus, München, GRIN Verlag, https://www.grin.com/document/108759

Kommentare

  • Noch keine Kommentare.



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden