Wohl eines der komplexesten Objekte der modernen Wissenschaft stellt das Gehirn des Menschen dar und ist damit eines der am wenigsten verstandenen Phänomene der Natur. Die Komplexität der synaptischen Vernetzung im Gehirn ermöglicht solch schwer in mathematischer Sprache faßbare Dinge wie Lernen, Wissen, Verstehen, Sprache und Bewußtsein, um nur einige zu nennen. Die Schwierigkeiten bei der Erforschung des Gehirns haben im wesentlichen zwei Gründe. Welche Fragen soll man stellen, d.h. wo nach soll man suchen, wenn man z.B. Bewußtsein erklären möchte und wie kann man die astronomische Anzahl von Neuronen und Synapsen, aus dem sich das Gehirn zusammensetzt, in den Griff bekommen? Die Antworten auf unsere Fragen, die wir eventuell noch nicht richtig gestellt haben, verbergen sich in der Komplexität der Verbindungen der Neuronen untereinander.
Neben den klassischen Disziplinen zur Untersuchung des menschlichen Gehirns, wie der Philosophie, Neurologie und vielleicht auch der Theologie, haben sich in jüngster Zeit zwei neue Ansätze entwickelt, die sich aufteilen in die Lager der Künstlichen Intelligenz (AI, articial intelligence) und der künstlichen neuronalen Netze (AN, artificial neural networks. Die AI ist mit ihrem Ansatz bemüht, auf herkömmlichen Computerarchitekturen Wissen zu repräsentieren wobei Wissen sowohl Fakten, wie "Holz brennt", als auch Folgerungen, wie "Häuser bestehen aus Holz. Also: Häuser brennen" mit einschließt. Sie geht davon aus, daß Intelligenz auf Wissen basiert, sowie auf die Fähigkeit, logische Schlußfolgerungen zwischen den Faktenherzustellen. Dazu ist die AI auf große und schnelle Speicher, sowie auf effiziente Suchalgorithmen angewiesen. Die Erforschung künstlicher neuronaler Netze hat das Ziel, reine Erkenntnis über die Arbeitsweise des Gehirns zu gewinnen und damit uns selber besser zu verstehen und in Zukunft die Struktur des Gehirns als neue Rechenarchitektur nachzubilden, mit all den potentiellen Fähigkeiten, die wir selber besitzen. Noch ist dieses Forschungsgebiet jedoch angewiesen auf schnelle herkömmliche Computer, um auf diesen die parallele Arbeitsweise neuronaler Netze zu simulieren. Die Forschung ist damit natürlich den Einschränkungen unterworfen, die heutige Computer mit sich bringen, z.B. mangelnde Geschwindigkeit durch serielle Simulation paralleler Arbeitschritte
Inhaltsverzeichnis
- Vorwort
- 1 Einleitung
- 2 Nichtlineare Systeme
- 2.1 Die Belousov-Zhabotinskii Reaktion.
- 2.1.1 Der Oregonator
- 2.1.2 Der Montanator.
- 2.1.3 Der Single-Current-Oscillator (SCO)
- 2.2 Das Rössler-System.
- 2.1 Die Belousov-Zhabotinskii Reaktion.
- 3 Neuronale Netze.
- 3.1 Feedforward-Netzwerke.
- 3.1.1 Der Back-Propagation Lernalgorithmus
- 3.1.2 Overtraining.
- 3.2 Recurrent Neural Networks
- 3.3 Openloop-Lernen
- 3.1 Feedforward-Netzwerke.
- 4 Dynamische neuronale Netze
- 4.1 Die Topologie
- 4.2 Das Lernverfahren
- 4.3 Skalierung.
- 4.4 Gelernte Attraktoren
- 4.4.1 Der SCO.
- 4.4.1.1 Periode
- 4.4.2 Der 3-Variablen Montanator
- 4.4.2.1 Periode 2
- 4.4.3 Das Rössler System.
- 4.4.3.1 Periode 2
- 4.4.3.2 Periode 3
- 4.4.1 Der SCO.
- 4.5 Zusammenfassung
- 5 Analyse
- 5.1 Korrelation
- 5.2 Relative Gewichte und Informationstheorie .
- 5.2.1 Relatives Gewicht.
- 5.2.2 Information
- 5.2.3 Ergebnisse der Berechnungen
- 5.3 Differentiation.
- 5.4 Zusammenfassung
- 6 Linearisierung und Phasenraumanalyse
- 6.1 Motivation der Linearisierung
- 6.1.1 Eliminieren der linearen versteckten Schichten
- 6.1.2 Linear abhängige Neuronen
- 6.2 Linearisierung.
- 6.2.1 Lösung der linearen Abbildung
- 6.3 Der Phasenraum
- 6.4 Funktionsgeneratoren.
- 6.4.1 Frequenzänderung
- 6.4.2 Attraktorgenerierung.
- 6.1 Motivation der Linearisierung
- 7 Zusammenfassung der Ergebnisse
Zielsetzung und Themenschwerpunkte
Diese Diplomarbeit befasst sich mit dem Einsatz von künstlichen neuronalen Netzen zur Simulation und Analyse nichtlinearer dynamischer Systeme. Das Ziel ist es, die Fähigkeiten von Neuronalen Netzen zur Approximation komplexer dynamischer Prozesse zu erforschen und die Ergebnisse in Hinblick auf ihre Bedeutung für die Modellierung realer Systeme zu diskutieren.
- Die Anwendung von Neuronalen Netzen zur Simulation nichtlinearer dynamischer Systeme
- Die Analyse der Fähigkeiten von Neuronalen Netzen bei der Approximation komplexer Dynamiken
- Die Untersuchung der Unterschiede zwischen Feedforward- und Recurrent-Neuralen Netzen im Kontext der Modellierung dynamischer Systeme
- Die Erforschung des Einflusses von Lernalgorithmen und Netzwerkarchitekturen auf die Leistungsfähigkeit von Neuronalen Netzen
- Die Interpretation der Ergebnisse im Hinblick auf ihre Relevanz für die Modellierung realer Systeme
Zusammenfassung der Kapitel
Die Arbeit beginnt mit einer Einführung in nichtlineare dynamische Systeme und den Anwendungsbereich von Neuronalen Netzen. Kapitel 2 behandelt verschiedene Modelle nichtlinearer Systeme, darunter die Belousov-Zhabotinskii Reaktion, das Rössler-System und verschiedene oszillierende Systeme. Kapitel 3 beschäftigt sich mit der Funktionsweise von Neuronalen Netzen, sowohl Feedforward-Netzwerken als auch Recurrent-Neuralen Netzen, und beleuchtet den Back-Propagation-Lernalgorithmus. Kapitel 4 führt in die Architektur und das Lernverfahren dynamischer Neuronaler Netze ein und untersucht die Fähigkeit dieser Netze, Attraktoren verschiedener Systeme zu lernen. Kapitel 5 analysiert die Korrelation, die relativen Gewichte und die Informationsgewinnung in den neuronalen Netzen. Schließlich behandelt Kapitel 6 die Linearisierung und Phasenraumanalyse von Neuronalen Netzen, um die Funktionsweise der Netze besser zu verstehen.
Schlüsselwörter
Neuronale Netze, Nichtlineare Systeme, Dynamische Systeme, Belousov-Zhabotinskii Reaktion, Rössler-System, Feedforward-Netzwerke, Recurrent-Neural Networks, Back-Propagation-Lernalgorithmus, Attraktor, Korrelation, Relative Gewichte, Informationstheorie, Linearisierung, Phasenraum
Häufig gestellte Fragen
Wie können Neuronale Netze chemische Reaktionen simulieren?
Dynamische neuronale Netze können die Zeitreihen nichtlinearer Reaktionen (wie der Belousov-Zhabotinskii-Reaktion) lernen und deren Schwingungsverhalten als Attraktoren im Phasenraum nachbilden.
Was ist der Unterschied zwischen Feedforward- und Recurrent-Netzwerken?
Feedforward-Netze leiten Informationen nur in eine Richtung weiter, während Recurrent Neural Networks (RNN) Rückkopplungen besitzen, die sie für die Modellierung zeitabhängiger Prozesse prädestinieren.
Was beschreibt das Rössler-System in dieser Arbeit?
Das Rössler-System ist ein mathematisches Modell für deterministisches Chaos, an dem die Fähigkeit neuronaler Netze zur Approximation komplexer, nichtlinearer Dynamiken getestet wurde.
Was ist das Ziel der Linearisierung von neuronalen Netzen?
Die Linearisierung dient dazu, die interne Arbeitsweise des Netzes besser zu verstehen, indem komplexe Funktionen lokal vereinfacht und im Phasenraum analysiert werden.
Was versteht man unter "Overtraining" bei Lernalgorithmen?
Overtraining tritt auf, wenn ein Netzwerk die Trainingsdaten auswendig lernt, statt allgemeine Muster zu erkennen, wodurch die Fähigkeit zur Vorhersage neuer Daten sinkt.
- Quote paper
- Oliver Heil (Author), 1995, Neuronale Netzwerke mit Rückkopplung und nichtlineare chemische Reaktionen, Munich, GRIN Verlag, https://www.grin.com/document/23372