Wohl eines der komplexesten Objekte der modernen Wissenschaft stellt das Gehirn des Menschen dar und ist damit eines der am wenigsten verstandenen Phänomene der Natur. Die Komplexität der synaptischen Vernetzung im Gehirn ermöglicht solch schwer in mathematischer Sprache faßbare Dinge wie Lernen, Wissen, Verstehen, Sprache und Bewußtsein, um nur einige zu nennen. Die Schwierigkeiten bei der Erforschung des Gehirns haben im wesentlichen zwei Gründe. Welche Fragen soll man stellen, d.h. wo nach soll man suchen, wenn man z.B. Bewußtsein erklären möchte und wie kann man die astronomische Anzahl von Neuronen und Synapsen, aus dem sich das Gehirn zusammensetzt, in den Griff bekommen? Die Antworten auf unsere Fragen, die wir eventuell noch nicht richtig gestellt haben, verbergen sich in der Komplexität der Verbindungen der Neuronen untereinander.
Neben den klassischen Disziplinen zur Untersuchung des menschlichen Gehirns, wie der Philosophie, Neurologie und vielleicht auch der Theologie, haben sich in jüngster Zeit zwei neue Ansätze entwickelt, die sich aufteilen in die Lager der Künstlichen Intelligenz (AI, articial intelligence) und der künstlichen neuronalen Netze (AN, artificial neural networks. Die AI ist mit ihrem Ansatz bemüht, auf herkömmlichen Computerarchitekturen Wissen zu repräsentieren wobei Wissen sowohl Fakten, wie "Holz brennt", als auch Folgerungen, wie "Häuser bestehen aus Holz. Also: Häuser brennen" mit einschließt. Sie geht davon aus, daß Intelligenz auf Wissen basiert, sowie auf die Fähigkeit, logische Schlußfolgerungen zwischen den Faktenherzustellen. Dazu ist die AI auf große und schnelle Speicher, sowie auf effiziente Suchalgorithmen angewiesen. Die Erforschung künstlicher neuronaler Netze hat das Ziel, reine Erkenntnis über die Arbeitsweise des Gehirns zu gewinnen und damit uns selber besser zu verstehen und in Zukunft die Struktur des Gehirns als neue Rechenarchitektur nachzubilden, mit all den potentiellen Fähigkeiten, die wir selber besitzen. Noch ist dieses Forschungsgebiet jedoch angewiesen auf schnelle herkömmliche Computer, um auf diesen die parallele Arbeitsweise neuronaler Netze zu simulieren. Die Forschung ist damit natürlich den Einschränkungen unterworfen, die heutige Computer mit sich bringen, z.B. mangelnde Geschwindigkeit durch serielle Simulation paralleler Arbeitschritte
Inhaltsverzeichnis
Vorwort
1 Einleitung
2 Nichtlineare Systeme
2.1 Die Belousov-Zhabotinskii Reaktion
2.1.1 Der Oregonator
2.1.2 Der Montanator
2.1.3 Der Single-Current-Oscillator (SCO)
2.2 Das Rössler-System
3 Neuronale Netze
3.1 Feedforward-Netzwerke
3.1.1 Der Back-Propagation Lernalgorithmus
3.1.2 Overtraining
3.2 Recurrent Neural Networks
3.3 Openloop-Lernen
4 Dynamische neuronale Netze
4.1 Die Topologie
4.2 Das Lernverfahren
4.3 Skalierung
4.4 Gelernte Attraktoren
4.4.1 Der SCO
4.4.1.1 Periode 1
4.4.2 Der 3-Variablen Montanator
4.4.2.1 Periode 2
4.4.3 Das Rössler System
4.4.3.1 Periode 2
4.4.3.2 Periode 3
4.5 Zusammenfassung
5 Analyse
5.1 Korrelation
5.2 Relative Gewichte und Informationstheorie
5.2.1 Relatives Gewicht
5.2.2 Information
5.2.3 Ergebnisse der Berechnungen
5.3 Differentiation
5.4 Zusammenfassung
6 Linearisierung und Phasenraumanalyse
6.1 Motivation der Linearisierung
6.1.1 Eliminieren der linearen versteckten Schichten
6.1.2 Linear abhängige Neuronen
6.2 Linearisierung
6.2.1 Lösung der linearen Abbildung
6.3 Der Phasenraum
6.4 Funktionsgeneratoren
6.4.1 Frequenzänderung
6.4.2 Attraktorgenerierung
7 Zusammenfassung der Ergebnisse
Zielsetzung und thematische Schwerpunkte
Das Hauptziel dieser Diplomarbeit ist die Untersuchung und Erzeugung dynamischer neuronaler Netze, die in der Lage sind, das Verhalten nichtlinearer chemischer Systeme (insbesondere der Belousov-Zhabotinskii-Reaktion und des Rössler-Systems) als Lerndatenquelle abzubilden und deren Dynamik zu reproduzieren. Die Arbeit erforscht Methoden zur Analyse dieser Netzwerke sowie Ansätze zu deren Linearisierung und Vereinfachung.
- Theoretische Grundlagen nichtlinearer chemischer Systeme und Oszillatoren.
- Architektur und Lernalgorithmen für rekurrente neuronale Netze.
- Methoden zur Analyse neuronaler Aktivierungsmuster (Korrelation, Informationstheorie).
- Linearisierung komplexer Netzwerke zur Reduktion und analytischen Lösbarkeit.
- Synthese von Funktionsgeneratoren durch Kombination linearer Netzwerkstrukturen.
Auszug aus dem Buch
2.1.1 Der Oregonator
Um das sehr komplexe dynamische Verhalten der BZ-Reaktion in bestimmten Parameterbereichen zu beschreiben genügt bereits schon ein sehr einfaches Modell. Der Oregonator ist ein 3-Variablen Modell, welches aus dem komplizierteren FKN-Mechanismus durch starke Vereinfachung entsteht [FN74]. Von den ursprünglichen 11 Reaktionen werden nur die 5 wichtigsten Reaktionsschritte berücksichtigt:
BrO3- + Br- → HBrO2 + HOBr
HBrO2 + Br- → 2HOBr
BrO3- + HBrO2 → 2HBrO2 + 2Ce4+
2HBrO2 → BrO3- + HOBr
2Ce4+ → fBr-
Der Ausgleich fehlender Ladungen, sowie der stöchiometrische Ausgleich findet durch Wasser und Protonen aus dem saurem Medium (H2SO4) statt. Die Konzentrationen der beiden sind so hoch, daß sie als konstant betrachtet werden und in den Geschwindigkeitskonstanten kn berücksichtigt werden.
Zusammenfassung der Kapitel
Vorwort: Einleitung in die Komplexität des Gehirns und die Motivation, künstliche neuronale Netze als Modelle für biologische Prozesse einzusetzen.
1 Einleitung: Übersicht über den Aufbau der Diplomarbeit, gegliedert in chemische Systeme, Netzwerktheorie, Modellierung und Analyse.
2 Nichtlineare Systeme: Einführung in mathematische Modelle nichtlinearer dynamischer Systeme wie die BZ-Reaktion, den Oregonator, den Montanator und das Rössler-System.
3 Neuronale Netze: Erläuterung der Grundlagen künstlicher Neuronen, verschiedener Netzwerkarchitekturen (Feedforward, rekurrente Netze) und Lernalgorithmen wie Back-Propagation.
4 Dynamische neuronale Netze: Beschreibung der speziellen Topologie und des Lernverfahrens, um dynamische Systeme mit neuronalen Netzen abzubilden, inklusive Skalierungsfragen.
5 Analyse: Anwendung von Methoden wie Korrelationsanalyse und Informationstheorie, um die interne Struktur und Redundanzen in den trainierten Netzwerken zu identifizieren.
6 Linearisierung und Phasenraumanalyse: Untersuchung der Linearisierung neuronaler Netze zur Vereinfachung der Dynamik und mathematischen Analyse sowie deren Nutzung als Funktionsgeneratoren.
7 Zusammenfassung der Ergebnisse: Resümee über die Eignung neuronaler Netze zur Abbildung komplexer Dynamiken und Ausblick auf weiterführende Ansätze.
Schlüsselwörter
Neuronale Netze, Nichtlineare Dynamik, Belousov-Zhabotinskii-Reaktion, Oregonator, Montanator, Rössler-System, Back-Propagation, Rekurrente Netzwerke, Openloop-Lernen, Informationstheorie, Phasenraumanalyse, Linearisierung, Funktionsgeneratoren, Chaosforschung, Attraktoren.
Häufig gestellte Fragen
Worum geht es in der Arbeit grundlegend?
Die Arbeit untersucht, wie neuronale Netzwerke mit Rückkopplung trainiert werden können, um das komplexe dynamische Verhalten nichtlinearer chemischer Systeme mathematisch nachzubilden.
Was sind die zentralen Themenfelder?
Die zentralen Themen sind nichtlineare Kinetik, künstliche Intelligenz (neuronale Netze), statistische Analysemethoden für Netzwerkaktivitäten und die Linearisierung dynamischer Systeme.
Was ist das primäre Ziel der Forschung?
Das primäre Ziel ist es, Netze so zu trainieren, dass sie nach der Trainingsphase eigenständig die Dynamik eines chemischen Systems reproduzieren können, wobei das Netz dabei möglichst kompakt bleiben soll.
Welche wissenschaftliche Methode wird verwendet?
Es werden numerische Simulationen von Differentialgleichungssystemen und das Training neuronaler Netze mittels Back-Propagation genutzt, ergänzt durch informationstheoretische Analysewerkzeuge.
Was wird im Hauptteil behandelt?
Der Hauptteil umfasst die Modellierung chemischer Oszillatoren, die Implementierung und das Training von Netzwerken zur Attraktornachbildung sowie die detaillierte Analyse der gelernten Verbindungen.
Welche Schlüsselwörter charakterisieren die Arbeit?
Die Arbeit lässt sich durch Begriffe wie neuronale Netze, nichtlineare Dynamik, chemische Oszillatoren, Back-Propagation und Phasenraumanalyse beschreiben.
Wie genau können neuronale Netze komplexe Dynamiken abbilden?
Die Abbildungsgenauigkeit hängt stark von der Netzwerkgröße und der Komplexität des Zielattraktors ab. Während einfache Perioden gut erlernbar sind, stoßen Netzwerke bei sehr inhomogenen Systemen wie dem Montanator an Grenzen.
Welchen praktischen Nutzen hat die Linearisierung der Netze?
Durch die Linearisierung können die Netzwerke analytisch besser verstanden und als steuerbare Funktionsgeneratoren genutzt werden, was eine einfache Manipulation der Oszillationsfrequenz ermöglicht.
- Quote paper
- Oliver Heil (Author), 1995, Neuronale Netzwerke mit Rückkopplung und nichtlineare chemische Reaktionen, Munich, GRIN Verlag, https://www.grin.com/document/23372