Grin logo
en de es fr
Shop
GRIN Website
Texte veröffentlichen, Rundum-Service genießen
Zur Shop-Startseite › Chemie - Physikalische und Theoretische Chemie

Neuronale Netzwerke mit Rückkopplung und nichtlineare chemische Reaktionen

Titel: Neuronale Netzwerke mit Rückkopplung und nichtlineare chemische Reaktionen

Diplomarbeit , 1995 , 118 Seiten , Note: 1.0

Autor:in: Oliver Heil (Autor:in)

Chemie - Physikalische und Theoretische Chemie
Leseprobe & Details   Blick ins Buch
Zusammenfassung Leseprobe Details

Wohl eines der komplexesten Objekte der modernen Wissenschaft stellt das Gehirn des Menschen dar und ist damit eines der am wenigsten verstandenen Phänomene der Natur. Die Komplexität der synaptischen Vernetzung im Gehirn ermöglicht solch schwer in mathematischer Sprache faßbare Dinge wie Lernen, Wissen, Verstehen, Sprache und Bewußtsein, um nur einige zu nennen. Die Schwierigkeiten bei der Erforschung des Gehirns haben im wesentlichen zwei Gründe. Welche Fragen soll man stellen, d.h. wo nach soll man suchen, wenn man z.B. Bewußtsein erklären möchte und wie kann man die astronomische Anzahl von Neuronen und Synapsen, aus dem sich das Gehirn zusammensetzt, in den Griff bekommen? Die Antworten auf unsere Fragen, die wir eventuell noch nicht richtig gestellt haben, verbergen sich in der Komplexität der Verbindungen der Neuronen untereinander.

Neben den klassischen Disziplinen zur Untersuchung des menschlichen Gehirns, wie der Philosophie, Neurologie und vielleicht auch der Theologie, haben sich in jüngster Zeit zwei neue Ansätze entwickelt, die sich aufteilen in die Lager der Künstlichen Intelligenz (AI, articial intelligence) und der künstlichen neuronalen Netze (AN, artificial neural networks. Die AI ist mit ihrem Ansatz bemüht, auf herkömmlichen Computerarchitekturen Wissen zu repräsentieren wobei Wissen sowohl Fakten, wie "Holz brennt", als auch Folgerungen, wie "Häuser bestehen aus Holz. Also: Häuser brennen" mit einschließt. Sie geht davon aus, daß Intelligenz auf Wissen basiert, sowie auf die Fähigkeit, logische Schlußfolgerungen zwischen den Faktenherzustellen. Dazu ist die AI auf große und schnelle Speicher, sowie auf effiziente Suchalgorithmen angewiesen. Die Erforschung künstlicher neuronaler Netze hat das Ziel, reine Erkenntnis über die Arbeitsweise des Gehirns zu gewinnen und damit uns selber besser zu verstehen und in Zukunft die Struktur des Gehirns als neue Rechenarchitektur nachzubilden, mit all den potentiellen Fähigkeiten, die wir selber besitzen. Noch ist dieses Forschungsgebiet jedoch angewiesen auf schnelle herkömmliche Computer, um auf diesen die parallele Arbeitsweise neuronaler Netze zu simulieren. Die Forschung ist damit natürlich den Einschränkungen unterworfen, die heutige Computer mit sich bringen, z.B. mangelnde Geschwindigkeit durch serielle Simulation paralleler Arbeitschritte

Leseprobe


Inhaltsverzeichnis

  • Vorwort
  • 1 Einleitung
  • 2 Nichtlineare Systeme
    • 2.1 Die Belousov-Zhabotinskii Reaktion.
      • 2.1.1 Der Oregonator
      • 2.1.2 Der Montanator.
      • 2.1.3 Der Single-Current-Oscillator (SCO)
    • 2.2 Das Rössler-System.
  • 3 Neuronale Netze.
    • 3.1 Feedforward-Netzwerke.
      • 3.1.1 Der Back-Propagation Lernalgorithmus
      • 3.1.2 Overtraining.
    • 3.2 Recurrent Neural Networks
    • 3.3 Openloop-Lernen
  • 4 Dynamische neuronale Netze
    • 4.1 Die Topologie
    • 4.2 Das Lernverfahren
    • 4.3 Skalierung.
    • 4.4 Gelernte Attraktoren
      • 4.4.1 Der SCO.
        • 4.4.1.1 Periode
      • 4.4.2 Der 3-Variablen Montanator
        • 4.4.2.1 Periode 2
      • 4.4.3 Das Rössler System.
        • 4.4.3.1 Periode 2
        • 4.4.3.2 Periode 3
    • 4.5 Zusammenfassung
  • 5 Analyse
    • 5.1 Korrelation
    • 5.2 Relative Gewichte und Informationstheorie .
      • 5.2.1 Relatives Gewicht.
      • 5.2.2 Information
      • 5.2.3 Ergebnisse der Berechnungen
    • 5.3 Differentiation.
    • 5.4 Zusammenfassung
  • 6 Linearisierung und Phasenraumanalyse
    • 6.1 Motivation der Linearisierung
      • 6.1.1 Eliminieren der linearen versteckten Schichten
      • 6.1.2 Linear abhängige Neuronen
    • 6.2 Linearisierung.
      • 6.2.1 Lösung der linearen Abbildung
    • 6.3 Der Phasenraum
    • 6.4 Funktionsgeneratoren.
      • 6.4.1 Frequenzänderung
      • 6.4.2 Attraktorgenerierung.
  • 7 Zusammenfassung der Ergebnisse

Zielsetzung und Themenschwerpunkte

Diese Diplomarbeit befasst sich mit dem Einsatz von künstlichen neuronalen Netzen zur Simulation und Analyse nichtlinearer dynamischer Systeme. Das Ziel ist es, die Fähigkeiten von Neuronalen Netzen zur Approximation komplexer dynamischer Prozesse zu erforschen und die Ergebnisse in Hinblick auf ihre Bedeutung für die Modellierung realer Systeme zu diskutieren.

  • Die Anwendung von Neuronalen Netzen zur Simulation nichtlinearer dynamischer Systeme
  • Die Analyse der Fähigkeiten von Neuronalen Netzen bei der Approximation komplexer Dynamiken
  • Die Untersuchung der Unterschiede zwischen Feedforward- und Recurrent-Neuralen Netzen im Kontext der Modellierung dynamischer Systeme
  • Die Erforschung des Einflusses von Lernalgorithmen und Netzwerkarchitekturen auf die Leistungsfähigkeit von Neuronalen Netzen
  • Die Interpretation der Ergebnisse im Hinblick auf ihre Relevanz für die Modellierung realer Systeme

Zusammenfassung der Kapitel

Die Arbeit beginnt mit einer Einführung in nichtlineare dynamische Systeme und den Anwendungsbereich von Neuronalen Netzen. Kapitel 2 behandelt verschiedene Modelle nichtlinearer Systeme, darunter die Belousov-Zhabotinskii Reaktion, das Rössler-System und verschiedene oszillierende Systeme. Kapitel 3 beschäftigt sich mit der Funktionsweise von Neuronalen Netzen, sowohl Feedforward-Netzwerken als auch Recurrent-Neuralen Netzen, und beleuchtet den Back-Propagation-Lernalgorithmus. Kapitel 4 führt in die Architektur und das Lernverfahren dynamischer Neuronaler Netze ein und untersucht die Fähigkeit dieser Netze, Attraktoren verschiedener Systeme zu lernen. Kapitel 5 analysiert die Korrelation, die relativen Gewichte und die Informationsgewinnung in den neuronalen Netzen. Schließlich behandelt Kapitel 6 die Linearisierung und Phasenraumanalyse von Neuronalen Netzen, um die Funktionsweise der Netze besser zu verstehen.

Schlüsselwörter

Neuronale Netze, Nichtlineare Systeme, Dynamische Systeme, Belousov-Zhabotinskii Reaktion, Rössler-System, Feedforward-Netzwerke, Recurrent-Neural Networks, Back-Propagation-Lernalgorithmus, Attraktor, Korrelation, Relative Gewichte, Informationstheorie, Linearisierung, Phasenraum

Ende der Leseprobe aus 118 Seiten  - nach oben

Details

Titel
Neuronale Netzwerke mit Rückkopplung und nichtlineare chemische Reaktionen
Hochschule
Bayerische Julius-Maximilians-Universität Würzburg  (Physikalisches Institut)
Note
1.0
Autor
Oliver Heil (Autor:in)
Erscheinungsjahr
1995
Seiten
118
Katalognummer
V23372
ISBN (eBook)
9783638265072
Sprache
Deutsch
Schlagworte
Neuronale Netzwerke Rückkopplung Reaktionen
Produktsicherheit
GRIN Publishing GmbH
Arbeit zitieren
Oliver Heil (Autor:in), 1995, Neuronale Netzwerke mit Rückkopplung und nichtlineare chemische Reaktionen, München, GRIN Verlag, https://www.grin.com/document/23372
Grin logo
  • Grin.com
  • Zahlung & Versand
  • Impressum
  • Datenschutz
  • AGB
  • Impressum