Grin logo
de en es fr
Shop
GRIN Website
Publish your texts - enjoy our full service for authors
Go to shop › Business economics - Banking, Stock Exchanges, Insurance, Accounting

Anwendung eines künstlichen neuronalen Netzes zur Kursprognose am Beispiel des DAX

Title: Anwendung eines künstlichen neuronalen Netzes zur Kursprognose am Beispiel des DAX

Diploma Thesis , 2008 , 112 Pages , Grade: 1,3

Autor:in: Diplom-Kaufmann Mathias Bunge (Author)

Business economics - Banking, Stock Exchanges, Insurance, Accounting
Excerpt & Details   Look inside the ebook
Summary Excerpt Details

Im Rahmen dieser Arbeit soll ein künstliches neuronales Netz zur Kursprognose des Deutschen Aktienindex (DAX) entwickelt und eingesetzt werden.
Dabei wird im ersten Teil anfangs auf den biologischen Ursprung künstlicher neuronaler Netze eingegangen. Anschließend wird beschrieben, was genau unter einem künstlichen neuronalen Netz zu verstehen ist. Dies geschieht, indem neben der Entstehungsgeschichte und den verschiedenden Typen neuronaler Netze auch auf ausgewählte Lernregeln und Optimierungsmöglichkeiten eingegangen wird.
Im praxisorientierten zweiten Teil dieser Arbeit wird anhand ausgewählter Determinanten ein künstliches neuronales Netz entwickelt und angewendet. Dabei werden zunächst einige Vorüberlegungen hinsichtlich der Selektion der relevanten Einflussgrößen angestellt. Anschlieend wird das Netz für verschiedene Horizonte zur DAX-Prognose eingesetzt. Um eine mögliche Verbesserung der erzielten Resultate zu erreichen, werden einige der theoretisch beschriebenen Optimierungsverfahren auf das Netz angewendet. Nach einer weiterführenden Untersuchung hinsichtlich der Prognosefähigkeit des Netzes anhand ausgewählter Inputgrößen, werden die wichtigsten Ergebnisse im letzten Abschnitt noch einmal zusammengefasst und mit den Resultaten anderer Prognoseverfahren verglichen. Schwerpunkt der nachfolgenden Betrachtungen ist dabei allerdings weniger der Prognoseerfolg im Verhältnis zu anderen Verfahren als viel mehr die systematische Anwendung eines künstlichen neuronalen Netzes und die Analyse der Auswirkungen verschiedener Modellvariationen auf dessen Leistungsfähigkeit.

Excerpt


Inhaltsverzeichnis

1 Einleitung

2 Biologische Grundlagen neuronaler Netze

2.1 Das Gehirn als Vorbild

2.2 Die Hirnrinde (Neokortex)

2.3 Die Nervenzelle (Neuron)

3 Künstliche neuronale Netze (KNN)

3.1 Entstehungsgeschichte

3.2 Aufbau und Funktionsweise eines künstlichen Neurons

3.3 Netzwerktypen

3.3.1 Vorwärts gerichtete Netze

3.3.1.1 Einstufige Netze

3.3.1.2 Mehrstufige Netze

3.3.2 Netze mit Rückkopplung

3.3.2.1 Hopfield-Netze

3.3.2.2 Boltzmann-Netze

3.3.3 Selbstorganisierende Netze

3.3.4 Weitere Netztypen

3.3.4.1 Neokognitron

3.3.4.2 Bidirektionaler Assoziationsspeicher

3.3.4.3 Counterpropagation

3.4 Lernen in KNN

3.4.1 Lernarten

3.4.1.1 Überwachtes Lernen

3.4.1.2 Unüberwachtes Lernen

3.4.1.3 Bestärkendes Lernen

3.4.2 Lernregeln

3.4.2.1 Hebb’sche Lernregel

3.4.2.2 Delta-Regel

3.4.2.3 Backpropagation-Regel

3.4.2.4 Konkurrenzlernen

3.4.3 Optimierung des Lernprozesses

3.4.3.1 Stopp-Training

3.4.3.2 Pruning

3.4.3.3 Komplexitätsterme

3.5 KNN in der Praxis

3.5.1 Anwendungsgebiete

3.5.2 KNN in der Ökonomie

4 Entwicklung eines KNN zur DAX-Prognose

4.1 Prognoseziel und Methodologie

4.2 Datenbasis

4.2.1 Vorüberlegungen

4.2.2 Datenselektion

4.2.2.1 Fundamentale Inputs

4.2.2.2 Technische Inputs

4.2.3 Datenaufbereitung

4.2.4 Aufteilung der Datenmenge

4.3 Netzwerkstruktur

4.3.1 Netzwerktyp

4.3.2 Neuronenanzahl

4.3.3 Lernverfahren

4.3.4 Mögliche Probleme der Backpropagation-Methode

4.3.4.1 Lokale Minima

4.3.4.2 Symmetry Breaking

4.3.4.3 Flache Plateaus

4.3.4.4 Oszillation

4.4 Netzwerkinitialisierung

4.4.1 Verwendete Software

4.4.2 Lernrate

4.4.3 Momentum

4.4.4 Stopp-Training-Punkt

4.4.5 Gewichte und Schwellenwerte

4.5 Netzwerktraining

4.5.1 Prognosehorizont: Ein Tag

4.5.2 Prognosehorizont: Fünf Tage

4.5.3 Prognosehorizont: 20 Tage

4.6 Netzwerkoptimierung

4.6.1 Mean-Change-Point-Test

4.6.2 Gewichtspruning

4.6.3 Sensitivitätsanalyse

4.6.4 Topologieveränderungen

4.7 Analyse der Fundamentalinputs

4.8 Netzwerkergebnisse

4.8.1 Hitratio und Benchmarks

4.8.2 Untersuchungsergebnisse im Überblick

5 Zusammenfassung und Ausblick

A Anhang

A.1 Herleitung des Backpropagation-Algorithmus

A.2 Tabellen zur Sensititivitätsanalyse

A.3 MATLAB-Codes

A.3.1 Funktion „Import1“

A.3.2 Funktion „ErstelleStartNetz“

A.3.3 Funktion „TrainiereStartNetz“

A.3.4 Funktion „MCP“

A.3.5 Funktion „Pruning“

A.3.6 Funktion „SensAnalyse“

A.3.7 Funktion „TrainiereTopHalf“

A.3.8 Funktion „FundamentalAnalyse“

A.3.9 Funktion „LR“

Zielsetzung & Themen

Das Hauptziel dieser wissenschaftlichen Arbeit ist die Entwicklung und systematische Anwendung eines künstlichen neuronalen Netzes (KNN) zur Kursprognose des Deutschen Aktienindex (DAX). Es wird untersucht, inwieweit verschiedene Modellkonfigurationen und Optimierungsverfahren die Prognosegüte beeinflussen, wobei neben dem Prognoseerfolg insbesondere die methodische Vorgehensweise und die Analyse verschiedener Einflussfaktoren im Vordergrund stehen.

  • Grundlagen künstlicher neuronaler Netze und deren biologische Inspiration
  • Methodik der Datenvorbereitung und -aufteilung für Zeitreihenprognosen
  • Systematische Anwendung von Optimierungstechniken wie Backpropagation, Stopp-Training und Pruning
  • Vergleich der Prognoseleistung bei unterschiedlichen Zeithorizonten
  • Analyse der Relevanz fundamentaler vs. technischer Marktindikatoren

Auszug aus dem Buch

3.3.2.1 Hopfield-Netze

Der Physiker John J. Hopfield entwickelte Anfang der achtziger Jahre ein Neuronennetz, welches in Anlehnung an eine Eigenschaft magnetischer Atome funktioniert. Ein Hopfield-Netz zeichnet sich dadurch aus, dass alle Neuronen miteinander verbunden sind (autoassoziatives Netz):

Abbildung 10: Hopfield-Netz

Die Gewichtung zwischen zwei verbundenen Neuronen ist in beide Richtungen gleich (wij = wji), so dass die Gewichtematrix symmetrisch wird. Eine Rückkopplung eines Neurons auf sich selbst findet nicht statt (wii = 0). Der Ausgangszustand jedes Neurons ist entweder „-1“ oder „+1“. Analog zu Netzen ohne Rückkopplung lassen sich die Outputwerte durch Verwendung einer Transferfunktion nach folgender Formel berechnen:

ai = φ(Σj wijej − θi) (14)

Wie zu erkennen ist, verfügen auch Hopfield-Netze über Schwellenwerte. Der Prozess zur Ouptutermittlung kann so oft durchgeführt werden, bis die Ausgabewerte sich nicht mehr ändern. Dieses Vorgehen gleicht einem Iterationsprozess, bei dem die Neuronen, die anfangs als Eingaben an das Netz angelegt wurden, nun den Ausgabevektor darstellen. Mit M als Gewichtematrix, a als Ausgabevektor, θ als Bias, e als Eingabevektor und p als Iterationsindex lässt sich das Iterationsverfahren vektoriell wie folgt beschreiben:

a(p+1) = φ(Ma(p) − θ) (p = 1, 2, 3, . . . ) (15)

a(0) = e (16)

Zusammenfassung der Kapitel

1 Einleitung: Die Einleitung beleuchtet die Motivation hinter Finanzmarktprognosen und erläutert die Potenziale sowie die Herausforderungen des Einsatzes neuronaler Netze in diesem Bereich.

2 Biologische Grundlagen neuronaler Netze: Dieses Kapitel beschreibt die biologischen Vorbilder, insbesondere das menschliche Gehirn und die Funktionsweise von Nervenzellen, als Basis für künstliche neuronale Systeme.

3 Künstliche neuronale Netze (KNN): Hier werden die historische Entwicklung, verschiedene Netzwerktypen wie vorwärts gerichtete und rückgekoppelte Netze sowie zentrale Lernverfahren und Optimierungsstrategien detailliert dargelegt.

4 Entwicklung eines KNN zur DAX-Prognose: Der praxisorientierte Hauptteil umfasst die Datenselektion, den Aufbau des Netzes sowie die detaillierte Durchführung und Optimierung der Prognosen für verschiedene Zeithorizonte.

5 Zusammenfassung und Ausblick: Das Fazit fasst die gewonnenen Erkenntnisse zur Leistungsfähigkeit des Modells zusammen und diskutiert Limitationen sowie mögliche Ansätze für zukünftige Forschungsarbeiten.

Schlüsselwörter

Künstliche neuronale Netze, KNN, DAX, Kursprognose, Backpropagation, Finanzzeitreihen, Optimierung, Pruning, Zeitreihenanalyse, Aktienmarkt, Sensitivitätsanalyse, Vorhersage, Modellentwicklung, Datenselektion, Lernverfahren

Häufig gestellte Fragen

Worum geht es in dieser Arbeit grundsätzlich?

Die Arbeit befasst sich mit der praktischen Anwendung künstlicher neuronaler Netze zur Vorhersage von Kursentwicklungen am deutschen Aktienmarkt (DAX) unter Berücksichtigung verschiedener Einflussgrößen.

Was sind die zentralen Themenfelder?

Zentrale Themen sind die theoretischen Grundlagen neuronaler Netze, ihre Architektur, unterschiedliche Lernalgorithmen sowie die spezifische Anwendung und Optimierung dieser Modelle zur Prognose von Finanzdaten.

Was ist das primäre Ziel der Untersuchung?

Das Ziel ist die systematische Entwicklung eines neuronalen Netzes, um durch verschiedene Modellvariationen und Optimierungsmethoden die Genauigkeit der DAX-Kursprognose für unterschiedliche Zeithorizonte zu evaluieren.

Welche wissenschaftlichen Methoden werden verwendet?

Es wird das Multi-Layer-Perzeptron-Modell angewendet, wobei der Backpropagation-Algorithmus zur Fehlerkorrektur genutzt wird. Zudem kommen statistische Testverfahren und Sensitivitätsanalysen zur Optimierung zum Einsatz.

Was wird im Hauptteil behandelt?

Im Hauptteil liegt der Fokus auf der konkreten Datenaufbereitung, der Initialisierung und dem Training des Netzes sowie der anschließenden Optimierung durch Verfahren wie Stopp-Training, Gewichtspruning und Sensitivitätsanalysen.

Welche Schlüsselwörter charakterisieren die Arbeit?

Die wesentlichen Begriffe umfassen KNN, DAX, Backpropagation, Finanzzeitreihen, Pruning und Sensitivitätsanalyse.

Warum ist die Wahl der Datenaufbereitung für das Modell so kritisch?

Die Arbeit zeigt, dass neuronale Netze sehr sensibel auf die Art der Datenvorbereitung reagieren; eine lineare Skalierung ist aufgrund des asymptotischen Verhaltens der verwendeten Aktivierungsfunktionen (z.B. Sigmoid) essenziell.

Welche Herausforderungen bei der Interpretation der Ergebnisse werden genannt?

Die Autoren weisen darauf hin, dass neuronale Netze oft als „Black Box“ fungieren, da es aufgrund der Komplexität schwierig ist, die gelernten Gewichte inhaltlich so zu interpretieren, dass eine eindeutige Aussage über die Wirkungszusammenhänge der Inputs möglich ist.

Excerpt out of 112 pages  - scroll top

Details

Title
Anwendung eines künstlichen neuronalen Netzes zur Kursprognose am Beispiel des DAX
College
University of Tubingen
Grade
1,3
Author
Diplom-Kaufmann Mathias Bunge (Author)
Publication Year
2008
Pages
112
Catalog Number
V119878
ISBN (eBook)
9783656388968
ISBN (Book)
9783656389590
Language
German
Tags
Anwendung Netzes Kursprognose Beispiel
Product Safety
GRIN Publishing GmbH
Quote paper
Diplom-Kaufmann Mathias Bunge (Author), 2008, Anwendung eines künstlichen neuronalen Netzes zur Kursprognose am Beispiel des DAX, Munich, GRIN Verlag, https://www.grin.com/document/119878
Look inside the ebook
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
Excerpt from  112  pages
Grin logo
  • Grin.com
  • Shipping
  • Contact
  • Privacy
  • Terms
  • Imprint