Grin logo
de en es fr
Shop
GRIN Website
Publish your texts - enjoy our full service for authors
Go to shop › Economics - Finance

Long Short-Term Memory Networks bei der Renditeprognose. Inwiefern lassen sich die Ergebnisse von Fischer/Krauss (2017) replizieren und nachvollziehen?

Title: Long Short-Term Memory Networks bei der Renditeprognose. Inwiefern lassen sich die Ergebnisse von Fischer/Krauss (2017) replizieren und nachvollziehen?

Project Report , 2020 , 33 Pages , Grade: 1,7

Autor:in: Florian Meyer (Author)

Economics - Finance
Excerpt & Details   Look inside the ebook
Summary Excerpt Details

Diese Arbeit erklärt die wichtigsten Entwicklungsschritte von einfachen neuronalen Netzen bis hin zu den LSTM Netzwerken und arbeitet Vor- und Nachteile heraus. Im zweiten Teil der Arbeit werden die Ergebnisse des Papiers von Fischer/Krauss (2017) kritisch gewürdigt. Die Resultate in dieser Untersuchung weichen zum Teil deutlich von denen des Fischer/Krauss Papieres ab.

In dieser Arbeit werden selektiv die Zeiträume der Jahre 1994, 2001, 2008 und 2015 untersucht. Lediglich in den untersuchten Jahren 1994 und 2001 konnte gegenüber dem S&P500 eine signifikante Outperformance durch das LSTM-Networks, mit durchschnittlich täglichen Renditen von 0,022 respektive 0,0074 festgestellt werden. Eine allgemeingültige Prognosefähigkeit des Modells oder eine Überlegenheit zu etwaigen BenchmarkModellen lässt sicher allerdings nicht darstellen. Das gewählte Benchmark-Modell, die logistische Regression, liefert in 1994 ähnlich gute Ergebnisse wie das LSTM. Da die Daten und Methoden denen von Fischer/Krauss (2017) folgen, gilt es eine Erklärung der differenten Resultate zu finden.

Machine Learning ist seit den 90er Jahren ein verbreitetes Thema der Finanzwissenschaft und Informatik. Mit der neuen Big Data Welle kommt das mittlerweile in die Jahre gekommene Wissenschaftsgebiet wieder in den Fokus der Wissenschaft. Die Gründe liegen auf der Hand. Gerade die besseren Rechenkapazitäten und größeren Mengen an öffentlich zugänglichen Kapitalmarktdaten gestatten es, Machine Learning erneut auf den Prüfstand zu stellen. Dies führte zu einer erneuten Prominenz des Forschungsgebietes, des Deep Learning.

Das Papier von den Autoren Fischer/Krauss (2017) zum Thema Aktienmarktprognose mittels neuronaler Netze sorgte aufgrund ihrer Ergebnisse für Aufsehen. Die Autoren nutzen in ihrer Arbeit zur Prognose von Aktienmarktrenditen insbesondere Long Short-Term Memory Netzwerke (LSTM-Networks). Diese zählen zu den fortgeschrittensten Methoden in Bereich des Machine Learning. In dem Papier schaffen sie es ausschließlich mittels vergangener Renditen, den Benchmark-Index S&P500 mehr als deutlich zu schlagen. Diese Ergebnisse stehen im Konflikt mit der von Eugene Fama entwickelten Effizienz-Markt-Hypothese, als das sich aus vergangen Kursdaten keine nützlichen Informationen für die Zukunft ableiten lassen.

Excerpt


Inhaltsverzeichnis

Einleitung

Neuronale Netze im Allgemeinen

Units

Aktivierung von Units

Training des neuronalen Netzwerks

Rekurrente Netzwerke

Backpropagation through time

Long Short-Term Memory Netzwerke (LSTM)

Adam und RMSProp

Analyse des zu replizierenden Papiers

Aufbau der empirischen Arbeit

Backtesting

Methoden

Empirische Auswertung

Performance

Diskussion

Zusammenfassung und Ausblick

Zielsetzung & Themen

Diese Arbeit zielt darauf ab, die Forschungsergebnisse von Fischer/Krauss (2017) zur Renditeprognose mittels Long Short-Term Memory Networks (LSTM) zu replizieren und kritisch zu hinterfragen, wobei insbesondere die Stabilität der Modellperformance über verschiedene Zeiträume hinweg untersucht wird.

  • Grundlagen künstlicher neuronaler Netze und ihre Funktionsweise
  • Vertiefung in die Architektur und Lernprozesse von LSTM-Netzwerken
  • Empirische Replikation der Aktienmarktprognose mit dem S&P 500
  • Vergleich der Modellgüte mit einem Benchmark-Modell (logistische Regression)
  • Diskussion von Marktanomalien und der Effizienz-Markt-Hypothese

Auszug aus dem Buch

Long Short-Term Memory Netzwerke (LSTM)

LSTM Netzwerke lassen sich vereinfacht als eine Erweiterung der RNN verstehen, welches die Schwachpunkte der klassischen RNN ausgleichen sollen. Es zeigt sich bei der Anwendung von RNN, dass beim Anlernen mit der Backpropagation ein Ungleichgewicht bei tiefen Netzwerken (Netzwerke mit einer großen Anzahl von rückgekoppelten Schichten) entsteht.

Goodfellow et al. (2016) beschreiben zwei häufige Probleme, die bei RNN auftreten können. Erstens das Vanishing Gradient Problem und zweitens das Exploding Gradient Problem. Das Vanishing Gradient Problem tritt dann auf, wenn über viele Schichten zurück propagiert und der Gradient in den ersten Schichten des Netzes immer kleiner wird. Manche Aktivierungsfunktionen begünstigen durch ihre Gegebenheiten diesen Sachverhalt. (z.B bei Sigmoid und Tanh Funktionen). Dies können Netzwerkarchitekturen wie das LSTM, aufgrund einer „vergessenden“ Fähigkeit um Informationen zu löschen, umgehen. Dafür soll das LSTM einmal ausführlich erklärt werden.

Zusammenfassung der Kapitel

Einleitung: Einführung in das Forschungsfeld des Machine Learning in der Finanzwissenschaft und Problemstellung der Arbeit bezogen auf die Fischer/Krauss-Studie.

Neuronale Netze im Allgemeinen: Vermittlung theoretischer Grundlagen zu künstlichen Neuronen und der allgemeinen Funktionsweise neuronaler Netze.

Analyse des zu replizierenden Papiers: Detaillierte Betrachtung der methodischen Vorgehensweise und der Anlage-Strategie von Fischer/Krauss (2017).

Aufbau der empirischen Arbeit: Beschreibung des experimentellen Setups, der Datengrundlage und der eingesetzten Benchmark-Methoden.

Backtesting: Erläuterung der Validierungsmethoden, insbesondere des Monkey Manager Portfolios und des Diebold-Mariano-Tests.

Methoden: Darstellung der Datenvorbereitung, Transformation und der softwaretechnischen Implementierung mittels MatLab.

Empirische Auswertung: Präsentation der Ergebnisse der Modellprognosen im zeitlichen Verlauf.

Performance: Analyse der erzielten Renditen und der statistischen Signifikanz der Ergebnisse.

Diskussion: Kritische Auseinandersetzung mit den abweichenden Ergebnissen und theoretische Einordnung in die Markteffizienzdiskussion.

Zusammenfassung und Ausblick: Fazit der Arbeit und Identifikation potenzieller zukünftiger Forschungsansätze.

Schlüsselwörter

Machine Learning, LSTM, Finanzwirtschaft, Renditeprognose, neuronale Netze, Aktienmarkt, S&P 500, Backtesting, Effizienz-Markt-Hypothese, Momentum-Strategie, Zeitreihenanalyse, Backpropagation, logistische Regression, Kapitalmarktanomalien, Modellperformance.

Häufig gestellte Fragen

Worum geht es in dieser Arbeit grundsätzlich?

Die Arbeit untersucht die Replizierbarkeit und Robustheit von Aktienmarktprognosen durch Long Short-Term Memory Networks (LSTM) basierend auf der Studie von Fischer/Krauss (2017).

Welche zentralen Themenfelder werden bearbeitet?

Zentrale Themen sind die theoretischen Grundlagen neuronaler Netze, die spezifische Funktionsweise von LSTMs, der Aufbau empirischer Finanzmodelle und die Diskussion aktueller kapitalmarkttheoretischer Hypothesen.

Was ist das primäre Ziel oder die Forschungsfrage?

Das Hauptziel ist zu prüfen, inwieweit sich die Ergebnisse von Fischer/Krauss replizieren lassen und ob das LSTM-Modell tatsächlich eine konsistente Outperformance gegenüber einfachen Benchmark-Modellen wie der logistischen Regression ermöglicht.

Welche wissenschaftliche Methode wird verwendet?

Es wird eine empirische quantitative Analyse durchgeführt, die historische Aktiendaten des S&P 500 mittels neuronaler Netze und mathematischer Validierungstests (DM-Test) auswertet.

Was wird im Hauptteil behandelt?

Der Hauptteil gliedert sich in eine theoretische Einführung zur Funktionsweise von LSTM-Netzwerken sowie eine detaillierte empirische Auswertung und den Vergleich der Modellperformance über verschiedene Zeiträume.

Welche Schlüsselwörter charakterisieren die Arbeit?

Die Arbeit ist primär durch Begriffe wie LSTM, Machine Learning, Finanzwirtschaft, Renditeprognose und Effizienz-Markt-Hypothese geprägt.

Wie schneiden die LSTM-Modelle im Vergleich zum "Monkey Manager Portfolio" ab?

Die Monkey Manager Portfolios dienen als Zufalls-Benchmark. Während das LSTM in bestimmten Jahren (1994, 2001) überlegen ist, verschwindet dieser Vorsprung in späteren Jahren, was auf einen abnehmenden Nutzen der spezifischen Informationen hindeutet.

Warum weichen die Ergebnisse von der ursprünglichen Studie ab?

Die Abweichungen werden unter anderem auf unterschiedliche statistische Testverfahren und die aggregierte Betrachtung der Zeiträume in der Originalstudie zurückgeführt.

Welche Rolle spielt die Effizienz-Markt-Hypothese in der Diskussion?

Die Arbeit nutzt diese Hypothese, um zu diskutieren, ob die festgestellten Renditen auf echter Vorhersagekraft basieren oder ob es sich um die Ausnutzung kurzfristiger Marktineffizienzen handelt, die sich über die Zeit abschwächen.

Excerpt out of 33 pages  - scroll top

Details

Title
Long Short-Term Memory Networks bei der Renditeprognose. Inwiefern lassen sich die Ergebnisse von Fischer/Krauss (2017) replizieren und nachvollziehen?
College
University of Bremen
Grade
1,7
Author
Florian Meyer (Author)
Publication Year
2020
Pages
33
Catalog Number
V593789
ISBN (eBook)
9783346197351
ISBN (Book)
9783346197368
Language
German
Tags
ergebnisse fischer/krauss inwiefern long memory networks renditeprognose short-term
Product Safety
GRIN Publishing GmbH
Quote paper
Florian Meyer (Author), 2020, Long Short-Term Memory Networks bei der Renditeprognose. Inwiefern lassen sich die Ergebnisse von Fischer/Krauss (2017) replizieren und nachvollziehen?, Munich, GRIN Verlag, https://www.grin.com/document/593789
Look inside the ebook
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
Excerpt from  33  pages
Grin logo
  • Grin.com
  • Shipping
  • Contact
  • Privacy
  • Terms
  • Imprint