Leseprobe
Inhaltsverzeichnis
Abkürzungsverzeichnis
Abbildungsverzeichnis
1 Einleitung
1.1 Problemstellung
1.2 Aufbau der Arbeit
2 Theoretische Grundlagen
2.1. Börsenprognose
2.1.1 Technische Analyse
2.1.2 Fundamentalanalyse
2.2 Maschinelles Lernen
2.2.1 Begriffsdefinition
2.2.2 Voraussetzungen für maschinelles Lernen
3 Literaturüberblick
3.1 Methodik
3.2 Studien
3.3 Ergebnisse
3.3.1 Lernalgorithmen
3.3.2 Charakteristika
3.4 Diskussion
4 Fazit und Literaturlücke
Anhang
A Auswertung des Literaturüberblicks
Literaturverzeichnis
Abkürzungsverzeichnis
AG Aktiengesellschaft
DCF Discounted-Cash-Flow
et al. et alii
f. folgend
KI Künstliche Intelligenz
ML Maschinelles Lernen
RWT Random-Walk-Theorie
Vgl. vergleiche
WACC Weighted Average Cost of Capital
Abbildungsverzeichnis
Abbildung 1: Struktur eines künstlichen neuronalen Netzes
Abbildung 2: Struktur eines Entscheidungsbaumes
Abbildung 3: Optimierungsprozess einer Support Vector Machine
1 Einleitung
1.1 Problemstellung
Die Vorhersage von Aktienkursbewegungen am Kapitalmarkt steht im Mittelpunkt der Forschung einer großen Anzahl von Finanz- und Technologieunter- nehmen.1 Dabei stellen die technische Analyse und die Fundamentalanalyse die Basis für Börsenprognosen dar.2 Ihnen stehen die Effizienzmarkthypothese und die damit verbundene Random-Walk-Theorie (RWT) gegenüber, in der sämtliche börsenrelevanten Informationen im aktuellen Aktienkurs angenommen wer- den.3 Da allerdings veröffentlichte Informationen nicht vollständig aufgenommen oder auch fehlinterpretiert werden können, kann angezweifelt werden, dass Aktienkurse immer einem zufälligen Pfad folgen.4 Aktienkursentwicklungen beinhalten eine sehr hohe Anzahl unterschiedlicher Variablen, die insbesondere durch computergestützte Systeme und ihre Programmstrukturen effizient verarbeitet und analysiert werden können.5 Diese Variablen stellen verschiedene marktbezogene Daten dar, denen in Zeiten der digitalen Transformation ein besonderes Gewicht zukommt.6 Im Rahmen der Prozessoptimierung dieser Datenverarbeitung steht das maschinelle Lernen (ML) im Fokus der Forschung, das als automatisierter Prozess Muster in Datensätzen erkennen soll, um eine Zukunftsprognose für künftige Entwicklungen am Kapitalmarkt abgeben zu kön- nen.7 Das ML stellt eine Teildisziplin der künstlichen Intelligenz (KI) dar, die darauf ausgelegt ist, menschliche Intelligenz nachzuahmen.8 Die vorliegende Arbeit zeigt verschiedene Algorithmen für ML auf, mit deren Hilfe Börsenprognosen angestellt und Trends erkannt werden können. Zudem soll überprüft werden, ob ML dazu in der Lage ist, die Genauigkeit von Börsenprognosen zu erhöhen und welchen Einfluss es auf das Handelsvolumen von Wertpapieren und die Aktienpreisentwicklung von börsennotierten Unternehmen hat.
1.2 Aufbau der Arbeit
Zunächst erfolgt in den theoretischen Grundlagen dieser Arbeit eine konkrete Definition der technischen Analyse und der Fundamentalanalyse als Basis der Börsenprognose.
Anschließend wird erläutert, was unter ML zu verstehen ist und welche technischen Voraussetzungen dafür vorhanden sein müssen.
Im nächsten Kapitel erfolgt sodann eine systematische Untersuchung bereits verfügbarer Studien, die sich intensiv mit den Auswirkungen von ML auf Börsenprognosen beschäftigen und verschiedene Lernalgorithmen für ML zur Bewältigung von Prognoseproblemen aufzeigen. Dabei werden Studien der einzelnen aufgeführten Lernalgorithmen zum Zweck der Übersichtlichkeit in Textblöcken dargestellt. Eine strukturierte Darstellung der themenbezogenen Studien befindet sich im Anhang dieser Arbeit. Sie fasst neben der experimentellen Vorgehensweise der Autoren ihre untersuchten Lernalgorithmen und technischen Lösungen für die Prognose von Börsentrends zusammen.
Das abschließende Fazit mit Ausblick fasst die wichtigsten Inhalte dieser Arbeit noch einmal zusammen und geht auf einen Forschungsaspekt ein, der in den vorliegenden Studien nicht oder nur unzureichend behandelt wird.
2 Theoretische Grundlagen
2.1. Börsenprognose
2.1.1 Technische Analyse
Die Entwicklung einer Börsenprognose kann als Prozess definiert werden, der Informationen über verschiedene marktbezogene Daten nutzt, um den künftigen Trend eines Aktienkurses vorhersagen zu können.9 Eine Prognose künftiger Aktienkursbewegungen stützt sich dabei auch auf die Auswertung historischer Informationen und impliziert damit einen Zusammenhang zwischen einem gegenwärtigen Börsentrend und der zukünftigen Trendbewegung.10 Die technische Analyse basiert ausschließlich auf historischen Daten und besagt, dass sich aus vergangenen Aktienkursbewegungen künftige Trendprognosen ableiten las- sen.11 Der Ursprung der technischen Analyse liegt bei Charles H. Dow, dem Herausgeber und Mitbegründer der Tagezeitung Wall Street Journal.12 Die von ihm begründete Dow-Theorie besagt, dass Aktienkurse einem bestimmten Muster folgen und dass sich dadurch Rückschlüsse auf künftige Kursbewegungen an der Börse ziehen lassen.13 Die technische Analyse lässt sich in die Charttechnik und die Markttechnik unterteilen. Letztere berücksichtigt weitere marktbezogene Größen wie das Umsatzvolumen.14 Die Chartanalyse stellt unter Berücksichtigung der Psychologie von Anlegern eine sich selbst erfüllende Prophezeiung dar.15 Das bedeutet, dass eine große Anzahl von Anlegern simultan bei Erkennung eines Kaufsignals oder Verkaufssignals durch entsprechende Handlungen am Kapitalmarkt den Aktienkurs maßgeblich beeinflusst.16 Ein Kaufsignal der Aktie entsteht dann, wenn ihr tagesaktueller Kurs ihren gewichteten Durchschnittskurs von unten nach oben durchbricht, während andersherum ein Verkaufssignal entsteht.17 Der gewichtete Durchschnittskurs glättet die Volatilität des Aktienkursverlaufes und repräsentiert den Primärtrend der Aktie, der sich als Aufwärtstrend oder Abwärtstrend ausdrückt.18 Die technische Analyse orientiert sich primär am stochastischen Wirtschaftsfaktor der Börse, was eine Wiederholung von Zyklen, Trends und Kursformationen voraussetzt.19 Da die Chartanalyse auf historischen Daten beruht, vernachlässigt sie die Auftretenswahrscheinlichkeit künftiger marktbezogener Ereignisse, die Einfluss auf den Aktienkursverlauf haben können, und eignet sich daher allgemein für Investoren nur bedingt zum Zweck einer Börsenprognose.20
2.1.2 Fundamentalanalyse
Die Fundamentalanalyse stellt eine differenzierte Methode dar, ökonomische Fakten systematisch zu modellieren und daraus Prognosen, Handlungsempfehlungen oder Erklärungen für wirtschaftspolitische Gegebenheiten abzuleiten.21 Für die Börsenprognose zielt sie darauf ab, den inneren Wert einer Aktie zu be- stimmen.22 Der innere Wert gibt an, wie hoch der faire Preis einer Aktie ist.23 Die Fundamentalanalyse verlangt dafür ein umfassendes Verständnis des Unternehmensgeschäfts, eine detaillierte Prognose der künftigen Unternehmensperformance, die Auswahl eines geeigneten Bewertungsmodells sowie die Umwandlung der geschätzten Bewertungsparameter in einen Aktienwert, der im letzten Schritt eine Kaufempfehlung oder Verkaufsempfehlung einer Aktie ab- gibt.24 Der Fundamentalanalyse liegt eine angenommene Fehlbewertung von Aktien am Kapitalmarkt zugrunde, die eine Erzielung von Überrenditen ermöglicht, sofern der ermittelte innere Wert einer Aktie über ihrem aktuellen Kaufkurs liegt.25 Die Ermittlung des inneren Wertes einer Aktie stützt sich dabei auf verschiedene finanzmathematische Modelle. Sie unterteilen sich in das Einzelbewertungsverfahren und das Gesamtbewertungsverfahren, welches auf dem Gedanken aufbaut, dass sich der künftige Wert eines Unternehmens ausschließ- lich durch künftige finanzielle Überschüsse für die Unternehmenseigner aus- drückt.26 Das weltweit am weitesten verbreitete finanzmathematische Modell stellt dabei das Discounted-Cash-Flow (DCF)-Verfahren dar, was den Fokus auf dieses Modell an dieser Stelle rechtfertigt.27 Dabei stellt das Weighted Average Cost of Capital (WACC)-Verfahren die wichtigste Unterform des DCF-Verfah- rens dar, da es die Renditeforderung aller beteiligten Eigen- und Fremdkapitalgeber berücksichtigt und so den Gesamtkapitalwert eines Unternehmens durch die Diskontierung des künftig erwarteten Free Cash Flows bestimmt.28 Die Ermittlung des Gesamtkapitalwertes wird als Entity-Verfahren bezeichnet.29 Der Unternehmenswert, der auch als Marktwert des Eigenkapitals bezeichnet wird, ermittelt sich als Summe aus dem zuvor berechneten Gesamtkapitalwert des Unternehmens abzüglich des Marktwertes des Fremdkapitals und berücksichtigt darüber hinaus über den Berechnungszeitraum seinen Residualwert und den Überschuss aus nicht betriebsnotwendigem Vermögen.30 Alternativ kann der Marktwert des Eigenkapitals auch durch die künftigen ausschüttungsfähigen Cashflows für die Eigentümer ermittelt werden, die mit den Eigenkapitalkosten diskontiert werden.31 Der innere Wert einer Aktie wird anschließend ermittelt, indem der Marktwert des Eigenkapitals durch die Anzahl aller ausstehenden Aktien auf verwässerter Basis dividiert wird.32 Sofern der innere Wert einer Aktie über / unter ihrem aktuellen Kaufkurs liegt, kann er als Kaufsignal / Verkaufssignal interpretiert werden.33 Es zeigt sich, dass Investoren unter realistischen Handelsprämissen sowohl historische als auch aktuelle Unternehmensinformationen nutzen, um den künftigen Kurstrend eines Finanzinstrumentes prognostizieren zu können.34
2.2 Maschinelles Lernen
2.2.1 Begriffsdefinition
Bevor die grundlegenden technischen Aspekte des ML zusammengefasst werden, bedarf es einer konkreten Definition verschiedener Begrifflichkeiten dieser Thematik. Durch den Digitalisierungsprozess des Wirtschaftslebens kommt im Rahmen der Verbesserung von Prognosen und der Automatisierung von Entscheidungsprozessen dem ML eine immer größere Bedeutung zu.35 Das heißt, dass computergestützte Verarbeitungsschritte nicht mehr nur manuell entwickelt werden, sondern dass ihnen vermehrt die Fähigkeit einprogrammiert wird, aus Beispielsituationen Muster zu erkennen, die sie auf ähnliche Situationen automatisch übertragen können, um daraus Prognosen oder Entscheidungen ableiten zu können.36 ML stellt eine Teildisziplin der KI dar und ist darauf ausgelegt, auf Basis von Trainingsdaten Arbeitsabläufe zu erlernen, um menschliche Arbeitskraft zu entlasten.37 Nach John McCarthy ist das Ziel einer KI, eine Maschine zu entwickeln, die sich verhält, als hätte sie menschliche Intelligenz.38 Konkret bedeutet dies, dass sich eine Maschine so verhalten soll, als hätte sie ein menschliches Gehirn.39 Das Gehirn stellt als zentrales Nervensystem die Basis und den Speicherort jedes Lernprozesses dar.40 Der Lernbegriff wird in der allgemeinen Psychologie als „Veränderung in Erleben, Verhalten oder Entwicklung durch Erfahrung“ definiert.41 Der Begriff der menschlichen Intelligenz ist hingegen nicht eindeutig definiert, sondern wird allgemein in der Kognitionswissenschaft als Fähigkeit verstanden, Probleme der realen Welt unter der Prämisse des logischen und abstrakten Denkens zu lösen.42 Als mathematisches und statistisches Verfahren zur Erkennung von Mustern in Datensätzen gliedert sich das ML in das überwachte, das verstärkende und das unüberwachte Lernverfahren.43 Das verstärkende oder auch bestärkende Lernverfahren basiert auf einer Kostenfunktion, welche eine Bewertung für eine bestimmte automatisierte Aktion zu einem bestimmten Zeitpunkt vornimmt und keine Trainingsdaten für dieses Verfahren benötigt.44 Das überwachte Lernverfahren beinhaltet Trainingsdatenbestände in Form von Eingaben und Sollausgaben, wohingegen das unüberwachte Lernverfahren keine Sollausgaben zur Verfügung stellt.45 Die Trainingsdatenbestände werden durch einen zuvor ausgewählten Algorithmus verarbeitet, der eine Sequenz von einzelnen computergestützten Schritten zur Verarbeitung von Daten darstellt und auf ein vorliegendes Problem angepasst werden muss.46 Das ML erstellt aus einer Eingabe und einer gewünschten Ausgabe als Bündelinformation ein Programm, das auch als Modell bezeichnet wird und in der Lage ist, künftige Eingaben in die gewünschte Ausgabe automatisch zu überführen.47 Die zentralen Aspekte von ML stellen die Regressionsanalyse und die Klassifikation dar.48 Die Regressionsanalyse ist ein statistisches Verfahren zur Modellierung von Beziehungen zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen.49 Eine Klassifikation stellt die Strukturierung eines Objektbereiches durch eine Einteilung in definierte Klassen dar.50 Generell lassen sich im Rahmen des ML die Analyseverfahren in die Bereiche Descriptive Analytics, Diagnostic Analytics, Predictive Analytics und Prescriptive Analytics untertei- len.51 Diese Arbeit stützt sich auf den Bereich der Predictive Analytics, der darauf ausgelegt ist, Modelle zu entwickeln, die Prognosen auf Basis historischer Daten erstellen.52
2.2.2 Voraussetzungen für maschinelles Lernen
ML erfordert eine digitale Infrastruktur mit hochleistungsfähigen Hard- und Softwareplattformen, um Modelle zur Lösung von komplexen Problemen zu erstellen.53 Ein Klassifikationsproblem liegt dann vor, wenn die gesuchte Zielvariable einen diskreten Wert darstellt, ein Regressionsproblem drückt sich durch eine gesuchte kontinuierliche Zielvariable aus.54 Die Ausgangsbasis für ML stellen Programmiersprachen wie Prolog oder Lisp dar.55 Prolog und Lisp repräsentieren die am häufigsten genannten und angewendeten Programmiersprachen im Kontext der KI und gelten als Basis weiterer Sprachen wie Curry oder für das Programmiersystem Mozart-Oz.56 Für ML bedarf es eines umfangreichen Datensatzes, der in Trainingsdaten und Testdaten aufgeteilt wird.57 Die Trainingsdatenbestände dienen dazu, den verwendeten Lernalgorithmus durch eine Eingabe auf ein gewünschtes Ergebnis zu trainieren, um so ein Modell für automatisierte Abläufe zu generieren.58 Trainingsdaten, deren Sollausgaben bereits definiert sind, werden auch als gelabelte Trainingsdaten bezeichnet.59 Testdaten dienen dazu, das Modell durch unbekannte problembezogene Daten auf seine Genauigkeit hin zu untersuchen und müssen daher ebenfalls gelabelt vorliegen.60 Diese Datenbestände ermöglichen im Rahmen der Aufstellung einer Börsenprognose Klassifikationsverfahren.61 Die Klassifikation von Daten wird unter anderem durch Entscheidungsbäume, künstliche neuronale Netze oder durch die k-Nächste-Nachbar-Methode ermöglicht.62 Jeder Lernalgorithmus benötigt für sein Training eine Verlustfunktion, die den Abstand zwischen der ausgegebenen Prognose und der vorgegebenen Ziel variablen angibt.63 Die Verlustfunktion muss für die Menge aller Daten berechnet werden und liefert dadurch Rück- Schlüsse auf die Genauigkeit und die Leistungsfähigkeit des entwickelten Modells.64 Das Ziel des Trainings ist es, diese Verlustfunktion zu minimieren.65 Je spezifischer die ausgewählten Trainingsdaten sind, desto eher werden auch die erwarteten Zielvariablen generiert.66 Zur Gewinnung von Trainingsdaten ist es üblich, aus historischen Sequenzdaten unabhängige Variablen zu extrahieren, die anschließend eine feste Anzahl von Eigenschaften und eine Zielvariable zugewiesen bekommen.67 Mit den zuvor festgelegten Testdaten werden Probeläufe angestellt, die ein Modell auf seine Güte hin untersuchen sollen.68 Gerade im Rahmen der Predictive Analytics rückt hier der Begriff Big Data als wichtiger Faktor für KI und damit auch ML in den Vordergrund.69 Damit ist die Verarbeitung und Analyse riesiger Datenmengen gemeint, die auch durch die Verbreitung des Internets generiert werden.70 ML findet in der Finanzwirtschaft verschiedene Anwendungen. Banken nutzen ML in der Graphanalyse, um unter anderem Börsenmanipulation durch Händlergruppen aufspüren zu können, um ein Kreditausfallsrisiko für ein stark vernetztes Unternehmen besser ermitteln zu können oder um andere Netzwerkeffekte aufzuspüren, die von herkömmlichen mathematischen Modellierungsinstrumenten nicht erkannt werden.71 Es zeigt sich, dass ML ebenfalls in der datenbasierten Kausalanalyse eingesetzt wird, um beispielsweise den Effekt einer Zinsveränderung auf den Aktienkurs eines Unternehmens zu analysieren und zu interpretieren.72
3 Literaturüberblick
3.1 Methodik
Nachdem die Grundlagen der Börsenprognose sowie das ML definiert sind, soll ermittelt werden, auf welche Lernalgorithmen sich das ML im Rahmen einer Börsenprognose stützt, ob es dazu in der Lage ist, die Genauigkeit von Börsenprognosen zu erhöhen und ob ML einen Einfluss auf das Handelsvolumen und die Aktienpreisfindung börsennotierter Unternehmen hat. Um zu identifizieren welche Lernalgorithmen im Rahmen der Börsenprognose verwendet werden und ob sie die Genauigkeit von Prognosen erhöhen, folgt ein systematischer Literaturüberblick, der verschiedene Studien aufgreift, um den aktuellen Stand der wissenschaftlichen Forschung über den Zusammenhang zwischen ML und der Börsenprognose aufzuarbeiten, zu systematisieren, Forschungslücken zu identifizieren und daraus eine mögliche Richtung für weitere Forschungsarbeiten auf- zuzeigen.73 Für die Beschaffung von Literatur wurde auf verschiedene Datenbanken wie Springer Link, wiso, ScienceDirect, IEEE XPlore und JSTOR zurückgegriffen. In den aufgeführten Datenbanken existiert ein großer Literaturbestand über ML, die damit verbundenen Lernalgorithmen und über Optimierungsprozesse von Börsenprognosen. Die aufgeführten Studien sind anhand einer bestimmten Strategie ausgewählt worden. Dem Thema entsprechend wurden spezifische englischsprachige Oberbegriffe wie Machine Learning in Kombination mit Stock Market Prediction und Unterbegriffe wie Decision Tree, Support Vector Machine oder Artificial Neural Network in den genutzten Datenbanken bei der Recherche verwendet. Nach der Sichtung erster relevanter Studien wurden nach dem Schneeballprinzip weitere Studien aus ihren Literaturverzeichnissen herangezogen und im Rahmen dieser Arbeit ausgewertet. Der Fokus dieses Literaturüberblicks liegt dabei auf den aufgeführten Lernalgorithmen, die im Rahmen des ML für Börsenprognosen verwendet werden.
3.2 Studien
Verschiedene Studien diverser Autoren wie Ismail et al. (2020), Vijh et al. (2020) oder Lee et al. (2019) stellen fest, dass die Aufstellung von Prognosen über künftige Börsenbewegungen eine schwierige Aufgabe darstellt, was auf die hohe Volatilität von Börsenkursen zurückzuführen ist.74 Die Studien dieses Abschnitts bilden ein Teilgebiet der Business Analytics, in der angewandte analytische Prognoseverfahren sowie ihre zugehörigen Algorithmen diskutiert wer- den.75 Verschiedene Lernalgorithmen unterteilen sich in einzelne Funktionsklassen und erzielen besonders gute Ergebnisse, wenn sie kombiniert und in einer einzelnen Prognosefunktion zusammengeführt werden.76 Dabei ist es wichtig, die Komplexität eines ausgewählten Lernalgorithmus so anzupassen, dass sich ein fertiges Modell unter Verwendung neuer Datenstrukturen nicht zu stark an seinen vorherigen Trainingsdaten orientiert, was auch als overfitting bezeichnet wird.77 Overfitting führt zu einer schwächeren Performance des Modells in der Testphase, da es neue Daten nur schwer interpretieren kann.78
Künstliche neuronale Netze
Im Bereich des ML rücken künstliche neuronale Netze immer mehr in den Vordergrund der Forschung.79
Sie werden im Finanzwesen bereits vermehrt eingesetzt. Dabei handelt es sich um eine Ansammlung von einzelnen Einheiten zur Informationsverarbeitung, die schichtweise in einer Netzarchitektur angeordnet sind. Die Knotenpunkte stellen dabei Neuronen dar, die in Eingabeknoten, innere / versteckte Knoten und Ausgabeknoten unterteilt werden und durch mehrere Schichten miteinander vernetzt sind. Beginnend mit der Eingabeschicht fließen Informationen über eine oder mehrere versteckte Zwischenschichten bis hin zur Ausgabeschicht, in der die verarbeiteten Daten klassifiziert werden. Da das künstliche neuronale Netz
[...]
1 Vgl. Liu (2017), S. 179.
2 Vgl. Fama (1995), S. 75.
3 Vgl. Qian/Rasheed (2007), S. 25.
4 Vgl. Paul (2017), S. 598-601.
5 Vgl. Bohn et al. (2003), S. 326.
6 Vgl. Oswald (2018), S. 7.
7 Vgl. Kelleher/Namee/D'Arcy (2015), S. 2f.
8 Vgl. Franz et al. (2019), S. 53.
9 Vgl. Elliott/Timmermann (2008), S. 8.
10 Vgl. Hellström/Holmström (1998), S. 6.
11 Vgl. Kavajecz/Odders-White (2004), S. 1043.
12 Vgl. Bishop (1961), S. 23.
13 Vgl. Benjamin (1942), S. 204.
14 Vgl. Dorfleitner/Klein (2002), S. 497.
15 Vgl. Schuster/Uskova (2015), S. 56.
16 Vgl. Sant/Zaman (1996), S. 617.
17 Vgl. Vasiliou/Eriotis/Papathanasiou (2006), S. 89.
18 Vgl. Henkel et al. (2010), S. 198.
19 Vgl. Heese/Riedel (2016), S. 134.
20 Vgl. Weber (2007), S. 43f.
21 Vgl. Spooner (1984), S. 79.
22 Vgl. Qian/Rasheed (2007), S. 25.
23 Vgl. Schuster/Uskova (2015), S. 43.
24 Vgl. Mondello (2017), S. 263f.
25 Vgl. Abarbanell/Bushee (1998), S. 20.
26 Vgl. Becker (2016), S. 85-87.
27 Vgl. Heesen (2017), S. 87.
28 Vgl. Becker (2016), S. 92.
29 Vgl. Schildbach (2000), S. 709.
30 Vgl. Becker (2016), S. 93.
31 Vgl. Becker (2016), S. 95.
32 Vgl. Mondello (2017), S. 353.
33 Vgl. Qian/Rasheed (2007), S. 25.
34 Vgl. Drobetz et al. (2019), S. 529.
35 Vgl. Welsch/Eitle/Buxmann (2018), S. 366.
36 Vgl. Kersting/Tresp (2019), S. 32f.
37 Vgl. Franz et al. (2019), S. 52.
38 Vgl. Ertel (2016), S. 10.
39 Vgl. Shaotran (2018), S. 14.
40 Vgl. Chein/Schneider (2012), S. 80.
41 Widulle (2009), S. 51.
42 Vgl. Holzinger/Müller (2020), S. 33.
43 Vgl. Lee/Lai (1996), S. 117.
44 Vgl. Wuttke (2020).
45 Vgl. Reinhart et al. (2018), S. 75.
46 Vgl. Kashyap (2017), S. 91.
47 Vgl. Lanquillon (2019), S. 91.
48 Vgl. Kossen/Müller (2019), S. 39-44.; Aberham/Kossen (2019), S. 45-52.
49 Vgl. Backhaus et al. (2018), S. 16.
50 Vgl. Simons (1992), S. 22.
51 Vgl. Mathur (2019), S. 7.
52 Vgl. Kelleher/Namee/D'Arcy (2015), S. 1.
53 Vgl. Hecker et al. (2017), S. 5.
54 Vgl. Welsch/Eitle/Buxmann (2018), S. 372.
55 Vgl. Hofstedt (2012a), S. 7
56 Vgl. Hofstedt (2012b), S. 12.
57 Vgl. Liu (2017), S. 14.
58 Vgl. Aunkofer (2017).
59 Vgl. Kownatzki (2017).
60 Vgl. Krämer (2018).
61 Vgl. Abe (2001), S. 238.
62 Vgl. Qian/Rasheed (2007), S. 28.
63 Vgl. Schapire (2013), S. 43.
64 Vgl. Chase/Freitag (2019), S. 322.
65 Vgl. Aggarwal (2018), S. 7.
66 Vgl. Rost (2018), S. 563.
67 Vgl. Funk/Rettenmeier/Lang (2017), S. 20.
68 Vgl. Göldner (2001), S. 86.
69 Vgl. Schäffer/Weber (2016), S. 3.
70 Vgl. Gentsch (2018), S. 7.
71 Vgl. Papenbrock (2018), S. 327f.
72 Vgl. Huber (2020), S. 106.
73 Vgl. Goldenstein/Hunoldt/Walgenbach (2018), S. 75.
74 Vgl. Ismail et al. (2020), S. 1.; Vijh et al. (2020), S. 599.; Lee et al. (2019), S. 227.
75 Vgl. Gluchowski (2016), S. 273.
76 Vgl. Mullainathan/Spiess (2017), S. 93f.
77 Vgl. Wolff/Neugebauer (2019), S. 275.
78 Vgl. Brownlee (2019).
79 Vgl. Akyol (2020), S. 1.
- Arbeit zitieren
- Philipp Stücker (Autor:in), 2020, Auswirkungen des maschinellen Lernens auf die Börsenprognose, München, GRIN Verlag, https://www.grin.com/document/933689
Kostenlos Autor werden
Kommentare