Auswirkungen des maschinellen Lernens auf die Börsenprognose

Ein Literaturüberblick


Bachelorarbeit, 2020

49 Seiten, Note: 2.0


Leseprobe

Inhaltsverzeichnis

Abkürzungsverzeichnis

Abbildungsverzeichnis

1 Einleitung
1.1 Problemstellung
1.2 Aufbau der Arbeit

2 Theoretische Grundlagen
2.1. Börsenprognose
2.1.1 Technische Analyse
2.1.2 Fundamentalanalyse
2.2 Maschinelles Lernen
2.2.1 Begriffsdefinition
2.2.2 Voraussetzungen für maschinelles Lernen

3 Literaturüberblick
3.1 Methodik
3.2 Studien
3.3 Ergebnisse
3.3.1 Lernalgorithmen
3.3.2 Charakteristika
3.4 Diskussion

4 Fazit und Literaturlücke

Anhang

A Auswertung des Literaturüberblicks

Literaturverzeichnis

Abkürzungsverzeichnis

AG Aktiengesellschaft

DCF Discounted-Cash-Flow

et al. et alii

f. folgend

KI Künstliche Intelligenz

ML Maschinelles Lernen

RWT Random-Walk-Theorie

Vgl. vergleiche

WACC Weighted Average Cost of Capital

Abbildungsverzeichnis

Abbildung 1: Struktur eines künstlichen neuronalen Netzes

Abbildung 2: Struktur eines Entscheidungsbaumes

Abbildung 3: Optimierungsprozess einer Support Vector Machine

1 Einleitung

1.1 Problemstellung

Die Vorhersage von Aktienkursbewegungen am Kapitalmarkt steht im Mittel­punkt der Forschung einer großen Anzahl von Finanz- und Technologieunter- nehmen.1 Dabei stellen die technische Analyse und die Fundamentalanalyse die Basis für Börsenprognosen dar.2 Ihnen stehen die Effizienzmarkthypothese und die damit verbundene Random-Walk-Theorie (RWT) gegenüber, in der sämtli­che börsenrelevanten Informationen im aktuellen Aktienkurs angenommen wer- den.3 Da allerdings veröffentlichte Informationen nicht vollständig aufgenom­men oder auch fehlinterpretiert werden können, kann angezweifelt werden, dass Aktienkurse immer einem zufälligen Pfad folgen.4 Aktienkursentwicklungen be­inhalten eine sehr hohe Anzahl unterschiedlicher Variablen, die insbesondere durch computergestützte Systeme und ihre Programmstrukturen effizient verar­beitet und analysiert werden können.5 Diese Variablen stellen verschiedene marktbezogene Daten dar, denen in Zeiten der digitalen Transformation ein be­sonderes Gewicht zukommt.6 Im Rahmen der Prozessoptimierung dieser Daten­verarbeitung steht das maschinelle Lernen (ML) im Fokus der Forschung, das als automatisierter Prozess Muster in Datensätzen erkennen soll, um eine Zu­kunftsprognose für künftige Entwicklungen am Kapitalmarkt abgeben zu kön- nen.7 Das ML stellt eine Teildisziplin der künstlichen Intelligenz (KI) dar, die darauf ausgelegt ist, menschliche Intelligenz nachzuahmen.8 Die vorliegende Arbeit zeigt verschiedene Algorithmen für ML auf, mit deren Hilfe Börsenprog­nosen angestellt und Trends erkannt werden können. Zudem soll überprüft wer­den, ob ML dazu in der Lage ist, die Genauigkeit von Börsenprognosen zu er­höhen und welchen Einfluss es auf das Handelsvolumen von Wertpapieren und die Aktienpreisentwicklung von börsennotierten Unternehmen hat.

1.2 Aufbau der Arbeit

Zunächst erfolgt in den theoretischen Grundlagen dieser Arbeit eine konkrete Definition der technischen Analyse und der Fundamentalanalyse als Basis der Börsenprognose.

Anschließend wird erläutert, was unter ML zu verstehen ist und welche techni­schen Voraussetzungen dafür vorhanden sein müssen.

Im nächsten Kapitel erfolgt sodann eine systematische Untersuchung bereits ver­fügbarer Studien, die sich intensiv mit den Auswirkungen von ML auf Börsen­prognosen beschäftigen und verschiedene Lernalgorithmen für ML zur Bewälti­gung von Prognoseproblemen aufzeigen. Dabei werden Studien der einzelnen aufgeführten Lernalgorithmen zum Zweck der Übersichtlichkeit in Textblöcken dargestellt. Eine strukturierte Darstellung der themenbezogenen Studien befin­det sich im Anhang dieser Arbeit. Sie fasst neben der experimentellen Vorge­hensweise der Autoren ihre untersuchten Lernalgorithmen und technischen Lö­sungen für die Prognose von Börsentrends zusammen.

Das abschließende Fazit mit Ausblick fasst die wichtigsten Inhalte dieser Arbeit noch einmal zusammen und geht auf einen Forschungsaspekt ein, der in den vor­liegenden Studien nicht oder nur unzureichend behandelt wird.

2 Theoretische Grundlagen

2.1. Börsenprognose

2.1.1 Technische Analyse

Die Entwicklung einer Börsenprognose kann als Prozess definiert werden, der Informationen über verschiedene marktbezogene Daten nutzt, um den künftigen Trend eines Aktienkurses vorhersagen zu können.9 Eine Prognose künftiger Ak­tienkursbewegungen stützt sich dabei auch auf die Auswertung historischer In­formationen und impliziert damit einen Zusammenhang zwischen einem gegen­wärtigen Börsentrend und der zukünftigen Trendbewegung.10 Die technische Analyse basiert ausschließlich auf historischen Daten und besagt, dass sich aus vergangenen Aktienkursbewegungen künftige Trendprognosen ableiten las- sen.11 Der Ursprung der technischen Analyse liegt bei Charles H. Dow, dem Herausgeber und Mitbegründer der Tagezeitung Wall Street Journal.12 Die von ihm begründete Dow-Theorie besagt, dass Aktienkurse einem bestimmten Mus­ter folgen und dass sich dadurch Rückschlüsse auf künftige Kursbewegungen an der Börse ziehen lassen.13 Die technische Analyse lässt sich in die Charttechnik und die Markttechnik unterteilen. Letztere berücksichtigt weitere marktbezo­gene Größen wie das Umsatzvolumen.14 Die Chartanalyse stellt unter Berück­sichtigung der Psychologie von Anlegern eine sich selbst erfüllende Prophezei­ung dar.15 Das bedeutet, dass eine große Anzahl von Anlegern simultan bei Er­kennung eines Kaufsignals oder Verkaufssignals durch entsprechende Handlun­gen am Kapitalmarkt den Aktienkurs maßgeblich beeinflusst.16 Ein Kaufsignal der Aktie entsteht dann, wenn ihr tagesaktueller Kurs ihren gewichteten Durch­schnittskurs von unten nach oben durchbricht, während andersherum ein Ver­kaufssignal entsteht.17 Der gewichtete Durchschnittskurs glättet die Volatilität des Aktienkursverlaufes und repräsentiert den Primärtrend der Aktie, der sich als Aufwärtstrend oder Abwärtstrend ausdrückt.18 Die technische Analyse ori­entiert sich primär am stochastischen Wirtschaftsfaktor der Börse, was eine Wie­derholung von Zyklen, Trends und Kursformationen voraussetzt.19 Da die Chartanalyse auf historischen Daten beruht, vernachlässigt sie die Auftretens­wahrscheinlichkeit künftiger marktbezogener Ereignisse, die Einfluss auf den Aktienkursverlauf haben können, und eignet sich daher allgemein für Investoren nur bedingt zum Zweck einer Börsenprognose.20

2.1.2 Fundamentalanalyse

Die Fundamentalanalyse stellt eine differenzierte Methode dar, ökonomische Fakten systematisch zu modellieren und daraus Prognosen, Handlungsempfeh­lungen oder Erklärungen für wirtschaftspolitische Gegebenheiten abzuleiten.21 Für die Börsenprognose zielt sie darauf ab, den inneren Wert einer Aktie zu be- stimmen.22 Der innere Wert gibt an, wie hoch der faire Preis einer Aktie ist.23 Die Fundamentalanalyse verlangt dafür ein umfassendes Verständnis des Unter­nehmensgeschäfts, eine detaillierte Prognose der künftigen Unternehmensper­formance, die Auswahl eines geeigneten Bewertungsmodells sowie die Um­wandlung der geschätzten Bewertungsparameter in einen Aktienwert, der im letzten Schritt eine Kaufempfehlung oder Verkaufsempfehlung einer Aktie ab- gibt.24 Der Fundamentalanalyse liegt eine angenommene Fehlbewertung von Aktien am Kapitalmarkt zugrunde, die eine Erzielung von Überrenditen ermög­licht, sofern der ermittelte innere Wert einer Aktie über ihrem aktuellen Kauf­kurs liegt.25 Die Ermittlung des inneren Wertes einer Aktie stützt sich dabei auf verschiedene finanzmathematische Modelle. Sie unterteilen sich in das Einzel­bewertungsverfahren und das Gesamtbewertungsverfahren, welches auf dem Gedanken aufbaut, dass sich der künftige Wert eines Unternehmens ausschließ- lich durch künftige finanzielle Überschüsse für die Unternehmenseigner aus- drückt.26 Das weltweit am weitesten verbreitete finanzmathematische Modell stellt dabei das Discounted-Cash-Flow (DCF)-Verfahren dar, was den Fokus auf dieses Modell an dieser Stelle rechtfertigt.27 Dabei stellt das Weighted Average Cost of Capital (WACC)-Verfahren die wichtigste Unterform des DCF-Verfah- rens dar, da es die Renditeforderung aller beteiligten Eigen- und Fremdkapital­geber berücksichtigt und so den Gesamtkapitalwert eines Unternehmens durch die Diskontierung des künftig erwarteten Free Cash Flows bestimmt.28 Die Er­mittlung des Gesamtkapitalwertes wird als Entity-Verfahren bezeichnet.29 Der Unternehmenswert, der auch als Marktwert des Eigenkapitals bezeichnet wird, ermittelt sich als Summe aus dem zuvor berechneten Gesamtkapitalwert des Un­ternehmens abzüglich des Marktwertes des Fremdkapitals und berücksichtigt darüber hinaus über den Berechnungszeitraum seinen Residualwert und den Überschuss aus nicht betriebsnotwendigem Vermögen.30 Alternativ kann der Marktwert des Eigenkapitals auch durch die künftigen ausschüttungsfähigen Cashflows für die Eigentümer ermittelt werden, die mit den Eigenkapitalkosten diskontiert werden.31 Der innere Wert einer Aktie wird anschließend ermittelt, indem der Marktwert des Eigenkapitals durch die Anzahl aller ausstehenden Ak­tien auf verwässerter Basis dividiert wird.32 Sofern der innere Wert einer Aktie über / unter ihrem aktuellen Kaufkurs liegt, kann er als Kaufsignal / Verkaufs­signal interpretiert werden.33 Es zeigt sich, dass Investoren unter realistischen Handelsprämissen sowohl historische als auch aktuelle Unternehmensinforma­tionen nutzen, um den künftigen Kurstrend eines Finanzinstrumentes prognosti­zieren zu können.34

2.2 Maschinelles Lernen

2.2.1 Begriffsdefinition

Bevor die grundlegenden technischen Aspekte des ML zusammengefasst wer­den, bedarf es einer konkreten Definition verschiedener Begrifflichkeiten dieser Thematik. Durch den Digitalisierungsprozess des Wirtschaftslebens kommt im Rahmen der Verbesserung von Prognosen und der Automatisierung von Ent­scheidungsprozessen dem ML eine immer größere Bedeutung zu.35 Das heißt, dass computergestützte Verarbeitungsschritte nicht mehr nur manuell entwickelt werden, sondern dass ihnen vermehrt die Fähigkeit einprogrammiert wird, aus Beispielsituationen Muster zu erkennen, die sie auf ähnliche Situationen auto­matisch übertragen können, um daraus Prognosen oder Entscheidungen ableiten zu können.36 ML stellt eine Teildisziplin der KI dar und ist darauf ausgelegt, auf Basis von Trainingsdaten Arbeitsabläufe zu erlernen, um menschliche Arbeits­kraft zu entlasten.37 Nach John McCarthy ist das Ziel einer KI, eine Maschine zu entwickeln, die sich verhält, als hätte sie menschliche Intelligenz.38 Konkret be­deutet dies, dass sich eine Maschine so verhalten soll, als hätte sie ein mensch­liches Gehirn.39 Das Gehirn stellt als zentrales Nervensystem die Basis und den Speicherort jedes Lernprozesses dar.40 Der Lernbegriff wird in der allgemeinen Psychologie als „Veränderung in Erleben, Verhalten oder Entwicklung durch Erfahrung“ definiert.41 Der Begriff der menschlichen Intelligenz ist hingegen nicht eindeutig definiert, sondern wird allgemein in der Kognitionswissenschaft als Fähigkeit verstanden, Probleme der realen Welt unter der Prämisse des logi­schen und abstrakten Denkens zu lösen.42 Als mathematisches und statistisches Verfahren zur Erkennung von Mustern in Datensätzen gliedert sich das ML in das überwachte, das verstärkende und das unüberwachte Lernverfahren.43 Das verstärkende oder auch bestärkende Lernverfahren basiert auf einer Kostenfunk­tion, welche eine Bewertung für eine bestimmte automatisierte Aktion zu einem bestimmten Zeitpunkt vornimmt und keine Trainingsdaten für dieses Verfahren benötigt.44 Das überwachte Lernverfahren beinhaltet Trainingsdatenbestände in Form von Eingaben und Sollausgaben, wohingegen das unüberwachte Lernver­fahren keine Sollausgaben zur Verfügung stellt.45 Die Trainingsdatenbestände werden durch einen zuvor ausgewählten Algorithmus verarbeitet, der eine Se­quenz von einzelnen computergestützten Schritten zur Verarbeitung von Daten darstellt und auf ein vorliegendes Problem angepasst werden muss.46 Das ML erstellt aus einer Eingabe und einer gewünschten Ausgabe als Bündelinforma­tion ein Programm, das auch als Modell bezeichnet wird und in der Lage ist, künftige Eingaben in die gewünschte Ausgabe automatisch zu überführen.47 Die zentralen Aspekte von ML stellen die Regressionsanalyse und die Klassifikation dar.48 Die Regressionsanalyse ist ein statistisches Verfahren zur Modellierung von Beziehungen zwischen einer abhängigen und einer oder mehreren unabhän­gigen Variablen.49 Eine Klassifikation stellt die Strukturierung eines Objektbe­reiches durch eine Einteilung in definierte Klassen dar.50 Generell lassen sich im Rahmen des ML die Analyseverfahren in die Bereiche Descriptive Analytics, Diagnostic Analytics, Predictive Analytics und Prescriptive Analytics untertei- len.51 Diese Arbeit stützt sich auf den Bereich der Predictive Analytics, der da­rauf ausgelegt ist, Modelle zu entwickeln, die Prognosen auf Basis historischer Daten erstellen.52

2.2.2 Voraussetzungen für maschinelles Lernen

ML erfordert eine digitale Infrastruktur mit hochleistungsfähigen Hard- und Softwareplattformen, um Modelle zur Lösung von komplexen Problemen zu er­stellen.53 Ein Klassifikationsproblem liegt dann vor, wenn die gesuchte Zielva­riable einen diskreten Wert darstellt, ein Regressionsproblem drückt sich durch eine gesuchte kontinuierliche Zielvariable aus.54 Die Ausgangsbasis für ML stel­len Programmiersprachen wie Prolog oder Lisp dar.55 Prolog und Lisp repräsen­tieren die am häufigsten genannten und angewendeten Programmiersprachen im Kontext der KI und gelten als Basis weiterer Sprachen wie Curry oder für das Programmiersystem Mozart-Oz.56 Für ML bedarf es eines umfangreichen Da­tensatzes, der in Trainingsdaten und Testdaten aufgeteilt wird.57 Die Trainings­datenbestände dienen dazu, den verwendeten Lernalgorithmus durch eine Ein­gabe auf ein gewünschtes Ergebnis zu trainieren, um so ein Modell für automa­tisierte Abläufe zu generieren.58 Trainingsdaten, deren Sollausgaben bereits de­finiert sind, werden auch als gelabelte Trainingsdaten bezeichnet.59 Testdaten dienen dazu, das Modell durch unbekannte problembezogene Daten auf seine Genauigkeit hin zu untersuchen und müssen daher ebenfalls gelabelt vorliegen.60 Diese Datenbestände ermöglichen im Rahmen der Aufstellung einer Börsen­prognose Klassifikationsverfahren.61 Die Klassifikation von Daten wird unter anderem durch Entscheidungsbäume, künstliche neuronale Netze oder durch die k-Nächste-Nachbar-Methode ermöglicht.62 Jeder Lernalgorithmus benötigt für sein Training eine Verlustfunktion, die den Abstand zwischen der ausgegebenen Prognose und der vorgegebenen Ziel variablen angibt.63 Die Verlustfunktion muss für die Menge aller Daten berechnet werden und liefert dadurch Rück- Schlüsse auf die Genauigkeit und die Leistungsfähigkeit des entwickelten Mo­dells.64 Das Ziel des Trainings ist es, diese Verlustfunktion zu minimieren.65 Je spezifischer die ausgewählten Trainingsdaten sind, desto eher werden auch die erwarteten Zielvariablen generiert.66 Zur Gewinnung von Trainingsdaten ist es üblich, aus historischen Sequenzdaten unabhängige Variablen zu extrahieren, die anschließend eine feste Anzahl von Eigenschaften und eine Zielvariable zu­gewiesen bekommen.67 Mit den zuvor festgelegten Testdaten werden Probeläufe angestellt, die ein Modell auf seine Güte hin untersuchen sollen.68 Gerade im Rahmen der Predictive Analytics rückt hier der Begriff Big Data als wichtiger Faktor für KI und damit auch ML in den Vordergrund.69 Damit ist die Verarbei­tung und Analyse riesiger Datenmengen gemeint, die auch durch die Verbrei­tung des Internets generiert werden.70 ML findet in der Finanzwirtschaft ver­schiedene Anwendungen. Banken nutzen ML in der Graphanalyse, um unter an­derem Börsenmanipulation durch Händlergruppen aufspüren zu können, um ein Kreditausfallsrisiko für ein stark vernetztes Unternehmen besser ermitteln zu können oder um andere Netzwerkeffekte aufzuspüren, die von herkömmlichen mathematischen Modellierungsinstrumenten nicht erkannt werden.71 Es zeigt sich, dass ML ebenfalls in der datenbasierten Kausalanalyse eingesetzt wird, um beispielsweise den Effekt einer Zinsveränderung auf den Aktienkurs eines Un­ternehmens zu analysieren und zu interpretieren.72

3 Literaturüberblick

3.1 Methodik

Nachdem die Grundlagen der Börsenprognose sowie das ML definiert sind, soll ermittelt werden, auf welche Lernalgorithmen sich das ML im Rahmen einer Börsenprognose stützt, ob es dazu in der Lage ist, die Genauigkeit von Börsen­prognosen zu erhöhen und ob ML einen Einfluss auf das Handelsvolumen und die Aktienpreisfindung börsennotierter Unternehmen hat. Um zu identifizieren welche Lernalgorithmen im Rahmen der Börsenprognose verwendet werden und ob sie die Genauigkeit von Prognosen erhöhen, folgt ein systematischer Litera­turüberblick, der verschiedene Studien aufgreift, um den aktuellen Stand der wissenschaftlichen Forschung über den Zusammenhang zwischen ML und der Börsenprognose aufzuarbeiten, zu systematisieren, Forschungslücken zu identi­fizieren und daraus eine mögliche Richtung für weitere Forschungsarbeiten auf- zuzeigen.73 Für die Beschaffung von Literatur wurde auf verschiedene Daten­banken wie Springer Link, wiso, ScienceDirect, IEEE XPlore und JSTOR zu­rückgegriffen. In den aufgeführten Datenbanken existiert ein großer Literaturbe­stand über ML, die damit verbundenen Lernalgorithmen und über Optimierungs­prozesse von Börsenprognosen. Die aufgeführten Studien sind anhand einer be­stimmten Strategie ausgewählt worden. Dem Thema entsprechend wurden spe­zifische englischsprachige Oberbegriffe wie Machine Learning in Kombination mit Stock Market Prediction und Unterbegriffe wie Decision Tree, Support Vec­tor Machine oder Artificial Neural Network in den genutzten Datenbanken bei der Recherche verwendet. Nach der Sichtung erster relevanter Studien wurden nach dem Schneeballprinzip weitere Studien aus ihren Literaturverzeichnissen herangezogen und im Rahmen dieser Arbeit ausgewertet. Der Fokus dieses Li­teraturüberblicks liegt dabei auf den aufgeführten Lernalgorithmen, die im Rah­men des ML für Börsenprognosen verwendet werden.

3.2 Studien

Verschiedene Studien diverser Autoren wie Ismail et al. (2020), Vijh et al. (2020) oder Lee et al. (2019) stellen fest, dass die Aufstellung von Prognosen über künftige Börsenbewegungen eine schwierige Aufgabe darstellt, was auf die hohe Volatilität von Börsenkursen zurückzuführen ist.74 Die Studien dieses Ab­schnitts bilden ein Teilgebiet der Business Analytics, in der angewandte analy­tische Prognoseverfahren sowie ihre zugehörigen Algorithmen diskutiert wer- den.75 Verschiedene Lernalgorithmen unterteilen sich in einzelne Funktionsklas­sen und erzielen besonders gute Ergebnisse, wenn sie kombiniert und in einer einzelnen Prognosefunktion zusammengeführt werden.76 Dabei ist es wichtig, die Komplexität eines ausgewählten Lernalgorithmus so anzupassen, dass sich ein fertiges Modell unter Verwendung neuer Datenstrukturen nicht zu stark an seinen vorherigen Trainingsdaten orientiert, was auch als overfitting bezeichnet wird.77 Overfitting führt zu einer schwächeren Performance des Modells in der Testphase, da es neue Daten nur schwer interpretieren kann.78

Künstliche neuronale Netze

Im Bereich des ML rücken künstliche neuronale Netze immer mehr in den Vor­dergrund der Forschung.79

Sie werden im Finanzwesen bereits vermehrt eingesetzt. Dabei handelt es sich um eine Ansammlung von einzelnen Einheiten zur Informationsverarbeitung, die schichtweise in einer Netzarchitektur angeordnet sind. Die Knotenpunkte stellen dabei Neuronen dar, die in Eingabeknoten, innere / versteckte Knoten und Ausgabeknoten unterteilt werden und durch mehrere Schichten miteinander vernetzt sind. Beginnend mit der Eingabeschicht fließen Informationen über eine oder mehrere versteckte Zwischenschichten bis hin zur Ausgabeschicht, in der die verarbeiteten Daten klassifiziert werden. Da das künstliche neuronale Netz

[...]


1 Vgl. Liu (2017), S. 179.

2 Vgl. Fama (1995), S. 75.

3 Vgl. Qian/Rasheed (2007), S. 25.

4 Vgl. Paul (2017), S. 598-601.

5 Vgl. Bohn et al. (2003), S. 326.

6 Vgl. Oswald (2018), S. 7.

7 Vgl. Kelleher/Namee/D'Arcy (2015), S. 2f.

8 Vgl. Franz et al. (2019), S. 53.

9 Vgl. Elliott/Timmermann (2008), S. 8.

10 Vgl. Hellström/Holmström (1998), S. 6.

11 Vgl. Kavajecz/Odders-White (2004), S. 1043.

12 Vgl. Bishop (1961), S. 23.

13 Vgl. Benjamin (1942), S. 204.

14 Vgl. Dorfleitner/Klein (2002), S. 497.

15 Vgl. Schuster/Uskova (2015), S. 56.

16 Vgl. Sant/Zaman (1996), S. 617.

17 Vgl. Vasiliou/Eriotis/Papathanasiou (2006), S. 89.

18 Vgl. Henkel et al. (2010), S. 198.

19 Vgl. Heese/Riedel (2016), S. 134.

20 Vgl. Weber (2007), S. 43f.

21 Vgl. Spooner (1984), S. 79.

22 Vgl. Qian/Rasheed (2007), S. 25.

23 Vgl. Schuster/Uskova (2015), S. 43.

24 Vgl. Mondello (2017), S. 263f.

25 Vgl. Abarbanell/Bushee (1998), S. 20.

26 Vgl. Becker (2016), S. 85-87.

27 Vgl. Heesen (2017), S. 87.

28 Vgl. Becker (2016), S. 92.

29 Vgl. Schildbach (2000), S. 709.

30 Vgl. Becker (2016), S. 93.

31 Vgl. Becker (2016), S. 95.

32 Vgl. Mondello (2017), S. 353.

33 Vgl. Qian/Rasheed (2007), S. 25.

34 Vgl. Drobetz et al. (2019), S. 529.

35 Vgl. Welsch/Eitle/Buxmann (2018), S. 366.

36 Vgl. Kersting/Tresp (2019), S. 32f.

37 Vgl. Franz et al. (2019), S. 52.

38 Vgl. Ertel (2016), S. 10.

39 Vgl. Shaotran (2018), S. 14.

40 Vgl. Chein/Schneider (2012), S. 80.

41 Widulle (2009), S. 51.

42 Vgl. Holzinger/Müller (2020), S. 33.

43 Vgl. Lee/Lai (1996), S. 117.

44 Vgl. Wuttke (2020).

45 Vgl. Reinhart et al. (2018), S. 75.

46 Vgl. Kashyap (2017), S. 91.

47 Vgl. Lanquillon (2019), S. 91.

48 Vgl. Kossen/Müller (2019), S. 39-44.; Aberham/Kossen (2019), S. 45-52.

49 Vgl. Backhaus et al. (2018), S. 16.

50 Vgl. Simons (1992), S. 22.

51 Vgl. Mathur (2019), S. 7.

52 Vgl. Kelleher/Namee/D'Arcy (2015), S. 1.

53 Vgl. Hecker et al. (2017), S. 5.

54 Vgl. Welsch/Eitle/Buxmann (2018), S. 372.

55 Vgl. Hofstedt (2012a), S. 7

56 Vgl. Hofstedt (2012b), S. 12.

57 Vgl. Liu (2017), S. 14.

58 Vgl. Aunkofer (2017).

59 Vgl. Kownatzki (2017).

60 Vgl. Krämer (2018).

61 Vgl. Abe (2001), S. 238.

62 Vgl. Qian/Rasheed (2007), S. 28.

63 Vgl. Schapire (2013), S. 43.

64 Vgl. Chase/Freitag (2019), S. 322.

65 Vgl. Aggarwal (2018), S. 7.

66 Vgl. Rost (2018), S. 563.

67 Vgl. Funk/Rettenmeier/Lang (2017), S. 20.

68 Vgl. Göldner (2001), S. 86.

69 Vgl. Schäffer/Weber (2016), S. 3.

70 Vgl. Gentsch (2018), S. 7.

71 Vgl. Papenbrock (2018), S. 327f.

72 Vgl. Huber (2020), S. 106.

73 Vgl. Goldenstein/Hunoldt/Walgenbach (2018), S. 75.

74 Vgl. Ismail et al. (2020), S. 1.; Vijh et al. (2020), S. 599.; Lee et al. (2019), S. 227.

75 Vgl. Gluchowski (2016), S. 273.

76 Vgl. Mullainathan/Spiess (2017), S. 93f.

77 Vgl. Wolff/Neugebauer (2019), S. 275.

78 Vgl. Brownlee (2019).

79 Vgl. Akyol (2020), S. 1.

Ende der Leseprobe aus 49 Seiten

Details

Titel
Auswirkungen des maschinellen Lernens auf die Börsenprognose
Untertitel
Ein Literaturüberblick
Hochschule
Ruhr-Universität Bochum  (Wirtschaftswissenschaften)
Veranstaltung
Bachelorarbeit
Note
2.0
Autor
Jahr
2020
Seiten
49
Katalognummer
V933689
ISBN (eBook)
9783346260970
ISBN (Buch)
9783346260987
Sprache
Deutsch
Schlagworte
Wirtschaftsinformatik, Wirstchafstwissenschaften, Börsenprognosen, Maschinelles Lernen, Einfluss, Literaturüberblick, k-nächste Nachbar, Support Verctor Machine, Random Forst, Entscheidungsbaum, Algorithmen, Python, Börsentrend, Fundamentalanalyse, Technische Analyse, Aktien, Wertpapiere, Deep Learning, Künstliche Intelligenz, Big Data, Internet
Arbeit zitieren
Philipp Stücker (Autor:in), 2020, Auswirkungen des maschinellen Lernens auf die Börsenprognose, München, GRIN Verlag, https://www.grin.com/document/933689

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Auswirkungen des maschinellen Lernens auf die Börsenprognose



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden