Prognose von Aktienrenditen. Big Data vs. Fundamentaldaten


Masterarbeit, 2015
84 Seiten, Note: 2,0

Leseprobe

Inhaltsverzeichnis

Tabellenverzeichnis

Abbildungsverzeichnis

Abkürzungsverzeichnis

1.Einleitung

2. Die Existenz von Aktienmarktblasen - Theorie und Empirie
2.1 Neoklassische Kapitalmarkttheorie und Behavioral Finance
2.2 Definition und Arten von Aktienmarktblasen
2.3 Die historische Aktienmarktblasenforschung – Ablauf und Ursachen

3. Die Prognostizierbarkeit von Aktienmarktblasen und -renditen
3.1 Bewertungskennzahlen – Der Beginn der Aktienrenditeprognose
3.2 Investorenstimmung und Konjunkturindikatoren
3.3 Big Data – Ein neuartiger Ansatz der Renditeprognose

4. Big Data vs. Fundamentaldaten – Eine Überprüfung der Prognostizierbarkeit von Aktienrenditen anhand des DAX
4.1 Zielsetzung und Aufbau der empirischen Untersuchung
4.1.1 Verwendete DAX Daten
4.1.2 Statistische Verfahren
4.2 Die Fundamentaldaten – Ifo Geschäftsklima und Leitzinsen
4.2.1 Der ifo Geschäftsklimaindex
4.2.1.1 Berechnung des ifo Geschäftsklimaindex
4.2.1.2 Bisherige empirische Ergebnisse und Vorgehensweise
4.2.1.3 In-Sample Test – Das Bry-Boschan-Verfahren
4.2.1.4 Out-of-Sample Tests – Dreimal-Regel und Gleitender Durchschnitt
4.2.2 Die Leitzinsen
4.2.3 Kombination von ifo Geschäftsklimaindex und Leitzinsen
4.2.4 Implementierung der Strategien und Fazit
4.3 Big Data - Google Trends und die Macht großer Datenmengen
4.3.1 Herkunft der Daten
4.3.2 Bisherige empirische Ergebnisse, Kritik und Vorgehensweise
4.3.3 Auswahl der Begriffe
4.3.4 Testdurchführung
4.3.5 Interpretation der Ergebnisse und mögliche Strategien
4.4 Zusammenführung Big Data und Fundamentaldaten
4.5 Aktueller Ausblick – Wo geht es hin mit dem DAX?

5. Zusammenfassung und Fazit

Anhang

Literaturverzeichnis

Tabellenverzeichnis

Tabelle 1: Zusammenfassung der monatlichen DAX Daten von 1993 bis Ende 2014; Quelle: Thomson Reuters Datastream

Tabelle 2: Zusammenfassung wöchentlicher DAX Daten von 2004 bis Ende 2014; Quelle: Thomson Reuters Datastream

Tabelle 3: Zusammenfassung ifo Geschäftsklimaindex von 1993 bis Ende 2014; Quelle: Homepage CESifo

Tabelle 4: Ausgewählte Wendepunkte seit 1993

Tabelle 5: T-Test Rendite mit In-Sample Gruppen

Tabelle 6: Wendepunkte ifo Geschäftsklima und dazugehörige Prognosen durch Dreimal-Regel und Gleitender Durchschnitt

Tabelle 7: T-Test Rendite mit Dreimal-Regel

Tabelle 8: T-Test Rendite mit Gleitendem Durchschnitt

Tabelle 9: T-Test Rendite mit Leitzinsen

Tabelle 10: T-Test Rendite mit Interact von In-Sample und Leitzinsen

Tabelle 11: T-Test Rendite mit Interact Dreimal-Regel und Leitzinsen

Tabelle 12: T-Test Rendite mit Interact Gleitender Durchschnitt und Leitzinsen

Tabelle 13: Kennzahlen der implementierten Strategien

Tabelle 14: Ausgewählte Begriffe mit durchschnittlicher relativer Häufigkeit von 2004 bis Ende 2014

Tabelle 15: Übersicht Vor- und Nachlaufzeiten sowie Zusammenhänge zwischen Rendite und SVI, SVI Delta und Delta-Dummy auf wöchentlicher Basis

Tabelle 16: Übersicht Vor- und Nachlaufzeiten sowie Zusammenhänge zwischen Rendite und SVI, SVI Delta und Delta-Dummy auf monatlicher Basis

Tabelle 17: Wendepunkte und Dauer von Auf- sowie Abschwungsphasen des ifo Geschäftsklimaindex von 1993 bis Ende 2014

Tabelle 18: Wendepunkte und Dauer von Auf- und Abschwungsphasen der Dreimal-Regel von 1993 bis Ende 2014

Tabelle 19: Wendepunkte und Dauer von Auf- und Abschwungsphasen des Gleitenden Durchschnitts von 1993 bis Ende 2014

Tabelle 20: Vor- und Nachlaufzeiten der Prognosevariablen Dreimal-Regel und Gleitender Durchschnitt zum ifo Geschäftsklimaindex und dem DAX von 1993 bis Ende 2014

Tabelle 21: Wendepunkte und Dauer von Auf- und Abschwungsphasen des ifo Geschäftsklimaindex kombiniert mit Leitzinsen von 1993 bis Ende 2014

Tabelle 22: Wendepunkte und Dauer von Auf- und Abschwungsphasen der Dreimal-Regel kombiniert mit Leitzinsen von 1993 bis Ende 2014

Tabelle 23: Wendepunkte und Dauer von Auf- und Abschwungsphasen des Gleitenden Durchschnitts kombiniert mit Leitzinsen von 1993 bis Ende 2014

Tabelle 24: Übersicht Performance der Strategien basierend auf Google Trends

Abbildungsverzeichnis

Abbildung 1: Arten von Bubbles; eigene Darstellung in Anlehnung an Bruns (1994)

Abbildung 2: Übersicht Vorgehensweise und benutzte Daten

Abbildung 3: Beispiel T-Test von Stata; Quelle: Stata Homepage

Abbildung 4: Darstellung ifo Geschäftsklimaindex (oben) mit Wendepunkten und DAX (unten) seit 1991

Abbildung 5: Performance der unterschiedlichen Strategien ohne Einbeziehung der Leitzinsen

Abbildung 6: Performance der unterschiedlichen Strategien unter Einbeziehung der Leitzinsen

Abbildung 7: Portfolioentwicklung der besten Strategien (wöchentliche Daten)

Abbildung 8: Test auf Stationariät und Autokorrelation der Monatsrendite; berechnet mit Stata

Abbildung 9: Umfragebogen ifo Geschäftsklima

Abbildung 10: Test auf Stationarität und Autokorrelation des ifo Geschäftsklimaindex; berechnet mit Stata

Abbildung 11: Test auf Nicht-Stationarität und Autokorrelation für Begriff Aktien bei absoluten Werten

Abbildung 12: Test auf Nicht-Stationarität und Autokorrelation für Begriff Gold bei absoluten Werten

Abbildung 13: Test auf Nicht-Stationarität und Autokorrelation für Begriff Aktien bei absolutem Delta

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1.Einleitung

Predicting the Unpredictible so heißt passenderweise ein Aufsatz von Eduard Gracia aus dem Jahr 2012. Sind Aktienrenditen prognostizierbar und kann man den richtigen Einstiegszeitpunkt finden? Damit ist er einer von vielen Wissenschaftlern, die sich dem Thema Kapitalmarkteffizienz und der Prognose von Aktienrenditen widmen.

Kürzlich war folgendes Zitat von Robert Shiller in den Zeitungen zu lesen:

“Investing in Greece right now just might not feel right,” the Yale University economist said Tuesday in London. The price of Greek stocks is “below anything I’ve seen in the U.S. and suggests a spectacular investment,” he said.1

Mit dieser Aussage weist der weltbekannte Ökonom darauf hin, dass der dortige Aktienmarkt unterbewertet ist und nicht den aktuellen fairen Wert widerspiegelt. Aber auf welcher Grundlage basiert diese Aussage? Welche Informationen sind am besten geeignet solche Gelegenheiten aufzuzeigen? Auch in Finanzzeitschriften wird oft darüber gemutmaßt wie sich die Kurse in Zukunft entwickeln werden. Die befragten Personen, unter denen sich sehr oft der als Dr. Doom bezeichnete Schweizer Ökonom Marc Faber befindet, beschwören sehr oft den nächsten großen Crash herauf, der in den meisten Fällen nicht eintrifft.2 Um ihre Prognose und Einschätzung zu belegen greifen diese selbsternannten Experten auf diverse Kennzahlen zurück. Darunter fallen Bewertungskennzahlen (u.a. Shiller-KGV, Tobin’s Q), makroökonomische Variablen (u.a. BIP) und sonstige Indikatoren (u.a. BIP/Marktkapitalisierung, Gold-/Ölpreis, ifo Geschäftsklimaindex). In einer kürzlich veröffentlichten Studie in der Zeitschrift Euro wiesen zwei Analysten der Schweizer Bank UBS nach, dass das Tobin’s Q die beste Langfristprognose für den Aktienmarkt liefert. In der kurzen Frist stellten sich hingegen keine Kennzahlen als sinnvoll heraus.3 Dies verdeutlicht ein Dilemma von Anlegern, die sich einer steigenden Anzahl von Informationen gegenübergestellt sehen. Sogar Experten auf diesem Gebiet sind sich über geeignete Indikatoren uneins. Ein einziger zuverlässiger Indikator wäre in dieser Hinsicht sinnvoll. Doch gibt es diesen?

An diese Frage knüpft diese Arbeit an. Ziel ist es dabei, empirisch zu überprüfen, ob anhand von Big Data (hier: Google Trends) und/oder Fundamentaldaten (hier : ifo Geschäftsklimaindex) eine Renditeprognose für den DAX Performance Index möglich ist. Die Renditeprognose erfolgt dabei auf wöchentlicher und monatlicher Basis. Ein besonderer Fokus liegt hierbei auf der Prognosefähigkeit während Konjunkturkrisen, da während diesen Zeiten eine korrekte Prognose besonders lukrativ wäre. Darüber hinausgehend soll anhand der gewonnenen Erkenntnisse eine oder mehrere Strategien implementiert werden, die in der Lage sind eine BaH-Strategie, basierend auf dem DAX, zu schlagen. Ziel der Arbeit ist es hingegen nicht, eine genaue Renditeprognose des nächsten Monats bzw. der nächsten Monate zu treffen. Es ist lediglich angestrebt zu prognostizieren, ob Renditen in diesen Zeiträumen vermehrt positiv oder negativ sein werden.

Zur Herausarbeitung der Fragestellungen werden Daten mit zwei statistischen Verfahren untersucht, die Ergebnisse interpretiert und kritisch hinterfragt sowie anschließend versucht eine Strategie, basierend auf dem DAX, zu implementieren. Bei den Daten handelt es sich um DAX -Renditen, ifo Geschäftsklimaindex, Leitzinsen sowie Google Trends Daten. Zur statistischen Analyse eignen sich – da vor allem Dummy-Variablen als Prognosevariablen eingesetzt werden – T-Tests, allerdings werden im zweiten Teil der empirischen Analyse auch Lineare Regressionen herangezogen.

Aufgrund der engen Verknüpfung von Renditeprognose und der Existenz von Aktienmarktblasen geht das zweite Kapitel zunächst der Frage nach, ob Aktienmarktblasen existieren. Ferner sind in diesem Kapitel eine Darstellung der Definition, theoretische Abläufe und mögliche Ursachen sowie ein Überblick über empirische Nachweise von Aktienmarktblasen essenziell für die folgenden Kapitel. Der dritte Abschnitt geht explizit auf verschiedene Ansätze und Möglichkeiten der Renditeprognose ein. Hierbei stehen die historische Entwicklung der Renditeprognose und deren Kritik im Fokus. Zudem leitet dieser Abschnitt zum empirischen Teil dieser Arbeit hin. In diesem empirischen Teil (Kapitel 4) steht die Prognosefähigkeit des ifo Geschäftsklimaindex und von Google Trends auf Monats- bzw. Wochen- und Monatsbasis im Mittelpunkt. Anschließend erfolgen die Interpretation der gefundenen Ergebnisse sowie deren Strategieimplementierung basierend auf dem DAX. Darüber hinaus ist eine Verknüpfung des ifo Geschäftsklimaindex mit Google Trends angestrebt, um die Prognosefähigkeit zu verbessern. Der empirische Teil endet letztendlich mit einem aktuellen Ausblick auf die Performance des DAX in den nächsten Monaten. Das Kapitel 5 dient der Zusammenfassung der gefundenen Ergebnisse und gibt einen Ausblick auf zukünftige Chancen und Möglichkeiten der empirischen Forschung auf diesem Gebiet.

2. Die Existenz von Aktienmarktblasen - Theorie und Empirie

Aktienmarktblasen sind kein neues Phänomen in der Börsengeschichte. Zahlreiche Beispiele sind ab dem 17. Jh. bekannt, angefangen bei der berühmten Tulpenmanie und der Südsee-Blase über die Große Depression bis hin zur Dotcom-Blase und der Finanzmarktkrise.

2.1 Neoklassische Kapitalmarkttheorie und Behavioral Finance

Um die Frage der Existenz von Aktienmarktblasen zu klären, ist es notwendig weit in der Geschichte zurückzugehen und den Ursprüngen der Neoklassischen Kapitalmarkttheorie und Behavioral Finance nachzugehen.

Die Neoklassische Kapitalmarktforschung fußt auf dem Paradigma des Homo Oeconomicus, der erstmals von Vilfredo Pareto in seiner Arbeit Manuale di Economia Politica im Jahr 1906 erwähnt wurde.4 Dieser wird als rationaler und nutzenoptimierender Mensch beschrieben.5 Auf diesem Konzept basiert die von Bachelier (1900) beschriebene Random Walk Theorie, die besagt, dass sich Aktienkurse durch einen Zufallsprozess ergeben und es somit unmöglich ist zukünftige Aktienpreise vorherzusagen.6

Der erste empirische Nachweis - und somit eine Erweiterung der Random Walk Theorie - von effizienten Märkten gelang Fama (1965) im Rahmen seiner Dissertation.7 Daraufhin definierte er 1970 die heute bekannteste Version der EMH und seine verschiedenen Formen.8 Diese geht davon aus, dass der Homo Oeconomicus alle frei verfügbaren Informationen rational bewertet und somit Aktienkurse „ alle verfügbaren Informationen vorständig widerspiegelt.“9

Doch mit dem Wirtschaftswachstum, der ungebremsten Bedeutung der Kapitalmärkte und der Ausuferung von Spekulationsexzessen in ersten Aktienmarktkrisen, wurde die Theorie des Homo Oeonomicus erstmals im 20. Jh. kritisch hinterfragt. Der Erste war wohl Keynes im Jahr 1936 mit seinem Aufsatz The General Theory of Employment, Interest and Money:

„…day-to-day fluctuations in the profits of existing investments, which are obviously of an emphermeral and nonsiginificant character, tend to have an altogether excessive, and even an absurd, influence on the market.[…] reached the third degree where we devote our intelligence to anticipate what average opinion expects the average opinion to be.”10

Damit weist er darauf hin, dass die scheinbar kleinen täglichen Marktbewegungen insgesamt einen großen und absurden Einfluss auf den Markt haben und dass es nur noch darauf ankommt zu antizipieren, was die durchschnittliche Meinung denkt, was die durchschnittliche Meinung ist. Diese und folgende Theorien blieben aber weitgehend unbeachtet, bis sich mit Shiller und Thaler in den 1980er Jahren ein Wandel vollzog und die Behavioral Finance Forschung entstand.11 Das Paradigma des Homo Oeconomicus stand fortan dem Paradigma des Homo Oeconomicus Humanus gegenüber. In dieser Theorie handeln Menschen weniger nach dem eigenen Nutzen, sondern richten sich nach dem Verhalten anderer Marktteilnehmer. Kapitalmarktanomalien, die nicht mit der neoklassischen Theorie vereinbar scheinen, sollten sich dadurch erklären lassen. In diesem Rahmen kommt der Psycho- und Neurologie eine große Rolle zu.12

Diese beiden diametralen Theorien werden bis heute weiterhin kontrovers diskutiert. Das zeigte sich auch im Jahr 2013, in dem Fama und Shiller mit ihren zwei gegensätzlichen Aufsätzen mit dem Nobelpreis ausgezeichnet wurden.13 Im Folgenden wird dargestellt, ob und welche Arten von Aktienmarktblasen existieren. Basierend auf den vorgestellten Paradigmen besteht hierüber nämlich keine einheitliche Meinung.

2.2 Definition und Arten von Aktienmarktblasen

Die zwei zuvor dargestellten Paradigmen sind für die Existenz von Aktienmarktblasen von großer Bedeutung. Auf den ersten Blick scheinen sich Aktienmarktblasen und EMH nicht vereinen zu lassen. So zeigt Tirole (1982) theoretisch, dass Aktienmarktblasen mit dem Paradigma der neoklassischen Kapitalmarkttheorie nicht vereinbar sind.14 Von vielen EMH Verfechtern werden diese deswegen oft abgelehnt oder angenommen, dass nur im Technologiesektor Blasen entstehen können.15 Anderson/Brooks (2014) sind hingegen der Meinung, dass Aktienmarktblasen mit der EMH vereinbar sind.16 Nichtsdestotrotz ist heute anerkannt, dass Aktienmarktblasen existieren, auch wenn deren Ursache strittig ist. Im Folgenden wird für den deutschen Begriff Aktienmarktblase der englische Begriff Bubble oder falls angebracht die Abkürzung Blase verwendet.

Übergeordnet lassen sich Bubbles in rationale und irrationale einordnen,17 wobei aufgrund der wissenschaftlichen Greifbarkeit rationale Bubbles im Vordergrund stehen.18 Eine Bubble beschreibt in diesem Kontext die (längere positive) Differenz zwischen dem aktuellen Marktpreis und dem fundamentalen Wert eines Assets. Diese Abweichung kann in Zukunft durch deren eventuelles Platzen wieder aufgelöst werden. Geringe Preisabweichungen, die auf fundamentalen Werten basieren werden hingegen Noise genannt.19 Der Großteil der theoretischen Ansätze und empirischen Forschung stammt aus den 80er und 90er Jahren. Einen guten Überblick (s. Abb.1) über die Einordung und Arten von Bubbles gibt Bruns (1994) sowie Camerer (1989). Beide überschneiden und ergänzen sich in ihrer Einteilung. Bruns unterteilt rationale Bubbles in drei unterschiedliche Formen: stochastische, deterministische und agencyinduzierte Bubbles.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Arten von Bubbles; eigene Darstellung in Anlehnung an Bruns (1994)

Stochastische Bubbles (auch Growing Bubbles oder Periodically Collapsing Bubbles) gehen auf Blanchard/Watson (1982) zurück. Die Stochastische Bubble ist eine rationale Blase, die aus dem intrinsischen Wert und einer Bubble Komponenten besteht. Dabei wächst die Blase in Höhe der geforderten Rendite r und platzt mit der Wahrscheinlichkeit p. Die Wahrscheinlichkeit, dass die Blase n Perioden besteht geht gegen Null.20 Für Chancellor (2000) ist die stochastische Blase eine verfeinerte Neuformulierung der Greater Fool Theory, die davon ausgeht, dass es immer einen größeren „Narren“ geben wird, der Aktien zu einem höheren Preis kaufen wird.21 Vier Merkmale zeichnen eine stochastische Bubble aus. Erstens weicht der Kurs über einen längeren Zeitraum erheblich von seinem fundamentalen Wert ab. Die Abweichungsrate nimmt mit der Zeit zu. Die Bubble entsteht hauptsächlich durch sich selbst erfüllende Prophezeiungen. Nach der abschließenden Kurskorrektur, die sehr schnell abläuft, können Aktien über- oder unterbewertet sein. Weiterhin können Bubbles nur positiv sein.22

Agencyinduzierte Bubbles (Information Bubbles), beschrieben in Modellen von Friedman/Aoki (1986) und Allen/Gorton (1993), entstehen aufgrund von Informationsasymmetrien zwischen Marktteilnehmern und unterschiedlicher Modelle für die Bewertung von Aktien.23 Dieses Problem wird besonders bei innovativen Unternehmen offenkundig. Sie sind nicht vergleichbar mit anderen Unternehmen, weisen meist negative Cashflows aus und sind mit ungewissen Risiken ausgestattet.24 Die Information Bubble kann rational oder irrational sein.25 Betrachtet man die ersten beiden Arten von Bubbles aggregiert, so passen diese Beiden wohl am besten auf die Dotcom-Blase im Jahr 2000.26

Froot/Obstfeld (1991) prägten den Begriff der Deterministischen Bubbles (Intrinsic Bubbles). Wie die stochastische Bubble ist die deterministische eine rationale Blase, die alleine auf ihren exogenen Fundamentaldaten basiert. Froot/Obstfeld (1991) weisen nach, dass Aktienpreise auf neue fundamentale Daten zu stark reagieren und eine Über- oder Unterbewertung über einen langen Zeitraum bestehen kann.27

Die empirische Forschung, die ausschließlich rationale Ursachen erforscht, zeigt eine klare Tendenz für die Existenz von Bubbles.28 Im restlichen Teil dieses Abschnitts werden die auf dem Paradigma des Homo Oeconomicus Humanus beruhenden irrationalen Bubbles dargestellt.

Irrationale Bubbles werden auch Fads genannt und beschreiben eine - zum Mittelwert zurückkehrende - Abweichung vom inneren Wert, ausgelöst durch soziale oder psychologische Faktoren.29 Diese Arten von Bubbles sind theoretischer Natur, denn empirisch können diese nicht bzw. nur in Experimenten nachgewiesen werden. Wie im vorherigen Kapitel schon erwähnt, werden Theorien von psychologischen und neurologischen Prozessen hergeleitet und damit erklärt. Nach Shiller – ein Verfechter irrationaler Bubbles - gibt es keine einheitliche bzw. beste Definition für eine Aktienmarktblase. Die seiner Meinung nach geeignetste ist folgende:

„A situation in which news of price increases spurs investor enthusiasm which spreads by psychological contagion from person to person, in the process amplifying stories that might justify the price increase and bringing in a larger and larger class of investors, who, despite doubts about the real value of the investment, are drawn to it partly through envy of others’ successes and partly through a gambler’s excitement.“ 30

Dieser Definition zufolge löst eine positive Nachricht Enthusiasmus bei Anlegern aus, die immer Mehrere ansteckt. Durch den dadurch in Gang gesetzten Prozess wird eine immer größer werdende Anzahl von Investoren angezogen, die trotz Zweifel an der fairen Bewertung investieren. Das heißt nicht, dass Investoren verrückt, sondern von einer plausiblen Theorie überzeugt sind.31

Schlussendlich lässt sich festhalten, dass unterschiedliche Theorien für die Erklärung von Aktienmarktblasen vorhanden sind, die überwiegende Anzahl der empirischen Studien Bubbles nachweisen und deren Existenz in der Wissenschaft anerkannt ist – obwohl die Testverfahren kritisiert werden. Die Definition und die Nachweise von Bubbles hängen dabei sehr stark von der Definition des Begriffs der Rationalität ab. Die Übergänge bei der Einordnung von Bubbles in rationale und irrationale können daher auch fließend sein.

2.3 Die historische Aktienmarktblasenforschung – Ablauf und Ursachen

Um Bubbles rechtzeitig zu erkennen wird oft versucht, die aktuelle Lage mit historischen Ereignissen zu vergleichen. Auch wenn jede vergangene Blase einzigartig ist, sind Gemeinsamkeiten erkennbar. Dieses Thema ist das Zentrale in der historische Aktienblasenforschung, der u.a . Chancellor, Minsky, Kindleberger, Galbraith und Garber zuzuordnen sind. In den versuchten Erklärungsansätzen sind sowohl rationale als auch irrationale Gründe vorzufinden. Im Folgenden werden das Modell von Minsky (1964) und dessen erweiterte Version von Kindleberger/Aliber (2005) dargestellt.

Das wohl bekannteste theoretische Modell, auf dem viele weitere Theorien aufbauen, stammt von Minsky (1964).32 Dieses beinhaltet ökonomische Zusammenhänge und Grundlagen, aber auch irrationales Anlegerverhalten spielt eine entscheidende Rolle. Ein besonderes Augenmerk liegt bei ihm auf der sich ändernden Struktur des Finanzsystems während Wachstumsphasen, das zu einer zunehmenden Instabilität führt. Er widerspricht der neoklassischen Theorie, in der sich die Märkte von selbst im Gleichgewicht halten bzw. dieses immer wieder hergestellt wird. Vielmehr bewegt sich das Kreditangebot prozyklisch mit der Konjunktur. Durch sich verändernde makroökonomische Rahmenbedingungen – sei es durch neue Technologien oder eine erhöhte Profitabilität etablierter Unternehmen33 – werden Investoren auf den Aktienmarkt aufmerksam und beurteilen die Zukunft optimistischer. Diese Phase wird Verlagerung genannt. Zu dieser Zeit sind die Zinsen, durch eine vorausgegangene Krise, sehr niedrig und es eröffnen sich lukrative Investitionsmöglichkeiten. Die darauf folgende Phase, der Boom, zeichnet sich durch steigende Preise der betroffenen Assets aus. Diese entstehen durch positive Feedbackprozesse, hohe Kapitalzuflüsse und eine erhöhte Kreditnachfrage, getrieben durch eine gesunkene Risikoaversion von Marktteilnehmern.34 Durch den leichten und günstigen Zugang zu Krediten (geringe Margin) kann es in Folge zum sogenannten Overtrading kommen.35 Assets werden dabei nicht mehr als Kapitalanlage, sondern als Spekulationsobjekte gehalten. Dieser Prozess führt zum Abweichen vom rationalen Verhalten. Assets werden demnach nicht aufgrund ihrer erwarteten Rendite, sondern in der Erwartung gekauft, dass ein Greater Fool bereit ist dafür einen höheren Preis zu zahlen. Kindleberger/Aliber (2005) beschreibt dieses Verhalten als Mania.36 In dieser Phase werden ebenso Investitionsprojekte für Firmen lukrativer. Durch die anziehende Konjunktur und die niedrigen Zinsen ermöglicht es ihnen die Kredite aus dem Cashflow zu tilgen. Die erhöhte Nachfrage nach Krediten verteuert diese im Gegenzug im Laufe der Zeit.37 Durch weitere steigende Preise müssen Unternehmen teurere Kredite aufnehmen, um sich zu refinanzieren. Dies führt bis zu einer sogenannten Ponzi-Finanzierung. Dabei nehmen Unternehmen Kredite auf um überhaupt ihrem Schuldendienst nachzukommen.38 Der Boom geht in Folge dessen in eine Euphorie über. Immer mehr Anleger investieren in den boomenden Markt. Insider werden sich den kommenden Missständen zuerst bewusst und verkaufen ihre Assets (Informationsasymmetrien). Solange neue Käufer nachkommen stellt dies an sich kein Problem dar. Nehmen jedoch immer mehr Marktteilnehmer ihre Gewinne mit, kann es dazu kommen, dass aufgrund der kreditfinanzierten Aktienkäufe immer mehr Anleger ihre Assets abstoßen, um ihre Schulden zurückzuzahlen (“as the buyers become less eager and the sellers more eager…“)39. In der letzten Phase, der Abscheu, platzt die Bubble aufgrund von Medienberichten, Insolvenzen, Aufdeckung eines Betrugs oder oft aus keinen bestimmten Gründen. In Folge dessen können die Preise auch unter deren fundamentalen Wert fallen . Kindleberger/Aliber (2005) nehmen an, dass die freiwerdenden Mittel benutzt werden, um in neue lukrative Anlagen zu investieren. Der Kreislauf beginnt von neuem.

Zusammenfassend können folgende Mechanismen/Zusammenhänge zu einer Spekulationsblase führen:

- Ein exogener Schock verändert aktuelle Gegebenheiten z.B. neue Technologien
- Die Risikoaversion von Marktteilnehmern sinkt; optimistischer Ausblick in die Zukunft
- Der Zugang zu und die Kosten für Kredite sind leicht bzw. günstig
- Steigende Assetpreise und erhöhte Nachfrage nach Fremdkapital durch realwirtschafliche und psychologische Faktoren sowie steigende Verschuldung
- Overtrading: Assets werden als Spekulationsobjekte benutzt und Liquidität sinkt
- Informationsasymmetrien von Insidern und Marktteilnehmern.

Da das Modell von Minsky nur auf Kreditangebot und –nachfrage beruht kann es nicht ohne Kritik hingenommen werden. Kindleberger/Aliber (2005) stellen drei Hauptkritikpunkte heraus. Erstens kann nicht angenommen werden, dass jede Krise die gleiche Ursache hat und jede einzigartig ist. Zweitens haben sich Finanzinstitute und der Kapitalmarkt gewandelt. Andere Strukturen sind vorhanden und diese werden sich auch in Zukunft ändern. Und drittens spiegeln Assetpreise nach der EMH immer den fairen Preis wider.40 Somit ist das Modell von Minsky nur als ungefährer Leitfaden zu sehen wie der Ablauf einer Blase sein kann.41

Exkurs: Neben der empirischen und historischen Kapitalmarktforschung gibt es noch die weniger beachtete experimentelle Kapitalmarktforschung. Diese versucht mittels Experimenten unter konstruierten Voraussetzungen, Ursachen für Aktienmarktblasen ausfindig zu machen. Einflussreiche Studien sind von Smith et al. (1988) sowie Noussair et al. (2001) vorhanden. Als zentrale Ursachen für eine Blasenbildung nennen Smith et al. (1988) die Häufigkeit von Dividendenausschüttungen, der Prozess zur Ermittlung des fairen Wertes sowie die Erfahrung der Marktteilnehmer.42 Noussair et al. (2001) fanden sogar heraus, dass unter einem konstant gehaltenen Fundamentalwert Blasen entstehen können. Die Häufigkeit von Dividendenzahlungen zeigte sich auch hier als hauptursächlich. Zudem ist die Wahrscheinlichkeit einer Blasenbildung unter der Annahme eines sich ändernden Fundamentalwertes deutlich höher als bei einem konstanten.43

Mit der vorhandenen Empirie, die auf Aktienmarktblasen hindeutet, sowie der Theorie über den Ablauf und die Ursachen durch die historische Aktienblasenforschung ist es für Marktakteure von entscheidender Bedeutung zu wissen, ob und wie Bubbles bzw. Renditen prognostiziert werden können. Diesem Forschungsgebiet ist das nächste Kapitel gewidmet.

3. Die Prognostizierbarkeit von Aktienmarktblasen und -renditen

Bisher wurde nur ex post nachgewiesen, dass Aktienmarktblasen vorhanden waren. Allerdings ist es interessanter - und auch das Ziel der Wissenschaft – ex-ante Aktienmarktblasen und somit auch Renditen zu prognostizieren. Wie schon zuvor beschrieben dürfte dies nach der EMH nicht möglich sein.

Die empirische Forschung über Renditeprognosen begann mit der Hinterfragung der EMH in den 1980er Jahren. Seitdem ist eine breite und auch unübersichtliche Literatur zu diesem Themengebiet entstanden. Dies beruht zum einen auf unterschiedlichen Testarten und zum anderen auf unterschiedlichsten Prognosevariablen. Alles begann mit der Nutzung von Bewertungskennzahlen – darunter versteht man u.a. Dividendenrendite, KGV und KBV – als Prognosevariablen. Aber auch Modelle zu Konsumenten- und Anlegerverhalten, makroökonomische Indikatoren sowie die Nutzung von Big Data erfreuen sich mittlerweile einer großen Beliebtheit. Auf diese drei Kategorien wird in den folgenden Abschnitten eingegangen.

3.1 Bewertungskennzahlen – Der Beginn der Aktienrenditeprognose

Die empirische Forschung begann gleichzeitig mit der Entstehung des Forschungsgebiets von Behavioral Finance Anfang der 1980er Jahre – aus der Anzweiflung der EMH folgt direkt die Prognostizierbarkeit von Renditen - und fokussierte sich zunächst auf Bewertungskennzahlen wie z.B. der Dividendenrendite, KGV und dem CAPE.44 Aber auch kurz- und langfristige Zinsen wurden auf ihren Prognosegehalt untersucht.45 Die meisten, darunter Campbell/Shiller und Fama/French, kamen zu dem Ergebnis, dass Bewertungskennzahlen positiv mit Aktienrenditen korreliert sind. Dabei nimmt der Prognosegehalt in der langen Frist zu.46

Diese Ergebnisse blieben allerdings nicht ohne Kritik. Hauptkritikpunkt war die ökonometrische Vorgehensweise. Die benutzten Messmethoden basieren meistens auf einer OLS (ordinary least squares) Regression von Aktienrenditen auf die nachlaufende Kennzahlenvariable. In der Literatur wurde größtenteils fälschlicherweise angenommen, dass die untersuchten Variablen stationär sind – d.h. sie zu jedem Zeitpunkt in einer Zeitreihe den gleichen Erwartungswert und die gleiche Varianz aufweisen.47 Vielmehr sind diese nichtstationär und weisen eine hohe Autokorrelation auf.48 Des Weiteren waren die Forscher den Vorwürfen von Data-Mining und schlechter Performance bei Out-of-Sample Tests ausgesetzt.49 Cochrane (2006) widerspricht jedoch der Folgerung, dass aus einer schlechten Out-of-Sample Performance die Prognostizierbarkeit von Renditen verworfen werden muss.50 Einen maßgeblichen Einfluss auf die Forschungsergebnisse kann auch die Wahl der zu untersuchenden Zeiträume haben. So können Goyal/Welch (2007) mit dem gleichen Testverfahren - jedoch unterschiedlichen Testzeiträumen - wie Fama/French (1988) die Nullhypothese der Unvorhersagbarkeit von Renditen nicht verwerfen.51

Die neuere Literatur fokussiert sich seitdem auf andere ökonometrische Modelle um die beschriebenen Probleme zu umgehen.52 Diese liefern unterschiedlichste Ergebnisse. Campbell/Yogo (2005) weisen einen signifikanten Zusammenhang von Zinsen und Aktienrenditen nach. Die Messung des Zusammenhangs von Bewertungskennzahlen und Aktienrenditen gestaltet sich hingegen schwieriger, da aufgrund der vorhandenen Autokorrelationen verschiedene statistische Verfahren benutzt und die Daten bereinigt werden müssen. Trotzdem können sie einen signifikanten Zusammenhang bei der Dividendenrendite auf jährlicher Basis und beim KGV auf monatlicher und jährlicher Basis nachweisen, die indes schwieriger nachzuweisen sind als zuvor angenommen.53 Ang/Bekaert (2007) weisen im Gegensatz dazu für die Dividendenrendite nach, dass nach der Korrektur der vorliegenden Heteroskedastizität der langfristige Prognosegehalt komplett verschwindet. Lediglich in Kombination mit kurzfristigen Zinsen ist ein kurzfristiger Prognosegehalt vorhanden.54

Die Forschungsergebnisse zu Renditeprognosen mit Bewertungskennzahlen bleiben widersprüchlich. Nachdem sich Ende der 90er die langfristige Prognostizierbarkeit scheinbar manifestiert hatte – Cochrane bezeichnete dies als new facts in finance55 - widerlegten neue Forschungsergebnisse die Prognostizierbarkeit entweder nahezu vollständig oder wiesen in der kurzen Frist eine höhere Signifikanz nach. Unter anderem wurde deswegen Mitte der 90er begonnen andere Variablen auf ihren Prognosegehalt zu überprüfen. Nachfolgend werden einige dieser dargestellt.

3.2 Investorenstimmung und Konjunkturindikatoren

Ende der 90er und Anfang der 2000er versuchten u.a. Baker/Wurgler, Cooper/Priestley und Ludvigson mit anderen Variablen Renditen zu prognostizieren. Schwerpunkte waren dabei das Verbrauchervertrauen, Konsumausgaben, Investorenvertrauen oder auch die Produktionslücke (Output Gap). Der Hintergedanke dabei ist, die Risikoaversion von Marktteilnehmern zu messen um Rückschlüsse auf zukünftige Renditen zu ziehen.

Die theoretische Grundlage für die Investorenstimmung lieferte Black (1986) mit dem sogenannten Noise-Trader-Ansatz.56 Die Theorie geht davon aus, dass Aktien von rationalen und irrationalen Anlegern gehalten werden. Letztere werden auch Noise-Trader genannt. Diese handeln Aktien auf Grundlage von Informationen, die noch nicht vorhanden sind.57 Aktien, die von Noise-Tradern gehalten werden, können von ihrem fundamentalen Wert abweichen. Diese Fehlbewertung geht mit hoher Investorenstimmung einher und löst sich später wieder auf. Dies induziert einen negativen Zusammenhang zwischen Investorenstimmung und Aktienrenditen.58 Die Herleitung der Investorenstimmung kann dabei über die Messung des Investoren- oder des Konsumentenvertrauens erfolgen. Empirische Ergebnisse zur Messung des Investorenvertrauens liefern u.a. Baker/Wurgler 2006 und 2007. Sie fanden einen Zusammenhang zwischen niedrigem Investorenvertrauen und folgenden hohen Renditen und andersherum.59 Allerdings besteht dieser negative Zusammenhang nicht in allen Ländern und es ist unklar über welchen Zeitraum dieser besteht.60 Erklärungsansätze liefern Campbell/Cochrane (1999) sowie Baker/Wurgler (2006) und Brown/Cliff (2005). Campbell/Cochrane (1999) nehmen an, dass Zeitabschnitte mit hoher Investorenstimmung mit hohem Wirtschaftswachstum einhergehen. Die Risikoaversion von Anlegern ist während dieser Zeit niedrig, was dazu führt, dass diese bereit sind in schon sehr hoch bewertete riskante Anlagen zu investieren.61 Baker/Wurgler (2006) und Brown/Cliff (2005) argumentieren, dass Investoren in guten Zeiten überdrehen und somit die Preise - relativ zum Konjunkturzyklus – über ihren fairen Wert drücken.62 Die darauf folgende Mean Reversion spiegelt den negativen Zusammenhang von Renditen und Investorenvertrauen in den Daten wider. Es bleibt jedoch anzumerken, dass Investorenstimmung schwer zu messen ist63 und nur während eines wirtschaftlichen Aufschwungs Renditen prognostizieren kann.64

Einen etwas anderen Ansatz verfolgen Lemmon/Portniaguina (2006) und Cooper/Priestley (2009). Beide versuchen die Investorenstimmung über makroökonomische Kennzahlen herzuleiten. Lemmon/Portniaguina (2006) nutzen dabei das Konsumentenvertrauen als Proxy für Investorenoptimismus.65 Ein Vorteil der Nutzung des Konsumentenvertrauens besteht darin, dass dieses eine Verbindung zwischen Investorenstimmung und zukünftigen Konsumausgaben herstellt. So weisen Qiu/Welch (2004) eine positive Korrelation von Konsumentenvertrauen und Investorenstimmung66 und Ludvigson (2004) einen Prognosegehalt des Konsumentenvertrauens für zukünftige Konsumausgaben nach.67 Das Ergebnis von Lemmon/Portniaguina (2006) ist konsistent mit den Ergebnissen von Baker/Wurgler (2006). Somit folgen auf Perioden mit hohem Konsumentenvertrauen niedrige Renditen bei Aktien mit niedriger Markkapitalisierung und geringem Aktienanteil von institutionellen Investoren.68 Der Ansatz von Cooper/Priestley (2009) ist noch sehr jung und führt eine neue, finanzmarktunabhängige Variable ein um Aktien zu bewerten. Diese Variable wird Output Gap oder auf Deutsch Produktionslücke genannt. Die Output Gap beschreibt die Differenz des aktuellen Bruttoinlandsprodukts (BIP) und des Produktionspotenzials. Wird diese Lücke kleiner, werden wirtschaftliche Ressourcen effizient verwendet. Sobald diese größer wird, werden Produktionsfaktoren nicht effizient benutzt. Durch diese Variable soll es möglich sein, die Risikoprämien während eines Konjunkturzyklus zu bestimmen.69 In der Nutzung der Output Gap ergeben sich zwei Vorteile. Erstens ist diese nicht von der absoluten Höhe der Aktienpreise abhängig und zweitens werden lediglich produktionsbezogene Faktoren herangezogen.70 Eine Verzerrung der Daten oder eine Scheinkorrelation ist somit ausgeschlossen. In ihrer Untersuchung decken Cooper/Priestley einen langen Zeitraum von 1948 bis 2005 ab. Zur Messung der Output Gap wird die Abweichung der logarithmierten Industrieproduktion von einem linearen und quadratischen Trend berechnet. Anhand einer linearen Regression wird der Zusammenhang der Output Gap mit der absoluten sowie der Überrendite überprüft. Dabei liegt der Fokus auf Monats-, Quartals- und Jahresrenditen.71 Die gefunden Ergebnisse erweisen sich sowohl In-Sample als auch Out-of-Sample als signifikant, auch wenn die Out-of-Sample Tests deutlich schlechter abschneiden.72 Die Tatsache der hohen Relevanz von realen ökonomischen Daten für die Renditeprognose wird im empirischen Teil dieser Arbeit noch eine große Rolle spielen.

3.3 Big Data – Ein neuartiger Ansatz der Renditeprognose

Durch das Internet ist eine stark steigende Zahl von Echtzeitdatenmengen verfügbar. Die Verarbeitung und Analyse dieser Daten macht es möglich, die aktuelle Stimmung von Marktteilnehmern abzugreifen und auf den Aktienmarkt zu übertragen. Die empirische Forschung fokussiert sich in diesem Gebiet vor allem Aktienforen und Social Media Portale. Untersucht werden hierbei vor allem deren Prognosefähigkeit für Überrenditen, überdurchschnittliche Volatilität am nächsten Tag und ob diese Nachrichten neue unbekannte Informationen enthalten.

Die erste wissenschaftliche Untersuchung, die Big Data heranzieht um Renditen zu prognostizieren, stammt von Wysocki (1998). Er untersuchte, ob eine Korrelation zwischen Postingvolumina im Yahoo! Aktienforum mit speziellen Unternehmenseigenschaften und späteren Transaktionsvolumina der entsprechenden Aktien besteht. Die Ergebnisse können als Impuls für diesen Forschungszweig gelten. Denn die Ergebnisse sind durchaus bemerkenswert. So konnte er u.a. einen Zusammenhang zwischen Postingvolumen, Firmencharakteristika sowie dem Tradingvolumen und einer überdurchschnittlichen Aktienrendite feststellen.73 Weitere Untersuchungen in diesem Bereich sind u.a. von Tumarkin/Whitelaw (2001), Dewally (2003) und Antweiler/Frank (2004) vorhanden. Während erstere eine positive Korrelation von Postingvolumen und überdurchschnittlicher Volatilität sowie Aktienrendite für Internetaktien am nächsten Tag nachweisen, finden sie keine signifikanten Ergebnisse für Industrieaktien.74 Antweiler/Frank weisen aggregiert nur ein ökonomisch signifikantes Ergebnis für eine überdurchschnittliche Volatilität nach.75 Doch weshalb sollte das Postingvolumen in Aktienforen die Volatilität oder Rendite prognostizieren können? Liegt eine umgekehrte Kausalität vor? Besitzen diese Nachrichten bzw. Empfehlungen einen Informationsgehalt oder wird dort versucht Marktteilnehmer gezielt zu beeinflussen? Dewally (2003) liefert hierzu einen interessanten Beitrag. Er überprüft dabei, ob Aktienempfehlungen in Aktienforen mit der Rendite korreliert sind. Die Ergebnisse weisen keinen signifikanten Einfluss der Empfehlungen auf Aktienkurse auf. Eine Erkenntnis ist jedoch, dass vor allem stark gestiegene Aktien vermehrt empfohlen wurden. Dewally (2003) folgert daraus, dass diese Anleger eine Momentum Strategie verfolgen und Aktienmarktforen keinen Informationsgehalt sowie keinen manipulativen Charakter aufweisen.76 Die geschilderten Ergebnisse können jedoch nicht ohne Kritik angenommen werden. Einige wichtige Punkte müssen beachtet werden. Erstens werden unterschiedliche Zeiträume untersucht, die zudem einen kleinen Zeitraum abdecken. Die unterschiedlichen Datensätze, vor allem auch deren Größe, beeinflussen das Ergebnis maßgeblich. Zweitens werden die Daten teilweise von unterschiedlichen Aktienforen bezogen und drittens ist die empirische Herangehensweise meist unterschiedlich.77

Mit dem Siegeszug von Social Media ergab sich eine neue Grundlage für die Nutzung von Big Data als Prognosevariable für den Aktienmarkt. Insbesondere erfreuen sich seit 2010 Tweets von Twitter Accounts großer Beliebtheit. Für die empirische Erforschung werden meistens spezielle Programme eingesetzt, die durch einen bestimmten Algorithmus Texte analysieren und somit die aktuelle Stimmung der Nutzer abgreift. Zhang et al. (2010) greifen über Tweets und der Anzahl der Follower die Stimmungen Hoffnung und Angst ab. Sie weisen eine negative Korrelation zwischen amerikanischen Aktienindizes und den extrahierten Stimmungsindizes nach. Vereinfacht gesagt heißt das: Ist eine hohe Anzahl an emotionalen Tweets vorhanden, die Hoffnung oder Angst ausdrücken, steigt der DJI am nächsten Tag und andersrum.78 Bollen et al. (2011) nutzen die Software OpinionFinder und GPOM um Tweet Texte zu analysieren. Diese werden wie bei Zhang et al. (2010) in verschiedene Stimmungen klassifiziert. Während OpinionFinder diese nur in positiv oder negativ unterteilt79, nimmt GPOM eine feinere Unterteilung von insgesamt sechs Stimmungen vor. Die Ergebnisse sind zweigeteilt. Die einzigen signifikanten Ergebnisse liefern zwei Stimmungen von GPOM, wobei von diesen nur die Stimmung calm die DJI Schlusskurse mit einer Verzögerung von 3-4 Tagen prognostizieren kann. OpinionFinder liefert hingegen keine signifikanten Ergebnisse.80 Wie Sprenger et al. (2014) ausführen sind diese Ergebnisse indes zu hinterfragen. Hauptkritikpunkt ist der noch nicht nachgewiesene Übertragungsmechanismus zwischen Social Media Stimmungen und Aktienpreisen. Ferner nutzten die vorangegangenen Studien nicht nur aktienmarktbezogene Begriffe, sondern alle Tweets im Untersuchungszeitraum, was zu deutlichen Verzerrungen führen kann. Ein weiterer Kritikpunkt ist die Fokussierung auf Indizes statt auf Einzelaktien. Mit dem Nachweis anhand von Einzelaktien ließen sich validere Ergebnisse darstellen.81 Auch wenn die Übertragungsmechanismen zwischen Tweets und Aktienmärkten noch nicht nachzuvollziehen sind weisen aktuelle Ergebnisse darauf hin, dass Tweets wertvolle Informationen, die noch nicht vollständig in den Aktienkursen reflektiert werden, enthalten. Weiterhin scheinen Anleger nicht mehr einer naiven Momentum Strategie zu folgen, sondern eine Contrarian Position einzunehmen. Anleger, die Tweets als Entscheidungsgrundlage heranziehen wollen, sollten somit vielmehr auf Qualität anstatt auf Quantität der Tweets und auf die Anzahl der Follower achten.82

Doch nicht nur von Twitter können viele Daten extrahiert werden, sondern auch vom Online Service Google Trends, der seit 2004 Daten für die Öffentlichkeit bereitstellt. Auf der Google Trends Homepage können User Schlagworte eingeben und erhalten daraufhin eine Zeitreihe über das Suchinteresse der jeweiligen Schlagworte. Diese können als Excel-Tabelle heruntergeladen werden. Die Daten sind, je nach Popularität des Begriffes, in wöchentlichen oder monatlichen Abständen verfügbar. Dass diese Daten Voraussagekraft haben, wurde 2009 nachgewiesen. Die Häufigkeit der Suchanfragen von 45 mit Influenza in Verbindung stehenden Begriffen kann Grippewellen mit einer Vorlaufzeit von ein bis zwei Wochen prognostizieren.83 Im gleichen Jahr konnten Choi/Varian nachweisen, dass Haus- und Autoverkäufe sowie Tourismus ebenfalls mit Hilfe von Google Trends Daten vorausgesagt werden können.84 Ab 2011 wurden die ersten Studien veröffentlicht, die versuchten einen Zusammenhang zwischen Google Trends Daten und dem Aktienmarkt herzustellen. Die Ersten waren Da et. al (2011). Sie versuchten das Investoreninteresse über diese Daten zu messen, indem sie als Suchbegriffe die Tickersymbole von Aktien des Russel 3000 Index benutzten. Sie fanden heraus, dass ein Anstieg des Suchinteresses mit höheren Aktienkursen in den folgenden zwei Wochen und mit einem Rückgang zum selben Level im Laufe des Jahres einhergeht.85 Eine aufsehenerregende Portfoliostrategie auf der Basis von Google Trends Daten wurde 2013 von Preis et al. veröffentlicht. Eine Strategie mit wöchentlicher Umschichtung eines Portfolios auf Basis der Daten des Suchbegriffs debt konnte nachweislich eine BaH-Strategie deutlich outperformen.86 Da ein Teil der nachfolgenden empirischen Forschung auf diesem Artikel aufbaut, wird später in Kapitel 4.3 detailliert auf die Vorgehensweise sowie deren Problematik und Kritik eingegangen.

[...]


1 Vgl. http://www.bloomberg.com/news/articles/2015-01-27/nobel-prize-winning-economist-says-it-s-time-to-buy-greek-stocks.

2 Vgl. http://www.welt.de/finanzen/geldanlage/article131318393/Das-grandiose-Scheitern-der-Crash-Propheten.html.

3 Vgl. Euro (2015/07), S. 101.

4 Vgl. Schons (2011), S. 19. Eine frühere Definition ist allerdings schon von Ingrams (1888) und Smith (1776) vorhanden.

5 Vgl. Schons (2011), S. 19f.

6 Vgl. Bachelier (1900); Pearson (1905) beschrieb den gleichen Prozess unabhängig davon anhand eines Betrunkenen, der seine Schritte unvorhersehbar setzt.

7 Vgl. Fama (1965); die erste Erwähnung der EMH stammt von Gibson (1889): „…the value which they there acquire (stocks) may be regarded as the judgement of the best intelligence concerning them.”.

8 Vgl. Fama (1970); auf dieser Theorie bauen u.a. die bekannten Aktienpreismodelle CAPM und Fama-French 3-Faktoren-Modell auf.

9 Vgl. Fama (1970), S. 383.

10 Vgl. Keynes (1936), S. 153-154. Keynes beschreibt einen Beauty Contest mit einem Bsp. anhand von Preisausschreiben von Tageszeitungen. Die Teilnehmer mussten eines von verschiedenen Bildern auswählen. Der Gewinner wurde dabei unter denen ausgelost, die das Bild ausgewählt hatten, das auch die Mehrheit gewählt hatte.

11 Vgl. Shiller (2014), S. 24f.

12 Siehe hierzu DeBondt/Thaler (1984), Black (1985) sowie Kahnemann/Tversky (1979). Dabei werden Über- und Unterreaktionen, Noise sowie die Prospect Theory beschrieben.

13 http://www.nobelprize.org/nobel_prizes/economic-sciences/laureates/2013/.

14 Vgl. Tirole (1982) zeigt mit Rückwärtsinduktion, dass Blasen nicht entstehen können.

15 Vgl. Cochrane (2002), S. 1ff.

16 Vgl. Anderson/Brooks (2014), S. 20.

17 Vgl. Bruns (1994), S. 23f. Hierbei wird Rationalität in einen engen und weiten Kontext gefasst. In der weiten wird jede Erwartung als rational bezeichnet, die sich nach dem danach Handeln als selbstbestätigend erweist. In der engeren sind hingegen nur solche Erwartungen rational, die sich an langfristigen Fundamentaldaten an Märkten orientierten. Die weitere Diskussion ist in der Literatur die Geläufigere. Weitere Diskussionen in diesem Zusammenhang finden sich in Kindleberger/Aliber (2005), S. 39f., und Thaler (1991). Letzterer prägte den Begriff der Quasi-Rationalität von Anlegern.

18 Vgl. Bruns (1994) und Blanchard/Watson (1982).

19 Vgl. Kindleberger/Aliber (2005), S. 29.

20 Vgl. Camerer (1989), S. 4 ff. Blanchard/Watson (1982) erwähnten als erste den Begriff rationale Blase.

21 Vgl. Chancellor (2000), S. 95. Die Greater Fool Strategie ist heutzutage unter der Momentum Strategie bekannt.

22 Vgl. Bruns (1994), S. 24f. und Santoni (1987), S. 23.

23 Vgl. Friedman/Aoki (1986) und Allen/Gorton (1993).

24 Vgl. Damodaran (2000), S. 3ff.

25 Vgl. Camerer (1989), S. 25.

26 Vgl. Chancellor (2000), S. 332. Eine weitere Ausführung folgt im nächsten Kapitel.

27 Vgl. Froot/Obstfeld (1991), S. 1189ff.

28 Vgl. Anderson/Brooks (2014), S. 21. Eine Auflistung empirischer Ergebnisse bis 1994 ist bei Bruns (1994) zu finden.

29 Vgl. Camerer (1989), S. 3.

30 Vgl. Shiller (2014), S. 2.

31 Vgl. Shiller (2014), S. 2.

32 Das darauf aufbauende Modell von Kindleberger/Aliber (2005), auf das vermehrt zurückgegriffen wird, beschäftigt sich vor allem mit der historischen Aufarbeitung von Aktienmarktblasen und deren Ursachen.

33 Vgl. Kindleberger/Aliber (2005), S. 26. Dieser nennt die Entwicklung des Automobils oder des Telefons in den 1920ern als Beispiel. Oft ist auch eine Liberalisierung des Finanzmarktes ein Auslöser für einen Boom.

34 Vgl. Kindleberger/Aliber (2005), S. 25.

35 Vgl. Kindleberger/Aliber (2005), S. 28.

36 Vgl. Kindleberger/Aliber (2005), S. 29.

37 Vgl. Minsky (1970), S 12.

38 Vgl. Kindleberger/Aliber (2005), S. 28.

39 Vgl. Kindleberger/Aliber (2005), S. 31.

40 Vgl. Kindleberger/Aliber (2005), S. 38.

41 Ein Praxisbeispiel befindet sich im Anhang 1.

42 Vgl. Smith et al. (1988), S. 1119ff.

43 Vgl. Noussair et al. (2001), S. 87ff.

44 Vgl. hierzu u.a. Campbell/Shiller (1988) und Kothari/Shanken (1997).

45 Vgl. hierzu u.a. Campbell (1987).

46 Einige kamen auch zu anderen Ergebnissen. Entweder war kein Zusammenhang erkennbar oder der Prognosegehalt nur auf kurzfristige Sicht signifikant. Vgl. u.a. Fama/French (1988).

47 Vgl. Schmelzer (2009), S. 10.

48 Vgl. Campbell/Yogo (2006), S. 2.

49 Vgl. Campbell/Thompson (2007), S. 1 und Goyal/Welch (2008), S. 1456.

50 Vgl. Cochrane (2006), S. 1ff.

51 Vgl. Goyal/Welch (2008), S. 1455ff. Zudem kommen Sie zu dem Ergebnisse, dass alle bisherigen Modelle mit neuen Daten sowohl In-Sample als auch Out-of-Sample nicht signifikant sind.

52 Vgl. Campbell/Thompson (2007), S. 1; Vgl. u.a. auch Goyal/Welch (2003 und 2008), Lewellen (2004).

53 Vgl. Campbell/Yogo (2006), S. 2ff.

54 Vgl. Ang/Bekaert (2007), S. 652.

55 Vgl. Cochrane (1999), S. 1ff.

56 Vgl. Black (1985), S. 529ff.

57 Vgl. Black (1985), S. 529.

58 Vgl. Lemmon/Portniaguina (2006), S. 1499.

59 Vgl. Baker/Wurgler (2006), S. 1645. Die Ergebnisse sind allerdings u.a. nur für junge, wachstumsstarke, sehr volatile und unprofitable Aktien signifikant wie die Theorie des Noise-Trader Ansatzes auch annimmt, da der Anteil von institutionellen Investoren dort gering ist. Vgl. auch mit Brown/Cliff (2005).

60 Vgl. Schmeling (2009), S. 394ff sowie Brown/Cliff (2005), S. 405. Während Schmeling lediglich signifikante Ergebnisse im Zeitraum von ein bis sechs Monaten nachweisen kann, weisen dies Brown/Cliff über einen Zeitraum von ein bis drei Jahren nach.

61 Vgl. Campbell/Cochrane (1999), S. 205ff. sowie Moller et al. (2014), S. 230.

62 Vgl. Baker/Wurgler (2006), S. 1648f. und Brown/Cliff (2005), S. 407.

63 Vgl. Brown/Cliff (2005), S. 406.

64 Vgl. Chung et al. (2012), S. 237.

65 Vgl. Lemmon/Portniaguina (2006), S. 1499.

66 Vgl. Qiu/Welch (2004), S. 26.

67 Vgl. Ludvigson (2004), S. 49. In diesem Zusammenhang ist ein Nachweise für den Michigan Consumer Confidence Index vorhanden.

68 Vgl. Lemmon/Portniaguina (2006), S. 1526-1527.

69 Vgl. Cooper/Priestley (2009), S. 2802.

70 Vgl. Cooper/Priestley (2009), S. 2831.

71 Vgl. Cooper/Priestley (2009), S. 2808.

72 Vgl. Cooper/Priestley (2009), S. 2831.

73 Vgl. Wyocki (1998), S. 2.

74 Vgl. Tumarkin/Whitelaw (2001), S. 50f.

75 Vgl. Antweiler/Frank (2004), S. 1292.

76 Vgl. Dewally (2003), S. 76.

77 Wysocki (1998) benutzt Daten von Yahoo! im Zeitraum von 1997-1998; Tumarkin/Whitelaw (2001) Daten von Ragingbull.com von 1999-2000; Dewally (2003) Daten von misc.invest.stock und alt.invest.penny-stocks von 1999-2001; Antweiler/Frank (2004) Daten von Yahoo! und Ragingbull.com im Jahr 2000.

78 Vgl. Zhang et al. (2011), S.61f.

79 Es wurde nachgewiesen, dass die ins Verhältnis gesetzte Zeitreihe u.a. eine positive Korrelation mit dem Michigan Consumer Confidence Index aufweist.

80 Vgl. Bollen et al. (2011), S. 7.

81 Vgl. Sprenger et al. (2014), S. 927f.

82 Vgl. Sprenger et al. (2014), S. 951.

83 Vgl. Ginsberg et al. (2009), S. 1012ff.

84 Vgl. Choi/Varian (2009), S. 2ff.

85 Vgl. Da et al. (2011), S. 1497.

86 Vgl. Preis et al. (2013), S. 1ff.

Ende der Leseprobe aus 84 Seiten

Details

Titel
Prognose von Aktienrenditen. Big Data vs. Fundamentaldaten
Hochschule
Universität zu Köln  (Wirtschafts- und Sozialwissenschaftliche Fakultät)
Veranstaltung
Finanzierungslehre
Note
2,0
Autor
Jahr
2015
Seiten
84
Katalognummer
V309875
ISBN (eBook)
9783668082243
ISBN (Buch)
9783668082250
Dateigröße
1200 KB
Sprache
Deutsch
Schlagworte
prognose, aktienrenditen, data, fundamentaldaten
Arbeit zitieren
Manuel Ruckober (Autor), 2015, Prognose von Aktienrenditen. Big Data vs. Fundamentaldaten, München, GRIN Verlag, https://www.grin.com/document/309875

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Prognose von Aktienrenditen. Big Data vs. Fundamentaldaten


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden