Prognostizierbarkeit deutscher Aktien auf Grundlage von aggregierten Informationssignalen aus Finanzzeitreihen. Das Scoring-Konzept


Masterarbeit, 2015

150 Seiten, Note: 1,0


Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

Symbolverzeichnis

Formelverzeichnis

1 Einleitung
1.1 Problemstellung
1.2 Zielsetzung und Vorgehensweise

2 Theoretische Grundlagen
2.1 Effizienzmarkthypothese nach Fama
2.2 Bedeutung von Kapitalmarktanomalien für Aktienprognosen
2.3 Aggregationsmodelle für Aktienprognosen
2.3.1 Multifaktormodelle zur Erklärung von Aktienrenditen
2.3.1.1 Multifaktormodelle nach Faktortypen
2.3.1.2 Anzahl Faktoren in Multifaktormodellen
2.3.2 Scoring-Modelle als alternativer Aggregationsansatz
2.3.2.1 Nutzwertanalyse nach Zangemeister
2.3.2.2 Literaturüberblick zu Scoring-Modellen
2.4 Grundlagen zur Erzeugung von Informationssignalen
2.4.1 Konzept der Informationssignale nach Lev und Thiagarajan
2.4.2 Technische Analyse als Grundlage des Momentum-Indikators
2.5 Kritische Betrachtung der theoretischen Aspekte
2.5.1 Effizienzmarkthypothese
2.5.2 Kapitalmarktanomalien
2.5.3 Multifaktormodelle
2.5.4 Scoring-Modelle
2.5.5 Informationssignale

3 Empirischer Ansatz der Untersuchung
3.1 Datensample der Untersuchung
3.1.1 Deutsche Aktien
3.1.2 Potenzielle Modellvariablen
3.1.3 Benchmark und risikoloser Zinssatz
3.1.4 Aufteilung des Datensamples
3.2 Investitionsansatz des Handelsmodells
3.2.1 Score-Wert als Handelssignal
3.2.2 Score-Wert als Gewichtungsfaktor
3.3 Ermittlung der Renditen
3.3.1 Investitionsrenditen
3.3.2 Überschussrenditen
3.3.3 Ansatz der Portfoliobildung
3.4 Erzeugung und Aggregation von Informationssignalen
3.4.1 Transformation durch Momentum-Indikator
3.4.2 Transformation der monatlichen Saisonalität
3.4.3 Scoring-Modell als Aggregationsmodell
3.5 Optimierungsansatz für das Handelsmodell
3.5.1 Parametrische Optimierung der Einzelvariablen
3.5.2 Optimierung der Variablenkombination
3.6 Performance-Evaluation
3.6.1 Sortino-Maß
3.6.2 Jensen-Alpha

4 Auswertung der Untersuchungsergebnisse
4.1 Optimierungsresultate
4.1.1 Parametrische Optimierung der Einzelvariablen
4.1.2 Optimierung der Variablenkombination
4.2 Deskriptive Statistiken
4.2.1 Korrelationsanalyse
4.2.2 Portfolio-Statistiken
4.2.2.1 Auswertung der Ergebnisse (in-sample)
4.2.2.2 Auswertung der Ergebnisse (out-of-sample)
4.2.3 Indizierte Verläufe
4.2.3.1 Auswertung der Verläufe (in-sample)
4.2.3.2 Auswertung der Verläufe (out-of-sample)
4.3 Performance-Analyse
4.3.1 Sortino-Maß
4.3.1.1 Auswertung der Performance (in-sample)
4.3.1.2 Auswertung der Performance (out-of-sample)
4.3.2 Jensen-Alpha
4.3.2.1 Auswertung der Performance (in-sample)
4.3.2.2 Auswertung der Performance (out-of-sample)

5 Fazit
5.1 Schlussfolgerung
5.2 Kritische Betrachtung
5.3 Ausblick

Literaturverzeichnis

Anhangverzeichnis

Abbildungsverzeichnis

Abb. 1: Marktkapitalisierung und Unternehmensanzahl im Beobachtungszeitraum

Abb. 2: Aufteilung des Datensamples

Abb. 3: Optimierungsergebnisse der Variablenkombination (in-sample)

Abb. 4: Portfolio-Statistiken der Mittelwerte p.a. (in-sample)

Abb. 5: Portfolio-Statistiken der Volatilitäten p.a. (in-sample)

Abb. 6: Portfolio-Statistiken der Mittelwerte p.a. (out-of-sample)

Abb. 7: Portfolio-Statistiken der Volatilitäten p.a. (out-of-sample)

Abb. 8: Indizierte Verläufe von SM, B&H und CDAX Adj. (in-sample)

Abb. 9: Indizierte Verläufe von SM, B&H und CDAX Adj. (out-of-sample)

Abb. 10: Sortino-Maße für SM und B&H nach Portfolien (in-sample)

Abb. 11: Sortino-Maße für SM und B&H nach Portfolien (out-of-sample)

Tabellenverzeichnis

Tab. 1: Literaturüberblick zu Scoring-Modellen für die Aktienprognose

Tab. 2: Daten und Kennzeichnungen potenzieller Modellvariablen

Tab. 3: Portfoliozuordnung anhand der Perzentile der Marktkapitalisierung

Tab. 4: Iterationsansatz zur Variablenkombination im Optimierungsprozess

Tab. 5: Ergebnisse aus dem parametrischen Optimierungsprozess (in-sample)

Tab. 6: Korrelationskoeffizienten von deutschen Aktien und Währungen

Tab. 7: Korrelationskoeffizienten von SM, B&H und CDAX Adj

Tab. 8: Jensen-Alpha-Kennzahlen für SM und B&H nach Portfolien (in-sample)

Tab. 9: Jensen-Alpha-Kennzahlen für SM und B&H nach Portfolien (out-of-sample)

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Symbolverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Formelverzeichnis

Formel (1): Marktkapitalisierung

Formel (2): Monatliche Verzinsung

Formel (3): Handelssignal (Score-Wert)

Formel (4): Gewichtungsfaktor (Score-Wert)

Formel (5): Aktienrendite

Formel (6): Investitionsrendite (Handelssignal)

Formel (7): Investitionsrendite (Gewichtungsfaktor)

Formel (8): Überschussrendite (Investition)

Formel (9): Durchschnittliche Überschussrendite (Portfolio)

Formel (10): Momentum

Formel (11): Trade Rule (Momentum)

Formel (12): Angepasstes Momentum

Formel (13): Trade Rule für Informationssignale (angepasstes Momentum)

Formel (14): Trade Rule für Informationssignale (Saisonalität)

Formel (15): Scoring-Modell aus Informationssignalen

Formel (16): Auslegung des Informationssignals (direkt)

Formel (17): Auslegung des Informationssignals (konträr)

Formel (18): LPM

Formel (19): Sortino-Maß

Formel (20): Jensen-Alpha

Formel (21): Strategisches Modell (SM) mit Trade Rule

Formel (22): Jährliche Volatilität

1 Einleitung

Die vorliegende Arbeit ordnet sich in den Bereich der quantitativen Finanzanalyse ein. Nach Auffassung von Rehkugler / Poddig (1994) geht es bei einer Finanzanalyse im Allgemeinen darum, „ einer Menge von Zuständen oder Situationen (z.B. Situationen an Finanzmärkten, definiert durch die Zustände bestimmterökonomischer Variablen wie Zinsen, Auftragsein- gänge usw.) jeweils eine (sinnvolle) Handlungsvorschrift oder Folgerung (z.B. Aktie kaufen, halten oder verkaufen) zuzuordnen “.1 Die Finanzanalyse verfolgt häufig das Ziel, Aktien zu prognostizieren. Unter Prognose ist die Vorhersage zukünftiger Ereignisse auf Grundlage von historischen Informationen und theoretisch wie empirisch fundierter sowie nachvollzieh- barer Verfahren zu verstehen.2 Der Prognose liegt die Annahme zugrunde, dass gewisse Grundstrukturen aus der Vergangenheit auch in der Zukunft unverändert weiterwirken. Mit der Voraussage von Aktienkursen befassen sich nicht nur Finanzwissenschaftler, sondern auch viele Praktiker. Denn das Auffinden eines funktionierenden Prognosemodells stellt nicht nur die für Aktienprognosen bedeutsame Effizienzmarkthypothese in Frage, sondern scheint zudem profitable Investments am Kapitalmarkt zu ermöglichen.

Im folgenden Abschnitt wird die Problemstellung dieser Arbeit geschildert. Dem schließt sich die Erläuterung der Zielsetzung mit der Formulierung der Fragestellung an. Zudem wird auf die Vorgehensweise eingegangen.

1.1 Problemstellung

Die von Rehkugler / Poddig (1994) angesprochene „… Menge von Zuständen oder Situatio- nen …3 stellen sich als Zeitreihen dar. Poddig et al. (2008) beschreiben Zeitreihen als Längsschnittdaten, die aus den Realisationen einer Zufallsvariable zu unterschiedlichen Zeit- punkten bestehen.4 Der Zeitreihenbegriff ist keinem bestimmten Themenbereich zugeordnet. Daher wird nachfolgend der Begriff Finanzzeitreihe5 verwendet, um damit Zeitreihen im Sin- ne der Finanzanalyse zu bezeichnen. Finanzzeitreihen bilden somit die Grundlage für quantitative Finanzanalysen, um empirische Muster zu identifizieren und diese in Prognose- modellen zu nutzen.6 In Prognosemodellen stellen sich Finanzzeitreihen als Variablen dar, die sich auch als Faktoren bzw. Risikofaktoren bezeichnen. Dabei kann ein Prognosemodell aus einer beliebigen Menge an Faktoren bestehen. Bei der Verwendung von mehr als zwei Faktoren liegt eine Aggregation vor. Einer technischen Begriffsdefinition zufolge steht der Aggregationsbegriff als Abstraktionsansatz für die Zusammenfassung potentiell unterschied- licher Teilobjekte (Komponenten) zu einem neuen Objekt.7 Ein mögliches Motiv aus dieser Begriffsdefinition heraus ist die Komplexitätsreduktion. Bei Prognosemodellen dient die Ag- gregation mehrerer Faktoren der möglichst genauen Prognose von Aktienrenditen.

Die Finanzwissenschaft setzt für Aktienprognosen mit mehreren Faktoren häufig auf Multi- faktormodelle. Einen alternativen Aggregationsansatz stellen Scoring-Modelle dar, welche jedoch nicht dieselbe wissenschaftliche Beachtung erhalten. Ihren Ursprung haben Scoring- Modelle in der Entscheidungstheorie und weisen damit keine theoretischen Verbindungen zu Kapitalmarktthemen auf. Es existieren dennoch Anwendungen für Aktienprognosen, welche bis zum Jahre 1968 reichen. Viele dieser Ansätze beruhen auf dem Konzept der Informati- onssignale. Der Nutzen leitet sich dabei in Form exakter Informationssignale aus den Faktoren ab. Hinsichtlich der Faktoren scheinen unabhängig von der Modellvariante funda- mentale Faktoren beliebter zu sein. Alternative Faktoren stellen sich beispielsweise als makroökonomische Variablen dar (z.B. Zinsen, Inflationen oder Währungen). Bei Scoring- Modellen ist bislang lediglich der Gebert-Indikator bekannt, welcher auf Informationssignalen basiert und überwiegend makroökonomische Variablen aggregiert. Der Börsenzeitschrift ‚Der Aktionär zufolge soll der Gebert-Indikator zwischen 1995 und 2012 eine jährliche Rendite von 15,8 Prozent erzielt und damit seine Benchmark den DAX um 8,1 Prozent übertroffen haben.8 Es liegen jedoch keine wissenschaftlichen Untersuchungen vor, welche diese inte- ressante Leistung bestätigen können. Außerdem scheint der Gebert-Indikator das einzige Scoring-Modell auf Grundlage von makroökonomischen Variablen zu sein, das für den deut- schen Aktienmarkt entwickelt wurde. Insofern ist es naheliegend die Prognosefähigkeit von Scoring-Modellen mit aggregierten Informationssignalen für den deutschen Aktienmarkt zu untersuchen.

1.2 Zielsetzung und Vorgehensweise

Die Zielsetzung dieser Arbeit ist die Beantwortung der folgenden Fragestellung:

‚ Ist die Prognose deutscher Aktien auf Grundlage von aggregierten Informationssignalen in einem Scoring-Modell möglich? ‘

In dieser Arbeit wird für die Beantwortung der Fragestellung eine empirische Untersuchung durchgeführt. Dafür ist eine aktive Handelsstrategie (nachfolgend Handelsmodell) auf Grund- lage eines Scoring-Modells mit aggregierten Informationssignalen zu entwickeln und die Performanceleistung gegenüber einer passiven Strategie zu untersuchen. Der zu untersuchende Zielmarkt ist dabei der deutsche Aktienmarkt für den Beobachtungszeitraum von 1973 bis 2012. Die Antwort der Fragestellung leitet sich aus den zu erzielenden Leistungsergebnissen in einem unbekannten Bereich des Datensamples ab. Im Folgenden wird die Vorgehensweise näher erläutert.

Die empirische Untersuchung erfordert zunächst eine Auseinandersetzung mit den theore- tischen Grundlagen. Dies erfolgt im zweiten Kapitel, beginnend mit der Erläuterung der für Aktienprognosen bedeutsamen Effizienzmarkthypothese (EFMH). Anschließend wird auf Kapitalmarktanomalien eingegangen, die in empirischen Untersuchungen für Auffälligkeiten bezeichnet werden. Zudem scheinen die Erkenntnisse zu Kapitalmarktanomalien für Aktien- prognosen nützlich zu sein. Im darauffolgenden Abschnitt werden Aggregationsmodelle für Aktienprognosen vorgestellt. In der Finanzwissenschaft kommen hierfür häufig Multifaktor- modelle zum Einsatz. Die kapitalmarkttheoretische Grundlage der Multifaktormodelle gibt keine Hinweise zu den Risikofaktoren. Daher besteht die Herausforderung darin, diejenigen Risikofaktoren zu identifizieren, welche die Aktienrenditen möglichst genau erklären können. Die nächsten Abschnitte erläutern die Faktoren bzw. Faktormodelle, die sich im Zeitverlauf herausgebildet haben und welche Erkenntnisse zur benötigten Faktoranzahl vorliegen. Nach den Multifaktormodellen behandelt der darauffolgende Abschnitt Scoring-Modelle als Alterna- tive für die Aggregation von mehreren Faktoren. Zunächst wird die dahinterstehende Theorie (Nutzwertanalyse) dargestellt und im Anschluss ein Literaturüberblick zu Scoring-Modellen für die Aktienprognose gegeben. Dabei wird die Kenntnis erlangt, dass viele der Scoring- Modelle Informationssignale einsetzen. Daher wird dieser Ansatz eingehender untersucht und Verbindungen zur technischen Analyse erörtert. Der technische Momentum-Indikator nimmt dabei eine wichtige Rolle ein. Im letzten Kapitelabschnitt erfolgt eine kritische Betrach- tung der erläuterten theoretischen Aspekte.

Die aus den theoretischen Grundlagen gewonnenen Erkenntnisse bilden die Grundlage der empirischen Untersuchung. Der empirische Ansatz der Untersuchung wird im dritten Kapitel vorgestellt. Der erste Abschnitt geht auf das Datensample der Untersuchung ein. Die Daten- basis besteht aus verschiedenen Finanzzeitreihen für den 40-jährigen Beobachtungszeit- raum. Ein ausreichend langer Zeitraum soll sich dabei vorteilhaft auf die Robustheit und Stabilität der Ergebnisse auswirken. Den Investitionsgegenstand bilden bis zu 2.019 deut- sche Aktien. Die Auswahl der potenziellen Modellvariablen für das Handelsmodell leitet sich aus den theoretischen Erkenntnissen ab und bezieht sich auf die Bereiche Makroökonomie, Sentimentanalyse und Saisonalität. Des Weiteren ist für die spätere Auswertung eine Benchmark auszuwählen und für Renditeberechnungen der risikolose Zins zu bestimmen. Der letzte Abschnitt zum Datensample erläutert die Aufteilung des Datensamples in einen Trainings- und Testbereich. Dem Datensample schließt der Abschnitt zum Investitionsansatz des Handelsmodells an. Der Investitionsansatz stellt das monatliche Entscheidungsverhalten der Investition zwischen deutschen Aktien und dem Tagesgeldkonto dar. Ausschlaggebend für den Investitionsansatz ist dabei der Score-Wert, der als Handelssignal und als Gewich- tungsfaktor auszulegen ist. Der darauffolgende Abschnitt erläutert die Ermittlung der Rendi- ten. Beginnend mit den Investitionsrenditen, die sich aus den Investitionsansätzen ergeben, werden die Berechnungsweisen der Überschussrenditen geschildert und anschließend auf den Ansatz der Portfoliobildung eingegangen. Die Portfoliobildung dient für die differentielle Auswertung der Ergebnisse und orientiert sich nach der Marktkapitalisierung der Aktien. Der anschließende Abschnitt behandelt die Erzeugung und Aggregation von Informationssigna- len. Als Transformator für Finanzzeitreihen ist der technische Momentum-Indikator heranzu- ziehen und anzupassen. Die Transformation der monatlichen Saisonalität erfolgt aus einer Bedingung. Nach Erläuterung der Erzeugung von Informationssignalen geht der nächste Ab- schnitt auf die Konzeption des Scoring-Modells ein, welches sich als Aggregationsgerüst des Handelsmodells darstellt. Beim anschließenden Optimierungsansatz erläutert der Abschnitt wie im Trainingsbereich des Datensamples eine Optimierung durchzuführen ist, um mög- lichst profitable Handelssignale in der Zukunft zu erzeugen. Der Optimierungsansatz unter- teilt sich dabei in zwei Schritte. Zunächst sind die potenziellen Variablen zu optimieren. Dazu sind verschiedene Parametereinstellungen zu variieren, um daraus den idealen Zusammen- hang zu Aktien zu ermitteln. Der nächste Optimierungsschritt ermittelt aus einem iterativen Ansatz die ideale Variablenkombination und legt die Modellvariablen fest. Als Ergebnis sämt- licher Optimierungsaktivitäten ergibt sich das Handelsmodell. Der letzte Abschnitt erläutert die Performance-Evaluierung. Als Kennzahlen kommen das Sortino-Maß und das Jensen- Alpha in Betracht, die häufig in der Praxis für Performancemessungen eingesetzt werden.

Im vierten Kapitel sind die Untersuchungsergebnisse auszuwerten. Der erste Abschnitt stellt die erzielten Optimierungsresultate dar. Diese umfassen die Optimierungsergebnisse der Einzelvariablen und der Variablenkombination. Für die nachfolgende Auswertung werden als Vergleichsgrundlagen der B&H Ansatz stellvertretend für die passive Strategie und die aus- gewählte Benchmark (CDAX) herangezogen. Die Ergebnisse werden sowohl im in-sample als auch im out-of-sample sowie nach den gebildeten Portfolien untersucht und erläutert. Die Auswertung beginnt mit den deskriptiven Statistiken der Ergebnisse. Zunächst erfolgt eine Korrelationsanalyse über alle Datenabschnitte, um mögliche lineare Zusammenhänge zu identifizieren. Anschließend werden die Portfolio-Statistiken auf Grundlage von jährlichen Mittelwerten und Volatilitäten betrachtet. Im letzten Abschnitt der deskriptiven Statistiken werden die indizierten Verläufe skizziert und geschildert, um die Investitionsentscheidungen im Zeitverlauf zu untersuchen. Zuletzt wird eine Performance-Analyse anhand der genannten Performance-Kennzahlen für verschiedene Datenabschnitte und Portfolien durchgeführt.

Im fünften und letzten Kapitel wird zunächst die eingangs gestellte Fragestellung beantwortet und begründet. Im Anschluss darauf wird die Vorgehensweise dieser Arbeit kritisch betrachtet. Abschließend werden im Ausblick weitere Forschungsmöglichkeiten aufgezeigt.

2 Theoretische Grundlagen

Dieser Kapitel erläutert die theoretischen Grundlagen und gibt nachfolgend einen kurzen Überblick. Die Effizienzmarkthypothese (EFMH) ist grundlegend für Aktienprognosen. Der Begründer der EFMH postuliert, dass Finanzmärkte informationseffizient sind und deshalb eine Prognose nicht möglich ist. Empirische Untersuchungen versuchen häufig die EFMH zu widerlegen, indem eine aktive Handelsstrategie einer Benchmark als Repräsentant für den Markt bzw. der EFMH gegenübergestellt wird. Trotz zahlreicher Untersuchungen scheint bis- lang die EFMH weder endgültig bestätigt noch widerlegt zu sein. Die Kritiken scheinen zudem seit Entdeckung von empirischen Auffälligkeiten, die sich als Kapitalmarktanomalien bezeichnen, zugenommen zu haben (vgl. Kap. 2.1). Ein möglicher Erklärungsansatz für das Auftreten von Kapitalmarktanomalien geht vom fehlverhalten der Marktteilnehmer aus. Ein Befürworter davon postuliert, dass die Kapitalmarktanomalien im Zeitverlauf persistent sind. Allerdings sollen Beobachtungen zufolge sich einige Kapitalmarktanomalien seit ihrer Be- kanntmachung im Zeitverlauf abgeschwächt haben. Das Interesse an Kapitalmarktanomalien scheint groß zu sein, da sie sich neben der Widerlegung der EFMH zudem für Aktienprog- nosen einsetzen lassen (vgl. Kap. 2.2). In der Finanzwissenschaft werden Kapitalmarkt- anomalien häufig mithilfe von Multifaktormodellen untersucht. Eine Herausforderung dabei ist es, starke Risikofaktoren zu identifizieren mit denen sich Aktienrenditen möglichst genau er- klären lassen. Denn die Theorie hinter den Multifaktormodellen gibt keine Hinweise zu den Faktoren oder zu der benötigten Faktoranzahl. Um keine willkürlichen Faktoren zu identifizie- ren, sollten daher die potenziellen Faktoren entweder einen theoretischen Hintergrund zu Aktien aufweisen oder zumindest ökonomisch bzw. rational plausibel sein. Im Zeitverlauf ha- ben sich zwei Faktormodellen herausgebildet: Fundamentale und makroökonomische Faktormodelle. Während die erstgenannten Modelle Anomalievariablen verwenden, finden sich in makroökonomischen Faktormodellen vorwiegend volkswirtschaftliche Determinanten (vgl. Kap. 2.3.1). Eine Alternative zu Multifaktormodellen bilden Scoring-Modelle, die jedoch aus wissenschaftlicher Sicht nicht dieselbe Beachtung erhalten. In Scoring-Modellen lassen sich verschiedene Faktoren aggregieren, um einen höheren Nutzen zu ermitteln. Allerdings ergeben sich dabei verschiedene Bewertungsprobleme. Bei der Literaturanalyse zu Scoring- Modellen, scheint bei Vielen diese Problematik durch die Verwendung von Informations- signalen gelöst zu sein (vgl. Kap. 2.3.2). Daher wird dieser Ansatz eingehend untersucht und dabei Verbindungen zur technischen Analyse festgestellt. Insbesondere spielt dabei der Momentum-Indikator eine wichtige Rolle (vgl. Kap. 2.4). Der letzte Kapitelabschnitt betrachtet die erläuterten theoretischen Aspekte kritisch (vgl. Kap. 2.5).

2.1 Effizienzmarkthypothese nach Fama

Die EFMH nach Eugene F. Fama sorgt seit ihrer Entstehung im Jahre 1965 für rege Diskus- sionen in der Finanzwissenschaft. Fama (1965) postuliert mit der EFMH, dass alle Informationen vom Kapitalmarkt sofort und korrekt verarbeitet werden. Demnach können durch historische und verfügbare Informationen keine Vorteile bei der Prognose der Markt- entwicklungen erzielt werden.9 Kapitalmärkte sind Informationseffizient, wenn die Preise zu jeder Zeit alle verfügbaren Informationen vollständig reflektieren. Fama (1970) unterteilt die Informationseffizienz in drei Formen: Schwache, halb-strenge und strenge Form.10 Bei der schwachen Form gibt die Hypothese an, dass alle Informationen über vergangene Kursent- wicklungen in den Wertpapierkursen vollständig enthalten sind. In so einem Markt bringt nach Auffassung von Wetzer (2003) die Nutzung einer technischen Analyse11 für die Aktien- prognose keinen Vorteil. Bei der halb-strengen Form wird unterstellt, dass alle öffentlich verfügbaren Informationen in den Kursen enthalten sind. Nach Wetzer (2003) ließe sich hier die fundamentale Analyse12 nicht gewinnbringend einsetzen. Die strenge Form der Informa- tions-effizienz liegt vor, wenn sämtliche Informationen - auch nicht öffentlich verfügbare Informationen (z.B. Insider-Wissen) - in den Marktpreisen vollständig berücksichtigt sind. In so einem Markt lassen sich nach Wetzer (2003) auch durch einen Research keinerlei Vor- teile für eine Prognose erzielen.13

In zahlreichen theoretischen und empirischen Untersuchungen wurde bislang versucht, die EFMH zu widerlegen bzw. zu bestätigen, jedoch ohne ein endgültiges Resultat.14 Die EFMH gilt als widerlegt, wenn sich auf Grundlage eines Prognosemodells ein systematischer und signifikanter Gewinn erzielen lässt.15 Dieser liegt erst dann vor, wenn das Modell gegenüber einer Benchmark höhere Renditen (auch Überrenditen genannt) aufweist. Drobetz (2003) führt an, dass als Referenzkriterium in empirischen Untersuchungen häufig die Buy-and- Hold-Strategie16 (B&H) als Vergleichsgrundlage gegenüber einer aktiven Handelsstrategien herangezogen wird.17 Der B&H Ansatz stützt sich auf der Random-Walk-Theorie. Die Theorie stützt sich auf der EFMH und gibt an, dass Aktienkursentwicklungen aus zufälligen Schwan- kungen bestehen. Nach Murphy (2011) wäre die beste Strategie einen Markt zu schlagen durch den B&H Ansatz gegeben, da sich nach Heidorn (2009) die Aktienkurse in einem zu- fälligen Prozess mit einer positiven Tendenz entwickeln.18 Ältere Studien bis in die 1970er Jahre zeigen zudem, dass die Random-Walk-Theorie lange Zeit als vorherrschende Meinung in der Finanzwissenschaft galt.19 Spätestens Anfang der 1980er Jahre wurde sie in Frage gestellt als in empirischen Untersuchungen Überrenditen erzielt wurden.20 Ein wesentliches Gegenargument zur Random-Walk-Theorie brachte Shiller (1981) ein mit der Aussage, dass die Volatilität der Aktienkurse größer sei, als die zugleich bekannt gewordenen fundamenta- len Informationen dies rechtfertigen würden.21 Damit schien die Stellung der EFMH zunächst bedroht zu sein. Allerdings weist Heidorn (2009) auf ein wesentliches Problem der entwor- fenen Prognosemodelle hin und zwar, dass sie sich oftmals nicht über längere stabile Zyklen halten können.22 Für Muster, die sich dieser Prämisse widersetzen, hat sich die Wissenschaft auf den Begriff Kapitalmarktanomalie geeinigt.

2.2 Bedeutung von Kapitalmarktanomalien für Aktienprognosen

Kapitalmarktanomalien definiert Zacks (2011) als Abweichungen von der EFMH.23 Brennan / Yihong (2001) führen weiter aus, dass darunter allgemein bekannte und im Zeitablauf be- ständige empirische Auffälligkeiten von Aktienrenditen zu verstehen sind, die sich nicht mit kapitalmarkttheoretischen Modellen wie dem Capital Asset Pricing Model (CAPM)24 erklären lassen. Eine Persistenz im Zeitverlauf wird deshalb gefordert, da nach Hößl (2009) bei eini- gen Anomalien beispielsweise wie dem Size-25 oder Value-Effekt26 eine Abschwächung nach deren Bekanntmachung beobachtet wurde. Dagegen soll sich der Momentum-Effekt27 eher als stabil gezeigt haben. Das Fortbestehen einer Anomalie begründet Hößl (2009) damit, dass die Hintergründe ihres Auftretens nicht ausreichend aufgeklärt seien. Denn ein histori- scher Nachweis der Existenz stellt lediglich eine Vermutung für zukünftige Wiederholungen dar. Damit besteht ein Risiko, dass eine Anomalie jederzeit verschwinden kann.28 Eine davon abweichende Auffassung vertritt Zacks (2011) und postuliert, dass Anomalien aus mensch- lichen Fehlverhalten29 bei Kapitalmarktentscheidungen resultieren und deshalb zeitbeständig sind.30 Diese Auffassung stützt sich auf der Behavioral Finance. Die Behavioral Finance stellt sich als möglicher Erklärungsansatz für Kapitalmarktanomalien dar. Als einfachste Erklärung nennt Krahnen (1993) die Existenz von Transaktionskosten. Demzufolge verhindern Transaktionskosten eine vollständige Ausnutzung der Arbitragemöglichkeiten an den Märkten und als Folge davon zeigen sich empirische Auffälligkeiten.31 Des Weiteren weist Zacks (2011) darauf hin, dass eine gefundene Anomalie einen theoretischen Hintergrund zu Aktien aufweisen oder sich zumindest ökonomisch bzw. rational plausibel erklären lassen sollte, um eine Erklärung allein aus den Daten heraus auszuschließen.32

Roßbach (2001) gibt eine mögliche Unterteilung der wichtigsten Kapitalmarktanomalien wie folgt an33:

- Anomalien hinsichtlich der EFMH
- Kennzahlenanomalien
- Kalenderanomalien

Anomalien hinsichtlich der EFMH basieren nach Holtfort (2009) auf heterogenen Erwartun- gen der Marktteilnehmer. Demzufolge entstehen die empirischen Auffälligkeiten durch die nicht adäquate Berücksichtigung aktueller Informationen bei der Bewertung von Unterneh- men.34 Dieser Rubrik sind der Winner-Loser-Effekt oder der Momentum-Effekt zugeordnet.35 Die Rubrik der Kennzahlenanomalien umfassen Anomalien fundamentalen Ursprungs wie dem Size- oder Value-Effekt.36 Als letztes nennt Roßbach die Rubrik der Kalenderanomalien. Diese stützten sich auf empirischen Beobachtungen, bei denen Aktien zu bestimmten Kalen- derperioden bessere Renditen erzielen als zu anderen vergleichbaren Perioden.37

Roßbach (2001) führt des Weiteren an, dass bislang die gewinnbringende Ausnutzung der Kapitalmarktanomalien nicht nachzuweisen ist.38 Eine entgegengesetzte Meinung vertritt Zacks (2011) und begründet sie mit der Existenz der Multi-Milliarden Dollar schweren Quant Investment Prozesse der Fondsindustrie.39 Das Quant Investment verfolgt das Ziel, aktive Investmentstrategien teilweise durch Ausnutzung von Kapitalmarkanomalien zu gestalten, welche die Chance haben eine zugrunde gelegte Benchmark zu schlagen.40 Damit verfolgt auch die Finanzindustrie dasselbe Ziel wie die Finanzwissenschaft mit der Forschung nach Kapitalmarktanomalien: Die Prognostizierbarkeit von Aktienrenditen.

2.3 Aggregationsmodelle für Aktienprognosen

Nach Feststellung der Bedeutung von Kapitalmarktanomalien für Aktienprognosen stellt sich die Frage, welche Ansätze aus Wissenschaft und Praxis für die Erklärung von Aktienrenditen existieren. Im Folgenden werden Multifaktormodelle vorgestellt, welche hauptsächlich bei empirischen Prognoseanalysen zum Einsatz kommen. Neben den theoretischen Aspekten zu Multifaktormodellen wird hier zudem geschildert, wonach sich Multifaktormodelle einteilen lassen und welche Erkenntnisse zur Faktoranzahl vorliegen. Der anschließende Abschnitt stellt Scoring-Modelle als Alternative für die Aggregation mehrerer Faktoren vor. Hierbei wird zunächst auf den theoretischen Hintergrund (Nutzwertanalyse) eingegangen. Anschließend werden die aus der Literatur ermittelten Scoring-Modelle für Aktienprognosen erläutert.

2.3.1 Multifaktormodelle zur Erklärung von Aktienrenditen

Multifaktormodelle haben als Ziel durch Aggregation von einer bestimmten Anzahl an Risiko- faktoren, Aktienrenditen zu erklären.41 Als Theorie liegt ihnen die APT42 zugrunde, die von Ross (1976) als eine kapitalmarkttheoretische Alternative zum CAPM entwickelt wurde.43 Während die CAPM für die Erklärung von Aktienrenditen einen einzelnen Faktor enthält, kann dagegen ein APT-Modell mehrere Risikofaktoren aufnehmen.44 Zudem ist beim CAPM der Risikofaktor als standardisierte Kovarianz bzw. als Beta des Marktportfolios spezifiziert. Dagegen sind die Faktoren im Grundmodell der APT weder näher bekannt noch in der An- zahl vorgegeben.45 Steiner / Bruns (1994) führen in diesem Zusammenhang aus, dass die APT lediglich eine Bewertungsstruktur vorgibt und die Identifizierung der relevanten ökono- mischen Variablen den Modellanwender überlässt.46 Ingersoll (1984) weist auf die Gefahr hin, dass dabei Faktoren zum Einsatz kommen könnten, die zwar starke empirische Zusam- menhänge zu Aktien aufweisen, denen es jedoch an einer ökonomischen Kausalität fehlt.47

Die ersten Untersuchungen zur Faktorbestimmung basierten auf rein statistischen Verfahren. Als Ergebnis dieser Arbeiten ging die Schätzung der Faktorladungsmatrix hervor. Der fehlende ökonomische Bezug der statistischen Faktorenanalyse stand nach Hamerle / Rösch (1998) häufig in der Kritik.48 Dieser statistische Ansatz hat seit Ende der 1980er Jahre an Bedeutung verloren.49 Im weiteren Zeitverlauf haben sich bestimmte Faktoren für die Aktienprognose herausgebildet, wonach sich die Multifaktormodelle einteilen lassen. Zudem liegen Erkenntnisse zur Faktoranzahl vor. Diese werden nachfolgend erläutert.

2.3.1.1 Multifaktormodelle nach Faktortypen

Mondello (2013) teilt Multifaktormodelle nach den verwendeten Faktortypen wie folgt ein50:

- Makroökonomische Faktormodelle

In diesen Modellen sind als Risikofaktoren makroökonomische Variablen vorzufinden. Den Einfluss auf Aktienrenditen begründet Mondello (2013) damit, dass die Faktoren die zukünftigen Cashflows der Unternehmen beeinflussen.51 Als Beispiele verweist Mondello (2013) auf die makroökonomischen 5-Faktormodelle von Chen et al. (1986) und Burmeister et al. (1994), die jeweils die Aktienrenditen von US-Aktien erklären.52 In den genannten Arbeiten werden makroökonomische Risikofaktoren verwendet, die neben einen empirischen Zusammenhang zu Aktienrenditen zudem ökonomisch plausibel begründet sind.53

- Fundamentale Faktormodelle

In fundamentalen Faktormodellen kommen Risikofaktoren zum Einsatz, die firmen- spezifische Eigenschaften oder Merkmale von Aktien beschreiben. Grundlegend dabei ist deren Einfluss auf Aktien.54 Als Beispiele lassen sich in diesem Zusammen- hang sämtliche Kapitalmarktanomalien anführen, die als Kennzahlenanomalien (Size- /Value-Effekt) oder Anomalien hinsichtlich der EFMH (Winner-Loser-/Momentum- Effekt) erwähnt wurden (vgl. Kap. 2.2). Die bekanntesten Modelle in diesem Zusam- menhang sind das Fama-French-Dreifaktorenmodell oder die Erweiterung davon das Carhart-Vierfaktorenmodell.55

2.3.1.2 Anzahl Faktoren in Multifaktormodellen

Es existieren Untersuchungen und Ansätze über die benötigte Anzahl an Risikofaktoren, um Aktienrenditen zu erklären.56 Ein Multifaktorenmodell stellt aus technischer Sicht ein statisti- sches Regressionsmodell dar, deshalb besteht bei der Verwendung von zu vielen Faktoren die Gefahr eines Overfittings.57 In so einem Fall ließe sich der Regressand nahezu exakt ab- bilden ohne dabei die wesentlichen strukturellen Zusammenhänge zu erfassen. Diese Mo- delle erweisen sich zwar im Testzeitraum für vorteilhaft, jedoch weicht ihre Prognoseleistung unter anderen Bedingungen oft davon ab. Daher empfehlen Poddig et al. (2008) eher wenige Faktoren zu verwenden, dafür aber mit starken Zusammenhängen zu Aktien.58 Den Untersu- chungen von Roll / Ross (1980) zufolge haben sich für Multifaktormodelle 3 bis 4 Faktoren als angemessen erwiesen.59 Fama / French (1993) sehen eine Verbesserung bei der Erhö- hung der Anzahl von 2 auf 5 Faktoren.60 Dies bestätigen auch Connor / Korajczyk (1988) und Lehmann / Modest (1988). Die weitere Hinzunahme von Faktoren soll zu keiner nachhaltigen Verbesserung führen.61 Insofern scheinen Multifaktormodelle mit 3 bis 5 Faktoren zu genü- gen, um Aktienrenditen hinreichend zu erklären.

2.3.2 Scoring-Modelle als alternativer Aggregationsansatz

Der erste Abschnitt behandelt die Theorie hinter Scoring-Modellen. Anschließend erfolgt eine nähere Betrachtung der aus der Literatur ermittelten Scoring-Modelle für Aktienprognosen.

2.3.2.1 Nutzwertanalyse nach Zangemeister

Das Scoring-Modell (alternativ auch Scoring-Konzept) ordnet sich in den Bereich der Ent- scheidungstheorie und im engeren Sinne bei den Entscheidungsmodellen mit mehrfacher Zielsetzung ein. Dem Scoring-Modell liegt als Theorie die Nutzwertanalyse von Zange- meister zugrunde. Nach Zangemeister (1976) dient die Nutzwertanalyse dazu, um aus einer Menge an Alternativen diejenige zu ermitteln, deren Zielkombination einen maximalen Ge- samtnutzen verspricht.62 Die Auswahl der optimalen Alternative erfolgt oft aus der einfachen Rangreihung sämtlicher Alternativen nach dem Score-Wert.63 Das Modell kann außerdem eine beliebige Menge an Zielgrößen mit unterschiedlichen Skalen aufnehmen.64 Zudem lassen sich die Zielgrößen unterschiedlich gewichten. Allerdings wirken sich die Zielgrößen nicht direkt in das Gesamtergebnis aus, sondern ausschließlich ihr jeweiliger Nutzenbeitrag, der sich als Ergebnis einer Teilnutzenfunktion ergibt.65

Gemäß den Lösungsannahmen von Zangemeister (1976) sollte das Zielsystem bestehend aus den Teilzielen hinsichtlich der zu berücksichtigenden Gesichtspunkte vollständig (situati- onsgerecht) und dabei voneinander (weitestgehend) nutzenunabhängig (modellgerecht) sein.66 Diese Anforderungen resultieren daraus, da Zangemeister (1976) die Zielsystembil- dung für wichtiger hält als die Auswahl der richtigen Alternative. Denn „… wählt man falsche Ziele, dann löst man eine irrelevante Problemstellung; wählt man dagegen ein falsches Sys- tem (auf Basis richtiger Ziele) so wählt man letztlich nur ein nicht optimales System. “67 Das Motiv für die Durchführung einer Nutzwertanalyse erläutert Zangemeister (1976) damit, dass durch eine systematische und rationale Vorgehensweise eine mögliche Irrationalität im Ent- scheidungsprozess weitestgehend vermieden und damit möglichst eine objektive Entschei- dung herbeigeführt werden soll.68

Die praktische Umsetzung der Nutzwertanalyse erweist sich nach Bartmann / Pope (1979) für schwierig, insbesondere die Quantifizierung des Nutzens einer Zielgröße, die Verwen- dung nutzenunabhängiger Zielgrößen und die Definition der Gewichtungsgrößen. Die erst- genannte Schwierigkeit besteht, wenn die Ausprägungen der Teilziele von unterschiedlichen Entscheidungsträgern festgelegt werden oder wenn verschiedenartige Teilziele vorliegen. Diese Problematik lässt sich zwar nicht gänzlich ausschließen, jedoch lässt sie sich weitest- gehend durch Abtimmungen und Verwendung von einheitlichen Bewertungsmaßstäben reduzieren. Die zweite Schwierigkeit besteht in der Nutzenunabhängigkeit der Teilziele.69 Dies liegt dann vor, wenn ein Zielertrag bereits für sich allein und nicht erst in Verbindung mit anderen Zielerträgen einen Beitrag zum Gesamtnutzen liefert. Zangemeister (1976) stellt da- zu fest, dass diese Forderung an sich eine irrationale Hypothese darstellt, denn damit eine Alternative überhaupt Nutzwerte aufweisen kann sind in irgendeiner Form Zielerträge erfor- derlich. Daher folgert Zangemeister (1976), dass eine vollständige Nutzenunabhängigkeit oftmals nicht erreichbar ist.70 Dieses Kriterium ist insbesondere bei der Zielsystembildung von Bedeutung. Die dritte Schwierigkeit besteht in der Festlegung der Teilzielgewichte, dass auch als Risikoneigung des Entscheidungsträgers aufgefasst werden kann. Durch Gewich- tungen werden einzelne Teilziele hervorgehoben, die das Ergebnis entsprechend stärker beeinflussen. In seiner einfachsten Form enthält das Scoring-Modell keine Gewichtungsgrößen und ist mit einer risikoneutralen Haltung des Entscheidungsträgers gleichzusetzen.71

2.3.2.2 Literaturüberblick zu Scoring-Modellen

Die aus der Literatur ermittelten Scoring-Modelle für die Aktienprognose sind in Tab. 1 aufgeführt und werden nachfolgend erläutert:

Tab. 1: Literaturüberblick zu Scoring-Modellen für die Aktienprognose

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Darstellung

In der Literatur sind insgesamt sieben Scoring-Modelle für Prognosezwecke festzustellen, die aus wissenschaftlichen und populärwissenschaftlichen Quellen zwischen 1968 und 2010 hervorgehen.72 Die Modelle umfassen dabei zwischen 4 bis 13 Faktoren. Der überwiegende Anteil von ihnen aggregiert unternehmensspezifische Daten für die Bewertung der funda- mentalen Attraktivität von Aktien. Das Modell von Levermann enthält außerdem Faktoren wie Aktienmomentum, Revision73 und Reversal74. Ein Modell ohne fundamentale Faktoren ist der Gebert-Indikator, bei dem makroökonomische Variablen und die monatliche Saisonalität aggregiert sind. Weitere Modelle die nicht direkt die fundamentale Qualität bewerten, sind die von Altman75 und Ohlson76. Sie messen jeweils die finanzielle Stabilität eines Unternehmens mit dem Ziel ein mögliches Insolvenzrisiko abzuschätzen. In diesen Modellen sind zudem die Faktoren gewichtet. Dichev (1998) stellte fest, dass die Modelle von Altman und Ohlson eine negative Abhängigkeit zu Aktienrenditen aufweisen.77

Die erste bekannte Anwendung von binären Informationssignalen in einem Scoring-Modell, geht auf Lev / Thiagarajan (1993) zurück.78 In diesem Zusammenhang tauchen die Begriffe Information und Signal erstmalig auf.79 Die Gründer des sog. aggregierten Fundamental- Scores untersuchten für einen Zeitraum zwischen 1984 bis 1990 aus diversen Finanzquellen verschiedene fundamentale Informationen und identifizierten daraus zwölf Faktoren. Für je- des der Faktoren stellten sie Bedingungen auf, aus deren Erfüllung binäre Informations- signale erzeugt wurden. Diese aggregierten sie in einem einfachen Scoring-Modell (ohne Gewichtungen) und errechneten Score-Werte für jede Aktie. Da die Informationssignale auf negativen Bedingungen basierten, stand ein hoher Score-Wert für eine geringere fundamen- tale Attraktivität einer Aktie als ein niedriger.80 Dem Ansatz binärer Informationssignale zur Bewertung der fundamentalen Aktienqualität folgten auch Piotroski mit dem F-Score und Mohanram mit dem G-Score.

Piotroski ermittelte zunächst aus statistischen Untersuchungen neun fundamentale Faktoren, die er dann in binäre Informationssignale transformierte und im Scoring-Modell zum F-Score aggregierte. Anders als beim Modell von Lev und Thiagarajan resultierten die Informations- signale aus der positiven Erfüllung der definierten Bedingungen. Piotroski berechnete damit für jede Aktie den F-Score und verteilte anschließend die Aktienrenditen ab einem Score- Wert von 8 Punkten in einen Long- und bis zu 2 Punkten in einen Short-Portfolio. Der Erfolg dieser Strategie ist mit einer Rendite von 23 Prozent angegeben.81 Mohanram entwickelte analog zur Vorgehensweise von Piotroski ein ähnliches Scoring-Modell aus acht Faktoren. Zacks (2011) spricht hierbei von einem komplementären Ansatz zu Piotroski´s F-Score, da Mohanram Growth-typische Faktoren in seinem Modell berücksichtigt und Piotroski hingegen Value basierte.82 Zum Erfolg des Mohanram-Scores ist lediglich angegeben, dass signifikante Überrenditen erzielt wurden.83

Ein weiteres Scoring-Modell auf Grundlage von binären Informationssignalen ist der Gebert- Indikator. Im Gegensatz zu den genannten Scoring-Modellen gibt der Score-Wert hierbei die Investmentattraktivität für den DAX an. Zur Identifizierung der Modellfaktoren untersuchte Gebert im Zeitraum von 1961 bis 1993 verschiedene Daten aus den Bereichen Saisonalität, Wirtschaft, Sentiment und der technischen Analyse hinsichtlich der empirischen und theore- tischen Wirkung auf Aktien. Im Ergebnis wurden vier Faktoren mit eindeutigen Zusammen- hängen gefunden.84 Diese bestehen aus den drei makroökonomischen Faktoren Zinsen, Inflation und Wechselkurs USD / EUR und einem Faktor für die monatliche Saisonalität. Der Score-Wert des Gebert-Indikators berechnet sich monatlich und gibt an, ob in den DAX (ab 3 Punkten) oder alternativ auf ein Tagesgeldkonto (bis 2 Punkten) zu investieren ist. Es liegen lediglich für die verwendeten Faktoren wissenschaftliche Untersuchungen vor85, allerdings sind keine für den Gebert-Indikator bekannt.86

Das letzte zu untersuchende Scoring-Modell für Aktienprognosen wurde von Susan Lever- mann entwickelt und basiert ebenfalls auf Informationssignalen. Der Levermann-Score aggregiert 13 Faktoren vorwiegend fundamentalen Ursprungs, um daraus attraktive Aktien für Investitionen auszuwählen. Im Gegensatz zu den bisher aufgeführten Modellen vergibt Levermann für die Nichterfüllung der Bedingungen Minuspunkte. Damit liegen im Modell von Levermann nicht binäre sondern trinäre Informationssignale vor. Nach Levermann weisen Aktien mit mehr als 4 Punkten eine höhere Wahrscheinlichkeit auf, den Markt (DAX) zu über- treffen. Auch für Levermann´s Modell sind bislang keine wissenschaftlichen Untersuchungen bekannt. Levermann gibt aber an, dass die verwendeten Faktoren nach theoretischen und empirischen Gesichtspunkten ausgewählt seien.87

2.4 Grundlagen zur Erzeugung von Informationssignalen

Aus den Ausführungen zu Scoring-Modellen (vgl. Kap. 2.3.2) ist festzustellen, dass Faktoren nicht direkt in einem Scoring-Modell eingesetzt werden, sondern ausschließlich ihr jeweiliger Nutzenbeitrag. Die Herausforderung besteht darin aus den Faktoren relevante Informationen zu ermitteln und diese auf ein einheitliches Niveau des Aggregationsgerüsts (Scoring-Modell) anzupassen. Dabei besteht die Problematik neben einer objektiven Bewertungsweise zudem in der Festlegung einer einheitlichen Skala. Das bereits kurz erläuterte Konzept der Informationssignale nach Lev und Thiagarajan (vgl. Kap. 2.3.2.2) bietet hierauf einen möglichen Lösungsansatz. Nachfolgend wird dieses Konzept untersucht, um weitere Hinweise hinsichtlich der Nutzentransformation zu erhalten. Dabei sind Verbindungen zur technischen Analyse festzustellen, insbesondere das einer der Nutzwertfunktionstypen einer Variante des technischen Momentum-Indikators entspricht. Daher behandelt der darauffolgende Abschnitt die technische Analyse als Grundlage des Momentum-Indikators.

2.4.1 Konzept der Informationssignale nach Lev und Thiagarajan

In der Literaturanalyse zu Scoring-Modellen (vgl. Kap. 2.3.2.2) wurde festgestellt, dass sich die meisten Modelle an das Konzept der Informationssignale von Lev und Thiagarajan orientieren. Beim Scoring-Modell von Lev und Thiagarajan werden binäre Informationssignale durch faktorabhängige Nutzenfunktionen erzeugt.88 Nach eingehender Analyse dieser Nutzenfunktionen sind drei verschiedene Funktionstypen festzustellen:

1. Subtraktion zweier verdichteter Größen (die jeweils aus einem oder mehreren Daten bestehen können). Das Signal leitet sich dabei aus dem Vorzeichen ab.89
2. Subtraktion zweier Größen aus einer Zeitreihe zu unterschiedlichen Zeitperioden. Das Signal leitet sich ebenfalls aus dem Vorzeichen ab.90
3. Beim Vorliegen bestimmter Sachverhalte (Wenn-Dann-Bedingung) wird in Abhängig- keit davon, ein positives oder negatives Signal erzeugt.91

Die Nutzenfunktionen einiger Scoring-Modelle (vgl. Kap. 2.3.2.2) lassen sich zudem weitest- gehend nach diesen Funktionstypen einordnen.92 Der erste und dritte Funktionstyp lässt sich individuell gestalten und kann damit beliebige Aspekte aus einem Faktor ermitteln. Der zwei- te Funktionstyp stellt aufgrund seiner Struktur im Grunde einen technischen Trend dar. Diese Methode entspricht einer Berechnungsvariante des Momentum-Indikators93 aus der tech- nischen Analyse. Die Verbindung zur technischen Analyse liegt nicht nur an dieser Stelle vor, sondern ist auch in der Grundidee der Informationssignale vorzufinden. Ähnlich wie bei den Informationssignalen werden auch bei der technischen Analyse aus Indikatoren und Trade Rules entsprechende Handelssignale erzeugt, um daraus Kauf- oder Verkaufsentscheidungen abzuleiten.94 Trotz dieser Parallelen wird die technische Analyse nicht in den untersuchten Scoring-Modellen explizit genannt.

2.4.2 Technische Analyse als Grundlage des Momentum-Indikators

Lo et al. (2000) definieren die technische Analyse wie folgt: „ The general goal of technical analysis is to identify regularities in the time series of prices by extracting nonlinear patterns from noisy data. “95 Der technischen Analyse liegen die folgenden Annahmen von Charles Dow zugrunde96:

- Die Kurse beinhalten sämtliche Marktinformationen
- Die Kurse entwickeln sich in Trends
- Über- oder Unterbewertete Marktphasen wiederholen sich

Demnach scheint es für die Prognose von Marktentwicklungen auszureichen, lediglich die historischen Aktienkurse zu untersuchen und daraus Trends zu identifizieren sowie dabei anzunehmen, dass sie sich in der Zukunft fortsetzen werden. Der technischen Analyse wer- den zudem ihre Anpassungsfähigkeit an jeden Handelsgegenstand und jede Zeitdimension als Stärke zugesprochen.97 Beispielsweise lässt sie sich auf den Terminhandel, Indizes oder auf verschiedene Anlageformen wie Aktien, Fonds, Renten, Optionsscheine anwenden.98

Als Instrumente nutzt die technische Analyse Indikatoren um Markttrends zu identifizieren.99 Die Indikatoren lassen sich auf Kurszeitreihen anwenden, um daraus Erkenntnisse über den zyklischen Zustand zu erhalten.100 Des Weiteren sind die technischen Indikatoren zeitreihen- analytisch als Filter zu betrachten.101 Filter transformieren eine Zeitreihe gemäß einer Vorschrift. Dabei wird versucht, Rückschlüsse auf die weitere Entwicklung der Originalreihe aus der Interpretation der gefilterten Reihe zu ziehen.102 Die gefilterte Reihe enthält zunächst keine neuen Informationen, da sie lediglich eine andere Form der Originalzeitreihe darstellt. Um aus dem Output des Filters eine Information zu erhalten, ist dieser nach den Indikator- regeln zu interpretieren, dass sich dann als Handelsregel ausdrückt.103 Des Weiteren lassen sich technische Indikatoren in Trendfolgeindikatoren und Oszillatoren einteilen. Mithilfe von Trendfolgeindikatoren wird versucht Auf- und Abwärtstrends in Märkten zu identifizieren. Da- gegen weisen Oszillatoren in Märkten ohne eine bestimmte Trendrichtung (Seitwärtsphasen) auf Über- oder Untertreibungen der Kursentwicklungen hin.104 Als einer der bekanntesten In- dikatoren wird der Momentum-Indikator genannt, der unter seinen Anwendern auch als „ die Mutter [der] Oszillatoren105 bezeichnet wird. Der Grund für seine Beliebtheit soll nach Hof- man (2014) in seiner einfachen Anwendbarkeit und seinem Ruf als vorauslaufender Indikator liegen.106 Le Beau / Lucas (1992) definieren das Momentum als akkurate Maßzahl für die Geschwindigkeit einer Marktbewegung.107

Die Wissenschaft betrachtet die technische Analyse kritisch, da es nach Auffassung von Malkiel (2007) nicht nachzuweisen ist, ob die Anwendung zu dauerhaften Überrenditen führt. Insbesondere ist als Kritik die angebliche Willkür und Unbestimmtheit von vielen Chartregeln genannt.108 Für die Fälle bei der die technische Analyse dennoch funktioniert, erklären Stei- ner et al. (2012), dass durch die Vielzahl der Anwender der technischen Analyse, zu einer sich selbst erfüllenden Prophezeiung kommt.109 Zudem setzen viele Handelssysteme bei der Erzeugung von Handelsregeln und Signalen auf die technische Analyse.110 Dies könnte den Prophezeiungs-Effekt zusätzlich stützen. Eine Wendung in der akademischen Akzeptanz der technischen Analyse brachte die Entdeckung des Momentum-Effekts.111

2.5 Kritische Betrachtung der theoretischen Aspekte

In diesem Kapitel werden die erläuterten theoretischen Aspekte kritisch betrachtet. Dazu zählen die Effizienzmarkthypothese, die Kapitalmarktanomalien, die Multifaktormodelle, die Scoring-Modelle und die Informationssignale. Die sich hieraus ergebenden Erkenntnisse dienen als theoretische Fundierung für den empirischen Ansatz der Untersuchung.

2.5.1 Effizienzmarkthypothese

Eine wesentliche Kritik zur EFMH geht von Fama (1991) selbst aus und bezieht sich auf die Problematik der Verbundhypothese (joint-hypothesis) bei empirischen Tests. Die Überprü- fung der EFMH erfordert eine Benchmark, demgegenüber die erzielten Renditen sowie deren Prognostizierbarkeit getestet werden. Eine Ablehnung der Nullhypothese kann entwe- der bedeuten, dass der getestete Markt tatsächlich eine Ineffizienz aufweist oder die Ver- gleichsgrundlage (Benchmark) falsch ist.112 Daher erkennt Fama (1991) das Vorliegen einer Überrendite nicht als ausreichenden Gegenbeweis an.113 Eine weitere Kritik zur EFMH geht auf Grossmann / Stiglitz (1980) zurück, die positive Überrenditen als notwendige Vorausset- zung für eine Markteffizienz ansehen.114 Nach den Autoren soll die Informationsverarbeitung Kosten verursachen und die positiven Überrenditen den Investoren eine Entschädigung da- für sein, relevante Informationen zu sammeln, aufzubereiten und zu nutzen. Als Folge davon sollen sich die bewertungsrelevanten Informationen in den Marktpreisen solange auswirken, bis sich eine Markteffizienz einstellt. Ohne positive Überrenditen wäre demnach kein Anreiz vorhanden und damit keine Markteffizienz möglich.115

Es ist festzustellen, dass entgegen den Kritiken, die EFMH mit ihren eher weniger realisti- schen Annahmen116 nach wie vor grundlegend für Aktienprognosen ist. Zum einen leitet sich diese Erkenntnis aus den in der Praxis geläufigen Methoden für die Performancemessung ab. Beispielsweise stützen sich typische Performance-Maße wie das Jensen-Alpha oder das Sharpe-Maß, ausgehend vom CAPM, auf Annahmen der EFMH.117 Zum anderen scheinen viele Widerlegungsversuche der EFMH auch daran zu scheitern, da die verwendete Bench- mark angezweifelt werden kann.

2.5.2 Kapitalmarktanomalien

Kapitalmarktanomalien sind nicht konform zur EFMH.118 Insbesondere lassen sich Kennzah- lenanomalien nicht durch kapitalmarkttheoretische Modelle wie das CAPM erklären.119 Die Verwendung der CAPM lehnen zudem Fama / French (1996) für die Erklärung von Kennzah- lenanomalien ab.120 Nach ihren Analysen zufolge lassen sich Aktienrenditen mit Anomalie- variablen besser erklären. Daher entwickelten die Autoren ein Multifaktormodell auf Basis der APT, in dem sie das Beta aus dem CAPM um die Anomalievariablen Size und Value ergänzten.121 In einer empirischen Studie zeigten Davis et al. (2000), dass sich mit dem FamaFrench-Dreifaktorenmodell die Aktienrenditen besser erklären lassen.122 Allerdings konnte damit der Momentum-Effekt nicht behoben werden. Carhart (1997) ergänzte daher das Dreifaktorenmodell um den Momentum-Faktor und stellte damit das Carhart-Vierfaktorenmodell auf.123 Obwohl das Dreifaktorenmodell zwar auf der kapitalmarkttheoretischen APT gründet, kritisiert Schnelle (2009), dass es den Risikofaktoren Size und Value an theoretischer Fundierung fehlt. Das Dreifaktorenmodell stellt somit einen nicht normativen Ansatz dar, der lediglich auf empirischen Feststellungen beruht.124

Als ein möglicher Erklärungsansatz für Kapitalmarktanomalien ist die Behavioral Finance ge- nannt (vgl. Kap. 2.2). Dieser Ansatz geht davon aus, dass die einzelnen Marktteilnehmer aufgrund ihrer psychischen, mentalen und neuronalen Beschränkungen nicht immer rational entscheiden.125 Die Preisbildungsprozesse an den Märkten unterliegen diesen Einflüssen.126 Zacks (2011) hält daher Kapitalmarktanomalien im Zeitverlauf für beständig.127 Die Bestän- digkeit liegt allerdings nicht bei jeder Anomalie vor. Denn nach Hößl (2009) sollen sich beispielsweise der Size- oder Value-Effekt seit deren Bekanntmachung deutlich abge- schwächt haben.128 Dies stützt wiederum die EFMH und insbesondere die Kritik von Grossmann / Stiglitz (1980), wonach die Marktteilnehmer eine verfügbar gemachte Informa- tion solange systematisch ausnutzen bis sich die Anomalie im Zeitverlauf abschwächt oder sogar verschwindet. Nach Roßbach (2001) soll eine Abschwächung auch bei der Kalender- zeitanomalie vorliegen, das als Januar-Effekt bekannt ist.129 Dagegen zeigt De Bondt (2005) in einer Untersuchung, dass der Januar-Effekt noch in über 23 Ländern intakt ist.130 Bei der Erklärung des Januar-Effekts verweist der Autor auf Wachtel (1942). Demnach soll die Ursa- che in den positiven Stimmungen der Marktteilnehmer zu den weihnachtlichen Feiertagen liegen. Zu diesem ergänzt sich die positive Erwartungshaltung gegenüber dem neuen Jahr.131 De Bondt (2005) postuliert, dass die Wiederholung des Januar-Effekts davon ab- hängt, solange jedes Jahr zum Ende hin die positiven Stimmungen aufkommen.132

Märkte mit einer Kalenderzeitanomalie wie dem Januar-Effekt, stellen einen Widerspruch zur schwachen Form der EFMH dar. Zu dieser Form lässt sich auch ein Markt beim Vorliegen eines Momentum-Effekts zuordnen. Nach Roßbach (2001) resultiert der Momentum-Effekt aus einer Verhaltensanomalie der Marktteilnehmer, die in aufsteigenden Marktphasen die Risiken zunehmend unterschätzen und in ihren Anlageerfolgen glauben einen Beweis für die Beherrschbarkeit des Marktes zu sehen. Die optimistische Haltung besteht auch bei schlech- ten Nachrichten weiterhin und führt schließlich dazu, dass der Markt aufgrund von Über- bewertungen konsolidiert.133 Die Ursachen für den Momentum-Effekt liegen demzufolge in den über- und untertreibenden Verhaltensweisen der Marktteilnehmer gegenüber vergan- genen Kursentwicklungen.

Aus den Ausführungen ist festzustellen, dass sich mit der Behavioral Finance die Kapital- marktanomalien theoretisch erklären lassen. Allerdings können Lern- und Anpassungseffekte dazu führen, dass sich im Zeitverlauf die Anomalien abschwächen oder sogar verschwinden. Somit besteht ein grundsätzliches Risiko für ihr Fortbestehen. Die Frage nach einer gewinn- bringenden Ausnutzung ist nicht nur deshalb kritisch zu sehen, sondern auch aufgrund der Existenz von Transaktionskosten.134 Diese werden oftmals in den empirischen Studien ver- nachlässigt. Im praktischen Einsatz ist dagegen jede Transaktion mit Kosten verbunden, dass einen möglichen Gewinn schmälert.135 Des Weiteren ist die Verwendung von Anomalie- variablen als Risikofaktoren in Multifaktormodellen als kritisch zu sehen, denn die Funktions- weise dieser Modelle hängt von der Existenz bestimmter Anomalien ab. Die Behavioral Finance kann zwar als theoretisches Erklärungsmodell agieren, jedoch haben die Faktoren nicht ihren Ursprung aus dieser Theorie. Wenn die Behavioral Finance nicht als Erklärung, sondern als Ursache für Kapitalmarktanomalien aufgefasst wird, rücken damit die Stimmun- gen der Marktteilnehmer in den Vordergrund und damit die Frage, wie sich diese messen lassen. Einen möglichen Ansatz dafür stellt die Sentimentanalyse dar.136

2.5.3 Multifaktormodelle

Die wesentlichen Kritikpunkte zu Multifaktormodellen auf Grundlage der APT ergeben sich aus den fehlenden Vorgaben hinsichtlich der Faktorspezifikation und Faktoranzahl.137 Ein Multifaktormodell kann schließlich aus einer unbestimmten Anzahl an Risikofaktoren beste- hen. Um ein Overfitting von vornherein auszuschließen wäre eine Beschränkung der Faktor- anzahl sinnvoll. Untersuchungen zufolge scheinen 3 bis 5 Risikofaktoren für die Erklärung von Aktienrenditen zu genügen. Dies hängt allerdings von den eingesetzten Risikofaktoren ab. Es haben sich mittlerweile fundamentale und makroökonomische Faktormodelle heraus- gebildet. Eine statistische Ermittlung der Faktoren wird abgelehnt und der Einsatz von Faktoren gefordert, die neben den empirischen Zusammenhängen zudem einen theoreti- schen Hintergrund aufweisen oder zumindest sich rational oder ökonomisch plausibel interpretieren lassen.138 Dadurch soll ein Data Mining und damit das Auffinden von willkür- lichen empirischen Zusammenhängen vermieden werden.139 Bei den fundamentalen Faktoren handelt es sich vorwiegend um Anomalievariablen zur Ausnutzung von Kennzah- lenanomalien. Demgegenüber stellen sich makroökonomische Variablen lediglich als Erklä- rungsvariablen dar. Aus den angeführten Beispielen zu fundamentalen und makroökono- mischen Faktormodellen (vgl. Kap. 2.3.1.1) ist festzustellen, dass mehr makroökonomische Variablen (5) erforderlich sind als Fundamentale (3 bis 4). In einer Untersuchung fanden Chen et al. (1986) heraus, dass die Aussagekraft makroökonomischer Variablen nicht die- selbe empirische Güte erreicht wie fundamentale Faktoren.140 Daher ist es plausibel anzu- nehmen, dass mehr makroökonomische als fundamentale Risikofaktoren erforderlich sind. Abschließend ist zu nennen, dass fundamentale Faktormodelle und damit Anomalievariablen aufgrund der Forschung nach Kapitalmarktanomalien ausgiebiger untersucht sind als mak- roökonomische Faktormodelle.

2.5.4 Scoring-Modelle

Scoring-Modelle eignen sich für Entscheidungsprobleme mit mehrfacher Zielsetzung und weisen keinen kapitalmarkttheoretischen Hintergrund auf. Bei Multifaktormodellen ist dieser Hintergrund durch die APT gegeben. Die Feststellung von Steiner et al. (1994), das die APT lediglich eine Bewertungsstruktur vorgibt und die Faktorfindung dem Modellentwickler über- lässt, liegt auch bei Scoring-Modellen vor.141 Damit stehen Multifaktormodelle und Scoring- Modelle in dieser Hinsicht denselben Problemen gegenüber. Außerdem ergänzen sich zu Scoring-Modellen weitere kritische Aspekte, wie die Modellanforderungen von Zangemeister, die Quantifizierung der Nutzenbeiträge aus den Risikofaktoren und die Festlegung der Ge- wichtungsgrößen (vgl. Kap. 2.3.2.1). Ferner ist ein ermittelter Gesamtnutzen noch zu inter- pretieren, um daraus eine Handlung abzuleiten. Es besteht somit bei einer falschen Aus- legung dieser Bewertungsaspekte die Gefahr, dass eine irrelevante Problemstellung gelöst wird, obwohl richtige Risikofaktoren vorliegen.142 Bei Multifaktormodellen liegen hingegen nicht solche Bewertungsprobleme vor und zudem existieren statistische Methoden für die Faktoridentifizierung oder Vermeidung von ähnlichen Faktoren.143 Es ist hierbei fraglich, ob sich diese Ansätze auch auf Faktoren von Scoring-Modellen übertragen lassen, da die trans- formierten Nutzenbeiträge von deren Originalzeitreihen erheblich abweichen können. Offen ist zudem auch die Frage, ob auch bei Scoring-Modellen bei der Verwendung von zu vielen Faktoren die Gefahr eines Overfittings besteht (vgl. Kap. 2.5.3). Des Weiteren ist aus den Ausführungen zu beiden Modellvarianten zu entnehmen, dass für Aktienprognosen in Multi- faktormodellen bis zu fünf (vgl. Kap. 2.3.1.2) und in Scoring-Modellen bis zu 13 Faktoren (vgl. Kap. 2.3.2.2) eingesetzt wurden. Insofern sollte das Overfitting-Risiko bei Scoring- Modellen geringer sein. Allerdings ist eine genaue Aussage hinsichtlich der Faktoranzahl in Scoring-Modellen kaum möglich, da die Prognoseleistung zudem maßgeblich noch von den ausgewählten Bewertungsaspekten beeinflusst wird.

Des Weiteren zeigt sich im Literaturüberblick zu Scoring-Modellen (vgl. Kap. 2.3.2.2), dass eine starke Orientierung nach fundamentalen Faktoren vorliegt. Die einzige gefundene Alter- native dazu stellt der Gebert-Indikator mit makroökonomischen Variablen dar. Hinsichtlich der Faktorgewichtungen liegen bei sämtlichen Modellen auf Basis von Informationssignalen keine Gewichtungsgrößen vor. Eine Gewichtung hätte zur Folge, dass gewichtete Faktoren einen entsprechend größeren Einfluss auf den Gesamtnutzen erhielten. Insofern wäre dann zu hinterfragen, ob die weniger gewichteten Faktoren noch relevant sind. Bei einer Gleich- gewichtung erhalten die aggregierten Faktoren dieselbe Wirkung auf den Gesamtnutzen.

Die Alternativenauswahl erfolgt in der Regel nach einer einfachen Rangreihung der berech- neten Score-Werte.144 Dies stellt lediglich eine mögliche Verwendungsweise des Score- Wertes dar. Eine weitere Verwendungsart ist in den Modellen von Levermann und Gebert vorzufinden. Aus dem Score-Wert werden dabei mithilfe von Intervallklassen verschiedene Handlungsentscheidungen wie Kaufen, Verkaufen oder Halten abgeleitet (vgl. Kap. 2.3.2.2). An dieser Stelle stellt sich zudem die Frage, wie diese exakt angegebenen Intervallklassen zustande kommen. Ein möglicher Ansatz beim Auffinden der Intervallklassen wäre die Brut- Force-Methode, bei der sämtliche Kombinationen durchlaufen werden, um eine optimale Konstellation zu ermitteln.145 Beim Gebert-Indikator zeigen die Intervallklassen Verkaufen (0 bis 1 Punkt), Halten (2 Punkte) und Kaufen (3 bis 4 Punkte) zudem einen nahezu linearen Verlauf an. In diesem Zusammenhang stellt sich die Frage, zu welchen Ergebnissen die Verwendung des Score-Wertes als Gewichtungsfaktor führen könnte. Ein Gewichtungsfaktor könnte beispielsweise beim Gebert-Indikator über das Verhältnis des einzusetzenden Kapi- tals für Investitionen in den DAX und auf das Tagesgeldkonto ‚weicher‘ entscheiden als bei den exakten Handlungsentscheidungen. Diese Verwendungsart des Score-Wertes scheint zudem bislang kaum untersucht worden zu sein.

Abschließend ist festzuhalten, dass Scoring-Modelle für Aktienprognosen trotz der scheinbar einfachen Modellstruktur komplexer sind als Multifaktormodelle, insbesondere aufgrund der frei definierbaren Aspekte. Gelingt es diese Bewertungsaspekte hinsichtlich eines ‚richtigen‘ Ziels objektiv und einheitlich zusammenzuführen sowie aus den relevanten Faktoren den Nutzen abzuleiten, könnte sich das vorteilhaft auf die Prognoseleistung auswirken.

2.5.5 Informationssignale

Informationssignale nach Lev und Thiagarajan stellen eine Lösungsalternative für die ge- schilderte Bewertungsproblematik (vgl. Kap. 2.4) dar. Die Grundidee ist bei diesem Konzept, dass sich der Nutzen aus den Faktoren in Form von binären Informationssignalen erzeugt. Als kritisch ist dabei die Reduzierung der verarbeiteten Daten auf lediglich zwei Zustände zu sehen. Alternativ werden im Modell von Levermann drei Signalzustände verarbeitet. Wäh- rend sich binäre Signale aus mindestens einer einfachen Wenn-Dann-Bedingung ableiten lassen (vgl. Kap. 2.4.1), erfordern mehr als zwei Signalzustände entsprechend mehr Bedin- gungen und Vergleichswerte. Im Levermann-Modell prüft beispielsweise eine Nutzenfunktion einen Wert gegenüber einem Wertebereich und erzeugt daraus die Signalzustände, wenn der Wert entweder innerhalb (0), oberhalb (1) oder unterhalb (-1) des Wertebereichs liegt.146 In diesem Zusammenhang stellt sich die Frage, ob negative Signalzustände zu einer Verzer- rung des Gesamtnutzens führen. Schließlich stellt ein negativer Signalzustand einen negativen Nutzen dar. Im Extremfall ist zudem ein negativer Gesamtnutzen möglich. Hin- sichtlich der Signalzustände kann insofern festgehalten werden, dass ab zwei Zuständen die Bewertungsprobleme entsprechend zunehmen.

Eine weitere Kritik zu Informationssignalen ergibt sich aus der Exaktheit des binären Signals. Beispielsweise wendet der Gebert-Indikator das technische Momentum auf makroökonomi- sche Variablen an, um daraus den jeweiligen Markttrend zu ermitteln. Dabei wird ausschließ- lich das Vorzeichen genutzt, um ein binäres Signal zu erzeugen. Nach LeBau / Lucas (1992) handelt es sich beim Momentum um die die Geschwindigkeit einer Marktbewegung.147 Der Rückgabewert gibt neben der Richtung (Vorzeichen) auch die Intensität einer Marktbewe- gung (Betrag) an. Die Intensität der Marktbewegung geht bei der Formulierung der binären Informationssignale allerdings verloren.148 Auf der anderen Seite könnte gerade diese Abs- traktion der Grund dafür sein, warum exakte Informationssignale funktionieren und auch in anderen Modellen wie dem Gebert-Indikator, Piotroski´s F-Score, Mohanram´s G-Score oder in abgewandelter Weise im Levermann-Modell zu finden sind.

Abschließend ist festzuhalten, dass der Ansatz der binären Informationssignale nach Lev und Thiagarajan eine einfache Möglichkeit bietet, um auf eine objektive und strukturierte Weise relevante Informationensignale aus einer Finanzzeitreihe zu ermitteln.

3 Empirischer Ansatz der Untersuchung

Dieses Kapitel erläutert den empirischen Ansatz der Untersuchung149, angesichts der Zielsetzung dieser Arbeit, ein Handelsmodell auf Grundlage eines Scoring-Modells mit aggregierten Informationssignalen zu entwickeln und die Performanceleistung gegenüber einer passiven Strategie zu untersuchen (vgl. Kap. 1.2). Im Folgenden erfolgt eine kurze Erläuterung der zu behandelnden Themen.

Das Kapitel beginnt mit der Darstellung des Datensamples der Untersuchung. Hier werden neben dem Beobachtungszeitraum, der Investitionsgegenstand der Untersuchung, die po- tenziellen Modellvariablen, die Benchmark und der risikolose Zinssatz erläutert. Als letztes geht der Abschnitt auf die Aufteilung des Datensamples in einen Trainings- und Testbereich ein. Den Erläuterungen zum Datensample schließt sich der Abschnitt zum Investitionsansatz des Handelsmodells an. Der Investitionsansatz verwendet den Score-Wert als Handelssignal und als Gewichtungsfaktor, um daraus Entscheidungsvariablen abzuleiten, die das Investiti- onsverhältnis zwischen deutschen Aktien und dem fiktiven Tagesgeldkonto angeben. Der darauffolgende Abschnitt schildert die Ermittlung der Renditen. Dazu gehören die Berech- nungen der Renditen aus Aktien und dem fiktiven Tagesgeldkonto, die darauf aufbauenden Investitionsrenditen und die Überschussrenditen. Zuletzt behandelt der Abschnitt den Ansatz der Portfoliobildung. Die Portfoliobildung dient einer differentiellen Auswertung der Ergebnis- se. Nach den Renditeberechnungen folgt der Abschnitt zur Erzeugung und Aggregation von Informationssignalen. Hier wird erläutert mit welchen Methoden die Informationssignale zu transformieren sind. Der darauffolgende Abschnitt behandelt schließlich die Konzeption des Scoring-Modells, in der die Informationssignale aggregiert werden. Die bisher aufgeführten Aspekte haben in Bezug auf die empirische Untersuchung eher einen Vorbereitungscharak- ter. Der anwendungsorientierte Teil liegt im Optimierungsansatz für das Handelsmodell. Dem Optimierungsansatz liegt die Annahme zugrunde, dass eine Optimierung im Trainingsbereich sich positiv auf die spätere (Testzeitraum) Prognoseleistung auswirkt. Als Optimal gilt in die- sem Zusammenhang die Konstellation mit der höchsten durchschnittlichen Überschuss- rendite. Der Abschnitt erläutert zunächst die Vorgehensweise, um aus den potenziellen Va- riablen optimale Informationssignale zu ermitteln. Durch diesen Optimierungsschritt sollen ausschließlich diejenigen Variablen in den weiteren Aggregationsprozess gelangen, die in der Einzelbetrachtung bereits einen Nutzen aufweisen. Der anschließende Abschnitt erläu- tert einen weiteren Optimierungsschritt. Dieser stellt sich als ein iteratives Verfahren dar, um aus sämtlichen Kombinationsmöglichkeiten der Variablen und Investitionsansätze eine ideale Konstellation zu ermitteln. Der letzte Kapitelabschnitt erläutert die Kennzahlen für die spätere Performance-Analyse. Dabei handelt es sich um das Sortino-Maß als Alternative zum Shar- pe-Maß und um das in der Praxis häufig eingesetzte Jensen-Alpha.

Der empirischen Untersuchung liegen zudem folgende Annahmen zugrunde:

- Die Transaktionen in Aktien oder auf das fiktive Tagesgeldkonto erfolgen vollstän- dig150 und ohne Kosten - eine ausreichende Marktliquidität wird somit vorausgesetzt

- Die Renditeberechnungen berücksichtigen keine Steuern oder sonstige Kosten151

3.1 Datensample der Untersuchung

Die Datenbasis stammt aus Thomas Reuters Financial Datastream (nachfolgend nur Datastream) und enthält monatliche Kapitalmarktdaten für den Beobachtungszeitraum von 1973 bis 2012. Dieser lange Zeitraum erhöht die Wahrscheinlichkeit für Robustheit und Sta- bilität der späteren Ergebnisse.152 Zudem vermeidet dieses Vorgehen weitestgehend ein Small Sample Bias. Bei einem Small Sample Bias besteht die Gefahr, dass falsche Rück- schlüsse auf die Grundgesamtheit entstehen.153 Dies liegt darin begründet, dass Aktien- märkte unterschiedliche Baisse- und Hausse-Phasen durchlaufen und ein kleiner Ausschnitt im Extremfall lediglich eine einzige Phase abbildet. Ein auf dieser Grundlage berechnetes Ergebnis kann daher nicht als repräsentativ für die gesamte Entwicklung angesehen werden. In den folgenden Abschnitten werden die benötigten Daten für die empirische Untersuchung eingehend erläutert. Die Abschließende Erläuterung erklärt zudem, wie der Datenbereich in zwei Datenabschnitte zu unterteilen ist, um bei der empirischen Auswertung die Prognose- leistungen in einem unbekannten Datenbereich beurteilen zu können.

3.1.1 Deutsche Aktien

Den zentralen Investitionsgegenstand für die empirische Untersuchung bilden deutsche Aktien. Es wurden monatliche Aktienschlusskurse und Aktienmengen von insgesamt 2.019 aktiven und inaktiven Unternehmen sämtlicher Branchen aus Datastream berücksichtigt. Die Einbeziehung inaktiver Unternehmen zielt dabei auf die Umgehung des Survivorship Bias ab. Ein Survivorship Bias liegt vor, wenn eine empirische Untersuchung ausschließlich diejeni- gen Unternehmen enthält, die am Ende einer Beobachtungsperiode noch Kursnotierungen aufweisen. Dadurch entfällt der Einfluss der Unternehmen ins Ergebnis, die im Zeitverlauf aus verschiedenen Gründen aus dem Listing der Börse ausscheiden mussten.154 Bei einem Survivorship Bias wäre zudem die Repräsentativität des Datenmaterials und des erzielten Ergebnisses fraglich.

Neben den Aktienschlusskursen werden Aktienmengen für die Berechnung der Marktkapitalisierung benötigt. Die Marktkapitalisierung bildet die Grundlage für die spätere Portfoliobildung (vgl. Kap. 3.3.3). Die Marktkapitalisierung berechnet sich wie folgt:

Marktkapitalisierung:

Abbildung in dieser Leseprobe nicht enthalten

Die Marktkapitalisierung einer Aktie j zum Zeitpunkt t berechnet sich aus dem Produkt der jeweiligen Aktienanzahl und dem Aktienschlusskurs2 . Dies setzt allerdings vo- raus, dass die jeweiligen Daten verfügbar sind. Andernfalls kann die Marktkapitalisierung nicht berechnet werden.

Nachfolgend ist der zeitliche Verlauf der Marktkapitalisierung und der Unternehmensanzahl im Beobachtungseitraum dargestellt (vgl. Abb. 1) und wird erläutert:

Abb. 1: Marktkapitalisierung und Unternehmensanzahl im Beobachtungszeitraum

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Darstellung

In der Abb. 1 zeigt der Verlauf der Marktkapitalisierung deutlich die Hausse- und Baisse- Phasen am deutschen Aktienmarkt an. Die größte Hausse ist auf die New Economy oder Dotcom-Bubble genannte Entwicklung zwischen 1995 und 2000 zurückzuführen. Dazu kam es als zahlreiche neue Internetunternehmen mit technologischen Innovationen und utopi- schen Gewinnaussichten auf den Markt kamen und damit immer mehr Anleger an die Börse lockten. Mit dem Platzen der Dotcom-Blase im Jahre 2000 kam es zu starken Abwertungen an den weltweiten Aktienmärkten, insbesondere auch am deutschen Aktienmarkt.155 Zudem stiegen Unternehmensinsolvenzen sowie Auslistungen der Unternehmen aus der Börse an. Der Tiefpunkt der langen Abwärtsbewegung bildete sich in 2003 in Zeiten des Irakkriegs. Erst nach Ende des Krieges erholte sich der Aktienmarkt bis zum Jahre 2008. Im selben Zeitraum stieg auch die Anzahl börsennotierter Unternehmen an. In 2008 kam es erneut zu einer weiteren Abwertung an den Aktienmärkten durch die internationale Finanzkrise. Als Auslöser werden das Platzen der Immobilienblase in den USA und die Lehman-Insolvenz genannt.156 In Wechselwirkung zur Realwirtschaft entwickelte sich die Finanzkrise zu einer weltweiten Wirtschaftskrise. Als Antwort auf die zunehmende Rezession reagierten die Re- gierungen und Zentralbanken mit Finanz- und Konjunkturpaketen.157 Seitdem haben sich die Finanzmärkte einigermaßen stabilisiert.

Das vorliegende Datenmaterial zu Aktien enthält 40 Jahre an monatlichen Daten zu sämtli- chen aktiven und inaktiven deutschen Unternehmen mit Börsennotierung. Zudem sind mehrere Baisse- und Hausse-Phasen vorhanden. Daher sollten ein Small Sample Bias und ein Survivorship Bias weitestgehend ausgeschlossen sein. Die Aktiendaten können somit als repräsentativ für die Entwicklung des deutschen Aktienmarktes betrachtet werden.

3.1.2 Potenzielle Modellvariablen

Die Auswahl der potenziellen Modellvariablen richtet sich nach den erlangten Erkenntnissen (vgl. Kap. 2.5). Es sind ausschließlich Variablen heranzuziehen die einen plausiblen Zu- sammenhang zu Aktien aufweisen. Der Suchbereich beschränkt sich zudem auf makroöko- nomische Variablen und auf Sentiment-Indikatoren. Diese Vorgehensweise begründet sich wie folgt:

1. Außer dem Gebert-Indikator sind keine weiteren Scoring-Modelle mit makroökonomi- schen Variablen für den deutschen Aktienmarkt bekannt (vgl. Kap. 2.5.4).
2. Ferner existieren bislang keine Scoring-Modelle mit Stimmungsindikatoren. In diesem Zusammenhang bietet sich die Sentimentanalyse, um daraus potenzielle Variablen für die Untersuchung abzuleiten (vgl. Kap. 2.5.2).

Es wurden elf Variablen aus Datastream ermittelt. Zu diesen wird wie beim Gebert-Indikator (vgl. Kap. 2.3.2.2) die Variable für die monatliche Saisonalität ergänzt. Schließlich stellt sich die Saisonalität als einen starken Faktor für die Aktienprognose dar (vgl. Kap. 2.5.2). Damit liegen insgesamt zwölf verschiedene Variablen aus den Bereichen Makroökonomie, Senti- mentanalyse und Saisonalität vor, die zudem theoretische und teilweise über empirische Zu- Zusammenhänge zu Aktien verfügen.158 Die Daten sind nachfolgend (vgl. Tab. 2) aufgeführt:

Tab. 2: Daten und Kennzeichnungen potenzieller Modellvariablen

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Darstellung

Einzelne Finanzzeitreihen weisen unterschiedliche Längen auf. Die Längste Finanzzeitreihe enthält 517 Monatsdaten und die kürzeste besteht aus 171 Monaten. Die Unterschiede hän- gen mit der zeitlichen Verfügbarkeit der jeweiligen Daten zusammen. Des Weiteren enthält Tab. 2 neben den Datastream-typischen Bezeichnungen und den Zeitangaben zudem die aus theoretischen und empirischen Recherchen ermittelten Zusammenhänge zu Aktien.159 Diese sind später mit den Zusammenhängen der erzeugten Informationssignale gegenüber- zustellen (vgl. Kap. 4.1.1). Ferner erhalten die Variablen für eine genaue Identifizierung in dieser Arbeit entsprechende Kennzeichnungen. Die zuletzt aufgeführte Variable [Saison] ba- siert zudem nicht auf einer Datastream-Zeitreihe und wird später erzeugt (vgl. Kap. 3.4.2).

3.1.3 Benchmark und risikoloser Zinssatz

Ein im aktiven Anlagemanagement geläufiger Ansatz ist die relative Leistungsmessung an- hand einer Vergleichsgröße (Benchmark). Als erfolgreich sind Leistungen von Portfolio- managern zu bezeichnen, wenn sie durch eine aktive Vorgehensweise Renditen oberhalb einer Benchmark erzielen.160 Im Rahmen dieser Arbeit ist eine Benchmark für die Perfor- mancebeurteilung erforderlich. Als Vergleichsgrößen bieten sich dafür deutsche Aktien- indizes an; aufgrund der Fokussierung auf den deutschen Aktienmarkt. Da bei den Rendite- berechnungen in den folgenden Kapiteln keine Dividenden berücksichtigt sind, kommen ausschließlich Kursindizes in Frage. Zudem erfordert es, dass der gesuchte Index viele deutsche Unternehmen branchenübergreifend umfasst. Diesen Anforderungen kommt ledig- lich der CDAX nach.161 Der CDAX misst als einziger Index die Entwicklung des gesamten deutschen Aktienmarktes.162 Dies zeigt sich auch am hohen Korrelationskoeffizienten von 0,81 zwischen Aktien des Datensamples und dem CDAX (vgl. Tab. 7). Die geringe Differenz für eine vollständige positive Korrelation resultiert aus den uneinheitlichen Schwankungen im Zeitverlauf der Unternehmensanzahl im Datensample und im CDAX.

Ferner ist Ein risikoloser Zinssatz mit einer einmonatigen Laufzeit für Berechnungen der Überschussrenditen und für den Investitionsansatz erforderlich. Die Laufzeit ist vorgegeben durch die Frequenz der vorliegenden Daten. Eine risikolose Verzinsung wird definiert als Prämie aus einer risikofreien Investition, das unabhängig von der Höhe des Anlagekapitals identisch ist.163 Üblicherweise werden Staatsanleihen für die Ermittlung des risikolosen Zins- satzes herangezogen.164 Jedoch enthalten Staatsanleihen grundsätzlich ein Laufzeitrisiko. Zudem ist es fraglich, ob für kurzzeitige Verzinsungen eine Staatsanleihe mit einer längeren Laufzeit zugrunde gelegt werden sollte.165 Aus den angeführten Problemen und aufgrund der Datenverfügbarkeit166 scheinen daher Geldmarktsätze eher geeignet zu sein.

In dieser Arbeit wird der Euro Basiszins als risikolose Zinsgröße herangezogen.167 Die korrespondierende Finanzzeitreihe aus Datastream weist jährliche Zinssätze auf und erfordert eine monatliche Umrechnung nach folgender Formel:

Monatliche Verzinsung:

Abbildung in dieser Leseprobe nicht enthalten

Der monatliche Zinssatz [Abbildung in dieser Leseprobe nicht enthalten] zum Zeitpunkt t berechnet sich aus der zwölften Wurzel des jeweiligen jährlichen Zinssatzes [Abbildung in dieser Leseprobe nicht enthalten] . Nachfolgend wird der monatliche Zinssatz symbolisch auch als [Abbildung in dieser Leseprobe nicht enthalten] ausgewiesen.

3.1.4 Aufteilung des Datensamples

Ein in der Literatur geläufiger Ansatz ist die Entwicklung und Anpassung eines Prognose- modells innerhalb eines bestimmten Datenbereichs (in-sample) und der Überprüfung der Prognoseleistung in einem unbekannten Abschnitt (out-of-sample) des Datensamples. Diese Datenabschnitte werden auch als Trainings- und Testbereiche bezeichnet. Die Vorgehens- weise zielt zudem auf die Vermeidung eines Curve Fittins ab. Ein Curve Fitting liegt vor, wenn ein nach historischen Daten optimiertes Prognosemodell, in einem anderen Zeitraum schlechtere Prognosewerte erzielt. Ein solches Modell ist für Prognosen kaum geeignet und gilt daher als nicht robust.168

Hinsichtlich der Bestimmung der Samplegrößen empfiehlt Pardo (1992), dass der Zeitraum des out-of-samples zwischen 10 bis 20 Prozent des in-samples betragen sollte.169 Pod- dig et al. (2008) verwenden zudem in einer Fallstudie bei einem Datensample von 25 Jahren einen zweijährigen out-of-sample, dass etwa 8,7 Prozent des in-sample-Zeitraums ent- spricht. Nach den Autoren soll sich ein großer in-sample positiv auf die Güte der Prognose- leistung auswirken.170 Die Umsetzung der Aufteilungsidee auf das vorliegende Datensample erweist sich zunächst als problematisch, da unterschiedliche Zeitreihenlängen vorliegen.

[...]


1 Vgl. Rehkugler / Poddig (1994), S. 3.

2 Vgl. Schlittgen / Streitberg (2001), S. 191.

3 Vgl. Rehkugler / Poddig (1994), S. 3.

4 Für eine sinnvolle statistische Nutzung von Zeitreihen wird ein identischer zeitlicher Abstand (äquidistanter Abstand) vorausgesetzt (vgl. Poddig et al. (2008), S. 94).

5 Unter Finanzzeitreihen sind beispielsweise Zeitreihen aus Aktienkursen, Zinssätzen, Inflationsdaten, u.a. zu verstehen.

6 Vgl. Poddig et al. (2008), S. 94.

7 Die Begriffsdefinition ‚Aggregation‘ stammt aus der Wirtschaftsinformatik (vgl. Gronau / Gäbler (2010), S. 231).

8 Vgl. Bergmann (2012).

9 Vgl. Fama (1965), S. 34 - 105.

10 Vgl. Fama (1970), S. 383 ff.

11 Vgl. Kap. 2.4.2.

12 Die fundamentale Analyse versucht für Aktien anhand von unternehmensspezifischen Daten (wie z.B. Bilanzkennzahlen, Auftragseingängen, u.a.) den inneren Wert ausfindig zu machen. In der Theorie wird davon ausgegangen, dass der Aktien- kurs um den inneren Wert schwankt. Mithilfe eines inneren Wertes sollen Über- oder Unterbewertungen identifiziert werden können (vgl. Montassér (2000), S. 16).

13 Vgl. Wetzer (2003), S. 21; Vgl. Steiner et al. (2012), S. 39.

14 Vgl. Heckmann (2009), S. 5.

15 Vgl. Schröder (2002), S. 26.

16 Als Buy-and-Hold-Strategie ist als diejenige Rendite zu verstehen, die ein Investor erzielt hätte, wenn er am Anfang der be- trachteten Periode das jeweilige Wertpapier bzw. die Wertpapiere gekauft und erst am Ende des Untersuchungszeitraumes verkauft hätte (vgl. Müller-Leydig (2003), S. 62 f).

17 Vgl. Drobetz (2003), S. 10

18 Vgl. Murphy (2011), S. 38; Vgl. Heidorn (2009), S. 141.

19 Vgl. Working (1934), S. 11 - 24; Vgl. Kendall / Hill (1953), S. 11 - 34; Vgl. Samuelson (1965), S. 41 - 49.

20 Vgl. Wittmann (2012), S. 34.

21 Vgl. Shiller (1981), S. 421 - 436.

22 Vgl. Heidorn (2009), S. 141.

23 Vgl. Zacks (2011), S. 117.

24 Vgl. Anh. A.2.2.

25 Der Size-Effekt geht aus der Arbeit von Banz (1981) hervor und beschreibt eine empirische Beobachtung, bei der Aktien- renditen von kleinen Unternehmen, gemessen an der Marktkapitalisierung, sich besser entwickelten als die von größeren Firmen (vgl. Banz (1981), S. 3 ff).

26 Dem Value-Effekt liegt der Gedanke zugrunde, bei der Marktteilnehmer die Aussichten von Wachstumsunternehmen über- bewerten und die von werthaltigen Unternehmen unterbewerten (vgl. Lakonishok et al. (1993), S. 1 ff).

27 Der Momentum-Effekt basiert auf der Annahme, dass Aktien mit hohen Renditen dazu neigen diese bis in naher Zukunft fortzuführen, während Aktien mit negativen Renditen weiter dazu tendieren (vgl. Holtfort (2009), S. 94).

28 Vgl. Hößl (2009), S. 87 f.

29 Das menschliche Fehlverhalten tritt Insbesondere bei der Informationswahrnehmung sowie bei der Informationsverarbeitung in Entscheidungsprozessen auf (vgl. Roßbach (2001), S. 10).

30 Vgl. Zacks (2011), S. 297.

31 Vgl. Krahnen (1993), S. 801.

32 Vgl. Zacks (2011), S. 5 - 7.

33 Vgl. Roßbach (2001), S. 8.

34 Vgl. Holtfort (2009), S. 79.

35 Der Winner-Loser-Effekt resultiert aus der Überbewertung von historischen Entwicklungen und der Unterbewertung von aktuellen Informationen, wodurch Aktien mit niedrigen Renditen aus vergangenen Perioden häufig eine bessere Perfor- mance erzielen als Aktien mit höheren Renditen (vgl. Roßbach (2001), S. 8).

36 Roßbach (2001) gibt hierbei das KBV, KGV und die Dividendenrendite an, das bei Holtfort (2009) als Value-Effekt aufge- führt wird und insbesondere auf die Untersuchungen von O´Shaughnessy zurückgeht (vgl. Holtfort (2009), S. 77).

37 Dazu gehören beispielsweise der Januar-Effekt, Montagseffekt oder Monatswechseleffekt (vgl. Roßbach (2001), S. 8).

38 Vgl. Roßbach (2001), S. 7.

39 Vgl. Zacks (2011), S. 1.

40 Vgl. Zacks (2011), S. 309.

41 Vgl. Formel (A-2).

42 Vgl. Anh. A.2.3.

43 Vgl. Ross (1976), S. 341 ff.

44 Vgl. Fischer (2010), S. 419.

45 Vgl. Oenschläger / Götz (2011), S. 34.

46 Vgl. Steiner / Bruns (1994), S. 348.

47 Vgl. Ingersoll (1984), S. 1022.

48 Vgl. Hamerle / Rösch (1998), S. 2.

49 Vgl. Opfer (2004), S. 32.

50 Vgl. Mondello (2013), S. 278 f.

51 Vgl. Mondello (2013), S. 278.

52 Vgl. Chen et al. (1986), S. 383 ff; Vgl. Burmeister et al. (1994), S. 1 ff.

53 Vgl. Mondello (2013), S. 304 f.

54 Vgl. Mondello (2013), S. 307.

55 Vgl. Fama / French (1993), S. 3 - 56; Vgl. Carhart (1997), S. 57 - 82.

56 Vgl. Ingersoll (1984), S. 1022.

57 Dem Multifaktormodell liegt das multiple Regressionsmodell zugrunde. Die Regressionsanalyse ist ein oft eingesetztes sta- tistisches Analyseverfahren, um Zusammenhänge zu erkennen oder Prognosen durchzuführen. Dabei wird angenommen, dass die Regressoren in einer linearen Abhängigkeit den Regressanden beeinflussen (vgl. Backhaus et al. (1994), S. 6).

58 Vgl. Poddig et al. (2008), S. 411.

59 Vgl. Roll / Ross (1980), S. 1073 - 1103.

60 Vgl. Fama / French (1993), S. 26 - 31.

61 Vgl. Connor / Korajczyk (1988), S. 255 - 289; Vgl. Lehmann / Modest (1988), S. 213 - 254.

62 Vgl. Zangemeister (1976), S. 7.

63 Vgl. Bartmann / Pope (1979), S. 31.

64 Vgl. Zangemeister (1976), S. 78.

65 Vgl. Bartmann / Pope (1979), S. 30.

66 Vgl. Zangemeister (1976), S. 90.

67 Zangemeister (1976), S. 89.

68 Vgl. Zangemeister (1976), S. 69.

69 Vgl. Bartmann / Pope (1979), S. 31 f.

70 Vgl. Zangemeister (1976), S. 77 ff.

71 Vgl. Bartmann / Pope (1979), S. 32.

72 Vgl. Anh. A.1.

73 Der Revision Faktor berücksichtigt die Gewinnrevisionen durch Analysten, wonach positive Gewinnrevisionen häufig zu Überrenditen führen (vgl. Levermann (2010), S. 126).

74 Der Reversal Faktor zielt dabei auf eine Trendumkehr einer Aktie ab (vgl. Jaunich / Nitsch (2009), S. 4).

75 Vgl. Anh. A.1.1.

76 Vgl. Anh. A.1.2.

77 Vgl. Dichev (1998), S. 1131 - 1147.

78 Vgl. Zacks (2011), S. 119.

79 Vgl. Lev / Thiagarajan (1993), S. 191

80 Vgl. Anh. A.1.3.

81 Vgl. Anh. A.1.5.

82 Vgl. Zacks (2011), S. 118.

83 Vgl. Anh. A.1.6.

84 Vgl. Gebert et al. (1996), S. 19.

85 Die theoretischen Zusammenhänge der Faktoren des Gebert-Indikators sind im Anhang zusammengetragen für Zinsen (vgl. Anh. A.3.1), Inflation (vgl. Anh. A.3.2), Währung USD / EUR (vgl. Anh. A.3.3) und Saisonalität (vgl. Anh. A.3.12).

86 Vgl. Anh. A.1.4.

87 Vgl. Anh. A.1.7.

88… a signal refers to a specific configuration of several fundamental variables” (Lev / Thiagarajan (1993), S. 192).

89 Die Faktoren Inventory, Accounts Receivable, Capital Expenditure (R&D), Gross Margin, Sales and Administrative Expens- es, Provision for Doubtful Receivables, Labor Force und Order Backlog (vgl. Lev / Thiagarajan (1993), S. 193).

90 Der Faktor Effective Tax (vgl. Lev / Thiagarajan (1993), S. 193).

91 Die Faktoren LIFO Earnings und Audit Qualifications (vgl. Lev / Thiagarajan (1993), S. 193).

92 Beim Levermann-Modell gehören zum Typ 1: Dreimonatsreversal, Gewinnwachstum, RoE LJ, EBIT-Marge LJ, EK Quote LJ, KGV 5 Jahre, KGV aktuell) Typ 3: Analystenmeinungen, Reaktion auf Quartalszahlen, Gewinnrevisionen, Kurs heute ggü. Kurs vor 1 Jahr, Kurse heute ggü. Kurs vor 6 Momentum steigend (vgl. Anh. A.1.7). Der Gebert-Indikator verwendet Nutzenfunktionen vom Typ 2 (Inflationsrate, Wechselkurs, Zinsumfeld) und vom Typ 3 die Saisonalität (vgl. Anh. A.1.4).

93 Vgl. Formel (10).

94A trading rule is a function that returns either a `buy' or a `sell' signal for any given price history” (Allen / Karjalainen (1999), S. 251).

95 Lo et al. (2000), S. 1708.

96 Vgl. Edwards / Magee (1972), S. 11; Vgl. Murphy (1991), S. 21 - 24.

97 Vgl. Muphy (2011), S. 26.

98 Vgl. Edwards / Magee (1972), S. 271; Vgl. Muphy, (2011), S. 27.

99 Vgl. Muphy (2011), S. 23; Vgl. Kocur (1999), S. 18.

100 Vgl. Montassér (2000), S. 99.

101 Vgl. Wetzer (2003), S. 84.

102 Vgl. Wetzer (2003), S. 18.

103 Vgl. Wetzer (2003), S. 85.

104 Vgl. Müller / Nietzer (1993), S. 14 - 17.

105 Vgl. Müller / Nietzer (1993), S. 61.

106 Vgl. Hofmann (2014), S. 38.

107 Vgl. Le Beau / Lucas (1992), S. 78.

108 Vgl. Malkiel (2007), S. 30 ff.

109 Vgl. Steiner et al. (2012), S. 292.

110 Vgl. Pardo (1992), S. 1

111 Vgl. Zacks (2011), S. 278.

112 Vgl. Drobetz (2003), S. 10.

113 Vgl. Fama (1991), S. 1575 f.

114 Vgl. Grossman / Stiglitz (1980), S. 393.

115 Vgl. Drobetz (2003), S. 10.

116 Insbesondere sind die Annahmen der zeitgleichen und kostenfreien Informationsverfügbarkeit und das rationale Verhalten aller Marktteilnehmer gemeint.

117 Vgl. Heckmann (2009), S. 28; Vgl. Bodie et al. (2005).

118 Vgl. Zacks (2011), S. 117.

119 Vgl. Brennan / Yihong (2001), S. 905.

120 Vgl. Fama / French (1996), S. 1947.

121 Vgl. Schnelle (2009), S. 69 f.

122 Vgl. Davis et al. (2000), S. 389 ff.

123 Vgl. Carhart (1997), S. 57 - 82.

124 Vgl. Schnelle (2009), S. 72; Vgl. Roßbach (2001), S. 9.

125 Vgl. Rapp (1997), S. 82.

126 Vgl. Roßbach (2001), S. 11.

127 Vgl. Zacks (2011), S. 297.

128 Vgl. Hößl (2009), S. 87 f.

129 Vgl. Roßbach (2001), S. 27.

130 Vgl. De Bondt (2005), S. 8.

131“ the general feeling of good fellowship and cheer existing throughout the Christmas holidays tends to last .. through the beginning of January. [ … ] Coupled with this idea might be a widespread hope that the new year will prove better than the old ” (Wachtel (1942), S. 187).

132 Vgl. De Bondt (2005), S. 8.

133 Vgl. Roßbach (2001), S. 17.

134 Transaktionskosten treten durch Handelsaktivitäten auf und setzen sich nach Auffassung von Gast (1998) aus den vier Komponenten: Courtage, Steuern, Bid-Ask-Spread und Markteinfluss zusammen (vgl. Gast (1998), S. 42).

135 Es stellt sich zudem die Frage, ob die von Zacks (2011) genannte Fondsindustrie mit ihren Multi-Milliarden Dollar schweren Quant Investments tatsächlich langfristig an Kapitalmarktanomalien profitieren. Hierzu besteht weiterer Forschungsbedarf.

136 Die Sentimentanalyse befasst sich mit der Messung der Marktstimmungen und nutzt dafür Indikatoren wie z.B. Volatilitäts- indizes, Verhältnismäßigkeiten von Kauf- und Verkaufsoptionsscheinen (PCR) oder Umfragen (vgl. LeBon (1982), S. 42).

137 Vgl. Oenschläger / Götz (2011), S. 34.

138 Vgl. Ingersoll (1984), S. 1022; Vgl. Chen et al. (1986), S. 383 - 403.

139 Beim Data Mining kann die willkürliche Suche in empirischen Daten nach potenziellen Zusammenhängen ohne eine theore- tische Fundierung zu fehlerhaften Schlüssen führen (vgl. Hößl (2009), S. 122).

140 Vgl. Chen et al. (1986), S. 383 - 403.

141 Vgl. Steiner et al. (1994), S. 348.

142 Vgl. Zangemeister (1976), S. 89.

143 Gemeint sind Methoden wie die Korrelationsanalyse zur Untersuchung nach empirischen Zusammenhängen oder die Korre- lationsmatrix zum Auffinden der Faktoren, die sich gegeneinander erklären (vgl. Poddig et al. (2008), S. 411 - 417).

144 Vgl. Bartmann / Pope (1979), S. 31.

145 Die Brut-Force-Methode stellt einen Optimierungsansatz dar, bei der sämtliche Möglichkeiten berechnet und anschließend daraus das beste Ergebnis ausgewählt wird. Dieser Ansatz ist im Gegensatz zu heuristischen Verfahren äußerst rechenin- tensiv, da der Lösungsraum vollständig durchsucht wird (vgl. Heckmann (2009), S. 79).

146 Vgl. Tab. A-1.

147 Vgl. Le Beau / Lucas (1992), S. 78.

148 In diesem Zusammenhang ließen sich Fuzzy-Methoden einsetzen. Dourra / Siy (2002) zeigen eine Anwendung von FuzzyMethoden mit technischen Indikatoren (vgl. Dourra / Siy (2002), S. 221 - 240).

149 Für die Durchführung der empirischen Untersuchung wurden Applikationen in Excel VBA entwickelt. Diese sind auf dem beiliegenden Datenträger enthalten. Der Ablaufprozess der hauptsächlichen Applikation ist in Abb. A-24 abgebildet.

150 Im Sinne einer vollständigen Orderausführung an der Börse. In der Praxis sind in einigen Fällen auch Teilausführungen der aufgegebenen Order möglich.

151 Annahmen der EFMH bzgl. Kostenfreiheit der Transaktionen und Informationen (vgl. Jensen (1978), S. 96).

152 Vgl. Heckmann (2009), S. 12.

153 Vgl. Hößl (2009), S. 121.

154 Vgl. Hößl (2009), S. 117.

155 Vgl. Badek (2010), S. 8.

156 Vgl. Badek (2010), S. 68.

157 Vgl. Kamp (2009), S. 187.

158 Vgl. Anh. A.3.

159 Vgl. Anh. A.3.

160 Vgl. Beike / Schlütz (2005), S. 772.

161 Vgl. Tab. A-18.

162 Vgl. Beike / Schlütz (2005), S. 131.

163 Vgl. Sharpe (1964), S. 425 - 441; Vgl. Lintner (1965), S. 13 - 37.

164 Vgl. Obermaier (2006), S. 493; Vgl. Sharpe (1966), S. 119 - 138.

165 Vgl. Scheld (2013), S. 48 f.

166 In Poddig et al. (2008) wird aus Gründen der Datenverfügbarkeit auch auf einen Geldmarktzins (EURIBOR) zurückgegriffen (vgl. Poddig et al. (2008), S. 448).

167 Vgl. Tab. A-18.

168 Vgl. Wetzer (2003), S. 24 - 31.

169 Vgl. Pardo (1992), S. 111.

170 Vgl. Poddig et al. (2008), S. 406.

Ende der Leseprobe aus 150 Seiten

Details

Titel
Prognostizierbarkeit deutscher Aktien auf Grundlage von aggregierten Informationssignalen aus Finanzzeitreihen. Das Scoring-Konzept
Hochschule
Hochschule Bremen
Veranstaltung
Quantitative Finance
Note
1,0
Autor
Jahr
2015
Seiten
150
Katalognummer
V302832
ISBN (eBook)
9783668010376
ISBN (Buch)
9783668010383
Dateigröße
1387 KB
Sprache
Deutsch
Schlagworte
Scoring-Modell, Empirische Finanzmarktanalyse, Multifaktormodell, Quantitative Finance, Marktineffizienz, Prognose, deutsche Aktien, Informationssignale, Aggregationsmodell, Momentum, technische Analyse, Kapitalmarktanomalie, Sortino-Maß, Jensen-Alpha
Arbeit zitieren
Süleyman Yücel (Autor), 2015, Prognostizierbarkeit deutscher Aktien auf Grundlage von aggregierten Informationssignalen aus Finanzzeitreihen. Das Scoring-Konzept, München, GRIN Verlag, https://www.grin.com/document/302832

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Prognostizierbarkeit deutscher Aktien auf Grundlage von aggregierten Informationssignalen aus Finanzzeitreihen. Das Scoring-Konzept



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden