APT und Renditeschätzung - Eine Untersuchung des deutschen Kapitalmarktes


Bachelorarbeit, 2006
67 Seiten, Note: sehr gut (6,0)

Leseprobe

INHALTSVERZEICHNIS

Abstract

Tabellenverzeichnis

Abbildungsverzeichnis

Abkürzungsverzeichnis

1 Einleitung

2 Die Arbitrage Pricing Theorie
2.1 Stand der Theorie
2.2 Herleitung des Modells
2.2.1 Intuitive Herleitung
2.2.2 Formelle Herleitung
2.3 Evolution des Modells
2.4 APT vs. CAPM

3 Bestimmung der Faktoren
3.1 Statistical Factor Model
3.2 Macroeconomic Factor Model

4 Empirische Tests der APT
4.1 Kritische Betrachtung der Testbarkeit der Theorie
4.2 Empirische Tests
4.2.1 „An Empirical Investigation of the Arbitrage Pricing Theory“ von Richard Roll und Stephen A. Ross (1980)
4.2.2 „Commonality in the determinants of expected stock returns“ von Robert A. Haugen und Nardin L. Baker (1996)
4.2.3 „Some empirical tests in the Arbitrage Prcing Theory: Macrovariables vs. derived factors” von Su-Jane Chen und Bradford D. Jordan (1993)
4.2.4 „Empirische Untersuchung zur Bedeutung makroökonomischer Faktoren für Aktienrenditen am deutschen Kapitalmarkt” von Wolfgang Bessler und Heiko Opfer (2003)

5 Ein Arbitrage Pricing Modell für den deutschen Aktienmarkt
5.1 Modell nach Chen/Roll/Ross (1986)
5.2 Spezifizierung des Modells für den Deutschen Aktienmarkt
5.2.1 Instrumentalisierung der Faktoren nach Chen/Roll/Ross (1986)
5.2.2 Bildung der Aktienrenditen und Konstruktion der Portfolios
5.2.3 Bereinigung der makroökonomischen Zeitreihen
5.2.3.1 Übersicht der statistischen Eigenschaften
5.2.3.2 Bereinigung der Zeitreihen
5.2.4 Festlegung der Faktoren
5.3 Test des deutschen Kapitalmarktes
5.3.1 Schätzung der Exposures
5.3.2 Schätzung der Risikoprämien
5.4 Diskussion der Resultate und Kritik

6 Fazit

Appendix: Erfasste Aktien und Portfoliobildung

Literaturverzeichnis

Verzeichnis verwendeter Spezial-software

Verzeichnis verwendeter Internet-Quellen

ABSTRACT

In der vorliegenden Arbeit wird die Arbitrage Pricing Theory (APT) im Bezug auf den deutschen Kapitalmarkt untersucht. Eingangs werden einige grundlegende Informationen zur Theorie aufgeführt. Danach folgt ein empirischer Test, welcher den Kern der Arbeit bildet. Das erarbeitete Modell untersucht monatliche Renditen in Frankfurt kotierter Aktien der Jahre 1997 bis 2005. Diese Einzeltitel werden zur Elimination der unsystematischen Risikokomponente in Branchenportfolios gebündelt. Aus den von Chen, Roll und Ross (1986) vorgeschlagenen Faktoren gelingt es dem Autor vier für den deutschen Kapitalmarkt besonders relevante zu identifizieren, welche dann ins Modell integriert werden. Es sind dies das Marktportfolio, die Term und Credit Spreads sowie die erwartete Inflationsrate. In der Anwendung des Modells werden mittels Zeitreihen- und Querschnittsregressionen die Exposures der Portfolios und die vom Markt bestimmten Risikoprämien zur Entschädigung für die Übernahme eines Exposures quantifiziert.

Die Ergebnisse sprechen für einen Zusammenhang der ausgewählten Faktoren mit den Portfoliorenditen und somit für das verwendete Modell. Die Risikoprämien sind durchgehend signifikant und zeigen auf, dass ein Exposure gegenüber dem Term Spread den stärksten Einfluss auf die erwartete Rendite hegt, während die Risikoprämie für das Marktportfolio überraschend tief ausfällt. Die Exposures waren vor Allem für das Marktportfolio hochsignifikant, während sie für die anderen Faktoren lediglich bei einzelnen Branchen signifikante Werte erreichten. Die Renditen des Sektors der Finanzintermediäre scheinen von einem oder mehreren zusätzlichen Faktoren beeinflusst zu werden, welche nicht im Modell erfasst wurden. Die gefundenen Risikoprämien dieser Untersuchung übertreffen in ihrer Signifikanz einige der bekanntesten empirischen Arbeiten zum Thema, was allerdings in aller Wahrscheinlichkeit mit dem relativ kleinen Stützbereich erklärt werden kann. Der Schluss von Chen, Roll und Ross (1986), dass das Marktportfolio durch den Einbezug weiterer Faktoren an Signifikanz verliert, kann für die vorliegende Untersuchung nicht bestätigt werden.

TABELLENVERZEICHNIS

Tabelle 1: Modelle zur Faktorbestimmung nach Kiermeier (1998)

Tabelle 2: Übersicht über die Sektoren des Prime Standards

Tabelle 3: Übersicht über die ersten beiden Momente der Portfoliorenditen

Tabelle 4: Übersicht und Erläuterungen zu den verwendeten Datenreihen

Tabelle 5: Statistische Eigenschaften der unbehandelten Zeitreihen

Tabelle 6: Vergleich der statistischen Eigenschaften unbehandelter und bereinigter Zeitreihen

Tabelle 7: t-Statistiken und Signifikanzniveaus aller in Betracht gezogener Faktoren gegenüber gut diversifizierten Portfolios

Tabelle 8: Korrelationskoeffizienten der ausgewählten Faktoren

Tabelle 9: Exposures mit statistischen Eigenschaften und Signifikanzwerten

Tabelle 10: Risikoprämien für die Faktoren des Modells mit Signifikanzwerten

ABBILDUNGSVERZEICHNIS

Abbildung 1: Entwicklung der APT nach Oertmann (1996)

Abbildung 2: Erwartungswerte und Standardabweichungen der Portfoliorenditen und Durchschnittswerte

Abbildung 3: Zusammenstellung der unbehandelten Faktoren

Abbildung 4: Vergleich unbehandelter und bereinigter Zeitreihen

ABKÜRZUNGSVERZEICHNIS

Abbildung in dieser Leseprobe nicht enthalten

1 EINLEITUNG

Die Idee, Renditen von Wertpapieren durch die Veränderungen einer bestimmten Anzahl Faktoren zu erklären, basiert auf der empirischen Beobachtung, dass sich diese Renditen oftmals in Gruppen zu bewegen scheinen. Stephen A. Ross schaffte 1976 auf dieser Basis die Arbitrage Pricing Theorie (APT). Die Aussage des Modells ist intuitiv einleuchtend und wurde mathematisch korrekt spezifiziert. Die Frage des Nutzens des Modells in der Wirklichkeit führte jedoch zu akademischen Disputen. Zahlreiche Kritiker waren der Meinung, dass die von der APT postulierten Zusammenhänge zwar mathematisch korrekt seien, jedoch ohne Implikationen für die Empirie blieben. Dies führte zu einer stetigen Weiterentwicklung des Modells durch Beiträge verschiedener Forscher, was in einer Version der APT resultierte, für welche die empirische Testbarkeit wenig in Frage steht.

Die vorliegende Arbeit verfolgt zwei zentrale Zielsetzungen. Einerseits soll die APT in ihrer Aussage, ihren Implikationen sowie ihrer Entwicklung kurz erläutert werden. Andererseits soll dann die Potenz der APT für den deutschen Aktienmarkt getestet werden. Dies wird durch ein eigens vom Autor entwickeltes Modell erreicht, mit welchem die Renditen deutscher Aktien erklärt werden sollen. Der Autor erhofft sich, dadurch einen Beitrag zur empirischen Verifikation dieser populären Theorie leisten zu können.

Nach dieser Hinführung sollen in Kapitel 2 die Grundaussage der APT hergeleitet sowie ein kurzer Abriss der Entwicklung der Theorie und ein direkter Vergleich zum konkurrierenden Capital Asset Pricing Modell (CAPM), der populärsten aller Pricing Theorien, geleistet werden. In Kapitel 3 wird auf die Methoden zu Faktorbestimmung eingegangen, während in Kapitel 4 ein kurzer Überblick über den Diskurs zur empirischen Testbarkeit der APT gegeben wird. Ebenfalls werden in diesem Kapitel vier empirische Untersuchungen unterschiedlicher Methodik vorgestellt, bevor in Kapitel 5 die eigentliche Untersuchung des deutschen Kapitalmarktes beginnt. Im Rahmen dieser Untersuchung wird durch die Selektion einer kleinen Anzahl erklärender Faktoren ein Modell konstruiert, welches dann in einem zweiten Schritt zur Erklärung der Variationen in deutschen Aktienrenditen von 1997 bis 2005 verwendet wird. Kapitel 6 schliesst die Arbeit ab.

2 DIE ARBITRAGE PRICING THEORIE

Die ökonometrische Grundlage der APT liegt in der multivariaten Regression, welche im Gebiet der Finance in Gestalt des Multifaktormodells seinen Niederschlag findet. Beim Multifaktormodell soll die Variation der zu erklärenden, abhängigen Variable durch die Variationen einer bestimmten Anzahl unabhängiger Variablen erklärt werden (Spremann, 2005). In der Finance werden dabei oft Renditen als abhängige Variablen verwendet. Das selbe Prinzip gilt für die APT, wobei sie einen Schritt weiter geht als es reguläre Multifaktormodelle tun.

2.1 STAND DER THEORIE

Die Arbitrage Pricing Theorie wurde 1976 von Stephen A. Ross im „Journal of Economic Theory“ als Alternative zum Capital Asset Pricing Model nach Sharpe, Lintner und Treynor publiziert. Die grundlegende Forschung dazu wurde von Ross selbst in den frühen 1970er Jahren durchgeführt. Die erste empirische Untersuchung der Theorie wurde bereits 1975 von Adam Gehr unternommen (Roll & Ross, 1980). Auch in den folgenden Jahren wurde der „Arbitrage Theory of Capital Asset Pricing“ sehr viel Aufmerksamkeit gewidmet. Die 1980er Jahre markierten eine Zeit sehr aktiver Forschung theoretischer als auch empirischer Natur sowie zahlreicher Diskussionen über die Prognosefähigkeiten, das Erklärungspotential oder die Testbarkeit der APT. Seit Mitte der 1990er Jahre scheint es jedoch etwas ruhiger um die so viel versprechende Theorie geworden zu sein. 1997 wurde sie von Kruschwitz und Lutz sogar für tot erklärt, während bereits 1992 Reisman und Shanken in separaten Publikationen behaupteten, die APT sei aufgrund fundamentaler Mängel für den praktischen Gebrauch so gut wie wertlos (Shanken, 1992). Auf eine präzise Erörterung der Details der Kritikpunkte in den erwähnten Papieren soll hier verzichtet werden, da sie die Implikationen und Annahmen der APT auf einem Niveau hoher Komplexität angreifen, welcher in dieser Arbeit nicht vollständig Rechnung getragen werden kann. In den Abschnitten 2.3 und 4.1 wird eine grobe Übersicht über diesen akademischen Diskurs gegeben. Trotz der erwähnten Vernachlässigung der APT in jüngster Zeit, bleibt die Theorie in ihrer Grundaussage ein viel versprechendes Instrument für die Erklärung und Schätzung von Aktienrenditen.[1]

2.2 HERLEITUNG DES MODELLS

Um das Modell der APT herleiten zu können, soll zunächst der Begriff der Arbitrage geklärt werden. Eine Arbitragemöglichkeit ergibt sich immer dann, wenn es einem Investor möglich wird, einen risikolosen (also sicheren) Gewinn zu erzielen, ohne dass er dafür eigenes Kapital zu investieren braucht (die Netto-Investition ist also gleich null). Eine mögliche Quelle solcher Gewinne sind beispielsweise Unterschiede im Pricing desselben Titels an verschiedenen Börsen (Bodie, Kane & Marcus, 2005). Das Prinzip der Arbitragefreiheit stellt eine elementare und notwendige Eigenschaft effizienter Märkte dar, und wird unter Anderem in der Bewertung von Optionen angewandt[2] Da es sich beim betrachteten Markt um einen Finanzmarkt handelt, ein Ort an welchem blitzschnell auf neue Nachrichten reagiert wird, kann von einem arbitragefreien Markt ausgegangen werden. Allfällige Arbitragemöglichkeiten würden sofort durch einzelne Investoren wahrgenommen, was dann über die Marktmechanismen zu einer Angleichung der Preise führen würde und die Arbitragemöglichkeiten rasch im Sand versickern liesse.

2.2.1 INTUITIVE H ERLEITUNG

Die Grundlage für die Intuition hinter der Arbitrage Pricing Theorie liegt in der statistischen Observation, dass Aktienpreise dazu tendieren, sich in Gruppen zu bewegen. Eine solche Gruppe könnte einerseits der Markt als Ganzes sein, oder aber andererseits kleinere Gruppen wie eine einzelne Branche oder Firmen mit einer bestimmten Marktkapitalisierung. Jedoch scheint jeder einzelne Titel zusätzlich noch eine ‚individuelle Komponente’ aufzuweisen, welche zum Endergebnis, dem Preis des Titels am Ende des Handelstags, beiträgt. Die APT versucht nun, die Informationen, welche aus der Variation dieser realisierten Preise oder Renditen gewonnen werden können, so anzuwenden, dass zukünftige Renditen geschätzt werden können. Die erwähnte ‚individuelle Komponente’, oder das unsystematische Risiko, sollte dabei keine Rolle in der Preisbildung spielen, da es durch die Bildung von geeigneten Portfolios eliminiert werden kann. Dieser Vorgang ist allgemein als Diversifikation bekannt und bildet einen Grundstein der Portfoliotheorie nach Markowitz (Bodie, Kane & Marcus, 2005). Es muss nun also eine mathematische Formulierung gefunden werden, welche beschreibt, wie sich Aktien relativ zueinander bewegen. D.h. es müssen eine unbekannte Anzahl Faktoren bestimmt werden, welche die relativen Bewegungen der Aktienkursen zu beschreiben vermögen. Die unterschiedliche Gewichtung dieser Faktoren in den einzelnen Titeln wird dazu führen, dass für jede Aktie eine erwartete Rendite abgeschätzt werden kann (Cochrane, 2005).

2.2.2 FORMELLE HERLEITUNG

Die hier vorgetragene formelle Herleitung der APT erfolgt hauptsächlich in Anlehnung an Roll und Ross (1980)[3] und soll möglichst einfach gehalten werden. Eine grundlegende Voraussetzung für die Legitimation der Theorie bilden die traditionellen neoklassischen Annahmen eines kompetitiven und reibungslosen Aktienmarktes und damit die vollständige Abwesenheit von Transaktionskosten.[4] Des Weiteren wird davon ausgegangen, dass die einzelnen Investoren homogen sind bezüglich der Überzeugung der Existenz einer Faktorstruktur mit m Faktoren, welche die Renditen eines jeden einzelnen Titels zu erklären vermag.[5] Überträgt man diese Annahme in ein Multifaktormodell, erhält man:

Abbildung in dieser Leseprobe nicht enthalten

Wobei [Abbildung in dieser Leseprobe nicht enthalten] die stochastische, tatsächlich realisierte Rendite und [Abbildung in dieser Leseprobe nicht enthalten] die erwartete Rendite[6] des Titels i darstellen. Die nächsten m Terme setzen sich jeweils aus[Abbildung in dieser Leseprobe nicht enthalten] zusammen, wobei [Abbildung in dieser Leseprobe nicht enthalten] die Veränderungen des k -ten Faktors repräsentiert und [Abbildung in dieser Leseprobe nicht enthalten] das Exposure, mit welchem die i -te Aktie den Einfluss des k -ten Faktors auf die Rendite gewichtet. Für die Bewegungen des k -ten Faktors gilt ausserdem [Abbildung in dieser Leseprobe nicht enthalten], d.h. es kann von stationären stochastischen Zeitreihen, einem sog. Random Walk

ohne Drift (Spremann, 2005), ausgegangen werden. Der letzte Term [Abbildung in dieser Leseprobe nicht enthalten] steht für das oben erwähnte unsystematische Risiko, den Fehlerterm, des i -ten Titels. Es wird angenommen, dass es sich dabei um einen White Noise-Prozess (WN-Prozess) handelt, d.h. die Zeitreihe besteht ebenfalls aus einem stationären Random Walk (Bodie, Kane & Marcus, 2005). Es kann ohne Weiteres davon ausgegangen werden, dass dieses Rauschen der Fehlerterme der Einzeltitel nicht mehr untereinander korreliert, da die gewählten m Faktoren die gemeinsame Variation der Renditen per Annahme vollständig zu erklären vermögen. Wenn dies nicht der Fall wäre, könnte durch die zusätzliche Integration geeigneter Faktoren die Korrelation beseitigt werden. Ebenfalls gilt für das unsystematische Risiko des i -ten Titels [Abbildung in dieser Leseprobe nicht enthalten], so dass auch hier kein Trend in Erscheinung tritt. Roll und Ross (1980) gehen davon aus, die unsystematischen Risiken durch die Bildung von Portfolios eliminieren zu können. Eine zentrale Grundlage dafür bildet aber die Annahme, n sei genügend gross (viel grösser als m, die Anzahl der Faktoren).

Im nächsten Schritt soll nun ein Investor existieren, welcher ein Portfolio aus den n verfügbaren Aktien besitzt und über die Möglichkeit nachdenkt, sein Portfolio umzustrukturieren, was eine Veränderung der Gewichtung der einzelnen Titel impliziert. Da ihm zu diesem Zweck genau dieselben Wertpapiere zur Verfügung stehen und er das investierte Vermögen nicht verändert, wird sich das neue Portfolio lediglich in der Gewichtung der einzelnen Titel vom bisherigen unterscheiden. Für diese Differenzen [Abbildung in dieser Leseprobe nicht enthalten] gilt also [Abbildung in dieser Leseprobe nicht enthalten], da keine zusätzlichen Investitionen getätigt werden. Falls i durch eine solche Umstrukturierung ein Portfolio geschaffen werden kann, welches bei gleichem Risiko[7] eine höhere erwartete Rendite liefert, sind die Merkmale der Arbitrage gemäss der Definition von Bodie, Kane und Marcus (2005) erfüllt und der Investor wird diese Veränderung vornehmen.

Gibt es jedoch keine solche Möglichkeit zu Umstrukturierung, kann dadurch auf die Existenz von (m+1) Gewichten [Abbildung in dieser Leseprobe nicht enthalten] geschlossen werden, welche die erwartete Entschädigung für das Tragen eines Exposures gegenüber einem der m Faktoren für sämtliche n Aktien quantifiziert. Diese Gewichte werden als Risikoprämien bezeichnet. Dieser Schritt, welcher die Grundaussage der Arbitrage Pricing Theorie beinhält, lässt sich wie folgt darstellen:

Abbildung in dieser Leseprobe nicht enthalten

[Abbildung in dieser Leseprobe nicht enthalten] steht hier für die Rendite der risikolosen Anlage [Abbildung in dieser Leseprobe nicht enthalten],[8] während [Abbildung in dieser Leseprobe nicht enthalten] der Risikoprämie für die Aufnahme eines Exposures von 1 gegenüber dem Faktor k entspricht. Eine alternative Darstellung für

(2) kann gefunden werden, indem [Abbildung in dieser Leseprobe nicht enthalten] beidseitig subtrahiert wird. So wird nun die erwartete Überrendite eines Portfolios auf die Risikoprämien und die Exposures zurückgeführt:

Abbildung in dieser Leseprobe nicht enthalten

Mit dieser Fassung der Arbitrage Pricing Theory soll die empirische Untersuchung des deutschen Aktienmarktes durchgeführt werden.

2.3 EVOLUTION DES MODELLS

Wie die meisten wissenschaftlichen Modelle wurde auch die APT von der akademischen Gemeinschaft nicht ohne eine kritische Begutachtung aufgenommen. Tatsächlich wurden lange und viele sehr lebhafte Diskussionen über die empirische Validität und die mathematischen Eigenschaften der Theorie gefochten. Dies führte zu einem stetigen evolutionären Pfad, auf welchem sich die APT unter Einbezug verschiedener Aspekte in ihrer Entwicklung fortbewegte. Ein grosser Teil der Kritik schlug sich auf die empirische Testbarkeit nieder. Shanken (1982 & 1992) und Reisman (1988 & 1992) waren der Überzeugung, dass es sich bei der APT lediglich um eine mathematische Tautologie handle, welche keinerlei reale Implikationen mit sich bringe. Dieses Argument soll in Abschnitt 4.1 etwas genauer untersucht werden, während der Fokus hier auf einer kurzen Zusammenfassung des angesprochenen evolutionären Prozesses liegt.

Oertmann (1996) bietet in seinem Papier eine überschaubare Zusammenfassung der Entwicklung der Arbitrage Pricing Theory. Er unterscheidet vier verschiedene Gruppen von Arbitrage Pricing Modellen, welche er nach zwei Kriterien gliedert. Einerseits betrachtet er die Faktorstruktur einer gegebenen Version der APT, wobei er zwischen einer strikten (exakten) Faktorstruktur[9] und einer approximativen Faktorstruktur[10] unterscheidet. Andererseits differenziert Oertmann (1996) die verschiedenen Versionen der APT aufgrund der für die Herleitung des Modells getroffenen Annahmen und den daraus folgenden Implikationen für das Pricing. Er unterscheidet hierbei zwischen Argumenten, welche sich auf Arbitragefreiheit beziehen und solchen, welche sich auf die Nutzenvorstellungen der Investoren stützen. Oertmanns Ausführungen sind in Abbildung 1 verdichtet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Entwicklung der APT nach Oertmann (1996)

Die ursprüngliche Theorie des Arbitrage Pricing, welche 1976 von Ross publiziert wurde, stützt sich hauptsächlich auf die Annahme der Arbitragefreiheit. Die Nutzenvorstellungen der Investoren wurden heuristisch berücksichtigt, also als Voraussetzung angenommen und so in den Grundlagen des Modells integriert. Mathematisch wurde ihnen jedoch keine Rechnung getragen. Es wurde von einer strikten Faktorstruktur, also deren Vollständigkeit, ausgegangen. Diese erste Theorie führte lediglich zu einem approximativen Pricing der einzelnen Titel, d.h. die geschätzten Werte enthielten für die meisten Titel einen bestimmten, allerdings relativ geringen Fehler. Für einzelne Titel konnten die Resultate jedoch stark verzerrt ausfallen (Bodie, Kane & Marcus, 2005). Ein weiterer zentraler Nachteil dieser Version der APT ist Ross’ Annahme eines Kapitalmarktes mit einer unendlichen Anzahl Einzeltitel (Oertmann, 1996). Seine Ausführungen waren nach Oertmann (1996) von einem rein mathematischen Standpunkt her nicht ganz komplett. Huberman (1982) und Ingersoll (1984) haben sein Modell a posteriori mathematisch vollständig bewiesen. Sie stützen sich dazu jedoch lediglich auf Arbitragefreiheitsargumente und erhielten die oben ausgeführten Resultate bezüglich des Pricing (Oertmann, 1996).

Die entsprechenden Ausführungen für das Modell basierend auf Arbitragefreiheitsargumenten und einer approximativen Faktorstruktur wurden von Chamberlain und Rotschild (1983), Chamberlain (1983) und Ingersoll (1984) geliefert. Auch sie gingen noch von einem unendlichen Kapitalmarkt aus und erhielten lediglich ein approximatives Pricing. Bemerkenswert war hingegen, dass sie so auf die Existenz von „ pricing bounds “ schliessen konnten, d.h. die Existenz von bestimmten positiven Grenzwerten, welche von der Summe der quadrierten Fehlerterme nicht überschritten wird (Oertmann, 1996).

Der letzte Schritt in der Evolution der APT wurde von Connor (1982 & 1984) getätigt, welcher einen beschränkten Kapitalmarkt als Basis für die Untersuchung heranzog. Wie Chamberlain, Rothschild und Ingersoll ging auch er von einer approximativen Faktorstruktur aus. Das Resultat seiner Arbeiten war die Equilibrium Arbitrage Pricing Theory. Dieses Modell, basierend auf Arbitragefreiheits- und Gleichgewichtsargumenten sowie den von Ross ansatzweise berücksichtigen Nutzenvorstellungen der Investoren, vermochte die Aktienrenditen genau zu erklären und führte somit zu einem exakten Pricing (Oertmann, 1996). Chen und Ingersoll (1983) lieferten eine etwas vereinfachte Version von Connors Modell, während es Dybvig (1983) und Grinblatt und Titman (1983) gelang, die oben erwähnten pricing bounds zu quantifizieren (Oertmann, 1996).

Durch die hier sehr kurz zusammengefasste Evolution der APT wurde mit der Equilibrium APT eine Version der „Arbitrage Theory of Capital Asset Pricing“ (Ross, 1976) geschaffen, welche ohne besondere Bedenken[11] empirisch getestet werden kann. Es soll in der in Kapitel 5 durchgeführten Untersuchung des deutschen Kapitalmarktes von dieser Version der APT ausgegangen werden, was aufgrund des Samples und den intuitiv ausgewählten Faktoren nahe liegt.

2.4 APT VS . CAPM

Da es sich bei der APT um eine Alternative zum etabliertesten Pricing Modell überhaupt, dem CAPM, handelt, ist es naheliegend einen direkten Vergleich der beiden Modelle anzustellen. Ross hat in seinem ursprünglichen Papier 1976 selbst auf einige Probleme des damaligen und heutigen Benchmark-Modells CAPM hingewiesen. Er spricht dabei unter Anderem die Wichtigkeit des Marktportfolios im CAPM an, welches Professoren und Analysten seit jeher Kopfzerbrechen bereitete. Meist wird als Approximation dafür jeweils der nationale Aktienindex herangezogen. Allerdings ist mit den heutigen Mitteln und Finanzinstitutionen die Investitionstätigkeit nicht mehr auf das eigene Land beschränkt, wie Oertmann und Zimmermann (1998) feststellen. Im Gegensatz dazu spielt das Marktportfolio in der APT keine besondere Rolle, sondern ist durch jedes beliebige, gut diversifizierte Portfolio ersetzbar (Roll & Ross, 1980). Des Weiteren legt Ross (1976) dar, dass die APT nicht nur im Gleichgewicht der Märkte hält, sondern auch in beinahe allen anderen Situationen. Dies verschaffe der APT einen wichtigen Vorteil gegenüber dem Gleichgewichtsmodell CAPM.

Ein weiteres Argument, welches für die APT spricht, wird von Bodie, Kane und Marcus (2005) aufgeführt. Beim CAPM wird davon ausgegangen, dass alle (oder sehr viele) Investoren ihr Portfolio anpassen werden, sollte sich durch Bewegungen im Verhältnis zwischen erwarteter Rendite und Risiko einzelner Aktien die Zusammensetzung des effizienten Marktportfolios signifikant verändern. Auf diese Weise wird das gehaltene Portfolio wieder effizient und kann an die persönlichen Risiko- Präferenzen angepasst werden, was dann zu einem neuen Gleichgewicht in den Kapitalmärkten führt. Im Gegensatz dazu sind, falls mit Arbitrage-Möglichkeiten als Quelle des Ungleichgewichtes argumentiert wird, nur eine geringe Anzahl Arbitrageure notwendig um einen Preisausgleich zu erzielen, da das Ausmass, in welchem ein Arbitrageur aktiv wird, theoretisch unendlich hoch sein wird.[12] So führen Arbitragefreiheitsargumente zu einem rascheren Ausgleich möglicher Ungleichgewichte in den Märkten als es die Ausrichtung auf ein effizientes Marktportfolio erlaubt.

Auch Cochrane (2005) ist der Meinung, die APT sei aufgrund der Freiheit in der Wahl der Faktoren und der weniger restriktiven Annahmen attraktiver als das CAPM, allerdings sieht auch er Defizite in der Theorie.[13] Bodie, Kane und Marcus (2005) merken an, dass die APT, im Gegensatz zum CAPM, aufgrund des Fokus auf die Arbitragefreiheit und der weniger restriktiven Annahmen impliziert, dass das Verhältnis der erwarteten Rendite zum Risiko für die meisten, allerdings nie für alle, Aktien hält. Diese Aussage bezieht sich jedoch lediglich auf die Versionen der APT welche ein approximatives Pricing hervorbringen[14] und nicht auf das in Kapitel 5 verwendete Modell.

3 BESTIMMUNG DER FAKTOREN

Ein unübergehbarer Punkt auf dem Weg zu einem empirischen Test der APT ist die Bestimmung der Faktoren, welche in der Untersuchung verwendet werden sollen. Die Theorie schweigt sich zum Leiden vieler Forscher über die „wahre“ Identität dieser Faktoren aus. Aufgrund dieser Tatsache ist es unmöglich, die APT ausschliesslich auf den von ihr postulierten linearen Zusammenhang zwischen Aktienrenditen und den zugrunde liegenden Faktoren zu prüfen, da eine Untersuchung immer auch gleichzeitig einen Test der verwendeten Faktorkombination darstellt (Huberman & Wang, 2005). Die Anhänger der APT werden sich im Streben nach der optimalen Faktorkombination sowie deren ökonomischer Interpretierbarkeit noch lange mit der Theorie beschäftigen können. Sauer (1994) schliesst seine Untersuchung des deutschen Aktienmarktes mit der Bemerkung ab, dass es keine

„wahre“ Kombination relevanter Faktoren gibt, welche entsprechend für alle Fälle gilt, sondern lediglich eine gewisse Anzahl Faktoren, welche oft signifikante Werte erreichen.[15] Für die Bestimmung der Faktoren setzen Huberman und Wang (2005) zwei wichtige Kriterien fest, nämlich dass (a) die Variation in den ausgewählten Faktoren einen grossen Teil der in den Renditen der Wertpapiere beobachteten Variation zu erklären vermag, und (b) die unerklärten Teile der Variation in den Aktienrenditen untereinander approximativ unkorreliert sind.[16] Kiermeier (1998) nennt vier verschiedene Faktormodelle, welche unterschiedliche Methoden anwenden um geeignete Faktoren zu finden:

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Modelle zur Faktorbestimmung nach Kiermeier (1998)

Huberman und Wang (2005) nennen mit Ausnahme des non-linearen Modells die selben Methoden zur Generierung von Faktoren. Dabei weisen sie zusätzlich darauf hin, dass im fundamental factor model die in Frage kommenden Variablen genauer auf die Korrelation der verbleibenden unsystematischen Risiken geprüft werden als es im macroeconomic factor model der Fall ist, wo die Variablen hauptsächlich intuitiv selektiert werden.

Im Folgenden soll auf das macroeconomic factor model und auf das statistical factor model etwas vertieft eingegangen werden, zumal dies die beiden Methoden sind, welche in der Empirie die meiste Beachtung gefunden haben.

3.1 STATISTICAL FACTOR MODEL

Die frühesten empirischen Untersuchungen der Arbitrage Pricing Theorie wurden von Gehr (1978) und Roll und Ross (1980) unter Verwendung des statistischen Faktorbestimmungsmodells durchgeführt. Das Instrument, mit welchem dieses Verfahren durchgeführt wird, ist die Faktoranalyse. Es existieren zahlreiche Variationen dieser Methode, welche aber alle grundsätzlich dasselbe Ziel haben. Mittels der Faktoranalyse wird in der Korrelationsstruktur der Daten im Stützbereich nach Regelmässigkeiten gesucht, d.h. beispielsweise nach kleineren Gruppen innerhalb des Samples, in welchen die einzelnen Datenpunkte eine besonders hohe Korrelation aufweisen (Kim & Mueller, 1994). Mit Hilfe solcher Gruppen kann dann eine durch die Daten implizierte Faktorstruktur erkannt und festgehalten werden, was unter Anderem das Schätzen von zukünftigen Bewegungen ermöglicht.

In Anbetracht der APT liegt ein grosser Vorteil dieser Vorgehensweise darin, dass die Identität der Faktoren a priori nicht bekannt zu sein braucht, da die Faktoren direkt aus den vorhandenen Daten abgeleitet werden. So kann sichergestellt werden, dass in jedem Fall ein Portfolio (das sog. „ Arbitrage Portfolio “) konstruiert werden kann, welches keine Exposures gegenüber den Faktoren hegt (Chen & Jordan, 1993).[17] Problematisch hingegen ist die Sensitivität der abgeleiteten Faktoren bezüglich der Grösse und der Art des verwendeten Datensatzes, was beispielsweise zu verzerrten Resultaten führen kann, wenn die abgeleiteten Faktoren für Prognosemodelle mit Daten ausserhalb des erfassten Stützbereichs verwendet werden. Auch die Natur der Faktoren, welche sich jeglicher ökonomischen Interpretierbarkeit widersetzt, ist den Forschern ein Dorn im Auge (Chen & Jordan, 1993).

3.2 MACROECONOMIC FACTOR MODEL

Die Verwendung makroökonomischer Variablen als Faktoren erfreut sich in der Forschung grosser Beliebtheit und es existiert eine entsprechende Fülle an Fachliteratur. Chen, Roll und Ross lieferten 1986 eines der ersten und zugleich ein sehr erfolgreiches Modell dieser Art. Die Faktorkombination, welche sie zur Renditeerklärung verwendeten, wird in der Fachliteratur oft als besonders aussagekräftig angepriesen.[18] Die Stärken dieser Vorgehensweise liegen genau dort, wo die Faktoranalyse Schwächen aufweist. Wenn eine Kombination makroökonomischer Variablen Aktienrenditen zu erklären vermag, sind die Resultate unabhängig von der Grösse der verwendeten Stichprobe. Auch die ökonomische Interpretierbarkeit der Exposures und der Risikoprämien ist durch den direkten Bezug zur Wirtschaft offensichtlich gewährleistet. Die Bedingung jedoch, dass die Faktoren a priori bekannt sein müssen, eine Bedingung die mit der Faktoranalyse elegant umgangen werden kann, wirft wie bereits erwähnt einen Schatten der Unsicherheit über jede verwendete Faktorkombination. Hinzu kommen sowohl die Tatsache, dass viele ökonomische Zeitreihen untereinander eine hohe Korrelation aufweisen und damit ähnlich potent in der Erklärung von Renditen sind, als auch das Problem der wahrscheinlich zahlreichen Messfehler bei der Erhebung ökonomischer Daten oder der potentiell verfehlten Instrumentalisierung der Faktoren. Im Gegensatz zur Faktoranalyse ist durch die willkürliche Selektion einer handvoll Faktoren auch nicht gewährleistet, dass sich das „Arbitrage Portfolio“ konstruieren lässt (Chen & Jordan, 1993).

4 EMPIRISCHE TESTS DER APT

Die Diskussionen welche die APT auf empirischem wie auch auf theoretischem Gebiet auslöste, führten die Theorie auf einen stetigen evolutionären Pfad. Wie oben angesprochen waren zahlreiche Forscher an der Adaption von Ross’ (1976) ursprünglicher Intuition auf verschiedene Modelle beteiligt.[19] Ein weiterer viel diskutierter Punkt, der mit Rücksicht auf die empirische Relevanz der Theorie besonders zentral ist, betrifft die Testbarkeit der APT. Im Folgenden wird diese Diskussion kurz überblickt, wonach auf eine Auswahl wegweisender empirischer Untersuchungen eingegangen wird.

4.1 KRITISCHE BETRACHTUNG DER TESTBARKEIT DER THEORIE

Die Generalität der APT ist gleichzeitig ein fundamentaler Kritikpunkt wie auch die Quelle der Flexibilität und der Stärke des Modells (Kiermeier, 1998). Da weder die Art noch die Anzahl der zu verwendenden Faktoren spezifiziert ist, genauso wenig wie der Prozess zur Bestimmung der Faktoren, umschliesst eine empirische Untersuchung immer einen gemeinsamen Test des theoretischen Rahmens und der ausgewählten Faktoren.[20] Dies eröffnet eine unendliche Vielfalt von Möglichkeiten die Theorie zu testen, und führt zu der schieren Unmöglichkeit einer rein empirischen Falsifikation der APT, da die Menge der potentiellen Faktoren und deren Kombinationsmöglichkeiten so unüberschaubar gross ist. Abgesehen von diesem Punkt sind die Argumente, welche gegen eine empirische Validität der APT, sprechen rein theoretischen Ursprungs. Sie können als treibender Faktor für die in Abschnitt 2.3 erörterte Evolution der APT angesehen werden.

Der APT wurden von Ross (1976) ursprünglich entscheidende Vorteile für die empirische Testbarkeit gegenüber dem konkurrierenden CAPM zugesprochen, da das Marktportfolio in seiner Theorie keine zentrale Rolle spiele und es auf plausibleren Annahmen beruhe. Die hohe Zahl an empirischen Untersuchungen, welche in der Vergangenheit an der APT durchgeführt wurden, scheinen Ross' Argument zu bestätigen. Zahlreiche Forscher widersprachen dem jedoch, und so entstand ein bis in die Gegenwart ungelöster akademischer Diskurs. Shanken war einer der Hauptakteure des besagten Diskurses; er formulierte 1982 Shanken's critique, worin er mehrere Punkte auflistete, welche die Testbarkeit der APT verneinen sollten. Als Erstes werde die approximative Natur des Pricing-Modells nicht berücksichtigt[21] und zweitens sei die Theorie aufgrund der undeterminierten Faktorstruktur schon nicht testbar. Da das Modell von einer unendlichen Anzahl an Titeln ausgehe und empirische Untersuchungen aber lediglich mit einer endlichen Anzahl arbeiten können, sei drittens eine Verifikation der Theorie alleine deswegen schon unmöglich. Nach Shanken (1992) handelt es sich bei der APT also um eine Tautologie, eine mathematische Spielerei, welche sich nicht empirisch beweisen lässt. Als weiterer Kritikpunkt führt Shanken an, dass durch Asset- Kombinationen Inkonsistenzen in den Implikationen des Modells für Renditeerwartungen entstehen könnten (Oertmann, 1996).

Dybvig und Ross (1985) antworten Shanken, indem sie seinem letzten oben aufgeführten Argument die Relevanz für empirische Tests absprechen, da dort mit beobachteten Renditen gearbeitet wird und so keine Asset-Kombinationen (Portfolios) gebildet werden, welche wie in Shankens Kritik erforderlich grosse Leerverkaufspositionen oder sehr hohe Varianzen beinhalten (Oertmann, 1996). Reisman (1988 & 1992) hingegen unterstützt Shankens Kritik indem er zeigt, dass mit beinahe jeden mit den „wahren“ Faktoren korrelierenden Variabeln das approximative Pricing-Modell halten muss (Oertmann, 1996).

Shankens und Reismans Kritik bezieht sich auf die „originale“, von Ross 1976 erarbeitet und von Huberman (1982) und Ingersoll (1984) ergänzte, APT mit einem approximativen Pricing. Für diese Version der APT ist diese Kritik durchaus applikabel. Mit der Inkorporation von Argumenten, welche auf Nutzenmaximierung und einem Gleichgewichts-Setting beruhen[22] und dem daraus folgenden Postulat der Equilibrium APT durch Connor (1982 & 1984) und Chen und Ingersoll (1983), konnte jedoch eine Version der APT geschaffen werden, welche mit einer endlichen Anzahl Titel auskommt und das Pricing sogar exakt stimmte. Dieses Modell stellt nun eine prinzipiell durchaus testbare Hypothese. Ein Nachteil, welche dadurch jedoch entstanden ist, führt für die Untersuchung der APT zu ähnlichen Problemen wie sie beim CAPM auftreten, da die Formeln für die pricing bounds[23] genauso von dem unbeobachtbaren Marktportfolio abhängen wie das CAPM (Oertmann, 1996).

Doch auch diese Argumente überzeugen nach Oertmann (1996) nicht ganz. Er weist darauf hin, dass bei einer empirischen Untersuchung der APT stark darauf geachtet werden muss, welche Version der APT eigentlich getestet wird. Der Diskurs über die empirische und theoretische Validität der APT soll nun für den Rest dieses Papiers ad acta gelegt werden. Die APT wurde schon oft und in verschiedenen Märkten auf ihre Prognosefähigkeiten getestet, und meist wurde die auch intuitiv einleuchtende Grundaussage der Theorie zumindest teilweise bestätigt.

In der in Kapitel 5 vorgenommenen Untersuchung wird von einer approximativen Faktorstruktur ausgegangen, was bedeutet, dass die gewählten Faktoren nicht die gesamte Varianz der Renditen zu erklären vermögen. Die Herleitung der Theorie basiert auf Arbitragefreiheits- wie auch auf Gleichgewichtsargumenten, und der untersuchte Markt enthält lediglich eine endliche Anzahl an Einzeltiteln. Es kann also nach Abbildung 1 von einem Modell mit exaktem Pricing ausgegangen werden.

4.2 EMPIRISCHE TESTS

Im Folgenden werden nun einige kurze Zusammenfassungen ausgewählter empirischer Untersuchungen der APT aus der Vergangenheit präsentiert. Die Literatur zur Erklärung und Prognostizierbarkeit von Aktienrenditen ist sehr vielfältig,[24] und der Autor hat versucht, eine kleine Zusammenstellung möglichst unterschiedlicher Arbeiten zu berücksichtigen, wobei die Anzahl der Verweise auf die Tests in der Fachliteratur ebenfalls eine Rolle spielte. Es handelt sich jedoch keineswegs um eine abschliessende Sammlung der wichtigsten Arbeiten zum Thema.

4.2.1 „AN EMPIRICAL INVESTIGATION OF THE ARBITRAGE PRICING THEORY “ VON RICHARD ROLL UND STEPHEN A. ROSS (1980)

Diese Arbeit von Roll und Ross markiert eine der frühesten empirischen Untersuchungen der APT. Nachdem eingangs ein kurzer Vergleich mit dem CAPM angestellt und die APT formell hergeleitet wird, widmen sich die Autoren schnell der eigentlichen Untersuchung. Unter Verwendung der Methode der Faktoranalyse sollen Tagesrenditen der Aktien, welche an der New York Stock Exchange (NYSE) oder an der American Stock Exchange (AMEX) kotiert sind, erklärt werden. Der Test untersucht die Periode von Juli 1962 bis Dezember 1972.

In die Untersuchung werden insgesamt 1260 Titel einbezogen, welche alphabetisch in 42 Portfolios zu je 30 Einzeltiteln gruppiert werden. Für jedes dieser Portfolios bestimmen die Autoren anschliessend mit einer Maximum-Likelihood Faktoranalyse eine Faktorstruktur, für welche dann mit GLS (generalized least squares) Regressionen die Exposures und die Risikoprämien errechnet werden. Die Autoren wollen für alle Portfolios dieselbe Anzahl Faktoren verwenden, weswegen sie nach der Faktoranalyse in einzelnen Portfolios auch solche Faktoren in die Regressionsgleichung aufnehmen, in welchen sie kein grosses Erklärungspotential vermuten.[25] Die Schätzung der Exposures im nächsten Schritt sorgt dann dafür, dass für ein bestimmtes Portfolio irrelevante Faktoren nicht zu stark ins Gewicht fallen. Für die Untersuchung einigen sich die Roll und Ross auf die Verwendung von fünf Faktoren.

Das Resultat der Arbeit deutet darauf hin, dass vier signifikante Faktoren existieren. Lediglich 4.8% der Portfolios weisen eine Risikoprämien-Struktur mit fünf oder mehr Faktoren auf, was bei einem Signifikanz-Niveau von 5% beinahe perfekt den Erwartungen entspricht. Leider kann aufgrund der Natur der Untersuchung keine genauere Aussage über die Identität der gefundenen Faktoren gemacht werden, was jegliche ökonomische Interpretation verunmöglicht. Die Autoren weisen im Fazit des Papiers darauf hin, dass der Fokus der Forschung künftig in der Festlegung von bedeutungsvolleren Faktoren liegen sollte, was als eine Anspielung auf makroökonomische Variablen oder Firmencharakteristika aufgefasst werden kann.

4.2.2 „COMMONALITY IN THE DETERMINANTS OF EXPECTED STOCK RETURNS “ VON ROBERT A. HAUGEN UND NARDIN L. BAKER (1996)

Haugen und Baker gehen in ihrer Arbeit von der nicht ganz unprovokativen Prämisse eines ineffizienten Finanzmarktes aus. Diese Annahme impliziert, dass zukünftige Renditen mit den richtigen Informationen geschätzt werden können. Um dies zu verifizieren untersuchen die Autoren die monatlichen Renditen der Aktien des Russel 3000 Indexes für den Zeitraum zwischen 1979 bis 1993. Die markanteste Eigenschaft dieser Untersuchung liegt in der Anzahl der verwendeten Faktoren. Es werden über 40 Faktoren aus den fünf Kategorien Risiko, Liquidität, Preisniveau, Wachstumspotential und Preisgeschichte sowie Dummy-Variablen für einzelne Sektoren berücksichtigt. Die makroökonomischen Variablen, welche oft im Zusammenhang mit der APT verwendet werden,[26] genauso wie das Markt-Beta des CAPM, fallen dabei in die erste Kategorie. Frühere Arbeiten von Haugen hatten bereits gezeigt, dass die APT und das CAPM als Prognosemodelle oft schlecht abschneiden. Die APT hatte er dabei offensichtlich auf eine Version reduziert, welche ausschliesslich mit makroökonomischen Variablen als potentielle Faktoren arbeitet.

[...]


[1] Haugen und Baker (1996) verwenden die Methodik der APT ebenfalls erfolgreich um die Prognostizierbarkeit von Bondrenditen zu überprüfen.

[2] Vgl. beispielsweise Spremann (2005) oder Bodie, Kane und Marcus (2005).

[3] Stellenweise fand auch eine Anlehnung an Spremann (2003) statt.

[4] Um eine exakte Form der APT zu erhalten, sind zusätzlich Annahmen über die Nutzenfunktion der Anleger notwendig (Oertmann, 1996). In Abschnitt 2.3 wird etwas genauer darauf eingegangen.

[5] Die Identität dieser Faktoren ist seit langem Inhalt eines Diskurses in der Fachliteratur, auf die verschiednen Möglichkeiten soll in Kapitel 3 etwas detaillierter eingegangen werden.

[6] Die erwartete Rendite für eine Anlage i wird unter der Annahme der Risikolosigkeit dieser Anlage bestimmt, so dass keine Exposures gegenüber den Faktoren [Abbildung in dieser Leseprobe nicht enthalten] bestehen [Abbildung in dieser Leseprobe nicht enthalten] [Abbildung in dieser Leseprobe nicht enthalten] entspricht also der Rendite auf die risikolose Anlage (Roll & Ross, 1980).

[7] Um diesen Schritt nachzuvollziehen stellen Roll und Ross das Portfolio des fiktiven Investors so zusammen, dass es weder systematisches (summa summarum keine Exposures gegenüber den Risiko-behafteten Faktoren) noch unsystematisches (durch Portfoliobildung wegdiversifiziert) Risiko beinhaltet und so die erwarteten Renditen alleine mit den Gewichten und der Rendite der risikofreien Anlage kalkuliert werden können, was die erwartete Rendite des Portfolios unweigerlich mit der risikofreien Rendite gleichsetzt. Abweichungen davon führen zu Arbitrage (Roll & Ross, 1980).

[8] In Gleichung (1) gilt dementsprechend für das Exposure gegenüber [Abbildung in dieser Leseprobe nicht enthalten]: [Abbildung in dieser Leseprobe nicht enthalten].

[9] Eine strikte Faktorstruktur liegt vor, wenn die Residuen (d.h. der Teil der Variation der Renditen welcher nicht durch die ausgewählten Faktoren und die Konstante erklärt werden kann) der verschiedenen Titel untereinander unkorreliert sind, und so die systematische Varianz vollständig zu erklären vermögen (Steiner & Wallmeier, 1997).

[10] Bei einer approximativen Faktorstruktur vermögen die Faktoren die systematische Varianz nicht vollständig zu erklären (Oertmann, 1996).

[11] Vgl. Abschnitt 4.1.

[12] Arbitrage ist per Definition weder risikobehaftet, noch ist eigener Kapitaleinsatz erforderlich (vgl. Abschnitt 2.2).

[13] Vgl. Abschnitt 4.1.

[14] Vgl. Abschnitt 2.3.

[15] Nach Sauer (1994) sind dies die unerwarteten Veränderungen der langfristigen Zinsraten, der Geldmenge, der industriellen Produktion und der Exporte.

[16] Vgl. Abschnitt 2.2.2.

[17] Hier liegt die Grundlage der Legitimation der APT (vgl. Abschnitt 2.2.2, FN 5).

[18] Vgl. beispielsweise Spremann (2003 & 2005), Bodie, Kane und Marcus (2005) oder Chen und Jordan (1993).

[19] Vgl. Oertmann (1996).

[20] Oertmann (1996) verweist auf das bekannte „ joint hypothesis problem “, welches beim CAPM ebenfalls auftritt und eine kritische Betrachtung des Modells erschwert. Der Grund dafür liegt in der aus der gleichzeitigen Untersuchung multipler Theorien resultierenden Schwierigkeit, ein vorhandenes Problem seinem wahren Ursprung zuzuordnen.

[21] Die Idee der APT von Ross (1976), ergänzt von Huberman (1982) und Ingersoll (1984), führt lediglich zu einer approximativen Preisgleichung, welche für die meisten untersuchten Assets hält, aber für einzelne Titel stake Verzerrungen ergeben kann (Oertmann, 1996).

[22] Ross (1976) nutzte diese Annahmen in einer heuristischen Weise. Connor (1982/1984) verwendete diese Argumente um formell eine „Equlibrium APT“ mit approximativer Faktorstruktur herzuleiten, welche auch bei einer endlichen Anzahl Titeln dazu führt, dass die APT hält. Chen und Ingersoll (1983) vereinfachten Connors Modell und fanden, dass das resultierende Pricing Modell sogar exakt hält (Oertmann, 1996).

[23] Dybvig (1983) und Grinblatt und Titman (1983) entdecken, dass in einer Ökonomie mit einer beschränkten Anzahl Assets für die quadrierten Pricing-Fehler eine Decke besteht, dass sie also gebunden sind und einen bestimmten Wert nicht überschreiten (Oertmann, 1996).

[24] Nicht alle Untersuchungen auf potentielle Faktorstrukturen und deren Identität wurden im Namen der APT getätigt, oft endet die Untersuchung mit einer Bestimmung der Exposures (so dass es sich grundsätzlich um einfache multivariate Regressionen handelt).

[25] Ross und Roll (1980) finden, dass für 38.1% der Portfolios eine Wahrscheinlichkeit von über 90% besteht, fünf relevante Faktoren aufzuweisen, wobei über drei Viertel zumindest eine 50% Chance dafür aufweisen.

[26] Es sind dies Treasury Bill Renditen, %-Änderung in indusrieller Produktion, Inflationsrate, Differenz der Renditen von Staatsanleihen unterschiedlicher Laufzeit und die Differenz der Renditen von Corporate Bonds und Staatsanleihen (Haugen & Baker, 1996).

Ende der Leseprobe aus 67 Seiten

Details

Titel
APT und Renditeschätzung - Eine Untersuchung des deutschen Kapitalmarktes
Hochschule
Universität St. Gallen
Note
sehr gut (6,0)
Autor
Jahr
2006
Seiten
67
Katalognummer
V121617
ISBN (eBook)
9783640267668
ISBN (Buch)
9783640267682
Dateigröße
916 KB
Sprache
Deutsch
Schlagworte
Renditeschätzung, Eine, Untersuchung, Kapitalmarktes
Arbeit zitieren
B.A. HSG Economics Roman Meyer (Autor), 2006, APT und Renditeschätzung - Eine Untersuchung des deutschen Kapitalmarktes, München, GRIN Verlag, https://www.grin.com/document/121617

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: APT und Renditeschätzung - Eine Untersuchung des deutschen Kapitalmarktes


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden