Kritische Würdigung des Core-Satellite-Ansatzes aus kapitalmarkttheoretischer Perspektive


Diplomarbeit, 2008
109 Seiten, Note: 1,3

Leseprobe

Inhaltsverzeichnis

II. Tabellen- und Abbildungsverzeichnis

III. Abkürzungs- und Symbolverzeichnis

1. Einleitung

2. Der Core-Satellite-Ansatz
2.1. Idee und Konzeption
2.2. Das Treynor-Black-Modell: Ursprung des CSA
2.3. Erweiterungen und Unterschiede zum TBM
2.4. Erste Einschätzung

3. Empirische Erkenntnisse zur Markteffizienz
3.1. Der Effizienzbegriff
3.1.1. Die Effizienzmarkthypothese nach Fama
3.1.2. Markteffizienz nach Jensen
3.2. Empirie
3.2.1. Empirische Erkenntnisse zur Markteffizienz nach Fama
3.2.2. Empirische Erkenntnisse zur Markteffizienz nach Jensen
3.2.2.1. Öffentliche Märkte der entwickelten Industrieländer
3.2.2.2. Öffentliche Märkte der Schwellen- und Entwicklungsländer
3.2.2.3. Private Märkte
3.3. Beurteilung der empirischen Ergebnisse für den CSA

4. Theoretische Überprüfung des CSA
4.1 Die Theorie segmentierter Märkte
4.2. Indikatoren für Marktineffizienzen
4.3. Das Kapitalmarktmodell
4.3.1. Herleitung der Arbitrage-Pricing-Theory
4.3.2. Internationale Erweiterung der Arbitrage-Pricing-Theory
4.4. Theoretische Überprüfung der Portfolio-Separation

5. Kritische Beurteilung des CSA

6. Zusammenfassung und Ausblick

V. Literaturverzeichnis

II. Tabellen- und Abbildungsverzeichnis

Tab. 1: Prozentualer Anteil an US-Large-Cap-Investmentfonds, die im jeweiligen Zeitraum nicht die Rendite des genannten Ver- gleichsindex übertreffen konnten

Tab. 2: Fundamental Indexing generiert positive abnormale Renditen ...

Tab. 3: Renditeabweichungen im aktiven Management nach Märkten

Tab. 4: Übersicht der aus der Empirie abgeleiteten Erkenntnisse

Abb. 1: Prozess der Vermögenstrukturierung nach dem Core-Satellite- Ansatz

III. Abkürzungs- und Symbolverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

Die Gestaltung der Strategischen Asset Allocation stellt eine umfangreiche und komplexe Aufgabe dar, zu der die Literatur zahlreiche Lösungsansätze bereitstellt. Eine davon ist der Core-Satellite-Ansatz (CSA). Die Wurzeln des CSA liegen im Treynor-Black-Modell und dem Specialist-Approach, wodurch sich die Aufteilung eines Portfolios in zwei Teilportfolios mit ei- nem Multi-Manager-Ansatz erklärt. Durch diese Portfolio-Separation in ein (eher) passiv verwaltetes Core-Portfolio und ein aktiv verwaltetes Satellite- Portfolio wird den verschiedenen Aufgaben eines institutionellen Portfolios – der Bereitstellung von Zahlungsströmen zur Bedienung von Verbindlich- keiten bei gleichzeitiger Vermögensmehrung – Rechnung getragen. Es soll zudem ein effizienter Einsatz von Managementgebühren und ein präziser Überblick über das mit den Anlagen verbundene Risiko erreicht werden. Auf diesem Weg wird für das Core-Satellite-Portfolio insgesamt eine Netto- Rendite angestrebt, die dauerhaft risikoadjustiert über der Marktrendite des jeweiligen Anlageuniversums liegt. Eine Fundierung der Separation eines Portfolios in ein Core- und ein Satellite-Portfolio aus kapitalmarkttheore- tischer Sicht liegt dabei bislang jedoch noch nicht explizit vor.

Ziel dieser Arbeit ist es, den Core-Satellite-Ansatz kritisch zu beurteilen und festzustellen, ob dieser dauerhaft erfolgreich sein kann oder nur eine marke- tingwirksame Modeerscheinung darstellt. Hierzu wird nach einer kurzen Be- schreibung der Idee und Konzeption des CSA sowie einer ersten Beurtei- lung (Kapitel 2), die Aufteilung von verschiedenen Märkten auf das Core- und das Satellite-Portfolio aufgrund der Vermutung differierender Effizienz- grade anhand von Ergebnissen aus der empirischen Forschung geprüft (Ka- pitel 3). Die gewonnenen Erkenntnisse werden dann theoretisch interpre- tiert, wobei insbesondere auf die Theorie segmentierter Märkte eingegangen wird und einige Schlüsselfaktoren für die Effizienz eines Marktes abgeleitet werden. Nachdem die Bedeutung dieser Einsichten für den CSA herausgear- beitet wurde, wird anschließend deren Konformität mit einer Kapitalmarkt- theorie (APT) geprüft (Kapitel 4), wodurch eine kritische Beurteilung mög- lich wird (Kapitel 5). Ein kurzes Fazit schließt die Arbeit ab (Kapitel 6).

2. Der Core-Satellite-Ansatz

2.1. Idee und Konzeption

Zur Strukturierung institutioneller Vermögen gibt es in der Literatur eine Vielzahl von Ansätzen. In jüngerer Vergangenheit bedienen sich institutio- nelle Anleger – insbesondere in den USA und Großbritannien, aber auch in Kontinentaleuropa – mehr und mehr des Core-Satellite-Ansatzes zur Bewäl- tigung dieser Aufgabe.[1] Diese Entwicklung kann darauf zurückgeführt wer- den, dass seit Beginn der 90er-Jahre bei der Vergabe von Mandaten zur

Vermögensverwaltung neben den Kriterien (Brutto-)Rendite und Risiko auch die Frage nach einer effizienten Verwendung der Kosten eines Asset- Managements in den Fokus rückte, da ein Großteil der aktiven Vermögens- verwalter und professionellen Investmentmanager nur enttäuschende risiko- adjustierte Netto-Ergebnisse erzielt und eine vorgegebene Benchmark bzw. einen breit angelegten Marktindex nach Kosten selten dauerhaft übertrifft.[2] Der Core-Satellite-Ansatz (CSA) konzentriert sich bei der Frage nach der Gestaltung der Strategischen Asset Allocation daher insbesondere auf eine kosteneffiziente Aufteilung des zu investierenden Kapitals und folgt dabei dem ökonomischen Grundprinzip, Aufwendungen dort zu konzentrieren, wo diese den größten Nutzen erwarten lassen. Darüber hinaus soll das mit dem Investment – und den damit verfolgten Verwendungszwecken – verbundene Risiko hierbei übersichtlich und gut kontrollierbar bleiben. Der CSA sieht deshalb die Aufteilung eines zu verwaltenden Vermögens in zwei Bereiche vor: ein (eher) passiv verwaltetes Core- und ein aktiv verwaltetes SatellitePortfolio.[3] Das Core-Portfolio ist folgerichtig durch ein Buy-and-Hold ge- kennzeichnet und besteht im praktischen Asset-Management aus indexrepli- zierenden[4] und/oder indexnahen[5] Investments, welche das Rendite-Risiko- Erweiterung des finanziellen Handlungsspielraums der Institution zu, sodass das Risikobudget hier großzügiger ausfällt, um das Anlageuniversum nicht unnötig einzuschränken.

Vorschläge für eine mathematisch-analytische Optimierung der Relation zwischen Core- und Satellite-Portfolio finden sich in der Literatur.[6] Dabei unterliegt das Core-Portfolio – insbesondere im Hinblick auf das mit dem Investment verbundene Risiko – strengeren Restriktionen als das Satellite- Portfolio, da die hier erwartete Rendite oft zur Bedienung zukünftiger Zah- lungsverpflichtungen vorgesehen ist (z. B. bei Versicherungen oder Stiftun- gen im Rahmen eines Asset-Liability-Managements). Dem Satellite-Portfo- lio kommt hingegen in der Regel die Aufgabe der Vermögensmehrung zur Tracking-Error (wird auch Nachbildungsfehler oder Abweichungsrisiko genannt) misst das Risiko, die Rendite einer vorgegebenen Benchmark zu verfehlen und wird daher üblicherweise als Risikomaß im Zusammenhang mit dem Core-Portfolio ge- wählt. Er kann aber auch zur Risikosteuerung des gesamten Core-Satellite-Portfolios genutzt werden (vgl. Amenc et al., 2004). Der Tracking-Error ist in der Praxis beliebt, da ggf. auch eine Vorgabe in Form eines Shortfall-Risikos, d. h. die Wahrscheinlich- keit eine vordefinierte negative aktive Performance zu unterschreiten, (unter der An- nahme symmetrisch verteilter aktiver Renditen) in eine entsprechende Vorgabe des Tracking-Errors überführt werden kann (vgl. Bayer et al., 2003, S. 542).

2.2. Das Treynor-Black-Modell: Ursprung des CSA

Der Core-Satellite-Ansatz kann aufgrund seiner Merkmale auf einen im Jahr 1973 veröffentlichten Aufsatz von Jack Treynor und Fischer Black zurück- geführt werden, in dem ein Konzept zur Integration eines aktiven Manage- ments in den Asset-Allocation-Prozess vorgestellt wird.[7] In ihrer Studie – deren Ergebnis heute als Treynor-Black-Modell (TBM) bekannt ist – wird erstmalig ein optimales Portfolio konzipiert, das explizit in ein aktiv und ein passiv verwaltetes Teilportfolio separiert ist[8]. Motiv dieser Arbeit war die Überzeugung, dass Wertpapieranalyse und -selektion bei richtiger Imple- mentierung einen positiven Wertbeitrag in einem diversifizierten Portfolio leisten können, welcher bis dahin jedoch – auch durch professionelle Invest- mentmanager – noch nicht nachhaltig nachgewiesen werden konnte.[9] Ohne eine solche Theorie argumentierte unter anderem Sharpe, dass Anleger, die keinen eine vom Marktkonsens abweichende Erwartung generierenden In- formationsvorsprung haben, idealerweise ein repliziertes Marktportfolio passiv halten sollten.[10] Aus Sicht der Autoren war es selbst Anlegern, die für eine begrenzte Anzahl von Wertpapieren über einen Informationsvorteil gegenüber dem Markt verfügten und in der Lage waren diesen in Erwartun- gen hinsichtlich deren Kursentwicklung zu transformieren, nicht möglich in- nerhalb der bis dato bekannten Theorien zur Portfolioselektion vorteilhaf- tere diversifizierte Portfolios zu konstruieren, als ohne dieses Wissen. Eine Kenntnis der jeweiligen Richtung der Kursentwicklung ist zur Anwendung dieser Portfolioselektionsalgorithmen[11] nämlich nicht ausreichend, vielmehr müssen die exakten Werte für die erwartete Rendite, die Varianzen und die Kovarianzen aller für das Portfolio in Betracht kommender Wertpapiere als Input bekannt sein. Das Treynor-Black-Modell zeigt nun, wie ein Investor sein Vermögen – unter den zentralen Annahmen heterogener Erwartungen für die Kursentwicklung einer kleinen Anzahl von Wertpapieren gegenüber dem Markt und der Gültigkeit des CAPM und des Marktmodells von Shar- pe[12] – in ein das Marktportfolio approximativ replizierendes passives Port- folio und ein aktives Portfolio mit einer begrenzten Anzahl von Wertpapie- ren, für welche der Investor (z. B. durch Wertpapieranalyse) durch einen In- formationsvorsprung heterogene Erwartungen gegenüber dem Markt hat, aufteilen kann. Über eine lineare Optimierung[13] wird anschließend ein ins- gesamt optimales Portfolio kreiert.[14] Dieses riskante Portfolio ist dann der ideale Kompromiss aus einer breiten, das unsystematische Risiko weitest- gehend eliminierenden, Diversifikation und der Implementierung einer akti-

ven Wertpapierselektion zur Ausnutzung individueller Informationsvor- sprünge gegenüber den anderen Marktteilnehmern.Sobald der Informationsvorsprung des Anlegers durch den Markt aufgeholt wurde und in die entsprechenden Titel im aktiven Portfolio eingepreist ist, werden diese ausgetauscht und möglichst durch neue Wertpapiere ersetzt. Infolgedessen ergibt sich im Gegensatz zum passiven Portfolio (analog zum Satellite-Portfolio) ein reger Handel im aktiven Portfolio. Sollten dem In- vestor zu einem Zeitpunkt keine Informationen vorliegen, die eine Unter- bzw. Übergewichtung einzelner Titel im aktiven Portfolio rechtfertigen, bleibt das passive Portfolio das optimale Portfolio und wird exklusiv gehal- ten. Kritisch anzumerken bleibt an dieser Stelle, dass Treynor/Black bei ih- rem eleganten Ansatz zur sinnvollen Integration eines aktiven Manage- ments in die Asset Allocation keine Angaben zu den für die in ihrem Modell verwendeten Verfahren für die Prognosen von Renditen und Risiko machen. Es wird davon ausgegangen, dass die Investoren ihre Informationen in ex- akte Erwartungen hinsichtlich der zukünftigen Renditen von Wertpapieren sowie des damit verbundenen Risikos übersetzen können und Prognosen für die Entwicklung des gesamten Marktes allen Marktteilnehmern gleicher- maßen zur Verfügung stehen, sodass das Aufspüren über- bzw. unterbewer- teter Titel möglich ist.

2.3. Erweiterungen und Unterschiede zum TBM

Der Core-Satellite-Ansatz wurde ausgehend vom Treynor-Black-Modell in- sofern weiterentwickelt, als dass nicht der Anleger selbst auf die Suche nach über- bzw. unterbewerteten Wertpapieren auf einem Markt geht oder selbst versucht, ein Marktportfolio zu replizieren, sondern lediglich die Märkte in- nerhalb eines zu definierenden Anlageuniversums bestimmt, auf denen er sich aufgrund seiner Markteinschätzung eher passiv oder aktiv engagieren möchte. Anschließend vergibt der Investor für jeden Markt ein oder mehrere Mandate an spezialisierte Experten (z. B. Fonds-Manager), welche die In- dex- bzw. die Benchmarknachbildung oder das aktive Handeln übernehmen (Specialist-Approach).[15] Auf diesem Weg wird speziell die anspruchsvolle Aufgabe der Wertpapieranalyse und -selektion an Stellen abgegeben, an de- nen das nötige Know-How vermutet wird. Dabei greift der Core-Satellite- Ansatz die Annahme heterogener Erwartungen der Marktteilnehmer aus dem Modell von Treynor und Black dahingehend auf, dass die Anleger of- fensichtlich ein aktives Engagement auf verschiedenen Märkten als unter- schiedlich lukrativ einstufen.

Trotz der übernommenen Idee der Separation von aktivem und (eher) pas- sivem Management wird durch die Konzentration auf die Analyse verschie- dener Märkte im Core-Satellite-Ansatz deutlich, dass dieser auf der Ebene der Strategischen Asset Allocation anzusiedeln ist, während das Treynor- Black-Modell einen taktischen Ansatz darstellt, da nach einzelnen über- bzw. unterbewerteten Wertpapieren gesucht wird. Hieraus ergibt sich auch ein divergierendes Verständnis im Hinblick auf das aktive Risiko. Im Trey- nor-Black-Modell wird versucht, im aktiven Portfolio eine Überrendite ge- genüber dem Markt allein durch die Selektion einiger weniger Wertpapiere zu erzielen, für welche Informationsvorsprünge gegenüber dem Markt vor- liegen. Das aktive Risiko besteht hier aufgrund des niedrigen Diversifika- tionsgrades fast ausschließlich aus unsystematischen Risiken. Anders im Core-Satellite-Ansatz: Während das passive Portfolio im Modell von Trey- nor und Black naiv und das aktive Portfolio im Prinzip gar nicht diversi- fiziert ist, können im CSA zwar einzelne Manager eine Strategie wie sie vom Treynor-Black-Modell propagiert wird wählen, jedoch wird durch den Multi-Manager-Ansatz im Core- und im Satellite-Portfolio jeweils ein hohes

Diversifikationsniveau angestrebt.[16] Das aktive Risiko setzt sich demzufolge idealerweise nur aus systematischen Risiken aus der Über- bzw. der Unter- gewichtung von Märkten oder Marktsegmenten und der Anwendung eines bestimmten Investment-Stils auf einem Markt oder einem Marktsegment zu- sammen. Das Risiko im Core-Portfolio spiegelt dann das gewichtete syste- matische Risiko der jeweiligen Märkte approximativ wider, sodass Ab- weichungen von dem Rendite-Risiko-Profil des jeweiligen Index und von der Benchmark für das gesamte Core-Portfolio über den Tracking-Error kontrolliert werden können. Der Grad der Abweichung vom Rendite-Risiko- Profil der jeweiligen Benchmark ist dabei abhängig von den eingegangenen aktiven Risiken (z. B. durch den Versuch einer Index-Optimierung). Das verbleibende aktive Risikobudget kann anschließend auf die für das Satel- lite-Portfolio ausgewählten Märkte bzw. den zum Bearbeiten dieser Märkte benannten Manager verteilt werden.[17] Da das Satellite-Portfolio insgesamt

ebenfalls gut diversifiziert ist, kann das unsystematische Risiko auch hier vernachlässigt werden und die Risikosteuerung des Core-Satellite-Portfolios insgesamt über die Portfoliobetas der Teilportfolios[18] erfolgen. Für die Di- versifikation des Gesamtportfolios wäre es folglich optimal, wenn die ge- wählten Märkte im Core- und im Satellite-Portfolio untereinander und ge- geneinander niedrig oder gar negativ korreliert wären.

2.4. Erste Einschätzung

Auf den ersten Blick ist der Core-Satellite-Ansatz ein intuitiv zugänglicher Ansatz zur Gestaltung einer individuellen Strategischen Asset Allocation ei- nes institutionellen Investors, durch den Kapital kosteneffizient angelegt und ein angestrebtes Rendite-Risiko-Profil – auch unter Berücksichtigung unterschiedlicher Anforderungen an die Teilportfolios – durch die zugleich übersichtliche Verteilung und relativ unproblematische Kontrolle des akti- ven Risikobudgets erreicht werden kann. Durch die Fokussierung auf die Strategische Asset Allocation und der Übertragung von tiefergehenden ana- lytischen und taktischen Aufgaben an Spezialisten des jeweiligen Marktes, trägt der CSA der Beobachtung von Brinson et al. Rechnung, dass der Groß- teil der positiven Renditen institutioneller Investments durch die Asset Allo- kation generiert wird.[19]

Für eine kritische Beurteilung des Core-Satellite-Ansatzes gilt es nun ins- besondere dessen Hauptaussage der Portfolio-Separation, das heißt den Zu- sammenhang zwischen der Auswahl eines Marktes für das (eher) passive Core- oder das aktive Satellite-Portfolio und der Beurteilung über dessen Effizienz, genauer zu untersuchen. Dieser wird bislang weitestgehend ohne explizite theoretische Fundierung akzeptiert und konkrete Kriterien zur Be- stimmung des Effizienzgrades eines Marktes bleiben größtenteils offen. Zu- nächst werden hierfür die empirischen Befunde zu unterschiedlichen Defini- tionen des Effizienzbegriffs auf verschiedenen Märkten untersucht, um fest- zustellen, ob und inwieweit Märkte, Marktgruppen und -segmente tatsäch- lich unterschiedliche Effizienzgrade aufweisen.

3. Empirische Erkenntnisse zur Markteffizienz

3.1. Der Effizienzbegriff

3.1.1. Die Effizienzmarkthypothese nach Fama

Wenig ist in der Kapitalmarktforschung so intensiv diskutiert und umfang- reich untersucht worden wie die Frage nach dem Grad der Markteffizienz. Hierbei ist im Laufe der Zeit eine fast unüberschaubare Vielfalt an Literatur entstanden, ohne bis heute eine abschließende Antwort bereitzustellen.

Wenn in der Literatur von Markteffizienz gesprochen wird, dann bezieht sich dies zumeist auf die sogenannte Informationseffizienz, also darauf, wie schnell die Marktteilnehmer Informationen in Erwartungen umsetzten, da- raufhin handeln, und diese sich somit in den Kursen von Wertpapieren wi- derspiegeln. Eine umfassende – von Beginn an nicht unumstrittene[20] – De- finition von Markteffizienz, die sich in der Literatur durchgesetzt hat, gab Fama. Nach Fama ist ein Kapitalmarkt als informationseffizient einzustufen, wenn Wertpapierkurse zu jeder Zeit jedwede verfügbare Information voll- ständig reflektieren (Effizienzmarkthypothese).[21] Diese Interpretation kann auf Muth’s Konzept der rationalen Erwartungen zurückgeführt werden, wel- ches besagt, dass in einer Ökonomie keine Information ungenutzt bleibt.[22] Fama teilte die Effizienz eines Marktes in drei unterschiedliche Stufen auf: die schwache, die halb-strenge und die strenge Informationseffizienz. Märk- te sind demnach schwach informationseffizient, wenn bereits alle Informa- tionen der Vergangenheit in den Wertpapierkursen enthalten sind. Auf halb- streng informationseffizienten Märkten reflektieren die Wertpapierpreise zusätzlich alle öffentlich verfügbaren Informationen und eine strenge Infor- mationseffizienz liegt vor, wenn ferner auch nicht öffentliche (Insider-) In- formationen in den Wertpapierkursen eingepreist sind.

Bedingungen für die strenge Effizienz eines Marktes wären, dass jede Infor- mation jedem Marktteilnehmer kostenlos zur Verfügung stünde, homogene Erwartungen der Anleger hinsichtlich der Wirkung von Informationen auf die Wertpapierkurse vorlägen und keine Transaktionskosten beim Handel mit Wertpapieren anfielen.[23] Da unstrittig ist, dass Kosten für die Beschaff- ung und Verarbeitung von Informationen und daraus folgenden Transaktio- nen unvermeidbar sind, ist die strenge Form der Markteffizienz – auch für Fama selbst – keine realistische Alternative.[24] Die wissenschaftliche Diskus- sion dreht sich daher vorwiegend um die schwache und halb-strenge Form der Informationseffizienz. Bereits die schwache Informationseffizienz eines Marktes würde implizieren, dass der Einsatz einer technischen Analyse[25] von Wertpapieren (Charttechnik) keine Überrendite generieren kann, da Da- ten aus der Vergangenheit keinen Aufschluss über die Kursentwicklung in der Zukunft geben.[26] Auf einem halb-streng informationseffizienten Markt würde darüber hinaus auch eine fundamentale Wertpapieranalyse keine Ü- berrendite mehr generieren, da alle öffentlich verfügbaren Informationen (z. B. Gewinnprognosen) bereits in den Wertpapierkursen enthalten wären und somit kein Anleger ohne Insiderinformationen einen Informationsvor- sprung hätte, den er durch ein aktives Handeln am Markt ausnutzen und in eine Rendite über der Marktrendite transformieren könnte.[27]

Unterstützt wurde die Effizienzmarkt Hypothese Fama’s durch die Random- Walk-Theory, die Malkiel im Zuge der Debatte um die Markteffizienz wie- der in den Fokus der Kapitalmarktforschung rückte.[28] Diese besagt, dass Wertpapierkursbewegungen auf Kapitalmärkten nicht vorhersehbar, sondern (ex-ante) völlig zufällig sind. Enthalten nämlich die Wertpapierkurse bereits alle zurzeit verfügbaren Informationen, können diese nur auf neue, unvor- hersehbare Informationen reagieren und müssen damit ebenfalls unvorher- sehbar sein. Kursbewegungen sind damit unabhängig voneinander und haben alle dieselbe Wahrscheinlichkeitsverteilung, das heißt die Wahrschein- lichkeit, dass sich der Kurs eines Wertpapiers positiv oder negativ verän- dert, ist für jedes Wertpapier gleich und eine Prognose unmöglich. In der Theorie wird allerdings davon ausgegangen, dass sich die Wertpapierkurse über einen langfristigen Zeitraum insgesamt positiv entwickeln, da die Marktteilnehmer eine positive Rendite als Entschädigung für den Zeitwert- verlust des eingesetzten Kapitals und für das eingegangene Risiko fordern. Aus der Random-Walk-Theory kann also ebenfalls abgeleitet werden, dass auf technischer und/oder fundamentaler Analyse beruhende Anlagestrate- gien auf effizienten Kapitalmärkten keine positiven abnormalen Renditen generieren können.

Das Problem mit den verschiedenen Facetten der Markteffizienz nach Fama ist ihre Untestbarkeit aufgrund des Dilemmas der verbundenen Hypothesen („problem of joint-hypothesis“).[29] Die Annahme eines informationseffizien- ten Marktes, also ob Informationen sich auf diesem Markt „richtig“ in den Wertpapierkursen widerspiegeln, muss mit einer gleichgewichtigen Kapital- markttheorie getestet werden, indem über deren Hypothesen die theoretisch „richtigen“ Preise im Marktgleichgewicht bestimmt werden. Da jedoch kei- ne vollkommen akkurat auf die Realität übertragbare Kapitalmarkttheorie existiert, kann bei einer Abweichung zwischen realen Kursen und theore- tischen Gleichgewichtskursen nicht differenziert werden, inwiefern diese Abweichung aus einer mangelnden Markteffizienz oder einer Nichterfül- lung der Prämissen der für die theoretische Preisbestimmung verwendeten Kapitalmarkttheorie entsteht. Des Weiteren liegt den gleichgewichtigen Ka- pitalmarkttheorien (CAPM, APT) selbst die Annahme homogener Erwartungen[30] bzw. informationseffizienter Märkte zugrunde. Eine Lösung dieser

Problematik – und eine damit verbundene quantitative Bestimmung eines Grades der Marktineffizienz – ist aus diesen Gründen auch nicht in Sicht:

“It is a disappointing fact that, because of the joint hypothesis problem, pre- cise inferences about the degree of market efficiency are likely to remain impossible.”[31]

3.1.2. Markteffizienz nach Jensen

Der preisorientierten Definition von Kapitalmarkteffizienz Fama’s steht die performanceorientierte Definition Jensens gegenüber, welche sich in der Li- teratur ebenfalls durchgesetzt hat.[32] Jensens Definition erweitert die sich mit dem Verhalten von Wertpapierpreisen im Zeitablauf beschäftigende Be- griffsbestimmung Fama’s um den Kostenaspekt.[33] Nach Jensen ist ein Kapi- talmarkt informationseffizient, wenn es den Marktteilnehmern nicht mög- lich ist, auf Basis aller verfügbaren Informationen einen ökonomischen Ge- winn durch aktives Handeln auf diesem zu erzielen. Der ökonomische Ge- winn ist dabei als risikoadjustierte Nettoperformance über der Marktrendite definiert.[34] Ein Markt ist also ineffizient, sofern auf diesem nach Abzug der Kosten für die Beschaffung und Auswertung für Informationen (Research) und den daraus folgenden Transaktionen dauerhaft eine risikoadjustierte Überrendite durch ein aktives Handeln erwirtschaftet werden kann und so der Nutzen des aktiven Handelns dessen Kosten übersteigt. In anderen Wor- ten: Ein vollkommener Kapitalmarkt ist zwangsläufig ein effizienter Markt, aber ein nach Jensen ökonomisch effizienter Markt muss nicht zwangsläufig vollkommen sein. Zur ökonomischen Effizienz dürfen die Ineffizienzen ei- nes Marktes lediglich nicht ein solches Ausmaß haben, dass Investoren sie dauerhaft systematisch nutzen können. Diese schwächere Auslegung der Markteffizienz sieht auch Fama als sinnvoll an, da sie ökonomisch sensibler und damit zugänglicher ist als seine Definition.[35] Nach Jensens Interpreta- tion kann die Markteffizienz somit an dem Erfolg von professionellen In- vestmentmanagern gemessen werden, da diese versuchen die Marktrendite durch eine technische und/oder fundamentale Analyse des Marktes und ein- zelner Wertpapiere sowie verschiedenster Handelsstrategien und Anlageve- hikel zu übertreffen und dabei Kosten für Research und Transaktionen auf sich nehmen. Sollte es ihnen gelingen, den Markt in Form einer passiven >Benchmark dauerhaft risikoadjustiert zu schlagen, so wären die Märkte, auf denen dies gelänge, nicht ökonomisch effizient. Gelingt es nicht, so können die betrachteten Märkte nach Jensen als ökonomisch effizient angesehen werden.

Die Formulierung einer geeigneten Benchmark ist in diesem Zusammen- hang keineswegs trivial. Damit die Benchmark eines Portfolios als ein sich am Kapitalmarkt orientierender Maßstab des Anlageerfolgs dienen kann, müssen in ihr die langfristigen Zielvariablen des Investors (Rendite, Risiko und Liquidität) aggregiert werden, sodass die Benchmark das am Markt re- alisierbare Rendite-Risiko-Profil des Anlegers ausdrückt und dadurch die

Synthese zwischen Anlegerzielen und Marktmöglichkeiten bildet.[36] Auf die-

sem Weg kann eine durch aktives Handeln erzielte Rendite in einem Portfo- lio in Relation zu einer entsprechenden Marktrendite gesetzt werden. Der Markt wird an dieser Stelle in der Regel durch einen oder die Kombination aus mehreren Marktindizes[37] aproximiert. Aus dieser Definition folgt, dass eine Benchmark möglichst investorspezifisch sein sollte, da standardisierte

Benchmarks (z. B. ein Marktindex für ein Portfolio) nur in Ausnahmefällen diversifizierte Portfoliostrukturen abbilden können. In Anlehnung an Sharpe gibt es darüber hinaus bestimmte Kriterien, die eine Benchmark zu erfüllen hat.[38] Die Benchmark sollte real darstellbar, kostengünstig erwerbbar und r gut diversifiziert sein. Des Weiteren sollte die Benchmark bereits vor dem Treffen der Anlageentscheidung bekannt sein und den gleichen Re- striktionen unterliegen wie das dargestellte Portfolio. Insgesamt gewähr- leisten diese Kriterien dann, dass die ausgewählte Benchmark risikoad- justiert nicht leicht durch das aktive Engagement des Investors übertroffen wird, da sonst die Frage, ob und in welcher Höhe eine Rendite über der des Marktes (positive abnormale Rendite) erzielt worden ist, nicht realistisch beantwortet werden kann. Mit einer nach diesen Kriterien konstruierten Benchmark kann die Definition der ökonomischen Markteffizienz von Jen- sen im Gegensatz zu den Formulierungen von Fama relativ leicht getestet werden.

3.2. Empirie

3.2.1. Empirische Erkenntnisse zur Markteffizienz nach Fama

Auch wenn der exakte Grad der Effizienz eines Marktes nicht bestimmt werden kann, so haben die Begriffsbestimmungen der Effizienzmarkthypo- these nach Fama doch einen enormen Wert für die Debatte um die Effizienz von Kapitalmärkten, da verschiedene Stufen von Markteffizienz theoretisch sauber artikuliert wurden und so ein Modell bieten, anhand dessen sich die Realität näherungsweise beschreiben lässt. Auf Basis dieser Definitionen Fama’s entstanden außerdem zahlreiche empirische Studien über die Wirk- ungsgeschwindigkeit von öffentlichen Informationen („event studies“) und der Auswirkung von Insiderinformationen auf Wertpapierkurse („tests for private information“) sowie zahlreiche Arbeiten zur Prognosekraft histo- rischer Daten und verschiedenster finanzwirtschaftlicher Kennzahlen im Hinblick auf die zukünftige Entwicklung von Wertpapierkursen („tests for return predictability“). Hierdurch konnte zwar angesichts des Problems der verbundenen Hypothesen kein exakter Grad der Effizienz eines Marktes be- stimmt werden, es ergaben sich aber neue und tiefere Einsichten in die Funktionsweise von Märkten und es entstand eine fruchtbare Diskussion um das Auftreten von Kapitalmarktanomalien und zur Prognose von Wertpa- pierkursen. Im Folgenden wird ein kurzer Überblick der gewonnenen Er- kenntnisse auf verschiedenen Märkten gegeben. Da es jedoch leider an For- schungsarbeiten für andere Märkte mangelt, beziehen sich die Ergebnisse – wenn nicht anders ausgewiesen – auf die Aktienmärkte für Großunterneh- men in den USA.

Ereignisstudien

Im Rahmen von Ereignisstudien („event studies“), also der Tests über die Wirkungsgeschwindigkeit von öffentlichen Informationen auf die Wertpa- pierkurse des jeweiligen Marktes – und damit der halb-strengen Informa- tionseffizienz nach Fama –, ergeben sich kaum Zweifel an dieser Lesart von Effizienz der Large-Cap-Märkte der USA[39], Großbritannien[40] und der gro- ßen Industrienationen Kontinentaleuropas[41] (z. B. Deutschland, Frankreich, Spanien), da sich Aktienkurse hier stets schnell auf das Bekanntwerden fir- menspezifischer Informationen hin adjustieren. Kleinere, vorhandene Ineffi- zienzen können auf diesen Märkten durch die mit einer fundamentalen Ana- lyse verbundenen Kosten und den aus der Umsetzung der Ergebnisse dieser entstehenden Transaktionskosten nicht (dauerhaft) gewinnbringend ausge- nutzt werden.[42] Fama weist darauf hin, dass Ereignisstudien auf der Grund- lage von Tageskursen in diesem Zusammenhang die höchste Beweiskraft für die Effizienz eines Marktes besitzen, da sie nur vernachlässigbar gering unter dem Problem der verbundenen Hypothesen leiden.[43]

Insiderinformationen

Aus Tests bezüglich der Wirkung von Insiderinformationen auf die Kurse von Wertpapieren („tests for private information“) ergeben sich kontrover- sere Ergebnisse. Bereits in frühen Studien[44] wurde nachgewiesen, dass Insi- der[45] in den USA über Informationen verfügen, die nicht in Wertpapierkur- sen enthalten sind. Hieraus wurde dann abgeleitet, dass die strenge Form der Markteffizienz nach Fama nicht hält. Allerdings ist es Outsidern anschein- end auch nicht gelungen, diese Ineffizienzen auszunutzen.[46] Neuere Unter- suchungen konzentrieren sich daher verstärkt auf Informationsvorsprünge professioneller Investmentmanagern und deren Fähigkeit, diese in positive abnormale Renditen zu übersetzen. Hier beginnt auch die Kontroverse, da in manchen Arbeiten eine signifikant höhere Informationsansammlung bei pro- fessionellen Investmentmanagern und deren Ausnutzung nachgewiesen wer- den kann[47], während anderen Arbeiten[48] gegenteiliges belegen.

Der Grund für diese divergenten Ergebnisse liegt in der Methodik zur Be- stimmung der abnormalen Rendite (Modellwahl, Problem der verbundenen Hypothesen) und unterschiedlicher Definitionen der Performance der In- vestmentmanager hinsichtlich der bei deren Messung einzubeziehenden Kosten sowie der Wahl einer geeigneten Benchmark. Eine sehr umfassende Arbeit von Elton et al. bezieht diese Überlegungen mit ein.[49] Anders als bei vorangegangenen Studien wurde anstelle des CAPM ein besser geeignetes Mehrfaktorenmodell zur Bestimmung der abnormalen Rendite verwendet und eine zweckmäßigere Benchmark gewählt.[50] Elton et al. gelangen zu dem Schluss, dass professionelle Investmentmanager zwar über mehr als die öffentlich zugänglichen Informationen verfügen, sie diese jedoch aufgrund der hohen Kosten für deren Beschaffung und dem daraus folgenden Handel nicht in positive abnormale Renditen gegenüber einer passiv gehaltenen Benchmark transformieren können.[51] Es wird daher eine negative Bezieh- ung zwischen positiven abnormalen Renditen und den Kosten sowie dem Wertpapierumsatz eines Investmentfonds abgeleitet.

Kursprognose

Die Möglichkeit der Prognose von Wertpapierkursen im Zusammenhang mit der Diskussion um die Effizienz von Kapitalmärkten („test für return predictability“) ist so umfangreich, dass an dieser Stelle nur ein sehr kurzer Überblick gegeben werden kann. In der Literatur findet sich insbesondere eine kontroverse Debatte über die Vorhersagbarkeit von Aktien-Renditen über verschiedene Ratios (z. B. book-to-market ratio, earnings-price ratio, dividend yield, usw.) und statistische Modelle für Märkte oder Marktseg- mente, bei denen die gewonnenen Erkenntnisse teilweise auf eine kurzfristi- ge Prognosefähigkeit schließen lassen.[52] Andere Studien wiederum vernei- nen diese Vorhersagbarkeit bzw. deren ökonomische Nutzbarkeit oder stellen zumindest die langfristige Prognose von Renditen prinzipiell in Frage.[53] Hierzu zählt auch eine Studie zur Kursprognose durch technische Analyse in Deutschland, die dieser einen Nutzen eindeutig abspricht und damit die schwache Form der Informationseffizienz nach Fama bestätigt.[54] Die Dis- kussion um die Vorhersagbarkeit von Wertpapierkursen ist damit aber noch lange nicht beendet und ihre abschließende Rolle in der Debatte um die Ef- fizienz von Kapitalmärkten nicht geklärt. Es kann jedoch festgehalten wer- den, dass es bis heute keine gesicherten Anhaltspunkte dafür gibt, dass aus den bislang gewonnen Einsichten theoretisch fundierte Handelsstrategien abgeleitet wurden, die einen dauerhaften ökonomischen Gewinn generie- ren.[55] Ein gutes Beispiel hierfür sind aufgedeckte Kapitalmarktanomalien, da diese vorhersehbaren Renditemuster gegen die Effizienz eines Marktes sprechen würden, sollten sie sich nicht durch eine Kapitalmarkttheorie er- klären lassen.[56] Marktteilnehmer könnten dann Erscheinungen wie zum Bei- spiel den Januareffekt[57] ausnutzen. Jedoch ist dies bisher nicht dauerhaft ge- lungen:

„I have attempted to exploit the so-called year-end anomalies and a whole variety of strategies supposedly documented by academic research. And I have yet to make a nickel on any of these supposed market inefficiencies. […] a true market inefficiency ought to be an exploitable opportunity. If there’s nothing investors can exploit in a systematic way, time in and time out, then it’s very hard to say that information is not being properly incor- porated into stock prices.”[58]

Viele zunächst als Anomalien eingestufte Effekte – wie etwa der Kleinfir- meneffekt („Size Effect“)[59] – entpuppen sich bei genaueren Untersuchungen nämlich als erklärbar, verschwinden durch deren Bekanntwerden – was für effiziente Märkte spricht – oder bleiben nur deshalb bestehen, da sie nach Berücksichtigung der mit dem Versuch ihrer Ausnutzung einhergehenden Kosten keinen ökonomischen Gewinn generieren.[60] Zusätzlich leiden empi- rische Untersuchungen in diese Richtung oft auch an einer hohen Sensitivi- tät hinsichtlich der Untersuchungszeiträume und anderer Modellierungsde- tails.[61]

3.2.2. Empirische Erkenntnisse zur Markteffizienz nach Jensen

Der entscheidende Punkt bei allen Versuchen, die Kurse von Wertpapieren zu prognostizieren bzw. Kapitalmarktanomalien zu finden und diese zum Erzielen einer positiven abnormalen Rendite zu nutzen sowie die hiermit verbundenen Implikationen für die Aussagen über die Effizienz eines Kapi- talmarktes bleibt also letztlich der ökonomische Erfolg. Nach der Definition der Markteffizienz nach Jensen wäre ein Markt nur dann ineffizient, wenn es möglich wäre, dessen Rendite durch aktives Handeln nach Abzug der Kosten für Research und Transaktionen dauerhaft risikoadjustiert zu über- treffen. Die statistische Signifikanz einer Anomalie oder der Prognosegüte von Wertpapierrenditen ist aus diesem Grund nicht ausreichend. Für den Investor ist nur die ökonomische Signifikanz relevant. Im Hinblick auf den Core-Satellite-Ansatz bedeutet das, dass selbst bei statistisch signifikanten Hinweisen auf Ineffizienzen eines Marktes, für den Anleger immer noch die Frage offen bleibt, ob diese durch ein aktives Handeln auch nach den damit verbundenen Kosten in eine (risikoadjustierte) Rendite über der Marktrendi- te transformiert werden können. Sollte dies nicht der Fall sein, wäre das pas- sive Halten eines breit diversifizierten Portfolios (z. B. in Form eines Markt- index) folglich die ökonomisch sinnvollere Alternative. Die Entscheidung, ob ein Markt für ein Investment über das Core- oder das Satellite-Portfolio in Frage kommt, entscheidet sich also aufgrund der ökonomischen Defini- tion von Markteffizienz nach Jensen. Im Folgenden wird ein kurzer Über- blick der diesbezüglich gewonnen empirischen Erkenntnisse auf verschie- denen Märkten gegeben. Dabei stehen einer Fülle von Arbeiten über den Aktienmarkt für Großunternehmen in den USA nur wenige Studien über Unternehmen kleiner und mittlerer Größe und dem dortigen Rentenmarkt gegenüber. Noch dünner wird die Forschungsdichte für die Märkte der rest- lichen Welt. Insbesondere für die jungen Märkte der Schwellen- und Ent- wicklungsländer (Emerging Markets) und für nicht öffentliche Märkte sind empirische Ergebnisse in diese Richtung sehr rar.

3.2.2.1. Öffentliche Märkte der entwickelten Industrieländer

Aktienmärkte für Großunternehmen (Large-Caps)

Ähnlich wie bei dem oben angeführten Test von Elton et al.[62] kann an der Performance von professionellen Investmentmanagern festgestellt werden, ob ein Markt nach Jensen effizient ist. So finden Jensen[63], Malkiel[64], Gru- ber[65] und Carhart[66], dass viele aktive Manager für Large-Cap-Investment- fonds in den USA den eine Ihnen vorgegebene Benchmark nicht einmal vor Abzug der angefallenen Kosten übertreffen. Arbeiten, in denen Investment- managern eine aktive Performance über einem Marktindex bzw. einer (pas- siven) Benchmark attestiert wird[67], unterscheiden sich von den genannten Studien in der Regel dadurch, dass in ihnen entweder die Performance vor Abzug der Kosten oder lediglich die Performance des Aktienanteils eines Portfolios analysiert wurde.[68] In einer sehr umfangreichen Arbeit verbindet Wermers diese beiden Ansätze, indem er die Performance von professionell verwalteten Investmentfonds in verschiedene Komponenten aufteilt. Dabei stellte er fest, dass aktives Management in der Assetklasse Aktien zwar ei- nen Mehrwert gegenüber einem passiven Portfolio schaffen kann, dieser je- doch durch die erhöhten Kosten für Research, Transaktionen und Verwal- tung sowie einer negativen relativen Performance in den anderen Assetklas- sen überkompensiert wird. Unter dem Strich bleibt daher lediglich eine ak- tive (risikoadjustierte) Netto-Performance unter der vorgegebenen Bench- mark übrig.[69] Diese Ergebnisse bestätigen die Aussagen von Elton et al., so- dass anzunehmen ist, dass die getesteten Märkte für Großunternehmen in den USA ökonomisch effizient sind und sich ein aktives Management durch die damit verbundenen Kosten[70] nicht lohnt (Tabelle 1).

Tabelle 1: Prozentualer Anteil an US-Large-Cap-Investmentfonds, die im jeweiligen Zeit- raum nicht die Rendite des genannten Vergleichsindex übe-treffen konnten (Stand: 30. Juni 2002) [71]

Abbildung in dieser Leseprobe nicht enthalten

Aufgrund eines Mangels an Studien für Märkte außerhalb der USA wird im Folgenden – auch motiviert durch die Ergebnisse der Tests der halb-stren- gen Markteffizienz nach Fama (siehe oben) – davon ausgegangen, dass die in den USA erlangten Erkenntnisse auch für die Large-Cap-Aktienmärkte anderer entwickelter Industrienationen gelten. Diese Annahme wird auch

weitestgehend von den wenigen für diese Märkte angefertigten Forschungs- arbeiten geteilt.[72]

Obwohl die Aktienmärkte für Großunternehmen der entwickelten Industrie- nationen aus empirischer Sicht allem Anschein nach als ökonomisch effi- zient nach Jensen bezeichnet werden können, ist ein häufig herangezogenes Argument gegen einen hohen Grad der Effizienz dieser Märkte, dass es eini- gen Anlegern und Investmentmanagern immer wieder gelingt, besser abzu- schneiden als der Markt. Hier gilt es, zunächst den Maßstab der ökono- mischen Effizienz anzulegen und die Renditen risikoadjustiert zu betrach- ten. Sollte es Markteilnehmern gelingen die Marktrendite nach Abzug aller Kosten risikoadjustiert zu schlagen, ist dies jedoch immer noch kein hin- reichender Beweis gegen die ökonomische Effizienz des betrachteten Mark- tes, da ein derartig positives Ergebnis statistisch zu erwarten ist. Wenn alle Investoren zusammen den Markt bilden, dann ist die Marktrendite eine Durchschnittsrendite, die einige Anleger selbst auf effizienten Märkten netto und risikoadjustiert übertreffen werden. Jedoch demonstriert bereits die blo- ße Logik, dass dies nur die Ausnahme sein kann, da weder ein jeder noch der durchschnittliche Investor besser abschneiden kann als der Marktdurch- schnitt.[73] Bestätigt wird diese Überlegung dadurch, dass mit zunehmender Länge des Beobachtungszeitraumes die Anzahl der besser als der Markt per- formenden Anleger tendenziell fällt.

Die Frage nach der Persistenz der Performance von professionellen Invest- mentmanagern allgemein ist Gegenstand einer kontroversen Debatte in der wissenschaftlichen Literatur. Die bislang gewonnen empirischen Erkennt- nisse können zwar nicht als abschließend bewertet werden, dennoch sollten diese bei der Ausrichtung eines Investmentansatzes (aktiv oder passiv) und der Wahl des Managers für einen bestimmten Markt nicht unberücksichtigt bleiben. Während die Meinung zu den passiven Managern in der Literatur dahin gehend übereinstimmt, dass in der Vergangenheit erzielte Ergebnisse auch einen sehr guten Indikator für zukünftige Leistungen darstellen[74], geht die Meinung bei aktiven Managern weit auseinander.

So finden beispielsweise für die USA Grinblatt/Titman[75], Hendricks et al.[76], Goetzman/Ibbotson[77] und Ibbotson/Patel[78] übereinstimmend, dass eine Per- formancedifferenz zwischen Aktienfonds über eine gewisse Zeit bestehen bleibt. Insbesondere fällt auf, dass Manager aus dem oberen Performance- Viertel ihre gute Leistung in der nächsten Periode häufig bestätigen, genau wie Manager aus dem unteren Performance-Viertel ihre schlechte Leistung. Manager aus den mittleren Performance-Vierteln scheinen sich dagegen in den folgenden Perioden unvorhersehbar zwischen allen Vierteln hin und her zu bewegen. Bestätigt werden diese Ergebnisse auch von Wohar, der darü- ber hinaus feststellt, dass die Persistenz in der Performance negativ mit dem Fondsvolumen und der Höhe der Managementgebühren korreliert ist.[79] Auf der anderen Seite zeigen unter anderem Dunn/Theisen[80], Kahn/Rudd[81], Car- hart[82], Detzel/Weigand[83] sowie Carhart et al.[84], dass auftretende Persisten- zen allein durch generelle Faktoren der Rendite (z. B. Beta, Investmentstil, usw.) erklärt werden können und nicht auf besondere Fähigkeiten der Man- ager zurückzuführen sind. Zu einem ähnlichen Schluss kommen auch Por- ter/Trifts, die erfahrenen Managern keine bessere Performance als weniger erfahrenen Managern bescheinigen.[85] Dem widerspricht dagegen Wermers, der in seinem Untersuchungszeitraum nicht nur eine Persistenz in der Per- formance von Investmentfonds findet, sondern diese auch den Fähigkeiten des jeweiligen Managers zuschreibt.[86] Porter/Trifts bestätigen in ihrer Stu- die Ergebnisse von Wohar, dass Fonds mit niedrigen Managementgebühren eher eine positive Performance erreichen als Fonds mit einer hohen Kosten- struktur. Sie finden zwar keine Beständigkeit in den Ergebnissen bei Fonds mit zeitweise überdurchschnittlich guter Performance, wohl aber bei unter- durchschnittlichen Managern. Zu dieser Überzeugung gelangten zuvor be- reits auch Brown/Goetzman, die hieraus ableiteten, dass Investoren aus Ergebnissen der Vergangenheit zumindest erkennen können, welche Fonds bzw. Manager es zu meiden gilt.[87] Eine Analyse des Morningstar Sterne- Systems von Blake/Morey kann als mit dieser Auffassung konform ange- sehen werden, da die überdurchschnittlich bewerteten die unterdurchschnitt- lich bewerteten Fonds im Mittel in jeder Periode des Untersuchungszeit- raums outperformed haben. Berk/Green erklären das Phänomen einer kurz- aber nicht längerfristigen Persistenz von Investmentfonds dadurch, dass In- vestoren dazu neigen ihr Kapital in überdurchschnittlich gut performende Fonds anzulegen.[88] Hierdurch werden die Manager – wegen beschränkter Möglichkeiten der Erzeugung von positiven abnormalen Renditen durch Ti- telanalyse und -selektion – gezwungen neue Mittel benchmarknah anzule- gen, wodurch sich die Chance auf eine abnormale Netto-Rendite in den Folgeperioden verringert. Für diese Theorie sprechen auch erste Ergebnisse in der noch jungen Forschung zu geschlossenen (closed-end) Fonds, bei denen es anscheinend eine Persistenz in der Performance erfolgreicher Man- ager gibt.[89]

In Europa steckt die Forschung über die Beständigkeit der Performance von Investmentfonds bzw. deren Managern noch in den Kinderschuhen. Die we- nigen angefertigten Studien geben aber auch hier kein einheitliches Bild ab. So findet Wittrock[90] keine Persistenz in den Ergebnissen deutscher Invest- mentfonds, während Bakaric/Bitschnau[91] (für Europa), Brown et al.[92] und Blake/Timmerman[93] (beide für Großbritannien) eine Beständigkeit in der Performance der untersuchten Fonds zumindest nicht ablehnen können. In einer umfangreichen Studie für in ganz Europa engagierte europäische Ak- tienfonds finden Grünbichler/Pleschiutschnig[94] (in halbjährlichen Interval- len) eine gewisse Persistenz in deren Performance, die sich weder durch Risikofaktoren noch durch verschiedene Investmentstile vollständig erklä- ren lässt und damit den Fähigkeiten des jeweiligen Managers zugeschrieben werden könnte. Wie in frühen Studien in den USA wurde bei den verwende- ten Daten allerdings kein Filter zur Vermeidung eines „Survivorship-Bias“ verwendet und Transaktionskosten sowie Ausgabeaufschläge wurden nicht berücksichtigt. Aus diesen Gründen kann diese Studie auch nicht als reprä- sentativ angesehen werden und weitere Forschungsarbeiten wären sehr wün- schenswert.

Dasselbe gilt auch für ein interessantes Ergebnis von Shukla/Imwegen[95], die in ihrem Aufsatz zur Performance von Investmentmanager feststellen, dass lokale Manager ausländische Konkurrenten auf ihrem Heimatmarkt in der Regel outperformen. So waren die in ihrer Studie untersuchten U.S.- Man- ager in USA stets besser als ihre britische Konkurrenz und vice versa. Es liegt also die Vermutung nahe, dass lokale Investoren einen Informations- vorsprung auf ausländische Investoren haben, der sich signifikant und per- manent in den Anlageergebnissen widerspiegelt. Für eine endgültige Bestä- tigung dieses Befunds sind jedoch weitere empirische Erkenntnisse nötig.

[...]


[1] Vgl. Bayer, 2000, S. 12; vgl. Amenc et al., 2004; vgl. Singleton, 2005, S.4. Nach Schätzungen von INVESCO lag das global nach dem Core-Satellite-Ansatz angelegte Volumen 2003 bei etwa 3-5 Billionen Euro (vgl. Bayer et al., 2003, S. 532).

[2] Vgl. Kapitel 3.2.2.

[3] Vgl. Kolrep, 2001, S. 36. Für eine detaillierte Beschreibung der Ausprägungen eines aktiven und passiven Managements siehe Bruns/Meyer-Bullerdiek, 2003, S. 110f.

[4] Hierbei handelt es sich i. d. R. um Exchange-Traded Funds (vgl. Pupillo, 2005, 77).

[5] Hierbei handelt es sich i. d. R. um Fonds bei denen durch verschiedene Strategien (z. B. Fundamental-Indexing), versucht wird eine Überrendite gegenüber dem jeweiligen Basis-Index zu erzielen, wobei der Tracking-Error möglichst gering bleiben soll bzw. versucht wird, das Risiko des Basis-Indizes zu verringern (Index-Optimierung). Der Profil des jeweiligen Marktes approximativ widerspiegeln. Auf diesem Weg werden die Aufwendungen zur Erzielung einer Rendite – die in etwa der jeweiligen Marktrendite entspricht – im Core-Portfolio äußerst niedrig und das Risiko annähernd auf dem Niveau des jeweiligen Marktrisikos gehalten. Über das Core-Portfolio wird demnach in Märkte investiert, in denen der Anleger ein aktives Engagement aufgrund der damit verbundenen Kosten für die Beschaffung und Auswertung von Informationen (Research), sowie den damit einhergehend zunehmenden Transaktionen, als ökonomisch nicht sinnvoll ansieht. Das Gegenteil gilt für das Satellite-Portfolio. Hier wird durch ein aktives Management eine (Netto-)Rendite über der Rendite des je- weiligen Marktes angestrebt und dementsprechend in Märkte investiert, für die der Investor die mit einem aktiven Management einhergehenden Kosten als gerechtfertigt ansieht. Der Anleger ist hier also im Gegensatz zu den im Core-Portfolio abgebildeten Märkten bereit, zusätzliche aktive Risiken über dem Marktrisiko einzugehen, um die Chance eine Rendite über der Markt- rendite realisieren zu können zu wahren. Die Entscheidung, ob auf einem Markt aktiv oder passiv vorgegangen werden soll, fällt aufgrund seines Effi- zienzgrades, da vermutet wird, dass ein aktives Management nur auf einem Markt mit niedrigem Effizienzgrad Erfolg verspricht.

[6] Vgl. Kolrep, 2000; vgl. Bayer et al., 2003, S. 552f.

[7] Vgl. Treynor/Black, 1973.

[8] Hierdurch unterscheidet sich das Modell von Treynor und Black von anderen Separa- tionstheoremen, da bei diesen stets ein risikoloses Portfolio mit einem risikolosen Zins separiert wird (vgl. Breuer et al., 1999, S. 247f.). Dies erfolgt bei Treynor und Black erst in einem weiteren, unabhängigen Schritt.

[9] Vgl. Jensen, 1968, S. 389-416.

[10] Vgl. Sharpe, 1964. Es wird argumentiert, dass ein repliziertes Marktportfolio einfach und kostengünstig zu halten ist, da ein Portfolio mit mehr als 50-100 zufällig ausge- wählten Wertpapieren eine hohe Korrelation mit dem tatsächlichen Marktportfolio aufweist (vgl. Treynor/Black, 1973, S. 66).

[11] Vgl. z. B. Markowitz, 1952, 1959.

[12] Vgl. Sharpe, 1963 (siehe auch Kapitel 4.3.1.).

[13] Vgl. Bodie et al., 2005, S. 989-994.

[14] Vgl. Treynor/Black, 1973, S. 74.

[15] Vgl. Bayer et al., 2003, S. 530. Hierbei sollten dem Investor die jeweils verwendeten Modelle und Techniken und Anlagestrategien zumindest vom Prinzip her verständlich sein, da leicht Interessenkonflikte entstehen können, welche die ohnehin schon besteh- ende Principal-Agent-Problematik noch verstärken könnten.

[16] Vgl. Bayer et al., 2003, S. 545f. So könnte z. B. ein Enhanced-Index auf einem Markt im Core-Portfolio eingesetzt werden, deren Aufbau dem Treynor-Black-Modell ent- spricht. Ferner könnte ein Fonds Manager eine relativ undiversifizierte Einzelwert- Strategie auf einem Markt im Satellite-Portfolio verfolgen, was der Vorgehensweise im aktiven Treynor-Black-Portfolio entsprechen würde. Jedoch sollten in dem Satelli- te-Portfolio – dem aktiven CSA-Portfolio – genügend andere Märkte bearbeitet wer- den, sodass insgesamt ausreichend Wertpapiere für ein hohes Diversifikationsniveau vorhanden sind.

[17] Vgl. Amenc et al., 2004. Amnec et al. präsentieren in ihrer Arbeit eine Lösungsansatz, welcher auf einer dynamischen Optimierung des „positiven“ Tracking-Errors der bei- den Teilportfolios bei simultaner Begrenzung des negativen Tracking-Errors basiert.

[18] Die Berechnung der Betas für die Märkte des Satellite-Portfolios könnte hierbei immer dann problematisch werden, sobald es für Märkte keine expliziten Vergleichsindizes gibt (z. B. Absolute-Return, Private Equity). Es stellt sich dann die Frage in Relation zu welchem Index ein Beta für den jeweiligen Markt berechnet werden soll.

[19] Vgl. Brinson et al., 1991.

[20] Vgl. LeRoy, 1976, S. 139; vgl. Beaver 1981; vgl. LeRoy 1982.

[21] Vgl. Fama, 1970, S. 383. Die Weiterentwicklung des Effizienzbegriffs nach Fama fin- det sich bei Fama (vgl. Fama 1976a, 1976b).

[22] Vgl. Muth, 1961.

[23] Vgl. Grossman/Stiglitz, 1980.

[24] Vgl. Fama, 1991, S. 1575.

[25] Die technische Analyse wir häufig auch als Charttechnik bezeichnet, da versucht wird aus Kursbildern (Charts) der Vergangenheit ein Trend für die Zukunft abzuleiten. Zu den verschiedenen Methoden der Charttechnik siehe u. a. Loistl, 1996; Welcker, 2000.

[26] Vgl. Bruns/Meyer-Bullerdiek, 2003, S. 87.

[27] Es versteht sich von selbst, dass die Wissenschaft mit der Idee von effizienten Kapital- märkten (in welcher der drei Formen auch immer) bei vielen Praktikern nicht auf of- fene Ohren stieß und stößt, da deren Geschäftsmodelle auf dem aufspüren und Ausnut- zen von Ineffizienzen am Kapitalmarkt bestand und besteht (vgl. Kromschröder, 1984, S. 1077; vgl. Schredelseker, 1984, S. 44).

[28] Vgl. Malkiel, 1973. Ursprünglich wurde die Theorie von Kendall (vgl. Kendall, 1953) – basierend auf den Beobachtungen von Working (vgl. Working, 1934, 1949) – aufge- stellt und untersucht, und anschließend u. a. von Roberts bestätigt (vgl. Roberts, 1959).

[29] Vgl. Fama, 1970; vgl. Fama, 1991, S. 1575-1576; vgl. Brown et al., 1995, S. 853-873

[30] Für homogene Erwartungen der Marktteilnehmer ist Informationseffizienz eine Grund- voraussetzung (vgl. Perridon/Steiner, 2007, S. 250).

[31] Fama, 1991, S. 1576.

[32] Vgl. Malkiel, 2003, S. 60.

[33] Vgl. Jensen, 1978, S. 96.

[34] Eine aktuelle Diskussion um das Maß für eine anforderungsspezifische risikoadjustier- te Rendite – insbesondere auch für alternative Assetklassen – findet sich bei Till (vgl. Till, 2005, S. 253f.). In diesem Zusammenhang ist zu erwähnen, dass die Performan- cemessung eines Portfolios nicht trivial ist und es in der Literatur eine Kontroverse über die „richtige“ Performancemessung gibt (vgl. Lehmann/Modest, 1987; vgl. Ru- bio, 1993; vgl. Wilmanns, 2000; vgl. Kothari/Warner, 2001).

[35] Vgl. Fama, 1991, S. 1575.

[36] Vgl. Bruns/Meyer-Bullerdiek, 2007, S. 61f.

[37] Für die Benchmark-Konstruktion sind eher Indizes auf Basis des Free Float anstatt der Marktkapitalisierung geeignet, da kapitalgewichtete Indizes nur unter sehr restriktiven Annahmen effizient sind (vgl. Haugen/Baker, 1991; vgl. Kleeberg, 1995).

[38] Vgl. Sharpe, 1992, S. 16.

[39] Vgl. Lloyd-Davies/Canes, 1978.

[40] Vgl. Firth, 1975.

[41] Vgl. Hawawini/Jacquillat, 1993, S. 80f.

[42] Vgl. Martin et al., 1988, S. 270.

[43] Vgl. Fama, 1991, S. 1601. Es wird darauf hingewiesen, dass die stetige Rendite eines Wertpapiers relativ zu einem enormen Kursausschlag am Tag eines besonderen Ereig- nisses oft vernachlässigbar gering ist (vgl. auch Brown/Warner, 1985). Langzeitstudi- en zu diesem Thema werden aufgrund des Problems der verbundenen Hypothesen da- her auch skeptisch gesehen.

[44] Vgl. Neiderhoffer/Osborne, 1966; vgl. Scholes, 1972; vgl. Jaffe, 1974.

[45] Ein Insider ist definiert als ein Investor der einen hohen Anteil der Aktien einer Gesell- schaft hält und/oder eine hohe Position im Management einer Gesellschaft bekleidet (vgl. Elton et al., 2007, S. 426).

[46] Vgl. Seyhun, 1986.

[47] Vgl. Stickel, 1985; vgl. Lloyd-Davies/Canes, 1978; vgl. Liu et. al., 1990; vgl. Chang/ Lewellen, 1984; vgl. Ippolito, 1989.

[48] Vgl. Jensen, 1968, 1969; vgl. Beebower/Bergstrom, 1977; vgl. Munnel, 1983; vgl. Brinson et al., 1986; vgl. Ippolito/Turner, 1987; vgl. Berkowitz et al., 1988.

[49] Vgl. Elton et al., 1993.

[50] Vgl. Fama, 1991, S. 1606. Eine kurze Beschreibung von Mehrfaktorenmodellen und findet sich in Kapitel 4.3.1.

[51] Diese Erkenntnis wird auch durch Hulbert (vgl. Hulbert, 1990) bestätigt.

[52] Vgl. Haugen/Baker, 1996; vgl. Poddig, 1999; vgl. Dichtl, 2001; vgl. Mc Millan, 2001; vgl. Lewellen, 2004; vgl. Campbell/Yogo, 2006; vgl. Campbell/Thompson, 2007; vgl. Richter et al., 2007.

[53] Vgl. Fama/French, 1988; vgl. Fluck et al., 1997; vgl. Ellis, 1998; vgl. Odean, 1999; vgl. Ang/Bekaert, 2001; vgl. Lanne, 2002; vgl. Wei/Zhang, 2003; vgl. Goyal/ Welch, 2007; vgl. Hama/Ready, 2005; vgl. Paye/Timmerman, 2006.

[54] Vgl. Dorfleitner/Klein, 2002.

[55] Vgl. Elton et al., 2007, S. 405. Fraglich ist, ob solche Strategien publiziert würden.

[56] Vgl. Tversky/Thaler, 1990, S. 201f.

[57] Vgl. Gultekin/Gultekin, 1983; vgl. Kato/Shallheim, 1985. Der Januareffekt beschreibt das Phänomen, dass die Renditen mancher Wertpapiere (insbesondere Aktien mit ge- ringer Marktkapitalisierung und Anleihen geringer Qualität) im Januar außergewöhn- lich hohe Renditen generieren. Dieser Effekt lässt sich bis heute nicht vollständig er- klären, da er nur teilweise auf einen „bid-ask spread“-Effekt zum Jahreswechsel (vgl. Keim, 1989), den Rebalancing-Ansatz (vgl. Beiker, 1993, S. 459) und die „tax-selling hypothesis“ (vgl. Reinganum, 1983; vgl. Branch, 1977) zurück zuführen ist.

[58] Roll, 1992, S. 30-31.

[59] Vgl. Banz, 1981. Zunächst entstand bei empirischen Untersuchungen der Eindruck, dass kleine Firmen eine positive abnormale Rendite abwerfen würden. In weiteren Untersuchungen (vgl. Roll, 1970; vgl. Reinganum, 1981) wurde allerdings deutlich, dass das CAPM als Modell zur Bestimmung von abnormalen Renditen kleiner Firmen aufgrund der Verwendung lediglich eines Risikoparameters (ß) ungeeignet ist. Sobald ein besser geeigneteres Mehrfaktorenmodell verwendet wurde, verschwand der Klein- firmeneffekt, da hier die zusätzlich mit einem Investment in kleine Firmen verbunde- nen Risiken – wie zum Beispiel eine niedrige Produktivität, ein hoher Leverage (vgl. Chan/Chen, 1991) und die niedrigere Liquidität der Wertpapiere (siehe unten) – erfasst werden können (vgl. Chan et al., 1985). Ein Großteil des Kleinfirmeneffekts trat zu- dem im Januar auf (vgl. Keim, 1983) und ist stark mit dem Januareffekt korreliert.

[60] Vgl. Elton et al., 2007, S. 417f. Aus der Diskussion um Kapitalmarktanomalien ent- stand auch eine ganz neue Forschungsrichtung: die „Behavioral Finance. Dieser For- schungszweig befasst sich mit dem Verhalten der Marktteilnehmer und hat bereits ei- nige Irrationalitäten aufgedeckt (vgl. Bruns/Meyer-Bullerdiek, 2003, S. 9f.). Bislang ist aber auch aus diesen Erkenntnissen keine nachweisbar dauerhaft ökonomischen Er- folg garantierende Handelsstrategie hervorgetreten (vgl Malkiel, 2003, S. 62). Nichts- destotrotz hilft die Forschung der Behavioral Finance auftretende Phänomene zu ver- stehen und Märkte somit fortwährend effizienter zu machen.

[61] Vgl. Beiker, 1993, S. 463.

[62] Vgl. Elton et al., 1993.

[63] Vgl. Jensen, 1968.

[64] Vgl. Malkiel, 1995, 2003.

[65] Vgl. Gruber, 1996.

[66] Vgl. Cahart, 1997.

[67] Vgl. Grinblatt/Titman, 1989, 1993; vgl. Grinblatt et al., 1995; vgl. Daniel et al., 1997.

[68] Vgl. Moskowitz, 2000, S. 1695.

[69] Vgl. Wermers, 2000.

[70] Ein Maß für die tatsächlichen Kosten eines aktiven Managements von Investment- Fonds (der „active expense ratio“) findet sich bei Miller (vgl. Miller, 2007). Es wird aufgezeigt, dass das in einem Fonds aktiv verwaltete Vermögen einen stark überpro- portionalen Anteil an den Gesamtkosten ausmacht, wodurch das Übertreffen der zuge- hörigen Benchmark erschwert wird.

[71] Vgl. Malkiel, 2003, S. 78. Der prozentuale Anteil bezieht sich auf alle US-Fonds mit Ausnahme von „Sektor“-Fonds und Fonds, die nicht-amerikanischen Aktien halten. Ähnliche, bestätigende Ergebnisse für die USA und Europa finden sich auch in neue- ren Studien (bis 31.12.2005) bei Hsu et al. (vgl. Hsu et al., 2007).

[72] Kahn/Rudd (vgl. Kahn/Rudd, 1995) und Wittrock/Steiner (vgl. Wittrock/Steiner, 1995) für Deutschland, Jun et al. (vgl. Jun et al., 1997) für Japan, Blake/Timmermann (vgl. Blake/Timmermann, 1998, Ward/ Saunders (vgl. Ward/Saunders, 1976) und Quigley/ Sinquefield (vgl. Quigley/Sinquefield, 2000) für Großbritannien, Dahlquist et al. (vgl. Dahlquist et al., 2000) für Schweden, Gallagher/Jarnecic (vgl. Gallagher/Jarnecic, 2004) für Australien und Sinha/Jog (vgl. Sinha/Jog, 2004) für Kanada.

[73] Vgl. Samuelson, 1974, S. 18.

[74] Vgl. Kuo/Mateus, 2007.

[75] Vgl. Grinblatt/Titman, 1988, 1992.

[76] Vgl. Hendricks et al., 1993.

[77] Vgl. Goetzman/Ibbotson, 1994.

[78] Vgl. Ibbotson/Patel, 2002.

[79] Vgl. Wohar, 1995. Dies beobachteten zuvor auch schon Grinblatt/Titman (vgl. Grin- blatt/Titman, 1988) und Goetzman/Ibbotson (vgl. Goetzman/Ibbotson, 1994).

[80] Vgl. Dunn/Theisen, 1983.

[81] Vgl. Kahn/Rudd, 1995.

[82] Vgl. Carhart, 1997.

[83] Vgl. Detzel/Weigand, 1998.

[84] Vgl. Carhart et al., 2002 (und die dort angegebene Literatur). Carhart et al. vermuten, dass sich entdeckte Persistenzen häufig durch „Data-Mining“ ergeben.

[85] Vgl. Porter/Trifts, 1998.

[86] Vgl. Wermers, 2000.

[87] Vgl. Brown/Goetzman, 1995.

[88] Vgl. Berk/Green, 2004. Unterstützt wird diese Argumentation auch von Zheng (vgl. Zheng, 1999) und Bollen/Busse (vgl. Bollen/Busse, 2005). Busse et al. finden iden- tische Ergebnisse für professionelle Vermögensverwalter (vgl. Busse et al., 2006).

[89] Vgl. Madura/Berks, 2002. Madura/Berks finden eine Persistenz der Performance über- durchschnittlich guter Manager von bis zu 36 Monaten. Allerdings weisen Harper et al. (vgl. Harper et al., 2006) darauf hin, dass geschlossene Fonds – durch ihre höheren Kosten – in der Regel von Exchange-Traded Funds (ETFs) in den entsprechenden Ländern outperformed werden. Dies bestätigt auch Patro (vgl. Patro, 2001), der den Managern von geschlossenen Fonds eine Timing-Fähigkeit abspricht und keine risiko- adjustierte Outperformance gegenüber den jeweiligen Marktindizes findet. Daher wer- den geschlossene Fonds in dieser Arbeit auch nicht näher untersucht.

[90] Vgl. Wittrock, 2000.

[91] Vgl. Bakaric/Bitschnau, 1996 für nationale Fonds diverser europäische Länder.

[92] Vgl. Brown et al., 1997.

[93] Vgl. Blake/Timmerman, 1998.

[94] Vgl. Grünbichler/Pleschuitschnig, 1999.

[95] Vgl. Shukla/Imwegen, 1995.

Ende der Leseprobe aus 109 Seiten

Details

Titel
Kritische Würdigung des Core-Satellite-Ansatzes aus kapitalmarkttheoretischer Perspektive
Hochschule
Universität Bremen  (Lehrstuhl für ABWL, insb.Finanzwirtschaft)
Note
1,3
Autor
Jahr
2008
Seiten
109
Katalognummer
V94589
ISBN (eBook)
9783640099924
Dateigröße
960 KB
Sprache
Deutsch
Schlagworte
Kritische, Würdigung, Core-Satellite-Ansatzes, Perspektive
Arbeit zitieren
Tobias Hintelmann (Autor), 2008, Kritische Würdigung des Core-Satellite-Ansatzes aus kapitalmarkttheoretischer Perspektive, München, GRIN Verlag, https://www.grin.com/document/94589

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Kritische Würdigung des Core-Satellite-Ansatzes aus kapitalmarkttheoretischer Perspektive


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden