Grundlagen der Portfoliooptimierung unter Darstellung der Abhängigkeitsstruktur durch Kopulas


Diplomarbeit, 2007

92 Seiten, Note: 1,7


Leseprobe


Inhaltsverzeichnis

Anhangsverzeichnis

Tabellenverzeichnis

Abbildungsverzeichnis

Abkürzungsverzeichnis

Symbolverzeichnis

1. Problemstellung und Ziel der Arbeit
1.1. Beschreibung der Problemstellung
1.2. Spezialfall alternative Investments und deren spezifische Probleme
1.3. Estimation Risk vs. Model Risk
1.4. Ziel der Arbeit

2. Grundlagen der Portfoliooptimierung
2.1. Einführung
2.2. Ertragsmessung
2.3. Risikomessung
2.3.1. Varianz
2.3.2. Value at Risk
2.3.3. Höhere Verteilungsmomente
2.3.3.1. Schiefe
2.3.3.2. Kurtosis
2.3.4. Definition des kohärenten Risikos
2.3.4.1. Einführung
2.3.4.2. Bewertung des Value at Risks und der Varianz
2.3.5. Expected Shortfall
2.4. Abbildung der Abhängigkeitsstruktur
2.4.1. Einleitung
2.4.2. Lineare Korrelation
2.4.2.1. Das Konzept
2.4.2.2. Nachteile
2.4.3. Autokorrelation
2.4.3.1. Einführung
2.4.3.2. Umgang mit Autokorrelation
2.4.4. Rangkorrelation
2.4.4.1. Spearman's Rho
2.4.4.2. Kendall's Tau
2.4.5. Tail Dependence
2.4.6. Bewertung von Abhängigkeitskonzepten
2.5. Portfoliooptimierung
2.5.1. Einleitung
2.5.2. Portfolio Selection
2.5.2.1. Einführung
2.5.2.2. Kritik am Mean-Variance-Ansatz
2.5.3. Weitere Ansätze zur Portfoliooptimierung
2.5.3.1. Ansätze basierend auf zwei Verteilungsparametern
2.5.3.1.1. Black-Litterman Modell
2.5.3.1.2. Resampled Mean-Variance Optimization
2.5.3.2. Ansätze basierend auf vier Verteilungsmomenten
2.5.3.2.1. Allgemein
2.5.3.2.2. Polynomial Goal Programming

3. Portfoliooptimierung mithilfe von Kopulas
3.1. Das Konzept der Kopulas
3.1.1. Einführung
3.1.2. Subkopulas
3.1.2.1. Groundedness
3.1.2.2. 2-increasing
3.1.3. Kopulas
3.1.4. Mathematische Eigenschaften
3.1.4.1. Verteilung
3.1.4.2. Satz von Sklar
3.1.4.3. Transformationsinvarianz
3.1.5. Spezialkopulas
3.1.5.1. Fréchet–Hoeffding–Grenzen
3.1.5.2. Produktkopula
3.1.6. Ausgewählte bivariate Kopulafunktionen
3.1.6.1. Parametrische Kopulas
3.1.6.1.1. Einführung
3.1.6.1.2. Normalkopula
3.1.6.1.3. Student-t-Kopula
3.1.6.2. Nicht-parametrische Kopulas
3.1.6.2.1. Einleitung
3.1.6.2.2. Frank-Kopula
3.1.6.2.3. Clayton-Kopula
3.1.6.2.4. Gumbel-Kopula
3.2. Korrelationskoeffizienten im Kontext der Kopulas
3.2.1. Einführung
3.2.2. Spearman’s Rho
3.2.3. Kendall’s Tau
3.2.4. Lineare Korrelation
3.2.5. Tail Dependence
3.3. Schätzung von Kopulaparametern
3.3.1. Einführung
3.3.2. Exact Maximum Likelihood-Methode
3.3.3. Inference Functions for Margins-Methode
3.3.4. Canonical Maximum Likelihood-Methode
3.3.5. Nicht-parametrische Schätzungen von empirischen Kopulas
3.4. Goodness-of-Fit-Tests
3.5. Vorgehensweise bei der Simulation von Datenreihen
3.5.1. Einleitung
3.5.2. Normalkopula
3.5.3. Student-t-Kopula
3.5.4. Allgemeine Methode
3.6. Portfoliooptimierung mit Kopulas

4. Empirische Anwendung ausgewählter Kopulas
4.1. Einführung
4.2. Datenanalyse
4.2.1. Analyse der Verteilungsparameter
4.2.2. Test auf Normalverteilung
4.2.3. Test auf Autokorrelation
4.2.4. Empirische Korrelationskoeffizienten
4.3. Parameterschätzung
4.4. Goodness-of-Fit Überprüfung
4.5. Berechnung der Effizienzlinien
4.5.1. Vorgehen
4.5.2. Ergebnisse

5. Abschließende Bemerkung und Kritik am Ansatz der Kopulas
5.1. Schlussfolgerung
5.2. Kritische Betrachtung
5.3. Mögliche Erweiterungen

Anhang

Literaturverzeichnis

Anhangsverzeichnis

Abbildung 1

Abbildung 2

Abbildung 3

Abbildung 4

Abbildung 5

Abbildung 6

Abbildung 7

Abbildung 8

Abbildung 9

Abbildung 10

Abbildung 11

Abbildung 12

Abbildung 13

Mittelwertfunktion

Varianzfunktion

Standardabweichungsfunktion

Schiefefunktion

Kurtosisfunktion

Kolmogorov-Smirnov Test

Shapiro-Wilk Test

Lineare Korrelationskoeffizienten

Spearman’s Rho

Kendall’s Tau

ML Schätzer

ML Schätzer für Studentsche t-Verteilung

ML Schätzer für Verteilung mit t-verteilten Randwerten

ML Schätzer für Verteilung mit t-verteilten Randwerten über CG-Methode

ML Schätzer für Studentsche t-Verteilung mit t-Randverteilungen

ML Schätzer für Studentsche t-Verteilung mit t-Randverteilungen über CG-Methode

CML Schätzer

CML Schätzer für Studentsche t-Verteilung

Generierung von Zufallswerten für die Portfoliooptimierung

Erzeugung von Portfoliogewichten

Portfoliorenditen der einzelnen Simulationsdurchläufe

Mittelwerte und Expected Shortfall zum Niveau 0.01 berechnen

Generierung von Datenpunkten der empirischen Kopulas

Generierung von Datenpunkten der angepassten Kopulas

Berechnung der L2 Norm

Tabellenverzeichnis

Tabelle 1: Generatorfunktion und Abhängigkeitsstruktur ausgewählter Kopulas

Tabelle 2: Empirische Verteilungsmomente

Tabelle 3: Teststatistiken des Kolmogorov-Smirnov und Shapiro-Wilk Tests

Tabelle 4: Empirische Korrelationskoeffizienten

Tabelle 5: Übersicht über die Ergebnisse der MLE-Parameterschätzung

Tabelle 6: Zusammenfassung der Ergebnisse der CML-Parameterschätzung

Tabelle 7: Ergebnisse der Distanzberechnung der L² Norm

Abbildungsverzeichnis

Abbildung 1: Dichtefunktionen verschiedener Zufallsvariablen

Abbildung 2: Verteilungs- und Dichtefunktion der

Abbildung 3: Konturdiagramme der Normal- und der Student-t-Kopula

Abbildung 4: Konturdiagramme der Clayton-, Frank- und Gumbel-Kopula.

Abbildung 5: Dichtefunktionen der Clayton-, Frank- und Gumbel-Kopula

Abbildung 6: Dichtefunktion der Normal- und der Student-t-Kopula

Abbildung 7: Histogramme der empirischen Renditen

Abbildung 8: Q-Q Plots der empirischen Renditen

Abbildung 9: Autokorrelationsfunktionen der drei Indizes

Abbildung 10: Gemeinsame empirische Verteilung der Indizes

Abbildung 11: Verteilungsfunktionen der empirischen Kopulas

Abbildung 12: Dichtefunktionen der empirischen Kopulas

Abbildung 13: Effizienzlinien auf Grundlage angepasster Kopulas

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Symbolverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Problemstellung und Ziel der Arbeit

1.1. Beschreibung der Problemstellung

Portfoliooptimierung besteht aus drei Schritten: Identifikation einer strategischen Asset Allokation, Identifikation des subjektiv besten Portfolios entlang der Effizienzlinie und Auswahl spezifischer Assets, die bestmöglich der strategischen Asset Allokation entsprechen.1 Jeder dieser drei Schritte umspannt ein eigenes Gebiet der Forschung. In dieser Arbeit soll insbesondere auf den ersten Schritt, der Identifikation einer strategischen Asset Allokation, eingegangen werden. Diese lässt sich wiederum unterteilen: zum einen müssen die Kennzahlen Risiko und Ertrag eindeutig definiert und gemessen werden und zum anderen ist es notwendig, die Abhängigkeitsstruktur zwischen den einzelnen Risiken bestmöglich zu identifizieren.

Aufgrund der statistischen Eigenschaften von Finanzwerten ist die Asset Allokation jedoch nicht trivial. In der Vergangenheit konnte gezeigt werden, dass die Renditen von Finanzwerten nicht der einer Normalverteilung folgen und eine solche Annahme zu Fehlern führt. Die Untersuchungen ergaben zudem, dass häufig leptokurtische Verteilungen vorliegen und dass Finanzwerte eine von der Normalverteilung abweichende Schiefe aufweisen.2 Bei Betrachtung der gemeinsamen Verteilung von Finanzwerten, wie dies im Portfoliokontext unabdingbar ist, konnten weitere Charakteristika festgestellt werden. Das Aufkommen extrem hoher bzw. niedriger Renditen in einem Markt ist oft mit überdurchschnittlich hohen bzw. niedrigen Renditen in einem anderen Markt vergesellschaftet, trotz der Tatsache, dass diese Märkte ansonsten wenig miteinander korreliert zu sein scheinen. Insbesondere in schlechten Börsenzeiten tritt Korrelation zwischen Finanzwerten und –märkten verstärkt auf.3 Diese Beobachtungen lassen sich ebenfalls nicht mit einer (multivariaten) Normalverteilung modellieren, da die Korrelation in den Randbereichen der Verteilung schwächer im Vergleich zu der Korrelation der Gesamtverteilung ist.4 Die Feststellungen dieses Absatzes können auch anders beschrieben werden. Im Gegensatz zur gemeinsamen Verteilung normalverteilter Variablen, deren Struktur durch eine elliptische Form abgebildet werden kann, ist dies bei der gemeinsamen Verteilung von Finanzwerten nicht möglich, da deren Randbereich über eine übermäßige Anzahl an Wertepaaren verfügt.

Diese Ergebnisse legen nahe, dass eine Betrachtung verschiedener Verteilungsmomente im Kontext der Portfoliooptimierung erforderlich ist, um sämtliche Risiken korrekt zu erfassen. Zudem ist es wünschenswert, eine Möglichkeit zu finden, die Abhängigkeitsstruktur zwischen Zufallsvariablen flexibel und nicht-linear abzubilden. Traditionelle Optimierungsmethoden, wie beispielsweise der Mean-Variance-Ansatz von Markowitz, die lediglich den Erwartungswert, die Varianz und die lineare Korrelation der einzelnen Finanzwerte mit einbeziehen, sind daher wenig geeignet.

1.2. Spezialfall alternative Investments und deren spezifische Probleme

Die oben aufgeführten Charakteristika sind bei vielen Finanzwerten zu beobachten und daher bei der Durchführung der Asset Allokation unabhängig von der Art der Assets zu beachten. Bei Einbezug von alternativen Investments in ein Portfolio sind weitere Aspekte in Betracht zu ziehen.

Alternative Investments sind definiert als Anlageformen, die sich von "traditionellen Investments durch eigenständige Merkmale und Charakteristika abgrenzen".5 Vor allem drei Charakteristika werden hierzu herangezogen: erstens die Liquidität einer Finanzanlage, zweitens die Rendite und drittens das Anlageziel. Im Gegensatz zu traditionellen Anlagen verfügen alternative Investments über eine geringe Liquidität mit der Möglichkeit einer überdurchschnittlich hohen Rendite. Diese Anlageinstrumente verfolgen darüber hinaus das Ziel einer „absoluten positiven Renditeentwicklung“ und messen sich nicht an Vergleichsindizes. Folgende Anlagen gelten als alternativ: Hedgefonds, Private Equity, Immobilien und Commodities, während liquide Aktien, Renten, Geldmarktinstrumente und Investmentfondsanlagen zu den traditionellen Anlageinstrumenten zählen. Bei statistischen Auswertungen ergeben sich Herausforderungen vor allem aus den rechtlichen Anforderungen, denen alternative Investments unterliegen. Niedrige rechtliche Auflagen hinsichtlich der Berichterstattung und ein geringes Maß an Anlagerestriktionen führen dazu, dass die entsprechenden Daten häufig nicht der Öffentlichkeit zur Verfügung stehen. Sofern Daten erhältlich sind, kann in den meisten Fällen nur auf monatliche Werte zurückgegriffen werden, zudem sind die angegebenen Daten meist schwer zu interpretieren. Bewertungsschwierigkeiten der einzelnen Assets innerhalb eines alternativen Anlagekonstrukts führen zu Autokorrelation der empirischen Daten, was zu einer Unterschätzung der empirisch berechneten Standardabweichung führen kann.6 7

Aufgrund der geringen gesetzlichen Anlagerestriktionen können vielfältige Investmentstrategien verfolgt werden, was in einem nicht-linearen Risk-Exposure gegenüber den typischen Assets, Aktien, Bonds und Geldmarkt resultieren kann.8

Interpretationsschwierigkeiten von Indizes enstehen darüber hinaus, da diese auf Grundlage von Einzelfonds berechnet werden. Folgende Verzerrungen in den Daten („data biases“) treten auf:9

1. Selection Bias:

Selection Bias beschreibt die Verzerrung, die dadurch entstehen kann, dass die Stichprobe an Assets, die in einem Fonds enthalten ist nicht repräsentativ die gewünschten Daten wiedergibt. Dies ist darauf zurückzuführen, dass es den einzelnen Fonds freigestellt ist, ihre Daten zu veröffentlichen und nur Anbieter von erfolgreichen Fonds dazu tendieren, ihre Daten preiszugeben. Selection Bias kann zu einer Verzerrung der Ergebnisse ins Positive als auch ins Negative führen. Der geringe Anteil an geschlossenen Fonds an diesen Indizes, je nach Datenbank sind es zwischen 6 und 10 Prozent, ist jedoch ein Anzeichen dafür, dass die Renditen ein "negativ verzerrtes Bild der Realität vermitteln".10

2. Survivorship Bias:

Survivorship Bias ist darauf zurückzuführen, dass Indizes meist nur Fonds einbeziehen, die nach wie vor am Markt vertreten sind. Fonds, die das Reporting an den Index nicht weiter verfolgen bzw. geschlossen werden, werden meist aus der Datenbank komplett entfernt. Diese Fonds weisen im Durchschnitt eine schlechtere Performance auf als die übrigen Fonds, somit wird die Performance eines Index dadurch erhöht.

3. Instant History Bias:

Fonds, die sich dazu entscheiden, ihre Daten an einen Index zu übermitteln verfügen normalerweise über eine gute vergangene Performance. Dies ist dadurch zu erklären, dass eine Veröffentlichung der Daten einen gewissen Marketingeffekt nach sich zieht. Dementsprechend sind die Fonds, die einem Index beitreten überdurchschnittlich erfolgreich und erhöhen die durchschnittliche Rendite.

Studien zeigen, dass sich der Survivorship Bias und der Selection Bias ausgleichen.11 Es ist anzumerken, dass diese Verzerrungen auch bei traditionellen Investments auftreten können.

1.3. Estimation Risk vs. Model Risk

Bei empirischen Datenauswertungen lassen sich im Allgemeinen zwei potenzielle Fehler unterscheiden. Diese werden in der Literatur als Schätzrisiko („estimation risk“) und als Modellrisiko („model risk“) bezeichnet.12 Der erste Fehler, das Schätzrisiko, ergibt sich aus falschen Schätzungen der einzelnen empirischen Parameter. Der zweite Fehler, das Modellrisiko, tritt auf, wenn die Annahmen eines Modells verletzt werden bzw. ein Modell fehlerhaft spezifiziert wurde. Das Problem des Modellrisikos wird insbesondere unter dem Problem statistischer Robustheit von Parameterschätzungen untersucht, welches sich auf die Stabilität von Schätzern bei Fehlspezifikationen des Modells und beim Vorliegen von Ausreißern bezieht.13 Ein Schätzer sollte robust gegenüber Ausreißern sein, da diese zu Verzerrungen bei den empirischen Mittelwerten, Kovarianzen und Korrelationen führen können.14

1.4. Ziel der Arbeit

Die vorangegangenen Abschnitte machen deutlich wie wichtig es ist, alle relevanten Informationen in die Asset Allokation mit einzubeziehen, robuste Methoden anzuwenden und die zugrunde liegenden Daten korrekt zu interpretieren und zu messen. Ebenso wird deutlich, dass nicht nur die absolute Stärke einer Abhängigkeit, wie es bei der linearen Korrelation der Fall ist, zwischen Finanzwerten ausschlaggebend ist, sondern die Struktur der Abhängigkeit.15 Da traditionelle Optimierungsmethoden dies nicht vermögen, sind in den vergangen Jahren neue Methoden entstanden. Eine dieser Methoden ist die Optimierung eines Portfolios durch Kopulas. Kopulas ermöglichen die Trennung der Abhängigkeitsstruktur von den Randverteilungen der zugrunde liegenden Werte. Sie stammen ursprünglich aus dem Versicherungsbereich, wo sie der Modellierung extremer Ereignisse dienen, werden in den letzten Jahrzehnten jedoch vermehrt auch zur Modellierung von Ausfallwahrscheinlichkeiten im Kreditbereich genutzt.

In dieser Arbeit wird die Optimierung eines Portfolios mithilfe von Kopulas vorgestellt, wobei zuerst allgemeine Grundlagen der Portfoliooptimierung diskutiert werden.

Die Arbeit ist wie folgt aufgebaut: Kapitel 2 beschreibt den Prozess der Portfoliooptimierung. Nach einer kritischen Beleuchtung des Themas wird in Kapitel 3 das Konzept der Kopulas vorgestellt. In Kapitel 4 werden die theoretischen Ergebnisse anhand eines praktischen Beispiels umgesetzt, Kapitel 5 schließt diese Arbeit zusammenfassend ab.

2. Grundlagen der Portfoliooptimierung

2.1. Einführung

Das Gebiet der Portfoliooptimierung ist ein weit untersuchtes Gebiet im Bereich des Portfoliomanagements. Es existiert eine große Anzahl an Verfahren, die darauf abzielen, die mathematisch optimale Gewichtung der in einem Portfolio vorhandenen Assets zu gewährleisten. Mathematisch optimal bedeutet in diesem Kontext, dass unter Beachtung des zuvor definierten Risikos und der Abhängigkeitsstruktur der zu erwartende Ertrag maximiert wird. Dies ist meist nicht allgemeingültig, sondern nur in Bezug auf die entsprechende Portfoliostruktur möglich. Eine exakte Anpassung folgt letztlich gemäß der persönlichen Nutzenfunktion eines Individuums. Häufig wird daher der Bereich effizienter Portfolios berechnet, aus welchem ein die individuelle Nutzenfunktion maximierendes Portfolio ausgewählt wird. Ein effizientes Portfolio ist dadurch gekennzeichnet, dass es bei gegebenem Risiko den höchsten Ertrag bietet bzw. die Investoren bei gegebenem Ertrag dem geringsten Risiko ausgesetzt sind.

2.2. Ertragsmessung

Ertrag wird durch die Verteilungsfunktion der Renditen modelliert und als Erwartungswert des Portfolios angegeben. Die genaue Messung der Renditeverteilung von Assets aufgrund der historischen Verteilungen ist allerdings nicht problemlos und die Güte der Ergebnisse wird von der Qualität der Daten sowie der verwendeten statistischen Methoden beeinflusst.

Nach Chopra und Ziemba (1993) ist die Schätzung des Erwartungswertes der Renditen besonders entscheidend für die Berechnung des optimalen Portfolios.16 Fehler in Erwartungswerten wirken sich etwa 11-mal stärker aus als Fehler in Varianzen und mehr als 20-mal so stark als Fehler in Kovarianzen. Zur gleichen Zeit sind Fehler in empirischen Studien nicht auszuschließen17 Daher ist, wie bereits zuvor erwähnt, ein Verfahren zu bevorzugen, dass Schätzfehler gut integriert.

2.3. Risikomessung

Das Risiko eines Portfolios stellt die zweite Entscheidungskomponente eines Investors dar. In einem ersten Schritt muss das zu berechnende Risiko definiert werden, um es daraufhin aus den Ergebnissen der Ertragsmessung zu berechnen. Zwei häufig verwendete Risikoarten sind die Varianz bzw. die Standardabweichung und der Value at Risk (VaR).

2.3.1. Varianz

Die Varianz wird durch folgende Formel berechnet und beschreibt das zweite Moment einer Verteilung:

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: Varianz von Abbildung in dieser Leseprobe nicht enthalten, Abbildung in dieser Leseprobe nicht enthalten: Stichprobenumfang, Abbildung in dieser Leseprobe nicht enthalten: i-tes Element der Stichprobe, Abbildung in dieser Leseprobe nicht enthalten: Varianz.

Das Radizieren der Varianz mit dem Wurzelexponenten 2 ergibt die Standardabweichung. Diese ist somit vergleichbar zur Varianz anzuwenden. In Bezug auf das Portfoliomanagement wird die Varianz zur Messung von Portfoliorisiken herangezogen, wie dies unter anderem bei dem Mean-Variance-Ansatz von Markowitz der Fall ist. Wie im Nachfolgenden besprochen wird, ist die Varianz jedoch nicht ohne Weiteres im Portfoliokontext anwendbar.

2.3.2. Value at Risk

Der Value at Risk ergibt sich aus18:

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: Value at Risk von X bei einem gegebenen Konfidenzniveau Abbildung in dieser Leseprobe nicht enthalten, Abbildung in dieser Leseprobe nicht enthalten: generalisierte inverse Funktion von Abbildung in dieser Leseprobe nicht enthalten, Abbildung in dieser Leseprobe nicht enthalten(): Wahrscheinlichkeitsfunktion.

Folglich bezeichnet der Value at Risk die Größe eines Verlusts, der mit einer zuvor definierten Wahrscheinlichkeit bzw. bei einem zuvor definierten Wahrscheinlichkeitsniveau eintritt. Value at Risk spielt in der Praxis insbesondere in Bezug auf die Eigenkapitalanforderungen von BASEL II eine entscheidende Rolle, wo es zur Messung von Bankenrisiken genutzt wird.19

2.3.3. Höhere Verteilungsmomente

2.3.3.1. Schiefe

Die Schiefe einer Verteilung beschreibt die Neigung einer Verteilung um den Erwartungswert. Sie ist wie folgt definiert:20

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: Schiefe von Abbildung in dieser Leseprobe nicht enthalten, Abbildung in dieser Leseprobe nicht enthalten: Funktion des Erwartungswerts, Abbildung in dieser Leseprobe nicht enthalten: Mittelwert (der Stichprobe), Abbildung in dieser Leseprobe nicht enthalten: Standardabweichung (der Stichprobe).

Ist die Schiefe einer Verteilung negativ, so liegt eine linksschiefe Verteilung vor. Bei positiver Schiefe wird die Verteilung als rechtsschief bezeichnet. Normalverteilte Zufallsgrößen weisen eine Schiefe von 0 auf, da die Werte symmetrisch um den Erwartungswert verteilt sind.21 Rechtsschiefe Verteilungen weisen im Vergleich zur Normalverteilung verstärkt positive Erträge auf, linksschiefe Verteilungen verstärkt negative.22

2.3.3.2. Kurtosis

Die Kurtosis einer Verteilung ist ein Maß für die Stärke deren Krümmung. Sie ist durch folgende Gleichung definiert:23

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: Kurtosis von Abbildung in dieser Leseprobe nicht enthalten, Abbildung in dieser Leseprobe nicht enthalten: Erwartungswert, Abbildung in dieser Leseprobe nicht enthalten: Mittelwert (der Stichprobe), Abbildung in dieser Leseprobe nicht enthalten: Standardabweichung (der Stichprobe).

Bei normalverteilten Zufallsgrößen nimmt die Kurtosis stets den Wert 3 an. Höhere Werte deuten darauf hin, dass Werte nahe bei 0 und extrem hohe positive bzw. extrem hohe negative Werte mit einer im Vergleich zur Normalverteilung erhöhten Wahrscheinlichkeit auftreten.24

2.3.4. Definition des kohärenten Risikos

2.3.4.1. Einführung

Aufgrund der Variation von Risikomaßen hinsichtlich ihrer Eigenschaften ist es möglich, Risikomaße bezüglich ihrer Güte bzw. Kohärenz zu bewerten. Nach der Definition gilt ein Risikomaß als kohärent, wenn es die folgenden Eigenschaften erfüllt25:

A. Translationsinvarianz: Abbildung in dieser Leseprobe nicht enthalten
B. Subadditivität: Abbildung in dieser Leseprobe nicht enthalten
C. Positive Homogenität: Abbildung in dieser Leseprobe nicht enthalten
D. Monotonie: Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: Wertdifferenz der Variable Abbildung in dieser Leseprobe nicht enthalten zwischen zwei Zeitpunkten, Abbildung in dieser Leseprobe nicht enthalten: Wertdifferenz der Variable Abbildung in dieser Leseprobe nicht enthalten zwischen zwei Zeitpunkten, Abbildung in dieser Leseprobe nicht enthalten: reelle Zahl, Abbildung in dieser Leseprobe nicht enthalten: positive reelle Zahl.

Die angegebenen Axiome zeigen, wie sich ein kohärentes Risikomaß bei Veränderung der zugrunde liegenden Risiken bzw. bei Vergleich verschiedener Risiken verhalten sollte. Axiom A und B beschreiben, wie sich ein Risikomaß unter Veränderung eines Verlustbetrages ändert. Aus Axiom A geht hervor, dass J(X) als Kapitalbetrag angesehen werden kann, der benötigt wird, um ein risikobehaftetes Portfolio in ein risikoloses umzuwandeln.26 Axiom B beschreibt das Verhalten bei Diversifikation. Das Risiko nimmt demnach bei Bündelung von Risiken ab bzw. wenigstens nicht zu. Dieses Axiom ist besonders im Portfoliokontext relevant, da das Gesamtrisiko eines Portfolios nur der Summe der einzelnen Risiken entspricht, sofern diese simultan eintreten. In allen anderen Fällen muss das Gesamtrisiko des Portfolios unter der Summe der Einzelrisiken der Assets liegen.27 Nimmt ein Risiko mit einem Faktor b zu bzw. ab, so sollte das Risikomaß ebenfalls um diesen Faktor zu- bzw. abnehmen. Dies ist in Axiom C festgehalten. Axiom D erläutert das gewünschte Verhalten eines Risikomaßes bei Vergleich verschiedener Risiken. Es wird impliziert, dass ein höherer Verlustbetrag entsprechend zu einem höheren Risikowert führt, wodurch eine mögliche Konzentration von Risiken mit in die Messzahl einbezogen werden kann.28

2.3.4.2. Bewertung des Value at Risks und der Varianz

Da der Value at Risk nur bei Vorliegen einer elliptischen Verteilung das Axiom der Subadditivität erfüllt, gilt dieses Risikomaß in allen übrigen Fällen als nicht kohärent.29 30 Ein weiterer Nachteil besteht darin, dass er lediglich einen Punkt der Verteilung widerspiegelt und keine Information darüber gibt, wie sich die zugrunde liegende Verteilung verhält, sofern der Verlust das Value at Risk Level übersteigt.31

Die Varianz zählt ebenso nicht zu den kohärenten Risikomaßen und verfügt zudem über für den Kapitalmarkt nachteilige Eigenschaften als Risikomaß. Zum einen misst sie Risiken symmetrisch, so dass eine gezielte Berechnung des sogenannten "Downside Risks", also des Risikos negativer Kursentwicklungen, nicht möglich ist. Zum anderen kann sie unendliche Werte annehmen im Fall von nicht-normalverteilten Verteilungen.32 Ein weiteres Problem ergibt sich bei nicht-gaußschen Verteilungen, da die Varianz höhere Momente nicht berücksichtigt. Verschiedene Verteilungen können demnach in den ersten beiden Momenten übereinstimmen, aber dennoch in Bezug auf ihre Gestalt nicht identisch sein. Abbildung 2 veranschaulicht diese Feststellung anhand einer Ziehung von 1.000.000 Zufallswerten aus jeweils drei verschiedenen Verteilungen. Die Zufallswerte wurden daraufhin standardisiert, so dass die Mittelwerte und Varianzen der einzelnen Ziehungen jeweils null und eins betragen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Dichtefunktionen verschiedener Zufallsvariablen

(Quelle: eigene Darstellung)

Risikomaße, die auf der Varianz basieren sind ebenfalls nicht kohärent und in ihrer Anwendung suboptimal. Das Sharpe-Ratio beispielsweise, welches das Verhältnis der durchschnittlichen Überschussrendite zur Standardabweichung darstellt, neigt dazu, die tatsächliche Performance der zugrunde liegenden Anlage zu überschätzen.33 Es wird in der Praxis insbesondere bei der Performanceberechnung von alternativen Investments herangezogen.

2.3.5. Expected Shortfall

Ein kohärentes Risikomaß nach Artzner (1998) stellt der Expected Shortfall (ES) dar.34 Dieser eignet sich sowohl für elliptische als auch für nicht-elliptische Verteilungen. Die Berechnung erfolgt durch die Formel:35

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: Expected Shortfall von Abbildung in dieser Leseprobe nicht enthalten zum Wahrscheinlichkeitsniveau Abbildung in dieser Leseprobe nicht enthalten, Abbildung in dieser Leseprobe nicht enthalten

Durch Umformung kann aus der obigen Formel die folgende Funktion hergeleitet werden:36

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: generalisierte inverse Funktion von Abbildung in dieser Leseprobe nicht enthalten.

Im diskreten Fall bedeutet dies:37

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: Expected Shortfall bei Stichprobenumfang Abbildung in dieser Leseprobe nicht enthalten zum Wahrscheinlichkeitsniveau Abbildung in dieser Leseprobe nicht enthalten, Abbildung in dieser Leseprobe nicht enthalten: i-te Ordnungsstatistik der Variable Abbildung in dieser Leseprobe nicht enthalten, Abbildung in dieser Leseprobe nicht enthalten

Es wird deutlich, dass der Expected Shortfall den Erwartungswert des Risikos bei einem gewissen Wahrscheinlichkeitsniveau widerspiegelt.

Aufgrund der Kohärenz dieses Risikomaßes und aufgrund der Tatsache, dass der Expected Shortfall als robuste Risikokennzahl im Vergleich zum VaR gilt, wird im Nachfolgenden, insbesondere in Kapitel 4, der Expected Shortfall als risikobezogener Entscheidungsfaktor bei der Portfoliooptimierung herangezogen.38

2.4. Abbildung der Abhängigkeitsstruktur

2.4.1. Einleitung

Die dritte Komponente der Portfoliooptimierung ist die Identifikation und Abbildung der Abhängigkeitsstruktur der zu untersuchenden Daten. Im folgenden Abschnitt werden ausschließlich traditionelle Abhängigkeitskonzepte vorgestellt. Die Betrachtung eines alternativen Abhängigkeitskonzepts, der Kopula, erfolgt ausführlich in Kapitel 3.

2.4.2. Lineare Korrelation

2.4.2.1. Das Konzept

Lineare Korrelation ist ein Maß, um stochastische lineare Abhängigkeit zu ermitteln. Es gilt als das kanonische Maß bei multivariat normalverteilten Variablen bzw. im Allgemeinen bei elliptischen Verteilungen.39 Aus einer Datenreihe von nicht degenerierten Zufallsvariablen mit endlichen Varianzen kann die lineare Korrelation r zweier Variablen wie folgt berechnet werden:40

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: Kovarianz zwischen der Variable X und Y, Abbildung in dieser Leseprobe nicht enthalten bzw. Abbildung in dieser Leseprobe nicht enthalten: Varianz der jeweiligen Variable.

Der Wertebereich der linearen Korrelation liegt zwischen -1 und +1. Ein Wert von -1 bzw. +1 entspricht perfekter negativer bzw. perfekter positiver linearer Abhängigkeit der untersuchten Variablen. Unabhängigkeit zwischen zwei Zufallsvariablen wird durch den Wert null ausgedrückt, da in diesem Fall Abbildung in dieser Leseprobe nicht enthalten ist. Im Portfoliomanagement werden meist mehr als nur zwei Variablen untersucht, welches in der Berechnung einer Abbildung in dieser Leseprobe nicht enthalten-Korrelationsmatrix resultiert, wobei n der Anzahl an Variablen entspricht. Diese Matrizen sind symmetrisch und stets positiv semi-definit.41 Der Vorteil von linearer Korrelation liegt in der Simplizität der Berechnung, bei nicht perfekter linearer Abhängigkeit kann es jedoch zu Fehlinterpretationen kommen, wenn die zugrundeliegenden Variablen nicht durch eine elliptische Verteilung abgebildet werden können.

2.4.2.2. Nachteile

Lineare Korrelation ist nicht definiert, falls die Varianz nicht berechnet werden kann bzw. unendlich große Werte annimmt.42 Dies ist vor allem im Kontext von sogenannten "heavy-tailed distributions", also Verteilungen mit extremen Randwerten, kritisch. Es ist beispielsweise nicht möglich, die Korrelation zwischen zwei bivariat t-verteilten Variablen mit Freiheitsgraden £ 2 zu berechnen, da deren Kovarianz nicht definiert ist. Des Weiteren ist der lineare Korrelationskoeffizient weniger stabil bei Schätzungen von empirischen Daten und reagiert sensibler auf Ausreißer als der in 2.4.4.1. vorgestellte Rangkorrelationskoeffizient Kendall’s Tau.43

Die Messung von Unabhängigkeit zwischen Zufallsvariablen stellt ebenfalls ein Problem dar. Unabhängigkeit zwischen zwei Zufallsvariablen bedeutet stets deren Unkorreliertheit. Das Gegenteil ist jedoch nur korrekt, sofern eine multivariate Normalverteilung vorliegt. Zudem ist lineare Korrelation nur invariant gegenüber streng monoton steigender linearer Transformation.44 Folglich gilt: Abbildung in dieser Leseprobe nicht enthalten für jede nicht-linear streng monoton steigende Funktion T.45

Letztlich ist anzumerken, dass die Werte des linearen Korrelationskoeffizienten zwar im Intervall zwischen -1 und +1 liegen, dieses jedoch nicht zwangsweise auch vollständig ausfüllen. Dies ist darauf zurückzuführen, dass die Randverteilungen Einfluss auf r ausüben.46

2.4.3. Autokorrelation

2.4.3.1. Einführung

Wie oben bereits erwähnt, weisen alternative Investments sowie traditionelle Finanzanlagen häufig Autokorrelation auf. Autokorrelation wird auf Basis der Autokovarianz berechnet. Die Autokovarianzfunktion lautet wie folgt:47

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: Autokovarianz zum Zeitpunkt t bei Zeitverzögerung (Lag) τ, Xt: Wert der untersuchten Zufallsvariablen zum Zeitpunkt t, E(): Erwartungswert, µt: Mittelwert der Zufallsvariablen.

Diese Funktion ist symmetrisch. Für den Fall Abbildung in dieser Leseprobe nicht enthalten ergibt sich aus obiger Gleichung die Varianzfunktion. Die Berechnung der Autokorrelation erfolgt durch:48

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: Autokorrelationsfunktion bei Lag τ, Abbildung in dieser Leseprobe nicht enthalten: Abbildung in dieser Leseprobe nicht enthalten und Abbildung in dieser Leseprobe nicht enthalten: Abbildung in dieser Leseprobe nicht enthalten.

Ebenso wie der lineare Korrelationskoeffizient ergibt sich für den Autokorrelationskoeffizienten ein Wertebereich zwischen -1 und 1. Autokorrelation beschreibt also ein Maß der linearen Abhängigkeitsstruktur eines Prozesses.49 Dies impliziert, dass Autokorrelation die gleichen Nachteile aufweist wie die lineare Korrelation. Es ist möglich, alternativ dazu Autokonkordanzkoeffizienten zu berechnen, die entweder über Spearman’s Rho oder Kendall’s Tau berechnet werden.50

2.4.3.2. Umgang mit Autokorrelation

Autokorrelation führt zu einer Unterschätzung der Standardabweichung.51 Dies ist insbesondere bei alternativen Investments zu beachten, da hier Autokorrelation häufig auftritt. Eine Möglichkeit mit Autokorrelation in einer empirischen Analyse umzugehen ist, auf einen Ansatz aus der Real Estate Literatur zurückzugreifen. In der Bewertung von Real Estate Assets kommt es häufig zu einer Glättung der Bewertungen der einzelnen Assets innerhalb des Anlagevehikels.52 Darüber hinaus ist dieses Segment durch eine Unregelmäßigkeit in den Bewertungszeitpunkten gekennzeichnet. Der Ansatz sieht vor, die veröffentlichen Renditen zu "entglätten", um die Autokorrelation zu mindern bzw. auszugleichen. Der daraus resultierende Datensatz verfügt über eine höhere Volatilität und soll die Eigenschaften der zugrunde liegenden Daten realitätsnäher widerspiegeln. Die folgende Gleichung zeigt die Vorgehensweise:53

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: beobachteter (geglätteter) Wert eines Hedgefondsindex zu Zeitpunkt t, Abbildung in dieser Leseprobe nicht enthalten: tatsächlicher Wert des Index zu Zeitpunkt t, Abbildung in dieser Leseprobe nicht enthalten: Gewichtungsfaktor.

Gemäß dieser Gleichung kann der in t beobachtete geglättete Indexwert durch einen gewichteten Durchschnitt aus dem geglätteten Vorperiodenwert des Index und dem tatsächlichen Wert in dem Zeitpunkt ausgedrückt werden. Daraus kann die Gleichung ermittelt werden, die ungeglättete Renditen berechnet:54

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: beobachtete Rendite in Zeitpunkt t, Abbildung in dieser Leseprobe nicht enthalten: tatsächliche Rendite in Zeitpunkt t.

Um einen Autokorrelationskoeffizienten erster Ordnung nahe null zu erreichen, berechnet sich Abbildung in dieser Leseprobe nicht enthalten gemäß dem Autokorrelationskoeffizienten bei einer Zeitverzögerung (Lag) von 1.55 Der Erwartungswert der Zeitserie bleibt bei dieser Methode unverändert. Liegt ein Autokorrelationskoeffizient vor, der kleiner null ist, verringert sich die Standardabweichung der neuen Datenserie. Im umgekehrten Fall, bei einem Autokorrelationskoeffizient größer null, nimmt sie zu.56

2.4.4. Rangkorrelation

Beim Auftreten von nicht linearen Abhängigkeitsstrukturen ist die Anwendung des linearen Korrelationskoeffizienten nicht sinnvoll. Rangkorrelation bietet in diesem Fall eine Alternative. Vorteilhaft ist, dass zur Berechnung von Rangkorrelationskoeffizienten keine Annahmen über die Parameter der zugrundeliegenden Verteilung getroffen werden müssen. Zudem können Abhängigkeiten zwischen Verteilungen mit undefinierten Varianzen berechnet werden.57 Zwei wichtige Rangkorrelationskoeffizienten werden unterschieden.

2.4.4.1. Spearman's Rho

Der Rangkorrelationskoeffizient Spearman's Rho rS berechnet sich durch:58

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: lineare Korrelationsfunktion, Abbildung in dieser Leseprobe nicht enthalten bzw. Abbildung in dieser Leseprobe nicht enthalten: Verteilungsfunktion der Zufallsvariablen X und Y.

2.4.4.2. Kendall's Tau

Kendall's Rangkorrelation ist wie folgt definiert:59

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten und Abbildung in dieser Leseprobe nicht enthalten: zwei unabhängige Paare der gemeinsamen Verteilungsfunktion F.

Es wird angenommen, dass in der nachfolgenden Betrachtung der Rangkorrelationskoeffizienten F, F1 und F2 stetig sind.

Im Gegensatz zur linearen Korrelation, die lediglich eine lineare Abhängigkeit abbildet, messen die beiden Rangkorrelationskoeffizienten die monotone Abhängigkeit. Vorteilhaft ist, dass sie im Fall größtmöglicher negativer Abhängigkeit stets einen Wert von -1 und im Fall größtmöglicher positiver Abhängigkeit stets einen Wert von +1 annehmen. Im Fall von mehr als zwei Variablen wird die Rangkorrelation vergleichbar mit der linearen Korrelation in Form einer Abbildung in dieser Leseprobe nicht enthalten-Matrix angegeben.60

2.4.5. Tail Dependence

Im Unterschied zu den zuvor vorgestellten Abhängigkeitskonzepten misst Tail Dependence die asymptotische Abhängigkeitsstruktur in den Rändern der zugrunde liegenden Verteilung. Besonders relevant ist Tail Dependence bei der Untersuchung von Verteilungen, die zur Generierung extremer Werte dienen. Bei stetigen Zufallsvariablen ist dieses Maß invariant gegenüber streng steigender Transformation, wie in Abschnitt 3.7.1. erläutert wird.61

Tail Dependence l von zwei Zufallsvariablen X und Y mit Verteilungsfunktion Abbildung in dieser Leseprobe nicht enthalten und Abbildung in dieser Leseprobe nicht enthalten ist wie folgt definiert:62

Abbildung in dieser Leseprobe nicht enthalten

Abbildung in dieser Leseprobe nicht enthalten

mit Abbildung in dieser Leseprobe nicht enthalten: Upper Tail Dependence, Abbildung in dieser Leseprobe nicht enthalten: Lower Tail Dependence, Abbildung in dieser Leseprobe nicht enthalten.

Zwei Variablen gelten im oberen (unteren) Randbereich als asymptotisch unabhängig, wenn Abbildung in dieser Leseprobe nicht enthalten. In allen anderen Fällen liegt im oberen (unteren) Randbereich eine asymptotische Abhängigkeit vor.

2.4.6. Bewertung von Abhängigkeitskonzepten

Eine Bewertung von Abhängigkeitsmaßen erfolgt analog zum Vergleich von Risikomaßen anhand ihrer Eigenschaften. Folgende Eigenschaften erscheinen für ein Abhängigkeitsmaß d wünschenswert:63

Abbildung in dieser Leseprobe nicht enthalten

Axiom A sagt aus, dass das Abhängigkeitsmaß symmetrisch sein sollte. Axiom B grenzt den Wertebereich ein und normalisiert somit die Ergebnisse auf das Intervall [-1,+1], was eine Vergleichbarkeit von unterschiedlichen Risikomaßen erleichtert. Axiom C beschreibt, dass ein Abhängigkeitsmaß bei vollständig positiver Abhängigkeit den Wert Abbildung in dieser Leseprobe nicht enthalten und bei vollständig negativer Abhängigkeit den Wert Abbildung in dieser Leseprobe nicht enthalten annehmen sollte. Bei Transformation einer Zufallsvariablen sollte sich das Abhängigkeitsmaß entsprechend der Transformationsfunktion ändern bzw. gleich bleiben. Dies ist durch Axiom D ausgedrückt. Im Fall der Unabhängigkeit von Zufallsvariablen sollte d den Wert null annehmen, was in Axiom E beschrieben wird.

Ein Problem resultiert aus der Formulierung von Axiom E, denn dieses steht im Widerspruch zu Axiom D. Sind beide Axiome von Bedeutung kann folgende Änderung vorgenommen werden:64

A2. Abbildung in dieser Leseprobe nicht enthalten

B2. Abbildung in dieser Leseprobe nicht enthalten

C2. Abbildung in dieser Leseprobe nicht enthalten für T(): R ® R streng monoton im Bereich von X

Lineare Korrelation erfüllt die ersten beiden Axiome. Im Fall von stetigen Variablen kann gezeigt werden, dass Rangkorrelation alle Axiome A bis D erfüllt. Eine Verallgemeinerung von E für sphärische Verteilungen ist nicht möglich, da nachgewiesen werden kann, dass Abhängigkeit trotz einer Rangkorrelation von null existiert.

2.5. Portfoliooptimierung

2.5.1. Einleitung

Im folgenden Abschnitt werden verschiedene Optimierungsmethoden kurz vorgestellt. Dies soll lediglich als Übersicht und nicht als detaillierte Einführung in die einzelnen Methoden dienen.

2.5.2. Portfolio Selection

2.5.2.1. Einführung

Der Ansatz der Portfolio Selection von Markowitz, auch als Mean-Variance-Ansatz bezeichnet, basiert auf der Varianz, dem Erwartungswert und der Korrelations- bzw. Kovarianzmatrix der potentiell für ein Portfolio zur Verfügung stehenden Wertpapiere. Die erwartete Portfoliorendite ergibt sich aus der Formel:65

Abbildung in dieser Leseprobe nicht enthalten

mit r: Portfoliorendite, Abbildung in dieser Leseprobe nicht enthalten: Anteil von Wertpapier i am Portfolio, Abbildung in dieser Leseprobe nicht enthalten: diskontierte Rendite von Wertpapier i. Es gilt Abbildung in dieser Leseprobe nicht enthalten für alle i und Abbildung in dieser Leseprobe nicht enthalten.

Ein Investor sollte demnach unter den Wertpapieren mit dem maximal zu erwartenden Ertrag sein Portfolio diversifizieren.66 Mathematisch ergeben sich eine ganze Reihe optimaler Portfolios, die als effizient bezeichnet werden.67 Die Linie, auf der diese optimalen Portfolios liegen, ist stets konkav und wird als Effizienzlinie bezeichnet.68 Portfolios auf der Effizienzlinie weisen entweder den maximal zu erwartenden Ertrag bei einem gegebenen Varianz- bzw. Risikoniveau auf oder die geringste Varianz bzw. das geringste Risiko bei einem gegebenen zu erwartenden Ertrag. Es ist davon ausgegangen, dass ein Investor eines dieser effizienten Portfolios auswählen wird. Voraussetzung dafür ist, dass ein Investor seine Optimierung lediglich aufgrund der ersten beiden Momente einer Verteilung trifft.69

Eine naive Diversifikation eines Portfolios, also eine willkürliche Auswahl an Wertpapieren, führt dagegen nicht zwingend zu einer optimalen Risikominimierung, da hierbei die Kovarianzen vernachlässigt werden. Im Zuge des Mean-Variance-Ansatzes sind insbesondere Wertpapiere mit einer geringen Korrelation solchen mit einer hohen Korrelation untereinander vorzuziehen, da dadurch das Portfoliorisiko bestmöglich reduziert wird.70 Die Vorteilhaftigkeit dieses Ansatzes liegt vor allem in der leichten analytischen Lösbarkeit eines Optimierungsproblems. Zudem sind die benötigten Variablen schnell verfügbar bzw. empirisch herzuleiten.

2.5.2.2. Kritik am Mean-Variance-Ansatz

Im Falle von elliptischen Verteilungen ist die Risikomessung zur Bestimmung der optimalen Portfoliogewichtungen bzw. zum Vergleich der Risiken untereinander identisch mit dem Markowitz-Ansatz, sofern ein positiv homogenes, translations-invariantes Risikomaß verwendet wird.71 Wie in Kapitel 1 erwähnt, zeigen empirische Untersuchungen, dass elliptische Verteilungen, insbesondere die Normalverteilung, nur selten nachgewiesen werden können, so dass Optimierungsmodelle, die auf dieser Annahme beruhen, zu falschen Ergebnissen führen. Derartige Modellfehler nehmen mit der Anzahl an Assets innerhalb eines Portfolios weiter zu, welches auf die Tatsache zurückzuführen ist, dass extreme simultane Bewegungen des Assets (Co-Bewegungen) bei einer höheren Zahl an Portfoliowerten wahrscheinlicher werden.72 Mean-Variance-Portfoliooptimierung neigt zudem bei Berechnung der Portfoliogewichtungen zu extremen Ergebnissen, was bedeutet, dass eine kleine Anzahl an Assets überdurchschnittlich hohe Gewichte im Portfolio erhalten, während die übrigen Assets nicht mit in dem Portfolio enthalten sind.73 Geringe Änderungen in den einzelnen Wertpapierrenditen führen dazu, dass Finanztitel komplett aus einem Portfolio verschwinden bzw. in ein Portfolio aufgenommen werden.74 Finanzwerte mit hohen Erwartungswerten in den Renditen, geringer Korrelation untereinander und geringer Varianz werden tendenziell übergewichtet auf Kosten von Titeln mit geringen Erwartungswerten, hoher Korrelation und hoher Varianz.75 Derartige Beobachtungen widersprechen dem Grundsatz der Diversifikation. Ein weiterer Kritikpunkt ist, dass die Schätzungen der Optimierungsparameter als hundertprozentig sicher angenommen werden, obwohl diese meist auf empirischen Schätzungen vergangener Werte beruhen.76 Die oben genannten Probleme können gemildert werden, sofern Leerverkäufe nicht zugelassen sind.77

[...]


1 Vgl. Natale, 2006, S. 6.

2 Vgl. Heidorn / Kaiser / Muschiol, 2007, S. 8.

3 Vgl, Hu, 2006, S. 717.

4 Vgl. Ang / Chen, 2002, S. 5.

5 Vgl. Bundesverband Alternativer Investment e.V., http://www.bvai.de/index.php?id=121.

6 Vgl. Natale, 2006, S. 11.

7 Vgl. Patton, 2006, S. 537.

8 Vgl. Agarwal / Naik, 2000, S. 3.

9 Vgl. Fung, Hsieh, 2004, S. 66.

10 Vgl. Heidorn / Kaiser / Muschiol, 2007, S. 7.

11 Ackermann, McEnally und Ravenscraft, 1999, S. 867.

12 Vgl. Perret-Gentil / Victoria-Feser, 2003, S. 2.

13 Vgl. Perret-Gentil / Victoria-Feser, 2003, S. 3.

14 Vgl. Perret-Gentil / Victoria-Feser, 2003, S. 5f., S. 13 und S. 19.

15 Vgl. Hu, 2004, S. 717.

16 Vgl. Chopra / Ziemba,1993, S. 9.

17 Vgl. Michaud, 1989, S. 33.

18 Vgl. Artzner u.a., 1998, S. 216.

19 Vgl. Basel Committee on Banking Supervision, 2006, S.35.

20 Vgl. Franke / Härdle / Hafner, 2001, S. 33.

21 Vgl. Franke / Härdle / Hafner, 2001, S. 33.

22 Vgl. Heidorn / Kaiser / Muschiol, 2007, S. 15.

23 Vgl. Franke / Härdle / Hafner, 2001, S. 33.

24 Vgl. Franke / Härdle / Hafner, 2001, S. 33.

25 Vgl. Artzner u.a., 1998, S. 209f.

26 Vgl. Artzner u.a., 1998, S. 207-209.

27 Vgl. Acerbi / Tasche, 2002, S. 381.

28 Vgl. Artzner u.a., 1998, S. 210.

29 Vgl. Artzner u.a., 1998, S. 216-218.

30 Vgl. Embrechts / McNeil / Straumann, 1999, S. 12.

31 Vgl. Bacmann / Gawron, 2004, S. 4.

32 Vgl. Rachev u.a., 2006, S. 31.

33 Vgl. Brooks / Kat, 2001, S. 12f.

34 Vgl. Acerbi / Tasche, 2002, S. 1491.

35 Vgl. Acerbi / Tasche, 2002, S. 384.

36 Vgl. Acerbi / Tasche, 2002, S. 1491.

37 Vgl. Acerbi / Tasche, 2002, S. 383.

38 Vgl. Bacmann / Gawron, 2004, S. 11.

39 Vgl. Embrechts / McNeil / Straumann, 1999, S. 2.

40 Vgl. Embrechts / McNeil / Straumann, 1999, S. 6.

41 Vgl. Embrechts / McNeil / Straumann, 1999, S. 7.

42 Vgl. Hwang / Salmon, 2001, S. 14.

43 Vgl. Natale, 2006, S. 6.

44 Vgl. Natale, 2006, S. 6.

45 Vgl. Embrechts / McNeil / Straumann, 1999, S. 7f.

46 Vgl. Embrechts / McNeil / Straumann, 1999, S. 5.

47 Vgl. Franke / Härdle / Hafner, 2001, S. 119.

48 Vgl. Franke / Härdle / Hafner, 2001, S. 119.

49 Vgl. Franke / Härdle / Hafner, 2001, S. 119.

50 Vgl. Bouyé / Gaussel / Salmon, 2002, S. 18.

51 Vgl. Brooks / Kat, 2001, S. 13.

52 Vgl. Geltner, 1993, S. 327.

53 Vgl. Geltner, 1993, S. 328.

54 Vgl. Kat / Lu, 2002, S. 16.

55 Vgl. Kat / Lu, 2002, S. 16.

56 Vgl. Brooks / Kat, 2001, S. 14.

57 Vgl. Embrechts / McNeil / Straumann, 1999, S. 6

58 Vgl. Embrechts / McNeil / Straumann, 1999, S. 6

59 Vgl. Chu / Satchell, 2005, S. 9

60 Vgl. Embrechts / McNeil / Straumann, 1999, S. 16f.

61 Vgl. Embrechts / McNeil / Straumann, 1999, S. 18.

62 Vgl. Nelsen, 2006, S. 214.

63 Vgl. Embrechts / McNeil / Straumann, 1999, S. 15.

64 Vgl. Embrechts / McNeil / Straumann, 1999, S. 15.

65 Vgl. Markowitz, 1952, S. 78.

66 Vgl. Markowitz, 1952, S. 79.

67 Vgl. Markowitz, 1952, S. 82.

68 Vgl. Idzorek, 2006, S. 15.

69 Vgl. Markowitz, 1952, S. 83.

70 Vgl. Markowitz, 1952, S. 89.

71 Vgl. Embrechts / McNeil / Straumann, 1999, S. 12f.

72 Vgl. Mashal / Zeevi, 2002, S. 19-23.

73 Vgl. Idzorek, 2006, S. 6.

74 Vgl. Idzorek, 2006, S. 5f.

75 Vgl. Schäfer / Zimmermann, 1998, S. 140.

76 Vgl. Idzorek, 2006, S. 7.

77 Vgl. Schäfer / Zimmermann, 1998, S. 140.

Ende der Leseprobe aus 92 Seiten

Details

Titel
Grundlagen der Portfoliooptimierung unter Darstellung der Abhängigkeitsstruktur durch Kopulas
Hochschule
Ludwig-Maximilians-Universität München
Note
1,7
Autor
Jahr
2007
Seiten
92
Katalognummer
V91626
ISBN (eBook)
9783638051835
Dateigröße
2244 KB
Sprache
Deutsch
Schlagworte
Grundlagen, Portfoliooptimierung, Darstellung, Abhängigkeitsstruktur, Kopulas
Arbeit zitieren
Stefan Bures (Autor:in), 2007, Grundlagen der Portfoliooptimierung unter Darstellung der Abhängigkeitsstruktur durch Kopulas, München, GRIN Verlag, https://www.grin.com/document/91626

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Grundlagen der Portfoliooptimierung unter Darstellung der Abhängigkeitsstruktur durch Kopulas



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden