Der Aufbau der Arbeit ist wie folgt zu beschreiben. Begonnen wird mit der Erklärung der Funktionsweise und Anwendung des Value-at-Risk im späterem Vergleich. Darauf folgen die Erläuterung der Begrifflichkeiten: Markt- und Liquiditätsrisiko, welche danach in Zusammenhang gebracht werden sollen. In Folge dessen wird die Implementierung in das eigentliche Value At Risk Modell vollzogen. Hierbei gilt es auch vorhandene Schwächen zu diskutieren und bereits genannte Kritikpunkte der Wissenschaft herauszuarbeiten und Lösungsansätze zu finden. Im anschließenden Kapitel geht es um die empirische Applikation, in der die herausgearbeiteten Ansätze angewandt und verglichen werden. Abschließend werden die Ergebnisse der vorangegangenen Applikation einem Backtesting unterzogen, aus dessen Resultaten sich die finalen Aussagen über die Implementierung bilden werden. Diese werden zum Schluss diskutiert und in einer Zusammenfassung dargestellt
Inhaltsverzeichnis
Einleitung
Value at Risk
Definition
Berechnung des Value at Risk
Methoden
Bestimmung der Volatilität mit EWMA
Marktrisiko
Liquiditätsrisiko
Liquidity Adjusted Value at Risk
Implementierung des Liquiditätsrisikos in den VaR Ansatz
Disskusion
Die Ermittlung von α der Geld/Brief Spannen Verteilung
Probleme der Verteilung aufgrund von fat tails
Überprüfung der Korrelationsannahme
Erweiterung des Modells durch die Kovarianz
Empirische Untersuchung
Daten
Berechnung
Empirische Ergebnisse
Backtesting
Kupiecs POF-Test
Ampel-Ansatz (traffic light approach)
Christoffersons Independence-Test
Joint-Test
Backtesting Ergebnisse
Zusammenfassung
Zielsetzung & Themen
Die vorliegende Bachelorarbeit untersucht die Zusammenhänge zwischen Markt- und Liquiditätsrisiken und deren Integration in Value-at-Risk-Prognosen (VaR). Ziel ist es, das konventionelle VaR-Modell durch die Berücksichtigung von Liquiditätsrisiken – insbesondere Geld-Brief-Spannen – sowie potenziellen Kovarianz-Effekten zu erweitern und die Prognosefähigkeit dieser modifizierten Ansätze im Vergleich zum Standardmodell zu evaluieren.
- Analyse und Berechnung von Value-at-Risk-Modellen unter Berücksichtigung von Liquiditätsrisiken.
- Empirische Untersuchung anhand von SDAX-Unternehmen über einen zehnjährigen Zeitraum (2007-2017).
- Überprüfung der Korrelationsannahmen zwischen Renditen und Geld-Brief-Spannen.
- Validierung der Prognosemodelle durch umfangreiche Backtesting-Verfahren wie den POF-Test, den Ampel-Ansatz und Christoffersons Independence-Test.
Auszug aus dem Buch
Methoden
Es gibt verschiedene Methoden um den Value at Risk bestimmen zu können. Diese Methoden können in parametrische Modelle und nicht parametrische Modelle unterteilt werden. Parametrische Modelle basieren auf statistische Parameter einer Häufigkeitsverteilung. Nicht-parametrische Modelle dahingegen sind Simulationen oder basieren auf historischen Daten. Die am häufigsten verwendeten Modelle sind: die historische Simulation und die analytische Methode (auch Varianz-Kovarianz-Ansatz genannt) sowie die Monte-Carlo Simulation.
- Historische Simulation: Sie gehört zu den nicht parametrischen Methoden und ist sehr einfach anzuwenden. Hierbei werden die zukünftigen potenziellen Wertänderungen des zum Beispiel Aktienportfolios, aus historischen Zeitreihen der relativen Kurswertänderungen gewonnen. Für die Zukunft wird unterstellt, dass die Kursänderungen der Vergangenheit in gleicher Art und Weise auch die zukünftigen Kursänderungen widerspiegeln. Somit ist auch die Verteilung der Kurswertänderungen einfach aus den vergangen Werten erstellbar und auf die Zukunft anwendbar. Dabei ist sie nicht basierend auf bestimmten Modellen wie die analytische Methode. Dadurch kann sie auf alle Vanilla-Optionen und OTC-Optionen angewandt werden. Ein Nachteil dieser Methode ist schlussfolgernd, dass am Markt neue Produkte oder Vermögenswerte nicht richtig bewertbar sind, weil die Menge an historischen Daten fehlt. Bei sehr langen Renditezeitreihen, kann es hingegen passieren, dass die Menge an einbezogenen Daten, dass VaR auf historischer Basis träge werden lässt, weil Schwankungen weniger gewichtet werden über eine lange Zeitreihe.
- Analytische Methode: Hierbei geht man von einer approximierten Normalverteilung der Häufigkeiten der Kurswertänderungen aus. Das ermöglicht eine einfache Berechnung des VaR in Abhängigkeit des Erwartungswertes bzw. Mittelwertes der täglichen Renditen und der Standardabweichung der täglichen Renditen. Der entscheidende Unterschied zu der historischen Simulation, ist die Annahme, der Normalverteilung der Kurswertänderungen.
Zusammenfassung der Kapitel
Einleitung: Einführung in die Thematik der Kapitalmarktrisiken und die Notwendigkeit der Erweiterung des Value-at-Risk-Modells um Liquiditätskomponenten.
Value at Risk: Definition des VaR und Erläuterung der verschiedenen Berechnungsmethoden sowie der Volatilitätsbestimmung mittels EWMA.
Marktrisiko: Erläuterung der Entstehung von Marktrisiken und deren systematische Quantifizierung im Kontext der Volatilität.
Liquiditätsrisiko: Differenzierung des Liquiditätsrisikos in Marktliquiditätsrisiko und Finanzierungs-Liquiditätsrisiko sowie Erläuterung der Marktcharakteristika.
Liquidity Adjusted Value at Risk: Darstellung der Implementierung des exogenen Liquiditätsrisikos in das bestehende VaR-Rahmenwerk.
Disskusion: Kritische Auseinandersetzung mit der Verteilung von Geld-Brief-Spannen, den Auswirkungen von fat tails und der Prüfung von Korrelationsannahmen.
Empirische Untersuchung: Anwendung der Modelle auf SDAX-Daten unter Nutzung rollierender Zeitfenster zur Überprüfung der Prognosegüte.
Backtesting: Erläuterung und Anwendung statistischer Testverfahren zur Überprüfung der Modellgenauigkeit der VaR-Ansätze.
Zusammenfassung: Fazit der Arbeit hinsichtlich der Effektivität der Modell-Erweiterungen und Ausblick auf zukünftige Forschungsfragen.
Schlüsselwörter
Value at Risk, VaR, Marktrisiko, Liquiditätsrisiko, Geld-Brief-Spanne, EWMA, Backtesting, SDAX, Kovarianz, Rendite, Volatilität, Finanzmarktkrise, Prognosefähigkeit, Modell-Validierung, Risikomanagement.
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit beschäftigt sich mit der Risikomessung im Finanzwesen, konkret mit der Verbesserung der Value-at-Risk-Prognosen durch die Integration von Liquiditätsrisiken und statistischen Korrekturen.
Was sind die zentralen Themenfelder der Untersuchung?
Die zentralen Themen sind das klassische Marktrisiko, die Liquiditätsrisiken (insbesondere Geld-Brief-Spannen), verschiedene VaR-Berechnungsmethoden sowie Methoden zur Validierung dieser Modelle (Backtesting).
Was ist das primäre Ziel oder die Forschungsfrage?
Das primäre Ziel ist es, zu untersuchen, ob die Einbeziehung von Liquiditätskosten und Kovarianz-Effekten in das Standard-VaR-Modell zu einer präziseren und effektiveren Risikoprognose führt.
Welche wissenschaftliche Methode wird verwendet?
Es werden mathematisch-statistische Methoden zur VaR-Berechnung genutzt, ergänzt durch eine empirische Untersuchung mit rollierenden Fenstern und Backtesting-Verfahren wie der Kupiec-POF-Test oder der Ampel-Ansatz.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil umfasst die theoretische Herleitung der Modelle, die Diskussion ihrer Schwächen (z. B. Normalverteilungsannahme, fat tails) sowie die empirische Anwendung auf eine Stichprobe von SDAX-Unternehmen.
Welche Schlüsselwörter charakterisieren die Arbeit?
Die Arbeit lässt sich durch Begriffe wie Value at Risk, Liquiditätsrisiko, Backtesting, Geld-Brief-Spanne und Finanzmarkt-Risikomanagement charakterisieren.
Warum spielt die Geld-Brief-Spanne eine so entscheidende Rolle für das Modell?
Sie dient als Indikator für exogene Liquiditätskosten. Da das Standard-VaR diese Kosten oft ignoriert, führt ihre Integration zu einer realistischeren Einschätzung des Risikos in volatilen Phasen.
Welches Ergebnis liefert die Untersuchung der Kovarianz-Erweiterung?
Die Untersuchung zeigt, dass die Integration der Kovarianz zwischen Rendite und Geld-Brief-Spanne keine signifikante Verbesserung der Modellprognosen bewirkt und in der Praxis vernachlässigbar ist.
Wie schneiden die erweiterten Modelle im Backtesting ab?
Die Modelle mit Liquiditätsanpassung (LiqAdj-VaR) performen im Backtesting deutlich besser als der einfache VaR, da sie eine höhere Abdeckung der Verluste bieten und die strengen statistischen Tests (POF/Joint-Test) eher bestehen.
Welche Schlussfolgerung zieht der Autor zur Prognosefähigkeit des VaR?
Der Autor kommt zu dem Schluss, dass der VaR – insbesondere in der erweiterten Form – ein nützliches Werkzeug im Risikomanagement bleibt, jedoch in Extremphasen der Finanzmärkte keine absolute Genauigkeit garantieren kann.
- Quote paper
- Florian Meyer (Author), 2018, Die Zusammenhänge zwischen Markt- und Liquiditätsrisiken in dem Kontext der Value-at-Risk Prognosen, Munich, GRIN Verlag, https://www.grin.com/document/468090