Die Bewertung von Risiken ist für Investoren und Finanzinstitutionen von entscheidender Bedeutung, um potenzielle Verluste zu quantifizieren und angemessene Entscheidungen zu treffen. Eine häufig verwendete Methode zur Risikobewertung ist der Value-at-Risk (VaR), der den Verlust angibt, den ein Portfolio innerhalb eines bestimmten Zeitraums mit einer bestimmten Wahrscheinlichkeit nicht überschreiten wird. Zwei gängige Ansätze zur Berechnung des VaR sind analytische Methoden, insbesondere die Delta-Normal-Methode, und die Historische Simulation. Zu beiden Verfahren existieren Varianten, die die Gewichtung der historischen Daten unterschiedlich behandeln.
Eine in letzter Zeit favorisierte weitere Methode zur Risikobeurteilung finanzwirtschaftliche Risiken ist der Expected Shortfall (ES), der im Gegensatz zum VaR ein kohärentes Risikomaß gemäß den Axiomen von Artzner ist. Der ES bestimmt den bedingten Erwartungswert, falls der VaR überschritten ist und wird aufsichtsrechtlich gegenüber dem VaR bevorzugt.
Das Ziel dieser Arbeit ist die Vor- und Nachteile von vier verschiedenen VaR-Berechnungsmethoden (Delta-Normal-Verfahren und Historische Simulation, jeweils in ungewichtet und gewichteter Variante) zu erläutern und zu beurteilen, welche Methode die Risiken in einem Portfolio präziser quantifiziert.
Mit Hilfe von sogenannten Backtesting Verfahren soll die Prognosequalität der Risikoeinschätzung beurteilt werden, indem die tatsächlichen Verluste oder Gewinne mit den vorhergesagten VaR-Schätzungen verglichen werden.
Es wird ein breit diversifiziertes Portfolio bestehend aus einem Aktienindex, US-Dollar, Gold und Bitcoin untersucht. Hierbei werden historische Kursdaten von insgesamt fünf Jahren verwendet, um realistische Marktbedingungen zu simulieren. Die Berechnungen werden in Excel durchgeführt, um die praktische Anwendbarkeit der Methoden zu demonstrieren.
Inhaltsverzeichnis
1 Einleitung
1.1 Historische VaR Entwicklung
1.2 Bedeutung für Finanzinstitute und Märkte
1.3 Stand der Forschung im Bereich der Prognosequalität von VaR
1.4 Methodisches Vorgehen und Forschungsziel der Arbeit
2 Theoretischer Hintergrund des VaR und ES
2.1 Definitionen und Konzepte des VaR und ES
2.2 VaR Berechnungsmethoden
2.2.1 Untersuchtes Portfolio und Marktdaten
2.2.2 Historische Simulation
2.2.3 Analytische Delta-Normal-Methode
2.2.4 Gewichtete Historische Simulation
2.2.5 Gewichtete Analytische Delta-Normal-Methode
2.3 Backtesting Verfahren
2.3.1 Baseler Ampeltest Verfahren für VaR
2.3.2 Backtest auf Grundlage des t-Test für ES
3 Durchführung der empirischen VaR-Portfolioanalyse
3.1 Auswertung des VaR auf Basis der Historischen Simulation
3.2 Auswertung des VaR auf Basis der Analytischen Delta-Normal-Methode
3.3 Auswertung des VaR auf Basis der gewichteten Historischen Simulation
3.4 Auswertung des VaR auf Basis der gewichteten Analytischen Delta-Normal-Methode
3.5 Zusammenfassung der Auswertungen
4 Ergebnisse und Diskussion der empirischen VaR-Portfolioanalyse
4.1 Vergleich der Prognoseergebnisse der VaR Berechnungsmethoden
4.2 Bewertung der Prognosequalität der VaR Berechnungsmethoden
4.3 Limitationen der empirischen VaR-Portfolioanalyse
5 Fazit und Ausblick
Zielsetzung & Themen
Die Masterarbeit hat zum Ziel, die Prognosequalität verschiedener Value-at-Risk (VaR) und Expected Shortfall (ES) Berechnungsmethoden anhand eines diversifizierten Portfolios zu vergleichen und zu bewerten, um festzustellen, welche Methode die Risiken präziser quantifiziert.
- Vergleich von VaR-Berechnungsmethoden (Historische Simulation vs. Delta-Normal-Methode)
- Untersuchung von ungewichteten gegenüber gewichteten Ansätzen
- Anwendung von Backtesting-Verfahren zur Überprüfung der Prognosegenauigkeit
- Portfolioanalyse unter Einbeziehung von Aktienindizes, Rohstoffen, Währungen und Kryptowährungen
- Bewertung der Stabilität von Risikomodellen in verschiedenen Marktphasen
Auszug aus dem Buch
1.1 Historische VaR Entwicklung
Die Entwicklung von Value-at-Risk (VaR) lässt sich auf die frühen 1990er Jahre zurückführen, obwohl die Ursprünge weiter zurückreichen. Bereits in den 1920er Jahren setzte die New Yorker Börse informelle Kapitalanforderungen für Wertpapierfirmen fest, um Verluste abzusichern. Diese Anforderungen entwickelten sich im Laufe der Zeit weiter, insbesondere durch die Einführung der Uniform Net Capital Rule durch die US Securities and Exchange Commission im Jahr 1975, die Sicherheitsabschläge beinhaltete, um Marktverluste abzusichern (Gildemeister, 2020).
Ein entscheidender Meilenstein war der G30-Bericht von 1993 der 20 Best-Practice-Regeln für das Risikomanagement von Derivaten vorschlug und damit auch die Entwicklung von VaR als Maß für Marktpreisrisiken förderte.
Dennis Weatherstone, der Vorsitzende von J.P. Morgan, war ein wesentlicher Treiber der Entwicklung von VaR. Weatherstone war unzufrieden, dass die Risiken verschiedener Finanzinstrumente mit unterschiedlichen Methoden gemessen wurden und forderte einen täglichen einseitigen Risikobericht, der das gesamte Marktrisikoexposure der Bank und die möglichen Verluste innerhalb der nächsten 24 Stunden darstellen sollte. Diese Anforderung führte zur Schaffung des „4:15-Reports“ und schließlich zur Entwicklung von RiskMetrics, welches maßgeblich von Till Guldimann entwickelt wurde (Gildemeister, 2020).
Zusammenfassung der Kapitel
1 Einleitung: Diese Einleitung führt in die Bedeutung der Risikobewertung ein, definiert die Forschungsfrage bezüglich der Prognosequalität von VaR und ES und erläutert das methodische Vorgehen anhand eines diversifizierten Portfolios.
2 Theoretischer Hintergrund des VaR und ES: In diesem Kapitel werden grundlegende Definitionen, mathematische Konzepte sowie die verschiedenen Berechnungsmethoden des VaR und ES (Historische Simulation und Delta-Normal-Methode) sowie Backtesting-Verfahren detailliert dargestellt.
3 Durchführung der empirischen VaR-Portfolioanalyse: Das Kapitel beschreibt die praktische Anwendung der zuvor erläuterten Berechnungsmethoden auf das gewählte fiktive Portfolio, um tägliche Risikokennzahlen über einen Zeitraum von fünf Jahren zu ermitteln.
4 Ergebnisse und Diskussion der empirischen VaR-Portfolioanalyse: Hier erfolgt der Vergleich und die kritische Bewertung der berechneten VaR-Werte mittels Backtest-Verfahren, um die Prognosequalität der verschiedenen Modelle zu evaluieren und aufgestellte Hypothesen zu prüfen.
5 Fazit und Ausblick: Das Fazit fasst die wesentlichen Ergebnisse der Analyse zusammen und gibt einen Ausblick auf die Anwendbarkeit der Modelle sowie auf Möglichkeiten für zukünftige Forschungsarbeiten.
Schlüsselwörter
Value-at-Risk, VaR, Expected Shortfall, ES, Historische Simulation, Delta-Normal-Methode, Backtesting, Prognosequalität, Risikomanagement, Marktpreisrisiko, Volatilität, Portfolioanalyse, Finanzmarktstabilität, Risikomodelle, Korrelation.
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit untersucht und vergleicht die Prognosequalität verschiedener Methoden zur Berechnung des Value-at-Risk (VaR) und des Expected Shortfall (ES) unter Anwendung auf ein breit diversifiziertes Anlageportfolio.
Was sind die zentralen Themenfelder der Studie?
Die zentralen Themen sind Risikomanagementmethoden, statistische Marktmodellierung, die Anwendung historischer versus analytischer Berechnungsansätze sowie die Validierung dieser Modelle mittels Backtesting.
Was ist das primäre Ziel der Untersuchung?
Das Ziel ist es, zu beurteilen, wie präzise unterschiedliche VaR- und ES-Berechnungsmodelle (ungewichtet vs. gewichtet) Markt- und Inflationsrisiken vorhersagen, um die Eignung der Modelle für Finanzinstitute zu bewerten.
Welche wissenschaftliche Methode kommt zum Einsatz?
Es werden historische Daten über fünf Jahre für ein Portfolio aus Aktien, Währungen, Edelmetallen und Kryptowährungen genutzt, um Simulationen durchzuführen, die dann statistisch mit t-Tests und Ampel-Backtests validiert werden.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil gliedert sich in die theoretische Fundierung der mathematischen Modelle, die praktische Implementierung der Risikoanalysen und die empirische Gegenüberstellung und Diskussion der erzielten Prognoseergebnisse.
Welche Schlüsselbegriffe charakterisieren die Arbeit?
Wichtige Begriffe sind Value-at-Risk, Expected Shortfall, Backtesting, Prognosequalität, Historische Simulation und Delta-Normal-Methode.
Wie beeinflusst die Gewichtung historischer Daten die Genauigkeit der VaR-Berechnung?
Die Ergebnisse zeigen, dass gewichtete Ansätze tendenziell aktueller auf Marktveränderungen reagieren, jedoch in manchen Phasen anfälliger für Volatilitätsschwankungen sein können als ungewichtete Modelle.
Welche Schlussfolgerung zieht der Autor zur Performance der untersuchten Methoden?
Die analytische Delta-Normal-Methode zeichnete sich durch eine hohe Zuverlässigkeit aus, während die historische Simulation je nach Marktphase unterschiedlich stabil agierte; insgesamt ist eine sorgfältige Selektion der Modelle je nach Marktlage entscheidend.
- Arbeit zitieren
- Anonym (Autor:in), 2024, Ein Vergleich zwischen der Analytischen und Historischen Value-at-Risk (VaR) Berechnung im Hinblick auf die Prognosequalität der Risikobewertung, München, GRIN Verlag, https://www.grin.com/document/1507088