Quantitatives Risikomanagement in Theorie und Praxis


Wissenschaftlicher Aufsatz, 2014
48 Seiten, Note: 1,3

Leseprobe

Inhalt

1 Maße der Risikoquantifizierung
1.1 Einfache Verlustmaße
1.2 Varianz, Standardabweichung, Volatilität und Korrelation

2 Value-at-Risk-Konzept
2.1Historische- und Monte-Carlo-Simulation
2.2 Alternative Risikomaße - Lower-Partial-Moments-Ansatz
2.3 Von der Normalverteilung zum Value-at-Risk

3 Vor- und Nachteile ausgewählter Risikomaße
3.1 Streuungsmaße im Risikomanagement
3.2 Wechselbeziehung und Diversifikation im Portfolio
4 Schlussfolgerungen und Ausblick

1 Maße der Risikoquantifizierung

1.1 Einfache Verlustmaße

Maximalverlust:

Der Maximalverlust verdeutlicht die größtmögliche Dezimierung einer Vermögensposition und wird auch als Maximum Possible Loss bezeichnet.[1] Der Maximalverlust zielt ausschließlich auf eine Verlustsituation ab. Bei diesem Maß wird der höchstmögliche Verlustbetrag angenommen und, wie der Name impliziert, keine Gewinnsituation betrachtet.

- Erwarteter Verlust:

Der erwartete Verlust multipliziert die möglichen Maximalverluste mit deren Eintrittswahrscheinlichkeiten und summiert die Ergebnisse.[2] Dabei erfolgt die Berechnung des erwarteten Verlusts in Anlehnung an den, aus der Statistik stammenden Erwartungswert, mit dem Unterschied, dass ausschließlich vermögensreduzierende Realisationen in die Berechnung zum erwarteten Verlust einfließen. Die statische Sprache bezeichnet den Erwartungswert als gewogenes zahlenmäßiges Mittel aus den Realisationen und den Einzelwahrscheinlichkeiten (im Folgenden kurz: P). Da der erwartete Verlust ein Verlustmaß darstellt, befinden sich die Realisationen in einem negativen Intervall.[3] In der Stochastik wird der Erwartungswert auch mit μ bezeichnet. Der Erwartungswert ist ein Lagemaß. Lagemaße kennzeichnen das Zentrum einer Verteilung. Der Erwartungswert als Maßzahl ist geeignet für die Charakterisierung unterschiedlicher Aspekte von Verteilungsfunktionen.[4] Der erwartete Verlust ist zudem nicht zu verwechseln mit dem, an den englischsprachigem Raum angelehnten, Begriff des Expected Loss. Im Rahmen der Kreditkostenkalkulation bei Banken stellt der Expected Loss einen erheblichen Bestandteil dar.

1.2 Varianz, Standardabweichung, Volatilität und Korrelation

Zum Verständnis der folgenden Methoden, wie z.B. dem Value-at-Risk-Konzept, ist es notwendig, die folgenden Streuungsmaße zu betrachten. Die Maßzahlen für die Streuung werden benötigt, um qualifizierte Aussagen über mögliche zukünftige Renditen treffen zu können.[5] Die Varianz ist ein statistisches Streuungsmaß für die Wahrscheinlichkeitsverteilung (ex ante Betrachtung) und wird auch für ex post Betrachtungen verwendet.[6] Die Ermittlung der Quadratwurzel aus der Varianz führt zu der Standardabweichung. Varianz und Standardabweichungen messen in der Finanzwirtschaft die Volatilität.[7] Für die Wirtschaft misst die Volatilität überwiegend die Stärke der Schwankungen eines Wertpapierkurses, eines Index oder der Rendite einer Investition um deren Mittelwert. Volatilität misst die durchschnittliche Menge der Abweichung der einzelnen Merkmalswerte von ihrem Mittelwert. Das Risiko einer Investition ist umso größer, je höher die Varianz und/oder die Standardabweichung einer Investition sind.[8] Die Angabe Volatilität, erfolgt in Bezugnahme auf die Zielgröße, im Bereich der Finanzwirtschaft somit vornehmlich GE und Renditen. Die Annahme, dass Renditen normalverteilt sind, ist in der Finanzwirtschaft gängige Praxis.[9] Die Normalverteilung wird anhand der zwei Parameter Mittelwert (Erwartungswert) und Standardabweichung (Volatilität) beschrieben.[10] Der Mittelwert μ bestimmt die Lage und die Volatilität die Streuung. Die Normalverteilung besitzt im Mittelwert das Maximum und die Wendepunkte in μ + σ.[11] Die Abbildung (im Folgenden kurz: Abb.) 1 veranschaulicht den beschriebenen Sachverhalt. Die stetige Normalverteilung besitzt eine Dichtefunktion.[12] Dort gilt der in Abb. 1 dargestellte Wahrscheinlichkeitsraum. Dieser beinhaltet, dass 68,27 % der Wahrscheinlichkeitsmasse sich im Bereich + einer Standardabweichung und 95,45 % sich im Bereich + zwei Standardabweichungen um μ befinden.[13]

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1: Spezifische Konfidenzintervalle für die Normalverteilung

Weiter gilt, dass 99,73 % aller Fälle sich + 3 σ um μ befinden und demnach ca. 84 % oberhalb μ – σ.[14] Die Aussage, dass eine Wahrscheinlichkeit für eine bestimmte Konstellation von Realisationen vorliegt, kann mit P(X) abgekürzt werden. Eine Unterscheidung in historischer Volatilität (Daten aus der Vergangenheit) und zukunftsorientierter Volatilität (aktuelle Marktpreise am Terminmarkt) ist z.B. dann angemessen, wenn vergangenheitsorientierte Daten genutzt werden, um eine Value-at-Risk Berechnung für Zinspositionen durchzuführen oder, wenn Indizes auf der Grundlage impliziter Volatilitäten gebildet werden. Die Bewertung von Kapitalmarktprodukten, aufgrund historischer Volatilitätsmaße, kann Schwächen aufweisen, wenn starke aktuelle Marktänderungen entstehen.[15] Ein Index, der die Volatilitäten des Deutschen Aktienindex (im Folgenden kurz: DAX) auf Basis der impliziten Volatilität von Optionen, der zurzeit vom Markt erwarteten Intensität zukünftiger Preisschwankungen erfasst, ist der Neue Volatilitätsindex des Deutschen Aktienindex (im Folgenden: VDAX-NEW).[16] Der VDAX-NEW gibt die, für die nächsten 30 Tage am Terminmarkt erwartete, Volatilität des DAX wieder. Je höher der Wert des VDAX-NEW, desto höher ist für gewöhnlich die darauffolgende Schwankungsbreite des DAX.[17] Die Schwankung um den jeweiligen Durchschnitt ist das Risikomaß. Dass die implizite Volatilität gelegentlich zu Absicherungszwecken eingesetzt werden kann, schildert die folgende Ausführung. Im Zeitintervall vom 12.04.2010 bis 20.08.2010, belief sich das Minimum des DAX (Performanceindex) am 25.05.2010 auf 5670 Punkte. Das Maximum des VDAX-NEW belief sich im gleichen Zeitintervall am 21.05.2010 auf 39,31 Punkte. Die Tabelle mit den empirischen Daten befindet im Anhang A2.[18] Im beschriebenen Zeitintervall erreichte die implizite Volatilität des VDAX-NEW, fünf Tage bevor der DAX seinen Tiefpunkt erreichte, den gemessenen Höhepunkt. Damit erfüllt der VDAX-NEW die Voraussetzungen eines Frühindikators, im Sinne des KonTraG. Der VDAX-NEW kann als Anlageobjekt für eine risikoreduzierende Portfoliobeimischung (strategische Volatilitätsexposures) verstanden werden. Fasst ein Investor eine stark schwankende Marktreaktion als ungünstig auf, weil mit der Schwankungsbreite Verluste verbunden sind, so wird ein Investor, der in einen Index investiert, welcher bei steigender Volatilität an Wert gewinnt, solch eine Situation als positiv empfinden. Hier kommt die individuelle Risikopräferenz des Investors zum Vorschein. Diese Präferenz kann aber, wie sich noch zeigen wird, nicht mit einfachen Verlustmaßen oder Streuungsmaßen, qualitativ abgebildet werden. Die stochastische Volatilität ist ein eigenständiger Prozess, bei dem häufig das Volatilitätsclustering beobachtet wird. Volatilitätsclustering ergibt sich, wenn sich jeweils nacheinander größere und kleinere Ausschläge stärker ansammeln, so dass größere Bewegungen auf größere und kleinere Ausschläge auf kleinere folgen. Dieser stochastische Prozess der Volatilität impliziert eine Autokorrelation. Festzuhalten ist, dass Volatilität die Option bietet, Risiko und Chance einer Vermögensposition, aussagefähiger als z. B. beim Maximalverlust oder beim Erwartungswert zu quantifizieren und damit beherrschbarer zu gestalten. Als alleinige Maße für die Risikomessung sind die einfachen Verlustmaße und die Streuungsmaße nicht geeignet.

- Korrelation:

Ein Maß, welches die Schwankungen zwischen den Renditen zweier Risikopositionen erfasst, ist die Kovarianz.[19] Ein Risikovergleich von Vermögensanlagen allein anhand der dimensionslosen Kovarianz ist ungeeignet, weil die Kovarianz eine nicht standardisierte Zahl ist.[20] Aus diesem Grund wird die Kovarianz durch die Produkte der Volatilitäten dividiert, um so den normierten Korrelationskoeffizienten zu erlangen. Die Korrelation quantifiziert, in wie weit zwei quadratisch integrierbare Größen, von einer linearen Beziehung abweichen.[21] Der Korrelationskoeffizient ist ein dimensionsloses Maß für die Linearität von Veränderungen zweier Variablen. Der Korrelationskoeffizient bewegt sich aber im Intervall von – 1 < x < 1. Die Intervallnormierung des Korrelationskoeffizienten gibt Aufschluss über die Eigenschaften der beiden Werte. Die Intensität der Gleichläufigkeit zwischen zwei Größen steigt, je eher die positiven Intervallgrenzen erreicht werden.[22] Aus dem linearen Zusammenhang ergibt sich, dass die Intensität der Ungleichläufigkeit zwischen zwei Größen sinkt, je eher die negativen Intervallgrenzen erreicht werden. Ein negativer Intervallwert deutet auf eine diametrale Linearität, ein Wert von Null reflektiert keine erkennbaren linearen Zusammenhänge und ein positiver Intervallwert zeigt einen linearen Zusammenhang zwischen zwei Größen an.[23] Für das Zeitintervall vom 12.04.2010 bis 20.08.2010 weisen die oben beschriebenen Indizes VDAX-NEW und DAX eine negative Korrelation von -0,76 auf.[24] Die Intensität der Ungleichläufigkeit zwischen dem VDAX-NEW und dem DAX zeigen sich mit der deutlich negativen Intervallneigung. Eine Vergleichbarkeit zwischen mehreren Werten verschafft die Korrelationsmatrix. Eine Korrelationsmatrix beschreibt die linearen Zusammenhänge zwischen den Werten. Häufig können damit Indizes, Währungen und andere Benchmarks, auf deren Korrelationseigenschaften zueinander verglichen werden.

2 Value-at-Risk-Konzept

Das bekannteste Maß für die Risikomessung nach der Volatilität ist das Value-at-Risk-Konzept. Ursprünglich entwickelte J.P. Morgan den Value-at-Risk (im Folgenden kurz: VaR) für die Messung von Marktrisiken. Die Entwicklung des VaR folgte primär dem Ziel, verschiedene Risikoarten mit einer Risikomaßzahl zusammen zu führen und vergleichbar zu gestalten.[25] Zwischenzeitlich beinhaltet die Weiterentwicklung des VaR- Konzepts, dass der VaR ein standardisierter Ansatz für die Risikoberichterstattung ist und für die Messung von Ausfallrisiken genutzt wird.[26] Im Unterschied zum beidseitigen Schwankungsrisiko misst der VaR nicht die Streuung, sondern das Verlustrisiko. Formal besitzt der VaR drei wesentliche Eigenschaften. Die Quantileigenschaft stellt den Bezug zum vorgegebenen Wahrscheinlichkeitsniveau her. Die vorgegebene Wahrscheinlichkeitsverteilung des möglichen Verlustes muss eindeutig sein und die Nichtnegativität ist erforderlich.[27] Der VaR ist ein einseitig verlustorientiertes Risikomaß und misst den möglichen zukünftigen Verlust einer Vermögensposition unter der Annahme konstanter (normaler) Umweltbedingungen.[28] Der VaR quantifiziert den zu erwartenden Verlust in einem definierten Zeitraum (z.B. ein Tag oder ein Jahr), unter bestimmten Sicherheitsniveaus (z.B. 95 % oder 99 %) und betrachtet somit den Verlust, der mit einer vorgegebenen Wahrscheinlichkeit nicht überschritten wird, aber überschritten werden kann.[29] Der VaR wird in der Dimension GE wiedergegeben und erhebt den Anspruch, vergangene Unsicherheiten der Risikomessung zu überwinden, weil nun quantitativ hochwertige Aussagen über mögliche zukünftige Verluste getroffen werden. Dieses Risikomaß findet in Theorie und Praxis die häufigste Anwendung.[30] Zur Risikoquantifizierung mit dem VaR-Konzept werden bestimmte Eingabeparameter benötigt. Für ein besseres Verständnis des VaR-Konzepts werden nun mögliche Berechnungsverfahren des VaR, z.B. die Approximative Varianz-Kovarianz-Methode, näher erläutert. Risikopositionen, die nur von einem Risikofaktor beeinflusst werden, können mit dem Standardverfahren erfasst werden. Dementsprechend wird im Folgenden kurz auf die approximative Methode zur Herleitung des VaR eingegangen.[31] Beinhaltet ein Portfolio Derivate Finanzinstrumente, findet z.B. die approximative Varianz-Kovarianz-Methode Anwendung, weil die angenommene normalverteilte Änderung der Optionsvariablen eine nicht normalverteilte Änderung der Option beinhaltet.[32] Lineare Modelle liefern für ein Portfolio mit Optionen nur ungefähre Kalküle. Befinden sich also Derivate im Portfolio und wird der VaR mit dem Delta-Normal-Ansatz der Varianz-Kovarianz-Methode berechnet, besteht die Gefahr, dass Fehler bei der VaR-Berechnung entstehen.[33] Der Delta-Normal-Ansatz berücksichtigt nur die erste Ableitung der Black-und-Scholes Formel.[34] Dadurch kommt es bei einem ständigen Wandel des Deltas zu einer Fehlinterpretation des zu Grunde liegenden Risikos mit einer daraus resultierenden vermehrten Risikoübernahme.[35] Zur Beseitigung dieser Anfälligkeit wird mit dem Delta-Gamma-Ansatz die Veränderungsrate des Deltas bezüglich der Veränderung des Kassakurses gemessen.[36] Eine genauere Berechnung des VaR lässt sich mit dem Delta-Gamma-Ansatz, auch als approximative Varianz-Kovarianz-Methode bezeichnet, herbei führen, weil dieser Ansatz die zweite Ableitung der Black-und-Scholes Formel beinhaltet.[37] Für die Einbeziehung von Gamma in die VaR-Berechnung wird anfänglich eine Taylor-Approximation der Optionsbewertungsfunktion durchgeführt, so dass die Wertschwankungen von Optionen genauer abgebildet werden können.[38] Der Unterschied zum Standardverfahren liegt darin, dass die Einflussfaktoren geschätzt und nicht aus den historischen Daten entnommen werden. Sind historische Daten vorhanden können diese simuliert werden.

2.1 Historische- und Monte-Carlo-Simulation

Simulationen bilden eine Anzahl von Stichproben ab, die, der Stichprobentheorie nach, für eine gesicherte Aussage repräsentativ sind.[39] Simulationsinstrumente wenden sich vom analytischen Ansatz ab und können in historische- und Monte-Carlo-Simulation unterteilt werden. Die historische Simulation arbeitet mit Daten aus der Vergangenheit und unterstellt, dass vergangene Risikofaktoren, den Wert eines Portfolios auch in der Zukunft beeinflussen.[40] Für die Berechnung, des auf historischer Simulation beruhenden VaR, werden für einen repräsentativen Zeitraum, historische Daten aufbereitet. Dazu gehören die historischen Risikofaktoren (z.B. Wechselkurse am Devisenmarkt, Aktienkurse oder Zinssätze) und die entsprechenden Ausprägungen der dazugehörigen Werte für das gewählte Zeitintervall.[41] Bei Betrachtung der gesamten Risikoposition ergeben sich für jede Zeiteinheit (z.B. Monat, Quartal oder Jahr), innerhalb des betrachteten Zeitintervalls, unterschiedliche Gesamtportfoliowerte. Daraus ergibt sich, dass relative Veränderungen (Volatilität) zwischen den Portfoliogesamtwerten, innerhalb des betrachteten Zeitintervalls, auftreten. Die historische Simulation wird genutzt, um einzelne Risikopositionen oder ganze Portfolios mit zukünftig zu erwartenden Wertänderungen zu konfrontieren. Wird die Volatilität in Abhängigkeit von den relativen historischen Werten gemessen und errechnet man den VaR wie beschrieben, hat dies den Vorteil, dass sowohl die Höhe der Risikoposition, als auch die Verteilung der historischen Wertänderungen in die Berechnung einfließen.[42] Der VaR ist dann die Differenz aus der Risikoposition (aktueller Marktwert des Portefeuilles) und der hypothetischen Risikoposition. Die Ausführung zeigt, dass die historische Simulation, eine, für die Praxis leicht zu realisierende Methodik, aufweist. Die Schwierigkeit bei diesem Simulationstyp liegt in der Auswahl des richtigen Zeitfensters. Bei der Risikoermittlung mit alternativen Risikomessverfahren, im praktischen Teil, wird eine historische Simulation genutzt, um die Referenzwertunterschreitungen zu messen.

2.2 Alternative Risikomaße - Lower-Partial-Moments-Ansatz

Besteht Gewissheit über die Wahrscheinlichkeitsverteilung vorliegender Renditevertei-lungen, liefern Lower-Partial-Moments (im Folgenden kurz: LPMs) Informationen über die Höhe und die Wahrscheinlichkeit zu den unter dem Referenzwert liegenden Werten, d.h. der Zone links vom Referenzwert. Bei nicht symmetrischen Renditeverteilungen ist die Aussagefähigkeit der Standardabweichung begrenzt. Auch in diesem Fall liefern die LPMs genauere Aussagen über das Risiko der Unterschreitung des Referenzwertes. Die LPMs zur Beschreibung der negativen Abweichungen vom Referenzwert leiten sich grundsätzlich von den zentralen Momenten aus der Statistik ab. LPMs untersuchen die Unterschreitung des subjektiv festgelegten Referenzwertes, z.B. Renditevorgabe oder Verlustlimit, indem der Mittelwert für alle beobachteten Unterschreitungen errechnet wird. Sollen die LPMs für ein Portfolio bestimmt werden, empfiehlt es sich, ein Verlustlimit fest zu legen und dieses vom Portfoliowert abzuziehen, um den Referenzwert zu erhalten. Die Anzahl der Unterschreitungen des Referenzwertes wird ermittelt, indem alle relativen Veränderungen eines Portfolios mit dem Ausgangswert des Portfolios, z.B. Portfoliowert in GE am Ende eines Jahres, multipliziert werden. Somit erhält man eine, anhand historischer Daten simulierte, Verteilung der zu erwartenden Wertänderungen für das gegenwärtige Portfolio. Nachdem die simulierten Werte in eine Rangfolge geordnet wurden, können nun mittels Abzählen, die Referenzwertunterschreitungen ermittelt werden. Diese Daten dienen als Grundlage für die Berechnung der LPMs. Bei der Ermittlung des LPM 0 wird die Anzahl der Referenzwertunterschreitungen dividiert durch die Anzahl aller Fälle. Das LPM 0 verwendet den Exponenten 0 und ist die Wahrscheinlichkeit dafür, dass eine Rendite unterhalb des Referenzwertes erreicht wird. Das LPM 0 weißt eine konzeptionelle Analogie mit dem Informationsgehalt des VaR auf, weil 1 - LPM 0 die Sicherheitswahrscheinlichkeit (konzeptionell ähnlich dem VaR) ist, dass der Referenzwert nicht unterschritten wird. Das LPM 1 potenziert sich mit 1 und gibt bei einer Verfehlung der Mindestrendite Auskunft über die durchschnittlich negative Referenzunterschreitung. Es wird nicht die gesamte Wahrscheinlichkeitsverteilung betrachtet. In die Berechnung von LPM 1 und LPM 2 fließen nur die Fälle ein, bei denen eine Referenzwertunterschreitung vorliegt. Das LPM 1 wird ermittelt, indem die absoluten Abweichungen vom Referenzwert addiert und anschließend mit der Anzahl der Referenzwert-unterschreitungen dividiert werden. Mit der Quadration der einseitigen Referenzwertunterschreitungen werden bei den LPM 2 die zunehmenden Größen stets stärker gewichtet als vorige Größen. Bei der Nutzung von LPM 2 gewichtet ein Investor hohe Abweichun-gen vom Referenzwert höher als geringere Abweichungen, damit ist LPM 2 ein geeignetes Maß für risikoaverse Anlagestrategien. Für eine genaue Interpretationsmöglichkeit der dimensionlosen LPM 2 empfiehlt sich , weil in GE z.B. ver-gleichbar mit dem LPM 1 ist. In ihrer Ermittlung unterscheiden sich die LPMs darin, dass den Unterschreitungen des Referenzwertes unterschiedliche Exponenten zugeordnet werden. Eine weitere und weitaus anspruchsvollere Simulationsmethode ist die Monte-Carlo-Simulation.[43]

- Monte-Carlo Simulation:

Grundannahme des Simulationstyps ist, dass die Lösung des betrachteten Problems als Parameter eines Zufallsexperiments darstellbar ist und, dass das Zufalls- experiment realisierbar ist.[44] Dabei werden durch gleichverteilte Zufallszahlen stochastische Stichproben erzeugt, wodurch die unbekannten Parameter, mit denen die Risiken beschrieben werden, durch Zufallsgrößen bestimmt werden.[45] Die Durchführung der Monte-Carlo-Simulation erfolgt anhand von drei Prozessschritten:

- Volatilitäten und Korrelationen werden als Risikofaktoren ermittelt, analog der Varianz-Kovarianz-Methode
- Standardnormalverteilte, unkorrelierte Zufallszahlen werden den Risikofaktoren zugewiesen. Anschließend werden durch die Cholesky-Zerlegung der Kovarianzmatrix, korrelierte Zufallszahlen erzeugt
- Anhand der korrelierten Zufallszahlen folgen simulierte Veränderungen der Risikofaktoren. Für die simulierten Risikofaktoren wird anhand von Bewertungsmodellen der jeweilige Marktwert der Risikopositionen errechnet. Damit erhält man in jedem Simulationslauf einen Wert für die betrachteten Zielgrößen. Die Vorgehensweise wird wiederholt (z. B. 20.000 Szenarien), bis eine Simulation generiert wurde, die eine Folgerung stabiler Verteilungen und statistischer Kennzahlen rechtfertigt.[46]

Durch die Zusammenführung der bewerteten Risikopositionen bestimmt sich der simulierte Portfoliowert. Die Neubewertungen des Portfolios liefern dann die Grundlage für die Berechnung des VaR. Wurden Verlustverteilungen für jedes Risiko generiert, werden dann Aussagen über die maximale Wertänderung von Risikopositionen formuliert.

2.3 Von der Normalverteilung zum Value-at-Risk

Bei der Ermittlung des VaR wird regelmäßig angenommen, dass die Schwankungen der Risikofaktoren unabhängig voneinander sind, als stochastischer Prozess beschrieben werden können und einem Zufallspfad (einem sogenannten Random Walk) folgen.[47] Liegen normalverteilte Renditen vor und soll die Wahrscheinlichkeit bestimmt werden, eine Rendite unterhalb eines bestimmten Schwellenwertes zu erzielen, können normalverteilte Zufallsvariablen (NAbbildung in dieser Leseprobe nicht enthalten) in die standardnormalverteilten (N (0,1)) Zufallsvariablen transformiert werden.[48] Diese Transformation besitzt die Eigenschaft, dass unter geome-trischen Gesichtspunkten betrachtet, dieser Prozess einer flächengenauen Überführung gleicht, bei der die Transformation einer Verschiebung der Glockenkurve auf der Abszisse zum jeweiligen Mittelwert gleicht. Die Verteilungsfunktion der Standardnormalverteilung besitzt keine einfache explizite Darstellung, daher baut die elementare Approximation der sogenannten z-Werte auf entsprechenden Schätzungen von Ungleichungen auf.[49] Der z-Wert wird auch als das (1-c) Quantil der Standardnormalverteilung bezeichnet.[50] Der VaR kann somit als Quantilsrisikomaß bezeichnet werden, weil aus statistischer Sicht der VaR ein Quantil der Verlustverteilung darstellt und damit ein robustes Risikomaß ist.[51] Die speziellen z-Werte der standardnormalverteilten Verteilungsfunktion Abbildung in dieser Leseprobe nicht enthaltenliegen öffentlich in Tabellenform aus und werden synonym für Standardabweichung oder auch Sicherheitswahrscheinlichkeit gedeutet. In der sich im Anhang befindenden Tabelle A3, S. 55, befinden sich die speziellen Werte in % der Verteilungsfunktion der Standardnormalverteilung Φ. In Tabelle A3 entsprechen die Werte der zweiten Spalte Abbildung in dieser Leseprobe nicht enthaltender Wahrscheinlichkeit eines Wertes unterhalbAbbildung in dieser Leseprobe nicht enthalten. Die Wahrscheinlichkeit eine Rendite unterhalb Abbildung in dieser Leseprobe nicht enthaltenzu erzielen, ist der vierten Spalte in der Tabelle A3 zu entnehmen und beträgtAbbildung in dieser Leseprobe nicht enthalten. Für den standardnormalverteilten Flächeninhalt Abbildung in dieser Leseprobe nicht enthaltenim BereichAbbildung in dieser Leseprobe nicht enthalten, ist dem z-Wert von 2,33 die Sicherheitswahrscheinlichkeit von 99 % zu entnehmen. Das VaR-Kalkül benötigt diese speziellen Werte der standardnormalverteilten Verteilungsfunktion, um z.B. die Wahrscheinlichkeit für eine Rendite zu ermitteln, die sich unterhalb von Abbildung in dieser Leseprobe nicht enthaltenbefindet.[52] Die Wahrscheinlichkeit dazu ist wieder der Tabelle A3 zu entnehmen und beträgtAbbildung in dieser Leseprobe nicht enthalten.[53] Für die Risikoposition bedeutet dies, dass sich 97,72 % der Normalverteilung über 2,28 Standardabweichungen unterhalb des Mittelwerts befinden.[54] Die Transformation ermöglicht normalverteilte Zufallsvariablen in die standardnormalverteilten Zufallsvariablen zu überführen. Durch Umformung der Transformationsregel werden die z-Werte in das benötigte Quantil der beliebigen normalverteilten Zufallsvariablen überführt.[55] Dies ist notwendig, um den gesuchten VaR zu ermitteln.

[...]


[1] Siehe Kremers, M. (Industrierisiko, 2002), S. 115.

[2] Siehe Wolke, T. (Risikomanagement, 2008), S. 14.

[3] (-∞,0) = ] -∞,0[ := { xℝ ∣ x < 0 }.

[4] Siehe Hesse, C. (Wahrscheinlichkeitstheorie, 2009), S. 141.

[5] Siehe Brealey, R.A./Myers, S.C./Marcus, A.J. (Fundamentals, 2009), S. 318 f.

[6] Siehe Volkart, R. (Corporate Finance, 2008), S. 213.

[7] Siehe Perridon, L./Steiner, M./Rathgeber, A. (Finanzwirtschaft, 2009), S. 281; Brealey, R.A./Myers, S.C./Marcus, A.J. (Fundamentals, 2009), S. 31.

[8] Siehe Perridon, L./Steiner, M./Rathgeber, A. (Finanzwirtschaft, 2009), S. 109.

[9] Siehe Volkart, R. (Corporate Finance, 2008), S. 210.

[10] Im amerikanischem Raum bekannt als Normalverteilungskurve, im europäischem Raum häufig auch

Gaußsche Glockenkurve (nach Carl F. Gauss) genannt. Siehe Jorion, P. (Value at Risk, 2007), S. 84.

[11] Siehe Fischer, B.R. (Analyse, 2010), S. 393; Hesse, C. (Wahrscheinlichkeitstheorie, 2009), S. 156; Jorion, P. (Value at Risk, 2007), S. 86.

[12] Die Dichte der Normalverteilung kann mit beschrieben werden.

[13] Siehe Fischer, B.R. (Analyse, 2010), S. 395; Hesse, C. (Wahrscheinlichkeitstheorie, 2009), S. 156.

[14] P (X > ) = 84,13 % = 68,27 % / 2 + 50 %, ex quo ist P (X < ) = 100 % - 84,13 % = 15,87 %.

[15] Siehe Perridon, L./Steiner, M./Rathgeber, A. (Finanzwirtschaft, 2009), S. 338.

[16] Siehe Peetz, D./Schmitt, D. (Portfolioabsicherung, 2009), S. 15 f.

[17] VDAX-NEW und DAX sind Produkte von Deutsche Börse AG.

[18] Zu den empirisch gemessenen Werten des VDAX-NEW und DAX (Performanceindex), siehe A2, S. 54.

[19] Siehe Wolke, T. (Risikomanagement, 2008), S. 37.

[20] Je mehr Anlageklassen im Portfolio, desto mehr dominieren die Kovarianzen über die Varianzrisiken. Die Kovarianzmatrix zeigt, dass die gewichtete Summe der Volatilitäten einzelner Anlageklassen, sich als Gesamtvolatilität eines Portfolios darstellen lässt. Siehe Fischer, B.R. (Analyse, 2010), S. 398.

[21] Siehe Hesse, C. (Wahrscheinlichkeitstheorie, 2009), S. 82.

[22] Siehe Perridon, L./Steiner, M./Rathgeber, A. (Finanzwirtschaft, 2009), S. 281.

[23] Ein Korrelationskoeffizient von 0 zeigt ein ausgeprägtes geschwungenes Muster.

[24] Oftmals werden auch lange Zeitreihen (t > 20 Jahre) für den Vergleich von Werten herangezogen.

[25] Siehe Wolke, T. (Risikomanagement, 2008), S. 27.

[26] Siehe Deutsche Börse AG (Geschäftsbericht, 2010), S. 94; Siemens AG (Geschäftsbericht, 2010), S. 220.

[27] Für eine ausführliche Diskussion zur Nichtnegativität beim VaR, siehe Huschens, S. (VaR, 1999), S. 15.

[28] Goldberg, L. et al. ( Extrem risks, 2010), S. 18.

[29] Siehe Jorion, P. (Value at Risk, 2007), S. 17; Wolke, T. (Risikomanagement, 2008), S. 27.

[30] Siehe China Construction Bank (Annual Report, 2010), S. 210; Deutsche Bundesbank (Monatsbericht 2007), S. 59; Deutsche Bank AG (Jahresbericht, 2010), S. 49; Gleißner, W. (Risikomanagement, 2008), S. 112; Siemens AG (Geschäftsbericht, 2010), S. 217-220; Volkart, R. (Finance, 2008), S. 912 f.

[31] Die analytische Methode bezieht Korrelationen und Volatilitäten historischer Daten in den

Berechnungsvorgang ein und wird als Standardverfahren der Varianz-Kovarianz-Methode bezeichnet.

[32] Siehe Hull, John C. (Derivate, 2009), S. 220.

[33] Siehe Hull, John C. (Derivate, 2009), S. 223; Siehe Romeike, F./Hager, P. (Risk, 2009), S. 325.

[34] Zum Black-und-Scholes Optionspreismodell, siehe Perridon, L./Steiner, M./Rathgeber, A.

(Finanzwirtschaft, 2009), S. 335-343.

[35] Siehe Romeike, F./Hager, P. (Risk, 2009), S. 325-328.

[36] Siehe Perridon, L./Steiner, M./Rathgeber, A. (Finanzwirtschaft, 2009), S. 340 f.

[37] Siehe Romeike, F./Hager, P. (Risk, 2009), S. 328.

[38] Für die Anwendung der Taylor-Approximation, siehe Romeike, F./Hager, P. (Risk, 2009), S. 326-328.

[39] Siehe Hölscher, R. (Investition, 2010), S. 146.

[40] Siehe Romeike, F./Hager, P. (Risk, 2009), S. 142.

[41] Befinden sich, z.B. Zero- Bonds (Höhe = 100 GE, Fälligkeit = 20 Jahre, aktueller Zins = 4,5 %) im

Portefeuille, berechnet sich die aktuelle Risikoposition dazu mit:

[42] Siehe Wolke, T. (Risikomanagement, 2008), S. 51.

[43] Den Namen erhielt die Monte-Carlo-Simulation aufgrund der wahrscheinlichkeitsmathematischen

Vorgehensweise und der damit implizierten Glücksspielmentalität. Siehe Linnertová, D./Reuse, S.

(Value at Risk, 2009), S. 84-88.

[44] Hesse, C. (Wahrscheinlichkeitstheorie, 2009), S. 332.

[45] Die Risikofaktoren folgen einem Zufallspfad. Siehe Wolke, T. (Risikomanagement, 2008), S. 52.

[46] Siehe Wolke, T. (Risikomanagement, 2008), S. 52. Cholesky-Zerlegung beschreibt ein mathematisches Verfahren zur Erzeugung korrelierter Zufallszahlen aus unabhängigen Zufallszahlen. Siehe Romeike, F./Hager, P. (Risk, 2009), S. 348-354. Gleichverteilte Zufallszahlen können im Tabellenkalkulationspro- gramm Excel mit dem Befehl „= ZUFALLSZAHL()“, erzeugt werden.

[47] Siehe Deutsche Börse AG (Geschäftsbericht, 2010), S. 94.

[48] Die standardisierte Normalverteilung (N (0, 1)) beschreibt sich mit den zwei Parametern Mittelwert = 0 und Standardabweichung =1 und basiert auf den Gesetzmäßigkeiten des zentralen Grenzwertsatzes. Siehe Hesse, C. (Wahrscheinlichkeitstheorie, 2009), S. 245-248.

[49] Siehe Hesse, C. (Wahrscheinlichkeitstheorie, 2009), S.155.

[50] C entspricht hier dem Konfidenzniveau (c = 0 < c < 1), siehe auch Fischer, B.R. (Analyse, 2010), S. 414.

[51] Siehe Henking, A./Bluhm, C./Fahrmeir, L. (Kreditrisikomessung, 2006), S. 30.

[52] Für die Anwendung gilt:. Siehe Fischer, B.R. (Analyse, 2010), S. 393 f. Das Integral ei- ner Standardnormalverteilung von entspricht der Fläche unter der Kurve links neben dem z-Wert. Siehe Dougherty, C. (Econometrics, 2007), S. 424 f.

[53] Die Tabelle A3 im Anhang enthält auszugsweise spezielle Werte der standardnormalverteilten Verteilungsfunktion. Das Quantil (1 - 97,73) schneidet die Fläche in zwei ungleiche Teile. Die Fläche links repräsentiert dann eine gegebene Wahrscheinlichkeit. Siehe Jorion, P. (Value at Risk, 2007), S. 89.

[54] Siehe Hull, C. (Derivate, 2009), S. 217.

[55] Zu den einzelnen Transformationsschritten, siehe Eisele, B. (VaR in Banken, 2004), S. 63 f.; Fischer, B.R. (Analyse, 2010), S. 414 f; Kremers, M. (Industrierisiko, 2002), S. 142.

Ende der Leseprobe aus 48 Seiten

Details

Titel
Quantitatives Risikomanagement in Theorie und Praxis
Hochschule
Hochschule für Technik und Wirtschaft Berlin
Note
1,3
Autor
Jahr
2014
Seiten
48
Katalognummer
V282204
ISBN (eBook)
9783656778318
ISBN (Buch)
9783656774617
Dateigröße
720 KB
Sprache
Deutsch
Schlagworte
quantitatives, risikomanagement, theorie, praxis
Arbeit zitieren
Daniel Schurke (Autor), 2014, Quantitatives Risikomanagement in Theorie und Praxis, München, GRIN Verlag, https://www.grin.com/document/282204

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Quantitatives Risikomanagement in Theorie und Praxis


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden