Simulation von Value at Risk und Conditional Value at Risk bei Wechselkursrisiken


Diplomarbeit, 2006

81 Seiten, Note: 2,0


Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Symbolverzeichnis

Abkürzungsverzeichnis

1. Einleitung

2. Messung von Marktrisiken
2.1 Value-at-Risk
2.1.1 Definition und Einsatzmöglichkeiten
2.1.2 Ermittlung des Value-at-Risk
2.1.3 Vor- und Nachteile des VaR
2.2 Conditional Value-at-Risk
2.2.1 Ermittlung des Conditional Value-at-Risk
2.2.2 Eigenschaften des Conditional Value-at-Risk
2.3 Backtesting
2.3.1 Definition
2.3.2 Die Basler Ampel

3. Simulationsverfahren zur Berechnung des Value-at-Risk
3.1 Historische Simulation
3.1.1 Durchführung der Simulation
3.1.2 Vor- und Nachteile
3.2 Monte Carlo Simulation
3.2.1 Durchführung der Simulation
3.2.2 Vor- und Nachteile
3.3 Gegenüberstellung

4. Anwendung der Simulationsverfahren zur Erfassung des Wechselkursrisikos .
4.1 Der Datensatz
4.1.1 Beschreibung
4.1.2 Verteilungen und Parameter der Risikofaktoren
4.2 Portfoliozusammensetzung
4.3 Ablauf der Berechnungen
4.3.1 Historische Simulation
4.3.2 Monte Carlo Simulation
4.3.3 Backtesting und Eigenkapitalunterlegung
4.4 Ergebnisse

5. Fazit

Literatur

Anhang

Abbildungsverzeichnis

Abbildung 1: Vereinfachte Bilanz einer Bank

Abbildung 2: Quantil einer Dichtefunktion

Abbildung 3: Quantil einer Verteilungsfunktion

Abbildung 4: VaR-Berechnungsmethoden

Abbildung 5: Gleicher VaR aber unterschiedliches Risiko

Abbildung 6: Basler Ampel - Zonen und Zuschlagsfaktoren

Abbildung 7: Anzahl der Ausnahmen aus der Basler Ampel für verschiedene Sollwahrscheinlichkeiten und Stichprobengrößen

Abbildung 8: Gegenüberstellung von Monte Carlo Simulation und Historischer Simulation

Abbildung 9: Verteilungen der LogRenditen der Wechselkurse

Abbildung 10: Kovarianzmatrix C

Abbildung 11: Portfolio A

Abbildung 12: Portfolio B

Abbildung 13: Portfolio C

Abbildung 14: Portfolio D

Abbildung 15: Portfolio E

Abbildung 16: Portfolio F

Abbildung 17: Portfolio G

Abbildung 18: VaR und CVaR für verschiedenen Stützperioden

Abbildung 19: Zonen für n = 500 und D bzw. D .

Abbildung 20: Höhe der unterschiedlichen Risikokennzahlen aufgrund verschiedener Berechnungsmethoden (in EUR)

Abbildung 21: Anzahl der Outlier aufgrund verschiedener Berechnungsmethoden

Abbildung 22: Durchschnittliche Höhe der Eigenkapitalunterlegung in Abhängigkeit von der Berechnungsmethode

Abbildung 23: ZBT für den 99%-VaR in Abhängigkeit von der Berechnungsmethode

Abbildung 24: Höhe der EMU in Abhängigkeit von der gewählten Risikokennzahl

Abbildung 25: Präferenzreihenfolge in Abhängigkeit von der Berechnungsmethode

Abbildung 26: Präferenzreihenfolge in Abhängigkeit von der Risikokennzahl

Symbolverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

„Nichts geschieht ohne Risiko, aber ohne Risiko geschieht auch nichts.“

Walter Scheel, Bundespräsident 1974 - 1979

Dieses Zitat spiegelt eine Kernaufgabe der Banken und Versicherungen wider, näm- lich Risiken zu beurteilen, zu bewerten und gegebenenfalls zu übernehmen. In den letzten Jahren konnte beobachtet werden, dass Risikocontrolling- und Risiko- managementabteilungen von Kreditinstituten innerhalb des Unternehmens enorm an Bedeutung gewannen. Aufgrund von riesigen Handelsverlusten an der Börse und einer Vielzahl durch Unternehmensinsolvenzen begründeter Kreditausfälle wurde offensichtlich, dass das alte Risikomanagement nicht mehr genügte, um Kreditinsti- tute ausreichend vor Illiquidität zu schützen. Deshalb reagierte der Gesetzgeber und entwickelte mit den Konsultationspapieren des Basler Ausschusses eine Mischung aus Gesetzen, Richtlinien und Empfehlungen, die Kreditinstitute zu einem besseren Risikomanagement teils zwingen und teils animieren sollen. Betrachten wir zur Ursachenforschung für die Notwendigkeit von neuen Richtlinien eine vereinfachte Bankenbilanz:

Abbildung 1: Vereinfachte Bilanz einer Bank

Abbildung in dieser Leseprobe nicht enthalten

(Quelle: eigene Darstellung in Anlehnung an Hartmann-Wendels, T. H. et al. (2004), S. 12.)

Problematisch ist, dass einzelne Kredite und Einlagen in der Regel weder in ihrer Höhe noch in ihrer Fristigkeit übereinstimmen. So kann einem langfristig vergebenen Millionenkredit beispielsweise eine große Zahl von kurzfristigen kleineren Sparein- lagen gegenüberstehen. Die Bank hat bei ihrer Tätigkeit darauf zu achten, dass aus den unterschiedlichen Strukturen der Aktiv- und Passivseite keine derartigen Liquidi- tätsprobleme entstehen, sodass sie die zurückgeforderten Einlagen nicht auszahlen kann. Liquiditätsprobleme können entstehen, wenn entweder viele Sparer ihre Einla- gen plötzlich zurückziehen oder die Erträge aus der Kapitalanlage geringer als ge- plant ausfallen. Diese Ertragsprobleme können sowohl im Kredit- als auch im Anla- gebereich begründet sein. Die Gefahr im Kreditbereich besteht darin, dass Kredite aufgrund von Zinsveränderungen zu für die Bank ungünstigen Konditionen vergeben werden müssen oder im schlimmsten Fall sogar durch den Bankrott des Kreditneh- mers die Kreditrückzahlung ausfällt.1 Im Anlagebereich führen ungünstige Verände- rungen von Marktparametern zu einer schlechteren Performance. Diese Ertragsprob- leme können zur Illiquidität der Bank führen. Um solchen Risiken vorzubeugen, müssen die bei der Anlage verwendeten finanziellen Mittel durch Eigenkapitalunter- legung abgesichert werden.

An diesem Punkt setzt der Basler Ausschuss an, indem Richtlinien zur Eigenkapital- unterlegung vorgegeben werden. Die eingegangenen Risiken müssen durch Eigenka- pitalunterlegung abgesichert werden, wobei höhere Risiken mittels höherer Eigenka- pitalanforderungen sanktioniert werden. Bevor jedoch die Höhe des zu hinterlegen- den Eigenkapitals jedoch bestimmt werden kann, müssen die Risiken überhaupt erst einmal quantifiziert werden. Gesucht sind also statistische Kennzahlen, die den Ver- gleich von Risiken ermöglichen.

Im Mittelpunkt dieser Arbeit steht die Risikokennzahl Value-at-Risk, da diese auf- grund der Empfehlungen von Basel 2 in der Praxis die meiste Verwendung findet. Obwohl der Value-at-Risk vom Baseler Ausschuss als die zentrale Messgröße vorge- schlagen wird, wurden in der Vergangenheit jedoch mehr und mehr kritische Stim- men laut, die auf die Schwächen dieser Kennzahl hinwiesen und für eine Ergänzung um bzw. sogar einen Ersatz durch den Conditional Value-at-Risk plädieren. Die vor- liegende Arbeit wird deshalb zwar auf dem VaR-Konzept aufgebaut, die Ergebnisse und Überlegungen werden jedoch auch auf das CVaR-Konzept übertragen.

Die Ermittlung des zu unterlegenden Eigenkapitalbetrages ist jedoch nicht nur von der Höhe der Risikokennzahl abhängig, sondern auch von der Art und Weise, wie sie ermittelt wird. Der Gesetzgeber gestattet es den Kreditinstituten, bei der Berechnung der Risikokennzahl generell auf eigene interne Modelle zurückzugreifen: „Für die Berechnung der sich aus einzelnen Geschäften ergebenden Marktrisiken bietet der Grundsatz I in §§ 32 ff. neben der Standardmethode die Ermittlung der Kapitalunter- legung für Risikopositionen mit Hilfe bankinterner Risikomodelle an.“2 Diese inter- nen Risikomodelle werden vom Bundesaufsichtsamt in Zusammenarbeit mit der Deutschen Bundesbank auf ihre Eignung überprüft. Treten bei den Modellen Mängel auf, so führen diese Mängel zu einer Erhöhung der erforderlichen Eigenkapitalunter- legung. Zusätzlich werden die genehmigten Modelle im Nachhinein immer wieder auf ihre Güte überprüft. Als Instrument dazu dient das Backtesting, welches im spä- teren Verlauf dieser Arbeit ausführlich erklärt und auch angewendet wird.

Die Höhe der Eigenkapitalunterlegung wird also unter Einbezug der folgenden drei Faktoren bestimmt:

- Höhe des Risikos➔Höhe des Value-at-Risk
- Art und Qualität des Modells
- Prognosegüte des Modells (Backtesting)

Dies wird auch deutlich wenn man die Formel zur Berechnung des zu unterlegenden Eigenkapitalbetrags betrachtet. Für die Höhe der Eigenkapitalunterlegung zum Tag t gilt:3

Abbildung in dieser Leseprobe nicht enthalten

- EMUt Eigenmittelunterlegungsbetrag für die durch das Risikomodell erfass- ten Kursrisiken zum Tag t
- VaRt-i VaR-Schätzung zum Tag t - 1 für das allgemeine und das spezifische Kursrisiko
- M Multiplikator mit M = 3 +ZBT + ZQM
- ZBT Backtesting-Zuschlagsfaktor (0 d ZBT d 1)
- ZQM Zuschlagsfaktor für qualitative Mängel (0 d ZQM d 1)
- SRt-i Aufschlag für die fehlende Modellierung von Eventrisiken bei Sur- charge-Modellen zum Tag t - i
- d Indikator-Variable mit d = 1 für Surcharge-Modelle und d = 0 für Non-Surcharge-Modelle und für Modelle, die nur das allgemeine Marktrisiko modellieren

Es wird in spezifische Risiken, die sich in der täglichen Preisentwicklung zeigen (Residualrisiken) und solche, die aufgrund seltener Ereignisse auftreten (Eventrisi- ken4 ), unterteilt. Modelle, die nur Residualrisiken berücksichtigen, werden Surchar- ge-Modelle genannt, die Modelle, die auch Eventrisiken abbilden, heißen Nonsur- charge-Modelle. Das Fehlen der Modellierung von Eventrisiken wird bei Surcharge- Modellen durch einen zusätzlichen Aufschlag (SRt-i) auf den zu unterlegenden Ei- genmittelbetrag bestraft.

Unabhängig von diesem Aufschlag (welcher im Laufe dieser Arbeit unberücksichtigt bleiben soll), ergibt sich der heute zu hinterlegende Eigenmittelbetrag aus dem Ma- ximum vom gestrigen Value-at-Risk und dem mit einem Multiplikator M verviel- fachten durchschnittlichen Value-at-Risk der letzten 60 Tage. Der Multiplikator hat den Grundwert 3 und wird jeweils um 0 bis 1 erhöht, wenn das Modell qualitative Mängel5 aufweist und wenn das Backtesting schlechte Ergebnisse liefert.

Verwendet man unterschiedliche Modelle, so muss trotz gleicher Geldanlage und damit gleichem Anlagerisiko eventuell ein unterschiedlich hoher Eigenkapitalbetrag hinterlegt werden. Zum einen können unterschiedliche Modelle einen unterschiedlich hohen VaR-Betrag liefern und zum anderen können sie in Bezug auf Qualität und Prognosegüte verschieden bewertet werden. Dass vom Gesetzgeber eine Vielzahl völlig verschiedener Modelle erlaubt ist, wird durch die Bekanntmachungen des Bas- ler Ausschusses deutlich: Interne Risikomodelle werden „mit Hilfe einer allgemeinen Beschreibung definiert, die bewusst unspezifisch gehalten wurde, um möglichst viele der verschiedenen, derzeit in der Praxis anzutreffenden Modellierungsverfahren (z.B. historische Simulation, Varianz-Kovarianz-Analyse oder Monte Carlo Simulation) abzudecken und mögliche künftige Entwicklungen nicht auszuschließen.“6 Dem Kreditinstitut wird also bei der Wahl des Modells relativ viel Freiraum gelassen, allerdings wird es für ein qualitativ schlechtes Modell auch entsprechend in Form von einer höheren Eigenkapitalunterlegung bestraft.

Die vorliegende Arbeit widmet sich der entscheidenden Bedeutung der Wahl eines geeigneten Risikomodells, indem mittels zweier verschiedener VaR- Berechnungsmethoden - der Historische Simulation und der Monte Carlo Simulation - für jeweils gleiche Portfolien überprüft wird, ob diese trotz theoretisch gleichen Risikos zu verschiedenen Ergebnissen führen. Das Ziel ist es dabei, folgende Kernfragen zu beantworten:

I. Welche Auswirkung hat die Wahl der Berechnungsmethode auf die Höhe der jeweiligen Risikokennzahl?
II. Welche Auswirkung hat die Wahl der Berechnungsmethode auf die Anzahl der Fälle, die von der Risikokennzahl nicht erfasst werden?
III. Welche Auswirkung hat die Wahl der Berechnungsmethode auf die Höhe der Eigenkapitalunterlegung?
IV. Welche Auswirkung hat die Wahl der Risikokennzahl (VaR oder CVaR) auf die Höhe der Eigenkapitalunterlegung?
V. Welche Auswirkung hat die Wahl der Berechnungsmethode auf die Präferenzrei- henfolge eines Entscheiders, der a) nur aufgrund der Risikokennzahl und b) nur aufgrund der Höhe der Eigenkapitalunterlegung entscheidet?
VI. Welche Auswirkung hat die Wahl der Risikokennzahl auf die Präferenzreihen- folge eines Entscheiders, der nur aufgrund der Höhe der Risikokennzahl ent- scheidet?

Zur Beantwortung dieser Fragen werden in Kapitel 2 grundlegende Überlegungen zur Messung von Marktrisiken bei der Kapitalanlage durchgeführt. Die beiden Risi- kokennzahlen VaR und CVaR werden ausführlich erläutert und verglichen. Am Ende des Kapitels wird das bereits erwähnte Backtesting in der speziellen Form der „Bas- ler Ampel“ dargestellt. Daraufhin werden in Kapitel 3 die beiden unterschiedlichen Berechnungsmethoden „Historische Simulation“ und „Monte Carlo Simulation“ mit ihren Vor- und Nachteilen erklärt. Im vierten Kapitel werden anhand verschiedener Portfolios die konkreten Risikokennzahlen berechnet. Dazu werden zuerst der Auf- bau des Modells und dann die erhaltenen Ergebnisse dargestellt. Abgeschlossen wird die Arbeit durch ein Fazit, in dem die wichtigsten Ergebnisse nochmals zusammen- gefasst werden und eine Bewertung der Ergebnisse erfolgt.

2. Messung von Marktrisiken

Alternativ zu den von der Bankaufsicht vorgegebenen Standardmodellen dürfen ei- gene interne Risikosteuerungsmodelle verwendet werden. „Im Mittelpunkt eines ei- genen Risikomodells steht die Kennzahl des Value-at-Risk, (VaR, gelegentlich auch Money-at-Risk, o. ä. genannt), die der Grundsatz I als potenziellen Risikobetrag be- zeichnet.“7

Offensichtlich wird der VaR vom Gesetzgeber als das zu verwendende Risikomaß vorgeschrieben. Wieso wird anderen üblichen Risikomaßen somit indirekt unterstellt, weniger geeignet zu sein? Exemplarisch soll hier ein Vergleich zu Varianz und ma- ximalem Verlust (Maximum-Loss) betrachtet werden, um eine mögliche Antwort auf diese Frage zu liefern.8 So wird in der Literatur argumentiert, dass die Varianz zum einen keinen monetären Wert liefert und somit weniger aussagekräftig ist und zum anderen auch die für eine reine Risikobetrachtung (im Sinne einer Gefahr von Ver- lusten) nicht relevante Gewinnseite einer Verteilung betrachtet. Der Maximum-Loss ist zwar monetär und bezieht sich definitiv nur auf die Verlustseite, ist aber nicht sehr informativ. Gewöhnlich entspricht der Maximum-Loss dem gesamten Portfoliowert und, dass man im schlechtesten Fall alles verliert, ist keine hilfreiche Zusatzinforma- tion. Zudem berücksichtigt der Maximum-Loss nicht, ob eine risikobehaftete Positi- on für einen Tag, einen Monat oder ein Jahr eingegangen wird.

Um eine besseres Maß für potenzielle Verluste zu finden, muss man in den Shortfall- Maßen suchen. Shortfall-Maße sind dadurch gekennzeichnet, dass sie sich auf die „x- schlechtesten“ Prozent der möglichen Ergebnisse fokussieren. Value-at-Risk und Conditional Value-at-Risk sind Shortfall-Maße und liefern einen konkreten monetä- ren Wert, der unter bestimmten (schlechten) Bedingungen eingebüßt wird. Deshalb werden diese beiden Kennzahlen nachfolgend näher erläutert. Das im Kontext dieser Arbeit relevante Risiko soll dabei das Marktrisiko sein, welches das Risiko einer Wertänderung aufgrund der Veränderung von Zinssätzen, Aktienkursen, Indexstän- den, Edelmetallpreisen, Rohstoffpreisen und im Speziellen von Wechselkursen be- schreibt und getrennt vom Kreditausfallrisiko betrachtet werden muss.

2.1 Value-at-Risk

2.1.1 Definition und Einsatzmöglichkeiten

Stark vereinfacht ausgedrückt, entsteht der VaR als Kennzahl zur Quantifizierung des Marktrisikopotenzials aus eingehender Portfolio-Analyse und der Analyse histo- rischer Daten, um potenzielle Wertänderungen zu bestimmen und in einer Zahl zu- sammenzufassen. Die folgende, eher weite Definition des Value-at-Risk Begriffes ist zum einen konsistent mit verschiedenen anderen Definitionen aus der Literatur und zum anderen ausreichend, um die wichtigsten Eigenschaften des VaR hervorzuhe- ben.

„Unter Value-at-Risk wird die

- in Geldeinheiten (der Referenzwährung) ausgedrückte,

- mit einer vorgegebenen Wahrscheinlichkeit (dem➔Konfidenzniveau)

- in einer bestimmten Zeitperiode (dem➔Zeithorizont oder der➔Haltedau- er)

- nicht überschrittene absolute Wertänderung (maximal unrealisierter Verlust)

- einer Position verstanden.“9

Die statistische Risikomaßzahl VaR ist ein monetärer Wert, der den potenziellen Risikobetrag ausdrückt, der unter bestimmten (schlechten) Bedingungen maximal auftreten kann. Die realen ex post festgestellten Verluste können und werden allerdings auch größer sein als der VaR. Dies sollte jedoch die mit dem vorgegebenen Konfidenzniveau zu erwartende Häufigkeit nicht überschreiten.

Die beiden Stellschrauben, mit denen man den Aussagegehalt und das Ergebnis be- einflussen kann, sind die Parameter Konfidenzniveau und Zeithorizont/Haltedauer. In der Praxis liegen gängige Werte für das Konfidenzniveau zwischen 90% und 99,9% vor, wobei das 95%-Niveau beim Backtesting die besten Ergebnisse auf- weist10. Die Höhe des Konfidenzniveaus ist abhängig von der Risikoaversion der Manager sowie von der Art der Anwendung des VaR.11 Soll beispielsweise ein VaR- Modell validiert werden, muss oft ein niedriges Konfidenzniveau gewählt werden, da für ein hohes Konfidenzniveau ein sehr großer Datensatz notwendig ist, um über- haupt Werte zu erhalten, die außerhalb des Konfidenzbereiches liegen. Bei hoher Risikoaversion sollte hingegen ein möglichst hohes Konfidenzniveau gewählt wer- den, um so gut wie möglich abgesichert zu sein. Sollten verschiedene Bereiche oder Unternehmen ihren VaR mit unterschiedlichen Konfidenzniveaus berechnen, ist ein Vergleich problematisch, da sich die Werte nur umrechnen lassen, wenn man die Normalverteilungsannahme trifft. Deshalb ist es sinnvoll, den VaR für verschiedene Konfidenzniveaus zu berechnen, um die Vergleichbarkeit zu gewährleisten.

Für die Wahl eines geeigneten Zeithorizonts sind mehrere Faktoren maßgebend, die aber in der Regel alle zu der gleichen Aussage führen.12 Erstens ist es entscheidend, ob die erworbenen Vermögensgegenstände auf dem jeweiligen Markt schnell liqui- diert werden können oder nicht. Sind alle anderen Parameter konstant, wäre es ideal, wenn die Halteperiode der Zeit entspricht, die man bräuchte, um die Position zu li- quidieren (also dem Handelszeitraum). Eine Liquidation stellt sich dann als schwie- rig dar, wenn der Markt beispielsweise sehr dünn ist und es eine gewisse Zeit dauert, eine Gegenpartei zu finden, die den Handel eingeht. Da in der Praxis oft mit tägli- chen Handelszeiträumen gearbeitet wird, wird zumeist auch eine Haltedauer von einem Tag unterstellt. Zweitens wird argumentiert, dass sich die oft getroffene Nor- malverteilungsannahme eher bei kurzer Halteperiode rechtfertigen lässt. Ebenfalls wird beim VaR-Konzept unterstellt, dass sich die Portfoliostruktur nicht ändert. Auch diese Annahme ist nur für einen kurzen Zeithorizont mit der Praxis in Einklang zu bringen. Die betrachtete Haltedauer muss also möglichst kurz sein, sodass in der Praxis deshalb lediglich der 1-Tages-VaR und der im Grundsatz I geforderte 10- Tages-VaR relevant sind.

Laut Definition bezieht sich der VaR-Ansatz lediglich auf die täglichen Portfolio- wertänderungen und nicht auf den Portfoliogesamtwert. Die Wertänderungen werden als Profit/Loss (P&L) Zeitreihen13 dargestellt und sind davon abhängig, wie sich die Marktsituation verändert und wie groß der investierte Geldbetrag (die Position) ist. Bei der Berechnung des VaR wird unterstellt, dass sich die Zusammensetzung der riskanten Position nicht ändert.

Die Einsatzmöglichkeiten des VaR-Ansatzes lassen sich in den folgenden vier Punk- ten zusammenfassen:14 Zum Ersten soll anhand des VaR-Ansatzes das Risiko quanti- fiziert und darüber in Form von Risikoreports berichtet werden, welche als Entschei- dungsgrundlage für das Management dienen. Daraufhin werden zweitens die identi- fizierten Risiken limitiert und die Limitauslastung überwacht. Den Händlern wird auf VaR-Basis das maximal tolerierte Risikopotenzial als Limit vorgegeben, welches nicht überschritten werden darf. Die Verletzung eines VaR-Limits kann zwei Ursa- chen haben. Zum einen kann unerwünscht hohe Risikoübernahme seitens der Händ- ler dazu führen, dass der vorgegebene maximale VaR-Betrag überschritten wird. In diesem Fall wird der Händler zu einer Korrektur des Portfolios angehalten. Auf der anderen Seite kann eine Limitüberschreitung auch auf eine schlechte Prognosegüte des jeweiligen Value-at-Risk-Modelles zurückzuführen sein. Tritt eine Überschrei- tung des VaR häufiger auf, als es bei gegebenem Konfidenzniveau zu erwarten ist, so ist das zugrunde liegende Prognosemodell zu modifizieren. Drittens erlaubt die kon- sistente Ermittlung des Risikopotenzials die Abstimmung mit der Risikotragfähigkeit auf verschiedenen Ebenen. Zuletzt kann eine Ertrags-Risiko-Betrachtung durchge- führt werden, um Erfolg und Risiko der einzelnen Geschäfte oder Geschäftseinheiten zu isolieren und in Relation zueinander zu messen.15 So dient der VaR der Überprü- fung bzw. Optimierung der Eigenmittelallokation in der Hinsicht, dass für verschie- dene Positionen bzw. Geschäftsbereiche separate Ertrags-Risiko-Betrachtungen durchgeführt und anschließend die profitabelsten Einheiten identifiziert werden kön- nen.

2.1.2 Ermittlung des Value-at-Risk

Die Berechnung des Value-at-Risk basiert auf der Wahrscheinlichkeitsverteilung der zukünftigen Wertveränderung 'P (Gewinn oder Verlust).16 Die Wertveränderung ergibt sich aus dem Vergleich der aktuellen Nettovermögensposition mit der Netto- vermögensposition eines zukünftigen Zeitpunktes.17 Zumeist wird [Abbildung in dieser Leseprobe nicht enthalten] als die Ver- mögensveränderung von einem Tag auf den nächsten definiert. Je nach betrachtetem Risikofaktor kann 'P eine absolute Änderung [Abbildung in dieser Leseprobe nicht enthalten] eine relative Änderung [Abbildung in dieser Leseprobe nicht enthalten] oder eine logarithmische Änderung [Abbildung in dieser Leseprobe nicht enthalten] sein.18

Der Value-at-Risk wird aus dem [Abbildung in dieser Leseprobe nicht enthalten] Quantil ([Abbildung in dieser Leseprobe nicht enthalten] der Wertänderungsverteilung abge- leitet. Für das [Abbildung in dieser Leseprobe nicht enthalten] Quantil gilt: Die Wahrscheinlichkeit, dass Werte kleiner als q auf- treten, beträgt [Abbildung in dieser Leseprobe nicht enthalten] die Wahrscheinlichkeit für Werte größer als [Abbildung in dieser Leseprobe nicht enthalten] entsprechend 1 - [Abbildung in dieser Leseprobe nicht enthalten]Im Allgemeinen wird unterstellt, dass Wertänderungen von Vermögenspositionen stetig verteilt sind.19 Die nachfolgenden Darstellungen betrachten ausschließlich den stetigen Fall, indem von der Existenz einer Dichtefunktion und einer stetigen streng monoton wachsenden Verteilungsfunktion ausgegangen wird. Probleme, wie bei- spielsweise die Mehrdeutigkeit des [Abbildung in dieser Leseprobe nicht enthalten]-Quantils bei waagerecht verlaufenden Teilstü- cken der Verteilungsfunktion oder das Auftreten von Sprungstellen, werden hier aus- geblendet.20

Das [Abbildung in dieser Leseprobe nicht enthalten] Quantil lässt sich sowohl aus der Dichtefunktion als auch aus der Verteilungsfunktion bestimmen. In Abbildung 2 wird das [Abbildung in dieser Leseprobe nicht enthalten] Quantil für eine Dichtefunktion grafisch veranschaulicht. Für das 5%-Quantil q0,05 gilt beispielsweise: Die Gesamtfläche unter der Dichtefunktion für Werte kleiner als q entspricht 5% der gesamten Fläche unter der Dichtefunktion.

Abbildung 2: Quantil einer Dichtefunktion

Abbildung in dieser Leseprobe nicht enthalten

(Quelle: eigene Darstellung in Anlehnung an Johanning, L./Rudolph, B. (2000), S. 27.)

Für F([Abbildung in dieser Leseprobe nicht enthalten]) als Verteilungsfunktion für die Wertänderung ist die Inverse [Abbildung in dieser Leseprobe nicht enthalten]([Abbildung in dieser Leseprobe nicht enthalten] das [Abbildung in dieser Leseprobe nicht enthalten] Quantil (also F-[Abbildung in dieser Leseprobe nicht enthalten]. Das heißt, für ein D von 5% ist der Wert, bei dem die Verteilungsfunktion 0,05 beträgt, das 5%-Quantil (Abbildung 3).

Abbildung 3: Quantil einer Verteilungsfunktion

Abbildung in dieser Leseprobe nicht enthalten

(Quelle: eigene Darstellungen.)

Für ein vorgegebenes Konfidenzniveau gilt: D = 1 - Konfidenzniveau. Bei einer Gewinn/Verlustverteilung ist das [Abbildung in dieser Leseprobe nicht enthalten] Quantil für gängige Konfidenzniveaus (95%, 99%) zumeist negativ. In diesem Fall ist der VaR der Betrag des [Abbildung in dieser Leseprobe nicht enthalten] Quantils bzw. -q D. Ist qD positiv, so wird der VaR gleich Null gesetzt. Dies ist insofern plausibel, da man, wenn man in 95% der Fälle keinen Verlust macht, auch kein Geld zurückgelegt werden muss, um diesen aufzufangen. Allgemein gilt also:

Abbildung in dieser Leseprobe nicht enthalten

Wie gezeigt wurde, lässt sich der VaR bei gegebener Verteilungsfunktion relativ einfach berechnen. Es stellt sich nun also die Frage, wie sich die Verteilungsfunktion ermitteln lässt. Abbildung 4 liefert einen Überblick über die verschiedenen Methoden zur Bestimmung einer, für die VaR-Berechnung geeigneten, Verteilungsfunktion:

Abbildung 4: VaR-Berechnungsmethoden

Abbildung in dieser Leseprobe nicht enthalten

(Quelle: eigene Darstellung in Anlehnung an Kohlhof, J./Colina, G. (2000), S. 64.)

Es gibt zwei grundlegende Möglichkeiten: die analytische Ermittlung mittels para- metrischer Verfahren und die numerischen (nichtparametrischen) Verfahren.21 Die parametrischen Verfahren beziehen ihren Namen daher, dass die Renditeverteilung anhand ihrer Momente (Erwartungswert und Varianz) dargestellt wird. Fundamental ist dabei die Verwendung von statistischen Parametern wie Volatilität, Kovarianz bzw. Korellation oder von Sensitivitäten wie Delta, Gamma, Theta, Rho.22 Analyti- sche Ansätze basieren auf den Annahmen der Normalverteilung und der Linearität zwischen Preisen und Marktvariablen.23 Die Qualität der Ergebnisse hängt somit entscheidend von der Validität dieser Hypothesen ab. Parametrische Verfahren sollen hier aber nur der Vollständigkeit halber aufgeführt und nicht weiter berücksichtigt werden, da sie bei den später folgenden Berechnungen nicht verwendet werden.

Anders als bei parametrischen Ansätzen wird bei numerischen oder simulativen An- sätzen die entscheidungsrelevante Verteilung unmittelbar berechnet und dargestellt.24 Die Daten werden nicht aus statistischen Parametern, sondern unter Verwendung angenommener Szenarien oder aus historischen Daten gewonnen. Die Qualität der Ergebnisse hängt maßgeblich von den zugrunde liegenden Zeitreihen ab. Nichtpara- metrische Methoden werden verwendet, wenn die vereinfachenden Annahmen der analytischen Verfahren nicht gerechtfertigt sind. Ein Vorteil ist zum Beispiel, dass die Normalverteilungsannahme nicht erforderlich ist, aber getroffen werden kann. In der Praxis finden zur VaR-Berechnung sowohl die Historische Simulation als auch die Monte Carlo Simulation Verwendung. Da im Laufe dieser Arbeit ein theoreti- scher und praktischer Vergleich dieser beiden Methoden durchgeführt wird, werden sie in Kapitel 3 genauer erläutert.

2.1.3 Vor- und Nachteile des VaR

Neben den bereits beschriebenen, weitreichenden Anwendungsmöglichkeiten des VaR-Ansatzes bietet dieser zusätzliche Vorteile. „Der Value-at-Risk stellt als Kenn- zahl für das Risikopotenzial eine stark verdichtete Information über die mit einer Position eingegangenen Risiken dar.“25 Dies bedeutet zwar einen Verlust mögli- cherweise relevanter Informationen, andererseits ist es durch die Berechnung dieser einen Kennzahl überhaupt erst möglich, Risiken unterschiedlicher Positionen, Portfo- lios und unterschiedlicher Bereiche unmittelbar zu vergleichen oder zu aggregieren. Auch die unterschiedlichen Marktrisiken werden durch diese Kennzahl auf ein ein- heitliches Maß zurückgeführt. Indem Konfidenzniveau und Zeithorizont verändert werden, lässt sich der Aussagegehalt des VaR kalibrieren. Der VaR-Ansatz liefert als Ergebnis einen Geldbetrag, welcher aussagekräftig und für Präsentationen und Re- ports gut geeignet ist. Aussagen wie: „Wenn ich einen Betrag in Höhe des VaR zu- rücklege, bin ich in „Konfidenzniveau-%“ der Fälle abgesichert“ sind eindeutig und leicht verständlich. Im Gegensatz zu anderen Risikomaßen kann so über die Interpre- tation als Geldbetrag eine Vorstellung über die absolute Höhe des Risikos gewonnen werden. Der VaR ist ein einseitiges Risikomaß. Da im Kontext der Bankenregulie- rung nur drohende Verluste ein Risiko darstellen, ist dies vorteilhaft gegenüber Stan- dardabweichung oder Varianz, welche sowohl Verlust als auch Gewinn als Risiko betrachten, da beides eine Abweichung vom Erwartungswert ausdrückt. Trotz dieser Vorzüge hat das Konzept des VaR auch seine Schwächen, die sowohl inhaltlicher als auch mathematischer Natur sind. So ist beispielsweise ein Vergleich verschiedener Portfolios allein auf Basis des Value-at-Risk unzureichend. Portfolios mit gleichem Value-at-Risk können deutliche Abweichungen im Gewinn- /Verlustprofil aufweisen. Problematisch ist auch die oft getroffene Normalvertei- lungsannahme. Sie wird unter Verwendung des zentralen Grenzwertsatzes, der be- sagt, dass die Verteilung der Summe unabhängiger Zufallsgrößen gegen die Normal- verteilung (NV) konvergiert, begründet. Empirisch ist jedoch zu beobachten, dass die Renditeverteilungen oft asymmetrisch sind und „fat tails“ aufweisen.26 Das heißt, dass extreme Werte in der Realität häufiger auftreten, als bei der Normalverteilung unterstellt wird. Die Wahrscheinlichkeit des Auftretens hoher Verluste wird von der Normalverteilung im Vergleich zur Realität also unterschätzt.

Leider gilt das Prinzip der Subadditivität für den VaR im Allgemeinen nicht. Gilt:

Abbildung in dieser Leseprobe nicht enthalten

so liegt Subadditivität vor (siehe auch Kapitel 2.2). Der VaR ist jedoch nur bei Un- terstellung einer gemeinsamen NV subadditiv. Deshalb muss in Frage gestellt wer- den muss, ob der VaR als Instrument zur Risikolimitierung geeignet ist, da es mög- lich ist, dass alle Geschäftsbereiche ihr Risikolimit einhalten, das Gesamtunterneh- men seine Risikobeschränkung jedoch verfehlt.27 Theoretisch könnte sich bei fehlen- der Subadditivität ein Unternehmen auch in mehrere Tochterunternehmen aufsplitten und würde so das benötigte Risikokapital senken. Bedenklich ist auch, dass gerade die Extremverluste, die ein Unternehmen am härtesten treffen würden, vom VaR nicht berücksichtigt werden. Werte, die kleiner als das D-Quantil sind, haben keinen Einfluss auf die Höhe des VaR, egal wie groß sie sind. Diese Problematik wird an dem folgenden Beispiel verdeutlicht:

Abbildung 5: Gleicher VaR aber unterschiedliches Risiko

Abbildung in dieser Leseprobe nicht enthalten

(Quelle: eigene Darstellungen.)

Obwohl im Fall X größere Verluste als im Fall Y möglich sind, ist der 95%-VaR für beide Fälle gleich. Sei b die Schwelle für den Bankrott eines Unternehmens, so ist es inakzeptabel, dass diese beiden Fälle als gleich riskant eingestuft werden, da im Fall X ein Bankrott möglich ist und im Fall Y nicht. Genau an diesem Schwachpunkt des VaR setzt das Konzept des Conditional Value-at-Risk an.

2.2 Conditional Value-at-Risk

2.2.1 Ermittlung des Conditional Value-at-Risk

Der Conditional Value-at-Risk (CVaR) wurde erstmals von Rockafellar/Uryasev eingeführt und ist auch unter dem Namen Expected Shortfall bekannt (nach Acer- bi/Tasche).28

Im Gegensatz zum VaR-Ansatz, der nur einen einzelnen Punkt der Verteilung dar- stellt, stehen beim Conditional Value-at-Risk die Verluste, die den VaR zum Konfi- denzniveau D überschreiten, im Mittelpunkt. Der CVaR gibt an, wie hoch der erwar- tete Verlust ist, wenn der VaR tatsächlich überschritten wird, bzw. ist er der mit den jeweiligen Wahrscheinlichkeiten gewichtete Durchschnitt der Verluste, die größer als der VaR-Wert sind. Es wird so auch ein Bezug zum Maximum-Loss hergestellt, da dieser in die Berechnung des CVaR mit eingeht.

Die Bezeichnung Conditional VaR leitet sich davon ab, dass der CVaR ein bedingter Erwartungswert ist. Sei F(X) die Verteilungsfunktion und f(X) die Dichtefunktion der Zufallsvariablen X und qD das D-Quantil, so gilt:

Abbildung in dieser Leseprobe nicht enthalten

Für den diskreten Fall berechnet sich der bedingte Erwartungswert genauso wie der normale Erwartungswert, nur dass mit bedingten Wahrscheinlichkeiten gerechnet wird.

Um die bedingten Wahrscheinlichkeiten zu erhalten, dividiert man die Wahrscheinlichkeit, dass X einen bestimmten Wert x annimmt, durch die Wahrscheinlichkeit für das Erfüllen der Bedingung [Abbildung in dieser Leseprobe nicht enthalten] Der Erwartungswert einer stetigen Zufallsvariablen berechnet sich nach:

Abbildung in dieser Leseprobe nicht enthalten

Anstelle der Dichte [Abbildung in dieser Leseprobe nicht enthalten] setzt man die Dichte einer in qD nach oben gestutzten Verteilung[Abbildung in dieser Leseprobe nicht enthalten]

Abbildung in dieser Leseprobe nicht enthalten

Daraus folgt:

Abbildung in dieser Leseprobe nicht enthalten

Der CVaR lässt sich für ein bestimmtes Konfidenzniveau berechnen, wenn die Dich- tefunktion der Wertänderung gegeben ist. Das Problem ist, dass gerade diese in der Praxis oft nicht bekannt ist. Auch hier wird zumeist auf die bereits diskutierte Nor- malverteilungsannahme zurückgegriffen. Bei Simulationsverfahren wird jedoch für die CVaR-Berechnung eine andere Methode angewendet. So wird der CVaR mit dem Mittelwert der Verluste, die größer als der VaR sind, abgeschätzt. Dies ist legi- tim, da der Mittelwert der erwartungstreue Schätzer für den Erwartungswert ist.

2.2.2 Eigenschaften des Conditional Value-at-Risk

Geht man davon aus, dass der CVaR-Ansatz als Verbesserung gegenüber dem VaR- Ansatz vorgeschlagen wird, so muss er einige Vorzüge gegenüber dem VaR-Konzept besitzen.

Es gilt stets:

Abbildung in dieser Leseprobe nicht enthalten

Somit ist klar, dass der CVaR ein konservativeres Risikomaß als der VaR ist. Zum einen ist der Betrag an sich höher und zum anderen ist auch der Aussagegehalt konservativer. Dies wird an den folgenden exemplarischen Aussagen deutlich: „Wenn die schlimmsten Szenarien eintreten (in D der Fälle), entspricht der zu erwartende Verlust dem CVaR.“ vs. „Wenn man den Betrag in Höhe des VaR zurücklegt, ist man in (1 - D der Fälle abgesichert.“ Während der VaR-Ansatz die schlechtesten Szenarien ausgrenzt, bezieht sich der CVaR gerade auf diese Fälle.

Im Unterschied zum VaR ist der CVaR ein kohärentes Risikomaß. Artzner et al. haben vier Axiome formuliert, die ein Risikomaß (RM) zur Steuerung des Risikos eines Portfolios erfüllen sollte:29

Für alle X, Y, c, S R gilt

Abbildung in dieser Leseprobe nicht enthalten

Die erste Bedingung besagt, dass sich der Risikogehalt der Gesamtposition um den Betrag S reduzieren muss, wenn ein risikoloser Betrag S der ursprünglichen Position hinzugefügt wird (diese Bedingung ist zum Beispiel für die Varianz nicht erfüllt).

Ein subadditives Risikomaß hat die Eigenschaft, dass die Summe der Einzelrisiken zweier Positionen stets größer oder gleich dem Risiko des Portfolios aus den beiden Positionen ist. Auf die entscheidende Bedeutung dieses Axioms wurde schon in Ka- pitel 2.1.3 hingewiesen. Das Homogenitätsaxiom fordert, dass eine c-mal so große Position auch das c-fache Risiko aufweisen muss (gilt bei Varianz nicht: [Abbildung in dieser Leseprobe nicht enthalten]. Der Risikogehalt einer Risikoposition ist proportional zum Volumen der Position. Aus dem letzten Axiom, dem der Monotonie, folgt, dass eine Position nicht risikoreicher sein kann, wenn sie stets mehr wert ist als eine andere.

Dass der CVaR die erste und die dritte Bedingung erfüllt, ist offensichtlich. Addiert man zu dem zu erwartenden Verlust (CvaR) einen sicheren Betrag, verringert sich der Verlust genau um diesen Betrag. Verdoppelt man seine Position, so führt eine relative Wertverringerung dazu, dass man auch das doppelte Geld verliert. Somit verdoppelt sich auch der CVaR und Bedingung 3 gilt als erfüllt. Analytisch kann gezeigt werden, dass der CVaR subadditiv ist.30 Auch die Monotonieeigenschaft ist erfüllt[Abbildung in dieser Leseprobe nicht enthalten]wenn v. Das Risiko von A ist kleiner (der CVaR ist kleiner), wenn A immer besser als B ist. Im Prinzip ist damit der Fall der Zu- standsdominanz abgebildet.31 Damit ist der CVaR, im Gegensatz zum VaR, ein ko- härentes Risikomaß, da alle erforderlichen Axiome erfüllt sind. Der CVaR ist eine Risikokennzahl, welche die essenziellen Vorteile des VaR beibehält und dessen auf- gezeigte Nachteile teilweise behebt. Deshalb sollte diese Kennzahl trotz der Vorga- ben des Baseler Ausschusses vermehrt zum Einsatz kommen.

2.3 Backtesting

2.3.1 Definition

Unter Backtesting versteht man den „Rückvergleich einer statistisch basierten Risi- kovorhersage aus einem internen Modell für die Wertschwankung eines gegebenen Portfolios mit dem nach Ablauf der Haltedauer durch Marktschwankungen verur- sachten tatsächlichen Wertänderungen“.32 Es werden die modellabhängigen VaR- Zahlen mit den empirisch beobachteten Ergebniszahlen verglichen. Da bei den VaR-

[...]


1 In dieser Arbeit wird lediglich das Marktrisiko betrachtet, sodass das Kreditausfallrisiko unberücksichtigt bleibt.

2 BaFin (1997), S. 31.

3 Vgl. Franke, J. (2004), S. 294.

4 Exemplarisch für Eventrisiken seien hier historische Extremszenarien und Ratingänderungen aufge- führt.

5 Da diese qualitativen Mängel hier nicht quantifizierbar sind, werden auch sie im Folgenden nicht berücksichtigt.

6 BaFin (1997), S. 169.

7 BaFin (1997), S. 170.

8 Für den nachfolgenden Vergleich von VaR mit Varianz bzw. Maximum-Loss sei auf Dowd, K. (1998), S. 40 verwiesen.

9 Meyer, C. (1999), S. 12.

10 Vgl. Kohlhof, J./Colina, G. (2000), S. 32.

11 Die nachfolgenden Ausführungen zum Konfidenzniveau beziehen sich auf Dowd, K. (1998), S. 52 sowie Kohlhof, J./Colina, G. (2000), S. 34 f.

12 Die nachfolgenden Ausführungen zum Zeithorizont beziehen sich auf Dowd, K. (1998), S. 50 ff. sowie Kohlhof, J./Colina, G. (2000), S. 32 f.

13 Vgl. Reitz, S. (1999), S. 134 f.

14 Vgl. Kohlhof, J./Colina, G. (2000), S. 103 ff . sowie Meyer, C. (1999), S. 386 ff.

15 Als Beispiel kann auf die Kennzahl „Return on Risk Adjusted Capital“ - RORAC = Ertrag/Value- at-Risk verwiesen werden.

16 In der Literatur ist ebenfalls die Verwendung von reinen Verlustverteilungen verbreitet (vgl. z.B. Rockafellar/Uryasev (2000)).

17 Vgl. Huschens, S. (2000a), S. 16.

18 Vgl. Reitz, S. (1999), S. 132 ff.

19 Vgl. Meyer, C. (1999), S. 27.

20 Für eine genauere Darstellung vgl. Huschens, S. (2000a) und Hanisch, J. (2004), Kap. 3.2.3.

21 Vgl. Meyer, C. (1999), S. 30.

22 Vgl. Ebd., S. 126.

23 Vgl. Breitenbücher, M./Kretschmer, J. (1999), S. 205.

24 Vgl. Meyer, C. (1999), S. 190.

25 Meyer, C. (1999), S. 387.

26 Vgl. Hanisch, J. (2004), S.21.

27 Vgl. Ebd., S.23.

28 Vgl. Koller, J. (2005), S. 25.

29 Die nachfolgenden Ausführungen zur Kohärenz beziehen sich auf Koller, J. (2005), S. 14 ff.

30 Zur ausführlichen Darstellung des Beweises vgl. Koller, J. (2005), S. 39 f.

31 Hier wird deutlich, dass mit Risiko nicht die Variabilität des Ergebnisses, sondern die absolute Höhe gemeint ist.

32 Krämer, M./Schmidt, H. (1999), S. 289.

Ende der Leseprobe aus 81 Seiten

Details

Titel
Simulation von Value at Risk und Conditional Value at Risk bei Wechselkursrisiken
Hochschule
Friedrich-Schiller-Universität Jena  (Wirtschaftswissenschaftliche Fakultät)
Note
2,0
Autor
Jahr
2006
Seiten
81
Katalognummer
V93436
ISBN (eBook)
9783638063197
ISBN (Buch)
9783638951289
Dateigröße
823 KB
Sprache
Deutsch
Schlagworte
Simulation, Value, Risk, Conditional, Wechselkursrisiken
Arbeit zitieren
Michael Engler (Autor), 2006, Simulation von Value at Risk und Conditional Value at Risk bei Wechselkursrisiken, München, GRIN Verlag, https://www.grin.com/document/93436

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Simulation von Value at Risk und Conditional Value at Risk bei Wechselkursrisiken



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden