Integriertes Risikomanagement - Top-Down-Ansätze mit Copulas


Diplomarbeit, 2008

87 Seiten, Note: 1,3


Leseprobe

Inhaltsverzeichnis

DECKBLATT

ABKÜRZUNGSVERZEICHNIS

ABBILDUNGSVERZEICHNIS

TABELLENVERZEICHNIS

1. EINLEITUNG

2. INTEGRIERTES RISIKOMANAGEMENT
2.1 MOTIVATION
2.2 QUANTITATIVE UND QUALITATIVE ASPEKTE
2.3 RISIKOARTEN

3. RISIKOAGGREGATION
3.1 DIE ANSÄTZE IM ÜBERBLICK
3.1.1 Standardverfahren
3.1.2 Fortgeschrittene Ansätze
3.2 ALLGEMEINE PROBLEMFELDER DER RISIKOAGGREGATION
3.2.1 Risikohorizont
3.2.2 Konfidenzniveau
3.2.3 Parameterbestimmung und Autokorrelationsproblematik
3.2.4 Aggregationsebenen

4. DAS TOP-DOWN-VERFAHREN
4.1 COPULAS
4.1.1 Grundlagen
4.1.1.1 Definitionen, Eigenschaften und Relevanz
4.1.1.2 Das Konzept der Tail Dependence
4.1.2 Systematisierung
4.1.2.1 Copulas extremer Abhängigkeiten
4.1.2.2 Elliptische Copulas
4.1.2.3 Archimedische Copulas
4.2 VORGEHEN ZUR IMPLEMENTIERUNG IM MANAGEMENTPROZESS
4.2.1 Bestimmung der Randverteilungen und Copula
4.2.2 Parameterschätzung
4.2.3 Goodness-of-Fit-Tests
4.2.3.1 Tests auf Basis von Abstandsmaßen
4.2.3.2 Ausgewählte Teststatistiken
4.3 EIN ANSATZ MIT NORMALCOPULA
4.3.1 Ansatz von Dimakos/Aas/Øksendal
4.3.1.1 Überblick
4.3.1.2 Modellansatz
4.3.1.3 Datengrundlage und Parametrisierung
4.3.1.4 Ergebnisse und Kritik
4.4 ANSÄTZE MIT VERSCHIEDENEN ELLIPTISCHEN COPULAS
4.4.1 Ansatz von Rosenberg/Schürmann
4.4.1.1 Überblick
4.4.1.2 Modellansatz
4.4.1.3 Datengrundlage und Parametrisierung
4.4.1.4 Ergebnisse und Kritik
4.4.2 Ansatz von Tang/Valdez
4.4.2.1 Überblick
4.4.2.2 Modellansatz
4.4.2.3 Datengrundlage und Parametrisierung
4.4.2.4 Ergebnisse und Kritik

5. ÖKONOMISCHE BEURTEILUNG
5.1 PRAKTIKABILITÄT
5.2 STICHHALTIGKEIT
5.3 INNERBETRIEBLICHE AKZEPTANZ

6. ZUSAMMENFASSUNG UND AUSBLICK

SYMBOLVERZEICHNIS

LITERATURVERZEICHNIS

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 1 Economic Capital

Abbildung 2 Risikoarten

Abbildung 3 Dichtefunktionen der Randverteilungen

Abbildung 4 Archimedische Copulas mit zugehörigen Generatoren und deren Bandbreiten

Abbildung 5: Zusammenhänge zwischen archimedischen Copulas und Copulas extremer Abhängigkeiten

Abbildung 6 Maximum-Likelihood-Schätzer

Tabellenverzeichnis

Tabelle 1 Funktionale Zusammenhänge zwischen Copulaparametern und Korrelationsmaßen

Tabelle 2 Economic Capital der DnB NOR Gruppe (in Mrd. NOK)

Tabelle 3 Regressionsergebnisse der Risikofaktoren

Tabelle 4 Interrisikokorrelationen

Tabelle 5 Simulationsergebnisse für Randverteilungen und Gesamtverlustverteilung

Tabelle 6 Alternative Korrelationsmatrix

Tabelle 7 Statistiken der aggregierten Verlustverteilungen

Tabelle 8 TEC Bedarfe je Copula

Tabelle 9 Diversifikationsgewinne

Tabelle 10 Vergleich von Prescribed-Method und Copulamodellen

1. Einleitung

Aktuell stehen Banken und andere Finanzdienstleistungsunternehmen vor der großen Her- ausforderung, sämtliche Risiken ihrer Geschäftstätigkeit in einem integrativen Rahmen zu erfassen. Neben Problemen qualitativer Natur - die auf die organisatorische Ausgestaltung des (integrierten) Risikomanagements (ab)zielen - umfasst dieses die anspruchsvolle Auf- gabe einer konsistenten Risikoaggregation. In diesem Sinne meint integriertes Risikoma- nagement einen koordinierten Prozess, der darauf abzielt, Risiken über verschiedene Standorte, Geschäftsbereiche und Risikoarten unternehmensweit zu managen.1

Vor der Entstehung einer integrativen Managementidee war das Hauptaugenmerk von Banken und Aufsichtsbehörden auf Verfahren zur Risikomessung innerhalb einzelner Ri- sikoarten gerichtet. Auslöser hierfür waren vor allem die Anforderungen des Neuen Basler Eigenkapitalakkords (Basel II) an die internen Ratingsysteme im Bereich Kreditrisiko so- wie die erstmalige Pflicht zur Messung von operationellen Risiken. Dem Thema Risikoin- tegration bzw. -aggregation wurde allenfalls eine untergeordnete Bedeutung zugemessen. Zur Überprüfung der Kapitaladäquanz wurde demzufolge überwiegend der von der Auf- sichtsbehörde vorgegebene Building Block Approach angewandt, dessen Vorgehensweise in der reinen Addition der Einzelrisikobeträge besteht. Korrelations- und Diversifikations- effekte fanden demnach keine Berücksichtigung.

Nicht zuletzt aufgrund der zahlreichen Forschungsbeiträge auf diesem Gebiet ist die Notwendigkeit und Relevanz fortgeschrittener Ansätze zur Risikoaggregation mittlerweile sowohl bei Unternehmen als auch bei der Aufsicht gleichermaßen anerkannt. Zu diesen ambitionierten Methoden zählen vor allem die Bottom-Up- und die Top-Down- Ansätze. Durch die Einbeziehung interrisikospezifischer Korrelations- und Diversifikationseffekte zeichnen sich diese Verfahren durch eine erhöhte Risikosensivität im Vergleich zu den bisher verwendeten Standardmethoden aus.

Obwohl sich derzeit noch keiner der diskutierten Ansätze als Standardverfahren herausge- stellt hat, so werden den Top-Down-Verfahren diesbezüglich oftmals große Chancen ein- geräumt.

Das Ziel der vorliegenden Arbeit ist es, einen Überblick über die aktuell diskutierten TopDown-Ansätze und deren Modellierung zu geben, wobei auch die dem Verfahren zugrunde liegenden Copulamethodik einer genauen Analyse unterzogen wird. Zudem soll untersucht werden, welche Schritte zur Implementierung des Verfahrens nötig sind und welche Probleme diese für potentiellen Anwender nach sich ziehen können.

Im folgenden Kapitel werden dazu vorab die Grundzüge des integrierten Risikomanage- ments dargestellt, wobei neben aktuellen Trends auch auf die zu integrierenden Risikoarten sowie auf qualitative und quantitative Aspekte des Themas eingegangen wird. Das sich anschließende Kapitel 3 bietet einen Überblick über die derzeitig diskutierten Ansätze und thematisiert darüber hinaus die allgemeinen Probleme im Rahmen der Risikoaggregation. Im vierten Kapitel - das zugleich den Hauptteil der vorliegenden Arbeit bildet - werden Grundlagen der Copulamethodik erläutert und eine Systematisierung dieser Funktionen vorgenommen. Zudem erfolgt eine Darstellung der im Einzelnen durchzuführenden Schrit- te bei der Implementierung des Top-Down-Ansatzes im Managementprozess. Ein - nach der Art der verwendeten Copulas gegliederter - Überblick über verschiedene in der Litera- tur vorgeschlagene Top-Down-Ansätze bildet den Abschluss dieses Kapitels. Im Rahmen der ökonomischen Beurteilung des fünften Kapitels wird anhand diverser Kriterien geprüft, ob und inwieweit das vorgestellte Verfahren die geforderten Praxiseigenschaften erfüllt. Kapitel 6 fasst die wesentlichen Ergebnisse der Arbeit zusammen und bietet darüber hinaus einen kurzen Ausblick auf künftige potentielle Entwicklungen innerhalb des bearbeiteten Themenkomplexes.

2. Integriertes Risikomanagement

2.1 Motivation

Die zunehmende Bedeutung eines integrierten Risikomanagements weist vielerlei Gründe auf, die sowohl im internen als auch im externen Unternehmensumfeld anzusiedeln sind. Extern bedingte Motive ergeben sich dabei für Banken insbesondere aus den Anforderun- gen der „Neuen Basler Eigenkapitalvereinbarung“. Demnach ist die Geschäftsleitung nach MaRisk dazu verpflichtet, sich einen Überblick über das Gesamtrisikoprofil des Kreditin- stituts zu verschaffen und bei der Ermittlung der Risikotragfähigkeit sicherzustellen, dass wesentliche Risiken durch das Risikodeckungspotential - ggf. unter Berücksichtigung von Wechselwirkungen - laufend abgedeckt sind.2 Im Gegensatz zur weitgehend standardisier- ten Berechung der Mindestkapitalanforderungen nach Säule 1 ist es den Banken dabei je- doch freigestellt, wie sie diesen Anforderungen der Säule 2 konkret nachkommen wollen. Hieraus resultiert die Notwendigkeit einer vollständigen Erfassung sämtlicher Unterneh- mensrisiken, die zunächst quantifiziert und schließlich zu einem Gesamtrisikoprofil zu- sammengeführt werden müssen.

Ebenso wichtig wie die Erfüllung der aufsichtsrechtlichen Anforderungen sind für Kredit- institute die internen Verwendungsmöglichkeiten eines integrierten Risikomanagements als Managementtool. Dies umfasst - neben dem oft gehegten Wunsch, die Gesamthöhe des Unternehmensrisikos in einer einzigen Zahl ausdrücken zu können3 - vor allem die Folge- verwertung der Ergebnisse aus der Risikoaggregation für Risk-Return-Evaluationen und die damit verbundenen Kapitalallokations- und Geschäftsentscheidungen.4 Letztlich sind auch die Aktionäre und Investoren börsennotierter Kapitalgesellschaften an den Ergebnissen eines integrierten Risikomanagements interessiert. Im Gegensatz zur Auf- sichtsbehörde, die das Risiko dem zur Verfügung stehenden Eigenkapital gegenüberstellt, liegt das Hauptaugenmerk der Eigentümer auf der vom Unternehmen erwirtschafteten Ri- siko-Ertrags-Relation.5

2.2 Quantitative und qualitative Aspekte

Grundsätzlich lässt sich zwischen zwei Hauptaspekten eines integrierten Risikomanage- ments unterscheiden. Während der qualitative Teil des Begriffs auf die organisatorische Ausgestaltung des integrierten Risikomanagements im Kreditinstitut abzielt, meint der quantitative Teil die Aggregation der Einzelrisiken zur Ermittlung des Gesamtunterneh- mensrisikos.

Die Herausforderung im qualitativen Sinne besteht einerseits darin, Managementmaßnah- men und -richtlinien zu etablieren, die zur Schärfung der unternehmensweiten Risikowahr- nehmung und -verantwortlichkeit geeignet sind. Andererseits müssen Systeme und Daten- banken zur Erfassung und Zuordnung der Risiken entwickelt und aufgebaut werden, damit wesentliche Risikoquellen des Unternehmens unter keinen Umständen übersehen werden.6 Die konkrete Handhabung und Ausgestaltung dieser organisatorischen Anforderungen er- folgt unternehmensindividuell äußerst unterschiedlich. So verfügt zwar mittlerweile nahe- zu jede Bank über eine eigenständige Risikomanagementeinheit, jedoch variiert deren konkrete Einordnung in der Organisation z.T. enorm. Neben der zumeist angetroffenen Einrichtung eines zentralen Risikomanagements existiert auch die Idee zur Bildung kleine- rer Risikoeinheiten und deren Verteilung auf einzelne lokale Geschäftseinheiten.7 Weiter- hin obliegen die Aufsicht und Kontrolle des integrierten Risikomanagements in einigen Kreditinstituten sowohl der Risikomanagement- als auch der Planungs- und Finanzie- rungsabteilung. Während die Aufgabe der Ersteren in der Quantifizierung und Kontrolle eingegangener Risiken besteht, ist es an der Planungs- und Finanzierungsabteilung, weite- ren Nutzen aus den Ergebnissen der Quantifizierung zu generieren. Hierzu gehören bei- spielsweise die oben erläuterten Verwendungsmöglichkeiten im Bereich Risikokapitalallokation sowie Risiko-Ertrags-Überlegungen.8

IT-Systemen kommt bei der organisatorischen Umsetzung eines integrierten Risikomanagements eine entscheidende Rolle zu. Sie bilden die Grundlage der Datengewinnung, Datenanalyse und Informationsverarbeitung. Stetig steigende Ausgaben für Verbesserungen der unternehmensinternen IT-Systeme sind ein weiteres Indiz für den zunehmenden Trend zur Etablierung integrativer Risikomanagementsysteme.9

Letztlich umfasst der qualitative Bereich des integrativen Risikomanagements auch die Identifikation und Steuerung nicht-quantifizierbarer Risiken10. Obgleich sich diese Risiken einer Aggregation zum Unternehmensgesamtrisiko entziehen, so sind sie dennoch keines- wegs zu vernachlässigen, sondern durch gezielte Maßnahmen zu kontrollieren und zu steu- ern.11

Noch bevor die im quantitativen Bereich des integrierten Risikomanagements angesiedelte Aggregation stattfinden kann, obliegt es den anwendenden Unternehmen, ein geeignetes quantitatives Risikomaß zu entwickeln, das auf multiple Risikoarten anwendbar ist und deren jeweiliges Risikoausmaß in adäquater Art und Weise widerspiegelt.12 Hierauf auf- bauend gilt es, geeignete Verfahren zur konkreten Aggregation dieser Einzelrisiken zu wählen und zu implementieren. Das meist verwendete Maß zur Darstellung der Risikohöhe ist das sog. Economic Capital (EC). Im Gegensatz zum regulatorisch vorgegebenen Min- destkapital bezeichnet das EC jene Kapitalhöhe, die vom Unternehmen als Verlustpuffer gegen alle quantifizierten ökonomischen Risiken vorgehalten werden sollte. EC-Ansätze sind zumeist an statistische Verfahren und Größen angelehnt. Interpretiert man das EC beispielsweise im Sinne einer bestimmten Value-at-Risk (VaR)-Zahl13, so entspricht es exakt dem Unterschiedsbetrag zwischen dem α -Perzentil und dem Mittelwert einer Ver- lustverteilung.14

Abbildung 1: Economic Capital

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Darstellung in Anlehnung an Grundke (2008), S. 3.

Aus Abbildung 1 wird ersichtlich, dass es sich beim EC um das vorzuhaltende Kapital zur Deckung unerwarteter Verluste handelt. Erwartete Verluste, d.h. Verluste bis zum Mittelwert, sind hingegen durch korrekte Bepreisung an die Kunden weiterzugeben und werden daher schon im Vorfeld ihrer potentiellen Entstehung abgedeckt.15

Die Hauptproblematik des quantitativ orientierten integrierten Risikomanagements besteht nun darin, dass derzeit EC-Anforderungen zunächst getrennt auf Einzelrisikoebene ermit- telt werden, eine Zusammenfassung dieser Teilmengen zur Gesamtrisikohöhe jedoch die Berücksichtigung der multivariaten Korrelations- und Diversifikationseffekte erforderlich macht.16

In einer 17 Großbanken umfassenden Studie der IFRI aus dem Jahre 2006 gaben bereits 41% Institute an, über reife interne EC-Programme zu verfügen; 35% berichten gar von umfassenden internen Programmen mit ergänzendem externen Reporting. Im Hinblick auf die Verfahren zur Risikoaggregation ergab sich jedoch ein gänzlich anderes Bild. 20% der Befragten nutzten den aufsichtsrechtlich vorgegebenen Ansatz, dessen Vorgehensweise zur Ermittlung des Gesamtrisikos bekanntlich aus der simplen Summation der Einzelrisiken besteht. Immerhin knapp über 65% der Befragten verwandten den sog. Varianz-Kovarianz- Ansatz, der bei der Berechnung des Gesamtrisikos zumindest lineare Korrelationen zwi- schen den Einzelrisiken berücksichtigt.17 Interessanterweise nutzte bis zu diesem Zeitpunkt keine der Banken die Copulamethodik, welche Interrisikokorrelationen in adäquater Weise abzubilden vermag. Nicht zuletzt diese Studienergebnisse unterstreichen sowohl den frühen Entwicklungsstand der fortgeschrittenen Methoden zur Risikoaggregation als auch die Tatsache, dass viele Banken noch immer auf einfachere Verfahren vertrauen und dementsprechend auf diese zurückgreifen. Die dadurch zwangsläufig und in einem nicht unerheblichen Umfang entstehenden Diversifikationsverluste werden im weiteren Verlauf der Arbeit - deren Schwerpunkt auf den eben dargestellten quantitativen Methoden liegt - noch detaillierter herausgestellt werden.

2.3 Risikoarten

Den Ausgangspunkt jeglicher Bemühung um ein integriertes Risikomanagement bildet die Identifikation aller relevanten Unternehmensrisiken, die später im Rahmen der Risikoaggregation zusammengeführt werden sollen.18

Im Zuge der Erfüllung ihrer Geschäftstätigkeit sehen sich Banken und Finanzdienstleister zwangsläufig einem breiten Spektrum diverser Risiken ausgesetzt. Abbildung 2 vermittelt einen ersten Eindruck über die Risikovielfalt innerhalb dieser Unternehmen.19

Abbildung 2: Risikoarten

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Darstellung in Anlehnung an IFRI Foundation (2006), S. 6.

Das Kreditrisiko unterteilt sich in Ausfall- und Bonitätsrisiko, wobei Ersteres die Unsi- cherheit der zu erwartenden Kreditrückzahlungen widerspiegelt, die sowohl durch die Zah- lungsunfähigkeit als auch die Zahlungsunwilligkeit der Kreditnehmer bedingt ist.20 Dem- gegenüber repräsentieren Bonitätsrisiken die Gefahr, dass sich Bonitäten einzelner Kredit- nehmer nach Abschluss des Kreditvertrages verschlechtern. Dies drückt sich zumeist durch Migrationen in schlechtere Ratingklassen aus. Während sich das Ausfallrisiko demnach in konkreten Zahlungsstörungen niederschlägt, implizieren Bonitätsverschlechterungen aus- schließlich Markt- und Barwertminderungen des Kurswertes der Kredittitel.21 Folgerichtig schließt das Bonitätsrisiko das Ausfallsrisiko als Worst-Case-Szenario mit ein.22 Die der Ermittlung des Kreditrisikos zugrunde liegende Randverteilung wird aufgrund beobachtbarer Extremereignisse in der Regel als linksschief angenommen.23

Obwohl operationelle Risiken kein neuartiges Phänomen sind, gerieten diese erst durch die spektakulären Verlustfälle der 90er Jahre verstärkt in den Fokus von Banken und Auf- sichtsbehörden.24 So wurde im Rahmen von Basel II parallel zur erstmaligen Unterle- gungspflicht auch eine einheitliche Definition operationeller Risiken eingeführt. Demnach bezeichnet operationelles Risiko „(…) die Gefahr von Verlusten, die in Folge der Unan- gemessenheit oder des Versagens von internen Verfahren, Menschen und Systemen oder in Folge externer Ereignisse eintreten“.25 Die Randverteilungsfunktionen des operationellen Risikos werden zumeist als extrem linksschief dargestellt, da häufig beobachtbaren Mini- malschäden extreme Verluste mit niedrigen Wahrscheinlichkeiten gegenüberstehen.

Marktrisiken bezeichnen die Gefahr potentieller Verluste aus negativen Veränderungen von Marktpreisen.26 Diese Preisrisiken untergliedern sich in mehrere Risikofaktoren, die sowohl separat als auch gemeinsam auf einzelne Vermögensposten wirken können.27 So impliziert beispielsweise das Zinsänderungsrisiko negative Abweichungen angestrebter Ergebnisgrößen aufgrund von Zinsschwankungen am Geld- und Kapitalmarkt.28 Während Aktienkursrisiken aus unerwarteten Änderungen des Aktienkurses resultieren, kommen Währungsrisiken stets dann zum Tragen, wenn Geschäfte in ausländischer Währung abge- schlossen werden und sich Wechselparitäten ändern.29 Rohstoffrisiken repräsentieren die Gefahr einer Ergebnisverminderung, die sich aus veränderten Rohstoffpreisen ergeben.30 Die dem Marktrisiko zugrunde liegende Randverteilungsfunktion wird zumeist symmet- risch und damit annähernd normalverteilt modelliert.

Das Liquiditätsrisiko meint die Gefahr, dass Banken ihren Zahlungsverpflichtungen nicht mehr termingerecht nachkommen können. Im Rahmen der vorliegenden Arbeit wird dieser Risikoart jedoch keine weitere Beachtung geschenkt.

Abbildung 3 fasst die am häufigsten beobachteten Randverteilungsformen der drei Hauptrisikoarten nochmals in visualisierter Form zusammen. Die unterschiedlichen Funktionsformen lassen bereits erahnen, welch schwieriges Unterfangen die Aggregation dieser Verteilungen zu einer Gesamtverteilung darstellt.

Abbildung 3: Dichtefunktionen der Randverteilungen

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Darstellung in Anlehnung an Böve/Hubensack/Pfingsten (2006), S. 668 bzw. Cech/Fortin (2005), S. 68.

3. Risikoaggregation

3.1 Die Ansätze im Überblick

Der nachfolgende Abschnitt bietet einen allgemeinen Überblick über die derzeit thematisierten Ansätze zur Risikoaggregation. Dabei stehen neben den Standardverfahren des Additions- und Varianz-Kovarianz-Ansatzes vor allem die fortgeschrittenen Bottom-Up- bzw. Top-Down-Ansätze im Mittelpunkt des Interesses.

3.1.1 Standardverfahren

Der mit Abstand simpelste Ansatz zur Risikoaggregation geht auf den sog. Building Block Approach der Bankenaufsicht zurück.31 Die Berechnung des Total Economic Capitals (TCE) erfolgt hierbei durch die Addition der EC-Beträge aller Einzelrisiken i:

Abbildung in dieser Leseprobe nicht enthalten

Dass die Eignung dieses Verfahrens mehr als angezweifelt werden muss, liegt vor allem an der zu Unrecht unterstellten Annahme perfekter Korrelationen zwischen den einzelnen Risikoarten. Diese Annahme stellt nämlich lediglich den Worst-Case Fall dar, der bei Ein- tritt eines Risikos das gleichzeitige Schlagendwerden sämtlicher anderer Risiken unter- stellt. Die damit verbundene Ausblendung jeglicher Diversifikationseffekte hat die zwangsläufige Überschätzung der tatsächlichen Höhe des TCE zur Folge.32 Da solche Di- versifikationseffekte jedoch empirisch nachgewiesen sind, kann der Additionsansatz allen- falls als Obergrenze des vorzuhaltenden TCE angesehen werden.33 Die Aufsichtsbehörde rechtfertigt diesen vorsichtigen Ansatz u.a. mit dem Verweis auf unvollständige Datenhis- torien und damit verbundene Modellierungsfehler fortgeschrittener Verfahrensweisen.34 Der Varianz-Kovarianz-Ansatz ist das von Banken am häufigsten verwendete Verfahren der Praxis. Etwa zweidrittel aller Banken nutzen ihn im Rahmen ihrer Risikoaggregation. Zur Ermittlung des TCE wird dabei auf die bekannte Formel der Portfoliostandardabwei- chung zurückgegriffen, in der die einzelnen Standardabweichungen der Finanztitel durch die entsprechenden EC-Beträge der Risikoarten (EC ) ersetzt werden:35

Abbildung in dieser Leseprobe nicht enthalten 36 (2)

Obwohl hierbei im Vergleich zum Additionsansatz bereits Interrisikoeffekte in Form des linearen Korrelationskoeffizienten ρ Berücksichtigung finden, muss auch dieser Ansatz als ungeeignet für Zwecke der Risikoaggregation bezeichnet werden. Dies kann hauptsäch- lich an einer der obigen Formel zugrunde liegenden unrealistischen Annahme festgemacht werden. Diese unterstellt, dass die α - Quantile der standardisierten Randverteilungen dem α - Quantil der standardisierten Gesamtverteilung entsprechen, wodurch die Anwendung von (2) letztlich nur dann korrekte Ergebnisse liefert, wenn die erfassten Renditen aller Risikoarten elliptisch (z.B. multivariat normal) verteilt sind.37 Wie jedoch aus Abbildung 3 deutlich hervorgeht, ist weder die Randverteilung des Kreditrisikos noch jene des operatio- nellen Risikos symmetrisch verteilt. Als problematisch erweist sich des Weiteren, dass im Varianz-Kovarianz-Ansatz ausschließlich lineare Abhängigkeiten zwischen den einzelnen Risikoarten erfasst werden. Dies führt zwangsläufig zur Unterschätzung der Korrelations- koeffizienten in Extremfällen; einschließlich der damit einhergehenden Überschätzung von Diversifikationseffekten bei der Berechnung des TEC.38 Zudem ergeben sich weitere Schwierigkeiten bei der Ermittlung einheitlicher Konfidenzniveaus und Risikohorizonte.39

3.1.2 Fortgeschrittene Ansätze

Ziel der ambitionierten Verfahren zur Risikoaggregation ist es, die Unzulänglichkeiten der zuvor erläuterten Standardmethoden zu umgehen, um damit eine - in Bezug auf Interrisikoeffekte - sensitivere Berechnung des TEC zu ermöglichen. Sowohl der Top-Down- als auch der Bottom-Up-Ansatz zählen zu diesen fortgeschrittenen Verfahren, deren Vorgehensweise im Folgenden kurz dargestellt werden soll.

Die Idee des Bottom-Up-Ansatzes besteht zunächst einmal darin, all jene Risikofaktoren zu ermitteln, die den größten Einfluss auf die verschiedenen Risikoarten des Unternehmens ausüben.40 Nachdem die Verteilungen dieser Risikofaktoren bestimmt wurden, erfolgt die Entwicklung eines Modells, das - neben der Darstellung der komplexen Abhängigkeiten zwischen den verschiedenen Risikofaktoren - auch die Berechnung der einzelnen EC Grö- ßen beinhaltet.41 Die Verluste der einzelnen Risikoarten werden dabei durch nicht-lineare Funktionen der Risikofaktorfluktuationen determiniert, wobei die Korrelationen zwischen den Randverteilungen indirekt durch die Beziehungen unter den Risikofaktoren abgebildet werden.42 Eine spätere Zusammenfassung einzelner EC-Größen ist demnach unnötig.43

Im Gegensatz zu Bottom-Up-Verfahren gehen Top-Down-Ansätze von bereits aggregierten Daten aus.44 Vereinfacht ausgedrückt trennen diese Ansätze die Modellierung der Randverteilungen einzelner Risikoarten von deren Abhängigkeitsstruktur. Nach der Zuordnung der Einzelrisiken zu den definierten Risikokategorien erfolgt die notwendige Generierung der jeweiligen Randverteilungen.45 Korrelationseffekte werden demnach zunächst nur innerhalb der einzelnen Risikoarten berücksichtigt. Erst in einem zweiten Schritt erfolgt die Modellierung der Abhängigkeiten zwischen diesen Risikotypen.46 Die Erfassung eben dieser Interrisikoeffekte geschieht mithilfe von sog. Copulas, die es erlauben, unterschiedliche Randverteilungen zu einer Gesamtverteilung zu aggregieren, anhand derer schließlich das TEC bestimmter Konfidenzniveaus abgelesen werden kann.

3.2 Allgemeine Problemfelder der Risikoaggregation

3.2.1 Risikohorizont

Die Feststellung eines einheitlichen Risikohorizontes bildet die Grundlage jeglicher Bemühungen um konsistente TEC-Berechnungen. Ohne diese gemeinsame Basis ist weder der Vergleich noch die Aggregation der aus den Exposures einzelner Risikoarten resultierenden EC-Größen möglich.

Grundsätzlich denkbar sind dabei Horizontspannen von einem Tag bis hin zu einem Jahr. Am unteren Ende dieses Spektrums befindet sich das Marktrisiko, das in Anlehnung an die durchschnittliche Haltedauer von Finanzinstrumenten in Marktportfolios zumeist auf tägli- cher Basis gemessen, jedoch für Zwecke der Kapitalunterlegung nach Basel II auf einen 10-Tageshorizont aufskaliert wird.47 Demgegenüber werden sowohl das Kreditrisiko als auch die operationellen Risiken regelmäßig über einen Horizont von einem Jahr gemessen. Dies geschieht vor allem vor dem Hintergrund längerer Kreditlaufzeiten sowie aufsichts- rechtlicher Vorschriften.48

Innerhalb des Bankensektors hat sich derweil die Annahme des einjährigen Risikohorizonts als gängige Praxis herausgestellt. Diese Spanne korrespondiert nicht nur mit der zuvor erwähnten Basel II-Konvention, sondern auch mit dem Zeitraum des unternehmensinternen Kapitalallokations- und Budgetierungsprozesses. Darüber hinaus entspricht dies in etwa der Spanne, in der die Institute zusätzliches Kapital am Markt beschaffen können.49 Es erscheint daher wenig verwunderlich, dass nahezu alle in der Literatur diskutierten Ansätze diesen einheitlichen Risikohorizont von einem Jahr übernommen haben. Zur Gewährleistung dieser Konvention bedarf es allerdings zunächst der Skalierung der auf täglicher Basis gemessenen Marktrisiken. Die hierfür nötigen vereinfachenden Annahmen sehen sich jedoch oftmals harscher Kritik ausgesetzt.50

3.2.2 Konfidenzniveau

Der Festlegung des Konfidenzniveaus51 kommt eine nicht minder wichtige Rolle bei der Berechnung des Kapitalbedarfs zu. So sinkt zwar beispielsweise bei der Wahl vergleichs- weise größerer α -Perzentile die Unsicherheit bzw. Ruinwahrscheinlichkeit, jedoch steigt im Gegenzug zwangsläufig die Gesamthöhe des vorzuhaltenden TEC.52 Vergleichbar zur Problematik des Risikohorizontes ergibt sich auch beim Konfidenzniveau die Notwendigkeit zur Vereinheitlichung. Letztlich sind nur Risiken mit identischen Kon- findenzniveaus vergleichbar und damit aggregierbar. Während jedoch Marktrisiken häufig zum 99%-Perzentil gemessen werden, ergeben sich beim Kreditrisiko oftmals höhere Kon- fidenzlevel, was wiederum Skalierungsschwierigkeiten nach sich zieht.53 Vor dem Hintergrund der direkten Relation zwischen externer Ratingeinstufung und ge- wähltem Konfidenzniveau erfolgt die Festlegung des unternehmensweit einheitlichen Kon- findenzlevels regelmäßig mit Hinblick auf das gewünschte Zielrating der Institute.54 Wird beispielsweise ein S&P AA-Rating angestrebt, muss die Messung des Gesamtrisikos zum 99,97%-Quantil erfolgen.55 Bei dieser Entscheidung gilt es zudem zu beachten, dass die Anwendung der fortgeschrittenen Basel II-Ansätze zur Bestimmung von Kreditrisiko und operationellen Risiken ein Konfidenzniveau von mindestens 99,99% voraussetzt. Ab- schließend lässt die Wahl bestimmter Konfidenzniveaus auch Rückschlüsse auf die Risiko- einstellung des Managements zu. Da hohe Konfidenzniveaus mit niedrigen Ruinwahr- scheinlichkeiten einhergehen, sind diese eher als Indikator für Risikoaversion zu interpre- tieren.56

3.2.3 Parameterbestimmung und Autokorrelationsproblematik

Die Bestimmung der Modellparameter ist ein gemeinsames Problem aller Risikoaggregati- onsmethoden, zu dessen Lösung Saita (2004) prinzipiell vier verschiedene Möglichkeiten vorschlägt.57 Diese umfassen neben der willkürlichen Festlegung der Parameter auch die Ableitung aus öffentlich oder intern verfügbaren Daten sowie die Bestimmung im Rahmen einer Simulation existierender interner Risikomodelle. Bei ersterer Methodik werden Koef- fizienten oftmals lediglich aus existierenden Studien übernommen bzw. von Managern des Unternehmens in Kooperation mit Experten subjektiv geschätzt. Neben der Gefahr von Fehleinschätzungen birgt ein solches Vorgehen insbesondere Unsicherheiten in Bezug auf potentielle Anreizwirkungen beteiligter Entscheidungsträger. Aus Gründen mangelnder Verfügbarkeit muss auch die Möglichkeit zur Ableitung der Parameter aus öffentlichen historischen Daten anderer finanzieller Institutionen als ungeeignet bezeichnet werden.

Die am häufigsten verwendete Praxismethode ist die Bestimmung der Korrelationsparame- ter aus internen Verlust- bzw. Gewinndaten. Zur Generierung verlässlicher Schätzungen bedarf es allerdings einer relativ großen Datenhistorie, die den Unternehmen jedoch derzeit meist nicht zur Verfügung steht. Um dennoch mit internen Daten arbeiten zu können, grei- fen viele Banken auf unterjährige Daten zurück. Dieses Vorgehen kann indes zu verfälsch- ten Ergebnissen führen, wenn Autokorrelationen58 zwischen verschiedenen risikospezifi- schen Verlustserien existieren.59 Vereinfacht ausgedrückt spricht man stets dann von Au- tokorrelation, wenn die Realisation einer Größe X im Zeitpunkt t nicht nur von der Realisa- tion einer zweiten Größe Y in diesem Zeitpunkt t abhängt, sondern diese darüber hinaus auch von Ergebnissen der Größe Y aus vorangegangenen Perioden beeinflusst wird.60

Auslöser dieser Autokorrelationen sind zumeist unterschiedliche Rechnungslegungen innerhalb einzelner Unternehmensbereiche sowie zeitlich verzögerte (Verlust-) Reaktionen dieser Bereiche auf ein und denselben Marktvorgang.61

Demnach obliegt es dem Risikomanager zu entscheiden, ob Parameter auf Basis weniger unverfälschter Daten geschätzt werden, oder dementsprechend auf längere Zeitreihen - die jedoch mit der Gefahr einer Unterschätzung tatsächlicher Korrelationen aufgrund von Autokorrelation verbunden sind - zurückgegriffen wird.62

3.2.4 Aggregationsebenen

Neben der Wahl eines bestimmten Aggregationsverfahrens müssen Unternehmen entschei- den, welche Aggregationsebenen bzw. -schritte hierbei in welcher Reihenfolge durchlaufen werden sollen. Denkbar sind dabei sowohl Aggregationen über Produkte und Instrumente innerhalb gleicher Risikotypen als auch solche über diverse Risikoarten, Geschäftsbereiche oder Rechtseinheiten hinweg.63 Im Allgemeinen wird jedoch zwischen zwei grundsätzli- chen Alternativen differenziert, die von Unternehmen in der Praxis unterschiedlich häufig angewandt werden. So aggregiert die Mehrheit der Institute zunächst die verschiedenen Risikoarten über einzelne Geschäftsbereiche hinweg, um diese anschließend auf der Ge- samtunternehmensebene zu einer Risikogröße zusammenzufassen. Eine vorab getrennte Aggregation der Risikoarten je Geschäftsbereich mit darauf folgender Zusammenfassung dieser Einheiten ist dagegen weniger verbreitet.64

Unabhängig davon weisen beide Herangehensweisen sowohl Vor- als auch Nachteile auf. So kann beispielsweise die Aggregation innerhalb einzelner Geschäftsbereiche als Aus- gangspunkt der Beurteilung des Risikobeitrags dieses Bereiches bilden und damit als Grundlage späterer Kapitalallokationsentscheidungen fungieren. Notwendig hierfür ist jedoch die Ermittlung der jeweiligen interrisikospezifischen Korrelationskoeffizienten ein- zelner Geschäftsbereiche. Hinzu kommt die potentielle Vernachlässigung von Kompensa- tionseffekten zwischen gleichartigen Risiken verschiedener Geschäftsbereiche und die da- mit einhergehenden Risikoverzerrungen. Besteht die Hauptintention der anwendenden Un- ternehmen demnach in einer möglichst exakten Gesamtrisikoberechnung, sollte die Aggre- gation über Risikoarten stets jener über Geschäftsbereiche vorgezogen werden.65

Auch in der Literatur werden diesbezüglich verschiedene Herangehensweisen empfohlen. So schlagen Kuritzkes/Schürmann/Weiner (2003) beispielsweise einen sog. Building Block Approach - der drei verschiedene Aggregationslevel innerhalb der Unternehmen beinhaltet - vor.66 Der Aggregation der Einzelrisiken innerhalb eines Risikofaktors folgt die Zusammenfassung aller Risikofaktoren eines Geschäftsbereichs sowie die Aggregation über die verschiedenen Geschäftsbereiche des Unternehmens.67 Demgegenüber ermitteln Ward/Lee (2002) die Gesamtverlustverteilung aus den zuvor aggregierten Einzelrisikoer- gebnissen.

4. Das Top-Down-Verfahren

Das folgende Kapitel thematisiert das Top-Down-Verfahren als einen der beiden fortge- schrittenen Ansätze zur Risikoaggregation. Nach der Darstellung der zugrunde liegenden Methodik der Copulas sowie deren Systematisierung werden die einzelnen Schritte zur Durchführung einer Risikoaggragation auf Basis von Copulas erläutert. Abschließend er- folgt die Analyse einiger ausgewählter Ansätze und Studien, die derzeit in der Literatur diskutiert werden.

4.1 Copulas

4.1.1 Grundlagen

Vor der Systematisierung der einzelnen Copulas erfolgt eine Analyse der Methodik und ihrer Vorgehensweise. Neben grundsätzlichen Eigenschaften und möglicher Relevanz wird dabei auch deren Fähigkeit zur Abbildung gemeinsamer Extremereignisse (Tail Dependence) untersucht.

4.1.1.1 Definitionen, Eigenschaften und Relevanz

Copulas bilden die Basis der Risikoaggregation im Sinne des Top-Down-Ansatzes. Schon der Begriff selbst - der sich aus dem lateinischen Wort „copulare“ ableitet und so viel wie verbinden bzw. vereinen bedeutet - veranschaulicht dessen Bedeutung im Zusammenhang mit der Aggregation verschiedener Risikoarten.68 Copulas sind demnach solche Funktio- nen, die univariate Randverteilungen zu multivariaten gemeinsamen Verteilungen verbin- den können.69

Ihren Ursprung finden diese jedoch nicht im Risikomanagement, sondern in der Statistik bzw. der Mathematik. Sklar (1959) führte den Begriff der Copula als Konzept zur Modellierung von Abhängigkeiten zwischen Zufallsvariablen ein. Embrechts/McNeil/Straumann (1999) waren demgegenüber die ersten, welche die Methodik der Copulas im Zusammenhang mit finanzwirtschaftlichen Anwendungen analysierten.70

Das Theorem von Sklar besagt, dass jede gemeinsame Verteilungsfunktion [Abbildung in dieser Leseprobe nicht enthalten] durch eine Copula C und die Randverteilungen F X ,Y (x) und F (y) beschrieben werden kann:

Abbildung in dieser Leseprobe nicht enthalten

(3)

Die zugehörige Dichtefunktion weist demnach folgende Form auf:

Abbildung in dieser Leseprobe nicht enthalten 71

(4)

Im mathematischen Sinne repräsentieren Copulas n-dimensionale multivariate Verteilungen, deren Randverteilungen U(0,1) gleichverteilt im Intervall [0,1] sind.72 Um hingegen die Copula einer gegebenen multivariaten Verteilung [Abbildung in dieser Leseprobe nicht enthalten] zu ermitteln, bedarf es der Methodik der Inversion bzw. einer Umkehrung des Satzes von Sklar:

Abbildung in dieser Leseprobe nicht enthalten 73 (5)

wobei[Abbildung in dieser Leseprobe nicht enthalten] [Abbildung in dieser Leseprobe nicht enthalten] und [Abbildung in dieser Leseprobe nicht enthalten] jeweils die Inversen der Randverteilungen darstellen.

Insbesondere dieses Theorem macht deutlich, warum sich Copulas im Rahmen der Risiko- aggregation einer zunehmenden Beliebtheit erfreuen. Demnach ist es möglich, Randvertei- lungen verschiedener Risikoarten unabhängig voneinander zu modellieren, um diese an- schließend unter Zuhilfenahme einer Copulafunktion zu einer gemeinsamen Verteilung zusammenzufassen.74 Folglich repräsentieren Copulas die Abhängigkeitsstruktur der zuvor separat ermittelten Randverteilungen.75 Lage, Skalierung und Form der gemeinsamen Ver- teilungsfunktion werden demgegenüber ausschließlich von den speziellen Ausprägungen der Randverteilungen determiniert.76

Im Gegensatz zu traditionellen multivariaten Verteilungen, die lediglich Randverteilungen gleicher Art verknüpfen, erlauben Copulas eine flexible Verbindung verschiedenartiger (auch nicht-normalverteilter) Randverteilungen.77 Als ebenso positive Eigenschaft im Risi- komanagementkontext erweist sich die Fähigkeit bestimmter Copulas, gemeinsame Ex- trembewegungen einzelner Randverteilungen darzustellen. Dieses - als Tail Dependence- Konzept bekannte - Phänomen wird im folgenden Abschnitt genauer untersucht.

4.1.1.2 Das Konzept der Tail Dependence

Weisen univariate Verteilungen in Bezug auf Schiefe und Kurtosis Werte auf, die von jenen der Normalverteilung abweichen, so besitzen diese sog. fat tails - ein Indiz höherer Wahrscheinlichkeiten von Extrembeobachtungen.78 Im multivariaten Kontext erfolgt die Ausweitung der fat tail-Problematik auf die gemeinsame Wahrscheinlichkeit extremer Marktbewegungen, die auch als Tail Dependence (Randabhängigkeit) bezeichnet wird. Mithilfe von Copulas wird die separate Modellierung der fat tails einzelner Randverteilungen und der zwischen diesen bestehenden Tail Dependence ermöglicht.79

Vereinfacht ausgedrückt gibt der Tail Dependence-Koeffizient die Wahrscheinlichkeit ei- nes Extremwertes einer Variable X unter der Bedingung an, dass die Variable Y ebenfalls einen Extremwert annimmt.80 Im Mittelpunkt steht demnach das Verhalten der Copula, wenn eine der Randverteilungen Werte nahe 0 bzw. nahe 1 annimmt.81 Es wird gemeinhin zwischen dem unteren und dem oberen Tail Dependence-Koeffizienten differenziert. Deren Unterschied soll im Folgenden an einem einfachen bivariaten Beispiel verdeutlicht werden. Seien X und X

zwei gleichverteilte Zufallsvariablen, dann wird der untere Tail Dependence-Koeffizient ihrer Copula definiert durch:

Abbildung in dieser Leseprobe nicht enthalten 82

Demnach entspricht u l dem Grenzwert der Wahrscheinlichkeit, dass die Zufallsvariable X1 kleiner alsa ist, gegeben den Fall, dass die Zufallsvariable X 2 ebenfalls kleiner alsa ist, wobeia gegen 0 tendiert. Ist diese Wahrscheinlichkeit sehr groß, so spricht man von positiver niedriger Tail Dependence. Nimmt X 2 eher große Werte an, spricht dies für eine niedrige Tail Dependence von 0, die gleichbedeutend mit der asymptotischen Unabhängigkeit beider Variablen ist.83 Analoge Überlegungen gelten für den nachfolgend dargestellten oberen Tail Dependence-Koffizienten:

Abbildung in dieser Leseprobe nicht enthalten84

Die Fähigkeit zur Abbildung gemeinsamer Extremereignisse kann einer Copula demnach genau dann attestiert werden, wenn diese in den Bereichen (0,0) und (1,1) Steigungen von größer als 1 aufweist.

Im methodischen Kontext wird weiterhin zwischen den zwei Ausprägungen der symmetrischen und der asymmetrischen Tail Dependence unterschieden. Von Ersterer spricht man stets dann, wenn die Wahrscheinlichkeit gemeinsamer negativer Extremausprägungen exakt mit jener für gemeinsame positive Abweichungen vom Mittelwert übereinstimmt. Im Falle asymmetrischer Tail Dependence weichen hingegen die Wahrscheinlichkeiten gemeinsamer negativer Extremausprägungen von der Wahrscheinlichkeit gemeinsamer positiver Realisationen ab.85

Die Relevanz der Tail Dependence im Rahmen des Risikomanagements ergibt sich intuitiv, da das Auftreten gemeinsamer Extremverluste verschiedener Risikoarten von enormer Bedeutung für die Höhe des letztlich vorzuhaltenden TEC ist.86

4.1.2 Systematisierung

Im sich anschließenden Abschnitt erfolgt neben der Darstellung und Gruppierung der geläufigsten Copulaarten auch deren Beurteilung im Hinblick auf das so eben erläuterte Konzept der Tail Dependence.87

4.1.2.1 Copulas extremer Abhängigkeiten

Sind die einzelnen Zufallsvariablen bzw. Randverteilungen vollständig unabhängig voneinander, so wird ihre Abhängigkeit zutreffend durch die sog. Unabhängigkeits- bzw. Produktcopula abbgebildet, deren Dichte eine konstante Form aufweist:

Abbildung in dieser Leseprobe nicht enthalten 88 (8)

Demgegenüber stellt die Komonotonie- bzw. Minimumcopula den Fall perfekt positiver Abhängigkeit zwischen den Zufallsvariablen dar:

Abbildung in dieser Leseprobe nicht enthalten89 (9)

Den entgegengesetzten Extremfall perfekt negativer Abhängigkeit liefert demzufolge die sog. Monotonie- bzw. Maximumcopula:

Abbildung in dieser Leseprobe nicht enthalten 90 (10)

Hierbei muss jedoch berücksichtigt werden, dass die obige Funktion (10) nur im zweidimensionalen Fall eine Copula darstellt.91

Für alle gleichverteilten u und v kann demnach folgende Beziehung unterstellt werden:

Abbildung in dieser Leseprobe nicht enthalten(11)

Die soeben dargestellte Ungleichung repräsentiert die Copula-Version der sog. FréchetHoeffding-Grenzen, wobei M und W die Plätze der oberen und unteren Fréchet-Hoeffding- Grenze einnehmen.92 Hieraus ergibt sich zwangsläufig, dass Copulas nicht-perfekter Abhängigkeiten stets innerhalb der obigen Fréchet-Hoeffding-Grenzen liegen, da diese Fälle extremer Abhängigkeiten der Zufallsvariablen darstellen.

[...]


1 Vgl. Jorion (2007), S. 521.

2 Vgl. MaRisk AT 2.2, AT 4.1(1) sowie Beck et al. (2006), S. 727.

3 Zur Kritik an zu großem Vertrauen in eine einzige Gesamtrisikogröße siehe Saita (2004), S. 5.

4 Vgl. Pezier (2003), S. 3; Saita (2007), S. 145f.

5 Vgl. Kuritzkes, Schürmann, Weiner (2003), S. 154; IFRI Foundation (2006), S. 6.

6 Vgl. The Joint Forum (2003), S. 1.

7 Vgl. Ebenda, S. 4f.

8 Vgl. Bank of Japan (2005), S. 9.

9 Vgl. The Joint Forum (2003), S. 5.

10 Beispiele für nicht bzw. schwer quantifizierbare Risikoarten sind: Image- und Reputationsrisiken, Strategisches Risiko, Marktrisiken des Anlagebuches.

11 Vgl. Bank of Japan (2005), S. 14; Pézier (2003), S. 7; Köster (2006), S.52.

12 Vgl. The Joint Forum (2003), S. 1.

13 Als VaR bezeichnet man den maximalen Verlust, der mit einer bestimmten Wahrscheinlichkeit (Konfidenzniveauα ) innerhalb einer vorgegebenen Haltedauer nicht überschritten wird. Vgl. dazu beispielsweise Rau-Bredow (2002), S. 2; Benninga/Wiener (1998), S. 1.

14 Vgl. Grundke (2008), S. 2; Böcker/Hillebrand (2007), S. 17f.

15 Vgl. Dimakos/Aas/Øksendal (2007), S. 86.

16 Vgl. Grundke (2007), S. 1.

17 Vgl. IFRI Foundation (2006), S. 7 und S. 11.

18 Vgl. Saita (2004), S. 11.

19 Aus Gründen der Vereinfachung beschränkt sich diese Darstellung auf die gemeinsamen Risiken dieser Branchen, weshalb auf die Thematisierung versicherungsspezifischer Risiken bewusst verzichtet wurde.

20 Vgl. Döhring (1996), S. 68f.; Lee/Ward (2002), S. 104; Hanker (1998), S. 21.

21 Vgl. Schierenbeck (2003), S. 318f.; Betge (1996), S. 306; Rolfes (1999), S. 332.

22 Vgl. Schwaiger (2001), S. 52.

23 Vgl. Kuritzkes/Schürmann (2008), S. 9.

24 Hierzu zählen beispielsweise die Vorfälle der Barings und der Sumitomo Bank, denen durch die Manager Nick Leeson und Yasuo Hamanaka 1,2 bzw. 1,8 Mrd. $ Schaden zugefügt wurden. Vgl. dazu z.B. Piaz (2001), S. 33-35.

25 S. Basel Committee on Banking Supervision (2006), § 644.

26 Vgl. Kiesel/Liebmann/Stahl (2007), S. 2.

27 Vgl. Heinzel/Knoblauch/Lorenz (2002), S. 18.

28 Vgl. Betge (2000), S. 91.

29 Vgl. Becker/Peppmeier (2000), S. 376 sowie Heinzel/Knoblauch/Lorenz (2002), S. 18.

30 Vgl. Eidgenössische Bankenkommission (1999), S. 15.

31 Vgl. § 2,3 SolvV.

32 Aufgrund der Nicht-Subadditivität des VaR kann es - rein theoretisch - auch zu Fällen kommen, in denen die Gleichung VaR( X + Y ) ≤ VaR( X ) + VaR(Y ) nicht erfüllt ist, d.h. der VaR der gemeinsam betrachteten Risiken größer als die Summer der Einzel-VaR ist. Vgl. dazu u.a. Artzner et al. (1999), S. 216f.; Grundke (2008), S. 5; Saita (2007), S. 146; Böcker/Hillebrand (2007), S. 18; Grundke (2006), S. 1.

33 Vgl. Cornaglia/Mignola/Morone (2007), S. 3; Grundke (2008), S. 5; Pezier (2003), S. 1.

34 Vgl. Basel Committee on Banking Supervision (2003), S. 2.

35 Vgl. Saita (2007), S. 150; Böve/ Hubensack/Pfingsten (2006), S. 669.

36 Zur Herleitung siehe Saita (2004), S. 25-27.

37 Vgl. Saita (2004), S. 27; Saita (2007), S. 151 ; Böve/Hubensack/Pfingsten (2006), S. 669 bzw. S. 673 ; Rosenberg/Schürmann (2006), S. 575; Cornaglia/Mignola/Morone (2007), S. 3.

38 Vgl. Cornaglia/Mignola/Morone (2007), S. 4.

39 Vgl. Grundke (2008), S. 6 sowie Kapitel 3.2. Für eine detaillierte Darstellung verschiedener VarianzKovarianz Ansätze siehe Rosenberg/Schürmann (2006), S. 574-576.

40 Geläufige Risikofaktoren sind beispielsweise Zinssätze, Credit-Spreads, Inflationsrate oder Aktienkurse.

41 Vgl. Grundke (2008), S. 4; Dimakos/Aas/Øksendal (2007), S. 84; Cornaglia/Mignola/Morone (2007), S. 3; Cech (2006), S. 7.

42 Vgl. Dimakos/Aas/Øksendal (2007), S. 84; Cech (2006), S. 7.

43 Anwendungen des Bottom-Up Verfahrens finden sich z.B. in Iscoe/Kreinin/Rosen (1999), Barhill/Maxwell (2002), Alexander/Pézier (2003), Grundke (2005).

44 Vgl. Cech/Jeckle (2005), S. 12.

45 Vgl. Hesse/Pfingsten (2008), S. 6.

46 Vgl. Cech/Fortin (2005), S. 65.

47 Vgl. Kuritzke/Schürmann/Weiner (2002), S. 36; Cech (2006), S. 8.

48 Vgl. Dimakos/Aas (2004), S. 267.

49 Vgl. Kuritzke/Schürmann/Weiner (2002), S. 36; Dimakos/Aas/Øksendal (2007), S. 83; The Joint Forum (2003), S. 23.

50 Vgl. Grundke (2008), S. 6; Cech (2006), S. 8f.; Saita (2007), S. 147.

51 Konfidenzniveaus sind Maßeinheiten zur Verdeutlichung von Verlustwahrscheinlichkeiten. Ein Konfidenzniveau von 99% besagt beispielsweise, dass die hierzu gemessene Verlusthöhe mit 99%iger Wahrscheinlichkeit nicht überschritten wird.

52 Vgl. hierzu nochmals Abbildung 1 auf S. 5 der vorliegenden Arbeit.

53 Vgl. The Boston Consulting Group (2000), S. 35; Saita (2007), S. 147.

54 Vgl. Grundke (2008), S. 3; Kuritzke/Schürmann (2007), S. 9.

55 Vgl. Dimakos/Aas (2004), S. 266.

56 Vgl. Bank of Japan (2005), S. 17.

57 Vgl. Saita (2004), S. 31-37.

58 Genauere Erläuterungen zur Problematik der Autokorrelation finden sich z.B. in Hartung (2005), S. 675- 678 oder Von Auer (2003), S. 378-404.

59 Vgl. Grundke (2008), S. 13.

60 Für ein ausführlicheres Beispiel zur Autokorrelation zweier Zeitreihen vgl. Saita (2004), S. 33-35.

61 Vgl. Saita (2004), S. 35; Grundke (2008), S. 13.

62 Vgl. Saita (2004), S. 35-36.

63 Vgl. The Joint Forum (2003), S. 6.

64 Vgl. Ebenda, S. 18.

65 Vgl. Saita (2004), S. 24f. bzw. Saita (2007), S. 149.

66 Nicht zu verwechseln mit dem aufsichtsrechtlich vorgegebenen Building Block Approach (s. S.8f.).

67 Vgl. Kuritzke/Schürmann/Weiner (2002), S. 18.

68 Vgl. Schmidt (2006), S. 1; Fermanian/Scaillet (2004), S. 2 ; Nelson (1999), S. 2.

69 Vgl. Cech (2006), S. 11.

70 Vgl. Aas (2004), S. 1.

71 Vgl. Grundke (2008), S. 8. Für eine allgemeine Darstellung siehe Bouyé (2000), S. 8.

72 Vgl. Cornaglia/Mignola/Morone (2007), S. 6; Aas (2004), S. 1; Böve/Hubensack/Pfingsten (2006), S. 673. Weitergehende Ausführungen zu technischen Eigenschaften von Copulafunktionen finden sich u.a. in Nelson (1999), S. 8; Embrechts/McNeil/Straumann (1999), S. 4f.; Cherubini (2004), S. 38f.; Fermanian/Scaillet (2002), S. 4; Embrechts/Lindskog/McNeil (2001), S. 3f.

73 Vgl. Grundke (2008), S. 8.

74 Vgl. Cherubini (2004), S. 37 u. S. 41; Aas (2004), S. 1; Bouyé (2000), S. 5.

75 Vgl. Cech/Fortin (2005), S. 68.

76 Vgl. Rosenberg/Schürmann (2006), S. 577; Kiesel/Liebmann/Stahl (2007), S. 1.

77 Vgl. Cherubini (2004), S. 60; Rosenberg/Schürmann (2006), S. 577; Beck/Lesko (2006), S. 4; Beck et al. (2006), S. 4.

78 Vgl. Cech (2006), S. 12.

79 Vgl. Cherubini (2004), S. 42f.

80 Vgl. Cech/Fortin (2005), S. 70.

81 Vgl. Kole/Koedijk/Verbeek (2006), S. 4.

82 Vgl. Chen/Fan/Patton (2004), S. 5.

83 Vgl. Chech/Fortin (2005), S. 70; Cherubini (2004), S. 43; Schmidt (2006), S. 17.

84 Vgl. Cherubini (2004), S. 43; Echtermeyer (2006), S. 14.

85 Vgl. Cech/Fortin (2005), S. 70; Cech (2006), S. 15.

86 Vgl. Aas (2004), S. 5. Neben dem Tail Dependence Konzept existieren weitere Maße wie Kedall´s Tau ( τ ), Konkordanz und Spearman´s Rho ( ρ ), die ebenfalls Abhängigkeiten zwischen Zufallsvariablen ab- K S bilden können, jedoch an dieser Stelle nicht näher untersucht werden. Für eine ausführliche Darstellung siehe u.a. Cherubini (2004), S. 95-111; Lake (2006), S. 30-35.

87 Aus Gründen der Vereinfachung werden dabei lediglich die bivariaten Formen der Copulas thematisiert. Des Weiteren erstreckt sich die Beurteilung der Tail Dependence auf die elliptischen und archimedischen Copulas.

88 Vgl. u.a. Tang/Valdez (2006), S. 5; Quesada-Molina et al. (2003), S. 501; Schmidt (2006), S. 7.

89 Vgl. Cherubini (2004), S. 70f.; Tang/Valdez (2006), S. 5; Schmidt (2006), S. 7; Genest/ Favre (2006), S. 3; Dobrić/Schmid (2005), S. 1055.

90 Vgl. Bouyé (2000), S. 8; Tang/Valdez (2006), S. 5; Schmidt (2006), S. 7.

91 Vgl. Embrechts/McNeil/Straumann (2001), S. 4.

92 Vgl. Nelson (1999), S. 9 u. S. 42; Embrechts/McNeil/Straumann (2001), S. 5; Cherubini (2004), S. 40; Genest/Quessy/Rémillard (2006), S.345.

Ende der Leseprobe aus 87 Seiten

Details

Titel
Integriertes Risikomanagement - Top-Down-Ansätze mit Copulas
Hochschule
Universität Osnabrück  (Wirtschaftswissenschafte/BWL)
Note
1,3
Autor
Jahr
2008
Seiten
87
Katalognummer
V135272
ISBN (eBook)
9783640428137
ISBN (Buch)
9783640424054
Dateigröße
873 KB
Sprache
Deutsch
Schlagworte
Integriertes, Risikomanagement, Top-Down-Ansätze, Copulas
Arbeit zitieren
Diplom Kaufmann Matthias Becker (Autor), 2008, Integriertes Risikomanagement - Top-Down-Ansätze mit Copulas, München, GRIN Verlag, https://www.grin.com/document/135272

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Integriertes Risikomanagement - Top-Down-Ansätze mit Copulas



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden