Modellierung von Risiken in Kreditinstituten auf der Basis von "Value at Risk". Die "Extreme Value Theory" im Rahmen von Basel III


Bachelorarbeit, 2018

48 Seiten, Note: 1,0


Leseprobe


Inhaltsverzeichnis

I. Abbildungsverzeichnis

II. Tabellenverzeichnis

III. Abkurzungsverzeichnis

1 Einleitung
1.1 Risikomanagement
1.2 Der Begriff des Risikos

2 Risikomaße
2.1 Varianz und Standardabweichung
2.2 VaR und ES

3 Ansätze zur Quantifizierung von Risiken
3.1 Historische Simulation
3.2 Varianz-Kovarianz-Methode
3.3 Monto-Carlo Simulation

4 EVT
4.1 Block-Maxima Modell
4.2 POT Modelle
4.3 Datenanalyse
4.4 Schätzen der Parameter mit Maximum Likelihood Methode

5 Copula- Modelle

6 Die neue Welt von Basel 3
6.1 Bewertung von Finanzprodukten durch Ratingagenturen
6.2 Verfahren zur Ermittlung der Risikogewichtung
6.3 Rating, Risikomaße und Performancemaße

7 Zusammenfassung

Literaturverzeichnis

I. Abbildungsverzeichnis

Abbildung 1: Wahrscheinlichkeitsfunktionen der Standardnormalverteilung

Abbildung 2: VaR und ES

Abbildung 3: EVT

Abbildung 4: Block Maxima Modelle

Abbildung 5: Verteilungsfunktion, Dichtefunktion der GEV

Abbildung 6: Daten mit zugehörigen Exzessen ..

Abbildung 7: Verteilungsfunktion der GPD von links und Dichtefunktion der GPD von rechts

Abbildung 8: Annäherung der GPD an die GEV am positiven Ende der Verteilungsfunktion

Abbildung 9: Tägliche Rendite der S&P 500 Aktienindex

Abbildung 10: Histogramm und Dichtefunktion von S&P 500 Aktienindex

Abbildung 11: QQ-Plot der S&P 500

Abbildung 12: Die täglichen Verluste von S & P 500

Abbildung 13: Autokorrelation täglichen Renditen der S&P500

Abbildung 14: Statistischer und dynamischer VaR der Sulzer Aktie

Abbildung 15: Simulierte Grenzkorrelationen aus der Normalkopula mit verschiedenen Copula-Korrelationen von S&P500.

Abbildung 16: Copula-Konzept

Abbildung 17: Bivariate Rendite der NAS100 bzw. NIKKEI225 und links FTSE100 bzw.NIKKEI225

Abbildung 18: Empirische Copula der NAS100, FTSE100,NIKKEI225

Abbildung 19: Entwicklung der Kapitalanforderung

Abbildung 20: Vergleich der Kapitalanforderungen von Basel II und Basel III

Abbildung 21: Risikogewichten nach KSA seit Basel II (Ratingnotation folgt der Methode des Institutions Standard & Poor`s.)

Abbildung 22: Vergleich der verschiedenen Ratingsätze unter Basel III

II. Tabellenverzeichnis

Tabelle 1: Differenz VaR und ES

Tabelle 2: Berechnung von Parameter

Tabelle 3: Parameter eines GARCH(1.1)

Tabelle 4: Parameter der Copula schätzen

III. Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Die Extreme Value Theory (EVT) ist ein Teilgebiet der Statistik, welches bis vor einigen Jahren nur in den Naturwissenschaft ihre Anwendung fand. Die EVT, das negative Ende einer Verteilung und dessen Extremwerte, verspricht eine mathematisch konsistente Bewertung von Risiken und ermöglicht eine Erweiterung der bisherigen Methoden wie zB: Historische Simulation, Varianz-Kovarianz-Methode, usw. Die Bewertung und Messen von Risiken enthält einige Schwierigkeiten, welches es zu meistern gilt. Ein typisches und auch praxisnahes Risikokmaß ist hierbei die Value-at-Risk (VaR)-Kennzahl. Darüberhinaus gibt es noch weitere Risikomaße, die zur Bewertung von Portfoliorisiken herangezogen werden. Die Nutzung und die Aussagekraft der EVT bei dieser Problemstellung sollen deshalb ausführlich beleuchtet und mit anderen verglichen werden. Es sollen möglichst alle Risiken eines Unternehmens in einer gesamtheitlichen Portfoliosicht erfasst und gesteuert werden. Dies werden wir in Kapitel 3 ausführlicher erläutern. Copula, welche die Abhängigkeitsstrukturen der Risiken gesamtheitlich als Funktion modellieren, bilden einen wichtigen Schritt in die Zukunft eines integrierten Risikomanagements. Die Copula als multidimensionale Erweiterung der Sichtweise ermöglichen die integrierte Betrachtung der Risiken im Sinne eines Portfolios unter Einbezug der Abhängigkeitsstrukturen. Die vorliegende Arbeit verfolgt zwei Ziele: Einerseits soll die EVT und Copula theoretisch soweit nötig fundiert erklärt und anhand von Beispielen verständlich und praxisorientiert aufgezeigt werden. Andererseits sollen regulatorische Regeln mit Basel III auf Zukunft fokussieren und ein „gutes“ Rating nicht nur als zukünftig der Schlüssel zu attraktiven Fremdkapitalzinsen ansehen, sondern auch als Verbesserungsmaßnahme einleiten.

Die Arbeit ist inhaltlich in fünf Teile gegliedert. Der einleitende Teil enthält eine kurze Einführung in einigen grundlegenden mathematischen, statistischen Aspekten, welche den Grundstein für das Verständnis der im Hauptteil beschriebenen EVT und Copula legen. Für Erläuterung des Copulas haben wir beispielsweise US-amerikanische Aktien genommen. Die anschließende Übersicht über die regulatorischen Vorschriften, den Risikomanagement-Prozess sowie die Modelle Quantifizierung von Risiken führen in weitere Aspekte der vorliegenden Arbeit ein.

1.1 Risikomanagement

Unter Risikomanagement wird bedrohende Risiken, die systematische Erhebung, Erkennung, Analyse, Behandlung und Steuerung von Unternehmen auch Banken verstanden. Da in der Realität bei den handelnden Personen (Marktteilnehmern) Informationsasymmetrien vorherrschen, stellen Entscheidungen unter Sicherheit die Ausnahme dar. Aus diesem Grund benötigen Banken für das Handling der Risiken ein effizientes Risikomanagement. Dadurch soll die Verlusttragfähigkeit des Kreditinstituts sichergestellt werden[1]. Insbesondere sollen durch ein geeignetes Risikomanagement kritische Situationen im Rahmen der Unternehmenstätigkeiten frühzeitig erkannt, vermieden oder reduziert werden[2]. Durch die Vermeidung und Verminderung, das Herbeiführenden der Planbarkeit von kritischen Situationen kann ein Unternehmen unvorhersehbare Risiken meistern. Damit ist ein gut durchdachtes und funktionstüchtig aufgebautes Risikomanagement gleichfalls ein Frühwarnsystem für die Unternehmensleitung[3]. Dadurch werden bei erkannten Risiken entsprechende Gegenmaßnahmen eingeleitet, die dann noch eine entsprechende und gewünschte (Gegen-) Wirkung entfalten können. Der wichtige Prozessschnitt der Bewertung quantitativer Risiken wird in Unternehmen und Banken anhand mehrere Modelle unter anderem der im Hauptteil dieser Arbeit speziell betrachteten EVT dargelegt und mögliche Risikomaße, die der Steuerung der Risiken dienen, definiert und diskutiert. Den Abschluss dieses Teils bildet eine empirische Studie, die anhand der Informationen in US-amerikanischen Unternehmen (S&P 500Aktienindex) beleuchtet.

1.2 Der Begriff des Risikos

In einer aus Risikosicht betrachteten Welt gibt es statistisch gesehen zwei Situationen: Sicherheit und Unsicherheit (Risiko).

Im Zustand der Sicherheit kann man den Wert der Zufallsvariablen X in dem zukünftigen Zeitpunkt heute mit Sicherheit wiegen. Im Zustand des Risikos ist der zukünftige Wert der Zufallsvariablen X unsicher. Über die Wahrscheinlichkeitsverteilung (Wkt) von X können den zukünftigen Zuständen Wahrscheinlichkeiten zugeordnet und beispielsweise ein Erwartungswert berechnet werden sowie mögliche Schwankungen(Risiko) geschätzt werden.

Bei diskreten Zufallsvariablen kann die Wkt bestimmen, wenn der Wert eines bestimmten Zustandes x (x aus X) annimmt: Schätzt man für jeden möglichen Wert von X die Wkt, ergibt sich die Wahrscheinlichkeitsmaßefunktion (probability mass function) über den gesamten Wertebereich von X.

Wegen des nicht möglichen kontinuierlichen Wertbereichs von X wird die Wahrscheinlichkeitsverteilungsfunktion (probability distribution function) F(x) bestimmt. Und die angibt, wie hoch die kumulierte Wkt sei, wenn X kleiner oder gleich x ist: und somit die Wahrscheinlichkeitsdichtefunktion (probability density funktion) folglich ergibt.

Diese Formeln werden anhand von Beispielszahlen mit den folgenden Grafiken erklärt[4].

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Wahrscheinlichkeitsfunktionen der Standardnormalverteilung

In der oberen Grafik ist erkennlich, dass für einen Wert von x (x-Achse) die entsprechende Wkt auf der y-Achse abgelesen werden kann. Die rechte Grafik zeigt für einen Wert von x (x-Achse) die entsprechende kumulierte Wkt auf der y-Achse. Wir haben angenommen, dass Renditen normalerweise mit einem Mittelwert von Null verteilt werden.

Schlussendlich werden der Einfluss der einzelne Risiken auf den Wert eines Portfolios über die Zeit allgemein als Funktion abgebildet: Diese Funktion kann beispielsweise den Einfluss der Risiken über einen Zufallsprozess abbilden, dem die Wahscheinlichkeitsverteilung sowie die Abhängigkeiten der Risiken zugrunde liegen. Je nach Arten und Eigenschaften der Risiken können dessen Schwankungen beispielsweise über eine Normalverteilung, t-Verteilung oder eine der Extremwertverteilung der EVT modelliert werden. Bei der Modellierung der Risiken wird von unabhängig und identisch verteilten Datenreihen ausgegangen (bez. iid ( independently and identically distibuted).

Es gibt eine Vielzahl an Risiken, die einen großen Einfluss auf die Geschäftsentwicklung in Kreditinstituten haben. Marktrisiken beinhaltet Schwankungen des Werts eines Instruments auf der Aktiv- bzw. Passivseite der Bank. Kreditrisiken bezeichnen keine Rückzahlung von fälligen Beträgen im Kreditvertrag. In den Liquiditätsrisiken spiegelt sich die Unsicherheit, dass ein Finanzinstrument in Zukunft nicht sofort veräußert oder gekauft wird. Operationelle Risiken treten im täglichen Geschäft auf.

2 Risikomaße

In diesem Abschnitt werden einige geläufige Risikomaßen angesprochen und auch kurz aufgezeigt. Die Auswahl der Risikomasse erhebt keinen Anspruch auf Vollständigkeit, sondern ist eine im Zusammenhang mit der vorliegenden Arbeit als relevant betrachtete Auswahl. Im Folgenden soll der Fokus auf den VaR und ES unter dem Gesichtspunkt der EVT gelegt werden.

2.1 Varianz und Standardabweichung

Die Varianz bzw. die Standardabweichung messen die Streuung der tatsächlichen Werte um einen erwarteten Wert. Eine risikolose Anlage weist demnach eine Standardabweichung von 0 auf, während eine sehr risikoreiche Anlage eine hohe Standardabweichung hat. Allgemein wird der Erwartungswert E(X), die Varianz und die Standardabweichung (σ), als quadratische Wurzel der Varianz, gemäß der folgenden Formeln für diskrete bzw. stetige Zufallsvariablen ermittelt[5].

bezeichnet hierbei die möglichen Werteausprägungen und die jeweils zugehörigen Eintrittswahrscheinlichkeiten. Die Varianz quantifiziert die mittlere quadratische Abweichung vom Erwartungswert, wobei sie ein zweiseitiges bzw. symmetrisches Risikomaß darstellt, d.h. es werden sowohl negative als auch positive Abweichungen vom Erwartungswert quantifiziert[6]. Diese Risikoquantifizierung entspricht jedoch nicht der aufgezeigten Risikodefinition, in der ausschließlich negative Abweichungen vom Mittelwert betrachtet werden. Lediglich unter der unrealistischen Annahme von normalverteilten Kreditverlusten könnte das Kreditrisiko anhand von symmetrischen Kennzahlen angemessen quantifiziert werden. Für asymmetrische Verteilungen sind Varianz und Standardabweichung jedoch ungeeignet[7], und sie erfüllen daher auch nicht die Anforderung, das ökonomische Risiko direkt messen zu können. Des Weiteren ist die Varianz kein leicht zu interpretierendes Risikomaß unter dem Gesichtspunkt, dass das Risiko nicht in Geldeinheiten, sondern bei Verlustbetrachtungen in Geldeinheiten zum Quadrat angegeben wird. In diesem Fall werden der erwartete und der unerwartete Verlust in unterschiedlichen Maßeinheiten angegeben, was eine Vergleichbarkeit bzw. Interpretation der Ergebnisse erschwert[8]. Die Standardabweichung als Wurzel der Varianz stellt ein in Ansätzen leichter zu interpretierendes Risikomaß dar, da das Kreditrisiko in Geldeinheiten ausgedrückt werden kann, bzw. erwarteter und unerwarteter Verlust die gleiche Maßeinheit aufweisen. Hierbei gilt es jedoch zu berücksichtigen, dass die Standardabweichung kaum über eine eigenständige Interpretation im Sinne von zu unterlegendem Risikokapital verfügt, sondern sie gibt lediglich einen Anhaltspunkt für die Streuung der Verluste. Im Rahmen einer Portfoliosteuerung können sie daher zu falschen Steuerungsentscheidungen führen[9]. Varianz und Standardabweichung zählen auch nicht zu den kohärenten Risikomaßen, da neben der Eigenschaft der Subadditivität auch die Eigenschaft der Monotonie durch die Berücksichtigung von positiven und negativen Abweichungen vom erwarteten Verlust verletzt wird[10].

2.2 VaR und ES

Der VaR () bezeichnet ein bestimmtes Quantil z einer Wahrscheinlichkeitsverteilung F, welches mit einer Wkt von q somit ein maximaler Wer(Schwelle)nicht überschritten wird: wobei . VaR ist eine Punktschätzung, die keine Aussage über einen möglichen Verlust macht, der über dieser Schwelle liegt. Dies verlangt nach einem weitergehenden Risikomass dem Expected Shortfall, der den Durchschnitt der Werte über dem VaR schätzt und gerade bei der Verteilung mit „fat tail“ um einiges höher liegen kann.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: VaR und ES

Der Expected Shortfall bezeichnet den Wert x, welcher bei Überschreitung des mit einer Wkt von q durchschnittlich zu erwarten ist[11]:

Der ES wird auch als tail conditional loss bezeichnet, da er den erwarteten Wert(Verlust) unter der Bedingung angibt, dass der VaR überschritten wurde. Er berechnet somit den Erwartungswert der Verluste, welcher über der Schwelle q, wenn der „worst case“ – ein extremes Ereignis eintreten sollte.

Tabelle 1: Differenz VaR und ES

Abbildung in dieser Leseprobe nicht enthalten

Der VaR (99%) einer standardmäßig normalverteilten Datenreihe beträgt beispielsweise 2.33. Das heißt, dass von hundert Werten in Zukunft erwartungsgemäß nur ein Wert über 2.33 liegt. Abb. 2 zeigt die Risikomasse VaR und ES unter Annahme einer Standartnormalverteilung (keine „fat tails“) sowie einer t- bzw. GPD-Verteilung (mit“fat tail“). Bei einer Verteilung mit fat tail kann der Unterschied zwischen den beiden Risikomaßen beträchtlich sein. Der ES kann den VaR sinnvoll ergänzen, sollte jedoch nicht als Ersatz betrachtet werden. Beide Risikomaßen haben ihre Vor- und Nachteile[12].

Bei einer elliptischen Verteilung der Risiken (beispielsweise einer multivariaten Normalverteilung) kann der VaR problemlos verwendet werden. In der Praxis kann es jedoch Abweichungen geben. Der ES hingegen ist in jedem Fall kohärent, da er nicht eine Punktschätzung darstellt, sondern explizit auch die Verluste über dem VaR einbezieht. Hierfür ein exemplarisches Beispiel: Aktie A und Aktie B sind voneinander unabhängig und haben jeweils Ausfallwahrscheinlichkeit von 3%. Der jeweilige VaR(95%) beträgt 0, da mit einer Wkt von 95% kein Verlust entsteht. Kombiniert man diese beiden in einem Portfolio, ist der VaR (95%>0), da nur noch mit einer Wkt von 94% kein Verlust realisiert wird, was unter der Schwelle des VaR von 95% liegt. Der VaR des Portfolios ist folglich höher als die Summe der VaR der einzelnen Komponenten. Eine Aufsplitterung dieses Portfolios in einzelne Komponenten bewirkt somit eine Reduktion des Risikomaßes, was ökonomisch keinen Sinn macht.

3 Ansätze zur Quantifizierung von Risiken

Ein Knackpunkt des Risikomanagements stellt nicht nur der prozessorientierte Einbezug mehrere Risiken eines Unternehmens sondern auch deren Bewertung dar. Dazu müssen vorerst eine ausreichende und qualitative gute Datenbasis sowie adäquate Ansätze zur Verfügung stehen[13].

3.1 Historische Simulation

Kern werden bei der historischen Simulation Wertänderungszeitreihen der Vergangenheit kopiert und als mögliche Prognose für die zukünftige Entwicklung eines Risikos oder einer bestimmten Finanzposition genutzt. Die Verwendung statistischer Parameter ist dabei nicht notwendig. Die Historische Simulation ist damit das einfachste und am leichtesten nachvollziehbare Modell zur Bestimmung des VaR. Durch eine Übertragung der historischen Wertänderungen auf den aktuellen (Ausgangs-) Wert einer Finanzposition oder eines Portfolios lassen sich in Abhängigkeit von Betrachtungshorizont und Länge der historischen Zeitreihe beliebig viele Zukunftsprognosen für die Wertentwicklung des betrachteten Portfolios generieren.

3.2 Varianz-Kovarianz-Methode

Die Methode setzt neben der Normalverteilungsannahme voraus, dass sich die Wertentwicklung des betrachteten Risikos bzw. der betrachteten Finanzposition auf mehrere wertbeeinflussende Risikofaktoren zurückführen lässt, die in einer für statistische Zwecke ausreichenden Anzahl und Güte vorhanden bzw. beobachtbar sind[14]. Darüber hinaus ist es erforderlich, dass sich die Wertänderungen und die gegenseitigen Wechselwirkungen der Risikofaktoren möglichst linear zu der Wertentwicklung des betrachteten Risikos bzw. der betrachteten Finanzposition verhalten und sich diese relativ gut nachvollziehen bzw. erklären lassen. Das Ziel der Varianz-Kovarianz-Analyse ist es, aus der Kenntnis der gegenseitigen Abhängigkeiten der Risikofaktoren auf die Gewinn- und Verlustverteilung des betrachteten Risikos bzw. der betrachteten Finanzposition zu schließen. Sofern es gelingt den Wert der betrachteten Finanzposition jeweils durch eine lineare Verknüpfung der Wertentwicklung der als maßgeblich identifizierten Risikofaktoren darzustellen und gleichzeitig unterstellt werden kann, dass die Wertentwicklungen der Risikofaktoren einer multivariaten Normalverteilung folgen, wird die Methode auch als Delta-Normal-Methode bezeichnet. Im Kern geht es bei der Varianz-Kovarianz-Analyse stets darum, aus der Ermittlung der (historischen) Erwartungswerte, Varianzen und gegenseitigen Abhängigkeiten von Risikofaktoren auf den Erwartungswert und die Varianz (bzw. die Standardabweichung) einer beliebigen Finanzposition (oder eines Portfolios) zu schließen, für die die betrachteten Risikofaktoren jeweils bewertungsrelevant sind. Wegen der Normalverteilungsannahme lässt sich durch die Kenntnis von Erwartungswert und Standardabweichung für die betrachtete Finanzposition (das betrachtete Portfolio) dann eine entsprechende (Normal-)Verteilung darstellen bzw. berechnen. Unter Berücksichtigung der Tatsache, dass sich wiederum jede Normalverteilung in eine Standard-Normalverteilung umrechnen lässt, kann der VaR zum jeweils gewünschten Konfidenzniveau dann sehr leicht ermittelt werden[15]. Zur Berechnung nichtlinearer Risiken (z. B. Risiken aus Optionen und sonstigen Derivaten) ist der Ansatz allerdings ungeeignet.

3.3 Monto-Carlo Simulation

Im Gegensatz zu der historischen Simulation wird bei der Monte-Carlo-Simulation versucht, eine von den Daten der Vergangenheit weniger stark beeinflusste Prognose für die künftige Risikoentwicklung zu erzeugen. Um dies zu erreichen, werden nicht einfach die historisch beobachteten Wertänderungen eins-zu-eins übernommen, sondern es wird zunächst versucht, die Risikofaktoren bzw. die Einflussgrößen zu bestimmen, mit deren Hilfe sich die historisch beobachtete Gewinn- oder Verlustverteilung erklären lässt (beispielsweise die Veränderungsraten eines Aktienindizes, gemeinsam mit den Veränderungsraten der allgemeinen Marktrendite). Mit Hilfe eines Zufallsgenerators werden dann für die ermittelten Risikofaktoren wiederum Zufallszahlen generiert, wobei für die Risikofaktoren eine bestimmte (theoretische) Zufallsverteilung (z. B. eine Normalverteilung) angenommen und zu Grunde gelegt wird. Basierend auf diesen neu erzeugten Zufallsverteilungen der Risikofaktoren werden dann wiederum zufällige Kombinationen aus den potentiellen Ausprägungen der Risikofaktoren gebildet. Abschließend werden diese neu erzeugten Risikofaktor-Kombinationen dann wieder dazu verwendet, eine neue Gewinn- und Verlustverteilung für das eigentlich interessierende Risiko bzw. die Wertveränderung einer bestimmten Finanzposition zu generieren bzw. zu simulieren. Die dadurch letztlich neu erzeugte Gewinn- und Verlustverteilung beruht somit zwar auf denselben Einflussgrößen, wie die historisch beobachtete Verteilung; die Abfolge und Ausprägung ihrer jeweiligen Ergebnisse wird nun jedoch durch einen beliebig oft wiederholbaren Zufallsprozess neu erzeugt. Analog zu dem Vorgehen bei der historischen Simulation kann der VaR letztendlich auch hier durch einfaches „Abzählen“ der nach ihrer Größe sortierten Wertänderungen ermittelt werden. Die besondere Schwierigkeit bzw. Herausforderung bei dieser Methode besteht jedoch (wie bei der Varianz-Kovarianz-Methode) darin, dass die in den Modellen verwendeten (theoretischen) Verteilungsannahmen ggf. nicht mit den tatsächlichen Verteilungen übereinstimmen oder dass die als wesentlich identifizierten Risikofaktoren eventuell nicht ausreichen, um die tatsächliche zukünftige Wertentwicklung angemessen prognostizieren zu können[16].

4 EVT

Im Alltag treten immer wieder Extremereignisse oder neue Rekorde auf. Oder die in den letzten funf Jahren erlebte weltweit große Krise. Auch Sturmfluten, Erdbeben oder Stürme, wie etwa 2007 der Sturm Kyrill, können Ausmaße annehmen, die zwar nur selten auftreten, dafür aber verheerende Auswirkungen haben. Und auch Fälle wie die folgenreiche Fehlspekulationen bei der Metallgesellschaft oder des amerikanischen Investment-Hauses Long Term Capital Management haben bewiesen, dass professionelles Risiko-Management bei immer stärker schwankenden Märkten zur Überlebensfrage für Unternehmen werden kann.

Ein wichtiges mathematisches Werkzeug, um Risiken zu modellieren und zu messen, ist die Extremwerttheorie. Der Vorteil von EWT liegt darin, dass man für das Risikomanagement nicht die gesamten Zeitreihen modellieren muss. Es genügt, den Teil der Zeitreihe adäquat zu beschreiben, der über einer hohen Schwelle liegt[17].

Es gibt zwei gängige finanzmarkttheoretische Modellannahmen „Random-Walk-Hypothese“(RW-Hypothese) und „Normalverteilungshypothese“ (N-Hypothese). Die RW-Hypothese scheitert bezüglich des Wertprozesses an der konstituierenden Bedingung für Wertprozesse schon in finanzwirtschaftlicher Hinsicht[18]. Die RW-Hypothese bezüglich des Logwertprozesses mündet hingegen in einem grundlegenden Problem der Finanzökonometrie, nämlich bei der Fragestellung, ob Logrenditen von zeitlich vorgelagerten Logrenditen abhängen, oder nicht. Darüber hinaus hat man festgestellt, dass Finanzzeitreihen typischerweise sogenannte Volatilitätscluster aufweisen, d.h. Perioden starker Volatilität wechseln sich mit Perioden schwacher Volatilität ab. Solche Abhängigkeitsstrukturen werden allerdings im Rahmen der Zeitreihenanalyse untersucht, indem man sich bewußt von der RW-Hypothese distanziert. Die N-Hypothese bezüglich der bedingten Renditen führt - analog zur RW-Hypothese für Wertprozeße - zum Problem der finanzwirtschaftlichen Verlustgrenze. Hingegen kann die Annahme normalverteilter bedingter Logrenditen ökonomisch nicht unmittelbar von der Hand gewiesen werden, weswegen sie lange Zeit die herrschende Meinung widerspiegelte. Oftmals wird auch versucht, die N-Hypothese durch den zentralen Grenzwertsatz zu rechtfertigen.

Ein extremes Ereignis liegt vor, wenn die Flanken (Tails) der Verteilung angenommen werden. Da mit der Normalverteilung die Extrema nicht so gut modelliert werden können, denn sie hat zu dünne Tails, werden im Folgenden sogenannte Extremwertverteilungen eingeführt. Diese Verteilungen haben breitere Flanken.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: EVT

Grundsätzlich gibt es zwei verschiedene Modellvarianten der Extremwerttheorie[19]: POT-Modelle und Block-Maxima-Modelle. Als erstes möchten wir die block-maxima-Modell und dann die POT-Modelle erläutern.

4.1 Block-Maxima Modell

Im vorherigen Kapitel wurde immer davon ausgegangen, dass die Zufallsvariablen unabhängig und identisch verteilt sind, und auch dass diese Annahme nicht immer gerechtfertigt ist. Dazu ist zunächst die Gruppe der Block-Maxima Modelle zu erwähnen. Man betrachtet eine Reihe unabhängig und identisch verteilter Zufallsvariablen () mit einer Verteilungsfunktion F.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Block Maxima Modelle

Diese Datenreihe in Abb. 4 wird in m Anzahl Blöcke der Größen n eingeteilt und somit . Die Verteilungsfunktion der Maxima kann bestimmt werden wobei z ein Quantil der Verteilung F bezeichnet. F ist als unbekannt akzeptiert, welche im Bereich der Extrem der Verteilung liegen[20]. Das „Extremal Types Theorem“ besagt, dass bei die Verteilung der standardisierten Maxima – wenn zwei normalisierenden Konstanten und existieren gegen eine der Extreme Value Distributions (EVD) konvergieren, unabhängig davon, wie verteilt sind.

Bei Fisher/Tippett Theorem existiert so gilt

Wenn diese Bedingung erfüllt wird, dann ist F im Anziehungsbereich(Maximum Domain of Atraction, MDA) von , dann gilt weiter vom Typ Hier werden auch 3 Typen (Frechet, Gumbel, Weibull) von EVD beachtet[21].

Durch die Parametrisierung können die drei Typen von EVD in der Generalized Extrema Value Distribution(GEV) zusammengefasst werden[22].

Wobei ξ der shape parameter, μ der location parameter, σ scale parameter der Verteilungsfunktion ist. Für gilt für die langsam variierende Funktion L(z).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Verteilungsfunktion, Dichtefunktion der GEV

Abb 5 zeigen Verteilungsfunktion bzw. die Dichtefunktion der GEV in den drei Wertbereich des shape parameter ξ. Es ist deutlich zu erkennen, dass die Enden der Verteilung mit zunehmendem ξ dicker werden, d.h. den Extremwerten mehr Gewicht und somit eine höhere Wkt beigemessen werden.

[...]


[1] Vgl. Lukas Kuhn, operationelle Risiken im Kontext der Gesamtbanksteuerung, Marburg 2006

[2] Vgl. Brauweiler, 2015, S. 2

[3] Vgl. Brauweiler, 2015, S.3

[4] Vgl. Christoffersen F. 2012 S. 15

[5] Vgl. Coles Sturt, 2001, S.13-15

[6] Vgl. Theiler, 2002, S. 76

[7] Vgl. McNeil 1999, S.204

[8] Vgl. Albrecht/Maurer, 2002, S. 582

[9] Vgl. Wehrspohn, 2001, S. 583-588

[10] Vgl. Theiler, 2002, S.73

[11] Vgl. Christoffersen F., 2012, S. 32-36

[12] Rosenberg,Scheuermann 2006. S.45

[13] Eine vergleichende Übersicht der bekannten Ansätze findet sich beispielsweise in Crouhy/Galai/Mark,2001,S.216-218

[14] Vgl. Crouhy/Galai/Mark, 2001, S. 198-204

[15] Vgl. Zurek, 2009, S. 53-58

[16] Vgl. Crouhy/Galai/Mark, 2001, S. 212-216

[17] Vgl. Dias/Embrechts, 2000, S. 15

[18] Vgl. Rosenberg/Scheuermann, 2006, S.15 und S. 32

[19] Vgl. McNeil/Saladin, 2009, S.80 und S.90

[20] Vgl.Coles,2001, S. 45-47

[21] Vgl. Bei Coles,2001 S.47,48 und McNeil S.15 ist ausführlich geschrieben.

[22] McNeil, 1998,S. 5

Ende der Leseprobe aus 48 Seiten

Details

Titel
Modellierung von Risiken in Kreditinstituten auf der Basis von "Value at Risk". Die "Extreme Value Theory" im Rahmen von Basel III
Hochschule
Technische Hochschule Köln, ehem. Fachhochschule Köln
Note
1,0
Autor
Jahr
2018
Seiten
48
Katalognummer
V427518
ISBN (eBook)
9783668720206
ISBN (Buch)
9783668720213
Dateigröße
1641 KB
Sprache
Deutsch
Schlagworte
Basel, Bachelor, Modellierung, Risiken, Kreditinstituten, Basis VaR, Zusammenhang, EVT, Wirtschaft, Block Maxima Modelle, Copula, Millionen, Begriff, Arbeit, Zusammenfassung, Wahscheinlichkeitsverteilung, short tailed, fat tailed, Bank, MDA, Zufallsvariablen, POT Modelle, Block, Ratingansatz, Modell, Downside, GARCH-Modell, Hausarbeit, Bachelorarbeit
Arbeit zitieren
Shuhrat Umarov (Autor:in), 2018, Modellierung von Risiken in Kreditinstituten auf der Basis von "Value at Risk". Die "Extreme Value Theory" im Rahmen von Basel III, München, GRIN Verlag, https://www.grin.com/document/427518

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Modellierung von Risiken in Kreditinstituten auf der Basis von "Value at Risk". Die "Extreme Value Theory" im Rahmen von Basel III



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden