Das Kapitel 3.4 hat gezeigt, dass nur unter Verwendung des in der Solvabilitätsverordnung definierten fortgeschrittenen Ansatzes zur Messung operationeller Risiken, ein angemessener risikoadäquater Betrag zur Unterlegung dieser Risikoart mit Eigenkapital simuliert werden kann. Aus Gründen der niedrigen Risikosensitivität sind die beiden anderen Ansätze dafür nur bedingt geeignet.
Als wichtigste Grundlage für das Modell konnte die Verwendung von Verlustdatenbanken herausgestellt werden. Da jedoch die meisten in einem Bankunternehmen erfassten Schadensfälle einer ausreichenden Bemessung dieser Risikoart nicht genügen, ist das Unternehmen nicht nur regulatorisch gehalten, sein Modell mit den Erfahrungen anderer Bankunternehmen zu komplettieren. Welche externen Daten dafür Verwendung finden können und welche Anforderungen an eine Integration gestellt werden müssen, hat das Kapitel 4 am Beispiel des LDA gezeigt. Die Vorteile bei der Integration externer Verlustdatenbanken liegen dabei auf der Hand. Die skalierten Verlusthäufigkeiten und -höhen anderer Kreditinstitute können in die Berechnung des Ansatzbetrages integriert werden. Die externen Daten können nach hinreichender Auswertung der Verlustbeschreibungen durch das verwendende Institut die eigene Risikosituation transparenter gestalten. Die Chance besteht darin, mögliche Gefahren bereits frühzeitig zu erkennen und geeignete betriebsinterne Vorkehrungen zu treffen, damit bestimmte Risiken im eigenen Haus nicht auftreten bzw. minimiert werden können. Zum Beispiel durch prozessuale Veränderungen oder durch Anpassungen im internen Kontrollsystem kann solchen bereits extern aufgetretenen Verlusten im eigenen Haus bereits frühzeitig begegnet werden. Allerdings stellt der AMA auch die höchsten Anforderungen an das Kreditinstitut.
Das Thema operationelle Risiken ist komplett in das Risikomanagement der Bank zu integrieren. Dafür sind enorme finanzielle und personelle Anstrengungen bei der Implementierung des Messansatzes zu unternehmen. Des Weiteren muss das Kreditinstitut das eigene aufgestellte Modell einer ständigen Überprüfung unterziehen, damit die Konsistenz des Modells erhalten bleibt. Dieser Aufwand lohnt sich betriebswirtschaftlich meist nur für große Bankhäuser oder Institutsgruppen übergreifend. Somit wird sich eine flächendeckende Anwendung des fortgeschrittenen Ansatzes für operationelle Risiken auch für kleine Bankinstitute nur langsam durchsetzen.
Inhaltsverzeichnis
1 Einleitung
2 Grundlagen operationeller Risiken
2.1 Definition des operationellen Risikos
2.1.1 Abgrenzung zu anderen Risikoarten
2.1.1.1 Reputationsrisiko und strategisches Risiko
2.1.1.2 Marktpreisrisiko
2.1.1.3 Adressrisiko
2.1.1.4 Liquiditätsrisiko
2.2 Kategorisierungen operationeller Risiken
2.3 Ursachen operationeller Risiken
2.4 Management operationeller Risiken
2.5 Dimensionen operationeller Risiken
2.6 Aufsichtsrechtliche Anforderungen
2.6.1 Basler Eigenkapitalverordnung
2.6.1.1 Erste Säule – Mindestanforderungen
2.6.1.2 Zweite Säule – Bankaufsichtliches Überprüfungsverfahren
2.6.1.3 Dritte Säule – Offenlegungspflicht
2.6.2 Sound Practices
2.6.3 Capital Requirements Directive
2.7 Nationale, gesetzliche und aufsichtsrechtliche Regelungen
2.8 Mindestanforderungen an das Risikomanagement
3 Ermittlung des Eigenkapitalbedarfs für operationelle Risiken
3.1 Der Basisindikatoransatz
3.2 Der Standardansatz
3.3 Der fortgeschrittene Ansatz
3.4 Würdigungen der Ansätze zur Quantifizierung operationeller Risiken
4 Integration externer Schadensdaten
4.1 Loss – Distribution Approach
4.1.1 Modell Verlusthäufigkeit
4.1.2 Modell Verlusthöhe
4.1.3 Zusammenfassung der Verlusthäufigkeits- und Verlusthöhenverteilung
4.2 Inputdaten
4.2.1 Verluste mit hoher Schadenshäufigkeit und geringer Schadenshöhe
4.2.2 Verluste mit niedriger Schadenshäufigkeit und großer Schadenshöhe
4.3 Datenquellen
4.3.1 Datenkonsortien
4.3.2 Öffentliche Datenquellen
4.4 Relevanz externer Daten
5 Zusammenfassung
Zielsetzung & Themen
Die vorliegende Arbeit untersucht die Integration externer Schadensdaten in die aufsichtsrechtliche Erfassung operationeller Risiken. Ziel ist es, aufzuzeigen, wie Banken ihre interne Datenbasis für die Quantifizierung operationeller Risiken verbessern können, um eine risikoadäquate Eigenkapitalunterlegung gemäß den Anforderungen von Basel II und der Solvabilitätsverordnung zu gewährleisten.
- Grundlagen und Definition operationeller Risiken in Finanzinstituten
- Aufsichtsrechtliche Anforderungen und Messansätze für den Eigenkapitalbedarf
- Methodische Aspekte des Loss-Distribution-Approach (LDA) zur Risikokapitalberechnung
- Notwendigkeit und Integration externer Schadensdaten und Datenquellen
- Qualitätskriterien und Anpassung (Skalierung) externer Daten für interne Modelle
Auszug aus dem Buch
4.2.1 Verluste mit hoher Schadenshäufigkeit und geringer Schadenshöhe
Eine Sparkasse sammelt seit 2006 Schadensereignisse, die aus operationellen Risiken entstanden sind. Strukturiert man diese ca. vierjährige Datenhistorie in einer Matrix nach regulatorischen Geschäftsfeldern gem. § 275 SolvV Tab. 29 und Verlustereigniskategorien gem. § 287 Abs. 3 SolvV Tab. 30, wird das Grundproblem intern gesammelter Daten deutlich.
Die Abbildung zeigt nicht nur, dass sich die Daten größtenteils auf den Bereich Retail Banking konzentrieren sondern auch, dass die Sparkasse viele Risikobereiche nicht mit eigenen Daten füllen kann. Das bedeutet, in den meisten Kategorien stehen überhaupt keine Schadenereignisse zur Quantifizierung operationeller Risiken zur Verfügung. Würden einzig diese Daten im LDA modelliert, entstünde eine Unterbewertung des operationellen Risikos dieser Bank. Aus diesem Grund ist die Anreicherung mit externen Verlusten nicht nur aus betriebswirtschaftlichen Gründen geboten sondern auch regulatorisch in der Solvabilitätsverordnung explizit gefordert.
Bestätigt wird dieses Problem durch die Ergebnisse der bereits 2002 durchgeführten Loss Data Collection Exercise operational Rsik (LDCE). Diese Studie des BCBS, an der sich ca. 90 internationale Kreditinstitute beteiligt haben, zeigt, dass selbst ohne Differenzierung nach der Verlusthöhe starke Unterschiede in der Verlustzahl der verschiedenen Risikokategorien und den Geschäftsfeldern vorliegen.
Die beiden Beispiele machen deutlich, dass die interne Datenhistorie zwar im Hinblick auf die Sammlungsdauer ausreichend sein kann, jedoch in Bezug auf die Schadenshäufigkeit und -höhe pro Kategorie nicht den Anforderungen an eine risikoadäquate Bemessung entsprechen. Das heißt, durch ausschließliche Nutzung interner Daten bei der Modellierung entsteht eine "linksschiefe" Verteilungsfunktion. Damit kann nur ein relativ geringes vorzuhaltendes Risikokapital ermittelt werden.
Zusammenfassung der Kapitel
1 Einleitung: Diese Einleitung stellt die wachsende Bedeutung operationeller Risiken für Banken dar und erläutert die Zielsetzung der Arbeit, die Integration externer Daten in deren Erfassung zu analysieren.
2 Grundlagen operationeller Risiken: Hier werden Definitionen, Kategorisierungen und Ursachen von operationellen Risiken sowie die relevanten aufsichtsrechtlichen Anforderungen erläutert.
3 Ermittlung des Eigenkapitalbedarfs für operationelle Risiken: Dieses Kapitel stellt die drei regulatorischen Ansätze zur Bestimmung des Eigenkapitalbedarfs (BIA, Standardansatz, fortgeschrittener Ansatz) vor und würdigt diese.
4 Integration externer Schadensdaten: Der Hauptteil analysiert den LDA-Ansatz, die Notwendigkeit von Inputdaten sowie Methoden zur Integration und Relevanzbewertung externer Datenquellen.
5 Zusammenfassung: Die Arbeit schließt mit dem Fazit, dass die Verwendung externer Daten für eine risikoadäquate Kapitalunterlegung im fortgeschrittenen Ansatz unabdingbar ist, jedoch hohen Implementierungsaufwand erfordert.
Schlüsselwörter
Operationelle Risiken, Basel II, Solvabilitätsverordnung, Eigenkapitalunterlegung, Loss-Distribution-Approach, Risikomanagement, Schadensdaten, Datenkonsortien, Risikokapital, Value at Risk, Schadenshäufigkeit, Schadenshöhe, Risikokategorien, Risikoidentifikation, MaRisk
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit untersucht, wie Banken das operationelle Risiko quantifizieren und steuern können, insbesondere durch die Integration externer Schadensdaten in ihre internen Berechnungsmodelle.
Was sind die zentralen Themenfelder der Arbeit?
Die zentralen Themen umfassen die aufsichtsrechtlichen Rahmenbedingungen (Basel II/SolvV), die Methoden zur Ermittlung des Eigenkapitalbedarfs sowie die Qualität und Herkunft von Verlustdaten.
Was ist das primäre Ziel oder die Forschungsfrage?
Ziel ist es zu belegen, warum eine reine Nutzung interner Schadensdaten zur Risikoberechnung oft nicht ausreicht und wie externe Daten zur Erhöhung der Risikoadäquanz beitragen können.
Welche wissenschaftliche Methode wird verwendet?
Die Arbeit nutzt eine Literaturanalyse sowie die theoretische Herleitung mathematisch-stochastischer Ansätze wie den Loss-Distribution-Approach (LDA) zur Risikokapitalmodellierung.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil analysiert die drei regulatorischen Messansätze, die Modellierung von Verlusthäufigkeiten und -höhen sowie die Integration und Skalierung externer Daten aus Konsortien und öffentlichen Quellen.
Welche Schlüsselwörter charakterisieren die Arbeit am besten?
Die Arbeit ist maßgeblich durch Begriffe wie operationelle Risiken, Eigenkapitalunterlegung, Solvabilitätsverordnung und Loss-Distribution-Approach definiert.
Warum reichen interne Schadensdaten für das Risikomanagement oft nicht aus?
Interne Daten führen aufgrund seltener, aber existenzbedrohender Schadensereignisse (High Severity) zu "linksschiefen" Verteilungen, die eine Unterbewertung des tatsächlichen Risikos verursachen.
Was ist das "Datenkonsortium OpRisk" (DakOR)?
Es handelt sich um einen Datenpool des Bundesverbands öffentlicher Banken, der anonymisierte Schadensdaten seiner Mitglieder bündelt, um die Datenbasis für die Quantifizierung operationeller Risiken zu verbreitern.
Welche Rolle spielt die Skalierung bei externen Daten?
Da jedes Bankunternehmen spezifische Größen und Risikoprofile hat, müssen externe Daten mittels statistischer Verfahren (z.B. Regressionsanalyse) an die Verhältnisse des eigenen Hauses angepasst werden.
- Citar trabajo
- Tino Bänsch (Autor), 2010, Integration externer Datenbanken in die aufsichtsrechtliche Erfassung von operationellen Risiken, Múnich, GRIN Verlag, https://www.grin.com/document/168871